JP2006511900A - Reduction of resolution difference of separated colors - Google Patents

Reduction of resolution difference of separated colors Download PDF

Info

Publication number
JP2006511900A
JP2006511900A JP2005510034A JP2005510034A JP2006511900A JP 2006511900 A JP2006511900 A JP 2006511900A JP 2005510034 A JP2005510034 A JP 2005510034A JP 2005510034 A JP2005510034 A JP 2005510034A JP 2006511900 A JP2006511900 A JP 2006511900A
Authority
JP
Japan
Prior art keywords
image
information
edge
applying
wavelet transform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005510034A
Other languages
Japanese (ja)
Other versions
JP4709649B2 (en
JP2006511900A5 (en
Inventor
オー. ピエールムッター ケレン
エム. ピエールムッター シャロン
ワング エリック
アール. クレイマー ポール
Original Assignee
ワーナー ブラザーズ エンターテイメント インコーポレーテッド
アメリカ オンライン インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/657,138 external-priority patent/US6956976B2/en
Priority claimed from US10/657,243 external-priority patent/US6947607B2/en
Application filed by ワーナー ブラザーズ エンターテイメント インコーポレーテッド, アメリカ オンライン インコーポレイテッド filed Critical ワーナー ブラザーズ エンターテイメント インコーポレーテッド
Priority claimed from PCT/US2003/040803 external-priority patent/WO2004059574A2/en
Publication of JP2006511900A publication Critical patent/JP2006511900A/en
Publication of JP2006511900A5 publication Critical patent/JP2006511900A5/ja
Application granted granted Critical
Publication of JP4709649B2 publication Critical patent/JP4709649B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4061Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution by injecting details from different spectral ranges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

【課題】 なし
【解決手段】 開示された特定の実施態様は、フィルム・フレーム(たとえば、赤くゆらめく炎など)の複数の分離色(画像)の間の解像度差を低減するためにデジタル画像処理を用いる。赤の画像の中の箇所を、別の画像からの情報を用いて選択できる。選択された箇所を、その別の画像からの情報を用いて修正できる。選択は、第1の画像の中のエッジの特徴を、別の画像の中の対応するエッジの特徴と比較することを含むことができる。修正は、2つの画像のウェーブレット変換を実行し、第2の画像に変換を適用することによって生成された特定の係数(またはそれらの係数の関数)を、第1の画像に変換を適用することによって生成された係数にコピーすることを含むことができる。コピーされた係数を、選択された箇所と相関させることができる。他の開示された手法を、上記から変形して、別の分野に適用できる。
Certain embodiments disclosed provide digital image processing to reduce resolution differences between multiple separated colors (images) of a film frame (eg, a red flickering flame, etc.). Use. A location in the red image can be selected using information from another image. The selected location can be modified using information from the other image. The selection can include comparing an edge feature in the first image with a corresponding edge feature in another image. The modification performs a wavelet transform of the two images and applies the transform to the first image with specific coefficients (or a function of those coefficients) generated by applying the transform to the second image. Copying to the coefficients generated by. The copied coefficient can be correlated with the selected location. Other disclosed techniques can be modified from the above and applied to other fields.

Description

開示された特定のシステムは、主に画像処理に関し、特に、分離色に解像度差があることによって現れる歪みの低減に関する。   The particular system disclosed relates primarily to image processing, and more particularly to reducing distortion that appears due to resolution differences in separated colors.

映画のカラー・フィルムは比較的最近開発されたものである。1950年代に映画用カラー・フィルムが出現するまで、カラー映画を制作するプロセスには、カラー情報を2本以上のリールの白黒フィルムに取り込むことが含まれていた。最初のTechnicolorの3色フィルム分離プロセスでは、特別に設計された映画カメラに3本のリールの白黒フィルムが装填された。レンズを通って入ってきた光が光の3原色に分離され、それぞれが別々のリールの白黒フィルムに記録された。その3本のリールが現像された後、オリジナルのシーンの黄色(青の反対色)、シアン色(赤の逆色)、およびマゼンタ色(緑の逆色)の部分を表現する3つの写真ネガが作成された。   Movie color film is a relatively recent development. Until the advent of cinematographic color film in the 1950s, the process of producing color movies included capturing color information into two or more reels of black and white film. In the first Technocolor 3-color film separation process, a specially designed movie camera was loaded with 3 reels of black and white film. The light entering through the lens was separated into the three primary colors of light, each recorded on a black and white film on a separate reel. After the three reels have been developed, three photographic negatives representing the yellow (opposite blue), cyan (opposite red), and magenta (opposite green) portions of the original scene Was created.

最初のTechnicolorのプロセスによる色分解の作成のほかに、カラー・フィルムの長期保存のためにも色分解が作成され、利用されてきた。これは、映画用白黒フィルムの保存寿命が、一般に、カラー・フィルムより格段に長いためである。このプロセスでは、映画用カラー・フィルムは、1本のリールの白黒フィルムを露光させて赤色、緑色、青色の記録を順次行うために用いられた。つまり、分離色が順次形成されるように、各フレームが最終リールに3回プリントされた。   In addition to creating color separations by the first Technocolor process, color separations have been created and used for long-term storage of color films. This is because the shelf life of black and white film for movies is generally much longer than that of color film. In this process, a cinema color film was used to expose a single reel of black and white film to sequentially record red, green and blue. That is, each frame was printed three times on the final reel so that the separation colors were formed sequentially.

映画スタジオでは、フィルム現像ラボで行われる写真プロセスを用いて、3つの分離色を1本のリールのカラー・フィルムに再合成することができる。3つの分離色の各色が別々のリールに分かれている場合は、光学式フィルム・プリンタを用いて、各ソース・リールのサイズと位置の調整を一度に行う。具体的に言うと、その処理には3つの段階がある。第1に、マゼンタ色のソース・リールを、しかるべきカラー・フィルタを通して最終リールに投影する。その後、その最終リールを巻き戻し、次のソース・リールを装填してサイズを調整し、カラー・フィルタを変更する。このプロセスを、3つの分離色のすべてが光学式フィルム・プリンタによって1本の最終リールにプリントされるまで繰り返す。結果として得られる最終リールを中間ポジ(「IP」)と呼ぶ。この時点で、色は、赤色、緑色、青色(それぞれシアン色、マゼンタ色、黄色の反対色)で表現されている。   In a movie studio, the photographic process performed in a film development lab can be used to recombine the three separate colors into a single reel of color film. When each of the three separated colors is divided into separate reels, the size and position of each source reel are adjusted at once using an optical film printer. Specifically, the process has three stages. First, a magenta source reel is projected through the appropriate color filter onto the final reel. Then, the last reel is rewound, the next source reel is loaded, the size is adjusted, and the color filter is changed. This process is repeated until all three separation colors are printed on one final reel by the optical film printer. The resulting final reel is referred to as an intermediate positive (“IP”). At this point, the colors are expressed in red, green, and blue (opposite colors of cyan, magenta, and yellow, respectively).

Technicolorの3色フィルム分離プロセスは、他のプロセスと同様に、たとえば、解像度差を含む、フィルムの様々な歪みの影響を受ける。解像度差が発生するのは、たとえば、Technicolorカメラの光路およびレンズ・コーティングの性質によって、一般的に、3つのフィルム分離色の解像度あるいは鮮明度に大きな差が生ずるためである。シアン色のフィルタは、通常、黄色のフィルタの背後に配置される。いわゆるバイパック配置である。黄色のフィルタを通る光は、シアン色のフィルタに到達する前にフィルタリングされ、悪いことに、拡散される。結果として、黄(青の反対色)の分離色は、シアン(赤の反対色)の分離色より解像度が高いのが一般的である。マゼンタ(緑の反対色)の分離色は、バイパック配置では作成されないので、一般に黄(青の反対色)の分離色と同等の解像度である。この解像度差によって、絵または画像内のエッジの周囲に赤色フリンジング(fringing)やぼけが生ずる可能性がある。   Technicor's three-color film separation process, like other processes, is subject to various distortions in the film, including, for example, resolution differences. The difference in resolution occurs because, for example, there is generally a large difference in the resolution or sharpness of the three film separation colors depending on the nature of the optical path and the lens coating of the Technicoror camera. The cyan filter is usually placed behind the yellow filter. This is a so-called bipack arrangement. Light passing through the yellow filter is filtered before reaching the cyan filter, and is badly diffused. As a result, the separation color of yellow (opposite color of blue) generally has a higher resolution than the separation color of cyan (opposite color of red). Since the separation color of magenta (opposite color of green) is not created in the bi-pack arrangement, the resolution is generally equivalent to the separation color of yellow (opposite color of blue). This resolution difference can cause red fringing and blurring around the edges in the picture or image.

(要約)
以下に記載の実施態様は、赤の分離色の選択部分の解像度を上げることによって、赤の分離色の解像度が低い問題に対処する。解像度を上げる部分の選択には、より高い解像度の分離色(青または緑)からの情報を用いる。たとえば、そのような情報には、より高い解像度の分離色における特定のエッジが、赤の分離色におけるエッジと一致することが確定したという情報を含めることができる。この場合は、赤の分離色におけるその特定のエッジを選択部分にすることができる。その部分を選択した後、選択した部分の解像度を上げるために、より高い解像度の分離色にウェーブレット変換を適用することによって生成された情報を用いて、赤の分離色にウェーブレット変換を適用することによって生成された一致情報を修正する。たとえば、より高い解像度の分離色にウェーブレット変換を適用することによって生成された各種の係数(またはこれらの係数の関数)を、赤の分離色にウェーブレット変換を適用することによって生成された一式の係数にコピーできる。これは、それらの係数が選択部分に影響する場合である。
(wrap up)
The embodiments described below address the problem of low resolution of the red separation color by increasing the resolution of the selected portion of the red separation color. Information from a higher resolution separation color (blue or green) is used to select a portion for increasing the resolution. For example, such information may include information that a particular edge in a higher resolution separation color has been determined to match an edge in a red separation color. In this case, the specific edge in the red separation color can be selected. After selecting that part, apply the wavelet transform to the red separation color using the information generated by applying the wavelet transform to the higher resolution separation color to increase the resolution of the selected part Correct the matching information generated by. For example, various coefficients (or a function of these coefficients) generated by applying the wavelet transform to the higher resolution separation color, and a set of coefficients generated by applying the wavelet transform to the red separation color Can be copied. This is the case when those coefficients affect the selected part.

この実施態様は、カラー・フィルムの色分解に関して、解像度差を低減する効率的な自動処理を実現する。さらに、この処理は、最小限の人間の介入で、画像内の、解像度差の低減または補正が必要な箇所を決定する。   This embodiment provides an efficient automatic process that reduces resolution differences with respect to color film color separations. In addition, this process determines where in the image the resolution difference needs to be reduced or corrected with minimal human intervention.

多くの実施態様は、「where(どこを)」動作と「how(どのように)」動作とを含むことで特徴付けることができる。「where」動作は、画像を修正する箇所を決定するが、これはたとえば、画像の1つまたは複数の特性を修正する部分を決定することによって決定できる。「how」動作は、「where」動作で特定された画像の一部をどのように修正するかを決定する。「where」動作と「how」動作のいずれかまたは両方で、たとえば、周波数ベースの情報、時間ベースの情報、またはその両方を用いることができ、これらの情報は、たとえば、フレーム内情報であってもフレーム間情報であってもよい。   Many implementations can be characterized by including “where” and “how” operations. A “where” action determines where to modify the image, which can be determined, for example, by determining a portion that modifies one or more characteristics of the image. The “how” action determines how to modify a portion of the image identified by the “where” action. For example, frequency-based information, time-based information, or both can be used in either or both of the “where” operation and the “how” operation. May also be inter-frame information.

一態様によれば、解像度差を低減することは、あるシーンについての第1の情報を含む第1の画像を選択することと、そのシーンについての第2の情報を含む第2の画像を選択することとを含む。第1の画像の一部と、第2の画像の一部との間には、解像度差がある。解像度差を低減するために第1の画像の特性を修正する箇所を決定する場合、その箇所は、第1の画像の一部の中にあり、その決定は、第2の画像の一部から少なくとも部分的に得られる情報に基づく。解像度差は、第1の画像の一部の中の決定された箇所における特性を修正することによって低減される。   According to one aspect, reducing the resolution difference selects a first image that includes first information about a scene and selects a second image that includes second information about the scene. Including. There is a resolution difference between a part of the first image and a part of the second image. When determining a location to modify the characteristics of the first image to reduce the resolution difference, the location is in a portion of the first image, and the determination is made from a portion of the second image. Based at least in part on the information obtained. The resolution difference is reduced by modifying the characteristic at the determined location in the portion of the first image.

第1の画像と第2の画像はデジタル画像であってもよい。さらに、箇所は画素を含むことができ、その特性は、画素の輝度値またはその輝度値の関数を含むことができる。
第1の画像と第2の画像は、フィルム・フレームの分離色を含むか、コンポジット・カラー画像から抽出できる。このカラー・コンポジット画像は、フィルム・フレームの分離色から生成できる。第1の画像は、赤の分離色を含む場合があり、解像度差により赤色フリンジングが発生する可能性がある。第1の画像内で、特性を修正しない非修正箇所を決定できる。
The first image and the second image may be digital images. Further, the location can include a pixel, and the characteristic can include a luminance value of the pixel or a function of the luminance value.
The first image and the second image may include a film frame separation color or may be extracted from a composite color image. This color composite image can be generated from the separated colors of the film frame. The first image may include a red separation color, and red fringing may occur due to a difference in resolution. In the first image, it is possible to determine an uncorrected portion whose characteristics are not corrected.

箇所を決定することは、第1の画像にあるエッジの1つまたは複数の特徴を、第2の画像にあるエッジの1つまたは複数の特徴と比較することを含むことができる。この比較の結果に基づいて、そのエッジを、修正する箇所として選択することができる。   Determining the location can include comparing one or more features of the edges in the first image with one or more features of the edges in the second image. Based on the result of this comparison, the edge can be selected as a location to be corrected.

箇所を決定することは、修正する1つまたは複数のエッジを選択することも含むことができる。修正する1つまたは複数のエッジを選択することは、その1つまたは複数のエッジの1つについて、複数のエッジ画素を含むエッジの単一のエッジ画素を選択することを含むことができる。修正する1つまたは複数のエッジを選択することは、(i)第1の画像のエッジの1つまたは複数の特徴を、第2の画像のエッジの1つまたは複数の特徴と比較することと、(ii)その比較の結果に基づいて、そのエッジを、修正するエッジとして選択することとを含むことができる。この1つまたは複数の特徴は、エッジの位置、エッジの方向、エッジの範囲、輝度が変化している方向、および輝度の横断範囲からなるグループから選択される特徴を含むことができる。修正するエッジ範囲は、選択するエッジごとに決定できる。   Determining the location can also include selecting one or more edges to modify. Selecting one or more edges to modify can include selecting a single edge pixel of an edge that includes a plurality of edge pixels for one of the one or more edges. Selecting one or more edges to modify comprises (i) comparing one or more features of the first image edge to one or more features of the second image edge; , (Ii) selecting the edge as the edge to modify based on the result of the comparison. The one or more features may include a feature selected from the group consisting of edge location, edge direction, edge range, direction in which the luminance is changing, and luminance cross-range. The edge range to be corrected can be determined for each selected edge.

修正のために複数のエッジを選択できる。選択されたエッジのうちの2つを、その2つの選択されたエッジの特性に基づいて接続でき、その選択され、接続されたエッジについてエッジ範囲を決定できる。選択された2つのエッジを接続することは、選択された2つのエッジの間の空間的接近度か、選択された2つのエッジのそれぞれの特定の画素同士の輝度差と、選択された2つのエッジの間に空間的に位置する特定の画素同士の輝度差のうちの1つまたは複数に基づくことができる。選択され、接続されたエッジについてエッジ範囲を決定することは、選択されたエッジのそれぞれについて、接続前であれば決定されるであろうエッジ範囲に基づくことができる。   Multiple edges can be selected for correction. Two of the selected edges can be connected based on the characteristics of the two selected edges, and an edge range can be determined for the selected and connected edges. Connecting the two selected edges can be the spatial proximity between the two selected edges or the luminance difference between each particular pixel of the two selected edges and the two selected edges. It can be based on one or more of the luminance differences between specific pixels spatially located between the edges. Determining the edge range for the selected and connected edges can be based on the edge range that would have been determined for each selected edge prior to connection.

選択されたエッジのサイズに基づいて、選択されたエッジを選択解除できる。第1の画像の一部の中の箇所を決定することは、第2の画像の一部から少なくとも部分的に得られる情報に基づくことができる。この情報は、第1の方向の専用にすることができる。箇所の特性を修正することは、修正された第1の画像を生成することを含むことができる。その修正された第1の画像の中の、特性を修正する箇所を決定できる。この決定は、第2の画像から少なくとも部分的に得られる情報に基づくことができる。第2の画像から得られる情報は、第1の方向と直交する第2の方向に用いることができる。特性は、修正された第1の画像の中の箇所で修正できる。   Based on the size of the selected edge, the selected edge can be deselected. Determining a location in a portion of the first image can be based on information obtained at least in part from the portion of the second image. This information can be dedicated to the first direction. Modifying the property of the location can include generating a modified first image. In the corrected first image, a portion where the characteristic is corrected can be determined. This determination can be based on information obtained at least in part from the second image. Information obtained from the second image can be used in a second direction orthogonal to the first direction. The characteristic can be modified at a location in the modified first image.

第1の画像は、第2の画像から得られた情報で修正された画像を含むことができる。第2の画像を選択することは、一組の画像の中から、1つまたは複数の基準に基づいて第2の画像を選択することを含むことができる。この1つまたは複数の基準は、輝度情報と解像度情報を含むことができる。
箇所の決定は、自動的に行うことも、対話式で行うことも可能である。修正箇所を含む第1の画像の領域にフェザリング手法を適用できる。フェザリング手法は、その箇所を修正した後に適用できる。
The first image can include an image modified with information obtained from the second image. Selecting the second image can include selecting the second image from the set of images based on one or more criteria. The one or more criteria may include luminance information and resolution information.
The location can be determined automatically or interactively. The feathering technique can be applied to the first image area including the correction portion. The feathering technique can be applied after correcting the part.

第1の画像の中の箇所の特性を修正することは、第1の画像の一部に第1のウェーブレット変換を適用して結果を生成することと、第2の画像の一部に第2のウェーブレット変換を適用することとを含むことができる。第1のウェーブレット変換を適用することによって生成された1つまたは複数の係数を、第2のウェーブレット変換を適用することによって生成された1つまたは複数の係数に基づいて修正して、修正結果を生成することができる。   Modifying the characteristics of the location in the first image includes applying a first wavelet transform to a portion of the first image to generate a result, and applying a second to a portion of the second image. Applying a wavelet transform of. One or more coefficients generated by applying the first wavelet transform are modified based on the one or more coefficients generated by applying the second wavelet transform, and the correction result is Can be generated.

第1の画像の中で、特性を修正しない非修正個所を決定できる。第1のウェーブレット変換の修正結果に逆ウェーブレット変換を適用してデジタル画像を生成できる。そのデジタル画像の中の非修正箇所で特性が修正されている場合は、その非修正箇所の特性を元の値に戻すことができる。   In the first image, it is possible to determine an uncorrected portion where the characteristic is not corrected. A digital image can be generated by applying the inverse wavelet transform to the correction result of the first wavelet transform. When the characteristic is corrected at the non-corrected portion in the digital image, the characteristic of the non-corrected portion can be returned to the original value.

修正結果に逆ウェーブレット変換を適用したり、第1の画像の一部と第2の画像の一部の間で解像度差が低減されたかどうかを確認したりできる。修正結果に逆ウェーブレット変換を適用して別の結果を生成したり、その別の結果の、決定された修正箇所を含む一部にフェザリング手法を適用したりできる。フェザリング手法を適用することは、その別の結果の一部の中で輝度値を線形補間することを含むことができる。   An inverse wavelet transform can be applied to the correction result, and it can be confirmed whether the resolution difference has been reduced between a part of the first image and a part of the second image. An inverse wavelet transform can be applied to the correction result to generate another result, or a feathering technique can be applied to a part of the other result including the determined correction portion. Applying the feathering technique can include linearly interpolating the luminance values among some of the other results.

別の態様によれば、エッジを選択することは、第1の画像にアクセスすることと、第2の画像にアクセスすることとを含む。第2の画像は、第1の画像の中の情報と相補的な情報を含む。第1の画像の中のエッジの特徴を、第2の画像の中の対応するエッジの特徴と比較する。その比較の結果に基づいて、第1の画像の中のエッジを、修正するエッジとして選択する。   According to another aspect, selecting an edge includes accessing a first image and accessing a second image. The second image includes information complementary to the information in the first image. The edge features in the first image are compared with the corresponding edge features in the second image. Based on the result of the comparison, an edge in the first image is selected as an edge to be corrected.

選択されたエッジを、第2の画像の中の対応するエッジについての解像度情報を用いて修正できる。選択されたエッジを修正することは、選択されたエッジの一部に第1のウェーブレット変換を適用することによって生成された情報を修正することを含むことができる。この修正は、対応するエッジの一部に第2のウェーブレット変換を適用することによって生成された情報に基づくことができる。第1のウェーブレット変換は、第2のウェーブレット変換と同じであってもよい。   The selected edge can be modified using the resolution information for the corresponding edge in the second image. Modifying the selected edge can include modifying the information generated by applying the first wavelet transform to a portion of the selected edge. This modification can be based on information generated by applying a second wavelet transform to a portion of the corresponding edge. The first wavelet transform may be the same as the second wavelet transform.

第1のウェーブレット変換を適用することによって生成された情報を修正することは、第2のウェーブレット変換を適用することによって生成された1つまたは複数の係数を用いて、第1のウェーブレット変換を適用することによって生成された1つまたは複数の係数を置き換えることを含むことができる。   Modifying the information generated by applying the first wavelet transform applies the first wavelet transform using one or more coefficients generated by applying the second wavelet transform. Substituting one or more coefficients generated by doing so.

第2のウェーブレット変換を適用することによって生成された1つまたは複数の係数を用いることは、第2のウェーブレット変換を適用することによって生成された係数を変倍して、変倍された係数を生成することを含むことができる。変倍された係数を用いて、第1のウェーブレット変換を適用することによって生成された係数を置き換えることができる。   Using one or more coefficients generated by applying the second wavelet transform scales the coefficients generated by applying the second wavelet transform, and converts the scaled coefficients to Generating. The scaled coefficients can be used to replace the coefficients generated by applying the first wavelet transform.

別の態様によれば、画像の特性を修正することは、あるシーンについての第1の情報を含む第1の画像にアクセスすることと、そのシーンについての第2の情報を含む第2の画像にアクセスすることとを含む。第1の画像の一部と第2の画像の一部とでは、解像度に差がある。その解像度差を低減するために、第1の画像の特性を修正する箇所を決定する。この決定は、第1の画像の一部と第2の画像の一部との、時間領域での比較に基づく。箇所の特性の修正は、第1の画像の一部にウェーブレット変換を適用することによって生成された情報を修正することによって行う。この情報の修正は、第2の画像の一部にウェーブレット変換を適用することによって生成された情報に基づいて行う。   According to another aspect, modifying the characteristics of the image includes accessing a first image that includes first information about a scene and a second image that includes second information about the scene. Access. There is a difference in resolution between part of the first image and part of the second image. In order to reduce the resolution difference, a location where the characteristics of the first image are corrected is determined. This determination is based on a time domain comparison of a portion of the first image and a portion of the second image. The correction of the characteristic of the part is performed by correcting the information generated by applying the wavelet transform to a part of the first image. This correction of information is performed based on information generated by applying wavelet transform to a part of the second image.

別の態様によれば、解像度差を低減することは、あるシーンについての第1の情報を含む第1の画像を選択することと、そのシーンについての第2の情報を含む第2の画像を選択することとを含む。第1の画像の一部と第2の画像の一部とでは、解像度に差がある。第1の画像の特性を修正する箇所を決定するが、その箇所は、第1の画像の一部の中にある。解像度差は、第2の画像からの情報を用いて、第1の画像の中の箇所の特性を修正することによって低減される。   According to another aspect, reducing the resolution difference includes selecting a first image that includes first information about a scene and a second image that includes second information about the scene. Selecting. There is a difference in resolution between part of the first image and part of the second image. A location for modifying the characteristics of the first image is determined, but the location is in a portion of the first image. The resolution difference is reduced by using the information from the second image to modify the characteristics of the location in the first image.

第1の画像と第2の画像はデジタル画像であってもよい。箇所は画素を含むことができ、その特性は、画素の輝度値またはその輝度値の関数を含むことができる。その箇所の特性を修正する際に用いる情報は、第2の画像からの解像度情報を含むことができる。   The first image and the second image may be digital images. The location can include a pixel, and the characteristic can include a luminance value of the pixel or a function of the luminance value. Information used when correcting the characteristics of the part can include resolution information from the second image.

第1の画像の中の箇所の特性を修正することは、第2の画像の一部に第2の変換を適用することによって生成された情報を用いて、第1の画像の一部に第1の変換を適用することによって生成された情報を修正することを含むことができる。各変換は、ウェーブレット変換を含むことができる。   Modifying the characteristics of the location in the first image can be achieved by using the information generated by applying the second transformation to the part of the second image, to the part of the first image. Modifying the information generated by applying one transform can be included. Each transform can include a wavelet transform.

第1の変換を適用することによって生成された情報を修正することは、第2のウェーブレット変換を適用することによって生成された結果における特定の箇所にある係数を、第1のウェーブレット変換を適用することによって生成された結果における特定の箇所にコピーするか変倍してコピーすることを含むことができる。たとえば、第1の変換を適用することによって生成された情報を修正することは、第2のウェーブレット変換を適用することによって生成された非ベースバンドの各サブバンドにある係数を、第1のウェーブレット変換を適用することによって生成された結果において対応する箇所にコピーするか変倍してコピーすることを含むことができる。   Modifying the information generated by applying the first transform applies the first wavelet transform to a coefficient at a specific location in the result generated by applying the second wavelet transform. Copying to a specific place in the result generated by the above, or scaling and copying. For example, modifying the information generated by applying the first transform may convert the coefficients in each non-baseband subband generated by applying the second wavelet transform to the first wavelet. It can include copying to the corresponding location in the result generated by applying the transformation or scaling and copying.

あるいは、第1の変換を適用することによって生成された情報を修正することは、第1のウェーブレット変換を適用することによって生成された各非ベースバンド・サブバンドにある係数を、第2のウェーブレット変換を適用することによって生成された結果において対応する箇所にある係数に基づいて修正することを含むことができる。各非ベースバンド・サブバンドにある係数を修正することは、第1のウェーブレット変換を適用することによって生成された各非ベースバンド・サブバンドに、第2のウェーブレット変換を適用することによって生成された結果において対応する箇所にある係数をコピーすることを含むことができる。このコピーする1つまたは複数の係数は、コピーする前に変倍することができる。   Alternatively, modifying the information generated by applying the first transform may include converting the coefficients in each non-baseband subband generated by applying the first wavelet transform to the second wavelet. It can include modifying based on the coefficients at corresponding locations in the result generated by applying the transform. Modifying the coefficients in each non-baseband subband is generated by applying a second wavelet transform to each non-baseband subband generated by applying the first wavelet transform. Copying the coefficient at the corresponding location in the result. The one or more coefficients to be copied can be scaled before copying.

特性を修正する箇所に、特定の箇所を関連付けることができる。コピー、変倍、または修正した各係数を、修正する箇所に関連付けることができる。
第1の画像と第2の画像は、フィルム・フレームの分離色であるか、コンポジット・カラー画像から抽出できる。このカラー・コンポジット画像は、フィルム・フレームの分離色から生成できる。第1の画像は、赤の分離色である場合があり、解像度差によって赤色フリンジングが発生する可能性がある。
A specific location can be associated with a location whose characteristics are to be modified. Each coefficient that is copied, scaled, or modified can be associated with the location to be modified.
The first image and the second image are film frame separation colors or can be extracted from a composite color image. This color composite image can be generated from the separated colors of the film frame. The first image may be a red separation color, and red fringing may occur due to a difference in resolution.

特性を修正しない非修正箇所を決定できる。第2の画像の情報を用いて第1の画像の中の箇所の特性を修正することは、第1の画像にウェーブレット変換を適用することによって生成された1つまたは複数の係数を、第2の画像にウェーブレット変換を適用することによって生成された1つまたは複数の係数に基づいて修正することを含むことができる。修正により、修正結果を生成できる。この修正結果に逆ウェーブレット変換を適用して、結果の画像を生成することができ、結果の画像において非修正箇所の特性が修正されていないかどうかを判別することができる。修正されている場合は、その非修正箇所の特性を元の値に戻すことができる。   Uncorrected parts that do not correct the characteristics can be determined. Modifying the characteristics of the location in the first image using the information of the second image can be obtained by using one or more coefficients generated by applying a wavelet transform to the first image. And modifying based on one or more coefficients generated by applying a wavelet transform to the image. A correction result can be generated by the correction. An inverse wavelet transform can be applied to this correction result to generate a result image, and it can be determined whether or not the characteristics of the uncorrected portion are not corrected in the result image. If it has been corrected, the characteristics of the uncorrected part can be restored to the original values.

特性を修正する箇所を含む第1の画像の領域にフェザリング手法を適用できる。フェザリング手法は、その箇所の特性を修正した後に適用できる。フェザリング手法を適用することは、その領域内で輝度値を線形補間することを含むことができる。   The feathering technique can be applied to the region of the first image including the portion whose characteristics are to be corrected. The feathering technique can be applied after correcting the characteristics of the part. Applying the feathering technique can include linearly interpolating the luminance values within the region.

箇所の特性を修正することは、第1の方向にのみ変換を実行して、修正された第1の画像を生成することを含むことができる。その修正された第1の画像に対し、第1の方向と直交する第2の方向にのみ変換を実行して、修正された第1の画像の修正されたバージョンを生成することができる。第1の画像の一部の中の箇所を決定することは、第2の画像の一部から少なくとも部分的に得られる情報に基づくことができる。この情報は、第1の方向の専用にすることができる。   Modifying the characteristics of the location can include performing the transformation only in the first direction to generate a modified first image. The modified first image can be transformed only in a second direction orthogonal to the first direction to generate a modified version of the modified first image. Determining a location in a portion of the first image can be based on information obtained at least in part from the portion of the second image. This information can be dedicated to the first direction.

第1の画像は、第2の画像から得られた情報で修正された画像を含むことができる。第2の画像を選択することは、輝度値情報および解像度情報を含むことができる1つまたは複数の基準に基づいて、複数の画像から第2の画像を選択することを含むことができる。
箇所の決定は、自動的に、または対話式で行うことができ、その決定は、第2の画像の中の情報に基づくことができる。その箇所の特性は、自動的に修正できる。
The first image can include an image modified with information obtained from the second image. Selecting the second image can include selecting the second image from the plurality of images based on one or more criteria that can include luminance value information and resolution information.
The location determination can be made automatically or interactively, and the determination can be based on information in the second image. The characteristic of the part can be automatically corrected.

箇所を決定することは、修正する1つまたは複数のエッジを選択することを含むことができる。たとえば、1つまたは複数のエッジのうちの1つについて、複数のエッジ画素を含むエッジの単一エッジ画素を選択できる。   Determining the location can include selecting one or more edges to modify. For example, for one of the one or more edges, a single edge pixel of an edge that includes multiple edge pixels can be selected.

修正する1つまたは複数のエッジを選択することは、第1の画像の中にあるエッジの1つまたは複数の特徴を、第2の画像の中にあるエッジの1つまたは複数の特徴と比較することを含むことができる。この比較の結果に基づいて、そのエッジを、修正するエッジとして選択することができる。この1つまたは複数の特徴は、エッジの位置、エッジの方向、エッジの範囲、輝度が変化している方向、および輝度の横断範囲からなるグループから選択される特徴を含むことができる。   Selecting one or more edges to modify compares one or more features of the edges in the first image with one or more features of the edges in the second image Can include. Based on the result of this comparison, the edge can be selected as the edge to be corrected. The one or more features may include a feature selected from the group consisting of edge location, edge direction, edge range, direction in which the luminance is changing, and luminance cross-range.

修正するエッジ範囲は、選択するエッジごとに決定できる。選択されたエッジのサイズに基づいて、選択されたエッジを選択解除できる。修正のために複数のエッジを選択できる。選択されたエッジのうちの2つを、その選択された2つのエッジの特性に基づいて接続できる。その選択され、接続されたエッジについて、エッジ範囲を決定できる。   The edge range to be corrected can be determined for each selected edge. Based on the size of the selected edge, the selected edge can be deselected. Multiple edges can be selected for correction. Two of the selected edges can be connected based on the characteristics of the two selected edges. An edge range can be determined for the selected and connected edges.

選択された2つのエッジは、選択された2つのエッジの間の空間的接近度か、選択された2つのエッジのそれぞれの特定の画素同士の輝度差と、選択された2つのエッジの間に空間的に位置する特定の画素同士の輝度差のうちの1つまたは複数に基づいて接続できる。選択され、接続されたエッジのエッジ範囲は、選択されたエッジのそれぞれについて、接続前であれば決定されるであろうエッジ範囲に基づいて決定できる。   The two selected edges are either the spatial proximity between the two selected edges or the brightness difference between each particular pixel of the two selected edges and the two selected edges. Connections can be made based on one or more of the luminance differences between specific pixels located spatially. The edge range of the selected and connected edges can be determined for each selected edge based on the edge range that would have been determined prior to connection.

別の態様によれば、エッジを修正することは、第1および第2の画像にアクセスすることを含み、第2の画像は、第1の画像の中の情報に対して相補的な情報を含む。第1の画像の中でエッジを選択し、第2の画像の中の情報に基づいて、そのエッジを修正する。   According to another aspect, modifying the edge includes accessing the first and second images, the second image having information complementary to the information in the first image. Including. An edge is selected in the first image, and the edge is corrected based on information in the second image.

選択されたエッジを修正することは、第1の画像の中のそのエッジと対応している可能性がある、第2の画像の中のエッジについての解像度情報を用いることを含むことができる。選択されたエッジを修正することは、第1の画像の中のエッジの一部に第1のウェーブレット変換を適用することによって生成された情報を、第2の画像の中の対応するエッジの一部に第2のウェーブレット変換を適用することによって生成された情報に基づいて修正することを含むことができる。   Modifying the selected edge may include using resolution information about the edge in the second image that may correspond to that edge in the first image. Modifying the selected edge can be accomplished by using the information generated by applying the first wavelet transform to a portion of the edge in the first image to match one of the corresponding edges in the second image. Modifying based on information generated by applying a second wavelet transform to the part.

第1のウェーブレット変換を適用することによって生成された情報を修正することは、第2のウェーブレット変換を適用することによって生成された結果から係数または変倍された係数をコピーすることを含むことができる。この係数または変倍された係数は、第1のウェーブレット変換を適用することによって生成された結果にコピーできる。   Modifying the information generated by applying the first wavelet transform may include copying coefficients or scaled coefficients from the result generated by applying the second wavelet transform. it can. This coefficient or scaled coefficient can be copied to the result generated by applying the first wavelet transform.

別の態様によれば、解像度差を低減することは、あるシーンについての第1の情報を含む第1の画像にアクセスすることと、そのシーンについての第2の情報を含む第2の画像にアクセスすることとを含み、第1の画像の一部と、第2の画像の一部とでは解像度差がある。第1の画像の一部と第2の画像の一部との、時間領域での比較に基づいて解像度差を低減するために、第1の画像の中の、特性を修正する箇所を、第1の画像の中で決定する。この解像度差は、第2の画像の一部にウェーブレット変換を適用することによって生成された情報に基づいて、第1の画像の一部にウェーブレット変換を適用することによって生成された情報を修正することによって、その箇所の特性を修正することによって低減される。   According to another aspect, reducing the resolution difference is to access a first image that includes first information about a scene and to a second image that includes second information about the scene. There is a resolution difference between a part of the first image and a part of the second image. In order to reduce the resolution difference based on the comparison in the time domain between a part of the first image and a part of the second image, a part of the first image whose characteristic is to be corrected is Determine in one image. This resolution difference corrects the information generated by applying the wavelet transform to a part of the first image based on the information generated by applying the wavelet transform to a part of the second image. This is reduced by modifying the characteristics of the part.

装置は、マシンで実行されたときに上述の各種操作が実行されるようにする命令を格納するコンピュータ可読媒体を含むことができる。この装置は、コンピュータ可読媒体に結合され、格納された命令を実行する処理装置を含むことができる。
添付図面および以下の記述において、1つまたは複数の実施態様を示す。他の実施態様は、説明、図面、および特許請求項から自明であろう。
本特許または出願ファイルは、カラーで実行された図面を少なくとも1つ含む。本特許または特許出願公開の、カラー図面を含むコピーは、要求し、必要料金を支払うことにより、米国特許商標庁より提供される。
The apparatus can include a computer readable medium that stores instructions that, when executed on a machine, cause the various operations described above to be performed. The apparatus can include a processing device that is coupled to a computer-readable medium and that executes stored instructions.
One or more embodiments are shown in the accompanying drawings and the following description. Other embodiments will be apparent from the description, drawings, and claims.
This patent or application file contains at least one drawing executed in color. Copies of this patent or patent application, including color drawings, will be provided by the US Patent and Trademark Office upon request and payment of the necessary fee.

(詳細な説明)
図1Aは、様々な物体の周囲で赤色フリンジングが発生しているシーンの一部を示す。図1Bは、図1Aの一部のカラー画像であり、一対の白いズボン110に沿ったエッジとブーツ120に沿ったエッジの周囲に赤色フリンジングがあることを示している。たとえば、領域130は、ブーツ120の右側の赤色フリンジングを示す。また、領域140は、白いズボン110の上の赤色フリンジングを示す。赤色フリンジングは、カラー画像の分離色の間の解像度差の結果である。上述のように、赤色フリンジングは、撮影のプロセスによって発生している可能性がある。
(Detailed explanation)
FIG. 1A shows a portion of a scene where red fringing occurs around various objects. FIG. 1B is a color image of a portion of FIG. 1A showing that there is red fringing around the edge along the pair of white trousers 110 and the edge along the boot 120. For example, region 130 shows red fringing on the right side of boot 120. Region 140 also shows red fringing on white trousers 110. Red fringing is the result of the resolution difference between the separated colors of the color image. As described above, the red fringing may be caused by the photographing process.

図2は、図1Bと同じカラー画像であるが、以下で説明する、赤色フリンジングを低減する手法を用いて色分解を処理した結果である。図2に示すように、白いズボン110の周囲の赤色フリンジングは、特に白いズボン110の輪郭のエッジの上の領域140において、大幅に低減もしくは除去されている。ブーツ120に沿った領域130の赤色フリンジングも大幅に低減もしくは除去されている。さらに、図1Bの画像を処理して赤色フリンジングを低減しても、解像度や、他の態様における画質の、目に見える劣化はない。   FIG. 2 is the same color image as FIG. 1B, but is the result of processing the color separation using a technique described below that reduces red fringing. As shown in FIG. 2, the red fringing around the white trousers 110 is greatly reduced or eliminated, particularly in the region 140 above the contoured edges of the white trousers 110. The red fringing of the region 130 along the boot 120 is also significantly reduced or eliminated. Further, processing the image of FIG. 1B to reduce red fringing does not cause any visible degradation in resolution or image quality in other aspects.

図3は、解像度差を低減するシステム300のブロック図である。概要としては、システム300は、主に次の2つの操作を実行する。(1)解像度を修正すべき箇所を識別する。(2)それらの箇所の解像度を修正する。以下の説明では、主に、個別の画像(フレーム)を参照するが、リール内の各画像についてこの処理が繰り返されることが、説明から理解されよう。   FIG. 3 is a block diagram of a system 300 that reduces resolution differences. As an overview, the system 300 mainly performs the following two operations. (1) Identify a location whose resolution should be corrected. (2) Correct the resolution of those places. In the following description, reference is made mainly to individual images (frames), but it will be understood from the description that this process is repeated for each image in the reel.

(デジタイズ装置)
システム300は、3つの分離色画像C(シアン)、M(マゼンタ)、およびY(黄)を受け取り、3つのデジタル色成分画像(「デジタル画像」)R(赤)、G(緑)、およびB(青)を出力するデジタイズ装置310を含む。添え字Dは、画像がデジタイズされていることを示す。したがって、デジタイズ装置310は、写真ネガ(C、M、Y)を写真ポジに反転するステップと、その結果のポジを3つのデジタル画像(R、G、B)にデジタイズするステップとを実行する。
(Digitizing device)
System 300 receives three separate color images C (cyan), M (magenta), and Y (yellow), and three digital color component images (“digital images”) R D (red), G D (green). , And B D (blue). The subscript D indicates that the image is digitized. Accordingly, the digitizing device 310 includes the steps of reversing the photographic negative (C, M, Y) into a photographic positive and digitizing the resulting positive into three digital images (R D , G D , B D ). Execute.

各デジタル画像は、幅と高さを有する画素の配列を含む。その配列内では、各画素の位置を次のように表すことができる。
(x,y)、ただし、0≦x≦幅、0≦y≦高さ
Each digital image includes an array of pixels having a width and a height. Within the array, the position of each pixel can be expressed as follows.
(X, y), where 0 ≦ x ≦ width, 0 ≦ y ≦ height

各画素の箇所は、次のように表すことができる、関連付けられたグレー・レベル値を有する。
I(x,y)、ただし、0≦I(x,y)≦I_max
Each pixel location has an associated gray level value that can be expressed as:
I (x, y), where 0 ≦ I (x, y) ≦ I_max

I(x,y)は、画素位置(x,y)における特定の色(たとえば、赤、緑、または青)の輝度を表す。I_maxは、その画素の可能な最大輝度値を表す。たとえば、16ビットのデータの場合は、I_max=65,535である。   I (x, y) represents the luminance of a specific color (for example, red, green, or blue) at the pixel position (x, y). I_max represents the maximum possible luminance value of the pixel. For example, in the case of 16-bit data, I_max = 65,535.

(前処理装置)
システム300はさらに、デジタイズ装置310からデジタル画像R、G、およびBを受け取って、修正されたデジタル画像R、G、およびBを生成する前処理装置320を含む。前処理装置320は、システム300では省略可能な装置であり、3つのデジタル画像R、G、およびBのうちの1つまたは複数に対して前処理操作を実行する。たとえば、画像R、G、およびBのうちの1つまたは複数を、平滑化したり、フレームを構成する他のデジタル画像と位置が合うように登録アルゴリズムを用いて変更したり、粒子除去アルゴリズムを用いて処理したりできる。一実施態様では、前処理装置320は、3つのデジタル画像R、G、およびBのすべてに対して動作し、(i)平滑化による粒子除去、(ii)登録、および(iii)さらなる平滑化の操作を実行する。前処理装置320がシステム300に含まれない場合、画像R、G、およびBは、それぞれ画像R、G、およびBと同じである。
(Pretreatment device)
The system 300 further includes a pre-processing device 320 that receives the digital images R D , G D , and B D from the digitizing device 310 and generates modified digital images R, G, and B. The pre-processing device 320 is an optional device in the system 300 and performs a pre-processing operation on one or more of the three digital images R D , G D , and B D. For example, one or more of the images R D , G D , and B D can be smoothed, modified using registration algorithms to align with other digital images that make up the frame, or particle removal Can be processed using an algorithm. In one embodiment, the preprocessor 320 operates on all three digital images R D , G D , and B D and (i) particle removal by smoothing, (ii) registration, and (iii) Perform further smoothing operations. If pre-processing device 320 is not included in system 300, images R, G, and B are the same as images R D , G D , and B D , respectively.

(分類装置)
システム300はさらに、前処理装置320からデジタル画像R、G、およびBを受け取り、それらの画像のうちの1つについての分類マップを出力する分類装置330を含む。たとえば、分類マップCは、赤のデジタル画像の中の、解像度を上げる1つまたは複数の箇所(画素)を識別する。Cは、各画素が、輝度値ではなく「修正する」(M)、「場合によっては修正する」(PM)、または「修正しない」(NM)のラベルを含む以外は、赤のデジタル画像と同じ配列で表すことができる。「修正する」は、赤のデジタル画像の中の、対応する画素位置の画素輝度値を修正すべきであることを示し、「場合によっては修正する」は、たとえば追加テストの結果によっては、その画素輝度値を修正する可能性があることを示し、「修正しない」は、その画素輝度値を修正すべきでないことを示す。
(Classifier)
The system 300 further includes a classifier 330 that receives the digital images R, G, and B from the preprocessor 320 and outputs a classification map for one of those images. For example, the classification map C R identifies in the red digital image, one increases the resolution or plurality of locations (pixel). C R, each pixel is "fix" rather than luminance values (M), except that includes a label of "optionally modifying the" (PM), or "not fix" (NM), red digital image Can be represented by the same sequence. “Correction” indicates that the pixel luminance value of the corresponding pixel position in the red digital image should be corrected. “Correcting in some cases” means that, for example, depending on the result of an additional test, It indicates that there is a possibility of correcting the pixel luminance value, and “do not correct” indicates that the pixel luminance value should not be corrected.

後で詳述する一実施態様では、PMのラベルは暫定的なラベルに過ぎず、分類装置330の出力は、画素に付けられたラベルがMまたはNMであって、PMのラベルがない分類マップCである。暫定的なPMラベルを用いると、特定の画素が、画素を修正すべきであることを示すテストの少なくともいくつかを通っている可能性があるという事実を取り込んで用いる実装が可能になる。 In one embodiment described in detail below, the PM label is only a temporary label, and the output of the classifier 330 is a classification map where the label attached to the pixel is M or NM and there is no PM label. it is a C R. Using a provisional PM label allows an implementation that captures and uses the fact that a particular pixel may have passed at least some of the tests that indicate that the pixel should be modified.

所与の画素の箇所を修正するかどうかは、様々な要因に基づいて決定できる。赤色フリンジングはエッジに関連する現象なので、分類装置330は、エッジ情報を用いて、どの画素を修正するかを決定する。エッジ情報は、エッジに関して、一次元または複数次元で得ることができる。たとえば、分類装置330は、二次元エッジに関係するエッジ情報を用いることができる。逆に、分類装置330は、2回の反復を実行できる。1回目の反復では、たとえば水平エッジにのみ関係するエッジ情報を用い、2回目の反復では、たとえば垂直エッジにのみ関係するエッジ情報を用いることができる。   Whether to modify a given pixel location can be determined based on various factors. Since red fringing is a phenomenon related to edges, the classification device 330 uses the edge information to determine which pixels to modify. Edge information can be obtained in one or more dimensions for the edge. For example, the classification device 330 can use edge information related to a two-dimensional edge. Conversely, the classifier 330 can perform two iterations. In the first iteration, for example, edge information related only to the horizontal edge can be used, and in the second iteration, for example, edge information related only to the vertical edge can be used.

赤のデジタル画像の中の所与の画素を修正するかどうかは、赤のデジタル画像Rにある情報だけでなく、他のデジタル画像GおよびBの1つまたは複数にある情報にも基づいて決定できる。分類装置330は、赤のデジタル画像の修正に用いる情報を提供するために他のどのデジタル画像を用いるかを決定する。その情報提供に用いられるデジタル画像を基準デジタル画像と呼ぶ。基準デジタル画像を選択するためには様々な基準を用いることができる。たとえば、以下の例で示すように輝度値情報や解像度情報を用いることができる。   Whether to modify a given pixel in the red digital image is determined based not only on the information in the red digital image R but also on the information in one or more of the other digital images G and B it can. The classifier 330 determines which other digital image to use to provide information used to correct the red digital image. A digital image used for providing the information is referred to as a reference digital image. Various criteria can be used to select the reference digital image. For example, as shown in the following example, luminance value information and resolution information can be used.

一実施態様では、緑と青の両方のデジタル画像に、赤のデジタル画像にあるエッジと一致するエッジがある場合に、エッジ・トランジション(edge transition)の(1つまたは複数の画素の端から端までの)最後の部分で平均輝度の小さいほうのデジタル画像(緑または青)が、そのエッジの基準デジタル画像として選択される。別の実施態様では、緑と青の両方のデジタル画像に、赤のデジタル画像にあるエッジと一致するエッジがある場合に、解像度が高いほうのデジタル画像(緑または青)が、基準デジタル画像として選択される。解像度(あるいは鮮明度)については、様々な定義のしかたがある。たとえば、ある一組の画素の解像度は、それらの画素に存在する輝度値の範囲(すなわち、最大輝度値から最小輝度値を差し引いた値)を、その組にある画素の数で割った値として定義できる。さらなる実施態様では、ある特定のエッジに対して用いる、基準デジタル画像を選択する選択基準を、別のエッジに対して用いる選択基準と異なるようにできる。複数の基準デジタル画像を用いることができる場合は、分類装置330で生成される分類マップCが、各エッジ画素のM情報またはNM情報だけでなく、各エッジ画素に対してどの基準デジタル画像が用いられるかについての情報も提供できる。 In one embodiment, if both the green and blue digital images have edges that coincide with the edges in the red digital image, the edge transition (from one to more pixels) The digital image (green or blue) with the lower average brightness at the last part is selected as the reference digital image for that edge. In another embodiment, if both the green and blue digital images have edges that match the edges in the red digital image, the higher resolution digital image (green or blue) is used as the reference digital image. Selected. There are various definitions of resolution (or definition). For example, the resolution of a set of pixels is determined by dividing the range of brightness values present in those pixels (ie, the maximum brightness value minus the minimum brightness value) divided by the number of pixels in the set. Can be defined. In a further embodiment, the selection criteria for selecting a reference digital image to be used for one particular edge can be different from the selection criteria to be used for another edge. If it is possible to use a plurality of reference digital images, classification map C R generated by the classifier 330, as well as M information or NM information of each edge pixel, what reference digital image for each edge pixel Information about what is used can also be provided.

図4は、赤のデジタル画像の中にある画素を修正するかどうかを決定するために、分類装置330の一実施態様で行われる処理400のフロー・チャートである。処理400は、Rと、GおよびBのうちの1つまたは複数とについての一組のエッジ(エッジ・マップ)を取得すること(410)を含む。このエッジ・マップは、たとえば、エッジ検出フィルタ(たとえば、Cannyフィルタなど)を用いて取得できる。エッジを構成している画素を、エッジ画素、またはエッジ・トランジション画素と呼ぶ。エッジ情報は、結合したり、分割したりできる。たとえば、エッジ情報を、直交する方向の、エッジを取り込む情報の組に分割できる。一実施態様では、水平方向のエッジ情報と垂直方向のエッジ情報を別々に取得する。図5および6は、それぞれ、単純な赤のデジタル画像と単純な基準デジタル画像のエッジ・マップを示す。   FIG. 4 is a flow chart of a process 400 performed in one embodiment of the classifier 330 to determine whether to correct a pixel in the red digital image. Process 400 includes obtaining 410 a set of edges (edge maps) for R and one or more of G and B. This edge map can be obtained by using, for example, an edge detection filter (for example, a Canny filter). Pixels constituting the edge are called edge pixels or edge transition pixels. Edge information can be combined or divided. For example, the edge information can be divided into a set of information for capturing edges in the orthogonal direction. In one embodiment, horizontal edge information and vertical edge information are acquired separately. FIGS. 5 and 6 show edge maps of a simple red digital image and a simple reference digital image, respectively.

図5は、簡単のために一次元の水平エッジのみを有する赤のデジタル画像のサンプル・エッジ・マップ500を示す。エッジ・マップ500は、4つのエッジを示している。4つのエッジは、(i)(1,3)から(3,3)の画素をカバーする一次元の水平エッジ、(ii)(5,1)から(9,1)の画素をカバーする一次元の水平エッジ、(iii)(3,8)から(4,8)の画素をカバーする一次元の水平エッジ、および(iv)(7,6)から(8,6)の画素をカバーする一次元の水平エッジである。   FIG. 5 shows a sample edge map 500 of a red digital image having only a one-dimensional horizontal edge for simplicity. The edge map 500 shows four edges. The four edges are (i) a one-dimensional horizontal edge covering pixels (1,3) to (3,3), and a primary covering (ii) (5,1) to (9,1) pixels. Cover the original horizontal edge, the one-dimensional horizontal edge that covers pixels (iii) (3,8) to (4,8), and the pixels (iv) (7,6) to (8,6) One-dimensional horizontal edge.

図6は、単純な基準デジタル画像のサンプル・エッジ・マップ600を示す。エッジ・マップ600は、2つのエッジを示している。2つのエッジは、(i)(1,4)から(3,4)の画素をカバーする一次元の水平エッジ、および(ii)(5,3)から(9,3)の画素をカバーする一次元の水平エッジである。   FIG. 6 shows a sample edge map 600 of a simple reference digital image. The edge map 600 shows two edges. The two edges cover the (i) one-dimensional horizontal edge that covers the pixels from (1,4) to (3,4), and (ii) the pixels from (5,3) to (9,3) One-dimensional horizontal edge.

処理400は、赤のデジタル画像のエッジ・マップの記述的基準を決定すること(420)と、基準デジタル画像のエッジ・マップの記述的基準を決定すること(430)とを含む。記述的基準は、エッジ内の各エッジ画素について決定したり、エッジ内にある複数のエッジ画素について(すなわち、最大でエッジ内にあるすべてのエッジ画素について)共通に決定したりできる。以下では、エッジという用語を、エッジ内で1つのエッジ画素を指すために用いる場合と、エッジ内で複数のエッジ画素(すなわち、最大でエッジ内にあるすべてのエッジ画素)を指すために用いる場合とがある。記述的基準としては、たとえば、赤のデジタル画像と基準デジタル画像において、(i)エッジが水平および/または垂直エッジかどうか、(ii)エッジ・トランジションが、所与の方向では、高輝度から低輝度に変化するか、低輝度から高輝度に変化するか、(iii)エッジの位置、(iv)エッジの範囲、(v)エッジ内を横断する輝度の範囲、(vi)エッジの画素輝度および画素位置の他の様々な機能が含まれる。   Process 400 includes determining (420) descriptive criteria for the edge map of the red digital image and determining (430) descriptive criteria for the edge map of the reference digital image. The descriptive criteria can be determined for each edge pixel within the edge, or can be determined in common for multiple edge pixels within the edge (ie, for all edge pixels that are at most within the edge). In the following, the term edge is used to refer to one edge pixel within an edge, and to refer to multiple edge pixels within an edge (ie, all edge pixels that are at most within the edge). There is. As a descriptive reference, for example, in a red digital image and a reference digital image, (i) whether the edge is a horizontal and / or vertical edge, (ii) the edge transition is high to low in a given direction. Whether to change to luminance or from low to high luminance, (iii) edge position, (iv) edge range, (v) luminance range traversing within the edge, (vi) pixel luminance of the edge and Various other functions of pixel location are included.

「エッジ範囲」は、エッジ・トランジションを定義する画素の組を意味する。エッジ範囲は、様々な因子(たとえば、輝度値など)を用いて、所与のエッジから決定できる。特定のエッジのエッジ範囲は、そのエッジの近傍に別のエッジがあるかどうかが影響する場合もある。エッジ範囲は、1つまたは複数の方向で決定できる。たとえば、エッジ・マップが一次元エッジを含むか、二次元エッジを含むかに応じて、一次元または二次元についてエッジ範囲を決定できる。エッジ範囲はまた、単一のエッジ画素についても定義できる。   “Edge range” means a set of pixels that define an edge transition. The edge range can be determined from a given edge using various factors (eg, luminance values, etc.). The edge range of a particular edge may be affected by whether there is another edge near that edge. The edge range can be determined in one or more directions. For example, the edge range can be determined for one or two dimensions depending on whether the edge map includes a one-dimensional edge or a two-dimensional edge. An edge range can also be defined for a single edge pixel.

図7は、エッジ・マップ500における4つのエッジのサンプル・エッジ範囲700を示す。実際のエッジ自体と区別するためにエッジ範囲をクロスハッチで示しているが、エッジ自体もエッジ範囲の一部と見なされる。図に示すように、(1,3)から始まるエッジのエッジ範囲は、上方に2画素分、下方に2画素分広がっている。(5,1)から始まるエッジのエッジ範囲は、上方に1画素分、下方に3画素分広がっている。(3,8)から始まるエッジのエッジ範囲は、上方に1画素分、下方に1画素分広がっている。(5,1)から始まるエッジのエッジ範囲は、上方に1画素分、下方に2画素分広がっている。   FIG. 7 shows a sample edge range 700 of four edges in the edge map 500. The edge range is shown by a cross hatch to distinguish it from the actual edge itself, but the edge itself is also considered as a part of the edge range. As shown in the figure, the edge range of the edge starting from (1, 3) extends upward by two pixels and downward by two pixels. The edge range of the edge starting from (5, 1) extends upward by one pixel and downward by three pixels. The edge range starting from (3, 8) extends upward by one pixel and downward by one pixel. The edge range of the edge starting from (5, 1) extends upward by one pixel and downward by two pixels.

図8は、エッジ・マップ600における2つのエッジのサンプル・エッジ範囲800を示す。図7と同様に、実際のエッジ自体と区別するためにエッジ範囲をクロスハッチで示しているが、エッジ自体もエッジ範囲の一部と見なされる。図に示すように、2つのエッジのエッジ範囲は、上方にも下方にも1画素分広がっている。   FIG. 8 shows a sample edge range 800 of two edges in the edge map 600. As in FIG. 7, the edge range is shown by a cross hatch to distinguish it from the actual edge itself, but the edge itself is also considered as a part of the edge range. As shown in the figure, the edge range of the two edges extends one pixel both upward and downward.

処理400は、赤のデジタル画像のエッジ・マップにある各エッジについて、各エッジが基準デジタル画像のエッジ・マップにあるエッジと一致するかどうかを判別すること(440)を含む。「一致する」という用語は、エッジの空間的位置が互いに対応することを示すためだけでなく、赤のデジタル画像の当該エッジと基準デジタル画像の当該エッジとの間に解像度差が存在することと、赤のデジタル画像の当該エッジが修正候補と見なされることとを示すためにも用いる。他の実施態様では、別の基準を用いて(たとえば、エッジが空間的に対応するかどうかだけを考慮して)「一致」を判別することができる。エッジの評価に用いられる因子は、たとえば、空間的関係、解像度差の存在、またはその両方に関連する情報を与えることができる。エッジが一致するかどうかの判別は、たとえば、エッジの比較情報だけでなく、各エッジの個別情報を用いて行うなど、様々な方法で行うことができる。一実施態様では、エッジの記述的基準を比較するために、たとえば、エッジの方向が同等かどうか、エッジ範囲の輝度値のトランジションが同じ方向かどうか(たとえば、低輝度から高輝度、または高輝度から低輝度)、エッジ範囲の輝度値の輝度範囲が同等かどうか、エッジが特定の距離基準を満たすかどうか(たとえば、エッジまたはエッジの指定部分(先頭、末尾、中間など)が互いに特定の距離内になるかどうか)などを考慮する。   Process 400 includes, for each edge in the red digital image edge map, determining whether each edge matches an edge in the reference digital image edge map (440). The term “match” not only indicates that the spatial positions of the edges correspond to each other, but also that there is a resolution difference between that edge of the red digital image and that edge of the reference digital image. It is also used to indicate that the edge of the red digital image is considered a candidate for correction. In other implementations, another criterion may be used (eg, only considering whether the edges correspond spatially) to determine “match”. Factors used in edge evaluation can provide information related to, for example, spatial relationships, the presence of resolution differences, or both. Whether or not the edges match can be determined by various methods, for example, by using not only the edge comparison information but also the individual information of each edge. In one embodiment, to compare edge descriptive criteria, for example, whether the edge directions are equivalent, and whether the edge range luminance value transitions are in the same direction (eg, low to high brightness, or high brightness) To low brightness), whether the brightness ranges of the edge range are equal, and whether the edges meet certain distance criteria (for example, an edge or a specified portion of an edge (start, end, middle, etc.) is a certain distance from each other Etc.).

実施態様では、他にも様々な因子の1つまたは複数を用いて、エッジが一致するかどうかを判別できる。そのような因子として、たとえば、(i)赤のデジタル画像における当該エッジの、輝度値が最大の箇所と、基準デジタル画像における当該エッジの、輝度値が最大または最小の箇所との間の距離、(ii)赤のデジタル画像における当該エッジの、輝度値が最小の箇所と、基準デジタル画像における当該エッジの、輝度値が最小または最大の箇所との間の距離、(iii)(赤のデジタル画像における現在の当該エッジの特定の至近距離内に、赤のデジタル画像における別のエッジ(近傍エッジと呼ぶ)がある場合には)この赤の近傍エッジのエッジ範囲(またはエッジ範囲の一部)に対して測定された、赤のデジタル画像における平均輝度と基準デジタル画像における平均輝度との差、(iv)赤のエッジまたは基準エッジのエッジ範囲(またはエッジ範囲の一部)に対して測定された、赤のエッジにおける平均輝度と基準エッジにおける平均輝度との差、(v)基準エッジによって横断された輝度範囲と赤のエッジによって横断された輝度範囲との比、(vi)様々な箇所での、赤のエッジと基準エッジの輝度値との差(または画素範囲での平均輝度値の差)などがある。さらに、そのような因子として、空間領域情報に加えて、ウェーブレット領域における周波数情報または解像度情報もある。実施態様では、どの因子を用いるかを、赤のエッジと基準エッジの特定の特性に基づいて決定できる。たとえば、赤のエッジおよび/または基準エッジが、特定のしきい値を超える最大輝度値を有するかどうかに応じて、異なる因子を用いることができる。別の例として、非基準デジタル画像(たとえば、赤のデジタル画像)における当該エッジ画素の近傍にある1つまたは複数のエッジ画素と一致するエッジ画素が基準デジタル画像内にあるかどうかに応じて、異なる因子を用いることができる。   In an embodiment, one or more of a variety of other factors can be used to determine whether edges match. Such factors include, for example, (i) the distance between the location of the edge in the red digital image where the luminance value is maximum and the location of the edge in the reference digital image where the luminance value is maximum or minimum, (Ii) the distance between the portion of the edge in the red digital image where the luminance value is minimum and the portion of the edge in the reference digital image where the luminance value is minimum or maximum; (iii) (the red digital image The edge range (or part of an edge range) of this red neighbor edge (if there is another edge in the red digital image (referred to as a neighbor edge) within a certain close distance of the current edge in question) The difference between the average luminance in the red digital image and the average luminance in the reference digital image, measured against, (iv) the edge range of the red edge or reference edge Difference between the average luminance at the red edge and the average luminance at the reference edge, measured for (or part of the edge range), (v) the luminance range traversed by the reference edge and the luminance traversed by the red edge The ratio to the range, (vi) the difference between the luminance value of the red edge and the reference edge (or the difference of the average luminance value in the pixel range) at various locations. Further, as such factors, there is frequency information or resolution information in the wavelet domain in addition to the spatial domain information. In an embodiment, which factor to use can be determined based on specific characteristics of the red and reference edges. For example, different factors can be used depending on whether the red edge and / or the reference edge has a maximum luminance value that exceeds a certain threshold. As another example, depending on whether there is an edge pixel in the reference digital image that matches one or more edge pixels in the vicinity of the edge pixel in a non-reference digital image (eg, a red digital image), Different factors can be used.

2つのエッジが一致するかどうかを判別する際には、様々な方法で、1つまたは複数の因子を解析したり結合したりできる。たとえば、その判別は、(i)たとえば、特定のしきい値が満足されたかどうか、などのバイナリ結果、(ii)たとえば、検討対象の因子の大部分が好ましい結果をもたらしたかどうか、などの多因子解析(ただし、それらの因子が重要視されている可能性がある場合)、(iii)たとえば、2つのエッジが一致する可能性の確率的評価などの確率的判別(ただし、その評価が様々な因子に基づく場合)などに基づくことができる。確率的判別を伴う一実施態様では、画素にPM画素としてラベル付けすることによって、その画素が、一致する画素である確率が高いものの、M画素が一致する確率よりは低いことを示すことができる。上記の例は、必ずしも互いに排他的ではない。   In determining whether two edges match, one or more factors can be analyzed and combined in various ways. For example, the determination may be (i) a binary result, such as whether a particular threshold has been satisfied, or (ii) a large number, such as, for example, whether most of the factors under consideration have yielded a favorable result. Factor analysis (but if those factors may be considered important), (iii) probabilistic discrimination such as probabilistic evaluation of the likelihood of two edges being matched (however, the evaluation varies) Based on various factors). In one embodiment with probabilistic discrimination, labeling a pixel as a PM pixel can indicate that the pixel is likely to be a matching pixel but is less than the probability that the M pixel will match. . The above examples are not necessarily mutually exclusive.

一致を判別する場合と同様に、画素にPM画素としてラベル付けすべきかどうかの決定を、複数の因子、または単一の因子に応じて行うことができる。PM画素を最終的にM画素にするか、NM画素にするかの決定は、後続の操作に応じて行うことができる。たとえば、後述のように、PM画素を最終的にどのようにラベル付けするかの決定を、連続性、除去、再ラベル付けなどの操作によって行うことができる。   As with determining match, the determination of whether a pixel should be labeled as a PM pixel can be made according to multiple factors or a single factor. The decision as to whether the PM pixel will eventually become an M pixel or an NM pixel can be made according to the subsequent operation. For example, as described below, the determination of how to finally label a PM pixel can be made by operations such as continuity, removal, and relabeling.

図5および6を用いて操作440を説明する。上述のとおり、エッジ・マップ500では、12個のエッジ画素が4つのエッジを定義している。この例では、エッジ・マップ500の各エッジ画素(およびこれに関連付けられたエッジ範囲(この例では垂直方向に広がるエッジ範囲))を調べて、これらのエッジ画素(および関連付けられた範囲)がエッジ・マップ600にあるエッジ画素(および関連付けられた範囲)と一致するかどうかを判別する。他の実施態様では、エッジの複数のエッジ画素(最大でエッジ全体)をまとめて調べて、それらのエッジがエッジ・マップ600にあるエッジと一致するかどうかを判別することができる。   The operation 440 will be described with reference to FIGS. As described above, in the edge map 500, 12 edge pixels define four edges. In this example, each edge pixel in the edge map 500 (and its associated edge range (in this example, a vertically extending edge range)) is examined, and these edge pixels (and associated range) are edged. Determine if it matches an edge pixel (and associated range) in the map 600. In other implementations, a plurality of edge pixels (up to the entire edge) of the edge can be examined together to determine if those edges match the edges in the edge map 600.

図5では、エッジ画素は、(1,3)から(3,3)までの箇所、(5,1)から(9,1)までの箇所、(3,8)から(4,8)までの箇所、および(7,6)から(8,6)までの箇所に存在する。2つの画素の距離が許容できること、ならびに位置(1,3)、(2,3)、(3,3)、(5,1)、(6,1)、(7,1)、および(8,1)にあるエッジ画素について、エッジ・マップ600の位置(1,4)、(2,4)、(3,4)、(5,3)、(6,3)、(7,3)、および(8,3)にあるエッジ画素とそれぞれ比較したときに他の任意の一致条件が満たされることを仮定すれば、これらのエッジ画素はM画素としてラベル付けされる。エッジ・マップ500の位置(9,1)のエッジ画素は、説明のために、エッジ・マップ600の位置(9,3)のエッジ画素と一致している可能性があるとする。位置(3,8)および(4,8)のエッジ画素は、エッジ・マップ600のどのエッジ画素とも一致していないと仮定する。位置(7,6)および(8,6)のエッジ画素は、説明のために、エッジ・マップ600にあるエッジ画素と一致している可能性があると仮定する。   In FIG. 5, the edge pixels are located from (1,3) to (3,3), from (5,1) to (9,1), from (3,8) to (4,8). And at locations (7, 6) to (8, 6). The distance between the two pixels is acceptable, and the positions (1,3), (2,3), (3,3), (5,1), (6,1), (7,1), and (8 , 1) for the edge pixel at position (1, 4), (2, 4), (3,4), (5, 3), (6, 3), (7, 3) in the edge map 600. Assuming that any other matching condition is satisfied when compared to the edge pixels at (8, 3), respectively, these edge pixels are labeled as M pixels. For the sake of explanation, it is assumed that the edge pixel at the position (9, 3) in the edge map 500 may coincide with the edge pixel at the position (9, 3) in the edge map 600. Assume that the edge pixels at positions (3, 8) and (4, 8) do not match any edge pixel in edge map 600. For the sake of illustration, assume that the edge pixels at positions (7, 6) and (8, 6) may match the edge pixels in edge map 600.

処理400は、赤のデジタル画像のエッジ・マップの各エッジ画素にラベルを付けること(450)を含む。これらの画素には、たとえば一致している基準エッジがある場合はM画素、一致している可能性がある基準エッジがある場合はPM画素、その他の場合はNM画素としてラベル付けすることができる。   Process 400 includes labeling (450) each edge pixel of the edge map of the red digital image. These pixels can be labeled as, for example, M pixels if there is a matching reference edge, PM pixels if there is a matching reference edge, and NM pixels otherwise. .

図9は、エッジ・マップ500に操作450を適用して得られたエッジ・マップ900を示す。図9では、位置(1,3)、(2,3)、(3,3)、(5,1)、(6,1)、(7,1)、および(8,1)にある8つの画素がM画素としてラベル付けされている。これは、これらのエッジ画素(およびこれらに関連付けられたエッジ範囲)が、基準デジタル画像のエッジ・マップ600において一致する画素を有するからである。位置(9,1)の画素はPM画素としてラベル付けされている。位置(3,8)および(4,8)にある2つの画素はNM画素としてラベル付けされ、位置(7,6)および(8,6)にある2つの画素はPM画素としてラベル付けされている。   FIG. 9 shows an edge map 900 obtained by applying operation 450 to edge map 500. In FIG. 9, 8 at positions (1,3), (2,3), (3,3), (5,1), (6,1), (7,1), and (8,1). Two pixels are labeled as M pixels. This is because these edge pixels (and the edge ranges associated with them) have matching pixels in the edge map 600 of the reference digital image. The pixel at position (9, 1) is labeled as a PM pixel. The two pixels at positions (3,8) and (4,8) are labeled as NM pixels, and the two pixels at positions (7,6) and (8,6) are labeled as PM pixels Yes.

処理400は、エッジ・マップ内のM画素とPM画素の間に連続性を与えること(460)を含む。たとえば、解像度が低いほうの画像のエッジ・マップ内で各M画素およびPM画素の周囲に、水平方向および/または垂直方向に特定の範囲の近傍を定義できる。この近傍内で、ある画素がM画素またはPM画素と識別された場合は、その画素と、その近傍が定義されたM画素またはPM画素の間に、その方向(たとえば、水平、垂直、または斜め方向)に沿って存在する特定の画素群にも、同様にM画素またはPM画素としてラベル付けすることができる。これは、M画素またはPM画素の間に連続性を持たせるためである。そのような一実施態様では、操作460において、PM画素をすべてM画素として処理する。すなわち、操作460で再ラベル付けするすべての画素を、PM画素ではなく、M画素として再ラベル付けする。   Process 400 includes providing continuity between M and PM pixels in the edge map (460). For example, a specific range of neighborhoods can be defined in the horizontal and / or vertical direction around each M and PM pixel in the edge map of the lower resolution image. Within this neighborhood, if a pixel is identified as an M pixel or PM pixel, its direction (eg, horizontal, vertical, or diagonal) is between that pixel and the M or PM pixel for which the neighborhood is defined. A specific pixel group existing along the (direction) can be similarly labeled as an M pixel or a PM pixel. This is to provide continuity between M pixels or PM pixels. In one such implementation, operation 460 treats all PM pixels as M pixels. That is, all pixels that are relabeled in operation 460 are relabeled as M pixels instead of PM pixels.

図10は、水平方向と垂直方向の範囲が両方とも5である近傍を用い、エッジ・マップ900に操作460を適用して得られたエッジ・マップ1000を示す。水平方向と垂直方向の範囲が両方とも5であることにより、画素(3,3)の近傍を太い外郭線で示した。連続性操作460により、図のように画素(4,2)がM画素に変わるが、これは、画素(4,2)が、M画素(5,1)と、その近傍が定義されたM画素(3,3)の間にあるためである。エッジ・マップ1000ではさらに、水平方向と垂直方向の範囲が両方とも5である、画素(7,6)の近傍も太い外郭線で示した。しかし、画素(7,6)の近傍にあるどの画素も、連続性操作460では変化がない。画素(3,8)および(4,8)は、明示的にはNM画素のラベルが付いていないが、これは、ラベルの付いていない画素がすべてNM画素であると理解されるためである。   FIG. 10 shows an edge map 1000 obtained by applying operation 460 to the edge map 900 using a neighborhood whose horizontal and vertical ranges are both 5. Since both the horizontal and vertical ranges are 5, the vicinity of the pixel (3, 3) is indicated by a thick outline. The continuity operation 460 changes the pixel (4, 2) to an M pixel as shown in the figure. This is because the pixel (4, 2) is an M pixel (5, 1) and its neighborhood is defined as M. This is because it is between the pixels (3, 3). In the edge map 1000, the vicinity of the pixel (7, 6) whose horizontal and vertical ranges are both 5 is also indicated by a thick outline. However, none of the pixels in the vicinity of pixel (7,6) is changed by continuity operation 460. Pixels (3, 8) and (4, 8) are not explicitly labeled with NM pixels, because it is understood that all unlabeled pixels are NM pixels. .

エッジ画素間の連続性は、他にも様々な方法で与えることができる。一例として、2つのエッジ画素の間の輝度差、ならびにその2つのエッジ画素の間に空間的に位置する特定の画素群の間の輝度差がいずれも特定のしきい値を下回る場合にはその2つのエッジ画素を接続するという方法がある。   Continuity between edge pixels can be provided in various other ways. As an example, if the luminance difference between two edge pixels and the luminance difference between a specific group of pixels spatially located between the two edge pixels are both below a specific threshold, There is a method of connecting two edge pixels.

処理400は、エッジ・マップ内のスプリアスのM画素またはPM画素を除去すること(470)を含む。一実施態様では、M画素またはPM画素として誤分類されている可能性がある画素の含有が低減されるように、M画素またはPM画素の組の余分なものを除去して、より小さな組にする。そのような誤分類が起こりうるのは、たとえば、雑音のためである。この除去操作の実行には、様々な基準を用いることができる。   Process 400 includes removing 470 spurious M or PM pixels in the edge map. In one embodiment, the extra set of M or PM pixels is removed to a smaller set so that the inclusion of pixels that may be misclassified as M or PM pixels is reduced. To do. Such misclassification can occur, for example, due to noise. Various criteria can be used to perform this removal operation.

図11は、M画素またはPM画素を除去するために分類装置330で用いられる処理1100のフロー・チャートである。処理1100は、接続されたM画素(および任意でPM画素)の組を識別すること(1110)を含む。接続された組は、すべてのM画素またはPM画素が、それぞれ、その組にある他の、少なくとも1つのM画素またはPM画素の近傍にある可能性がある、M画素またはPM画素の組として定義される。MまたはPM画素は、水平方向、垂直方向、または斜め方向で互いに隣り合っていれば、近傍にある。エッジ・マップ1000では、1つの接続された組に8つのM画素と1つの近傍PM画素があり、別の接続された組に残りの2つのPM画素がある。   FIG. 11 is a flow chart of a process 1100 used by the classification device 330 to remove M or PM pixels. Process 1100 includes identifying (1110) a set of connected M pixels (and optionally PM pixels). A connected set is defined as a set of M or PM pixels where every M or PM pixel may be in the vicinity of at least one other M or PM pixel in the set, respectively. Is done. M or PM pixels are in the vicinity if they are adjacent to each other in the horizontal, vertical, or diagonal directions. In edge map 1000, there are 8 M pixels and 1 neighboring PM pixel in one connected set, and the remaining 2 PM pixels in another connected set.

処理1100は、所与の接続された組について、M画素の数を確定すること(1120)と、PM画素の数を確定すること(1125)とを含む。処理1100は、接続された組の中のM画素および/またはPM画素の数を1つまたは複数のしきい値と比較すること(1130)と、それらのしきい値のうちの1つまたは複数が満たされない場合に、その接続された組の中のM画素またはPM画素をNM画素として再ラベル付けすること(1140)とを含む。一実施態様では、M画素の数とPM画素の数の和をサイズしきい値と比較する。この和がサイズしきい値未満であれば、それらのM画素およびPM画素をNM画素として再ラベル付けする。逆に、和がサイズしきい値以上であれば、その接続された組にあるPM画素をM画素に再ラベル付けする。操作1130および1140はさらに(あるいは代わりに)、接続された組でのPM画素に対するM画素の比を比しきい値と比較することを含む場合もある。このPM画素に対するM画素の比が比しきい値未満であれば、その接続された組にあるM画素またはPM画素をNM画素に再ラベル付けする。逆に、比が比しきい値以上であれば、その接続された組にあるPM画素をM画素に再ラベル付けする。   Process 1100 includes determining the number of M pixels (1120) and determining the number of PM pixels (1125) for a given connected set. The process 1100 compares (1130) the number of M and / or PM pixels in the connected set to one or more thresholds and one or more of those thresholds. Re-labeling (1140) M or PM pixels in the connected set as NM pixels. In one embodiment, the sum of the number of M pixels and the number of PM pixels is compared to a size threshold. If this sum is less than the size threshold, re-label those M and PM pixels as NM pixels. Conversely, if the sum is greater than or equal to the size threshold, the PM pixels in the connected set are relabeled to M pixels. Operations 1130 and 1140 may further (or alternatively) include comparing the ratio of M pixels to PM pixels in the connected set to a ratio threshold. If the ratio of M pixels to PM pixels is less than the ratio threshold, the M pixels or PM pixels in the connected set are relabeled to NM pixels. Conversely, if the ratio is greater than or equal to the ratio threshold, the PM pixels in the connected set are relabeled to M pixels.

引き続き図10の例で、サイズしきい値を3とすると、M画素の接続された組と1つのPM画素がNM画素として再ラベル付けされず、PM画素の接続された組がNM画素として再ラベル付けされる。比しきい値を適用し、比しきい値が1つのPM画素に対して8つ以下のM画素であるとすると、M画素の接続された組がM画素のままで残り、位置(9,1)にある近傍PM画素がM画素として再ラベル付けされ、PM画素の接続された組がNM画素として再ラベル付けされる。   In the example of FIG. 10, if the size threshold is set to 3, the connected set of M pixels and one PM pixel are not relabeled as NM pixels, and the connected set of PM pixels is re-labeled as NM pixels. Labeled. If a ratio threshold is applied and the ratio threshold is 8 or less M pixels for one PM pixel, the connected set of M pixels remains as M pixels, and the position (9, The neighboring PM pixels in 1) are relabeled as M pixels and the connected set of PM pixels is relabeled as NM pixels.

図4に戻ると、処理400はさらに、エッジ・マップ内のすべてのM画素についてエッジ範囲を与えること(480)を含む。赤のデジタル画像のエッジ・マップにおいてエッジ画素であるM画素については、そのエッジ範囲は、たとえば、赤のデジタル画像のオリジナルのエッジ範囲であると解釈できる。オリジナルのエッジ範囲は、たとえば、一次元(たとえば、水平または垂直)または二次元で決定できる。操作460でM画素としてラベル付けされた画素のように、エッジ画素でないM画素については、エッジ範囲は、たとえば、1つまたは複数の近傍M画素のエッジ範囲の関数であると解釈できる。   Returning to FIG. 4, process 400 further includes providing an edge range for all M pixels in the edge map (480). For M pixels that are edge pixels in the edge map of the red digital image, the edge range can be interpreted, for example, as the original edge range of the red digital image. The original edge range can be determined, for example, in one dimension (eg, horizontal or vertical) or two dimensions. For M pixels that are not edge pixels, such as those labeled as M pixels in operation 460, the edge range can be interpreted as a function of the edge range of one or more neighboring M pixels, for example.

一実施態様では、M画素の接続された組のエッジ範囲の類似性は、接続された組の中ですべてのM画素について同等のエッジ範囲を指定することによって実現される。エッジ範囲は、たとえば、オリジナルのエッジ範囲を有する、接続された組の中のM画素のオリジナルのエッジ範囲の関数に基づいて決定できる。たとえば、接続された組の中のすべてのM画素のエッジ範囲として、オリジナルのエッジ範囲の中央値、平均値、最小値、または最大値を用いることができる。接続された組の中のM画素を収集することによって確定する、これらの中央値、平均値、または他の種類の統計値を、接続された組の中の各M画素のエッジ範囲を決定する際の出発点として用いることもできる。   In one implementation, the similarity of the edge ranges of a connected set of M pixels is achieved by specifying an equivalent edge range for all M pixels in the connected set. The edge range can be determined, for example, based on a function of the original edge range of M pixels in the connected set having the original edge range. For example, the median, average, minimum, or maximum value of the original edge range can be used as the edge range of all M pixels in the connected set. These median, average, or other types of statistics, determined by collecting M pixels in the connected set, determine the edge range of each M pixel in the connected set. It can also be used as a starting point.

図12は、エッジ・マップ1000のM画素に操作480を適用して得られるエッジ範囲1200を示す。エッジ画素でもあるM画素のオリジナルのエッジ範囲は、図7に示されている。図7のエッジ範囲は、上方の1画素の範囲の中央値と、下方の3画素の範囲の中央値を有する。オリジナルのエッジ範囲の、これら2つの中央値は、図12で与えられているエッジ範囲に用いられ、操作460でラベル付けされたM画素にも同じ上方および下方の範囲が与えられる。   FIG. 12 shows an edge range 1200 obtained by applying operation 480 to the M pixels of the edge map 1000. The original edge range of M pixels, which are also edge pixels, is shown in FIG. The edge range in FIG. 7 has the median of the range of the upper one pixel and the median of the range of the lower three pixels. These two median values of the original edge range are used for the edge range given in FIG. 12, and the same upper and lower ranges are given to the M pixels labeled in operation 460.

処理400は、エッジ・マップ内のすべてのエッジ範囲画素をM画素としてラベル付けし、他のすべての画素をNM画素としてラベル付けすること(490)を含む。図13は、図12のエッジ範囲画素をM画素としてラベル付けすることによって生成された分類マップ1300を示すが、ただしラベルがない画素位置はNM画素であることが理解される。   Process 400 includes labeling (490) all edge range pixels in the edge map as M pixels and all other pixels as NM pixels. FIG. 13 shows a classification map 1300 generated by labeling the edge range pixels of FIG. 12 as M pixels, but it is understood that pixel positions without labels are NM pixels.

(修正装置)
図3に戻り、システム300はさらに、修正装置340を含む。修正装置340は、(i)分類マップCおよび3つのデジタル画像R、G、およびBを受け取り、(ii)分類マップによって識別された箇所の解像度を上げ、(iii)(M1としてラベル付けされた)赤のデジタル画像の修正されたデジタル色成分画像を出力する。修整装置340は、基準デジタル画像からの解像度情報を用いて、赤のデジタル画像の解像度内容を修正する。赤のデジタル画像と基準デジタル画像はエッジが一致しているので、(一般に赤のデジタル画像より解像度が高いデジタル画像である)基準デジタル画像からの解像度情報を用いて、赤のデジタル画像の修正を誘導することができる。修正装置340は、基準デジタル画像にウェーブレット変換を適用して解像度情報を生成し、この解像度情報を用いて、赤のデジタル画像にウェーブレット変換を適用することによって生成された情報を修正する。ウェーブレット変換が有用であるのは、変換によって、画像全体の、解像度が異なる複数の表現(サブバンド)が生成されるためと、特定の空間的位置にある解像度情報が、各サブバンドにおいて対応する位置にある特定のウェーブレット係数と相関されるためである。
(Correction device)
Returning to FIG. 3, the system 300 further includes a correction device 340. The correction device 340 receives (i) the classification map CR and the three digital images R, G, and B, (ii) increases the resolution of the location identified by the classification map, and (iii) labels as (M1 R ) Output a modified digital color component image of the red digital image. The retouching device 340 corrects the resolution content of the red digital image using the resolution information from the reference digital image. Since the red digital image and the reference digital image have matching edges, the resolution information from the reference digital image (which is typically a higher resolution digital image than the red digital image) is used to correct the red digital image. Can be guided. The correcting device 340 generates resolution information by applying wavelet transform to the reference digital image, and uses the resolution information to correct information generated by applying wavelet transform to the red digital image. The wavelet transform is useful because the transform generates multiple representations (subbands) with different resolutions of the entire image, and the resolution information at a specific spatial position corresponds to each subband. This is because it is correlated with a specific wavelet coefficient at the position.

図14は、修正装置340が赤のデジタル画像を修正するために行う処理1400のフロー・チャートである。処理1400は、赤のデジタル画像と基準デジタル画像に対して別々のウェーブレット変換を行うこと(1410)を含む。この変換は、たとえば、一度に一次元でも、一度に二次元でも行うことができ、いずれの場合も、特定の実装でよりよい結果が得られる。2つのパスを行う一実施態様では、変換は各パスで一次元であり、斜め方向を有するエッジに対応する情報を取り込む。最初のパスでは、行ごとに変換を行い、水平方向の解像度情報を取り込む。次のパスでは、列に対して変換を行い、垂直方向の解像度情報を取り込む。   FIG. 14 is a flow chart of a process 1400 that the correction device 340 performs to correct the red digital image. Process 1400 includes performing separate wavelet transforms (1410) on the red digital image and the reference digital image. This conversion can be done, for example, one dimension at a time or two dimensions at a time, and in either case, better results are obtained with a particular implementation. In one implementation that performs two passes, the transformation is one-dimensional in each pass and captures information corresponding to edges having diagonal directions. In the first pass, conversion is performed line by line, and horizontal resolution information is captured. In the next pass, the column is converted and vertical resolution information is captured.

図15は、1つの行を対象とした簡単な例の結果を示す表1500である。行「x」は、分類マップの行であって、行xが16画素を有し、そのうちの7つがM画素であることを示している(デジタル画像の行xの輝度値は示していない)。7つのM画素は位置1〜6および9にあり、残りの画素はNM画素である(NM画素にはラベルが付いていない)。一般に、デジタル画像の、1レベルの、一次元の、行ごとのウェーブレット変換では、デジタル画像の行xと相関されたか、関連付けられた、全部で16個の係数(図示せず)を有する2つのサブバンドが生成される。1つのサブバンドが低解像度情報を表し、もう1つのサブバンドが高解像度情報を表す。デジタル画像の、4レベルの一次元ウェーブレット変換では、5つのサブバンドが生成される。ここで、サブバンド0(ベースバンド)について1つの係数、サブバンド1について1つの係数、サブバンド2について2つの係数、サブバンド3について4つの係数、およびサブバンド4について8つの係数がある。これら16個の係数のそれぞれと相関された、行x内の位置を、表1500に表示した番号で示した。   FIG. 15 is a table 1500 showing the results of a simple example targeting one row. The row “x” is a row of the classification map, and indicates that the row x has 16 pixels and 7 of them are M pixels (the luminance value of the row x of the digital image is not shown). . Seven M pixels are at positions 1-6 and 9, and the remaining pixels are NM pixels (NM pixels are not labeled). In general, a one-level, one-dimensional, row-by-row wavelet transform of a digital image has two total 16 coefficients (not shown) correlated or associated with the digital image row x. A subband is generated. One subband represents low resolution information and the other subband represents high resolution information. In a four-level one-dimensional wavelet transform of a digital image, five subbands are generated. Here, there is one coefficient for subband 0 (baseband), one coefficient for subband 1, two coefficients for subband 2, four coefficients for subband 3, and eight coefficients for subband 4. The position in row x, correlated with each of these 16 coefficients, is indicated by the number displayed in table 1500.

一般に、修正装置340がデジタル画像全体に対して行うウェーブレット変換では、デジタル画像の行ごとに、最も高いサブバンドに対応する「z」個の係数(「z」は行内の画素数の半分の数)、2番目に高いサブバンドに対応する「z/2」個の係数、3番目に高いサブバンドに対応する「z/4」個の係数(以降も同様)が生成される。このウェーブレット係数はデジタル画像の空間領域(この例では特定の行または行の一部)と相関されるか、関連付けられると言われているが、一般に、ウェーブレット係数で識別される解像度成分は、空間的にその領域に制限されない。   In general, in the wavelet transform that the correction device 340 performs on the entire digital image, for each row of the digital image, “z” coefficients corresponding to the highest subband (“z” is half the number of pixels in the row). ) “Z / 2” coefficients corresponding to the second highest subband, and “z / 4” coefficients corresponding to the third highest subband (and so on) are generated. Although this wavelet coefficient is said to be correlated or associated with the spatial region of the digital image (in this example, a particular row or part of a row), in general, the resolution component identified by the wavelet coefficient is spatial It is not limited to that area.

処理1400は、ウェーブレット変換を計算した後、赤のデジタル画像にウェーブレット変換を適用することによって生成されたデジタル画像の、どのウェーブレット係数の箇所を修正するかを決定する。この決定は、行ごとに個別に、かつ、各行においてサブバンドごとに個別に行う。   Process 1400, after calculating the wavelet transform, determines which wavelet coefficient locations of the digital image generated by applying the wavelet transform to the red digital image are to be modified. This determination is performed individually for each row and for each subband in each row.

処理1400は、赤のデジタル画像の中の特定の行について、最も高いサブバンドの中のどのウェーブレット係数を修正するかを決定すること(1420)を含む。一実施態様では、分類マップCの特定の行の位置「2*j」または「2*j+1」がM画素である場合に、ウェーブレット変換の最も高いサブバンドの中の位置「j」にある係数を修正する(ただし、「j」は0以上であって、最も高いウェーブレット・サブバンドの開始位置から測定される)。 Process 1400 includes determining (1420) which wavelet coefficients in the highest subband to modify for a particular row in the red digital image. In one embodiment, when the position of a particular row of the classification map C R "2 * j" or "2 * j + 1" is M pixels, in the position in the highest sub-band of the wavelet transform "j" Modify the coefficients (where “j” is greater than or equal to 0 and is measured from the start of the highest wavelet subband).

表1500を用いて操作1420を説明する。最も高いサブバンドはサブバンド4であって、分類マップの行xの位置1がM画素なので、位置0が修正される。同様に、位置1、2、3、および4が修正されるが、位置5、6、および7は修正されない。   The operation 1420 will be described using the table 1500. The highest subband is subband 4, and position 0 is corrected because position 1 in row x of the classification map is M pixels. Similarly, positions 1, 2, 3, and 4 are modified, but positions 5, 6, and 7 are not modified.

処理1400は、赤のデジタル画像の中の同じ特定の行について、残りのサブバンドの中のどのウェーブレット係数を修正するかを決定すること(1430)を含む。一実施態様では、残りのサブバンドを、高いほうから低いほうに処理する。前の(より高い)サブバンドの中の位置「2*j」または「2*j+1」が修正されている場合は、ウェーブレット変換の、次に高いサブバンドの中の位置「j」にある係数を修正する。   Process 1400 includes determining (1430) which wavelet coefficients in the remaining subbands to modify for the same particular row in the red digital image. In one embodiment, the remaining subbands are processed from high to low. If the position “2 * j” or “2 * j + 1” in the previous (higher) subband is modified, the coefficient at position “j” in the next higher subband of the wavelet transform To correct.

表1500を用いて操作1430を説明する。前の説明に続き、次に高いサブバンドがサブバンド3であって、サブバンド4の中の位置0(2*j)(または位置1(2*j+1))が修正されているので、位置0(j=0)が修正される。同様に、位置1および2が修正されるが、位置3は修正されない。   The operation 1430 will be described using the table 1500. Continuing from the previous description, the next highest subband is subband 3 and position 0 (2 * j) (or position 1 (2 * j + 1)) in subband 4 has been modified so that position 0 (j = 0) is corrected. Similarly, positions 1 and 2 are corrected, but position 3 is not corrected.

次に、サブバンド2を処理する。サブバンド3の中の位置0(2*j)(または位置1(2*j+1))が修正されているので、位置0(j=0)が修正される。同様に、位置1も修正される。
次に、サブバンド1を処理する。サブバンド2の中の位置0(j=0)(または位置1(2*j+1))が修正されているので、位置0(j=0)が修正される。
最後に、サブバンド0を処理する。サブバンド1の中の位置0(j=0)が修正されているので、位置0(j=0)が修正される。一実施態様では、サブバンド0の係数は修正されない。
Next, subband 2 is processed. Since position 0 (2 * j) (or position 1 (2 * j + 1)) in subband 3 has been corrected, position 0 (j = 0) is corrected. Similarly, position 1 is also corrected.
Next, subband 1 is processed. Since position 0 (j = 0) (or position 1 (2 * j + 1)) in subband 2 has been corrected, position 0 (j = 0) is corrected.
Finally, subband 0 is processed. Since position 0 (j = 0) in subband 1 is corrected, position 0 (j = 0) is corrected. In one implementation, the coefficients for subband 0 are not modified.

処理1400は、上記で決定した位置にある係数を修正すること(1440)を含む。一実施態様では、係数を置き換えによって修正する。特に、基準デジタル画像にウェーブレット変換を適用することによって生成された結果の中で決定された位置の係数群を、赤のデジタル画像にウェーブレット変換を適用することによって生成された結果の中で決定された位置にある係数群にコピー(または変倍してコピー)する。したがって、決定された係数の位置において、赤のデジタル画像の解像度情報が、基準デジタル画像の解像度情報(または解像度情報の関数)に置き換わる。係数を変倍するとは、係数に特定の数を乗ずることである。   Process 1400 includes modifying (1440) the coefficients at the positions determined above. In one embodiment, the coefficients are modified by replacement. In particular, the position coefficients determined in the results generated by applying the wavelet transform to the reference digital image are determined in the results generated by applying the wavelet transform to the red digital image. Copies (or scales and copies) to the coefficient group at the specified position. Therefore, at the determined coefficient position, the resolution information of the red digital image is replaced with the resolution information (or a function of the resolution information) of the reference digital image. To scale a coefficient is to multiply the coefficient by a specific number.

修正装置340は、赤(解像度が低いほう)のデジタル画像を修正するだけであり、基準(解像度が高いほうの)デジタル画像を修正しないことに注意されたい。
処理1400は、赤のデジタル画像にウェーブレット変換を適用した結果を修正したものに逆ウェーブレット変換を行うこと(1450)を含む。この逆変換により、(システム300でM1とラベル付けされた)修正された赤のデジタル画像が生成される。
Note that the correction device 340 only corrects the red (lower resolution) digital image and not the reference (higher resolution) digital image.
Process 1400 includes performing an inverse wavelet transform (1450) on the modified result of applying the wavelet transform to the red digital image. This inverse transform produces a modified red digital image (labeled M1 R in system 300).

(後処理装置)
図3に戻ると、システム300はさらに後処理装置350を含む。後処理装置350は、M1、C、および3つのデジタル画像R、G、およびBを受け取り、修正されたM1(M2と称する)を生成する。後処理装置350は3つの操作を行うが、他の実施態様では、それら3つの操作のうちの1つまたは複数を省略し、別の操作を加えることができる。
(Post-processing equipment)
Returning to FIG. 3, the system 300 further includes a post-processing device 350. Post-processing device 350 receives M1 R , C R , and three digital images R, G, and B and generates a modified M1 R (referred to as M2 R ). The post-processing device 350 performs three operations, but in other embodiments, one or more of the three operations can be omitted and another operation added.

第1に、後処理装置350は、CのNM画素に対応するM1の画素が、赤のデジタル画像におけるそれらの輝度値から修正されていないことを確認する。それらのM1画素で修正されているものがある場合は、それらの画素の輝度値を、赤のデジタル画像で与えられたオリジナルの値に戻す。 First, the post-processing device 350, M1 R pixels corresponding to the NM pixels of C R confirms that it has not been modified from their luminance values in the red digital image. If any of those M1 R pixels have been modified, the luminance values of those pixels are returned to the original values given in the red digital image.

NM画素は、修正装置340でウェーブレット係数を変更したことによって修正されている可能性がある。表1500に関して既に述べたように、サブバンド4、3、2、1、および0において係数0が修正されている。表1500からわかるように、これら5つの係数はすべて、デジタル画像の行xにあるNM画素0に影響する。したがって、NM画素0は修正されると予想できる。さらに、これらの係数は、デジタル画像の特定の画素群と関連付けられるか、相関されるが、一般に、これらの係数は、周囲の画素にも効果を生成する(この効果を拡散効果と呼ぶ)。したがって、たとえば、サブバンド4の中の係数3は、デジタル画像の行xにおいて、NM画素7だけでなく、NM画素8にも影響すると予想できる。   The NM pixel may be corrected by changing the wavelet coefficient by the correction device 340. As already mentioned with respect to table 1500, the factor 0 has been modified in subbands 4, 3, 2, 1, and 0. As can be seen from table 1500, all five of these factors affect NM pixel 0 in row x of the digital image. Therefore, NM pixel 0 can be expected to be modified. In addition, these coefficients are associated with or correlated with a particular group of pixels in the digital image, but generally these coefficients also produce an effect on surrounding pixels (this effect is referred to as a diffusion effect). Thus, for example, coefficient 3 in subband 4 can be expected to affect not only NM pixel 7 but also NM pixel 8 in row x of the digital image.

第2に、後処理装置350は、M1またはM1の一部の解像度を計算して、その解像度が修正の結果として低下していないことを確認する。解像度が低下している場合は、様々なアクションを開始または実行できる。たとえば、修正によって特定の画素位置で解像度が低下した場合は、これらの画素値をオリジナルの輝度値に戻すことができる。あるいは、分類装置330および/または修正装置340のいずれかのパラメータを変更して、その装置の操作を再度実行することができる。たとえば、Cを決定するパラメータを変更したり、基準デジタル画像を変更したり、修正用のウェーブレット係数を選択および/または修正する方法を変更したりできる。 Second, the post-processing device 350 calculates the resolution of M1 R or a portion of M1 R and confirms that the resolution has not decreased as a result of the correction. If the resolution is degraded, various actions can be initiated or performed. For example, when the resolution decreases at a specific pixel position due to the correction, these pixel values can be returned to the original luminance values. Alternatively, any of the parameters of the classification device 330 and / or the correction device 340 can be changed and the operation of the device can be performed again. For example, it or change to change the parameter that determines the C R, to change the reference digital image, the method of selecting and / or modifying the wavelet coefficients for modifications.

第3に、後処理装置350は、M画素とNM画素の間、または2つのM画素の間の境界において、異なる基準デジタル画像(それぞれ、ReflおよびRef2)を用いる「フェザリング」(または同様の平滑化)を行うことにより、存在しうる1つまたは複数の非連続性の視覚的影響を低減しようとする。フェザリングは、たとえば(いくつかの実施態様について後述するように)、一種類の画素を含む箇所(たとえば、トランジション境界の一方の側の画素)に適用したり、複数種類の画素を含む箇所(たとえば、異なる種類の画素の間にあるトランジション境界の全体に広がる近傍の中にある画素)に適用したりできる。一実施態様では、フェザリングを、水平方向で近接する2つの画素領域の間の垂直方向の境界に沿って、ならびに垂直方向で近接する2つの画素領域の間の水平方向の境界に沿って実行する。   Third, the post-processing device 350 “feathers” (or similar) using different reference digital images (Refl and Ref2 respectively) at the boundary between M and NM pixels, or between two M pixels. Smoothing) attempts to reduce the visual impact of one or more discontinuities that may exist. Feathering can be applied, for example (as described below in some embodiments) to locations that contain one type of pixel (eg, pixels on one side of a transition boundary) or locations that contain multiple types of pixels ( For example, the present invention can be applied to a pixel in a neighborhood extending over the whole transition boundary between different types of pixels. In one embodiment, feathering is performed along a vertical boundary between two pixel regions that are adjacent in the horizontal direction, as well as along a horizontal boundary between two pixel regions that are adjacent in the vertical direction. To do.

一般に、フェザリング範囲の大きさは、境界における画素の輝度値が一方の値から他方の値に融合する率に影響を及ぼす。NM/M(あるいはRefl/Ref2)画素トランジションに対応する行または列ごとの範囲の大きさを決定するために、様々な手法を用いることができる。一実施態様では、フェザリング範囲の大きさを、修正された赤の画像M1の輝度値だけでなく、R、G、およびBの輝度値にも基づいて決定する。たとえば、 In general, the size of the feathering range affects the rate at which the luminance values of the pixels at the boundary merge from one value to the other. Various techniques can be used to determine the size of the range for each row or column corresponding to the NM / M (or Refl / Ref2) pixel transition. In one implementation, the size of the feathering range is determined based not only on the brightness values of the modified red image M1 R , but also on the brightness values of R, G, and B. For example,

修正装置によって赤の画像が処理された後のNM/MトランジションにおけるNM画素の赤の輝度値をM1(i,j)とし、修正装置によって赤の画像が処理された後のNM/MトランジションにおけるM画素の赤の輝度値をM1(i,j+l)とすると、値diffを次式で定義できる。
diff=abs(M1(i,j)−M1(i,j+l))
The red brightness value of the NM pixel in the NM / M transition after the red image is processed by the correction device is M1 R (i, j), and the NM / M transition after the red image is processed by the correction device. Assuming that the red luminance value of the M pixel at is M1 R (i, j + l), the value diff can be defined by the following equation.
diff = abs (M1 R (i, j) −M1 R (i, j + 1))

これは、NM画素の赤の値と、M画素の赤の値との、赤の輝度差の絶対値である。さらに、特定の測定基準を位置(i,j)および(i,j+l)の(R,G,B)画素輝度値ならびに位置(i,j+1)のM1画素輝度値に適用したときに、その測定基準が満たされるかどうかに基づいて、値diff2を1または0と定義できる。たとえば、その特定の測定基準として、abs(M1(i,j+l)−R(i,j+l))、abs(G(i,j)−G(i,j+l))、およびabs(B(i,j)−B(i,j+l))を用いることができる。 This is the absolute value of the red luminance difference between the red value of the NM pixel and the red value of the M pixel. Furthermore, when a particular metric is applied to the (R, G, B) pixel luminance value at position (i, j) and (i, j + 1) and the M1 R pixel luminance value at position (i, j + 1) The value diff2 can be defined as 1 or 0 based on whether the metric is met. For example, as its particular metric, abs (M1 R (i, j + 1) -R (i, j + 1)), abs (G (i, j) -G (i, j + 1)), and abs (B (i , J) -B (i, j + l)).

したがって、次式のように範囲を定義できる。
E1=(constant*diff)(diff2=1の場合)、または0 (diff2=0の場合)
ただし、constant(定数)は、0以上であるが、一般に1未満である。
Therefore, the range can be defined as follows:
E1 = (constant * diff) (if diff2 = 1) or 0 (if diff2 = 0)
However, the constant (constant) is 0 or more, but is generally less than 1.

図16は、1つの列iの一部を対象とした簡単な例を示す。図16では、画素(i,j)がNM画素であり、画素(i,j+l)がM画素である。M1(i,j)=130、M1(i,j+l)=90、およびdiff=40である。さらに、diff2を1とする。「constant」の値を0.1とすると、E1=4となる。これは、M1(i,j+l)からM1(i,j+4)までを含む。 FIG. 16 shows a simple example targeting a part of one column i. In FIG. 16, the pixel (i, j) is an NM pixel, and the pixel (i, j + l) is an M pixel. M1 R (i, j) = 130, M1 R (i, j + 1) = 90, and diff = 40. Further, diff2 is set to 1. If the value of “constant” is 0.1, E1 = 4. This includes from M1 R (i, j + l) to M1 R (i, j + 4).

この範囲は、同じ指定を受けた近傍画素の輝度の類似性に基づいて、さらに改良できる。一実施態様では、引き続き上記の例で、位置(i,j+l)のM画素と範囲E1が与えられている場合に、画素(i,k)(j+1<k≦j+E1、kは整数)に対して以下の操作を行う。
1.画素(i,k)が直前の画素(i,k−l)と同じ種類の指定(M画素またはNM画素)かどうかを調べる。
2a.操作1が満足されない場合は、操作4に進む。
2b.画素(i,k)の(R,G,B)輝度値を、画素(i,k−1)の(R,G,B)輝度値と比較する。
3.操作2bの比較が特定の測定基準(上述のdiff2を与えた測定基準と異なる)を満たす場合は、kを1増やして操作1に戻る。
4.操作1が満足されなかった場合、または操作2bの比較が特定の測定基準を満たさなかった場合に、操作3を満足した画素(i,k)の組を範囲として定義する。
This range can be further improved based on the similarity in brightness of neighboring pixels that have received the same designation. In one embodiment, for the pixel (i, k) (j + 1 <k ≦ j + E1, k is an integer), given the M pixel at position (i, j + l) and the range E1 in the example above. Perform the following operations.
1. It is checked whether the pixel (i, k) is the same type of designation (M pixel or NM pixel) as the immediately preceding pixel (i, kl).
2a. If operation 1 is not satisfied, go to operation 4.
2b. The (R, G, B) luminance value of the pixel (i, k) is compared with the (R, G, B) luminance value of the pixel (i, k−1).
3. If the comparison in operation 2b meets a specific metric (different from the metric given diff2 above), k is incremented by 1 and the operation returns to operation 1.
4). If operation 1 is not satisfied, or if the comparison of operation 2b does not meet a specific metric, the range of pixels (i, k) that satisfy operation 3 is defined as a range.

図16に示した列に上記のアルゴリズムを適用できる。このアルゴリズムの第1のパスでは、k=j+2である。操作1では、画素(i,j+2)と画素(i,j+1)とを比較し、両方がM画素である。操作2bでは、画素(i,j+2)の(R,G,B)輝度値と、画素(i,j+l)の(R,G,B)輝度値とを比較する。たとえば、この比較として、各色成分の差の絶対値を求めることができ、この例では比較によって、(3,3,2)という結果(すなわち、128−125、127−130、118−116)が得られる。操作3では、(3,3,2)という結果から、測定基準が満たされているかどうかが判別される。この測定基準として、たとえば、各成分の最大許容差を用いることができ、たとえば、最大許容差の値を6とすることができる。そのような実施態様では、各色成分の差(3、3、および2)が最大許容差6より小さいので、測定基準が満たされる。   The above algorithm can be applied to the columns shown in FIG. In the first pass of this algorithm, k = j + 2. In operation 1, pixel (i, j + 2) and pixel (i, j + 1) are compared, and both are M pixels. In operation 2b, the (R, G, B) luminance value of the pixel (i, j + 2) is compared with the (R, G, B) luminance value of the pixel (i, j + l). For example, as this comparison, the absolute value of the difference between the respective color components can be obtained. In this example, the comparison results in (3, 3, 2) (ie, 128-125, 127-130, 118-116). can get. In operation 3, it is determined from the result (3, 3, 2) whether or not the measurement standard is satisfied. As this measurement standard, for example, the maximum tolerance of each component can be used. For example, the value of the maximum tolerance can be 6. In such an embodiment, the metric is met because the difference (3, 3, and 2) for each color component is less than the maximum tolerance of 6.

このアルゴリズムの第2のパスでは、k=j+3である。操作1では、画素(i,j+3)と画素(i,j+2)とを比較し、両方がM画素である。操作2bで、比較が輝度値の絶対値の差であるとすると、比較結果は、R成分が7(125−118)、G成分とB成分がともに1である。操作3で、測定基準が最大差5であるとすると、7という結果は測定基準を満たさない。操作4では、画素(i,j+1)および(i,j+2)が範囲として定義される。これは、前に決定した範囲4より小さい。   In the second pass of this algorithm, k = j + 3. In operation 1, pixel (i, j + 3) and pixel (i, j + 2) are compared, and both are M pixels. If the comparison is an absolute value difference between the luminance values in the operation 2b, the comparison result is that the R component is 7 (125-118) and the G component and B component are both 1. In operation 3, if the metric is a maximum difference of 5, the result of 7 does not meet the metric. In operation 4, pixels (i, j + 1) and (i, j + 2) are defined as ranges. This is less than the previously determined range 4.

上記の例で最大許容差が7であったとすると、画素(i,j+3)は測定基準を満たし、アルゴリズムの第3のパスが行われる。ただし、第3のパスでは、画素(i,j+4)が、NM画素であるために操作1を満足せず、範囲は、画素(i,j+l)から画素(i,j+3)までを含んで画素(i,j+3)で終わる。   If the maximum tolerance is 7 in the above example, pixel (i, j + 3) meets the metric and the third pass of the algorithm is performed. However, in the third pass, since the pixel (i, j + 4) is an NM pixel, the operation 1 is not satisfied, and the range includes the pixel (i, j + l) to the pixel (i, j + 3). End with (i, j + 3).

フェザリング範囲は、M画素位置群とNM画素位置群の両方の端から端まで、M画素位置群だけの端から端まで、またはNM画素位置群だけの端から端まで広げることができる(あるいは、Ref1/Ref2境界トランジションがある場合には、同じように、Refl画素位置群とRef2画素位置群の両方の端から端まで、Refl画素位置群だけの端から端まで、またはRef2画素位置群だけの端から端まで広げることができる)。フェザリング範囲をM画素位置だけでなくNM画素位置の端から端まで広げると、たとえば、上述の操作と同様の処理を、NM/Mトランジション境界の近くのNM画素に適用できる。   The feathering range can be extended from end to end of both the M pixel position group and the NM pixel position group, from end to end of the M pixel position group only, or from end to end of the NM pixel position group only (or Similarly, when there is a Ref1 / Ref2 boundary transition, similarly, from both ends of the Refl pixel position group and the Ref2 pixel position group, from the end of the Refl pixel position group only to the end, or only the Ref2 pixel position group Can be spread from end to end). When the feathering range is expanded not only from the M pixel position to the end of the NM pixel position, for example, the same processing as the above-described operation can be applied to NM pixels near the NM / M transition boundary.

フェザリング範囲が得られると、この範囲にある画素の輝度値を修正できる。一実施態様では、フェザリング範囲内で、各フェザリング範囲の末尾の画素に関連付けられた輝度値の間を線形補間することにより、新しい輝度値を得る。ただし、様々な方法を用いて、フェザリング範囲内で新しい輝度値を得ることができる。   When the feathering range is obtained, the luminance value of the pixels in this range can be corrected. In one implementation, new brightness values are obtained by linearly interpolating between brightness values associated with the last pixel of each feathering range within the feathering range. However, a new luminance value can be obtained within the feathering range using various methods.

図17は、NM/M境界変換の近くで上述のフェザリング手法の作用を受ける複数の画素を識別する二次元の例1700を示す。表示を簡単にするために、NM/M画素はラベル付けしていない。その代わりに、NM/M画素間のトランジションを太い実線で示した。水平方向と垂直方向の両方でフェザリング手法の作用を受ける画素を「S」とラベル付けした。   FIG. 17 shows a two-dimensional example 1700 that identifies a plurality of pixels subject to the above-described feathering approach near an NM / M boundary transform. For simplicity of display, NM / M pixels are not labeled. Instead, the transition between NM / M pixels is indicated by a thick solid line. Pixels that are affected by the feathering technique in both the horizontal and vertical directions are labeled “S”.

既に簡単に説明したように、一次元ウェーブレット変換は、エッジを一方向にのみ記述した分類マップを用いる修正装置340によって、一方向にのみ適用できる。システム300で、未修正の赤のデジタル画像Rを用いると、斜め方向の新しい分類マップを得られる。修正装置340が、その新しい分類マップと「古い」M2を受け取り、新しい分類マップを用いて、斜め方向の一次元ウェーブレット変換を古いM2に適用する。そのM2を修正して、新しいM1を得る。新しいM1を後処理装置350に送る。後処理装置350で、最終的なM2が生成される。他の実施態様では、複数のパス(斜め、その他)の結果を様々な方法でまとめることができる。 As already briefly described, the one-dimensional wavelet transform can be applied only in one direction by the correction device 340 using the classification map in which edges are described only in one direction. Using the uncorrected red digital image R in the system 300, a new diagonal classification map can be obtained. Correction device 340 receives the new classification map and "old" M2 R, using a new classification map, application of one-dimensional wavelet transform in the oblique direction to the old M2 R. Correct the M2 R, to obtain a new M1 R. A new M1 R is sent to the aftertreatment device 350. In the post-processing apparatus 350, the final M2 R is generated. In other embodiments, the results of multiple passes (diagonal, etc.) can be combined in various ways.

別の実施態様では、上記と同様に、一次元ウェーブレット変換は、エッジを一方向にのみ記述した分類マップを用いる修正装置340によって、一方向にのみ適用される。ただし、この別の実施態様では、M2を分類装置330にフィードバックし、分類装置330で、赤のデジタル画像Rの代わりにM2を用いて、斜め方向のエッジに関連するM画素を示す新しい分類マップを得る。 In another embodiment, similar to the above, the one-dimensional wavelet transform is applied only in one direction by a correction device 340 that uses a classification map that describes edges in only one direction. However, in this alternative embodiment, M2 is fed back to the R classification device 330, the classification unit 330, using the M2 R instead of the red digital image R, the new shows the M pixels associated with diagonal edge Get a classification map.

(合成装置)
図3に戻ると、システム300はさらに、合成装置360を含む。合成装置360は、M2と、解像度が高いほうの2つのデジタル画像を受け取り、これら3つのデジタル画像を結合してコンポジット(合成)・カラー画像(フレーム)を生成する。既に述べたように、光学式プリンタを用いて、3つのデジタル画像を結合し、コンポジット・カラー画像を生成することができる。また、一般に光学式プリンタを用いた場合は、3色すべてで解像度が低下するが、レーザ・フィルム・プリンタを用いると低下を回避できる。
(Synthesizer)
Returning to FIG. 3, the system 300 further includes a synthesizer 360. Synthesizer 360, M2 and R, receives two digital images of more high resolution, to generate these three digital images combined with a composite (synthetic) color image (frame). As already mentioned, an optical printer can be used to combine three digital images to produce a composite color image. In general, when an optical printer is used, the resolution decreases for all three colors. However, if a laser film printer is used, the decrease can be avoided.

(その他の実施態様)
デジタイズ装置310に戻ると、一実施態様では、I(x,y)は、画素位置(x,y)での実際の輝度値の対数を表す。別の実施態様では、(i)他の様々な変換(たとえば、負から正への変換の代わりに、またはそれに加えての、正から負への変換など)のうちの1つまたは複数を行うこと、(ii)変換をまったく行わないこと、(iii)デジタイズしなくてよいように、デジタイズされたデータを受け取ること、および/または(iv)デジタイズ可能であり、別のデジタイズされた成分データを抽出できる、合成されたデータを受け取ることができる。たとえば、(iv)には、フィルムの色分解からのコンポジット・デュープや、コンポジット・カラー画像が含まれる。高い解像度の分離色と低い解像度の分離色があらかじめ決定(または指定)されているか、デジタイズ装置310によって決定されている場合は、デジタイズ装置310は、2つの分離色をデジタイズするだけでよい。さらに、システム300の他のブロックはどれも、使用していない分離色のデジタル表現を受け取る必要がない。
(Other embodiments)
Returning to digitizing device 310, in one embodiment, I (x, y) represents the logarithm of the actual luminance value at pixel location (x, y). In another embodiment, (i) perform one or more of various other transformations (eg, a positive to negative conversion instead of or in addition to a negative to positive conversion, etc.). (Ii) no conversion at all, (iii) receiving digitized data so that it does not need to be digitized, and / or (iv) digitizing possible and another digitized component data Receives synthesized data that can be extracted. For example, (iv) includes composite duplex from film color separations and composite color images. If the high resolution separation color and the low resolution separation color are predetermined (or designated) or determined by the digitizing device 310, the digitizing device 310 need only digitize the two separated colors. Furthermore, none of the other blocks in the system 300 need to receive a digital representation of the separation colors that are not in use.

分類装置330に戻ると、実施態様は、たとえば、緑または青のデジタル画像を単純に選択したり、特定の基準(たとえば、解像度が最も高いデジタル画像など)を満たすデジタル画像を選択したりすることによって、基準デジタル画像を決定できる。解像度は、様々な方法で求めることができる。たとえば、変換の周波数情報を用いて、デジタル画像または分離色の高周波コンテンツを識別したり、空間領域の手法を用いて、高周波数または高解像度を示す、エッジの勾配やエッジの他の特徴を調べたりできる。解像度を求める手法を適用して、どの分離色やデジタル画像が最も解像度が低いかを決定することもできるが、映画撮影の用途では、一般に、最も解像度が低いのは赤の分離色であると見なしてよいことに留意されたいことに留意されたい。   Returning to the classifier 330, implementations may, for example, simply select a green or blue digital image, or select a digital image that meets certain criteria (eg, a digital image with the highest resolution, etc.). Can determine the reference digital image. The resolution can be obtained by various methods. For example, transform frequency information can be used to identify high-frequency content in digital images or separated colors, or spatial domain techniques can be used to examine edge gradients and other features of edges that indicate high frequency or high resolution. You can. You can apply a resolution-determining technique to determine which separation color or digital image has the lowest resolution, but for cinematography applications, it is generally the red resolution that has the lowest resolution. Note that it may be considered.

さらに、所与の画像(フレーム)に対して基準デジタル画像を固定する必要はない。たとえば、当該のエッジまたは画素に応じて基準デジタル画像を変えてもよい。さらに、解像度が低いほうの画像にある特定のエッジに、他の複数のデジタル画像において一致するエッジが含まれることが確定している場合は、どのデジタル画像(またはどのデジタル画像の組み合わせ)がより好ましい基準であるかを決定するために、分類装置330での複数のパスにおいて、基準デジタル画像を2つの候補に対して反復することができる。一実施態様では、一組の接続されたエッジ画素について、常に同じ基準デジタル画像を使用する。この基準デジタル画像は、エッジ画素群ごとに選択された基準デジタル画像、すなわち、そのエッジ画素群の大多数によって選択された基準デジタル画像に基づいて決定できる。   Furthermore, it is not necessary to fix the reference digital image for a given image (frame). For example, the reference digital image may be changed according to the edge or pixel. In addition, if it is determined that a particular edge in the lower resolution image contains matching edges in other digital images, which digital image (or which combination of digital images) is more To determine if it is a preferred reference, the reference digital image can be repeated for two candidates in multiple passes at the classifier 330. In one embodiment, the same reference digital image is always used for a set of connected edge pixels. The reference digital image can be determined based on a reference digital image selected for each edge pixel group, that is, a reference digital image selected by the majority of the edge pixel groups.

1つの画像の中で複数の基準デジタル画像を使用できるこれらの例において、分類装置320はさらに、解像度が低いほうの画像の選択された部分を修正するために用いる情報を、複数の基準デジタル画像のうちのどの1つまたは複数が提供すべきであるかを指定できる。基準デジタル画像の指定と、所与の基準デジタル画像が適用される選択部分の識別とは、既述のように分類マップで提供することも、別のもので提供することも可能である。   In these examples where multiple reference digital images can be used in an image, the classifier 320 further uses the information used to modify the selected portion of the lower resolution image as multiple reference digital images. It can be specified which one or more of these should be provided. The designation of the reference digital image and the identification of the selected portion to which the given reference digital image is applied can be provided in the classification map as described above or provided separately.

他の実施態様では、フレームの異なる複数の部分または特徴に対して低解像度デジタル画像を決定する。そのような実施態様の1つでは、システム300を通して複数のパスを実行し、各パスでは、3つのデジタル画像のうちで最も解像度が低い特定のデジタル画像の特徴を処理する。   In other embodiments, low resolution digital images are determined for different portions or features of the frame. In one such implementation, multiple passes are performed through the system 300, each pass processing features of a particular digital image with the lowest resolution of the three digital images.

これまで述べてきた基準を含め、様々な基準を用いて、デジタル画像(分離色)の解像度を求めることができる。このような基準にはさらに、たとえば、ウェーブレット変換や他の変換から得られる情報も含めることができる。2つのデジタル画像の解像度が同等の場合、この2つから、特定のエッジに対する基準デジタル画像を決定するには、たとえば、そのエッジ範囲の末尾の平均輝度値が低いほうのデジタル画像を選択する。解像度が最も高いデジタル画像でなくても、基準デジタル画像として選択することができる。たとえば、デジタル画像が他の何らかの特性を有していて、そのために、ある特定の用途でそのデジタル画像が基準デジタル画像として好適である場合がある。   The resolution of a digital image (separated color) can be obtained using various criteria, including the criteria described so far. Such criteria can further include, for example, information obtained from wavelet transforms and other transforms. When the resolutions of the two digital images are equivalent, in order to determine a reference digital image for a specific edge from the two, for example, a digital image having a lower average luminance value at the end of the edge range is selected. Even if it is not a digital image with the highest resolution, it can be selected as a reference digital image. For example, a digital image may have some other characteristic that makes it suitable as a reference digital image in certain applications.

既に述べたように、分類装置330は、エッジに加えて(あるいはエッジの代わりに)別の特徴を用いて、どの画素を修正するかを決定できる。そのような特徴として、たとえば、輝度値の特徴(たとえば、特定のしきい値を超える輝度値)、物体の形状、ウェーブレット係数値、以前に他の何らかの画像処理アルゴリズムによって位置がずれていると識別された領域、および近傍フレーム内の対応する領域に修正済みの画素があったことを示す、近傍フレームからの情報(すなわち、時間ベースの特徴)などがある。時間ベースの特徴は、時間的に当該フレームに先行するか、その後に続くか、その両方かの、1つまたは複数のフレームからの情報を用いることができる。そのような実施態様では、1つのフレームにおける、エッジおよび他の特徴を含むほとんどの部分が、フレーム間で一定のまま残るという事実を利用できる。   As already mentioned, the classifier 330 can use other features in addition to (or instead of) the edges to determine which pixels to modify. Such features include, for example, luminance value features (eg, luminance values above a certain threshold), object shape, wavelet coefficient values, previously identified as misaligned by some other image processing algorithm Information from the neighboring frame (ie, a time-based feature), etc., indicating that there has been a corrected pixel in the corresponding region and the corresponding region in the neighboring frame. Time-based features can use information from one or more frames that precede or follow the frame in time. In such an implementation, the fact that most of the part of a frame, including edges and other features, remains constant from frame to frame can be exploited.

分類装置330の代替実施態様は、既述のCannyフィルタに加えて(またはその代わりに)様々なエッジ検出方法のうちの1つまたは複数を用いて処理400を実行できる。たとえば、処理400は、高輝度画素と低輝度画素の間の境界でトランジション画素を識別することによって一組のエッジを取得できる。たとえば、ある画素の輝度値がしきい値より高ければその画素を高輝度と指定し、そうでなければ低輝度と指定することによって、高輝度画素と低輝度画素を差別化できる。そのようなしきい値の比較を、R、G、およびBの画像について行うことができる。   Alternative implementations of the classifier 330 may perform the process 400 using one or more of various edge detection methods in addition to (or instead of) the aforementioned Canny filter. For example, the process 400 can obtain a set of edges by identifying transition pixels at the boundary between high and low brightness pixels. For example, if the luminance value of a certain pixel is higher than the threshold value, the pixel is designated as high luminance, and if not, the low luminance pixel can be differentiated by designating the pixel as low luminance. Such a threshold comparison can be made for R, G, and B images.

分類装置330または他の装置で実行される様々な機能を、すべての実施態様で実行する必要はない。たとえば、エッジ・マップ内のM画像またはPM画像の間で連続性を実現することは必要ではなく、スプリアスのM画素またはPM画素をエッジ・マップから除去することは必要ではない。さらに、分類装置330で実行される様々な機能の中間段階では、画素をMラベルまたはNMラベルのみに制限することができる(すなわち、どの画素にもPMラベルを割り当てる必要がない)。   Various functions performed by the classification device 330 or other devices need not be performed in all implementations. For example, it is not necessary to achieve continuity between M or PM images in the edge map, and it is not necessary to remove spurious M or PM pixels from the edge map. Further, in the intermediate stages of the various functions performed by the classifier 330, the pixels can be limited to M labels or NM labels only (ie, no PM label need be assigned to every pixel).

分類装置330で実行される様々な機能はさらに、実施態様によっては複数回実行することもできる。たとえば、連続性および/または除去のステップは、分類装置330が実行する処理の間の、異なる様々な段階で複数回適用できる。一代替実施態様では、連続性および/または除去のステップを適用できるのは、エッジの最初の組(またはエッジ・マップ)が生成された後であって、非基準デジタル画像のエッジと基準デジタル画像のエッジとが一致するかどうか(すなわち、それらを修正しなければならないかどうか)を決定するためにそれらのエッジに様々な基準のテストを適用する前である。   Various functions performed by the classifier 330 can also be performed multiple times in some implementations. For example, the continuity and / or removal steps can be applied multiple times at various different stages during the processing performed by the classifier 330. In an alternative embodiment, the continuity and / or removal steps can be applied after the first set of edges (or edge map) has been generated and the edges of the non-reference digital image and the reference digital image. Before applying the various criteria tests to the edges to determine if they match (ie, if they must be modified).

処理400の操作420および430で、輝度値の変化の勾配を記述的基準として用いることができる。勾配情報は、他の状況や他の目的にも用いることができる。たとえば、(勾配情報を比較して)エッジ範囲を決定する場合やエッジが一致するかどうかを判別する場合などに用いることができる。   In operations 420 and 430 of process 400, the slope of the change in luminance value can be used as a descriptive criterion. The gradient information can also be used for other situations and other purposes. For example, it can be used when determining an edge range (by comparing gradient information) or when determining whether edges match.

修正のステップにおいて特定のM画素の処理方法を他のM画素の場合と異なるものにするかどうかを決定する場合にも、様々な基準を用いることができる。特定のエッジまたはエッジ画素の処理方法を異なるものにすると決定した場合は、その情報も、分類マップその他に提供できる。たとえば、分類装置は、修正操作時に用いる変倍係数を、エッジ画素とこれに関連付けられた範囲の特性や、基準デジタル画像において対応するエッジ画素とこれに関連付けられた範囲の特性に基づいて異なるように決定できる。   Various criteria can also be used when determining whether to modify a particular M pixel processing method differently than other M pixels in the correction step. If it is determined that the processing method for a particular edge or edge pixel is different, that information can also be provided to the classification map and others. For example, the classification device may change the scaling factor used in the correction operation based on the characteristics of the edge pixel and the range associated with the edge pixel and the characteristic of the edge pixel corresponding to the reference digital image and the range associated therewith. Can be determined.

修正装置340に戻ると、時間領域解析、周波数領域解析、および/またはウェーブレット領域解析を用いて、画像の解像度コンテンツを修正できる。上記の実施態様は、ウェーブレット変換を用い、時間領域でNM画素が修正されないようにすることによって解像度の修正の範囲を限定できる。他の変換、特に、周波数情報または解像度情報が空間情報または時間情報と相関される変換(たとえば、短期フーリエ変換)も用いることができる。さらに、所与の実施態様において、別の種類の変換を用いることもできる。さらに、既に分類の文脈において述べた時間ベースの方法(たとえば、フレームごとの解析など)も、画像(フレーム)を修正するために用いることができる。そのようなフレームごとの解析には、たとえば、既に説明した手法の多くが含まれる。   Returning to the correction device 340, the resolution content of the image can be corrected using time domain analysis, frequency domain analysis, and / or wavelet domain analysis. In the above embodiment, the range of resolution correction can be limited by using wavelet transform and preventing NM pixels from being corrected in the time domain. Other transforms, particularly transforms in which frequency information or resolution information is correlated with spatial information or temporal information (eg, short-term Fourier transform) can also be used. Furthermore, other types of transformations may be used in a given implementation. In addition, time-based methods (eg, frame-by-frame analysis) already described in the context of classification can also be used to modify an image (frame). Such analysis for each frame includes, for example, many of the methods already described.

ウェーブレット(または他の)変換を用いると、様々な方法(たとえば、既述のようなコピーする方法や、変倍などの機能を実行する方法など)で係数を結合できる。さらに、サブバンドの他の因子に基づいて係数を修正することもできる。加えて、係数の拡散効果が与えられる場合に、一実施態様では、特定のM画素とは関連付けられていない(または相関されない)が、拡散効果によってその特定のM画素に影響を及ぼすことが見込まれる係数を意図的に変更する。実施態様では、デジタル画像の全体に対して変換を実行する代わりに、デジタル画像の一部に対して変換を実行できる。   Using wavelet (or other) transforms, the coefficients can be combined in a variety of ways (e.g., copying as described above, or performing functions such as scaling). In addition, the coefficients can be modified based on other factors in the subband. In addition, when given a coefficient diffusion effect, in one embodiment, it is not associated (or correlated) with a particular M pixel, but is expected to affect that particular M pixel by the diffusion effect. Deliberately change the coefficient. In an embodiment, instead of performing the transformation on the entire digital image, the transformation can be performed on a portion of the digital image.

修正装置340の一実施態様で用いられるウェーブレット変換は、サブサンプリングを用いるデジタル・ウェーブレット変換である。ウェーブレット変換の他の実施態様、または他の変換も用いることができる。   The wavelet transform used in one embodiment of the correction device 340 is a digital wavelet transform using subsampling. Other implementations of wavelet transforms, or other transforms can also be used.

後処理装置350に戻ると、得られた解像度を検証または改善するために、他の様々な操作を実行できる。たとえば、後処理装置350は、NM画素の修正を可能にすること、および/またはM画素が有利なように修正されているかどうかを確認することができる。これとは対称的に、実施態様では、後処理の実行がまったく不要であることも明確にされなければならない。   Returning to the post-processor 350, various other operations can be performed to verify or improve the resulting resolution. For example, the post-processing device 350 can allow modification of the NM pixel and / or check whether the M pixel has been modified in an advantageous manner. In contrast, it should also be clarified that in the embodiment no post-processing needs to be performed.

実施態様では、赤のデジタル画像のあらゆるエッジを処理することは必要ではない。たとえば、一実施態様では、赤のデジタル画像において、解像度が指定のしきい値を下回るエッジ、または解像度が、基準デジタル画像において対応するエッジより、指定のしきい値だけ低いエッジだけを修正しようとする。   In an embodiment, it is not necessary to process every edge of the red digital image. For example, in one embodiment, in a red digital image, only those edges whose resolution is below a specified threshold or whose resolution is lower than the corresponding edge in the reference digital image by a specified threshold will be corrected. To do.

本明細書で説明した実施態様および手法は、解像度差がある複数の分離色から発生する歪みを低減する必要がある様々な用途に適用できる。例として、スペクトル分離と非スペクトル分離がある。スペクトル分離は、たとえば、(1)たとえば、様々な色周波数を取り込むカラー・フィルム用途、(2)たとえば、無線周波数および/または光周波数を取り込む天文学用途、(3)たとえば、様々な磁気周波数(MRI)、X線周波数、および音(超音波)周波数を取り込む医療用途などで用いられる。これらの例が示すように、スペクトル分離は、たとえば電磁波や音波などを含む、様々な周波数ソースから取り込むことができる。非スペクトル分離は、たとえば、圧力、温度、エネルギー、電力などの変動から得ることができる。   The embodiments and techniques described herein can be applied to various applications where it is necessary to reduce the distortion generated from a plurality of separated colors with resolution differences. Examples are spectral separation and non-spectral separation. Spectral separation can be performed, for example, (1) for example, for color film applications that capture various color frequencies, (2) for astronomical applications, for example, that capture radio and / or optical frequencies, (3) for example, various magnetic frequencies (MRI) ), X-ray frequency, and sound (ultrasound) frequency are used in medical applications. As these examples illustrate, spectral separation can be taken from a variety of frequency sources including, for example, electromagnetic waves, sound waves, and the like. Non-spectral separation can be obtained from variations in pressure, temperature, energy, power, etc., for example.

本明細書で説明した実施態様および手法はさらに、コンポジット・カラー画像、すなわち、複数の色成分を有する画像にも適用できる。たとえば、ビデオ画像は、1つの「コンポジット」画像にまとめられた赤、緑、および青の成分を有することができる。これらの成分を分離して分離色を形成することができ、本明細書で説明した実施態様および手法の1つまたは複数をそれらの分離色に適用することができる。   The embodiments and techniques described herein can also be applied to composite color images, ie, images having multiple color components. For example, a video image may have red, green, and blue components combined into one “composite” image. These components can be separated to form a separation color, and one or more of the embodiments and techniques described herein can be applied to those separation colors.

実施態様および機能を、処理、デバイス、またはデバイスの組み合わせに実装できる。たとえば、そのようなデバイスとして、コンピュータや、たとえばプロセッサ、プログラマブル・ロジック・デバイス、特定用途集積回路、コントローラ・チップなどを用いて命令を処理できる他の処理デバイスが挙げられる。命令は、たとえば、ソフトウェアまたはファームウェアの形式であることができる。命令は、コンピュータ可読媒体(たとえば、ディスク、ランダムアクセス・メモリ、読み出し専用メモリなど)に格納できる。   Implementations and functions can be implemented in a process, device, or combination of devices. For example, such devices include computers and other processing devices that can process instructions using, for example, a processor, programmable logic device, application specific integrated circuit, controller chip, and the like. The instructions can be, for example, in the form of software or firmware. The instructions can be stored on a computer readable medium (eg, disk, random access memory, read only memory, etc.).

図18を参照すると、開示された様々な機能を実装するシステム1800は、コンピュータ可読媒体1820に結合された処理デバイス1810を含む。コンピュータ可読媒体1820は、処理デバイス1810で処理される命令1830を格納する。その処理は、開示された様々な機能を実施する。   With reference to FIG. 18, a system 1800 for implementing various disclosed functions includes a processing device 1810 coupled to a computer-readable medium 1820. The computer readable medium 1820 stores instructions 1830 that are processed by the processing device 1810. The process performs various disclosed functions.

たとえば、分離色(デジタル画像)にアクセスすることによってそれらを選択できる。分離色(デジタル画像)の選択は、たとえば、その分離色(デジタル画像)のファイルまたは表現(たとえば、ディスプレイなど)を選択することによって行うことができる。他の表現も、たとえば様々なユーザ・インターフェースにより、提供できる。   For example, they can be selected by accessing separated colors (digital images). The selection of the separation color (digital image) can be performed, for example, by selecting a file or a representation (for example, a display) of the separation color (digital image). Other representations can be provided, for example, by various user interfaces.

上述のデジタル画像群は、同じ物体を全体的にカバーする情報を含む。たとえば、赤、青、および緑の各デジタル画像は、フレーム全体をカバーする情報(赤の情報、青の情報、または緑の情報)を含む。そのような情報(赤、青、および緑)は、同じ物体に関連しているので、「相補」情報と呼ぶことができる。他の実施態様では、様々な物体(たとえば、撮影中のシーンの領域、身体の一部、空の一部など)をカバーするデジタル画像を用いることができる。   The digital image group described above includes information covering the same object as a whole. For example, each red, blue, and green digital image contains information (red information, blue information, or green information) that covers the entire frame. Such information (red, blue, and green) can be referred to as “complementary” information because it relates to the same object. In other implementations, digital images covering various objects (eg, areas of the scene being photographed, body parts, sky parts, etc.) can be used.

他の実施態様では、各デジタル画像の一部だけが所望の物体をカバーするデジタル画像群を用いることができる。たとえば、赤の分離色を前景情報の取り込みにのみ用い、基準の分離色を前景情報と背景情報の両方の取り込みに用いることができる。   In other implementations, a group of digital images in which only a portion of each digital image covers the desired object can be used. For example, the red separation color can be used only for capturing foreground information, and the reference separation color can be used for capturing both foreground information and background information.

実施態様はさらに、複数のデジタル画像に、いろいろな角度や距離で所望の物体を取り込むことができる。そのような状況は、カメラをいろいろな距離や角度で用いて異なる色成分を撮影したり、いろいろな望遠レンズを用いて、空の同じ全体部分を写真撮影したりする場合にありうる。   Embodiments can also capture desired objects at various angles and distances into multiple digital images. Such a situation can be the case when using the camera at different distances and angles to shoot different color components, or using different telephoto lenses to shoot the same whole part of the sky.

様々な実施態様では、たとえば、1つまたは複数の操作、機能、または特徴を自動的に実行する。「自動的」とは、実質的に人間の介入なしで、すなわち、実質的に非対話型で実行されることを意味する。自動的な処理の例として、人間の操作者によって起動された後、それ自体で動作する処理がある。自動的な実施態様は、たとえば、電子技術、光技術、機械技術、その他の技術を用いることができる。   In various implementations, for example, one or more operations, functions, or features are performed automatically. “Automatic” means running substantially without human intervention, ie, substantially non-interactively. As an example of automatic processing, there is processing that operates by itself after being started by a human operator. For example, electronic technology, optical technology, mechanical technology, and other technologies can be used as the automatic embodiment.

機能ブロック、操作、および他の開示された特徴は、様々な順序および組み合わせで、組み合わせて実行することができ、また、明示的に開示されていない他の特徴によって強化したりできる。画像または他の物体の一部への参照は、その画像または他の物体の全体を含むことができる。   The functional blocks, operations, and other disclosed features can be performed in combination in various orders and combinations and can be enhanced by other features not explicitly disclosed. A reference to a part of an image or other object can include the entire image or other object.

以上、多くの実施態様について説明してきた。しかしながら、本発明の特許請求項の趣旨および範囲から逸脱することなく様々な修正を行うことが可能であることを理解されよう。したがって、他の実施態様も、添付の特許請求項の範囲に含まれる。   A number of embodiments have been described above. However, it will be understood that various modifications may be made without departing from the spirit and scope of the claims of the present invention. Accordingly, other embodiments are within the scope of the appended claims.

分離色の解像度差によって赤色フリンジングが現れている画像である。It is an image in which red fringing appears due to the difference in resolution of the separated colors. 赤色フリンジングを示す、図1Aの一部のカラー画像である。1B is a partial color image of FIG. 1A showing red fringing. 解像度差を低減する処理が施された図1Bのカラー画像である。It is the color image of FIG. 1B to which the process which reduces a resolution difference was performed. 解像度差を低減するシステムのブロック図である。It is a block diagram of the system which reduces a resolution difference. 画素を修正するかどうかを決定する処理のフロー・チャートである。It is a flowchart of the process which determines whether a pixel is corrected. 単純な低解像度デジタル画像のエッジ・マップである。An edge map of a simple low resolution digital image. 単純な基準デジタル画像のエッジ・マップである。It is an edge map of a simple reference digital image. 図5のエッジのエッジ範囲を示す図である。It is a figure which shows the edge range of the edge of FIG. 図6のエッジのエッジ範囲を示す図である。It is a figure which shows the edge range of the edge of FIG. 図6のエッジ・マップに一致するエッジがある、図5のエッジ・マップのエッジを示す図である。FIG. 7 illustrates the edges of the edge map of FIG. 5 with edges that match the edge map of FIG.

連続性操作を適用した後の、図9のエッジ・マップを示す図である。FIG. 10 shows the edge map of FIG. 9 after applying a continuity operation. 「修正」画素を取り除く処理のフロー・チャートである。It is a flowchart of the process which removes a "correction" pixel. 図10のエッジ・マップのエッジ範囲を示す図である。It is a figure which shows the edge range of the edge map of FIG. 「修正」画素を示す分類マップである。It is a classification map which shows a "correction" pixel. 低解像度デジタル画像の選択された部分を修正する処理のフロー・チャートである。6 is a flow chart of a process for modifying a selected portion of a low resolution digital image. デジタル画像の行におけるウェーブレット係数と画素の相関を示す表である。It is a table | surface which shows the correlation of the wavelet coefficient and pixel in the line of a digital image. フェザリング操作で用いられる特定の情報を提供する、画像の列の一部のマップである。Fig. 2 is a map of a portion of a sequence of images that provides specific information used in a feathering operation. 平滑化できる画素を示す分類マップである。It is a classification map which shows the pixel which can be smoothed. 開示された機能を実装するシステムのブロック図である。FIG. 6 is a block diagram of a system that implements the disclosed functions.

Claims (28)

解像度差を低減する方法であって;
シーンについての第1の情報を含む第1の画像を選択すること;
前記第1の画像の一部と、第2の画像の一部との間に解像度差があって、前記シーンについての第2の情報を含む前記第2の画像を選択すること;
前記解像度差を低減するために、前記第1の画像の前記一部の中にある、前記第1の画像の特性を修正する箇所を、前記第2の画像の前記一部から少なくとも部分的に得られる情報に基づいて決定すること;及び
前記第1の画像の前記一部の中の前記決定された箇所における前記特性を修正することによって前記解像度差を低減することを含む方法。
A method for reducing the resolution difference;
Selecting a first image containing first information about the scene;
Selecting the second image having a resolution difference between a portion of the first image and a portion of the second image and including second information about the scene;
In order to reduce the resolution difference, a portion of the part of the first image that modifies characteristics of the first image is at least partially from the part of the second image. Determining based on the obtained information; and reducing the resolution difference by modifying the characteristic at the determined location in the portion of the first image.
前記箇所を決定することが、修正する1つまたは複数のエッジを選択することを含む、請求項1記載の方法。   The method of claim 1, wherein determining the location includes selecting one or more edges to modify. 修正する1つまたは複数のエッジを選択することが;
前記第1の画像にあるエッジの1つまたは複数の特徴を、前記第2の画像にあるエッジの1つまたは複数の特徴と比較すること;及び
前記比較の結果に基づいて、前記エッジを、修正するエッジとして選択することを含む、請求項2記載の方法。
Selecting one or more edges to modify;
Comparing one or more features of the edge in the first image with one or more features of the edge in the second image; and based on the result of the comparison, the edge 3. The method of claim 2, comprising selecting as an edge to correct.
修正する1つまたは複数のエッジを選択することが、修正する複数のエッジを選択することを含む方法であって;
前記選択されたエッジのうちの2つを、前記選択された2つのエッジの特性に基づいて接続すること;及び
前記選択され、接続されたエッジのエッジ範囲を決定することをさらに含む、請求項2記載の方法。
Selecting the one or more edges to modify includes selecting the plurality of edges to modify;
The method further comprises connecting two of the selected edges based on characteristics of the selected two edges; and determining an edge range of the selected and connected edges. 2. The method according to 2.
前記第1の画像の中の前記箇所の特性を修正することが;
前記第1の画像の前記一部に第1のウェーブレット変換を適用して結果を生成すること;
前記第2の画像の前記一部に第2のウェーブレット変換を適用すること;及び
前記第1のウェーブレット変換を適用することによって生成された1つまたは複数の係数を、前記第2のウェーブレット変換を適用することによって生成された1つまたは複数の係数に基づいて修正して修正結果を生成することとを含む、請求項1記載の方法。
Modifying the characteristics of the location in the first image;
Applying a first wavelet transform to the portion of the first image to generate a result;
Applying a second wavelet transform to the portion of the second image; and applying one or more coefficients generated by applying the first wavelet transform to the second wavelet transform. The method of claim 1, comprising modifying based on the one or more coefficients generated by applying to produce a modified result.
前記第1の画像の中で、前記特性を修正しない非修正個所を決定することをさらに含む、請求項5記載の方法。   The method of claim 5, further comprising determining an uncorrected portion in the first image that does not modify the characteristic. 前記第1のウェーブレット変換の前記修正結果に逆ウェーブレット変換を適用してデジタル画像を生成すること;及び
前記デジタル画像の中の前記非修正箇所において前記特性が修正されていないかどうかを判別することをさらに含む、請求項6記載の方法。
Applying a reverse wavelet transform to the modification result of the first wavelet transform to generate a digital image; and determining whether the characteristic has not been modified at the uncorrected portion of the digital image. The method of claim 6 further comprising:
前記デジタル画像の中の前記非修正箇所において前記特性が修正されている場合に、前記非修正箇所の前記特性を元の値に戻すことをさらに含む、請求項7記載の方法。   The method of claim 7, further comprising returning the characteristic of the uncorrected location to an original value if the property is modified at the uncorrected location in the digital image. 前記修正結果に逆ウェーブレット変換を適用すること;及び
前記第1の画像の前記一部と前記第2の画像の前記一部との間の前記解像度差が低減されているかどうかを判別することをさらに含む、請求項5記載の方法。
Applying an inverse wavelet transform to the correction result; and determining whether the resolution difference between the portion of the first image and the portion of the second image is reduced. The method of claim 5 further comprising:
前記修正結果に逆ウェーブレット変換を適用して別の結果を生成すること;及び
前記決定された、修正する箇所を含む、前記別の結果の一部にフェザリング手法を適用することをさらに含む、請求項5記載の方法。
Applying an inverse wavelet transform to the modified result to generate another result; and further applying a feathering technique to a portion of the another result, including the determined portion to be modified. The method of claim 5.
前記フェザリング手法を適用することが、前記別の結果の前記一部の中で輝度値を線形補間することを含む、請求項10記載の方法。   The method of claim 10, wherein applying the feathering technique comprises linearly interpolating luminance values within the portion of the another result. 画像の特性を修正する方法であって;
シーンについての第1の情報を含む第1の画像にアクセスすること;
前記第1の画像の一部と、第2の画像の一部との間に解像度差があって、前記シーンについての第2の情報を含む前記第2の画像にアクセスすること;
前記解像度差を低減するために、前記第1の画像の前記一部と前記第2の画像の前記一部との、時間領域での比較に基づいて、前記第1の画像の特性を修正する箇所を決定すること;及び
前記第1の画像の前記一部にウェーブレット変換を適用することによって生成された情報を、前記第2の画像の前記一部にウェーブレット変換を適用することによって生成された情報に基づいて修正することによって、前記箇所の前記特性を修正することを含む方法。
A method for modifying the characteristics of an image;
Accessing a first image containing first information about the scene;
Accessing the second image having a resolution difference between a portion of the first image and a portion of the second image and including second information about the scene;
In order to reduce the resolution difference, a characteristic of the first image is modified based on a time domain comparison of the portion of the first image and the portion of the second image. Determining the location; and information generated by applying wavelet transform to the portion of the first image, and generating information by applying wavelet transform to the portion of the second image. Modifying the property of the location by modifying based on information.
マシンによって実行されたときに、結果として少なくとも;
シーンについての第1の情報を含む第1の画像を選択すること;
前記第1の画像の一部と、第2の画像の一部との間に解像度差があって、前記シーンについての第2の情報を含む前記第2の画像を選択すること;
前記解像度差を低減するために、前記第1の画像の前記一部の中にある、前記第1の画像の特性を修正する箇所を、前記第2の画像の前記一部から少なくとも部分的に得られる情報に基づいて決定すること;及び
前記箇所の前記特性を修正することによって前記解像度差を低減することを行う命令を格納するコンピュータ可読媒体を含む装置。
At least as a result when executed by the machine;
Selecting a first image containing first information about the scene;
Selecting the second image having a resolution difference between a portion of the first image and a portion of the second image and including second information about the scene;
In order to reduce the resolution difference, a portion of the part of the first image that modifies characteristics of the first image is at least partially from the part of the second image. An apparatus comprising: a computer readable medium storing instructions for determining based on the obtained information; and reducing the resolution difference by modifying the characteristic of the location.
解像度差を低減する方法であって;
シーンについての第1の情報を含む第1の画像を選択すること;
前記第1の画像の一部と、第2の画像の一部との間に解像度差があって、前記シーンについての第2の情報を含む前記第2の画像を選択すること;
前記第1の画像の一部の中にある、前記第1の画像の特性を修正する箇所を決定すること;及び
前記第2の画像からの情報を用いて、前記第1の画像の中の前記箇所の前記特性を修正することによって前記解像度差を低減することを含む方法。
A method for reducing the resolution difference;
Selecting a first image containing first information about the scene;
Selecting the second image having a resolution difference between a portion of the first image and a portion of the second image and including second information about the scene;
Determining a location in a portion of the first image to modify a characteristic of the first image; and using information from the second image, Reducing the resolution difference by modifying the characteristic of the location.
前記第1の画像の中の前記箇所の前記特性を修正することが、前記第2の画像の前記一部に第2の変換を適用することによって生成された情報を用いて、前記第1の画像の前記一部に第1の変換を適用することによって生成された情報を修正することを含む、請求項14記載の方法。   Modifying the characteristic of the location in the first image uses the information generated by applying a second transformation to the portion of the second image, The method of claim 14, comprising modifying information generated by applying a first transform to the portion of the image. 前記第1の変換が第1のウェーブレット変換を含み;
前記第2の変換が第2のウェーブレット変換を含み;さらに
前記第1の変換を適用することによって生成された情報を修正することが、前記第2のウェーブレット変換を適用することによって生成された結果における特定の箇所にある係数を、前記第1のウェーブレット変換を適用することによって生成された結果における前記特定の箇所にコピーすることを含む、請求項15記載の方法。
The first transform includes a first wavelet transform;
The second transform includes a second wavelet transform; and further modifying the information generated by applying the first transform results from applying the second wavelet transform 16. The method of claim 15, comprising copying a coefficient at a specific location in to the specific location in the result generated by applying the first wavelet transform.
前記特定の箇所を、前記特性を修正する前記箇所に関連付ける、請求項16記載の方法。   The method of claim 16, wherein the particular location is associated with the location that modifies the property. 前記第1の変換が第1のウェーブレット変換を含み;
前記第2の変換が第2のウェーブレット変換を含み;さらに
前記第1の変換を適用することによって生成された情報を修正することが、前記第2のウェーブレット変換を適用することによって生成された非ベースバンドの各サブバンドにある係数を、前記第1のウェーブレット変換を適用することによって生成された結果において対応する箇所に変倍してコピーすることを含む、請求項15記載の方法。
The first transform includes a first wavelet transform;
The second transform includes a second wavelet transform; and further modifying the information generated by applying the first transform is generated by applying the second wavelet transform. 16. The method of claim 15, comprising scaling and copying the coefficients in each subband of the baseband to the corresponding locations in the result generated by applying the first wavelet transform.
前記箇所の前記特性を修正することが;
第1の方向にのみ変換を実行すること;及び
修正された第1の画像を生成することとを含む、請求項14記載の方法。
Modifying the property of the location;
15. The method of claim 14, comprising performing the transformation only in the first direction; and generating a modified first image.
前記修正された第1の画像に対して、前記第1の方向と直交する第2の方向にのみ変換を実行すること;及び
前記修正された第1の画像の修正バージョンを生成することをさらに含む、請求項19記載の方法。
Performing a transformation on the modified first image only in a second direction orthogonal to the first direction; and generating a modified version of the modified first image. 20. The method of claim 19, comprising.
マシンによって実行されたときに、結果として少なくとも;
シーンについての第1の情報を含む第1の画像を選択すること;
前記第1の画像の一部と、第2の画像の一部との間に解像度差があって、前記シーンについての第2の情報を含む前記第2の画像を選択すること;
前記第1の画像の一部の中にある、前記第1の画像の特性を修正する箇所を決定すること;及び
前記第2の画像からの情報を用いて、前記第1の画像の中の前記箇所の前記特性を修正することによって前記解像度差を低減することを行う命令を格納するコンピュータ可読媒体を含む装置。
At least as a result when executed by the machine;
Selecting a first image containing first information about the scene;
Selecting the second image having a resolution difference between a portion of the first image and a portion of the second image and including second information about the scene;
Determining a location in a portion of the first image to modify a characteristic of the first image; and using information from the second image, An apparatus comprising a computer readable medium storing instructions for reducing the resolution difference by modifying the characteristic of the location.
解像度を高められた画像を格納している装置であって、前記解像度を高められた画像が;
第1の成分画像と;さらに
第2の成分画像とを含み、前記第2の成分画像が、前記第1の成分画像と前記第2の成分画像との間の解像度差を低減するために修正された特性を有する一部を含み、前記一部の箇所が、前記第1の成分画像から少なくとも部分的に得られる位置決定情報に基づいて決定される装置。
A device storing an image with increased resolution, wherein the image with increased resolution;
A second component image, wherein the second component image is modified to reduce a resolution difference between the first component image and the second component image. The apparatus includes a part having the specified characteristics, and wherein the part is determined based on position determination information obtained at least partially from the first component image.
前記解像度を高められた画像が、第1の色に関する第1の色情報と、第2の色に関する第2の色情報とを含むカラー・コンポジット画像を含み;
前記第1の成分画像が、前記カラー・コンポジット画像の前記第1の色に関する前記第1の色情報を含み;さらに
前記第2の成分画像が、前記カラー・コンポジット画像の前記第2の色に関する前記第2の色情報を含む、請求項22記載の装置。
The resolution enhanced image includes a color composite image including first color information relating to a first color and second color information relating to a second color;
The first component image includes the first color information relating to the first color of the color composite image; and the second component image relates to the second color of the color composite image. 23. The apparatus of claim 22, comprising the second color information.
前記解像度を高められた画像が一組の分離色を含み、第1の分離色と第2の分離色とを含む前記一組の各分離色の表示を合成することによって、前記解像度を高められた画像を表示でき;
前記第1の成分画像が前記第1の分離色を含み;さらに
前記第2の成分画像が前記第2の分離色を含む、請求項22記載の装置。
The resolution can be increased by combining the display of each set of separated colors including a set of separated colors and the set of separated colors including a first separated color and a second separated color. Displayed images;
23. The apparatus of claim 22, wherein the first component image includes the first separation color; and the second component image includes the second separation color.
前記一部の前記箇所を、前記第2の成分画像の前記一部と、前記第1の成分画像の対応する前記一部との、時間領域での比較に基づいて決定する、請求項22記載の装置。   23. The portion of the portion is determined based on a time domain comparison of the portion of the second component image and the corresponding portion of the first component image. Equipment. 前記第1の成分画像からの第1の成分の情報を用いて前記特性を修正する、請求項22記載の装置。   23. The apparatus of claim 22, wherein the characteristic is modified using information of a first component from the first component image. 前記第1の成分の情報を、前記第2の成分画像の前記一部に対応する、前記第1の成分画像の特定部分にウェーブレット変換を適用することによって生成し;さらに
前記第2の成分画像の前記一部にウェーブレット変換を適用することによって生成された第2の成分の情報を、前記第1の成分の情報を用いて修正することにより、前記特性を修正する、請求項26記載の装置。
Generating information of the first component by applying a wavelet transform to a specific portion of the first component image corresponding to the portion of the second component image; and further, the second component image 27. The apparatus of claim 26, wherein the characteristic is modified by modifying second component information generated by applying a wavelet transform to the portion of the first component using the first component information. .
解像度を高められた画像を格納している装置であって、前記解像度を高められた画像が;
第1の成分画像と;さらに
第2の成分画像とを含み、前記第2の成分画像が、前記第1の成分画像と前記第2の成分画像との間の解像度差を低減するために、前記第1の成分画像からの第1の成分の情報を用いて修正された特性を有する一部を含む装置。
A device storing an image with increased resolution, wherein the image with increased resolution;
A second component image, wherein the second component image reduces a resolution difference between the first component image and the second component image; An apparatus including a portion having characteristics modified using information of a first component from the first component image.
JP2005510034A 2002-12-20 2003-12-19 Reduction of resolution difference of separated colors Expired - Lifetime JP4709649B2 (en)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US43465002P 2002-12-20 2002-12-20
US60/434,650 2002-12-20
US10/657,243 2003-09-09
US10/657,138 US6956976B2 (en) 2002-01-04 2003-09-09 Reduction of differential resolution of separations
US10/657,243 US6947607B2 (en) 2002-01-04 2003-09-09 Reduction of differential resolution of separations
US10/657,138 2003-09-09
PCT/US2003/040803 WO2004059574A2 (en) 2002-01-04 2003-12-19 Reduction of differential resolution of separations

Publications (3)

Publication Number Publication Date
JP2006511900A true JP2006511900A (en) 2006-04-06
JP2006511900A5 JP2006511900A5 (en) 2007-02-08
JP4709649B2 JP4709649B2 (en) 2011-06-22

Family

ID=34381920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005510034A Expired - Lifetime JP4709649B2 (en) 2002-12-20 2003-12-19 Reduction of resolution difference of separated colors

Country Status (5)

Country Link
EP (1) EP1579388A4 (en)
JP (1) JP4709649B2 (en)
AU (1) AU2003297426B2 (en)
CA (1) CA2511060C (en)
MX (1) MXPA05006497A (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205042A (en) * 1991-06-06 1993-08-13 Eastman Kodak Co Method of synthesizing image
JPH06233144A (en) * 1993-01-29 1994-08-19 Fujitsu Ltd Color reader
JPH1155695A (en) * 1997-05-16 1999-02-26 Matsushita Electric Ind Co Ltd Method and device for measuring registration error and color aberration
JPH1169277A (en) * 1997-08-25 1999-03-09 Fuji Photo Film Co Ltd Image-processing method and device
JPH11161773A (en) * 1997-11-28 1999-06-18 Konica Corp Method for processing picture and device for inputting picture
JPH11261832A (en) * 1998-03-11 1999-09-24 Fuji Photo Film Co Ltd Image processing method and image processor
JP2001103358A (en) * 1999-09-30 2001-04-13 Mitsubishi Electric Corp Chromatic aberration correction device
JP2001333287A (en) * 2000-05-24 2001-11-30 Matsushita Electric Ind Co Ltd Color image recorder
JP2002223369A (en) * 2000-11-22 2002-08-09 Sharp Corp Image processing method, image processor and image forming device
JP2002300461A (en) * 2001-03-30 2002-10-11 Minolta Co Ltd Image restoring device, image restoring method and program thereof and recording medium
JP2002344724A (en) * 2001-05-17 2002-11-29 Fuji Photo Film Co Ltd Imaging device, image processing apparatus, image processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5781666A (en) * 1990-04-17 1998-07-14 Canon Kabushiki Kaisha Image processing method and apparatus suitable for both high-resolution and low-resolution image data
JP3670754B2 (en) * 1996-04-15 2005-07-13 オリンパス株式会社 Signal processing device
JPH10224815A (en) * 1997-02-12 1998-08-21 Nippon Hoso Kyokai <Nhk> Enhancer and color difference signal enhancer
US6477270B1 (en) * 1999-10-21 2002-11-05 Yecheng Wu Method for converting a high resolution image to true color using a low resolution color image

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205042A (en) * 1991-06-06 1993-08-13 Eastman Kodak Co Method of synthesizing image
JPH06233144A (en) * 1993-01-29 1994-08-19 Fujitsu Ltd Color reader
JPH1155695A (en) * 1997-05-16 1999-02-26 Matsushita Electric Ind Co Ltd Method and device for measuring registration error and color aberration
JPH1169277A (en) * 1997-08-25 1999-03-09 Fuji Photo Film Co Ltd Image-processing method and device
JPH11161773A (en) * 1997-11-28 1999-06-18 Konica Corp Method for processing picture and device for inputting picture
JPH11261832A (en) * 1998-03-11 1999-09-24 Fuji Photo Film Co Ltd Image processing method and image processor
JP2001103358A (en) * 1999-09-30 2001-04-13 Mitsubishi Electric Corp Chromatic aberration correction device
JP2001333287A (en) * 2000-05-24 2001-11-30 Matsushita Electric Ind Co Ltd Color image recorder
JP2002223369A (en) * 2000-11-22 2002-08-09 Sharp Corp Image processing method, image processor and image forming device
JP2002300461A (en) * 2001-03-30 2002-10-11 Minolta Co Ltd Image restoring device, image restoring method and program thereof and recording medium
JP2002344724A (en) * 2001-05-17 2002-11-29 Fuji Photo Film Co Ltd Imaging device, image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
MXPA05006497A (en) 2006-05-25
EP1579388A4 (en) 2017-08-23
AU2003297426A8 (en) 2004-07-22
AU2003297426A1 (en) 2004-07-22
CA2511060C (en) 2017-08-22
JP4709649B2 (en) 2011-06-22
AU2003297426A2 (en) 2004-07-22
AU2003297426B2 (en) 2010-11-11
CA2511060A1 (en) 2004-07-15
EP1579388A2 (en) 2005-09-28

Similar Documents

Publication Publication Date Title
US7218793B2 (en) Reducing differential resolution of separations
US9619897B2 (en) Correction of blotches in component images
WO2004059574A2 (en) Reduction of differential resolution of separations
US6956976B2 (en) Reduction of differential resolution of separations
JP4709649B2 (en) Reduction of resolution difference of separated colors

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090908

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091201

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100823

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110318

R150 Certificate of patent or registration of utility model

Ref document number: 4709649

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term