WO2011061807A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2011061807A1
WO2011061807A1 PCT/JP2009/006280 JP2009006280W WO2011061807A1 WO 2011061807 A1 WO2011061807 A1 WO 2011061807A1 JP 2009006280 W JP2009006280 W JP 2009006280W WO 2011061807 A1 WO2011061807 A1 WO 2011061807A1
Authority
WO
WIPO (PCT)
Prior art keywords
edge
frequency
noise
frame
unit
Prior art date
Application number
PCT/JP2009/006280
Other languages
English (en)
French (fr)
Inventor
山本晃司
Original Assignee
株式会社 東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝 filed Critical 株式会社 東芝
Priority to PCT/JP2009/006280 priority Critical patent/WO2011061807A1/ja
Publication of WO2011061807A1 publication Critical patent/WO2011061807A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • the present invention relates to an image processing apparatus.
  • Patent Document 1 proposes a technique for extracting an edge from a photograph (still image) and determining the blur based on the sharpness in order to eliminate a blurred frame.
  • JP 2003-262909 A JP 2003-262909 A
  • Video includes interlace (interlace scanning) and progressive (sequential scanning).
  • interlace interlace scanning
  • progressive sequential scanning
  • Patent Document 1 is intended for photography, and does not mention video. Therefore, when the technique of Patent Document 1 is applied to a frame of a video including noise, the noise becomes a sharp edge, and even if the original video frame is blurred, it is in focus. There is a problem of making an incorrect decision.
  • an object of the present invention is to provide an image processing apparatus that suppresses selection of a frame including interlace noise as a frame that is not blurred by mistake.
  • the present invention provides an extraction unit that extracts a region including an edge from a frame, and a classification unit that classifies the edge into at least a high-frequency edge or a low-frequency edge based on a frequency component of the region including the edge. And a detection unit for detecting from the frame a noise region including interlace noise caused by a shift between fields constituting the frame when the frame is converted from interlace to progressive, and the high-frequency edge, and The reclassification unit that excludes edges belonging to the noise region from the classification of the high-frequency edges, and the ratio of the high-frequency edges remaining after exclusion is lower than a threshold value, the frame is determined to be blurred.
  • An image processing apparatus comprising: a first determination unit.
  • the present invention it can be determined whether or not the frame is blurred, and it is possible to suppress selecting a frame including interlace noise as a frame that is not blurred by mistake.
  • FIG. 1 is a block diagram illustrating an image processing apparatus according to Embodiment 1.
  • FIG. (A) and (b) are diagrams for explaining basic processing of an image. The figure explaining the process of an extraction part and a classification
  • (A) is a graph of an edge with high sharpness
  • (b) is a graph of an edge with low sharpness.
  • the block diagram which shows a detection part. The figure which divides
  • FIG. 6 is a block diagram illustrating a detection unit according to a third embodiment. It relates to Example 4, (a) is a graph of an edge with a high sharpness, (b) is a graph of an edge with a low sharpness. (A) A figure explaining comb noise, (b) A figure explaining double edge.
  • Interlaced video consists of two fields per frame. A top field corresponding to an odd line of the frame and a bottom field corresponding to an even line. In interlace, scanning is performed in field units. Once all the odd lines or even lines are scanned, all the other lines are scanned together. Therefore, a time difference occurs between the odd lines and the even lines. For example, if the frame rate is 30 fps, a time difference of about 1/60 second is generated.
  • Interlace can be converted to progressive by IP conversion. However, since there is a time difference between the fields as described above, when the subject or the camera moves, a shift occurs between the adjacent lines in the vertical direction.
  • the IP conversion algorithm converts to a progressive video while correcting the shift.
  • interlace noise of comb noise centering on the contour as shown in the image 1001 in FIG. 10A or as shown in the image 1002 in FIG. 10B. Double edges may occur.
  • the interlace noise of comb noise occurs when the motion is too large and exceeds the allowable amount that can be corrected by the IP conversion algorithm, or when the user converts with an incorrect setting.
  • Double edge interlace noise occurs when IP conversion is performed by averaging the top field and the bottom field.
  • the image processing apparatus 100 detects interlace noise included in a video frame, and among edges determined to have high sharpness, those that include interlace noise have high sharpness. Reclassify to an edge other than an edge. Then, by performing the determination process using the distribution of the edges with high sharpness remaining after the reclassification and the other edges, it is possible to suppress, for example, erroneous selection of an image (frame) including interlace noise.
  • FIG. 1 is a block diagram illustrating an image processing apparatus 100 according to the present embodiment.
  • the image processing apparatus 100 includes an input unit 101, an extraction unit 102, a classification unit 103, a detection unit 104, a reclassification unit 105, a first determination unit 106, and an output unit 107.
  • the extraction unit 102 extracts edges from each frame of the video input from the input unit 101.
  • the classification unit 103 classifies the extracted edges. The extraction of the extraction unit 102 and the classification of the classification unit 103 will be described.
  • H. Tong, M. Li, H.-J. Zhang, and C. Zhang, ”Blur detection for digital images using wavelet transform,” in Proc. IEEE This will be described using “Wavelet transform” shown in Int. Conf. Multimedia Expo, Jun. 2004, pp. 17-20 (hereinafter referred to as "Tong et al.”).
  • the frequency analysis related to the image signal is not limited to Wavelet transform, and Fourier transform or the like may be used. 2, 3 and 4 are examples using Wavelet transform.
  • wavelet conversion is performed on a frame 201 as shown in FIG.
  • HL, HH, LH Wavelet coefficient
  • LL scaling coefficient
  • Wavelet transform is repeatedly performed on the scaling coefficient (LL).
  • edge strengths in a plurality of levels of frequency bands can be obtained.
  • This is called multi-resolution analysis (MRA), and is one of basic processes by wavelet transform.
  • MRA multi-resolution analysis
  • a three-level multiresolution analysis is performed.
  • the edge intensity Emap i (x, y) that does not take the edge direction into consideration can be obtained by the equation (1) that combines the wavelet coefficients in the three directions (FIG. 3B).
  • i represents the level of multi-resolution analysis.
  • LH i, HL i, the HH i (x, y) is expressed omitted.
  • the edge extraction of the extraction unit 102 determines that the position (x, y) is an edge region when Emax i (x, y) exceeds a predetermined threshold for an arbitrary i.
  • the classification unit 103 determines that the edge region (x, y) has a high sharpness edge, a slightly high sharpness edge, or a low sharpness edge based on the magnitude relationship of Emax i (x, y) between levels. And classify into four types of other edges. For example, as shown in FIG. 4, when Emax 1 > Emax 2 > Emax 3, an edge with high sharpness is obtained, and when Emax 1 ⁇ Emax 2 ⁇ Emax 3, an edge with low sharpness is obtained. Then, edges with high sharpness and edges with slightly high sharpness are collectively classified as high-frequency edges, and edges with low sharpness and other edges are collectively classified as low-frequency edges.
  • the “high-frequency edge” means a sharp edge containing a lot of high-frequency components with reference to the frequency component of the region including the edges.
  • the “low frequency edge” means a gentle edge including a low frequency component other than the “high frequency edge” and an edge that does not belong to either of them.
  • the classification result is stored in the edge type map Etype (x, y). This indicates which class of edge the edge region (x, y) is. For example, 0 is stored in Etype (x, y) for a high frequency edge, and 1 is stored in Etype (x, y) for a low frequency edge.
  • this classification method is an example, and the present invention is not limited to this classification method.
  • only sharp edges may be classified as high-frequency edges, and edges with slightly high sharpness, edges with low sharpness, or edges that do not belong to either may be classified as low-frequency edges.
  • the detecting unit 104 detects interlace noise generated due to a shift between fields during IP conversion. As shown in FIG. 10A, comb noise is generated when lines between fields are shifted. This shift is conspicuous in the contour portion of the region and has a property of being continuous in the vertical direction.
  • FIG. 5 is a block diagram illustrating a configuration of the detection unit 104.
  • the detection unit 104 includes a first calculation unit 501 and a second determination unit 502.
  • the first calculation unit 501 calculates a deviation between the upper and lower lines for each pixel.
  • the shift between the lines is calculated based on whether or not pixels having high similarity and low pixels are repeated at predetermined intervals in the vertical direction.
  • the line-to-line deviation degree M (p) of p can be calculated from 1 ⁇ 5 pixels (vertical direction is 5 pixels) centered on the pixel p based on the following equation (2).
  • T is a combination of upper and lower adjacent pixels centered on the pixel p
  • S is a combination of odd-to-pixel distances
  • dist (u, v) is a distance between the pixels u and v.
  • the distance for example, the sum of squares of differences in color components of pixels is used.
  • the second determination unit 502 determines whether or not the pixels p having an interline deviation degree M (p) larger than a predetermined value are aligned in the vertical direction, and only the pixels p determined to be aligned are comb-shaped noise. judge.
  • the second determination unit 502 determines that the pixel p is comb noise.
  • M ′ (p) is calculated in units of pixels. In this case, M ′ (p) represents the degree of comb noise.
  • Nmap (x, y) is created by dividing the input image into blocks of 16 ⁇ 16 pixels.
  • Nmap (x, y) is determined by determining that the position (x, y) is a noise region.
  • the reclassifying unit 105 changes from a high-frequency edge to a low-frequency edge. Reclassify.
  • the number of classifications is not limited to two and may be classified into three. In this case, as long as the classification destination is other than the high-frequency edge, a gentle edge or other edge may be used. In addition, a new classification of edges including interlace noise may be created.
  • the first determination unit 106 performs image blur determination based on the ratio of the remaining high-frequency edges after reclassification, and outputs the result from the output unit 107.
  • the “high-frequency edge” used in this blur determination means a high-frequency edge remaining after interlace noise is removed by the reclassifying unit 105.
  • low-frequency edges including edges with interlace noise reclassified by the reclassifying unit 105
  • edges with slightly high sharpness, sharp edges may be used.
  • Edges with low degrees including edges with interlace noise reclassified by the reclassification unit 105) and other edge classifications may be used.
  • N da is Etype (x, y) the number of the high-frequency side of the edge region at, N edge is the number of all edge regions.
  • a learning type determination algorithm such as SVM (Support Vector Vector Machine) is used instead of a method using a simple threshold as in the first determination method.
  • a discriminator is trained by giving a blurred image and a non-blurred image as learning data. And it is determined whether it is a blurred image by estimating which category an unknown image belongs to.
  • the ratio of the classified edge region is used. For example, assume that (N da / N edge , N rg / N edge , N brg / N edge ). However, N edge is the total number of edge regions, N rg is the total number of slightly sharp edge regions and gentle edge regions, and N brg is the number of gentle edge regions.
  • the denominator is not limited to the total number N edge of edge regions.
  • N rg ⁇ N brg ) / N rg may be the ratio of the edge region.
  • Etype (x, y) that is, a map indicating the distribution of the classification of the edge region is used without using the ratio of the edge region.
  • a feature quantity composed of a feature vector having individual values of Etype (x, y) as elements is created and input to a determination algorithm such as SVM.
  • Emap (x, y) and Emax (x, y) indicating the edge strength may be used.
  • a new feature value may be created by appropriately connecting the feature values obtained from the plurality of maps.
  • the different configurations of the present embodiment and the first embodiment are an extraction unit 102, a reclassification unit 105, and a first determination unit 106.
  • the extraction unit 102 extracts the edges by dividing them into at least two types of portrait and landscape, and the reclassification unit 105 reclassifies only the landscape edges.
  • edge components LH, HL, HH
  • the edge components are not synthesized but are handled independently.
  • HL and LH are used.
  • the diagonal component (HH) may or may not be used.
  • Emap (x, y) and Emax (x, y) are created for each edge direction. For example, Emax i HL
  • the detection unit 104 detects a region including interlaced noise of comb-type noise as in the first embodiment.
  • the reclassifying unit 105 reclassifies the sharp edge included in the region where interlace noise of comb noise is detected in the extracted horizontal edge to the other edge.
  • the classification destination may be a gentle edge or other edge.
  • a new classification of edges including interlace noise may be created.
  • the first determination unit 106 performs blur determination for each of the vertical edge and the horizontal edge, and integrates the results to determine the entire image.
  • a determination algorithm such as SVM may be used.
  • a new feature quantity vector may be created by combining the feature quantity vectors obtained from the vertical edge and the horizontal edge, and used for the determination. For example, (N da / N edge , N rg / N edge , N brg / N edge , (N rg ⁇ N brg ) / N rg ) is calculated and connected for each of the edges in the vertical and horizontal directions. Is a feature amount.
  • the above-described Wavelet transform method is used for the extraction unit 102 and the classification unit 103, and the vertical edge and the horizontal edge described above are separately processed.
  • the first determination unit 106 performs determination by SVM.
  • FIG. 7A shows a breakdown of learning data and evaluation data of SVM.
  • a total of 625 frames including 155 frames that are blurred as learning data and 470 frames that are not blurred are trained by a discriminator, and 80 frames that are blurred as data for evaluation and 90 frames that are not blurred are a total of 170. Evaluate the sheet.
  • FIG. 7 (b) shows the blur detection result in terms of recall, precision, and F value.
  • the F value is a harmonic average of the recall rate and the relevance rate, which is twice the product divided by the sum.
  • the reproduction rate is 0.899
  • the matching rate is 0.888
  • the F value is 0.893.
  • the recall rate is 0.925
  • the relevance rate is 0.925
  • the F value is 0.925.
  • the present embodiment in which interlace noise is detected and the edges are reclassified shows better results than the conventional example, and the effect of the image processing apparatus 100 of the present embodiment is demonstrated. is there.
  • ⁇ ⁇ Comb noise is not the only factor that reduces the accuracy of blur determination due to noise generated by IP conversion.
  • interlace noise there is a double edge like an image 1002 in FIG.
  • the double edge occurs when IP conversion is performed by averaging the top field and the bottom field.
  • the sharpness of the edge is reduced by averaging, so there are many cases where it does not become a problem in blur determination.
  • the original edge is very sharp, even if averaged, it becomes a sufficiently sharp edge, causing erroneous determination.
  • FIG. 8 is a block diagram illustrating a configuration of the detection unit 104.
  • the detection unit 104 includes a second calculation unit 801, a search unit 802, and a third determination unit 803.
  • the second calculation unit 801 classifies the edges extracted from the frame according to the orientation. For example, focus on one point on the edge. Using a 3 ⁇ 3 direction determination filter centered on the point of interest, classification is made into four directions. One of the four edge directions is given to the point of interest. The four directions are vertical, horizontal, and oblique two directions.
  • the search unit 802 searches for a pair of parallel edges based on the extracted edge direction. For example, when a pair of edge regions in the same direction are continuously present at the same interval including an error, the pair of edges is set as a parallel edge.
  • the third determination unit 803 determines whether or not the parallel edge is a double edge. For example, if the interval between the parallel edges is equal to or larger than a predetermined range in the frame and within a certain range, a double edge is set.
  • an image processing apparatus 100 according to the fourth embodiment of the present invention will be described with reference to FIG.
  • the different configurations of the present embodiment and the first embodiment are an extraction unit 102 and a reclassification unit 105.
  • the extraction unit 102 of this embodiment extracts edges from the frame input from the input unit 101.
  • the edge is extracted using a differential filter such as a Sobel filter.
  • the classifying unit 103 extracts the extracted edges with high sharpness (high frequency edges) as shown in FIG. 9A and low sharpness edges as shown in FIG. Edge). For example, a frequency component in a region including an edge is obtained, and classification is performed by determining a high sharpness edge (high frequency edge) as a component having a high frequency component.
  • the frequency component is calculated by Fourier transform or the like.
  • the image processing apparatus 100 can also be realized by using, for example, a general-purpose computer as basic hardware. That is, the extraction unit 102, the classification unit 103, the detection unit 104, the reclassification unit 105, and the first determination unit 106 can be realized by causing a processor mounted on the computer to execute a program. At this time, the image processing apparatus 100 may be realized by installing the above program in a computer in advance, or may be stored in a storage medium such as a CD-ROM or distributed through the network. Thus, this program may be realized by appropriately installing it in a computer.
  • the present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage.
  • Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiments. Furthermore, constituent elements over different embodiments may be appropriately combined.
  • DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus 101 ... Input part 102 ... Extraction part 103 ... Classification part 104 ... Detection part 105 ... Reclassification part 106 ... First Judgment unit, 107 ... output unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Systems (AREA)

Abstract

 画像処理装置は、フレームからエッジを含む領域を抽出する抽出部と、前記エッジを含む領域の周波数成分を基準にして、前記エッジを少なくとも高周波のエッジと低周波のエッジのどちらかに分類する分類部と、前記フレームをインタレースからプログレッシブに変換したときに、フレームを構成するフィールド間のずれによって生じるインタレースノイズを含むノイズ領域を、前記フレームから検出する検出部と、前記高周波のエッジで、かつ、前記ノイズ領域に属するエッジを、前記高周波のエッジの分類から除外する再分類部と、除外して残った前記高周波のエッジの割合が閾値より低いときは、前記フレームがぼけていると判定する第一判定部とを備える。

Description

画像処理装置
 本発明は、画像処理装置に関する。
 特許文献1には、ぼけたフレームを排除するために、写真(静止画像)からエッジを抽出し、その先鋭度によってぼけを判定する技術が提案されている。
特開2003-262909号公報
 映像(動画像)には、インタレース(飛び越し走査)とプログレッシブ(順次走査)がある。インタレースの映像からプログレッシブの映像にIP変換されると、元からプログレッシブであった映像とフォーマット上の区別はない。そのため、映像に含まれるインタレースノイズが、元々、この映像に存在するものなのか、IP変換時に発生したのかを判断することができなくなる。
 しかし、特許文献1の技術は、写真を対象としたもので、映像については言及していない。そのため、前記ノイズを含む映像のフレームに、特許文献1の技術を適用すると、ノイズが先鋭なエッジとなって、元の映像のフレームにぼけがある場合であっても、合焦していると誤った判定をする問題点がある。
 そこで本発明は、上記問題点を解決するためになされたものであって、インタレースノイズを含んだフレームを誤ってぼけていないフレームとして選択することを抑制する画像処理装置を提供することを目的とする。
 本発明は、フレームからエッジを含む領域を抽出する抽出部と、前記エッジを含む領域の周波数成分を基準にして、前記エッジを少なくとも高周波のエッジと低周波のエッジのどちらかに分類する分類部と、前記フレームをインタレースからプログレッシブに変換したときに、フレームを構成するフィールド間のずれによって生じるインタレースノイズを含むノイズ領域を、前記フレームから検出する検出部と、前記高周波のエッジで、かつ、前記ノイズ領域に属するエッジを、前記高周波のエッジの分類から除外する再分類部と、除外して残った前記高周波のエッジの割合が閾値より低いときは、前記フレームがぼけていると判定する第一判定部と、を備えることを特徴とする画像処理装置である。
 本発明によれば、ぼけたフレームか否かを判定し、インタレースノイズを含んだフレームを誤ってぼけていないフレームとして選択することを抑制できる。
実施例1に係わる画像処理装置を示すブロック図。 (a)(b)は画像の基本的な処理を説明する図。 抽出部、分類部の処理について説明する図。 (a)は先鋭度の高いエッジのグラフ、(b)は先鋭度の低いエッジのグラフ。 検出部を示すブロック図。 Nmap(x,y)について、入力画像を16×16画素のブロックに分割して作成する図。 実施例2に関する実験データ。 実施例3の検出部を示すブロック図。 実施例4に関するものであり、(a)は先鋭度の高いエッジのグラフ、(b)は先鋭度の低いエッジのグラフ。 (a)はくし型ノイズについて説明する図、(b)は二重エッジについて説明する図。
 まず、本発明の一実施例の画像処理装置100の理論について説明する。
 インタレースの映像は、1フレームが2つのフィールドにより構成される。フレームの奇数ラインに対応するトップフィールドと偶数ラインに対応するボトムフィールドである。インタレースではフィールド単位に走査される。一旦、奇数又は偶数の一方の全ラインを走査した後、他方の全ラインをまとめて走査する。そのため、奇数ラインと偶数ラインの間には時間差が生じる。例えば、フレームレートが30fpsの映像であれば、約1/60秒の時間差が生じる。
 一方、プログレッシブの映像は奇数ライン、偶数ラインの区別なく、連続的に走査される。
 インタレースはIP変換によってプログレッシブに変換できる。しかし、前述のようにフィールド間には時間差があるため、被写体やカメラに動きがある場合、上下に隣接するライン間で、ずれが生じる。IP変換のアルゴリズムは、ずれを補正しつつ、プログレッシブの映像に変換する。
 しかし、IP変換の仕様や変換方法によっては、図10(a)の画像1001に示すような輪郭部を中心にくし型ノイズのインタレースノイズ、又は、図10(b)の画像1002に示すような二重エッジが発生する場合がある。くし型ノイズのインタレースノイズは、動きが大きすぎて、IP変換のアルゴリズムの補正可能な許容量を越えた場合や、ユーザが誤った設定で変換した場合などに発生する。2重エッジのインタレースノイズは、トップフィールドとボトムフィールドを平均することで、IP変換を行う場合に発生する。
 そして、プログレッシブに一旦変換されると、元からプログレッシブであった映像とフォーマット上の区別はない。そのため、映像に含まれるインタレースノイズが、元々、この映像に存在するものなのか、IP変換時に発生したのかを判断できなくなる。
 そこで、本実施例の画像処理装置100は、映像のフレームに含まれるインタレースノイズを検出し、先鋭度が高いと判定されたエッジのうち、インタレースノイズが含まれるものを、先鋭度が高いエッジ以外のエッジに再分類する。そして、再分類により残った先鋭度の高いエッジとそれ以外のエッジの分布で判定処理を行うことで、例えばインタレースノイズを含んだ画像(フレーム)を誤って選択することを抑制する。
 以下、本発明の実施例1の画像処理装置100について図1~図6に基づいて説明する。
 画像処理装置100の構成について図1を用いて説明する。図1は、本実施例に係わる画像処理装置100を示すブロック図である。
 画像処理装置100は、入力部101、抽出部102、分類部103、検出部104、再分類部105、第一判定部106、出力部107とを備えている。
 抽出部102は、入力部101より入力された映像の各フレームからエッジをそれぞれ抽出する。分類部103は、抽出したエッジを分類する。抽出部102の抽出と、分類部103の分類について説明する。
 本実施例では、入力される画像信号に関する周波数解析に関して、H. Tong, M. Li, H.-J. Zhang, and C. Zhang, ”Blur detection for digital images using wavelet transform,”in Proc. IEEE Int. Conf. Multimedia Expo, Jun. 2004, pp. 17-20(以下、「Tong他」という)に示される「Wavelet変換」を用いて説明する。画像信号に関する周波数解析はWavelet変換に限らず、フーリエ変換等を用いてよい。図2、図3、図4はWavelet変換を用いた例である。
 まず、図2(a)に示すようなフレーム201に関してWavelet変換を行う。
 変換を行うと、図2(b)のマップ202に示すように、高周波成分を示すWavelet係数(HL,HH,LH)と低周波成分を示すスケーリング係数(LL)を得ることができる。エッジは高周波成分を多く含むので、値の大きなWavelet係数として表れる。なお、HLは縦方向のエッジ、LHは横方向のエッジ、HHは斜め方向のエッジに対応する。
 次に、図3(a)のマップ301に示すように、スケーリング係数(LL)に対して、Wavelet変換を繰り返し行う。
 繰り返し行うことによって図3(b)のマップ302に示すように、複数レベルの周波数帯でのエッジ強度を得ることができる。これは多重解像度解析(Multi Resolution Analysis,MRA)と呼ばれ、Wavelet変換による基本処理の一つである。本実施例では、3レベルの多重解像度解析を行う。
 マップの各位置(x,y)において、エッジの方向を考慮しないエッジ強度Emap(x,y)は3方向のWavelet係数を合成する式(1)で得ることができる(図3(b)の符号302に対応)。但し、iは多重解像度解析のレベルを示す。なお、LH、HL、HHの(x,y)は省略して表記している。
Figure JPOXMLDOC01-appb-M000001
 Emap(x,y)に対し、i=1には8×8、i=2には4×4、i=3には2×2のサイズの窓(図3(b)の符号303に対応)を用いて、各窓の中での最大値を選び、Emax(x,y)とする(図3(c)の符号304に対応)。Emax(x,y)はレベル間で同じサイズとなる。
 このとき、抽出部102のエッジ抽出は、任意のiに対して、Emax(x,y)が所定の閾値を越えるときに位置(x,y)がエッジ領域であると判断する。
 また、分類部103は、レベル間のEmax(x,y)の大小関係に基づいて、エッジ領域(x,y)を先鋭度の高いエッジ、やや先鋭度の高いエッジ、先鋭度の低いエッジ、その他のエッジの4種類に分類する。例えば図4に示すように、Emax>Emax>Emaxのときは先鋭度の高いエッジ、Emax<Emax<Emaxのときは先鋭度の低いエッジとなる。そして、先鋭度の高いエッジ、やや先鋭度の高いエッジをまとめて高周波側のエッジに分類し、先鋭度の低いエッジ、その他のエッジをまとめて低周波側のエッジに分類する。なお、ここで「高周波のエッジ」とは、エッジを含む領域の周波数成分を基準にして高周波成分を多く含んだ先鋭なエッジを意味する。また、「低周波のエッジ」とは、「高周波のエッジ」以外の低周波成分を含んだ緩やかなエッジと、それらどちらにも属さないエッジを意味する。言い換えると、分類部103における上記分類を行うことにより、エッジを含む領域の周波数成分を基準にして、高周波成分を多く含んだ先鋭なエッジ(高周波のエッジ)と、低周波成分を含んだ緩やかなエッジ、どちらにも属さないエッジ(低周波のエッジ)に分類できる。
 分類結果は、エッジタイプマップEtype(x,y)に格納する。これはエッジ領域(x,y)がいずれの分類のエッジであるかを示すものである。例えば、高周波のエッジのときは、Etype(x,y)に0を格納し、低周波のエッジのときは、Etype(x,y)に1を格納する。
 なお、この分類方法は一例であり、この分類方法に限定されない。例えば、特に先鋭なエッジだけを高周波側のエッジに分類し、やや先鋭度の高いエッジ、先鋭度の低いエッジ、どちらにも属さないエッジをまとめて低周波側のエッジに分類してもよい。
 検出部104は、IP変換時にフィールド間のずれによって生じたインタレースノイズを検出する。図10(a)に示すように、くし型ノイズはフィールド間のラインがずれることによって発生する。このずれは、領域の輪郭部分で目立ち、縦方向に連続する性質を持つ。
 検出部104が、インタレースノイズを検出する方法について図5を用いて説明する。図5は検出部104の構成を示すブロック図である。検出部104は、第一算出部501と第二判定部502を備える。
 第一算出部501は、画素毎に上下のライン間のずれを算出する。ライン間のずれは縦方向に所定の間隔で類似度の高い画素と低い画素が繰り返されるか否かに基づいて算出する。例えば、画素pを中心とした1×5画素(縦方向が5画素)から下記の式(2)に基づき、pのライン間ずれ度M(p)が算出できる。
Figure JPOXMLDOC01-appb-M000002
 但し、Tは画素pを中心とした上下の隣接画素の組み合わせ、Sは画素間距離が奇数であるものの組み合わせ、dist(u,v)は画素uとvの間の距離である。距離は例えば、画素の色成分の差の二乗和を用いる。
 第二判定部502は、ライン間ずれ度M(p)が所定の値より大きい画素pが、縦方向に並んでいるかを判定し、並んでいると判定された画素pだけをくし型ノイズと判定する。
 例えば、画素pを中心とした所定の範囲(例えば、5×5画素)で、画素pを通って、上辺から底辺まで、ライン間ずれ度M(p)が所定の値より大きい画素が存在する経路がある場合に、第二判定部502は、画素pをくし型ノイズと判定する。そして、結果をM’(p)とする。M’(p)は画素単位に算出される。この場合M’(p)はくし型ノイズの度合いを表す。
 再分類部105においてエッジタイプマップEtype(x,y)と比較するためにはM’(p)をブロック単位のデータに変換する必要がある。これをノイズ領域マップNmap(x,y)とする。前述のEtype(x,y)の例に合わせると、図6に示すように、Nmap(x,y)は入力画像を16×16画素のブロックに分割して作成する。
 例えば、各位置(x,y)におけるM’(p)の平均Mmean(x,y)や最大値Mmax(x,y)などを算出する。そして、これら単独の値、和、積、又は、これらの値の組み合わせが所定の閾値を超える場合に位置(x,y)がノイズ領域であると決定することで、Nmap(x,y)を求める。
 再分類部105は、インタレースノイズが検出されたノイズ領域マップNmap(x,y)に属するEtype(x,y)が高周波のエッジに分類されている場合、高周波のエッジから低周波のエッジに再分類する。
 なお、分類数は2つに限らず3つに分類されてもよい。この場合分類先を、高周波のエッジ以外であれば、緩やかなエッジでもよいし、その他のエッジでもよい。また、インタレースノイズを含むエッジという新たな分類を作成してもよい。
 第一判定部106は、再分類されて、残った高周波側のエッジの割合によって、画像のぼけ判定を行い、出力部107より結果を出力する。
 但し、このぼけ判定で用いられる「高周波のエッジ」とは、再分類部105でインタレースノイズが除かれ、残った高周波のエッジを意味している。そして、それ以外のエッジの分類は、低周波のエッジ(再分類部105で再分類されたインタレースノイズがあるエッジを含む)をそのまま用いてもよく、又は、やや先鋭度の高いエッジ、先鋭度の低いエッジ(再分類部105で再分類されたインタレースノイズがあるエッジを含む)、その他のエッジの分類を用いてもよい。
 第1の判定方法としては、式(3)に示すように、再分類された高周波側のエッジの割合Perが閾値を越えていれば、ぼけていない画像であると判定する。
Figure JPOXMLDOC01-appb-M000003
 但し、NdaはEtype(x,y)において高周波側のエッジ領域の数、Nedgeは全エッジ領域の数である。
 第2の判定方法としては、第1の判定方法のような単純な閾値を用いた方法ではなく、SVM(Support Vector Machine)のような学習型の判定アルゴリズムを用いる。
 学習型の判定アルゴリズムでは、ぼけた画像とぼけていない画像を学習用データとして与えて、識別器を訓練する。そして、未知の画像がどちらのカテゴリに属するかを推定することで、ぼけた画像であるか否かを判定する。
 識別器に入力する特徴量としては例えば、分類されたエッジ領域の割合を用いる。例えば、(Nda/Nedge,Nrg/Nedge,Nbrg/Nedge)とする。但し、Nedgeはエッジ領域の総数、Nrgはやや先鋭なエッジ領域と緩やかなエッジ領域の合計数、Nbrgは緩やかなエッジ領域の数である。
 なお、分母はエッジ領域の総数Nedgeに限定されない。例えば、(Nrg-Nbrg)/Nrgをエッジ領域の割合にしてもよい。
 第3の判定方法としては、エッジ領域の割合を用いず、Etype(x,y)、すなわち、エッジ領域の分類の分布を示すマップを用いる。
 すなわち、Etype(x,y)の個々の値を要素とした特徴ベクトルよりなる特徴量を作成し、SVMなどの判定アルゴリズムに入力する。
 また、エッジ強度を示すEmap(x,y)、Emax(x,y)そのものを用いてもよい。
 さらに、これらの複数のマップより得られる特徴量を適宜連結して新たな特徴量を作成してもよい。
 本実施例によれば、映像からフレームを選択して写真やスライドショーを生成する際に、IP変換時にフィールド間のずれに起因するインタレースノイズを含むフレームを選択してしまうことを抑制しつつ、ぼけたフレームを排除でき、高品質な写真やスライドショーを作成できる。
 次に、本発明の実施例2の画像処理装置100について図7を用いて説明する。本実施例と実施例1の異なる構成は、抽出部102、再分類部105、第一判定部106である。
 くし型ノイズのインタレースノイズは横向きのエッジとしてのみ表れ、縦向きには現れない。そこで、抽出部102はエッジを少なくとも縦向きと横向きの2種類に分けて抽出し、再分類部105は横向きのエッジのみを再分類する。
 抽出部102において、エッジの向きを分けて抽出する方法を述べる。
 Tong他では、3方向のエッジ成分(LH,HL,HH)を合成していた。本実施例では、エッジ成分を合成せず、それぞれ独立に扱う。縦向きと横向きのエッジに分ける場合、HLとLHのみを用いる。対角成分(HH)は用いても用いなくてもよい。Emap(x,y)やEmax(x,y)はそれぞれのエッジの向き毎に作成される。例えば、Emax HL|HL|とする。また、Emax HL(x,y)は前述の窓を用いて、Emap HL(x,y)から各窓内の最大値を選択したものである。
 検出部104は、実施例1と同様にくし型ノイズのインタレースノイズが含まれる領域を検出する。
 再分類部105は、抽出された横向きのエッジにおいて、くし型ノイズのインタレースノイズが検出された領域に含まれる先鋭なエッジをそれ以外のエッジに再分類する。分類先は緩やかなエッジでもよいし、その他のエッジでもよい。また、インタレースノイズを含むエッジという新たな分類を作成してもよい。
 第一判定部106は、縦方向のエッジ、横方向のエッジそれぞれに対し、ぼけ判定を行い、その結果を統合して、画像全体の判定を行う。
 例えば、双方がぼけている場合に画像全体がぼけていると判定したり、少なくとも1つの方向がぼけている場合に画像全体がぼけていると判定したりする。
 また、SVM等の判定アルゴリズムを用いてもよい。この場合、縦方向のエッジ、横方向のエッジから得られる特徴量ベクトルを組み合わせて、新たな特徴量ベクトルを作成して、判定に用いてもよい。例えば、縦横方向のエッジのそれぞれにおいて、(Nda/Nedge,Nrg/Nedge,Nbrg/Nedge,(Nrg-Nbrg)/Nrg)を算出して、連結した8次元ベクトルを特徴量とする。
 本実施例の画像処理装置100の効果を実証した実験を図7を用いて説明する。
 本実験では、インタレースノイズの検出がない従来例の画像処理装置と、インタレースノイズの検出がある本実施例の画像処理装置100を用いる。
 本実施例の画像処理装置100では、抽出部102と分類部103に関して前述のWavelet変換による方法を用い、かつ、上記で説明した縦方向のエッジと横方向のエッジを別々に処理する構成とした。また、第一判定部106はSVMによる判定を行う。
 図7(a)は、SVMの学習用データと評価用データの内訳を示す。学習用データとしてぼけたフレームを155枚、ぼけていないフレームを470枚の合計625枚を識別器で訓練し、評価用データとしてぼけたフレームを80枚、ぼけていないフレームを90枚の合計170枚を評価する。
 図7(b)は、ぼけ検出結果を再現率、適合率、F値で示したものである。但し、F値は再現率と適合率の調和平均で、積の2倍を和で除したものになる。従来例の画像処理装置では、再現率が0.899、適合率が0.888、F値が0.893である。一方、本実施例の画像処理装置100では、再現率が0.925、適合率が0.925、F値が0.925であって、いずれも値が上昇している。
 これにより、インタレースノイズの検出を行い、エッジの再分類を行った本実施例の方が従来例より、良い結果を示しており、本実施例の画像処理装置100の効果を実証するものである。
 次に、本発明の実施例3の画像処理装置100について図8を用いて説明する。本実施例では、検出部104が2重エッジを検出する方法について説明する。
 IP変換によって生じるノイズでぼけ判定の精度を低下させる要因は、くし型ノイズだけではない。他のインタレースノイズの例として、図10(b)の画像1002のような2重エッジがある。2重エッジはトップフィールドとボトムフィールドを平均することで、IP変換を行う場合に発生する。一般的には平均化によって、エッジの先鋭度が落ちるため、ぼけ判定においての問題にならない場合も多い。しかし、元のエッジが非常に先鋭であれば、平均化されても十分に先鋭なエッジとなり、誤判定の原因となる。
 検出部104において、2重エッジのインタレースノイズを検出するための構成について図8を用いて説明する。図8は検出部104の構成を示すブロック図である。検出部104は、第二算出部801、探索部802、第三判定部803を備える。
 第二算出部801は、フレームから抽出されたエッジを向きによって分類する。例えば、エッジ上の1点に注目する。注目点を中心とした3×3の方向判定フィルタを用いて、4方向に分類する。注目点に対して、4方向のいずれかのエッジ方向が付与される。4方向とは縦、横、それから、斜め2方向である。
 探索部802は、抽出されたエッジ方向をもとに平行なエッジの組を探索する。例えば、誤差を含む同一の間隔で、同じ向きのエッジ領域の組が連続して存在する場合にエッジの組を平行エッジとする。
 第三判定部803は、平行エッジが2重エッジであるか否かを判定する。例えば、平行エッジの間隔が、フレーム内の所定の範囲以上で、一定の範囲に収まっていればであれば2重エッジとする。
 次に、本発明の実施例4の画像処理装置100について図9を用いて説明する。本実施例と実施例1の異なる構成は、抽出部102、再分類部105である。
 本実施例の抽出部102は、入力部101より入力されたフレームからエッジを抽出する。エッジは、Sobelフィルターなどの微分フィルターを用いて抽出する。
 また、分類部103は、抽出したエッジを、図9(a)に示すような先鋭度の高いエッジ(高周波のエッジ)と、図9(b)に示すような先鋭度の低いエッジ(緩やかなエッジ)に分類する。例えば、エッジを含む領域の周波数成分を求め、高周波成分が多いものを先鋭度の高いエッジ(高周波のエッジ)とすることで分類する。周波数成分はフーリエ変換などによって算出する。
変更例
 画像処理装置100は、例えば、汎用のコンピュータを基本ハードウェアとして用いることでも実現することが可能である。すなわち、抽出部102、分類部103、検出部104、再分類部105、及び、第一判定部106は、上記のコンピュータに搭載されたプロセッサにプログラムを実行させることにより実現することができる。このとき、画像処理装置100は、上記のプログラムをコンピュータに予めインストールすることで実現してもよいし、CD-ROMなどの記憶媒体に記憶して、又はネットワークを介して上記のプログラムを配布して、このプログラムをコンピュータに適宜インストールすることで実現してもよい。
 本発明は上記実施例そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施例に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施例に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施例にわたる構成要素を適宜組み合わせてもよい。
100・・・画像処理装置、101・・・入力部、102・・・抽出部、103・・・分類部、104・・・検出部、105・・・再分類部、106・・・第一判定部、107・・・出力部

Claims (6)

  1.  フレームからエッジを含む領域を抽出する抽出部と、
     前記エッジを含む領域の周波数成分を基準にして、前記エッジを少なくとも高周波のエッジと低周波のエッジのどちらかに分類する分類部と、
     前記フレームをインタレースからプログレッシブに変換したときに、フレームを構成するフィールド間のずれによって生じるインタレースノイズを含むノイズ領域を、前記フレームから検出する検出部と、
     前記高周波のエッジで、かつ、前記ノイズ領域に属するエッジを、前記高周波のエッジの分類から除外する再分類部と、
     除外して残った前記高周波のエッジの割合が閾値より低いときは、前記フレームがぼけていると判定する第一判定部と、
     を備えることを特徴とする画像処理装置。
  2.  前記検出部は、くし型ノイズを前記インタレースノイズとして検出する、
     ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記抽出部は、横方向のエッジを検出し、
     前記分類部は、前記横方向のエッジを含む領域の周波数成分を基準にして、前記横方向のエッジを、少なくとも高周波のエッジと低周波エッジのどちらかに分類する
     ことを特徴とする請求項2に記載の画像処理装置。
  4.  前記検出部は、前記フレーム内において、互いの類似度が閾値より高い画素と低い画素が繰り返される領域が、縦方向に所定の間隔で分布している領域を、前記くし型ノイズを含むノイズ領域として検出する、
     ことを特徴とする請求項3に記載の画像処理装置。
  5.  前記再分類部は、前記ノイズ領域に属するエッジを前記低周波のエッジに再分類する、
     ことを特徴とする請求項3に記載の画像処理装置。
  6.  前記検出部は、前記フレームの所定の範囲内にある2つの前記エッジが所定の間隔で存在するときに前記インタレースノイズとして検出する、
     ことを特徴とする請求項1に記載の画像処理装置。
PCT/JP2009/006280 2009-11-20 2009-11-20 画像処理装置 WO2011061807A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/006280 WO2011061807A1 (ja) 2009-11-20 2009-11-20 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/006280 WO2011061807A1 (ja) 2009-11-20 2009-11-20 画像処理装置

Publications (1)

Publication Number Publication Date
WO2011061807A1 true WO2011061807A1 (ja) 2011-05-26

Family

ID=44059309

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/006280 WO2011061807A1 (ja) 2009-11-20 2009-11-20 画像処理装置

Country Status (1)

Country Link
WO (1) WO2011061807A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179951A (ja) * 2001-12-11 2003-06-27 Sharp Corp 画質評価装置
JP2008124827A (ja) * 2006-11-13 2008-05-29 Casio Comput Co Ltd 撮影制御装置、撮影制御方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003179951A (ja) * 2001-12-11 2003-06-27 Sharp Corp 画質評価装置
JP2008124827A (ja) * 2006-11-13 2008-05-29 Casio Comput Co Ltd 撮影制御装置、撮影制御方法およびプログラム

Similar Documents

Publication Publication Date Title
CN102132323B (zh) 用于自动图像矫直的系统和方法
US8406462B2 (en) Signature derivation for images
JP5542889B2 (ja) 画像処理装置
CN102025959B (zh) 从低清晰度视频产生高清晰度视频的系统与方法
JP4744276B2 (ja) 2次元画像の表現方法、2次元画像の比較方法、画像シーケンスを処理する方法、動き表現を導出する方法、画像の位置を求める方法、制御デバイス、装置、及びコンピュータ読み取り可能な記憶媒体
US8548247B2 (en) Image processing apparatus and method, and program
US8346005B2 (en) System and method for “Bokeh-Aji” shot detection and region of interest isolation
US8295607B1 (en) Adaptive edge map threshold
EP2175641B1 (en) Apparatus and method for low angle interpolation
US20090226097A1 (en) Image processing apparatus
JP2011509617A (ja) 超解像ビデオ処理のためのスパースジオメトリー
WO2011141196A1 (en) Two-dimensional super resolution scaling
JPH09172614A (ja) 広域ベクトルの相関性を用いた画素の補間方法及びその装置
US9123140B1 (en) Recovering details in single frame super resolution images
CN108335268B (zh) 一种基于盲解卷积的彩色图像去模糊的方法
US20080310685A1 (en) Methods and Systems for Refining Text Segmentation Results
US20220414827A1 (en) Training apparatus, training method, and medium
EP2536123B1 (en) Image processing method and image processing apparatus
CN111028263A (zh) 一种基于光流颜色聚类的运动物体分割方法及其系统
Priyadarshini et al. A new edge detection method based on additions and divisions
JP4868249B2 (ja) 映像信号処理装置
CN103426144B (zh) 用于使具有透视畸变的图像去模糊的方法和装置
WO2024016632A1 (zh) 亮点定位方法、亮点定位装置、电子设备及存储介质
WO2011061807A1 (ja) 画像処理装置
WO2022019747A1 (en) System and method for identification of text region in video

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09851429

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09851429

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP