JP5190469B2 - Boundary region processing in images - Google Patents

Boundary region processing in images Download PDF

Info

Publication number
JP5190469B2
JP5190469B2 JP2009547200A JP2009547200A JP5190469B2 JP 5190469 B2 JP5190469 B2 JP 5190469B2 JP 2009547200 A JP2009547200 A JP 2009547200A JP 2009547200 A JP2009547200 A JP 2009547200A JP 5190469 B2 JP5190469 B2 JP 5190469B2
Authority
JP
Japan
Prior art keywords
image
column
difference
row
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009547200A
Other languages
Japanese (ja)
Other versions
JP2010517417A (en
Inventor
ケニス アンデション,
クリントン プリドル,
ジョナタン サミュエルソン,
Original Assignee
テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エル エム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エル エム エリクソン(パブル)
Publication of JP2010517417A publication Critical patent/JP2010517417A/en
Application granted granted Critical
Publication of JP5190469B2 publication Critical patent/JP5190469B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/38Circuits or arrangements for blanking or otherwise eliminating unwanted parts of pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Description

本発明は、一般に画像処理に関し、特に画像の境界領域処理に関する。   The present invention generally relates to image processing, and more particularly to image boundary region processing.

より高いフレームレートのビデオシーケンスがより低いフレームレートのビデオシーケンスより高品質の体験を与えると一般に考えられるため、フレームレートアップ変換が行なわれる。ビデオシーケンスのフレームレートは、既存のフレーム間に予想されるフレームを挿入することにより増加される。適切な方法は、双方向ブロック動き推定を使用して中間フレームを予測することであり、それにより入力されたビデオシーケンスの先行フレームと後続フレームとの間の直線運動を探索する。加速を表せる非線形方法を使用することも可能であるが、単純であり且つそれ程複雑でないために線形方法が使用される。中間フレームはブロックに分割され、各ブロックには動きベクトルが何らかの方法で割り当てられる必要がある。   Frame rate up-conversion is performed because it is generally considered that a higher frame rate video sequence provides a higher quality experience than a lower frame rate video sequence. The frame rate of the video sequence is increased by inserting expected frames between existing frames. A suitable method is to predict intermediate frames using bi-directional block motion estimation, thereby searching for linear motion between the preceding and succeeding frames of the input video sequence. It is possible to use non-linear methods that can represent acceleration, but linear methods are used because they are simple and not so complex. The intermediate frame is divided into blocks, and each block needs to be assigned a motion vector in some way.

画像の境界に沿って行なわれるフレームレートアップ変換に関する問題が存在する。多くの記録されたビデオシーケンスにおいて、1つ以上の境界に沿う黒色の線が存在する。これは、図1の左側の画像50の右側の境界に沿って見られる。従来のレートアップ変換アルゴリズム(非特許文献1〜3)において、そのような境界の特別な処理は存在しない。その結果、境界領域を指し示す動きベクトルを割り当てると、図1の中央の画像60に示すように、線が背景の動きに追従してエッジからピクチャ内に移動する。   There is a problem with frame rate up conversion performed along image boundaries. In many recorded video sequences, there are black lines along one or more boundaries. This is seen along the right border of the left image 50 of FIG. In the conventional rate-up conversion algorithm (Non-Patent Documents 1 to 3), there is no special processing of such a boundary. As a result, when a motion vector pointing to the boundary region is assigned, the line moves from the edge into the picture following the background motion, as shown in the central image 60 of FIG.

Zhai, J., Yu, K., Li, J., & Li, S., 2005, A Low Complexity Motion Compensated Frame Interpolation Method(低複雑度動き補償フレーム補間法), The 2005 IEEE International Symposium on Circuits and Systems (ISCAS2005)、Kobe, Japan、2005年5月23日〜26日Zhai, J., Yu, K., Li, J., & Li, S., 2005, A Low Complexity Motion Compensated Frame Interpolation Method, The 2005 IEEE International Symposium on Circuits and Systems (ISCAS2005), Kobe, Japan, May 23-26, 2005 Chen, Y.-K., Vetro, Y.-K., Sun H., & Kung S.-Y., 1998, Frame Rate Up-Conversion Using Transmitted True Motion(送信真運動を用いたフレームレートアップ変換), to appear in Proc. of 1998 Workshop on Multimedia Signal Processing、1998年12月Chen, Y.-K., Vetro, Y.-K., Sun H., & Kung S.-Y., 1998, Frame Rate Up-Conversion Using Transmitted True Motion ), To appear in Proc. Of 1998 Workshop on Multimedia Signal Processing, December 1998 Choi, B.T., Lee, S.H., & Ko, S.J., 2000, New frame rate up--conversion using bi-directional motion estimation(双方向動き予測を用いた新たなフレームレートアップ変換), IEEE Trans. Consum. Electron., Volume 46, Number 3、603〜609ページChoi, BT, Lee, SH, & Ko, SJ, 2000, New frame rate up--conversion using bi-directional motion estimation, IEEE Trans. Consum. Electron ., Volume 46, Number 3, pages 603-609

本発明は、従来技術の構成の上記欠点及び他の欠点を克服する。   The present invention overcomes the above and other disadvantages of prior art configurations.

本発明の一般的な目的は、画像又はフレームにおける境界領域識別を提供することである。   A general object of the present invention is to provide boundary region identification in an image or frame.

本発明の特定の目的は、画像要素プロパティ値の判定において境界領域識別を利用するフレーム補間/補外を提供することである。   A particular object of the present invention is to provide frame interpolation / extrapolation that utilizes boundary region identification in determining image element property values.

これらの目的及び他の目的は、添付の請求の範囲により規定されるような本発明により達成される。   These and other objects are achieved by the present invention as defined by the appended claims.

簡単に説明すると、本発明は、画像要素の行及び列を含む画像又はフレームの境界領域を識別することを含む。テストされる行又は列の画像要素のプロパティ値の平均値が計算される。更に、行又は列の画像要素毎のプロパティ値の差分は、画像要素のプロパティ値とテストされる列又は行より画像の中心に近接するのが好ましい隣接行又は列の同一の列又は行に存在する隣接画像要素のプロパティ値との間で判定される。平均差分値は、判定された差分から計算される。現在の行又は列の画像要素は、平均値及び平均差分に基づいて画像の境界領域に属するか又は内部画像領域に属するものとして分類される。   Briefly described, the present invention includes identifying a border region of an image or frame that includes rows and columns of image elements. The average value of the property values of the image elements in the row or column being tested is calculated. Further, the property value difference for each image element in a row or column is in the same column or row of adjacent rows or columns that are preferably closer to the center of the image than the image element property value and the column or row being tested. It is determined between the property values of adjacent image elements. The average difference value is calculated from the determined difference. The image elements in the current row or column are classified as belonging to the border region of the image or to the internal image region based on the average value and the average difference.

好適な一実施形態において、分類パラメータは、好ましくは平均値及び平均差分の加重合計として、平均値及び平均差分に基づいて計算される。このパラメータは閾値と比較され、分類はその比較に基づいて実行される。黒色の境界の場合、テストされる行又は列は、その分類パラメータが閾値を下回る場合は境界行又は列として分類され、それ以外の場合は画像の内部領域に属する。   In a preferred embodiment, the classification parameters are calculated based on the average value and the average difference, preferably as a weighted sum of the average value and the average difference. This parameter is compared to a threshold and classification is performed based on the comparison. In the case of a black border, the row or column being tested is classified as a border row or column if its classification parameter is below the threshold, otherwise it belongs to the inner region of the image.

現在の行又は列が境界行又は列として分類される場合、画像の中心により近接している隣接行又は列は、検査される行又は列が内部の行又は列として分類されるまでテストされるのが好ましい。手順は、画像の全てのエッジに対して繰り返されるのが好ましい。   If the current row or column is classified as a boundary row or column, the adjacent row or column that is closer to the center of the image is tested until the row or column being examined is classified as an internal row or column. Is preferred. The procedure is preferably repeated for all edges of the image.

本発明は、ビデオシーケンス中の利用可能な画像から補間又は補外される画像又はフレームのプロパティ値を判定する時に画像要素分類を利用することを更に含む。そのような場合、補間/補外画像の画像要素のグループは、ビデオシーケンスの第1の画像の第1のグループのプロパティ値及びビデオシーケンスの第2の画像の第2のグループのプロパティ値に基づいて判定される。しかし、補間/補外グループのプロパティ値を計算する時、境界画像要素として識別されない第1のグループ及び第2のグループの画像要素のみが使用される。これにより、構成された画像の内部領域内に境界領域を移動することが防止される。   The present invention further includes utilizing image element classification when determining image or frame property values to be interpolated or extrapolated from available images in a video sequence. In such a case, the group of image elements of the interpolated / extrapolated image is based on the property value of the first group of the first image of the video sequence and the property value of the second group of the second image of the video sequence. Is determined. However, when calculating the property values of the interpolation / extrapolation group, only the first group and second group of image elements that are not identified as boundary image elements are used. This prevents the boundary area from moving within the internal area of the constructed image.

本発明は、画像の境界領域を識別し且つ構成された画像のプロパティ値を推定するデバイスを更に含む。   The present invention further includes a device for identifying a border region of the image and estimating a property value of the constructed image.

本発明は、添付の図面と共に以下の説明を参照することにより、本発明の更なる目的及び利点と共に最もよく理解されるだろう。
従来技術に係る補間及び補外画像に現れる境界線の問題を示す図である。 本発明の一実施形態に係る境界領域識別方法を示すフローチャートである。 図2の識別方法の分類ステップの一実施形態を示すフローチャートである。 境界領域と関係する画像の一部分を示す拡大図である。 図2の識別方法の追加のステップを示すフローチャートである。 図2の識別方法の追加のステップを示すフローチャートである。 本発明の一実施形態に係る画素値を判定する方法を示すフローチャートである。 図7の提供ステップ及び識別ステップの一実施形態を更に詳細に示すフローチャートである。 先行画像及び後続画像の画素値の補間を概略的に示す図である。 図7の判定方法の追加のステップを示すフローチャートである。 本発明の一実施形態に係る領域識別器を示す概略ブロック図である。 本発明の一実施形態に係るグループ判定デバイスを示す概略ブロック図である。 本発明に従って中央の図が補間されている図1の図を示す図である。
The invention will be best understood with further objects and advantages of the invention by reference to the following description taken in conjunction with the accompanying drawings.
It is a figure which shows the problem of the boundary line which appears in the interpolation and extrapolation image which concern on a prior art. It is a flowchart which shows the boundary area identification method which concerns on one Embodiment of this invention. It is a flowchart which shows one Embodiment of the classification | category step of the identification method of FIG. It is an enlarged view which shows a part of image related to a boundary area | region. 3 is a flowchart showing additional steps of the identification method of FIG. 3 is a flowchart showing additional steps of the identification method of FIG. 4 is a flowchart illustrating a method for determining a pixel value according to an embodiment of the present invention. 8 is a flowchart illustrating in more detail one embodiment of the providing and identifying steps of FIG. It is a figure which shows roughly the interpolation of the pixel value of a preceding image and a subsequent image. It is a flowchart which shows the additional step of the determination method of FIG. It is a schematic block diagram which shows the area | region discriminator which concerns on one Embodiment of this invention. It is a schematic block diagram which shows the group determination device which concerns on one Embodiment of this invention. FIG. 2 shows the diagram of FIG. 1 with the central diagram interpolated according to the present invention.

図中、同一の図中記号が対応する要素又は類似する要素に対して使用される。   In the figures, the same reference symbols are used for corresponding or similar elements.

本発明は、一般に画像処理に関し、特にビデオシーケンスの画像フレーム等の画像の境界領域を識別する方法及びデバイスに関する。   The present invention relates generally to image processing, and more particularly to a method and device for identifying border regions of an image, such as an image frame of a video sequence.

従来技術において周知のように、多くの画像等は、その1つ以上の辺に境界を含むことが多い。この現象を図1の左側の画像50に示す。図から分かるように、画像の右側の垂直な辺に沿う黒色の線が存在する。そのような境界は、画像記録処理又はデバイスの固有の特徴のために存在する。更に、「通常」の画面からワイドスクリーン又はワイドスクリーンから「通常」の画面に移る時等、異なる画像形式間のトランスコーディング中に、境界は画像に追加される。   As is well known in the prior art, many images and the like often include a boundary on one or more sides thereof. This phenomenon is shown in the image 50 on the left side of FIG. As can be seen, there is a black line along the right vertical side of the image. Such boundaries exist because of image recording processes or inherent features of the device. In addition, boundaries are added to the image during transcoding between different image formats, such as when going from a “normal” screen to a widescreen or from a widescreen to a “normal” screen.

画像50に少なくとも1つの境界が含まれることにより、画像50又は画像50を含むフレーム/ビデオシーケンスの更なる処理において問題が生じる。例えば、フレームレートアップ変換中、中間画像60はビデオシーケンス中の元の画像40、50に基づいて生成され、フレームレートを増加する。そのような中間画像60の画素値は、隣接画像40、50の対応する画素値から判定、すなわち補間又は補外される。図1に示すように、この画素値判定において使用される少なくとも1つの画像50に境界が含まれることにより、境界線は、画像50、60、40間を移動する時の背景の動きに追従し、補間/補外画像60に無作為に現れる可能性がある。   The inclusion of at least one boundary in the image 50 creates problems in the further processing of the image 50 or a frame / video sequence that includes the image 50. For example, during frame rate up conversion, the intermediate image 60 is generated based on the original images 40, 50 in the video sequence, increasing the frame rate. Such pixel values of the intermediate image 60 are determined from the corresponding pixel values of the adjacent images 40, 50, ie, interpolated or extrapolated. As shown in FIG. 1, since the boundary is included in at least one image 50 used in this pixel value determination, the boundary follows the movement of the background when moving between the images 50, 60, 40. May appear randomly in the interpolated / extrapolated image 60.

従って、画像又はフレームの境界画素及び境界領域の識別は重要であり、それにより、例えば境界を含む少なくとも1つの画像又はフレームを含むビデオシーケンスのフレームレートアップ変換に関連して大きな利点が得られる。   Thus, the identification of border pixels and border regions of an image or frame is important, which provides significant advantages in connection with, for example, frame rate up conversion of a video sequence that includes at least one image or frame that includes a boundary.

本発明において、ビデオ又はフレームシーケンスは、複数、すなわち少なくとも2つのフレーム又は画像を含む。また、そのようなフレームは、一連の1つ以上のスライスから構成されると考えられ、そのようなスライスは、画像要素又は画素の1つ以上のマクロブロックから構成される。本発明において、表現「画像要素」は、シーケンス中のフレーム又は画像の最小要素を示すために使用される。そのような画像要素は、色(赤色、緑色、青色、すなわちRGB空間における)又は輝度(Y)及びクロミナンス(Cr、Cb又はU、Vで示される場合もある)等の関連する画像要素プロパティを有する。画像要素の一般的な一例は、フレーム又はピクチャの画素である。本発明は、所定のフレームレートの複数の連続フレームを含むビデオシーケンスに特に適応される。   In the present invention, a video or frame sequence comprises a plurality, ie at least two frames or images. Also, such a frame is considered to be composed of a series of one or more slices, such a slice being composed of one or more macroblocks of image elements or pixels. In the present invention, the expression “image element” is used to indicate the smallest element of a frame or image in a sequence. Such image elements have associated image element properties such as color (red, green, blue, i.e. in RGB space) or luminance (Y) and chrominance (sometimes indicated by Cr, Cb or U, V). Have. A common example of an image element is a frame or picture pixel. The present invention is particularly adapted to video sequences that include a plurality of consecutive frames of a predetermined frame rate.

画像要素は、画像要素のグループに編成される。表現「画像要素のグループ」は、復号化及び符号化中に共に処理される画像要素の集合へのフレーム及びスライスの任意の従来の周知の区画を示す。一般に、そのようなグループは、画像要素の矩形(M×N)又は正方形(M×M)グループである。そのようなグループ化の一例は、ビデオ圧縮規格におけるマクロブロックである。そのようなマクロブロックは、一般に16×16の画像要素のサイズを有する。マクロブロックは、16×8、8×16、8×8、8×4、4×8、及び4×4の画像要素等の複数のいわゆるサブマクロブロック区画から成る。8×8サブマクロブロック区画はサブマクロブロック又はサブブロックとして示される場合が多く、4×4区画はブロックとして示される場合が多い。   The image elements are organized into groups of image elements. The expression “group of image elements” refers to any conventional well-known partition of frames and slices into a set of image elements that are processed together during decoding and encoding. In general, such groups are rectangular (M × N) or square (M × M) groups of image elements. An example of such a grouping is a macroblock in the video compression standard. Such macroblocks typically have a size of 16x16 image elements. A macroblock consists of a plurality of so-called sub-macroblock partitions such as 16 × 8, 8 × 16, 8 × 8, 8 × 4, 4 × 8, and 4 × 4 image elements. The 8 × 8 sub-macroblock partition is often indicated as a sub-macroblock or sub-block, and the 4 × 4 partition is often indicated as a block.

本発明の境界を有する画像は、全てのエッジに境界線を有し、基本的に画像の周囲にフレームを構成できる。あるいは、通常の形式とワイドスクリーン形式との切替時等に境界線は画像の向かい合うエッジに存在してもよい。更に境界線は、図1に示すように単一の画像エッジに沿って存在してもよい。従って、本発明に係る画像の境界領域は、画像の1つ以上のエッジに存在する1つ以上の画像要素行、1つ以上の画像要素列又は1つ以上の画像要素行及び列を含む。   An image having a boundary according to the present invention has boundary lines at all edges, and can basically constitute a frame around the image. Alternatively, the boundary line may exist at the opposite edges of the image when switching between the normal format and the wide screen format. In addition, the boundary line may exist along a single image edge as shown in FIG. Accordingly, the border region of an image according to the present invention includes one or more image element rows, one or more image element columns, or one or more image element rows and columns present at one or more edges of the image.

従来技術において周知のように、境界領域又は境界線は、一般に黒色か又は非常に暗い色である。すなわち、ゼロ輝度又は低輝度を有する。本発明によると、境界領域は画像の1つ以上のエッジに沿い且つ比較的同様の色又は輝度値を有する任意の領域である。殆どの実際的な応用例において、境界領域は黒色(ゼロ輝度)又は少なくとも暗い色(低輝度値)である。しかし、本発明の教示は、例えば白色(一般に2輝度レベルの場合に255である最大輝度)又は明るい色(高輝度値)の他の「一色」の領域を識別するためにも利用される。 As is well known in the prior art, the border region or border is generally black or a very dark color. That is, it has zero luminance or low luminance. According to the present invention, a border region is any region along one or more edges of an image and having a relatively similar color or brightness value. In most practical applications, the border region is black (zero luminance) or at least a dark color (low luminance value). However, the teachings of the present invention is also used to identify regions of white other "color" of the (generally maximum brightness is 255 in the case of 2 8 luminance levels) or bright colors (high luminance value) e.g. .

図2は、フレーム又はビデオシーケンスの画像等の画像の境界領域を識別する方法を示すフローチャートである。画像は、画像要素の複数の行及び列を含む。方法は、ステップS1において開始し、ステップS1は、画像の第1の行又は第1の列の画像要素のプロパティ値の平均値を計算することを含む。平均値の計算において使用される画像要素のプロパティ値は、上述のように輝度値であるのが好ましいが、本発明はそれに限定されない。以下において、画像の画像要素の列に沿う境界領域の識別に関連して本発明を更に詳細に説明する。その結果、ステップS1は、画像の第1の列のプロパティ値の平均値を計算することを含む。しかし、同一の手順が画像の画像要素の行に更に又は代わりに適用可能である。そのような場合、以下の説明における表現「列」は単純に「行」に置換され、表現「行」は「列」に置換される。   FIG. 2 is a flowchart illustrating a method for identifying a border region of an image, such as a frame or video sequence image. The image includes a plurality of rows and columns of image elements. The method starts in step S1, which includes calculating an average value of property values of image elements in the first row or first column of the image. The property value of the image element used in the calculation of the average value is preferably a luminance value as described above, but the present invention is not limited to this. In the following, the invention will be described in more detail in connection with the identification of boundary regions along a row of image elements of an image. As a result, step S1 includes calculating an average value of the property values of the first column of the image. However, the same procedure can be applied additionally or alternatively to the row of image elements of the image. In such a case, the expression “column” in the following description is simply replaced with “row” and the expression “row” is replaced with “column”.

第1の列は、画像の左側又は右側のエッジに沿う最も外側の列であるのが好ましい。yijが列jの行iに位置する画像要素のプロパティ値を示す場合、ステップS1において列jに対する平均値AVjは以下のように計算される: The first column is preferably the outermost column along the left or right edge of the image. If y ij indicates the property value of the image element located in row i of column j, the average value AV j for column j is calculated in step S1 as follows:

式中、列jはM個の画像要素を含む。平均値AVjは、列jの平均輝度値の表現であるのが好ましい。 Where column j includes M image elements. The average value AV j is preferably a representation of the average luminance value of the column j.

次のステップS2は、列jの各画像要素及び隣接列j+1又はj-1の対応する画像要素に対するプロパティ値の各差分を判定する。プロパティ値の差分は、列j及び隣接列j±1の同一行に存在する画像要素に対して対毎に計算される。列j及び隣接列j±1はM個の画像要素を含むため、ステップS2において、M個のプロパティ値の差分が判定される。   The next step S2 determines each difference in property values for each image element in column j and the corresponding image element in adjacent column j + 1 or j-1. The difference between property values is calculated for each pair of image elements existing in the same row of column j and adjacent column j ± 1. Since the column j and the adjacent column j ± 1 include M image elements, the difference between the M property values is determined in step S2.

隣接列j±1は、列jと比較して画像の中心により近接して位置する隣接列であるのが好ましい。例えば、現在の列jが画像の左側から右側に進む際の第1の列である場合、隣接列j+1は第2の列である。同様に、現在の列jが画像の左側から右側に進む際の最後の列である場合、隣接列j-1は最後から2番目の列である。   The adjacent column j ± 1 is preferably an adjacent column located closer to the center of the image than the column j. For example, when the current column j is the first column when proceeding from the left side to the right side of the image, the adjacent column j + 1 is the second column. Similarly, when the current column j is the last column when proceeding from the left side to the right side of the image, the adjacent column j-1 is the second column from the last.

ステップS3において、平均差分値は、ステップS2で計算されたM個の差分に基づいて計算される。従って、列jに対するこの平均差分ADjは以下のように計算される: In step S3, the average difference value is calculated based on the M differences calculated in step S2. Therefore, the average difference AD j for column j is calculated as follows:

これは、次の列j+1が現在の列jに対して右側に(画像の中心に向かって)位置する場合である。あるいは: This is the case when the next column j + 1 is located to the right of the current column j (towards the center of the image). Or:

これは、次の列j-1が現在の列jに対して左側に(画像の中心に向かって)位置する場合である。平均差分ADjは、2つの隣接列間のプロパティ値、好ましくは輝度値の平均変化量の表現である。 This is the case when the next column j-1 is located to the left of the current column j (towards the center of the image). The average difference AD j is a representation of the average amount of change in property values, preferably luminance values, between two adjacent columns.

その後、ステップS4は、列jの画像要素を画像の境界領域に属するもの又は属さないものとして分類するためにステップS1からの計算された平均値AVj及び平均差分ADjを利用する。 Thereafter, step S4 uses the calculated average value AV j and average difference AD j from step S1 to classify the image elements in column j as belonging or not belonging to the border region of the image.

ステップS4において、現在の列jが画像の境界領域に属するものとして分類される場合、ステップS1〜S4のループは、列j±1の画像要素も境界領域に属するかを調査するために隣接列j±1に対して実行されるのが好ましい。これは、線L1により概略的に示される。この列j±1が平均値AVj±1及び平均差分ADj±1に基づいて境界領域として分類される場合、方法は、テストされる列が境界領域の列として分類されなくなるまで列j±1より画像の中心に近接して位置付けられる次の列j±2に適用される。 In step S4, if the current column j is classified as belonging to the boundary region of the image, the loop of steps S1 to S4 causes the adjacent column to investigate whether the image element of column j ± 1 also belongs to the boundary region. Preferably it is performed on j ± 1. This is schematically indicated by line L1. If this column j ± 1 is classified as a boundary region based on the average value AV j ± 1 and the average difference AD j ± 1 , the method will continue until the column to be tested is no longer classified as a boundary region column. Applies to the next column j ± 2 located closer to the center of the image than 1.

好適な一実施形態において、動作ステップS1〜S4により規定される方法は、画像エッジの1つに沿う最も外側の列又は行である第1の列又は第1の行に適用されるのが好ましい。列又は行が境界領域の列又は行として分類される場合、方法は、先にテスト及び分類された列又は行より画像の中心に近接する次の列又は行を調査することにより継続する。方法は、計算された平均値及び平均差分に基づいて境界領域に属するものとして分類されない列又は行に到達するまで継続する。方法は、反対側の画像エッジの最も外側の列又は行にも適用されるのが好ましい。それらの2つの画像エッジに沿う画像要素がテストされると、方法は残りの2つの画像エッジに対して適用されるのが好ましい。既にテストされた画像要素アレイが列(又は行)であった場合、残りの2つの画像エッジは行(又は列)となる。換言すると、図2に開示される本発明の境界領域識別方法は、全ての4つの画像エッジに沿う行及び列を調査するために適用されるのが好ましい。画像エッジがテストされる特定の順序は、並列であっても直列であっても、本発明の教示には重要ではない。   In a preferred embodiment, the method defined by the operation steps S1-S4 is preferably applied to the first column or first row, which is the outermost column or row along one of the image edges. . If the column or row is classified as a border region column or row, the method continues by examining the next column or row closer to the center of the image than the previously tested and classified column or row. The method continues until a column or row is reached that is not classified as belonging to the boundary region based on the calculated average value and average difference. The method is preferably also applied to the outermost column or row of the opposite image edge. When image elements along those two image edges are tested, the method is preferably applied to the remaining two image edges. If the image element array that has already been tested is a column (or row), the remaining two image edges are rows (or columns). In other words, the boundary region identification method of the present invention disclosed in FIG. 2 is preferably applied to examine rows and columns along all four image edges. The particular order in which the image edges are tested, whether parallel or serial, is not important to the teachings of the present invention.

例えば、現在の行iがテストされる場合、行iの画像要素のプロパティ値の平均値AViが計算される。プロパティ値の差分は、現在の行iの画像要素及び隣接行i±1の同一列に存在する画像要素に対して判定される。ここで、隣接行i±1は現在の行iより画像の中心に近接する。そのような差分は、行iの画像要素毎に判定される。平均差分ADiは、それらの判定された差分に基づいて計算される。現在の行iの画像要素は、計算された平均値AVi及び平均差分ADiに基づいて画像の境界領域に属するもの又は内部領域に属するものとして分類される。 For example, if the current row i is tested, the average value AV i of the property values of the image elements in row i is calculated. The difference between the property values is determined for the image element in the current row i and the image element existing in the same column in the adjacent row i ± 1. Here, the adjacent row i ± 1 is closer to the center of the image than the current row i. Such a difference is determined for each image element in row i. The average difference AD i is calculated based on those determined differences. The image element in the current row i is classified as belonging to the boundary region of the image or belonging to the inner region based on the calculated average value AV i and average difference AD i .

図3は、図2の分類ステップS4の好適な一実施形態を示すフローチャートである。方法は、図2のステップS3から継続する。次のステップS10において、分類パラメータCPjは、現在の列jに対する平均値AVj及び平均差分ADjに基づいて計算される。ステップS10の計算は、平均値及び平均差分の加重合計としてパラメータを計算することを含むのが好ましい:
CPj=αAVj+βADj (4)
式中、α及びβは2つの非ゼロ重みであり、好適な一実施形態において、双方は同等、すなわちα=βであり、更に好ましくはα=β=1である。式1、式2及び式4を組み合わせることにより、分類パラメータに対する以下の式が得られる:
FIG. 3 is a flowchart showing a preferred embodiment of the classification step S4 of FIG. The method continues from step S3 of FIG. In the next step S10, the classification parameter CP j is calculated based on the average value AV j and the average difference AD j for the current column j. The calculation of step S10 preferably includes calculating the parameters as a weighted sum of the average value and the average difference:
CP j = αAV j + βAD j (4)
Where α and β are two non-zero weights, and in a preferred embodiment both are equivalent, ie α = β, more preferably α = β = 1. Combining Equation 1, Equation 2, and Equation 4 yields the following equation for the classification parameter:

式1、式3及び式4を組み合わせることにより、以下の対応する式が得られる: By combining Equation 1, Equation 3 and Equation 4, the following corresponding equations are obtained:

好適な画像要素プロパティとして輝度を利用する実施形態において、低輝度、すなわち黒色又は黒色に近い色の画像要素を有する列jは、比較的小さい、すなわちゼロに近い平均値AVjを有する。同様に、明るい画像要素又は変動する輝度値を有する列jは、比較的大きい平均値AVjを有する。更に、現在の列jと隣接列j±1との輝度の差分が小さい場合、すなわちそれらの列が同一又は略同一の輝度である場合、列jに対する平均差分ADjはゼロであるか又はゼロに近い。しかし、隣接列j±1が高輝度である場合、平均差分ADjは負になる。 In embodiments that utilize luminance as the preferred image element property, column j with image elements of low luminance, i.e. black or near black, has an average value AV j that is relatively small, i.e. close to zero. Similarly, columns j with bright image elements or varying luminance values have a relatively large average value AV j . Further, if the difference in luminance between the current column j and the adjacent column j ± 1 is small, that is, if the columns have the same or substantially the same luminance, the average difference AD j with respect to the column j is zero or zero. Close to. However, when the adjacent column j ± 1 has high luminance, the average difference AD j is negative.

好ましくは上記式4〜式6の任意の式に従ってステップS10で計算される分類パラメータは、ステップS11において閾値T1と比較される。現在の列jの画像要素の分類は、この閾値の比較に基づいて実行される。好適な一実現例において、分類パラメータが閾値より小さい場合、ステップS12において列jは境界領域として分類される。それ以外の場合、すなわち分類パラメータが閾値を上回る(又は閾値と等しい)場合、ステップS13において列jは非境界、すなわち内部領域に属するものとして分類される。   Preferably, the classification parameter calculated in step S10 according to any of the above equations 4 to 6 is compared with the threshold T1 in step S11. The classification of the image elements in the current column j is performed based on this threshold comparison. In a preferred implementation, if the classification parameter is less than the threshold, column j is classified as a boundary region in step S12. In other cases, that is, when the classification parameter exceeds the threshold (or is equal to the threshold), the column j is classified as belonging to a non-boundary, that is, an internal region in step S13.

従って、暗い(低輝度の)画像要素を有し且つ/又は列jとその隣接列j±1との輝度の平均差分が負、すなわち隣接列j±1が比較的明るい(高輝度の)画像要素を有する列jは、閾値の実際の値に依存して境界領域として分類される。明るい列j(高輝度)及び/又は比較的暗い(低輝度の)隣接列j±1を有する列jは、画像の内部領域に属するものとして分類される可能性が更に高い。   Thus, an image having dark (low luminance) image elements and / or an average difference in luminance between column j and its adjacent column j ± 1 is negative, that is, adjacent column j ± 1 is relatively bright (high luminance). Column j with elements is classified as a boundary region depending on the actual value of the threshold. A column j having a bright column j (high luminance) and / or a relatively dark (low luminance) adjacent column j ± 1 is more likely to be classified as belonging to an internal region of the image.

ステップS12において列jが境界列として分類される場合、現在の列jより画像の中心に1段階近いすぐ隣の列j+1又はj-1を分類するために図2のステップS1に継続するのが好ましい。この分類は、テストされる列が内部領域の列として分類されるまで画像の中心に向かって列毎に繰り返されるのが好ましい。画像の次の列のエッジは、上述したように行の2つのエッジと同様にテストされるのが好ましい。現在の列がステップS13において内部の列として分類される場合、方法は、全ての画像エッジがテストされた時には終了し、あるいは他方の水平又は垂直の画像エッジをテストするために図2のステップS1に継続する。   If column j is classified as a boundary column in step S12, continue to step S1 in FIG. 2 to classify the immediately adjacent column j + 1 or j-1 closer to the center of the image than the current column j by one step. Is preferred. This classification is preferably repeated for each column toward the center of the image until the column being tested is classified as a column in the inner region. The next column edge of the image is preferably tested in the same manner as the two edges of the row as described above. If the current column is classified as an internal column in step S13, the method ends when all image edges have been tested, or step S1 of FIG. 2 to test the other horizontal or vertical image edge. To continue.

境界領域が白色の線、すなわち高輝度を有する線に対応する場合、列(又は行)は、境界列(又は行)として分類され、計算された分類パラメータが規定の閾値を上回る場合、列(又は行)は内部領域の列(又は行)である。   If the boundary region corresponds to a white line, i.e. a line with high brightness, the column (or row) is classified as a boundary column (or row), and if the calculated classification parameter is above a prescribed threshold, the column (or (Or row) is a column (or row) of the inner region.

ステップS11の比較において利用される閾値は、テスト手順を介して判定されるのが好ましく、種々の入力画像は、本発明のアルゴリズムにより分類される。オペレータにより、閾値は、通常は画像の列及び行を境界領域又は内部領域として適切に分類する特定の値に調整又は設定される。そのようなテスト手順が実行され、適切な候補として24の閾値が与えられる。しかし、本発明はこの特定の値に限定されない。   The threshold used in the comparison of step S11 is preferably determined through a test procedure, and the various input images are classified by the algorithm of the present invention. The threshold is usually adjusted or set by the operator to a specific value that appropriately classifies the columns and rows of the image as boundary or internal regions. Such a test procedure is performed and given a threshold of 24 as suitable candidates. However, the present invention is not limited to this specific value.

より複雑な実施形態において、閾値は現在の画像の画像要素のプロパティに基づいて調整又は設定される。この手順を図5に示す。方法は、ステップS20において開始する。ステップS20において、画像要素の平均プロパティ値APVが画像に対して判定される:   In more complex embodiments, the threshold is adjusted or set based on the properties of the image elements of the current image. This procedure is shown in FIG. The method starts at step S20. In step S20, the average property value APV of the image elements is determined for the image:

式中、画像はM行N列の画像要素を含み、各画像要素は画像要素プロパティ値yijを有する。次のステップS21は、計算された平均プロパティ値に基づいて閾値T1を判定又は調整する。その後、図2のステップS1に継続する。 Where the image includes M rows and N columns of image elements, each image element having an image element property value y ij . The next step S21 determines or adjusts the threshold T1 based on the calculated average property value. Then, it continues to step S1 of FIG.

本実施形態は、画像の特定のプロパティ値に基づいて閾値を調整又は設定するという利点を有する。これは、より明るい画像と比較して、異なる閾値が非常に低い輝度の画像要素を有する暗い画像に対して使用されることを意味する。ここで、画像要素は比較的大きい輝度値を有する。先の例において、閾値はより明るい画像に対して使用される閾値と比較して小さいのが好ましい。   This embodiment has the advantage of adjusting or setting the threshold based on specific property values of the image. This means that different thresholds are used for dark images with very low brightness image elements compared to brighter images. Here, the image element has a relatively large luminance value. In the previous example, the threshold is preferably small compared to the threshold used for brighter images.

本実施形態において、平均プロパティ値の種々の間隔に対して適応される利用可能な種々の閾値の集合が存在する。例えば、0≦APV<k1の場合、第1の閾値が利用され、k1≦APV<k2の場合、好ましくはより大きい第2の閾値が使用される。ステップS21は、現在の平均プロパティ値が入る間隔をチェックすることを含み、その間隔に関連付けられるか又は割り当てられる閾値を使用する。 In this embodiment, there are different sets of thresholds available that are adapted for different intervals of average property values. For example, if 0 ≦ APV <k 1 , the first threshold is used, and if k 1 ≦ APV <k 2 , the larger second threshold is preferably used. Step S21 includes checking an interval that contains the current average property value and using a threshold associated with or assigned to that interval.

別の可能な実現例は、24等のデフォルトの閾値を有し、以下のように判定された平均プロパティ値に基づいてその値を調整することである:
T1=DT−κ(DV−AVP) (8)
又は
T1=DT×κ×AVP/DV (9)
式中、DTはデフォルトの閾値であり、κは1又は他のゼロでない正数である非ゼロ重みである。DVは、画像の計算された平均プロパティ値が閾値調整において比較される対象となるデフォルト値である。式8及び式9の双方において、より暗い画像はより明るい画像と比較して小さく調整された閾値を有する。
Another possible implementation is to have a default threshold, such as 24, and adjust that value based on the average property value determined as follows:
T1 = DT−κ (DV−AVP) (8)
Or
T1 = DT × κ × AVP / DV (9)
Where DT is the default threshold and κ is a non-zero weight that is one or other non-zero positive number. DV is the default value against which the calculated average property value of the image is compared in the threshold adjustment. In both Equation 8 and Equation 9, the darker image has a threshold that is adjusted smaller than the lighter image.

図4は、本発明に従って識別可能な境界領域70を有する画像40の一部分を示す概略図である。図中、画像要素30の5つの列10〜16(5つのうち4つが図中符号を割り当てられている)を示す。右側の列10は、エッジ列、すなわち画像40の最も右側の列10である。図から分かるように、列10の画像要素30は明らかに境界領域70を形成する黒色の線の一部である。これは、列10の全ての画像要素30が黒色又は黒色に非常に近いため明らかである。更に、隣接列12の画像要素は、同一行の画像要素と比較するとより大きい輝度値を有する。その結果、列10に対する分類パラメータは実際にはゼロより小さい。外側から2番目の列12は先行列10と同一のゼロ輝度を有さない。しかし、その列12の画像要素30は、次の列14と比較すると負の平均差分を与えるため、依然として境界領域70に属するものとして分類される。その結果、列12に対する分類パラメータも閾値より小さい。   FIG. 4 is a schematic diagram illustrating a portion of an image 40 having a border region 70 that is identifiable in accordance with the present invention. In the figure, five columns 10 to 16 of image elements 30 (four of the five are assigned reference numerals in the figure) are shown. The right column 10 is the edge column, that is, the rightmost column 10 of the image 40. As can be seen, the image elements 30 in column 10 are clearly part of the black line that forms the border region 70. This is evident because all image elements 30 in column 10 are black or very close to black. Further, the image elements in adjacent column 12 have a larger luminance value when compared to image elements in the same row. As a result, the classification parameter for column 10 is actually less than zero. The second column 12 from the outside does not have the same zero luminance as the previous matrix 10. However, the image element 30 in that column 12 is still classified as belonging to the border region 70 because it gives a negative average difference when compared to the next column 14. As a result, the classification parameter for column 12 is also less than the threshold.

しかし、次の列14は更に明るい画像要素30を有する。更に、列14及び画像の中心に1段階近い隣接列16に対する輝度値の対毎の差分は、列14の分類パラメータが閾値より小さくなるように列14の平均輝度を減少させるのに十分なほど負ではない。その結果、この列14は画像40の内部画像75に属するものとして分類される。   However, the next column 14 has brighter image elements 30. Furthermore, the pairwise difference in luminance values for column 14 and adjacent column 16 that is one step closer to the center of the image is sufficient to reduce the average luminance of column 14 such that the classification parameter of column 14 is less than the threshold. Not negative. As a result, this column 14 is classified as belonging to the internal image 75 of the image 40.

従って、本発明は、分類パラメータの平均差分値を使用して、全ての画像要素30が黒色ではないが画像要素30の列12(又は行)を境界領域70に属するものとして識別及び分類できる。この列12全体が黒色ではないが、列12が黒色の線70の一部として識別及びラベル付けされることが重要である。そのように識別及びラベル付けされない場合、画像コンテンツより暗いためにフレームレートアップ変換中に中間画像にアーティファクトを生じる可能性がある。   Therefore, the present invention can identify and classify columns 12 (or rows) of image elements 30 as belonging to boundary region 70, although not all image elements 30 are black, using the average difference value of the classification parameters. Although this entire column 12 is not black, it is important that the column 12 be identified and labeled as part of the black line 70. If not so identified and labeled, it may cause artifacts in the intermediate image during frame rate up conversion because it is darker than the image content.

図6は、図2の識別方法の追加のステップを示す。方法は、列(又は行)が画像の境界領域に属するものとして識別された図2のステップS4から継続する。次のステップS30は、現在の列jの画像要素及び同一列jの隣接画像要素のプロパティ値の第1の差分FDを計算する:
FD=yij−y(i±1)j (10)
従って、画像要素が列jの行iに存在する場合、隣接画像要素は列jの行i+1又はi-1に存在する。ステップS31において、第2の差分SDは、画像要素のプロパティ値と列jのプロパティ値の平均値AVjとの間で計算される:
FIG. 6 shows additional steps of the identification method of FIG. The method continues from step S4 of FIG. 2 where a column (or row) has been identified as belonging to the border region of the image. The next step S30 calculates a first difference FD between the property values of the current image element in column j and the adjacent image element in the same column j:
FD = y ij −y (i ± 1) j (10)
Thus, if an image element is in row i of column j, an adjacent image element is in row i + 1 or i-1 of column j. In step S31, the second difference SD is calculated between the property value of the image element and the average value AV j of the property values of the column j:

第1の差分が第2の差分と最大閾値以上異なる場合、現在の画像要素は、境界領域ではなく内部領域に属するものとして再分類される。例えばこの比較は、ステップS32に示すように実行される。ステップS32において、第1の差分と第2の差分との差分の絶対値が最大閾値T2と比較される。絶対値が閾値以下である場合、画像要素は依然として境界画像要素と考えられ、方法は終了する。しかし、絶対値が閾値を上回る場合、ステップ33に継続し、画像要素は内部画像領域に属するものとして再分類される。更なる可能な比較は、第1の差分及び第2の差分の商又は第1の差分の絶対値及び第2の差分の絶対値の商を計算することである。その後、商は閾値と比較される。   If the first difference is different from the second difference by more than the maximum threshold, the current image element is reclassified as belonging to the internal region instead of the boundary region. For example, this comparison is performed as shown in step S32. In step S32, the absolute value of the difference between the first difference and the second difference is compared with the maximum threshold T2. If the absolute value is below the threshold value, the image element is still considered a border image element and the method ends. However, if the absolute value exceeds the threshold, then continue to step 33 and the image element is reclassified as belonging to the internal image area. A further possible comparison is to calculate the quotient of the first difference and the second difference or the absolute value of the first difference and the absolute value of the second difference. The quotient is then compared to a threshold value.

ステップS33の別の一実施形態において、調査された画像要素だけでなく列全体が内部画像領域に属するものとして再分類される。これは、先に境界領域の列として分類された列がステップS33で再分類される少なくとも1つの画像要素、あるいは少なくとも最小倍数の画像要素を含む場合、列全体が内部領域の列として再分類されることを意味する。これにより、列の画像要素の一部が境界領域として分類され且つ他の画像要素が内部画像領域の一部として考えられる断続的な列は防止される。   In another embodiment of step S33, not only the examined image element, but the entire column is reclassified as belonging to the internal image region. This is because if the column previously classified as the boundary region column includes at least one image element to be reclassified in step S33, or at least the minimum multiple image element, the entire column is reclassified as the inner region column. Means that. This prevents intermittent columns where some of the image elements in the column are classified as boundary regions and other image elements are considered as part of the internal image region.

このオプションの好適な再分類の実施形態は、画像エッジと関連する局所的な変化を区別するために使用される。従って、画像エッジに近接する画像の内部領域は夜空を示すなど比較的暗い可能性があるが、この画像の一部分は暗い空の星又は月に対応する画像要素等の非常に明るい画像要素を含む。そのような場合、星又は月に対応する列の1つ以上の画像要素の高輝度は、特に閾値の適応が利用されない場合、閾値を上回る分類パラメータを得て内部領域として列を分類するのに十分でない可能性がある。上述され且つ図6に開示される方法の追加のチェックは、「困難な」暗い画像と関係して発生するそのような間違った分類を訂正するために利用される。   This optional preferred reclassification embodiment is used to distinguish local changes associated with image edges. Thus, the inner area of the image close to the image edge may be relatively dark, such as showing the night sky, but a portion of this image contains very bright image elements such as image elements corresponding to dark sky stars or the moon. . In such a case, the high brightness of one or more image elements in the column corresponding to a star or moon can be used to obtain a classification parameter above the threshold and classify the column as an internal region, especially if threshold adaptation is not used. It may not be enough. An additional check of the method described above and disclosed in FIG. 6 is utilized to correct such erroneous classifications that occur in connection with “difficult” dark images.

上述され且つ図6に提示される方法は、現在の列jの全ての画像要素に対して繰り返されるのが好ましい。好適な一実施形態において、方法は列jの第1のy0j(又は最後のy(M-1)j)画像要素から開始し、その画像要素は、ステップS30において列jの次の画像要素y1j(又はy(M-2)j)と比較される。列j全体が再分類されるのと同様に、図6に係る再分類を必要とする画像要素が識別されると、現在の列jの画像要素の調査は必要に応じて終了する。更に、図6に示す動作ステップは、最初に境界領域に属するものとして分類された全ての列及び/又は行に対して繰り返されるのが好ましい。 The method described above and presented in FIG. 6 is preferably repeated for all image elements in the current column j. In a preferred embodiment, the method starts with the first y 0j (or last y (M−1) j ) image element in column j, which is the next image element in column j in step S30. Compared with y 1j (or y (M-2) j ). As with the entire column j being reclassified, once the image elements that require reclassification according to FIG. 6 have been identified, the investigation of the image elements in the current column j ends as necessary. Further, the operational steps shown in FIG. 6 are preferably repeated for all columns and / or rows initially classified as belonging to the boundary region.

特に本発明の分類は、境界領域又は黒色の線が補間又は補外された画像又はフレーム内に現れるのを防止するためのフレームレートアップ変換に関係する利点を有する。   In particular, the classification of the present invention has the advantages associated with frame rate up conversion to prevent border regions or black lines from appearing in interpolated or extrapolated images or frames.

図7は、ビデオシーケンスの時刻と関連付けられる画像又はフレームの少なくとも1つの画像要素のグループのプロパティ値を推定する方法を示すフローチャートである。この推定は、フレーム補間又は補外により1つ以上のフレームをビデオシーケンスに追加するためのフレームレートアップ変換手順の一部として実行されるのが好ましい。   FIG. 7 is a flowchart illustrating a method for estimating a property value of a group of at least one image element of an image or frame associated with a time of a video sequence. This estimation is preferably performed as part of a frame rate up-conversion procedure for adding one or more frames to the video sequence by frame interpolation or extrapolation.

方法は、オプションのステップS40から開始し、推定に使用するビデオシーケンスの少なくとも2つの画像が識別される。一般的な一実施形態において、1つの画像は補間される中間画像に対して先行する時刻に対応し、他の画像はシーケンスの後続する時刻に対応する。好適な一実施形態において、2つの画像は、時間に関して中間画像の直前及び直後に位置する画像である。換言すると、画像は隣接画像として考えられる。この画像補間において、3つ以上の画像が実際に使用される。例えば、時刻tkの画像を補間するために、時刻tk-1、tk-3、...、tk+1-2Pに対応するP個の先行画像及び時刻tk+1、tk+3、...、tk-1+2Qに対応するQ個の後続画像が使用される。 The method starts with an optional step S40 and at least two images of the video sequence used for estimation are identified. In one general embodiment, one image corresponds to the preceding time for the interpolated intermediate image and the other image corresponds to the subsequent time in the sequence. In a preferred embodiment, the two images are images located immediately before and immediately after the intermediate image with respect to time. In other words, the image can be considered as an adjacent image. In this image interpolation, three or more images are actually used. For example, in order to interpolate an image at time t k, the time t k-1, t k- 3,. . . , T k + 1-2P corresponding to P preceding images and times t k + 1 , t k + 3 ,. . . , T subsequent images corresponding to t k-1 + 2Q are used.

同様に、時刻tkの画像又はフレームを補外する時、時刻tk-1、tk-3、...、tk+1-2Pの2つ以上の先行画像又は時刻tk+1、tk+3、...、tk-1+2Qの2つ以上の後続画像が使用される。 Similarly, when extrapolating the image or frame at time t k, the time t k-1, t k- 3,. . . , T k + 1-2P two or more preceding images or times t k + 1 , t k + 3 ,. . . , T k-1 + 2Q , two or more subsequent images are used.

次のステップS41は、補間又は補外において参照画像として使用される少なくとも2つの画像のうちの少なくとも第1の画像の境界画像要素を識別する。このステップS41は、本明細書において上述したように実行され、黒色の線又は他の境界領域の一部を形成する2つの画像の0個又は1つ以上の画像エッジと関係する任意の画像要素を識別する。   A next step S41 identifies boundary image elements of at least a first image of at least two images used as reference images in interpolation or extrapolation. This step S41 is performed as described above in this specification, and any image element related to zero or one or more image edges of the two images that form part of the black line or other border region Identify.

次のステップS42は、分類された第1の画像の複数の画像要素の第1のグループを提供する。この第1のグループは、ステップS41で境界領域に属するものとして識別された少なくとも1つの画像要素と、ステップS41で第1の画像の境界領域に属さないものとして識別された少なくとも1つの画像要素とを含む。例えば、画像要素グループが4×4の画像要素を含む場合、1つ、2つ又は3つの列及び/又は行の画像要素は境界画像要素として分類され、残りの画像要素は内部画像要素である。   A next step S42 provides a first group of a plurality of image elements of the classified first image. The first group includes at least one image element identified as belonging to the boundary area in step S41, and at least one image element identified as not belonging to the boundary area of the first image in step S41. including. For example, if an image element group includes 4 × 4 image elements, one, two or three column and / or row image elements are classified as boundary image elements, and the remaining image elements are internal image elements. .

ステップS43は、ビデオシーケンスの先行又は後続する時刻と関連付けられる第2の(先行又は後続)画像の少なくとも1つの画像要素の第2のグループを識別する。第2のグループは、第1のグループと関連付けられる変位ベクトルに基づいて識別されるのが好ましい。従って、変位ベクトルは、第2の画像において第1のグループが有していた対応する位置から適用される場合、第2のグループの方向を指し示す。   Step S43 identifies a second group of at least one image element of a second (previous or subsequent) image associated with a preceding or subsequent time of the video sequence. The second group is preferably identified based on a displacement vector associated with the first group. Thus, the displacement vector points in the direction of the second group when applied from the corresponding position that the first group had in the second image.

最後に、補間/補外されるグループのプロパティ値は、第1の画像の境界領域に属さないものとして識別された第1のグループの画像要素のプロパティ値及び第2のグループのプロパティ値に基づいて識別される。ステップS41の境界識別が第2の画像にも適用される場合、ステップS44は、補間/補外されるグループを判定するために、第1の画像の境界領域に属さないものとして識別された画像要素及び第2の画像の境界領域に属さないものとして識別された画像要素を利用することのみを含む。   Finally, the property values of the group to be interpolated / extrapolated are based on the property values of the first group of image elements and the second group of property values identified as not belonging to the boundary region of the first image. Identified. If the boundary identification of step S41 is also applied to the second image, step S44 is an image identified as not belonging to the boundary area of the first image to determine the group to be interpolated / extrapolated. It only involves utilizing the image element identified as not belonging to the border region of the element and the second image.

従って、本発明の画像要素の分類及び識別は、画像要素の補間/補外から境界領域の一部を形成するものとして識別される画像要素を除外するために利用される。これに対して、判定されるグループの画像要素に対するプロパティ値を計算する時、境界領域に属するものとして識別されない画像要素のみが基準画像要素として利用可能である。この境界画像要素の除外により、境界領域(黒色の線)が補間/補外される画像に現れる可能性が低減され、そのようなアーティファクトの発生は非常に減少する。   Accordingly, the classification and identification of the image elements of the present invention is utilized to exclude image elements that are identified as forming part of the boundary region from the interpolation / extrapolation of the image elements. On the other hand, when calculating the property value for the image element of the group to be determined, only the image element that is not identified as belonging to the boundary region can be used as the reference image element. This exclusion of border image elements reduces the likelihood that border regions (black lines) will appear in the interpolated / extrapolated image and greatly reduces the occurrence of such artifacts.

図8は、図7の提供ステップ及び識別ステップの可能な実現例を更に詳細に示す。方法は、図7のステップS41から継続する。次のステップS50は、第1の画像の複数、すなわち少なくとも2つの候補グループの集合を提供する。それらの候補グループの各々は、少なくとも1つの画像要素、一般的には複数の画像要素を含み、各変位表現又はベクトルと関連付けられる。それらの変位ベクトルは、フレームのインター符号化、すなわちビデオコーデックから取り出されるか、あるいは動き推定探索から判定される。   FIG. 8 shows in more detail a possible implementation of the providing and identifying steps of FIG. The method continues from step S41 of FIG. The next step S50 provides a plurality of first images, ie a set of at least two candidate groups. Each of these candidate groups includes at least one image element, typically a plurality of image elements, and is associated with each displacement representation or vector. These displacement vectors are taken from the inter-coding of the frame, ie the video codec, or determined from a motion estimation search.

ステップS51は、線L2により概略的に示されるように候補グループ毎に第2の画像の少なくとも1つの画像要素の各参照グループを識別する。候補グループと関連付けられる参照グループは、候補グループと関連付けられる変位ベクトルに基づいて識別されるのが好ましい。従って、変位ベクトルは、第2の画像において候補グループが有していた対応する位置から適用される場合、参照グループの方向を指し示す。   Step S51 identifies each reference group of at least one image element of the second image for each candidate group as schematically indicated by line L2. The reference group associated with the candidate group is preferably identified based on a displacement vector associated with the candidate group. Therefore, the displacement vector indicates the direction of the reference group when applied from the corresponding position that the candidate group had in the second image.

次のステップS52は、線L2により概略的に示されるように候補グループ毎に候補グループ及びその識別された参照グループの画像要素のプロパティ値の差分を表す差分基準を計算する。好適な一実施形態において、基準は、候補グループ及び参照グループの対応する位置を占める画像要素に対するプロパティ値の差分の絶対値に基づいて計算される。そのような差分基準の好適な例には、従来技術において周知の絶対値差分和(SAD)及び平方差分和(SSD)が含まれる。   The next step S52 calculates a difference criterion representing the difference between the property values of the image elements of the candidate group and its identified reference group for each candidate group as schematically indicated by the line L2. In a preferred embodiment, the criterion is calculated based on the absolute value of the property value difference for image elements occupying corresponding positions in the candidate group and the reference group. Suitable examples of such difference criteria include absolute value difference sum (SAD) and square difference sum (SSD) as known in the prior art.

次のステップS53は、計算された差分基準に基づいて提供されたグループの集合から候補グループを選択する。すなわち、最小SAD又はSSD基準を結果として与える候補グループを選択するのが好ましい。選択した候補グループ及び選択した候補グループと関連付けられる参照グループのプロパティ値に基づいて補間/補外フレームのグループのプロパティ値を判定する図7のステップS44に継続する。好適な一実施形態において、画像要素プロパティ値は、選択した候補グループ及び関連する参照グループのプロパティ値の線形結合として判定される。選択したグループのプロパティ値に適用される任意の重み及び関連するグループのプロパティ値の任意の重みは、それぞれ補間/補外フレームと選択した候補グループを含む第1のフレームとの時間の差分及び補間/補外フレームと第2のフレームとの時間の差分に基づいて判定されるのが好ましい。換言すると、時間の経過がより長い時間の経過と比較して短い場合、より大きい重みが使用される。更にフレームの重みの値は、従来技術において周知のように加速を反映するために利用される。尚、候補グループ及び/又は参照グループの本発明に係る境界画像要素として分類されない画像要素のみがステップS44の判定において利用される。   A next step S53 selects a candidate group from the set of groups provided based on the calculated difference criterion. That is, it is preferable to select a candidate group that results in a minimum SAD or SSD criterion. Continuing to step S44 of FIG. 7 which determines the property value of the group of the interpolated / extrapolated frame based on the selected candidate group and the property value of the reference group associated with the selected candidate group. In a preferred embodiment, the image element property value is determined as a linear combination of the selected candidate group and the associated reference group property values. Arbitrary weights applied to the property values of the selected group and arbitrary weights of the associated group property values are respectively the time difference and interpolation between the interpolated / extrapolated frame and the first frame containing the selected candidate group. / It is preferable to determine based on the time difference between the extrapolated frame and the second frame. In other words, greater weight is used when the passage of time is short compared to the passage of longer time. Further, the frame weight value is used to reflect acceleration as is well known in the prior art. Note that only image elements that are not classified as boundary image elements according to the present invention of candidate groups and / or reference groups are used in the determination in step S44.

上述の実施形態において、候補グループと関連付けられる参照グループは、割り当てられる変位ベクトルに基づいて識別されるか、あるいは候補グループに対して推定される。これは、判定されるグループから参照グループに進む時と同様に、同一のベクトルが候補グループから補間/補外されるグループに移動するために使用されると推定する。しかし、本発明はこれに限定されない。   In the embodiments described above, the reference group associated with the candidate group is identified or estimated relative to the candidate group based on the assigned displacement vector. This assumes that the same vector is used to move from the candidate group to the group to be interpolated / extrapolated, as when proceeding from the determined group to the reference group. However, the present invention is not limited to this.

別の実施形態において、第1のフレームの複数の第1の候補グループの第1の集合が提供されるのと共に、第2のフレームに存在する複数の第2の候補グループの第2の集合は提供される。また、これらの第2の候補グループは、それぞれ少なくとも1つの画像要素を含み、好ましくはそれぞれ変位ベクトルを有する。差分基準は、第1の集合の1つの第1の候補グループ及び第2の集合の1つの第2の候補グループの対毎に計算される。あるいは、第1の候補及び第2の候補の全ての組合せがテストされるわけではなく、それらのうち限定された部分のみがテストされ、第1のフレーム及び第2のフレームの同一のフレーム位置に存在するグループ及び他のフレームの他の候補グループを識別する関連する変位ベクトルを有するグループ等の候補グループの妥当な組合せを反映する。   In another embodiment, a first set of a plurality of first candidate groups in the first frame is provided, and a second set of the plurality of second candidate groups present in the second frame is Provided. Each of these second candidate groups includes at least one image element, and preferably each has a displacement vector. A difference criterion is calculated for each pair of one first candidate group of the first set and one second candidate group of the second set. Alternatively, not all combinations of the first candidate and the second candidate are tested, only a limited portion of them is tested, and at the same frame position of the first frame and the second frame. Reflects reasonable combinations of candidate groups, such as groups with associated displacement vectors that identify existing groups and other candidate groups in other frames.

その後、第1の候補グループ及び第2の候補グループは、差分基準に基づいて選択される。判定されるグループの画像要素プロパティ値は、上述のようにそれらの選択した候補グループのプロパティ値に基づいて計算されるが、2つの候補グループの境界画像要素は除外される。   Thereafter, the first candidate group and the second candidate group are selected based on a difference criterion. The image element property values of the groups to be determined are calculated based on the property values of those selected candidate groups as described above, but the boundary image elements of the two candidate groups are excluded.

図9は、第1のフレーム40、第2のフレーム50及びフレームレートアップ変換中に判定される中間フレーム60を有するビデオシーケンス1の一部分を示す。判定される画像要素のグループ62は、中間フレーム60に示される。適切な第1の候補グループ42、44、46を第1のフレーム40に示し、対応する第2の候補グループ52、54、56を第2のフレーム50に示す。一般的にこれらの候補グループは、グループ62が中間フレーム60において有する位置と対応する位置を第1のフレーム40及び第2のフレーム50に有するグループ42、52を含む。それらのグループ42、52の変位ベクトル41、51は図示されており、判定されるグループ62を通過する。他の候補は、対応する位置を有する候補グループ42、52の隣接グループ44、54を含む。また、中間フレーム60のグループ62を通過する関連する変位ベクトル43、53を有するグループ46、56は、本発明に係る好適な候補グループである。   FIG. 9 shows a portion of video sequence 1 having a first frame 40, a second frame 50 and an intermediate frame 60 determined during frame rate up conversion. The group 62 of image elements to be determined is shown in the intermediate frame 60. A suitable first candidate group 42, 44, 46 is shown in the first frame 40 and a corresponding second candidate group 52, 54, 56 is shown in the second frame 50. Generally, these candidate groups include groups 42 and 52 that have positions in the first frame 40 and the second frame 50 that correspond to the positions that the group 62 has in the intermediate frame 60. The displacement vectors 41, 51 of those groups 42, 52 are shown and pass through the group 62 to be determined. Other candidates include adjacent groups 44, 54 of candidate groups 42, 52 having corresponding positions. Also, the groups 46 and 56 having the associated displacement vectors 43 and 53 passing through the group 62 of the intermediate frame 60 are suitable candidate groups according to the present invention.

図10は、図7の推定方法の追加のステップを示すフローチャートである。方法は、図7のステップS41から継続する。次のステップS60において、第1の画像において識別される境界領域の相対サイズは、第2の画像において識別される境界領域のサイズと比較される。更に、それらの2つの境界領域は、第1の画像及び第2の画像の同一の画像エッジ、すなわち上部の水平エッジ、下部の水平エッジ、左側の垂直エッジ又は右側の垂直エッジに対応する。ステップS60は、2つの境界領域間のサイズの差分SDを計算することを含む。サイズの差分は、2つの境界領域の列数(又は行数)の差分を表せる。あるいは、サイズの差分は、2つの対応する境界領域間の画像要素数の差分の表現である。   FIG. 10 is a flowchart illustrating additional steps of the estimation method of FIG. The method continues from step S41 of FIG. In a next step S60, the relative size of the boundary area identified in the first image is compared with the size of the boundary area identified in the second image. Furthermore, these two border regions correspond to the same image edge of the first image and the second image, ie the upper horizontal edge, the lower horizontal edge, the left vertical edge or the right vertical edge. Step S60 includes calculating a size difference SD between the two boundary regions. The difference in size can represent the difference in the number of columns (or the number of rows) between the two boundary regions. Alternatively, the size difference is a representation of the difference in the number of image elements between two corresponding boundary regions.

ステップS61の比較において、2つの境界領域間のサイズの差分SDが閾値T3以下である場合、図7のステップS42に継続する。しかし、ステップS61において、サイズの差分が閾値を上回る場合、ステップS62に継続し、第2の画像(又は第1の画像)の画像要素の再分類は第1の画像(又は第2の画像)において識別される境界領域のサイズに基づいて実行される。そのような場合、第1の画像(又は第2の画像)の境界領域に属するものとして識別された第1の画像(又は第2の画像)の画像要素と対応する位置を有する第2の画像(又は第1の画像)の画像要素は、第2の画像(又は第1の画像)の境界領域に属するものとして分類される。その後、ステップS42に継続する。   If the size difference SD between the two boundary regions is equal to or smaller than the threshold T3 in the comparison in step S61, the process continues to step S42 in FIG. However, if the size difference exceeds the threshold value in step S61, the process continues to step S62, and the re-classification of the image elements of the second image (or first image) is the first image (or second image). This is performed based on the size of the boundary area identified in. In such a case, the second image having a position corresponding to the image element of the first image (or second image) identified as belonging to the boundary region of the first image (or second image). The image element of (or the first image) is classified as belonging to the boundary region of the second image (or the first image). Then, it continues to step S42.

従って、ステップS60〜S62のこのチェックにより、ビデオシーケンスにおいて1つの画像から次の画像に移動する時に対応する画像エッジの境界領域のサイズが非常に増加するか又は減少するかを調査する。例えば、境界領域のサイズは、第1の画像の1つのエッジに沿う2列であってもよい。しかし、ビデオシーケンスの次の画像は、同一の画像エッジに沿う7列を含むものとして分類された境界領域を有する。そのような場合、内部画像要素の一部が境界画像要素と想定されるため間違って分類されている可能性がある。これは、特に閾値調整が実行されない場合であり、特に画像が夜空を示すなど非常に暗く、そのため内部画像要素と境界画像要素との間の輝度値の差分が殆どない時に起こる。識別された境界領域のサイズを先に分類された画像又は先に分類された複数の画像の対応するサイズと比較することにより、そのような間違った分類は上述し且つ図10に示す手順に従って識別及び訂正される。これは、上述の例を挙げると、第2の画像の境界領域のサイズが第1の画像と対応するサイズ、すなわち2列を有するように再設定されることを意味する。5つの「間違って分類された」列の画像要素は、ステップS62において、境界画像要素ではなく内部画像要素として再分類される。これは、それらの5つの「間違って分類された」列の画像要素がこの時点で内部画像要素と考えられるため、補間/補外において参照画像要素として利用可能であることを意味する。   Therefore, this check in steps S60 to S62 investigates whether the size of the corresponding image edge boundary region is greatly increased or decreased when moving from one image to the next in the video sequence. For example, the size of the boundary region may be two rows along one edge of the first image. However, the next image in the video sequence has a border region that is classified as containing 7 columns along the same image edge. In such a case, a part of the internal image element is assumed to be a boundary image element, and thus may be classified incorrectly. This is particularly the case when threshold adjustment is not performed, especially when the image is very dark, such as showing the night sky, and therefore there is little difference in luminance values between the internal image elements and the boundary image elements. By comparing the size of the identified border region with the corresponding size of the previously classified image or the previously classified images, such incorrect classification is identified according to the procedure described above and shown in FIG. And corrected. In the above example, this means that the size of the boundary region of the second image is reset so as to have a size corresponding to the first image, that is, two columns. The five “misclassified” columns of image elements are reclassified as internal image elements rather than border image elements in step S62. This means that those five “misclassified” columns of image elements can now be used as reference image elements in interpolation / extrapolation because they are considered internal image elements at this point.

図13は、本発明に係る画像分類を利用するフレームレートアップ変換の結果を示す。補間画像60から分かるように、左側の画像50の右側のエッジに存在する境界は、補間画像60の内部領域内に現れない。非常に対照的に、最も外側の右側の列の画像要素を本発明の境界画像要素としてラベル付けすることにより、それらの画像要素は補間から除去され、従来技術を利用する図1の中央の画像に存在する黒色の線が図13の画像60内に現れるのを防止する。非常に対照的に、暗い境界画像は、図中で行なわれてるように、単純に境界画像要素のプロパティ値(輝度)を補間画像60の対応する位置を占める画像要素に割り当てることにより別個に処理される。更に詳細には、補間/補外に使用される2つの参照フレームの境界の最大値と等しい幅を有する境界が作成される。作成された境界領域の画像要素には、参照画像の平均(補間の場合)画像要素値が埋められる。すなわち、動き補償は必要ない。補間画像の境界の位置(i,j)の画像要素は、単純に2つの(先行及び後続)参照フレームの同一の位置を占める2つの画像要素のプロパティ値の平均値として判定される。   FIG. 13 shows the result of frame rate up conversion using image classification according to the present invention. As can be seen from the interpolated image 60, the boundary present at the right edge of the left image 50 does not appear in the internal region of the interpolated image 60. In sharp contrast, by labeling the image elements in the outermost right column as the border image elements of the present invention, those image elements are removed from the interpolation and the middle image of FIG. 1 utilizing the prior art. Are prevented from appearing in the image 60 of FIG. In sharp contrast, dark border images are processed separately by simply assigning property values (brightness) of the border image elements to image elements occupying corresponding positions in the interpolated image 60, as is done in the figure. Is done. More specifically, a boundary having a width equal to the maximum value of the boundary between the two reference frames used for interpolation / extrapolation is created. An average (in the case of interpolation) image element value of the reference image is filled in the created image element of the boundary region. That is, motion compensation is not necessary. The image element at the position (i, j) at the boundary of the interpolated image is simply determined as the average value of the property values of the two image elements occupying the same position in the two (previous and subsequent) reference frames.

フレームレートアップ変換方式における構成されたフレーム又は画像の品質は、本発明を適用することにより向上される。これは、画像境界に近接する領域が更に正確に提示されることを意味する。更に本発明は、(黒色の)線が構成された画像内に移動するのを防止し、全体的により高い品質が体験される。   The quality of the constructed frame or image in the frame rate up-conversion scheme is improved by applying the present invention. This means that the area close to the image boundary is presented more accurately. Furthermore, the present invention prevents the (black) lines from moving into the constructed image, and an overall higher quality is experienced.

図11は、本発明の一実施形態に係る領域識別器100を示す概略ブロック図である。領域識別器100は、現在の行又は列(行/列)の画像要素のプロパティ値の平均値を計算する計算器110を含む。差分判定器120は、行/列の画像要素毎に画像要素及び画像の隣接行/列の同一の列/行に存在する対応する画像要素のプロパティ値の差分を判定するように識別器100に構成される。計算器130は、現在の行/列に対する平均差分を計算するために判定した差分値を使用する。   FIG. 11 is a schematic block diagram showing a region discriminator 100 according to an embodiment of the present invention. The area identifier 100 includes a calculator 110 that calculates an average value of property values of image elements in the current row or column (row / column). The difference determiner 120 causes the discriminator 100 to determine the difference between the property values of the corresponding image element existing in the same column / row of the image element and the adjacent row / column of the image for each row / column image element. Composed. Calculator 130 uses the determined difference value to calculate the average difference for the current row / column.

領域識別器100は、2つの計算器110、130からの平均値及び平均差分に基づいて現在の行/列の画像要素を境界領域又は内部画像領域に属するものとして分類するように構成される分類器140を更に含む。   Region identifier 100 is a classification configured to classify the current row / column image element as belonging to a boundary region or an internal image region based on the average value and average difference from the two calculators 110, 130. The apparatus 140 further includes a container 140.

好適な一実施形態において、識別器100は、先に開示したように平均値及び平均差分、すなわち平均値及び平均差分の合計又は加重合計に基づいて分類パラメータを計算するパラメータ計算器160を含む。比較器170は、連想メモリ150から取り出されるような閾値と分類パラメータとを比較するために識別器100に提供される。本実施形態において、分類器140は、比較に基づいて現在の行/列の画像要素を境界領域に属するもの又は属さないものとして分類するように構成される。黒色の線/境界と関連して適用可能な好適な一実現例において、分類パラメータが閾値を下回る場合、現在の行/列は画像の境界領域に属するものとして分類される。   In a preferred embodiment, the discriminator 100 includes a parameter calculator 160 that calculates the classification parameters based on the average value and the average difference, ie, the sum or weighted sum of the average value and the average difference, as disclosed above. A comparator 170 is provided to the discriminator 100 for comparing thresholds such as those retrieved from the associative memory 150 with the classification parameters. In the present embodiment, the classifier 140 is configured to classify the current row / column image element as belonging to the border region or not, based on the comparison. In a preferred implementation applicable in connection with black lines / boundaries, if the classification parameter is below the threshold, the current row / column is classified as belonging to the boundary region of the image.

領域識別器100のオプションの一実施形態は、閾値判定器又は調整器180を含む。そのような場合、平均値計算器110は、画像又は少なくとも画像の大部分のプロパティ値の平均値を計算するように更に構成される。判定器180は、分類パラメータと共に比較器170により使用される閾値を判定、選択又は調整するためにその平均プロパティ値を利用する。   One optional embodiment of the region identifier 100 includes a threshold determiner or adjuster 180. In such a case, the average value calculator 110 is further configured to calculate an average value of the property values of the image or at least most of the image. The determiner 180 uses the average property value to determine, select or adjust the threshold used by the comparator 170 along with the classification parameter.

別のオプションの実施形態において、差分判定器120は、境界の行/列として分類された行/列の現在の画像要素及び同一の行/列の隣接する画像要素のプロパティ値の第1の差分を判定するように構成される。判定器120は、現在の画像要素のプロパティ値と平均値計算器110により計算される平均値との第2の差分を更に計算する。本実施形態において、第1の差分が第2の差分とメモリ150から取り出されるような最大閾値以上異なる場合、分類器140は、現在の画像要素又は実際には画像要素が属する境界の行/列を非境界画像要素又は非境界の行/列として再分類する。この手順は、「間違って分類された」画像要素を検出した際に行/列全体の再分類が分類器140により実行されない限り、現在の行/列の画像要素毎に実行される。更に、手順は、境界の行/列として分類された画像の全ての行/列に適用されるのが好ましい。   In another optional embodiment, the difference determiner 120 may include a first difference between property values of a current image element of a row / column classified as a boundary row / column and an adjacent image element of the same row / column. Is configured to determine. The determiner 120 further calculates a second difference between the property value of the current image element and the average value calculated by the average value calculator 110. In this embodiment, if the first difference differs from the second difference by more than the maximum threshold as retrieved from the memory 150, the classifier 140 may determine whether the current image element or actually the boundary row / column to which the image element belongs. Are reclassified as non-boundary image elements or non-boundary rows / columns. This procedure is performed for each image element in the current row / column, unless reclassification of the entire row / column is performed by the classifier 140 when an “incorrectly classified” image element is detected. Furthermore, the procedure is preferably applied to all rows / columns of the image classified as boundary rows / columns.

領域識別器100は、画像の最も外側の全ての列及び行を調査し、外側の行又は列が本発明に従って境界の行又は列として分類される場合は更に内部の行及び列に対する調査を継続するのが好ましい。   The region identifier 100 examines all the outermost columns and rows of the image, and if the outer row or column is classified as a boundary row or column according to the present invention, it further continues to investigate the inner rows and columns. It is preferable to do this.

領域識別器100のユニットは、ハードウェア、ソフトウェア、並びに/あるいはハードウェア及びソフトウェアの組合せで提供可能である。ユニットは、有線又は無線通信システムのノードにおいて実現されるか又はノードに接続されるようなビデオ又は画像処理端末又はサーバで実現可能である。あるいは、領域識別器100のユニットは、TV復号器、コンピュータ、移動電話、あるいは画像レンダリングデバイスを有するか又はそれに接続される他のユーザ機器等のユーザ端末に構成可能である。   The unit of the area identifier 100 can be provided in hardware, software, and / or a combination of hardware and software. The unit can be implemented in a video or image processing terminal or server as implemented at or connected to a node of a wired or wireless communication system. Alternatively, the unit of region identifier 100 can be configured in a user terminal, such as a TV decoder, computer, mobile phone, or other user equipment that has or is connected to an image rendering device.

図12は、画像要素のグループの少なくとも1つの画像要素のプロパティ値を推定することによりグループを判定するデバイス200を示す概略ブロック図である。デバイス200は、ビデオシーケンスの少なくとも第1の画像及び第2の画像を識別するフレーム又は画像識別器210をオプションとして含む。それらの2つの画像は、判定されるグループを含む現在の画像と比較してシーケンス中の異なる時刻と関連付けられる。グループの補間の場合、第1の画像は先行又は後続画像であり、第2の画像は後続又は先行画像である。グループの補外の場合、第1の画像及び第2の画像の双方は現在の画像に対して先行又は後続画像である。 FIG. 12 is a schematic block diagram illustrating a device 200 that determines a group by estimating a property value of at least one image element of the group of image elements. Device 200 optionally includes a frame or image identifier 210 that identifies at least a first image and a second image of the video sequence. These two images are associated with different times in the sequence compared to the current image containing the group to be determined. In the case of group interpolation, the first image is a previous or subsequent image, and the second image is a subsequent or previous image. In the case of group extrapolation, both the first image and the second image are preceding or succeeding images relative to the current image.

判定デバイス200は、上述し且つ図11に示す本発明に係る領域識別器100を含む。領域識別器100は、画像の各境界領域に属するものとして分類される第1の画像及び好ましくは第2の画像の画像要素を識別するために利用される。   The determination device 200 includes the region identifier 100 according to the present invention described above and shown in FIG. The region identifier 100 is used to identify the first image and preferably the image elements of the second image that are classified as belonging to each border region of the image.

グループ提供器220は、第1の画像の複数の画像要素の第1のグループを提供するようにデバイス200に構成される。このグループは、識別器100により境界画像要素として分類された少なくとも1つの画像要素及び識別器100により非境界画像要素として分類された少なくとも1つの画像要素を含む。デバイス200は、第2の画像の少なくとも1つの画像要素、好ましくは複数の画像要素の第2のグループを識別するグループ識別器230を更に含む。値判定器260は、提供器220及び識別器230からの2つのグループ中の境界画像要素として分類されない画像要素のプロパティ値に基づいて判定されるグループのプロパティ値を判定する。   Group provider 220 is configured in device 200 to provide a first group of a plurality of image elements of a first image. This group includes at least one image element classified as a boundary image element by the classifier 100 and at least one image element classified as a non-boundary image element by the classifier 100. The device 200 further includes a group identifier 230 that identifies at least one image element of the second image, preferably a second group of a plurality of image elements. The value determiner 260 determines the property value of the group determined based on the property value of the image element that is not classified as the boundary image element in the two groups from the provider 220 and the identifier 230.

値判定器260は、動き補償を使用する補間/補外とは別個に境界領域に存在する画像要素のプロパティ値を更に判定するのが好ましい。好適な一実施形態において、デバイス200のサイズ比較器270は、画像の補間/補外に使用される2つの参照画像の相対境界サイズを画像エッジ毎に比較する。構成される画像のエッジの境界は、参照画像のエッジの最大の境界として選択される。境界画像要素のプロパティ値は、参照画像の同一の位置を占める画像要素のプロパティ値に基づいて計算される。境界の位置(i,j)の画像要素は、参照フレームの同一の位置(i,j)を占める画像要素のプロパティ値の平均値と等しいプロパティ値を得る。   The value determiner 260 preferably further determines the property values of the image elements present in the border region separately from interpolation / extrapolation using motion compensation. In a preferred embodiment, the size comparator 270 of the device 200 compares the relative boundary sizes of the two reference images used for image interpolation / extrapolation for each image edge. The edge boundary of the constructed image is selected as the maximum boundary of the edge of the reference image. The property value of the boundary image element is calculated based on the property value of the image element that occupies the same position in the reference image. The image element at the boundary position (i, j) obtains a property value equal to the average value of the property values of the image elements occupying the same position (i, j) in the reference frame.

オプションの一実施形態において、集合提供器250は、第1の画像の複数の候補グループの集合を提供するようにデバイス200に構成される。各候補グループは、少なくとも1つの画像要素を含み、各変位ベクトルを有する。グループ識別器は、候補グループ毎に第2の画像の第2の各グループを識別する。この識別は、候補グループと関連付けられる変位ベクトルに基づいて実行されるのが好ましい。基準計算器240は、候補グループ毎に差分基準を計算する。ここで、基準は候補グループ及びその識別された第2のグループのプロパティ値の差分を表す。基準は、SAD又はSSD基準であるのが好ましい。すなわち、画像要素の差分の絶対値に基づくのが好ましい。   In an optional embodiment, the set provider 250 is configured in the device 200 to provide a set of candidate groups for the first image. Each candidate group includes at least one image element and has a respective displacement vector. The group identifier identifies each second group of the second image for each candidate group. This identification is preferably performed based on a displacement vector associated with the candidate group. The reference calculator 240 calculates a difference reference for each candidate group. Here, the reference represents the difference between the property values of the candidate group and the identified second group. The standard is preferably an SAD or SSD standard. That is, it is preferably based on the absolute value of the difference between image elements.

本実施形態において、グループ提供器220は、計算器240による差分基準に基づいて提供された集合から候補グループを選択するように、すなわち好ましくは最小(SAD又はSSD)差分基準を有する候補グループを選択するように構成される。値判定器260は、選択した候補グループ及び関連する第2のグループのプロパティ値に基づいて、一般的には2つのグループ中の境界画像要素を除外したグループの画像要素値の線形結合に基づいて現在のグループのプロパティ値を判定する。   In this embodiment, the group provider 220 selects a candidate group from the set provided based on the difference criterion by the calculator 240, i.e., preferably selects a candidate group having a minimum (SAD or SSD) difference criterion. Configured to do. The value determiner 260 is based on the selected candidate group and the associated second group property values, typically based on a linear combination of the image element values of the groups excluding the boundary image elements in the two groups. Determine the property value of the current group.

オプションのサイズ比較器270は、第1の画像の境界領域及び第2の画像の同一の画像エッジと関連する境界領域の相対サイズを比較するために判定デバイス200に提供されるのが好ましい。分類器280は、サイズの差分が閾値を上回る場合に境界画像要素として先に分類された第2の画像の画像要素を内部画像要素に再分類するためにそのサイズ比較を使用する。再分類された画像要素は、第1の画像の内部領域として分類される画像位置を占める。しかし、それらは領域識別器100により第2の画像の境界領域として分類されていた。   An optional size comparator 270 is preferably provided to the decision device 200 to compare the relative sizes of the boundary area of the first image and the boundary area associated with the same image edge of the second image. The classifier 280 uses the size comparison to reclassify the image elements of the second image previously classified as boundary image elements into internal image elements when the size difference exceeds a threshold. The reclassified image element occupies an image position that is classified as an internal region of the first image. However, they have been classified by the area discriminator 100 as boundary areas of the second image.

判定デバイス200のユニットは、ハードウェア、ソフトウェア、並びに/あるいはハードウェア及びソフトウェアの組合せで提供可能である。ユニットは、有線又は無線通信システムのノードにおいて実現されるか又はノードに接続されるようなビデオ又はフレーム処理端末又はサーバで実現可能である。あるいは、判定デバイス200のユニットは、TV復号器、コンピュータ、移動電話、あるいは画像レンダリングデバイスを有するか又はそれに接続される他のユーザ機器等のユーザ端末に構成可能である。   The unit of the determination device 200 can be provided in hardware, software, and / or a combination of hardware and software. The unit can be implemented in a video or frame processing terminal or server as implemented at or connected to a node of a wired or wireless communication system. Alternatively, the unit of decision device 200 can be configured in a user terminal such as a TV decoder, computer, mobile phone, or other user equipment having or connected to an image rendering device.

添付の請求の範囲により規定される本発明の範囲から逸脱せずに、本発明に対して種々の変形及び変更が行なわれてもよいことは、当業者には理解されるだろう。   It will be appreciated by those skilled in the art that various modifications and variations can be made to the present invention without departing from the scope of the invention as defined by the appended claims.

Claims (20)

画像要素の行及び列を含む画像のエッジの境界領域を識別する方法であって、
−前記画像の行又は列の画像要素のプロパティ値の平均値を計算するステップと、
−前記行又は列の画像要素毎に、前記画像要素と、前記画像の隣接行又は隣接列の同一の列又は行に存在する画像要素とのプロパティ値の差分を判定するステップと、
−前記差分の行又は列方向における平均である平均差分を計算するステップと、
−前記平均値及び前記平均差分の加重合計として分類パラメータを計算するステップと、
−前記分類パラメータを閾値と比較するステップと、
−前記分類パラメータが前記閾値を下回る場合に、前記行又は列の画像要素を前記境界領域に属するものとして分類するステップと
を有することを特徴とする方法。
A method for identifying a border region of an image edge comprising rows and columns of image elements, comprising:
Calculating an average value of property values of image elements in the image row or column;
Determining, for each image element in the row or column, a difference in property values between the image element and an image element existing in the same column or row of adjacent rows or columns of the image;
-Calculating an average difference that is an average of the differences in a row or column direction ;
-Calculating a classification parameter as a weighted sum of the average value and the average difference;
-Comparing said classification parameter with a threshold;
Categorizing the row or column image elements as belonging to the boundary region if the classification parameter is below the threshold .
−前記画像の前記画像要素のプロパティ値の平均値を判定するステップと、
−前記画像の前記画像要素の前記プロパティ値の前記平均値に少なくとも部分的に基づいて前記閾値を判定するステップと
を更に有することを特徴とする請求項記載の方法。
Determining an average property value of the image elements of the image;
- The method according to claim 1, further comprising a determining the threshold value based at least in part on the average value of said property values of said image elements of the image.
前記隣接行又は列は、前記行又は列と比較して前記画像の中心により近接して位置する隣接行又は列であることを特徴とする請求項1又は2に記載の方法。 3. The method of claim 1 or 2 , wherein the adjacent row or column is an adjacent row or column located closer to the center of the image compared to the row or column. 前記行又は列が前記境界領域に属するものとして分類される場合に前記隣接行又は列について、前記平均値を計算するステップと、前記判定するステップと、前記平均差分を計算するステップと、前記分類するステップとを繰り返すことを特徴とする請求項1からのいずれか1項に記載の方法。When the row or column is classified as belonging to the boundary region, for the adjacent row or column, calculating the average value, determining, calculating the average difference, and the classification The method according to any one of claims 1 to 3 , wherein the step of performing is repeated. −前記行又は列の画像要素と、隣接列又は隣接行の同一の行又は列に存在する画像要素のプロパティ値との第1の差分を計算するステップと、
−前記画像要素の前記プロパティ値と前記平均値との第2の差分を計算するステップと、
−前記第1の差分が前記第2の差分と最大閾値以上異なる場合に前記画像要素を前記境界領域に属さないものとして分類するステップと
を更に有することを特徴とする請求項1からのいずれか1項に記載の方法。
Calculating a first difference between the image element in the row or column and the property value of the image element present in the same row or column of an adjacent column or adjacent row ;
Calculating a second difference between the property value of the image element and the average value;
- any of claims 1 to 4, characterized by further comprising a step of classifying as the first difference does not belong to the image element to the boundary area if different the second difference and the maximum threshold or The method according to claim 1.
前記分類するステップにおいては、前記第1の差分が前記第2の差分と最大閾値以上異なる場合に前記行又は列の前記画像要素を前記境界領域に属さないものとして分類することを特徴とする請求項記載の方法。The classifying step classifies the image element in the row or column as not belonging to the boundary region when the first difference differs from the second difference by a maximum threshold or more. Item 6. The method according to Item 5 . 前記画像要素の前記プロパティ値は輝度値であることを特徴とする請求項1からのいずれか1項に記載の方法。The method according to any one of claims 1 6, characterized in that the property values of the image elements is a luminance value. ビデオシーケンスの補間される中間画像における少なくとも1つの画像要素のグループのプロパティ値を推定する方法であって、
−請求項1からのいずれか1項に従って、前記ビデオシーケンスの第1の異なる時刻と関連付けられる第1の画像のエッジの境界領域に属する画像要素を識別するステップと、
−前記第1の画像の前記境界領域に属するものとして識別された少なくとも1つの画像要素と、前記第1の画像の前記境界領域に属さないものとして識別された少なくとも1つの画像要素とを含む第1のグループを前記第1の画像に提供するステップと、
−前記ビデオシーケンスの第2の異なる時刻と関連付けられる第2の画像における少なくとも1つの画像要素の第2のグループを識別するステップと、
−前記第1の画像の前記境界領域に属さないものとして識別された前記第1のグループの前記画像要素のプロパティ値と前記第2のグループのプロパティ値とに基づいて、前記補間される中間画像における画像要素のグループの前記プロパティ値を判定するステップと
を有することを特徴とする方法。
A method for estimating a property value of a group of at least one image element in an interpolated intermediate image of a video sequence, comprising:
Identifying an image element belonging to a border region of an edge of a first image associated with a first different time of the video sequence according to any one of claims 1 to 7 ;
-At least one image element identified as belonging to the boundary region of the first image; and at least one image element identified as not belonging to the boundary region of the first image. Providing a group of said first image;
Identifying a second group of at least one image element in a second image associated with a second different time of the video sequence;
The interpolated intermediate image based on the property values of the image elements of the first group and the property values of the second group identified as not belonging to the boundary region of the first image; Determining the property value of the group of image elements in the method.
前記第2のグループを識別するステップにおいては、前記第1のグループと関連付けられる変位ベクトルに基づいて前記第2の画像の前記第2のグループを識別することを特徴とする請求項記載の方法。9. The method of claim 8 , wherein the step of identifying the second group comprises identifying the second group of the second image based on a displacement vector associated with the first group. . 前記第2の画像のエッジの境界領域に属する画像要素を識別するステップを更に有し、
前記判定するステップにおいては、前記第1の画像の前記境界領域に属さないものとして識別された前記第1のグループの前記画像要素のプロパティ値と、前記第2のグループの前記境界領域に属さないものとして識別された前記第2のグループの画像要素のプロパティ値とに基づいて、前記グループの前記プロパティ値を判定する
ことを特徴とする請求項又は記載の方法。
Further comprising identifying image elements belonging to a border region of an edge of the second image,
In the determining step, the property value of the image element of the first group identified as not belonging to the boundary region of the first image, and not belonging to the boundary region of the second group 10. The method of claim 8 or 9 , wherein the property value of the group is determined based on a property value of the second group of image elements identified as being.
−前記第1の画像の前記境界領域及び前記第2の画像の前記境界領域のサイズの差分計算するステップと、
−前記サイズの差分が閾値を上回る場合に前記第1の画像の前記境界領域に属するものとして識別された前記第1の画像の画像要素と対応する位置を有する前記第2の画像の画像要素を、前記第2の画像の前記境界領域に属するものとして分類するステップと
を更に有することを特徴とする請求項10記載の方法。
Calculating a difference in size between the boundary region of the first image and the boundary region of the second image;
An image element of the second image having a position corresponding to an image element of the first image identified as belonging to the boundary region of the first image when the size difference exceeds a threshold value ; 11. The method of claim 10 , further comprising the step of classifying the second image as belonging to the boundary region.
画像要素の行及び列を含む画像のエッジの境界領域を識別する領域識別器であって、
−前記画像の行又は列の画像要素のプロパティ値の平均値を計算する平均値計算手段と、
−前記行又は列の画像要素毎に、前記画像要素及び前記画像の隣接行又は列の同一の列又は行に存在する画像要素のプロパティ値の差分を判定する差分判定手段と、
−前記差分の行又は列方向における平均である平均差分を計算する平均差分計算手段と、
−前記平均値及び前記平均差分の加重合計として分類パラメータを計算するパラメータ計算手段と、
−前記分類パラメータを閾値と比較する比較手段と、
−前記分類パラメータが前記閾値を下回る場合に、前記行又は列の画像要素を前記境界領域に属するものとして分類する分類手段と
を具備することを特徴とする領域識別器。
A region identifier that identifies a border region of an image edge including rows and columns of image elements,
An average value calculating means for calculating an average value of property values of image elements in the row or column of the image;
A difference determination means for determining a difference between property values of image elements existing in the same column or row of the image element and an adjacent row or column of the image for each image element of the row or column;
An average difference calculating means for calculating an average difference that is an average of the differences in the row or column direction ;
-A parameter calculation means for calculating a classification parameter as a weighted sum of the average value and the average difference;
-A comparison means for comparing said classification parameter with a threshold;
A region classifier comprising: classifying means for classifying the row or column image elements as belonging to the boundary region when the classification parameter is below the threshold ;
前記平均値計算手段は、前記画像の前記画像要素のプロパティ値の平均値を計算するように構成され、
前記領域識別器は、前記画像の前記画像要素の前記プロパティ値の前記平均値に少なくとも部分的に基づいて前記閾値を判定する閾値判定手段を具備する
ことを特徴とする請求項12記載の領域識別器。
The average value calculating means is configured to calculate an average value of property values of the image elements of the image,
13. The region identification according to claim 12 , wherein the region identifier comprises threshold determination means for determining the threshold based at least in part on the average value of the property values of the image elements of the image. vessel.
前記平均値計算手段は、前記行又は列が前記境界領域に属するものとして分類される場合に前記隣接行又は列に対する対応する平均値を計算するように構成され、
前記差分判定手段は、前記行又は列が前記境界領域に属するものとして分類される場合に前記隣接行又は列に対するプロパティ値の対応する差分を計算するように構成され、
前記平均差分計算手段は、前記行又は列が前記境界領域に属するものとして分類される場合に前記隣接行又は列に対する対応する平均差分を計算するように構成され、
前記分類手段は、前記行又は列が前記境界領域に属するものとして分類される場合に前記隣接行又は列の画像要素を分類するように構成される
ことを特徴とする請求項12又は13に記載の領域識別器。
The average value calculating means is configured to calculate a corresponding average value for the adjacent row or column when the row or column is classified as belonging to the boundary region,
The difference determination means is configured to calculate a corresponding difference in property values for the adjacent row or column when the row or column is classified as belonging to the boundary region;
The average difference calculating means is configured to calculate a corresponding average difference for the adjacent row or column when the row or column is classified as belonging to the boundary region;
It said classification means, according to claim 12 or 13, wherein the row or column is configured to classify the image elements of the adjacent row or column when they are classified as belonging to the border region Area discriminator.
前記差分判定手段は、i)前記行又は列の画像要素と、隣接列又は隣接行の同一の行又は列に存在する画像要素のプロパティ値の第1の差分を判定し、ii)前記画像要素の前記プロパティ値と前記平均値との第2の差分を判定するように構成され、
前記分類手段は、前記第1の差分が前記第2の差分と最大閾値以上異なる場合に前記画像要素を前記境界領域に属さないものとして再分類するように構成される
ことを特徴とする請求項12から14のいずれか1項に記載の領域識別器。
The difference determining means determines i) a first difference between the image element of the row or column and a property value of an image element existing in the same row or column of an adjacent column or adjacent row , and ii) the image Configured to determine a second difference between the property value of the element and the average value;
The classification means is configured to reclassify the image element as not belonging to the boundary region when the first difference is different from the second difference by a maximum threshold or more. The area discriminator according to any one of 12 to 14 .
前記分類手段は、前記第1の差分が前記第2の差分と最大閾値以上異なる場合に前記行又は列の前記画像要素を前記境界領域に属さないものとして再分類するように構成されることを特徴とする請求項15記載の領域識別器。The classifying means is configured to reclassify the image element in the row or column as not belonging to the boundary region when the first difference differs from the second difference by a maximum threshold or more. The area identifier according to claim 15, wherein ビデオシーケンスの補間される中間画像の少なくとも1つの画像要素のグループのプロパティ値を推定するデバイスであって、
−前記ビデオシーケンスの第1の異なる時刻と関連付けられる第1の画像のエッジの境界領域に属する画像要素を識別する請求項12から16のいずれか1項に記載の領域識別器と、
−前記第1の画像の前記境界領域に属するものとして識別された少なくとも1つの画像要素と、前記第1の画像の前記境界領域に属さないものとして識別された少なくとも1つの画像要素とを含む第1のグループを前記第1の画像に提供するグループ提供手段と、
−前記ビデオシーケンスの第2の異なる時刻と関連付けられる第2の画像の少なくとも1つの画像要素の第2のグループを識別するグループ識別手段と、
−前記第1の画像の前記境界領域に属さないものとして識別された前記第1のグループの前記画像要素のプロパティ値と前記第2のグループのプロパティ値とに基づいて前記補間される中間画像における画像要素のグループの前記プロパティ値を判定する値判定手段と
を具備することを特徴とするデバイス。
A device for estimating a property value of a group of at least one image element of an intermediate image to be interpolated of a video sequence,
17. A region identifier as claimed in any one of claims 12 to 16 for identifying an image element belonging to a border region of an edge of a first image associated with a first different time of the video sequence;
-At least one image element identified as belonging to the boundary region of the first image; and at least one image element identified as not belonging to the boundary region of the first image. Group providing means for providing one group to the first image;
A group identification means for identifying a second group of at least one image element of a second image associated with a second different time of the video sequence;
- based on the property value of the first of the image element property values and the second group of the identified first group as being not belonging to the border area of the image, the intermediate image is the interpolation And a value determining means for determining the property value of the group of image elements .
前記グループ識別手段は、前記第1のグループと関連付けられる変位ベクトルに基づいて前記第2の画像の前記第2のグループを識別するように構成されることを特徴とする請求項17記載のデバイス。18. The device of claim 17 , wherein the group identification means is configured to identify the second group of the second image based on a displacement vector associated with the first group. 前記領域識別器は、前記第2の画像のエッジの境界領域に属する画像要素を識別するように構成され、
前記値判定手段は、前記第1の画像の前記境界領域に属さないものとして識別された前記第1のグループの前記画像要素のプロパティ値と、前記第2のグループの前記境界領域に属さないものとして識別された前記第2のグループの画像要素のプロパティ値とに基づいて前記グループの前記プロパティ値を判定するように構成される
ことを特徴とする請求項17又は18記載のデバイス。
The region identifier is configured to identify an image element belonging to a boundary region of an edge of the second image;
The value determination means includes a property value of the image element of the first group identified as not belonging to the boundary area of the first image, and a value not belonging to the boundary area of the second group 19. A device according to claim 17 or 18 , wherein the device is configured to determine the property value of the group based on a property value of the image element of the second group identified as.
−前記第1の画像の前記境界領域及び前記第2の画像の前記境界領域のサイズの差分計算するサイズ比較手段と、
−前記サイズの差分が閾値を上回る場合に前記第1の画像の前記境界領域に属するものとして識別された前記第1の画像の画像要素と対応する位置を有する前記第2の画像の画像要素を前記第2の画像の前記境界領域に属するものとして分類する分類手段と
を更に具備することを特徴とする請求項19記載のデバイス。
-A size comparison means for calculating a difference in size between the boundary region of the first image and the boundary region of the second image;
An image element of the second image having a position corresponding to an image element of the first image identified as belonging to the boundary region of the first image when the size difference exceeds a threshold value; 20. The device according to claim 19 , further comprising classification means for classifying the second image as belonging to the boundary region.
JP2009547200A 2007-01-26 2008-01-14 Boundary region processing in images Expired - Fee Related JP5190469B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US89751107P 2007-01-26 2007-01-26
US60/897,511 2007-01-26
PCT/SE2008/050035 WO2008091207A1 (en) 2007-01-26 2008-01-14 Border region processing in images

Publications (2)

Publication Number Publication Date
JP2010517417A JP2010517417A (en) 2010-05-20
JP5190469B2 true JP5190469B2 (en) 2013-04-24

Family

ID=39644716

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009547200A Expired - Fee Related JP5190469B2 (en) 2007-01-26 2008-01-14 Boundary region processing in images
JP2009547199A Expired - Fee Related JP5254997B2 (en) 2007-01-26 2008-01-14 Motion estimation for discovered frame regions

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009547199A Expired - Fee Related JP5254997B2 (en) 2007-01-26 2008-01-14 Motion estimation for discovered frame regions

Country Status (4)

Country Link
US (3) US8498495B2 (en)
EP (2) EP2122573B1 (en)
JP (2) JP5190469B2 (en)
WO (2) WO2008091207A1 (en)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1698901B1 (en) * 1999-01-29 2008-07-30 Roche Diagnostics GmbH Method for detecting N-terminal proBNP
US8416859B2 (en) * 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US8873932B2 (en) * 2007-12-11 2014-10-28 Cisco Technology, Inc. Inferential processing to ascertain plural levels of picture interdependencies
US8875199B2 (en) * 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US20080115175A1 (en) * 2006-11-13 2008-05-15 Rodriguez Arturo A System and method for signaling characteristics of pictures' interdependencies
US8155207B2 (en) 2008-01-09 2012-04-10 Cisco Technology, Inc. Processing and managing pictures at the concatenation of two video streams
US8804845B2 (en) * 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8958486B2 (en) * 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
EP2213097A2 (en) * 2007-10-16 2010-08-04 Cisco Technology, Inc. Conveyance of concatenation properties and picture orderness in a video stream
US8416858B2 (en) * 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
US8886022B2 (en) * 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8705631B2 (en) * 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
US8971402B2 (en) * 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
US8840602B2 (en) 2008-07-31 2014-09-23 Acclarent, Inc. Systems and methods for anesthetizing ear tissue
WO2010049755A1 (en) * 2008-10-29 2010-05-06 Nds Limited Video signature
EP2356812B1 (en) 2008-11-12 2015-06-10 Cisco Technology, Inc. Processing of a video program having plural processed representations of a single video signal for reconstruction and output
FR2939900A1 (en) * 2008-12-17 2010-06-18 Sagem Defense Securite CLOSED LOOP HYBRIDIZATION DEVICE INTEGRATED BY CONSTRUCTION.
US8326131B2 (en) * 2009-02-20 2012-12-04 Cisco Technology, Inc. Signalling of decodable sub-sequences
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US20110222837A1 (en) * 2010-03-11 2011-09-15 Cisco Technology, Inc. Management of picture referencing in video streams for plural playback modes
CN103404122B (en) * 2011-01-28 2017-03-22 皇家飞利浦电子股份有限公司 Motion-vector-based comparison of moving objects
CN103136741A (en) * 2011-12-05 2013-06-05 联咏科技股份有限公司 Edge detection method for fixed pattern and circuit
EP2645713A1 (en) * 2012-03-30 2013-10-02 Alcatel Lucent Method and apparatus for encoding a selected spatial portion of a video stream
US9071842B2 (en) * 2012-04-19 2015-06-30 Vixs Systems Inc. Detection of video feature based on variance metric
US20130321497A1 (en) * 2012-06-05 2013-12-05 Shenzhen China Star Optoelectronics Technology Co., Ltd. Method of Signal Compensation, Transformation Circuit in Liquid Crystal Panel, and Liquid Crystal Display Device
WO2016142965A1 (en) * 2015-03-10 2016-09-15 日本電気株式会社 Video processing device, video processing method, and storage medium storing video processing program
US10733231B2 (en) 2016-03-22 2020-08-04 Sensormatic Electronics, LLC Method and system for modeling image of interest to users
US11216847B2 (en) 2016-03-22 2022-01-04 Sensormatic Electronics, LLC System and method for retail customer tracking in surveillance camera network
US9965680B2 (en) 2016-03-22 2018-05-08 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
US10192414B2 (en) * 2016-03-22 2019-01-29 Sensormatic Electronics, LLC System and method for overlap detection in surveillance camera network
US10347102B2 (en) 2016-03-22 2019-07-09 Sensormatic Electronics, LLC Method and system for surveillance camera arbitration of uplink consumption
US10475315B2 (en) 2016-03-22 2019-11-12 Sensormatic Electronics, LLC System and method for configuring surveillance cameras using mobile computing devices
US11601583B2 (en) 2016-03-22 2023-03-07 Johnson Controls Tyco IP Holdings LLP System and method for controlling surveillance cameras
US10665071B2 (en) 2016-03-22 2020-05-26 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US10318836B2 (en) * 2016-03-22 2019-06-11 Sensormatic Electronics, LLC System and method for designating surveillance camera regions of interest
US10764539B2 (en) 2016-03-22 2020-09-01 Sensormatic Electronics, LLC System and method for using mobile device of zone and correlated motion detection
WO2018174618A1 (en) * 2017-03-22 2018-09-27 한국전자통신연구원 Prediction method and device using reference block
US10218992B2 (en) * 2017-07-24 2019-02-26 Cisco Technology, Inc. Encoding, transmission and decoding of combined high motion and high fidelity content
EP3451665A1 (en) 2017-09-01 2019-03-06 Thomson Licensing Refinement of internal sub-blocks of a coding unit
TWI747000B (en) * 2018-06-29 2021-11-21 大陸商北京字節跳動網絡技術有限公司 Virtual merge candidates
CN110896492B (en) * 2018-09-13 2022-01-28 阿里巴巴(中国)有限公司 Image processing method, device and storage medium

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2612557B2 (en) * 1985-12-18 1997-05-21 ソニー株式会社 Data transmission receiving system and data decoding device
GB2231749B (en) * 1989-04-27 1993-09-29 Sony Corp Motion dependent video signal processing
SE9201183L (en) * 1992-04-13 1993-06-28 Dv Sweden Ab MAKE ADAPTIVE ESTIMATES UNUSUAL GLOBAL IMAGE INSTABILITIES IN IMAGE SEQUENCES IN DIGITAL VIDEO SIGNALS
JP3490142B2 (en) * 1994-06-24 2004-01-26 株式会社東芝 Moving image encoding method and apparatus
US5929940A (en) * 1995-10-25 1999-07-27 U.S. Philips Corporation Method and device for estimating motion between images, system for encoding segmented images
US6208385B1 (en) 1996-10-17 2001-03-27 Kabushiki Kaisha Toshiba Letterbox image detection apparatus
US6249613B1 (en) * 1997-03-31 2001-06-19 Sharp Laboratories Of America, Inc. Mosaic generation and sprite-based coding with automatic foreground and background separation
JP2935357B2 (en) 1997-06-02 1999-08-16 日本ビクター株式会社 Video signal high-efficiency coding device
US6061400A (en) 1997-11-20 2000-05-09 Hitachi America Ltd. Methods and apparatus for detecting scene conditions likely to cause prediction errors in reduced resolution video decoders and for using the detected information
US6192080B1 (en) * 1998-12-04 2001-02-20 Mitsubishi Electric Research Laboratories, Inc. Motion compensated digital video signal processing
EP1181828B1 (en) * 1999-05-13 2010-03-17 STMicroelectronics Asia Pacific Pte Ltd. Adaptive motion estimator
US6618439B1 (en) * 1999-07-06 2003-09-09 Industrial Technology Research Institute Fast motion-compensated video frame interpolator
US7072398B2 (en) * 2000-12-06 2006-07-04 Kai-Kuang Ma System and method for motion vector generation and analysis of digital video clips
KR20010087552A (en) * 2000-03-07 2001-09-21 구자홍 Dissolve/fade detection method for mpeg-compressed video using spatio-temporal distribution of the macro blocks
US6337925B1 (en) * 2000-05-08 2002-01-08 Adobe Systems Incorporated Method for determining a border in a complex scene with applications to image masking
FR2811791B1 (en) * 2000-07-13 2002-11-22 France Telecom MOTION ESTIMATOR FOR CODING AND DECODING IMAGE SEQUENCES
US7068852B2 (en) * 2001-01-23 2006-06-27 Zoran Corporation Edge detection and sharpening process for an image
CN1251509C (en) * 2001-04-10 2006-04-12 皇家菲利浦电子有限公司 Method of encoding sequence of frames
JP4596224B2 (en) * 2001-06-27 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
KR100412501B1 (en) * 2001-11-30 2003-12-31 삼성전자주식회사 Pixel-data selection device for motion compensation and method of the same
KR100441509B1 (en) * 2002-02-25 2004-07-23 삼성전자주식회사 Apparatus and method for transformation of scanning format
US7254268B2 (en) * 2002-04-11 2007-08-07 Arcsoft, Inc. Object extraction
EP1376471A1 (en) * 2002-06-19 2004-01-02 STMicroelectronics S.r.l. Motion estimation for stabilization of an image sequence
US7349583B2 (en) * 2003-09-05 2008-03-25 The Regents Of The University Of California Global motion estimation image coding and processing
US7574070B2 (en) * 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
EP1583364A1 (en) 2004-03-30 2005-10-05 Matsushita Electric Industrial Co., Ltd. Motion compensated interpolation of images at image borders for frame rate conversion
CA2565670A1 (en) * 2004-05-04 2005-11-17 Qualcomm Incorporated Method and apparatus for motion compensated frame rate up conversion
US8553776B2 (en) * 2004-07-21 2013-10-08 QUALCOMM Inorporated Method and apparatus for motion vector assignment
US7447337B2 (en) * 2004-10-25 2008-11-04 Hewlett-Packard Development Company, L.P. Video content understanding through real time video motion analysis
EP1817912A1 (en) * 2004-11-22 2007-08-15 Koninklijke Philips Electronics N.V. Motion vector field projection dealing with covering and uncovering
US7593603B1 (en) * 2004-11-30 2009-09-22 Adobe Systems Incorporated Multi-behavior image correction tool
US7755667B2 (en) * 2005-05-17 2010-07-13 Eastman Kodak Company Image sequence stabilization method and camera having dual path image sequence stabilization
KR100699261B1 (en) * 2005-06-24 2007-03-27 삼성전자주식회사 Motion Error Detector, Motion Error Compensator Comprising The Same, Method for Detecting Motion Error and Method for Compensating Motion Error
EP2077038B1 (en) * 2006-10-18 2013-01-30 Apple Inc. Scalable video coding with filtering of lower layers

Also Published As

Publication number Publication date
WO2008091207A8 (en) 2008-09-12
JP5254997B2 (en) 2013-08-07
JP2010517417A (en) 2010-05-20
EP2122573B1 (en) 2018-05-30
EP2122573A1 (en) 2009-11-25
EP2122573A4 (en) 2017-07-19
US9860554B2 (en) 2018-01-02
WO2008091206A1 (en) 2008-07-31
WO2008091207A1 (en) 2008-07-31
US8498495B2 (en) 2013-07-30
EP2108177B1 (en) 2019-04-10
US20100027667A1 (en) 2010-02-04
US20160112717A1 (en) 2016-04-21
EP2108177A4 (en) 2017-08-23
EP2108177A1 (en) 2009-10-14
US20090316997A1 (en) 2009-12-24
JP2010517416A (en) 2010-05-20

Similar Documents

Publication Publication Date Title
JP5190469B2 (en) Boundary region processing in images
US8837591B2 (en) Image block classification
Dong et al. Fast intra mode decision algorithm for versatile video coding
US10965959B2 (en) Multi-frame quality enhancement for compressed video
CN106170087B (en) Anomalous pixel detection
EP2608148A2 (en) Method and apparatus for generating multi-view
JP2005287048A (en) Improvement of motion vector estimation at image border
KR20090068219A (en) Automatic parameter estimation for adaptive pixel-based filtering
WO2006039320A1 (en) Correction of blotches in component images
KR20090025290A (en) Adaptive pixel-based filtering
US20190104309A1 (en) Up-conversion to content adaptive perceptual quantization video signals
KR100929608B1 (en) Video motion estimation method and device using fast global search block matching algorithm
KR20100063655A (en) Method for detection of film mode or camera mode
GB2402288A (en) Deriving a progressive scan image from an interlaced image
KR20060061036A (en) Apparatus for compressing document and method thereof
KR20100071803A (en) Method for restoring transport error included in image and apparatus thereof
Yang et al. Subjective quality evaluation of compressed digital compound images
JP4083159B2 (en) Motion vector setting method for digital video
JP4763241B2 (en) Motion prediction information detection device
US11501416B2 (en) Image processing method and image processing circuit capable of smoothing false contouring without using low-pass filtering
Ghosh et al. Machine Learning-Based Subjective Quality Estimation for Video Streaming Over Wireless Networks
Bao et al. Color removal method of considering distance in color space
Zhao et al. MATHEMATICAL MODELS FOR QUALITY ANALYSIS OF MOBILE VIDEO.
CN110633065A (en) Image adjusting method and device and computer readable storage medium
CN112118439A (en) Video quality detection method and image processing circuit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120629

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120830

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5190469

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees