JP2003324738A5 - - Google Patents

Download PDF

Info

Publication number
JP2003324738A5
JP2003324738A5 JP2002129440A JP2002129440A JP2003324738A5 JP 2003324738 A5 JP2003324738 A5 JP 2003324738A5 JP 2002129440 A JP2002129440 A JP 2002129440A JP 2002129440 A JP2002129440 A JP 2002129440A JP 2003324738 A5 JP2003324738 A5 JP 2003324738A5
Authority
JP
Japan
Prior art keywords
pixel
image
signal processing
block
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002129440A
Other languages
Japanese (ja)
Other versions
JP2003324738A (en
JP4082079B2 (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2002129440A priority Critical patent/JP4082079B2/en
Priority claimed from JP2002129440A external-priority patent/JP4082079B2/en
Publication of JP2003324738A publication Critical patent/JP2003324738A/en
Publication of JP2003324738A5 publication Critical patent/JP2003324738A5/ja
Application granted granted Critical
Publication of JP4082079B2 publication Critical patent/JP4082079B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Claims (50)

入力される第1の画像に対して所定の推定演算を行って上記第1の画像を第2の画像に変換する画像信号処理装置において、
上記第1の画像から、注目画素及びその周辺の複数の画素を予測タップとして切り出す領域切出手段と、
上記予測タップのうち所定の位置関係を有する画素間の画素値の差分値を算出する差分値算出手段と、
上記予測タップの差分値に基づき、上記注目画素を複数のクラスのうち何れかのクラスに分類するクラス分類手段と、
上記注目画素が分類されたクラスに対応する予測係数を読み出す読出手段と、
読み出された上記予測係数と上記予測タップとから上記所定の推定演算により上記注目画素の画素値を第2の画像の画素値に変換する推定演算手段と
を有することを特徴とする画像信号処理装置。
In an image signal processing apparatus that performs a predetermined estimation operation on an input first image and converts the first image into a second image,
A region cutout means for cutting out the pixel of interest and a plurality of pixels around it from the first image as a prediction tap;
A difference value calculating means for calculating a difference value of pixel values between pixels having a predetermined positional relationship among the prediction taps;
Class classification means for classifying the pixel of interest into one of a plurality of classes based on the difference value of the prediction tap;
Reading means for reading a prediction coefficient corresponding to a class in which the pixel of interest is classified;
Image signal processing, comprising: an estimation calculation means for converting the pixel value of the pixel of interest into a pixel value of a second image by the predetermined estimation calculation from the read prediction coefficient and the prediction tap apparatus.
上記クラス分類手段は、上記差分値が第1の閾値以上である場合に、該画素間にはエッジが存在するものと判定し、このエッジ判定結果に基づいてクラス分類することを特徴とする請求項1記載の画像信号処理装置。  The class classification means determines that an edge exists between the pixels when the difference value is equal to or greater than a first threshold value, and classifies the class based on the edge determination result. Item 2. The image signal processing device according to Item 1. 上記領域切出手段は、上記第1の画像における上記注目画素を含むラインデータを上記予測タップとして切り出すことを特徴とする請求項2記載の画像信号処理装置。  3. The image signal processing apparatus according to claim 2, wherein the region cutout unit cuts out line data including the target pixel in the first image as the prediction tap. 上記クラス分類手段は、上記ラインデータから構成される予測タップの上記差分値が所定の閾値以上である場合に、上記注目画素を複数の空間クラスのいずれかに分類することを特徴とする請求項3記載の画像信号処理装置。  The class classification means classifies the pixel of interest into one of a plurality of spatial classes when the difference value of a prediction tap configured from the line data is equal to or greater than a predetermined threshold. 3. The image signal processing device according to 3. 上記ラインデータは、上記注目画素を含む水平方向の水平ラインデータ及び上記注目画素を含む垂直方向の垂直ラインデータであることを特徴とする請求項3記載の画像信号処理装置。  4. The image signal processing apparatus according to claim 3, wherein the line data is horizontal line data in a horizontal direction including the target pixel and vertical line data in a vertical direction including the target pixel. 上記差分値算出手段は、上記水平ラインデータの水平方向に隣接する2つの画素間及び上記垂直ラインデータの垂直方向に隣接する2つの画素間の差分値を算出することを特徴とする請求項5記載の画像信号処理装置。  6. The difference value calculating means calculates difference values between two pixels adjacent in the horizontal direction of the horizontal line data and between two pixels adjacent in the vertical direction of the vertical line data. The image signal processing apparatus described. 上記差分値算出手段は、上記第1の画像の輝度信号又は上記第1の画像の色差信号を基に上記差分値を算出することを特徴とする請求項1記載の画像信号処理装置。2. The image signal processing apparatus according to claim 1, wherein the difference value calculation means calculates the difference value based on a luminance signal of the first image or a color difference signal of the first image. 上記差分値算出手段で算出された上記ラインデータにおける上記差分値の統計から上記ラインデータの特徴を抽出する統計量算出手段を有することを特徴とする請求項3記載の画像信号処理装置。  4. The image signal processing apparatus according to claim 3, further comprising: a statistic calculating unit that extracts a feature of the line data from a statistic of the difference value in the line data calculated by the difference value calculating unit. 上記差分値算出手段で算出された上記ラインデータにおける上記差分値の統計から、上記差分値の最大値と最小値との差であるダイナミックレンジを算出する統計量算出手段を有することを特徴とする請求項3記載の画像信号処理装置。  It has a statistic calculation means for calculating a dynamic range that is a difference between the maximum value and the minimum value of the difference value from the statistics of the difference value in the line data calculated by the difference value calculation means. The image signal processing apparatus according to claim 3. 上記統計量算出手段は、上記差分値の上記最大値、最小値、及びダイナミックレンジから上記画素間エッジ判定における上記第1の閾値を算出することを特徴とする請求項9記載の画像信号処理装置。  10. The image signal processing apparatus according to claim 9, wherein the statistic calculation means calculates the first threshold value in the inter-pixel edge determination from the maximum value, the minimum value, and the dynamic range of the difference values. . 上記第1の画像のブロック毎のブロックデータが入力され、上記注目画素が属する注目ブロックにおいて水平方向及び垂直方向に隣接する各画素間の画素値の差分値をブロック画素間差分値として算出するブロック画素間差分値算出手段を有することを特徴とする請求項2記載の画像信号処理装置。  A block that receives block data for each block of the first image and calculates a difference value of pixel values between pixels adjacent in the horizontal direction and the vertical direction in the target block to which the target pixel belongs as a block pixel difference value The image signal processing apparatus according to claim 2, further comprising an inter-pixel difference value calculation unit. 上記注目ブロックにおける上記ブロック画素間差分値が第2の閾値未満である場合に、上記注目ブロックは平坦であると判定し、このブロック凹凸判定結果を記憶するブロック特徴量記憶手段を有することを特徴とする請求項11記載の画像信号処理装置。  When the difference value between the block pixels in the block of interest is less than a second threshold, the block of interest is determined to be flat, and block feature amount storage means for storing the block unevenness determination result is provided. The image signal processing apparatus according to claim 11. 上記注目ブロックがフィールドDCT構造であるか、又はフレームDCT構造であるかを判定し、このブロックタイプ判定結果を記憶するブロック特徴量記憶手段を有することを特徴とする請求項11記載の画像信号処理装置。  12. The image signal processing according to claim 11, further comprising block feature amount storage means for determining whether the block of interest has a field DCT structure or a frame DCT structure, and storing the block type determination result. apparatus. 上記ブロック画素間差分値算出手段で算出された上記注目ブロックにおける上記ブロック画素間差分値の統計から、上記注目ブロックの特徴を抽出するブロック統計量算出手段を有することを特徴とする請求項11記載の画像信号処理装置。  12. A block statistic calculating unit for extracting a feature of the target block from a statistic of the inter-block pixel difference value in the target block calculated by the block pixel difference value calculating unit. Image signal processing apparatus. 上記ブロック画素間差分値算出手段で算出された上記注目ブロックにおける上記ブロック画素間差分値の統計から、上記ブロック画素間差分値の最大値と最小値との差であるダイナミックレンジを算出するブロック統計量算出手段を有することを特徴とする請求項11記載の画像信号処理装置。  Block statistics for calculating a dynamic range that is a difference between the maximum value and the minimum value of the difference value between the block pixels from the statistics of the difference value between the block pixels in the target block calculated by the difference value calculation means between the block pixels 12. The image signal processing apparatus according to claim 11, further comprising a quantity calculation unit. 上記ブロック統計量算出手段は、上記ブロック画素間差分値の上記最大値、最小値、及びダイナミックレンジから上記ブロック凹凸判定における上記第2の閾値を算出することを特徴とする請求項15記載の画像信号処理装置。  The image according to claim 15, wherein the block statistic calculation unit calculates the second threshold value in the block unevenness determination from the maximum value, the minimum value, and the dynamic range of the block pixel difference values. Signal processing device. 上記領域切出手段は、上記第1の画像のブロック毎のデータが入力され、上記注目画素が属する注目ブロックにおける該注目画素を含む水平方向及び垂直方向の夫々水平ラインデータ及び垂直ラインデータを上記予測タップとして切り出すことを特徴とする請求項1記載の画像信号処理装置。  The region cutout means receives data for each block of the first image, and outputs horizontal line data and vertical line data in the horizontal direction and vertical direction including the target pixel in the target block to which the target pixel belongs, respectively. The image signal processing apparatus according to claim 1, wherein the image signal processing apparatus is cut out as a prediction tap. 上記領域切出手段は、上記第1の画像のブロック毎のデータが入力され、上記注目画素が属する注目ブロックにおける該注目画素を含む水平方向及び垂直方向の夫々水平ラインデータ及び垂直ラインデータと、上記注目ブロックに隣接する隣接ブロックにて上記注目画素と水平又は垂直位置が同一で上記注目ブロックに最も近接する隣接ブロック画素とを上記予測タップとして切り出すことを特徴とする請求項1記載の画像信号処理装置。  The area cutout means receives data for each block of the first image, and includes horizontal line data and vertical line data in the horizontal direction and vertical direction, respectively, including the target pixel in the target block to which the target pixel belongs, 2. The image signal according to claim 1, wherein in the adjacent block adjacent to the target block, the adjacent block pixel having the same horizontal or vertical position as the target pixel and closest to the target block is cut out as the prediction tap. Processing equipment. 上記クラス分類手段は、上記水平ラインデータ及び上記垂直ラインデータで隣りあう画素間の各差分値が所定の閾値以上である場合に、この画素間にはエッジが存在するものと判定し、このエッジ判定結果に基づき上記注目画素を複数の空間クラスのいずれかに分類することを特徴とする請求項18記載の画像信号処理装置。  The class classification means determines that there is an edge between the pixels when each difference value between adjacent pixels in the horizontal line data and the vertical line data is equal to or greater than a predetermined threshold value. 19. The image signal processing apparatus according to claim 18, wherein the target pixel is classified into one of a plurality of spatial classes based on a determination result. 上記クラス分類手段は、上記隣接ブロック画素と該隣接ブロック画素に最も近接する画素との差分値が所定値以上である場合に、上記注目ブロックと上記隣接ブロック画素が属する隣接ブロックとの間にはエッジが存在するものと判定し、このエッジ判定結果に基づき上記注目画素を複数の空間クラスのいずれかに分類することを特徴とする請求項18記載の画像信号処理装置。  When the difference value between the adjacent block pixel and the pixel closest to the adjacent block pixel is equal to or greater than a predetermined value, the class classification unit may determine whether the target block and the adjacent block to which the adjacent block pixel belongs are between 19. The image signal processing apparatus according to claim 18, wherein it is determined that an edge exists, and the target pixel is classified into one of a plurality of spatial classes based on the edge determination result. 上記ブロック画素間差分値が所定の閾値未満の場合、上記注目画素が属する注目ブロック全体は、平坦ブロッククラスに分類されることを特徴とする請求項11記載の画像信号処理装置。  12. The image signal processing apparatus according to claim 11, wherein when the difference value between block pixels is less than a predetermined threshold, the entire target block to which the target pixel belongs is classified into a flat block class. 上記注目画素とこの注目画素の一方の側にて隣接する画素との間と、上記注目画素とこの注目画素の他方の側にて隣接する画素との間とに共にエッジが存在し、且つ、上記画素間の差分値が共に同一符号である場合、上記注目画素は、エッジ上クラスに分類されることを特徴とする請求項4記載の画像信号処理装置。  An edge exists between the target pixel and a pixel adjacent on one side of the target pixel, and between the target pixel and a pixel adjacent on the other side of the target pixel; and 5. The image signal processing apparatus according to claim 4, wherein when the difference values between the pixels have the same sign, the target pixel is classified into an on-edge class. 上記注目画素とこの注目画素の一方の側にて隣接する画素との間と、上記注目画素とこの注目画素の他方の側にて隣接する画素との間とに共にエッジが存在し、且つ、上記画素間の差分値が互いに異符号である場合、上記注目画素は、細線上クラスに分類されることを特徴とする請求項4記載の画像信号処理装置。  An edge exists between the target pixel and a pixel adjacent on one side of the target pixel, and between the target pixel and a pixel adjacent on the other side of the target pixel; and 5. The image signal processing apparatus according to claim 4, wherein when the difference values between the pixels have different signs, the target pixel is classified into a fine line class. 上記注目画素より一方の側に配置されている各画素間と、上記注目画素から他方の側に配置されている各画素間とのうち、両方向にエッジが存在する場合、上記注目画素は、複雑クラスに分類されることを特徴とする請求項4記載の画像信号処理装置。  If there are edges in both directions between the pixels arranged on one side of the pixel of interest and between the pixels arranged on the other side of the pixel of interest, the pixel of interest is complex 5. The image signal processing apparatus according to claim 4, wherein the image signal processing apparatus is classified into classes. 上記注目画素より一方の側に配置されている各画素間と、上記注目画素から他方の側に配置されている各画素間とのうち、何れか一方の側にエッジが存在する場合、上記注目画素は、単純エッジクラスに分類されることを特徴とする請求項4記載の画像信号処理装置。  If there is an edge on either side between the pixels arranged on one side of the target pixel and between the pixels arranged on the other side from the target pixel, the target 5. The image signal processing apparatus according to claim 4, wherein the pixels are classified into a simple edge class. 上記単純エッジクラスは、エッジの位置に基づいて更に異なるクラスに分類されることを特徴とする請求項25記載の画像信号処理装置。  26. The image signal processing apparatus according to claim 25, wherein the simple edge class is further classified into different classes based on edge positions. 上記第1の画像をフレーム毎に記憶する複数のフレームメモリを有し、
上記領域切出手段は、上記注目画素を含む注目フレーム及びこの注目フレームの前後の複数のフレームが入力され、これら全てのフレームにおいて上記注目画素と同一の位置の画素を上記予測タップとして切り出すことを特徴とする請求項1記載の画像信号処理装置。
A plurality of frame memories for storing the first image for each frame;
The region extraction means receives an attention frame including the attention pixel and a plurality of frames before and after the attention frame, and extracts a pixel at the same position as the attention pixel as the prediction tap in all the frames. The image signal processing apparatus according to claim 1, wherein:
上記クラス分類手段は、上記全てのフレームにおいて上記注目画素と同一の位置の画素から構成される上記予測タップの上記差分値に基づき、上記注目画素を複数の時間クラスのうち何れかのクラスに分類することを特徴とする請求項27記載の画像信号処理装置。  The class classifying unit classifies the target pixel into any one of a plurality of time classes based on the difference value of the prediction tap composed of pixels at the same position as the target pixel in all the frames. 28. The image signal processing apparatus according to claim 27. 上記フレーム毎のブロックデータが入力され、上記注目画素が属する注目ブロックにおいて水平方向及び垂直方向に隣接する各画素間の画素値の差分値をブロック画素間差分値として算出するブロック画素間差分値算出手段と、
上記ブロック画素間差分値算出手段で算出された上記注目ブロックにおける上記ブロック画素間差分値の統計に基づきブロック閾値を算出するブロック特徴量算出手段とを有し、
上記クラス分類手段は、上記予測タップにおける隣接フレームの画素間差分値と上記フレーム毎の上記ブロック閾値の最大値とに基づき上記注目画素の時間クラスを分類することを特徴とする請求項28記載の画像信号処理装置。
Block pixel difference value calculation that receives block data for each frame and calculates a difference value of pixel values between pixels adjacent to each other in the horizontal direction and the vertical direction in the target block to which the target pixel belongs. Means,
Block feature value calculating means for calculating a block threshold based on statistics of the difference value between block pixels in the block of interest calculated by the difference value calculating means between block pixels;
29. The time class of the pixel of interest according to claim 28, wherein the class classification means classifies the time class of the pixel of interest based on a difference value between pixels of adjacent frames in the prediction tap and a maximum value of the block threshold value for each frame. Image signal processing device.
上記予測タップにおける隣接フレームの画素間差分値が上記フレーム毎の上記ブロック閾値の最大値より大きい場合は、上記画素間差分値を算出したフレームから上記注目フレームとは離隔する方向のフレームの画素を使用不可タップとし、
この使用不可タップ以外の画素を使用可能タップとし、上記クラス分類手段は、上記使用可能タップ数及び使用不可タップ数に基づき上記時間クラスを分類することを特徴とする請求項29記載の画像信号処理装置。
If the inter-pixel difference value of the adjacent frame in the prediction tap is larger than the maximum value of the block threshold for each frame, the pixel of the frame in a direction away from the frame of interest is calculated from the frame from which the inter-pixel difference value is calculated. Unusable tap
30. The image signal processing according to claim 29, wherein pixels other than the unusable taps are usable taps, and the class classification unit classifies the time class based on the number of usable taps and the number of unusable taps. apparatus.
上記予測係数を予め学習する学習手段を有し、
上記学習手段は、教師画像に歪みを付加した生徒画像となる上記第1の画像を生成する画像生成手段と、上記第1の画像から注目画素及びその周辺の複数の第1の画素を予測タップとして切り出す領域切出手段と、上記予測タップのうち所定の位置関係を有する画素間の差分値を算出する差分値算出手段と、上記差分値に基づき、上記予測タップを複数のクラスのうち何れかのクラスに分類するクラス分類手段と、上記教師画像及び上記予測タップから上記第2の画像を予測演算するための予測係数を算出する予測係数算出手段と、予測係数を上記クラス毎に記憶する記憶手段とを有することを特徴とする請求項30記載の画像信号処理装置。
Learning means for learning the prediction coefficient in advance;
The learning means is an image generating means for generating the first image to be a student image obtained by adding distortion to a teacher image, and a prediction tap for a target pixel and a plurality of first pixels around it from the first image. A region cutout unit that cuts out as: a difference value calculation unit that calculates a difference value between pixels having a predetermined positional relationship among the prediction taps; and the prediction tap is selected from any of a plurality of classes based on the difference value Class classifying means for classifying the second image, prediction coefficient calculating means for calculating a prediction coefficient for predicting the second image from the teacher image and the prediction tap, and storage for storing the prediction coefficient for each class 31. The image signal processing apparatus according to claim 30, further comprising: means.
上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、上記未来方向に1以上の上記使用可能タップが存在し、且つ、上記過去方向に1以上の上記使用可能タップが存在する場合、上記注目画素は、第1の時間クラスに分類されることを特徴とする請求項31記載の画像信号処理装置。  The prediction tap includes a plurality of taps in the future direction and the past direction in time from the attention frame to which the pixel of interest belongs, and one or more usable taps exist in the future direction, and 32. The image signal processing apparatus according to claim 31, wherein when there are one or more usable taps, the target pixel is classified into a first time class. 上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、未来方向における全てのタップが上記使用不可タップである場合、上記注目画素は、第2の時間クラスに分類されることを特徴とする請求項30記載の画像信号処理装置。  The prediction tap includes a plurality of taps in the future direction and the past direction from the attention frame to which the pixel of interest belongs, and when all the taps in the future direction are the unusable taps, The image signal processing apparatus according to claim 30, wherein the image signal processing apparatus is classified into two time classes. 上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、過去方向における全てのタップが上記使用不可タップである場合、上記注目画素は、第3の時間クラスに分類されることを特徴とする請求項30記載の画像信号処理装置。  The prediction tap includes a plurality of taps in the future direction and the past direction from the attention frame to which the pixel of interest belongs, and when all the taps in the past direction are the unusable taps, The image signal processing device according to claim 30, wherein the image signal processing device is classified into three time classes. 上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、全てのタップが上記使用不可タップである場合、上記注目画素は、第4の時間クラスに分類されることを特徴とする請求項30記載の画像信号処理装置。  The prediction tap includes a plurality of taps in the future direction and the past direction from the attention frame to which the pixel of interest belongs, and when all the taps are unusable taps, the pixel of interest is a fourth time. The image signal processing apparatus according to claim 30, wherein the image signal processing apparatus is classified into classes. 上記学習手段における上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、全ての上記予測タップが上記使用可能タップである場合、上記注目画素は、上記第1の時間クラスに分類されることを特徴とする請求項32記載の画像信号処理装置。  The prediction tap in the learning means includes a plurality of taps in a future direction and a past direction in time from the target frame to which the target pixel belongs, and when all the prediction taps are usable taps, the target pixel 33. The image signal processing device according to claim 32, wherein the image signal processing device is classified into the first time class. 上記推定演算時に上記第1の時間クラスに分類される上記予測タップにおける上記使用不可タップに相当する上記第1の時間クラスに分類され学習された上記学習手段における上記予測タップの予測係数を、上記推定演算時の上記予測タップにおける全ての上記使用可能タップに分配すると共に、該使用不可タップの予測係数を0にすることを特徴とする請求項36記載の画像信号処理装置。  The prediction coefficient of the prediction tap in the learning means that is classified and learned in the first time class corresponding to the unusable tap in the prediction tap that is classified into the first time class at the time of the estimation calculation, 37. The image signal processing apparatus according to claim 36, wherein the prediction signal is distributed to all the usable taps in the prediction tap at the time of estimation calculation, and the prediction coefficient of the unusable tap is set to zero. 上記学習手段における上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、未来方向における全てのタップのうち1つでも上記使用不可タップがある場合、上記注目画素は、第2の時間クラスに分類されることを特徴とする請求項33記載の画像信号処理装置。  The prediction tap in the learning means includes a plurality of taps in the future direction and the past direction in time from the attention frame to which the pixel of interest belongs, and even one of all taps in the future direction has the unusable tap. 34. The image signal processing device according to claim 33, wherein the target pixel is classified into a second time class. 上記推定演算時に上記第2の時間クラスに分類される上記予測タップにおける上記使用不可タップに相当する上記第2の時間クラスに分類され学習された上記学習手段における上記予測タップの予測係数を、上記推定演算時の上記予測タップにおける全ての上記使用可能タップに分配すると共に、該使用不可タップの予測係数を0にすることを特徴とする請求項38記載の画像信号処理装置。  The prediction coefficient of the prediction tap in the learning means that is classified and learned in the second time class corresponding to the unusable tap in the prediction tap that is classified into the second time class at the time of the estimation calculation, 39. The image signal processing apparatus according to claim 38, wherein the prediction signal is distributed to all the usable taps in the prediction tap at the time of estimation calculation, and the prediction coefficient of the unusable tap is set to zero. 上記学習手段における上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、過去方向における全てのタップのうち1つので上記使用不可タップがある場合、上記注目画素は、第3の時間クラスに分類されることを特徴とする請求項34記載の画像信号処理装置。  The prediction tap in the learning means includes a plurality of taps in the future direction and the past direction from the attention frame to which the pixel of interest belongs, and one of all the taps in the past direction has the unusable tap. 35. The image signal processing apparatus according to claim 34, wherein the target pixel is classified into a third time class. 上記推定演算時に上記第3の時間クラスに分類される上記予測タップにおける上記使用不可タップに相当する上記第3の時間クラスに分類され使用された上記学習手段における上記予測タップの予測係数を、上記推定演算時の上記予測タップにおける全ての上記使用可能タップに分配すると共に、該使用不可タップの予測係数を0にすることを特徴とする請求項40記載の画像信号処理装置。  The prediction coefficient of the prediction tap in the learning means that is classified and used in the third time class corresponding to the unusable tap in the prediction tap that is classified into the third time class at the time of the estimation calculation, 41. The image signal processing apparatus according to claim 40, wherein the prediction signal is distributed to all usable taps in the prediction tap at the time of estimation calculation, and the prediction coefficient of the unusable tap is set to zero. 上記学習手段における上記予測タップは、上記注目画素が属する上記注目フレームから時間的に未来方向及び過去方向の複数のタップからなり、未来方向における全てのタップのうち1つでも上記使用不可タップがあり、且つ過去方向における全てのタップのうち1つでも上記使用不可タップがある場合、上記注目画素は、第4の時間クラスに分類されることを特徴とする請求項34記載の画像信号処理装置。  The prediction tap in the learning means includes a plurality of taps in the future direction and the past direction in time from the attention frame to which the pixel of interest belongs, and even one of all taps in the future direction has the unusable tap. 35. The image signal processing device according to claim 34, wherein if there is at least one unusable tap among all taps in the past direction, the pixel of interest is classified into a fourth time class. 上記クラス分類手段は、上記ブロックデータにおける上記注目画素の位置に基づきクラス分類することを特徴とする請求項11記載の画像信号処理装置。  12. The image signal processing apparatus according to claim 11, wherein the class classification unit performs class classification based on a position of the target pixel in the block data. 上記第1の画像は、DCT変換及びDCT係数の量子化により符号化された画像データが復号されたもの又はMPEG復号画像であることを特徴とする請求項1記載の画像信号処理装置。2. The image signal processing apparatus according to claim 1, wherein the first image is a decoded image data or an MPEG decoded image encoded by DCT transform and DCT coefficient quantization. 上記第1の画像は、輝度信号及び色差信号を有し、上記クラス分類手段は、上記色差信号に対応する上記輝度信号から上記色差信号の注目画素のクラスを分類することを特徴とする請求項1記載の画像信号処理装置。  The first image includes a luminance signal and a color difference signal, and the class classification unit classifies a class of a target pixel of the color difference signal from the luminance signal corresponding to the color difference signal. The image signal processing apparatus according to 1. 上記第1の画像がインターレス方式か、プログレッシブ方式かを判定し、この判定結果を記録する特徴量記憶手段を有することを特徴とする請求項45記載の画像信号処理装置。  46. The image signal processing apparatus according to claim 45, further comprising: feature amount storage means for determining whether the first image is an interlaced method or a progressive method and recording the determination result. 上記領域切出手段は、クラス分類手段にてクラス分類に使用されるクラスタップを切り出す第1の領域切出手段と、上記推定演算手段にて使用される予測タップを切り出す第2の領域切出手段とを有することを特徴とする請求項1記載の画像処理装置。  The area extraction means includes a first area extraction means for extracting a class tap used for class classification by the class classification means, and a second area extraction for extracting a prediction tap used by the estimation calculation means. The image processing apparatus according to claim 1, further comprising: means. 第1の画像に対して所定の推定演算を行って上記第1の画像を第2の画像に変換する予測係数を学習する予測係数学習装置において、
原画像に歪みを付加して第1の画像を生成する画像生成手段と、
上記第1の画像から注目画素及びその周辺の複数の第1の画素を予測タップとして切り出す領域切出手段と、
上記予測タップのうち所定の位置関係を有する画素間の差分値を算出する差分値算出手段と、
上記差分値に基づき、上記予測タップを複数のクラスのうち何れかのクラスに分類するクラス分類手段と、
上記予測タップから上記第2の画像を予測演算するための予測係数を算出する予測係数算出手段と、
予測係数を上記クラス毎に記憶する記憶手段と
を有することを特徴とする予測係数学習装置。
In a prediction coefficient learning device that learns a prediction coefficient for performing a predetermined estimation operation on a first image and converting the first image into a second image,
Image generating means for generating a first image by adding distortion to the original image;
A region cutout means for cutting out the target pixel and the plurality of first pixels around it from the first image as prediction taps;
Difference value calculating means for calculating a difference value between pixels having a predetermined positional relationship among the prediction taps;
Class classification means for classifying the prediction tap into any one of a plurality of classes based on the difference value;
Prediction coefficient calculating means for calculating a prediction coefficient for predicting the second image from the prediction tap;
A prediction coefficient learning apparatus comprising: a storage unit that stores a prediction coefficient for each class.
入力される第1の画像に対して所定の推定演算を行って上記第1の画像を第2の画像に変換する画像信号処理方法において、
上記第1の画像から、注目画素及びその周辺の複数の画素を予測タップとして切り出す領域切出工程と、
上記予測タップのうち所定の位置関係を有する画素間の差分値を算出する差分値算出工程と、
上記予測タップの差分値に基づき、上記注目画素を複数のクラスのうち何れかのクラスに分類するクラス分類工程と、
上記注目画素が分類されたクラスに対応する予測係数を読み出す読出工程と、
読み出された上記予測係数と上記予測タップとから上記所定の推定演算により上記注目画素の画素値を第2の画像の画素値に変換する推定演算工程とを有することを特徴とする画像信号処理方法。
In an image signal processing method for performing a predetermined estimation operation on an input first image and converting the first image into a second image,
A region cutting step of cutting out the target pixel and a plurality of pixels around it from the first image as a prediction tap;
A difference value calculating step of calculating a difference value between pixels having a predetermined positional relationship among the prediction taps;
A class classification step for classifying the pixel of interest into one of a plurality of classes based on the difference value of the prediction tap;
A reading step of reading a prediction coefficient corresponding to the class in which the pixel of interest is classified;
An image signal processing comprising: an estimation calculation step of converting the pixel value of the pixel of interest into a pixel value of a second image by the predetermined estimation calculation from the read prediction coefficient and the prediction tap Method.
第1の画像に対して所定の推定演算を行って上記第1の画像を第2の画像に変換する予測係数を学習する予測係数学習方法において、
原画像に歪みを付加して第1の画像を生成する画像生成工程と、
上記第1の画像から注目画素及びその周辺の複数の第1の画素を予測タップとして切り出す領域切出工程と、
上記予測タップのうち所定の位置関係を有する画素間の差分値を算出する差分値算出工程と、
上記差分値に基づき、上記予測タップを複数のクラスのうち何れかのクラスに分類するクラス分類工程と、
上記予測タップから上記第2の画像を予測演算するための予測係数を算出する予測係数算出工程と、
予測係数を上記クラス毎に記憶する記憶工程とを有することを特徴とする予測係数学習方法。
In a prediction coefficient learning method for learning a prediction coefficient for performing a predetermined estimation operation on a first image and converting the first image into a second image,
An image generation step of generating a first image by adding distortion to the original image;
A region cutting out step of cutting out the target pixel and the plurality of first pixels around it from the first image as a prediction tap;
A difference value calculating step of calculating a difference value between pixels having a predetermined positional relationship among the prediction taps;
A class classification step for classifying the prediction tap into one of a plurality of classes based on the difference value;
A prediction coefficient calculation step for calculating a prediction coefficient for predicting the second image from the prediction tap;
A prediction coefficient learning method comprising: storing a prediction coefficient for each class.
JP2002129440A 2002-04-30 2002-04-30 Image signal processing apparatus and method Expired - Fee Related JP4082079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002129440A JP4082079B2 (en) 2002-04-30 2002-04-30 Image signal processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002129440A JP4082079B2 (en) 2002-04-30 2002-04-30 Image signal processing apparatus and method

Publications (3)

Publication Number Publication Date
JP2003324738A JP2003324738A (en) 2003-11-14
JP2003324738A5 true JP2003324738A5 (en) 2005-09-08
JP4082079B2 JP4082079B2 (en) 2008-04-30

Family

ID=29542837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002129440A Expired - Fee Related JP4082079B2 (en) 2002-04-30 2002-04-30 Image signal processing apparatus and method

Country Status (1)

Country Link
JP (1) JP4082079B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2004301091B2 (en) 2003-08-19 2008-09-11 Panasonic Corporation Method for encoding moving image and method for decoding moving image
JP4683294B2 (en) * 2006-03-16 2011-05-18 ソニー株式会社 Image processing apparatus and method, program recording medium, and program
JP5029869B2 (en) * 2006-11-09 2012-09-19 ソニー株式会社 Image processing apparatus, image processing method, learning apparatus, learning method, and program
JP4770711B2 (en) * 2006-11-15 2011-09-14 ソニー株式会社 Image processing apparatus, image processing method, and program
JP4957280B2 (en) * 2007-02-15 2012-06-20 ソニー株式会社 Image processing apparatus, image processing method, and program
CN110032914A (en) * 2018-01-12 2019-07-19 北京京东尚科信息技术有限公司 A kind of method and apparatus marking picture
CN112642022B (en) * 2020-12-31 2022-07-05 遵义师范学院 Infusion monitoring system and monitoring method

Similar Documents

Publication Publication Date Title
KR101369524B1 (en) Banding artifact detection in digital video content
AU2006252252B2 (en) Image processing method and apparatus
CN101243685B (en) Coding method, processing method and processing device for digital media data
US7085420B2 (en) Text detection in continuous tone image segments
JP4771906B2 (en) Method for classifying images with respect to JPEG compression history
US20100201880A1 (en) Shot size identifying apparatus and method, electronic apparatus, and computer program
US20100316131A1 (en) Macroblock level no-reference objective quality estimation of video
CN102187351B (en) Blockiness and fidelity in watermarking
CN111369548B (en) No-reference video quality evaluation method and device based on generation countermeasure network
CN101352029A (en) Randomly sub-sampled partition voting(RSVP) algorithm for scene change detection
US9967565B2 (en) Image compression method based on local dynamic quantizing
US9693078B2 (en) Methods and systems for detecting block errors in a video
US20170345170A1 (en) Method of controlling a quality measure and system thereof
Subramanyam et al. Pixel estimation based video forgery detection
WO2002039383A2 (en) Method and arrangement for embedding a watermark in an information signal
CN103067713A (en) Method and system of bitmap joint photographic experts group (JPEG) compression detection
JP2003324738A5 (en)
CN106331730B (en) H.264 video same quantization factor double compression detection method
KR101215666B1 (en) Method, system and computer program product for object color correction
JP2009212605A (en) Information processing method, information processor, and program
Wang et al. Perceptually quasi-lossless compression of screen content data via visibility modeling and deep forecasting
KR20060111528A (en) Detection of local visual space-time details in a video signal
CN111723735B (en) Pseudo high bit rate HEVC video detection method based on convolutional neural network
US9886650B2 (en) Method and device for determining similarity between sequences
Jacobson et al. Scale-aware saliency for application to frame rate upconversion