WO2012101862A1 - エッジ強調方法またはエッジ強調度演算方法 - Google Patents

エッジ強調方法またはエッジ強調度演算方法 Download PDF

Info

Publication number
WO2012101862A1
WO2012101862A1 PCT/JP2011/070569 JP2011070569W WO2012101862A1 WO 2012101862 A1 WO2012101862 A1 WO 2012101862A1 JP 2011070569 W JP2011070569 W JP 2011070569W WO 2012101862 A1 WO2012101862 A1 WO 2012101862A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
edge
interest
edge enhancement
pixels
Prior art date
Application number
PCT/JP2011/070569
Other languages
English (en)
French (fr)
Inventor
海峰 陳
Original Assignee
株式会社ナナオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ナナオ filed Critical 株式会社ナナオ
Publication of WO2012101862A1 publication Critical patent/WO2012101862A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Definitions

  • the present invention relates to an edge enhancement method, and more particularly to an overemphasis prevention process.
  • Patent Document 1 discloses an edge enhancement method in which pixels in a peripheral pixel region within a predetermined range including a target pixel are weighted according to a luminance difference from adjacent pixels, the sum is obtained, and edge enhancement of the target pixel is performed. Has been.
  • the edge component E1 of each pixel of the input luminance signal is detected, and a large weight is given to the luminance value of the input luminance signal at a medium level, and a small weight is given to the edge component E1 relating to a low level or high level pixel. Is added.
  • An object of the present invention is to provide an edge emphasizing method or apparatus capable of solving the above-described problems and capable of edge emphasis preventing over-emphasis.
  • the edge enhancement method specifies a target pixel peripheral region that determines a target pixel peripheral region for the target pixel when the target pixel (x, y) is designated from a plurality of pixels arranged in a matrix.
  • a rule is stored, and for the plurality of pixels, it is determined whether or not the pixel is an edge pixel.
  • the pixel of interest is sequentially shifted to calculate the edge enhancement level for all pixels, and edge enhancement processing is performed based on the obtained edge enhancement level of each pixel.
  • the edge enhancement of the pixel of interest can be performed based on the number of edge pixels present in the peripheral region of the pixel of interest and the distance from each edge pixel.
  • the upper limit threshold and the lower limit threshold are provided, the flat portion is not emphasized, and overemphasis can be prevented.
  • the edge enhancement calculation method stores a pixel-of-interest peripheral region specifying rule for determining a pixel-peripheral region for a target pixel when the target pixel is designated from a plurality of pixels arranged in a matrix.
  • a pixel-of-interest peripheral region specifying rule for determining a pixel-peripheral region for a target pixel when the target pixel is designated from a plurality of pixels arranged in a matrix.
  • it is determined whether or not the pixel is an edge pixel, and when the target pixel is designated, the edge pixel existing in the target pixel peripheral region determined by the target pixel peripheral region specifying rule Calculate the weighted edge enhancement influence degree considering the distance to the target pixel as a weight, and based on the weighted total edge enhancement influence degree totaling the weighted edge enhancement influence degree of the edge pixel, the edge enhancement of the target pixel Calculate the degree.
  • the edge enhancement degree of the target pixel can be determined based on the number of edge pixels existing in the peripheral region of the target pixel and the distance from each edge pixel.
  • the edge enhancement degree calculation method compares a predetermined lower limit threshold and upper limit threshold with the weighted total edge enhancement influence degree, and if the weighted total edge enhancement influence degree is smaller than the lower limit threshold, When the edge enhancement level is zero and greater than the upper threshold value, the edge enhancement level of the target pixel is set as a predetermined upper limit coefficient value, and when the target pixel is intermediate between the upper limit threshold value and the lower limit threshold value, The edge emphasis degree is set to the upper limit coefficient value * (the weighted total edge emphasis influence degree ⁇ the lower limit threshold) / (the upper limit threshold ⁇ the lower limit threshold).
  • the upper limit threshold and the lower limit threshold it is possible to obtain an edge enhancement degree that does not emphasize the flat portion and can also prevent over-emphasis.
  • the edge enhancement calculation method stores a pixel-of-interest peripheral region specifying rule for determining a pixel-peripheral region for a target pixel when the pixel of interest is specified from a plurality of pixels arranged in a matrix. In addition, it is determined whether or not the plurality of pixels are edge pixels, and when the target pixel is designated, the pixel is determined based on the edge pixel existing in the target pixel peripheral region determined by the target pixel peripheral region specifying rule.
  • An edge enhancement degree calculation method for calculating an edge enhancement degree of a pixel of interest calculating a weighted total edge enhancement influence degree obtained by summing weighted edge enhancement influence degrees of edge pixels existing in the peripheral area of the pixel of interest; Comparing the lower limit threshold value and the upper limit threshold value with the edge enhancement degree, if the edge enhancement degree is smaller than the lower limit threshold value, the edge enhancement degree of the pixel of interest is zero, When the value is larger than the upper limit threshold, the edge enhancement degree of the target pixel is set to a predetermined upper limit coefficient value, and when it is between the upper limit threshold and the lower limit threshold, the edge enhancement degree of the target pixel is set to the upper limit Coefficient value * (the weighted total edge emphasis influence degree ⁇ the lower threshold) / (the upper threshold ⁇ the lower threshold).
  • the upper limit threshold and the lower limit threshold it is possible to obtain an edge enhancement degree that does not emphasize the flat portion and can also prevent over-emphasis.
  • the edge enhancement degree calculation method stores a pixel-of-interest peripheral region specifying rule for determining a pixel-peripheral region for a target pixel when the target pixel is designated from a plurality of pixels arranged in a matrix. In addition, it is determined whether or not the plurality of pixels are edge pixels, and when the target pixel is designated, the target pixel peripheral region determined by the target pixel peripheral region specification rule is used for the target pixel peripheral region. As the number of edge pixels closer to the pixel is larger, the edge enhancement degree of the target pixel is increased.
  • the edge enhancement degree of the target pixel can be increased as the number of edge pixels existing in the peripheral area of the target pixel and the distance from each edge pixel are closer.
  • the edge enhancement degree computing device is: A) A pixel-of-interest surrounding area specifying rule that determines a pixel-of-interest peripheral area for a pixel of interest when a pixel of interest is designated from a plurality of pixels arranged in a matrix B) Edge pixel determination means for determining whether or not the plurality of pixels are edge pixels, and C) When a target pixel is designated, the target pixel periphery determined by the target pixel peripheral region specifying rule A weighted edge emphasis influence calculating means for calculating a weighted edge emphasis influence degree in consideration of a distance from the target pixel as a weight for an edge pixel existing in the region; and D) a weighted edge emphasis influence degree of the edge pixel.
  • Edge enhancement degree calculating means for calculating the edge enhancement degree of the target pixel based on the weighted total edge enhancement influence degree obtained by totaling
  • the edge enhancement degree of the target pixel can be determined based on the number of edge pixels existing in the peripheral region of the target pixel and the distance from each edge pixel.
  • An edge enhancement calculation program is an edge enhancement calculation program for causing a computer to function as the following means.
  • Storage means for storing a pixel-of-interest peripheral area specifying rule for determining a pixel-of-interest peripheral area for the pixel of interest when a pixel-of-interest is specified from a plurality of pixels arranged in a matrix, whether the plurality of pixels are edge pixels
  • Edge pixel determination means for determining, when a target pixel is specified, a weight considering a distance from the target pixel as a weight for an edge pixel existing in the target pixel peripheral region determined by the target pixel peripheral region specifying rule
  • a weighted edge emphasis influence calculating means for calculating a weighted edge emphasis influence degree, and calculating an edge emphasis degree of the target pixel based on a weighted total edge emphasis influence degree obtained by totaling the weighted edge enhancement influence degrees of the edge pixels
  • Edge enhancement degree calculating means for storing a pixel-of-interest peripheral area specifying rule for determining a pixel
  • the edge enhancement degree of the target pixel can be determined based on the number of edge pixels existing in the peripheral region of the target pixel and the distance from each edge pixel.
  • the edge enhancement degree calculation method stores a pixel-of-interest peripheral region specifying rule for determining a pixel-of-interest peripheral region for a pixel of interest when a pixel of interest is specified from a plurality of pixels arranged in a matrix.
  • the edge enhancement degree of the target pixel can be determined based on the number of edge pixels existing in the peripheral region of the target pixel.
  • edge means that the above-mentioned features change abruptly when a region having similar features such as the luminance value, density value, color, and pattern of a pixel is defined as one region. , Refers to the boundary between regions. *
  • the weighted total edge emphasis influence degree corresponds to the weighted total edge number NumE (x, y) in the embodiment.
  • the “weighting operation considering distance” may be changed non-linearly as well as linearly changing the weight. Anything can be used. Note that the weighting process based on the distance may not be performed.
  • FIG. 2 is a functional block diagram of the edge enhancement device 1.
  • FIG. It is an example of the hardware configuration at the time of comprising the edge emphasis apparatus 1 using CPU. It is the whole flowchart.
  • 3 is a detailed flowchart of step S1. It is the filter used for edge detection in this embodiment. 3 is a detailed flowchart of step S5. It is a figure which shows the window (15 * 3) used in this embodiment. It is a weighting mask. It is a graph which shows the relationship between a weighted edge total value and an emphasis coefficient.
  • a hardware structure at the time of comprising the edge emphasis apparatus 1 with a logic circuit It is an example of a hardware structure at the time of comprising the edge emphasis apparatus 1 with a logic circuit.
  • FIG. 1 is a functional block diagram of an edge enhancement device 1 according to an embodiment of the present invention.
  • the edge enhancement device 1 includes rule storage means 3, edge pixel determination means 5, weighted edge enhancement influence degree calculation means 7, edge enhancement degree calculation means 9, and edge enhancement processing means 11.
  • the rule storage means 3 is a pixel-of-interest peripheral region specifying rule for determining a pixel-of-interest peripheral region for the pixel of interest (x, y) when the pixel of interest (x, y) is designated from a plurality of pixels arranged in a matrix.
  • the edge pixel determination means 5 determines whether or not the plurality of pixels are edge pixels.
  • the weighted edge emphasis influence calculation means 7 calculates the target pixel for the edge pixel existing in the target pixel peripheral region determined by the target pixel peripheral region specifying rule.
  • the weighted edge enhancement influence degree considering the distance from (x, y) as a weight is calculated, and the weighted total edge number NumE (x , y).
  • the edge enhancement degree calculation means 9 sets the edge enhancement degree W (x, y) of the pixel of interest (x, y) to zero when it is smaller than the lower limit threshold THs, and sets the upper limit coefficient value when it is larger than the upper limit threshold THh. If Wh is between these values, the calculation is performed according to the following formula.
  • the edge enhancement processing means 11 sequentially shifts the pixel of interest, calculates the edge enhancement level for all the pixels, and performs edge enhancement processing based on the obtained edge enhancement level of each pixel.
  • FIG. 2 shows a hardware configuration of the edge enhancement device 1.
  • the edge enhancement device 1 includes a CPU 23, a frame memory 27, a RAM 25, and a flash memory 26.
  • the flash memory 26 stores a program 26p.
  • the program 26p performs edge enhancement processing as will be described later.
  • the RAM 25 stores calculation results and the like.
  • the frame memory 27 holds image data for one screen.
  • the CPU 23 sets a 15 * 3 pixel window for the image data stored in the frame memory 27 according to the program 26P, determines the edge enhancement coefficient based on the weighted edge total value in the set area, Edge enhancement processing is performed, and the result is stored in the RAM 25.
  • the CPU 23 calculates the edge amount g (x, y) of the edge amount calculation target pixel (x, y) (step S21).
  • the edge amount g (x, y) of the edge amount calculation target pixel (x, y) is calculated using the Sobel filter, and the obtained horizontal and vertical total values are further calculated. Calculation was performed by adding. That is, the calculation using the horizontal and vertical coefficient matrices as shown in FIGS. 5A and 5B is performed to obtain the absolute value of the total value gHS in the horizontal direction and the absolute value of the total value gVS in the vertical direction. Added. As described above, since the calculation is not based on the square calculation but based on the absolute value of the total value gHS and the total value gVS in the vertical direction, the calculation becomes easy.
  • the CPU 23 calculates the threshold THg (x, y) of the edge amount calculation target pixel (x, y).
  • the threshold value THg (x, y) is a value obtained by multiplying the average luminance of the pixel in the previous 16 frames by a predetermined coefficient Kth.
  • the CPU 23 determines whether the edge amount g (x, y) of the edge amount calculation target pixel (x, y) exceeds the threshold THg (x, y) (step S25), and determines the edge amount calculation target pixel (x , y), when the edge amount g (x, y) exceeds the threshold THg (x, y), the edge amount calculation target pixel (x, y) is assumed to be an edge (step S27). If the edge amount g (x, y) of the amount calculation target pixel (x, y) does not exceed the threshold THg (x, y), the edge amount calculation target pixel (x, y) is determined not to be an edge. (Step S29).
  • CPU 23 executes the edge determination of FIG. 4 for all pixels.
  • the CPU 23 initializes the target pixel number i for determining the edge enhancement degree (step S3 in FIG. 3), and determines the edge enhancement coefficient of the target pixel based on the edge distribution in the predetermined window (step S5). ).
  • the edge enhancement coefficient processing of the target pixel will be described with reference to FIG.
  • the CPU 23 determines a window for the target pixel (step S31 in FIG. 6).
  • the window has a range of 15 * 3 pixels centered on the target pixel as shown in FIG.
  • a distribution of edges located in the window with the pixel of interest at the center is obtained.
  • the CPU23 specifies the edge pixel in the determined window (step S33).
  • the CPU 23 employs the filter shown in FIG. 7 to calculate the weighted edge total value NumE (x, y) indicating how many edge pixels are present in the range near the target pixel (step S35).
  • the weighted edge total value NumE (x, y) is set to “1” when the pixel is the edge pixel and “0” when the pixel is not the edge pixel.
  • the CPU 23 compares the obtained weighted edge total value NumE (x, y) with a predetermined lower limit threshold THs and upper limit THh (step S37).
  • the edge enhancement coefficient W (x, y) 0 is set (step S39).
  • the edge enhancement coefficient W (x, y) is set to a predetermined upper limit coefficient value Wh (step S43). Further, when the weighted edge total value NumE (x, y) is between the lower limit threshold THs and the upper limit threshold THh, it is calculated by the following equation (step S41).
  • W (x, y) Wh * (NumE (x, y) -THs) / (THh-THs)
  • the relationship between the weighted edge total value NumE (x, y) and the edge enhancement coefficient W (x, y) corresponds linearly between the lower limit threshold THs and the upper limit threshold THh, as shown in FIG. If it is smaller than the lower limit threshold THs, it becomes zero, and if it is larger than the upper limit threshold THh, the upper limit coefficient value Wh.
  • the emphasis coefficient W (x, y) is determined with the texture and the edge portion being linear without emphasizing the flat portion. Thereby, a texture part can be emphasized more strongly.
  • the emphasis coefficient W (x, y) is determined with the texture and the edge portion being linear without emphasizing the flat portion.
  • the CPU 23 performs edge enhancement processing of the target pixel (step S7 in FIG. 3).
  • a conventional method may be adopted for the edge enhancement processing.
  • the CPU 23 determines whether or not the processing of steps S5 to S7 has been performed for all the pixels (step S9). If the previous pixel has not been performed, the pixel number i of interest is incremented (step S11), and after step S5. Repeat the process.
  • the CPU 23 is used to realize the function shown in FIG. 1, and this is realized by software. However, some or all of them may be realized by hardware such as a logic circuit. In addition, you may make it make an operating system (OS) process a part of program.
  • OS operating system
  • Fig. 10 shows a functional block diagram when all processing is realized by a logic circuit.
  • the 8-neighbor smoothing filter variable filter 51 smoothes the input data Y.
  • the difference unit 53 obtains a difference between the input data Y and the output of the 8-neighbor smoothing filter variable filter 51.
  • the optimum enhancement coefficient calculation unit 55 performs the process of step S3 in FIG. 3 to calculate the edge enhancement coefficient.
  • the output value from the subtractor 53 is a contour component, and the multiplier 57 multiplies this by an edge enhancement coefficient.
  • edge enhancement processing is performed on the contour portion.
  • the adder 59 gives the contour selection image obtained by adding the contour portion subjected to the edge enhancement processing to the input data Y to the output selection unit 61.
  • the output of the 8-neighbor smoothing filter variable filter 51 is given to the output selection unit 61 as a contour blurred image.
  • the optimum enhancement coefficient calculation unit 55 gives a selection command for selecting either the outline enhanced image or the outline blurred image to the output selection unit 61.
  • the output selection unit 61 outputs the output data Y ′ according to the selection command.
  • the reason why the window shown in FIG. 7 is set to 15 * 3 pixels is a size with good cost performance in relation to a necessary line memory, and is not limited to this.
  • a Sobel filter is used for the edge detection process, but other edge detection processes such as a Prewitt filter may be used.
  • the frame memory 27 that holds image data of one screen is adopted, but the frame memory is not essential if there is a line memory that holds several lines of image data.
  • whether or not the pixel is an edge pixel is determined based on the pixel value gradient between the target pixel and its surrounding pixels, but may be realized by other methods.
  • a weighted total edge emphasis influence degree for the pixel of interest is calculated.
  • the present invention is not limited to this, and it may be determined whether a necessary range is an edge pixel when the target pixel is specified.
  • the average value of the past 16 frames is adopted as the threshold value in the edge pixel determination, but the present invention is not limited to this, and all pixels may have the same value. In particular, a still image is effective because there is no previous frame.
  • a pixel-of-interest peripheral region specifying rule for determining a pixel-of-interest peripheral region for the pixel of interest is stored, Determining whether the plurality of pixels are edge pixels;
  • the present invention is not limited to this, and when a pixel of interest is specified, the distance from the pixel of interest is considered as a weight for edge pixels existing in the pixel of interest peripheral region determined by the pixel-of-interest peripheral region specifying rule. You may make it grasp

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)

Abstract

【課題】 過強調を防止したエッジ強調を行う。 【解決手段】 エッジ画素判断手段5は、マトリックス状に配置された複数の画素について、エッジ画素か否か判断する。重み付き個別エッジ強調影響度演算手段7は、注目画素が指定されると、注目画素周辺領域内に存在するエッジ画素について、注目画素との距離を重み付けとして考慮した重み付き個別エッジ強調影響度を演算する。エッジ強調度演算手段9は、前記注目画素のエッジ強調度W(x,y)について、下限閾値THsよりも小さい場合はゼロとし、上限閾値THhよりも大きい場合は上限係数値Whとし、これらの中間である場合には下記式により演算する。W(x,y)=Wh*(NumE(x,y)-THs)/(THh-THs)

Description

エッジ強調方法またはエッジ強調度演算方法
 この発明は、エッジ強調方法に関し、特に過強調防止処理に関する。
 特許文献1には、注目画素を含む所定範囲の周辺画素領域の画素について、隣接画素との輝度差によって重み付けをして、その総和を求めて、注目画素のエッジ強調を行うエッジ強調方法が開示されている。
 具体的には、入力輝度信号の各画素のエッジ成分E1を検出し、入力輝度信号の輝度値が中レベルには大きな重み付けを、低レベル或いは高レベルの画素に関するエッジ成分E1には、小さな重み付けを付加する。
特開2009-021905号公報
 しかし、上記特許文献1に開示されたエッジ強調方法では、周りの画素との輝度差に基づいて重み付けをしているので、過強調が生じやすく、これによりリンギングアーティファクトが生ずる。
 この発明は、上記問題を解決し、過強調を防止したエッジ強調が可能なエッジ強調方法またはその装置を提供することを目的とする。
 (1)本発明にかかるエッジ強調方法は、マトリックス状に配置された複数の画素から注目画素(x,y)が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶しておき、前記複数の画素について、エッジ画素か否か判断し、注目画素(x,y)が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素(x,y)との距離を重み付けとして考慮した重み付きエッジ強調影響度を演算するとともに、前記注目画素周辺領域内の前記各重み付きエッジ強調影響度を総計した重み付き総エッジ数NumE(x,y)を演算し、前記注目画素(x,y)のエッジ強調度W(x,y)について、下限閾値THsよりも小さい場合はゼロとし、上限閾値THhよりも大きい場合は上限係数値Whとし、これらの中間である場合には下記式により演算し、
 W(x,y)=Wh*(NumE(x,y)-THs)/(THh-THs)
 前記注目画素を順次ずらして、全画素についてエッジ強調度を演算し、得られた各画素のエッジ強調度に基づき、エッジ強調処理を行う。
 したがって、前記注目画素周辺領域に存在するエッジ画素の数および各エッジ画素との距離に基づいて、前記注目画素のエッジ強調が可能となる。また、上限閾値および下限閾値を設けているので、平坦部を強調せず、さらに、過強調も防止できる。
 (2)本発明にかかるエッジ強調度演算方法は、マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶しておき、前記複数の画素について、エッジ画素か否か判断し、注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素との距離を重み付けとして考慮した重み付きエッジ強調影響度を演算し、前記エッジ画素の重み付きエッジ強調影響度を総計した重み付き総エッジ強調影響度に基づいて、前記注目画素のエッジ強調度を演算する。
 したがって、前記注目画素周辺領域に存在するエッジ画素の数および各エッジ画素との距離に基づいて、前記注目画素のエッジ強調度を決定することができる。
 (3)本発明にかかるエッジ強調度演算方法は、予め定めた下限閾値および上限閾値と、前記重み付き総エッジ強調影響度とを比較して、前記下限閾値よりも小さい場合は前記注目画素のエッジ強調度をゼロとし、前記上限閾値よりも大きい場合は、前記注目画素のエッジ強調度を予め定めた上限係数値とし、前記上限閾値と前記下限閾値の中間である場合には、前記注目画素のエッジ強調度を前記上限係数値*(前記重み付き総エッジ強調影響度-前記下限閾値)/(前記上限閾値-前記下限閾値)とする。
 このように、上限閾値および下限閾値を設けていることにより、平坦部を強調せず、さらに、過強調も防止できるエッジ強調度を求めることができる。
 (4)本発明にかかるエッジ強調度演算方法は、マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶しておき、前記複数の画素についてエッジ画素か否か判断し、 注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素に基づいて前記注目画素のエッジ強調度を演算するエッジ強調度演算方法であって、前記注目画素周辺領域内に存在するエッジ画素の重み付きエッジ強調影響度を総計した重み付き総エッジ強調影響度を演算し、予め定めた下限閾値および上限閾値と前記エッジ強調度を比較して、前記下限閾値よりも小さい場合は前記注目画素のエッジ強調度をゼロとし、前記上限閾値よりも大きい場合は、前記注目画素のエッジ強調度を予め定めた上限係数値とし、前記上限閾値と前記下限閾値の中間である場合には、前記注目画素のエッジ強調度を前記上限係数値*(前記重み付き総エッジ強調影響度-前記下限閾値)/(前記上限閾値-前記下限閾値)とする。
 このように、上限閾値および下限閾値を設けていることにより、平坦部を強調せず、さらに、過強調も防止できるエッジ強調度を求めることができる。
 (5)本発明にかかるエッジ強調度演算方法は、マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶しておき、前記複数の画素についてエッジ画素か否か判断し、注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素との距離が近いエッジ画素数が多いほど、前記注目画素のエッジ強調度を大きくする。
 したがって、前記注目画素周辺領域に存在するエッジ画素の数および各エッジ画素との距離が近いほど、前記注目画素のエッジ強調度を大きくすることができる。
 (6)本発明にかかるエッジ強調度演算装置は、A)マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶する規則記憶手段、B)前記複数の画素についてエッジ画素か否か判断するエッジ画素判断手段、C)注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素との距離を重み付けとして考慮した重み付きエッジ強調影響度を演算する重み付きエッジ強調影響度演算手段、D)前記エッジ画素の重み付きエッジ強調影響度を総計した重み付き総エッジ強調影響度に基づいて、前記注目画素のエッジ強調度を演算するエッジ強調度演算手段を備えている。
 したがって、前記注目画素周辺領域に存在するエッジ画素の数および各エッジ画素との距離に基づいて、前記注目画素のエッジ強調度を決定することができる。
 (7)本発明にかかるエッジ強調度演算プログラムは、コンピュータを下記手段として機能させるためのエッジ強調度演算プログラムである。マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶する記憶手段、前記複数の画素についてエッジ画素か否か判断するエッジ画素判断手段、注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素との距離を重み付けとして考慮した重み付きエッジ強調影響度を演算する重み付きエッジ強調影響度演算手段、前記エッジ画素の重み付きエッジ強調影響度を総計した重み付き総エッジ強調影響度に基づいて、前記注目画素のエッジ強調度を演算するエッジ強調度演算手段。
 したがって、前記注目画素周辺領域に存在するエッジ画素の数および各エッジ画素との距離に基づいて、前記注目画素のエッジ強調度を決定することができる。
 (8)本発明にかかるエッジ強調度演算方法は、マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶しておき、前記複数の画素についてエッジ画素か否か判断し、注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素の分布に基づき、前記注目画素周辺領域における前記注目画素のエッジ強調影響度を求めて、このエッジ強調影響度に基づいて、前記注目画素のエッジ強調度を演算する。
 したがって、前記注目画素周辺領域に存在するエッジ画素の数に基づいて、前記注目画素のエッジ強調度を決定することができる。
 なお、本明細書において「エッジ」とは、画素の輝度値、濃度値、色、模様などの特徴が類似している部分を一つの領域としたとき、上記の特徴が急激に変化している、領域と領域との境界をいう。  
 「重み付き総エッジ強調影響度」は実施形態では、重み付け総エッジ数NumE(x,y)が該当する。
 「距離を考慮した重み付け演算」とは、実施形態では、図8に示すように、重みを線形に変化させる場合はもちろん、非線形に変化させるようにしてもよく、要するに、注目画素に近づくほど大きくすればどのようなものであってもよい。なお、かかる距離に基づく重み付け処理はしないようにしてもよい。
エッジ強調装置1の機能ブロック図である。 エッジ強調装置1を、CPUを用いて構成した場合のハード構成の一例である。 全体のフローチャートである。 図3ステップS1の詳細フローチャートである。 本実施形態においてエッジ検出に用いたフィルタである。 図3ステップS5の詳細フローチャートである。 本実施形態において用いたウインドウ(15*3)を示す図である。 重み付けマスクである。 重み付けエッジ総計値と強調係数との関係を示すグラフである。 エッジ強調装置1をロジック回路で構成した場合のハード構成の一例である。
 以下、本発明における実施形態について、図面を参照して説明する。
(1.1 機能ブロック)
 図1に、本発明の1実施形態にかかるエッジ強調装置1の機能ブロック図を示す。
 エッジ強調装置1は、規則記憶手段3、エッジ画素判断手段5、重み付きエッジ強調影響度演算手段7、エッジ強調度演算手段9、およびエッジ強調処理手段11を備えている。
 規則記憶手段3は、マトリックス状に配置された複数の画素から注目画素(x,y)が指定されるとその注目画素(x,y)に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶する。エッジ画素判断手段5は、前記複数の画素についてエッジ画素か否か判断する。重み付きエッジ強調影響度演算手段7は、注目画素(x,y)が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素(x,y)との距離を重み付けとして考慮した重み付きエッジ強調影響度を演算するとともに、前記注目画素周辺領域内の前記各重み付きエッジ強調影響度を総計した重み付き総エッジ数NumE(x,y)を演算する。エッジ強調度演算手段9は、前記注目画素(x,y)のエッジ強調度W(x,y)について、下限閾値THsよりも小さい場合はゼロとし、上限閾値THhよりも大きい場合は上限係数値Whとし、これらの中間である場合には下記式により演算する。
 W(x,y)=Wh*(NumE(x,y)-THs)/(THh-THs)
 エッジ強調処理手段11は、前記注目画素を順次ずらして、全画素についてエッジ強調度を演算して、得られた各画素のエッジ強調度に基づき、エッジ強調処理を行う。
(1.2 ハードウェア構成)
 図2にエッジ強調装置1のハードウェア構成を示す。エッジ強調装置1は、CPU23、フレームメモリ27、RAM25、フラッシュメモリ26を備えている。フラッシュメモリ26には、プログラム26pが記憶されている。プログラム26pには、後述するように、エッジ強調処理を行う。RAM25は演算結果等を記憶する。フレームメモリ27は1画面の画像データを保持する。
 CPU23は、プログラム26Pに従い、フレームメモリ27に記憶された画像データに対し、15*3画素のウインドウを設定し、設定した領域内の重み付けエッジ総計値に基づいてエッジ強調係数を決定して、適切なエッジ強調処理を行い、結果をRAM25に記憶する。
(1.3 フローチャートの説明)
 図2に示すプログラム26Pによる処理について図3を用いて説明する。CPU23は、1フレーム分の画素からエッジを検出する(図3ステップS1)。エッジ検出処理について図4を用いて説明する。
 CPU23は、エッジ量演算対象画素(x,y)のエッジ量g(x,y)を演算する(ステップS21)。本実施形態においては、エッジ量演算対象画素(x,y)のエッジ量g(x,y)をソーベル(Sobel)フィルタを用いて、さらに、得られた水平方向、および垂直方向の合計値を加算することにより、演算した。すなわち、図5A,Bに示すような水平方向、および垂直方向の係数行列を用いた演算を行い、水平方向の合計値gHSの絶対値と垂直方向の合計値gVSの絶対値を求め、これらを加算するようにした。このように、二乗計算でなく、合計値gHSの絶対値と垂直方向の合計値gVSで求めている為、演算が容易となる。
 CPU23は、エッジ量演算対象画素(x,y)の閾値THg(x,y)を演算する。本実施形態においては、閾値THg(x,y)を、前16フレームの当該画素の平均輝度に予め定めた係数Kthを乗算した値とした。
 CPU23は、エッジ量演算対象画素(x,y)のエッジ量g(x,y)が閾値THg(x,y)を越えているか否か判断し(ステップS25)、エッジ量演算対象画素(x,y)のエッジ量g(x,y)が閾値THg(x,y)を越えている場合には、そのエッジ量演算対象画素(x,y)はエッジであるとし(ステップS27)、エッジ量演算対象画素(x,y)のエッジ量g(x,y)が閾値THg(x,y)を越えていない場合は、そのエッジ量演算対象画素(x,y)はエッジでないと決定する(ステップS29)。
 CPU23は、図4のエッジ判定を全画素について実行する。
 つぎに、CPU23は、エッジ強調度を決定するための注目画素番号iを初期化し(図3ステップS3)、所定のウインドウ内のエッジ分布に基づき、注目画素のエッジ強調係数を決定する(ステップS5)。
 注目画素のエッジ強調係数処理について、図6を用いて説明する。CPU23は、注目画素に対するウインドウを決定する(図6ステップS31)。本実施形態においては、当該ウインドウとして、図7に示すような注目画素を中心とする15*3画素の範囲とした。これにより、注目画素を中心としてウインドウ内に位置するエッジの分布が得られる。
 CPU23は、決定したウインドウにおけるエッジ画素を特定する(ステップS33)。CPU23は、図7に示すフィルタを採用して、当該範囲において注目画素に近い位置にどの程度エッジ画素が存在するかを示す重み付けエッジ総計値NumE(x,y)を演算する(ステップS35)。本実施形態においては、重み付けエッジ総計値NumE(x,y)は、前記注目画素周辺領域内の画素について、エッジ画素である場合は「1」を、エッジ画素でない場合は「0」とし、これに図8に示すフィルタをかけた値を総計したものとした。
 CPU23は、得られた重み付けエッジ総計値NumE(x,y)について、予め定めた下限閾値THs、上限値THhと比較する(ステップS37)。重み付けエッジ総計値NumE(x,y)が下限閾値THsよりも小さい場合は、エッジ強調係数W(x,y)=0とする(ステップS39)。また、重み付けエッジ総計値NumE(x,y)が上限閾値THhよりも大きい場合は、エッジ強調係数W(x,y)を予め定めた上限係数値Whとする(ステップS43)。また、重み付けエッジ総計値NumE(x,y)が下限閾値THsと上限閾値THhの間である場合には、下記式によって演算する(ステップS41)。
 W(x,y)=Wh*(NumE(x,y)-THs)/(THh-THs)
 これにより、重み付けエッジ総計値NumE(x,y)とエッジ強調係数W(x,y)との関係は、図9に示すように、下限閾値THsと上限閾値THhの間では線形に対応し、下限閾値THsよりも小さければゼロに、上限閾値THhよりも大きければ上限係数値Whとなる。
 よって、平坦部分を強調せず、テクスチャやエッジ部分は線形で強調係数W(x,y)が決定される。これによりテクスチャ部分を、より強く強調することができる。また、上限を設けることで、過強調の可能性がある部分の過強調を防止でき、これにより、リンギングアーティファクトを低減することもできる。
 つぎに、CPU23は、注目画素のエッジ強調処理を行う(図3ステップS7)。エッジ強調処理については従来の手法を採用すればよい。
 CPU23は、全画素についてステップS5~ステップS7の処理をしたか否か判断し(ステップS9)、前画素について行っていない場合には、注目画素番号iをインクリメントし(ステップS11)、ステップS5以下の処理を繰り返す。
 このようにして、エッジ強調処理が終了する。
(2.他の実施形態)
 上記実施形態においては、図1に示す機能を実現するために、CPU23を用い、ソフトウェアによってこれを実現している。しかし、その一部もしくは全てを、ロジック回路などのハードウェアによって実現してもよい。なお、プログラムの一部の処理を、オペレーティングシステム(OS)にさせるようにしてもよい。
 図10に、全ての処理をロジック回路で実現する場合の機能ブロック図を示す。8近傍平滑フィルタ可変フィルタ51は入力データYを平滑化する。差分器53は、入力データYと8近傍平滑フィルタ可変フィルタ51の出力との差分を求める。最適強調係数算出部55は、図3ステップS3の処理を実行して、エッジ強調係数を演算する。差分器53からの出力値は輪郭成分であり、乗算器57は、これにエッジ強調係数を乗算する。これにより輪郭部分についてエッジ強調処理がなされる。加算器59は、入力データYにエッジ強調処理された輪郭部分を加算した輪郭強調画像を出力選択部61に与える。また、8近傍平滑フィルタ可変フィルタ51の出力は輪郭ぼかし画像として出力選択部61に与えられる。最適強調係数算出部55は、演算したエッジ強調係数に基づいて、出力選択部61に輪郭強調画像か輪郭ぼかし画像のいずれかを選択する選択命令を与える。出力選択部61は、選択命令に応じて出力データY’を出力する。
 本実施形態において、図7に示すウインドウを15*3画素としたのは、必要なラインメモリとの関係で、コストパフォーマンスが良いサイズであり、これに限定されるものではない。
 本実施形態においては、エッジ検出処理に、ソーベル(Sobel)フィルタを採用したが、プレヴィット(Prewitt)フィルタなど、他のエッジ検出処理を採用してもよい。
 また、X方向とY方向の値を単純に加算するのではなく、二乗したものを加算して、その平方根を求めるという従来の手法を採用してもよい。
 本実施形態においては、1画面の画像データを保持するフレームメモリ27を採用したが、数ライン画像データを保持するラインメモリがあれは、フレームメモリは必須ではない。
 また、本実施形態においては、エッジ画素か否かを、対象画素とその周辺画素との画素値勾配に基づいて、判断するようにしたが、他の手法によって実現するようにしてもよい 。
 本実施形態においては、エッジ強調装置として把握した場合について説明したが、エッジ強調度の演算装置として把握することもできる。
 本実施形態においては、1フレーム分の画素についてエッジか否か判断し、その後、注目画素についての重み付き総エッジ強調影響度を演算している。しかし、これに限定されず、注目画素が特定された段階で必要な範囲についてエッジ画素であるかを判断するようにしてもよい。
 本実施形態においては、エッジ画素の判定において、過去の16フレームの平均値を閾値として採用したが、これに限定されず、全画素が同じ値でもよい。特に、静止画の場合は前フレームが存在しない為、有効である。
 また、本実施形態に開示した演算方法を、下記発明として把握することもできる。
 マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶しておき、
 前記複数の画素についてエッジ画素か否か判断し、
 注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素に基づいて前記注目画素のエッジ強調度を演算するエッジ強調度演算方法であって、
 前記注目画素周辺領域内に存在するエッジ画素の重み付きエッジ強調影響度を総計した重み付き総エッジ強調影響度を演算し、
 予め定めた下限閾値および上限閾値と前記エッジ強調度を比較して、
  前記下限閾値よりも小さい場合は前記注目画素のエッジ強調度をゼロとし、
  前記上限閾値よりも大きい場合は、前記注目画素のエッジ強調度を予め定めた上限係数値とし、
  前記上限閾値と前記下限閾値の中間である場合には、前記注目画素のエッジ強調度を前記上限係数値*(前記重み付き総エッジ強調影響度-前記下限閾値)/(前記上限閾値-前記下限閾値)とすること、
 を特徴とするエッジ強調度演算方法。
 本実施形態においては、注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素との距離が近いエッジ画素数が多いほど、前記注目画素のエッジ強調度を大きくするようにした。しかし、これに限定されず、注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素との距離を重み付けとして考慮した重み付きエッジ強調影響度を演算する発明として把握するようにしてもよい。
 23   CPU
 25   RAM
 26   フラッシュメモリ

Claims (8)

  1.  マトリックス状に配置された複数の画素から注目画素(x,y)が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶しておき、
     前記複数の画素についてエッジ画素か否か判断し、
     注目画素(x,y)が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素(x,y)との距離を重み付けとして考慮した重み付き個別エッジ強調影響度を演算し、前記注目画素周辺領域内の前記各重み付き個別エッジ強調影響度を総計した重み付き総エッジ数NumE(x,y)を演算し、前記注目画素(x,y)のエッジ強調度W(x,y)について、下限閾値THsよりも小さい場合はゼロとし、上限閾値THhよりも大きい場合は上限係数値Whとし、これらの中間である場合には下記式により演算し、
     W(x,y)=Wh*(NumE(x,y)-THs)/(THh-THs)
     前記注目画素を順次ずらして、全画素についてエッジ強調度を演算し、
     得られた各画素のエッジ強調度に基づき、エッジ強調処理を行うこと、
     を特徴とするエッジ強調方法。
  2.  マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶しておき、
     前記複数の画素についてエッジ画素か否か判断し、
     注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素との距離を重み付けとして考慮した重み付き個別エッジ強調影響度を演算し、
     前記エッジ画素の重み付き個別エッジ強調影響度を総計した重み付き総エッジ強調影響度に基づいて、前記注目画素のエッジ強調度を演算すること、
     を特徴とするエッジ強調度演算方法。
  3.  請求項2のエッジ強調度演算方法において、
     予め定めた下限閾値および上限閾値と、前記重み付き総エッジ強調影響度とを比較して、
      前記下限閾値よりも小さい場合は前記注目画素のエッジ強調度をゼロとし、
      前記上限閾値よりも大きい場合は、前記注目画素のエッジ強調度を予め定めた上限係数値とし、
      前記上限閾値と前記下限閾値の中間である場合には、前記注目画素のエッジ強調度を前記上限係数値*(前記重み付き総エッジ強調影響度-前記下限閾値)/(前記上限閾値-前記下限閾値)とすること、
     を特徴とするエッジ強調度演算方法。
  4.  マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶しておき、
     前記複数の画素についてエッジ画素か否か判断し、
     注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素に基づいて前記注目画素のエッジ強調度を演算するエッジ強調度演算方法であって、
     前記注目画素周辺領域内に存在するエッジ画素の重み付き個別エッジ強調影響度を総計した重み付き総エッジ強調影響度を演算し、
     予め定めた下限閾値および上限閾値と前記エッジ強調度を比較して、
      前記下限閾値よりも小さい場合は前記注目画素のエッジ強調度をゼロとし、
      前記上限閾値よりも大きい場合は、前記注目画素のエッジ強調度を予め定めた上限係数値とし、
      前記上限閾値と前記下限閾値の中間である場合には、前記注目画素のエッジ強調度を前記上限係数値*(前記重み付き総エッジ強調影響度-前記下限閾値)/(前記上限閾値-前記下限閾値)とすること、
     を特徴とするエッジ強調度演算方法。
  5.  マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶しておき、
     前記複数の画素についてエッジ画素か否か判断し、
     注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素との距離が近いエッジ画素数が多いほど、前記注目画素のエッジ強調度を大きくすること、
     を特徴とするエッジ強調度演算方法。
  6.  マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶する規則記憶手段、
     前記複数の画素についてエッジ画素か否か判断するエッジ画素判断手段、
     注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素との距離を重み付けとして考慮した重み付き個別エッジ強調影響度を演算する重み付き個別エッジ強調影響度演算手段、
     前記エッジ画素の重み付き個別エッジ強調影響度を総計した重み付き総エッジ強調影響度に基づいて、前記注目画素のエッジ強調度を演算するエッジ強調度演算手段、
     を備えたことを特徴とするエッジ強調度演算装置。
  7.  コンピュータを下記手段として機能させるためのエッジ強調度演算プログラム。
     マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶する記憶手段、
     前記複数の画素についてエッジ画素か否か判断するエッジ画素判断手段、
     注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素について、前記注目画素との距離を重み付けとして考慮した重み付き個別エッジ強調影響度を演算する重み付き個別エッジ強調影響度演算手段、
     前記エッジ画素の重み付き個別エッジ強調影響度を総計した重み付き総エッジ強調影響度に基づいて、前記注目画素のエッジ強調度を演算するエッジ強調度演算手段。
  8.  マトリックス状に配置された複数の画素から注目画素が指定されるとその注目画素に対する注目画素周辺領域を決定する注目画素周辺領域特定規則を記憶しておき、
     前記複数の画素についてエッジ画素か否か判断し、
     注目画素が指定されると、前記注目画素周辺領域特定規則によって決定された注目画素周辺領域内に存在するエッジ画素の分布に基づき、前記注目画素周辺領域における前記注目画素のエッジ強調影響度を求めて、このエッジ強調影響度に基づいて、前記注目画素のエッジ強調度を演算すること、
     を特徴とするエッジ強調度演算方法。
PCT/JP2011/070569 2011-01-25 2011-09-09 エッジ強調方法またはエッジ強調度演算方法 WO2012101862A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-012623 2011-01-25
JP2011012623A JP4913246B1 (ja) 2011-01-25 2011-01-25 エッジ強調方法またはエッジ強調度演算方法

Publications (1)

Publication Number Publication Date
WO2012101862A1 true WO2012101862A1 (ja) 2012-08-02

Family

ID=46170960

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/070569 WO2012101862A1 (ja) 2011-01-25 2011-09-09 エッジ強調方法またはエッジ強調度演算方法

Country Status (2)

Country Link
JP (1) JP4913246B1 (ja)
WO (1) WO2012101862A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6523638B2 (ja) 2014-09-11 2019-06-05 シナプティクス・ジャパン合同会社 表示パネルドライバ、表示装置、画像処理装置及び画像処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152908A (ja) * 1993-11-30 1995-06-16 Sharp Corp 画像処理装置
JP2004214977A (ja) * 2002-12-27 2004-07-29 Sharp Corp 画像処理装置およびそれを備えた画像形成装置ならびに画像処理方法、画像処理プログラムおよび記録媒体
JP2007221821A (ja) * 2007-03-29 2007-08-30 Hitachi Ltd 映像表示装置
JP2009021905A (ja) * 2007-07-13 2009-01-29 Hoya Corp 輪郭強調装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07152908A (ja) * 1993-11-30 1995-06-16 Sharp Corp 画像処理装置
JP2004214977A (ja) * 2002-12-27 2004-07-29 Sharp Corp 画像処理装置およびそれを備えた画像形成装置ならびに画像処理方法、画像処理プログラムおよび記録媒体
JP2007221821A (ja) * 2007-03-29 2007-08-30 Hitachi Ltd 映像表示装置
JP2009021905A (ja) * 2007-07-13 2009-01-29 Hoya Corp 輪郭強調装置

Also Published As

Publication number Publication date
JP2012156666A (ja) 2012-08-16
JP4913246B1 (ja) 2012-04-11

Similar Documents

Publication Publication Date Title
WO2016206087A1 (zh) 一种低照度图像处理方法和装置
US8433153B2 (en) Image correction apparatus and image correction method
US9031350B2 (en) Method for processing edges in an image and image processing apparatus
EP2816526B1 (en) Filtering method and apparatus for recovering an anti-aliasing edge
JP2010193199A (ja) 画像処理装置および画像処理方法
JP6213558B2 (ja) 画像処理方法、及び画像処理装置
US9299131B2 (en) Noise reduction apparatus, noise reduction method, and computer-readable storage medium
CN112150368A (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN103297659A (zh) 影像的边缘处理方法及影像处理装置
WO2013161839A1 (ja) 画像処理方法、及び画像処理装置
JP6256703B2 (ja) 画像処理方法、及び画像処理装置
US20030169941A1 (en) Edge enhancement method and apparatus in digital image scalar-up circuit
JP4381240B2 (ja) 画像処理装置及びこれを用いた画像表示装置、並びに画像処理方法及びこれをコンピュータに実行させるためのプログラム
JP4913246B1 (ja) エッジ強調方法またはエッジ強調度演算方法
JP6624061B2 (ja) 画像処理方法、画像処理装置、及び画像処理プログラムを記憶する記録媒体
JP6256704B2 (ja) 画像処理方法、及び画像処理装置
US11580620B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
JP5365878B2 (ja) フィルタ装置、フィルタリング方法
JP7365206B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5753437B2 (ja) 画像強調装置
JP2012129617A5 (ja) 画像処理装置および方法並びにプログラム
JP2012134576A5 (ja)
JP4992438B2 (ja) 画像処理装置および画像処理プログラム
WO2011036777A1 (ja) 画像処理装置
WO2017016295A1 (zh) 一种自适应视频空域去噪方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11857188

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11857188

Country of ref document: EP

Kind code of ref document: A1