WO2012077395A1 - エッジ補間装置またはその方法 - Google Patents

エッジ補間装置またはその方法 Download PDF

Info

Publication number
WO2012077395A1
WO2012077395A1 PCT/JP2011/070568 JP2011070568W WO2012077395A1 WO 2012077395 A1 WO2012077395 A1 WO 2012077395A1 JP 2011070568 W JP2011070568 W JP 2011070568W WO 2012077395 A1 WO2012077395 A1 WO 2012077395A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
pixel value
area dividing
intersection
distance
Prior art date
Application number
PCT/JP2011/070568
Other languages
English (en)
French (fr)
Inventor
欣 胡
Original Assignee
株式会社ナナオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ナナオ filed Critical 株式会社ナナオ
Publication of WO2012077395A1 publication Critical patent/WO2012077395A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • H04N1/3935Enlarging or reducing with modification of image resolution, i.e. determining the values of picture elements at new relative positions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement

Definitions

  • the present invention relates to an edge interpolation device, and more particularly to a highly accurate edge interpolation process.
  • nearest-neighbor interpolation nearlist neighbor method
  • bilinear interpolation bilinear interpolation
  • the near neighbor method is a method that employs a pixel value that is closest to the position of the interpolation pixel
  • the bilinear method considers the pixel value according to the distance of four points that surround the interpolation pixel.
  • the roughness of image quality becomes conspicuous as the interpolation magnification increases.
  • the bilinear method since the bilinear method has a blurred image quality, it is not preferable for the interpolation of the edge portion.
  • Patent Document 1 discloses a method of performing interpolation based on four neighboring pixels and edge directions. Specifically, the edge direction in the target pixel is detected based on the pixel value information of the target pixel and its surrounding pixels, and the pixel value information of the four neighboring pixels at the position of the interpolation pixel and the detected edge direction are acquired. Non-linear interpolation is performed based on the interpolation magnification, and linear interpolation is performed based on the non-linear interpolated interpolation value and the detected edge direction.
  • a detected directionality is an edge by applying a differential operator having a plurality of directions to a pixel value of a luminance signal using a 6 * 6 pixel window to detect the directionality.
  • a differential operator having a plurality of directions to a pixel value of a luminance signal using a 6 * 6 pixel window to detect the directionality.
  • an edge interpolation method for calculating a candidate value of an interpolation value by a weighted average according to a case is disclosed.
  • the interpolation processing disclosed in Patent Document 1 cannot be applied when the edge direction is other than 45 degrees.
  • the edge interpolation method disclosed in Patent Document 2 has a problem in that only a constant magnification can be interpolated because the arithmetic expression is fixed.
  • the present invention solves the above problems, and provides an edge interpolation apparatus or method capable of performing accurate edge interpolation even when an edge direction is not limited and an interpolation pixel exists at an arbitrary position. Objective.
  • An interpolation pixel value calculation apparatus calculates a pixel value of a target pixel arranged between the real pixels when an edge direction is given to a plurality of real pixels arranged in a matrix.
  • An interpolated pixel value calculation device comprising: A) a region delimiter that passes through a region specified by the four nearest real pixels with respect to the target pixel, and is parallel to the given edge direction, and Neighboring area delimiter specifying means for specifying two area delimiting lines close to the target pixel as first and second neighboring area delimiting lines among area delimiting lines passing over a plurality of real pixels arranged in a matrix B) Real pixels on the first neighboring area dividing line, the real pixels closest to the pixel of interest and the second real pixels closest to the pixel of interest as the first vertex pixel and the second vertex pixel, respectively.
  • Vertex pixel identification that identifies the actual pixel closest to the target pixel and the second closest actual pixel as the third vertex pixel and the fourth vertex pixel, respectively, on the second neighboring area dividing line
  • the pixel value of the target pixel is obtained along the edge direction by obtaining the pixel value of the target pixel by weighting calculation considering the distance with the actual pixel on the first and second neighboring area dividing lines parallel to the given edge direction as the vertex. Pixel values can be obtained.
  • the pixel value of the virtual pixel is obtained by the two neighboring area dividing lines and the pixel value of the pixel of interest is calculated from the two virtual pixels, it can be easily calculated.
  • the interpolation pixel value calculation method according to the present invention calculates a pixel value of a target pixel arranged between the real pixels when an edge direction is given to a plurality of real pixels arranged in a matrix.
  • An interpolation pixel value calculation method wherein a region specified by four nearest real pixels with respect to the target pixel is parallel to the given edge direction passing over a plurality of real pixels arranged in a matrix
  • two area delimiters that are close to the target pixel are identified as neighboring area delimiters, the target pixel is passed,
  • the intersections with the normals defined for the two specified area dividing lines are defined as the first virtual position on the area dividing line and the second virtual position on the area dividing line, and the first temporary position on the area dividing line is defined.
  • the pixel value of the actual pixel on the area dividing line and the pixel value of the pixel of interest are calculated by weighting in consideration of the distance from the pixel value. Is weighted in consideration of the distance based on the distance between the first intersection and the second intersection and the pixel values at the first intersection and the second intersection.
  • pixels along the edge direction are calculated by calculating the pixel value of the pixel of interest by weighting calculation considering the distance with the actual pixels on the two neighboring area dividing lines parallel to the given edge direction as vertices. A value can be obtained.
  • the interpolated pixel value calculation apparatus calculates the pixel value of a pixel of interest arranged between the real pixels when an edge direction is given to a plurality of real pixels arranged in a matrix.
  • An interpolation pixel value calculation device wherein A) is an area dividing line passing through an area specified by the four nearest real pixels with respect to the interpolation pixel, and is parallel to the given edge direction and the matrix
  • Intersection specifying means for specifying two intersections; D) a virtual pixel value at the first intersection based on the value of the first vertex pixel and the distance to the pixel, the value of the second vertex pixel and the distance to the pixel Virtual pixel value calculation means for calculating a virtual pixel value at the second intersection point based on the value of the third vertex pixel and the distance to the pixel, the value of the fourth vertex pixel and the distance to the pixel
  • Pixel of the target pixel For comprises the distance between the first intersection and the second intersection point, and the first intersection point and the basis of the pixel value in the second intersection, the interpolation pixel value calculating means for considering weighting calculation distance.
  • the pixel value along the edge direction is obtained by calculating the pixel value of the pixel of interest in consideration of the distance with the actual pixel on the two neighboring area dividing lines parallel to the given edge direction as the vertex. be able to.
  • the virtual pixel value calculation means may use the first and first virtual pixel values as the virtual pixel value at the first intersection or the virtual pixel value at the second intersection.
  • the value of the actual pixel is adopted. Therefore, the virtual pixel value can be easily obtained.
  • the interpolation pixel value calculation apparatus calculates the pixel value of a target pixel arranged between the real pixels when an edge direction is given to a plurality of real pixels arranged in a matrix.
  • An interpolated pixel value calculation device comprising: A) a region dividing line that passes through a region specified by the four nearest real pixels with respect to the pixel of interest, and is parallel to the given edge direction and the matrix A neighboring area dividing line specifying means for specifying two area dividing lines close to the target pixel as first and second neighboring area dividing lines among the area dividing lines passing over the plurality of real pixels arranged in a shape; B) Defines a parallelogram that is a real pixel on the first neighboring area dividing line or the second neighboring area dividing line and has one of the four nearest neighboring real pixels as a vertex.
  • the pixel value along the edge direction can be obtained.
  • the four vertices are configured by real pixels close to the target pixel. Therefore, the target pixel value can be calculated from the actual pixel close to the target pixel.
  • the calculation means defines a normal line from the virtual pixel with respect to the first neighboring area dividing line and the second neighboring area dividing line.
  • the first intersection point with respect to the distance from two vertices on the first neighborhood region partition line and the pixel value of the two vertices, with the intersection point of the first neighborhood region partition line and the normal line as the first intersection point As a second intersection of the second neighboring area dividing line and the normal, a distance from two vertices on the second neighboring area dividing line and a pixel value of the two vertices are calculated.
  • the pixel value of the second intersection point is calculated, and the pixel value of the target pixel is calculated based on the distance between the first intersection point and the second intersection point, and the pixel values at the first intersection point and the second intersection point. . Therefore, the interpolation pixel value can be calculated easily.
  • the interpolation pixel value calculation program provides a computer with a pixel value of a pixel of interest arranged between the real pixels when an edge direction is given to a plurality of real pixels arranged in a matrix.
  • a program for executing an interpolated pixel value calculation includes the following steps.
  • An area specified by the four actual pixels closest to the target pixel passes through the plurality of actual pixels arranged in the matrix, is parallel to the given edge direction, and is an area delimiter that passes through the area
  • a step of dividing by a line a step of specifying two region divider lines close to the target pixel of the region divider lines as neighboring region divider lines; and passing through the pixel of interest to be the two specified region divider lines Defining an intersection with a normal defined as a first virtual position on the area delimiter line, a second virtual position on the area delimiter line, a first virtual position on the area delimiter line and a second virtual position on the area delimiter line, respectively
  • the pixel value of the pixel of interest along the edge direction is obtained by calculating the pixel value of the pixel of interest by weighting calculation considering the distance with the actual pixel on the two neighboring area dividing lines parallel to the given edge direction as the vertex. Obtainable.
  • edge means that the above-mentioned features change abruptly when a region having similar features such as the luminance value, density value, color, and pattern of a pixel is defined as one region.
  • Edge direction refers to the direction of this edge.
  • the “parallelogram” is a concept including a rectangle.
  • the “four nearest real pixels” correspond to the pixels GG1 to GG4 in FIG. 6 in the embodiment.
  • “Within the area specified by the four nearest real pixels” is a concept including the pixel as shown in FIG.
  • the “first and second neighboring area dividing lines” correspond to the dividing lines e1 and e2 shown in FIG.
  • the “weighting calculation considering distance” is not limited to obtaining a weighted average using the distance adopted in the embodiment as a weight as it is, but may be further multiplied by a predetermined coefficient. Furthermore, it includes a case where the calculation is not linear but nonlinear (interpolation using a cubic function, etc.).
  • FIG. 3 is a functional block diagram of the interpolated pixel value calculation device 1.
  • FIG. 2 is a hardware configuration diagram of an interpolation pixel value calculation device 1.
  • FIG. It is a figure explaining the edge direction candidate employ
  • FIG. It is a figure explaining the angle of the edge direction candidate employ
  • FIG. It is the whole flowchart. It is a figure which shows the relationship between an interpolation pixel and a real pixel. It is a figure which shows the pixel used for a calculation in the case of edge type 2. It is a figure which shows the pixel used for a calculation in the case of edge type 3.
  • FIG. 1 shows a functional block diagram of an interpolated pixel value calculation apparatus 1 according to an embodiment of the present invention.
  • the interpolation pixel value calculation device 1 is specified by an interpolation magnification based on the edge direction when an edge direction in a predetermined region is given from an edge detection device (not shown) to a plurality of actual pixels arranged in a matrix.
  • This is a device for calculating the pixel value of the interpolated pixel, and includes a neighborhood region delimiter specifying means 3, a vertex pixel specifying means 5, an intersection specifying means 7, a virtual pixel value calculating means 9, and an interpolation pixel value calculating means 11. .
  • the neighboring area dividing line specifying means 3 is an area dividing line passing through the area specified by the four nearest real pixels with respect to the interpolation pixel, and is parallel to the given edge direction and in the matrix form Among the area dividing lines passing through the plurality of arranged actual images, two area dividing lines close to the interpolation pixel are specified as the first and second neighboring area dividing lines.
  • the vertex pixel specifying means 5 is a real pixel on the first neighboring area dividing line, and the real pixel closest to the interpolation pixel and the second real pixel closest to the interpolation pixel are respectively designated as a first vertex pixel and a second vertex As the pixels, the actual pixels on the second neighboring area dividing line and the closest actual pixel and the second closest actual pixel to the interpolation pixel are specified as the third vertex pixel and the fourth vertex pixel, respectively. .
  • the intersection specifying means 7 defines a normal line from the interpolation pixel with respect to the first and second neighboring area dividing lines, and an intersection of the normal line and the first and second neighboring area dividing lines. Are identified as first and second intersections, respectively.
  • the virtual pixel value calculation means 9 performs a weighted average calculation on the pixel value of the virtual pixel at the first intersection based on the distance between the first vertex pixel and the second vertex pixel, and the pixel value, and the second pixel value.
  • the pixel value of the virtual pixel at the intersection is subjected to a weighted average calculation based on the distance between the third vertex pixel and the fourth vertex pixel and these pixel values.
  • the interpolation pixel value calculation means 11 performs a weighting operation on the pixel value of the interpolation pixel based on the distance between the first intersection and the second intersection and the pixel values at the first intersection and the second intersection.
  • FIG. 2 shows a hardware configuration of the interpolation pixel value calculation apparatus 1.
  • the interpolation pixel value calculation device 1 includes a CPU 23, a frame memory 27, a RAM 25, and a flash memory 26.
  • the flash memory 26 stores an interpolation program 26p. As will be described later, the interpolation program 26p performs interpolation for the edge directions of the three patterns.
  • the RAM 25 stores calculation results and the like.
  • the frame memory 27 holds image data for one screen.
  • the CPU 23 sets a predetermined 6 * 6 pixel window for the image data stored in the frame memory 27, reads out pixel data (luminance) for the set pixel, and will be described later.
  • the pixel value of the interpolation pixel is determined, and the result is stored in the RAM 26.
  • a virtual pixel G1 is defined at the center of 4 * 4 pixels.
  • hatched pixels indicate interpolation pixels. Since there are real pixels C2 to C4 around the virtual pixel G1, interpolation pixels G2 to G5 having a half-pixel relationship are defined inside them. Further, interpolation pixels G12 to G19 having a half pixel relationship are defined outside the actual pixels C2 to C4.
  • the interpolation processing in the 12 directions can be classified into four types of edge types 1 to 4. This is because the calculation processing pixels can be similarly obtained only by different 90 ° and 180 ° arrangements.
  • Edge direction 1 and edge direction 7 are vertical and horizontal directions and are edge type 1.
  • Edge direction 2, edge direction 6, edge direction 8, and edge direction 12 are defined as edge type 2.
  • Edge direction 4 and edge direction 10 are defined as edge type 3.
  • Edge direction 3, edge direction 5, edge direction 9, and edge direction 11 are defined as edge type 4.
  • the edge type 1 is interpolated by the conventional Bicubic method and the clip function, but description of such processing is omitted.
  • FIG. 5 shows a flowchart of the program stored in the flash memory 25.
  • the CPU 23 specifies the real pixels GG1 to GG4 that are closest to the interpolation pixel HG as shown in FIG. 6 (step S1 in FIG. 5).
  • the real pixels GG1 to GG4 constitute a region R described later.
  • the CPU 23 specifies the divided region to which the interpolation pixel HG belongs by the edge type (step S3 in FIG. 5).
  • FIG. 7 shows the divided regions r1 to r4 in the edge direction 6 belonging to the edge type 2.
  • Divided areas r1 to r4 can be defined as divided areas divided by the divided lines e1 to e3. For example, when the interpolation pixel HG is at the position shown in FIG. 7, it is determined that the interpolation pixel HG belongs to the divided region r2.
  • FIG. 8 shows divided regions r1 and r2 in the edge direction 4 belonging to the edge type 3.
  • a segment passing through the region R specified by the interpolation pixels GG1 to GG4, parallel to the edge direction 4 and passing through the actual pixels is defined as a division line e1.
  • the region R is divided by the dividing line e1, and thereby the divided regions r1 and r2 are defined.
  • the interpolation pixel is located in one of these divided areas. For example, when the interpolation pixel HG is at the position shown in FIG. 8, it is determined that the interpolation pixel HG belongs to the divided region r2.
  • FIG. 9 shows the divided regions r1 to r3 in the edge direction 5 belonging to the edge type 4.
  • the divided lines e1 and e2 can be defined.
  • the divided areas r1 to r3 are defined.
  • the interpolation pixel is located in one of these divided areas. For example, when the interpolation pixel HG is at the position shown in FIG. 9, it is determined that the interpolation pixel HG belongs to the divided region r1.
  • the CPU 23 defines a normal line from the interpolated pixel HG on the divided line constituting the divided area to which it belongs, and specifies the intersection as a virtual position (step S5 in FIG. 5). For example, when the interpolation pixel HG is at the position shown in FIG. 10, normal lines are defined from the interpolation pixel HG to the dividing line e1 and the dividing line e2, and the intersections are set as virtual positions P1 and P2, respectively.
  • the CPU 23 calculates the pixel values at the virtual positions P1 and P2 (step S7 in FIG. 5).
  • the following calculation method is employed in order to perform calculation along the edge direction. This is because the pixel values of the two pixels along the edge direction can be estimated to be substantially the same.
  • the closest pixel from the virtual position P1 is specified.
  • the adjacent pixels are the pixel G23 and the pixel G36.
  • the pixel values considering the distances d1 and d2 between these pixels G23 and G36 and the virtual position P1 are calculated.
  • the pixel value of the pixel G23 is D23
  • the pixel value of the pixel G36 is D36
  • the pixel value DP1 at the virtual position P1 is specifically expressed by the following equation.
  • the pixel value DP2 at the virtual position P2 can also be calculated from the pixel values considering the distances d3 and d4 between the pixels G22 and G35 and the virtual position P1 as weights.
  • the CPU 23 calculates the pixel value HGP of the interpolation pixel HG from the pixel values at the virtual positions P1 and P2 (step S9 in FIG. 5). Also for this calculation, pixel values can be obtained in consideration of the distances d11 and d12 as weights in the same manner as in step S7.
  • HGP ((DP1 * d11) + (DP2 * d12)) / (d11 + d12)
  • the line et is a line parallel to the division lines e1 and e2 and passing through the interpolation pixel HG.
  • the pixel at the virtual position may be obtained by simple calculation.
  • the pixel value of the pixel G33 is used as it is, instead of performing the weighting calculation according to the distance from the pixels G33 and G66. This is because the pixel values of the two pixels along the edge direction are substantially the same, and when weighting by the distances d3 and d4 is taken into consideration, the error is not so large even if simple calculation is performed.
  • step S3 to step S9 in FIG. 5 Since the processing from step S3 to step S9 in FIG. 5 is the same for the edge types 3 and 4, description thereof will be omitted.
  • the four neighboring vertex pixels constituting the parallelogram can be uniquely determined by specifying the two divided lines.
  • the four adjacent vertex pixels constituting the parallelogram cannot be uniquely determined.
  • the actual pixel used for the calculation can be specified by selecting the four actual pixels close to the interpolation pixel HG. This will be described with reference to FIG. As illustrated in FIG. 12A, when the interpolation pixel HG is located, the pixels G22, G12, G33, and G23 are four vertex pixels.
  • the pixels G22, G23, G34, and G33 are the vertex pixels in the same manner.
  • the angle in the edge direction is specified by the edge type. Further, a normal line is defined for each edge direction, and the intersection point is set as a virtual pixel position. Accordingly, when the relative positions dx and dy of the interpolation pixels in the four real pixel regions R are set (see FIG. 6), the distances d1 to d4, d11, and d12 can be represented by values dx and dy. Thus, if one arithmetic expression is stored for each edge type, the arithmetic can be easily performed.
  • the calculation method is not limited to such a calculation method, and may be calculated in consideration of the distances from the four vertex pixels constituting the parallelogram as weights.
  • the adjacent pixel value is used as it is in the calculation of the pixel value at one virtual position. If so, the value of the pixel closer to both virtual positions may be adopted. Furthermore, the nearest pixel value may be adopted as the pixel value of the interpolation pixel HG among the four vertex pixels constituting the parallelogram.
  • the luminance is adopted as the pixel value.
  • any pixel value for edge interpolation may be used, for example, an RGB value may be adopted.
  • the pixel values of the temporary pixels P1 and P2 on the edge parallel lines and the pixel value of the interpolation pixel are linearly interpolated using the distance.
  • interpolation using a cubic function may be employed.
  • the pixel value of the interpolation pixel is calculated from the temporary pixels P1 and P2, the luminance changes greatly because the pixel crosses the edge. Therefore, the interpolation pixel value may be calculated in consideration of such a situation.
  • the divided area is specified in step S3 in FIG. 5, but this is for specifying the adjacent divided lines among the divided lines parallel to the given edge direction. Therefore, two division lines may be specified without obtaining division regions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】 エッジ方向に限定されない補間処理を行う。 【解決手段】 注目する補間画素HGに対して、最近接する実画素GG1~GG4を特定する。エッジタイプが与えられると、エッジタイプによって補間画素HGが所属する分割領域を特定する。所属する分割領域を構成する分割ライン上に補間画素HGから法線を定義し、交点を仮想位置とし、その画素値を距離を用いた加重平均演算で、仮想位置1、2の画素値を演算する。仮想位置P1、P2の画素値から、補間画素HGの画素値HGPを演算する。このように、平行四辺形を構成する頂点画素G22、G23、G36、G35の画素値に基づいて補間画素HGの画素値が得られる。

Description

エッジ補間装置またはその方法
 この発明は、エッジ補間装置に関し、特に精度の高いエッジ補間処理に関する。
 従来、低解像画像情報を高解像情報に解像度変換する方法として、最近隣内挿法(ニアリストネイバ法)や、共1次内挿法(バイリニア法)が知られている。ニアリストネイバ法は、補間画素の位置に最も近い画素値を採用する方法であり、バイリニア法は補間画素を囲む4点の距離に応じて、画素値を考慮するというものである。
 ニアリストネイバ法は補間倍率が大きくなると画質の荒さが目立つようになる。一方、バイリニア法はボケた画質になるので、エッジ部の補間には好ましくない。
 かかる問題を解決する為に、特許文献1には、4近傍画素とエッジ方向に基づき補間する方法が開示されている。具体的には、注目画素とその周辺画素の画素値情報に基づき注目画素におけるエッジ方向を検出し、補間画素の位置の4近傍画素の画素値情報と、検出されたエッジ方向と、取得された補間倍率とに基づき、非線形補間を行い、非線形補間された補間値と、検出されたエッジ方向とに基づき線形補間を行う。
 特許文献2には、6*6画素のウインドウによって、複数の方向性を持つ微分作用素を輝度信号の画素値に施して方向性を検出することで、その検出した方向性はエッジであると判定し、そのエッジとして判定された各方向性について、場合分けして加重平均による補間値の候補値を計算するエッジ補間方法が開示されている。
特開2003-8884号公報 特開2009-094862号公報
 しかし、上記特許文献1に開示された補間処理は、エッジ方向が45度方向以外の場合には、対応ができない。また、特許文献2に開示されたエッジ補間方法においては、演算式が固定であるので一定の倍率の補間しかできないという問題があった。
 この発明は、上記問題を解決し、エッジ方向が限定されず、また、補間画素が任意の位置に存在する場合でも、精度の良いエッジ補間が可能なエッジ補間装置またはその方法を提供することを目的とする。
 (1)本発明にかかる補間画素値演算装置は、マトリックス状に配置された複数の実画素について、エッジ方向が与えられると、前記実画素の間に配置される注目画素の画素値を演算する補間画素値演算装置であって、A)前記注目画素に対する最近傍の4つの実画素で特定される領域領域内を通過する領域区切り線であって、前記与えられるエッジ方向に平行でかつ、前記マトリックス状に配置された複数の実画素上を通過する領域区切り線のうち、前記注目画素に近い2つの領域区切り線を第1および第2の近傍領域区切り線として特定する近傍領域区切り線特定手段、B)前記第1の近傍領域区切り線上の実画素であって、前記注目画素との距離が最も近い実画素および2番目に近い実画素をそれぞれ第1頂点画素、第2頂点画素として、前記第2の近傍領域区切り線上の実画素であって、前記注目画素との距離が最も近い実画素および2番目に近い実画素をそれぞれ第3頂点画素、第4頂点画素として特定する頂点画素特定手段、C)前記第1、第2の近傍領域区切り線に対して、前記注目画素から法線を定義して、当該法線と前記第1、第2の近傍領域区切り線との交点をそれぞれ第1、第2交点として特定する交点特定手段、D)前記第1交点における仮想画素の画素値について、前記第1頂点画素と第2頂点画素との距離、およびこれらの画素値に基づき、距離を考慮した重み付け演算するとともに、前記第2交点における仮想画素の画素値について、前記第3頂点画素と第4頂点画素との距離、およびこれらの画素値に基づき、距離を考慮した重み付け演算する仮想画素値演算手段、E)前記注目画素の画素値について、前記第1交点と前記第2交点との距離、および前記第1交点および前記第2交点における画素値に基づき、距離を考慮した重み付け演算する補間画素値演算手段を備えている。
 このように、与えられたエッジ方向に平行な第1、第2の近傍領域区切り線上の実画素を頂点として、距離を考慮した重み付け演算により注目画素の画素値を求めることにより、エッジ方向に沿った画素値を得ることができる。また、前記2つの近傍領域区切り線にて仮想画素の画素値を求め、かかる2つの仮想画素から前記注目画素の画素値を演算しているので簡易に演算することができる。 (2)本発明にかかる補間画素値演算方法は、マトリックス状に配置された複数の実画素について、エッジ方向が与えられると、前記実画素の間に配置される注目画素の画素値を演算する補間画素値演算方法であって、前記注目画素に対する最近傍の4つの実画素で特定される領域を、前記マトリックス状に配置された複数の実画素上を通過する前記与えられるエッジ方向に平行で、かつ前記領域を通過する領域区切り線で分割した場合に定義できる領域区切り線のうち、前記注目画素に近い2つの領域区切り線を近傍領域区切り線として特定し、前記注目画素を通過し、前記特定した2つの領域区切り線に対して定義される法線との交点を領域区切り線上第1仮想位置、領域区切り線上第2仮想位置として定義し、前記領域区切り線上第1仮想位置および前記領域区切り線上第2仮想位置、それぞれについて、当該領域区切り線上の実画素の画素値および当該画素値との距離を考慮した重み付け演算によりそれら画素値を演算し、前記注目画素の画素値について、前記第1交点と前記第2交点との距離、および前記第1交点および前記第2交点における画素値に基づき、距離を考慮した重み付け演算する。
 このように、与えられたエッジ方向に平行な2つの近傍領域区切り線上の実画素を頂点として、距離を考慮した重み付け演算により前記注目画素の画素値を演算することにより、エッジ方向に沿った画素値を得ることができる。
 (3)本発明にかかる補間画素値演算装置は、マトリックス状に配置された複数の実画素について、エッジ方向が与えられると、前記実画素の間に配置される注目画素の画素値を演算する補間画素値演算装置であって、A)前記補間画素に対する最近傍の4つの実画素で特定される領域内を通過する領域区切り線であって、前記与えられるエッジ方向に平行でかつ、前記マトリックス状に配置された複数の実画素上を通過する領域区切り線のうち、前記注目画素に近い2つの領域区切り線を第1および第2の近傍領域区切り線として特定する近傍領域区切り線特定手段、B)前記第1の近傍領域区切り線上の実画素であって、前記注目画素との距離が最も近い実画素および2番目に近い実画素をそれぞれ第1頂点画素、第2頂点画素として、前記第2の近傍領域区切り線上の実画素であって、前記注目画素との距離が最も近い実画素および2番目に近い実画素をそれぞれ第3頂点画素、第4頂点画素として特定する手段、C)前記第1、第2の近傍領域区切り線に対して、前記注目画素から法線を定義して、当該法線と前記第1、第2の近傍領域区切り線との交点をそれぞれ第1、第2交点として特定する交点特定手段、D)前記第1交点における仮想画素値を、前記第1頂点画素の値および当該画素との距離、前記第2頂点画素の値および当該画素との距離に基づき演算するとともに、前記第2交点における仮想画素値を、前記第3頂点画素の値および当該画素との距離、前記第4頂点画素の値および当該画素との距離に基づき演算する仮想画素値演算手段、E)前記注目画素の画素値について、前記第1交点と前記第2交点との距離、および前記第1交点および前記第2交点における画素値に基づき、距離を考慮した重み付け演算する補間画素値演算手段を備えている。
 このように、与えられたエッジ方向に平行な2つの近傍領域区切り線上の実画素を頂点として、距離を考慮して注目画素の画素値を演算することにより、エッジ方向に沿った画素値を得ることができる。
 (4)本発明にかかる補間画素値演算装置においては、前記仮想画素値演算手段は、前記第1交点における仮想画素値または前記第2交点における仮想画素値の画素値として、前記第1、第2の近傍領域区切り線上に近接する実画素がある場合、当該実画素の値を採用する。したがって、簡易に仮想画素値をえることができる。
 (5)本発明にかかる補間画素値演算装置は、マトリックス状に配置された複数の実画素について、エッジ方向が与えられると、前記実画素の間に配置される注目画素の画素値を演算する補間画素値演算装置であって、A)前記注目画素に対する最近傍の4つの実画素で特定される領域内を通過する領域区切り線であって、前記与えられるエッジ方向に平行でかつ、前記マトリックス状に配置された複数の実画素上を通過する領域区切り線のうち、前記注目画素に近い2つの領域区切り線を第1および第2の近傍領域区切り線として特定する近傍領域区切り線特定手段、B)前記第1の近傍領域区切り線または前記第2の近傍領域区切り線上の実画素であって、前記いずれかの最近傍の4つの実画素の1つの画素を頂点とする平行四辺形を定義する平行四辺形定義手段、C)前記注目画素の画素値について、前記平行四辺形の頂点の実画素との距離、前記頂点の実画素の画素値に基づき、距離を考慮した重み付け演算する演算手段を備えている。
 このように、前記平行四辺形の頂点からの距離を考慮した重み付け演算にて、前記注目画素の画素値を演算することにより、エッジ方向に沿った画素値を得ることができる。
 (6)本発明にかかる補間画素値演算装置においては、前記4つの頂点は、前記注目画素に近接する実画素で構成されている。したがって、前記注目画素に近い実画素から前記注目画素値を演算することができる。
 (7)本発明にかかる補間画素値演算装置においては、前記演算手段は、前記第1の近傍領域区切り線および前記第2の近傍領域区切り線に対して、前記仮想画素から法線を定義し、前記第1の近傍領域区切り線と前記法線の交点を第1交点として、前記第1の近傍領域区切り線上の2つの頂点からの距離および当該2つの頂点の画素値について、前記第1交点の画素値を演算し、前記第2の近傍領域区切り線と前記法線の交点第2交点として、前記第2の近傍領域区切り線上の2つの頂点からの距離および当該2つの頂点の画素値について、前記第2交点の画素値を演算し、前記注目画素の画素値について、前記第1交点と前記第2交点との距離、および前記第1交点および前記第2交点における画素値に基づき演算する。したがって簡易に補間画素値を演算することができる。
 (8)本発明にかかる補間画素値演算プログラムは、コンピュータに、マトリックス状に配置された複数の実画素について、エッジ方向が与えられると、前記実画素の間に配置される注目画素の画素値を演算する補間画素値演算を実行させるためのプログラムであって、下記ステップを含む。前記注目画素に対する最近傍の4つの実画素で特定される領域を、前記マトリックス状に配置された複数の実画素上を通過し前記与えられるエッジ方向に平行で、かつ前記領域を通過する領域区切り線で、分割するステップ、前記領域区切り線のうち、前記注目画素に近い2つの領域区切り線を近傍領域区切り線として特定するステップ、前記注目画素を通過し、前記特定した2つの領域区切り線に対して定義される法線との交点を領域区切り線上第1仮想位置、領域区切り線上第2仮想位置として定義するステップ、前記領域区切り線上第1仮想位置および前記領域区切り線上第2仮想位置、それぞれの画素値について、当該領域区切り線上の実画素の画素値および当該実画素との距離に基づき、距離を考慮した重み付け演算するステップ、前記注目画素、前記領域区切り線上第1仮想位置および前記領域区切り線上第2仮想位置との距離、および前記領域区切り線上第1仮想位置および前記領域区切り線上第2仮想位置における画素値に基づき、距離を考慮した重み付け演算するステップ。
 このように、与えられたエッジ方向に平行な2つの近傍領域区切り線上の実画素を頂点として、距離を考慮した重み付け演算により注目画素の画素値を求めることにより、エッジ方向に沿った画素値を得ることができる。
 なお、本明細書において「エッジ」とは、画素の輝度値、濃度値、色、模様などの特徴が類似している部分を一つの領域としたとき、上記の特徴が急激に変化している、領域と領域との境界をいう。「エッジ方向」とは、このエッジの方向をいう。また、「平行四辺形」とは、長方形を含む概念である。「最近傍の4つの実画素」とは、実施形態では図6の画素GG1~GG4が該当する。 「最近傍の4つの実画素で特定される領域内」とは、図11に示すように、当該画素上を含む概念である。「第1および第2の近傍領域区切り線」とは、実施形態では、図10に示す分割ラインe1、e2が該当する。「距離を考慮した重み付け演算」とは、実施形態で採用した距離をそのまま重みとして採用した加重平均を求める場合はもちろん、さらに、所定の係数を乗算するようにしてもよい。さらに、線形ではなく、非線形(三次関数を用いた補間等)で演算する場合を含む。
補間画素値演算装置1の機能ブロック図である。 補間画素値演算装置1のハード構成図である。 補間画素値演算装置1にて採用したエッジ方向候補を説明する図である。 補間画素値演算装置1にて採用したエッジ方向候補の角度を説明する図である。 全体のフローチャートである。 補間画素と実画素の関係を示す図である。 エッジタイプ2の場合に演算に用いる画素を示す図である。 エッジタイプ3の場合に演算に用いる画素を示す図である。 エッジタイプ4の場合に演算に用いる画素を示す図である。 補間画素の画素値演算を説明する為の図である。 端に位置する分割領域に補間画素がある場合を示す図である。 エッジタイプ4における4頂点を説明する図である。
 以下、本発明における実施形態について、図面を参照して説明する。
(1.第1実施形態)(1.1 機能ブロック)
 図1に、本発明の1実施形態にかかる補間画素値演算装置1の機能ブロック図を示す。
 補間画素値演算装置1は、マトリックス状に配置された複数の実画素について、エッジ検出装置(図示せず)から所定領域におけるエッジ方向が与えられると、そのエッジ方向に基づき、補間倍率により特定される補間画素の画素値を演算する装置であって、近傍領域区切り線特定手段3、頂点画素特定手段5、交点特定手段7、仮想画素値演算手段9、補間画素値演算手段11を備えている。
 近傍領域区切り線特定手段3は、前記補間画素に対する最近傍の4つの実画素で特定される領域内を通過する領域区切り線であって、前記与えられるエッジ方向に平行でかつ、前記マトリックス状に配置された複数の実画上を通過する領域区切り線のうち、前記補間画素に近い2つの領域区切り線を第1および第2の近傍領域区切り線として特定する。頂点画素特定手段5は、前記第1の近傍領域区切り線上の実画素であって、前記補間画素との距離が最も近い実画素および2番目に近い実画素をそれぞれ第1頂点画素、第2頂点画素として、前記第2の近傍領域区切り線上の実画素であって、前記補間画素との距離が最も近い実画素および2番目に近い実画素をそれぞれ第3頂点画素、第4頂点画素として特定する。交点特定手段7は、前記第1、第2の近傍領域区切り線に対して、前記補間画素から法線を定義して、当該法線と前記第1、第2の近傍領域区切り線との交点をそれぞれ第1、第2交点として特定する。仮想画素値演算手段9は、前記第1交点における仮想画素の画素値を、前記第1頂点画素と第2頂点画素との距離、およびこれらの画素値に基づき加重平均演算するとともに、前記第2交点における仮想画素の画素値を、前記第3頂点画素と第4頂点画素との距離、およびこれらの画素値に基づき加重平均演算する。補間画素値演算手段11は前記補間画素の画素値を、前記第1交点と前記第2交点との距離、および前記第1交点および前記第2交点における画素値に基づき重み付け演算する。
(1.2 ハードウェア構成)
 図2に補間画素値演算装置1のハードウェア構成を示す。補間画素値演算装置1は、CPU23、フレームメモリ27、RAM25、フラッシュメモリ26を備えている。フラッシュメモリ26には、補間プログラム26pが記憶されている。補間プログラム26pには、後述するように、3パターンのエッジ方向についての補間を行う。RAM25は演算結果等を記憶する。フレームメモリ27は1画面の画像データを保持する。
 CPU23は、補間プログラム26Pに従い、フレームメモリ27に記憶された画像データに対し、所定の6*6画素のウインドウを設定し、設定した画素についての画素データ(輝度)を読み出し、後述するように、補間画素の画素値を決定し、結果をRAM26に記憶する。
 なお、本実施形態においては、1*1画素内における1つの補間画素の画素値決定処理についてのみ説明するが、実際は、補間倍率によって決定される全補間画素について同様の処理が繰り返し行なわれる。
(1.3 フローチャートの説明)(1.3.1 エッジ方向)
 まず、本実施形態において採用したエッジ方向について説明する。本実施形態においては、図3A、Bに示すように12のエッジ方向を採用した。
 図3Aにおいて、4*4画素の中央に仮想画素G1が定義される。なお、同図においてハッチング画素は補間画素を示している。仮想画素G1の周辺には、実画素C2~C4が存在するので、これらの内側において、半画素の関係となる補間画素G2~G5を定義する。さらに、実画素C2~C4の外側にも半画素の関係となる補間画素G12~G19を定義する。
 このようにして定義した補間画素および実画素を用いることにより、仮想画素G1を通るほぼ均等な12方向が定義される。具体的には、図3Aに示すように、補間画素G2と補間画素G4を結ぶ方向1、実画素C12と実画素C16を結ぶ方向2、補間画素G12と補間画素G16を結ぶ方向3、実画素C2と実画素C4を結ぶ方向4、補間画素G13と補間画素G17を結ぶ方向5、実画素C13と実画素C17を結ぶ方向6である。以下同様にして、図3Bに示すように、方向7~12を定義する。これにより図4に示すように、方向1~12についての角度が90度、108.4度・・・と定義される。図4に示すように、これらの角度構成は完全に均等ではないがほぼ12等分である。
 前記12方向における補間処理は、エッジタイプ1~4の4種類に分類可能である。なぜなら、演算処理の画素が90度、180度配置が異なるだけで同様に求めることができるからである。
 エッジ方向1とエッジ方向7は、垂直、水平方向であり、エッジタイプ1とする。エッジ方向2、エッジ方向6、エッジ方向8、エッジ方向12をエッジタイプ2とする。エッジ方向4、エッジ方向10をエッジタイプ3とする。エッジ方向3、エッジ方向5、エッジ方向9、エッジ方向11をエッジタイプ4とする。
 本実施形態においては、エッジタイプ1については、従来のBicubic法およびクリップ関数により補間を行うようにしたが、かかる処理については説明は省略する。
(1.3.2 補間処理)
 図5にフラッシュメモリ25に記憶されたプログラムのフローチャートを示す。CPU23は、注目する補間画素位置が与えられると、図6に示すような補間画素HGに対して、最も近接する実画素GG1~GG4を特定する(図5ステップS1)。実画素GG1~GG4は後述する領域Rを構成する。
 CPU23は、補間画素値演算装置(図示せず)からエッジタイプが与えられると、エッジタイプによって補間画素HGが所属する分割領域を特定する(図5ステップS3)。
 エッジタイプ2~4による分割領域について説明する。図7にエッジタイプ2に属するエッジ方向6における分割領域r1~r4を示す。補間画素GG1~GG4で特定される領域R内を通過し、エッジ方向6と平行でかつ、実画素を通る線分を定義すると、分割ラインe1~e3が定義できる。かかる分割ラインe1~e3で分割される分割領域として分割領域r1~r4が定義できる。例えば、補間画素HGが図7に示す位置にある場合、補間画素HGは分割領域r2に所属すると判断される。
 図8にエッジタイプ3に属するエッジ方向4における分割領域r1、r2を示す。補間画素GG1~GG4で特定される領域R内を通過し、エッジ方向4と平行でかつ、実画素を通る線分を分割ラインe1として定義する。領域Rは、かかる分割ラインe1で分割され、これにより、分割領域r1、r2が定義される。補間画素は、これらの分割領域のいずれかに位置する。例えば、補間画素HGが図8に示す位置にある場合、補間画素HGは分割領域r2に所属すると判断される。
 図9にエッジタイプ4に属するエッジ方向5における分割領域r1~r3を示す。補間画素GG1~GG4で特定される領域R内を通過し、エッジ方向5と平行でかつ、実画素を通る線分を定義すると、分割ラインe1、e2が定義できる。かかる分割ラインe1、e2で分割され、これにより、分割領域r1~r3が定義される。補間画素は、これらの分割領域のいずれかに位置する。例えば、補間画素HGが図9に示す位置にある場合、補間画素HGは分割領域r1に所属すると判断される。
 次に、CPU23は、所属する分割領域を構成する分割ライン上に補間画素HGから法線を定義し、交点を仮想位置として特定する(図5ステップS5)。例えば、補間画素HGが図10に示すような位置である場合、補間画素HGから分割ラインe1および分割ラインe2に法線を定義し、その交点をそれぞれ仮想位置P1、P2とする。
 CPU23は、仮想位置P1、P2の画素値を演算する(図5ステップS7)。本実施形態においては、エッジ方向に沿った演算をする為に以下のような演算手法を採用した。これはエッジ方向に沿った2つの画素の画素値はほぼ同じと推定できるからである。
 図10を用いて具体的に説明する。仮想位置P1を通る分割ラインe1上の画素について、仮想位置P1から最近接する画素を特定する。この場合、近接する画素は画素G23、画素G36である。
 これらの画素G23、画素G36と仮想位置P1との距離d1、d2を重みとして考慮した画素値を演算する。画素G23の画素値をD23と、画素G36の画素値をD36とした場合、仮想位置P1の画素値DP1は、具体的には、下記式で表される。
 DP1=((D23*d1)+(D36*d2))/(d1+d2)
 仮想位置P2の画素値DP2についても、画素G22、画素G35と仮想位置P1との距離d3、d4を重みとして考慮した画素値からを演算できる。
 CPU23は、仮想位置P1、P2の画素値から、補間画素HGの画素値HGPを演算する(図5ステップS9)。かかる演算についても、ステップS7同様にして、距離d11、d12を重みとして考慮した画素値を求めることができる。
 HGP=((DP1*d11)+(DP2*d12))/(d11+d12)
 このように、平行四辺形を構成する頂点画素G22、G23、G36、G35の画素値に基づいて補間画素HGの画素値が得られる。ここで、ラインetは、分割ラインe1、e2と平行で、かつ補間画素HGを通過するラインである。
 なお、補間画素HGが所属する分割領域が、端に位置する分解領域r1、r4については、仮想位置の画素を簡易演算で求めてもよい。例えば、図11に示すように分割領域r4に存在する場合、画素G33、G66との距離に応じて重み付け演算するのではなく、画素G33の画素値をそのまま採用する。エッジ方向に沿った2つの画素の画素値はほぼ同じで、また、距離d3、d4による重み付けを考慮すると、簡易演算をしてもそれほど誤差は大きくないからである。
 図5ステップS3~ステップS9の処理については、エッジタイプ3,4についても同様であるので説明は省略する。
 なお、エッジタイプ2,4の場合は、平行四辺形を構成する近接の4つの頂点画素は、2つの分割ラインが特定されるとそれで一意に決定できる。これに対して、エッジタイプ3の場合、分割ラインが特定されても、平行四辺形を構成する近接の4つの頂点画素が、一意には決定できない。ただし、この場合でも、補間画素HGに近接する4実画素を選択することにより、演算に用いる実画素を特定することができる。図12を用いて説明する。図12Aに示すように、補間画素HGが位置する場合、画素G22、G12、G33、G23が4つの頂点画素となる。これは、エッジ方向に平行で、かつ、実画素を通る分割ライン上に位置する画素のうち、補間画素HGに最近接の上位4画素が、これらの画素だからである。図12Bに示すように、補間画素HGが位置する場合、同様にして、画素G22、G23、G34、G33が頂点画素となる。
(2.他の実施形態)
 本実施形態においては、エッジ方向の角度が上記エッジタイプによって特定される。また、各エッジ方向に対して法線を定義してその交点を仮想画素位置としている。したがって、4つの実画素の領域Rにおける補間画素の相対位置dx,dyとした場合(図6参照)、距離d1~d4、d11、d12を値dx,dyで表すことができる。これにより、エッジタイプ毎に1の演算式を記憶しておけば、簡単に演算することができる。ただし、演算手法についてはかかる演算手法に限定されず、平行四辺形を構成する4つの頂点画素からの距離を重み付けとして考慮した演算をすればよい。
 また、上記実施形態においては、端部の分割領域に補間画素HGが位置する場合に、一方の仮想位置の画素値の演算において、近接する画素値をそのまま採用したが、より簡易演算を行うのであれば、双方の仮想位置とも近い方画素の値を採用するようにしてもよい。さらには、平行四辺形を構成する4つの頂点画素のうち、最近接の画素値を補間画素HGの画素値として採用するようにしてもよい。
 本実施形態においては、画素値として輝度を採用した場合について説明したが、エッジ補間するための画素値であればどのようなものであってもよく、例えばRGB値を採用してもよい。
本実施形態においては、エッジ平行線上の仮画素P1,P2の画素値、および補間画素の画素値の演算については、距離を用いて線形補間するようにしたが、距離を考慮した重み付けであれば、例えば、三次関数による補間等を採用してもよい。特に、エッジ平行線上の仮画素P1,P2の演算については、単純に距離で加重平均を求めても、実際には問題とならないと考えられる。これに対して、仮画素P1,P2から補間画素の画素値を演算する際には、エッジを横切るため、輝度の変化が大きい。したがって、かかる状況を考慮して、補間画素値を演算するようにすればよい。
このように、エッジ方向に平行な方向とエッジ方向に直交する方向の二段階で演算を分けることにより、エッジ方向に沿った補間が可能となる。
 本実施形態においては、エッジ方向として、12方向を採用したが、これに限定されない。
 また、本実施形態においては、平行四辺形の頂点画素として、近接の4画素を採用したが、これに限定されない。
 本実施形態においては、図5ステップS3にて、分割領域を特定するようにしたが、これは、与えられたエッジ方向に平行な分割ラインのうち、近接の分割ラインを特定する為である。したがって、分割領域を求めることなしに、2つの分割ラインを特定するようにしてもよい。
 上記実施形態においては、図1に示す機能を実現するために、CPU23を用い、ソフトウェアによってこれを実現している。しかし、その一部もしくは全てを、ロジック回路などのハードウェアによって実現してもよい。なお、プログラムの一部の処理を、オペレーティングシステム(OS)にさせるようにしてもよい。

Claims (8)

  1.  マトリックス状に配置された複数の実画素について、エッジ方向が与えられると、前記実画素の間に配置される注目画素の画素値を演算する補間画素値演算装置であって、
     前記注目画素に対する最近傍の4つの実画素で特定される領域内を通過する領域区切り線であって、前記与えられるエッジ方向に平行でかつ、前記マトリックス状に配置された複数の実画素上を通過する領域区切り線のうち、前記注目画素に近い2つの領域区切り線を第1および第2の近傍領域区切り線として特定する近傍領域区切り線特定手段、
     前記第1の近傍領域区切り線上の実画素であって、前記注目画素との距離が最も近い実画素および2番目に近い実画素をそれぞれ第1頂点画素、第2頂点画素として、前記第2の近傍領域区切り線上の実画素であって、前記注目画素との距離が最も近い実画素および2番目に近い実画素をそれぞれ第3頂点画素、第4頂点画素として特定する頂点画素特定手段、
     前記第1、第2の近傍領域区切り線に対して、前記注目画素から法線を定義して、当該法線と前記第1、第2の近傍領域区切り線との交点をそれぞれ第1、第2交点として特定する交点特定手段、
     前記第1交点における仮想画素の画素値について、前記第1頂点画素と第2頂点画素との距離、およびこれらの画素値に基づき、距離を考慮した重み付け演算するとともに、前記第2交点における仮想画素の画素値について、前記第3頂点画素と第4頂点画素との距離、およびこれらの画素値に基づき、距離を考慮した重み付け演算する仮想画素値演算手段、前記注目画素の画素値について、前記第1交点と前記第2交点との距離、および前記第1交点および前記第2交点における画素値に基づき、距離を考慮した重み付け演算する補間画素値演算手段 を備えたことを特徴とする補間画素値演算装置。
  2.  マトリックス状に配置された複数の実画素について、エッジ方向が与えられると、前記実画素の間に配置される注目画素の画素値を演算する補間画素値演算方法であって、
     前記注目画素に対する最近傍の4つの実画素で特定される領域を、前記マトリックス状に配置された複数の実画素上を通過する前記与えられるエッジ方向に平行で、かつ前記領域を通過する領域区切り線で分割した場合に定義できる領域区切り線のうち、前記注目画素に近い2つの領域区切り線を近傍領域区切り線として特定し、
     前記注目画素を通過し、前記特定した2つの領域区切り線に対して定義される法線との交点を領域区切り線上第1仮想位置、領域区切り線上第2仮想位置として定義し、
     前記領域区切り線上第1仮想位置および前記領域区切り線上第2仮想位置、それぞれについて、当該領域区切り線上の実画素の画素値および当該画素値との距離を考慮した重み付け演算によりそれら画素値を演算し、
     前記注目画素の画素値について、前記第1交点と前記第2交点との距離、および前記第1交点および前記第2交点における画素値に基づき、距離を考慮した重み付け演算すること、
     を特徴とする補間画素値演算方法。
  3.  マトリックス状に配置された複数の実画素について、エッジ方向が与えられると、前記実画素の間に配置される注目画素の画素値を演算する補間画素値演算装置であって、
     前記補間画素に対する最近傍の4つの実画素で特定される領域内を通過する領域区切り線であって、前記与えられるエッジ方向に平行でかつ、前記マトリックス状に配置された複数の実画素上を通過する領域区切り線のうち、前記注目画素に近い2つの領域区切り線を第1および第2の近傍領域区切り線として特定する近傍領域区切り線特定手段、
     前記第1の近傍領域区切り線上の実画素であって、前記注目画素との距離が最も近い実画素および2番目に近い実画素をそれぞれ第1頂点画素、第2頂点画素として、前記第2の近傍領域区切り線上の実画素であって、前記注目画素との距離が最も近い実画素および2番目に近い実画素をそれぞれ第3頂点画素、第4頂点画素として特定する手段、
     前記第1、第2の近傍領域区切り線に対して、前記注目画素から法線を定義して、当該法線と前記第1、第2の近傍領域区切り線との交点をそれぞれ第1、第2交点として特定する交点特定手段、
     前記第1交点における仮想画素値を、前記第1頂点画素の値および当該画素との距離、前記第2頂点画素の値および当該画素との距離に基づき演算するとともに、前記第2交点における仮想画素値を、前記第3頂点画素の値および当該画素との距離、前記第4頂点画素の値および当該画素との距離に基づき演算する仮想画素値演算手段、
     前記注目画素の画素値について、前記第1交点と前記第2交点との距離、および前記第1交点および前記第2交点における画素値に基づき、距離を考慮した重み付け演算する補間画素値演算手段、 を備えたことを特徴とする補間画素値演算装置。
  4.  請求項3の補間画素値演算装置において、
     前記仮想画素値演算手段は、前記第1交点における仮想画素値または前記第2交点における仮想画素値の画素値として、前記第1、第2の近傍領域区切り線上に近接する実画素がある場合、当該実画素の値を採用すること、
     を特徴とする補間画素値演算装置。
  5.  マトリックス状に配置された複数の実画素について、エッジ方向が与えられると、前記実画素の間に配置される注目画素の画素値を演算する補間画素値演算装置であって、
     前記注目画素に対する最近傍の4つの実画素で特定される領域内を通過する領域区切り線であって、前記与えられるエッジ方向に平行でかつ、前記マトリックス状に配置された複数の実画素上を通過する領域区切り線のうち、前記注目画素に近い2つの領域区切り線を第1および第2の近傍領域区切り線として特定する近傍領域区切り線特定手段、
     前記第1の近傍領域区切り線または前記第2の近傍領域区切り線上の実画素であって、前記いずれかの最近傍の4つの実画素の1つの画素を頂点とする平行四辺形を定義する平行四辺形定義手段、
     前記注目画素の画素値について、前記平行四辺形の頂点の実画素との距離、前記頂点の実画素の画素値に基づき、距離を考慮した重み付け演算する演算手段、を備えたことを特徴とする補間画素値演算装置。
  6.  請求項5の補間画素値演算装置において、
     前記4つの頂点は、前記注目画素に近接する実画素で構成されていること、
     を特徴とする補間画素値演算装置。
  7.  請求項5または請求項6の補間画素値演算装置において、
     前記演算手段は、
     前記第1の近傍領域区切り線および前記第2の近傍領域区切り線に対して、前記仮想画素から法線を定義し、
     前記第1の近傍領域区切り線と前記法線の交点を第1交点として、前記第1の近傍領域区切り線上の2つの頂点からの距離および当該2つの頂点の画素値について、前記第1交点の画素値を演算し、
     前記第2の近傍領域区切り線と前記法線の交点第2交点として、前記第2の近傍領域区切り線上の2つの頂点からの距離および当該2つの頂点の画素値から前記第2交点の画素値を演算し、
     前記注目画素の画素値について、前記第1交点と前記第2交点との距離、および前記第1交点および前記第2交点における画素値に基づき演算すること、
     を特徴とする補間画素値演算装置。
  8.  コンピュータに、マトリックス状に配置された複数の実画素について、エッジ方向が与えられると、前記実画素の間に配置される注目画素の画素値を演算する補間画素値演算を実行させるためのプログラムであって、下記ステップを含むこと、を特徴とする補間画素値演算プログラム。
     前記注目画素に対する最近傍の4つの実画素で特定される領域を、前記マトリックス状に配置された複数の実画素上を通過し前記与えられるエッジ方向に平行で、かつ前記領域を通過する領域区切り線で、分割するステップ、
     前記領域区切り線のうち、前記注目画素に近い2つの領域区切り線を近傍領域区切り線として特定するステップ、
     前記注目画素を通過し、前記特定した2つの領域区切り線に対して定義される法線との交点を領域区切り線上第1仮想位置、領域区切り線上第2仮想位置として定義するステップ、
     前記領域区切り線上第1仮想位置および前記領域区切り線上第2仮想位置、それぞれの画素値について、当該領域区切り線上の実画素の画素値および当該実画素との距離に基づき、距離を考慮した重み付け演算するステップ、前記注目画素、前記領域区切り線上第1仮想位置および前記領域区切り線上第2仮想位置との距離、および前記領域区切り線上第1仮想位置および前記領域区切り線上第2仮想位置における画素値に基づき、距離を考慮した重み付け演算するステップ。
PCT/JP2011/070568 2010-12-06 2011-09-09 エッジ補間装置またはその方法 WO2012077395A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-271847 2010-12-06
JP2010271847A JP4850965B1 (ja) 2010-12-06 2010-12-06 エッジ補間装置またはその方法

Publications (1)

Publication Number Publication Date
WO2012077395A1 true WO2012077395A1 (ja) 2012-06-14

Family

ID=45540483

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/070568 WO2012077395A1 (ja) 2010-12-06 2011-09-09 エッジ補間装置またはその方法

Country Status (2)

Country Link
JP (1) JP4850965B1 (ja)
WO (1) WO2012077395A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012253684A (ja) * 2011-06-06 2012-12-20 Sharp Corp 画像処理装置、画像処理方法、画像処理装置を備える画像表示装置、プログラムおよび記録媒体
WO2014065160A1 (ja) * 2012-10-24 2014-05-01 シャープ株式会社 画像処理装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6671101B2 (ja) * 2015-02-05 2020-03-25 シナプティクス・ジャパン合同会社 画像処理回路、表示パネルドライバ、表示装置及び画像処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009049562A (ja) * 2007-08-15 2009-03-05 Japan Science & Technology Agency 画像処理装置、方法およびプログラム
JP2009048301A (ja) * 2007-08-15 2009-03-05 Japan Science & Technology Agency 画像処理装置、方法およびプログラム
JP2009094862A (ja) * 2007-10-10 2009-04-30 Victor Co Of Japan Ltd 映像信号処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009049562A (ja) * 2007-08-15 2009-03-05 Japan Science & Technology Agency 画像処理装置、方法およびプログラム
JP2009048301A (ja) * 2007-08-15 2009-03-05 Japan Science & Technology Agency 画像処理装置、方法およびプログラム
JP2009094862A (ja) * 2007-10-10 2009-04-30 Victor Co Of Japan Ltd 映像信号処理装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012253684A (ja) * 2011-06-06 2012-12-20 Sharp Corp 画像処理装置、画像処理方法、画像処理装置を備える画像表示装置、プログラムおよび記録媒体
WO2014065160A1 (ja) * 2012-10-24 2014-05-01 シャープ株式会社 画像処理装置
JP2014085892A (ja) * 2012-10-24 2014-05-12 Sharp Corp 画像処理装置

Also Published As

Publication number Publication date
JP4850965B1 (ja) 2012-01-11
JP2012124598A (ja) 2012-06-28

Similar Documents

Publication Publication Date Title
JP6675478B2 (ja) 較正装置、較正方法、光学装置、撮影装置、投影装置、計測システムおよび計測方法
JP4657367B2 (ja) 画像処理装置、撮像装置、および画像歪み補正方法
JP4818053B2 (ja) 高解像度化装置および方法
JP6553826B1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP4908440B2 (ja) 画像処理装置及び方法
CN110246161B (zh) 一种360度全景图像无缝拼接的方法
US9519952B2 (en) Image processing apparatus and method
US9514528B2 (en) Image processing apparatus, distortion-corrected map creation apparatus, and semiconductor measurement apparatus
JP6594170B2 (ja) 画像処理装置、画像処理方法、画像投影システムおよびプログラム
JP2009109666A (ja) 解像度変換装置、方法およびプログラム
JP4850965B1 (ja) エッジ補間装置またはその方法
JP2017191572A (ja) 画像処理装置及びその方法、プログラム
JP6615486B2 (ja) カメラキャリブレーション装置、方法及びプログラム
JP6752052B2 (ja) 映像処理装置および映像処理方法、プログラム
JP4686388B2 (ja) 画像拡大装置及び画像拡大方法
JP6487671B2 (ja) 画像処理装置、画像処理方法。およびプログラム
JP2009146150A (ja) 特徴位置検出方法及び特徴位置検出装置
JP2015114949A (ja) 画像処理装置、画像処理方法、画像処理装置用プログラム、および、記録媒体
JP4548228B2 (ja) 画像データ作成方法
JP2012003469A (ja) 画像処理プログラム、画像処理装置および撮像装置
US20130315502A1 (en) Image processing apparatus and image processing method
JP2004258924A (ja) 道路画像の修正方法と合成方法
JP2014219764A (ja) 画像処理装置、画像処理方法およびプログラム
JP2013218523A (ja) 画像拡大処理装置
JP2009064193A (ja) 解像度変換装置及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11846215

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11846215

Country of ref document: EP

Kind code of ref document: A1