JP2008282187A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2008282187A
JP2008282187A JP2007125197A JP2007125197A JP2008282187A JP 2008282187 A JP2008282187 A JP 2008282187A JP 2007125197 A JP2007125197 A JP 2007125197A JP 2007125197 A JP2007125197 A JP 2007125197A JP 2008282187 A JP2008282187 A JP 2008282187A
Authority
JP
Japan
Prior art keywords
pixel
output
input
unit
interpolation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007125197A
Other languages
Japanese (ja)
Other versions
JP4879084B2 (en
Inventor
Tomokazu Fukuda
智教 福田
Chihiro Sakuwa
千尋 佐桑
Yoshiko Hatano
喜子 幡野
Hochi Nakamura
芳知 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007125197A priority Critical patent/JP4879084B2/en
Publication of JP2008282187A publication Critical patent/JP2008282187A/en
Application granted granted Critical
Publication of JP4879084B2 publication Critical patent/JP4879084B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the following problem: though generating an artifact such as jaggies, ringing or the like in a slant line part or an edge part of an image in a nearest neighbor method, a linear interpolation method, or a high-order interpolation method because regarding a pixel as a point in conventional magnification-reduction technique, the jaggies are not conspicuous or does not occur if the pixel is the ideal point, but an area of unsmoothness is largely magnified because the pixel has an area. <P>SOLUTION: The pixel is handled as a pixel having the area. A decision part 104 detects a slant line present inside input image data by a color difference value and a luminance value of each the pixel inside an input pixel group and the input pixel group around an output pixel after magnification processing. A coefficient calculation part 105 configures a slant line zone by the pixels each having the area based on slant line direction information, decides whether the slant line zone crosses the output pixel having the area or not, and calculates an interpolation coefficient from an area ratio of a crossing portion between the slant line zone and the input pixel when they cross. An interpolation part 106 interpolates the color difference value and the luminance value of the output pixel based on the interpolation coefficient or the like. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、画像を拡大又は縮小するための画像処理装置に関しており、例えば、家庭用テレビ等の表示装置に画像又は映像を表示するときに入力画像の解像度を表示装置の解像度に合わせる様にするための画像処理装置に関する。   The present invention relates to an image processing device for enlarging or reducing an image. For example, when an image or video is displayed on a display device such as a home television, the resolution of the input image is matched with the resolution of the display device. The present invention relates to an image processing apparatus.

従来の画像処理装置は、ニアレストネイバー(最近傍)法、バイリニア法、又はバイキュービック法の何れかの補間法を用いて、画像の拡大又は縮小を行っていた(例えば非特許文献1参照)。   A conventional image processing apparatus performs enlargement or reduction of an image using any of the nearest neighbor method, the bilinear method, and the bicubic method (see, for example, Non-Patent Document 1). .

これらの方法の内で、ニアレストネイバー補間法は、画像の拡大処理により新しく増えた補間画素Pu,v に最も近い位置にある画素Pi,j+1の輝度値及び色差値ないしRGB値などの色情報を示す値(以下、それらを画素値として総称する。)をそのまま補間画素Pu,vの画素値として用いる手法である。ニアレストネイバー法は、最も単純な方法のため、高速に処理出来ると言う利点を有する。又、同方法は、画像の拡大後に於けるコントラストが高いと言う利点も有する。しかしながら、同方法では、斜め線にジャギーが発生するため、画質は非常に悪くなる。 Among these methods, the nearest neighbor interpolation method is the luminance value, color difference value or RGB value of the pixel P i, j + 1 located closest to the interpolation pixel P u, v newly increased by the image enlargement process. In this method, values indicating color information (hereinafter collectively referred to as pixel values) are used as pixel values of the interpolated pixels Pu, v as they are. The nearest neighbor method has the advantage that it can be processed at high speed because it is the simplest method. This method also has the advantage of high contrast after image enlargement. However, in this method, jaggies are generated in the diagonal lines, so that the image quality becomes very poor.

又、バイリニア補間法は、補間画素Pu,vの周囲の4画素Pi,j、Pi,j+1、Pi+1,j、Pi+1,j+1の画素値を用いて平面的な補間を行う手法である。この手法では、ニアレストネイバー法の様な斜め線にジャギーは発生せず、画像のスムージングの効果が得られる。しかし、エッジ部の様な急激に画素値が変化している部分がボヤケてしまうと言う問題点がある。 The bilinear interpolation method uses pixel values of four pixels P i, j , P i, j + 1 , P i + 1, j , P i + 1, j + 1 around the interpolation pixel P u, v. This is a technique for performing planar interpolation. In this method, jaggy does not occur in the oblique line unlike the nearest neighbor method, and an image smoothing effect can be obtained. However, there is a problem that a portion where the pixel value changes rapidly such as an edge portion is blurred.

又、バイキュービック法は、補間画素Pu,vの周囲の16画素Pi,jからPi+3,j+3までの画素値を用いて3次関数による曲面的な補間を行う手法である。この手法では、エッジ強調効果が得られ、ボヤケ感も少なく、斜め線のジャギーも発生しにくい。しかし、上記2種の補間方法と比較して、計算量が多くかかると言う問題点がある。 The bicubic method is a method of performing curved surface interpolation using a cubic function using pixel values from 16 pixels P i, j to P i + 3, j + 3 around the interpolation pixel P u, v. is there. With this method, an edge enhancement effect is obtained, blurring is less likely, and jaggies with diagonal lines are less likely to occur. However, there is a problem that a large amount of calculation is required as compared with the above two interpolation methods.

そこで、これらの古典手法の改善策として、人間の視覚特性を考慮して適応的にエッジ部を修正する手段を搭載している画像処理装置が提唱されている(例えば、特許文献1参照。)。又、古典手法を発展させたマルチレート処理部と、拡大しようとしている対象画素とその隣接画素との拡大前の関係から拡大又は縮小可能かを適応的に判断し拡大又は縮小を行う処理部とを備えている画像処理装置も、提案されている(例えば、特許文献2参照。)。   Thus, as an improvement measure of these classical methods, an image processing apparatus is proposed that includes means for adaptively correcting the edge portion in consideration of human visual characteristics (see, for example, Patent Document 1). . A multi-rate processing unit developed from the classical method, and a processing unit that adaptively determines whether enlargement or reduction is possible from the relationship between the target pixel to be enlarged and its neighboring pixels before enlargement, and performs enlargement or reduction. There has also been proposed an image processing apparatus provided with (see, for example, Patent Document 2).

特開2004−133592号公報(第8頁〜第12頁、図2、図3)Japanese Patent Application Laid-Open No. 2004-133592 (pages 8 to 12, FIGS. 2 and 3) 特開2001−251500号公報(第7頁〜第14頁、図1)JP 2001-251500 A (pages 7 to 14, FIG. 1) 高木幹雄著、「画像解析ハンドブック」東京大学出版会、1991年1月17日、p.441−444Mikio Takagi, “Image Analysis Handbook”, University of Tokyo Press, January 17, 1991, p. 441-444

上記の古典手法を用いた場合には、拡大率が大きいとき、又は、縮小率が小さいときに、ボヤケ感が増加したり、画像のエッジ周辺にリンギングやジャギー等のアーチファクトが発生すると言う問題点がある。又、これらのアーチファクトを低減するために、古典手法に適応処理を追加しても、得られる最大倍率は2倍しかならず、効果に制限があると言う問題点がある。しかも、適応処理を導入したために、演算コストが古典手法よりも大幅に増大すると言う問題点もある。   When the above classical method is used, when the enlargement ratio is large or the reduction ratio is small, blurring increases or artifacts such as ringing and jaggy occur around the edge of the image. There is. Moreover, even if adaptive processing is added to the classical method to reduce these artifacts, there is a problem that the maximum magnification that can be obtained is only twice, and the effect is limited. In addition, since the adaptive processing is introduced, there is a problem that the calculation cost is significantly increased as compared with the classical method.

又、画素を点として捉えて画素の面積を全く考慮しないか、あるいは、画素の面積を考慮する場合であっても斜め線と画素との重なりを考慮していないために、ジャギーやリンギング等のアーチファクトを発生させていると言う問題点もある。   In addition, the pixel area is not considered at all by considering the pixel as a point, or even when the pixel area is considered, the overlap between the diagonal line and the pixel is not considered, so jaggies, ringing, etc. There is also a problem that artifacts are generated.

又、従来手法(特許文献2)では、拡大・縮小アルゴリズムに古典手法を発展させたマルチレート処理を導入していることから、この点だけでも、少なくとも古典手法と同程度かそれよりも多くの演算コストがかかると言う問題点がある。加えて、特許文献1や特許文献2の様に、画像内容に適応的な処理を加える場合には、古典手法と比較すると、演算コストは大幅に増大すると言う問題点がある。この様に、従来手法は演算コストの増加を招くという問題点を有している。   In addition, since the conventional method (Patent Document 2) introduces multi-rate processing, which is an extension of the classical method, to the enlargement / reduction algorithm, this point alone is at least as high as or more than the classical method. There is a problem that the calculation cost is high. In addition, as in Patent Document 1 and Patent Document 2, when adaptive processing is applied to the image content, there is a problem that the calculation cost is significantly increased compared to the classical method. As described above, the conventional method has a problem that the calculation cost is increased.

本発明は斯かる技術的状況に鑑みて成されたものであり、その目的は、画素の面積及び映像を構成する斜め線成分の面積を考慮した画像補間方法を用いて、演算コストを古典手法と同程度に抑えつつ、ボヤケ感を抑え、リンギング等のアーチファクトを軽減することが可能な、画像拡大又は画像縮小を行うための画像処理装置を提供することにある。   The present invention has been made in view of such a technical situation, and an object of the present invention is to use an image interpolation method that takes into account the area of pixels and the area of oblique line components that constitute an image, and reduces the calculation cost to a classical method. It is an object to provide an image processing apparatus for enlarging or reducing an image, capable of suppressing blurring and reducing artifacts such as ringing while suppressing the image to the same level as the above.

この発明の主題に係る画像処理装置は、所望の画像の拡大率に合わせて、画像拡大処理後の出力画像の各出力画素の位置座標を決定する出力画素位置決定部と、前記出力画素位置決定部から出力される出力画素の位置座標に基づいて、前記出力画素の輝度値及び色差値などの色情報値より成る画素値を求めるために必要な入力画像の画素群、及び、当該入力画素群に属する各入力画素の座標を決定する入力画像画素座標決定部と、前記入力画像の各入力画素の輝度値及び色差値などの色情報値より成る画素値を保有している入力画像用記憶部と、前記入力画像画素座標決定部から出力される前記入力画素群内の各入力画素の座標に基づいて、前記入力画像用記憶部から、前記入力画素群内の各入力画素の前記画素値を取得する入力画像取得部と、前記入力画像画素座標決定部から出力される前記入力画素群に属する各入力画素の座標と、前記入力画像取得部から出力される前記入力画素群に属する各入力画素の前記画素値とから、前記入力画素群に属する各入力画素を1個の点として捉えた場合に於いて、拡大対象となった前記出力画素の所定次元近傍で定まる前記入力画素群に属する全入力画素の内で前記画素値が相間関係にある2個の入力画素を通る斜め線を検出して、前記斜め線の情報を出力する斜め線方向判定部と、前記入力画素群に属する各入力画素及び前記出力画素は点ではなくて面積を持った2次元体であると捉えた上で、前記出力画素位置決定部から送信される拡大対象となった前記出力画素の前記位置座標と、前記斜め線方向判定部から出力される前記斜め線情報とに基づいて、(1)前記斜め線情報で与えられる前記斜め線を、前記斜め線の方向に垂直な方向に、各画素の形状の寸法に基づき定まる所定の幅を有する帯状の斜め線帯を構成し、(2)前記斜め線帯が、前記出力画素の前記位置座標に存在し且つ各画素の形状の寸法と同一寸法の領域を有する2次元体としての出力画素と交差するか否かを判定し、(3)前記斜め線帯が前記2次元体としての出力画素と交差するときには、前記斜め線帯は有効な斜め線帯であると判定した上で、前記斜め線帯と交差する2次元体の各入力画素と前記斜め線帯との交差部分の面積を算出し、各交差部分の面積の面積比を更に算出した上で、少なくとも前記面積比に基づき、補間係数を算出する係数算出部と、前記入力画像取得部から出力される前記入力画素群内の各入力画素の前記画素値と、前記係数算出部から出力される前記補間係数とに基づき、前記出力画素の画素値を補間する補間部と、前記出力画素座標決定部から出力される前記出力画素の前記位置座標と、前記補間部から出力される補間された前記出力画素の前記画素値とを出力する出力部とを備えることを特徴とする。   An image processing apparatus according to a subject of the present invention includes an output pixel position determination unit that determines position coordinates of each output pixel of an output image after image enlargement processing in accordance with a desired image enlargement ratio, and the output pixel position determination A pixel group of an input image necessary for obtaining a pixel value composed of color information values such as a luminance value and a color difference value of the output pixel based on the position coordinates of the output pixel output from the unit, and the input pixel group An input image pixel coordinate determination unit that determines the coordinates of each input pixel belonging to the input image, and an input image storage unit that holds pixel values composed of color information values such as luminance values and color difference values of the input pixels of the input image And the pixel value of each input pixel in the input pixel group from the input image storage unit based on the coordinates of each input pixel in the input pixel group output from the input image pixel coordinate determination unit. Input image acquisition unit to acquire The coordinates of each input pixel belonging to the input pixel group output from the input image pixel coordinate determination unit and the pixel value of each input pixel belonging to the input pixel group output from the input image acquisition unit, In the case where each input pixel belonging to the input pixel group is regarded as one point, the pixel among all the input pixels belonging to the input pixel group determined in the vicinity of a predetermined dimension of the output pixel to be enlarged An oblique line direction determination unit that detects an oblique line passing through two input pixels whose values are interrelated and outputs information of the oblique line, and each input pixel and the output pixel belonging to the input pixel group is a point Instead, the position coordinates of the output pixel that is the enlargement target transmitted from the output pixel position determination unit and the output from the oblique line direction determination unit The diagonal line information (1) The oblique line given by the oblique line information is a band-like oblique line band having a predetermined width determined based on the size of the shape of each pixel in a direction perpendicular to the direction of the oblique line. (2) Whether or not the diagonal line zone intersects with the output pixel as a two-dimensional body that exists at the position coordinates of the output pixel and has a region having the same size as the shape of each pixel (3) When the diagonal line zone intersects with the output pixel as the two-dimensional body, it is determined that the diagonal line zone is an effective diagonal line zone, and then intersects the diagonal line zone. A coefficient for calculating the area of the intersection of each input pixel of the two-dimensional body and the oblique line band, further calculating the area ratio of the area of each intersection, and calculating an interpolation coefficient based on at least the area ratio The calculation unit and the input image output from the input image acquisition unit Based on the pixel value of each input pixel in the prime group and the interpolation coefficient output from the coefficient calculation unit, output from the interpolation unit that interpolates the pixel value of the output pixel and the output pixel coordinate determination unit An output unit that outputs the position coordinates of the output pixel and the pixel value of the interpolated output pixel output from the interpolation unit.

以下、この発明の主題の様々な具体化を、添付図面を基に、その効果・利点と共に、詳述する。   Hereinafter, various embodiments of the subject of the present invention will be described in detail along with the effects and advantages thereof with reference to the accompanying drawings.

本発明の主題によれば、画素は点ではなくて面積を持つ2次元体であるとして取り扱い、画像の拡大又は縮小時に於ける画像補間を行う様にしているので、補間時に斜め線部に発生するジャギーの発生原因を根本的に捉え直すことが出来る様になった結果、演算コストの増大を招く事無く、ジャギーを抑制出来ると言う効果がある。しかも、補間時にエッジ部に発生するリンギングをも抑制出来ると言う効果がある。   According to the subject of the present invention, the pixel is treated as a two-dimensional body having an area rather than a point, and image interpolation is performed when the image is enlarged or reduced. As a result, it becomes possible to fundamentally reexamine the cause of jaggies that occur, and as a result, the jaggies can be suppressed without increasing the calculation cost. In addition, there is an effect that ringing generated at the edge portion during interpolation can be suppressed.

(実施の形態1)
本実施の形態の特徴点は、「画像拡大・縮小後の出力画素の近傍に位置する入力画素群の中の各入力画素(点)の位置座標及び画素値の情報に基づいて当該入力画素群の中で画素値が相間関係のある2つの入力画素(2点)を通り当該入力画像データ内に存在する直線(水平方向又は垂直方向に延びた直線に該当。)、斜め線分、又は斜め線(以下、単に斜め線とも言う。)を検出し、次に、画素は点ではなくて面積を持った2次元体であると捉えて、面積を持つ画素で以って、検出した直線、斜め線分、又は斜め線が所定の幅を有する斜め線状の帯(以下、斜め線帯と言う。)を構成し、当該斜め線帯が面積を持つ当該出力画素の領域と交差するか否かを判断し、交差するときには、上記入力画素群に属し且つ当該斜め線帯と交差する各入力画素と当該斜め線帯との交差部分の面積を求め且つそれらの交差部分の面積の比(以下、単に面積比と言う。)に基づき補間係数を算出して、算出した補間係数に基づき当該出力画素の画素値の補間を行うようにした」点にある。その結果、斜め線部に発生するジャギー(ジャギーは、対象画素とその周辺画素との画素値のガタツキが原因で発生する。)、及び、エッジ部に発生するリンギングを抑制する機能を実現している。以下、図面を参照しつつ、本実施の形態の特徴点を詳述する。
(Embodiment 1)
The feature point of the present embodiment is that “the input pixel group is based on the position coordinate and pixel value information of each input pixel (point) in the input pixel group located in the vicinity of the output pixel after image enlargement / reduction. , A straight line (corresponding to a straight line extending in the horizontal direction or the vertical direction), a diagonal line segment, or a diagonal line that exists in the input image data through two input pixels (two points) having a correlation between the pixel values. A line (hereinafter also simply referred to as a diagonal line) is detected, and then the pixel is regarded as a two-dimensional body having an area rather than a point, and the detected straight line is represented by the pixel having an area, Whether or not a diagonal line segment or a diagonal line band having a predetermined width (hereinafter referred to as a diagonal line band) is formed, and the diagonal line band intersects an area of the output pixel having an area. When crossing, each input that belongs to the input pixel group and crosses the diagonal line Obtain the area of the intersection of the pixel and the diagonal line band, calculate the interpolation coefficient based on the ratio of the areas of the intersection (hereinafter simply referred to as area ratio), and output the output based on the calculated interpolation coefficient The pixel value of the pixel is interpolated ". As a result, a function of suppressing jaggies that occur in the oblique line portion (jaggies occur due to rattling of pixel values of the target pixel and its surrounding pixels) and ringing that occurs in the edge portion is realized. Yes. Hereinafter, the characteristic points of the present embodiment will be described in detail with reference to the drawings.

図1は、本実施の形態に係る画像処理装置の構成例を示すブロック図である。この画像処理装置は、デジタル画像を有理数倍又は整数倍に拡大又は縮小する機能を有している。以下、縮小に関しては、1倍以下の拡大、例えば、1/2倍拡大、と考えられるので、「縮小」も「拡大」という言葉に統一する。又、本実施の形態では、従来例等の様に画素を理想的な点(面積を持たない)として捉えるのではなくて、図3に例示する様に、面積を持つ2次元体として、画素を考える。図3では、各画素は長さ1の単位正方形であり、各画素の面積も1となる。ここで、画素の形状は図3の様に正方形である必然性はなく、長方形等の多角形や、円形や、楕円形の様に、任意の形状であって良い。但し、画素の面積を定義出来る様な形状である必要性がある。又、画素をなす長さも1でなくても良い。当然、面積も1でなくとも良い。以下、説明の便宜上、画素の形状は長さ1の単位正方形であるとする。加えて、画素(入力画素及び出力画素)の座標は、出力画像の座標軸を基準に設定されるものとする。   FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus according to the present embodiment. This image processing apparatus has a function of enlarging or reducing a digital image by a rational number or an integer multiple. In the following, regarding reduction, it is considered to be enlargement of 1 times or less, for example, 1/2 enlargement, so “reduction” is also unified with the term “enlargement”. In the present embodiment, the pixel is not regarded as an ideal point (having no area) as in the conventional example, but as a two-dimensional body having an area as illustrated in FIG. think of. In FIG. 3, each pixel is a unit square having a length of 1, and the area of each pixel is also 1. Here, the shape of the pixel is not necessarily a square as shown in FIG. 3, but may be an arbitrary shape such as a polygon such as a rectangle, a circle, or an ellipse. However, it is necessary to have a shape that can define the area of the pixel. Further, the length forming the pixel may not be 1. Of course, the area may not be 1. Hereinafter, for convenience of description, it is assumed that the shape of the pixel is a unit square of length 1. In addition, the coordinates of the pixels (input pixels and output pixels) are set with reference to the coordinate axis of the output image.

図1に於いて、出力画素位置決定部101は、所望する画像の拡大率に合わせて、拡大処理後の画像(出力画像)の各画素位置(出力画素位置)を決定する。入力画像画素座標決定部102は、出力画素位置決定部101から出力される出力画素座標に基づいて、出力画素の画素値を求めるために必要な、入力画像の画素群及び当該入力画素群に属する各入力画素の座標を決定する。入力画像用フレームメモリ109は、TVのチューナー等に接続されており、予め、入力画像の座標軸で定まる各入力画像の座標位置に対応した各アドレスに、TVのチューナー等から送信されて来る各入力画素の画素値を、1フレーム分だけ、保有している。入力画像取得部103は、入力画像画素座標決定部102から出力される入力画素群内の各入力画素の座標に基づいて(この場合、入力画像画素座標決定部102から出力された各入力画素の座標に対して、出力画像の座標軸から入力画像の座標軸に変換する座標変換を施すことにより、各入力画素の座標を入力画像用フレームメモリ109のアドレスに対応付け可能とする。)、入力画像用フレームメモリ109から、当該入力画素群内の各入力画素の画素値(輝度値及び色差値などの色情報値)を取得する。   In FIG. 1, an output pixel position determination unit 101 determines each pixel position (output pixel position) of an image (output image) after enlargement processing in accordance with a desired image enlargement ratio. The input image pixel coordinate determination unit 102 belongs to the input image pixel group and the input pixel group necessary for obtaining the pixel value of the output pixel based on the output pixel coordinates output from the output pixel position determination unit 101. Determine the coordinates of each input pixel. The input image frame memory 109 is connected to a TV tuner or the like, and each input transmitted from the TV tuner or the like to each address corresponding to the coordinate position of each input image determined in advance by the coordinate axis of the input image. The pixel value of the pixel is held for one frame. The input image acquisition unit 103 is based on the coordinates of each input pixel in the input pixel group output from the input image pixel coordinate determination unit 102 (in this case, each input pixel output from the input image pixel coordinate determination unit 102). The coordinates of each input pixel can be associated with the address of the input image frame memory 109 by performing coordinate conversion for converting the coordinate of the output image to the coordinate axis of the input image. From the frame memory 109, pixel values (color information values such as luminance values and color difference values) of each input pixel in the input pixel group are acquired.

又、斜め線方向判定部104は、入力画像画素座標決定部102から出力される入力画素群に属する各入力画素の座標と入力画像取得部103から出力される入力画素群に属する各入力画素の画素値とから、この段階では各入力画素を1個の点として捉えた場合に於いて、拡大対象となった出力画素(1個の点)の所定次元近傍で定まる入力画素群に属する全入力画素の内で画素値が相間関係にある2個の入力画素(2点)を通る直線、斜め線分又は斜め線(斜め線)を検出して、当該斜め線の情報(上記2点の位置座標あるいは斜め線の方程式等)を出力する。   Further, the oblique line direction determination unit 104 determines the coordinates of each input pixel belonging to the input pixel group output from the input image pixel coordinate determination unit 102 and each input pixel belonging to the input pixel group output from the input image acquisition unit 103. Based on the pixel value, all inputs belonging to the input pixel group determined in the vicinity of the predetermined dimension of the output pixel (one point) to be enlarged when each input pixel is regarded as one point at this stage A straight line, a diagonal line segment, or a diagonal line (diagonal line) passing through two input pixels (two points) whose pixel values are in a correlation relationship among pixels is detected, and information on the diagonal lines (positions of the two points) Coordinate or diagonal equation).

又、係数算出部105は、この段階では、各画素は点ではなくて面積ないしは領域を持った2次元体であると捉えて、出力画素位置決定部101から送信される拡大対象となった出力画素の位置座標と、斜め線方向判定部104から出力される斜め線情報とに基づいて、先ず、(1)斜め線情報で与えられる斜め線を、当該斜め線の方向に垂直な方向に、各画素の形状の寸法に基づき定まる所定の幅を有する帯状の斜め線帯を構成し、(2)当該斜め線帯が、出力画素の位置座標に存在し且つ各画素の形状の寸法と同一寸法の領域ないしは当該寸法から決まる面積を有する2次元体としての出力画素と交差するか否かを判定し、(3)交差するときには、構成された斜め線帯は有効な斜め線帯であると判定した上で、当該斜め線帯に含まれる各入力画素(2次元体)と当該斜め線帯との交差部分の面積を算出し、各交差部分の面積の面積比を更に算出した上で、当該面積比に基づき補間係数を算出する。   Further, at this stage, the coefficient calculation unit 105 regards each pixel as a two-dimensional body having an area or a region instead of a point, and outputs the output as an enlargement target transmitted from the output pixel position determination unit 101. Based on the position coordinates of the pixel and the oblique line information output from the oblique line direction determination unit 104, first, (1) the oblique line given by the oblique line information is set in a direction perpendicular to the direction of the oblique line. A band-shaped oblique band having a predetermined width determined based on the dimension of the shape of each pixel is configured. (2) The diagonal line band exists at the position coordinates of the output pixel and has the same dimension as the dimension of each pixel. It is determined whether or not it intersects with an output pixel as a two-dimensional body having an area determined from this area or the dimension. (3) When intersecting, it is determined that the constructed diagonal line band is an effective diagonal line band. And included in the diagonal line Calculating the area of the intersection of the input pixel (the two-dimensional form) with the oblique line zone, after further calculating the area ratio of the area of each intersection, to calculate the interpolation coefficient based on the area ratio.

又、補間部106は、入力画像取得部103から出力される当該入力画素群内の各入力画素の画素値と、係数算出部105から出力される補間係数とに基づき、当該出力画素の画素値を補間する。   In addition, the interpolation unit 106 determines the pixel value of the output pixel based on the pixel value of each input pixel in the input pixel group output from the input image acquisition unit 103 and the interpolation coefficient output from the coefficient calculation unit 105. Is interpolated.

又、出力部107は、出力画素座標決定部101から出力される当該出力画素の位置座標と、補間部106から出力される補間された当該出力画素の画素値とを、フレームメモリ108内の対応するアドレスに出力する。フレームメモリ108は、送信されて来た当該出力画素の位置座標及び画素値を、対応するアドレスに保存する。   In addition, the output unit 107 outputs the position coordinates of the output pixel output from the output pixel coordinate determination unit 101 and the interpolated pixel value of the output pixel output from the interpolation unit 106 in the correspondence in the frame memory 108. Output to the address you want. The frame memory 108 stores the position coordinates and pixel values of the output pixels that have been transmitted at the corresponding addresses.

次に、図1の画像処理装置の機能ないしは動作について記載する。   Next, functions or operations of the image processing apparatus of FIG. 1 will be described.

先ず、出力画素位置決定部101は、所望する倍率に合わせて、入力画像サイズから出力画像サイズを算出し、ラスタースキャン順に出力画素位置を決定する。ラスタースキャン順とは、図2に示す様に、画像の左上から右に向かって順番をつける方式でTV等の走査線方式に使われている。出力サイズの算出は、出力画素位置を決定する際、毎回計算する必要性はなく、初回に1度だけ出力サイズを算出しても良い。又、出力画素位置は、ラスタースキャン順に配列されている必要性はなく、任意の順番で配列されていても良い。但し、以下の記載では、便宜上、各出力画素はラスタースキャン順に配列しているものとする。   First, the output pixel position determination unit 101 calculates the output image size from the input image size in accordance with a desired magnification, and determines the output pixel position in the order of raster scanning. As shown in FIG. 2, the raster scan order is a method in which an order is assigned from the upper left to the right of an image and is used in a scanning line method such as a TV. The output size need not be calculated every time the output pixel position is determined, and the output size may be calculated only once at the first time. Further, the output pixel positions need not be arranged in the raster scan order, and may be arranged in an arbitrary order. However, in the following description, for convenience, it is assumed that the output pixels are arranged in the raster scan order.

次に、入力画像画素座標決定部102は、出力画素位置決定部101で決定された各出力画素位置の画素値を計算ないしは補間するために必要な入力画素位置群を決定する。ここで、出力画素値を計算するために必要な入力画像位置群に含まれる入力画素の画素数は、選択する補間手法により変わる。例えば、図3に示す様に、入力画素をX,出力画素をYと定義する。縦横同時に画像の拡大を行う場合で、1次近傍まで考える場合には、入力画像画素座標決定部102は、4個の入力画素Xm,n、Xm+1,n、Xm,n+1、Xm+1,n+1から成る入力画像位置群を決定し、当該入力画像位置群に属する各入力画素Xm,n、Xm+1,n、Xm,n+1、Xm+1,n+1の座標を決定し、出力する。同様に、2次近傍まで考慮する場合には、Xm-1,n-1、Xm,n-1、Xm+1,n-1、Xm+2,n-1、Xm-1,n、・・・Xm+2,n+2の16画素の座標を決定し、出力する。このとき、拡大率に従って、出力画素Yi,jの座標軸を基準にしたXi,j座標の距離も計算する。例えば、図3の場合では、入力画素Xi,jと入力画素Xi+1,jの距離は2となる。又、入力画像位置群の範囲も2次近傍よりも大きくても良いし、縦方向及び横方向で異なるアルゴリズムを使う場合には、例えば、縦方向には2次近傍で、横方向には1次近傍で以って入力画像位置群の範囲を決定する様なときには、入力画像位置群として長方形から成る領域を考えても良い。 Next, the input image pixel coordinate determining unit 102 determines an input pixel position group necessary for calculating or interpolating the pixel value of each output pixel position determined by the output pixel position determining unit 101. Here, the number of input pixels included in the input image position group necessary for calculating the output pixel value varies depending on the selected interpolation method. For example, as shown in FIG. 3, an input pixel is defined as X and an output pixel is defined as Y. In the case of enlarging the image at the same time in the vertical and horizontal directions, when considering up to the primary vicinity, the input image pixel coordinate determination unit 102 determines that the four input pixels X m, n , X m + 1, n , X m, n + 1 , X m + 1, n + 1 is determined, and each input pixel X m, n , X m + 1, n , X m, n + 1 , X belonging to the input image position group is determined. Determine the coordinates of m + 1, n + 1 and output. Similarly, when considering up to the second-order neighborhood, X m−1, n−1 , X m, n−1 , X m + 1, n−1 , X m + 2, n−1 , X m− The coordinates of 16 pixels of 1, n ,... X m + 2, n + 2 are determined and output. At this time, the distance of the X i, j coordinate based on the coordinate axis of the output pixel Y i, j is also calculated according to the enlargement ratio. For example, in the case of FIG. 3 , the distance between the input pixel X i, j and the input pixel X i + 1, j is 2. In addition, the range of the input image position group may be larger than the secondary vicinity, and when different algorithms are used in the vertical direction and the horizontal direction, for example, it is a secondary vicinity in the vertical direction and 1 in the horizontal direction. When the range of the input image position group is determined in the next vicinity, a rectangular region may be considered as the input image position group.

又、拡大は、縦横独立に行っても良い。その場合、図1のシステムを縦横独立に用意するか、あるいは、画像を回転させる機能を追加して縦横2回同じシステムを使用することとなる。   Further, the enlargement may be performed independently in the vertical and horizontal directions. In that case, the system of FIG. 1 is prepared independently in the vertical and horizontal directions, or the same system is used twice in the vertical and horizontal directions by adding a function of rotating the image.

図3に示した場合以外に、入力画素と出力画素との位置関係は倍率によって異なる。又、倍率によって、入力画素と出力画素とが重なることもある。図4に、入力画素と出力画素との重なりがある場合の例を示す。図4に示す様に、入力画素と出力画素とが全く重ならない場合、出力画素が1個の入力画素と重なる場合、出力画素が2個の入力画素と重なる場合、及び、出力画素が4個の入力画素と重なる場合がある。   Except for the case shown in FIG. 3, the positional relationship between the input pixel and the output pixel differs depending on the magnification. Also, the input pixel and the output pixel may overlap depending on the magnification. FIG. 4 shows an example where there is an overlap between the input pixel and the output pixel. As shown in FIG. 4, when the input pixel and the output pixel do not overlap at all, when the output pixel overlaps with one input pixel, when the output pixel overlaps with two input pixels, and when there are four output pixels May overlap with the input pixel.

又、出力画素位置が画面の端に位置する場合には、近似操作を行う。例えば、16個分の入力画素が存在し得ない場合もある。入力画像画素座標決定部102は、画面端の検出も同時に行う。特に、画面端の場合、入力画像画素座標決定部102は、2次近傍領域が存在しない箇所に対しては、その画素を無視する(有効画素でのみ補間を行う)、又は、0値を入れる、又は、存在する画素を画面端で折り返す等の2次近傍の近似操作を行う。以下では、2次近傍まで考慮し、画面端に於いては、有効画素でのみ出力画素の画素値を補間する例を示す。   When the output pixel position is located at the edge of the screen, an approximation operation is performed. For example, there may be no 16 input pixels. The input image pixel coordinate determination unit 102 also detects the screen edge at the same time. In particular, in the case of the screen edge, the input image pixel coordinate determination unit 102 ignores the pixel (interpolates only with the effective pixel) or enters a zero value for a portion where the secondary neighboring region does not exist. Alternatively, an approximation operation in the vicinity of the second order, such as folding an existing pixel at the screen edge, is performed. In the following, an example in which the pixel value of the output pixel is interpolated only with the effective pixel at the screen edge in consideration of the secondary vicinity will be described.

入力画像取得部103は、入力画像画素座標決定部102で決定された入力画素位置群内に属する各入力画素の画素値(輝度値及び色差値などの色情報値)を、入力画像用フレームメモリ109の対応するアドレスから、既述した座標変換を施す事で、取得する。   The input image acquisition unit 103 stores pixel values (color information values such as luminance values and color difference values) of the input pixels belonging to the input pixel position group determined by the input image pixel coordinate determination unit 102 as input image frame memories. Obtained by performing the above-described coordinate transformation from 109 corresponding addresses.

次に、斜め線方向判定部104は、入力画像画素座標決定部102及び入力画像取得部103から、それぞれ入力画素群内の各入力画素の位置座標及び画素値を取得する。この段階では、各画素は1個の点として捉えているので、例えば、入力画素群と出力画素との位置関係が図5に示す様な関係であったものとする(図5の各入力画素の正方形は、後述する様に、各入力画素が面積を持つ2次元体と考えたときの場合を参考として示すものである。図6でも同様である。)。この場合、斜め線方向判定部104は、出力画素Yi,jの入力画素群を成す16個の入力画素Xm-1,n-1、Xm,n-1、Xm+1,n-1、Xm+2,n-1、Xm-1,n、・・・Xm+2,n+2の内で、画素値同士の間に一定の相関関係が成立する2個の入力画素を通る斜め線を検出する。例えば、図6に示す様に、斜め線方向判定部104は、2個の入力画素Xm-1,n+1、Xm+1,nを通る斜め線DLを、検出する。尚、ここで言う「斜め線」は、水平方向又は垂直方向に延びた直線をも含む。斜め線方向判定部104は、この斜め線DLを検出した後、係数算出部105に、斜め線情報(例えば、2個の入力画素Xm-1,n+1、Xm+1,nの位置座標や斜め線DLの方程式の様なベクトル情報に該当。)を送信する。尚、斜め線は、2次近傍内にのみに存在する線分であっても良い。 Next, the oblique line direction determination unit 104 acquires the position coordinates and the pixel value of each input pixel in the input pixel group from the input image pixel coordinate determination unit 102 and the input image acquisition unit 103, respectively. At this stage, since each pixel is regarded as one point, for example, it is assumed that the positional relationship between the input pixel group and the output pixel is as shown in FIG. 5 (each input pixel in FIG. 5). As shown later, the squares shown in FIG. 6 refer to the case where each input pixel is considered to be a two-dimensional body having an area (the same applies to FIG. 6). In this case, the oblique line direction determination unit 104 includes 16 input pixels X m−1, n−1 , X m, n−1 , X m + 1, n that form the input pixel group of the output pixel Y i, j. −1 , X m + 2, n−1 , X m−1, n ,..., X m + 2, n + 2 , two of which have a certain correlation between pixel values An oblique line passing through the input pixel is detected. For example, as illustrated in FIG. 6, the oblique line direction determination unit 104 detects an oblique line DL that passes through two input pixels X m−1, n + 1 and X m + 1, n . The “oblique line” mentioned here includes a straight line extending in the horizontal direction or the vertical direction. After detecting the oblique line DL, the oblique line direction determination unit 104 causes the coefficient calculation unit 105 to send oblique line information (for example, two input pixels X m−1, n + 1 , X m + 1, n Corresponds to vector information such as position coordinates and oblique line DL equation). Note that the diagonal line may be a line segment that exists only in the vicinity of the secondary.

尚、斜め線方向判定部104が、設定された入力画素群中に斜め線が存在しないと判定する場合には、同部104は、垂直方向ないしは水平方向に延びた斜め線が検出されたものとする。このとき、垂直方向ないしは水平方向のどちらの直線を同部104が選択するかは、それぞれの入力画素の直線度の高い方(例えば、入力画素群中の各入力画素の内で画素値が近い入力画素同士が垂直方向及び水平方向の何れに近いかで判定される。)を選ぶ方法もある。とは言え、本実施の形態では、この場合に於ける斜め線検出方法を規定することはしない。   When the diagonal line direction determination unit 104 determines that there is no diagonal line in the set input pixel group, the unit 104 detects a diagonal line extending in the vertical or horizontal direction. And At this time, which straight line in the vertical direction or horizontal direction is selected by the same unit 104 depends on the higher linearity of each input pixel (for example, the pixel value of each input pixel in the input pixel group is closer) There is also a method of selecting whether the input pixels are close to each other in the vertical direction or the horizontal direction. However, in this embodiment, the oblique line detection method in this case is not defined.

次に、係数算出部105は、斜め線方向判定部104及び出力画素位置決定部101からそれぞれ斜め線情報及び拡大後の出力画素Yi,jの位置座標を受け取り、この段階で、各画素は点ではなくて所定の面積を有する2次元体であるものとして取り扱う画像処理を、次の通りに実行する。即ち、出力画素Yi,j及び各入力画素は所定の形状及び面積を有する2次元体であるので、係数算出部105は、斜め線情報に基づき定まる斜め線を、当該斜め線の延在方向に直交する方向に対して、各画素の寸法に応じて定まる所定の幅寸法を有する帯状の斜め線帯を構成する。そして、構成された斜め線帯が、所定の2次元的形状及び面積を有する出力画素Yi,jの領域と交差するか否かを判断する。若し、交差する場合には、斜め線方向判定部104によって検出された「斜め線」は適当であったことになる。これに対して交差しないことを検出した場合には、再度、斜め線方向判定部104の動作及び係数算出部105の上記判定動作が、交差を検出するまで、反復実行される。 Next, the coefficient calculation unit 105 receives the diagonal line information and the position coordinates of the enlarged output pixel Y i, j from the diagonal line direction determination unit 104 and the output pixel position determination unit 101, respectively. Image processing that is handled as a two-dimensional body having a predetermined area instead of a point is executed as follows. That is, since the output pixel Y i, j and each input pixel are two-dimensional bodies having a predetermined shape and area, the coefficient calculation unit 105 determines the diagonal line determined based on the diagonal line information as the extension direction of the diagonal line. A belt-like oblique line band having a predetermined width dimension determined according to the dimension of each pixel is formed with respect to a direction orthogonal to. Then, it is determined whether or not the constructed diagonal line intersects the region of the output pixel Y i, j having a predetermined two-dimensional shape and area. If it intersects, the “oblique line” detected by the oblique line direction determination unit 104 is appropriate. On the other hand, when it is detected that the intersection does not occur, the operation of the oblique line direction determination unit 104 and the determination operation of the coefficient calculation unit 105 are repeated until the intersection is detected.

交差する場合には、その後、係数算出部105は、構成された斜め線帯中に含まれる各入力画素の領域と当該斜め線帯との交差部分の面積を順次に算出し、これらの交差部分の面積の面積比を算出する。そして、係数算出部105は、算出した面積比に基づいて、補間係数を計算する。例えば、出力画素Yi,jの領域とその入力画素領域内の各入力画素との位置関係が図7の様に与えられる場合を考える。この場合、係数算出部105は、図6の斜め線DLの情報から、入力画素Xm-1,n+1、Xm+1,nの領域及び出力画素Yi,jの領域と交差する、幅寸法が1の斜め線帯DLBを構成する。即ち、斜め線帯DLBは、単位正方形と同じ線幅を持つ長方形状となる。そして、この場合、斜め線帯DLBは出力画素Yi,jの領域と交差するので、係数算出部105は、入力画素Xm-1,n+1の領域と斜め線帯DLBとの交差部分(図7中に斜線のハッチングを施した斜線部)の面積、及び、入力画素Xm+1,nの領域と斜め線帯DLBとの交差部分(図7中に斜線のハッチングを施した斜線部)の面積を求める。その上で、係数算出部105は、求めた両面積の比を算出し、その面積比に従って補間係数を計算する。尚、図7の場合では、求めた斜め線帯DLB上に2画素しか存在しないが、斜め線の傾きや出力画素位置によっては、構成した斜め線帯がより多くの入力画素の領域と重なる場合も有り得る。又、係数算出部105が構成した斜め線帯は、出力画素Yi,jの領域と少しでも交差していれば良い。 In the case of crossing, the coefficient calculation unit 105 sequentially calculates the area of each crossing portion between the input pixel region included in the configured diagonal line band and the diagonal line band, and these crossing parts. The area ratio of the areas is calculated. Then, the coefficient calculation unit 105 calculates an interpolation coefficient based on the calculated area ratio. For example, consider a case where the positional relationship between the area of the output pixel Y i, j and each input pixel in the input pixel area is given as shown in FIG. In this case, the coefficient calculation unit 105 intersects the area of the input pixels X m−1, n + 1 and X m + 1, n and the area of the output pixel Y i, j from the information of the oblique line DL in FIG. The diagonal line DLB having a width dimension of 1 is formed. That is, the oblique line band DLB has a rectangular shape having the same line width as the unit square. In this case, since the oblique line band DLB intersects the area of the output pixel Y i, j , the coefficient calculating unit 105 intersects the area of the input pixel X m−1, n + 1 and the oblique line band DLB. The area of the hatched area (hatched area with hatching in FIG. 7) and the intersection of the input pixel X m + 1, n region and the slanting line band DLB (hatched line with hatched hatching in FIG. 7) Part). After that, the coefficient calculation unit 105 calculates the ratio of the two areas obtained, and calculates the interpolation coefficient according to the area ratio. In the case of FIG. 7, there are only two pixels on the obtained oblique line band DLB, but the formed oblique line area overlaps more input pixel areas depending on the inclination of the oblique line and the output pixel position. It is also possible. In addition, the diagonal line band formed by the coefficient calculation unit 105 only needs to intersect the region of the output pixel Y i, j even a little.

今、係数算出部105の具体的動作例を示すために、且つ、簡単に説明するために、1次近傍まで考えた2倍拡大の場合を考える。縦横を同時に拡大縮小する場合や縦のみの場合、倍率が変わる場合でも、2倍拡大の場合の補間係数を同じ様に計算することが出来る。図8に、1次近傍まで考えた2倍拡大の例を示す。図8に太字で示す様な補助線を斜め線として斜め線方向判定部104が検出したものとすると、係数算出部105が構成する斜め線帯は、出力画素Yi,jの領域と交差すると共に、各入力画素Xm,n、Xm,n+1、Xm+1,n、Xm+1,n-1の領域と交差し、各交差部分の面積を求めることが出来る。それぞれの交差部分の面積をA,B,C,Dと定義するとし、出力画素Yi,jの中心を原点とすると、補助線の方程式は、数1の(1)式となる。 Now, in order to show a specific example of the operation of the coefficient calculation unit 105 and for the sake of simple explanation, consider the case of double enlargement considering the vicinity of the first order. In the case where the vertical and horizontal directions are enlarged / reduced at the same time, only in the vertical direction, or even when the magnification is changed, the interpolation coefficient in the case of double enlargement can be calculated in the same way. FIG. 8 shows an example of double enlargement considering the vicinity of the primary. Assuming that the oblique line direction determination unit 104 detects an auxiliary line as shown in bold in FIG. 8 as an oblique line, the oblique line band formed by the coefficient calculation unit 105 intersects the region of the output pixel Y i, j. At the same time, it intersects with the area of each input pixel X m, n , X m, n + 1 , X m + 1, n , X m + 1, n−1 , and the area of each intersection can be obtained. If the area of each intersection is defined as A, B, C, and D, and the center of the output pixel Y i, j is the origin, the equation of the auxiliary line is expressed by Equation (1).

Figure 2008282187
Figure 2008282187

一方、斜め線帯の幅は1であるので、斜め線帯の上下ラインの方程式(数2の(2)式,数3の(3)式)と、入力画素の境界線とから、積分により、各交差部分の面積を計算することが出来る。   On the other hand, since the width of the diagonal line band is 1, the integral of the upper and lower line equations (Equation 2 (2), Equation 3 (3)) of the diagonal line band and the boundary line of the input pixel is obtained by integration. The area of each intersection can be calculated.

Figure 2008282187
Figure 2008282187

Figure 2008282187
Figure 2008282187

以上より、面積は、A=D=√2−1/2≒0.91、B=C=0.25と求められる。正規化によって、最終的な補間係数は、A=D=0.39、B=C=0.11である。   From the above, the areas are obtained as A = D = √2−1 / 2≈0.91 and B = C = 0.25. By normalization, the final interpolation coefficients are A = D = 0.39 and B = C = 0.11.

補間部106は、入力画像取得部103から出力される入力画素の画素値の内で、斜め線帯と交差する入力画素の画素値と、係数算出部105から出力される補間係数の情報とより、補間された出力画素Yi,jの画素値を算出する。図8の例の場合では、出力画素Yi,jの画素値は、以下の(4)式により算出される。 The interpolation unit 106 uses the pixel value of the input pixel that intersects the diagonal line band among the pixel values of the input pixel output from the input image acquisition unit 103 and the interpolation coefficient information output from the coefficient calculation unit 105. The pixel value of the interpolated output pixel Y i, j is calculated. In the case of the example of FIG. 8, the pixel value of the output pixel Y i, j is calculated by the following equation (4).

Figure 2008282187
Figure 2008282187

出力部107は、出力画素位置決定部101からの出力画素座標情報と、補間部106からの出力画素値とを受けとり、出力画素座標情報及び出力画素値をフレームメモリ108の所定のアドレスへ保存する。   The output unit 107 receives the output pixel coordinate information from the output pixel position determination unit 101 and the output pixel value from the interpolation unit 106, and stores the output pixel coordinate information and the output pixel value at a predetermined address in the frame memory 108. .

上記の通り、本実施の形態によれば、各画素が有する面積を考慮して補間を実行するので、斜め線部で発生するジャギーの根本原因である画素のガタツキの発生を抑制することが出来る。又、本実施の形態によれば、斜め線に対して適応処理(斜め線帯の構成・斜め線帯と面積を持つ出力画素の領域との交差の有無の検出・交差部分の面積の算出・面積比に基づく補間係数の算出・補間係数に基づく補間処理)を行うため、本来的に斜め線以外の部分を誤って斜め線と誤判定してしまうことにより発生するノイズの影響を抑制することが出来る。   As described above, according to the present embodiment, interpolation is performed in consideration of the area of each pixel, so that it is possible to suppress the occurrence of pixel shakiness that is the root cause of jaggy that occurs in the oblique line portion. . In addition, according to the present embodiment, adaptive processing for diagonal lines (diagonal line band configuration, detection of presence / absence of crossing of diagonal line band and area of output pixel having area, calculation of area of intersection) In order to perform interpolation coefficient calculation based on the area ratio and interpolation processing based on the interpolation coefficient), the influence of noise generated by erroneously determining a part other than a diagonal line as a diagonal line is suppressed. I can do it.

(実施の形態2)
図9は、本実施の形態に係る画像処理装置の構成例を示すブロック図である。図9に於いて、実施の形態1の図1の画像処理装置と構成的に相違する点は、係数算出部205であり、その他の構成要素は実施の形態1の図1の対応する構成要素と同一である。
(Embodiment 2)
FIG. 9 is a block diagram illustrating a configuration example of the image processing apparatus according to the present embodiment. In FIG. 9, the difference from the image processing apparatus in FIG. 1 according to the first embodiment is a coefficient calculation unit 205, and other components are the corresponding components in FIG. 1 according to the first embodiment. Is the same.

係数算出部205には、図1の係数算出部105に於ける既述した補間係数計算処理に対して、斜め線帯に含まれる各入力画素Xm,nと出力画素Yi,jの中心間距離をも考慮するアルゴリズムが付加されている。具体的には、以下の通りである。 In the coefficient calculation unit 205, the center of each input pixel X m, n and output pixel Y i, j included in the oblique line band is compared with the interpolation coefficient calculation processing described above in the coefficient calculation unit 105 in FIG. An algorithm that takes into account the distance is also added. Specifically, it is as follows.

図8に示す様な場合には、入力画素Xm,n+1及び入力画素Xm+1,n-1は、出力画素Yi,jから等距離にある。しかしながら、既述した図7に示す一例に於いては、斜め線帯DLBに含まれる2個の入力画素Xm-1,n+1、Xm+1,nに関して、入力画素Xm-1,n+1と出力画素Yi,jとの中心間距離と、入力画素Xm+1,nと、出力画素Yi,jとの中心間距離とは、異なっている。従って、この様な場合に於いては、既述した面積比のみに基づいて補間係数を算出するのみならず、面積比に加えて、斜め線帯に含まれる各入力画素と出力画素Yi,jとの中心間距離の逆比をも考慮して補間係数を算出するならば、実際の斜め線帯上の画素配列の状況を反映した精密度のより高い補間係数を得ることが出来る。そこで、係数算出部205は、出力画素位置決定部101から送信される出力画素Yi,jの位置座標のデータと、入力画像画素座標決定部102から送信される入力画素の位置座標のデータとに基づいて、入力画素Xm-1,n+1と出力画素Yi,jの中心間距離d1、及び、入力画素Xm+1,nと出力画素Yi,jの中心間距離d2を算出する。その上で、係数算出部205は、係数算出部105と同様に、斜め線方向判定部104より出力される斜め線情報に基づき構成した斜め線帯DLBと当該斜め線DLBに含まれる各入力画素Xm-1,n+1、Xm+1,nとの交差部分に於ける面積を算出した上で、両面積の面積比を算出し、この面積比に加えて更に算出した上記中心間距離d1、d2の逆比をも考慮して、補間係数を算出する。今、面積を持つ入力画素Xm-1,n+1と斜め線帯DLBとの交差部分(斜線部分)の面積をS1、面積を持つ他方の入力画素Xm+1,nと斜め線帯DLBとの交差部分(斜線部分)の面積をS2として表示すると、係数算出部205は、入力画素Xm-1,n+1に対する補間係数をAとして表示し、他方で入力画素Xm+1,nに対する補間係数をBとして表すものとすると、補間係数を正規化したときには、それぞれ、以下の(5)式及び(6)式に基づいて、各入力画素に対する補間係数を算出することが出来る。 In the case shown in FIG. 8, the input pixel X m, n + 1 and the input pixel X m + 1, n−1 are equidistant from the output pixel Y i, j . However, In one example shown in FIG. 7 described above, with respect to two input pixels included in the diagonal band DLB X m-1, n + 1, X m + 1, n, the input pixel X m-1 , n + 1 and the output pixel Y i, j are different from the center distance between the input pixel X m + 1, n and the output pixel Y i, j . Therefore, in such a case, not only the interpolation coefficient is calculated based on the above-described area ratio alone, but in addition to the area ratio, each input pixel and output pixel Y i, If the interpolation coefficient is calculated in consideration of the inverse ratio of the center-to-center distance to j , it is possible to obtain a higher-precision interpolation coefficient that reflects the actual pixel arrangement on the diagonal band. Therefore, the coefficient calculation unit 205 includes the position coordinate data of the output pixel Y i, j transmitted from the output pixel position determination unit 101 , and the position coordinate data of the input pixel transmitted from the input image pixel coordinate determination unit 102. , The center distance d1 between the input pixel X m−1, n + 1 and the output pixel Y i, j and the center distance d2 between the input pixel X m + 1, n and the output pixel Y i, j calculate. In addition, the coefficient calculation unit 205, like the coefficient calculation unit 105, includes the diagonal line band DLB configured based on the diagonal line information output from the diagonal line direction determination unit 104 and each input pixel included in the diagonal line DLB. After calculating the area at the intersection of X m-1, n + 1 and X m + 1, n , the area ratio of both areas is calculated, and in addition to this area ratio, the above calculated center-to-center The interpolation coefficient is calculated in consideration of the inverse ratio of the distances d1 and d2. Now, the area of the intersection (hatched portion) of the input pixel X m−1, n + 1 having the area and the oblique line band DLB is S1, and the other input pixel X m + 1, n having the area and the oblique line band When the area of the intersection (shaded portion) with DLB is displayed as S2, the coefficient calculation unit 205 displays the interpolation coefficient for the input pixel X m−1, n + 1 as A, and on the other hand, the input pixel X m + 1. , n is expressed as B, when the interpolation coefficient is normalized, the interpolation coefficient for each input pixel can be calculated based on the following equations (5) and (6). .

Figure 2008282187
Figure 2008282187

Figure 2008282187
Figure 2008282187

尚、(5)式及び(6)式に於いて、d1=d2=1とすれば、正規化された補間係数A,Bは、共に、実施の形態1の場合と同様に、交差部分の面積S1、S2の面積比のみに基づいて算出されることになる。   In the equations (5) and (6), if d1 = d2 = 1, the normalized interpolation coefficients A and B are both of the intersection portions as in the first embodiment. It is calculated based only on the area ratio of the areas S1 and S2.

又、倍率如何によっては、図10に例示する様に、出力画素Yi,jと入力画素Xm,nが部分的に重なり合う場合が生じ得る。図10の例は、横方向のみ5/2倍拡大の例である。このとき、図7の一例に基づき本実施の形態の前半部分で既述した上記手法では、入力画素と出力画素との重なり合いを中心間距離で考慮するのみである。 Further, depending on the magnification, as illustrated in FIG. 10, the output pixel Y i, j and the input pixel X m, n may partially overlap. The example of FIG. 10 is an example of 5/2 times enlargement only in the horizontal direction. At this time, in the above-described method described in the first half of the present embodiment based on the example of FIG. 7, the overlap between the input pixel and the output pixel is only considered in the distance between the centers.

そこで、次の手法として、係数算出部205は、重なり部分の面積をも新たに考慮に加えて、補間係数を算出することとする。図10の場合では、出力画素Yi,jと入力画素Xm,nでは、半分の面積(0.5)の重なりがある。そこで、係数算出部205は、この重なっている面積分は入力画素Xm,nの寄与と考え、残りの面積部分を斜め線帯と中心間距離とから補間する。例えば、図11に示す様な斜め線帯が係数算出部205によって検出されたものとする。このとき、図11に示す様に、当該斜め線帯と入力画素群の各入力画素との重なりの面積を求めた結果を、それぞれ、A,B,C,Dとして表示する。又、出力画素Yi,jと各入力画素Xm,n、Xm,n+1、Xm+1,n―1、Xm+1,nとの中心間距離を、それぞれ、d1、d2、d3、d4として表す。そして、面積比と中心間距離と重なりの面積を全て考慮する場合には、係数算出部205によって算出・出力される係数値A‘,B’,C‘,D’は、以下の(7)式〜(10)式で与えられる。 Therefore, as a next method, the coefficient calculation unit 205 calculates an interpolation coefficient in consideration of the area of the overlapping portion. In the case of FIG. 10, the output pixel Y i, j and the input pixel X m, n have an overlap of half the area (0.5). Therefore, the coefficient calculation unit 205 considers the overlapping area as a contribution of the input pixel X m, n and interpolates the remaining area from the diagonal line zone and the center-to-center distance. For example, it is assumed that an oblique line band as shown in FIG. 11 is detected by the coefficient calculation unit 205. At this time, as shown in FIG. 11, the results of obtaining the area of overlap between the diagonal line band and each input pixel of the input pixel group are displayed as A, B, C, and D, respectively. Further, the distance between the centers of the output pixel Y i, j and each input pixel X m, n , X m, n + 1 , X m + 1, n−1 , X m + 1, n is defined as d1, It represents as d2, d3, d4. When all of the area ratio, the center-to-center distance, and the overlapping area are taken into account, the coefficient values A ′, B ′, C ′, and D ′ calculated and output by the coefficient calculation unit 205 are the following (7). It is given by the equations (10) to (10).

Figure 2008282187
Figure 2008282187

Figure 2008282187
Figure 2008282187

Figure 2008282187
Figure 2008282187

Figure 2008282187
Figure 2008282187

尚、面積比と中心間距離と重なりの面積とを考える場合には、前記の様に全ての要素を考慮して補間係数を算出しても良いし、あるいは、面積比と中心間距離のみを考慮して補間係数を算出しても良いし、あるいは、面積と重なりの面積だけを考慮して補間係数を算出しても良い。   When considering the area ratio, the center-to-center distance, and the overlapping area, the interpolation coefficient may be calculated in consideration of all elements as described above, or only the area ratio and the center-to-center distance may be calculated. The interpolation coefficient may be calculated in consideration, or the interpolation coefficient may be calculated in consideration of only the area and the overlapping area.

上記の通り、本実施の形態によれば、画素の持つ面積と画素間の中心間距離と重なり合いの面積を考慮するので、斜め線部で発生するジャギーの根本原因である画素のガタツキの発生を抑制することが出来ると共に、ある画素とその近傍の画素との間では相関が強いと言う一般性質をも保証しながら出力画素の画素値を補間することが出来る。加えて、斜め線に対して適応処理を行うため、斜め線以外の部分の誤判定により生ずるノイズを抑制することも出来る。   As described above, according to the present embodiment, the pixel area, the center-to-center distance between the pixels, and the overlapping area are taken into consideration, so the occurrence of pixel shakiness that is the root cause of jaggies occurring in the oblique line portion is reduced. In addition to being able to suppress, the pixel value of the output pixel can be interpolated while guaranteeing the general property that there is a strong correlation between a certain pixel and its neighboring pixels. In addition, since adaptive processing is performed on diagonal lines, it is possible to suppress noise caused by erroneous determination of parts other than diagonal lines.

(実施の形態3)
図12は、本実施の形態に係る画像処理装置の構成例を示すブロック図である。図12に於いて、実施の形態1及び2の図1又は図9に示した画像処理装置と相違する点は、斜め線方向判定部304及び係数算出部305の構成・機能にあり、その他の構成要素は図1又は図9に示した画像処理装置の対応する構成要素と同一である。即ち、実施の形態1及び2では、2次元体としての出力画素Yi,jの位置毎に合わせて、係数算出部で構成された斜め線帯の有効性の判定を行っていた。しかしながら、本実施の形態では、計算量削減化のために、2次元体としての出力画素Yi,jの位置が係数算出部で構成された斜め線帯に含まれる様にするのではなく、図13に示す様に、出力画素Yi,jの1次近傍に位置する入力画素Xm,n、Xm+1,n、Xm,n+1、Xm+1,n+1の画像の重心または中心位置(図13の重心Ycの位置)を代表位置として、斜め線帯の有効性の検出を行う。
(Embodiment 3)
FIG. 12 is a block diagram illustrating a configuration example of the image processing apparatus according to the present embodiment. 12 is different from the image processing apparatus shown in FIG. 1 or FIG. 9 in the first and second embodiments in the configuration and function of the oblique line direction determination unit 304 and the coefficient calculation unit 305. The constituent elements are the same as the corresponding constituent elements of the image processing apparatus shown in FIG. That is, in the first and second embodiments, the effectiveness of the oblique line band formed by the coefficient calculation unit is determined in accordance with the position of the output pixel Y i, j as a two-dimensional body. However, in the present embodiment, in order to reduce the amount of calculation , the position of the output pixel Y i, j as a two-dimensional body is not included in the oblique line band configured by the coefficient calculation unit. As shown in FIG. 13, the input pixels X m, n , X m + 1, n , X m, n + 1 , X m + 1, n + 1 located in the primary vicinity of the output pixel Y i, j Using the center of gravity or the center position of the image (the position of the center of gravity Yc in FIG. 13) as a representative position, the effectiveness of the oblique line band is detected.

先ず、斜め線方向判定部304は、この段階では各画素を点として捉えた場合に於ける、入力画素Xm,n、Xm+1,n、Xm,n+1、Xm+1,n+1の重心Yc(この段階では重心Ycも点である。)の座標を求めて、重心Ycの座標を係数算出部305に出力する。又、斜め線方向判定部304は、実施の形態1で既述した図1の斜め線方向判定部104と同様の処理を行って斜め線を検出し、検出された斜め線情報を係数算出部305に送信する。ここで、斜め線方向判定部304は、入力画素群の重心Ycの位置座標が拡大処理後の対象とする新たな出力画素Yi,j+1に関しても同じであれば、その新たな出力画素Yi,j+1の補間された画素値を新たに求めるに際して、同じ斜め線情報を係数算出部305に送れば良いこととなるので、毎回、斜め線の検出を行う必要性が無くなる。 First, the oblique line direction determination unit 304 inputs the input pixels X m, n , X m + 1, n , X m, n + 1 , X m + 1 when each pixel is regarded as a point at this stage. , n + 1 center of gravity Yc (in this stage, the center of gravity Yc is also a point), and the coordinates of the center of gravity Yc are output to the coefficient calculation unit 305. The diagonal line direction determination unit 304 performs the same processing as the diagonal line direction determination unit 104 of FIG. 1 described in the first embodiment to detect diagonal lines, and the detected diagonal line information is used as a coefficient calculation unit. To 305. Here, if the position coordinate of the center of gravity Yc of the input pixel group is the same for the new output pixel Y i, j + 1 to be subjected to the enlargement process, the oblique line direction determination unit 304 determines that new output pixel. When newly calculating the interpolated pixel value of Y i, j + 1 , it is only necessary to send the same oblique line information to the coefficient calculation unit 305, so that it is not necessary to detect the oblique line every time.

係数算出部305は、斜め線方向判定部304から送られて来た入力画素群の重心Ycの位置座標及び斜め線情報に基づいて、以下の処理を行う。先ず、係数算出部305は、斜め線情報に基づいて既述した様に斜め線帯を構成し、次に、構成した斜め線帯が、各入力画素と同一形状・同一寸法を有する、面積を持った2次元体としての重心Ycの領域と交差するか否かを、検出する。交差しない場合には、交差する斜め線帯が検出されるまで、上記の処理を各部304,305は行う。交差することを検出すると、係数算出部305は、実施の形態1で既述した通りに、斜め線帯と交差する各入力画素と当該斜め線帯との交差部分の面積を求め、更にそれらの面積比を算出する。ここで、斜め線方向判定部304と同様に、重心Ycの座標が変わらない限り、斜め線情報も変更にならないので、係数算出部305は、新たな出力画素Yi,j+1に関する面積比の計算も、重心Yc毎に1度計算するだけで良い。 The coefficient calculation unit 305 performs the following processing based on the position coordinates of the centroid Yc of the input pixel group and the diagonal line information sent from the diagonal line direction determination unit 304. First, the coefficient calculation unit 305 configures the diagonal line band as described above based on the diagonal line information, and then the configured diagonal line band has the same shape and the same size as each input pixel. It is detected whether or not it intersects the area of the center of gravity Yc as a two-dimensional body. If not intersecting, each of the units 304 and 305 performs the above processing until an intersecting diagonal line band is detected. When the crossing is detected, the coefficient calculation unit 305 obtains the area of each crossing portion between each input pixel that intersects the diagonal line band and the diagonal line band as described in the first embodiment, and further calculates those areas. The area ratio is calculated. Here, as in the case of the oblique line direction determination unit 304, the oblique line information is not changed unless the coordinates of the center of gravity Yc are changed. Therefore, the coefficient calculation unit 305 determines the area ratio regarding the new output pixel Y i, j + 1. It is only necessary to calculate once for each center of gravity Yc.

又、係数算出部305は、面積比のみならず、実施の形態2の係数算出部205と同様に、斜め線帯と交差する各入力画素と出力画素Yi,jの中心間距離と、重なり面積とをも考慮して補間計数を算出する。この中心間距離と重なり面積とは、重心Ycの位置によらずに、毎回計算する必要がある。 In addition to the area ratio, the coefficient calculation unit 305 overlaps not only the area ratio but also the distance between the centers of the input pixels and the output pixels Y i, j intersecting the diagonal line bands, as in the coefficient calculation unit 205 of the second embodiment. The interpolation count is calculated in consideration of the area. The center-to-center distance and the overlapping area need to be calculated every time regardless of the position of the center of gravity Yc.

ここでは、係数算出部305が面積比と入力画素値と出力画素Yi,j間の中心間距離と重なり面積とを考慮して補間計数を算出する例を示したが、これに代えて、面積比と中心間距離とのみを考慮して補間計数を算出する様にしても良いし、あるいは、面積比と重なり面積とのみを考慮して補間計数を算出する様にしても良い。 Here, an example is shown in which the coefficient calculation unit 305 calculates the interpolation count in consideration of the area ratio, the input pixel value, the center-to-center distance between the output pixels Y i, j and the overlapping area. The interpolation count may be calculated considering only the area ratio and the center-to-center distance, or the interpolation count may be calculated only considering the area ratio and the overlapping area.

上記の通り、本実施の形態によれば、画素の持つ面積と画素の距離と重なりの面積とを考慮するので、斜め線部で発生するジャギーの根本原因である画素のガタツキの発生を抑制することが出来ると共に、画素の近傍の相関が強いという一般性質をも保証しながら補間することが出来る。又、斜め線に対して適応処理を行うため、斜め線以外の部分の誤判定によるノイズの発生をも抑制することが出来る。特に本実施の形態によれば、斜め線方向判定部及び係数算出部の計算量を削減することが出来ると言う利点がある。   As described above, according to the present embodiment, the pixel area, the pixel distance, and the overlapping area are taken into consideration, and thus the occurrence of pixel shakiness that is the root cause of jaggies occurring in the oblique line portion is suppressed. In addition, interpolation can be performed while guaranteeing the general property that the correlation in the vicinity of the pixel is strong. In addition, since the adaptive processing is performed on the diagonal lines, it is possible to suppress the generation of noise due to erroneous determination of portions other than the diagonal lines. In particular, according to the present embodiment, there is an advantage that the calculation amount of the oblique line direction determination unit and the coefficient calculation unit can be reduced.

(実施の形態4)
図14は、本実施の形態に係る画像処理装置の構成例を示すブロック図である。本実施の形態は、実施の形態1(図1)及び実施の形態2(図9)との比較では、入力画像取得部403、係数算出部405及び補間部406の機能を異にする。その他の構成要素は、図1及び図9の対応する構成要素と同一である。
(Embodiment 4)
FIG. 14 is a block diagram illustrating a configuration example of the image processing apparatus according to the present embodiment. In the present embodiment, the functions of the input image acquisition unit 403, the coefficient calculation unit 405, and the interpolation unit 406 are different in comparison with the first embodiment (FIG. 1) and the second embodiment (FIG. 9). The other components are the same as the corresponding components in FIGS.

本実施の形態は、斜め線方向判定部104の斜め線方向情報に基づいて斜め線帯として垂直方向ないしは水平方向の直線帯が係数算出部405に於いて構成された場合、例えば、図15に示す様な垂直方向に延在した直線帯が斜め線帯として検出された場合に関している。このとき、検出された斜め線帯と当該斜め線帯と交差する各入力画素とが成す各交差部分の面積は1となる。このとき、面積比と中心間距離比とを考慮しても、出力画素値の補間は線形補間となる。そこで、本実施の形態では、特殊な斜め線である垂直方向ないしは水平方向に延在した斜め線の場合への適応処理(アルゴリズム)を追加する。   In the present embodiment, when a vertical or horizontal straight band is formed in the coefficient calculation unit 405 as a diagonal line band based on the diagonal line direction information of the diagonal line direction determination unit 104, for example, FIG. This relates to a case where a straight band extending in the vertical direction as shown is detected as an oblique line band. At this time, the area of each intersection formed by the detected diagonal line band and each input pixel that intersects the diagonal line band is 1. At this time, even if the area ratio and the center-to-center distance ratio are taken into account, the interpolation of the output pixel value is linear interpolation. Therefore, in the present embodiment, an adaptation process (algorithm) is added for the case of a diagonal line extending in the vertical direction or the horizontal direction, which is a special diagonal line.

入力画像取得部403は、入力画像用フレームメモリ109より、出力画素Yi,jの2次近傍以上の範囲に属する入力画素の画素値を取得する。ここで、係数算出部405又は補間部406に於いてバイキュービック法を用いる場合には、入力画像取得部403は、出力画素Yi,jの3次近傍までの範囲に属する入力画素の画素値を取得しても良い。又、それよりも高次な補間方法を用いる場合には、3次近傍以上の範囲に属する入力画素の画素値を取得しても良い。ここで、斜め線方向判定部104内のバッファ部(図示せず。)のメモリ容量を削減するために、入力画像取得部403は、出力画素Yi,jの2次近傍以上の範囲に属する画素を取り扱う場合には、水平方向及び垂直方向に関してのみ高次近傍範囲に属する画素の画素値を取得する様にしても良い。その様な一例を図16に示す。図16に於いては、入力画像取得部403は、4隅部分の画素の画素値を取得する必要性がないため、斜め線方向判定部104のバッファ部内のメモリ容量を削減することが可能である。 The input image acquisition unit 403 acquires, from the input image frame memory 109, pixel values of input pixels that belong to a range that is equal to or higher than the secondary vicinity of the output pixel Y i, j . Here, when the bicubic method is used in the coefficient calculation unit 405 or the interpolation unit 406, the input image acquisition unit 403 determines the pixel values of the input pixels belonging to the range up to the third order vicinity of the output pixel Y i, j. You may get When a higher-order interpolation method is used, the pixel values of input pixels belonging to a range of the vicinity of the third order or higher may be acquired. Here, in order to reduce the memory capacity of a buffer unit (not shown) in the oblique line direction determination unit 104, the input image acquisition unit 403 belongs to a range that is equal to or higher than the secondary vicinity of the output pixel Y i, j. When handling pixels, the pixel values of pixels belonging to the higher-order neighborhood range may be acquired only in the horizontal direction and the vertical direction. One such example is shown in FIG. In FIG. 16, the input image acquisition unit 403 does not need to acquire the pixel values of the pixels at the four corners. Therefore, the memory capacity in the buffer unit of the oblique line direction determination unit 104 can be reduced. is there.

先ず、係数算出部405が高次補間の係数計算を行う一例を示す。斜め線方向判定部104で斜め線が垂直方向ないしは水平方向に延在する特殊な斜め線であると判断され、その斜め線情報が係数算出部405に送られて来た場合には、係数算出部405が上記斜め線情報に基づき構成する斜め線帯は出力画素Yi,jの2次元領域と交差するか否かを判定し、交差する場合には、係数算出部405は、既述した様な面積比や距離比や面積のかさなりを考慮して補間係数を算出する手法を行うのではなくて、その代わりに、バイキュービック法の様な高次補間法に基づき補間係数を算出し、その補間係数を補間部406へ送信する。補間部406は、係数算出部405が上記高次補間法に基づき求めた補間係数に基づき、出力画素Yi,jの画素値の補間を行う。 First, an example in which the coefficient calculation unit 405 performs coefficient calculation for high-order interpolation will be described. When the oblique line direction determination unit 104 determines that the oblique line is a special oblique line extending in the vertical direction or the horizontal direction, and the oblique line information is sent to the coefficient calculation unit 405, the coefficient calculation is performed. It is determined whether or not the diagonal line band formed by the unit 405 based on the diagonal line information intersects with the two-dimensional region of the output pixel Y i, j . Instead of calculating the interpolation coefficient taking into account the area ratio, distance ratio and area size, instead, the interpolation coefficient is calculated based on a higher-order interpolation method such as the bicubic method, The interpolation coefficient is transmitted to the interpolation unit 406. The interpolation unit 406 interpolates the pixel value of the output pixel Y i, j based on the interpolation coefficient obtained by the coefficient calculation unit 405 based on the higher-order interpolation method.

次に、補間部406が垂直方向又は水平方向に延在した斜め線の補間を行う場合を記載する。係数算出部405は、斜め線方向判定部104から垂直方向ないしは水平方向に延在した斜め線に関する斜め線情報が送られてきた場合には、係数算出部405が上記斜め線情報に基づき構成する斜め線帯は出力画素Yi,jの2次元領域と交差するか否かを判定し、交差することを確認した場合には、補間部406に対して、斜め線が垂直方向ないしは水平方向に延在した斜め線であるという斜め線情報を単に送信する。補間部406は、垂直方向ないしは水平方向に延在した斜め線の情報を受信した場合には、バイキュービック法の様な高次補間法を用いて補間係数を求めた上で出力画素Yi,jの画素値の補間を行う。他方、係数算出部405から既述した様な面積比等の補間係数値が送られて来た場合には、補間部406は受信した係数値に従って実施の形態1で記載した様に出力画素Yi,jの画素値の補間を行う。 Next, a case where the interpolation unit 406 performs interpolation of diagonal lines extending in the vertical direction or the horizontal direction will be described. When the oblique line information regarding the oblique line extending in the vertical direction or the horizontal direction is sent from the oblique line direction determining unit 104, the coefficient calculating unit 405 is configured based on the oblique line information. It is determined whether or not the oblique line band intersects the two-dimensional region of the output pixel Y i, j , and when it is confirmed that the oblique line band intersects, the oblique line extends vertically or horizontally with respect to the interpolation unit 406. It simply sends diagonal line information that it is an extended diagonal line. When the interpolation unit 406 receives information on the diagonal line extending in the vertical direction or the horizontal direction, the interpolation unit 406 obtains an interpolation coefficient using a high-order interpolation method such as a bicubic method, and then outputs the output pixel Y i, Interpolate the pixel value of j . On the other hand, when an interpolation coefficient value such as an area ratio as described above is sent from the coefficient calculation unit 405, the interpolation unit 406 outputs the output pixel Y as described in the first embodiment according to the received coefficient value. Interpolates the pixel values of i and j .

ここでは、高次補間法としてバイキュービック法を取り上げたが、スプライン法等の高次補間法でも良く、それ以外の手法であっても良い。   Here, although the bicubic method is taken up as a high-order interpolation method, a high-order interpolation method such as a spline method may be used, and other methods may be used.

又、垂直方向にのみ既述した高次補間法によって出力画素Yi,jの画素値の補間を行う様にしても良く、あるいは、水平方向にのみ既述した高次補間法を用いて出力画素Yi,jの画素値の補間を行っても良い。 Alternatively, the pixel values of the output pixels Y i, j may be interpolated by the high-order interpolation method described above only in the vertical direction, or output using the high-order interpolation method described above only in the horizontal direction. You may perform the interpolation of the pixel value of pixel Yi, j .

上記の通り、本実施の形態によれば、斜め線部では画素のガタツキの発生を抑制すると共に、画素の近傍の相関が強いという一般性質をも保証しながら出力画素の画素値を補間することが出来る。特に本実施の形態によれば、垂直方向ないしは水平方向に延在した斜め線帯に対しては高次補間を行い、画像の詳細な情報を保存しつつ出力画素の画素値を補間することが出来ると言う特徴があり、又、斜め線以外の線を斜め線と誤判定した場合により生ずるノイズをも抑制することが出来る。   As described above, according to the present embodiment, the pixel value of the output pixel is interpolated while suppressing the occurrence of pixel shakiness in the oblique line portion and ensuring the general property that the neighborhood of the pixel is strong. I can do it. In particular, according to the present embodiment, it is possible to perform high-order interpolation with respect to an oblique line band extending in the vertical direction or the horizontal direction, and interpolate the pixel value of the output pixel while preserving detailed image information. There is a feature that it can be done, and noise generated when a line other than a diagonal line is erroneously determined as a diagonal line can also be suppressed.

(実施の形態5)
図17は、本実施の形態の特徴点を実施の形態1で示した図1の画像処理装置に適用した一例に該当する、本実施の形態に係る画像処理回路を示すブロック図である。図17に於ける中核的構成要素である入力画像用ラインメモリ509は、TVのチューナー等の入力画像供給部(図示せず。)に接続されている。
(Embodiment 5)
FIG. 17 is a block diagram showing an image processing circuit according to the present embodiment, which corresponds to an example in which the feature points of the present embodiment are applied to the image processing apparatus of FIG. 1 shown in the first embodiment. The input image line memory 509, which is a core component in FIG. 17, is connected to an input image supply unit (not shown) such as a TV tuner.

既述した各実施の形態1〜4では、入力画像の各画素の画素値をフレームメモリに蓄えてから既述した処理を行っていた。本実施の形態では、フレームメモリに代えて、ラインメモリ509を使用することにより、処理の遅延時間を減らすことを目的とする。   In the first to fourth embodiments described above, the processing described above is performed after the pixel values of the pixels of the input image are stored in the frame memory. The object of the present embodiment is to reduce the processing delay time by using a line memory 509 instead of the frame memory.

入力画像用ラインメモリ509は、出力画素Yi,jの2次近傍まで考慮する場合(図5)には、入力画素4ライン分の、各画素の画素値を記憶可能なラインメモリを搭載すれば良い。図18に示す様に、出力画素Yi,jの画素値の補間処理が完了し、次の出力画素Yi,j'が処理対象となった時には最も上のラインに属する各画素の画素値データが捨てられ、次の新しいラインに属する各画素の画素値データが入力画像用ラインメモリ509に取り込まれる。このとき、出力画素Yi,jの処理順はラスタースキャン順で行うのが簡易であるが、ラスタースキャン順でなくとも良い。但し、ラインを飛ばして処理を行う場合には、ラインメモリの容量が多くなるので、構成は可能であるが、好ましくはない。 The input image line memory 509 is equipped with a line memory capable of storing pixel values of each pixel for four lines of the input pixel when considering up to the secondary vicinity of the output pixel Y i, j (FIG. 5). It ’s fine. As shown in FIG. 18, when the interpolation processing of the pixel value of the output pixel Y i, j is completed and the next output pixel Y i, j ′ is the processing target, the pixel value of each pixel belonging to the uppermost line. The data is discarded, and the pixel value data of each pixel belonging to the next new line is taken into the input image line memory 509. At this time, it is easy to perform the processing order of the output pixels Y i, j in the raster scan order, but it may not be in the raster scan order. However, when processing is performed by skipping a line, the capacity of the line memory increases, so that the configuration is possible, but this is not preferable.

出力画素Yi,jの3次近傍以上を考慮する場合であっても、ラインメモリ数は増えるが、フレームメモリよりもメモリ容量を少なく構成することが出来る。この様に出力画素Yi,jの3次近傍以上で補間する場合にも、本実施の形態は対応可能である。 Even when the third order vicinity of the output pixel Y i, j is considered, the number of line memories is increased, but the memory capacity can be made smaller than that of the frame memory. In this way, the present embodiment can also be applied to the case where interpolation is performed in the vicinity of the third order of the output pixel Y i, j .

又、本実施の形態に於ける入力画像用ラインメモリ509は、実施の形態1への適用のみならず、その他の実施の形態2,3,4の何れの補間方法にも適用可能である。   The input image line memory 509 in this embodiment is applicable not only to the first embodiment but also to any of the interpolation methods of the second, third, and fourth embodiments.

上記の通り、本実施の形態によれば、入力画素用のメモリにラインメモリを搭載することにより、入力画素の画素値のメモリ容量を削減することが出来、斜め線部では画素のガタツキの発生を抑制すると共に、画素の近傍の相関が強いという一般性質をも保証しながら補間することが出来る。   As described above, according to the present embodiment, it is possible to reduce the memory capacity of the pixel value of the input pixel by mounting the line memory in the memory for the input pixel, and occurrence of pixel shakiness in the oblique line portion. In addition, the interpolation can be performed while guaranteeing the general property that the correlation between the pixels is strong.

(付記)
以上、本発明の実施の形態を詳細に開示し記述したが、以上の記述は本発明の適用可能な局面を例示したものであって、本発明はこれに限定されるものではない。即ち、記述した局面に対する様々な修正や変形例を、この発明の範囲から逸脱することの無い範囲内で考えることが可能である。
(Appendix)
While the embodiments of the present invention have been disclosed and described in detail above, the above description exemplifies aspects to which the present invention can be applied, and the present invention is not limited thereto. In other words, various modifications and variations to the described aspects can be considered without departing from the scope of the present invention.

この発明に係る画像処理装置は、例えば、デジタルTVに用いられる画像処理用マイクロプロセッサや、パーソナルコンピューターに適用して好適なるものである。   The image processing apparatus according to the present invention is suitable for application to, for example, an image processing microprocessor used in a digital TV or a personal computer.

この発明の実施の形態1に係る画像処理装置を示すブロック図である。1 is a block diagram showing an image processing apparatus according to Embodiment 1 of the present invention. ラスタースキャン順を示す図である。It is a figure which shows a raster scan order. 画素が面積を持った場合の入力画素と出力画素の位置関係を示す図である。It is a figure which shows the positional relationship of an input pixel and an output pixel when a pixel has an area. 入力画素と出力画素とが位置的に重なる場合の例を示す図である。It is a figure which shows the example in case an input pixel and an output pixel overlap in position. 実施の形態1に於ける各入力画素と出力画素との位置関係を示す図である。FIG. 3 is a diagram illustrating a positional relationship between each input pixel and an output pixel in the first embodiment. 斜め線と入力画素と出力画素との位置関係を示す図である。It is a figure which shows the positional relationship of an oblique line, an input pixel, and an output pixel. 斜め線帯と各入力画素との交差部分の面積を示す図である。It is a figure which shows the area of the cross | intersection part of a diagonal line zone and each input pixel. 斜め線帯と各入力画素との交差部分の面積から補間係数を算出することを説明する図である。It is a figure explaining calculating an interpolation coefficient from the area of the intersection of a diagonal line zone and each input pixel. この発明の実施の形態2に係る画像処理装置を示すブロック図である。It is a block diagram which shows the image processing apparatus which concerns on Embodiment 2 of this invention. 入力画素と出力画素とが重なっている場合を示す図である。It is a figure which shows the case where an input pixel and an output pixel have overlapped. 入力画素と出力画素とで重なりがある場合の補間係数の計算を示す図である。It is a figure which shows calculation of the interpolation coefficient when there exists overlap with an input pixel and an output pixel. この発明の実施の形態3に係る画像処理装置を示すブロック図である。It is a block diagram which shows the image processing apparatus which concerns on Embodiment 3 of this invention. 斜め方向判定を出力画素の一次近傍で行う場合を示す図である。It is a figure which shows the case where diagonal direction determination is performed in the primary vicinity of an output pixel. この発明の実施の形態4に係る画像処理装置を示すブロック図である。It is a block diagram which shows the image processing apparatus which concerns on Embodiment 4 of this invention. 垂直方向の斜め線帯が検出された場合を示す図である。It is a figure which shows the case where the diagonal line | wire zone of a perpendicular direction is detected. 入力画素の画素値を垂直方向及び水平方向にのみ3次近傍まで取得することを説明する図である。It is a figure explaining acquiring the pixel value of an input pixel to the 3rd order neighborhood only in the perpendicular direction and the horizontal direction. この発明の実施の形態5に係る画像処理装置を示すブロック図である。It is a block diagram which shows the image processing apparatus which concerns on Embodiment 5 of this invention. 入力画像用ラインメモリの動作を示す図である。It is a figure which shows operation | movement of the line memory for input images.

符号の説明Explanation of symbols

101 出力画素位置決定部、102 入力画像画素座標決定部、103 入力画像取得部、104 斜め線方向判定部、105 係数算出部、106 補間部、107 出力部、108 フレームメモリ、109 入力画像用フレームメモリ、205 実施の形態2での係数算出部、304 実施の形態3での斜め線方向判定部、305 実施の形態3での係数算出部、403 実施の形態4での入力画像取得部、405 実施の形態4での係数算出部、406 実施の形態4での補間部、509 実施の形態5での入力画像用ラインメモリ。   DESCRIPTION OF SYMBOLS 101 Output pixel position determination part, 102 Input image pixel coordinate determination part, 103 Input image acquisition part, 104 Diagonal line direction determination part, 105 Coefficient calculation part, 106 Interpolation part, 107 Output part, 108 Frame memory, 109 Input image frame Memory, 205 Coefficient calculation unit in the second embodiment, 304 Diagonal line direction determination unit in the third embodiment, 305 Coefficient calculation unit in the third embodiment, 403 Input image acquisition unit in the fourth embodiment, 405 Coefficient calculation unit in the fourth embodiment, 406 Interpolation unit in the fourth embodiment, 509 Input image line memory in the fifth embodiment.

Claims (7)

所望の画像の拡大率に合わせて、画像拡大処理後の出力画像の各出力画素の位置座標を決定する出力画素位置決定部と、
前記出力画素位置決定部から出力される出力画素の位置座標に基づいて、前記出力画素の色情報を示す値より成る画素値を求めるために必要な入力画像の画素群、及び、当該入力画素群に属する各入力画素の座標を決定する入力画像画素座標決定部と、
前記入力画像の各入力画素の色情報を示す値より成る画素値を保有している入力画像用記憶部と、
前記入力画像画素座標決定部から出力される前記入力画素群内の各入力画素の座標に基づいて、前記入力画像用記憶部から、前記入力画素群内の各入力画素の前記画素値を取得する入力画像取得部と、
前記入力画像画素座標決定部から出力される前記入力画素群に属する各入力画素の座標と、前記入力画像取得部から出力される前記入力画素群に属する各入力画素の前記画素値とから、前記入力画素群に属する各入力画素を1個の点として捉えた場合に於いて、拡大対象となった前記出力画素の所定次元近傍で定まる前記入力画素群に属する全入力画素の内で前記画素値が相間関係にある2個の入力画素を通る斜め線を検出して、前記斜め線の情報を出力する斜め線方向判定部と、
前記入力画素群に属する各入力画素及び前記出力画素は点ではなくて面積を持った2次元体であると捉えた上で、前記出力画素位置決定部から送信される拡大対象となった前記出力画素の前記位置座標と、前記斜め線方向判定部から出力される前記斜め線情報とに基づいて、(1)前記斜め線情報で与えられる前記斜め線を、前記斜め線の方向に垂直な方向に、各画素の形状の寸法に基づき定まる所定の幅を有する帯状の斜め線帯を構成し、(2)前記斜め線帯が、前記出力画素の前記位置座標に存在し且つ各画素の形状の寸法と同一寸法の領域を有する2次元体としての出力画素と交差するか否かを判定し、(3)前記斜め線帯が前記2次元体としての出力画素と交差するときには、前記斜め線帯は有効な斜め線帯であると判定した上で、前記斜め線帯と交差する2次元体の各入力画素と前記斜め線帯との交差部分の面積を算出し、各交差部分の面積の面積比を更に算出した上で、少なくとも前記面積比に基づき、補間係数を算出する係数算出部と、
前記入力画像取得部から出力される前記入力画素群内の各入力画素の前記画素値と、前記係数算出部から出力される前記補間係数とに基づき、前記出力画素の画素値を補間する補間部と、
前記出力画素座標決定部から出力される前記出力画素の前記位置座標と、前記補間部から出力される補間された前記出力画素の前記画素値とを出力する出力部とを備えることを特徴とする、
画像処理装置。
An output pixel position determining unit that determines the position coordinates of each output pixel of the output image after the image enlargement process in accordance with a desired image enlargement ratio;
Based on the position coordinates of the output pixel output from the output pixel position determination unit, the pixel group of the input image necessary for obtaining a pixel value composed of values indicating the color information of the output pixel, and the input pixel group An input image pixel coordinate determination unit that determines the coordinates of each input pixel belonging to
An input image storage unit having a pixel value including a value indicating color information of each input pixel of the input image;
Based on the coordinates of each input pixel in the input pixel group output from the input image pixel coordinate determination unit, the pixel value of each input pixel in the input pixel group is acquired from the input image storage unit. An input image acquisition unit;
From the coordinates of each input pixel belonging to the input pixel group output from the input image pixel coordinate determination unit and the pixel value of each input pixel belonging to the input pixel group output from the input image acquisition unit, the When each input pixel belonging to the input pixel group is regarded as one point, the pixel value among all the input pixels belonging to the input pixel group determined in the vicinity of the predetermined dimension of the output pixel to be enlarged Detecting a diagonal line passing through two input pixels having a phase relationship and outputting information of the diagonal line;
Each output pixel belonging to the input pixel group and the output pixel is not a point, but is regarded as a two-dimensional body having an area, and the output to be enlarged transmitted from the output pixel position determination unit Based on the position coordinates of the pixel and the diagonal line information output from the diagonal line direction determination unit, (1) the diagonal line given by the diagonal line information is a direction perpendicular to the direction of the diagonal line And (2) the diagonal line band is present at the position coordinates of the output pixel and the shape of each pixel is configured to form a band-shaped diagonal line band having a predetermined width determined based on the dimension of the shape of each pixel. It is determined whether or not it intersects with an output pixel as a two-dimensional body having an area having the same size as the dimension, and (3) when the diagonal line zone intersects with the output pixel as the two-dimensional body, the diagonal line zone Is determined to be a valid diagonal band, After calculating the area of the intersection of each input pixel of the two-dimensional body that intersects the diagonal line and the diagonal line, and further calculating the area ratio of the area of each intersection, at least based on the area ratio A coefficient calculation unit for calculating an interpolation coefficient;
An interpolation unit that interpolates the pixel value of the output pixel based on the pixel value of each input pixel in the input pixel group output from the input image acquisition unit and the interpolation coefficient output from the coefficient calculation unit When,
An output unit that outputs the position coordinates of the output pixel output from the output pixel coordinate determination unit and the pixel value of the interpolated output pixel output from the interpolation unit. ,
Image processing device.
請求項1記載の画像処理装置であって、
前記係数算出部は、前記斜め線帯と交差する2次元体の各入力画素と前記2次元体の出力画素との中心間距離を入力画素毎に算出し、算出した各中心間距離と前記面積比とに基づき、前記補間係数を算出することを特徴とする、
画像処理装置。
The image processing apparatus according to claim 1,
The coefficient calculation unit calculates, for each input pixel, a center-to-center distance between each input pixel of the two-dimensional body and the output pixel of the two-dimensional body that intersects the diagonal line band, and calculates each center-to-center distance and the area. The interpolation coefficient is calculated based on the ratio,
Image processing device.
請求項2記載の画像処理装置であって、
前記2次元体の出力画素が前記入力画素群に属する2次元体の何れかの入力画素と重なり合う場合には、
前記係数算出部は、前記入力画素群に属する2次元体の各入力画素の内で前記斜め線帯と重なり合う全ての入力画素の各々について、当該入力画素と前記斜め線帯との重なり合う部分の面積を算出し、
前記係数算出部は、各重なり合う部分の面積と前記各中心間距離と前記面積比とに基づき、前記補間係数を算出することを特徴とする、
画像処理装置。
The image processing apparatus according to claim 2,
When the output pixel of the two-dimensional body overlaps with any input pixel of the two-dimensional body belonging to the input pixel group,
The coefficient calculation unit, for each of all input pixels that overlap the diagonal line band in each input pixel of the two-dimensional body belonging to the input pixel group, the area of the overlapping part of the input pixel and the diagonal line band To calculate
The coefficient calculation unit calculates the interpolation coefficient based on the area of each overlapping portion, the distance between the centers, and the area ratio,
Image processing device.
所望の画像の拡大率に合わせて、画像拡大処理後の出力画像の各出力画素の位置座標を決定する出力画素位置決定部と、
前記出力画素位置決定部から出力される出力画素の位置座標に基づいて、前記出力画素の色情報を示す値より成る画素値を求めるために必要な入力画像の画素群、及び、当該入力画素群に属する各入力画素の座標を決定する入力画像画素座標決定部と、
前記入力画像の各入力画素の色情報を示す値より成る画素値を保有している入力画像用記憶部と、
前記入力画像画素座標決定部から出力される前記入力画素群内の各入力画素の座標に基づいて、前記入力画像用記憶部から、前記入力画素群内の各入力画素の前記画素値を取得する入力画像取得部と、
前記入力画像画素座標決定部から出力される前記入力画素群に属する各入力画素の座標と、前記入力画像取得部から出力される前記入力画素群に属する各入力画素の前記画素値とから、前記入力画素群に属する各入力画素を1個の点として捉えた場合に於いて、(1)前記入力画素群に属する各入力画素の重心の位置座標を求めて出力すると共に、(2)拡大対象となった前記出力画素の所定次元近傍で定まる前記入力画素群に属する全入力画素の内で前記画素値が相間関係にある2個の入力画素を通る斜め線を検出して、前記斜め線の情報を出力する斜め線方向判定部と、
前記入力画素群に属する各入力画素、前記重心及び前記出力画素は点ではなくて面積を持った2次元体であると捉えた上で、前記斜め線方向判定部から出力される前記重心の前記位置座標と前記斜め線情報とに基づいて、(1)前記斜め線情報で与えられる前記斜め線を、前記斜め線の方向に垂直な方向に、各画素の形状の寸法に基づき定まる所定の幅を有する帯状の斜め線帯を構成し、(2)前記斜め線帯が、前記重心の前記位置座標に存在し且つ各画素の形状の寸法と同一寸法の領域を有する2次元体としての重心領域と交差するか否かを判定し、(3)前記斜め線帯が前記2次元体としての重心領域と交差するときには、前記斜め線帯は有効な斜め線帯であると判定した上で、前記斜め線帯と交差する2次元体の各入力画素と前記斜め線帯との交差部分の面積を算出し、各交差部分の面積の面積比を更に算出した上で、少なくとも前記面積比に基づき、補間係数を算出する係数算出部と、
前記入力画像取得部から出力される前記入力画素群内の各入力画素の前記画素値と、前記係数算出部から出力される前記補間係数とに基づき、前記出力画素の画素値を補間する補間部と、
前記出力画素座標決定部から出力される前記出力画素の前記位置座標と、前記補間部から出力される補間された前記出力画素の前記画素値とを出力する出力部とを備えることを特徴とする、
画像処理装置。
An output pixel position determining unit that determines the position coordinates of each output pixel of the output image after the image enlargement process in accordance with a desired image enlargement ratio;
Based on the position coordinates of the output pixel output from the output pixel position determination unit, the pixel group of the input image necessary for obtaining a pixel value composed of values indicating the color information of the output pixel, and the input pixel group An input image pixel coordinate determination unit that determines the coordinates of each input pixel belonging to
An input image storage unit having a pixel value including a value indicating color information of each input pixel of the input image;
Based on the coordinates of each input pixel in the input pixel group output from the input image pixel coordinate determination unit, the pixel value of each input pixel in the input pixel group is acquired from the input image storage unit. An input image acquisition unit;
From the coordinates of each input pixel belonging to the input pixel group output from the input image pixel coordinate determination unit and the pixel value of each input pixel belonging to the input pixel group output from the input image acquisition unit, the When each input pixel belonging to the input pixel group is regarded as one point, (1) the position coordinate of the center of gravity of each input pixel belonging to the input pixel group is obtained and output, and (2) the enlargement target The diagonal line passing through the two input pixels whose pixel values are interrelated among all the input pixels belonging to the input pixel group determined in the vicinity of the predetermined dimension of the output pixel, An oblique line direction determination unit that outputs information;
Each input pixel belonging to the input pixel group, the centroid and the output pixel are not a point but a two-dimensional body having an area, and the centroid output from the oblique line direction determination unit Based on the position coordinates and the oblique line information, (1) a predetermined width determined based on the size of each pixel in the oblique line given by the oblique line information in a direction perpendicular to the oblique line direction. (2) The barycentric region as a two-dimensional body having a region having the same size as the shape of each pixel, wherein the diagonal line zone exists at the position coordinates of the barycenter (3) When the diagonal line zone intersects the center of gravity region as the two-dimensional body, the diagonal line zone is determined to be an effective diagonal line zone, Each input pixel of the two-dimensional body intersecting the diagonal line and the diagonal Calculating the area of the intersection of the strip, the area ratio of the area of each intersection further on calculated based on at least the area ratio, and the coefficient calculation unit for calculating the interpolation coefficients,
An interpolation unit that interpolates the pixel value of the output pixel based on the pixel value of each input pixel in the input pixel group output from the input image acquisition unit and the interpolation coefficient output from the coefficient calculation unit When,
An output unit that outputs the position coordinates of the output pixel output from the output pixel coordinate determination unit and the pixel value of the interpolated output pixel output from the interpolation unit. ,
Image processing device.
所望の画像の拡大率に合わせて、画像拡大処理後の出力画像の各出力画素の位置座標を決定する出力画素位置決定部と、
前記出力画素位置決定部から出力される出力画素の位置座標に基づいて、前記出力画素の色情報を示す値より成る画素値を求めるために必要な入力画像の画素群、及び、当該入力画素群に属する各入力画素の座標を決定する入力画像画素座標決定部と、
前記入力画像の各入力画素の色情報を示す値より成る画素値を保有している入力画像用記憶部と、
前記入力画像画素座標決定部から出力される前記入力画素群内の各入力画素の座標に基づいて、前記入力画像用記憶部から、前記入力画素群の内で2次近傍以上の範囲内に属する各入力画素の前記画素値を取得する入力画像取得部と、
前記入力画像画素座標決定部から出力される前記入力画素群に属する各入力画素の座標と、前記入力画像取得部から出力される前記2次近傍以上の範囲内に属する各入力画素の前記画素値とから、前記入力画素群に属する各入力画素を1個の点として捉えた場合に於いて、拡大対象となった前記出力画素の2次近傍以上の所定次元で定まる範囲内に属する全入力画素の内で前記画素値が相間関係にある2個の入力画素を通る斜め線を検出して、前記斜め線の情報を出力する斜め線方向判定部と、
前記出力画素の2次近傍以上の所定次元で定まる範囲内に属する各入力画素及び前記出力画素は点ではなくて面積を持った2次元体であると捉えた上で、前記斜め線が垂直方向又は水平方向に延在した直線であることを前記斜め線情報が示す場合には、前記直線を前記直線の方向に垂直な方向に、各画素の形状の寸法に基づき定まる所定の幅を有する帯状の直線帯を構成し、前記直線帯が、前記出力画素の前記位置座標に存在し且つ各画素の形状の寸法と同一寸法の領域を有する2次元体としての出力画素と交差するか否かを判定し、交差する場合には、高次補間方法に基づき、補間係数を算出する係数算出部と、
前記入力画像取得部から出力される前記出力画素の2次近傍以上の所定次元で定まる範囲内に属する各入力画素の前記画素値と、前記係数算出部から出力される前記補間係数とに基づき、前記出力画素の画素値を補間する補間部と、
前記出力画素座標決定部から出力される前記出力画素の前記位置座標と、前記補間部から出力される補間された前記出力画素の前記画素値とを出力する出力部とを備えることを特徴とする、
画像処理装置。
An output pixel position determining unit that determines the position coordinates of each output pixel of the output image after the image enlargement process in accordance with a desired image enlargement ratio;
Based on the position coordinates of the output pixel output from the output pixel position determination unit, the pixel group of the input image necessary for obtaining a pixel value composed of values indicating the color information of the output pixel, and the input pixel group An input image pixel coordinate determination unit that determines the coordinates of each input pixel belonging to
An input image storage unit having a pixel value including a value indicating color information of each input pixel of the input image;
Based on the coordinates of each input pixel in the input pixel group that is output from the input image pixel coordinate determination unit, the input image storage unit belongs to a range that is equal to or higher than the secondary vicinity in the input pixel group. An input image acquisition unit for acquiring the pixel value of each input pixel;
The coordinates of each input pixel belonging to the input pixel group output from the input image pixel coordinate determination unit and the pixel value of each input pixel belonging to a range equal to or higher than the second order output from the input image acquisition unit All the input pixels belonging to a range determined by a predetermined dimension that is equal to or higher than the second order of the output pixel to be enlarged when each input pixel belonging to the input pixel group is regarded as one point. An oblique line direction determination unit that detects oblique lines passing through two input pixels in which the pixel values are interrelated, and outputs information of the oblique lines;
The diagonal lines are perpendicular to each other when the input pixels belonging to a range determined by a predetermined dimension equal to or greater than the second order of the output pixels and the output pixels are not points but are two-dimensional bodies having an area. Alternatively, when the oblique line information indicates that the straight line extends in the horizontal direction, the straight line has a predetermined width determined based on the size of each pixel in a direction perpendicular to the direction of the straight line. Whether or not the straight line intersects with the output pixel as a two-dimensional body that exists at the position coordinates of the output pixel and has a region having the same size as the shape of each pixel. When determining and intersecting, based on a high-order interpolation method, a coefficient calculation unit that calculates an interpolation coefficient;
Based on the pixel value of each input pixel belonging to a range determined by a predetermined dimension equal to or greater than the second order of the output pixel output from the input image acquisition unit, and the interpolation coefficient output from the coefficient calculation unit, An interpolation unit for interpolating a pixel value of the output pixel;
An output unit that outputs the position coordinates of the output pixel output from the output pixel coordinate determination unit and the pixel value of the interpolated output pixel output from the interpolation unit. ,
Image processing device.
所望の画像の拡大率に合わせて、画像拡大処理後の出力画像の各出力画素の位置座標を決定する出力画素位置決定部と、
前記出力画素位置決定部から出力される出力画素の位置座標に基づいて、前記出力画素の色情報を示す値より成る画素値を求めるために必要な入力画像の画素群、及び、当該入力画素群に属する各入力画素の座標を決定する入力画像画素座標決定部と、
前記入力画像の各入力画素の色情報を示す値より成る画素値を保有している入力画像用記憶部と、
前記入力画像画素座標決定部から出力される前記入力画素群内の各入力画素の座標に基づいて、前記入力画像用記憶部から、前記入力画素群の内で2次近傍以上の範囲内に属する各入力画素の前記画素値を取得する入力画像取得部と、
前記入力画像画素座標決定部から出力される前記入力画素群に属する各入力画素の座標と、前記入力画像取得部から出力される前記2次近傍以上の範囲内に属する各入力画素の前記画素値とから、前記入力画素群に属する各入力画素を1個の点として捉えた場合に於いて、拡大対象となった前記出力画素の2次近傍以上の所定次元で定まる範囲内に属する全入力画素の内で前記画素値が相間関係にある2個の入力画素を通る斜め線を検出して、前記斜め線の情報を出力する斜め線方向判定部と、
前記出力画素の2次近傍以上の所定次元で定まる範囲内に属する各入力画素及び前記出力画素は点ではなくて面積を持った2次元体であると捉えた上で、前記斜め線が垂直方向又は水平方向に延在した直線であることを前記斜め線情報が示す場合には、前記直線を前記直線の方向に垂直な方向に、各画素の形状の寸法に基づき定まる所定の幅を有する帯状の直線帯を構成し、前記直線帯が、前記出力画素の前記位置座標に存在し且つ各画素の形状の寸法と同一寸法の領域を有する2次元体としての出力画素と交差するか否かを判定し、交差する場合には、前記斜め線情報をそのまま出力する係数算出部と、
前記係数算出部から出力される前記斜め線情報に基づき高次補間方法によって補間係数を算出し、前記入力画像取得部から出力される前記出力画素の2次近傍以上の所定次元で定まる範囲内に属する各入力画素の前記画素値と、算出した前記補間係数とに基づき、前記出力画素の画素値を補間する補間部と、
前記出力画素座標決定部から出力される前記出力画素の前記位置座標と、前記補間部から出力される補間された前記出力画素の前記画素値とを出力する出力部とを備えることを特徴とする、
画像処理装置。
An output pixel position determining unit that determines the position coordinates of each output pixel of the output image after the image enlargement process in accordance with a desired image enlargement ratio;
Based on the position coordinates of the output pixel output from the output pixel position determination unit, the pixel group of the input image necessary for obtaining a pixel value composed of values indicating the color information of the output pixel, and the input pixel group An input image pixel coordinate determination unit that determines the coordinates of each input pixel belonging to
An input image storage unit having a pixel value including a value indicating color information of each input pixel of the input image;
Based on the coordinates of each input pixel in the input pixel group that is output from the input image pixel coordinate determination unit, the input image storage unit belongs to a range that is equal to or higher than the secondary vicinity in the input pixel group. An input image acquisition unit for acquiring the pixel value of each input pixel;
The coordinates of each input pixel belonging to the input pixel group output from the input image pixel coordinate determination unit and the pixel value of each input pixel belonging to a range equal to or higher than the second order output from the input image acquisition unit All the input pixels belonging to a range determined by a predetermined dimension that is equal to or higher than the second order of the output pixel to be enlarged when each input pixel belonging to the input pixel group is regarded as one point. An oblique line direction determination unit that detects oblique lines passing through two input pixels in which the pixel values are interrelated, and outputs information of the oblique lines;
The diagonal lines are perpendicular to each other when the input pixels belonging to a range determined by a predetermined dimension equal to or greater than the second order of the output pixels and the output pixels are not points but are two-dimensional bodies having an area. Alternatively, when the oblique line information indicates that the straight line extends in the horizontal direction, the straight line has a predetermined width determined based on the size of each pixel in a direction perpendicular to the direction of the straight line. Whether or not the straight line intersects with the output pixel as a two-dimensional body that exists at the position coordinates of the output pixel and has a region having the same size as the shape of each pixel. In the case of determining and intersecting, a coefficient calculation unit that outputs the oblique line information as it is;
An interpolation coefficient is calculated by a high-order interpolation method based on the oblique line information output from the coefficient calculation unit, and is within a range determined by a predetermined dimension equal to or higher than the second order of the output pixel output from the input image acquisition unit. An interpolation unit that interpolates the pixel value of the output pixel based on the pixel value of each input pixel to which it belongs and the calculated interpolation coefficient;
An output unit that outputs the position coordinates of the output pixel output from the output pixel coordinate determination unit and the pixel value of the interpolated output pixel output from the interpolation unit. ,
Image processing device.
請求項1乃至6の何れか1項に記載の画像処理装置であって、
前記入力画像用記憶部は、前記出力画素の画素値を補間するのに必要なライン数分の入力画素の画素値を保有しているラインメモリより成ることを特徴とする、
画像処理装置。
The image processing apparatus according to any one of claims 1 to 6,
The input image storage unit includes a line memory that holds pixel values of input pixels corresponding to the number of lines necessary to interpolate the pixel values of the output pixels.
Image processing device.
JP2007125197A 2007-05-10 2007-05-10 Image processing device Expired - Fee Related JP4879084B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007125197A JP4879084B2 (en) 2007-05-10 2007-05-10 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007125197A JP4879084B2 (en) 2007-05-10 2007-05-10 Image processing device

Publications (2)

Publication Number Publication Date
JP2008282187A true JP2008282187A (en) 2008-11-20
JP4879084B2 JP4879084B2 (en) 2012-02-15

Family

ID=40142956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007125197A Expired - Fee Related JP4879084B2 (en) 2007-05-10 2007-05-10 Image processing device

Country Status (1)

Country Link
JP (1) JP4879084B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016065849A1 (en) * 2014-10-31 2016-05-06 京东方科技集团股份有限公司 Drive method for pixel array
US9674484B2 (en) 2014-10-27 2017-06-06 Samsung Display Co., Ltd. Image processing device and image processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS641072A (en) * 1987-06-24 1989-01-05 Toshiba Corp Picture processor
JPS641070A (en) * 1987-06-24 1989-01-05 Toshiba Corp Picture processor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS641072A (en) * 1987-06-24 1989-01-05 Toshiba Corp Picture processor
JPS641070A (en) * 1987-06-24 1989-01-05 Toshiba Corp Picture processor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9674484B2 (en) 2014-10-27 2017-06-06 Samsung Display Co., Ltd. Image processing device and image processing method
WO2016065849A1 (en) * 2014-10-31 2016-05-06 京东方科技集团股份有限公司 Drive method for pixel array
US10249259B2 (en) 2014-10-31 2019-04-02 Boe Technology Group Co., Ltd. Method for driving a pixel array

Also Published As

Publication number Publication date
JP4879084B2 (en) 2012-02-15

Similar Documents

Publication Publication Date Title
JP4727720B2 (en) Image processing method and image processing apparatus
JP4874904B2 (en) Image processing apparatus and method
JP6473608B2 (en) Image processing apparatus, image processing method, and program
US9240033B2 (en) Image super-resolution reconstruction system and method
US20160225125A1 (en) Image Interpolation Method and Image Interpolation Apparatus
JP2008276393A (en) Resolution enhancement device and method
CN106204441B (en) Image local amplification method and device
JP2010009381A (en) Pixel interpolation device, pixel interpolation method, and pixel interpolation program
US11854157B2 (en) Edge-aware upscaling for improved screen content quality
JP2007226656A (en) Method and device of improving resolution of image
JP4879084B2 (en) Image processing device
JP4686624B2 (en) Information processing apparatus, image processing method, and program
JP4868249B2 (en) Video signal processing device
JP4716255B2 (en) Image processing apparatus, image processing method, and program thereof
JP2008228251A (en) Image processor, image processing method, and image processing program
US6670965B1 (en) Single-pass warping engine
JP2005293265A (en) Image processing device, and method
JP2015106318A (en) Image processor and image processing method
KR100463552B1 (en) Cubic convolution interpolation apparatus and method
Savagave et al. Study of image interpolation
CN111768341B (en) Image processing method and image processing device
JP3461613B2 (en) Image processing device
JP2005123813A (en) Image processing apparatus
JP4767313B2 (en) Image processing apparatus, method, and program
JP2006252108A (en) Image processing device, image processing method, and its program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111129

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees