JP2015106318A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2015106318A
JP2015106318A JP2013248711A JP2013248711A JP2015106318A JP 2015106318 A JP2015106318 A JP 2015106318A JP 2013248711 A JP2013248711 A JP 2013248711A JP 2013248711 A JP2013248711 A JP 2013248711A JP 2015106318 A JP2015106318 A JP 2015106318A
Authority
JP
Japan
Prior art keywords
image
inclination
interpolation
contour
input image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013248711A
Other languages
Japanese (ja)
Inventor
安岡 貴志
Takashi Yasuoka
貴志 安岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Display Co Ltd
Original Assignee
Samsung Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Display Co Ltd filed Critical Samsung Display Co Ltd
Priority to JP2013248711A priority Critical patent/JP2015106318A/en
Publication of JP2015106318A publication Critical patent/JP2015106318A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of improving the elimination degree of a blur occurring near a contour while reducing overshoot or undershoot.SOLUTION: There is provided an image processor 1 including at least a direction determination part 12, an inclination determination part 13 and an interpolation calculation part 15. The direction determination part 12 determines a contour direction in an object pixel included in an input image. The inclination determination part 13 determines an inclination kind perpendicular to a contour direction at a position near the object pixel in an enlarged image on the basis of the input image. The interpolation calculation part 15 performs interpolation processing of the pixel of the position near the enlarged image on the basis of a position in the input image separated from the near position by a predetermined length in a direction corresponding to the inclination kind among directions perpendicular to the contour direction.

Description

本発明は、画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

近年、高解像度の画像を表示することが可能な大型ディスプレイを有するテレビジョン装置などが開発されている。このような大型ディスプレイに対して低解像度の画像を表示させようとする場合、大型ディスプレイのサイズに合わせて低解像度の画像を拡大させる必要が生じる。このとき、低解像度の画像を所定の倍率に基づいて引き伸ばすだけでは画像の鮮鋭度が劣化してしまうのが通例である。そこで、画像の鮮鋭度の低下を抑制しつつ、画像を拡大する技術が求められる。   In recent years, television devices having a large display capable of displaying high-resolution images have been developed. When trying to display a low resolution image on such a large display, it is necessary to enlarge the low resolution image in accordance with the size of the large display. At this time, it is usual that the sharpness of the image is degraded only by stretching the low-resolution image based on a predetermined magnification. Therefore, a technique for enlarging an image while suppressing a decrease in the sharpness of the image is required.

例えば、低解像度の画像を拡大させた結果として生じる拡大画像からは、高解像度の画像においては表現され得るが低解像度の画像には含まれ得ない高周波成分が欠落してしまう。そのため、拡大画像の輪郭付近にはぼけが生じ得る。かかるぼけを解消するための手法として、原画像における二次微分値を画素値に加える輪郭強調と呼ばれる手法が一般的である。しかし、かかる手法を採用した場合には、拡大画像の輪郭付近にオーバーシュートまたはアンダーシュートと呼ばれる画像劣化が生じ得る。   For example, a high-frequency component that can be expressed in a high-resolution image but cannot be included in a low-resolution image is lost from an enlarged image generated as a result of enlarging a low-resolution image. Therefore, blurring may occur near the contour of the enlarged image. As a technique for eliminating such blur, a technique called edge enhancement in which a secondary differential value in an original image is added to a pixel value is generally used. However, when such a method is employed, image degradation called overshoot or undershoot may occur near the contour of the enlarged image.

そこで、オーバーシュートまたはアンダーシュートを低減する手法として様々な手法が開示されている。例えば、補間対象の画素がエッジを基準として左右いずれの領域に存在するかを判定し、補間対象の画素の存在する領域の2画素を結んだ直線上の画素で補間する技術が開示されている(例えば、特許文献1参照)。また、上記の輪郭強調において画素値に加算される二次微分値を、隣接画素と当該画素とを結んで形成される折れ線の形状に応じて制御する技術が開示されている(例えば、特許文献2参照)。   Therefore, various methods have been disclosed as methods for reducing overshoot or undershoot. For example, a technique is disclosed in which it is determined whether a pixel to be interpolated is present in the left or right region with reference to an edge, and interpolation is performed with pixels on a straight line connecting two pixels in the region in which the pixel to be interpolated exists (For example, refer to Patent Document 1). In addition, a technique is disclosed in which a secondary differential value added to a pixel value in the above contour enhancement is controlled in accordance with a shape of a polygonal line formed by connecting an adjacent pixel and the pixel (for example, Patent Literature 2).

特開2005−063197号公報Japanese Patent Laying-Open No. 2005-063197 特開2010−226260号公報JP 2010-226260 A

しかしながら、特許文献1に記載された技術、特許文献2に記載された技術などによれば、オーバーシュートまたはアンダーシュートは低減され得るが、輪郭付近に生じるぼけの解消度合いは向上しない可能性がある。そこで、本発明は、オーバーシュートまたはアンダーシュートを低減しつつ、輪郭付近に生じるぼけの解消度合いを向上させることが可能な技術を提供する。   However, according to the technique described in Patent Document 1, the technique described in Patent Document 2, and the like, overshoot or undershoot can be reduced, but the degree of elimination of blur occurring in the vicinity of the contour may not be improved. . Therefore, the present invention provides a technique capable of improving the degree of elimination of blur occurring near the contour while reducing overshoot or undershoot.

本発明のある実施形態によれば、入力画像に含まれる対象画素における輪郭方向を判定する方向判定部と、拡大画像のうち前記対象画素の近傍位置における前記輪郭方向に垂直な方向への傾斜種別を前記入力画像に基づいて判定する傾斜判定部と、前記輪郭方向に垂直な方向のうち前記傾斜種別に応じた向きに前記近傍位置から所定の長さ離れた前記入力画像における位置に基づいて前記拡大画像における前記近傍位置の画素に対する補間処理を行う補間演算部と、を備える、画像処理装置が提供される。   According to an embodiment of the present invention, a direction determination unit that determines a contour direction in a target pixel included in an input image, and a tilt type in a direction perpendicular to the contour direction in a position near the target pixel in an enlarged image Based on the position in the input image that is a predetermined distance away from the neighboring position in a direction corresponding to the inclination type in a direction perpendicular to the contour direction. An image processing apparatus is provided that includes an interpolation calculation unit that performs an interpolation process on pixels in the vicinity of the enlarged image.

かかる構成によれば、オーバーシュートまたはアンダーシュートを低減しつつ、輪郭付近に生じるぼけの解消度合いを向上させることが可能となる。   According to such a configuration, it is possible to improve the degree of elimination of blur occurring near the contour while reducing overshoot or undershoot.

前記補間演算部は、より傾斜が緩やかな向きに前記近傍位置から前記所定の長さ離れた前記入力画像における位置に基づいて前記補間処理を行ってよい。かかる構成によれば、より傾斜が緩やかな向きに離れた位置に基づいて補間処理がなされるため、補間輪郭付近に生じるぼけの解消度合いをより確実に向上させることが可能となる。   The interpolation calculation unit may perform the interpolation processing based on a position in the input image that is away from the vicinity position by the predetermined length in a direction with a gentler slope. According to such a configuration, the interpolation processing is performed based on the position where the inclination is further away in a gentler direction, so that it is possible to more reliably improve the degree of elimination of blurring that occurs near the interpolation contour.

前記補間演算部は、より傾斜が緩やかな向きに前記近傍位置から前記所定の長さ離れた前記入力画像における位置に対応する画素データを取得し、前記画素データに基づいて前記補間処理を行ってよい。かかる構成によれば、近傍位置から所定の長さ離れた位置に対応する画素データに基づいて、より適切に補間処理がなされ得る。   The interpolation calculation unit obtains pixel data corresponding to a position in the input image that is a predetermined length away from the neighboring position in a direction with a gentler slope, and performs the interpolation processing based on the pixel data. Good. According to such a configuration, interpolation processing can be performed more appropriately based on pixel data corresponding to a position that is a predetermined length away from the neighboring position.

前記補間演算部は、補間係数を取得し、前記補間係数および前記画素データに基づいて前記補間処理を行ってよい。かかる構成によれば、補間処理に必要な補間係数が取得されるため、より容易に補間処理がなされ得る。   The interpolation calculation unit may acquire an interpolation coefficient and perform the interpolation processing based on the interpolation coefficient and the pixel data. According to such a configuration, since the interpolation coefficient necessary for the interpolation process is acquired, the interpolation process can be performed more easily.

前記所定の長さは、前記拡大画像における1画素分離れた画素間の距離以上であり、かつ、2画素分離れた画素間の距離以下であってよい。所定の長さがこの程度の長さに設定されれば、輪郭付近に生じるぼけの解消度合いがより確実に向上されることが期待される。   The predetermined length may be equal to or greater than a distance between pixels separated by one pixel in the enlarged image, and may be equal to or less than a distance between pixels separated by two pixels. If the predetermined length is set to such a length, it is expected that the degree of elimination of blur occurring near the contour is more reliably improved.

前記傾斜判定部は、前記近傍位置を基準とした前記輪郭方向に垂直な方向への第1の隣接位置および第2の隣接位置それぞれと前記近傍位置との輝度値の差分に基づいて、傾斜種別を判定してよい。かかる構成によれば、傾斜種別の判定がより簡易な手法によりなされ得る。   The inclination determination unit is configured to determine an inclination type based on a difference in luminance value between the first adjacent position and the second adjacent position in a direction perpendicular to the contour direction with respect to the vicinity position and the vicinity position. May be determined. According to such a configuration, the determination of the inclination type can be made by a simpler method.

本発明の別の実施形態によれば、入力画像に含まれる対象画素における輪郭方向を判定するステップと、拡大画像のうち前記対象画素の近傍位置における前記輪郭方向に垂直な方向への傾斜種別を前記入力画像に基づいて判定するステップと、前記輪郭方向に垂直な方向のうち前記傾斜種別に応じた向きに前記近傍位置から所定の長さ離れた前記入力画像における位置に基づいて前記拡大画像における前記近傍位置の画素に対する補間処理を行うステップと、を含む、画像処理方法が提供される。   According to another embodiment of the present invention, a step of determining a contour direction in a target pixel included in an input image, and an inclination type in a direction perpendicular to the contour direction in a position near the target pixel in an enlarged image are determined. In the enlarged image based on the step of determining based on the input image and a position in the input image that is a predetermined length away from the neighboring position in a direction corresponding to the inclination type in a direction perpendicular to the contour direction Performing an interpolation process on the pixels at the neighboring positions.

かかる方法によれば、オーバーシュートまたはアンダーシュートを低減しつつ、輪郭付近に生じるぼけの解消度合いを向上させることが可能となる。   According to such a method, it is possible to improve the degree of elimination of blur occurring near the contour while reducing overshoot or undershoot.

以上説明したように、本発明によれば、オーバーシュートまたはアンダーシュートを低減しつつ、輪郭付近に生じるぼけの解消度合いを向上させることが可能である。   As described above, according to the present invention, it is possible to improve the degree of elimination of blur occurring near the contour while reducing overshoot or undershoot.

入力画像の階調変化の一例を示す図である。It is a figure which shows an example of the gradation change of an input image. 入力画像を拡大して得られる拡大画像の階調変化の一例を示す図である。It is a figure which shows an example of the gradation change of the enlarged image obtained by enlarging an input image. 一般的な強調度合いの輪郭強調後の拡大画像の階調変化の一例を示す図である。It is a figure which shows an example of the gradation change of the enlarged image after the outline emphasis of the general emphasis degree. 極めて強い強調度合いの輪郭強調後の拡大画像の階調変化の一例を示す図である。It is a figure which shows an example of the gradation change of the enlarged image after the outline emphasis of a very strong emphasis degree. 極めて強い強調度合いの輪郭強調後の拡大画像に対して輪郭強調前の拡大画像の対象画素の周辺の画素の画素値の最小値および最大値によってクリップして得られる画像の階調変化の一例を示す図である。An example of a gradation change of an image obtained by clipping a pixel value around a target pixel of a magnified image before contour enhancement with a minimum value and a maximum value of the magnified image after contour enhancement with an extremely strong enhancement level FIG. 本発明の実施形態に係る画像処理装置によって得られる拡大画像の階調変化の一例を示す図である。It is a figure which shows an example of the gradation change of the enlarged image obtained by the image processing apparatus which concerns on embodiment of this invention. 同実施形態に係る画像処理装置の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the image processing apparatus which concerns on the embodiment. 同実施形態に係る画像処理装置の機能構成の変形例を示す図である。It is a figure which shows the modification of the function structure of the image processing apparatus which concerns on the embodiment. 入力画像から輪郭方向の判定に使用されるパラメータを算出する例を説明するための図である。It is a figure for demonstrating the example which calculates the parameter used for determination of a contour direction from an input image. 入力画像を時計回りに15度回転して得られる回転画像から輪郭方向の判定に使用されるパラメータを算出する例を説明するための図である。It is a figure for demonstrating the example which calculates the parameter used for determination of a contour direction from the rotation image obtained by rotating an input image clockwise 15 degree | times. 輪郭方向に垂直な方向について説明するための図である。It is a figure for demonstrating the direction perpendicular | vertical to an outline direction. 輪郭方向に垂直な方向への第1の傾斜種別を示す図である。It is a figure which shows the 1st inclination classification to a direction perpendicular | vertical to an outline direction. 輪郭方向に垂直な方向への第2の傾斜種別を示す図である。It is a figure which shows the 2nd inclination classification to a direction perpendicular | vertical to an outline direction. 輪郭方向に垂直な方向への第3の傾斜種別を示す図である。It is a figure which shows the 3rd inclination classification to a direction perpendicular | vertical to an outline direction. 輪郭方向に垂直な方向への第4の傾斜種別を示す図である。It is a figure which shows the 4th inclination classification to a direction perpendicular | vertical to an outline direction. 傾斜が第1の傾斜種別または第3の傾斜種別に該当する場合における補間の例を説明するための図である。It is a figure for demonstrating the example of interpolation in case an inclination corresponds to the 1st inclination classification or the 3rd inclination classification. 傾斜が第2の傾斜種別または第4の傾斜種別に該当する場合における補間の例を説明するための図である。It is a figure for demonstrating the example of interpolation in case an inclination corresponds to a 2nd inclination classification or a 4th inclination classification.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付すことにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In the present specification and drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

また、本明細書および図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットまたは数字を付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of constituent elements having substantially the same functional configuration may be distinguished by attaching different alphabets or numbers after the same reference numeral. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.

(一般的な技術)
まず、一般的な技術について説明する。図1は、入力画像の階調変化の一例を示す図である。図1に示すように本来の画像の階調が水平方向に変化する場合を想定する。かかる場合、図1に示した太い破線の位置でサンプリングを行うと、黒に塗り潰された各点がサンプリングされる。なお、図1には、入力画像に含まれる輪郭方向が入力画像の垂直方向に該当し、輪郭方向に垂直な方向が入力画像の水平方向に該当する場合を示しているが、輪郭方向はかかる場合に限定されない。
(General technology)
First, general techniques will be described. FIG. 1 is a diagram illustrating an example of gradation change of an input image. As shown in FIG. 1, it is assumed that the gradation of the original image changes in the horizontal direction. In this case, when sampling is performed at the position of the thick broken line shown in FIG. 1, each point filled in black is sampled. FIG. 1 shows the case where the contour direction included in the input image corresponds to the vertical direction of the input image, and the direction perpendicular to the contour direction corresponds to the horizontal direction of the input image. It is not limited to the case.

図2は、入力画像を拡大して得られる拡大画像の階調変化の一例を示す図である。具体的に、図2には、入力画像を2倍の解像度に拡大して得られた拡大画像の階調変化が示されており、実線で囲まれた白抜きの各点を画素とする拡大画像が得られる。拡大手法としては、Bi−Linear法、Lanczos法などが採用され得る。図2には、図1に示した本来の画像の階調変化の一例も示されている。図2を参照すると、拡大画像の傾斜が本来の画像の傾斜よりも緩やかであり、低解像度の画像を拡大した画像においては、ぼけが生じやすいことが把握される。   FIG. 2 is a diagram illustrating an example of gradation change of an enlarged image obtained by enlarging an input image. Specifically, FIG. 2 shows the gradation change of the enlarged image obtained by enlarging the input image to twice the resolution, and enlargement with each white dot surrounded by a solid line as a pixel. An image is obtained. As an enlargement method, a Bi-Linear method, a Lanczos method, or the like can be employed. FIG. 2 also shows an example of the gradation change of the original image shown in FIG. Referring to FIG. 2, it can be understood that the inclination of the enlarged image is gentler than that of the original image, and blur is likely to occur in an image obtained by enlarging a low-resolution image.

図3は、一般的な強調度合いの輪郭強調後の拡大画像の階調変化の一例を示す図である。具体的に、図3には、拡大画像に対して輪郭強調を施して得られた輪郭強調後の拡大画像の階調変化が示されており、破線で囲まれた白抜きの各点を画素とする拡大画像が得られる。輪郭強調の手法としては、対象画素における拡大画像の2次微分値に所定の係数を乗じて得られた結果を対象画素に加える手法が採用され得る。   FIG. 3 is a diagram illustrating an example of a gradation change of an enlarged image after outline enhancement having a general enhancement degree. Specifically, FIG. 3 shows the gradation change of the enlarged image after contour enhancement obtained by performing contour enhancement on the enlarged image. Each white point surrounded by a broken line is represented by a pixel. An enlarged image is obtained. As a contour enhancement method, a method of adding a result obtained by multiplying a secondary differential value of an enlarged image of a target pixel by a predetermined coefficient to the target pixel may be employed.

また、図3には、図2に示した拡大画像の階調変化の一例も示されている。図3を参照すると、輪郭強調後の拡大画像の傾斜が拡大画像の傾斜よりも急峻になっているため、輪郭強調後の拡大画像においては、ぼけが解消され得ることが把握されるが、オーバーシュートまたはアンダーシュートが生じやすいことが把握される。   FIG. 3 also shows an example of the gradation change of the enlarged image shown in FIG. Referring to FIG. 3, it can be understood that blurring can be eliminated in the enlarged image after contour enhancement because the inclination of the enlarged image after contour enhancement is steeper than that of the enlarged image. It is understood that a shoot or undershoot is likely to occur.

図4は、極めて強い強調度合いの輪郭強調後の拡大画像の階調変化の一例を示す図である。具体的に、図4には、2次微分値に乗じられる係数として、極めて強い強調度合いの係数を用いて拡大画像に対して輪郭強調を施して得られた輪郭強調後の拡大画像の階調変化が示されており、破線で囲まれた白抜きの各点を画素とする拡大画像が得られる。   FIG. 4 is a diagram illustrating an example of a gradation change of an enlarged image after edge enhancement with a very strong enhancement degree. Specifically, FIG. 4 shows the gradation of the magnified image after contour enhancement obtained by performing contour enhancement on the magnified image using a coefficient with a very strong enhancement degree as a coefficient to be multiplied by the secondary differential value. A change is shown, and an enlarged image is obtained in which each white dot surrounded by a broken line is a pixel.

また、図4には、図2に示した拡大画像の階調変化の一例も示されている。図4を参照すると、極めて強い強調度合いの輪郭強調後の拡大画像の傾斜が図3の一般的な強調度合いの輪郭強調後の拡大画像の傾斜より急峻になっているが、より大きなオーバーシュートまたはアンダーシュートが生じやすく、画像劣化が大きくなりやすいことが把握される。   FIG. 4 also shows an example of gradation change of the enlarged image shown in FIG. Referring to FIG. 4, the slope of the magnified image after edge enhancement with a very strong enhancement level is steeper than the slope of the magnified image after contour enhancement with a general enhancement degree in FIG. It is understood that undershoot is likely to occur and image degradation is likely to increase.

図5は、極めて強い強調度合いの輪郭強調後の拡大画像に対して輪郭強調前の拡大画像の対象画素の周辺の画素の画素値の最小値および最大値によってクリップして得られた結果の階調変化の一例を示す図である。具体的に、図5には、極めて強い強調度合いの輪郭強調後の拡大画像に対して、所定の最小値を下回る領域を当該最小値に補正し、所定の最大値を上回る領域を当該最大値に補正する処理を施して得られた結果の階調が示されており、破線で囲まれた白抜きの各点を画素とする拡大画像が得られる。   FIG. 5 shows a result obtained by clipping the enlarged image after the edge enhancement of the extremely strong enhancement level with the minimum value and the maximum value of the pixel values around the target pixel of the enlarged image before the edge enhancement. It is a figure which shows an example of a tone change. Specifically, FIG. 5 shows that an area below a predetermined minimum value is corrected to the minimum value, and an area above a predetermined maximum value is corrected to the maximum value with respect to an enlarged image after contour enhancement with a very strong enhancement level. The gradation obtained as a result of performing the correction processing is shown, and an enlarged image having pixels as white dots surrounded by a broken line is obtained.

また、図5には、図2に示した拡大画像の階調変化の一例も示されている。図5を参照すると、極めて強い強調度合いの輪郭強調後の拡大画像に対して最小値および最大値によってクリップして得られた結果に生じるオーバーシュートまたはアンダーシュートがより低減されやすいことが把握されるが、階調変化が不自然になりやすく、画像劣化が生じやすいことが把握される。   FIG. 5 also shows an example of gradation change of the enlarged image shown in FIG. Referring to FIG. 5, it can be understood that overshoot or undershoot generated in a result obtained by clipping the enlarged image after the edge enhancement with the extremely strong enhancement degree by the minimum value and the maximum value is more easily reduced. However, it is understood that the gradation change tends to be unnatural and image deterioration is likely to occur.

(本発明の実施形態に係る画像処理装置)
図6は、本発明の実施形態に係る画像処理装置によって得られる拡大画像の階調変化の一例を示す図である。また、図6には、図2に示した入力画像を拡大して得られる拡大画像の階調変化の一例も示されている。図6に示したように、本発明の実施形態に係る画像処理装置によれば、輪郭付近の画素のうち傾斜中心の左側に位置する画素は、傾斜中心から左方向により離れた画素に基づいて補間がなされる。一方、輪郭付近の画素のうち傾斜中心の右側に位置する画素は、傾斜中心から右方向により離れた画素に基づいて補間がなされる。
(Image processing apparatus according to an embodiment of the present invention)
FIG. 6 is a diagram illustrating an example of a gradation change of an enlarged image obtained by the image processing apparatus according to the embodiment of the present invention. FIG. 6 also shows an example of gradation change of an enlarged image obtained by enlarging the input image shown in FIG. As shown in FIG. 6, according to the image processing apparatus according to the embodiment of the present invention, the pixels located on the left side of the tilt center among the pixels near the contour are based on the pixels that are farther leftward from the tilt center. Interpolation is done. On the other hand, among the pixels in the vicinity of the contour, a pixel located on the right side of the tilt center is interpolated based on a pixel that is further away from the tilt center in the right direction.

図6を参照して把握されるように、本発明の実施形態に係る画像処理装置によれば、オーバーシュートまたはアンダーシュートを低減しつつ、輪郭付近に生じるぼけの解消度合いを向上させることが可能となる。また、図6を参照すると、本発明の実施形態に係る画像処理装置によれば、階調変化が自然になりやすく、画像劣化が生じにくいことも把握される。   As can be understood with reference to FIG. 6, according to the image processing apparatus of the embodiment of the present invention, it is possible to improve the degree of elimination of the blur that occurs near the contour while reducing overshoot or undershoot. It becomes. In addition, referring to FIG. 6, according to the image processing apparatus according to the embodiment of the present invention, it is also understood that the gradation change is likely to be natural and the image deterioration is not easily caused.

続いて、本発明の実施形態に係る画像処理装置1の機能構成例について説明する。図7は、本発明の実施形態に係る画像処理装置1の機能構成の一例を示す図である。図7に示すように、本発明の実施形態に係る画像処理装置1は、方向判定部12と、傾斜判定部13と、補間係数テーブル14と、補間演算部15とを備える。また、図8は、本発明の実施形態に係る画像処理装置1の機能構成の変形例を示す図である。図8に示すように、画像処理装置1は、輝度生成部11をさらに備える。   Subsequently, a functional configuration example of the image processing apparatus 1 according to the embodiment of the present invention will be described. FIG. 7 is a diagram illustrating an example of a functional configuration of the image processing apparatus 1 according to the embodiment of the present invention. As shown in FIG. 7, the image processing apparatus 1 according to the embodiment of the present invention includes a direction determination unit 12, a tilt determination unit 13, an interpolation coefficient table 14, and an interpolation calculation unit 15. FIG. 8 is a diagram showing a modification of the functional configuration of the image processing apparatus 1 according to the embodiment of the present invention. As shown in FIG. 8, the image processing apparatus 1 further includes a luminance generation unit 11.

まず、図7に示したように、画像処理装置1に対して外部から入力画像が入力される。入力画像の形式は特に限定されない。ここで、画像処理装置1においては入力画像の輝度情報が用いられる。例えば、入力画像の形式が輝度情報を含む形式(例えば、YUV形式など)である場合には、入力画像に含まれる輝度情報が画像処理装置1によって用いられ得るため、図7に示した例のように、画像処理装置1は、輝度生成部11を備えなくてよい。   First, as shown in FIG. 7, an input image is input from the outside to the image processing apparatus 1. The format of the input image is not particularly limited. Here, the image processing apparatus 1 uses the luminance information of the input image. For example, when the format of the input image is a format including luminance information (for example, YUV format), the luminance information included in the input image can be used by the image processing apparatus 1, and therefore the example illustrated in FIG. As described above, the image processing apparatus 1 may not include the luminance generation unit 11.

一方、入力画像の形式が輝度情報を含まない形式(例えば、RGB形式など)である場合には、図8に示した例のように、画像処理装置1が輝度生成部11を備え、輝度生成部11によって入力画像から輝度情報が生成されればよい。輝度情報の生成手法は特に限定されない。なお、以下において特に区別はしないが、例えば、入力画像の形式がRGB形式の場合、方向判定部12と傾斜判定部13の処理は、Red、GreenおよびBrueそれぞれの要素に対して別々になされてもよいし、Red、GreenおよびBrueの要素全体から輝度以外の要素を算出してなされてもよい。   On the other hand, when the format of the input image is a format that does not include luminance information (for example, RGB format), the image processing apparatus 1 includes the luminance generation unit 11 as illustrated in FIG. The luminance information may be generated from the input image by the unit 11. The method for generating luminance information is not particularly limited. Although there is no particular distinction in the following, for example, when the input image format is RGB, the processing of the direction determination unit 12 and the inclination determination unit 13 is performed separately for each element of Red, Green, and Blue. Alternatively, elements other than luminance may be calculated from the entire elements of Red, Green, and Blue.

例えば、かかる判定においては、RGBの中から輪郭または傾斜の強度が一番大きい要素を使用してもよいし、輝度ではなく明度、もしくは別の要素を算出して使用してもよい。RGBを別々の方向に補間すると元画像と色が変わってしまう可能性があるため、基本的にはRGB全て同じ方向に補間するとよい。YUV形式で画像が入力された場合にも、Y(輝度)だけから輪郭または傾斜を判定して、判定結果に基づいてYUV全ての要素を同じ方向に補間してよい。なお、本明細書においては、各要素を同じ方向に補間する場合を主に説明するが、各要素を別々の方向に補間する場合が除外されるわけではない。   For example, in such a determination, an element having the highest contour or inclination strength among RGB may be used, or brightness instead of luminance, or another element may be calculated and used. Interpolating RGB in different directions may change the color of the original image, so basically all RGB should be interpolated in the same direction. Even when an image is input in the YUV format, the contour or the inclination may be determined based on only Y (luminance), and all elements of YUV may be interpolated in the same direction based on the determination result. In this specification, the case where each element is interpolated in the same direction will be mainly described, but the case where each element is interpolated in different directions is not excluded.

方向判定部12は、入力画像に含まれる対象画素における輪郭方向を判定する。輪郭方向の判定手法について特に限定されない。ここでは、輪郭方向の判定手法の一例について説明する。図9Aは、入力画像から輪郭方向の判定に使用されるパラメータf(0)を算出する例を説明するための図である。図9Aには、対象画素Bが中心位置となるように、入力画像の画素A〜A、B〜B、C〜Cが示されている。 The direction determination unit 12 determines the contour direction in the target pixel included in the input image. The method for determining the contour direction is not particularly limited. Here, an example of the contour direction determination method will be described. FIG. 9A is a diagram for explaining an example of calculating a parameter f (0) used for determining a contour direction from an input image. FIG. 9A shows the pixels A 0 to A 4 , B 0 to B 4 , and C 0 to C 4 of the input image so that the target pixel B 2 is at the center position.

なお、以下の説明においては、5行3列に相当する画素A〜A、B〜B、C〜Cが方向判定部12によって使用される例を説明するが、方向判定部12によって使用される画素の範囲は、かかる例に限定されない。また、以下の説明においては、画素に付された符号(例えば、A〜A、B〜B、C〜Cなど)がそのまま画素の輝度として利用される場合がある。 In the following description, an example in which pixels A 0 to A 4 , B 0 to B 4 , and C 0 to C 4 corresponding to 5 rows and 3 columns are used by the direction determination unit 12 will be described. The range of pixels used by the unit 12 is not limited to such an example. In the following description, there are cases where numerals in the pixel (e.g., A 0 ~A 4, B 0 ~B 4, C 0 ~C 4) is directly used as the luminance of the pixels.

ここで、方向判定部12は、式(1)によってh(0)を算出し、式(2)によってv(0)を算出することが可能である。また、方向判定部12は、式(3)によってf(0)を算出することが可能である。なお、ここに示したパラメータh、v、fの算出手法は一例にすぎない。したがって、パラメータh、v、fの算出手法は、かかる例に限定されない。   Here, the direction determination unit 12 can calculate h (0) by Expression (1) and v (0) by Expression (2). Moreover, the direction determination part 12 can calculate f (0) by Formula (3). Note that the calculation method of the parameters h, v, and f shown here is only an example. Therefore, the calculation method of the parameters h, v, and f is not limited to such an example.

また、図9Bは、入力画像を時計回りに15度回転して得られる回転画像から輪郭方向の判定に使用されるパラメータf(1)を算出する例を説明するための図である。図9Bに示すように、方向判定部12は、図9Aに示した入力画像の画素A〜A、B〜B、C〜Cを、対象画素Bを中心として時計回りに15度回転し、回転画像を得る。なお、ここでは、回転角度が15度である場合を例として説明するが、回転角度は特に限定されない。また、回転画像において対象画素B以外の画素は、入力画像に基づいて(例えば、Bi−Linear法により)補間された画素であってよい。 FIG. 9B is a diagram for explaining an example in which the parameter f (1) used for determining the contour direction is calculated from a rotated image obtained by rotating the input image 15 degrees clockwise. As illustrated in FIG. 9B, the direction determination unit 12 rotates the pixels A 0 to A 4 , B 0 to B 4 , and C 0 to C 4 of the input image illustrated in FIG. 9A clockwise with the target pixel B 2 as the center. And rotated 15 degrees to obtain a rotated image. Here, a case where the rotation angle is 15 degrees will be described as an example, but the rotation angle is not particularly limited. The pixel other than the target pixel B 2 in the rotation image based on the input image (e.g., the Bi-Linear method) may be interpolated pixel.

ここで、方向判定部12は、式(4)によってh(1)を算出し、式(5)によってv(1)を算出することが可能である。また、方向判定部12は、式(6)によってf(1)を算出することが可能である。同様にして、方向判定部12は、15度ずつ10回入力画像を回転させ、それぞれの回転画像からパラメータf(2)〜(11)を算出する。このようにして、入力画像を180度し終わるまで回転させ、それぞれの回転画像からパラメータfを算出する。   Here, the direction determination unit 12 can calculate h (1) by Equation (4) and v (1) by Equation (5). Moreover, the direction determination part 12 can calculate f (1) by Formula (6). Similarly, the direction determination unit 12 rotates the input image 10 times by 15 degrees, and calculates the parameters f (2) to (11) from the respective rotated images. In this way, the input image is rotated until 180 degrees are finished, and the parameter f is calculated from each rotated image.

方向判定部12は、入力画像における垂直方向をパラメータfが最小になる場合における回転角度だけ回転させた方向を輪郭方向と判定する。なお、方向判定部12は、無条件に輪郭方向と判定してもよいが、他の条件を追加的に満たす場合に、輪郭方向を判定してもよい。例えば、方向判定部12は、パラメータfが閾値を下回る場合に、入力画像における垂直方向をパラメータfが最小になる場合における回転角度だけ回転させた方向を輪郭方向と判定するが、パラメータfが閾値を下回らない場合には、輪郭なしと判定してもよい。   The direction determination unit 12 determines a direction obtained by rotating the vertical direction in the input image by the rotation angle when the parameter f is minimum as the contour direction. The direction determination unit 12 may determine the contour direction unconditionally, but may determine the contour direction when other conditions are additionally satisfied. For example, when the parameter f is less than the threshold, the direction determination unit 12 determines the direction rotated by the rotation angle when the parameter f is the minimum as the contour direction as the contour direction. If it is not less than, it may be determined that there is no contour.

図10は、輪郭方向に垂直な方向について説明するための図である。図10には、入力画像における垂直方向をパラメータfが最小になる場合における回転角度15度だけ回転させた方向が輪郭方向と判定された例が示されている。また、図10には、輪郭方向に垂直な方向が示されている。ここで、傾斜判定部13は、拡大画像のうち対象画素の近傍位置における輪郭方向に垂直な方向への傾斜種別を入力画像に基づいて判定する。傾斜の判定手法についても特に限定されない。   FIG. 10 is a diagram for explaining a direction perpendicular to the contour direction. FIG. 10 shows an example in which the direction in which the vertical direction in the input image is rotated by a rotation angle of 15 degrees when the parameter f is minimum is determined as the contour direction. FIG. 10 shows a direction perpendicular to the contour direction. Here, the inclination determination unit 13 determines, based on the input image, the inclination type in the direction perpendicular to the contour direction at the position near the target pixel in the enlarged image. The method for determining the inclination is not particularly limited.

図10には、拡大画像のうち(上記の対象画素Bに相当し得る)対象画素Dの近傍位置B、E、F、Gが示されている。また、図10には、近傍位置Bを基準とした輪郭方向に垂直な方向への隣接位置A、Cが示されている。図10に示すように、隣接位置A、Cは、近傍位置Bから輪郭方向に垂直な方向に入力画像における1画素分異なった向きに離れた位置であってよい。また、隣接位置A、Cにおける画素は、入力画像に基づいて(例えば、Bi−Linear法により)補間された画素であってよい。 FIG 10, (which may correspond to the target pixel B 2 above) of the expanded image vicinity B of the target pixel D, E, F, are shown G is. FIG. 10 also shows adjacent positions A and C in a direction perpendicular to the contour direction with the vicinity position B as a reference. As shown in FIG. 10, the adjacent positions A and C may be positions separated from the neighboring position B in a direction different from that of the input image by one pixel in the direction perpendicular to the contour direction. Further, the pixels at the adjacent positions A and C may be pixels interpolated based on the input image (for example, by the Bi-Linear method).

例えば、傾斜判定部13は、隣接位置Aおよび隣接位置Cそれぞれと近傍位置Bとの輝度値の差分に基づいて、傾斜種別を判定することが可能である。このようにして傾斜種別が判定されれば、より簡易な手法により傾斜種別が判定され得る。以下では、かかる傾斜種別の判定の一例について説明する。図11A〜図11Dは、輪郭方向に垂直な方向への第1〜第4の傾斜種別を示す図である。   For example, the inclination determination unit 13 can determine the inclination type based on the difference in luminance value between the adjacent position A and the adjacent position C and the adjacent position B. If the inclination type is determined in this way, the inclination type can be determined by a simpler method. Hereinafter, an example of the determination of the inclination type will be described. 11A to 11D are diagrams illustrating first to fourth inclination types in a direction perpendicular to the contour direction.

図11Aに示すように、傾斜判定部13は、式(7)〜式(9)が満たされる場合には(傾斜が第1の傾斜種別に該当する場合には)、隣接位置Cから近傍位置Bへの傾斜に対する隣接位置Aから近傍位置Bへの傾斜の度合いがある程度を超えて緩やかであると判定する。一方、図11Bに示すように、傾斜判定部13は、式(10)〜式(12)が満たされる場合には(傾斜が第2の傾斜種別に該当する場合には)、隣接位置Cから近傍位置Bへの傾斜に対する隣接位置Aから近傍位置Bへの傾斜の度合いがある程度を超えて急であると判定する。   As illustrated in FIG. 11A, the inclination determination unit 13 determines that the position from the adjacent position C to the vicinity position when the expressions (7) to (9) are satisfied (when the inclination corresponds to the first inclination type). It is determined that the degree of inclination from the adjacent position A to the neighboring position B with respect to the inclination to B is gentle beyond a certain level. On the other hand, as illustrated in FIG. 11B, the inclination determination unit 13 starts from the adjacent position C when the expressions (10) to (12) are satisfied (when the inclination corresponds to the second inclination type). It is determined that the degree of inclination from the adjacent position A to the neighboring position B with respect to the inclination to the neighboring position B exceeds a certain level and is steep.

図11Cに示すように、傾斜判定部13は、式(13)〜式(15)が満たされる場合には(傾斜が第3の傾斜種別に該当する場合には)、隣接位置Cから近傍位置Bへの傾斜に対する隣接位置Aから近傍位置Bへの傾斜の度合いがある程度を超えて緩やかであると判定する。一方、図11Dに示すように、傾斜判定部13は、式(16)〜式(18)が満たされる場合には(傾斜が第4の傾斜種別に該当する場合には)、隣接位置Cから近傍位置Bへの傾斜に対する隣接位置Aから近傍位置Bへの傾斜の度合いがある程度を超えて急であると判定する。   As illustrated in FIG. 11C, the inclination determination unit 13 determines that the position from the adjacent position C to the vicinity position when the expressions (13) to (15) are satisfied (when the inclination corresponds to the third inclination type). It is determined that the degree of inclination from the adjacent position A to the neighboring position B with respect to the inclination to B is gentle beyond a certain level. On the other hand, as illustrated in FIG. 11D, the inclination determination unit 13 starts from the adjacent position C when the expressions (16) to (18) are satisfied (when the inclination corresponds to the fourth inclination type). It is determined that the degree of inclination from the adjacent position A to the neighboring position B with respect to the inclination to the neighboring position B exceeds a certain level and is steep.

なお、傾斜判定部13によって近傍位置Bにおける輪郭方向に垂直な方向への傾斜種別が判定され得ない場合もあり得る(傾斜判定部13によって傾斜が第1〜第4の傾斜種別のいずれにも該当しないと判定される場合もあり得る)。続いて、補間演算部15によって近傍位置Bの画素に対する補間処理がなされる。ここで、図12Aは、傾斜が第1の傾斜種別または第3の傾斜種別に該当する場合における補間の例を説明するための図である。   In some cases, the inclination determination unit 13 cannot determine the inclination type in the direction perpendicular to the contour direction in the vicinity position B (the inclination determination part 13 determines that the inclination is any of the first to fourth inclination types). It may be determined that it does not apply). Subsequently, the interpolation calculation unit 15 performs an interpolation process on the pixel at the neighboring position B. Here, FIG. 12A is a diagram for explaining an example of interpolation in a case where the slope corresponds to the first slope type or the third slope type.

例えば、補間演算部15は、輪郭方向に垂直な方向のうち傾斜種別に応じた向きに近傍位置Bから所定の長さH離れた入力画像における位置に基づいて拡大画像における近傍位置Bの画素に対する補間処理を行えばよい。より具体的には、傾斜が第1の傾斜種別または第3の傾斜種別に該当する場合は、補間演算部15は、近傍位置Bからより傾斜が緩やかな隣接位置Aへの向きに所定の長さH離れた入力画像における位置B’に基づいて近傍位置Bの画素に対する補間を行えばよい。そうすれば、輪郭付近に生じるぼけの解消度合いがより確実に向上されることが期待される。   For example, the interpolation calculation unit 15 applies to the pixel at the neighboring position B in the enlarged image based on the position in the input image that is a predetermined length H away from the neighboring position B in the direction according to the inclination type in the direction perpendicular to the contour direction. Interpolation processing may be performed. More specifically, when the inclination corresponds to the first inclination type or the third inclination type, the interpolation calculation unit 15 sets a predetermined length in a direction from the neighboring position B to the adjacent position A where the inclination is gentler. Interpolation with respect to the pixel at the neighboring position B may be performed based on the position B ′ in the input image separated by H. By doing so, it is expected that the degree of elimination of blur occurring near the contour is more reliably improved.

一方、図12Bは、輪郭方向に垂直な方向への傾斜が第2の傾斜種別または第4の傾斜種別に該当する場合における補間の例を説明するための図である。例えば、傾斜が第2の傾斜種別または第4の傾斜種別に該当する場合は、補間演算部15は、近傍位置Bからより傾斜が緩やかな隣接位置Cへの向きに所定の長さH離れた入力画像における位置B’に基づいて近傍位置Bの画素に対する補間を行えばよい。そうすれば、輪郭付近に生じるぼけの解消度合いがより確実に向上されることが期待される。   On the other hand, FIG. 12B is a diagram for explaining an example of interpolation when the inclination in the direction perpendicular to the contour direction corresponds to the second inclination type or the fourth inclination type. For example, when the inclination corresponds to the second inclination type or the fourth inclination type, the interpolation calculation unit 15 is separated by a predetermined length H in the direction from the neighboring position B to the adjacent position C where the inclination is gentler. What is necessary is just to interpolate with respect to the pixel of the vicinity position B based on position B 'in an input image. By doing so, it is expected that the degree of elimination of blur occurring near the contour is more reliably improved.

なお、所定の長さHは特に限定されないが、拡大画像における1画素分離れた画素間の距離以上であり、かつ、2画素分離れた画素間の距離以下の長さであるとよい。所定の長さHがこの程度の長さに設定されれば、輪郭付近に生じるぼけの解消度合いがより確実に向上されることが期待される。   The predetermined length H is not particularly limited, but may be a length that is greater than or equal to the distance between pixels separated by one pixel in the enlarged image and less than or equal to the distance between pixels separated by two pixels. If the predetermined length H is set to such a length, it is expected that the degree of elimination of blur occurring in the vicinity of the contour is more reliably improved.

具体的には、補間演算部15は、近傍位置Bから所定の長さH離れた位置B’に対応する画素データを取得し、取得した画素データに基づいて補間処理を行えばよい。例えば、補間に必要な補間係数は、補間係数テーブル14から取得されてよい。すなわち、補間演算部15は、補間係数テーブル14から補間係数を取得し、取得した補間係数および画素データに基づいて補間処理を行えばよい。補間手法は特に限定されないが、補間手法としてはLanczos法が用いられてよい。   Specifically, the interpolation calculation unit 15 may acquire pixel data corresponding to a position B ′ that is a predetermined length H away from the neighboring position B, and perform interpolation processing based on the acquired pixel data. For example, an interpolation coefficient necessary for interpolation may be acquired from the interpolation coefficient table 14. That is, the interpolation calculation unit 15 may acquire an interpolation coefficient from the interpolation coefficient table 14 and perform an interpolation process based on the acquired interpolation coefficient and pixel data. The interpolation method is not particularly limited, but the Lanczos method may be used as the interpolation method.

例えば、補間手法としてLanczos−2法が用いられる場合、補間において参照される画素データは位置B’を中心画素とし、中心画素から距離が2画素以内の画素それぞれの画素値であってよい。また、補間手法としてLanczos−3法が用いられる場合、補間において参照される画素データは位置B’を中心画素とし、中心画素から距離が3画素以内の画素それぞれの画素値であってよい。かかる場合、補間演算部15は、各画素値と各画素値に対応する補間係数との積和演算の結果によって補間してよい。   For example, when the Lanczos-2 method is used as the interpolation method, the pixel data referred to in the interpolation may be the pixel value of each pixel having the position B ′ as the center pixel and the distance within two pixels from the center pixel. Further, when the Lanczos-3 method is used as an interpolation method, the pixel data referred to in the interpolation may be the pixel value of each pixel having a position B ′ as the central pixel and a distance within 3 pixels from the central pixel. In such a case, the interpolation calculation unit 15 may perform interpolation based on the result of product-sum calculation between each pixel value and an interpolation coefficient corresponding to each pixel value.

なお、上記したように、傾斜判定部13によって近傍位置Bにおける輪郭方向に垂直な方向への傾斜種別が判定され得ない場合もあり得る(傾斜判定部13によって傾斜が第1〜第4の傾斜種別のいずれにも該当しないと判定される場合もあり得る)。かかる場合には、補間演算部15は、近傍位置Bに対応する画素データを取得し、取得した画素データに基づいて補間処理を行えばよい。   As described above, there may be a case where the inclination determination unit 13 cannot determine the type of inclination in the direction perpendicular to the contour direction at the vicinity position B (the inclination determination unit 13 uses the first to fourth inclinations). It may be determined that it does not correspond to any of the types). In such a case, the interpolation calculation unit 15 may acquire pixel data corresponding to the neighboring position B and perform interpolation processing based on the acquired pixel data.

例えば、補間に必要な補間係数は、補間係数テーブル14から取得されてよい。すなわち、補間演算部15は、補間係数テーブル14から補間係数を取得し、取得した補間係数および画素データに基づいて補間処理を行えばよい。   For example, an interpolation coefficient necessary for interpolation may be acquired from the interpolation coefficient table 14. That is, the interpolation calculation unit 15 may acquire an interpolation coefficient from the interpolation coefficient table 14 and perform an interpolation process based on the acquired interpolation coefficient and pixel data.

以上に説明したように、本発明の実施形態によれば、少なくとも方向判定部12と傾斜判定部13と補間演算部15とを備える画像処理装置1が提供される。方向判定部12は、入力画像に含まれる対象画素における輪郭方向を判定する。また、傾斜判定部13は、拡大画像のうち対象画素の近傍位置における輪郭方向に垂直な方向への傾斜種別を入力画像に基づいて判定する。また、補間演算部15は、輪郭方向に垂直な方向のうち傾斜種別に応じた向きに近傍位置から所定の長さ離れた入力画像における位置に基づいて拡大画像における近傍位置の画素に対する補間処理を行う。   As described above, according to the embodiment of the present invention, the image processing apparatus 1 including at least the direction determination unit 12, the inclination determination unit 13, and the interpolation calculation unit 15 is provided. The direction determination unit 12 determines the contour direction in the target pixel included in the input image. Moreover, the inclination determination part 13 determines the inclination classification to the direction perpendicular | vertical to the outline direction in the vicinity position of a target pixel among enlarged images based on an input image. In addition, the interpolation calculation unit 15 performs an interpolation process on the pixel at the neighboring position in the enlarged image based on the position in the input image that is a predetermined length away from the neighboring position in the direction according to the inclination type in the direction perpendicular to the contour direction. Do.

かかる構成によれば、オーバーシュートまたはアンダーシュートを低減しつつ、輪郭付近に生じるぼけの解消度合いを向上させることが可能となる。   According to such a configuration, it is possible to improve the degree of elimination of blur occurring near the contour while reducing overshoot or undershoot.

また、本発明の実施形態によれば、入力画像に含まれる対象画素における輪郭方向を判定するステップと、拡大画像のうち対象画素の近傍位置における輪郭方向に垂直な方向への傾斜種別を入力画像に基づいて判定するステップと、輪郭方向に垂直な方向のうち傾斜種別に応じた向きに近傍位置から所定の長さ離れた入力画像における位置に基づいて拡大画像における近傍位置の画素に対する補間処理を行うステップと、を含む、画像処理方法が提供される。   Further, according to the embodiment of the present invention, the step of determining the contour direction in the target pixel included in the input image, and the inclination type in the direction perpendicular to the contour direction in the vicinity of the target pixel in the enlarged image are input image. And a process of interpolating the pixels at the neighboring position in the enlarged image based on the position in the input image that is a predetermined distance away from the neighboring position in the direction corresponding to the inclination type in the direction perpendicular to the contour direction. Performing an image processing method.

かかる方法によれば、オーバーシュートまたはアンダーシュートを低減しつつ、輪郭付近に生じるぼけの解消度合いを向上させることが可能となる。   According to such a method, it is possible to improve the degree of elimination of blur occurring near the contour while reducing overshoot or undershoot.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

本発明の実施形態においては、入力画像に含まれる対象画素に対する画像処理装置1の動作を説明したが、画像処理装置1の動作の対象となる対象画素は1つであってもよいし、複数であってもよい。例えば、入力画像に含まれる全画素に対して画像処理装置1の動作がなされてもよいし、入力画像に含まれる一部の領域に対して画像処理装置1の動作がなされてもよい。   In the embodiment of the present invention, the operation of the image processing apparatus 1 with respect to the target pixel included in the input image has been described. However, the target pixel that is the target of the operation of the image processing apparatus 1 may be one or a plurality of target pixels. It may be. For example, the operation of the image processing apparatus 1 may be performed on all the pixels included in the input image, or the operation of the image processing apparatus 1 may be performed on a partial area included in the input image.

コンピュータに内蔵されるCPU(Central Processing Unit)、ROM(Read Only Memory)およびRAM(Random Access Memory)などのハードウェアを、上記した画像処理装置1が有する機能と同等の機能を発揮させるためのプログラムも提供され得る。また、かかるプログラムが記録された、コンピュータに読み取り可能な記録媒体も提供され得る。   A program for causing hardware such as a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) built in the computer to exhibit functions equivalent to the functions of the image processing apparatus 1 described above. Can also be provided. A computer-readable recording medium in which such a program is recorded can also be provided.

1 画像処理装置
11 輝度生成部
12 方向判定部
13 傾斜判定部
14 補間係数テーブル
15 補間演算部
A 隣接位置
B2(D) 対象画素
B 近傍位置
C 隣接位置
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 11 Luminance generation part 12 Direction determination part 13 Inclination determination part 14 Interpolation coefficient table 15 Interpolation calculation part A Adjacent position B2 (D) Target pixel B Neighbor position C Adjacent position

Claims (7)

入力画像に含まれる対象画素における輪郭方向を判定する方向判定部と、
拡大画像のうち前記対象画素の近傍位置における前記輪郭方向に垂直な方向への傾斜種別を前記入力画像に基づいて判定する傾斜判定部と、
前記輪郭方向に垂直な方向のうち前記傾斜種別に応じた向きに前記近傍位置から所定の長さ離れた前記入力画像における位置に基づいて前記拡大画像における前記近傍位置の画素に対する補間処理を行う補間演算部と、
を備える、画像処理装置。
A direction determination unit that determines a contour direction in a target pixel included in the input image;
A tilt determination unit that determines a tilt type in a direction perpendicular to the contour direction at a position near the target pixel in the enlarged image based on the input image;
Interpolation for performing interpolation processing on pixels at the neighboring position in the enlarged image based on a position in the input image that is a predetermined length away from the neighboring position in a direction corresponding to the inclination type in a direction perpendicular to the contour direction An arithmetic unit;
An image processing apparatus comprising:
前記補間演算部は、より傾斜が緩やかな向きに前記近傍位置から前記所定の長さ離れた前記入力画像における位置に基づいて前記補間処理を行う、
請求項1に記載の画像処理装置。
The interpolation calculation unit performs the interpolation process based on a position in the input image that is away from the vicinity position by the predetermined length in a direction with a gentler slope.
The image processing apparatus according to claim 1.
前記補間演算部は、より傾斜が緩やかな向きに前記近傍位置から前記所定の長さ離れた前記入力画像における位置に対応する画素データを取得し、前記画素データに基づいて前記補間処理を行う、
請求項2に記載の画像処理装置。
The interpolation calculation unit obtains pixel data corresponding to a position in the input image that is away from the neighboring position in the direction with a gentler inclination by the predetermined length, and performs the interpolation processing based on the pixel data.
The image processing apparatus according to claim 2.
前記補間演算部は、補間係数を取得し、前記補間係数および前記画素データに基づいて前記補間処理を行う、
請求項3に記載の画像処理装置。
The interpolation calculation unit obtains an interpolation coefficient, and performs the interpolation processing based on the interpolation coefficient and the pixel data.
The image processing apparatus according to claim 3.
前記所定の長さは、前記拡大画像における1画素分離れた画素間の距離以上であり、かつ、2画素分離れた画素間の距離以下である、
請求項1に記載の画像処理装置。
The predetermined length is not less than the distance between pixels separated by one pixel in the enlarged image and not more than the distance between pixels separated by two pixels.
The image processing apparatus according to claim 1.
前記傾斜判定部は、前記近傍位置を基準とした前記輪郭方向に垂直な方向への第1の隣接位置および第2の隣接位置それぞれと前記近傍位置との輝度値の差分に基づいて、傾斜種別を判定する、
請求項1に記載の画像処理装置。
The inclination determination unit is configured to determine an inclination type based on a difference in luminance value between the first adjacent position and the second adjacent position in a direction perpendicular to the contour direction with respect to the vicinity position and the vicinity position. Determine
The image processing apparatus according to claim 1.
入力画像に含まれる対象画素における輪郭方向を判定するステップと、
拡大画像のうち前記対象画素の近傍位置における前記輪郭方向に垂直な方向への傾斜種別を前記入力画像に基づいて判定するステップと、
前記輪郭方向に垂直な方向のうち前記傾斜種別に応じた向きに前記近傍位置から所定の長さ離れた前記入力画像における位置に基づいて前記拡大画像における前記近傍位置の画素に対する補間処理を行うステップと、
を含む、画像処理方法。
Determining a contour direction in a target pixel included in the input image;
Determining an inclination type in a direction perpendicular to the contour direction at a position near the target pixel in the enlarged image based on the input image;
A step of performing an interpolation process on the pixel at the neighboring position in the enlarged image based on a position in the input image that is a predetermined distance away from the neighboring position in a direction corresponding to the inclination type in a direction perpendicular to the contour direction. When,
Including an image processing method.
JP2013248711A 2013-11-29 2013-11-29 Image processor and image processing method Pending JP2015106318A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013248711A JP2015106318A (en) 2013-11-29 2013-11-29 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013248711A JP2015106318A (en) 2013-11-29 2013-11-29 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2015106318A true JP2015106318A (en) 2015-06-08

Family

ID=53436366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013248711A Pending JP2015106318A (en) 2013-11-29 2013-11-29 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2015106318A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108237800A (en) * 2016-12-26 2018-07-03 卡西欧计算机株式会社 Stereo-picture forms system, computer-readable recording medium and D structure object
JP2020001392A (en) * 2016-12-26 2020-01-09 カシオ計算機株式会社 Stereoscopic image formation system, program, stereoscopic image and manufacturing method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108237800A (en) * 2016-12-26 2018-07-03 卡西欧计算机株式会社 Stereo-picture forms system, computer-readable recording medium and D structure object
JP2018103443A (en) * 2016-12-26 2018-07-05 カシオ計算機株式会社 Stereoscopic image formation system, program, stereoscopic image and manufacturing method thereof
US10516805B2 (en) 2016-12-26 2019-12-24 Casio Computer Co., Ltd. Three-dimensional image forming with adjustment of grayscale image for thermally expanding sheet to surface height according to outline density
JP2020001392A (en) * 2016-12-26 2020-01-09 カシオ計算機株式会社 Stereoscopic image formation system, program, stereoscopic image and manufacturing method thereof

Similar Documents

Publication Publication Date Title
KR102440284B1 (en) Image processing device, image processing method and program
JP6623832B2 (en) Image correction apparatus, image correction method, and computer program for image correction
JP2010009381A (en) Pixel interpolation device, pixel interpolation method, and pixel interpolation program
US11854157B2 (en) Edge-aware upscaling for improved screen content quality
JP2006053887A (en) Interpolation method for resolution conversion, image processor, image display device, program, and recording medium
JP6485068B2 (en) Image processing method and image processing apparatus
JP4507279B2 (en) Image processing apparatus, image processing method, and program thereof
US20170277975A1 (en) Edge detecting apparatus and edge detecting method
JP2008033592A (en) Image processing apparatus, image processing method, and program
JP2015106318A (en) Image processor and image processing method
JP6583008B2 (en) Image correction apparatus, image correction method, and computer program for image correction
KR102470242B1 (en) Image processing device, image processing method and program
JP6135937B2 (en) Image processing method and image processing apparatus
JP4813787B2 (en) Image processing apparatus and method
JP4827137B2 (en) Resolution conversion processing method, image processing apparatus, image display apparatus, and program
JP2010157877A (en) Image processing apparatus, image processing method and computer program
JP4265363B2 (en) Image processing device
WO2014034242A1 (en) Image processing device, and method and program for image processing
JP2005293265A (en) Image processing device, and method
JP4590973B2 (en) Image processing apparatus and image processing method
TWI389571B (en) Image processing method and image processing apparatus
JP2006350413A (en) Image processor, edge detecting device, image processing method, edge detecting method, and its program
JP2006252108A (en) Image processing device, image processing method, and its program
JP5299189B2 (en) Image processing apparatus, image processing method, and image processing program
JP5013243B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the same