JP6469397B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6469397B2
JP6469397B2 JP2014191225A JP2014191225A JP6469397B2 JP 6469397 B2 JP6469397 B2 JP 6469397B2 JP 2014191225 A JP2014191225 A JP 2014191225A JP 2014191225 A JP2014191225 A JP 2014191225A JP 6469397 B2 JP6469397 B2 JP 6469397B2
Authority
JP
Japan
Prior art keywords
edge
interpolation
target pixel
target
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014191225A
Other languages
Japanese (ja)
Other versions
JP2016062429A (en
Inventor
武生 松本
武生 松本
輝彦 上林
輝彦 上林
康司 大西
康司 大西
知之 藤本
知之 藤本
山本 大輔
大輔 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2014191225A priority Critical patent/JP6469397B2/en
Priority to US14/850,174 priority patent/US9524538B2/en
Publication of JP2016062429A publication Critical patent/JP2016062429A/en
Application granted granted Critical
Publication of JP6469397B2 publication Critical patent/JP6469397B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像のサイズを変更する技術に関する。   The present invention relates to a technique for changing the size of an image.

従来より、画像のサイズを変更する(拡大または縮小する)際に、変更後の画像の各画素の値を、変更前の画像の画素を用いた補間により導出する補間処理が行われている。このような補間処理の手法としては、例えば、バイリニア、バイキュービックなどの手法が従来より知られている。   Conventionally, when the image size is changed (enlarged or reduced), an interpolation process for deriving the value of each pixel of the image after the change by interpolation using the pixel of the image before the change has been performed. As such interpolation processing methods, for example, methods such as bilinear and bicubic are conventionally known.

なお、本発明に関連する技術を開示する先行技術文献として特許文献1がある。   Note that there is Patent Document 1 as a prior art document disclosing a technique related to the present invention.

特開2013−126134号公報JP2013-126134A

上記のような従来の補間手法を用いた補間処理を行って画像のサイズを変更した場合においては、変更後の画像中における像の輪郭(エッジ)において、輪郭の線が階段状になるジャギーと呼ばれる現象が発生する。ジャギーは、一般に、輪郭の線が水平方向に対して傾斜している部分に生じる。   In the case where the image size is changed by performing the interpolation process using the conventional interpolation method as described above, in the contour (edge) of the image in the image after the change, The phenomenon called occurs. Jaggy generally occurs where the contour line is inclined with respect to the horizontal direction.

このようなジャギーは、画像中における像の輪郭を毀損し、画像の美しさを損なうものとなる。このため、画像のサイズを変更する場合に生じるジャギーを低減する技術が望まれていた。   Such jaggy damages the outline of the image in the image and impairs the beauty of the image. Therefore, a technique for reducing jaggies that occur when changing the size of an image has been desired.

本発明は、上記課題に鑑みてなされたものであり、ジャギーを低減できる技術を提供することを目的とする。   This invention is made | formed in view of the said subject, and it aims at providing the technique which can reduce jaggy.

上記課題を解決するため、請求項1の発明は、入力画像のサイズを変更して出力画像を生成する画像処理装置であって、前記入力画像の水平方向及び垂直方向のいずれかを配列方向とする複数の入力画素の値を用いた補間処理を行い、前記出力画像の対象画素の位置を通り水平方向に対して傾斜する傾斜補間線上の複数の注目点の値をそれぞれ導出する第1補間手段と、前記傾斜補間線上の前記複数の注目点の値を用いた補間処理を行い、前記対象画素の値を導出する第2補間手段と、前記対象画素に係る対象エッジの情報を導出するエッジ情報導出手段と、を備え、前記第1補間手段は、前記対象エッジの水平方向に対する角度に応じた補間処理を行い、前記エッジ情報導出手段は、前記対象画素の位置に対応する入力画像の参照領域を特定し、特定した参照領域の中心を前記対象画素の周辺位置に決定し、複数の周辺位置における周辺エッジと、前記対象画素の位置における自位置エッジとに基づいて、前記対象エッジの情報を導出する。
In order to solve the above-mentioned problem, the invention of claim 1 is an image processing apparatus for generating an output image by changing the size of an input image, wherein one of a horizontal direction and a vertical direction of the input image is defined as an array direction. First interpolation means for performing interpolation processing using values of a plurality of input pixels and deriving values of a plurality of points of interest on an inclined interpolation line that is inclined with respect to a horizontal direction through the position of the target pixel of the output image Second interpolation means for deriving the value of the target pixel by performing interpolation processing using the values of the plurality of points of interest on the inclined interpolation line, and edge information for deriving information on the target edge related to the target pixel Deriving means, wherein the first interpolation means performs interpolation processing according to an angle of the target edge with respect to a horizontal direction, and the edge information deriving means is a reference area of the input image corresponding to the position of the target pixel. Special Then, the center of the identified reference region is determined as the peripheral position of the target pixel, and information on the target edge is derived based on the peripheral edges at a plurality of peripheral positions and the local position edge at the position of the target pixel. .

また、請求項の発明は、請求項に記載の画像処理装置において、前記第1補間手段は、前記対象エッジの水平方向に対する角度に応じて、前記補間処理に用いる前記複数の入力画素の配列方向を水平方向及び垂直方向のいずれとするかを選択する。
Further, the invention of claim 2, the image processing apparatus according to claim 1, wherein the first interpolation means, in accordance with the angle with respect to the horizontal direction of the target edge, the plurality of input pixels to be used for the interpolation processing Select either the horizontal direction or the vertical direction as the arrangement direction.

また、請求項の発明は、請求項に記載の画像処理装置において、前記対象エッジの水平方向に対する角度をθとした場合、前記第1補間手段は、45°<θ<135°のときは、前記補間処理に用いる前記複数の入力画素の配列方向を垂直方向とし、0°<θ<45°、または、135°<θ<180°のときは、前記補間処理に用いる前記複数の入力画素の配列方向を水平方向とする。
According to a third aspect of the present invention, in the image processing apparatus according to the second aspect, when the angle of the target edge with respect to the horizontal direction is θ, the first interpolation means is 45 ° <θ <135 °. The vertical direction is the arrangement direction of the plurality of input pixels used for the interpolation processing, and when 0 ° <θ <45 ° or 135 ° <θ <180 °, the plurality of inputs used for the interpolation processing The pixel arrangement direction is defined as the horizontal direction.

また、請求項の発明は、請求項に記載の画像処理装置において、前記周辺位置は、最小の矩形を形成する4つの入力画素の中心である。
Further, the invention of claim 4, the image processing apparatus according to claim 1, wherein the peripheral position is the center of the four input pixels that form the minimum rectangular.

また、請求項の発明は、請求項1ないし4のいずれかに記載の画像処理装置において、前記エッジ情報導出手段は、前記複数の周辺位置におけるエッジ、及び、前記対象画素の位置におけるエッジのうち強度が最大のエッジを、前記対象エッジとして選択する。
In addition, according to a fifth aspect of the present invention, in the image processing apparatus according to any one of the first to fourth aspects, the edge information deriving means includes edges of the plurality of peripheral positions and edges of the target pixel. Of these, the edge having the maximum strength is selected as the target edge.

また、請求項の発明は、請求項に記載の画像処理装置において、前記複数の周辺位置のいずれかにおけるエッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合は、当該エッジの強度を弱める弱化手段、をさらに備えている。
The invention of claim 6 is the image processing apparatus according to claim 5 , wherein when the extending direction of the edge at any of the plurality of peripheral positions is substantially along either the horizontal direction or the vertical direction, A weakening means for weakening the strength of the edge is further provided.

また、請求項の発明は、請求項に記載の画像処理装置において、前記複数の周辺位置それぞれの前記対象画素の位置からの距離に応じて、前記複数の周辺位置それぞれにおけるエッジの強度を弱める弱化手段、をさらに備えている。
According to a seventh aspect of the present invention, in the image processing device according to the fifth aspect , the intensity of the edge at each of the plurality of peripheral positions is determined according to the distance from the position of the target pixel at each of the plurality of peripheral positions. It further has a weakening means for weakening.

また、請求項の発明は、請求項ないしのいずれかに記載の画像処理装置において、前記対象画素の位置におけるエッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合は、該エッジの強度を弱める弱化手段、をさらに備えている。
The invention according to claim 8 is the image processing apparatus according to any one of claims 5 to 7 , wherein the extending direction of the edge at the position of the target pixel is substantially along either the horizontal direction or the vertical direction. Further includes weakening means for weakening the strength of the edge.

また、請求項の発明は、請求項ないしのいずれかに記載の画像処理装置において、前記対象画素の位置におけるエッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合は、前記第1及び第2補間手段に代わり、水平方向及び垂直方向に沿った補間処理を行い前記対象画素の値を導出する第3補間手段、をさらに備えている。
The invention according to claim 9 is the image processing apparatus according to any one of claims 1 to 7 , wherein the extending direction of the edge at the position of the target pixel is substantially along either the horizontal direction or the vertical direction. Is further provided with third interpolation means for deriving the value of the target pixel by performing interpolation processing along the horizontal direction and the vertical direction instead of the first and second interpolation means.

また、請求項10の発明は、入力画像のサイズを変更して出力画像を生成する画像処理方法であって、(a)前記入力画像の水平方向及び垂直方向のいずれかを配列方向とする複数の入力画素の値を用いた補間処理を行い、前記出力画像の対象画素の位置を通り水平方向に対して傾斜する傾斜補間線上の複数の注目点の値をそれぞれ導出する工程と、(b)前記傾斜補間線上の前記複数の注目点の値を用いた補間処理を行い、前記対象画素の値を導出する工程と、(c)前記対象画素に係る対象エッジの情報を導出する工程と、を備え、前記(a)の工程は、前記対象エッジの水平方向に対する角度に応じた補間処理を行い、前記(c)の工程は、前記対象画素の位置に対応する入力画像の参照領域を特定し、特定した参照領域の中心を前記対象画素の周辺位置に決定し、複数の周辺位置における周辺エッジと、前記対象画素の位置における自位置エッジとに基づいて、前記対象エッジの情報を導出する
The invention of claim 10 is an image processing method for generating an output image by changing the size of an input image, wherein (a) a plurality of input images are arranged in a horizontal direction or a vertical direction. (B) deriving values of a plurality of points of interest on an inclined interpolation line that is inclined with respect to the horizontal direction through the position of the target pixel of the output image, A step of performing an interpolation process using values of the plurality of points of interest on the inclined interpolation line, and deriving a value of the target pixel; and (c) deriving information of a target edge related to the target pixel. The step (a) performs an interpolation process according to the angle of the target edge with respect to the horizontal direction, and the step (c) specifies a reference region of the input image corresponding to the position of the target pixel. The center of the identified reference area The peripheral position of the target pixel is determined, and information on the target edge is derived based on the peripheral edges at a plurality of peripheral positions and the own position edge at the position of the target pixel .

また、請求項11の発明は、入力画像のサイズを変更して出力画像を生成する画像処理装置に含まれるコンピュータによって実行可能なプログラムであって、前記コンピュータに、(a)前記入力画像の水平方向及び垂直方向のいずれかを配列方向とする複数の入力画素の値を用いた補間処理を行い、前記出力画像の対象画素の位置を通り水平方向に対して傾斜する傾斜補間線上の複数の注目点の値をそれぞれ導出する工程と、(b)前記傾斜補間線上の前記複数の注目点の値を用いた補間処理を行い、前記対象画素の値を導出する工程と、(c)前記対象画素に係る対象エッジの情報を導出する工程と、を実行させ、前記(a)の工程は、前記対象エッジの水平方向に対する角度に応じた補間処理を行い、前記(c)の工程は、前記対象画素の位置に対応する入力画像の参照領域を特定し、特定した参照領域の中心を前記対象画素の周辺位置に決定し、複数の周辺位置における周辺エッジと、前記対象画素の位置における自位置エッジとに基づいて、前記対象エッジの情報を導出する
The invention of claim 11 is a program that can be executed by a computer included in an image processing apparatus that generates an output image by changing the size of the input image. Interpolation processing using values of a plurality of input pixels having either the direction or the vertical direction as an array direction, and a plurality of attentions on an inclined interpolation line that is inclined with respect to the horizontal direction through the position of the target pixel of the output image (B) deriving the value of the target pixel by performing interpolation processing using the values of the plurality of points of interest on the inclined interpolation line; and (c) the target pixel. A step of deriving information on the target edge according to the method, wherein the step (a) performs an interpolation process according to an angle of the target edge with respect to a horizontal direction, and the step (c) Picture A reference area of the input image corresponding to the prime position is identified, the center of the identified reference area is determined as a peripheral position of the target pixel, a peripheral edge at a plurality of peripheral positions, and a self-position edge at the position of the target pixel Based on the above, information on the target edge is derived .

請求項1ないし11の発明によれば、傾斜補間線上の複数の注目点の値を用いた補間処理により出力画像の対象画素の値を導出するため、出力画像におけるジャギーを低減できる。
According to the first to eleventh aspects of the present invention, since the value of the target pixel of the output image is derived by the interpolation process using the values of the plurality of points of interest on the slope interpolation line, jaggy in the output image can be reduced.

また、特に請求項の発明によれば、対象エッジの角度に応じた補間処理を行うため、出力画像におけるジャギーを低減できる。
Further, according to the first aspect of the invention, since the interpolation process is performed according to the angle of the target edge, jaggies in the output image can be reduced.

また、特に請求項及びの発明によれば、対象エッジの角度に応じて補間処理に用いる複数の入力画素の配列方向が選択されるため、出力画像におけるジャギーを効果的に低減できる。
In particular, according to the second and third aspects of the invention, since the arrangement direction of the plurality of input pixels used for the interpolation processing is selected according to the angle of the target edge, jaggy in the output image can be effectively reduced.

また、特に請求項の発明によれば、対象画素の位置におけるエッジのみならず、対象画素の周辺の複数の周辺位置におけるエッジも考慮して、対象画素に係る対象エッジの情報を適切に導出できる。
In particular, according to the first aspect of the invention, not only the edge at the position of the target pixel but also the edges at a plurality of peripheral positions around the target pixel are taken into account, and information on the target edge related to the target pixel is appropriately derived. it can.

また、特に請求項の発明によれば、周辺位置におけるエッジを容易に検出できる。
In particular, according to the invention of claim 4 , the edge at the peripheral position can be easily detected.

また、特に請求項の発明によれば、対象画素に最も影響を与えるエッジを、対象画素に係る対象エッジとすることができる。
In particular, according to the invention of claim 5, the edge that most affects the target pixel can be set as the target edge related to the target pixel.

また、特に請求項の発明によれば、ジャギーが発生しにくいエッジの強度を弱化することで、ジャギーに関連するエッジを対象エッジとして適切に選択できる。
In particular, according to the invention of claim 6 , by reducing the strength of the edge where jaggies are hardly generated, the edge related to jaggy can be appropriately selected as the target edge.

また、特に請求項の発明によれば、距離に起因した影響の減少を考慮してエッジの強度を調整するため、対象画素に影響を与えるエッジを対象エッジとして適切に選択できる。
In particular, according to the seventh aspect of the invention, since the edge strength is adjusted in consideration of the reduction in the influence due to the distance, the edge that affects the target pixel can be appropriately selected as the target edge.

また、特に請求項の発明によれば、ジャギーが発生しにくいエッジの強度を弱化することで、ジャギーに関連するエッジを対象エッジとして適切に選択できる。
In particular, according to the invention of claim 8 , it is possible to appropriately select the edge related to jaggy as the target edge by weakening the strength of the edge where jaggy is unlikely to occur.

また、特に請求項の発明によれば、対象画素の位置におけるエッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合はジャギーが発生しにくいため、水平方向及び垂直方向に沿った補間処理を行うことでノイズの発生を抑制できる。 In particular, according to the ninth aspect of the invention, when the extending direction of the edge at the position of the target pixel is substantially along either the horizontal direction or the vertical direction, jaggies are hardly generated. The generation of noise can be suppressed by performing the interpolation process along.

図1は、画像処理装置の概略構成を示す図である。FIG. 1 is a diagram illustrating a schematic configuration of an image processing apparatus. 図2は、入力画像の画素の位置と出力画像の画素の位置とを示す図である。FIG. 2 is a diagram illustrating the pixel position of the input image and the pixel position of the output image. 図3は、従来の補間手法で生成される出力画像の例を示す図である。FIG. 3 is a diagram illustrating an example of an output image generated by a conventional interpolation method. 図4は、傾斜型補間法で生成される出力画像の例を示す図である。FIG. 4 is a diagram illustrating an example of an output image generated by the gradient interpolation method. 図5は、サイズ変更部の機能的な構成を示す図である。FIG. 5 is a diagram illustrating a functional configuration of the size changing unit. 図6は、傾斜型補間法に係る処理の全体的な流れを示す図である。FIG. 6 is a diagram showing an overall flow of processing related to the gradient interpolation method. 図7は、画像中のエッジとベクトルとの関係を示す図である。FIG. 7 is a diagram illustrating a relationship between an edge in an image and a vector. 図8は、エッジを分類するパターンを説明する図である。FIG. 8 is a diagram for explaining a pattern for classifying edges. 図9は、エッジの角度の一例を示す図である。FIG. 9 is a diagram illustrating an example of an edge angle. 図10は、エッジの角度の一例を示す図である。FIG. 10 is a diagram illustrating an example of an edge angle. 図11は、パターンAの場合の補間処理を示す図である。FIG. 11 is a diagram illustrating an interpolation process in the case of the pattern A. 図12は、パターンBの場合の補間処理を示す図である。FIG. 12 is a diagram illustrating an interpolation process in the case of the pattern B. 図13は、パターンCの場合の補間処理を示す図である。FIG. 13 is a diagram illustrating an interpolation process in the case of the pattern C. 図14は、パターンDの場合の補間処理を示す図である。FIG. 14 is a diagram illustrating an interpolation process in the case of the pattern D. 図15は、エッジ情報導出部の構成を示す図である。FIG. 15 is a diagram illustrating a configuration of the edge information deriving unit. 図16は、対象画素の周辺にある複数の周辺位置を示す図である。FIG. 16 is a diagram illustrating a plurality of peripheral positions around the target pixel. 図17は、エッジ情報取得処理の詳細な流れを示す図である。FIG. 17 is a diagram showing a detailed flow of edge information acquisition processing. 図18は、対象画素の周辺の入力画素を示す図である。FIG. 18 is a diagram illustrating input pixels around the target pixel. 図19は、周辺エッジのベクトルを導出する手法を説明する図である。FIG. 19 is a diagram illustrating a method for deriving a peripheral edge vector. 図20は、延伸方向が垂直方向に略沿ったエッジの一例を示す図である。FIG. 20 is a diagram illustrating an example of an edge whose extending direction is substantially along the vertical direction. 図21は、係数Jを示す図である。FIG. 21 is a diagram showing the coefficient J. 図22は、自位置エッジのベクトルを導出する手法を説明する図である。FIG. 22 is a diagram for explaining a method of deriving a vector of the own position edge. 図23は、画素補間部の構成を示す図である。FIG. 23 is a diagram illustrating a configuration of the pixel interpolation unit. 図24は、画素補間処理の詳細な流れを示す図である。FIG. 24 is a diagram showing a detailed flow of pixel interpolation processing. 図25は、対象画素の近傍の近傍画素を示す図である。FIG. 25 is a diagram illustrating neighboring pixels in the vicinity of the target pixel. 図26は、近傍画素を分類する図である。FIG. 26 is a diagram for classifying neighboring pixels. 図27は、パターンAの場合の傾斜補間線の角度の一例を示す図である。FIG. 27 is a diagram illustrating an example of the angle of the slope interpolation line in the case of pattern A. In FIG. 図28は、パターンAの場合の補間処理を示す図である。FIG. 28 is a diagram illustrating an interpolation process in the case of pattern A. 図29は、パターンBの場合の傾斜補間線の角度の一例を示す図である。FIG. 29 is a diagram illustrating an example of the angle of the slope interpolation line in the case of the pattern B. 図30は、パターンBの場合の補間処理を示す図である。FIG. 30 is a diagram illustrating an interpolation process in the case of the pattern B. 図31は、パターンCの場合の傾斜補間線の角度の一例を示す図である。FIG. 31 is a diagram illustrating an example of the angle of the slope interpolation line in the case of the pattern C. 図32は、パターンCの場合の補間処理を示す図である。FIG. 32 is a diagram illustrating an interpolation process in the case of the pattern C. 図33は、パターンDの場合の傾斜補間線の角度の一例を示す図である。FIG. 33 is a diagram illustrating an example of the angle of the inclined interpolation line in the case of the pattern D. In FIG. 図34は、パターンDの場合の補間処理を示す図である。FIG. 34 is a diagram showing an interpolation process in the case of the pattern D. 図35は、オーバーシュート及びアンダーシュートを説明する図である。FIG. 35 is a diagram for explaining overshoot and undershoot. 図36は、入力画素範囲を求めるための入力画素を説明する図である。FIG. 36 is a diagram for describing an input pixel for obtaining an input pixel range. 図37は、オーバーシュート及びアンダーシュートを説明する図である。FIG. 37 is a diagram for explaining overshoot and undershoot. 図38は、画素補間部の構成の他の一例を示す図である。FIG. 38 is a diagram illustrating another example of the configuration of the pixel interpolation unit.

以下、図面を参照しつつ本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<1.画像処理装置の概要>
図1は、本実施の形態に係る画像処理装置1の概略構成を示す図である。画像処理装置1は、例えば、車両に搭載される車載装置であり、各種の画像を表示する機能を有している。
<1. Overview of Image Processing Device>
FIG. 1 is a diagram showing a schematic configuration of an image processing apparatus 1 according to the present embodiment. The image processing device 1 is, for example, an in-vehicle device mounted on a vehicle and has a function of displaying various images.

画像処理装置1は、カメラ11、映像取得部12及び表示装置14を備えている。カメラ11は、車両の外部に向けて搭載され、車両の周辺の画像を取得する。また、映像取得部12は、DVD等の記録媒体、あるいは、デジタルテレビ放送等の放送媒体から画像を取得する。表示装置14は、車室内に配置され、各種の画像を表示する。したがって、画像処理装置1は、カメラ11で得られた画像や映像取得部12で取得された画像を、表示装置14において表示できる。   The image processing apparatus 1 includes a camera 11, a video acquisition unit 12, and a display device 14. The camera 11 is mounted toward the outside of the vehicle and acquires an image around the vehicle. The video acquisition unit 12 acquires an image from a recording medium such as a DVD or a broadcasting medium such as a digital television broadcast. The display device 14 is disposed in the passenger compartment and displays various images. Therefore, the image processing apparatus 1 can display the image obtained by the camera 11 or the image obtained by the video obtaining unit 12 on the display device 14.

また、画像処理装置1は、制御部10と画像処理部13とをさらに備えている。   The image processing apparatus 1 further includes a control unit 10 and an image processing unit 13.

制御部10は、画像処理装置1の全体を統括的に制御する。制御部10は、CPU、RAM、ROM等を含むコンピュータを備えている。ROM等に記憶されたプログラムに従ってCPUが演算処理を行うことで、制御部10としての各種の機能が実現される。このようなプログラムは、記録媒体やネットワークを介して提供される。   The control unit 10 comprehensively controls the entire image processing apparatus 1. The control unit 10 includes a computer including a CPU, RAM, ROM, and the like. Various functions as the control unit 10 are realized by the CPU performing arithmetic processing according to a program stored in a ROM or the like. Such a program is provided via a recording medium or a network.

画像処理部13は、例えば、各種の画像処理を行う機能を有するハードウェア回路(集積回路)である。画像処理部13は、カメラ11で得られた画像、あるいは、映像取得部12で取得された画像に対して、表示装置14への表示に適するように画像処理を行う。   The image processing unit 13 is, for example, a hardware circuit (integrated circuit) having a function of performing various image processing. The image processing unit 13 performs image processing on the image obtained by the camera 11 or the image obtained by the video obtaining unit 12 so as to be suitable for display on the display device 14.

画像処理部13は、そのような画像処理を行う機能の一つとしてサイズ変更部2を備えている。サイズ変更部2は、カメラ11で得られた画像や、映像取得部12で取得された画像などのソースとなる画像のサイズを変更し、表示装置14への表示に適するサイズの画像を生成する。   The image processing unit 13 includes a size changing unit 2 as one of functions for performing such image processing. The size changing unit 2 changes the size of a source image such as an image obtained by the camera 11 or an image obtained by the video obtaining unit 12 and generates an image having a size suitable for display on the display device 14. .

以下、サイズ変更部2によるサイズ変更前の元の画像を「入力画像」といい、サイズ変更部2が生成するサイズ変更後の画像を「出力画像」という。なお以下、サイズ変更部2が入力画像のサイズを拡大して出力画像を生成するものとして説明するが、以下で説明する技術を入力画像のサイズを縮小して出力画像を生成する場合に適用してもよい。   Hereinafter, the original image before the size change by the size change unit 2 is referred to as an “input image”, and the image after the size change generated by the size change unit 2 is referred to as an “output image”. In the following description, it is assumed that the size changing unit 2 generates the output image by increasing the size of the input image. However, the technique described below is applied to the case of generating the output image by reducing the size of the input image. May be.

図2は、入力画像の画素の位置と、出力画像の画素の位置とを示す図である。図中においては、入力画像の画素Psの位置を円形の記号で表し、出力画像の画素Pgの位置を正方形の記号で表している(以降の図においても同様。)。   FIG. 2 is a diagram illustrating the pixel position of the input image and the pixel position of the output image. In the drawing, the position of the pixel Ps of the input image is represented by a circular symbol, and the position of the pixel Pg of the output image is represented by a square symbol (the same applies to the following drawings).

画像中の各画素の位置、及び、隣接する画素同士の間隔は、画像のサイズ(水平方向の画素数及び垂直方向の画素数)に基づいて規定される。入力画像と出力画像とではサイズが異なるため、図2に示すように、入力画像の各画素Psの位置と、出力画像の各画素Pgの位置とは相違する。このため、出力画像の各画素Pgの値(輝度値及び色差値)は、当該画素Pgの位置の周辺にある入力画像の複数の画素Pgの値を用いた補間処理により導出される。   The position of each pixel in the image and the interval between adjacent pixels are defined based on the size of the image (the number of pixels in the horizontal direction and the number of pixels in the vertical direction). Since the input image and the output image are different in size, as shown in FIG. 2, the position of each pixel Ps in the input image is different from the position of each pixel Pg in the output image. For this reason, the value (luminance value and color difference value) of each pixel Pg of the output image is derived by interpolation processing using the values of the plurality of pixels Pg of the input image around the position of the pixel Pg.

このような補間処理には、一般には、バイリニア、バイキュービックなどの補間手法が用いられる。バイリニアは、対象となる画素の周辺の2×2の画素(4画素)を用いて線型的に補間して画素の値を求める手法である。また、バイキュービックは、対象となる画素の周辺の4×4の画素(16画素)を用いて所定の演算式で補間して画素の値を求める手法である。これら従来の補間手法はいずれも、画像の垂直方向及び水平方向に沿って補間を行う。より具体的には、従来の補間手法は、垂直方向及び水平方向の一方に沿って補間を行った後、垂直方向及び水平方向の他方に沿って補間を行う。   In general, interpolation methods such as bilinear and bicubic are used for such interpolation processing. Bilinear is a technique for obtaining a pixel value by linearly interpolating 2 × 2 pixels (4 pixels) around a target pixel. Bicubic is a technique for obtaining pixel values by interpolating with 4 × 4 pixels (16 pixels) around a target pixel by a predetermined arithmetic expression. All of these conventional interpolation methods perform interpolation along the vertical and horizontal directions of the image. More specifically, in the conventional interpolation method, after performing interpolation along one of the vertical direction and the horizontal direction, interpolation is performed along the other of the vertical direction and the horizontal direction.

これに対して、本実施の形態の画像処理装置1は、従来の補間手法とは異なり、水平方向に対して傾斜した線に沿って補間を行う補間手法(以下、「傾斜型補間法」という。)を採用する。   On the other hand, unlike the conventional interpolation method, the image processing apparatus 1 according to the present embodiment interpolates along a line inclined with respect to the horizontal direction (hereinafter referred to as “gradient interpolation method”). )).

図3及び図4はそれぞれ、同一の入力画像Gsに対して補間処理を行うことで生成される出力画像の例を示す図である。図3は、従来の補間手法であるバイリニアを採用して生成される出力画像Ggcの例を表している。一方、図4は、傾斜型補間法を採用して生成される出力画像Ggの例を表している。これらの図においては、各画素の輝度値をハッチングにより表しており、ハッチングが濃いほど輝度値が低い。   3 and 4 are diagrams illustrating examples of output images generated by performing interpolation processing on the same input image Gs. FIG. 3 shows an example of an output image Ggc generated by employing bilinear which is a conventional interpolation method. On the other hand, FIG. 4 shows an example of an output image Gg generated by employing the gradient interpolation method. In these figures, the luminance value of each pixel is represented by hatching, and the darker the hatching, the lower the luminance value.

図3及び図4に示す入力画像Gsにおいては、像の輪郭となるエッジ(明るさが不連続に変化する部分)が水平方向に対して傾斜して存在している。図3の下部に示すように、この入力画像Gsを従来の補間手法で拡大した出力画像Ggcにおいては、輪郭の線が階段状になる顕著なジャギーが発生する。これに対し、図4の下部に示すように、入力画像Gsを傾斜型補間法で拡大した出力画像Ggにおいては、従来の補間手法と比較してジャギーが大きく抑制される。以下、このような傾斜型補間法について詳細に説明する。   In the input image Gs shown in FIG. 3 and FIG. 4, an edge (a part where the brightness changes discontinuously) serving as the contour of the image is inclined with respect to the horizontal direction. As shown in the lower part of FIG. 3, in the output image Ggc obtained by enlarging the input image Gs by a conventional interpolation method, a noticeable jaggy having a stepped contour line occurs. On the other hand, as shown in the lower part of FIG. 4, in the output image Gg obtained by enlarging the input image Gs by the gradient interpolation method, jaggy is greatly suppressed as compared with the conventional interpolation method. Hereinafter, such an inclined interpolation method will be described in detail.

<2.傾斜型補間法の全体概要>
以下においては、まず、傾斜型補間法の全体概要について説明する。その後、傾斜型補間法に含まれる2つの処理(エッジ情報導出処理、及び、画素補間処理)をそれぞれ詳細に説明する。
<2. Overview of the gradient interpolation method>
In the following, first, an overall outline of the gradient interpolation method will be described. Thereafter, two processes included in the gradient interpolation method (edge information deriving process and pixel interpolation process) will be described in detail.

図5は、傾斜型補間法を実行するサイズ変更部2の機能的な構成を示す図である。サイズ変更部2は、画像メモリ21、エッジ情報導出部3、及び、画素補間部4を備えている。   FIG. 5 is a diagram illustrating a functional configuration of the size changing unit 2 that executes the gradient interpolation method. The size changing unit 2 includes an image memory 21, an edge information deriving unit 3, and a pixel interpolation unit 4.

画像メモリ21は、処理の対象となる入力画像を記憶する。エッジ情報導出部3及び画素補間部4は、画像メモリ21に記憶された入力画像を利用して各種の画像処理を行う。   The image memory 21 stores an input image to be processed. The edge information deriving unit 3 and the pixel interpolation unit 4 perform various types of image processing using the input image stored in the image memory 21.

エッジ情報導出部3は、入力画像に基づいて出力画像の画素に係るエッジの情報を導出するエッジ情報導出処理を行う。また、画素補間部4は、入力画像に基づいて補間処理を行って出力画像の画素の値を導出する画素補間処理を行う。画素補間部4は、エッジ情報導出部3が導出したエッジの情報に応じた補間処理を行う。   The edge information deriving unit 3 performs edge information deriving processing for deriving edge information related to the pixels of the output image based on the input image. In addition, the pixel interpolation unit 4 performs a pixel interpolation process that performs an interpolation process based on the input image to derive a pixel value of the output image. The pixel interpolation unit 4 performs an interpolation process according to the edge information derived by the edge information deriving unit 3.

図6は、サイズ変更部2が実行する傾斜型補間法に係る処理の全体的な流れを示す図である。   FIG. 6 is a diagram illustrating an overall flow of processing related to the gradient interpolation method executed by the size changing unit 2.

まず、エッジ情報導出部3が、出力画像の各画素に関してエッジ情報導出処理を実行する。エッジ情報導出部3は、出力画像の一の画素を処理の対象とする「対象画素」として選択し(ステップS1)、その対象画素に関してエッジ情報導出処理を実行する(ステップS2)。エッジ情報導出部3は、出力画像に含まれる画素のそれぞれを配列順序に従って順次に対象画素として選択しながら(ステップS3にてNo)、エッジ情報導出処理を繰り返す。これにより、エッジ情報導出部3は、出力画像の全ての画素に関してエッジ情報導出処理を実行する。   First, the edge information deriving unit 3 executes edge information deriving processing for each pixel of the output image. The edge information deriving unit 3 selects one pixel of the output image as a “target pixel” to be processed (step S1), and executes edge information deriving processing for the target pixel (step S2). The edge information deriving unit 3 repeats the edge information deriving process while sequentially selecting each of the pixels included in the output image as a target pixel in accordance with the arrangement order (No in step S3). Thereby, the edge information deriving unit 3 executes the edge information deriving process for all the pixels of the output image.

エッジ情報導出処理(ステップS2)においては、エッジ情報導出部3は、対象画素に係るエッジの情報を導出する。エッジ情報導出部3は、演算上において、画像中のエッジをベクトルとして扱う。図7は、画像中のエッジEと、そのエッジEを表すベクトルVとの関係を示す図である。図に示すように、ベクトルVの方向は、エッジEの延伸方向に直交している。また、ベクトルVの大きさは、エッジEの強度に相当する。   In the edge information derivation process (step S2), the edge information derivation unit 3 derives edge information related to the target pixel. The edge information deriving unit 3 handles the edges in the image as vectors in the calculation. FIG. 7 is a diagram illustrating a relationship between an edge E in the image and a vector V representing the edge E. As shown in the figure, the direction of the vector V is orthogonal to the extending direction of the edge E. The magnitude of the vector V corresponds to the intensity of the edge E.

画像の水平方向はX軸方向、垂直方向はY軸方向と定められる。エッジ情報導出部3は、X軸方向の成分VxとY軸方向の成分YyとでベクトルVを特定する。エッジ情報導出部3は、このベクトルVの2つの成分Vx,Vyを、対象画素の周辺の入力画像の画素の値(輝度値)に基づいて導出する(詳細は後述)。   The horizontal direction of the image is defined as the X-axis direction, and the vertical direction is defined as the Y-axis direction. The edge information deriving unit 3 specifies the vector V using the component Vx in the X-axis direction and the component Yy in the Y-axis direction. The edge information deriving unit 3 derives the two components Vx and Vy of the vector V based on pixel values (luminance values) of the input image around the target pixel (details will be described later).

そして、エッジ情報導出部3は、対象画素に係るエッジを、その水平方向に対する角度に基づいて4つのパターンのいずれかに分類する。分類されたパターンは、対象画素に係るエッジの情報の一部となる。以下、エッジの水平方向に対する角度に記号θを用いる。このエッジの角度θは、ベクトルVの2つの成分Vx,Vyを用いた三角関数により導出され、度数法を用いて0°<θ<180°の範囲の値とされる。   Then, the edge information deriving unit 3 classifies the edge related to the target pixel into one of four patterns based on the angle with respect to the horizontal direction. The classified pattern becomes a part of edge information related to the target pixel. Hereinafter, the symbol θ is used for the angle of the edge with respect to the horizontal direction. The angle θ of the edge is derived by a trigonometric function using the two components Vx and Vy of the vector V, and is set to a value in the range of 0 ° <θ <180 ° using the frequency method.

図8は、エッジを分類するパターンを説明する図である。図に示すように、エッジ情報導出部3は、0°<θ<45°の場合はパターンAに、45°<θ<90°の場合はパターンBに、90°<θ<135°の場合はパターンCに、135°<θ<180°の場合はパターンDにそれぞれエッジを分類する。   FIG. 8 is a diagram for explaining a pattern for classifying edges. As shown in the figure, the edge information deriving unit 3 performs pattern A when 0 ° <θ <45 °, pattern B when 45 ° <θ <90 °, and 90 ° <θ <135 °. Classify the edges into pattern C and pattern D when 135 ° <θ <180 °.

例えば、図9に示すようにエッジの角度θが30°の場合は、エッジ情報導出部3は当該エッジをパターンAに分類する。また、図10に示すようにエッジの角度θが120°の場合は、エッジ情報導出部3は当該エッジをパターンCに分類する。   For example, as shown in FIG. 9, when the edge angle θ is 30 °, the edge information deriving unit 3 classifies the edge into the pattern A. Also, as shown in FIG. 10, when the edge angle θ is 120 °, the edge information deriving unit 3 classifies the edge into the pattern C.

エッジ情報導出部3は、このエッジ情報導出処理を出力画像の全ての画素に関して実行することで(図6のステップS3にてYes)、出力画像の全ての画素に係るエッジの情報(パターン等)を導出する。エッジ情報導出部3は、導出したエッジの情報を、画素補間部4に受け渡す(ステップS4)。   The edge information deriving unit 3 performs this edge information deriving process on all the pixels of the output image (Yes in step S3 in FIG. 6), and thereby the edge information (pattern and the like) related to all the pixels of the output image. Is derived. The edge information deriving unit 3 delivers the derived edge information to the pixel interpolation unit 4 (step S4).

次に、画素補間部4が、出力画像の各画素に関して画素補間処理を実行する。画素補間部4は、出力画像の一の画素を処理の対象とする「対象画素」として選択し(ステップS5)、その対象画素に関して画素補間処理を実行する(ステップS6)。画素補間部4は、出力画像に含まれる画素のそれぞれを配列順序に従って順次に対象画素として選択しながら(ステップS7にてNo)、画素補間処理を繰り返す。これにより、画素補間部4は、出力画像の全ての画素に関して画素補間処理を実行する。   Next, the pixel interpolation unit 4 performs pixel interpolation processing on each pixel of the output image. The pixel interpolation unit 4 selects one pixel of the output image as a “target pixel” to be processed (step S5), and performs pixel interpolation processing on the target pixel (step S6). The pixel interpolation unit 4 repeats the pixel interpolation process while sequentially selecting each of the pixels included in the output image as a target pixel according to the arrangement order (No in step S7). Thereby, the pixel interpolation unit 4 performs pixel interpolation processing on all the pixels of the output image.

画素補間処理(ステップS6)においては、画素補間部4は、対象画素に係るエッジのパターンに応じた補間処理を行って対象画素の値(輝度値及び色差値)を導出する。図11ないし図14は、画素補間部4が実行する補間処理を説明する図である。図11はパターンAの場合、図12はパターンBの場合、図13はパターンCの場合、図14はパターンDの場合のそれぞれの補間処理を示している。いずれの場合においても、画素補間部4は2段階の補間処理(第1補間処理、及び、第2補間処理)を行うことになる。以下、入力画像の画素Psを「入力画素」という。   In the pixel interpolation process (step S6), the pixel interpolation unit 4 performs the interpolation process according to the edge pattern related to the target pixel to derive the value (luminance value and color difference value) of the target pixel. FIG. 11 to FIG. 14 are diagrams for explaining the interpolation processing executed by the pixel interpolation unit 4. 11 shows the interpolation process in the case of pattern A, FIG. 12 shows the case of pattern B, FIG. 13 shows the case of pattern C, and FIG. In either case, the pixel interpolation unit 4 performs two-stage interpolation processing (first interpolation processing and second interpolation processing). Hereinafter, the pixel Ps of the input image is referred to as “input pixel”.

まず、画素補間部4は、入力画像の水平方向及び垂直方向のいずれかを配列方向とする複数の入力画素Psの値を用いた第1補間処理を行う。これにより、画素補間部4は、対象画素Pgtの位置を通り水平方向に対して傾斜する傾斜補間線La上の複数の注目点N1〜N4の値をそれぞれ導出する。   First, the pixel interpolation unit 4 performs a first interpolation process using values of a plurality of input pixels Ps whose arrangement direction is either the horizontal direction or the vertical direction of the input image. Thereby, the pixel interpolation unit 4 derives values of a plurality of attention points N1 to N4 on the inclined interpolation line La that passes through the position of the target pixel Pgt and is inclined with respect to the horizontal direction.

次に、画素補間部4は、第1補間処理で導出した傾斜補間線La上の複数の注目点N1〜N4の値を用いた第2補間処理を行い、対象画素Pgtの値を導出する。第1補間処理及び第2補間処理のいずれにおいても、補間の演算式としてはバイキュービックと同じ演算式が採用される。   Next, the pixel interpolation unit 4 performs a second interpolation process using the values of the plurality of attention points N1 to N4 on the gradient interpolation line La derived in the first interpolation process, and derives the value of the target pixel Pgt. In both the first interpolation process and the second interpolation process, the same calculation expression as that of bicubic is employed as the calculation expression for interpolation.

このような第1補間処理に用いる複数の入力画素Psの配列方向、及び、傾斜補間線Laの水平方向に対する角度は、対象画素に係るエッジのパターンに応じて異なる。以下、傾斜補間線Laの水平方向に対する角度に記号αを用いる。この傾斜補間線Laの角度αは、度数法を用いて0°<α<180°の範囲の値とされる。   The arrangement direction of the plurality of input pixels Ps used in the first interpolation process and the angle of the inclined interpolation line La with respect to the horizontal direction vary depending on the edge pattern of the target pixel. Hereinafter, the symbol α is used as the angle of the inclined interpolation line La with respect to the horizontal direction. The angle α of the inclined interpolation line La is set to a value in the range of 0 ° <α <180 ° using the power method.

図11に示すように、パターンA(0°<θ<45°)の場合は、第1補間処理に用いる複数の入力画素Psの配列方向は「水平方向」とされる。また、傾斜補間線Laが「右肩上がり」となるように、傾斜補間線Laの角度αは0°<α<90°の範囲で設定される。   As shown in FIG. 11, in the case of the pattern A (0 ° <θ <45 °), the arrangement direction of the plurality of input pixels Ps used for the first interpolation processing is “horizontal direction”. Further, the angle α of the slope interpolation line La is set in a range of 0 ° <α <90 ° so that the slope interpolation line La becomes “upwardly rightward”.

画素補間部4は、第1補間処理として、図11中に示す4つの領域R1,R2,R3,R4のそれぞれにおいて、「水平方向」に並ぶ4つの入力画素Psを用いた補間処理を行う。したがって、第1補間処理では4×4の16の入力画素Psが用いられる。これにより、画素補間部4は、領域R1では注目点N1の値、領域R2では注目点N2の値、領域R3では注目点N3の値、領域R4では注目点N4の値をそれぞれ導出する。これら注目点N1〜N4は、対象画素Pgtの位置を通り、「右肩上がり」となる傾斜補間線La上の4つの点である。そして、画素補間部4は、第2補間処理として、この傾斜補間線La上に並ぶ4つの注目点N1〜N4の値を用いた第2補間処理を行い、対象画素Pgtの値を導出する。   As the first interpolation process, the pixel interpolation unit 4 performs an interpolation process using four input pixels Ps arranged in the “horizontal direction” in each of the four regions R1, R2, R3, and R4 shown in FIG. Therefore, 4 × 4 16 input pixels Ps are used in the first interpolation process. Thereby, the pixel interpolation unit 4 derives the value of the attention point N1 in the region R1, the value of the attention point N2 in the region R2, the value of the attention point N3 in the region R3, and the value of the attention point N4 in the region R4. These attention points N1 to N4 are four points on the inclined interpolation line La that pass through the position of the target pixel Pgt and become “rising upward”. Then, the pixel interpolation unit 4 performs the second interpolation process using the values of the four attention points N1 to N4 arranged on the inclined interpolation line La as the second interpolation process, and derives the value of the target pixel Pgt.

また、図12に示すように、パターンB(45°<θ<90°)の場合は、第1補間処理に用いる複数の入力画素Psの配列方向は「垂直方向」とされる。また、傾斜補間線Laが「右肩上がり」となるように、傾斜補間線Laの角度αは0°<α<90°の範囲で設定される。   As shown in FIG. 12, in the case of the pattern B (45 ° <θ <90 °), the arrangement direction of the plurality of input pixels Ps used for the first interpolation process is the “vertical direction”. Further, the angle α of the slope interpolation line La is set in a range of 0 ° <α <90 ° so that the slope interpolation line La becomes “upwardly rightward”.

画素補間部4は、第1補間処理として、図12中に示す4つの領域R1,R2,R3,R4のそれぞれにおいて、「垂直方向」に並ぶ4つの入力画素Psを用いた補間処理を行い、注目点N1〜N4の値を導出する。これら注目点N1〜N4は、対象画素Pgtの位置を通り、「右肩上がり」となる傾斜補間線La上の4つの点である。そして、画素補間部4は、第2補間処理として、この傾斜補間線La上に並ぶ4つの注目点N1〜N4の値を用いた第2補間処理を行い、対象画素Pgtの値を導出する。   The pixel interpolation unit 4 performs an interpolation process using four input pixels Ps arranged in the “vertical direction” in each of the four regions R1, R2, R3, and R4 shown in FIG. The values of the attention points N1 to N4 are derived. These attention points N1 to N4 are four points on the inclined interpolation line La that pass through the position of the target pixel Pgt and become “rising upward”. Then, the pixel interpolation unit 4 performs the second interpolation process using the values of the four attention points N1 to N4 arranged on the inclined interpolation line La as the second interpolation process, and derives the value of the target pixel Pgt.

また、図13に示すように、パターンC(90°<θ<135°)の場合は、第1補間処理に用いる複数の入力画素Psの配列方向は「垂直方向」とされる。また、傾斜補間線Laが「右肩下がり」となるように、傾斜補間線Laの角度αは90°<α<180°の範囲で設定される。   As shown in FIG. 13, in the case of the pattern C (90 ° <θ <135 °), the arrangement direction of the plurality of input pixels Ps used for the first interpolation processing is “vertical direction”. Further, the angle α of the slope interpolation line La is set in a range of 90 ° <α <180 ° so that the slope interpolation line La becomes “downwardly right”.

画素補間部4は、第1補間処理として、図13中に示す4つの領域R1,R2,R3,R4のそれぞれにおいて、「垂直方向」に並ぶ4つの入力画素Psを用いた補間処理を行い、注目点N1〜N4の値を導出する。これら注目点N1〜N4は、対象画素Pgtの位置を通り、「右肩下がり」となる傾斜補間線La上の4つの点である。そして、画素補間部4は、第2補間処理として、この傾斜補間線La上に並ぶ4つの注目点N1〜N4の値を用いた第2補間処理を行い、対象画素Pgtの値を導出する。   As the first interpolation process, the pixel interpolation unit 4 performs an interpolation process using the four input pixels Ps arranged in the “vertical direction” in each of the four regions R1, R2, R3, and R4 illustrated in FIG. The values of the attention points N1 to N4 are derived. These attention points N1 to N4 are the four points on the slope interpolation line La that pass through the position of the target pixel Pgt and become “downward to the right”. Then, the pixel interpolation unit 4 performs the second interpolation process using the values of the four attention points N1 to N4 arranged on the inclined interpolation line La as the second interpolation process, and derives the value of the target pixel Pgt.

また、図14に示すように、パターンD(135°<θ<180°)の場合は、第1補間処理に用いる複数の入力画素Psの配列方向は「水平方向」とされる。また、傾斜補間線Laが「右肩下がり」となるように、傾斜補間線Laの角度αは90°<α<180°の範囲で設定される。   Further, as shown in FIG. 14, in the case of the pattern D (135 ° <θ <180 °), the arrangement direction of the plurality of input pixels Ps used for the first interpolation processing is “horizontal direction”. Further, the angle α of the slope interpolation line La is set in a range of 90 ° <α <180 ° so that the slope interpolation line La becomes “downwardly right”.

画素補間部4は、第1補間処理として、図14中に示す4つの領域R1,R2,R3,R4のそれぞれにおいて、「水平方向」に並ぶ4つの入力画素Psを用いた補間処理を行い、注目点N1〜N4の値を導出する。これら注目点N1〜N4は、対象画素Pgtの位置を通り、「右肩下がり」となる傾斜補間線La上の4つの点である。そして、画素補間部4は、第2補間処理として、この傾斜補間線La上に並ぶ4つの注目点N1〜N4の値を用いた第2補間処理を行い、対象画素Pgtの値を導出する。   As the first interpolation process, the pixel interpolation unit 4 performs an interpolation process using four input pixels Ps arranged in the “horizontal direction” in each of the four regions R1, R2, R3, and R4 illustrated in FIG. The values of the attention points N1 to N4 are derived. These attention points N1 to N4 are the four points on the slope interpolation line La that pass through the position of the target pixel Pgt and become “downward to the right”. Then, the pixel interpolation unit 4 performs the second interpolation process using the values of the four attention points N1 to N4 arranged on the inclined interpolation line La as the second interpolation process, and derives the value of the target pixel Pgt.

画素補間部4が、このような画素補間処理を出力画像の全ての画素に関して実行することで(図6のステップS7にてYes)、出力画像の全ての画素の値が導出される。これにより、サイズ変更部2は、入力画像のサイズを変更した出力画像を生成する。   The pixel interpolation unit 4 performs such pixel interpolation processing on all the pixels of the output image (Yes in step S7 in FIG. 6), thereby deriving the values of all the pixels of the output image. Thereby, the size changing unit 2 generates an output image in which the size of the input image is changed.

このように本実施の形態の画像処理装置1においては、画素補間部4が、入力画像の水平方向及び垂直方向のいずれかを配列方向とする複数の入力画素Psの値を用いた第1補間処理を行う。これにより、画素補間部4は、出力画像の対象画素Pgtの位置を通り水平方向に対して傾斜する傾斜補間線La上の複数の注目点N1〜N4の値をそれぞれ導出する。さらに、画素補間部4は、傾斜補間線La上の複数の注目点N1〜N4の値を用いた第2補間処理を行って、対象画素Pgtの値を導出する。   As described above, in the image processing apparatus 1 according to the present embodiment, the pixel interpolation unit 4 uses the values of the plurality of input pixels Ps whose arrangement direction is either the horizontal direction or the vertical direction of the input image. Process. Thereby, the pixel interpolation unit 4 derives values of a plurality of attention points N1 to N4 on the inclined interpolation line La that passes through the position of the target pixel Pgt of the output image and is inclined with respect to the horizontal direction. Further, the pixel interpolation unit 4 performs the second interpolation process using the values of the plurality of attention points N1 to N4 on the inclined interpolation line La, and derives the value of the target pixel Pgt.

第1補間処理に用いる入力画素Psの配列方向を「水平方向」及び「垂直方向」のいずれとするかは、対象画素のエッジのパターン(すなわち、エッジの角度θ)に応じて選択される。パターンAまたはパターンDの場合(0°<θ<45°、または、135°<θ<180°の場合)は、第1補間処理に用いる入力画素Psの配列方向は「水平方向」とされる。一方、パターンBまたはパターンCの場合(45°<θ<135°の場合)は、第1補間処理に用いる複数の入力画素Psの配列方向は「垂直方向」とされる。   Whether the arrangement direction of the input pixels Ps used for the first interpolation processing is the “horizontal direction” or the “vertical direction” is selected according to the edge pattern of the target pixel (that is, the edge angle θ). In the case of the pattern A or the pattern D (when 0 ° <θ <45 ° or 135 ° <θ <180 °), the arrangement direction of the input pixels Ps used for the first interpolation processing is “horizontal direction”. . On the other hand, in the case of the pattern B or the pattern C (when 45 ° <θ <135 °), the arrangement direction of the plurality of input pixels Ps used for the first interpolation processing is “vertical direction”.

すなわち、対象画素のエッジの水平方向に対する傾きの絶対値が比較的小さい場合(傾斜が緩やかな場合)は、第1補間処理に用いる入力画素Psの配列方向は「水平方向」とされる。一方で、対象画素のエッジの水平方向に対する傾きの絶対値が比較的大きい場合(傾斜が急な場合)は、第1補間処理に用いる入力画素Psの配列方向は「垂直方向」とされる。これにより、エッジの延伸方向に近似する方向に沿って第1補間処理を行うため、ジャギーを有効に低減できる。   That is, when the absolute value of the inclination of the edge of the target pixel with respect to the horizontal direction is relatively small (when the inclination is gentle), the arrangement direction of the input pixels Ps used for the first interpolation processing is set to the “horizontal direction”. On the other hand, when the absolute value of the inclination of the edge of the target pixel with respect to the horizontal direction is relatively large (when the inclination is steep), the arrangement direction of the input pixels Ps used for the first interpolation processing is set to “vertical direction”. Accordingly, since the first interpolation process is performed along a direction that approximates the extending direction of the edge, jaggies can be effectively reduced.

また、傾斜補間線Laの水平方向に対する角度αは、対象画素のエッジのパターン(すなわち、エッジの角度θ)に応じて設定される。パターンAまたはパターンBの場合(0°<θ<90°の場合)は、傾斜補間線Laの角度αは0°<α<90°の範囲で設定される。一方、パターンCまたはパターンDの場合(90°<θ<180°の場合)は、傾斜補間線Laの角度αは90°<α<180°の範囲で設定される。すなわち、対象画素のエッジが「右肩上がり」の場合は、傾斜補間線Laも「右肩上がり」に設定される。一方で、対象画素のエッジが「右肩下がり」の場合は、傾斜補間線Laも「右肩下がり」に設定される。その結果、エッジの延伸方向に近似する方向に沿って第2補間処理を行うため、ジャギーを有効に低減できる。   Further, the angle α with respect to the horizontal direction of the inclined interpolation line La is set according to the edge pattern of the target pixel (that is, the edge angle θ). In the case of the pattern A or the pattern B (when 0 ° <θ <90 °), the angle α of the inclined interpolation line La is set in the range of 0 ° <α <90 °. On the other hand, in the case of pattern C or pattern D (when 90 ° <θ <180 °), the angle α of the inclined interpolation line La is set in the range of 90 ° <α <180 °. That is, when the edge of the target pixel is “rising upward”, the slope interpolation line La is also set to “rising upward”. On the other hand, when the edge of the target pixel is “lower right shoulder”, the inclined interpolation line La is also set to “lower right shoulder”. As a result, since the second interpolation process is performed along a direction that approximates the extending direction of the edge, jaggies can be effectively reduced.

<3.エッジ情報導出処理>
次に、エッジ情報導出処理(図6のステップS2)について、さらに詳細に説明する。図15は、エッジ情報導出処理を実行するエッジ情報導出部3(図5参照。)の詳細な構成を示す図である。
<3. Edge information derivation process>
Next, the edge information derivation process (step S2 in FIG. 6) will be described in more detail. FIG. 15 is a diagram illustrating a detailed configuration of the edge information deriving unit 3 (see FIG. 5) that executes the edge information deriving process.

エッジ情報導出部3は、第1エッジ処理部31、第2エッジ処理部32、エッジ選択部33、及び、エッジ分類部34を備えている。   The edge information deriving unit 3 includes a first edge processing unit 31, a second edge processing unit 32, an edge selection unit 33, and an edge classification unit 34.

第1エッジ処理部31は、図16に示すように、対象画素Pgtの周辺にある複数の周辺位置Csにおけるエッジ(以下、「周辺エッジ」という。)をそれぞれ検出し、これら複数の周辺エッジを対象とした処理を行う。第1エッジ処理部31は、エッジ検出部31a、第1弱化部31b及び第2弱化部31cを備えている。これらの処理の詳細は後述する。なお、図中では、周辺位置Csをハッチングをした菱型の記号で表している(以降の図においても同様。)。   As shown in FIG. 16, the first edge processing unit 31 detects edges at a plurality of peripheral positions Cs around the target pixel Pgt (hereinafter referred to as “peripheral edges”), and detects the plurality of peripheral edges. Perform the targeted processing. The first edge processing unit 31 includes an edge detection unit 31a, a first weakening unit 31b, and a second weakening unit 31c. Details of these processes will be described later. In the drawing, the peripheral position Cs is represented by hatched diamond symbols (the same applies to the following drawings).

第2エッジ処理部32は、対象画素Pgtの位置におけるエッジ(以下、「自位置エッジ」という。)を検出し、この自位置エッジを対象とした処理を行う。第2エッジ処理部31は、補間部32a、第3弱化部32b及び強化部32cを備えている。これらの処理の詳細は後述する。   The second edge processing unit 32 detects an edge at the position of the target pixel Pgt (hereinafter referred to as “local position edge”), and performs processing for the local position edge. The second edge processing unit 31 includes an interpolation unit 32a, a third weakening unit 32b, and a strengthening unit 32c. Details of these processes will be described later.

エッジ選択部33は、第1エッジ処理部31で処理された周辺エッジと、第2エッジ処理部32で処理された自位置エッジとのうちから、以降の処理に用いる対象画素に係るエッジ(以下、「対象エッジ」という。)を選択する。エッジ選択部33は、対象画素Pgtに最も影響を与えるエッジを対象エッジとして選択する。より具体的には、エッジ選択部33は、複数の周辺エッジと自位置エッジとのうち、強度が最大のエッジを対象エッジとして選択する。   The edge selection unit 33 selects an edge (hereinafter referred to as an edge) related to a target pixel used for the subsequent processing from the peripheral edge processed by the first edge processing unit 31 and the local position edge processed by the second edge processing unit 32. , Referred to as “target edge”). The edge selection unit 33 selects an edge that has the most influence on the target pixel Pgt as the target edge. More specifically, the edge selection unit 33 selects, as a target edge, an edge having the maximum intensity among a plurality of peripheral edges and the own position edge.

また、エッジ分類部34は、対象画素Pgtに係る対象エッジを、図8に示す4つのパターンのいずれかに分類する。この対象エッジのパターンが、画素補間部4が実行する画素補間処理(図6のステップS6)において参照される。   Further, the edge classification unit 34 classifies the target edge related to the target pixel Pgt into one of the four patterns shown in FIG. The pattern of the target edge is referred to in the pixel interpolation process (step S6 in FIG. 6) executed by the pixel interpolation unit 4.

図17は、エッジ情報取得処理(図6のステップS2)の詳細な流れを示す図である。前述のように、このエッジ情報取得処理は、出力画像の全ての画素に関して実行される。   FIG. 17 is a diagram showing a detailed flow of the edge information acquisition process (step S2 in FIG. 6). As described above, this edge information acquisition processing is executed for all the pixels of the output image.

まず、第1エッジ処理部31のエッジ検出部31aが、対象画素Pgtの周辺の入力画素Psに基づいて、対象画素Pgtの周辺の複数の周辺位置Csにおける周辺エッジをそれぞれ検出する(ステップS10)。   First, the edge detection unit 31a of the first edge processing unit 31 detects peripheral edges at a plurality of peripheral positions Cs around the target pixel Pgt based on the input pixels Ps around the target pixel Pgt (step S10). .

図18は、対象画素Pgtの周辺の入力画素Psを示す図である。エッジ検出部31aは、対象画素Pgtの周辺の4×4の入力画素Psを参照する。エッジ検出部31aは、これら16の入力画素Psにおいて最小の矩形(正方形)を形成する4つの入力画素Psの中心をそれぞれ着目すべき周辺位置Csとする。そして、エッジ検出部31aは、3×3の周辺位置Csそれぞれにおけるエッジを「周辺エッジ」として検出する。   FIG. 18 is a diagram illustrating the input pixels Ps around the target pixel Pgt. The edge detection unit 31a refers to the 4 × 4 input pixels Ps around the target pixel Pgt. The edge detection unit 31a sets the centers of the four input pixels Ps forming the smallest rectangle (square) in the 16 input pixels Ps as the peripheral positions Cs to be noted. Then, the edge detection unit 31a detects an edge at each of the 3 × 3 peripheral positions Cs as a “peripheral edge”.

エッジ検出部31aは、周辺位置Csを囲む4つの入力画素PsのX軸方向及びY軸方向における輝度値の差に基づいて、周辺エッジのベクトルVを導出する。このベクトルVを導出することにより、エッジ検出部31aは、周辺エッジを実質的に検出する。周辺位置Csを囲む4つの入力画素Psの輝度値を図19に示すカッコ内の値とすると、エッジ検出部31aは、周辺エッジのベクトルVのX軸方向の成分VxとY軸方向の成分Yyとを、次の式(1),式(2)でそれぞれ導出する。   The edge detection unit 31a derives a peripheral edge vector V based on the difference in luminance value between the four input pixels Ps surrounding the peripheral position Cs in the X-axis direction and the Y-axis direction. By deriving this vector V, the edge detector 31a substantially detects the peripheral edge. Assuming that the luminance values of the four input pixels Ps surrounding the peripheral position Cs are values in parentheses shown in FIG. 19, the edge detection unit 31a has the X-axis direction component Vx and the Y-axis direction component Yy of the peripheral edge vector V. Are derived by the following equations (1) and (2), respectively.

Vx=(d12+d22)−(d11+d21) …(1)
Vy=(d11+d12)−(d21+d22) …(2)
エッジ検出部31aが周辺エッジを検出すると、以降、第1エッジ処理部31と第2エッジ処理部32とにおいて並行して処理がなされる。図17に示す処理のうち、ステップS11〜S16は第1エッジ処理部31による処理であり、ステップS21〜S25は第2エッジ処理部32による処理である。
Vx = (d12 + d22) − (d11 + d21) (1)
Vy = (d11 + d12) − (d21 + d22) (2)
When the edge detection unit 31a detects the peripheral edge, the first edge processing unit 31 and the second edge processing unit 32 perform processing in parallel thereafter. 17, steps S11 to S16 are processes by the first edge processing unit 31, and steps S21 to S25 are processes by the second edge processing unit 32.

第1エッジ処理部31においては、第1弱化部31b及び第2弱化部31cが、複数の周辺エッジそれぞれの強度を調整する。一方で、第2エッジ処理部32においては、補間部32aが自位置エッジを導出し、第3弱化部32b及び強化部32cが自位置エッジの強度を調整する。このようなエッジの強度の調整は、その後のステップS31におけるエッジ選択部33による対象エッジの選択に向けてなされる。   In the first edge processing unit 31, the first weakening unit 31b and the second weakening unit 31c adjust the strength of each of the plurality of peripheral edges. On the other hand, in the second edge processing unit 32, the interpolation unit 32a derives the local position edge, and the third weakening unit 32b and the strengthening unit 32c adjust the strength of the local position edge. Such edge strength adjustment is performed toward the selection of the target edge by the edge selection unit 33 in the subsequent step S31.

第1エッジ処理部31は、まず、複数の周辺エッジのうちから一の周辺エッジを処理の対象となる「対象周辺エッジ」として選択する(ステップS11)。そして、第1弱化部31bが、対象周辺エッジの強度を導出する(ステップS12)。   The first edge processing unit 31 first selects one peripheral edge from among a plurality of peripheral edges as a “target peripheral edge” to be processed (step S11). Then, the first weakening unit 31b derives the strength of the target peripheral edge (step S12).

第1弱化部31bは、例えば、対象周辺エッジのベクトルVの2つの成分Vx,Vyを用いて、対象周辺エッジの強度Seを次の式(3)で導出する。式(3)において、Iは所定の定数である。   For example, the first weakening unit 31b uses the two components Vx and Vy of the target peripheral edge vector V to derive the intensity Se of the target peripheral edge by the following equation (3). In formula (3), I is a predetermined constant.

Se=(Vx^2+Vy^2)/I …(3)
次に、第1弱化部31bは、対象周辺エッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っているか否かを判定する(ステップS13)。図20に示すように、対象周辺エッジEの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合とは、対象周辺エッジのベクトルVの2つの成分Vx,Vyの一方が非常に小さい場合に相当する。このため、第1弱化部31bは、2つの成分Vx,Vyのうちの小さい方を参照値とし、参照値が所定の閾値よりも小さい場合は、対象周辺エッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っていると判断する。
Se = (Vx ^ 2 + Vy ^ 2) / I (3)
Next, the first weakening unit 31b determines whether or not the extending direction of the target peripheral edge is substantially along either the horizontal direction or the vertical direction (step S13). As shown in FIG. 20, when the extending direction of the target peripheral edge E is substantially along either the horizontal direction or the vertical direction, one of the two components Vx and Vy of the vector V of the target peripheral edge is very high. Corresponds to the small case. For this reason, the first weakening unit 31b uses a smaller one of the two components Vx and Vy as a reference value, and when the reference value is smaller than a predetermined threshold, the extension direction of the target peripheral edge is the horizontal direction and the vertical direction. It is judged that it is substantially along one of the following.

第1弱化部31bは、対象周辺エッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合は、次の式(4)により、対象周辺エッジの強度を弱める(ステップS14)。式(4)において、Seはエッジの強度であり、Jは係数(0<J<1)である。   When the extending direction of the target peripheral edge is substantially along either the horizontal direction or the vertical direction, the first weakening unit 31b weakens the strength of the target peripheral edge according to the following equation (4) (step S14). In Equation (4), Se is the edge strength, and J is a coefficient (0 <J <1).

Se=Se・J …(4)
式(4)の係数Jは、参照値(2つの成分Vx,Vyのうちの小さい方)をVsとし、参照値Vsと比較される閾値をThとすると、次の式(5)で与えられる。すなわち、係数Jは、図21のグラフに示す値をとる。
Se = Se · J (4)
The coefficient J in equation (4) is given by the following equation (5), where Vs is a reference value (the smaller of the two components Vx and Vy) and Th is a threshold value to be compared with the reference value Vs. . That is, the coefficient J takes the value shown in the graph of FIG.

J=Vs/Th …(5)
このように第1弱化部31bは、延伸方向が水平方向及び垂直方向のいずれかに略沿っている対象周辺エッジの強度Seを弱める。このような対象周辺エッジに関してはジャギーが発生しにくいため、当該対象周辺エッジの強度Seを弱めることで、ジャギーが発生しにくいエッジを対象エッジとしてエッジ選択部33が選択することを回避できる。
J = Vs / Th (5)
Thus, the 1st weakening part 31b weakens the intensity | strength Se of the object periphery edge whose extending | stretching direction is substantially along either the horizontal direction or the vertical direction. Since jaggies are unlikely to occur with respect to such target peripheral edges, it is possible to avoid the edge selecting unit 33 from selecting an edge with which jaggies are not likely to be generated as the target edge by reducing the intensity Se of the target peripheral edge.

次に、第2弱化部31bが、対象周辺エッジに係る周辺位置Csの対象画素Pgtの位置からの距離に応じて、対象周辺エッジの強度Seを弱める(ステップS15)。第2弱化部31bは、次の式(6)により、対象周辺エッジの強度Seを弱める。式(6)において、Kは所定の定数、Lは周辺位置の対象画素Pgtの位置からの距離である。   Next, the second weakening unit 31b weakens the intensity Se of the target peripheral edge according to the distance from the position of the target pixel Pgt of the peripheral position Cs related to the target peripheral edge (step S15). The second weakening unit 31b weakens the intensity Se of the target peripheral edge according to the following equation (6). In Expression (6), K is a predetermined constant, and L is the distance from the position of the target pixel Pgt at the peripheral position.

Se=Se・(K−L)/K …(6)
対象周辺エッジに係る周辺位置Csは対象画素Pgtの位置から離れているため、距離に応じて対象周辺エッジが対象画素Pgtに影響を与える程度は小さくなる。第2弱化部31bは周辺位置Csの対象画素Pgtの位置からの距離が大きいほど対象周辺エッジの強度Seを弱めるため、距離に起因した影響の減少を考慮して対象周辺エッジの強度Seを調整できる。その結果、対象画素Pgtに影響を与えるエッジを対象エッジとしてエッジ選択部33が適切に選択できる。
Se = Se · (KL) / K (6)
Since the peripheral position Cs related to the target peripheral edge is away from the position of the target pixel Pgt, the extent to which the target peripheral edge affects the target pixel Pgt is reduced according to the distance. Since the second weakening unit 31b weakens the intensity Se of the target peripheral edge as the distance from the position of the target pixel Pgt of the peripheral position Cs increases, the second peripheral weakening unit 31b adjusts the intensity Se of the target peripheral edge in consideration of a decrease in the influence due to the distance. it can. As a result, the edge selection unit 33 can appropriately select an edge that affects the target pixel Pgt as the target edge.

第1エッジ処理部31は、このようなステップS11〜S15の処理を、複数の周辺エッジのそれぞれに関して実行する(ステップS16にてNo)。このため、各周辺エッジの強度Seは、その延伸方向及び距離に応じて弱められる。第1エッジ処理部31が、全ての周辺エッジに関して処理を完了すると(ステップS16にてYes)、処理はステップS31に進む。   The first edge processing unit 31 executes the processes in steps S11 to S15 for each of the plurality of peripheral edges (No in step S16). For this reason, the strength Se of each peripheral edge is weakened according to the extending direction and distance. When first edge processing unit 31 completes the processing for all the peripheral edges (Yes in step S16), the process proceeds to step S31.

一方、第2エッジ処理部32においては、まず、補間部32aが、自位置エッジを検出する(ステップS21)。補間部32aは、自位置エッジのベクトルVを導出することで、自位置エッジを実質的に検出する。補間部32aは、図22に示すように、対象画素Pgtの位置に最も近い4つの周辺位置Csの周辺エッジのベクトルVを線形的に補間することで、自位置エッジのベクトルVを導出する。そして、補間部32aは、上述した式(3)を用いて自位置エッジの強度Seを導出する(ステップS22)。   On the other hand, in the second edge processing unit 32, first, the interpolation unit 32a detects the own position edge (step S21). The interpolation unit 32a substantially detects the self-position edge by deriving the vector V of the self-position edge. As illustrated in FIG. 22, the interpolation unit 32 a derives a vector V of the local position edge by linearly interpolating the peripheral edge vectors V of the four peripheral positions Cs closest to the position of the target pixel Pgt. Then, the interpolation unit 32a derives the strength Se of the local position edge using the above-described equation (3) (step S22).

次に、第3弱化部32bが、自位置エッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っているか否かを判定する(ステップS23)。そして、第3弱化部32bは、自位置エッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合は、自位置エッジの強度Seを弱める(ステップS24)。第3弱化部32bが行う具体的な処理としては、第1弱化部31bと同一の処理を採用できる。なお、第3弱化部32bと第1弱化部31bとで用いる閾値Thを変更してもよい。   Next, the 3rd weakening part 32b determines whether the extending | stretching direction of an own position edge is substantially along either the horizontal direction or the vertical direction (step S23). And the 3rd weakening part 32b weakens the intensity | strength Se of an own position edge, when the extending | stretching direction of an own position edge is substantially along either the horizontal direction or the vertical direction (step S24). As a specific process performed by the third weakening unit 32b, the same process as that of the first weakening unit 31b can be employed. Note that the threshold Th used in the third weakening unit 32b and the first weakening unit 31b may be changed.

このように第3弱化部32bが、延伸方向が水平方向及び垂直方向のいずれかに略沿っている自位置エッジの強度Seを弱める。このため、ジャギーが発生しにくい自位置エッジの強度Seを弱めることができる。その結果、ジャギーが発生しにくいエッジを対象エッジとしてエッジ選択部33が選択することを回避できる。   Thus, the 3rd weakening part 32b weakens the intensity | strength Se of the self-position edge where the extending | stretching direction is substantially along either the horizontal direction or the vertical direction. For this reason, it is possible to weaken the strength Se of the local position edge where jaggies are unlikely to occur. As a result, it is possible to avoid the edge selection unit 33 from selecting an edge where jaggies are unlikely to occur as a target edge.

次に、強化部32cが、自位置エッジの強度Seを強める(ステップS25)。強化部32cは、次の式(7)により、自位置エッジの強度Seを弱める。式(7)において、Mは係数(1<M)である。   Next, the strengthening unit 32c increases the strength Se of the local position edge (step S25). The strengthening part 32c weakens the strength Se of the own position edge by the following equation (7). In Expression (7), M is a coefficient (1 <M).

Se=Se・M …(7)
自位置エッジは、対象画素の位置におけるエッジであるため、周辺エッジと比較して対象画素に影響を与える程度が大きくなる。強化部32cが自位置エッジの強度Seを強めことで、その影響の程度に応じて自位置エッジの強度Seを適切に調整できる。その結果、対象画素に最も影響を与えるエッジを対象エッジとしてエッジ選択部33が適切に選択できる。この強化部32cの処理が完了すると、処理はステップS31に進む。
Se = Se · M (7)
Since the own position edge is an edge at the position of the target pixel, the degree of influence on the target pixel is larger than that of the peripheral edge. By strengthening the strength Se of the local position edge by the strengthening unit 32c, the strength Se of the local position edge can be appropriately adjusted according to the degree of the influence. As a result, the edge selection unit 33 can appropriately select the edge that most affects the target pixel as the target edge. When the process of the strengthening unit 32c is completed, the process proceeds to step S31.

第1エッジ処理部31及び第2エッジ処理部32の双方の処理が完了すると、エッジ選択部33は、対象画素に係る対象エッジを選択する(ステップS31)。エッジ選択部33は、第1エッジ処理部31が強度Seを調整した複数の周辺エッジと、第2エッジ処理部32が強度Seを調整した自位置エッジとのうちから、対象エッジを選択する。前述のように、エッジ選択部33は、強度Seが最大のエッジを対象エッジとして選択する。   When the processing of both the first edge processing unit 31 and the second edge processing unit 32 is completed, the edge selection unit 33 selects the target edge related to the target pixel (step S31). The edge selection unit 33 selects a target edge from among a plurality of peripheral edges whose strength Se has been adjusted by the first edge processing unit 31 and the local position edge whose strength Se has been adjusted by the second edge processing unit 32. As described above, the edge selection unit 33 selects an edge having the maximum strength Se as the target edge.

このように、エッジ選択部33は、対象画素の位置における自位置エッジのみならず、対象画素の周辺の複数の周辺位置における周辺エッジも考慮して対象エッジを選択する。このため、対象画素に最も影響を与えるエッジを対象画素に係る対象エッジとして適切に選択することができる。   Thus, the edge selection unit 33 selects the target edge in consideration of not only the local position edge at the position of the target pixel but also the peripheral edges at a plurality of peripheral positions around the target pixel. For this reason, it is possible to appropriately select the edge that most affects the target pixel as the target edge related to the target pixel.

次に、エッジ分類部34が、対象画素に係る対象エッジを、図8に示す4つのパターンのいずれかに分類する(ステップS32)。図8を用いて説明したとおり、エッジ分類部34は、対象エッジの水平方向に対する角度θに基づいて対象エッジを分類する。   Next, the edge classification unit 34 classifies the target edge related to the target pixel into one of the four patterns shown in FIG. 8 (step S32). As described with reference to FIG. 8, the edge classification unit 34 classifies the target edge based on the angle θ with respect to the horizontal direction of the target edge.

エッジ分類部34が分類したパターンは、画素補間部4に受け渡されるエッジの情報の一部となる。なお、画素補間部4に受け渡されるエッジの情報には、エッジ情報導出処理で導出される角度θ、強度Se、ベクトルVの成分Vx,Vyなどが含まれてもよい。   The pattern classified by the edge classification unit 34 becomes a part of edge information passed to the pixel interpolation unit 4. Note that the edge information passed to the pixel interpolation unit 4 may include the angle θ, the intensity Se, and the components Vx and Vy of the vector V that are derived in the edge information derivation process.

また、対象エッジの角度θが45°あるいは135°となり対象エッジを4つのパターンのいずれにも分類できない場合は、対象エッジに代えて対象画素に係る自位置エッジを分類した結果を、対象画素に係るエッジのパターンとして用いればよい。   If the angle θ of the target edge is 45 ° or 135 ° and the target edge cannot be classified into any of the four patterns, the result of classifying the local position edge related to the target pixel instead of the target edge is set as the target pixel. What is necessary is just to use as a pattern of such an edge.

<4.画素補間処理>
次に、画素補間処理(図6のステップS6)について、さらに詳細に説明する。図23は、画素補間処理を実行する画素補間部4(図5参照。)の詳細な構成を示す図である。
<4. Pixel interpolation processing>
Next, the pixel interpolation process (step S6 in FIG. 6) will be described in more detail. FIG. 23 is a diagram illustrating a detailed configuration of the pixel interpolation unit 4 (see FIG. 5) that executes the pixel interpolation processing.

画素補間部4は、傾斜角設定部41と、第1補間処理部42と、第2補間処理部43と、画素値修正部44とを備えている。   The pixel interpolation unit 4 includes an inclination angle setting unit 41, a first interpolation processing unit 42, a second interpolation processing unit 43, and a pixel value correction unit 44.

傾斜角設定部41は、傾斜補間線Laの水平方向に対する角度αを設定する。傾斜型補間法においては、傾斜補間線Laの角度αが45°または135°の場合に補間処理による効果が最も大きくなる。そして、傾斜補間線Laの角度αが水平方向及び垂直方向のいずれかに近づくほど(45°または135°から離れるほど)、補間処理による効果が小さくなる。この補間処理による効果には、ジャギーを抑制する効果とともに、ノイズを増幅する作用もある。このため、傾斜角設定部41は、45°または135°を基準角度とし、特定の条件下で傾斜補間線Laの角度αを基準角度から変更することで補間処理による効果を緩和する。なお、前述した図11から図14は全て、傾斜補間線Laの角度αが基準角度(45°または135°)である場合の第1補間処理、及び、第2補間処理を表している。   The inclination angle setting unit 41 sets an angle α with respect to the horizontal direction of the inclination interpolation line La. In the tilt interpolation method, the effect of the interpolation process is the greatest when the angle α of the tilt interpolation line La is 45 ° or 135 °. As the angle α of the inclined interpolation line La approaches either the horizontal direction or the vertical direction (the further from 45 ° or 135 °), the effect of the interpolation process becomes smaller. In addition to the effect of suppressing jaggies, the effect of this interpolation process also has the effect of amplifying noise. For this reason, the inclination angle setting unit 41 uses 45 ° or 135 ° as a reference angle, and changes the angle α of the inclination interpolation line La from the reference angle under a specific condition, thereby reducing the effect of the interpolation processing. 11 to 14 described above all represent the first interpolation process and the second interpolation process when the angle α of the tilt interpolation line La is the reference angle (45 ° or 135 °).

第1補間処理部42は、入力画像の水平方向及び垂直方向のいずれかを配列方向とする複数の入力画素の値を用いた第1補間処理を行い、傾斜補間線La上の複数の注目点の値をそれぞれ導出する。第2補間処理部43は、傾斜補間線La上の複数の注目点の値を用いた第2補間処理を行い、対象画素の値を導出する。また、画素値修正部44は、導出された対象画素の値にオーバーシュートまたはアンダーシュートが生じている場合に、対象画素の値を修正する。   The first interpolation processing unit 42 performs a first interpolation process using values of a plurality of input pixels whose arrangement direction is either the horizontal direction or the vertical direction of the input image, and a plurality of points of interest on the inclined interpolation line La. Are derived respectively. The second interpolation processing unit 43 performs a second interpolation process using values of a plurality of points of interest on the inclined interpolation line La, and derives the value of the target pixel. In addition, the pixel value correcting unit 44 corrects the value of the target pixel when overshoot or undershoot occurs in the derived target pixel value.

図24は、画素補間処理(図6のステップS6)の詳細な流れを示す図である。前述のように、この画素補間処理は、出力画像の全ての画素に関して実行される。また、この画素補間処理の開始時点においては、出力画像の全ての画素に係るエッジの情報(パターン等)が、エッジ情報導出部3から画素補間部4に受け渡されている。以下、画素補間処理の対象となる対象画素に係るエッジを「対象エッジ」という。   FIG. 24 is a diagram showing a detailed flow of the pixel interpolation process (step S6 in FIG. 6). As described above, this pixel interpolation processing is executed for all the pixels of the output image. Further, at the start of this pixel interpolation processing, edge information (patterns, etc.) relating to all the pixels of the output image is transferred from the edge information deriving unit 3 to the pixel interpolation unit 4. Hereinafter, an edge related to a target pixel to be subjected to pixel interpolation processing is referred to as a “target edge”.

画素補間処理においては、まず、傾斜角設定部41が、対象画素に係る対象エッジのパターンに応じて対象画素に係る傾斜補間線Laの角度αを設定する(ステップS40〜S43)。そして、設定された傾斜補間線Laの角度αに応じて第1補間処理部42が第1補間処理を行い(ステップS44)、さらに、第2補間処理部42が第2補間処理を行って対象画素の値を導出する(ステップS45)。   In the pixel interpolation process, first, the tilt angle setting unit 41 sets the angle α of the tilt interpolation line La related to the target pixel according to the pattern of the target edge related to the target pixel (steps S40 to S43). Then, the first interpolation processing unit 42 performs the first interpolation processing according to the set angle α of the inclined interpolation line La (step S44), and further, the second interpolation processing unit 42 performs the second interpolation processing, and the target A pixel value is derived (step S45).

傾斜角設定部41は、最初に、初期値として対象画素に係る傾斜補間線Laの角度αを基準角度に設定する(ステップS40)。   First, the inclination angle setting unit 41 sets the angle α of the inclination interpolation line La related to the target pixel as a reference angle as an initial value (step S40).

前述のように、傾斜角設定部41は、パターンAまたはパターンBの場合(0°<θ<90°の場合)は傾斜補間線Laの角度αを0°<α<90°の範囲で設定し、パターンCまたはパターンDの場合(90°<θ<180°の場合)は傾斜補間線Laの角度αを90°<α<180°の範囲で設定する。このため、パターンAまたはパターンBの場合(0°<θ<90°の場合)は基準角度は45°となり、パターンCまたはパターンDの場合(90°<θ<180°の場合)は基準角度は135°となる。   As described above, the inclination angle setting unit 41 sets the angle α of the inclination interpolation line La in the range of 0 ° <α <90 ° in the case of the pattern A or the pattern B (when 0 ° <θ <90 °). In the case of the pattern C or D (90 ° <θ <180 °), the angle α of the inclined interpolation line La is set in the range of 90 ° <α <180 °. Therefore, in the case of pattern A or pattern B (0 ° <θ <90 °), the reference angle is 45 °, and in the case of pattern C or pattern D (90 ° <θ <180 °), the reference angle. Is 135 °.

次に、傾斜角設定部41は、出力画像における対象画素の近傍の複数の画素(以下、「近傍画素」という。)に注目し、対象画素に係る対象エッジのパターンと近傍画素に係るエッジのパターンとを比較する(ステップS41)。   Next, the inclination angle setting unit 41 pays attention to a plurality of pixels in the output image in the vicinity of the target pixel (hereinafter referred to as “neighboring pixels”), and the pattern of the target edge related to the target pixel and the edge related to the neighboring pixel. The pattern is compared (step S41).

図25は、出力画像における対象画素Pgtと、その対象画素Pgtの近傍の複数の近傍画素Pgとを示す図である。図に示すように、傾斜角設定部41は、出力画像における対象画素Pgtを中心とした5×5の画素に含まれる近傍画素Pgに注目する。そして、傾斜角設定部41は、対象画素Pgtに係る対象エッジのパターンと、近傍画素Pgに係るエッジのパターンとを比較する。   FIG. 25 is a diagram illustrating the target pixel Pgt in the output image and a plurality of neighboring pixels Pg in the vicinity of the target pixel Pgt. As shown in the figure, the tilt angle setting unit 41 focuses on neighboring pixels Pg included in a 5 × 5 pixel centered on the target pixel Pgt in the output image. Then, the inclination angle setting unit 41 compares the target edge pattern related to the target pixel Pgt with the edge pattern related to the neighboring pixel Pg.

図25においては、対象画素Pgt及び近傍画素Pgそれぞれに係るエッジのパターンを符号(AまたはD)によって示している。図25の例では、対象画素Pgtに係る対象エッジはパターンAとなっている。一方で、大部分の近傍画素PgのエッジはパターンAとなっているが、一つの近傍画素PgxのエッジがパターンDとなっている。   In FIG. 25, the pattern of the edge relating to each of the target pixel Pgt and the neighboring pixel Pg is indicated by a symbol (A or D). In the example of FIG. 25, the target edge related to the target pixel Pgt is the pattern A. On the other hand, the edge of most neighboring pixels Pg is pattern A, but the edge of one neighboring pixel Pgx is pattern D.

通常、対象画素Pgtに係る対象エッジのパターンと、近傍画素Pgに係るエッジのパターンとは一致する。しかしながら、このようにエッジのパターンが対象画素Pgtと異なる近傍画素(以下、「異型画素」という。)Pgxが存在する場合、対象画素Pgtの近傍にノイズが存在している可能性が高い。そして、このようなノイズは、補間処理において増幅される可能性がある。   Usually, the pattern of the target edge related to the target pixel Pgt matches the pattern of the edge related to the neighboring pixel Pg. However, when there is a neighboring pixel (hereinafter referred to as “atypical pixel”) Pgx having an edge pattern different from that of the target pixel Pgt, there is a high possibility that noise exists in the vicinity of the target pixel Pgt. Such noise may be amplified in the interpolation process.

このため、このようなノイズの増幅を防止するため、異型画素Pgxが存在している場合は(図24のステップS42にてYes)、傾斜角設定部41は、傾斜補間線Laの角度αを基準角度から変更する(ステップS43)。傾斜角設定部41は、対象画素Pgtと異型画素Pgxとの距離が近いほど、傾斜補間線Laの角度αを基準角度から変更する程度を大きくする。   For this reason, in order to prevent amplification of such noise, when the atypical pixel Pgx exists (Yes in step S42 in FIG. 24), the inclination angle setting unit 41 sets the angle α of the inclination interpolation line La. The reference angle is changed (step S43). The inclination angle setting unit 41 increases the degree of changing the angle α of the inclination interpolation line La from the reference angle as the distance between the target pixel Pgt and the atypical pixel Pgx is shorter.

図26は、近傍画素Pgを、対象画素Pgtとの距離の関係で分類する図である。図中において各近傍画素Pgに付した符号D1〜D5は、対象画素Pgtからの距離の程度を表している。符号D1を付した近傍画素Pgが対象画素Pgtに最も近く、符号D5を付した近傍画素Pgが対象画素Pgtから最も遠くなっている。したがって、符号D1を付した近傍画素Pgが異型画素Pgxである場合は、傾斜角設定部41は、傾斜補間線Laの角度を基準角度から比較的大きく変更する。一方で、符号D5を付した近傍画素Pgが異型画素Pgxである場合は、傾斜角設定部41は、傾斜補間線Laの角度αを基準角度から比較的小さく変更する。   FIG. 26 is a diagram in which the neighboring pixels Pg are classified based on the distance relationship with the target pixel Pgt. In the figure, reference signs D1 to D5 attached to each neighboring pixel Pg represent the degree of distance from the target pixel Pgt. The neighboring pixel Pg with the reference sign D1 is closest to the target pixel Pgt, and the neighboring pixel Pg with the reference sign D5 is farthest from the target pixel Pgt. Therefore, when the neighboring pixel Pg with the reference sign D1 is the atypical pixel Pgx, the inclination angle setting unit 41 changes the angle of the inclination interpolation line La relatively large from the reference angle. On the other hand, when the neighboring pixel Pg denoted by reference sign D5 is the atypical pixel Pgx, the inclination angle setting unit 41 changes the angle α of the inclination interpolation line La from the reference angle to be relatively small.

例えば、傾斜角設定部41は、符号D1を付した近傍画素Pgに関しては30°、符号D2を付した近傍画素Pgに関しては25°、符号D3を付した近傍画素Pgに関しては20°、符号D4を付した近傍画素Pgに関しては15°、符号D5を付した近傍画素Pgに関しては10°、それぞれ傾斜補間線Laの角度αを基準角度から変更する。図25の場合は、符号D2が付された近傍画素Pgが異型画素Pgxとなるため、傾斜角設定部41は、傾斜補間線Laの角度αを基準角度から25°変更する。   For example, the tilt angle setting unit 41 is 30 ° for the neighboring pixel Pg with the reference D1, 25 ° for the neighboring pixel Pg with the reference D2, 20 ° for the neighboring pixel Pg with the reference D3, and the reference D4. The angle α of the inclined interpolation line La is changed from the reference angle by 15 ° with respect to the neighboring pixel Pg marked with and 10 ° with respect to the neighboring pixel Pg marked with D5. In the case of FIG. 25, since the neighboring pixel Pg to which the reference sign D2 is attached becomes the atypical pixel Pgx, the inclination angle setting unit 41 changes the angle α of the inclination interpolation line La by 25 ° from the reference angle.

なお、対象画素Pgtの近傍に複数の異型画素Pgxが存在する場合は、傾斜角設定部41は、対象画素Pgtに最も近い異型画素Pgxに基づいて傾斜補間線Laの角度αを基準角度から変更する。   If there are a plurality of atypical pixels Pgx in the vicinity of the target pixel Pgt, the tilt angle setting unit 41 changes the angle α of the tilt interpolation line La from the reference angle based on the atypical pixel Pgx closest to the target pixel Pgt. To do.

また、傾斜角設定部41が、傾斜補間線Laの角度αを変更する向きは、対象画素に係る対象エッジのパターンに応じて異なっている。   The direction in which the tilt angle setting unit 41 changes the angle α of the tilt interpolation line La differs depending on the pattern of the target edge related to the target pixel.

図27に示すように、パターンA(0°<θ<45°)の場合は、傾斜角設定部41は、傾斜補間線Laの角度αを基準角度の45°から増加する向きに変更する。したがって、傾斜角設定部41は、傾斜補間線Laの角度αを45°≦α<90°の範囲で設定する。   As shown in FIG. 27, in the case of pattern A (0 ° <θ <45 °), the inclination angle setting unit 41 changes the angle α of the inclination interpolation line La to a direction increasing from the reference angle of 45 °. Therefore, the inclination angle setting unit 41 sets the angle α of the inclination interpolation line La in a range of 45 ° ≦ α <90 °.

図28は、パターンAの場合において、傾斜補間線Laの角度αが基準角度から変更されたときの第1補間処理、及び、第2補間処理を示している。図11と図28とを比較して分かるように、傾斜補間線Laの角度αが基準角度から変更されると、角度αが基準角度の場合と比較して対象画素Pgtに近い入力画素Psが補間処理に用いられる。このため、補間処理による効果(ジャギーを低減する効果、及び、ノイズを増幅する作用)を緩和することができる。   FIG. 28 shows the first interpolation process and the second interpolation process when the angle α of the inclined interpolation line La is changed from the reference angle in the case of the pattern A. As can be seen by comparing FIG. 11 and FIG. 28, when the angle α of the tilt interpolation line La is changed from the reference angle, the input pixel Ps closer to the target pixel Pgt is compared to the case where the angle α is the reference angle. Used for interpolation processing. For this reason, the effect (the effect which reduces jaggy and the effect | action which amplifies noise) by an interpolation process can be relieved.

図29に示すように、パターンB(45°<θ<90°)の場合は、傾斜角設定部41は、傾斜補間線Laの角度αを基準角度の45°から減少する向きに変更する。したがって、傾斜角設定部41は、傾斜補間線Laの角度αを0°<α≦45°の範囲で設定する。   As shown in FIG. 29, in the case of the pattern B (45 ° <θ <90 °), the inclination angle setting unit 41 changes the angle α of the inclination interpolation line La to a direction decreasing from the reference angle of 45 °. Therefore, the inclination angle setting unit 41 sets the angle α of the inclination interpolation line La in a range of 0 ° <α ≦ 45 °.

図30は、パターンBの場合において、傾斜補間線Laの角度αが基準角度から変更されたときの第1補間処理、及び、第2補間処理を示している。図12と図30とを比較して分かるように、傾斜補間線Laの角度αが基準角度から変更されると、角度αが基準角度の場合と比較して対象画素Pgtに近い入力画素Psが補間処理に用いられる。このため、補間処理による効果(ジャギーを低減する効果、及び、ノイズを増幅する作用)を緩和することができる。   FIG. 30 shows the first interpolation process and the second interpolation process when the angle α of the inclined interpolation line La is changed from the reference angle in the case of the pattern B. As can be seen by comparing FIG. 12 and FIG. 30, when the angle α of the inclined interpolation line La is changed from the reference angle, the input pixel Ps closer to the target pixel Pgt is compared to the case where the angle α is the reference angle. Used for interpolation processing. For this reason, the effect (the effect which reduces jaggy and the effect | action which amplifies noise) by an interpolation process can be relieved.

図31に示すように、パターンC(90°<θ<135°)の場合は、傾斜角設定部41は、傾斜補間線Laの角度αを基準角度の135°から増加する向きに変更する。したがって、傾斜角設定部41は、傾斜補間線Laの角度αを135°≦α<180°の範囲で設定する。   As shown in FIG. 31, in the case of pattern C (90 ° <θ <135 °), the inclination angle setting unit 41 changes the angle α of the inclination interpolation line La to a direction increasing from the reference angle of 135 °. Therefore, the inclination angle setting unit 41 sets the angle α of the inclination interpolation line La in a range of 135 ° ≦ α <180 °.

図32は、パターンCの場合において、傾斜補間線Laの角度αが基準角度から変更されたときの第1補間処理、及び、第2補間処理を示している。図13と図32とを比較して分かるように、傾斜補間線Laの角度αが基準角度から変更されると、角度αが基準角度の場合と比較して対象画素Pgtに近い入力画素Psが補間処理に用いられる。このため、補間処理による効果(ジャギーを低減する効果、及び、ノイズを増幅する作用)を緩和することができる。   FIG. 32 shows the first interpolation process and the second interpolation process when the angle α of the inclined interpolation line La is changed from the reference angle in the case of the pattern C. As can be seen by comparing FIG. 13 and FIG. 32, when the angle α of the tilt interpolation line La is changed from the reference angle, the input pixel Ps closer to the target pixel Pgt is compared to the case where the angle α is the reference angle. Used for interpolation processing. For this reason, the effect (the effect which reduces jaggy and the effect | action which amplifies noise) by an interpolation process can be relieved.

図33に示すように、パターンD(135°<θ<180°)の場合は、傾斜角設定部41は、傾斜補間線Laの角度αを基準角度の135°から減少する向きに変更する。したがって、傾斜角設定部41は、傾斜補間線Laの角度αを90°<α≦135°の範囲で設定する。   As shown in FIG. 33, in the case of the pattern D (135 ° <θ <180 °), the inclination angle setting unit 41 changes the angle α of the inclination interpolation line La to a direction decreasing from the reference angle of 135 °. Therefore, the inclination angle setting unit 41 sets the angle α of the inclination interpolation line La in a range of 90 ° <α ≦ 135 °.

図34は、パターンDの場合において、傾斜補間線Laの角度αが基準角度から変更されたときの第1補間処理、及び、第2補間処理を示している。図14と図34とを比較して分かるように、傾斜補間線Laの角度αが基準角度から変更されると、角度αが基準角度の場合と比較して対象画素Pgtに近い入力画素Psが補間処理に用いられる。このため、補間処理による効果(ジャギーを低減する効果、及び、ノイズを増幅する作用)を緩和することができる。   FIG. 34 shows the first interpolation process and the second interpolation process when the angle α of the inclined interpolation line La is changed from the reference angle in the case of the pattern D. As can be seen by comparing FIG. 14 and FIG. 34, when the angle α of the tilt interpolation line La is changed from the reference angle, the input pixel Ps closer to the target pixel Pgt is compared with the case where the angle α is the reference angle. Used for interpolation processing. For this reason, the effect (the effect which reduces jaggy and the effect | action which amplifies noise) by an interpolation process can be relieved.

第1及び第2補間処理(ステップS44,S45)が完了して対象画素の値が導出されると、次に、画素値修正部44が、導出された対象画素の値にオーバーシュートまたはアンダーシュートが生じている場合は対象画素の値を修正する(ステップS46〜S48)。   When the first and second interpolation processes (steps S44 and S45) are completed and the value of the target pixel is derived, the pixel value correcting unit 44 then overshoots or undershoots the derived target pixel value. If this occurs, the value of the target pixel is corrected (steps S46 to S48).

前述のように、第1補間処理及び第2補間処理においては補間の演算式としてはバイキュービックと同じ演算式が採用される。このため、図35に示すように、入力画像の画素の値B1が急激に変化する箇所において、補間処理後の画像の画素の値B2が補間元となった入力画像の画素の値B1の最小値Bminから最大値Bmaxまでの範囲から外れる現象(オーバーシュートまたはアンダーシュート)が生じることがある。この現象が生じた場合に補間処理後の画像をそのまま出力画像とすると、その出力画像を視認したユーザが違和感を感じる可能性がある。このため、この現象が生じる場合は、画素値修正部44は、図35の下部に示すように、入力画像の画素の値B1の範囲(Bmin〜Bmax)に近づくように画素の値B2を修正した結果を、出力画像の画素の値B3とする。   As described above, in the first interpolation process and the second interpolation process, the same calculation expression as that of bicubic is employed as the calculation expression for interpolation. For this reason, as shown in FIG. 35, at the location where the pixel value B1 of the input image changes abruptly, the minimum value B1 of the pixel of the input image from which the pixel value B2 of the image after interpolation processing is the interpolation source. A phenomenon (overshoot or undershoot) that deviates from the range from the value Bmin to the maximum value Bmax may occur. When this phenomenon occurs, if the image after the interpolation processing is used as an output image as it is, the user who visually recognizes the output image may feel uncomfortable. Therefore, when this phenomenon occurs, the pixel value correction unit 44 corrects the pixel value B2 so as to approach the range (Bmin to Bmax) of the pixel value B1 of the input image, as shown in the lower part of FIG. The result is defined as a pixel value B3 of the output image.

画素値修正部44は、まず、補間元となった入力画像の画素の値の範囲(以下、「入力画素範囲」という。)を取得する(ステップS46)。画素値修正部44は、第1補間処理で用いた16の入力画素Psのうちから、入力画素範囲を求めるための4つの入力画素Psを選択する。   The pixel value correcting unit 44 first acquires a pixel value range (hereinafter referred to as “input pixel range”) as an interpolation source (step S46). The pixel value correcting unit 44 selects four input pixels Ps for obtaining an input pixel range from the 16 input pixels Ps used in the first interpolation process.

画素値修正部44は、図36に示すように、傾斜補間線Laに隣接し、かつ、対象画素Pgtに最も近い4つの入力画素Pstを選択する。換言すれば、画素値修正部44は、第1補間処理で用いた16の入力画素Psのうちの中央の4つの入力画素Pstを選択する。そして、画素値修正部44は、選択した4つの入力画素Pstの最大値Bmaxと最小値Bminとを取得し、その最小値Bminから最大値Bmaxまでの範囲を入力画素範囲として取得する。   As illustrated in FIG. 36, the pixel value correcting unit 44 selects four input pixels Pst that are adjacent to the inclined interpolation line La and closest to the target pixel Pgt. In other words, the pixel value correcting unit 44 selects the four input pixels Pst at the center among the 16 input pixels Ps used in the first interpolation process. Then, the pixel value correcting unit 44 acquires the maximum value Bmax and the minimum value Bmin of the four selected input pixels Pst, and acquires the range from the minimum value Bmin to the maximum value Bmax as the input pixel range.

次に、画素値修正部44は、補間処理で導出された対象画素の値が入力画素範囲から外れるか否かを判定する(ステップS47)。そして、対象画素の値が入力画素範囲から外れる場合は、画素値修正部44は、対象画素の値を入力画素範囲に近づくように修正する(ステップS48)。   Next, the pixel value correcting unit 44 determines whether or not the value of the target pixel derived by the interpolation process is out of the input pixel range (step S47). If the value of the target pixel is out of the input pixel range, the pixel value correcting unit 44 corrects the value of the target pixel so as to approach the input pixel range (step S48).

画素値修正部44は、オーバーシュートの場合は以下の式(8)を用いて対象画素の値Bgを修正し、アンダーシュートの場合は以下の式(9)を用いて対象画素の値を修正する。これらの式(8),式(9)において、Bgは対象画素の値であり、Nは係数(0<N<1)である。   The pixel value correcting unit 44 corrects the target pixel value Bg using the following formula (8) in the case of overshoot, and corrects the target pixel value using the following formula (9) in the case of undershoot. To do. In these formulas (8) and (9), Bg is the value of the target pixel, and N is a coefficient (0 <N <1).

Bg=Bg−(Bg−Bmax)・N …(8)
Bg=Bg+(Bmin−Bg)・N …(9)
このように傾斜補間線Laを考慮した4つの入力画素Pstの最大値と最小値とで規定される入力画素範囲に基づいて対象画素の値を修正するため、傾斜補間線Laを用いた補間処理によって生じるオーバーシュート及びアンダーシュートを適切に修正することができる。
Bg = Bg− (Bg−Bmax) · N (8)
Bg = Bg + (Bmin−Bg) · N (9)
In this way, the interpolation processing using the gradient interpolation line La is performed in order to correct the value of the target pixel based on the input pixel range defined by the maximum value and the minimum value of the four input pixels Pst in consideration of the gradient interpolation line La. The overshoot and undershoot caused by the above can be corrected appropriately.

なお、本実施例では、画素値修正部44は、入力画素範囲に近づくように対象画素の値を修正しているが、図37に示すように、対象画素の値を入力画素範囲内に制限してもよい。この場合は、上記式(8)及び式(9)の係数Nを1とすればよい。   In this embodiment, the pixel value correcting unit 44 corrects the value of the target pixel so as to approach the input pixel range. However, as shown in FIG. 37, the value of the target pixel is limited within the input pixel range. May be. In this case, the coefficient N in the above equations (8) and (9) may be set to 1.

<5.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<5. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All the forms including the above-described embodiment and the form described below can be appropriately combined.

上記実施の形態では、エッジ情報取得処理(図17参照。)のステップS23において、自位置エッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合は、自位置エッジの強度Seを弱めるようにしていた。これに対して、自位置エッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合は、傾斜型補間法(第1及び第2補間処理)に代えて、水平方向及び垂直方向に沿ったバイリニアなどの従来の補間手法の補間処理を行って対象画素の値を導出するようにしてもよい。この場合は、図38に示すように、画素補間部4は、従来の補間手法の補間処理を行う第3補間処理部45を備える。自位置エッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合は、対象画素の位置におけるジャギーが発生しにくいため、従来の補間処理を行うことで、第1及び第2補間処理に起因したノイズの発生を抑制できる。   In the above-described embodiment, in step S23 of the edge information acquisition process (see FIG. 17), if the extension direction of the own position edge is substantially along either the horizontal direction or the vertical direction, the strength Se of the own position edge. I was trying to weaken. On the other hand, when the extending direction of the own position edge is substantially along either the horizontal direction or the vertical direction, the horizontal direction and the vertical direction are used instead of the inclined interpolation method (first and second interpolation processes). The value of the target pixel may be derived by performing interpolation processing of a conventional interpolation method such as bilinear along In this case, as shown in FIG. 38, the pixel interpolation unit 4 includes a third interpolation processing unit 45 that performs an interpolation process using a conventional interpolation method. When the extending direction of the own position edge is substantially along either the horizontal direction or the vertical direction, jaggies are hardly generated at the position of the target pixel. Therefore, the first and second interpolations are performed by performing the conventional interpolation process. Generation of noise due to processing can be suppressed.

また、上記実施の形態では、エッジ情報取得処理(図17参照。)のステップS31において、複数の周辺エッジと自位置エッジとのうちから強度が最大のエッジを選択することで対象エッジを導出していた。これに対して、対象画素の位置からの距離に応じた重みを採用して、複数の周辺エッジと自位置エッジとの加重平均により対象エッジを導出してもよい。   In the above embodiment, in step S31 of the edge information acquisition process (see FIG. 17), the target edge is derived by selecting the edge having the maximum strength from the plurality of peripheral edges and the own position edge. It was. On the other hand, a weight corresponding to the distance from the position of the target pixel may be adopted to derive the target edge by a weighted average of a plurality of peripheral edges and the own position edge.

また、エッジ情報取得処理のステップS31において対象エッジを導出する際に参照する周辺エッジとして、任意の周辺エッジが選択されてもよい。   Further, any peripheral edge may be selected as the peripheral edge to be referred to when the target edge is derived in step S31 of the edge information acquisition process.

また、上記実施の形態の第1補間処理及び第2補間処理ではバイキュービックと同じ演算式を用いるものとして説明したが、バイリニアやLanczos3などの他の周知の演算式を採用してもよい。採用する演算式に応じて、補間処理に用いる入力画素Psの数も変更される。   In the first interpolation process and the second interpolation process of the above-described embodiment, the same arithmetic expression as that of bicubic is used. However, other well-known arithmetic expressions such as bilinear and Lanczos 3 may be employed. The number of input pixels Ps used for the interpolation process is also changed according to the arithmetic expression employed.

また、上記実施の形態の画素補間処理においては、傾斜角設定部41は、異型画素Pgxが存在している場合に、傾斜補間線Laの角度αを基準角度から変更するようにしていた。これに代えて、あるいは、これに加えて、傾斜角設定部41は、対象エッジの強度に応じて傾斜補間線Laの水平方向に対する角度αを基準角度から変更してもよい。対象エッジの強度が比較的小さい場合に、効果の大きな補間処理を行うとノイズを増幅する可能性がある。このため、対象エッジの強度が小さいほど、傾斜補間線Laの角度αを基準角度から変更する程度を大きくすることが望ましい。これによれば、補間処理による効果(ジャギーを低減する効果、及び、ノイズを増幅する作用)を対象エッジの強度に合わせて調整できる。   In the pixel interpolation process of the above embodiment, the inclination angle setting unit 41 changes the angle α of the inclination interpolation line La from the reference angle when the atypical pixel Pgx exists. Instead of this, or in addition to this, the inclination angle setting unit 41 may change the angle α of the inclination interpolation line La with respect to the horizontal direction from the reference angle according to the strength of the target edge. When the intensity of the target edge is relatively small, noise may be amplified if interpolation processing with a large effect is performed. For this reason, it is desirable to increase the degree of changing the angle α of the inclined interpolation line La from the reference angle as the intensity of the target edge is smaller. According to this, the effect (the effect of reducing jaggies and the effect of amplifying noise) by the interpolation process can be adjusted according to the intensity of the target edge.

また、上述した式に用いる定数や係数は、適宜に変更できるようになっていてもよい。   Moreover, the constants and coefficients used in the above-described formulas may be changed as appropriate.

また、上記実施の形態において、ハードウェア回路による機能として説明したサイズ変更部2の機能の全部又は一部はソフトウェア的に実現されてもよい。例えば、サイズ変更部2と同一の機能が、プログラムに従って制御部10のCPUが演算処理を行うことで実現されてもよい。   In the above embodiment, all or part of the functions of the size changing unit 2 described as functions by the hardware circuit may be realized by software. For example, the same function as that of the size changing unit 2 may be realized by the CPU of the control unit 10 performing arithmetic processing according to a program.

また、上記実施の形態の画像処理装置1は車載装置であるとしていたが、パーソナルコンピュータやタブレットなどの汎用のコンピュータ上においてプログラムを実行することで、当該コンピュータが上記と同様の機能を有する画像処理装置として機能してもよい。   Further, although the image processing apparatus 1 of the above-described embodiment is an in-vehicle apparatus, by executing a program on a general-purpose computer such as a personal computer or a tablet, the computer has the same function as the above. It may function as a device.

1 画像処理装置
2 サイズ変更部
3 エッジ情報導出部
4 画素補間部
33 エッジ選択部
34 エッジ分類部
41 傾斜角設定部
42 第1補間処理部
43 第2補間処理部
Pgt 対象画素
Ps 入力画素
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Size change part 3 Edge information derivation part 4 Pixel interpolation part 33 Edge selection part 34 Edge classification part 41 Inclination angle setting part 42 1st interpolation process part 43 2nd interpolation process part Pgt Target pixel Ps Input pixel

Claims (11)

入力画像のサイズを変更して出力画像を生成する画像処理装置であって、
前記入力画像の水平方向及び垂直方向のいずれかを配列方向とする複数の入力画素の値を用いた補間処理を行い、前記出力画像の対象画素の位置を通り水平方向に対して傾斜する傾斜補間線上の複数の注目点の値をそれぞれ導出する第1補間手段と、
前記傾斜補間線上の前記複数の注目点の値を用いた補間処理を行い、前記対象画素の値を導出する第2補間手段と、
前記対象画素に係る対象エッジの情報を導出するエッジ情報導出手段と、を備え、
前記第1補間手段は、前記対象エッジの水平方向に対する角度に応じた補間処理を行い、
前記エッジ情報導出手段は、
前記対象画素の位置に対応する入力画像の参照領域を特定し、特定した参照領域の中心を前記対象画素の周辺位置に決定し、複数の周辺位置における周辺エッジと、前記対象画素の位置における自位置エッジとに基づいて、前記対象エッジの情報を導出する
ことを特徴とする画像処理装置。
An image processing apparatus that generates an output image by changing the size of an input image,
Inclination interpolation that performs interpolation processing using values of a plurality of input pixels whose arrangement direction is either the horizontal direction or the vertical direction of the input image, and is inclined with respect to the horizontal direction through the position of the target pixel of the output image First interpolation means for deriving values of a plurality of points of interest on the line,
A second interpolation unit that performs an interpolation process using the values of the plurality of points of interest on the inclined interpolation line, and derives the value of the target pixel;
Edge information deriving means for deriving information of the target edge related to the target pixel,
The first interpolation means performs an interpolation process according to an angle of the target edge with respect to a horizontal direction;
The edge information deriving means includes
A reference area of the input image corresponding to the position of the target pixel is specified, a center of the specified reference area is determined as a peripheral position of the target pixel, and a peripheral edge at a plurality of peripheral positions and an automatic position at the position of the target pixel are determined. An image processing apparatus , wherein information on the target edge is derived based on a position edge .
請求項に記載の画像処理装置において、
前記第1補間手段は、前記対象エッジの水平方向に対する角度に応じて、前記補間処理に用いる前記複数の入力画素の配列方向を水平方向及び垂直方向のいずれとするかを選択することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 .
The first interpolation means selects whether the array direction of the plurality of input pixels used for the interpolation processing is a horizontal direction or a vertical direction according to an angle of the target edge with respect to a horizontal direction. An image processing apparatus.
請求項に記載の画像処理装置において、
前記対象エッジの水平方向に対する角度をθとした場合、
前記第1補間手段は、
45°<θ<135°のときは、前記補間処理に用いる前記複数の入力画素の配列方向を垂直方向とし、
0°<θ<45°、または、135°<θ<180°のときは、前記補間処理に用いる前記複数の入力画素の配列方向を水平方向とすることを特徴とする画像処理装置。
The image processing apparatus according to claim 2 ,
When the angle of the target edge with respect to the horizontal direction is θ,
The first interpolation means includes
When 45 ° <θ <135 °, the arrangement direction of the plurality of input pixels used for the interpolation processing is a vertical direction,
When 0 ° <θ <45 ° or 135 ° <θ <180 °, the image processing apparatus is characterized in that the arrangement direction of the plurality of input pixels used for the interpolation processing is a horizontal direction.
請求項に記載の画像処理装置において、
前記周辺位置は、最小の矩形を形成する4つの入力画素の中心であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 .
The image processing apparatus according to claim 1, wherein the peripheral position is a center of four input pixels forming a minimum rectangle.
請求項1ないし4のいずれかに記載の画像処理装置において、
前記エッジ情報導出手段は、前記複数の周辺位置におけるエッジ、及び、前記対象画素の位置におけるエッジのうち強度が最大のエッジを、前記対象エッジとして選択することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 4 ,
The image processing apparatus according to claim 1, wherein the edge information deriving unit selects, as the target edge, an edge having the maximum intensity among the edges at the plurality of peripheral positions and the edge at the position of the target pixel.
請求項に記載の画像処理装置において、
前記複数の周辺位置のいずれかにおけるエッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合は、当該エッジの強度を弱める弱化手段、
をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 5 .
When the extending direction of the edge at any of the plurality of peripheral positions is substantially along either the horizontal direction or the vertical direction, weakening means for weakening the strength of the edge,
An image processing apparatus further comprising:
請求項に記載の画像処理装置において、
前記複数の周辺位置それぞれの前記対象画素の位置からの距離に応じて、前記複数の周辺位置それぞれにおけるエッジの強度を弱める弱化手段、
をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 5 .
A weakening means for weakening the strength of the edge in each of the plurality of peripheral positions according to the distance from the position of the target pixel in each of the plurality of peripheral positions;
An image processing apparatus further comprising:
請求項ないしのいずれかに記載の画像処理装置において、
前記対象画素の位置におけるエッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合は、該エッジの強度を弱める弱化手段、
をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 5 to 7 ,
Weakening means for weakening the strength of the edge when the extending direction of the edge at the position of the target pixel is substantially along either the horizontal direction or the vertical direction;
An image processing apparatus further comprising:
請求項ないしのいずれかに記載の画像処理装置において、
前記対象画素の位置におけるエッジの延伸方向が水平方向及び垂直方向のいずれかに略沿っている場合は、前記第1及び第2補間手段に代わり、水平方向及び垂直方向に沿った補間処理を行い前記対象画素の値を導出する第3補間手段、
をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 7 ,
When the extending direction of the edge at the position of the target pixel is substantially along either the horizontal direction or the vertical direction, interpolation processing along the horizontal direction and the vertical direction is performed instead of the first and second interpolation means. Third interpolation means for deriving the value of the target pixel;
An image processing apparatus further comprising:
入力画像のサイズを変更して出力画像を生成する画像処理方法であって、
(a)前記入力画像の水平方向及び垂直方向のいずれかを配列方向とする複数の入力画素の値を用いた補間処理を行い、前記出力画像の対象画素の位置を通り水平方向に対して傾斜する傾斜補間線上の複数の注目点の値をそれぞれ導出する工程と、
(b)前記傾斜補間線上の前記複数の注目点の値を用いた補間処理を行い、前記対象画素の値を導出する工程と、
(c)前記対象画素に係る対象エッジの情報を導出する工程と、
を備え
前記(a)の工程は、
前記対象エッジの水平方向に対する角度に応じた補間処理を行い、
前記(c)の工程は、
前記対象画素の位置に対応する入力画像の参照領域を特定し、特定した参照領域の中心を前記対象画素の周辺位置に決定し、複数の周辺位置における周辺エッジと、前記対象画素の位置における自位置エッジとに基づいて、前記対象エッジの情報を導出する
ことを特徴とする画像処理方法。
An image processing method for generating an output image by changing the size of an input image,
(A) performing an interpolation process using values of a plurality of input pixels whose arrangement direction is either the horizontal direction or the vertical direction of the input image, and passing through the position of the target pixel of the output image and tilting with respect to the horizontal direction Deriving values of a plurality of points of interest on the slope interpolation line
(B) performing an interpolation process using values of the plurality of points of interest on the inclined interpolation line, and deriving the value of the target pixel;
(C) deriving information of a target edge related to the target pixel;
Equipped with a,
The step (a)
Perform interpolation processing according to the angle of the target edge with respect to the horizontal direction,
The step (c)
A reference area of the input image corresponding to the position of the target pixel is specified, a center of the specified reference area is determined as a peripheral position of the target pixel, and a peripheral edge at a plurality of peripheral positions and an automatic position at the position of the target pixel are determined. An image processing method , wherein information on the target edge is derived based on a position edge .
入力画像のサイズを変更して出力画像を生成する画像処理装置に含まれるコンピュータによって実行可能なプログラムであって、前記コンピュータに、
(a)前記入力画像の水平方向及び垂直方向のいずれかを配列方向とする複数の入力画素の値を用いた補間処理を行い、前記出力画像の対象画素の位置を通り水平方向に対して傾斜する傾斜補間線上の複数の注目点の値をそれぞれ導出する工程と、
(b)前記傾斜補間線上の前記複数の注目点の値を用いた補間処理を行い、前記対象画素の値を導出する工程と、
(c)前記対象画素に係る対象エッジの情報を導出する工程と、
を実行させ
前記(a)の工程は、
前記対象エッジの水平方向に対する角度に応じた補間処理を行い、
前記(c)の工程は、
前記対象画素の位置に対応する入力画像の参照領域を特定し、特定した参照領域の中心を前記対象画素の周辺位置に決定し、複数の周辺位置における周辺エッジと、前記対象画素の位置における自位置エッジとに基づいて、前記対象エッジの情報を導出する
ことを特徴とするプログラム。
A program that can be executed by a computer included in an image processing apparatus that changes the size of an input image to generate an output image,
(A) performing an interpolation process using values of a plurality of input pixels whose arrangement direction is either the horizontal direction or the vertical direction of the input image, and passing through the position of the target pixel of the output image and tilting with respect to the horizontal direction Deriving values of a plurality of points of interest on the slope interpolation line
(B) performing an interpolation process using values of the plurality of points of interest on the inclined interpolation line, and deriving the value of the target pixel;
(C) deriving information of a target edge related to the target pixel;
Was executed,
The step (a)
Perform interpolation processing according to the angle of the target edge with respect to the horizontal direction,
The step (c)
A reference area of the input image corresponding to the position of the target pixel is specified, a center of the specified reference area is determined as a peripheral position of the target pixel, and a peripheral edge at a plurality of peripheral positions and an automatic position at the position of the target pixel are determined. A program for deriving information on the target edge based on a position edge .
JP2014191225A 2014-09-19 2014-09-19 Image processing apparatus, image processing method, and program Active JP6469397B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014191225A JP6469397B2 (en) 2014-09-19 2014-09-19 Image processing apparatus, image processing method, and program
US14/850,174 US9524538B2 (en) 2014-09-19 2015-09-10 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014191225A JP6469397B2 (en) 2014-09-19 2014-09-19 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2016062429A JP2016062429A (en) 2016-04-25
JP6469397B2 true JP6469397B2 (en) 2019-02-13

Family

ID=55797854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014191225A Active JP6469397B2 (en) 2014-09-19 2014-09-19 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6469397B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050094899A1 (en) * 2003-10-29 2005-05-05 Changick Kim Adaptive image upscaling method and apparatus
US7379626B2 (en) * 2004-08-20 2008-05-27 Silicon Optix Inc. Edge adaptive image expansion and enhancement system and method
JP4994400B2 (en) * 2009-01-22 2012-08-08 三菱電機株式会社 Image processing apparatus and method, and image display apparatus
JP5478200B2 (en) * 2009-11-09 2014-04-23 京セラ株式会社 Image processing apparatus, image processing method, and image processing program
US8494308B2 (en) * 2011-03-10 2013-07-23 Sharp Laboratories Of America, Inc. Image upscaling based upon directional interpolation
JP5781370B2 (en) * 2011-06-06 2015-09-24 シャープ株式会社 Image processing apparatus, image processing method, image display apparatus including image processing apparatus, program, and recording medium

Also Published As

Publication number Publication date
JP2016062429A (en) 2016-04-25

Similar Documents

Publication Publication Date Title
US20170323430A1 (en) Image processing apparatus and image processing method
US20050162620A1 (en) Image processing apparatus
JP6682559B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP4525719B2 (en) Gradation correction apparatus, gradation correction method, and program
JP2010271987A (en) Area classification device, image quality improvement device, image display apparatus, and methods therefor
JP6128987B2 (en) Image processing apparatus, image processing method, and image processing program
JP6485068B2 (en) Image processing method and image processing apparatus
JP2008167027A (en) Image processor, image processing method and image processing program
KR102404557B1 (en) Image proccessing apparatus and image proccessing method
JP2006222493A (en) Creation of high resolution image employing a plurality of low resolution images
US9524538B2 (en) Image processing apparatus
WO2015198368A1 (en) Image processing device and image processing method
JP5968088B2 (en) Image processing apparatus, image processing method, and program
JP6469397B2 (en) Image processing apparatus, image processing method, and program
JP6469398B2 (en) Image processing apparatus, image processing method, and program
US9589324B1 (en) Overshoot protection of upscaled images
TWI294603B (en) Method for luminance transit improvement
JP5660300B2 (en) Image processing device
JP6135937B2 (en) Image processing method and image processing apparatus
JP6583008B2 (en) Image correction apparatus, image correction method, and computer program for image correction
JP4843489B2 (en) Image processing device
JP2007005933A (en) Picture adjusting method, picture processing circuit, and picture display
JP5705391B1 (en) Image processing apparatus and image processing method
KR20160069452A (en) Image processing device, image processing method and program
JP6126054B2 (en) Image signal processing method and image signal processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170824

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190116

R150 Certificate of patent or registration of utility model

Ref document number: 6469397

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250