KR101726683B1 - Method for processing image - Google Patents

Method for processing image Download PDF

Info

Publication number
KR101726683B1
KR101726683B1 KR1020110133049A KR20110133049A KR101726683B1 KR 101726683 B1 KR101726683 B1 KR 101726683B1 KR 1020110133049 A KR1020110133049 A KR 1020110133049A KR 20110133049 A KR20110133049 A KR 20110133049A KR 101726683 B1 KR101726683 B1 KR 101726683B1
Authority
KR
South Korea
Prior art keywords
image
pixel
gradation
resolution
pixels
Prior art date
Application number
KR1020110133049A
Other languages
Korean (ko)
Other versions
KR20130066286A (en
Inventor
이정안
장준영
박철희
강문기
Original Assignee
한화테크윈 주식회사
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사, 연세대학교 산학협력단 filed Critical 한화테크윈 주식회사
Priority to KR1020110133049A priority Critical patent/KR101726683B1/en
Publication of KR20130066286A publication Critical patent/KR20130066286A/en
Application granted granted Critical
Publication of KR101726683B1 publication Critical patent/KR101726683B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • H04N1/3935Enlarging or reducing with modification of image resolution, i.e. determining the values of picture elements at new relative positions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40068Modification of image resolution, i.e. determining the values of picture elements at new relative positions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/142Edging; Contouring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness

Abstract

영상 처리 방법이 개시된다. 이 방법은, 영상 처리 소자가 입력 영상의 해상도를 높이면서 상기 입력 영상을 처리하는 영상 처리 방법으로서, 단계 (a) 및 단계 (b)가 포함된다. 단계 (a)에서는, 영상 처리 소자는 입력 영상의 해상도를 높여서 설정 해상도 영상을 발생시킨다. 단계 (b)에서는, 영상 처리 소자는, 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지고, 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정한다.An image processing method is disclosed. The method includes steps (a) and (b), wherein the image processing element processes the input image while increasing the resolution of the input image. In step (a), the image processing element generates a set resolution image by increasing the resolution of the input image. In the step (b), the gradation difference between the image processing element and the adjacent pixels in the contour direction is small for each pixel in the area around the edge line in the set resolution image, and the line symmetry direction Is adjusted so that the difference in gradation from the adjacent pixels in the pixel is increased.

Description

영상 처리 방법{Method for processing image} [0001] The present invention relates to a method for processing image,

본 발명은, 영상 처리 방법에 관한 것으로서, 보다 상세하게는, 영상 처리 소자가 입력 영상의 해상도를 높이면서 입력 영상을 처리하는 영상 처리 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method, and more particularly, to an image processing method in which an image processing element processes an input image while increasing resolution of an input image.

영상 처리 소자가 입력 영상의 해상도를 높이면서 상기 입력 영상을 처리하는 영상 처리 방법은 다양하게 이용된다.An image processing method for processing the input image while increasing the resolution of the input image is variously used.

촬영 장치 예를 들어, 적외선 열상 카메라의 경우, 고해상도의 센서들의 가격이 매우 비싸다. 따라서, 대부분의 적외선 열상 카메라는, 저해상도의 센서들을 사용하고, 입력 영상의 해상도를 높이면서 입력 영상을 처리한다.Imaging devices For example, in the case of an infrared thermal camera, high-resolution sensors are very expensive. Therefore, most infrared thermal cameras use low-resolution sensors and process the input image while increasing the resolution of the input image.

이와 같은 영상 처리 방법과 관련된 선행 기술로는, 대한민국 특허출원 공개 제2009-0017356호(발명의 명칭 : 영상 확대 장치 및 방법, 출원인 : 삼성전자 주식회사)를 들 수 있다.As prior art related to such image processing method, Korean Patent Application Laid-Open No. 2009-0017356 entitled " Image enlarging apparatus and method, applicant: Samsung Electronics Co., Ltd. "

상기와 같은 선행 기술에 의하면, 입력 영상의 해상도를 높이면서 보간을 수행함에도 불구하고, 윤곽선(edge line) 영역이 부드럽게 연결되어 보이지 않고 계단처럼 연결되어 보이는 계단 현상이 여전히 나타난다. 또한, 윤곽선 영역이 상대적으로 흐리게 보이는 현상이 여전히 나타난다. According to the prior art described above, although the interpolation is performed while increasing the resolution of the input image, a stepped phenomenon still appears where the edge line area is connected smoothly without being seen as a step. Also, the phenomenon that the contour area appears to be relatively blurred still appears.

대한민국 특허출원 공개 제2009-0017356호Korean Patent Application Publication No. 2009-0017356 발명의 명칭 : 영상 확대 장치 및 방법Title: Image enlarging apparatus and method 출원인 : 삼성전자 주식회사Applicant: Samsung Electronics Co., Ltd.

본 발명의 실시예들은, 입력 영상의 해상도를 높이면서 나타나는 윤곽선(edge line) 영역에서의 계단 현상 및 흐림 현상을 최소화할 수 있는 영상 처리 방법을 제공하고자 한다.Embodiments of the present invention provide an image processing method capable of minimizing a staircase phenomenon and a blurring phenomenon in an edge line region appearing while increasing the resolution of an input image.

본 발명의 제1 측면에 따르면, 영상 처리 소자가 입력 영상의 해상도를 높이면서 상기 입력 영상을 처리하는 영상 처리 방법에 있어서, 단계 (a) 및 단계 (b)가 포함될 수 있다.According to a first aspect of the present invention, an image processing method for processing an input image by increasing the resolution of an input image may include steps (a) and (b).

상기 단계 (a)에서는, 상기 영상 처리 소자는 상기 입력 영상의 해상도를 높여서 설정 해상도 영상을 발생시킨다.In the step (a), the image processing element increases resolution of the input image to generate a set resolution image.

상기 단계 (b)에서는, 상기 영상 처리 소자는, 상기 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지고, 상기 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정한다.In the step (b), the image processing element is configured such that, for each pixel in the edge line surrounding region in the set resolution image, the gradation difference with respect to adjacent pixels in the contour direction is small, In the direction of the line symmetry with respect to the adjacent pixels.

본 발명의 제2 측면에 따르면, 영상 처리 소자가 입력 영상의 해상도를 높이면서 상기 입력 영상을 처리하는 영상 처리 방법에 있어서, 단계 (a) 내지 단계 (d)가 포함될 수 있다.According to a second aspect of the present invention, there is provided an image processing method for processing an input image by increasing the resolution of an input image, the method including steps (a) to (d).

상기 단계 (a)에서는, 상기 영상 처리 소자는 상기 입력 영상의 해상도를 높여서 제1 영상을 발생시킨다.In the step (a), the image processing device increases the resolution of the input image to generate a first image.

상기 단계 (b)에서는, 상기 영상 처리 소자는, 상기 제1 영상에서 추가되어 있는 화소들 각각의 계조를, 이웃하는 상기 입력 영상의 화소 계조들과의 중간 값으로 바꾸어, 제2 영상을 발생시킨다. In the step (b), the image processing element generates a second image by changing the gradation of each pixel added in the first image to an intermediate value with the pixel gradations of the neighboring input image .

상기 단계 (c)에서는, 상기 영상 처리 소자는, 상기 제1 영상에서 추가되어 있는 화소들 각각에 대하여, 상기 제1 영상의 계조와 상기 제2 영상의 계조를 가중치로써 합산하되, 이웃하는 상기 입력 영상의 화소 계조들의 차이가 클수록 해당 화소에 대해서 상기 제1 영상의 계조에 높은 가중치를 부여하여, 제3 영상을 발생시킨다.Wherein in the step (c), the image processing element adds the gradation of the first image and the gradation of the second image as weights to each of the pixels added in the first image, As the difference between the pixel gradations of the image increases, a higher weight is given to the gradation of the first image with respect to the pixel, and a third image is generated.

상기 단계 (d)에서는, 상기 영상 처리 소자는, 상기 제3 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지고, 상기 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정하여, 제4 영상을 발생시킨다.In the step (d), the image processing element is configured such that, for each pixel in an edge line peripheral region in the third image, a difference in gradation from adjacent pixels in the contour direction is small, So that the gradation difference between the adjacent pixels in the line-symmetric direction is increased, thereby generating the fourth image.

더 나아가, 단계 (e) 및 (f)가 추가적으로 더 포함될 수 있다.Furthermore, steps (e) and (f) may additionally be included.

상기 단계 (e)에서는, 상기 영상 처리 소자는, 상기 제4 영상의 평균 계조에 대한 각 화소 계조의 차이 값들을 분류하되, 제1 범위, 상기 제1 범위의 최대 값보다 큰 최소 값을 가진 제2 범위, 및 상기 제2 범위의 최대 값보다 큰 최소 값을 가진 제3 범위로써 분류한다.In the step (e), the image processing element classifies the difference values of each pixel gradation with respect to the average gradation of the fourth image, and divides the difference values into a first range, a second range having a minimum value 2 range, and a third range having a minimum value greater than the maximum value of the second range.

상기 단계 (f)에서는, 상기 영상 처리 소자는, 상기 제4 영상의 선예도(sharpness)를 높이되, 상기 제2 범위에 해당되는 화소들에 대하여 선예도 상승 비율을 상대적으로 높게 적용한다.In the step (f), the image processing element increases the sharpness of the fourth image, and applies a relatively high sharpness increase ratio to the pixels in the second range.

본 발명의 제3 측면에 따르면, 영상 처리 소자가 입력 영상의 해상도를 높이면서 상기 입력 영상을 처리하는 영상 처리 방법에 있어서, 단계 (a) 내지 단계 (d)가 포함될 수 있다.According to a third aspect of the present invention, an image processing method for processing an input image by increasing the resolution of an input image may include steps (a) to (d).

상기 단계 (a)에서는, 상기 영상 처리 소자는 상기 입력 영상의 선예도(sharpness)가 높아진 제1 영상을 발생시킨다.In the step (a), the image processing element generates a first image having a sharpness of the input image.

상기 단계 (b)에서는, 상기 영상 처리 소자는, 각각의 화소에 대하여, 상기 입력 영상의 계조와 상기 제1 영상의 계조를 가중치로써 합산하되, 한 화소의 분산 값이 높을수록 해당 화소에 대해서 상기 제1 영상의 계조에 높은 가중치를 부여하여, 제2 영상을 발생시킨다.In the step (b), the gradation of the input image and the gradation of the first image are weighted for each pixel of the image processing element, and as the variance value of one pixel is higher, A high weight is given to the gradation of the first image to generate the second image.

상기 단계 (c)에서는, 상기 영상 처리 소자는, 상기 제2 영상의 해상도를 높여서 제3 영상을 발생시킨다.In the step (c), the image processing element generates a third image by increasing the resolution of the second image.

상기 단계 (d)에서는, 상기 영상 처리 소자는, 상기 제3 영상에서 추가되어 있는 화소들 각각의 계조를, 이웃하는 상기 입력 영상의 화소 계조들과의 중간 값으로 바꾸어, 제4 영상을 발생시킨다.In the step (d), the image processing element generates a fourth image by changing the gradation of each of the pixels added in the third image to an intermediate value with the pixel gradations of the neighboring input image .

상기 단계 (e)에서는, 상기 영상 처리 소자는, 상기 제3 영상에서 추가되어 있는 화소들 각각에 대하여, 상기 제3 영상의 계조와 상기 제4 영상의 계조를 가중치로써 합산하되, 이웃하는 상기 입력 영상의 화소 계조들의 차이가 클수록 해당 화소에 대해서 상기 제3 영상의 계조에 높은 가중치를 부여하여, 제5 영상을 발생시킨다.Wherein in the step (e), the image processing element adds, for each of the pixels added in the third image, the gradations of the third image and the gradation of the fourth image as weights, As the difference between the pixel gradations of the image is larger, the gradation of the third image is given a higher weight for the pixel, and a fifth image is generated.

상기 단계 (f)에서는, 상기 영상 처리 소자는, 상기 제5 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지고, 상기 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정하여, 제6 영상을 발생시킨다.In the step (f), the gradation difference between the image processing element and adjacent pixels in the contour direction is small for each pixel in the area around the edge line in the fifth image, and the contour direction So that the gradation difference with respect to the adjacent pixels in the line-symmetric direction with respect to the pixel is increased, thereby generating the sixth image.

더 나아가, 단계 (h) 및 (i)가 추가적으로 더 포함될 수 있다.Further, steps (h) and (i) may additionally be included.

상기 단계 (h)에서는, 상기 영상 처리 소자는, 상기 제6 영상의 평균 계조에 대한 각 화소 계조의 차이 값들을 분류하되, 제1 범위, 상기 제1 범위의 최대 차이 값보다 큰 최소 차이 값을 가진 제2 범위, 및 상기 제2 범위의 최대 차이 값보다 큰 최소 차이 값을 가진 제3 범위로써 분류한다.In the step (h), the image processing element classifies the difference values of each pixel gradation with respect to the average gradation of the sixth image, and calculates a minimum difference value that is larger than the maximum difference value of the first range And a third range having a minimum difference value greater than the maximum difference value of the second range.

상기 단계 (i)에서는, 상기 영상 처리 소자는, 상기 제6 영상의 선예도(sharpness)를 높이되, 상승 정도를 상기 제2 범위에 해당되는 화소들에 대하여 가장 크게 적용한다.In the step (i), the image processing element increases the sharpness of the sixth image and applies the largest degree of elevation to the pixels in the second range.

본 발명의 실시예들에 의하면, 해상도가 높아진 상기 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지도록 조정된다. 이에 따라, 윤곽선 영역이 보다 부드럽게 연결되어 보일 수 있다. 즉, 윤곽선 영역이 계단처럼 연결되어 보이는 계단 현상이 최소화될 수 있다.According to the embodiments of the present invention, the gradation difference between adjacent pixels in the contour direction is adjusted so as to be smaller for each pixel in the area around the edge line in the set resolution image with higher resolution. As a result, the contour area can be seen more smoothly connected. That is, the staircase phenomenon in which the contour region is connected like a staircase can be minimized.

이와 동시에, 본 발명의 실시예들에 의하면, 해상도가 높아진 상기 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 상기 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정된다. 이에 따라, 윤곽선 영역이 보다 선명하게 보일 수 있다. 즉, 윤곽선 영역이 상대적으로 흐리게 보이는 현상이 최소화될 수 있다. At the same time, according to the embodiments of the present invention, for each pixel in the area around the edge line in the set resolution image having a higher resolution, the gradation difference with the adjacent pixels in the line-symmetry direction with respect to the contour direction . As a result, the contour area can be seen more clearly. That is, the phenomenon that the contour area is relatively blurred can be minimized.

요약하면, 본 발명의 실시예들에 의하면, 입력 영상의 해상도를 높이면서 나타나는 윤곽선 영역에서의 계단 현상 및 흐림 현상이 최소화될 수 있다.In summary, according to the embodiments of the present invention, the step phenomenon and the blurring phenomenon in the contour area appearing while increasing the resolution of the input image can be minimized.

더 나아가 추가적인 구성에 의한 효과들은 실시예들과 함께 상세히 설명될 것이다. Further, the effects of the additional configuration will be described in detail with the embodiments.

도 1은 본 발명의 실시예들의 영상 처리 방법이 적용된 촬영 장치의 구성을 보여주는 블록도이다.
도 2는 본 발명의 실시예들의 영상 처리 방법의 적용 분야를 설명하기 위한 도면이다.
도 3은 도 1의 영상 처리부에 의하여 수행되는 본 발명의 제1 실시예의 영상 처리 방법을 보여주는 흐름도이다.
도 4 내지 9는 도 3의 단계 S33을 상세히 설명하기 위한 도면들이다.
도 10은 도 1의 영상 처리부에 의하여 수행되는 본 발명의 제2 실시예의 영상 처리 방법을 보여주는 흐름도이다.
도 11은 도 10의 단계 S104를 상세히 설명하기 위한 도면이다.
도 12는 도 1의 영상 처리부에 의하여 수행되는 본 발명의 제3 실시예의 영상 처리 방법을 보여주는 흐름도이다.
도 13은 도 12의 단계 S1206 및 단계 S1207을 상세히 설명하기 위한 도면이다.
도 14는 도 1의 영상 처리부에 의하여 수행되는 본 발명의 제4 실시예의 영상 처리 방법을 보여주는 흐름도이다.
도 15는 도 1의 영상 처리부에 의하여 수행되는 본 발명의 제5 실시예의 영상 처리 방법을 보여주는 흐름도이다.
1 is a block diagram showing the configuration of a photographing apparatus to which an image processing method according to an embodiment of the present invention is applied.
2 is a view for explaining an application field of the image processing method of the embodiments of the present invention.
3 is a flowchart illustrating an image processing method of the first embodiment of the present invention performed by the image processing unit of FIG.
FIGS. 4 to 9 are views for explaining step S33 of FIG. 3 in detail.
10 is a flowchart illustrating an image processing method of a second embodiment of the present invention performed by the image processing unit of FIG.
FIG. 11 is a diagram for explaining step S104 of FIG. 10 in detail.
12 is a flowchart illustrating an image processing method of a third embodiment of the present invention performed by the image processing unit of FIG.
FIG. 13 is a diagram for explaining steps S1206 and S1207 in FIG. 12 in detail.
FIG. 14 is a flowchart illustrating an image processing method of a fourth embodiment of the present invention performed by the image processing unit of FIG. 1;
15 is a flowchart illustrating an image processing method of a fifth embodiment of the present invention performed by the image processing unit of FIG.

하기의 설명 및 첨부된 도면은 본 발명에 따른 동작을 이해하기 위한 것이며, 본 기술 분야의 통상의 기술자가 용이하게 구현할 수 있는 부분은 생략될 수 있다. The following description and accompanying drawings are for understanding the operation according to the present invention, and parts that can be easily implemented by those skilled in the art can be omitted.

또한 본 명세서 및 도면은 본 발명을 제한하기 위한 목적으로 제공된 것은 아니고, 본 발명의 범위는 청구의 범위에 의하여 정해져야 한다. 본 명세서에서 사용된 용어들은 본 발명을 가장 적절하게 표현할 수 있도록 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.Furthermore, the specification and drawings are not intended to limit the present invention, and the scope of the present invention should be determined by the claims. The terms used in the present specification should be construed to mean the meanings and concepts consistent with the technical idea of the present invention in order to best express the present invention.

이하, 첨부된 도면들과 함께 본 발명에 따른 바람직한 실시예가 상세히 설명된다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예들의 영상 처리 방법이 적용된 촬영 장치의 구성을 보여주는 블록도이다. 1 is a block diagram showing the configuration of a photographing apparatus to which an image processing method according to an embodiment of the present invention is applied.

도 1을 참조하면, 본 발명의 실시예들의 영상 처리 방법이 적용된 촬영 장치는 기본적으로 광학계(11), 광전 변환부(12), 아날로그-디지털 변환부(ADC : Analog-to-Digital Converter, 13), 및 영상 처리부(14)를 포함한다.1, a photographing apparatus to which an image processing method according to an embodiment of the present invention is applied includes an optical system 11, a photoelectric conversion unit 12, an analog-to-digital converter (ADC) 13 ), And an image processing unit (14).

렌즈부와 필터부를 포함한 광학계(11)는 피사체로부터의 빛을 광학적으로 처리한다. An optical system 11 including a lens unit and a filter unit optically processes light from a subject.

광전 변환부(12)는 광학계(11)로부터의 빛을 전기적인 아날로그 영상 신호(Ian)로 변환시킨다. 여기에서, 광전 변환부(12)가 상대적으로 낮은 해상도의 영상을 발생시킨다고 가정한다. The photoelectric conversion unit 12 converts the light from the optical system 11 into an electrical analog video signal Ian. Here, it is assumed that the photoelectric conversion unit 12 generates a relatively low resolution image.

아날로그-디지털 변환부(ADC : Analog-to-Digital Converter, 13)는, 광전 변환부(12)로부터의 아날로그 영상 신호(Ian)를 디지털 신호로 변환하면서 저해상도 입력 영상(Idi)을 발생시킨다. 도 1에서 (a x b)는 수평 화소 개수가 a이고 수직 화소 개수가 b인 저해상도를 가리킨다.An analog-to-digital converter (ADC) 13 generates a low-resolution input image Idi while converting the analog video signal Ian from the photoelectric conversion unit 12 into a digital signal. In FIG. 1, (a x b) indicates a low resolution in which the number of horizontal pixels is a and the number of vertical pixels is b.

영상 처리부(14)는, 아날로그-디지털 변환부(ADC, 13)로부터의 저해상도 입력 영상(Idi)의 해상도를 높이면서 입력 영상(Idi)을 처리하여, 그 결과의 설정 해상도의 영상(Iou)을 출력한다. 도 1에서 (m x n)은 수평 화소 개수가 m이고 수직 화소 개수가 n인 설정 해상도를 가리킨다.The image processing unit 14 processes the input image Idi while increasing the resolution of the low resolution input image Idi from the analog-to-digital converter (ADC) 13 and outputs the resulting image Iou having the set resolution Output. In FIG. 1, (m x n) indicates a set resolution in which the number of horizontal pixels is m and the number of vertical pixels is n.

도 2는 본 발명의 실시예들의 영상 처리 방법의 적용 분야를 설명하기 위한 도면이다. 도 2에서 참조 부호 Idi는 저해상도 입력 영상을, 그리고 Iou는 설정-해상도 출력 영상을 각각 가리킨다. 또한, P11 내지 Pb는 저해상도의 회소들을, 그리고 P11 내지 Pmn은 설정 해상도의 화소들을 각각 가리킨다.2 is a view for explaining an application field of the image processing method of the embodiments of the present invention. In Fig. 2, Idi denotes a low-resolution input image, and Iou denotes a set-resolution output image. P11 to Pb denote low-resolution pixels, and P11 to Pmn denote pixels of a set resolution, respectively.

도 1 및 2를 참조하면, 아날로그-디지털 변환부(ADC, 13)로부터 영상 처리부(14)에 입력되는 입력 영상(Idi)은 수평 화소 개수가 a이고 수직 화소 개수가 b인 저해상도(a x b)의 영상이다.1 and 2, an input image Idi input from the analog-to-digital converter (ADC) 13 to the image processing unit 14 has a low resolution (axb) with a horizontal pixel number a and a vertical pixel number b It is a video.

또한, 영상 처리부(14)로부터 출력되는 설정-해상도 출력 영상(Iou)은 수평 화소 개수가 m이고 수직 화소 개수가 n인 설정 해상도(m x n)의 영상이다.The set-resolution output image Iou outputted from the image processing unit 14 is an image of the set resolution (m x n) with the number of horizontal pixels m and the number of vertical pixels n.

이하, 영상 처리부(14)가 저해상도 입력 영상(Idi)의 해상도를 높이면서 입력 영상(Idi)을 처리하여 설정 해상도의 영상(Iou)을 출력하는 본 발명의 실시예들의 영상 처리 방법이 설명된다.An image processing method of embodiments of the present invention in which the image processing unit 14 processes the input image Idi while increasing the resolution of the low-resolution input image Idi and outputs the image Iou of the set resolution is described.

도 3은 도 1의 영상 처리부(14)에 의하여 수행되는 본 발명의 제1 실시예의 영상 처리 방법을 보여준다. 도 1 내지 3을 참조하여, 영상 처리부(14)에 의하여 수행되는 본 발명의 제1 실시예의 영상 처리 방법을 설명하면 다음과 같다.FIG. 3 shows the image processing method of the first embodiment of the present invention performed by the image processing unit 14 of FIG. 1 to 3, the image processing method of the first embodiment of the present invention, which is performed by the image processing unit 14, will be described as follows.

아날로그-디지털 변환부(ADC, 13)로부터 저해상도의 프레임 영상(Idi)이 영상 처리부(14)에 입력되면(단계 S31), 영상 처리부(14)는 입력 영상(Idi)의 해상도(a x b)를 높여서 설정 해상도(m x n) 영상을 발생시킨다(단계 S32).When the frame image Idi of low resolution is inputted from the analog-to-digital conversion section (ADC) 13 to the image processing section 14 (step S31), the image processing section 14 increases the resolution axb of the input image Idi And generates a set resolution (mxn) image (step S32).

다음에, 영상 처리부(14)는, 설정 해상도(m x n) 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지고, 상기 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정한다(단계 S33). 이 단계 S33에 대해서는 도 4 내지 9를 참조하여 상세히 설명될 것이다.Next, the image processing section 14 determines that the gradation difference between adjacent pixels in the outline direction is small for each pixel in the area around the edge line in the set resolution (mxn) image, Is adjusted so that the difference in gradation from the adjacent pixels in the line-symmetric direction becomes large (step S33). This step S33 will be described in detail with reference to Figs.

여기에서, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지도록 조정됨에 따라, 윤곽선 영역이 보다 부드럽게 연결되어 보일 수 있다. 즉, 윤곽선 영역이 계단처럼 연결되어 보이는 계단 현상이 최소화될 수 있다.Here, for each pixel in the area around the edge line in the resolution-enhanced set resolution image, the gradation difference with the adjacent pixels in the contour direction is adjusted so that the contour area is connected more smoothly, . That is, the staircase phenomenon in which the contour region is connected like a staircase can be minimized.

이와 동시에, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정된다. 이에 따라, 윤곽선 영역이 보다 선명하게 보일 수 있다. 즉, 윤곽선 영역이 상대적으로 흐리게 보이는 현상이 최소화될 수 있다. At the same time, for each pixel in the area around the edge line in the resolution-enhanced set resolution image, the gradation difference from the adjacent pixels in the line-symmetry direction with respect to the contour direction is adjusted to be large. As a result, the contour area can be seen more clearly. That is, the phenomenon that the contour area is relatively blurred can be minimized.

요약하면, 본 발명의 실시예들에 의하면, 입력 영상(Idi)의 해상도를 높이면서 나타나는 윤곽선 영역에서의 계단 현상 및 흐림 현상이 최소화될 수 있다.In summary, according to the embodiments of the present invention, the step phenomenon and the blurring phenomenon in the contour area appearing while increasing the resolution of the input image Idi can be minimized.

다음에, 영상 처리부(14)는 처리된 결과의 영상(Iou)을 출력한다(단계 S34).Next, the image processing unit 14 outputs the processed image Iou (step S34).

상기 모든 단계들은 종료 신호가 발생될 때까지 반복적으로 수행된다(단계 S35).All the above steps are repeatedly performed until a termination signal is generated (step S35).

도 4 내지 9는 도 3의 단계 S33을 상세히 설명하기 위한 도면들이다.FIGS. 4 to 9 are views for explaining step S33 of FIG. 3 in detail.

도 4에서 참조 부호 41은 설정 해상도 영상을, 411은 영상의 윤곽선(edge line)을, 412는 윤곽선 주위 영역을, 413은 윤곽선 방향을, 414는 선대칭 축을, 그리고 415는 선대칭 방향을 각각 가리킨다.In FIG. 4, reference numeral 41 denotes a set resolution image, 411 an image edge line, 412 a contour surrounding area, 413 a contour direction, 414 a line symmetry axis, and 415 a line symmetry direction.

도 1, 3 및 4를 참조하면, 영상 처리부(14)는, 설정 해상도(m x n) 영상에서의 윤곽선(edge line) 주위 영역(412)의 각 화소에 대하여, 윤곽선 방향(413)에서의 인접 화소들과의 계조 차이가 적어지고, 윤곽선 방향(413)에 대한 선대칭 방향(415)에서의 인접 화소들과의 계조 차이가 커지도록 조정한다. Referring to FIGS. 1, 3 and 4, the image processing unit 14 performs a process for calculating a pixel value of each pixel in an edge line surrounding area 412 in a set resolution (mxn) And the gradation difference with the adjacent pixels in the line symmetry direction 415 with respect to the contour direction 413 is adjusted to be large.

도 5에서 참조 부호 51,52는 설정 해상도 영상을, 512는 윤곽선 주위 영역을, 521은 각 화소에 대한 스캔 방향을, 523은 윤곽선 방향을, 525는 선대칭 방향을, 그리고 a,b,b',c,c'은 화소들을 각각 가리킨다.In FIG. 5, reference numerals 51 and 52 denote set resolution images, reference numeral 512 denotes a contour surrounding area, reference numeral 521 denotes a scanning direction for each pixel, reference numeral 523 denotes a contour direction, reference numeral 525 denotes a line symmetry direction, , c, and c 'denote the pixels, respectively.

도 1, 3 및 5를 참조하면, 영상 처리부(14)는, 설정 해상도(m x n) 영상에서의 윤곽선(edge line) 주위 영역(512)의 각 화소에 대하여, 윤곽선 방향(523)에서의 인접 화소들과의 계조 차이가 적어지고, 윤곽선 방향(523)에 대한 선대칭 방향(525)에서의 인접 화소들과의 계조 차이가 커지도록 조정한다. Referring to Figs. 1, 3 and 5, the image processing unit 14 performs the image processing on the adjacent pixels in the contour direction 523 with respect to each pixel in the edge line surrounding area 512 in the set resolution (mxn) And the gradation difference with the adjacent pixels in the line symmetry direction 525 with respect to the contour direction 523 is adjusted to be large.

해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역(512)의 각 화소에 대하여, 윤곽선 방향(523)에서의 인접 화소들과의 계조 차이가 적어지도록 조정됨에 따라, 윤곽선 영역이 보다 부드럽게 연결되어 보일 수 있다. 즉, 윤곽선 영역이 계단처럼 연결되어 보이는 계단 현상이 최소화될 수 있다.As the gradation difference with the adjacent pixels in the contour direction 523 is adjusted for each pixel in the edge line surrounding area 512 in the resolution-enhanced setting resolution image, the contour area becomes smoother Can be connected. That is, the staircase phenomenon in which the contour region is connected like a staircase can be minimized.

이와 동시에, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역(512)의 각 화소에 대하여, 윤곽선 방향(523)에 대한 선대칭 방향(525)에서의 인접 화소들과의 계조 차이가 커지도록 조정된다. 이에 따라, 윤곽선 영역이 보다 선명하게 보일 수 있다. 즉, 윤곽선 영역이 상대적으로 흐리게 보이는 현상이 최소화될 수 있다. At the same time, for each pixel in the edge line peripheral area 512 in the resolution-enhanced set resolution image, the difference in gradation from the adjacent pixels in the line-symmetry direction 525 to the contour direction 523 becomes large . As a result, the contour area can be seen more clearly. That is, the phenomenon that the contour area is relatively blurred can be minimized.

요약하면, 입력 영상(Idi)의 해상도를 높이면서 나타나는 윤곽선 영역에서의 계단 현상 및 흐림 현상이 최소화될 수 있다.In summary, the staircase phenomenon and the blurring phenomenon in the contour area appearing while increasing the resolution of the input image Idi can be minimized.

도 6에서 참조 부호 61은 보정 전 확대-윤곽선을, 그리고 62는 보정 후 확대-윤곽선을 각각 가리킨다.6, reference numeral 61 denotes an enlargement-contour line before correction, and 62 denotes an enlargement-contour line after correction.

해상도가 높아진 설정 해상도 영상에서의 윤곽선(61)은 전체적으로 보았을 때 계단 현상의 문제점을 가지는 반면에, 확대하여 보면 도 6에 도시된 바와 같이 경사도가 낮아지는 상반적인 문제점도 가진다. 왜냐하면, 해상도가 높아지는 과정에서, 인접 화소들 사이의 보간에 의하여 새로운 화소들이 생성되기 때문이다.The contour line 61 in the set resolution image having a high resolution has a problem of staircase phenomenon as viewed from the whole, but also has the opposite problem in that the inclination degree is lowered as shown in FIG. 6 when enlarged. This is because in the process of increasing the resolution, new pixels are generated by interpolation between adjacent pixels.

따라서, 본 실시예의 경우, 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정됨에 의하여, 확대하여 보면 도 6에 도시된 바와 같이 부분적인 경사도가 높아지게 보인다. 이로 인하여 윤곽선 영역이 상대적으로 흐리게 보이는 현상이 최소화될 수 있다. Therefore, in the present embodiment, as the gradation difference with the contiguous pixels in the line-symmetry direction with respect to the outline direction is adjusted to be larger, the partial inclination becomes higher as shown in FIG. As a result, the phenomenon that the contour area is relatively blurred can be minimized.

도 7에서 참조 부호 71은 선대칭 축을, 그리고 a,b1,b2,c1 및 c2는 화소들을 가리킨다. 도 7에서, 윤곽선 영역 내의 어느 한 화소 a를 기준으로, b1<->b2 방향이 윤곽선 방향이고, c1<->c2 방향이 윤곽선 방향이라 간주한다. In Fig. 7, reference numeral 71 denotes a line-symmetric axis, and a, b1, b2, c1 and c2 denote pixels. 7, the direction b1 < - > b2 is the contour direction, and the direction c1 < - > c2 is regarded as the contour direction with reference to one pixel a in the contour area.

본 실시예의 경우, 윤곽선 영역 내의 어느 한 화소 a에 대한 도 3의 단계 S33은 아래의 수학식 1에 의하여 수행된다.In the case of this embodiment, step S33 of FIG. 3 for one pixel a in the outline region is performed by the following equation (1).

Figure 112011098575268-pat00001
Figure 112011098575268-pat00001

상기 수학식 1에서, Ga'은 화소 a의 보정 후 계조를, Ga는 화소 a의 보정 전 계조를, Gb1은 화소 b1의 현재 계조를, Gb2는 화소 b2의 현재 계조를, Gc1은 화소 c1의 현재 계조를, 그리고 Gc2는 화소 c2의 현재 계조를 각각 가리킨다.In the above equation (1), Ga 'denotes the post-correction gradation of the pixel a, Ga denotes the pre-correction gradation of the pixel a, Gb1 denotes the current gradation of the pixel b1, Gb2 denotes the current gradation of the pixel b2, Current gradation, and Gc2 indicates the current gradation of the pixel c2, respectively.

따라서, 각 화소에 대하여 스캔 방향(도 5의 521)으로 스캔하면서, 윤곽선 영역(도 5의 512) 내의 모든 화소에 대하여 상기 수학식 1을 적용하면, 도 3의 단계 S33이 수행될 수 있다Therefore, when the above formula (1) is applied to all pixels in the contour area (512 in FIG. 5) while scanning in the scanning direction (521 in FIG. 5) for each pixel, step S33 of FIG. 3 can be performed

도 8에서 참조 부호 a81,a82,a83은 좌향 윤곽선 방향들을, 그리고 b81,b82,b83은 좌향 선대칭 방향들을 가리킨다.In FIG. 8, reference symbols a81, a82 and a83 denote leftward contour directions, and reference symbols b81, b82 and b83 indicate leftward line symmetry directions.

도 9에서 참조 부호 a91,a92,a93은 우향 윤곽선 방향들을, 그리고 b91,b92,b93은 우향 선대칭 방향들을 가리킨다.In Fig. 9, reference symbols a91, a92 and a93 denote the directions of the right contour lines, and b91, b92 and b93 denote the right line symmetry directions.

도 8 및 9를 참조하면, 윤곽선 영역(도 5의 512) 내의 모든 화소에 대하여 상기 수학식 1을 적용함에 있어서, 경우에 따라, 좌향 윤곽선 방향(a81,a82,a83) 및 좌향 선대칭 방향(b81,b82,b83)이 적용되거나, 우향 윤곽선 방향(a91,a92,a93) 및 우향 선대칭 방향(b91,b92,b93)이 적용될 수 있다.8 and 9, in applying Equation (1) to all the pixels in the outline region (512 in FIG. 5), the leftward contour directions a81, a82 and a83 and the left- , b82, b83 can be applied, or the right contour directions a91, a92, a93 and the right line symmetry directions b91, b92, b93 can be applied.

물론, 경우에 따라, 좌향 윤곽선 방향(a81,a82,a83) 및 우향 선대칭 방향(b91,b92,b93)이 적용되거나, 우향 윤곽선 방향(a91,a92,a93) 및 좌향 선대칭 방향(b81,b82,b83)이 적용될 수도 있다.Of course, the left contour directions a81, a82 and a83 and the right line symmetry directions b91, b92 and b93 may be applied or the right contour directions a91, a92 and a93 and the left symmetrical directions b81, b82, b83) may be applied.

이와 같이 상기 수학식 1의 적용을 위한 방향 설정은 영상 처리 시스템의 다양한 조건 및 환경 등에 따라 설정될 수 있다.Thus, the direction setting for the application of Equation (1) can be set according to various conditions and environments of the image processing system.

도 10은 도 1의 영상 처리부(14)에 의하여 수행되는 본 발명의 제2 실시예의 영상 처리 방법을 보여준다. FIG. 10 shows an image processing method of the second embodiment of the present invention performed by the image processing unit 14 of FIG.

도 11은 도 10의 단계 S104를 상세히 설명하기 위한 도면이다. 도 11에서 참조 부호 P1,P3,P5,P7은 원래 화소들을, P2,P4,P6은 해상도를 높이기 위하여 생성된 추가 화소들을, Wdiff1은 제1 좌향 계조 차이를, Wdiff2는 제2 좌향 계조 차이를, Ediff1은 제1 우향 계조 차이를, 그리고 Ediff2는 제2 우향 계조 차이를 각각 가리킨다.FIG. 11 is a diagram for explaining step S104 of FIG. 10 in detail. In FIG. 11, reference symbols P1, P3, P5 and P7 denote original pixels, P2, P4 and P6 denote additional pixels generated for increasing the resolution, Wdiff1 denotes a first leftward gradation difference and Wdiff2 denotes a second leftward gradation difference , Ediff1 indicates the first right gradation difference, and Ediff2 indicates the second right gradation difference.

도 1, 10 및 11을 참조하여, 본 발명의 제2 실시예의 영상 처리 방법을 설명하면 다음과 같다.The image processing method of the second embodiment of the present invention will be described with reference to FIGS. 1, 10 and 11. FIG.

아날로그-디지털 변환부(ADC, 13)로부터 저해상도의 프레임 영상(Idi)이 영상 처리부(14)에 입력되면(단계 S101), 영상 처리부(14)는 입력 영상(Idi)의 해상도(a x b)를 높여서 설정 해상도(m x n)의 제1 영상을 발생시킨다(단계 S102).When the low resolution frame image Idi is input from the analog-to-digital conversion unit (ADC) 13 to the image processing unit 14 (step S101), the image processing unit 14 increases the resolution axb of the input image Idi And generates a first image of the set resolution (mxn) (step S102).

다음에, 영상 처리부(14)는, 제1 영상에서 추가되어 있는 화소들 각각의 계조를, 이웃하는 상기 입력 영상의 화소 계조들과의 중간 값으로 바꾸어, 제2 영상을 발생시킨다(단계 S103). Next, the image processing unit 14 generates the second image by changing the gradation of each pixel added in the first image to an intermediate value with the pixel gradations of the neighboring input image (step S103) .

예를 들어, 제2 영상에서의 추가 화소를 P4, 좌향 인접 화소를 P3, 그리고 우향 인접 화소를 P5라 하면(도 11 참조), 제2 영상에서의 추가 화소 P4의 계조는 상기 3 화소들의 중간 값이 된다.For example, if the additional pixel in the second image is P4, the left adjacent pixel is P3, and the right adjacent pixel is P5 (refer to FIG. 11), the gradation of the additional pixel P4 in the second image becomes the middle Lt; / RTI &gt;

다음에, 영상 처리부(14)는, 상기 제1 영상에서 추가되어 있는 화소들 각각에 대하여, 상기 제1 영상의 계조와 상기 제2 영상의 계조를 가중치로써 합산하되, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이가 클수록 해당 화소에 대해서 상기 제1 영상의 계조에 높은 가중치를 부여하여, 제3 영상을 발생시킨다(단계 S104).Next, the image processing unit 14 adds the grayscale of the first image and the grayscale of the second image, as weights, to each of the pixels added in the first image, (Step S104), a higher weight is given to the gradation of the first image with respect to the pixel, and a third image is generated.

상기 단계 S104에서, 어느 한 화소에 대하여, 상기 제3 영상의 계조를 G3p, 이웃하는 상기 입력 영상의 화소 계조들의 차이에 비례한 가중값을 ω, 상기 제1 영상의 계조를 G1p, 그리고 상기 제2 영상의 계조를 G2p라 하면, 상기 제3 영상의 계조 G3p는 아래의 수학식 2에 의하여 구해진다.The gradation of the third image is G3p, the weight value proportional to the difference of the pixel gradations of the neighboring input image is?, The gradation of the first image is G1p, and the second If the gradation of the image is G2p, the gradation G3p of the third image is obtained by the following equation (2).

Figure 112011098575268-pat00002
Figure 112011098575268-pat00002

여기에서, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 클수록 해당 추가 화소는 윤곽선(edge line) 영역에 속할 가능성이 높다. 이와 반대로, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 적을수록 해당 추가 화소는 윤곽선(edge line) 영역에 속할 가능성이 낮다. 그런데, 윤곽선(edge line) 영역이 아닌 평탄 영역일 경우, 해상도 상승에 의하여 순간적으로 보여지는 노이즈 현상인 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)이 발생될 가능성이 높다. Here, the larger the weight value? Proportional to the difference between the pixel gradations of the neighboring input image (Idi in Fig. 1), the higher the likelihood that the corresponding additional pixel belongs to the edge line area. On the contrary, the smaller the weight value? Proportional to the difference between the pixel gradations of the neighboring input image (Idi in FIG. 1), the lower the possibility that the additional pixel belongs to the edge line area. However, in the case of a flat area rather than an edge line area, there is a high possibility that over-shooting and under-shooting, which are instantaneous noise phenomena due to the increase in resolution, are generated.

이와 관련하여 상기 단계 S104에 의하면, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 클수록 해상도 상승 후의 원래 계조가 많이 적용되고, 가중값 ω이 적을수록 해상도 상승 후의 중간(median) 계조가 많이 적용된다. In this regard, according to the above-described step S104, the larger the weight value? Proportional to the difference of the pixel gradations of the neighboring input image (Idi in Fig. 1), the more the original gradation after the resolution increase is applied. (median) gradation is applied a lot.

따라서, 이와 같이 구해진 상기 제3 영상에 의하면, 해상도 상승에 의하여 순간적으로 보여지는 노이즈 현상인 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)이 최소화될 수 있다.Therefore, according to the third image obtained as described above, over-shooting and under-shooting, which are noise phenomena instantaneously seen due to the increase in resolution, can be minimized.

본 실시예에서 상기 가중값 ω의 관계식을 구하는 방법은 다음과 같다(도 11 참조).In this embodiment, a method of obtaining the relational expression of the weight value? Is as follows (see FIG. 11).

먼저, 좌향 계조 차이들(Wdiff1, Wdiff2) 중에서 좌향 최대 차이(Wdiff)를 선택한다. 즉, 아래의 수학식 3을 사용한다. First, the leftward maximum difference Wdiff is selected from among the leftward gradation differences Wdiff1 and Wdiff2. That is, the following equation (3) is used.

Figure 112011098575268-pat00003
Figure 112011098575268-pat00003

이와 마찬가지로, 우향 계조 차이들(Ediff1, Ediff2) 중에서 우향 최대 차이(Ediff)를 선택한다. 즉, 아래의 수학식 4를 사용한다. Likewise, the right maximum difference (Ediff) is selected from the right gradation differences (Ediff1, Ediff2). That is, the following equation (4) is used.

Figure 112011098575268-pat00004
Figure 112011098575268-pat00004

다음에, 상기 좌향 최대 차이(Wdiff)와 우향 최대 차이(Ediff) 중에서 적은 값을 대표 차이(Rdiff)로서 선택한다. 즉, 아래의 수학식 5를 사용한다. Next, a smaller value among the leftward maximum difference Wdiff and the right maximum difference Ediff is selected as the representative difference Rdiff. That is, the following equation (5) is used.

Figure 112011098575268-pat00005
Figure 112011098575268-pat00005

여기에서, 인간의 시감에서 감지될 수 있는 최소한의 계조 차이를 32라 하면, 상기 가중값 ω의 정규화 이전 값 diff는 아래의 수학식 6을 사용하여 구해진다.Here, if the minimum gradation difference that can be detected in the human sensation is 32, the pre-normalization value diff of the weight value? Is obtained by using the following equation (6).

Figure 112011098575268-pat00006
Figure 112011098575268-pat00006

따라서, 정규화된 상기 가중값 ω는 아래의 수학식 7을 사용하여 구해진다.Therefore, the normalized weight value? Is obtained using the following equation (7).

Figure 112011098575268-pat00007
Figure 112011098575268-pat00007

물론, 아래의 수학식 8이 사용될 수도 있다.Of course, the following equation (8) may be used.

Figure 112011098575268-pat00008
Figure 112011098575268-pat00008

P1,P3,P5,P7은 원래 화소들을, P2,P4,P6은 해상도를 높이기 위하여 생성된 추가 화소들을, Wdiff1은 제1 좌향 계조 차이를, Wdiff2는 제2 좌향 계조 차이를, Ediff1은 제1 우향 계조 차이를, 그리고 Ediff2는 제2 우향 계조 차이를 각각 가리킨다.P1, P3, P5 and P7 are original pixels, P2, P4 and P6 are additional pixels generated for increasing resolution, Wdiff1 is a first left gradation difference, Wdiff2 is a second left gradation difference, Ediff1 is a first Right gradation difference, and Ediff2 indicates the second right gradation difference, respectively.

다음에, 영상 처리부(14)는, 상기 제3 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지고, 상기 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정하여, 제4 영상을 발생시킨다(단계 S105).Next, the image processing unit 14 determines that the gradation difference between adjacent pixels in the contour direction is small for each pixel in the area around the edge line in the third image, and the line symmetry about the contour direction Direction to increase the gradation difference with the adjacent pixels in the direction (step S105).

상기 단계 S105는 도 3의 제1 실시예의 단계 S3에서 도 4 내지 9를 참조하여 위에서 상세히 설명되었다. 따라서, 상기 단계 S105에 의한 효과만을 재언하면 다음과 같다.The above step S105 has been described in detail above with reference to Figs. 4 to 9 in step S3 of the first embodiment of Fig. Therefore, only the effect of step S105 will be described as follows.

즉, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지도록 조정됨에 따라, 윤곽선 영역이 보다 부드럽게 연결되어 보일 수 있다. 즉, 윤곽선 영역이 계단처럼 연결되어 보이는 계단 현상이 최소화될 수 있다.That is, for each pixel in the area around the edge line in the resolution-enhanced set resolution image, the gradation difference with respect to the contiguous pixels in the contour direction is adjusted so that the contour area is more smoothly connected have. That is, the staircase phenomenon in which the contour region is connected like a staircase can be minimized.

이와 동시에, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정된다. 이에 따라, 윤곽선 영역이 보다 선명하게 보일 수 있다. 즉, 윤곽선 영역이 상대적으로 흐리게 보이는 현상이 최소화될 수 있다. At the same time, for each pixel in the area around the edge line in the resolution-enhanced set resolution image, the gradation difference from the adjacent pixels in the line-symmetry direction with respect to the contour direction is adjusted to be large. As a result, the contour area can be seen more clearly. That is, the phenomenon that the contour area is relatively blurred can be minimized.

요약하면, 본 발명의 실시예들에 의하면, 입력 영상(Idi)의 해상도를 높이면서 나타나는 윤곽선 영역에서의 계단 현상 및 흐림 현상이 최소화될 수 있다.In summary, according to the embodiments of the present invention, the step phenomenon and the blurring phenomenon in the contour area appearing while increasing the resolution of the input image Idi can be minimized.

다음에, 영상 처리부(14)는 처리된 결과의 영상(Iou)을 출력한다(단계 S106).Next, the image processing unit 14 outputs the processed image Iou (step S106).

상기 모든 단계들은 종료 신호가 발생될 때까지 반복적으로 수행된다(단계 S107).All the above steps are repeatedly performed until a termination signal is generated (step S107).

도 12는 도 1의 영상 처리부(14)에 의하여 수행되는 본 발명의 제3 실시예의 영상 처리 방법을 보여준다. 12 shows the image processing method of the third embodiment of the present invention performed by the image processing unit 14 of FIG.

도 13은 도 12의 단계 S1206 및 단계 S1207을 상세히 설명하기 위한 도면이다. 도 13에서 참조 부호 Dd는 계조 편차를, Rr은 선예도(sharpness) 상승 비율을, R1은 제1 범위를, R2는 제2 범위를, 그리고 R3은 제3 범위를 각각 가리킨다.FIG. 13 is a diagram for explaining steps S1206 and S1207 in FIG. 12 in detail. 13, reference character Dd denotes a gradation deviation, Rr denotes a sharpness rise ratio, R1 denotes a first range, R2 denotes a second range, and R3 denotes a third range.

도 1, 12 및 13을 참조하여, 본 발명의 제3 실시예의 영상 처리 방법을 설명하면 다음과 같다.The image processing method of the third embodiment of the present invention will be described with reference to FIGS. 1, 12 and 13 as follows.

아날로그-디지털 변환부(ADC, 13)로부터 저해상도의 프레임 영상(Idi)이 영상 처리부(14)에 입력되면(단계 S1201), 영상 처리부(14)는 입력 영상(Idi)의 해상도(a x b)를 높여서 설정 해상도(m x n)의 제1 영상을 발생시킨다(단계 S1202).When the frame image Idi of low resolution is input from the analog-to-digital converter (ADC) 13 to the image processing unit 14 (step S1201), the image processing unit 14 increases the resolution axb of the input image Idi And generates a first image of the set resolution (mxn) (step S1202).

다음에, 영상 처리부(14)는, 제1 영상에서 추가되어 있는 화소들 각각의 계조를, 이웃하는 상기 입력 영상의 화소 계조들과의 중간 값으로 바꾸어, 제2 영상을 발생시킨다(단계 S1203). 이 단계 S1203은 도 10의 제2 실시예의 단계 S103에서 설명된 바와 같다.Next, the image processing unit 14 converts the gradation of each of the pixels added in the first image to the intermediate gradation of the pixel gradations of the neighboring input image, thereby generating the second image (step S1203) . This step S1203 is as described in step S103 of the second embodiment in Fig.

다음에, 영상 처리부(14)는, 상기 제1 영상에서 추가되어 있는 화소들 각각에 대하여, 상기 제1 영상의 계조와 상기 제2 영상의 계조를 가중치로써 합산하되, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이가 클수록 해당 화소에 대해서 상기 제1 영상의 계조에 높은 가중치를 부여하여, 제3 영상을 발생시킨다(단계 S1204).Next, the image processing unit 14 adds the grayscale of the first image and the grayscale of the second image, as weights, to each of the pixels added in the first image, (Step S1204), a higher weight is given to the gradation of the first image with respect to the pixel, and a third image is generated (step S1204).

이 단계 S1204는 도 10의 제2 실시예의 단계 S104에서 상기 수학식 2 내지 8과 함께 상세히 설명된 바와 같다. 따라서, 상기 단계 S1204에 의한 효과만을 재언하면 다음과 같다.This step S1204 is as described in detail in conjunction with Equations 2 to 8 in step S104 of the second embodiment of Fig. Therefore, only the effect of step S1204 will be described as follows.

이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 클수록 해당 추가 화소는 윤곽선(edge line) 영역에 속할 가능성이 높다. 이와 반대로, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 적을수록 해당 추가 화소는 윤곽선(edge line) 영역에 속할 가능성이 낮다. 그런데, 윤곽선(edge line) 영역이 아닌 평탄 영역일 경우, 해상도 상승에 의하여 순간적으로 보여지는 노이즈 현상인 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)이 발생될 가능성이 높다. The larger the weight value? Proportional to the difference between the pixel gradations of the neighboring input image (Idi in FIG. 1), the higher the likelihood that the additional pixel belongs to the edge line area. On the contrary, the smaller the weight value? Proportional to the difference between the pixel gradations of the neighboring input image (Idi in FIG. 1), the lower the possibility that the additional pixel belongs to the edge line area. However, in the case of a flat area rather than an edge line area, there is a high possibility that over-shooting and under-shooting, which are instantaneous noise phenomena due to the increase in resolution, are generated.

이와 관련하여 상기 단계 S1204에 의하면, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 클수록 해상도 상승 후의 원래 계조가 많이 적용되고, 가중값 ω이 적을수록 해상도 상승 후의 중간(median) 계조가 많이 적용된다. According to the above step S1204, the larger the weight value? In proportion to the difference of the pixel gradations of the neighboring input image (Idi in Fig. 1), the more the original gradation after the resolution increase is applied. The smaller the weight value? (median) gradation is applied a lot.

따라서, 이와 같이 구해진 상기 제3 영상에 의하면, 해상도 상승에 의하여 순간적으로 보여지는 노이즈 현상인 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)이 최소화될 수 있다.Therefore, according to the third image obtained as described above, over-shooting and under-shooting, which are noise phenomena instantaneously seen due to the increase in resolution, can be minimized.

다음에, 영상 처리부(14)는, 상기 제3 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지고, 상기 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정하여, 제4 영상을 발생시킨다(단계 S1205).Next, the image processing unit 14 determines that the gradation difference between adjacent pixels in the contour direction is small for each pixel in the area around the edge line in the third image, and the line symmetry about the contour direction Direction to increase the gradation difference with respect to the adjacent pixels in the direction (step S1205).

상기 단계 S1205는 도 3의 제1 실시예의 단계 S3에서 도 4 내지 9를 참조하여 위에서 상세히 설명되었다. 따라서, 상기 단계 S1205에 의한 효과만을 재언하면 다음과 같다.The above step S1205 has been described in detail above with reference to Figs. 4 to 9 in step S3 of the first embodiment of Fig. Therefore, only the effect of step S1205 will be described as follows.

즉, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지도록 조정됨에 따라, 윤곽선 영역이 보다 부드럽게 연결되어 보일 수 있다. 즉, 윤곽선 영역이 계단처럼 연결되어 보이는 계단 현상이 최소화될 수 있다.That is, for each pixel in the area around the edge line in the resolution-enhanced set resolution image, the gradation difference with respect to the contiguous pixels in the contour direction is adjusted so that the contour area is more smoothly connected have. That is, the staircase phenomenon in which the contour region is connected like a staircase can be minimized.

이와 동시에, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정된다. 이에 따라, 윤곽선 영역이 보다 선명하게 보일 수 있다. 즉, 윤곽선 영역이 상대적으로 흐리게 보이는 현상이 최소화될 수 있다. At the same time, for each pixel in the area around the edge line in the resolution-enhanced set resolution image, the gradation difference from the adjacent pixels in the line-symmetry direction with respect to the contour direction is adjusted to be large. As a result, the contour area can be seen more clearly. That is, the phenomenon that the contour area is relatively blurred can be minimized.

요약하면, 본 발명의 실시예들에 의하면, 입력 영상(Idi)의 해상도를 높이면서 나타나는 윤곽선 영역에서의 계단 현상 및 흐림 현상이 최소화될 수 있다.In summary, according to the embodiments of the present invention, the step phenomenon and the blurring phenomenon in the contour area appearing while increasing the resolution of the input image Idi can be minimized.

다음에, 영상 처리부(14)는, 상기 제4 영상의 평균 계조에 대한 각 화소 계조의 차이 값들(도 13의 Dd)을 분류하되, 제1 범위(도 13의 R1), 상기 제1 범위의 최대 값보다 큰 최소 값을 가진 제2 범위(도 13의 R2), 및 상기 제2 범위의 최대 값보다 큰 최소 값을 가진 제3 범위(도 13의 R3)로써 분류한다(단계 S1206).Next, the image processing section 14 classifies the difference values (Dd in Fig. 13) of each pixel gradation with respect to the average gradation of the fourth image, (R2 in Fig. 13) having a minimum value larger than the maximum value, and a third range (R3 in Fig. 13) having a minimum value larger than the maximum value of the second range (step S1206).

다음에, 영상 처리부(14)는, 상기 제4 영상의 선예도(도 13의 Rr)를 높이되, 상기 제2 범위(도 13의 R2)에 해당되는 화소들에 대하여 선예도 상승 비율을 상대적으로 높게 적용한다(단계 S1207).Next, the image processing unit 14 increases the sharpness of the fourth image (Rr in Fig. 13) and increases the sharpness elevation ratio relatively to the pixels in the second range (R2 in Fig. 13) (Step S1207).

여기에서, 제1 범위(R1)에 해당되는 화소들은, 상기 제4 영상의 평균 계조에 대한 각 화소 계조의 차이 값들이 적으므로, 노이즈(noise)일 가능성이 높다. 따라서, 제1 범위(R1)에 해당되는 화소들에 대하여 선예도 상승 비율을 상대적으로 낮게 설정함으로써, 노이즈(noise)의 영향력을 최소화할 수 있다.Here, the pixels corresponding to the first range R1 are less likely to be noise because the difference values of the respective pixel gradations relative to the average gradation of the fourth image are small. Therefore, by setting the sharpness increasing ratio relatively low for the pixels in the first range R1, the influence of noise can be minimized.

또한, 제3 범위(R3)에 해당되는 화소들은, 상기 제4 영상의 평균 계조에 대한 각 화소 계조의 차이 값들이 크므로, 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)의 잠재력을 가진다. 따라서, 제3 범위(R3)에 해당되는 화소들에 대하여 선예도 상승 비율을 상대적으로 낮게 설정함으로써, 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)을 최소화할 수 있다.In addition, the pixels corresponding to the third range R3 have a large difference value of each pixel gradation relative to the average gradation of the fourth image, so that over-shooting and under- . Therefore, over-shooting and under-shooting can be minimized by setting the sharpness enhancement ratio relatively low for the pixels in the third range R3.

다음에, 영상 처리부(14)는 처리된 결과의 영상(Iou)을 출력한다(단계 S1208).Next, the image processing unit 14 outputs the processed image Iou (step S1208).

상기 모든 단계들은 종료 신호가 발생될 때까지 반복적으로 수행된다(단계 S1209). All the above steps are repeatedly performed until a termination signal is generated (step S1209).

도 14는 도 1의 영상 처리부에 의하여 수행되는 본 발명의 제4 실시예의 영상 처리 방법을 보여준다.FIG. 14 shows an image processing method of the fourth embodiment of the present invention performed by the image processing unit of FIG.

도 1 및 14를 참조하여, 본 발명의 제4 실시예의 영상 처리 방법을 설명하면 다음과 같다.The image processing method of the fourth embodiment of the present invention will be described with reference to FIGS. 1 and 14. FIG.

아날로그-디지털 변환부(ADC, 13)로부터 저해상도의 프레임 영상(Idi)이 영상 처리부(14)에 입력되면(단계 S1401), 영상 처리부(14)는 입력 영상(Idi)의 선예도(sharpness)가 높아진 제1 영상을 발생시킨다(단계 S1402).When the low-resolution frame image Idi is input from the analog-to-digital conversion unit (ADC) 13 to the image processing unit 14 (step S1401), the image processing unit 14 determines that the sharpness of the input image Idi is high And generates a first image (step S1402).

다음에, 영상 처리부(14)는, 각각의 화소에 대하여, 입력 영상(Idi)의 계조와 상기 제1 영상의 계조를 가중치로써 합산하되, 한 화소의 분산 값이 높을수록 해당 화소에 대해서 상기 제1 영상의 계조에 높은 가중치를 부여하여, 제2 영상을 발생시킨다(단계 S1403).Next, the image processing unit 14 adds the grayscale of the input image Idi and the grayscale of the first image to each pixel by weighting, and as the variance value of one pixel becomes higher, 1, and a second image is generated (step S1403).

상기 단계 S1403에서, 어느 한 화소에 대하여, 상기 제2 영상의 계조를 G2p, 입력 영상(Idi)의 계조를 Gip, 입력 영상(Idi)의 분산 값을 σ2 f, 입력 영상(Idi)의 기준 잡음-분산 값을 σ2 n, 그리고 제1 영상의 계조를 G1p라 하면, 상기 제2 영상의 어느 한 화소의 계조 G2p는 아래의 수학식 9에 의하여 계산된다.In the step S1403, with respect to any one of the pixels, based on the second dispersion value of the gray level of the image G2p, the input image (Idi) gray scale the Gip, the input image (Idi) for σ 2 f, the input image (Idi) noise - if the variance value σ 2 n, and (d) G1p the tone of the first image, the gradation G2p of any one pixel of the second image is calculated by equation (9) below.

Figure 112011098575268-pat00009
Figure 112011098575268-pat00009

상기 수학식 9에서, 극단적으로, 입력 영상(Idi)의 어느 한 화소의 분산 값(σ2 f)이 입력 영상(Idi)의 기준 잡음-분산 값(σ2 n)과 같을 정도로 적을 경우, 해당 화소는 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)의 최대 잠재력을 가진다. 따라서, 상기 제2 영상에서의 해당 화소의 계조(G2p)는 선예도(sharpness)가 높아지지 않은 입력 영상(Idi)의 계조와 같아진다.In Equation 9, extremely, input any one of the pixel dispersion value of the image (Idi) (σ 2 f) is based on the noise of the input image (Idi) - if less extent equal to the variance value (σ 2 n), the Pixels have the greatest potential of over-shooting and under-shooting. Therefore, the gradation G2p of the corresponding pixel in the second image becomes equal to the gradation of the input image Idi that has not been sharpened.

이와 반대로, 입력 영상(Idi)의 어느 한 화소의 분산 값(σ2 f)이 입력 영상(Idi)의 기준 잡음-분산 값(σ2 n)보다 매우 클 경우, 해당 화소는 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)의 잠재력을 가지지 않는다. 따라서, 상기 제2 영상에서의 해당 화소의 계조(G2p)는 선예도(sharpness)가 높아진 제1 영상의 계조(G1p)와 가장 가까와진다.On the other hand, the variance value of one pixel of the input image (Idi) (σ 2 f) is based on the noise of the input image (Idi) - if so is greater than the variance (σ 2 n), the pixel is over-shot (over -shooting and under-shooting. Therefore, the gradation G2p of the corresponding pixel in the second image is closest to the gradation G1p of the first image in which the sharpness is high.

따라서, 상기 단계들 S1402 및 S1403이 추가됨에 의하여, 입력 영상의 해상도를 높이기 전에 효과적으로 선예도(sharpness)가 높아질 수 있다.Therefore, by adding the steps S1402 and S1403, the sharpness can be effectively increased before the resolution of the input image is increased.

다음에, 영상 처리부(14)는 상기 제2 영상의 해상도(a x b)를 높여서 설정 해상도(m x n)의 제3 영상을 발생시킨다(단계 S1404).Next, the image processing unit 14 generates a third image of the set resolution (m x n) by raising the resolution (a x b) of the second image (step S1404).

다음에, 영상 처리부(14)는, 제3 영상에서 추가되어 있는 화소들 각각의 계조를, 이웃하는 상기 입력 영상의 화소 계조들과의 중간 값으로 바꾸어, 제4 영상을 발생시킨다(단계 S1405). 이 단계 S1405는 도 10의 제2 실시예의 단계 S103에서 설명된 바와 같다.Next, the image processing unit 14 converts the gradation of each of the pixels added in the third image to the intermediate gradation of the pixel gradations of the neighboring input image, thereby generating the fourth image (step S1405) . This step S1405 is as described in step S103 of the second embodiment in Fig.

다음에, 영상 처리부(14)는, 상기 제3 영상에서 추가되어 있는 화소들 각각에 대하여, 상기 제3 영상의 계조와 상기 제4 영상의 계조를 가중치로써 합산하되, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이가 클수록 해당 화소에 대해서 상기 제3 영상의 계조에 높은 가중치를 부여하여, 제5 영상을 발생시킨다(단계 S1406).Next, the image processing unit 14 adds the grayscale of the third image and the grayscale of the fourth image, as weights, to each of the pixels added in the third image, (Step S1406), a higher weight is given to the gradation of the third image with respect to the pixel, and a fifth image is generated (step S1406).

이 단계 S1406은 도 10의 제2 실시예의 단계 S104에서 상기 수학식 2 내지 8과 함께 상세히 설명된 바와 같다. 따라서, 상기 단계 S1406에 의한 효과만을 재언하면 다음과 같다.This step S1406 is as described in detail in conjunction with Equations 2 to 8 in the step S104 of the second embodiment of Fig. Therefore, only the effect of step S1406 is recalled as follows.

이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 클수록 해당 추가 화소는 윤곽선(edge line) 영역에 속할 가능성이 높다. 이와 반대로, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 적을수록 해당 추가 화소는 윤곽선(edge line) 영역에 속할 가능성이 낮다. 그런데, 윤곽선(edge line) 영역이 아닌 평탄 영역일 경우, 해상도 상승에 의하여 순간적으로 보여지는 노이즈 현상인 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)이 발생될 가능성이 높다. The larger the weight value? Proportional to the difference between the pixel gradations of the neighboring input image (Idi in FIG. 1), the higher the likelihood that the additional pixel belongs to the edge line area. On the contrary, the smaller the weight value? Proportional to the difference between the pixel gradations of the neighboring input image (Idi in FIG. 1), the lower the possibility that the additional pixel belongs to the edge line area. However, in the case of a flat area rather than an edge line area, there is a high possibility that over-shooting and under-shooting, which are instantaneous noise phenomena due to the increase in resolution, are generated.

이와 관련하여 상기 단계 S1406에 의하면, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 클수록 해상도 상승 후의 원래 계조가 많이 적용되고, 가중값 ω이 적을수록 해상도 상승 후의 중간(median) 계조가 많이 적용된다. In this regard, according to the above step S1406, the larger the weight value? That is proportional to the difference of the pixel gradations of the neighboring input image (Idi in Fig. 1), the more the original gradation after the resolution increase is applied. (median) gradation is applied a lot.

따라서, 이와 같이 구해진 상기 제5 영상에 의하면, 해상도 상승에 의하여 순간적으로 보여지는 노이즈 현상인 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)이 최소화될 수 있다.Thus, according to the fifth image obtained as described above, over-shooting and under-shooting, which are noise phenomena instantaneously seen due to a rise in resolution, can be minimized.

다음에, 영상 처리부(14)는, 상기 제5 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지고, 상기 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정하여, 제6 영상을 발생시킨다(단계 S1407).Next, the image processing unit 14 determines that the gradation difference between adjacent pixels in the contour direction is small for each pixel in the area around the edge line in the fifth image, and the line symmetry about the contour direction Direction so that the gradation difference with respect to the adjacent pixels in the direction is increased, thereby generating a sixth image (step S1407).

상기 단계 S1407은 도 3의 제1 실시예의 단계 S3에서 도 4 내지 9를 참조하여 위에서 상세히 설명되었다. 따라서, 상기 단계 S1407에 의한 효과만을 재언하면 다음과 같다.The above step S1407 has been described in detail above with reference to Figs. 4 to 9 in step S3 of the first embodiment of Fig. Therefore, only the effect of step S1407 is recalled as follows.

즉, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지도록 조정됨에 따라, 윤곽선 영역이 보다 부드럽게 연결되어 보일 수 있다. 즉, 윤곽선 영역이 계단처럼 연결되어 보이는 계단 현상이 최소화될 수 있다.That is, for each pixel in the area around the edge line in the resolution-enhanced set resolution image, the gradation difference with respect to the contiguous pixels in the contour direction is adjusted so that the contour area is more smoothly connected have. That is, the staircase phenomenon in which the contour region is connected like a staircase can be minimized.

이와 동시에, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정된다. 이에 따라, 윤곽선 영역이 보다 선명하게 보일 수 있다. 즉, 윤곽선 영역이 상대적으로 흐리게 보이는 현상이 최소화될 수 있다. At the same time, for each pixel in the area around the edge line in the resolution-enhanced set resolution image, the gradation difference from the adjacent pixels in the line-symmetry direction with respect to the contour direction is adjusted to be large. As a result, the contour area can be seen more clearly. That is, the phenomenon that the contour area is relatively blurred can be minimized.

요약하면, 본 실시예에 의하면, 입력 영상(Idi)의 해상도를 높이면서 나타나는 윤곽선 영역에서의 계단 현상 및 흐림 현상이 최소화될 수 있다.In summary, according to the present embodiment, the step phenomenon and the blurring phenomenon in the contour area appearing while increasing the resolution of the input image Idi can be minimized.

다음에, 영상 처리부(14)는 처리된 결과의 영상(Iou)을 출력한다(단계 S1408).Next, the image processing unit 14 outputs the processed image Iou (step S1408).

상기 모든 단계들은 종료 신호가 발생될 때까지 반복적으로 수행된다(단계 S1409).All the above steps are repeatedly performed until a termination signal is generated (step S1409).

도 15는 도 1의 영상 처리부에 의하여 수행되는 본 발명의 제5 실시예의 영상 처리 방법을 보여준다.FIG. 15 shows an image processing method of a fifth embodiment of the present invention performed by the image processing unit of FIG.

도 1 및 15를 참조하여, 본 발명의 제5 실시예의 영상 처리 방법을 설명하면 다음과 같다.The image processing method of the fifth embodiment of the present invention will be described with reference to FIGS. 1 and 15. FIG.

아날로그-디지털 변환부(ADC, 13)로부터 저해상도의 프레임 영상(Idi)이 영상 처리부(14)에 입력되면(단계 S1501), 영상 처리부(14)는 입력 영상(Idi)의 선예도(sharpness)가 높아진 제1 영상을 발생시킨다(단계 S1502).When the low-resolution frame image Idi is input from the analog-to-digital converter (ADC) 13 to the image processing unit 14 (step S1501), the image processing unit 14 determines whether the input image Idi has sharpness And generates a first image (step S1502).

다음에, 영상 처리부(14)는, 각각의 화소에 대하여, 입력 영상(Idi)의 계조와 상기 제1 영상의 계조를 가중치로써 합산하되, 한 화소의 분산 값이 높을수록 해당 화소에 대해서 상기 제1 영상의 계조에 높은 가중치를 부여하여, 제2 영상을 발생시킨다(단계 S1503).Next, the image processing unit 14 adds the grayscale of the input image Idi and the grayscale of the first image to each pixel by weighting, and as the variance value of one pixel becomes higher, 1, and a second image is generated (step S1503).

상기 단계들 S1502 및 S1503에 대해서는 도 14의 단계들 S1402 및 S1403에서 수학식 9와 함께 상세히 설명되었다. 따라서 그 효과만을 재언하면 다음과 같다.The above steps S1502 and S1503 have been described in detail with the equation (9) in the steps S1402 and S1403 in Fig. Therefore, only the effect is as follows.

상기 수학식 9에서, 극단적으로, 입력 영상(Idi)의 어느 한 화소의 분산 값(σ2 f)이 입력 영상(Idi)의 기준 잡음-분산 값(σ2 n)과 같을 정도로 적을 경우, 해당 화소는 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)의 최대 잠재력을 가진다. 따라서, 상기 제2 영상에서의 해당 화소의 계조(G2p)는 선예도(sharpness)가 높아지지 않은 입력 영상(Idi)의 계조와 같아진다.In Equation 9, extremely, input any one of the pixel dispersion value of the image (Idi) (σ 2 f) is based on the noise of the input image (Idi) - if less extent equal to the variance value (σ 2 n), the Pixels have the greatest potential of over-shooting and under-shooting. Therefore, the gradation G2p of the corresponding pixel in the second image becomes equal to the gradation of the input image Idi that has not been sharpened.

이와 반대로, 입력 영상(Idi)의 어느 한 화소의 분산 값(σ2 f)이 입력 영상(Idi)의 기준 잡음-분산 값(σ2 n)보다 매우 클 경우, 해당 화소는 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)의 잠재력을 가지지 않는다. 따라서, 상기 제2 영상에서의 해당 화소의 계조(G2p)는 선예도(sharpness)가 높아진 제1 영상의 계조(G1p)와 가장 가까와진다.On the other hand, the variance value of one pixel of the input image (Idi) (σ 2 f) is based on the noise of the input image (Idi) - if so is greater than the variance (σ 2 n), the pixel is over-shot (over -shooting and under-shooting. Therefore, the gradation G2p of the corresponding pixel in the second image is closest to the gradation G1p of the first image in which the sharpness is high.

따라서, 상기 단계들 S1502 및 S1503이 추가됨에 의하여, 입력 영상의 해상도를 높이기 전에 효과적으로 선예도(sharpness)가 높아질 수 있다.Therefore, by adding the steps S1502 and S1503, the sharpness can be effectively increased before the resolution of the input image is increased.

다음에, 영상 처리부(14)는 상기 제2 영상의 해상도(a x b)를 높여서 설정 해상도(m x n)의 제3 영상을 발생시킨다(단계 S1504).Next, the image processing unit 14 increases the resolution (a x b) of the second image to generate a third image having the set resolution (m x n) (step S1504).

다음에, 영상 처리부(14)는, 제3 영상에서 추가되어 있는 화소들 각각의 계조를, 이웃하는 상기 입력 영상의 화소 계조들과의 중간 값으로 바꾸어, 제4 영상을 발생시킨다(단계 S1505). 이 단계 S1505는 도 10의 제2 실시예의 단계 S103에서 설명된 바와 같다.Next, the image processor 14 converts the gradation of each of the pixels added in the third image to the intermediate gradation of the pixel gradations of the neighboring input image, thereby generating a fourth image (step S1505) . This step S1505 is as described in step S103 of the second embodiment in Fig.

다음에, 영상 처리부(14)는, 상기 제3 영상에서 추가되어 있는 화소들 각각에 대하여, 상기 제3 영상의 계조와 상기 제4 영상의 계조를 가중치로써 합산하되, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이가 클수록 해당 화소에 대해서 상기 제3 영상의 계조에 높은 가중치를 부여하여, 제5 영상을 발생시킨다(단계 S1506).Next, the image processing unit 14 adds the grayscale of the third image and the grayscale of the fourth image, as weights, to each of the pixels added in the third image, (Step S1506), a higher weight is given to the gradation of the third image for the pixel, and a fifth image is generated (step S1506).

이 단계 S1506은 도 10의 제2 실시예의 단계 S104에서 상기 수학식 2 내지 8과 함께 상세히 설명된 바와 같다. 따라서, 상기 단계 S1506에 의한 효과만을 재언하면 다음과 같다.This step S1506 is as described in detail in conjunction with Equations 2 to 8 in step S104 of the second embodiment of Fig. Therefore, only the effect of step S1506 is recalled as follows.

이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 클수록 해당 추가 화소는 윤곽선(edge line) 영역에 속할 가능성이 높다. 이와 반대로, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 적을수록 해당 추가 화소는 윤곽선(edge line) 영역에 속할 가능성이 낮다. 그런데, 윤곽선(edge line) 영역이 아닌 평탄 영역일 경우, 해상도 상승에 의하여 순간적으로 보여지는 노이즈 현상인 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)이 발생될 가능성이 높다. The larger the weight value? Proportional to the difference between the pixel gradations of the neighboring input image (Idi in FIG. 1), the higher the likelihood that the additional pixel belongs to the edge line area. On the contrary, the smaller the weight value? Proportional to the difference between the pixel gradations of the neighboring input image (Idi in FIG. 1), the lower the possibility that the additional pixel belongs to the edge line area. However, in the case of a flat area rather than an edge line area, there is a high possibility that over-shooting and under-shooting, which are instantaneous noise phenomena due to the increase in resolution, are generated.

이와 관련하여 상기 단계 S1506에 의하면, 이웃하는 입력 영상(도 1의 Idi)의 화소 계조들의 차이에 비례한 가중값 ω이 클수록 해상도 상승 후의 원래 계조가 많이 적용되고, 가중값 ω이 적을수록 해상도 상승 후의 중간(median) 계조가 많이 적용된다. According to the above step S1506, the larger the weight value? In proportion to the difference of the pixel gradations of the neighboring input image (Idi in Fig. 1), the more the original gradation after the resolution increase is applied. The smaller the weight value? (median) gradation is applied a lot.

따라서, 이와 같이 구해진 상기 제5 영상에 의하면, 해상도 상승에 의하여 순간적으로 보여지는 노이즈 현상인 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)이 최소화될 수 있다.Thus, according to the fifth image obtained as described above, over-shooting and under-shooting, which are noise phenomena instantaneously seen due to a rise in resolution, can be minimized.

다음에, 영상 처리부(14)는, 상기 제5 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지고, 상기 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정하여, 제6 영상을 발생시킨다(단계 S1507).Next, the image processing unit 14 determines that the gradation difference between adjacent pixels in the contour direction is small for each pixel in the area around the edge line in the fifth image, and the line symmetry about the contour direction Direction to increase the gradation difference with the adjacent pixels in the direction (step S1507).

상기 단계 S1507은 도 3의 제1 실시예의 단계 S3에서 도 4 내지 9를 참조하여 위에서 상세히 설명되었다. 따라서, 상기 단계 S1507에 의한 효과만을 재언하면 다음과 같다.The above step S1507 has been described in detail above with reference to Figs. 4 to 9 in step S3 of the first embodiment of Fig. Therefore, only the effect of step S1507 is recalled as follows.

해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지도록 조정됨에 따라, 윤곽선 영역이 보다 부드럽게 연결되어 보일 수 있다. 즉, 윤곽선 영역이 계단처럼 연결되어 보이는 계단 현상이 최소화될 수 있다.The contour area can be seen to be connected more smoothly by adjusting the gradation difference between adjacent pixels in the outline direction to be smaller for each pixel in the area around the edge line in the set resolution image with higher resolution. That is, the staircase phenomenon in which the contour region is connected like a staircase can be minimized.

이와 동시에, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정된다. 이에 따라, 윤곽선 영역이 보다 선명하게 보일 수 있다. 즉, 윤곽선 영역이 상대적으로 흐리게 보이는 현상이 최소화될 수 있다. At the same time, for each pixel in the area around the edge line in the resolution-enhanced set resolution image, the gradation difference from the adjacent pixels in the line-symmetry direction with respect to the contour direction is adjusted to be large. As a result, the contour area can be seen more clearly. That is, the phenomenon that the contour area is relatively blurred can be minimized.

요약하면, 본 실시예에 의하면, 입력 영상(Idi)의 해상도를 높이면서 나타나는 윤곽선 영역에서의 계단 현상 및 흐림 현상이 최소화될 수 있다.In summary, according to the present embodiment, the step phenomenon and the blurring phenomenon in the contour area appearing while increasing the resolution of the input image Idi can be minimized.

다음에, 영상 처리부(14)는, 상기 제6 영상의 평균 계조에 대한 각 화소 계조의 차이 값들(도 13의 Dd)을 분류하되, 제1 범위(도 13의 R1), 상기 제1 범위의 최대 값보다 큰 최소 값을 가진 제2 범위(도 13의 R2), 및 상기 제2 범위의 최대 값보다 큰 최소 값을 가진 제3 범위(도 13의 R3)로써 분류한다(단계 S1508).Next, the image processing unit 14 classifies the difference values (Dd in Fig. 13) of the respective pixel gradations relative to the average gradation of the sixth image, (R2 in Fig. 13) having a minimum value larger than the maximum value, and a third range (R3 in Fig. 13) having a minimum value larger than the maximum value of the second range (step S1508).

다음에, 영상 처리부(14)는, 상기 제6 영상의 선예도(도 13의 Rr)를 높이되, 상기 제2 범위(도 13의 R2)에 해당되는 화소들에 대하여 선예도 상승 비율을 상대적으로 높게 적용한다(단계 S1509).Next, the image processing unit 14 increases the sharpness degree of the sixth image (Rr in FIG. 13), increases the sharpness increase ratio relatively to the pixels in the second range (R2 in FIG. 13) (Step S1509).

여기에서, 제1 범위(R1)에 해당되는 화소들은, 상기 제6 영상의 평균 계조에 대한 각 화소 계조의 차이 값들이 적으므로, 노이즈(noise)일 가능성이 높다. 따라서, 제1 범위(R1)에 해당되는 화소들에 대하여 선예도 상승 비율을 상대적으로 낮게 설정함으로써, 노이즈(noise)의 영향력을 최소화할 수 있다.Here, the pixels corresponding to the first range R1 are less likely to be noise because the difference values of the respective pixel gradations relative to the average gradation of the sixth image are small. Therefore, by setting the sharpness increasing ratio relatively low for the pixels in the first range R1, the influence of noise can be minimized.

또한, 제3 범위(R3)에 해당되는 화소들은, 상기 제6 영상의 평균 계조에 대한 각 화소 계조의 차이 값들이 크므로, 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)의 잠재력을 가진다. 따라서, 제3 범위(R3)에 해당되는 화소들에 대하여 선예도 상승 비율을 상대적으로 낮게 설정함으로써, 오버-슈팅(over-shooting) 및 언더-슈팅(under-shooting)을 최소화할 수 있다.In addition, over-shooting and under-shooting can be performed on pixels corresponding to the third range R3 because the difference values of respective pixel gradations with respect to the average gradation of the sixth image are large, . Therefore, over-shooting and under-shooting can be minimized by setting the sharpness enhancement ratio relatively low for the pixels in the third range R3.

다음에, 영상 처리부(14)는 처리된 결과의 영상(Iou)을 출력한다(단계 S1510).Next, the image processing unit 14 outputs the processed image Iou (step S1510).

상기 모든 단계들은 종료 신호가 발생될 때까지 반복적으로 수행된다(단계 S1511).All the above steps are repeatedly performed until a termination signal is generated (step S1511).

이상 설명된 바와 같이, 본 발명의 실시예들에 의하면, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지도록 조정된다. 이에 따라, 윤곽선 영역이 보다 부드럽게 연결되어 보일 수 있다. 즉, 윤곽선 영역이 계단처럼 연결되어 보이는 계단 현상이 최소화될 수 있다.As described above, according to the embodiments of the present invention, for each pixel in the area around the edge line in the resolution-enhanced set resolution image, the difference in gradation from the adjacent pixels in the contour direction is reduced . As a result, the contour area can be seen more smoothly connected. That is, the staircase phenomenon in which the contour region is connected like a staircase can be minimized.

이와 동시에, 본 발명의 실시예들에 의하면, 해상도가 높아진 설정 해상도 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정된다. 이에 따라, 윤곽선 영역이 보다 선명하게 보일 수 있다. 즉, 윤곽선 영역이 상대적으로 흐리게 보이는 현상이 최소화될 수 있다. At the same time, according to the embodiments of the present invention, for each pixel in the area around the edge line in the resolution-enhanced set resolution image, the gradation difference from the contiguous pixels in the line-symmetry direction with respect to the contour direction is large . As a result, the contour area can be seen more clearly. That is, the phenomenon that the contour area is relatively blurred can be minimized.

요약하면, 본 발명의 실시예들에 의하면, 입력 영상의 해상도를 높이면서 나타나는 윤곽선 영역에서의 계단 현상 및 흐림 현상이 최소화될 수 있다.In summary, according to the embodiments of the present invention, the step phenomenon and the blurring phenomenon in the contour area appearing while increasing the resolution of the input image can be minimized.

더 나아가 추가적인 구성에 의한 효과들은 실시예들과 함께 상세히 설명되었다.Further, the effects of the additional configuration have been described in detail with the embodiments.

이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof.

그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.Therefore, the above-described embodiments should be considered in a descriptive sense rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and the inventions claimed by the claims and the inventions equivalent to the claimed invention are to be construed as being included in the present invention.

입력 영상의 해상도를 높이지 않는 영상 처리 방법에도 이용될 가능성이 있다.There is a possibility of being used for an image processing method that does not increase the resolution of the input image.

1 : 촬영 장치, 11 : 촬영 장치,
12 : 광전 변환부, 13 : 아날로그-디지털 변환부,
14 : 영상 처리부, Ian : 아날로그 영상 신호,
Idi : 저해상도 입력 영상, Iou : 설정-해상도 출력 영상,
P11 내지 Pb : 화소들, P11 내지 Pmn : 화소들,
41 : 설정 해상도 영상, 411 : 윤곽선(edge line),
412 : 윤곽선 주위 영역, 413 : 윤곽선 방향,
414 : 선대칭 축, 415 : 선대칭 방향,
51,52 : 설정 해상도 영상, 512 : 윤곽선 주위 영역,
521 : 스캔 방향, 523 : 윤곽선 방향,
525 : 선대칭 방향, a,b,b',c,c' : 화소들,
61 : 보정 전 확대-윤곽선, 62 : 보정 후 확대-윤곽선,
71 : 선대칭 축, a,b1,b2,c1,c2 : 화소들,
a81,a82,a83 : 좌향 윤곽선 방향, b81,b82,b83 : 좌향 선대칭 방향,
a91,a92,a93 : 우향 윤곽선 방향, b91,b92,b93 : 우향 선대칭 방향,
P1,P3,P5,P7 : 원래 화소들, P2,P4,P6 : 추가 화소들,
Wdiff1 : 제1 좌향 계조 차이, Wdiff2 : 제2 좌향 계조 차이,
Ediff1 : 제1 우향 계조 차이, Ediff2 : 제2 우향 계조 차이,
Dd : 계조 편차, Rr : 선예도 상승 비율,
R1 : 제1 범위, R2 : 제2 범위,
R3 : 제3 범위.
1: photographing apparatus, 11: photographing apparatus,
12: photoelectric conversion unit, 13: analog-digital conversion unit,
14: image processing section, Ian: analog image signal,
Idi: low resolution input image, Iou: setting - resolution output image,
P11 to Pb: pixels, P11 to Pmn: pixels,
41: set resolution image, 411: edge line,
412: area around the contour line, 413: contour line direction,
414: line symmetry axis, 415: line symmetry direction,
51, 52: Set resolution image, 512: Outline area,
521: scan direction, 523: contour direction,
525: direction of line symmetry, a, b, b ', c, c': pixels,
61: Enlarge before correction - Contour, 62: Enlarge after correction - Contour,
71: line symmetry axis, a, b1, b2, c1, c2: pixels,
a81, a82, a83: leftward contour direction, b81, b82, b83: leftward line symmetry direction,
a91, a92, a93: right contour direction, b91, b92, b93: right line symmetry direction,
P1, P3, P5, P7: original pixels, P2, P4, P6: additional pixels,
Wdiff1: first leftward gradation difference, Wdiff2: second leftward gradation difference,
Ediff 1: first right gradation difference, Ediff 2: second right gradation difference,
Dd: gradation deviation, Rr: sharpness elevation ratio,
R1: first range, R2: second range,
R3: Third range.

Claims (5)

삭제delete 영상 처리 소자가 입력 영상의 해상도를 높이면서 상기 입력 영상을 처리하는 영상 처리 방법에 있어서,
(a) 상기 입력 영상의 해상도를 높여서 제1 영상을 발생시키는 단계;
(b) 상기 제1 영상에서 추가된 추가 화소들 각각의 계조를, 상기 입력 영상의 상기 추가 화소에 인접하는 화소들의 계조의 중간 값으로 바꾸어, 제2 영상을 발생시키는 단계;
(c) 상기 추가 화소들 각각에 대하여, 상기 제1 영상의 추가 화소의 계조와 상기 제2 영상의 추가 화소의 계조를 가중합 하되, 상기 제1 영상의 추가 화소의 계조에 상기 입력 영상의 상기 추가 화소에 인접하는 화소들의 계조 차이에 비례하는 가중치를 부여하여, 제3 영상을 발생시키는 단계; 및
(d) 상기 제3 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지고, 상기 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정하여, 제4 영상을 발생시키는 단계;를 포함한 영상 처리 방법.
1. An image processing method for processing an input image by increasing a resolution of an input image,
(a) generating a first image by increasing a resolution of the input image;
(b) generating a second image by changing the gradation of each of the additional pixels added in the first image to the intermediate value of the gradation of the pixels adjacent to the additional pixel in the input image;
(c) for each of the additional pixels, weighting the gradation of the additional pixel of the first image and the gradation of the additional pixel of the second image, Generating a third image by giving a weight proportional to a gradation difference between pixels adjacent to the additional pixel; And
(d) For each pixel in the area around the edge line in the third image, the difference in gradation from the contiguous pixels in the contour direction is small, and the contiguous pixels in the line- And a fourth image is generated by adjusting the gradation difference of the first image to be larger.
삭제delete 영상 처리 소자가 입력 영상의 해상도를 높이면서 상기 입력 영상을 처리하는 영상 처리 방법에 있어서,
(a) 상기 입력 영상의 선예도(sharpness)가 높아진 제1 영상을 발생시키는 단계;
(b) 각각의 화소에 대하여, 상기 입력 영상의 화소의 계조와 상기 제1 영상의 화소의 계조를 가중합 하되, 상기 제1 영상의 화소의 계조에 화소의 분산 값에 비례하는 가중치를 부여하여, 제2 영상을 발생시키는 단계;
(c) 상기 제2 영상의 해상도를 높여서 제3 영상을 발생시키는 단계;
(d) 상기 제3 영상에서 추가된 추가 화소들 각각의 계조를, 상기 입력 영상의 상기 추가 화소에 인접하는 화소들의 계조의 중간 값으로 바꾸어, 제4 영상을 발생시키는 단계;
(e) 상기 추가 화소들 각각에 대하여, 상기 제3 영상의 추가 화소의 계조와 상기 제4 영상의 추가 화소의 계조를 가중합 하되, 상기 제3 영상의 추가 화소의 계조에 상기 입력 영상의 상기 추가 화소에 인접하는 화소들의 계조 차이에 비례하는 가중치를 부여하여, 제5 영상을 발생시키는 단계; 및
(f) 상기 제5 영상에서의 윤곽선(edge line) 주위 영역의 각 화소에 대하여, 윤곽선 방향에서의 인접 화소들과의 계조 차이가 적어지고, 상기 윤곽선 방향에 대한 선대칭 방향에서의 인접 화소들과의 계조 차이가 커지도록 조정하여, 제6 영상을 발생시키는 단계;를 포함한 영상 처리 방법.
1. An image processing method for processing an input image by increasing a resolution of an input image,
(a) generating a first image in which the sharpness of the input image is increased;
(b) weighting the grayscale of the pixel of the input image and the grayscale of the pixel of the first image for each pixel, and assigning a weight proportional to the variance value of the pixel to the grayscale of the pixel of the first image Generating a second image;
(c) generating a third image by increasing the resolution of the second image;
(d) changing a gray level of each of the additional pixels added in the third image to an intermediate value of gray levels of pixels adjacent to the additional pixel in the input image, to generate a fourth image;
(e) for each of the additional pixels, weighting the grayscale of the additional pixel of the third image and the grayscale of the additional pixel of the fourth image, Adding a weight proportional to a gradation difference of pixels adjacent to the additional pixel to generate a fifth image; And
(f) For each pixel in the area around the edge line in the fifth image, the difference in gradation from the contiguous pixels in the contour direction is smaller and the contiguous pixels in the line-symmetry direction with respect to the contour direction And a sixth image is generated by adjusting the gradation difference of the second image to be larger.
삭제delete
KR1020110133049A 2011-12-12 2011-12-12 Method for processing image KR101726683B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110133049A KR101726683B1 (en) 2011-12-12 2011-12-12 Method for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110133049A KR101726683B1 (en) 2011-12-12 2011-12-12 Method for processing image

Publications (2)

Publication Number Publication Date
KR20130066286A KR20130066286A (en) 2013-06-20
KR101726683B1 true KR101726683B1 (en) 2017-04-14

Family

ID=48862613

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110133049A KR101726683B1 (en) 2011-12-12 2011-12-12 Method for processing image

Country Status (1)

Country Link
KR (1) KR101726683B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010136036A (en) * 2008-12-04 2010-06-17 Konica Minolta Business Technologies Inc Image processor, image conversion method, and computer program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10341334A (en) * 1997-06-10 1998-12-22 Dainippon Screen Mfg Co Ltd Image magnification method, device therefor and storage medium recording program
US7508997B2 (en) * 2004-05-06 2009-03-24 Samsung Electronics Co., Ltd. Method and apparatus for video image interpolation with edge sharpening
KR101387267B1 (en) 2007-08-14 2014-04-18 삼성전자주식회사 Apparatus and method for enlarging image
KR101651203B1 (en) * 2010-02-01 2016-08-26 삼성전자주식회사 Method and apparatus for image scaling with image enhancement

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010136036A (en) * 2008-12-04 2010-06-17 Konica Minolta Business Technologies Inc Image processor, image conversion method, and computer program

Also Published As

Publication number Publication date
KR20130066286A (en) 2013-06-20

Similar Documents

Publication Publication Date Title
CN103098089B (en) The method of image super-resolution
JP5222472B2 (en) Image processing apparatus, image restoration method, and program
JP3328934B2 (en) Method and apparatus for fusing images
US8379976B2 (en) Image processing apparatus and method and a computer-readable recording medium on which an image processing program is stored
US8036457B2 (en) Image processing apparatus with noise reduction capabilities and a method for removing noise from a captured image
JP4610930B2 (en) Image processing apparatus and image processing program
KR101428169B1 (en) Apparatus and method for correcting image distortion of rear camera
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
KR102584523B1 (en) Method and apparatus for reducing color moire, and image processing apparatus using the method
JP2013223209A (en) Image pickup processing device
KR20180118790A (en) Image processing apparatus, image processing method, recording medium, program and image capturing apparatus
JP6613697B2 (en) Image processing apparatus, program, and recording medium
JPWO2011121760A1 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
WO2009001956A1 (en) Image processing device, image processing method, program, and imaging device
US20170154454A1 (en) Image processing apparatus and image processing method
JP6040042B2 (en) Image processing apparatus, image processing method, and program
JP2022179514A (en) Control apparatus, imaging apparatus, control method, and program
JP6904842B2 (en) Image processing device, image processing method
WO2008102296A2 (en) Method for enhancing the depth sensation of an image
JP3992720B2 (en) Image correction apparatus, image correction method, program, and recording medium
JP5455728B2 (en) Imaging apparatus, image processing apparatus, and image processing method
JP2005130486A (en) Video signal processing apparatus
KR101726683B1 (en) Method for processing image
JP2017103756A (en) Image data processing apparatus and method
KR102470242B1 (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant