KR20140134907A - Apparatus and method for Motion Compensated Interpolation of moving caption region - Google Patents

Apparatus and method for Motion Compensated Interpolation of moving caption region Download PDF

Info

Publication number
KR20140134907A
KR20140134907A KR1020130054930A KR20130054930A KR20140134907A KR 20140134907 A KR20140134907 A KR 20140134907A KR 1020130054930 A KR1020130054930 A KR 1020130054930A KR 20130054930 A KR20130054930 A KR 20130054930A KR 20140134907 A KR20140134907 A KR 20140134907A
Authority
KR
South Korea
Prior art keywords
subtitle
information
region
moving
area
Prior art date
Application number
KR1020130054930A
Other languages
Korean (ko)
Other versions
KR101581433B1 (en
Inventor
김병우
한동일
이석우
최재훈
Original Assignee
주식회사 칩스앤미디어
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 칩스앤미디어, 세종대학교산학협력단 filed Critical 주식회사 칩스앤미디어
Priority to KR1020130054930A priority Critical patent/KR101581433B1/en
Publication of KR20140134907A publication Critical patent/KR20140134907A/en
Application granted granted Critical
Publication of KR101581433B1 publication Critical patent/KR101581433B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)

Abstract

According to an embodiment of the present invention, a method for interpolating a frame using motion compensation of a moving caption area includes the steps of: extracting primary caption candidate area image information from inputted consecutive image sequences using temporal features and spatial features; generating an edge image based on the primary caption candidate area image information and extracting a secondary caption candidate area based on the edge image; and verifying a caption area by comparing the secondary caption candidate area and the image sequences.

Description

이동자막 영역의 움직임 보상 프레임 보간 장치 및 방법{Apparatus and method for Motion Compensated Interpolation of moving caption region}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a motion compensated frame interpolation apparatus and a motion compensated frame interpolation method,

본 발명은 프레임 보간 장치 및 방법에 관한 것으로, 더욱 상세하게는 프레임율 변환(Frame Rate Conversion)의 영상 처리(Image Processing)에 있어서, 디스플레이 화질 개선(Display Quality Enhancement)을 위한 프레임 보간 장치 및 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a frame interpolation apparatus and method, and more particularly, to a frame interpolation apparatus and method for a display quality enhancement in image processing of frame rate conversion .

프레임 율 변환(Frame Rate Conversion)기법은 영상정보와 디스플레이 형식의 폭발적인 증가로 인해 최근 부상하고 있는 중요한 이슈 중 하나이다. 프레임 율 변환 기법은 다른 프레임 율을 가지는 다양한 디스플레이 포맷 간의 변환을 위해 필요하다. 예를 들어 기존의 동영상들은 초당 24, 25, 30 의 프레임 율을 가지지만, HDTV와 멀티미디어 PC시스템은 화면 깜빡임과 같은 화질열화를 줄이고, 출력되는 화질을 향상시키기 위해 더욱 높은 프레임 율을 지원한다. Frame Rate Conversion is one of the most important issues in recent years due to the explosive increase in image information and display formats. Frame rate conversion techniques are needed for conversion between various display formats with different frame rates. For example, existing videos have frame rates of 24, 25, and 30 per second, but HDTV and multimedia PC systems support higher frame rates to reduce image quality degradation such as screen blinking and improve output quality.

그러므로 HDTV나 멀티미디어 환경에서 동영상을 재생할 경우 지원하는 프레임 율로 상향 변환이 되면 보다 좋은 화질을 기대할 수 있다. 특히 LCD 디스플레이 장치의 경우, 느린 응답속도로 인한 동영상 화질 저하가 발생되는데 디스플레이되는 프레임율을 증가시킴으로써 화질 열화를 방지할 수도 있다. Therefore, when the video is played back in the HDTV or multimedia environment, the higher the frame rate, the better the picture quality can be expected. Particularly, in the case of an LCD display device, deterioration of image quality may be prevented by increasing the frame rate to be displayed even though a deterioration of the moving image quality due to a slow response speed occurs.

과거에는, 프레임 상향 변환을 위해 프레임 반복이나 시간적 필터링을 통한 선형 보간과 같은 단순한 알고리즘이 사용되었다. 하지만 이와 같은 단순한 알고리즘들은 motion judder 와 motion blur 와 같은 화질열화를 유발한다. 이와 같은 화질열화를 방지하기 위해, 최근에는 블록단위 움직임 보상 보간 기법을 이용한 다양한 움직임 보상 프레임 율 변환 알고리즘이 개발되고 있다. 이와 같은 움직임 보상 기법의 경우, 모든 보간 과정이 움직임 벡터에 의해 이루어지기 때문에 영상 내 객체들의 실제 움직임 벡터를 추정해 내는 것이 매우 중요하다.In the past, simple algorithms such as frame repetition or linear interpolation with temporal filtering were used for frame up-conversion. However, these simple algorithms cause image degradation such as motion judder and motion blur. In order to prevent such deterioration of image quality, various motion compensation frame rate conversion algorithms using block-based motion compensation interpolation techniques have been developed. In such a motion compensation scheme, it is very important to estimate the motion vectors of the objects in the image because all the interpolation processes are performed by the motion vectors.

하지만, 블록단위 움직임 추정 시 영상의 노이즈, 밝기 변화, 유사한 영상의 존재로 인한 다중 국부 최소값의 존재, 사물 차폐, 사물 형태의 변화 등의 이유로 정확한 실제 움직임 벡터를 추정하지 못하는 경우가 많다. However, in block-based motion estimation, it is often impossible to estimate an accurate motion vector for reasons such as noise, brightness change, presence of a local minimum value due to the presence of a similar image, object shading, change of object shape, and the like.

특히 이동자막이 존재하는 영상의 경우 한 블록 내에 서로 다른 방향으로 움직이는 이동자막과 사물이 동시에 존재하여 정확한 움직임 추정이 어려운 문제점이 있다. 이와 같은 이유로 인해 잘못 추정된 움직임 벡터는 보간된 영상에서 block artifact 와 같은 화질열화를 유발하게 된다. In particular, in the case of an image having a moving subtitle, moving subtitles and objects moving in different directions are present in one block at the same time, so that accurate motion estimation is difficult. For this reason, incorrectly estimated motion vectors cause image degradation such as block artifacts in the interpolated image.

잘못된 움직임 벡터 추정으로 인한 화질열화는 그 빈도가 극히 낮다면 움직임 보상 보간 기법의 여러 장점으로 인해 무시될 수 있으나, 기존의 블록단위 움직임 보상 프레임 율 변환 기법으로는 영상의 특징에 따라 움직임 벡터 추정 실패가 무척 빈번히 발생하며 이는 대량의 block artifact 를 유발하여 시청자의 눈에 심하게 거슬리게 된다. 특히 자막 부위에 block artifact 가 발생할 경우, 다른 경우보다 더욱 시청자가 인지하기 쉽다는 문제가 있다. 이 경우 잘못 보간된 자막 부분의 artifact로 인한 PSNR의 감소폭은 그다지 크지 않으나 주관적 화질 평가 시에는 매우 큰 비중을 차지하게 되며 별도의 처리 기법이 요구된다.If the frequency is extremely low, image degradation due to erroneous motion vector estimation can be ignored due to various merits of the motion compensation interpolation technique. However, in the conventional block-based motion compensation frame rate conversion technique, Occurs very frequently and causes a large amount of block artifacts, which can seriously disturb the viewer's eyes. Especially, when a block artifact occurs in the subtitle area, it is easier for viewers to recognize than other scenes. In this case, the decrease in PSNR due to the artifacts of the misinterpreted subtitles is not so large, but it takes a very large portion in the subjective image quality evaluation, and a separate processing technique is required.

본 발명의 실시 예는 상술한 바와 같이 이동자막 영역의 움직임 추정 시 한 블록 내에 이동자막과 움직이는 사물이 동시에 존재할 경우 정확한 움직임 추정이 되지 않아 발생하는 움직임 추정 실패로 인한 block artifact 를 방지하기 위해 이동자막 영역을 검출하여 사물의 움직임과 무관한 이동자막 영역의 움직임 보상 보간방법을 제공하는데 그 목적이 있다.As described above, in order to prevent block artifacts due to failure of motion estimation due to failure of accurate motion estimation when a moving subtitle and a moving object exist in one block at the time of motion estimation of a moving subtitle area, And a method of interpolating motion compensation of a moving subtitle area irrespective of the motion of an object.

다만, 본 발명의 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.It is to be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may be present.

상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 실시 예에 따른 장치는, 움직임 보상 프레임 보간 장치에 있어서, 연속적으로 입력되는 영상으로부터 시간적 특징 및 위치적 특징에 따른 1차 자막 후보영역영상을 추출하는 이동자막 후보영역 추출부; 상기 추출된 1차 후보영역 영상으로부터 글자의 윤곽선 특성에 따른 에지정보를 이용하여 2차 자막 후보영역을 생성하는 이동자막 특징 검출부; 및 상기 입력되는 영상으로부터 상기 이동자막 특징 검출부에서 생성되는 2차 자막 후보영역을 검증하는 이동자막 영역 검증부를 포함한다.According to an aspect of the present invention, there is provided an apparatus for interpolating a motion compensated frame, comprising: a first subtitle candidate region image A moving subtitle candidate region extracting unit for extracting a moving subtitle candidate region; A moving subtitle feature detector for generating a secondary subtitle candidate area using edge information according to a contour characteristic of a character from the extracted primary candidate region image; And a mobile caption region verification unit for verifying a secondary caption candidate region generated by the mobile caption feature detection unit from the input image.

또한, 상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 실시 예에 따른 방법은, 이동자막 영역의 움직임 보상 프레임 보간 방법에 있어서, 입력으로 들어오는 연속적인 영상 시퀀스에서 시간적 특징과 위치적 특징을 이용하여 1차 자막 후보영역 영상 정보를 추출하는 단계; 상기 1차 자막 후보영역 영상 정보에 기초하여 에지 영상을 생성하고, 상기 에지 영상에 기초하여 2차 자막 후보영역을 추출하는 단계; 및 상기 2차 자막 후보영역과 상기 영상 시퀀스를 비교하여 자막 영역을 검증하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method for interpolating motion compensation frames in a moving subtitle area, the method comprising the steps of: Extracting first caption candidate region image information using the first caption candidate region image information; Generating an edge image based on the first subtitle candidate region image information and extracting a second subtitle candidate region based on the edge image; And verifying the caption region by comparing the secondary caption candidate region and the video sequence.

본 발명의 실시 예에 따르면, 블록단위 움직임 보상 프레임 율 변환 기법을 위한 움직임 추정장치로부터 추정된 움직임 벡터가 한 블록 내에 이동자막과 움직이는 사물이 동시에 존재하여 잘못 추정되어 blocking artifact 가 발생하는 것을 방지하기 위해 자막 영역을 검출하여 추후 보간 시 주변과는 다른 벡터로 적용하는 기법을 제안하였다.According to the embodiment of the present invention, it is possible to prevent a motion artifact estimated from a motion estimation apparatus for a block-based motion compensation frame rate conversion scheme from erroneously estimating a blocking artifact due to the simultaneous presence of a moving subtitle and a moving object within one block We have proposed a technique to detect the subtitle area and apply it to a different vector from the surrounding area in the future interpolation.

이에 따라, 이동 자막과 움직이는 사물이 동시에 존재할 경우 움직임 벡터가 잘못 추정됨으로 인해 발생하는 blocking artifact를 최소화 할 수 있는 효과가 있다. 특히, 자막 부위에 block artifact 가 발생할 경우, 다른 경우보다 더욱 시청자가 인지하기 쉽기 때문에 프레임 교정을 통한 정지자막 영역의 block artifact 최소화 효과가 극대화 될 수 있다.Accordingly, when the moving subtitle and the moving object exist at the same time, the blocking artifact caused by the incorrect estimation of the motion vector can be minimized. In particular, when block artifacts occur in the caption region, the block artifact minimization effect of the static caption region through frame correction can be maximized because the viewer is more perceptible than other cases.

도 1은 발명의 일실시예에 따른 이동자막이 포함된 영상에서 이동자막 영역 검출 방법을 나타낸 순서도이다.
도 2는 본 발명에 따른 이동자막 후보영역 추출부를 상세하게 설명하기 위한 도면이다.
도 3은 본 발명에 따른 이동자막 특징 추출부를 상세하게 설명하기 위한 도면이다.
도 4a 내지 도 4i는 본 발명의 일실시예에 따른 이동자막 후보영역 추출부를 상세하게 설명하기 위한 도면이다.
도 5a 내지 5e는 본 발명의 일실시예에 따른 이동자막 특징 추출부를 상세하게 설명하기 위한 도면이다.
도 6a는 본 발명이 적용되지 않은 프레임 보간 영상 예이며, 도 6b는 본 발명이 적용된 프레임 보간 영상 예이다.
도 7은 본 발명의 실시 예에 따른 움직임 보상 프레임 장치를 설명하기 위한 도면이다.
1 is a flowchart illustrating a method of detecting a moving subtitle area in an image including a moving subtitle according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining a moving subtitle candidate region extracting unit according to the present invention in detail.
FIG. 3 is a diagram for explaining a moving subtitle feature extracting unit according to the present invention in detail.
4A to 4I are views for explaining a moving subtitle candidate region extracting unit according to an embodiment of the present invention in detail.
5A to 5E are diagrams for explaining a moving subtitle feature extracting unit according to an embodiment of the present invention in detail.
FIG. 6A is an example of a frame interpolation image to which the present invention is not applied, and FIG. 6B is an example of a frame interpolation image to which the present invention is applied.
7 is a view for explaining a motion compensation frame apparatus according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following merely illustrates the principles of the invention. Thus, those skilled in the art will be able to devise various apparatuses which, although not explicitly described or shown herein, embody the principles of the invention and are included in the concept and scope of the invention. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, intended only for the purpose of enabling understanding of the concepts of the present invention, and are not intended to be limiting in any way to the specifically listed embodiments and conditions .

또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, it should be understood that the block diagrams herein represent conceptual views of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures, including the functional blocks depicted in the processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.Also, the explicit use of terms such as processor, control, or similar concepts should not be interpreted exclusively as hardware capable of running software, and may be used without limitation as a digital signal processor (DSP) (ROM), random access memory (RAM), and non-volatile memory. Other hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims hereof, the elements represented as means for performing the functions described in the detailed description include all types of software including, for example, a combination of circuit elements performing the function or firmware / microcode etc. , And is coupled with appropriate circuitry to execute the software to perform the function. It is to be understood that the invention defined by the appended claims is not to be construed as encompassing any means capable of providing such functionality, as the functions provided by the various listed means are combined and combined with the manner in which the claims require .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 움직임 보상 보간 장치를 나타낸 블록도 이다.
1 is a block diagram illustrating a motion compensation interpolator according to an embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 움직임 보상 보간 장치는 이동자막 후보영역 추출부(100), 이동자막 특징 추출부(200), 이동자막 영역 검증부(300)를 구비한다.
Referring to FIG. 1, a motion compensation interpolator according to the present invention includes a subtitle candidate region extraction unit 100, a subtitle feature extraction unit 200, and a subtitle region verification unit 300.

먼저 이동자막 후보영역 추출부(100)는 영상 시퀀스를 입력받고, 입력된 영상 시퀀스로부터 1차 이동자막 후보영역 영상을 생성한다. 이동자막 후보영역 추출부(100)는 입력된 영상 시퀀스를 이동 자막의 시간적 특징 및 위치적 특징에 따라 분석하고, 분석 결과에 따라 1차 이동자막 후보영역 영상을 생성할 수 있다.First, the moving subtitle candidate region extracting unit 100 receives a video sequence and generates a first moving subtitle candidate region image from the input video sequence. The moving subtitle candidate region extracting unit 100 may analyze the inputted video sequence according to the temporal and spatial characteristics of the moving subtitle and generate the first moving subtitle candidate region image according to the analysis result.

이를 위해, 이동자막 후보영역 추출부(100)는 영상 밝기 차이값 계산부(120), 영상 밝기 차이 최소값 계산부(140), 가로방향 자막영역 검출부(160), 세로방향 자막영역 검출부(180)를 포함할 수 있다.The moving picture candidate region extracting unit 100 includes a video brightness difference calculating unit 120, a video brightness difference minimum calculating unit 140, a horizontal caption region detecting unit 160, a vertical caption region detecting unit 180, . ≪ / RTI >

그리고, 이동자막 특징 추출부(200)는 이동자막 후보영역 추출부(100)에서 생성된 1차 이동자막 후보영역 영상 에서 글자의 윤곽선 특성을 이용하여 1차 이동자막 후보영역 보다 정밀한 2차 이동자막 후보영역을 생성한다.The moving subtitle feature extracting unit 200 extracts a precise secondary moving subtitle from the primary moving subtitle candidate region using the contour characteristic of the character in the primary moving subtitle candidate region image generated by the moving subtitle candidate region extracting unit 100, Create a candidate region.

그리고, 이동자막 영역 검증부(300)는 입력된 영상 시퀀스를 이용하여 이동자막 특징 추출부(200)에서 생성한 2차 이동자막 후보영역을 사용해 기준프레임에서의 이동자막 후보영역을 자막의 이동 속도만큼 이동시킨 후 참조프레임과 비교하여 해당 자막영역이 올바른 영역인지를 검증하고 검증된 영역을 최종 이동자막 영역으로 결정하여 출력한다. Then, the moving subtitle region verification unit 300 uses the input video sequence to extract the moving subtitle candidate region in the reference frame using the secondary moving subtitle candidate region generated by the moving subtitle feature extraction unit 200 as the moving speed of the subtitle And then compared with the reference frame to verify that the caption area is the correct area, and the verified area is determined as the final caption area and output.

그리고, 최종 이동자막 영역이 결정되면, 움직임 보상 보간 장치는 움직임 보상을 통한 보간과정에서, 최종 이동자막 영역에 대한 움직임 벡터를 이동자막에 해당하는 특정 방향 및 속도로 교정할 수 있다. 예를 들어, 프레임 보간 장치는 교정된 블록에 대해서 이전 프레임과의 평균값으로 보간할 수 있다. 이에 따라 이동 자막영역에 대해서는 다른 사물과 달리 특정 움지임 벡터로 교정됨으로서 이동자막 영역의 block artifact를 최소화할 수 있다.
When the final moving subtitle area is determined, the motion compensation interpolator can correct the motion vector for the last moving subtitle area in a specific direction and speed corresponding to the moving subtitle in the interpolation process through motion compensation. For example, the frame interpolator can interpolate the corrected block with an average value with respect to the previous frame. As a result, unlike other objects, the moving artifact region is corrected to a specific motion vector, thereby minimizing block artifacts in the moving subtitle region.

도 2는 이동자막 후보영역 추출부(100)를 보다 상세하게 설명하기 위한 블록도이며, 도 3은 이동자막 특징 추출부(200)를 보다 상세하게 설명하기 위한 블록도이다.
FIG. 2 is a block diagram for explaining the moving subtitle candidate region extracting unit 100 in more detail, and FIG. 3 is a block diagram for explaining the moving subtitle characteristic extracting unit 200 in more detail.

먼저, 도 2를 참조하면, 이동자막 후보영역 추출부(100)는 영상 밝기 차이값 계산부(120), 영상 밝기 차이 최소값 계산부(140), 가로방향 자막영역 검출부(160) 및 세로방향 자막영역 검출부(180)를 포함할 수 있다.
2, the moving subtitle candidate region extracting unit 100 includes a video brightness difference calculating unit 120, a video brightness difference minimum calculating unit 140, a horizontal subtitle region detecting unit 160, And an area detection unit 180.

영상 밝기 차이값 계산부(120)에서는 기준 프레임과 참조 프레임으로 기준 프레임의 다음 프레임을 입력 영상으로 받아 참조 프레임을 픽셀단위로 이동시킨 후 두 영상의 차이의 절대값을 생성한다. The image brightness difference value calculator 120 receives the next frame of the reference frame as a reference frame and the reference frame as an input image, moves the reference frame in units of pixels, and generates an absolute value of the difference between the two images.

그리고, 영상 밝기 최소값 계산부(140)에서는 각각의 픽셀마다 참조 프레임을 몇 픽셀 이동시켰을 때 두 영상의 픽셀 밝기의 차이의 절대값이 가장 작은지를 계산한 최소의 차이를 가지는 픽셀간의 거리를 생성한 후 평균적으로 자막이 이동하는 속도에 적합한 거리 정보만을 추출하고 자막으로 보기에는 지나치게 작은 영역들을 제거한다. The minimum image brightness calculation unit 140 generates a distance between the pixels having the smallest difference by calculating how many pixels of the reference frame are shifted for each pixel to determine whether the absolute value of the difference between the pixel brightness of the two images is the smallest After subtracting only the distance information suitable for the moving speed of subtitles on average, it removes the excessively small areas to be viewed as subtitles.

도 4a 내지 도 4i는 영상 밝기 최소값과 관련한 본 발명의 일 실시 예에 따라 처리되는 영상을 나타낸다.Figures 4A-4I show images processed in accordance with one embodiment of the present invention in relation to the minimum image brightness.

먼저 도 4a, 4b는 입력 영상 시퀀스의 일 예를 나타낸다. 이에 대해 도 4c는 영상 밝기 차이값 계산부(120)로부터 출력되는 차이값에 따라 영상 밝기 최소값 계산부(140)에서 생성되는 최소의 차이를 갖는 픽셀간의 거리 정보를 나타내는 도면이다. 도 4c에 도시된 바와 같이, 자막 영역에 대해서는 픽셀 간 차이가 유사한 값을 가지는 것을 알 수 있다4A and 4B show an example of an input image sequence. FIG. 4C is a diagram illustrating distance information between pixels having a minimum difference generated by the minimum image brightness calculating unit 140 according to a difference value output from the image brightness difference calculating unit 120. FIG. As shown in FIG. 4C, it can be seen that the difference between the pixels has a similar value for the caption area

한편, 도 4d는 자막이 이동하는 속도에 적합한 거리정보만을 나타낸 그림이고, 도 4e는 도 4d에서 미리 설정된 자막 영역 크기보다 작은 영역들을 제거하여 필터링된 영상을 나타낸다. 영상 밝기 최소값 계산부(140)에서 생성될 수 있다.
4D is a view showing only the distance information suitable for the moving speed of the caption, and FIG. 4E shows the filtered image by removing regions smaller than the preset caption region size in FIG. 4D. And may be generated in the minimum image brightness calculating unit 140.

다시 도 2를 참조하면, 가로방향 자막영역 검출부(160)에서는 영상밝기 최소값 계산부(140)에서 생성된 자막으로 적합한 거리 정보를 사용하여 가로방향으로 일정 비율 이상인 정보들만을 검출한다. Referring back to FIG. 2, the horizontal caption region detection unit 160 detects only information in a horizontal direction using a distance information suitable for the caption generated by the video brightness minimum value calculation unit 140.

그리고, 세로방향 자막영역 검출부(180)는 가로방향 자막영역 검출부(160)에서 생성된 가로방향 거리정보들 중에서 세로방향으로 일정 비율 이상인 정보들만을 검출한다. The vertical caption region detection unit 180 detects only information in a vertical direction from the horizontal direction distance information generated by the horizontal caption region detection unit 160.

도 4f는 도 4e에서와 같이 생성된 유효간 거리정보들의 가로방향 빈도수를 나타낸 그림이다. 도 4g는 가로방향 자막영역 검출부(160)에서 생성된 결과로서 도 4e에서 가로방향으로 일정한 비율 이상의 빈도수를 가지는 영역만을 나타낸 그림이다. FIG. 4F is a diagram illustrating the number of horizontal direction frequencies of the effective inter-vehicle distance information generated as shown in FIG. 4E. FIG. 4G is a diagram showing only a region generated in the horizontal direction caption region detection unit 160 and having a frequency of more than a predetermined ratio in the horizontal direction in FIG. 4E.

도 4h는 세로방향 자막영역 검출부(180)에서 생성된 결과로서 도 4g에서 세로방향으로 유효한 거리정보들의 빈도수를 나타낸 그림이다. 4H is a diagram showing the frequency of valid distance information in the vertical direction in FIG. 4G as a result generated by the vertical caption region detecting unit 180. FIG.

도 4i는 입력된 기준 프레임에서 세로방향 자막영역 검출부(180)에서 생성된 정보들을 이용하여 직사각형 영역을 표시한 그림으로서 이동자막 후보영역 추출부(100)에서 생성하는 1차 이동자막 후보영역 영상이다.4I is a picture showing a rectangular area using information generated by the vertical direction caption region detection unit 180 in the input reference frame, and is a primary moving caption candidate region image generated by the movement caption candidate region extraction unit 100 .

도 4f 내지 도 4i에 도시된 바와 같이, 본 발명의 실시 예에 따른 움직임 보상 보간 장치는 자막의 이동속도에 적합한 영역을 이용해 가로방향으로 projection을 수행하여 일정 빈도수 이하인 영역은 버리고 일정 빈도 이상인 영역만을 획득할 수 있다. 그리고, 가로방향 projection 결과를 이용해 동일한 방식으로 세로방향으로 projection 계산하여 유효한 자막 후보영역을 찾을 수 있다. 일반적으로 자막 영역은 직사각형 영역이므로 세로방향으로 projection한 결과를 포함한 가장 작은 직사각형 영역이 이동자막 후보 영역이 될 수 있다. 본 발명의 실시 예에서, 자막의 경계 부분에서는 픽셀 최소값이 정확히 검출되지 않을 수 있으므로 직사각형 영역을 일정 비율로 확대하여 1차 후보 영역을 결정할 수 있다.As shown in FIGS. 4F to 4I, the motion compensation interpolator according to the embodiment of the present invention performs projection in the horizontal direction using an area suitable for the moving speed of the caption, discards a region having a frequency less than a predetermined frequency, Can be obtained. Then, by using projection results in the horizontal direction, projection can be calculated in the vertical direction in the same manner to find a valid caption candidate region. Generally, since the caption area is a rectangular area, the smallest rectangular area including the result of projecting in the vertical direction can be a moving subtitle candidate area. In the embodiment of the present invention, since the pixel minimum value may not be accurately detected at the boundary portion of the caption, the first candidate region may be determined by enlarging the rectangular region at a predetermined ratio.

그리고, 앞서 설명한 바와 같이 이동자막 후보영역 추출부(100)에서 생성된 1차 이동자막 후보영역 영상 에서 글자의 윤곽선 특성을 이용하여 1차 이동자막 후보영역 보다 정밀한 2차 이동자막 후보영역을 생성한다.As described above, the secondary moving subtitle candidate region is generated more precisely than the primary moving subtitle candidate region using the contour characteristics of characters in the primary moving subtitle candidate region image generated by the moving subtitle candidate region extracting unit 100 .

보다 구체적으로, 도 3을 참조하면, 이동자막 특징 추출부(200)는 자막 윤곽선 검출부(220), 가로방향 자막 윤곽선 영역 검출부(240), 세로방향 자막 윤곽선 영역 검출부(260)를 포함할 수 있다.
3, the moving subtitle feature extraction unit 200 may include a subtitle contour detection unit 220, a horizontal subtitle contour area detection unit 240, and a vertical subtitle contour area detection unit 260 .

자막 윤곽선 검출부(220)는 이동자막 후보영역 추출부(100)에서 생성하는 1차 이동자막 후보영역 영상에서 글자의 윤곽선 특성을 고려하여 윤곽선 정보영상 생성한다. The subtitle contour detecting unit 220 generates a contour information image in consideration of the contour characteristics of characters in the primary moving subtitle candidate region image generated by the moving subtitle candidate region extracting unit 100. [

도 5a는 도 4a영상이 이동자막 후보영역 추출부(100)를 수행 후 생성된 영상을 나타낸 그림이며 도 5b는 도 5a가 자막 윤곽선 검출부(220)를 수행 후 생성된 에지 영상을 보여준다.
FIG. 5A is a view showing an image generated after the moving picture candidate region extracting unit 100 of FIG. 4A is performed, and FIG. 5B is an edge picture generated after performing the caption contour detecting unit 220 of FIG. 5A.

가로방향 자막 윤곽선 영역 검출부(240)는 자막 윤곽선 검출부(220)수행 후 생성되는 윤곽선 정보를 사용하여 가로방향으로 윤곽선의 개수가 처음으로 일정 비율 이상인 라인을 첫 라인으로, 마지막으로 일정 비율 이상인 라인을 마지막 라인으로 하는 영역의 정보들만을 검출한다. The horizontal subtitle contour area detecting unit 240 uses the contour information generated after the subtitle contour detecting unit 220 to calculate a line whose contour line number is greater than a predetermined ratio for the first time as a first line, Only the information of the area to be the last line is detected.

세로방향 자막 윤곽선 영역 검출부(260)은 가로방향 자막 윤곽선 영역 검출부(240)에서 생성된 윤곽선 정보들 중에서 세로방향으로 윤곽선의 개수가 처음으로 일정 비율 이상인 라인을 첫 라인으로, 마지막으로 일정 비율 이상인 라인을 마지막 라인으로 하는 영역의 정보들만을 검출한다. The vertical-direction subtitle contour area detecting unit 260 detects, as the first line, a line in which the number of contours in the vertical direction is greater than a predetermined ratio for the first time among the contour information generated in the horizontal-direction subtitle contour area detecting unit 240, As the last line.

도 5c는 도 5b의 윤곽선 정보 중에서 가로방향으로 일정한 비율 이상의 빈도수를 가지는 라인만을 나타낸 도면이다. FIG. 5C is a diagram showing only lines having a frequency greater than a predetermined ratio in the horizontal direction among the outline information of FIG. 5B.

도 5d는 도 5c의 가로방향 윤곽선 정보 중에서 가로방향으로 일정한 비율 이상의 빈도수를 가지는 라인만을 나타낸 도면이다. FIG. 5D is a diagram showing only lines having a frequency greater than a predetermined ratio in the horizontal direction among the horizontal direction contour information of FIG. 5C.

도 5e는 세로방향 자막 윤곽선 영역 검출부(260)에서 생성된 정보들을 포함하는 직사각형 영역을 표시한 그림으로서 이동자막 특징 추출부(200)에서 생성하는 2차 이동자막 후보영역을 나타낸다.FIG. 5E is a diagram showing a rectangular area including information generated by the vertical subtitle contour area detecting unit 260, and shows a secondary moving subtitle candidate area generated by the moving subtitle feature extracting unit 200. FIG.

도 5a 내지 도 5e에 도시된 바와 같이, 이동자막 특징 추출부(200)는 1차 자막 후보영역으로부터 정확한 자막의 경계 부분을 찾기 위해 에지 맵을 생성할 수 있다. 그리고, 에지 맵으로부터 앞서 설명한 가로 방향, 세로방향으로 에지 분포를 계산한 후 상하좌우 방향에서 일정 비율 이상의 에지가 처음으로 검출되는 라인을 찾을 수 있으며, 이 라인들이 포함되는 영역을 2차 자막 후보 영역으로 결정할 수 있다.As shown in FIGS. 5A to 5E, the moving subtitle feature extracting unit 200 can generate an edge map to find the boundary portion of the correct subtitles from the first subtitle candidate region. After calculating edge distributions in the horizontal and vertical directions described above from the edge map, it is possible to find a line where an edge at a certain rate or more is first detected in the vertical and horizontal directions, and the area including these lines is referred to as a second subtitle candidate area .

그리고, 앞서 설명한 바와 같이 이동자막 영역 검증부(300)는 입력된 영상 시퀀스를 이용하여 이동자막 특징 추출부(200)에서 생성한 2차 이동자막 후보영역을 사용해 기준프레임에서의 이동자막 후보영역을 자막의 이동 속도만큼 이동시킨 후 참조프레임과 비교하여 해당 자막영역이 올바른 영역인지를 검증하고 검증된 영역을 최종 이동자막 영역으로 결정하는 역할을 수행할 수 있다. 검출된 자막 영역은 추후 움직임 보상 보간 시 주변 블록들과는 다른 벡터로 적용되어 프레임이 보간에 이용될 수 있다.As described above, the moving subtitle region verifying unit 300 uses the input video sequence to search for the moving subtitle candidate region in the reference frame using the secondary moving subtitle candidate region generated by the moving subtitle characteristic extracting unit 200 It is possible to verify whether the corresponding caption area is a correct area and to determine the verified area as a final moving caption area by comparing the moving speed of the caption with the reference frame. The detected caption area is applied to a different vector from the neighboring blocks in the motion compensation interpolation, so that the frame can be used for the interpolation.

도 6a의 경우 본 발명의 프레임 보간 기법이 적용되지 않은 경우의 프레임 보간 결과 영상이고 도 6b의 경우는 본 발명의 프레임 보간 기법이 적용된 경우의 프레임 보간 결과 영상이다. 도 6a와 도 6b를 비교해보면 쉽게 알 수 있는 바와 같이, 본 발명에 따른 이동자막 영역의 움직임 보상 프레임 보간 기법이 사용될 경우 보간된 영상의 화질이 향상된 것을 알 수 있다.
6A is a frame interpolation result image when the frame interpolation technique of the present invention is not applied, and FIG. 6B is a frame interpolation result image when the frame interpolation technique of the present invention is applied. 6A and 6B, it can be seen that the image quality of the interpolated image is improved when the motion compensation frame interpolation scheme of the moving subtitle area according to the present invention is used.

이상 설명한 바와 같이, 블록단위 움직임 보상 프레임 율 변환 기법을 위한 움직임 추정장치로부터 추정된 움직임 벡터가 한 블록 내에 이동자막과 움직이는 사물이 동시에 존재하여 잘못 추정되어 blocking artifact 가 발생하는 것을 방지하기 위해 자막 영역을 검출하여 추후 보간 시 주변과는 다른 벡터로 적용하는 기법을 제안할 수 있다.As described above, in order to prevent the motion vector estimated from the motion estimation apparatus for the block-based motion compensation frame rate conversion scheme from being erroneously estimated due to the simultaneous presence of the moving subtitles and moving objects within one block, blocking artifacts are generated, It is possible to propose a technique of applying a vector different from the surrounding vector in the subsequent interpolation.

현재 영상정보와 디스플레이 형식의 폭발적인 증가로 인해 프레임 율 변환 기법이 중요한 이슈로 떠오르고 있으나, 과거 프레임 반복이나 시간적 필터링을 통한 선형 보간과 같은 단순한 알고리즘은 motion judder 와 motion blur 와 같은 화질열화를 유발하게 된다. Frame rate conversion techniques are emerging as an important issue due to the explosive increase of video information and display formats, but simple algorithms such as past frame repetition and linear interpolation through temporal filtering cause image degradation such as motion judder and motion blur .

따라서, 본 발명의 이동자막이 포함된 영상에서 이동자막 영역을 검출하는 기법을 적용하면, 현재 이동자막이 포함된 블록의 움직임 벡터가 잘못 추정되었다 하더라도 자막영역으로 검출된 블록의 움직임 벡터를 다시 설정해 교정함으로써 이동자막 영역의 block artifact를 최소화 할 수 있게 된다.
Therefore, even if the motion vector of the block including the current subtitle is wrongly estimated, the motion vector of the block detected as the subtitle area is set again The block artifacts of the moving subtitle area can be minimized.

도 7은 본 발명의 실시 예에 따른 프레임 보간 장치의 구성을 나타낸다. 7 shows a configuration of a frame interpolator according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 프레임 보간 장치는 이동 자막 영역 검출 모듈, 움직임 예측 모듈, 움직임 벡터 교정 모듈 및 움직임 보상부를 포함할 수 있다.As shown in FIG. 7, the frame interpolator may include a motion caption region detection module, a motion prediction module, a motion vector correction module, and a motion compensation unit.

앞서 설명한 바와 같이, 이동 자막 영역 검출 모듈은 순차적인 2개의 입력 영상을 받아 두 픽셀간의 거리 정보를 계산한 후 두 픽셀간의 거리가 통계적인 자막의 이동속도에 적합한 영역을 찾고, 가로, 세로 방향으로 검사하여 일정한 크기를 가지는 영역을 1차 후보 영역을 생성할 수 있다. 그리고, 이 1차 후보영역을 Edge영상으로 변환시킨 후 다시 가로 세로 방향으로 일정 비율 이상의 Edge가 검출되는 영역을 2차 후보 영역으로 생성한다. 이 2차 후보영역을 실제 입력 영상에 비교하여 일정 값 이하의 차이를 보일 경우 실제 이동자막으로 검출하고, 검출된 이동자막 영역에 대한 정보를 움직임 벡터 교정 모듈로 출력할 수 있다.As described above, the mobile caption area detection module receives two sequential input images, calculates the distance information between two pixels, finds an area suitable for the moving speed of the statistical caption, And the first candidate region can be generated as an area having a predetermined size. After converting the first candidate region into an edge image, a second candidate region is generated in which an edge having a certain ratio or more in the horizontal and vertical directions is detected. If the second candidate region is compared with the actual input image and a difference of less than a predetermined value is detected, it is detected as an actual moving subtitle, and information on the detected moving subtitle region can be output to the motion vector correction module.

그리고, 움직임 예측 모듈은 프레임 율 변환에 따른 보간을 수행하기 위해 프레임 간 움직임 정보에 기초하여, 보간될 프레임을 위한 움직임 벡터를 예측한다. The motion prediction module predicts a motion vector for a frame to be interpolated based on inter-frame motion information to perform interpolation according to the frame rate conversion.

그리고, 움직임 벡터 교정 모듈은 정지자막 영역 검출 모듈로부터 이동자막 영역 정보를 수신하고, 움직임 예측 모듈에서 예측된 움직임 벡터 중 이동 자막에 포함된 블록에 대해서는 움직임 벡터를 특정 값으로 교정할 수 있다. 예를 들어, 프움직임 벡터 교정 모듈은 이동 자막 영역의 모션 벡터값을 해당 영역의 모션 벡터 중 최빈값으로 교정할 수 있다.The motion vector correction module receives the moving subtitle area information from the still caption area detection module and corrects the motion vector of the block included in the moving subtitle of the motion vector predicted by the motion prediction module to a specific value. For example, the motion vector correction module may correct the motion vector value of the moving subtitle area to the mode of the motion vector of the corresponding area.

그리고, 움직임 보상부는 움직임 벡터 교정 모듈로부터 출력되는 움직임 벡터에 기초하여 움직임 보상을 통해 프레임간 보간을 수행한다. 특히, 움직임 보상부는 움직임 벡터가 교정된 블록에 대해서는 교정된 움직임 벡터를 이용하여 보간할 수 있다.The motion compensation unit performs inter-frame interpolation through motion compensation based on a motion vector output from the motion vector correction module. In particular, the motion compensation unit can interpolate the corrected block using the corrected motion vector.

이와 같이, 이동 자막 영역의 이동 거리 정보의 항상성을 이용하여 영상 시퀀스에서 이동자막 영역을 먼저 검출하고 이동자막 영역에 대해서는 특정 벡터로 교정함으로써 이동자막 영역의 block artifact를 최소화 할 수 있다.
In this manner, the block artifacts of the moving subtitle area can be minimized by first detecting the moving subtitle area in the video sequence and correcting the moving subtitle area with a specific vector using the consistency of the moving distance information of the moving subtitle area.

상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다.The method according to the present invention may be implemented as a program for execution on a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include a ROM, a RAM, a CD- , A floppy disk, an optical data storage device, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet).

컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium may be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And, functional programs, codes and code segments for implementing the above method can be easily inferred by programmers of the technical field to which the present invention belongs.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해 되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

100: 이동자막 후보영역 추출부 120: 영상 밝기 차이값 계산부
140: 영상 밝기 차이 최소값 계산부 160: 가로방향 자막영역 검출부
180: 세로방향 자막영역 검출부 200: 이동자막 특징 검출부
220: 자막 윤곽선 검출부 240: 가로방향 자막 윤곽선 영역 검출부
260: 세로방향 자막 윤곽선 영역 검출부 300: 이동자막 영역 검증부
100: moving subtitle candidate region extracting unit 120: image brightness difference value calculating unit
140: image brightness difference minimum value calculation unit 160: horizontal direction caption area detection unit
180: vertical direction caption region detection unit 200:
220: caption contour detection unit 240: horizontal caption contour area detection unit
260: longitudinal subtitle contour area detecting unit 300: moving subtitle area verifying unit

Claims (13)

움직임 보상 프레임 보간 장치에 있어서,
연속적으로 입력되는 영상으로부터 시간적 특징 및 위치적 특징에 따른 1차 자막 후보영역영상을 추출하는 이동자막 후보영역 추출부;
상기 추출된 1차 후보영역 영상으로부터 글자의 윤곽선 특성에 따른 에지정보를 이용하여 2차 자막 후보영역을 생성하는 이동자막 특징 검출부; 및
상기 입력되는 영상으로부터 상기 이동자막 특징 검출부에서 생성되는 2차 자막 후보영역을 검증하는 이동자막 영역 검증부를 포함하는 움직임 보상 프레임 보간 장치.
A motion compensated frame interpolator,
A moving subtitle candidate region extracting unit for extracting a first subtitle candidate region image according to a temporal feature and a positional feature from a continuously input image;
A moving subtitle feature detector for generating a secondary subtitle candidate area using edge information according to a contour characteristic of a character from the extracted primary candidate region image; And
And a mobile caption region verifying unit for verifying a second caption candidate region generated by the mobile caption feature detecting unit from the input image.
제 1 항에 있어서, 상기 이동자막 후보영역 추출부는
상기 입력되는 영상 중 두 개의 영상을 비교하여, 가장 작은 차이값을 가지는 픽셀간의 거리 정보를 획득하고, 상기 거리 정보에 기초하여 상기 1차 자막 후보영역 영상을 생성하는 것을 특징으로 하는 움직임 보상 프레임 보간 장치.
The apparatus of claim 1, wherein the moving subtitle candidate region extracting unit
Wherein the first subtitle candidate region image is generated based on the distance information by comparing two images among the input images to obtain distance information between pixels having the smallest difference value, Device.
제 1 항에 있어서, 상기 이동자막 후보영역 추출부는
상기 입력되는 영상 중 두 개의 영상을 픽셀 단위로 이동시켜 차이값을 출력하는 영상 밝기 차이값 계산부;
상기의 영상 밝기 차이값 계산부로부터 출력되는 밝기 차이값 중 최소의 차이값에 대응되는 위치에서의 픽셀간 이동 거리를 계산하고, 이동 자막과 관련한 거리에 따른 위치 정보를 출력하는 영상 밝기 차이 최소값 계산부;
상기의 영상 밝기 차이 최소값 계산부로부터 출력되는 위치 정보로부터 가로 방향으로의 에지가 일정 비율 이상인 영역 정보를 검출하는 가로방향 자막영역 검출부; 및
상기의 가로방향 자막영역 검출부로부터 검출된 영역 정보로부터 세로 방향으로의 에지가 일정 비율 이상인 영역 정보를 검출하는 세로방향 자막영역 검출부를 포함하여 구성되는 것을 특징으로 하는 움직임 보상 프레임 보간 장치.
The apparatus of claim 1, wherein the moving subtitle candidate region extracting unit
An image brightness difference value calculation unit for moving two images of the input image in units of pixels and outputting a difference value;
Calculating a moving distance between pixels at a position corresponding to a minimum difference value among the brightness difference values output from the image brightness difference value calculation unit and calculating a minimum brightness difference value for outputting position information according to a distance related to the moving subtitle part;
A horizontal caption region detecting unit for detecting region information in which an edge in a horizontal direction is not less than a predetermined rate from position information output from the image brightness difference minimum value calculating unit; And
And a vertical caption region detecting unit for detecting, from the region information detected from the horizontal caption region detecting unit, region information in which the edge in the vertical direction is not less than a predetermined ratio.
제 3 항에 있어서, 상기 영상 밝기 차이값 계산부는
상기 입력되는 영상에 포함된 기준 프레임의 다음 프레임을 참조 프레임으로 하여, 상기 참조 프레임을 픽셀단위로 이동시켜 차이값을 계산함으로서 상기 기준 프레임과 상기 참조 프레임간 차이의 절대값을 생성하는 것을 특징으로 하는 움직임 보상 프레임 보간 장치.
4. The apparatus of claim 3, wherein the image brightness difference value calculation unit
An absolute value of a difference between the reference frame and the reference frame is generated by calculating a difference value by moving the reference frame in units of pixels using a next frame of the reference frame included in the input image as a reference frame, Wherein the motion compensating frame interpolator comprises:
제 3 항에 있어서, 상기 영상 밝기 차이 최소값 계산부는
상기 영상 밝기 차이값 계산부로부터 출력되는 차이값 중 가장 작은 차이값을 가지는 픽셀의 이동 거리를 획득하고, 자막 이동 속도에 대응되는 이동 거리를 갖는 영역 정보만을 추출한 후, 자막으로 설정된 크기보다 작은 영역들은 제거하는 것을 특징으로 하는 움직임 보상 프레임 보간 장치.
The apparatus of claim 3, wherein the image brightness difference minimum value calculation unit
The moving distance of the pixel having the smallest difference value among the difference values output from the image brightness difference calculating unit is extracted and only the area information having the moving distance corresponding to the moving speed of the subtitle is extracted, Wherein the motion compensating frame interpolating unit removes the motion compensating frame interpolating unit.
제 3 항에 있어서, 상기 가로방향 자막영역 검출부는
영상 밝기 차이 최소값 계산부로부터 출력된 픽셀의 이동 거리 정보로부터 가로 방향으로의 에지가 일정 비율 이상 검출되는 가로 방향 영역 정보를 생성하는 것을 특징으로 하는 움직임 보상 프레임 보간 장치.
The apparatus of claim 3, wherein the transverse caption area detecting unit
And generates horizontal direction area information in which an edge in a horizontal direction is detected at a predetermined ratio or more from the moving distance information of the pixel output from the image brightness difference minimum value calculation unit.
제 3 항에 있어서, 상기 세로방향 자막영역 검출부는
가로방향 자막영역 검출부로부터 출력되는 가로 방향 영역 정보로부터 세로 방향으로의 에지가 일정 비율 이상 검출되는 세로 방향 영역 정보를 추출하고, 상기 검출된 가로 방향 영역 정보 및 세로 방향 영역 정보에 따른 직사각형 영역을 생성한 후 상기 입력되는 영상의 기준 프레임으로부터 상기 직사각형 영역에 대한 영역 정보를 생성하는 것을 특징으로 하는 움직임 보상 프레임 보간 장치.
The apparatus of claim 3, wherein the vertical caption region detecting unit
A vertical direction region information in which an edge in the vertical direction is detected at a predetermined ratio or more from the horizontal direction region information outputted from the horizontal direction caption region detection unit is extracted and a rectangular region corresponding to the detected horizontal direction region information and vertical direction region information is generated And generates area information on the rectangular area from the reference frame of the input image.
제 1 항에 있어서, 상기 이동자막 특징 추출부는
상기 이동자막 후보영역 추출부로부터 출력되는 상기 1차 자막 후보영역 정보로부터 에지 영상 정보를 생성하는 자막 윤곽선 검출부;
상기의 자막 윤곽선 검출부로부터 출력되는 에지 영상 정보에 기초하여 가로 방향 영역 정보를 출력하는 가로방향 자막 윤곽선 검출부; 및
상기의 가로방향 자막 윤곽선 검출부로부터 출력되는 가로 방향 영역 정보로부터 세로 방향으로의 에지가 일정 비율 이상인 영역을 추출하여 2차 자막 후보영역을 생성하는 세로방향 자막 윤곽선 검출부를 포함하여 구성되는 것을 특징으로 하는 움직임 보상 프레임 보간 장치.
The method according to claim 1, wherein the moving subtitle characteristic extracting unit
A subtitle contour detection unit for generating edge video information from the first subtitle candidate area information output from the moving subtitle candidate area extraction unit;
A horizontal subtitle contour detection unit for outputting horizontal direction region information based on the edge video information output from the subtitle contour detection unit; And
And a vertical subtitle contour detection unit for extracting an area in which the edge in the vertical direction is not less than a predetermined ratio from the horizontal direction area information output from the horizontal subtitle contour detection unit to generate a secondary subtitle candidate area. A motion compensated frame interpolator.
제 8 항에 있어서, 상기 자막 윤곽선 검출부는
상기 이동자막 후보영역 추출부로부터 출력되는 상기 1차 자막 후보영역 정보로부터 글자의 윤곽선 특성을 이용하여 에지 영상 정보를 생성하는 것을 특징으로 하는 움직임 보상 프레임 보간 장치.
The apparatus of claim 8, wherein the subtitle contour detection unit
And edge image information is generated using the character contour characteristics from the primary subtitle film candidate area information output from the moving subtitle film candidate area extraction unit.
제 8 항에 있어서, 상기 가로 방향 자막 윤곽선 영역 검출부는
성가 자막 윤곽선 검출부로부터 출력되는 에지 영상 정보로부터 가로 방향으로 일정 비율 이상 에지 영상 정보가 최초로 검출되는 라인의 정보와 마지막으로 검출되는 라인의 정보를 상기 가로 방향 영역 정보로 출력하는 것을 특징으로 하는 움직임 보상 프레임 보간 장치.
The apparatus of claim 8, wherein the horizontal subtitle contour area detecting unit
And outputs the information of the line where the edge image information is firstly detected and the information of the line which is finally detected from the edge image information outputted from the annoying subtitle contour detection section as the horizontal direction area information. Frame interpolator.
제 8 항에 있어서, 상기 세로 방향 자막 윤곽선 영역 검출부는
상기 가로 방향 자막 윤곽선 영역 검출부로부터 출력되는 가로 방향 영역 정보에 기초하여 세로 방향으로 일정 비율 이상 에지 영상 정보가 최초로 검출되는 라인의 정보와 마지막으로 검출되는 라인의 정보를 이용하여 계산되어 지는 직사각형 형태의 영역을 2차 자막 후보영역으로 출력하는 것을 특징으로 하는 움직임 보상 프레임 보간 장치.
9. The apparatus according to claim 8, wherein the vertical subtitle contour area detecting unit
A rectangular-shaped shape calculated by using information of a line in which edge image information is first detected at a predetermined ratio or more in the vertical direction and information of the last detected line based on the horizontal direction area information output from the horizontal-direction subtitle contour area detecting unit Region to the second subtitle candidate area.
제 1 항에 있어서, 상기 이동자막 영역 검증부는
상기 이동자막 특징 추출부로부터 출력되는 상기 2차 자막 후보영역 정보와 상기 영상 시퀀스로부터 검출되는 자막 영역이 정확한 자막 영역인지를 검증하여 최종 자막 영역을 출력하는 것을 특징으로 하는 움직임 보상 프레임 보간 장치.
The apparatus of claim 1, wherein the moving subtitle area verifying unit
Wherein the second subtitle candidate region information output from the moving subtitle feature extraction unit verifies whether the subtitle region detected from the video sequence is the correct subtitle region and outputs the final subtitle region.
이동자막 영역의 움직임 보상 프레임 보간 방법에 있어서,
입력으로 들어오는 연속적인 영상 시퀀스에서 시간적 특징과 위치적 특징을 이용하여 1차 자막 후보영역 영상 정보를 추출하는 단계;
상기 1차 자막 후보영역 영상 정보에 기초하여 에지 영상을 생성하고, 상기 에지 영상에 기초하여 2차 자막 후보영역을 추출하는 단계; 및
상기 2차 자막 후보영역과 상기 영상 시퀀스를 비교하여 자막 영역을 검증하는 단계를 포함하여 구성되는 것을 특징으로 하는 움직임 보상 프레임 보간 방법.
A motion compensation frame interpolation method for a moving subtitle area,
Extracting first subtitle candidate region image information using a temporal feature and a positional feature in a continuous video sequence input as an input;
Generating an edge image based on the first subtitle candidate region image information and extracting a second subtitle candidate region based on the edge image; And
And comparing the second subtitle candidate area with the video sequence to verify a subtitle area.
KR1020130054930A 2013-05-15 2013-05-15 Apparatus and method for Motion Compensated Interpolation of moving caption region KR101581433B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130054930A KR101581433B1 (en) 2013-05-15 2013-05-15 Apparatus and method for Motion Compensated Interpolation of moving caption region

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130054930A KR101581433B1 (en) 2013-05-15 2013-05-15 Apparatus and method for Motion Compensated Interpolation of moving caption region

Publications (2)

Publication Number Publication Date
KR20140134907A true KR20140134907A (en) 2014-11-25
KR101581433B1 KR101581433B1 (en) 2015-12-30

Family

ID=52455786

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130054930A KR101581433B1 (en) 2013-05-15 2013-05-15 Apparatus and method for Motion Compensated Interpolation of moving caption region

Country Status (1)

Country Link
KR (1) KR101581433B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100473944B1 (en) * 2001-09-29 2005-03-08 엘지전자 주식회사 Text detecting method for digital image signal
KR100537520B1 (en) * 2004-02-18 2005-12-19 삼성전자주식회사 Method and apparatus for localizing text of a moving image
KR20080090145A (en) * 2007-04-04 2008-10-08 한동일 Apparatus and method for motion compensated interpolation of non-moving caption region
KR20100016898A (en) * 2008-08-05 2010-02-16 삼성전자주식회사 Display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100473944B1 (en) * 2001-09-29 2005-03-08 엘지전자 주식회사 Text detecting method for digital image signal
KR100537520B1 (en) * 2004-02-18 2005-12-19 삼성전자주식회사 Method and apparatus for localizing text of a moving image
KR20080090145A (en) * 2007-04-04 2008-10-08 한동일 Apparatus and method for motion compensated interpolation of non-moving caption region
KR20100016898A (en) * 2008-08-05 2010-02-16 삼성전자주식회사 Display device

Also Published As

Publication number Publication date
KR101581433B1 (en) 2015-12-30

Similar Documents

Publication Publication Date Title
US7936950B2 (en) Apparatus for creating interpolation frame
RU2419243C1 (en) Device and method to process images and device and method of images display
US8144255B2 (en) Still subtitle detection apparatus and image processing method therefor
JP4997281B2 (en) Method for determining estimated motion vector in image, computer program, and display device
US20110115790A1 (en) Apparatus and method for converting 2d image signals into 3d image signals
US20200099944A1 (en) Real-time adaptive video denoiser with moving object detection
US8373796B2 (en) Detecting occlusion
KR101756842B1 (en) Method and apparatus for image frame interpolation
US9197891B1 (en) Systems and methods for periodic structure handling for motion compensation
US8406305B2 (en) Method and system for creating an interpolated image using up-conversion vector with uncovering-covering detection
US8411974B2 (en) Image processing apparatus, method, and program for detecting still-zone area
CN104980759A (en) Method for Detecting Occlusion Areas
KR101050135B1 (en) Intermediate image generation method using optical information
US8787696B1 (en) Method and apparatus for replacing a block of pixels in a digital image frame to conceal an error associated with the block of pixels
CN111294545B (en) Image data interpolation method and device, storage medium and terminal
CN104580978A (en) Video detecting and processing method and video detecting and processing device
US8451900B2 (en) System and method for global motion estimation using profile matching
KR101581433B1 (en) Apparatus and method for Motion Compensated Interpolation of moving caption region
KR20080090145A (en) Apparatus and method for motion compensated interpolation of non-moving caption region
KR101590083B1 (en) An apparatus for motion compensated frame interpolation of non-moving caption region and a method thereof
KR101574205B1 (en) An appratus for estimating a motion vector for frame rate conversion and a method thereof
US20130201404A1 (en) Image processing method
KR100935608B1 (en) Method for Interpolation error concealment of motion compensated interpolated frame
JP2008118340A (en) Motion vector detecting device and video signal processor
KR101574301B1 (en) An appratus for frame rate conversion and a method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180910

Year of fee payment: 4