KR102324867B1 - Method for text detection and display device using thereof - Google Patents

Method for text detection and display device using thereof Download PDF

Info

Publication number
KR102324867B1
KR102324867B1 KR1020150136806A KR20150136806A KR102324867B1 KR 102324867 B1 KR102324867 B1 KR 102324867B1 KR 1020150136806 A KR1020150136806 A KR 1020150136806A KR 20150136806 A KR20150136806 A KR 20150136806A KR 102324867 B1 KR102324867 B1 KR 102324867B1
Authority
KR
South Korea
Prior art keywords
text
area
text area
candidate
edge
Prior art date
Application number
KR1020150136806A
Other languages
Korean (ko)
Other versions
KR20170037781A (en
Inventor
강민성
조성호
Original Assignee
엘지디스플레이 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지디스플레이 주식회사 filed Critical 엘지디스플레이 주식회사
Priority to KR1020150136806A priority Critical patent/KR102324867B1/en
Publication of KR20170037781A publication Critical patent/KR20170037781A/en
Application granted granted Critical
Publication of KR102324867B1 publication Critical patent/KR102324867B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Abstract

본 발명은 텍스트 특성 추출부, 텍스트 영역 확장 및 판단부 및 텍스트 영역 검출 및 보상부를 포함하는 표시장치를 제공한다. 텍스트 특성 추출부는 RGB 채널별 주요 색상과 주요 방향성 정보를 기반으로 텍스트 후보영역에 해당하는 에지를 검출한다. 텍스트 영역 확장 및 판단부는 텍스트 후보영역을 확장하고 확장된 텍스트 후보영역 내에서 텍스트 영역으로 볼 수 있는 영역을 텍스트 영역으로 판단한다. 텍스트 영역 검출 및 보상부는 텍스트 영역을 검출하고 검출된 텍스트 영역을 보상한다.The present invention provides a display device including a text characteristic extraction unit, a text area expansion and determination unit, and a text area detection and compensation unit. The text characteristic extractor detects an edge corresponding to the text candidate area based on the main color and main direction information for each RGB channel. The text area expansion and determination unit expands the text candidate area and determines an area that can be viewed as a text area within the extended text candidate area as the text area. The text area detection and compensation unit detects the text area and compensates the detected text area.

Description

텍스트 검출 방법 및 이를 이용한 표시장치{METHOD FOR TEXT DETECTION AND DISPLAY DEVICE USING THEREOF}Text detection method and display device using the same

본 발명은 텍스트 검출 방법 및 이를 이용한 표시장치에 관한 것이다.The present invention relates to a text detection method and a display device using the same.

정보화 기술이 발달함에 따라 사용자와 정보 간의 연결 매체인 표시장치의 시장이 커지고 있다. 이에 따라, 유기전계발광표시장치(Organic Light Emitting Display: OLED), 양자점표시장치(Quantum Dot Display; QDD), 액정표시장치(Liquid Crystal Display: LCD) 및 플라즈마표시장치(Plasma Display Panel: PDP) 등과 같은 표시장치의 사용이 증가하고 있다.As information technology develops, the market for display devices, which is a connection medium between users and information, is growing. Accordingly, organic light emitting display (OLED), quantum dot display (QDD), liquid crystal display (LCD), plasma display (PDP), etc. The use of the same display device is increasing.

앞서 설명한 표시장치에는 매트릭스 형태로 배치된 복수의 서브 픽셀을 포함하는 표시패널, 표시패널을 구동하는 구동 신호를 출력하는 구동부 및 표시패널 또는 구동부에 공급할 전원을 생성하는 전원 공급부 등이 포함된다.The display device described above includes a display panel including a plurality of sub-pixels arranged in a matrix form, a driving unit outputting a driving signal for driving the display panel, and a power supply unit generating power to be supplied to the display panel or the driving unit.

표시장치는 이미지, 사진, 자연 영상 등 다양한 경로를 획득한 영상 정보를 표시패널에 표시한다. 표시패널에 표시되는 영상 속에는 텍스트 또한 포함된다. 텍스트는 표시패널을 시청하는 사용자 등에게 다양한 정보를 전달하기 때문에 시인성, 가독성, 판독성 등을 높이기 위한 영상처리(또는 영상 처리 알고리즘)가 필요하다.The display device displays image information obtained through various paths such as images, photos, and natural images on the display panel. Text is also included in the image displayed on the display panel. Since text delivers a variety of information to a user viewing a display panel, image processing (or image processing algorithm) is required to increase visibility, readability, readability, and the like.

영상처리 알고리즘은 일반적으로 자연 영상을 처리하기 위한 방법을 의미한다. 텍스트 영상은 자연 영상과 다른 특성이 있기 때문에 동일한 영상처리 알고리즘 적용 시, 화질 열화 또는 텍스트의 가독성이 떨어지는 현상이 발생한다. 따라서 자연 영상과 텍스트 영역에 서로 다른 알고리즘을 적용해야 하는 경우 텍스트 영역 검출을 통해 텍스트와 자연 영상에 적합한 알고리즘을 각각 적용하여 영상 전체의 화질을 개선해야 한다. 하지만, 종래에 제안된 텍스트 검출 방식은 여전히 텍스트 영역의 화질 열화 및 텍스트의 가독성 저하를 유발하는바 이의 개선이 요구된다.An image processing algorithm generally refers to a method for processing natural images. Since a text image has different characteristics from a natural image, when the same image processing algorithm is applied, the image quality deteriorates or the readability of the text is deteriorated. Therefore, when it is necessary to apply different algorithms to the natural image and the text region, it is necessary to improve the overall image quality by applying an algorithm suitable for the text and the natural image through text region detection. However, the conventionally proposed text detection method still causes deterioration of the image quality of the text area and deterioration of the readability of the text, so improvement is required.

상술한 배경기술의 문제점을 해결하기 위한 본 발명은 텍스트 영역 검출을 통해 텍스트와 자연 영상에 적합한 알고리즘을 각각 적용하여 영상 전체의 화질을 개선하고, 텍스트의 시인성, 가독성, 판독성을 높이는 것이다.The present invention for solving the problems of the background art described above is to improve the overall image quality by applying an algorithm suitable for text and natural image respectively through text area detection, and to increase the visibility, readability, and readability of the text.

상술한 과제 해결 수단으로 본 발명은 텍스트 특성 추출부, 텍스트 영역 확장 및 판단부 및 텍스트 영역 검출 및 보상부를 포함하는 표시장치를 제공한다. 텍스트 특성 추출부는 RGB 채널별 주요 색상과 주요 방향성 정보를 기반으로 텍스트 후보영역에 해당하는 에지를 검출한다. 텍스트 영역 확장 및 판단부는 텍스트 후보영역을 확장하고 확장된 텍스트 후보영역 내에서 텍스트 영역으로 볼 수 있는 영역을 텍스트 영역으로 판단한다. 텍스트 영역 검출 및 보상부는 텍스트 영역을 검출하고 검출된 텍스트 영역을 보상한다.As a means for solving the above problems, the present invention provides a display device including a text characteristic extraction unit, a text area expansion and determination unit, and a text area detection and compensation unit. The text characteristic extractor detects an edge corresponding to the text candidate area based on the main color and main direction information for each RGB channel. The text area expansion and determination unit expands the text candidate area and determines an area that can be viewed as a text area within the extended text candidate area as the text area. The text area detection and compensation unit detects the text area and compensates the detected text area.

텍스트 특성 추출부는 RGB 채널별 주요 색상을 각각 검출하는 주 색상 경계 검출부와, RGB 채널별 주요 가로, 세로, 대각 성분의 차이를 각각 검출하는 주 방향 경계 검출부를 포함할 수 있다.The text characteristic extractor may include a main color boundary detector that detects a main color for each RGB channel, and a main direction boundary detector that detects a difference between main horizontal, vertical, and diagonal components for each RGB channel, respectively.

텍스트 특성 추출부는 RGB 채널별 가로, 세로, 대각선 방향으로 차이값을 계산하여 가장 높은 에지 값을 가지는 성분 및 채널의 값을 그 픽셀의 대표 에지 값으로 설정할 수 있다.The text characteristic extractor may calculate a difference value in horizontal, vertical, and diagonal directions for each RGB channel, and set the component and channel value having the highest edge value as the representative edge value of the pixel.

텍스트 특성 추출부는 RGB 채널별 가로, 세로, 대각선 방향으로 차이값을 계산하여 임계값보다 작은 값을 가지는 성분 및 채널의 값을 0으로 설정할 수 있다.The text characteristic extractor may calculate difference values in horizontal, vertical, and diagonal directions for each RGB channel and set the values of components and channels having a value smaller than a threshold value to 0.

텍스트 특성 추출부는 M(M은 2 이상 정수)*N(N은 2 이상 정수) 크기의 윈도우 내에서 텍스트 후보영역에 해당하는 에지를 검출할 수 있다.The text feature extractor may detect an edge corresponding to the text candidate area within a window of size M (M is an integer greater than or equal to 2)*N (N is an integer greater than or equal to 2).

텍스트 영역 확장 및 판단부는 텍스트 후보영역을 확장하는 텍스트 후보 영역 확장부와, 텍스트 후보영역 중 1/K(K는 2 이상 정수) 이상이 강 방향성 에지(strong directional edge)를 갖는 영역을 텍스트 영역으로 판단하는 텍스트 영역 판단부를 포함할 수 있다.The text area expansion and determination unit includes a text candidate area extension unit for extending the text candidate area, and an area having a strong directional edge at least 1/K (K is an integer greater than or equal to 2) among the text candidate areas as the text area. It may include a text area determination unit to determine.

다른 측면에서 본 발명은 텍스트 검출 방법을 제공한다. 텍스트 검출 방법은 RGB 채널별 주요 색상과 주요 방향성 정보를 기반으로 텍스트 후보영역에 해당하는 에지를 검출하는 단계; 텍스트 후보영역을 확장하고 확장된 텍스트 후보영역 내에서 텍스트 영역으로 볼 수 있는 영역을 텍스트 영역으로 판단하는 단계; 및 텍스트 영역을 검출하고 검출된 텍스트 영역을 보상하는 단계를 포함한다.In another aspect, the present invention provides a text detection method. The text detection method includes: detecting an edge corresponding to a text candidate area based on main color and main direction information for each RGB channel; expanding the text candidate area and determining an area that can be viewed as a text area within the extended text candidate area as a text area; and detecting the text area and compensating for the detected text area.

텍스트 후보영역에 해당하는 에지를 검출하는 단계는 RGB 채널별 가로, 세로, 대각선 방향으로 차이값을 계산하여 가장 높은 에지 값을 가지는 성분 및 채널의 값을 그 픽셀의 대표 에지 값으로 설정할 수 있다.The step of detecting the edge corresponding to the text candidate region may include calculating a difference value in horizontal, vertical, and diagonal directions for each RGB channel, and setting the component and channel value having the highest edge value as the representative edge value of the pixel.

텍스트 후보영역에 해당하는 에지를 검출하는 단계는 RGB 채널별 가로, 세로, 대각선 방향으로 차이값을 계산하여 임계값보다 작은 값을 가지는 성분 및 채널의 값을 0으로 설정할 수 있다.The step of detecting the edge corresponding to the text candidate region may include calculating the difference values in horizontal, vertical, and diagonal directions for each RGB channel and setting the values of components and channels having a value smaller than a threshold value to 0.

텍스트 영역으로 판단하는 단계는 텍스트 후보영역 중 1/K(K는 2 이상 정수) 이상이 강 방향성 에지(strong directional edge)를 갖는 영역을 텍스트 영역으로 판단할 수 있다.In the determining of the text area, an area having a strong directional edge at least 1/K (K is an integer equal to or greater than 2) among the text candidate areas may be determined as the text area.

본 발명은 텍스트 영역 검출을 통해 텍스트와 자연 영상에 적합한 알고리즘을 각각 적용하여 영상 전체의 화질을 개선할 수 있는 효과가 있다. 또한, 본 발명은 자연 영상과 텍스트 영역에 서로 다른 알고리즘을 적용할 수 있는 효과가 있다. 또한, 본 발명은 경계선 특성을 이용하여 텍스트 영역을 검출하므로 텍스트 영역 보상 시 텍스트의 시인성, 가독성, 판독성을 높일 수 있는 효과가 있다.The present invention has the effect of improving the image quality of the entire image by applying an algorithm suitable for text and natural images, respectively, through text region detection. In addition, the present invention has the effect that different algorithms can be applied to the natural image and the text area. In addition, since the present invention detects the text area using the boundary line characteristic, there is an effect of improving the visibility, readability, and readability of the text when the text area is compensated.

도 1은 표시장치를 개략적으로 나타낸 블록도.
도 2는 도 1에 도시된 서브 픽셀을 개략적으로 나타낸 구성도.
도 3은 본 발명의 일 실시예에 따른 텍스트 영상처리부를 나타낸 블록도.
도 4는 텍스트 영상처리부를 갖는 타이밍 제어부를 나타낸 블록도.
도 5는 본 발명의 일 실시예에 따른 텍스트 검출 방법을 나타낸 흐름도.
도 6 및 도 7은 텍스트 특성 추출을 위한 강 방향성 에지 검출의 예시를 설명하기 위한 도면들.
도 8 내지 도 11은 강 방향성 에지 검출 시 임계값 설정의 예시를 설명하기 위한 도면들.
도 12 및 도 13은 강 방향성 에지 검출을 통한 텍스트 특성 추출 결과를 보여주기 위한 도면들.
도 14는 텍스트 영역 후보군 설정의 예시를 설명하기 위한 도면.
도 15는 텍스트 영역 검출 결과를 보여주기 위한 도면.
도 16은 텍스트 검출 방법을 이용한 실험 결과를 보여주기 위한 도면.
도 17 내지 도 28은 제1 내지 제4실험예를 보여주는 도면들.
1 is a block diagram schematically showing a display device;
FIG. 2 is a configuration diagram schematically illustrating a sub-pixel shown in FIG. 1;
3 is a block diagram illustrating a text image processing unit according to an embodiment of the present invention.
4 is a block diagram illustrating a timing controller having a text image processing unit.
5 is a flowchart illustrating a text detection method according to an embodiment of the present invention.
6 and 7 are diagrams for explaining an example of strong directional edge detection for text feature extraction.
8 to 11 are diagrams for explaining an example of setting a threshold value when detecting a strong directional edge;
12 and 13 are diagrams illustrating a result of text feature extraction through strong directional edge detection.
14 is a diagram for explaining an example of setting a text area candidate group;
15 is a diagram showing a text area detection result;
Fig. 16 is a diagram showing experimental results using a text detection method;
17 to 28 are views showing Experimental Examples 1 to 4;

이하, 본 발명의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 설명한다.Hereinafter, specific details for carrying out the present invention will be described with reference to the accompanying drawings.

본 발명에 따른 텍스트 검출 방법을 이용한 표시장치는 텔레비젼, 셋톱박스, 네비게이션, 영상 플레이어, 블루레이 플레이어, 개인용 컴퓨터(PC), 홈시어터 및 모바일폰 등으로 구현된다. 표시장치의 표시패널은 액정표시패널, 유기발광표시패널, 전기영동표시패널, 플라즈마표시패널 등이 선택될 수 있으나 이에 한정되지 않는다.The display device using the text detection method according to the present invention is implemented as a TV, a set-top box, a navigation system, a video player, a Blu-ray player, a personal computer (PC), a home theater, a mobile phone, and the like. The display panel of the display device may be a liquid crystal display panel, an organic light emitting display panel, an electrophoretic display panel, a plasma display panel, or the like, but is not limited thereto.

도 1은 표시장치를 개략적으로 나타낸 블록도이고, 도 2는 도 1에 도시된 서브 픽셀을 개략적으로 나타낸 구성도이다.FIG. 1 is a block diagram schematically illustrating a display device, and FIG. 2 is a configuration diagram schematically illustrating a sub-pixel illustrated in FIG. 1 .

도 1에 도시된 바와 같이, 표시장치에는 영상 공급부(110), 타이밍 제어부(120), 게이트 구동부(130), 데이터 구동부(140), 표시패널(150) 및 텍스트 영상처리부(160)가 포함된다.1 , the display device includes an image supply unit 110 , a timing control unit 120 , a gate driver 130 , a data driver 140 , a display panel 150 , and a text image processing unit 160 . .

영상 공급부(110)는 데이터신호를 영상처리하고 수직 동기신호, 수평 동기신호, 데이터 인에이블 신호 및 클럭신호 등과 함께 출력한다. 영상 공급부(110)는 LVDS(Low Voltage Differential Signaling) 인터페이스나 TMDS(Transition Minimized Differential Signaling) 인터페이스 등을 통해 수직 동기신호, 수평 동기신호, 데이터 인에이블 신호, 클럭신호 및 데이터신호 등을 타이밍 제어부(120)에 공급한다. 예컨대, 영상 공급부(110)는 R, G 및 B 데이터신호를 출력한다.The image supply unit 110 processes the data signal and outputs it together with a vertical synchronization signal, a horizontal synchronization signal, a data enable signal, and a clock signal. The image supply unit 110 transmits a vertical synchronization signal, a horizontal synchronization signal, a data enable signal, a clock signal, and a data signal to the timing controller 120 through a low voltage differential signaling (LVDS) interface or a transition minimized differential signaling (TMDS) interface. ) is supplied to For example, the image supply unit 110 outputs R, G, and B data signals.

타이밍 제어부(120)는 영상 공급부(110)로부터 데이터신호(DATA) 등을 공급받고, 게이트 구동부(130)의 동작 타이밍을 제어하기 위한 게이트 타이밍 제어신호(GDC)와 데이터 구동부(140)의 동작 타이밍을 제어하기 위한 데이터 타이밍 제어신호(DDC)를 출력한다. 타이밍 제어부(120)는 통신 인터페이스를 통해 게이트 타이밍 제어신호(GDC)와 데이터 타이밍 제어신호(DDC) 등과 함께 데이터신호(DATA)를 출력하며, 게이트 구동부(130)와 데이터 구동부(140)의 동작 타이밍을 제어한다.The timing controller 120 receives the data signal DATA from the image supplier 110 , and a gate timing control signal GDC for controlling the operation timing of the gate driver 130 and the operation timing of the data driver 140 . and output a data timing control signal DDC for controlling the . The timing controller 120 outputs the data signal DATA together with the gate timing control signal GDC and the data timing control signal DDC through the communication interface, and the operation timing of the gate driver 130 and the data driver 140 . to control

게이트 구동부(130)는 타이밍 제어부(120)로부터 공급된 게이트 타이밍 제어신호(GDC)에 응답하여 게이트전압의 레벨을 시프트시키면서 게이트신호(또는 스캔신호)를 출력한다. 게이트 구동부(130)는 게이트라인들(GL1 ~ GLm)을 통해 표시패널(150)에 포함된 서브 픽셀들(SP)에 게이트신호를 공급한다. 게이트 구동부(130)는 집적회로(Integrated Circuit; IC) 형태로 형성되거나 표시패널(150)에 게이트인패널(Gate In Panel; GIP) 방식으로 형성된다.The gate driver 130 outputs a gate signal (or a scan signal) while shifting the level of the gate voltage in response to the gate timing control signal GDC supplied from the timing controller 120 . The gate driver 130 supplies a gate signal to the sub-pixels SP included in the display panel 150 through the gate lines GL1 to GLm. The gate driver 130 is formed in the form of an integrated circuit (IC) or is formed in the display panel 150 in the form of a gate in panel (GIP).

데이터 구동부(140)는 타이밍 제어부(120)로부터 공급된 데이터 타이밍 제어신호(DDC)에 응답하여 데이터신호(DATA)를 샘플링하고 래치하며 감마 기준전압에 대응하여 디지털신호를 아날로그신호로 변환하여 출력한다. 데이터 구동부(140)는 데이터라인들(DL1 ~ DLn)을 통해 표시패널(150)에 포함된 서브 픽셀들(SP)에 데이터신호(DATA)를 공급한다. 데이터 구동부(140)는 집적회로(Integrated Circuit; IC) 형태로 형성된다.The data driver 140 samples and latches the data signal DATA in response to the data timing control signal DDC supplied from the timing controller 120 , and converts the digital signal into an analog signal in response to the gamma reference voltage and outputs it . The data driver 140 supplies the data signal DATA to the sub-pixels SP included in the display panel 150 through the data lines DL1 to DLn. The data driver 140 is formed in the form of an integrated circuit (IC).

표시패널(150)은 게이트 구동부(130)로부터 공급된 게이트신호와 데이터 구동부(140)로부터 공급된 데이터신호(DATA)에 대응하여 영상을 표시한다. 표시패널(150)은 하부기판, 상부기판 그리고 하부기판과 상부기판 사이 형성된 서브 픽셀들(SP)을 포함한다.The display panel 150 displays an image corresponding to the gate signal supplied from the gate driver 130 and the data signal DATA supplied from the data driver 140 . The display panel 150 includes a lower substrate, an upper substrate, and sub-pixels SP formed between the lower substrate and the upper substrate.

도 2에 도시된 바와 같이, 하나의 서브 픽셀에는 게이트라인(GL1)과 데이터라인(DL1)에 연결(또는 교차부에 형성된)된 스위칭 박막 트랜지스터(SW)와 스위칭 박막 트랜지스터(SW)를 통해 공급된 데이터신호(DATA)에 대응하여 동작하는 픽셀회로(PC)가 포함된다. 서브 픽셀들(SP)은 픽셀회로(PC)의 구성에 따라 액정소자나 유기발광소자 등을 포함하게 된다.As shown in FIG. 2 , one sub-pixel is supplied through the switching thin film transistor SW and the switching thin film transistor SW connected to (or formed at the intersection of) the gate line GL1 and the data line DL1. A pixel circuit PC operating in response to the data signal DATA is included. The sub-pixels SP include a liquid crystal device or an organic light emitting device according to the configuration of the pixel circuit PC.

표시패널(150)이 액정표시패널로 구성된 경우, 이는 TN(Twisted Nematic) 모드, VA(Vertical Alignment) 모드, IPS(In Plane Switching) 모드, FFS(Fringe Field Switching) 모드 또는 ECB(Electrically Controlled Birefringence) 모드로 구현된다. 표시패널(150)이 유기발광표시패널로 구성된 경우, 이는 전면발광(Top-Emission) 방식, 배면발광(Bottom-Emission) 방식 또는 양면발광(Dual-Emission) 방식으로 구현된다.When the display panel 150 is configured as a liquid crystal display panel, it is a TN (Twisted Nematic) mode, VA (Vertical Alignment) mode, IPS (In Plane Switching) mode, FFS (Fringe Field Switching) mode, or ECB (Electrically Controlled Birefringence) mode. implemented in mode. When the display panel 150 is configured as an organic light emitting display panel, it is implemented in a top-emission method, a bottom-emission method, or a dual-emission method.

위와 같은 표시장치는 게이트 구동부(130) 및 데이터 구동부(140)로부터 출력된 게이트신호 및 데이터신호(DATA)를 기반으로 표시패널(150)이 빛을 발광 또는 투과시키게 됨에 따라 특정 영상을 표시하게 된다.The above display device displays a specific image as the display panel 150 emits or transmits light based on the gate signal and data signal DATA output from the gate driver 130 and the data driver 140 . .

텍스트 영상처리부(160)는 영상 공급부(110)로부터 공급된 데이터신호(DATA)를 분석하여 텍스트 영역을 검출한다. 텍스트 영상처리부(160)는 텍스트의 시인성, 가독성, 판독성 등을 높이기 위해 검출된 텍스트 영역에 대해 보상을 수행할 수 있다.The text image processing unit 160 detects a text area by analyzing the data signal DATA supplied from the image supply unit 110 . The text image processing unit 160 may compensate the detected text area to increase visibility, readability, readability, and the like of the text.

영상처리 알고리즘은 일반적으로 자연 영상을 처리하기 위한 방법을 의미한다. 텍스트 영상은 자연 영상과 다른 특성이 있기 때문에 동일한 영상처리 알고리즘 적용 시, 화질 열화 또는 텍스트의 가독성이 떨어지는 현상이 발생한다. 따라서, 자연 영상과 텍스트 영역에 서로 다른 알고리즘을 적용해야 하는 경우 텍스트 영역 검출 및 보상을 수행하는 방식으로 텍스트에 적합한 영상처리를 해야 한다.An image processing algorithm generally refers to a method for processing natural images. Since a text image has different characteristics from a natural image, when the same image processing algorithm is applied, the image quality deteriorates or the readability of the text is deteriorated. Therefore, when different algorithms need to be applied to the natural image and the text area, it is necessary to perform image processing suitable for text by detecting and compensating for the text area.

하지만, 종래에 제안된 텍스트 검출 방식은 여전히 텍스트 영역의 화질 열화 및 텍스트의 가독성 저하를 유발하고 있다. 예컨대, 종래에 제안된 영상 확대 알고리즘은 텍스트 영역에 별다른 영상처리를 하지 않는 더블링(doubling) 방식을 적용하므로 가장 좋은 화질 향상 효과를 나타낸다. 그러나 텍스트 영역의 구분 없이 자연 영상에 적용하는 바이큐빅(bi-cubic; 곡선 형태의 변화를 가하는 비선형보간 알고리즘) 방식을 적용할 경우 텍스트가 흐려져 가독성이 떨어지는 문제 등이 나타난다.However, the conventionally proposed text detection method still causes deterioration of the image quality of the text area and deterioration of the readability of the text. For example, the conventionally proposed image enlargement algorithm exhibits the best image quality improvement effect by applying a doubling method that does not perform any image processing on a text area. However, if the bi-cubic (non-linear interpolation algorithm that applies a change in the shape of a curve) applied to natural images without distinction of text area is applied, the text is blurred and the readability is deteriorated.

종래에 제안된 방식과 달리, 이하에서 설명되는 본 발명은 경계선 특성을 이용하여 텍스트 영역을 검출하므로 텍스트 영역 보상 시 텍스트의 가독성을 높이고 영상의 전체적인 화질을 개선할 수 있다.Unlike the conventionally proposed method, since the present invention described below detects a text area using a boundary line characteristic, it is possible to increase the readability of the text and improve the overall image quality when compensating for the text area.

도 3은 본 발명의 일 실시예에 따른 텍스트 영상처리부를 나타낸 블록도이고, 도 4는 텍스트 영상처리부를 갖는 타이밍 제어부를 나타낸 블록도이다. 이하, 텍스트 영상처리부에 대해 간략히 설명한다.3 is a block diagram illustrating a text image processing unit according to an embodiment of the present invention, and FIG. 4 is a block diagram illustrating a timing controller having a text image processing unit. Hereinafter, the text image processing unit will be briefly described.

도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 텍스트 영상처리부(160)는 텍스트가 가지는 자연 영상과 구분되는 경계선 특성을 이용하여 자연 영상으로부터 텍스트 영역을 검출한다. 텍스트 영상처리부(160)는 텍스트 특성 추출부(161), 텍스트 영역 확장 및 판단부(165) 및 텍스트 영역 검출 및 보상부(169)를 포함한다.As shown in FIG. 3 , the text image processing unit 160 according to an embodiment of the present invention detects a text area from a natural image by using a boundary line characteristic that is distinguished from a natural image of the text. The text image processing unit 160 includes a text characteristic extraction unit 161 , a text area expansion and determination unit 165 , and a text area detection and compensation unit 169 .

텍스트 특성 추출부(161)는 영상 공급부로부터 출력된 데이터신호를 기반으로 텍스트의 특성을 검출한다. 텍스트 특성 추출부(161)는 주 색상 경계 검출부(161a)와 주 방향 경계 검출부(161b)를 포함한다. 주 색상 경계 검출부(161a)는 정해진 크기의 윈도우 내에서 적색, 녹색 및 청색(이하 RGB) 채널별 주요 색상을 각각 검출한다. 주 방향 경계 검출부(161b)는 정해진 크기의 윈도우 내에서 RGB 채널별 주요 가로, 세로, 대각 성분의 차이를 각각 검출한다.The text characteristic extraction unit 161 detects text characteristics based on the data signal output from the image supply unit. The text characteristic extraction unit 161 includes a main color boundary detection unit 161a and a main direction boundary detection unit 161b. The primary color boundary detector 161a detects primary colors for each red, green, and blue (hereinafter, RGB) channel within a window of a predetermined size, respectively. The main direction boundary detection unit 161b detects differences in main horizontal, vertical, and diagonal components for each RGB channel within a window of a predetermined size.

텍스트 특성 추출부(161)는 정해진 크기의 윈도우 내에서 RGB 채널별로 가로, 세로, 대각 성분의 차이를 이용하여 에지를 각각 검출하고 텍스트로 예상(최소한의 텍스트 영역)되는 텍스트 후보군을 각각 추출한다. 텍스트 특성 추출부(161)는 특히 RGB 데이터신호 내의 주요 색상과 주요 방향성 정보를 기반으로 에지를 검출하므로 배경 등의 이미지와 대비하여 텍스트(텍스트 후보군)를 더욱 정확하게 구분할 수 있게 된다.The text characteristic extracting unit 161 detects edges using differences in horizontal, vertical, and diagonal components for each RGB channel within a window of a predetermined size, and extracts a text candidate group expected as text (minimum text area). In particular, since the text characteristic extractor 161 detects an edge based on main color and main directional information in the RGB data signal, it is possible to more accurately distinguish text (text candidate group) in contrast with an image such as a background.

텍스트 영역 확장 및 판단부(165)는 텍스트 후보영역을 확장하고 확장된 텍스트 후보영역 내에서 텍스트 영역으로 볼 수 있는 영역을 텍스트 영역으로 판단한다. 텍스트 영역 확장 및 판단부(165)는 텍스트 후보 영역 확장부(165a)와 텍스트 영역 판단부(165b)를 포함한다.The text area expansion and determination unit 165 expands the text candidate area and determines an area that can be viewed as a text area within the extended text candidate area as the text area. The text area expansion and determination unit 165 includes a text candidate area expansion unit 165a and a text area determination unit 165b.

텍스트 후보 영역 확장부(165a)는 텍스트 검출의 정밀도를 높이기 위해 텍스트 후보영역을 확장한다. 텍스트 영역 판단부(165b)는 텍스트 후보영역 중 1/K(K는 2 이상 정수) 이상이 강 방향성 에지(strong directional edge)를 갖는 영역에 해당하면, 이 후보군을 텍스트 영역으로 판단한다. K는 2 이상이면 가능하나 3 또는 그 이상과 같이 높을 수록 텍스트 영역을 넓힐 수 있다.The text candidate area extension unit 165a expands the text candidate area to increase the precision of text detection. When 1/K (K is an integer greater than or equal to 2) of the text candidate areas corresponds to an area having a strong directional edge, the text area determination unit 165b determines the candidate group as a text area. If K is 2 or more, it is possible, but as high as 3 or more, the text area can be widened.

텍스트 특성 추출부(161)에 의해 얻어진 텍스트 후보군은 최소한의 텍스트 영역을 의미하므로 텍스트가 아닌 부분은 제외하면서 텍스트에 해당하는 영역만 텍스트 영역으로 판단하기 위해 텍스트 영역 판단부(165b)를 사용한다.Since the text candidate group obtained by the text characteristic extraction unit 161 means the minimum text area, the text area determination unit 165b is used to determine only the text area as the text area while excluding the non-text area.

텍스트 영역 검출 및 보상부(169)는 텍스트의 시인성, 가독성, 판독성 등을 높이기 위해 텍스트 영역을 검출하고 검출된 텍스트 영역을 보상하거나 미보상한다. 텍스트 영역 검출 및 보상부(169)는 텍스트 영역 검출부(169a)와 텍스트 영역 보상부(169b)를 포함한다.The text area detecting and compensating unit 169 detects the text area to increase visibility, readability, readability, etc. of the text, and compensates or not compensates for the detected text area. The text area detecting and compensating unit 169 includes a text area detecting unit 169a and a text area compensating unit 169b.

텍스트 영역 검출부(169a)는 텍스트에 해당하는 영역만 검출하여 텍스트 영역 보상부(169b)에 전달한다. 텍스트 영역 보상부(169b)는 텍스트 영역의 보상이 필요한 경우 보상값을 적용한 보상 데이터신호(CDATA)를 출력한다. 반면, 텍스트 영역 보상부(169b)는 텍스트 영역의 보상이 필요하지 않는 경우 입력된 신호와 동일한 데이터신호(DATA)를 출력한다. 텍스트 영역 검출 및 보상부(169)는 텍스트 영상처리부(160)와 연동하는 장치 예컨대 타이밍 제어부에 마련될 수도 있다.The text area detection unit 169a detects only a text area and transmits it to the text area compensation unit 169b. The text area compensator 169b outputs a compensation data signal CDATA to which a compensation value is applied when compensation for the text area is required. On the other hand, the text area compensator 169b outputs the same data signal DATA as the input signal when compensation of the text area is not required. The text area detecting and compensating unit 169 may be provided in a device that interworks with the text image processing unit 160 , for example, a timing controller.

도 4에 도시된 바와 같이, 텍스트 영상처리부(160)는 타이밍 제어부(120) 내에 포함될 수 있다. 텍스트 영상처리부(160)가 보상 데이터신호(CDATA)를 출력하면 화질 개선부(125)는 텍스트 영역에 적합한 영상 처리를 하게 된다.4 , the text image processing unit 160 may be included in the timing control unit 120 . When the text image processing unit 160 outputs the compensation data signal CDATA, the image quality improving unit 125 performs image processing suitable for the text area.

이하, 본 발명의 일 실시예에 따른 텍스트 영상처리부를 이용한 텍스트 검출 방법에 대해 자세히 설명한다.Hereinafter, a text detection method using a text image processing unit according to an embodiment of the present invention will be described in detail.

도 5는 본 발명의 일 실시예에 따른 텍스트 검출 방법을 나타낸 흐름도이고, 도 6 및 도 7은 텍스트 특성 추출을 위한 강 방향성 에지 검출의 예시를 설명하기 위한 도면들이고, 도 8 내지 도 11은 강 방향성 에지 검출 시 임계값 설정의 예시를 설명하기 위한 도면들이며, 도 12 및 도 13은 강 방향성 에지 검출을 통한 텍스트 특성 추출 결과를 보여주기 위한 도면들이고, 도 14는 텍스트 영역 후보군 설정의 예시를 설명하기 위한 도면이고, 도 15는 텍스트 영역 검출 결과를 보여주기 위한 도면이며, 도 16은 텍스트 검출 방법을 이용한 실험 결과를 보여주기 위한 도면이다.5 is a flowchart illustrating a text detection method according to an embodiment of the present invention, FIGS. 6 and 7 are diagrams for explaining an example of strong directional edge detection for text feature extraction, and FIGS. 8 to 11 are strong It is a diagram for explaining an example of setting a threshold value when detecting a directional edge, FIGS. 12 and 13 are diagrams showing a result of text feature extraction through strong directional edge detection, and FIG. 14 is a diagram illustrating an example of setting a text area candidate group FIG. 15 is a diagram illustrating a text area detection result, and FIG. 16 is a diagram illustrating an experimental result using a text detection method.

도 5에 도시된 바와 같이, 본 발명의 일 실시예에 따른 텍스트 검출 방법은 주 색상 경계 검출단계(S110), 주 방향 경계 검출단계(S120), 텍스트 후보 영역 확장단계(S130), 텍스트 영역 판단단계(S140), 텍스트 영역 검출단계(S150) 및 텍스트 영역 보상단계(S160)를 포함한다.5, the text detection method according to an embodiment of the present invention includes a main color boundary detection step S110, a main direction boundary detection step S120, a text candidate area expansion step S130, and a text area determination. It includes a step S140, a text area detection step S150, and a text area compensation step S160.

주 색상 경계 검출단계(S110)는 정해진 크기의 윈도우 내에서 RGB 채널별 주요 색상을 각각 검출한다. 주 색상 경계를 추출하면 영상 내에서 배경과 대비되는 텍스트(텍스트 후보군)를 더욱 정확히 구분해 낼 수 있다. 특히, 주 색상 경계를 추출하면 색상 간의 경계를 기반으로 텍스트(텍스트 후보군)를 추출할 수 있으므로 다양한 색상의 텍스트를 검출해 낼 수 있게 된다.The primary color boundary detection step S110 detects primary colors for each RGB channel within a window of a predetermined size. By extracting the main color boundary, text (text candidate group) that contrasts with the background in the image can be more accurately distinguished. In particular, if the main color boundary is extracted, text (text candidate group) can be extracted based on the boundary between colors, so that texts of various colors can be detected.

도 5에 도시된 바와 같이, 주 방향 경계 검출단계(S120)는 에지를 검출하고 텍스트로 예상(최소한의 텍스트 영역)되는 텍스트 후보군을 추출한다. 일반적인 영상과 구별되는 성질을 지닌 텍스트의 경우 가로, 세로, 대각 성분이 강하게 나타나는 특징을 보인다. 텍스트 검출을 위해 가로, 세로, 대각 성분에 대해 각각 에지 검출(edge detection)을 수행할 수 있다.As shown in FIG. 5 , the main direction boundary detection step S120 detects an edge and extracts a text candidate group expected as a text (minimum text area). In the case of text, which has a characteristic distinguishing it from a general image, the horizontal, vertical, and diagonal components are strongly displayed. For text detection, edge detection may be performed on horizontal, vertical, and diagonal components, respectively.

도 5 내지 도 7에 도시된 바와 같이, 주 색상 경계 및 주 방향 경계 검출을 통해 텍스트 특성을 추출하는 방식은 강 방향성 에지 검출(Strong directional edge detection)을 이용한다. As shown in FIGS. 5 to 7 , a method of extracting text characteristics by detecting a main color boundary and a main direction boundary uses strong directional edge detection.

강 방향성 에지 검출은 정해진 크기의 윈도우 내에서 RGB 채널별 주요 가로(Gx), 세로(Gy), 대각(Gd) 성분의 차이(difference)를 각각 검출한다. 윈도우는 M(M은 2 이상 정수)*N(N은 2 이상 정수)로 설정될 수 있으나 설명의 편의를 위해, 도 6 및 7에서는 2X2 윈도우를 예로 설명한다. 윈도우에 포함된 한 영역의 최소단위는 픽셀이다.Strong directional edge detection detects differences in main horizontal (Gx), vertical (Gy), and diagonal (Gd) components for each RGB channel within a window of a predetermined size, respectively. The window may be set to M (M is an integer greater than or equal to 2)*N (N is an integer greater than or equal to 2), but for convenience of explanation, a 2X2 window will be described as an example in FIGS. The smallest unit of an area included in a window is a pixel.

도 6을 일례로, RGB 채널별 주요 가로(Gx), 세로(Gy), 대각(Gd) 성분의 차이(difference)를 각각 검출하는 방법을 수식으로 표현하면 다음과 같다.Referring to FIG. 6 as an example, a method of detecting differences between main horizontal (Gx), vertical (Gy), and diagonal (Gd) components for each RGB channel is expressed as an equation as follows.

Gx(r,c) = max [│img (r,c,R) - img (r+1,c,R)│, │img (r,c,G) - img (r+1,c,G)│, │img (r,c,B) - img (r+1,c,B)│]Gx(r,c) = max [│img (r,c,R) - img (r+1,c,R)│, │img (r,c,G) - img (r+1,c,G) )│, │img (r,c,B) - img (r+1,c,B)│]

Gy(r,c) = max [│img (r,c,R) - img (r,c+1,R)│, │img (r,c,G) - img (r,c+1,G)│, │img (r,c,B) - img (r,c+1,B)│]Gy(r,c) = max [│img (r,c,R) - img (r,c+1,R)│, │img (r,c,G) - img (r,c+1,G )│, │img (r,c,B) - img (r,c+1,B)│]

Gd(r,c) = max [│img (r+1,c+1,R) - img (r+1,c,R)│, │img (r+1,c,+1G) - img (r,c,G)│, │img (r,c,B) - img (r+1,c+1,B)│],Gd(r,c) = max [│img (r+1,c+1,R) - img (r+1,c,R)│, │img (r+1,c,+1G) - img ( r,c,G)│, │img (r,c,B) - img (r+1,c+1,B)│],

if max (Gx,Gy,Gd) ≥ TH,if max(Gx,Gy,Gd) ≥ TH,

Gfinal(r,c) = max (Gx,Gy,Gd), else 0.G final (r,c) = max (Gx,Gy,Gd), else 0.

위의 수식에서, Gx는 가로, Gy는 세로, Gd는 대각, r은 로우라인, c는 컬럼라인, R은 적색 채널의 데이터신호, G는 녹색 채널의 데이터신호, B는 청색 채널의 데이터신호, max는 최대값, img는 한 영역의 이미지, TH는 임계값(threshold), Gfinal은 대표 에지값을 의미한다.In the above formula, Gx is horizontal, Gy is vertical, Gd is diagonal, r is row line, c is column line, R is red channel data signal, G is green channel data signal, B is blue channel data signal , max is the maximum value, img is an image of a region, TH is a threshold, and G final is a representative edge value.

위의 수식에 따르면, RGB 채널별 가로, 세로, 대각선 방향으로 차이값을 계산하여 임계값(TH)보다 높은지 유무를 판단한다. 그리고 RGB 채널별 가로, 세로, 대각선 방향의 값 중에서 가장 높은 에지 값을 가지는 성분 및 채널의 값(최대값)은 그 픽셀의 대표 에지 값(Gfinal)으로 설정된다. 반면, 일정 임계값(TH)보다 작은 에지는 약 에지(weak edge)로 간주하고 그 픽셀의 대표 값은 0으로 설정된다. RGB 채널별 에지의 최대값을 선택하는 과정은 영상의 그레이 스케일 변환을 포함한다.According to the above equation, it is determined whether or not the difference value is higher than the threshold value TH by calculating the difference values in the horizontal, vertical, and diagonal directions for each RGB channel. In addition, the value (maximum value) of the component and channel having the highest edge value among the values in the horizontal, vertical, and diagonal directions for each RGB channel is set as a representative edge value (G final ) of the pixel. On the other hand, an edge smaller than the predetermined threshold value TH is regarded as a weak edge, and a representative value of the pixel is set to zero. The process of selecting the maximum edge value for each RGB channel includes grayscale conversion of the image.

임계값(TH)은 텍스트와 배경의 최소 밝기 차이를 의미하는 것으로, 소벨 에지 검출(Sobel edge detection) 결과를 기준으로 설정하고, ± 10 ~ 20계조의 마진(8 bit 기준)을 가질 수 있다. 일반적으로 가독성이 높은 텍스트는 배경과의 밝기 차이가 크고, 텍스트가 아닌 영상은 이보다 차이가 작게 나타나므로 임계값(TH)은 텍스트와 영상을 구분할 수 있도록 설정하는 것이 이상적이다.The threshold TH means the minimum brightness difference between the text and the background, and may be set based on a Sobel edge detection result, and may have a margin of ±10 to 20 grayscales (based on 8 bits). In general, text with high readability has a large brightness difference from the background, and a non-text image has a smaller difference. Therefore, it is ideal to set the threshold value TH to distinguish text from an image.

도 7의 2*2 윈도우를 예로 들면, 제11영역(11), 제12영역(12), 제22영역(22)은 일정 임계값(TH)보다 높은 에지 값을 가지는 성분 및 채널의 값을 가지는 영역이고, 제21영역(21)은 일정 임계값(TH)보다 낮은 에지 값을 가지는 성분 및 채널의 값을 가지는 영역이다. 도 7의 2*2 윈도우에서 제12영역(12)은 임계값(TH)보다 높은 값을 가지므로 임계값(TH) 이상의 값으로 대표 에지값(Gfinal)이 설정되지만, 제21영역(21)은 임계값(TH)보다 낮은 값을 가지므로 대표값이 0으로 설정된다.Taking the 2*2 window of FIG. 7 as an example, the eleventh region 11 , the twelfth region 12 , and the 22 nd region 22 include the values of components and channels having an edge value higher than a predetermined threshold value TH. is a region having an edge value, and the twenty-first region 21 is a region having values of a component and a channel having an edge value lower than a predetermined threshold value TH. In the 2*2 window of FIG. 7 , since the twelfth region 12 has a higher value than the threshold value TH, the representative edge value G final is set to a value greater than or equal to the threshold value TH, but the twenty-first region 21 ) has a value lower than the threshold value TH, so the representative value is set to 0.

임계값(TH)은 0계조 ~ 255계조 사이의 계조값 중 하나로 선택될 수 있다. 본 발명의 일 실시예에서는 임계값(TH)을 달리할 경우 어떠한 형태로 에지가 검출되는지를 실험해 보았다. 도 9는 임계값(TH)을 60계조로 한 예시이고, 도 10은 임계값(TH)을 120계조로 한 예시이며, 도 11은 임계값(TH)을 180계조로 한 예시이다.The threshold value TH may be selected as one of grayscale values between 0 and 255 grays. In an embodiment of the present invention, when the threshold value TH is changed, an experiment was conducted in which shape the edge is detected. FIG. 9 is an example in which the threshold value TH is 60 grayscales, FIG. 10 is an example in which the threshold value TH is 120 grayscales, and FIG. 11 is an example in which the threshold value TH is 180 grayscales.

실험 결과, 임계값(TH)이 작을수록 더 많은 양의 에지를 검출할 수 있었고, 임계값(TH)이 클수록 더 적은 양의 에지를 검출할 수 있었다. 실험에 따르면, 해당 웹페이지에서는 임계값(TH)을 120계조로 하였을 때 그림과 텍스트를 더 정확히 구분해낼 수 있는 것으로 나타났다(도 12 및 도 13 참조). 그러므로 임계값(TH)은 일반적인 텍스트의 색과 배경의 차이를 고려하여 실험적인 값을 기반으로 설정하는 것이 바람직할 것이다.As a result of the experiment, a larger amount of edges could be detected as the threshold value TH was smaller, and a smaller amount of edges could be detected as the threshold value TH was larger. According to the experiment, it was found that in the corresponding web page, when the threshold value (TH) was 120 gray scales, pictures and texts could be more accurately distinguished (see FIGS. 12 and 13 ). Therefore, it may be desirable to set the threshold value TH based on an experimental value in consideration of the difference between the color of the general text and the background.

위의 수식을 기반으로 주요 성분의 차이를 이용하여 에지를 검출하고 나면 영상 내에서 텍스트로 예상(최소한의 텍스트 영역)되는 텍스트 후보군을 차례차례 추출해 낼 수 있다.After detecting the edge using the difference of the main components based on the above equation, text candidates predicted as text (minimum text area) in the image can be sequentially extracted.

주 색상 경계 검출단계(S110) 및 주 방향 경계 검출단계(S120)를 통해 얻어진 텍스트 후보군은 최소한의 텍스트 영역을 의미하므로 텍스트 후보영역에 대해 확장이 필요하다.Since the text candidate group obtained through the main color boundary detection step S110 and the main direction boundary detection step S120 means the minimum text area, it is necessary to expand the text candidate area.

텍스트 후보 영역 확장단계(S130)에서는 텍스트 검출의 정밀도를 높이기 위해 텍스트 후보영역을 확장한다. 텍스트 후보 영역의 확장은 텍스트 후보 픽셀을 기준으로 좌우(가로) 및 상하(세로) 확장을 한다. 텍스트 후보 영역의 확장은 텍스트 후보 픽셀을 기준으로 좌우 I(I는 4이상 정수)픽셀과 상하 J(J는 1이상 정수)픽셀 영역으로 확장할 수 있다.In the text candidate area expansion step S130, the text candidate area is expanded to increase the precision of text detection. The text candidate area is expanded horizontally (horizontally) and vertically (vertically) based on the text candidate pixels. The text candidate area can be extended into left and right I (I is an integer greater than or equal to 4) pixels and upper and lower J (J is an integer greater than or equal to 1) pixel area based on the text candidate pixel.

도 14는 텍스트 후보 픽셀을 기준으로 좌우 7 픽셀과 상하 1 픽셀 영역을 더 확장한 예시이다. 이에 따라, 텍스트 후보 영역(TR 후보군)은 총 30 픽셀의 2*15 윈도우로 늘어난다. 도 14에서, text는 텍스트 영역을 의미하고, non-text는 텍스트 영역이 아닌 영역을 의미한다.14 is an example in which the left and right 7 pixels and the top and bottom 1 pixel areas are further expanded based on the text candidate pixel. Accordingly, the text candidate area (TR candidate group) is increased to a 2*15 window of a total of 30 pixels. In FIG. 14 , text means a text area, and non-text means a non-text area.

텍스트 영역 판단단계(S140)에서는 확장된 텍스트 후보 영역(TR 후보군) 내에서 텍스트 영역으로 볼 수 있는 영역을 텍스트 영역(TR 군)으로 판단한다. 예컨대, 텍스트 후보 영역(TR 후보군)에서 1/K(K는 2 이상 정수) 이상의 비율이 텍스트 후보 픽셀을 포함하고 있으면 그 영역을 텍스트 영역으로 설정한다. K는 2 이상이면 가능하나 3 또는 그 이상과 같이 높을 수록 텍스트 영역을 넓힐 수 있다.In the text area determination step S140, an area that can be viewed as a text area within the extended text candidate area (TR candidate group) is determined as the text area (TR group). For example, if the text candidate area (TR candidate group) contains text candidate pixels at a ratio of 1/K (K is an integer greater than or equal to 2), the area is set as the text area. If K is 2 or more, it is possible, but as high as 3 or more, the text area can be widened.

예컨대, 텍스트 영역 판단단계(S140)에서는 텍스트 후보 영역(TR 후보군)에서 1/3 이상의 비율이 강 방향성 에지(strong directional edge)를 갖는 영역에 해당하면, 이 후보군을 텍스트 영역으로 판단한다. 즉, 강한 에지(strong edge)의 비율로 텍스트 영역의 유무가 판단된다.For example, in the text area determination step S140 , if 1/3 or more of the text candidate area (TR candidate group) corresponds to an area having a strong directional edge, the candidate group is determined as a text area. That is, the presence or absence of the text area is determined by the ratio of strong edges.

텍스트 영역 검출단계(S150)는 텍스트 영역이 배경과 차별화된 보상이 수행되도록 텍스트 영역을 검출한다. 도 15는 텍스트 특성 추출 시 임계값(TH)을 120계조로 설정하였을 때의 예시이다. 도 15와 같이, 최종적인 텍스트 영역 검출 결과는 텍스트가 포함된 텍스트 영역(TR 군)으로 표현되며 배경이나 이미지 등에 대한 영상 처리 알고리즘 적용 시 제외되어야 하는 최소한의 범위라 할 수 있다.In the text area detection step S150, the text area is detected so that compensation is performed to differentiate the text area from the background. 15 is an example when the threshold value TH is set to 120 grayscales when extracting text characteristics. As shown in FIG. 15 , the final text area detection result is expressed as a text area (TR group) including text, and may be said to be the minimum range that should be excluded when an image processing algorithm is applied to a background or image.

텍스트 영역 보상단계(S160)는 검출된 텍스트 영역을 보상하거나 미보상한다. 텍스트는 배경과 달리 시인성, 가독성, 판독성 등을 높이기 위해 텍스트 영역에 대해서만 별도의 보상 또는 보간법을 수행해야 한다.In the text area compensation step S160, the detected text area is compensated or not compensated. Unlike the background, text should be compensated or interpolated only for the text area in order to increase visibility, readability, legibility, etc.

예컨대, 검출된 텍스트 영역(TR 군)은 가독성을 향상하기 위해 영상 보상 또는 보간시(interpolation), DI(Direction Interpolation)를 적용하지 않고 니어리스트 네이버 보간법(Nearest Neighbor interpolation; NN)을 이용할 수 있다.For example, the detected text area (TR group) may use Nearest Neighbor interpolation (NN) without applying image compensation, interpolation, or DI (Direction Interpolation) to improve readability.

그 결과, 16과 같이 웹페이지 내에 존재하는 텍스트는 다른 이미지, 배경, 그림 등과 달리 텍스트에 적합합 보상을 실시하게 되어 시인성, 가독성, 판독성 등을 높일 수 있게 된다. 도 16의 (a)는 실험을 위해 캡쳐한 웹페이지이고 (b)는 본 발명의 일 실시예에 따른 텍스트 검출 및 보상 결과를 보여주는 실험결과이다.As a result, as shown in Fig. 16, text existing in the web page is compensated for conformity to the text unlike other images, backgrounds, and pictures, so that visibility, readability, readability, etc. can be improved. 16 (a) is a web page captured for an experiment, and (b) is an experimental result showing text detection and compensation results according to an embodiment of the present invention.

이하, 본 발명의 일 실시예에 따른 텍스트 검출 방법 및 이를 이용한 표시장치의 정확한 평가를 위해, 3개국(한국 2번, 미국 1번, 중국 1번)의 웹페이지를 캡쳐하고 실험한 결과를 하기와 같이 첨부한다.Hereinafter, in order to accurately evaluate a text detection method and a display device using the same according to an embodiment of the present invention, web pages of three countries (Korea No. 2, USA No. 1, China No. 1) were captured and the experimental results are as follows. appended with

도 17은 제1실험예에 따라 한국어로 이루어진 웹페이지이고, 도 18은 도 17에 도시된 웹페이지의 텍스트 특성 추출 시 임계값(TH)을 120계조로 설정하였을 때의 결과이며, 도 19는 검출된 텍스트 영역을 보여주는 결과이다.FIG. 17 is a web page in Korean according to the first experimental example, and FIG. 18 is a result when the threshold value TH is set to 120 grayscales when extracting text characteristics of the web page shown in FIG. 17. FIG. The result shows the detected text area.

도 20은 제2실험예에 따라 한국어로 이루어진 웹페이지이고, 도 21은 도 20에 도시된 웹페이지의 텍스트 특성 추출 시 임계값(TH)을 120계조로 설정하였을 때의 결과이며, 도 22는 검출된 텍스트 영역을 보여주는 결과이다.20 is a web page in Korean according to the second experimental example, and FIG. 21 is a result when the threshold value TH is set to 120 grayscales when extracting text characteristics of the web page shown in FIG. 20. FIG. The result shows the detected text area.

도 23은 제3실험예에 따라 영어로 이루어진 웹페이지이고, 도 24는 도 23에 도시된 웹페이지의 텍스트 특성 추출 시 임계값(TH)을 120계조로 설정하였을 때의 결과이며, 도 25는 검출된 텍스트 영역을 보여주는 결과이다.23 is a web page made in English according to the third experimental example, and FIG. 24 is a result when the threshold value TH is set to 120 gradations when extracting text characteristics of the web page shown in FIG. 23. FIG. The result shows the detected text area.

도 26은 제4실험예에 따라 중국어로 이루어진 웹페이지이고, 도 27은 도 26에 도시된 웹페이지의 텍스트 특성 추출 시 임계값(TH)을 120계조로 설정하였을 때의 결과이며, 도 28은 검출된 텍스트 영역을 보여주는 결과이다.26 is a web page made in Chinese according to the fourth experimental example, and FIG. 27 is a result when the threshold value TH is set to 120 gray scales when extracting text characteristics of the web page shown in FIG. 26. FIG. The result shows the detected text area.

이상의 실험을 통해 알 수 있듯이, 본 발명의 일 실시예에 따른 텍스트 검출 방법 및 이를 이용한 표시장치는 색상과 방향의 경계 검출 등을 이용하여 텍스트를 검출한다. 따라서, 한국어 대비 상대적으로 어려운 중국어도 무리 없이 검출해 낼 수 있었다.As can be seen from the above experiment, the text detection method and the display device using the text detection method according to an embodiment of the present invention detect text using color and direction boundary detection. Therefore, it was possible to detect Chinese, which is relatively difficult compared to Korean, without difficulty.

현재는 스마트TV의 보급이 빠르게 이루어져서 대형TV로도 인터넷을 할 수 있으며 스마트TV가 아니더라도 방송 컨텐츠 내에 자막 형식의 텍스트가 많이 존재한다. 즉, TV화면 내에서 텍스트는 큰 부분을 차지하고 있다.Currently, the spread of smart TVs is rapid, so even large TVs can access the Internet, and even if not smart TVs, there are many texts in the form of subtitles in broadcasting contents. In other words, text occupies a large portion of the TV screen.

TV에 동작되는 영상처리 알고리즘은 일반 영상을 대상으로 한 경우가 대부분이며 텍스트 처리는 그에 비해 중요하게 여겨지지 않는다. 하지만, 영상 내에 점점 텍스트의 비중이 커지는 현 추세에서는 가독성을 높이는 방향으로 텍스트를 처리하는 것이 중요하다.In most cases, image processing algorithms operated on TV target general images, and text processing is not considered as important. However, in the current trend of increasing the proportion of text within the image, it is important to process the text in the direction of increasing readability.

본 발명은 종래의 일반적인 텍스트 검출 방법같이 영상의 일부로 존재하는 텍스트(예컨대, 교통 표지판 안의 글자)를 인식할 수 있는 방법은 아니지만 문서 형식의 텍스트를 강인하게 찾아낼 수 있다. 또한, 문서 형식의 텍스트는 웹페이지 상에서 흔히 볼 수 있는 줄이 맞춰진 텍스트(예컨대, Smart TV)를 의미한다.Although the present invention is not a method capable of recognizing text (eg, characters in a traffic sign) existing as a part of an image like a conventional general text detection method, it can robustly find text in a document format. In addition, text in the form of a document means lined text (eg, Smart TV) commonly seen on web pages.

문서 형식의 텍스트는 가로, 세로, 대각선 에지 성분이 강하게 나타난다는 특징이 있다. 그러므로 본 발명에서는 텍스트의 가로, 세로, 대각선 에지 성분을 이용하여 텍스트 성분을 추출하고, 미검출 방지를 위해 2차적으로 텍스트 영역에 대해 통계적인 확장을 수행한다.Text in document format is characterized by strong horizontal, vertical, and diagonal edge components. Therefore, in the present invention, text components are extracted using horizontal, vertical, and diagonal edge components of the text, and statistical expansion is secondarily performed on the text area to prevent non-detection.

현재의 방송 환경은 FHD의 영상을 송출하는 반면, TV를 구성하는 표시패널은 그 이상인 4K나 8K 영상을 출력할 수 있기 때문에 입력된 영상을 TV에 맞게 업스케일링(Upscaling) 하는 기술이 TV 내에 구현되어 있다.While the current broadcasting environment transmits FHD images, the display panel constituting the TV can output more 4K or 8K images, so the technology of upscaling the input image to fit the TV is implemented in the TV. has been

업스케일링 기술은 일반적으로 텍스트가 아닌 일반 영상을 대상으로 하고 있으며 이는 일반 영상과 텍스트가 가지는 성질이 다른데 이는 일반 영상의 디스플레이 비중이 훨씬 높기 때문이다.The upscaling technology generally targets general images, not texts, and the properties of normal images and texts are different because the display proportion of general images is much higher.

본 발명을 이용하여 텍스트 영역을 검출하면 업스케일링 시 일반 영상에 사용되는 Directional Interpolation(DI) 방법이 아닌 니어리스트 네이버 보간법(Nearest Neighbor interpolation)을 텍스트 영역의 업스케일링에 적용하여 샤프(sharp)한 텍스트를 구현할 수 있다.When a text area is detected using the present invention, when upscaling, the Nearest Neighbor interpolation method, not the Directional Interpolation (DI) method used for general images, is applied to the upscaling of the text area to sharpen the text. can be implemented.

일반 영상은 업스케일링 시 경계선을 살리면서 주변의 경향을 잘 반영할 수 있는 DI 알고리즘을 사용한다. 하지만, 주변의 경향과 관계없이 작은 에지들이 급하게 바뀌는 텍스트의 경우 주변의 경향을 반영하지 않고 바로 옆의 정보를 단순히 복사하는 NN 알고리즘이 효과적인 것으로 나타났다.Normal video uses a DI algorithm that can reflect the surrounding trend well while preserving the boundary when upscaling. However, in the case of a text whose small edges change rapidly regardless of the surrounding tendency, the NN algorithm that simply copies the information next to it without reflecting the surrounding tendency was found to be effective.

이상 본 발명은 텍스트 영역 검출을 통해 텍스트와 자연 영상에 적합한 알고리즘을 각각 적용하여 영상 전체의 화질을 개선할 수 있는 효과가 있다. 또한, 본 발명은 자연 영상과 텍스트 영역에 서로 다른 알고리즘을 적용할 수 있는 효과가 있다. 또한, 본 발명은 경계선 특성을 이용하여 텍스트 영역을 검출하므로 텍스트 영역 보상 시 텍스트의 시인성, 가독성, 판독성을 높일 수 있는 효과가 있다.As described above, the present invention has the effect of improving the image quality of the entire image by applying an algorithm suitable for text and natural image respectively through text region detection. In addition, the present invention has the effect that different algorithms can be applied to the natural image and the text area. In addition, since the present invention detects the text area using the boundary line characteristic, there is an effect of improving the visibility, readability, and readability of the text when the text area is compensated.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 상술한 본 발명의 기술적 구성은 본 발명이 속하는 기술 분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해되어야 한다. 아울러, 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어진다. 또한, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, the technical configuration of the present invention can be changed to other specific forms by those skilled in the art to which the present invention pertains without changing the technical spirit or essential features of the present invention. It will be appreciated that this may be practiced. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. In addition, the scope of the present invention is indicated by the claims to be described later rather than the above detailed description. In addition, all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention.

110: 영상 공급부 120: 타이밍 제어부
130: 게이트 구동부 140: 데이터 구동부
150: 표시패널 160: 텍스트 영상처리부
161: 텍스트 특성 추출부 165: 텍스트 영역 확장 및 판단부
169: 텍스트 영역 검출 및 보상부
110: image supply unit 120: timing control unit
130: gate driver 140: data driver
150: display panel 160: text image processing unit
161: text characteristic extraction unit 165: text area expansion and determination unit
169: text area detection and compensation unit

Claims (10)

RGB 채널별 주요 색상과 주요 방향성 정보를 기반으로 텍스트 후보영역에 해당하는 에지를 검출하기 위해 RGB 채널별 주요 색상을 각각 검출하는 주 색상 경계 검출부와, 상기 RGB 채널별 주요 가로, 세로, 대각 성분의 차이를 각각 검출하는 주 방향 경계 검출부를 포함하는 텍스트 특성 추출부;
상기 텍스트 후보영역을 확장하고 확장된 텍스트 후보영역 내에서 텍스트 영역으로 볼 수 있는 영역을 텍스트 영역으로 판단하는 텍스트 영역 확장 및 판단부; 및
상기 텍스트 영역을 검출하고 검출된 텍스트 영역을 보상하는 텍스트 영역 검출 및 보상부를 포함하고,
상기 텍스트 특성 추출부는 상기 RGB 채널별 가로, 세로, 대각선 방향으로 차이값을 계산하여 가장 높은 에지 값을 가지는 성분 및 채널의 값을 그 픽셀의 대표 에지 값으로 설정하고,
상기 RGB 채널별 가로, 세로, 대각선 방향으로 차이값을 계산하여 임계값보다 작은 값을 가지는 성분 및 채널의 값을 0으로 설정하고,
상기 임계값은 소벨 에지 검출(Sobel edge detection) 결과를 기준으로 설정하되, ± 10 ~ 20 계조의 마진을 가지며,
상기 텍스트 영역 확장 및 판단부는
상기 텍스트 후보영역을 확장하는 텍스트 후보 영역 확장부와,
상기 텍스트 후보영역 중 1/K(K는 2 이상 정수) 이상이 강 방향성 에지(strong directional edge)를 갖는 영역에 해당하면, 이 후보군을 텍스트 영역으로 판단하는 텍스트 영역 판단부를 포함하고,
상기 텍스트 영역 검출 및 보상부는
샤프한 텍스트를 구현하기 위해, 니어리스트 네이버 보간법(Nearest Neighbor interpolation)을 상기 검출된 텍스트 영역의 업스케일링에 적용하여 보상하는 표시장치.
A main color boundary detector that detects a main color for each RGB channel, respectively, in order to detect an edge corresponding to a text candidate area based on main color and main direction information for each RGB channel, and the main horizontal, vertical, and diagonal components for each RGB channel. a text characteristic extraction unit including a main direction boundary detection unit for detecting differences, respectively;
a text area expansion and determination unit that expands the text candidate area and determines, as a text area, an area that can be viewed as a text area within the extended text candidate area; and
a text area detecting and compensating unit for detecting the text area and compensating for the detected text area;
The text characteristic extracting unit calculates the difference values in the horizontal, vertical, and diagonal directions for each RGB channel, and sets the value of the component and channel having the highest edge value as the representative edge value of the pixel,
Calculate the difference values in the horizontal, vertical, and diagonal directions for each RGB channel and set the values of components and channels having a value smaller than the threshold value to 0,
The threshold value is set based on the Sobel edge detection result, but has a margin of ± 10 to 20 grayscales,
The text area expansion and determination unit
a text candidate area extension unit for expanding the text candidate area;
and a text area determination unit that determines the candidate group as a text area when 1/K (K is an integer greater than or equal to 2) of the text candidate areas corresponds to an area having a strong directional edge;
The text area detection and compensation unit
A display device that compensates by applying a Nearest Neighbor interpolation to upscaling of the detected text area in order to implement a sharp text.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 텍스트 특성 추출부는
M(M은 2 이상 정수)*N(N은 2 이상 정수) 크기의 윈도우 내에서 상기 텍스트 후보영역에 해당하는 에지를 검출하는 표시장치.
According to claim 1,
The text characteristic extraction unit
A display device for detecting an edge corresponding to the text candidate area within a window having a size of M (M is an integer greater than or equal to 2)*N (N is an integer greater than or equal to 2).
삭제delete RGB 채널별 주요 색상과 상기 RGB 채널별 주요 가로, 세로, 대각 성분의 차이를 각각 검출하는 주요 방향성 정보를 기반으로 텍스트 후보영역에 해당하는 에지를 검출하는 단계;
상기 텍스트 후보영역을 확장하고 확장된 텍스트 후보영역 내에서 텍스트 영역으로 볼 수 있는 영역을 텍스트 영역으로 판단하는 단계; 및
상기 텍스트 영역을 검출하고 검출된 텍스트 영역을 보상하는 단계를 포함하고,
상기 텍스트 후보영역에 해당하는 에지를 검출하는 단계는
상기 RGB 채널별 가로, 세로, 대각선 방향으로 차이값을 계산하여 가장 높은 에지 값을 가지는 성분 및 채널의 값을 그 픽셀의 대표 에지 값으로 설정하고,
상기 RGB 채널별 가로, 세로, 대각선 방향으로 차이값을 계산하여 임계값보다 작은 값을 가지는 성분 및 채널의 값을 0으로 설정하고,
상기 임계값은 소벨 에지 검출(Sobel edge detection) 결과를 기준으로 설정하되, ± 10 ~ 20 계조의 마진을 가지며,
상기 텍스트 영역으로 판단하는 단계는
상기 텍스트 후보영역 중 1/K(K는 2 이상 정수) 이상이 강 방향성 에지(strong directional edge)를 갖는 영역에 해당하면, 이 후보군을 텍스트 영역으로 판단하고,
상기 검출된 텍스트 영역을 보상하는 단계는
샤프한 텍스트를 구현하기 위해, 니어리스트 네이버 보간법(Nearest Neighbor interpolation)을 상기 검출된 텍스트 영역의 업스케일링에 적용하여 보상하는 텍스트 검출 방법.
detecting an edge corresponding to a text candidate area based on main color information for each RGB channel and main direction information for detecting a difference between main horizontal, vertical, and diagonal components for each RGB channel;
expanding the text candidate area and determining an area that can be viewed as a text area within the extended text candidate area as a text area; and
detecting the text area and compensating for the detected text area;
The step of detecting an edge corresponding to the text candidate area includes:
Calculate the difference values in the horizontal, vertical, and diagonal directions for each RGB channel, and set the component and channel values having the highest edge values as the representative edge values of the pixels;
Calculate the difference values in the horizontal, vertical, and diagonal directions for each RGB channel and set the values of components and channels having values smaller than the threshold value to 0,
The threshold value is set based on the Sobel edge detection result, but has a margin of ± 10 to 20 grayscales,
The step of determining the text area is
If 1/K (K is an integer greater than or equal to 2) among the text candidate areas corresponds to an area having a strong directional edge, the candidate group is determined as a text area,
Compensating the detected text area comprises:
A text detection method for compensating by applying a Nearest Neighbor interpolation to upscaling of the detected text area in order to implement a sharp text.
삭제delete 삭제delete 삭제delete
KR1020150136806A 2015-09-25 2015-09-25 Method for text detection and display device using thereof KR102324867B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150136806A KR102324867B1 (en) 2015-09-25 2015-09-25 Method for text detection and display device using thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150136806A KR102324867B1 (en) 2015-09-25 2015-09-25 Method for text detection and display device using thereof

Publications (2)

Publication Number Publication Date
KR20170037781A KR20170037781A (en) 2017-04-05
KR102324867B1 true KR102324867B1 (en) 2021-11-12

Family

ID=58587234

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150136806A KR102324867B1 (en) 2015-09-25 2015-09-25 Method for text detection and display device using thereof

Country Status (1)

Country Link
KR (1) KR102324867B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102388193B1 (en) * 2019-07-12 2022-04-19 주식회사 테크온힐 Method for extrcting of image information in web page providing health functional food information

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05344330A (en) * 1992-06-11 1993-12-24 Konica Corp Picture area discriminating device
JP3618776B2 (en) * 1994-03-24 2005-02-09 キヤノン株式会社 Image processing apparatus and method
KR101829459B1 (en) * 2011-07-14 2018-02-14 엘지디스플레이 주식회사 Image processing method and stereoscopic image display device using the same

Also Published As

Publication number Publication date
KR20170037781A (en) 2017-04-05

Similar Documents

Publication Publication Date Title
KR102460922B1 (en) Display Device and Driving Method thereof
KR101947125B1 (en) Timing controller, driving method thereof, and display device using the same
KR102194571B1 (en) Method of data conversion and data converter
US9691353B2 (en) Display device and method of adjusting luminance of a logo region of an image displayed on the same
JP6347958B2 (en) Data processing apparatus and display system having the same
US9236018B2 (en) Reducing deterioration in display quality of a displayed image on a display device
CN102169677A (en) Video processing circuit, video processing method, liquid crystal display device, and electronic apparatus
US8320457B2 (en) Display device and method of driving the same
WO2022156322A1 (en) Display compensation module, display compensation method, and display device
US20160240148A1 (en) Display systems and methods
KR20150015681A (en) Display apparatus and dirving mehtod thereof
KR102337829B1 (en) Method for logo detection and display device using thereof
US20140292820A1 (en) Image control display device and image control method
US9001093B2 (en) Display device and method of driving the same
KR102148207B1 (en) Apparatus for compensating degradation and display device including the same
KR20110005513A (en) Method of correcting preferred color and display apparatus using the same
EP1903545A2 (en) Display device
KR102324867B1 (en) Method for text detection and display device using thereof
KR102456343B1 (en) Display device and driving method of the same
KR102582156B1 (en) Display Device and Method of Driving the same
KR20160046983A (en) Power consumption control method and apparatus and display device using the same
KR102410629B1 (en) Data processing device and display device having the same
KR101408254B1 (en) Response time improvement apparatus and method for liquid crystal display device
KR20120056361A (en) Flat Panel Diaplay And Image Quality Control Method Thereof
KR20120042036A (en) Display device capable of controlling viewing angle and driving method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right