KR100726439B1 - Method of closed caption service and display processing apparatus thereof - Google Patents

Method of closed caption service and display processing apparatus thereof Download PDF

Info

Publication number
KR100726439B1
KR100726439B1 KR1020050097071A KR20050097071A KR100726439B1 KR 100726439 B1 KR100726439 B1 KR 100726439B1 KR 1020050097071 A KR1020050097071 A KR 1020050097071A KR 20050097071 A KR20050097071 A KR 20050097071A KR 100726439 B1 KR100726439 B1 KR 100726439B1
Authority
KR
South Korea
Prior art keywords
language
subtitle
voice
caption
audio
Prior art date
Application number
KR1020050097071A
Other languages
Korean (ko)
Other versions
KR20070041187A (en
Inventor
이동관
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020050097071A priority Critical patent/KR100726439B1/en
Publication of KR20070041187A publication Critical patent/KR20070041187A/en
Application granted granted Critical
Publication of KR100726439B1 publication Critical patent/KR100726439B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4856End-user interface for client configuration for language selection, e.g. for the menu or subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

사용자의 편의성을 향상시킬 수 있는 자막 서비스 방법 및 이를 수행하는 영상처리장치를 개시한다. 영상처리장치는 자막 서비스 제공시, 자막을 표시할 언어의 종류가 설정되면, 자동으로 음성을 출력할 언어를 자막과 동일한 언어로 설정한다. 이에 따라, 영상처리장치는 자막 서비스 이용시, 사용자의 입력 과정을 단순화할 수 있으므로, 사용자의 편의성을 향상시킬 수 있다.Disclosed are a caption service method capable of improving a user's convenience, and an image processing apparatus performing the same. When providing a subtitle service, the image processing apparatus automatically sets a language for outputting audio to the same language as the subtitle when a type of language for displaying a subtitle is set. Accordingly, the image processing apparatus may simplify the input process of the user when using the subtitle service, thereby improving user convenience.

폐쇄 자막, 캡션 Closed captions, captions

Description

자막 서비스 방법 및 이를 수행하는 영상처리장치{Method of closed caption service and display processing apparatus thereof}Subtitle service method and image processing apparatus performing the same {Method of closed caption service and display processing apparatus

도 1은 본 발명의 일실시예에 따른 디지털 텔레비전을 개략적으로 나타낸 블럭도이다.1 is a block diagram schematically showing a digital television according to an embodiment of the present invention.

도 2는 본 발명의 일실시예에 따른 디지털 텔레비전에서 자막 서비스를 제공하는 과정을 나타낸 흐름도이다.2 is a flowchart illustrating a process of providing a subtitle service in a digital television according to an embodiment of the present invention.

도 3은 도 2에 도시된 자막 표시 언어를 설정하는 과정을 나타낸 흐름도이다.FIG. 3 is a flowchart illustrating a process of setting a caption display language shown in FIG. 2.

도 4는 도 3에 도시된 자막 서비스 메뉴 화면의 일례를 나타낸 도면이다.4 is a diagram illustrating an example of a subtitle service menu screen shown in FIG. 3.

도 5는 도 2에 도시된 음성 출력 언어를 설정하는 과정을 나타낸 흐름도이다.FIG. 5 is a flowchart illustrating a process of setting a voice output language shown in FIG. 2.

* 도면의 주요부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

100 : 디지털 텔레비전 105 : 튜너100: digital television 105: tuner

110 : 디멀티플렉서 115 : 메모리110: demultiplexer 115: memory

120 : 입력 단말기 125 : 제어부120: input terminal 125: control unit

130 : 영상 처리부 135 : OSD 처리부130: image processing unit 135: OSD processing unit

140 : 영상 표시부 145 : 음성 처리부140: image display unit 145: audio processing unit

150 : 음성 출력부 200 : 안테나150: audio output unit 200: antenna

본 발명은 자막 서비스 방법 및 이를 수행하는 영상처리장치에 관한 것으로, 더욱 상세하게는, 방송 프로그램 시청시, 영상과 함께 음성에 대응하는 자막을 화면에 표시하는 자막 서비스 방법 및 이를 수행하는 영상처리장치에 관한 것이다.The present invention relates to a caption service method and an image processing apparatus for performing the same, and more particularly, to a caption service method for displaying a caption corresponding to an audio with an image on a screen when watching a broadcast program and an image processing apparatus performing the same. It is about.

일반적으로, 영상처리장치의 일종인 텔레비전은 방송국으로부터 방송 신호를 수신하여 영상을 표시하고, 방송 신호에 대응하는 음성을 출력한다. 방송 신호는 영상에 대응하는 비디오 스트림 및 음성에 대응하는 오디오 스트림을 포함한다. 비디오 스트림은 영상뿐만 아니라 영상에 대응하는 소정의 자막을 포함한다.In general, a television, which is a kind of image processing apparatus, receives a broadcast signal from a broadcasting station, displays an image, and outputs a voice corresponding to the broadcast signal. The broadcast signal includes a video stream corresponding to an image and an audio stream corresponding to voice. The video stream includes not only the video but also some subtitles corresponding to the video.

자막 서비스는 무조건 영상과 함께 표시되는 일반 자막 및 사용자의 선택에 따라 표시되는 폐쇄 자막(closed caption)이 있다. 일반 자막은 현재 표시되는 영상에 대한 간략 정보 등을 영상과 함께 표시된다. 폐쇄 자막은 사용자의 선택에 따라 화면에 표시될 수도 있고 표시되지 않을 수도 있으며, 음성에 대응하여 표시된다.The caption service includes general captions displayed with images unconditionally and closed captions displayed according to a user's selection. The general subtitle is displayed together with the image and brief information about the currently displayed image. The closed caption may or may not be displayed on the screen according to the user's selection, and may be displayed in response to the voice.

구체적으로, 폐쇄 자막 서비스는 1971년 미국에서 시작되었으며, 청각 장애인을 위한 복지서비스의 일환으로 실시되었다. 이러한 폐쇄 자막 서비스는 청각 장애인들뿐만 아니라 유아들의 철자교육, 어학 교육 및 스포츠 중계시 시끄러운 잡음으로부터 정확한 의사전달을 위해 이용되는 등 점차 그 활용 범위가 확대되고 있 다.Specifically, closed captioning services were launched in the United States in 1971 and were implemented as part of welfare services for the deaf. These closed caption services are increasingly being used for accurate communication from loud noise during spelling, language education, and sports relay not only for hearing impaired children.

일반적으로, 폐쇄 자막 서비스를 제공하는 텔레비전이나 셉톱 박스 등은 사용자가 특정 언어의 자막을 요청하면, 사용자가 선택한 언어로 자막을 표시한다. 이때, 사용자는 음성 출력을 위한 언어를 별도로 선택해야 한다. 일반적으로, 사용자가 특정 언어의 자막을 시청하기 원하는 경우는 음성 또한 자막과 동일한 언어로 청취하기 위한 경우가 많다. 그러나, 사용자는 자막과 동일한 언어로 이루어진 음성을 시청하기 위해서 음성 출력을 위한 언어를 다시 한번 지정해야하므로, 사용자의 편의성이 저하된다.In general, a television or a set-top box providing a closed captioning service displays captions in a language selected by the user when the user requests captions in a specific language. In this case, the user must separately select a language for voice output. In general, when a user wants to watch a subtitle of a specific language, the voice is also often listened in the same language as the subtitle. However, the user has to designate a language for the audio output once again in order to watch the voice in the same language as the subtitles, thereby reducing the user's convenience.

본 발명의 목적은 영상처리장치에서 사용자의 편의성을 향상시킬 수 있는 자막 서비스 방법을 제공하는 것이다.An object of the present invention is to provide a caption service method that can improve the user's convenience in an image processing apparatus.

또한, 본 발명의 목적은 상기한 자막 서비스 방법을 수행하는 영상처리장치를 제공하는 것이다.It is also an object of the present invention to provide an image processing apparatus for performing the caption service method described above.

상기한 본 발명의 목적을 실현하기 위한 하나의 특징에 따른 영상처리장치에서 음성에 대응하여 자막을 제공하는 자막 서비스 방법은, 먼저, 방송 신호로부터 영상 및 음성에 대응하는 방송 프로그램에 대한 정보를 나타내는 프로그램 정보를 추출하여 저장한다. 자막 서비스 명령이 입력됨에 따라 임의의 언어를 상기 자막에 대응하는 제1 언어로 설정한다. 음성에 대응하는 제2 언어를 제1 언어와 동일한 언어로 자동 설정한다. 방송 신호에 대응하는 영상을 제1 언어로 이루어진 자막과 함 께 표시한다. 방송 신호에 대응하여 제2 언어로 이루어진 음성을 출력한다.In a caption service method for providing captions in response to audio in an image processing apparatus according to one aspect for realizing the object of the present invention described above, first, information about a broadcast program corresponding to video and audio is indicated from a broadcast signal. Extract and save program information. As a caption service command is input, an arbitrary language is set as a first language corresponding to the caption. The second language corresponding to the voice is automatically set to the same language as the first language. The video corresponding to the broadcast signal is displayed together with the subtitles in the first language. A voice in a second language is output in response to the broadcast signal.

또한, 제1 언어를 설정하는 과정은, 먼저, 자막 서비스 명령이 입력됨에 따라 자막 서비스 메뉴들을 표시한다. 자막 서비스 메뉴들 중에서 임의의 자막 서비스 메뉴를 선택하고, 자막을 지원하는 언어들 중에서 자막 서비스 메뉴에 대응하는 언어를 프로그램 정보로부터 추출한다. 자막 서비스 메뉴에 대응하는 언어를 제1 언어로 설정한다.Also, in the process of setting the first language, first, the caption service menus are displayed as the caption service command is input. An arbitrary subtitle service menu is selected from the subtitle service menus, and a language corresponding to the subtitle service menu is extracted from the program information among the languages that support the subtitles. The language corresponding to the subtitle service menu is set as the first language.

또한, 제2 언어를 설정하는 과정은, 먼저, 프로그램 정보를 검색하여 상기 음성을 지원하는 언어의 종류를 추출한다. 음성을 지원하는 언어들 중에서 제1 언어와 동일한 제2 언어를 추출하여 제2 언어로 설정한다.In the setting of the second language, first, a program information is searched to extract a type of language supporting the voice. A second language that is identical to the first language is extracted from the languages that support the voice and set as the second language.

또한, 상기한 본 발명의 목적을 실현하기 위한 하나의 특징에 따른 영상처리장치는, 제어부, 영상 표시부 및 음성 출력부로 이루어진다.In addition, an image processing apparatus according to one aspect for realizing the object of the present invention includes a controller, an image display unit, and an audio output unit.

제어부는 자막을 표시하는 제1 언어를 설정하고, 음성을 출력하는 제2 언어를 제1 언어와 동일한 언어로 자동 설정한다. 영상 표시부는 제1 언어로 이루어진 자막 및 영상을 표시한다. 음성 출력부는 제2 언어로 이루어진 음성을 출력한다.The control unit sets a first language for displaying the subtitles, and automatically sets the second language for outputting the voice to the same language as the first language. The image display unit displays captions and images in the first language. The voice output unit outputs a voice in a second language.

바람직하게는, 영상처리장치는 디멀티플렉서, 영상 처리부 및 음성 처리부를 더 포함한다. 디멀티플렉서는 방송 신호를 영상에 대응하는 비디오 스트림, 음성에 대응하는 오디오 스트림 및 방송 프로그램에 대한 정보를 나타내는 프로그램 정보로 분리하여 출력한다. 영상 처리부는 다중화기로부터 비디오 스트림을 수신하고, 제1 언어에 대응하는 비디오 스트림을 영상 표시부에 제공한다. 음성 처리부는 다중화기로부터 오디오 스트림을 수신하고, 제2 언어에 대응하는 오디오 스트림을 음 성 출력부로 제공한다.Preferably, the image processing apparatus further includes a demultiplexer, an image processor, and an audio processor. The demultiplexer separates and outputs a broadcast signal into a video stream corresponding to an image, an audio stream corresponding to voice, and program information indicating information about a broadcast program. The image processor receives the video stream from the multiplexer and provides a video stream corresponding to the first language to the image display unit. The voice processor receives the audio stream from the multiplexer and provides an audio stream corresponding to the second language to the voice output unit.

이러한, 자막 서비스 방법 및 이를 수행하는 영상처리장치에 따르면, 영상처리장치는 자막 서비스 제공시, 자막을 표시하는 언어가 설정됨에 따라 음성을 표시하는 언어가 자동으로 설정한다. 이에 따라, 영상처리장치는 자막 서비스 이용시 사용자의 입력 과정을 단순화할 수 있으므로, 사용자의 편의성을 향상시킬 수 있다.According to the caption service method and the image processing apparatus that performs the same, the image processing apparatus automatically sets the language for displaying the audio when the caption service is provided, as the language for displaying the caption is set. Accordingly, the image processing apparatus may simplify the input process of the user when using the subtitle service, thereby improving user convenience.

이하, 첨부한 도면을 참조하여, 본 발명을 보다 상세하게 설명하고자 한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail the present invention.

도 1은 본 발명의 일실시예에 따른 디지털 텔레비전을 개략적으로 나타낸 블럭도이다.1 is a block diagram schematically showing a digital television according to an embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 디지털 텔레비전(100)은 튜너(105), 디멀리티플렉서(110), 메모리(115), 입력 단말기(120), 제어부(125), 영상 처리부(130), OSD(On Screen Display) 처리부(135), 영상 표시부(140), 음성 처리부(145) 및 음성 출력부(150)를 포함한다.Referring to FIG. 1, the digital television 100 according to the present invention includes a tuner 105, a demultiplexer 110, a memory 115, an input terminal 120, a controller 125, and an image processor 130. , An on screen display (OSD) processor 135, an image display unit 140, an audio processor 145, and an audio output unit 150.

구체적으로, 튜너(105)는 다수의 채널 중에서 입력 채널을 선국하고, 입력 채널에 대응하는 방송 신호를 안테나(200)로부터 수신하여 디멀티플렉서(110)에 제공한다.In detail, the tuner 105 tunes an input channel among a plurality of channels, receives a broadcast signal corresponding to the input channel from the antenna 200, and provides the demultiplexer 110.

디멀티플렉서(110)는 튜너(105)로부터 수신된 방송 신호를 비디오 스트림(stream), 오디오 스트림 및 프로그램 정보로 분리하여 출력한다. 디멀티플렉서(110)는 비디오 스트림을 영상 처리부(130)에 제공하고, 오디오 스트림을 음성 처리부(145)에 제공하며, 프로그램 정보를 메모리(115)에 제공한다.The demultiplexer 110 separates and outputs a broadcast signal received from the tuner 105 into a video stream, an audio stream, and program information. The demultiplexer 110 provides a video stream to the image processor 130, provides an audio stream to the voice processor 145, and provides program information to the memory 115.

비디오 스트림은 방송 프로그램에 대응하는 영상을 출력하는 신호이다. 비디오 스트림은 영상에 대응하는 영상 데이터 및 자막에 대응하는 자막 데이터를 포함한다. 자막 데이터는 영상과 함께 무조건 표시되는 일반 자막 및 사용자의 선택에 따라 표시되는 폐쇄 자막(Closed caption)을 포함한다. 폐쇄 자막은 사용자의 선택에 따라 영상과 함께 표시되며, 음성으로 출력되는 말을 자막으로 표시한다. 폐쇄 자막은 음성과 마찬가지로 다양한 언어로 표현될 수 있으며, 영상에 대응하여 실시간으로 표시된다. 폐쇄 자막은 다양한 언어로 표시될 수 있으므로, 이에 따라, 비디오 스트림은 다양한 언어로 이루어진 자막 데이터를 포함한다.The video stream is a signal for outputting an image corresponding to a broadcast program. The video stream includes image data corresponding to an image and subtitle data corresponding to a subtitle. The caption data includes a normal caption displayed unconditionally along with an image and a closed caption displayed according to a user's selection. The closed caption is displayed with the image according to the user's selection, and the closed caption is displayed as the caption. Closed captions can be expressed in various languages as well as voice, and are displayed in real time corresponding to the image. Since the closed captions can be displayed in various languages, the video stream thus includes caption data in various languages.

오디오 스트림은 방송 프로그램에 대응하는 음성을 출력하는 신호이다. 하나의 비디오 스트림에 대응하여 여러 언어로 이루어진 오디오 스트림들이 존재한다. 즉, 하나의 영상에 대응하는 음성은 여러 언어로 이루어질 수 있으므로, 이에 따라, 오디오 스트림들은 각 언어에 대응하여 형성된다.The audio stream is a signal for outputting voice corresponding to the broadcast program. There are audio streams in multiple languages corresponding to one video stream. That is, the audio corresponding to one image may be made in several languages. Accordingly, audio streams are formed corresponding to each language.

프로그램 정보는 각 채널들로부터 수신된 방송 프로그램들에 대한 구체적인 정보, 예컨대, 방송 프로그램 제목, 방영 시간, 등장 인물, 줄거리, 방송 프로그램에서 폐쇄 자막으로 지원될 수 있는 언어의 종류, 방송 프로그램에서 음성으로 지원될 수 있는 언어의 종류 등을 포함한다. The program information may include specific information about broadcast programs received from each channel, for example, a broadcast program title, a broadcast time, a character, a story line, a type of language that can be supported as closed captions in a broadcast program, and a broadcast program to voice. This includes the kind of languages that can be supported.

한편, 메모리(115)는 디멀티플렉서(110)로부터 수신된 프로그램 정보를 저장하며, 프로그램 정보 이외에도 디지털 텔레비전(100)의 구동에 필요한 다양한 데이터를 저장한다.The memory 115 stores program information received from the demultiplexer 110, and stores various data necessary for driving the digital television 100 in addition to the program information.

입력 단말기(120)는 사용자의 조작에 의해 소정의 명령을 생성하여 출력한 다. 입력 단말기(120)는 디지털 텔레비전(100)의 본체와 일체로 형성된 키 패널이나 디지털 텔레비전(100)의 본체와 분리되어 형성된 리모트 컨트롤러로 구현될 수 있다.The input terminal 120 generates and outputs a predetermined command by a user's manipulation. The input terminal 120 may be implemented as a key panel integrally formed with the main body of the digital television 100 or a remote controller formed separately from the main body of the digital television 100.

입력 단말기(120)는 임의의 채널을 설정하거나, 음성 출력부(150)의 볼륨 크기를 조절하는 명령을 생성하여 제어부(125)에 제공한다. 또한, 입력 단말기(120)는 음성에 대응하는 폐쇄 자막을 요청하는 자막 서비스 명령을 생성하여 출력한다. 이 실시예에 있어서, 본 발명에 따른 디지털 텔레비전(100)에서 제공하는 자막 서비스는 폐쇄 자막을 그 대상으로 한다. 따라서, 이하에서는, '폐쇄 자막'을 '자막'이라 칭한다.The input terminal 120 sets an arbitrary channel or generates a command for adjusting the volume of the voice output unit 150 and provides the command to the controller 125. In addition, the input terminal 120 generates and outputs a caption service command for requesting closed captions corresponding to voice. In this embodiment, the subtitle service provided by the digital television 100 according to the present invention is a closed caption. Therefore, hereinafter, 'closed caption' is referred to as 'subtitle'.

제어부(125)는 입력 단말기(120)로부터 수신된 명령에 따라 튜너(105), 메모리(115), 영상 처리부(130), OSD 처리부(135) 및 음성 처리부(145)를 각각 제어하는 제어 신호들을 생성하고, 각 제어 신호를 해당 구성 요소에 제공한다.The control unit 125 controls control signals for controlling the tuner 105, the memory 115, the image processing unit 130, the OSD processing unit 135, and the audio processing unit 145, respectively, according to a command received from the input terminal 120. Generate and provide each control signal to the corresponding component.

제어부(125)는 입력 단말기(120)로부터 자막 서비스 명령이 수신되면, 메모리(115)에 저장된 프로그램 정보에서 자막을 지원하는 언어의 종류를 참조하여 자막을 표시할 제1 언어를 결정한다. 제어부(125)는 자막 언어로 형성된 자막을 표시하도록 영상 처리부(130)를 제어하는 제1 제어 신호를 생성하여 영상 처리부(145)에 제공한다. 또한, 제어부(125)는 메모리(115)에 저장된 프로그램 정보에서 음성을 지원하는 언어의 종류를 참조하여 음성을 표시할 제2 언어를 설정한다. 제어부(125)는 제2 언어로 이루어진 음성을 출력하도록 음성 처리부(145)를 제어하는 제2 제어 신호를 생성하여 음성 처리부(145)에 제공한다.When the caption service command is received from the input terminal 120, the controller 125 determines the first language in which the caption is to be displayed by referring to the type of language supporting the caption in the program information stored in the memory 115. The controller 125 generates a first control signal for controlling the image processor 130 to display the caption formed in the caption language, and provides the first control signal to the image processor 145. In addition, the controller 125 sets a second language in which the voice is to be displayed by referring to the type of language supporting the voice in the program information stored in the memory 115. The controller 125 generates a second control signal for controlling the voice processor 145 to output a voice in a second language and provides the second control signal to the voice processor 145.

한편, 영상 처리부(130)는 디멀티플렉서(110)로부터 수신된 비디오 스트림을 디코딩하여 출력한다. 특히, 영상 처리부(130)는 제어부(125)로부터 제1 제어 신호가 수신되면, 자막에 대응하는 비디오 스트림 중에서 제1 언어로 이루어진 비디오 스트림을 디코딩하여 영상 표시부(140)에 제공한다.Meanwhile, the image processor 130 decodes and outputs a video stream received from the demultiplexer 110. In particular, when the first control signal is received from the controller 125, the image processor 130 decodes a video stream of the first language from the video stream corresponding to the subtitle and provides the decoded video stream to the image display unit 140.

OSD 처리부(135)는 제어부(125)로부터 수신된 제어 신호에 따라 OSD 문자를 처리하여 영상 표시부(140)에 제공한다.The OSD processor 135 processes the OSD text according to the control signal received from the controller 125 and provides the OSD text to the image display 140.

영상 표시부(140)는 영상 처리부(130)로부터 비디오 스트림을 수신하여 영상을 표시하고, 음성에 대응하여 제1 언어로 이루어진 자막을 영상과 함께 표시한다.The image display unit 140 receives a video stream from the image processor 130 to display an image, and displays a caption in a first language with the image in response to the voice.

음성 처리부(145)는 디멀티플렉서(110)로부터 수신된 오디오 스트림을 디코딩하여 출력한다. 특히, 음성 처리부(145)는 제어부(125)로부터 제2 제어 신호가 수신 되면, 음성에 대응하는 오디오 스트림들 중에서 제2 언어로 이루어진 오디오 스트림을 디코딩하여 음성 출력부(150)에 제공한다.The voice processor 145 decodes and outputs the audio stream received from the demultiplexer 110. In particular, when the second control signal is received from the controller 125, the voice processor 145 decodes an audio stream of a second language among audio streams corresponding to the voice and provides the decoded audio stream to the voice output unit 150.

음성 출력부(150)는 음성 처리부(130)로부터 오디오 스트림을 수신하여 제2 언어로 이루어진 음성을 출력한다.The voice output unit 150 receives an audio stream from the voice processor 130 and outputs a voice in a second language.

도 2는 본 발명의 일실시예에 따른 디지털 텔레비전에서 자막 서비스를 제공하는 과정을 나타낸 흐름도이다.2 is a flowchart illustrating a process of providing a subtitle service in a digital television according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 먼저, 튜너(105)는 입력 단말기(120)로부터 수신된 채널 번호에 대응하는 채널을 선국하고, 선택된 채널로부터 방송 신호를 수신한다(단계 S310).1 and 2, first, the tuner 105 tunes a channel corresponding to a channel number received from the input terminal 120, and receives a broadcast signal from the selected channel (step S310).

디멀티플렉서(110)는 튜너(105)로부터 수신된 방송 신호를 오디오 스트림, 비디오 스트림 및 프로그램 정보로 분리하여 출력한다.(단계 S320).The demultiplexer 110 separates and outputs the broadcast signal received from the tuner 105 into an audio stream, a video stream, and program information (step S320).

제어부(125)는 디멀티플렉서(110)로부터 출력된 프로그램 정보를 메모리(115)에 저장한다.The controller 125 stores the program information output from the demultiplexer 110 in the memory 115.

영상 처리부(130)는 디멀티플렉서(110)로부터 수신된 비디오 스트림을 디코딩하여 영상 표시부(140)에 제공하고, 영상 표시부(140)는 비디오 스트림에 대응하는 영상을 표시한다. 음성 처리부(145)는 디멀티플렉서(110)로부터 수신된 오디오 스트림을 디코딩하여 음성 출력부(150)에 제공하고, 음성 출력부(150)는 오디오 스트림에 대응하는 음성을 출력한다. 이로써, 디지털 텔레비전(100)은 방송 신호에 대응하는 방송 프로그램을 표시한다(단계 S340).The image processor 130 decodes the video stream received from the demultiplexer 110 to provide it to the image display unit 140, and the image display unit 140 displays an image corresponding to the video stream. The voice processor 145 decodes the audio stream received from the demultiplexer 110 and provides the decoded audio stream to the voice output unit 150, and the voice output unit 150 outputs a voice corresponding to the audio stream. As a result, the digital television 100 displays a broadcast program corresponding to the broadcast signal (step S340).

제어부(125)는 사용자의 조작에 의해 입력 단말기(120)로부터 자막 서비스 명령(350)이 수신되었는지 여부를 판단한다(단계 S350).The controller 125 determines whether the caption service command 350 has been received from the input terminal 120 by the user's manipulation (step S350).

단계 S350에서, 제어부(125)는 자막 서비스 명령이 수신되지 않은 것으로 판단되면, 현재 상태를 유지한다(단계 S340).If it is determined in step S350 that the caption service command has not been received, the control unit 125 maintains the current state (step S340).

단계 S350에서, 제어부(125)는 자막 서비스 명령이 수신된 것으로 판단되면, 현재 표시된 방송 프로그램에서 자막을 지원하는 언어들 중 사용자가 지정하는 언어를 자막을 표시하기 위한 제1 언어로 설정한다(단계 S360). 제1 언어를 설정하는 과정은 후술하는 도 3에서 구체적으로 설명하기로 한다.If it is determined in step S350 that the caption service command is received, the controller 125 sets a language designated by the user as a first language for displaying captions among languages that support captions in the currently displayed broadcast program (step S350). S360). A process of setting the first language will be described in detail later with reference to FIG. 3.

제어부(125)는 현재 표시된 방송 프로그램에서 음성을 지원하는 언어들 중 제1 언어와 동일한 언어를 음성을 출력하기 위한 제2 언어로 자동 설정한다(단계 S370). 예컨대, 제1 언어가 영어로 설정되면, 제2 언어 또한 영어로 설정된다. 이 와 같이, 제어부(125)는 자막을 표시할 제1 언어가 결정됨에 따라 제2 언어를 제1 언어와 동일한 언어로 자동 설정한다. 이에 따라, 사용자는 한 번의 언어 선택으로 자막 및 음성을 각각 표시할 언어를 모두 설정할 수 있으므로, 디지털 텔레비전(100)은 사용자의 편의성을 향상시킬 수 있다.The controller 125 automatically sets the same language as the first language among the languages that support the voice in the currently displayed broadcast program as the second language for outputting the voice (step S370). For example, if the first language is set to English, the second language is also set to English. As such, the controller 125 automatically sets the second language to the same language as the first language as the first language to display the subtitles is determined. Accordingly, since the user can set both the language for displaying the subtitles and the voice with one language selection, the digital television 100 can improve the user's convenience.

단계 S370의 제2 언어를 설정하는 과정은 도 5에서 구체적으로 설명하기로 한다.A process of setting the second language in step S370 will be described in detail with reference to FIG. 5.

한편, 영상 처리부(130)는 제1 언어에 대응하는 비디오 스트림을 디코딩하여 영상 표시부(140)에 제공하고, 영상 표시부(140)는 비디오 스트림에 대응하는 영상 및 제1 언어로 형성된 자막을 표시한다(단계 S380). 예컨대, 제1 언어가 영어로 설정되면, 음성에 대응하는 영어 자막이 영상과 함께 표시된다.Meanwhile, the image processor 130 decodes a video stream corresponding to the first language and provides the decoded video stream to the image display unit 140, and the image display unit 140 displays an image corresponding to the video stream and a caption formed in the first language. (Step S380). For example, if the first language is set to English, English subtitles corresponding to the voice are displayed together with the image.

음성 처리부(145)는 제2 언어에 대응하는 오디오 스트림을 디코딩하여 음성 출력부(150)에 제공하고, 음성 출력부(150)는 오디오 스트림에 대응하여 제2 언어로 이루어진 음성을 출력한다(단계 S390). 예컨대, 제2 언어가 영어로 설정되면, 영어 음성이 출력된다.The voice processor 145 decodes the audio stream corresponding to the second language and provides the decoded audio stream to the voice output unit 150, and the voice output unit 150 outputs the voice in the second language corresponding to the audio stream (step S390). For example, if the second language is set to English, English voice is output.

도 3은 도 2에 도시된 자막 표시 언어를 설정하는 과정을 나타낸 흐름도이고 도 4는 도 2에 도시된 자막 서비스 메뉴 화면의 일례를 나타낸 도면이다.3 is a flowchart illustrating a process of setting a caption display language illustrated in FIG. 2, and FIG. 4 is a diagram illustrating an example of a caption service menu screen illustrated in FIG. 2.

도 1 및 도 3을 참조하면, 먼저, 영상 표시부(150)는 자막 서비스 명령에 대응하여 자막을 표시할 언어 및 자막 표시 방법 등을 선택하는 자막 서비스 메뉴들을 표시한다(단계 S361). 여기서, 자막 서비스 메뉴들을 표시하는 화면은, 예컨대, 도 4와 같이 구성할 수 있다.1 and 3, first, the video display unit 150 displays subtitle service menus for selecting a language for displaying a subtitle, a subtitle display method, and the like in response to a subtitle service command (step S361). Here, the screen displaying the subtitle service menus may be configured, for example, as shown in FIG. 4.

도 4를 참조하면, 자막 서비스 메뉴들은 제1 내지 제4 자막 서비스 메뉴(130a, 130b, 130c, 130d)로 이루어진다. 이 실시예에 있어서, 자막 서비스 메뉴들은 네 개의 자막 서비스 메뉴(130a, 130b, 130c, 130d)로 이루어지나, 자막 서비스 메뉴의 개수는 자막 서비스의 개발 의도에 따라 증가 되거나, 감소 될 수 있다.Referring to FIG. 4, the caption service menus include first to fourth caption service menus 130a, 130b, 130c, and 130d. In this embodiment, the subtitle service menus are composed of four subtitle service menus 130a, 130b, 130c, and 130d, but the number of subtitle service menus may be increased or decreased depending on the intention of developing the subtitle service menu.

디지털 텔레비전(100)은 제1 내지 제4 자막 서비스 메뉴(130a, 130b, 130c, 130d)에 따라 자막을 표시하는 언어의 종류 및 자막 표시 방법을 달리할 수 있다. The digital television 100 may change a type of subtitle display language and a subtitle display method according to the first to fourth subtitle service menus 130a, 130b, 130c, and 130d.

예컨대, 제1 자막 서비스 메뉴(130a)는 원어 자막을 스크롤 캡션(Scroll caption) 방식으로 표시하고, 제2 자막 서비스 메뉴(130b)는 원어 자막을 팝-업 캡션(Pop-up caption) 방식으로 표시하며, 제3 자막 서비스 메뉴는 한국어 자막을 스크롤 캡션 방식으로 표시하고, 제4 자막 서비스 메뉴는 한국어 자막을 팝-업 캡션 방식으로 표시하도록 구성할 수 있다. 여기서, 스크롤 캡션 방식은 자막이 아래 라인에서 위 라인으로 올라가도록 자막을 표시하고, 팝-업 캡션 방식은 두세 줄 씩 한꺼번에 캡션이 나타났다 사라지도록 자막을 표시한다.For example, the first subtitle service menu 130a displays the original subtitles in a scroll caption manner, and the second subtitle service menu 130b displays the original subtitles in a pop-up caption manner. The third subtitle service menu may display Korean subtitles in a scroll caption manner, and the fourth subtitle service menu may display Korean subtitles in a pop-up caption manner. Here, the scroll caption method displays the caption so that the caption rises from the lower line to the upper line, and the pop-up caption method displays the caption so that the caption appears and disappears at a time by two or three lines.

다시, 도 1 및 도 3을 참조하면, 입력 단말기(120)는 사용자의 조작에 의해 표시된 자막 서비스 메뉴들 중에서 임의의 자막 서비스 메뉴를 하나 선택한다(단계 S362).1 and 3 again, the input terminal 120 selects one of the subtitle service menus from the subtitle service menus displayed by the user's operation (step S362).

제어부(125)는 메모리(115)에 저장된 프로그램 정보를 검색하여 현재 방송 프로그램에서 자막으로 지원하는 언어들의 종류를 추출하고, 자막을 지원하는 언어들 중에서 선택된 자막 서비스 메뉴에 대응하는 언어를 검색한다(단계 S363).The controller 125 searches for program information stored in the memory 115 to extract the types of languages supported by the current broadcast program as subtitles, and searches for a language corresponding to the selected subtitle service menu among the languages that support the subtitles ( Step S363).

제어부(125)는 자막 서비스 메뉴에 대응하는 언어를 제1 언어로 설정한다(단 계 S363). 예컨대, 단계 S362에서 선택된 메뉴가 제1 자막 서비스 메뉴(130a)(도 4)일 경우, 원어 자막이 선택된다. 이때, 방송 프로그램에 대응하는 원어가 영어이면, 제1 언어는 영어가 되며, 영상 표시부(140)에는 영어 자막이 표시된다.The controller 125 sets the language corresponding to the subtitle service menu as the first language (step S363). For example, if the menu selected in step S362 is the first subtitle service menu 130a (FIG. 4), the original subtitle is selected. At this time, if the original language corresponding to the broadcast program is English, the first language is English, and the English subtitle is displayed on the image display unit 140.

도 5는 도 2에 도시된 음성 출력 언어를 설정하는 과정을 나타낸 흐름도이다.FIG. 5 is a flowchart illustrating a process of setting a voice output language shown in FIG. 2.

도 5를 참조하면, 먼저, 제어부(125)는 메모리(115)에 저장된 프로그램 정보를 검색하여 현재 방송 프로그램에서 음성으로 지원하는 언어들의 종류를 추출한다(단계 S371).Referring to FIG. 5, first, the controller 125 searches for program information stored in the memory 115 and extracts the types of languages supported by the voice of the current broadcast program (step S371).

제어부(125)는 음성을 지원하는 언어들 중에서 제1 언어와 동일한 언어를 검색한다(단계 S372).The controller 125 searches for the same language as the first language among the languages supporting the voice (step S372).

제어부(125)는 단계 S372의 검색 결과를 이용하여 음성을 지원하는 언어들 중에서 제1 언어와 동일한 언어가 존재하는지 여부를 판단한다(단계 S373).The controller 125 determines whether the same language as the first language exists among languages that support voice using the search result of step S372 (step S373).

단계 S373에서, 제1 언어와 동일한 언어가 존재하는 것으로 판단되면, 제어부(125)는 제1 언어와 동일한 언어를 제2 언어로 설정한다(단계 S374). 이로써, 음성은 자막과 동일한 언어로 설정된다. 이와 같이, 디지털 텔레비전(100)은 제1 언어에 따라 제2 언어를 자동으로 설정하기 때문에, 사용자는 자막을 표시할 언어 및 음성을 출력할 언어를 각각 개별적으로 선택해야 하는 번거로움을 해소할 수 있다.If it is determined in step S373 that the same language as the first language exists, the controller 125 sets the same language as the first language as the second language (step S374). Thus, the voice is set in the same language as the subtitle. In this way, since the digital television 100 automatically sets the second language according to the first language, the user can eliminate the inconvenience of having to individually select a language for displaying subtitles and a language for outputting audio. have.

한편, 단계 S373에서, 음성을 지원하는 언어들 중에서 제1 언어와 동일한 언어가 존재하지 않는 것으로 판단되면, 영상 표시부(140)는 제1 언어와 동일한 언어가 없음을 나타내는 안내 메시지를 표시하고, 음성을 지원하는 언어들의 종류를 표 시한다(단계 S375).On the other hand, if it is determined in step S373 that there is no language identical to the first language among the languages supporting the voice, the image display unit 140 displays a guide message indicating that there is no language identical to the first language, Types of languages that support the are indicated (step S375).

입력 단말기(120)는 사용자의 조작에 따라 음성을 지원하는 언어들 중에서 임의의 어느 한 언어를 선택한다(단계 S376).The input terminal 120 selects any one of the languages that support voice according to the user's operation (step S376).

제어부(125)는 단계 S376에서 선택된 언어를 제2 언어로 설정한다(단계 S376). 이러한 경우, 음성은 자막과 다른 언어로 출력된다.The controller 125 sets the language selected in step S376 as the second language (step S376). In this case, the audio is output in a language different from the subtitles.

상술한 본 발명에 따르면, 디지털 텔레비전은 자막 서비스 제공시, 자막을 표시할 언어의 종류가 설정되면, 자동으로 음성을 출력할 언어를 자막과 동일한 언어로 설정한다. 이에 따라, 사용자는 자막 서비스 이용시, 음성을 출력할 언어를 추가로 선택할 필요없이 자막을 표시할 언어만 선택하면 된다. 이와 같이, 디지털 텔레비전은 자막 서비스 제공시, 사용자의 입력 과정을 단순화할 수 있으므로, 사용자의 편의성을 향상시킬 수 있다.According to the present invention described above, when the subtitle service is provided, the digital television sets a language for automatically outputting audio to the same language as the subtitle when the type of the language for displaying the subtitle is set. Accordingly, when the user uses the subtitle service, the user only needs to select a language for displaying the subtitle without additionally selecting a language for outputting the voice. As such, the digital television may simplify the input process of the user when providing the subtitle service, thereby improving user convenience.

이상에서는 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to the embodiments, those skilled in the art can be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below. I can understand.

Claims (5)

방송 신호를 수신하여 영상 및 음성을 출력하는 영상처리장치에서 상기 음성에 대응하여 자막을 제공하는 자막 서비스 방법에 있어서,A subtitle service method of providing a subtitle in response to the audio in an image processing apparatus that receives a broadcast signal and outputs an image and audio, (a) 자막 서비스 명령이 입력됨에 따라 임의의 언어를 자막 언어로 설정하는 단계;(a) setting an arbitrary language as a caption language as a caption service command is input; (b) 상기 음성을 지원하는 언어들 중 상기 자막 언어와 동일한 언어가 존재하면, 음성 언어를 상기 자막 언어와 동일한 언어로 설정하는 단계;(b) setting a voice language to the same language as the subtitle language when the same language as the subtitle language exists among the languages supporting the voice; (c) 상기 음성을 지원하는 언어들 중 상기 자막 언어와 동일한 언어가 존재하지 않으면, 상기 음성 언어를 사용자에 의해 선택된 언어로 설정하는 단계;(c) if the same language as the subtitle language does not exist among languages that support the voice, setting the voice language as a language selected by the user; (d) 상기 영상을 설정된 자막 언어로 이루어진 자막과 함께 표시하는 단계; 및(d) displaying the video with a caption in a set caption language; And (e) 설정된 음성 언어로 이루어진 음성을 출력하는 단계;를 포함하는 것을 특징으로 하는 자막 서비스 방법.(e) outputting a voice in a set voice language. 제1항에 있어서, 상기 단계(a)는,The method of claim 1, wherein step (a) (a-1) 상기 자막 서비스 명령이 입력됨에 따라 자막 서비스 메뉴들을 표시하는 단계;(a-1) displaying caption service menus as the caption service command is input; (a-2) 상기 자막 서비스 메뉴들 중에서 임의의 자막 서비스 메뉴를 선택하는 단계;(a-2) selecting an optional subtitle service menu from among the subtitle service menus; (a-3) 상기 자막을 지원하는 언어들 중에서 상기 자막 서비스 메뉴에 대응하는 언어를 상기 방송 신호에 포함된 프로그램 정보로부터 추출하는 단계; 및(a-3) extracting a language corresponding to the subtitle service menu from among languages that support the subtitle from program information included in the broadcast signal; And (a-4) 상기 자막 서비스 메뉴에 대응하는 언어를 상기 자막 언어로 설정하는 단계를 포함하는 것을 특징으로 하는 자막 서비스 방법.A subtitle service method comprising: setting a language corresponding to the subtitle service menu as the subtitle language. 제1항에 있어서, 상기 단계(b)는,The method of claim 1, wherein step (b) comprises: (b-1) 상기 방송 신호에 포함된 프로그램 정보를 검색하여 상기 음성을 지원하는 언어의 종류를 추출하는 단계; 및(b-1) extracting a type of language that supports the voice by searching for program information included in the broadcast signal; And (b-2) 상기 음성을 지원하는 언어들 중에서 상기 자막 언어와 동일한 언어를 추출하여 상기 음성 언어로 설정하는 단계를 포함하는 것을 특징으로 하는 자막 서비스 방법.(b-2) extracting a language identical to the subtitle language among the languages supporting the voice and setting the same as the voice language. 방송 신호를 수신하여 방송 프로그램에 대응하는 영상 및 음성을 출력하고, 상기 음성에 대응하여 자막을 제공하는 영상처리장치에 있어서,An image processing apparatus for receiving a broadcast signal and outputting a video and audio corresponding to a broadcast program, and providing a subtitle corresponding to the audio, 상기 자막에 대한 자막 언어를 설정하고, 상기 음성을 지원하는 언어들 중 상기 자막 언어와 동일한 언어가 존재하면 상기 음성 언어를 상기 자막 언어와 동일한 언어로 설정하고, 상기 음성을 지원하는 언어들 중 상기 자막 언어와 동일한 언어가 존재하지 않으면 상기 음성 언어를 사용자에 의해 선택된 언어로 설정하는 제어부;Set a subtitle language for the subtitle, set the voice language to the same language as the subtitle language if the same language as the subtitle language exists among the languages that support the voice; A controller configured to set the voice language to a language selected by a user if a language identical to a subtitle language does not exist; 상기 제어부에 의해 설정된 자막 언어로 이루어진 자막 및 상기 영상을 표시하는 영상 표시부; 및An image display unit for displaying a caption and the image in a caption language set by the controller; And 상기 제어부에 의해 설정된 음성 언어로 이루어진 음성을 출력하는 음성 출력부를 포함하는 것을 특징으로 하는 영상처리장치.And an audio output unit configured to output a voice in a voice language set by the controller. 제4항에 있어서, The method of claim 4, wherein 상기 방송 신호를 상기 영상에 대응하는 비디오 스트림, 상기 음성에 대응하는 오디오 스트림 및 상기 방송 프로그램에 대한 정보를 나타내는 프로그램 정보로 분리하여 출력하는 디멀티플렉서;A demultiplexer for separating and outputting the broadcast signal into a video stream corresponding to the video, an audio stream corresponding to the voice, and program information representing information about the broadcast program; 상기 디멀티플렉서로부터 상기 비디오 스트림을 수신하고, 상기 자막 언어에 대응하는 비디오 스트림을 상기 영상 표시부에 제공하는 영상 처리부; 및An image processor which receives the video stream from the demultiplexer and provides a video stream corresponding to the subtitle language to the image display unit; And 상기 디멀티플렉서로부터 상기 오디오 스트림을 수신하고, 상기 음성 언어에 대응하는 오디오 스트림을 상기 음성 출력부에 제공하는 음성 처리부를 더 포함하는 것을 특징으로 하는 영상처리장치.And a speech processor configured to receive the audio stream from the demultiplexer and provide an audio stream corresponding to the speech language to the speech output unit.
KR1020050097071A 2005-10-14 2005-10-14 Method of closed caption service and display processing apparatus thereof KR100726439B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050097071A KR100726439B1 (en) 2005-10-14 2005-10-14 Method of closed caption service and display processing apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050097071A KR100726439B1 (en) 2005-10-14 2005-10-14 Method of closed caption service and display processing apparatus thereof

Publications (2)

Publication Number Publication Date
KR20070041187A KR20070041187A (en) 2007-04-18
KR100726439B1 true KR100726439B1 (en) 2007-06-11

Family

ID=38176693

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050097071A KR100726439B1 (en) 2005-10-14 2005-10-14 Method of closed caption service and display processing apparatus thereof

Country Status (1)

Country Link
KR (1) KR100726439B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100824321B1 (en) * 2007-02-16 2008-04-22 삼성전자주식회사 Method of playing digital broadcasting in portable terminal

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980047718A (en) * 1996-12-16 1998-09-15 구자홍 Caption Control Method in Voice Multiple Broadcasting
KR20030037382A (en) * 2001-11-03 2003-05-14 엘지전자 주식회사 Method and apparatus for displaying an additional function of digital broadcasting program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980047718A (en) * 1996-12-16 1998-09-15 구자홍 Caption Control Method in Voice Multiple Broadcasting
KR20030037382A (en) * 2001-11-03 2003-05-14 엘지전자 주식회사 Method and apparatus for displaying an additional function of digital broadcasting program

Also Published As

Publication number Publication date
KR20070041187A (en) 2007-04-18

Similar Documents

Publication Publication Date Title
KR0129965B1 (en) Multi-words on screen display apparatus & method
JP4986438B2 (en) Information output method at channel switching in digital broadcast receiver
US7961258B2 (en) Image display apparatus having sound level control function and control method thereof
JP2010200085A (en) Video apparatus
JP2009088634A (en) Digital television receiver
JP4989271B2 (en) Broadcast receiver and display method
KR20100030379A (en) Broadcast receiver for displaying description of terminology included in digital captions and method for processing digital captions applying the same
KR100726439B1 (en) Method of closed caption service and display processing apparatus thereof
CN100414976C (en) Caption treating device
JP2007235794A (en) Television receiver
JP2008005190A (en) Television set
JP2009260685A (en) Broadcast receiver
US20090232478A1 (en) Audio service playback method and apparatus thereof
KR101351047B1 (en) Video device and method controlling caption using it
KR100292358B1 (en) Method for controlling displaying caption signal according to limitation condition
KR100548604B1 (en) Image display device having language learning function and learning method thereof
JP2006304156A (en) Station selection method and apparatus, and display apparatus
KR100323680B1 (en) Method and apparatus for displaying literature of the TV
KR100618227B1 (en) Method and apparatus for processing a caption of an image display device
EP3554092A1 (en) Video system with improved caption display
JPH10313447A (en) Television receiver
JP2006050215A (en) Video image display apparatus
JP2008054188A (en) Display device
JP3950894B2 (en) Receiver
KR100636782B1 (en) Caption data processing apparatus and the method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20130530

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140529

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150528

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160530

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170529

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180530

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee