KR20010091613A - method and apparatus for recording and replaying caption data and audio data - Google Patents

method and apparatus for recording and replaying caption data and audio data Download PDF

Info

Publication number
KR20010091613A
KR20010091613A KR1020000013478A KR20000013478A KR20010091613A KR 20010091613 A KR20010091613 A KR 20010091613A KR 1020000013478 A KR1020000013478 A KR 1020000013478A KR 20000013478 A KR20000013478 A KR 20000013478A KR 20010091613 A KR20010091613 A KR 20010091613A
Authority
KR
South Korea
Prior art keywords
caption
audio data
data
memory
memory address
Prior art date
Application number
KR1020000013478A
Other languages
Korean (ko)
Other versions
KR100341030B1 (en
Inventor
유태욱
Original Assignee
유태욱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유태욱 filed Critical 유태욱
Priority to KR1020000013478A priority Critical patent/KR100341030B1/en
Priority to CNB018066526A priority patent/CN1251486C/en
Priority to JP2001566546A priority patent/JP3722750B2/en
Priority to PCT/KR2001/000223 priority patent/WO2001069920A1/en
Publication of KR20010091613A publication Critical patent/KR20010091613A/en
Application granted granted Critical
Publication of KR100341030B1 publication Critical patent/KR100341030B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/60Receiver circuitry for the reception of television signals according to analogue transmission standards for the sound signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0884Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
    • H04N7/0885Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection for the transmission of subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Television Systems (AREA)
  • Studio Circuits (AREA)

Abstract

PURPOSE: An apparatus and a method for recording and playing caption data and audio data are provided to improve efficiency of study by recording and playing caption data and audio data. CONSTITUTION: A caption decoder(13) decodes closed caption data extracted from an input video signal(12). An A/D converter(15) converts input audio data to digital data. An input buffer(16) delays the audio data. A memory(18) stores the decoded caption data and the decoded audio data. A video controller(19) controls the caption data displayed on a screen of a monitor(20). The monitor(20) displays the caption data. An output buffer(21) stores the audio data transmitted from the memory(18). A D/A converter(22) converts the audio data to an analog audio signal. The analog audio signal is changed to a sound by a speaker(23). The decoded caption data and the audio data are stored in the memory(18). Memory addresses of the audio data and the caption data are displayed when a signal is received from the caption decoder(13). The caption data are transmitted from the memory(18) to the video controller(19). The audio data are transmitted from the memory(18) to the output buffer(21). A command input device(10) transmits commands to the microcomputer(11).

Description

캡션 데이타와 오디오 데이타를 기록,재생하는 방법 및 장치{method and apparatus for recording and replaying caption data and audio data}Method and apparatus for recording and replaying caption data and audio data

이 발명은 어학 학습을 위하여 캡션 데이타와 오디오 데이타를 기록하고 재생하는 방법과 장치에 관한 것이다.The present invention relates to a method and apparatus for recording and reproducing caption data and audio data for language learning.

클로우즈드 캡션 시스템(closed caption system)은 청각 장애자들이 대화나 말에 해당하는 캡션 자막을 읽을 수 있도록 채택되었다. 클로우즈드 캡션 표준은 미국 연방 통신 위원회(FCC)에 의해 정의된다. 그 표준은 클로우즈드 캡션 데이타(closed caption data)는 영상 신호의 기수 필드(odd field) 21번째 라인에 실리도록 규정한다. 그 클로우즈드 캡션 데이타는 캡션 제어 코드들, 캡션 문자 코드들, 혹은 캡션 문자들의 위치, 속성에 대한 정보들로 구성된다. 캡션 자막이 화면에 표시되는 방법에 따라 팝온 캡션 모드(Pop-On Caption Mode), 페인트온 캡션 모드(Paint-On Caption Mode)와 롤업 캡션 모드(Roll-Up Caption Mode)의 세가지 모드가 있다. 영화나 비데오 그리고 TV싯콤(TV Sitcoms)등에 사용되는 대부분의 오프라인 캡션닝(Off-Line Captioning, 녹화후 캡션을 입력하는 방법)에서는 팝온 캡션 모드가 사용된다. TV뉴스나 생방송등에 사용되는 온라인 캡션닝(On-Line Captioning, 실시간으로 캡션을 입력하는 방법)에서는 롤업 캡션 모드가 사용된다.Closed caption systems have been adopted to allow deaf people to read caption subtitles that correspond to conversation or speech. Closed caption standards are defined by the Federal Communications Commission (FCC). The standard specifies that closed caption data be carried on the 21st line of the odd field of the video signal. The closed caption data consists of caption control codes, caption character codes, or information about the location and attributes of caption characters. Depending on how the caption subtitles are displayed on the screen, there are three modes: pop-on caption mode, paint-on caption mode, and roll-up caption mode. Most of the offline captioning used in movies, videos, and TV Sitcoms, the pop-on caption mode is used. Roll-on caption mode is used in online captioning (TV-based live captioning).

클로우즈드 캡션 시스템은 또한 어학 학습을 위해 사용될 수 있다. 그 클로우즈드 캡션 시스템이 어학 학습용으로 사용될 때 사용자는 영화나 TV싯콤등 클로우즈드 캡션된 프로그램들을 녹화한 비데오 테잎(video tape)을 비데오 카셋 레코더(VCR)를 이용하여 재생해야 한다. 그러나 사용자가 캡션 자막을 선택해서 그 캡션 자막에 해당하는 음성 신호를 반복해서 재생하는 것은 매우 불편하며 쉽지가 않다. 사용자가 캡션 자막을 선택해서 그 캡션 자막에 해당하는 음성 신호를 반복해서 재생하려면 사용자는 비데오 테잎을 앞뒤로 되감아서 적절할 위치에서 그 테잎을 재생하는 것을 반복해야 한다.Closed caption systems can also be used for language learning. When the closed caption system is used for language learning, the user must play a video cassette recorder (VCR) that records closed captioned programs such as movies or TV sets. However, it is very inconvenient and not easy for a user to select a caption caption and repeatedly play the audio signal corresponding to the caption caption. If the user selects a caption caption and repeatedly plays the audio signal corresponding to the caption caption, the user must rewind the video tape back and forth and repeat playing the tape at an appropriate position.

위에 언급한 문제를 개선하여 어학 학습을 위하여 사용자가 캡션 데이타 블럭들과 그에 해당하는 대화만을 포함하는 오디오 데이타 블럭들을 기록하고, 효과적으로 편리하게 그 캡션 데이타 블럭들과 그에 해당하는 오디오 데이타 블럭들을 재생할 수 있는 방법과 장치를 제공하는 것이다.By improving the problems mentioned above, the user can record audio data blocks containing only caption data blocks and corresponding conversations for language learning, and effectively and conveniently reproduce the caption data blocks and corresponding audio data blocks. To provide a method and apparatus.

도 1은 캡션 데이타와 오디오 데이타를 기록하고 재생하는 장치의 블록도.1 is a block diagram of an apparatus for recording and reproducing caption data and audio data.

도 2는 캡션 데이타와 오디오 데이타를 기록하는 방법을 보이는 플로우챠트.2 is a flowchart showing a method of recording caption data and audio data.

도 3은 캡션 데이타 블럭, 오디오 데이타 블럭과 대화의 타이밍을 보이는 도.3 shows caption data blocks, audio data blocks and timing of conversations;

도 4는 메모리에 저장된 캡션 데이타, 오디오 데이타와 메모리 주소 데이타의 메모리 맵을 보이는 도.Figure 4 shows a memory map of caption data, audio data and memory address data stored in the memory.

도 5는 캡션 데이타와 오디오 데이타를 재생하는 방법을 보이는 플로우챠트.5 is a flowchart showing a method of reproducing caption data and audio data.

도 6은 음성 정지와 음성 반복 기능을 갖는 캡션 데이타와 오디오 데이터를 재생하는 방법을 보이는 플로우챠트.Fig. 6 is a flowchart showing a method of reproducing caption data and audio data having voice stop and voice repeat functions.

도 7은 도 6의 i번째 블럭에서 음성 정지와 음성 반복 기능의 과정들을 보이는 플로우챠트.FIG. 7 is a flowchart showing processes of a voice stop and voice repeat function in the i-th block of FIG.

도 8은 캡션 데이타 블럭들을 스캔하는 방법을 보이는 플로우챠트.8 is a flowchart illustrating a method of scanning caption data blocks.

이 발명에 사용되는 캡션의 화면표시와 캡션의 소거를 지정하는 캡션 제어 코드들과 그들의 타이밍(timing)을 먼저 기술한다. 영화나 비데오(video), TV싯콤(TV sitcoms)등에 사용되는 오프라인 캡션닝(Off-Line Captioning, 녹화후 캡션을 입력시키는 방법)에서는 화면에 캡션이 나타나는 시간이 그 캡션에 해당하는 대화와 시간적으로 잘 일치되도록 클로우즈드 캡션 데이타(closed caption data)가 영상 신호의 21번째 라인에 실린다. 화면에 캡션을 표시하고 지우는 것은 캡션 제어 코드들에 의해 제어 된다. 캡션 화면표시를 지정하는 캡션 제어 코드가 수신될 때 캡션 데이타가 화면에 나타나고 캡션 소거를 지정하는 캡션 제어 코드가 수신될 때 그 캡션 데이타는 화면에서 지워진다. 그래서 캡션 화면표시를 지정하는 캡션 제어 코드의 수신 시간은 대략 대화의 시작 시간이고 캡션 소거를 지정하는 캡션 제어 코드의 수신 시간은 대략 대화의 종료 시간 이다. 그러므로 이들 캡션 제어 코드들의 수신 시간을 이용함으로써 캡션 데이타에 해당하는 대화를 녹음할수 있다. 또한 캡션 데이타와 오디오(audio) 데이타를 기록할 때 이들 캡션 제어 코드들의 수신 시간에 해당하는 캡션 데이타와 오디오 데이타의 메모리(memory) 주소들을 표시함으로써 그 표시된 메모리 주소들에 따라서 기록된 캡션 데이타와 오디오 데이타를 재생할 수 있다.The caption control codes for specifying the screen display of the caption and the erasing of the caption used in the present invention and their timing are described first. In off-line captioning, which is used for movies, videos, TV sitcoms, etc., the time the caption appears on the screen depends on the dialogue and the time corresponding to the caption. Closed caption data is placed on the 21st line of the video signal so that it matches well. Displaying and deleting captions on the screen is controlled by caption control codes. When caption control codes specifying caption display are received, caption data appears on the screen and when caption control codes specifying caption erasure are received, the caption data is erased from the screen. Thus, the reception time of the caption control code specifying the caption display is approximately the start time of the conversation and the reception time of the caption control code specifying the caption cancellation is approximately the end time of the conversation. Therefore, by using the reception time of these caption control codes, a dialogue corresponding to caption data can be recorded. Also, when caption data and audio data are recorded, the caption data and audio addresses of the caption data and audio data corresponding to the reception time of these caption control codes are indicated so that the caption data and audio recorded according to the displayed memory addresses are displayed. The data can be played back.

팝온 캡션 모드(Pop-On Caption Mode)에서는 캡션 화면표시와 캡션 소거를 지정하는 캡션 제어 코드들로써 각각 EOC 코드(End of Caption code)와 EDM 코드(Erase Display Memory code)를 사용할 수 있다. 팝온 캡션 모드에서, 팝온 캡션 모드를 지정하는 RCL 코드(Resume Caption Loading code)가 수신된 후에 캡션 문자와 캡션 문자의 위치, 속성에 대한 정보를 포함하는 캡션 데이타가 수신된다. 그 캡션 데이타는 처음에는 비영상 메모리에 저장된다. 비영상 메모리에 저장된 캡션 데이타 블럭은 화면에 나타나지 않는다. EOC 코드가 수신되면 비영상 메모리와 영상 메모리가 서로 교환되고 캡션 데이타 블럭이 영상 메모리에 저장되어 화면에 나타난다. EDM 코드가 수신될 때 화면에 표시된 캡션 데이타 블럭은 지워진다. 페인트온 캡션 모드(Paint-On Caption Mode)에서는 캡션 데이타가 페인트온 캡션 모드를 지정하는 RDC 코드(Resume Direct Caption code)뒤에 수신된다. 그 캡션 데이타는 직접 영상 메모리에 저장되고 화면에 나타난다. 화면에 표시된 캡션 데이타는 EDM 코드에 의해 지워진다. 그래서 페인트온 캡션 모드에서는 RDC 코드와 EDM 코드가 각각 캡션 화면표시와 캡션 소거를 지정하는 캡션 제어 코드들이 될 수 있다. 롤업 캡션 모드(Roll-Up Caption Mode)에서는 RU 코드(Roll-Up code)가 수신된 후에 캡션 데이타가 수신되고 화면에 나타난다. 그래서 롤업 캡션 모드에서는 RU 코드와 EDM 코드(혹은 Carriage Return 코드)가 각각 캡션 화면 표시와 캡션 소거를 지정하는 캡션 제어 코드들이 될 수 있다.In the pop-on caption mode, end-caption code and end-caption code can be used as caption control codes for caption display and caption erasure, respectively. In the pop-on caption mode, after receiving a caption loading code (RCL) that designates the pop-on caption mode, caption data including information about the caption character, the position of the caption character, and the attribute is received. The caption data is initially stored in non-image memory. Caption data blocks stored in non-image memory do not appear on the screen. When the EOC code is received, the non-image memory and the image memory are exchanged with each other, and the caption data block is stored in the image memory and displayed on the screen. When the EDM code is received, the caption data block displayed on the screen is erased. In Paint-On Caption Mode, caption data is received after a Resume Direct Caption code that specifies the paint-on caption mode. The caption data is stored directly in picture memory and displayed on the screen. The caption data displayed on the screen is erased by the EDM code. Thus, in paint-on caption mode, the RDC code and the EDM code can be caption control codes that specify caption display and caption erase, respectively. In Roll-Up Caption Mode, after the RU code is received, the caption data is received and displayed on the screen. Thus, in rollup caption mode, the RU code and EDM code (or Carriage Return code) can be caption control codes that specify caption display and caption cancellation, respectively.

이제 이들 캡션 화면 표시와 캡션 소거를 지정하는 캡션 제어 코드들과 그들의 타이밍을 사용하여 캡션 데이타와 오디오 데이타를 기록, 재생하는 방법과 장치를 상세히 기술한다.We now describe in detail the method and apparatus for recording and playing caption data and audio data using caption control codes that specify these caption screen display and caption cancellation and their timing.

도 1은 이 발명에 따른 캡션 데이타와 오디오 데이타의 기록과 재생을 위한 장치의 블럭도이다. 명령 입력 장치(10)는 기록명령, 재생명령등 사용자가 선택한 명령을 받아들여 마이콤(11)에 전달한다. 캡션 데이타와 오디오 데이타 기록을 위해 비데오 카셋 레코더(VCR)에서 출력되는 영상 신호가 영상 입력 터미날(12)을 통해 캡션 디코더(caption decoder)(13)에 입력되고 VCR에서 출력되는 오디오 신호가 오디오 입력 터미날(14)을 통해 아날로그-디지탈 변환기(ADC)(15)에 입력된다. ADC(15)는 입력된 아날로그 오디오 신호를 디지탈 오디오 데이타로 변환한다. 입력 버퍼(buffer)(16)는 오디오 데이타를 FIFO(First-In First-Out)식으로 저장한다. 입력 버퍼(16)는 최대시간 dt1만큼의 오디오 데이타를 저장할 수 있다. 만일 마이콤(11)으로 부터 신호가 없으면 입력 버퍼(16)는 시간 dt1후에 처음 입력된 순으로 오디오 데이타를 지운다. 캡션 디코더(13)는 입력된 영상 신호로 부터 2 바이트 클로우즈드 캡션 데이타를 추출하고 디코드한다. 캡션 문자이거나 캡션 문자의 위치, 속성에 대한 정보를 포함하는 디코드된 캡션 데이타는 버스(bus)(17)를 경유하여 마이콤(11)으로 공급된다. 마이콤(11)은 캡션 데이타를 메모리(18)에 저장하고 또 그 캡션 데이타를 영상 제어기(19)에 전달한다. 영상 제어기(19)는 캡션 데이타를모니터(monitor)(20)에 나타낸다. 캡션 디코더(13)는 또한 캡션 화면표시와 캡션 소거를 지정하는 캡션 제어 코드들을 탐지한다. 캡션 디코더(13)가 캡션 화면표시를 지정하는 캡션 제어 코드를 탐지하면 마이콤(11)에 신호를 보낸다. 그때 마이콤(11)은 지금까지 저장된 캡션 데이타 블럭(block)의 마지막 메모리 주소를 따로 메모리(18)에 저장하고 오디오 데이타를 메모리(18)에 저장하기 시작하고 그 오디오 데이타 블럭의 시작 메모리 주소를 따로 메모리(18)에 저장한다. 캡션 디코더(13)가 캡션 소거를 지정하는 캡션 제어 코드를 탐지하면 마이콤(11)에 신호를 보내고 마이콤(11)은 그 캡션 제어 코드의 수신 시간에 해당하는 오디오 데이타의 메모리 주소를 따로 메모리(18)에 저장한다. 입력 버퍼(16)가 오디오 데이타를 시간 dt1만큼 지연시키기 때문에 캡션 제어 코드의 수신 시간에 해당하는 오디오 데이타의 메모리 주소는 시간 dt1에 해당하는 오디오 데이타의 총 메모리 주소를 그 캡션 제어 코드 수신시간에 메모리(18)에 저장되는 오디오 데이타의 메모리 주소에 더함으로써 얻어진다. 만일 캡션 디코더(13)가 한 정해진 시간 dt2내에 다음 캡션 제어 코드를 받지 않으면, 마이콤(11)은 그 정해진 시간 dt2후에 오디오 데이타의 저장을 정지한다. 즉 dt2시간만큼의 오디오 데이타를 더 저장한 후 저장을 정지한다. 만일 캡션 디코더(13)가 시간 dt2내에 클로우즈드 캡션 데이타를 추출하고 디코드하면, 그 디코드된 캡션 데이타를 마이콤(11)에 공급한다. 그때 마이콤(11)은 계속 오디오 데이타를 메모리(18)에 저장하면서 캡션 데이타를 메모리(18)에 저장하고 그 캡션 데이타를 영상 제어기(19)에 전송한다. 만일 캡션 디코더(13)가 시간 dt2내에 캡션 화면표시를 지정하는 캡션 제어 코드를 탐지하면, 마이콤(11)에 신호를 보낸다. 그때 마이콤(11)은 계속 오디오 데이타를 메모리(18)에 저장하면서 다음 캡션 데이타 블럭의 마지막 메모리 주소와 메모리(18)에 저장되는 오디오 데이타의 메모리 주소를 메모리(18)에 저장한다. 이 오디오 데이타의 메모리 주소가 다음 오디오 데이타 블록의 시작 메모리 주소가 된다. 이 과정들은 캡션 데이타 블럭들과 그 캡션 데이타 블럭들에 해당하는 대화만을 포함하는 오디오 데이타 블럭들을 메모리(18)에 기록하기위해 반복된다.1 is a block diagram of an apparatus for recording and reproducing caption data and audio data according to the present invention. The command input device 10 receives a command selected by a user, such as a recording command, a reproducing command, and transmits the command to the microcomputer 11. The video signal output from the video cassette recorder (VCR) for caption data and audio data recording is input to the caption decoder 13 through the video input terminal 12, and the audio signal output from the VCR is input to the audio input terminal. It is input to an analog-to-digital converter (ADC) 15 via 14. The ADC 15 converts the input analog audio signal into digital audio data. The input buffer 16 stores audio data in a first-in first-out (FIFO) manner. The input buffer 16 can store audio data for a maximum time dt1. If there is no signal from the microcomputer 11, the input buffer 16 deletes the audio data in the order of first input after the time dt1. The caption decoder 13 extracts and decodes 2-byte closed caption data from the input video signal. The decoded caption data including the caption character or information on the position and attribute of the caption character is supplied to the microcomputer 11 via the bus 17. The microcomputer 11 stores the caption data in the memory 18 and transmits the caption data to the image controller 19. The image controller 19 presents the caption data to a monitor 20. Caption decoder 13 also detects caption control codes that specify caption display and caption cancellation. When the caption decoder 13 detects a caption control code specifying the caption display, a signal is sent to the microcomputer 11. The microcomputer 11 then stores the last memory address of the caption data block stored so far in the memory 18 and starts storing audio data in the memory 18 and sets the starting memory address of the audio data block separately. It stores in the memory 18. When the caption decoder 13 detects a caption control code specifying caption cancellation, the signal is sent to the microcomputer 11 and the microcom 11 separately stores the memory address of the audio data corresponding to the reception time of the caption control code. ). Since the input buffer 16 delays the audio data by the time dt1, the memory address of the audio data corresponding to the reception time of the caption control code stores the total memory address of the audio data corresponding to the time dt1 at the caption control code reception time. This is obtained by adding to the memory address of the audio data stored in (18). If the caption decoder 13 does not receive the next caption control code within a predetermined time dt2, the microcomputer 11 stops storing the audio data after the predetermined time dt2. That is, after storing dt2 hours of audio data, the recording stops. If the caption decoder 13 extracts and decodes the closed caption data within the time dt2, the decoded caption data is supplied to the microcomputer 11. The microcomputer 11 then stores the caption data in the memory 18 while continuing to store the audio data in the memory 18 and transmits the caption data to the image controller 19. If the caption decoder 13 detects a caption control code that designates the caption display within time dt2, it sends a signal to the microcomputer 11. The microcomputer 11 then stores the audio data in the memory 18, while storing the last memory address of the next caption data block and the memory address of the audio data stored in the memory 18. The memory address of this audio data becomes the starting memory address of the next audio data block. These processes are repeated to write to the memory 18 audio data blocks containing only the caption data blocks and the dialogue corresponding to the caption data blocks.

캡션 데이타와 오디오 데이타 재생명령이 명령 입력 장치(10)에 입력되면 마이콤(11)은 오디오 데이타를 메모리(18)로 부터 출력 버퍼(21)에 전송하고 캡션 데이타 블럭을 메모리(18)로 부터 영상 제어기(19)에 전송한다. 디지탈-아날로그 변환기(DAC)(22)는 오디오 데이타를 아날로그 오디오 신호로 변환하고 그 아날로그 오디오 신호는 스피커(23)에 의해 소리가 된다. 영상 제어기(19)는 캡션 데이타 블록을 모니터(20)에 나타낸다. 영상 제어기(19)는 몇개의 캡션 데이타 블럭들을 모니터(20)에 나타낼 수 있다. 한 예로써, 영상 제어기(19)는 캡션 데이타 블럭을 모니터(20)의 맨 윗줄부터 나타내고 다음 캡션 데이타 블럭을 받으면 다음 캡션 데이타 블럭을 전 캡션 데이타 블럭 바로 아래에 나타낸다. 이렇게 몇개의 캡션 데이타 블럭들을 모니터(20)에 나타낸 뒤에 그 다음 캡션 데이타 블럭을 나타낼 공간이 없다면, 영상 제어기(19)는 캡션 데이타 블럭들을 순차적으로 위로 올리고 다음 캡션 데이터 블럭을 모니터(20)의 맨 아래 부분에 나타낸다. 출력 버퍼(21)로 전송되는 오디오 데이타의 메모리 주소가 캡션 소거를 지정하는 캡션 제어 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소일 때 마이콤(11)은 다음 캡션 데이타 블럭을 영상 제어기(19)에 전송한다. 이 과정을 반복하여 캡션 데이타와 오디오 데이타를 재생한다.When the caption data and audio data reproducing command is input to the command input device 10, the microcomputer 11 transmits the audio data from the memory 18 to the output buffer 21, and the caption data block from the memory 18 is imaged. To the controller 19. A digital-to-analog converter (DAC) 22 converts audio data into an analog audio signal, which is made into sound by the speaker 23. The image controller 19 presents the caption data block to the monitor 20. The image controller 19 can present several caption data blocks on the monitor 20. As an example, the image controller 19 displays the caption data block from the top line of the monitor 20, and upon receiving the next caption data block, the next caption data block is shown immediately below the previous caption data block. After displaying some caption data blocks on the monitor 20 and there is no space to display the next caption data block, the image controller 19 sequentially raises the caption data blocks up and moves the next caption data block to the top of the monitor 20. Shown below. When the memory address of the audio data transmitted to the output buffer 21 is the memory address of the audio data corresponding to the caption control code reception time specifying caption erasing, the microcomputer 11 sends the next caption data block to the image controller 19. send. This process is repeated to play caption data and audio data.

도 2는 팝온 캡션 모드에서 캡션 데이타와 오디오 데이타를 기록하는 방법을 보이는 플로우 챠트이다. 단계(S1)에서 캡션 디코더(13)은 입력된 영상 신호로 부터 2 바이트 클로우즈드 캡션 데이타를 추출하고 디코드 한다. 만일 그 클로우즈드 캡션 데이타가 캡션 화면표시를 지정하는 EOC 코드가 아니면, 캡션 디코더(13)는 디코드된 캡션 데이타를 마이콤(11)에 공급한다(S2), 단계(S3)에서 마이콤(11)은 캡션 데이타를 메모리(18)에 저장하고 그 캡션 데이타를 영상 제어기(19)에 전송한다. 영상 제어기(19)는 그 캡션 데이타를 모니터(20)에 나타낸다. 단계(S3)후에 과정은 단계(S1)으로 돌아간다. 이과정은 EOC코드가 수신되서 캡션 디코더(13)에 의해 탐지될 때까지 반복된다. 만일 EOC 코드가 단계(S1)에서 수신되어 탐지되면, 캡션 디코더(13)는 마이콤(11)에 신호를 보낸다(S2). 그때 마이콤(11)은 단계(S4)에서 메모리(18)에 저장된 캡션 데이타 블럭의 마지막 메모리 주소 LADDR[C]를 메모리(18)에 저장한다. 단계(S5)에서 마이콤(11)은 입력 버퍼(16)으로 부터 오디오 데이터를 메모리(18)에 저장하기 시작하고 그 오디오 데이타 블럭의 시작 메모리 주소 SADDR[A]를 메모리(18)에 저장한다. 그 메모리 주소들 LADDR[C]와 SADDR[A]는 EOC 코드의 수신시간을 의미한다. 입력 버퍼(16)은 최대 시간 dt1의 오디오 데이를 저장할 수 있다. 만일 마이콤(11)으로 부터 신호가 없으면 입력 버퍼(16)는 시간 dt1후에 처음 입력된 순으로 오디오 데이타를 지운다. 캡션 디코더(13)가 시간 t에 EOC 코드를 탐지하면 마이콤(11)은 EOC 코드가 수신되기전 t-dt1부터 오디오 데이타를 저장한다. 왜냐하면 입력 버퍼(16)가 오디오 데이타를 시간 dt1만큼 지연하기 때문이다. 그렇기 때문에 EOC 코드의 수신 시간에 해당하는 오디오 데이터의 메모리 주소는 SADDR(A)+B가 되고 여기서 B는 시간 dt1에 해당하는 오디오 데이타의 총 메모리 주소이다. 시간 dt1은 오프라인 캡션닝에서 약 1초 정도이다. 이런식으로 캡션 데이타 블럭에 해당하는 대화의 시작부분을 자르지 않고 기록할 수 있다. 단계(S6)에서 만일 클로우즈드 캡션 데이타가 수신되면 캡션 디코더(13)는 클로우즈드 캡션 데이타를 추출하고 디코드한다. 만일 그 클로우즈드 캡션 데이타가 캡션 소거를 지정하는 EDM 코드가 아니면 캡션 디코더(13)는 캡션 데이타를 마이콤(11)에 공급한다(S7). 단계(S8)에서 마이콤(11)은 계속 오디오 데이타를 저장하면서 캡션 데이타를 메모리(18)에 저장하고 그 캡션 데이타를 영상 제어기(19)에 전송한다. 단계(S8)후에 과정은 단계(S6)으로 돌아간다. 단계(S6)에서 EDM 코드가 수신되고 탐지될 때 캡션 디코더(13)는 마이콤(11)에 신호를 보내고(S7) 마이콤(11)은 EDM 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소를 메모리(18)에 저장한다(S9). 만일 EDM 코드 수신 시간에 메모리(18)에 저장되는 오디오 데이터의 메모리 주소가 EADDR[A]라면, EDM 코드 수신 시간에 해당하는 오디오 데이터의 메모리 주소는 시간 dt1에 해당하는 오디오 데이타의 총 메모리 주소 B를 EADDR[A]에 더한 값 EADDR[A]+B가 된다. EDM 코드가 수신됐어도 이 실시예에서 영상 제어기(19)는 계속 캡션 데이타 블럭을 모니터(20)에 나타낸다. 단계(S10)에서 마이콤(11)은 메모리(18)에 저장되는 오디오 데이타의 메모리 주소가 EADDR[A]+B+D을 지나는지 판단한다. 여기서 D는 미리 정해진 시간 dt2에 해당하는 오디오 데이타의총 메모리 주소이다. 만일 저장되는 오디오 데이타의 메모리 주소가 EADDR[A]+B+D에 도달 될 때까지 클로우즈드 캡션 데이타가 수신되지 않으면(S11), 과정은 단계(S14)로 진행되고 그 단계(S14)에서 마이콤(11)은 오디오 데이타 저장을 중지한다. D만큼 더 오디오 데이타를 기록함으로써 캡션 데이타 블럭에 해당하는 대화의 끝 부분을 자르지 않도록 한다. 단계(S14)후에 과정은 단계(S1)으로 돌아간다. 만일 저장되는 오디오 데이타의 메모리 주소가 EADDR[A]+B+D에 도달 되기 전에 클로우즈드 캡션 데이타가 수신되고 캡션 디코더(13)에 의해 디코드 되면(S11), 그리고 그 클로우즈드 캡션 데이타가 EOC 코드가 아니면, 캡션 디코더(13)는 디코드된 캡션 데이타를 마이콤(11)에 공급한다(S12). 그때 마이콤(11)은 캡션 데이타를 메모리(18)에 저장하고 그 캡션 데이타를 영상 제어기(19)에 전송한다(S13). 단계(S13)후에 과정은 단계(S10)으로 돌아간다. 저장되는 오디오 데이타의 메모리 주소가 EADDR[A]+B+D에 도달되기 전에 EOC 코드가 수신되고 캡션 디코더(13)에 의해 탐지될 때(S11, S12) 과정은 단계(S4)로 돌아간다. 이런 방법으로 캡션 데이타 블럭들과 그에 해당하는 대화들만을 포함하는 오디오데이타 블럭들을 기록할 수 있다. 캡션 데이타 블럭들의 마지막 메모리 주소들, 오디오 데이타 블럭들의 시작 메모리 주소들과 EDM 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소들은 저장된 캡션 데이타와 오디오 데이타를 재생하기 위해 사용된다.2 is a flowchart showing a method of recording caption data and audio data in the pop-on caption mode. In step S1, the caption decoder 13 extracts and decodes 2-byte closed caption data from the input video signal. If the closed caption data is not an EOC code for designating a caption display, the caption decoder 13 supplies the decoded caption data to the microcomputer 11 (S2). The caption data is stored in the memory 18 and the caption data is transmitted to the image controller 19. The image controller 19 displays the caption data on the monitor 20. After step S3, the process returns to step S1. This process is repeated until the EOC code is received and detected by the caption decoder 13. If the EOC code is received and detected in step S1, the caption decoder 13 sends a signal to the microcomputer 11 (S2). The microcomputer 11 then stores the last memory address LADDR [C] of the caption data block stored in the memory 18 in the memory 18 in step S4. In step S5 the microcomputer 11 starts storing audio data from the input buffer 16 in the memory 18 and stores the start memory address SADDR [A] of the audio data block in the memory 18. The memory addresses LADDR [C] and SADDR [A] represent the reception time of the EOC code. The input buffer 16 can store audio days of maximum time dt1. If there is no signal from the microcomputer 11, the input buffer 16 deletes the audio data in the order of first input after the time dt1. If the caption decoder 13 detects the EOC code at time t, the microcomputer 11 stores the audio data from t-dt1 before the EOC code is received. This is because the input buffer 16 delays the audio data by the time dt1. Therefore, the memory address of the audio data corresponding to the reception time of the EOC code is SADDR (A) + B, where B is the total memory address of the audio data corresponding to the time dt1. The time dt1 is about 1 second in offline captioning. In this way, the beginning of the conversation corresponding to the caption data block can be recorded without cutting. In step S6, if the closed caption data is received, the caption decoder 13 extracts and decodes the closed caption data. If the closed caption data is not an EDM code specifying caption erasure, the caption decoder 13 supplies the caption data to the microcomputer 11 (S7). In step S8, the microcomputer 11 stores the caption data in the memory 18 while continuing to store the audio data and transmits the caption data to the image controller 19. After step S8, the process returns to step S6. When the EDM code is received and detected in step S6, the caption decoder 13 signals the microcomputer 11 (S7) and the microcomputer 11 stores the memory address of the audio data corresponding to the EDM code reception time. 18) (S9). If the memory address of the audio data stored in the memory 18 at the EDM code reception time is EADDR [A], the memory address of the audio data corresponding to the EDM code reception time is the total memory address B of the audio data corresponding to the time dt1. To EADDR [A] plus EADDR [A] + B. In this embodiment, the image controller 19 continues to display the caption data block to the monitor 20 even if the EDM code is received. In step S10, the microcomputer 11 determines whether the memory address of the audio data stored in the memory 18 passes through EADDR [A] + B + D. Where D is the total memory address of the audio data corresponding to the predetermined time dt2. If the closed caption data is not received until the memory address of the stored audio data reaches EADDR [A] + B + D (S11), the process proceeds to step S14 and the microcomputer in step S14. 11 stops storing audio data. By recording the audio data as much as D, the end of the conversation corresponding to the caption data block is not cut off. After step S14, the process returns to step S1. If the closed caption data is received and decoded by the caption decoder 13 before the memory address of the stored audio data reaches EADDR [A] + B + D (S11), and the closed caption data is an EOC code. Otherwise, the caption decoder 13 supplies the decoded caption data to the microcomputer 11 (S12). At this time, the microcomputer 11 stores the caption data in the memory 18 and transmits the caption data to the image controller 19 (S13). After step S13, the process returns to step S10. The process returns to step S4 when the EOC code is received and detected by the caption decoder 13 before the memory address of the stored audio data reaches EADDR [A] + B + D (S11, S12). In this way audio data blocks containing only caption data blocks and corresponding conversations can be recorded. The last memory addresses of the caption data blocks, the starting memory addresses of the audio data blocks and the memory addresses of the audio data corresponding to the EDM code reception time are used to play the stored caption data and the audio data.

도 3은 팝온 캡션 모드에서 캡션 데이타 블럭, 오디오 데이타 블럭과 대화의 타이밍을 보여준다. 시간 t1에서 EOC 코드가 수신되고 캡션 데이타 블럭 C1이 화면에 표시된다. 시간 t2에서 EDM 코드가 수신된다. 오프 라인 캡션닝에서는 대화와캡션 데이타 블럭들이 거의 시간적으로 일치되기 때문에 캡션 데이타 블럭 C1에 해당하는 대화 D1은 대략 시간 t1에 시작되고 시간 t2에 끝난다. 이 발명에 따른 실시예에서는 캡션 데이타 블럭은 EDM 코드의 수신에 의해서 화면에서 지워지지 않는다. 유사하게 시간 t3에서 EOC 코드가 수신되고 캡션 데이타 블럭 C2가 화면에 표시되고 시간 t4에서 EDM 코드가 수신된다. 캡션 데이타 블럭 C2 에 해당하는 대화 D2는 대략 시간 t3에 시작하고 시간 t4에 끝난다. 시간 t5에 EOC 코드가 수신되고 캡션 데이타 블럭 C3가 화면에 표시되고 시간 t6에 EDM 코드가 수신된다. 캡션 데이타 블럭 C3 에 해당하는 대화 D3는 대략 시간 t5에 시작하고 시간 t6에 끝난다. 시간 t1-dt1부터 시간 t2+dt2까지 기록된 오디오 데이타 블럭 A1은 대화 D1을 포함한다. 시간 t3-dt1부터 시간 t4+dt2까지 기록된 오디오 데이타 블록 A2는 대화 D2를 포함하고 시간 t5-dt1부터 시간 t6+dt2까지 기록된 오디오 데이터 블럭 A3은 대화 D3을 포함한다. 이 예에서 시간 t2와 t3의 시간 간격은 dt1+dt2 보다 크고 시간 t4와 t5의 시간 간격은 dt1과 dt2 보다 작다.3 shows the timing of the conversation with the caption data block, the audio data block in the pop-on caption mode. At time t1 the EOC code is received and the caption data block C1 is displayed on the screen. At time t2 an EDM code is received. In offline captioning, the conversation and the caption data blocks coincide almost in time, so the conversation D1 corresponding to the caption data block C1 starts approximately at time t1 and ends at time t2. In the embodiment according to the present invention, the caption data block is not erased from the screen by the reception of the EDM code. Similarly an EOC code is received at time t3 and a caption data block C2 is displayed on the screen and an EDM code is received at time t4. The conversation D2 corresponding to the caption data block C2 starts approximately at time t3 and ends at time t4. EOC code is received at time t5, caption data block C3 is displayed on the screen, and EDM code is received at time t6. The conversation D3 corresponding to the caption data block C3 starts approximately at time t5 and ends at time t6. The audio data block A1 recorded from time t1-dt1 to time t2 + dt2 includes conversation D1. Audio data block A2 recorded from time t3-dt1 to time t4 + dt2 includes conversation D2 and audio data block A3 recorded from time t5-dt1 to time t6 + dt2 includes conversation D3. In this example, the time intervals of times t2 and t3 are greater than dt1 + dt2 and the time intervals of times t4 and t5 are smaller than dt1 and dt2.

도 4는 도 3에 보여진 캡션 데이타, 오디오 데이타와 메모리 주소 데이터의 메모리 맵(map)을 보여준다. EOC 수신 시간 t1에 캡션 데이타 블럭 C1의 마지막 메모리 주소 LADDR[C1]과 오디오 데이타 블럭 A1의 시작 메모리 주소 SADDR[A1]이 메모리내의 주소 메모리에 저장된다. EDM 코드 수신 시간 t2때 저장 되는 오디오 데이타의 메모리 주소는 EADDR[A1]이다. 입력 버퍼(16)의 지연시간 dt1에 해당하는 오디오 데이타의 총 메모리 주소 B를 메모리 주소 EADDR[A1]에 더함으로써, EDM 코드 수신시간 t2에 해당하는 오디오 데이타의 메모리 주소, EADDR[A1]+B가 얻어지고주소 메모리에 저장된다. 시간 dt2에 해당하는 오디오 데이타의 총 메모리 주소 D를 메모리 주소 EADDR[A1]+B에 더함으로써, 오디오 데이타 블럭 A1의 끝 메모리 주소 EADDR[A1]+B+D가 얻어진다. 같은 방법으로, 시간 t3때 캡션 데이타 블럭 C2의 마지막 메모리 주소 LADDR[C2]와 오디오 데이타 블럭의 시작 메모리 주소 SADDR[A2]가 주소 메모리에 저장되고 시간 t4때 EDM 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소 EADDR[A2]+B가 주소 메모리에 저장된다. 오디오 데이타 블럭 A2의 끝 메모리 주소는 EADDR[A2]+B+D이다. 시간 t5때 캡션 데이타 블럭의 마지막 메모리 주소 LADDR[C3]와 오디오 데이타 블럭 A3의 시작 메모리 주소 SADDR[A3]가 주소 메모리에 저장된다. 시간 t6때 EDM 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소 EADDR[A3]+B가 주소 메모리에 저장된다. 오디오 데이타 블럭 A3의 끝 메모리 주소는 EADDR[A3]+B+D 이다.FIG. 4 shows a memory map of caption data, audio data and memory address data shown in FIG. 3. At the EOC reception time t1, the last memory address LADDR [C1] of the caption data block C1 and the starting memory address SADDR [A1] of the audio data block A1 are stored in the address memory in the memory. The memory address of the audio data stored at the EDM code reception time t2 is EADDR [A1]. By adding the total memory address B of audio data corresponding to the delay time dt1 of the input buffer 16 to the memory address EADDR [A1], the memory address of the audio data corresponding to the EDM code reception time t2, EADDR [A1] + B Is obtained and stored in the address memory. By adding the total memory address D of the audio data corresponding to the time dt2 to the memory address EADDR [A1] + B, the end memory address EADDR [A1] + B + D of the audio data block A1 is obtained. In the same way, the last memory address LADDR [C2] of the caption data block C2 and the start memory address SADDR [A2] of the audio data block are stored in the address memory at time t3 and the time of the audio data corresponding to the EDM code reception time at time t4. The memory address EADDR [A2] + B is stored in the address memory. The end memory address of the audio data block A2 is EADDR [A2] + B + D. At time t5, the last memory address LADDR [C3] of the caption data block and the starting memory address SADDR [A3] of the audio data block A3 are stored in the address memory. At time t6, the memory address EADDR [A3] + B of the audio data corresponding to the EDM code reception time is stored in the address memory. The end memory address of the audio data block A3 is EADDR [A3] + B + D.

도 5는 캡션 데이타와 오디오 데이타를 재생하는 방법을 보이는 플로우챠트이다. 사용자는 명령 입력 장치(10)에서 재생 명령을 선택함으로써 캡션 데이터와 오디오데이타의 재생을 시작한다. 단계(P1)에서 마이콤(11)은 메모리(18)에서 오디오 데이타 블럭 A1의 시작 메모리 주소를 읽어내서 오디오 데이타를 메모리(18)로부터 출력 버퍼(21)로 전송한다. DAC(22)는 오디오 데이타를 아날로그 오디오 신호로 변환하고 그 아날로그 오디오 신호는 스피커(23)에서 소리로 된다. 단계(P21)에서 마이콤(11)은 메모리(18)로 부터 첫번째 캡션 데이타 블럭 C1의 마지막 메모리 주소 LADDR[C1]을 읽어낸다. 단계(P31)에서 마이콤(11)은 캡션 데이타 블럭 C1을 메모리(18)로 부터 영상 제어기(19)에 전송한다. 영상 제어기(19)는 캡션 데이타블럭을 모니터(20)에 나타낸다. 단계(P41)에서 마이콤(11)은 EDM 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소 EADDR[A1]+B를 메모리(18)로 부터 읽어낸다. 단계(P51)에서 마이콤(11)은 전송되는 오디오 데이타의 메모리 주소를 메모리 주소 EADDR[A1]+B와 비교한다. 만일 전송되는 오디오 데이타의 메모리 주소가 EADDR[A1]+B보다 작고 정지 명령이 명령 입력 장치(10)에 입력되면(P61) 과정은 끝난다. 만일 전송되는 오디오 데이타의 메모리 주소가 EADDR[A1]+B와 같거나 커지면(P51) 과정은 단계(P22)로 진행되고 마이콤(11)은 두번째 캡션 데이타 블록의 마지막 메모리 주소를 읽어낸다. 첫번째 캡션 데이타 블럭 C1과 오디오 데이터 블럭 A1에 대한 이과정들은 두번째 캡션 데이타 블럭 C2와 오디오 데이타 블럭 A2에 대해서 반복된다. 이런 과정들은 모든 캡션 데이타 블럭들과 오디오 데니타 블럭들에 대해 반복되어진다. 즉, 도5의 첫번째 블럭 부터 마지막 n번째 블럭까지 이런 과정들은 반복된다. 만일 마지막 n번째 블럭에서 전송되는 오디오 데이타의 메모리 주소가 EADDR[An]+B 와 같거나 크면 과정은 단계(P7)로 진행되고 마이콤(11)은 마지막 오디오 데이타가 전송될때까지 계속 오디오 데이타를 출력 버퍼(21)에 전송한다. 마지막 오디오 데이타가 전송된 후에 과정은 끝난다.5 is a flowchart showing a method of reproducing caption data and audio data. The user starts playback of caption data and audio data by selecting a playback command from the command input device 10. In step P1 the microcomputer 11 reads the start memory address of the audio data block A1 from the memory 18 and transfers the audio data from the memory 18 to the output buffer 21. The DAC 22 converts the audio data into an analog audio signal, and the analog audio signal becomes sound in the speaker 23. In step P21 the microcomputer 11 reads from the memory 18 the last memory address LADDR [C1] of the first caption data block C1. In step P31 the microcomputer 11 transmits the caption data block C1 from the memory 18 to the image controller 19. The image controller 19 presents the caption data block to the monitor 20. In step P41, the microcomputer 11 reads the memory address EADDR [A1] + B from the memory 18 of the audio data corresponding to the EDM code reception time. In step P51, the microcomputer 11 compares the memory address of the transmitted audio data with the memory address EADDR [A1] + B. If the memory address of the transmitted audio data is smaller than EADDR [A1] + B and a stop command is input to the command input device 10 (P61), the process ends. If the memory address of the transmitted audio data is equal to or larger than EADDR [A1] + B (P51), the process proceeds to step P22 and the microcomputer 11 reads out the last memory address of the second caption data block. The processes for the first caption data block C1 and the audio data block A1 are repeated for the second caption data block C2 and the audio data block A2. These processes are repeated for all caption data blocks and audio denita blocks. That is, these processes are repeated from the first block to the last nth block in FIG. If the memory address of the audio data transmitted in the last nth block is equal to or larger than EADDR [An] + B, the process proceeds to step P7 and the microcomputer 11 continues to output audio data until the last audio data is transmitted. Transfer to buffer 21. The process ends after the last audio data has been transferred.

도 6은 음성 정지와 음성 반복 기능을 갖는 캡션 데이타와 오디오 데이터를 재생하는 방법을 보이는 플로우챠트이다. 음성 정지와 음성 반복 기능을 위한 과정들은 도 5에 보여진 플로우챠트에 추가된다. 도 7은 도 6의 i번째 블럭에서 음성 정지와 음성 반복 기능을 위한 과정들을 보이는 플로우챠트이다. 만일 i번째 캡션 데이타 블럭 Ci와 오디오 데이타 블럭 Ai가 재생 되는 중에 음성 정지 명령이 명령입력 장치(10)에 입력되면(P7i) 마이콤(11)은 오디오 데이타를 출력 버퍼(21)에 전송하는 것을 멈춘다(P8i). 음성 계속 명령이 명령 입력 장치(10)에 입력되면(P9i) 마이콤(11)은 다시 오디오 데이타를 출력 버퍼(21)에 전송하기 시작하고(P10i) 과정은 단계(P11i)로 진행한다. 만일 음성 반복 명령이 명령 입력 장치(10)에 입력되면(P11i) 마이콤(11)은 메모리(18)로 부터 i-1번째 오디오 데이타 블럭의 시작 메모리 주소 SADDR[Ai-1]를 읽어낸다(P12i). 단계(P13i)에서 마이콤(11)은 메모리 주소 SADDR[Ai-1]로 부터 오디오 데이타를 출력 버퍼(21)에 전송한다. 단계(p13i)후에 과정은 단계(P4i)로 돌아간다. 이들 과정들이 도 6의 두번째 블럭 부터 마지막 n번째 블럭까지 반복된다.Fig. 6 is a flowchart showing a method of reproducing caption data and audio data having voice stop and voice repeat functions. Procedures for the voice stop and voice repeat functions are added to the flowchart shown in FIG. FIG. 7 is a flowchart showing processes for voice stop and voice repeat function in the i-th block of FIG. If a voice stop command is input to the command input device 10 while the i-th caption data block Ci and the audio data block Ai are being reproduced (P7i), the microcomputer 11 stops transmitting audio data to the output buffer 21. (P8i). When the voice continuation command is input to the command input device 10 (P9i), the microcomputer 11 starts transmitting audio data to the output buffer 21 again (P10i), and the process proceeds to step P11i. If the voice repeat command is input to the command input device 10 (P11i), the microcomputer 11 reads the start memory address SADDR [Ai-1] of the i-1th audio data block from the memory 18 (P12i). ). In step P13i, the microcomputer 11 transmits the audio data from the memory address SADDR [Ai-1] to the output buffer 21. After step p13i, the process returns to step P4i. These processes are repeated from the second block to the last nth block in FIG.

도 8은 캡션 데이타 블럭들을 스캔(scan)하는 방법을 보이는 플로우챠트이다. 캡션 데이타 블럭들을 스캔하기 위한 명령이 명령 입력 장치(10)에 입력되면 마이콤(11)은 메모리(18)로 부터 첫번째 캡션 데이타 블럭 C1의 마지막 메모리 주소 LADDR[C1]을 읽어낸다(T11). 단계(T21)에서 마이콤(11)은 첫번째 캡션 데이타 블럭 C1을 영상 제어기(19)에 전송하고 영상 제어기(19)는 첫번째 캡션 데이타 블록 C1을 모니터(20)에 나타낸다. 만일 다음 캡션 명령이 명령 입력 장치(10)에 입력되면(T31) 과정은 두번째 캡션 데이타 블럭 C2를 위한 단계(T12)로 진행한다. 만일 음성 재생 명령이 명령 입력 장치(10)에 입력되면(T41) 마이콤(11)은 첫번째 오디오 데이타 블럭 A1의 시작 메모리 주소 SADDR[A1]와 EDM 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소 EADDR[A1]+B를 메모리(18)로 부터 읽어낸다 (T51). 단계(T61)에서 메모리 주소 SADDR[A1]에서 부터 EADDR[A1]+B+D까지의 첫번째 오디오 데이타 블럭 A1이 출력 버퍼(21)로 전송된다. 오디오 데이터는 DAC(22)에 의해 아날로그 오디오 신호로 변환되고 스피커(23)에 의해 소리로 된다. 단계(T61)후에 과정은 단계(T71)로 진행한다. 만일 이전 캡션 명령이 명령 입력 장치(10)에 입력되면(T71)"이전 캡션 없음"을 모니터(20)에 나타내고(T81) 과정은 단계(T91)로 진행한다. 만일 정지 명령이 명령 입력 창치(10)에 입력되면(T91) 과정은 끝난다. 첫번째 캡션 데이타 블럭에 대한 이들 과정들은 단계(T82)를 제외하고 두번째 캡션 데이타 블럭을 위해서 반복된다. 만일 이전 캡션 명령이 입력되면 (T72) 과정은 첫번째 캡션 데이타 블럭의 단계(T11)로 돌아간다(T82). 두번째 캡션 데이타 블럭에 대한 과정들은 나머지 캡션 데이타 블럭들에 대해 반복된다. 만일 마지막 n번째 캡션 데이타 블럭의 단계(T3n)에서 다음 캡션 명령이 입력되면"다음 캡션 없음"을 모니터(20)에 나타내고(T10) 과정은 단계(T3n)으로 돌아간다.8 is a flowchart illustrating a method of scanning caption data blocks. When a command for scanning caption data blocks is input to the command input device 10, the microcomputer 11 reads the last memory address LADDR [C1] of the first caption data block C1 from the memory 18 (T11). In step T21 the microcomputer 11 sends the first caption data block C1 to the image controller 19 and the image controller 19 presents the first caption data block C1 to the monitor 20. If the next caption command is input to the command input device 10 (T31), the process proceeds to step T12 for the second caption data block C2. If a voice reproducing command is input to the command input device 10 (T41), the microcomputer 11 starts the memory address SADDR [A1] of the first audio data block A1 and the memory address EADDR [corresponding to the EDM code reception time. A1] + B is read from memory 18 (T51). In step T61, the first audio data block A1 from memory address SADDR [A1] to EADDR [A1] + B + D is transferred to the output buffer 21. The audio data is converted into an analog audio signal by the DAC 22 and made into sound by the speaker 23. After step T61, the process goes to step T71. If a previous caption command is input to the command input device 10 (T71), " no previous caption & quot ; is displayed on the monitor 20 (T81) and the process proceeds to step T91. If the stop command is input to the command input window 10 (T91), the process ends. These processes for the first caption data block are repeated for the second caption data block except step T82. If the previous caption command is input (T72), the process returns to step T11 of the first caption data block (T82). The processes for the second caption data block are repeated for the remaining caption data blocks. If the next caption command is input in step T3n of the last nth caption data block, " no next caption " is displayed on the monitor 20 (T10) and the process returns to step T3n.

위 실시예에서 캡션 데이타와 오디오 데이타를 기록하기 위해 팝온 캡션 모드에서 EOC 코드와 EDM 코드가 사용되었다. 그러나 페이트온 혹은 롤업 캡션 모드에서 대화의 시작과 끝을 나타내는 다른 캡션 제어 코드들이 사용될 수 있다. 페인트온 캡션 모드에서는 RDC 코드와 EDM 코드가 사용될 수 있고 롤업 캡션 모드에서는 RCL 코드와 EDM(혹은 CR) 코드가 사용될 수 있다.In the above embodiment, the EOC code and the EDM code are used in the pop-on caption mode to record the caption data and the audio data. However, other caption control codes may be used to indicate the beginning and end of a conversation in fate or rollup caption mode. In paint-on caption mode, RDC code and EDM code may be used, and in roll-up caption mode, RCL code and EDM (or CR) code may be used.

이상에서 기술된 것처럼 캡션 데이타와 오디오 데이타의 기록과 재생을 위한 방법과 장치는 캡션 데이타 블럭들과 그 캡션 데이타 블럭에 해당하는 대화만을 포함하는 오디오 데이타들을 기록할 수 있고 재생할 수 있다. 또한 이 장치로 사용자는 캡션 데이타 블럭들을 스캔할 수 있고 한 캡션 데이타 블럭을 선택하여 그 캡션 데이타 블럭에 해당하는 오디오 데이타 블럭를 재생할 수 있다. 그러므로 이 장치는 사용자가 효과적이고 편리하게 캡션 자막과 대화를 녹음하고 반복적으로 재생함으로써 사용자의 어학 학습에 도움이 된다.As described above, the method and apparatus for recording and reproducing caption data and audio data can record and reproduce audio data including only caption data blocks and dialogue corresponding to the caption data block. The device also allows the user to scan caption data blocks and select one caption data block to play the audio data block corresponding to the caption data block. Therefore, the device helps the user to learn the language by recording caption subtitles and dialogues and playing them repeatedly.

Claims (6)

캡션 데이타와 오디오 데이타를 기록하는 방법에 있어서, 입력된 오디오 신호를 디지탈 오디오 데이타로 변환하고, 입력 버퍼에 저장함으로써 상기 오디오 데이타를 지연시키며, 입력된 영상 신호로 부터 클로우즈드 캡션 데이타를 추출하여 디코드하고, 만일 디코드된 캡션 데이타가 캡션 화면표시나 캅션 소거를 지정하는 캡션 제어 코드가 아니면 상기 디코드된 캡션 데이타를 메모리에 저장하고, 캡션 화면표시를 지정하는 캡션 제어 코드가 수신됐을 때 오디오 데이타를 메모리에 저장하기 시작하고, 저장된 캡션 데이타 블럭의 마지막 메모리 주소와 오디오 데이타 블럭의 시작 메모리 주소를 표시하고, 캡션 소거를 지정하는 캡션 제어 코드가 수신됐을 때 상기 캡션 소거를 지정하는 캡션 제어 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소를 표시하고, 만일 한 정해진 시간내에 클로우즈드 캡션 데이타가 수신되지 않으면 상기 캡션 소거를 지정하는 캡션 제어 코드 수신 시간으로 부터 상기 정해진 시간에 해당하는 오디오 데이타를 더 저장한 후에 오디오 데이터의 저장을 정지하고, 만일 상기 정해진 시간내에 클로우즈드 캡션 데이타가 수신되어 디코드되면 디코드된 캡션 데이타를 메모리에 저장하고, 캡션 화면표시를 지정하는 캡션 제어 코드가 상기 정해진 시간내에 수신되면 다음 캡션 데이타 블럭의 마지막 메모리 주소와 다음 오디오 데이타 블럭의 시작 메모리 주소를 표시하는 것을 특징으로 하는 캡션 데이타와 오디오 데이타를 기록하는 방법.A method of recording caption data and audio data, comprising: converting an input audio signal into digital audio data, delaying the audio data by storing in an input buffer, extracting closed caption data from the input video signal, and decoding the same. And if the decoded caption data is not a caption control code specifying caption display or caption erasure, the decoded caption data is stored in memory, and the audio data is stored when the caption control code specifying caption display is received. At the time of reception of the caption control code specifying the caption erasure when a caption control code is received, which indicates the last memory address of the stored caption data block and the start memory address of the audio data block, and which specifies caption cancellation. The memory of the corresponding audio data If the closed caption data is not received within a predetermined time, the storage of the audio data is stopped after further storing the audio data corresponding to the predetermined time from the caption control code receiving time specifying the caption cancellation. And if the closed caption data is received and decoded within the predetermined time, the decoded caption data is stored in the memory, and if a caption control code specifying the caption display is received within the predetermined time, the last memory address of the next caption data block. And a start memory address of the next audio data block. 제 1 항에 있어서, 상기 캡션 소거를 지정하는 캡션 제어 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소는 상기 입력 버퍼의 지연시간에 해당하는 오디오 데이타의 총 메모리 주소를 상기 캡션 소거를 지정하는 캡션 제어 코드 수신 때 메모리에 저장되는 오디오 데이타의 메모리 주소에 더함으로써 얻어지는 것을 특징으로하는 캡션 데이타와 오디오 데이타를 기록하는 방법.The caption control of claim 1, wherein the memory address of the audio data corresponding to the caption control code receiving time specifying the caption erasing is the total memory address of the audio data corresponding to the delay time of the input buffer. A method of recording caption data and audio data, characterized in that it is obtained by adding to the memory address of the audio data stored in the memory at the time of code reception. 캡션 데이타와 오디오 데이타를 기록할 때 표시한 캡션 데이타 블럭의 마지막 메모리 주소들과 오디오 데이타 블럭들의 시작 메모리 주소들과 캡션 소거를 지 정하는 캡션 제어 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소들에 따라서 메모리에 저장된 캡션 데이타와 오디오 데이타를 재생하는 방법에 있어서, 메모리로 부터 오디오 데이타 블럭의 시작 메모리 주소를 읽어내서 상기 시작 메모리 주소로 부터 시작하는 오디오 데이타 블럭을 재생하고, 상기 오디오 데이타 블록에 해당하는 캡션 데이타 블럭의 마지막 메모리 주소를 메모리로 부터 읽어내서 모니터에 상기 캡션 데이타 블럭을 표시하고, 재생되는 오디오 데이타의 메모리 주소가 캡션 소거를 지정하는 캡션 제어 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소에 도달할 때 다음 캡션 데이타 블럭의 마지막 메모리 주소를 메모리로 부터 읽어내서 모니터에 상기 다음 캡션 데이타 블럭을 표시하고, 만일 명령이 입력되지 않으면 위 과정을 반복하고, 만일 음성 장지 명령이 입력되면 오디오 데이터의 재생을 중단하고, 만일 계속 명령이 입력되면 오디오 데이타의 재생을 계속하고, 만일 음성 반복 명령이 입력되면 이전 오디오 데이타 블럭의 시작 메모리 주소를 메모리로 부터 읽어내서 상기 이전 오디오 데이타 블럭의 시작 메모리 주소로 부터 오디오 데이타를 재생하는 것을 특징으로 하는 캡션 데이타와 오디오 데이타를 재생하는 방법.When recording caption data and audio data, the last memory addresses of the displayed caption data block, the starting memory addresses of the audio data blocks, and the memory addresses of the audio data corresponding to the caption control code reception time for caption erasing are specified. A method of reproducing caption data and audio data stored in a memory, the method comprising: reproducing an audio data block starting from the start memory address by reading a starting memory address of the audio data block from the memory, and corresponding to the audio data block. The last memory address of the caption data block is read from the memory to display the caption data block on the monitor, and the memory address of the audio data to be reproduced is the memory address of the audio data corresponding to the caption control code reception time specifying caption erasing. Degree When it reaches the last memory address of the next caption data block from the memory, the next caption data block is displayed on the monitor, and if the command is not input, the above process is repeated. Stops and continues playback of the audio data if a continue command is input, and reads the start memory address of the previous audio data block from memory if the repeat command is input and starts from the start memory address of the previous audio data block. A method of reproducing caption data and audio data, characterized by reproducing audio data. 캡션 데이타와 오디오 데이타를 기록할 때 표시한 캡션 데이타 블럭의 마지막 메모리 주소들과 오디오 데이타 블럭들의 시작 메모리 주소들과 캡션 소거를 지정하는 캡션 제어 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소들에 따라서 캡션 데이타들을 스캔하는 방법에 있어서, 캡션 데이타 블럭의 마지막 메모리 주소를 메모리로 부터 읽어내서 상기 캡션 데이타 블럭을 모니터에 표시하고, 만일 다음 캡션 명령이 입력되면 다음 캡션 데이타 블럭의 마지막 메모리 주소를 메모리로 부터 읽어내서 상기 다음 캡션 데이타 블럭을 모니터에 표시하고, 만일 음성 재생 명령이 입력되면 상기 캡션 데이타 블럭에 해당하는 오디오 데이타 블럭의 시작과 끝 메모리 주소들을 메모리로 부터 읽어내서 상기 오디오 데이타 블럭을 재생하고, 만일 이전 캡션 명령이 입력되면 이전 캡션 데이타 블럭의 마지막 메모리 주소를 메모리로 부터 읽어내서 상기 이전 캡션 데이타 블럭을 모니터에 표시하는 것을 특징으로 하는 캡션 데이타 블럭들을 스캔하는 방법.When recording caption data and audio data, the last memory addresses of the displayed caption data block, the starting memory addresses of the audio data blocks, and the memory addresses of the audio data corresponding to the caption control code reception time specifying caption erasure A method of scanning caption data, the last memory address of a caption data block being read from memory to display the caption data block on a monitor, and if the next caption command is entered, the last memory address of the next caption data block is read into memory. Reads from the next caption data block on the monitor, and if a voice play command is inputted, reads the start and end memory addresses of the audio data block corresponding to the caption data block from memory to play the audio data block. , If previous And when the caption command is input, reads the last memory address of the previous caption data block from the memory and displays the previous caption data block on the monitor. 제 4 항에 있어서, 상기 오디오 데이타 블럭의 끝 메모리 주소는 한 정해진 시간에 해당하는 오디오 데이타의 총 메모리 주소를 상기 캡션 소거를 지정하는 캡션 제어 코드 수신 시간에 해당하는 오디오 데이타의 메모리 주소에 더함으로써 얻어지는 것을 특징으로 하는 캡션 데이타 블럭들을 스캔하는 방법.5. The method of claim 4, wherein the end memory address of the audio data block is obtained by adding a total memory address of audio data corresponding to a predetermined time to a memory address of audio data corresponding to a caption control code reception time specifying caption cancellation. Obtaining caption data blocks. 입력된 영상 신호로 부터 클로우즈드 캡션 데이타를 추출하여 디코드하는 캡션 디코더와, 입력된 오디오 신호를 디지탈 오디오 데이타로 변환하는 아날로그-디지탈 변환기와, 상기 오디오 데이타를 저장함으로써 상기 오디오 데이타를 지연시키는 입력 버퍼와, 디코드된 캡션 데이타와 오디오 데이타를 저장하는 메모리와, 캡션 데이타의 화면표시를 제어하는 영상 제어기와, 캡션 데이타를 나타내는 모니터와, 메모리로 부터 전송되는 오디오 데이타를 저장하는 출력 버퍼와, 오디오 데이타를 아날로그 오디오 신호로 변환하는 디지탈-아날로그 변환기와, 아날로그 오디오 신호를 소리로 바꾸는 스피커와, 디코드된 캡션 데이타와 오디오 데이타를 메모리에 저장하고, 상기 캡션 디코더로 부터 신호가 수신될 때 오디오 데이타와 캡션 데이타의 메모리 주소들을 표시하고, 상기 표시된 메모리 주소에 따라 캡션 데이타를 메모리로부터 영상 제어기에 전송하고, 오디오 데이타를 메모리로 부터 출력 버퍼에 전송하는 마이콤과, 상기 마이콤에 명령들을 전송하는 명령 입력 장치로 구성되는 것을 특징으로 하는 캡션 데이타와 오디오 데이타를 기록하고 재생하는 장치.A caption decoder that extracts and decodes the closed caption data from the input video signal, an analog-to-digital converter that converts the input audio signal into digital audio data, and an input buffer that delays the audio data by storing the audio data. A memory for storing decoded caption data and audio data, an image controller for controlling the display of caption data, a monitor for displaying caption data, an output buffer for storing audio data transferred from the memory, and audio data. A digital-to-analog converter that converts the analog audio signal to an analog audio signal, a speaker that converts the analog audio signal into sound, decoded caption data and audio data in memory, and the audio data and caption when a signal is received from the caption decoder. The memory of the data A micom for displaying addresses, transferring caption data from a memory to an image controller according to the displayed memory address, transferring audio data from a memory to an output buffer, and a command input device for transmitting commands to the micom. A device for recording and playing back caption data and audio data.
KR1020000013478A 2000-03-16 2000-03-16 method for replaying caption data and audio data and a display device using the same KR100341030B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020000013478A KR100341030B1 (en) 2000-03-16 2000-03-16 method for replaying caption data and audio data and a display device using the same
CNB018066526A CN1251486C (en) 2000-03-16 2001-02-15 Method and apparatus for recording and replaying caption data and audio data
JP2001566546A JP3722750B2 (en) 2000-03-16 2001-02-15 Caption data and audio data reproduction method and display device using the same
PCT/KR2001/000223 WO2001069920A1 (en) 2000-03-16 2001-02-15 Method and apparatus for recording and replaying caption data and audio data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000013478A KR100341030B1 (en) 2000-03-16 2000-03-16 method for replaying caption data and audio data and a display device using the same

Publications (2)

Publication Number Publication Date
KR20010091613A true KR20010091613A (en) 2001-10-23
KR100341030B1 KR100341030B1 (en) 2002-06-20

Family

ID=19655989

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000013478A KR100341030B1 (en) 2000-03-16 2000-03-16 method for replaying caption data and audio data and a display device using the same

Country Status (4)

Country Link
JP (1) JP3722750B2 (en)
KR (1) KR100341030B1 (en)
CN (1) CN1251486C (en)
WO (1) WO2001069920A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109062537A (en) * 2018-08-30 2018-12-21 倪兴炜 A kind of reduction method, apparatus, medium and the equipment of audio frequency delay

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DK1335987T4 (en) 2000-11-23 2016-09-19 Bavarian Nordic As Modified variant of vaccinia virus Ankara
KR20050072255A (en) 2004-01-06 2005-07-11 엘지전자 주식회사 Method for managing and reproducing a subtitle of high density optical disc
WO2005074400A2 (en) 2004-02-10 2005-08-18 Lg Electronics Inc. Recording medium and method and apparatus for decoding text subtitle streams
KR100610900B1 (en) * 2004-12-09 2006-08-09 엘지전자 주식회사 Dynamic Control Method of Video Encoder
CN100385934C (en) * 2004-12-10 2008-04-30 凌阳科技股份有限公司 Method for controlling using subtitles relevant time as audio-visual playing and audio-sual playing apparatus thereof
CA2607974A1 (en) * 2005-05-12 2006-11-16 English Roleplay Pty Ltd System and method for learning languages
CN1870156B (en) * 2005-05-26 2010-04-28 凌阳科技股份有限公司 Disk play device and its play controlling method and data analysing method
CN100389607C (en) * 2006-05-26 2008-05-21 深圳创维-Rgb电子有限公司 Method for realizing hidden captions display with screen menu type regulating mode
CN101222592B (en) * 2007-01-11 2010-09-15 深圳Tcl新技术有限公司 Closed subtitling display equipment and method
JP4946874B2 (en) * 2008-01-09 2012-06-06 ソニー株式会社 Playback apparatus and playback method
US20130127908A1 (en) * 2011-11-22 2013-05-23 General Instrument Corporation Method and apparatus for dynamic placement of a graphics display window within an image
CN102665051A (en) * 2012-04-06 2012-09-12 安科智慧城市技术(中国)有限公司 Embedded system based display terminal and method and system for subtitle display of display terminal
KR20190056119A (en) * 2017-11-16 2019-05-24 삼성전자주식회사 Display apparatus and method for controlling thereof
CN108040277B (en) 2017-12-04 2020-08-25 海信视像科技股份有限公司 Subtitle switching method and device for multi-language subtitles obtained after decoding

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07298223A (en) * 1994-04-28 1995-11-10 Toshiba Corp Caption information receiver
JPH0965232A (en) * 1995-08-29 1997-03-07 Ekushingu:Kk Information supply device, information output device and information presentation system
US5883675A (en) * 1996-07-09 1999-03-16 S3 Incorporated Closed captioning processing architecture for providing text data during multiple fields of a video frame
KR100410863B1 (en) * 1996-09-21 2004-03-30 엘지전자 주식회사 Repetitive playback method in sentence unit on caption cassette player
JPH11234586A (en) * 1998-02-13 1999-08-27 Toshiba Corp Sub video image display
KR20000033417A (en) * 1998-11-23 2000-06-15 전주범 Method for repeatedly reproducing caption data in vcr system
KR20000033876A (en) * 1998-11-26 2000-06-15 전주범 Method of repeatedly reproducing caption interval in video cassette recorder
KR20000037641A (en) * 1998-12-01 2000-07-05 전주범 Method for controlling on and off of caption function in tvcr
US6064998A (en) * 1998-12-22 2000-05-16 Ac Properties, B.V. System, method and article of manufacture for a simulation engine with an expert system example processing engine
KR19990064823A (en) * 1999-05-12 1999-08-05 김민선 Method and storing media for controlling caption function for studying foreign language subscript included in moving picture

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109062537A (en) * 2018-08-30 2018-12-21 倪兴炜 A kind of reduction method, apparatus, medium and the equipment of audio frequency delay
CN109062537B (en) * 2018-08-30 2021-07-30 倪兴炜 Audio delay reduction method, device, medium and equipment

Also Published As

Publication number Publication date
CN1251486C (en) 2006-04-12
JP3722750B2 (en) 2005-11-30
CN1418427A (en) 2003-05-14
JP2003527000A (en) 2003-09-09
WO2001069920A1 (en) 2001-09-20
KR100341030B1 (en) 2002-06-20

Similar Documents

Publication Publication Date Title
KR100341030B1 (en) method for replaying caption data and audio data and a display device using the same
US5438423A (en) Time warping for video viewing
US5576768A (en) Caption information receiving apparatus
JPH0243398B2 (en)
JP2001257950A (en) Program recorder, medium and information aggregate
US5486872A (en) Method and apparatus for covering and revealing the display of captions
JPH0142702B2 (en)
JP2001292388A (en) Reproducing device
KR20060118206A (en) Apparatus and method for recording of digital video signal
JP3838012B2 (en) Program recording / playback device
KR0124605B1 (en) Method and apparatus of recording of sub data for video cassette tape recorder
JPH05183877A (en) Reproduction speed controller of image information reproducing device
US20040234236A1 (en) Data recording and reproduction apparatus displaying channels
KR100402832B1 (en) Method For Recording And Replaying Caption Data, Video Data And Audio Data
JPH06284364A (en) Information processor
US5844869A (en) Optical disk recording and reproducing system capable of eliminating the interruption or overlapping of data
KR20030038852A (en) Apparatus for recoding and displaying of book-mark information using the capture of image, and its methods
JPH11220688A (en) Picture information reproduction device
KR100202223B1 (en) Words caption input apparatus
KR0138286B1 (en) Video cassette tape recorder with auto repeat reproducing apparatus for audio signal
JP3263801B2 (en) Video processing device
JPH07231421A (en) Television receiver
KR960011736B1 (en) Image signal storing and writing apparatus
JPH0944199A (en) Voice signal reproducing device
KR100301023B1 (en) Method for recording/reproducing video signals providing record date and record time and apparatus therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110530

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee