KR100299229B1 - Subtitle Editing Device and Method - Google Patents

Subtitle Editing Device and Method Download PDF

Info

Publication number
KR100299229B1
KR100299229B1 KR1019980039559A KR19980039559A KR100299229B1 KR 100299229 B1 KR100299229 B1 KR 100299229B1 KR 1019980039559 A KR1019980039559 A KR 1019980039559A KR 19980039559 A KR19980039559 A KR 19980039559A KR 100299229 B1 KR100299229 B1 KR 100299229B1
Authority
KR
South Korea
Prior art keywords
data
caption
position information
subtitle
axis
Prior art date
Application number
KR1019980039559A
Other languages
Korean (ko)
Other versions
KR20000020794A (en
Inventor
조재룡
류한섭
Original Assignee
구자홍
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구자홍, 엘지전자 주식회사 filed Critical 구자홍
Priority to KR1019980039559A priority Critical patent/KR100299229B1/en
Publication of KR20000020794A publication Critical patent/KR20000020794A/en
Application granted granted Critical
Publication of KR100299229B1 publication Critical patent/KR100299229B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Circuits (AREA)

Abstract

본 발명은 학습용 자막편집장치 및 방법에 관한 것으로, 더욱 상세하게는 여러 가지 종류의 데이터를 합성하고 있는 복합데이터에서 자막데이터만을 편집하여 학습용으로 이용 가능한 자막편집장치 및 방법에 관한 것이다.The present invention relates to a caption editing apparatus and method for learning, and more particularly, to a caption editing apparatus and method that can be used for learning by editing only the caption data in a composite data synthesized from various types of data.

본 발명의 학습용 자막편집방법은, 복합데이터에서 자막데이터를 분리하는 단계와; 분리된 자막데이터의 위치정보의 값을 변경하는 단계와; 위치정보가 변경된 자막데이터로 프레임을 구성하는 단계와; 자막데이터를 디스플레이시키는 단계를 포함하여, 학습용으로 효율적인 이용이 가능하도록 하였다.Learning subtitle editing method of the present invention comprises the steps of: separating the subtitle data from the composite data; Changing a value of position information of the separated caption data; Constructing a frame with caption data whose position information has been changed; Displaying the caption data to enable efficient use for learning.

Description

학습용 자막편집장치 및 방법Subtitle Editing Device and Method for Learning

본 발명은 학습용 자막편집장치 및 방법에 관한 것으로, 더욱 상세하게는 여러 가지 종류의 데이터를 합성하고 있는 복합데이터에서 자막데이터만을 편집하여 학습용으로 이용 가능한 자막편집장치 및 방법에 관한 것이다.The present invention relates to a caption editing apparatus and method for learning, and more particularly, to a caption editing apparatus and method that can be used for learning by editing only the caption data in a composite data synthesized from various types of data.

기존의 영상재생장치는 데이터가 기록되어 있는 기록매체로부터 기록된 데이터를 재생하여 디스플레이시켜주기 위한 장치일 뿐이었다. 그러나 많은 소비자들이 임의의 장치에서 단지 하나의 기능으로 만족하지 않고, 여러 가지 기능을 요구한다. 그래서 최근 등장하는 기기들은 기기가 갖는 주기능 외로 여러 가지 보조기능을 추가해서 멀티시스템으로 구현되고 있는 실정이다.Existing image reproducing apparatus is only an apparatus for reproducing and displaying the recorded data from the recording medium on which the data is recorded. However, many consumers are not satisfied with just one function in any device, but require several functions. Therefore, recently appeared devices are being implemented as a multi-system by adding various auxiliary functions in addition to the main functions of the devices.

이러한 멀티시스템은 점차적으로 간편화와 신속함을 요구하는 정보화사회에 가장 적합한 형태로 자리잡고 있다. 일 예로, 광기록매체인 디지털 비디오 디스크는, 여러종류의 앵글데이터, 여러 언어로 이루어진 다수의 음성데이터, 여러 언어로 이루어진 다수의 자막데이터, 그리고 다수개의 타이틀에 대한 영상데이터 등 기록매체로서 갖출 수 있는 매우 다양한 형태의 데이터들을 저장하고 있다. 이것은 단지 하나의 타이틀에 대한 영상데이터만을 저장하였던 기존의 기록매체와 비교해볼 때, 매우 다양한 형태의 디스플레이화면을 소비자들에게 제공할 수 있다고 설명 가능하다.These multi-systems are gradually becoming the most suitable form for the information society that demands simplicity and speed. For example, a digital video disc, which is an optical recording medium, may be provided as a recording medium such as various types of angle data, multiple audio data in various languages, multiple subtitle data in multiple languages, and image data for multiple titles. Stores a wide variety of data types. This can be explained by providing a wide variety of display screens to consumers, compared to existing recording media that have stored only image data for one title.

그러나 기존의 영상재생장치는 이렇게 다양한 형태의 디스플레이화면을 소비자들에게 제공 가능함에도 불구하고, 단지 기록매체에 기록되어 있는 데이터를 재생하는 재생기능만을 갖추고 있다고 할 수 있다. 이러한 점은 새로운 것, 다양한 기능을 계속 요구하는 소비자들의 욕구를 충족시키지 못하고, 이것은 결국 구매욕을 떨어뜨리는 하나의 문제점이 되었다.However, although the existing image reproducing apparatus can provide such various types of display screens to consumers, it can be said that it has only a reproducing function of reproducing data recorded on the recording medium. This does not meet the needs of consumers who continue to demand new and diverse functions, which in turn has become a problem that lowers the purchasing desire.

따라서 디지털 비디오 디스크를 재생하는 재생장치는 디지털 비디오 디스크의 기록데이터를 재생하는 기능외에 다른 기능을 갖추는 것이 제안되었다. 이것은 디지털 비디오 디스크가 여러 가지 형태의 데이터를 가지고 있으며, 이러한 여러 가지 형태의 데이터를 이용한 보조기능을 갖출수 있기 때문이다.Therefore, it has been proposed that a reproducing apparatus for reproducing a digital video disc has a function other than that of reproducing the recorded data of the digital video disc. This is because digital video discs have various types of data, and can have a supplemental function using these various types of data.

그래서 본 발명에서는 기록매체로부터 데이터를 재생하는 재생기능 외에 학습기능이 추가된 영상재생장치를 제안하게 된 것이다.Thus, the present invention proposes an image reproducing apparatus in which a learning function is added in addition to a reproducing function of reproducing data from a recording medium.

더군다나 많은 사람들이 영화와 같은 영상매체를 보면서 듣기와 말하기 등을 공부하고 있는 것에 주안점을 두고, 본 발명은 영화에 포함된 복합데이터 중에서 원하는 데이터만으로 편집하여 학습용으로 이용하고자 한다.In addition, many people focus on studying listening and speaking while watching a video medium such as a movie, and the present invention intends to use it for learning by editing only desired data among complex data included in a movie.

따라서 본 발명에서는 영상재생장치로부터 재생되는 영상데이터, 음성데이터, 자막데이터 중에서 자막데이터만을 편집하여 학습용으로 이용하고자 하는 것에 있다.Accordingly, the present invention is intended to edit only subtitle data among video data, audio data, and subtitle data reproduced by the video reproducing apparatus for use for learning.

따라서 본 발명의 목적은 복합데이터에서 자막만을 편집해서 학습용으로 이용 가능한 학습용 자막편집장치 및 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide a caption editing apparatus and method for learning that can be used for learning by editing only captions in composite data.

도 1은 본 발명에 따른 학습용 자막편집장치를 도시하는 블록도,1 is a block diagram showing an apparatus for editing subtitles for learning according to the present invention;

도 2는 본 발명에 따른 학습용 자막편집을 위한 동작 과정도,2 is a flowchart illustrating an operation for editing subtitles for learning according to the present invention;

도 3은 본 발명의 자막편집을 수행하는 예시도,3 is an exemplary diagram for performing caption editing of the present invention;

도 4는 본 발명의 제 1 실시예에 따른 학습용 자막편집방법을 도시하는 흐름도,4 is a flowchart showing a method for editing subtitles for learning according to the first embodiment of the present invention;

도 5는 본 발명의 제 2 실시예에 따른 학습용 자막편집방법을 도시하는 흐름도.5 is a flowchart showing a method for editing subtitles for learning according to a second embodiment of the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

10 : 데이터 컨트롤러 20 : 음성램10: data controller 20: voice ram

30 : 자막램 40 : 디스플레이부30: caption RAM 40: display unit

상기 목적을 달성하기 위한 본 발명에 따른 학습용 자막편집장치는, 복합데이터로부터 자막데이터와 음성데이터를 분리하고, 분리된 자막데이터의 위치정보값을 변경하는 제어수단과; 상기 제어수단에서 위치정보값이 변경된 자막데이터를 저장하는 제 1 저장수단과; 상기 제어수단에서 분리된 음성데이터를 저장하는 제 2 저장수단과; 상기 제어수단의 제어하에 제 1,2 저장수단에 저장된 자막데이터 및 음성데이터를 동기시켜서 출력하는 출력수단을 포함하여 구성된다.According to an aspect of the present invention, there is provided a learning caption editing apparatus comprising: control means for separating caption data and audio data from composite data and changing position information values of the separated caption data; First storage means for storing the caption data of which the position information value is changed in the control means; Second storage means for storing voice data separated from the control means; And output means for synchronizing and outputting subtitle data and audio data stored in the first and second storage means under the control of the control means.

상기 목적을 달성하기 위한 본 발명에 따른 학습용 자막편집방법은, 복합데이터에서 자막데이터를 분리하는 단계와; 분리된 자막데이터의 위치정보의 값을 변경하는 단계와; 위치정보가 변경된 자막데이터로 프레임을 구성하는 단계와; 자막데이터를 디스플레이시키는 단계를 포함하여 구성된다.Learning subtitle editing method according to the present invention for achieving the above object comprises the steps of: separating the subtitle data from the composite data; Changing a value of position information of the separated caption data; Constructing a frame with caption data whose position information has been changed; And displaying the caption data.

본 발명에 따른 학습용 자막편집장치는, 입력되는 복합데이터에서 자막데이터 또는 음성데이터만을 필터링하고, 필터링된 자막데이터와 음성데이터를 별도의 데이터저장수단에 저장하는 것을 특징으로 한다.The apparatus for editing learning for learning according to the present invention is characterized by filtering only subtitle data or voice data from input composite data and storing the filtered subtitle data and voice data in separate data storage means.

본 발명에 따른 학습용 자막편집방법은, 입력되는 복합데이터에서 자막데이터만을 필터링하고, 필터링된 자막데이터의 위치데이터를 바꾸어서 자막데이터로만 화면을 구성하는 것을 특징으로 한다.The method for editing a subtitle for learning according to the present invention is characterized in that the screen is composed of only the subtitle data by filtering only the subtitle data from the input composite data and changing the position data of the filtered subtitle data.

또한, 본 발명에 따른 학습용 자막편집방법은, 자막데이터로만 구성된 화면을 한화면씩 이동하는 것을 특징으로 한다.In addition, the method for editing subtitles for learning according to the present invention is characterized by moving a screen composed of only subtitle data one by one.

본 발명에 따른 학습용 자막편집방법은, 자막데이터로만 구성된 화면에서 한문장씩 이동하는 것을 특징으로 한다.The method for editing subtitles for learning according to the present invention is characterized by moving by one sentence on a screen composed of only subtitle data.

또한, 본 발명에 따른 학습용 자막편집장치 및 방법은 자막데이터와 음성데이터를 동시에 출력하는 것을 특징으로 한다.In addition, the apparatus and method for editing subtitles for learning according to the present invention is characterized by outputting subtitle data and audio data simultaneously.

본 발명에 따른 학습용 자막편집장치 및 방법은, 자막데이터와 음성데이터의 출력속도를 조절 가능한 것을 특징으로 한다.The apparatus and method for editing caption for learning according to the present invention is characterized in that the output speeds of caption data and audio data can be adjusted.

이하 첨부한 도면을 참조해서 본 발명의 학습용 자막편집장치 및 방법에 대해서 상세하게 설명한다.Hereinafter, an apparatus and method for editing subtitles for learning according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 학습용 자막편집장치를 도시하는 블록도이고, 도 2는 본 발명에 따른 데이터 컨트롤러의 동작과정을 도시하는 흐름도이다.1 is a block diagram illustrating an apparatus for editing a caption for learning according to the present invention, and FIG. 2 is a flowchart illustrating an operation process of a data controller according to the present invention.

본 발명의 학습용 자막편집장치는, 도 1에 도시하고 있는 바와 같이, 재생데이터를 입력하고, 해당하는 램에 저장하기까지의 제어를 수행하는 데이터 컨트롤러(10)와, 음성 데이터를 저장하는 음성램(20)과, 자막데이터를 저장하는 자막램(30)과, 그리고 상기 데이터 컨트롤러(10)의 제어에 의해서 변경된 자막데이터를 디스플레이시키는 디스플레이부(40)를 포함한다.As shown in FIG. 1, the learning subtitle editing apparatus of the present invention includes a data controller 10 for controlling playback of inputted playback data and storage in a corresponding RAM, and a voice RAM for storing voice data. 20, a caption RAM 30 for storing caption data, and a display unit 40 for displaying caption data changed by the control of the data controller 10.

상기 데이터 컨트롤러(10)는, 디지털 비디오 디스크의 재생데이터를 입력하고, 재생데이터에서 음성데이터와 자막데이터를 구분한다. 그리고 분리된 자막데이터는 자막램(30)에 저장시키고, 음성데이터는 음성램(20)에 저장시킨다(도 2의 제 100 단계). 즉, 상기 데이터 컨트롤러(10)에 입력되는 데이터는, 도 3a에 도시되고 있는 바와 같이, 영상데이터가 포함된 복합정보이다. 그래서 상기 데이터 컨트롤러(10)는, 입력되는 복합정보로부터 자막데이터만을 필터링하고 자막램(30)에 저장시킨다.The data controller 10 inputs reproduction data of the digital video disc, and distinguishes between audio data and subtitle data from the reproduction data. The separated subtitle data is stored in the subtitle RAM 30, and the voice data is stored in the voice RAM 20 (step 100 of FIG. 2). That is, the data input to the data controller 10 is complex information including video data, as shown in FIG. 3A. Thus, the data controller 10 filters only the caption data from the input complex information and stores the caption data in the caption RAM 30.

상기 자막램(30)에 저장되는 자막데이터는, 도 3b에 도시하는 바와 같이, 자막데이터로만 구성된다. 그리고 상기 자막램(30)에 저장되는 자막데이터는 그 위치정보의 값이 변경되어서 저장된다(도 2의 제 110 단계). 이것은 자막데이터가 일반적으로 앞서 도 3a에 도시된 바와 같이, 영상데이터와 복합된 상태에서는 화면의 하단부에 위치하고 있었다. 그래서 도 3b와 같이 자막데이터만으로 구성할 때, 위치정보를 변경하지 않은 상태에서는“가나다”,“ㄱㄴㄷ”,“ABC”가 모든 동일위치에 위치하므로, 이것을 방지하기 위해서는 자막데이터의 위치정보의 값을 변경시켜줄 필요가 있는 것이다. 상기 자막데이터의 위치정보의 값을 변경하는 부분에 대해서는 도 4를 참조해서 좀 더 자세히 설명하기로 한다.The caption data stored in the caption RAM 30 is composed of caption data only, as shown in Fig. 3B. Subtitle data stored in the subtitle RAM 30 is stored by changing the value of the location information (step 110 of FIG. 2). This is because the caption data was generally located at the bottom of the screen in the state of being composited with the image data, as shown in FIG. 3A. Thus, when composed of caption data only, as shown in FIG. 3B, when the location information is not changed, “kana”, “bb” and “ABC” are located at all the same positions. You need to change the. A part of changing the value of the position information of the caption data will be described in more detail with reference to FIG. 4.

이렇게 자막데이터는 그 위치정보가 변경된 후 자막램(30)에 저장되고, 음성데이터는 음성램(20)에 저장된다.The caption data is stored in the caption RAM 30 after the position information is changed, and the voice data is stored in the sound RAM 20.

다음, 상기 데이터 컨트롤러(10)는, 위치정보의 값이 변경된 자막데이터만으로 도 3b에 도시된 바와 같은 프레임을 구성한다(제 120 단계). 이때, 화면의 구성은 새로운 자막데이터만으로 하나의 화면을 구성하는 것이 가능하다. 그리고 자막데이터가 화면상에서 순차적으로 상승되면서 스크롤(scroll) 되는 것도 가능하다. 이것은, 상기 제 120 단계에서 프레임을 구성시에, 어떻게 구성하는 가에 따라서 변경 가능하다. 상기 프레임 구성에 대한 상세한 설명도 도 4에서 살펴보기로 한다.Next, the data controller 10 configures a frame as shown in FIG. 3B using only subtitle data whose value of position information is changed (step 120). In this case, the screen may be composed of only one new caption data. It is also possible to scroll as the caption data is sequentially raised on the screen. This can be changed depending on how to configure the frame when constructing the frame in the 120th step. A detailed description of the frame configuration will also be described with reference to FIG. 4.

상기 제 120 단계에서 자막데이터만으로 화면이 구성되면, 데이터 컨트롤러(10)는, 사용자가 요구한 음성출력속도를 인지하고(제 130 단계), 음성데이터의 출력속도에 동기를 맞추어서 한 화면으로 구성된 자막데이터를 디스플레이부(40)에 디스플레이시킨다(제 140 단계). 또한, 상기 음성데이터는 도시하지 않고 있지만 스피커와 같은 출력장치를 통해서 출력된다.If the screen is composed of only the caption data in step 120, the data controller 10 recognizes the voice output speed requested by the user (step 130), and the caption is configured as one screen in synchronization with the output speed of the voice data. The data is displayed on the display unit 40 (step 140). In addition, although not shown, the voice data is output through an output device such as a speaker.

즉, 본 발명은 영상데이터를 재생하는 것이 주기능이었던 영상재생장치에 자막데이터와 음성데이터를 분리하여 디스플레이시키는 기능을 추가해서, 학습용으로 이용 가능하도록 하였다.That is, the present invention adds a function of separating and displaying caption data and audio data to a video reproducing apparatus whose main function is to reproduce video data, so that it can be used for learning.

다음은 도 4를 참조해서 본 발명에 따른 자막데이터 위치정보의 값을 변경시켜서 하나의 화면으로 구성하는 과정에 대해서 설명한다.Next, a process of configuring a single screen by changing the value of the caption data location information according to the present invention will be described with reference to FIG.

데이터 컨트롤러(10)는, 우선 n을 "0"로 초기화시킨다(제 224 단계). 그리고 제 226 단계에서는 n의 값에 1을 가산하여 n으로 설정한다. 이렇게 해서 n을 설정한 후, 자막데이터 "가나다"가 위치한 X축의 시작위치정보(Xs(n))와, Y축의 시작위치정보(Ys(n)), Y축의 끝위치정보(Ye(n)), 그리고 픽셀 데이터 폭(Yp(n))을 읽어온다(제 200 단계). 도 3a는 제 200 단계에서 읽어온 정보의 예시도이다.The data controller 10 first initializes n to " 0 " (step 224). In step 226, 1 is added to the value of n and set to n. After setting n in this way, the start position information (Xs (n)) of the X axis where the subtitle data "Kana" is located, the start position information (Ys (n)) of the Y axis, and the end position information (Ye (n)) of the Y axis And the pixel data width Yp (n) (step 200). 3A is an exemplary diagram of information read in step 200.

상기 데이터 컨트롤러(10)는, 제 200 단계에서 읽어온 Y축의 시작위치정보(Ys(n))를 A값으로 변경한다. 상기 A의 값은, 도 3b에 도시하고 있는 바와 같이, Y축상에서 자막데이터가 위치할 수 있는 가장 상단부분의 값을 나타낸다.The data controller 10 changes the starting position information Ys (n) of the Y-axis read in step 200 to an A value. As shown in Fig. 3B, the value of A represents the value of the uppermost portion where the caption data can be located on the Y axis.

그리고 데이터 컨트롤러(10)는, 제 200 단계에서 읽어온 Y축의 끝위치정보(Ye(n))을 상기 A값에 픽셀 데이터 폭(Yp(n))을 더한 값으로 변경한다. 그리고 자막데이터 "가나다"의 X축 시작위치정보는 X축상의 자막데이터의 위치의 변경을 필요로 하지 않는한 그대로 유지시킨다(제 202 단계).The data controller 10 changes the end position information Ye (n) of the Y-axis read in step 200 to a value obtained by adding the pixel data width Yp (n) to the value A. The X-axis starting position information of the caption data " Kana " is kept as it is unless a change in the position of the caption data on the X-axis is required (step 202).

이렇게 하면, 도 3b에 도시된 바와 같은 변경된 "가나다"의 위치정보가 산출된다. 상기 변경된 자막데이터 "가나다"의 X축의 시작위치정보(Xs(n))와, Y축의 시작위치정보(Ys(n)), Y축의 끝위치정보(Ye(n)), 그리고 픽셀 데이터 폭(Yp(n))은 자막데이터 "가나다"와 함께 자막램(30)에 저장된다(제 204 단계).In this way, the changed position information of "kana" as shown in FIG. 3B is calculated. Start position information (Xs (n)) of the X axis of the changed caption data "Kana", start position information (Ys (n)) of the Y axis, end position information (Ye (n)) of the Y axis, and pixel data width ( Yp (n) is stored in the subtitle RAM 30 together with the subtitle data "to go" (step 204).

다음, 데이터 컨트롤러(10)는, 다음 자막데이터 "ㄱㄴㄷ"의 X축의 시작위치정보(Xs(n+1))와, Y축의 시작위치정보(Ys(n+1)), Y축의 끝위치정보(Ye(n+1)), 그리고 픽셀 데이터 폭(Yp(n+1))을 읽어온다(제 206 단계).Next, the data controller 10, the start position information (Xs (n + 1)) of the X axis of the next subtitle data "ㄱㄴㄷ", the start position information (Ys (n + 1)) of the Y axis, the end position information of the Y axis (Ye (n + 1)) and the pixel data width Yp (n + 1) are read (step 206).

그리고 상기 제 206 단계에서 읽어온 자막데이터 "ㄱㄴㄷ"의 위치정보는, 도 3b에 도시하고 있는 바와 같이 자막데이터 "가나다"의 하단부에 위치할 수 있도록 변경한다.The positional information of the subtitle data "B" is read so as to be located at the lower end of the subtitle data "Kana" as shown in FIG. 3B.

따라서 제 206 단계에서 읽어온 자막데이터 "ㄱㄴㄷ" Y축의 시작위치정보(Ys(n+1))는, 자막데이터 "가나다"의 Y축의 끝위치정보(Ye(n))에 1을 가산시킨 값으로 변경한다. 이렇게 해서, 자막데이터 "ㄱㄴㄷ"의 Y축의 시작위치(Ys(n+1))는 자막데이터 "가나다"에서 한 줄 밑이 된다.Therefore, the start position information Ys (n + 1) of the Y-axis of the caption data "ㄱㄴㄷ" read in step 206 is a value obtained by adding 1 to the end position information Ye (n) of the Y-axis of the caption data "Kanada". Change to In this way, the starting position Ys (n + 1) of the Y axis of the subtitle data "ㄱㄴㄷ" becomes one line below the subtitle data "Kana".

그리고 자막데이터 "ㄱㄴㄷ"의 Y축의 끝위치정보(Ye(n+1))는, 상기 Y축의 시작위치정보(Ye(n)+1)에 픽셀 데이터 폭(Yp(n+1))가 가산된 값으로 결정된다(제 208 단계).Then, the pixel position width Yp (n + 1) is added to the end position information Ye (n + 1) of the Y axis of the subtitle data “ㄱㄴㄷ” to the start position information Ye (n) +1 of the Y axis. The determined value is determined (step 208).

이렇게 해서 자막데이터 "ㄱㄴㄷ"의 변경 위치정보가 결정되고, 이렇게 결정된 위치정보, Yp(n+1), Ye(n+1), Ys(n+1), Xs(n+1)는 자막데이터 "ㄱㄴㄷ"과 함께 자막램에 저장된다(제 210 단계).In this way, the change position information of the subtitle data "ㄱㄴㄷ" is determined, and the determined position information, Yp (n + 1), Ye (n + 1), Ys (n + 1), and Xs (n + 1) are subtitle data. It is stored in the subtitle RAM together with "ㄱㄴㄷ" (step 210).

한편, 상기 데이터 컨트롤러(10)는, 상기 자막데이터의 위치정보를 변경할 때, 하나의 프레임으로 구성됨을 제어할 필요가 있다. 이것은 임의의 자막데이터의 변경된 위치정보가 화면상에 표시 불가능하게 변경되는 것을 방지시켜야 하기 때문이다.On the other hand, the data controller 10, when changing the position information of the caption data, it is necessary to control that composed of one frame. This is because it is necessary to prevent the changed positional information of arbitrary caption data from being changed undisplayably on the screen.

따라서 데이터 컨트롤러(10)는 자막데이터의 위치정보를 변경함과 동시에, 변경되는 자막데이터의 픽셀 데이터 폭(Yp(z)을 누적 가산한다(제 212 단계). 여기서 z값은 n,n+1,n+2,....를 나타낸다.Therefore, the data controller 10 changes the positional information of the caption data and accumulatively adds the pixel data width Yp (z) of the changed caption data (step 212), where z is n, n + 1. , n + 2, ...

그리고 상기 제 212 단계에서 누적 가산된 픽셀 데이터 폭(∑Yp(z))이 디스플레이부(40)의 주사선을 초과하지 않도록 제어한다(제 214 단계). 즉, 525 주사라인을 갖는 경우에 있어서는, 상기 누적 가산된 픽셀 데이터 폭(∑Yp(z))이 479 라인보다 크지 않도록 감시한다. 그리고 625 주사라인을 갖는 경우에 있어서는, 상기 누적 가산된 픽셀 데이터 폭(∑Yp(z))이 574라인보다 크지 않도록 감시한다. 여기서 상기 479라인 또는 574라인으로 비교치를 소정값씩 여유를 두는 것은, 화면의 상단부와 하단부, 그리고 자막과 자막 사이에 소정의 여백이 설정되기 때문이다.The pixel data width? Yp (z) accumulated in step 212 is controlled so as not to exceed the scan line of the display unit 40 (step 214). That is, in the case of having 525 scanning lines, the cumulative added pixel data width ΣYp (z) is monitored not to be larger than 479 lines. In the case of having 625 scanning lines, the cumulative added pixel data width? Yp (z) is monitored not to be larger than 574 lines. The reason why the comparison value is set to the 479 lines or the 574 lines by a predetermined value is that a predetermined margin is set between the upper and lower portions of the screen and between the subtitles and the subtitles.

상기 제 214 단계에서 누적 가산된 픽셀 데이터 폭(∑Yp(z))이 479라인(574라인)보다 작을 경우에는 n값에 1을 추가한 후(제 224 단계), 제 206 단계로 귀환하여 제 214단계까지의 과정을 반복 수행한다. 상기 과정이 반복 수행될 때, 하나의 화면상에 표시될 자막의 수는 하나씩 증가됨을 의미한다.If the cumulatively added pixel data width ∑Yp (z) in step 214 is smaller than 479 lines (574 lines), 1 is added to the value n (step 224), and the method returns to step 206 to return the result. Repeat the process up to step 214. When the above process is repeated, the number of subtitles to be displayed on one screen is increased by one.

다음, 상기 제 214 단계에서 누적 가산된 픽셀 데이터 폭(∑Yp(z))이 479라인(574라인)보다 같거나 커졌을 때, 데이터 컨트롤러(10)는 자막데이터를 연결하여 하나의 프레임을 구성하는 과정을 종료시킨다.Next, when the cumulatively added pixel data width ∑Yp (z) in step 214 is equal to or larger than 479 lines (574 lines), the data controller 10 connects the caption data to form one frame. Terminate the process.

그리고 누적 가산된 픽셀 데이터 폭(∑Yp(z))이 479라인(574라인)보다 큰지를 비교하고, 만약 크다면 프레임에 포함된 마지막 자막 데이터를 빼고(제 218 단계) 자막램(30)에 저장한 새롭게 구성된 프레임을 디스플레이부(40)에 디스플레이시킨다. 그리고 누적 가산된 픽셀 데이터 폭(∑Yp(z))이 479라인(574라인)과 같을 때, 현재까지 구성시킨 프레임을 그대로 디스플레이시킨다(제 220 단계).Then, the cumulative added pixel data width ∑Yp (z) is larger than 479 lines (574 lines), and if large, subtracts the last subtitle data included in the frame (step 218) and adds the subtitle RAM 30 to the subtitle RAM 30. The newly configured frame is displayed on the display unit 40. When the cumulatively added pixel data width? Yp (z) is equal to 479 lines (574 lines), the frame configured so far is displayed as it is (step 220).

이렇게 해서 하나의 프레임이 완성되고, 이후 다시 제 200 단계로 귀환해서 새로운 프레임을 구성하고, 디스플레이시키는 과정을 수행한다.In this way, one frame is completed, and then, the process returns to step 200 again to construct and display a new frame.

따라서 도 4에 도시된 형태의 과정으로 자막데이터의 위치정보를 변경하여 출력하면, 도 3b에 도시하는 바와 같이 한 프레임씩 화면을 출력시켜서 새로운 화면을 디스플레이시키는 것이 가능하게 된다.Therefore, when the positional information of the caption data is changed and output in the process shown in FIG. 4, the screen can be displayed one frame at a time and a new screen can be displayed as shown in FIG. 3B.

또한, 도 4에 따른 설명에서는 자막데이터의 변경된 위치정보를 자막램에 저장시켰다가 하나의 프레임 완성후, 디스플레이시키는 것으로 설명하고 있다. 그러나 상기 데이터 컨트롤러(10)의 처리속도에 따라서 소오스 자막데이터를 그대로 자막램(30)에 저장했다가, 위치정보의 변경과 동시에 디스플레이시키도록 제어하는 것도 가능할 것이다.In addition, the description of FIG. 4 illustrates that the changed position information of the caption data is stored in the caption RAM and displayed after completion of one frame. However, according to the processing speed of the data controller 10, the source caption data may be stored in the caption RAM 30 as it is and may be controlled to be displayed at the same time as the position information is changed.

다음, 도 5는 본 발명의 제 2 실시예에 따라서 자막데이터의 위치정보를 변경시키는 과정을 도시하는 흐름도이다.Next, FIG. 5 is a flowchart illustrating a process of changing location information of caption data according to the second embodiment of the present invention.

도 5에 자막데이터의 위치정보 변경은, 스크롤방법에 따라서 자막데이터의 디스플레이를 제어하기 위한 과정을 설명하고 있다.In FIG. 5, the change of the position information of the caption data describes a process for controlling the display of the caption data according to the scrolling method.

데이터 컨트롤러(10)는, 초기동작시에 입력되는 재생데이터로부터 자막데이터를 분리하고, 도 4의 동작과정에 따른 흐름도를 수행하여, 분리된 자막데이터의 위치정보의 값을 변경시켜서 도 3c의 편집된 첫 번째 화면을 구성시킨다. 즉, 스크롤방법에 의한 자막데이터의 디스플레이과정에서도 첫 번째 화면을 구성하기까지는 도 4의 과정과 동일하게 수행되는 것이다.The data controller 10 separates the caption data from the reproduction data input during the initial operation, performs a flowchart according to the operation of FIG. 4, and changes the value of the position information of the separated caption data to edit the data in FIG. 3C. The first screen that was created. That is, the process of displaying caption data by the scroll method is performed in the same manner as in FIG. 4 until the first screen is configured.

이후, 도 3c의 첫 번째 화면이 구성된 후, 데이터 컨트롤러(10)는, 다음 디스플레이될 3c의 두 번째 화면을 구성하기 위해서 n의 값을 1로 초기화시키고(제 300 단계), 다시 n의 값에 1을 가산시켜서 n의 값을 설정한다(제 302 단계). 그러면 n은 2로 설정되었다.Thereafter, after the first screen of FIG. 3c is configured, the data controller 10 initializes the value of n to 1 (step 300) to configure the second screen of 3c to be displayed next, and again to the value of n. The value of n is set by adding 1 (step 302). Then n is set to 2.

그리고 첫 번째 편집화면을 구성하면서 자막램(30)에 저장시킨 n=2의 자막데이터 "ㄱㄴㄷ"의 현재 위치정보값 Ys(n),Ye(n),Xs(n),Yp(n)을 읽어온다(제 304 단계).Then, the current position information values Ys (n), Ye (n), Xs (n), and Yp (n) of n = 2 subtitle data “ㄱㄴㄷ” stored in the subtitle RAM 30 while constructing the first edit screen Read it (step 304).

즉, 상기 Ys(n)은 도3c의 첫 번째 화면이 디스플레이 될 때 변경된 자막데이터"ㄱㄴㄷ"의 Y축의 시작위치정보이고, Ye(n)은 도 3c의 첫 번째 화면이 디스플레이 될 때 변경된 자막데이터 "ㄱㄴㄷ"의 Y축의 끝위치정보이다. 마찬가지로 Xs(n)과 Yp(n)도 변경된 자막데이터 "ㄱㄴㄷ"의 X축 시작위치정보 및 픽셀 데이터 폭을 나타낸다.That is, Ys (n) is the start position information of the Y-axis of the changed caption data “ㄱㄴㄷ” when the first screen of FIG. 3C is displayed, and Ye (n) is the caption data changed when the first screen of FIG. 3C is displayed. End position information of Y axis of "ㄱㄴㄷ". Similarly, Xs (n) and Yp (n) also indicate the X-axis start position information and pixel data width of the changed caption data "ㄱㄴㄷ".

따라서 두 번째 화면을 편집하기 위해서 자막데이터 "ㄱㄴㄷ"의 변경된 Y축 시작위치정보(Ys(n))는, 상기 제 304 단계에서 읽어온 Y축 시작위치정보(Ys(n))에서 이전 자막데이터 "가나다"의 픽셀 데이터 폭(Yp(n-1))값을 감산시킨 값으로 설정된다. 이것은 두 번째 디스플레이되는 화면에서 스크롤되면서 자막데이터 "가나다"는 디스플레이 되지 않기 때문에, 자막데이터 "가나다"가 차지했던 만큼의 여유가 발생되며, 따라서 자막데이터 "ㄱㄴㄷ"은 발생된 여유만큼 Y축상에서 상단으로 이동되는 것이다.Therefore, in order to edit the second screen, the changed Y-axis starting position information Ys (n) of the subtitle data "ㄱㄴㄷ" is the previous subtitle data from the Y-axis starting position information Ys (n) read in step 304. It is set to a value obtained by subtracting the pixel data width Yp (n-1) value of "to go". This is because the subtitle data "Gana" is not displayed while scrolling on the second displayed screen, so that the amount of free space occupied by the subtitle data "Gana" is occupied. Will be moved to.

그리고 두 번째 화면의 구성을 위해서 새롭게 변경되는 자막데이터 "ㄱㄴㄷ"의 Y축 끝위치정보(Ye(n))는, 상기 제 304 단계에서 읽어온 Y축 시작위치정보(Ys(n))에 픽셀 데이터 폭(Yp(n))을 가산시킨 값으로 설정된다(제 306 단계).The Y-axis end position information Ye (n) of the caption data "ㄱㄴㄷ" which is newly changed for the configuration of the second screen is a pixel in the Y-axis start position information Ys (n) read in step 304. It is set to a value obtained by adding the data width Yp (n) (step 306).

이렇게 해서 두 번째 화면에 디스플레이 될 자막데이터 "ㄱㄴㄷ"의 Y축 시작위치정보(Ys(n))와, Y축 끝위치정보(Ye(n))와, 그리고 X축 시작위치정보(Xs(n)) 및 픽셀 데이터 폭(Yp(n))이 결정되었고, 이렇게 변경된 위치정보는 자막데이터 "ㄱㄴㄷ"과 함께 자막램(30)에 다시 저장된다(제 308 단계).In this way, the Y-axis start position information (Ys (n)), Y-axis end position information (Ye (n)), and X-axis start position information (Xs (n) of the subtitle data "ㄱㄴㄷ" to be displayed on the second screen. ) And the pixel data width Yp (n) are determined, and the changed positional information is stored in the caption RAM 30 together with the caption data " Bb " (step 308).

다음, 데이터 컨트롤러(10)는, 상기 제 308 단계에서 위치정보의 값이 변경된 자막데이터가 이전 디스플레이 된 화면의 최하단에 위치한 자막데이터인지를 판단한다(제 310 단계).Next, the data controller 10 determines whether the caption data whose position information is changed in step 308 is caption data located at the bottom of the previously displayed screen (step 310).

그러나 도 3c 의 첫 번째 편집된 화면의 최하단에 위치한 자막데이터는 "ABC"이다. 그리고 상기 제 308 단계에서 위치정보가 변경된 자막데이터는 "ㄱㄴㄷ"이고, 첫 번째 편집된 화면에서 상기 자막데이터 "ㄱㄴㄷ"의 후단에 디스플레이 된 자막데이터가 있었으므로 제 310 단계에서는 제 302 단계로 리턴된다.However, the subtitle data located at the bottom of the first edited screen of FIG. 3C is "ABC". Subtitle data whose location information is changed in step 308 is "ㄱㄴㄷ", and since there was subtitle data displayed at the rear of the subtitle data "ㄱㄴㄷ" on the first edited screen, operation 310 returns to operation 302. .

그리고 데이터 컨트롤러(10)는 n의 값을 1증가시키고, 자막램(30)에 저장되어 있는 n=3의 자막데이터 "ABC"의 위치정보값 Ys(n),Ye(n),Xs(n),Yp(n)을 읽어온다(제 304 단계).Then, the data controller 10 increases the value of n by one, and position information values Ys (n), Ye (n), and Xs (n of n = 3 subtitle data “ABC” stored in the subtitle RAM 30. ), And read Yp (n) (step 304).

즉,, 상기 Ys(n)은 도3c의 첫 번째 화면이 디스플레이 될 때 변경된 자막데이터"ABC"의 Y축의 시작위치정보이고, Ye(n)은 도 3c의 첫 번째 화면이 디스플레이 될 때 변경된 자막데이터 "ABC"의 Y축의 끝위치정보이다. 마찬가지로 Xs(n)과 Yp(n)도 변경된 자막데이터 "ABC"의 X축 시작위치정보 및 픽셀 데이터 폭을 나타낸다.That is, Ys (n) is the start position information of the Y axis of the subtitle data “ABC” changed when the first screen of FIG. 3C is displayed, and Ye (n) is the subtitle changed when the first screen of FIG. 3C is displayed. End position information of the Y axis of the data "ABC". Similarly, Xs (n) and Yp (n) also indicate the X-axis start position information and pixel data width of the changed caption data "ABC".

그리고 두 번째 화면의 편집을 위한 "ABC"의 새로운 Y축 시작위치정보(Ys(n))는, 상기 제 304 단계에서 읽어온 Y축 시작위치정보(Ys(n))에서 자막데이터 "ㄱㄴㄷ"의 픽셀 데이터 폭(Yp(n-1))값을 감산시킨 값으로 설정된다. 즉, 두 번째 편집화면에서 자막데이터 "ABC"는, 자막데이터 "ㄱㄴㄷ"의 픽셀 데이터 폭만큼 Y축상에서 상단으로 이동된다.The new Y-axis starting position information Ys (n) of "ABC" for editing the second screen is the subtitle data "ㄱㄴㄷ" from the Y-axis starting position information Ys (n) read in step 304. It is set to a value obtained by subtracting the pixel data width Yp (n-1) value of?. That is, in the second editing screen, the caption data "ABC" is moved upward on the Y axis by the pixel data width of the caption data "ㄱㄴㄷ".

그리고 자막데이터 "ABC"의 Y축 끝위치정보(Ye(n))는, 상기 제 304 단계에서 읽어온 Y축 시작위치정보(Ys(n))에 픽셀 데이터 폭(Yp(n))을 가산시킨 값으로 설정된다(제 306 단계).The Y-axis end position information Ye (n) of the subtitle data "ABC" is added to the pixel data width Yp (n) to the Y-axis start position information Ys (n) read in step 304 above. It is set to the value made (step 306).

이렇게 해서 두 번째 화면에 디스플레이 될 자막데이터 "ABC"의 Y축 시작위치정보(Ys(n))와, Y축 끝위치정보(Ye(n))와, 그리고 X축 시작위치정보(Xs(n)) 및 픽셀 데이터 폭(Yp(n))이 결정되었고, 이렇게 변경된 위치정보는 자막데이터 "ABC"과 함께 자막램(30)에 다시 저장된다(제 308 단계).In this way, the Y-axis start position information (Ys (n)), Y-axis end position information (Ye (n)), and X-axis start position information (Xs (n) of the subtitle data "ABC" to be displayed on the second screen. ) And the pixel data width Yp (n) are determined, and the changed position information is stored in the caption RAM 30 together with the caption data "ABC" (step 308).

여기까지의 수행이 완료되면, 첫 번째 편집화면에서 디스플레이 되었던 모든 자막데이터의 위치정보의 값이 변경되었다. 즉, 상기 최종 제 308 단계에서 위치정보의 값이 변경된 자막데이터는, 첫 번째 편집화면의 최하단에 출력되었던 자막데이터이다.When the execution up to this point is completed, the values of the position information of all subtitle data displayed on the first edit screen have been changed. That is, the subtitle data whose position information is changed in the final step 308 is the subtitle data that was output at the bottom of the first edit screen.

따라서 제 308 단계에서 최종 위치정보의 값이 변경된 자막데이터는 이전 편집화면의 마지막 자막데이터이므로, 다음단계로서 상기 데이터 컨트롤러(10)는 제 312 단계를 수행한다.Accordingly, since the subtitle data whose final position information is changed in step 308 is the last subtitle data of the previous edit screen, the data controller 10 performs a third step as a next step.

상기 제 312 단계는, 새로운 자막데이터를 두 번째 화면에 부가하기 위한 단계이다. 상기 데이터 컨트롤러(10)는, 재생데이터로부터 입력되는 복합데이터에서 자막데이터 "라마바"를 분리하고, 분리된 자막데이터의 위치정보값을 읽어온다. 이때 읽어오는 자막데이터 "라마바"의 위치정보값은 자막데이터 "라마바"가 영상신호와 포함되었을 때, 화면의 하단(일반적으로)에 위치되기 위해서 결정되었던 위치정보값이 된다.In step 312, new caption data is added to the second screen. The data controller 10 separates the caption data "Lamaba" from the composite data input from the reproduction data, and reads the positional information value of the separated caption data. At this time, the position information value of the caption data "Lamaba" to be read is the position information value determined to be located at the bottom (generally) of the screen when the caption data "Lamaba" is included with the video signal.

즉, 제 312 단계는 자막데이터 "라마바"를 영상데이터와 분리할때의 위치정보값, X축의 시작위치정보(Xs(n+1))와, Y축의 시작위치정보(Ys(n+1))와, Y축의 끝위치정보(Ye(n+1))와, 픽셀 데이터 폭(Yp(n+1))을 읽어온다.That is, in step 312, the position information value when the caption data "Ramaba" is separated from the image data, the start position information (Xs (n + 1)) of the X axis, and the start position information (Ys (n + 1) of the Y axis). ), The end position information (Ye (n + 1)) of the Y-axis, and the pixel data width Yp (n + 1).

그리고 자막데이터 "라마바"의 Y축의 시작위치정보(Ys(n+1))는, 최종적으로 상기 제 308 단계에서 위치가 변경된 자막데이터 "ABC"의 Y축 끝위치정보(Ye(n))에 1을 가산시킨 값으로 결정한다. 즉, 자막데이터 "라마바"의 Y축 상의 시작위치는 자막데이터 "ABC"의 Y축 상의 끝위치에 1을 가산시킨 위치가 되는 것이다.The Y-axis start position information Ys (n + 1) of the caption data "Lamaba" is Y-axis end position information Ye (n) of the caption data "ABC" whose position was finally changed in step 308. Determined by adding 1 to. That is, the start position on the Y axis of the caption data "Ramabar" is a position obtained by adding 1 to the end position on the Y axis of the caption data "ABC".

또한, 자막데이터 "라마바"의 Y축의 끝위치정보(Ye(n+1))는, Y축의 시작위치정보(Ys(n+1))에 픽셀 데이터 폭(Yp(n+1))을 가산시킨 값으로 결정된다(제 314 단계).In addition, the end position information (Ye (n + 1)) of the Y axis of the subtitle data "Lamaba" has the pixel data width Yp (n + 1) as the start position information Ys (n + 1) of the Y axis. It is determined by the added value (step 314).

이렇게 해서 두 번째 편집화면상에 디스플레이 될 자막데이터 "라마바"의 위치정보의 값이 모두 변경되었다. 이 변경된 위치정보값은 자막램(30)에 자막 데이터와 함께 저장된다(제 316 단계).In this way, the values of the position information of the subtitle data "Lamaba" to be displayed on the second editing screen were all changed. The changed positional information value is stored in the caption RAM 30 together with the caption data (step 316).

상기 제 316 단계의 수행 후, 데이터 컨트롤러(10)는, 상기 제 316 단계에서 최종 변경된 자막데이터의 Y축 상의 끝위치정보 값(Ye(n+1))이 479 주사라인보다 작은지를 비교하고(제 318 단계), 작을 경우는 n의 값을 1증가시켜서(제 326 단계) 제 312 단계로 귀환한다. 그리고 제 312 단계 내지 제 318 단계를 반복 수행한다.After performing step 316, the data controller 10 compares whether or not the end position information value Ye (n + 1) on the Y axis of the caption data finally changed in step 316 is smaller than 479 scan lines ( In step 318, if small, the value of n is increased by one (step 326), and the flow returns to step 312. Then, steps 312 to 318 are repeated.

그러나 상기 제 318 단계에서 최종 변경된 자막데이터의 Y축 상의 끝위치정보 값(Ye(n+1))이 479(574) 주사라인보다 작지 않을 때, 데이터 컨트롤러(10)는 한 프레임의 구성이 완료되었음을 인지하고, 더 이상의 자막데이터 추가를 종료한다.However, when the end position information value Ye (n + 1) on the Y axis of the last changed subtitle data in step 318 is not smaller than 479 (574) scan lines, the data controller 10 completes one frame. Recognize that the process has been completed, and finish adding further subtitle data.

그리고 최종 변경된 자막데이터의 Y축 상의 끝위치정보 값(Ye(n+1))이 479(574) 주사라인보다 큰지를 판단해서(제 320 단계), 만약 큰 경우에는 마지막 자막데이터를 뺀 후, 프레임을 구성시켜서 디스플레이시킨다. 그러나 최종 변경된 자막데이터의 Y축 상의 끝위치정보 값(Ye(n+1))이 479(574) 주사라인보다 크지 않을때는 현재 자막램(30)에 저장시킨 프레임을 그대로 디스플레이시킨다(제 322 단계 내지 제 324 단계).Then, it is determined whether the end position information value (Ye (n + 1)) on the Y axis of the finally changed subtitle data is larger than the scan line 479 (574) (step 320). The frame is constructed and displayed. However, when the end position information value (Ye (n + 1)) on the Y axis of the finally changed subtitle data is not larger than 479 (574) scan lines, the frame currently stored in the subtitle RAM 30 is displayed as it is (step 322). To step 324).

이상의 과정을 수행함에 의해서 도 3c에 두 번째 예시된 편집화면이 디스플레이 되었다. 즉, 두 번째 편집화면은 첫 번째 화면에서 최상단의 자막데이터가 제거되고, 그 외의 자막데이터는 한단계씩 상단으로 이동되었다. 그리고 최하단에 새로운 자막데이터가 추가되어서 구성되었다.By performing the above process, the second illustrated editing screen is displayed in FIG. 3C. That is, in the second edit screen, the top caption data is removed from the first screen, and the other caption data is moved to the top step by step. At the bottom, new subtitle data was added.

이상의 과정이 수행되면, 두 번째 편집화면에 대한 자막데이터의 변경된 위치정보의 값이 자막램(30)에 저장되고, 다음 세 번째 편집화면을 구성하기 위해서 데이터 컨트롤러(10)는, 제 300 단계로 귀환한다. 그리고 이상의 과정을 반복 수행함에 의해서 계속해서 자막화면을 스크롤방법으로 디스플레이시키는 것이다.When the above process is performed, the value of the changed positional information of the subtitle data for the second edit screen is stored in the subtitle RAM 30, and the data controller 10 proceeds to step 300 to construct the next third edit screen. Return By repeating the above process, the caption screen is continuously displayed in a scrolling method.

이상과 같이 본 발명은 영상화면에서 자막데이터를 학습용으로 이용할 수 있도록 자막데이터만을 분리하고, 분리된 자막데이터의 위치정보를 변경하는 것에 의해서 화면을 편집하였다.As described above, the present invention edits the screen by separating only the caption data so that the caption data can be used for learning on the video screen, and changing the position information of the separated caption data.

여기에 상기 데이터 컨트롤러(10)에서 재생데이터로부터 자막데이터가 분리될 때, 음성데이터 또한 분리하여 음성 램(20)에 저장시킨 후, 자막데이터의 출력시에 음성 램(20)에 저장된 음성 데이터를 출력하도록 제어하는 것도 가능하다. 그리고 일반적인 영상재생장치가 가지고 있는 출력속도제어 기능을 이용하여,사용자에 맞게 출력속도를 조절하는 것도 가능하다. 또한, 일반적인 영상재생장치가 가지고 있는 반복 기능을 이용하여, 음성램(20)과 자막램(30)에 저장된 자막과 음성을 반복 출력하도록 제어하는 것도 가능하다.When the caption data is separated from the playback data in the data controller 10, the voice data is also separated and stored in the voice RAM 20, and then the voice data stored in the voice RAM 20 at the time of outputting the caption data. It is also possible to control the output. In addition, by using the output speed control function of the general video reproducing apparatus, it is possible to adjust the output speed to the user. In addition, it is also possible to control to repeatedly output the subtitles and audio stored in the voice RAM 20 and the subtitle RAM 30 by using the repetition function of the general video reproducing apparatus.

이상 설명한 바와 같이 본 발명에 따른 학습용 자막편집장치 및 방법은, 일반적인 영상재생장치에 재생기능외에 학습기능을 더 부가하였다. 그래서 영상재생장치를 이용한 어학학습 시에 보다 효율적으로 이용할 수 있도록 하며, 또한 보조기능의 추가로 인한 제품의 구매욕을 높일 수 있는 효과를 가져온다.As described above, the apparatus and method for editing subtitles for learning according to the present invention further include a learning function in addition to a playback function to a general video reproducing apparatus. Therefore, it can be used more efficiently during language learning using the image reproducing apparatus, and also has the effect of increasing the purchase desire of the product by the addition of the auxiliary function.

Claims (5)

영상, 음성, 텍스트(text)를 포함하여 구성되는 복합데이터를 재생하는 장치에 있어서, 상기 복합데이터에서 복수의 자막데이터를 분리 저장하는 단계와; 상기 분리 저장된 복수의 자막 데이터의 위치정보를 각각 변경하는 단계와; 상기 변경된 위치 정보에 근거하여 복수의 자막 데이터로 프레임을 구성하는 단계와; 상기 구성된 프레임을 디스플레이시키는 단계를 포함하여 구성되는 자막편집방법.An apparatus for reproducing a composite data including video, audio, and text, the method comprising: separately storing a plurality of subtitle data from the composite data; Changing location information of the plurality of separated subtitle data; Constructing a frame with a plurality of caption data based on the changed position information; And displaying the constructed frame. 제1항에 있어서, 상기 디스플레이단계는, 자막데이터를 하나씩 이동시키면서 디스플레이시키는 것을 특징으로 하는 자막편집방법.The method of claim 1, wherein the displaying comprises moving the caption data one by one and displaying the caption data. 제1항 또는 제2항에 있어서, 복합데이터에서 음성데이터를 분리하는 단계와; 상기 자막 데이터가 디스플레이될 때, 상기 음성데이터를 동기시켜서 출력하는 단계를 더 포함하여 구성되는 자막편집방법.The method of claim 1 or 2, further comprising: separating voice data from the composite data; And synchronizing and outputting the audio data when the caption data is displayed. 제3항에 있어서, 상기 음성데이터의 출력은, 사용자가 원하는 속도로 조절되어서 출력하는 것을 특징으로 하는 자막편집방법.The method of claim 3, wherein the output of the voice data is controlled at a speed desired by the user and output. 복합데이터로부터 자막데이터와 음성데이터를 분리하고, 분리된 자막데이터의 위치정보값을 변경하는 제어수단과; 상기 제어수단에서 위치정보값이 변경된 자막데이터를 저장하는 제 1 저장수단과; 상기 제어수단에서 분리된 음성데이터를 저장하는 제 2 저장수단과; 상기 제어수단의 제어하에 제 1,2 저장수단에 저장된 자막데이터 및 음성데이터를 동기시켜서 출력하는 출력수단을 포함하여 구성되는 자막편집장치.Control means for separating the caption data and the audio data from the composite data and changing position information values of the separated caption data; First storage means for storing the caption data of which the position information value is changed in the control means; Second storage means for storing voice data separated from the control means; And output means for synchronizing and outputting the caption data and the audio data stored in the first and second storage means under the control of the control means.
KR1019980039559A 1998-09-24 1998-09-24 Subtitle Editing Device and Method KR100299229B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019980039559A KR100299229B1 (en) 1998-09-24 1998-09-24 Subtitle Editing Device and Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019980039559A KR100299229B1 (en) 1998-09-24 1998-09-24 Subtitle Editing Device and Method

Publications (2)

Publication Number Publication Date
KR20000020794A KR20000020794A (en) 2000-04-15
KR100299229B1 true KR100299229B1 (en) 2001-10-27

Family

ID=19551702

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980039559A KR100299229B1 (en) 1998-09-24 1998-09-24 Subtitle Editing Device and Method

Country Status (1)

Country Link
KR (1) KR100299229B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100728929B1 (en) 2004-12-27 2007-06-15 삼성전자주식회사 Personal's data insert apparatus using digital caption and the method thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100416260B1 (en) * 2001-10-19 2004-01-24 삼성전자주식회사 Device for processing caption information, and caption television and a method of processing caption
KR101663098B1 (en) * 2014-03-26 2016-10-25 주식회사 해리슨 앤 컴퍼니 Content reproduction system and method for language-learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06165139A (en) * 1992-11-18 1994-06-10 Sanyo Electric Co Ltd Closed caption decoder

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06165139A (en) * 1992-11-18 1994-06-10 Sanyo Electric Co Ltd Closed caption decoder

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100728929B1 (en) 2004-12-27 2007-06-15 삼성전자주식회사 Personal's data insert apparatus using digital caption and the method thereof

Also Published As

Publication number Publication date
KR20000020794A (en) 2000-04-15

Similar Documents

Publication Publication Date Title
US5715224A (en) Recording medium with synthesis method default value and reproducing device
JP3362734B2 (en) Computer and editing processing method
USRE44382E1 (en) Character display apparatus and method for a digital versatile disc
JP4285287B2 (en) Image processing apparatus, image processing method and program, and recording medium
JP4677400B2 (en) Video language filtering based on user profiling
US20150245102A1 (en) Method and Apparatus for Accessing Content
US20080002949A1 (en) Recording system and recording method
JP2006521042A (en) Apparatus and method for simultaneous use of audiovisual data (Description of related application) This application is a provisional application filed on Feb. 21, 2003: No. 60 / 449,162 (switchable AV data existing on a recording medium) Claim the benefits of the invention. The entire contents of the provisional application are incorporated herein by reference.
JPH1175150A (en) Dynamic image editing method, device therefor and recording medium recorded with program for executing dynamic image editing operation
JP4532786B2 (en) Image processing apparatus and method
US20070036522A1 (en) Playback apparatus, playback method, program for playback method, and recording medium recorded with program for playback method thereon
KR100299229B1 (en) Subtitle Editing Device and Method
US20020097982A1 (en) Image reproduction apparatus for reproducing multiple image files
JP2006101076A (en) Method and device for moving picture editing and program
JP2003143527A (en) Digital versatile disk player
JP4489661B2 (en) Slide show generating apparatus, control method therefor, and control program therefor
JP2006066050A (en) Content reproducing device and content reproducing method
JP2006086634A (en) Dynamic image editor
JP4333560B2 (en) TV broadcast recording and playback device
JP2002077797A (en) Picture edit apparatus
KR20100012219A (en) The method and apparatus for reproducing the data
JP4807328B2 (en) Playback device
JP4305082B2 (en) Video recording / playback device
JPH1188829A (en) Method and device for editing video information, and storage medium stored with procedure of editing method
JPH07322208A (en) Image reproducing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20070404

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee