KR100473895B1 - 인코딩장치및인코딩방법,컴퓨터판독가능메모리,디코딩장치및디코딩방법 - Google Patents

인코딩장치및인코딩방법,컴퓨터판독가능메모리,디코딩장치및디코딩방법 Download PDF

Info

Publication number
KR100473895B1
KR100473895B1 KR1019960028935A KR19960028935A KR100473895B1 KR 100473895 B1 KR100473895 B1 KR 100473895B1 KR 1019960028935 A KR1019960028935 A KR 1019960028935A KR 19960028935 A KR19960028935 A KR 19960028935A KR 100473895 B1 KR100473895 B1 KR 100473895B1
Authority
KR
South Korea
Prior art keywords
data
data streams
recording medium
subtitle
addresses
Prior art date
Application number
KR1019960028935A
Other languages
English (en)
Other versions
KR970008056A (ko
Inventor
이쿠오 츠카고시
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR970008056A publication Critical patent/KR970008056A/ko
Application granted granted Critical
Publication of KR100473895B1 publication Critical patent/KR100473895B1/ko

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • G11B27/3063Subcodes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/327Table of contents
    • G11B27/329Table of contents on a disc [VTOC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/087Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only
    • H04N7/088Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital
    • H04N7/0884Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection
    • H04N7/0885Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division with signal insertion during the vertical blanking interval only the inserted signal being digital for the transmission of additional display-information, e.g. menu for programme or channel selection for the transmission of subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2545CDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Television Systems (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Abstract

복수의 데이터 스트림의 검색은 비디오 방송을 비디오, 오디오 및 자막 데이터를 포함하는 복수 형태들의 데이터 스트림들로 인코딩함으로써 이루어진다. 어드레스들은 기록 매체에 저장될 데이터 스트림의 위치를 지시하는 각 데이터 스트림에 대해 생성된다. 이들 어드레스는, 데이터 스트림 내의 데이터에 의해 표시되는 임의의 이벤트의 위치가, 위치될 데이터의 형태와 동일한 형태의 데이터 스트림을 위치시킴으로써 얻어질 수 있도록, 데이터 스트림의 형태에 의해 예약된 기록 매체의 영역에 기록된다. 컴퓨터-판독 가능 메모리는 컴퓨터에게 이들 어드레스를 저장하도록, 그리고 검색될 데이터 스트림의 형태에 대응하는 이들 어드레스에서 데이터 스트림들을 디코딩하도록 명령한다. 검색될 형태로 된 데이터 스트림은 디코딩되며 검색될 이벤트는 이들 디코딩된 데이터 스트림에서 발견된다.

Description

인코딩 장치 및 인코딩 방법, 컴퓨터 판독 가능 메모리, 디코딩 장치 및 디코딩 방법
발명의 배경
본 발명은 자막(subtitle) 검색에 관한 것으로, 특히 복수 종류의 자막 데이터 스트림을 검색하는 것에 관한 것이다.
텔레비전 방송 또는 비디오 재생(비디오 디스크로부터와 같은)은 비디오 이미지 상에 중첩되는(superimposed) 자막을 제공한다. 그러나, 자막은 배경 비디오 이미지에 영구히 결합되어 있어 수신(또는 재생) 단에서는 조작할 수 없다. 예컨대, 자막은 상응하는 오디오 트랙의 비디오 영상 또는 소리에서 발생하는 특정 영상에 관련된 정보에 대해서 검색될 수 없다.
콤팩트 디스크 그래픽(CD-G; Compact Disc Graphics)은 이 기술이 그래픽을 서브코드 형태로 기록하기 때문에 자막의 검색에서 어느 정도 유연성을 제공한다. 그러나 CD-G는, 이 기술이 텔레비전 표준에 의해 속도가 느려지는 콤팩트 디스크(CD) 응용에 제한되기 때문에, 심각한 단점을 갖는다. 즉, CD-G 기술은 실시간의 텔레비전 방송 또는 비디오 재생에 있어서 자막을 조작할 수 없다.
도 18A 내지 도 18C, 및 도 19에 참조로 도시된 바와 같이, CD-G의 전체 화면을 생성하기 위해 요구되는 리드 시간(lead time)은 정상 텔레비전 또는 비디오 방송을 위해서는 부적절하다. 도 18A는 하나의 프레임이 1바이트의 서브 코드와 32바이트의 오디오 채널 데이터를 포함하는 CD-G 포맷을 도시한 것이고, 이중 24 바이트는 L 및 R 오디오 채널 데이터(각각의 채널은 샘플 당 2바이트를 갖는 6개의 샘플을 갖는다)용으로 할당되며, 8바이트는 에러 정정 코드에 할당된다. 프레임들은 도 18B에 도시한 바와 같이 98 프레임(프레임 0, 프레임 1,…, 프레임 96, 프레임 97)의 한 블록으로서 그룹화되고, 8개의 블록들(P, Q, R, S, T, U, V, W)은 도 18C에 도시한 바와 같이 전송된다. 각각의 블록 내의 프레임들(0 및 1)에 대한 서브코드들은 동기 패턴들(S0, S1)로서 예약되고, 반면에 나머지 96개의 프레임에 대한 서브코드들은 복수의 서브 코드 데이터를 위하여 예약된다. 제 1의 2개의 블록들(P, Q)은 기록 트랙들을 통해 검색하기 위해 사용된 검색 데이터에 할당되며, 나머지 6개의 블록들(R, S, T, U, V, W)은 그래픽 데이터를 위하여 활용될 수 있다.
CD-G는 98개 프레임들의 각 블록을 75Hz의 반복 주파수로 전송한다. 이와 같이, 1개의 블록에 대한 데이터 전송 속도는 (75 Hz × 98 bytes) 7.35 kHz 가 되어, 서브코드 비트 속도는 7.35 K bytes/s가 되게 된다.
블록들(R, S, T, U, V, W) 내에 있는 정보를 전송하기 위한 전송 포맷은 도 19에 도시되어 있으며, 6개의 블록들(R, S, T, U, V, W)의 96개의 프레임들(2, 3, … 97) 각각이 채널 당 96개의 심볼들(한 심볼은 3개의 셀들을 포함)의 6개의 채널들(R 내지 W)을 포함하는 패킷으로서 전송된다. 패킷은 24개의 심볼들(심볼 0 내지 심볼 23)로 된 4개의 팩들로 더 세분되며, 여기서 각 팩은 CD-G 문자를 저장한다. CD-G 문자는 6 × 12 픽셀들로 구성되고, 따라서 각 6 × 24 팩 내에 쉽게 수용된다. CD-G 포맷에 따라서, 6 × 12 CD-G 문자는 심볼들 8 내지 19(12 심볼들)에서 6개 채널들(R, S, T, U, V, W)에 저장된다. 각 팩들에 나머지 심볼들은 문자에 관한 정보를 저장한다.
모드 정보는 팩들 내에 저장되는 정보의 한 예이고, 각 팩 내의 심볼(0)의 제 1의 3개의 채널들(R, S, T)에 저장된다. 항목 정보는 심볼(0)의 마지막 3개 채널(U, V, W)에 저장되는 다른 예이다. 모드 정보 및 항목 정보의 결합은 다음과 같이 대응 팩 내에 저장된 문자들에 대한 모드를 규정한다.
테이블 1
모드 항목
000 000 0 모드
001 000 그래픽 모드
001 001 TV-그래픽 모드
111 000 사용자 모드
인스트럭션(instruction)은 팩 내에 저장되는 정보의 다른 예이고, 심볼(1)의 모든 채널에 저장된다. 대응하는 모드, 항목, 패리티 또는 인스트럭션에 대한 부가 정보는 심볼들(2 내지 7)의 모든 채널에 저장된다. 심볼들(0 내지 19)의 채널들 내의 모든 데이터에 대한 패리티 정보는 각 팩의 마지막 4개 심볼들(심볼들 20 내지 23)의 모든 채널들에 저장된다.
설명한 바와 같이, CD-G 시스템은 느리다. CD-G 데이터는 75 Hz의 반복 주파수로 전송된다. 그러므로, 4개의 팩을 포함하는 패킷은 초당 300팩의 속도(75 Hz × 4 팩)로 전송된다. 즉, 6 × 12 픽셀의 범위에 할당된 1개의 문자에 대해서, 300개 문자가 1초 내에 전송될 수 있다. 그러나, CD-G 스크린은 288 수평 화소 × 192 CD-G 수직 화소로서 정해지고, 1초 내에 전송되는 300개 문자의 두 배 이상을 필요로 한다. 그러므로, 288 × 192 스크린에 대한 전체 전송 시간은 다음의 식으로 나타낸 바와 같이 2.56초가 된다.
(288/6) × (192/12) ÷ 300 = 2.56초
CD-G 시스템에 대해서, 스크린들이 매 0.1초마다 항상 리프레쉬(refresh)됨을 고려할 때, 특정 이벤트에 대한 검색은, 각 스크린을 재생하기 위한 시간(2.56초)이 극도로 길기 때문에, 극히 시간이 많이 걸린다. 문자에 대해 16진수 코드가 사용될 때, 이 문제는 복잡해진다. 그 이유는 각 16진수 표현은 1 픽셀을 나타내기 위하여 4비트를 필요로 하기 때문이다. 결국, 상기 기술된 것보다 4배의 데이터가 전송되고, 이에 의해 10.24초(4 × 2.56초)로 전송 속도를 증가시킨다. 각각의 스크린은 전송을 위해 완만한 10.24초를 필요로 하기 때문에, 스크린을 연속적으로 전송한다는 것은 CD-G 기술을 사용하여 스크린을 전송할 때 10.24초의 지연 시간을 겪게 됨을 뜻한다.
한 형태의 시스템(CAPTAIN 시스템으로 알려진)에서, 문자 코드뿐만이 아니라 도트 패턴이 자막을 나타낸다. 그러나, 이 시스템은 CD-G 시스템보다 상당히 더 나은 것으로는 보이지 않으며, 일부 동일한 문제점을 겪고 있다. 즉, 두 시스템 모두 특정 이벤트에 대한 검색을 효율적으로 수행하는 능력에는 부족하다. 덧붙여, 이들 시스템은 자막을 디스플레이함에 있어 충분한 분해능을 갖는 자막을 제공하지 못한다. CD-G 시스템은 각 픽셀에 대해 오직 1 비트만을 지정하고, 이 2진 픽셀 데이터는 원하지 않은 에일리어싱(aliasing)과 플릭커(flicker)를 생성한다. 예컨대, CAPTAIN 시스템은, 720 × 480의 높은 분해능 비디오 화상용이 아닌, 248(수평 화소)× 192 (수직 화소) 디스플레이용, 즉 낮은 분해능의 디스플레이용으로 개발된 것이다.
발명의 목적 및 발명의 요약
그러므로, 본 발명의 목적은 검색될 복수 형태들의 데이터 스트림들을 인코딩하기 위한 인코딩 방법 및 장치를 제공하는 것이다.
본 발명의 다른 목적은 사용자가 특정 자막을 검색할 수 있게 하는 인코딩 기술을 제공하는 것이다.
본 발명의 또 다른 목적은 컴퓨터가 복수 형태들의 데이터 스트림들을 검색하도록 지시하기 위한 컴퓨터-판독가능 메모리를 제공하는 것이다.
본 발명의 또 다른 목적은 검색될 복수 형태들의 데이터 스트림들을 디코딩하기 위한 디코딩 방법 및 장치를 제공하는 것이다.
상기 목적에 따라서, 본 발명은 데이터 스트림들에서 데이터에 의해 표시되는 비디오 방송에서의 이벤트가 상기 데이터와 동일한 형태의 데이터 스트림들을 위치시킴으로써 위치될 수 있도록 복수 형태들의 데이터 스트림들을 인코딩하는 인코딩 장치 및 방법을 제공한다.
본 발명은 컴퓨터가 검색될 데이터와 동일한 형태의 데이터 스트림들을 검색함으로써 데이터 스트림들에서 데이터에 의해 표시되는 비디오 방송에서의 이벤트를 검색하도록 지시하기 위한 컴퓨터-판독가능 메모리를 더 제공한다.
본 발명은 데이터 스트림에서 데이터에 의해 표시되는 비디오 방송에서의 이벤트가, 검색될 데이터와 동일한 형태의 데이터 스트림을 검색함으로써 검색될 수 있도록 복수 형태들의 데이터 스트림들을 디코딩하는 디코딩 장치 및 방법을 더 제공한다.
첨부한 도면들과 함께 다음의 상세한 설명을 참조하면 본 발명과 본 발명의 이점을 보다 완전히 이해할 수 있을 것이다.
양호한 실시예의 상세한 설명
도면 전반에 걸쳐 동일 참조 부호는 동일 또는 대응하는 요소를 나타내는 도면을 참조하여 본 발명을 설명한다.
디코딩 장치
도 1에 도시한 데이터 디코딩 장치는 본 발명을 통합하며, 재생 신호를 디코딩하도록 동작한다. 데이터 디코딩 장치의 시스템 제어기(14)는 재생 신호를 처리하여 자막 디코더(7)로 보내게 한다. 자막을 디코드하고 텔레비전 스크린 상에 디스플레이하기 위해 디코딩된 비디오 이미지에 상기 자막이 중첩되게 하기 위해서 시스템 제어기는 자막 디코더의 제어기(35)(도 2)와 통신한다.
데이터 디코더 및 디멀티플렉서(1)는 예를 들면 VCR로부터 재생된 디지털 신호를 수신한다. 데이터 디코더 및 디멀티플렉서는 바람직하게 에러 정정 코드(ECC) 기술을 채용하여 재생 신호를 에러 디코드하며, 에러 디코딩된 재생 신호를 비디오, 자막 및 오디오 데이터 스트림들로 디멀티플렉싱한다. 메모리(2)로 예를 들어, 재생 신호를 에러 디코딩 및 디멀티플렉싱하기 위한 작업 영역인 버퍼 메모리를 사용할 수 있다.
비디오 디코더(3)는 비디오 데이터 스트림으로부터 디멀티플렉싱된 비디오 데이터를 디코딩한다. 메모리(4)는 데이터 디코더 및 디멀티플렉서(1)에 관련하여 채용된 메모리(2)의 동작과 유사한 비디오 데이터의 디코딩 동작을 위해 채용될 수 있다.
레터 박스(Letter box) 회로(5)는 4:3의 어스펙트 비(aspect ratio)를 가진 디코딩된 비디오 데이터를 16:9의 어스펙트 비로 변환한다. 변환은 4 대 3의 데시메이션(decimation) 과정을 사용하여 수행되며, 이에 따라 매 4개의 수평선이 3개의 수평선으로 데시메이팅되고, 이에 의해 비디오 화상을 3/4 화상으로 압착한다. 레터 박스 포맷에 따라서, 수직 분해능 성분은 데시메이팅된 비디오 화상의 수직 분해능을 증배시키도록 채용된 비디오 화상의 남아 있는 1/4로부터 유도된다. 타이밍 조정 메모리(6)는 레터 박스 화상의 1/4이 전송되지 않도록 보장하기 위하여 비디오 화상의 전송에 시간을 맞춘다. 비디오 디코더(3)에 의해서 발생된 디코딩된 비디오 데이터가 이미 16:9 레터 박스 포맷으로 되어 있을 때, 레터 박스 회로는 데시메이션 동작을 거치지 않고 디코딩된 비디오 데이터를 자막 디코더(7)로 직접 보낸다.
데이터 디코더 및 디멀티플렉서(1)에 의해 디멀티플렉싱된 디코딩된 자막 데이터는, 시스템 제어기(14)로부터의 인스트럭션에 따라 자막 데이터를 디코드하고 이 디코딩된 자막 데이터를 디코딩된 비디오 데이터와 믹싱하는, 자막 디코더(7)로 직접 보내진다.
복합 인코더(8)는 상기 믹싱된 자막 데이터와 비디오 데이터를 NTSC, PAL 등과 같은 적합한 비디오 화상 포맷으로 인코딩한다. 모드 디스플레이(9)는 사용자와 인터페이스하고, 예를 들면 도시된 장치에 접속된 텔레비전 모니터의 모드를 표시한다. D/A 변환기(10)는 복합 인코더로부터 수신된 인코딩된 신호를 NTSC 또는 PAL과 같은 표시된 모드로 디스플레이하는데 적합한 아날로그 신호로 변환하다.
데이터 디코더 및 디멀티플렉서(1)에 의해서 디코딩된 오디오/비디오 신호의 오디오 부분은, 예를 들면 메모리(12)를 사용하는 디멀티플렉스된 오디오 데이터를 디코딩하는 오디오 디코더(11)에 의해서 디코딩된다. 오디오 디코더로부터 출력된 디코딩된 오디오 데이터는 D/A 변환기(13)에 의해 텔레비전 모니터를 통해 재생하는데 적합한 아날로그 오디오 신호로 변환된다.
자막 디코더
도 2를 참조하여 설명될 자막 디코더(7)는 인코딩된 자막 데이터를 디코딩하여 디코딩된 자막 데이터를 적당한 비디오 데이터와 믹싱한다. 제어기(35)(도 2)는 자막 디코더의 동작을 제어하고, 도 2에 도시된 코맨드 신호들(command signals)(도 5에 리스트된)을 사용하는 디코더(도 1)의 시스템 제어기(14)와 통신한다. 제어기(35) 및 시스템 제어기(14)는 자막 데이터의 디코딩에 시간을 맞추어 자막이 비디오 이미지 상에 나타나야 하는 적절한 위치에서 자막 데이터가 비디오 이미지 데이터와 혼합되도록 한다.
자막 디코더의 워드 검출기(20)는 디스크로부터 재생된 비트 스트림의 그룹에서 자막 데이터를 수신하고, 상기 비트 스트림은 디스크 상에 패킷으로 저장된다. 상기 비트 스트림의 각 그룹은 비디오 이미지 상에 중첩될 한 프레임(또는 페이지)의 자막들을 구성한다. 다른 그룹의 비트 스트림은 다른 재생 모드, 예컨대, 정상 재생, 트릭 모드로 불리는 고속 역방향 또는 고속 순방향으로 디스플레이된 자막을 나타낼 수 있다. 시스템 제어기는 어느 재생 모드를 디스플레이할 것인가를 스트림_선택(stream_select) 신호를 사용하는 워드 검출기에 지시하고, 이 워드 검출기는 지시된 재생 모드를 위한 신호들 중에서 적당한 비트 스트림을 선택한다. 다른 비디오 이미지들이 다른 채널 상에 디스플레이되는 경우에, 시스템 제어기는 적당한 채널을 채널_선택(ch_select) 신호에 대응하여 워드 검출기에 지시하고, 워드 검출기는 채널을 변경하여 선택된 채널상의 비트 스트림만을 수신한다.
한 프레임을 구성하고 워드 검출기에 의해서 수신되는 한 그룹의 비트 스트림은 그 그룹의 비트 스트림의 포맷을 기술하는 헤더 정보(s.header)를 포함한다. 헤더 정보에는 헤더 에러 정보(header error) 및 데이터 에러 정보(data error)가 동반된다. 시스템 제어기는 헤더 정보를 사용하여, 한 그룹의 비트 스트림을 분석하여 그로부터 관련된 자막 데이터를 추출하는 방법을 결정한다. 시스템 제어기는 헤더 에러 정보를 사용하여 헤더 정보 내의 정상이 아닌 것을 정정하며, 데이터 에러 정보를 사용하여 자막 데이터 내의 정상이 아닌 것을 정정한다.
워드 검출기는 다른 디코딩된 정보(표시 시간 스탬프(PTS), 위치 데이터(position_data) 및 컬러 룩업 테이블 데이터(CLUT_데이터(CLUT_data)를 포함함)와 함께 자막 데이터(비트맵(Bitmap))를 코드 버퍼(22)로 보낸다. PTS는 한 프레임에 대한 오디오, 비디오 및 자막 데이터가 전송되는 정확한 시간을 표시하여 시스템 제어기가 재생 신호로부터 데이터를 디멀티플렉싱하는 시간을 알 수 있도록 하는 신호이다. 위치 데이터는 자막이 비디오 이미지 상에 중첩될 곳의 수평 및 수직 위치를 표시한다. CLUT_데이터(CLUT_data)는 자막을 구성하는 픽셀들 용으로 어느 컬러가 사용될 것인지를 표시한다. 예를 들면, 시스템 제어기(14)는 비디오 이미지가 디스플레이되고 있는 중임을 판정하여, 상기 자막 데이터를 시간 스탬프(PTS)에 의해 표시된 시간에 자막 디코더(7)에 보내고, 위치_데이터(position_data)에 의해서 표시된 수평 및 수직 위치에 의해서 나타낸 비디오 이미지의 위치에 대응하는 자막 데이터(Bitmap)를 CLUT_데이터(CLUT_data)로 표시된 컬러로 자막 디코더가 출력하게 한다.
스케쥴러(scheduler)(21)는 디멀티플렉서(1)(도 1)로부터 코드 버퍼(22)에 의해 수신된 데이터가 상기 코드 버퍼를 오버플로(overflow)하지 못하게 하기 위해 제공된 것이다. 스케쥴러는 워드 검출기에 의해서 선택된 비트 스트림을 수신하는 I/O 포트(도시 안됨)에 대한 대역폭을 판정함으로서 코드 버퍼에 대한 판독/기록 액세스를 제어한다. 대역폭은 판독/기록 속도를 참조하고, 디멀티플렉서가 데이터를 디멀티플렉싱하는 속도를 코드 버퍼로부터 기록 또는 판독되는 병렬 비트 수로 나눔으로써 산출된다. 예를 들면, 8 병렬 비트로 나뉘어진 20 Mbps의 디멀티플렉서로부터 데이터 속도는 코드 버퍼로부터 판독된 데이터의 2.5 Mbps 속도가 된다. 그러므로, 스케쥴러는 코드 버퍼로 및 이로부터 데이터의 일관된 흐름 속도를 유지하기 위해서 I/O 포트의 판독/기록 속도를 설정한다. 따라서, 코드 버퍼는 자막 데이터(Bitmap)를 수신하며 데이터를 판독해 내기 위해서 시스템 제어기로부터 디코드 개시(decode start) 신호를 기다린다.
유리하게는, 시스템 제어기는 텔레비전 디스플레이가 위치 데이터(position data)로 표시된 위치에 대응하는 위치에 놓이는 수평 및 수직 동기 신호로부터 판정될 때, 실시간으로 판독을 수행한다. 실시간 디스플레이를 위해서, 판독 속도는 화소의 샘플링 속도, 바람직하게 13.5 MHz에 대응해야 한다. 설명한 바와 같이, 자막 데이터는 2.5 MHz 이상의 속도로 코드 버퍼로 기록되는 것이 바람직하다. 따라서, 13.5 MHz 샘플링 클럭은 각각 3.375 MHz의 4개의 클럭 사이클로 나누어진다. 이들 3.375 MHz 클럭 사이클 중 하나는 기록에 할당되고(왜냐하면 기록하기 위해서는 적어도 2.5 MHz가 필요하다), 나머지 3개의 클럭 사이클은 코드 버퍼로부터 데이터를 판독하는데 할당되므로, 실시간 디스플레이 요구 조건을 만족시킨다.
상술한 판독/기록 동작은 실시간으로 수행될 뿐만이 아니라, 높은 분해능을 제공한다. 자막 데이터의 8비트는 각각의 3개의 판독 클럭 주기 동안 코드 버퍼(22)로부터 판독되거나, 또는 샘플링 클럭 당 24비트가 판독된다. 화상의 디스플레이가 4번째 클럭 주기마다 텔레비전 모니터에 의해서 수행될 때, 24비트의 1/4, 즉 (24/4=)6비트가 매 클럭 주기마다 디스플레이된다. 즉, 각각의 자막 화소는 6비트를 포함하며, 이것은 자막에 대한 고화질의 분해능을 달성하기에 충분한 것이다.
도 2의 코드 버퍼(22) 및 대응하는 성분들의 동작은 도 13에 블록도로서 도시되었다. 코드 버퍼(22-1)는 자막 데이터의 적어도 한 페이지가 코드 버퍼에 누적될 때까지 자막 데이터의 비트 스트림을 누적한다. 한 페이지용의 자막 데이터는, 디스플레이 시간 스탬프(PTS)의 자막 부분이 동기화 클럭(SCR)에 배열되었을 때, 코드 버퍼(22-1)로부터 디스플레이 메모리(22-2)(자막 디코더용 버퍼로서 기능하는)로 전송된다. 판독 중, 동기화 클럭은 저장된 자막 데이터의 어느 어드레스가 현재 판독되고 있는가를 표시하는 디스플레이 메모리(22-2) 내의 포인터를 전진시킨다. 자막 데이터의 다음 세트를 저장하는 디스플레이 메모리(22-2) 내의 현재의 어드레스를 가리키는 한 포인터의 증분만을 코드 버퍼가 필요로 하기 때문에, 코드 버퍼 및 디스플레이 메모리를 하나의 유닛으로 하는 것이 좋다. 따라서, 내부 메모리에 대해서, 전달 동작에 어떠한 지연도 야기되지 않고, 결국 자막 데이터의 고속 전달이 되는 것이다.
코드 버퍼가 정상 재생 모드 중 판독될 때, 동기화 클럭은 각 클럭 펄스에서 디스플레이 메모리(22-2)의 포인터를 전진시킨다. 그러나, 특정(또는 트릭) 재생(이를테면 고속 순방향, 고속 역방향 재생 모드) 중, 포인터는 다른 속도로 전진되어야 한다. 이를 위해, 특정(special) 코맨드가 먼저 제어기(35)로 보내지고, 제어기는 특정 재생이 개시될 것이라는 것을 인정하는 인정 신호(특정 _ack(special_ack))를 다시 보낸다. 특정 재생 속도에 따라 자막 디코더의 동작을 균일하게 속도를 올리기 위해서(또는 저속으로 하기 위해서), 시스템 클럭 기준(SCR)은 클럭 펄스를 가산 또는 감산함으로써 변경될 수 있다. 감산 펄스는 고속-공급 또는 고속-역방향 공급의 속도에 대응하는 속도의 n배로 생성된다. 예를 들면, 특정 재생이 개시되는 시간에서, 실시간 감산은 n배 속도로 코드 버퍼로부터 판독해 낸 자막 데이터의 비트 스트림에 대해 수행되고, 포인터는 특정 재생 모드를 달성하기 위해서 요구되는 속도로 전진한다. 한편, 특정 재생 동작이 일시 정지 동작에 대응할 때, 어떠한 감산 펄스도 생성되지 않는다. 대신에, 동일 프레임이 코드 버퍼로부터 반복적으로 연속하여 판독됨으로써, 자막이 일시 정지되는 착각 감각(illusion sensation)을 제공한다.
판독 동작은 자막 프레임의 페이지 끝(EOP; end of page)에 도달하였음을 자막 디코더(7)가 판정한 때 종료된다. 시스템 제어기는 반복 시간(repeat time)신호를 한 페이지의 길이를 표시하는 제어기(35)로 보낸다. 역 런-렝스(run-length) 회로(24)는 카운터를 포함하며, 이 카운터의 카운트 값이 반복 시간(repeat time) 신호에 의해 표시된 값에 도달했을 때, 디스플레이 종료(display end) 신호를 제어기(35)로 보낸다. 반복 시간에 도달하였음을 제어기(35)가 판정한 때, 코드 버퍼의 판독 동작이 정지된다. 이 발명의 목적을 위하여, 다른 페이지가 코드 버퍼에 기록되는 동안 한 페이지가 판독되기 때문에, 코드 버퍼는 자막 데이터 중 적어도 2 페이지를 저장하는 것이 좋다.
제어기(35)는 코드 버퍼(22)의 오버플로가 발생할 때, 시스템 제어기(14)에 버퍼 오버플로 신호(buffer overflow signal)를 출력한다. 오버플로는, 워드 검출기(20)가 다음 페이지에 대한 페이지 끝(end of page)(EOP) 신호를 수신하기 전에, 제어기가 역 런-렝스 회로(24)로부터 디스플레이 종료(display end) 신호를 수신할 때, 판정될 수 있다. 그 때에, 코드 버퍼의 오버플로를 방지하기 위해서, 시스템 제어기(14)는 데이터 디코더 및 디멀티플렉서(1)(도 1)로부터 워드 검출기로의 자막 데이터의 전달을 중지한다. 오버플로 상태가 지났을 때, 다음 스트림이 코드 버퍼 내로 기록될 것이며 정확한 디스플레이 개시 위치에서 디스플레이될 것이다.
전체 페이지에 대한 자막 데이터의 판독을 코드 버퍼(22)가 종료하고, 코드 버퍼 내에 더 이상의 데이터는 전혀 존재하지 않을 때, 언더플로 조건은 존재한다. 코드 버퍼는 도 12에서 "코드 버퍼 크기(code buffer size)" 선에 의해 2 페이지의 용량을 갖는 것으로 도시되었다. 언더플로(underflow)는 코드 버퍼의 하한 이하로 확장하는 선(C)의 수직 부분들 중 한 부분으로서 그래프로 도 12에 도시되었다. 대조적으로, 코드 버퍼로 판독된 자막 데이터가 너무 클 때 즉, 선(C)의 수평 부분이 선(B)밖으로 확장될 때, 오버플로 상태는 도 12에 그래프로 도시되었다.
도 12는 코드 버퍼(22)로부터 및 이 곳으로의 데이터 흐름을 도시한 것이다. T-축(T-axis)(횡(abscissa))은 시간을 나타내며, D-축(종(ordinate))은 데이터의 각 페이지의 데이터 크기를 나타낸다. 따라서, 기울기(상승/런)는 코드 버퍼로의 자막의 데이터 흐름 속도를 나타낸다. 그래프(C)는 자막 데이터의 데이터 흐름을 나타낸다. 그래프(C)의 수직 부분은, 자막 디코더(7)에 의해서 내부적으로 발생된 동기화 클럭(SCR)에 디스플레이 시간 스탬프(PTS)가 배열될 때, 코드 버퍼로부터 자막 데이터의 전송을 표시한다. 그래프(C)의 수평 부분은 코드 버퍼로 자막 데이터의 전송을 나타낸다. 예를 들면, 페이지(S0)에 대한 디스플레이 시간 스탬프(PTS)가 코드 버퍼에 의해서 수신될 때에, 자막 데이터의 이전의 페이지는 코드 버퍼로부터 전송되고 페이지(S0)가 코드 버퍼로 기록된다. 다른 디스플레이 시간 스탬프(PTS)가 코드 버퍼에 의해서 수신될 때, 페이지(S0)의 자막 데이터는 코드 버퍼로부터 전송되고, 페이지(S1)가 그 안에 기록된다. 유사하게, 나머지 페이지들(S2, S3)은 표시된 바와 같이 코드 버퍼에 기록 및 코드 버퍼로부터 판독된다.
코드 버퍼로부터의 자막 데이터의 판독을 비디오 이미지의 디스플레이에 정밀하게 시간을 맞추기 위해서, 자막 디코더 내에서 지연을 허용할 수 있도록 지연 보상이 수행되어야만 한다. 이것은 디스플레이 메모리로서 외부 메모리를 채용한 때 특히 중요한데, 그것은 외부 메모리가 지연 인자를 증가시키기 때문이다. 지연 보상은 시스템 제어기(14)로부터 디코드 개시(decode start) 코맨드의 타이밍을 제어함으로써 달성된다. 시스템 제어기는 레터 박스 화상(대략 한 필드)의 처리 시간 및 제어기(SCR)의 동기화 클럭이 디스플레이 시간 스탬프(PTS)와 일치하는 순간에 비디오 디코딩에 의해 야기된 지연과 동일한 시간만큼 디코드 개시(decode start) 코맨드를 지연시킨다. 지연 보상은 비디오, 오디오 및 자막 데이터 신호 각각의 지연이 데이터 인코딩 장치에서 '0'이라는 전제로 비디오, 오디오 및 자막 데이터가 멀티플렉싱되기 때문에, 특히 유용하다.
한 페이지에 대한 자막 데이터가 디스플레이 메모리(22-2)(도 13)로부터 판독될 때, 비트 스트림의 헤더는 파서(parser)(22-3)에 의해서 그로부터 분리되고, 나머지 데이터는 수직 블랭킹 기간(V) 동안 역 가변-길이 코더 또는 런-렝스 디코더(23, 24)로 보내진다. 역 VLC(가변 길이 코딩) 회로(23)(도 2)는 자막 데이터를 가변 길이 디코딩를 거치게 한다. 가변 길이 디코딩된 자막 데이터는 레벨 데이터("1" 또는 "0") 및 쌍으로 된 데이터로서의 런 데이터로 구성된다. 가변 길이 디코딩을 채용하지 않은 경우에는, 역 VLC 회로를 거치지 않고, 코드 버퍼로부터 판독된 자막 데이터는 역 런-렝스 회로(24)로 직접 출력될 것이다. 역 런-렝스 회로(24)는 런 데이터 요소의 수로부터 데이터의 레벨을 생성함으로써 런-렝스 디코딩을 수행한다. 이와 같이, VLC 회로(23) 및 런-렝스 회로(24)는 코드 버퍼(22)내에 압축된 데이터로서 저장되었던 자막 데이터를 압축 해제한다.
압축 해제된 자막 데이터는 이어서 3:4 필터(25)로 보내진다. 3:4 필터는 대응하는 텔레비전 모니터의 어스펙트 비를 표시하는 시스템 제어기(14)로부터 x 압착(xsqueeze) 신호를 수신한다. 모니터가 4:3의 어스펙트 비를 갖는 것을 신호가 표시할 경우, 3:4 필터는 자막 데이터에 3:4 필터 처리를 적용하여 비디오 화상의 크기에 자막의 크기를 맞추도록 한다. 본 실시예에서, 제어기(35)는 H 동기 펄스가 발생되기 전에 코드 버퍼(22)로부터 자막 데이터로서 90개의 화소를 판독한다. 텔레비전 모니터가 이미 16:9의 어스펙트 비를 갖는 경우, 또는 압축 해제된 자막 데이터가 폰트를 나타내는 경우, 3:4 필터를 거치지 않는다.
컬러 룩-업 테이블(26)(CLUT)은 3:4 필터(25)로부터 자막 데이터 및 코드 버퍼(22)로부터 CLUT_데이터(CLUT_data)를 수신한다. 컬러 룩업 테이블은 자막 데이터에 대해 CLUT_데이터(CLUT_data)로부터 적합한 컬러를 발생시킨다. 컬러 룩 테이블은 각 픽셀에 대해 적합한 데이터에 대응하는 어드레스를 선택하여, 믹싱 비(K) 및 컬러 성분(Y;휘도), CR(색차 신호 R-Y) 및 CB(색차 신호 B-Y)를 믹서(34)로 보낸다. 컬러 성분들(Y, CR, CB)은, 믹서에 의해서 믹싱 비(K)로 혼합될 때, 컬러 룩업 테이블에 의해 표시된 컬러를 가진 픽셀을 생성한다.
배경 비디오 데이터(background video data)는 컬러 룩업 테이블의 배열내에 포함된다. 예를 들면, 룩업 테이블의 어드레스 0은 도 7C에서 영역 T1과 T5로 나타낸 바와 같이, 자막 데이터는 보이질 않고 배경 비디오 데이터가 명확하게 되는 것을 의미하는 OOh 값을 갖는 키 데이터 K를 포함한다. 룩업 테이블의 어드레스 1h 내지 6h는 선형으로(20, 40, … CO 16진수(hexadecimal)) 증가하는 키 데이터 K 값을 포함하며, 이것은 이들 어드레스에 따른 자막 픽셀이 도 7C에서 영역 T2와 T4로 나타낸 바와 같이 배경 데이터와 혼합됨을 뜻한다. 마지막으로, 룩업 테이블의 어드레스 8h 내지 Fh는 E0h의 키 데이터 K 값을 포함하며, 이것은 Y, Cr 및 Cb 성분이 도 7C에 영역 T3로 나타낸 바와 같이 어떤 배경 비디오 데이터 없이 혼합됨을 의미한다. 컬러 룩업 테이블 데이터는 시스템 제어기로부터 발생되며, 디코딩하기 전에 CLUT 회로로 사전에 다운로드된다. 컬러 룩업 테이블를 사용하여, 필터링된 자막 데이터는 텔레비전 모니터 상에 디스플레이를 위해 적당한 컬러 픽셀로 변환된다.
도 8은 성분 Y, Cr, Cb 및 K가 어드레스 O…F (16진수)에 따라 배열된 컬러 룩업 테이블의 일례를 도시한 것이다. 설명하는 바와 같이, 컬러 와이핑(color wiping)은 CLUT_데이터(CLUT_data)를 변경함으로써 수행되며, 이에 의해서 도 11에 도시한 바와 같이 컬러 룩업 테이블의 일부를 컬러 와이핑 컬러 룩업 테이블로 대체시키게 된다. 통상적으로, 특정 자막 프레임은 초당 여러 번 프레임들이 텔레비전 신호로 리프레쉬(reflash)되기 때문에 여러 번 리프레쉬된다. 자막이 리프레쉬될 때, 동일한 자막 데이터가 채용될 것이다. 그러나, 컬러는 변경된 컬러 룩업 테이블에 기인하여 다르게 될 것이다. 따라서, 자막은 각각의 연속한 프레임으로 이들 자막이 리프레쉬될 때 컬러 와이핑되는 것으로 나타날 것이다.
믹서(34)(도 2)는 컬러 룩업 테이블(26)로부터 픽셀들을 비디오 디코더(3)(도 1)로부터의 비디오 데이터와 혼합한다. 그 결과로 나타난 혼합된 데이터는 중첩된 자막을 갖는 비디오 화상을 나타내며, 텔레비전 모니터로 출력될 것이다. 믹서(34)는 제어기(35)를 통한 조작자의 코맨드로부터 시스템 제어기(14)에 의해 발생된 u_위치(u_position) 신호를 참조하여 비디오 화상 내에 자막을 배치하도록 제어된다. u_위치(u_position) 값은 스크린상에 디스플레이하기 위해 수직 위치를 지정하며, 가변(사용자, 전송기, 또는 그 외 것에 의해서)되어, 수직 축을 따른 어느 곳에 자막을 사용자가 놓을 수 있게 한다.
본 발명의 디코딩 장치는 도 6에 도시한 차 신호에 대한 파라미터로 실행될 수 있다. 그러나, 본 발명은 이 도면에 설명된 파라미터로 한정되는 것은 아니며 다른 비디오 시스템에 채용될 수 있다.
본 발명으로, 사용자는 모드 디스플레이 장치(9)(도 1)를 통해 자막의 디스플레이를 제어할 수 있다. 사용자로부터 코맨드가 있을 때 시스템 제어기(14)는 제어 신호를 믹서(34)(도 2)로 보내어, 자막을 턴 온 또는 턴 오프시킨다. 본 발명은 실시간에 자막을 디코드하기 때문에, 사용자는 자막이 턴 온 또는 턴 오프할 때 어떤 불쾌한 지연도 겪지 않게 된다. 더욱이, 자막은 사용자나 다른 것에 의해서 가변 속도로 페이드-인/페이드-아웃(fade-in/fade-out) 제어된다. 이것은 지정된 속도로 자막을 나타내는 패턴 데이터에 페이드 계수를 곱함으로써 달성된다. 이 기능은 또한 오디오/비디오 화상의 방송에 따른 다른 감(sensation)을 가지고 시청자에게 나타내도록 자막을 편집할 수 있게 한다. 예를 들면, 새로운 정보는 시청자의 관심을 이끌어 내도록 급속하게 "플래시"될 수 있으며, 느린 음악 비디오에서 자막은 음악 비디오의 즐거움을 떨어뜨리지 않도록 "부드럽게" 나타난다.
자막들의 디코딩 복합형
도 1의 데이터 디코딩 장치는 비디오 영상이나 음성에서 특정 장면을 탐색하도록 설계되어 있다. 이 목적을 위해, 본 발명은 탐색동안 디스플레이되는 현재의 사건이나 음성을 시청자에게 나타나는 자막을 디코딩한다. 디코딩되어 결국 디스플레이되는 자막은 탐색되어 나타난 장면이나 음성과는 다르게 될 것이다. 예를 들어, 디코딩된 자막은 현재 사건의 표제(caption)나 음성의 한 귀절이 될 것이다. 본 발명은 자막의 형태를 구별하고 탐색되는 것들의 형태와 관련 있는 것들을 디코딩함으로써 어느 자막이 디코딩되는지를 결정한다. 탐색되는 것과 관련이 없는 다른 자막은 디코딩되지 않고 디스플레이되지 않으며, 탐색하는데 필요한 자막은 정상 재생 동안 디스플레이될 필요가 없다.
본 발명은 자막들을 복수의 스트림 데이터 형태들(예를 들어, 비디오, 오디오 및 자막 형태)로 범주를 정해 다른 자막들과 구별을 한다. 워드 검출기(20)를 참조하여 상술한 바와 같이(도 2), 비디오 데이터는 디스크(91)와 같은 기록 매체에 저장되고 그래서 기록 매체로부터 데이터의 스트림으로서 재생된다. 개념적으로, 이들 데이터의 복수의 데이터 스트림은 비디오 스트림을 V_I, V_P, V_B로 나타내고 오디오 스트림을 A로 나타내고 자막 스트림을 Sw, Sp로 나타내어 도 4A, 도 4B에 도시되어 있다. 복수 형태들의 데이터 스트림은 디스크 상에서 분산되어 디코딩 장치(도 1)에 의하여 텔레비전 디스플레이를 위해 정보의 간섭성 스트림들(coherent streams)로 디코딩 장치에 의해 재조립(reassemble)된다.
그래서, 자막은 또한 데이터 스트림들로 재생되어 도 4A, 도 4B에 도시한 바와 같이, 자막들(Sp, Sw)로 나타낸 재생 모드에 따라 다르게 되며 상기 Sp, Sw는 각각 정상 모드와 트릭 모드를 나타낸다. 비디오 및 오디오 데이터 스트림에서와 같이, 자막 데이터 스트림은 디스크상에서 분산되고 도 4A, 도 4B에 도시한 바와 같이, 자막은 3개의 스트림들(Sp, Sw)로 나뉘어진다. 픽업을 도면에서 좌에서 우로 가리키는 화살표에 따라 중간 오디오 및 비디오 스트림에 대해 점프시킴으로써 상기 3개의 스트림은 순방향 재생 모드에서 하나의 자막들(Sp, Sw)로 재조립된다.
디코딩 장치는 트릭 모드 재생 동안 비디오 스트림 V_I 만을 디코딩하는데 그 이유는 비디오 스트림 V_I이 일련의 MPEG(Motion Pictures Experts Group) 프레임에서 I-프레임에 대응하는 비디오 프레임을 포함하기 때문이며 상기 MPEG 프레임은 인접하는 프레임에 기초하여 압축되지 않는다. 한편, V_P 및 V_B 비디오 스트림은 인접한 프레임에 기초하여 압축되는 인코딩된 프레임에 수직으로 대응하며 압축 해제는 트릭 모드의 고속-순방향/역방향(fast-forward/.reverse) 동안에 허용된 시간보다 더 긴 시간을 필요로 한다.
몇몇 비디오 영상은 대응하는 자막 데이터를 가지지 않는데 왜냐하면 이들 비디오 영상들은 예를 들어, 과다하거나 또는 액션을 가지지 않기 때문이다. 트릭 모드동안 이들 비디오 영상들을 재생하면 시청자는 관심 없는 영상들을 보게 된다. 본 발명에서 V_I 스트림만이 인접한 자막 스트림 데이터(Sw)를 가지고 디코딩/디스플레이되어 시청자는 관심이 없는 비디오 프레임을 기다릴 필요가 없다. 즉, 인코딩되어 미리 결정된 중요한 동작이 있는 프레임들만이 자막에 할당되어 디스플레이되도록 디코딩된다. 예를 들어, 움직임이 거의 없는 회의실의 회의 장면은 관심있는 이벤트가 나타날 때까지 그냥 통과될 것이며 자막에 관심있는 이벤트가 나타난다는 것을 시청자에게 알려준다. 그러면 시청자는 시스템 제어기로 명령하여 트릭 모드에서 나오고 정상 재생 모드로 들어가게 하고 이에 의해 이벤트를 나타내는 트릭 모드 자막은 더 이상 디스플레이되지 않는다.
비디오 영상이나 오디오 음성의 어떠한 장면도 탐색될 수 있다. 이 목적을 위해, 본 발명은 복수 형태들(예를 들어, 비디오, 오디오 또는 자막 형태)의 데이터 스트림(예를 들어, 비디오, 오디오 또는 자막 데이터)을 구별한다. 그래서, 예를 들어, 장면이 탐색될 때, 시스템 제어기는 자막 디코더로 하여금 비디오 데이터를 나타내는 자막 데이터 스트림만을 디코딩하도록 한다. 유사하게, 음성이 위치될 때, 시스템 제어기는 자막 디코더로 하여금 오디오 데이터를 나타내는 자막 데이터 스트림만을 디코딩하도록 한다. 시스템 제어기는 복수 형태들의 데이터 스트림의 스트림이 디스크 상에서 위치하는 곳을 결정함으로써 또한 탐색된 형태에 대한 각각의 데이터 스트림이 재생되도록 함으로써 디코더에 보내는 동작을 한다.
본 발명의 제 1 실시예에서, 시스템 제어기는 디스크의 시작으로부터 콘텐츠 테이블(TOC; table of contents)을 추출하여 스트림이 디스크 상에서 위치하는 곳을 결정하며 이것은 복수 형태들의 데이터 스트림에 어드레스를 제공한다. 도 3A 및 도 3B는 본 발명에 따른 콘텐츠 테이블을 나타낸다. 도 3A에 도시된 콘텐츠 테이블 번호(서브코드 프레임 #), 대응하는 프레임이 위치하는 디스크상의 트랙을 가리키는 포인터(POINTER) 및 그 프레임에 대응하는 시간 코드들(PMIN, PSEC, PFRAME)을 확인한다. 도 3B의 콘텐츠 테이블은 프레임, 시작 섹터 어드레스 및 형태(즉, 비디오, 오디오 또는 자막)에 의해 배치된 기록된 데이터 스트림의 끝 섹터 어드레스를 확인한다. 이 콘텐츠 테이블로부터, 시스템 제어기는 특정한 형태의 스트림 데이터에서 모든 스트림을 결정할 수 있으며, 구동 제어기(15)(도1)로 하여금 픽업을 콘텐츠 테이블의 시작_섹터(start_sector) 어드레스가 표시하는 섹터로 점프하도록 하게 한다.
본 발명의 제 2 실시예에서, 복수 형태들의 스트림용 섹터 어드레스들은 스트림 맵이라 하는 디스크 영역에서 제어된다. 콘텐츠 테이블과는 달리, 스트림 맵은 디스크의 시작을 한정할 필요가 없지만, 어느 섹터에 패킷으로서 위치할 필요가 있다. 그래서, 스트림 맵은 비디오, 오디오, 자막, 블랭킹, 스트림의 패킷 길이, 식별자, 및 스트림 맵 정보의 길이를 패킷으로서 배열한다. 시스템 제어기는 콘텐츠 테이블과 유사한 방법으로 스트림 맵을 참조하여, 픽업으로 하여금 탐색되어야 할 데이터 스트림의 형태에 대응하는 자막 스트림을 재생하게 하고, 예를 들어, 이들 재생된 스트림들을 자막 디코더에 보낸다.
제 3 실시예에서, 이전의 섹터 어드레스들과 현재 재생된 자막 스트림의 다음의 스트림은 각각의 자막 스트림에 저장된다. 섹터 어드레스가 자막 스트림에 있기 때문에, 섹터 어드레스는 디코딩되고 자막 디코더(도 2)의 워드 검출기(20)는 자막 스트림 섹터 어드레스(subtitle stream sector address)를 검출하고 이것들을 제어기(35)를 거쳐서 시스템 제어기로 보낸다. 각각의 자막은 예를 들어, 순방향 재생 모드에서 디코딩되기 때문에, 시스템 제어기는 다음 자막을 위해 뒤이은 섹터 어드레스들을 리콜(recall)하며, 픽업으로 하여금 그 뒤이은 어드레스가 나타내는 섹터로 점프하도록 하여 다음 자막을 재생한다. 유사하게, 역방향 재생 모드에서, 시스템 제어기는 이전의 자막용 이전 섹터 어드레스를 리콜하며 그 자막이 재생되도록 한다. 설명해 보면, 워드 검출기는 스트림이 다음의 동작에 따라 섹터 어드레스를 포함하는지를 검출한다.
비트 번호 Mnemonic
user_datq_flag 1 uimsbf
if(user_datq_flag = "1")[
length_of_user_data 16 bslbf
next_subtitle_address_offset 32 bslbf
reserved 8 bslbf
previous_subtitle_address_offset 24 bslbf
reserved 8 bslbf
]
시스템 제어기(14)(제 1 도)는 비교기로서 동작하여 상술한 동작을 실행하며 워드 검출기로 하여금 사용자_데이터_플래그(user_data_flag)가 "1"에 설정되어 있으면, 다음의 16 비트를 사용자_데이터_길이(user_data_length)로서 다루게 하고; 다음의 32 비트를 다음_자막_어드레스_오프셋(next_subtitle_address_offset)으로 다루게 하고; 다음의 8 비트를 보류로 다루고, 다음의 24 비트를 이전_자막_어드레스_오프셋(previous_subtitle_address_offset )으로 다루게 하고; 마지막 8 비트를 보류로 다루게 한다. 워드 검출기는 이 정보를 제어기(35)를 통해 시스템 제어기로 보내며, 계속해서 자막 스트림을 검출한다. 시스템 제어기는 자막 스트림 섹터 어드레스를 수신하여 디코딩 장치를 상술한 바와 같이 제어한다.
인코딩 기술
본 발명에서 채용된 인코딩 기술은 도 7A, 도 7B, 도 7C, 도 8을 참조하여 보다 상세히 설명한다. 예로서, 도 7A의 "A" 글자를 인코딩하는 기술에 대해 설명하겠다. "A" 글자는 연속한 수평선을 따라 주사되며, 도 7B의 필(fill) 데이터는 각각의 수평선을 따라 "A" 글자에 대해서 발생된다. 레벨 "EO"은 도 6에 도시한 컬러 룩업 테이블로부터 컬러 픽셀을 회복시키기 위한 가장 높은 레벨을 나타내며, 레벨 "0"은 자막 데이터의 부족을 나타낸다.
키 데이터(K)(또는 믹싱 비)는 필 데이터가 배경 비디오와 혼합되는 정도를 결정한다. 키 데이터의 영역들(T1, T5)은 필 데이터와 중첩되지 않는 비디오 화상 내의 영역들에 대응하며; 따라서, 이들 영역은 도 8에 어드레스 0으로 표시될 때 레벨 0으로서 지정된다. 영역들(T2, T4)은 자막이 배경 비디오 화상과 섞이도록 배경 비디오 화상에 점진적으로 혼합됨으로써, 자막이 그와 함께 급하게 대조되지 않게 되는 혼합 영역이다. 이 영역 내에서의 필 데이터의 어느 것은 컬러 룩업 테이블의 어드레스 1 내지 6 내에 저장된다. "A" 글자의 주요부는 배경 정보가 나타나지 않는 T3 영역 내에 디스플레이된다. 영역(T3) 내의 자막 정보는 어드레스 7 내지 F(16진수)로서 저장된다. 도 8의 컬러 룩업 테이블은 휘도 성분(Y)의 가변 등급으로 배열된다. 예를 들면 영역(T3) 내의 픽셀이 저장될 때, 그리고 그 특정 픽셀에 대한 휘도 성분(Y)의 레벨이 20(16진수)일 때, 그 픽셀에 대한 컬러 정보는 어드레스 9(도 8)로부터 얻어진다. 이러한 방식으로, 자막 문자에 대한 나머지 픽셀들이 인코딩된다.
인코딩 장치
본 발명의 인코딩 장치는 도 9A, 도 9B에 도시되었다. 오디오 및 비디오 정보는 각각 마이크로폰(53) 및 비디오 카메라(51)에 의해서 수신되어, 멀티플렉서(58)로 보내진다. 자막 데이터는 문자 발생기(55)나 플라잉 스폿 스캐너(flying spot scanner)(56)를 통하여 입력되어, 자막 인코딩 회로(57)에 의해서 인코딩된다. 인코딩된 자막 정보는 멀티플렉서(58)로 보내져, 기록 디스크(91) 상에 기록하기 위한 오디오/비디오 정보와 조합되거나 전송, 디스플레이, 기록 등을 위해서 채널에 공급된다.
비디오 카메라(51)는 비디오 신호를 발생시켜, 비디오 신호를 아날로그에서 디지털 형태로 변환하는 비디오 인코딩 유닛(52)에 이들을 공급한다. 이어서 디지털로 된 비디오 신호는 비디오 전송을 위해 압축된 후, 속도 제어기(52a)로 보내지며, 여기서 이 속도 제어기는 자막이 멀티플렉서로 보내지는 속도와 동기하여 압축된 비디오 데이터가 멀티플렉서로 전송되는 속도를 제어한다. 이와 같은 방식으로, 압축된 비디오 데이터는 정확한 시간에 자막 데이터와 조합된다. 마찬가지로, 오디오 정보는 마이크로폰(53)에 의해서 얻어져, 멀티플렉서로 보내지기 전에 오디오 인코딩 유닛(54)에 의해서 인코딩된다. 오디오 인코딩 유닛은 속도 제어기를 반드시 포함할 필요는 없다. 왜냐하면, 오디오 데이터는 종국에는 다른 트랙 상에 기록되거나 비디오 데이터로부터 다른 채널로 전송될 수 있기 때문이다.
자막은 문자 발생기(55)나 플라잉 스폿 스캐너(56)에 의해서 발생된다. 문자 발생기는 조작자가 비디오 화상에 자막을 수동으로 삽입시킬 수 있도록 모니터와 키보드를 포함한다. 조작자는 키보드를 통해 자막을 타이핑함으로써 자막들을 편집한다. 한편, 플라잉 스폿 스캐너(56)는 외부 비디오 화상에 자막이 이미 제공되거나 텍스트로 스캔된 상황에서 제공된다. 플라잉 스폿 스캐너는 비디오 화상을 스캔하여 자막들의 어디에 있는지를 판정하여 대응하는 자막 데이터를 그로부터 발생한다. 플라잉 스폿 스캐너로부터의 자막은 자막 인코딩 회로에 의해 다시 처리하기 전에 문자 발생기에 의해서 발생된 자막에 맞도록 처리 회로(63)에 의해서 사전 처리된다.
문자 발생기(55)나 플라잉 스폿 스캐너(56)로부터의 자막 데이터는 이때 압축을 위해서 선택된다. 문자 발생기는 블랭킹 데이터, 자막 데이터 및 키 데이터를 출력한다. 자막 데이터 및 키 데이터는 자막이나 키 데이터를 선택하기 위해서 미리 결정된 타이밍에 따라 스위칭되는 스위치(61)로 보내진다. 스위치(61)로부터 선택된 데이터는 필터(72)에 의해 필터링되고, 다른 스위치(62)에 제공된다. 스위치(62)는 블랭킹 데이터, 문자 발생기로부터의 필터링된 데이터와 플라잉 스폿 스캐너로부터의 처리된 데이터간의 스위칭을 행한다. 어떠한 자막도 없는 것으로 판정된 때에서, 블랭킹 데이터가 스위치(62)에 의해서 선택된다. 자막이 있는 경우, 스위치(62)는 자막 데이터를 발생하는데 어느 장치가 사용되고 있는지에 따라 문자 발생기 데이터 또는 플라잉 스폿 스캐너 데이터 사이에서 선택한다.
스위치(62)에 의해서 선택된 데이터는 이어서 자막 버퍼 입증기(verifier)(68)로부터 다시 공급된 데이터에 기초한 양자화 레벨을 사용하여 양자화 회로(64)에 의해서 양자화된다. 압축될 수도 있는 양자화된 데이터는 스위치(69)로 공급되어, (통상의 동작 동안) 펄스 코드 변조를 위해서 미분 펄스 코드 변조(DPCM) 회로(65)로 보내진다. 변조된 데이터는 런-렝스 코딩 회로(66)에 의해서 런-렝스 인코딩되고, 가변-길이 인코딩 회로(67)에 의해서 가변-길이 인코딩되어, 멀티플렉서(58)로 보내지기에 앞서 최종 처리를 위해 자막 버퍼 입증기(68)로 보내진다.
자막 버퍼 입증기(68)는 오버플로 됨 없이 버퍼가 데이터로 충분히 채워진 것을 입증한다. 이것은 제어 신호(필터 신호로서 도 9A 참조)를 다시 양자화 회로로 공급함으로써 행해진다. 제어 신호는 양자화 회로의 양자화 레벨을 변경함으로서, 이에 따라 특정 자막에 대해 인코딩될 데이터의 양을 변경하게 된다. 양자화 레벨을 증가시킴으로 해서, 자막 데이터에 필요한 데이터의 양은 감소되고, 자막 버퍼 입증기로 입력되는 비트 속도는 결과적으로 감소된다. 자막 버퍼 입증기가 데이터의 언더플로가 있음을 판정할 때, 제어 신호는 양자화 레벨을 감소시키며, 양자화 회로로부터 출력된 데이터의 양이 증가하여, 자막 버퍼 입증기를 채운다.
자막 버퍼 입증기는 또한 전송(예를 들면, 텔레비전 공중파(television airwave) 상으로)을 위한 자막 데이터를 준비해야 한다. 자막 버퍼 입증기는 이를 위해 인코딩된 자막 데이터를 디코딩하는데 필요한 정보를 삽입한다. 이 정보는 자막이 정상 또는 특별(고속 순방향/역방향)(상기에서는 트릭 모드로 불림) 모드로 기록되는지 여부를 표시하는 정상/특별 플레이(normal/special play) 신호를 포함한다. 프레임에 대한 자막 데이터의 메모리 크기에 대한 상한을 표시하는 상한치(upper limit value) 신호가 삽입된다. EOP 신호는 자막 데이터 프레임에 대한 페이지 끝을 표시하며 이 또한 삽입된다. 디코딩시 시간 스탬프(PTS)로서 사용되는 시간 코드(time code) 신호가 삽입된다. 자막 인코딩 정보(subtitle encoding information)가 삽입되며, 이 정보는 양자화 인자와 같은 자막 데이터를 인코딩하는데 사용되는 정보를 포함한다. 위치 정보(positional information)는 디코딩시 위치_데이터(position_data)로서 사용된다. 자막 데이터가 정적 또는 동적 모드에 있는지 여부를 표시하는 정적/동적 신호(static/dynamic signal)가 삽입된다. 자막 버퍼 입증기는 디스플레이의 컬러들이 자막을 생성하는데 채용된 컬러와 맞게 되도록 디코더에 전송하기 위해서 컬러 룩업 테이블 어드레스를 또한 삽입한다.
자막 버퍼 입증기는 디코더(도 2)의 코드 버퍼(22)와 유사한 코드 버퍼인 것이 바람직하다. 이를 위해서, 코드 버퍼와 대칭되는(즉, 코드 버퍼의 반대 기능을 수행하는) 자막 버퍼 입증기의 동작에 관해서 생각하는 것이 유용하다. 예를 들면, 자막의 컬러 픽셀은 디지털 표현으로 변환되며; 그 결과로 생긴 디지털 자막은 런-렝스 인코더 및 가변 길이 인코더에 의해서 인코딩되며, 헤드 정보가 부가되고; 그리고 그 결과로 생긴 자막 정보는 버퍼에 저장되어, 오디오 및 비디오 데이터와 멀티플렉스하기 위해서 멀티플렉서(58)로 보내진다.
멀티플렉서(58)는 시분할 멀티플렉싱 채용하는 것이 바람직하며; 에러 정정 처리(즉, 에러 정정 코딩) 및 변조 처리(즉, EFM, 8 대 14 변조)를 제공한다. 멀티플렉싱된 데이터는 이어서 (텔레비전 방송, 기록, 또는 다른 전송 수단을 거쳐) 디코딩 및 디스플레이를 위해서 디코딩 장치로 전송된다.
자막의 인코딩 복합 형태
본 발명은 복수 형태들의 데이터 스트림을 구별함으로써 또한 이들 데이터 스트림을 탐색과 관련된 형태로 이루어진 디스플레이하기 위해 선택함으로써 시청자가 특정한 장면이나 가청 음성을 탐색할 수 있게 해준다. 예를 들어, 비디오 영상을 나타내는 자막의 데이터 스트림을 디스플레이함으로써 비디오 영상이 위치된다. 도 9A 및 도 9B를 참조하여 이미 기술한 바와 같은 인코더가 복수 형태들의 데이터 스트림을 인코딩하는 방법을 이제부터 기술한다. 멀티플렉서(58)가 오디오, 비디오 및 자막 데이터 스트림을 멀티플렉싱한 후, 멀티플렉싱된 데이터는 섹터라이징 프로세서(sectorizing processor)(100)로 보내지며 이 프로세서는 데이터 스트림을 고정된 길이 섹터의 패킷으로 배열한다. 이 점에서, 데이터 스트림은 이미 공중파로 전송되었다. 그렇지만, 데이터 스트림이 디스크 상에 기록될 때, 콘텐츠 테이블(TOC) 및 스트림 맵 발생기(101)는 디스크 상에 기록되는 데이터 스트림의 어드레스를 결정한다.
제 1 실시예에 따라, TOC 및 스트림 맵 발생기는 섹터라이징 프로세서에 의해 발생되는 섹터로부터 그리고 예를 들어 시청자에 의해 발생되는 비디오/오디오 탐색 정보로부터 도 3A, 도 3B에 도시된 콘텐츠 테이블을 발생한다. 제 2 실시예에서, TOC 및 스트림 맵 발생기는 섹터라이징 프로세서에 의해 발생되는 섹터로부터 스트림 맵을 발생한다. 이전의 실시예와는 달리, TOC 및 스트림 맵 발생기는 스트림 맵을 패킷으로서 디스크에 삽입한다. 제 1의 2 실시예에서, 데이터 생성기(또는 수신기)의 시스템 제어기(14)는 콘텐츠 테이블 및 스트림 맵을 직접 판독하고 디코딩 장치(도 1)로 하여금 탐색되는 데이터 형태와 관련된 스트림을 디코딩하도록 한다. 제 3 실시예에서, TOC 및 스트림 맵 발생기는 이전의 스트림 어드레스와 뒤이은 어드레스를 각각의 자막 스트림에 삽입한다. 제 1의 2 실시예와는 달리, 시스템 제어기는 자막 디코더로 하여금 자막 스트림을 디코딩하도록 하고 그로부터 섹터 어드레스를 추출하게 한다. 복수 형태들의 스트림의 디코딩과 관련하여 기술된 바와 같이, TOC 및 스트림 맵 발생기는 각각의 스트림을 스트림 어드레스들이 스트림에서 출현하는지의 여부를 나타내는 사용자_데이터_플래그(user_data_flag)의 1 비트로 인코딩하고; 그 다음 16 비트로 사용자_데이터_길이(length_of_user_data)를 인코딩하고; 그 다음 32 비트로 다음_자막_어드레스_오프셋(next_subtitle_address_offset)을 인코딩하고: 그 다음 8 비트로서 보류를 인코딩하고; 그 다음 24 비트로서 이전_자막_어드레스_오프셋(previous_subtitle_address_offset)을 인코딩하고; 마지막 8 비트로서 보류를 인코딩한다.
본 발명에 따라, 비디오 영상, 오디오 트랙 및 자막은 디스크상의 프레임의 단위로 배열되고, 시스템 제어기는 디스크로부터 리콜함으로써 정보를 액세스하여 상기 스트림은 이들 프레임들을 구성한다. 이 스킴에 따라, 시스템 제어기는 디코더로 하여금 탐색되어야할 특정한 장면이나 음성과 관련된 자막만을 디코딩하도록 할 수 있다. 그래서, 시청자는 자막을 읽음으로서 비디오 화상을 통해 찾을 수 있고 관심있는 부분만을 볼 수 있다. 이를 위해 정보가 재생되는 순서나 속력은 자유로이 변경될 수 있다. 예를 들어, 시청자가 듣는데 있어서 문제가 있거나 오디오 트랙에서 나오는 언어를 배우는데 문제가 있는 경우, 시스템 제어기는 조작자의 제어 하에 시청자가 재생된 음성을 이해할 수 있도록 오디오 트랙의 재생 속도를 느리게 할 수 있다. 본 발명의 다른 응용은 컬러 와이핑(colorwiping)과 관련 있으며 여기에서 컬러 와이핑의 정보는 프레임들간에서 종종 변한다. 예를 들어 가라오케로 노래를 부르고 싶은 시청자는 자막을 보고 노래를 부를 자막 부분이 컬러와이핑에 의해 하이라이트 될 때 즉시 검색을 중지함으로써 노래가 있는 특정 포인트를 검색할 수 있다.
컬러와이핑 인코딩
컬러와이핑은 자막과 같은 이미지가 또 다른 이미지에 점진적으로 오버레이되는 처리 과정을 지칭한다. 컬러와이핑의 예로서의 응용에는 하이라이팅(highlighting)이 있으며, 한 프레임의 자막은 시간 경과와 함께 좌측에서 우측으로 동적으로 하이라이팅된다. 본 발명은 자막 디스플레이 동안 상이한 점들에서 표준 컬러 룩업 테이블을 변경함으로써 컬러와이핑을 수행한다. 예를 들면, 초기 자막 프레임은 도 8에 표준 컬러 룩업 테이블로 발생된다. 컬러와이핑이 수행될 때, 컬러 룩업 테이블은 도 11의 컬러와이핑 룩업 테이블로 변경된다. 각각의 프레임의 경과에 따라, 컬러 룩업 테이블이 컬러와이핑으로부터 표준 컬러 룩으로 변경되는 위치의 점직적인 변경은 시간에 따라 좌측에서 우측으로 자막이 컬러를 동적으로 변하고 있다는 감(sensation)을 제공한다.
컬러와이핑을 위한 인코딩 동작을 도 9A 내지 도 10를 참조하여 설명한다. 자막을 인코딩하는 과정 동안, 조작자는 이전에 인코딩된 자막을 컬러와이핑하고자 할 수 있다. 이를 위해서, 조작자에게는 컬러와이핑을 제어하기 위해 와이프 레버(wipe lever)(81)와 실시간으로 컬러 와이핑을 보기 위한 모니터(84)가 제공된다. 와이프 레버는 와이프 레버의 아날로그 전압을 디지털 조작에 적합한 디지털 신호들에 맞게 하도록 어댑터(82)에 접속된다. 어댑터의 디지털 출력은 스위처(83) 및 와이프 데이터 샘플러(70)에 공급된다. 스위처는 컬러 룩업 테이블을 와이프 레버의 위치에 의해 나타내어진 값들로 전환하여, 모니터 상에 디스플레이하기 위해서 자막들의 컬러 픽셀을 발생한다. 이와 같이, 조작자는 발생하는 컬러와이핑 과정을 시각적으로 조사하면서 와이핑되는 컬러 또는 속도를 만족할 정도로 조정한다.
와이프 데이터 샘플러 및 위치 샘플러(70)는 어댑터 신호로부터, 비디오 화상에서 컬러 룩업 테이블 어디가 변경될 것이지를 판정하여, 이 정보를 인코딩 및 멀티플렉서(58)로 전송하기 위해서 인코딩 회로들(65, 66, 67)(스위치(69)를 통해)로 출력한다. 도 10A 및 도 10B는 와이프 데이터 및 위치 샘플러의 동작에 대한 블록도를 도시한 것이다. 비교기(301)는 어댑터에 의해서 발생된 현재의 픽셀 신호를 어댑터로부터의 이전에 픽셀 신호와 비교한다. 이것은 현재의 픽셀 값을 비교기(301)의 입력 A에 전송함과 동시에, 비교기(301)의 입력 B에 레지스터(300)에 래치(latch)된 이전의 픽셀 값을 공급함으로써 달성된다. 비교기는 현재 및 이전이 픽셀들이 동일한 값을 가지며 카운터는 카운트 값을 증분할 때 불린(boolean) "트루(true)"값을 (수평 또는 수직 동기 펄스마다 리셋되는)카운터(302)에 출력한다. 즉, 비교기는 해당 점이 동일한 룩업 테이블로부터 발생될 때까지 픽셀들이 업할 때 트루 상태를 등록한다. 그러므로, 컬러 룩업 테이블이 변하는 점에서, 현재 및 이전의 픽셀들은 동일하지 않게 되며(즉, 이들의 컬러가 변한다), 비교기는 "폴스(false)"의 불린 상태를 발생한다. 이와 같이, 카운트 값은 현재와 이전의 값들간 일치하는 개수와 같게 되며, 이것은 컬러 룩업 테이블이 변하는 위치와 동일한 것이다. 카운트 값은 다음의 수직 동기 펄스에서 레지스터(303)에 의해서 래치되고, 전송을 위해서 인코딩 회로(스위치(69)를 통해)로 전송된다.
컬러와이핑 디코딩
컬러와이핑 디코딩에 대해서 도 14A-C 및 도 15를 참조하여 설명한다. 도 14A는 점 A에서 컬러 룩업 테이블이 컬러와이핑 룩업 테이블(도 11)에서 표준 컬러 룩업 테이블(도 8)로 전환되는 위치를 도시한 것이다. 도 14B는 자막의 패턴 및 표시 시간 스탬프(PTS(n)... PTS(n+t))의 이산 블록으로 배열된 컬러 와이프 데이터를 도시한 것이다. 제 1 표시 시간 스탬프(PTS(n))는 통상의 자막 데이터에 대응하며, 나머지 표시 시간 스탬프(PTS(n+1....n+t))는 컬러와이핑 데이터(WPA...WAZ)에 대응한다. 도 14C는 표시 시간 스탬프에 대응하는 연속한 프레임(n...n+t)을 도시한 것이다. 컬러와이핑을 수행하기 위해서, 각각의 연속한 컬러와이핑 프레임(WPA...WPZ)은 컬러 룩업 테이블이 디스플레이된 자막을 따라 더 스위칭되는 점(점 A)을 설정하여, 이에 따라 시간의 함수로서 컬러와이핑을 동적으로 수행하게 된다.
컬러와이핑 디코딩에 대한 동작 블록도를 도 15에 도시하였다. 수직 동기 펄스는 레지스터(205)를 트리거(trigger)하여 레지스터가 현재의 자막 프레임을 디스플레이 버퍼로부터 래치하도록 한다(도 15는 컬러와이핑 프레임(WP)이 래치되는 것을 도시한 것이다). 레지스터에 의해서 래치된 컬러와이핑 데이터는 컬러 룩업 테이블 스위칭의 위치를 표시한다. 픽셀 카운터(208)는 각각의 수평 동기 펄스에서 컬러와이핑 데이터에 의해 표시된 값을 감소시켜, 불린 "트루(true)" 플래그를 컬러 룩업 테이블(26)에 출력한다. 플래그가 "트루"일 때, 컬러 룩업 테이블은 자막 픽셀의 컬러들을 디코딩하기 위해서 컬러와이핑 테이블(도 11)을 채용한다. 픽셀 카운터가 제로(zero)에 도달할 때, 컬러 룩업 테이블 스위칭의 위치에 도달되어 픽셀 카운터는 불린 "폴스(false)" 플래그를 컬러 룩업 테이블(26)에 출력한다. 이 때, 컬러 룩업 테이블은 컬러 룩업 테이블(도 11)을 표준 룩업 테이블(도 8)로 전환하고, 자막 프레임의 나머지를 표준 컬러 모드로 디스플레이한다. 각각의 연속한 컬러 와이핑 프레임(WPA...WPZ)은 스위칭의 위치를 이동시켜, 이에 따라 각각의 리플레쉬(reflash)된 자막 프레임은 컬러와이핑을 전진(또는 후퇴)시키고, 이에 따라 동적인 컬러와이핑이 수행된다.
도 11에 컬러와이핑 컬러 룩업 테이블은 2세트의 컬러(제 1 세트는 어드레스 0h 내지 7h에 대한 것이며, 제 2 세트는 어드레스 8h 내지 Fh에 대한 것이다)를 포함한다. 이와 같이 하여, 컬러와이핑 컬러는 컬러 룩업 테이블 어드레스의 최상위 비트(MSB)를 변경함으로써 간단하게 2차 컬러로 변경될 수 있다. 예를 들면, 제 1 세트의 컬러와이핑 컬러는 "0"의 MSB를 가지며, 제 2 세트는 "1"의 MSB를 갖는다. 어드레스 7h의 MSB를 "1"로 변경함에 따라 어드레스가 Fh로 변환되어, 컬러와이핑 컬러가 변경된다. 이것은 예를 들면 MSB를 픽셀 카운터(208)의 플래그와 같도록 설정함으로서 행해질 수 있다.
컬러 세트들간의 변경을 위해서 MSB를 사용하는 것은 인코딩하는데 필요한 비트 수를 감소시킨다는 이점이 있다. MSB는 알고 있기 때문에, 단지 3개의 하위 비트만이 인코딩하는데 필요하며, 여기서 4 비트는 매 픽셀마다 채용될 수 있다. 2개의 비트가 매 픽셀마다 사용되는 경우, 자막 데이터는 최하위 비트에 대해서만 코드화된다. 2픽셀당 4개의 비트 포맷으로, 단지 MSB만을 컬러 제어용으로 채용하며, 나머지 3개의 비트는 픽셀 정보용으로 보류해 둔다. 이와 같이 하여, MSB를 사용함으로써 인코딩된 비트의 수는 감소될 수 있고 인코딩 및 디코딩하는데에 있어 전체 처리 시간은 최적화된다.
동적 자막 배치
자막은 동적으로, 즉 시간의 함수로서, 컬러와이핑을 참조하여 상술된 유사 기술을 채용함으로써 재배치된다. 도 16A-C에 도시한 바와 같이, 이 배치 데이터는 수평축을 따라 측정되어(도 16A), 표시 시간 스탬프(PTS(n), 예를 들면; 도 16B)에 대응하는 적당한 프레임(도 16C) 동안 자막 데이터와 함께 자막 디코더로 전송된다.
위치 조작에 대해서 도 17을 참조하여 설명한다. 위치 데이터는 수평축을 따라 자막 프레임의 위치를 나타내는 값이며, 디스플레이 버퍼로부터 판독되어 각각의 수직 동기 펄스로 레지스터(205)에 의해서 래치된다. 픽셀 카운터(208)는 자막 프레임의 위치에 도달하지 않았음을 표시하기 위해서 불린 플래그를 제어기(35)(도 2)로 보낸다. 픽셀 카운터가 제로에 도달할 때, 자막 프레임의 위치에 도달하였으며, 불린 플래그는 토글(toggle)되어 이를 제어기에 표시한다. 코드 버퍼(22)(도 2)의 판독 동작을 지연하고 있었던 제어기는 이때 코드 버퍼로 하여금 자막 데이터를 런-렝스 디코더(24)(도 2)로 판독해 내도록 한다. 이어서, 자막 데이터는 상술한 바와 같이 디코딩되어 대응하는 비디오 이미지로 디스플레이된다. 이렇게 하여, 자막 프레임의 위치는 각 프레임으로 변경되어, 따라서 자막 프레임의 동적 이동을 제공하게 된다.
본 발명은 이를테면 텔레비전 또는 비디오 그래픽과 같은 기타 응용에 적용할 수 있다고 생각될 것이다. 그러므로, 첨부된 청구의 범위 내에서, 본 발명은 여기 특정하게 기술된 것 이외의 것을 실시할 수 있음을 이해해야 한다.
도 1은 본 발명의 데이터 디코딩 장치의 블록도.
도 2는 도 1에 도시한 자막 디코더의 블록도.
도 3A 및 도 3B는 본 발명에 따른 어드레스들의 테이블들.
도 4A 및 도 4B는 정상(normal) 및 트릭(trick) 재생 모드들에서 자막 검색 동작을 도시한 도면.
도 5는 도 1의 시스템 제어기와 도 2의 제어기 사이의 통신의 테이블.
도 6은 도 1과 도 2의 요소들 사이의 통신에 대한 파라미터들의 테이블.
도 7A 및 7C는 본 발명의 데이터 인코딩을 도시하는 신호 다이어그램.
도 8은 자막 데이터를 인코딩할 때 참조되는 컬러 룩업 테이블.
도 9A 및 도 9B 본 발명의 인코딩 장치의 블록도를 구성하는 도면.
도 10A 및 도 10B는 도 9A의 와이프 데이터 샘플러(wipe data sampler)를 도시하는 블록도.
도 11은 컬러 와이프 동작을 수행할 때 참조되는 컬러 룩업 테이블.
도 12는 코드 버퍼 동작을 설명하기 위한 그래프.
도 13은 도 2의 코드 버퍼의 내부 동작을 설명하는 블록도.
도 14A 내지 도 14C는 컬러와이핑(colorwiping) 동작을 위한 스킴(scheme)을 도시하는 도면.
도 15는 도 14A 내지 14C에 따른 컬러와이핑 동작을 도시한 블록도.
도 16A 내지 도 16C는 동적 위치결정 동작에 대한 스킴을 도시한 도면.
도 17은 도 16A 내지 도 16C에 따른 동적 위치결정 동작을 위한 회로를 도시한 도면.
도 18A 내지 도 18C는 CD-G 포맷에 따른 데이터의 배열을 도시한 도면.
도 19는 CD-G 포맷에서 데이터의 전송 포맷을 도시한 도면.
도면의 주요 부분에 대한 부호의 설명
1: 데이터 디코더 및 디멀티플렉서
2,4,6,12: 메모리 3: 비디오 디코더
5: 레터 박스 회로 7: 자막 디코더
8: 복합 디코더 9: 모드 디스플레이
10, 13: D/A 변환기 11: 오디오 디코더
14: 시스템 제어기 22: 코드 버퍼
23: 역 VLC 회로 24: 역 런-렝스 회로
25: 3:4 필터 26: 컬러 룩-업 테이블
34: 믹서 55: 문자 발생기
57: 자막 인코딩 회로 58: 멀티플렉서
64: 양자화 회로 65: DPCM 회로
66: 런-렝스 회로 67: 가변 길이 부호화 회로
68: SBV 71: CLUT
205,300,303: 레지스터 28: 픽셀 카운터
301: 비교기 302: 카운터

Claims (22)

  1. 비디오, 오디오 및 데이터 스트림들의 자막 형태들을 포함하는 복수 형태들의 데이터 스트림들을 기록 매체 상에 인코딩하는 인코딩 장치로서, 각 형태의 데이터 스트림들의 시퀀스는 비디오 방송으로 조합하는 각각의 비디오, 오디오 및 자막 신호를 구성하는, 상기 인코딩 장치에 있어서,
    상기 비디오 방송을 상기 기록 매체에 기록될 복수 형태들의 데이터 스트림들로 인코딩하기 위한 인코딩 수단과,
    상기 각 데이터 스트림이 상기 기록 매체에 기록될 위치를 지시하는 각각의 데이터 스트림들을 위한 어드레스들을 생성하기 위한 어드레스 생성 수단과,
    데이터 스트림의 형태로 예약된 상기 기록 매체의 영역들에서, 그들이 지시하는 상기 데이터 스트림의 형태에 따라서, 상기 어드레스 생성 수단에 의해 생성된 상기 어드레스들을 저장하기 위한 어드레스 저장 수단을 포함하고,
    상기 데이터 스트림들 내의 데이터에 의해 표시되는 이벤트는 데이터 스트림들을 액세스함으로써 상기 데이터가 위치되는 형태와 동일한 형태로 위치될 수 있는, 인코딩 장치.
  2. 제 1 항에 있어서,
    자막들은 트릭 데이터 재생 모드(trick data playback mode) 중 배타적으로 디스플레이될 상기 기록된 데이터 스트림들로부터 생성되고,
    상기 인코딩 수단은 트릭 모드 동안 데이터 스트림들로서 배타적으로 생성된 상기 자막들을 상기 기록 매체 상에 인코딩하고,
    상기 어드레스 생성 수단은 트릭 모드 동안 배타적으로 생성된 상기 자막들을 위한 어드레스들을 생성하고,
    상기 어드레스 저장 수단은 데이터에 의해 표시된 상기 이벤트가 트릭 모드 동안 배타적으로 생성된 상기 자막들의 상기 데이터 스트림들을 액세스함으로써 위치될 수 있도록 상기 어드레스들이 트릭 모드 동안 배타적으로 생성된 상기 자막 형태가 됨을 지시하는 상기 기록 매체 상의 위치로 트릭 모드 동안 배타적으로 생성된 상기 자막들의 상기 어드레스들을 저장하는, 인코딩 장치.
  3. 제 2 항에 있어서,
    상기 어드레스 저장 수단은 상기 데이터 스트림들이 저장되는 영역에 선행하여 상기 기록 매체의 영역으로 상기 기록된 데이터 스트림의 형태에 따라서, 상기 어드레스들을 테이블로 저장하기 위한 콘텐츠 테이블(table of contents) 수단을 더 포함하는, 인코딩 장치.
  4. 제 2 항에 있어서,
    상기 어드레스 저장 수단은 상기 기록 매체 상에 기록된 데이터 스트림들의 패킷 내의 상기 기록된 데이터 스트림의 형태에 따라서, 상기 어드레스들을 저장하기 위한 스트림 맵(stream map) 수단을 더 포함하는, 인코딩 장치.
  5. 제 2 항에 있어서,
    상기 어드레스 저장 수단은 트릭 모드 동안 배타적으로 생성된 상기 자막들의 각 데이터 스트림들에서, 후속하는 데이터 스트림의 다음 어드레스와 선행하는 데이터 스트림의 이전 어드레스를 자막들의 상기 데이터 스트림을 위한 시퀀스로 저장하기 위한 수단을 더 포함하는, 인코딩 장치.
  6. 비디오, 오디오 및 데이터 스트림들의 자막 형태들을 포함하는 복수 형태들의 데이터 스트림들을 기록 매체 상에 인코딩하는 인코딩 방법으로서, 각 형태의 데이터 스트림들의 시퀀스는 비디오 방송으로 조합하는 각각의 비디오, 오디오 및 자막 신호를 구성하는, 상기 인코딩 방법에 있어서,
    상기 비디오 방송을 상기 기록 매체에 기록될 복수 형태들의 데이터 스트림들로 인코딩하는 단계와,
    상기 각 데이터 스트림이 상기 기록 매체 상에 기록될 위치를 지시하는 각각의 데이터 스트림들을 위한 어드레스들을 생성하는 단계와,
    데이터 스트림의 형태로 예약된 상기 기록 매체의 영역들에서 그들이 지시하는 데이터 스트림의 형태에 따라서, 상기 어드레스 생성 수단에 의해 생성된 상기 어드레스들을 저장하는 단계를 포함하고,
    상기 데이터 스트림들 내에서 데이터에 의해 표시되는 이벤트는 데이터 스트림들을 액세스함으로써 상기 데이터가 위치되는 형태와 동일한 형태로 위치될 수 있는, 인코딩 방법.
  7. 제 6 항에 있어서,
    자막들은 트릭 모드 중 배타적으로 디스플레이될 상기 기록된 데이터 스트림들로부터 생성되고,
    트릭 모드 동안 데이터 스트림들로서 배타적으로 생성된 상기 자막들을 상기 기록 매체 상에 인코딩하는 단계와,
    트릭 모드 동안 배타적으로 생성된 상기 자막들을 위한 어드레스들을 생성하는 단계와,
    데이터에 의해 표시된 이벤트가 트릭 모드 동안 배타적으로 생성된 상기 자막들의 상기 데이터 스트림들을 액세스함으로써 위치될 수 있도록 상기 어드레스들이 트릭 모드 동안 배타적으로 생성된 상기 자막 형태가 됨을 지시하는 상기 기록 매체 상의 위치로 트릭 모드 동안 배타적으로 생성된 상기 자막들의 상기 어드레스들을 저장하는 단계를 더 포함하는, 인코딩 방법.
  8. 제 7 항에 있어서,
    트릭 모드 동안 배타적으로 생성된 상기 자막들의 상기 어드레스들을 저장하는 상기 단계는, 상기 데이터 스트림들이 저장된 영역에 선행하여 상기 기록 매체의 영역으로 기록된 데이터 스트림의 형태에 따라서, 콘텐츠 테이블(table of contents) 내의 상기 어드레스들을 저장하는 단계를 포함하는, 인코딩 방법.
  9. 제 7 항에 있어서,
    트릭 모드 동안 배타적으로 생성된 상기 자막들의 상기 어드레스들을 저장하는 상기 단계는 데이터 스트림의 형태에 따라서 상기 어드레스들을 상기 기록 매체상의 데이터 스트림들의 패킷 내에 그룹화하는 단계를 더 포함하는, 인코딩 방법.
  10. 제 7 항에 있어서,
    트릭 모드 동안 배타적으로 생성된 상기 자막들의 상기 어드레스들을 저장하는 상기 단계는, 트릭 모드 동안 배타적으로 생성된 상기 자막들의 상기 각 데이터 스트림에서, 후속하는 데이터 스트림의 다음 어드레스와 선행하는 데이터 스트림의 이전 어드레스를 상기 자막들의 데이터 스트림을 위한 시퀀스로 저장하는 단계를 더 포함하는, 인코딩 방법.
  11. 컴퓨터에게 비디오, 오디오 및 데이터 스트림들의 자막 형태들을 포함하는 복수 형태들의 데이터 스트림들 중 하나의 데이터 스트림에 저장되는 비디오 방송에서 이벤트를 표시하는 데이터를 기록 매체 상에서 검색하도록 명령하는 컴퓨터 판독 가능 메모리로서, 각 형태의 상기 데이터 스트림들의 시퀀스는 비디오 방송으로 조합하는 각각의 비디오, 오디오 및 자막 신호를 구성하는, 상기 컴퓨터 판독 가능 메모리에 있어서,
    상기 복수 형태들의 데이터 스트림들을 지시하는 어드레스들을 저장하기 위한 저장 수단, 및
    상기 검색 동안 상기 컴퓨터에게 상기 검색 동안 배타적으로 디스플레이된 데이터 스트림의 자막 형태를 지시하는 어드레스들로 위치된 상기 데이터 스트림들을 순차적으로 디코딩하도록 명령하기 위한 자막 데이터 지시 수단을 포함하는, 컴퓨터 판독 가능 메모리.
  12. 제 11 항에 있어서,
    상기 저장 수단은 데이터의 형태에 의해 배치된 테이블에 상기 어드레스들을 저장하기 위한 콘텐츠 테이블 수단을 더 포함하는, 컴퓨터 판독 가능 메모리.
  13. 제 11 항에 있어서,
    상기 저장 수단은, 상기 데이터 스트림의 형태에 의해 상기 어드레스들을 상기 기록 매체 상의 패킷 내에 저장하기 위한 스트림 맵 수단을 더 포함하는, 컴퓨터 판독 가능 메모리.
  14. 제 11 항에 있어서,
    상기 저장 수단은 상기 검색 동안 배타적으로 디스플레이된 상기 자막들의 각 데이터 스트림들에서, 후속하는 데이터 스트림의 다음 어드레스와 선행하는 데이터 스트림의 이전 어드레스를 상기 자막들의 데이터 스트림을 위한 시퀀스로 저장하기 위한 수단을 더 포함하는, 컴퓨터 판독 가능 메모리.
  15. 기록 매체로부터 재생된 비디오, 오디오 및 데이터 스트림들의 자막 형태들을 포함하는 복수 형태들의 데이터 스트림들을 디코딩하는 디코딩 장치로서, 각 형태의 상기 데이터 스트림들의 시퀀스는 비디오 방송으로 조합되는 각각의 비디오, 오디오 및 자막 신호를 구성하는, 상기 디코딩 장치에 있어서,
    상기 기록 매체로부터 재생된 상기 복수 형태들의 데이터 스트림들을 디코딩하기 위한 디코딩 수단, 및
    데이터 스트림들 내의 데이터에 의해 표시된 임의의 이벤트가 상기 검색될 데이터의 형태와 동일한 형태의 상기 데이터 스트림들을 액세스함으로써 위치할 수 있도록, 검색 동안 배타적으로 디스플레이될 상기 자막 형태의 데이터 스트림들을 디코딩하기 위한 상기 디코딩 수단을 제어하기 위한 제어 수단을 포함하는, 디코딩 장치.
  16. 제 15 항에 있어서,
    상기 제어 수단은 상기 기록 매체 상에 기록된 상기 데이터 스트림들에 선행하는 위치에 상기 기록 매체 상에 기록된 콘텐츠 테이블을 재생하기 위한 수단을 포함하고, 상기 콘텐츠 테이블은 상기 검색 동안 배타적으로 디스플레이될 상기 자막 데이터 형태의 상기 데이터 스트림들의 어드레스들을 포함하는, 디코딩 장치.
  17. 제 15 항에 있어서,
    상기 제어 수단은 상기 기록 매체 상에 기록된 상기 데이터 스트림들의 패킷으로부터 스트림 맵(map)을 재생하기 위한 수단을 포함하고, 상기 스트림 맵은 상기 검색 동안 배타적으로 디스플레이될 상기 자막 데이터 형태의 상기 데이터 스트림들의 어드레스들을 포함하는, 디코딩 장치.
  18. 제 15 항에 있어서,
    상기 디코딩 수단은 상기 기록 매체의 어드레스들로부터 재생된 데이터 스트림들을 디코딩하고, 각 데이터 스트림이 상기 검색 동안 배타적으로 디스플레이되는 상기 시퀀스의 후속하는 데이터 스트림의 다음 어드레스와 선행하는 데이터 스트림의 이전 어드레스를 상기 기록 매체로부터 재생하기 위한 수단을 포함하는, 디코딩 장치.
  19. 기록 매체로부터 재생된 비디오, 오디오 및 데이터 스트림들의 자막 형태들을 포함하는 복수 형태들의 데이터 스트림들을 디코딩하는 디코딩 방법으로서, 각 형태의 상기 데이터 스트림들의 시퀀스는 비디오 방송으로 조합되는 각각의 비디오, 오디오 및 자막 신호를 구성하는, 상기 디코딩 방법에 있어서,
    상기 기록 매체로부터 재생된 상기 데이터 스트림들의 복수 형태들을 디코딩하는 단계와,
    상기 데이터 스트림 내의 데이터에 의해 표시되는 임의의 이벤트가 상기 검색될 데이터의 형태와 동일한 형태의 상기 데이터 스트림들을 액세스함으로써 위치할 수 있도록, 검색 동안 배타적으로 디스플레이될 자막 형태의 데이터 스트림들을 디코딩하기 위한 상기 디코딩 단계를 제어하는 단계를 포함하는, 디코딩 방법.
  20. 제 19 항에 있어서,
    상기 제어 단계는 상기 기록 매체 상에 기록된 상기 데이터 스트림들에 선행하는 위치에 상기 기록 매체 상에 기록된 콘텐츠 테이블을 재생하는 단계를 포함하고, 상기 콘텐츠 테이블은 상기 검색 동안 배타적으로 디스플레이될 상기 자막 데이터 형태의 상기 데이터 스트림들의 어드레스들을 포함하는, 디코딩 방법.
  21. 제 19 항에 있어서,
    상기 제어 단계는 상기 기록 매체 상에 저장된 상기 데이터 스트림들의 패킷으로부터 스트림 맵을 재생하는 단계를 포함하고, 상기 스트림 맵은 상기 검색동안 배타적으로 디스플레이될 상기 자막 데이터 형태의 상기 데이터 스트림들의 어드레스들을 포함하는, 디코딩 방법.
  22. 제 19 항에 있어서,
    상기 디코딩 단계는 상기 기록 매체의 어드레스들로부터 재생된 데이터 스트림들을 디코딩하고, 상기 검색 동안 배타적으로 디스플레이될 각 데이터 스트림에서의 상기 시퀀스의 후속하는 데이터 스트림의 다음 어드레스와 상기 시퀀스의 선행하는 데이터 스트림의 이전 어드레스를 상기 기록 매체로부터 재생하는 단계를 포함하는, 디코딩 방법.
KR1019960028935A 1995-07-18 1996-07-18 인코딩장치및인코딩방법,컴퓨터판독가능메모리,디코딩장치및디코딩방법 KR100473895B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP20270395A JP3577794B2 (ja) 1995-07-18 1995-07-18 データ復号化装置
JP95-202703 1995-07-18

Publications (2)

Publication Number Publication Date
KR970008056A KR970008056A (ko) 1997-02-24
KR100473895B1 true KR100473895B1 (ko) 2005-06-17

Family

ID=16461763

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019960028935A KR100473895B1 (ko) 1995-07-18 1996-07-18 인코딩장치및인코딩방법,컴퓨터판독가능메모리,디코딩장치및디코딩방법

Country Status (14)

Country Link
US (1) US6104861A (ko)
EP (1) EP0755161B1 (ko)
JP (1) JP3577794B2 (ko)
KR (1) KR100473895B1 (ko)
CN (2) CN1122999C (ko)
AT (1) ATE206861T1 (ko)
AU (1) AU700439B2 (ko)
BR (1) BR9603125B1 (ko)
CA (1) CA2181324C (ko)
DE (1) DE69615767T2 (ko)
ES (1) ES2165475T3 (ko)
MX (1) MX9602842A (ko)
MY (1) MY116660A (ko)
TW (1) TW300369B (ko)

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004080069A1 (ja) * 1995-01-24 2004-09-16 Hiroki Zenda マルチメディアコンピュータシステム
JP3326670B2 (ja) * 1995-08-02 2002-09-24 ソニー株式会社 データ符号化/復号化方法および装置、および符号化データ記録媒体
US6041345A (en) * 1996-03-08 2000-03-21 Microsoft Corporation Active stream format for holding multiple media streams
JP3918228B2 (ja) * 1997-05-13 2007-05-23 株式会社ニコン 情報処理装置および記録媒体
US6374039B1 (en) * 1997-07-25 2002-04-16 Canon Kabushiki Kaisha Image pickup apparatus
US6341198B1 (en) * 1998-06-26 2002-01-22 Lsi Logic Corporation System for byte packing multiple data channels in an MPEG/DVD system
US6763139B1 (en) * 1998-07-03 2004-07-13 Canon Kabushiki Kaisha Image coding method and apparatus for localized decoding at multiple resolutions
US6466933B1 (en) 1999-09-21 2002-10-15 International Business Machines Corporation Delayed delivery of query results or other data from a federated server to a federated client until such information is needed
US6792416B2 (en) 1999-09-21 2004-09-14 International Business Machines Corporation Managing results of federated searches across heterogeneous datastores with a federated result set cursor object
US7197491B1 (en) 1999-09-21 2007-03-27 International Business Machines Corporation Architecture and implementation of a dynamic RMI server configuration hierarchy to support federated search and update across heterogeneous datastores
US7113939B2 (en) 1999-09-21 2006-09-26 International Business Machines Corporation Architecture to enable search gateways as part of federated search
EP1236350B1 (en) * 1999-11-10 2004-08-11 Thomson Licensing S.A. Digital video recording with full screen sub-picture and associated transparency control data recording for effecting fading between successive video segments at reproduction
US6798923B1 (en) 2000-02-04 2004-09-28 Industrial Technology Research Institute Apparatus and method for providing panoramic images
US7281220B1 (en) * 2000-05-31 2007-10-09 Intel Corporation Streaming video programming guide system selecting video files from multiple web sites and automatically generating selectable thumbnail frames and selectable keyword icons
KR100448452B1 (ko) 2000-06-09 2004-09-13 엘지전자 주식회사 고밀도 광 기록매체의 메뉴 지원방법
US8601519B1 (en) * 2000-12-28 2013-12-03 At&T Intellectual Property I, L.P. Digital residential entertainment system
US8677423B2 (en) * 2000-12-28 2014-03-18 At&T Intellectual Property I, L. P. Digital residential entertainment system
JP3747806B2 (ja) * 2001-06-11 2006-02-22 ソニー株式会社 データ処理装置及びデータ処理方法
JP4095271B2 (ja) * 2001-09-19 2008-06-04 アルパイン株式会社 ディスク再生装置
KR100457512B1 (ko) * 2001-11-29 2004-11-17 삼성전자주식회사 광 기록 매체, 광 기록 매체 재생 장치 및 방법
US8284844B2 (en) 2002-04-01 2012-10-09 Broadcom Corporation Video decoding system supporting multiple standards
KR100477643B1 (ko) * 2002-04-10 2005-03-23 삼성전자주식회사 응답 속도 개선 장치 및 방법
WO2004029935A1 (en) * 2002-09-24 2004-04-08 Rad Data Communications A system and method for low bit-rate compression of combined speech and music
CN101106729B (zh) 2002-10-02 2012-12-19 Lg电子株式会社 用于控制图形数据再现的数据结构的记录和再现方法及装置
CA2469173C (en) 2002-10-04 2009-02-03 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of graphic data and recording and reproducing methods and apparatuses
CN100562084C (zh) * 2003-02-21 2009-11-18 松下电器产业株式会社 同步地使用音频视频数据的设备和方法
US20040175094A1 (en) * 2003-03-05 2004-09-09 Pioneer Digital Technologies, Inc. A personal video recorder storing digital information in a doubly linked list
US7616865B2 (en) 2003-04-30 2009-11-10 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of subtitle data and methods and apparatuses of recording and reproducing
JP2005020330A (ja) * 2003-06-26 2005-01-20 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
KR20050005074A (ko) 2003-07-01 2005-01-13 엘지전자 주식회사 고밀도 광디스크의 그래픽 데이터 관리방법 및 그에 따른고밀도 광디스크
KR20050004339A (ko) 2003-07-02 2005-01-12 엘지전자 주식회사 고밀도 광디스크의 그래픽 데이터 관리방법 및 그에 따른고밀도 광디스크
CN1571026A (zh) * 2003-07-17 2005-01-26 皇家飞利浦电子股份有限公司 光盘刻录方法及装置
KR20050012328A (ko) 2003-07-25 2005-02-02 엘지전자 주식회사 고밀도 광디스크의 프레젠테이션 그래픽 데이터 관리 및재생방법과 그에 따른 고밀도 광디스크
EP1652184A4 (en) 2003-07-24 2007-05-23 Lg Electronics Inc RECORD MEDIA WITH A DATA STRUCTURE FOR MANAGING THE PLAYING OF TEXT SUBTITLE DATA RECORDED THEREFOR AND RECORDING AND PLAYBACK METHOD AND DEVICES
KR20050035678A (ko) 2003-10-14 2005-04-19 엘지전자 주식회사 광디스크 장치의 부가 데이터 재생방법 및 장치와, 이를위한 광디스크
KR20050036277A (ko) 2003-10-15 2005-04-20 엘지전자 주식회사 고밀도 광디스크의 네비게이션 정보 관리방법
KR20050064150A (ko) 2003-12-23 2005-06-29 엘지전자 주식회사 고밀도 광디스크의 메뉴 구성방법 및 실행방법과기록재생장치
EP1721319A2 (en) * 2004-01-06 2006-11-15 LG Electronics Inc. Recording medium and method and apparatus for reproducing and recording text subtitle streams
KR20050072255A (ko) 2004-01-06 2005-07-11 엘지전자 주식회사 고밀도 광디스크의 서브타이틀 구성방법 및 재생방법과기록재생장치
TWI271704B (en) * 2004-01-12 2007-01-21 Sunplus Technology Co Ltd A control method and device capable of playing digital multimedia content according to corresponding time of a caption
US7394974B2 (en) 2004-01-26 2008-07-01 Sony Corporation System and method for associating presented digital content within recorded digital stream and method for its playback from precise location
EP1716567A2 (en) 2004-02-10 2006-11-02 Lg Electronics Inc. Recording medium and method and apparatus for decoding text subtitle streams
WO2005076601A1 (en) 2004-02-10 2005-08-18 Lg Electronic Inc. Text subtitle decoder and method for decoding text subtitle streams
JP2007522596A (ja) 2004-02-10 2007-08-09 エルジー エレクトロニクス インコーポレーテッド 記録媒体及びテキスト・サブタイトル・ストリームのデコード方法と装置
KR100739680B1 (ko) * 2004-02-21 2007-07-13 삼성전자주식회사 스타일 정보를 포함하는 텍스트 기반 서브타이틀을 기록한저장 매체, 재생 장치 및 그 재생 방법
WO2005081643A2 (en) 2004-02-26 2005-09-09 Lg Electronics Inc. Recording medium and method and apparatus for reproducing and recording text subtitle streams
KR20070007824A (ko) 2004-03-17 2007-01-16 엘지전자 주식회사 기록매체 및 텍스트 서브타이틀 스트림 재생 방법과 장치
ATE453191T1 (de) 2004-03-18 2010-01-15 Lg Electronics Inc Aufzeichungsmedium und verfahren und vorrichtung zur wiedergabe eines auf dem aufzeichnungsmedium aufgezeichneten textuntertitelstroms
KR20060047266A (ko) 2004-04-26 2006-05-18 엘지전자 주식회사 기록매체, 기록매체의 재생방법과 재생장치
US7571386B2 (en) 2004-05-03 2009-08-04 Lg Electronics Inc. Recording medium having a data structure for managing reproduction of text subtitle data and methods and apparatuses associated therewith
TWI302802B (en) * 2004-05-10 2008-11-01 Via Tech Inc Multiplexer dvd player
CN1993762A (zh) * 2004-07-27 2007-07-04 皇家飞利浦电子股份有限公司 改善特技播放期间和之后的图形可访问性
US7912827B2 (en) * 2004-12-02 2011-03-22 At&T Intellectual Property Ii, L.P. System and method for searching text-based media content
US8156114B2 (en) 2005-08-26 2012-04-10 At&T Intellectual Property Ii, L.P. System and method for searching and analyzing media content
KR20070047665A (ko) 2005-11-02 2007-05-07 삼성전자주식회사 방송수신장치, 방송송신장치, 방송 시스템 및 그 제어방법
CN101317447B (zh) * 2005-12-02 2010-12-08 深圳Tcl新技术有限公司 字幕数据处理系统及方法
US20080186810A1 (en) * 2007-02-06 2008-08-07 Kumaran O R Senthil System and Method for Audiovisual Content Search
US8781996B2 (en) 2007-07-12 2014-07-15 At&T Intellectual Property Ii, L.P. Systems, methods and computer program products for searching within movies (SWiM)
KR20090032702A (ko) * 2007-09-28 2009-04-01 한국전자통신연구원 네트워크 기반의 맞춤형 콘텐츠 제공을 위한 사용자 장치및 그 방법과 저작 장치 및 그 방법
JP4946874B2 (ja) * 2008-01-09 2012-06-06 ソニー株式会社 再生装置および再生方法
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
US8515250B2 (en) * 2008-07-17 2013-08-20 Panasonic Corporation Video recording device, video reproduction device, and method thereof
KR101033879B1 (ko) * 2008-11-27 2011-05-11 현대자동차일본기술연구소 정유압식 자동변속기를 이용한 하이브리드 시스템
EP2264604A1 (en) * 2009-06-15 2010-12-22 Thomson Licensing Device for real-time streaming of two or more streams in parallel to a solid state memory device array
US20110265001A1 (en) * 2010-04-21 2011-10-27 Roniie Neil Patton Cameraless A/V documenting of user interactions with MFP device user interface
CN101895766B (zh) * 2010-08-13 2012-03-14 北京算通科技发展股份有限公司 一种mpeg-2/h.264标准下视频流插入台标字幕的压缩域局部处理算法
CN102780916B (zh) * 2012-04-12 2015-03-18 天脉聚源(北京)传媒科技有限公司 一种视频直播流汇聚分发方法
US10254118B2 (en) 2013-02-21 2019-04-09 Regents Of The University Of Minnesota Extrinsic parameter calibration of a vision-aided inertial navigation system
US9607401B2 (en) * 2013-05-08 2017-03-28 Regents Of The University Of Minnesota Constrained key frame localization and mapping for vision-aided inertial navigation
CN104424258B (zh) * 2013-08-28 2020-06-16 腾讯科技(深圳)有限公司 多维数据查询的方法、查询服务器、列存储服务器及系统
JP6301616B2 (ja) * 2013-09-06 2018-03-28 株式会社東芝 電子機器、電子機器の制御方法、及びシーン制御プログラム
JP6331670B2 (ja) * 2014-05-12 2018-05-30 ソニー株式会社 受信装置、および送信装置、並びにデータ処理方法
US10012504B2 (en) 2014-06-19 2018-07-03 Regents Of The University Of Minnesota Efficient vision-aided inertial navigation using a rolling-shutter camera with inaccurate timestamps
US9658070B2 (en) 2014-07-11 2017-05-23 Regents Of The University Of Minnesota Inverse sliding-window filters for vision-aided inertial navigation systems
US10203209B2 (en) 2016-05-25 2019-02-12 Regents Of The University Of Minnesota Resource-aware large-scale cooperative 3D mapping using multiple mobile devices
US11466990B2 (en) 2016-07-22 2022-10-11 Regents Of The University Of Minnesota Square-root multi-state constraint Kalman filter for vision-aided inertial navigation system
RU2693197C2 (ru) * 2017-05-04 2019-07-01 Федеральное государственное бюджетное образовательное учреждение высшего образования "Сибирский государственный университет телекоммуникаций и информатики" (СибГУТИ) Операторный универсальный интеллектуальный 3-D интерфейс
US10907971B2 (en) 2017-12-08 2021-02-02 Regents Of The University Of Minnesota Square root inverse Schmidt-Kalman filters for vision-aided inertial navigation and mapping
US11940277B2 (en) 2018-05-29 2024-03-26 Regents Of The University Of Minnesota Vision-aided inertial navigation system for ground vehicle localization
CN113954765A (zh) * 2021-10-28 2022-01-21 合众新能源汽车有限公司 车型配置字的控制方法和控制系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06164522A (ja) * 1992-09-22 1994-06-10 Sony Corp データ符号化装置および方法、データ復号化装置および方法並びに記録媒体
JPH07250279A (ja) * 1994-03-08 1995-09-26 Sony Corp 字幕データ復号化装置
JPH08203255A (ja) * 1995-01-24 1996-08-09 Toshiba Corp 情報提供制御装置及び情報提供制御方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3240017B2 (ja) * 1993-01-11 2001-12-17 ソニー株式会社 Mpeg信号記録方法およびmpeg信号再生方法
DE69426894T2 (de) * 1993-09-16 2001-07-26 Toshiba Kawasaki Kk Digitales Videosignal
US5596564A (en) * 1993-10-08 1997-01-21 Matsushita Electric Industrial Co., Ltd. Information recording medium and apparatus and method for recording and reproducing information
US5684542A (en) * 1993-12-21 1997-11-04 Sony Corporation Video subtitle processing system
DE4405020C1 (de) * 1994-02-17 1995-01-26 Inst Rundfunktechnik Gmbh Verfahren zum Empfangen von in einem Fernsehsignal übertragenen Daten
JPH08262965A (ja) * 1995-03-20 1996-10-11 Mitsubishi Electric Corp 語学学習用ポーズ機能付きクローズドキャプションデコーダ
US5703655A (en) * 1995-03-24 1997-12-30 U S West Technologies, Inc. Video programming retrieval using extracted closed caption data which has been partitioned and stored to facilitate a search and retrieval process
JP3326670B2 (ja) * 1995-08-02 2002-09-24 ソニー株式会社 データ符号化/復号化方法および装置、および符号化データ記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06164522A (ja) * 1992-09-22 1994-06-10 Sony Corp データ符号化装置および方法、データ復号化装置および方法並びに記録媒体
JPH07250279A (ja) * 1994-03-08 1995-09-26 Sony Corp 字幕データ復号化装置
JPH08203255A (ja) * 1995-01-24 1996-08-09 Toshiba Corp 情報提供制御装置及び情報提供制御方法

Also Published As

Publication number Publication date
CN1249714C (zh) 2006-04-05
JP3577794B2 (ja) 2004-10-13
KR970008056A (ko) 1997-02-24
CN1445774A (zh) 2003-10-01
EP0755161A3 (en) 1998-01-28
CA2181324C (en) 2005-06-28
JPH0935458A (ja) 1997-02-07
CA2181324A1 (en) 1997-01-19
TW300369B (ko) 1997-03-11
DE69615767T2 (de) 2002-07-11
AU700439B2 (en) 1999-01-07
MX9602842A (es) 1998-04-30
ES2165475T3 (es) 2002-03-16
MY116660A (en) 2004-03-31
EP0755161B1 (en) 2001-10-10
CN1151586A (zh) 1997-06-11
BR9603125B1 (pt) 2008-11-18
DE69615767D1 (de) 2001-11-15
US6104861A (en) 2000-08-15
ATE206861T1 (de) 2001-10-15
EP0755161A2 (en) 1997-01-22
AU6055996A (en) 1997-01-23
CN1122999C (zh) 2003-10-01
BR9603125A (pt) 1998-05-05

Similar Documents

Publication Publication Date Title
KR100473895B1 (ko) 인코딩장치및인코딩방법,컴퓨터판독가능메모리,디코딩장치및디코딩방법
US5848217A (en) Subtitle encoding/decoding method and apparatus
US5889564A (en) Subtitle colorwiping and positioning method and apparatus
EP1301043B1 (en) Subtitle encoding/decoding
US6115077A (en) Apparatus and method for encoding and decoding digital video data operable to remove noise from subtitle date included therewith
KR100390593B1 (ko) 서브타이틀데이터인코딩/디코딩방법및장치및그기록매체
MXPA96002842A (en) Method and multip data current search system
KR100666285B1 (ko) 데이터복호화장치및데이터복호화방법
JPH07250279A (ja) 字幕データ復号化装置
AU726256B2 (en) Subtitle positioning method and apparatus
JP4391187B2 (ja) データ復号方法および装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130208

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140214

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee