KR20020001828A - 전이 스트림 발생 및 처리를 위한 방법 - Google Patents
전이 스트림 발생 및 처리를 위한 방법 Download PDFInfo
- Publication number
- KR20020001828A KR20020001828A KR1020017013137A KR20017013137A KR20020001828A KR 20020001828 A KR20020001828 A KR 20020001828A KR 1020017013137 A KR1020017013137 A KR 1020017013137A KR 20017013137 A KR20017013137 A KR 20017013137A KR 20020001828 A KR20020001828 A KR 20020001828A
- Authority
- KR
- South Korea
- Prior art keywords
- stream
- frame
- transition
- video
- transport
- Prior art date
Links
- 230000007704 transition Effects 0.000 title claims abstract description 237
- 238000000034 method Methods 0.000 title claims abstract description 109
- 238000012545 processing Methods 0.000 title claims abstract description 59
- 238000005562 fading Methods 0.000 claims description 5
- 230000003139 buffering effect Effects 0.000 claims description 4
- 238000012546 transfer Methods 0.000 claims description 3
- 230000006978 adaptation Effects 0.000 claims description 2
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 claims 1
- 229910052709 silver Inorganic materials 0.000 claims 1
- 239000004332 silver Substances 0.000 claims 1
- 230000006870 function Effects 0.000 description 27
- 239000000686 essence Substances 0.000 description 21
- 230000000694 effects Effects 0.000 description 20
- 238000003860 storage Methods 0.000 description 18
- 230000005540 biological transmission Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 230000015654 memory Effects 0.000 description 7
- 230000021615 conjugation Effects 0.000 description 4
- 238000005304 joining Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000003780 insertion Methods 0.000 description 3
- 230000037431 insertion Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000010187 selection method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 102100037812 Medium-wave-sensitive opsin 1 Human genes 0.000 description 1
- 206010036618 Premenstrual syndrome Diseases 0.000 description 1
- 206010047571 Visual impairment Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000006735 deficit Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000003642 hunger Nutrition 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 208000029257 vision disease Diseases 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23406—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving management of server-side video buffer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
- H04N21/23424—Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/23608—Remultiplexing multiplex streams, e.g. involving modifying time stamps or remapping the packet identifiers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/236—Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
- H04N21/2365—Multiplexing of several video streams
- H04N21/23655—Statistical multiplexing, e.g. by controlling the encoder to alter its bitrate to optimize the bandwidth utilization
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44016—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8547—Content authoring involving timestamps for synchronizing content
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B2220/00—Record carriers by type
- G11B2220/40—Combinations of multiple record carriers
- G11B2220/41—Flat as opposed to hierarchical combination, e.g. library of tapes or discs, CD changer, or groups of record carriers that together store one title
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/70—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
전이 스트림을 발생시키고 화소 영역 처리, 오디오 영역 처리 또는 다른 데이타 영역 처리 각각을 사용하여 전이 스트림 내의 비디오, 오디오 또는 다른 데이타를 처리하는 방법이 제시된다.
Description
통신 시스템에 있어서, 전송될 데이타는 제공된 대역폭을 보다 효율적으로 이용하기 위해 압축된다. 예를 들어, 동화상 전문가 그룹(MPEG)은 디지탈 데이타 전송 시스템에 관한 몇 가지 표준들을 공표하였다. MPEG-1으로 알려진 첫번째는 ISO/IEC 표준 11172이고, 여기서 참조된다. MPEG-2로 알려진 두번째는 ISO/IEC 표준 13818이고, 여기서 참조된다. 압축된 디지탈 비디오 시스템은 차세대 텔레비젼 시스템 위원회(ATSC) 디지탈 텔레비젼 표준 문서 A/53에 기술되어 있고, 여기서 참조된다.
정보 스트림을 단층지지 않고 정확한 프레임 방식으로 연쇄시키거나 또는 접합시키는 것(예를 들면 비디오, 오디오 및 다른 관련 정보 서브 스트림을 포함하는 인코딩된 프로그램 스트림의 전송)이 중요하다. "정확한 프레임"이라 함은 접합이 인코딩된 프레임 타입과는 상관없이 사용자에 의해 선택된 프레임에서 정확하게 이루어지는 것을 의미한다. "단층지지 않는 접합"이라 함은 연속적이고, 유용한 MPEG 스트림을 발생시키는 접합을 의미한다. 따라서, 정확한 프레임 무단층 접합기는 제1 정보 스트림을 제2 정보 스트림으로 정확한 프레임 무단층 접합을 수행할 때 정확한 수의 프레임을 보존할 것이다(예를 들면, 900개의 비디오 프레임을 포함하는 인코딩된 프로그램의 전송은 정확하게 900개의 프레임들 "슬롯"으로 예정될 수 있다)
몇가지 알려진 방식은 다음 과정의 변형을 이용한다: "인 스트림" 및 "아웃 스트림"을 베이스밴드 또는 초등 레벨로 디코딩, 접합 연산 및 접합 연산된 스트림의 재-인코딩. 이러한 방식은 정확한 프레임 무단층 접합을 제공하지만 많은 비용을 필요로 한다.
전송 스트림 레벨에서 무단층 접합을 가능케 하는 개선된 방식에서, MPEG 및 예를 들어 비디오 정보를 포함하는 MPEG 과 유사한 정보 스트림들은 각 스트림에 대해 각각 적절한 스트림 입구점 및 출구점을 나타내는 "인-포인트" 및 "아웃-포인트"를 정의함으로서 비교적 무단층 방식으로 접합될 수 있다. 예를 들어, MPEG과 같은 비디오 스트림에서 비디오 시퀀스 헤더를 포함하는 패킷은 적절한 인-포인트를 포함한다. 이러한 인-포인트 및 아웃-포인트를 포함하는 MPEG과 같은 정보 스트림은 접합 가능한 것으로 언급된다. 동화상 및 텔레비젼 엔지니어 기구(SMPTE)는 "splice points for MPEG-2 transport streams"라는 제목 하에 이러한 접합점들을 정의하는 표준 SMPTE 312M을 제안하였고, 이는 본 명세서에서 참조된다.
불행히도, 이러한 인 포인트 및 아웃 포인트들의 배치는 이미지 프레임 인코딩 모드, 픽쳐 그룹(GOP) 구조 등과 같은 인자들에 의해 정의된다. 따라서, 정보 스트림들을 무단층 접합하려고 하는 마지막 사용자는 요구되는 접합 포인트들이 적절한 인 포인트 또는 아웃 포인트가 아닌 경우에는 "정확한 프레임" 방식으로 접합할 수 없게된다.
따라서, MPEG과 같은 전송 스트림을 무단층, 정확한 프레임 방식으로 접합하는 방법 및 장치를 제공하는 것이 바람직하다. 게다가, 이러한 무단층 정확한 프레임 접합을 텔레비젼 스튜디오 또는 다른 비디오 제공 환경과 같은 특정 환경에 적용하는 방법 및 장치를 제공하는 것이 바람직하다.
본 발명은 통신 시스템에 관한 것으로서, 특히 단층지지 않는(seamless) 방식으로 정보 스트림을 접합(splicing)시키거나 연쇄(concatenating)시키는 방법에 관한 것이다.
도1은 텔레비젼 스튜디오의 상위 레벨 블록 다이아그램이다.
도2A 및 2B는 본 발명을 이해를 돕기 위한 접합 연산의 도식적 표현이다.
도3은 도1의 텔레비젼 스튜디오에서 사용하기에 적합한 에어 서버에 대한 동작 실시예를 보여주는 도이다.
도4A,4B 및 4C는 본 발명의 이해를 돕기 위한 접합 연산의 도식적 표현이다.
도5 및 6은 본 발명의 이해를 돕기 위한 이미지 프레임 디스플레이 순서 및 이미지 프레임 전송 순서를 보여주는 도이다.
도7은 전이 스트림 또는 전이 클립을 발생시키는 방법에 대한 흐름도이다.
도8은 프롬 스트림(from stream)내에 어떤 정보 프레임이 상기 전이 스트림 내에 포함되어야만 하는지를 결정하는 방법에 대한 흐름도이다.
도9는 투 스트림(to stream)내에 어떤 정보 프레임이 상기 전이 스트림 내에 포함되어야만 하는지를 결정하는 방법에 대한 흐름도이다.
도10은 정보 스트림을 인덱싱하는 방법에 관한 흐름도이다..
도11은 도3의 에어 서버에 대한 동작에서 사용하기에 적합한 메타 파일을 제시하는 도이다.
도12는 본 발명의 실시예에 따라 전이 스트림 또는 전이 클립을 발생시키는 방법에 대한 흐름도이다.
본 발명은 전이 스트림을 발생시키고 화소 영역 처리, 오디오 영역 처리 또는 다른 데이타 영역 처리를 각각 사용하여 전이 스트림 내의 비디오, 오디오 또는 다른 데이타를 처리하는 방법을 제공한다. 본 발명의 대안적 실시예는 전이 스트림을 형성하는 이미지 프레임과 관련된 비(non)-비디오 데이타가 상기 전이 스트림 내에 포함되는 것을 보장한다. 다중 및 단일 프로그램 전송 스트림 접합 연산들이 본 발명에 의해 제공된다.
특히, 이미지 프레임을 포함하는 전송 스트림을 처리하는 시스템에 있어서 제1 전송 스트림에서 제2 전송 스트림으로 무단층 방식으로 전이하는 전이 스트림을 발생시키는 본 발명에 따른 방법은 다음 단계를 포함한다: 제시되는 제1 전송 스트림의 최종 이미지 프레임을 나타내는 타겟 아웃 프레임을 적어도 포함하는 제1 전송 스트림의 일부를 디코딩하는 단계; 제시되는 제2 전송 스트림의 제1 이미지프레임을 나타내는 타겟 인 프레임을 적어도 포함하는 제2 전송 스트림의 일부를 디코딩하는 단계; 화소 영역 처리를 사용하여 적어도 상기 디코딩된 이미지 프레임들 중 하나를 처리하는 단계; 및 상기 타겟 아웃 프레임 및 타겟 인 프레임을 포함하여 디코딩된 이미지 프레임들을 인코딩하여 전이 스트림을 발생시키는 단계.
본 발명은 하기 도면 및 실시예를 참조하여 상세히 기술될 것이다.
하기의 내용을 고려한 후에, 당업자는 본 발명의 내용이 예를 들어 비디오 서브 스트림들을 포함하는 MPEG과 같은 전송 스트림의 무단층 정확한 프레임 접합 수행이 필요한 모든 정보 처리 시스템에서 이용될 수 있음을 잘 이해할 것이다.
본 발명의 실시예는 에어 제어기에 대한 동작을 통해 저장된 비디오 스트림들(예를 들어, 비디오 세그먼트 또는 클립)이 서버로부터 탐색되고 무단층 정확한 프레임 방식으로 접합되어 예를 들어 원단(far end) 디코더로의 전송에 적합한 MPEG-2 비디오 스트림을 발생시키는 텔레비젼 스튜디오 환경과 관련되어 기술되지만, 이에 한정되지는 않는다. 예를 들어, 본 발명은 케이블 헤드엔드용 서버-기반 자산 스트림, 지역 상업 방송 삽입 및 디지탈 시네마용 트레일러, MPEG-2 전송 스트림의 정확한 프레임 인터넷-기반 스트림 및 제한된 생산 시설들(즉, 뉴스 및 다른 응용예들에 대한 세그먼트 합성을 수행하는 생산 시설들)에 응용될 수 있다.
본 명세서에서 본 발명을 기술하기 위해 다양한 용어들이 사용된다. 하기 서술에 의해 변형되지 않는다면, 몇가지 용어들은 다음과 같이 정의된다; 접합 스트림은 출구 스트림(또는 프롬 스트림)을 입구 스트림(또는 투 스트림)과 특정 접합점에서 연쇄시킴으로써 형성된 스트림을 포함한다. 출구 프레임은 출구 스트림의 최종 프레임이고, 입구 프레임은 입구 스트림의 제1 프레임이다.
도1은 텔레비젼 스튜디오의 상위 레벨 블록 다이아그램이다. 특히, 도1의 스튜디오는 에어 서버 플레이(Play to Air Server)(110), 매스(mass) 저장 장치(115), 에어 제어기 플레이(Play to Air Controller)(120), 라우터(Router)(130) 및 네트워크 인터페이스 장치(NID)(140)를 포함한다.
매스 저장 장치(115)는 예를 들면 인코딩된 비디오 서브 스트림 및 프로그램을 제공하는 관련 오디오 스트림들을 포함하는 복수의 MPEG-2 전송 스트림을 저장하기 위해 사용된다. 매스 저장 장치(115)는 비디오 데이타, 오디오 데이타, 프로그램 정보 및 다른 데이타를 포함하는 패킷 또는 비-패킷 기본 스트림과 같은 다른 타입의 정보 스트림을 저장하는데 사용될 수도 있다.
에어 서버 플레이(110)는 신호 경로(S1)를 통해 상기 매스 저장 장치(115)로부터 정보 스트림을 복원한다. 복원된 정보 스트림은 에러 제어기 플레이(120)(예를 들면 플레이 리스트)에 의해 발생된 제어 신호에 따라 처리되어 복수의 연쇄 전송 스트림을 포함하는 출력 전송 스트림을 발생시킨다. 에어 서버 플레이(110)는 출력 전송 스트림을 제공하고 신호 경로(S2)를 통해 라우터(130)와 결합된다.
에러 제어기 플레이(120)는 제어 정보를 에러 서버 플레이(110) 및 다른 스튜디오 장치(제시되지 않음)에 라우터(130)와 결합된 신호 경로(S3)를 통해 제공한다. 라우터(130)는 텔레비젼 스튜디오(100)의 다양한 기능 요소들 사이에서 모든 제어 및 프로그램 정보를 라우팅하는데 사용된다. 예를 들어, 제어 정보가 신호 경로(S3)를 통해 에러 제어기 플레이(120)로 부터 라우터 전송되면, 라우터는 상기 제어 정보를 신호 경로(S2)를 통해 에러 서버 플레이(110)로 전달한다. 선택적으로, 에러 제어기 플레이(120) 및 에어 서버 플레이(110) 사이의 직접 제어 접속(CONTROL)이 제어 정보를 전송하는데 사용될 수도 있다.
라우터(130)는 신호 경로(S2)를 통해 에러 서버 플레이(110)로 부터 출력 전송 스트림을 수신하여 이러한 출력 전송 스트림을 신호 경로(S5)를 통해 다른 스튜디오 성분들(예를 들면, 편집기, 오프-라인 저장 요소등)에 전송하거나 신호 경로(S4)를 통해 네트워크 인터페이스 장치(140)에 전송한다.
네트워크 인터페이스 장치(NID)(140)는 출력 전송 스트림, 제어 정보 또는 다른 정보를 도1의 텔레비젼 스튜디오와 다른 스튜디오들(제시되지 않음) 사이에서 통신하도록 하기 위해 사용된다. 선택적으로, 상기 NID는 다른 스튜디오, 원격 카메라 직원들, 방송자 등으로 부터 정보 스트림을 수신한다. 이러한 스트림들은 출력 스트림이 즉각 발생되도록 하는 처리(예를 들면, 뉴스 이벤트의 "라이브"), 지연된 처리, 또는 매스 저장 장치(처리되어 또는 처리 없이)에의 저장을 위해 에어 서버 플레이(110)에 연결된다.
상기 에어 서버 플레이(110) 및 매스 저장 장치(115)는 마운틴 뷰, 캘리포니아의 SGI에서 제조된 오리진 2000 "Play To Air/Production Server"와 같은 압축 비트 스트림 비디오 서버를 사용하여 구현된다.
상기 에어 제어기 플레이(120)는 에러 서버 플레이(110)의 출력 전송 스트림으로의 뒤이은 통합을 위해 예정된 정보 스트림 또는 클립에 상응하는 플레이 리스트(125)를 포함한다. 플레이 리스트(125)는 매스 저장 장치(115)로부터 복원되고 에어 서버 플레이에 의해 출력 전송 스트림으로 연쇄 또는 접합되는 각 정보 스트림 또는 클립의 정확한 프레임 입구 및 출구 위치를 포함한다. 플레이 리스트(125)는 각 정보 스트림 또는 클립의 시작 및 최종 프레임을 식별할 수 있다.
에어 서버 플레이(110)는 적어도 플레이 리스트(125) 일부를 제공하는 에러 제어기 플레이로부터의 제어 신호에 응답하여 매스 저장 장치로부터 적합한 스트림 또는 클립을 복원하고 제어 신호 내의 프레임 입구 및 출구 정보에 따라 무단층, 정확한 프레임 방식으로 클립들을 접합하여 출력 전송 스트림을 발생시킨다. 이러한 출력 전송 스트림은 어떠한 신택스 에러 또는 네트워크 인터페이스 장치(140)에 의해 제공된 원격 피드를 포함한 다른 스튜디오 요소들과의 불연속성을 가지지 않는다. 에러 서버 플레이에 의해 수행되는 이러한 접합 및 연쇄 동작은 도2A 및 도2B를 참조하여 아래에서 상세히 설명된다.
도2A 및 도2B는 본 발명의 이해를 돕는데 유용한 접합 동작을 보여주는 도이다. 특히, 도2A는 전이 클립(230)을 이용하여 제2 MPEG-2 전송 스트림 클립들 마다 2개의 30 프레임들(210,220)의 무단층, 정확한 프레임 동작을 보여주는 도로서 이를 통해 제2 MPEG-2 전송 스트림 클립 마다 접합된 30 프레임들(240)을 발생시킨다. 접합된 스트림(240)은 제1(210), 전이(230) 및 제2(220) 스트림 부분들의 연쇄를 포함한다. 이러한 접합 스트림(240)은 제1 스트림(210)의 아웃-포인트(210-OUT) 및 제2 스트림(220)의 인-포인트(220-IN)에서 제1 및 제2 스트림들 사이의 "날카로운" 또는 프레임 정확한 접합을 갖는다.
도2B는 도2A에서 기술된 스트림 및 클립과 관련된 다양한 SMPTE 타임코드들을 보여준다. 제1 스트림 또는 클립(스트림 A)은 예시적으로 각 SMPTE 타임 코드가 00:00:00:00 이고 시간 t0에서 시작하는 제1 프레임 210-ST; 예시적으로 각 SMPTE 타임 코드가 00:00:02:13 이고 시간 t1에서 시작하는 전이 아웃 프레임(210-TRANS), 시간 t2에서 종료하는 아웃 프레임(210-OUT); 및 시간 t2보다 큰 시간에서 시작하는 최종 프레임(210-END)을 포함하는 복수의 프레임들로 구성된다.
아웃-프레임(210-OUT)은 디스플레이 되는 제1 스트림의 최종 프레임(즉, 요구되는 접합 포인트에 바로 선행하는 프레임)을 포함한다. 아웃-프레임(210-OUT)은 전이 스트림(230) 내에 포함된다. 전이 아웃 프레임(210-TRANS)은 전송되는 제1 스트림(210)의 최종 프레임을 포함한다. 즉, 전이 스트림(230)은 전이 아웃 프레임(210-TRANS) 바로 이후의 제1 스트림(210)과 연쇄된다.
제2 스트림 또는 클립(220)(스트림 B)은 각 SMPTE 타임 코드 00:00:00:00 에서 시작하는 제1 프레임(220-ST); 예시적으로 각 SMPTE 타임 코드가 00:00:00:23인 시간 t2에서 시작하는 인-프레임(220-IN); 시간 t3에서 시작하는 전이 인 프레임(220-TRANS) 및 예시적으로 각 SMPTE 타임 코드가 00:00:04:17인 시간 t4에서 종료하는 최종 프레임(220-END)을 포함하는 복수의 프레임들로 구성된다.
인-프레임(220-IN)은 디스플레이 되는 제2 스트림(220)의 제1 프레임(즉 요구되는 접합 포인트 바로 다음 프레임)을 포함한다. 인-프레임(220-IN)은 전이 스트림(230) 내에 포함된다. 전이 인 프레임(220-TRANS)은 전송될 제2 스트림(220)의 제1 프레임을 포함한다. 즉, 전이 인 프레임(220-TRANS)은 전이 스트림(230)과 연쇄되는 제2 스트림(220)의 제1 프레임이 된다.
전이 스트림 또는 클립(230)(스트림 T)은 비디오 스트림의 무단층, 정확한 프레임 접합을 제공하기에 잘 적응된 데이타 구조이다. 전이 스트림 또는 클립(230)(스트림 T)은 시간 t1에서 시작하는 제1 프레임(230-ST); 및 시간 t3에서 종료하는 최종 프레임(230-END)을 포함하는 복수의 프레임들로 구성된다. 전이 클립은 각각 인 및 아웃 프레임들을 포함하여 제1 스트림(210) 및 제2 스트림(220)으로 부터의 프레임들을 포함한다. 전이 클립의 시작 및 끝은 도2에서 각각 t1 및 t3로서 제시된다. 이러한 시간들 및 전이 스트림의 제1 및 최종 프레임들은 하기 도8 및 9에서 제시된 방법에 따라 결정된다.
접합 스트림(240)은 예시적으로 각 SMPTE 타임 코드가 00:00:00:00 인 시간 t0에서 시작하는 제1 프레임(240-ST); 및 예시적으로 각 SMPTE 타임 코드가 00:00:04:17 인 시간 t4에서 종료하는 최종 프레임(240-END)을 포함하는 복수의 프레임들로 구성된다. 접합 스트림(240)은 제1 클립(210)(t0-t2)으로 부터 73개의 프레임을 포함하고 제2 클립(220)(t2-t4)으로 부터 115개의 프레임들을 포함한다.
도2A에 제시된 접합 스트림(240)은 전이 스트림(230)을 사용하여 예리한 접합을 달성하는 방식으로 연쇄된 제1(210) 및 제2(220) 스트림들을 포함하고, 여기서 제1 스트림(210)은 아웃 프레임(210-OUT)에서 나가고 제2 스트림(220)은 인 프레임(220-IN)에서 들어간다. 본 발명을 이용함으로써, 이러한 접합 동작은 아웃(출구) 및 인(입구) 프레임들의 타입과 무관하게 정확한 프레임 방식으로 발생한다.
이상적인 접합 조건들(SMPTE 312M 접합 표준에서 제시됨) 하에서는 전이 클립이 요구되지 않음을 이해하여야 한다. 그러나, 대부분의 조건들 하에서, 전이클립은 이상적인 조건들 하에서 발생되는 "빈 프레임" 전이 클립보다는 다중 프레임들을 포함한다.
도3은 도1의 텔레비젼 스튜디오에서 사용하기에 적합한 에어 서버 플레이의 실시예를 보여준다. 특히, 도3의 예시적 에러 서버 플레이(110)는 입력/출력(I/O) 회로(310), 지지 회로(330), 프로세서(320), 메모리(340) 및 선택적 시간 기반 보정기(350)를 포함한다. 프로세서(320)는 에러 서버 플레이(110) 내의 다양한 소프트웨어 루틴 실행을 보조하는 회로들뿐만 아니라 전력 공급기, 클록 회로, 캐쉬 메모리들과 같은 기존의 지지 회로와 협력한다. 에어 서버 플레이(110)는 또한 에어 서버 플레이(110)와 매스 저장 장치(115) 및 라우터(130) 사이의 인터페이스를 형성하는 입력/출력 회로(310)를 포함한다.
메모리(340)는 본 발명을 구현하는데 적합한 프로그램들 및 다른 정보를 포함한다. 특히, 메모리(340)는 프로세서(320)에 의해 실행될 때 인덱스 발생 함수(342), 전이 클립 발생 함수(344) 및 선택적으로 전이 클립 시간 리스탬핑(restamping) 함수(345)를 수행하는 프로그램들을 저장하는데 사용된다. 선택적으로, 메모리(340)는 인덱스 라이브러리(346) 및 스트림 라이브러리(348) 중 하나 또는 모두를 포함한다.
도2에서 제시된 접합 동작을 제공하기 위해, 본 발명은 전이 클립 발생 함수(344)를 이용한다. 전이 클립 발생 함수(344)는 전이 클립을 발생시켜 제1 전송 패킷 경계(예를 들어, 전이 스트림 발생기에 의해 결정됨)에서 제1 스트림(210)를 아웃 시키고, 발생된 전이 클립(230)을 운영시켜 제2 전송 패킷 경계에서 제2스트림(220)을 입력시키는 것을 가능케한다. 제1(210) 및 제2(220) 스트림에 대한 실제적인 출력(210-TRANS) 및 입력(220-TRANS) 포인트들은 일반적으로 요구된 실제 프레임들과 일치하지 않는다. 전이 클립은 제1 스트림의 요구되는 접합 출구 포인트(210-OUT) 바로 전의 수개의 프레임들 및 제2 스트림의 요구되는 접합 입구 포인트(220-IN) 바로 이 후의 수개 프레임들을 사용하여 이루어 진다.
본 발명은 바람직하게는 인터-스트림 전이의 콸러티를 최적화하는 방식으로 전이 스트림에 포함될 프레임들을 선택한다. 즉, 접합 동작은 무단층, 정확한 프레임 방식으로 수행되지만, 접합 동작이 접합 포인트 주변의 비디오 정보의 질적 저하를 초래하는 것이 가능하다. 이는 예를 들면 미스 매치된 비디오 버퍼링 검정기(VBV) 레벨들로부터 기인한 "비트 스타빙(starving)" 또는 다른 코딩 변형들로 부터 발생된다. 본 발명은 이러한 VBV 레벨들을 조정하여 이러한 변형들을 최소화시킨다.
인덱스 발생 함수(342)가 이제 설명된다. 2가지 타입의 정보가 전이 클립, 프레임 데이타 및 MPEG 데이타를 구축하는데 사용된다. 프레임 데이타는 위치, 코딩 타입 및 프롬-스트림과 투-스트림의 특정 프레임 프리젠테이션 순서와 같은 정보를 포함한다. 프레임 데이타는 프롬 스트림 및 투 스트림 내의 어떤 프레임이 전이 클립을 발생시키기 위해 리코딩 되는지를 결정하기 위해 사용된다. MPEG 데이타는 프레임 디멘죤, 비트 레이트, 프레임 대 필드 포맷, 비디오 버퍼링 검정기(VBV) 지연, 색(chrominance) 샘플링 포맷 등과 같은 정보를 포함한다. MPEG 데이타는 전송 스트림의 MPEG 인코딩 특성을 규정하는데 사용된다. 전이 클립은 바람직하게는 입력 TS와 같은 동일한 MPEG 파라미터들을 사용하여 인코딩 또는 리코딩된다.
전이 클립 발생 함수(344)에 의한 전이 클립 발생을 보조하기 위해, 본 발명은 인덱스 발생 함수(342)를 이용한다. 특히, 인덱스 발생 함수(342)는 전송 스트림 내의 각 프레임과 관련된 수개의 파라미터들을 결정하기 위해 접합될 각 전송 스트림을 처리하는데 사용된다. 결정된 파라미터들은 메타 파일에 저장되어 인덱스 발생 함수(342)에 의해 처리된 각 전송 스트림은 그와 연관된 메타 파일을 가진다. 인덱스 발생 함수(342)에 의해 처리된 전송 스트림은 매스 저장 장치(115) 또는 스트림 라이브러리(348)에 저장된다. 유사하게, 전송 스트림과 연관된 메타 파일은 매스 저장 장치(115) 또는 인덱스 라이브러리(346)에 저장된다.
실시예에서, 인덱스 발생 함수(342)는 전송 인코딩 비디오 스트림의 각 비디오 프레임에 대해 다음을 결정한다;
1) 현재 픽쳐 번호(디스플레이 순서로);
2) 픽쳐 코딩 타입(I,P,B 프레임);
3) 프레임의 출발을 포함하는 전송 패킷의 번호;
4) 프레임의 종료를 포함하는 전송 패킷의 번호;
5) 프레임의 프리젠테이션 타임 스탬프(PTS);
6) 프레임의 디코딩 타임 스탬프(DTS);
7) 프레임에 선행하는 시퀀스 헤더의 출발을 포함하는 전송 패킷의 번호;
8) 프레임에 선행하는 픽쳐 헤더의 출발을 포함하는 전송 패킷의 번호; 및
9) SMPTE 312M 신택스에 따라 프레임 마킹에 의해 제공되는 것과 같은 적합한 인 프레임 또는 아웃 프레임을 포함하는 프레임의 표시(indicia).
상기 프레임 데이타뿐만 아니라, 인덱스 발생 함수(342)는 선택적으로 시퀀스 헤더, 픽쳐 헤더 등과 같은 일반적 MPEG-2 구조에 대한 모든 필드들을 저장한다.
따라서, 스트림 라이브러리(348)(또는 매스 저장 장치(115))는 인덱스 발생 함수(342)에 따라 처리되는 전송 스트림을 포함한다. 인덱스 발생 함수(342)의 실시예는 도10 을 참조하여 기술될 것이다.
전송 스트림 분석은 시간을 필요로 하기 때문에, 본 발명의 실시예는 사전-인덱싱을 이용한다. 즉, 매스 저장 장치(115) 또는 스트림 라이브러리(348)에 저장된 전송 스트림은 저장시 또는 가능한 한 저장 바로 후에 인덱스 발생 함수(342)에 의해 처리된다. 프레임 및 스트림의 MPEG 파라미터들을 결정하기 위해 접합시에 전송 스트림을 분석할 필요가 없기 때문에 이러한 방식으로 전이 클립을 발생시키는데 요구되는 시간은 크게 감소된다. 게다가, 에러 서버 플레이(110)는 선택적으로 매스 저장 장치(115) 또는 인덱스 라이브러리(346)에 저장된 메타 파일들을 이용하여 신속하게 계획 및 프레임 레이트와 같은 다른 기능들을 위해 필요한 전송 스트림의 특성을 복원한다.
도10은 정보 스트림을 인덱싱하는 방법에 관한 플로우 다이아그램이다. 도10은 도3의 에어 서버 플레이(110)의 인덱스 발생 함수에서 사용하기 적합한 방법에 대한 플로우 다아아그램이다. 도10의 방법(1000)은 도7의 방법(700)의 구현단계(705)에서 사용하기에 적합하다.
상기 방법(1000)은 인덱싱될 정보 데이타가 수신될 때 단계(1005)에서 시작된다. 그리고 상기 방법(1000)은 단계(1010)로 진행한다.
단계(1010)에서, 인덱싱될 정보 스트림의 전송 계층은 분석된다. 즉, 분석될 정보 스트림내의 각 전송 패킷의 헤더 부분은 조사되어 전송 패킷 번호(tr), 전송 패킷 내의 시퀀스 헤더의 존재 유무, 전송 패킷 내의 픽쳐 헤더의 존재 유무, 인 프레임 또는 아웃 프레임 접속에 대한 SMPTE 312M 접합 신택스 표시 유무 및 다른 정보를 확인한다. 그리고 나서 상기 방법은 단계(1015)로 진행한다.
단계(1015)에서 제1 또는 현재 프레임이 조사된다. 즉, 인덱싱될 정보 스트림은 패킷화된 기본 스트림(PES) 계층으로 분석되어 인덱싱될 정보 스트림 내에 포함된 비디오 기본 스트림의 제1 비디오 프레임을 조사한다. 그리고 나서 상기 방법(1000)은 단계(1020)으로 진행한다.
단계(1020)에서 단계(1015)에서 조사된 프레임과 관련된 다양한 파라미터들이 결정된다. 특히, 도 1020-D를 참조하여, 단계(1020)는 현재 픽쳐 번호(디스플레이 순서로), 픽쳐 코딩 타입(I,P,B 프레임), 프레임의 시작을 포함하는 전송 패킷 번호, 프레임의 종료를 포함하는 전송 패킷 번호 및 프레임의 프리젠테이션 타임 스탬프(PTS)와 디코딩 타임 스탬프(DTS)를 결정한다. 단계(1010)에 관련하여 이전에 언급되었듯이, 프레임에 선행하는 시퀀스 헤더의 시작을 포함하는 전송 패킷이 기록되고, 프레임에 선행하는 픽쳐 헤더의 시작을 포함하는 전송 패킷의 번호가 기록되며 SMPTE 312M 접합 신택스에 따른 프레임 마킹들에 의해 제공된 것과 같이 적합한 인 프레임 또는 아웃 프레임을 포함하는 프레임 표시가 기록된다. 게다가, 단계(1020)에서 "CBd 및 Bd"가 역시 결정된다. 상기 방법(1000)은 그리고 나서 단계(1025)로 진행한다.
Bd 양(quantity)은 스트림에 마킹된 버퍼 지연이다. 이는 픽쳐의 제1 비트가 VBV 버퍼에 존속하는 시간 양이다. CBd 양은 계산된 버퍼 지연이다. 인덱서는 MPEG-2 엑넥스(Annex) C에 지시된대로 이 값을 계산한다. 버퍼 지연 Bd 및 계산된 버퍼 CBd는 일치되어야 하지만, 입력 스트림이 부적당하게 마킹된 경우에는 이 2 양이 다를 수 있다. 버퍼 지연 값은 본 발명에 의해 사용되어 210trans 및 220trans 사이에서 VBV 레벨들을 조정하는 방법을 결정한다. VBV 레벨 조정은 전이 클립에서 이루어진다.
단계(1025)에서, 인덱스 정보에 관한 정보는 예를 들어 매스 저장 장치(115) 또는 인덱스 라이브러리(346)에 저장된다. 그리고 상기 방법(1000)은 단계(1030)으로 진행한다.
단계(1030)에서, 추후 프레임들이 처리될 것인지에 대한 질의가 이루어진다. 추후 프레임이 처리되지 않을 것이면, 상기 방법은 단계(1040)으로 진행하여 출구되고, 추후 프레임이 처리될 것이면 단계(1035)로 진행하여 다음 프레임이 대기되고 단계(1015)에서 다음 대기 프레임이 조사된다.
도11은 도3의 인덱스 라이브러리(346)에서 사용하기에 적합한 메타 파일의 테이블 표현이다. 특히 도11의 테이블(1100)은 복수의 리코드들(1-54)을 포함하고, 각 리코드는 각각 시작 전송 패킷 필드(1110), 패킷화된 기본 스트림 식별 필드(1120), 프레임 및 프레임 타입 식별 필드(1130), PTS 필드(1140), DTS 필드(1150), Bd 필드(1160), CBd 필드(1170) 및 마킹된 접속 포인트 필드(1180)를 포함한다.
본 발명의 일 실시예에서, 인덱스 발생 함수(342)는 전송 스트림의 수신 및/또는 접속에 앞서 사용되지 않는다. 이러한 실시예에서, 프레임 선택은 적어도 접속될 각 전송 스트림 일부의 단일 패스 처리를 사용하여 수행되어 프롬(from) 스트림 및 투(to) 스트림과 관련된 수개의 파라미터들을 결정한다.
프롬-스트림 및 투-스트림 모두에 대해, 다음 파라미터들이 결정된다; 디코딩을 시작하는 시퀀스_헤더의 전송 패킷 오프셋 및 픽쳐_헤더, 디코딩되는 프레임들의 수, 및 버려질 디코딩된 프레임들의 수(예를 들면, 전이 프레임에 포함되는 프레임을 디코딩하기 위해 필요한 앵커(anchor) 프레임).
프롬-스트림에 있어서, 다음 파라미터들이 결정된다: 프롬-스트림으로부터 플레이하기 위한 최종 전송 패킷(즉, 새로운 출구 포인트 또는 출구 프레임); 및 전이 클립에서 디스플레이 하기 위한 제1 프레임의 PTS.
투-스트림에 있어서, 다음 파라미터들이 결정된다: 전이 클립에 카피하기 위한 I-프레임에 대한 시작 및 종료 전송 패킷; 전이 클립에 카피하기 위한 잔존 GOP에 대한 시작 및 종료 전송 패킷; 투-스트림으로 부터 플레이하기 위한 제1 전송 패킷(즉, 새로운 입구 포인트 및 입구 프레임); 및 카피되는 프레임들의 수.
게다가, 인덱싱 라이브러리는 전송 스트림을 분석할 때 MPEG 필드들을 검색하기 때문에, 모든 요구되는 리코딩 파라미터들은 프레임 선택기간 동안 저장된다.
전이 클립 발생 함수(344)가 이제 상세히 설명된다. 전이 클립의 구축 과정은 1) 어떤 프레임을 전이 클립에 포함할 것인지를 결정하는 단계; 2) 전이 클립에 포함되는 프레임을 디코딩하는 단계; 3) 전이 클립을 형성하는 프레임들을 인코딩 또는 리코딩하는 단계 및 4) 전이 클립을 전송 인코딩(즉 패킷화)하는 단계를 포함한다.
프레임 선택은 출력 전이 클립의 크기, 전이 클립을 발생시키는데 요구되는 시간의 양 및 리코딩된 비디오의 콸러티를 최적화기 위한 인코더에 대한 위치들 제약에 영향을 미친다. 여기서 제시된 프레임 선택 방법은 프레임 카운트를 감소시키면서 콸러티의 중대한 손실없이 비디오를 리코딩하기에 충분한 전이 시간을 제공하여 프레임 의존성 문제를 해결한다.
상기 인코딩 및 리코딩 단계는 일반적으로 전이 클립 발생 함수(344)에서 가장 시간이 많이 소모되는 단계이므로 리코딩될 프레임 수를 감소시키면 시간을 절약할 수 있다. 그러나, 전이 클립을 구축하는 제1의 이유중의 하나는 접합되는 2개의 전송 스트림들 사이의 VBV 레벨 차이를 감소시키는 것이다. 프레임 카운트의 감소는 VBV 레벨을 조정하면서 인코더가 비디오 콸러티를 유지하는 것을 보다 어렵게 한다(특히 감소시에, 왜냐하면 프레임들은 더 적은 비트들로 인코딩되어야 하기 때문). VBV 레벨을 감소시키기 위해, 취해지는 것 보다 더 적은 비트들이 버퍼 내에 위치되어야 한다. 이는 인코더가 픽쳐당 평균적으로 더 적은 비트들을 사용할 것을 요구한다.
도5는 본 발명의 이해를 돕는 이미지 프레임 디스플레이 순서 및 이미지 프레임 전송 순서에 대한 테이블 표현이다. 특히, 도5는 예시적으로 비디오 시퀀스의 일부를 형성하는 24개의 인코딩된 이미지 프레임들의 디스플레이 순서를 나타내는 제1 테이블 표현(510) 및 비디오 시퀀스를 형성하는 24개의 이미지 프레임들의 전송 순서를 나타내는 제2 테이블 표현(520)을 보여준다. 이러한 논의를 위해, 도5에 제시된 비디오 시퀀스는 위에서 도2의 제1 스트림(210)에 대해 논의된 것과 같은 프롬-스트림 시퀀스의 일부(즉, 접속 시퀀스의 제1 디스플레이 시퀀스)를 포함한다.
특히, 제1 테이블 표현(510) 마다, 이미지 프레임들은 다음과 같은 구조로(프레임 1에서 프레임 24) 픽쳐 그룹(GOP) 구조에 따라 디스플레이 및 인코딩된다:
I-B-B-P-B-B-P-B-B-I-B-B-P-B-B-P-B-B-I-B-B-P-B-B.
게다가, 제2 테이블 표현(520) 마다, 다음과 같은 프레임 순서로 이미지 프레임들이 전송된다:
1-4-2-3-7-5-6-10-8-9-13-11-12-16-14-15-19-17-18-22-20-21-25-23.
다음 논의를 위해 도5에서 제시된 비디오 시퀀스를 B 프레임으로 구성되는 프레임 15에서 출구되는 것이 요구된다고 가정한다. 즉, 프레임 15는 도5에 제시된 출구 스트림의 아웃-프레임으로 구성된다. 아래에서 제시되듯이, 프레임 10에서 15는 디스플레이 순서대로 디코딩될 것이다. 프레임 16은 전송 순서에서 프레임 15에 앞서는 프레임이라는 것을 주목하여야 한다. 따라서, B-프레임들인 14 및 15 프레임을 디코딩하기에 앞서 프레임 16을 디코딩하는 것이 필요하다. 전이 클립에 앞서는 프롬-클립의 최종 프레임은 프레임 13 이 된다. 즉, 프롬-클립은 프레임 16에 바로 앞서 출구된다.
도6은 본 발명을 이해하는데 유용한 이미지 프레임 디스플레이 및 이미지 프레임 전송 순서에 대한 테이블 표현이다. 특히, 도6은 예시적으로 비디오 시퀀스 일부를 형성하는 26개의 인코딩된 이미지 프레임의 디스플레이 순서를 보여주는 제1 테이블 표현(610) 및 비디오 시퀀스를 형성하는 26개의 이미지 프레임들의 전송 순서를 보여주는 제2 테이블 표현(620)을 보여준다. 이러한 논의를 위해, 도6의 비디오 시퀀스는 도2의 제2 스트림(220)과 관련하여 기술된 투-스트림 비디오 시퀀스(즉, 접속 시퀀스에서 제2 디스플레이 시퀀스)의 일부를 포함한다.
특히, 제1 테이블 표현(610) 마다, 이미지 프레임들은 다음과 같은(프레임 1에서 26) 픽쳐 그룹(GOP) 구조에 따라 디스플레이 및 인코딩된다:
I-B-B-P-B-B-P-B-B-I-B-B-P-B-B-P-B-B-I-B-B-P-B-B-I-B.
또한 제2 테이블 표현(520) 마다, 이미지 프레임들은 다음과 같은 순서로 전송된다:
1-4-2-3-7-5-6-10-8-9-13-11-12-16-14-15-19-17-18-22-20-21-25-23-24-28.
다음 논의를 위해, B 프레임으로 구성되는 프레임 15에서 도6에 제시된 비디오 시퀀스를 입력시키는 것이 요구된다고 가정한다. 즉, 프레임 15는 도6에서 제시된 입구 스트림의 인-프레임을 포함한다. 아래에서 제시되듯이, 프레임 10에서 18이 디스플레이 순서대로 디코딩된다. 투-스트림으로부터 디스플레이되는 제1 프레임은 프레임 25(전이 클립에 포함되지 않는 I-프레임)임을 주목하여야 한다.
도7은 전이 스트림 또는 전이 클립을 발생시키는 방법에 대한 플로우 다이아그램이다. 특히, 도7은 도3의 에어 서버 플레이의 전이 클립 발생 함수(344)에서 사용하기에 적합한 방법(700)에 대한 플로우 다이아그램이다.
상기 방법(700)은 "프롬-스트림" 및 "투-스트림"의 주석 달기(annotating)가 이루어지는 단계(705)에서 시작된다. 즉, 접합 포인트에 앞서는 정보를 제공하는 정보 스트림(프롬-스트림) 및 접합 포인트에 뒤이은 정보를 제공하는 정보 스트림(투-스트림)이 상기 인덱스 발생 함수(342)에서 제시된 프레임 마다의 다양한 프레임 파라미터들에 따른 식별을 위해 주석이 달아진다. 정보 스트림에 주석을 다는 방법은 상기 도10에서 기술된다. 상기 방법(700)은 그리고 나서 단계(710)으로 진행한다.
단계(710)에서 출구 프레임에 앞서는 프롬-스트림의 일부가 디코딩된다. 즉, 출구 프레임(즉, 디스플레이되는 프롬-스트림의 최종 정보 프레임)을 포함하여 프롬-스트림 내의 복수의 정보 프레임들이 디코딩된다. 그리고 나서 상기 방법(700)은 단계(715)로 진행한다.
단계(715)에서 입구 프레임에서 시작하는 투-스트림의 일부가 디코딩된다. 즉, 입구 프레임(즉 디스플레이되는 투-스트림의 제1 프레임)에서 시작하는 투-스트림 내의 정보 프레임들이 디코딩된다. 그리고 나서 상기 방법(700)은 단계(720)으로 진행한다.
단계(720)에서 프롬-스트림 및 투-스트림의 디코딩된 일부분들은 다시 인코딩되어 전이 클립 또는 전이 스트림을 발생시킨다. 전송 스트림은 예를 들어 프롬 -스트림 및 투-스트림과 연관된 비디오 및 오디오 정보를 포함한다.
방법(700)에 의해 발생된 전이 스트림 및 전이 클립은 도1 및 3의 에어 서버 플레이(110)에 의해 프롬-스트림 및 투-스트림 사이의 전이를 위해 사용된다.
A. 프레임 선택
전이 클립 또는 전이 스트림을 구축하는 제1 단계는 전이 클립에 어떤 프레임을 포함시키는 가를 결정하는 단계(즉, 프레임 선택 과정)로 구성된다.
도8은 프롬-스트림 내의 어떤 정보 프레임들이 전이 스트림 내에 포함되어야 하는 지를 결정하는 방법에 관한 플로우 다이아그램이다. 도8의 방법(800)은 도7의 방법(700)의 단계(710)을 구현하는데 사용하기 적합하다.
상기 방법은 단계(805)에서 시작되고, 여기서 프롬-스트림의 출구 프레임이 식별된다. 프롬-스트림의 출구 프레임은 접합 포인트에 앞서 디스플레이되는 프롬-스트림 내의 최종 프레임이다. 예를 들어, 도5에 제시된 프롬-스트림을 살펴보면, 출구 프레임(프레임 15)은 프레임 413으로 지정된 B-프레임으로 구성된다. 그리고 나서 상기 방법은 단계(810)로 진행한다.
단계(810)에서, 상기 방법(800)은 디스플레이 순서로 출구 프레임 및 바로 선행하는 비-앵커(anchor) 프레임들을 디코딩한다. 즉, 도5를 다시 살펴보면, 출구 프레임(프레임 15) 및 바로 선행하는 비-앵커 프레임들(프레임 11,12,13,14)이 디코딩된다. 프레임들(11,12 및 13)은 프레임 10을 이용하여 예측되기 때문에, 프레임 10을 디코딩하는 것이 또한 필요하다. 그러나, 디코딩된 프레임(10)은 프레임들(11-13)이 디코딩된 후에 버려진다. 즉, 디스플레이 순서에서 출구 프레임에 선행하는 I-프레임으로 부터 출구 프레임까지 모든 프레임들이 디코딩된다. I-프레임은 프레임 의존성(즉, 다른 프레임들을 우선 디코딩함이 없이 디코딩될 수 있음)이 없기 때문에, I-프레임으로 부터 시작하는 것이 필요하다. 그리고 나서 상기 방법(800)은 단계(815)로 진행한다.
단계(815)에서 출구 프레임이 B-프레임인지 여부에 대한 질의가 이루어진다. 그렇지 않다면, 상기 방법은 단계(820)으로 진행하고, 그러하다면 단계(825)로 진행한다.
단계(820)에서, 출구 프레임은 I-프레임 또는 P-프레임 중 하나이기 때문에, 전이 스트림 프레임들에 앞서 디스플레이되는 최종 프롬-스트림 프레임은 전송 순서에서 출구 프레임에 바로 선행하는 프레임이다. 즉, 도5에 제시된 프롬-스트림의 프레임이 B-프레임이 아닌 P 또는 I 프레임이라면, 디스플레이되는 최종 프롬 스트림은 프레임 14가 될 것이다. 출구 프레임이 I 또는 P 프레임이면, 프레임 의존성 및 재순서는 다음 앵커 프레임 바로 전의(즉, 출구 프레임에 의존하는 모든 B-프레임들) 전송을 남기는 것을
가능케한다. 이는 리코딩될 프레임들의 수를 감소시키지만, 전이에 대한 VBV 레벨을 조정하는 기회를 줄인다. 그리고 나서 상기 방법은 단계(830)으로 진행한다.
단계(825)에서, 출구 프레임이 B-프레임(도5에서 제시된 프롬-스트림의 출구 프레임과 같이)이라면, 디스플레이되는 최종 프롬-스트림 프레임은 전송 순서에서 선행 앵커 프레임에 바로 선행하는 프레임이다. 이제 도5를 보면, 출구 프레임에 대한 선행 앵커 프레임은 P-프레임(프레임 13)이다. 도5에서 제시된 24 프레임 시퀀스의 최종 전송 프레임은 B-프레임이고, 디스플레이되는 최종 프레임은 P-프레임 13이다. 그리고 나서 상기 방법(800)은 단계(830)으로 진행한다.
단계(830)에서, 디스플레이 순서에서 최종 프롬-스트림(예를 들면, 도5에서 프레임 12로 지정된 B-프레임) 다음의 디코딩된 프레임들은 전이 클립에 저장된다. 전이 스트림 또는 클립은 투-스트림으로 부터의 프레임들을 모두 포함한다는 것을 주목하여야 한다. 전이 클립 내에 저장되는 모든 프레임들은 그리고 나서 재-인코딩되어 인코딩된 전이 클립 또는 전이 스트림을 형성한다.
도9는 투-스트림 내의 어떤 정보 프레임들이 전이 스트림 내에 포함되어야 하는 지를 결정하는 방법을 보여주는 플로우 다이아그램이다. 특히, 도9의 방법(900)은 도7의 전이 스트림 발생 방법(700)의 단계(715)를 구현하는데 적합하다.
상기 방법(900)은 단계(905)에서 시작되고, 여기서 투-스트림의 입구 프레임이 식별된다. 투-스트림의 입구 프레임은 접합 포인트 후에 디스플레이되는 투-스트림 내의 제1 프레임이다. 예를 들어, 도6을 살펴보면, 입구 프레임(프레임 15)은 B-프레임으로 구성된다. 그리고 나서 상기 방법(900)은 단계(910)으로 진행한다.
단계(910)에서 입구 프레임 및 디스플레이 순서상으로 다음 I-프레임 이전에 나타나는 모든 프레임들이 디코딩된다. 즉, 도6을 살펴보면, 입구 프레임(프레임 15) 및 다음 I-프레임(프레임 19)전에 나타나는 모든 프레임들(즉 프레임 16,17,18)이 디코딩된다. 도6에서 제시된 투-스트림 비디오 시퀀스 프레임들 17및 18은 다음 I-프레임 정보를 사용하여 예측되기 때문에, 다음 I-프레임을 디코딩하는 것이 필요하다. 그러나, 디코딩된 프레임 19는 프레임들 17 및 18이 디코딩된 후에 버려질 수 있다. 그리고 나서 상기 방법(900)은 단계(915)로 진행한다.
단계(915)에서 다음 I-프레임(예를 들면, 비디오 시퀀스(610)의 프레임 19)이 전이 클립에 카피된다. 즉, 투-스트림을 형성하는 전송 패킷 내의 비디오 정보(즉, 비디오 기본 스트림 정보)가 전송 패킷들로 부터 추출되고 전이 클립에 카피된다. 인코더의 출력은 비디오 기본 스트림(VES)으로서 인코더의 출력이 직접 전이 클립에 카피된다는 것을 주목하여야 한다. 전이 클립은 뒤이어 패킷화된다. 그리고 상기 방법(900)은 단계(920)으로 진행한다.
단계(920)에서 다음 I-프레임(예를 들면, 프레임 25) 및 뒤이은 I-프레임(프레임 19) 사이의 프레임들(프레임 20-22)이 전송 순서대로 전이 클립에 카피된다. 단계(915) 및 단계(920)에서 전이 클립에 카피된 프레임들(예를 들면, 프레임 19-21)은 인코딩된 프레임으로 전이 클립에 카피됨을 주목하여야 한다. 따라서, 상기 방법(900)은 입구 프레임 및 다음 I-프레임 전에 나타나는 모든 프레임을 포함하는 전이 클립 디코더 프레임들과 다음 I-프레임 및 다음 I-프레임과 뒤이은 I-프레임 사이의 모든 프레임들을 포함하는 인코딩된 프레임을 더한다.
도8 및 9에서 제시된 프롬-스트림 및 투-스트림 프레임 선택 방법은 전이 스트림 프레임들 및 프롬 스트림 및 투 스트림 중 하나 또는 두개 모두의 프레임들 사이에서의 프레임 의존성을 보장한다. 다음 제한들이 준수되어야 한다. 전이 클립은 폐쇄 GOP 구조로서 인코딩된다. 즉, 전이 클립은 독립적(self-contained) 비디오 클립이다. 출력되는 전송 스트림은 전이 클립의 어떤 프레임도 참조하지 않는다. 입력되는 전송 스트림이 개방 GOP 구조를 사용하여 코딩되면, 전송 스트림은 전이 클립의 프레임을 참조하는 프레임을 포함하게 된다.
본 발명의 중요한 양상은 전이 클립 내에 포함된 프레임들의 프레임 의존성을 적절하게 어드레스하도록 하는 전이 클립의 처리에 있다. 프레임 의존성은 예를 들면 전이 클립 외부의 앵커 프레임을 사용하여 디코딩되어야만 하는 전이 클립 내의 예측 프레임(즉, P-프레임 또는 B-프레임)을 포함한다. 외부 프레임 의존성이 존재하지 않는(즉, 독립적 클립) 전이 클립을 발생시키는 것이 바람직하지만, 본 발명은 이러한 프레임 의존성을 포함하는 MPEG 순응 전이 클립을 발생시킬 수 있다.
B. 디코딩
전이 클립 또는 전이 스트림을 구축하는 두번째 단계는 프레임 선택 처리에서 선택된 프레임들을 디코딩하는 단계이다. 선택된 프레임들의 디코딩은 표준 하드웨어 또는 소프트웨어 디코딩 기술을 사용하여 달성될 수 있다.
어떤 프레임이 디코딩되는지 여부와는 상관없이 디코딩은 I-프레임에서 시작하여야 한다. MPEG 인코딩 예측에 있어서, 모든 비-I-프레임은 이전 I-프레임에 의존한다. 상기에서 기술된 프레임 선택 방법은 전송 스트림 사이의 무단층, 정확한 프레임 접합을 달성하기 위해 이러한 의존성을 파괴한다.
C. 인코딩
전이 클립 또는 전이 스트림을 구축하는 세번째 단계는 프레임 선택 및 디코딩 처리에서 얻어진 디코딩된 프레임들을 인코딩하는 단계이다. 선택된 프레임들의 인코딩은 표준 하드웨어 또는 소프트웨어 디코딩 기술을 사용하여 달성된다. 프레임 의존성을 파괴할 뿐만 아니라(위에서 언급되었듯이), 전이 클립을 발생시킬 때 주요한 목적들 중 하나는 프롬 스트림 및 투 스트림 사이의 VBV 레벨을 조정하여 접합 전송 스트림을 처리하는 원단(far-end) 디코더가 오버플로우, 언더플로우 또는 다른 바람직하지 않는 디코더 버퍼 메모리 행동을 겪지 않도록 하는 것이다. 예를 들어, 프롬 스트림의 출구 포인트에서의 VBV 레벨이 투 스트림의 입구 포인트에서의 VBV 레벨 보다 낮으면, 언더플로우가 접합으로부터 다운 스트림을 초래한다. 전형적인 디코더들에서, 이는 디코더가 제공되는 데이타를 기다리는 동안 "프리즈(freeze) 프레임"을 야기시킨다. 프롬 스트림의 출구 포인트에서의 VBV 레벨이 투 스트림의 입구 프레임에서의 VBV 레벨 보다 높은 경우에는 문제가 더욱 심각하다. 이는 접합에서의 VBV 오버플로우 다운스트림을 초래한다. 오버플로우는 버퍼링될 수 있는 것 보다 더 많은 데이타가 제공될 때 발생한다. 오버플로우는 상실 및/또는 부정확한 데이타를 발생시키고 일반적으로 디코딩된 픽쳐들에서 시각적인 인공물(artifact)을 야기시키며 디코더가 리세팅되기도 한다.
선택된 프레임들이 베이스밴드에서 디코딩된 후, 선택된 프레임들은 VES로 리코딩된다. 본 발명가들은 고성능, 픽쳐 콸러티 및 모듈성을 보장하기 위해 산오프(Sarnoff) 코포레이션 DTV/MPEG-2 소프트웨어 인코더를 사용하였다. 인코더에서의 레이트 제어 알고리즘은 개시 및 종료 VBV 레벨들의 사양을 허용하기 위해 수정되었고, 인코더의 입력 모율은 디코더의 출력 파일 포맷을 지지하기 위해 업데이트되었다. 프레임 선택 기간동안 전송 스트림으로부터 분석되는 MPEG 인코딩 파라미터들은 인코더로 전달되어 리코딩된 비디오가 접합된 클립들과 호환할 수 있도록 하여준다.
레이트 제어와 관련하여(궁극적으로 전이 클립의 리코딩된 부분의 전체 픽쳐 콸러티를 결정함), VBV 레벨을 상향조정하면, 선택된 프레임들은 원래 스트림보다 적은 비트들을 사용하여 인코딩된다. VBV 레벨의 증가는 출력에서의 콸러티 손실을 초래하지만, 인간 시각 체계의 마스킹으로 인해 화면 전환에서의 비디오 콸러티의 작은 손상은 시청자가 거의 인식할 수 없는 경우가 빈번하다. 본 발명가는 무단층, 프레임 정확한 접합을 포함하는 스트림에 전달된 이러한 시각적 손상은 인식할 수 있는 수준의 비디오 손상을 초래하지 않도록 결정하였다.
본 발명의 일 실시예에서, 프롬 스트림 및 투 스트림 각각은 각각 비디오 버퍼링 검정기(VBV)를 가지고 있는 전송 스트림을 포함한다. 본 발명은 프롬 스트림 VBV와 투 스트림 VBV 사이에 차이가 존재하는지 여부를 결정하여 이에 따라 재-인코딩 처리를 통해 이러한 차이를 필요에 따라 적응시킨다. 예를 들어, 본 발명은 프롬 스트림 VBV 가 투 스트림 VBV에 비해 제1 임계 수준만큼 초과한다는 결정에 응답하여 레이트 제어 비트 할당을 증가시키고, 투 스트림 VBV 가 프롬 스트림 VBV에 비해 제2 임계 수준만큼 초과한다는 결정에 응답하여 레이트 제어 비트 할당을 감소시킴으로써 재-인코딩 처리를 적응시킨다.
D. 패킷화
전이 클립 또는 전이 스트림을 구축하는 네번째 단계는 프레임 선택 및 디코딩 처리로 부터 획득된 디코딩된 프레임을 인코딩하는 단계이다.
선택된 프레임들을 리코딩한 후, 투 스트림으로부터 카피된 I-프레임 및 잔존 GOP는 리코딩된 VES에 첨부된다. 시간_기준 필드의 리스탬핑(restamping)을 보류하면서, 전이 클립은 신택스 상으로 완전한 MPEG-2 스트림(시퀀스_엔드_코드를 가지고 있지 않는 것을 제외하고)을 포함하고 전이에서 모든 프레임들을 포함한다. 최종 단계는 VES를 전송 스트림 내로 패킷화하는 것이다.
전이 스트림 패킷화의 제1 단계는 각 프레임의 출발 오프셋(시퀀스_헤더 또는 픽쳐_헤더)을 위치시키는 전이 스트림 및 전이 스트림 내의 프레임 타입들을 분석하는 것이다. 일단 이런 데이타가 제공되면, 프레임들 사이의 의존성이 계산되고 프레임 디스플레이 순서가 결정된다. 시간_기준 필드들은 GOP 재건에 기인하여 현재로서는 실효성이 없기 때문에 이러한 목적에는 적합하지 않음을 주목하여야 한다. 디스플레이 순서가 결정되면, 시간_기준 필드들은 재-스탬핑되고 프리젠테이션(PTS) 디코드 타임 스탬프(DTS)가 전이 스트림의 각 프레임에 대해 계산된다.
MPEG-2 표준에 따라, 전송 스트림 내의 일시적인 불연속성이 허용됨을 주목하여야 한다. 그러나, 일부 디코더들은 완전히 MPEG-2 표준과 일치하지 않기 때문에, 이렇게 전송 스트림 내의 허용된 일시적 불연속성은 적절하지 못한 디코더 동작을 야기시킨다. 따라서, 전송 스트림 내의 이러한 일시적인 불연속성을 리-스탬핑 처리를 통해 제거하는 것이 바람직하다.
리-스탬핑 처리의 출력을 사용하여, PES 헤더들이 발생되고 프레임들이 PES 스트림에서 출력된다. 각 PES 헤더의 위치 및 각 PES 패킷의 위치가 이러한 처리동작동안 기록된다. 마지막으로, PES 패킷을 보유하기 위해 전송 패킷들이 발생된다. 각 패킷 계층은 TS에 오버헤드를 첨가하여 약간의 크기 증가를 야기시킨다. 그에 따른 TS의 패킷들은 접합된 비디오 스트림의 PID를 가지고 스탬프된다. 패킷화 처리의 최종 출력은 단일 VES를 포함하는 TS이다. 상기 스트림은 어떠한 프로그램 특정 정보(PSI)도 가지고 있지 않다.
E. 리멀티플렉싱
전이 스트림 또는 전이 클립을 구축하는 최종 단계는 원래의 프로그램 스트림으로부터 프로그램 특정 정보(PSI)를 이용하여 비디오 클립(이제는 전송 스트림)을 리멀티플렉싱 하는 단계이다.
이러한 리멀티플렉싱 단계를 달성하기 위해서, 프롬 스트림은 검사되어 프로그램 관련 테이블(PAT) 및 프로그램 맵 테이블(PMT) 중 하나를 추출한다. 단일 프로그램 전송 스트림을 접합하는 경우에는 오직 하나의 PMT 만이 존재한다. 다중 프로그램 전송 스트림들을 접합하는 경우에는 단지 다중 PMT들만이 존재한다. 선택적으로, ATSC 방송 포맷을 완전히 구현하기 위해서, 당업자에게 공지된 다른 테이블들을 추출하는 것도 역시 필요하다.
PAT 및 PMT를 추출한 후에, 전이 클립에서의 패킷들의 수가 멀티플렉스 비트 레이트, 전이 클립에서의 프레임들 수, 및 프레임 레이트에 따라 계산된다. 예를 들어, ATSC 사양은 적어도 100ms 마다 PAT를 적어도 400ms 마다 PMT를 필요로 한다. PAT 및 PMT 테이블 사이의 패킷들의 수는 멀티플렉스 비트 레이트로부터 결정된다.
전이 클립에서의 패킷들의 수가 계산된 후에, 널(null) 전송 패킷으로 구성되는 블랭크 전이 클립이 발생되고 PAT 및 PMT 테이블들이 계산된 공간들(예를 들면 100ms 마다 PAT 및 400ms 마다 PMT)에서 삽입된다.
블랭크 전이 스트림에 적절하게 PAT 및 PMT를 삽입한 후에, 이용 가능한 잔존 패킷 내의 패킷들을 배치함으로써 비디오 전송 스트림이 블랭크 전이 스트림 내에 삽입되고, 이에 기해 출력 전송 스트림을 형성한다.
상기 PAT,PMT 및 비디오 패킷들을 빈 전이 클립 내에 삽입할 때, 각 패킷은 새로운 연결_카운터로 리스탬핑 되어야 함을 주목하여야 한다. 연결_카운터의 초기값은 출구 스트림 또는 프롬 스트림으로부터의 각 PID에 대해 개별적으로 결정된다. 비디오 클립이 너무 크면, 전이 클립의 전송 패킷이 충분하지 않게 되는데 이는 전이 클립의 크기가 예상 클립 듀레이션에 대해 계산되기 때문이다. 이러한 계산은 프레임 카운트, 프레임 레이트, VBV 지연, 멀티플렉스 비트 레이트 등을 고려한다. VBV 조정이 인코더에 의해 적절하게 수행되는 것이 중요하다.
완성된 전이 클립은 계산된 전송 패킷 오프셋들에서 접합된 전송 스트림 사이에 삽입되고, 이에 기해 무단층 접합을 달성한다.
위에서 기술된 본 발명은 전이 스트림 또는 클립을 사용하여 전송 스트림의 무단층, 정확한 프레임 접합 또는 연쇄를 제공하고, 이를 통해 완전히 새로운 전송 스트림 구성을 피하게 한다. 프롬 스트림 및 투 스트림은 전이 스트림을 발생시키기 위한 충분한 정보를 제공하기 위해서만 사용되기 때문에, 상기 처리 기간동안에는 수정되지 않는다. 스트림들 사이의 변화를 달성하기 위해 사용된 후에, 전이스트림은 시스템에 의해 버려지거나 또는 장래의 사용을 위해 저장된다.
본 발명은 주로 예시적인 비디오 스트림 또는 서브 스트림을 포함하는 MPEG-2 전송 스트림의 무단층 접합을 제공하는데 사용되기에 적합한 비디오 정보를 포함하는 전이 스트림 발생과 관련되어 기술된다. 그러나 당업자는 다른 형태의 정보들이 이러한 비디오 스트림들과 관련될 수 있음을 잘 이해할 것이다. 예를 들면, 많은 비디오 스트림들이 상응하는 오디오 스트림들과 관련된다. 게다가, 데이타 에센스(essence) 및 메타 데이타와 같은 다른 형태의 정보들이 비디오 정보를 포함하는 정보 스트림에 통합될 수 있다. 데이타 에센스는 스트림 내의 비디오 및/또는 오디오 데이타와 독립적인 컨텍스트(context)를 가지는 데이타이다. 데이타 에센스의 예들은 비디오 및/또는 오디오 데이타 등과 관련되지 않는 주식 싯가(stock quotation), 기상보고 및 다른 뉴스, 메세지 또는 제어 정보를 포함한다.
메타-데이타는 비디오 또는 오디오 스트림의 특성을 기술하는 데이타와 같이 다른 데이타를 관련시키는 데이타이다. 메타-데이타의 예들은 교번(alternate) 카메라 앵글, 영화 배우들의 이름, 프리젠테이션 타이틀 등과 같은 비디오 또는 오디오 프레임과 관련된 비디오 또는 인터넷 데이타 방송 패킷들을 포함한다.
비디오 스트림 내의 특정 비디오 프레임들과 관련된 오디오 정보, 데이타 에센스 및/또는 메타-데이타의 경우에 있어서, 특정 비디오 프레임과 관련된 모든 데이타가 비디오 프레임의 수신기에 제공되도록 하는 것이 바람직하다. 따라서, 스트림을 접합을 통해 하나 또는 그 이상의 비디오 스트림들이 연쇄되어 접합 비디오 스트림을 발생시키는 경우에 있어서, 상기 접합을 가능케하기 위해 전이 클립에서이용되는 비디오 프레임들과 관련된 오디오 정보, 데이타 에센스 및/또는 메타-데이타가 전이 클립 내에 포함되도록 하는 것이 바람직하다.
도4A는 본 발명을 이해하는데 유용한 접합 동작을 보여주는 도이다. 특히, 도4A는 스트림 A로 지정된 프롬-스트림(410); 스트림 B로 지정된 투-스트림(420); 및 스트림 T로 지정된 전이 스트림 또는 전이 클립(430)을 포함한다. 각 스트림들(A,B,T)은 예시적으로 비디오 프레임(제시되지 않음), 메타-데이타, 데이타 에센스 및 오디오 데이타를 포함하는 MPEG-s 전송 스트림들이다. 이러한 전송 스트림들은 복수의 패킷 정보 스트림들을 멀티플렉싱 함으로써 형성되어 결과로서 비디오, 오디오 및 다른 데이타 스트림을 포함하는 정보 스트림을 제공한다. 불행히도, 상기 멀티플렉싱 처리는 오디오, 데이타 에센스 및 메타-데이타 패킷들을 각각의 비디오 타임들에 대략적으로 정렬시키지 않는다. 즉, 전송 스트림 내의 각 비디오 프레임에 대해, 비디오 프레임을 포함하는 패킷들은 비디오 프레임과 연관된 오디오 데이타, 데이타 에센스 또는 메타-데이타를 포함하는 패킷보다 선행하거나 또는 후행할 수 있다. 따라서, 출구 또는 입구 프레임을 형성하는 비디오 패킷들에 대해서만 전이 스트림이 형성되면, 상기 출구 또는 입구 프레임과 연관된 메타-데이타, 데이타 에센스 및/또는 오디오 데이타는 상실되거나 또는 불완전하게 전이 스트림에 제공된다.
스트림 A(410)는 시작 비디오 프레임(410-ST) 및 인코딩 비디오 프레임(410-END)에 의해 경계 지워진다. 스트림 A는 출구 비디오 프레임(410-OUT)에서 출구되는 프롬-스트림을 포함한다. 따라서, 전이 스트림 발생 방법들과 관련하여 위에서기술된 대로, 전이 비디오 프레임(410-TRAN)에서 시작하여 출구 비디오 프레임(410-OUT)에서 종료되는 복수의 정보 프레임들이 전이 스트림을 형성하는데 사용하기 위해 디코딩된다. 그러나, 출구 비디오 프레임(410-OUT)은 출구 비디오 프레임(410-OUT) 후에 스트림 A 내에 위치하는 메타-데이타(410-MD), 데이타 에센스(410-DE) 및 오디오 데이타(410-AD)와 관련된다. 이러한 데이타는 출구 비디오 프레임(410-OUT) 전에 위치될 수도 있음을 주목하여야 한다. 따라서, 이러한 비-비디오 데이타를 전이 스트림에 통합하기 위해, 비-비디오 데이타를 추출 또는 디코딩하는 것이 필요하다. 스트림 A(410)를 살펴보면, 출구 프레임(410-OUT)과 결합된 이러한 비-비디오 데이타는 전이 프레임(410-TRAN) 및 비-비디오 데이타와 결합될 가능성이 있는 최대 경계(또는 한계)를 정의하는 한계 프레임(410-EXT)에 의해 경계지워 진다.
스트림 B(420)는 시작 비디오 프레임(420-ST) 및 종료 비디오 프레임(420-END)에 의해 경계지워 진다. 스트림 B는 입력 비디오 프레임(420-IN)에서 시작되는 투-스트림을 포함한다. 따라서 상기에서 전이 스트림 발생 방법과 관련하여 설명된대로, 입구 프레임(420-IN)에서 시작하여 전이 비디오 프레임(420-TRAN)에서 종료하는 복수의 정보 프레임들이 전이 스트림(430)을 형성하는데 사용되기 위해 디코딩된다. 그러나, 입구 비디오 프레임(420-IN)은 입구 비디오 프레임(420-IN)에 앞서 스트림 B 내에 위치하는 메타 데이타(420-MD), 데이타 에센스(420-DE) 및 오디오 데이타(420-AD)와 관련된다. 이러한 데이타는 입구 비디오 프레임(420-IN) 후에 위치할 수도 있음을 주목하여야 한다. 따라서, 이러한 비-비디오 데이타를 전이 스트림(430)에 통합하기 위해, 이러한 비-비디오 데이타를 추출 또는 디코딩하는 것이 필요하다. 스트림 B(420)를 보면, 입구 비디오 프레임(420-IN)과 연관된 비-비디오 데이타는 한계 프레임(420-EXT) 및 전이 프레임(420-TRAN)에 의해 경계 지워진다. 한계 프레임(420-EXT)은 비트 스트림 순서에서 입구 프레임(420-IN)에 선행하는 비-비디오 데이타와 연관된 가능성이 있는 최대 경계(한계)를 정의한다.
따라서, 전이 스트림에 적합한 모든 비디오 프레임들 및 이러한 비디오 프레임들과 연관된 모든 비-비디오 데이타를 수집하기 위해 분해된(deconstructed) 스트림 A 부분은 410-TRAN 및 410-EXT에 의해 경계지워 진다. 유사하게, 분해된 스트림 B 부분은 420-EXT 및 420-TRAN에 의해 경계지워 진다. 스트림 A 및 B로 부터 비디오 데이타, 메타 데이타, 데이타 에센스 및 오디오 데이타를 디코딩 및/또는 추출한 후에, 전이 스트림(430)은 이러한 데이타를 포함하는 방식으로 형성된다. 따라서, 전이 스트림(430)은 시작 프레임(430-ST) 및 종료 프레임(430-END)에 의해 경계지워 진다. 그리고 나서 SPLICE 포인트는 적절한 출구 프레임(410-OUT) 및 입구 프레임(420-IN)에서의 2개의 스트림 사이에서 정확한 프레임 접합을 정의한다. 게다가, 전이 스트림(430) 내에 포함된 비디오 프레임들과 연관된 메타 데이타, 데이타 에센스 및/또는 오디오 데이타 역시 전이 프레임 내에 포함된다. 이러한 비-비디오 데이타는 접합 포인트와 관계없이 전이 스트림 내에 정렬된다. 즉, 비-비디오 데이타는 비-비디오 및 비디오 데이타 패킷들 사이의 관련성을 보존하는 방식으로 비디오 데이타 패킷들로 멀티플렉싱될 수 있다.
도4B는 본 발명의 이해에 유용한 접합 동작을 보여주는 도이다. 특히, 도4B는 제1 멀티-프로그램 전송 스트림(440) 및 제2 멀티 프로그램 전송 스트림(450)을 포함한다. 제1 및 제2 멀티 프로그램 전송 스트림(440,450)은 각각 복수의 전송 서브 스트림들을 포함한다. 본 발명은 비-비디오 데이타 및 이와 관련된 비디오 데이타 사이의 관련성을 보존하는 방식으로 이러한 다중 프로그램 전송 스트림 사이의 정확한 프레임, 무단층 접합을 수행하는데 이용될 수 있다.
전송 멀티플렉스 A(440)는 프로그램 1(441), 프로그램 2(442) 및 프로그램 3(443)으로 지정된 3개의 전송 서브 시스템들을 포함한다. 전송 멀티플렉스 B(450)는 프로그램 A(451), 프로그램 B(452) 및 프로그램 C(453)로 지정된 3개의 전송 서브 스트림들을 포함한다. 이러한 논의를 위해 전송 멀티플렉스 B는 서브 스트림 수준에서 전송 멀티플렉스 A와 연쇄되는 것으로 가정한다. 즉, 프로그램 1(441) 및 프로그램 A(451)가 연쇄되어 복수의 서브 스트림들을 포함하는 전이 스트림 내의 제1 전송 서브 스트림을 형성한다. 특히, 프로그램 1은 아웃 프레임(441-OUT)에서 출구되고, 프로그램 A는 인 프레임(451-IN)에서 시작된다. 유사하게, 프로그램 2는 아웃 프레임(442-OUT)에서 출구되고 프로그램 B는 인 프레임(452-IN)에서 시작되며, 프로그램 3은 아웃 프레임(443-OUT)에서 출구되고 프로그램 C는 인 프레임(453-IN)에서 시작된다. 그에 따른 전이 스트림은 도4B에서 지시되고 위에서 기술된 프레임 정확한 무단층 접합 포인트를 포함하여 모든 6개의 스트림 중 일부로 구성되는 전송 멀티플렉스 스트림을 포함한다.
비디오 프레임들 뿐만 아니라, 각 전송 서브 스트림들은 메타 데이타, 데이타 에센스 및 오디오 데이타와 같은 비-비디오 데이타를 포함한다. 도4B에서 제시되듯이, 접합 포인트들 및 전이 스트림 내에 포함된 비디오 프레임들 각각은 이러한 비-비디오 데이타의 한계와 관련된다. 따라서, 전송 멀티플렉스 서브 스트림들 각각은 디코딩되거나 모든 필요한 비디오 및 비-비디오 데이타의 추출을 축적시키기 위해 처리되어 개별 전이 서브 스트림을 달성한다. 그리고 나서 개별 전이 서브 스트림들은 뒤이은 제1 멀티 프로그램 스트림 A(440) 및 제2 멀티 프로그램 스트림 B(450)의 연쇄를 위해 다중 프로그램 전이 스트림으로 통합된다.
도4C는 본 발명을 이해하는데 유용한 접합 동작을 보여주는 도이다. 특히, 도4C는 형성중인 전이 스트림(460) 내의 비-비디오 패킷 자리 홀더(holder)의 예약(reservation)을 보여준다. 즉, 전이 스트림을 형성하는 동안, 접합된 프레임들로 부터 상기 디코딩된 비디오 프레임들을 인코딩하는 단계는 비-비디오 데이타를 부분적으로 형성된 전이 스트림 내에 삽입하는 단계에 앞서 수행된다. 전이 스트림 내의 비-비디오 데이타가 그와 관련된 비디오 데이타 근처에 위치하도록 하기 위해, 자리 홀더는 비디오 인코딩 처리 기간동안 전이 스트림 내의 비-비디오 데이타의 뒤이은 삽입을 허용하도록 설정된다. 특히, 도4C에 제시되듯이, 복수의 오디오, 데이타 에센스 및/또는 메타 데이타 자리 홀더들이 형성중인 전이 스트림 내에 삽입된다. 전이 스트림이 완성되면, 비-비디오 데이타를 저장하기 위해 사용되지 않은 이러한 자리 홀더들은 삭제되고 완성된 전이 스트림(460)은 전이 스트림으로 이용된다.
위에서 도4B와 관련하여 제시된 다중 프로그램 전송 스트림 내에서, 전이 스트림 발생 처리 기간동안 형성된 각 전송 서브 스트림들은 비-비디오 데이타 자리 홀더들 셋을 이용한다. 완성시에 각 스트림은 사용되지 않은 자리 홀더들을 삭제 또는 비-활성화시켜 완성된 전이 스트림을 형성한다.
그에 따른 전이 스트림 또는 전이 클립(430)은 스트림 A 및 B 각각으로부터의 비디오 정보 및 비-비디오 정보를 포함한다.
도12는 화소 영역 효과들을 통합시키는 전이 스트림 또는 전이 클립을 발생시키는 방법에 대한 플로우 다이아그램이다. 특히, 도12는 도3의 에어 서버 플레이(110)의 전이 클립 발생 함수(344)의 사용에 적합한 방법(1200)에 관한 플로우 다이아그램이다.
상기 방법(1200)은 단계(1210)에서 개시되고, 여기서 "프롬-스트림" 및 "투-스트림"의 주석(annotate)이 달아진다. 정보 스트림에 주석을 다는 방법은 이전에 도10과 관련하여 설명되었다. 이전에 언급되었듯이, 이러한 주석달기는 본 발명을 실행하는데 반드시 요구되지는 않는다. 그러나, 이러한 주석달기 과정은 뒤이은 처리 단계들에서 스트림을 효율적으로 처리하는데 유용하다. 상기 방법(1200)은 그리고 나서 단계(1220)으로 진행한다.
단계(1220)에서 출구 프레임에 선행하는 프롬 스트림의 일부는 도7 방법(700)의 단계(710)과 관련하여 기술된 것과 같이 디코딩된다. 그리고 나서 상기 방법(1200)은 단계(1230)으로 진행한다.
단계(1230)에서 출구 프레임에서 시작하는 투-프레임의 일부는 도7 방법(700)의 단계(715)와 관련하여 기술된 것과 같이 디코딩된다. 그리고 나서 상기 방법(1200)은 단계(1240)으로 진행한다.
단계(1240)에서 상기 디코딩된 프롬-스트림 및 투-스트림의 일부는 하나 또는 그 이상의 화소 영역 처리 단계들에 종속되어 예를 들면 특별한 효과 또는 다른 처리 효과를 제공한다. 단계(1240)에서 제공된 상기 특별한 효과는 박스(1245)에 제시된 특별한 효과들(즉, 모핑, 패이딩, 와이프, 디졸브, 푸쉬, 리빌, 블랙-프레임, 프리즈-프레임 또는 다른 공지된 화소 영역 처리 효과들) 중 하나 또는 그 이상을 포함할 수 있다. 모핑 효과는 하나의 모양에서 다른 모양으로의 점진적(예를 들면 프레임마다) 변화를 포함한다. 와이프 효과는 제1 및 제2 이미지들을 묘사하는 수직 바의 위치를 좌에서 우 또는 상에서 하로 변화시키는 것과 같이 인트라-이미지 영역 변화를 통해 하나의 이미지에서 다른 이미지로의 변화를 포함한다. 패이딩 또는 디졸브 효과는 제1 이미지의 점진적 패이딩 또는 디졸빙을 통해 제1 이미지 밑에 있는 제2 이미지를 나타내도록 하는 것을 포함한다. 상기 밑에 있는 이미지는 패이딩될 수도 있고 또는 제1 이미지 패이딩과는 반대로 출현할 수도 있다. 블랙(또는 블루) 프레임 효과는 2개의 이미지들 사이에 단색(monochrome) 프레임을 삽입하는 것을 포함한다. 푸쉬(push) 효과는 새로운 이미지의 등장에 의해 낡은 이미지가 스크린 밖으로 밀려지는 것과 같은 효과를 말한다. 상기 낡은 이미지 및 새로운 이미지는 이러한 효과들 달성하기 위해 어떤 방향으로라도 미끌어질 수 있다. 리빌(reveal) 효과는 낡은 이미지가 제거되어 밑에 있는 새로운 이미지를 들어내는 효과를 말한다. 리빌 효과는 "필 백(peal back) 효과를 포함할 수도 있고, 여기서 "턴 업된 코너(turned up corner)" 또는 턴 업된 코너의 그래픽적 표현은낡은 이미지 밑에 있는 새로운 이미지의 일부를 보여준다. 새로운 이미지를 선택하게 되면, 낡은 이미지는 필 백 되거나 화면에서 제거되어 밑에 있는 새로운 이미지를 보여준다.
메타-데이타에 대한 비-화소 영역 효과는 문장(sentence) 경계에서의 폐쇄 캡션 변화를 포함할 수도 있다. 오디오 영역에 대한 비-화소 효과는 접합 정보 스트림을 형성하기 위해 침묵을 통해 스트림 A로부터 스트림 B와 연관된 오디오 정보로의 오디오 패이딩을 포함한다.
화소 영역 처리 단계는 비디오 클립들 사이의 전이에 대한 예술적이고 흥미로운 수단을 제공하는데 사용될 수도 있다. 예를 들어, 캐이비에트(caveat) 효과가 프레임 1 및 6의 일부를 포함하는 4개의 삽입 프레임들을 통해 프레임 1에서 프레임 6으로의 전이에 의해 6 프레임 전이 클립에서 구현될 수 있다. 화소 영역 처리가 비록 관측자에게 전이 정보의 일부를 전달하는 것이 바람직하기는 하지만, 이러한 전이 정보의 전달이 반드시 요구되는 것은 아니다. 그리고 나서 상기 방법(1200)은 단계(1250)으로 진행한다.
본 발명의 일 실시예에서, 화소 영역 처리는 복수의 전송 스트림들 또는 다른 스트림들에 대해 수행된다. 특히, 본 발명은 위에서 주로 적어도 이미지 정보를 포함하는 접합 전송 스트림을 형성하기 위해 연쇄된 적어도 이미지 정보를 포함하는 2개의 전송 스트림들과 관련하여 기술되었다. 전이 스트림 또는 전이 클립을 발생시키는 동안, 각 전송 스트림 내의 이미지 정보는 디코딩되어 화소 영영 처리에 의한 처리에 화소 영역 정보가 제공되도록 한다. 본 발명의 일 실시예에서, 추가적인 화소 영역(또는 비-화소 영역) 정보가 화소 영역 또는 비-화소 영역 처리 단계 동안 사용된다. 채도(chroma)-키(key) 처리 예에서, 여기서 K-스트림으로 지정된 채도-키 신호를 포함하는 전송 스트림은 하나 또는 그 이상의 채도-키 이미지 영역을 가지는 비디오 정보를 포함한다. K-스트림 내의 제1 키 이미지 영역은 제1 칼라에 의해 표시되고, K-스트림 내의 제2 키 이미지 영역은 제2 칼라에 의해 표시된다. 제1 키 영역과 관련된 전이 클립 내의 화소 영역 정보는 제1 정보 소스 또는 정보 스트림으로부터의 정보에 의해 대체되고, 제2 키 영역과 관련된 전이 클립 내의 화소 영역 정보는 제2 정보 소스 또는 정보 스트림으로부터의 정보에 의해 대체된다. 따라서, 전이 스트림을 형성하기 위해 스트림 A 와 스트림 B를 연쇄시키는 K-스트림을 포함하는 스트림 A의 경우에, 2개의 추가적인 정보 스트림들(영역 스트림 1 및 영역 스트림 2로 지정됨)이 사용되어 K-스트림의 제1 및 제2 키 영역을 각각 대체시키는 이미지 정보를 제공한다. 당업자는 어떠한 영역들도 이용될 수 있고 비-화소 정보가 영역들로 분할될 수 있음을 잘 이해할 것이다.
단계(1250)에서, 디코딩 및 처리된 비디오 프레임들은 재-인코딩되어 전이 스트림을 형성한다. 단계(1250)는 도7 방법(700)의 단계(720)와 관련하여 위에서 기술된 방식과 실질적으로 동일한 방식으로 구현될 수 있다.
따라서, 도12의 방법(1200)은 전이 스트림 또는 전이 클립의 발생뿐만 아니라 예술적 또는 흥미있는 시각적 목적에 부합하도록 전이 스트림 또는 전이 클립 내의 비디오 정보의 적응을 제공한다. 이러한 방식으로, 프롬-스트림이 출구되고 투-스트림이 입력될 때 공지된 화소 영역 처리 기술들이 보다 현실적인 전이 인상을 제공하기 위해 사용될 수 있다. 비-비디오 영역들에서의 처리 역시 도4A-4C와 관련하여 위에서 기술된 비-비디오 데이타에 대해 수행될 수 있음을 주목하여야 한다.
따라서 본 발명의 영역은 단지 2개의 이미지 스트림들의 화소 또는 이미지 영역 처리라는 단순한 개념을 넘어선다. 본 발명은 발생된 전이 스트림 내의 화소 영역 또는 다른 비-비디오 영역 정보를 처리하기 위해 복수의 정보 스트림들이 사용될 수 있는 넓은 적용범위를 가진다. 이러한 방식으로, 전이 스트림 또는 전이 클립은 많은 정보 소스들에 응답하여 발생되어 비디오 및 비-비디오 정보가 전이 클립을 형성하는 2개 이상의 스트림으로부터의 비디오 및 비-비디오 정보와 병합될 수 있도록 하여준다.
전이 클립 또는 전이 스트림은 미리 설정된 수의 비디오 프레임들로 형성될 수 있음을 주목하여야 한다. 이전에 기술된 VBV 처리 기회들뿐만 아니라 이러한 미리 설정된 수의 프레임들이 일부 프레임들을 선택적으로 인코딩함으로써 특정 화소 영역 효과를 달성하는데 사용될 수 있다. 예를 들어, 5개의 비디오 프레임들을 가지고 있는 전이 클립에 있어서, 5개 프레임 각각은 6개의 인트라-프레임 영역으로 분할될 수 있다. 제1 프레임은 투-스트림으로부터 1/6 비디오 데이타를 포함하고 프롬-스트림으로 부터 5/6 데이타를 포함한다; 제2 프레임은 투-스트림으로부터 2/6 데이타를 포함하고 프롬-스트림으로부터 4/6 데이타를 포함하며 이러한 방식으로 제5 프레임이 투-스트림으로부터 5/6 데이타를 포함하고 프롬-스트림으로부터 1/6 데이타를 포함한다. 본 발명가들은 전이 스트림에서 3 및 25 프레임 사이의사용자 선택 가능한(또는 미리 설정된) 수의 프레임들의 제공이 최대 화소 영역 처리 및 VBV 버퍼 정규화 함수들을 인에이블 할 수 있는 충분한 유연성을 제공한다는 것을 결정하였다.
도13은 볼 발명의 실시예에 따라 전이 스트림 또는 전이 클립을 발생시키는 방법에 관한 플로우 다이아그램이다. 특히, 도13은 도3의 에러 서버 플레이(110)의 전이 클립 방생 함수(344)에서의 사용에 적합한 방법(1300)의 플로우 다이아그램이다.
상기 방법(1300)은 단계(1310)에서 시작하고, 여기서 출구 프레임에 선행하는 프롬-스트림의 적절한 일부가 디코딩된다. 그리고 나서 상기 방법(1300)은 단계(1320)으로 진행한다.
단계(1320)에서, 데이타 에센스, 오디오, 메타-데이타 및/또는 프롬-스트림 내의 다른 데이타와 같이 상기 디코딩된 비디오 부분과 관련된 비-비디오 정보가 추출 또는 디코딩된다. 즉, 단계(1310)에서 디코딩된 프롬-스트림 내의 비디오 프레임들과 관련된 상기 비-비디오 데이타 타입들과 같은 보조 또는 부속 데이타가 전이 스트림 또는 전이 클립에서의 뒤이은 사용을 위해 추출 또는 디코딩된다.
단계(1330)에서, 입구 프레임에서 시작하는 투-스트림의 적합한 일부가 디코딩된다. 그리고 상기 방법(1300)은 단계(1340)으로 진행한다.
단계(1340)에서, 단계(1330)에서 디코딩된 비디오 프레임들과 관련된 비-비디오 데이타가 추출 또는 디코딩된다. 즉, 단계(1330)에서 디코딩된 비디오 프레임들과 관련된 투-스트림 내의 데이타 에센스, 오디오, 메타-데이타 및/또는 다른데이타가 전이 스트림 또는 전이 클립에서의 뒤이은 사용을 위해 추출 또는 디코딩된다. 그리고 나서 상기 방법(1300)은 선택적 단계(1350)로 진행한다.
단계(1350)는 부분적으로 형성된 전이 스트림 또는 전이 클립에서의 사용에 적합한 선택적 처리 단계이다. 특히, 선택적 단계(1350)는 독립적 또는 상호 조합적으로 이용되어 단계(1310 및 1330)에서 디코딩된 비디오 데이타 또는 단계(1320 및 1340)에서 추출 또는 디코딩된 비-비디오 데이타의 처리를 달성하는 3개의 선택적 서브-단계들을 포함한다.
선택적 단계(1350) 내의 제1 선택적 서브 단계(1352)는 상기 디코딩된 비디오 데이타의 임의의 화소 영역 처리 수행을 포함한다. 즉, 도12의 단계(1240) 및 박스(1245)에서 기술된 적어도 화소 영역 처리 기술들 중 임의의 기술들이 단계(1310) 및 단계(1330)에서 각기 디코딩된 투-스트림 및 프롬-스트림 비디오 정보를 처리하기 위해 사용된다. 그리고 나서 상기 방법(1300)은 단계(1354)로 진행한다.
제2 선택적 서브 단계(1354)에서, 단계(1320) 및/또는 단계(1340)로 부터 추출 또는 디코딩된 오디오 데이타의 오디오 영역 처리가 수행된다. 이러한 오디오 처리는 예를 들어, 청취자에 대한 전이의 느낌 또는 다른 오디오의 충격을 전달하기 위해 사용되는 공지된 오디오 영역 처리 기술들을 포함할 수 있다. 그리고 나서 상기 방법(1300)은 단계(1356)으로 진행한다.
단계(1350)의 제3 선택적 서브 단계(1356)에서, 단계(1320) 및/또는 단계(1340)에서 추출 및 디코딩된 데이타 에센스, 메타 데이타 또는 다른 데이타의데이타 영역 처리가 수행된다. 이러한 데이타 처리는 예를 들어 단계(1352)에서 수행된 화소 영역 처리에 따라 메타 데이타 또는 데이타 에센스를 조정하는 것을 포함할 수 있다. 예를 들어, 메타 데이타가 화소 영역 처리에 종속된 전이 클립 비디오 프레임의 화소 영역 특성을 기술하고 있으면, 상기 메타 데이타는 상응하는 화소 영역 처리를 반영하도록 처리된다. 다른 데이타 처리 함수들도 역시 구현될 수 있다. 그리고 나서 상기 방법(1300)은 단계(1360)으로 진행한다..
단계(1360)에서, 디코딩 및 선택적으로 처리된 전이 스트림 및 클립의 비디오 부분들이 재-인코딩된다. 게다가, 추출 또는 디코딩된 데이타 에센스, 오디오, 메타 데이타, 및/또는 단계(1352-1356)에서 처리된 비-비디오 데이타를 포함하는 다른 데이타가 적합한 포맷에 따라 재-인코딩되고 데이타 타입에 따라 삽입된다. 즉, 단계(1310-1350)에서 발생되어 선택적으로 처리된 비디오 및 비-비디오 정보는 재-인코딩되거나 전송 스트림 포맷 내로 재-삽입되어 전이 클립 또는 전이 스트림을 형성한다.
도4C와 관련하여 상기에서 기술된 본 발명의 실시예에서, 형성되는 전이 스트림은 전송 스트림 또는 다른 스트림을 포함하며, 여기서 복수의 패킷들이 비디오 및 비-비디오 데이타를 표현하기 위해 사용된다. 이러한 실시예에서, 전이 스트림 또는 전이 클립을 형성하기에 앞서, 정보를 보유하기 위해 이용되도록 제공된 패킷들 중 일부는 비-비디오 데이타를 위해 비축된다. 이러한 방식으로, 비디오 정보는 비-비디오 정보 처리에 앞서 처리되어 상기 비디오 프레임들에 인접하는 데이타 자리 홀더가 이러한 인접 비디오 프레임들과 관련된 데이타를 포함하도록 하기 위해 비디오 프레임들 사이에 산재되도록 할 수 있다. 따라서, 본 발명의 이러한 실시예에서 상기 선택적 단계(1350)는 도13의 단계(1310) 및 방법(1300)에 앞서 사용될 수도 있다. 특히, 단계(1350)에서 메모리 부분 또는 전이 스트림으로 사용되도록 의도된 복수의 패킷들은 비-비디오 사용을 위한 패킷들을 정의하는 자리 홀더 정보를 가지고 흩뿌려진다. 그리고 나서 상기 방법(1300)은 단계(1360)으로 진행한다.
박스(1365) 마다 단계(1360)는 비디오 프레임들과 관련되어 있고 선택적으로 처리된 오디오, 메타 데이타, 데이타 에센스 및/또는 다른 데이타와 같은 비-비디오 정보를 저장하기 위해 적절한 자리 홀더를 이용한다. 이러한 전이 클립이 완성되거나 또는 모든 비-비디오 정보를 처리하고 이러한 비-비디오 정보를 적합한 자리 홀더 내에 위치시키면, 사용되는 않은 홀더들은 제거되거나 다른 목적을 위해 사용된다.
이전에 언급되었듯이, 프롬-스트림 및 투-스트림의 VBV가 실질적으로 무단층 접합 동작을 제공하는 방식으로 조절되도록 하기 위해 전이 클립의 추가적인 처리가 사용된다.
본 발명은 2개의 단일 프로그램 전송 스트림, 즉 영화, 텔레비젼 쇼 또는 광고 등과 같이 단일 오디오-비디오 프로그램을 포함하는 전송 스트림을 접합 또는 연쇄시키는 것에 대해 주로 기술되었다. 하지만, 당업자는 본 발명이 다중-프로그램 전송 스트림들 사이의 무단층, 프레임 정확한 접합을 제공할 수 있음을 잘 이해할 것이다. 이러한 접합을 달성하기 위해, 위해서 기술된 방법들은 다중 프로그램전송 스트림들 내의 각 프레임에 대해 아웃-프레임, 인-프레임 및 다른 적합한 파라미터들을 결정하기 위해 적응된다.
비록 본 발명의 내용을 통합하는 다양한 실시예들이 기술되었지만, 다양한 변형된 실시예들이 적용될 수 있음을 당업자는 잘 이해할 것이다.
Claims (11)
- 이미지 프레임들을 포함하는 전송 스트림들을 처리하는 시스템에 있어서, 실질적으로 무단층(seamless) 방식으로 제1 전송 스트림에서 제2 전송 스트림으로의 전이를 위한 전이(transition) 스트림을 발생시키는 방법으로서, 상기 방법은i) 제시되는 상기 제1 전송 스트림의 최종 이미지 프레임을 나타내는 타겟 아웃-프레임을 적어도 포함하는 상기 제1 전송 스트림의 일부를 디코딩하는 단계(1220);ii) 제시되는 상기 제2 전송 스트림의 제1 이미지 프레임을 나타내는 타겟 인-프레임을 적어도 포함하는 상기 제2 전송 스트림의 일부를 디코딩하는 단계(1230);iii) 화소 영역 처리(1245)를 사용하여 상기 디코딩된 이미지 프레임들 중 적어도 하나를 처리하는 단계(1240): 및iv) 상기 타겟 아웃-프레임 및 인-프레임을 포함하는 복수의 상기 디코딩된 이미지 프레임들을 인코딩하여 상기 전이 스트림을 발생시키는 단계(1250)를 포함하는 전이 스트림 발생 방법.
- 제1항에 있어서,상기 화소 영역 처리는 모핑(morph), 패이딩(fade), 와이프(wipe), 디졸브(dissolve), 푸쉬(push), 리빌(reveal), 블랙(black)-프레임,프리즈(freeze)-프레임 및 채도-키(chroma-keying) 화소 영역 처리 중 적어도 하나를 포함하는 전이 스트림 발생 방법.
- 제1항에 있어서,상기 제1 및 제2 전송 스트림으로부터 상기 전이 스트림을 형성하는데 사용되는 상기 비디오 프레임들과 관련된 비-비디오 데이타를 추출하는 단계(1320,1340); 및상기 추출된 비-비디오 데이타를 상기 전이 스트림 내에 삽입하는 단계(1360)를 추가로 포함하는 전이 스트림 발생 방법.
- 제3항에 있어서,상기 비-비디오 데이타는 오디오 데이타, 메타(meta)-데이타, 데이타 에센스(essence), 부가(ancilliary) 데이타 및 보조(auxilliary) 데이타 중 적어도 하나를 포함하는 전이 스트림 발생 방법.
- 제3항에 있어서,비-비디오 영역 처리를 사용하여 상기 추출된 비-비디오 데이타 중 적어도 일부를 처리하는 단계(1350)를 추가로 포함하는 전이 스트림 발생 방법.
- 제4항에 있어서,상기 복수의 디코딩된 이미지를 인코딩하는 상기 단계는 상기 인코딩된 복수의 이미지 프레임들을 전송 인코딩하는 단계를 포함하고, 상기 방법은상기 전이 스트림 내의 복수의 전송 패킷들을 비축하는 단계(1315)로서, 상기 비축된 패킷들은 인코딩된 이미지 정보를 저장하는데 이용되지 않는 단계; 및상기 추출된 비-비디오 데이타를 저장하기 위해 상기 비축된 복수의 전송 패킷들 중 적어도 일부를 이용하는 단계(1365)를 추가로 포함하는 전이 스트림 발생 방법.
- 제3항에 있어서,상기 제1 전송 스트림 및 상기 제2 전송 스트림은 각각 제1 및 제2 다중 프로그램 전송 스트림들로 멀티플렉싱되고, 상기 방법은처리될 전송 스트림을 포함하는 각 다중 프로그램 전송 스트림에 대해 전이 스트림 내에 포함되는 모든 이미지 프레임들의 최대 한계(extent)를 결정하는 단계; 및각각 결정된 최대 한계를 수용하기 위해 각 다중 프로그램 전송 스트림을 디멀티플렉싱하는 단계를 추가로 포함하는 전이 스트림 발생 방법.
- 제7항에 있어서,상기 이미지 데이타 한계를 결정하는 상기 단계는 전이 스트림 내에 포함되는 이미지 프레임들과 관련된 모든 비-비디오 데이타의 최대 한계를 결정하는 단계를 포함하고, 상기 최대 한계는 이미지 데이타 한계 및 비-비디오 데이타 한계의 조합을 포함하는 전이 스트림 발생 방법.
- 제1항에 있어서,상기 제1 및 제2 전송 스트림 각각을 인덱싱하는 단계를 추가로 포함하며, 상기 인덱싱 단계는시퀀스 헤더, 픽쳐 헤더 및 미리 정의된 접합 신택스 중 적어도 하나와 관련된 패킷들을 식별하기 위해 인덱싱될 전송 스트림 계층을 분석하는 단계(1010); 및인덱싱될 상기 스트림 내의 각 프레임에 대해, 픽쳐 번호, 픽쳐 코딩 타입, 프레임 전송 패킷 번호의 시작, 프레임 전송 패킷 번호의 종료, 프리젠테이션 타임 스탬프(PTS) 및 디코딩 타임 스탬프(DTS) 중 적어도 하나를 결정하는 단계(1020)를 포함하는 전이 스트림 발생 방법.
- 제1항에 있어서,상기 프롬-스트림 및 상기 투-스트림 각각은 그와 관련된 각 비디오 버퍼링 검정기(VBV) 파라미터를 가지고 있는 전송 스트림을 포함하고, 상기 방법은상기 프롬-스트림 VBV 파라미터 및 상기 투-스트림 VBV 파라미터 사이에 차이가 존재하는지 여부를 결정하는 단계; 및상기 결정에 따라 재-인코딩 단계를 적응시키는 단계를 추가로 포함하는 전이 스트림 발생 방법.
- 제10항에 있어서,상기 적응 단계는상기 프롬-스트림 VBV 파라미터가 상기 투-스트림 VBV 파라미터에 비해 제1 임계치 레벨만큼 초과한다는 결정에 따라 레이트 제어 비트 할당을 증가시키는 단계; 및상기 투-스트림 VBV 파라미터가 상기 프롬-스트림 VBV 파라미터에 비해 제2 임계치 만큼 초과한다는 결정에 따라 상기 레이트 제어 비트 할당을 감소시키는 단계를 포함하는 전이 스트림 발생 방법.
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12927599P | 1999-04-14 | 1999-04-14 | |
US06/129,275 | 1999-04-14 | ||
US60/129,275 | 1999-04-14 | ||
US09/347,213 | 1999-07-02 | ||
US09/347,213 US6912251B1 (en) | 1998-09-25 | 1999-07-02 | Frame-accurate seamless splicing of information streams |
US09/430,631 US6909743B1 (en) | 1999-04-14 | 1999-10-29 | Method for generating and processing transition streams |
US09/430,631 | 1999-10-29 | ||
PCT/US2000/010208 WO2000062552A2 (en) | 1999-04-14 | 2000-04-14 | Method for generating and processing transition streams |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20020001828A true KR20020001828A (ko) | 2002-01-09 |
KR100725631B1 KR100725631B1 (ko) | 2007-06-08 |
Family
ID=34656615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020017013137A KR100725631B1 (ko) | 1999-04-14 | 2000-04-14 | 전이 스트림 발생 및 처리를 위한 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6909743B1 (ko) |
KR (1) | KR100725631B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100989063B1 (ko) * | 2004-10-25 | 2010-10-25 | 한국전자통신연구원 | Pmcp 확장 메타데이터, 이를 이용한 데이터 스트림생성 장치, 디지털 데이터 방송 송출시스템 및 디지털데이터 방송 송출방법 |
Families Citing this family (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5619501A (en) * | 1994-04-22 | 1997-04-08 | Thomson Consumer Electronics, Inc. | Conditional access filter as for a packet video signal inverse transport system |
US7096481B1 (en) * | 2000-01-04 | 2006-08-22 | Emc Corporation | Preparation of metadata for splicing of encoded MPEG video and audio |
EP1355492B1 (en) | 2001-01-19 | 2011-11-16 | Panasonic Corporation | Reproducing apparatus and reproducing method |
AU2003201103A1 (en) | 2002-02-01 | 2003-09-02 | Koninklijke Philips Electronics N.V. | An apparatus and a record carrier for, and a method of recording a sequence of video data signals |
US8214741B2 (en) | 2002-03-19 | 2012-07-03 | Sharp Laboratories Of America, Inc. | Synchronization of video and data |
US20030204614A1 (en) * | 2002-04-29 | 2003-10-30 | The Boeing Company | Method and apparatus for the display and distribution of cinema grade content in real time |
US20030206596A1 (en) * | 2002-05-03 | 2003-11-06 | David Carver | Multimedia content assembly |
KR100865034B1 (ko) * | 2002-07-18 | 2008-10-23 | 엘지전자 주식회사 | 모션 벡터 예측 방법 |
US7266147B2 (en) * | 2003-03-31 | 2007-09-04 | Sharp Laboratories Of America, Inc. | Hypothetical reference decoder |
US8966551B2 (en) | 2007-11-01 | 2015-02-24 | Cisco Technology, Inc. | Locating points of interest using references to media frames within a packet flow |
US9197857B2 (en) * | 2004-09-24 | 2015-11-24 | Cisco Technology, Inc. | IP-based stream splicing with content-specific splice points |
US8437392B2 (en) * | 2005-04-15 | 2013-05-07 | Apple Inc. | Selective reencoding for GOP conformity |
US20060233237A1 (en) * | 2005-04-15 | 2006-10-19 | Apple Computer, Inc. | Single pass constrained constant bit-rate encoding |
CA2613998C (en) * | 2005-06-08 | 2016-01-05 | Thomson Licensing | Method, apparatus and system for alternate image/video insertion |
KR100728237B1 (ko) | 2005-07-12 | 2007-06-13 | 한국전자통신연구원 | 지상파 디지털 멀티미디어 방송 스트림 변환 장치 및 그방법과 그를 이용한 지상파 dmb 전송 장치 및 그 방법 |
US8726325B2 (en) * | 2005-08-08 | 2014-05-13 | Telvue Corporation | Method and apparatus for scheduling delivery of video and graphics |
US8832728B2 (en) * | 2005-08-24 | 2014-09-09 | Arris Enterprises, Inc. | Logical content ad insertion |
KR101100207B1 (ko) * | 2005-11-08 | 2011-12-28 | 엘지전자 주식회사 | 디지털 방송 시스템 및 처리 방법 |
US7333865B1 (en) * | 2006-01-03 | 2008-02-19 | Yesvideo, Inc. | Aligning data streams |
WO2007091779A1 (en) | 2006-02-10 | 2007-08-16 | Lg Electronics Inc. | Digital broadcasting receiver and method of processing data |
WO2007126196A1 (en) | 2006-04-29 | 2007-11-08 | Lg Electronics Inc. | Digital broadcasting system and method of processing data |
WO2007136166A1 (en) | 2006-05-23 | 2007-11-29 | Lg Electronics Inc. | Digital broadcasting system and method of processing data |
US7873104B2 (en) | 2006-10-12 | 2011-01-18 | Lg Electronics Inc. | Digital television transmitting system and receiving system and method of processing broadcasting data |
US20090180546A1 (en) | 2008-01-09 | 2009-07-16 | Rodriguez Arturo A | Assistance for processing pictures in concatenated video streams |
US8873932B2 (en) | 2007-12-11 | 2014-10-28 | Cisco Technology, Inc. | Inferential processing to ascertain plural levels of picture interdependencies |
US8416859B2 (en) | 2006-11-13 | 2013-04-09 | Cisco Technology, Inc. | Signalling and extraction in compressed video of pictures belonging to interdependency tiers |
US8875199B2 (en) * | 2006-11-13 | 2014-10-28 | Cisco Technology, Inc. | Indicating picture usefulness for playback optimization |
KR101285887B1 (ko) | 2007-03-26 | 2013-07-11 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
KR101253185B1 (ko) | 2007-03-26 | 2013-04-10 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
KR101285888B1 (ko) | 2007-03-30 | 2013-07-11 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
US8433973B2 (en) * | 2007-07-04 | 2013-04-30 | Lg Electronics Inc. | Digital broadcasting system and method of processing data |
WO2009005326A2 (en) | 2007-07-04 | 2009-01-08 | Lg Electronics Inc. | Digital broadcasting system and method of processing data |
KR20090012180A (ko) | 2007-07-28 | 2009-02-02 | 엘지전자 주식회사 | 디지털 방송 시스템 및 데이터 처리 방법 |
US8958486B2 (en) | 2007-07-31 | 2015-02-17 | Cisco Technology, Inc. | Simultaneous processing of media and redundancy streams for mitigating impairments |
US8804845B2 (en) | 2007-07-31 | 2014-08-12 | Cisco Technology, Inc. | Non-enhancing media redundancy coding for mitigating transmission impairments |
EP2191644A4 (en) | 2007-08-24 | 2015-01-07 | Lg Electronics Inc | DIGITAL BROADCASTING SYSTEM AND METHOD OF PROCESSING DATA IN A DIGITAL BROADCASTING SYSTEM |
US8270488B2 (en) * | 2007-10-15 | 2012-09-18 | Cisco Technology, Inc. | Using black detection to improve video splicing |
US8416858B2 (en) * | 2008-02-29 | 2013-04-09 | Cisco Technology, Inc. | Signalling picture encoding schemes and associated picture properties |
US9955122B2 (en) * | 2008-04-11 | 2018-04-24 | Mobitv, Inc. | Dynamic advertisement stream replacement |
WO2009152450A1 (en) | 2008-06-12 | 2009-12-17 | Cisco Technology, Inc. | Picture interdependencies signals in context of mmco to assist stream manipulation |
US8971402B2 (en) | 2008-06-17 | 2015-03-03 | Cisco Technology, Inc. | Processing of impaired and incomplete multi-latticed video streams |
US8705631B2 (en) | 2008-06-17 | 2014-04-22 | Cisco Technology, Inc. | Time-shifted transport of multi-latticed video for resiliency from burst-error effects |
US8699578B2 (en) | 2008-06-17 | 2014-04-15 | Cisco Technology, Inc. | Methods and systems for processing multi-latticed video streams |
US8775566B2 (en) * | 2008-06-21 | 2014-07-08 | Microsoft Corporation | File format for media distribution and presentation |
US8904426B2 (en) * | 2008-06-30 | 2014-12-02 | Rgb Networks, Inc. | Preconditioning ad content for digital program insertion |
EP2356812B1 (en) | 2008-11-12 | 2015-06-10 | Cisco Technology, Inc. | Processing of a video program having plural processed representations of a single video signal for reconstruction and output |
US9060187B2 (en) * | 2008-12-22 | 2015-06-16 | Netflix, Inc. | Bit rate stream switching |
US8326131B2 (en) * | 2009-02-20 | 2012-12-04 | Cisco Technology, Inc. | Signalling of decodable sub-sequences |
US20100218232A1 (en) * | 2009-02-25 | 2010-08-26 | Cisco Technology, Inc. | Signalling of auxiliary information that assists processing of video according to various formats |
US8782261B1 (en) | 2009-04-03 | 2014-07-15 | Cisco Technology, Inc. | System and method for authorization of segment boundary notifications |
US8949883B2 (en) * | 2009-05-12 | 2015-02-03 | Cisco Technology, Inc. | Signalling buffer characteristics for splicing operations of video streams |
US8279926B2 (en) | 2009-06-18 | 2012-10-02 | Cisco Technology, Inc. | Dynamic streaming with latticed representations of video |
US20110096846A1 (en) * | 2009-10-26 | 2011-04-28 | Santhana Chari | Advertisement insertion for video |
US9196305B2 (en) | 2011-01-28 | 2015-11-24 | Apple Inc. | Smart transitions |
EP2560170A1 (en) * | 2011-08-15 | 2013-02-20 | Koninklijke Philips Electronics N.V. | Variable audiovisual content for patient distraction |
KR20140070896A (ko) * | 2012-11-29 | 2014-06-11 | 삼성전자주식회사 | 비디오 스트리밍 방법 및 그 전자 장치 |
US9900629B2 (en) * | 2013-03-13 | 2018-02-20 | Apple Inc. | Codec techniques for fast switching with intermediate sequence |
US9729919B2 (en) * | 2013-06-13 | 2017-08-08 | Microsoft Technology Licensing, Llc | Remultiplexing bitstreams of encoded video for video playback |
TWM487509U (zh) | 2013-06-19 | 2014-10-01 | 杜比實驗室特許公司 | 音訊處理設備及電子裝置 |
US10095468B2 (en) | 2013-09-12 | 2018-10-09 | Dolby Laboratories Licensing Corporation | Dynamic range control for a wide variety of playback environments |
US9723377B2 (en) * | 2014-04-28 | 2017-08-01 | Comcast Cable Communications, Llc | Video management |
KR20150128151A (ko) * | 2014-05-08 | 2015-11-18 | 삼성전자주식회사 | 비디오 스트리밍 방법 및 이를 지원하는 전자 장치 |
WO2018088784A1 (en) * | 2016-11-09 | 2018-05-17 | Samsung Electronics Co., Ltd. | Electronic apparatus and operating method thereof |
KR101919014B1 (ko) * | 2016-11-09 | 2018-11-15 | 삼성전자주식회사 | 전자 장치 및 그 동작방법 |
KR102651127B1 (ko) | 2016-12-15 | 2024-03-26 | 삼성전자주식회사 | 처리 장치 및 데이터를 처리하는 방법 |
US10956136B2 (en) * | 2018-10-16 | 2021-03-23 | Ebay, Inc. | User interface resource file optimization |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5659539A (en) * | 1995-07-14 | 1997-08-19 | Oracle Corporation | Method and apparatus for frame accurate access of digital audio-visual information |
US5859660A (en) * | 1996-02-29 | 1999-01-12 | Perkins; Michael G. | Non-seamless splicing of audio-video transport streams |
US6137834A (en) * | 1996-05-29 | 2000-10-24 | Sarnoff Corporation | Method and apparatus for splicing compressed information streams |
US5917830A (en) * | 1996-10-18 | 1999-06-29 | General Instrument Corporation | Splicing compressed packetized digital video streams |
US6038000A (en) * | 1997-05-28 | 2000-03-14 | Sarnoff Corporation | Information stream syntax for indicating the presence of a splice point |
US5982436A (en) * | 1997-03-28 | 1999-11-09 | Philips Electronics North America Corp. | Method for seamless splicing in a video encoder |
US6104441A (en) * | 1998-04-29 | 2000-08-15 | Hewlett Packard Company | System for editing compressed image sequences |
-
1999
- 1999-10-29 US US09/430,631 patent/US6909743B1/en not_active Expired - Lifetime
-
2000
- 2000-04-14 KR KR1020017013137A patent/KR100725631B1/ko active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100989063B1 (ko) * | 2004-10-25 | 2010-10-25 | 한국전자통신연구원 | Pmcp 확장 메타데이터, 이를 이용한 데이터 스트림생성 장치, 디지털 데이터 방송 송출시스템 및 디지털데이터 방송 송출방법 |
US7908633B2 (en) | 2004-10-25 | 2011-03-15 | Electronics And Telecommunications Research Institute | PMCP extension metadata, data stream generating device, digital data broadcasting emission system and digital data broadcasting emission method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR100725631B1 (ko) | 2007-06-08 |
US6909743B1 (en) | 2005-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100725631B1 (ko) | 전이 스트림 발생 및 처리를 위한 방법 | |
JP4503858B2 (ja) | 遷移ストリームの生成/処理方法 | |
US7254175B2 (en) | Frame-accurate seamless splicing of information streams | |
US6912251B1 (en) | Frame-accurate seamless splicing of information streams | |
EP1095521B1 (en) | Method and apparatus for splicing | |
US8743906B2 (en) | Scalable seamless digital video stream splicing | |
US6806909B1 (en) | Seamless splicing of MPEG-2 multimedia data streams | |
US7068719B2 (en) | Splicing of digital video transport streams | |
US7477692B2 (en) | Video encoding for seamless splicing between encoded video streams | |
US6907081B2 (en) | MPEG encoder control protocol for on-line encoding and MPEG data storage | |
US20060093045A1 (en) | Method and apparatus for splicing | |
US20030206596A1 (en) | Multimedia content assembly | |
US8997146B1 (en) | Systems and methods for processing a traffic log having an optional-promotion log entry | |
US20170048564A1 (en) | Digital media splicing system and method | |
EP3360334B1 (en) | Digital media splicing system and method | |
Ward et al. | Seamless splicing for MPEG-2 transport stream video servers | |
US9219930B1 (en) | Method and system for timing media stream modifications | |
KR100517794B1 (ko) | 압축된정보스트림을스플라이싱하는방법및장치 | |
WO2000062551A1 (en) | Frame-accurate seamless splicing of information streams | |
JPH11177921A (ja) | ディジタルデータ編集方法、ディジタルデータ編集装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
N231 | Notification of change of applicant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130509 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20140514 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20150512 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20160513 Year of fee payment: 10 |