KR20010007175A - Integrated video processing system having multiple video sources and implementing picture-in-picture with on-screen display graphics - Google Patents
Integrated video processing system having multiple video sources and implementing picture-in-picture with on-screen display graphics Download PDFInfo
- Publication number
- KR20010007175A KR20010007175A KR1020000030051A KR20000030051A KR20010007175A KR 20010007175 A KR20010007175 A KR 20010007175A KR 1020000030051 A KR1020000030051 A KR 1020000030051A KR 20000030051 A KR20000030051 A KR 20000030051A KR 20010007175 A KR20010007175 A KR 20010007175A
- Authority
- KR
- South Korea
- Prior art keywords
- video signal
- video
- digital video
- display
- screen display
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/445—Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
- H04N5/45—Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Circuits (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
본 출원은 "MPEG Video Decoder With Integrated Scaling And Display Functions"라는 발명의 명칭으로 캄피사노 등(Campisano et al.)에 의해 공동 양도된 미국의 동시 계속 출원 제 09/237,601호의 일부 계속 출원이며, 본 명세서에서 그 내용을 참조하고 있다.This application is a continuation-in-part of co-pending U.S. Serial No. 09 / 237,601, co-assigned by Campisano et al. Entitled " MPEG Video Decoder With Integrated Scaling And Display Functions " And the contents thereof are referred to.
또한 본 출원은 본 출원의 양수인에게 양도된 다음의 미국 특허 출원 및 특허증의 요지와 관련된 요지를 포함한다. 이하에 기재된 출원들 각각은 본원에서 참조하고 있다.This application also incorporates the subject matter of the following U.S. patent application and patent application assigned to the assignee of the present application. Each of the applications described below are incorporated herein by reference.
- 본 원과 동시 출원된 미국 특허 출원 번호 제 호(대리인 사건 관리 번호 제 EN998086호) : 체니 등(Cheney et al.)에 의한 "Programmable External Graphics/Video Port For Digital Video Decode System Chip"- U.S. Patent Application No. (Attorney Docket No. EN998086), co-filed with the present application: "Programmable External Graphics / Video Port For Digital Video Decode System Chip" by Cheney et al.
- 미국 특허 출원 번호 제 09/237,600호 : 디 루세키 등(D. Hrusecky et al.)에 의한 "Anti-Flicker Logic For MPEG Video Decoder With Integrated Scaling And Display Functions"US Patent Application Serial No. 09 / 237,600 entitled " Anti-Flicker Logic For MPEG Video Decoder With Integrated Scaling And Display Functions "by D. Hrusecky et al.
- 미국 특허 출원 번호 제 09/094,753호 : 루세키 등(Hrusecky et al.)에 의한 "Color Mapped And Direct Color OSD Region Processor With Support For 4:2:2 Profile Decode Function"US Patent Application Serial No. 09 / 094,753, entitled " Color Mapped And Direct Color OSD Region Processor With Support For 4: 2: 2 Profile Decode Function "by Hrusecky et al.
- 미국 특허 번호 제 5, 576,765호 : 체니 등(Cheney et al.)에 의한 "Video Decoder"- U.S. Patent No. 5,576,665: "Video Decoder" by Cheney et al.
본 발명은 전반적으로 비디오 신호 처리에 관한 것으로, 보다 구체적으로는 온-스크린 디스플레이 그래픽스(on-screen display graphics)의 겹침(overlaying)과 더불어, 혹은 온-스크린 디스플레이 그래픽스의 겹침 없이, 압축 디지털 비디오 신호와 비압축 아날로그 비디오 신호를 수신하여 동시화면 디스플레이(picture-in-picture display)로 병합할 수 있는 통합 디지털 비디오 처리 시스템(integrated digital video processing system)에 관한 것이다. 그 일 예로서, 통합 디지털 비디오 처리 시스템은 디지털 비디오 셋톱 박스(STB;digital video set-top box)나 디지털 비디오 디스크(DVD;digital video disc) 플레이어로 구현될 수 있다.The present invention relates generally to video signal processing and, more particularly, to a method and apparatus for processing compressed digital video signals, with or without overlaying of on-screen display graphics, And an integrated digital video processing system capable of receiving uncompressed analog video signals and merging them into a picture-in-picture display. As an example, the integrated digital video processing system may be implemented as a digital video set-top box (STB) or a digital video disc (DVD) player.
오늘날에는 단일 시스템 칩에 다중 기능들이 통합되는 것이 일반적이다. 예를 들면, 셋톱 박스나 디지털 비디오 디스크 플레이어용 디지털 비디오 시스템 칩같은 통합 디지털 비디오 처리 시스템 칩의 시장성을 향상시키기 위해, 외부 입력이나 기능들이 통합 시스템 칩에 접속될 수 있게 하는 것이 바람직할 수 도 있다.Today, it is common to integrate multiple functions into a single system chip. For example, in order to improve the marketability of integrated digital video processing system chips such as set-top boxes or digital video system chips for digital video disc players, it may be desirable to allow external inputs or functions to be connected to the integrated system chip .
일반적으로, 동시화면 텔레비전 시스템(picture-in-picture television system)은 주 스크린(main screen)과 정해진 몇 개의 부 스크린(sub-screen)으로 어떤 화상을 디스플레이하는데, 이 때의 부 스크린은 주 스크린상의 사전 정의된 위치에 배열되며 서로 동일한 영상원(image source)을 갖고 있다. 관습적으로, 텔레비전 시스템은 동시화면 모듈을 포함하거나 포함하지 않는데, 어느 경우이든지 텔레비전 시스템은 비 동시화면 시스템(non-picture-in-picture system)을 포함한다. 텔레비전 시스템의 동시화면 특징은 전형적으로 송신측 텔레비전 시스템(high-end television system)과 수신측 텔레비전 시스템(low-end television system)이 서로 상이하다. 동시화면을 제공하는 시스템은 종종 동시화면을 갖지 않는 그와 유사한 텔레비전보다 상당한 추가적인 부하를 수반한다.In general, a picture-in-picture television system displays a picture with a main screen and a number of sub-screens, wherein the sub-screen is displayed on the main screen They are arranged in predefined locations and have the same image source. Conventionally, a television system includes or does not include a co-screen module, in which case the television system includes a non-picture-in-picture system. The co-screen feature of a television system is typically different between a high-end television system and a low-end television system. A system that provides a co-screen often involves a considerable additional load than a similar television that does not have a co-screen.
추가되는 생산비를 최소화하면서 예컨대 디지털 비디오 디코드 셋톱 박스나 디지털 비디오 디스크 플레이어같은 통합 디지털 비디오 시스템에 동시화면 특징을 추가함으로써, 다중 화상(multiple pictures)을 동시에 디스플레이 가능한 비 동시화면 텔레비전 시스템을 제공하는 것이 상업적으로 바람직함을 인지할 수 있을 것이다.It would be desirable to provide an unscreened television system capable of simultaneously displaying multiple pictures by adding a co-screen feature to an integrated digital video system, such as a digital video decode set-top box or a digital video disk player, As shown in FIG.
요약하면, 한 양상으로서, 본 발명은 비 동시화면 텔레비전 시스템에 제공(presentation)하기 위한 다중 스크린 디스플레이(multi-screen display)를 형성하는 방법을 포함한다. 이 방법은 압축 디지털 비디오 신호(compressed digital video signal)를 수신 및 디코딩하여, 압축 해제된 디지털 비디오 신호(decompressed digital video signal)를 발생시키는 단계와, 압축 해제된 비디오 신호를 수신하는 단계와, 압축 해제된 디지털 비디오 신호와 비압축 비디오 신호(uncompressed video signal)를 병합하여, 텔레비전 시스템을 위한 다중 스크린 디스플레이 신호를 발생시키는 단계를 포함함으로써, 다중 스크린을 동시에 디스플레이 가능한 비 동시화면 텔레비전 시스템을 제공한다.In summary, in one aspect, the invention includes a method of forming a multi-screen display for presentation to an unscreened television system. The method includes receiving and decoding a compressed digital video signal to generate a decompressed digital video signal, receiving the decompressed video signal, And combining the digital video signal and the uncompressed video signal to generate a multi-screen display signal for the television system, thereby providing an unscreened television system capable of simultaneously displaying multiple screens.
다른 양상으로서, 본 원은 아날로그 비디오 신호를 처리하는 방법을 제공한다. 이 방법은 디지털 비디오 처리 시스템에 대한 입력용으로 아날로그 비디오 신호를 디지털화(digitizing)하는 단계와, 디지털 비디오 처리 시스템내에서 디지털화된 비디오 신호를 온-스크린 디스플레이(OSD) 그래픽스로 조합(blending)하는 단계를 포함한다.In another aspect, the present disclosure provides a method of processing an analog video signal. The method includes digitizing an analog video signal for input to a digital video processing system, and blending the digitized video signal with on-screen display (OSD) graphics in a digital video processing system .
또 다른 양상으로, 비 동시화면 텔레비전 시스템에 대해 다중 스크린 디스플레이를 형성하는 시스템이 제공된다. 이 시스템은 제 1 비디오 공급원으로부터의 압축 디지털 비디오 신호를 디코딩하여, 압축 해제된 디지털 비디오 신호를 발생시키는 비디오 디코더를 포함한다. 또한 이 시스템의 비디오 디코더는 제 2 비디오 공급원으로부터의 비압축 비디오 신호를 수신하기 위한 입력도 포함한다. 비디오 디코더는 압축 해제된 디지털 비디오 신호와 비압축 비디오 신호를 병합하여, 텔레비전 시스템을 위한 다중 스크린 디스플레이를 발생시키도록 되어 있고, 따라서 다중 스크린을 동시에 디스플레이 가능한 비 동시화면 텔레비전 시스템이 제공된다.In another aspect, a system is provided for forming a multi-screen display for an asynchronous screen television system. The system includes a video decoder that decodes a compressed digital video signal from a first video source to generate a decompressed digital video signal. The video decoder of the system also includes an input for receiving an uncompressed video signal from a second video source. The video decoder is adapted to combine the decompressed digital video signal and the uncompressed video signal to generate a multi-screen display for the television system, thus providing an unscreened television system capable of simultaneously displaying multiple screens.
또다른 양상으로서, 아날로그 비디오 신호를 처리하는 시스템이 제공된다. 이 시스템은 디지털 비디오 처리 시스템(digital video processing system)과 디지털 다중 규격 디코더(digital multi-standard decoder)를 포함한다. 디지털 다중 규격 디코더는 디지털 비디오 처리 시스템으로의 입력을 위해 아날로그 비디오 신호를 디지털화한다. 디지털 비디오 처리 시스템은 디지털화된 비디오 신호를 온-스크린 디스플레이(OSD) 그래픽스로 조합하여, 조합된 비디오 신호를 출력하도록 되어 있다.In another aspect, a system for processing an analog video signal is provided. The system includes a digital video processing system and a digital multi-standard decoder. A digital multi-standard decoder digitizes an analog video signal for input to a digital video processing system. The digital video processing system is adapted to combine digitized video signals with on-screen display (OSD) graphics and output the combined video signals.
또다른 양상으로서, 본 발명은 비 동시화면 텔레비전 시스템을 위한 다중 스크린 디스플레이를 형성하기 위해 컴퓨터 판독 가능 프로그램 코드 수단(computer readable program code means)을 내부에 구비하고 있는 컴퓨터 이용 가능 매체(computer usable medium)를 갖는 컴퓨터 프로그램 제품(computer program product)을 포함하는 제조물(article of manufacture)을 제공한다. 이 컴퓨터 프로그램 제품의 컴퓨터 판독 가능 프로그램 코드 수단은, 컴퓨터가 압축 디지털 비디오 신호의 디코딩을 실행하여 압축 해제 디지털 비디오 신호를 발생하도록 만드는 컴퓨터 판독 가능 프로그램 코드 수단과, 컴퓨터가 비압축 비디오 신호의 수신을 실행하도록 만드는 컴퓨터 판독 가능 프로그램 코드 수단과, 컴퓨터가 압축 해제된 디지털 비디오 신호와 비압축 비디오 신호의 병합을 실행하여 텔레비전 시스템을 위한 다중 스크린 디스플레이를 발생하도록 만드는 컴퓨터 판독 가능 프로그램 코드 수단을 포함함으로써, 다중 화상을 동시에 디스플레이 가능한 비 동시화면 텔레비전 시스템을 제공한다.In yet another aspect, the present invention provides a computer usable medium having computer readable program code means therein for forming a multi-screen display for an asynchronous screen television system, The article of manufacture comprising a computer program product having a computer program product. The computer program product code means of the computer program product comprises computer readable program code means for causing a computer to perform decoding of a compressed digital video signal to generate a decompressed digital video signal, Computer readable program code means for causing the computer to perform the merging of the decompressed digital video signal and the uncompressed video signal to cause a multi-screen display for the television system to occur, A non-simultaneous screen television system capable of simultaneously displaying multiple images is provided.
또다른 양상으로, 본 발명은 아날로그 비디오 신호를 처리하기 위해 컴퓨터 판독 가능 프로그램 코드 수단을 내부에 구비하는 컴퓨터 이용 가능 매체를 갖는 컴퓨터 프로그램 제품을 포함하는 제조물을 포함한다. 이 컴퓨터 프로그램 제품내의 컴퓨터 판독 가능 프로그램 코드 수단은, 컴퓨터가 아날로그 비디오 신호의 디지털화를 실행하도록 만드는 컴퓨터 판독 가능 프로그램 코드 수단과, 텔레비전 시스템에 제공(presentation)하기 위해 컴퓨터가 디지털화된 비디오 신호를 온-스크린 디스플레이(OSD) 그래픽스로 조합하는 것을 실행하도록 만드는 컴퓨터 판독 가능 프로그램 코드 수단을 포함한다.In another aspect, the invention includes an article of manufacture comprising a computer program product having a computer usable medium having computer readable program code means therein for processing analog video signals. The computer readable program code means in the computer program product comprises computer readable program code means for causing a computer to perform digitization of an analog video signal and means for causing the computer to convert the digitized video signal to on- Screen display (OSD) graphics. ≪ RTI ID = 0.0 > [0002] < / RTI >
다시 말해서, 본 원은, 일 실시예로서, 동시화면 능력이 없는 텔레비전 시스템을 위해, 압축 디지털 비디오 신호와 비압축 아날로그 비디오 신호를 수신하여 동시화면 디스플레이로 병합할 수 있는 통합 디지털 비디오 처리 시스템을 제공한다. 이것을 개선한 것으로서, 통합 디지털 비디오 처리 시스템에 의해 발생된 동시화면 디스플레이가 온-스크린 디스플레이(OSD) 그래픽스와 겹쳐지는 것도 가능하다. 선택적인 실시예로서, 아날로그 비디오 신호가 수신되어, 디스플레이를 위해 텔레비전 시스템에 제공(presentation)되기 전에 OSD 그래픽스와 겹쳐질 수 있는 통합 디지털 비디오 처리 시스템이 제공된다.In other words, the present invention provides, as an embodiment, an integrated digital video processing system capable of receiving compressed digital video signals and uncompressed analog video signals and incorporating them into a co-screen display, for a television system with no co-picture capability do. As an improvement thereof, it is also possible that the co-screen display generated by the integrated digital video processing system overlaps with the on-screen display (OSD) graphics. As an alternative embodiment, an integrated digital video processing system is provided in which an analog video signal is received and can be overlapped with OSD graphics before being presented to the television system for display.
통합 디지털 비디오 처리 시스템은 일 예로서 디지털 비디오 셋톱 박스(STB)나 디지털 비디오 디스크(DVD) 플레이어로 구현될 수 있다. 본 발명에 따르면, 생산비의 추가는 아주 최소화하면서 OSD 그래픽스 겹침 능력뿐만 아니라 동시화면 능력도 셋톱 박스 콘트롤러 칩을 통해 부가될 수 있다. 최종 동시화면의 일부를 형성하는 비압축 아날로그 비디오는 비디오 카세트 레코더, 캠코더, 텔레비전 카메라, 레이저 디스크, DVD 플레이어, TV 출력을 갖는 컴퓨터, 케이블 텔레비전 신호, 위상 아날로그 채널 또는 튜너 접속 안테너를 포함한 다수의 공급원중 어떤 것으로부터 유래될 수 있다. 유리한 것은, 본 발명의 일 실시예로서, 비압축 비디오와 압축 해제된 비디오의 혼합/조합이 비디오 디코더와 관련한 비디오 처리의 최종 단계에서 수행되므로, 비디오 압축 해제 및 온-스크린 디스플레이를 제공하는데 필요한 로직은 비디오 압축 해제, 디스플레이 리프레시(refresh) 및 비디오 다운스케일링(downscaling)을 자유롭게 계속한다.An integrated digital video processing system may be implemented as a digital video set top box (STB) or a digital video disk (DVD) player as an example. According to the present invention, besides minimizing the addition of the production cost, the OSD graphics overlapping capability as well as the simultaneous display capability can be added through the set-top box controller chip. Uncompressed analog video forming part of the final coincidental picture may be transmitted to a number of sources including video cassette recorders, camcorders, television cameras, laser discs, DVD players, computers with TV outputs, cable television signals, phase analog channels, ≪ / RTI > Advantageously, as one embodiment of the present invention, since the mixing / combining of uncompressed video and decompressed video is performed in the final stages of video processing with respect to the video decoder, the logic necessary to provide video decompression and on- Continues to freely release video decompression, display refresh, and video downscaling.
도 1은 비디오 디코더 유닛의 일반적인 블록도,1 is a general block diagram of a video decoder unit,
도 2는 본 발명의 원리에 따라 온-스크린 디스플레이(OSD) 그래픽스로 동시화면을 구현하는 비디오 디코드 시스템의 블록도,Figure 2 is a block diagram of a video decoding system that implements a co-screen with on-screen display (OSD) graphics in accordance with the principles of the present invention;
도 3은 본 발명의 원리에 따라 구현된 다중 스크린 디스플레이(즉, 동시화면)를 예시한 블록도,Figure 3 is a block diagram illustrating a multiple screen display (i.e., a piconet) implemented in accordance with the principles of the present invention;
도 4는 통합 시스템 내부에 병합하기 위한 비디오 신호를 입력하는 제 1 디지털 비디오 공급원과 제 2 아날로그 비디오 공급원을 갖는, 본 발명의 원리에 따른 통합 비디오 디코드 시스템의 일 실시예의 블록도,4 is a block diagram of one embodiment of an integrated video decode system in accordance with the principles of the present invention having a first digital video source and a second analog video source for inputting video signals for merging into an integrated system,
도 5는 본 발명의 원리에 따른, 온-스크린 디스플레이(OSD) 그래픽스로 최종 비디오를 조합하는 능력과 함께, 압축 해제된 디지털 비디오와 비압축 아날로그 비디오를 다중 스크린 디스플레이로 병합하는 한 가지 기법을 상세히 도시한 도면,5 illustrates in detail one technique for merging decompressed digital video and uncompressed analog video into a multi-screen display, with the ability to combine the final video with on-screen display (OSD) graphics, in accordance with the principles of the present invention The drawings,
도 6은 본 발명의 원리에 따른 비디오 디코딩 시스템의 상세한 예시도,Figure 6 is a detailed illustration of a video decoding system in accordance with the principles of the present invention,
도 6a는 본 발명에 따른 정규 모드 및 비디오 스케일링 모드에서의 프레임 버퍼 세분을 예시하는 도면,6A is a diagram illustrating frame buffer subdivisions in normal mode and video scaling mode according to the present invention,
도 7a는 본 발명의 원리에 따른 비디오 스케일링 모드에서의 지연된 디스플레이 타이밍을 보여주는 타이밍도,Figure 7A is a timing diagram showing delayed display timings in a video scaling mode in accordance with the principles of the present invention;
도 7b는 본 발명에 따른 도 6a의 소형 프레임 버퍼들(2, 4, 6)의 스위칭의 일 예를 예시하는 도면,FIG. 7B is a diagram illustrating an example of switching of the small frame buffers 2, 4, 6 of FIG. 6A according to the present invention,
도 8은 도 6의 비디오 디코드 시스템과 관련하여 본 발명의 원리에 따른 데시메이션 유닛(decimation unit)의 일 실시예의 블록도,Figure 8 is a block diagram of one embodiment of a decimation unit in accordance with the principles of the present invention in connection with the video decoding system of Figure 6;
도 9는 도 6의 비디오 디코드 시스템과 관련하여 본 발명의 원리에 따른 디스플레이 모드 스위치 로직의 일 실시예의 블록도,Figure 9 is a block diagram of one embodiment of display mode switch logic in accordance with the principles of the present invention in connection with the video decoding system of Figure 6;
도 10은 본 발명의 원리에 따라 도 9의 동기 발생기(sync generator)에 의해 구현되는 처리의 일 실시예의 흐름도.Figure 10 is a flow diagram of one embodiment of a process implemented by the sync generator of Figure 9 in accordance with the principles of the present invention.
도면의 주요 부분에 대한 부호의 설명DESCRIPTION OF THE REFERENCE NUMERALS
40 : 디코드 시스템 52 : 메모리 콘트롤러40: Decode system 52: Memory controller
54 : 비디오 디코더 58 : 디스플레이 및 OSD 인터페이스54: Video decoder 58: Display and OSD interface
59 : 디지털 비디오 엔코더/디지털-아날로그 변환기59: Digital Video Encoder / Digital-to-Analog Converter
100 : 통합 디지털 비디오 디코드 시스템100: Integrated Digital Video Decode System
105 : 디지털 다중 규격 디코더(DMSD)105: Digital multi-standard decoder (DMSD)
106 : 비디오 디코더//디스플레이 및 OSD 로직106: Video decoder // Display and OSD logic
107 : 내부 디지털 비디오 엔코더(DENC) 매크로107: Internal Digital Video Encoder (DENC) macro
202 : 2:1 다중화기 204 : OSD 조합 로직202: 2: 1 multiplexer 204: OSD combination logic
653 : SDRAM 프레임 버퍼 기억장치 678 : 움직임 보상기653: SDRAM frame buffer memory 678: motion compensator
682 : 데시메이션 유닛 692 : 디스플레이 페치 유닛682: Decimation unit 692: Display fetch unit
694 : 업샘플 로직694: Up sample logic
696 : 디스플레이 모드 스위치 로직696: Display mode switch logic
본 발명의 전술한 목적, 이점 및 특징들과 그 밖의 것들은 다음의 본 발명의 특정한 바람직한 실시예의 상세한 설명을 첨부 도면과 연계하여 고려할 때 더 쉽게 이해될 것이다.The foregoing objects, advantages and features of the present invention and others will become more readily apparent when the following detailed description of certain preferred embodiments of the invention is taken in conjunction with the accompanying drawings.
개괄적으로 말해서, 본 원은 비 동시화면 텔레비전 시스템에 동시화면 능력을 제공하는 예컨대 디지털 비디오 셋톱 박스(STB)나 디지털 비디오 디스크(DVD) 플레이어같은 통합 디지털 비디오 디코드 시스템을 제공한다. 더 나아가, 본 원은 온-스크린 그래픽스를, 예컨대 케이블(cable), 위성, 비디오 카세트 레코더 혹은 외부 튜너로부터의 비압축 아날로그 입력 신호와 조합할 수 있는 통합 디지털 비디오 처리 시스템을 제공한다. 또한, 이 통합 디지털 비디오 처리 시스템은 OSD 그래픽스를 자신이 발생한 복합 다중 스크린 디스플레이(composite multi-screen display)와도 조합할 수 있다.Broadly speaking, the present invention provides an integrated digital video decode system, such as a digital video set-top box (STB) or a digital video disk (DVD) player, for example, which provides co-picture capability to an unscreened television system. Further, the present disclosure provides an integrated digital video processing system capable of combining on-screen graphics with uncompressed analog input signals from, for example, a cable, satellite, video cassette recorder or external tuner. The integrated digital video processing system can also combine OSD graphics with its composite multi-screen display.
아날로그(또는 2차 디지털) 비디오 스트림의 입력은 예를 들어 외부 그래픽스/비디오(EGV) 포트를 통해서 가능하며, 이러한 EVG 포트는 발명의 명칭이 "Programmable External Graphics/Video Port For Digital Video Decode System Chip"인 전술한 공동 출원의 특허 출원에 기술되어 있다. 요약하면, EVG 포트는 비디오 디코더와 내부 디지털 디스플레이 발생기 회로를 갖는 비디오 디코드 시스템을 위한 프로그램 가능 쌍방향 포트로 이루어진다. EVG 포트는 비디오 디코드 시스템에 대해 정해진 개수의 신호 입력/출력(I/O)핀을 채용하는 한편, 칩의 비디오 디코더나 내부 디지털 디스플레이 발생기 회로에 대한 외부 그래픽스 콘트롤러, 외부 디지털 디스플레이 발생기 회로 및 외부 디지털 다중 규격 디코더의 구성에 대해서는 다수의 연결 구성을 제공한다. EVG 포트는 화소 데이터 신호 및 대응하는 동기 신호를 포함하고, 다수의 입력/출력 신호를 병렬로 수용하는 수신기/구동기 회로를 포함한다.The input of an analog (or secondary digital) video stream is possible, for example, via an external graphics / video (EGV) port, the EVG port of which is entitled " Programmable External Graphics / Video Port For Digital Video Decode System Chip & Which is incorporated herein by reference in its entirety. In summary, the EVG port consists of a programmable bidirectional port for a video decoder system with video decoder and internal digital display generator circuitry. The EVG port employs a predetermined number of signal input / output (I / O) pins for the video decode system, while an external graphics controller for the video decoder of the chip or the internal digital display generator circuit, an external digital display generator circuit, For a configuration of a multi-standard decoder, a number of connection configurations are provided. The EVG port includes a receiver / driver circuit that includes a pixel data signal and a corresponding synchronization signal, and receives a plurality of input / output signals in parallel.
더욱이, 발명의 명칭이 "MPEG Video Decoder With Integrated Scaling And Display Functions"인 전술한 특허 출원은 예컨대 종래의 텔레비전 시스템상에서의 디스플레이를 위해 축소된 사이즈의 압축 해제된 비디오 신호를 발생시키는 일 실시예로서 참조될 수 있다. 압축 해제된 비디오의 다운스케일링(downscaling)은 이후의 도 6 내지 도 10과 연계한 설명에서 논의된다. OSD 영역 프로세서(OSD region processor)의 일 실시예는 발명의 명칭이 "Color Mapped And Direct Color OSD Region Processor With Support For 4:2:2 Profile Decode Function"인 출원에서 상세히 설명되어 있고, 그래픽스의 OSD 겹침(OSD overlaying of graphics)은 이후에 자세히 언급하듯이 통상적으로 이용 가능한 능력이다. 일 실시예로, 본원에 참조하고 있는 출원들에 설명되어 있는 능력들은 본 발명의 원리에 따른 통합 디지털 비디오 디코드 시스템에 채용되도록 반영된다. 그러나 이 출원들의 요지는 단지 예로서 반영되는 것이다. 그 밖의 해결책은 본 원에서 제공되는 설명에 근거하여 당업자에게 명확해질 것이다.Furthermore, the above-mentioned patent application entitled " MPEG Video Decoder With Integrated Scaling And Display Functions "is an example of generating decompressed video signals of reduced size for display on a conventional television system, . The downscaling of the decompressed video is discussed in the discussion that follows in connection with Figures 6-10. One embodiment of the OSD region processor is described in detail in the application entitled " Color Mapped And Direct Color OSD Region Processor With Support For 4: 2: 2 Profile Decode Function " (OSD overlaying of graphics) is a commonly available capability as will be discussed in more detail below. In one embodiment, the capabilities described in the applications referenced herein are incorporated to be employed in an integrated digital video decode system in accordance with the principles of the present invention. However, the gist of these applications is only reflected as an example. Other solutions will be apparent to those skilled in the art based on the description provided herein.
공지된 것처럼, MPEG-2 규격에는, 주관적인 손실 초래성 압축 이후의 무손실 압축에 의해 사실상 대역폭 축소가 발생하는 디지털 비디오 엔코딩 방법이 설명되어있다. 엔코드된 압축 디지털 데이터는 그 후 MPEG-2 디코더에서 압축 해제 및 디코드된다. 일 예로서, MPEG-2 규격에 따른 비디오 디코딩은 발명의 명칭이 "Video Decoder"인 전술한 공동 양도된 미국 특허 번호 제 5, 576,765호에 상세히 설명되어 있다.As is well known, the MPEG-2 standard describes a digital video encoding method in which bandwidth reduction is substantially caused by lossless compression after subjective lossy compression. The encoded digital data is then decompressed and decoded by the MPEG-2 decoder. As an example, video decoding according to the MPEG-2 standard is described in detail in commonly assigned U.S. Patent No. 5,576,665, entitled " Video Decoder "
미국 특허 번호 제 5,576,765호에 논의된 것처럼, 비록 본 발명이 이후에 MPEG-2 비디오 디코더와 연계되어 설명되었을지라도, 본 발명이 MPEG-2 디코더와 이용되는 것으로 한정되기보다는, 강화된 그래픽스 및/또는 비디오 처리를 구현하기를 원하는 모든 통합 비디오 처리 시스템내에 도입될 수 있다.As discussed in U.S. Patent No. 5,576,765, although the present invention has been described in connection with an MPEG-2 video decoder thereafter, rather than being limited to being used with an MPEG-2 decoder, enhanced graphics and / May be introduced into any integrated video processing system that desires to implement video processing.
배경 기술로서, 도 1은 종래의 비디오 디코더의 블록도이다. 압축된 데이터는 신호(11)로서 입력되어 압축 데이터 메모리(12)에 기억된다. 가변 길이 디코더(VLD)(14)는 이 압축 데이터를 신호(13)로서 판독하여, 움직임 보상(motion compensation;MC) 유닛(17)에 신호(16)로서 움직임 보상 정보를 전송하고, 역 양자화(inversion quantization;IQ) 유닛(18)에는 신호(15)로서 양자화 계수를 전송한다. 움직임 보상 유닛은 기준 프레임 메모리(20)로부터 기준 데이터를 신호(19)로서 판독하여, 예측 매크로블록(predicted macroblock)을 형성하고, 이것을 신호(22)로서 가산기(25)에 보낸다. 역양자화 유닛은 역 양자화 계수를 계산하여, 신호(21)로서 역변환(inverse transform;IDCT) 유닛(23)으로 보낸다. 역변환 유닛은 역 양자화 계수의 역변환으로써 재구성 차분 매크로블록(reconstructed difference macroblock)을 계산한다. 재구성 차분 매크로블록은 신호(24)로서 가산기(25)로 보내져서, 예측 매크로블록과 더해진다. 가산기(25)는 재구성 차분 매크로블록과 예측 매크로블록의 합(sum)으로써 재구성 매크로블록(reconstructed macroblock)을 계산한다. 다음, 재구성 매크로블록은 신호(26)로서 역다중화기(demultiplexer)(27)로 보내지고, 역다중화기는 재구성 매크로블록이 기준 화상으로부터 유래된 것일 경우에 이 매크로블록을 신호(29)로서 기준 메모리에 기억시키고, 그렇지 않으면, 신호(28)로서 (메모리나 디스플레이)로 배출한다. 기준 프레임은 신호(30)로서 기준 프레임 메모리로부터 외부로 보내진다.As a background, Fig. 1 is a block diagram of a conventional video decoder. The compressed data is input as the signal 11 and stored in the compressed data memory 12. [ The variable length decoder (VLD) 14 reads the compressed data as a signal 13, transmits motion compensation information as a signal 16 to a motion compensation (MC) unit 17, inverse quantization (IQ) unit 18 as a signal 15. The motion compensation unit reads the reference data from the reference frame memory 20 as a signal 19 to form a predicted macroblock and sends it to the adder 25 as a signal 22. The inverse quantization unit calculates an inverse quantization coefficient and sends it as an inverse transform (IDCT) unit 23 as a signal 21. The inverse transform unit computes a reconstructed difference macroblock as the inverse of the dequantization coefficient. The reconstructed difference macroblock is sent as a signal 24 to an adder 25 and added to the predictive macroblock. The adder 25 calculates a reconstructed macroblock as a sum of a reconstructed difference macroblock and a predictive macroblock. The reconstructed macroblock is then sent as a signal 26 to a demultiplexer 27 which demultiplexes the macroblock as a signal 29 in the reference memory if the reconstructed macroblock is from a reference picture Otherwise, it is output as signal 28 (memory or display). The reference frame is sent out as a signal 30 from the reference frame memory.
본 발명의 개념을 도입한 디코드 시스템 칩(40)의 부분적인 실시예가 도 2에 도시되어 있다. 시스템(40)은 디코드 시스템(40)을 PCI 버스(42)에 접속시키는 예컨대 PCI 버스 인터페이스(44)를 포함한다. MPEG 엔코드된 비디오 데이터는 DMA 콘트롤러(46)에 의해 PCI 버스(42)로부터 페치(fetch)되어, 비디오 선입선출(First-in/First-out;FIFO) 버퍼(48)에 기입된다. 또한 DMA 콘트롤러는 온-스크린 디스플레이(OSD) 및/또는 오디오 데이터를 PCI 버스(42)로부터 페치(fetch)하여, OSD/오디오 FIFO(50)에 기입한다. 메모리 콘트롤러(52)는 비디오 데이터를 DRAM(53)내의 올바른 메모리 버퍼에 위치시킬 것이다. 다음, MPEG 압축된 비디오 데이터는 비디오 디코더(54)에 의해 DRAM(53)으로부터 검색되어, 도 1과 연계하여 전술한 것처럼 디코드된다. 통상적으로, 그 다음에는 디코드된 비디오 데이터가 추후의 사용을 위해 DRAM(53)의 프레임 버퍼에 다시 기억된다. 기준 프레임이 요구될 때, 혹은 비디오 데이터가 디코드 시스템으로부터 출력되어야 할 때, DRAM(53)에 기억된 데이터는 메모리 콘트롤러에 의해 검색되어, 디스플레이 및 OSD 인터페이스(58)를 경유해 디지털 비디오 엔코더/디지털-아날로그 변환기 칩(59)을 통한 뒤, 출력을 위해 전송된다. 또한 비디오 콘트롤러(52)에 의해 검색된 오디오 데이터는 오디오 인터페이스(60)을 통해 출력된다.A partial embodiment of a decode system chip 40 incorporating the concept of the present invention is shown in FIG. System 40 includes, for example, a PCI bus interface 44 that couples decode system 40 to PCI bus 42. The MPEG-encoded video data is fetched from the PCI bus 42 by the DMA controller 46 and written into the first-in / first-out (FIFO) buffer 48. The DMA controller also fetches on-screen display (OSD) and / or audio data from the PCI bus 42 and writes to the OSD / audio FIFO 50. The memory controller 52 will place the video data in the correct memory buffer in the DRAM 53. [ Next, the MPEG compressed video data is retrieved from the DRAM 53 by the video decoder 54 and decoded as described above in connection with Fig. Normally, the decoded video data is then stored back into the frame buffer of the DRAM 53 for later use. The data stored in the DRAM 53 is retrieved by the memory controller when the reference frame is required or when the video data is to be output from the decode system and sent to the digital video encoder / - analog converter chip 59 and is then sent for output. Also, the audio data retrieved by the video controller 52 is output through the audio interface 60.
위에서 간략히 언급한 것처럼, 본 발명은 동시화면 특징을 구현하는 능력을 갖는 디지털 비디오 디코드 시스템을 제공하기 위한 한 양상을 다루고 있다. 본 발명의 다른 양상은, 발명의 명칭이 "Programmable External Graphics/Video Port For Digital Video Decode System Chip"인 전술한 공동 출원의 특허 출원에 기술되어 있는 것처럼, 예컨대 외부 그래픽스/비디오(EVG) 포트를 통해 디지털 비디오 처리 시스템에 입력된 아날로그 비디오 신호에 그래픽스를 겹치는 능력을 갖는 디지털 비디오 디코드 시스템을 제공하는 것을 다룬다. 본 발명은 본 원에서 참조하고 있는 전술한 출원들에 기술된 통합 디지털 비디오 디코드 시스템의 두 가지 특징을 채용한다. 구체적으로, 본 발명은 전술한 것과 같은 아날로그 비디오 채널과 온-스크린 디스플레이(OSD) 그래픽스를 조합하는 능력과, 전체 스크린 사이즈의 일부에 해당하는 영역에 대해 압축 해제된 디지털 비디오를 다운스케일링하는 능력을 채용한다. 이러한 특징들은 이후에 훨씬 더 상세히 설명되며, 본 원에서 참조하고 있는 출원들에도 상세히 설명되어 있다.As mentioned briefly above, the present invention deals with an aspect for providing a digital video decoding system with the ability to implement a co-screen feature. Another aspect of the present invention is to provide a method and system that can be used in a wireless communication system such as, for example, via an external graphics / video (EVG) port, as described in the above co-filed patent application entitled " Programmable External Graphics / Video Port For Digital Video Decode System Chip & There is provided a digital video decoding system capable of overlapping graphics with an analog video signal input to a digital video processing system. The present invention employs two features of the integrated digital video decode system described in the aforementioned applications, which are incorporated herein by reference. Specifically, the present invention relates to the ability to combine analog video channels and on-screen display (OSD) graphics, such as those described above, and the ability to downscale decompressed digital video for an area corresponding to a portion of the overall screen size It adopts. These features are described in greater detail below and are also described in detail in the applications referenced herein.
도 3은 본 발명의 원리에 따른 통합 디지털 비디오 디코드 시스템에 의해 발생되는 영상을 디스플레이하는 텔레비전 시스템의 디스플레이 스크린(70)의 일 실시예를 도시한다. 잘 알려진 바와 같이, 스크린(70)은 이 스크린의 전반에 퍼져있는 다수의 화소들(71)을 통해 영상을 디스플레이한다. 스크린(70)내에서, 제 1 화상(72)은 그 보다 더 큰 화상(74)의 내부에 배치되어 보여진다. 따라서, 도 3은 동시화면 혹은 다중 스크린 디스플레이의 일 예이다.Figure 3 illustrates one embodiment of a display screen 70 of a television system for displaying images generated by an integrated digital video decode system in accordance with the principles of the present invention. As is well known, the screen 70 displays an image through a plurality of pixels 71 spread throughout the screen. Within the screen 70, the first image 72 is shown positioned within the larger image 74. Thus, Figure 3 is an example of a co-screen or multi-screen display.
도 4는 본 발명의 원리를 반영한 디지털 비디오 디코드 시스템 칩(100)의 일 실시예를 도시한다. 시스템(100)은 예를 들어 케이블이나 위성 비디오 신호 공급원같은 제 1 비디오 공급원으로부터 디지털 비디오 신호(101)를 수신한다. 신호(101)는 네트워크 인터페이스 모듈(NIM)(102)을 통해 전송되는데, NIM(102)은 통합 시스템(100)의 일부를 이루고 있는 전송 로직(transport logic)(103)으로 MPEG 전송 스트림을 출력한다. 전송 로직(103)은 전송 스트림을 역다중화하고, 압축 비디오 스트림을 통합 시스템 내부의 비디오 디코더(106)(도 2 참조)로 보낸다. 비디오 디코더는 압축 해제된 MPEG 비디오 신호를 발생하고, 이 신호는 마침내 텔레비전 시스템(도시 안됨)을 위한 포매팅을 위해 내부 디지털 비디오 엔코더(DENC) 매크로(107)로 보내진다. 비디오 신호의 디지털-아날로그 변환은 텔레비전 시스템으로 출력(110)되기 이전에 발생한다.Figure 4 illustrates one embodiment of a digital video decode system chip 100 that incorporates the principles of the present invention. The system 100 receives the digital video signal 101 from a first video source, such as, for example, a cable or satellite video signal source. The signal 101 is transmitted via a network interface module (NIM) 102 which outputs an MPEG transport stream to the transport logic 103 which is part of the integrated system 100 . Transmission logic 103 demultiplexes the transport stream and sends the compressed video stream to a video decoder 106 (see FIG. 2) within the integrated system. The video decoder generates an uncompressed MPEG video signal which is eventually sent to an internal digital video encoder (DENC) macro 107 for formatting for a television system (not shown). The digital-to-analog conversion of the video signal occurs prior to being output 110 to the television system.
본 발명의 원리에 따르면, 비디오 디코더(106)의 다운스케일링 능력(도 6 내지 도 10과 관련하여 이후에 상세히 설명됨)은, 예컨대 도 3의 윈도우(72)같은 보조 윈도우(secondary window)로서 제공하기 위해, 압축 해제된 디지털 비디오의 사이즈를, 일 실시예로서, 아주 작은 화상 디스플레이 사이즈까지 줄이기 위해 채용된다. 동시화면 디스플레이를 형성하는 다른 화상은 예컨대 본 원에서 참조하고 있는 발명의 명칭이 "Programmable External Graphics/Video Port For Digital Video Decode System Chip"인 전술한 특허 출원에 설명된 외부 그래픽스/비디오 포트를 통해 비압축 비디오 신호로서 검색된다. 선택적으로, 비디오 디코더를 포함해 통합 디지털 처리 시스템에 대한 비압축 비디오 신호의 입력용으로 전용 포트가 당업자에 의해 구성될 수도 있을 것이다. 이러한 비압축 신호는 제 2 비디오 공급원으로부터 수신되고, 또다른 디지털 신호나 아날로그 신호를 포함할 수도 있다.According to the principles of the present invention, the downscaling capability of the video decoder 106 (described in more detail below with respect to Figures 6-10) is provided as a secondary window, e.g., window 72 of Figure 3 In order to reduce the size of the decompressed digital video to a very small image display size, in one embodiment. Other images forming a co-screen display may be displayed on an external graphics / video port as described in the above-referenced patent application entitled " Programmable External Graphics / Video Port For Digital Video Decode System Chip " And is retrieved as a compressed video signal. Alternatively, a dedicated port for inputting the uncompressed video signal to the integrated digital processing system, including a video decoder, may be configured by one skilled in the art. This uncompressed signal may be received from a second video source and may include another digital or analog signal.
예를 들어, 케이블, 위성, VCR 혹은 튜너 공급원으로부터 아날로그 비디오신호(104)가 수신되는 경우, 디지털 다중 규격 디코더(DMSD)(105)는 통합 디지털 비디오 디코드 시스템(100)에 대한 입력용으로 아날로그 신호를 디지털화한다. 비디오 디코더와 연관 디스플레이 및 OSD 로직에 대한 DMSD(105)의 인터페이싱은 전술한 EVG 포트와 관련한 출원에 설명되어 있다. DMSD(105)는 아날로그 비디오 신호의 디지털 변환을 제공함과 더불어 (일 실시예로서) 비디오 디코더 및 내부 DENC에 대한 동기 마스터(sync master)가 될 것이다. DMSD(105)는 예를 들어 수평 동기 및 수직 동기 입력 포트인 'CCIR-656 SAV/EVA code words'나 혹은 그와 유사한 수단을 통해 비디오 디코더의 디스플레이/OSD 유닛과 내부 DENC에 동기 신호를 제공한다. 위에서 언급한 디스플레이/OSD 유닛과 내부 DENC는 동기 정보를 해석하여 데이터를 정확하게 처리하는 책임을 맡고 있다. 이것을 수행하는 수단은 예를 들면 동기 슬레이브 신호들(sync slave signals)을 채용하는 표준 동작일 수 있다.For example, when an analog video signal 104 is received from a cable, satellite, VCR or tuner source, a digital multi-standard decoder (DMSD) 105 receives an analog signal 104 for input to the integrated digital video decode system 100, . The interfacing of the DMSD 105 to the video decoder and associated display and OSD logic is described in the application related to the EVG port described above. The DMSD 105 will provide a digital conversion of the analog video signal as well as (in one embodiment) a video decoder and a sync master for the internal DENC. The DMSD 105 provides a synchronization signal to the display / OSD unit of the video decoder and the internal DENC through, for example, 'CCIR-656 SAV / EVA code words' which are horizontal and vertical sync input ports . The above-mentioned Display / OSD unit and the internal DENC are responsible for interpreting synchronization information and processing the data correctly. The means for accomplishing this may be a standard operation employing, for example, sync slave signals.
도 5는 본 발명에 의거한 병합 및 조합 능력을 포함하기 위해 비디오 디코더/디스플레이 및 OSD 로직(106)을 변형하는 일 실시예를 도시한다. 이 실시예에서, 프로세서가 발생하는 "화소 선택 제어" 신호에 의해 제어되는 2:1 다중화기(202)는 압축 해제된 디지털 비디오(즉, 전송 로직(103)을 통해 수신된 MPEG 스트림에서 유도된 압축 해제된 비디오)와 비압축 비디오(즉, DMSD(105)를 통해 수신된 아날로그(또는 디지털) 신호중에서 하나를 선택한다. 일 실시예에서, "화소 선택 제어"는 호스트 프로세서에 의해 설정되는 세 가지 동작 모드를 갖는다. 호스트 프로세서는 화소 선택 제어를 (1) 압축 해제된 비디오를 디스플레이상으로 전송, (2) 비압축 비디오를 디스플레이상에 전송, (3) 동시화면 디스플레이 지원으로 설정할 수 있어, 디스플레이용으로 압축 해제된 비디오와 비압축 비디오를 동적으로 선택한다. 모드(3)에서, 동시 디스플레이를 위한 압축 해제된 비디오와 비압축 비디오간의 스위칭은 원하는 보조 화상(secondary picture)(72)(도 3 참조)의 위치에 따라 소정의 속도로 행해진다.Figure 5 illustrates one embodiment of modifying the video decoder / display and OSD logic 106 to include merge and combine capabilities in accordance with the present invention. In this embodiment, the 2: 1 multiplexer 202 controlled by the "pixel selection control" signal generated by the processor receives the decompressed digital video (i.e., (Or digital) signal received via the DMSD 105. In one embodiment, the "pixel selection control" selects one of the three The host processor has the pixel selection control that can (1) send the decompressed video onto the display, (2) send the uncompressed video on the display, and (3) Dynamically selects decompressed video and uncompressed video for display. In mode (3), switching between decompressed and uncompressed video for simultaneous display Auxiliary image based on the location of the (secondary picture) (72) (see Fig. 3) which is carried out at a predetermined speed.
일 실시예에서, 압축 해제된 디지털 비디오는 다운스케일됨으로써, 비압축 비디오로 이루어진 큰 화상 내부에 윈도우를 형성하게 된다. 따라서, "화소 선택 제어" 신호는, 래스터 주사선이 좌측으로부터 우측으로 진행함에 있어서 압축 해제된 비디오의 화소 정보가 채용될 것인지 혹은 비압축 비디오가 채용될 것인지를 디스플레이 스크린 상부의 가장 좌측 위치에서부터 지시하고, 이러한 지시를 디스플레이 스크린의 최상부로부터 최하부에 이르기까지 행한다. 이와 관련하여, 삽입 화상의 위치 선택 및 사이즈는 본 발명의 사상을 벗어나지 않으면서 당업자에 의해 쉽게 수정될 수 있음을 유의하자. 2:1 다중화기(202)로부터의 최종 비디오 출력은 통합 디지털 비디오 디코드 시스템 칩(100)(도 4 참조)의 OSD 조합 로직(204)의 기본 입력으로서 제공된다. 최종 비디오와 조합될 OSD 그래픽스도 로직(204)에 입력되는데, 이 로직의 출력은 그래픽스와 함께 원하던 동시화면이다. OSD 조합 로직(204)의 기능은, 단순히 압축 해제된 디지털 비디오 위에 OSD 그래픽스를 겹쳐 놓을 때에 이미 알려진 것과 동일하다.In one embodiment, the decompressed digital video is downscaled to form a window within a large image of uncompressed video. Accordingly, the "pixel selection control" signal indicates from the leftmost position on the upper part of the display screen whether the pixel information of the decompressed video will be adopted or the uncompressed video will be adopted when the raster scanning line progresses from left to right , And these instructions are made from the top to the bottom of the display screen. In this regard, it should be noted that the position selection and size of the embedded image can be easily modified by those skilled in the art without departing from the spirit of the present invention. The final video output from the 2: 1 multiplexer 202 is provided as the primary input of the OSD combinatorial logic 204 of the integrated digital video decode system chip 100 (see FIG. 4). The OSD graphics to be combined with the final video are also input to the logic 204, the output of which is the desired co-screen with graphics. The function of the OSD combination logic 204 is the same as that already known when simply superimposing the OSD graphics on decompressed digital video.
OSD 조합 기능은 비디오와 OSD 그래픽스 공급원 사이의 화소 휘도 값 및 색 값(pixel luma and chroma values)의 가중 평균(weighted average)을 제공한다. 이 평균은 0과 1 사이의 범위를 갖는 가중 계수 a에 기초한다. 이 평균은 다음과 같이 계산된다.The OSD combination function provides a weighted average of pixel luma and chroma values between video and OSD graphics sources. This average is based on a weighting factor a ranging between 0 and 1. This average is calculated as follows.
또한, 대부분 OSD 그래픽스 영역은 하나 이상의 영역(구형)으로 구성되도록 구현되고, 이 때 계수 a는 각 영역마다 개별적으로 선택 가능하다(즉, 조합이 전체 OSD에 대해 일정할 필요가 없다). 압축 해제된 디지털 비디오와 이용하는 OSD 조합 기능은 예컨대 IBM사의 "MPEG 2CS Digital Audio/Video Decoder"같은 제품으로 업계에서 이용가능하다.Also, most OSD graphics areas are implemented as one or more areas (spheres), wherein the coefficients a are individually selectable for each area (i.e., the combination need not be constant for the entire OSD). The decompressed digital video and OSD combination function to be used is available in the industry, for example, as a product such as "MPEG 2CS Digital Audio / Video Decoder"
요약하면, 본 원에서 참조하고 있는 전술한 EVG 포트 특허 출원은, 비압축 비디오 스트림을 발생하고 이 스트림에 대해 출력 비디오/오디오 제공을 동기화할수 있는 통합 디지털 비디오 디코드 시스템을 설명한다. 본 원은, 그 뿐만 아니라, 비압축 비디오 스트림로 이루어지거나, 또는 압축 해제된 디지털 비디오와 비압축 비디오를 포함하는 병합된 동시화면 비디오 스트림으로 이루어진 출력 비디오 스트림에 그래픽스를 혼합 및/또는 조합하는 것도 가능하다. 이렇게 조합된 스트림은 텔레비전 포맷으로의 엔코딩을 위해 내부 디지털 비디오 엔코더 매크로(DENC macro)로 출력된다. 따라서, 비압축(예컨대 아날로그) 채널은 통합 디지털 디코드 시스템을 활용하는 기존의 디지털 채널과 동일한 그래픽 특성, 기능 및 프로그래밍 모델 능력으로 제공된다. 전형적인 비압축 아날로그 비디오 공급원은 비디오 카세트 레코더(VCR), 캠코더, 텔레비전 카메라, 레이저 디스크, 디지털 비디오 디스크 플레이어, TV 출력을 갖는 컴퓨터, 케이블 텔레비전 아날로그 채널, 위성 아날로그 채널, 튜너 접속된 안테나(공중파 방송)이다. 이러한 공급원중 어떤 것은 디지털 다중 규격 디코더(DMSD) 칩에 복합 텔레비전 혹은 S-비디오 신호를 제공할 수 있고, 그러면 이 칩은 비디오 신호 조합 및 그래픽스 혼합을 위해 통합 디코드 시스템에 디지털화된 비디오를 전송한다.In summary, the aforementioned EVG port patent application, which is incorporated herein by reference, describes an integrated digital video decoding system capable of generating an uncompressed video stream and synchronizing the output video / audio presentation to this stream. The present disclosure also relates to mixing and / or combining graphics in an output video stream consisting of an uncompressed video stream or a merged co-screen video stream comprising decompressed digital and uncompressed video It is possible. The combined stream is output to an internal digital video encoder macro (DENC macro) for encoding into television format. Thus, uncompressed (e.g., analog) channels are provided with the same graphical characteristics, functionality, and programming model capabilities as existing digital channels utilizing an integrated digital decode system. Typical uncompressed analog video sources include video cassette recorders (VCRs), camcorders, television cameras, laser discs, digital video disc players, computers with TV outputs, cable television analogue channels, satellite analogue channels, to be. Some of these sources can provide composite television or S-video signals to a digital multi-standard decoder (DMSD) chip, which in turn transmits digitized video to an integrated decode system for video signal combination and graphics mixing.
위에서 간략하게 언급했듯이, 본 원의 바람직한 실시예에서는 디코드된 디지털 비디오의 다운스케일링도 도입하여, 종래의 비 동시화면 텔레비전 시스템상에서의 디스플레이를 위한 동시화면 비디오의 스트림(stream of picture-in-picture video)이 발생된다. 압축 해제된 디지털 비디오의 다운스케일링은, 시청시 시청자가 순간적으로 더 관심을 갖는 그래픽스 정보를 위해 텔레비전 디스플레이면 영역을 자유자재로 확대하는 것으로서, 본 원에서 참조하고 있는 전술한 특허 출원들에 설명되어 있다. 그래픽스 정보는 인터넷 정보, 프로그래밍 안내 정보, 혹은 오디오이나 비디오 제공에 대한 임의의 조정일 수 있다. 다운스케일된 비디오는 스크린의 여러 위치에 놓여질 수 있다.As mentioned briefly above, the present preferred embodiment also introduces downscaling of decoded digital video to provide a stream of picture-in-picture video for display on a conventional non-co- ) Is generated. The downscaling of the decompressed digital video is described in the above-mentioned patent applications, which are hereby incorporated by reference in its entirety, to freely expand the area of the television display surface for graphics information that the viewer is instantly more interested in at the time of viewing have. The graphics information may be Internet information, programming guide information, or arbitrary adjustments to audio or video provisioning. The downscaled video can be placed at various locations on the screen.
본 원에 설명된 비압축 비디오의 혼합/조합은 비디오 처리의 최종 단계로서 수행되므로(도 2 참조), 비디오 압축 해제와 온-스크린 디스플레이를 제공하는데 필요한 모든 로직은 비디오 압축 해제, 디스플레이 리프레시 및 비디오 다운스케일링을 자유롭게 계속한다. 혼합/조합은 OSD 그래픽스와 압축 해제된 디지털 비디오(또는 비압축 아날로그 비디오) 사이에서 수행되는 것으로 본 원에서 제안되었다. 축소 화면을 위한 압축 해제된 디지털 비디오와 비압축 비디오 공급원 사이를 동적으로 스위칭하도록 비디오 공급원 선택을 제어함으로써, 전체 스크린용 비압축 비디오는 배경(background)으로 제공되고, 축소된 디지털 비디오는 전경(foreground)에 제공된다. 전경 비디오의 위치는 전체 스크린용 비디오 영상 스트림의 주요 구간을 축소 화상이 가리지 않도록 소프트웨어와 사용자 제어하에 이동될 수 있다. OSD 그래픽스는 전체 시청 영역을 덮도록 두 영상 모두와 조합될 수 있다. 원한다면, OSD 그래픽스를 이용해, 축소된 전경 영상 주위에 경계선을 그리는 것도 가능하다.Since the mixing / combining of the uncompressed video described herein is performed as a final step of video processing (see FIG. 2), all of the logic necessary to provide video decompression and on-screen display can be decompressed, Continue downscaling freely. Mixing / combining has been proposed here as being performed between OSD graphics and uncompressed digital video (or uncompressed analog video). By controlling the video source selection to dynamically switch between decompressed digital video and uncompressed video sources for the reduced screen, the uncompressed video for the entire screen is presented in the background, and the reduced digital video is displayed in the foreground ). The location of the foreground video can be moved under software and user control so that the reduced image does not cover the main section of the video image stream for the entire screen. OSD graphics can be combined with both images to cover the entire viewing area. If desired, it is also possible to draw a border around the reduced foreground image using OSD graphics.
처음에 본 원에서 논의한 바와 같이, 본 발명은 MPEG-2 비디오 제공의 사이즈를 사전 정의된 축소율로 스케일할 수 있는 통합 스케일링 능력을 갖는 디코딩 시스템을 포함한다. MPEG-2 비디오 디코더 시장은 점점 더 경쟁이 심해지므로, 시장에서 성공하기 위해서는 가능한 최저 가격으로 고도의 기능 통합을 하는 것이 요구된다. 본 발명은 이러한 요구를 감안하여, 예컨대 수평 및 수직 축으로 2 및/또는 4의 사전 정의된 계수로 디스플레이 화상의 사이즈를 축소하는 스케일링 모드를 제공한다.As discussed initially herein, the present invention includes a decoding system with integrated scaling capabilities that can scale the size of an MPEG-2 video offering to a predefined reduction rate. Because the market for MPEG-2 video decoders is becoming increasingly competitive, high performance integration at the lowest possible price is required to succeed in the market. In view of this need, the present invention provides a scaling mode that reduces the size of the display image by, for example, 2 and / or 4 predefined coefficients on the horizontal and vertical axes.
도 6은 본 발명의 원리에 따른 비디오 디코드 시스템의 일 실시예를 도시한다. 이 비디오 디코드 시스템은 외부 메모리(653)를 포함하는데, 도시된 실시예에서는 SDRAM 프레임 버퍼 기억 장치이다. 메모리(653)는 메모리 제어 유닛(652)과 접속하고 있다. 메모리 제어 유닛(652)은 비디오 디코더(654)로부터 디코드된 비디오 데이터를 수신하고, 디스플레이를 위해 비디오 디스플레이 유닛(690)을 통해 비디오 데이터를 제공한다. 본 발명의 원리에 따르면, 비디오 디코드 시스템은 비디오 스케일링 모드 능력을 구현하는 많은 특징을 포함한다.Figure 6 illustrates one embodiment of a video decoding system in accordance with the principles of the present invention. The video decode system includes an external memory 653, which in the illustrated embodiment is a SDRAM frame buffer memory. The memory 653 is connected to the memory control unit 652. The memory control unit 652 receives the decoded video data from the video decoder 654 and provides the video data via the video display unit 690 for display. In accordance with the principles of the present invention, a video decoding system includes many features that implement video scaling mode capabilities.
예를 들어, 데시메이션 유닛(decimation unit)(682)은 정규 비디오 데시메이션 모드와 비디오 스케일링 모드 양자를 포함하도록 변형된다. 프레임 버퍼(653)는 디코드된 비디오 데이터를 완전-프레임 포맷으로도 기억할 수 있고, 또는 완전 프레임 포맷과 스케일된 비디오 포맷의 조합으로도 기억할 수 있도록 변형된다. 디스플레이 모드 스위치 로직(696)은 비디오 디스플레이 유닛(690) 내부에 구비되어, 정규 비디오 모드와 스케일된 비디오 모드간의 원활한 스위칭을 용이하게 한다. 프레임 버퍼 포인터 제어(686)는 정규 비디오 모드일 때와 스케일된 비디오 모드일 때에 프레임 버퍼의 신규 분할(partitioning)에 근거하여 올바른 프레임 버퍼 포인터를 제공하도록 변형된다.For example, a decimation unit 682 is modified to include both a normal video decimation mode and a video scaling mode. The frame buffer 653 can store the decoded video data in a full-frame format or can be stored so as to be stored in a combination of a full frame format and a scaled video format. The display mode switch logic 696 is provided within the video display unit 690 to facilitate smooth switching between the regular video mode and the scaled video mode. Frame buffer pointer control 686 is modified to provide the correct frame buffer pointer based on the new partitioning of the frame buffer when in normal video mode and in the scaled video mode.
동작상으로 보면, MPEG 입력 비디오 공급원은 코드화 MPEG-2 비디오 데이터로서 메모리 제어 유닛(652)을 통해 비디오 디코더(654)의 입력에 공급된다. 디코더(654)는 허프만 디코더(Huffman decoder)(672), 역 양자화기(674), 역 DCT(676), 움직임 보상기(678) 및 가산기(680)를 포함하는데, 이 디코더의 기능은 도 1의 비디오 디코더와 관련하여 설명한 것과 마찬가지이다. 내부 프로세서(670)는 본 발명의 원리에 따른 비디오 디코드 프로세스를 감독하여, 호스트가 예컨대 정규 비디오 디스플레이와 스케일된 비디오 디스플레이간에 비디오 디스플레이를 스위칭하고자 할 때마다 호스트 시스템으로부터 신호를 수신한다. 이 신호는 도 6에서 "호스트 제어 포맷 변경"으로 표시된다. 호스트 포맷 변경에 응답하여, 내부 프로세서(670)로부터 허프만 디코더(672), 역 양자화기(674), 움직임 보상기(678)로, 그리고 비디오 디스플레이(690)내의 업샘플 로직(upsample logic)(694), 디스플레이 페치 유닛(692) 및 디스플레이 모드 스위치 로직(696)으로 제어 신호들이 보내진다. 다시, 이러한 제어 신호들은 본 발명의 원리에 따른 비디오 디코드 시스템으로 보내져서, (이후에 설명되는 것처럼) 예를 들면 정규 비디오 모드와 스케일된 비디오 모드간에서 디스플레이 출력을 스위칭한다.In operation, the MPEG input video source is supplied to the input of the video decoder 654 via the memory control unit 652 as coded MPEG-2 video data. The decoder 654 includes a Huffman decoder 672, an inverse quantizer 674, an inverse DCT 676, a motion compensator 678 and an adder 680, Which is the same as that described in connection with the video decoder. The internal processor 670 supervises the video decoding process in accordance with the principles of the present invention and receives a signal from the host system whenever the host wishes to switch the video display, for example between a regular video display and a scaled video display. This signal is indicated as "host control format change" in Fig. In response to the host format change, upsample logic 694 from internal processor 670 to Huffman decoder 672, inverse quantizer 674, motion compensator 678, and video display 690, The display fetch unit 692, and the display mode switch logic 696, as shown in FIG. Again, these control signals are sent to a video decoding system in accordance with the principles of the present invention to switch the display output, for example between regular video mode and scaled video mode (as described below).
디코드된 비디오 데이터의 완전 사이즈 매크로블록은 비디오 디코더(654)로부터 데시메이션 유닛(682)으로 순차적으로 출력되고, 이 데시메이션 유닛에서는 일 실시예로서 완전 사이즈 매크로블록들이 2가지 유형의 압축중 하나를 경험한다. 첫 번째, 완전 사이즈 비디오가 필요하다면, B-부호화 화상(B-coded pictures)의 데시메이션만이 바람직하게 수행된다. 이 정규 비디오 모드에서, 데시메이션은 보간되는 화소값을 얻기 위해 조합된 값들을 보간 또는 평균함으로써 데이터의 양을 줄이는 프로세스이다. 보간(interpolation)은 화소의 수를 줄이고, 따라서 더 적은 외부 메모리가 전체 시스템에 필요하게 된다. 두 번째 모드에서는, 데시메이션 유닛(682)이 본 발명의 원리에 따라 화상 스케일링(picture scaling)을 수행한다. 예를 들자면, 채용되는 이 유형의 스케일링은 디스플레이 화상의 전체 사이즈를 수평 및 수직 축으로 2 또는 4의 계수로 줄일 수도 있다.Size macroblocks of the decoded video data are sequentially output from the video decoder 654 to the decimation unit 682 where the full size macroblocks in one embodiment are one of two types of compression Experience. First, if full-size video is required, only decimation of B-coded pictures is preferably performed. In this regular video mode, decimation is a process of reducing the amount of data by interpolating or averaging the combined values to obtain the interpolated pixel value. Interpolation reduces the number of pixels, thus requiring less external memory for the entire system. In the second mode, the decimation unit 682 performs picture scaling in accordance with the principles of the present invention. For example, this type of scaling employed may reduce the overall size of the display image by a factor of two or four on the horizontal and vertical axes.
데시메이션 유닛(682)에 디코드된 완전 사이즈 매크로블록의 스트림을 제공함과 더불어, 비디오 디코더는 출력선(683)으로 "움직임 보상 유닛 차단 완료(motion compensation unit block complete)" 신호를 보냄으로써, 데시메이션 유닛(682)이 언제 매크로블록이 완전히 디코드되었는지를 알게 한다. 마찬가지로, 데시메이션 유닛(682)은 출력선(681)을 통해 비디오 디코더(654)의 움직임 보상 유닛(678)으로 "데시메이터 동작중(decimator busy)" 신호를 제공한다. 이 "데시메이터 동작중" 신호는 데시메이션 유닛이 동작중인 때와 동작이 완료된 때를 움직임 보상 유닛에게 통지하며, 이 후에는 움직임 보상 유닛이 다음 매크로블록으로 진행할 수 있다.In addition to providing a stream of decoded full size macroblocks to decimation unit 682, the video decoder sends a "motion compensation unit block complete" signal to output line 683, Unit 682 will know when the macroblock has been fully decoded. Similarly, the decimation unit 682 provides a "decimator busy" signal to the motion compensation unit 678 of the video decoder 654 via the output line 681. This "decimator in operation" signal notifies the motion compensation unit when the decimation unit is in operation and when the operation is completed, after which the motion compensation unit can proceed to the next macroblock.
비디오 디코더(654)의 움직임 보상 유닛(678)은 메모리 제어 유닛(652)에 곧장 판독 비디오 어드레스(read video addresses)를 제공하고, 외부 메모리(653)에 대한 디코드된 비디오 데이터(완전 사이즈) 및/또는 스케일된 매크로블록의 기입을 위해 데시메이션 유닛(682)에 기입 비디오 어드레스(write viedo addresses)를 제공한다. 판독 비디오 어드레스 및 기입 비디오 어드레스와 나란히, 메모리 제어 유닛에는 프레임 버퍼 포인터 제어(frame buffer pointer control)(686)에 의해 포인터(pointers)가 제공된다. 이러한 포인터들은, 본 발명에 의거한 프레임 버퍼 메모리 공간의 분할(이후에 자세히 설명됨)에 따라 SDRAM(653) 내부의 어떤 프레임 버퍼 영역이 주어진 판독 비디오 어드레스나 기입 비디오 어드레스에 의해 액세스될 것인지를 정의한다. 이러한 포인터는 도 6에서 현재 포인터(current pointer)와 현재 소형 포인터(current small pointer)로 표시되어 있는데, 현재 포인터는 완전 사이즈 매크로블록용 포인터이고, 현재 소형 포인터는 스케일된 매크로블록용 포인터이다.The motion compensation unit 678 of the video decoder 654 provides straight read video addresses to the memory control unit 652 and decoded video data for the external memory 653 (full size) and / Or write viedo addresses to the decimation unit 682 for the writing of the scaled macroblocks. Along with the read video address and write video address, the memory control unit is provided with pointers by a frame buffer pointer control 686. These pointers define which frame buffer area within SDRAM 653 is to be accessed by a given read video address or write video address in accordance with the division of the frame buffer memory space in accordance with the present invention do. This pointer is represented by a current pointer and a current small pointer in FIG. 6, where the current pointer is a pointer for a full size macro block, and the current small pointer is a pointer for a scaled macro block.
데시메이션 유닛(682)은 디코드된 완전 사이즈 매크로블록을 수신하고, 정보를 내부적으로 보관했다가, 스케일링 모드가 활성화되면, 이하에 설명된 것처럼 스케일링을 수행한다. 정규 모드에서, 데시메이션 유닛(682)은 디코드된 비디오 데이터 완전 사이즈 매크로블록을 프레임 버퍼(653)에 기억하기 위해 메모리 제어 유닛(652)으로 출력한다. 스케일링 모드일 때는, 데시메이션 유닛(682)이 완전 사이즈 매크로블록을 스케일하여, 스케일된 매크로블록을 프레임 버퍼(653)에 기억하기 위해 메모리 제어 유닛(652)으로 출력한다.Decimation unit 682 receives the decoded full size macroblock, internally stores the information, and, once the scaling mode is activated, performs scaling as described below. In normal mode, the decimation unit 682 outputs the decoded video data full size macro block to the memory control unit 652 for storage in the frame buffer 653. In the scaling mode, the decimation unit 682 scales the full-size macroblock, and outputs the scaled macroblock to the memory control unit 652 for storage in the frame buffer 653.
프레임 버퍼 포인터 제어(686)는 중요한데, 본 발명의 원리에 따라 정규 비디오 모드와 비디오 스케일링 모드일 때 프레임 버퍼의 회전(rotation) 즉, 프레임 버퍼 할당(frame buffer assignments)을 제어한다(이후에 자세히 설명함).The frame buffer pointer control 686 is important and controls the rotation of the frame buffer, i.e., the frame buffer assignments, in the regular video mode and the video scaling mode according to the principles of the present invention box).
본 원에서 참조하고 있는 전술한 출원들에 설명되어 있듯이, 데시메이션 유닛(682)은 디스플레이를 위해 데이터를 검색할 때 비디오 디스플레이 유닛(690)의 일부처럼 기능을 한다. 더 구체적으로, 완전 사이즈 주사선(full-size scan lines)으로 이루어진 디코드된 비디오 데이터는 프레임 버퍼 기억 장치(653)로부터 검색되어, 화상의 B-프레임 재신장(B-frame re-expansion of pictures)을 위해 데시메이션 유닛(682)을 통해 공급된다. 이것은 화상 그룹내의 비디오에 대해 일관성(consistency)이 유지되도록 행해지며, 따라서 어떤 한 화상의 감소된 해상도는 인지할 수 없다. 재신장 이후, 완전 사이즈 주사선이 디스플레이 출력 인터페이스(698)에 제공된다.The decimation unit 682 functions as part of the video display unit 690 when retrieving data for display, as described in the aforementioned applications referenced herein. More specifically, the decoded video data, which consists of full-size scan lines, is retrieved from the frame buffer storage 653 to provide a B-frame re-expansion of pictures And is supplied through the decode unit 682. This is done so as to maintain consistency for the video in the group of pictures, and thus the reduced resolution of any one picture can not be perceived. After re-stretching, a full-size scan line is provided to the display output interface 698.
선택적으로, 비디오 스케일링 모드일 때는, 스케일된 주사선(scaled scan lines)으로 이루어진 디코드된 비디오가 프레임 버퍼 기억 장치(653)로부터 검색되어, 주사선 비디오 버퍼(684)로 곧장 제공된다. 주사선은 휘도 및 색 데이터로 분할되며, 현재 주사선과 이전 주사선이 주사선 비디오 버퍼(684)로부터 수직 및 수평 업샘플 로직(694)으로 공급된다. 업샘플 제어는 디스플레이 페치 유닛(692)으로부터 수신되는데, 글자 상자 포매팅(letterbox formatting), SIF 업샘플링, 4:2:0 대 4:2:2 업샘플링 및 깜박임 감소(flicker reduction)를 조정한다.Alternatively, in the video scaling mode, the decoded video consisting of scaled scan lines is retrieved from the frame buffer storage 653 and provided directly to the scan line video buffer 684. The scan line is divided into luminance and color data and the current scan line and the previous scan line are supplied from the scan line video buffer 684 to the vertical and horizontal up sample logic 694. [ Up sample control is received from the display fetch unit 692, which adjusts letterbox formatting, SIF upsampling, 4: 2: 0 vs. 4: 2: 2 upsampling and flicker reduction.
디스플레이 페치 유닛(692)은 프레임 버퍼 기억 장치(653)로부터 주사선의 검색을 위해 판독 비디오 어드레스를 제공한다. 디스플레이를 위한 "현재 포인터, 현재 소형 포인터" 동기(sync) 신호는 비디오 디스플레이 유닛(690)의 디스플레이 모드 스위치 로직(696)으로부터 메모리 제어 유닛(652)에 의해 수신된다. 전술한 바와 같이, 현재 포인터, 현재 소형 포인터는 주사선이 검색될 특정 프레임 버퍼 영역에 대한 포인트를 신호하는 반면, 판독 비디오 어드레스 신호는 프레임 버퍼 영역내의 검색될 특정 주사선을 표시한다.The display fetch unit 692 provides a readout video address for retrieval of the scan lines from the frame buffer storage 653. The "current pointer, current small pointer" sync signal for display is received by the memory control unit 652 from the display mode switch logic 696 of the video display unit 690. As described above, the current pointer, the current small pointer, signals the point for the particular frame buffer area in which the scan line will be searched, while the read video address signal indicates the particular scan line to be searched in the frame buffer area.
디스플레이 모드 스위치 로직(696)은 예를 들어 스케일된 비디오 모드와 정규 비디오 모드간의 원활한 스위칭을 보증하기 위해 본 발명의 원리에 따라 구비된다. 로직(696)은 비디오 디코더(654)의 내부 프로세서(670)로부터 제어 신호를 입력으로 수신함과 더불어, (디스플레이 출력 인터페이스(698)로부터의) 수직 동기(VSYNC) 신호와, 비디오 디코더(654)의 허프만 디코더(672)로부터의 B화상 "MPEG-2 반복 필드" 신호도 수신한다. VSYNC는 새로운 디스플레이 필드의 시작을 가리키는 외부 동기 신호이다. 현재 포인터, 디스플레이를 위한 현재 소형 포인터 동기에 덧붙여 디스플레이 모드 스위치 로직(696)의 출력은 디스플레이 페치 유닛(692)에 공급되는 "디스플레이를 위한 디스플레이 포맷 동기" 신호이기도 하고, 또한 데시메이션 유닛(682)의 디코드 로직에 공급되는 "디코드를 위한 디스플레이 포맷 동기" 신호이기도 하다. 디스플레이 모드 스위치 로직(696)은 또한 "차단 비디오(block video)" 신호를 디스플레이 출력 인터페이스(698)로 출력하는데, 이 인터페이스는 본 발명의 원리에 따라 디스플레이 모드간을 스위칭할 때 디스플레이의 잡음을 억제하도록 하나의 디스플레이 프레임을 차단하기 위해 채용되었다. 비디오 데이터는 업샘플 로직(694)로부터 디스플레이 출력 인터페이스에 수신된다. 본 발명의 원리에 따라 구현된 데시메이션 유닛, 프레임 버퍼 분할, 프레임 버퍼 포인터 제어 및 디스플레이 모드 스위치 로직은 도 6a 내지 도 10을 참조하여 이후에 더욱 상세하게 설명된다.The display mode switch logic 696 is provided in accordance with the principles of the present invention, for example, to ensure smooth switching between a scaled video mode and a regular video mode. Logic 696 receives a control signal as input from an internal processor 670 of video decoder 654 and a vertical sync (VSYNC) signal (from display output interface 698) Also receives a B picture "MPEG-2 Repeated Field" signal from the Huffman decoder 672. [ VSYNC is an external synchronization signal indicating the start of a new display field. In addition to the current pointer, the current small pointer synchronization for display, the output of the display mode switch logic 696 is also a "display format sync for display" signal supplied to the display fetch unit 692, and also to the decimation unit 682, Is also a "display format sync for decode" signal supplied to the decode logic of the decoder. The display mode switch logic 696 also outputs a "block video" signal to the display output interface 698, which suppresses noise in the display when switching between display modes in accordance with the principles of the present invention. To block one display frame. Video data is received from the upsample logic 694 at the display output interface. The decimation unit, frame buffer division, frame buffer pointer control, and display mode switch logic implemented in accordance with the principles of the present invention are described in further detail below with reference to Figures 6A-10.
먼저, 프레임 버퍼를 살펴보자. 프레임 버퍼는 디스플레이를 위해 구성된 화상을 기억하는 위해서, 그리고 차후의 화상의 예측을 위해서 이용된다. B 화상은 예측에 이용되지 않으므로, 그 프레임 버퍼는 화상이 디스플레이된 이후에는 이용 가능하다. I 혹은 P 화상의 경우는, 특히 B 화상을 예측하기 위해 프레임 버퍼가 디스플레이 이후에도 유지될 필요가 있다.First, let's look at the frame buffer. The frame buffer is used for storing the image configured for display and for predicting a subsequent image. Since the B picture is not used for prediction, the frame buffer is available after the picture is displayed. In the case of an I or P picture, in particular, the frame buffer needs to be maintained after the display to predict the B picture.
도 6a는 본 발명의 원리에 따른 정규 비디오 모드와 스케일된 비디오 모드 모두에 대한 프레임 버퍼(700) 할당을 도시한다. 정규 모드에서, 디코딩과 디스플레이 처리를 지원하기 위해 세 개의 프레임 버퍼가 존재한다. 프레임 버퍼 0과 프레임 버퍼 1은 I 및 P 화상을 위해 할당되는 반면, 프레임 버퍼 2는 B 화상을 위해 할당된다. 프레임 버퍼들은 버퍼 포인터 즉, 도 6의 프레임 버퍼 포인터 제어(686)로부터의 현재 포인터로 태그(tag)가 표시된다.6A illustrates frame buffer 700 allocation for both regular video mode and scaled video mode in accordance with the principles of the present invention. In normal mode, there are three frame buffers to support decoding and display processing. Frame buffer 0 and frame buffer 1 are allocated for I and P pictures, while frame buffer 2 is allocated for B pictures. The frame buffers are tagged with a buffer pointer, i.e., the current pointer from the frame buffer pointer control 686 of FIG.
스케일된 비디오 모드에서는, 적어도 다섯 개의 프레임 버퍼가 채용된다. 프레임 버퍼 0 및 프레임 버퍼 1은 마찬가지로 완전 사이즈 I 및 P 화상 비디오를 수용한다. 적어도 세 개의 다른 버퍼들(예시된 실시예에서는 프레임 버퍼 2, 프레임 버퍼 4, 프레임 버퍼 6으로 표시됨)은 프레임 버퍼 포인터 제어에 의해 발생된 소형 포인터로 태그가 표시된다. 이러한 소형 버퍼들은 주로 스케일 비디오 모드에서 디스플레이를 목적으로 이용된다. 버퍼들은 비디오 스케일링에 적합하도록 소형 사이즈이다. I 또는 P 화상을 디코딩할 때, 구성된 화상은 어느 쪽을 이용 가능하냐에 따라 버퍼 0이나 버퍼 1에 기억된다. 그와 동시에, 동일한 화상을 다운스케일링한 것이 더 소형인 버퍼중 하나 즉, 프레임 버퍼 2 혹은 프레임 버퍼 4 혹은 프레임 버퍼 6에 기억된다. 다음, 완전 사이즈 비디오는 예측에 이용되고, 반면에 소형 프레임 버퍼의 소규모 사이즈 비디오는 다운스케일링된 화상의 디스플레이에 이용된다.In the scaled video mode, at least five frame buffers are employed. Frame buffer 0 and frame buffer 1 also accept full size I and P picture video. At least three different buffers (represented by Frame Buffer 2, Frame Buffer 4, Frame Buffer 6 in the illustrated embodiment) are tagged with small pointers generated by frame buffer pointer control. These small buffers are mainly used for display purposes in scale video mode. The buffers are small in size to be suitable for video scaling. When decoding an I or P picture, the composed picture is stored in buffer 0 or buffer 1 depending on which is available. At the same time, downscaling of the same image is stored in one of the smaller buffers, that is, the frame buffer 2, the frame buffer 4, or the frame buffer 6. Next, full size video is used for prediction, while small size video of a small frame buffer is used for display of downscaled images.
프레임 버퍼는 비디오 디코드 시스템의 초기화동안에 마이크로 코드(microcode)에 의해 구성된다. 메모리 기본 어드레스가 각각의 프레임 버퍼에 할당되고, 이러한 메모리 기본 어드레스는 프레임 버퍼 포인터 제어에 의해 발생된 버퍼 포인터에 의해 선택된다. 판독 및 기입 비디오 어드레스는 선택된 프레임 버퍼내의 특정 어드레스를 칭한다. 달리 표시하지 않는 한, 본 원에서는 이후부터 "프레임 버퍼"라는 용어를 초기화동안 구성된 모든 프레임 버퍼 메모리를 포함하는 것으로서 이용한다. "프레임 버퍼 영역"은 도 6a에 도시된 특정 프레임 버퍼들중 하나를 칭하는 것이다.The frame buffer is configured by microcode during the initialization of the video decoding system. A memory base address is assigned to each frame buffer, and this memory base address is selected by a buffer pointer generated by frame buffer pointer control. The read and write video addresses refer to specific addresses in the selected frame buffer. Unless otherwise indicated, the present application then uses the term "frame buffer" as including all frame buffer memories configured during initialization. The "frame buffer area" refers to one of the specific frame buffers shown in FIG. 6A.
비디오 디스플레이는 실시간으로 동작하므로, 프레임 버퍼 포인터는 VSYNC 타이밍에 따라 스위치되어야 한다, 디코딩은 항상 디스플레이를 선행하므로, 프레임 버퍼는 디코드된 화상을 기억하기 위해 이용 가능하게 만들어져야 한다. 그러므로, 프레임 버퍼 포인터는 디코딩 시작후에 스위치되어야 한다. 디스플레이 프레임 버퍼에 대한 교란을 피하기 위해, 디스플레이 버퍼 포인터의 사본(copy)이 보유된다. 버퍼 스위칭 시간은 각 화상 디코드의 시작 시간이다. 디스플레이 버퍼 포인터는 또한 그 시간에 변경되지만, 화상 디스플레이의 시작 시간인 디스플레이 포인터 시간을 복사할 때까지는 이용되지 않을 것이다. 정규 모드 버퍼 포인터 회전의 일 실시예가 이하에 설명된다.Since the video display operates in real time, the frame buffer pointer has to be switched in accordance with the VSYNC timing. Since the decoding always precedes the display, the frame buffer must be made available for storing the decoded picture. Therefore, the frame buffer pointer must be switched after the start of decoding. To avoid disturbance to the display frame buffer, a copy of the display buffer pointer is retained. The buffer switching time is the start time of each image decode. The display buffer pointer also changes at that time, but will not be used until the display pointer time, which is the start time of the picture display, is copied. One embodiment of normal mode buffer pointer rotation is described below.
다음은 4개의 버퍼 포인터를 가정하는데, 각각의 포인터는 세 개의 프레임 버퍼중 어느 것이 액세스되고 있는지를 나타내기 위해 2비트를 포함하고 있다.The following assumes four buffer pointers, each containing two bits to indicate which of the three frame buffers is being accessed.
ㆍ현재 포인터-구성중인 화상과 관련해 이용될 프레임 버퍼를 지시하고,Current pointer - indicates the frame buffer to be used in relation to the image being constructed,
ㆍ디스플레이 포인터-디스플레이를 위해 이용될 프레임 버퍼를 지시하고,Display pointer - indicates the frame buffer to be used for display,
ㆍ장래 포인터(future pointer)-후향 예측(backward prediction)에 이용될 프레임 버퍼를 지시하고,Future pointer - Indicates the frame buffer to be used for backward prediction,
ㆍ과거 포인터(past pointer)-전향 예측(foreward prediction)에 이용될 프레임 버퍼를 지시한다.Past pointer - Indicates the frame buffer to be used for forward prediction.
시동(startup)시, 장래 포인터는 "1"로 초기화되고, 다른 포인터들은 "0"으로 설정된다. I 또는 P 화상 디코드의 시작시, 과거 포인터로부터의 값은 현재 포인터에 로드(load)되고, 장래 포인터의 값은 디스플레이 포인터에 로드된다. 장래 포인터와 과거 포인터의 값은 교환된다. 만약 디코딩 화상이 B 화상이면, 현재 포인터와 디스플레이 포인터는 "2"로 설정된다. 프레임 버퍼 2는 일 실시예로서 B 화상용으로 예약(reserved)된다. 장래 포인터와 과거 포인터는 변하지 않고 유지된다. 정규 모드에서의 포인터 스위칭은 발명의 명칭이 "Memory Management For An MPEG-2 Compliant Decoder"인 체니 등(Cheney et al.)의 미국 특허 제 5,668,599호에 더욱 상세히 설명되어 있으며, 이 미국 특허는 본 원에서 전적으로 참조하고 있다.At startup, the future pointer is initialized to "1" and the other pointers are set to "0". At the start of the I or P picture decode, the value from the past pointer is loaded into the current pointer, and the value of the future pointer is loaded into the display pointer. The values of the future pointer and the old pointer are exchanged. If the decoded picture is a B picture, the current pointer and the display pointer are set to "2 ". The frame buffer 2 is reserved for a B picture as an embodiment. Future pointers and past pointers remain unchanged. Pointer switching in normal mode is described in greater detail in U.S. Patent No. 5,668,599 to Cheney et al. Entitled " Memory Management For An MPEG-2 Compliant Decoder " . ≪ / RTI >
스케일된 비디오 모드에서는, 화상의 디스플레이 시간이 본 발명에 따라 추가된 필드 시간만큼 지연된다. 이러한 지연의 목적은 디코드 프로세스와 디스플레이 프로세스를 분리하여, 디코드된 스케일된 비디오가 스크린상의 어떠한 장소에도 위치할 수 있도록 하는 것이다. 도 7a는 스케일된 비디오 모드에서 지연된 디스플레이 타이밍의 일 예를 도시한다. 이러한 디스플레이 타이밍은 모드에 따라 즉, 정규 모드이냐 혹은 스케일된 비디오 모드이냐에 따라 동적으로 조정된다. 하나의 필드 시간 지연은 버퍼를 적절히 관리하기 위해 본 발명에 따라 필요하다. 적어도 다섯 개의 버퍼들은 또다시 비디오 스케일링 모드에 있는 것으로 가정된다. 전술하였듯이, 이들 다섯 개의 버퍼중 두 개는 완전-사이즈 프레임 버퍼를 이루어, 도 6a에서 프레임 버퍼 0 및 프레임 버퍼 1로 표시되었다. 이러한 완전 사이즈 프레임 버퍼는 정규 비디오 모드에서 이용되는 상응하는 버퍼와 동일하다. 적어도 세 개의 소형 프레임 버퍼 즉, 프레임 버퍼 2, 프레임 버퍼 4, 프레임 버퍼 6은 프레임 버퍼 2가 점유하던 바로 그 메모리 공간에 할당된다. 이러한 세 개의 소형 프레임 버퍼는 전술한 것이 아닌 다른 알고리즘에 의해 제어된다.In the scaled video mode, the display time of the image is delayed by the field time added in accordance with the present invention. The purpose of this delay is to separate the decode process and the display process so that the decoded scaled video can be located anywhere on the screen. Figure 7A shows an example of delayed display timings in a scaled video mode. This display timing is dynamically adjusted according to the mode, that is, the regular mode or the scaled video mode. One field time delay is needed in accordance with the present invention to properly manage the buffer. At least five buffers are again assumed to be in video scaling mode. As described above, two of these five buffers are full-size frame buffers, denoted Frame Buffer 0 and Frame Buffer 1 in FIG. 6A. This full size frame buffer is identical to the corresponding buffer used in normal video mode. At least three small frame buffers, i.e., the frame buffer 2, the frame buffer 4, and the frame buffer 6 are allocated to the same memory space occupied by the frame buffer 2. These three small frame buffers are controlled by other algorithms than those described above.
구체적으로, 4개의 추가 포인터가 스케일된 비디오 모드에서 이용된다. 이 포인터들은 다음과 같다.Specifically, four additional pointers are used in the scaled video mode. These pointers are as follows.
ㆍ소형 현재 포인터-데시메이트된 구성중인 화상을 위한 소형 버퍼를 지시하고,Small current pointer - points to a small buffer for images in decimated configuration,
ㆍ소형 디스플레이 포인터-디스플레이를 위한 소형 버퍼를 지시하고,Small display pointer - indicates a small buffer for display,
ㆍ소형 장래 포인터-장래 디스플레이를 위한 소형 버퍼를 지시하고,Small Future Pointer - Indicates a small buffer for future display,
ㆍ소형 천이 포인터(small transition pointer)-천이를 위한 소형 버퍼를 지시한다.• Small transition pointer - indicates a small buffer for transitions.
디코더가 초기화될 때, 소형 현재 포인터, 소형 디스플레이 포인터, 소형 장래 포인터 및 소형 천이 포인터는 각각 0, 2, 4 및 6으로 설정된다. 각각의 화상 디코딩의 시작시, 소형 현재 포인터는 소형 천이 포인터로부터 로드되고, 소형 천이 포인터는 소형 디스플레이 포인터로부터 로드된다. 만약 디코딩 화상이 B 화상이라면, 소형 디스플레이 포인터는 소형 천이 포인터로부터 로드되고, 소형 장래 포인터는 불변인 상태로 유지된다. 만약 디코딩 화상이 I 혹은 P 화상이라면, 소형 디스플레이 포인터는 소형 장래 포인터로부터 로드되고, 소형 장래 포인터는 소형 천이 포인터로부터 로드된다. 본 발명에 따른 소형 프레임 버퍼 스위칭의 일 예가 도 7b에 도시되어 있다.When the decoder is initialized, the small current pointer, small display pointer, small future pointer, and small transition pointer are set to 0, 2, 4, and 6, respectively. At the start of each picture decoding, the small current pointer is loaded from the small transition pointer, and the small transition pointer is loaded from the small display pointer. If the decoded picture is a B picture, the small display pointer is loaded from the small transition pointer, and the small future pointer remains unchanged. If the decoded picture is an I or P picture, the small display pointer is loaded from the small future pointer, and the small future pointer is loaded from the small transition pointer. One example of a small frame buffer switching in accordance with the present invention is shown in FIG.
완전 사이즈 프레임 버퍼, 프레임 버퍼 0 및 프레임 버퍼 1은 마치 디코더가 정규 모드에서 실행중인 것처럼 스위칭한다. 이 두 개의 버퍼는 예측을 위해서는 필요하지만, 스케일 비디오 모드에서의 디스플레이를 위해서는 필요하지 않다. I 혹은 P 화상이 디코디되고 있을 때, 화상은 현재 (완전 프레임) 포인터와 소형 현재 포인터에 의해 지시되는 두 버퍼에 기억된다. B 화상을 디코딩하는 동안, 현재 (완전 프레임) 포인터에 의해 지시되는 프레임 버퍼 2는 사용되지 않을 것이다. 오로지 소형 현재 포인터에 의해 지시되는 소형 프레임 버퍼만이 데시메이트된 화상을 위해 이용된다. 정규 모드에서는, 디스플레이를 위해 디스플레이 포인터가 이용되는 반면, 스케일 비디오 모드에서는, 소형 디스플레이 포인터가 이용된다. 두 개의 스위칭 알고리즘이 각각의 화상 디코딩의 시작에서 동시에 작동한다. 버퍼 포인터는 디코더가 어떤 모드인가에 따라 간단히 선택된다.The full-size frame buffer, frame buffer 0, and frame buffer 1 switch as if the decoder is running in normal mode. These two buffers are needed for prediction, but not for display in scale video mode. When an I or P picture is being decoded, the picture is stored in both buffers indicated by the current (full frame) pointer and the small current pointer. During decoding of the B picture, the frame buffer 2 indicated by the current (full frame) pointer will not be used. Only the small frame buffer indicated by the small current pointer is used for the decimated image. In normal mode, a display pointer is used for display, while in a scale video mode, a small display pointer is used. Two switching algorithms operate simultaneously at the beginning of each picture decoding. The buffer pointer is simply selected depending on what mode the decoder is in.
다음, 도 8은 본 발명에 따라 채용된 데시메이션 유닛(682)(도 6 참조)의 일 실시예를 도시한다.Next, FIG. 8 illustrates one embodiment of a decimation unit 682 (see FIG. 6) employed in accordance with the present invention.
이전에 구현된 디코드 데시메이션 유닛에서는, 예를 들어 글자 상자 또는 메모리 축소를 위해 데시메이션 유닛이 B 화상에 대해서만 동작하는 것으로 제한되었다. 그러나, 본 원에서 제시된 스케일된 비디오 모드에서는, 디코드 데시메이션 유닛이 모든 종류의 화상을 처리한다. 이것은, (일 실시예로) 스케일된 화상과 다중 평면 고 해상도 OSD 그래픽스가 출력에서 혼합될 수도 있기 때문에, 디스플레이시에 메모리 대역폭을 절약하기 위해 바람직하다.In the decode decimation unit previously implemented, for example, the decimation unit is limited to operating only for the B picture for the character box or memory reduction. However, in the scaled video mode presented here, the decode decimation unit processes all kinds of images. This is desirable in order to save memory bandwidth at the time of display, because (in one embodiment) the scaled image and the multi-plane high resolution OSD graphics may be mixed at the output.
도 8의 실시예에서, 데시메이션 유닛은 데시메이션 로직(800)을 포함하는데, 이 로직은 비디오 디코더로부터 디코드된 비디오 데이터를 수신하여, 데시메이트된 데이터 흐름(decimated data flow)을 데시메이션 버퍼(820)로 출력한다. 데시메이션 버퍼(820)로부터의 출력은 비디오 디코더로부터 수신되는 데시메이트되지 않은 디코드된 비디오 데이터와 다중화되고(830), 다중화기(830)는 디코드된 비디오 데이터뿐만 아니라, 스케일된 비디오 모드일 때 전술한 것처럼 프레임 버퍼 0, 1, 2, 4 및 6에 기억하기 위한 스케일된 매크로블록을 출력한다. 비디오 디코더의 움직임 보상 유닛으로부터의 기입 비디오 어드레스는 데시메이션 유닛내의 메모리 기입 제어(840)로 공급되고, 이 메모리 기입 제어는 데시메이션 버퍼(820)로부터의 데이터 기입을 제어한다. 데시메이션 스케일링의 적용 여부와 무관하게 기입 비디오 어드레스는 다중화기(850)를 통해 메모리 제어 유닛으로 출력된다(도 6 참조).8, the decimation unit includes decimation logic 800 that receives decoded video data from a video decoder and outputs the decimated data flow to a decimation buffer < RTI ID = 0.0 > 820). The output from the decimation buffer 820 is multiplexed 830 with undecimated decoded video data received from the video decoder and the multiplexer 830 decodes the decoded video data as well as the decoded video data, And outputs a scaled macroblock to be stored in the frame buffers 0, 1, 2, 4, The write video address from the motion compensation unit of the video decoder is supplied to the memory write control 840 in the decimation unit and this memory write control controls the writing of data from the decimation buffer 820. [ Irrespective of whether decimation scaling is applied or not, the write video address is output to the memory control unit via the multiplexer 850 (see FIG. 6).
다중화기(830, 850)는 데시메이트 제어 신호에 의해 제어된다. 데시메이트 제어 로직은 비디오 디코더의 움직임 보상 유닛으로부터 "MCU_block_complete"로 불리우는 신호를 입력으로 받아들인다. 이 신호는 데시메이터가 스케일된 매크로블록의 기입을 시작할 수 있는 시간을 지시한다. 데시메이터는 "decimator_busy" 신호로 데시메이터가 현재 동작중임을 움직임 보상 유닛에게 통지한다.The multiplexers 830 and 850 are controlled by a decimate control signal. The decimate control logic accepts a signal called "MCU_block_complete" as input from the motion compensation unit of the video decoder. This signal indicates the time at which the decimator can begin writing the scaled macroblock. The decimator notifies the motion compensation unit that the decimator is currently operating with the "decimator_busy" signal.
소정의 매크로블록의 경우, 두 개의 관점(phases)이 존재한다. 한 가지 관점은 휘도(luminance)에 관한 것이고, 다른 관점은 색(chrominance)에 관한 것이다. 각각의 관점은, 스케일된 비디오 모드라는 가정하에서, 완전 사이즈의 매크로블록 및 하나의 스케일된 매크로블록의 기입을 필요로 한다.In the case of a given macroblock, there are two phases. One aspect relates to luminance and the other relates to chrominance. Each view requires the writing of a full size macroblock and a single scaled macroblock under the assumption of a scaled video mode.
본 원에서는 이전에 설명된 데시메이션 하드웨어/프로세스에 대해 다양한 특정 변경을 가할 생각이다. 데시메이션 처리의 데이터 흐름에 있어서의 한 가지 변경은 4 대 1 수평 축소의 부가인데, 이것은 데시메이션 로직의 수평 데시메이트 기능으로 구현된다. 이것은 1/16 사이즈 스케일링을 지원하는 것이다.We will make various specific changes to the decimation hardware / process previously described. One change in the data flow of the decimation process is the addition of 4 to 1 horizontal reduction, which is implemented with the decimation function of the decimation logic. This supports 1/16 size scaling.
다른 변경은 데시메이션 버퍼 사이즈를 32 ×32 비트로 증가시키는 것이다. I 및 P 화상이 처리될 때, 완전 사이즈 매크로블록이 메모리에 기입되는 반면, 데시메이터는 동시에 이 매크로블록을 다운스케일링하고, 소형 매크로블록을 데시메이션 버퍼(820)에 기억하다. 완전 사이즈 매크로블록이 메모리에 기입된 이후, 데시메이터는 스케일된 메크로블록을 메모리내의 다른 버퍼 위치(예를 들면, 전술한 예에서 프레임 버퍼 2, 프레임 버퍼 4, 혹은 프레임 버퍼 6)에 기입한다. 더 큰 데시메이션 버퍼는 소형 매트로블록의 기억을 허용한다.Another change is to increase the size of the decimation buffer to 32 x 32 bits. When the I and P pictures are processed, the full size macro block is written to the memory while the decimator simultaneously scrambles the macroblock and stores the small macroblock in the decimation buffer 820. After the full size macroblock is written to memory, the decimator writes the scaled macroblock to another buffer location in memory (e.g., frame buffer 2, frame buffer 4, or frame buffer 6 in the example described above). Larger decimation buffers allow the storage of small matrox blocks.
또한, 데시메이트 상태 머신 로직(decimate state machine logic)은 스케일된 비디오 모드를 가정하고 두 가지 동작 모드를 허용하도록 변경된다. 첫 번째 모드는 B 화상 처리이고, 두 번째 모드는 기준 화상 처리이다. B 화상 처리의 경우, 오로지 소형 매크로블록만이 데시메이션 버퍼(820)를 통해 메모리로 기입된다. 데시메이션 버퍼는 완전히 스케일된 매크로블록을 보유할 수 있으므로, 데이터는 움직임 보상 유닛이 전송하는 속도에 맞추어 데시메이션 유닛을 통해 전송된다. 기준 화상 동작의 경우, 완전 사이즈 매크로블록이 먼저 다중화기(830)를 통해 메모리에 기입되고, 그 다음에 스케일된 매크로블록이 기입된다. 이것은 기입 요구에 따라 메모리 제어 유닛에 의해 데이터 흐름의 속도가 조정되는 것을 필요로 한다.In addition, the decimate state machine logic is modified to allow for two modes of operation, assuming a scaled video mode. The first mode is the B image processing, and the second mode is the reference image processing. In the case of B image processing, only small macroblocks are written into the memory through the decimation buffer 820. [ Since the decimation buffer may have a completely scaled macroblock, the data is transmitted through the decimation unit in accordance with the rate at which the motion compensation unit is transmitting. For a reference picture operation, the full size macroblock is first written to the memory via the multiplexer 830, and then the scaled macroblock is written. This requires that the speed of the data flow be adjusted by the memory control unit in accordance with the write request.
공급원의 압축 영상의 사이즈는 가변 가능하므로, 전술한 프로세스에 대해 예외가 존재한다. 스케일된 화상을 형성하는데 어떤 종류의 축소가 필요할 경우에는 데시메이터가 요구된다. 어떤 비디오 공급원은 이미 사이즈가 작아서, 한 쪽 치수 혹은 양 쪽 치수가 스케일링을 필요로 하지 않을 수도 있다. 예를 들면, 352 ×240 사이즈의 영상(전형적인 MPEG-1 사이즈임)을 갖는 것이 일반적이다. 이 경우, 1/4 스케일링을 제공하는 데시메이션을 행하는 것은 불필요할 것이다. 기준 프레임의 경우, 디스플레이 프로세스는 스케일링 동안에 디스플레이 프레임 버퍼에 대해서만 행해지므로, 움직임 보상 유닛이 메모리의 기준 프레임 버퍼에 완전 사이즈 매크로블록을 기입한 뒤, 다음에는 디스플레이 프레임 버퍼에 기입하는 것이 필요하다.Since the size of the compressed image of the source is variable, there is an exception to the process described above. A decimator is required when some sort of reduction is needed to form a scaled image. Some video sources are already small in size, so one or both dimensions may not require scaling. For example, it is common to have an image of 352 x 240 size (which is a typical MPEG-1 size). In this case, it would be unnecessary to perform decimation to provide 1/4 scaling. In the case of a reference frame, since the display process is performed only for the display frame buffer during scaling, it is necessary for the motion compensation unit to write the full size macro block to the reference frame buffer of the memory, and then write it to the display frame buffer.
동일한 영상 사이즈가 1/16 스케일링으로 축소되는 경우, 데시메이션 단계가 필요하다. 마찬가지로, 이 경우에도 예외가 존재한다.If the same image size is reduced to 1/16 scaling, a decimation step is required. Likewise, there are exceptions in this case as well.
스케일링하는 목적중 하나는 보간 가공물(interlacing artifacts)을 제거하는 것이다. 진짜 MPEG-1 영상에는, 화상이 배타적으로 프레임 엔코드되므로, 보간이 존재하지 않는다. MPEG-2는 동일한 해상도(352 ×240)의 보간 화상을 허용 가능하고, 데시메이터는 스케일된 매크로블록을 생성하는데 오로지 최상부 필드 화상(top field picture)만을 이용한다. 최하부 필드(bottom field)는 폐기된다. 그러므로, 기준 화상의 경우, MCU는 최상부 필드 화상에 대한 매크로블록을 기준 프레임 버퍼와 디스플레이 버퍼 모두에 기입하는 것을 필요로 한다. B 화상의 경우, MCU는 오로지 최상부 필드 화상을 디스플레이 프레임 버퍼에 기입하는 것만 필요하다.One of the purposes of scaling is to eliminate interlacing artifacts. In the real MPEG-1 video, there is no interpolation because the picture is frame-encoded exclusively. MPEG-2 allows an interpolated image of the same resolution (352 × 240), and the decimator only uses the top field picture to generate the scaled macroblock. The bottom field is discarded. Therefore, in the case of a reference picture, the MCU needs to write a macroblock for the top field picture into both the reference frame buffer and the display buffer. In the case of a B picture, the MCU only needs to write the topmost field picture to the display frame buffer.
본 발명에 따른 비디오 디코드 시스템은 소형 화상 모드로 진입하거나 빠져 나올 때에 원활한 천이를 제공한다. 비디오 스케일링 모드일 때, 프레임 버퍼 2는 소형 화상 영상(기준 화상과 B 화상 포함)의 수집(capture) 및 디스플레이를 위해 이용되므로, 디스플레이 포맷 스위칭 시점에서 디코드 및 디스플레이 프로세스 사이에 간섭이 발생하지 않도록 주의해야 한다. 또한, 천이동안 반드시 발생하는 1 필드 시간만큼의 대기시간 조정(latency adjustment)이 존재한다. 정규 디스플레이 모드는 기준 화상의 디코딩과 디스플레이 사이에 1.5프레임 대기시간을 갖고, B 화상의 경우에는 0.5 프레임 대기시간을 갖는다. 소형 화상 모드에서, 기준 프레임 대기시간은 2프레임까지 변하고, B 프레임 대기시간은 1프레임으로 변경된다.The video decoding system according to the present invention provides a smooth transition when entering or exiting a small image mode. In video scaling mode, frame buffer 2 is used for capture and display of small image images (including reference image and B picture), so care must be taken to avoid interference between the decoding and display processes at the display format switching time. Should be. There is also a latency adjustment of one field time that necessarily occurs during the transition. The regular display mode has a 1.5 frame waiting time between the decoding and display of the reference picture and a 0.5 frame waiting time in the case of the B picture. In the small image mode, the reference frame waiting time is changed to two frames, and the B frame waiting time is changed to one frame.
디스플레이 포맷 변경이 원활하게 발생하기 위해서는, 천이가 발생했을 때 디스플레이가 B 화상을 디스플레이하는 프로세스중이면 안되며, 만약 그렇다면, 화상이 교란되어 나타날 것이다. 그러므로, 천이는 기준 화상이 디스플레이될 때 발생해야 한다. 이것은 새로운 시퀀스의 첫 번째 프레임이 기준 프레임일 때 시퀀스 헤더(sequence header) 동안 마이크로 코드에 의해 강제로 발생되며, 디스플레이는 이전 시퀀스의 마지막 프레임에 대해 실행되고 있다.In order for the display format change to occur smoothly, the display should not be in the process of displaying the B picture when a transition occurs, and if so, the picture will appear disturbed. Therefore, the transition must occur when the reference image is displayed. This is forcefully generated by the microcode during the sequence header when the first frame of the new sequence is the reference frame and the display is being executed for the last frame of the previous sequence.
소형 화상 모드로/로부터 천이하는 동안, 하드웨어는 디코드 혹은 디스플레이 프로세스를 교란하지 않으면서 대기시간을 조정해야 한다. 프레임 동기는 새로운 모드에 대해 조정되어야 한다. 더 나아가, 필드 패리티(field parity)는 유지되어야 한다. 소형 화상 모드에 조정을 행한 결과, 1 프레임 시간의 지연이 도입되고, 이것은 PTS 비교에 영향을 미칠 수도 있다. 이 후에, 시간 차이를 메우기 위해 프레임을 건너뛰는 것(skip)이 필요할 수도 있다. 이것은 오로지 소형 화상 모드로 진입할 때에만 발생한다. 소형 화상 모드에서 빠져 나올 때는, 동기화에 손실이 존재하지 않는다. 천이는 화상을 건너뛰거나 반복하는 시점에서 이루어진다.During transitions to / from the small picture mode, the hardware must adjust the wait time without disturbing the decode or display process. Frame synchronization shall be adjusted for the new mode. Furthermore, the field parity must be maintained. As a result of making adjustments in the small image mode, a delay of one frame time is introduced, which may affect the PTS comparison. After this, it may be necessary to skip the frame to fill the time difference. This occurs only when entering the small image mode. When exiting the small image mode, there is no loss in synchronization. Transitions occur at the point where images are skipped or repeated.
도 9를 참조하면, 디스플레이 포맷 변경 신호는 호스트에 의해 비동기적으로 기입된다. 포맷은 제어 신호로서 디스플레이 포맷 레지스터(910)에 수신되고, 마이크로 코드는, 정보를 디스플레이 포맷 레지스트(910)에 기입하기 전에 시퀀스 헤더를 처리할 때까지 기다린다. 다음, 이 정보는 동기 발생기(900)뿐만 아니라 레지스터 단계(register stages)(930, 940 및 960)에도 보내진다. 레지스트 단계 1(930)은 다음 프레임 동기에서 정보를 수집한다. 디코드 처리는 단계 1 레지스터(930)를 이용하고, 디스플레이 처리는 단계 3 레지스터(960)를 이용한다.Referring to Fig. 9, the display format change signal is written asynchronously by the host. The format is received as a control signal in the display format register 910 and the microcode waits until the sequence header is processed before writing the information to the display format resister 910. [ This information is then sent to the register stages 930, 940 and 960 as well as to the synchronization generator 900. Resist step 1 930 gathers information at the next frame sync. The decoding process uses the step 1 register 930, and the display process uses the step 3 register 960.
필드 카운터(field counter)(920)는 단순히 프레임의 시작 필드 번호로부터 1까지 역으로 계수한 뒤, 이를 반복한다. 카운터(920)는 도시된 바와 같이 동기 발생기(900)에 의해 제어 신호를 통해 로드된다. 또한 동기 발생기(900)는 VSYNC 신호와, 단계 1 레지스터(930)의 출력을 수신한다. 동기 발생기(900)는 세 개의 신호를 만드는데, 즉, "프레임 동기(frame sync)" 신호, "신규 화상(new picture)" 신호 및 "차단 비디오(block video)" 신호를 만든다. "프레임 동기" 신호는 디코드 프로세스에게 신규 프레임의 디코딩을 시작할 때를 지시한다. "신규 화상" 신호는 디스플레이 프로세스에게 새로운 프레임의 디스플레이를 시작할 때를 지시한다. "차단 비디오" 신호는 비디오 디코드 시스템이 정규 프레임에서 스케일된 프레임으로 천이하는 동안 한 프레임의 비디오 영상을 선택적으로 억제(suppress)하기 위해 이용된다. 프레임 동기 및 신규 화상 신호는 2 필드 시간마다 한번씩 발생하는 펄스이다. 정규 모드에서는 신호들이 180°위상 차(out of phase)가 있지만, (본 발명에 따른) 스케일링 모드에서는 신호들이 동상(in phase)이다. 이것은 도 10의 흐름도와 관련하여 이후에 자세히 설명되어 있다.The field counter 920 simply counts backward from the starting field number of the frame to 1 and repeats this. The counter 920 is loaded with a control signal by the synchronization generator 900 as shown. The synchronization generator 900 also receives the VSYNC signal and the output of the step 1 register 930. The sync generator 900 produces three signals: a "frame sync" signal, a "new picture" signal, and a "block video" signal. The "frame sync" signal indicates when to start decoding the new frame to the decode process. The "new picture" signal indicates when to start displaying a new frame to the display process. The "intercept video" signal is used to selectively suppress the video image of one frame while the video decode system transitions from the normal frame to the scaled frame. The frame sync and the new image signal are pulses that are generated once every two field times. In normal mode, the signals are 180 degrees out of phase, but in scaling mode (according to the invention) the signals are in phase. This is described in detail later with respect to the flowchart of Fig.
스케일된 화상 모드로의 스위치가 관련된 모든 경우에는, 디스플레이상에서의 시청이 차단된 반복 프레임이 존재한다. 차단은 현재 기준 프레임과 현재 디스플레이되고 있는 기준 프레임 사이의 충돌을 완충해야 하므로 필요하다. 비디오가 차단될 때, 디코더의 출력은 강제로 검정색같은 배경색으로 될 수 있다.In all cases where a switch to a scaled picture mode is involved, there is a repeated frame where viewing on the display is blocked. Blocking is necessary because the collision between the current reference frame and the currently displayed reference frame must be buffered. When the video is interrupted, the output of the decoder can be forced to a black background color.
대기시간 조정은 단계 1 레지스터가 변하자마자 수행된다. 프레임 동기가 부재(absence)함으로써, 현재 디스플레이 프레임이 반복될 수 있게 된다. 다음에, 동기 발생기는 새로운 화상과 동상으로 프레임 동기를 조정함으로써, 대기시간을 조정한다. 반복되는 기준 프레임 동안, 비디오는 1 프레임 시간동안 차단된다.The wait time adjustment is performed as soon as the phase 1 register changes. By absence of frame synchronization, the current display frame can be repeated. Next, the synchronization generator adjusts the waiting time by adjusting the frame synchronization with the new image. During repeated reference frames, the video is interrupted for one frame time.
도 10은 동기발생기(900)(도 9 참조)에 의해 구현되는 처리의 일 실시예의 흐름도이다.10 is a flow diagram of one embodiment of the processing implemented by the synchronization generator 900 (see FIG. 9).
초기 단계(1000)에서, 신규 필드의 시작을 나타내는 VSYNC 신호(1010)를 기다린다. VSYNC 신호를 수신하면, "신규 화상" 동기 신호를 발생시키고, 이 필드가 수신된 MPEG-2 구문(syntax)에 근거하여 반복되는 것인지 질의한다(1030). 초기 필드 카운터(FC)의 값은 필드가 반복되는 것인지의 여부에 따라 좌우된다. 만약 3:2 풀다운(pulldown)이 채용되었다면, 필드 카운터의 초기값은 3이고(1040), 그렇지 않다면, 정규 인터레이스(normal interlace)가 바람직하며 필드 카운터에는 2의 값이 로드된다.In an initial step 1000, a VSYNC signal 1010 indicating the start of a new field is awaited. Upon receiving the VSYNC signal, it generates a "new picture" sync signal and queries 1030 whether this field is repeated based on the received MPEG-2 syntax. The value of the initial field counter FC depends on whether the field is repeated or not. If a 3: 2 pulldown is employed, the initial value of the field counter is 3 (1040); otherwise, a normal interlace is preferred and a field counter is loaded with a value of 2.
일단 필드 카운터가 설정되면, 스케일링이 구현될 것인지를 각각 질의한다(1050, 1070). 구현되지 않을 경우, 디코드 시스템은 비 스케일링(non-scaling) 혹은 정규 모드이다. 이 경우, 다음 VSYNC 신호를 대기한 뒤(1080), 필드 카운터가 2인지를 질의한다(1090). 만약 아니라면(예를 들어 필드 카운터에 3의 값이 로드되었기 때문임), 필드 카운터는 감소되고(1110), 처리는 다음 VSYNC 신호를 대기한다(1080). 일단 필드 카운터가 2이면, "프레임 동기" 신호가 발생되고(1100), 그 이후에 필드 카운터는 감소하며(1110), 처리는 이제 필드 카운터의 값이 1인지를 판정한다(1120). 만약 값이 1이면, 새로운 VSYNC를 대기(1010)한 후에 "신규 화상" 신호를 발생한다(1120).Once the field counter is set, it queries whether scaling is to be implemented (1050, 1070), respectively. If not implemented, the decode system is either non-scaling or normal mode. In this case, after waiting for the next VSYNC signal (1080), it inquires whether the field counter is 2 (1090). If not (e.g., because a value of 3 is loaded in the field counter), the field counter is decremented 1110 and processing waits for the next VSYNC signal 1080. Once the field counter is 2, a "frame sync" signal is generated 1100, after which the field counter is decremented 1110 and processing then determines 1120 that the value of the field counter is 1. If the value is 1, a new video signal is generated 1120 after waiting 1010 a new VSYNC.
스케일링 모드가 요망되는 것으로 가정하면, 처리는 질의(1050 또는 1070)에서 다음 VSYNC 대기(1130)로 진행하고, 그 이후에 필드 카운터가 1인지에 대한 판정이 행해진다(1140). 만약 아니라면, 필드 카운터는 감소되고, 처리는 다음 VSYNC를 대기하기 위해 복귀한다(1130). 만약 필드 카운터의 값이 1이면, 신규 화상 동기 신호가 발생된다(1150). 그 이후에, 필드 카운터에는 2의 값이 로드되고, 차단 비디오 신호가 발생된다(1160). 다시, 차단 비디오 신호는 비디오의 다음 프레임의 차단을 위해 동기 발생기로부터 디스플레이 출력 인터페이스(도 6 참조)로 출력된다.Assuming that a scaling mode is desired, processing proceeds from query 1050 or 1070 to the next VSYNC wait 1130, after which a determination is made whether the field counter is 1 (1140). If not, the field counter is decremented and processing returns (1130) to wait for the next VSYNC. If the value of the field counter is 1, a new image synchronization signal is generated (1150). Thereafter, a value of 2 is loaded into the field counter and a blocking video signal is generated (1160). Again, the intercepting video signal is output from the sync generator to the display output interface (see FIG. 6) for interception of the next frame of video.
차단 비디오 신호를 보낸 후에, 처리는 정상 상태로 진입하여, 다음 VSYNC 신호를 대기함으로써 비디오 스케일링 서브프로세스(subprocess)가 개시되고, 그 이후에 처리는 필드 카운터가 1인지를 판정한다(1190). 만약 아니라면, 필드 카운터가 2인지 질의하고(1240), 또다시 아니라면, 필드 카운터를 감소시키고(1260), 다음 VSYNC 신호를 대기하기 위해 복귀한다(1180). 그렇지 않다면, 스케일링 커맨드가 호스트 시스템에 의해 턴-오프되었는지 판정한다(1250). 만약 아니라면, 필드 카운터는 감소되고, 다음 VSYNC 신호를 대기한다(1180). 만약 스케일링 모드가 스위치 오프되었다면, 전술한 비 스케일링 프로세스에서 필드 카운터가 지시문(1110)에서 감소된다.After sending the intercepting video signal, the process enters a steady state and the video scaling subprocess is started by waiting for the next VSYNC signal, after which processing determines whether the field counter is one (1190). If not, the field counter is queried (1240), and if not, the field counter is decremented (1260) and returned (1180) to wait for the next VSYNC signal. Otherwise, a determination is made whether the scaling command is turned off by the host system (1250). If not, the field counter is decremented and waits for the next VSYNC signal (1180). If the scaling mode is switched off, the field counter is decremented in the directive 1110 in the non-scaling process described above.
만약 질의(1190)에서 필드 카운터가 1이라면, "신규 화상" 신호와 "프레임 동기" 신호가 동상으로 발생된다. 다시, 스케일링을 구현하기 위해, 기준 화상의경우에는 디코드 프로세스와 디스플레이 프로세스 사이의 대기시간을 1.5 프레임 시간에서 2 프레임 시간으로 변경하여, 신규 화상 신호와 프레임 동기신호를 동상으로 만드는 것이 필요하다. 다음, 정규 인터레이싱이 요망되는지 혹은 3:2 풀다운이 요망되는지에 따라 필드 카운터에 2의 값을 로드할지(1230) 혹은 3의 값을 로드할지(1220)를 정하기 위해 MPEG-2 반복 필드가 설정되었는지 판정한다(1210). 이것은 모든 유형의 프레임율 변환(frame rate conversion)을 수용하기 위해 대기시간 조정이 행해지는 경우라도 필수적이다. 필드 카운터를 설정한 뒤, 처리는 다음 VSYNC 신호를 대기하기 위해 복귀한다(1180).If the field counter is 1 in query 1190, a "new picture" signal and a "frame sync" Again, in order to implement scaling, in the case of a reference picture, it is necessary to change the waiting time between the decoding process and the display process from 1.5 frame time to 2 frame time to make the new image signal and the frame synchronizing signal into the same phase. Next, an MPEG-2 repeat field is set to determine whether to load a value of 2 (1230) or a value of 3 (1220) to the field counter depending on whether regular interlacing is desired or a 3: 2 pull down is desired (1210). This is necessary even if latency adjustments are made to accommodate all types of frame rate conversions. After setting the field counter, the process returns (1180) to wait for the next VSYNC signal.
본 발명은 예를 들어 컴퓨터 이용 가능 매체를 갖는 제조물(예컨대 하나 이상의 컴퓨터 프로그램 제품)에 포함될 수 있다. 이 매체는 본 발명의 능력을 제공 및 용이하게 하기 위해 예컨대 컴퓨터 판독 가능 프로그램 코드 수단에 내장된다. 이 제조물은 컴퓨터 시스템의 일부로서 포함될 수 있으며, 그렇지 않고 단독으로 판매될 수도 있다.The invention may be included, for example, in an article of manufacture (e.g., one or more computer program products) having a computer usable medium. The medium is embedded in, for example, computer readable program code means for providing and facilitating the capabilities of the present invention. The article of manufacture may be included as part of a computer system, or may be sold alone.
또한, 본 발명의 능력을 수행하기 위해, 기계에 의해 판독 가능하고, 기계에 의해 실행 가능한 명령어들로 이루어진 적어도 하나의 프로그램을 실물로 구현한 적어도 하나의 프로그램 기억 장치가 제공될 수 있다.Also, in order to perform the capabilities of the present invention, at least one program storage device that realizes at least one program that is machine readable and that is executable by machine-executable instructions may be provided.
본 원에 도시된 흐름도는 예시를 위한 것이다. 본 원에 설명된 흐름도나 단계(혹은 동작)는 본 발명의 사상을 이탈하지 않으면서 변경할 수 있다. 예로서, 어떤 경우에, 단계들이 다른 순서로 실행될 수도 있고, 혹은 단계들이 추가, 삭제 혹은 변경될 수도 있다. 이러한 변형 모두는 첨부된 특허청구범위에 언급된 본 발명의 부분을 의미하는 것으로 간주된다.The flow charts shown herein are for illustrative purposes only. The flowcharts or steps (or operations) described herein can be modified without departing from the spirit of the invention. As an example, in some cases, the steps may be executed in a different order, or the steps may be added, deleted or changed. All such modifications are considered to be part of the invention as set forth in the appended claims.
본 원에서는 본 발명이 특정한 바람직한 실시예에 따라 상세히 설명되었지만, 당업자에 의해 많은 수정과 변경이 가해질 수도 있을 것이다. 따라서, 첨부된 특허청구범위는 이러한 수정과 변경 모두를 본 발명의 진정한 사상과 범주내에 있는 것으로 포함하도록 의도되었다.Although the present invention has been described in detail in accordance with certain preferred embodiments thereof, many modifications and changes may be made by those skilled in the art. Accordingly, it is intended by the appended claims to cover all such modifications and variations as fall within the true spirit and scope of the invention.
따라서, 본 발명에 따르면, 추가되는 생산비를 최소화하면서 예컨대 디지털 비디오 디코드 셋톱 박스나 디지털 비디오 디스크 플레이어같은 통합 디지털 비디오 시스템에 동시화면 특징을 추가함으로써, 다중 화상(multiple pictures)을 동시에 디스플레이 가능한 비 동시화면 텔레비전 시스템을 제공할 수 있다.Thus, according to the present invention, a simultaneous display feature can be added to an integrated digital video system, such as a digital video decode set-top box or a digital video disk player, for example, while minimizing the additional production cost, A television system can be provided.
Claims (20)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US09/328,756 US6519283B1 (en) | 1999-01-25 | 1999-06-09 | Integrated video processing system having multiple video sources and implementing picture-in-picture with on-screen display graphics |
US09/328,756 | 1999-06-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20010007175A true KR20010007175A (en) | 2001-01-26 |
KR100385527B1 KR100385527B1 (en) | 2003-05-27 |
Family
ID=23282303
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2000-0030051A KR100385527B1 (en) | 1999-06-09 | 2000-06-01 | Integrated video processing system having multiple video sources and implementing picture-in-picture with on-screen display graphics |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP3685386B2 (en) |
KR (1) | KR100385527B1 (en) |
MY (1) | MY127855A (en) |
SG (1) | SG99306A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100531311B1 (en) * | 2004-01-09 | 2005-11-29 | 엘지전자 주식회사 | method to implement OSD which has multi-path |
CN115550608A (en) * | 2022-09-19 | 2022-12-30 | 国网智能科技股份有限公司 | Multi-user high-concurrency AI video real-time fusion display control method and system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100517979B1 (en) | 2002-12-10 | 2005-10-04 | 엘지전자 주식회사 | Video overlay apparatus for mobile communication device |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2590899B2 (en) * | 1987-07-24 | 1997-03-12 | 松下電器産業株式会社 | Character / graphic information display device |
US5208660A (en) * | 1989-07-29 | 1993-05-04 | Sharp Kabushiki Kaisha | Television display apparatus having picture-in-picture display function and the method of operating the same |
JPH03112279A (en) * | 1989-09-26 | 1991-05-13 | Toshiba Corp | High definition multi-screen television receiver |
SG44005A1 (en) * | 1992-12-11 | 1997-11-14 | Philips Electronics Nv | System for combining multiple-format multiple-source video signals |
JPH0990921A (en) * | 1995-09-20 | 1997-04-04 | Sony Corp | Image synthesizer and receiver |
KR970048332A (en) * | 1995-12-29 | 1997-07-29 | 김태구 | Bumper Performance Tester |
US5847771A (en) * | 1996-08-14 | 1998-12-08 | Bell Atlantic Network Services, Inc. | Digital entertainment terminal providing multiple digital pictures |
KR100265231B1 (en) * | 1997-07-03 | 2000-09-15 | 윤종용 | Television receiver for simultaneously viewing double picture having differrnt broadcasting formats |
US6141062A (en) * | 1998-06-01 | 2000-10-31 | Ati Technologies, Inc. | Method and apparatus for combining video streams |
-
2000
- 2000-05-24 MY MYPI20002290A patent/MY127855A/en unknown
- 2000-05-30 SG SG200002913A patent/SG99306A1/en unknown
- 2000-06-01 KR KR10-2000-0030051A patent/KR100385527B1/en active IP Right Grant
- 2000-06-09 JP JP2000173413A patent/JP3685386B2/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100531311B1 (en) * | 2004-01-09 | 2005-11-29 | 엘지전자 주식회사 | method to implement OSD which has multi-path |
CN115550608A (en) * | 2022-09-19 | 2022-12-30 | 国网智能科技股份有限公司 | Multi-user high-concurrency AI video real-time fusion display control method and system |
Also Published As
Publication number | Publication date |
---|---|
MY127855A (en) | 2006-12-29 |
JP3685386B2 (en) | 2005-08-17 |
SG99306A1 (en) | 2003-10-27 |
JP2001045370A (en) | 2001-02-16 |
KR100385527B1 (en) | 2003-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6519283B1 (en) | Integrated video processing system having multiple video sources and implementing picture-in-picture with on-screen display graphics | |
KR100376607B1 (en) | Mpeg video decoder with integrated scaling and display functions | |
US6442206B1 (en) | Anti-flicker logic for MPEG video decoder with integrated scaling and display functions | |
US5990958A (en) | Apparatus and method for MPEG video decompression | |
US5903261A (en) | Computer based video system | |
US6642934B2 (en) | Color mapped and direct color OSD region processor with support for 4:2:2 profile decode function | |
US7030932B2 (en) | Apparatus and method for converting multi-source input images | |
US5870087A (en) | MPEG decoder system and method having a unified memory for transport decode and system controller functions | |
KR101366203B1 (en) | Shared memory multi video channel display apparatus and methods | |
US6493005B1 (en) | On screen display | |
US6996838B2 (en) | System and method for media processing with adaptive resource access priority assignment | |
KR101335270B1 (en) | Shared memory multi video channel display apparatus and methods | |
KR101366199B1 (en) | Shared memory multi video channel display apparatus and methods | |
JP2010051004A (en) | System and method for adaptive decoding of video signal with coordinated resource allocation | |
JPH08228349A (en) | Mpeg video decoder provided with high band width memory | |
US20040028142A1 (en) | Video decoding system | |
US5907372A (en) | Decoding/displaying device for decoding/displaying coded picture data generated by high efficiency coding for interlace scanning picture format | |
US5929911A (en) | Multiformat reduced memory MPEG-2 compliant decoder | |
US6525783B1 (en) | Video decoding system | |
KR100995032B1 (en) | Apparatus of video decoding device having picture freeze and method of the same | |
KR100385527B1 (en) | Integrated video processing system having multiple video sources and implementing picture-in-picture with on-screen display graphics | |
US20020064230A1 (en) | Decoding apparatus, decoding method, decoding processing program and computer-readable storage medium having decoding processing program codes stored therein | |
Brosz et al. | A single-chip HDTV video decoder design | |
KR100425136B1 (en) | Video decoding system | |
JP2004187110A (en) | Method of displaying and controlling video and video display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130425 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20140425 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20150506 Year of fee payment: 13 |
|
FPAY | Annual fee payment |
Payment date: 20160427 Year of fee payment: 14 |
|
FPAY | Annual fee payment |
Payment date: 20170428 Year of fee payment: 15 |
|
FPAY | Annual fee payment |
Payment date: 20180509 Year of fee payment: 16 |
|
FPAY | Annual fee payment |
Payment date: 20190426 Year of fee payment: 17 |