KR100623710B1 - Method of processing a plurality of moving picture contents by sharing a hardware resource - Google Patents
Method of processing a plurality of moving picture contents by sharing a hardware resource Download PDFInfo
- Publication number
- KR100623710B1 KR100623710B1 KR1020060045022A KR20060045022A KR100623710B1 KR 100623710 B1 KR100623710 B1 KR 100623710B1 KR 1020060045022 A KR1020060045022 A KR 1020060045022A KR 20060045022 A KR20060045022 A KR 20060045022A KR 100623710 B1 KR100623710 B1 KR 100623710B1
- Authority
- KR
- South Korea
- Prior art keywords
- video
- priority
- mpeg
- video content
- sharing
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/231—Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/238—Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
- H04N21/2385—Channel allocation; Bandwidth allocation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
하드웨어 리소스를 공유하여 복수의 멀티미디어 데이터를 처리하는 방법을 개시한다. 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하는 방법은 복수의 동영상 콘텐츠들을 입력받는 단계, 상기 동영상 콘텐츠들에 대한 비디오 프로세싱의 우선순위를 할당하는 단계, 비디오 프로세서를 공유하기 위하여 상기 할당된 우선순위에 따라, 상기 동영상 콘텐츠들에 대한 비디오 프로세싱을 위한 채널 대역폭을 할당하는 단계, 상기 할당된 채널 대역폭에 따라, 상기 동영상 콘텐츠들을 상기 비디오 프로세서에 제공하는 단계를 포함하고, 상기 동영상 콘텐츠들을 입력받는 단계, 우선순위를 할당하는 단계, 상기 채널 대역폭을 할당하는 단계 및 상기 비디오 프로세서에 제공하는 단계는 중앙처리장치(Central Processing Unit, CPU)와 독립적인 별도의 전용 프로세서에 의해 수행된다.A method of processing a plurality of multimedia data by sharing hardware resources is disclosed. A method of processing a plurality of video contents by sharing a hardware resource may include receiving a plurality of video contents, assigning a priority of video processing to the video contents, and assigning the assigned priority to share a video processor. And allocating a channel bandwidth for video processing for the video contents, and providing the video contents to the video processor according to the allocated channel bandwidth, and receiving the video contents. , Allocating priorities, allocating the channel bandwidth and providing the video processor are performed by a separate dedicated processor independent of a central processing unit (CPU).
하드웨어 공유, MPEG 인코더 공유, MPEG 디코더 공유 Hardware Sharing, MPEG Encoder Sharing, MPEG Decoder Sharing
Description
도 1은 본 발명의 일 실시예에 따른 멀티미디어 데이터 처리 시스템의 구성을 나타내는 블록도이다.1 is a block diagram showing a configuration of a multimedia data processing system according to an embodiment of the present invention.
도 2는 도 1의 멀티미디어 데이터 프로세서의 구성을 나타내는 블록도이다.FIG. 2 is a block diagram illustrating a configuration of the multimedia data processor of FIG. 1.
도 3은 멀티미디어 데이터 프로세서와 MPEG 인코더 간의 데이터 전송방식을 나타내는 개념도이다.3 is a conceptual diagram illustrating a data transmission method between a multimedia data processor and an MPEG encoder.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
110 : 멀티미디어 데이터 프로세서 130 : MPEG 인코더110: multimedia data processor 130: MPEG encoder
140 : MPEG 디코더140: MPEG decoder
본 발명은 복수의 동영상 콘텐츠를 처리하는 방법에 관한 것으로 특히, 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하는 방법에 관한 것이다.The present invention relates to a method for processing a plurality of video content, and more particularly, to a method for processing a plurality of video content by sharing hardware resources.
오늘날 정지 영상, 동영상, 음악과 같은 멀티미디어 데이터를 저장하고 복원 하는 디지털 장치들은 데이터 용량을 줄이기 위하여 동영상 콘텐츠를 MPEG(Moving Picture Expert Group)과 같은 소정의 방식으로 압축된 후 사용자의 요구에 따라 상기 압축된 동영상 콘텐츠를 복원한다.Today, digital devices for storing and restoring multimedia data such as still images, movies, and music are compressed in a predetermined manner such as a moving picture expert group (MPEG) in order to reduce data capacity, and then the compression is performed according to a user's request. The restored video contents.
예를 들어, DVR(Digital Video Recorder)로 특정한 객체를 녹화할 경우 MPEG과 같은 소정의 방식으로 데이터를 DVR은 MPEG 인코더를 이용하여 압축한 후 플래시 메모리와 같은 데이터 저장 장치에 저장하고, 사용자의 요구에 따라 상기 압축된 데이터를 MPEG 디코더를 이용하여 복원한 후 사용자에게 녹화된 객체를 재생한다. 또한 디지털 TV(Television)의 경우 수신된 MPEG 데이터를 MPEG 디코더를 이용하여 상기 수신된 MPEG 데이터를 복원한 후 사용자에게 수신된 MPEG 데이터를 재생한다.For example, when recording a specific object with a DVR (Digital Video Recorder), the DVR compresses the data by using a MPEG encoder in a predetermined manner such as MPEG, and then stores the data in a data storage device such as a flash memory. In accordance with the present invention, the compressed data is restored using an MPEG decoder, and then the recorded object is played back to the user. In addition, in the case of a digital TV, the received MPEG data is restored using the MPEG decoder to reproduce the received MPEG data to the user.
상기에서 살펴본 바와 같이 종래 동영상 콘텐츠를 압축 및 복원하는 장치(예를 들어 MPEG 인코더 및 MPEG 디코더)들은 각각 MPEG 인코더 및/또는 MPEG 디코더를 구비하여 동영상 콘텐츠를 처리하는 것이 일반적이다. 즉, 네트워크 멀티미디어 데이터 서버, 카메라, DVR 및 디지털 TV 등과 같은 MPEG 데이터를 처리하는 장치들은 멀티미디어 데이터를 처리하기 위하여 모두 각각의 MPEG 인코더 및/또는 MPEG 디코더를 구비한다.As described above, devices (for example, MPEG encoders and MPEG decoders) for compressing and decompressing conventional video contents generally include an MPEG encoder and / or an MPEG decoder to process video contents. That is, devices that process MPEG data, such as network multimedia data servers, cameras, DVRs, and digital TVs, all have respective MPEG encoders and / or MPEG decoders for processing multimedia data.
상기에서 살펴본 바와 같이 각각 독립적인 MPEG 인코더와 MPEG 디코더를 추가하는 것은 비슷한 하드웨어 구성을 복수 설치하여야 하는 한계 때문에 제품의 원가를 상승시키고 제품의 부피의 증가와 소모전력의 증가를 가져오는 문제점이 발생한다.As described above, the addition of independent MPEG encoders and MPEG decoders increases the cost of the product, increases the volume of the product, and increases the power consumption due to the limitation of installing a plurality of similar hardware configurations. .
본 발명의 목적은 상기 종래 기술의 문제점을 해결하기 위하여 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하는 방법을 제공하는데 있다.An object of the present invention is to provide a method for processing a plurality of video content by sharing hardware resources to solve the problems of the prior art.
상기 목적을 달성하기 위하여 본 발명의 하드웨어 리소스를 공유하여 복수의 동영상 콘텐츠를 처리하는 방법은 복수의 동영상 콘텐츠들을 입력받는 단계, 상기 동영상 콘텐츠들에 대한 비디오 프로세싱의 우선순위를 할당하는 단계, 비디오 프로세서를 공유하기 위하여 상기 할당된 우선순위에 따라, 상기 동영상 콘텐츠들에 대한 비디오 프로세싱을 위한 채널 대역폭을 할당하는 단계, 상기 할당된 채널 대역폭에 따라, 상기 동영상 콘텐츠들을 상기 비디오 프로세서에 제공하는 단계를 포함하고, 상기 동영상 콘텐츠들을 입력받는 단계, 우선순위를 할당하는 단계, 상기 채널 대역폭을 할당하는 단계 및 상기 비디오 프로세서에 제공하는 단계는 중앙처리장치(Central Processing Unit, CPU)와 독립적인 별도의 전용 프로세서에 의해 수행된다.In order to achieve the above object, a method of processing a plurality of video contents by sharing a hardware resource of the present invention comprises: receiving a plurality of video contents, assigning a priority of video processing to the video contents, a video processor Allocating a channel bandwidth for video processing for the video contents according to the assigned priority to share a video, and providing the video contents to the video processor according to the allocated channel bandwidth. And receiving the video contents, assigning priorities, allocating the channel bandwidth, and providing the video processor to the video processor are separate dedicated processors independent of a central processing unit (CPU). Is performed by.
상기 동영상 콘텐츠들을 입력받는 단계 및 상기 비디오 프로세서에 제공하는 단계는 선입선출(First In First Out, FIFO) 버퍼를 이용하여 상기 동영상 콘텐츠들을 순차적으로 저장하는 단계를 포함할 수 있다.The receiving of the video contents and providing the video contents to the video processor may include sequentially storing the video contents using a first in first out (FIFO) buffer.
상기 우선순위는 초당 전송될 수 있는 최대 프레임들에 대하여 실제로 전송할 프레임에 비율일 수 있고, 상기 동영상 콘텐츠가 실시간 디스플레이 채널인지, 저장용 채널인지, 전송용 채널인지를 기초로 결정될 수도 있다.The priority may be a ratio of the frames to be actually transmitted to the maximum frames that can be transmitted per second, and may be determined based on whether the video content is a real-time display channel, a storage channel, or a transmission channel.
따라서 본 발명에서는 MPEG 인코더 및 디코더와 같은 하드웨어를 공유하여 적은 비용으로 동영상 콘텐츠를 처리할 수 있다.Therefore, in the present invention, video content can be processed at low cost by sharing hardware such as an MPEG encoder and a decoder.
본문에 개시되어 있는 본 발명의 실시예들에 대해서, 특정한 구조적 내지 기능적 설명들은 단지 본 발명의 실시예를 설명하기 위한 목적으로 예시된 것으로, 본 발명의 실시예들은 다양한 형태로 실시될 수 있으며 본문에 설명된 실시예들에 한정되는 것으로 해석되어서는 아니 된다.With respect to the embodiments of the present invention disclosed in the text, specific structural to functional descriptions are merely illustrated for the purpose of describing embodiments of the present invention, embodiments of the present invention may be implemented in various forms and It should not be construed as limited to the embodiments described in.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위로부터 이탈되지 않은 채 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접 속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle. Other expressions describing the relationship between components, such as "between" and "immediately between," or "neighboring to," and "directly neighboring to" should be interpreted as well.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "having" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof that is described, and that one or more other features or numbers are present. It should be understood that it does not exclude in advance the possibility of the presence or addition of steps, actions, components, parts or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
한편, 어떤 실시예가 달리 구현 가능한 경우에 특정 블록 내에 명기된 기능 또는 동작이 순서도에 명기된 순서와 다르게 일어날 수도 있다. 예를 들어, 연속하는 두 블록이 실제로는 실질적으로 동시에 수행될 수도 있고, 관련된 기능 또는 동 작에 따라서는 상기 블록들이 거꾸로 수행될 수도 있다.On the other hand, when an embodiment is otherwise implemented, a function or operation specified in a specific block may occur out of the order specified in the flowchart. For example, two consecutive blocks may actually be performed substantially simultaneously, and the blocks may be performed upside down depending on the function or operation involved.
이하 본 발명의 실시예들을 도면과 함께 설명하고자 한다. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 멀티미디어 데이터 처리 시스템의 구성을 나타내는 블록도이다.1 is a block diagram showing a configuration of a multimedia data processing system according to an embodiment of the present invention.
도 1을 참조하면, 멀티미디어 데이터 처리 시스템(100)은 멀티미디어 데이터 프로세서(110), 중앙처리장치(Central Processing Unit, CPU) (120), 비디오 프로세서(130), 입력 인터페이스들(142~144), MPEG 디코더(134), 출력 인터페이스들(152~154)을 포함한다.Referring to FIG. 1, the multimedia
비디오 프로세서(130)는 MPEG 인코더(132) 및 MPEG 디코더(134)를 포함한다.
MPEG 인코더(132)는 멀티미디어 데이터 프로세서(110)로부터 동영상 콘텐츠를 입력받고, 입력받은 동영상 콘텐츠를 MPEG 방식으로 압축한다. 예를 들어, MPEG 인코더(132)가 멀티미디어 데이터 프로세서(110)로부터 영상 데이터를 입력받은 경우에는 MPEG 인코더(132)는 MPEG 방식으로 입력된 영상 데이터를 압축한다.The
MPEG 디코더(134)는 멀티미디어 데이터 프로세서(110)로부터 MPEG 방식으로 압축된 동영상 콘텐츠를 입력받고, 압축된 동영상 콘텐츠를 복원한다. 예를 들어, MPEG 디코더(134)가 멀티미디어 데이터 프로세서(110)로부터 압축된 영상 데이터를 입력받은 경우에는 MPEG 디코더(130)는 압축된 영상 데이터를 복원한다.The MPEG
입력 인터페이스들(142~144) 및 출력 인터페이스들(152~154)은 각각 외부 장치들로부터 동영상 콘텐츠를 전달받거나 외부 장치들에게 동영상 콘텐츠를 전달한다. 예를 들어, 제1 입력 인터페이스(142)는 카메라에 대한 입력 인터페이스를 제 공할 수 있으며, 제1 출력 인터페이스(152)는 TV에 대한 출력 인터페이스를 제공할 수 있다.The input interfaces 142-144 and the output interfaces 152-154 respectively receive video content from external devices or deliver video content to external devices. For example, the
CPU(120)는 멀티미디어 데이터 처리 시스템(100)의 전체적인 동작을 제어한다. 예를 들어 CPU(120)는 멀티미디어 데이터 프로세서(110)와 네트워크(160)간의 데이터 교환 및/또는 멀티미디어 데이터 프로세서(110)와 하드 디스크(170)간의 데이터 교환을 위하여 버스(150)를 제어할 수 있다.The
우선, 멀티미디어 데이터 프로세서(110)는 입력 인터페이스들(142~144)로부터 출력된 동영상 콘텐츠를 각각 입력받고, 상기 입력된 각각의 동영상 콘텐츠를 MPEG 방식으로 압축하기 위하여 MPEG 인코더(132)에 상기 입력된 각각의 동영상 콘텐츠를 전달한다. 멀티미디어 데이터 프로세서(110)는 상기 입력된 각각의 동영상 콘텐츠에 우선순위를 부여할 수 있고, 상기 우선순위에 따라 멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132)간의 채널 대역폭을 할당할 수 있다.First, the
우선순위는 초당 전송될 수 있는 최대 프레임들에 대하여 실제로 전송할 프레임에 비율이 될 수 있다. 예를 들어, MPEG 시스템이 국제무선통신자문위원회의 CCIR 601 표준을 따를 경우 MPEG 시스템은 초당 30 프레임을 전송할 수 있는 속도를 지원한다. 따라서 제2 입력 인터페이스(144)와 연결된 외부 장치(예를 들어 DVR)로부터 입력된 데이터가 초당 15 프레임을 전송해야 할 경우라면 멀티미디어 데이터 프로세서(110)는 제2 입력 인터페이스(144)로부터 입력된 동영상 콘텐츠에 대해서는 우선순위를 15로 할당할 수 있다.The priority can be a ratio of the frames actually transmitted to the maximum frames that can be transmitted per second. For example, if the MPEG system complies with the CCIR 601 standard of the International Radiocommunication Advisory Committee, the MPEG system supports a rate of 30 frames per second. Therefore, if data input from an external device (for example, a DVR) connected to the
제2 입력 인터페이스(144)로부터 입력된 동영상 콘텐츠의 우선순위는 15 이 므로 상기 동영상 콘텐츠에 대한 멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132)간의 채널 대역폭은 전체 채널 대역폭의 1/2이 될 수 있다.Since the priority of the video content input from the
MPEG 인코더(132)에 의하여 압축된 각각의 동영상 콘텐츠는 하드 디스크, 플래시 메모리와 같은 데이터 저장 장치에 저장될 수 있다.Each video content compressed by the
도 3은 멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132)간의 데이터 전송방식을 나타내는 개념도이다.3 is a conceptual diagram illustrating a data transmission method between the
도 3의 경우, 멀티미디어 데이터 프로세서(110)는 4개의 외부 장치들(미도시됨)로부터 동영상 콘텐츠를 입력받고 있다. 상기 4개의 외부 장치들로부터 입력된 동영상 콘텐츠의 채널은 각각 제1 내지 제4 채널들(310~340)에 대응한다.In the case of FIG. 3, the
예를 들어, 멀티미디어 데이터 시스템은 초당 30 프레임들을 전송하는 국제무선통신자문위원회의 CCIR 601 표준을 따르고, 제1 채널(310)은 실시간의 화면을 나타내는 데이터이고, 제2 및 제3 채널들(320~330)은 데이터 저장 장치에 저장하기 위한 데이터이며, 제4 채널(340)은 전송용 데이터라고 가정하면 각 채널들(310~340)이 초당 전송해야 할 최대 프레임들이 각각 15, 7, 7, 1 프레임일 수 있다.For example, the multimedia data system complies with the CCIR 601 standard of the International Radiocommunication Advisory Committee, which transmits 30 frames per second, the
따라서 각 채널들(310~340)에 대한 우선순위는 15, 7, 7, 1 이 될 수 있고 각 채널들(310~340)에 대응하는 멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132)간의 채널 대역폭 역시 15/30, 7/30, 7/30, 1/30 이 될 수 있다.Therefore, the priority of each of the
다음으로, 멀티미디어 데이터 프로세서(110)는 하드 디스크, 플래시와 같은 데이터 저장 장치들에 저장된 압축된 동영상 콘텐츠를 읽고, 상기 압축된 동영상 콘텐츠를 복원하기 위하여 MPEG 디코더(134)에 상기 압축된 동영상 콘텐츠를 전달한다. 상기 압축된 동영상 콘텐츠의 수는 출력 인터페이스(142~143)에 연결된 외부 장치들에 의하여 결정될 수 있다.Next, the
멀티미디어 데이터 프로세서(110)는 상기 압축된 각각의 동영상 콘텐츠에 우선순위를 부여할 수 있고, 상기 우선순위에 따라 멀티미디어 데이터 프로세서(110)와 MPEG 디코더(134)간의 채널 대역폭을 할당할 수 있다.The
우선순위는 초당 전송될 수 있는 최대 프레임들에 대하여 실제로 전송할 프레임에 비율이 될 수 있다. 예를 들어, MPEG 시스템이 국제무선통신자문위원회의 CCIR 601 표준을 따를 경우 MPEG 시스템은 초당 30 프레임을 전송할 수 있는 속도를 지원한다. 따라서 제2 출력 인터페이스(154)와 연결된 외부 장치(예를 들어 모니터)에 출력해야 할 데이터가 초당 15 프레임이라면 멀티미디어 데이터 프로세서(110)는 제2 출력 인터페이스(154)에 출력할 동영상 콘텐츠에 대해서는 우선순위를 15로 할당할 수 있다.The priority can be a ratio of the frames actually transmitted to the maximum frames that can be transmitted per second. For example, if the MPEG system complies with the CCIR 601 standard of the International Radiocommunication Advisory Committee, the MPEG system supports a rate of 30 frames per second. Therefore, if the data to be output to the external device (for example, the monitor) connected to the
제2 출력 인터페이스(154)에 출력해야 할 데이터의 우선순위는 15 이므로 상기 동영상 콘텐츠에 대한 멀티미디어 데이터 프로세서(110)와 MPEG 디코더(134)간의 채널 대역폭은 전체 채널 대역폭의 1/2 이 될 수 있다.Since the priority of data to be output to the
도 1의 경우 멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132) 및 MPEG 디코더(134)는 각각 독립적인 모듈로 설명하였으나, 상기 멀티미디어 데이터 프로세서(110)는 MPEG 인코더(132) 및 MPEG 디코더(134)를 포함할 수 있다.In the case of FIG. 1, the
도 2는 도 1의 멀티미디어 데이터 프로세서의 구성을 나타내는 블록도이다.FIG. 2 is a block diagram illustrating a configuration of the multimedia data processor of FIG. 1.
도 2를 참조하면, 멀티미디어 데이터 프로세서(110)는 ASIC(Application Specific Integrated Circuit) 컨트롤러(210), 입력 인터페이스(220), 입력 FIFO(230), FIFO 컨트롤러(240), 출력 FIFO(250) 및 출력 인터페이스(260)를 포함한다.Referring to FIG. 2, the
ASIC 컨트롤러(210)는 멀티미디어 데이터 프로세서(110)의 전반적인 동작을 제어한다. 예를 들어, ASIC 컨트롤러(210)는 입출력 동영상 콘텐츠에 대하여 우선순위를 부여할 수 있고, 상기 우선순위에 상응하는 채널 대역폭을 할당할 수 있다.The
내부 인터페이스(220)는 멀티미디어 데이터 프로세서(100)가 멀티미디어 시스템의 내부 장치와 데이터를 교환하기 위한 인터페이스를 제공한다. 예를 들어, ASIC 컨트롤러(210)가 도 1에 도시된 CPU(120), 네트워크(160) 및/또는 하드 디스크(170)와 통신을 하고자 할 경우에는 내부 인터페이스(220)를 통하여 수행한다.The
외부 인터페이스(260)는 멀티미디어 데이터 프로세서(100)가 외부 장치들과 데이터를 교환하기 위한 인터페이스를 제공한다. 예를 들어, ASIC 컨트롤러(210)가 DVR 및/또는 TV와 통신을 하고자 할 경우에는 외부 인터페이스(260)를 통하여 수행한다.The
입력 FIFO(230)는 외부 장치들로부터 출력된 각각의 데이터를 순차적으로 저장하는 버퍼이고, 출력 FIFO(250)는 멀티미디어 데이터 시스템 내부 장치들로부터 출력된 각각의 데이터를 순차적으로 저장하기 위한 버퍼이다. FIFO 컨트롤러(240)는 입력 FIFO(230) 및 출력 FIFO(250)를 제어한다.The
이하, 도 2에 도시된 멀티미디어 데이터 프로세서(110)의 동작을 설명하기로 한다.Hereinafter, the operation of the
우선, 외부장치들로부터 복수의 동영상 콘텐츠가 입력되는 과정을 살펴보기로 한다.First, a process of inputting a plurality of video contents from external devices will be described.
카메라와 DVR은 외부 인터페이스(260)를 통하여 동영상 콘텐츠를 입력받는다. 상기 입력된 동영상 콘텐츠는 각각 입력 FIFO(230)에 순차적으로 저장된다. The camera and the DVR receive video content through the
상기 입력 FIFO(230)의 저장은 각 외부 장치별로 분류되어 저장될 수 있다. 예를 들어, 카메라와 DVR로부터 출력된 각각의 데이터는 입력 FIFO(230)의 다른 저장 영역에 각각 저장될 수 있다.The storage of the
ASIC 컨트롤러(210)는 입력 FIFO(230)에 저장된 각각의 동영상 콘텐츠에 대하여 우선순위를 부여한다. 우선순위는 초당 전송될 수 있는 최대 프레임들에 대하여 실제로 전송할 프레임에 비율이 될 수 있다.The
예를 들어, MPEG 시스템이 국제무선통신자문위원회의 CCIR 601 표준을 따를 경우 MPEG 시스템은 초당 30 프레임을 전송할 수 있는 속도를 지원한다. 만일 카메라로부터 출력된 데이터가 초당 10 프레임 전송되어야 하고, DVR로부터 출력된 데이터는 초당 20 프레임 전송되어야 한다면, 카메라로부터 출력된 데이터의 우선순위는 10 이고, DVR로부터 출력된 데이터의 우선순위는 20이 된다.For example, if the MPEG system complies with the CCIR 601 standard of the International Radiocommunication Advisory Committee, the MPEG system supports a rate of 30 frames per second. If the data output from the camera should be transmitted 10 frames per second and the data output from the DVR should be transmitted 20 frames per second, the priority of the data output from the camera is 10 and the priority of the data output from the DVR is 20 do.
멀티미디어 데이터 프로세서(110)와 MPEG 인코더(132) 간의 채널 대역폭은 우선순위에 비례하므로 카메라로부터 출력된 데이터를 MPEG 인코더(132)에 전송하는 데이터 비율과 DVR로부터 출력된 데이터를 MPEG 인코더(132)에 전송하는 데이터 비율은 1:2가 된다. 즉, 카메라로부터 출력된 데이터를 MPEG 인코더(132)에 1 프레 임 전송할 경우 DVR로부터 출력된 데이터를 MPEG 인코더(132)에 2 프레임 전송한다.Since the channel bandwidth between the
MPEG 인코더(132)에 의하여 압축된 데이터는 각각 하드 디스크 및/또는 메모리와 같은 데이터 저장 장치에 저장된다.The data compressed by the
다음으로, 외부장치들에 복수의 동영상 콘텐츠를 출력하는 과정을 살펴보기로 한다.Next, a process of outputting a plurality of video contents to external devices will be described.
멀티미디어 데이터 프로세서(110)는 메모리 저장 장치에 저장된 압축된 동영상 콘텐츠를 읽는다. 상기 압축된 동영상 콘텐츠는 출력 FIFO(250)에 순차적으로 저장된다.The
상기 출력 FIFO(250)의 저장은 각 압축된 동영상 콘텐츠에 따라 분류되어 저장될 수 있다. 예를 들어, TV에 출력할 동영상 콘텐츠와 모니터에 출력할 동영상 콘텐츠는 출력 FIFO(250)의 다른 저장 영역에 각각 저장될 수 있다.The storage of the
ASIC 컨트롤러(210)는 출력 FIFO(250)에 저장된 각각의 동영상 콘텐츠에 대하여 우선순위를 부여한다. 우선순위는 초당 전송될 수 있는 최대 프레임들에 대하여 실제로 외부장치들에 전송해야 할 프레임의 비율이 될 수 있다.The
예를 들어, MPEG 시스템이 국제무선통신자문위원회의 CCIR 601 표준을 따를 경우 MPEG 시스템은 초당 30 프레임을 전송할 수 있는 속도를 지원한다. 만일 TV에 전송해야 할 데이터가 초당 17 프레임이고, 모니터에 전송해야 할 데이터가 초당 13 프레임이라면 TV에 전송해야할 데이터의 우선순위는 17이고 모니터에 전송해야 할 데이터의 우선순위는 13이다.For example, if the MPEG system complies with the CCIR 601 standard of the International Radiocommunication Advisory Committee, the MPEG system supports a rate of 30 frames per second. If the data to be transmitted to the TV is 17 frames per second and the data to be transmitted to the monitor is 13 frames per second, the priority of the data to be transmitted to the TV is 17 and the priority of the data to be transmitted to the monitor is 13.
멀티미디어 데이터 프로세서(110)와 MPEG 디코더(150) 간의 채널 대역폭은 우선순위에 비례하므로 TV에 출력해야 할 데이터를 MPEG 디코더(150)에 전송하는 데이터 비율과 모니터에 출력해야 할 데이터를 MPEG 디코더(150)에 전송하는 데이터 비율은 17:13이 된다. 즉, TV에 출력해야 할 데이터를 MPEG 디코더(150)에 17 프레임 전송할 경우 모니터에 출력해야 할 데이터를 MPEG 디코더(150)에 13 프레임 전송한다.Since the channel bandwidth between the
MPEG 디코더(150)에 의하여 복원된 데이터는 각각 TV와 모니터와 같은 외부 장치에 출력한다.The data recovered by the
상기에 있어 MPEG 인코더(132) 및/또는 MPEG 디코더(150)는 내부 인터페이스(220) 및 외부 인터페이스(260) 중 어느 하나와 연결될 수 있으며, 또한 멀티미디어 데이터 프로세서(110)내에 구현될 수 도 있다.In the above, the
상술한 바와 같이 본 발명에서는 MPEG 인코더 및 디코더와 같은 하드웨어를 공유하여 적은 비용으로 동영상 콘텐츠를 처리할 수 있다.As described above, in the present invention, hardware such as MPEG encoder and decoder can be shared to process video content at low cost.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to a preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below I can understand that you can.
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060045022A KR100623710B1 (en) | 2006-05-19 | 2006-05-19 | Method of processing a plurality of moving picture contents by sharing a hardware resource |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060045022A KR100623710B1 (en) | 2006-05-19 | 2006-05-19 | Method of processing a plurality of moving picture contents by sharing a hardware resource |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100623710B1 true KR100623710B1 (en) | 2006-09-13 |
Family
ID=37624813
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060045022A KR100623710B1 (en) | 2006-05-19 | 2006-05-19 | Method of processing a plurality of moving picture contents by sharing a hardware resource |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100623710B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130011714A (en) | 2011-07-22 | 2013-01-30 | 에스케이플래닛 주식회사 | System and method for operating application based presentation virtualization |
KR20130134117A (en) | 2012-05-30 | 2013-12-10 | 에스케이플래닛 주식회사 | System and method for operating application based presentation virtualization |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000134237A (en) | 1998-10-23 | 2000-05-12 | Toshiba Corp | Digital av data reproduction method and digital av data reproduction device for home network |
KR20010081370A (en) * | 2000-02-14 | 2001-08-29 | 이준우 | Multi-channel display system |
KR20020095709A (en) * | 2001-06-15 | 2002-12-28 | 주식회사 성진씨앤씨 | Method and apparatus for data compression of multi-channel moving pictures |
-
2006
- 2006-05-19 KR KR1020060045022A patent/KR100623710B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000134237A (en) | 1998-10-23 | 2000-05-12 | Toshiba Corp | Digital av data reproduction method and digital av data reproduction device for home network |
KR20010081370A (en) * | 2000-02-14 | 2001-08-29 | 이준우 | Multi-channel display system |
KR20020095709A (en) * | 2001-06-15 | 2002-12-28 | 주식회사 성진씨앤씨 | Method and apparatus for data compression of multi-channel moving pictures |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130011714A (en) | 2011-07-22 | 2013-01-30 | 에스케이플래닛 주식회사 | System and method for operating application based presentation virtualization |
KR20130134117A (en) | 2012-05-30 | 2013-12-10 | 에스케이플래닛 주식회사 | System and method for operating application based presentation virtualization |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8380864B2 (en) | Media stream slicing and processing load allocation for multi-user media systems | |
JP6226490B2 (en) | Low latency rate control system and method | |
US8923613B2 (en) | Image compression device, image compression method, integrated circuit, program, and picture display apparatus | |
US8130841B2 (en) | Method and apparatus for compression of a video signal | |
CN101151840A (en) | Integrated architecture for the unified processing of visual media | |
JP2006197587A (en) | System and method for decoding dual video | |
EP4060620A1 (en) | Cloud gaming gpu with integrated nic and shared frame buffer access for lower latency | |
CN108400956A (en) | Distribution method, the device and system of video data stream | |
JP2010141821A (en) | Streaming processor and processor system | |
US8380053B2 (en) | System and method for processing video | |
US20130242186A1 (en) | Image processing apparatus and control method thereof | |
CN101681243A (en) | Video data transmission via usb interface | |
US20120033727A1 (en) | Efficient video codec implementation | |
US9967465B2 (en) | Image frame processing method | |
US11284094B2 (en) | Image capturing device, distribution system, distribution method, and recording medium | |
US9179065B2 (en) | Image processing apparatus, image processing method, and program product | |
KR100623710B1 (en) | Method of processing a plurality of moving picture contents by sharing a hardware resource | |
US10356439B2 (en) | Flexible frame referencing for display transport | |
KR200422852Y1 (en) | Device of processing a plurality of moving picture contents by sharing a hardware resource | |
US10298651B2 (en) | Encoding device, decoding device, computer program product, and streaming system | |
KR102312668B1 (en) | Video transcoding system | |
WO2016152551A1 (en) | Transmission device, transmission method, reception device, reception method, transmission system, and program | |
JP2010283683A (en) | Device and method for decoding stream | |
CN106954073B (en) | Video data input and output method, device and system | |
US10026149B2 (en) | Image processing system and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120928 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20130905 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20140901 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20150907 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20180903 Year of fee payment: 13 |
|
FPAY | Annual fee payment |
Payment date: 20190902 Year of fee payment: 14 |