KR101695007B1 - Apparatus for parallel processing of large-scale video data and method thereof - Google Patents

Apparatus for parallel processing of large-scale video data and method thereof Download PDF

Info

Publication number
KR101695007B1
KR101695007B1 KR1020120146870A KR20120146870A KR101695007B1 KR 101695007 B1 KR101695007 B1 KR 101695007B1 KR 1020120146870 A KR1020120146870 A KR 1020120146870A KR 20120146870 A KR20120146870 A KR 20120146870A KR 101695007 B1 KR101695007 B1 KR 101695007B1
Authority
KR
South Korea
Prior art keywords
video data
parallel
color components
pixel format
unit
Prior art date
Application number
KR1020120146870A
Other languages
Korean (ko)
Other versions
KR20140077754A (en
Inventor
김범호
정연정
정효택
이정우
이정수
문성원
윤기송
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020120146870A priority Critical patent/KR101695007B1/en
Publication of KR20140077754A publication Critical patent/KR20140077754A/en
Application granted granted Critical
Publication of KR101695007B1 publication Critical patent/KR101695007B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1105Decoding
    • H03M13/1131Scheduling of bit node or check node processing
    • H03M13/1134Full parallel processing, i.e. all bit nodes or check nodes are processed in parallel
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/29Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
    • H03M13/2903Methods and arrangements specifically for encoding, e.g. parallel encoding of a plurality of constituent codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/73Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component

Abstract

대용량 비디오 데이터를 병렬적으로 처리하는 장치 및 방법이 개시된다. 비디오 데이터 처리 장치는, 비디오 데이터를 수신하여 비디오 데이터를 구성하는 색상 콤포넌트를 읽는 리더부와, 색상 콤포넌트 별로 병렬적으로 인코딩을 수행하는 적어도 하나의 인코딩부와, 색상 콤포넌트 별로 적어도 하나의 인코딩부에 의해 병렬적으로 인코딩된 정보를 압축하여 저장하는 압축 저장부를 포함한다. 따라서, 4K 이상의 대용량 비디오 데이터를 병렬적으로 읽고, 인코딩함으로써, 대용량 비디오 데이터에 대한 처리 속도를 높일 수 있다. An apparatus and method for processing large-capacity video data in parallel is disclosed. The video data processing apparatus includes a reader unit for receiving video data and reading color components constituting video data, at least one encoding unit for performing encoding in parallel for each color component, and at least one encoding unit for each color component And a compression storage unit for compressing and storing the information encoded in parallel. Therefore, by reading and encoding large-capacity video data of 4K or more in parallel, the processing speed for large-capacity video data can be increased.

Description

대용량 비디오 데이터의 병렬 처리 장치 및 방법{APPARATUS FOR PARALLEL PROCESSING OF LARGE-SCALE VIDEO DATA AND METHOD THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and method for parallel processing large-

본 발명은 비디오 데이터의 처리에 관한 것으로, 더욱 상세하게는 대용량 비디오 데이터를 병렬적으로 처리하는 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to video data processing, and more particularly, to an apparatus and method for processing large-capacity video data in parallel.

최근 HD(High Definition)급 영상을 제공하는 방송 및 TV가 일반화되어 가고 있고, 앞으로는 가정에서 영화관에서 보는 영상(UHD급 영상)과 같은 더 크고 더 좋은 화질의 영상을 원하게 될 것이다. Recently, broadcasting and TV providing HD (High Definition) video are becoming common, and in the future, they will want bigger and better image quality such as a movie (UHD class video) viewed at a movie theater at home.

또한, 멀티미디어 기술의 발달과 함께 사용자의 요구 증가에 따라 영상 디스플레이 장치의 크기가 점점 대형화되고 있으며, 신호 처리 기술 및 반도체 기술이 발전함에 따라 고화질, 고해상도 영상의 획득 및 출력이 가능해지고 있다.In addition, with the development of multimedia technology, the size of the image display device is getting larger as the demand of the user increases, and as the signal processing technology and the semiconductor technology are developed, high quality and high resolution images can be acquired and outputted.

일반적으로 2.5m 시청 거리 거실 환경에서 63인치 이상의 디스플레이 장치를 사용할 경우 4K 사이즈(4096×2160) 이상의 영상이 필요하다고 알려져 있다. 이미 개발되어 있는 70인치 이상의 대형 디스플레이 장치들에서 기존의 FHD(Full High-Definition : 1920×1080)급 영상을 재생할 경우, 출력되는 영상의 화소가 직접적으로 사용자에게 인지되기 때문에 주관적 화질의 저하를 가져온다.It is generally known that an image of 4K size (4096 × 2160) or more is required when a display device of 63 inches or more is used in a living room environment of 2.5 m viewing distance. When a conventional full-high-definition (FHD) image is reproduced in a 70-inch or larger display device, the pixel of the output image is directly perceived by the user, resulting in deterioration in subjective image quality .

즉, 초고화질 미디어에 대한 요구가 증가하고 있고 4K ~ 8K 콘텐츠의 획득과 처리에 많은 관심이 집중되고 있다. 초고화질 비디오 데이터를 처리하기 위해서는 HD에 비교하여 4K 미디어의 경우에는 4배 이상, 8K 미디어의 경우에는 16배 이상의 데이터 량이 증가하게 된다.In other words, there is an increasing demand for ultra high definition media, and much attention is focused on acquisition and processing of 4K ~ 8K contents. In order to process ultra-high-definition video data, the amount of data increases by 4 times or more for 4K media and 16 times or more for 8K media, compared with HD.

또한, 현재 CPU 및 GPU의 데이터 처리 속도는 계속 증가하고 있고, 특히 고성능 프로세서는 대부분 멀티코어에 기반한다. CPU의 경우 2 내지 8개 또는 그 이상의 프로세서 코어를 집적한 멀티 코어 프로세서가 주류이고, GPU의 경우 수십에서 수백 개의 코어를 집적한 매니코어 프로세서가 주류를 이루고 있다.Also, the data processing speed of current CPU and GPU is continuously increasing, and especially high-performance processors are mostly based on multicore. In the case of CPUs, multi-core processors with 2 to 8 or more processor cores are the mainstream, while GPUs are dominated by Manicore processors with tens to hundreds of cores.

이에 따라 응용프로그램도 멀티코어 하드웨어 구조를 최적으로 이용하기 위해 병렬 프로그램 구조로 개발되고 있다. 따라서, 대용량 비디오 데이터를 인코딩하거나 가공하는 프로그램 역시 멀티코어에 대응해서 병렬 프로그램으로 개발되고 있다.Therefore, application programs are being developed as a parallel program structure to optimally utilize the multicore hardware structure. Therefore, a program for encoding or processing a large amount of video data is also being developed as a parallel program corresponding to multicore.

하지만 디스크와 메인 메모리 사이의 데이터 엑세스 속도 증가율과 메인 메모리에서 CPU 또는 GPU 사이의 데이터 전송 속도의 증가율은 그에 미치지 못하고 있다. 따라서 4K 이상의 원본 콘텐츠를 실시간으로 입력받아 처리하기는 어려운 실정에 있다. However, the growth rate of data access speed between disk and main memory and the rate of increase of data transfer rate between main memory and CPU or GPU is not enough. Therefore, it is difficult to input and process original contents of 4K or more in real time.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 대용량 비디오 데이터를 병렬적으로 처리하는 장치를 제공하는데 있다.An object of the present invention is to provide an apparatus for processing large-capacity video data in parallel.

상기와 같은 문제점을 해결하기 위한 본 발명의 다른 목적은, 대용량 비디오 데이터를 병렬적으로 처리하는 방법을 제공하는데 있다.It is another object of the present invention to provide a method for processing large-capacity video data in parallel.

상기 목적을 달성하기 위한 본 발명의 일 측면에 따른 비디오 데이터 처리 장치는, 비디오 데이터를 수신하여 비디오 데이터를 구성하는 색상 콤포넌트를 읽는 리더부와, 색상 콤포넌트 별로 병렬적으로 인코딩을 수행하는 적어도 하나의 인코딩부와, 색상 콤포넌트 별로 적어도 하나의 인코딩부에 의해 병렬적으로 인코딩된 정보를 압축하여 저장하는 압축 저장부를 포함한다.According to one aspect of the present invention, there is provided an apparatus for processing video data, the apparatus comprising: a reader for receiving video data and reading color components constituting video data; An encoding unit, and a compression storage unit for compressing and storing information encoded in parallel by at least one encoding unit for each color component.

여기에서, 상기 리더부는, 색상 콤포넌트 별로 저장된 비디오 데이터를 병렬적으로 읽을 수 있다. Here, the reader unit may read video data stored for each color component in parallel.

여기에서, 비디오 데이터 처리 장치는, 색상 콤포넌트 별로 병렬적으로 인코딩된 정보를 구분하여 저장하는 적어도 하나의 스토리지를 더 포함할 수 있다. Here, the video data processing apparatus may further include at least one storage for separately storing the information encoded in parallel for each color component.

상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 비디오 데이터 처리 방법은, 비디오 데이터를 수신하여 비디오 데이터를 구성하는 색상 콤포넌트들을 읽는 단계와, 색상 콤포넌트 별로 병렬적으로 인코딩을 수행하는 단계와, 색상 콤포넌트 별로 인코딩된 정보를 압축하여 저장하는 단계를 포함한다. According to another aspect of the present invention, there is provided a video data processing method comprising the steps of: receiving video data and reading color components constituting video data; performing parallel encoding for each color component; And compressing and storing the encoded information for each of the components.

상기와 같은 본 발명의 실시예에 따른 비디오 데이터 처리 장치 및 방법을 이용할 경우에는, 4K 이상의 대용량 비디오 데이터를 병렬적으로 읽고, 인코딩함으로써, 대용량 비디오 데이터에 대한 처리 속도를 높일 수 있다. In the case of using the apparatus and method for processing video data according to the embodiment of the present invention as described above, the processing speed for large-capacity video data can be increased by reading and encoding large-capacity video data of 4K or more in parallel.

또한, 고해상도를 지원하는 디지털 시네마 또는 디지털 사이니지(Digital Signage) 시스템 등에 적용되어 고화질 비디오 데이터를 고속으로 처리할 수 있는 장점이 있다.In addition, it is applied to a digital cinema or a digital signage system that supports high resolution, and has a merit that high-quality video data can be processed at a high speed.

도 1은 비디오 데이터의 구조를 나타내는 개념도이다.
도 2는 비디오 데이터 처리 장치의 구성을 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 비디오 데이터 처리 장치의 구성을 나타내는 블록도이다.
도 4는 본 발명의 실시예에 따른 비디오 데이터 처리 장치에 의한 비디오 데이터의 저장을 나타내는 개념도이다.
도 5는 본 발명의 다른 실시예에 따른 비디오 데이터 처리 장치의 구성을 나타내는 블록도이다.
도 6은 본 발명의 실시예에 따른 비디오 데이터 처리 방법을 설명하는 흐름도이다.
1 is a conceptual diagram showing a structure of video data.
2 is a block diagram showing a configuration of a video data processing apparatus.
3 is a block diagram showing a configuration of a video data processing apparatus according to an embodiment of the present invention.
4 is a conceptual diagram illustrating storage of video data by a video data processing apparatus according to an embodiment of the present invention.
5 is a block diagram showing a configuration of a video data processing apparatus according to another embodiment of the present invention.
6 is a flowchart illustrating a video data processing method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 비디오 데이터의 구조를 나타내는 개념도이다. 1 is a conceptual diagram showing a structure of video data.

도 1을 참조하면, 비디오의 원본 데이터는 헤더(header)와 색상 콤포넌트(color component)를 포함하여 구성된다. 헤더는 비디오 데이터(10)에 대한 각종 정보를 포함할 수 있으며, 색상 콤포넌트는 유형에 따라 다양한 형태를 가질 수 있다.Referring to FIG. 1, original data of a video includes a header and a color component. The header may include various information on the video data 10, and the color component may have various forms depending on the type.

예를 들어, 색상 콤포넌트는 화소 포맷에 따라 RGB, YUV 또는 XYZ 등과 같이 나타낼 수 있다. 즉, 비디오 데이터(10)는 헤더와 색상 콤포넌트가 차례로 저장된 형태를 가질 수 있다. For example, a color component may be represented as RGB, YUV, or XYZ depending on the pixel format. That is, the video data 10 may have a header and a color component sequentially stored.

도 2는 비디오 데이터 처리 장치의 구성을 나타내는 블록도이다. 2 is a block diagram showing a configuration of a video data processing apparatus.

도 2를 참조하면, 비디오 데이터 처리 장치(100)는, 리더부(110), 인코딩부 및 압축 저장부(130)를 포함한다. 여기서, 인코딩부는 제 1 인코딩부(121), 제 2 인코딩부(122) 및 제 3 인코딩부(123)와 같이 적어도 하나로 구성될 수 있다. Referring to FIG. 2, the video data processing apparatus 100 includes a reader 110, an encoding unit, and a compression storage unit 130. Here, the encoding unit may include at least one of the first encoding unit 121, the second encoding unit 122, and the third encoding unit 123.

리더부(110)는 비디오 데이터(10)를 한번에 읽을 수 있다. 예를 들어, 제 1 콤포넌트가 R(red)를 나타내고, 제 2 콤포넌트가 G(green)을 나타내며, 제 3 콤포넌트가 B(blue)를 나타낼 수 있다. 따라서, 리더부(110)는 이러한 각각의 색상 콤포넌트를 한번에 읽어 인코딩부로 전달할 수 있다. The reader unit 110 can read the video data 10 at one time. For example, the first component may represent R (red), the second component may represent G (green), and the third component may represent B (blue). Accordingly, the reader unit 110 can read each of the color components at one time and transmit it to the encoding unit.

제 1 인코딩부(121)는 제 1 콤포넌트에 대한 인코딩을 수행하고, 제 2 인코딩부(122)는 제 2 콤포넌트에 대한 인코딩을 수행하며, 제 3 인코딩부(123)는 제 3 콤포넌트에 대한 인코딩을 수행할 수 있다. The first encoding unit 121 performs encoding for the first component, the second encoding unit 122 performs encoding for the second component, and the third encoding unit 123 encodes the third component Can be performed.

즉, 인코딩부는 각각의 색상 콤포넌트에 대해 순차적으로(직렬적으로) 인코딩을 수행할 수 있다.That is, the encoding unit may perform encoding (sequentially) sequentially for each color component.

압축 저장부(130)는 순차적으로 인코딩된 각각의 색상 콤포넌트를 압축하여 저장할 수 있도록 한다. The compression storage unit 130 compresses and stores each sequentially encoded color component.

다만, 도 2에 따른 비디오 데이터 처리 장치(100)는 비디오 데이터(10)를 구성하는 각각의 색상 콤포넌트를 순차적으로 인코딩하기 때문에 데이터를 처리하는 시간이 증가할 수 있다. 또한, 비디오 데이터(10)를 순차적으로 처리하기 때문에 계산량이 증가할 수 있다.
However, since the video data processing apparatus 100 according to FIG. 2 sequentially encodes each color component constituting the video data 10, the processing time of the data may increase. In addition, since the video data 10 are sequentially processed, the amount of calculation can be increased.

도 3은 본 발명의 실시예에 따른 비디오 데이터 처리 장치의 구성을 나타내는 블록도이다. 3 is a block diagram showing a configuration of a video data processing apparatus according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시예에 따른 비디오 데이터 처리 장치(100)는, 리더부(110), 인코딩부 및 압축 저장부(130)를 포함한다. 여기서, 인코딩부는 제 1 인코딩부(121), 제 2 인코딩부(122) 및 제 3 인코딩부(123)와 같이 적어도 하나로 구성될 수 있다. Referring to FIG. 3, the apparatus 100 for processing video data according to an embodiment of the present invention includes a reader 110, an encoding unit, and a compression storage unit 130. Here, the encoding unit may include at least one of the first encoding unit 121, the second encoding unit 122, and the third encoding unit 123.

특히, 본 발명의 실시예에 따르면, 제 1 인코딩부(121), 제 2 인코딩부(122) 및 제 3 인코딩부(123)는 병렬적으로 배열될 수 있다. In particular, according to the embodiment of the present invention, the first encoding unit 121, the second encoding unit 122, and the third encoding unit 123 may be arranged in parallel.

리더부(110)는 비디오 데이터(10)를 수신하여 한번에 읽을 수 있다. 즉, 리더부(110)는 각각의 색상 콤포넌트를 한번에 읽어 인코딩부로 전달할 수 있다. 특히, 리더부(110)는 각각의 색상 콤포넌트를 구별하여 해당 인코딩부로 전달할 수 있다. The reader 110 can receive and read the video data 10 at once. That is, the reader unit 110 may read each color component at a time and transmit it to the encoding unit. In particular, the reader unit 110 can distinguish each color component and transmit it to the corresponding encoding unit.

제 1 인코딩부(121)는 제 1 콤포넌트에 대한 인코딩을 수행하고, 제 2 인코딩부(122)는 제 2 콤포넌트에 대한 인코딩을 수행하며, 제 3 인코딩부(123)는 제 3 콤포넌트에 대한 인코딩을 수행할 수 있다. The first encoding unit 121 performs encoding for the first component, the second encoding unit 122 performs encoding for the second component, and the third encoding unit 123 encodes the third component Can be performed.

특히, 제 1 인코딩부(121), 제 2 인코딩부(122) 및 제 3 인코딩부(123)는 각각의 색상 콤포넌트에 대한 인코딩을 동시에 병렬적으로 수행할 수 있다. In particular, the first encoding unit 121, the second encoding unit 122, and the third encoding unit 123 may simultaneously encode the respective color components in parallel.

즉, 도 3에 따른 비디오 데이터 처리 장치(100)는, 각각의 색상 콤포넌트에 대한 인코딩을 병렬적으로 수행할 수 있다. 따라서, 제 1 인코딩부(121), 제 2 인코딩부(122) 및 제 3 인코딩부(123)는 병렬 프로세서 환경에 적합하도록 각각의 색상 콤포넌트에 대한 인코딩 과정을 수행할 수 있다. That is, the video data processing apparatus 100 according to FIG. 3 can perform encoding for each color component in parallel. Accordingly, the first encoding unit 121, the second encoding unit 122, and the third encoding unit 123 may encode each color component to be suitable for the parallel processor environment.

압축 저장부(130)는 병렬적으로 인코딩된 색상 콤포넌트를 압축하여 저장할 수 있도록 한다. 즉, 인코딩된 비디오 데이터(10)는 압축 저장부(130)를 통하여 스토리지(storage)에 저장될 수 있다. 여기서, 스토리지는 컴퓨터 프로세서가 접근할 수 있도록 데이터를 전자기 형태로 저장하는 장소를 의미할 수 있다.
The compression storage unit 130 compresses and stores parallelly encoded color components. That is, the encoded video data 10 may be stored in storage via the compression storage unit 130. [ Here, storage may mean a place where data is stored in electromagnetic form so that it can be accessed by a computer processor.

도 4는 본 발명의 실시예에 따른 비디오 데이터 처리 장치에 의한 비디오 데이터의 저장을 나타내는 개념도이다. 4 is a conceptual diagram illustrating storage of video data by a video data processing apparatus according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시예에 따른 비디오 데이터 처리 장치(100)는 각각의 색상 콤포넌트를 병렬적으로 인코딩한 정보를 구분하여 저장하는 스토리지를 더 포함할 수 있다. 여기서, 스토리지는 제 1 스토리지(141), 제 2 스토리지(142) 및 제 3 스토리지(143)와 같이 적어도 하나로 구성될 수 있다. Referring to FIG. 4, the apparatus 100 for processing video data according to an exemplary embodiment of the present invention may further include a storage for storing information in which each color component is encoded in parallel. Here, the storage may include at least one of the first storage 141, the second storage 142, and the third storage 143.

예컨대, 제 1 스토리지(141)는 제 1 콤포넌트의 인코딩된 정보를 저장하고, 제 2 스토리지(142)는 제 2 콤포넌트의 인코딩된 정보를 저장하며, 제 3 스토리지(143)는 제 3 콤포넌트의 인코딩된 정보를 저장할 수 있다. For example, the first storage 141 stores the encoded information of the first component, the second storage 142 stores the encoded information of the second component, and the third storage 143 stores the encoded information of the third component Can be stored.

즉, 본 발명의 실시예에 따른 비디오 데이터 처리 장치(100)는, 각각의 색상 콤포넌트를 분할하여 저장할 수 있다. 또한, 분할 저장된 비디오 데이터(10)는 하나의 데이터로 가상화(virtualization)되어 응용 프로그램에서 하나의 데이터 또는 파일로 인식할 수 있다.
That is, the video data processing apparatus 100 according to the embodiment of the present invention can divide and store each color component. In addition, the divided video data 10 may be virtualized into one data and recognized as one data or file in the application program.

도 5는 본 발명의 다른 실시예에 따른 비디오 데이터 처리 장치의 구성을 나타내는 블록도이다. 5 is a block diagram showing a configuration of a video data processing apparatus according to another embodiment of the present invention.

도 5를 참조하면, 본 발명의 실시예에 따른 비디오 데이터 처리 장치는 리더부(110), 인코딩부 및 압축 저장부(130)를 포함한다. 여기서, 리더부(110)는 제 1 리더부(111), 제 2 리더부(112) 및 제 3 리더부(113)와 같이 적어도 하나로 구성될 수 있으며, 인코딩부는 제 1 인코딩부(121), 제 2 인코딩부(122) 및 제 3 인코딩부(123)와 같이 적어도 하나로 구성될 수 있다. Referring to FIG. 5, a video data processing apparatus according to an embodiment of the present invention includes a reader 110, an encoding unit, and a compression storage unit 130. The reader unit 110 may include at least one of a first reader unit 111, a second reader unit 112 and a third reader unit 113. The encoding unit may include a first encoding unit 121, The second encoding unit 122, and the third encoding unit 123, as shown in FIG.

리더부(110)는 각각의 색상 콤포넌트를 병렬적으로 구분하여 저장한 데이터를 병렬적으로 읽을 수 있다. 즉, 제 1 리더부(111)는 제 1 콤포넌트를 읽고, 제 2 리더부(112)는 제 2 콤포넌트를 읽으며, 제 3 리더부(113)는 제 3 콤포넌트를 읽을 수 있다. The reader unit 110 can parallelly read data stored in parallel by dividing each color component. That is, the first reader 111 reads the first component, the second reader 112 reads the second component, and the third reader 113 reads the third component.

또한, 각각의 리더부(110)는 각각의 색상 콤포넌트를 구별하여 해당 인코딩부로 전달할 수 있다. In addition, each reader unit 110 can distinguish each color component and transmit it to the corresponding encoding unit.

예컨대, 제 1 리더부(111)는 제 1 인코딩부(121)로 제 1 콤포넌트를 전달할 수 있고, 제 2 리더부(112)는 제 2 인코딩부(122)로 제 2 콤포넌트를 전달할 수 있으며, 제 3 리더부(113)는 제 3 인코딩부(123)로 제 3 콤포넌트를 전달할 수 있다. For example, the first reader unit 111 may transmit the first component to the first encoding unit 121, the second reader unit 112 may transmit the second component to the second encoding unit 122, And the third reader unit 113 may transmit the third component to the third encoding unit 123. [

제 1 인코딩부(121)는 제 1 콤포넌트에 대한 인코딩을 수행하고, 제 2 인코딩부(122)는 제 2 콤포넌트에 대한 인코딩을 수행하며, 제 3 인코딩부(123)는 제 3 콤포넌트에 대한 인코딩을 수행할 수 있다. The first encoding unit 121 performs encoding for the first component, the second encoding unit 122 performs encoding for the second component, and the third encoding unit 123 encodes the third component Can be performed.

압축 저장부(130)는 병렬적으로 인코딩된 색상 콤포넌트를 압축하여 저장할 수 있도록 한다. 예컨대, 제 1 스토리지(141)는 제 1 콤포넌트의 인코딩된 정보를 저장하고, 제 2 스토리지(142)는 제 2 콤포넌트의 인코딩된 정보를 저장하며, 제 3 스토리지(143)는 제 3 콤포넌트의 인코딩된 정보를 저장할 수 있다.
The compression storage unit 130 compresses and stores parallelly encoded color components. For example, the first storage 141 stores the encoded information of the first component, the second storage 142 stores the encoded information of the second component, and the third storage 143 stores the encoded information of the third component Can be stored.

상술한 본 발명의 실시예에 따른 비디오 데이터 처리 장치(100)의 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 설명하고 있으나, 각 구성부 중 적어도 두 개가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합 및 분리된 실시예의 경우도 본 발명의 본질에서 벋어나지 않는 한 본 발명의 권리범위에 포함된다.Although each component of the video data processing apparatus 100 according to the embodiment of the present invention described above is described as being arranged in each constituent part for convenience of explanation, at least two of the constituent parts may be combined to form one constituent part, The constituent parts can be divided into a plurality of constituent parts to carry out the function and the case of the integrated and separate embodiments of each constituent part is also included in the scope of the present invention unless the essence of the present invention is satisfied.

또한, 본 발명의 실시예에 따른 비디오 데이터 처리 장치(100)는, 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. In addition, the video data processing apparatus 100 according to the embodiment of the present invention can be implemented as a computer-readable program or code on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다.
The computer-readable recording medium may also be distributed and distributed in a networked computer system so that a computer-readable program or code can be stored and executed in a distributed manner.

도 6은 본 발명의 실시예에 따른 비디오 데이터 처리 방법을 설명하는 흐름도이다.6 is a flowchart illustrating a video data processing method according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시예에 따른 비디오 데이터 처리 방법은, 색상 콤포넌트들을 읽는 단계(S610), 색상 콤포넌트 별로 병렬적으로 인코딩을 수행하는 단계(S620) 및 색상 콤포넌트 별로 인코딩된 정보를 압축하여 저장하는 단계(S630)를 포함한다. Referring to FIG. 6, a method of processing video data according to an embodiment of the present invention includes steps of reading color components (S610), performing parallel encoding for each color component (S620), and encoding information per color component And compressing and storing (S630).

비디오 데이터(10)를 수신하여 비디오 데이터(10)를 구성하는 색상 콤포넌트들을 읽을 수 있다(S610). 예컨대, 색상 콤포넌트들을 한번에 읽을 수도 있고, 각각의 색상 컴포넌트를 병렬적으로 구분하여 저장한 데이터를 병렬적으로 읽을 수도 있다. The video data 10 may be received and color components constituting the video data 10 may be read (S610). For example, color components may be read at once, or data stored in parallel by dividing each color component may be read in parallel.

색상 콤포넌트 별로 병렬적으로 인코딩을 수행할 수 있다(S620). 색상 콤포넌트는 화소 포맷에 따라 RGB, YUV 또는 XYZ 등과 같이 나타낼 수 있다.Encoding can be performed in parallel for each color component (S620). The color components can be represented as RGB, YUV or XYZ depending on the pixel format.

예를 들어, 제 1 콤포넌트가 R(red)를 나타내고, 제 2 콤포넌트가 G(green)을 나타내며, 제 3 콤포넌트가 B(blue)를 나타낼 수 있다. 따라서, 제 1 콤포넌트, 제 2 콤포넌트 및 제 3 콤포넌트 각각에 대해 동시에 병렬적으로 인코딩이 수행될 수 있다. For example, the first component may represent R (red), the second component may represent G (green), and the third component may represent B (blue). Thus, encoding can be performed simultaneously for each of the first component, the second component, and the third component in parallel.

본 발명의 실시예에 따르면, 각각의 색상 콤포넌트에 대한 인코딩을 병렬적으로 수행할 수 있다. 즉, 병렬 프로세서 환경에 적합하도록 각각의 색상 콤포넌트에 대한 인코딩 과정을 수행할 수 있다. According to an embodiment of the present invention, the encoding for each color component can be performed in parallel. That is, the encoding process for each color component may be performed so as to be suitable for the parallel processor environment.

색상 콤포넌트 별로 인코딩된 정보를 압축하여 저장할 수 있다(S630). The information encoded for each color component can be compressed and stored (S630).

예를 들어, 각각의 색상 콤포넌트를 병렬적으로 인코딩한 정보를 구분하여 저장할 수 있다. 즉, 제 1 콤포넌트의 인코딩된 정보, 제 2 콤포넌트의 인코딩된 정보 및 제 3 콤포넌트의 인코딩된 정보를 각각 구분하여 해당 스토리지에 저장할 수 있다.
For example, information on each color component encoded in parallel can be separately stored. That is, the encoded information of the first component, the encoded information of the second component, and the encoded information of the third component may be separately stored in the corresponding storage.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

10: 비디오 데이터 100: 비디오 데이터 처리 장치
110: 리더부 111: 제 1 리더부
112: 제 2 리더부 113: 제 3 리더부
121: 제 1 인코딩부 122: 제 2 인코딩부
123: 제 3 인코딩부 130: 압축 저장부
141: 제 1 스토리지 142: 제 2 스토리지
143: 제 3 스토리지
10: video data 100: video data processing device
110: reader unit 111: first reader unit
112: second reader unit 113: third reader unit
121: first encoding unit 122: second encoding unit
123: third encoding unit 130: compression storage unit
141: first storage 142: second storage
143: Third Storage

Claims (15)

비디오 데이터 처리 장치에서 수행되는 비디오 데이터의 병렬 처리 방법에 있어서,
상기 비디오 데이터를 구성하는 복수의 색상 콤포넌트들을 읽는 단계;
상기 색상 콤포넌트들의 화소 포맷별 각 비디오 데이터를 복수의 인코딩부들을 이용하여 병렬로 인코딩하는 단계; 및
상기 색상 콤포넌트의 화소 포맷별로 인코딩된 복수의 비디오 데이터를 압축하여 저장하는 단계를 포함하고,
상기 복수의 색상 컴포넌트들을 읽은 단계는, 상기 색상 콤포넌트들의 화소 포맷별로 각 비디오 데이터를 읽는 복수의 리더부들을 이용하는, 비디오 데이터의 병렬 처리 방법.
A method for parallel processing of video data performed in a video data processing apparatus,
Reading a plurality of color components constituting the video data;
Encoding each video data per pixel format of the color components in parallel using a plurality of encoding units; And
And compressing and storing a plurality of video data encoded for each pixel format of the color component,
Wherein the step of reading the plurality of color components uses a plurality of reader units that read each video data for each pixel format of the color components.
삭제delete 청구항 1에 있어서,
상기 복수의 색상 콤포넌트들을 읽는 단계 전에,
상기 비디오 데이터를 복수의 스토리지들을 이용하여 상기 색상 콤포넌트들의 화소 포맷별로 각각 저장하는 단계를 더 포함하는, 비디오 데이터의 병렬 처리 방법.
The method according to claim 1,
Before the step of reading the plurality of color components,
And storing the video data for each pixel format of the color components using a plurality of storages.
청구항 3에 있어서,
상기 복수의 리더부들과 상기 복수의 색상 콤포넌트들은 상기 색상 콤포넌트들의 화소 포맷별로 각각 병렬적으로 연결되는, 비디오 데이터의 병렬 처리 방법.
The method of claim 3,
Wherein the plurality of reader units and the plurality of color components are connected in parallel according to a pixel format of the color components.
청구항 1에 있어서,
상기 비디오 데이터는 헤더 및 색상 콤포넌트들을 포함하고,
상기 색상 콤포넌트들은 RGB, YUV 또는 XYZ 형식의 화소 포맷을 포함하는,
비디오 데이터의 병렬 처리 방법.
The method according to claim 1,
Wherein the video data comprises a header and color components,
Wherein the color components comprise a pixel format in the RGB, YUV or XYZ format,
A method for parallel processing video data.
청구항 1에 있어서,
상기 비디오 데이터를 압축하여 저장하는 단계는,
상기 화소 포맷별로 분할된 각각의 색상 컴포넌트를 분할 저장하는, 비디오 데이터의 병렬 처리 방법.
The method according to claim 1,
Wherein the compressing and storing the video data comprises:
Wherein each color component divided by the pixel format is divided and stored.
청구항 6에 있어서,
상기 비디오 데이터를 압축하여 저장하는 단계 후에,
상기 분할 저장된 비디오 데이터를 하나의 데이터로 가상화하는 단계를 더 포함하는, 비디오 데이터의 병렬 처리 방법.
The method of claim 6,
After compressing and storing the video data,
And virtualizing the segmented video data into one piece of data.
청구항 1에 있어서,
상기 비디오 데이터는 해상도 4K 사이즈(4096×2160) 이상의 영상을 포함하는, 비디오 데이터의 병렬 처리 방법.
The method according to claim 1,
Wherein the video data includes an image having a resolution of 4K (4096 x 2160) or more.
비디오 데이터를 병렬 처리하는 비디오 데이터의 병렬 처리 장치에 있어서,
상기 비디오 데이터를 수신하여 상기 비디오 데이터를 구성하는 색상 콤포넌트를 읽는 리더부;
상기 색상 콤포넌트의 화소포맷 별로 상기 비디오 데이터를 인코딩하는 복수의 인코딩부들; 및
상기 색상 콤포넌트의 화소포맷 별로 상기 복수의 인코딩부들에서 인코딩된 정보를 압축하여 저장하는 압축 저장부를 포함하고,
상기 리더부는 상기 비디오 데이터의 입력에 병렬로 연결되고 상기 비디오 데이터의 화소 포맷별로 색상 콤포넌트를 읽는 복수의 리더부들을 포함하는,
비디오 데이터의 병렬 처리 장치.
An apparatus for parallel processing of video data for parallel processing of video data,
A reader unit for receiving the video data and reading a color component constituting the video data;
A plurality of encoding units for encoding the video data for each pixel format of the color component; And
And a compression storage unit for compressing and storing information encoded in the plurality of encoding units according to a pixel format of the color component,
Wherein the reader unit includes a plurality of reader units connected in parallel to an input of the video data and reading color components by pixel format of the video data,
An apparatus for parallel processing video data.
삭제delete 청구항 9에 있어서,
상기 복수의 리더부들에 각각 병렬로 연결되며 상기 비디오 데이터의 화소 포맷별로 색상 컴포넌트에 대응하는 비디오 데이터 부분을 저장하는 복수의 스토리지들을 더 포함하는, 비디오 데이터의 병렬 처리 장치.
The method of claim 9,
Further comprising a plurality of storages connected in parallel to the plurality of reader units and storing a video data portion corresponding to a color component for each pixel format of the video data.
청구항 9에 있어서,
상기 압축 저장부는, 상기 화소 포맷별로 분할된 각각의 색상 컴포넌트를 분할 저장하는, 비디오 데이터의 병렬 처리 장치.
The method of claim 9,
Wherein the compression storage unit divides and stores each color component divided for each pixel format.
청구항 12에 있어서,
상기 압축 저장부에 분할 저장된 비디오 데이터를 하나의 데이터로 가상화하는 가상화부를 더 포함하는, 비디오 데이터의 병렬 처리 장치.
The method of claim 12,
And a virtualization unit for virtualizing the video data divided and stored in the compression storage unit into one piece of data.
청구항 13에 있어서,
상기 리더부, 상기 복수의 인코딩부들, 상기 압축 저장부, 상기 가상화부 또는 이들의 조합은 메인 메모리에 저장되는 프로그램을 수행하는 프로세서에 포함되고, 여기서 상기 프로세서는 하나 이상의 코어를 구비하는 CPU(central processing unit) 또는 GPU(graphic processing unit)를 포함하는, 비디오 데이터의 병렬 처리 장치.
14. The method of claim 13,
Wherein the reader unit, the plurality of encoding units, the compression storage unit, the virtualization unit, or a combination thereof is included in a processor that executes a program stored in a main memory, wherein the processor includes a CPU processing unit or a graphics processing unit (GPU).
청구항 14에 있어서,
상기 프로세서는 디지털 시네마 또는 디지털 사이니지(digital signage) 시스템의 비디오 데이터 처리 장치에 탑재되는, 비디오 데이터의 병렬 처리 장치.
15. The method of claim 14,
Wherein the processor is mounted in a video data processing apparatus of a digital cinema or digital signage system.
KR1020120146870A 2012-12-14 2012-12-14 Apparatus for parallel processing of large-scale video data and method thereof KR101695007B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120146870A KR101695007B1 (en) 2012-12-14 2012-12-14 Apparatus for parallel processing of large-scale video data and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120146870A KR101695007B1 (en) 2012-12-14 2012-12-14 Apparatus for parallel processing of large-scale video data and method thereof

Publications (2)

Publication Number Publication Date
KR20140077754A KR20140077754A (en) 2014-06-24
KR101695007B1 true KR101695007B1 (en) 2017-01-10

Family

ID=51129604

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120146870A KR101695007B1 (en) 2012-12-14 2012-12-14 Apparatus for parallel processing of large-scale video data and method thereof

Country Status (1)

Country Link
KR (1) KR101695007B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348355A (en) * 2002-05-29 2003-12-05 Canon Inc Image processing apparatus and control method therefor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012208342A (en) * 2011-03-30 2012-10-25 Sony Corp Signal processing circuit, signal processing method, and display device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003348355A (en) * 2002-05-29 2003-12-05 Canon Inc Image processing apparatus and control method therefor

Also Published As

Publication number Publication date
KR20140077754A (en) 2014-06-24

Similar Documents

Publication Publication Date Title
CN107454468B (en) Method, apparatus and stream for formatting immersive video
US11212539B2 (en) Efficient lossless compression of captured raw image information systems and methods
JP5722761B2 (en) Video compression apparatus, image processing apparatus, video compression method, image processing method, and data structure of video compression file
US20190141323A1 (en) Video image encoding method and apparatus, and video image decoding method and apparatus
US11595630B2 (en) Depth codec for real-time, high-quality light field reconstruction
US20140092439A1 (en) Encoding images using a 3d mesh of polygons and corresponding textures
US9426476B2 (en) Video stream
EA032859B1 (en) Tiered signal decoding and signal reconstruction
CN112219398A (en) Method and apparatus for depth coding and decoding
US20140086309A1 (en) Method and device for encoding and decoding an image
KR20140071339A (en) Transmission of reconstruction data in a tiered signal quality hierarchy
CN103281539A (en) Method, device and terminal for image encoding and decoding processing
US20140064637A1 (en) System for processing a digital image using two or more defined regions
AU2017317839B2 (en) Panoramic video compression method and device
CN109691114A (en) Image display and image display method
CN112929705B (en) Texture compression and decompression method and device, computer equipment and storage medium
CN102364945A (en) Multi-picture image decoding display method and video monitoring terminal
KR20220069086A (en) Method and apparatus for encoding, transmitting and decoding volumetric video
TWI487366B (en) Bitstream syntax for graphics-mode compression in wireless hd 1.1
US8306346B2 (en) Static image compression method and non-transitory computer readable medium having a file with a data structure
US20230067541A1 (en) Patch based video coding for machines
US20180302636A1 (en) Method of mixing video bitstreams and apparatus performing the method
WO2019061475A1 (en) Image processing
KR101695007B1 (en) Apparatus for parallel processing of large-scale video data and method thereof
US20230388542A1 (en) A method and apparatus for adapting a volumetric video to client devices

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191223

Year of fee payment: 4