KR20190091181A - 이미지 처리 장치 - Google Patents

이미지 처리 장치 Download PDF

Info

Publication number
KR20190091181A
KR20190091181A KR1020180041790A KR20180041790A KR20190091181A KR 20190091181 A KR20190091181 A KR 20190091181A KR 1020180041790 A KR1020180041790 A KR 1020180041790A KR 20180041790 A KR20180041790 A KR 20180041790A KR 20190091181 A KR20190091181 A KR 20190091181A
Authority
KR
South Korea
Prior art keywords
data
frame buffer
compressed
mode
signal block
Prior art date
Application number
KR1020180041790A
Other languages
English (en)
Other versions
KR102465206B1 (ko
Inventor
전성호
박창수
송문규
이경구
이길환
장혁재
정경아
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to TW108102299A priority Critical patent/TWI827579B/zh
Priority to US16/252,806 priority patent/US11095876B2/en
Priority to SG10201900626SA priority patent/SG10201900626SA/en
Priority to CN201910072938.7A priority patent/CN110087072B/zh
Publication of KR20190091181A publication Critical patent/KR20190091181A/ko
Priority to US17/377,927 priority patent/US11991347B2/en
Application granted granted Critical
Publication of KR102465206B1 publication Critical patent/KR102465206B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23605Creation or processing of packetized elementary streams [PES]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

이미지 처리 장치가 제공된다. 상기 이미지 처리 장치는 제1 데이터를 수신하고, 상기 제1 데이터를 프로세싱하여 제2 데이터를 생성하고, 사용하는 멀티미디어 아이피, 상기 제2 데이터를 제3 데이터로 압축하고, 상기 제3 데이터를 다시 제2 데이터로 압축해제하는 프레임 버퍼 컴프레서 및 상기 제3 데이터를 저장하고, 상기 멀티미디어 아이피에 의해서 액세스되는 메모리를 포함하되, 상기 프레임 버퍼 컴프레서는 상기 멀티미디어 아이피가 상기 메모리에 액세스할 때마다 상기 압축 또는 압축해제를 수행하고, 상기 프레임 버퍼 컴프레서는 손실모드 또는 무손실 모드로 동작하고, 상기 무손실 모드에서 압축된 상기 제3 데이터는 제1 페이로드와, 상기 페이로드의 압축률을 표시하는 제1 헤더를 포함하고, 상기 손실 모드에서 압축된 상기 제3 데이터는 미리 설정된 압축률에 따라 압축된 제2 페이로드만을 포함한다.

Description

이미지 처리 장치{Image processing device}
본 발명은 이미지 처리 장치에 관한 것이다.
비디오 고해상도 영상 및 고프레임율(high-frame rate) 영상의 필요성이 대두되면서 이미지 처리 장치의 여러 멀티미디어 아이피(IP)가 메모리에 액세스(access)되는 양 즉, 밴드위스(bandwidth)가 크게 증가하게 되었다.
밴드위스가 증가하게 되면 이미지 처리 장치의 처리 능력이 한계에 도달하여 비디오 영상의 녹화 및 재생 동작시에 속도가 저하되는 문제가 발생할 수 있다.
이에 따라서, 멀티미디어 아이피가 메모리에 액세스할 때, 데이터의 크기를 압축하는 방식이 고려되고 있다. 예를 들어, 메모리에 데이터를 라이트(write)하기 전에 데이터를 압축(compress)하고, 메모리에서 데이터를 리드(read)하기 전에는 압축된 데이터를 압축해제(decompress)할 수 있다.
본 발명이 해결하려는 과제는 처리 속도가 향상된 이미지 처리 장치를 제공하는 것이다.
본 발명이 해결하려는 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 이미지 처리 장치는, 제1 데이터를 수신하고, 상기 제1 데이터를 프로세싱하여 제2 데이터를 생성하고, 사용하는 멀티미디어 아이피, 상기 제2 데이터를 제3 데이터로 압축하고, 상기 제3 데이터를 다시 제2 데이터로 압축해제하는 프레임 버퍼 컴프레서 및 상기 제3 데이터를 저장하고, 상기 멀티미디어 아이피에 의해서 액세스되는 메모리를 포함하되, 상기 프레임 버퍼 컴프레서는 상기 멀티미디어 아이피가 상기 메모리에 액세스할 때마다 상기 압축 또는 압축해제를 수행하고, 상기 프레임 버퍼 컴프레서는 손실모드 또는 무손실 모드로 동작하고, 상기 무손실 모드에서 압축된 상기 제3 데이터는 제1 페이로드와, 상기 페이로드의 압축률을 표시하는 제1 헤더를 포함하고, 상기 손실 모드에서 압축된 상기 제3 데이터는 미리 설정된 압축률에 따라 압축된 제2 페이로드만을 포함한다.
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 이미지 처리 장치는 제1 데이터를 수신하고, 상기 제1 데이터를 프로세싱하여 제2 데이터를 생성하고, 사용하는 멀티미디어 아이피, 상기 제2 데이터를 제3 데이터로 압축하고, 상기 제3 데이터를 다시 제2 데이터로 압축해제하는 프레임 버퍼 컴프레서 및 상기 제3 데이터를 저장하고, 상기 멀티미디어 아이피에 의해서 액세스(access)되는 메모리를 포함하되, 상기 프레임 버퍼 컴프레서는 상기 멀티미디어 아이피가 상기 메모리에 액세스할 때마다 상기 압축 또는 압축해제를 수행하고, 상기 프레임 버퍼 컴프레서는, 상기 제2 데이터를 상기 제3 데이터로 압축하는 인코더와, 상기 제3 데이터를 상기 제2 데이터로 압축해제하는 디코더를 포함하고, 상기 인코더는, 상기 제2 데이터를 예측 데이터와 잔차 데이터로 나누어 표현하는 예측 모듈과, 상기 제2 데이터를 엔트로피 인코딩을 하여 k값에 따라 압축하는 엔트로피 인코딩 모듈을 포함하고, 상기 디코더는, 상기 예측 데이터와 상기 잔차 데이터를 상기 제2 데이터로 복원시키는 예측 보상 모듈과, 상기 제3 데이터를 상기 k값에 따라 복원시키는 엔트로피 디코딩 모듈을 포함한다.
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 이미지 처리 장치는 상기 제2 데이터를 제3 데이터로 압축하고, 상기 제3 데이터를 다시 제2 데이터로 압축해제하는 프레임 버퍼 컴프레서 및 상기 제3 데이터를 저장하고, 상기 멀티미디어 아이피에 의해서 액세스되는 메모리를 포함하되, 상기 프레임 버퍼 컴프레서는 상기 멀티미디어 아이피가 상기 메모리에 액세스할 때마다 상기 압축 또는 압축해제를 수행하고, 상기 제2 데이터는 YUV 방식으로 인코딩되어 휘도 신호 블록, 제1 색차 신호 블록 및 제2 색차 신호 블록을 포함하고, 상기 프레임 버퍼 컴프레서는 제1 내지 제3 모드로 동작하고, 상기 제1 모드에서, 상기 프레임 버퍼 컴프레서는 상기 제2 데이터의 상기 휘도 신호 블록, 상기 제1 및 제2 색차 신호 블록을 같이 압축하고, 상기 제2 모드에서, 상기 프레임 버퍼 컴프레서는 상기 제2 데이터의 제1 및 제2 색차 신호 블록을 같이 압축하되, 상기 휘도 신호 블록은 따로 압축하고, 상기 제3 모드에서, 상기 프레임 버퍼 컴프레서는 상기 제2 데이터의 상기 휘도 신호 블록, 상기 제1 및 제2 색차 신호 블록을 모두 따로 압축한다.
도 1은 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치를 설명하기 위한 블록도이다.
도 2는 도 1의 프레임 버퍼 컴프레서를 세부적으로 설명하기 위한 블록도이다.
도 3은 도 2의 인코더를 세부적으로 설명하기 위한 블록도이다.
도 4는 도 2의 디코더를 세부적으로 설명하기 위한 블록도이다.
도 5는 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치의 YUV 420 포맷 데이터에 대한 3가지 동작 모드를 설명하기 위한 개념도이다.
도 6은 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치의 YUV 422 포맷 데이터에 대한 3가지 동작 모드를 설명하기 위한 개념도이다.
도 7은 본 발명의 이미지 처리 장치에 의해서 무손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 8은 도 7의 무손실 압축된 데이터의 압축 방식을 설명하기 위한 표이다.
도 9는 본 발명의 이미지 처리 장치에 의해서 무손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 10은 도 9의 무손실 압축된 데이터의 압축 방식을 설명하기 위한 표이다.
도 11은 본 발명의 이미지 처리 장치에 의해서 무손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 12는 본 발명의 이미지 처리 장치에 의해서 손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 13은 본 발명의 이미지 처리 장치에 의해서 손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 14는 본 발명의 이미지 처리 장치에 의해서 손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 15는 본 발명의 이미지 처리 장치에 의해서 손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 16은 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치를 설명하기 위한 블록도이다.
도 17은 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치를 설명하기 위한 블록도이다.
이하에서, 도 1 내지 도 14를 참조하여, 본 발명의 몇몇 실시예에 따른 이미지 처리 장치에 대해서 설명한다.
도 1은 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치를 설명하기 위한 블록도이다.
도 1을 참조하면, 본 발명의 몇몇 실시예에 따른 이미지 처리 장치는 멀티미디어 아이피(IP: Intellectual Property)(100), 프레임 버퍼 컴프레서(200), 메모리(300) 및 시스템 버스(400)를 포함한다.
멀티미디어 아이피(100)는 이미지 처리 장치의 이미지 처리를 직접적으로 수행하는 파트일 수 있다. 즉, 멀티미디어 아이피(100)는 비디오 영상의 캠코딩(camcoding), 플레이백(play back) 등 영상의 녹화와 재생을 수행하기 위한 여러 모듈을 의미할 수 있다.
멀티미디어 아이피(100)는 카메라 등 외부로부터 제1 데이터를 수신하여 제2 데이터로 변환시킬 수 있다. 이 때, 상기 제1 데이터는 동영상 또는 이미지 로(raw) 데이터일 수 있다. 상기 제2 데이터는 멀티미디어 아이피(100)에 의해서 생성된 데이터로서 멀티미디어 아이피(100)가 처리중인 데이터도 포함할 수 있다. 즉, 멀티미디어 아이피(100)는 여러 단계를 거쳐 상기 제2 데이터를 메모리(300)에 저장하고, 다시 갱신하는 것을 반복할 수 있다. 상기 제2 데이터는 이러한 단계 중에 있는 모든 데이터를 포함할 수 있다. 다만, 상기 제2 데이터는 메모리(300)에 저장될 때 제3 데이터의 형태로 저장될 수 있으므로, 메모리(300)에 상기 제2 데이터는 메모리(300)에 저장되기전 또는 메모리(300)에서 리드된 이후의 데이터를 의미할 수 있다. 이에 대해서는 추후에 더 자세히 설명한다.
구체적으로, 멀티미디어 아이피(100)는 이미지 신호 프로세서(ISP)(110), 흔들림 보정 모듈(G2D)(120), 멀티 포맷 코덱(MFC)(130), GPU(140) 및 디스플레이(150)를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다. 즉, 멀티미디어 아이피(100)는 상술한 이미지 신호 프로세서 (110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150) 중 적어도 일부만을 포함할 수도 있다. 즉, 멀티미디어 아이피(100)는 동영상이나 이미지를 처리하기 위해서 메모리(300)에 액세스해야하는 처리 모듈을 의미할 수 있다.
이미지 신호 프로세서(110)는 상기 제1 데이터를 받아 이를 전처리하여 상기 제2 데이터로 변환시킬 수 있다. 이 때, 상기 제1 데이터는 RGB 방식의 이미지 소스 데이터일 수 있다. 예를 들어, 이미지 신호 프로세서(110)는 RGB 방식의 상기 제1 데이터를 YUV 방식의 상기 제2 데이터로 변환할 수 있다.
이 때, RGB 방식의 데이터란, 빛의 3원색을 기반으로 색을 표현한 데이터 포맷을 의미한다. 즉, 빨강(RED), 초록(GREEN), 파랑(BLUE) 세 종류의 색을 이용하여 이미지를 표현하는 방식이다. 이에 반해서, YUV 방식은 밝기 즉, 휘도(luma) 신호와 색차(chroma) 신호를 분리해서 표현하는 데이터 포맷을 의미한다. 즉, Y는 휘도 신호를 의미하고, U(Cb)와 V(Cr)는 각각 색차 신호를 의미한다. U는 휘도 신호와 청색 신호 성분의 차를 의미하고, V는 휘도 신호와 적색 신호 성분의 차를 의미한다. 여기서, Y, U(Cb) 및 V(Cr)의 항목을 플레인(Plane)이라 정의할 수 있다. 예를 들어, 휘도 신호에 대한 데이터를 Y플레인의 데이터라고 지칭할 수 있고, 색차 신호에 대한 데이터들을 U(Cb) 플레인의 데이터 또는 V(Cr) 플레인의 데이터라고 지칭할 수 있다.
이러한 YUV 방식의 데이터는 예를 들어, Y=0.3R+0.59G +0.11B, U=(B-Y)x0.493, V=(R-Y)x0.877와 같은 변환식을 이용하여 RGB 방식의 데이터로부터 변환되어 획득될 수 있다.
사람의 눈은 휘도 신호에는 민감하지만 색 신호에는 덜 민감하므로, YUV 방식의 데이터는 RGB 방식의 데이터에 비해서 압축이 더 용이할 수 있다. 이에 따라서, 이미지 신호 프로세서(110)는 RGB 방식의 상기 제1 데이터를 YUV 방식의 상기 제2 데이터로 변환할 수 있다.
이미지 신호 프로세서(110)는 상기 제1 데이터를 상기 제2 데이터로 변환한 뒤에 메모리(300)에 저장할 수 있다.
흔들림 보정 모듈(120)은 이미지 혹은 동영상 데이터의 흔들림 보정을 수행할 수 있다. 흔들림 보정 모듈(120)은 상기 제1 데이터 혹은 메모리(300)에 저장된 상기 제2 데이터를 리드(read)하여 흔들림 보정을 수행할 수 있다. 이 때, 흔들림 보정이란, 동영상 데이터에서 카메라의 흔들림을 감지하여 이를 제거하는 것을 의미한다.
흔들림 보정 모듈(120)은 상기 제1 데이터 또는 상기 제2 데이터의 흔들림을 보정하여 새로운 상기 제2 데이터를 생성 또는 갱신하고, 이를 메모리(300)에 저장할 수 있다.
멀티 포맷 코덱(130)은 동영상 데이터를 압축하는 코덱일 수 있다. 일반적으로, 동영상 데이터는 크기가 매우 크므로, 이의 크기를 줄이는 압축 모듈이 필요하다. 동영상 데이터는 복수의 프레임 간의 연관관계를 통해서 압축이 가능하고, 이를 수행하는 것이 멀티 포맷 코덱(130)일 수 있다. 멀티 포맷 코덱(130)은 제1 데이터 또는 메모리(300)에 저장된 상기 제2 데이터를 리드(read)하여 압축할 수 있다.
멀티 포맷 코덱(130)은 상기 제1 데이터 또는 상기 제2 데이터를 압축하여 새로운 제2 데이터를 생성하거나 상기 제2 데이터를 갱신하고, 이를 메모리(300)에 저장할 수 있다.
GPU(Graphics Processing Unit)(140)는 이차원 혹은 3차원 그래픽의 연산 및 생성을 할 수 있다. GPU(140)는 상기 제1 데이터 혹은 메모리(300)에 저장된 상기 제2 데이터를 연산 처리할 수 있다. GPU(140) 그래픽 데이터의 처리에 특화되어 병렬적으로 그래픽 데이터를 처리할 수 있다.
GPU(140)는 상기 제1 데이터 또는 상기 제2 데이터를 압축하여 새로운 제2 데이터를 생성하거나 상기 제2 데이터를 갱신하고, 이를 메모리(300)에 저장할 수 있다.
디스플레이(150)는 메모리(300)에 저장된 상기 제2 데이터를 화면에 표시할 수 있다. 디스플레이(150)는 다른 멀티미디어 아이피(100) 즉, 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130) 및 GPU(140)가 처리한 이미지 데이터 즉, 상기 제2 데이터를 화면에 표시할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)는 각각 개별적으로 동작할 수 있다. 즉, 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)는 각각 메모리(300)에 개별적으로 액세스하여 데이터를 라이트 또는 리드할 수 있다.
프레임 버퍼 컴프레서(200)는 멀티미디어 아이피(100)가 메모리(300)에 개별적으로 액세스하기 전에 상기 제2 데이터를 압축하여 상기 제3 데이터로 변환시킨다. 프레임 버퍼 컴프레서(200)는 상기 제3 데이터를 멀티미디어 아이피(100)로 다시 전송하고, 멀티미디어 아이피(100)는 상기 제3 데이터를 메모리(300)로 전송할 수 있다.
이에 따라서, 메모리(300)에는 프레임 버퍼 컴프레서(200)에 의해서 압축된 상기 제3 데이터가 저장될 수 있다. 반대로, 메모리(300)에 저장된 상기 제3 데이터는 멀티미디어 아이피(100)에 의해서 로드되고, 프레임 버퍼 컴프레서(200)로 전송될 수 있다. 프레임 버퍼 컴프레서(200)는 상기 제3 데이터를 압축해제(decompress)하여 상기 제2 데이터로 변환시킬 수 있다. 프레임 버퍼 컴프레서(200)는 상기 제2 데이터를 다시 멀티미디어 아이피(100)로 전송할 수 있다.
즉, 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)가 개별적으로 메모리(300)에 액세스할 때마다 프레임 버퍼 컴프레서(200)가 상기 제2 데이터를 상기 제3 데이터로 압축하여 메모리(300)에 전달할 수 있다. 반대로, 메모리(300)에서 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)로 데이터 요청이 있을 때마다 프레임 버퍼 컴프레서(200)는 상기 제3 데이터를 상기 제2 데이터로 압축해제하여 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)로 각각 전송할 수 있다.
메모리(300)는 프레임 버퍼 컴프레서(200)가 생성한 상기 제3 데이터를 저장하고, 저장된 상기 제3 데이터를 프레임 버퍼 컴프레서(200)가 압축해제할 수 있도록 프레임 버퍼 컴프레서(200)에 제공할 수 있다.
시스템 버스(400)는 멀티미디어 아이피(100)와 메모리(300)가 각각 연결될 수 있다. 구체적으로, 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)는 개별적으로 시스템 버스(400)에 연결될 수 있다. 시스템 버스(400)는 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)와 메모리(300)가 서로 데이터를 전송하는 경로가 될 수 있다.
프레임 버퍼 컴프레서(200)는 시스템 버스(400)와는 연결되지 않고, 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)가 각각 메모리에 액세스할 때 상기 제2 데이터를 상기 제3 데이터로, 상기 제3 데이터를 상기 제2 데이터로 변환시키는 작업을 할 수 있다.
도 2는 도 1의 프레임 버퍼 컴프레서를 세부적으로 설명하기 위한 블록도이다.
도 2를 참조하면, 프레임 버퍼 컴프레서(200)는 인코더(210) 및 디코더(220)를 포함할 수 있다.
인코더(210)는 멀티미디어 아이피(100)로부터 상기 제2 데이터를 받아 상기 제3 데이터를 생성할 수 있다. 이 때, 상기 제2 데이터는 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)로부터 각각 전송될 수 있다. 상기 제3 데이터는 멀티미디어 아이피(100) 및 시스템 버스(400)를 통해서 메모리(300)로 전송될 수 있다.
반대로, 디코더(220)는 메모리(300)에 저장된 상기 제3 데이터를 상기 제2 데이터로 압축해제할 수 있다. 상기 제2 데이터는 멀티미디어 아이피로 전달될 수 있다. 이 때, 상기 제2 데이터는 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)로 각각 전달될 수 있다.
도 3은 도 2의 인코더를 세부적으로 설명하기 위한 블록도이다.
도 3을 참조하면, 인코더(210)는 제1 모드 셀렉터(219), 예측 모듈(211), 양자화 모듈(213), 엔트로피 인코딩 모듈(215) 및 패딩 모듈(217)을 포함한다.
제1 모드 셀렉터(219)는 인코더(210)가 무손실(loseless) 모드로 동작할 지, 손실(lossy) 모드로 동작할 지를 결정할 수 있다. 제1 모드 셀렉터(219)에 따라서, 인코더(210)가 무손실 모드로 동작하는 경우에는, 상기 제2 데이터는 도 3의 무손실 경로(Lossless)를 따라서 압축되고, 인코더(210)가 손실 모드로 동작하는 경우에는, 상기 제2 데이터는 손실 경로(Lossy)를 따라서 압축될 수 있다.
제1 모드 셀렉터(219)는 멀티미디어 아이피(100)로부터 무손실 압축을 할것인지 손실 압축을 할 것인지를 결정하는 신호를 수신할 수 있다. 이 때, 무손실 압축이란, 데이터의 손실 없이 압축하는 것을 의미하고, 데이터에 따라서 압축률이 달라지는 방식을 의미한다. 이와 달리 손실 압축이란, 데이터가 일부 손실되는 압축으로서, 무손실 압축에 비해서 압축률이 더 높고, 미리 설정한 고정된 압축률을 가질 수 있다.
제1 모드 셀렉터(219)는 무손실 모드인 경우에는 무손실 경로(Lossless)를 따라서, 예측 모듈(211), 엔트로피 인코딩 모듈(215) 및 패딩 모듈(217)로 상기 제2 데이터를 유도할 수 있다. 반대로, 제1 모드 셀렉터(219)는 손실 모드인 경우에는 손실 경로(Lossy)를 따라서, 예측 모듈(211), 양자화 모듈(213) 및 엔트로피 인코딩 모듈(215)로 상기 제2 데이터를 유도할 수 있다.
예측 모듈(211)은 상기 제2 데이터를 예측 데이터와 잔차 데이터로 나누어 표현할 수 있다. 예를 들어, 하나의 픽셀이 0~255의 값을 가지고 있는 경우에는 이를 표현하기 위해서 픽셀당 8bit의 데이터가 필요할 수 있다. 이에 대해서, 인접한 픽셀이 유사한 값을 가지는 경우에는 인접한 픽셀과의 차이 즉, 잔차만을 표현하여도 데이터의 손실은 없고, 표현하기 위한 데이터 bit의 수는 대폭 감소할 수 있다. 예를 들어, (253, 254, 255)의 값을 가지는 픽셀이 연속한 경우에는 예측 데이터를 253으로 한다면, (253(예측), 1(잔차), 2(잔차))의 잔차 데이터 표현으로 충분하고, 이러한 잔차 데이터 표현을 위한 픽셀당 bit수는 2bit로 매우 작아질 수 있다.
따라서, 예측 모듈(211)은 상기 제2 데이터를 예측 데이터와 잔차 데이터로 나누어 전체적인 상기 제2 데이터의 크기를 압축할 수 있다. 물론, 예측 데이터를 무엇으로 하는지에 대해서는 여러가지 방법이 가능할 수 있다.
예측 모듈(211)은 픽셀 단위로 예측을 수행하거나, 블록 단위로 예측을 수행할 수 있다. 이 때, 블록이란 복수의 인접한 픽셀이 이루는 영역을 의미할 수 있다.
양자화 모듈(213)은 예측 모듈(211)에 의해서 압축된 상기 제2 데이터를 추가적으로 더 압축할 수 있다. 양자화 모듈(213)은 미리 설정된 양자화 계수를 통해서, 상기 제2 데이터의 하위 비트를 제거할 수 있다. 구체적으로, 데이터를 양자화 계수를 곱함으로써 그 대표값을 선택하되, 소수점 이하를 버림으로서 손실이 발생할 수는 있다. 픽셀 데이터의 값이 0 내지 28-1(=255)사이라면, 양자화 계수는 1/(2n-1)(여기서, n은 8 이하의 정수)로 정의될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
이 때, 제거된 하위 비트는 추후에 복원되지 않아 손실될 수 있다. 따라서, 양자화 모듈(213)은 손실 모드에서만 활용될 수 있다. 다만 손실 모드는 무손실 모드에 비해서 압축률이 상대적으로 높을 수 있고, 미리 설정된 고정 압축률을 가질 수 있어 추후에 압축률에 대한 정보다 별도로 필요하지 않을 수 있다.
엔트로피 인코딩 모듈(215)은 손실 모드에서의 양자화 모듈(213)에 의해서 압축된 상기 제2 데이터 또는 무손실 모드에서의 예측 모듈(211)에 의해서 압축된 상기 제2 데이터를 엔트로피 코딩을 통해서 압축할 수 있다. 이 때, 엔트로피 코딩은 빈도수에 따라서 비트수를 할당하는 방식을 활용할 수 있다.
엔트로피 인코딩 모듈(215)은 허프만 코딩(Huffman coding)을 사용하여 상기 제2 데이터를 압축할 수 있다. 또는, 엔트로피 인코딩 모듈(215)은 익스포넨셜 골룸 코딩(exponential golomb coding) 또는 골룸 라이스 코딩(golomb rice coding)을 통해서 상기 제2 데이터를 압축할 수 있다. 이 때, 엔트로피 인코딩 모듈(215)은 k값을 통해서 테이블을 생성할 수 있어 간단하게 상기 제2 데이터를 압축할 수 있다.
패딩 모듈(217)은 무손실 모드에서 엔트로피 인코딩 모듈(215)에 의해서 압축된 상기 제2 데이터에 패딩(padding)을 수행할 수 있다. 여기서, 패딩이란 특정한 크기에 맞추기 위해서 무의미한 데이터를 추가하는 것을 의미할 수 있다. 이에 대해서는 추후에 더 자세히 설명한다.
패딩 모듈(217)은 무손실 모드뿐만 아니라 손실 모드에서도 활성화될 수 있다. 손실 모드에서는 상기 제2 데이터가 양자화 모듈(213)에 의해서 압축될 때 목적하였던 압축률보다 더 많이 압축될 수 있다. 이러한 경우에 손실 모드에서도 패딩 모듈(217)을 거쳐 상기 제3 데이터로 변환되어 메모리(300)로 전송될 수 있다.
압축 관리 모듈(218)은 양자화 및 엔트로피 코딩에 각각 사용되는 QP 테이블 및 엔트로피 테이블의 조합을 결정하고, 결정된 QP 테이블 및 엔트로피 테이블의 조합에 따라 상기 제2 데이터의 압축을 제어한다.
이 경우 제1 모드 셀렉터(219)는 인코더(210)가 손실(lossy) 모드로 동작하는 것으로 결정하고, 이에 따라, 상기 제2 데이터는 도 3의 손실 경로(Lossy)를 따라서 압축된다. 즉, 압축 관리 모듈(218)이 QP 테이블 및 엔트로피 테이블의 조합을 결정하고 결정된 QP 테이블 및 엔트로피 테이블의 조합에 따라 상기 제2 데이터를 압축하는 것은, 프레임 버퍼 컴프레서(200)가 손실 압축 알고리즘(lossy compression algorithm)을 이용하여 상기 제2 데이터에 대한 압축을 수행하는 경우가 전제된다.
구체적으로, QP 테이블은 하나 이상의 엔트리를 포함하고, 각각의 엔트리는 상기 제2 데이터를 양자화하기 위해 사용되는 양자화 계수를 포함할 수 있다. 상기 QP 테이블, 양자화 계수와 같은 개념은 이미지 압축 기술로서 이미 공지된 내용에 해당하므로 본 명세서에서는 그 구체적인 설명을 생략하도록 한다.
한편, 엔트로피 테이블은 엔트로피 코딩 알고리즘을 수행하기 위해 k값을 통해 식별되는 복수의 코드 테이블을 의미하며, 본 발명의 몇몇의 실시예에서 사용될 수 있는 엔트로피 테이블은 지수 골롬 코드(exponential golomb code) 및 골롬 라이스 코드(golomb rice code) 중 적어도 하나를 포함할 수 있다. 엔트로피 코딩, 지수 골롬 코딩 알고리즘, 골롬 라이스 코딩 알고리즘 등에 관한 개념은 데이터 압축 기술로서 이미 공지된 내용에 해당하므로 본 명세서에서는 그 구체적인 설명을 생략하도록 한다.
압축 관리 모듈(218)은 미리 결정된 개수의 엔트리를 포함하는 QP 테이블을 결정하고, 프레임 버퍼 컴프레서(200)는 상기 결정된 QP 테이블을 이용하여 예측이 완료된 이미지 데이터(10)에 대해 양자화를 수행한다. 또한 압축 관리 모듈(218)은 미리 결정된 개수의 k값을 이용하여 엔트로피 테이블을 결정하고, 프레임 버퍼 컴프레서(200)는 상기 결정된 엔트로피 테이블을 이용하여 양자화가 완료된 상기 제2 데이터에 대해 엔트로피 코딩을 수행한다. 즉, 프레임 버퍼 컴프레서(200)는, 압축 관리 모듈(218)에 의해 결정된 상기 QP 테이블 및 상기 엔트로피 테이블의 조합에 기반하여 상기 제3 데이터를 생성한다.
이후, 프레임 버퍼 컴프레서(200)는 생성한 상기 제3 데이터를 메모리(300)에 라이트(write)할 수 있다. 또한, 프레임 버퍼 컴프레서(200)는, 메모리(300)로부터 상기 제3 데이터를 리드(read)하고, 리드한 상기 제3 데이터를 압축 해제하여 멀티미디어 IP(100)에 제공할 수 있다.
도 4는 도 2의 디코더를 세부적으로 설명하기 위한 블록도이다.
도 3 및 도 4를 참조하면, 디코더(220)는 제2 모드 셀렉터(229), 언패딩 모듈(227), 엔트로피 디코딩 모듈(225), 역양자화 모듈(223) 및 예측 보상 모듈(221)을 포함한다.
제2 모드 셀렉터(229)는 메모리(300)에 저장된 상기 제3 데이터가 무손실 압축되었는지 손실 압축되었는지를 판단할 수 있다. 이 때, 제2 모드 셀렉터(229)는 헤더의 유무를 통해서 무손실 모드 및 손실 모드 중 어느 모드에 의해서 상기 제3 데이터가 압축되었는지를 판단할 수 있다. 이에 대해서는 추후에 더 자세히 설명한다.
제2 모드 셀렉터(229)는 무손실 모드인 경우에는 무손실 경로(Lossless)를 따라서, 언패딩 모듈(227), 엔트로피 디코딩 모듈(225) 및 예측 보상 모듈(221)로 상기 제3 데이터를 유도할 수 있다. 반대로, 제2 모드 셀렉터(229)는 손실 모드인 경우에는 손실 경로(Lossy)를 따라서, 엔트로피 디코딩 모듈(225), 역양자화 모듈(223) 및 예측 보상 모듈(221)로 상기 제3 데이터를 유도할 수 있다.
언패딩 모듈(227)은 인코더(210)의 패딩 모듈(217)에 의해서 패딩된 데이터의 패딩된 부분을 제거할 수 있다.
엔트로피 디코딩 모듈(225)은 엔트로피 인코딩 모듈(215)에 의해서 압축된 데이터를 압축해제할 수 있다. 엔트로피 디코딩 모듈(225)은 허프만 코딩, 익스포넨셜 골룸 코딩 또는 골룸 라이스 코딩을 통해서 압축해제를 수행할 수 있다. 상기 제3 데이터는 k값을 포함하고 있으므로, 엔트로피 디코딩 모듈(225)은 상기 k값을 이용하여 디코딩을 수행할 수 있다.
역양자화 모듈(223)은 양자화 모듈(213)에 의해서 압축된 데이터를 압축해제할 수 있다. 역양자화 모듈(223)은 양자화 모듈(213)에서 정해진 양자화 계수를 이용하여 압축된 상기 제3 데이터를 복원할 수 있으나, 압축 과정에서 손실된 부분까지 완벽하게 복원할 수는 없다. 따라서, 역양자화 모듈(223)은 손실 모드에서만 활용될 수 있다.
예측 보상 모듈(221)은 예측 모듈(211)에 의해서 예측 데이터와 잔차 데이터로 표현된 데이터를 복원할 수 있다. 예측 보상 모듈(221)은 예를 들어, (253(예측), 1(잔차), 2(잔차))의 잔차 데이터 표현을 (253, 254, 255)으로 변환시킬 수 있다.
예측 보상 모듈(221)은 예측 모듈(211)에 따라 픽셀 단위 또는 블록 단위로 수행된 예측을 복원할 수 있다. 이에 따라서, 상기 제3 데이터가 복원 혹은 압축해제되어 멀티미디어 아이피(100)로 전송될 수 있다.
압축 해제 관리 모듈(228)은 도 3과 관련하여 앞서 설명한 압축 관리 모듈(218)이 상기 제2 데이터의 압축을 수행하기 위해 결정했던 QP 테이블 및 엔트로피 테이블의 조합이, 상기 제3 데이터를 압축 해제할 때에 적절하게 반영될 수 있는 작업을 수행할 수 있다.
본 발명의 몇몇 실시예에 다른 이미지 처리 장치의 제2 데이터는 YUV 방식의 데이터일 수 있다. 이 때, YUV 방식의 데이터는 YUV 420 포맷과 YUV 422 포맷을 가질 수 있다.
도 5는 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치의 YUV 420 포맷 데이터에 대한 3가지 동작 모드를 설명하기 위한 개념도이다.
도 1 내지 도 5를 참조하면, 프레임 버퍼 컴프레서(200)의 인코더(210) 및 디코더(220)는 3가지 동작 모드를 가질 수 있다. YUV 420 포맷의 상기 제2 데이터는 16 x 16 크기의 휘도 신호 블록(Y)과 각각 8 x 8 크기의 제1 색차 신호 블록(Cb 또는 U) 및 제2 색차 신호 블록(Cr 또는 V)을 가질 수 있다. 여기서 각각의 블록의 크기는 몇 개의 행과 열로 정렬된 픽셀을 포함하는지를 의미하고, 16 x 16의 크기는 16개의 행과 16개의 열을 가지는 복수의 픽셀들이 구성하는 블록의 크기를 의미한다.
프레임 버퍼 컴프레서(200)는 ①연결 모드(Concatenation mode), ②일부 연결 모드(Partial concatenation mode) 및 ③분리 모드(Separation mode)의 3가지 동작 모드를 포함할 수 있다. 이러한 3가지 모드는 데이터의 압축 포맷에 대한 것으로서, 손실 모드 및 무손실 모드와 별개로 정해지는 동작 모드일 수 있다.
먼저, 연결 모드(①)는 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)을 모두 같이 압축하고 압축해제하는 동작 모드이다. 즉, 연결 모드(①)에서는 도 5와 같이 압축의 단위 블록이 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)이 결합된 블록일 수 있다. 이에 따라서, 압축의 단위 블록의 크기는 16 x 24일 수 있다.
일부 연결 모드(②)는 휘도 신호 블록(Y)은 별도로 압축 및 압축해제되지만, 제1 색차 신호 블록(Cb)과 제2 색차 신호 블록(Cr)은 서로 결합하여 같이 압축 및 압축해제될 수 있다. 이에 따라서, 휘도 신호 블록(Y)은 원래 크기 그대로 16 x 16이고, 제1 색차 신호 블록(Cb)과 제2 색차 신호 블록(Cr)이 결합된 블록은 16 x 8일 수 있다.
분리 모드(③)는 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)을 모두 별도로 압축 및 압축해제하는 동작 모드이다. 이 때, 압축 및 압축해제의 단위 블록의 크기를 동일하게 하기 위해서, 휘도 신호 블록(Y)은 원래 크기인 16 x 16로 유지하되, 제1 색차 신호 블록(Cb)과 제2 색차 신호 블록(Cr)은 16 x 16의 크기로 크게할 수 있다.
이에 따라서, 휘도 신호 블록(Y)의 개수가 N개이면, 제1 색차 신호 블록(Cb)과 제2 색차 신호 블록(Cr)의 개수는 각각 N/4개로 줄어들 수 있다.
본 발명의 몇몇 실시예에 따른 이미지 처리 장치의 프레임 버퍼 컴프레서(200)가 연결 모드(①)로 동작하는 경우에는 메모리(300)에 대한 한번의 액세스 요청을 통해서 필요한 모든 데이터를 리드할 수 있다. 특히, 멀티미디어 아이피(100)에서 YUV 방식이 아닌 RGB 방식의 데이터가 필요한 경우에는 연결 모드(①)로 동작하는 것이 유리하다. 왜냐하면, 연결 모드(①)에서 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)을 한꺼번에 획득할 수 있고, RGB 데이터를 획득하기 위해서는 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)이 모두 필요하기 때문이다.
이에 반해서, 분리 모드(③)는 압축 단위 블록이 연결 모드(①)에 비해서 작아지면 더 낮은 하드웨어 리소스를 요구할 수 있다. 따라서, 멀티미디어 아이피(100)에서 RGB 방식이 아닌 YUV 방식의 데이터가 필요할 때는 분리 모드(③)가 더 유리할 수 있다.
마지막으로, 일부 연결 모드(②)는 연결 모드(①)와 분리 모드(③)를 절충한 모드로서, 연결 모드(①)에 비해서는 낮은 하드웨어 리소스를 요구하고, RGB 데이터가 필요한 경우에도 메모리(300)에 대한 액세스 요청이 분리 모드(③)에 비해서 적은 횟수(2회)로 가능할 수 있다.
제1 모드 셀렉터(219)는 3개의 모드 즉, 연결 모드(①), 일부 연결 모드(②) 및 분리 모드(③) 중 어느 모드로 상기 제2 데이터를 압축할 것인지를 결정할 수 있다. 제1 모드 셀렉터(219)는 연결 모드(①), 일부 연결 모드(②) 및 분리 모드(③) 중 어느 모드로 동작할지에 대한 신호를 멀티미디어 아이피(100)에게 제공받을 수 있다.
제2 모드 셀렉터(229)는 제1 모드 셀렉터(219)가 연결 모드(①), 일부 연결 모드(②) 및 분리 모드(③) 중 어느 모드로 압축하였는지에 따라서 상기 제3 데이터를 압축해제할 수 있다.
도 6은 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치의 YUV 422 포맷 데이터에 대한 3가지 동작 모드를 설명하기 위한 개념도이다.
도 1 내지 도 4 및 도 6을 참조하면, 프레임 버퍼 컴프레서(200)의 인코더(210) 및 디코더(220)는 YUV 422 포맷에 대해서도 3가지 동작 모드를 가질 수 있다. YUV 422 포맷의 상기 제2 데이터는 16 x 16 크기의 휘도 신호 블록(Y)과 각각 16 x 8 크기의 제1 색차 신호 블록(Cb 또는 U) 및 제2 색차 신호 블록(Cr 또는 V)을 가질 수 있다.
연결 모드(①)에서는 압축의 단위 블록이 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)이 결합된 블록일 수 있다. 이에 따라서, 압축의 단위 블록의 크기는 16 x 32일 수 있다.
일부 연결 모드(②)는 휘도 신호 블록(Y)은 별도로 압축 및 압축해제되지만, 제1 색차 신호 블록(Cb)과 제2 색차 신호 블록(Cr)은 서로 결합하여 같이 압축 및 압축해제될 수 있다. 이에 따라서, 휘도 신호 블록(Y)은 원래 크기 그대로 16 x 16이고, 제1 색차 신호 블록(Cb)과 제2 색차 신호 블록(Cr)이 결합된 블록은 16 x 16일 수 있다. 따라서, 휘도 신호 블록(Y)과 제1 색차 신호 블록(Cb)과 제2 색차 신호 블록(Cr)이 결합된 블록의 크기가 동일할 수 있다.
분리 모드(③)는 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)을 모두 별도로 압축 및 압축해제하는 동작 모드이다. 이 때, 압축 및 압축해제의 단위 블록의 크기를 동일하게 하기 위해서, 휘도 신호 블록(Y)은 원래 크기인 16 x 16로 유지하되, 제1 색차 신호 블록(Cb)과 제2 색차 신호 블록(Cr)은 16 x 16의 크기로 크게할 수 있다.
이에 따라서, 휘도 신호 블록(Y)의 개수가 N개이면, 제1 색차 신호 블록(Cb)과 제2 색차 신호 블록(Cr)의 개수는 각각 N/2개로 줄어들 수 있다.
도 7은 본 발명의 이미지 처리 장치에 의해서 무손실 압축된 데이터의 구조를 설명하기 위한 도면이고, 도 8은 도 7의 무손실 압축된 데이터의 압축 방식을 설명하기 위한 표이다.
도 1 내지 도 8을 참조하면, 상기 제3 데이터는 페이로드(Payload) 및 헤더(Header)를 포함할 수 있다.
헤더(Header)는 압축률을 표시하기 위한 부분이고, 페이로드(Payload)는 실제 압축된 데이터와 압축해제를 위해 필요한 값들을 표시하기 위한 부분이다.
도 8은 예시적으로, 블록 사이즈가 16 x 16인 블록의 무손실 압축을 설명하기 위한 표이다. 데이터의 포맷은 YUV 420이고, 동작 모드는 분리 모드(③)이므로, 도 5의 휘도 신호 블록(Y)이나, 제1 색차 신호 블록(Cb) 또는 제2 색차 신호 블록(Cr)이 이에 해당될 수 있다. 픽셀 뎁스(pixel depth)는 하나의 픽셀에 표현된 값의 bit값을 의미한다. 예를 들어, 0 내지 255의 값이 표현되기 위해서는 픽셀 뎁스가 8 bit여야만 한다. 따라서, 도 8의 예시에서도 각각의 픽셀에 표현되는 값은 0 내지 255일 수 있다.
메모리(300)는 하드웨어적으로 한번에 액세스 가능한 데이터의 크기가 정해져 있다. 메모리(300)의 데이터 액세스 단위 크기는 이러한 한번에 메모리(300) 내에 액세스 가능한 데이터의 크기를 의미할 수 있다. 도 8에서는 편의상, 메모리(300)의 데이터 액세스 단위 크기가 32byte라고 가정하여 설명한다.
하나의 픽셀은 8bit 즉 1byte의 크기의 데이터를 가지고 있고, 16 x 16의 블록은 총 256 byte의 크기의 데이터를 가질 수 있다. 즉, 상기 제2 데이터의 크기는 256byte일 수 있다.
무손실 압축의 경우에는 압축 데이터의 크기가 매번 달라질 수 있고, 이를 메모리(300)에서 리드(read)하기 위해서는 상기 압축 데이터의 크기가 따로 기록되어야 한다. 그러나, 상기 압축 데이터의 크기를 그대로 기록하는 경우에는 그 기록의 사이즈에 의해서 압축 효율이 낮아질 수 있으므로, 압축률을 규격화하여 압축 효율을 높일 수 있다.
구체적으로, 도 8에서는 메모리(300)의 데이터 액세스 단위 크기인 32byte에 따라서 압축률의 규격을 정의하였다. 즉, 상기 압축 데이터의 크기가 0 내지 32 byte인 경우에는 압축률이 100 내지 87.5%이므로 이 때에는 압축률을 87.5%로 맞추는 작업(즉, 상기 압축 데이터의 크기를 32byte로 맞추는 작업)을 수행하고, 헤더(Header)에 0을 기록할 수 있다. 마찬가지로, 상기 압축 데이터의 크기가 161 내지 192 byte인 경우에는 압축률이 37.5 내지 25%이므로 이 때에는 압축률을 25%로 맞추는 작업(즉, 상기 압축 데이터의 크기를 192byte로 맞추는 작업)을 수행하고, 헤더(Header)에 5를 기록할 수 있다.
도 3의 패딩 모듈(217)은 상기와 같이 상기 압축 데이터의 크기를 그 규격의 최대 크기로 맞추는 작업을 수행할 수 있다. 즉, 상기 압축 데이터의 크기가 170byte인 경우에는 161 내지 192 byte 사이이므로 22byte의 "0"을 추가하는 패딩 작업을 수행하여 상기 압축 데이터가 192byte가 되도록 할 수 있다.
이렇게 패딩 모듈(217)에 의해서 크기가 규격에 맞추어진 상기 압축 데이터는 상기 제3 데이터의 페이로드(Payload)가 될 수 있다. 이에 따라서, 페이로드(Payload)의 크기(n1 bit)는 메모리(300)의 데이터 액세스 단위 크기의 정수배일 수 있다.
헤더(Header)는 도 8의 헤더 인덱스(header index)를 표현하기 위한 부분일 수 있다. 헤더(Header)의 크기는 상기 압축 데이터의 크기에 따라 달라질 수 있지만, 도 8과 같은 경우 0 내지 7만 표현하면 되므로 3bit가 될 수 있다.
헤더(Header)와 페이로드(Payload)는 메모리(300)의 서로 다른 영역에 저장될 수 있다. 즉, 헤더(Header)는 다른 헤더(Header)와 인접하게 저장되고, 페이로드(Payload)는 다른 페이로드(Payload)와 인접하게 저장될 수 있다.
페이로드(Payload)는 바이너리 코드(binary code)와 k값 코드(k value code)를 포함할 수 있다. 바이너리 코드(binary code)는 상기 제2 데이터가 압축된 부분일 수 있다. k값 코드(k value code)는 엔트로피 인코딩 모듈(215)에서 정해진 k값을 의미할 수 있다.
바이너리 코드(binary code)는 전체 블록의 데이터 값을 포함할 수 있다. 따라서, 바이너리 코드(binary code)는 블록에 포함되어 있는 각각의 픽셀에 대한 데이터를 연속적으로 포함할 수 있다.
현재 모드가 분리 모드(③)이므로 k값 코드(k value code)는 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr) 중 어느 하나에 대한 k값일 수 있다.
도 9는 본 발명의 이미지 처리 장치에 의해서 무손실 압축된 데이터의 구조를 설명하기 위한 도면이고, 도 10은 도 9의 무손실 압축된 데이터의 압축 방식을 설명하기 위한 표이다.
도 10은 예시적으로, 블록 사이즈가 16 x 8인 블록의 무손실 압축을 설명하기 위한 표이다. 데이터의 포맷은 YUV 420이고, 동작 모드는 일부 연결 모드(②)이므로, 도 5의 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)이 결합된 블록이 이에 해당될 수 있다. 도 10에서도 편의상, 메모리(300)의 데이터 액세스 단위 크기가 32byte라고 가정하여 설명한다.
16 x 8의 블록은 총 128 byte의 크기의 데이터를 가질 수 있다. 즉, 상기 제2 데이터의 크기는 128byte일 수 있다.
메모리(300)의 데이터 액세스 단위 크기인 32byte에 따라서 압축률의 규격을 정의하였다. 즉, 상기 압축 데이터의 크기가 0 내지 32 byte인 경우에는 압축률이 100 내지 75%이므로 이 때에는 압축률을 75%로 맞추는 작업(즉, 상기 압축 데이터의 크기를 32byte로 맞추는 작업)을 수행하고, 헤더(Header)에 0을 기록할 수 있다. 마찬가지로, 상기 압축 데이터의 크기가 97 내지 128 byte인 경우에는 압축률이 25 내지 0%이므로 이 때에는 압축률을 0%로 맞추는 작업(즉, 상기 압축 데이터의 크기를 128byte로 맞추는 작업)을 수행하고, 헤더(Header)에 3을 기록할 수 있다. 이는 도 3의 패딩 모듈(217)에 의해서 수행될 수 있다.
도 9를 참조하면, 이렇게 패딩 모듈(217)에 의해서 크기가 규격에 맞추어진 상기 압축 데이터는 상기 제3 데이터의 페이로드(Payload)가 될 수 있다. 이에 따라서, 페이로드(Payload)의 크기(n2 bit)는 메모리(300)의 데이터 액세스 단위 크기의 정수배일 수 있다.
페이로드(Payload)는 바이너리 코드(binary code)와 k값 코드(k value code)를 포함할 수 있다. 현재 모드가 일부 연결 모드(②)이고, 블록 사이즈 16 x 8의 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)이 결합된 블록이므로 k값 코드(k value code)는 제1 색차 신호 블록(Cb)의 k값 코드(k value code(Cb)) 및 제2 색차 신호 블록(Cr)의 k값 코드(k value code(Cr))를 포함할 수 있다. 이 때, 제1 색차 신호 블록(Cb)의 k값 코드(k value code(Cb)) 및 제2 색차 신호 블록(Cr)의 k값 코드(k value code(Cr))의 배치 순서는 얼마든지 바뀔 수 있다.
이 때, 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치의 페이로드(Payload)는 제1 색차 신호 블록(Cb)의 k값 코드(k value code(Cb)) 및 제2 색차 신호 블록(Cr)의 k값 코드(k value code(Cr))가 각각 존재하지 않고 하나의 k값 코드만을 공유할 수도 있다. 이 때는 당연히 k값 코드가 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)에서도 동일할 수 있다.
도 9는 일부 연결 모드(②)에서 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)이 결합된 블록의 데이터 구조를 설명한 도면이므로, 바이너리 코드(binary code)는 제1 색차 신호 블록(Cb)에 대한 데이터와, 제2 색차 신호 블록(Cr)에 대한 데이터를 모두 포함할 수 있다.
이 때, 바이너리 코드(binary code)에서, 모든 픽셀에 대해서 제1 색차 신호 블록(Cb)에 대한 데이터가 먼저 배치되고, 이어서, 모든 픽셀에 대해서 제2 색차 신호 블록(Cr)에 대한 데이터를 배치할 수 있다. 즉, 제1 색차 신호 블록(Cb)의 데이터와 제2 색차 신호 블록(Cr)의 데이터가 구분되어 배치될 수 있다. 물론, 제1 색차 신호 블록(Cb)의 데이터와 제2 색차 신호 블록(Cr)의 데이터의 배치 순서는 달라질 수 있다.
이와 달리, 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치의 바이너리 코드(binary code)는 하나의 픽셀에 대해서 제1 색차 신호 블록(Cb)과 제2 색차 신호 블록(Cr)의 데이터가 연속적으로 배치되고, 다시 다른 픽셀에 대하여 제1 색차 신호 블록(Cb)과 제2 색차 신호 블록(Cr)의 데이터가 연속적으로 배치되는 인터리빙(interleaving) 구조일 수도 있다.
이러한 구조는 분리 모드(③)에서는 하나의 플레인만 포함하므로 고려할 필요가 없으나, 연결 모드(①) 및 일부 연결 모드(②)에서는 복수의 플레인이 포함되므로 배치 구조가 달라질 수 있다.
따라서, 연결 모드(①)에서도 바이너리 코드(binary code)에서 모든 픽셀에 대한 휘도 신호 블록(Y)의 데이터, 모든 픽셀에 대한 제1 색차 신호 블록(Cb)의 데이터 및 모든 픽셀에 대한 제2 색차 신호 블록(Cr)의 데이터가 별도로 배치될 수 있다. 물론, 휘도 신호 블록(Y)의 데이터와, 제1 색차 신호 블록(Cb)의 데이터와, 제2 색차 신호 블록(Cr)의 데이터의 배치 순서는 달라질 수 있다.
또는, 연결 모드(①)의 바이너리 코드(binary code)에서 하나의 픽셀에 대해서 먼저 휘도 신호 블록(Y)의 데이터, 제1 색차 신호 블록(Cb)의 데이터 및 제2 색차 신호 블록(Cr)의 데이터가 먼저 배치되고, 이어서 다른 픽셀에 대해서 휘도 신호 블록(Y)의 데이터, 제1 색차 신호 블록(Cb)의 데이터 및 제2 색차 신호 블록(Cr)의 데이터가 배치될 수도 있다.
즉, 바이너리 코드(binary code)는 플레인별로 데이터가 배치될 수도 있고, 픽셀별로 데이터가 배치(인터리빙 구조)될 수도 있다.
도 11은 본 발명의 이미지 처리 장치에 의해서 무손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 11을 참조하면, 현재 모드가 연결 모드(①)이면, 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)이 결합된 블록을 압축하므로 k값 코드(k value code)는 휘도 신호 블록(Y)의 k값 코드(k value code(Y)), 제1 색차 신호 블록(Cb)의 k값 코드(k value code(Cb)) 및 제2 색차 신호 블록(Cr)의 k값 코드(k value code(Cr))를 포함할 수 있다. 이 때, 휘도 신호 블록(Y)의 k값 코드(k value code(Y)), 제1 색차 신호 블록(Cb)의 k값 코드(k value code(Cb)) 및 제2 색차 신호 블록(Cr)의 k값 코드(k value code(Cr))의 배치 순서는 얼마든지 바뀔 수 있다.
이 때, 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치의 페이로드(Payload)는 휘도 신호 블록(Y)의 k값 코드(k value code(Y)), 제1 색차 신호 블록(Cb)의 k값 코드(k value code(Cb)) 및 제2 색차 신호 블록(Cr)의 k값 코드(k value code(Cr))가 각각 존재하지 않고 하나의 k값 코드만을 공유할 수도 있다. 이 때는 당연히 k값 코드가 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)에서도 동일할 수 있다.
또는, 3개의 플레인 중 2개만이 같은 k값 코드를 공유하는 경우 총 2개의 k값 코드가 페이로드(Payload)에 포함될 수도 있다.
바이너리 코드(binary code)와 k값 코드(k value code)를 포함하는 페이로드(Payload)의 크기(n3 bit)는 메모리(300)의 데이터 액세스 단위 크기의 정수배일 수 있다.
도 12는 본 발명의 이미지 처리 장치에 의해서 손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 12를 참조하면, 손실 모드에서 압축된 상기 제3 데이터는 헤더가 없이 페이로드(Payload)만을 포함할 수 있다.
페이로드(Payload)는 바이너리 코드(binary code), k값 코드(k value code) 및 양자화 계수 코드(QP code)를 포함할 수 있다. 양자화 계수 코드(QP code)는 도 3의 양자화 모듈(213)이 사용한 양자화 계수를 표시하기 위한 부분일 수 있다. 추후에 디코더(220)의 역양자화 모듈(223)은 상기 양자화 계수 코드(QP code)를 이용하여 양자화 모듈(213)에 의해서 압축된 데이터를 압축해제할 수 있다.
도 12의 상기 제3 데이터는 분리 모드(③)에 따른 상기 제3 데이터의 구조일 수 있다. 따라서, k값 코드(k value code) 및 양자화 계수 코드(QP code)가 각각 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr) 중 어느 하나에 대한 것만 존재할 수 있다.
손실 모드에서는 압축률이 고정되어 있으므로 상기 제3 데이터의 크기 즉, 페이로드(Payload)의 크기(m1 bit)는 고정될 수 있다.
도 13은 본 발명의 이미지 처리 장치에 의해서 손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 13을 참조하면, 페이로드(Payload)는 바이너리 코드(binary code), k값 코드(k value code) 및 양자화 계수 코드(QP code)를 포함할 수 있다. 도 13의 상기 제3 데이터는 일부 연결 모드(②)에서, 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)이 결합된 블록의 상기 제3 데이터의 구조일 수 있다. 따라서, k값 코드(k value code) 및 양자화 계수 코드(QP code)가 각각 2개씩 존재할 수 있다. 구체적으로, 페이로드(Payload)는 제1 색차 신호 블록(Cb)의 k값 코드(k value code(Cb)), 제2 색차 신호 블록(Cr)의 k값 코드(k value code(Cr)), 제1 색차 신호 블록(Cb)의 양자화 계수 코드(QP code(Cb)) 및 제2 색차 신호 블록(Cr)의 양자화 계수 코드(QP code(Cr))를 포함할 수 있다.
제1 색차 신호 블록(Cb)의 k값 코드(k value code(Cb)), 제2 색차 신호 블록(Cr)의 k값 코드(k value code(Cr)), 제1 색차 신호 블록(Cb)의 양자화 계수 코드(QP code(Cb)), 제2 색차 신호 블록(Cr)의 양자화 계수 코드(QP code(Cr)) 및 바이너리 코드(binary code)의 순서는 얼마든지 달라질 수 있다.
이 때, 상기 2개의 k값 코드는 서로 공유될 수 있다. 따라서, 동일한 k값 코드를 공유할 때는 1개의 k값 코드만이 존재할 수 있다.
마찬가지로, 상기 2개의 양자화 계수 코드는 서로 공유될 수 있다. 따라서, 동일한 양자화 계수 코드를 공유할 때는 1개의 양자화 계수 코드만이 존재할 수 있다.도 14는 본 발명의 이미지 처리 장치에 의해서 손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 14를 참조하면, 페이로드(Payload)는 바이너리 코드(binary code), k값 코드(k value code) 및 양자화 계수 코드(QP code)를 포함할 수 있다. 도 14의 상기 제3 데이터는 연결 모드(①)에서, 휘도 신호 블록(Y), 제1 색차 신호 블록(Cb) 및 제2 색차 신호 블록(Cr)이 결합된 블록의 상기 제3 데이터의 구조일 수 있다. 따라서, k값 코드(k value code) 및 양자화 계수 코드(QP code)가 각각 3개씩 존재할 수 있다. 구체적으로, 페이로드(Payload)는 휘도 신호 블록(Y)의 k값 코드(k value code(Y)), 제1 색차 신호 블록(Cb)의 k값 코드(k value code(Cb)), 제2 색차 신호 블록(Cr)의 k값 코드(k value code(Cr)), 휘도 신호 블록(QP code(Y)), 제1 색차 신호 블록(Cb)의 양자화 계수 코드(QP code(Cb)) 및 제2 색차 신호 블록(Cr)의 양자화 계수 코드(QP code(Cr))를 포함할 수 있다.
휘도 신호 블록(Y)의 k값 코드(k value code(Y)), 제1 색차 신호 블록(Cb)의 k값 코드(k value code(Cb)), 제2 색차 신호 블록(Cr)의 k값 코드(k value code(Cr)), 휘도 신호 블록(QP code(Y)), 제1 색차 신호 블록(Cb)의 양자화 계수 코드(QP code(Cb)), 제2 색차 신호 블록(Cr)의 양자화 계수 코드(QP code(Cr)) 및 바이너리 코드(binary code)의 순서는 얼마든지 달라질 수 있다.
이 때, 상기 3개의 k값 코드는 서로 공유될 수 있다. 따라서, 모두 동일한 k값 코드를 공유할 때는 1개의 k값 코드만이 존재할 수 있고, 3개의 플레인 중 2개의 플레인만이 서로 k값 코드를 공유하는 경우 2개의 k값 코드가 존재할 수 있다.
마찬가지로, 상기 3개의 양자화 계수 코드는 서로 공유될 수 있다. 따라서, 모두 동일한 양자화 계수 코드를 공유할 때는 1개의 양자화 계수 코드만이 존재할 수 있고, 3개의 플레인 중 2개의 플레인만이 서로 양자화 계수 코드를 공유하는 경우 2개의 양자화 계수 코드가 존재할 수 있다.
이하, 도 1 내지 도 6 및 도 15를 참조하여, 본 발명의 몇몇 실시예에 따른 이미지 처리 장치를 설명한다. 상술한 설명과 동일한 부분의 설명은 간략히 하거나 생략한다.
도 15는 본 발명의 이미지 처리 장치에 의해서 손실 압축된 데이터의 구조를 설명하기 위한 도면이다.
도 1 내지 도 6 및 도 15를 참조하면, 손실 모드에서, 페이로드(Payload)는 k값 코드없이 바이너리 코드(binary code) 및 최대 양자화 계수 코드(QP code(max))만을 포함할 수 있다. 이 때, 최대 양자화 계수 코드(QP code(max))에 저장된 양자화 계수는 가능한 양자화 계수중 최대값일 수 있다. 픽셀 데이터의 값이 0 내지 28-1(=255)사이라면, 양자화 계수는 1/(2n-1)(여기서, n은 8 이하의 정수)로 정의될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
엔트로피 인코딩 모듈(215)은 유사한 데이터의 빈도수에 따라서 비트를 할당하는 방식으로 수행되는데, 양자화 계수가 최대값이 되면 유사한 데이터의 빈도수가 크지 않으므로, 엔트로피 인코딩을 수행하는 것이 오히려 데이터의 사이즈를 크게할 수 있다.
따라서, 본 발명의 몇몇 실시예에 따른 이미지 처리 장치의 상기 제2 데이터는 인코더()의 양자화 모듈()에 의해서 바로 상기 제3 데이터로 변환되고, 별도로 엔트로피 인코딩 모듈()을 거치지 않을 수 있다.
따라서, 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치의 인코더(210)는 양자화 모듈(213)의 양자화 계수가 최대값이 되는 경우에는 페이로드(Payload)에 k값 코드를 포함하지 않고, 바이너리 코드(binary code) 및 최대 양자화 계수 코드(QP code(max))만을 포함할 수 있다.
이하, 도 16을 참조하여, 본 발명의 몇몇 실시예에 따른 이미지 처리 장치를 설명한다. 상술한 설명과 동일한 부분의 설명은 간략히 하거나 생략한다.
도 16은 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치를 설명하기 위한 블록도이다.
도 16을 참조하면, 본 발명의 몇몇 실시예에 따른 이미지 처리 장치의 프레임 버퍼 컴프레서(200)는 시스템 버스(400)와 직접 연결될 수 있다.
프레임 버퍼 컴프레서(200)는 멀티미디어 아이피(100)와는 직접적으로 연결되지는 않고, 시스템 버스(400)를 통해서 서로 연결될 수 있다. 구체적으로, 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)가 각각 시스템 버스(400)를 통해서 프레임 버퍼 컴프레서(200)와 데이터를 서로 전송하고, 이를 통해서 메모리(300)에 데이터를 전송할 수 있다.
즉, 압축 과정에서는 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)가 각각 시스템 버스(400)를 통해서 프레임 버퍼 컴프레서(200)로 상기 제2 데이터를 전송할 수 있다. 이어서, 프레임 버퍼 컴프레서(200) 상기 제2 데이터를 상기 제3 데이터로 압축하고, 이를 다시 메모리(300)에 시스템 버스(400)를 통해서 전송할 수 있다.
마찬가지로, 압축해제 과정에서도 메모리(300)에 저장된 상기 제3 데이터를 시스템 버스(400)를 통해서 프레임 버퍼 컴프레서(200)가 전송받고, 이를 상기 제2 데이터로 압축해제할 수 있다. 이어서, 프레임 버퍼 컴프레서(200)가 시스템 버스(400)를 통해서, 상기 제2 데이터를 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)로 각각 전송할 수 있다.
본 실시예의 경우, 프레임 버퍼 컴프레서가 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)와 개별적으로 연결되지 않아도 시스템 버스를 통해서 연결될 수 있어 하드웨어 구성이 단순해지고, 동작 속도가 향상될 수 있다.
이하, 도 16을 참조하여, 본 발명의 몇몇 실시예에 따른 이미지 처리 장치를 설명한다. 상술한 설명과 동일한 부분의 설명은 간략히 하거나 생략한다.
도 16은 본 발명의 몇몇 실시예들에 따른 이미지 처리 장치를 설명하기 위한 블록도이다.
도 16을 참조하면, 본 발명의 몇몇 실시예에 따른 이미지 처리 장치는 메모리(300)와 시스템 버스(400)가 프레임 버퍼 컴프레서(200)를 통해서 서로 연결될 수 있다.
즉, 메모리(300)는 시스템 버스(400)에 직접적으로 연결되지 못하고, 프레임 버퍼 컴프레서(200)를 통해서만 시스템 버스(400)에 연결될 수 있다. 또한, 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)는 시스템 버스(400)와 직접 연결될 수 있다. 따라서, 멀티미디어 아이피(100)의 이미지 신호 프로세서(110), 흔들림 보정 모듈(120), 멀티 포맷 코덱(130), GPU(140) 및 디스플레이(150)는 프레임 버퍼 컴프레서(200)를 거쳐서만 메모리(300)에 액세스할 수 있다.
본 실시예는 메모리(300)에 대한 모든 접근을 어차피 프레임 버퍼 컴프레서(200)가 관여하므로 시스템 버스(400)에 프레임 버퍼 컴프레서(200)를 직접 연결하고, 메모리(300)는 시스템 버스(400)를 프레임 버퍼 컴프레서(200)를 통해서 연결되도록 하여 데이터의 전송의 오류를 줄이고, 속도를 향상시킬 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
100: 멀티미디어 아이피
200: 프레임 버퍼 컴프레서
300: 메모리

Claims (20)

  1. 제1 데이터를 수신하고, 상기 제1 데이터를 프로세싱하여 제2 데이터를 생성하고, 사용하는 멀티미디어 아이피(IP);
    상기 제2 데이터를 제3 데이터로 압축(compress)하고, 상기 제3 데이터를 다시 제2 데이터로 압축해제(decompress)하는 프레임 버퍼 컴프레서; 및
    상기 제3 데이터를 저장하고, 상기 멀티미디어 아이피에 의해서 액세스(access)되는 메모리를 포함하되,
    상기 프레임 버퍼 컴프레서는 상기 멀티미디어 아이피가 상기 메모리에 액세스할 때마다 상기 압축 또는 압축해제를 수행하고,
    상기 프레임 버퍼 컴프레서는 손실(lossy)모드 또는 무손실(lossless) 모드로 동작하고,
    상기 무손실 모드에서 압축된 상기 제3 데이터는 제1 페이로드와, 상기 제1 페이로드의 압축률을 표시하는 제1 헤더를 포함하고,
    상기 손실 모드에서 압축된 상기 제3 데이터는 미리 설정된 압축률에 따라 압축된 제2 페이로드만을 포함하는 이미지 처리 장치.
  2. 제1 항에 있어서,
    상기 제1 페이로드의 크기는 상기 메모리의 데이터 액세스 단위 크기의 정수배인 이미지 처리 장치.
  3. 제1 항에 있어서,
    제1 페이로드는 상기 제2 데이터를 엔트로피 인코딩으로 압축시킨 제1 바이너리 코드와, 상기 제1 바이너리 코드의 엔트로피 인코딩의 k값을 표시한 제1 k값 코드를 포함하고,
    제2 페이로드는 상기 제2 데이터를 엔트로피 인코딩으로 압축시킨 제2 바이너리 코드와, 상기 제2 바이너리 코드의 엔트로피 인코딩의 k값을 표시한 제2 k값 코드를 포함하는 이미지 처리 장치.
  4. 제3 항에 있어서,
    상기 제2 바이너리 코드는 미리 설정된 양자화 계수에 의해서 양자화되고,
    상기 제2 페이로드는, 상기 제2 바이너리 코드의 양자화 계수를 표시한 양자화 계수 코드를 포함하는 이미지 처리 장치.
  5. 제1 항에 있어서,
    상기 제2 데이터는 YUV 방식으로 인코딩되어 휘도 신호 블록, 제1 색차 신호 블록 및 제2 색차 신호 블록을 포함하는 이미지 처리 장치.
  6. 제5 항에 있어서,
    상기 프레임 버퍼 컴프레서는 제1 내지 제3 모드로 동작하고,
    상기 제1 모드에서, 상기 프레임 버퍼 컴프레서는 상기 제2 데이터의 상기 휘도 신호 블록, 상기 제1 및 제2 색차 신호 블록을 같이 압축하고,
    상기 제2 모드에서, 상기 프레임 버퍼 컴프레서는 상기 제2 데이터의 제1 및 제2 색차 신호 블록을 같이 압축하되, 상기 휘도 신호 블록은 따로 압축하고,
    상기 제3 모드에서, 상기 프레임 버퍼 컴프레서는 상기 제2 데이터의 상기 휘도 신호 블록, 상기 제1 및 제2 색차 신호 블록을 모두 따로 압축하는 이미지 처리 장치.
  7. 제6 항에 있어서,
    상기 제3 데이터는 상기 제2 데이터를 압축시킨 바이너리 코드를 포함하고, 상기 제1 및 제2 모드에서, 상기 바이너리 코드는 각각의 픽셀별로 데이터가 배치되고,
    상기 픽셀별로 배치된 데이터 각각은 서로 다른 플레인의 데이터를 포함하는 이미지 처리 장치.
  8. 제6 항에 있어서,
    상기 제3 데이터는 상기 제2 데이터를 엔트로피 인코딩으로 압축시킨 바이너리 코드와, 상기 바이너리 코드의 엔트로피 인코딩의 k값을 표시한 k값 코드를 포함하고,
    상기 제3 모드에서 압축된 제3 데이터는 상기 k값 코드가 제1 크기를 가지고,
    상기 제2 모드에서 압축된 제3 데이터는 상기 k값 코드가 상기 제1 크기의 1배 또는 2배의 크기를 가지고,
    상기 제1 모드에서 압축된 제3 데이터는 상기 k값 코드가 상기 제1 크기의 1배, 2배 또는 3배의 크기를 가지는 이미지 처리 장치.
  9. 제8 항에 있어서,
    상기 바이너리 코드는 미리 설정된 양자화 계수에 의해서 양자화되고,
    상기 제3 데이터는, 상기 바이너리 코드의 양자화 계수를 표시한 양자화 계수 코드를 포함하고,
    상기 제3 모드에서 압축된 제3 데이터는 상기 양자화 계수 코드가 제2 크기를 가지고,
    상기 제2 모드에서 압축된 제3 데이터는 상기 양자화 계수 코드가 상기 제2 크기의 1배 또는 2배의 크기를 가지고,
    상기 제1 모드에서 압축된 제3 데이터는 상기 양자화 계수 코드가 상기 제2 크기의 1배, 2배 또는 3배의 크기를 가지는 이미지 처리 장치.
  10. 제5 항에 있어서,
    상기 제2 데이터는 상기 휘도 신호 블록, 상기 제1 색차 신호 블록 및 상기 제2 색차 신호 블록의 크기 비율이 4:1:1 또는 4:2:2인 이미지 처리 장치.
  11. 제1 데이터를 수신하고, 상기 제1 데이터를 프로세싱하여 제2 데이터를 생성하고, 사용하는 멀티미디어 아이피;
    상기 제2 데이터를 제3 데이터로 압축하고, 상기 제3 데이터를 다시 제2 데이터로 압축해제하는 프레임 버퍼 컴프레서; 및
    상기 제3 데이터를 저장하고, 상기 멀티미디어 아이피에 의해서 액세스(access)되는 메모리를 포함하되,
    상기 프레임 버퍼 컴프레서는 상기 멀티미디어 아이피가 상기 메모리에 액세스할 때마다 상기 압축 또는 압축해제를 수행하고,
    상기 프레임 버퍼 컴프레서는,
    상기 제2 데이터를 상기 제3 데이터로 압축하는 인코더와, 상기 제3 데이터를 상기 제2 데이터로 압축해제하는 디코더를 포함하고,
    상기 인코더는, 상기 제2 데이터를 예측 데이터와 잔차 데이터로 나누어 표현하는 예측 모듈과, 상기 제2 데이터를 엔트로피 인코딩을 하여 k값에 따라 압축하는 엔트로피 인코딩 모듈을 포함하고,
    상기 디코더는, 상기 예측 데이터와 상기 잔차 데이터를 상기 제2 데이터로 복원시키는 예측 보상 모듈과, 상기 제3 데이터를 상기 k값에 따라 복원시키는 엔트로피 디코딩 모듈을 포함하는 이미지 처리 장치.
  12. 제11 항에 있어서,
    상기 인코더는 상기 제2 데이터를 양자화 계수에 따라 양자화하여 압축하는 양자화 모듈을 포함하고,
    상기 디코더는 상기 양자화 계수를 통해서 상기 제2 데이터를 복원하는 역양자화 모듈을 포함하는 이미지 처리 장치.
  13. 제12 항에 있어서,
    상기 프레임 버퍼 컴프레서는 손실모드 또는 무손실 모드로 동작하고,
    상기 무손실 모드에서 상기 제2 데이터는 상기 예측 모듈 및 상기 엔트로피 인코딩 모듈에 의해서 압축 데이터로 변환되고,
    상기 손실 모드에서 상기 제2 데이터는 상기 예측 모듈, 상기 양자화 모듈 및 상기 엔트로피 인코딩 모듈에 의해서 상기 제3 데이터로 압축되는 이미지 처리 장치.
  14. 제12 항에 있어서,
    상기 압축 데이터의 크기에 따라 패딩(padding)하여 제3 데이터를 생성하고, 상기 제3 데이터의 압축률을 나타내는 헤더를 생성하는 패딩 모듈을 더 포함하는 이미지 처리 장치.
  15. 제14 항에 있어서,
    상기 패딩 모듈은, 상기 패딩을 통해서 상기 압축 데이터의 크기가 상기 메모리의 데이터 액세스 단위 크기의 제1 정수배가 되도록 하고,
    상기 압축률은 상기 제1 정수에 대응되는 이미지 처리 장치.
  16. 제1 데이터를 수신하고, 상기 제1 데이터를 프로세싱하여 제2 데이터를 생성하고, 상기 제2 데이터를 사용하는 멀티미디어 아이피;
    상기 제2 데이터를 제3 데이터로 압축하고, 상기 제3 데이터를 다시 제2 데이터로 압축해제하는 프레임 버퍼 컴프레서; 및
    상기 제3 데이터를 저장하고, 상기 멀티미디어 아이피에 의해서 액세스되는 메모리를 포함하되,
    상기 프레임 버퍼 컴프레서는 상기 멀티미디어 아이피가 상기 메모리에 액세스할 때마다 상기 압축 또는 압축해제를 수행하고,
    상기 제2 데이터는 YUV 방식으로 인코딩되어 휘도 신호 블록, 제1 색차 신호 블록 및 제2 색차 신호 블록을 포함하고,
    상기 프레임 버퍼 컴프레서는 제1 내지 제3 모드로 동작하고,
    상기 제1 모드에서, 상기 프레임 버퍼 컴프레서는 상기 제2 데이터의 상기 휘도 신호 블록, 상기 제1 및 제2 색차 신호 블록을 같이 압축하고,
    상기 제2 모드에서, 상기 프레임 버퍼 컴프레서는 상기 제2 데이터의 제1 및 제2 색차 신호 블록을 같이 압축하되, 상기 휘도 신호 블록은 따로 압축하고,
    상기 제3 모드에서, 상기 프레임 버퍼 컴프레서는 상기 제2 데이터의 상기 휘도 신호 블록, 상기 제1 및 제2 색차 신호 블록을 모두 따로 압축하는 이미지 처리 장치.
  17. 제16 항에 있어서,
    상기 멀티미디어 아이피는,
    상기 제1 데이터를 제2 데이터로 변환시켜 상기 프레임 버퍼 컴프레서로 전송하는 이미지 신호 프로세서로서, 상기 제1 데이터는 RGB 데이터이고, 상기 제2 데이터는 YUV 데이터인 이미지 신호 프로세서를 포함하는 이미지 처리 장치.
  18. 제17 항에 있어서,
    상기 멀티미디어 아이피는,
    상기 프레임 버퍼 컴프레서로부터 상기 제2 데이터를 수신하고, 상기 제2 데이터의 크기를 압축하여 상기 프레임 버퍼 컴프레서로 다시 전송하는 멀티 포맷 코덱을 더 포함하는 이미지 처리 장치.
  19. 제17 항에 있어서,
    상기 프레임 버퍼 컴프레서로부터 상기 제2 데이터를 수신하고, 상기 제2 데이터의 흔들림 보정을 수행하여 상기 프레임 버퍼 컴프레서로 다시 전송하는 흔들림 보정 모듈을 더 포함하는 이미지 처리 장치.
  20. 제17 항에 있어서,
    상기 프레임 버퍼 컴프레서로부터 상기 제2 데이터를 수신하고, 상기 제2 데이터의 그래픽 프로세싱을 수행하여 상기 프레임 버퍼 컴프레서로 다시 전송하는 GPU를 더 포함하는 이미지 처리 장치.
KR1020180041790A 2018-01-26 2018-04-10 이미지 처리 장치 KR102465206B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
TW108102299A TWI827579B (zh) 2018-01-26 2019-01-21 影像處理裝置
US16/252,806 US11095876B2 (en) 2018-01-26 2019-01-21 Image processing device
SG10201900626SA SG10201900626SA (en) 2018-01-26 2019-01-23 Image processing device
CN201910072938.7A CN110087072B (zh) 2018-01-26 2019-01-25 图像处理装置
US17/377,927 US11991347B2 (en) 2018-01-26 2021-07-16 Image processing device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020180010183 2018-01-26
KR20180010183 2018-01-26
KR20180015932 2018-02-08
KR1020180015932 2018-02-08

Publications (2)

Publication Number Publication Date
KR20190091181A true KR20190091181A (ko) 2019-08-05
KR102465206B1 KR102465206B1 (ko) 2022-11-09

Family

ID=67615962

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180041790A KR102465206B1 (ko) 2018-01-26 2018-04-10 이미지 처리 장치

Country Status (3)

Country Link
KR (1) KR102465206B1 (ko)
SG (1) SG10201900626SA (ko)
TW (1) TWI827579B (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110071231A (ko) * 2009-12-21 2011-06-29 엠텍비젼 주식회사 부호화 방법, 복호화 방법 및 장치
KR20160114570A (ko) * 2013-08-16 2016-10-05 동지대학교 고정폭 가변길이의 화소 샘플값 문자열의 매칭이 강화된 영상 압축 방법 및 장치

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107426579B (zh) * 2011-06-24 2020-03-10 Lg 电子株式会社 图像信息编码和解码方法
EP2952003B1 (en) * 2013-01-30 2019-07-17 Intel Corporation Content adaptive partitioning for prediction and coding for next generation video
US10275186B2 (en) * 2015-10-30 2019-04-30 Sandisk Technologies Llc System and method of data compression and data shaping

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110071231A (ko) * 2009-12-21 2011-06-29 엠텍비젼 주식회사 부호화 방법, 복호화 방법 및 장치
KR20160114570A (ko) * 2013-08-16 2016-10-05 동지대학교 고정폭 가변길이의 화소 샘플값 문자열의 매칭이 강화된 영상 압축 방법 및 장치

Also Published As

Publication number Publication date
KR102465206B1 (ko) 2022-11-09
TWI827579B (zh) 2024-01-01
TW201941600A (zh) 2019-10-16
SG10201900626SA (en) 2019-08-27

Similar Documents

Publication Publication Date Title
US11445160B2 (en) Image processing device and method for operating image processing device
US10887616B2 (en) Image processing devices having enhanced frame buffer compressors therein
US11991347B2 (en) Image processing device
US11677932B2 (en) Image processing device
US11735222B2 (en) Frame buffer compressing circuitry and image processing apparatus
US11153586B2 (en) Image processing device and frame buffer compressor
CN110087074B (zh) 图像处理装置和用于操作图像处理装置的方法
US20220201340A1 (en) Image processing device and method for operating image processing device
KR102543449B1 (ko) 이미지 처리 장치 및 이미지 처리 장치의 동작 방법
KR102523959B1 (ko) 이미지 처리 장치 및 이미지 처리 장치의 동작 방법
KR102465206B1 (ko) 이미지 처리 장치
KR20210091657A (ko) 영상 컨텐트 부호화 및 복호화 방법 및 영상 컨텐트 전송 시스템
TWI795480B (zh) 用於執行資料解壓縮的影像處理裝置及用於執行資料壓縮的影像處理裝置
US12052307B2 (en) Image processing device and method for operating image processing device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right