KR20240011045A - 인터페이스를 포함하는 집적 칩, 이의 동작 방법 및 이를 포함하는 전자 장치 - Google Patents

인터페이스를 포함하는 집적 칩, 이의 동작 방법 및 이를 포함하는 전자 장치 Download PDF

Info

Publication number
KR20240011045A
KR20240011045A KR1020220088579A KR20220088579A KR20240011045A KR 20240011045 A KR20240011045 A KR 20240011045A KR 1020220088579 A KR1020220088579 A KR 1020220088579A KR 20220088579 A KR20220088579 A KR 20220088579A KR 20240011045 A KR20240011045 A KR 20240011045A
Authority
KR
South Korea
Prior art keywords
data
integrated chip
interface
color space
user
Prior art date
Application number
KR1020220088579A
Other languages
English (en)
Inventor
성한수
김효준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220088579A priority Critical patent/KR20240011045A/ko
Priority to CN202310815616.3A priority patent/CN117425041A/zh
Priority to TW112125803A priority patent/TW202405672A/zh
Priority to EP23185505.7A priority patent/EP4310827A1/en
Priority to US18/353,613 priority patent/US20240022750A1/en
Publication of KR20240011045A publication Critical patent/KR20240011045A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/06Colour space transformation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/02Graphics controller able to handle multiple formats, e.g. input or output formats
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/08Details of image data interface between the display device controller and the data line driver circuit
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/10Use of a protocol of communication by packets in interfaces along the display data pipeline
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Digital Computer Display Output (AREA)

Abstract

본 개시의 기술적 사상에 따른 다른 집적 칩과 통신하는 집적 칩에 있어서, 집적 칩은, 사용자 이미지를 구현하는 복수의 픽셀들 각각에 대한 각 픽셀의 색 공간 값들을 나타내는 그래픽 데이터, 및 비디오 데이터와 그래픽 데이터를 블랜딩하기 위한 알파 값을 나타내는 알파 데이터를 포함하는 사용자 데이터를 생성하고, 사용자 데이터를 전송하기 위한 비디오 포맷을 설정하는 프로세서 및 비디오 포맷으로 사용자 데이터를 다른 집적 칩으로 전달하는 제1 인터페이스를 포함할 수 있다.

Description

인터페이스를 포함하는 집적 칩, 이의 동작 방법 및 이를 포함하는 전자 장치{INTEGRATED CHIP INCLUDING INTERFACE AND OPERATING METHOD OF THE SAME AND ELECTRONIC DEVICE INCLUDING THE SAME}
본 개시의 기술적 사상은 집적 칩에 관한 것으로서, 더욱 상세하게는, 인터페이스를 포함하는 집적 칩, 이의 동작 방법, 및 이를 포함하는 전자 장치에 관한 것이다.
최근 네트워크 환경을 이용한 다양한 동영상 서비스가 대중화되면서, 고사양의 사용자 이미지와 비디오 이미지가 블랜딩되어 디스플레이 패널에 표시되고있다. 프로세서 칩은 고사양의 사용자 이미지를 생성할 수 있다. 프로세서 칩은 사용자 이미지를 사용자 이미지와 비디오 이미지를 블랜딩하는 디지털 티비 칩으로 전송할 필요가 있다. 프로세서 칩은 인터페이스, 예를 들어, MIPI Mobile Industry Processor Interface), HDMI(High Definition Multimedia Interface), DP(Display Port), PCIe(Peripheral Component Interconnect express) 등을 통해 사용자 이미지에 포함된 그래픽 이미지를 전송할 수 있다.
알파 값 및 그래픽 이미지를 포함한 사용자 이미지는 하나의 인터페이스 채널을 통해 디지털 티비 칩으로 전달될 수 없다. 프로세서 칩은 사용자 데이터에서 알파 데이터를 분리하고, 분리한 알파 데이터를 디지털 티비 칩으로 전송하기 위해 그래픽 데이터를 전송하는 인터페이스 채널 이외의 추가 인터페이스 채널이 필요하다.
이에 따라, 추가 인터페이스 채널을 이용하지 않으면서도 인터페이스를 이용하여 디지털 티비 칩으로 알파 값을 전달하기 위한 방법이 요구되고 있다.
본 발명의 기술적 사상이 해결하려는 과제는 하나의 인터페이스 채널을 통해 그래픽 데이터 및 알파 데이터를 포함하는 사용자 데이터가 전송되도록 하는 집적 칩 및 이의 동작 방법을 제공한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제1 측면은, 다른 집적 칩과 통신하는 집적 칩에 있어서, 상기 집적 칩은, 사용자 이미지를 구현하는 복수의 픽셀들 각각에 대한 각 픽셀의 색 공간 값들을 나타내는 그래픽 데이터, 및 비디오 데이터와 상기 그래픽 데이터를 블랜딩하기 위한 알파 값을 나타내는 알파 데이터를 포함하는 사용자 데이터를 생성하고, 상기 사용자 데이터를 전송하기 위한 비디오 포맷을 설정하는 프로세서 및 상기 비디오 포맷으로 상기 사용자 데이터를 상기 다른 집적 칩으로 전달하는 제1 인터페이스를 포함할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제2측면은, 제1 픽셀 및 제2 픽셀을 포함하는 사용자 이미지에 대응하는 사용자 데이터를 생성하는 제1 집적 칩 및 상기 사용자 데이터를 수신하는 제2 집적 칩을 포함하고, 상기 제1 집적 칩은, 상기 제1 픽셀에 대응하는 제1 휘도 데이터, 제1 블루 색차 데이터, 제1 레드 색차 데이터, 및 상기 제2 픽셀에 대응하는 제2 휘도 데이터를 전달하도록 비디오 포맷을 설정하는 프로세서 및 상기 제1 픽셀에 대응하는 사용자 데이터인 제1 알파 데이터, 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터를 상기 제1 휘도 데이터, 상기 제1 블루 색차 데이터, 제1 레드 색차 데이터, 및 제2 휘도 데이터에 대응시켜 상기 제2 집적 칩으로 전달 하는 인터페이스를 포함할 수 있다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 개시의 제3 측면은, 사용자 이미지를 구현하는 복수의 픽셀들 각각에 대한 각 픽셀의 색 공간 값들을 나타내는 그래픽 데이터, 및 비디오 데이터와 상기 그래픽 데이터를 블랜딩하기 위한 알파 값을 나타내는 알파 데이터를 포함하는 사용자 데이터를 생성하는 단계, 상기 알파 데이터에 기초하여 상기 그래픽 데이터 및 상기 비디오 데이터를 알파 블랜딩(alpha blending)하는 다른 집적 칩으로 상기 사용자 데이터를 전송하기 위한 비디오 포맷을 설정하는 단계, 및 상기 설정한 비디오 포맷에 기초하여 상기 사용자 데이터를 출력하는 단계를 포함하는 집적 칩의 동작 방법을 제공할 수 있다.
본 개시의 기술적 사상은, 알파 데이터 및 그래픽 데이터를 포함하는 사용자 데이터가 인터페이스를 통해 전달됨으로써, 사용자 데이터에서 알파 데이터를 별도로 분리하는 동작이 생략될 수 있으므로 프로세싱 시간이 감소될 수 있다. 또한, 분리된 알파 데이터를 전송하기 위한 별개의 인터페이스가 요구되지 않으므로, 비용이 감소될 수 있다.
본 개시의 예시적 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 아니하며, 언급되지 아니한 다른 효과들은 이하의 설명으로부터 본 개시의 예시적 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시의 예시적 실시예들을 실시함에 따른 의도하지 아니한 효과들 역시 본 개시의 예시적 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.
도 1은 본 개시의 예시적인 실시 예에 따른 비디오 시스템을 나타내는 블록도이다.
도 2는 일 실시예에 따른 사용자 데이터를 설명하기 위한 도면이다.
도 3은 본 개시의 예시적 실시예에 따른 집적 칩을 설명하기 위한 블록도이다.
도 4는 일 실시예에 따라 사용자 데이터를 전송하는 방법을 설명하기 위한 도면이다.
도 5는 일 실시예에 따라 사용자 데이터가 인터페이스를 통해 전송되는 방법을 설명하기 위한 도면이다.
도 6 은 일 실시예에 따른 제1 인터페이스를 설명하기 위한 도면이다.
도 7은 일 실시예에 따라 사용자 데이터가 HDMI를 통해 전송되는 방법을 나타내는 도면이다.
도 8은 일 실시예에 따라 그래픽 데이터 및 사용자 데이터가 전송되는 것을 설명하기 위한 도면이다.
도 9는 일 실시예에 따라 사용자 데이터가 전송되는 순서를 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 사용자 데이터가 압축되는 방법을 설명하기 위한 도면이다.
도 11은 본 개시의 예시적 실시예에 따른 집적 칩의 동작 방법을 설명하기 위한 흐름도이다.
이하, 첨부한 도면을 참조하여 본 발명의 실시 예에 대해 상세히 설명한다.
도 1은 본 개시의 예시적인 실시 예에 따른 비디오 시스템을 나타내는 블록도이다.
도 1을 참조하면, 비디오 시스템(10)은 소스(source) 장치(100) 및 싱크(sink) 장치(200)를 포함할 수 있다. 실시예에 따라, 비디오 시스템(10)은 도 1에 도시된 구성 요소들 외에 다른 범용적인 구성 요소들을 더 포함할 수 있다.
소스 장치(100)는 자체적으로 컨텐츠 데이터를 생성하거나 또는 컨텐츠 데이터를 제공받는 전자 장치일 수 있다. 소스 장치(100)는 예를 들면, DVD나 블루레이와 같은 광학미디어 재생장치, UHD 플레이어, 셋탑박스, TV, 컴퓨터 본체, 모바일 장치, 홈 씨어터(home theater), 게임기 장치, 컨텐츠 서버 등 다양한 형태로 구현될 수 있다. 컨텐츠 데이터는 비디오 데이터 또는 오디오 데이터를 포함할 수 있다. 또는 컨텐츠 데이터는 비디오 데이터 및 오디오 데이터를 포함할 수 있다.
일 실시예에서, 소스 장치(100)는 사용자 입력 모듈(110), 메모리(120), 프로세서(130), 및 송신기(140)를 포함할 수 있다.
사용자 입력 모듈(110)은 사용자가 조작할 수 있도록 마련된 모듈일 수 있다. 사용자 입력 모듈(110)은 다양한 종류의 입력 인터페이스 관련 회로를 포함할 수 있다. 예를 들면, 사용자 입력 모듈(110)은 소스 장치(100)의 기계적 또는 전자적 버튼, 소스 장치(100)의 본체로부터 분리된 리모트 컨트롤러, 터치패드, 터치스크린 등 다양한 형태로 구현될 수 있다.
메모리(120)는, 프로세서(130)의 제어에 따라, 저장된 데이터를 리드(read)하고 리드된 데이터를 출력할 수 있다. 또는 메모리(120)는, 프로세서(130)의 제어에 따라, 데이터를 저장할 수 있다. 메모리(120)는 컨텐츠 데이터를 저장할 수 있다. 메모리(120)는, 전원의 공급과 무관하게 데이터를 저장하는 비휘발성 메모리 또는 전원이 공급된 경우에만 동작하는 휘발성 메모리로 구현될 수 있다. 비휘발성 메모리는 플래시 메모리(flash memory), ROM(Read Only Memory) 이며, 플래시 메모리에는, 예를 들어 낸드 플래시 메모리(NAND flash memory), 노어 플래시 메모리(NOR flash memory) 등이 포함될 수 있다. 휘발성 메모리에는, 예를 들어 DRAM, SRAM 등이 포함될 수 있다.
프로세서(130)는 소스 장치(100)를 전반적으로 제어할 수 있다. 프로세서(130)는 메모리(120)가 컨텐츠 데이터를 출력하도록 메모리(120)를 제어할 수 있다. 프로세서(130)는 싱크 장치(200)가 지원하는 포맷으로 컨텐츠 데이터를 출력할 수 있다.
송신기(140)는 컨텐츠 데이터를 싱크 장치(200)에 전송할 수 있다. 송신기(140)는 컨텐츠 데이터를 싱크 장치(200)의 수신기(230)로 전달할 수 있다. 구체적으로, 송신기(140)는 컨텐츠 데이터를 통신 채널(150)을 통해 수신기(230)로 전달할 수 있다.
통신 채널(150)은 소스 장치(100)로부터 출력되는 컨텐츠 데이터를 수신기(230)에 전송할 수 있다. 통신 채널(150)은 무선 주파수(RF) 스펙트럼 또는 하나 이상의 물리 전송 라인들 또는 무선 및 유선 매체의 임의의 조합과 같은 임의의 무선 또는 유선 통신 매체를 포함할 수 있다. 통신 채널(150)은 로컬 영역 네트워크, 광역 네트워크 또는 인터넷과 같은 글로벌 네트워크와 같은 패킷-기반 네트워크의 부분을 형성할 수 있다. 통신 채널(150)은 일반적으로 소스 장치(100)로부터 싱크 장치(200)로 컨텐츠 데이터를 전송하기 위한 임의의 적합한 통신 매체 또는 상이한 통신 매체의 집합을 나타낸다.
싱크 장치(200)는 소스 장치(100)로부터 전송된 컨텐츠 데이터를 처리하여 재생하는 전자 장치일 수 있다. 여기서, "재생"이라는 용어는, 처리된 비디오 데이터에 따른 영상을 표시하거나 처리된 오디오 데이터에 따른 오디오를 출력하거나 처리된 비디오 데이터 및 오디오 데이터에 따른 영상과 오디오를 나타내는 것을 의미할 수 있다. 싱크 장치(200)는 TV, 모니터, 휴대용 멀티미디어 재생기, 모바일 폰, 태블릿, 전자액자, 전자칠판, 전자 광고판 등 다양한 형태로 구현될 수 있다.
일 실시예에서, 싱크 장치(200)는 제1 집적 칩(210), 제2 집적 칩(220), 수신기(230), 디스플레이(240), 및 오디오 장치(250)를 포함할 수 있다.
제1 집적 칩(210)은 소스 장치(100)로부터 비디오 데이터를 수신할 수 있다. 제1 집적 칩(210)은 비디오 데이터에 대해 영상 처리를 수행할 수 있다. 영상 처리는 비디오 데이터에 대해 인코딩 및 디코딩 중 적어도 하나를 수행하거나, 비디오 데이터에 대해 그래픽 처리 작업을 수행하는 것을 의미할 수 있다. 비디오 데이터가 압축되어 있는 경우, 압축을 풀 수 있다. 제1 집적 칩(210)은 압축이 필요한 경우, 비디오 데이터를 압축하고 제2 집적 칩(220)으로 전송할 수 있다. 제1 집적 칩(210)은 싱크 장치(200)로부터 수신한 비디오 데이터에 대해 영상 처리를 수행하고, 제2 집적 칩(220)으로 전송할 수 있다.
제1 집적 칩(210)은 사용자 데이터를 생성할 수 있다. 사용자 데이터는 비디오 데이터와 중첩되는 상태로 디스플레이(240)에 표시될 수 있다. 사용자 데이터는 그래픽 데이터 및 알파 데이터를 포함할 수 있다. 그래픽 데이터는 사용자 이미지를 구현하는 복수의 픽셀들 각각에 대한 각 픽셀의 색 공간 값들을 나타내는 데이터를 의미할 수 있다. 알파 데이터는 비디오 데이터와 그래픽 데이터를 블랜딩하기 위한 알파 값을 의미할 수 있다. 제1 집적 칩(210)에서 생성된 사용자 데이터는 제2 집적 칩(220)으로 전송될 수 있고, 제2 집적 칩(220)은 알파 데이터에 기초하여 그래픽 데이터 및 비디오 데이터를 블랜딩할 수 있다.
제1 집적 칩(210) 및 제2 집적 칩(220)은 통신할 수 있다. 제2 집적 칩(220)은 제1 집적 칩(210)과 다른 집적 칩을 의미할 수 있다. 일 실시예에서, 제1 집적 칩(210)과 제2 집적 칩(220)은 서로 분리되어 구현될 수 있다. 제1 집적 칩(210) 및 제2 집적 칩(220) 사이에는 데이터 전달을 위한 인터페이스가 필요하다. 일 실시예에서, 인터페이스는 MIPI Mobile Industry Processor Interface), HDMI(High Definition Multimedia Interface), DP(Display Port), PCIe(Peripheral Component Interconnect express) 등을 포함할 수 있다.
사용자 데이터는 인터페이스를 통해 제2 집적 칩(220)으로 전송될 수 있다. 사용자 데이터는 비디오 데이터가 전송되는 채널과 다른 인터페이스 채널을 통해 전송될 수 있다. 그래픽 데이터는 3개의 색공간 데이터를 포함할 수 있고, 사용자 데이터는 알파 데이터 및 그래픽 데이터를 포함하므로 4개의 컴포넌트를 포함할 수 있다.
본 개시에 따른 집적 칩은 하나의 인터페이스 채널을 통해 4개의 컴포넌트를 전송할 수 있다. 제1 집적 칩(210)은 사용자 데이터를 하나의 인터페이스 채널로 전송할 수 있다. 제1 집적 칩(210)은 사용자 데이터를 전송하기 위한 비디오 포맷을 설정할 수 있다. 제1 집적 칩(210)은 설정한 비디오 포맷으로 사용자 데이터를 제2 집적 칩(220)으로 전송할 수 있다. 일 실시예에서, 제1 집적 칩(210)은 YCbCr 4:2:2 포맷으로 비디오 포맷을 설정하고, YCbCr 4:2:2 포맷으로 사용자 데이터를 제2 집적 칩(220)으로 전달할 수 있다. 제1 집적 칩(210)이 비디오 포맷을 설정하여 사용자 데이터를 전송하는 방법은 이하 도 3 및 도 4를 참조하여 상세히 후술한다.
제1 집적 칩(210)은 사용자 데이터를 인코딩할 수 있다. 제1 집적 칩(210)은 사용자 데이터를 인코딩하고, 인코딩된 사용자 데이터를 제2 집적 칩(220)으로 전송할 수 있다. 제1 집적 칩(210)은 비디오 포맷으로 인코딩된 사용자 데이터를 제2 집적 칩(220)으로 전달할 수 있다. 일 실시예에서, 제1 집적 칩(210)은 디스플레이 스트림 압축 기법(Display Stream Compression)을 이용하여 사용자 데이터를 인코딩할 수 있다.
제1 집적 칩(210)은 CPU(Central Processing Unit), GPU(Craphic Processor unit), 프로세서, 마이크로프로세서 또는 어플리케이션 프로세서(Application Processor, AP) 등과 같이 데이터를 처리할 수 있는 데이터 처리 장치를 의미할 수 있다. 일 실시예에서, 제1 집적 칩(210)은 시스템 온 칩(System-On-a-Chip, SoC)으로 구현될 수 있고, 이에 따라, 전자 장치에 내장될 수 있다.
제2 집적 칩(220)은 제1 집적 칩(210)으로부터 비디오 데이터 및 사용자 데이터를 수신할 수 있다. 제2 집적 칩(220)은 다른 인터페이스 채널을 통해 비디오 데이터 및 사용자 데이터를 각각 수신할 수 있다. 예를 들어, 제2 집적 칩(220)은 제1 인터페이스를 통해 사용자 데이터를 수신하고, 제2 인터페이스를 통해 비디오 데이터를 수신할 수 있다.
제2 집적 칩(220)은 비디오 데이터 및 사용자 데이터에 대해 영상 처리를 수행할 수 있다. 제2 집적 칩(220)은 비디오 데이터 및 사용자 데이터를 디스플레이(240)에 표시 가능한 포맷으로 처리할 수 있다. 제2 집적 칩(220)은 비디오 데이터 및 그래픽 데이터를 블랜딩하여 블랜딩된 이미지가 디스플레이(240)에 표시되도록 비디오 데이터 및 사용자 데이터를 처리할 수 있다. 제2 집적 칩(220)은 알파 데이터에 기초하여 사용자 데이터 및 그래픽 데이터를 블랜딩할 수 있다. 제2 집적 칩(220)은 사용자 데이터 및 비디오 데이터를 디코딩할 수 있고, 화질을 개선시킬 수 있다.
수신기(230)는 통신 채널(150)을 통해 소스 장치(100)로부터 컨텐츠 데이터를 수신할 수 있다. 일 실시예에서, 수신기(230)는 제1 집적 칩(210)에 포함될 수 있다. 제1 집적 칩(210)은 소스 장치(100)로부터 컨텐츠 데이터를 수신할 수 있다. 예시적으로, 제1 집적 칩(210)은 소스 장치(100)로부터 비디오 데이터를 수신할 수 있다.
송신기(140), 통신 채널(150), 및 수신기(230)는 하나 이상의 이더넷, 전화, 케이블, 파워-라인 및 광섬유 시스템들 및/또는 하나 이상의 코드 분할 다중 액세스(CDMA 또는 CDMA2000) 통신 시스템, 주파수 분할 다중 액세스(FDMA) 시스템, 직교 주파수 분할 다중(OFDM) 액세스 시스템, 글로벌 모바일 통신 시스템(GSM)과 같은 시분할 다중 액세스(TDMA), GPRS(일반 패킷 무선 서비스) 또는 EDGE(향상된 데이터 GSM 환경), TETRA(지상 트렁크드 무선) 모바일 전화 시스템, 광대역 코드 분할 다중 액세스(WCDMA) 시스템, 고속 데이터 레이트 1xEV-DO(1세대 이볼루션 데이터 전용) 또는 1xEV-DO 골드 멀티캐스트 시스템, IEEE 802.18 시스템, DMB 시스템, DVB-H 시스템 또는 둘 이상의 장치들 사이에서의 데이터 통신을 위한 다른 방식을 포함하는 무선 시스템을 포함하는 임의의 유선 또는 무선 통신 시스템에 따른 통신을 위해 구성될 수 있다.
디스플레이(240)는 제2 집적 칩(220)에 의해 처리된 비디오 데이터를 기초로 영상을 표시할 수 있다. 디스플레이(240)는 비디오 데이터 및 사용자 데이터가 블랜딩된 출력 데이터를 기초로 영상을 표시할 수 있다. 싱크 장치(200)는 디스플레이(240)를 통해 사용자에게 출력 데이터를 디스플레이할 수 있다. 디스플레이(240)는 디스플레이 패널을 의미할 수 있다. 디스플레이 패널은 실제 영상이 표시되는 표시부이며, 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display; TFT-LCD), 유기 발광 다이오드(organic light emitting diode; OLED) 디스플레이, 전계 방출 디스플레이(filed emission display), 플라즈마 디스플레이 패널(plasma display panel; PDP) 등 전기적으로 전달되는 영상 신호를 입력받아 2차원 영상을 표시하는 표시 장치 중 하나일 수 있다. 디스플레이 패널은 다른 종류의 평판 디스플레이 또는 플렉서블 디스플레이 패널로 구현될 수 있다. 일 실시예에서, 디스플레이(240)는 8K 급의 영상을 표시할 수 있으나, 이에 반드시 제한되는 것은 아니다.
오디오 장치(250)는 소스 장치(100)로부터 송신된 오디오 데이터를 기초로 오디오를 출력할 수 있다.
도 2는 일 실시예에 따른 사용자 데이터를 설명하기 위한 도면이다.
비디오 이미지(a)는 비디오 데이터의 형태로 소스 장치로부터 싱크 장치로 전달될 수 있다. 사용자 이미지(b)는 사용자 편의성을 제공하기 위해 제1 집적 칩(예를 들어, 도 1의 제1 집적 칩(210))에서 생성될 수 있다. 사용자 이미지(b)는 OSD(On Screen Display)와 같은 그래픽 유저 인터페이스에 관련된 이미지를 의미할 수 있다.
사용자 이미지(b)는 비디오 이미지(a)와 중첩될 수 있다. 사용자 이미지(b)와 비디오 이미지(a)가 블랜딩되어 블랜딩된 이미지(c)가 생성될 수 있다. 사용자 이미지(b)는 사용자 데이터에 대응할 수 있다. 사용자 이미지(b)는 사용자 데이터로 구현될 수 있다.
사용자 이미지(b)는 복수의 픽셀들(PX)로 구현될 수 있다. 사용자 이미지(b)에 포함된 복수의 픽셀들(PX) 각각은 복수의 픽셀들(PX) 각각에 대응하는 알파 데이터 및 그래픽 데이터로 나타내질 수 있다. 그래픽 데이터는 각각의 픽셀(PX)의 색 공간 값들을 나타내는 데이터를 의미하고, 알파 데이터는 비디오 데이터와 그래픽 데이터를 블랜딩하기 위한 알파 값을 의미할 수 있다. 알파 값은 픽셀(PX) 각각의 투명도를 나타낼 수 있다. 알파 데이터에 기초하여 그래픽 데이터 및 비디오 데이터가 블랜딩될 수 있다.
사용자 데이터는 그래픽 데이터 및 알파 데이터를 포함할 수 있다. 복수의 픽셀(PX) 각각에 대응하는 사용자 데이터는 그래픽 데이터 및 알파 데이터를 포함할 수 있다. 예시적으로, 제1 픽셀(PX0)에 대응하는 사용자 데이터는 제1 알파 데이터(A0) 및 그래픽 데이터(cd1, cd2, cd3)를 포함할 수 있다. 제2 픽셀(PX1)에 대응하는 사용자 데이터는 제2 알파 데이터(A1) 및 그래픽 데이터(cd4, cd5, cd6)를 포함할 수 있다.
그래픽 데이터는 복수의 색공간 데이터를 포함할 수 있다. 복수의 색공간 데이터 각각은 휘도 정보 및 색상 정보 중 어느 하나를 나타낼 수 있다. 일 실시예에서, 그래픽 데이터는 3개의 색공간 데이터를 포함할 수 있다. 예시적으로, 제1 픽셀(PX0)에 대응하는 사용자 데이터는 제1 알파 데이터(A0), 제1 색공간 데이터(cd1), 제2 색공간 데이터(cd2), 제3 색공간 데이터(cd3)를 포함할 수 있다. 제2 픽셀(PX2)에 대응하는 사용자 데이터는 제2 알파 데이터(A1), 제4 색공간 데이터(cd4), 제5 색공간 데이터(cd5), 제6 색공간 데이터(cd6)를 포함할 수 있다. 제3 픽셀(PX3)에 대응하는 사용자 데이터는 제3 알파 데이터(A2), 제7 색공간 데이터(cd8), 제8 색공간 데이터(cd8), 제9 색공간 데이터(cd9)를 포함할 수 있다. 제4 픽셀(PX4)에 대응하는 사용자 데이터는 제4 알파 데이터(A3), 제10 색공간 데이터(cd10), 제11 색공간 데이터(cd11), 제12 색공간 데이터(cd12)를 포함할 수 있다.
일 실시예에서, 복수의 픽셀(PX) 각각에 대응하는 그래픽 데이터는 RGB 데이터로 표현될 수 있다. 그래픽 데이터는 레드 데이터, 그린 데이터, 및 블루 데이터를 포함할 수 있다. 예시적으로, 제1 색공간 데이터(cd1)는 레드 데이터이고, 제2 색공간 데이터(cd2)는 그린 데이터이고, 제3 색공간 데이터(cd3)는 블루 데이터일 수 있다. 제4 색공간 데이터(cd4)는 레드 데이터이고, 제5 색공간 데이터(cd5)는 그린 데이터이고, 제6 색공간 데이터(cd6)는 블루 데이터일 수 있다. 즉, 제1 픽셀(PX0)에 대응하는 사용자 데이터는 제1 알파 데이터(A0), 제1 레드 데이터(R0), 제1 그린 데이터(G0), 제1 블루 데이터(B0)를 포함할 수 있다. 제2 픽셀(PX2)에 대응하는 사용자 데이터는 제2 알파 데이터(A1), 제2 레드 데이터(R1), 제2 그린 데이터(G1), 제2 블루 데이터(B1)를 포함할 수 있다.
일 실시예에서, 복수의 픽셀(PX) 각각에 대응하는 그래픽 데이터는 YCbCR 색 공간으로 표현될 수 있다. 그래픽 데이터는 휘도 데이터, 블루 색차 데이터, 및 레드 색차 데이터를 포함할 수 있다. 예시적으로, 제1 색공간 데이터(cd1)는 휘도 데이터이고, 제2 색공간 데이터(cd2)는 블루 색차 데이터이고, 제3 색공간 데이터(cd3)는 레드 색차 데이터일 수 있다. 제4 색공간 데이터(cd4)는 휘도 데이터이고, 제5 색공간 데이터(cd5)는 블루 색차 데이터이고, 제6 색공간 데이터(cd6)는 레드 색차 데이터일 수 있다. 즉, 제1 픽셀(PX0)에 대응하는 사용자 데이터는 제1 알파 데이터(A0), 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0)를 포함할 수 있다. 제2 픽셀(PX1)에 대응하는 사용자 데이터는 제2 알파 데이터(A1), 제2 휘도 데이터(Y1), 제2 블루 색차 데이터(Cb1), 제2 레드 색차 데이터(Cr1)를 포함할 수 있다.
사용자 데이터에 포함된 각 데이터들은 다양한 비트 수를 가질 수 있다. 예시적으로, 사용자 데이터에 포함된 각 데이터들은 8비트로 표현될 수 있다. 그래픽 데이터가 RGB 데이터인 경우, 레드 데이터, 그린 데이터, 및 블루 데이터 각각은 256 레벨 중 하나의 레벨을 가질 수 있다. 예를 들어, RGB 데이터가 (255, 255, 255)이면 백색을 나타낼 수 있고, RGB 데이터가 (0, 0, 0)이면 흑색을 나타낼 수 있다. 다만, 이에 반드시 제한되는 것은 아니다.
도 3은 본 개시의 예시적 실시예에 따른 집적 칩을 설명하기 위한 블록도이다. 도 3의 제1 집적 칩(210) 및 제2 집적 칩(220)은 도 1의 제1 집적 칩(210) 및 제2 집적 칩(220)에 각각 대응되므로, 중복되는 내용은 생략한다.
도 3을 참조하면, 제1 집적 칩(210)은 프로세서(211) 및 인터페이스(214, 215, 216)를 포함할 수 있다. 프로세서(211)는 제1 집적 칩(210)의 전반적인 동작을 제어할 수 있다. 프로세서(211)는 중앙처리장치(central processing unit(CPU)), 그래픽 처리 장치(Graphic Processor unit(GPU)), 및 어플리케이션 프로세서(application processor(AP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(211)는, 예를 들어, 제1 집적 칩(210)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다
프로세서(211)는 사용자 데이터(ud)를 생성할 수 있다. 프로세서(211)는 사용자 이미지를 생성하고, 사용자 이미지에 대응되는 알파 값 및 색공간 값들을 생성할 수 있다. 사용자 데이터(ud)는 그래픽 데이터 및 알파 데이터를 포함할 수 있다.
프로세서(211)는 사용자 데이터(ud)를 전송하기 위한 비디오 포맷을 설정할 수 있다. 예를 들어, 프로세서(211)는 사용자 데이터(ud)를 전송하기 위해 YCbCr 4:2:2 포맷으로 비디오 포맷을 설정할 수 있다. 즉, 프로세서(211)는 제1 인터페이스(214)가 YCbCr 4:2:2 포맷으로 사용자 데이터(ud)를 전송하도록 제어할 수 있다. 사용자 데이터(ud)는 제1 인터페이스(214)를 통해 제2 집적 칩(220)으로 전달될 수 있다. 4개의 컴포넌트를 포함하는 사용자 데이터(ud)는 YCbCr 4:2:2 포맷으로 제1 인터페이스(214)를 통해 제2 집적 칩(220)으로 전달될 수 있다. 사용자 데이터(ud)가 전송되는 방법은 도 4를 참조하여 상세히 후술한다.
프로세서(211)는 소스 장치(예를 들어, 도 1의 소스 장치(100))로부터 수신한 비디오 데이터(vd)에 대해 영상 처리를 수행할 수 있다. 영상 처리가 수행된 비디오 데이터(vd)는 제2 인터페이스(215)를 통해 제2 집적 칩(220)으로 전달될 수 있다.
프로세서(211)는 제2 집적 칩(220)의 동작을 제어하기 위한 제어 신호(CS)를 생성할 수 있다. 제어 신호(CS)는 제2 집적 칩(220)에 포함된 레지스터들의 동작을 제어할 수 있다. 예시적으로, 제어 신호(CS)는 제1 인터페이스(214), 제2 인터페이스(215), 제3 인터페이스(216)를 통해 전송되는 신호를 알려줄 수 있다.
일 실시예에서, 제어 신호(CS)는 인식 제어 신호를 포함할 수 있다. 인식 제어 신호는, 제2 집적 칩(220)이 사용자 데이터(ud)의 데이터들을 인식하도록 제어하는 신호를 의미할 수 있다. 예를 들어, 프로세서(211)는 비디오 포맷을 YCbCr 4:2:2로 설정한 경우, 제2 집적 칩(220)이 사용자 데이터(ud)를 알파 데이터 및 그래픽 데이터로 인식하도록 제어하는 인식 제어 신호를 생성할 수 있다. 제어 신호(CS)는 제3 인터페이스(216)를 통해 제2 집적 칩(220)으로 전달될 수 있다. 제2 집적 칩(220)으로 인식 제어 신호가 전달되면, 제2 집적 칩(220)은 사용자 데이터(ud)를 YCbCr 4:2:2 포맷의 그래픽 데이터가 아닌 알파 데이터 및 그래픽 데이터로 인식할 수 있다.
제1 집적 칩(210) 및 제2 집적 칩(220)은 통신할 수 있다. 일 실시예에서, 제1 집적 칩(210) 및 제2 집적 칩(220)은 인터페이스(214, 215, 216) 및 인터페이스(217, 218, 219)를 통해 통신할 수 있다.
제1 집적 칩(210)은 제1 인터페이스(214), 제2 인터페이스(215), 및 제3 인터페이스(216)를 포함할 수 있다. 제1 인터페이스(214)는 사용자 데이터(ud)를 제2 집적 칩(220)으로 전달할 수 있다. 구체적으로, 프로세서(211)는 사용자 데이터(ud)를 전달하도록 제1 인터페이스(214)를 제어할 수 있다. 제1 인터페이스(214)는 프로세서(211)가 설정한 비디오 포맷으로 사용자 데이터(ud)를 제2 집적 칩(220)으로 전달할 수 있다. 일 실시예에서, 제1 인터페이스(214)는 YCbCr 4:2:2의 비디오 포맷을 지원할 수 있다.
제1 인터페이스(214)는, MIPI Mobile Industry Processor Interface), HDMI(High Definition Multimedia Interface), DP(Display Port), PCIe(Peripheral Component Interconnect express) 중 하나일 수 있다.
일 실시예에서, 제1 인터페이스(214)는 제1 인터페이스(214)의 종류에 대응하는 YCbCr 4:2:2 포맷으로 사용자 데이터(ud)를 전송할 수 있다. 제1 인터페이스(214)가 HDMI인 경우 YCbCr 4:2:2 포맷으로 사용자 데이터(ud)를 전송하는 방식은, 제1 인터페이스(214)가 DP인 경우 YCbCr 4:2:2 포맷으로 사용자 데이터(ud)를 전송하는 방식과 상이할 수 있다. 예를 들어, 제1 인터페이스(214)가 HDMI인 경우 YCbCr 4:2:2 포맷으로 사용자 데이터(ud)를 전송하는 순서는 제1 인터페이스(214)가 DP인 경우 YCbCr 4:2:2 포맷으로 사용자 데이터(ud)를 전송하는 순서와 상이할 수 있다.
제2 인터페이스(215)는 비디오 데이터(vd)를 제2 집적 칩(220)으로 전달할 수 있다. 프로세서(211)는 비디오 데이터(vd)를 전달하도록 제2 인터페이스(215)를 제어할 수 있다. 제2 인터페이스(215)는, MIPI Mobile Industry Processor Interface), HDMI(High Definition Multimedia Interface), DP(Display Port), PCIe(Peripheral Component Interconnect express) 중 하나일 수 있다.
제3 인터페이스(216)는 제어 신호(cs)를 제2 집적 칩(220)으로 전달할 수 있다. 프로세서(211)는 제어 신호(cs)를 전달하도록 제3 인터페이스(216)를 제어할 수 있다. 제3 인터페이스(216)는, MIPI Mobile Industry Processor Interface), HDMI(High Definition Multimedia Interface), DP(Display Port), PCIe(Peripheral Component Interconnect express) 중 하나일 수 있다.
제1 인터페이스(214), 제2 인터페이스(215), 및 제3 인터페이스(216) 각각은 서로 다른 인터페이스 채널을 의미할 수 있다. 예를 들어, 제2 인터페이스(215)를 통해 비디오 데이터(vd) 및 사용자 데이터(ud)를 전달할 수 없다. 제1 인터페이스(214), 제2 인터페이스(215), 제3 인터페이스(216) 각각은 서로 다른 종류의 인터페이스일 수 있다. 예를 들어, 제1 인터페이스(214)는 MIPI이고, 제2 인터페이스(215)는 DP 이고, 제3 인터페이스(216)는 PCIe일 수 있다. 제1 인터페이스(214), 제2 인터페이스(215), 제3 인터페이스(216) 각각은 서로 동일한 종류의 인터페이스일 수도 있다. 예를 들어, 제1 인터페이스(214), 제2 인터페이스(215), 및 제3 인터페이스(216)는 DP일 수 있다. 또한, 제1 인터페이스(214), 제2 인터페이스(215), 및 제3 인터페이스(216) 중 2개가 동일한 종류의 인터페이스일 수도 있다. 예를 들어, 제1 인터페이스(214) 및 제2 인터페이스(215)는 DP이고, 제3 인터페이스(216)는 PCIe일 수도 있으나, 반드시 상술한 예시에 제한되는 것은 아니다.
제1 집적 칩(210)은 인코더(212)를 더 포함할 수 있다. 인코더(212)는 사용자 데이터(ud)를 인코딩할 수 있다. 인코더(212)는 사용자 데이터(ud)에 대해 인트라(intra) 또는 인터(inter) 기반 예측에 따라, 양자화 동작들 및 엔트로피 코딩 동작들을 수행하여 사용자 데이터(ud)를 인코딩할 수 있다. 인코더(212)는 DSC(Display Stream Compression), AVC(Advanced Video Coding), VP8, VP9, HEVC(High Efficiency Video Coding), AV1(AOMedia Video 1), AVS3 등과 같은 비디오 압축 방식에 따라 동작할 수 있다.
일 실시예에서, 인코더(212)는 사용자 데이터(ud)에 포함된 각각의 픽셀에 대응하는 알파 데이터, 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터를 각각 독립적인 컴포넌트로 처리하여 압축할 수 있다. 인코더(212)는 비디오 데이터(vd)를 인코딩할 수도 있다.
제1 집적 칩(210)은 메모리(213)를 포함할 수 있다. 메모리(213)는 사용자 데이터(ud) 및 비디오 데이터(vd) 중 적어도 하나를 저장할 수 있다. 프로세서(211)는 메모리(213)에 저장된 사용자 데이터(ud)를 독출하여 제1 인터페이스(214)가 사용자 데이터(ud)를 전송하도록 제어할 수 있다. 프로세서(211)는 설정한 비디오 포맷으로 메모리(213)로부터 사용자 데이터(ud)를 독출하여 전송하도록 제어할 수 있다. 예시적으로, 프로세서(211)는 YCbCr 4:2:2 포맷으로 메모리(213)로부터 사용자 데이터(ud)를 독출하여 전송하도록 제어할 수 있다. 프로세서(211)는 메모리(213)에 저장된 비디오 데이터(vd)를 독출하여 제2 인터페이스(215)가 비디오 데이터(vd)를 전송하도록 제어할 수 있다.
메모리(213)는 DRAM (Dynamic RAM), SDRAM (Synchronous RAM) 등과 같은 휘발성 메모리, 및/또는 PRAM (Phase-change RAM), MRAM (Magneto-resistive RAM), ReRAM (Resistive RAM), FRAM (Ferro-electric RAM) 등과 같은 불휘발성 메모리를 포함할 수 있다.
제2 집적 칩(220)은 제1 인터페이스(221), 제2 인터페이스(222), 및 제3 인터페이스(223)를 포함할 수 있다. 제1 인터페이스(221)는 제1 집적 칩(210)으로부터 사용자 데이터(ud)를 수신할 수 있다. 제1 인터페이스(221)는 제1 집적 칩(210)에서 설정된 비디오 포맷으로 사용자 데이터(ud)를 수신할 수 있다. 예를 들어, 제1 인터페이스(221)는 YCbCr 4:2:2의 비디오 포맷으로 사용자 데이터(ud)를 수신할 수 있다.
제2 인터페이스(222)는 제1 집적 칩(210)으로부터 비디오 데이터(vd)를 수신할 수 있다. 제3 인터페이스(223)는 제1 집적 칩(210)으로부터 제어 신호(cs)를 수신할 수 있다. 제1 인터페이스(221), 제2 인터페이스(222), 제3 인터페이스(223) 각각은 MIPI Mobile Industry Processor Interface), HDMI(High Definition Multimedia Interface), DP(Display Port), PCIe(Peripheral Component Interconnect express) 중 하나일 수 있다.
제2 집적 칩(220)은 프로세서(224) 및 디코더(225)를 포함할 수 있다. 프로세서(224)는 제2 집적 칩(220)의 전반적인 동작을 제어할 수 있다. 프로세서(224)는 디지털 영상 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), GPU(Graphics Processing Unit), AI(Artificial Intelligence) 프로세서, TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), 그래픽 프로세서(Graphics Processing Unit(GPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 어플리케이션 프로세서(application processor(AP)), 또는 ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(224)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.
프로세서(224)는 사용자 데이터(ud) 및 비디오 데이터(vd)를 영상 처리하여 출력 데이터를 생성할 수 있다. 출력 데이터는 SD(Standard Definition), HD(High Definition), Full HD, UHD(Ultra High Definition), 8K(7680x4320) 또는 그 이상의 해상도(예를 들어 16K, 32K)를 가지는 영상일 수 있으나, 이에 한정되는 것은 아니다.
프로세서(224)는 제3 인터페이스(223)를 통해 제어 신호(cs)를 수신할 수 있다. 일 실시예에서, 프로세서(224)는 제어 신호(cs)에 기초하여 각각의 인터페이스(221, 222, 223)를 통해 수신되는 데이터를 인식할 수 있다. 예를 들어, 프로세서(224)는 제어 신호(cs)에 기초하여 제1 인터페이스(221)를 통해 수신되는 데이터는 사용자 데이터(ud)이고, 제2 인터페이스(222)를 통해 수신되는 데이터는 비디오 데이터(vd)라고 인식할 수 있다.
프로세서(224)는 제어 신호(cs)에 기초하여 설정된 비디오 포맷을 인식할 수 있다. 프로세서(224)는 제어 신호(cs)에 기초하여 제1 인터페이스(221)가 4:2:2 포맷으로 사용자 데이터(ud)를 수신하였음을 인식할 수 있다. 프로세서(224)는 인식 제어 신호를 수신하는 경우, 비디오 포맷이 YCbCr 4:2:2로 설정되어 있으나, 사용자 데이터(ud)를 알파 데이터 및 그래픽 데이터 각각으로 인식할 수 있다. 예를 들어, 프로세서(224)는 인식 제어 신호를 수신하는 경우, 제1 인터페이스(221)를 통해 4번째로 수신되는 데이터를 제2 픽셀의 휘도 데이터가 아닌 제1 픽셀의 알파 데이터로 인식할 수 있다.
프로세서(224)는 사용자 데이터(ud) 및 비디오 데이터(vd)를 수신하고, 화질 개선을 위한 영상 처리를 수행할 수 있다. 또한, 프로세서(224)는 사용자 데이터(ud) 및 비디오 데이터(vd) 에 기초하여 출력 데이터를 생성할 수 있다. 프로세서(224)는 알파 데이터에 기초하여 그래픽 데이터 및 비디오 데이터(vd)를 알파 블랜딩(alpha blending)하여 블랜딩된 이미지를 생성할 수 있고, 블랜딩된 이미지를 출력 데이터로서 출력할 수 있다. 출력 데이터는 디스플레이(예를 들어, 도 1의 디스플레이(240))에 표시될 수 있다. 프로세서(224)는 사용자 이미지를 구현하는 복수의 픽셀들 각각에 대응하는 알파 데이터들에 기초하여 그래픽 데이터 및 비디오 데이터(vd)를 알파 블랜딩할 수 있다.
알파 블랜딩은 이미지 위에 또 다른 이미지를 오버랩할 때 마치 투명하게 비치는 효과를 내기 위해 색공간 데이터에 알파 데이터라는 새로운 값을 할당하여, 백그라운드 색공간 데이터 값과 그 위의 색공간 데이터 값을 혼합하여 표시하는 방법을 의미할 수 있다. 알파 데이터에 기초하여 그래픽 데이터인 RGB 데이터 값과 비디오 데이터인 RGB 데이터 값을 혼합하여 표시할 수 있다. 알파 데이터는 0~255 또는 0.0~1.0으로 구분될 수 있다. 0은 완전 투명(completely transparent), 그 반대인 255(또는 1.0 등 제일 높은 값)은 완전 불투명(fully opaque)한 것을 의미할 수 있다. 또는 0은 완전 불투명, 그 반대인 255(또는 1.0 등 제일 높은 값)은 완전 투명한 것을 의미할 수 있다. 예를 들어, 알파 데이터에 8비트가 할당되어 0~255까지 값을 표현할 수 있다고 할 때 해당 값이 클수록 해당 픽셀의 비율이 높아지고 낮을수록 비율이 낮아질 수 있다.
제2 집적 칩(220)은 디코더(225)를 더 포함할 수 있다. 디코더(225)는 사용자 데이터(ud) 및 비디오 데이터(vd)를 디코딩할 수 있다. 디코더(225)는 사용자 데이터(ud)에 대해 인트라(intra) 또는 인터(inter) 기반 예측에 따라, 역양자화 동작들 및 엔트로피 코딩 동작들을 수행하여 사용자 데이터(ud) 및 비디오 데이터(vd)를 디코딩할 수 있다. 디코더(225)는 DSC(Display Stream Compression), AVC(Advanced Video Coding), VP8, VP9, HEVC(High Efficiency Video Coding), AV1(AOMedia Video 1), AVS3 등과 같은 비디오 압축 방식에 따라 동작할 수 있다.
도 4는 일 실시예에 따라 사용자 데이터를 전송하는 방법을 설명하기 위한 도면이다. 이하에서는, 도 3을 함께 참조한다.
도 4를 참조하면, 그래픽 데이터(410)는 YCbCr 4:2:2 포맷으로 전송될 수 있다. 그래픽 데이터(410)는 사용자 이미지를 구현하는 복수의 픽셀들 각각에 대응하는 색공간 데이터를 포함할 수 있다. 색공간 데이터는 휘도 데이터, 블루 색차 데이터, 레드 색차 데이터를 포함할 수 있다. 일 실시예에서, 그래픽 데이터(410)는 YCbCr 4:2:2 포맷으로 크로마 서브샘플링(chroma subsampling)된 데이터일 수 있다. 그래픽 데이터(410)는 YCbCr 4:2:2 포맷으로 크로마 서브샘플링되어 색공간 데이터가 감소할 수 있다.
그래픽 데이터(410)는 홀수 번째의 픽셀에 대응하는 복수의 색공간 데이터를 포함할 수 있고, 짝수 번째의 픽셀에 대응하는 하나의 색공간 데이터를 전송할 수 있다. 예를 들어, 제1 픽셀(PX0)에 대응하는 그래픽 데이터(410)는 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 및 제1 레드 색차 데이터(Cr0)를 포함할 수 있다. 제2 픽셀(PX1)에 대응하는 그래픽 데이터(410)는 제2 휘도 데이터(Y1)를 포함할 수 있다. 제3 픽셀(PX2)에 대응하는 그래픽 데이터(410)는 제3 휘도 데이터(Y2), 제3 블루 색차 데이터(Cb2), 및 제3 레드 색차 데이터(Cr2)를 포함할 수 있다. 제4 픽셀(PX3)에 대응하는 그래픽 데이터(410)는 제4 휘도 데이터(Y3)를 포함할 수 있다.
제1 인터페이스(214)는 YCbCr 4:2:2 포맷을 지원할 수 있다. 제1 인터페이스(214)는 그래픽 데이터(410)를 전송할 수 있다. 일 실시예에서, 제1 인터페이스(214)는 홀수 번째의 픽셀에 대응하는 복수의 색공간 데이터를 전송하고, 짝수 번째의 픽셀에 대응하는 하나의 색공간 데이터를 전송할 수 있다. YCbCr 4:2:2 포맷은 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 제2 휘도 데이터(Y1), 제2 블루 색차 데이터(Cb1), 및 제2 레드 색차 데이터(Cr1) 중 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 휘도 데이터(Y1)를 전달할 수 있다.
일 실시예에서, 제1 인터페이스(214)는 제1 색공간 데이터, 제2 색공간 데이터, 제3 색공간 데이터, 및 제4 색공간 데이터를 4개의 컴포넌트로서 전송할 수 있다. 예를 들어, 제1 인터페이스(214)는 제1 픽셀(PX0)에 대응하는 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 픽셀(PX1)에 대응하는 제2 휘도 데이터(Y1)를 4개의 컴포넌트로서 전송할 수 있다. 제3 휘도 데이터(Y2), 제3 블루 색차 데이터(Cb2), 제3 레드 색차 데이터(Cr2), 및 제4 휘도 데이터(Y3)가 4개의 컴포넌트로서 제1 인터페이스(214)를 통해 전송될 수 있다.
프로세서(211)는 제1 인터페이스(214)가 제1 색공간 데이터, 제2 색공간 데이터, 제3 색공간 데이터, 및 제4 색공간 데이터를 4개의 컴포넌트로서 전송하도록 제어할 수 있다. 구체적으로, 프로세서(211)는 제1 픽셀(PX0)에 대응하는 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 픽셀(PX1)에 대응하는 제2 휘도 데이터(Y1)를 전송하도록 제1 인터페이스(214)를 제어할 수 있다.
사용자 데이터(420)는 알파 데이터 및 그래픽 데이터를 포함할 수 있다. 제1 픽셀(PX0)에 대응하는 사용자 데이터는 제1 알파 데이터(A0), 제1 레드 데이터(R0), 제1 블루 데이터(B0), 제1 그린 데이터(G0)를 포함할 수 있다. 제2 픽셀(PX1)에 대응하는 사용자 데이터는 제2 알파 데이터(A1), 제2 레드 데이터(R1), 제2 블루 데이터(B1), 제2 그린 데이터(G1)를 포함할 수 있다. 도 4에는 사용자 데이터(420)는 RGB 데이터를 포함하는 것으로 도시되어 있으나, 이에 반드시 제한되는 것은 아니며, YCbCr 데이터가 포함될 수도 있다.
제1 집적 칩(210)은 YCbCr 4:2:2 포맷으로 사용자 데이터(420)를 전송할 수 있다. 제1 집적 칩(210)은 YCbCr 4:2:2 포맷으로 알파 데이터 및 그래픽 데이터를 한번에 전송할 수 있다. 프로세서(211)는 YCbCr 4:2:2로 비디오 포맷을 설정할 수 있다. 프로세서(211)는 제1 픽셀(PX0)에 대응하는 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 픽셀(PX1)에 대응하는 제2 휘도 데이터(Y1)를 전달하도록 비디오 포맷을 설정할 수 있다.
제1 집적 칩(210)은 설정한 YCbCr 4:2:2 포맷으로 사용자 데이터(420)를 전송할 수 있다. 제1 집적 칩(210)은 사용자 데이터(420)에서 알파 데이터를 분리하지 않고, 알파 데이터 및 그래픽 데이터를 제2 집적 칩(220)으로 전송할 수 있다. 구체적으로, 프로세서(211)는 YCbCr 4:2:2 포맷으로 알파 데이터 및 그래픽 데이터를 포함하는 사용자 데이터(420)를 전송하도록 제1 인터페이스(214)를 제어할 수 있다. 알파 데이터를 포함하는 사용자 데이터(420)가 전송됨으로서, 알파 데이터를 별도로 분리하는 프로세싱이 필요하지 않을 수 있으므로 프로세싱 시간이 감소될 수 있다. 분리된 알파 데이터를 전송하기 위한 추가적인 인터페이스가 없더라도 알파 데이터 및 그래픽 데이터가 함께 전송될 수 있으므로, 생산 비용이 감소될 수 있다.
제1 인터페이스(214)는 YCbCr 4:2:2 포맷으로 사용자 데이터(420)를 제2 집적 칩(220)으로 전달할 수 있다. 제2 집적 칩(220)은 제1 인터페이스(221)를 통해 사용자 데이터(420)를 수신할 수 있다.
제1 인터페이스(214)는 제1 픽셀(PX0)에 대응하는 사용자 데이터(420)인 제1 알파 데이터(A0), 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터를 그래픽 데이터(410)인 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 휘도 데이터(Y1)에 대응시켜 제2 집적 칩(220)으로 전달할 수 있다. 예를 들어, 제1 인터페이스(214)는 제1 알파 데이터(A0), 제1 레드 데이터(R0), 제1 그린 데이터(G0), 및 제1 블루 데이터(B0)를 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 휘도 데이터(Y1)에 대응시켜 제2 집적 칩(220)으로 전달할 수 있다.
제1 알파 데이터(A0), 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터 각각은 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 휘도 데이터(Y1) 중 어느 것과 서로 겹치지 않게 대응될 수 있다. 예를 들어, 제1 알파 데이터(A0), 제1 레드 데이터(R0), 제1 그린 데이터(G0), 및 제1 블루 데이터(B0) 각각은 나열한 순서대로 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 휘도 데이터(Y1)에 대응될 수 있다. 다만 이에 반드시 제한되는 것은 아니며, 제1 레드 데이터(R0), 제1 그린 데이터(G0), 제1 블루 데이터(B0), 및 제1 알파 데이터(A0) 각각은 나열한 순서대로 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 휘도 데이터(Y1)에 대응될 수 있다.
일 실시예에서, YCbCr 4:2:2 포맷의 그래픽 데이터(410)에 포함된 각각의데이터의 비트 수와 사용자 데이터(420)에 포함된 각각의 데이터의 비트 수가 동일할 수 있다. 예를 들어, 그래픽 데이터(410)에 포함된 데이터 각각의 비트수와 사용자 데이터(420)에 포함된 데이터 각각의 비트수는 8비트일 수 있으나, 이에 반드시 제한되는 것은 아니다. 비트 수가 동일하므로 제1 인터페이스(214)는 YCbCr 4:2:2 포맷의 그래픽 데이터(410)에 사용자 데이터(420)를 대응시켜 전송할 수 있다.
사용자 데이터(420)는 메모리(213)에 저장될 수 있다. 프로세서(211)는 제1 인터페이스(214)가 YCbCr 4:2:2 포맷으로 사용자 데이터(420)를 전송하도록 제어할 수 있다. 프로세서(211)는 메모리(213)로부터 사용자 데이터(420)가 독출되어 전송되도록 제1 인터페이스(214)를 제어할 수 있다.
프로세서(211)는 인식 제어 신호를 생성할 수 있다. 프로세서(211)는 인식 제어 신호를 포함하는 제어 신호(cs)를 제2 집적 칩(220)으로 전달할 수 있다. 제2 집적 칩(220)은 사용자 데이터(420)를 수신하면 인식 제어 신호에 기초하여 제1 픽셀(PX0)에 대응하는 제1 알파 데이터(A0), 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터로 인식할 수 있다. 프로세서(224)는 제1 인터페이스(221)를 통해 사용자 데이터(420)를 수신하고, 제3 인터페이스(223)를 통해 제어 신호(cs)를 수신할 수 있다. 프로세서(224)는 제어 신호(cs)에 기초하여 사용자 데이터(420)를 알파 데이터 및 그래픽 데이터로 인식할 수 있다.
프로세서(224)는 인식 제어 신호에 기초하여 제1 인터페이스(221)를 통해 수신되는 4번째 데이터까지를 제1 픽셀(PX0)에 대응하는 사용자 데이터로 인식하고, 그 다음 4번째 데이터까지를 제2 픽셀(PX1)에 대응하는 사용자 데이터로 인식하고, 그 다음 4번째 데이터까지를 제3 픽셀(PX2)에 대응하는 사용자 데이터로 인식할 수 있다. 예를 들어, 프로세서(224)는 인식 제어 신호에 기초하여 제1 인터페이스(221)를 통해 수신되는 1번째 데이터를 제1 알파 데이터(A0), 2번째 데이터를 제1 레드 데이터(R0), 3번째 데이터를 제1 그린 데이터(G0), 4번째 데이터를 제1 블루 데이터(B0)로 인식할 수 있다. 프로세서(224)는 5번째 데이터를 제2 알파 데이터(A1), 6번째 데이터를 제2 레드 데이터(R1), 7번째 데이터를 제2 그린 데이터(G1), 8번째 데이터를 제2 블루 데이터(B1)로 인식할 수 있다. 제2 집적 칩(220)은 인식 제어 신호에 기초하여 YCbCr 4:2:2 포맷으로 설정되어 제1 인터페이스(221)를 통해 들어오는 데이터를 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 휘도 데이터(Y1)가 아닌 제1 픽셀에 대응하는 사용자 데이터(420)임을 인식할 수 있다.
YCbCr 4:2:2 포맷으로 제1 인터페이스(214)가 그래픽 데이터(410)를 제2 집적 칩(220)으로 전달하는 양은, YCbCr 4:2:2 포맷으로 제1 인터페이스(214)가 사용자 데이터(420)를 제2 집적 칩(220)으로 전달하는 양보다 적을 수 있다. 일 실시예에서, 제1 인터페이스(214)가 설정된 비디오 포맷으로 사용자 데이터(420)를 제2 집적 칩(220)으로 전달하는 양은, 제1 인터페이스(214)가 비디오 포맷으로 그래픽 데이터(410)를 제2 집적 칩(220)으로 전달하는 양보다 2배 많을 수 있다. 그래픽 데이터(410)는 2개의 픽셀당 4개의 컴포넌트가 전송될 수 있다. 예를 들어, 제1 픽셀(PX0) 및 제2 픽셀(PX1)에 대응되는 그래픽 데이터(410)는 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 휘도 데이터(Y1)로 제1 픽셀(PX0) 및 제2 픽셀(PX1) 당 4개의 컴포넌트가 전송될 수 있다.
사용자 데이터(420)는 1개의 픽셀 당 4개의 컴포넌트가 전송될 수 있다. 예를 들어, 제1 픽셀(PX0)에 대응되는 사용자 데이터(420)는 제1 알파 데이터(A0), 제1 레드 데이터(R0), 제1 그린 데이터(G0), 제1 블루 데이터(B0)로 제1 픽셀(PX0) 당 4개의 컴포넌트가 전송될 수 있다. 동일한 픽셀 수에 대응하는 데이터가 전송될 때, 사용자 데이터(420)가 제1 인터페이스(214)를 통해 전달되는 데이터 양이 그래픽 데이터(410)가 제1 인터페이스(214)를 통해 전달되는 데이터 양보다 2배 많을 수 있다.
제1 인터페이스(214)는 비디오 포맷에 대응하는 출력 순서에 기초하여 사용자 데이터(420)에 포함된 데이터를 출력할 수 있다. 제1 인터페이스(214)는 비디오 포맷에 대응하는 출력 순서에 기초하여 제1 알파 데이터(A0), 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터를 출력할 수 있다. 제1 인터페이스(214)의 종류에 따라 데이터가 출력되는 순서가 상이할 수 있다. 제1 인터페이스(214)는 YCbCr 4:2:2 포맷에 대응하는 출력 순서에 기초하여 사용자 데이터(420)에 포함된 데이터를 출력할 수 있다.
일 실시예에서, YCbCr 4:2:2 포맷으로 설정되면, 출력 순서는 나열한 순서대로 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제2 휘도 데이터(Y1), 및 제1 레드 색차 데이터(Cr0) 순일 수 있다. 제1 인터페이스(214)는 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제2 휘도 데이터(Y1), 및 제1 레드 색차 데이터(Cr0) 각각에 제1 색공간 데이터, 제2 색공간 데이터, 제1 알파 데이터(A0), 및 제3 색공간 데이터를 대응시킬 수 있다. 제1 인터페이스(214)는 제1 색공간 데이터, 제2 색공간 데이터, 제1 알파 데이터(A0), 및 제3 색공간 데이터 순으로 출력할 수 있다. 예를 들어, 제1 인터페이스(214)는 YCbCr 4:2:2 포맷에 대응하는 출력 순서대로 제1 레드 데이터(R0), 제1 블루 데이터(B0), 제1 알파 데이터(A0), 및 제1 그린 데이터(G0) 순으로 출력할 수 있다.
도 5는 일 실시예에 따라 사용자 데이터가 인터페이스를 통해 전송되는 방법을 설명하기 위한 도면이다. 도 4와 비교하면, 도 5의 사용자 데이터(520)는 YCbCr 데이터를 포함할 수 있다. 도 4에서 상술한 내용과 중복되는 내용은 생략한다.
도 3 및 도 5를 참조하면, 사용자 데이터(520)는 알파 데이터 및 그래픽 데이터를 포함할 수 있다. 제1 픽셀(PX0)에 대응하는 사용자 데이터는 제1 알파 데이터(A0), 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0)를 포함할 수 있다.
제1 인터페이스(214)는 YCbCr 4:2:2 포맷으로 사용자 데이터(520)를 제2 집적 칩(220)으로 전달할 수 있다. 제1 인터페이스(214)는 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제1 알파 데이터(A0)를 그래픽 데이터(410)의 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 레드 색차 데이터(Cr0), 및 제2 휘도 데이터(Y1)에 대응시켜 제2 집적 칩(220)으로 전달할 수 있다.
프로세서(224)는 인식 제어 신호에 기초하여 제1 인터페이스(221)를 통해 수신되는 사용자 데이터(520)를 알파 데이터 및 그래픽 데이터로 인식할 수 있다. 예를 들어, 프로세서(224)는 인식 제어 신호에 기초하여 제1 인터페이스(221)를 통해 수신되는 1번째 데이터를 제1 휘도 데이터(Y0), 2번째 데이터를 제1 블루 색차 데이터(Cb0), 3번째 데이터를 제1 레드 색차 데이터(Cr0), 4번째 데이터를 제1 알파 데이터(A0)로 인식할 수 있다.
제1 인터페이스(214)는 YCbCr 4:2:2 포맷에 대응하는 출력 순서에 기초하여 사용자 데이터(520)에 포함된 데이터를 출력할 수 있다. 일 실시예에서, YCbCr 4:2:2 포맷으로 설정되면, 그래픽 데이터(410)의 출력 순서는 나열한 순서대로 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제2 휘도 데이터(Y1), 및 제1 레드 색차 데이터(Cr0) 순일 수 있다. 일 실시예에서, 제1 인터페이스(214)는 제2 휘도 데이터(Y1)에 제1 알파 데이터(A0)를 대응시켜 전송할 수 있다. 예를 들어, 제1 인터페이스(214)는 YCbCr 4:2:2 포맷에 대응하는 출력 순서대로 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제1 알파 데이터(A0), 및 제1 레드 색차 데이터(Cr0) 순으로 출력할 수 있다.
도 6 은 일 실시예에 따른 제1 인터페이스를 설명하기 위한 도면이다. 도 6에서는 제1 인터페이스의 예시로 HDMI를 설명한다.
도 6을 참조하면, 송신 인터페이스(610)는, 제1 집적 칩(예를 들어, 도 3의 제1 집적 칩(210))에 포함된 제1 인터페이스(예를 들어, 도 3의 제1 인터페이스(214))일 수 있다. 송신 인터페이스(610)는 사용자 데이터에 대응하는 신호를 전송할 수 있다. 구체적으로, 송신 인터페이스(610)는 사용자 데이터에 대응하는 차동 신호를 복수의 레인을 통해 수신 인터페이스(620)로 송신할 수 있다. 송신 인터페이스(610)는 음성 데이터나 제어 데이터, 그 밖의 보조 데이터 등에 대응하는 차동 신호를 복수의 레인을 통해 수신 인터페이스(620)로 송신할 수 있다.
송신 인터페이스(610)는 HDMI 송신기(611)를 포함할 수 있다. HDMI 송신기(611)는, 싱크 장치로부터 사용자 데이터(ud)를 수신할 수 있다. HDMI 송신기(611)는 사용자 데이터(ud)에 대응하는 차동 신호로 변환하고, 복수의 레인인 3개의 TMDS(Transition Minimized Differential Signaling) 레인(#0, #1, #2)으로 전송할 수 있다. HDMI 송신기(611)는, 3개의 TMDS 레인(#0, #1, #2)으로 전송한 사용자 데이터(ud)에 동기한 픽셀 클록을, TMDS 클록 레인을 통해 수신 인터페이스(620)에 전송할 수 있다.
비디오 포맷이 YCbCr 4:2:2 포맷으로 설정되면, HDMI 송신기(611)는 YCbCr 4:2:2 포맷으로 사용자 데이터(ud)를 전송할 수 있다. HDMI 송신기(611)는 YCbCr 4:2:2 포맷의 그래픽 데이터가 전송되는 레인에 따라 사용자 데이터(ud)를 전송할 수 있다. HDMI 송신기(611)는 YCbCr 4:2:2 포맷에 대응하는 출력 순서에 따라 사용자 데이터(ud)를 전송할 수 있다. 사용자 데이터(ud)가 전송되는 방법은 도 7을 참조하여 후술한다.
수신 인터페이스(620)는, 송신 인터페이스(610)으로부터 사용자 데이터(ud)를 수신할 수 있다. 수신 인터페이스(620)는 송신 인터페이스(610)으로부터 음성 데이터 및 제어 데이터를 수신할 수 있다.
수신 인터페이스(620)는 HDMI 수신기(621)를 포함할 수 있다. HDMI 수신기(621)는, HDMI 송신기(611)로부터 사용자 데이터(ud)를 수신할 수 있다. HDMI 수신기(621)는 사용자 데이터(ud)에 대응하는 차동 신호를 3개의 TMDS(Transition Minimized Differential Signaling)레인(#0, #1, #2)으로 수신할 수 있다. HDMI 수신기(621)는 TMDS 클록 레인으로 수신되는 픽셀 클록에 동기하여 사용자 데이터(ud)를 수신할 수 있다. 수신 인터페이스(620)는 YCbCr 4:2:2 포맷으로 사용자 데이터(ud)를 수신할 수 있다.
도 7은 일 실시예에 따라 사용자 데이터가 HDMI를 통해 전송되는 방법을 나타내는 도면이다. 도 7은, HDMI 인터페이스의 3개의 TMDS 레인(#0, #1, #2)으로 사용자 데이터를 전송하는 것을 설명하기 위한 도면이다. 상술한 내용 중 중복되는 내용은 생략한다.
도 7을 참조하면, 제1 전송 그림(710)은 TMDS 레인(#0, #1, #2)을 통해 그래픽 데이터가 YCbCr 4: 2: 2 포맷으로 전송되는 것을 나타낼 수 있다. 도 7에서, 각각의 TMDS 레인(#0, #1, #2)은 한 픽셀 클럭에 최대 8비트를 순차적으로 전송할 수 있으나, 비트 수는 이에 반드시 제한되는 것은 아니다. 예시적으로, 픽셀 클럭(TMDS0)에 동기하여 TMDS 레인(#0)으로 제1 휘도 데이터(Y0)의 비트(0) ~ 비트(3) 및 제1 블루 색차 데이터(Cb0)의 비트(0) ~ 비트(3)의 최대 8비트 데이터가 전송될 수 있다. TMDS 레인(#1)으로 제1 휘도 데이터(Y0)의 비트(4) ~ 비트(7)의 최대 8비트 데이터가 전송될 수 있다. 레인(#2)으로 최대 제1 블루 색차 데이터(Cb0)의 비트(4) ~ 비트(7)의 최대 8비트 데이터가 전송될 수 있다. 전송되는 그래픽 데이터는 Y, Cb, Cr 컴포넌트를 포함할 수 있다. Y, Cb, Cr 컴포넌트 각각은 8비트임을 가정한다. Y, Cb, Cr 컴포넌트 각각은 10비트일 수도 있고, 16비트일 수도 있으며 상술한 예시에 반드시 한정되는 것은 아니다. TMDS 레인(#0, #1, #2)을 통해 휘도 데이터, 블루 색차 데이터, 및 레드 색차 데이터가 전송될 수 있다.
픽셀 클럭(TMDS0)에 동기하여 TMDS 레인(#0)으로 제1 휘도 데이터(Y0)의 비트(0) ~ 비트(3) 데이터 및 제1 블루 색차 데이터(Cb0)의 비트(0) ~ 비트(3) 데이터가 전송될 수 있다. TMDS 레인(#1)으로 제1 휘도 데이터(Y0)의 비트(4) ~ 비트(7) 데이터가 전송되고, TMDS 레인(#2)으로 제1 블루 색차 데이터(Cb0)의 비트(4) ~ 비트(7) 데이터가 전송될 수 있다. 픽셀 클럭(TMDS1)에 동기하여 TMDS 레인(#0)으로 제2 휘도 데이터(Y1)의 비트(0) ~ 비트(3) 데이터 및 제1 레드 색차 데이터(Cr0)의 비트(0) ~ 비트(3) 데이터가 전송될 수 있다. TMDS 레인(#1)으로 제2 휘도 데이터(Y1)의 비트(4) ~ 비트(7) 데이터가 전송되고, TMDS 레인(#2)으로 제1 레드 색차 데이터(Cr0)의 비트(4) ~ 비트(7) 데이터가 전송될 수 있다. 각각의 TMDS 레인(#0, #1, #2)에서 순차적으로 비트가 전송될 수 있다.
도 7을 참조하면, 제2 전송 그림(720)은 TMDS 레인(#0, #1, #2)을 통해 사용자 데이터가 YCbCr 4: 2: 2 포맷으로 전송되는 것을 나타낼 수 있다. 도 7에서, 각각의 TMDS 레인(#0, #1, #2)은 한 픽셀 클럭에 최대 8비트를 순차적으로 전송할 수 있으나, 비트 수는 이에 반드시 제한되는 것은 아니다. 예시적으로, 픽셀 클럭(TMDS0)에 동기하여 TMDS 레인(#0)으로 제1 레드 데이터(R0)의 비트(0) ~ 비트(3) 및 제1 블루 데이터(B0)의 비트(0) ~ 비트(3)의 최대 8비트 데이터가 전송될 수 있다. TMDS 레인(#1)으로 제1 레드 데이터(R0)의 비트(4) ~ 비트(11)의 최대 8비트 데이터가 전송될 수 있다. TMDS 레인(#2)으로 제1 블루 데이터(B0)의 비트(4) ~ 비트(11)의 최대 8비트 데이터가 전송될 수 있다.
일 실시예에서, HDMI는 제1 인터페이스일 수 있다. 사용자 데이터는 알파 데이터(A), 레드 데이터(R), 그린 데이터(G), 및 블루 데이터(B)의 4개의 컴포넌트를 포함할 수 있다. 알파 데이터, 레드 데이터, 그린 데이터, 및 블루 데이터 각각은 그래픽 데이터의 제1 휘도 데이터, 블루 색차 데이터, 레드 색차 데이터, 및 제2 휘도 데이터에 대응되어 전송될 수 있다. 예시적으로, 제1 레드 데이터(R0), 제1 블루 데이터(B0), 제1 알파 데이터(A0), 및 제1 그린 데이터(G0) 각각은 그래픽 데이터의 제1 휘도 데이터(Y0), 제1 블루 색차 데이터(Cb0), 제2 휘도 데이터(Y1), 제1 레드 색차 데이터(Cr0)에 대응될 수 있다. 전송되는 사용자 데이터는 A, R, G, B 컴포넌트를 포함할 수 있다. A, R, G, B 컴포넌트 각각은 8비트일 수 있다. 다만, 이에 반드시 제한되는 것은 아니며, A, R, G, B 컴포넌트 각각은 10비트, 16 비트 등 다양할 수 있다. TMDS 레인(#0, #1, #2)을 통해 알파 데이터, 그린 데이터, 블루 데이터, 및 레드 데이터가 전송될 수 있다.
픽셀 클럭(TMDS0)에 동기하여 TMDS 레인(#0)으로 제1 레드 데이터(R0)의 비트(0) ~ 비트(3) 데이터 및 제1 블루 데이터(B0)의 비트(0) ~ 비트(3) 데이터가 전송될 수 있다. TMDS 레인(#1)으로 제1 레드 데이터(R0)의 비트(4) ~ 비트(7) 데이터가 전송되고, TMDS 레인(#2)으로 제1 블루 데이터(B0)의 비트(4) ~ 비트(7) 데이터가 전송될 수 있다. 픽셀 클럭(TMDS1)에 동기하여 TMDS 레인(#0)으로 제1 알파 데이터(A0)의 비트(0) ~ 비트(3) 데이터 및 제1 그린 데이터(G0)의 비트(0) ~ 비트(3) 데이터가 전송될 수 있다. TMDS 레인(#1)으로 제1 알파 데이터(A0)의 비트(4) ~ 비트(7) 데이터가 전송되고, TMDS 레인(#2)으로 제1 그린 데이터(G0)의 비트(4) ~ 비트(7) 데이터가 전송될 수 있다.
도 8은 일 실시예에 따라 그래픽 데이터 및 사용자 데이터가 전송되는 것을 설명하기 위한 도면이다.
도 8을 참조하면, YCbCr 4: 2: 2 포맷으로 그래픽 데이터(gd)가 전송될 수 있다. 예시적으로, Y, Cb, Cr 컴포넌트 각각은 8비트일 수 있다. 다만, Y, Cb, Cr 컴포넌트 각각의 비트 수는 이에 반드시 제한되는 것은 아니다. 레인을 통해 그래픽 데이터(gd)가 전송될 수 있다. 일 실시예에서, 하나의 레인을 통해 휘도 데이터, 블루 색차 데이터, 및 레드 색차 데이터가 전송될 수 있다.
제1 인터페이스(예를 들어, 도 3의 제1 인터페이스(214))는 먼저 제1 휘도 데이터(Y0)의 비트(0) ~ 비트(7)의 데이터를 전송할 수 있다. 제1 인터페이스는 제1 블루 색차 데이터(Cb0)의 비트(0) ~ 비트(7) 데이터, 제2 휘도 데이터(Y1)의 비트(0) ~ 비트(7) 데이터, 및 제1 레드 색차 데이터(Cr0)의 비트(0) ~ 비트(7) 데이터를 나열한 순서대로 전송할 수 있다. 제1 인터페이스는 비트 데이터 각각을 순차적으로 전송할 수 있다. 예시적으로, 제1 인터페이스는 제1 휘도 데이터(Y0)의 비트(0) 데이터부터 비트(7) 데이터까지 순차적으로 전송할 수 있다.
다음으로, 제1 인터페이스는 제3 휘도 데이터(Y2)의 비트(0) ~ 비트(7)의 데이터를 전송할 수 있다. 제1 인터페이스는 제3 블루 색차 데이터(Cb2)의 비트(0) ~ 비트(7) 데이터, 제4 휘도 데이터(Y3)의 비트(0) ~ 비트(7) 데이터, 및 제3 레드 색차 데이터(Cr2)의 비트(0) ~ 비트(7) 데이터를 나열한 순서대로 전송할 수 있다.
YCbCr 4: 2: 2 포맷으로 사용자 데이터(ud)가 전송될 수 있다. 사용자 데이터(ud)의 휘도 데이터, 블루 색차 데이터, 레드 색차 데이터, 및 알파 데이터 각각은 그래픽 데이터(gd)의 제1 휘도 데이터, 블루 색차 데이터, 레드 색차 데이터, 및 제2 휘도 데이터에 대응되어 전송될 수 있다. 예시적으로, 사용자 데이터는 휘도 데이터, 블루 색차 데이터, 레드 색차 데이터, 및 알파 데이터인 Y, Cb, Cr, A 컴포넌트를 포함할 수 있고, Y, Cb, Cr, A 컴포넌트 각각은 8비트일 수 있다. 다만, Y, Cb, Cr, A 컴포넌트 각각의 비트 수는 이에 반드시 제한되는 것은 아니다. 레인을 통해 사용자 데이터(ud)가 전송될 수 있다. 일 실시예에서, 하나의 레인을 통해 알파 데이터, 휘도 데이터, 블루 색차 데이터, 및 레드 색차 데이터가 전송될 수 있다.
YCbCr 4: 2: 2 포맷으로 그래픽 데이터(gd)가 전송되는 순서에 기초하여 사용자 데이터(ud)가 전송될 수 있다. 제1 인터페이스는 제1 알파 데이터(A0)를 그래픽 데이터(gd)의 제2 휘도 데이터(Y1)에 대응시켜 전송할 수 있다. 제1 알파 데이터(A0)는 그래픽 데이터(gd)에서 제2 휘도 데이터(Y2)가 전송되는 순서에 기초하여 전송될 수 있다.
제1 인터페이스는 먼저 제1 휘도 데이터(Y0)의 비트(0) ~ 비트(7) 데이터를 전송할 수 있다. 제1 인터페이스는 제1 블루 색차 데이터(Cb0)의 비트(0) ~ 비트(7) 데이터, 제1 알파 데이터(A0)의 비트(0) ~ 비트(7) 데이터, 제1 레드 색차 데이터(Cr0)의 비트(0) ~ 비트(7) 데이터를 나열한 순서대로 전송할 수 있다. 제1 인터페이스는 비트 데이터 각각을 순차적으로 전송할 수 있다. 예시적으로, 제1 인터페이스는 제1 휘도 데이터(Y0)의 비트(0) 데이터부터 비트(7) 데이터까지 순차적으로 전송하고, 제1 블루 색차 데이터(Cb0)의 비트(0) 데이터부터 비트(7) 데이터까지 순차적으로 전송할 수 있다.
다음으로, 제1 인터페이스는 제2 휘도 데이터(Y1)의 비트(0) ~ 비트(7) 데이터, 제2 블루 색차 데이터(Cb1)의 비트(0) ~ 비트(7) 데이터, 제2 알파 데이터(A1)의 비트(0) ~ 비트(7) 데이터, 제2 레드 색차 데이터(Cr1)의 비트(0) ~ 비트(7) 데이터를 나열한 순서대로 전송할 수 있다.
도 9는 일 실시예에 따라 사용자 데이터가 전송되는 순서를 설명하기 위한 도면이다.
도 9를 참조하면, YCbCr 4: 2: 2 포맷으로 그래픽 데이터(gd)가 전송될 수 있다. 예시적으로, Y, Cb, Cr 컴포넌트 각각은 16비트일 수 있다. 레인을 통해 그래픽 데이터(gd)가 전송될 수 있다. 일 실시예에서, 하나의 레인을 통해 휘도 데이터, 블루 색차 데이터, 및 레드 색차 데이터가 전송될 수 있다.
제1 인터페이스(예를 들어, 도 3의 제1 인터페이스(214))는 먼저 제1 휘도 데이터(Y0)의 비트(0) ~ 비트(7)의 데이터를 전송할 수 있다. 제1 인터페이스는 제1 휘도 데이터(Y0)의 비트(8) ~ 비트(15) 데이터, 제1 블루 색차 데이터(Cb0)의 비트(0) ~ 비트(7) 데이터, 제1 블루 색차 데이터(Cb0)의 비트(8) ~ 비트(15) 데이터를 나열한 순서대로 전송할 수 있다. 제1 인터페이스는 비트 데이터 각각을 순차적으로 전송할 수 있다. 예시적으로, 제1 인터페이스는 제1 휘도 데이터(Y0)의 비트(0) 데이터부터 비트(7) 데이터까지 순차적으로 전송할 수 있다.
다음으로, 제1 인터페이스는 제2 휘도 데이터(Y1)의 비트(0) ~ 비트(7), 제2 휘도 데이터(Y1)의 비트(8) ~ 비트(15), 제1 레드 색차 데이터(Cr0)의 비트(0) ~ 비트(7), 제1 레드 색차 데이터(Cr0)의 비트(8) ~ 비트(15)를 나열한 순서대로 전송할 수 있다.
YCbCr 4: 2: 2 포맷으로 사용자 데이터(ud)가 전송될 수 있다. 사용자 데이터(ud)의 휘도 데이터, 블루 색차 데이터, 레드 색차 데이터, 및 알파 데이터 각각은 그래픽 데이터(gd)의 제1 휘도 데이터, 블루 색차 데이터, 레드 색차 데이터, 및 제2 휘도 데이터에 대응되어 전송될 수 있다. 예시적으로, Y, Cb, Cr, A 컴포넌트 각각은 16비트일 수 있다. 레인을 통해 사용자 데이터(ud)가 전송될 수 있다. 일 실시예에서, 하나의 레인을 통해 알파 데이터, 휘도 데이터, 블루 색차 데이터, 및 레드 색차 데이터가 전송될 수 있다.
YCbCr 4: 2: 2 포맷으로 그래픽 데이터(gd)가 전송되는 순서에 기초하여 사용자 데이터(ud)가 전송될 수 있다. 제1 인터페이스는 제1 알파 데이터(A0)를 그래픽 데이터(gd)의 제2 휘도 데이터(Y1)에 대응시켜 전송할 수 있다. 제1 알파 데이터(A0)는 그래픽 데이터(gd)에서 제2 휘도 데이터(Y2)가 전송되는 순서에 기초하여 전송될 수 있다.
제1 인터페이스는 먼저 제1 휘도 데이터(Y0)의 비트(0) ~ 비트(7) 데이터를 전송할 수 있다. 제1 인터페이스는 제1 휘도 데이터(Y0)의 비트(8) ~ 비트(15) 데이터, 제1 블루 색차 데이터(Cb0)의 비트(0) ~ 비트(7) 데이터, 제1 블루 색차 데이터(Cb0)의 비트(8) ~ 비트(15) 데이터를 나열한 순서대로 전송할 수 있다. 제1 인터페이스는 비트 데이터 각각을 순차적으로 전송할 수 있다. 예시적으로, 제1 인터페이스는 제1 휘도 데이터(Y0)의 비트(0) 데이터부터 비트(7) 데이터까지 순차적으로 전송하고, 제1 휘도 데이터(Y0)의 비트(8) 데이터부터 비트(15) 데이터까지 순차적으로 전송할 수 있다.
다음으로, 제1 인터페이스는 제1 알파 데이터(A0)의 비트(0) ~ 비트(7), 제1 알파 데이터(A0)의 비트(8) ~ 비트(15), 제1 레드 색차 데이터(Cr0)의 비트(0) ~ 비트(7), 제1 레드 색차 데이터(Cr0)의 비트(8) ~ 비트(15)를 나열한 순서대로 전송할 수 있다.
도 10은 일 실시예에 따른 사용자 데이터가 압축되는 방법을 설명하기 위한 도면이다. 구체적으로, 도 10은 도 3의 인코더(212)가 사용자 데이터를 압축하는 방법을 설명하기 위한 도면이다.
도 10을 참조하면, 인코더는 사용자 데이터(ud)를 압축할 수 있다. 인코더는 사용자 데이터(ud)를 압축하여 압축된 사용자 데이터(cud)를 출력할 수 있다. 압축된 사용자 데이터(cud)는 압축된 알파데이터, 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터를 포함할 수 있다. 인코더는 알파 데이터, 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터를 각각 독립적인 컴포넌트로 처리하여 인코딩할 수 있다. 예를 들어, 인코더는 제1 알파 데이터(A0), 제1 레드 데이터(R0), 제1 그린 데이터(G0), 제1 블루 데이터(B0) 각각을 독립적으로 압축할 수 있다.
일 실시예에서, 인코더는 디스플레이 스트림 압축 기법(Display Stream Compression: DSC)을 이용하여 사용자 데이터(ud)를 인코딩할 수 있다. DSC는 디스플레이 링크들을 통한 송신을 위해 비디오를 압축할 수 있는 비디오 압축 표준이다. DSC는 시각적 무손실 압축을 위한 압축 표준을 규정한다. DSC는 인트라-프레임 압축을 포함하지만, 인터-프레임 압축을 포함하지 않을 수 있다.
인코더는 YCbCr 4: 2: 2 포맷으로 그래픽 데이터를 인코딩 시 복수의 휘도 성분을 함께 압축하지 않을 수 있다. 인코더는 제1 휘도 데이터, 제1 블루 색차 데이터, 제1 레드 색차 데이터, 및 제2 휘도 데이터를 각각 독립적으로 압축할 수 있다. 다시 말해, 제1 휘도 데이터 및 제2 휘도 데이터가 독립적으로 처리되어 인코딩될 수 있다. 이는, 사용자 데이터(ud)를 인코딩할 때에도 적용될 수 있다. 제1 알파 데이터(A0), 제1 레드 데이터(R0), 제1 그린 데이터(G0), 제1 블루 데이터(B0) 각각은 독립적인 컴포넌트로 처리되어 인코딩될 수 있다. 각각의 컴포넌트가 독립적으로 인코딩되므로, 사용자 데이터(ud)에 포함된 각 데이터들이 압축되어 전송될 수 있다.
도 11은 본 개시의 예시적 실시예에 따른 집적 칩의 동작 방법을 설명하기 위한 흐름도이다. 구체적으로, 도 11은 도 3의 제1 집적 칩(210)의 동작 방법을 설명하기 위한 흐름도이다.
단계 S1010에서, 제1 집적 칩은 사용자 데이터를 생성할 수 있다. 사용자 데이터는 그래픽 데이터 및 알파 데이터를 포함할 수 있다. 그래픽 데이터는 사용자 이미지를 구현하는 복수의 픽셀들 각각에 대응하는 색공간 값들을 의미하고, 알파 데이터는, 비디오 데이터와 그래픽 데이터를 블랜딩하기 위한 알파 값을 의미할 수 있다. 제1 집적 칩은 사용자 이미지에 대응하는 알파 데이터 및 그래픽 데이터를 생성할 수 있다. 예시적으로, 제1 집적 칩은 사용자 이미지에 포함된 각 픽셀에 대응하는 알파 데이터, 레드 데이터, 그린 데이터, 및 블루 데이터를 생성할 수 있다.
일 실시예에서, 제1 집적 칩은 사용자 데이터를 인코딩할 수 있다. 제1 집적 칩은 사용자 데이터에 포함된 각 픽셀에 대응하는 알파 데이터, 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터를 각각 독립적인 컴포넌트로 처리하여 압축할 수 있다. 예시적으로, 제1 집적 칩은 제1 픽셀에 대응하는 제1 알파 데이터, 제1 블루 데이터, 제1 그린 데이터, 및 제1 레드 데이터 각각을 독립적으로 인코딩할 수 있다. 제1 집적 칩은 디스플레이 스트림 압축 기법(DSC)을 이용하여 사용자 데이터를 인코딩할 수 있다.
단계 S1020에서, 제1 집적 칩은 사용자 데이터를 전송하기 위한 비디오 포맷을 설정할 수 있다. 제1 집적 칩은 사용자 데이터를 제2 집적 칩으로 전송할 수 있다. 제1 집적 칩은 인코딩된 사용자 데이터를 제2 집적 칩으로 전송할 수 있다. 제2 집적 칩은 알파 데이터에 기초하여 그래픽 데이터 및 비디오 데이터를 알파 블랜딩할 수 있다.
일 실시예에서, 제1 집적 칩은 사용자 데이터를 전송하기 위해 YCbCr 4:2:2 포맷으로 비디오 포맷을 설정할 수 있다. YCbCr 4:2:2 포맷으로 그래픽 데이터가 전송될 수 있다. 예를 들어, 제1 집적 칩은 그래픽 데이터인 제1 픽셀에 대응하는 제1 휘도 데이터, 제1 블루 색차 데이터, 제1 레드 색차 데이터, 및 제2 픽셀에 대응하는 제2 휘도 데이터를 전달하도록 비디오 포맷을 설정할 수 있다. 그래픽 데이터는 YCbCr 4:2:2 포맷으로 제1 휘도 데이터, 제1 블루 색차 데이터, 제1 레드 색차 데이터, 및 제2 휘도 데이터의 4개의 컴포넌트가 전송될 수 있다. YCbCr 4:2:2 포맷으로 4개의 컴포넌트를 포함하는 사용자 데이터도 전송될 수 있다.
일 실시예에서, 제1 집적 칩은 인식 제어 신호를 생성할 수 있다. 인식 제어 신호는, 제2 집적 칩이 사용자 데이터의 데이터들을 인식하도록 제어하는 신호를 의미할 수 있다. 예를 들어, 제1 집적 칩은 비디오 포맷을 YCbCr 4:2:2 포맷으로 설정한 경우, 제2 집적 칩이 사용자 데이터를 알파 데이터 및 그래픽 데이터로 인식하도록 제어하는 인식 제어 신호를 생성할 수 있다. 인식 제어 신호는 제3 인터페이스(예를 들어, 도 3의 제3 인터페이스(216))를 통해 제2 집적 칩으로 전송되고, 사용자 데이터는 제1 인터페이스(예를 들어, 도 3의 제1 인터페이스(214))를 통해 제2 집적 칩으로 전송될 수 있다. 제2 집적 칩은 인식 제어 신호를 통해 YCbCr 4:2:2 포맷으로 전송되더라도, 알파 데이터 및 그래픽 데이터가 전송된 것으로 인식할 수 있다.
단계 S1030에서, 제1 집적 칩은 설정한 비디오 포맷에 기초하여 사용자 데이터를 출력할 수 있다. 비디오 포맷이 YCbCr 4:2:2로 설정된 경우, 제1 집적 칩은 YCbCr 4:2:2 포맷으로 사용자 데이터를 전송할 수 있다. 제1 집적 칩은 YCbCr 4:2:2 포맷으로 알파 데이터 및 그래픽 데이터를 한번에 전송할 수 있다.
제1 집적 칩은 사용자 데이터에서 알파 데이터를 분리하지 않고, 알파 데이터 및 그래픽 데이터를 제2 집적 칩으로 전송할 수 있다. 알파 데이터를 포함하는 사용자 데이터가 전송됨으로서, 알파 데이터를 별도로 분리하는 프로세싱이 필요하지 않을 수 있으므로 프로세싱 시간이 감소될 수 있다. 분리된 알파 데이터를 전송하기 위한 추가적인 인터페이스가 없더라도 알파 데이터 및 그래픽 데이터가 함께 전송될 수 있으므로, 생산 비용이 감소될 수 있다.
제1 집적 칩은 제1 픽셀(PX0)에 대응하는 사용자 데이터인 제1 알파 데이터, 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터를 그래픽 데이터의 제1 휘도 데이터, 제1 블루 색차 데이터, 제1 레드 색차 데이터, 및 제2 휘도 데이터에 대응시켜 제2 집적 칩으로 전달할 수 있다. 제1 집적 칩은 비디오 포맷에 대응하는 출력 순서에 기초하여 사용자 데이터에 포함된 데이터를 출력할 수 있다. 제1 집적 칩은 YCbCr 4:2:2 포맷에 대응하는 출력 순서에 기초하여 사용자 데이터(420)에 포함된 데이터를 출력할 수 있다.
일 실시예에서, YCbCr 4:2:2 포맷으로 설정되면, 그래픽 데이터의 출력 순서는 나열한 순서대로 제1 휘도 데이터, 제1 블루 색차 데이터, 제2 휘도 데이터, 및 제1 레드 색차 데이터 순일 수 있다. 제1 집적 칩은 제1 휘도 데이터, 제1 블루 색차 데이터, 제2 휘도 데이터, 및 제1 레드 색차 데이터 각각에 사용자 데이터인 제1 색공간 데이터, 제2 색공간 데이터, 제1 알파 데이터, 및 제3 색공간 데이터를 대응시킬 수 있다. 제1 집적 칩은 제1 색공간 데이터, 제2 색공간 데이터, 제1 알파 데이터, 및 제3 색공간 데이터 순으로 출력할 수 있다.
이상에서와 같이 도면과 명세서에서 예시적인 실시 예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시 예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 개시의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.

Claims (20)

  1. 다른 집적 칩과 통신하는 집적 칩에 있어서,
    상기 집적 칩은,
    사용자 이미지를 구현하는 복수의 픽셀들 각각에 대한 각 픽셀의 색 공간 값들을 나타내는 그래픽 데이터, 및 비디오 데이터와 상기 그래픽 데이터를 블랜딩하기 위한 알파 값을 나타내는 알파 데이터를 포함하는 사용자 데이터를 생성하고, 상기 사용자 데이터를 전송하기 위한 비디오 포맷을 설정하는 프로세서; 및
    상기 비디오 포맷으로 상기 사용자 데이터를 상기 다른 집적 칩으로 전달하는 제1 인터페이스를 포함하는, 집적 칩.
  2. 제1 항에 있어서,
    상기 비디오 포맷은,
    YCbCr 4:2:2 포맷을 포함하는 것을 특징으로 하는, 집적 칩.
  3. 제1 항에 있어서,
    상기 프로세서는,
    상기 비디오 포맷을 YCbCr 4:2:2로 설정한 경우,
    상기 다른 집적 칩이 상기 사용자 데이터를 상기 알파 데이터 및 상기 그래픽 데이터로 인식하도록 제어하는 인식 제어 신호를 상기 다른 집적 칩으로 전달하는 것을 특징으로 하는, 집적 칩.
  4. 제1 항에 있어서,
    상기 그래픽 데이터는,
    제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터를 포함하고,
    상기 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터 각각은 휘도 정보 및 색상 정보 중 어느 하나를 나타내는 것을 특징으로 하는, 집적 칩.
  5. 제4 항에 있어서,
    상기 제1 인터페이스는,
    상기 비디오 포맷에 대응하는 출력 순서에 기초하여 상기 알파 데이터, 상기 제1 색공간 데이터, 상기 제2 색공간 데이터, 및 상기 제3 색공간 데이터를 출력하는 것을 특징으로 하는, 집적 칩.
  6. 제1 항에 있어서,
    상기 제1 인터페이스는,
    MIPI Mobile Industry Processor Interface), HDMI(High Definition Multimedia Interface), DP(Display Port), PCIe(Peripheral Component Interconnect express) 중 하나인 것을 특징으로 하는, 집적 칩.
  7. 제4 항에 있어서,
    상기 집적 칩은,
    상기 사용자 데이터를 인코딩하는 인코더를 더 포함하고,
    상기 인코더는,
    상기 알파 데이터, 상기 제1 색공간 데이터, 상기 제2 색공간 데이터, 및 상기 제3 색공간 데이터를 각각 독립적인 컴포넌트로 처리하여 상기 사용자 데이터를 압축하는 것을 특징으로 하는, 집적 칩.
  8. 제7 항에 있어서,
    상기 제1 인터페이스는,
    상기 비디오 포맷으로 상기 인코더로부터 압축된 사용자 데이터를 상기 다른 집적 칩으로 전달하는 것을 특징으로 하는, 집적 칩.
  9. 제1 항에 있어서,
    상기 집적 칩은,
    상기 사용자 데이터를 인코딩하는 인코더를 더 포함하고,
    상기 인코더는,
    디스플레이 스트림 압축 기법(Display Stream Compression)을 이용하여 상기 사용자 데이터를 인코딩하는 것을 특징으로 하는, 집적 칩.
  10. 제2 항에 있어서,
    상기 제1 인터페이스가 상기 비디오 포맷으로 상기 사용자 데이터를 상기 다른 집적 칩으로 전달하는 양은,
    상기 제1 인터페이스가 상기 비디오 포맷으로 상기 그래픽 데이터를 상기 다른 집적 칩으로 전달하는 양보다 2배 많은 것을 특징으로 하는, 집적 칩.
  11. 제1 항에 있어서,
    상기 집적 칩은,
    소스 장치로부터 수신한 상기 비디오 데이터를 상기 다른 집적 칩으로 전달하는 제2 인터페이스를 포함하는 것을 특징으로 하는, 집적 칩.
  12. 제1 픽셀 및 제2 픽셀을 포함하는 사용자 이미지에 대응하는 사용자 데이터를 생성하는 제1 집적 칩; 및
    상기 사용자 데이터를 수신하는 제2 집적 칩;을 포함하고,
    상기 제1 집적 칩은,
    상기 제1 픽셀에 대응하는 제1 휘도 데이터, 제1 블루 색차 데이터, 제1 레드 색차 데이터, 및 상기 제2 픽셀에 대응하는 제2 휘도 데이터를 전달하도록 비디오 포맷을 설정하는 프로세서; 및
    상기 제1 픽셀에 대응하는 사용자 데이터인 제1 알파 데이터, 제1 색공간 데이터, 제2 색공간 데이터, 및 제3 색공간 데이터를 상기 제1 휘도 데이터, 상기 제1 블루 색차 데이터, 제1 레드 색차 데이터, 및 제2 휘도 데이터에 대응시켜 상기 제2 집적 칩으로 전달 하는 인터페이스를 포함하는, 전자 장치.
  13. 제12 항에 있어서,
    상기 비디오 포맷은
    YCbCr 4:2:2 포맷을 포함하고,
    상기 YCbCr 4:2:2 포맷은,
    상기 제1 휘도 데이터, 상기 제1 블루 색차 데이터, 상기 제1 레드 색차 데이터, 상기 제2 픽셀에 대응하는 상기 제2 휘도 데이터, 제2 블루 색차 데이터, 및 제2 레드 색차 데이터 중 상기 제1 휘도 데이터, 상기 제1 블루 색차 데이터, 상기 제1 레드 색차 데이터, 상기 제2 휘도 데이터를 전달하는 것을 특징으로 하는, 전자 장치.
  14. 제12 항에 있어서,
    상기 프로세서는,
    상기 제2 집적 칩이 상기 사용자 데이터를 수신하면, 상기 제1 알파 데이터, 상기 제1 색공간 데이터, 상기 제2 색공간 데이터, 및 상기 제3 색공간 데이터로 인식하도록 제어하는 인식 제어 신호를 상기 제2 집적 칩으로 전달하는 것을 특징으로 하는, 전자 장치.
  15. 제12 항에 있어서,
    상기 인터페이스는,
    상기 비디오 포맷에 대응하는 출력 순서에 기초하여 상기 인터페이스가 상기 제1 알파 데이터, 상기 제1 색공간 데이터, 상기 제2 색공간 데이터, 및 상기 제3 색공간 데이터를 출력하는 것을 특징으로 하는, 전자 장치.
  16. 제15 항에 있어서,
    상기 출력 순서가 상기 제1 휘도 데이터, 상기 제1 블루 색차 데이터, 상기 제2 휘도 데이터 및 상기 제1 레드 색차 데이터인 경우,
    상기 인터페이스는,
    상기 제1 색공간 데이터, 상기 제2 색공간 데이터, 상기 제1 알파 데이터, 및 상기 제3 색공간 데이터 순으로 출력하는 것을 특징으로 하는, 전자 장치.
  17. 제12 항에 있어서,
    상기 인터페이스는,
    MIPI Mobile Industry Processor Interface), HDMI(High Definition Multimedia Interface), DP(Display Port), PCIe(Peripheral Component Interconnect express) 중 하나인 것을 특징으로 하는, 전자 장치.
  18. 제12 항에 있어서,
    상기 제1 집적 칩은,
    상기 사용자 데이터를 인코딩하는 인코더를 더 포함하고,
    상기 인코더는,
    상기 제1 알파 데이터, 상기 제1 색공간 데이터, 상기 제2 색공간 데이터, 및 상기 제3 색공간 데이터를 각각 독립적인 컴포넌트로 처리하여 상기 사용자 데이터를 압축하는 것을 특징으로 하는, 전자 장치.
  19. 사용자 이미지를 구현하는 복수의 픽셀들 각각에 대한 각 픽셀의 색 공간 값들을 나타내는 그래픽 데이터, 및 비디오 데이터와 상기 그래픽 데이터를 블랜딩하기 위한 알파 값을 나타내는 알파 데이터를 포함하는 사용자 데이터를 생성하는 단계;
    상기 알파 데이터에 기초하여 상기 그래픽 데이터 및 상기 비디오 데이터를 알파 블랜딩(alpha blending)하는 다른 집적 칩으로 상기 사용자 데이터를 전송하기 위한 비디오 포맷을 설정하는 단계; 및
    상기 설정한 비디오 포맷에 기초하여 상기 사용자 데이터를 출력하는 단계;를 포함하는, 집적 칩의 동작 방법.
  20. 제19 항에 있어서,
    상기 비디오 포맷을 설정하는 단계는,
    상기 비디오 포맷을 YCbCr 4:2:2 포맷으로 설정하는 단계; 및
    상기 다른 집적 칩이 상기 사용자 데이터를 상기 알파 데이터 및 상기 그래픽 데이터로 인식하도록 제어하는 인식 제어 신호를 생성하는 단계;를 포함하는 것을 특징으로 하는, 집적 칩의 동작 방법.

KR1020220088579A 2022-07-18 2022-07-18 인터페이스를 포함하는 집적 칩, 이의 동작 방법 및 이를 포함하는 전자 장치 KR20240011045A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020220088579A KR20240011045A (ko) 2022-07-18 2022-07-18 인터페이스를 포함하는 집적 칩, 이의 동작 방법 및 이를 포함하는 전자 장치
CN202310815616.3A CN117425041A (zh) 2022-07-18 2023-07-04 集成芯片、集成芯片的操作方法和电子装置
TW112125803A TW202405672A (zh) 2022-07-18 2023-07-11 包括介面的積體晶片、其操作方法以及包括積體晶片的電子裝置
EP23185505.7A EP4310827A1 (en) 2022-07-18 2023-07-14 Integrated chip including interface, operating method thereof, and electronic device including integrated chip
US18/353,613 US20240022750A1 (en) 2022-07-18 2023-07-17 Integrated chip including interface, operating method thereof, and electronic device including integrated chip

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220088579A KR20240011045A (ko) 2022-07-18 2022-07-18 인터페이스를 포함하는 집적 칩, 이의 동작 방법 및 이를 포함하는 전자 장치

Publications (1)

Publication Number Publication Date
KR20240011045A true KR20240011045A (ko) 2024-01-25

Family

ID=87340697

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220088579A KR20240011045A (ko) 2022-07-18 2022-07-18 인터페이스를 포함하는 집적 칩, 이의 동작 방법 및 이를 포함하는 전자 장치

Country Status (5)

Country Link
US (1) US20240022750A1 (ko)
EP (1) EP4310827A1 (ko)
KR (1) KR20240011045A (ko)
CN (1) CN117425041A (ko)
TW (1) TW202405672A (ko)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2406943B1 (en) * 2009-03-10 2016-06-15 Dolby Laboratories Licensing Corporation Extended dynamic range and extended dimensionality image signal conversion
US10368108B2 (en) * 2011-12-21 2019-07-30 Ati Technologies Ulc Downstream video composition
US9538155B2 (en) * 2013-12-04 2017-01-03 Dolby Laboratories Licensing Corporation Decoding and display of high dynamic range video

Also Published As

Publication number Publication date
TW202405672A (zh) 2024-02-01
EP4310827A1 (en) 2024-01-24
US20240022750A1 (en) 2024-01-18
CN117425041A (zh) 2024-01-19

Similar Documents

Publication Publication Date Title
CN101910999B (zh) 用以产生及实现移动式高清晰多媒体接口的方法、装置及系统
US9589531B2 (en) Methods, systems and apparatus for displaying the multimedia information from wireless communication networks
CN104244088B (zh) 显示控制器、屏幕图像传送装置和屏幕图像传送方法
US9357192B2 (en) Video sender and video receiver
US8730400B2 (en) Image displaying apparatus and image processing apparatus
CN107852503A (zh) 用于对彩色图片进行编码和解码的方法和设备
CN107211130A (zh) 对彩色画面进行编码和解码的方法和装置
CN102497388A (zh) 一种移动网络终端以及该终端与电视进行无线传屏的方法
CN102959981A (zh) 显示设备、显示方法、以及多媒体传输10方法
US8681170B2 (en) Apparatus and method for multi-streaming for more than three pixel component values
CN108345559B (zh) 虚拟现实数据输入装置和虚拟现实设备
JP6273383B2 (ja) 超高精細度ディスプレイを用いてワイヤレスドックのビデオ性能を最適化するためのシステムおよび方法
TW201431381A (zh) 編碼輔助資料至視訊資料中之裝置及其方法
CN102045580B (zh) 用于处理视频的方法和系统
KR20240011045A (ko) 인터페이스를 포함하는 집적 칩, 이의 동작 방법 및 이를 포함하는 전자 장치
CN102957842B (zh) 一种视频图像处理方法、装置及系统
US10873342B2 (en) Method and device for sending and receiving data and data transmission system
JP4982458B2 (ja) 映像表示システム、送信機、受信機、及び映像表示装置
CN209748698U (zh) 一种hdmi、控制信号和以太网信号网线传输器
JP2014021423A (ja) 遠隔表示装置
JP2007147928A (ja) 画像切替・分配システム
CN118301358A (en) Method for independently encoding and decoding RGB image data and transmitting RGB image data
CN115604409A (zh) 一种显示设备及其驱动方法
KR20140013595A (ko) 영상 신호 처리 방법, 및 영상 신호 처리 장치