KR20190054288A - 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템 - Google Patents

영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템 Download PDF

Info

Publication number
KR20190054288A
KR20190054288A KR1020170150385A KR20170150385A KR20190054288A KR 20190054288 A KR20190054288 A KR 20190054288A KR 1020170150385 A KR1020170150385 A KR 1020170150385A KR 20170150385 A KR20170150385 A KR 20170150385A KR 20190054288 A KR20190054288 A KR 20190054288A
Authority
KR
South Korea
Prior art keywords
resolution
image
prediction information
image data
restoration
Prior art date
Application number
KR1020170150385A
Other languages
English (en)
Inventor
나상권
강우석
김두현
이철우
정진주
황두찬
유기원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170150385A priority Critical patent/KR20190054288A/ko
Priority to PCT/KR2018/013584 priority patent/WO2019093801A1/ko
Publication of KR20190054288A publication Critical patent/KR20190054288A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2385Channel allocation; Bandwidth allocation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/44029Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display for generating different versions

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

영상 처리 장치는 복수의 디스플레이 장치들과 통신하고 복수의 디스플레이 장치들의 해상도에 관한 정보를 수신하는 통신부; 영상 프레임을 복수의 디스플레이 장치들의 해상도에 따라 서로 다른 해상도를 가지는 복수의 영상 데이터로 인코딩하고, 서로 다른 해상도를 가지는 복수의 영상 데이터를 복수의 디스플레이 장치들 각각으로 전송하도록 통신부를 제어하는 제어부를 포함할 수 있다.

Description

영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템{IMAGE PROCESSING APPARATUS, MAGE PROCESSING METHOD AND DISPLAY SYSTEM}
개시된 발명은 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템에 관한 것으로, 더욱 상세하게는 복수의 디스플레이 장치들에 영상 데이터를 전송할 수 있는 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템에 관한 발명이다.
일반적으로, 디스플레이 장치는 수신되거나 또는 저장된 영상 정보를 사용자에게 시각적으로 표시하는 출력 장치이며, 가정이나 사업장 등 다양한 분야에서 이용되고 있다. 예를 들어, 디스플레이 장치로는 개인용 컴퓨터 또는 서버용 컴퓨터 등에 연결된 모니터 장치나, 휴대용 컴퓨터 장치나, 내비게이션 단말 장치나, 일반 텔레비전 장치나, 인터넷 프로토콜 텔레비전(IPTV, Internet Protocol television) 장치나, 스마트 폰, 태블릿 피씨, 개인용 디지털 보조 장치(PDA, Personal Digital Assistant), 또는 셀룰러 폰 등의 휴대용 단말 장치나, 산업 현장에서 광고나 영화 같은 화상을 재생하기 위해 이용되는 각종 디스플레이 장치나, 또는 이외 다양한 종류의 오디오/비디오 시스템 등이 있다.
디스플레이 장치는 또한 방송국, 인터넷 서버, 영상 재생 장치, 게임 장치 및/또는 휴대용 단말기 등 다양한 컨텐츠 소스로부터 컨텐츠 데이터를 수신할 수 있다. 또한, 디스플레이 장치는 컨텐츠 데이터로부터 영상 프레임을 복원(또는 디코딩)하고, 복원된 영상 프레임을 디스플레이 패널에 표시할 수 있다.
최근, 컨텐츠 소스의 종류가 다양해짐으로 인하여 디스플레이 장치와 연결되는 컨텐츠 소스들의 개수가 증가하고 있다
그 결과, 디스플레이 장치와 컨텐츠 소스들 각각을 연결하는 케이블의 개수 역시 증가하고 있다. 케이블의 개수의 증가는 디스플레이 장치의 미관을 헤치고 있으며, 사용자들에게 디스플레이 장치에 연결된 케이블들의 배치에 어려움이 발생하고 있다.
개시된 발명의 일 측면은 컨텐츠 데이터를 수신하는 영상 처리 장치와, 컨텐츠 데이터에 대응하는 영상을 표시하는 복수의 디스플레이 장치들을 별도로 포함하는 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템을 제공하고자 한다.
개시된 발명의 일 측면은 영상 처리 장치와 복수의 디스플레이 장치들이 서로 무선으로 연결되는 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템을 제공하고자 한다.
개시된 발명의 일 측면은 영상 처리 장치와 복수의 디스플레이 장치들 사이의 무선 통신 채널을 효율적으로 사용할 수 있는 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템을 제공하고자 한다.
개시된 발병의 일 측면에 의한 영상 처리 장치는 복수의 디스플레이 장치들과 통신하고 상기 복수의 디스플레이 장치들의 해상도에 관한 정보를 수신하는 통신부; 영상 프레임을 상기 복수의 디스플레이 장치들의 해상도에 따라 서로 다른 해상도를 가지는 복수의 영상 데이터로 인코딩하고, 상기 서로 다른 해상도를 가지는 복수의 영상 데이터를 상기 복수의 디스플레이 장치들 각각으로 전송하도록 상기 통신부를 제어하는 제어부를 포함할 수 있다.
상기 제어부는 제1 해상도의 영상 프레임을 복수의 블록으로 구획하고, 복수의 블록 중 처리 블록을 복원하기 위한 제1 복원 예측 정보를 생성하고, 상기 제1 해상도에 대응하는 제1 복원 예측 정보를 제2 해상도에 대응하는 제2 복원 예측 정보로 보정하고, 상기 제1 복원 예측 정보를 포함하는 제1 영상 데이터와 상기 제2 복원 예측 정보를 포함하는 제2 영상 데이터를 복수의 디스플레이 장치들 각각으로 전송하도록 상기 통신부를 제어할 수 있다.
상기 제1 영상 데이터는 상기 제1 복원 예측 정보를 기초로 복원된 복원 블록과 상기 처리 블록 사이의 차이를 나타내는 제1 복원 에러 정보를 더 포함할 수 있다. 상기 제2 영상 데이터는 상기 제2 복원 예측 정보를 기초로 복원된 복원 블록과 상기 처리 블록 사이의 차이를 나타내는 제2 복원 에러 정보를 더 포함할 수 있다.
상기 제어부는 상기 제1 해상도의 영상 프레임 내에서 상기 처리 블록을 예측하기 위한 제1 인트라 예측 정보와 영상 프레임들 사이의 움직임 벡터를 기초로 상기 처리 블록을 예측하기 위한 제1 인터 예측 정보 중 어느 하나를 상기 제1 예측 정보로 생성할 수 있다.
상기 제어부는 상기 제1 해상도와 상기 제2 해상도의 비율을 기초로 상기 제1 인트라 예측 정보의 보정함으로써 제2 복원 예측 정보를 생성할 수 있다.
상기 제어부는 상기 제1 해상도와 상기 제2 해상도의 비율을 기초로 상기 움직임 벡터의 크기를 조절함으로서 제2 예측 정보를 생성할 수 있다.
상기 제어부는 복수의 통신 채널을 통하여 상기 복수의 디스플레이 장치들로 복수의 영상 데이터를 전송하도록 상기 통신부를 제어할 수 있다.
상기 제어부는 상기 복수의 디스플레이 장치들로부터 상기 복수의 통신 채널의 데이터 전송률에 관한 정보를 수신하고, 상기 영상 프레임을 상기 복수의 통신 채널의 데이터 전송률에 따라 서로 다른 해상도를 가지는 복수의 영상 데이터로 인코딩하고, 상기 서로 다른 해상도를 가지는 복수의 영상 데이터를 상기 복수의 디스플레이 장치들 각각으로 전송하도록 상기 통신부를 제어할 수 있다.
개시된 발명의 일 측면에 따른 영상 처리 방법은 복수의 디스플레이 장치들로부터 상기 복수의 디스플레이 장치들의 해상도에 관한 정보를 수신하고; 영상 프레임을 상기 복수의 디스플레이 장치들의 해상도에 따라 서로 다른 해상도를 가지는 복수의 영상 데이터로 인코딩하고; 상기 서로 다른 해상도를 가지는 복수의 영상 데이터를 상기 복수의 디스플레이 장치들 각각으로 전송하는 것을 포함할 수 있다.
상기 영상 프레임을 상기 서로 다른 해상도의 복수의 영상 데이터로 인코딩하는 것은, 제1 해상도의 영상 프레임을 복수의 블록으로 구획하고; 복수의 블록 중 처리 블록을 복원하기 위한 제1 복원 예측 정보를 생성하고; 상기 제1 해상도에 대응하는 제1 복원 예측 정보를 제2 해상도에 대응하는 제2 복원 예측 정보로 보정하고; 상기 제1 복원 예측 정보를 포함하는 제1 영상 데이터와 상기 제2 복원 예측 정보를 포함하는 제2 영상 데이터를 생성하는 것을 포함할 수 있다.
상기 제1 영상 데이터는 상기 제1 복원 예측 정보를 기초로 복원된 복원 블록과 상기 처리 블록 사이의 차이를 나타내는 제1 복원 에러 정보를 더 포함할 수 있다. 상기 제2 영상 데이터는 상기 제2 복원 예측 정보를 기초로 복원된 복원 블록과 상기 처리 블록 사이의 차이를 나타내는 제2 복원 에러 정보를 더 포함할 수 있다.
상기 복수의 블록 중 처리 블록을 복원하기 위한 제1 복원 예측 정보를 생성하는 것은, 상기 제1 해상도의 영상 프레임 내에서 상기 처리 블록을 예측하기 위한 제1 인트라 예측 정보와 영상 프레임들 사이의 움직임 벡터를 기초로 상기 처리 블록을 예측하기 위한 제1 인터 예측 정보 중 어느 하나를 상기 제1 예측 정보로 생성하는 것을 포함할 수 있다.
상기 제1 해상도에 대응하는 제1 복원 예측 정보를 제2 해상도에 대응하는 제2 복원 예측 정보로 보정하는 것은, 상기 제1 해상도와 상기 제2 해상도의 비율을 기초로 상기 제1 인트라 예측 정보의 보정함으로써 제2 복원 예측 정보를 생성하는 것을 포함할 수 있다.
상기 제1 해상도에 대응하는 제1 복원 예측 정보를 제2 해상도에 대응하는 제2 복원 예측 정보로 보정하는 것은, 상기 제1 해상도와 상기 제2 해상도의 비율을 기초로 상기 움직임 벡터의 크기를 조절함으로서 제2 예측 정보를 생성하는 것을 포함할 수 있다.
상기 영상 처리 방법은, 복수의 통신 채널의 데이터 전송률에 관한 정보를 수집하고; 상기 영상 프레임을 상기 복수의 통신 채널의 데이터 전송률에 따라 서로 다른 해상도를 가지는 복수의 영상 데이터로 인코딩하고; 상기 서로 다른 해상도를 가지는 복수의 영상 데이터를 상기 복수의 통신 채널을 통하여 상기 복수의 디스플레이 장치들 각각으로 전송하는 것을 더 포함할 수 있다.
개시된 발명의 일 측면에 따른 디스플레이 시스템은 서로 다른 해상도를 가지는 복수의 디스플레이 장치들; 복수의 영상 데이터를 상기 복수의 디스플레이 장치들 각각으로 전송하는 영상 처리 장치를 포함할 수 있다. 상기 영상 처리 장치는 상기 복수의 디스플레이 장치들의 해상도에 관한 정보를 수신하는 통신부와, 영상 프레임을 상기 복수의 디스플레이 장치들의 해상도에 따라 서로 다른 해상도를 가지는 복수의 영상 데이터로 인코딩하고 상기 서로 다른 해상도를 가지는 복수의 영상 데이터를 상기 복수의 디스플레이 장치들 각각으로 전송하도록 상기 통신부를 제어하는 제어부를 포함할 수 있다. 상기 복수의 디스플레이 장치들 각각은 상기 서로 다른 해상도를 복수의 영상 데이터를 기초로 서로 다른 해상도를 가지는 영상을 표시할 수 있다.
개시된 발명의 일 측면에 따르면, 컨텐츠 데이터를 수신하는 영상 처리 장치와, 컨텐츠 데이터에 대응하는 영상을 표시하는 복수의 디스플레이 장치들을 별도로 포함하는 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템을 제공할 수 있다.
개시된 발명의 일 측면에 따르면, 영상 처리 장치와 복수의 디스플레이 장치들이 서로 무선으로 연결되는 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템을 제공할 수 있다.
개시된 발명의 일 측면에 따르면, 영상 처리 장치와 복수의 디스플레이 장치들 사이의 무선 통신 채널을 효율적으로 사용할 수 있는 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템을 제공할 수 있다.
도 1은 일 실시예에 의한 디스플레이 시스템과 다양한 컨텐츠 소스들을 도시한다.
도 2는 일 실시예에 의한 영상 처리 장치의 구성을 도시한다.
도 3은 일 실시예에 의한 영상 처리 장치에 포함된 영상 인코더의 일 예를 도시한다.
도 4 및 도 5는 일 실시예에 의한 영상 인코더에 의한 화면내 예측의 일 예를 도시한다.
도 6 및 도 7은 일 실시예에 의한 영상 인코더에 의한 화면간 예측의 일 예를 도시한다.
도 8은 일 실시예에 의한 영상 인코더에 의한 화면내 예측의 보정을 도시한다.
도 9는 일 실시예에 의한 영상 인코더에 의한 화면간 예측의 보정을 도시한다.
도 10는 일 실시예에 의한 디스플레이 장치의 구성을 도시한다.
도 11는 일 실시예에 의한 디스플레이 장치에 포함된 영상 디코더의 일 예를 도시한다.
도 12는 일 실시예에 의한 디스플레이 시스템의 제1 영상 표시 방법을 도시한다.
도 13은 도 12에 도시된 제1 영상 표시 방법에 의하여 동일한 해상도를 가지는 복수의 영상을 표시하는 것을 도시한다.
도 14는 도 12에 도시된 제1 영상 표시 방법에 의하여 서로 다른 해상도를 가지는 복수의 영상을 표시하는 것을 도시한다.
도 15는 일 실시예에 의한 디스플레이 시스템의 제2 영상 표시 방법을 도시한다.
도 16은 도 15에 도시된 제2 영상 표시 방법에 의하여 서로 다른 해상도를 가지는 복수의 영상을 표시하는 것을 도시한다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부, 모듈, 부재, 블록'이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
"A, B 및 C 중에 적어도 하나"라는 표현은 A만, B만, C만, A와 B 모두, B와 C 모두, C와 A 모두 또는 A와 B와 C 모두를 포함하는 것으로 해석되어야 한다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 일 실시예에 의한 디스플레이 시스템과 다양한 컨텐츠 소스들을 도시한다.
도 1을 참조하면, 디스플레이 시스템(1)은 컨텐츠 소스들(2, 3, 4, 5)로부터 컨텐츠 데이터를 수신하는 영상 처리 장치(100)와, 컨텐츠 데이터에 대응하는 영상을 시각적으로 표시하는 복수의 디스플레이 장치들(200, 200a, 200b)를 포함한다. 또한, 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b) 각각은 유선 및/또는 무선으로 연결될 수 있다.
영상 처리 장치(100)는 다양한 컨텐츠 소스들(2~6)로부터 컨텐츠 데이터를 수신할 수 있다.
예를 들어, 영상 처리 장치(100)는 방송 수신 안테나(2)를 통하여 텔레비전 방송 컨텐츠를 수신할 수 있으며, 텔레비전 방송 컨텐츠는 비디오 컨텐츠와 오디오 컨텐츠(이하 '비디오/오디오 컨텐츠'라 한다)를 포함할 수 있다. 방송 수신 안테나(2)는 방송 송신탑으로부터 무선으로 전송되는 텔레비전 방송 신호를 수신할 수 있으며, 수신된 텔레비전 방송 신호를 영상 처리 장치(100)로 전송할 수 있다. 여기서, 텔레비전 방송 신호는 영상이 다양한 압축 방식에 의하여 압축/인코딩되고 영상의 압축/인코딩된 데이터가 다양한 변조 방식에 의하여 변조됨으로써 생성될 수 있다. 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b)는 텔레비전 방송 신호를 복조하여 영상 데이터를 복원하고, 영상 데이터를 디코딩하여 영상을 재현할 수 있다.
영상 처리 장치(100)는 방송 수신 장치(3) (예를 들어, 셋톱 박스 등)로부터 텔레비전 방송 컨텐츠를 수신할 수 있다. 방송 수신 장치(3)는 텔레비전 방송 컨텐츠 제공자로부터 유선으로 전송되는 텔레비전 방송 신호를 수신할 수 있다. 방송 수신 장치(3)는 또한 텔레비전 방송 신호를 처리하여 영상 프레임 데이터와 오디오 디이터를 복원하고, 영상 프레임 데이터와 오디오 데이터를 영상 처리 장치(100)로 전송할 수 있다. 영상 프레임 데이터는 압축되거나 인코딩되지 않은 영상 데이터이며, 복수의 디스플레이 장치들(200, 200a, 200b)은 영상 프레임 데이터로부터 영상을 직접 재현할 수 있다.
영상 처리 장치(100)는 컨텐츠 재생 장치(4) (예를 들어, DVD 플레이어, 게임 플레이어 등)로부터 비디오/오디오 컨텐츠를 수신할 수 있다. 컨텐츠 재생 장치(4)는 드라마, 스포츠, 영화 등 다양한 비디오/오디오 컨텐츠를 저장하는 저장 매체를 포함할 수 있으며, 비디오/오디오 컨텐츠는 컨텐츠 재생 장치(4)와 별도로 마련된 컨텐츠 기록 매체에 기록될 수 있다. 컨텐츠 재생 장치(4)는 저장 매체에 저장되거나 컨텐츠 기록 매체에 기록된 비디오/오디오 컨텐츠를 재생(reproduce)하고, 비디오/오디오 컨텐츠에 대응하는 영상 프레임 데이터와 오디오 데이터를 영상 처리 장치(100)로 전송할 수 있다.
영상 처리 장치(100)는 컨텐츠 스트리밍 장치(5)로부터 통신망을 통하여 비디오/오디오 컨텐츠를 수신할 수 있다. 컨텐츠 스트리밍 장치(5)는 드라마, 스포츠, 영화 등 다양한 비디오/오디오 컨텐츠를 저장하는 저장 매체를 포함할 수 있으며, 저장 매체에 저장된 비디오/오디오 컨텐츠를 재생할 수 있다. 컨텐츠 스트리밍 장치(5)는 또한 비디오/오디오 컨텐츠에 대응하는 스트리밍 데이터를 통신망을 통하여 영상 처리 장치(100)에 전송할 수 있다. 스트리밍 데이터는 영상이 다양한 압축 방식에 의하여 압축/인코딩되고, 압축된/인코딩된 영상 데이터가 여러 개의 데이터 조각으로 분할됨으로써 생성될 수 있다. 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b)은 여러 개의 스트리밍 데이터 조각을 조합하여 영상 데이터를 복원하고, 영상 데이터를 디코딩하여 영상을 복원할 수 있다.
이때, 통신망은 유무선 통신망을 모두 포함할 수 있다. 유선 통신망은 케이블망이나 전화망 등의 통신망을 포함하며, 무선 통신망은 전파를 통하여 신호를 송수신하는 통신망을 포함할 수 있다. 무선 통신망은 또한 액세스 포인트(Access Point, AP)를 포함할 수 있으며, 액세스 포인트는 무선으로 영상 처리 장치(100)와 연결되고 유선으로 유선 통신망에 접속될 수 있다.
또한, 영상 처리 장치(100)는 휴대용 단말기(6)로부터 무선으로 비디오/오디오 컨텐츠를 수신할 수 있다. 휴대용 단말기(6)는 드라마, 스포츠, 영화 등 다양한 비디오/오디오 컨텐츠를 저장하는 저장 매체를 포함할 수 있으며, 저장 매체에 저장된 비디오/오디오 컨텐츠를 재생할 수 있다. 휴대용 단말기(6)는 또한 비디오/오디오 컨텐츠를 다양한 압축 방식에 의하여 압축/인코딩하고, 압축된/인코딩된 영상 데이터를 영상 처리 장치(100)로 전송할 수 있다.
이처럼, 영상 처리 장치(100)는 다양한 컨텐츠 소스들(2~6)로부터 비디오/오디오 컨텐츠를 포함하는 데이터(예를 들어, 방송 신호 또는 영상 프레임 데이터/오디오 데이터 또는 스트리밍 데이터 등)를 수신할 수 있다.
영상 처리 장치(100)는 수신된 데이터를 처리하여 영상 데이터 스트림을 생성할 수 있다. 영상 처리 장치(100)는 또한 영상 데이터 스트림을 복수의 디스플레이 장치들(200, 200a, 200b) 각각으로 전송할 수 있다. 영상 처리 장치(100)로부터 복수의 디스플레이 장치들(200, 200a, 200b) 각각으로 전송되는 영상 데이터 스트림은 해상도가 서로 상이하거나 프레임 레이트가 서로 상이할 수 있다.
이상에서는 영상 처리 장치(100)가 컨텐츠 소스들(2~6)로부터 영상 데이터를 수신하고, 복수의 디스플레이 장치들(200, 200a, 200b) 각각으로 영상 데이터를 전송하는 것이 설명되었으나, 이에 한정되는 것은 아니다. 예를 들어, 영상 처리 장치(100)는 영상 데이터를 저장할 수 있는 저장 매체를 포함하고, 저장 매체에 저장된 영상 데이터를 복수의 디스플레이 장치들(200, 200a, 200b)로 전송할 수 있다.
이러한 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b) 각각에 영상을 전송할 수 있는 텔레비전, 휴대용 단말기, 랩탑 컴퓨터, 데스크탑 컴퓨터, 헤드 마운트 디스플레이(Head Mount Display, HMD), 웨어러블 디바이스, 영생 재생 장치, 방송 수신 장치 등 다양한 영상 소스일 수 있다.
복수의 디스플레이 장치들(200, 200a, 200b) 각각은 영상 처리 장치(100)로부터 영상 데이터 스트림을 수신하고, 영상 데이터 스트림으로부터 영상 프레임들을 복원하고, 영상 프레임들을 순차적으로 표시할 수 있다.
예를 들어, 복수의 디스플레이 장치들(200, 200a, 200b)은 제1 해상도를 가지는 영상을 표시하는 디스플레이 장치(200)와, 제1 해상도를 가지는 영상을 표시하는 제1 디스플레이 장치(200a)와, 제1 해상도보다 작은 제2 해상도를 가지는 영상을 표시하는 제2 디스플레이 장치(200b)를 포함할 수 있다.
해상도는 디지털 영상 및/또는 디스플레이 장치를 구성하는 픽셀의 개수를 나타낼 수 있다. 디지털 영상은 영상을 나타내는 최소 단위인 픽셀로 구성되며, 마치 모자이크(mosaic)와 같이 복수의 픽셀들의 조합에 의하여 하나의 영상이 형성될 수 있다. 이때, 복수의 픽셀들은 독립적으로 서로 다른 밝기와 색상을 나타낼 수 있다. 디지털 영상을 표시하는 디스플레이 장치 역시 영상을 표시하기 위한 복수의 픽셀들을 가진다. 이러한 복수의 픽셀들의 개수를 영상 또는 디스플레이 장치의 해상도로 한다.
특히, 디스플레이 장치의 해상도는 다른 장치들과의 호환성을 위하여 표준화될 수 있다. 예를 들어, HD (High Definition) 해상도는 1280*720의 픽셀들을 포함하는 해상도를 나타내며, FHD (Full HD) 해상도는 1920*1080의 픽셀들을 포함하는 해상도를 나타낼 수 있다. 또한, QHD (Quad HD) 해상도는 2560*1440의 픽셀들을 포함하는 해상도를 나타내며, UHD (Ultra HD) 해상도는 3840*2160의 픽셀들을 포함하는 해상도를 나타낼 수 있다.
다른 예로, 복수의 디스플레이 장치들(200, 200a, 200b)은 제1 프레임 레이트로 영상을 표시하는 디스플레이 장치(200)와, 제1 프레임 레이트로 영상을 표시하는 제1 디스플레이 장치(200a)와, 제1 프레임 레이트보다 작은 제2 프레임 레이트로 영상을 표시하는 제2 디스플레이 장치(200b)를 포함할 수 있다.
프레임 레이트는 디스플레이 장치가 영상 프레임을 표시하는 속도를 의미하며, 1초당 표시하는 영상 프레임의 개수로 나타낼 수 있다. 디스플레이 장치는 영상 프레임을 연속적으로 표시함으로써 움직임 즉 동영상을 표시할 수 있다. 이때 디스플레이 장치가 동영상을 표시하기 위하여 1초당 표시하는 영상 프레임의 개수를 디스플레이 장치의 프레임 레이트로 한다.
특히, 디스플레이 장치의 프레임 레이트는 다른 장치들과의 호환성을 위하여 표준화될 수 있다. 예를 들어, 최든 디스플레이 장치는 60프레임 또는 120프레임으로 동영상을 표시할 수 있다.
또한, 복수의 디스플레이 장치들(200, 200a, 200b)은 각각 텔레비전, 모니터, 디스플레이 단말기, 휴대용 단말기, 랩탑 컴퓨터, 헤드 마운트 디스플레이(Head Mount Display, HMD), 웨어러블 디바이스, 프로젝터, 광고판 등 다양한 디스플레이일 수 있다.
영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b)은 유선 또는 무선으로 연결될 수 있다. 다시 말해, 영상 처리 장치(100)는 영상 데이터 스트림을 복수의 디스플레이 장치들(200, 200a, 200b)에 유선 또는 무선으로 전송할 수 있다.
예를 들어, 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b)이 유선으로 연결된 경우, 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b) 사이에서 영상 데이터 스트림을 전송하기 위한 비교적 넓은 대역폭이 제공될 수 있다. 따라서, 영상 처리 장치(100)는 즉시 영상과 음향을 재현 (reproduce)할 수 있는 영상 프레임 데이터과 음향 데이터를 복수의 디스플레이 장치들(200, 200a, 200b)로 전송할 수 있다.
이와 비교하여, 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b)이 무선으로 연결된 경우, 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b) 사이에서 영상 데이터 스트림을 전송하기 위한 대역폭이 제한할 수 있다.
예를 들어, 고화질 영상(예를 들어 UHD(Ultra High Definition)의 해상도 또는 Full HD (Full High Definition)를 가지는 영상)을 전송하기 위해서는 수백 Mbps (Mega bit per second) 또는 수 Gbps (Giga bit per second)의 전송 속도가 요구될 수 있다. 반면, 2.4 GHz (Giga Hertz) 주파수를 이용하여 영상 데이터 스트림을 무선으로 전송하는 경우, 통신 표준에 따라 차이가 있으나 영상 처리 장치(100)는 대략 22MHz의 대역폭을 가지는 3개의 채널을 이용하여 영상 데이터 스트림을 전송할 수 있으며, 영상 처리 장치(100)는 대략 수십 Mbps (Mega bit per second)의 전송 속도로 영상 데이터 스트림을 전송할 수 있다.
이러한 이유로, 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b)이 무선으로 연결된 경우, 고화질의 영상을 전송하기 위하여 영상 처리 장치(100)는 영상을 압축 및 인코딩할 수 있다. 영상 처리 장치(100)는 예를 들어 H.264/MPEG-4 AVC (Moving Picture Experts Group-4 Advance Vide Coding), H.265/HEVC (High Efficiency Video Coding) 등의 영상 압축 표준을 이용하여 영상 프레임 데이터를 압축 및 인코딩할 수 있다.
또한, 영상 처리 장치(100)는 압축된 영상을 영상 데이터 스트림으로 변환하고, 압축된 영상을 포함하는 영상 데이터 스트림을 복수의 디스플레이 장치들(200, 200a, 200b)로 전송할 수 있다.
이처럼, 영상 처리 장치(100)가 고화질의 영상을 압축함으로써 복수의 디스플레이 장치들(200, 200a, 200b)로 전송되는 데이터의 용량(또는 크기)이 감소하며 제한된 무선 대역폭 내에서 영상 데이터 스트림이 영상 처리 장치(100)로부터 디스플레이 장치(200)로 전송될 수 있다.
또한, 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b)이 무선으로 연결된 경우, 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b) 각각으로 서로 다른 무선 채널을 통하여 영상 데이터 스트림을 전송할 수 있다.
영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b) 사이의 무선 통신망은 복수의 통신 채널들을 제공할 수 있으며, 복수의 통신 채널들은 서로 다른 반송파의 주파수를 가질 수 있다. 복수의 통신 채널들에 서로 다른 주파수를 할당함으로써 통신 채널들 사이의 간섭을 피할 수 있다.
이처럼, 영상 처리 장치(100)는 복수의 통신 채널을 이용하여 복수의 디스플레이 장치들(200, 200a, 200b)에 각각 영상 데이터 스트림을 전송할 수 있다.
또한, 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b) 각각으로 서로 다른 해상도와 서로 다른 프레임 레이트를 가지는 영상 데이터 스트림을 전송할 수 있다. 서로 다른 해상도와 서로 다른 프레임 레이트를 가지는 영상은 동일한 컨텐츠 소스로부터 수신된 동일한 컨텐츠로부터 생성될 수 있다. 다시 말해, 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b) 각각에 해상도 및/또는 프레임 레이트가 서로 다른 동일한 내용의 영상을 전송할 수 있다.
앞서 설명된 바와 같이 복수의 디스플레이 장치들(200, 200a, 200b)은 각각 서로 다른 해상도와 서로 다른 프레임 레이트를 가질 수 있다. 예를 들어, 디스플레이 장치(200)와 제1 디스플레이 장치(200a)는 제1 해상도를 가지며, 제2 디스플레이 장치(200b)는 제1 해상도보다 작은 제2 해상도를 가질 수 있다. 또한, 디스플레이 장치(200)와 제1 디스플레이 장치(200a)는 제1 프레임 레이트를 가지며, 제2 디스플레이 장치(200b)는 제1 프레임 레이트보다 작은 제2 프레임 레이트를 가질 수 있다.
영상 처리 장치(100)가 복수의 디스플레이 장치들(200, 200a, 200b)에 동일한 컨텐츠의 영상을 전송하는 경우, 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도에 따라 서로 다른 해상도와 서로 다른 프레임 레이트를 가지는 영상 데이터 스트림을 전송할 수 있다.
예를 들어, 영상 처리 장치(100)는 디스플레이 장치(200)와 제1 디스플레이 장치(200a)로 제1 해상도와 제1 프레임 레이트를 가지는 제1 영상 데이터 스트림을 전송하고, 제2 디스플레이 장치(200b)로 제2 해상도와 제2 프레임 레이트를 가지는 제2 영상 데이터 스트림을 전송할 수 있다.
이처럼, 영상 처리 장치(100)가 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도와 프레임 레이트에 따라 서로 다른 해상도와 서로 다른 프레임 레이트를 가지는 영상 데이트 스트림을 전송함으로써 영상 처리 장치(100)는 무선 통신망의 통신 채널을 효율적으로 이용할 수 있다.
또한, 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)과 연결하는 통신 채널들의 상태에 따라 다른 해상도와 다른 프레임 레이트를 가지는 영상 데이터 스트림을 전송할 수 있다.
예를 들어, 디스플레이 장치(200)와 연결된 제1 통신 채널이 제1 데이터 전송률을 나타내면 영상 처리 장치(100)는 제1 해상도와 제1 프레임 레이트를 가지는 제1 영상 데이터 스트림을 전송할 수 있다. 디스플레이 장치(200)와 연결된 제1 통신 채널이 제1 데이터 전송률보다 낮은 제2 데이터 전송률을 나타내면 영상 처리 장치(100)는 제2 해상도와 제2 프레임 레이트를 가지는 제1 영상 데이터 스트림을 전송할 수 있다.
이처럼, 영상 처리 장치(100)가 통신 채널의 상태에 따라 복수의 디스플레이 장치들(200, 200a, 200b)에 서로 다른 해상도와 서로 다른 프레임 레이트를 가지는 영상 데이트 스트림을 전송함으로써 영상 처리 장치(100)는 끊김없이 복수의 디스플레이 장치(200)로 영상 데이터 스트림을 전송할 수 있다.
이하에서는 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b) 각각의 구성 및 동작이 설명된다. 이하에서는 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b)이 무선으로 연결된 것으로 가정한다.
도 2는 일 실시예에 의한 영상 처리 장치의 구성을 도시한다.
도 2를 참조하면, 영상 처리 장치(100)는 컨텐츠 소스들(2~6)로부터 비디오/오디오 컨텐츠를 포함하는 데이터를 수신하는 컨텐츠 수신부(110)와, 컨텐츠 소스들(2~6)와 통신하는 컨텐츠 통신부(120)와, 컨텐츠 수신부(110) 및/또는 컨텐츠 통신부(120)에 의하여 수신된 비디오/오디오 컨텐츠의 데이터를 처리하는 제어부(130)와, 제어부(130)에 의하여 처리된 영상 데이터 스트림을 복수의 디스플레이 장치들(200, 200a, 200b)로 전송하는 영상 데이터 송신부(140)를 포함한다.
컨텐츠 수신부(110)는 컨텐츠 소스들(2~6)로부터 영상 프레임 데이터를 포함하는 비디오/오디오 컨텐츠를 수신하는 수신 단자(111)와, 텔레비전 방송 컨텐츠를 포함하는 방송 신호를 수신하고 수신된 방송 신호를 튜닝하는 튜너(112)를 포함할 수 있다.
수신 단자(111)는 케이블을 통하여 컨텐츠 소스들(2~6)과 연결될 수 있으며, 컨텐츠 소스들(2~6)로부터 비디오/오디오 컨텐츠를 포함하는 영상 프레임 데이터를 수신할 수 있다.
예를 들어, 수신 단자(111)는 아날로그 영상 프레임 데이터를 수신하는 컴포넌트(component, YPbPr/RGB) 단자와 컴포지트 (composite video blanking and sync, CVBS) 단자를 포함할 수 있다. 수신 단자(111)는 디지털 영상 프레임 데이터를 수신하는 고화질 멀티미디어 인터페이스 (High Definition Multimedia Interface, HDMI) 단자를 포함할 수 있다. 수신 단자(111)는 또한 외부 저장 매체(예를 들어, USB 드라이브)로부터 영상 데이터를 수신하는 범용 직렬 버스(Universal Serial Bus, USB) 단자를 포함할 수 있다.
앞서 설명된 바와 같이 영상 프레임 데이터는 압축되거나 인코딩되지 아니한 영상 데이터로서, 복수의 디스플레이 장치들(200, 200a, 200b)는 영상 프레임 데이터로부터 영상을 직접 재현할 수 있다.
튜너(112)는 방송 수신 안테나 또는 유선 케이블로부터 방송 신호를 수신하고, 방송 신호 중에 사용자에 의하여 선택된 채널의 방송 신호를 추출할 수 있다. 예를 들어, 튜너(112)는 방송 수신 안테나(2)를 통하여 수신된 여러 주파수의 텔레비전 방송 신호 중에 사용자에 의하여 선택된 채널에 해당하는 주파수를 가지는 텔레비전 방송 신호를 통과시키고, 다른 주파수를 가지는 텔레비전 방송 신호를 차단할 수 있다.
앞서 설명된 바와 같이, 텔레비전 방송 신호는 영상이 압축/인코딩/변조되어 생성되며, 영상 처리 장치(100)와 복수의 디스플레이 장치들(200, 200a, 200b)은 텔레비전 방송 신호를 복조/디코딩하여 영상을 재현할 수 있다.
이처럼, 컨텐츠 수신부(110)는 컨텐츠 소스들(2~6)로부터 비디오/오디오 컨텐츠 데이터를 수신할 수 있으며, 수신된 비디오/오디오 컨텐츠 데이터를 제어부(130)로 출력할 수 있다.
컨텐츠 통신부(120)는 컨텐츠 소스들(2~6)과 데이터를 주고받을 수 있다. 예를 들어, 컨텐츠 통신부(120)는 컨텐츠 소스들(2~6)로부터 영상 데이터를 수신할 수 있다.
컨텐츠 통신부(120)는 컨텐츠 소스들(2~6)과 유선으로 데이터를 주고받는 유선 통신 모듈(121)과, 컨텐츠 소스들(2~6)과 무선으로 데이터를 주고받는 무선 통신 모듈(122)을 포함할 수 있다.
유선 통신 모듈(121)은 유선 통신망에 접속하고 유선 통신망을 통하여 컨텐츠 소스들(2~6)과 통신할 수 있다. 예를 들어, 유선 통신 모듈(121)은 이더넷(Ethernet, IEEE 802.3 기술 표준)을 통하여 유선 통신망에 접속하고, 유선 통신망을 통하여 컨텐츠 소스들(2~6)로부터 영상 데이터를 수신할 수 있다.
무선 통신 모듈(122)은 기지국(base station) 또는 액세스 포인트(AP)와 무선으로 통신할 수 있으며, 기지국 또는 액세스 포인트를 통하여 유선 통신망에 접속할 수 있다. 무선 통신 모듈(122)은 또한 기지국 또는 액세스 포인트를 거쳐 유선 통신망에 접속된 컨텐츠 소스들(2~6)과 통신할 수 있다. 예를 들어, 무선 통신 모듈(122)은 와이파이(WiFi™, IEEE 802.11 기술 표준)을 이용하여 액세스 포인트(AP)와 무선으로 통신하거나, CDMA, WCDMA, GSM, LET(Long Term Evolution), 와이브로 등을 이용하여 기지국과 통신할 수 있다. 무선 통신 모듈(122)은 또한 기지국 또는 액세스 포인트를 거쳐 컨텐츠 소스들(2~6)로부터 영상 데이터를 수신할 수 있다.
뿐만 아니라, 무선 통신 모듈(122)은 컨텐츠 소스들(2~6)과 무선으로 직접 통신할 수 있다. 예를 들어, 무선 통신 모듈(122)은 와이파이, 블루투스 (Bluetooth™, IEEE 802.15.1 기술 표준), 지그비(ZigBee™, IEEE 802.15.4 기술 표준) 등을 이용하여 컨텐츠 소스들(2~6)으로부터 무선으로 영상 데이터를 수신할 수 있다.
이처럼, 컨텐츠 통신부(120)는 유선 통신 모듈(121) 및/또는 무선 통신 모듈(122)을 통하여 컨텐츠 소스들(2~6)로부터 비디오/오디오 컨텐츠 데이터를 수신할 수 있으며, 유선 통신 모듈(121) 및/또는 무선 통신 모듈(122)를 통하여 수신된 비디오/오디오 컨텐츠 데이터를 제어부(130)로 출력할 수 있다.
제어부(130)는 컨텐츠 수신부(110) 및/또는 컨텐츠 통신부(120)에 의하여 수신된 영상 데이터(영상 프레임 데이터, 텔레비전 방송 신호, 스트리밍 데이터 등)을 처리할 수 있다. 예를 들어, 제어부(130)는 영상 프레임 데이터를 압축/인코딩하여 압축된/인코딩된 영상 데이터 스트림을 생성하고, 압축된/인코딩된 영상 데이터 스트림을 영상 데이터 송신부(140)로 출력할 수 있다. 제어부(130)는 또한 텔레비전 방송 신호를 복조하여 영상 데이터 스트림을 복원하고, 영상 데이터 스트림을 영상 데이터 송신부(140)로 출력할 수 있다. 제어부(130)는 또한 스트리밍 데이터를 조합하여 영상 데이터 스트림을 복원하고, 영상 데이터 스트림을 영상 데이터 송신부(140)로 출력할 수 있다.
이처럼, 제어부(130)는 컨텐츠 수신부(110) 및/또는 컨텐츠 통신부(120)에 의하여 수신된 영상 데이터를 처리하여 압축된/인코딩?? 영상 데이터 스트림(이하 '영상 데이터 스트림'이라 한다)을 생성하고, 영상 데이터 스트림을 영상 데이터 송신부(140)로 출력할 수 있다.
또한, 제어부(130)는 복수의 디스플레이 장치(200)로부터 수신되는 사용자 입력에 따라 컨텐츠 수신부(110) 및/또는 컨텐츠 통신부(120)를 제어할 수 있다. 예를 들어, 사용자 입력에 의하여 컨텐츠 소스가 선택되면, 제어부(130)는 선택된 컨텐츠 소스로부터 영상 데이터를 수신하도록 컨텐츠 수신부(110) 및/또는 컨텐츠 통신부(120)를 제어할 수 있다. 또한, 컨텐츠 수신부(110) 및/또는 컨텐츠 통신부(120)를 통하여 영상 데이터가 수신되지 아니하면, 제어부(130)는 다른 컨텐츠 소스로부터 영상 프레임 데이티를 수신하도록 컨텐츠 수신부(110) 및/또는 컨텐츠 통신부(120)를 제어할 수 있다.
특히, 복수의 디스플레이 장치들(200, 200a, 200b) 각각으로 서로 다른 해상도와 서로 다른 프레임 레이트를 가지는 영상 데이터 스트림을 전송하기 위하여 제어부(130)는 컨텐츠 수신부(110) 및/또는 컨텐츠 통신부(120)를 통하여 수신된 하나의 영상 데이터를 서로 다른 해상도와 와 서로 다른 프레임 레이트를 가지는 복수의 영상 데이터 스트림으로 인코딩할 수 있다. 예를 들어, 제어부(130)는 UHD 해상도와 120 프레임을 가지는 제1 영상 데이터 스트림과 FHD 해상도와 60 프레임을 가지는 제2 영상 데이터 스트림으로 인코딩할 수 있다.
이러한 제어부(130)는 마이크로 프로세서(131)와, 메모리(132)를 포함할 수 있다.
메모리(132)는 컨텐츠 수신부(110) 및/또는 컨텐츠 통신부(120)에 의하여 수신된 영상 프레임 데이터를 압축/인코딩하기 위한 프로그램 및 데이터를 저장하고, 영상 프레임 데이터를 압축/인코딩하는 중에 발행하는 임시 영상 데이터를 임시로 기억할 수 있다. 메모리(132)는 또한 영상 처리 장치(100)에 포함된 구성들을 제어하기 위한 프로그램 및 데이터를 저장하고, 영상 처리 장치(100)에 포함된 구성들을 제어하는 중에 발행하는 임시 제어 데이터를 임시로 기억할 수 있다.
메모리(132)는 데이터를 장기간 저장하기 위한 롬(Read Only Memory), 플래시 메모리 등의 비휘발성 메모리와, 데이터를 일시적으로 기억하기 위한 S-램(Static Random Access Memory, S-RAM), D-램(Dynamic Random Access Memory) 등의 휘발성 메모리를 포함할 수 있다.
마이크로 프로세서(131)는 컨텐츠 수신부(110) 및/또는 컨텐츠 통신부(120)로부터 영상 프레임 데이터를 수신할 수 있다. 마이크로 프로세서(131)는 메모리(132)에 저장된 프로그램 및 데이터에 따라 컨텐츠의 영상 프레임 데이터를 압축/인코딩하고, 영상 데이터 스트림을 생성할 수 있다. 마이크로 프로세서(131)는 또한 컨텐츠의 영상 데이터 스트림을 영상 데이터 송신부(140)로 출력할 수 있다.
마이크로 프로세서(131)는 영상 데이터 송신부(140)로부터 복수의 디스플레이 장치들(200, 200a, 200b)로부터 수신된 사용자 입력을 수신할 수 있다. 마이크로 프로세서(131)는 사용자 입력에 따라 컨텐츠 수신부(110) 및/컨텐츠 통신부(120)를 제어하기 위한 제어 신호를 생성하고 제어 신호를 컨텐츠 수신부(110) 및/컨텐츠 통신부(120)로 출력할 수 있다. 마이크로 프로세서(131)는 또한 영상 프레임 데이터를 압축/인코딩하기 위한 상세 설정을 사용자 입력에 따라 변경할 수 있다.
마이크로 프로세서(131)는 논리 연산 및 산술 연산 등을 수행하는 연산 회로와, 연산된 데이터를 기억하는 기억 회로 등을 포함할 수 있다.
영상 데이터 송신부(140)는 제어부(130)로부터 출력된 영상 데이터 스트림을 무선으로 복수의 디스플레이 장치(200)로 전송하는 영상 송수신 모듈(141)을 포함한다.
영상 송수신 모듈(141)은 와이파이, 블루투스, 지그비 등의 무선 통신 표준을 이용하여 무선으로 영상 데이터 스트림을 전송할 수 있다. 구체적으로, 영상 송수신 모듈(141)은 영상 데이터 스트림을 복수의 디스플레이 장치(200)로 전송하기 위하여 영상 데이터 스트림을 안테나를 통하여 자유 공간으로 방사할 수 있다.
영상 송수신 모듈(141)은 복수의 디스플레이 장치들(200, 200a, 200b) 각각으로 서로 다른 통신 채널을 이용하여 영상 데이터 스트림을 전송할 수 있다. 예를 들어, 영상 송수신 모듈(141)은 제1 통신 채널을 통하여 디스플레이 장치(200)로 영상 데이터 스트림을 전송하고, 제2 통신 채널을 통하여 제1 디스플레이 장치(200a)로 영상 데이터 스트림을 전송하고, 제제3 통신 채널을 통하여 2 디스플레이 장치(200)로 영상 데이터 스트림을 전송할 수 있다.
영상 송수신 모듈(141)은 복수의 디스플레이 장치들(200, 200a, 200b)로부터 복수의 디스플레이 장치들(200, 200a, 200b) 각각의 제품 정보(예를 들어, 복수의 디스플레이 장치들의 해상도 및/또는 프레임 레이트 등)를 수신할 수 있으며, 복수의 디스플레이 장치들(200, 200a, 200b)에 입력되는 사용자 입력에 관한 정보를 수신할 수 있다.
또한, 영상 송수신 모듈(141)은 복수의 디스플레이 장치들(200, 200a, 200b)과의 통신 상태에 관한 정보(예를 들어, 신호의 수신 세기, 신호의 수신률 등)를 수신하거나, 또한 복수의 디스플레이 장치들(200, 200a, 200b)과의 통신 상태에 관한 정보를 직접 수집할 수 있다.
이상에서 설명된 바와 같이 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)과 무선으로 연결될 수 있으며, 복수의 디스플레이 장치들(200, 200a, 200b) 각각으로 영상 데이터 스트림을 전송할 수 있다. 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)에 따라 서로 다른 해상도와 서로 다른 프레임 레이트를 가지는 영상 데이터 스트림을 전송할 수 있으며, 또한 복수의 디스플레이 장치들(200, 200a, 200b)과의 통신 상태에 따라 서로 다른 해상도와 서로 다른 프레임 레이트를 가지는 영상 데이터 스트림을 전송할 수 있다.
이하에서는 영상 처리 장치(100)는 하나의 영상 프레임 데이터를 다양한 해상도와 다양한 프레임 레이트를 가지는 영상 데이터 스트림으로 압축/인코딩하는 구체적인 방법이 설명된다.
도 3은 일 실시예에 의한 영상 처리 장치에 포함된 영상 인코더의 일 예를 도시한다. 도 4 및 도 5는 일 실시예에 의한 영상 인코더에 의한 화면내 예측의 일 예를 도시한다. 도 6 및 도 7은 일 실시예에 의한 영상 인코더에 의한 화면간 예측의 일 예를 도시한다. 도 8은 일 실시예에 의한 영상 인코더에 의한 화면내 예측의 보정을 도시한다. 도 9는 일 실시예에 의한 영상 인코더에 의한 화면간 예측의 보정을 도시한다.
앞서 설명된 바와 같이, 제어부(130)는 복수의 디스플레이 장치들(200, 200a, 200b)에 영상을 전송하기 위하여 영상 프레임 데이터를 압축/인코딩할 수 있는 영상 인코더(300)를 포함할 수 있다. 영상 인코더(300)는 메모리(132)에 저장되고 마이크로 프로세서(131)에 의하여 실행되는 어플리케이션(소프트웨어)로 구현되거나, 마이크로 프로세서(131) 내부에 포함된 디지털 회로(하드웨어)로 구현될 수 있다.
영상 인코더(300)는 다양한 영상 압축 표준을 이용하여 영상 프레임을 압축 및/또는 인코딩할 수 있다. 예를 들어, 영상 인코더(300)는 H.264/MPEG-4 AVC, H.265/HEVC 등의 영상 압축 표준을 이용하여 영상 프레임을 압축 및/또는 인코딩할 수 있다.
도 3, 도 4, 도 5, 도 6, 도 7, 도 8 및 도 9를 참조하면, 영상 인코더(300)는 인트라 예측기(intra prediction) (301)와, 인터 예측기(inter prediction) (302)와, 모드 선택기(303)와, 제1 변환기(304)와, 제1 양자화기(305)와, 제1 엔트로피 인코더(306)와, 영상 복원기(307)와, 인코딩 프레임 버퍼(308)를 포함할 수 있다. 또한, 영상 인코더(300)는 예측 보정기(311)와, 영상 보정기(312)와, 보정 제어기(313)와, 제2 변환기(314)와, 제2 양자화기(315)와, 제2 엔트로피 인코더(316)와, 멀티플렉서(317)를 더 포함할 수 있다.
영상 인코더(300)에 입력되는 영상은 전처리 과정에 의하여 복수의 블록들로 구획된다. 예를 들어, H.264/MPEG-4 AVC에 의하면 영상은 복수의 매크로블록들(macroblocks)로 구획될 수 있다. H.265/HEVC에 의하면 영상은 복수의 코딩 트리 유닛(coding tree unit, CTU)으로 구획될 수 있으며, 코딩 트리 유닛(CTU)는 휘도(luma) 성분 및/또는 색차(chroma) 성분에 따라 복수의 코딩 트리 블록(coding tree block, CTB)으로 구획될 수 있다. 코딩 트리 블록(CTB)은 인트라 예측(intra prediction) 또는 인터 예측(inter prediction)이 수행되는 복수의 코딩 유닛(coding unit, CU)으로 구획될 수 있으며, 코딩 유닛(CU)은 다시 효과적인 코딩을 위하여 복수의 예측 유닛(prediction unit, PU)으로 구획될 수 있다.
영상 인코더(300)는 영상을 블록(매크로블록 또는 예측 유닛) 단위로 인코딩할 수 있으며, 영상의 블록은 64*64 픽셀, 32*32 픽셀, 16*16 픽셀, 8*8 픽셀, 4*4 픽셀 등 다양한 크기를 가질 수 있다.
인트라 예측기(301)는 현재 블록이 포함된 영상 프레임 내의 공간적인 중복성을 이용하여 제1 인트라 예측 정보와 제1 인트라 예측 블록을 생성할 수 있다.
구체적으로, 인트라 예측기(301)는 현재 블록이 포함되는 영상 프레임의 복원된 픽셀들을 이용하여 제1 인트라 예측 정보와 제1 인트라 예측 블록을 생성할 수 있다. 인트라 예측기(301)는 현재 블록의 크기에 따라 미리 정해진 개수의 인트라 예측 모드 중에 하나를 선택하고, 선택된 인트라 예측 모드의 인덱스를 포함하는 제1 인트라 예측 정보와 선택된 인트라 예측 모드에 따라 제1 인트라 예측 블록을 생성할 수 있다.
예를 들어, 현재 블록의 크기가 4*4 픽셀인 경우, 인트라 예측기(301)는 도 4에 도시된 바와 같이 수직(vertical) 모드, 수평(Horizontal) 모드, DC (Direct Current) 모드, 대각선 왼쪽(Diagonal down-left) 모드, 대각선 오른쪽(Diagonal down-right) 모드, 수직 오른쪽(Vertical-right) 모드, 수평 아래쪽(Horizontal-down) 모드, 수직 왼쪽(Vertical-left) 모드 및 수평 위쪽(Horizontal) 모드 중에 어느 하나를 선택하고, 선택된 인트라 예측 모드에 따라 제1 인트라 예측 블록을 생성할 수 있다.
현재 블록 크기가 16*16 픽셀인 경우, 인트라 예측기(301)는 도 5에 도시된 바와 같이 수직(Vertical) 모드, 수평(Horizontal) 모드, DC (Direct Current) 모드 및 플래인(plane) 모드 중에 어느 하나를 선택하고, 선택된 인트라 예측 모드에 따라 제1 인트라 예측 블록을 생성할 수 있다.
또한, 현재 블록 크기가 8*8 픽셀인 경우 역시 인트라 예측기(301)는 수직(Vertical) 모드, 수평(Horizontal) 모드, DC (Direct Current) 모드 및 플래인(plane) 모드 중에 어느 하나를 선택하고, 선택된 인트라 예측 모드에 따라 제1 인트라 예측 블록을 생성할 수 있다.
예를 들어, DC 모드에서 인트라 예측기(301)는 블록의 평균값으로 제1 인트라 예측 블록을 생성한다. 평균값이란 현재 블록의 좌측 블록과 상단 블록 각각 4개 픽셀(현재 블록이 크기가 4*4 픽셀인 경우) 또는 좌측 블록과 상단 블록 각각 16개 픽셀(현재 블록의 크기가 16*16 픽셀인 경우)의 평균값을 의미한다.
인터 예측기(302)는 영상 프레임들 사이의 시간적 중복성을 이용하여 제1 인터 예측 정보와 제1 인터 예측 블록을 생성할 수 있다.
인터 예측기(302)는 인코딩 프레임 버퍼(308)에 저장된 참조 영상 프레임들을 이용하여 현재 블록 내 움직임을 추정하고, 움직임 예측을 위한 참조 영상 프레임의 인덱스와 움직임 벡터를 판단할 수 있다. 또한, 인터 예측기(302)는 참조 영상 프레임의 인덱스와 움직임 벡터를 포함하는 제1 인터 예측 정보와 참조 영상 프레임의 인덱스와 움직임 벡터를 이용하여 제1 인터 예측 블록을 생성할 수 있다.
인터 예측기(302)는 도 6의 (a)에 도시된 바와 같이 현재 블록에 대하여 시간상으로 과거의 영상 프레임과 미래의 영상 프레임 중 어느 하나만을 참조 영상 프레임으로 이용하는 단방향 예측(Uni-directional prediction)을 수행할 수 있다. 또한, 인터 예측기(302)는 도 6의 (b)에 도시된 바와 같이 과거의 영상 프레임과 미래의 영상 프레임 모드를 참조 영상 프레임으로 이용하는 양방향 예측(Bi-directional prediction)을 수행할 수 있다.
인터 예측기(302)는 도 7의 (a)에 도시된 바와 같이 참조 영상 프레임 내에서 현재 블록과 가장 유사한 블록을 검색하고, 검색된 블록과 현재 블록 사이의 움직임 벡터를 판단할 수 있다.
예를 들어, 인터 예측기(302)는 도 7의 (b)와 같이 현재 블록과 동일한 위치의 블록을 포함하는 W*W 크기의 검색 영역을 설정하고(예를 들어, 현재 블록의 크기 16*16 픽셀인 경우 32*32 픽셀의 검색 영역이 설정될 수 있다), 검색 영역 내에서 현재 블록과 가장 유사한 블록을 검색할 수 있다. 이때, 인터 예측기(302)는 블록의 유사성을 판단하기 위하여 평균 제곱 오차, 평균 절대 오차, 상호상관함수 등을 이용할 수 있다.
참조 영상 프레임 내에서 유사 블록이 검색되면, 인터 예측기(302)는 참조 영상 프레임 내 유사 블록의 위치와 현재 블록의 위치 사이의 차이를 이용하여 움직임 벡터를 판단할 수 있다.
모드 선택기(303)는 인트라 예측기(301)로부터 출력된 제1 인트라 예측 블록과 인터 예측기로부터 출력된 제1 인터 예측 블록 중 어느 하나를 선택할 수 있으며, 제1 인트라 예측 블록과 제1 인터 예측 블록 중 어느 하나를 제1 예측 블록으로서 출력할 수 있다.
제1 변환기(304)는 모드 선택기(303)으로부터 출력된 제1 예측 블록의 픽셀 값(픽셀 값은 블록에 포함된 복수의 픽셀들의 휘도값을 나타낸다)과 현재 영상 프레임의 현재 블록의 픽셀 값 사이의 차이를 산출함으로써 제1 예측 블록과 현재 블록 사이의 차이를 나타내는 제1 잔차 블록(residual block)을 생성할 수 있다.
또한, 제1 변환기(304)는 타임 도메인의 제1 잔차 블록을 주파수 도메인으로 변환할 수 있다. 예를 들어, 제1 변환기(304)는 제1 잔차 블록에 대하여 이산 코사인 변환(Discrete Cosine Transform, DCT)를 이용하여 타임 도메인의 제1 잔차 블록을 주파수 도메인으로 변환할 수 있다. 구체적으로, 제1 변환기(304)는 제1 잔차 블록을 주파수 도메인으로 변환하기 위하여 제1 잔차 블록에 이산 코사인 변환 기반의 변환 매트릭스를 적용할 수 있다. 제1 변환기(304)는 이산 코사인 변환 이외에 KLT (Karhunen-Loeve Transform), SVD (Singular Value Decomposition), DWT (Discrete Wavelet Transform) 등을 이용하여 제1 잔차 블록을 변환할 수 있다.
이처럼 제1 변환기(304)는 제1 잔차 블록을 주파수 도메인으로 변환하고, 제1 잔차 블록의 제1 변환 계수(transform coefficient)를 출력할 수 있다.
제1 양자화기(305)는 제1 변환기(304)로부터 출력된 제1 잔차 블록의 제1 변환 계수를 양자화할 수 있다. 예를 들어, 제1 양자화기(305)는 제1 잔차 블록의 제1 변환 계수들을 양자화기 위한 양자화 스텝 사이즈를 결정하고, 결정된 양자화 스텝 사이즈에 따라 결정된 양자화 매트릭스(또는 양자화 테이블)를 이용하여 제1 변환 계수들을 양자화할 수 있다.
여기서, 제1 변환 계수들은 현재 블록과 예측 블록 사이의 차이를 기초로 주파수 변환 및 양자화에 의하여 생성되므로 현재 블록(또는 영상 프레임)과 예측 블록(예측 프레임) 사이의 에러 정보를 포함할 수 있다.
인트라 예측 정보(예를 들어, 선택된 인트라 예측 모드의 인덱스) 및/또는 인터 예측기(302)로부터 출력된 인터 예측 정보(예를 들어, 참조 영상 프레임의 인덱스와 움직임 벡터)과, 제1 양자화기(305)에 의하여 양자화된 제1 변환 계수들은 영상 복원기(307)와 제1 엔트로피 인코더(306)에 입력될 수 있다.
영상 복원기(307)는 양자화된 제1 변환 계수들로부터 본래의 현재 블록을 복원할 수 있다. 예를 들어, 영상 복원기(307)는 양자화된 제1 변환 계수들을 역양자화하고, 주파수 도메인으로 변환된 제1 변환 계수들을 타임 도에민으로 역변환하고, 역변환된 제1 잔차 블록의 픽셀 값에 제1 예측 블록의 픽셀 값을 합산할 수 있다. 영상 복원기(307)는 역양자화, 역변환 및 픽셀 값의 합산을 통하여 양자화된 제1 변환 계수들로부터 복원 블록(복원된 현재 블록)을 생성할 수 있다.
영상 복원기(307)에 의하여 복원된 복원 블록은 인코딩 프레임 버퍼(308)에 저장될 수 있다.
인코딩 프레임 버퍼(308)는 영상 복원기(307)에 의하여 복원된 복원 블록들을 저장할 수 있으며, 인터 예측기(302)에 참조 영상 프레임을 제공할 수 있다.
또한, 인코딩 프레임 버퍼(308)는 영상 인코더(300)으로부터 출력되는 영상 프레임을 기준으로 "과거 영상 프레임", "현재 영상 프레임", "미래 영상 프레임"을 저장할 수 있으며, 인터 예측기(302)의 예측 방향(단방향 예측 또는 양방향 예측)에 따라 "과거 영상 프레임" 및/또는 "미래 영상 프레임"을 참조 영상 프레임으로 인터 예측기(302)에 제공할 수 있다.
제1 엔트로피 인코더(306)는 인트라 예측기(301)로부터 출력된 인트라 예측 정보 및/또는 인터 예측기(302)로부터 출력된 인터 예측 정보와, 제1 양자화기(305)에 의하여 양자화된 제1 변환 계수를 엔트로피 부호화할 수 있다.
구체적으로, 제1 엔트로피 인코더(306)는 양자화된 제1 변환 계수와 인트라 예측 정보와 인터 예측 정보 중에 반복되는 심볼을 코드로 변환할 수 있으며, 이때 변환된 코드의 길이는 심볼이 출력될 확률에 따라 달라질 수 있다. 다시 말해, 출력될 확률이 높은 심볼은 짧은 코드로 부호화되고, 출력된 확률이 낮은 심볼은 긴 코드로 부호화될 수 있다.
예를 들어, 제1 엔트로피 인코더(306)는 지수 골롬(Exponential Golomb), 문맥 기판 적응적 가변길이 부호화(Context-Adaptive Variable Length Coding, CAVLC), 문맥 기판 적응적 이진산술 부호화(Context-Adaptive Binary Arithmetic Coding, CABAC) 등의 기법을 이용하여 양자화된 제1 변환 계수와 인트라 예측 정보 및/또는 인터 예측 정보를 부호화하고, '0'과 '1'의 영상 데이터 스트림을 생성할 수 있다.
이처럼, 영상 프레임 데이터는 인트라 예측기(301)와 인터 예측기(302)와 제1 변환기(304)와 제1 양자화기(305)와 영상 복원기(307)와 인코딩 프레임 버퍼(308)와 제1 엔트로피 인코더(306)에 의하여 메인 영상 데이터 스트림으로 압축/인코딩될 수 있다. 이때, 영상 프레임 데이터의 해상도와 메인 영상 데이터 스트림에 의한 영상의 해상도는 동일할 수 있다. 다시 말해, 인트라 예측기(301)와 인터 예측기(302)와 제1 변환기(304)와 제1 양자화기(305)와 영상 복원기(307)와 인코딩 프레임 버퍼(308)와 제1 엔트로피 인코더(306)에 의하여 메인 해상도(입력된 영상 프레임과 동일한 해상도)를 가지는 메인 영상 데이터 스트림이 생성될 수 있다.
앞서 설명된 바와 같이, 영상 인코더(300)는 예측 보정기(311)와, 영상 보정기(312)와, 제2 변환기(314)와, 제2 양자화기(315)와, 제2 엔트로피 인코더(316)와, 멀티플렉서(317)를 더 포함할 수 있다.
영상 프레임 데이터는 예측 보정기(311)와, 영상 보정기(312)와, 제2 변환기(314)와, 제2 양자화기(315)와, 제2 엔트로피 인코더(316)와, 보정 제어기(313)에 의하여 본래의 해상도(메인 해상도)와 상이한 해상도(서브 해상도)를 가지는 서브 영상 데이터 스트림으로 압축/인코딩될 수 있다. 다시 말해, 메인 해상도를 가지는 영상 프레임 데이터가 입력되면, 데이터는 예측 보정기(311)와, 영상 보정기(312)와, 제2 변환기(314)와, 제2 양자화기(315)와, 제2 엔트로피 인코더(316)와, 보정 제어기(313)에 의하여 서브 해상도를 가지는 서브 영상 데이터 스트림이 생성될 수 있다.
예측 보정기(311)는 모드 선택기(303)로부터 출력된 제1 인트라 예측 정보 및/또는 제1 인터 예측 정보를 수신할 수 있다. 또한, 예측 보정기(311)는 영상 프레임의 해상도를 변경하기 위하여 제1 인트라 예측 정보 및/또는 인터 예측 정보를 보정하고, 제2 인트라 예측 정보 및/또는 제2 인터 예측 정보를 출력할 수 있다. 또한, 예측 보정기(311)는 제2 인트라 예측 정보 및/또는 제2 인터 예측 정보에 의한 제2 인트라 예측 블록 및/또는 제2 인터 예측 블록을 생성할 수 있다.
앞서 설명된 바와 같이, 인트라 예측기(301)는 현재 블록의 크기에 따라 미리 정해진 개수의 인트라 예측 모드 중에 하나를 선택할 수 있다. 이때, 해상도가 변경되면 현재 블록의 크기가 변경되므로 예측 보정기(311)는 영상 프레임의 해상도와 변경될 해상도를 기초로 인트라 예측기(301)의 인트라 예측 모드 인덱스를 보정할 수 있다.
예를 들어, 영상 프레임의 해상도가 UHD 해상도이고 서브 영상 데이터 스트림에 의한 해상도가 FHD 해상도인 경우, 입력된 영상 프레임이 1/4로 다운 스케일링될 수 있다. 또한, 현재 블록의 크기 역시 1/4로 다운 스케일링될 수 있다.
현재 블록의 크기가 16*16 픽셀인 경우, 다운 스케일링된 해상도 변경 블록의 크기는 8*8 픽셀일 수 있다. 이때, 예측 보정기(311)는 인트라 예측기(301)에 의하여 선택된 16*16 인트라 예측 모드와 동일한 8*8 인트라 예측 모드를 선택할 수 있다.
도 8의 (a)에 도시된 바와 같이 현재 블록의 크기가 16*16 픽셀인 경우, 다운 스케일링된 해상도 변경 블록의 크기는 8*8 픽셀일 수 있다. 이때, 예측 보정기(311)는 인트라 예측기(301)에 의하여 선택된 8*8 인트라 예측 모드에 대응하는 8*8 인트라 예측 모드를 선택할 수 있다. 인트라 예측기(301)에 의하여 16*16 수직 모드가 선택된 경우 예측 보정기(311)는 8*8 수직 모드를 선택할 수 있으며, 인트라 예측기(301)에 의하여 16*16 수평 모드가 선택된 경우 예측 보정기(311)는 8*8 수평 모드를 선택할 수 있다. 또한, 인트라 예측기(301)에 의하여 16*16 DC 모드가 선택된 경우 예측 보정기(311)는 8*8 DC 모드를 선택할 수 있으며, 인트라 예측기(301)에 의하여 16*16 플래인 모드가 선택된 경우 예측 보정기(311)는 8*8 플래인 모드를 선택할 수 있다. 예를 들어, 예측 보정기(311)는 인트라 예측기(301)에 의하여 선택된 16*16 인트라 예측 모드와, 이에 대응하는 8*8 인트라 예측 모드를 저장하는 룩업 테이블(lookup table)을 포함할 수 있다.
도 8의 (b)에 도시된 바와 같이 현재 블록의 크기가 8*8 픽셀인 경우, 예측 보정기(311)는 인접한 4개의 현재 블록을 조합하여 16*16 픽셀의 블록을 생성하고 16*16 픽셀의 블록을 8*8 픽셀의 블록으로 다운 스케일링할 수 있다. 또한, 예측 보정기(311)는 4개의 현재 블록 각각의 인트라 예측 모드에 따라 변경 블록의 인트라 예측 모드를 선택할 수 있다. 예를 들어, 4개의 현재 블록 모두가 8*8 수직 모드인 경우 예측 보정기(311)는 8*8 수직 모드를 선택할 수 있으며, 4개의 현재 블록 모두가 8*8 수평 모드인 경우 예측 보정기(311)는 8*8 수평 모드를 선택할 수 있다. 예를 들어, 예측 보정기(311)는 인접한 4개의 현재 블록의 인트라 예측 모드와, 이에 대응하는 8*8 인트라 예측 모드를 저장하는 룩업 테이블을 포함할 수 있다.
이와 같은 방식으로 예측 보정기(311)는 제1 인트라 예측 정보를 제2 인트라 예측 정보로 보정할 수 있다. 또한, 예측 보정기(311)는 제2 인트라 예측 정보를 기초로 제2 인트라 예측 블록을 생성할 수 있다.
또한, 인터 예측기(302)는 인코딩 프레임 버퍼(308)에 저장된 참조 영상 프레임들을 이용하여 현재 블록의 움직임을 추정하고, 움직임 예측을 위한 참조 영상 프레임의 인덱스와 움직임 벡터를 판단할 수 있다.
이때, 해상도가 변경되더라도 참조 영상 프레임은 변경되지 아니할 수 있다. 다시 말해, 영상의 해상도가 변경되더라도 동일한 참조 영상 프레임으로부터 현재 블록의 움직임을 추정할 수 있다. 다만, 해상도가 변경되면 움직임 예측을 위한 움직임 벡터가 변경될 수 있다.
예를 들어, 현재 블록의 크기가 도 9의 (a)에 도시된 바와 같이 16*16 픽셀인 경우, 다운 스케일링된 해상도 변경 블록의 크기는 도 9의 (b)에 도시된 바와 같이 8*8 픽셀일 수 있다.
블록의 크기가 다운 스케일링되면, 움직임 벡터 역시 함께 다운 스케일링된다. 16*16 픽셀의 현재 블록의 움직임 벡터가 'V'이면, 도 9의 (a) 및 (b)에 도시된 바와 같이 8*8 픽셀의 변경 블록의 움직임 벡터는 'V/2'가 된다. 다시 말해, 영상 프레임의 해상도가 변경되더라도 움직임 벡터의 방향은 변경되지 아니하나, 움직임 벡터의 크기는 영상 프레임의 해상도가 변경되면 해상도의 변경과 동일한 비율로 변경된다.
따라서, 예측 보정기(311)는 인터 예측기(302)로부터 출력된 움직임 벡터의 크기를 해상도의 변경과 동일한 비율로 변경할 수 있다.
이와 같은 방식으로 예측 보정기(311)는 제1 인터 예측 정보를 제2 인터 예측 정보로 보정할 수 있다. 또한, 예측 보정기(311)는 제2 인터 예측 정보를 기초로 제2 인터 예측 블록을 생성할 수 있다.
이처럼 예측 보정기(311)는 영상의 해상도 변경에 따라 인트라 예측기(301) 및/또는 인터 예측기(302)의 출력을 보정할 수 있다. 또한, 예측 보정기(311)는 보정된 인트라 예측 정보(예를 들어, 인트라 예측 모드의 인덱스) 및/또는 보정된 인터 예측 정보(예를 들어, 참조 영상 프레임의 인덱스 및 보정된 움직임 벡터)에 따라 제2 인트라 예측 블록 및/또는 제2 인터 예측 블록을 생성할 수 있으며, 제2 인트라 예측 블록 및/또는 제2 인터 예측 블록을 제2 예측 블록으로 출력할 수 있다.
영상 보정기(312)는 인코더에 입력된 영상 프레임의 해상도를 변경하거나, 영상 프레임의 현재 블록의 해상도를 변경할 수 있다. 예를 들어, 영상 보정기(312)는 UHD 해상도의 영상 프레임을 FHD 해상도의 영상 프레임으로 변경하거나, 16*16 픽셀의 현재 블록을 8*8 픽셀의 변경 블록으로 변경할 수 있다.
제2 변환기(314)는 예측 보정기(311)로부터 출력된 제2 예측 블록의 픽셀 값과 영상 보정기(312)로부터 출력된 변경 블록의 픽셀 값의 차이를 산출함으로써 제2 예측 블록과 변경 블록 사이의 차이를 나타내는 제2 잔차 블록을 생성할 수 있다.
또한, 제2 변환기(314)는 타임 도메인의 제2 잔차 블록을 주파수 도메인으로 변환할 수 있다. 제2 변환기(314)의 변환 동작은 제1 변환기(304)의 변환 동작과 동일할 수 있다.
이처럼 제2 변환기(314)는 제2 잔차 블록을 주파수 도메인으로 변환하고, 제2 잔차 블록의 제2 변환 계수를 출력할 수 있다.
제2 양자화기(315)는 제2 변환기(314)로부터 출력된 제2 잔차 블록의 제2 변환 계수를 양자화할 수 있다. 제2 양자화기(315)의 양자화 동작은 제1 양자화기(305)의 양자화 동작과 동일할 수 있다.
제2 엔트로피 인코더(316)는 제2 양자화기(315)에 의하여 양자화된 제2 변환 계수와 예측 보정기(311)로부터 출력된 제2 인트라 예측 정보 및/또는 제2 인터 예측 정보를 엔트로피 부호화할 수 있다. 제2 엔트로피 인코더(316)의 부호화 동작은 제1 엔트로피 인코더(306)의 부호화 동작과 동일할 수 있다.
멀티플렉서(317)는 제1 엔트로피 인코더(306)로부터 출력된 메인 해상도의 메인 영상 데이터 스트림과 제2 엔트로피 인코더(316)로부터 출력된 서브 해상도의 서브 영상 데이터 스트림을 순차적으로 영상 데이터 송신부(140)로 출력할 수 있다.
예를 들어, 인트라 예측기(301)와 인터 예측기(302)와 제1 변환기(304)와 제1 양자화기(305)와 영상 복원기(307)와 인코딩 프레임 버퍼(308)와 제1 엔트로피 인코더(306)에 의하여 메인 해상도를 가지는 메인 영상 데이터 스트림이 생성되고, 예측 보정기(311)와, 영상 보정기(312)와, 제2 변환기(314)와, 제2 양자화기(315)와, 제2 엔트로피 인코더(316)에 의하여 서브 해상도를 가지는 서브 영상 데이터 스트림이 생성될 수 있다. 이때, 멀티플렉서(317)는 메인 영상 데이터 스트림과 서브 영상 데이터 스트림을 순차적으로 영상 데이터 송신부(140)로 출력할 수 있으며, 영상 데이터 송신부(140)는 메인 영상 데이터 스트림을 제1 통신 채널을 통하여 전송하고, 서브 영상 데이터 스트림을 제2 통신 채널을 통하여 전송할 수 있다.
보정 제어기(313)는 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도 및 복수의 통신 채널들의 상태에 따라 예측 보정기(311), 영상 보정기(312) 및 멀티플렉서(317)의 동작을 제어할 수 있다.
복수의 디스플레이 장치들(200, 200a, 200b) 각각은 영상 처리 장치(100)와 무선으로 연결되면 영상 처리 장치(100)에 복수의 디스플레이 장치들(200, 200a, 200b) 각각에 관한 정보를 전송할 수 있다. 예를 들어, 복수의 디스플레이 장치들(200, 200a, 200b) 각각은 영상 처리 장치(100)로 복수의 디스플레이 장치들(200, 200a, 200b) 각각의 해상도에 관한 정보를 전송할 수 있다.
제어부(130)는 영상 처리 장치(100)와 무선으로 연결된 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도에 관한 정보를 수신하고, 복수의 디스플레이 장치들(200, 200a, 200b) 각각의 해상도가 서로 상이한지를 판단할 수 있다. 또한, 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도 서로 상이하면 제어부(130)는 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도에 따라 메인 해상도와 서브 해상도를 설정할 수 있다.
또한, 영상 데이터 송신부(140)는 복수의 디스플레이 장치들(200, 200a, 200b)과의 통신 상태에 관한 정보(예를 들어, 신호의 수신 세기, 신호의 수신률 등)를 수신하거나, 또한 복수의 디스플레이 장치들(200, 200a, 200b)과의 통신 상태에 관한 정보를 직접 수집할 수 있다. 제어부(130)는 통신 상태에 관한 정보를 기초로 메인 해상도와 서브 해상도를 판단할 수 있다.
보정 제어기(313)는 서브 해상도에 따라 예측 보정기(311)와 영상 보정기(312)의 동작을 제어할 수 있다. 예를 들어, 메인 해상도가 UHD 해상도(3840*2160)이고 서브 해상도가 FHD 해상도(1920*1080)인 경우, 보정 제어기(313)는 변경 블록이 현재 블록의 1/4의 크기를 가지도록 영상 보정기(312)를 제어하고, 제2 예측 블록이 제1 예측 블록의 1/4의 크기를 가지도록 예측 보정기(311)를 제어할 수 있다. 또한, 메인 해상도가 UHD 해상도(3840*2160)이고 서브 해상도가 HD 해상도(1280*720)인 경우, 보정 제어기(313)는 변경 블록이 현재 블록의 1/9의 크기를 가지도록 영상 보정기(312)를 제어하고, 제2 예측 블록이 제1 예측 블록의 1/9의 크기를 가지도록 예측 보정기(311)를 제어할 수 있다.
또한, 보정 제어기(313)는 메인 영상 데이터 스트림과 서브 영상 데이터 스트림을 순차적으로 영상 데이터 송신부(140)로 출력하도록 멀티플렉서(317)를 제어할 수 있다.
이상에서 설명된 바와 같이, 영상 인코더(300)는 메인 해상도를 가지는 메인 영상 데이터 스트림과 서브 해상도를 가지는 서브 영상 데이터 스트림을 생성할 수 있으며, 메인 영상 데이터 스트림과 서브 영상 데이터 스트림을 순차적으로 영상 데이터 송신부(140)로 출력할 수 있다.
구체적으로, 영상 인코더(300)는 인트라 예측 및/또는 인터 예측을 이용하여 예측 정보 및 예측 블록을 생성하고, 예측 블록과 현재 블록을 이용하여 에러 정보를 생성할 수 있다. 영상 인코더(300)는 영상 프레임에 관한 예측 정보와 에러 정보를 메인 영상 데이터 스트림으로 변환할 수 있다. 영상 인코더(300)는 해상도 변경을 위하여 예측 정보 및 예측 블록을 보정하고, 보정된 예측 블록과 보정된 현재 블록을 이용하여 보정된 에러 정보를 생성할 수 있다. 또한, 영상 인코더(300)는 보정된 예측 정보와 보정된 에러 정보를 서브 영상 데이터 스트림으로 변환할 수 있다.
이상에서는 영상 인코더(300)가 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도에 따라 서로 다른 해상도를 가지는 영상 데이터 스트림을 생성하는 것이 설명되었으나, 이에 한정되는 것은 아니다. 예를 들어, 영상 인코더(300)는 복수의 디스플레이 장치들(200, 200a, 200b)의 프레임 레이트에 따라 서로 다른 프레임 레이트를 가지는 영상 데이터 스트림을 생성할 수 있다.
도 10는 일 실시예에 의한 디스플레이 장치의 구성을 도시한다. 도 10와 함께, 복수의 디스플레이 장치들(200, 200a, 200b) 중 디스플레이 장치(200)의 구성이 설명되나, 다른 디스플레이 장치들(200a, 200b)의 구성은 디스플레이 장치(200)와 동일할 수 있다.
도 10를 참조하면, 디스플레이 장치(200)는 사용자로부터 사용자 입력을 수신하는 사용자 입력부(210)와, 영상 처리 장치(100)로부터 영상 데이터 스트림을 수신하는 영상 데이터 수신부(220)와, 영상 데이터 수신부(220)를 통하여 수신된 영상 데이터 스트림을 처리하는 제어부(230)와, 제어부(230)에 의하여 처리된 영상을 표시하는 영상 표시부(240)와, 제어부(230)에 의하여 처리된 음향을 출력하는 음향 출력부(250)를 포함할 수 있다.
사용자 입력부(210)는 사용자 입력을 수신하는 입력 버튼(211)을 포함할 수 있다. 예를 들어, 사용자 입력부(210)는 디스플레이 장치(200)를 턴온 또는 턴오프시키기 위한 전원 버튼, 디스플레이 장치(200)에 표시되는 방송 컨텐츠를 선택하기 위한 채널 선택 버튼, 디스플레이 장치(200)가 출력하는 음향의 볼륨을 조절하기 위한 음향 조절 버튼, 컨텐츠 소스를 선택하기 위한 소스 선택 버튼 등을 포함할 수 있다.
입력 버튼(211)은 각각 사용자 입력을 수신하고 사용자 입력에 대응하는 전기적 신호를 제어부(230)로 출력할 수 있으며, 푸시 스위치, 터치 스위치, 다이얼, 슬라이드 스위치, 토글 스위치 등 다양한 입력 수단에 의하여 구현될 수 있다.
사용자 입력부(210)는 또한 리모트 컨트롤러(212a)의 원격 제어 신호를 수신하는 신호 수신기(212)를 포함한다. 사용자 입력을 수신하는 리모트 컨트롤러(212a)는 디스플레이 장치(200)와 분리되어 마련될 수 있으며, 사용자 입력을 수신하고, 사용자 입력에 대응하는 무선 신호를 디스플레이 장치(200)로 전송할 수 있다. 신호 수신기(212)는 리모트 컨트롤러(212a)로부터 사용자 입력에 대응하는 무선 신호를 수신하고, 사용자 입력에 대응하는 전기적 신호를 제어부(230)로 출력할 수 있다.
영상 데이터 수신부(220)는 영상 처리 장치(100)로부터 전송된 영상 데이터 스트림을 무선으로 수신하는 영상 송수신 모듈(221)을 포함한다.
영상 송수신 모듈(221)은 와이파이, 블루투스, 지그비 등의 무선 통신 표준을 이용하여 영상 처리 장치(100)로부터 전송된 영상 전송 신호를 수신할 수 있다. 구체적으로, 영상 송수신 모듈(221)은 안테나를 통하여 자유 공간으로부터 영상 데이터 스트림을 수신할 수 있다.
영상 송수신 모듈(221)은 제어부(230)의 제어에 따라 디스플레이 장치(200)의 제품 정보(디스플레이 장치의 해상도 등)를 영상 처리 장치(100)로 전송할 수 있으며, 사용자 입력부(210)를 통하여 수신된 사용자 입력에 관한 정보를 영상 처리 장치(100)로 전송할 수 있다.
또한, 영상 송수신 모듈(221)은 영상 처리 장치(100)과의 통신 상태에 관한 정보(예를 들어, 신호의 수신 세기, 신호의 수신률 등)을 수집하고, 통신 상태에 관한 정보를 영상 처리 장치(100)로 전송할 수 있다.
제어부(230)는 영상 데이터 수신부(220)에 의하여 수신된 영상 데이터 스트림을 처리할 수 있다. 예를 들어, 제어부(130)는 압축된/인코딩된 영상 데이터 스트림을 디코딩하여 영상 프레임 데이터와 음향 데이터를 복원하고, 영상 프레임 데이터를 영상 표시부(240)로 출력하고 음향 데이터를 음향 출력부(250)로 출력할 수 있다.
또한, 제어부(230)는 사용자 입력부(210)를 통하여 수신된 사용자 입력에 따라 영상 표시부(240) 및/또는 음향 출력부(250)를 제어하고, 영상 데이터 수신부(220)에 사용자 입력에 관한 정보를 출력할 수 있다. 예를 들어, 컨텐츠 소스의 선택을 위한 사용자 입력이 수신되면, 제어부(230)는 사용자 입력에 관한 정보를 영상 데이터 수신부(220)를 통하여 영상 처리 장치(100)로 전송할 수 있다.
이러한 제어부(230)는 마이크로 프로세서(231)와, 메모리(232)를 포함할 수 있다.
메모리(232)는 영상 데이터 수신부(220)에 의하여 수신된 영상 데이터 스트림을 디코딩하기 위한 프로그램 및 데이터를 저장하고, 영상 데이터 스트림을 디코딩하는 중에 발생하는 임시 영상 데이터를 임시로 기억할 수 있다. 메모리(232)는 또한 디스플레이 장치(200)에 포함된 구성들을 제어하기 위한 프로그램 및 데이터를 저장하고, 디스플레이 장치(200)에 포함된 구성들을 제어하는 중에 발생하는 임시 제어 데이터를 임시로 기억할 수 있다.
메모리(232)는 데이터를 장기간 저장하기 위한 롬, 플래시 메모리 등의 비휘발성 메모리와, 데이터를 일시적으로 기억하기 위한 S-램, D-램 등의 휘발성 메모리를 포함할 수 있다.
마이크로 프로세서(231)는 영상 데이터 수신부(220)로부터 영상 데이터 스트림을 수신할 수 있다. 마이크로 프로세서(231)는 메모리(232)에 저장된 프로그램 및 데이터에 따라 영상 데이터 스트림을 디코딩하고, 영상 프레임 데이터와 음향 데이터를 복원할 수 있다. 마이크로 프로세서(231)는 또한 영상 프레임 데이터를 영상 표시부(240)로 출력하고, 음향 데이터를 음향 출력부(250)로 출력할 수 있다.
마이크로 프로세서(231)는 사용자 입력부(210)로부터 사용자 입력을 수신할 수 있다. 마이크로 프로세서(231)는 사용자 입력에 따라 영상 표시부(240) 및/또는 음향 출력부(250)를 제어하기 위한 제어 신호를 생성할 수 있다. 마이크로 프로세서(231)는 또한 사용자 입력에 관한 정보를 영상 데이터 수신부(220)로 출력할 수 있다.
마이크로 프로세서(231)는 논리 연산 및 산술 연산 등을 수행하는 연산 회로와, 연산된 데이터를 기억하는 기억 회로 등을 포함할 수 있다.
영상 표시부(240)는 영상을 시각적으로 표시하는 디스플레이 패널(242)과, 디스플레이 패널(242)을 구동하는 디스플레이 드라이버(241)를 포함한다.
디스플레이 패널(242)은 영상을 표시하는 단위가 되는 픽셀을 포함할 수 있다. 각각의 픽셀은 디스플레이 드라이버(241)로부터 영상을 나타내는 전기적 신호를 수신하고, 수신된 전기적 신호에 대응하는 광학 신호를 출력할 수 있다. 이처럼, 복수의 픽셀이 출력하는 광학 신호가 조합됨으로써 하나의 영상이 디스플레이 패널(242)에 표시될 수 있다.
예를 들어, 디스플레이 패널(242)에는 복수의 픽셀들이 마련되며, 디스플레이 패널(242)에 표시되는 영상은 복수의 픽셀들로부터 방출된 광의 조합에 의하여 형성될 수 있다. 예를 들어, 복수의 픽셀들이 방출하는 광이 모자이크(mosaic)와 같이 조합됨으로써 디스플레이 패널(242) 상에 하나의 영상이 형성될 수 있다.
복수의 픽셀들 각각은 다양한 밝기 및 다양한 색상의 광을 방출할 수 있다.
다양한 밝기의 광을 방출하기 위하여, 복수의 픽셀들 각각은 직접 광을 방출할 수 있는 구성(예를 들어, 발광 다이오드 또는 유기 발광 다이오드)을 포함하거나 백 라이트 유닛 등에 의하여 방출된 광을 투과하거나 차단할 수 있는 구성(예를 들어, 백 라이트 유닛과 액정 패널)을 포함할 수 있다.
다양한 색상의 광을 방출하기 위하여, 복수의 픽셀들 각각은 서브 픽셀들을 포함할 수 있다. 서브 픽셀들은 적색 광을 방출할 수 있는 적색 서브 픽셀과, 녹색 광을 방출할 수 있는 녹색 서브 픽셀과, 청색 광을 방출할 수 있는 청색 서브 픽셀을 포함할 수 있다. 예를 들어, 적색 서브 픽셀은 파장이 대략 620nm (nanometer, 10억분의 1미터)에서 750nm까지의 적색 광을 방출하고, 녹색 서브 픽셀은 파장이 대략 495nm에서 570nm까지의 녹색 광을 방출하고, 청색 서브 픽셀은 파장이 대략 450nm에서 495nm까지의 청색 광을 방출할 수 있다.
적색 서브 픽셀의 적색 광, 녹색 서브 픽셀의 녹색 광 및 청색 서브 픽셀의 청색 광의 조합에 의하여, 복수의 픽셀들 각각은 다양한 밝기와 다양한 색상의 광을 출사할 수 있다.
디스플레이 패널(242)은 액정 디스플레이 패널(Liquid Crystal Display Panel, LCD Panel), 발광 다이오드 패널(Light Emitting Diode Panel, LED Panel) 또는 유기 발광 다이오드 패널(Organic Light Emitting Diode Panel, OLED Panel)을 등 다양한 타입의 패널에 의하여 구현될 수 있다.
디스플레이 패널(242)은 판 형상에 한정되지 아니하며, 디스플레이 패널(242)은 예를 들어 좌우 양단이 전방으로 돌출되고 중심부가 오목하도록 휘어진 형상일 수 있다.
디스플레이 드라이버(241)는 제어부(230)로부터 영상 데이터를 수신하고, 수신된 영상 데이터에 대응하는 영상을 표시하도록 디스플레이 패널(242)을 구동할 수 있다. 구체적으로, 디스플레이 드라이버(241)는 디스플레이 패널(242)을 구성하는 복수의 픽셀 각각에 영상 데이터에 대응하는 전기적 신호를 전달할 수 있다.
디스플레이 드라이버(241)가 디스플레이 패널(242)을 구성하는 각각의 픽셀에 영상 데이터에 대응하는 전기적 신호를 전달하면 각각의 픽셀은 수신된 전기적 신호에 대응하는 광을 출력하고, 각각의 픽셀이 출력하는 광들이 조합되어 하나의 영상을 형성할 수 있다.
음향 출력부(250)는 음향을 증폭하는 오디오 앰프(251)와, 증폭된 음향을 청각적으로 출력하는 스피커(252)를 포함한다.
제어부(230)는 오디오 신호로부터 디코딩된 음향 데이터를 아날로그 음향 신호로 변환할 수 있으며, 오디오 앰프(251)는 제어부(230)로부터 출력된 아날로그 음향 신호를 증폭할 수 있다.
스피커(252)는 오디오 앰프(251)에 의하여 증폭된 아날로그 음향 신호를 음향(음파)으로 변환할 수 있다. 예를 들어, 스피커(252)는 전기적 음향 신호에 따라 진동하는 박막을 포함할 수 있으며, 박막의 진동에 의하여 음파가 생성될 수 있다.
이상에서 설명된 바와 같이, 디스플레이 장치(200)는 영상 처리 장치(100)로부터 영상 데이터 스트림을 수신하고, 영상 데이터 스트림을 디코딩하여 영상 프레임 데이터를 복원할 수 있다. 또한, 디스플레이 장치(200)는 영상 프레임 데이터에 대응하는 영상을 표시할 수 있다.
도 11는 일 실시예에 의한 디스플레이 장치에 포함된 영상 디코더의 일 예를 도시한다.
앞서 설명된 바와 같이, 제어부(230)는 영상을 표시하기 위하여 영상 데이터 스트림을 디코딩할 수 있는 영상 디코더(400)를 포함할 수 있다. 영상 디코더(400)는 메모리(232)에 저장되고 마이크로 프로세서(231)에 의하여 실행되는 어플리케이션(소프트웨어)로 구현되거나, 마이크로 프로세서(231) 내부에 포함된 디지털 회로(하드웨어)로 구현될 수 있다.
영상 인코더(300)는 다양한 영상 압축 표준을 이용하여 영상 데이터 스트림을 디코딩할 수 있다. 예를 들어, 영상 인코더(300)는 H.264/MPEG-4 AVC, H.265/HEVC 등의 영상 압축 표준을 이용하여 영상 데이터 스트림을 디코딩할 수 있다.
도 11를 참조하면, 영상 디코더(400)는 엔트로피 디코더(401)와, 역양자화기(402)와, 역변환기(403)와, 인트라 예측기(404)와, 인터 예측기(405)와, 영상 보완기(406)와, 디코딩 프레임 버퍼(407)를 포함할 수 있다.
엔트로피 디코더(401)는 영상 데이터 수신부(220)에 의하여 수신된 영상 데이터 스트림을 예측 정보(인트라 예측 정보 또는 인터 예측 정보)와 양자화된 변환 계수로 복호화할 수 있다.
구체적으로, 엔트로피 디코더(401)는 입력된 영상 데이터 스트림에 포함된 특정한 코드를 그에 대응하는 심볼로 복호화할 수 있다. 예를 들어, 짧은 코드는 발생 확률이 높은 심볼로 복호화되고, 긴 코드는 발생 확률이 낮은 심볼로 복호화될 수 있다.
복호화된 심볼 중에 양자화된 변환 계수는 역양자화기(402)로 입력되고, 예측 정보(인트라 예측 정보 또는 인터 예측 정보)는 인트라 예측기(404) 또는 인터 예측기(405)에 입력될 수 있다.
역양자화기(402)는 엔트로피 디코더(401)로부터 출력된 양자화된 변환 계수를 역양자화할 수 있다. 예를 들어, 역양자화기(402)는 양자화 스텝 사이즈를 결정하고, 양지화 스텝 사이즈에 따라 결정된 양자화 매트릭스(또는 양자화 테이블)를 이용하여 양자화된 변환 계수를 역양자화할 수 있으며, 변환 계수를 출력할 수 있다.
역변환기(403)는 변환 계수를 잔차 블록으로 역변환할 수 있다. 예를 들어, 역변환기(403)는 역 이산 코사인 변환(Inverse Discrete Cosine Transform, IDCT)를 이용하여 주파수 도메인의 변환 계수를 타임 도메인의 잔차 블록으로 역변환할 수 있다.
인트라 예측기(404)는 엔트로피 디코더(401)로부터 수신된 인트라 예측 정보를 기초로 현재 블록의 인트라 예측 모드의 인덱스를 복원하고, 인트라 예측 모드에 따라 인트라 예측 블록을 생성할 수 있다.
인터 예측기(405)는 엔트로피 디코더(401)로부터 수신된 인터 예측 정보를 기초로 참조 영상 프레임의 인덱스와 움직임 벡터를 복원하고, 디코딩 프레임 버퍼(407)에 저장된 참조 영상 프레임과 움직임 벡터를 이용하여 인터 예측 블록을 생성할 수 있다.
영상 보완기(406)는 역변환기(403)에 의하여 역변환된 잔차 블록의 픽셀 값과 인트라 예측기(404) 및/또는 인터 예측기(405)의 예측 블록(인트라 예측 블록 또는 인터 예측 블록)의 픽셀 값을 합산할 수 있다. 잔차 블록과 예측 블록의 합산에 의하여 복원 블록(복원된 현재 블록)이 생성될 수 있다.
영상 보완기(406)는 복수의 복원 블록들이 조합하여 영상 프레임 데이터를 복원할 수 있으며, 복원된 영상 프레임 데이터를 영상 표시부(240)로 출력할 수 있다.
영상 보완기(406)는 영상 프레임 데이터의 해상도 및/또는 프레임 레이트를 보완할 수 있다. 예를 들어, 영상 보완기(406)는 영상 보간 기법을 이용하여 영상 프레임 데이터의 해상도를 증가시키거나, 픽셀을 누락시킴으로써 영상 프레임 데이터의 해상도를 감소시킬 수 있다. 또한, 영상 보완기(406)는 프레임 보간 기법을 이용하여 영상 프레임 데이터의 프레임 레이트를 증가시키거나, 프레임을 누락시킴으로써 영상 프레임 데이터의 프레임 레이트를 감소시킬 수 있다.
복원 블록은 디코딩 프레임 버퍼(407)에 저장될 수 있다.
디코딩 프레임 버퍼(407)는 복원 블록들을 저장할 수 있으며, 인터 예측기(405)에 참조 영상 프레임을 제공할 수 있다.
또한, 디코딩 프레임 버퍼(407)는 영상 디코더(400)으로부터 출력되는 영상 프레임을 기준으로 "과거 영상 프레임", "현재 영상 프레임", "미래 영상 프레임"을 저장할 수 있으며, 인터 예측기(405)의 예측 방향(단방향 예측 또는 양방향 예측)에 따라 "과거 영상 프레임" 및/또는 "미래 영상 프레임"을 참조 영상 프레임으로 인터 예측기(405)에 제공할 수 있다.
이상에서 설명된 바와 같이, 영상 디코더(400)는 영상 데이터 수신부(220)에 의하여 수신된 영상 데이터 스트림을 디코딩하여 영상 프레임 데이터를 생성할 수 있다.
이상에서는 영상 처리 장치(100)와 디스플레이 장치(200) 각각의 구성 및 동작이 설명되었다.
이하에서는 영상 처리 장치(100)와 디스플레이 장치(200)를 포함하는 디스플레이 시스템(1)의 동작이 설명된다.
도 12는 일 실시예에 의한 디스플레이 시스템의 제1 영상 표시 방법을 도시한다. 도 13은 도 12에 도시된 제1 영상 표시 방법에 의하여 동일한 해상도를 가지는 복수의 영상을 표시하는 것을 도시한다. 도 14는 도 12에 도시된 제1 영상 표시 방법에 의하여 서로 다른 해상도를 가지는 복수의 영상을 표시하는 것을 도시한다.
도 12, 도 13 및 도 14와 함께, 디스플레이 시스템(1)의 제1 영상 표시 방법(1000)이 설명된다.
영상 처리 장치(100)는 영상 프레임 데이터를 획득한다(1010).
영상 처리 장치(100)는 다양한 컨텐츠 소스들(2~6)로부터 영상 프레임 데이터를 수신하거나, 메모리(232)에 저장된 컨텐츠 데이터로부터 영상 프레임 데이터를 획득할 수 있다.
영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)에 관한 정보를 수집한다(1020).
영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)과 복수의 통신 채널들을 통하여 통신할 수 있으며, 복수의 디스플레이 장치들(200, 200a, 200b)로부터 복수의 디스플레이 장치들(200, 200a, 200b) 각각에 관한 정보를 수신할 수 있다.
예를 들어, 도 13에 도시된 바와 같이 영상 처리 장치(100)는 디스플레이 장치(200) 및 제1 디스플레이 장치(200a)와 제1 및 제2 통신 채널(Ch1, Ch2)을 통하여 통신할 수 있다. 또한, 영상 처리 장치(100)는 디스플레이 장치(200)로부터 디스플레이 장치(200)의 해상도 및 프레임 레이트에 관한 정보를 수신하고, 제1 디스플레이 장치(200a)로부터 제1 디스플레이 장치(200a)의 해상도 및 프레임 레이트에 관한 정보를 수신할 수 있다.
또한, 도 14에 도시된 바와 같이 영상 처리 장치(100)는 디스플레이 장치(200) 및 제2 디스플레이 장치(200b)와 무선으로 통신할 수 있으며, 디스플레이 장치(200)의 해상도 및 프레임 레이트에 관한 정보와 제2 디스플레이 장치(200b)의 해상도 및 프레임 레이트에 관한 정보를 수신할 수 있다.
영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도 및 프레임 레이트가 동일한지를 판단한다(1030).
영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)에 관한 정보로부터 복수의 디스플레이 장치들(200, 200a, 200b) 각각의 해상도 및 프레임 레이트를 추출할 수 있다. 또한, 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도 및 프레임 레이트를 서로 비교하고, 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도 및 프레임 레이트가 서로 동일한지를 판단할 수 있다.
예를 들어, 영상 처리 장치(100)는 디스플레이 장치(200)의 해상도 및 프레임 레이트와 제1 디스플레이 장치(200a)의 해상도 및 프레임 레이트가 서로 동일한지를 판단하거나, 디스플레이 장치(200)의 해상도 및 프레임 레이트와 제2 디스플레이 장치(200b)의 해상도 및 프레임 레이트가 서로 동일한지를 판단할 수 있다.
복수의 디스플레이 장치들(200, 200a, 200b)의 해상도 및 프레임 레이트가 동일하면(1030의 예), 영상 처리 장치(100)는 동일한 해상도와 동일한 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 생성한다(1040).
복수의 디스플레이 장치들(200, 200a, 200b)이 동일한 해상도와 동일한 프레임 레이트를 가지면, 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)의 공통되는 해상도와 프레임 레이트를 가지는 영상 데이터 스트림을 생성할 수 있다.
예를 들어, 도 13에 도시된 바와 같이 영상 처리 장치(100)가 제1 해상도와 제1 프레임 레이트를 가지는 디스플레이 장치(200) 및 제1 디스플레이 장치(200a)와 연결되면, 영상 처리 장치(100)는 영상 프레임 데이터로부터 제1 해상도와 제1 프레임 레이트를 가지는 영상 데이터 스트림을 생성할 수 있다.
구체적으로, 영상 처리 장치(100)의 영상 인코더(300)는 영상 프레임을 복수의 블록으로 구획할 수 있다. 영상 인코더(300)의 인트라 예측기(301)는 현재 블록이 포함되는 영상 프레임의 복원된 픽셀들을 이용하여 제1 인트라 예측 정보와 제1 인트라 예측 블록을 생성할 수 있다. 인터 예측기(302)는 참조 영상 프레임들을 이용하여 현재 블록 내 움직임을 추정하고, 움직임 예측을 위한 참조 영상 프레임의 인덱스와 움직임 벡터를 포함하는 제1 인터 예측 정보와 제2 인터 예측 블록을 생성할 수 있다. 모드 선택기(303)는 인트라 예측기(301)로부터 출력된 제1 인트라 예측 블록과 인터 예측기(302)로부터 출력된 제1 인터 예측 블록 중 어느 하나를 선택할 수 있다. 제1 변환기(304)는 모드 선택기(303)으로부터 출력된 제1 예측 블록과 현재 영상 프레임의 현재 블록의 차이를 산출하여 제1 잔차 블록을 생성할 수 있다. 또한, 제1 변환기(304)는 타임 도메인의 제1 잔차 블록을 주파수 도메인으로 변환하고, 제1 잔차 블록의 제1 변환 계수를 출력할 수 있다. 제1 양자화기(305)는 제1 변환기(304)로부터 출력된 제1 잔차 블록의 제1 변환 계수를 양자화할 수 있다. 제1 엔트로피 인코더(306)는 제1 예측 정보와 제1 변환 계수를 엔트로피 부호화하여, 제1 영상 데이터 스트림을 생성할 수 있다.
또한, 영상 인코더(300)의 보정 제어기(313)는 예측 보정기(311)와 영상 보정기(312)와 제2 변환기(314)와 제2 양자화기(315)와 제2 엔트로피 인코더(316)를 비활성화할 수 있으며, 제1 영상 데이터 스트림을 출력하도록 멀티플렉서(317)를 제어할 수 있다.
영상 처리 장치(100)는 동일한 해상도와 동일한 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 복수의 디스플레이 장치들(200, 200a, 200b)에 각각 전송한다(1050).
영상 처리 장치(100)는 영상 데이터 송신부(140)를 통하여 복수의 디스플레이 장치들(200, 200a, 200b) 각각에 동일한 해상도와 동일한 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 서로 다른 통신 채널(Ch1, Ch2)을 통하여 전송할 수 있다.
예를 들어, 영상 처리 장치(100)는 제1 통신 채널(Ch1)을 통하여 디스플레이 장치(200)로 제1 해상도와 제1 프레임 레이트를 가지는 영상 데이터 스트림을 전송하고, 제2 통신 채널(Ch2)을 통하여 제1 디스플레이 장치(200a)로 제1 해상도와 제1 프레임 레이트를 가지는 제1 영상 데이터 스트림을 전송할 수 있다.
복수의 디스플레이 장치들(200, 200a, 200b)은 동일한 해상도를 가지는 영상을 동일한 프레임 레이트로 표시한다(1060).
복수의 디스플레이 장치들(200, 200a, 200b)은 각각 영상 데이터 수신부(220)를 통하여 동일한 해상도와 동일한 프레임 레이트를 가지는 영상 데이터 스트림을 수신하고, 영상 데이터 스트림을 디코딩하여 동일한 해상도와 동일한 프레임 레이트를 가지는 영상 프레임 데이터를 생성할 수 있다.
또한, 복수의 디스플레이 장치들(200, 200a, 200b)은 동일한 해상도와 동일한 프레임 레이트를 가지는 영상 프레임 데이터에 의하여 동일한 해상도를 가지는 영상을 동일한 프레임 레이트로 표시할 수 있다. 예를 들어, 디스플레이 장치(200)와 제1 디스플레이 장치(200a)는 모두 제1 해상도를 가지는 영상을 제1 프레임 레이트로 표시할 수 있다.
복수의 디스플레이 장치들(200, 200a, 200b)의 해상도 또는 프레임 레이트가 상이하면(1030의 아니오), 영상 처리 장치(100)는 서로 다른 해상도 또는 서로 다른 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 생성한다(1070).
복수의 디스플레이 장치들(200, 200a, 200b)이 서로 다른 해상도를 갖거나 서로 다른 프레임 레이트를 가지면, 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도 및 프레임 레이트에 따라 서로 다른 해상도 또는 서로 다른 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 생성할 수 있다.
예를 들어, 도 14에 도시된 바와 같이 영상 처리 장치(100)가 제1 해상도와 제1 프레임 레이트를 가지는 디스플레이 장치(200) 및 제2 해상도와 제2 프레임 레이트를 가지는 제2 디스플레이 장치(200b)와 연결되면, 영상 처리 장치(100)는 영상 프레임 데이터로부터 제1 해상도와 제1 프레임 레이트를 가지는 제1 영상 데이터 스트림과 제2 해상도와 제2 프레임 레이트를 가지는 제2 영상 데이터 스트림을 생성할 수 있다.
구체적으로, 영상 인코더(300)는 인트라 예측기(301)와 인터 예측기(302)와 제1 변환기(304)와 제1 양자화기(305)와 영상 복원기(307)와 인코딩 프레임 버퍼(308)와 제1 엔트로피 인코더(306)에 의하여 인코딩된 제1 영상 데이터 스트림을 생성할 수 있다.
또한, 영상 인코더(300)의 예측 보정기(311)는 영상 프레임의 해상도를 변경하기 위하여 모드 선택기(303)로부터 출력된 제1 인트라 예측 정보 및/또는 제1 인터 예측 정보를 보정하여, 제2 예측 정보를 생성할 수 있다. 또한, 예측 보정기(311)는 제2 예측 정보로부터 제2 예측 블록을 생성할 수 있다. 영상 보정기(312)는 인코더에 입력된 영상 프레임의 해상도를 변경하거나, 영상 프레임의 현재 블록의 해상도를 변경할 수 있다. 제2 변환기(314)는 예측 보정기(311)로부터 출력된 제2 예측 블록과 영상 보정기(312)로부터 출력된 변경 블록 사이의 차이를 산출하여, 제2 잔차 블록을 생성할 수 있다. 또한, 제2 변환기(314)는 제2 잔차 블록을 주파수 도메인으로 변환하고, 제2 잔차 블록의 제2 변환 계수를 출력할 수 있다. 제2 양자화기(315)는 제2 변환기(314)로부터 출력된 제2 잔차 블록의 제2 변환 계수를 양자화할 수 있다. 제2 엔트로피 인코더(316)는 제2 변환 계수와 제2 예측 정보를 엔트로피 부호화하여, 제2 영상 데이터 스트림을 생성할 수 있다. 또한, 멀티플렉서(317)는 제1 영상 데이터 스트림과 제2 영상 데이터 스트림을 순차적으로 출력할 수 있다.
이와 같은 방식으로 영상 인코더(300)는 제1 해상도와 제1 프레임 레이트를 가지는 제2 영상 데이터 스트림과 제2 해상도와 제2 프레임 레이트를 가지는 제2 영상 데이터 스트림을 생성할 수 있다.
영상 처리 장치(100)는 서로 다른 해상도 또는 서로 다른 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 복수의 디스플레이 장치들(200, 200a, 200b)에 각각 전송한다(1080).
영상 처리 장치(100)는 영상 데이터 송신부(140)를 통하여 복수의 디스플레이 장치들(200, 200a, 200b) 각각에 서로 다른 해상도 또는 서로 다른 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 서로 다른 통신 채널(Ch1, Ch2)을 통하여 전송할 수 있다.
예를 들어, 영상 처리 장치(100)는 제1 통신 채널(Ch1)을 통하여 디스플레이 장치(200)로 제1 해상도와 제1 프레임 레이트를 가지는 제1 영상 데이터 스트림을 전송하고, 제2 통신 채널(Ch2)을 통하여 제2 디스플레이 장치(200b)로 제2 해상도와 제2 프레임 레이트를 가지는 제2 영상 데이터 스트림을 전송할 수 있다.
복수의 디스플레이 장치들(200, 200a, 200b)은 서로 다른 해상도를 가지는 영상을 서로 다른 프레임 레이트로 표시한다(1090).
복수의 디스플레이 장치들(200, 200a, 200b)은 각각 영상 데이터 수신부(220)를 통하여 서로 다른 해상도 또는 서로 다른 프레임 레이트를 가지는 영상 데이터 스트림을 수신하고, 영상 데이터 스트림을 디코딩하여 서로 다른 해상도 또는 서로 다른 프레임 레이트를 가지는 영상 프레임 데이터를 생성할 수 있다.
또한, 복수의 디스플레이 장치들(200, 200a, 200b)은 서로 다른 해상도 또는 서로 다른 프레임 레이트를 가지는 영상 프레임 데이터에 의하여 서로 다른 해상도를 가지는 영상을 서로 다른 프레임 레이트로 표시할 수 있다. 예를 들어, 디스플레이 장치(200)는 제1 해상도를 가지는 영상을 제1 프레임 레이트로 표시하고, 제2 디스플레이 장치(200b)는 제2 해상도를 가지는 영상을 제2 프레임 레이트로 표시할 수 있다.
이상에서 설명된 바와 같이, 영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도 및/또는 프레임 레이트에 따라 서로 다른 해상도 및/또는 서로 다른 프레임 레이트를 가지는 영상 데이터 스트림을 생성하고, 복수의 디스플레이 장치들(200, 200a, 200b) 각각에 서로 다른 해상도 및/또는 서로 다른 프레임 레이트를 가지는 영상 데이터 스트림을 전송할 수 있다.
그 결과, 영상 처리 장치(100)는 무선 통신망의 통신 채널(Ch1, Ch2)을 효율적으로 이용할 수 있다.
예를 들어, 영상 처리 장치(100)가 서로 다른 해상도를 가지는 복수의 디스플레이 장치들(200, 200a, 200b)에 동일한 해상도를 가지는 나타내는 영상 데이터 스트림을 전송하는 경우, 디스플레이 시스템(1)은 무선 통신망의 통신 채널(Ch1, Ch2)을 효율적으로 이용하지 못하게 된다. 영상 처리 장치(100)는 제1 및 제2 통신 채널(Ch1, Ch2)을 통하여 제1 해상도를 가지는 디스플레이 장치(200)와 제2 해상도를 가지는 제2 디스플레이 장치(200b)에 제1 해상도를 가지는 영상 데이터 스트림을 전송할 수 있다. 이때, 제2디스플레이 장치(200)는 재현 가능한 해상도보다 높은 해상도를 가지는 영상 데이터 스트림을 수신하고, 영상의 해상도를 감소시켜 표시할 수 있다. 따라서, 디스플레이 시스템(1)은 제2 통신 채널(Ch2)의 자원을 비효율적으로 이용하게 된다.
반면, 영상 처리 장치(100)가 복수의 디스플레이 장치들(200, 200a, 200b)의 해상도에 따라 다른 해상도를 가지는 영상 데이터 스트림을 전송하는 경우, 영상 처리 장치(100)는 제1 및 제2 통신 채널(Ch1, Ch2)을 이용하여 디스플레이 장치(200)와 제2 디스플레이 장치(200b) 각각으로 제1 및 제2 해상도를 가지는 영상 데이터 스트림을 전송할 수 있다. 따라서, 디스플레이 시스템(1)은 제1 통신 채널(Ch1) 뿐만 아니라 제2 통신 채널(Ch2)을 효율적으로 이용할 수 있다.
도 15는 일 실시예에 의한 디스플레이 시스템의 제2 영상 표시 방법을 도시한다. 도 16은 도 15에 도시된 제2 영상 표시 방법에 의하여 서로 다른 해상도를 가지는 복수의 영상을 표시하는 것을 도시한다.
도 15 및 도 16와 함께, 디스플레이 시스템(1)의 제2 영상 표시 방법(1100)이 설명된다.
영상 처리 장치(100)는 영상 프레임 데이터를 획득한다(1110).
동작 1110은 도 12에 도시된 동작 1010과 동일할 수 있다.
영상 처리 장치(100)는 복수의 통신 채널들(Ch1, Ch2)에 관한 정보를 수집한다(1120).
영상 처리 장치(100)는 복수의 디스플레이 장치들(200, 200a, 200b)과 복수의 통신 채널들(Ch1, Ch2)을 통하여 통신할 수 있으며, 복수의 디스플레이 장치들(200, 200a, 200b)로부터 복수의 통신 채널들(Ch1, Ch2)의 상태 정보를 수신하거나 직접 복수의 통신 채널들(Ch1, Ch2)의 상태 정보를 수집할 수 있다. 통신 채널의 상태 정보는 통신 채널의 데이터 전송률 등을 포함할 수 있다.
예를 들어, 도 16에 도시된 바와 같이 영상 처리 장치(100)는 디스플레이 장치(200) 및 제1 디스플레이 장치(200a)와 제1 및 제2 통신 채널(Ch1, Ch2)을 통하여 통신할 수 있다. 영상 처리 장치(100)는 디스플레이 장치(200)로부터 제1 통신 채널(Ch1)의 데이터 전송률을 수신하거나 디스플레이 장치(200)과의 통신 중에 제1 통신 채널(Ch1)의 데이터 전송률을 측정할 수 있다. 또한, 영상 처리 장치(100)는 제1 디스플레이 장치(200a)로부터 제2 통신 채널(Ch2)의 데이터 전송률을 수신하거나 디스플레이 장치(200)과의 통신 중에 제2 통신 채널(Ch2)의 데이터 전송률을 측정할 수 있다.
영상 처리 장치(100)는 복수의 통신 채널들(Ch1, Ch2)의 데이터 전송률이 동일한지를 판단한다(1130).
영상 처리 장치(100)는 복수의 통신 채널들(Ch1, Ch2)에 관한 정보로부터 복수의 통신 채널들(Ch1, Ch2) 각각의 데이터 전송률을 추출할 수 있다. 또한, 영상 처리 장치(100)는 복수의 통신 채널들(Ch1, Ch2)의 데이터 전송률을 서로 비교하고, 복수의 통신 채널들(Ch1, Ch2)의 데이터 전송률이 서로 동일한지를 판단할 수 있다.
복수의 통신 채널들(Ch1, Ch2)의 데이터 전송률이 동일하면(1130의 예), 영상 처리 장치(100)는 동일한 해상도와 동일한 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 생성한다(1140).
복수의 통신 채널들(Ch1, Ch2)의 데이터 전송률이 동일하면, 영상 처리 장치(100)는 복수의 통신 채널들(Ch1, Ch2)의 데이터 전송률에 따라 공통의 해상도와 프레임 레이트를 판단하고, 공통의 해상도와 프레임 레이트를 가지는 영상 데이터 스트림을 생성할 수 있다.
동작 1140에 의하여 영상 데이터 스트림을 생성하는 것은 도 12에 도시된 동작 1040에 의하여 영상 데이터 스트림을 생성하는 것과 동일할 수 있다.
영상 처리 장치(100)는 동일한 해상도와 동일한 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 복수의 디스플레이 장치들(200, 200a, 200b)에 각각 전송하고(1150), 복수의 디스플레이 장치들(200, 200a, 200b)은 동일한 해상도를 가지는 영상을 동일한 프레임 레이트로 표시한다(1160).
동작 1150 및 동작 1160은 각각 도 12에 도시된 동작 1050 및 동작 1060과 동일할 수 있다.
복수의 통신 채널들(Ch1, Ch2)의 데이터 전송률이 상이하면(1130의 아니오), 영상 처리 장치(100)는 서로 다른 해상도 또는 서로 다른 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 생성한다(1170).
복수의 통신 채널들(Ch1, Ch2)의 데이터 전송률이 상이하면, 영상 처리 장치(100)는 복수 통신 채널들(Ch1, Ch2)의 서로 다른 데이터 전송률 각각에 따라 서로 다른 해상도 및/또는 서로 다른 프레임 레이트를 판단할 수 있다. 또한, 영상 처리 장치(100)는 영상 처리 장치(100)는 서로 다른 해상도 또는 서로 다른 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 생성할 수 있다.
예를 들어, 도 16에 도시된 바와 같이 영상 처리 장치(100)는 제1 통신 채널(Ch1)의 데이터 전송률에 대응하는 제1 해상도와 제1 프레임 레이트를 가지는 제1 영상 데이터 스트림과 제2 통신 채널(Ch2)의 데이터 전송률에 대응하는 제2 해상도와 제2 프레임 레이트를 가지는 제2 영상 데이터 스트림을 생성할 수 있다.
동작 1170에 의한 제1 및 제2 영상 데이터 스트림을 생성하는 것은 도 12에 도시된 동작 1070에 의한 1 및 제2 영상 데이터 스트림을 생성하는 것과 동일할 수 있다.
영상 처리 장치(100)는 서로 다른 해상도 또는 서로 다른 프레임 레이트를 가지는 복수의 영상 데이터 스트림을 복수의 디스플레이 장치들(200, 200a, 200b)에 각각 전송하고(1180), 복수의 디스플레이 장치들(200, 200a, 200b)은 서로 다른 해상도를 가지는 영상을 서로 다른 프레임 레이트로 표시한다(1190).
동작 1180 및 동작 1190은 각각 도 12에 도시된 동작 1080 및 동작 1090과 동일할 수 있다.
이상에서 설명된 바와 같이, 영상 처리 장치(100)는 복수의 통신 채널들(Ch1, Ch2)의 데이터 전송률에 따라 서로 다른 해상도 및/또는 서로 다른 프레임 레이트를 가지는 영상 데이터 스트림을 생성하고, 복수의 디스플레이 장치들(200, 200a, 200b) 각각에 서로 다른 해상도 및/또는 서로 다른 프레임 레이트를 가지는 영상 데이터 스트림을 전송할 수 있다.
그 결과, 영상 처리 장치(100)는 영상 데이터의 누락 없이 영상 데이터 스트림을 복수의 디스플레이 장치들(200, 200a, 200b)로 전송할 수 있으며, 복수의 디스플레이 장치들(200, 200a, 200b)은 끊김 없이 영상을 표시할 수 있다.
예를 들어, 영상 처리 장치(100)가 서로 다른 데이터 전송률을 가지는 복수의 통신 채널(Ch1, Ch2)을 통하여 복수의 디스플레이 장치들(200, 200a, 200b)에 동일한 해상도를 가지는 나타내는 영상 데이터 스트림을 전송하는 경우, 복수의 디스플레이 장치들(200, 200a, 200b) 중 적어도 하나에서는 영상의 끊김이 발생하거나 디스플레이 시스템(1)은 무선 통신망의 통신 채널(Ch1, Ch2)을 효율적으로 이용하지 못하게 된다. 영상 처리 장치(100)가 서로 다른 데이터 전송률을 가지는 제1 및 제2 통신 채널(Ch1, Ch2)을 통하여 디스플레이 장치(200)와 제1 디스플레이 장치(200a)에 동일한 영상 데이터 스트림을 전송할 수 있다. 제1 통신 채널(Ch1)의 데이터 전송률이 제2 통신 채널(Ch2)의 데이터 전송률보다 크면, 영상 데이터 스트림의 최소 요구 전송률에 따라 제2 통신 채널(Ch2)을 통하여 영상 데이터 스트림을 수신하는 제1 디스플레이 장치(200a)에서 영상 끊김이 발생하거나 디스플레이 장치(200)는 제1 통신 채널(Ch1)의 자원을 비효율적으로 이용하게 된다.
반면, 영상 처리 장치(100)가 1 및 제2 통신 채널(Ch1, Ch2)의 데이터 전송률에 따라 다른 해상도를 가지는 영상 데이터 스트림을 전송하는 경우, 복수의 디스플레이 장치들(200, 200a, 200b)에서 영상 끊김이 발생하지 아니하며 디스플레이 시스템(1)은 제1 및 제2 통신 채널(Ch1, Ch2)을 효율적으로 이용할 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 게시된 실시예가 속하는 기술분야에서 통상의 지식을 가진 자는 게시된 실시예의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.
1: 디스플레이 시스템 100: 영상 처리 장치
110: 컨텐츠 수신부 111: 수신 단자
112: 튜너 120: 컨텐츠 통신부
121: 유선 통신 모듈 122: 무선 통신 모듈
130: 제어부 131: 마이크로 프로세서
132: 메모리 140: 영상 데이터 송신부
141: 영상 송수신 모듈 200: 디스플레이 장치
200a: 제1 디스플레이 장치 200b: 제2 디스플레이 장치
210: 사용자 입력부 211: 입력 버튼
212: 신호 수신기 212a: 리모트 컨트롤러
220: 영상 데이터 수신부 221: 영상 송수신 모듈
230: 제어부 231: 마이크로 프로세서
232: 메모리 240: 영상 표시부
241: 디스플레이 드라이버 242: 디스플레이 패널
250: 음향 출력부 251: 오디오 앰프
252: 스피커 300: 영상 인코더
301: 인트라 예측기 302: 인터 예측기
303: 모드 선택기 304: 제1 변환기
305: 제1 양자화기 306: 제1 엔트로피 인코더
307: 영상 복원기 308: 인코딩 프레임 버퍼
311: 예측 보정기 312: 영상 보정기
313: 보정 제어기 314: 제2 변환기
315: 제2 양자화기 316: 제2 엔트로피 인코더
400: 영상 디코더 401: 엔트로피 디코더
402: 역양자화기 403: 역변환기
404: 인트라 예측기 405: 인터 예측기
406: 영상 보완기 407: 디코딩 프레임 버퍼

Claims (20)

  1. 복수의 디스플레이 장치들과 통신하고, 상기 복수의 디스플레이 장치들의 해상도에 관한 정보를 수신하는 통신부;
    영상 프레임을 상기 복수의 디스플레이 장치들의 해상도에 따라 서로 다른 해상도를 가지는 복수의 영상 데이터로 인코딩하고, 상기 서로 다른 해상도를 가지는 복수의 영상 데이터를 상기 복수의 디스플레이 장치들 각각으로 전송하도록 상기 통신부를 제어하는 제어부를 포함하는 영상 처리 장치.
  2. 제1항에 있어서,
    상기 제어부는 제1 해상도의 영상 프레임을 복수의 블록으로 구획하고, 복수의 블록 중 처리 블록을 복원하기 위한 제1 복원 예측 정보를 생성하고, 상기 제1 해상도에 대응하는 제1 복원 예측 정보를 제2 해상도에 대응하는 제2 복원 예측 정보로 보정하고, 상기 제1 복원 예측 정보를 포함하는 제1 영상 데이터와 상기 제2 복원 예측 정보를 포함하는 제2 영상 데이터를 복수의 디스플레이 장치들 각각으로 전송하도록 상기 통신부를 제어하는 영상 처리 장치.
  3. 제2항에 있어서,
    상기 제1 영상 데이터는 상기 제1 복원 예측 정보를 기초로 복원된 복원 블록과 상기 처리 블록 사이의 차이를 나타내는 제1 복원 에러 정보를 더 포함하고,
    상기 제2 영상 데이터는 상기 제2 복원 예측 정보를 기초로 복원된 복원 블록과 상기 처리 블록 사이의 차이를 나타내는 제2 복원 에러 정보를 더 포함하는 영상 처리 장치.
  4. 제2항에 있어서,
    상기 제어부는 상기 제1 해상도의 영상 프레임 내에서 상기 처리 블록을 예측하기 위한 제1 인트라 예측 정보와 영상 프레임들 사이의 움직임 벡터를 기초로 상기 처리 블록을 예측하기 위한 제1 인터 예측 정보 중 어느 하나를 상기 제1 예측 정보로 생성하는 영상 처리 장치.
  5. 제4항에 있어서,
    상기 제어부는 상기 제1 해상도와 상기 제2 해상도의 비율을 기초로 상기 제1 인트라 예측 정보의 보정함으로써 제2 복원 예측 정보를 생성하는 영상 처리 장치.
  6. 제4항에 있어서,
    상기 제어부는 상기 제1 해상도와 상기 제2 해상도의 비율을 기초로 상기 움직임 벡터의 크기를 조절함으로서 제2 예측 정보를 생성하는 영상 처리 장치.
  7. 제1항에 있어서,
    상기 제어부는 복수의 통신 채널을 통하여 상기 복수의 디스플레이 장치들로 복수의 영상 데이터를 전송하도록 상기 통신부를 제어하는 영상 처리 장치.
  8. 제7항에 있어서,
    상기 제어부는 상기 복수의 디스플레이 장치들로부터 상기 복수의 통신 채널의 데이터 전송률에 관한 정보를 수신하고, 상기 영상 프레임을 상기 복수의 통신 채널의 데이터 전송률에 따라 서로 다른 해상도를 가지는 복수의 영상 데이터로 인코딩하고, 상기 서로 다른 해상도를 가지는 복수의 영상 데이터를 상기 복수의 디스플레이 장치들 각각으로 전송하도록 상기 통신부를 제어하는 영상 처리 장치.
  9. 복수의 디스플레이 장치들로부터 상기 복수의 디스플레이 장치들의 해상도에 관한 정보를 수신하고;
    영상 프레임을 상기 복수의 디스플레이 장치들의 해상도에 따라 서로 다른 해상도를 가지는 복수의 영상 데이터로 인코딩하고;
    상기 서로 다른 해상도를 가지는 복수의 영상 데이터를 상기 복수의 디스플레이 장치들 각각으로 전송하는 것을 포함하는 영상 처리 방법.
  10. 제9항에 있어서,
    상기 영상 프레임을 상기 서로 다른 해상도의 복수의 영상 데이터로 인코딩하는 것은,
    제1 해상도의 영상 프레임을 복수의 블록으로 구획하고;
    복수의 블록 중 처리 블록을 복원하기 위한 제1 복원 예측 정보를 생성하고;
    상기 제1 해상도에 대응하는 제1 복원 예측 정보를 제2 해상도에 대응하는 제2 복원 예측 정보로 보정하고;
    상기 제1 복원 예측 정보를 포함하는 제1 영상 데이터와 상기 제2 복원 예측 정보를 포함하는 제2 영상 데이터를 생성하는 것을 포함하는 영상 처리 방법.
  11. 제10항에 있어서,
    상기 제1 영상 데이터는 상기 제1 복원 예측 정보를 기초로 복원된 복원 블록과 상기 처리 블록 사이의 차이를 나타내는 제1 복원 에러 정보를 더 포함하고,
    상기 제2 영상 데이터는 상기 제2 복원 예측 정보를 기초로 복원된 복원 블록과 상기 처리 블록 사이의 차이를 나타내는 제2 복원 에러 정보를 더 포함하는 영상 처리 방법.
  12. 제10항에 있어서,
    상기 복수의 블록 중 처리 블록을 복원하기 위한 제1 복원 예측 정보를 생성하는 것은,
    상기 제1 해상도의 영상 프레임 내에서 상기 처리 블록을 예측하기 위한 제1 인트라 예측 정보와 영상 프레임들 사이의 움직임 벡터를 기초로 상기 처리 블록을 예측하기 위한 제1 인터 예측 정보 중 어느 하나를 상기 제1 예측 정보로 생성하는 것을 포함하는 영상 처리 방법.
  13. 제12항에 있어서,
    상기 제1 해상도에 대응하는 제1 복원 예측 정보를 제2 해상도에 대응하는 제2 복원 예측 정보로 보정하는 것은,
    상기 제1 해상도와 상기 제2 해상도의 비율을 기초로 상기 제1 인트라 예측 정보의 보정함으로써 제2 복원 예측 정보를 생성하는 것을 포함하는 영상 처리 방법.
  14. 제12항에 있어서,
    상기 제1 해상도에 대응하는 제1 복원 예측 정보를 제2 해상도에 대응하는 제2 복원 예측 정보로 보정하는 것은,
    상기 제1 해상도와 상기 제2 해상도의 비율을 기초로 상기 움직임 벡터의 크기를 조절함으로서 제2 예측 정보를 생성하는 것을 포함하는 영상 처리 방법.
  15. 제9항에 있어서,
    복수의 통신 채널의 데이터 전송률에 관한 정보를 수집하고;
    상기 영상 프레임을 상기 복수의 통신 채널의 데이터 전송률에 따라 서로 다른 해상도를 가지는 복수의 영상 데이터로 인코딩하고;
    상기 서로 다른 해상도를 가지는 복수의 영상 데이터를 상기 복수의 통신 채널을 통하여 상기 복수의 디스플레이 장치들 각각으로 전송하는 것을 더 포함하는 영상 처리 방법.
  16. 서로 다른 해상도를 가지는 복수의 디스플레이 장치들;
    복수의 영상 데이터를 상기 복수의 디스플레이 장치들 각각으로 전송하는 영상 처리 장치를 포함하고,
    상기 영상 처리 장치는 상기 복수의 디스플레이 장치들의 해상도에 관한 정보를 수신하는 통신부와, 영상 프레임을 상기 복수의 디스플레이 장치들의 해상도에 따라 서로 다른 해상도를 가지는 복수의 영상 데이터로 인코딩하고 상기 서로 다른 해상도를 가지는 복수의 영상 데이터를 상기 복수의 디스플레이 장치들 각각으로 전송하도록 상기 통신부를 제어하는 제어부를 포함하고,
    상기 복수의 디스플레이 장치들 각각은 상기 서로 다른 해상도를 복수의 영상 데이터를 기초로 서로 다른 해상도를 가지는 영상을 표시하는 디스플레이 시스템.
  17. 제16항에 있어서,
    상기 제어부는 제1 해상도의 영상 프레임을 복수의 블록으로 구획하고, 복수의 블록 중 처리 블록을 복원하기 위한 제1 복원 예측 정보를 생성하고, 상기 제1 해상도에 대응하는 제1 복원 예측 정보를 제2 해상도에 대응하는 제2 복원 예측 정보로 보정하고, 상기 제1 복원 예측 정보를 포함하는 제1 영상 데이터와 상기 제2 복원 예측 정보를 포함하는 제2 영상 데이터를 복수의 디스플레이 장치들 각각으로 전송하도록 상기 통신부를 제어하는 디스플레이 시스템.
  18. 제17항에 있어서,
    상기 제1 영상 데이터는 상기 제1 복원 예측 정보를 기초로 복원된 복원 블록과 상기 처리 블록 사이의 차이를 나타내는 제1 복원 에러 정보를 더 포함하고,
    상기 제2 영상 데이터는 상기 제2 복원 예측 정보를 기초로 복원된 복원 블록과 상기 처리 블록 사이의 차이를 나타내는 제2 복원 에러 정보를 더 포함하는 디스플레이 시스템.
  19. 제17항에 있어서,
    상기 제어부는 상기 제1 해상도의 영상 프레임 내에서 상기 처리 블록을 예측하기 위한 제1 인트라 예측 정보와 영상 프레임들 사이의 움직임 벡터를 기초로 상기 처리 블록을 예측하기 위한 제1 인터 예측 정보 중 어느 하나를 상기 제1 예측 정보로 생성하는 디스플레이 시스템.
  20. 제19항에 있어서,
    상기 제어부는 상기 제1 해상도와 상기 제2 해상도의 비율을 기초로 상기 제1 인트라 예측 정보의 보정함으로써 제2 복원 예측 정보를 생성하거나, 상기 제1 해상도와 상기 제2 해상도의 비율을 기초로 상기 움직임 벡터의 크기를 조절함으로서 제2 예측 정보를 생성하는 디스플레이 시스템.
KR1020170150385A 2017-11-13 2017-11-13 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템 KR20190054288A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170150385A KR20190054288A (ko) 2017-11-13 2017-11-13 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템
PCT/KR2018/013584 WO2019093801A1 (ko) 2017-11-13 2018-11-09 영상 처리 장치 및 영상 처리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170150385A KR20190054288A (ko) 2017-11-13 2017-11-13 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템

Publications (1)

Publication Number Publication Date
KR20190054288A true KR20190054288A (ko) 2019-05-22

Family

ID=66438520

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170150385A KR20190054288A (ko) 2017-11-13 2017-11-13 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템

Country Status (2)

Country Link
KR (1) KR20190054288A (ko)
WO (1) WO2019093801A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11570479B2 (en) 2020-04-24 2023-01-31 Samsung Electronics Co., Ltd. Camera module, image processing device and image compression method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100583981C (zh) * 2001-11-10 2010-01-20 汤姆森许可公司 为移动手持设备录制并播放视频节目的系统和方法
RU2011117298A (ru) * 2008-09-29 2012-11-10 Мэньюфэкчеринг Ресорсиз Инетрнэшнл, Инк. (Us) Система для обеспечения изменяющегося контента на множество дисплеев с использованием одного проигрывателя
KR20120124829A (ko) * 2011-05-04 2012-11-14 엘지전자 주식회사 Av 스트림의 송수신 방법, 그를 이용한 송신 장치 및 수신 장치
US9628796B2 (en) * 2014-05-15 2017-04-18 Qualcomm Incorporated System and method to optimize video performance in wireless-dock with ultra-high definition display
US10349127B2 (en) * 2015-06-01 2019-07-09 Disney Enterprises, Inc. Methods for creating and distributing art-directable continuous dynamic range video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11570479B2 (en) 2020-04-24 2023-01-31 Samsung Electronics Co., Ltd. Camera module, image processing device and image compression method

Also Published As

Publication number Publication date
WO2019093801A1 (ko) 2019-05-16

Similar Documents

Publication Publication Date Title
US11196995B2 (en) Image processing device and image processing method
US11245932B2 (en) Encoding method and apparatus and decoding method and apparatus
KR102393150B1 (ko) 화상 처리 장치 및 방법
US20200029075A1 (en) Image processing device and image processing method
JP2019071653A (ja) 画像処理装置および方法
RU2641261C2 (ru) Устройство и способ обработки изображений
US20150139303A1 (en) Encoding device, encoding method, decoding device, and decoding method
JPWO2018037737A1 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20190029796A (ko) 디스플레이 스트림 압축 (dsc) 을 위한 엔트로피 코딩 기법들
US20150245066A1 (en) Image processing apparatus and image processing method
WO2015133320A1 (ja) 画像符号化装置および方法
JP6651848B2 (ja) 復号装置および復号方法
KR20190054288A (ko) 영상 처리 장치, 영상 처리 방법 및 디스플레이 시스템
TW202141979A (zh) 用於針對具有基於聯合圖元/變換的量化的視訊解碼的量化參數控制的方法
US20130182777A1 (en) Image processing apparatus and method
WO2014156707A1 (ja) 画像符号化装置および方法、並びに、画像復号装置および方法