KR20170092868A - 디스플레이 장치 및 디스플레이 방법 - Google Patents

디스플레이 장치 및 디스플레이 방법 Download PDF

Info

Publication number
KR20170092868A
KR20170092868A KR1020160014083A KR20160014083A KR20170092868A KR 20170092868 A KR20170092868 A KR 20170092868A KR 1020160014083 A KR1020160014083 A KR 1020160014083A KR 20160014083 A KR20160014083 A KR 20160014083A KR 20170092868 A KR20170092868 A KR 20170092868A
Authority
KR
South Korea
Prior art keywords
user interface
display
frame buffer
area
partial
Prior art date
Application number
KR1020160014083A
Other languages
English (en)
Other versions
KR102511363B1 (ko
Inventor
김제익
이주연
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160014083A priority Critical patent/KR102511363B1/ko
Priority to EP17154015.6A priority patent/EP3203728A1/en
Priority to US15/422,868 priority patent/US11064150B2/en
Priority to CN201710158317.1A priority patent/CN107071561B/zh
Publication of KR20170092868A publication Critical patent/KR20170092868A/ko
Application granted granted Critical
Publication of KR102511363B1 publication Critical patent/KR102511363B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • H04N5/44543
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/393Arrangements for updating the contents of the bit-mapped memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44004Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video buffer management, e.g. video decoder buffer or video display buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4435Memory management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/45Picture in picture, e.g. displaying simultaneously another television channel in a region of the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2350/00Solving problems of bandwidth in display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/12Frame memory handling
    • G09G2360/122Tiling
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/12Frame memory handling
    • G09G2360/125Frame memory handling using unified memory architecture [UMA]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/12Frame memory handling
    • G09G2360/127Updating a frame memory using a transfer of data from a source area to a destination area
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/18Use of a frame buffer in a display terminal, inclusive of the display panel
    • H04N2005/44534
    • H04N2005/44586
    • H04N2005/44595

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

실시예들에 따라 디스플레이 장치 및 디스플레이 방법이 개시된다 일 실시예에 따른 디스플레이 장치는 비디오 컨텐츠 및 유저 인터페이스를 동일한 해상도로 디스플레이하는 디스플레이 및, 디스플레이의 화면에서 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당하고, 할당된 적어도 하나의 부분 프레임 버퍼에서 획득되는 적어도 하나의 부분 그래픽 데이터에 기초하여 유저 인터페이스를 디스플레이하도록 제어하는 제어부를 포함할 수 있다.

Description

디스플레이 장치 및 디스플레이 방법{A display apparatus and a display method}
일 실시예는 디스플레이 장치 및 디스플레이 방법에 관한 것으로, 컨텐츠 및 유저 인터페이스를 디스플레이하는 디스플레이 장치 및 그 디스플레이 방법에 관한 것이다.
디스플레이 장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 사용자는 디스플레이 장치를 통하여 방송을 시청할 수 있다. 디스플레이 장치는 방송국에서 송출되는 방송신호 중 사용자가 선택한 방송을 디스플레이에 표시한다. 현재 방송은 전세계적으로 아날로그 방송에서 디지털 방송으로 전환하고 있는 추세이다.
디지털 방송은 디지털 영상 및 음성 신호를 송출하는 방송을 의미한다. 디지털 방송은 아날로그 방송에 비해, 외부 잡음에 강해 데이터 손실이 작으며, 에러 정정에 유리하며, 해상도가 높고, 선명한 화면을 제공한다. 또한, 디지털 방송은 아날로그 방송과 달리 양방향 서비스가 가능하다.
디지털 방송은 사용자에게 더욱 생동감 있는 컨텐츠를 제공하기 위하여 FHD(full HD), UHTV (ultra high definition television) 등의 화질을 갖는 컨텐츠를 제공하고 있다. 이와 함께 디스플레이 장치에서 컨텐츠의 해상도에 대응되는 해상도를 갖는 유저 인터페이스를 제공하는 것이 요구되고 있다.
디스플레이 장치가 고해상도를 갖는 컨텐츠 및 유저 인터페이스를 디스플레이하기 위해서, 기존에 비해 더 향상된 처리 속도를 갖는 프로세서(예를 들어, CPU 또는 GPU) 및 더욱 큰 용량을 갖는 메모리가 필요하게 되었다. 그러나, 종래에는 디스플레이 장치의 메모리의 공간 및 메모리 대역폭의 한계로 인해 고해상도 컨텐츠의 해상도에 대응되는 해상도를 갖는 유저 인터페이스를 제공하기에는 어려움이 있었다.
일 실시예에 따른 디스플레이 장치 및 디스플레이 방법은 실제 화면에서 유저 인터페이스가 제공되는 영역의 크기 및 위치에 기초하여 프레임 버퍼를 할당함에 의해 고해상도 컨텐츠의 해상도에 대응되는 해상도를 갖는 유저 인터페이스를 제공하는 것을 목적으로 한다.
또한, 일 실시예에 따른 디스플레이 장치 및 디스플레이 방법은 실제 화면에서 유저 인터페이스가 제공되는 영역의 크기 및 위치에 기초하여 프레임 버퍼를 할당함에 의해 필요한 메모리의 공간 및 메모리 대역폭을 감소시키는 것을 목적으로 한다.
일 실시예에 따른 디스플레이 장치는 비디오 컨텐츠 및 유저 인터페이스를 동일한 해상도로 디스플레이하는 디스플레이 및, 디스플레이의 화면에서 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당하고, 할당된 적어도 하나의 부분 프레임 버퍼에서 획득되는 적어도 하나의 부분 그래픽 데이터에 기초하여 유저 인터페이스를 디스플레이하도록 제어하는 제어부를 포함할 수 있다.
일 실시예에 따른 디스플레이 방법은 비디오 컨텐츠 및 유저 인터페이스를 동일한 해상도로 디스플레이하는 디스플레이 장치의 디스플레이 방법일 수 있으며, 일 실시예에 따른 디스플레이 방법은 디스플레이 장치의 화면에서 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당하는 단계; 및 할당된 적어도 하나의 부분 프레임 버퍼에서 획득되는 적어도 하나의 부분 그래픽 데이터에 기초하여 유저 인터페이스를 디스플레이하는 단계를 포함할 수 있다.
일 실시예에 따른 디스플레이 장치 및 디스플레이 방법은 실제 화면에서 유저 인터페이스가 제공되는 영역의 크기 및 위치에 기초하여 프레임 버퍼를 할당함에 의해 고해상도 컨텐츠의 해상도에 대응되는 해상도를 갖는 유저 인터페이스를 제공할 수 있다.
또한, 일 실시예에 따른 디스플레이 장치 및 디스플레이 방법은 실제 화면에서 유저 인터페이스가 제공되는 영역의 크기 및 위치에 기초하여 프레임 버퍼를 할당함에 의해 필요한 메모리의 공간 및 메모리 대역폭을 감소시킬 수 있다.
도 1은 일 실시예에 따른 디스플레이 장치(100)를 나타내는 도면이다.
도 2는 일 실시예에 따른 디스플레이 장치(200)의 블럭도이다.
도 3은 일 실시예에 따른 디스플레이 장치(300)의 다른 블럭도이다.
도 4는 일 실시예에 따른 디스플레이 장치(100)의 동작 방법의 흐름도이다.
도 5는 일 실시예에 따른 디스플레이 장치(100)의 동작 방법의 다른 흐름도이다.
도 6a 는 일 실시예에 따른 디스플레이 장치(100)가 부분 그래픽 프레임 버퍼에 대응되는 유저 인터페이스를 디스플레이하는 것을 설명하기 위한 도면이다.
도 6b는 일 실시예에 따른 디스플레이 장치(100)에 의해 할당되는 비디오 프레임 버퍼 및 그래픽 프레임 버퍼의 메모리 공간을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 디스플레이 장치(100)의 동작 방법의 다른 흐름도이다.
도 8a 는 일 실시예에 따른 디스플레이 장치(100)가 부분 그래픽 프레임 버퍼에 대응되는 유저 인터페이스를 디스플레이 위치를 결정하는 설명하기 위한 도면이다.
도 8b 는 일 실시예에 따른 디스플레이 장치(100)가 부분 그래픽 프레임 버퍼에 대응되는 유저 인터페이스의 디스플레이 위치를 변경하는 것을 설명하기 위한 도면이다.
도 8c는 일 실시예에 따른 디스플레이 장치(100)에 의해 할당되는 비디오 프레임 버퍼 및 그래픽 프레임 버퍼의 메모리 공간을 설명하기 위한 도면이다.
도 9는 일 실시예에 따른 디스플레이 장치(100a)의 세부적인 구성도이다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 실시예에 따른 전자 장치를 구성하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
명세서 전체에서 '디스플레이'는 영상 데이터를 시각적으로 출력하는 기능을 수행하는 구성요소를 의미할 수 있다. 또한, 구현 예에 따라 디스플레이에 포함된 디스플레이 패널과 터치 패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이는 액정 디스플레이(LCD, liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(OLED, organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display), 플라스마 디스플레이 패널(PDP, Plasma Display Panel), 양자점 발광 다이오드(QLED, Quantum dot LED) 중에서 적어도 하나를 포함할 수 있다.
'디스플레이 장치'는 전술한 디스플레이를 포함하는 출력 장치의 하나로 영상 데이터를 시각적으로 나타낼 수 있는 장치이다. 디스플레이 장치는 데스크탑, 노트북, 태블릿 PC, 카메라, 휴대폰, 저장 매체 및 기타 전자 기기에 연결되어 무선 또는 유선으로 영상 데이터를 수신할 수 있다. 구현 예에 따라 디스플레이 장치는 아날로그 방송 신호 또는 디지털 방송 신호를 수신할 수 있다. 디스플레이 장치는 평면(flat) 디스플레이 장치뿐만 아니라, 곡률을 가지는 화면인 곡면(curved) 디스플레이 장치 또는 곡률을 조정가능한 가변형(flexible) 디스플레이 장치로 구현될 수 있다. 또한, 디스플레이 장치는 PC 용 모니터 및 TV 모니터 등을 포함할 수 있으며, 상업용 디스플레이(LFD, large format display)를 포함할 수도 있다. 또한, 디스플레이 장치의 구현 형태에 따라 디스플레이 장치는 디스플레이를 2개 이상 포함할 수도 있다.
디스플레이 장치의 디스플레이에서 실제 컨텐츠가 출력되는 부분은 스크린 또는 화면으로 불리울 수 있다.
또한, 명세서 전체에서 '사용자'는 디스플레이 장치의 기능 또는 동작을 제어하는 사람을 의미하며, 관리자 또는 설치 기사를 포함할 수 있다.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1은 일 실시예에 따른 디스플레이 장치(100)를 나타내는 도면이다.
도 1을 참조하면, 비디오 컨텐츠(10) 및 유저 인터페이스(20)를 디스플레이하는 디스플레이 장치(100) 및 디스플레이 장치(100)를 제어하는 입력을 제공하기 위한 제어 장치(150)를 도시한다.
디스플레이 장치(100)의 출력 해상도는 예를 들어, HD(High Definition), FHD(Full HD), UHD(Ultra HD), 또는 UHD 보다 더 선명한 해상도를 포함할 수 있다. 또한, 디스플레이 장치(100)는 평면(flat) 디스플레이 장치뿐만 아니라, 곡률을 가지는 화면인 곡면(curved) 디스플레이 장치 또는 곡률을 조정가능한 가변형(flexible) 디스플레이 장치로 구현될 수 있다.
일 실시예에 따라, 디스플레이 장치(100)는 미리 정해진 수의 픽셀로 구성된 화면에 컨텐츠를 디스플레이할 수 있다. 예를 들어, 디스플레이 장치(100)가 UHD 해상도를 갖는 컨텐츠를 출력할 수 있는 경우, 디스플레이 장치(100)는 가로로 3840 개, 세로로 2160개의 픽셀 즉, 3840×2160의 픽셀로 구성된 화면을 출력할 수 있다.
제어 장치(150)는 적외선(infrared) 또는 블루투스(bluetooth)를 포함하는 근거리 통신을 이용하여 디스플레이 장치(100)를 제어할 수 있다. 사용자에 의해 제어 장치(150)는 구비된 키(버튼을 포함), 터치 패드(touchpad), 사용자의 음성의 수신이 가능한 마이크(도시되지 아니함), 및 제어 장치(150)의 모션 인식이 가능한 센서(도시되지 아니함) 중 적어도 하나를 이용하여 디스플레이 장치(100)의 기능을 제어할 수 있다.
제어장치(150)는 디스플레이 장치(100)의 전원을 온시키거나 오프시키기 위한 전원 온/오프 버튼을 포함한다. 제어 장치(150)는 또한 사용자 입력에 의해 디스플레이 장치(100)의, 채널 변경, 음량 조정, 지상파 방송/케이블 방송/위성 방송 선택, 또는 환경 설정(setting)을 할 수 있다.
도 1을 참고하여 보면, 디스플레이 장치(100)는 비디오 컨텐츠(10) 및 유저 인터페이스(20)를 디스플레이(115)의 화면에 디스플레이할 수 있다.
비디오 컨텐츠(10)는 수신된 방송 신호에 포함된 비디오 및 어플리케이션의 실행에 따라 재생되는 비디오 등을 포함할 수 있다. 또한, 유저 인터페이스(20)는 사용자와 상호 작용을 위한 오브젝트(예를 들어, 이미지 텍스트, 아이콘 등)들을 포함할 수 있다
구체적으로, 유저 인터페이스(20)는 제1 유저 인터페이스(20a) 및 제2 유저 인터페이스(20b)를 포함할 수 있다. 도 1을 참고하여 보면, 예를 들어 제1 유저 인터페이스(20a)는 디스플레이 장치(100)에서 제공하는 영화 드라마 등의 비디오 컨텐츠를 나타내는 아이템, 디지털 방송을 나타내는 아이템, 디스플레이 장치(100)에서 제공하는 게임을 나타내는 아이템 등을 포함할 수 있다. 또한, 예를 들어, 제2 유저 인터페이스(20b)는 현재 시간을 알려주기 위한 텍스트를 포함할 수 있다.
일 실시예에 따른 디스플레이 장치(100)가 비디오 컨텐츠(10) 및 유저 인터페이스(20)를 동시에 디스플레이하는 경우에, 디스플레이 장치(100)는 비디오 컨텐츠(10) 및 유저 인터페이스(20)를 동일한 해상도로 디스플레이할 수 있다.
한편, 디스플레이 장치(100)가 화면을 출력하기 위해서는, 디스플레이 장치(100)의 화면에 포함된 픽셀 개수에 대응되는 프레임 버퍼의 메모리 공간이 필요하다. 프레임 버퍼는 디스플레이(115)의 각 픽셀에 표시할 정보를 일시적으로 저장하기 위해 별도로 마련된 저장 공간일 수 있다. 프레임 버퍼는 예를 들어, 램(RAM, 미도시)으로 구성될 수 있다.
예를 들어, 디스플레이 장치(100)가 3840×2160의 픽셀로 구성된 화면에 출력하기 위한 그래픽 데이터를 처리하기 위해, 1개의 픽셀당 32bit가 필요한 경우, 3840×2160×4(byte) = 약 31.64MB 의 프레임 버퍼의 메모리 공간이 필요할 수 있다. 이 경우, 디스플레이 장치(100)는 32MB 의 용량을 갖는 프레임 버퍼를 포함할 수 있다.
프레임 버퍼는 비디오 프레임 버퍼 및 그래픽 프레임 버퍼를 포함할 수 있다. 비디오 프레임 버퍼는 비디오 컨텐츠에 대응되는 비디오 데이터를 저장할 수 있고, 그래픽 프레임 버퍼는 유저 인터페이스에 대응되는 그래픽 데이터를 저장할 수 있다.
일 실시예에 따르면, 비디오 프레임 버퍼에 저장된 비디오 데이터 및 그래픽 프레임 버퍼에 저장된 그래픽 데이터는 1초당 60번 획득될 수 있다. 이 때, 디스플레이 장치(100)는 60Fps(Frames per second)로 비디오 데이터 및 그래픽 데이터를 출력할 수 있다.
일 실시예에 따르면, 디스플레이 장치(100)는 유저 인터페이스(20)가 디스플레이되는 영역의 크기 및 위치에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당할 수 있다.
예를 들어 도 1을 참조하여 보면, 디스플레이 장치(100)는 제1 유저 인터페이스(20a) 및 제2 유저 인터페이스(20b)가 디스플레이되는 각각의 영역에 대응되는 2개의 부분 프레임 버퍼를 할당할 수 있다.
여기서, 부분 프레임 버퍼는 유저 인터페이스를 디스플레이하기 위한 그래픽 데이터를 저장하는 그래픽 프레임 버퍼의 메모리 공간 중 일부에 대응되는 부분을 의미할 수 있다.
디스플레이 장치(100)가 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 부분 프레임 버퍼를 할당하는 경우, 전체 프레임 버퍼의 메모리 공간 전체를 이용하는 것 대신에 일부만을 이용하게 되므로, 메모리 대역폭을 개선시킬 수 있다.
메모리 대역폭은 초당 처리 가능한 데이터 량을 의미하는 것으로서 매초마다 처리 가능한 데이터량을 Byte/sec 로 표현할 수 있다. 즉, 일 실시예에 따르면, 디스플레이 장치(100)가 프레임 버퍼에 저장하거나, 프레임 버퍼에 엑세스(access)할 수 있는 초당 데이터량을 의미한다.
예를 들어, 도 1을 참조하여 보면, 전체 화면에 대응되는 픽셀 수는 3840×2160 이고, 제1 유저 인터페이스(20a)가 디스플레이되는 영역에 대응되는 픽셀 수는 3840×500이고, 제2 유저 인터페이스(20b)가 디스플레이되는 영역에 대응되는 픽셀 수는 500×200일 수 있다.
디스플레이 장치(100)가 제1 유저 인터페이스(20a) 및 제2 유저 인터페이스(20b)에 대응되는 적어도 하나의 부분 프레임 버퍼를 할당하는 경우, ((3840×500)+(500×200))×4(byte) 에 의해 총 8MB 정도의 부분 프레임 버퍼의 메모리 공간이 필요할 수 있다.
디스플레이 장치(100)가 부분 프레임 버퍼에 저장된 그래픽 데이터를 초당 60 프레임 (60fps) 획득한다고 하면 메모리 대역폭은, 8MB×60Fps 에 의해 0.48GB/sec 이 될 수 있다. 이와 같이 디스플레이 장치(100)가 부분 프레임 버퍼를 할당하는 경우, 프레임 버퍼의 전체 메모리 공간을 이용할 때의 메모리 대역폭인 32MB×60Fps = 1.92GB/sec 에 비해 1/4 정도로 대역폭이 감소될 수 있다.
한편, 디스플레이 장치(100)는 가정 모드(Home mode) 또는 매장 모드(store mode)에서 동작할 수 있다. 가정 모드는 사용자가 디스플레이 장치(100)를 실제 사용할 때에 설정할 수 있는 모드이고, 매장 모드는 디스플레이 장치(100)를 판매하기 위해 전시할 때에 설정할 수 있는 모드이다.
디스플레이 장치(100)는 예를 들어, 매장 모드로 설정하는 경우, 가정 모드에 비해 화면을 더 밝게 디스플레이하거나, 가정 모드에 비해 컨트라스트가 높은 화면을 디스플레이할 수 있다. 또한, 디스플레이 장치(100)는 매장 모드에서 디스플레이 장치(100)의 사양 정보, 디스플레이 장치(100)에 포함된 어플리케이션 정보, 디스플레이 장치(100)의 기능 정보 등을 포함하는 광고를 위한 유저 인터페이스를 추가적으로 디스플레이할 수 있다.
일 실시예에 따라 디스플레이 장치(100)가 매장 모드에서 동작하는 경우, 광고를 위한 유저 인터페이스가 디스플레이(115)의 미리 정해진 위치에 디스플레이될 수 있다. 이 때, 디스플레이 장치(100)는 미리 정해진 위치에 기초하여 광고를 위한 유저 인터페이스에 대응되는 부분 프레임 버퍼를 할당할 수 있다. 미리 정해진 위치는 디스플레이 장치(100)의 제조 당시에 프로그래밍되거나, 사용자 입력에 의해 결정될 수 있다.
일 실시예에 따라 디스플레이 장치(100)가 가정 모드인 경우, 디스플레이 장치(100)는 광고를 위한 유저 인터페이스를 디스플레이하지 않고, 도 1에 도시된 바와 같이 비디오 컨텐츠, 디지털 방송, 게임 등에 대응되는 아이템들을 포함하는 유저 인터페이스(20a)를 디스플레이할 수 있다.
이하에서는 디스플레이 장치(100)가 광고를 위한 유저 인터페이스를 표시하지 않는 경우에 대해 설명한다.
도 2는 일 실시예에 따른 디스플레이 장치(200)의 블럭도이다.
디스플레이 장치(200)는 미리 정해진 해상도를 갖는 컨텐츠를 출력할 수 있는 장치일 수 있다. 예를 들어, 디스플레이 장치(200)는 제1 해상도를 갖는 비디오 컨텐츠 및 유저 인터페이스를 디스플레이할 수 있고, 제1 해상도는 예를 들어, UHD 및 UHD 보다 더 선명한 해상도를 포함할 수 있다.
디스플레이 장치(200)는 디스플레이(210), 저장부(220) 및 제어부(230)를 포함할 수 있다.
디스플레이(210)는 비디오 컨텐츠 및 유저 인터페이스를 동일한 해상도를 갖도록 디스플레이할 수 있다.
저장부(220)는 제1 해상도를 갖는 비디오 컨텐츠에 대응되는 비디오 프레임 버퍼(222) 및 적어도 하나의 부분 프레임 버퍼(226)를 포함할 수 있다. 적어도 하나의 부분 프레임 버퍼는 유저 인터페이스를 디스플레이하기 위한 그래픽 데이터를 저장하는 그래픽 프레임 버퍼(224)의 메모리 공간 중 일부에 대응되는 부분을 의미할 수 있다.
또한, 저장부(220)는 유저 인터페이스가 디스플레이되는 영역인 제1 영역의 크기 및 위치에 대한 정보를 저장할 수 있다. 제1 영역의 크기 및 위치에 대한 정보는 비디오 프레임 버퍼(222) 및 그래픽 프레임 버퍼(224)가 할당되는 메모리 공간과 별개의 메모리 공간에 저장될 수 있다.
예를 들어, 저장부(220)는 비디오 프레임 버퍼(222) 및 그래픽 프레임 버퍼(224)가 할당되는 램(RAM) 및 제1 영역의 크기 및 위치에 대한 정보를 저장하기 위한 별도의 메모리(예를 들어, RAM, FLASH 메모리, EEPROM 등)를 포함할 수 있다.
제어부(230)는 디스플레이의 화면에서 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당할 수 있다. 또한, 제어부(230)는 할당된 적어도 하나의 부분 프레임 버퍼에 저장되는 적어도 하나의 부분 그래픽 데이터에 기초하여 제1 해상도를 갖는 유저 인터페이스를 디스플레이하도록 제어할 수 있다.
일 실시예에 따른 제어부(230)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 제어부(230)는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다.
제어부(230)는 비디오 데이터 및 적어도 하나의 부분 그래픽 데이터를 동일한 주기로 획득하도록 제어할 수 있다. 제어부(230)는 예를 들어, 비디오 데이터 및 적어도 하나의 부분 그래픽 데이터를 60Fps의 속도로 획득할 수 있다.
또한, 제어부(230)는 적어도 하나의 부분 그래픽 데이터를 미리 정해진 시간에 획득하도록 제어할 수 있다. 미리 정해진 시간은 예를 들어, 유저 인터페이스가 디스플레이되는 시간일 수 있다. 유저 인터페이스가 디스플레이되는 시간은 저장부(220)에 저장될 수 있다.
또한, 제어부(230)는 디스플레이의 화면을 미리 정해진 크기를 갖는 복수개의 영역들로 분할하고, 미리 정해진 크기에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당할 수 있다.
미리 정해진 크기는 예를 들어, 디스플레이(210)의 화면의 1/4 크기, 디스플레이(210) 화면의 1/8 크기 등을 포함할 수 있다. 또한, 미리 정해진 크기는 제어부(230)의 사양에 따라 디스플레이(210)의 화면의 1/2, 1/3 등 다양한 크기로 결정될 수 있다.
또한, 제어부(230)는 유저 인터페이스가 디스플레이되는 영역인 제1 영역의 크기 및 위치에 대한 정보에 기초하여 제1 영역에 유저 인터페이스를 디스플레이하도록 제어할 수 있다.
또한, 제어부(230)는 디스플레이의 화면을 미리 정해진 크기를 갖는 복수개의 영역들로 분할하고, 분할된 복수개의 영역들 중 하나를 제1 영역으로 결정할 수 있다. 제어부(230)는 제1 영역을 변경하는 입력에 기초하여, 제1 영역을 복수개의 영역들 중 다른 하나로 변경할 수 있다. 또한, 제어부(230)는 제1 영역의 위치를 이동시키는 입력에 기초하여 이동된 제1 영역에 유저 인터페이스를 디스플레이하도록 제어할 수 있다.
또한, 제어부(230)는 사용자 입력에 기초하여 제1 영역을 업데이트 하고, 업데이트된 제1 영역에 유저 인터페이스를 디스플레이하도록 제어할 수 있다.
디스플레이 장치(200)가 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 부분 프레임 버퍼(326)를 할당하는 경우, 전체 프레임 버퍼의 메모리 공간 전체를 이용하는 것 대신에 일부만을 이용하게 되므로, 메모리 대역폭을 개선시킬 수 있다.
도 3은 일 실시예에 따른 디스플레이 장치(300)의 다른 블럭도이다.
디스플레이 장치(300)는 디스플레이(310), 저장부(320), 믹서(332), 제어부(334) 및 비디오 처리부(336)를 포함할 수 있다.
도 3에 도시된 디스플레이(310), 저장부(320) 및 제어부(334)는 도2에서 설명한 데이터 디스플레이(210), 저장부(220) 및 제어부(230)의 기능을 모두 포함할 수 있다. 디스플레이(310), 저장부(320) 및 제어부(334)에 대하여 도 2에서 설명한 것과 중복되는 설명은 생략한다.
믹서(332)는 비디오 데이터와 그래픽 데이터를 혼합(Mixing)하여 출력할 수 있다. 예를 들어, 믹서(332)는 비디오 프레임 버퍼(222)에 저장되는 비디오 데이터 및 적어도 하나의 부분 프레임 버퍼에 저장되는 적어도 하나의 부분 그래픽 데이터를 획득하고, 비디오 데이터 및 적어도 하나의 부분 그래픽 데이터를 혼합하여 출력할 수 있다.
또한, 믹서(332)는 비디오 데이터 및 적어도 하나의 그래픽 데이터를 유저 인터페이스가 표시되는 영역의 크기 및 위치 정보에 기초하여 혼합할 수 있다.
일 실시예에 따른, 믹서(332)는 하드웨어 믹서(H/W Mixer)로 구성될 수 있다. 믹서(332)는 하드웨어 믹서에 제한되는 것은 아니며, 소프트웨어 믹서를 포함할 수도 있다.
비디오 처리부(336)는, 디스플레이 장치(100)가 수신한 비디오 데이터에 대한 처리를 수행한다. 비디오 처리부(336)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다. 일 실시예에 따라, 비디오 컨텐츠가 UHD의 화질을 갖는 경우, 비디오 처리부(33)은 UHD 비디오 디코딩 모듈을 포함하여 비디오 컨텐츠를 디코딩할 수 있다.
도 4는 일 실시예에 따른 디스플레이 장치(100)의 동작 방법의 흐름도이다.
단계 S110에서, 디스플레이 장치(100)는 적어도 하나의 부분 프레임 버퍼를 할당할 수 있다(S110).
적어도 하나의 부분 프레임 버퍼는 유저 인터페이스를 디스플레이하기 위한 그래픽 데이터를 저장하는 그래픽 프레임 버퍼의 메모리 공간 중 일부에 대응되는 부분을 의미할 수 있다. 또한, 적어도 하나의 부분 프레임 버퍼의 메모리 공간은 유저 인터페이스가 디스플레이되는 영역의 크기에 대응될 수 있다.
일 실시예에 따르면, 디스플레이 장치(100)는 디스플레이 장치(100)의 화면에서 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당할 수 있다.
단계 S120에서, 디스플레이 장치(100)는 적어도 하나의 부분 그래픽 데이터에 기초하여 유저 인터페이스를 디스플레이할 수 있다(S120).
디스플레이 장치(100)는 할당된 적어도 하나의 부분 프레임 버퍼에서 획득되는 적어도 하나의 부분 그래픽 데이터에 기초하여 유저 인터페이스를 디스플레이할 수 있다.
도 5는 일 실시예에 따른 디스플레이 장치(100)의 동작 방법의 다른 흐름도이다.
단계 S210에서, 디스플레이 장치(100)는 적어도 하나의 부분 프레임 버퍼를 할당할 수 있다(S210).
구체적으로, 디스플레이 장치(100)는 디스플레이 장치(100)의 화면에서 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당할 수 있다.
단계 S220에서, 디스플레이 장치(100)는 비디오 데이터 및 적어도 하나의 부분 그래픽 데이터를 획득할 수 있다(S220).
예를 들면, 디스플레이 장치(100)는 비디오 프레임 버퍼에 저장된 비디오 데이터를 초당 60 프레임 (60fps) 획득할 수 있다. 또한, 디스플레이 장치(100)는 적어도 하나의 부분 프레임 버퍼에 저장된 적어도 하나의 부분 그래픽 데이터를 초당 60 프레임 (60fps) 획득할 수 있다.
단계 S230에서, 디스플레이 장치(100)는 비디오 데이터와 적어도 하나의 부분 그래픽 데이터를 혼합(Mixing)할 수 있다(S230).
단계 S230에서, 디스플레이 장치(100)는 제1 해상도를 갖는 비디오 컨텐츠 및 유저 인터페이스를 함께 디스플레이할 수 있다. 제1 해상도는 예를 들어, UHD 및 UHD 보다 더 선명한 해상도를 포함할 수 있다.
도 6a 는 일 실시예에 따른 디스플레이 장치(100)가 부분 그래픽 프레임 버퍼에 대응되는 유저 인터페이스를 디스플레이하는 것을 설명하기 위한 도면이다.
디스플레이 장치(100)는 유저 인터페이스가 디스플레이되는 영역의 크기에 대응되는 적어도 하나의 그래픽 평면(Graphic plane)(615, 625)을 생성할 수 있다. 그래픽 평면(615, 625)은 유저 인터페이스를 생성하는 GPU(미도시) 또는 CPU(미도시)에 의해 획득될 수 있다.
디스플레이 장치(100)는 적어도 하나의 그래픽 평면(615, 625)에 대응되는 적어도 하나의 그래픽 데이터를 적어도 하나의 부분 프레임 버퍼에 저장할 수 있다.
디스플레이 장치(100)의 믹서는 비디오 데이터 및 적어도 하나의 그래픽 데이터를 60Fps획득 후, 혼합하여 장치(100)의 화면에 출력할 수 있다. 믹서가 데이터를 획득하는 것은, 믹서가 비디오 프레임 버퍼 또는 그래픽 프레임 버퍼가 할당되는 메모리에 액세스하는 것을 의미할 수 있다.
디스플레이 장치(100)는 적어도 하나의 그래픽 평면(Graphic plane)(615, 625)에 대응되는 적어도 하나의 그래픽 데이터에 기초하여 제1 유저 인터페이스(620a) 및 제2 유저 인터페이스(620b)를 포함하는 유저 인터페이스(620)를 디스플레이할 수 있다. 디스플레이 장치(100)는 유저 인터페이스(620)를 비디오 컨텐츠(10)와 동일한 해상도로 디스플레이할 수 있다.
한편, 디스플레이 장치(100)는 제1 유저 인터페이스(620a) 및 제2 유저 인터페이스(620b)가 디스플레이되는 영역의 위치 정보에 기초하여 제1 유저 인터페이스(620a) 및 제2 유저 인터페이스(620b)를 디스플레이할 수 있다.
제1 유저 인터페이스(620a) 및 제2 유저 인터페이스(620b)가 디스플레이되는 영역의 위치 정보는 유저 인터페이스를 생성하는 때에 GPU(미도시) 또는 CPU(미도시)에 의해 획득될 수 있다.
도 6b는 일 실시예에 따른 디스플레이 장치(100)에 의해 할당되는 비디오 프레임 버퍼 및 그래픽 프레임 버퍼의 메모리 공간을 설명하기 위한 도면이다.
도 6b를 참조하여 보면, 디스플레이 장치(100)는 제1 유저 인터페이스(도 6a의 620a 참조)에 대응되는 제1 부분 프레임 버퍼(601) 및 제2 유저 인터페이스(도 6a의 620b 참조)에 대응되는 제2 부분 프레임 버퍼(603)를 할당할 수 있다.
제1 부분 프레임 버퍼(601)는 제1 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 할당될 수 있고, 제2 부분 프레임 버퍼(603)는 제2 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 할당될 수 있다.
예를 들어, 도 6a에 도시된 것과 같이, 제1 유저 인터페이스(도 6a의 620a 참조) 및 제2 유저 인터페이스(도 6a의 620b 참조)이 서로 상이한 위치에 떨어져서 디스플레이 되는 경우, 제1 유저 인터페이스 및 제2 유저 인터페이스의 각각의 위치에 대응되는 제1 부분 프레임 버퍼(601) 및 제2 부분 프레임 버퍼(603)이 할당될 수 있다.
한편, 전체 화면에 대응되는 픽셀 수는 3840×2160 이고, 제1 유저 인터페이스가 디스플레이되는 영역에 대응되는 픽셀 수는 3840×500이고, 제2 유저 인터페이스가 디스플레이되는 영역에 대응되는 픽셀 수는 500×200일 수 있다.
이 때, 디스플레이 장치(100)는 제1 유저 인터페이스에 대응되는 (3840×500) ×4(byte)의 제1 부분 프레임 버퍼(601) 및 제2 유저 인터페이스에 대응되는 (500×200)×4(byte)의 제2 부분 프레임 버퍼(603)를 할당할 수 있다.
또한, 도 6b를 참조하면 제1 부분 프레임 버퍼(601) 및 제2 부분 프레임 버퍼(603)가 할당되는 메모리 공간을 활성화 부분이라 할 수 있으며, 총 8MB 정도의 메모리 공간이 활성화 부분일 수 있다.
디스플레이 장치(100)는 제1 부분 프레임 버퍼(601) 및 제2 부분 프레임 버퍼(603)에서 유저 인터페이스를 디스플레이하는 데에 필요한 그래픽 데이터를 초당 60프레임 획득할 수 있다. 이 때, 디스플레이 장치(100)의 유저 인터페이스를 위한 메모리 대역폭은, 8MB×60Fps 에 의해 0.48GB/sec 이 될 수 있다.
도 6a 및 도 6b에서는 디스플레이 장치(100)가 디스플레이하는 유저 인터페이스에 대응되는 그래픽 평면이 2개인 경우에 대해서 도시하였다. 그러나, 이러한 경우에 제한되지 않으며, 그래픽 평면은 3개 이상을 포함할 수 있다.
도 7은 일 실시예에 따른 디스플레이 장치(100)의 동작 방법의 다른 흐름도이다.
단계 S310에서, 디스플레이 장치(100)는 복수개의 영역들 중 유저 인터페이스를 디스플레이할 제1 영역을 결정할 수 있다(S310).
구체적으로, 디스플레이 장치(100)는 디스플레이의 화면을 미리 정해진 크기를 갖는 복수개의 영역들로 분할할 수 있다. 또한, 디스플레이 장치(100)는 복수개의 영역들 중 하나를 제1 영역으로 결정할 수 있다. 복수개의 영역들은 예를 들어, 디스플레이 장치(100)의 화면이 4분할, 8분할 등으로 분할된 영역들일 수 있다.
단계 S320에서, 디스플레이 장치(100)는 제1 영역에 대응되는 적어도 하나의 부분 프레임 버퍼를 할당할 수 있다(S320).
단계 S330에서, 디스플레이 장치(100)는 적어도 하나의 부분 프레임 버퍼에 저장되는 적어도 하나의 부분 그래픽 데이터를 획득할 수 있다(S330).
단계 S340에서, 디스플레이 장치(100)는 획득된 적어도 하나의 부분 데이터에 기초하여 유저 인터페이스를 제1 영역에 디스플레이할 수 있다(S340).
도 8a 는 일 실시예에 따른 디스플레이 장치(100)가 부분 그래픽 프레임 버퍼에 대응되는 유저 인터페이스를 디스플레이 위치를 결정하는 설명하기 위한 도면이다.
디스플레이 장치(100)는 디스플레이의 화면을 미리 정해진 크기를 갖는 복수개의 영역들(A, B, C 및 D)로 분할할 수 있다.
디스플레이 장치(100)는 분할된 복수개의 영역들 중 하나의 크기에 대응되는 그래픽 평면(Graphic plane)(815)을 생성할 수 있다
또한, 디스플레이 장치(100)는 그래픽 평면(815)에 대응되는 적어도 하나의 그래픽 데이터를 부분 프레임 버퍼에 저장할 수 있다.
디스플레이 장치(100)는 그래픽 평면(815)에 대응되는 부분 그래픽 데이터에 기초하여 유저 인터페이스(820)를 디스플레이할 수 있다.
또한, 디스플레이 장치(100)는 유저 인터페이스(820)가 디스플레이되는 영역의 위치 정보에 기초하여 유저 인터페이스(820)를 디스플레이할 수 있다.
예를 들어, 디스플레이 장치(100)는 유저 인터페이스(820)를 제1 영역에 디스플레이할 수 있다. 구체적으로, 디스플레이 장치(100)는 복수개의 영역들(A, B, C 및 D) 중 하나를 제1 영역으로 결정할 수 있다. 복수개의 영역들은 예를 들어, 디스플레이 장치(100)의 화면이 4분할, 8분할 등으로 분할된 영역들일 수 있다.
여기서 디스플레이 장치(100)는 제1 영역을 복수개의 영역들(A, B, C 및 D) 중 하나로 결정할 수 있기 때문에, 도 6a에서와 같이 제1 유저 인터페이스(620a) 및 제2 유저 인터페이스(620b)가 디스플레이되는 영역의 위치 정보를 각각 획득하는 경우에 비해, 하드웨어의 복잡도를 감소시킬 수 있다.
도 8a에 도시된 복수개의 영역들(A, B, C 및 D)은 단지 예시일 뿐이며, 다양한 형태의 영역들로 분할될 수 있다. 예를 들어, 복수개의 영역들(A, B, C 및 D)은 가로로 배열된 형태일 수도 있으며 2×2으로 배열된 형태일 수도 있다.
도 8b 는 일 실시예에 따른 디스플레이 장치(100)가 부분 그래픽 프레임 버퍼에 대응되는 유저 인터페이스의 디스플레이 위치를 변경하는 것을 설명하기 위한 도면이다.
디스플레이 장치(100)는 제1 영역을 미리 정해진 오프셋 만큼 이동시키는 입력을 수신할 수 있다. 이 경우, 디스플레이 장치(100)는 그래픽 평면(825)에 대응되는 부분 그래픽 데이터에 기초하여 이동된 제1 영역에 유저 인터페이스(830)를 디스플레이할 수 있다.
디스플레이 장치(100)는 예를 들어, 사용자 입력에 기초하여 유저 인터페이스의 디스플레이 위치인 제1 영역을 이동시킬 수 있다. 또한, 디스플레이 장치(100)는 저장된 프로그램에 따라 유저 인터페이스의 디스플레이 위치인 제1 영역을 이동시킬 수 있다.
도 8c는 일 실시예에 따른 디스플레이 장치(100)에 의해 할당되는 비디오 프레임 버퍼 및 그래픽 프레임 버퍼의 메모리 공간을 설명하기 위한 도면이다.
도 8c를 참조하여 보면, 디스플레이 장치(100)는 유저 인터페이스(도 8a의 820 및 도 8b의 830참조)에 대응되는 부분 프레임 버퍼(801)를 할당할 수 있다. 예를 들어, 디스플레이 장치(100)가 디스플레이의 화면을 미리 정해진 크기를 갖도록 분할한 경우, 미리 정해진 크기에 기초하여 부분 프레임 버퍼(801)를 할당할 수 있다.
이때, 미리 정해진 크기에 대응되는 부분 프레임 버퍼(801)가 할당되는 메모리 공간을 활성화 부분이라 할 수 있으며, 미리 정해진 크기가 예를 들어, 전체 화면의 1/4이고, 전체 화면에 대응되는 픽셀 수가 3840×2160인 경우 총 8MB 정도의 메모리 공간이 활성화 부분일 수 있다.
도 9는 일 실시예에 따른 디스플레이 장치(100a)의 세부적인 구성도이다.
도 9를 참조하면, 디스플레이 장치(100a)는 비디오 처리부(110), 디스플레이(115), 오디오 처리부(120), 오디오 출력부(125), 전원부(130), 튜너부(140), 통신부(150), 감지부(160), 입/출력부(170), 프로세서(180), 저장부(190)를 포함한다.
비디오 처리부(110)는, 디스플레이 장치(100a)가 수신한 비디오 데이터에 대한 처리를 수행한다. 비디오 처리부(110)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다. 일 실시예에 따라, 비디오 컨텐츠가 UHD의 화질을 갖는 경우, 비디오 처리부(33)은 UHD 비디오 디코딩 모듈을 포함하여 비디오 컨텐츠를 디코딩할 수 있다.
디스플레이(115)는 프로세서(180)의 제어에 의해 튜너부(140)를 통해 수신된 방송 신호에 포함된 비디오를 화면에 표시한다 또한, 디스플레이(115)는 프로세서(180)의 제어에 의해 통신부(150) 또는 입/출력부(170)를 통해 입력되는 컨텐츠(예를 들어, 동영상)를 표시할 수 있다. 디스플레이(115)는 프로세서(180)의 제어에 의해 저장부(190)에 저장된 영상을 출력할 수 있다. 또한, 디스플레이(115)는 음성 인식에 대응되는 음성 인식 태스크를 수행하기 위한 음성 UI(User Interface: 예를 들어, 음성 명령어 가이드를 포함하는) 또는 모션 인식에 대응되는 모션 인식 태스크를 수행하기 위한 모션 UI(예를 들어, 음성 명령어 가이드를 포함하는) 또는 모션 인식에 대응되는 모션 인식 태스크를 수행하기 위한 모션 UI(예를 들어, 모션 인식을 위한 사용자 모션 가이드를 포함)를 표시할 수 있다.
도 9에 도시된 디스플레이(115)는 도2의 디스플레이(210) 및 도 3의 디스플레이(310)의 기능을 모두 포함할 수 있다. 따라서, 도 2 및 3에서 설명한 것과 중복되는 설명은 생략한다.
오디오 처리부(120)는 오디오 데이터에 대한 처리를 수행한다. 오디오 처리부(120)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 한편, 오디오 처리부(120)는 복수의 컨텐츠에 대응되는 오디오를 처리하기 위해 복수의 오디오 처리 모듈을 구비할 수 있다.
오디오 출력부(125)는 프로세서(180)의 제어에 의해 튜너부(140)를 통해 수신된 방송 신호에 포함된 오디오를 출력한다. 오디오 출력부(125)는 프로세서(180)의 제어에 의해 통신부(150) 또는 입/출력부(170)를 통해 입력되는 오디오(예를 들어, 음성, 사운드)를 출력할 수 있다. 또한, 오디오 출력부(125)는 프로세서(180)의 제어에 의해 저장부(190)에 저장된 오디오를 출력할 수 있다. 오디오 출력부(125)는 스피커(126), 헤드폰 출력 단자(127) 또는 S/PDIF(Sony/Philips Digital Interface: 출력 단자(128) 중 적어도 하나를 포함할 수 있다. 오디오 출력부(125)는 스피커(126), 헤드폰 출력 단자(127) 및 S/PDIF 출력 단자(128)의 조합을 포함할 수 있다.
전원부(130)는 프로세서(180)의 제어에 의해 디스플레이 장치(100a) 내부의 구성 요소들(110 내지 190)로 외부의 전원 소스에서부터 입력되는 전원을 공급한다. 또한, 전원부(130)는 프로세서(180)의 제어에 의해 디스플레이 장치(100a) 내부에 위치하는 하나 또는 둘 이상의 배터리(도시되지 아니함)에서부터 출력되는 전원을 내부의 구성 요소들(110 내지 190)에게 공급할 수 있다.
튜너부(140)은 유선 또는 무선으로 수신되는 방송 신호를 증폭(amplification), 혼합(mixing), 공진(resonance)등을 통하여 많은 전파 성분 중에서 디스플레이 장치(100a)에서 수신하고자 하는 채널의 주파수만을 튜닝(tuning)시켜 선택할 수 있다. 방송 신호는 오디오(audio), 비디오(video) 및 부가 정보(예를 들어, EPG(Electronic Program Guide))를 포함한다.
튜너부(140)은 사용자 입력(예를 들어, 제어 장치(200)로부터 수신되는 제어 신호, 예컨대, 채널 번호 입력, 채널의 업다운(up-down) 입력 및 EPG 화면에서 채널 입력)에 따라 채널 번호(예를 들어, 케이블 방송 506번)에 대응되는 주파수 대역에서 방송 신호를 수신할 수 있다.
튜너부(140)은 지상파 방송, 케이블 방송, 위성 방송, 인터넷 방송 등과 같이 다양한 소스로부터 방송 신호를 수신할 수 있다. 튜너부(140)은 아날로그 방송 또는 디지털 방송 등과 같은 소스로부터 방송 신호를 수신할 수 도 있다. 튜너부(140)를 통해 수신된 방송 신호는 디코딩(decoding, 예를 들어, 오디오 디코딩, 비디오 디코딩 또는 부가 정보 디코딩)되어 오디오, 비디오 및/또는 부가 정보로 분리된다. 분리된 오디오, 비디오 및/또는 부가 정보는 프로세서(180)의 제어에 의해 저장부(190)에 저장될 수 있다.
디스플레이 장치(100a)의 튜너부(140)은 하나이거나 복수일 수 있다. 일 실시예에 따라서 튜너부(140)가 복수개로 이루어지는 경우, 디스플레이(115)에 제공되는 멀티윈도우 화면을 이루는 복수개의 윈도우에 복수개의 방송 신호를 출력할 수 있을 것이다.
튜너부(140)은 디스플레이 장치(100a)와 일체형(all-in-one)으로 구현되거나 또는 디스플레이 장치(100a)와 전기적으로 연결되는 튜너부를 가지는 별개의 장치(예를 들어, 셋탑박스(set-top box, 도시되지 아니함), 입/출력부(170)에 연결되는 튜너부(도시되지 아니함))로 구현될 수 있다.
통신부(150)는 프로세서(180)의 제어에 의해 디스플레이 장치(100a)를 외부 장치(예를 들어, 오디오 장치 등)와 연결할 수 있다. 프로세서(180)는 통신부(150)를 통해 연결된 외부 장치로 컨텐츠를 송/수신, 외부 장치에서부터 어플리케이션(application)을 다운로드 하거나 또는 웹 브라우징을 할 수 있다. 통신부(150)는 디스플레이 장치(100a)의 성능 및 구조에 대응하여 무선 랜(151), 블루투스(152), 및 유선 이더넷(Ethernet, 153) 중 하나를 포함할 수 있다. 또한, 통신부(150)는 무선랜(151), 블루투스(152), 및 유선 이더넷(Ethernet, 153)의 조합을 포함할 수 있다. 통신부(150)는 프로세서(180)의 제어에 의해 제어 장치(200)의 제어 신호를 수신할 수 있다. 제어 신호는 블루투스 타입, RF 신호 타입 또는 와이파이 타입으로 구현될 수 있다.
통신부(150)는 블루투스 외에 다른 근거리 통신(예를 들어, NFC(near field communication, 도시되지 아니함), BLE(bluetooth low energy, 도시되지 아니함)를 더 포함할 수 있다.
감지부(160)는 사용자의 음성, 사용자의 영상 또는 사용자의 인터랙션을 감지한다.
마이크(161)는 사용자의 발화(utterance)된 음성을 수신한다. 마이크(161)는 수신된 음성을 전기 신호로 변환하여 프로세서(180)로 출력할 수 있다. 사용자 음성은 예를 들어, 디스플레이 장치(100a)의 메뉴 또는 기능에 대응되는 음성을 포함할 수 있다. 마이크(161)의 인식 범위는 마이크(161)에서부터 사용자 위치까지 4 m 이내를 권장하며, 마이크(161)의 인식 범위는 사용자 목소리의 크기와 주변 환경(예를 들어, 스피커 소리, 주변 소음)에 대응하여 달라질 수 있다.
마이크(161)는 디스플레이 장치(100a)와 일체형 또는 분리형으로 구현될 수 있다. 분리된 마이크(161)는 통신부(150) 또는 입/출력부(170)를 통해 디스플레이 장치(100a)와 전기적으로 연결될 수 있다.
디스플레이 장치(100a)의 성능 및 구조에 따라 마이크(161)가 제외될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
카메라부(162)는 카메라 인식 범위에서 제스처를 포함하는 사용자의 모션에 대응되는 영상(예를 들어, 연속되는 프레임)을 수신한다. 예를 들어, 카메라부(162)의 인식 범위는 카메라부(162)에서부터 사용자까지 0.1 ~ 5 m 이내 거리가 될 수 있다. 사용자 모션은 예를 들어, 사용자의 얼굴, 표정, 손, 주먹, 손가락과 같은 사용자의 신체 일부분 또는 사용자 일부분의 모션 등을 포함할 수 있다. 카메라부(162)는 프로세서(180)의 제어에 따라 수신된 영상을 전기 신호로 변환하여 프로세서(180)로 출력할 수 있다. 프로세서(180)는 수신된 모션의 인식 결과를 이용하여 디스플레이 장치(100a)에 표시되는 메뉴를 선택하거나 모션 인식 결과에 대응되는 제어를 할 수 있다. 예를 들어, 프로세서(180)는 볼륨 조정 및 커서의 이동 등을 제어할 수 있다.
카메라부(162)는 렌즈(도시되지 아니함) 및 이미지 센서(도시되지 아니함)로 구성될 수 있다. 카메라부(162)는 복수의 렌즈와 이미지 프로세싱을 이용하여 광학 줌(optical zoom) 또는 디지털 줌(digital zoom)을 지원할 수 있다. 카메라부(162)의 인식 범위는 카메라의 각도 및 주변 환경 조건에 따라 다양하게 설정될 수 있다. 카메라부(162)가 복수개의 카메라로 구성되는 경우, 복수의 카메라를 이용하여 3차원 정지 이미지 또는 3차원 모션을 수신할 수 있다.
카메라부(162)는 디스플레이 장치(100a)와 일체형 또는 분리형으로 구현될 수 있다. 분리된 카메라부(152)를 포함하는 별도의 장치(도시되지 아니함)는 통신부(150) 또는 입/출력부(170)를 통해 디스플레이 장치(100a)와 전기적으로 연결될 수 있다.
디스플레이 장치(100a)의 성능 및 구조에 따라 카메라부(162)가 제외될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
광 수신부(163)는 외부의 제어 장치(200)에서부터 수신되는 광 신호(제어 신호를 포함)를 디스플레이(115)의 베젤의 광창(도시되지 아니함) 등을 통해 수신한다. 광 수신부(163)는 제어 장치(200)로부터 사용자 입력(예를 들어, 터치, 눌림, 터치 제스처, 음성, 또는 모션)에 대응되는 광 신호를 수신할 수 있다. 수신된 광 신호로부터 프로세서(180)의 제어에 의해 제어 신호가 추출될 수 있다.
디스플레이 장치(100a)의 성능 및 구조에 따라 광 수신부(163)가 제외될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
입/출력부(170)는 프로세서(180)의 제어에 의해 디스플레이 장치(100a)의 외부에서부터 비디오(예를 들어, 동영상 등), 오디오(예를 들어, 음성, 음악 등) 및 부가 정보(예를 들어, EPG 등) 등을 수신한다. 입/출력부(170)는 HDMI 포트(High-Definition Multimedia Interface port, 171), 컴포넌트 잭(component jack, 172), PC 포트(PC port, 173), 및 USB 포트(USB port, 174) 중 적어도 하나를 포함할 수 있다. 또한, 입/출력부(170)는 구현 예에 따라 D-sub 포트, DVI(Digital Visual Interface) 포트 및 DP 포트 중 적어도 하나를 더 포함할 수 있다.
입/출력부(170)의 구성 및 동작은 본 발명의 실시예에 따라 다양하게 구현될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
프로세서(180)는 디스플레이 장치(100a)의 전반적인 동작 및 디스플레이 장치(100a)의 내부 구성요소들(110 내지 190)사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 프로세서(180)는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 프로세서(180)는 저장부(190)에 저장된 OS(Operation System) 및 다양한 어플리케이션을 실행할 수 있다.
프로세서(180)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 도시되지 아니함)를 포함할 수 있다. 프로세서(180)는 코어(core, 도시되지 아니함)와 GPU(도시되지 아니함)를 통합한 SoC(System On Chip)로 구현될 수 있다.
도 9의 프로세서(180)는 도2의 제어부(230) 및 도 3의 제어부(334)의 기능을 모두 포함할 수 있다. 따라서, 도 2 및 3에서 설명한 것과 중복되는 설명은 생략한다.
또한, 도 9의 프로세서(180)는 도 3의 믹서(332)를 포함할 수 있다.
저장부(190)는 프로세서(180)의 제어에 의해 디스플레이 장치(100a)를 구동하고 제어하기 위한 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 저장부(190)는 비디오 처리부(110), 디스플레이(115), 오디오 처리부(120), 오디오 출력부(125), 전원부(130), 통신부(150), 감지부(160), 입/출력부(170), 사용자 입력부(175)의 구동에 대응되는 입력/출력되는 신호 또는 데이터를 저장할 수 있다.
저장부(190)는 디스플레이 장치(100a) 및 프로세서(180)의 제어를 위한 제어 프로그램, 디스플레이 화면을 구성하기 위한 프리젠테이션 모듈, 제조사에서 최초 제공되거나 외부에서부터 다운로드 받은 어플리케이션을 저장할 수 있다. 구체적으로, 저장부(190)는 어플리케이션에서 사용되는 JavaScript 파일과 XML파일 등의 리소스를 저장할 수 있다.
저장부(190)는 프리젠테이션 모듈을 포함할 수 있다. 프리젠테이션 모듈은 디스플레이 화면을 구성하기 위한 모듈이다. 프리젠테이션 모듈은 멀티미디어 컨텐츠를 재생하여 출력하기 위한 멀티미디어 모듈, UI 및 그래픽 처리를 수행하는 UI 렌더링 모듈을 포함한다. 멀티미디어 모듈은 플레이어 모듈, 캠코더 모듈, 사운드 처리 모듈 등을 포함할 수 있다. 이에 따라, 각종 멀티미디어 컨텐츠를 재생하여 화면 및 음향을 생성하여 재생하는 동작을 수행한다. UI 렌더링 모듈은 이미지를 조합하는 이미지 합성기(Image Compositor module), 이미지를 디스플레이할 화면상의 좌표를 조합하여 생성하는 좌표 조합 모듈, 하드웨어로부터 각종 이벤트를 수신하는 X11 모듈, 2D 또는 3D 형태의 UI를 구성하기 위한 툴(tool)을 제공하는 2D/3D UI 툴킷 등을 포함할 수 있다.
또한, 저장부(190)는 어플리케이션과 관련된 GUI(graphical user interface), GUI를 제공하기 위한 오브젝트(예를 들어, 이미지, 텍스트, 아이콘, 버튼 등), 사용자 정보, 문서, 데이터베이스들 또는 관련 데이터들을 저장할 수 있다. 또한, 저장부(190)는 디스플레이 장치(100a)의 전원이 온 되었을 때 실행되는 운영 체제를 저장할 수 있다. 또한, 저장부(190)는 디스플레이 장치(100a)의 상주 프로그램(Daemon)을 저장할 수 있다. 또한, 저장부(190)에는 디스플레이 장치(100a)에서 실행되는 어플리케이션의 DRM을 복호화하기 위한 DRM 복호화 모듈이 저장될 수 있다.
일 실시예에서 저장부 라는 용어는 저장부(190), 디스플레이 장치(100a)의 제어를 위한 제어 프로그램이 저장된 롬(ROM), 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 디스플레이 장치(100a)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM) 또는 디스플레이 장치(100a)에 장착되는 메모리 카드(예를 들어, micro SD 카드, USB 메모리, 도시되지 아니함)를 포함한다. 또한, 저장부(190)는 비휘발성 메모리, 휘발성 메모리, 플래쉬 메모리(FLASH Memory), 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
저장부(190)는 도시되지 아니한 볼륨 제어 모듈, 통신 제어 모듈, 음성 인식 모듈, 모션 인식 모듈, 광 수신 모듈, 디스플레이 제어 모듈, 오디오 제어 모듈, 외부 입력 제어 모듈, 전원 제어 모듈, 무선(예를 들어, 블루투스)으로 연결되는 외부 장치의 전원 제어 모듈, 음성 데이터베이스(DB), 또는 모션 데이터베이스(DB)를 포함할 수 있다. 저장부(190)의 도시되지 아니한 모듈들 및 데이터 베이스는 디스플레이 장치(100a)에서 볼륨 제어 기능, 통신 제어 기능, 음성 인식 기능, 모션 인식 기능, 광 수신 제어 기능, 오디오 제어 기능, 외부 입력 제어 기능, 전원 제어 기능, 커서의 디스플레이를 제어하는 디스플레이 제어 기능을 수행하기 위하여 소프트웨어 형태로 구현될 수 있다. 프로세서(180)는 저장부(190)에 저장된 이들 소프트웨어를 이용하여 각각의 기능을 수행할 수 있다.
또한, 도 9에 도시된 저장부(190)는 도 2의 저장부(220) 및 도3의 저장부(230)를 포함할 수 있다. 예를 들어, 일 실시예에 따른 저장부(190)에는 제1 해상도를 갖는 비디오 컨텐츠에 대응되는 비디오 프레임 버퍼 및 적어도 하나의 부분 프레임 버퍼가 할당될 수 있다.
디스플레이 장치(100a)는 튜너부를 가지는 별도의 외부 장치(예를 들어, 셋탑 박스, 도시되지 아니함)와 전기적으로 연결될 수 있다. 예를 들어, 디스플레이 장치(100a)는 아날로그 TV, 디지털 TV, 3D-TV, 스마트 TV, LED TV, OLED TV, 플라즈마 TV, 모니터 등으로 구현될 수 있으나, 이에 한정되지 않는다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
디스플레이 장치(100a)는 디스플레이 장치(100a)의 내부 또는 외부 상태를 검출하는 센서(예를 들어, 조도 센서, 온도 센서 등, 도시되지 아니함)를 더 포함할 수 있다.
도 9의 디스플레이 장치(100a)에 도시된 구성 요소들(예를 들어, 110 내지 190)은 디스플레이 장치(100a)의 성능에 따라 적어도 하나의 구성요소가 추가되거나 삭제될 수 있다. 또한, 구성 요소들의 위치(예를 들어, 110 내지 190)는 디스플레이 장치(100a)의 성능 또는 구조에 따라 변경될 수 있다는 것은 당해 기술분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
일 실시예에 따른 디스플레이 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
전술한 명세서에서, 본 개시 및 장점들은 특정 실시예를 참조하여 설명되었다. 하지만 이 기술 분야에서 통상의 지식을 가진 사람은 다양한 변경과 변화를, 아래 청구항에 개시된 바와 같은 본 개시의 범위를 벗어나지 않고, 용이하게 달성할 수 있다. 따라서 본 상세한 설명과 도면은 제한적 의미가 아니라, 본 개시의 설명적 예시들로 간주되어야 한다. 이러한 가능한 모든 수정은 본 개시의 범위 내에 포함되도록 의도된다.

Claims (20)

  1. 비디오 컨텐츠 및 유저 인터페이스를 동일한 해상도로 디스플레이하는 디스플레이; 및
    상기 디스플레이의 화면에서 상기 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당하고, 상기 할당된 적어도 하나의 부분 프레임 버퍼에서 획득되는 적어도 하나의 부분 그래픽 데이터에 기초하여 상기 유저 인터페이스를 디스플레이하도록 제어하는 제어부를 포함하는, 디스플레이 장치.
  2. 제1 항에 있어서,
    상기 비디오 컨텐츠에 대응되는 비디오 프레임 버퍼 및 상기 적어도 하나의 부분 프레임 버퍼를 포함하는 저장부를 더 포함하는, 디스플레이 장치.
  3. 제2 항에 있어서,
    상기 비디오 프레임 버퍼에 저장되는 상기 비디오 데이터 및 상기 적어도 하나의 부분 프레임 버퍼에 저장되는 상기 적어도 하나의 부분 그래픽 데이터를 획득하고, 상기 비디오 데이터 및 상기 적어도 하나의 부분 그래픽 데이터를 혼합하여 출력하는 믹서를 더 포함하는, 디스플레이 장치.
  4. 제3 항에 있어서, 상기 제어부는
    상기 비디오 데이터 및 상기 적어도 하나의 부분 그래픽 데이터를 동일한 주기로 획득하도록 제어하는, 디스플레이 장치.
  5. 제3 항에 있어서, 상기 제어부는
    상기 적어도 하나의 부분 그래픽 데이터를 미리 정해진 시간에 획득하도록 제어하는, 디스플레이 장치.
  6. 제1 항에 있어서,
    상기 유저 인터페이스가 디스플레이되는 영역인 제1 영역의 크기 및 위치에 대한 정보를 저장하는 저장부를 더 포함하고,
    상기 제어부는 상기 크기 및 위치에 대한 정보에 기초하여 상기 제1 영역에 상기 유저 인터페이스를 디스플레이하도록 제어하는, 디스플레이 장치.
  7. 제6 항에 있어서, 상기 제어부는
    상기 디스플레이의 화면을 미리 정해진 크기를 갖는 복수개의 영역들로 분할하고,
    상기 미리 정해진 크기에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당하고,
    상기 복수개의 영역들 중 하나를 상기 제1 영역으로 결정하는, 디스플레이 장치.
  8. 제7 항에 있어서, 상기 제어부는
    상기 제어부는 상기 제1 영역을 변경하는 입력에 기초하여, 상기 제1 영역을 상기 복수개의 영역들 중 다른 하나로 변경하는, 디스플레이 장치.
  9. 제6 항에 있어서, 상기 제어부는
    상기 제1 영역을 미리 정해진 오프셋(offset) 만큼 이동시키는 입력에 기초하여 상기 이동된 제1 영역에 상기 유저 인터페이스를 디스플레이하도록 제어하는, 디스플레이 장치.
  10. 제6 항에 있어서, 상기 제어부는
    사용자 입력에 기초하여 상기 제1 영역을 업데이트 하고, 상기 업데이트된 제1 영역에 상기 유저 인터페이스를 디스플레이하도록 제어하는, 디스플레이 장치.
  11. 비디오 컨텐츠 및 유저 인터페이스를 동일한 해상도로 디스플레이하는 디스플레이 장치의 디스플레이 방법에 있어서,
    상기 디스플레이 장치의 화면에서 상기 유저 인터페이스가 디스플레이되는 영역의 크기 및 위치에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당하는 단계; 및
    상기 할당된 적어도 하나의 부분 프레임 버퍼에서 획득되는 적어도 하나의 부분 그래픽 데이터에 기초하여 상기 유저 인터페이스를 디스플레이하는 단계를 포함하는, 디스플레이 방법.
  12. 제11 항에 있어서,
    비디오 프레임 버퍼에 저장되는 비디오 데이터 및 상기 적어도 하나의 부분 프레임 버퍼에 저장되는 상기 적어도 하나의 부분 그래픽 데이터를 획득하는 단계; 및
    상기 비디오 데이터 및 상기 적어도 하나의 부분 그래픽 데이터를 혼합하여 출력하는 단계를 더 포함하는, 디스플레이 방법.
  13. 제12 항에 있어서, 상기 획득하는 단계는
    상기 비디오 데이터 및 상기 적어도 하나의 부분 그래픽 데이터를 동일한 주기로 획득하는 단계를 포함하는, 디스플레이 방법.
  14. 제12 항에 있어서, 상기 획득하는 단계는
    상기 적어도 하나의 부분 그래픽 데이터를 미리 정해진 시간에 획득하는 단계를 포함하는, 디스플레이 방법.
  15. 제11 항에 있어서,
    상기 유저 인터페이스가 디스플레이되는 영역인 제1 영역의 크기 및 위치에 대한 정보를 저장하는 단계를 더 포함하고,
    상기 디스플레이하는 단계는 상기 크기 및 위치에 대한 정보에 기초하여 상기 제1 영역에 상기 유저 인터페이스를 디스플레이하는 단계를 더 포함하는, 디스플레이 방법.
  16. 제15 항에 있어서, 상기 할당하는 단계는
    상기 화면을 미리 정해진 크기를 갖는 복수개의 영역들로 분할하는 단계;
    상기 미리 정해진 크기에 기초하여 적어도 하나의 부분 프레임 버퍼를 할당하는 단계; 및
    상기 복수개의 영역들 중 하나를 상기 제1 영역으로 결정하는 단계를 포함하는, 디스플레이 방법.
  17. 제16 항에 있어서, 상기 결정하는 단계는
    상기 제1 영역을 변경하는 입력에 기초하여, 상기 제1 영역을 상기 복수개의 영역들 중 다른 하나로 변경하는 단계를 포함하는, 디스플레이 방법.
  18. 제15 항에 있어서, 상기 디스플레이하는 단계는
    상기 제1 영역을 미리 정해진 오프셋(offset) 만큼 이동시키는 입력에 기초하여, 상기 이동된 제1 영역에 상기 유저 인터페이스를 디스플레이하는 단계를 포함하는, 디스플레이 방법.
  19. 제15 항에 있어서, 상기 디스플레이하는 단계는
    사용자 입력에 기초하여 상기 제1 영역을 업데이트 하는 단계; 및
    상기 업데이트된 제1 영역에 상기 유저 인터페이스를 디스플레이하는 단계를 포함하는, 디스플레이 방법.
  20. 제11 항 내지 제19 항 중 어느 한 항에 기재된 방법을 실행시키기 위한 프로그램이 수록된 컴퓨터로 판독 가능한 저장매체.
KR1020160014083A 2016-02-04 2016-02-04 디스플레이 장치 및 디스플레이 방법 KR102511363B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020160014083A KR102511363B1 (ko) 2016-02-04 2016-02-04 디스플레이 장치 및 디스플레이 방법
EP17154015.6A EP3203728A1 (en) 2016-02-04 2017-01-31 Display apparatus and display method
US15/422,868 US11064150B2 (en) 2016-02-04 2017-02-02 High resolution user interface
CN201710158317.1A CN107071561B (zh) 2016-02-04 2017-02-04 显示装置以及显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160014083A KR102511363B1 (ko) 2016-02-04 2016-02-04 디스플레이 장치 및 디스플레이 방법

Publications (2)

Publication Number Publication Date
KR20170092868A true KR20170092868A (ko) 2017-08-14
KR102511363B1 KR102511363B1 (ko) 2023-03-17

Family

ID=57965700

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160014083A KR102511363B1 (ko) 2016-02-04 2016-02-04 디스플레이 장치 및 디스플레이 방법

Country Status (4)

Country Link
US (1) US11064150B2 (ko)
EP (1) EP3203728A1 (ko)
KR (1) KR102511363B1 (ko)
CN (1) CN107071561B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024085418A1 (ko) * 2022-10-20 2024-04-25 삼성전자 주식회사 디스플레이 장치 및 그 동작 방법

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102657462B1 (ko) * 2018-12-10 2024-04-16 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR20210006130A (ko) * 2019-07-08 2021-01-18 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
CN111601153A (zh) * 2020-05-22 2020-08-28 青岛海信传媒网络技术有限公司 一种媒体文件的播放方法及显示设备
CN113347382A (zh) * 2021-05-26 2021-09-03 随锐科技集团股份有限公司 显示方法、嵌入式终端及计算机可读存储介质
JP7485821B1 (ja) 2023-04-07 2024-05-16 レノボ・シンガポール・プライベート・リミテッド 映像処理装置および映像処理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060128959A (ko) * 2004-02-23 2006-12-14 마쯔시다덴기산교 가부시키가이샤 표시 처리 장치
US20120120320A1 (en) * 2010-11-16 2012-05-17 Ncomputing Inc. System and method for on-the-fly key color generation
US20140063030A1 (en) * 2012-09-06 2014-03-06 Imagination Technologies Limited Systems and methods of partial frame buffer updating
KR20150033162A (ko) * 2013-09-23 2015-04-01 삼성전자주식회사 컴포지터, 이를 포함하는 시스템온칩 및 이의 구동 방법

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3567914A (en) * 1964-12-31 1971-03-02 Sperry Rand Corp Automated manufacturing system
US5179651A (en) * 1988-11-08 1993-01-12 Massachusetts General Hospital Apparatus for retrieval and processing of selected archived images for display at workstation terminals
US5220312A (en) * 1989-09-29 1993-06-15 International Business Machines Corporation Pixel protection mechanism for mixed graphics/video display adaptors
US5237669A (en) * 1991-07-15 1993-08-17 Quarterdeck Office Systems, Inc. Memory management method
US5821918A (en) * 1993-07-29 1998-10-13 S3 Incorporated Video processing apparatus, systems and methods
US5864342A (en) * 1995-08-04 1999-01-26 Microsoft Corporation Method and system for rendering graphical objects to image chunks
WO1997039437A1 (en) * 1996-04-12 1997-10-23 Intergraph Corporation High-speed video frame buffer using single port memory chips where pixel intensity values for display regions are stored at consecutive addresses of memory blocks
US5758166A (en) * 1996-05-20 1998-05-26 Intel Corporation Method and apparatus for selectively receiving write data within a write buffer of a host bridge
US5883640A (en) * 1996-08-15 1999-03-16 Hsieh; Paul Computing apparatus and operating method using string caching to improve graphics performance
US5790792A (en) * 1996-09-04 1998-08-04 Radiant Systems, Inc. Method and apparatus for transmitting multimedia data from and application logic server to interactive multimedia workstations
JPH11164276A (ja) * 1997-11-25 1999-06-18 Sony Corp 情報処理装置および情報処理方法、並びに放送システムおよび放送方法
US6157365A (en) * 1998-03-24 2000-12-05 Ati Technologies, Inc. Method and apparatus for processing video and graphics data utilizing a higher sampling rate
WO1999056249A1 (en) * 1998-04-27 1999-11-04 Interactive Silicon, Inc. Graphics system and method for rendering independent 2d and 3d objects
US6763522B1 (en) * 1998-06-30 2004-07-13 Sony Corporation System and method for a digital television electronic program guide
US6353450B1 (en) * 1999-02-16 2002-03-05 Intel Corporation Placing and monitoring transparent user interface elements in a live video stream as a method for user input
US6853355B1 (en) * 1999-04-07 2005-02-08 Ati International Srl Switchable video overlay apparatus and method
US7373650B1 (en) * 2000-02-01 2008-05-13 Scientific-Atlanta, Inc. Apparatuses and methods to enable the simultaneous viewing of multiple television channels and electronic program guide content
US20040019681A1 (en) * 2002-07-22 2004-01-29 Tadashi Nakamura Data management apparatus and data management system
JP4060294B2 (ja) 2004-07-09 2008-03-12 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、画像処理方法、コンピュータプログラム、半導体デバイス
JP4469788B2 (ja) 2005-12-16 2010-05-26 株式会社東芝 情報処理装置および再生方法
US8341282B2 (en) * 2006-11-21 2012-12-25 Verizon Patent And Licensing Inc. Hybrid buffer management
US8300050B2 (en) * 2006-11-28 2012-10-30 Adobe Systems Incorporated Temporary low resolution rendering of 3D objects
US7827490B2 (en) * 2006-11-30 2010-11-02 Microsoft Corporation Media state user interface
US9606607B2 (en) 2011-05-17 2017-03-28 Ignis Innovation Inc. Systems and methods for display systems with dynamic power control
CN109272933A (zh) 2011-05-17 2019-01-25 伊格尼斯创新公司 操作显示器的方法
KR101869095B1 (ko) 2011-08-23 2018-06-19 삼성전자주식회사 휴대단말기의 표시 방법 및 장치
US9578336B2 (en) * 2011-08-31 2017-02-21 Texas Instruments Incorporated Hybrid video and graphics system with automatic content detection process, and other circuits, processes, and systems
KR20130057588A (ko) 2011-11-24 2013-06-03 삼성전자주식회사 다른 프로세스에서 생성된 윈도우를 컨트롤하는 휴대용 단말기의 장치 및 방법
KR20140099135A (ko) 2013-02-01 2014-08-11 삼성전자주식회사 이미지의 부분 프레임을 업데이트 하는 시스템 온 칩 및 그 동작방법
US9412196B2 (en) * 2013-04-15 2016-08-09 Broadcom Corporation Regional compositing
KR102246105B1 (ko) 2014-09-25 2021-04-29 삼성전자주식회사 디스플레이 장치, 이의 제어 방법 및 이의 데이터 전송 방법
US10091530B2 (en) * 2014-10-01 2018-10-02 Qualcomm Incorporated Pipelined intra-prediction hardware architecture for video coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060128959A (ko) * 2004-02-23 2006-12-14 마쯔시다덴기산교 가부시키가이샤 표시 처리 장치
US20120120320A1 (en) * 2010-11-16 2012-05-17 Ncomputing Inc. System and method for on-the-fly key color generation
US20140063030A1 (en) * 2012-09-06 2014-03-06 Imagination Technologies Limited Systems and methods of partial frame buffer updating
KR20150033162A (ko) * 2013-09-23 2015-04-01 삼성전자주식회사 컴포지터, 이를 포함하는 시스템온칩 및 이의 구동 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024085418A1 (ko) * 2022-10-20 2024-04-25 삼성전자 주식회사 디스플레이 장치 및 그 동작 방법

Also Published As

Publication number Publication date
CN107071561A (zh) 2017-08-18
KR102511363B1 (ko) 2023-03-17
US20170230603A1 (en) 2017-08-10
US11064150B2 (en) 2021-07-13
CN107071561B (zh) 2020-11-03
EP3203728A1 (en) 2017-08-09

Similar Documents

Publication Publication Date Title
US11064150B2 (en) High resolution user interface
CN107786883B (zh) 图像显示设备及其操作方法
US10817979B2 (en) Image display device and method of operating the same
CN109792561B (zh) 图像显示设备及其操作方法
US10671265B2 (en) Display apparatus and display method
US10203927B2 (en) Display apparatus and display method
EP3082335B1 (en) Playback device for playing video content and operating method of the same
US10732792B2 (en) Image display apparatus and method for changing properties of a highlighted item and surrounding items
US20170322635A1 (en) Image displaying apparatus and method of operating the same
US20160170597A1 (en) Display apparatus and display method
EP4005197B1 (en) Display apparatus and control method thereof
EP3038374A1 (en) Display device and display method
US10582257B2 (en) Server, image display apparatus, and method of operating the image display apparatus
KR20180057473A (ko) 디스플레이 장치 및 컨텐츠를 디스플레이하는 방법
US11169662B2 (en) Display apparatus and display method
EP3032392B1 (en) Display apparatus and display method
KR20170072652A (ko) 디스플레이 장치 및 디스플레이 방법
KR20170011363A (ko) 디스플레이 장치 및 디스플레이 방법
CN108702546A (zh) 服务器、图像显示装置及操作图像显示装置的方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant