KR20170083889A - 디스플레이 장치 및 그 동작 방법 - Google Patents

디스플레이 장치 및 그 동작 방법 Download PDF

Info

Publication number
KR20170083889A
KR20170083889A KR1020160003348A KR20160003348A KR20170083889A KR 20170083889 A KR20170083889 A KR 20170083889A KR 1020160003348 A KR1020160003348 A KR 1020160003348A KR 20160003348 A KR20160003348 A KR 20160003348A KR 20170083889 A KR20170083889 A KR 20170083889A
Authority
KR
South Korea
Prior art keywords
frame
content
display device
image content
real image
Prior art date
Application number
KR1020160003348A
Other languages
English (en)
Inventor
김제익
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160003348A priority Critical patent/KR20170083889A/ko
Priority to PCT/KR2017/000060 priority patent/WO2017122961A1/en
Priority to CN201780006125.7A priority patent/CN108432243A/zh
Priority to EP17738590.3A priority patent/EP3387828A4/en
Priority to US15/398,968 priority patent/US20170201710A1/en
Publication of KR20170083889A publication Critical patent/KR20170083889A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6072Colour correction or control adapting to different types of images, e.g. characters, graphs, black and white image portions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/87Regeneration of colour television signals
    • H04N9/873Regeneration of colour television signals for restoring the colour component sequence of the reproduced chrominance signal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/02Handling of images in compressed format, e.g. JPEG, MPEG
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

디스플레이부 및 그래픽 프레임을 구성하는 하나 이상의 콘텐트들 중 실사 이미지 콘텐트를 획득하고, 획득된 상기 실사 이미지 콘텐트를 디코딩 및 화질 처리하고, 화질 처리된 상기 실사 이미지 콘텐트를 상기 그래픽 프레임을 구성하는 다른 콘텐트와 결합함으로써 상기 그래픽 프레임을 획득하고, 획득된 상기 그래픽 프레임을 상기 디스플레이부로 출력하도록 구성된 제어부를 포함하는 디스플레이 장치가 개시된다.

Description

디스플레이 장치 및 그 동작 방법{DISPLAY APPARAGUS AND OPERATION METHOD OF THE SAME}
본 개시는 디스플레이 장치 및 그 동작 방법에 관한 것이며, 더욱 상세하게는 디스플레이 장치의 화질을 개선할 수 있는 디스플레이 장치 및 그 동작 방법에 관한 것이다.
디스플레이 장치는 사용자가 시청할 수 있는 영상을 표시하는 기능을 갖춘 장치이다. 예를 들어, 디스플레이 장치의 예인 TV(television) 장치는 과거에는 방송국에서 송출하는 방송 신호를 단방향으로만 수신하여 방송 영상을 디스플레이해주는 기능만을 하였었다. 그러나 현재의 디스플레이 장치는 방송국으로부터 전달받는 방송 영상을 표시하는 기능뿐만 아니라 제공 기능이 점차 다양해지고 있다. 이로 인해, 디스플레이 장치에 표시되는 데이터가 다양해지면서 디스플레이 장치의 화질이 저하될 수 있다.
본 개시의 목적은, 디스플레이 장치의 화질을 개선할 수 있는 디스플레이 장치 및 그 동작 방법을 제공하는 것이다.
일부 실시예에 따른 디스플레이 장치는 디스플레이부, 프로세서, 메모리 및 상기 메모리에 저장되고, 상기 프로세서에 의해 실행되는 하나 이상의 프로그램들을 포함하고, 상기 하나 이상의 프로그램들은, 그래픽 프레임을 구성하는 하나 이상의 콘텐트들 중 실사 이미지 콘텐트를 획득하고, 획득된 상기 실사 이미지 콘텐트를 디코딩 및 화질 처리하고, 화질 처리된 상기 실사 이미지 콘텐트를 상기 그래픽 프레임을 구성하는 다른 콘텐트와 결합함으로써 상기 그래픽 프레임을 획득하고, 획득된 상기 그래픽 프레임을 상기 디스플레이부로 출력하는 하나 이상의 인스트럭션들을 포함한다.
상기 실사 이미지 콘텐트는, 정지 이미지 콘텐트 또는 비디오 콘텐트를 나타내기 위한 대표 이미지 콘텐트를 포함할 수 있다.
상기 실사 이미지 콘텐트는, JPEG(Joint Photographic Experts Group) 파일 또는 JPG 파일을 포함할 수 있다.
상기 하나 이상의 프로그램들은, 획득된 상기 실사 이미지 콘텐트를 YCbCr로부터 RGB로 변경하는 컬러 공간 변환 시 미리 정해진 변환 테이블을 이용함으로써 상기 화질 처리를 수행하기 위한 인스트럭션들을 더 포함할 수 있다.
상기 화질 처리는 색상 강화, 휘도 강화, 콘트라스트 처리, RGB 보정 중 적어도 하나를 포함할 수 있다.
상기 하나 이상의 프로그램들은, 비디오 콘텐트에 대한 비디오 프레임과 상기 그래픽 프레임을 믹싱하여 믹스된 프레임을 획득하고, 상기 믹스된 프레임을 상기 디스플레이부에 출력하기 위한 인스트럭션들을 더 포함할 수 있다
일부 실시예에 따른 디스플레이 장치의 동작 방법은, 그래픽 프레임을 구성하는 하나 이상의 콘텐트들 중 실사 이미지 콘텐트를 획득하는 단계, 획득된 상기 실사 이미지 콘텐트를 디코딩 및 화질 처리하는 단계, 화질 처리된 상기 실사 이미지 콘텐트를 상기 그래픽 프레임을 구성하는 다른 콘텐트와 결합함으로써 상기 그래픽 프레임을 획득하는 단계 및 획득된 상기 그래픽 프레임을 출력하는 단계를 포함한다.
상기 실사 이미지 콘텐트는, 정지 이미지 콘텐트 또는 비디오 콘텐트를 나타내기 위한 대표 이미지 콘텐트를 포함할 수 있다.
상기 실사 이미지 콘텐트는, JPEG 파일 또는 JPG 파일을 포함할 수 있다.
획득된 상기 실사 이미지 콘텐트를 디코딩 및 화질 처리하는 단계는, 획득된 상기 실사 이미지 콘텐트를 YCbCr로부터 RGB로 변경하는 컬러 공간 변환 시 미리 정해진 변환 테이블을 이용함으로써 상기 화질 처리를 수행할 수 있다.
상기 화질 처리는 색상 강화, 휘도 강화, 콘트라스트 처리, RGB 보정 중 적어도 하나를 포함할 수 있다.
상기 디스플레이 장치의 동작 방법은, 비디오 콘텐트에 대한 비디오 프레임과 상기 그래픽 프레임을 믹싱하여 믹스된 프레임을 획득하는 단계 및 상기 믹스된 프레임을 출력하는 단계를 더 포함할 수 있다.
도 1은 일부 실시예에 따른 디스플레이 장치를 나타낸다.
도 2는 일부 실시예에 따른 디스플레이 장치가 획득한 그래픽 프레임의 예시이다.
도 3은 일부 실시예에 따른 디스플레이 장치에서 그래픽 프레임 획득 방법을 나타낸다.
도 4는 그래픽 프레임이 저장되는 그래픽 플레인을 설명하기 위한 도면이다.
도 5는 비디오 프레임 및 그래픽 프레임을 설명하기 위한 도면이다.
도 6은 일부 실시예에 따른 디스플레이 장치의 비디오 프레임괴 그래픽 프레임의 믹싱의 예시이다.
도 7은 일부 실시예에 따른 디스플레이 장치의 화면의 예시이다.
도 8은 일부 실시예에 따른 디스플레이 장치의 블록도이다.
도 9는 일부 실시예에 따른 디스플레이 장치의 동작을 설명하기 위한 도면이다.
도 10은 일부 실시예에 따른 디스플레이 장치의 다른 블록도이다.
도 11은 일부 실시예에 따른 디스플레이 장치의 동작 방법의 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 개시의 실시예를 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 또한, 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 개시에서 사용되는 용어는, 본 개시에서 언급되는 기능을 고려하여 현재 사용되는 일반적인 용어로 기재되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 다양한 다른 용어를 의미할 수 있다. 따라서 본 개시에서 사용되는 용어는 용어의 명칭만으로 해석되어서는 안되며, 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 해석되어야 한다.
또한, 제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 이 용어들에 의해 한정되어서는 안 된다. 이 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로 사용된다.
또한, 본 개시에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것이며, 본 개시를 한정하려는 의도로 사용되는 것이 아니다. 단수의 표현은 문맥상 명백하게 단수를 뜻하지 않는 한, 복수의 의미를 포함한다. 또한, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본 명세서, 특히, 특허 청구 범위에서 사용된 "상기" 및 이와 유사한 지시어는 단수 및 복수 모두를 지시하는 것일 수 있다. 또한, 본 개시에 따른 방법을 설명하는 단계들의 순서를 명백하게 지정하는 기재가 없다면, 기재된 단계들은 적당한 순서로 행해질 수 있다. 기재된 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다.
본 명세서에서 다양한 곳에 등장하는 "일부 실시예에서" 또는 "일 실시예에서" 등의 어구는 반드시 모두 동일한 실시예를 가리키는 것은 아니다.
본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. "매커니즘", "요소", "수단" 및 "구성" 등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1은 일부 실시예에 따른 디스플레이 장치를 나타낸다.
도 1을 참고하면, 디스플레이 장치(100)는 A/V(audio/video) 콘텐트를 출력하도록 구성된 장치일 수 있다. 디스플레이 장치(100)는 A/V 콘텐트 중 비디오 콘텐트(11)는 화면에 출력하고, 오디오 콘텐트는 디스플레이 장치(100)에 포함된 음향 출력부 또는 디스플레이 장치(100)와 연결된 스피커에 출력할 수 있다.
A/V 콘텐트는 실시간 방송 콘텐트이거나, 비실시간 A/V 콘텐트일 수 있다. 예를 들어, 비실시간 A/V 콘텐트는 VOD(Video On Demand) 서비스로 제공되는 A/V 콘텐트일 수 있다. 디스플레이 장치(100)는 A/V 콘텐트 제공자로부터 A/V 콘텐트를 수신할 수 있다. 디스플레이 장치(100)는 A/V 콘텐트를 스트리밍으로 수신하거나, 다운로드받을 수 있다. 예를 들어, A/V 콘텐트 제공자는 방송 서비스 제공자, VOD 서비스 제공자 등일 수 있다.
디스플레이 장치(100)는 방송 채널을 통하여 외부로부터 방송 신호 및 방송 관련된 정보를 수신할 수 있다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 디스플레이 장치(100)는 방송 채널 또는 인터넷을 통해 A/V 콘텐트를 수신할 수 있다. 또는, 디스플레이 장치(100)는 유선 또는 무선으로 연결되는 외부 기기로부터 A/V 콘텐트를 수신할 수 있다. 또는, 디스플레이 장치(100)에 포함되는 메모리에 A/V 콘텐트가 저장되어 있을 수 있다.
디스플레이 장치(100)는 화면에 비디오 콘텐트(11) 외에도 하나 이상의 그래픽 콘텐트들(12, 13, 14)을 더 출력할 수 있다. 그래픽 콘텐트들(12, 13, 14)은 디스플레이 장치(100)의 화면에 실사 이미지, 텍스트, 그래픽 이미지 등으로 출력될 수 있는 각종 정보를 의미한다. 예를 들어, 그래픽 콘텐트들(12, 13, 14)은 OSD(on screen display) 메뉴, 프로그램 정보, EPG(Electronic Program Guide), 어플리케이션 아이콘, 어플리케이션 창, UI(user interface) 창, 비디오 콘텐트(11)에 대응하는 자막(subtitle), 비디오 콘텐트(11)와 연관된 정보, 웹 브라우징 창 등을 포함할 수 있다. 다만, 그래픽 콘텐트들(12, 13, 14)이 이에 제한되는 것은 아니다.
디스플레이 장치(100)는 화면을 분할하여 비디오 콘텐트(11)와 그래픽 콘텐트들(12, 13, 14)이 중첩되지 않게 출력할 수 있다. 또는, 디스플레이 장치(100)는 비디오 콘텐트(11) 위에 그래픽 콘텐트(12, 13, 14)을 중첩해서 출력할 수도 있다. 또한, 디스플레이 장치(100)는 한 화면에 출력되는 그래픽 콘텐트들(12, 13, 14) 중 일부는 비디오 콘텐트(11)와 중첩되지 않게 출력하고, 다른 일부는 비디오 콘텐트(11)와 중첩되게 출력할 수도 있다. 예를 들어, 디스플레이 장치(100)는 그래픽 콘텐트들(12, 13, 14) 중 비디오 콘텐트(11)에 대응하는 자막, 비디오 콘텐트(11)와 연관된 정보에 해당하는 그래픽 콘텐트는 비디오 콘텐트(11) 위에 출력할 수 있다. 다만 도 1의 디스플레이 장치(100)의 화면은 예시일 뿐이며, 비디오 콘텐트(11) 및 그래픽 콘텐트(12, 13, 14)의 출력 방식을 제한하는 것은 아니다.
그래픽 콘텐트들(12, 13, 14)은 실사 이미지 콘텐트(12), 그래픽 이미지 콘텐트(13), 폰트(font) 콘텐트(14) 등을 포함할 수 있다.
실사 이미지 콘텐트(12)는 정지 이미지 콘텐트 또는 비디오 콘텐트를 나타내기 위한 대표 이미지 콘텐트일 수 있다. 예를 들어, 정지 이미지 콘텐트는 실사 사진일 수 있다. 비디오 콘텐트를 나타내기 위한 대표 이미지 콘텐트는 비디오 콘텐트의 대표 프레임 이미지 또는 비디오 콘텐트의 섬네일 이미지 등일 수 있다. 실사 이미지 콘텐트(12)는 JPEG(Joint Photographic Experts Group) 포맷으로 압축된 JPG 파일, JPEG 파일 등을 포함할 수 있다.
그래픽 이미지 콘텐트(13)는 실사 이미지가 아닌 인위적으로 만들어진 이미지일 수 있다. 그래픽 이미지 콘텐트(13)는 PNG(Portable Network Graphics) 포맷으로 압축된 PNG 파일을 포함할 수 있다. 폰트 콘텐트(14)는 서체(typeface)의 특정한 크기 및 스타일 등의 속성을 갖는 텍스트 이미지일 수 있다. 그래픽 이미지 콘텐트(13)는 폰트의 속성이 없는 문자를 이미지로 포함할 수도 있다.
디스플레이 장치(100)는 그래픽 콘텐트들(12, 13, 14)을 다양하게 획득할 수 있다. 디스플레이 장치(100)은 그래픽 콘텐트들(12, 13, 14)을 방송 채널 또는 인터넷을 통해 획득할 수 있다. 또는, 디스플레이 장치(100)는 디스플레이 장치(100)에 포함된 메모리로부터 그래픽 콘텐트들(12, 13, 14)을 획득할 수 있다. 예를 들어, 내장 UI는 메모리에 저장되어 있을 수 있다.
디스플레이 장치(100)는 한 화면에 출력되는 그래픽 콘텐트들(12, 13, 14) 중 일부를 방송 채널 또는 인터넷을 통해 획득하고, 다른 일부는 메모리로부터 획득할 수도 있다.
디스플레이 장치(100)는 하나 이상의 그래픽 콘텐트들(12, 13, 14)을 획득하면, 하나 이상의 그래픽 콘텐트들(12, 13, 14)을 한 화면에 출력하기 위해 하나 이상의 그래픽 콘텐트들(12, 13, 14)를 결합(merging)해 그래픽 프레임(graphic frame)을 획득할 수 있다.
도 2는 일부 실시예에 따른 디스플레이 장치가 획득한 그래픽 프레임의 예시이다.
도 2를 참고하면, 디스플레이 장치는 하나 이상의 그래픽 콘텐트들(12, 13, 14)을 결합해 그래픽 프레임(20)을 획득할 수 있다. 도 1에서 설명하였듯이, 그래픽 콘텐트들(12, 13, 14)은 각각 서로 다른 포맷의 파일들일 수 있다. 또한, 디스플레이 장치는 네트워크, 외부 기기, 내장 메모리 등 다양한 소스로부터 그래픽 콘텐트들(12, 13, 14)을 획득할 수 있다.
도 3은 일부 실시예에 따른 디스플레이 장치에서 그래픽 프레임 획득 방법을 나타낸다.
도 3을 참고하면, 디스플레이 장치는 하나 이상의 그래픽 콘텐트들(12, 13, 14)를 획득할 수 있다. 디스플레이 장치는 하나 이상의 그래픽 콘텐트들(12, 13, 14)을 실사 이미지 콘텐트(12) 및 비실사 그래픽 콘텐트(13, 14)로 구분할 수 있다. 비실사 그래픽 콘텐트(13, 14)는 도 1에서 설명한 그래픽 이미지 콘텐트, 폰트 콘텐트 등일 수 있다.
디스플레이 장치는 실사 이미지 콘텐트(12)를 디코딩 및 화질 처리할 수 있다(S11). 디스플레이 장치는 비실사 그래픽 콘텐트(13, 14)를 디코딩할 수 있다(S12). 디스플레이 장치는 디코딩 및 화질 처리한 실사 이미지 콘텐트(12)와 화질 처리하지 않은 비실사 그래픽 콘텐트(13, 14)를 결합하여, 그래픽 프레임을 획득할 수 있다(S13).
일부 실시예에 따라 디스플레이 장치는 실사 이미지 콘텐트(12)만을 화질 처리한 그래픽 프레임을 획득함으로써 화질 열화를 방지할 수 있다.
비실사 그래픽 콘텐트(13, 14)는 인위적으로 만들어진 이미지라는 점에서 실사 이미지 콘텐트(12)와 구별될 수 있다. 또한, 비실사 그래픽 콘텐트(13, 14)는 주로 무손실 압축(예를 들어, PNG)된 파일을 포함할 수 있다. 반면, 실사 이미지 콘텐트(12)는 손실 압축(예를 들어, JPEG)된 파일을 포함할 수 있다.
실사 이미지 콘텐트(12)는 비실사 그래픽 콘텐트(13, 14)와 다른 속성을 가지기 때문에 그래픽 프레임으로 함께 결합되어 표시될 경우 화질 열화을 유발할 수 있다.
일부 실시예에 따르면, 디스플레이 장치는 실사 그래픽 콘텐트(12)를 다른 콘텐트(13, 14)와 구별하고, 실사 그래픽 콘텐트(12)만을 화질 처리할 수 있다. 디스플레이 장치는 실사 그래픽 콘텐트(12)만을 화질 처리함으로써 실사 그래픽 콘텐트(12)의 화질을 개선시키면서, 다른 콘텐트(13, 14)의 왜곡을 방지할 수 있다. 따라서 그래픽 프레임(20)의 전체 화질이 개선될 수 있다. 즉, 디스플레이 장치는 그래픽 프레임을 구성하는 그래픽 콘텐트들의 종류에 따라 디코딩 시 선택적으로 화질 처리함으로써, 화질을 개선할 수 있다.
디스플레이 장치는 획득된 하나 이상의 콘텐트들의 파일 포맷에 기초해 실사 이미지 콘텐트(12)를 다른 콘텐트(13, 14)와 구별할 수 있다. 예를 들어, 디스플레이 장치는 JPG 파일 또는 JPEG 파일의 콘텐트는 실사 그래픽 콘텐트(12)로 구별할 수 있다.
디스플레이 장치는 실사 이미지 콘텐트(12)에 대한 디코딩 및 화질 처리를 동시에 수행하거나, 실사 이미지 콘텐트(12)를 디코딩한 후 화질 처리를 수행할 수도 있다. 즉, 화질 처리는 디코딩과 함께 수행되거나, 디코딩 후 후처리(post processing)로 수행될 수 있다.
먼저, 디스플레이 장치는 실사 이미지 콘텐트(12)에 대한 디코딩 및 화질 처리를 동시에 수행하는 경우는 다음과 같다.
디스플레이 장치는 실사 이미지 콘텐트(12)를 디코딩 시 YCbCr로부터 RGB로 변경하는 컬러 공간 변환을 수행할 수 있다. 디스플레이 장치는 실사 이미지 콘텐트(12)의 컬러 공간 변환 시 미리 정해진 변환 테이블을 이용함으로써 화질 처리를 수행할 수 있다.
RGB 및 YCbCr의 표준적(standard) 관계는 다음 수학식 1과 같다.
[수학식 1]
R = Y + 1.40200 X Cr
G = Y - 0.34414 X Cb - 0.71414 X Cr
B = Y + 1.77200 X Cb
실사 이미지 콘텐트(12)의 컬러 공간 변환 시 미리 정해진 변환 테이블은 상기 수학식 1에서 계수가 조정된 테이블일 수 있다. 실사 이미지 콘텐트(12)에 대한 변환 테이블은 디스플레이 장치의 화면에 테스트 패턴을 출력함으로써 실험적으로 획득될 수 있다. 변환 테이블은 디스플레이 장치의 패널 특성에 따라 달라질 수 있다.
실사 이미지 콘텐트(12)의 컬러 공간 변환 시 미리 정해진 변환 테이블을 이용하는 경우, 디스플레이 장치는 컬러 공간 변환이라는 디코딩 과정들 중의 하나의 과정과 화질 처리를 동시에 수행할 수 있다. 따라서, 디스플레이 장치는 추가적인 하드웨어 구성이나 추가적인 연산의 오버헤드 없이 화질을 개선할 수 있다. 또한, 추가적인 연산이 필요 없기 때문에 그래픽 프레임 획득 과정에 소요되는 시간이 증가하지 않는다. 따라서, 디스플레이 장치의 사용자의 체감 성능이 저하되지 않을 수 있다.
디스플레이 장치는 실사 이미지 콘텐트(12)에 대해 디코딩 후 다양한 후처리로 화질 처리를 수행할 수 있다. 화질 처리의 예로는 색상 강화, 휘도 강화, 콘트라스트 처리, RGB 보정 중 적어도 하나를 포함할 수 있다. 다만, 디스플레이 장치가 수행하는 화질 처리 방식이 서술된 예시에 한정하는 것은 아니다. 디스플레이 장치는 디코딩 후 다양한 후처리로 화질 처리를 수행할 수 있다.
일부 실시예를 적용하지 않는 경우의 예로, 디스플레이 장치는 그래픽 프레임을 구성하는 콘텐트들 모두에 화질 처리 없이 그래픽 프레임을 획득할 수 있다. 디스플레이 장치가 그래픽 프레임을 그대로 출력하면, 사용자는 화면에서 실사 이미지 콘텐트(12)의 화질 열화를 느낄 것이다. 화질 열화의 원인은 실사 이미지 콘텐트(12)가 무손실 압축된 파일이기 때문일 수 있다.
일부 실시예를 적용하지 않는 경우의 다른 예로, 디스플레이 장치는 콘텐트들 모두 화질 처리 없이 그래픽 프레임을 획득한 후 그래픽 프레임 전체를 화질 처리하여 출력할 수 있다. 이 경우, 실사 이미지 콘텐트(12)의 화질은 개선되나, 비실사 그래픽 콘텐트(13, 14)에는 왜곡이 발생할 수 있다.
일부 실시예를 적용하지 않는 경우의 또 다른 예로, 디스플레이 장치는 콘텐트들 모두 화질 처리 없이 그래픽 프레임을 획득 한 후, 그래픽 프레임에서 어느 영역이 실사 그래픽 콘텐트(12)이고, 어느 영역이 비실사 그래픽 콘텐트(13, 14)인지 판단하여 그래픽 콘텐트(12)에 해당하는 영역만을 화질 처리할 수 있다. 이때, 디스플레이 장치는 그래픽 프레임에서 특정 영역을 구분하기 위한 판단 알고리즘을 필요로 하게 된다. 이로 인해, 추가적인 하드웨어 구성이 필요하고, 연산의 복잡도가 증가하며, 추가적인 비용이 발생할 수 있다.
반면, 일부 실시예에 따라 디스플레이 장치는 실사 이미지 콘텐트(12)를 디코딩 및 화질 처리하고, 다른 콘텐트와 결합하여 그래픽 프레임을 획득함으로써, 추가적인 오버헤드 없이 화질을 개선할 수 있다.
디스플레이 장치는 그래픽 플레인에 그래픽 프레임을 그림으로써 그래픽 프레임을 획득할 수 있다. 그래픽 플레인은 그래픽 프레임을 임시 저장할 수 있다.
도 4는 그래픽 프레임이 저장되는 그래픽 플레인을 설명하기 위한 도면이다.
도 4를 참고하면, 그래픽 플레인(220)은 그래픽 프레임(20)을 저장할 수 있다. 그래픽 플레인(220)은 디스플레이 장치가 화면에 출력될 그래픽 프레임(20)을 획득해 저장하는 버퍼(buffer)라 할 수 있다. 디스플레이 장치(100)는 그래픽 플레인(220)에 그래픽 프레임(20)을 그릴 수 있다. 그래픽 플레인(220)에 그래픽 프레임(20)을 그린다는 것은, 그래픽 플레인(220)에 그래픽 프레임(20)을 구성하는 픽셀들 각각에 대한 픽셀값들을 기입(writing)하는 것을 의미할 수 있다. 즉, 그래픽 프레임(20)을 그리는 것은 그래픽 프레임(20)을 저장한다는 의미일 수 있다.
그래픽 프레임(20)은 복수의 픽셀들로 구성될 수 있다. 복수의 픽셀들 각각은 픽셀값을 가질 수 있다. 픽셀값은 RGB 데이터일 수 있다. RGB 데이터는 (R, G, B)로 표현될 수 있다. 여기서 R, G, B는 각각 적색 데이터, 녹색 데이터, 청색 데이터이다. 예를 들어, 각 데이터가 8비트로 표현되는 경우, 적색, 녹색 및 청색은 각각 256 레벨 중 하나의 레벨을 갖게 된다. 각자의 레벨로 표현된 적색, 녹색 및 청색이 혼합되어 색을 표현할 수 있다. 예를 들어, RGB 데이터가 (255, 255, 255)이면 백색(white)을 나타내고, RGB 데이터가 (0, 0, 0)이면 흑색(black)을 나타낸다.
디스플레이 장치는 그래픽 플레인(220)에 하나 이상의 콘텐트들을 결합하여 그림으로써, 그래픽 프레임(20)을 획득할 수 있다.
디스플레이 장치가 실사 이미지 콘텐트를 디코딩 및 화질 처리한 결과는 RGB 데이터를 포함할 수 있다. 또한, 디스플레이 장치가 비실사 그래픽 콘텐트를 디코딩한 결과 역시 RGB 데이터를 포함할 수 있다. 디스플레이 장치는 각 그래픽 콘텐트들이 그래픽 프레임(20)에 그려질 픽셀의 위치를 결정할 수 있다. 디스플레이 장치는 각 그래픽 콘텐트에 대해 결정된 픽셀의 위치에 RGB 데이터를 기입함으로써 그래픽 콘텐트들을 결합하여 그림으로써 그래픽 프레임(20)을 획득할 수 있다. 디스플레이 장치가 그래픽 프레임(20)을 그리면, 그래픽 플레인(220)에 그래픽 프레임(20)이 임시 저장될 수 있다. 디스플레이 장치는 획득된 그래픽 프레임(20)을 화면에 출력할 수 있다. 그래픽 프레임(20)이 출력되면, 디스플레이 장치는 다음 그래픽 프레임을 그래픽 플레인(220)에 그릴 수 있다.
그런데 도 1에서 설명하였듯이, 디스플레이 장치(100)는 그래픽 콘텐트들(12, 13, 14) 외에도 비디오 콘텐트(11)를 함께 화면에 표시할 수 있다. 디스플레이 장치(100)는 그래픽 콘텐트들(12, 13, 14)을 결합하여 획득한 그래픽 프레임(20)과 함께 비디오 프레임을 화면에 출력할 수도 있다.
도 5는 비디오 프레임 및 그래픽 프레임을 설명하기 위한 도면이다.
도 5를 참고하면, 디스플레이 장치는 비디오 콘텐트(도 1의 11)를 획득하고, 비디오 콘텐트를 디코딩 등의 영상 처리를 통해 복수의 비디오 프레임들(FR1, FR2, FR3, FR4, FR5)을 획득할 수 있다. 디스플레이 장치는 비디오 콘텐트를 MPEG(Moving Picture Experts Group) 포맷의 파일로 획득할 수 있으나, 이에 제한되는 것은 아니다.
디스플레이 장치는 복수의 비디오 프레임들(FR1, FR2, FR3, FR4, FR5)을 프레임 레이트로 출력할 수 있다. 프레임 레이트는 초당 출력되는 비디오 프레임들의 개수이다.
디스플레이 장치는 비디오 플레인에 비디오 프레임들(FR1, FR2, FR3, FR4, FR5)을 저장할 수 있다. 비디오 플레인은 디스플레이 장치가 화면에 출력될 비디오 프레임들(FR1, FR2, FR3, FR4, FR5)을 획득해 저장하는 버퍼(buffer)라 할 수 있다. 하나의 비디오 플레인에는 하나의 비디오 프레임이 저장될 수 있다. 디스플레이 장치가 하나의 비디오 플레인을 포함하는 경우, 디스플레이 장치는 현재 비디오 프레임(예를 들어, FR1)을 출력하면, 다음 프레임(예를 들어, FR2)을 비디오 플레인에 저장할 수 있다. 디스플레이 장치는 복수의 비디오 플레인들을 포함할 수도 있다.
각 그래픽 프레임들(GFR1, GFR2)은 도 2 내지 도 4에서 전술한 내용으로 획득될 수 있으므로, 중복되는 설명은 생략한다.
디스플레이 장치는 복수의 비디오 프레임들(FR1, FR2, FR3, FR4, FR5)과 그래픽 프레임들(GFR1, GFR2)을 별개로 획득하고 처리할 수 있다.
디스플레이 장치는 비디오 프레임(FR1, FR2, FR3, FR4, FR5)과 그래픽 프레임(GFR1, GFR2)을 믹싱하여 함께 출력할 수 있다. 비디오 프레임들(FR1, FR2, FR3)은 그래픽 프레임(GFR1)과 믹싱될 수 있고, 비디오 프레임들(FR4, FR5)은 그래픽 프레임(GFR2)과 믹싱될 수 있다.
그래픽 프레임(GFR1, GFR2)은 비디오 프레임(FR1, FR2, FR3, FR4, FR5)에 비해 현재 프레임(예를 들어, GFR1)에서 다음 프레임(예를 들어, GFR2)로 전환되는 시간이 일정하지 않을 수 있다.
도 5에서는 도시되지 않았으나 디스플레이 장치가 그래픽 프레임과 함께 출력할 비디오 프레임이 없는 경우, 디스플레이 장치는 그래픽 프레임만 화면에 출력할 수 있다.
도 6은 일부 실시예에 따른 디스플레이 장치의 비디오 프레임괴 그래픽 프레임의 믹싱의 예시이다.
도 6을 참고하면, 디스플레이 장치는 비디오 콘텐트(11)에 대한 비디오 프레임(31)을 획득할 수 있다. 디스플레이 장치는 하나 이상의 그래픽 콘텐트들(12, 13, 14)을 결합한 그래픽 프레임(32)을 획득할 수 있다.
디스플레이 장치는 비디오 프레임(31) 및 그래픽 프레임(32)을 믹싱하여 프레임(33)을 획득할 수 있다. 디스플레이 장치는 획득된 프레임(33)을 화면에 출력할 수 있다.
그래픽 프레임(32)을 획득하기 위한 실사 이미지 콘텐트(12)에 대한 디코딩 및 화질 처리는 전술된 내용이 적용될 수 있다. 이를 통해 디스플레이 장치는 실사 이미지 콘텐트(12)에 대한 화질이 개선된 화면을 제공할 수 있다.
도 7은 일부 실시예에 따른 디스플레이 장치의 화면의 예시이다.
도 7을 참고하면, 디스플레이 장치(100)는 하나 이상의 그래픽 콘텐트들(12-1, 12-2, 13, 14)이 결합된 그래픽 프레임을 화면에 출력할 수 있다. 디스플레이 장치(100)는 비디오 콘텐트가 없는 경우 그래픽 프레임만을 출력할 수 있다. 그래픽 콘텐트들(12-1, 12-2, 13, 14)은 실사 이미지 콘텐트(12-1, 12-2), 그래픽 이미지 콘텐트(13), 폰트 콘텐트(14) 등을 포함할 수 있다.
실사 이미지 콘텐트들(12-1, 12-2)은 비디오 콘텐트를 나타내기 위한 대표 이미지 콘텐트일 수 있다. 디스플레이 장치(100)는 하나의 실사 이미지 콘텐트(12-1)를 선택하는 사용자 입력을 제어 장치(300)로부터 수신할 수 있다. 디스플레이 장치(100)는 선택된 실사 이미지 콘텐트(12-1)에 대응하는 비디오 콘텐트(11)를 출력할 수 있다. 디스플레이 장치(100)는 비디오 콘텐트(11)가 출력되는 프레임을 도 6의 프레임(33)과 같이 획득할 수 있다.
제어 장치(300)는 디스플레이 장치(100)를 원격으로 제어할 수 있는 장치이다. 사용자는 제어 장치(300)를 통해 실사 이미지 콘텐트(12-1)에 대응하는 비디오 콘텐트(11)의 출력을 명령할 수 있다. 이 외에도 제어 장치(300)를 통해, 디스플레이 장치(100)의 전원을 온 또는 오프시키거나, 채널을 변경하거나, 음량을 조정하거나, 지상파 방송/케이블 방송/위성 방송 등 방송의 종류를 선택하거나, 또는 디스플레이 장치(100)의 환경을 설정(setting)하는 등 다양하게 디스플레이 장치(100)가 제어될 수 있다. 제어 장치(300)는 TV 리모컨, 포인팅 리모컨, 마우스, 모션 인식기 등일 수 있으나, 이에 제한되는 것은 아니다. 도 7에 도시된 제어 장치(300)는 일 예에 불과하며, 디스플레이 장치(100)를 제어할 수 있는 장치라면 어떠한 형태의 제어 장치라도 가능하다.
도 8은 일부 실시예에 따른 디스플레이 장치의 블록도이다.
도 8을 참고하면, 디스플레이 장치(100)는 디스플레이부(110), 메모리(120), 및 제어부(130)를 포함할 수 있다.
디스플레이부(110)는 제어부(130)가 획득한 비디오 프레임, 그래픽 프레임 또는 비디오 프레임 및 그래픽 프레임이 믹싱된 프레임을 출력할 수 있다.
메모리(120)는 제어부(130)에 의해 실행되는 하나 이상의 프로그램들을 저장할 수 있다. 하나 이상의 프로그램들은 하나 이상의 인스트럭션들(instructions)을 포함할 수 있다. 메모리(120)는 그래픽 플레인, 비디오 플레인과 같은 버퍼를 포함할 수 있다.
제어부(130)는 하나 이상의 프로세서를 구비하여 디스플레이 장치(100)의 구성요소 전반의 동작을 제어할 수 있다.
제어부(130)는 그래픽 프레임을 구성하는 하나 이상의 콘텐트들 중 실사 이미지 콘텐트를 획득할 수 있다. 제어부(130)는 획득된 실사 이미지 콘텐트를 디코딩 및 화질 처리하고, 화질 처리된 실사 이미지 콘텐트를 다른 콘텐트와 결합함으로써 그래픽 프레임을 획득할 수 있다. 제어부(130)는 획득된 그래픽 프레임을 디스플레이부(110)로 출력할 수 있다.
제어부(130)는 비디오 콘텐트에 대한 비디오 프레임을 획득하고, 획득된 비디오 프레임을 그래픽 프레임과 믹싱하여 디스플레이부(110)로 출력할 수 있다.
실사 이미지 콘텐트는, 정지 이미지 콘텐트 또는 비디오 콘텐트를 나타내기 위한 대표 이미지 콘텐트를 포함할 수 있다. 실사 이미지 콘텐트는, JPEG 파일 또는 JPG 파일을 포함할 수 있다.
제어부(130)는 획득된 실사 이미지 콘텐트를 YCbCr로부터 RGB로 변경하는 컬러 공간 변환 시 미리 정해진 변환 테이블을 이용함으로써 화질 처리를 수행할 수 있다. 이 외에도 화질 처리는 색상 강화, 휘도 강화, 콘트라스트 처리, RGB 보정 중 적어도 하나를 포함할 수 있다.
제어부(130)는 비디오 콘텐트에 대한 비디오 프레임과 그래픽 프레임을 믹싱하여 믹스된 프레임을 획득하고, 믹스된 프레임을 디스플레이부(110)에 출력할 수 있다.
제어부(130)는 중복하여 설명하지 않더라도 도 8 이전에 설명한 디스플레이 장치가 수행하는 동작을 수행할 수 있다.
도 9는 일부 실시예에 따른 디스플레이 장치의 동작을 설명하기 위한 도면이다.
도 9를 참고하면, 디스플레이 장치는 비디오 콘텐트, 폰트 데이터, PNG 파일, JPG 파일을 획득할 수 있다. 폰트 데이터, PNG, 파일 및 JPG 파일은 그래픽 프레임을 구성하는 콘텐트들일 수 있다. 다만 이는 예시일 뿐, 그래픽 프레임을 구성하는 콘텐트는 콘텐트들의 다양한 조합이 가능할 것이다.
디스플레이 장치는 비디오 콘텐트를 비디오 디코더(201)로 디코딩할 수 있다. 디스플레이 장치는 디코딩된 비디오 콘텐트를 화질 처리할 수 있다. 디스플레이 장치는, 디코딩된 비디오 콘텐트를 비디오 플레인(210)에 비디오 프레임으로 저장할 수 있다.
디스플레이 장치는 그래픽 프레임을 구성하는 콘텐트들 각각의 포맷을 식별할 수 있다. 디스플레이 장치는 각 콘텐트들의 포맷에 따라 디코딩할 수 있다. 폰트 데이터는 폰트 엔진(202)으로 디코딩하고, PNG 파일은 PNG 디코더(203)로 디코딩할 수 있다.
디스플레이 장치는 JPG 파일은 인핸서(enhancer)를 포함한 JPG 디코더(204)로 JPG 파일을 디코딩 및 화질 처리할 수 있다.
디스플레이 장치는 GPU(graphic processing unit)(220)를 통해 디코딩된 폰트 데이터, 디코딩된 PNG 파일, 디코딩 및 화질 처리된 JPG 파일을 결합하여 그래픽 플레인(230)에 그래픽 프레임을 그릴 수 있다. 따라서 JPG 파일에 대해서만 화질 개선되고, 폰트 데이터나 PNG 파일에 대해서는 왜곡되지 않은 그래픽 프레임이 획득될 수 있다.
디스플레이 장치의 믹서(240)는 비디오 플레인(210)에 저장된 비디오 프레임 및 그래픽 플레인(230)에 저장된 그래픽 프레임을 믹싱하여 프레임을 획득할 수 있다. 디스플레이 장치는 믹싱된 프레임을 화면에 출력할 수 있다.
비디오 디코더(201), 폰트 엔진(202), PNG 디코더(203) 및 JPG 디코더(204)는 도 8의 디스플레이 장치(100)의 제어부(130)에 의해 실행되는 프로그램들일 수 있고, 프로그램들은 메모리(120)에 저장될 수 있다.
GPU(220) 및 믹서(240)는 도 8의 제어부(130)에 포함되거나, 제어부(130)에 의해 제어되는 구성일 수 있다.
비디오 플레인(210) 및 그래픽 플레인(230)은 각각 버퍼이며, 도 8의 메모리(120)에 포함될 수 있다.
도 9는 일부 실시예에 따른 디스플레이 장치의 동작 방법을 예시적으로 설명하기 위한 것으로, 일부 실시예가 도 9에 제한되는 것은 아니다.
도 10은 일부 실시예에 따른 디스플레이 장치의 다른 블록도이다. 도 10의 디스플레이 장치(1000)는 도 8의 디스플레이 장치(100)의 다른 예일 수 있다. 그러나, 도 10에 도시된 구성 요소 모두가 디스플레이 장치(1000)의 필수 구성 요소인 것은 아니다. 도 10에 도시된 구성 요소보다 많은 구성 요소에 의해 디스플레이 장치(1000)가 구현될 수도 있고, 도 10에 도시된 구성 요소보다 적은 구성 요소에 의해 디스플레이 장치(1000)가 구현될 수도 있다.
도 10을 참고하면, 디스플레이 장치(1000)는 사용자 입력부(1100), 출력부(1200), 제어부(1300), 센싱부(1400), 통신부(1500), A/V 입력부(1600), 및 메모리(1700)를 포함할 수 있다.
사용자 입력부(1100)는, 디스플레이 장치(1000)를 제어하기 위한 데이터를 입력받는 수단을 의미한다. 사용자 입력부(1100)는 디스플레이 장치(1000)를 제어하기 위한 사용자의 입력을 수신할 수 있다. 예를 들어, 사용자 입력부(1100)에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 또한, 예를 들어, 사용자 입력부(1100)는, 외부의 입력 장치(미도시)로부터 사용자 입력 신호를 수신하는 인터페이스일 수 있다.
출력부(1200)는, 오디오 신호, 비디오 신호 또는 진동 신호를 출력할 수 있으며, 출력부(1200)는 디스플레이부(1210), 음향 출력부(1220), 및 진동 모터(1230)를 포함할 수 있다.
디스플레이부(1210)는 디스플레이 장치(1000)에서 처리되는 데이터를 표시한다. 디스플레이부(1210)는 제어부(1300)로부터 획득된 비디오 프레임, 그래픽 프레임 또는 비디오 프레임 및 그래픽 프레임이 믹싱된 프레임을 출력할 수 있다.
한편, 디스플레이부(1210)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(1210)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(1210)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고 디스플레이 장치(1000)의 구현 형태에 따라 디스플레이 장치(1000)는 디스플레이부(1210)를 2개 이상 포함할 수도 있다. 이때, 2개 이상의 디스플레이부(1210)는 힌지(hinge)를 이용하여 마주보게 배치될 수 있다.
음향 출력부(1220)는 통신부(1500)로부터 수신되거나 메모리(1700)에 저장된 오디오 콘텐트를 출력한다. 또한, 음향 출력부(1220)는 디스플레이 장치(1000)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 이러한 음향 출력부(1220)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.
진동 모터(1230)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1230)는 오디오 콘텐트 또는 비디오 콘텐트(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1230)는 터치스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.
제어부(1300)는, 통상적으로 디스플레이 장치(1000)의 전반적인 동작을 제어한다. 제어부(1300)는 상술한 디스플레이 장치(1000)의 동작을 실행하기 위하여, 디스플레이 장치(1000) 내의 다른 구성 요소들을 제어할 수 있다. 예를 들어, 제어부(1300)는, 메모리(1700)에 저장된 프로그램들을 실행함으로써, 사용자 입력부(1100), 출력부(1200), 센싱부(1400), 통신부(1500), A/V 입력부(1600) 등을 전반적으로 제어할 수 있다.
구체적으로, 제어부(1300)는 그래픽 프레임을 구성하는 하나 이상의 콘텐트들 중 실사 이미지 콘텐트를 획득할 수 있다. 제어부(1300)는 획득된 실사 이미지 콘텐트를 디코딩 및 화질 처리하고, 화질 처리된 실사 이미지 콘텐트를 다른 콘텐트와 결합함으로써 그래픽 프레임을 획득할 수 있다. 제어부(1300)는 획득된 그래픽 프레임을 디스플레이부(1210)로 출력할 수 있다.
제어부(1300)는 비디오 콘텐트에 대한 비디오 프레임을 획득하고, 획득된 비디오 프레임을 그래픽 프레임과 믹싱하여 디스플레이부(1210)로 출력할 수 있다.
제어부(1300)는 획득된 실사 이미지 콘텐트를 YCbCr로부터 RGB로 변경하는 컬러 공간 변환 시 미리 정해진 변환 테이블을 이용함으로써 화질 처리를 수행할 수 있다. 이 외에도 화질 처리는 색상 강화, 휘도 강화, 콘트라스트 처리, RGB 보정 중 적어도 하나를 포함할 수 있다.
제어부(1300)는 비디오 콘텐트에 대한 비디오 프레임과 그래픽 프레임을 믹싱하여 믹스된 프레임을 획득하고, 믹스된 프레임을 디스플레이부(1210)에 출력할 수 있다.
제어부(1300)는 중복하여 설명하지 않더라도 도 9 이전에 설명한 디스플레이 장치가 수행하는 동작을 수행할 수 있다.
센싱부(1400)는, 디스플레이 장치(1000)의 상태 또는 디스플레이 장치(1000) 주변의 상태를 감지하고, 감지된 정보를 제어부(1300)로 전달할 수 있다.
센싱부(1400)는, 지자기 센서(Magnetic sensor)(1410), 가속도 센서(Acceleration sensor)(1420), 온/습도 센서(1430), 적외선 센서(1440), 자이로스코프 센서(1450), 위치 센서(예컨대, GPS)(1460), 기압 센서(1470), 근접 센서(1480), 및 RGB 센서(illuminance sensor)(1490) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다.
통신부(1500)는, 근거리 통신부(1510), 이동 통신부(1520), 방송 수신부(1530)를 포함할 수 있다.
근거리 통신부(short-range wireless communication unit)(1510)는, 블루투스 통신부, BLE(Bluetooth Low Energy) 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
이동 통신부(1520)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
방송 수신부(1530)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다.
A/V(Audio/Video) 입력부(1600)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 이에는 카메라(1610)와 마이크로폰(1620) 등이 포함될 수 있다. 카메라(1610)은 화상 통화모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(1300) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다.
카메라(1610)에서 처리된 정지 영상 또는 동영상은 메모리(1700)에 저장되거나 통신부(1500)를 통하여 외부로 전송될 수 있다.
마이크로폰(1620)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1620)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1620)는 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다.
메모리(1700)는, 제어부(1300)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 디스플레이 장치(1000)로 입력되거나 디스플레이 장치(1000)로부터 출력되는 데이터를 저장할 수도 있다.
메모리(1700)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
메모리(1700)에 저장된 프로그램들은 그 기능에 따라 복수 개의 모듈들로 분류할 수 있는데, 예를 들어, UI 모듈(1710), 터치 스크린 모듈(1720), 알림 모듈(1730) 등으로 분류될 수 있다.
UI 모듈(1710)은, 어플리케이션 별로 디스플레이 장치(1000)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1720)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(1300)로 전달할 수 있다. 일부 실시예에 따른 터치 스크린 모듈(1720)은 터치 코드를 인식하고 분석할 수 있다. 터치 스크린 모듈(1720)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.
터치스크린의 터치 또는 근접 터치를 감지하기 위해 터치스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.
또한, 터치스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.
근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.
알림 모듈(1730)은 디스플레이 장치(1000)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 디스플레이 장치(1000)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1730)은 디스플레이부(1210)를 통해 비디오 콘텐트 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1220)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1230)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다.
도 11은 일부 실시예에 따른 디스플레이 장치의 동작 방법의 흐름도이다.
도 11을 참고하면, 디스플레이 장치는 그래픽 프레임을 구성하는 하나 이상의 콘텐트들 중 실사 이미지 콘텐트를 획득할 수 있다(S110). 디스플레이 장치는 획득된 실사 이미지 콘텐트를 디코딩 및 화질 처리할 수 있다(S120). 디스플레이 장치는 화질 처리된 실사 이미지 콘텐트를 그래픽 프레임을 구성하는 다른 콘텐트와 결합함으로써 그래픽 프레임을 획득할 수 있다(S130). 디스플레이 장치는 획득된 그래픽 프레임을 출력할 수 있다(S140).
실사 이미지 콘텐트는, 정지 이미지 콘텐트 또는 비디오 콘텐트를 나타내기 위한 대표 이미지 콘텐트를 포함할 수 있다. 상기 실사 이미지 콘텐트는, JPEG 파일 또는 JPG 파일을 포함할 수 있다.
디스플레이 장치는 획득된 상기 실사 이미지 콘텐트를 YCbCr로부터 RGB로 변경하는 컬러 공간 변환 시 미리 정해진 변환 테이블을 이용함으로써 상기 화질 처리를 수행할 수 있다.
화질 처리는 색상 강화, 휘도 강화, 콘트라스트 처리, RGB 보정 중 적어도 하나를 포함할 수 있다.
디스플레이 장치는 비디오 콘텐트에 대한 비디오 프레임과 그래픽 프레임을 믹싱하여 믹스된 프레임을 획득하고, 믹스된 프레임을 출력할 수 있다.
도 11의 디스플레이 장치의 동작 방법은 이전 도면들의 디스플레이 장치(100, 1000)에서 수행될 수 있다. 따라서 중복하여 설명하지 않더라도 도 11 이전에 설명한 디스플레이 장치가 수행하는 동작을 더 수행할 수 있다.
한편, 상술한 일부 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (13)

  1. 디스플레이부(Display);
    프로세서(Processor);
    메모리(Memory); 및
    상기 메모리에 저장되고, 상기 프로세서에 의해 실행되는 하나 이상의 프로그램들을 포함하고,
    상기 하나 이상의 프로그램들은,
    그래픽 프레임을 구성하는 하나 이상의 콘텐트들 중 실사 이미지 콘텐트를 획득하고,
    획득된 상기 실사 이미지 콘텐트를 디코딩 및 화질 처리하고,
    화질 처리된 상기 실사 이미지 콘텐트를 상기 그래픽 프레임을 구성하는 다른 콘텐트와 결합함으로써 상기 그래픽 프레임을 획득하고,
    획득된 상기 그래픽 프레임을 상기 디스플레이부로 출력하는 하나 이상의 인스트럭션들(instructions)을 포함하는, 디스플레이 장치.
  2. 제1항에 있어서,
    상기 실사 이미지 콘텐트는, 정지 이미지 콘텐트 또는 비디오 콘텐트를 나타내기 위한 대표 이미지 콘텐트를 포함하는, 디스플레이 장치.
  3. 제1항에 있어서,
    상기 실사 이미지 콘텐트는, JPEG(Joint Photographic Experts Group) 파일 또는 JPG 파일을 포함하는, 디스플레이 장치.
  4. 제1항에 있어서,
    상기 하나 이상의 프로그램들은,
    획득된 상기 실사 이미지 콘텐트를 YCbCr로부터 RGB로 변경하는 컬러 공간 변환 시 미리 정해진 변환 테이블을 이용함으로써 상기 화질 처리를 수행하기 위한 인스트럭션들을 더 포함하는, 디스플레이 장치.
  5. 제1항에 있어서,
    상기 화질 처리는 색상 강화, 휘도 강화, 콘트라스트 처리, RGB 보정 중 적어도 하나를 포함하는, 디스플레이 장치.
  6. 제1항에 있어서,
    상기 하나 이상의 프로그램들은,
    비디오 콘텐트에 대한 비디오 프레임과 상기 그래픽 프레임을 믹싱하여 믹스된 프레임을 획득하고, 상기 믹스된 프레임을 상기 디스플레이부에 출력하기 위한 인스트럭션들을 더 포함하는, 디스플레이 장치.
  7. 그래픽 프레임을 구성하는 하나 이상의 콘텐트들 중 실사 이미지 콘텐트를 획득하는 단계;
    획득된 상기 실사 이미지 콘텐트를 디코딩 및 화질 처리하는 단계;
    화질 처리된 상기 실사 이미지 콘텐트를 상기 그래픽 프레임을 구성하는 다른 콘텐트와 결합함으로써 상기 그래픽 프레임을 획득하는 단계; 및
    획득된 상기 그래픽 프레임을 출력하는 단계를 포함하는 디스플레이 장치의 동작 방법.
  8. 제7항에 있어서,
    상기 실사 이미지 콘텐트는, 정지 이미지 콘텐트 또는 비디오 콘텐트를 나타내기 위한 대표 이미지 콘텐트를 포함하는, 디스플레이 장치의 동작 방법.
  9. 제7항에 있어서,
    상기 실사 이미지 콘텐트는, JPEG 파일 또는 JPG 파일을 포함하는, 디스플레이 장치의 동작 방법.
  10. 제7항에 있어서,
    획득된 상기 실사 이미지 콘텐트를 디코딩 및 화질 처리하는 단계는,
    획득된 상기 실사 이미지 콘텐트를 YCbCr로부터 RGB로 변경하는 컬러 공간 변환 시 미리 정해진 변환 테이블을 이용함으로써 상기 화질 처리를 수행하는, 디스플레이 장치의 동작 방법.
  11. 제7항에 있어서,
    상기 화질 처리는 색상 강화, 휘도 강화, 콘트라스트 처리, RGB 보정 중 적어도 하나를 포함하는, 디스플레이 장치의 동작 방법.
  12. 제7항에 있어서,
    비디오 콘텐트에 대한 비디오 프레임과 상기 그래픽 프레임을 믹싱하여 믹스된 프레임을 획득하는 단계; 및
    상기 믹스된 프레임을 출력하는 단계를 더 포함하는 디스플레이 장치의 동작 방법.
  13. 제7항 내지 제12항 중 어느 한 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.
KR1020160003348A 2016-01-11 2016-01-11 디스플레이 장치 및 그 동작 방법 KR20170083889A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020160003348A KR20170083889A (ko) 2016-01-11 2016-01-11 디스플레이 장치 및 그 동작 방법
PCT/KR2017/000060 WO2017122961A1 (en) 2016-01-11 2017-01-03 Display apparatus and operating method thereof
CN201780006125.7A CN108432243A (zh) 2016-01-11 2017-01-03 显示装置及其操作方法
EP17738590.3A EP3387828A4 (en) 2016-01-11 2017-01-03 DISPLAY APPARATUS AND ITS ACTUATION METHOD
US15/398,968 US20170201710A1 (en) 2016-01-11 2017-01-05 Display apparatus and operating method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160003348A KR20170083889A (ko) 2016-01-11 2016-01-11 디스플레이 장치 및 그 동작 방법

Publications (1)

Publication Number Publication Date
KR20170083889A true KR20170083889A (ko) 2017-07-19

Family

ID=59276080

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160003348A KR20170083889A (ko) 2016-01-11 2016-01-11 디스플레이 장치 및 그 동작 방법

Country Status (5)

Country Link
US (1) US20170201710A1 (ko)
EP (1) EP3387828A4 (ko)
KR (1) KR20170083889A (ko)
CN (1) CN108432243A (ko)
WO (1) WO2017122961A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019090858A (ja) * 2017-11-10 2019-06-13 キヤノン株式会社 表示装置、表示制御装置及び表示制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4417854B2 (ja) * 2005-01-04 2010-02-17 株式会社東芝 再生装置
KR100791465B1 (ko) * 2005-07-04 2008-01-04 삼성전자주식회사 디스플레이장치, 디스플레이장치의 색상조정시스템 및 그색상조정방법
US8069466B2 (en) * 2005-08-04 2011-11-29 Nds Limited Advanced digital TV system
JP2007072130A (ja) * 2005-09-06 2007-03-22 Seiko Epson Corp 画像表示システム、画像表示装置、画像データ出力装置、画像処理プログラム、及びこの画像処理プログラムを記録した記録媒体
US8659704B2 (en) * 2005-12-20 2014-02-25 Savant Systems, Llc Apparatus and method for mixing graphics with video images
JP4625781B2 (ja) * 2006-03-22 2011-02-02 株式会社東芝 再生装置
RU2479147C2 (ru) * 2007-03-13 2013-04-10 Сони Корпорейшн Система передачи данных, устройство передачи, способ передачи, устройство приема и способ приема
TW200904185A (en) * 2007-07-05 2009-01-16 Intervideo Digital Thchnology Corp Video editing method
US8208750B2 (en) * 2007-10-26 2012-06-26 Hewlett-Packard Development Company, L.P. Method and system for dual-envelope image enhancement
US9509921B2 (en) * 2008-11-24 2016-11-29 Mediatek Inc. Video processing circuit and related method for merging video output streams with data stream for transmission
WO2011021894A2 (en) * 2009-08-20 2011-02-24 Lg Electronics Inc. Image display apparatus and method for operating the same
US20130174191A1 (en) * 2011-12-29 2013-07-04 United Video Properties, Inc. Systems and methods for incentivizing user interaction with promotional content on a secondary device
KR101899877B1 (ko) * 2012-04-04 2018-09-19 삼성전자주식회사 확대된 영상의 화질을 개선하기 위한 장치 및 방법

Also Published As

Publication number Publication date
EP3387828A1 (en) 2018-10-17
WO2017122961A1 (en) 2017-07-20
EP3387828A4 (en) 2019-01-09
US20170201710A1 (en) 2017-07-13
CN108432243A (zh) 2018-08-21

Similar Documents

Publication Publication Date Title
CN107786883B (zh) 图像显示设备及其操作方法
US10524018B2 (en) Apparatus and method for displaying image
EP3099081B1 (en) Display apparatus and control method thereof
KR20170124814A (ko) 영상 표시 장치 및 그 동작 방법
EP3024220A2 (en) Display apparatus and display method
KR101890626B1 (ko) 이동 단말기, 영상표시장치 및 이들을 이용한 사용자 인터페이스 제공 방법
US20120301030A1 (en) Image processing apparatus, image processing method and recording medium
US10290110B2 (en) Video overlay modification for enhanced readability
EP3038374A1 (en) Display device and display method
CN116097655A (zh) 显示装置及其操作方法
EP3699902B1 (en) Display device and image display method of the same
EP1865725A1 (en) Mobile terminal
CN115205164B (zh) 图像处理模型的训练方法、视频处理方法、装置及设备
KR20170083889A (ko) 디스플레이 장치 및 그 동작 방법
CN111445427B (zh) 视频图像处理方法以及显示设备
KR102478460B1 (ko) 표시장치와 그 영상 처리 방법
CN113207003A (zh) 一种视频图像的运动估计方法及电子设备
US9361860B2 (en) Display apparatus, image post-processing apparatus and method for image post-processing of contents
KR20240011779A (ko) 조정 가능한 사용자 인터페이스(ui) 요소를 통한 수화 비디오의 디스플레이
CN114979773A (zh) 显示设备、视频处理方法及存储介质
KR20160071835A (ko) 디스플레이 장치 및 그 제어 방법
CN113473198A (zh) 一种智能设备的控制方法及智能设备
KR20240028868A (ko) 디스플레이 장치 및 그의 동작 방법
KR20210074880A (ko) 디스플레이 장치 및 그 동작 방법
US20140267591A1 (en) Electronic device and method of outputting image in electronic device