KR20180068678A - 디스플레이 장치 및 디스플레이 방법 - Google Patents

디스플레이 장치 및 디스플레이 방법 Download PDF

Info

Publication number
KR20180068678A
KR20180068678A KR1020160170607A KR20160170607A KR20180068678A KR 20180068678 A KR20180068678 A KR 20180068678A KR 1020160170607 A KR1020160170607 A KR 1020160170607A KR 20160170607 A KR20160170607 A KR 20160170607A KR 20180068678 A KR20180068678 A KR 20180068678A
Authority
KR
South Korea
Prior art keywords
image
viewing angle
display
angle improving
improving process
Prior art date
Application number
KR1020160170607A
Other languages
English (en)
Other versions
KR102538479B1 (ko
Inventor
이웅기
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160170607A priority Critical patent/KR102538479B1/ko
Priority to JP2019528063A priority patent/JP7050067B2/ja
Priority to PCT/KR2017/011736 priority patent/WO2018110821A1/en
Priority to EP17881886.0A priority patent/EP3494458B1/en
Priority to US15/798,623 priority patent/US10579206B2/en
Priority to CN201711334386.XA priority patent/CN108235125B/zh
Publication of KR20180068678A publication Critical patent/KR20180068678A/ko
Application granted granted Critical
Publication of KR102538479B1 publication Critical patent/KR102538479B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal Display Device Control (AREA)

Abstract

디스플레이 장치가 개시된다. 본 디스플레이 장치는, 영상을 표시하는 디스플레이, 및 오브젝트 영상 및 메인 영상 각각에 대해서 서로 다른 시야각 개선 처리를 수행하고, 다른 시야각 개선 처리가 수행된 오브젝트 영상 및 메인 영상을 병합하고, 병합된 영상이 표시되도록 디스플레이를 제어하는 프로세서를 포함한다.

Description

디스플레이 장치 및 디스플레이 방법{DISPLAY APPARATUS AND METHOD FOR DISPLAYING}
본 개시는 디스플레이 장치 및 디스플레이 방법에 관한 것으로, 보다 상세하게는 배경 영상과 메인 영상 각각에 다른 시야각을 개선을 수행하여 입체감을 향상할 수 있는 디스플레이 장치 및 디스플레이 방법에 관한 것이다.
디스플레이 장치는 외부에서 제공받은 영상 신호를 표시하는 장치이다. 최근에는 디스플레이 장치가 영상을 표시하는 기능뿐만 아니라, 일반적인 영상 표시 기능뿐만 아니라, 다양한 사용자 경험을 제공할 수 기능이 추가되고 있다.
이러한 예로 디스플레이 장치의 뒷 배경 영상을 획득하고, 디스플레이 장치가 배경 영상을 표시함으로써, 디스플레이가 투명한 유리창이 된 것과 같은 시각적 효과를 제공하는 것이 있다.
한편, 이러한 배경 영상을 표시할 때 시계 등과 같은 오브젝트도 함께 표시함으로써, 벽에 시계가 걸려있는 듯한 효과를 줄 수 있다. 이와 같은 효과를 극대화하기 위하여 오브젝트에 입체감을 부여할 수 있는 방법이 요구되었다.
따라서, 본 개시의 목적은 배경 영상과 메인 영상 각각에 다른 시야각을 개선을 수행하여 입체감을 향상할 수 있는 디스플레이 장치 및 디스플레이 방법을 제공하는 데 있다.
상술한 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 디스플레이 장치는 영상을 표시하는 디스플레이, 오브젝트 영상 및 메인 영상 각각에 대해서 서로 다른 시야각 개선 처리를 수행하고, 상기 다른 시야각 개선 처리가 수행된 오브젝트 영상 및 메인 영상을 병합하는 영상 처리부, 및 상기 병합된 영상이 표시되도록 상기 디스플레이를 제어하는 프로세서를 포함한다.
이 경우, 상기 영상 처리부는 상기 오브젝트 영상에 대해서만 시야각 개선 처리를 수행하고, 상기 시야각 개선 처리가 수행된 오브젝트 영상과 시야각 개선 처리가 수행되지 않은 메인 영상을 병합할 수 있다.
이 경우, 상기 영상 처리부는 상기 오브젝트 영상에 대응되는 제1 레이어를 생성하고, 상기 메인 영상에 대응되는 제2 레이어를 생성하고, 상기 제1 레이어에 대해서 시야각 개선 처리를 수행하고, 상기 시야각 개선 처리가 수행된 제1 레이어와 상기 제2 레이어를 믹싱하여 상기 병합된 영상을 생성할 수 있다.
한편, 상기 메인 영상은 상기 디스플레이 장치의 뒷면에 대응되는 배경 이미지이고, 상기 오브젝트 영상은 아날로그 시계, 디지털 시계, 사진 이미지, 그림 중 적어도 하나의 오브젝트를 나타내는 영상일 수 있다.
한편, 상기 메인 영상은 외부로부터 제공된 컨텐츠에 대응되는 비디오 영상이고, 상기 오브젝트 영상은 상기 디스플레이 장치를 제어하기 위한 OSD(On Screen Display)일 수 있다.
한편, 상기 시야각 개선 처리는 기준 감마값과 다른 감마 값을 갖는 제2 룩업 테이블로 복수의 픽셀 각각의 휘도 값을 결정할 수 있다.
이 경우, 제2 룩업 테이블은 저계조 구간에서 상기 기준 감마 값보다 높은 감마 값을 갖거나, 고계조 구간에서 상기 기준 감마값보다 낮은 감마 값을 갖도록 하는 룩업 테이블일 수 있다.
한편, 상기 프로세서는 상기 오브젝트 영상이 표시될 픽셀 각각에 대해서는 상기 제2 룩업 테이블을 이용하여 휘도 값을 결정하고, 상기 메인 영상이 표시될 픽셀 각각에 대해서는 기준 감마값을 갖는 제1 룩업 테이블을 이용하여 휘도 값을 결정할 수 있다.
한편, 본 디스플레이 장치는 사용자의 위치를 확인하는 센서부를 더 포함하고, 상기 프로세서는, 상기 확인된 사용자의 위치에 따라 시야각 개선 처리가 필요한지를 결정하고, 시야각 개선 처리가 필요한 것으로 결정되면 오브젝트 영상 및 메인 영상 각각에 대해서 서로 다른 시야각 개선 처리를 수행하도록 상기 영상 처리부를 제어한다.
한편, 본 개시의 일 실시 예에 따른 디스플레이 방법은 오브젝트 영상 및 메인 영상 각각에 대해서 서로 다른 시야각 개선 처리를 수행하는 단계, 상기 다른 시야각 개선 처리가 수행된 오브젝트 영상 및 메인 영상을 병합하는 단계, 및 상기 병합된 영상을 표시하는 단계를 포함한다.
이 경우, 상기 서로 다른 시야각 개선 처리를 수행하는 단계는 상기 오브젝트 영상에 대해서만 시야각 개선 처리를 수행하고, 상기 메인 영상에 대해서는 시야각 개선 처리를 미수행할 수 있다.
이 경우, 상기 병합하는 단계는 시야각 개선 처리가 수행된 오브젝트 영상에 대응되는 제1 레이어와 시야각 개선 처리가 수행되지 않은 메인 영상에 대응되는 제2 레이어를 믹싱할 수 있다.
한편, 상기 메인 영상은 상기 디스플레이 장치의 뒷면에 대응되는 배경 이미지이고, 상기 오브젝트 영상은 아날로그 시계, 디지털 시계, 사진 이미지, 그림 중 적어도 하나의 오브젝트를 나타내는 영상일 수 있다.
한편, 상기 메인 영상은 외부로부터 제공된 컨텐츠에 대응되는 비디오 영상이고, 상기 오브젝트 영상은 상기 디스플레이 장치를 제어하기 위한 OSD(On Screen Display)일 수 있다.
한편, 상기 시야각 개선 처리는 기준 감마값과 다른 감마 값을 갖는 제2 룩업 테이블로 복수의 픽셀 각각의 휘도 값을 결정하는 처리일 수 있다.
이 경우, 제2 룩업 테이블은 저계조 구간에서 상기 기준 감마 값보다 높은 감마 값을 갖거나, 고계조 구간에서 상기 기준 감마값보다 낮은 감마 값을 갖도록 하는 룩업 테이블일 수 있다.
한편, 상기 서로 다른 시야각 개선 처리를 수행하는 단계는 상기 오브젝트 영상이 표시될 픽셀 각각에 대해서는 상기 제2 룩업 테이블을 이용하여 휘도 값을 결정하고, 상기 메인 영상이 표시될 픽셀 각각에 대해서는 상기 제1 룩업 테이블을 이용하여 휘도 값을 결정할 수 있다.
한편, 본 디스플레이 방법은 사용자의 위치를 확인하는 단계, 및 상기 확인된 사용자의 위치에 따라 시야각 개선 처리가 필요한지를 결정하는 단계를 더 포함할 수 있다.
한편, 본 개시의 일 실시 예에 따른 디스플레이 방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록 매체에 있어서, 상기 디스플레이 방법은, 오브젝트 영상 및 메인 영상 각각에 대해서 서로 다른 시야각 개선 처리를 수행하는 단계, 상기 다른 시야각 개선 처리가 수행된 오브젝트 영상 및 메인 영상을 병합하는 단계, 및 상기 병합된 영상을 표시하는 단계를 포함한다.
도 1은 본 개시의 일 실시 예에 따른, 디스플레이가 투명한 유리창이 된 것과 같은 이미지 효과를 제공하는 실시 예를 설명하기 위한 도면,
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 간략한 구성을 나타내는 블럭도,
도 3은 본 개시의 일 실시 예에 따른 디스플레이 장치의 구체적인 구성을 나타내는 블럭도,
도 4는 도 2의 영상 처리부의 구체적인 구성을 나타낸 도면,
도 5는 제2 동작 모드로 동작시에 표시되는 디스플레이 화면의 일 예를 도시한 도면,
도 6은 시야각 개선 처리를 수행하지 않은 상태에서, 디스플레이의 측면에서 디스플레이를 바라본 경우의 화면의 일 예를 도시한 도면,
도 7은 시야각 개선 처리를 수행한 경우에, 디스플레이의 측면에서 디스플레이를 바라본 경우의 화면의 일 예를 도시한 도면,
도 8은 제2 동작 모드 시에 표시되는 디스플레이 화면의 일 예를 도시한 도면,
도 9는 제1 동작 모드 시에 표시되는 디스플레이 화면의 일 예를 도시한 도면,
도 10은 시야각 처리 방식을 설명하기 위한 도면,
도 11은 본 개시의 제1 실시 예에 따른 디스플레이 방법을 설명하기 위한 도면,
도 12는 본 개시의 제2 실시 예에 따른 디스플레이 방법을 설명하기 위한 도면이다.
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다." 또는 "구성되다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
실시 예에 있어서 ‘모듈’ 혹은 ‘부’는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 ‘모듈’ 혹은 복수의 ‘부’는 특정한 하드웨어로 구현될 필요가 있는 ‘모듈’ 혹은 ‘부’를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
이하에서, 첨부된 도면을 이용하여 본 개시에 대하여 구체적으로 설명한다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치의 동작을 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 디스플레이 장치(100)는 두 개의 동작 모드를 갖는다. 먼저, 제1 동작 모드는 일반 영상을 표시하는 모드이다. 구체적으로, 제1 동작 모드는 디스플레이 장치(100)에 기저장된 컨텐츠 또는 외부로부터 수신된 방송을 디스플레이 장치의 전체 화면을 이용하여 표시하는 모드이다.
그리고 제2 동작 모드는 디스플레이 장치가 배경 화면을 표시하여, 디스플레이 장치를 사용자가 쉽게 인지하지 못하도록 하는 모드이다. 여기서 배경 화면은 디스플레이가 위치하는 배경을 사용자가 미리 촬상한 화면이다.
이와 같이 제2 동작 모드로 표시되는 경우, 디스플레이 장치(100)는 디스플레이 장치의 뒷 배경을 배경 화면을 표시하는바, 사용자는 디스플레이 장치가 투명한 유리창이 된 것과 같은 착각을 받을 수 있다.
한편, 제2 동작 모드 시에는 배경 화면만을 표시하는 것뿐만 아니라, 특정의 오브젝트를 함께 표시할 수 있다. 여기서 특정의 오브젝트는 시계 오브젝트일 수 있으나, 일반적인 벽에 부착될 수 있는 것들이라면 다양한 오브젝트(예를 들어, 그림, 사진, 어항 등)들이 표시될 수 있다.
한편, 디스플레이 장치(100)가 제2 동작 모드로 동작하는 경우, 즉 배경 화면을 표시하는 경우에는, 실제 배경 환경과 디스플레이 장치(100)에서 표시되는 배경 화면 간에 밝기 등의 차이가 작아야 사용자가 디스플레이 장치(100)와 실제 배경 환경과의 이질감을 인지하기 어려워진다.
따라서, 디스플레이 장치(100)의 주변 환경에 변화에 따라 디스플레이 장치(100)에 표시되는 배경 화면도 적응적으로 변경될 필요가 있다.
이에 따라, 본 개시에 따른 디스플레이 장치(100)는 주변의 조명 환경을 감지하고, 감지된 주변의 조명 환경에 따라 디스플레이 장치에서 표시되는 영상의 밝기를 적응적으로 조정할 수 있다.
한편, 디스플레이 장치(100)가 오브젝트와 함께 배경 화면을 표시하는 경우, 표시되는 오브젝트와 배경 화면이 서로 다른 깊이 감을 갖도록 하는 입체감을 부여할 수 있다.
한편, 종래에는 입체감 부여를 위하여, 영역별로 명암비 및 색상을 상이하게 설정하거나 3D 기능을 사용하였다. 그러나 명암비 및 색상을 상이하게 설정하는 방식은 실질적인 입체감 향상이 크지 않고, 3D 기능은 특수한 필름 또는 안경을 착용해야 하는 불편함이 존재하였다.
이에 딸, 본 개시에서는 시야각 개선 방식을 이용하여, 시청 방향에 따라 입체감을 느낄 수 있도록 처리는 방법을 이용한다. 구체적으로, 디스플레이 장치(100)는 배경 영상에 대해서는 별도의 시야각 개선 처리를 수행하지 않고, 오브젝트에 대해서는 시야각 개선 처리를 수행함으로써, 시청 방향에 따라 오브젝트의 입체감이 부각되도록 할 수 있다.
이에 따라, 본 개시에 따른 디스플레이 장치(100)는 표시되는 오브젝트에 대해서는 시야각이 개선되고, 오브젝트의 후방에 배치되는 배경 화면은 시야각이 개선되지 않아, 시청 방향에 따라 오브젝트와 배경 화면 간의 입체감이 더욱 부각될 수 있다.
한편, 구현시에는 배경 화면에 대해서는 시야각 개선을 처리하지 않는 것으로 설명하였지만, 복수의 단계로 시야각 개선이 가능한 방법을 이용하는 경우에는 시야각 개선이 많은 방식으로 오브젝트를 처리하고, 시야각 개선이 낮은 방식으로 배경 화면을 처리하는 형태로도 구현할 수 있다.
이하에서는 디스플레이 장치의 구체적인 구성들을 이용하여 상술한 동작을 자세히 설명한다.
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 간략한 구성을 나타내는 블럭도이다.
도 2를 참조하면, 본 디스플레이 장치(100)는 영상 처리부(110), 프로세서(120), 디스플레이(200)로 구성된다.
영상 처리부(110)는 사용자에게 제공하기 위한 GUI(Graphic User Interface)를 생성한다. 이러한 GUI는 OSD(On Screen Display)일 수 있으며, 영상 처리부(110)는 DSP(Digital signal processor)로 구현될 수 있다.
그리고 영상 처리부(110)는 생성된 GUI를 후술할 A/V 처리부(150)에서 출력된 영상에 부가할 수 있다. 그리고 영상 처리부(110)는 GUI가 부가된 영상에 대응되는 영상 신호를 디스플레이(200)에 제공할 수 있다. 이에 따라, 디스플레이(200)는 디스플레이 장치(100)에서 제공하는 각종 정보 및 영상 신호 제공부(160)에서 전달된 영상을 표시한다.
그리고 영상 처리부(110)는 배경 이미지를 하나의 레이어(또는 메인 레이어)로 입력받고, A/V 처리부(150)에서 생성된 영상 또는 프로세서(120)에서 제공하는 오브젝트 영상을 다른 레이어(또는 서브 레이어)로 입력받고, 두 레이어 중 하나를 출력하거나 두 레이어를 합성(또는 믹싱)하여 디스플레이(200)에 제공할 수 있다.
이때, 영상 처리부(110)는 입력된 두 개의 레이어(즉, 오브젝트 영상, 메인 영상) 각각에 대해서 서로 다른 영상 처리를 수행할 수 있다. 구체적으로, 영상 처리부(110)는 입력된 오브젝트 영상 및 메인 영상에 대해서 서로 다른 영상 처리를 수행할 수 있다. 여기서 영상 처리는 시야각 개선 처리일 수 있으며, 영상 처리부(110)는 오브젝트 영상에 대해서는 시야각 개선 처리를 수행하고, 메인 영상에 대해서는 시야각 개선 처리를 수행하지 않을 수 있다.
그리고 영상 처리부(110)는 병합된 영상에 대해서 후속 화질 처리도 수행할 수 있다. 그리고 영상 처리부(110)는 영상 신호에 대응되는 밝기 정보 추출하고, 추출된 밝기 정보에 대응되는 하나의 디밍 신호(디스플레이 장치가 글로벌 디밍으로 동작하는 경우) 또는 복수의 디밍 신호(디스플레이 장치가 로컬 디밍으로 동작하는 경우)를 생성할 수 있다. 이때, 영상 신호 제공부(160)는 센서부(180)에서 감지된 조명 환경을 고려하여 상술한 디밍 신호를 생성할 수 있다. 이러한 디밍 신호는 PWM 신호일 수 있다.
영상 처리부(110)의 구체적인 구성 및 동작에 대해서는 도 4를 참조하여 후술한다.
한편, 이상에서는 두 영상에 대한 서로 다른 화질 처리(즉, 시야각 개선 처리)를 수행한 이후에 두 영상을 병합하는 것으로 설명하였지만, 구현시에는 두 영상을 병합한 이후에 병합된 영상에 대해서 적어도 2개의 영역으로 구분하고, 구분된 복수의 영역별로 서로 다른 이미지 처리(즉, 시야각 개선 처리)를 수행할 수도 있다.
한편, 시야각 개선 처리 방법에 대해서는 도 10을 참조하여 후술한다.
디스플레이(200)는 영상을 표시한다. 이러한 디스플레이(200)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(200) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(200)는 터치 센서부와 결합하여 터치 스크린으로 구현될 수 있다.
디스플레이(200)는 백라이트를 포함한다. 여기서 백라이트는 복수의 광원으로 구성되는 점광원으로, 로컬 디밍을 지원한다.
여기서 백라이트를 구성하는 광원은 냉음극형광램프(Cold Cathode Fluorescent Lamp: CCFL) 또는 발광 다이오드(Light Emitting Diode: LED)로 구성될 수 있다. 이하에서는 백라이트를 발광 다이오드와 발광 다이오드 구동 회로로 구성되는 것으로 도시하고 설명하나, 구현시에는 LED 이외에 다른 구성으로 구현될 수도 있다. 그리고 이러한 백라이트를 구성하는 복수의 광원은 다양한 형태로 배치될 수 있으며 다양한 로컬 디밍 기술이 적용될 수 있다. 예를 들어, 백라이트는 복수의 광원이 매트릭스 형태로 배치되어 액정화면 전체에 균일하게 배치되는 직하형(Direct type) 백라이트일 수 있다. 이 경우, 백라이트는 Full-Array 로컬 디밍 또는 Direct 로컬 디밍으로 동작할 수 있다. 여기서 Full-Array 로컬 디밍은 LCD 화면 뒤에 전체적으로 광원이 고르게 전체적으로 배치되며, 각 광원별 휘도 조절을 수행하는 디밍 방식이다. 그리고 Direct 로컬 디밍은 Full-Array 로컬 디밍 방식과 유사하나 보다 작은 광원의 개수로 각 광원별 휘도 조절을 수행하는 디밍 방식이다.
또한, 백라이트는 거나 LCD의 테두리 부분에만 복수의 광원이 배치되는 엣지형(Edge type) 백라이트일 수 있다. 이 경우, 백라이트는 Edge-lit 로컬 디밍으로 동작할 수 있다. 여기서 Edge-lit 로컬 디밍은 복수의 광원이 패널의 가장자리에만 배치되며, 좌/우에만 배치되거나, 상/하에만 배치되거나, 좌/우/상/화에 배치되는 것도 가능하다.
프로세서(120)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 구체적으로, 디스플레이 장치(100)의 동작 모드를 결정한다. 구체적으로, 프로세서(120)는 사용자로부터 TV 표시 명령 또는 컨텐츠 표시 명령을 입력받았으면, 일반 영상을 표시하는 제1 동작 모드인 것으로 결정할 수 있다. 만약, 제1 동작 모드인 경우에 전원 명령을 입력받거나 동작 모드의 전환 명령을 입력받으면, 프로세서(120)는 배경 화면을 표시하는 제2 동작 모드인 것으로 결정할 수 있다. 따라서, 본 개시의 일 실시 예에 따른 사용자의 일반적인 전원 동작에 따라 제1 동작 모드와 제2 동작 모드가 전환될 수 있다.
그리고 만약 디스플레이 장치(100)가 제1 동작 모드 또는 제2 동작 모드로 동작 중인 경우에 사용자가 전원 버튼을 기설정된 시간 누른 경우, 프로세서(120)는 일반적인 전원 오프 모드로 전환할 수 있다.
그리고 전원 오프 모드 시에 전원 명령을 입력받았으면, 프로세서(120)는 전원 오프 전의 직전 동작 모드로 동작하는 것으로 결정할 수 있다.
디스플레이 장치(100)의 동작 모드가 제1 동작 모드인 것으로 결정되면, 프로세서(120)는 조작부(175)를 통하여 입력받은 제어 명령에 따른 영상이 표시되도록 디스플레이(200)를 제어할 수 있다.
이때, 사용자로부터 OSD(On Screen Display) 표시 명령을 입력받으면, 프로세서(120)는 현재 영상을 메인 영상으로 표시하고, OSD가 오브젝트 영상으로 표시되도록 디스플레이(200)를 제어할 수 있다. 이 경우, 프로세서(120)는 메인 영상에 대해서는 시야각 개선 처리가 적용되지 않고, OSD에 대해서는 시야각 개선 처리가 적용되도록 영상 처리부(110)를 제어할 수 있다.
한편, 디스플레이 장치(100)의 동작 모드가 제2 동작 모드인 것으로 결정되면, 프로세서(120)는 배경 영상이 표시되도록 디스플레이(200)를 제어할 수 있다. 여기서 배경 영상은 디스플레이 장치(100)의 뒷면에 대응되는 사진 이미지이거나, 디스플레이 장치(100)의 주변 이미지를 통하여 생성된 이미지일 수 있다. 그리고 배경 영상에는 추가적인 그래픽 이미지를 더 포함할 수 있다.
그리고 프로세서(120)는 디스플레이 장치(100)의 주변에 대한 조명 환경을 감지하도록 센서부(180)를 제어하고, 감지된 조명 환경에 따라 조명 밝기 및 조명 방향을 결정할 수 있다.
그리고 프로세서(120)는 감지된 조명 환경(즉, 조명 방향 및 조명 밝기)에 따라 표시될 배경 영상에 대한 이미지 처리를 수행할 수 있다. 구체적으로, 프로세서(120)는 센서부(180)에서 감지된 색 온도에 기초하여 배경 영상의 색 온도를 변환하는 이미지 처리를 수행할 수 있다.
그리고 프로세서(120)는 배경 영상을 표시할 때, 오브젝트를 함께 표시하도록 디스플레이(200)를 제어할 수 있다. 구체적으로, 프로세서(120)는 기설정된 오브젝트, 배경 영상을 포함하는 화면을 생성하고, 생성된 화면을 디스플레이(200)에 제공할 수 있다. 여기서 기설정된 오브젝트는 아날로그 시계, 디지털 시계 등일 수 있으며, 사진, 그림, 어항 등 다양한 그래픽 오브젝트일 수 있다. 이러한 그래픽 오브젝트는 사진, 그림과 같은 정적 그래픽 오브젝트일 수 있으며 동작 오브젝트일 수 있다.
그리고 프로세서(120)는 감지된 조명 환경에 따라 조명 방향을 결정하고, 결정된 조명 방향에 대응되는 위치에 오브젝트에 대한 그림자 오브젝트가 표시되도록 디스플레이를 제어할 수 있다. 또한, 프로세서(120)는 감지된 조명 값 및 색 온도에 따라 그림자 오브젝트의 크기를 결정하고, 결정된 크기를 갖는 그림자 오브젝트가 표시되도록 디스플레이를 제어할 수 있다. 예를 들어, 그림자는 조명의 세기 또는 조명의 색 온도에 따라 달라질 수 있다. 따라서, 본 실시 예에 따른 디스플레이 장치(100) 역시 이러한 조명의 세기 및 색 온도를 고려하여 그림자 오브젝트를 생성하여 표시할 수 있다.
그리고 프로세서(120)는 오브젝트 영상에 대해서는 시야각 개선 처리가 수행되고, 배경 영상에 대해서는 시야각 개선 처리가 수행되지 않도록 영상 처리부(110)를 제어할 수 있다. 한편, 이와 같은 처리 동작은 사용자의 위치에 따라 적용 여부가 결정될 수 있다.
구체적으로, 프로세서(120)는 센서부(180)를 이용하여 사용자의 위치를 감지하고, 사용자의 위치가 정면에 위치하는 경우라면 시야각 개선 처리가 불필요한 것으로 판단할 수 있다. 만약, 감지된 위치가 정면이 아닌 경우, 프로세서(120)는 시야각 개선 처리가 필요한 것으로 판단하고 오브젝트 영상과 배경 영상 각각에 대해서 서로 다른 시야각 개선 처리가 수행되도록 할 수 있다.
한편, 구현시에 디스플레이(200)는 복수의 오브젝트를 표시할 수 있으며, 이 경우, 프로세서(120)는 복수의 오브젝트 각각에 대해서 동일한 시야각 개선 처리를 수행하거나, 서로 다른 시야각 개선 처리를 수행할 수도 있다. 예를 들어, 배경 화면 중앙에 시계 및 시계의 그림자가 동시에 표시되는 경우 배경 화면에 대해서는 시야각 개선 처리를 수행하지 않고, 시계의 그림자에는 낮은 레벨의 시야각 개선 처리를 수행하고, 시계에는 높은 레벨의 시야각 개선 처리를 수행할 수도 있다.
그리고 프로세서(120)는 제2 동작 모드로 동작시에 전원 절감을 위하여, 적외선 센서 등으로 디스플레이 장치(100)의 주변에 사용자가 감지된 경우에만 배경 영상을 표시할 수 있다. 즉, 프로세서(120)는 제2 동작 모드 시에 디스플레이 장치(100)의 주변에 사용자가 감지되지 않는 경우에는 배경 영상을 표시하지 않을 수 있다.
그리고 프로세서(120)는 제2 동작 모드 시에는 디스플레이(200)가 제1 동작 모드 시에 동작하는 프레임 레이트보다 낮은 프레임 레이트로 동작하도록 디스플레이(200)를 제어할 수 있다. 예를 들어, 디스플레이(200)가 제1 동작 모드 시에 240Hz로 영상을 표시하는 경우, 프로세서(120)는 제2 동작 시에는 240Hz보다 느린 120Hz난 60Hz로 동작하도록 디스플레이(200)를 제어할 수 있다.
또한, 프로세서(120)는 센서부(180)를 통하여 사용자가 감지되지 않으면 영상의 표시 동작이 수행되지 않도록 디스플레이(200)를 제어할 수 있다.
그리고 프로세서(120)는 후술할 통신부(170)에서 수신한 날씨 정보에 기초하여 대응되는 오브젝트가 표시되도록 하거나, 특정 이벤트를 수행할 수 있다. 예를 들어, 날씨 정보에 비 정보가 감지되면, 프로세서(120)는 배경 화면에 비 오브젝트가 표시되도록 디스플레이(200)를 제어하고, 빗소리가 출력되도록 오디오 출력부(155)를 제어할 수 있다.
이상과 같이 본 실시 예에 따른 디스플레이 장치(100)는 메인 영상과 오브젝트 영상 각각에 서로 다른 시야각 개선 처리를 수행하는바, 표시되는 메인 영상과 오브젝트 영상은 시야각에 다른 입체감을 갖게 된다.
이상에서는 디스플레이 장치(100)의 간략한 구성만을 설명하였으나, 디스플레이 장치(100)는 도 3에 도시된 바와 같은 구성을 추가 포함할 수 있다. 디스플레이 장치(100)의 구체적인 구성에 대해서는 도 3을 참조하여 이하에서 설명한다.
도 3은 본 개시의 일 실시 예에 따른 디스플레이 장치의 구체적인 구성을 나타내는 블럭도이다.
도 3을 참조하면, 본 실시 예에 따른 디스플레이 장치(100)는 영상 처리부(110), 프로세서(120), 디스플레이(200), 방송 수신부(140), 신호 분리부(145), A/V 처리부(150), 오디오 출력부(155), 영상 신호 생성부(160), 저장부(165), 통신부(170), 조작부(175), 센서부(180)를 포함할 수 있다.
영상 처리부(110) 및 디스플레이(200)의 구성은 도 2의 구성과 동일한바 중복 설명은 생략한다.
방송 수신부(140)는 방송국 또는 위성으로부터 유선 또는 무선으로 방송을 수신하여 복조한다. 구체적으로, 방송 수신부(140)는 안테나 또는 케이블을 통하여 전송 스트림을 수신하고 복조하여 디지털 전송 스트림 신호를 출력할 수 있다.
신호 분리부(145)는 방송 수신부(140)에서 제공된 전송 스트림 신호를 영상 신호, 오디오 신호, 부가정보 신호로 분리한다. 그리고 신호 분리부(145)는 영상 신호 및 오디오 신호를 A/V 처리부(150)로 전송한다.
A/V 처리부(150)는 방송 수신부(140) 및 저장부(165)로부터 입력된 영상 신호 및 오디오 신호에 대해 비디오 디코딩, 비디오 스케일링, 오디오 디코딩 등의 신호처리를 수행한다. 한편, 본 실시 예에서는 비디오 디코딩 및 비디오 스케일링이 A/V 처리부(150)에서 수행되는 것으로 설명하였지만, 상기 동작은 영상 처리부(110)에서 수행될 수 있다. 그리고 A/V 처리부(150)는 영상 신호를 영상 처리부(110)로 출력하고, 오디오 신호를 오디오 출력부(155)로 출력한다.
반면, 수신된 영상 및 오디오 신호를 저장부(165)에 저장하는 경우, A/V 처리부(150)는 영상과 오디오를 압축된 형태로 저장부(165)에 출력할 수 있다.
오디오 출력부(155)는 A/V 처리부(150)에서 출력되는 오디오 신호를 사운드로 변환하여 스피커(미도시)를 통해 출력시키거나, 외부 출력단자(미도시)를 통해 연결된 외부기기로 출력한다.
저장부(165)는 영상 컨텐츠를 저장할 수 있다. 구체적으로, 저장부(165)는 A/V 처리부(150)로부터 영상과 오디오가 압축된 영상 컨텐츠를 제공받아 저장할 수 있으며, 프로세서(120)의 제어에 따라 저장된 영상 컨텐츠를 A/V 처리부(150)에 출력할 수 있다.
그리고 저장부(165)는 기촬영 또는 기생성된 배경 이미지를 저장할 수 있다. 또한, 제2 동작 모드로 동작시에 표시될 수 있는 다양한 오브젝트에 대응되는 프로그램 또는 컨텐츠를 저장할 수 있다. 그리고 저장부(165)는 시야각 개선 처리에 사용되는 복수의 룩업 테이블을 저장할 수 있다. 한편, 저장부(165)는 하드디스크, 비휘발성 메모리, 휘발성 메모리 등으로 구현될 수 있다.
조작부(175)는 터치 스크린, 터치패드, 키 버튼, 키패드 등으로 구현되어, 디스플레이 장치(100)의 사용자 조작을 제공한다. 본 실시 예에서는 디스플레이 장치(100)에 구비된 조작부(175)를 통하여 제어 명령을 입력받는 예를 설명하였지만, 조작부(175)는 외부 제어 장치(예를 들어, 리모컨)로부터 사용자 조작을 입력받을 수도 있다.
통신부(170)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(1700)는 와이파이칩(331), 블루투스 칩(332)을 포함할 수 있다. 프로세서(120)는 통신부(170)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다. 구체적으로, 통신부(170)는 디스플레이 장치(100)를 제어할 수 있는 제어 단말장치(예를 들어, 리모컨)로부터 제어 명령을 수신할 수 있다.
통신부(170)는 외부 서버와의 통신을 통하여 날씨 정보를 취득할 수 있다.
그 밖에, 도 2에 도시하지는 않았으나, 실시 예에 따라서는, 통신부(170)는 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩 등을 더 포함할 수 있음은 물론이다.
센서부(180)는 디스플레이 장치(100)의 주변에 대한 조명 환경을 감지한다. 구체적으로, 센서부(180)는 디스플레이 장치 상에 상호 이격된 위치에 배치되는 복수의 센서를 포함하여 조명 방향을 감지할 수 있다. 여기서 센서부(180)는 조도를 감지하는 조도 센서일 수 있으며, 조도뿐만 아니라, 색 온도 등도 감지 가능한 칼라 센서일 수도 있다. 한편, 상술한 센서는 디스플레이(200)에서 방출되는 빛의 영향을 받지 않도록 디스플레이 장치의 프레임 안에 매립된 형태를 가질 수 있다.
따라서, 만약 센서부(180)가 2개의 센서로 구성되는 경우, 하나의 조도 센서와 하나의 칼라 센서로 구성되거나 2개의 칼라 센서로 구성될 수도 있다. 한편, 구현시에 2개의 센서 모두가 조도 센서로 구현될 수도 있으나, 적어도 하나의 칼라 센서가 구비되는 것이 바람직하다.
한편, 센서부(180)는 IR 센서, 초음파 센서, RF 센서 등을 더 포함하고, 사용자의 위치를 감지할 수도 있다. 한편, 구현시에는 센서부(180)는 CMOS와 CCD와 같은 촬상 소자를 이용하여 기설정된 영역을 촬상하고, 촬상된 이미지에 대한 이미지 분석을 통하여 사용자의 위치를 감지할 수도 있다.
프로세서(120)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 구체적으로, 프로세서(120)는 제1 동작 모드 시에는 조작부(175)를 통하여 입력받은 제어 명령에 따른 영상이 표시되도록 영상 처리부(110), 디스플레이(200)를 제어할 수 있다.
프로세서(120)는 ROM(131), RAM(132), GPU(Graphic Processing Unit)(133), CPU(134) 및 버스를 포함할 수 있다. ROM(131), RAM(132), GPU(Graphic Processing Unit)(133), CPU(134) 등은 버스를 통해 서로 연결될 수 있다.
CPU(134)는 저장부(175)에 액세스하여, 저장부(175)에 저장된 운영체제(O/S)를 이용하여 부팅을 수행한다. 그리고 CPU(134)는 저장부(175)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다. 이러한 CPU(134)의 동작은 도 2의 프로세서(120)의 동작 동일한바 중복 설명은 생략한다.
ROM(131)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, CPU(134)는 ROM(131)에 저장된 명령어에 따라 저장부(165)에 저장된 O/S를 RAM(132)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(134)는 저장부(165)에 저장된 각종 프로그램을 RAM(132)에 복사하고, RAM(132)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다.
GPU(133)는 디스플레이 장치(100)의 부팅이 완료되면, 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성할 수 있다. 구체적으로, GPU(133)는 디스플레이 장치(100)가 제2 동작 모드로 동작하는 경우, 배경 영상에 기설정된 오브젝트를 포함하는 화면을 생성할 수 있다. 또한, GPU(133)는 표시된 오브젝트에 대응되는 그림자 오브젝트 및/또는 디스플레이 장치(100)의 프레임에 대응되는 그림자 오브젝트를 포함하는 화면을 생성할 수 있다.
이러한, GPU 구성은 영상 신호 생성부(160)와 같은 별도의 구성으로 구성될 수 있으며, 프로세서(120) 내의 CPU와 결합된 SoC와 같은 구성으로 구현될 수도 있다.
이상과 같이 본 실시 예에 따른 디스플레이 장치(100)는 메인 영상과 오브젝트 영상에 대해서 서로 다른 시야각 개선 처리를 수행하는바, 표시되는 오브젝트에 대한 입체감을 향상시킬 수 있다.
도 4는 도 2의 영상 처리부의 구체적인 구성을 나타낸 도면이다.
도 4를 참조하면, 영상 처리부(110)는 처리부(111), 믹싱부(117), 후반 화질 처리부(118)로 구성될 수 있다.
처리부(111)는 복수의 비디오 신호에 대한 이미지 처리를 수행한다. 구체적으로, 처리부(111)는 복수의 레이어에 대한 영상 처리를 동시에 수행할 수 있다. 이러한 처리부(111)는 디코더(112), 스케일러(113), 화질 처리부(114), 윈도우(115), 그래픽 버퍼(116)로 구성될 수 있다.
먼저 처리부(111)는 입력된 영상의 속성이 비디오 신호인지 그래픽 신호인지를 구분하고, 입력된 영상의 속성이 비디오 신호이면, 디코더(112), 스케일러(113), 화질 처리부(114)를 이용하여 영상을 처리한다. 예를 들어, 비디오 속성의 영상이 입력부(210)를 통하여 처리부(111)에 입력되면, 디코더(112)는 입력된 비디오 영상을 디코딩하고, 스케일러(112)는 디코딩된 비디오 영상을 스케일링하고, 화질 처리부(114)는 스케일링된 비디오 영상에 대한 화질 처리를 수행하여 믹싱부(117)로 출력한다. 여기서 비디오 속성의 영상은 외부 소스로부터 입력되는 영상 또는 디스플레이 장치에 기저장된 비디오 컨텐츠의 영상일 수 있다.
만약, 입력된 영상의 속성이 그래픽 신호이면 윈도우(115), 그래픽 버퍼(116)로 영상을 처리한다. 예를 들어, 처리부(11)는 그래픽 속성의 오브젝트 영상(예를 들어, 게임 영상, 배경 이미지 또는 오브젝트)이 입력부(210)를 통하여 입력되면, 윈도우(115)를 통하여 그래픽 신호를 그래픽 버퍼(116)에 레더링하고, 그래픽 버퍼(116)에 생성된 영상을 믹싱부(117)로 출력할 수 있다.
이와 같이 처리부(111)는 복수의 영상을 처리할 수 있는바, 복수의 레이어를 처리 가능하다. 한편, 이상에서는 하나의 비디오 신호, 하나의 그래픽 신호를 합한 두 개의 신호만 처리하는 것으로 설명하였지만, 구현시에는 두 개의 비디오 신호 각각을 복수의 레이어를 이용하여 처리하는 것도 가능하고, 두 개의 그래픽 신호 각각을 복수의 레이어를 이용하여 처리하는 것도 가능하다. 또한, 두 개의 레이어가 아닌 세개 이상의 레이어를 이용하여 처리하는 것도 가능하다.
한편, 화질 처리부(114)는 시야각 개선 처리가 필요할 때에는 오브젝트 영상에 대응되는 영상에 대해서도 시야각 개선 처리를 수행할 수 있다.
믹싱부(117)는 처리부(111)에서 전달된 두 개의 영상을 하나의 믹싱할 수 있다.
그리고 후반 화질 처리부(118)는 믹싱된 영상에 대해서 화질 처리(W/B)를 수행하고, 화질 처리된 영상을 디스플레이(200)에 전송할 수 있다.
한편, 이상에서는 두 영상 각각에 대해서 서로 다른 시야각 개선 처리를 수행하고, 두 영상을 병합하는 것으로 설명하였지만, 구현시에는 병합을 우선적으로 수행하고, 병합된 이미지에 대해서 영역별로 다른 시야각 개선 처리를 수행하는 방식으로 시야각 개선을 수행할 수도 있다. 즉, 병합된 이미지에서 오브젝트 영상이 위치하는 영역에 대해서만 시야각 개선 처리를 수행함으로써 상술한 바와 같은 동일한 효과를 부가할 수도 있다.
도 5는 제2 동작 모드로 동작시에 표시되는 디스플레이 화면의 일 예를 도시한 도면이다.
도 5를 참조하면, 디스플레이(100)는 제2 동작 모드로 동작하며, 디스플레이(100)의 뒷 배경을 배경 화면으로 표시된다.
그리고 디스플레이(100)는 배경 화면과 함께 시계 오브젝트를 표시한다.
한편, LCD 패널은 동작 특성에 의하여 시야각의 제한이 발생한다. 예를 들어, 고계조 또는 저 계조에서는 시야각이 좋으나, 중간 계조에서는 시야각이 좋지 않아 색빠짐 현상이 나타난다.
따라서, 사용자가 디스플레이의 측면에서 디스플레이(100)를 바라보는 경우, 도 6에 도시된 바와 같이 전체 화면(600)은 색 빠짐 현상에 따라 흐리게 보이게 된다.
이러한 색 빠짐 현상을 방지하기 위하여, 시야각 개선 처리를 수행할 수 있는데, 본 개시에서는 전체 이미지가 아닌 오브젝트 영상에 대해서만 시야각 개선 처리를 함으로써 표시되는 오브젝트에 대한 입체감을 보다 향상시킨다.
구체적으로, 도 7에 도시된 바와 같이 배경 화면(700)은 도 6과 동일하게 색 빠짐 현상에 따라 흐리게 보인다. 그러나 오브젝트 영상에 대해서는 시야각 개선 처리가 수행됨에 따라, 측면에서 보더라도 색 빠짐 현상이 덜하게 된다. 따라서, 사용자는 시계는 뚜렷하게 보이고, 배경 화면은 흐르게 보여, 배경 화면이 아웃 포커싱된 시계 이미지를 보는 것과 같은 느낌을 받을 수 있다. 즉, 시계 화면은 가깝게 있고, 배경 화면은 멀리 위치하는 입체감을 보다 크게 받을 수 있다.
도 8은 제2 동작 모드 시에 표시되는 디스플레이 화면의 일 예를 도시한 도면이다.
도 8을 참조하면, 디스플레이(800)는 배경 화면을 메인 영상(810)으로 표시하고, 그림을 오브젝트 영상(820)으로 표시한다. 이때, 디스플레이 장치(100)는 그림에 대응되는 오브젝트 영상(820)에 대해서만 시야각 개선 처리를 수행함으로써, 그림과 배경이 상당히 이격되어 배치되어 있는 효과를 줄 수 있다.
한편, 이상에서는 오브젝트 영상에 대해서 시야각 개선 처리를 수행하고, 메인 영상에 대해서는 시야각 개선 처리를 수행하지 않는 것으로 설명하였지만, 구현시에는 반대로 적용될 수도 있다.
예를 들어, 디스플레이 장치가 위치하는 영역에 먼 원경이 보이는 창문이 배치되는 느낌을 주기 위하여, 디스플레이 장치는 배경 화면 상에 동산 또는 산이 보이는 창문을 표시할 수 있다. 이때, 디스플레이 장치(100)는 배경 화면에 대해서는 시야각 개선 처리를 수행하고, 창문에 대응되는 오브젝트에 대해서는 시야각 개선 처리를 수행하지 않음으로써 창문 내의 산 또는 동산 등의 이미지가 배경 화면보다 멀리 위치하는 입체감을 줄 수 있다.
도 9는 제1 동작 모드 시에 표시되는 디스플레이 화면의 일 예를 도시한 도면이다.
도 9를 참조하면, 디스플레이 장치(100)는 제1 동작 모드 시에 사용자가 선택한 컨텐츠(900)를 표시한다. 이때 사용자는 디스플레이 장치(100)의 설정을 변경하기 위한 메뉴를 선택할 수 있는데, 이러한 메뉴는 OSD일 수 있다.
이때, 디스플레이 장치(100)는 표시되는 원 영상에 대해서는 시야각 개선 처리를 수행하지 않고, 표시되는 OSD에 대해서만 시야각 개선 처리를 수행함으로써, 사용자가 보다 표시되는 메뉴 화면에 집중할 수 있도록 할 수 있다.
도 10은 시야각 처리 방식을 설명하기 위한 도면이다.
도 10을 참조하면, 시야 위치별 입력된 밝기값에 대한 휘도 값을 나타낸다. 구체적으로, 제1 그래프(10)는 정면에서 디스플레이를 바라볼 때, 입력된 밝기값에 대한 감지되는 휘도 값의 변화를 나타낸다. 이를 참조하면, 디스플레이의 정면에서는 밝기값의 변화에 선형적으로 휘도 값이 변화함을 알 수 있다.
한편, 제2 그래프(20)는 측면에서 디스플레이를 바라볼 때, 입력된 밝기값에 대해서 감지되는 휘도 값의 변화를 나타낸다. 이를 참조하면, 디스플레이의 측면에서는 밝기값의 변화에 대해서 휘도 값이 정면보다 낮게 감지됨을 확인할 수 있다.
따라서, 측면에서 보았을 때 휘도 값 변화가 제1 그래프(10)와 같이 나타난다면, 정면에서 볼 때와 동일한바, 디스플레이 장치(100)는 시야각 개선시에는 입력되는 밝기값을 보다 크게할 수 있다.
이러한 동작은 하드웨어적으로 수행되거나 소프트웨어적으로 수행될 수 있다.
구체적으로, 하나의 픽셀 위치에 대해서 저계조 표시시에 동작하는 서브 픽셀과 고계조 표시시에 동작하는 서브 픽셀을 배치함으로써, 입력되는 계조에 따라 서로 다른 픽셀을 구동시켜 시야각 개선을 수행할 수 있다.
또는 복수의 룩업 테이블을 이용하여 계조 구간마다 다른 룩업 테이블을 이용하도록 하여 소프트웨어적으로 시야각 개선을 수행할 수 있다. 여기서 룩업 테이블은 기준 감마값을 갖는 제1 룩업 테이블과 기준 감마값보다 낮거나 높은 감마값을 갖는 제2 룩업 테이블일 수 있다.
이에 따라, 디스플레이 장치(100)는 배경 영상에 대해서는 제1 룩업 테이블을 이용하고, 오브젝트 영상에 대해서는 제2 룩업 테이블을 이용하여 휘도 값을 산출할 수 있다. 또는 구현시에 디스플레이 장치(100)는 병합된 영상에 대해서 오브젝트에 대응되는 픽셀에 대해서는 제2 룩업 테이블에 기초하여 휘도 값을 산출하도록 하고, 나머지 영역에 대해서는 제1 룩업 테이블에 기초하여 휘도 값을 산출하도록 할 수도 있다.
한편, 이상에서는 하드웨어적 또는 소프트웨어적 각각 하나의 시야각 개선 방식을 설명하고 있는바, 시야각 개선이 가능하다면 상술한 방식 이외에 다른 개선 방식이 적용될 수 있다.
또한, 구현시에는 상술한 시야각 개선 방식 중 하나만이 적용될 수도 있으며, 상술한 시야각 개선 방식이 결합되어 적용될 수도 있다. 예를 들어, 오브젝트 영상에 대해서는 소프트웨어적인 시야각 개선 방식이 적용되고, 병합된 영상에 대해서 하드웨어적인 시야각 개선 방식이 적용될 수 있다. 즉, 오브젝트 영상에 대해서는 소프트웨어적인 방식과 하드웨어 방식 모두 적용되는 것이고, 배경 영상에 대해서는 하드웨어 방식만이 적용될 수 있다 또는 오브젝트 영상에 대해서는 하드웨어 방식이 적용되고, 배경 영상에 대해서는 소프트웨어적인 방식만이 적용될 수도 있다.
도 11은 본 개시의 제1 실시 예에 따른 디스플레이 방법을 설명하기 위한 도면이다.
도 11을 참조하면, 먼저 오브젝트 영상 및 메인 영상 각각에 대해서 서로 다른 시야각 개선 처리를 수행한다(S1110). 구체적으로, 오브젝트 영상에 대해서는 시야각 개선 처리를 수행하고, 배경 영상에 대해서는 시야각 개선 처리를 미수행할 수 있다. 한편, 구현시에는 두 영상 모드에 시야각 개선 처리를 수행하되, 개선 정도를 달리할 수도 있다.
그리고 시야각 개선 처리가 수행된 오브젝트 영상과 메인 영상을 병합한다(S1120). 여기서 메인 영상은 일반적인 영상이거나 제2 동작 모드 시에 표시되는 배경 이미지일 수 있다. 만약 메인 영상이 일반적인 영상일 때 오브젝트 영상은 OSD에 대응되는 영상일 수 있다. 그리고 메인 영상이 배경 이미지일 때 오브젝트 영상은 아날로그 시계, 디지털 시계, 사진 이미지, 그림, 어항과 같은 동작 그래픽 등일 수 있다.
그리고 병합된 영상을 표시한다(S1130).
이상과 같이 본 실시 예에 따른 디스플레이 방법은, 메인 영상과 오브젝트 영상 각각에 서로 다른 시야각 개선 처리를 수행하는바, 표시되는 메인 영상과 오브젝트 영상은 시야각에 다른 입체감을 갖게 된다. 도 11과 같은 디스플레이 방법은 도 2 또는 도 3의 구성을 가지는 디스플레이 장치 상에서 실행될 수 있으며, 그 밖의 구성을 가지는 디스플레이 장치 상에서도 실행될 수 있다.
한편, 상술한 제1 실시 예에 따른 디스플레이 방법은 프로그램으로 구현되어 디스플레이 장치에 제공될 수 있다. 특히, 디스플레이 방법을 포함하는 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
도 12는 본 개시의 제2 실시 예에 따른 디스플레이 방법을 설명하기 위한 도면이다.
도 12를 참조하면, 메인 영상과 오브젝트 영상을 병합한다(S1210). 여기서 메인 영상은 일반적인 영상이거나 제2 동작 모드 시에 표시되는 배경 이미지일 수 있다. 만약 메인 영상이 일반적인 영상일 때, 사용자가 OSD 표시 명령을 입력한 경우, 오브젝트 영상은 OSD에 대응되는 영상일 수 있으며, 일반적인 영상과 OSD 영상은 하나로 병합될 수 있다. 만약, 메인 영상이 배경 이미지일 때 오브젝트 영상은 아날로그 시계, 디지털 시계, 사진 이미지, 그림, 어항과 같은 동작 그래픽 등일 수 있으며, 배경 이미지의 일 측에 오브젝트 영상이 배치되는 형태로 병합될 수 있다.
영역별로 다른 시야각 처리가 수행된다(S1220). 구체적으로, 병합된 영상에 대해서 오브젝트 영상이 위치하는 영역에 대해서는 시야각 개선 처리를 수행하고, 이외의 영역에 대해서는 시야각 개선 처리를 수행하지 않을 수 있다. 또는 병합된 영상에 대해서는 오브젝트 영상이 위치하는 영역에 대해서는 제1 방식의 시야각 개선 처리를 수행하고, 이외의 영역에 대해서는 제2 방식의 시야각 개선 처리를 수행할 수 있다.
시야각 처리가 수행된 영상을 표시한다(S1230).
이상과 같이 본 실시 예에 따른 디스플레이 방법은, 오브젝트 영상에 대응되는 영역에만 시야각 개선 처리를 수행하는바, 표시되는 메인 영상과 오브젝트 영상은 시야각에 따라 다른 가변되는 입체감을 갖게 된다. 도 12와 같은 디스플레이 방법은 도 2 또는 도 3의 구성을 가지는 디스플레이 장치 상에서 실행될 수 있으며, 그 밖의 구성을 가지는 디스플레이 장치 상에서도 실행될 수 있다.
한편, 상술한 제2 실시 예에 따른 디스플레이 방법은 프로그램으로 구현되어 디스플레이 장치에 제공될 수 있다. 특히, 디스플레이 방법을 포함하는 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
또한, 이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.
100: 디스플레이 장치 110: 영상 처리부
120: 프로세서 200: 디스플레이
140: 방송 수신부 145: 신호 분리부
150: A/V 처리부 155: 오디오 출력부
165: 저장부 170: 통신부
175: 조작부 180: 센서부

Claims (19)

  1. 디스플레이 장치에 있어서,
    영상을 표시하는 디스플레이;
    오브젝트 영상 및 메인 영상 각각에 대해서 서로 다른 시야각 개선 처리를 수행하고, 상기 다른 시야각 개선 처리가 수행된 오브젝트 영상 및 메인 영상을 병합하는 영상 처리부; 및
    상기 병합된 영상이 표시되도록 상기 디스플레이를 제어하는 프로세서;를 포함하는 디스플레이 장치.
  2. 제1항에 있어서,
    상기 영상 처리부는,
    상기 오브젝트 영상에 대해서만 시야각 개선 처리를 수행하고, 상기 시야각 개선 처리가 수행된 오브젝트 영상과 시야각 개선 처리가 수행되지 않은 메인 영상을 병합하는 디스플레이 장치.
  3. 제2항에 있어서,
    상기 영상 처리부는,
    상기 오브젝트 영상에 대응되는 제1 레이어를 생성하고, 상기 메인 영상에 대응되는 제2 레이어를 생성하고, 상기 제1 레이어에 대해서 시야각 개선 처리를 수행하고, 상기 시야각 개선 처리가 수행된 제1 레이어와 상기 제2 레이어를 믹싱하여 상기 병합된 영상을 생성하는 디스플레이 장치.
  4. 제1항에 있어서,
    상기 메인 영상은
    상기 디스플레이 장치의 뒷면에 대응되는 배경 이미지이고,
    상기 오브젝트 영상은,
    아날로그 시계, 디지털 시계, 사진 이미지, 그림 중 적어도 하나의 오브젝트를 나타내는 영상인 디스플레이 장치.
  5. 제1항에 있어서,
    상기 메인 영상은 외부로부터 제공된 컨텐츠에 대응되는 비디오 영상이고,
    상기 오브젝트 영상은 상기 디스플레이 장치를 제어하기 위한 OSD(On Screen Display)인 디스플레이 장치.
  6. 제1항에 있어서,
    상기 시야각 개선 처리는,
    기준 감마값과 다른 감마 값을 갖는 제2 룩업 테이블로 복수의 픽셀 각각의 휘도 값을 결정하는 디스플레이 장치.
  7. 제6항에 있어서,
    제2 룩업 테이블은,
    저계조 구간에서 상기 기준 감마 값보다 높은 감마 값을 갖거나, 고계조 구간에서 상기 기준 감마값보다 낮은 감마 값을 갖도록 하는 룩업 테이블인 디스플레이 장치.
  8. 제6항에 있어서,
    상기 프로세서는,
    상기 오브젝트 영상이 표시될 픽셀 각각에 대해서는 상기 제2 룩업 테이블을 이용하여 휘도 값을 결정하고, 상기 메인 영상이 표시될 픽셀 각각에 대해서는 기준 감마값을 갖는 제1 룩업 테이블을 이용하여 휘도 값을 결정하는 디스플레이 장치.
  9. 제1항에 있어서,
    사용자의 위치를 확인하는 센서부;를 더 포함하고,
    상기 프로세서는,
    상기 확인된 사용자의 위치에 따라 시야각 개선 처리가 필요한지를 결정하는 하고, 시야각 개선 처리가 필요한 것으로 결정되면 오브젝트 영상 및 메인 영상 각각에 대해서 서로 다른 시야각 개선 처리를 수행하도록 상기 영상 처리부를 제어하는 디스플레이 장치.
  10. 디스플레이 방법에 있어서,
    오브젝트 영상 및 메인 영상 각각에 대해서 서로 다른 시야각 개선 처리를 수행하는 단계;
    상기 다른 시야각 개선 처리가 수행된 오브젝트 영상 및 메인 영상을 병합하는 단계; 및
    상기 병합된 영상을 표시하는 단계;를 포함하는 디스플레이 방법.
  11. 제10항에 있어서,
    상기 서로 다른 시야각 개선 처리를 수행하는 단계는,
    상기 오브젝트 영상에 대해서만 시야각 개선 처리를 수행하고, 상기 메인 영상에 대해서는 시야각 개선 처리를 미수행하는 디스플레이 방법.
  12. 제11항에 있어서,
    상기 병합하는 단계는,
    시야각 개선 처리가 수행된 오브젝트 영상에 대응되는 제1 레이어와 시야각 개선 처리가 수행되지 않은 메인 영상에 대응되는 제2 레이어를 믹싱하는 디스플레이 방법.
  13. 제10항에 있어서,
    상기 메인 영상은,
    상기 디스플레이 장치의 뒷면에 대응되는 배경 이미지이고,
    상기 오브젝트 영상은,
    아날로그 시계, 디지털 시계, 사진 이미지, 그림 중 적어도 하나의 오브젝트를 나타내는 영상인 디스플레이 방법.
  14. 제10항에 있어서,
    상기 메인 영상은 외부로부터 제공된 컨텐츠에 대응되는 비디오 영상이고,
    상기 오브젝트 영상은 상기 디스플레이 장치를 제어하기 위한 OSD(On Screen Display)인 디스플레이 방법.
  15. 제10항에 있어서,
    상기 시야각 개선 처리는 ,
    기준 감마값과 다른 감마 값을 갖는 제2 룩업 테이블로 복수의 픽셀 각각의 휘도 값을 결정하는 처리인 디스플레이 방법.
  16. 제15항에 있어서,
    제2 룩업 테이블은,
    저계조 구간에서 상기 기준 감마 값보다 높은 감마 값을 갖거나, 고계조 구간에서 상기 기준 감마값보다 낮은 감마 값을 갖도록 하는 룩업 테이블인 디스플레이 방법.
  17. 제15항에 있어서,
    상기 서로 다른 시야각 개선 처리를 수행하는 단계는,
    상기 오브젝트 영상이 표시될 픽셀 각각에 대해서는 상기 제2 룩업 테이블을 이용하여 휘도 값을 결정하고, 상기 메인 영상이 표시될 픽셀 각각에 대해서는 상기 제1 룩업 테이블을 이용하여 휘도 값을 결정하는 디스플레이 방법.
  18. 제11항에 있어서,
    사용자의 위치를 확인하는 단계; 및
    상기 확인된 사용자의 위치에 따라 시야각 개선 처리가 필요한지를 결정하는 단계;를 더 포함하는 디스플레이 방법.
  19. 디스플레이 방법을 실행하기 위한 프로그램을 포함하는 컴퓨터 판독가능 기록 매체에 있어서,
    상기 디스플레이 방법은,
    오브젝트 영상 및 메인 영상 각각에 대해서 서로 다른 시야각 개선 처리를 수행하는 단계;
    상기 다른 시야각 개선 처리가 수행된 오브젝트 영상 및 메인 영상을 병합하는 단계; 및
    상기 병합된 영상을 표시하는 단계;를 포함하는 컴퓨터 판독가능 기록매체.
KR1020160170607A 2016-12-14 2016-12-14 디스플레이 장치 및 디스플레이 방법 KR102538479B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020160170607A KR102538479B1 (ko) 2016-12-14 2016-12-14 디스플레이 장치 및 디스플레이 방법
JP2019528063A JP7050067B2 (ja) 2016-12-14 2017-10-23 ディスプレイ装置及びその制御方法
PCT/KR2017/011736 WO2018110821A1 (en) 2016-12-14 2017-10-23 Display apparatus and method for controlling the display apparatus
EP17881886.0A EP3494458B1 (en) 2016-12-14 2017-10-23 Display apparatus and method for controlling the display apparatus
US15/798,623 US10579206B2 (en) 2016-12-14 2017-10-31 Display apparatus and method for controlling the display apparatus
CN201711334386.XA CN108235125B (zh) 2016-12-14 2017-12-13 显示装置和用于控制显示装置的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160170607A KR102538479B1 (ko) 2016-12-14 2016-12-14 디스플레이 장치 및 디스플레이 방법

Publications (2)

Publication Number Publication Date
KR20180068678A true KR20180068678A (ko) 2018-06-22
KR102538479B1 KR102538479B1 (ko) 2023-06-01

Family

ID=62768648

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160170607A KR102538479B1 (ko) 2016-12-14 2016-12-14 디스플레이 장치 및 디스플레이 방법

Country Status (1)

Country Link
KR (1) KR102538479B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11356176B2 (en) 2019-11-05 2022-06-07 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2006333301A (ja) * 2005-05-30 2006-12-07 Victor Co Of Japan Ltd テレビ通信装置
US20120013646A1 (en) * 2008-08-26 2012-01-19 Sharp Kabushiki Kaisha Image display device and image display device drive method
KR20140028558A (ko) * 2012-08-29 2014-03-10 삼성디스플레이 주식회사 투명 표시장치 및 이의 구동방법
KR20150133898A (ko) * 2014-05-20 2015-12-01 삼성디스플레이 주식회사 창문 겸용 표시장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2006333301A (ja) * 2005-05-30 2006-12-07 Victor Co Of Japan Ltd テレビ通信装置
US20120013646A1 (en) * 2008-08-26 2012-01-19 Sharp Kabushiki Kaisha Image display device and image display device drive method
KR20140028558A (ko) * 2012-08-29 2014-03-10 삼성디스플레이 주식회사 투명 표시장치 및 이의 구동방법
KR20150133898A (ko) * 2014-05-20 2015-12-01 삼성디스플레이 주식회사 창문 겸용 표시장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11356176B2 (en) 2019-11-05 2022-06-07 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof

Also Published As

Publication number Publication date
KR102538479B1 (ko) 2023-06-01

Similar Documents

Publication Publication Date Title
US10579206B2 (en) Display apparatus and method for controlling the display apparatus
US10867585B2 (en) Electronic apparatus and method for displaying a content screen on the electronic apparatus thereof
CN106251800B (zh) 用于增强可见度的显示系统及其方法
US10635373B2 (en) Display apparatus and method of controlling the same
US10629167B2 (en) Display apparatus and control method thereof
US20180174555A1 (en) Display apparatus and display method thereof
JP2020513581A (ja) ディスプレイ装置及びディスプレイ方法
US10950206B2 (en) Electronic apparatus and method for displaying contents thereof
KR20160036332A (ko) 디스플레이 장치, 이의 제어 방법 및 이의 데이터 전송 방법
CN111557098B (zh) 电子装置及其显示方法
KR20180103239A (ko) 디스플레이 장치 및 그 제어 방법
KR20180071619A (ko) 디스플레이 장치 및 디스플레이 방법
KR102538479B1 (ko) 디스플레이 장치 및 디스플레이 방법
US11234042B2 (en) Display device, control method therefor and recording medium
KR20180076154A (ko) 디스플레이 장치 및 이의 제어 방법
KR20190019580A (ko) 디스플레이 장치 및 디스플레이 방법
KR102651417B1 (ko) 디스플레이 장치 및 이의 제어 방법
KR20180128194A (ko) 전자 장치 및 그 제어 방법
US11467798B2 (en) Display apparatus for changing an advertisement area, server, electronic apparatus and control methods thereof
KR20240037802A (ko) 프로젝션 장치 및 그 동작 방법
KR20180074400A (ko) 디스플레이 장치 및 디스플레이 방법
KR20180125847A (ko) 전자 장치 및 이의 디스플레이 방법
KR20180124260A (ko) 전자 장치 및 그의 디스플레이 방법
KR20180124597A (ko) 전자 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right