KR20180074400A - 디스플레이 장치 및 디스플레이 방법 - Google Patents

디스플레이 장치 및 디스플레이 방법 Download PDF

Info

Publication number
KR20180074400A
KR20180074400A KR1020160178439A KR20160178439A KR20180074400A KR 20180074400 A KR20180074400 A KR 20180074400A KR 1020160178439 A KR1020160178439 A KR 1020160178439A KR 20160178439 A KR20160178439 A KR 20160178439A KR 20180074400 A KR20180074400 A KR 20180074400A
Authority
KR
South Korea
Prior art keywords
image
display
display device
processor
image sensor
Prior art date
Application number
KR1020160178439A
Other languages
English (en)
Inventor
홍진혁
최낙원
서영광
최은석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160178439A priority Critical patent/KR20180074400A/ko
Priority to PCT/KR2017/013051 priority patent/WO2018117433A1/en
Priority to EP17884735.6A priority patent/EP3494459A4/en
Priority to CN201711408023.6A priority patent/CN108243353A/zh
Priority to US15/852,691 priority patent/US20180184040A1/en
Publication of KR20180074400A publication Critical patent/KR20180074400A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • H04N5/58Control of contrast or brightness in dependence upon ambient light
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0033Means for improving the coupling-out of light from the light guide
    • G02B6/005Means for improving the coupling-out of light from the light guide provided by one optical element, or plurality thereof, placed on the light output side of the light guide
    • G02B6/0055Reflecting element, sheet or layer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0242Compensation of deficiencies in the appearance of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/08Power processing, i.e. workload management for processors involved in display operations, such as CPUs or GPUs
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/145Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light originating from the display screen
    • H04N2005/4432
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection

Abstract

디스플레이 장치가 개시된다. 본 디스플레이 장치는 영상을 표시하는 디스플레이, 디스플레이의 뒷면에 배치되는 이미지 센서, 디스플레이 장치의 정면에서 입사되는 빛을 반사하여 이미지 센서에 결상시키는 반사 부재, 및 이미지 센서에서 촬상된 이미지에 기초하여 디스플레이 장치의 동작을 제어하는 프로세서를 포함한다.

Description

디스플레이 장치 및 디스플레이 방법{DISPLAY APPARATUS AND METHOD FOR DISPLAYING}
본 개시는 디스플레이 장치 및 디스플레이 방법에 관한 것으로, 보다 상세하게는 최소화로 노출된 센서부를 이용하여 사용자 움직임을 감지할 수 있는 디스플레이 장치 및 디스플레이 방법에 관한 것이다.
디스플레이 장치는 외부로부터 수신된 디지털 또는 아날로그 영상 신호 또는 내부 저장장치에 다양한 포맷의 압축 파일로 저장된 다양한 영상 신호 등이 처리되어 표시되도록 하는 장치이다.
최근의 디스플레이 장치는 이미지 센서가 배치되며, 이미지 센서에서 촬상된 이미지를 이용하여 사용자의 움직임 등을 확인하고, 확인된 움직임에 따라 다양한 디스플레이 장치에 대한 제어를 수행하였다.
그러나 종래에는 디스플레이 장치의 정면에 위치하는 사용자를 감지하기 위하여, 이미지 센서가 디스플레이 장치의 베젤 측에 배치되었다. 이에 따라, 디스플레이 장치의 베젤의 크기를 줄이는데 한계가 있었으며, 렌즈의 노출에 따른 디자인 저해라는 문제가 있었다.
따라서, 본 개시의 목적은 최소화로 노출된 센서부를 이용하여 사용자 움직임을 감지할 수 있는 디스플레이 장치 및 디스플레이 방법을 제공하는 데 있다.
상술한 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 디스플레이 장치는 영상을 표시하는 디스플레이, 상기 디스플레이의 뒷면에 배치되는 이미지 센서, 상기 디스플레이 장치의 정면에서 입사되는 빛을 반사하여 상기 이미지 센서에 결상시키는 반사 부재, 및 상기 이미지 센서에서 촬상된 이미지에 기초하여 상기 디스플레이 장치의 동작을 제어하는 프로세서를 포함한다.
이 경우, 상기 반사 부재는 도관의 단면은 상기 이미지 센서에 위치하고, 상기 도관의 타 단면은 상기 디스플레이 장치의 정면 방향으로 배치되는 도파관일 수 있다.
이 경우, 상기 도파관은 투명한 재질일 수 있다.
한편, 상기 반사 부재는 빛을 반사하는 반사판, 및 디스플레이 장치의 정면에서 입사되는 빛이 상기 이미지 센서에 결상되도록 상기 반사판의 위치를 고정하는 가이드 부재를 포함할 수도 있다.
한편, 상기 이미지 센서는 상기 디스플레이의 뒷면에서 상기 디스플레이의 하부 또는 상부 방향으로 배치되며, 상기 반사 부재는 상기 이미지 센서로부터 상기 디스플레이의 하부 또는 상부 방향으로 배치되어, 상기 디스플레이 장치의 정면에서 상기 반사 부재의 일부 영역만이 노출되는 형태로 배치될 수 있다.
한편, 상기 프로세서는 상기 이미지 센서에서 촬상된 이미지 중 기설정된 영역만을 이용하여 상기 디스플레이 장치의 동작을 제어할 수 있다.
이 경우, 상기 프로세서는 상기 이미지 센서에서 촬상된 이미지 중 상기 디스플레이 장치의 정면에 대응되는 영역을 확인하고, 상기 확인된 영역을 기설정된 영역으로 설정할 수 있다.
한편, 상기 프로세서는 상기 촬상된 이미지에 기초하여 사용자 제스처를 확인하고, 상기 확인된 사용자 제스처에 대응한 이벤트를 수행할 수 있다.
한편, 상기 프로세서는 상기 디스플레이의 뒷면의 배경에 대응되는 배경 영상이 표시되도록 상기 디스플레이를 제어하고, 상기 프로세서는 상기 촬상된 이미지에서 주변 환경 정보를 확인하고, 상기 확인된 주변 환경 정보에 기초하여 그림자 오브젝트가 상기 배경 영상과 함께 표시되도록 상기 디스플레이를 제어할 수 있다.
한편, 본 개시의 일 실시 예에 따른 디스플레이 방법은 디스플레이를 이용하여 영상을 표시하는 단계, 상기 디스플레이의 뒷면에 배치되는 이미지 센서와 디스플레이 장치의 정면에서 입사되는 빛을 반사하여 상기 이미지 센서에 결상시키는 반사 부재를 이용하여 촬상 이미지를 생성하는 단계, 및 상기 생성된 촬상 이미지를 이용하여 상기 디스플레이의 동작을 제어하는 단계를 포함한다.
이 경우, 상기 제어하는 단계는 상기 이미지 센서에서 촬상된 이미지 중 기설정된 영역만을 이용하여 상기 디스플레이 장치의 동작을 제어할 수 있다.
이 경우, 본 디스플레이 방법은 상기 이미지 센서에서 촬상된 이미지 중 상기 디스플레이 장치의 정면에 대응되는 영역을 확인하는 단계, 및 상기 확인된 영역을 기설정된 영역으로 설정하는 단계를 더 포함할 수 있다.
한편, 상기 제어하는 단계는 상기 촬상된 이미지에 기초하여 사용자 제스처를 확인하고, 상기 확인된 사용자 제스처에 대응한 이벤트를 수행할 수 있다.
한편, 상기 표시하는 단계는 상기 디스플레이의 뒷면의 배경에 대응되는 배경 영상을 표시할 수 있다.
이 경우, 본 디스플레이 방법은 상기 촬상된 이미지에서 주변 환경 정보를 확인하는 단계, 및 상기 확인된 주변 환경 정보에 기초하여 그림자 오브젝트를 표시하는 단계를 더 포함할 수 있다.
도 1은 본 개시의 일 실시 예에 따른, 디스플레이가 투명한 유리창이 된 것과 같은 이미지 효과를 제공하는 실시 예를 설명하기 위한 도면,
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 간략한 구성을 나타내는 블럭도,
도 3은 본 개시의 일 실시 예에 따른 디스플레이 장치의 구체적인 구성을 나타내는 블럭도,
도 4는 도 2의 영상 처리부의 구체적인 구성을 나타낸 도면,
도 5는 본 개시의 일 실시 예에 따른 반사 부재의 구체적인 배치 형태를 설명하기 위한 도면,
도 6은 반사판과 가이드 부재로 반사 부재가 구현되는 경우를 도시한 도면,
도 7은 반사 부재가 위치 가능한 다양한 배치 예를 도시한 도면,
도 8은 반사 부재를 통하여 취득한 영상의 처리 방법을 설명하는 도면,
도 9는 반사 부재의 조립 공차에 따른 다양한 활성 영역의 예를 설명하기 위한 도면,
도 10은 사용자의 위치에 기초하여 액티브 영역을 설정하는 방법을 설명하기 위한 도면,
도 11은 본 개시의 일 실시 예에 따른 디스플레이 방법을 설명하기 위한 흐름도이다.
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다." 또는 "구성되다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
실시 예에 있어서 ‘모듈’ 혹은 ‘부’는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 ‘모듈’ 혹은 복수의 ‘부’는 특정한 하드웨어로 구현될 필요가 있는 ‘모듈’ 혹은 ‘부’를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
이하에서, 첨부된 도면을 이용하여 본 개시에 대하여 구체적으로 설명한다.
도 1은 본 개시의 일 실시 예에 따른 디스플레이 장치의 동작을 설명하기 위한 도면이다.
디스플레이 장치(100)는 영상을 표시한다. 그리고 디스플레이 장치(100)는 디스플레이 장치(100)의 정면에 환경을 감지하고, 감지된 환경에 따른 다양한 동작을 수행할 수 있다.
예를 들어, 디스플레이 장치(100)는 디스플레이 장치 주변의 조명 방향, 조명 강도 등을 감지하여, 백라이트의 밝기, 표시되는 오브젝트에 대한 이미지 처리를 수행할 수 있다.
그리고 디스플레이 장치(100)는 사용자가 디스플레이 장치의 정면이 아닌 곳에 위치한 경우라면, 시야각을 향상하는 이미지 처리를 수행할 수 있다.
또한, 사용자가 감지되지 않는 경우에는 영상을 표시하는 동작을 중단할 수 있다.
이와 같은 동작을 위해서 디스플레이 장치에는 이미지 센서 등의 센서가 배치되어야 하는데, 디스플레이 장치의 정면을 감지하여야 한다는 점에서, 종래에는 디스플레이 장치의 베젤(101) 영역에 이미지 센서가 배치되었다.
그러나 디스플레이 장치(100)가 주변 환경과 이질감 없이 배치되기 위해서 또는 심미적으로는 디스플레이 장치의 베젤은 없거나, 최소한의 너비만을 갖는 것이 바람직하다.
이미지 센서가 디스플레이 장치의 정면에 배치하기 위해서는, 베젤 위에 센서를 배치시켜야 한다는 점에서, 베젤의 크기를 줄일 수 없었으며, 그에 따라 이질감이 발생할 수밖에 없다.
이에 따라, 본 개시에는 센서부를 디스플레이의 정면의 베젤 측에 배치하지 않고, 디스플레이의 뒷면에 이미지 센서를 배치하고, 반사 부재를 이용하여 디스플레이 정면의 빛을 이미지 센서에 결상한다.
이와 같은 센서부의 구조에 따라 디스플레이 장치의 정면에서는 센서부의 존재를 인지하기 어렵게 된다. 또한, 반사 부재의 경우 투명한 도파관으로 구현할 수 있고 이러한 경우, 센서부의 존재를 인지하기 더욱 어렵게 되어 디자인 측면에서 우수한 효과를 갖게 된다.
이하에서는 디스플레이 장치의 구체적인 구성들을 이용하여 상술한 동작을 자세히 설명한다.
도 2는 본 개시의 일 실시 예에 따른 디스플레이 장치의 간략한 구성을 나타내는 블럭도이다.
도 2를 참조하면, 본 디스플레이 장치(100)는 센서부(110), 프로세서(130) 및 디스플레이(200)로 구성된다.
센서부(110)는 사용자의 위치를 감지한다. 구체적으로, 센서부(110)는 디스플레이 장치(100) 전면의 사용자의 존재 여부 또는 사용자의 위치를 감지할 수 있다. 이를 위해 센서부(110)는 디스플레이의 뒷면에 배치되는 CMOS와 CCD와 같은 이미지 센서, 디스플레이의 정면의 빛을 반사하여 이미지 센서에 결상시키는 반사 부재로 구성된다. 센서부(110)의 구체적인 구성 및 동작에 대해서는 도 5 및 6을 참조하여 후술한다.
그리고 센서부(110)는 촬상된 이미지를 기초로 사용자의 움직임 또는 거리를 감지할 수도 있다.
그리고 센서부(110)는 디스플레이 장치의 주변에 대한 조명 환경을 감지한다. 이러한 조명 환경의 감지를 위하여, 센서부(110)는 디스플레이 장치 상에 상호 이격된 위치에 배치되는 복수의 센서를 포함할 수 있다. 여기서 복수의 센서는 조도를 감지하는 조도 센서일 수 있으며, 조도뿐만 아니라, 색 온도 등도 감지 가능한 칼라 센서일 수도 있다. 한편, 상술한 조도 센서와 칼라 센서는 디스플레이(200)에서 방출되는 빛의 영향을 받지 않도록 디스플레이 장치의 프레임 안에 매립된 형태를 가질 수 있다.
센서부(110)는 디스플레이 장치(100)의 주변에 대한 조명 환경을 감지한다. 구체적으로, 센서부(110)는 이미지 센서를 통하여 촬상된 이미지에서 색 온도, 조도 등을 감지할 수 있다. 또한, 센서부(110)는 이미지 센서 이외에 조도 센서, 칼라 센서 등을 추가로 이용하여 조명 환경을 감지할 수 있다. 예를 들어, 디스플레이 장치의 상호 이격된 위치에 배치되는 복수의 조도 센서를 포함하여 조명 방향을 감지할 수 있다. 여기서 조도 센서는 조도를 감지하는 센서이고, 이 중 하나는 조도뿐만 아니라, 색 온도 등도 감지 가능한 칼라 센서일 수도 있다. 한편, 상술한 센서는 디스플레이(200)에서 방출되는 빛의 영향을 받지 않도록 디스플레이 장치의 프레임 안에 매립된 형태를 가질 수 있다.
그리고 센서부(110)는 IR 센서, 초음파 센서, RF 센서 등을 더 포함하여, 사용자의 존재 여부 또는 위치를 감지할 수도 있다.
디스플레이(200)는 영상을 표시한다. 이러한 디스플레이(200)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(200) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(200)는 터치 센서부와 결합하여 터치 스크린으로 구현될 수 있다.
디스플레이(200)는 백라이트를 포함한다. 여기서 백라이트는 복수의 광원으로 구성되는 점광원으로, 로컬 디밍을 지원한다.
여기서 백라이트를 구성하는 광원은 냉음극형광램프(Cold Cathode Fluorescent Lamp: CCFL) 또는 발광 다이오드(Light Emitting Diode: LED)로 구성될 수 있다. 이하에서는 백라이트를 발광 다이오드와 발광 다이오드 구동 회로로 구성되는 것으로 도시하고 설명하나, 구현시에는 LED 이외에 다른 구성으로 구현될 수도 있다. 그리고 백라이트를 구성하는 복수의 광원은 다양한 형태로 배치될 수 있으며 다양한 로컬 디밍 기술이 적용될 수 있다. 예를 들어, 백라이트는 복수의 광원이 매트릭스 형태로 배치되어 액정화면 전체에 균일하게 배치되는 직하형(Direct type) 백라이트일 수 있다. 이 경우, 백라이트는 Full-Array 로컬 디밍 또는 Direct 로컬 디밍으로 동작할 수 있다. 여기서 Full-Array 로컬 디밍은 LCD 화면 뒤에 전체적으로 광원이 고르게 전체적으로 배치되며, 각 광원별 휘도 조절을 수행하는 디밍 방식이다. 그리고 Direct 로컬 디밍은 Full-Array 로컬 디밍 방식과 유사하나 보다 작은 광원의 개수로 각 광원별 휘도 조절을 수행하는 디밍 방식이다.
또한, 백라이트는 거나 LCD의 테두리 부분에만 복수의 광원이 배치되는 엣지형(Edge type) 백라이트일 수 있다. 이 경우, 백라이트는 Edge-lit 로컬 디밍으로 동작할 수 있다. 여기서 Edge-lit 로컬 디밍은 복수의 광원이 패널의 가장자리에만 배치되며, 좌/우에만 배치되거나, 상/하에만 배치되거나, 좌/우/상/화에 배치되는 것도 가능하다.
프로세서(130)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 구체적으로, 디스플레이 장치(100)의 동작 모드를 결정한다. 구체적으로, 프로세서(130)는 사용자로부터 TV 표시 명령 또는 컨텐츠 표시 명령을 입력받았으면, 일반 영상을 표시하는 제1 동작 모드인 것으로 결정할 수 있다.
여기서 제1 동작 모드는 일반적인 영상을 표시하는 동작 상태이고, 후술할 제2 동작 모드는 일반적인 영상이 아니라, 디스플레이 장치(100)가 디스플레이 장치(100)의 뒷면의 배경 영상을 표시하는 동작 상태이다.
만약, 제1 동작 모드인 경우에 전원 명령을 입력받거나 동작 모드의 전환 명령을 입력받으면, 프로세서(130)는 배경 화면을 표시하는 제2 동작 모드인 것으로 결정할 수 있다. 따라서, 본 개시의 일 실시 예에 따른 사용자의 일반적인 전원 동작에 따라 제1 동작 모드와 제2 동작 모드가 전환될 수 있다.
그리고 만약 디스플레이 장치(100)가 제1 동작 모드 또는 제2 동작 모드로 동작 중인 경우에 사용자가 전원 버튼을 기설정된 시간 누른 경우, 프로세서(130)는 일반적인 전원 오프 모드로 전환할 수 있다.
그리고 전원 오프 모드 시에 전원 명령을 입력받았으면, 프로세서(130)는 전원 오프 전의 직전 동작 모드로 동작하는 것으로 결정할 수 있다.
디스플레이 장치(100)의 동작 모드가 제1 동작 모드인 것으로 결정되면, 프로세서(130)는 조작부(175)를 통하여 입력받은 제어 명령에 따른 영상이 표시되도록 디스플레이(200)를 제어할 수 있다.
이때, 프로세서(130)는 표시되는 영상의 휘도 값에 대응하는 복수의 디밍 신호를 생성하여 디스플레이(200)에 제공할 수 있다. 이때, 프로세서(130)는 센서부(110) 내의 복수의 센서에서 감지된 조도 값 중 하나의 조도 값만을 이용하여 외부 밝기 값을 고려하여 표시되는 영상의 밝기를 조절할 수 있다.
한편, 디스플레이 장치(100)의 동작 모드가 제2 동작 모드인 것으로 결정되면, 프로세서(130)는 배경 영상이 표시되도록 디스플레이(200)를 제어할 수 있다.
그리고 프로세서(130)는 디스플레이 장치(100)의 주변에 대한 조명 환경을 센싱하도록 센서부(110)를 제어하고, 센싱된 조명 환경에 따라 조명 밝기 및 조명 방향을 결정할 수 있다.
그리고 프로세서(130)는 센싱된 조명 환경(즉, 조명 방향 및 조명 밝기)에 따라 표시될 배경 영상에 대한 이미지 처리를 수행할 수 있다. 구체적으로, 프로세서(130)는 센서부(110)에서 감지된 색 온도에 기초하여 배경 영상의 색 온도를 변환하는 이미지 처리를 수행할 수 있다.
그리고 프로세서(130)는 배경 영상을 표시할 때, 오브젝트를 함께 표시하도록 디스플레이(200)를 제어할 수 있다. 구체적으로, 프로세서(130)는 기설정된 오브젝트, 배경 영상을 포함하는 화면을 생성하고, 생성된 화면을 디스플레이(200)에 제공할 수 있다. 여기서 기설정된 오브젝트는 아날로그 시계, 디지털 시계 등일 수 있으며, 사진, 그림, 어항 등 다양한 그래픽 오브젝트일 수 있다. 이러한 그래픽 오브젝트는 사진, 그림과 같은 정적 그래픽 오브젝트일 수 있으며 동작 오브젝트일 수 있다.
그리고 프로세서(130)는 감지된 조명 환경에 따라 조명 방향을 결정하고, 결정된 조명 방향에 대응되는 위치에 오브젝트에 대한 그림자 오브젝트가 표시되도록 디스플레이를 제어할 수 있다.
또한, 프로세서(130)는 감지된 조명 값 및 색 온도에 따라 그림자 오브젝트의 크기를 결정하고, 결정된 크기를 갖는 그림자 오브젝트가 표시되도록 디스플레이를 제어할 수 있다. 예를 들어, 그림자는 조명의 세기 또는 조명의 색 온도에 따라 달라질 수 있다. 따라서, 본 실시 예에 따른 디스플레이 장치(100) 역시 이러한 조명의 세기 및 색 온도를 고려하여 그림자 오브젝트를 생성하여 표시할 수 있다.
그리고 프로세서(130)는 제2 동작 모드로 동작시에 전원 절감을 위하여, 적외선 센서 등으로 디스플레이 장치(100)의 주변에 사용자가 감지된 경우에만 배경 영상을 표시할 수 있다. 즉, 프로세서(130)는 제2 동작 모드 시에 디스플레이 장치(100)의 주변에 사용자가 감지되지 않는 경우에는 배경 영상을 표시하지 않을 수 있다.
그리고 프로세서(130)는 제2 동작 모드 시에는 디스플레이(200)가 제1 동작 모드 시에 동작하는 프레임 레이트보다 낮은 프레임 레이트로 동작하도록 디스플레이(200)를 제어할 수 있다. 예를 들어, 디스플레이(200)가 제1 동작 모드 시에 240Hz로 영상을 표시하는 경우, 프로세서(130)는 제2 동작 시에는 240Hz보다 느린 120Hz난 60Hz로 동작하도록 디스플레이(200)를 제어할 수 있다.
또한, 프로세서(130)는 센서부(110)를 통하여 사용자가 감지되지 않으면 영상의 표시 동작이 수행되지 않도록 디스플레이(200)를 제어할 수 있다.
그리고 프로세서(130)는 후술할 통신부(170)에서 수신한 날씨 정보에 기초하여 대응되는 오브젝트가 표시되도록 하거나, 특정 이벤트를 수행할 수 있다. 예를 들어, 날씨 정보에 비 정보가 감지되면, 프로세서(130)는 배경 화면에 비 오브젝트가 표시되도록 디스플레이(200)를 제어하고, 빗소리가 출력되도록 오디오 출력부(155)를 제어할 수 있다.
그리고 프로세서(130)는 센서부(110)에 의해 인식되는 사용자 모션에 따라 제어 동작을 수행할 수도 있다. 즉, 디스플레이 장치(100)는 모션 제어 모드로 동작할 수 있다. 모션 제어 모드로 동작하는 경우, 프로세서(130)는 센서부(110)를 활성화시켜 사용자를 촬상하고, 사용자의 모션 변화를 추적하여 그에 대응되는 제어 동작을 수행할 수 있다.
예를 들어, 모션 제어 모드가 지원되는 디스플레이 장치(100)에서, 모션 인식 기술이 상술한 다양한 실시 예에 사용될 수 있다. 가령, 사용자가 홈 화면에 표시된 오브젝트를 선택하는 듯한 모션을 취하거나, 그 오브젝트에 대응되는 음성 명령어를 발음하는 경우, 해당 오브젝트가 선택된 것으로 판단하고, 그 오브젝트에 매칭된 제어 동작을 수행할 수 있다.
이때, 프로세서(130)는 센서부(110)에서 전달되는 이미지 중 기설정된 영역만을 이용하여 영상 분석을 수행할 수 있다. 여기서 기설정된 영역은 센서부(110)에서 전달된 이미지 중 Active한 영역을 정의한 영역으로, 디스플레이 장치의 제품 출고시에 기설정되어 있을 수 있으며, 설치 이후의 테스트 과정을 통하여 설정될 수도 있다. 이와 같은 동작에 대해서는 도 8을 참조하여 후술한다.
이상과 같이 본 실시 예에 따른 디스플레이 장치(100)는 메인 영상의 표시 중에 나타나는 빈 영역에 배경 화면을 표시함으로써 메인 영상에 더욱 몰입감을 줄 수 있다.
이상에서는 디스플레이 장치(100)의 간략한 구성만을 설명하였으나, 디스플레이 장치(100)는 도 3에 도시된 바와 같은 구성을 추가 포함할 수 있다. 디스플레이 장치(100)의 구체적인 구성에 대해서는 도 3을 참조하여 이하에서 설명한다.
도 3은 본 개시의 일 실시 예에 따른 디스플레이 장치의 구체적인 구성을 나타내는 블럭도이다.
도 3을 참조하면, 본 실시 예에 따른 디스플레이 장치(100)는 센서부(110), 프로세서(130), 방송 수신부(140), 신호 분리부(145), A/V 처리부(150), 영상 처리부(160), 오디오 출력부(155), 영상 처리부(160), 저장부(165), 통신부(170), 조작부(175), 디스플레이(200)를 포함할 수 있다.
디스플레이(200)의 구성은 도 2의 구성과 동일한바 중복 설명은 생략한다.
방송 수신부(140)는 방송국 또는 위성으로부터 유선 또는 무선으로 방송을 수신하여 복조한다. 구체적으로, 방송 수신부(140)는 안테나 또는 케이블을 통하여 전송 스트림을 수신하고 복조하여 디지털 전송 스트림 신호를 출력할 수 있다.
신호 분리부(145)는 방송 수신부(140)에서 제공된 전송 스트림 신호를 영상 신호, 오디오 신호, 부가정보 신호로 분리한다. 그리고 신호 분리부(145)는 영상 신호 및 오디오 신호를 A/V 처리부(150)로 전송한다.
A/V 처리부(150)는 방송 수신부(140) 및 저장부(165)로부터 입력된 영상 신호 및 오디오 신호에 대해 비디오 디코딩, 비디오 스케일링, 오디오 디코딩 등의 신호처리를 수행한다. 한편, 본 실시 예에서는 비디오 디코딩 및 비디오 스케일링이 A/V 처리부(150)에서 수행되는 것으로 설명하였지만, 상술한 동작은 영상 처리부(160)에서 수행될 수 있다. 그리고 A/V 처리부(150)는 영상 신호를 영상 처리부(160)로 출력하고, 오디오 신호를 오디오 출력부(155)로 출력한다.
반면, 수신된 영상 및 오디오 신호를 저장부(165)에 저장하는 경우, A/V 처리부(150)는 영상과 오디오를 압축된 형태로 저장부(165)에 출력할 수 있다.
오디오 출력부(155)는 A/V 처리부(150)에서 출력되는 오디오 신호를 사운드로 변환하여 스피커(미도시)를 통해 출력시키거나, 외부 출력단자(미도시)를 통해 연결된 외부기기로 출력한다.
영상 처리부(160)는 사용자에게 제공하기 위한 GUI(Graphic User Interface)를 생성한다. 이러한 GUI는 OSD(On Screen Display)일 수 있으며, 영상 처리부(160)는 DSP(Digital signal processor)로 구현될 수 있다.
그리고 영상 처리부(160)는 생성된 GUI를 후술할 A/V 처리부(150)에서 출력된 영상에 부가할 수 있다. 그리고 영상 처리부(160)는 GUI가 부가된 영상에 대응되는 영상 신호를 디스플레이(200)에 제공할 수 있다. 이에 따라, 디스플레이(200)는 디스플레이 장치(100)에서 제공하는 각종 정보 및 영상 신호 제공부(160)에서 전달된 영상을 표시한다.
그리고 영상 처리부(160)는 배경 이미지를 하나의 레이어(또는 메인 레이어)로 입력받고, A/V 처리부(150)에서 생성된 영상 또는 프로세서(130)에서 제공하는 오브젝트 영상을 다른 레이어(또는 서브 레이어)로 입력받고, 두 레이어 중 하나를 출력하거나 두 레이어를 합성(또는 믹싱)하여 디스플레이(200)에 제공할 수 있다.
구체적으로, 영상 처리부(160)는 메인 영상에 대응되는 제1 레이어를 생성하고, 배경 영상에 대응되는 제2 레이어를 생성하고, 제1 레이어에 빈 영역이 확인되면, 제1 레이어의 빈 영역에만 제2 레이어를 믹싱하여 제1 레이어와 제2 레이어를 믹싱할 수 있다.
이때, 영상 처리부(160)는 입력된 두 개의 레이어(즉, 메인 영상과 배경 영상) 각각에 대해서 서로 다른 영상 처리를 수행하고, 서로 다른 영상 처리된 두 개의 레이어에 대한 믹싱을 수행할 수 있다.
그리고 영상 처리부(160)는 믹싱(또는 병합)된 영상에 대해서 후속 화질 처리도 수행할 수 있다.
그리고 영상 처리부(160)는 영상 신호에 대응되는 밝기 정보 추출하고, 추출된 밝기 정보에 대응되는 하나의 디밍 신호(디스플레이 장치가 글로벌 디밍으로 동작하는 경우) 또는 복수의 디밍 신호(디스플레이 장치가 로컬 디밍으로 동작하는 경우)를 생성할 수 있다. 이때, 영상 신호 제공부(160)는 센서부(110)에서 감지된 조명 환경을 고려하여 상술한 디밍 신호를 생성할 수 있다. 이러한 디밍 신호는 PWM 신호일 수 있다.
영상 처리부(160)의 구체적인 구성 및 동작에 대해서는 도 4를 참조하여 후술한다.
저장부(165)는 영상 컨텐츠를 저장할 수 있다. 구체적으로, 저장부(165)는 A/V 처리부(150)로부터 영상과 오디오가 압축된 영상 컨텐츠를 제공받아 저장할 수 있으며, 프로세서(130)의 제어에 따라 저장된 영상 컨텐츠를 A/V 처리부(150)에 출력할 수 있다.
그리고 저장부(165)는 기촬영 또는 기생성된 배경 이미지를 저장할 수 있다. 또한, 제2 동작 모드로 동작시에 표시될 수 있는 다양한 오브젝트에 대응되는 프로그램 또는 컨텐츠를 저장할 수 있다. 그리고 저장부(165)는 시야각 개선 처리에 사용되는 복수의 룩업 테이블을 저장할 수 있다. 한편, 저장부(165)는 하드디스크, 비휘발성 메모리, 휘발성 메모리 등으로 구현될 수 있다.
조작부(175)는 터치 스크린, 터치패드, 키 버튼, 키패드 등으로 구현되어, 디스플레이 장치(100)의 사용자 조작을 제공한다. 본 실시 예에서는 디스플레이 장치(100)에 구비된 조작부(175)를 통하여 제어 명령을 입력받는 예를 설명하였지만, 조작부(175)는 외부 제어 장치(예를 들어, 리모컨)로부터 사용자 조작을 입력받을 수도 있다.
통신부(170)는 다양한 유형의 통신방식에 따라 다양한 유형의 외부 기기와 통신을 수행하는 구성이다. 통신부(1700)는 와이파이칩(331), 블루투스 칩(332)을 포함할 수 있다. 프로세서(130)는 통신부(170)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다. 구체적으로, 통신부(170)는 디스플레이 장치(100)를 제어할 수 있는 제어 단말장치(예를 들어, 리모컨)로부터 제어 명령을 수신할 수 있다.
통신부(170)는 외부 서버와의 통신을 통하여 날씨 정보를 취득할 수 있다.
그 밖에, 도 2에 도시하지는 않았으나, 실시 예에 따라서는, 통신부(170)는 USB 커넥터가 연결될 수 있는 USB 포트나, 헤드셋, 마우스, LAN 등과 같은 다양한 외부 단자와 연결하기 위한 다양한 외부 입력 포트, DMB(Digital Multimedia Broadcasting) 신호를 수신하여 처리하는 DMB 칩 등을 더 포함할 수 있음은 물론이다.
프로세서(130)는 디스플레이 장치(100)의 전반적인 동작을 제어한다. 구체적으로, 프로세서(130)는 제1 동작 모드 시에는 조작부(175)를 통하여 입력받은 제어 명령에 따른 영상이 표시되도록 영상 처리부(160), 디스플레이(200)를 제어할 수 있다.
한편, 조작부(175)를 통하여 메인 영상의 크기 및 위치 중 적어도 하나의 변경 명령을 입력받으면, 프로세서(130)는 입력된 변경 명령에 기초하여 표시되는 메인 영상의 위치 및 크기 중 적어도 하나를 가변하여 표시하도록 디스플레이(200)를 제어할 수 있다. 여기서 변경 명령은 비율 변경도 포함할 수 있다.
프로세서(130)는 ROM(131), RAM(132), GPU(Graphic Processing Unit)(133), CPU(134) 및 버스를 포함할 수 있다. ROM(131), RAM(132), GPU(Graphic Processing Unit)(133), CPU(134) 등은 버스를 통해 서로 연결될 수 있다.
CPU(134)는 저장부(175)에 액세스하여, 저장부(175)에 저장된 운영체제(O/S)를 이용하여 부팅을 수행한다. 그리고 CPU(134)는 저장부(175)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다. 이러한 CPU(134)의 동작은 도 2의 프로세서(130)의 동작 동일한바 중복 설명은 생략한다.
ROM(131)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, CPU(134)는 ROM(131)에 저장된 명령어에 따라 저장부(165)에 저장된 O/S를 RAM(132)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, CPU(134)는 저장부(165)에 저장된 각종 프로그램을 RAM(132)에 복사하고, RAM(132)에 복사된 프로그램을 실행시켜 각종 동작을 수행한다.
GPU(133)는 디스플레이 장치(100)의 부팅이 완료되면, 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성할 수 있다. 구체적으로, GPU(133)는 디스플레이 장치(100)가 제2 동작 모드로 동작하는 경우, 배경 영상에 기설정된 오브젝트를 포함하는 화면을 생성할 수 있다. 또한, GPU(133)는 표시된 오브젝트에 대응되는 그림자 오브젝트 및/또는 디스플레이 장치(100)의 프레임에 대응되는 그림자 오브젝트를 포함하는 화면을 생성할 수 있다.
이러한, GPU 구성은 영상 처리부(160)와 같은 별도의 구성으로 구성될 수 있으며, 프로세서(130) 내의 CPU와 결합된 SoC와 같은 구성으로 구현될 수도 있다.
이와 같이 본 실시 예에 따른 디스플레이 장치(100)는 정면 방향으로 일부 영역만 노출되는 센서부(110)를 이용하여 사용자 감지가 가능한바, 미관상으로 좋지 않은 렌즈 노출을 방지할 수 있다. 또한, 그에 따라 디스플레이 장치의 베젤을 더욱 작게 만들 수 있게 된다.
도 4는 도 2의 영상 처리부의 구체적인 구성을 나타낸 도면이다.
도 4를 참조하면, 영상 처리부(160)는 처리부(161), 믹싱부(167), 후반 화질 처리부(168)로 구성될 수 있다.
처리부(161)는 복수의 비디오 신호에 대한 이미지 처리를 수행한다. 구체적으로, 처리부(161)는 복수의 레이어에 대한 영상 처리를 동시에 수행할 수 있다. 이러한 처리부(161)는 디코더(162), 스케일러(163), 화질 처리부(164), 윈도우(165), 그래픽 버퍼(166)로 구성될 수 있다.
먼저, 처리부(161)는 입력된 영상의 속성이 비디오 신호인지 그래픽 신호인지를 구분하고, 입력된 영상의 속성이 비디오 신호이면, 디코더(162), 스케일러(163), 화질 처리부(164)를 이용하여 영상을 처리한다. 예를 들어, 비디오 속성의 영상이 입력부(210)를 통하여 처리부(161)에 입력되면, 디코더(162)는 입력된 비디오 영상을 디코딩하고, 스케일러(162)는 디코딩된 비디오 영상을 스케일링하고, 화질 처리부(164)는 스케일링된 비디오 영상에 대한 화질 처리를 수행하여 믹싱부(167)로 출력한다. 여기서 비디오 속성의 영상은 외부 소스로부터 입력되는 영상 또는 디스플레이 장치에 기저장된 비디오 컨텐츠의 영상일 수 있다.
만약, 입력된 영상의 속성이 그래픽 신호이면 윈도우(165), 그래픽 버퍼(166)로 영상을 처리한다. 예를 들어, 처리부(161)는 그래픽 속성의 오브젝트 영상(예를 들어, 게임 영상, 배경 이미지 또는 오브젝트)이 입력부(210)를 통하여 입력되면, 윈도우(165)를 통하여 그래픽 신호를 그래픽 버퍼(166)에 레더링하고, 그래픽 버퍼(166)에 생성된 영상을 믹싱부(167)로 출력할 수 있다.
이와 같이 처리부(161)는 복수의 영상을 처리할 수 있는바, 복수의 레이어를 처리 가능하다. 한편, 이상에서는 하나의 비디오 신호, 하나의 그래픽 신호를 합한 두 개의 신호만 처리하는 것으로 설명하였지만, 구현시에는 두 개의 비디오 신호 각각을 복수의 레이어를 이용하여 처리하는 것도 가능하고, 두 개의 그래픽 신호 각각을 복수의 레이어를 이용하여 처리하는 것도 가능하다. 또한, 두 개의 레이어가 아닌 세개 이상의 레이어를 이용하여 처리하는 것도 가능하다.
한편, 화질 처리부(164)는 비디오 신호뿐만 아니라, 그래픽 신호에 따른 영상에 대해서도 다양한 화질 개선을 위한 영상 처리를 수행할 수 있다. 여기서 영상 처리는 시야각 개선 처리, 화이트 밸런스 조정, 노이즈 제거 등일 수 있다.
믹싱부(167)는 처리부(161)에서 전달된 두 개의 영상을 하나의 믹싱할 수 있다.
그리고 후반 화질 처리부(168)는 믹싱된 영상에 대해서 화질 처리(W/B)를 수행하고, 화질 처리된 영상을 디스플레이(200)에 전송할 수 있다.
도 5는 본 개시의 일 실시 예에 따른 반사 부재의 구체적인 배치 형태를 설명하기 위한 도면이다.
도 5를 참조하면, 센서부(110)는 디스플레이 장치(100)의 정면에서 보왔을 때, 하단에 배치된다. 구체적으로, 디스플레이 장치(100)의 하단 방향으로 일부 노출되는 형태로 배치된다.
이러한 센서부(110)는 이미지 센서(111)와 반사 부재(112)로 구성된다.
이미지 센서(111)는 CCD, CMOS 등과 같은 촬상 소자로 렌즈에 결상된 이미지를 촬상하여 이미지를 생성하거나, 동영상을 생성할 수 있다. 이러한 이미지 센서(111)는 디스플레이 장치(100)를 기준으로 뒷면에 바닥을 바라보는 방향으로 배치된다.
그리고 반사 부재(112)는 디스플레이 장치의 정면에서 입사되는 빛을 반사하여 이미지 센서에 결상시킨다. 이러한 반사 부재(112)는 도파관으로 구성되거나, 반사판과 가이드 부재로 구성될 수 있다.
여기서 도파관(waveguide)이란 축을 따라 전기 에너지나 신호를 전송하기 위한 전송로로, 본 개시에서는 광 도파관(light pipe 또는 optical waveguide)이 이용될 수 있다. 광 도파관이란 광신호를 전송하는 회로 또는 선로로, 광학 섬유 또는 박막 도파관일 수 있다.
만약, 반사 부재(112)가 광 도파관으로 구현되는 경우, 도파관의 도관의 단면은 이미지 센서에 위치하고, 도관의 타 단면은 디스플레이 장치의 정면 방향으로 배치될 수 있다. 그리고 이러한 광 도파관의 단면은 이미지 센서의 렌즈의 단면보다 작기 때문에 디스플레이 장치(100)의 정면에서의 노출되는 크기는 기존의 이미지 센서의 렌즈보다 작게 된다.
또한, 광 도파관의 경우 투명한 재질로 구성되는바, 작은 크기로 노출되는 광 도파관의 단면을 사용자가 인지하기 어렵다.
이와 같은 구성을 갖는 경우, 디스플레이 장치(100)의 정면의 빛은 광 도파관의 도관을 통하여 이미지 센서(111)에 결상된다. 여기서 이미지 센서(111)에서 결상된 광은 영상 이미지로 촬상되고, 촬상된 이미지는 프로세서(130)로 전달된다.
한편, 본 개시의 이미지 센서(110)는 디스플레이 장치(100)의 정면을 직접 촬상하는 것이 아니라, 반사 부재(112)를 통하여 촬상하는 것인바 형성되는 이미지는 정면을 촬상했을 때와 좌/우 방향이 반대가 될 수 있다. 따라서, 구현시에는 종래의 이미지 프로세싱을 그대로 이용하는 경우에는 이미지 센서(110)에서 촬상된 이미지를 좌/우 변환하여 이용할 수도 있다.
그리고 본 개시의 이미지 센서(110)는 반사 부재(112)를 통하여 촬상하는 것인바, 촬상되는 이미지에 대한 반사 부재(112)에 의하여 비네팅(vignetting)이 발생할 수 있다. 한편, 비네팅이 있는 이미지를 그대로 이용하여 사용자 제스처 등을 감지하는 경우에는 이미지 프로세싱에 많은 리소스가 소요되는바, 본 개시에서는 비네팅이 발생하는 영역은 선결적으로 제외하고, 이미지 프로세싱을 수행할 수 있다. 이에 대해서는 도 8을 참조하여 자세히 후술한다.
한편, 도 5를 도시함에 있어서, 센서부(110)가 디스플레이 장치(100)에서 비교적 큰 크기를 갖는 것으로 도시하였지만, 이는 설명을 용이하게 하기 위한 것이며, 30인치 이상의 디스플레이 장치에서 센서부의 폭 및 크기는 도시된 것도 훨씬 작은 비율을 갖기 때문에 사용자가 센서부를 인지하기 어렵다.
또한, 도 5b에서도 디스플레이 장치(100)의 뒷면으로 다소 돌출된 형태를 갖는 것으로 도시하였지만, 이는 설명을 용이하게 하기 위한 것이다. 실질적으로는 디스플레이 장치(100)를 벽에 고정하기 위한 브라켓 또는 스캔딩하기 위한 스탠딩 부재와 결합하는 영역보다는 덜 돌출될 수 있다.
도 6은 반사판과 가이드 부재로 반사 부재가 구현되는 경우를 도시한 도면이다.
도 6을 참조하면, 이미지 센서(111)는 디스플레이의 뒷면에 배치되며, 디스플레이의 하단 방향으로 배치된다.
반사판은 빛을 반사하는 부재로, 예를 들어 거울 등일 수 있으며, 도시된 바와 같이 45도 각도로 디스플레이의 정면 빛을 상부의 이미지 센서(111)로 반사할 수 있다. 도시된 예에서는 반사판의 예로 거울만 예를 들었지만, 빛을 반사할 수 있다면 거울 이외에 다른 구성이 이용될 수도 있다.
가이드 부재는 반사판이 45도 각도로 빛을 반사하도록 반사판과 이미지 센서 구성을 고정할 수 있다. 이러한 반사판은 이미지 센서(111)의 비율에 대응될 수 있다. 예를 들어, 이미지 센서의 가로세로 비율이 4:3인 경우, 반사판 역시 4:3의 배율을 가짐으로써, 반사 부재에 의한 비네팅 영향을 최소화할 수 있다.
한편, 도시된 예에서는 하나의 반사판만을 이용하는 예를 도시하고 설명하였지만, 구현시에는 복수의 반사판으로 반사 부재를 구현할 수도 있다. 예를 들어, 이미지 센서는 디스플레이의 반대 방향으로 배치되도록 하고, 하나의 반사판이 디스플레이 정면의 빛을 디스플레이의 상부로 반사하고, 두 번째 반사판이 디스플레이의 상부 방향으로 반사된 빛을 디스플레이의 뒷면에 부착된 이미지 센서로 반사할 수도 있다.
한편, 이상에서는 디스플레이 장치의 하단 영역에 센서부(110)가 배치되는 것으로 설명하였지만, 센서부의 위치는 이에 한정되지 않는다. 이에 대해서는 도 7을 참조하여 이하에서 설명한다.
도 7은 반사 부재가 위치 가능한 다양한 배치 예를 도시한 도면이다.
도 7을 참조하면, 반사 부재(112)는 디스플레이 장치의 상부(a), 하부(c), 좌측(d), 우측(b)등의 위치에 배치될 수 있다.
다만, 센서부(110)를 통하여 촬상된 이미지를 이용하여 제스처 인식 등을 수행할 것인바, 이를 위해서는 디스플레이 장치의 가운데 영역에 배치되는 것이 바람직하다. 예를 들어, 디스플레이 장치의 상부(a) 또는 하부(c)에 배치되는 것이 바람직하다.
한편, 디스플레이 장치(100)의 하부 영역에 반사 부재가 배치되는 경우, 디스플레이에 의하여 음영이 질 수 있는바 디스플레이 장치의 하부(c)에 배치되는 것이 보다 유리한 측면이 있다.
한편, 도시된 예에서는 하나의 센서부만 배치되는 것으로 도시하고 설명하였지만, 구현시에는 복수의 위치에 복수의 센서부가 배치될 수도 있다. 이 경우, 복수의 센서부는 디스플레이 장치(100)의 서로 다른 변에 배치될 수도 있으며, 한 변에 같이 배치될 수도 있다.
한편, 본 개시에 따른 센서부(110)는 이미지 센서가 직접적으로 외부 환경에 노출되는 것이 아니라, 반사 부재를 통하여 빛을 입력받는다. 따라서, 반사 부재의 영향으로 촬상되는 이미지의 일부는 디스플레이 장치의 정면에 대응되는 이미지가 아닐 수 있다. 이에 대해서는 도 8을 참조하여 이하에서 설명한다.
도 8은 반사 부재를 통하여 취득한 영상의 처리 방법을 설명하는 도면이다.
도 8을 참조하면, 이미지 센서에서 촬상된 이미지(800)는 디스플레이 장치의 정면에 대응되는 정면 영역(810)과 불필요한 영역을 포함한다.
따라서, 프로세서(130)는 이미지 센서에서 생성한 이미지를 그대로 이용하는 경우에는 많은 리소스가 요구된다. 이러한 점에서, 본 개시에서는 촬상된 이미지에서 기설정된 영역(즉, 액티브 영역)만을 이용하여 제스처를 감지할 수 있다.
한편, 이러한 기설정된 영역은 제품 출시 과정에서 공장에서 실험을 통하여 측정한 값이 이용될 수 있으며, 제품 설치 이후에 사용자의 테스트 동작을 통하여 설정될 수도 있다.
구체적으로, 공장에서 지그를 이용하여 테스트 이미지를 센싱부가 촬상하도록 하고, 테스트 이미지를 촬상된 촬상 이미지를 분석하여 기설정된 영역을 설정할 수 있다.
한편, 제품 설치 이후에는 사용자가 기설정된 패턴이 그려진 용지(예를 들어, 검정 종이 또는 검정 사각형이 그려진 힌색 종이)를 반사 부재의 노출 영역에 위치하도록 지시는 메시지를 디스플레이하고, 해당 패턴이 보이는 부분을 추적한다. 그리고 사용자에게 패턴이 있는 용지를 반사 부재의 노출 영역에 더욱 가깝게 이동하도록 하거나, 전/후, 좌우, 상하로 움직이도록 요청하고, 해당 패턴이 감지된 영역을 기설정된 영역으로 설정할 수 있다.
한편, 이상에서는 패턴을 이용하여 기설정된 영역을 설정하는 방식을 이용하였지만, 다른 방식으로 기설정된 영역을 확인할 수도 있다.
그리고 도 8을 도시함에 있어서, 불필요한 영역이 이미지의 상단 또는 하단에만 배치되는 것으로 도시하였지만, 구현시에 불필요한 영역은 이미지의 좌측 또는 후측 영역에도 있을 수 있다.
도 9는 반사 부재의 조립 공차에 따른 다양한 활성 영역의 예를 설명하기 위한 도면이다.
도 9를 참조하면, 이미지 센서와 반사 부재(911)가 정확한 위치에 배치되면, 도시된 이미지와 같이 액티브 영역(910)은 촬상된 이미지의 중앙에 위치하게 된다.
그러나 조립 공차 등의 이유로 이미지 센서와 반사 부재(921, 931)가 틀어지게 배치되면, 도시된 이미지와 같이 액티브 영역(920, 930)과 같이 상부로 쏠리거나, 하부로 쏠릴 수 있다.
이와 같이 액티브 영역은 항시 일정하지 않고, 가변될 수 있다는 점에서, 앞서 설명한 바와 같은 방식을 통하여 액티브 영역을 설정하는 과정을 거칠 수 있다.
한편, 도 8에서는 특정 패턴을 촬상하여 액티브 영역을 설정하는 것으로 도시하고 설명하였지만, 구현시에는 사용자를 촬상하여 액티브 영역을 설정할 수 있다. 이에 대해서는 도 10을 참조하여 이하에서 설명한다.
도 10은 사용자의 위치에 기초하여 액티브 영역을 설정하는 방법을 설명하기 위한 도면이다.
도 10을 참조하면, 디스플레이 장치(100)는 사용자에게 디스플레이 장치의 정면에서 좌/우로 이동하도록 하는 메시지를 표시할 수 있다.
이에 따라, 사용자가 좌측에서 우측으로 이동하게 되면, 센서부(110)는 아래와 같은 복수의 이미지(1010, 1020, 1030)를 촬상할 수 있으며, 프로세서(130)는 촬상된 복수의 이미지에서 사용자가 촬상된 영역만을 설정하여 액티브 영역을 설정할 수도 있다.
이와 같은 방식으로 액티브 영역일 설정되면 프로세서(130)는 입력된 이미지에서 기설정된 영역(즉, 액티브 영역)만으로 사용자 제스처 등을 감지할 수 있다. 이와 같이 불필요한 영역은 이용하지 않게 되는바 낮은 리소스로도 사용자 제스처를 감지할 수 있게 된다.
한편, 이상에서는 액티브 영역이 설정되면 프로세서(130)가 이미지의 액티브 영역만을 이용하는 것으로 설명하였지만, 구현시에는 프로세서(130)는 액티브 영역을 센서부(110)에 전달하고, 센서부(110)는 액티브 영역 내의 센싱값만을 이용하여 촬상 이미지를 생성할 수 있다. 이 경우, 프로세서(130)는 센서부로부터 전달되는 이미지를 그대로 이용하여 제스처를 감지할 수 있다.
한편, 이상에서는 패턴의 노출 또는 사용자의 이동을 통하여 액티브 영역을 검출하는 것으로 설명하였지만, 구현시에는 촬상된 이미지에 대한 이미지 프로세싱만으로 색감이 존재하는 영역만으로 센싱 영역으로 설정할 수도 있다.
도 11은 본 개시의 일 실시 예에 따른 디스플레이 방법을 설명하기 위한 흐름도이다.
도 11을 참조하면, 디스플레이를 이용하여 영상을 표시한다. 이때, 표시되는 영상은 일반적인 컨텐츠에 대응되는 영상일 수 있으며, 도 1과 관련하여 설명한 배경 영상일 수 있다.
이러한 영상의 표시 과정 중에 이미지 센서를 이용하여 촬상 이미지를 생성한다(S1110).
생성된 촬상 이미지에서 액티브 영역을 검출하고(S1120), 검출된 액티브 영역만으로 디스플레이 장치의 동작을 제어할 수 있다(S1130). 구체적으로, 검출된 액티브 영역에서 사용자 제스처를 확인하고, 확인된 사용자 제스처에 대응되는 이벤트를 수행할 수 있다. 사용자의 이벤트가 영상 표시와 관련된 것이면, 예를 들어, 채널 변경이면, 변경된 채널의 영상을 표시할 수 있다.
또한, 예를 들어, 배경 영상을 표시 중에 이미지 센서를 통하여 촬상된 이미지에서 사용자가 감지되면, 배경 영상을 지속적으로 표시하는 동작을 수행할 수 있다. 만약, 배경 영상의 표시 중에 사용자가 일정 시간 이상 감지되지 않으면, 배경 영상의 표시 동작을 중단할 수도 있다.
또는 일반 영상의 표시 중에 사용자의 위치가 감지되고, 감지된 사용자의 위치가 정면이 아닌 측면이면, 표시되는 영상에 대한 시야각 개선을 수행하고, 시야각이 개선된 영상을 표시할 수도 있다.
이상과 같이 본 실시 예에 따른 디스플레이 방법은 정면 방향으로 일부 영역만 노출되는 센서부(110)를 이용하여 사용자 감지가 가능한바, 미관상으로 좋지 않은 렌즈 노출을 방지할 수 있다. 또한, 그에 따라 디스플레이 장치의 베젤을 더욱 작게 만들 수 있게 된다. 도 11과 같은 디스플레이 방법은 도 2 또는 도 3의 구성을 가지는 디스플레이 장치 상에서 실행될 수 있으며, 그 밖의 구성을 가지는 디스플레이 장치 상에서도 실행될 수 있다.
한편, 상술한 실시 예에 따른 디스플레이 방법은 프로그램으로 구현되어 디스플레이 장치에 제공될 수 있다. 특히, 디스플레이 방법을 포함하는 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안 될 것이다.
100: 디스플레이 장치 110: 센서부
120: 프로세서 200: 디스플레이
140: 방송 수신부 145: 신호 분리부
150: A/V 처리부 155: 오디오 출력부
160: 영상 처리부 165: 저장부
170: 통신부 175: 조작부

Claims (15)

  1. 디스플레이 장치에 있어서,
    영상을 표시하는 디스플레이;
    상기 디스플레이의 뒷면에 배치되는 이미지 센서;
    상기 디스플레이 장치의 정면에서 입사되는 빛을 반사하여 상기 이미지 센서에 결상시키는 반사 부재; 및
    상기 이미지 센서에서 촬상된 이미지에 기초하여 상기 디스플레이 장치의 동작을 제어하는 프로세서;를 포함하는 디스플레이 장치.
  2. 제1항에 있어서,
    상기 반사 부재는,
    도관의 단면은 상기 이미지 센서에 위치하고, 상기 도관의 타 단면은 상기 디스플레이 장치의 정면 방향으로 배치되는 도파관인 디스플레이 장치.
  3. 제2항에 있어서,
    상기 도파관은,
    투명한 재질인 디스플레이 장치.
  4. 제1항에 있어서,
    상기 반사 부재는,
    빛을 반사하는 반사판; 및
    디스플레이 장치의 정면에서 입사되는 빛이 상기 이미지 센서에 결상되도록 상기 반사판의 위치를 고정하는 가이드 부재;를 포함하는 디스플레이 장치.
  5. 제1항에 있어서,
    상기 이미지 센서는,
    상기 디스플레이의 뒷면에서 상기 디스플레이의 하부 또는 상부 방향으로 배치되며,
    상기 반사 부재는,
    상기 이미지 센서로부터 상기 디스플레이의 하부 또는 상부 방향으로 배치되어, 상기 디스플레이 장치의 정면에서 상기 반사 부재의 일부 영역만이 노출되는 형태로 배치되는 디스플레이 장치.
  6. 제1항에 있어서,
    상기 프로세서는,
    상기 이미지 센서에서 촬상된 이미지 중 기설정된 영역만을 이용하여 상기 디스플레이 장치의 동작을 제어하는 디스플레이 장치.
  7. 제6항에 있어서,
    상기 프로세서는,
    상기 이미지 센서에서 촬상된 이미지 중 상기 디스플레이 장치의 정면에 대응되는 영역을 확인하고, 상기 확인된 영역을 기설정된 영역으로 설정하는 디스플레이 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 촬상된 이미지에 기초하여 사용자 제스처를 확인하고, 상기 확인된 사용자 제스처에 대응한 이벤트를 수행하는 디스플레이 장치.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 디스플레이의 뒷면의 배경에 대응되는 배경 영상이 표시되도록 상기 디스플레이를 제어하고,
    상기 프로세서는,
    상기 촬상된 이미지에서 주변 환경 정보를 확인하고, 상기 확인된 주변 환경 정보에 기초하여 그림자 오브젝트가 상기 배경 영상과 함께 표시되도록 상기 디스플레이를 제어하는 디스플레이 장치.
  10. 디스플레이 방법에 있어서,
    디스플레이를 이용하여 영상을 표시하는 단계;
    상기 디스플레이의 뒷면에 배치되는 이미지 센서와 디스플레이 장치의 정면에서 입사되는 빛을 반사하여 상기 이미지 센서에 결상시키는 반사 부재를 이용하여 촬상 이미지를 생성하는 단계; 및
    상기 생성된 촬상 이미지를 이용하여 상기 디스플레이의 동작을 제어하는 단계;를 포함하는 디스플레이 방법.
  11. 제10항에 있어서,
    상기 제어하는 단계는,
    상기 이미지 센서에서 촬상된 이미지 중 기설정된 영역만을 이용하여 상기 디스플레이 장치의 동작을 제어하는 디스플레이 방법.
  12. 제11항에 있어서,
    상기 이미지 센서에서 촬상된 이미지 중 상기 디스플레이 장치의 정면에 대응되는 영역을 확인하는 단계; 및
    상기 확인된 영역을 기설정된 영역으로 설정하는 단계;를 더 포함하는 디스플레이 방법.
  13. 제10항에 있어서,
    상기 제어하는 단계는,
    상기 촬상된 이미지에 기초하여 사용자 제스처를 확인하고, 상기 확인된 사용자 제스처에 대응한 이벤트를 수행하는 디스플레이 방법.
  14. 제10항에 있어서,
    상기 표시하는 단계는,
    상기 디스플레이의 뒷면의 배경에 대응되는 배경 영상을 표시하는 디스플레이 방법.
  15. 제14항에 있어서,
    상기 촬상된 이미지에서 주변 환경 정보를 확인하는 단계; 및
    상기 확인된 주변 환경 정보에 기초하여 그림자 오브젝트를 표시하는 단계;를 더 포함하는 디스플레이 방법.
KR1020160178439A 2016-12-23 2016-12-23 디스플레이 장치 및 디스플레이 방법 KR20180074400A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020160178439A KR20180074400A (ko) 2016-12-23 2016-12-23 디스플레이 장치 및 디스플레이 방법
PCT/KR2017/013051 WO2018117433A1 (en) 2016-12-23 2017-11-16 Display apparatus and displaying method
EP17884735.6A EP3494459A4 (en) 2016-12-23 2017-11-16 DISPLAY DEVICE AND DISPLAY METHOD
CN201711408023.6A CN108243353A (zh) 2016-12-23 2017-12-22 显示设备和显示方法
US15/852,691 US20180184040A1 (en) 2016-12-23 2017-12-22 Display apparatus and displaying method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160178439A KR20180074400A (ko) 2016-12-23 2016-12-23 디스플레이 장치 및 디스플레이 방법

Publications (1)

Publication Number Publication Date
KR20180074400A true KR20180074400A (ko) 2018-07-03

Family

ID=62626853

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160178439A KR20180074400A (ko) 2016-12-23 2016-12-23 디스플레이 장치 및 디스플레이 방법

Country Status (5)

Country Link
US (1) US20180184040A1 (ko)
EP (1) EP3494459A4 (ko)
KR (1) KR20180074400A (ko)
CN (1) CN108243353A (ko)
WO (1) WO2018117433A1 (ko)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP5071723B2 (ja) * 2008-03-18 2012-11-14 ソニー株式会社 ディスプレイ装置
KR20120046973A (ko) * 2010-11-03 2012-05-11 삼성전자주식회사 움직임 정보 생성 방법 및 장치
KR101810170B1 (ko) * 2011-10-10 2017-12-20 삼성전자 주식회사 사용자 위치 기반 이미지 표시 방법 및 장치
JP5689085B2 (ja) * 2012-02-21 2015-03-25 豊田鉄工株式会社 車両用操作ペダル装置
US9664555B2 (en) * 2012-12-18 2017-05-30 Apple Inc. Electronic devices with light sensors
KR102041629B1 (ko) * 2013-02-28 2019-11-06 삼성전기주식회사 적층 세라믹 전자부품 및 이의 제조방법
KR20150133898A (ko) * 2014-05-20 2015-12-01 삼성디스플레이 주식회사 창문 겸용 표시장치
KR102209513B1 (ko) * 2014-07-01 2021-01-29 엘지전자 주식회사 근접조도센서 모듈 및 이를 이용한 이동 단말기
US9784403B2 (en) * 2014-07-02 2017-10-10 Coorstek Kk Heat insulator
KR20160014915A (ko) * 2014-07-30 2016-02-12 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR20160022163A (ko) * 2014-08-19 2016-02-29 삼성전자주식회사 Rf센서를 가진 디스플레이장치 및 디스플레이장치의 사용자 감지방법

Also Published As

Publication number Publication date
WO2018117433A1 (en) 2018-06-28
EP3494459A4 (en) 2020-01-01
EP3494459A1 (en) 2019-06-12
CN108243353A (zh) 2018-07-03
US20180184040A1 (en) 2018-06-28

Similar Documents

Publication Publication Date Title
US10867585B2 (en) Electronic apparatus and method for displaying a content screen on the electronic apparatus thereof
CN106251800B (zh) 用于增强可见度的显示系统及其方法
US10579206B2 (en) Display apparatus and method for controlling the display apparatus
JP6811321B2 (ja) ディスプレイ装置及びその制御方法
US6866388B2 (en) Projection device
US10685608B2 (en) Display device and displaying method
US20120194733A1 (en) Adaptive video capture decode system
CN101406047A (zh) 基于投影仪的周边照明系统
US20180174555A1 (en) Display apparatus and display method thereof
JP5185586B2 (ja) 電子黒板
US10453374B2 (en) Display apparatus and method for displaying
KR102418607B1 (ko) 디스플레이 장치 및 디스플레이 방법
US20100110024A1 (en) Method for providing user interface using dmd and dlp display apparatus using the method
US11363193B2 (en) Electronic apparatus and image correction method thereof
KR102369141B1 (ko) 디스플레이 장치 및 디스플레이 방법
KR20180071619A (ko) 디스플레이 장치 및 디스플레이 방법
KR20180074400A (ko) 디스플레이 장치 및 디스플레이 방법
US8610970B1 (en) Liquid crystal display (LCD) scanners
KR102538479B1 (ko) 디스플레이 장치 및 디스플레이 방법
KR20180076154A (ko) 디스플레이 장치 및 이의 제어 방법
JP2015118312A (ja) コンテンツ出力システム、コンテンツ出力装置、コンテンツ出力方法及びプログラム
KR102651417B1 (ko) 디스플레이 장치 및 이의 제어 방법
KR20180128194A (ko) 전자 장치 및 그 제어 방법
KR20190019580A (ko) 디스플레이 장치 및 디스플레이 방법
US8421785B2 (en) Electrical device capable of adjusting display image based on a rotation of a web camera and method thereof