KR102004991B1 - 이미지 처리 방법 및 그에 따른 디스플레이 장치 - Google Patents

이미지 처리 방법 및 그에 따른 디스플레이 장치 Download PDF

Info

Publication number
KR102004991B1
KR102004991B1 KR1020170178540A KR20170178540A KR102004991B1 KR 102004991 B1 KR102004991 B1 KR 102004991B1 KR 1020170178540 A KR1020170178540 A KR 1020170178540A KR 20170178540 A KR20170178540 A KR 20170178540A KR 102004991 B1 KR102004991 B1 KR 102004991B1
Authority
KR
South Korea
Prior art keywords
image
distance
shadow effect
display device
information
Prior art date
Application number
KR1020170178540A
Other languages
English (en)
Other versions
KR20190076609A (ko
Inventor
이윤호
유재영
양관식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020170178540A priority Critical patent/KR102004991B1/ko
Priority to US16/227,784 priority patent/US10748260B2/en
Priority to EP18214831.2A priority patent/EP3503083B1/en
Priority to EP23183679.2A priority patent/EP4242975A3/en
Priority to PCT/KR2018/016440 priority patent/WO2019125036A1/en
Priority to CN201880082596.0A priority patent/CN111567054B/zh
Publication of KR20190076609A publication Critical patent/KR20190076609A/ko
Application granted granted Critical
Publication of KR102004991B1 publication Critical patent/KR102004991B1/ko
Priority to US16/944,635 priority patent/US11107203B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0232Special driving of display border areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0686Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/16Digital picture frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시의 실시예에 따른 디스플레이 장치는 디스플레이; 외부 장치와 통신을 수행하는 통신부; 하나 이상의 인스트럭션을 포함하는 메모리; 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 수행하는 프로세서를 적어도 하나 포함하는 제어부를 포함한다. 상기 프로세서는 상기 외부 장치로부터 이미지를 수신하고, 상기 디스플레이 장치의 전면과 상기 벽면 사이의 거리인 제1 거리를 획득하고, 상기 이미지를 상기 디스플레이에 출력할 때, 상기 제1 거리에 근거하여 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 제공하도록 제어한다.

Description

이미지 처리 방법 및 그에 따른 디스플레이 장치 {IMAGE PROCESSING METHOD AND APPARATUS TEREOF}
본 개시의 실시예는 이미지 처리 방법 및 그에 따른 디스플레이 장치에 대한 것이다.
구체적으로, 본 개시의 실시예는 소정 이미지에 소정 효과를 적용하는 이미지 처리를 하는 이미지 처리 방법 및 그에 따른 디스플레이 장치에 대한 것이다.
또한, 본 개시의 실시예는 디스플레이 장치에서 출력하는 이미지의 원근감 또는 깊이감을 조절하기 위한 이미지 처리 방법 및 그에 따른 디스플레이 장치에 대한 것이다.
디스플레이의 보급 및 기술 개발로 인하여, 다양한 형태 및 다양한 기능을 갖는 디스플레이 장치들이 개발되고 있다.
그에 따라서, 디스플레이 장치를 활용하여 소비자의 다양한 욕구 또는 의도에 부합되는 기능을 실현할 수 있다.
예를 들어, 투명 디스플레이 패널을 포함하는 디스플레이 장치는 소정 컨텐츠가 재생되는 경우 이외에는 투명 디스플레이 패널을 투명한 상태로 유지할 수 있다. 이 경우, 사용자는 디스플레이 장치에 의해서 가려지게 되는 디스플레이 장치 후면의 풍경 또는 벽면을 볼 수 있다. 이와 같이, 디스플레이 장치에 의해서 가려지게 되는 디스플레이 장치 후면의 풍경 또는 벽면을 보기를 원하는 사용자가 있을 수 있다.
또한, 투명 디스플레이 패널이 아닌 불투명한 디스플레이 패널을 이용하는 일반 디스플레이 장치를 이용하여, 전술한 사용자의 욕구 또는 의도에 부합되는 기능을 개발할 필요가 있다.
또한, 최근에는 디스플레이 장치의 외부 형태가 액자(picture frame) 형태를 갖는 제품들이 출시되고 있다. 이러한 액자 형태를 갖는 디스플레이 장치는 사용자가 소정의 컨텐츠를 시청하고 있는 경우가 아니면, 소정의 화면, 예를 들어, 명화 또는 사진을 포함하는 화면을 출력할 수 있다. 이 경우, 사용자는 디스플레이 장치를 명화 액자 또는 대형 사진 액자처럼 이용 및 인식할 수 있다. 따라서, 사용자가 액자기능을 구현하는 디스플레이 장치를 원하는 경우, 보다 사용자의 의도에 부합하는 디스플레이 장치 및 디스플레이 장치에 적용되는 소정 기능을 개발을 할 필요가 있다.
전술한 바와 같이, 다양한 사용자의 욕구 및 의도에 부합하는 디스플레이 장치를 제공할 필요가 있다.
본 발명의 실시예는 출력되는 화면의 원근감 또는 깊이감을 사용자가 원하는 바에 맞춰서 조절할 수 있는 이미지 처리 방법 및 그에 따른 디스플레이 장치의 제공을 목적으로 한다.
구체적으로, 본 발명의 실시예는 사용자가 출력되는 화면과 디스플레이 후면에 존재하는 벽면과의 연속성 또는 통일감을 느낄 수 있도록 하는 이미지 처리 방법 및 그에 따른 디스플레이 장치의 제공을 목적으로 한다.
본 개시의 실시예에 따른 디스플레이 장치는 디스플레이; 외부 장치와 통신을 수행하는 통신부; 하나 이상의 인스트럭션을 포함하는 메모리; 및 상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 수행하는 프로세서를 적어도 하나 포함하는 제어부를 포함한다. 그리고, 상기 프로세서는 상기 외부 장치로부터 이미지를 수신하고, 상기 디스플레이 장치의 전면과 상기 벽면 사이의 거리에 대응하는 제1 거리에 대한 정보를 획득하고, 상기 이미지를 상기 디스플레이에 출력할 때, 상기 제1 거리에 근거하여 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과가 제공되도록 제어한다.
또한, 상기 프로세서는 상기 제1 거리에 대한 정보에 근거하여, 상기 이미지 내에서 상기 그림자 효과가 적용되는 영역의 넓이, 및 상기 그림자 효과가 적용되는 영역 내에서의 그림자의 짙은 정도 중 적어도 하나를 조절할 수 있다.
또한, 상기 프로세서는 상기 이미지에서 나타내는 깊이감이 상기 디스플레이 장치의 후면에 위치하는 벽면의 깊이감에 대응되도록, 상기 그림자 효과의 강도를 조절할 수 있다.
또한, 본 개시의 실시예에 따른 디스플레이 장치는 광원의 상태를 감지하는 센서부를 더 포함할 수 있다. 그리고, 상기 프로세서는 상기 센서부에서 감지된 광원의 상태 및 상기 제1 거리에 근거하여, 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 제공하도록 제어할 수 있다.
또한, 상기 센서부는 광원의 세기 및 방향을 감지하는 복수개의 조도 센서를 포함할 수 있다. 또한, 상기 프로세서는 상기 복수개의 조도 센서의 감지 결과 및 상기 제1 거리에 근거하여, 상기 이미지에 적용되는 상기 그림자 효과의 강도를 조절할 수 있다.
또한, 상기 프로세서는 상기 제1 거리에 대한 정보에 근거하여 가상 액자 프레임의 두께를 제1 두께로 결정하고, 상기 제1 두께를 갖는 상기 가상 액자 프레임 내에 상기 그림자 효과가 적용된 상기 이미지가 디스플레이 되도록 제어할 수 있다.
또한, 상기 프로세서는 상기 제1 두께에 근거하여, 상기 이미지 내에서 상기 그림자 효과가 적용되는 영역의 넓이, 및 상기 그림자 효과가 적용되는 영역 내에서의 그림자의 짙은 정도 중 적어도 하나를 조절할 수 있다.
또한, 본 개시의 실시예에 따른 디스플레이 장치는 소정 명령 또는 정보를 수신하는 사용자 인터페이스를 더 포함할 수 있다. 또한, 상기 프로세서는 상기 가상 액자 프레임의 색상 및 형태 중 적어도 하나를 설정하기 위한 사용자 인터페이스 화면이 출력되도록 제어하고, 사용자로부터 상기 가상 액자 프레임의 색상 및 형태 중 적어도 하나에 대한 정보를 입력 받도록, 상기 사용자 인터페이스를 제어할 수 있다.
또한, 본 개시의 실시예에 따른 디스플레이 장치는 소정 명령 또는 정보를 수신하는 사용자 인터페이스를 더 포함할 수 있다. 또한, 상기 프로세서는 상기 제1 거리에 대한 정보를 입력 받기 위한 사용자 인터페이스 화면이 출력되도록 제어하며, 사용자로부터 상기 제1 거리에 대한 정보를 입력 받도록, 상기 사용자 인터페이스를 제어할 수 있다.
또한, 본 개시의 실시예에 따른 디스플레이 장치는 소정 명령 또는 정보를 수신하는 사용자 인터페이스를 더 포함할 수 있다. 또한, 상기 프로세서는 상기 디스플레이 장치가 위치하는 공간에 빛이 들어오도록 하는 적어도 하나의 창문에 대한 정보를 입력 받기 위한 사용자 인터페이스 화면이 출력되도록 제어할 수 있다.
또한, 상기 프로세서는 상기 사용자 인터페이스를 통하여 수신하는 상기 적어도 하나의 창문에 대한 정보 및 상기 제1 거리에 대한 정보에 근거하여, 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 제공하도록 제어할 수 있다. 또한, 본 개시의 실시예에 따른 디스플레이 장치는 사용자의 위치를 감지하는 적어도 하나의 센서를 더 포함할 수 있다. 또한, 상기 프로세서는 상기 사용자의 위치 및 상기 제1 거리에 대한 정보에 근거하여, 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 제공하도록 제어할 수 있다.
본 개시의 실시예에 따른 디스플레이 장치의 이미지 처리 방법은 외부 장치로부터 이미지를 수신하는 단계; 상기 디스플레이 장치의 전면과 상기 벽면 사이의 거리에 대응하는 제1 거리에 대한 정보를 획득하는 단계; 상기 이미지를 상기 디스플레이 장치에 포함되는 디스플레이 상에 출력할 때, 상기 제1 거리에 대한 정보에 근거하여 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 적용하는 단계; 및 상기 그림자 효과가 적용된 이미지를 디스플레이 하는 단계를 포함한다.
또한, 상기 그림자 효과를 적용하는 단계는 상기 제1 거리에 대한 정보에 근거하여, 상기 이미지 내에서 상기 그림자 효과가 적용되는 영역의 넓이, 및 상기 그림자 효과가 적용되는 영역 내에서의 그림자의 짙은 정도 중 적어도 하나를 조절하는 단계를 포함할 수 있다.
또한, 상기 그림자 효과를 적용하는 단계는 상기 이미지에서 나타내는 깊이감이 상기 디스플레이 장치의 후면에 위치하는 벽면의 깊이감에 대응되도록, 상기 그림자 효과의 강도를 조절하는 단계를 포함할 수 있다.
또한, 상기 그림자 효과를 적용하는 단계는 상기 디스플레이 장치에 포함되는 복수개의 조도 센서들을 이용하여 감지된 광원의 상태 및 상기 제1 거리에 대한 정보에 근거하여, 상기 이미지의 네 측면들 중 적어도 하나의 측면에 상기 그림자 효과를 적용하는 단계를 포함할 수 있다.
또한, 상기 그림자 효과를 적용하는 단계는 상기 제1 거리에 대한 정보에 근거하여 가상 액자 프레임의 두께를 제1 두께로 결정하고, 상기 제1 두께를 갖는 상기 가상 액자 프레임 내에 상기 그림자 효과가 적용된 상기 이미지를 표시하는 단계를 포함할 수 있다.
또한, 본 개시의 실시예에 따른 이미지 처리 방법은 상기 가상 액자 프레임의 색상 및 형태 중 적어도 하나를 설정하기 위한 사용자 인터페이스 화면을 출력하는 단계를 더 포함할 수 있다.
또한, 상기 그림자 효과를 적용하는 단계는 사용자의 위치를 감지하는 적어도 하나의 센서에 의해서 감지된 상기 사용자의 위치 및 상기 제1 거리에 대한 정보에 근거하여, 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 적용하는 단계를 포함할 수 있다.
본 개시의 실시예에 따른 컴퓨터에 의해서 실행 가능한 명령어들을 포함하는 프로그램을 기록한 기록 매체에 있어서, 상기 프로그램은 외부 장치로부터 이미지를 수신하는 단계; 디스플레이 장치의 전면과 상기 벽면 사이의 거리에 대응하는 제1 거리에 대한 정보를 획득하는 단계; 상기 이미지를 상기 디스플레이 장치에 포함되는 디스플레이 상에 출력할 때, 상기 제1 거리에 대한 정보에 근거하여 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 적용하는 단계; 및 상기 그림자 효과가 적용된 이미지를 디스플레이 하는 단계를 포함하는 디스플레이 장치의 이미지 처리 방법,을 실행하기 위한 명령어들을 포함한다.
본 발명의 실시예에 따른 이미지 처리 방법 및 그에 따른 디스플레이 장치는 디스플레이 장치의 후면에 존재하는 벽면과 동일한 깊이감을 가지는 화면을 출력할 수 있다. 그에 따라서, 사용자는 디스플레이 장치의 후면에 존재하는 벽면과 디스플레이의 화면 상에 출력되는 제2 이미지가 상호 통일되고 연속된 것으로 인식할 수 있다.
도 1은 디스플레이 장치가 배치된 공간을 나타내는 도면이다.
도 2a는 도 1에 도시된 벽면 중 120 영역을 자세히 나타내는 도면이다.
도 2b는 도 2에 도시된 벽면 영역 상에 배치되는 디스플레이 장치를 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 디스플레이 장치를 나타내는 블록도이다.
도 4는 본 발명의 실시예에 따른 디스플레이 장치를 나타내는 블록도이다.
도 5a 및 도 5b는 벽걸이 타입의 디스플레이 장치에서 획득되는 제1 거리를 설명하기 위한 도면이다.
도 5c및 도 5d는 스탠드 타입의 디스플레이 장치에서 획득되는 제1 거리를 설명하기 위한 도면이다.
도 6a는 본 개시의 실시예에 따른 디스플레이 장치에서 적용되는 그림자 효과를 설명하기 위한 일 도면이다.
도 6b는 본 개시의 실시예에 따른 디스플레이 장치에서 적용되는 그림자 효과를 설명하기 위한 일 도면이다.
도 7은 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 화면의 일 예를 나타내는 도면이다.
도 8은 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 화면의 다른 예를 나타내는 도면이다.
도 9a는 본 개시의 실시예에 따른 디스플레이 장치에 포함되는 센서부를 설명하기 위한 일 도면이다.
도 9b는 본 개시의 실시예에 따른 디스플레이 장치에 포함되는 센서부를 설명하기 위한 다른 도면이다.
도 10a는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 화면의 다른 예를 나타내는 도면이다.
도 10b는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 화면의 다른 예를 나타내는 도면이다.
도 11는 디스플레이 패널이 곡률을 가지는 디스플레이 장치를 나타내는 도면이다.
도 12는 본 개시의 실시예에 따른 디스플레이 장치가 인식하는 사람의 위치를 나타내는 도면이다.
도 13은 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 사용자 인터페이스 화면의 일 예를 나타내는 도면이다.
도 14a 및 도 14b는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 사용자 인터페이스 화면의 다른 예들을 나타내는 도면이다.
도 15는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 사용자 인터페이스 화면의 다른 예를 나타내는 도면이다.
도 16a는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 화면의 다른 예를 나타내는 도면이다.
도 16b는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 사용자 인터페이스 화면의 다른 예를 나타내는 도면이다.
도 17은 본 개시의 다른 실시예에 따른 디스플레이 장치를 나타내는 블록도이다.
도 18은 본 개시의 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 명세서에서 다양한 곳에 등장하는 "일부 실시예에서" 또는 "일 실시예에서" 등의 어구는 반드시 모두 동일한 실시예를 가리키는 것은 아니다.
일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 프로세서 또는 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 모듈 및 구성등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.
도 1은 디스플레이 장치가 배치된 공간을 나타내는 도면이다.
도 1을 참조하면, 소정의 공간(100) 상에 디스플레이 장치(110)가 배치될 수 있다. 여기서, 디스플레이 장치(110)는 화면(112)을 통하여 이미지를 출력하는 전자 장치이다. 구체적으로, 디스플레이 장치(110)는 컨텐츠, 광고 및 안내 정보, 또는 사용자 인터페이스 화면 등을 사용자에게 시각적으로 출력하기 위한 장치로, TV, 디지털 방송용 단말기 등과 같이 다양한 형태로 존재할 수 있다. 또한, 디스플레이 장치(110)는 고정형뿐만 아니라, 이동 가능하거나 사용자가 휴대 가능한 형태를 가질 수 있을 것이다.
도 1에서 도시된 예와 같이, 디스플레이 장치(110)는 벽면에 탈부착 가능한 벽걸이 형 디스플레이 장치로 소정 벽면(120) 상에 부착된 상태로 배치될 수 있다.
디스플레이 장치(110)에 의해서 가려지게 되는 디스플레이 장치(110) 후면의 풍경 또는 벽면을 보기를 원하는 사용자가 있을 수 있다. 도 1에 도시된 예와 같이, 디스플레이 장치(110)에 의해서 가려지게 되는 벽면(120)을 보기 원하는 사용자가 존재할 수 있다.
이 경우, 디스플레이 장치(110)는 벽면(120)을 촬영한 이미지를 화면(112) 상에서 출력할 수 있다. 그러면, 사용자는 디스플레이 장치(110)가 투명한 유리창이 된 것과 같은 시각적 효과를 누릴 수 있다.
도 1에서는 벽면(120)이 벽지가 부착되어 있는 벽면인 경우를 예로 들어 도시하였으나, 벽면(120)은 유리 벽면 또는 유리 창과 같이 외부의 풍경을 볼 수 있는 투명한 형태의 벽면이 될 수도 있을 것이다. 벽면(120)이 투명한 벽면으로 형성되는 경우, 디스플레이 장치(110)는 벽면(120)을 통하여 볼 수 있는 외부의 풍경을 촬영한 이미지를 화면(112) 상에서 출력할 수 있다.
도 2a는 도 1에 도시된 벽면 중 120 영역을 자세히 나타내는 도면이다.
도 2a를 참조하면, 영역(200)은 도 1에 도시된 벽면(120)에 대응되는 영역으로, 디스플레이 장치(110)에 의해서 가려지게 부분을 포함한다.
이하에서는, 디스플레이 장치(110)의 후면에 도 2a에 도시된 바와 같이 소정의 그림이 그려진 벽지가 부착된 벽면이 존재하는 경우를 예로 들어 도시 및 설명한다. 따라서, 디스플레이 장치(110)에 의해서 가려지는 부분은 벽면에 부착된 벽지 중 일부가 될 수 있다. 또한, 디스플레이 장치(110)에 의해서 가려지는 부분은 벽면에 부착된 벽지를 촬영한 이미지가 될 수 있다.
또한, 도 2a에서는 도시된 바와 같이 소정의 무늬가 존재하는 벽지가 부착된 벽면을 예로 들어 도시하였다. 그러나, 디스플레이 장치(110)의 후면은 아무런 무늬가 존재하지 않는 벽지가 부착된 벽면이 될 수도 있으며, 이외에 다양한 모양 및 형태를 갖는 벽면이 될 수도 있다. 또한, 디스플레이 장치(110)의 후면은 유리벽 또는 유리창과 같이 외부 풍경이 보이는 투명한 벽면이 될 수도 있다.
도 2b는 도 2에 도시된 벽면 영역 상에 배치되는 디스플레이 장치를 나타내는 도면이다.
도 2b를 참조하면, 영역(200) 상에 디스플레이 장치(210)가 배치되는 경우가 도시된다. 여기서, 디스플레이 장치(210)는 벽면 상이 부착되는 형태로 배치된다. 그리고, 디스플레이 장치(210)는 벽면인 영역(200) 중 디스플레이 장치(210)의 화면(220)에 대응되는 영역을 화면(220) 상으로 출력할 수 있다. 또는, 디스플레이 장치(210)는 벽면인 영역(200) 중 디스플레이 장치(210)에 의해 가려지는 영역을 화면(220) 상으로 출력할 수 있다.
일반적인 디스플레이 장치(210)는 벽면인 영역(200)을 촬영하고, 촬영된 이미지 중 디스플레이 장치(210)의 화면(220)에 대응되는 이미지 부분을 그대로 화면(220) 상에 출력한다. 일반적으로, 디스플레이 장치(210)는 소정 두께를 가지며 디스플레이 장치(210)를 벽면에 부착하기 위한 구성, 예를 들어, 월 마운트(wall mount) 또한 소정 두께를 가지므로, 화면(220)은 벽면보다 전면에 나와있게 된다.
도 2b를 참조하면, 화면(220)이 벽면인 영역(200)에 비하여 앞에 튀어 나와 있다. 따라서, 디스플레이 장치(210)의 전면에 위치하는 사용자가 디스플레이 장치(210)를 바라볼 경우, 화면(220)에서 출력하는 이미지가 벽면에 비하여 깊이(depth)가 작은 값을 가지게 되어서, 사용자는 디스플레이 장치(210)의 화면(220)에서 출력되는 벽면의 이미지가 실제의 벽면보다 더 가까이 위치한 것으로 인식하게 된다. 따라서, 블록 표시(230)된 부분에서와 같이, 깊이감의 차이로 인하여 사용자는 화면(220)과 벽면이 불연속적인 것으로 인식하게 된다. 그러므로, 사용자는 디스플레이 장치(210)가 화면(220) 상으로 벽면의 이미지를 출력하더라도 실제 벽면과의 연속성 또는 통일감을 느끼지 못하게 된다.
이하에서는, 디스플레이 장치(210)가 디스플레이 장치(210)의 후면에 대응되는 이미지를 디스플레이 하는 경우, 디스플레이 장치(210)의 후면(예를 들어, 벽면)과 디스플레이 장치(210)에서 출력되는 이미지 간의 통일성 또는 연속성을 줄 수 있도록 하는, 본 개시의 실시예에 따른 이미지 처리 방법 및 그에 따른 디스플레이 장치를 첨부된 도면을 참조하여 상세히 설명한다.
도 3은 본 발명의 실시예에 따른 디스플레이 장치를 나타내는 블록도이다.
도 3을 참조하면, 본 개시의 실시예에 따른 디스플레이 장치(300)는 통신부(310), 제어부(320), 및 디스플레이(330)를 포함한다.
디스플레이 장치(300)는 디스플레이(330), 외부 장치(미도시)와 통신을 수행하는 통신부(310), 하나 이상의 인스트럭션을 포함하는 메모리(380), 및 메모리(380)에 저장된 하나 이상의 인스트럭션을 수행하는 프로세서(미도시)를 적어도 하나 포함하는 제어부(320)를 포함한다.
제어부(320)는 외부 장치(미도시)로부터 이미지를 수신하고, 디스플레이 장치(300)의 전면과 벽면 사이의 거리에 대응하는 제1 거리에 대한 정보를 획득하고, 외부 장치(미도시)로부터 획득된 이미지를 디스플레이(330)에 출력할 때, 제1 거리에 대한 정보에 근거하여 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 제공하도록 제어한다.
여기서, '제1 거리에 대한 정보'는 디스플레이 장치(300)의 전면과 벽면 사이의 거리 자체가 될 수 있다. 또는, '제1 거리에 대한 정보'는 디스플레이 장치(300)의 전면과 벽면 사이의 거리에 비례하는 값을 갖는 정보가 될 수 있다. 또는, '제1 거리에 대한 정보'는, 디스플레이 장치(300)의 전면과 벽면 사이의 거리인 제1 거리를 계산할 수 있는 수학식 또는 연산 방법, 및 수학식 또는 연산 방법에 이용되는 값들 중 적어도 하나를 포함하는 정보가 될 수 있다. 또는, '제1 거리에 대한 정보'는 디스플레이 장치(300)의 전면과 벽면 사이의 거리를 획득할 수 있는 모든 관련 정보가 될 수 있다.
이하에서는, '제1 거리에 대한 정보'가 디스플레이 장치(300)의 전면과 벽면 사이의 거리 자체인 제1 거리를 포함하는 경우를 예로 들어 설명하겠다.
즉, 제어부(320)는 외부 장치(미도시)로부터 이미지를 수신하고, 디스플레이 장치(300)의 전면과 벽면 사이의 거리인 제1 거리를 획득하고, 외부 장치(미도시)로부터 획득된 이미지를 디스플레이(330)에 출력할 때, 제1 거리에 근거하여 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 제공하도록 제어할 수 있다. 구체적으로, 제어부(320)에 포함되는 프로세서(미도시)는 외부 장치(미도시)로부터 이미지를 수신하고, 디스플레이 장치(300)의 전면과 벽면 사이의 거리인 제1 거리를 획득하고, 외부 장치(미도시)로부터 획득된 이미지를 디스플레이(330)에 출력할 때, 제1 거리에 근거하여 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 제공하도록 제어할 수 있다.
또한, 메모리(380)는 제어부(320) 내에 포함되는 형태로 구현될 수도 있다. 따라서, 제어부(320)는 메모리(380) 및 적어도 하나의 프로세서를 포함하여, 디스플레이 장치(300)에서 수행되는 동작들을 제어할 수 있으며, 소정 동작이 수행되도록 디스플레이 장치(300) 내에 포함되는 다른 구성들을 제어할 수 있다. 구체적으로, 제어부(320)에 포함되는 프로세서는 내부적으로 구비되는 메모리(380)에 저장되어 있는 적어도 하나의 인스트럭션을 실행시켜서, 소정 동작이 수행되도록 제어할 수 있다.
또한, 본 개시의 실시예에서는 제어부(320)에 포함되는 적어도 하나의 프로세서가 디스플레이 장치(300)에서 수행되는 동작들을 제어할 수 있으며 소정 동작이 수행되도록 디스플레이 장치(300) 내에 포함되는 다른 구성들을 제어할 수 있다. 따라서, 제어부(320)가 소정 동작들이 수행되도록 제어하는 경우를 예로 들어 설명하더라도, 제어부(320)에 포함되는 적어도 하나의 프로세서가 소정 동작들이 수행되도록 제어할 있음은 자명하다 할 것이다.
구체적으로, 통신부(310)는 디스플레이 장치(300)의 후면에 위치하는 벽면을 촬영한 이미지를 수신할 수 있다. 이하에서는, 디스플레이 장치(300)의 후면에 위치하는 벽면을 촬영한 이미지를 '제1 이미지'라 한다. 여기서, '제1 이미지'은 디스플레이 장치(300)에 의해서 가려지는 벽면을 촬영한 이미지가 될 수 있다. 구체적으로, 제1 이미지는 벽면 중 디스플레이 장치(300)의 화면에 대응되는 영역을 촬영한 이미지가 될 수 있다.
또한, 벽면은 투명한 벽면(예를 들어, 유리창) 또는 불투명한 벽면(예를 들어, 벽지가 부착된 벽면)이 될 수 있다. 벽면이 유리창인 경우, 제1 이미지는 디스플레이 장치(300)에 의해서 가려지는 외부 풍경이 될 수 있다. 또한, 벽면이 벽지가 부착된 벽면인 경우, 제1 이미지는 디스플레이 장치(300)에 의해서 가려지는 벽지 부분을 이미징 한 이미지가 될 수 있다.
구체적으로, 통신부(310)는 디스플레이 장치(300)의 외부에서부터 비디오(예를 들어, 동이미지 등), 오디오(예를 들어, 음성, 음악 등) 및/또는 부가 정보(예를 들어, EPG 등) 등을 수신할 수 있다. 구체적으로, 통신부(310)는 HDMI 포트(High-Definition Multimedia Interface port, 미도시), 컴포넌트 잭(component jack, 미도시), PC 포트(PC port, 미도시), 및 USB 포트(USB port, 미도시) 중 하나를 포함할 수 있다. 또한, 통신부(310)는 HDMI 포트, 컴포넌트 잭, PC 포트, 및 USB 포트의 조합을 포함할 수 있다.
이 경우, 통신부(310)는 사용자 등이 디스플레이 장치(300)에 의해서 가려지는 벽면이 촬영한 비디오 데이터를 HDMI 포트, 컴포넌트 잭, PC 포트, 또는 USB 포트 등을 통하여 직접 수신할 수 있다.
또한, 통신부(310)는 소정 통신 규격에 따라서 유무선의 통신 네트워크를 통하여 데이터를 송수신하는 통신 모듈(미도시)을 적어도 하나를 포함할 수 있다. 이 경우, 통신부(310)는 통신 모듈(미도시)를 통하여 제1 이미지를 수신할 수 있다. 예를 들어, 사용자는 벽면의 이미지를 사용자의 스마트폰(미도시)를 통하여 촬영하여 제1 이미지를 획득하고, 제1 이미지를 와이파이(wi-fi) 통신 네트워크를 통하여 디스플레이 장치(300)로 전송할 수 있다. 상기 예시에서, 통신부(310)는 와이파이 통신 모듈(미도시)를 포함할 수 있으며, 내부적으로 구비되는 와이파이 통신 모듈(미도시)을 통하여 사용자의 스마트폰(미도시)으로부터 제1 이미지를 수신할 수 있다.
또한, 제어부(320)는 제1 거리에 대한 정보를 획득한다.
구체적으로, 제어부(320)는 디스플레이 장치(300)의 전면과 벽면 사이의 거리인 제1 거리를 제1 거리에 대한 정보로서 획득할 수 있다. 구체적으로, 제어부(320)에 포함되는 적어도 하나의 프로세서는 제1 거리를 획득할 수 있다. 그리고, 제어부(320)는 제1 거리에 근거하여 제1 이미지의 네 측면들 중 적어도 하나의 측면에 그림자가 나타나도록 제1 이미지에 그림자 효과를 적용할 수 있다. 이하에서는, 제1 이미지에 그림자 효과가 적용되어 생성되는 이미지를 '제2 이미지'라 하겠다.
디스플레이(330)는 제2 이미지를 출력한다. 구체적으로, 디스플레이(330)는 화면 상으로 제2 이미지를 디스플레이 할 수 있다.
구체적으로, 디스플레이(330)는 비디오 데이터를 사용자가 시각적으로 인식할 수 있도록, 내부적으로 포함되는 디스플레이 패널을 통하여, 비디오 데이터에 대응되는 이미지를 출력할 수 있다.
또한, 디스플레이(330)는 화면을 출력하는 출력 면(예를 들어, 디스플레이 패널)이 곡률을 가지는지 여부에 따라서, 곡률을 가지지 않고 평면으로 형성되는 평면형 디스플레이와 디스플레이 패널이 소정의 곡률을 가지며 휘어져서 형성되는 커브드(curved) 디스플레이로 구분될 수 있다. 또한, 디스플레이(330)는 다양한 발광 소자들에 대응되는 다양한 형태의 디스플레이 패널, 예를 들어, OLED 패널, LED 패널, LCD 패널, 또는 PDP 패널을 포함할 수 있다.
구체적으로, 사용자가 제2 이미지를 디스플레이 장치(300)의 후면에 존재하는 벽면과 동일한 깊이감으로 인식할 수 있도록 하기 위해서, 제어부(320)는 제1 이미지에 그림자 효과를 적용할 수 있다. 즉, 디스플레이 장치(300)가 후면에 존재하는 벽면에 대응되는 이미지를 디스플레이(330)의 화면 상으로 출력할 때, 사용자가 디스플레이 장치(300)의 후면에 존재하는 벽면과 디스플레이(330)의 화면 상에 출력되는 제2 이미지가 상호 통일되고 연속된 것으로 인식할 수 있도록, 제어부(320)는 제1 이미지에 그림자 효과를 적용시켜 제2 이미지를 생성할 수 있다.
구체적으로, 디스플레이 장치(300)의 화면이 디스플레이 장치(300)의 후면에 존재하는 벽면과 같은 깊이감을 갖는 것으로 인식할 수 있도록, 디스플레이 장치(300)의 제어부(320)는 디스플레이 장치(300)에서 출력되는 화면에 적용되는 깊이(depth) 값을 조절할 수 있다. 구체적으로, 화면에 나타내는 이미지에 적용되는 그림자의 양(예를 들어, 그림자가 표현되는 영역의 넓이 및/또는 두께) 및 질(예를 들어, 그림자의 짙은 정도) 중 적어도 하나가 달라질 수 있다.
그에 따라서, 사용자는 디스플레이 장치(300)에서 출력되는 벽면의 이미지인 제2 이미지가 디스플레이 장치(300) 후면에 존재하는 벽면과 동일한 깊이감을 갖는 것으로 인식하여, 연속성 및 통일성을 느낄 수 있게 있다.
또한, 사용자가 디스플레이 장치(300)에서 출력되는 제2 이미지가 디스플레이 장치(300) 후면에 존재하는 벽면을 더욱 통일감 있게 느낄 수 있도록 하기 위해서, 제어부(320)는 디스플레이 장치(300)의 화면에 출력되는 이미지의 배율을 조절할 수 있다. 구체적으로, 도 2b를 참조하면, 디스플레이 장치(210)의 전면에 사용자가 위치할 때, 디스플레이 장치(210)의 화면(220)이 벽면인 영역(200)보다 사용자에게 더 가까이 있게 된다. 그러면, 화면(220)에서 출력되는 이미지에서의 벽지의 무늬가 실제 벽면인 영역(200)에서의 무늬보다 크게 보이게 된다. 따라서, 화면(220)에서 출력되는 이미지에서의 벽지의 무늬가 실제 벽면인 영역(200)에서의 무늬와 동일한 크기를 가질 수 있도록, 화면(220)에서 출력되는 이미지의 배율을 조절할 수 있다. 그러면, 230 영역에서와 같은 벽지 무늬의 불연속이 제거되어, 사용자는 더욱더 디스플레이 장치(210)의 화면(220)과 실제 벽면과의 통일성을 느낄 수 있을 것이다.
도 4는 본 발명의 실시예에 따른 디스플레이 장치를 나타내는 블록도이다.
도 4에 도시된 디스플레이 장치(400)는 도 3에 도시된 디스플레이 장치(300)에 대응된다. 구체적으로, 디스플레이 장치(400)에 포함되는 통신부(410), 제어부(420), 디스플레이(430), 및 메모리(480)는 각각 디스플레이 장치(300)에 포함되는 통신부(310), 제어부(320), 디스플레이(330), 및 메모리(380)에 동일 대응된다. 따라서, 도 4에 도시된 디스플레이 장치(400)를 설명하는데 있어서, 도 1 내지 도 3에서와 중복되는 설명은 생략한다. 도 4에 도시된 디스플레이 장치(400)는 도 3에 도시된 디스플레이 장치(300)에 비하여, 카메라(440), 사용자 인터페이스(450), 및 센서부(460) 통신부(410)중 적어도 하나를 더 포함할 수 있다.
디스플레이 장치(400)는 디스플레이(430), 외부 장치(미도시)와 통신을 수행하는 통신부(410), 하나 이상의 인스트럭션을 포함하는 메모리(480), 및 메모리(480)에 저장된 하나 이상의 인스트럭션을 수행하는 프로세서(미도시)를 적어도 하나 포함하는 제어부(420)를 포함한다.
통신부(410)는 외부 장치(미도시)와 통신을 수행한다.
구체적으로, 통신부(410)는 외부 장치(미도시)와 통신을 수행하여, 디스플레이 장치(400)의 후면에 위치하는 벽면을 촬영한 이미지인 제1 이미지를 획득한다. 여기서, '제1 이미지'은 디스플레이 장치(400)에 의해서 가려지는 벽면을 촬영한 이미지가 될 수 있다. 구체적으로, 제1 이미지는 벽면 중 디스플레이 장치(300)의 화면에 대응되는 영역을 촬영한 이미지가 될 수 있다.
제어부(420)는 디스플레이 장치(400)의 전면과 벽면 사이의 거리인 제1 거리를 획득한다. 그리고, 제1 거리에 근거하여 제1 이미지의 네 측면들 중 적어도 하나의 측면에 그림자가 나타나도록 제1 이미지에 그림자 효과를 적용하여 제2 이미지를 생성한다. 구체적으로, 제어부(420)에 포함되는 프로세서(미도시)는 외부 장치(미도시)로부터 이미지를 수신하고, 디스플레이 장치(400)의 전면과 벽면 사이의 거리인 제1 거리를 획득하고, 외부 장치(미도시)로부터 획득된 이미지를 디스플레이(430)에 출력할 때, 제1 거리에 근거하여 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 제공하도록 제어할 수 있다.
디스플레이(430)는 제2 이미지를 출력한다.
디스플레이 장치(400)에 있어서, 제어부(420)는 디스플레이 장치(400)의 전반적인 동작을 제어할 수 있다.
구체적으로, 디스플레이 장치(400)의 전반적인 동작 및 디스플레이 장치(400)의 내부 구성요소들 사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다.
본 개시의 실시예에 따르면, 제어부(420)는 제1 이미지를 획득하는 동작, 제1 이미지에 그림자 효과를 적용하는 동작, 및 제2 이미지를 생성하는 동작이 수행될 수 있도록, 통신부(410) 및 통신부(410)를 포함하는 다른 구성 요소들 중 적어도 하나를 제어할 수 있다.
또한, 제어부(420)는 전술한 동작 및 후술하는 동작을 수행하는 적어도 하나의 프로그램이 저장된 메모리 및 저장된 적어도 하나의 프로그램을 실행하는 적어도 하나의 프로세서(processor)를 포함할 수 있다.
구체적으로, 제어부(420)는 디스플레이 장치(400)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 디스플레이 장치(400)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 RAM(미도시), 디스플레이 장치(400)의 제어를 위한 제어 프로그램이 저장된 ROM(미도시) 및 적어도 하나의 프로세서 (Processor)(미도시)를 포함할 수 있다.
프로세서(미도시)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 미도시)를 포함할 수 있다. 프로세서(미도시)는 코어(core, 미도시)와 GPU(미도시)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서(미도시)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
사용자 인터페이스(450)는 디스플레이 장치(400)를 제어하기 위한 사용자 입력을 수신할 수 있다. 사용자 인터페이스(450)는 사용자의 터치를 감지하는 터치 패널, 사용자의 푸시 조작을 수신하는 버튼, 사용자의 회전 조작을 수신하는 휠, 키보드(key board), 및 돔 스위치 (dome switch) 등을 포함하는 사용자 입력 디바이스를 포함할 수 있으나 이에 제한되지 않는다.
본 개시의 실시예에서, 사용자 인터페이스(450)는 사용자로부터 제1 거리에 대한 정보를 입력받을 수 있다. 구체적으로, 사용자는 사용자 인터페이스(450)를 통하여 제1 거리인 디스플레이 장치의 전면과 디스플레이 장치의 후면에 위치하는 벽면 사이의 거리를 직접 입력받을 수 있다.
또한, 제어부(420)의 제어에 따라서 제1 거리를 설정하기 위한 사용자 인터페이스 화면이 출력되는 경우, 사용자는 사용자 인터페이스(450)를 통하여 사용자 인터페이스 화면의 제1 거리 설정 메뉴를 조작할 수 있다. 그러면, 제어부(420)는 사용자의 조작에 근거하여, 제1 거리를 설정할 수 있다. 제1 거리 설정을 위한 사용자 인터페이스 화면은 이하에서 도 14a 및 도 14b를 참조하여 상세히 설명한다.
제1 거리에 대한 정보가 획득되면, 제어부(420)는 그림자 효과의 강도를 제1 거리에 비례하도록 조절하여, 제2 이미지를 생성할 수 있다.
상세하게, 제어부(420)는 제1 거리에 대한 정보에 근거하여, 제1 이미지 내에서 그림자 효과가 적용되는 영역의 넓이, 및 그림자 효과가 적용되는 영역 내에서의 그림자의 짙은 정도 중 적어도 하나를 조절할 수 있다.
구체적으로, 제어부(420)는 그림자 효과의 강도를 제1 거리에 비례하도록 조절하여, 제2 이미지를 생성할 수 있다. 여기서, 그림자 효과의 강도는 이미지에 적용되는 그림자의 양(예를 들어, 그림자가 표현되는 영역의 넓이 및/또는 두께) 및 질(예를 들어, 그림자의 짙은 정도) 중 적어도 하나에 따라서 달라질 수 있다.
통신부(410)는 유선 통신 또는 무선 통신을 통해 외부의 전자 장치(미도시) 또는 서버(미도시)와 통신할 수 있다. 이하에서는, 통신부(410)와 통신을 수행하는 외부의 전자 장치(미도시) 또는 서버(미도시)를 모두 '외부 장치'라 하겠다. 일 실시예에 따른 통신부(410)는, 근거리 통신 모듈, 유선 통신 모듈, 이동 통신 모듈, 방송 수신 모듈 등과 같은 적어도 하나의 통신 모듈을 포함한다. 여기서, 적어도 하나의 통신 모듈은 블루투스, WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), CDMA, WCDMA 등과 같은 통신 규격을 따르는 네트워크를 통하여 데이터 송수신을 수행할 수 있는 통신 모듈을 뜻한다.
본 개시의 실시예에서, 통신부(410)는 외부 전자 장치(미도시), 예를 들어, 디스플레이 장치(400)를 사용하는 사용자의 모바일 폰으로부터, 제1 거리에 대한 정보를 수신할 수 있다. 또한, 통신부(410)는 외부 전자 장치(미도시), 예를 들어, 디스플레이 장치(400)를 사용하는 사용자의 모바일 폰으로부터, 제1 이미지를 수신할 수 있다.
메모리(480)는 소정 데이터, 및 소정 동작을 수행하기 위한 명령어들을 포함하는 프로그램들 중 적어도 하나를 포함할 수 있다. 또한, 소정 프로그램을 실행시키는 제어부(미도시)를 적어도 하나 포함할 수 있다.
또한, 메모리(480)는 디스플레이(330)로 출력될 비디오 데이터를 저장할 수 있다.
구체적으로, 메모리(480)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
본 개시의 실시예에서, 메모리(480)는 전술한 동작들을 수행하기 위한 명령어들을 포함하는 프로그램을 적어도 하나 저장하고 있을 수 있다. 또는, 메모리(480)는 전술한 동작들을 수행하기 위한 명령어들을 포함하는 프로그램을 실행하는 제어부를 적어도 하나 저장하고 있을 수 있다.
본 개시의 실시예에서, 메모리(480)는 제1 거리, 제1 이미지, 제2 이미지 중 적어도 하나를 저장할 수 있다.
센서부(460)는 광원의 상태를 감지할 수 있다. 또한, 제어부(420)는 센서부(460)에서 감지된 광원의 상태 및 제1 거리에 근거하여, 제1 이미지에 그림자 효과를 적용하여 제2 이미지를 생성할 수 있다. 구체적으로, 제어부(420)는 광원의 상태 및 제1 거리에 근거하여 그림자 효과의 강도를 조절할 수 있다. 그리고, 조절된 강도를 갖는 그림자 효과를 제1 이미지에 적용하여 제2 이미지를 생성할 수 있다.
구체적으로, 센서부(460)는 복수개의 조도 센서를 포함할 수 있다. 그에 따라서, 제어부(420)는 복수개의 조도 센서에서 감지되는 광원이 상태 및 제1 거리에 근거하여, 제1 이미지에 그림자 효과를 적용하여 제2 이미지를 생성할 수 있다. 여기서, 복수개의 조소 센서는 빛이 들어오는 방향 및 빛의 세기 중 적어도 하나를 감지할 수 있다.
센서부(460)에 포함되는 복수개의 조도 센서는 이하에서 도 9a 및 도 9b를 참조하여, 상세히 설명한다.
카메라(440)는 디스플레이 장치(400)의 전면 또는 후면 중 적어도 하나를 촬영하여 이미지를 획득할 수 있다. 본 개시의 실시예에서 카메라(440)는 디스플레이 장치(400)의 후면을 촬영하여, 디스플레이 장치(400)에 의해서 가려지는 벽면에 대응되는 이미지인 제1 이미지를 획득할 수 있을 것이다. 카메라(440)는 획득된 제1 이미지를 제어부(420)로 전송할 수 있다. 그러면, 제어부(420)는 제1 이미지에 그림자 효과가 적용될 수 있도록 할 수 있다.
디스플레이 장치(400)에서 수행되는 구체적인 동작들은 이하에서 도 5a 내지 도 16을 참조하여, 상세히 설명한다.
도 5a 및 도 5b는 벽걸이 타입의 디스플레이 장치에서 획득되는 제1 거리를 설명하기 위한 도면이다. 도 5a 및 도 5b 에 있어서, 디스플레이 장치(510)는 도 4에서 도시한 디스플레이 장치(400)에 동일 대응되므로, 도 1 내지 도 4에서와 중복되는 설명은 생략한다.
여기서, 벽걸이 타입의 디스플레이 장치는 벽에 부착되는 형태로 고정되어 배치되는 디스플레이 장치를 의미한다. 또한, 디스플레이 장치가 벽에 부착 및 고정되기 위해서 포함되는 구성을 월 마운트(wall mount)(520)라 한다.
도 5a를 참조하면, 디스플레이 장치(510)는 월 마운트(520)를 포함하며, 월 마운트(520)를 통하여 벽면(501)에 부착 및 고정되게 된다.
벽면(501)과 디스플레이 장치(510)의 화면이 출력되는 면인 화면(511) 간의 거리, 예를 들어, 수직 거리 또는 최단 거리는 디스플레이 장치(510) 자체의 두께(531) 및 월 마운트(520)의 두께(532)를 합한 값이 될 수 있다.
따라서, 디스플레이 장치(510)의 후면에 배치되는 벽면(501)과 디스플레이 장치(510)의 화면(511) 간의 거리인 제1 거리는 두께(531) 및 두께(532)를 합한 값이 될 수 있다.
도 5b를 참조하면, 디스플레이 장치(510)는 도시된 바와 같이 화면(511)의 외곽 쪽으로 테두리가 부착된 형태를 가질 수 있다. 구체적으로, 프레임 TV와 같은 경우, 화면(511)의 외곽 쪽으로 액자 프레임의 형태를 갖는 테두리가 부착되어 있다. 이 경우, 액자 프레임의 형태를 갖는 테두리는 도 5b 에 도시된 바와 같이 화면(511)보다 앞쪽으로 돌출되어 형성된다.
이 때, 테두리 쪽의 두께(541)는 제1 거리를 측정하는 고려 대상이 아니다. 따라서, 디스플레이 장치(510)가 어떠한 형태를 가지는지 여부와 무관하게, 제1 거리는 화면(511)과 벽면(501) 사이의 최단 거리로 측정될 수 있다.
도 5a 및 도 5b 에 도시된 바와 같이, 디스플레이 장치(510)가 화면(511) 상으로 벽면(501)의 모습, 예를 들어, 벽면(501)에 부착된 벽지의 이미지를 출력하는 경우, 화면(511) 상으로 출력되는 벽지의 이미지는 벽면(501)보다 제1 두께, 구체적으로, 두께(531) 및 두께(532)를 합한 값만큼 앞쪽으로 튀어나와 있게 된다.
벽걸의 타입의 디스플레이 장치(510)의 경우, 화면(511)과 벽면(501) 사이의 거리인 제1 거리는 고정된 값, 구체적으로, 디스플레이 장치(510)의 본체 두께(531) 및 월 마운트의 두께(532)의 합으로 정해진다. 즉, 사용자가 디스플레이 장치(510)의 배치 또는 제1 거리의 값을 변경하고 싶어도, 할 수가 없다.
따라서, 벽걸이 타입의 디스플레이 장치(510)의 경우, 제1 거리 값은 디스플레이 장치(510)의 제조사, 제작자, 판매자, 및 관련 서비스 제공자 등으로부터 제공될 수 있다.
구체적으로, 제1 거리는 디스플레이 장치(510)의 통신부(410) 및 통신부(410) 중 적어도 하나를 통하여 입력 또는 수신될 수 있다. 또는, 제1 거리는 디스플레이 장치(510)의 제어부(420) 또는 메모리(480)에 미리 저장되어 있을 수 있다.
예를 들어, 디스플레이 장치(510)의 제조사에서 관리하는 서버, 예를 들어, 디스플레이 장치(510)의 서비스 센터 서버에서는 제1 거리에 대한 정보를 제공할 수 있다. 그러면, 디스플레이 장치(510)는 제1 거리에 대한 정보를 제공하는 서버 또는 장치로 접속하여, 제1 거리를 획득할 수 있다.
예를 들어, 디스플레이 장치(510)에서 제1 이미지를 획득하여 디스플레이를 시작하기 전에, 디스플레이 장치(510)는 통신부(410)를 통하여 제1 거리를 획득할 수 있다. 구체적으로, 제어부(420)는 와이파이 네트워크를 통하여 디스플레이 장치(510)의 서비스 센터 서버에 접속하여 제1 거리가 획득되도록 제어할 수 있다.
또는, 디스플레이 장치(510)는 제어부(420) 및 메모리(480) 중 적어도 하나에, 제1 거리에 대한 정보를 저장하고 있을 수 있다. 전술한 바와 같이, 제1 거리는 디스플레이 장치(510)의 제품 사양에 따라서 고정된 값을 가지므로, 디스플레이 장치(510)는 제품 사양에 대한 정보로 제1 거리를 저장하고 있을 수 있다.
또한, 디스플레이 장치(510)는 제품 모델, 시리얼 넘버, 제품 버전 정보 등과 같이 제품 정보를 저장하고 있을 수 있다. 디스플레이 장치(510)의 제어부(420)는 자체적으로 저장하고 있는 제품 정보를 이용하여, 제1 거리가 획득되도록 제어할 수 있을 것이다. 예를 들어, 제어부(420)는 통신부(410)를 통하여 디스플레이 장치(510)의 서비스 센터 서버에 접속하고, 서비스 센터 서버로 제품 정보를 전송할 수 있다. 그러면, 서비스 센터 서버에서는 그에 대한 응답으로 디스플레이 장치(510)의 제품 정보에 맞는 제1 거리에 대한 정보를 디스플레이 장치(510)로 전송할 수 있을 것이다.
도 5c및 도 5d는 스탠드 타입의 디스플레이 장치에서 획득되는 제1 거리를 설명하기 위한 도면이다. 또한, 도 5c 및 도 5d 에 도시된 구성에 있어서, 도 5a 및 도 5b 에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다.
여기서, 스탠드 타입의 디스플레이 장치는 바닥 면(550)을 지지하는 스탠드(560)를 이용하여 도시된 바와 같이 배치되는 디스플레이 장치를 의미한다.
도 5c 는 디스플레이 장치(510)를 배치하는데 있어서, 벽면(501)에 최대한 밀착된 형태로 스탠드(560)가 배치될 수 있다.
이 경우, 디스플레이 장치(510)의 화면(511)과 벽면(501) 사이의 거리는 스탠드(560)의 길이 및 디스플레이 장치(510)의 본체 두께(572)를 고려하여 측정될 수 있다. 예를 들어, 디스플레이 장치(510)의 본체의 중심선(571)은 스탠드(560)의 중심선이므로, 스탠드(560)의 두께(561)를 2로 나눈 값에, 본체 두께(572)를 2로 나눈 값을 합하면 제1 거리(562)를 구할 수 있을 것이다.
5d를 참조하면, 디스플레이 장치(510)를 배치하는데 있어서, 벽면(501)에 디스플레이 장치(510)가 밀착되지 않는 형태로 스탠드(560)가 배치될 수 있다.
이 경우, 디스플레이 장치(510)의 화면(511)과 벽면(501) 사이의 거리는 도 5c 에서 설명한 제1 두께(561)의 값과 스탠드(560)가 벽면(501)으로부터 떨어진 거리(573)에 근거하여 측정될 수 있다.
따라서, 도 5d 와 같이 디스플레이 장치(510)가 배치된 경우의 제1 거리(571)는 도시된 바와 같이, 벽면(501)과 화면(511) 간의 실제 직선 거리 값으로 측정될 수 있다.
도 5c에서와 같이, 디스플레이 장치(510)가 벽면(501)에 밀착되는 형태로 배치되는 경우, 제1 거리의 값은 디스플레이 장치(510)의 제품 사양, 구체적으로, 스탠드(560)의 크기 또는 두께 따라서 고정되는 값이 될 수 있다. 이러한 경우, 제1 거리는 도 5a 및 도 5b 에 도시된 스탠드 타입의 디스플레이 장치(510)에서 제1 거리를 획득하는 방식과 동일한 방식으로, 획득될 수 있다.
도 5d 에서와 같이, 디스플레이 장치(510)가 벽면(501)에 밀착되지 않는 형태로 배치되는 경우, 디스플레이 장치(510)는 제1 거리의 값을 사용자로부터 입력받을 수 있다. 예를 들어, 디스플레이 장치(510)는 제1 거리를 설정하기 위한 사용자 인터페이스 화면을 출력하고, 사용자는 출력되는 사용자 인터페이스 화면을 통하여 제1 거리를 입력 또는 설정할 수 있을 것이다.
이하에서는, 제1 거리에 근거하여 제1 이미지 상에 적용되는 그림자 효과를 도 6a 및 도 6b를 참조하여, 상세히 설명한다.
구체적으로, 제어부(420)는 제1 거리에 근거하여 제1 이미지의 네 측면들 중 적어도 하나의 측면에 그림자가 나타나도록 제1 이미지에 그림자 효과를 적용하여 제2 이미지를 생성할 수 있다. 구체적으로, 그림자 효과의 강도를 제1 거리에 비례하도록 조절할 수 있다.
도 6a는 본 개시의 실시예에 따른 디스플레이 장치에서 적용되는 그림자 효과를 설명하기 위한 일 도면이다.
도 6a를 참조하면, 제1 거리(601)가 'D1' 값을 가질 때 적용되는 그림자 효과(630)가 적용된 이미지인 제2 이미지(605)가 도시된다.
도시된 좌표(655)를 참조하면, X-Y 평면에 있어서 Z 값이 0 값을 갖는 면을 기준면으로 하여 벽면이 위치하고, X-Y 평면에 있어서 Z 값이 D1 값을 갖는 면으로 디스플레이 장치(400)의 화면이 출력된다. 즉, 610 면이 벽면의 위치가 되고, 620 면이 화면의 위치가 될 수 있다.
구체적으로, 제1 거리(601)가 D1 값을 가지는 경우, 디스플레이 장치(400)는 620 면에서 출력되는 화면이 벽면인 610 면에서 출력되는 것처럼 사용자가 인식할 수 있도록, 제1 거리(610)에 비례하는 강도를 갖는 그림자 효과를 제1 이미지에 적용하여 제2 이미지(605)을 생성할 수 있다.
여기서, 그림자 효과의 강도는 그림자가 표시되는 영역의 크기, 두께, 및 그림자가 표시되는 영역에서의 그림자의 색상, 진한 정도, 또는 그레이 레벨값 중 적어도 하나에 따라서 조절될 수 있다.
도 6b는 본 개시의 실시예에 따른 디스플레이 장치에서 적용되는 그림자 효과를 설명하기 위한 일 도면이다.
도 6b를 참조하면, 제1 거리(601)가 'D2' 값을 가질 때 적용되는 그림자 효과(660)가 적용된 이미지인 제2 이미지(675)이 도시된다. 도 6b 에 있어서, 도 6a 에서 도시된 구성과 동일한 구성은 동일한 도면기호를 이용하여 도시하였다. 또한, D2 값은 D1 에 비하여 작은 값을 가진다.
구체적으로, 제1 거리(610)가 클수록 그림자가 표시되는 영역의 크기 또는 두께를 증가시킬 수 있다. 또는, 제1 거리(610)가 클수록, 그림자가 표시되는 영역에서의 그레이 레벨 값의 증가시켜서 좀 더 어둡게 그림자가 표현되도록 할 수 있다. 또한, 그림자가 표시되는 영역 내에서, 그림자의 색상 또는 그림자의 어두운 정도가 일률적으로 적용되는 것이라, 화면의 끝인 테두리로 갈수록 그림자의 색상이 어두워지도록 그림자 효과를 설정할 수 있다. 즉, 도 6a 에 도시된 바와 같이, 제2 이미지(605)의 모서리 쪽으로 갈수록 그림자의 색상을 진하게 표현할 수 있다.
도 6a 와 도 6b 에 각각 도시된 제2 이미지들(605, 675)을 비교하면, 제2 이미지(605)에 비하여 제2 이미지(675)에서 표현되는 그림자 표시 영역 또는 그림자 두께가 작은 것을 알 수 있다. 즉, 디스플레이 장치(400)의 화면과 벽면 간의 거리가 작으면, 사용자가 디스플레이 장치(400)의 화면과 벽면 간의 거리 차이를 짧은 것으로 느끼게 되므로, 그림자 효과의 강도를 낮춰도 사용자는 디스플레이 장치(400)의 화면에서 출력되는 이미지와 벽면 간의 통일감을 느낄 수 있을 것이다.
이에 비하여, 디스플레이 장치(400)의 화면과 벽면 간의 거리가 길어지면, 사용자가 디스플레이 장치(400)의 화면과 벽면 간의 거리 차이를 크게 느끼게 되므로, 그림자 효과의 강도를 증가시켜서 사용자가 디스플레이 장치(400)의 화면에서 출력되는 이미지와 벽면 간의 통일감을 느낄 수 있도록 한다.
또한, 그림자 효과는 제1 이미지의 적어도 하나의 모서리에 대응하여 적용될 수 있다. 구체적으로, 제1 이미지에 있어서, 제1 측면(621)에 평행한 모서리, 제2 측면(622)에 평행한 모서리, 제3 측면(623)에 평행한 모서리, 및 제4 측면(624)에 평행한 모서리 중 적어도 하나의 모서리에 대응하여 적용될 수 있다. 도 6A 에서는, 제1 측면(621)에 평행한 모서리, 및 제4 측면(624)에 평행한 모서리 쪽에 그림자 효과가 적용된 경우가 도시되었다.
본 개시의 실시예에 있어서, 그림자 효과가 제1 이미지의 어느 모서리 측면에 적용되는지 여부는, 사용자의 설정에 따라서 달라질 수 있다. 예를 들어, 사용자는 제1 이미지의 4개의 모서리 면 전체에 그림자가 나타나도록 요청할 수 있다. 그러면, 제어부(420)는 사용자의 요청에 근거하여, 제1 이미지의 4개의 모서리 면 전체에 그림자 효과를 적용하여 제2 이미지를 생성할 수 있을 것이다.
또한, 그림자 효과가 제1 이미지의 어느 모서리 측면에 적용되는지 여부는, 디스플레이 장치의 자체 설정에 따라서 달라질 수 있다. 예를 들어, 디스플레이 패널이 평면인 경우, 디스플레이 장치는 제1 이미지의 4개의 모서리 면 전체에 그림자가 나타나도록 그림자 효과를 적용할 수 있다. 또 다른 예로, 디스플레이 패널이 소정 곡률을 갖는 경우, 디스플레이 장치는 제1 이미지의 4개의 모서리 면 중 제2 측면(622)에 평행한 모서리, 및 제4 측면(624)에 평행한 모서리에 그림자가 나타나도록 그림자 효과를 적용할 수 있다.
또한, 그림자 효과가 제1 이미지의 어느 모서리 측면에 적용되는지 여부는, 센서부(460)의 감지 결과에 근거하여 결정될 수 있다. 구체적으로, 빛이 들어오는 방향 및 빛의 강도 중 적어도 하나에 근거하여, 빛이 들어오는 방향에 대응되는 방향에 그림자가 표현되도록, 제1 이미지에 그림자 효과를 적용할 수 있을 것이다. 예를 들어, 센서부(460)의 감지 결과 빛이 디스플레이 장치의 제4 측면(624) 방향에서 들어오는 경우, 제1 이미지의 제4 측면(624)에 평행한 모서리에 그림자가 강하게 나타나도록 할 수 있을 것이다.
또한, 그림자 효과가 제1 이미지의 어느 모서리 측면에 적용되는지 여부는, 사용자가 입력한 광원에 대한 정보에 근거하여 결정될 수도 있을 것이다. 구체적으로, 사용자는 디스플레이 장치(400)의 주변 광원에 대한 정보, 예를 들어, 창문의 위치 정보, 형광등 및/또는 조명등과 같은 인공 광원의 위치 정보를 디스플레이 장치(400)로 입력할 수 있다.
구체적으로, 제어부(420)는 디스플레이 장치(400)가 위치하는 공간에 빛이 들어오는 적어도 하나의 창문에 대한 정보를 입력 받기 위한 사용자 인터페이스 화면이 출력되도록 제어할 수 있다. 그러면, 사용자는 창문에 대한 정보를 디스플레이 장치(400)로 입력할 수 있다. 디스플레이 장치(400)는 이러한 사용자 입력 정보 및 제1 거리에 근거하여, 디스플레이 장치는 제1 이미지의 4개의 모서리 면 중 어느 면에 그림자를 표시할 것인지 여부를 결정할 수 있다.
도 7은 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 화면의 일 예를 나타내는 도면이다.
도 7을 참조하면, 도 2a 및 도 2b 에 도시된 벽면인 영역(200)에 부착된 디스플레이 장치(210)가 도시된다. 그리고, 도 7을 참조하면, 디스플레이 장치(210)에서는 본 개시의 실시예에 따라서 그림자 효과가 적용된 제2 이미지(705)이 출력된다. 제2 이미지(705)에는 제1 거리에 근거하여 그림자 효과가 적용되어 있다. 구체적으로, 제2 이미지(705)의 네 모서리 면에 그림자(710)가 표시되어 있다.
또한, 제어부(420)는 도 7에 도시된 제2 이미지(705)에서와 같이, 제2 이미지(705)의 외곽으로 갈수록, 그림자의 색상 또는 어두운 정도를 진하게 할 수 있다.
도 8은 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 화면의 다른 예를 나타내는 도면이다. 도 8에 도시된 디스플레이 장치(800)는 도 4에 도시된 디스플레이 장치(400)에 동일 대응될 수 있다. 또한, 디스플레이 장치(800)는 화면(810) 상으로 제2 이미지를 디스플레이 할 수 있다.
본 개시의 실시예에 따른 디스플레이 장치는 액자 프레임의 두께가 제1 거리를 갖는 액자 프레임을 가정하고, 액자 프레임에 의해서 그림자가 생기는 것처럼 제2 이미지를 표현할 수 있다.
구체적으로, 제어부(420)는 제1 거리에 근거하여 가상 액자 프레임의 두께를 제1 두께로 결정하고, 제1 두께를 갖는 가상 액자 프레임 내에 제1 이미지를 표시하여 제2 이미지를 생성할 수 있다. 구체적으로, 제1 두께를 갖는 가상 액자 프레임으로 인하여 그림자가 생기는 것처럼, 제1 이미지 내에 그림자 효과를 적용할 수 있을 것이다.
또한, 가상 액자 프레임을 생성하는데 있어서, 두께를 제외한 액자 프레임의 형태, 예를 들어, 액자 프레임의 모양, 색상, 액자 프레임의 폭 등은 사용자의 설정 또는 디스플레이 장치(400)의 자체 설정에 따라서 달라질 수 있을 것이다.
또한, 가상 액자 프레임의 두께인 제1 두께는 제1 거리와 동일한 값 또는 비례하는 값이 될 수 있다.
구체적으로, 도 6a 및 도 6b에 도시된 바와 같이, 제1 거리(601)를 두께 값으로 갖는 액자 프레임(603, 604)을 가상으로 설정하고, 설정된 가상의 액자 프레임을 제2 이미지에 중첩하여 표시할 수 있다. 그리고, 디스플레이 장치(400)는 가상의 액자 프레임이 표시된 제2 이미지를 디스플레이(430)의 화면 상에 출력할 수 있다. 도 8에 있어서, 제1 두께(821)는 가상의 액자 프레임(820)이 화면(구체적으로, 제2 이미지(830)가 디스플레이 되는 평면)으로부터 올라와 있는 길이가 된다.
도 8을 참조하면, 디스플레이 장치(800)는 화면(810) 상으로, 가상의 액자 프레임(820)이 중첩적으로 표시된 제2 이미지(830)을 디스플레이 할 수 있다. 제2 이미지(830)에 표현되는 그림자(841, 842))는 액자 프레임(820) 쪽으로 갈수록 짙은 색으로 표현될 수 있다.
도 8에서는, 제1 모서리 면(831)에 대응되는 그림자(841) 및 제4 모서리 면(834)에 대응하여 그림자(842)가 표시되고, 제2 모서리 면(832) 및 제3 모서리 면(833)에는 그림자가 표시되지 않은 경우를 예로 들어 도시하였다.
가상의 액자 프레임을 제2 이미지에 중첩하여 표시하는 경우, 사용자는 제2 이미지에서 표현되는 그림자가 가상의 액자 프레임에 의해서 형성되는 것처럼 느낄 수 있다. 따라서, 디스플레이 장치(400)는 더욱 자연스럽게 표현된 그림자를 포함하는 제2 이미지를 디스플레이 할 수 있다.
도 9a는 본 개시의 실시예에 따른 디스플레이 장치에 포함되는 센서부를 설명하기 위한 일 도면이다.
도 9b는 본 개시의 실시예에 따른 디스플레이 장치에 포함되는 센서부를 설명하기 위한 다른 도면이다.
도 9a 및 도 9b에 도시된 디스플레이 장치(900)는 도 4에서 설명한 디스플레이 장치(900)에 동일 대응된다. 본 개시의 실시예에 있어서, 센서부(460)는 복수개의 조도 센서를 포함할 수 있다. 그리고, 복수개의 조도 센서로부터 감지된 빛의 강도(즉, 빛의 밝기) 및 빛의 방향 중 적어도 하나에 따라서, 제1 이미지에 적용되는 그림자 효과의 강도를 조절할 수 있다.
또한, 복수개의 조도 센서는 디스플레이 장치의 화면에 인접하는 복수개의 지점들에 배치될 수 있다.
도 9a를 참조하면, 디스플레이 장치(900)는 4개의 조도 센서를 포함할 수 있다. 그리고, 4개의 조도 센서는 제1 지점(911), 제2 지점(912), 제3 지점(913), 및 제4 지점(914) 상에 배치될 수 있다. 그에 따라서, 디스플레이 장치(900)는 화면(905)을 중심으로 하여 화면(905)의 사방에서 수신되는 빛의 방향 및 각 방향에서의 빛의 강도를 감지할 수 있다.
또한, 디스플레이 장치(900)는 두 개의 조도 센서를 포함할 수 있다. 일반적으로, 디스플레이 장치(900)를 통해 인가되는 빛은 창문을 통하여 인가되는 빛인 자연광, 천장 또는 벽면에 부착된 인공 광원, 예를 들어, 형광등 및/또는 조명등 등을 통하여 인가되는 빛인 인공 광이 포함될 수 있다. 따라서, 자연광 및 인공 광이 인가되는 방향을 감지하기 위해서는, 디스플레이 장치(900)의 좌측 및 우측에서 광원을 감지하여야 할 필요가 있다. 따라서, 디스플레이 장치(900)에 포함되는 두 개의 조도 센서는 제1 지점(911) 및 제3 지점(913)에 각각 배치될 수 있을 것이다.
도 9b를 참조하면, 디스플레이 장치(900)는 4개의 조도 센서를 포함할 수 있다. 그리고, 4개의 조도 센서는 제5 지점(931), 제6 지점(932), 제7 지점(933), 및 제8 지점(934) 상에 배치될 수 있다. 또한, 디스플레이 장치(900)가 두 개의 조도 센서를 포함하는 경우, 디스플레이 장치(900)에 포함되는 두 개의 조도 센서는 제5 지점(931) 및 제6 지점(923)에 각각 배치되거나, 제7 지점(933), 및 제8 지점(934)에 각각 배치될 수 있을 것이다.
구체적으로, 디스플레이 장치(400)는 센서부(460)의 감지 결과에 근거하여, 제1 이미지의 모서리 측면들 중 적어도 하나의 모서리 측면에 그림자가 표시되도록 그림자 효과를 적용할 수 있다. 센서부(460)에 포함되는 복수개의 조도 센서에서 감지된 빛의 방향 및 빛의 강도에 근거하여, 디스플레이 장치(400)는 제1 이미지의 4개의 모서리 측면들 중 어느 모서리 측면에 어느 정도 강도의 그림자를 표시할지 결정할 수 있다. 구체적으로, 제어부(420)는 제1 이미지의 4개의 모서리 측면들 중 어느 모서리 측면에 어느 정도 강도의 그림자를 표시할지 결정할 수 있다. 그리고, 제어부(420)는 결정된 바에 따라서 제1 이미지에 그림자 효과가 적용되도록 제어부(420)를 제어할 수 있다.
도 10a는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 화면의 다른 예를 나타내는 도면이다.
도 10b는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 화면의 다른 예를 나타내는 도면이다.
도 10a 및 도 10b에 도시된 화면들(1010, 1040)은 디스플레이 장치(400)의 디스플레이(430) 상으로 출력된다.
도 10a를 참조하면, 디스플레이 장치(400)로 빛을 인가하는 광원으로는 디스플레이 장치(400)의 상부에 배치되는 인공 광(1020)이 존재하는 경우를 예로 들어 도시하였다.
또한, 도 10a를 참조하면, 디스플레이 장치(400)는 광원의 방향이 디스플레이 장치(400)의 위쪽이므로, 화면(1005)의 상부 모서리에 대응되는 영역(1021)에 그림자를 표시할 수 있다. 또한, 상부 모서리에 가까워질수록, 즉, 광원의 방향에 가까워질수록 그림자의 색상을 진하게 표현할 수 있다.
도 10b를 참조하면, 디스플레이 장치(400)로 빛을 인가하는 광원으로는 디스플레이 장치(400)의 우측 상부에 배치되는 인공 광(1030)이 존재하는 경우를 예로 들어 도시하였다.
또한, 도 10b를 참조하면, 디스플레이 장치(400)는 광원의 방향이 디스플레이 장치(400)의 우측 상부이므로, 화면(1045)의 상부 모서리에 대응되는 영역(1042) 및 우측 모서리에 대응되는 영역(1043)에 그림자를 표시할 수 있다. 또한, 상부 모서리 및 우측 모서리에 가까워질수록, 즉, 광원의 방향에 가까워질수록 그림자의 색상을 진하게 표현할 수 있다.
또한, 디스플레이 장치(400)는 화면 출력 시간이 낮인지 밤인지에 따라서, 그림자 효과의 강도를 추가적으로 조절할 수 있을 것이다. 일반적으로, 낮에는 디스플레이 장치(400)로 창문 등을 통하여 빛이 많이 인가되며, 밤에는 디스플레이 장치(400)로 인가되는 빛이 줄어들게 된다. 따라서, 제어부(420)는 낮 시간 동안 출력되는 제2 이미지에서는 그림자가 좀 더 진하게 표현되도록 제어하고, 밤 시간 동안 출력되는 제2 이미지에서는 그림자가 좀 더 연하게 표현되도록 제어할 수 있다.
도 11는 디스플레이 패널이 곡률을 가지는 디스플레이 장치를 나타내는 도면이다.
도 11을 참조하면, 디스플레이 패널이 소정의 곡률을 가지는 디스플레이 장치(1100)가 벽면(1101) 상에 부착되는 형태로 배치되는 실시예를 도시한다. 즉, 디스플레이 장치(1100)는 커브드 디스플레이 장치(1100)이다. 디스플레이 장치(1100)는 도 4에 도시된 디스플레이 장치(400)에 동일 대응된다.
도 11을 참조하면, 디스플레이 장치(1100)의 중심부에서 디스플레이 장치(1100)의 끝 쪽으로 갈수록, 디스플레이 장치(1100)의 화면(1111)과 벽면(1101) 간의 거리가 증가하게 된다. 구체적으로, 디스플레이 장치(1100)의 중심부에서의 디스플레이 장치(1100)의 화면(1111)과 벽면(1101) 간의 거리는 월 마운트(1105)의 두께인 d11(1131)과 디스플레이 장치(1100)의 본체 두께(1132)의 합이 된다. 그리고, 디스플레이 장치(1100)의 끝지점(예를 들어, 1122)에서의 디스플레이 장치(1100)의 화면(1111)과 벽면(1101) 간의 거리는 월 마운트(1105)의 두께(d11)(1131)와 디스플레이 장치(1100)의 본체 두께(1132)의 합보다 큰 값인 d12(1130) 값이 된다.
본 개시의 실시예에서, 디스플레이 장치(400)가 벽면(1101)에서 멀리 떨어질수록 제1 거리의 값은 증가하게 된다. 그리고, 디스플레이 장치(400)는 제1 거리에 비례하는 그림자 효과의 강도를 설정할 수 있다. 따라서, 소정의 곡률을 가지는 디스플레이 패널을 포함하는 디스플레이 장치(1100)는 디스플레이 장치(1100)가 벽면(1101)에서 멀리 떨어지게 되는 디스플레이 화면(1111)의 좌 측면(1122) 및 우 측면(1121)에서 그림자 효과의 강도를 증가시킬 수 있다. 구체적으로, 제어부(420)는 제1 이미지에 있어서 디스플레이 화면(1111)의 좌 측면(1122) 및 우 측면(1121)에 대응되는 영역에 그림자를 더 넓게 표시할 수 있으며, 좀 더 진하게 그림자를 표시할 수 있을 것이다.
또한, 디스플레이 장치(400)가 커브드 디스플레이 장치(1100)인 경우, 디스플레이 화면(1111)의 좌 측면(1122) 및 우 측면(1121)에 대응되는 영역을 기준으로 획득될 수 있다. 즉, 도 11에 도시된 실시예에서 제1 거리는 d12(1130) 자체 또는 d12(1130)에 비례하는 값을 가질 수 있다.
또한, 디스플레이 장치(400)가 커브드 디스플레이 장치(1100)인 경우, 디스플레이 패널의 곡률에 근거하여, 제1 거리가 설정될 수도 있을 것이다. 예를 들어, 디스플레이 패널의 곡률이 클수록, 디스플레이 화면(1111)의 좌 측면(1122) 및 우 측면(1121)에 대응되는 영역이 벽면에서 더 멀어질 것이다. 따라서, 제어부(420)는 디스플레이 패널의 곡률에 비례하는 값으로 제1 거리 값을 설정할 수 있을 것이다.
참고로, 디스플레이 장치(400)에 자체적으로 저장되어 있는 제품 정보에 곡률 정보가 포함될 수 있다. 이 경우, 제어부(420)는 자체적으로 저장되어 있는 곡률 정보를 이용할 수 있다.
또한, 디스플레이 장치(400)는 통신부(410)를 통하여 디스플레이 패널의 곡률 값을 획득할 수 있다. 구체적으로, 디스플레이 장치(400)는 제품 모델, 시리얼 넘버, 제품 버전 정보 등과 같이 제품 정보를 저장하고 있을 수 있다. 디스플레이 장치(400)의 제어부(420)는 자체적으로 저장하고 있는 제품 사양에 대한 정보를 이용하여, 제1 거리가 획득되도록 제어할 수 있을 것이다. 예를 들어, 제어부(420)는 통신부(410)를 통하여 디스플레이 장치(400)의 서비스 센터 서버에 접속하고, 서비스 센터 서버로 제품 정보를 전송할 수 있다. 그러면, 서비스 센터 서버에서는 그에 대한 응답으로 디스플레이 장치(400)의 제품 정보에 맞는 곡률 정보를 디스플레이 장치(400)로 전송할 수 있을 것이다.
도 12는 본 개시의 실시예에 따른 디스플레이 장치가 인식하는 사람의 위치를 나타내는 도면이다. 디스플레이 장치(1200)는 도 4에 도시된 디스플레이 장치(400)에 동일 대응된다.
본 개시의 실시예에서, 디스플레이 장치(400)의 센서부(460)는 사용자의 위치를 감지하기 위한 센서(미도시)를 더 포함할 수 있다. 구체적으로, 센서부(460)는 사용자가 디스플레이 장치의 화면을 바라보는 시선의 위치, 예를 들어, 시선의 방향 및 높이 등을 감지할 수 있다.
구체적으로, 센서부(460)는 이미지 센서 및 적외선 센서 등과 같이, 사용자의 위치를 인식할 수 있는 적어도 하나의 센서를 더 포함할 수 있다. 구체적으로, 이미지 센서는 디스플레이 장치(1200)의 전면(1210)에 배치될 수 있으며, 디스플레이 장치(1200)의 전면의 이미지를 촬영할 수 있다. 그리고, 디스플레이 장치(1200)는 촬영된 이미지에서 객체인 사람을 인식하고, 인식된 객체의 위치를 사용자의 위치로 결정할 수 있을 것이다. 그리고, 적외선 센서는 디스플레이 장치(1200)의 전면에 존재하는 사용자에게서 발생하는 적외선을 감지할 수 있다. 그러면, 디스플레이 장치(1200)는 적외선 센서의 감지 결과에 근거하여, 사용자의 위치를 결정할 수 있을 것이다.
그러면, 제어부(420)는 사용자의 위치 및 제1 거리에 근거하여, 제1 이미지에 그림자 효과를 적용하여 제2 이미지를 생성할 수 있다. 여기서, 사용자의 위치는 사용자가 디스플레이 장치(400)의 화면을 바라보는 시선의 위치, 예를 들어, 시선의 방향 및 높이 등을 의미할 수 있다.
제어부(420)는 사용자의 위치 및 제1 거리에 근거하여, 제1 이미지에 적용되는 그림자 효과의 강도가 조절되도록 제어할 수 있을 것이다.
도 12에서는, 사용자(1252)가 디스플레이 장치(1200)의 전면 중앙에 위치하는 경우, 제1 이미지에 그림자 효과가 적용된 제2 이미지를 포함하는 화면(1220)이 도시된다. 사용자(1252)가 디스플레이 장치(1200)의 전면 중앙에 위치하는 경우, 제1 이미지에 적용되는 그림자는 화면의 사면에서 동일하게 나타날 수 있다. 즉, 화면(1220)에서 표시된 그림자(1230)와 같이, 화면(1220)의 네 측면 모서리에서 균일한 두께 및 균일한 강도로 그림자가 표시될 수 있다.
사용자(1251)가 디스플레이 장치(1200)의 좌측에 위치하는 경우, 사용자(1251)와 가까운 측면에 표시되는 그림자인 화면(1220)의 좌측 측면에 표시되는 그림자를 상대적으로 진하게 표시하고, 사용자(1253)와 멀리 있는 측면에 표시되는 그림자인 화면(1220)의 우측 측면에 표시되는 그림자를 상대적으로 연하게 표시할 수 있다.
반대로, 사용자(1253)가 디스플레이 장치(1200)의 우측에 위치하는 경우, 사용자(1253)와 가까운 측면에 표시되는 그림자인 화면(1220)의 우측 측면에 표시되는 그림자를 상대적으로 진하게 표시하고, 사용자(1253)와 멀리 있는 측면에 표시되는 그림자인 화면(1220)의 좌측 측면에 표시되는 그림자를 상대적으로 연하게 표시할 수 있다.
또한, 디스플레이 장치(1200)가 도 8에서 도시한 바와 같이, 가상의 액자 프레임을 포함하는 제2 이미지를 출력하는 경우, 사용자의 위치, 즉, 사용자의 시선의 위치에 따라서, 제2 이미지에서 가상의 액자 프레임으로 인하여 생기는 그림자의 위치, 크기, 진한 정도 등을 조절할 수 있다.
도 13은 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 사용자 인터페이스 화면의 일 예를 나타내는 도면이다.
본 개시의 실시예에서, 디스플레이 장치(400)는 제2 이미지에 대응되는 벽면 이미지를 외부적으로 입력 또는 설정받을 수 있다. 구체적으로, 디스플레이 장치(400)는 사용자로부터 벽면 이미지를 입력받을 수 있을 것이다.
도 13을 참조하면, 디스플레이(430)는 사용자 인터페이스 화면(1300)을 출력할 수 있다.
사용자 인터페이스 화면(1300)는 벽면 이미지를 입력 또는 설정 받기 위한 메뉴 창(1310)을 포함할 수 있다.
사용자는 벽면 이미지를 설정하기 위해서, 설정을 요청하는 키 메뉴(1311)를 선택할 수 있다. 벽면 이미지의 설정을 요청하는 키 메뉴(1311)가 입력되면, 디스플레이 장치(400)는 후속하여, 벽면 이미지를 전송 받기 위한 동작을 수행할 수 있다. 예를 들어, 'USB 포트를 통하여 벽면 이미지를 입력하여 주십시오'라는 메시지를 출력할 수 있다. 그러면, 사용자는 USB 포트를 통하여 벽면 이미지를 포함하는 비디오 데이터를 디스플레이 장치(400)로 입력할 수 있다. 또 다른 예로, '무선 네트워크를 활성화하여, 벽면 이미지를 전송하여 주십시오'라는 메시지를 출력할 수 있다. 그러면, 사용자는 디스플레이 장치(400)와 무선 네트워크를 통하여 연결되는 외부 장치(예를 들어, 사용자의 스마트 폰(미도시))의 와이파이 네트워크를 활성화시키고, 와이파이 네트워크를 통하여 디스플레이 장치(400)로 제1 이미지를 전송할 수 있다.
또한, 벽면 이미지의 설정을 요청하지 않는 키 메뉴(1312)가 입력되면, 디스플레이 장치(400)는 벽면 이미지 대신에, 명화에 대응되는 이미지, 풍경에 대응되는 이미지, 사진 이미지 등을 사용자에게 제공할 수 있을 것이다. 구체적으로, 디스플레이 장치(400)는 복수개의 명화를 선택할 수 있는 사용자 인터페이스 화면(미도시)를 디스플레이 할 수 있다. 그러면, 사용자는 사용자 인터페이스 화면(미도시) 상으로 어느 하나의 명화를 선택할 수 있다. 그러면, 디스플레이 장치(400)는 선택된 명화를 제1 이미지로 설정하고, 제1 이미지인 명화에 그림자 효과를 적용하여 제2 이미지를 생성할 수 있다. 그리고, 제2 이미지를 디스플레이 할 수 있을 것이다. 이 경우, 사용자는 디스플레이 장치(400)를 명화 액자처럼 이용할 수 있을 것이다.
도 14a 및 도 14b는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 사용자 인터페이스 화면의 다른 예들을 나타내는 도면이다.
제어부(420)는 제1 거리에 대한 정보를 입력 받기 위한 사용자 인터페이스 화면이 출력되도록 제어할 수 있다.
도 14a를 참조하면, 사용자 인터페이스 화면(1410)는 디스플레이 장치와 벽면 간의 거리인 제1 거리를 설정하기 위한 메뉴 창(1420)을 포함할 수 있다.
사용자는 사용자 인터페이스(450)를 통하여, 메뉴 창(1420)에 포함되는 선택 키들 중 적어도 하나를 선택할 수 있다.
구체적으로, 사용자는 메뉴 창(1420)의 '네' 키를 선택하여, 제1 거리의 설정을 계속 진행할 수 있다. 만약, 사용자가 메뉴 창(1420)의 '아니오' 키를 선택하면, 제1 거리의 설정 없이, 화면이 종료될 수 있다.
디스플레이 장치(400)는 사용자 인터페이스 화면(1410)에 후속하여 사용자 인터페이스 화면(1430)을 출력할 수 있다. 사용자 인터페이스 화면(1430)은 제1 거리를 자동 또는 수동으로 설정하기 위한 메뉴 창(1440)을 포함할 수 있다.
구체적으로, 사용자는 메뉴 창(1420)의 '입력' 키(1441)를 선택하여, 제1 거리의 수동 설정을 계속 진행할 수 있다.
또한, 사용자는 메뉴 창(1440)의 '자동 설정' 키(1442)를 선택하여, 제1 거리의 자동 설정을 계속 진행할 수 있다. 사용자가 '자동 설정' 키(1442)를 선택하면, 제어부(420)는 제1 거리가 자동적으로 측정 또는 획득되도록 제어할 수 있을 것이다. 예를 들어, 제어부(420)는 통신부(410)를 통하여 자동으로 디스플레이 장치(400)의 제조사 서비스 서버에 접속하여, 제1 거리에 대한 정보가 획득되도록 제어할 수 있다.
도 14b를 참조하면, 메뉴 창(1440)에서 '입력' 키(1441)가 선택되면, 디스플레이 장치(400)는 제1 거리를 수동으로 설정하기 위한 메뉴 창(1460)을 포함하는 사용자 인터페이스 화면(1450)을 출력할 수 있다.
구체적으로, 메뉴 창(1460)은 제1 거리의 상세 값을 입력하기 위한 메뉴(1462)를 포함할 수 있다. 또한, 메뉴 창(1460)은 제1 거리를 수동으로 설정함을 알리는 메시지(1461)를 더 포함할 수 있다. 또한, 메뉴 창(1460)은 기 설정되어 있는 제1 거리의 업데이트를 요청하는 키(1463)를 더 포함할 수 있다.
예를 들어, 사용자가 키(1463)를 선택하면, 디스플레이 장치(400)는 기존에 저장되어 있던 제1 거리 값을 삭제하고, 새로운 제1 거리 값을 입력 또는 설정받을 수 있을 것이다.
도 15는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 사용자 인터페이스 화면의 다른 예를 나타내는 도면이다.
도 15를 참조하면, 디스플레이 장치(400)는 제2 이미지 상에 중첩되어 표시되는 가상의 액자 프레임을 설정하기 위한 사용자 인터페이스 화면(1500)을 출력할 수 있다.
구체적으로, 제어부(420)는 제2 이미지에 표시되는 가상 액자 프레임의 색상 및 형태 중 적어도 하나를 설정하기 위한 사용자 인터페이스 화면(1500)이 출력되도록 제어할 수 있다. 사용자는 사용자 인터페이스(450)를 통하여, 가상 액자 프레임의 색상 및 형태 중 적어도 하나에 대한 정보를 디스플레이 장치(400)로 입력할 수 있다. 그리고, 제어부(420)는 사용자의 설정에 근거하여, 가상 액자 프레임의 색상 및 형태 중 적어도 하나를 결정할 수 있다.
도 15에 도시된 예를 참조하면, 사용자 인터페이스 화면(1500)은 가상 액자 프레임의 색상 및 형태 중 적어도 하나를 설정하기 위한 메뉴 창(1520)을 포함할 수 있다. 메뉴 창(1520)은 액자의 색상을 설정하기 위한 메뉴(1530) 및 액자의 두께(액자의 폭)를 설정하기 위한 메뉴(1540)를 포함할 수 있다.
가상 액자 프레임에 있어서, 디스플레이 장치(400)의 화면과 벽면 간의 깊이를 나타내는 두께 값, 예를 들어, 도 7에서 설명한 제1 두께 값은 도 7을 참조하여 설명한 바와 같이 1 거리와 동일한 값 또는 비례하는 값으로 설정되므로, 메뉴 창(1520)을 통하여 설정할 수 있는 값이 아니며, 디스플레이 장치(400)가 자체적으로 설정하게 된다.
또한, 화면(1500)은 메뉴 창(1520)을 통하여 선택된 사항이 반영된 가상 액자 프레임(1510)을 포함할 수 있다. 즉, 메뉴 창(1520)을 통하여 가상 액자 프레임의 형태를 설정하면, 제어부(420)는 설정된 가상 액자 프레임을 사용자가 미리 볼 수 있도록, 설정에 맞춰 생성된 가상 액자 프레임이 적용된 화면(1500)이 실시간으로 출력되도록 제어할 수 있다. 즉, 제어부(420)는 설정에 맞춰 생성되는 가상 액자 프레임의 미리보기 기능을 제공할 수 있다.
도 16a는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 화면의 다른 예를 나타내는 도면이다.
디스플레이 장치(400)는 제2 이미지(1600) 상에 가상의 시계를 나타내는 그래픽 이미지(1610)를 중첩하여 표시할 수 있다. 제2 이미지(1600)에 가상의 시계를 나타내는 그래픽 이미지(1610)가 중첩되어 표시되는 경우, 사용자는 벽면에 시계가 부착된 것과 같은 느낌을 받을 수 있다. 또한, 별도의 벽시계 없이도, 사용자에게 시간 정보를 제공할 수 있다.
구체적으로, 그래픽 이미지(1610)은 그림자가 나타난 시계의 모습을 나타낼 수 있다. 구체적으로, 그래픽 이미지(1610)은 제1 거리에 비례하는 두께를 갖는 시계 및 시계에 진 그림자의 모습이 포함될 수 있다. 이 경우, 제2 이미지는 디스플레이 장치(400)의 후면에 존재하는 벽면과 같은 깊이감을 갖는 것으로 표현되며, 가상의 시계는 제1 거리에 비례하는 두께를 가져서 벽면에서 튀어 나온 것처럼 표현될 수 있다.
도 16b는 본 개시의 실시예에 따른 디스플레이 장치에서 출력되는 사용자 인터페이스 화면의 다른 예를 나타내는 도면이다.
본 개시의 실시예에서, 제어부(420)는 제2 이미지(1600) 상에 중첩하여 표시되는 가상의 시계의 형태 및 가상의 시계에 적용되는 그림자 효과의 정도를 설정하기 위한 사용자 인터페이스 화면(1630)이 출력되도록 제어할 수 있다.
도 16b 를 참조하면, 사용자 인터페이스 화면(1630)은 가상의 시계의 선택하기 위한 메뉴(1651)를 포함하는 메뉴 창(1650)을 포함할 수 있다. 또한, 메뉴 창(1650)은 가상의 시계에 적용되는 그림자 효과의 정도를 설정하기 위한 메뉴(1652)를 더 포함할 수 있다. 여기서, 메뉴(1652)는 시계의 입체감 또는 깊이감을 조절하기 위해서, 그림자 효과의 정도를 조절하기 위한 메뉴가 될 수 있다.
예를 들어, 그림자 효과를 선택하기 위한 조절 키(1564)를 조절 바(1563)의 0 값에 가까운 값으로 이동 시키면 가상의 시계에 그림자가 거의 표시되지 않게 되며, 조절 키(1564)를 조절 바(1563)의 100 값에 가까운 값으로 이동 시키면 가상의 시계에 그림자가 더 넓은 영역에서 더 진하게 표시될 수 있다.
따라서, 사용자는 사용자 인터페이스 화면(1630)을 통하여, 자신이 가장 원하는 형태 및 자신이 가장 편하게 느껴지는 입체감을 갖도록 하는 가상의 시계가 제2 이미지 상에서 표시될 수 있도록 할 수 있다.
또한, 사용자가 메뉴 창(1650)을 통하여 가상의 시계를 선택하면, 제어부(420)는 선택 사항을 반영한 시계(1640)를 포함하는 화면(1630)이 실시간으로 출력되도록 제어할 수 있다.
도 17은 본 개시의 다른 실시예에 따른 디스플레이 장치를 나타내는 블록도이다.
도 17은 본 개시의 실시예에 따른 디스플레이 장치를 나타내는 블록도이다.
본 개시의 실시예에 따른 디스플레이 장치(1700)는 도 1 내지 도 16b를 참조하여 설명한 디스플레이 장치(예를 들어, 400)에 동일 대응될 수 있다. 따라서, 도 17에 도시된 디스플레이 장치(1700)를 설명하는데 있어서, 도 1 내지 도 16b에서와 중복되는 설명은 생략한다.
도 17을 참조하면, 디스플레이 장치(1700)는 비디오 처리부(1710), 디스플레이(1715), 오디오 처리부(1720), 오디오 출력부(1725), 전원부(1730), 튜너부(1740), 통신부(1750), 감지부(미도시), 입/출력부(1770), 제어부(1780), 메모리(1790)를 포함한다.
여기서, 17에 도시된 디스플레이 장치(1700)의 입/출력부(1770) 및 통신부(1750) 중 적어도 하나, 디스플레이(1715), 제어부(1780), 감지부(1760), 및 메모리(1790)는 각각 도 4에 도시된 디스플레이 장치(400)의 통신부(410), 디스플레이(430), 제어부(420), 센서부(460), 및 메모리(480)에 동일 대응된다. 따라서, 도 17에 도시된 디스플레이 장치(1700)를 설명하는데 있어서, 본 개시의 실시예에 따른 디스플레이 장치(400)의 설명과 중복되는 설명은 생략한다.
비디오 처리부(1710)는, 디스플레이 장치(1700)가 수신한 비디오 데이터에 대한 처리를 수행한다. 비디오 처리부(1710)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
제어부(1780)는 비디오 처리부(1710)에서 처리된 비디오 데이터에 대한 기록 요청을 수신하고, 비디오 데이터를 암호화하여 제어부(1780) 또는 메모리(1790)에 포함되는 메모리 장치(미도시), 예를 들어, RAM(미도시)에 기록되도록 제어할 수 있을 것이다.
디스플레이(1715)는 제어부(1780)의 제어에 의해 튜너부(1740)를 통해 수신된 방송 신호에 포함된 비디오를 화면에 표시한다. 또한, 디스플레이(1715)는 통신부(1750) 또는 입/출력부(1770)를 통해 입력되는 컨텐츠(예를 들어, 동이미지)를 표시할 수 있다.
또한, 디스플레이(1715)는 제어부(1780)의 제어에 의해 메모리(1790)에 저장된 이미지를 출력할 수 있다. 또한, 디스플레이(1715)는 음성 인식에 대응되는 음성 인식 태스크를 수행하기 위한 음성 UI(User Interface: 예를 들어, 음성 명령어 가이드를 포함하는) 또는 모션 인식에 대응되는 모션 인식 태스크를 수행하기 위한 모션 UI(예를 들어, 모션 인식을 위한 사용자 모션 가이드를 포함)를 표시할 수 있다.
오디오 처리부(1720)는 오디오 데이터에 대한 처리를 수행한다. 오디오 처리부(1720)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다. 한편, 오디오 처리부(1720)는 복수의 컨텐츠에 대응되는 오디오를 처리하기 위해 복수의 오디오 처리 모듈을 구비할 수 있다.
오디오 출력부(1725)는 제어부(1780)의 제어에 의해 튜너부(1740)를 통해 수신된 방송 신호에 포함된 오디오를 출력한다. 오디오 출력부(1725)는 통신부(1750) 또는 입/출력부(1770)를 통해 입력되는 오디오(예를 들어, 음성, 사운드)를 출력할 수 있다. 또한, 오디오 출력부(1725)는 제어부(1780)의 제어에 의해 메모리(1790)에 저장된 오디오를 출력할 수 있다. 오디오 출력부(1725)는 스피커(1726), 헤드폰 출력 단자(1727) 또는 S/PDIF(Sony/Philips Digital Interface: 출력 단자(1728) 중 적어도 하나를 포함할 수 있다. 오디오 출력부(1725)는 스피커(1726), 헤드폰 출력 단자(1727) 및 S/PDIF 출력 단자(1728)의 조합을 포함할 수 있다.
전원부(1730)는 제어부(1780)의 제어에 의해 디스플레이 장치(1700) 내부의 구성 요소들(1710 내지 1790)로 외부의 전원 소스에서부터 입력되는 전원을 공급한다. 또한, 전원부(1730)는 제어부(1780)의 제어에 의해 디스플레이 장치(1700) 내부에 위치하는 하나 또는 둘 이상의 배터리(미도시)에서부터 출력되는 전원을 내부의 구성 요소들(1710 내지 1790)에게 공급할 수 있다.
튜너부(1740)은 유선 또는 무선으로 수신되는 방송 신호를 증폭(amplification), 혼합(mixing), 공진(resonance)등을 통하여 많은 전파 성분 중에서 디스플레이 장치(1700)에서 수신하고자 하는 채널의 주파수만을 튜닝(tuning)시켜 선택할 수 있다. 방송 신호는 오디오(audio), 비디오(video) 및 부가 정보(예를 들어, EPG(Electronic Program Guide))를 포함한다.
튜너부(1740)은 사용자 입력(예를 들어, 외부의 제어 장치(미도시), 예를 들어, 원격 제어기(remote controller)로부터 수신되는 제어 신호, 예컨대, 채널 번호 입력, 채널의 업다운(up-down) 입력 및 EPG 화면에서 채널 입력)에 따라 채널 번호(예를 들어, 케이블 방송 506번)에 대응되는 주파수 대역에서 방송 신호를 수신할 수 있다.
튜너부(1740)은 지상파 방송, 케이블 방송, 위성 방송, 인터넷 방송 등과 같이 다양한 소스로부터 방송 신호를 수신할 수 있다. 튜너부(1740)은 아날로그 방송 또는 디지털 방송 등과 같은 소스로부터 방송 신호를 수신할 수 도 있다. 튜너부(1740)를 통해 수신된 방송 신호는 디코딩(decoding, 예를 들어, 오디오 디코딩, 비디오 디코딩 또는 부가 정보 디코딩)되어 오디오, 비디오 및/또는 부가 정보로 분리된다. 분리된 오디오, 비디오 및/또는 부가 정보는 제어부(1780)의 제어에 의해 메모리(1790)에 저장될 수 있다.
디스플레이 장치(1700)의 튜너부(1740)은 하나이거나 복수일 수 있다. 일 실시예에 따라서 튜너부(1740)가 복수개로 이루어지는 경우, 디스플레이(1715)에 제공되는 멀티윈도우 화면을 이루는 복수개의 윈도우에 복수개의 방송 신호를 출력할 수 있을 것이다.
튜너부(1740)은 디스플레이 장치(1700)와 일체형(all-in-one)으로 구현되거나 또는 디스플레이 장치(1700)와 전기적으로 연결되는 튜너부를 가지는 별개의 장치(예를 들어, 셋탑박스(set-top box, 미도시), 입/출력부(1770)에 연결되는 튜너부(미도시))로 구현될 수 있다.
통신부(1750)은 제어부(1780)의 제어에 의해 디스플레이 장치(1700)를 외부 장치(예를 들어, 오디오 장치 등)와 연결할 수 있다. 제어부는 통신부(1750)를 통해 연결된 외부 장치로 컨텐츠를 송/수신, 외부 장치에서부터 어플리케이션(application)을 다운로드 하거나 또는 웹 브라우징을 할 수 있다. 구체적으로, 통신부(1750)는 네트워크에 접속하여 외부 장치(미도시)에서 컨텐츠를 수신할 수 있다.
전술한 바와 같이 통신부(1750)는 근거리 통신 모듈(미도시), 유선 통신 모듈(미도시), 및 이동 통신 모듈(미도시) 중 적어도 하나를 포함할 수 있다.
도 8에서는 통신부(1750)가 무선 랜(1751), 블루투스(1752), 및 유선 이더넷(Ethernet, 153) 중 하나를 포함하는 경우를 예로 들어 도시하였다.
또한, 통신부(1750)은 무선랜(1751), 블루투스(1752), 및 유선 이더넷(Ethernet, 153)의 조합을 포함할 수 있다. 또한, 통신부(1750)는 제어부(1780)의 제어에 의해 제어 장치(미도시)의 제어 신호를 수신할 수 있다. 제어 신호는 블루투스 타입, RF 신호 타입 또는 와이파이 타입으로 구현될 수 있다.
통신부(1750)은 블루투스 외에 다른 근거리 통신(예를 들어, NFC(near field communication, 미도시), 별도의 BLE 모듈(bluetooth low energy, 미도시)을 더 포함할 수 있다.
감지부(미도시)는 사용자의 음성, 사용자의 이미지 또는 사용자의 인터랙션을 감지한다.
마이크(1761)는 사용자의 발화(utterance)된 음성을 수신한다. 마이크(1761)는 수신된 음성을 전기 신호로 변환하여 제어부(1780)로 출력할 수 있다. 사용자 음성은 예를 들어, 디스플레이 장치(1700)의 메뉴 또는 기능에 대응되는 음성을 포함할 수 있다. 예를 들어, 마이크(1761)의 인식 범위는 마이크(1761)에서부터 사용자 위치까지 4 m 이내를 권장하며, 마이크(1761)의 인식 범위는 사용자 목소리의 크기와 주변 환경(예를 들어, 스피커 소리, 주변 소음)에 대응하여 달라질 수 있다.
마이크(1761)는 디스플레이 장치(1700)와 일체형 또는 분리형으로 구현될 수 있다. 분리된 마이크(1761)는 통신부(1750) 또는 입/출력부(1770)를 통해 디스플레이 장치(1700)와 전기적으로 연결될 수 있다.
본 개시의 실시예에서 마이크(1761)는 사용자의 음성 이외에도, 음파 신호를 수신할 수 있다. 구체적으로, 마이크(1761)는 초음파 신호를 수신할 수 있다.
디스플레이 장치(1700)의 성능 및 구조에 따라 마이크(1761)가 제외될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
카메라부(1762)는 카메라 인식 범위에서 제스처를 포함하는 사용자의 모션에 대응되는 이미지(예를 들어, 연속되는 프레임)을 수신한다. 예를 들어, 카메라부(1762)의 인식 범위는 카메라부(1762)에서부터 사용자까지 0.1 ~ 5 m 이내 거리가 될 수 있다. 사용자 모션은 예를 들어, 사용자의 얼굴, 표정, 손, 주먹, 손가락과 같은 사용자의 신체 일부분 또는 사용자 일부분의 모션 등을 포함할 수 있다. 카메라부(1762)는 제어부(1780)의 제어에 따라 수신된 이미지를 전기 신호로 변환하여 제어부(1780)로 출력할 수 있다. 카메라부(1762)는 도 4에 도시된 카메라(440)에 대응될 수 있다.
제어부(1780)는 수신된 모션의 인식 결과를 이용하여 디스플레이 장치(1700)에 표시되는 메뉴를 선택하거나 모션 인식 결과에 대응되는 제어를 할 수 있다. 예를 들어, 채널 조정, 볼륨 조정, 지시자 이동을 포함할 수 있다.
카메라부(1762)는 렌즈(미도시) 및 이미지 센서(미도시)로 구성될 수 있다. 카메라부(1762)는 복수의 렌즈와 이미지 프로세싱을 이용하여 광학 줌(optical zoom) 또는 디지털 줌(digital zoom)을 지원할 수 있다. 카메라부(1762)의 인식 범위는 카메라의 각도 및 주변 환경 조건에 따라 다양하게 설정될 수 있다. 카메라부(1762)가 복수개의 카메라로 구성되는 경우, 복수의 카메라를 이용하여 3차원 정지 이미지 또는 3차원 모션을 수신할 수 있다.
카메라부(1762)는 디스플레이 장치(1700)와 일체형 또는 분리형으로 구현될 수 있다. 분리된 카메라부(1762)를 포함하는 별도의 장치(미도시)는 통신부(1750) 또는 입/출력부(1770)를 통해 디스플레이 장치(1700)와 전기적으로 연결될 수 있다.
본 개시의 실시예에서, 카메라부(1762)는 디스플레이 장치(1700)의 전면 이미지를 촬영하여 사용자의 위치 또는 사용자의 시선 위치를 감지할 수 있을 것이다.
디스플레이 장치(1700)의 성능 및 구조에 따라 카메라부(1762)가 제외될 수 있다는 것은 당해 기술 분야에서 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
광 수신부(1763)는 외부의 제어 장치(미도시)에서부터 수신되는 광 신호(제어 신호를 포함)를 디스플레이(1715)의 베젤의 광창(미도시) 등을 통해 수신한다. 광 수신부(1763)는 제어 장치(미도시)로부터 사용자 입력(예를 들어, 터치, 눌림, 터치 제스처, 음성, 또는 모션)에 대응되는 광 신호를 수신할 수 있다. 수신된 광 신호로부터 제어부(1780)의 제어에 의해 제어 신호가 추출될 수 있다.
예를 들어, 광 수신부(1763)는 제어 장치(미도시)의 포인팅 위치에 대응하는 신호를 수신하고 이를 제어부(1780)로 전송할 수 있다. 예를 들어, 디스플레이(1715)를 통하여 사용자로부터 데이터 또는 명령을 입력받기 위한 사용자 인터페이스 화면이 출력되었으며, 제어 장치(미도시)를 통하여 사용자가 데이터 또는 명령을 디스플레이 장치(1700)로 입력하고자 하는 경우, 광 수신부(1763)는 사용자가 제어 장치(미도시)에 마련된 터치 패드(미도시)에 손가락을 접촉한 상태에서 제어 장치(미도시)를 움직이면 이 제어 장치(미도시)의 움직임에 대응하는 신호를 수신하고 이를 제어부(1780)로 전송할 수 있다. 또한, 광 수신부(1763)는 제어 장치(미도시)에 마련된 특정한 버튼이 눌려졌음을 나타내는 신호를 수신하고 이를 제어부(1780)로 전송할 수 있다. 예를 들어 광수신부(1763)는 사용자가 제어 장치(미도시)에 버튼식으로 마련된 터치 패드(미도시)를 손가락으로 누르면, 이러한 버튼식 터치 패드(미도시)이 눌려졌다는 신호를 수신하고 이를 제어부(1780)로 전송할 수 있다. 예를 들어, 버튼식 터치 패드(미도시)가 눌려졌다는 신호는 아이템들 중의 하나를 선택하기 위한 신호로 이용할 수 있다.
입/출력부(1770)는 제어부(1780)의 제어에 의해 디스플레이 장치(1700)의 외부에서부터 비디오(예를 들어, 동영상 등), 오디오(예를 들어, 음성, 음악 등) 및 부가 정보(예를 들어, EPG 등) 등을 수신한다. 입/출력부(1770)는 HDMI 포트(High-Definition Multimedia Interface port, 1771), 컴포넌트 잭(component jack, 1772), PC 포트(PC port, 1773), 및 USB 포트(USB port, 1774) 중 하나를 포함할 수 있다. 입/출력부(1770)는 HDMI 포트(1771), 컴포넌트 잭(1772), PC 포트(1773), 및 USB 포트(1774)의 조합을 포함할 수 있다.
입/출력부(1770)의 구성 및 동작은 본 발명의 실시예에 따라 다양하게 구현될 수 있다는 것은 당해 기술 분야의 통상의 지식을 가진 자에게 용이하게 이해될 것이다.
제어부(1780)는 디스플레이 장치(1700)의 전반적인 동작 및 디스플레이 장치(1700)의 내부 구성요소들(미도시)사이의 신호 흐름을 제어하고, 데이터를 처리하는 기능을 수행한다. 제어부(1780)는 사용자의 입력이 있거나 기 설정되어 저장된 조건을 만족하는 경우, 제어부(1780)는 메모리(1790)에 저장된 OS(Operation System) 및 다양한 애플리케이션을 실행할 수 있다.
제어부(1780)는 디스플레이 장치(1700)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 디스플레이 장치(1700)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 RAM(미도시), 디스플레이 장치(1700)의 제어를 위한 제어 프로그램이 저장된 ROM(미도시) 및 프로세서(Processor)(미도시)를 포함할 수 있다.
본 개시의 실시예에서, 제어부(1780)는 제2 이미지가 생성 및 출력되기 위해서 필요한 제반 동작이 수행되도록 제어할 수 있다.
프로세서(미도시)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 미도시)를 포함할 수 있다. 프로세서(미도시)는 코어(core, 미도시)와 GPU(미도시)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서(미도시)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
또한, 프로세서(미도시)는 복수의 프로세서를 포함할 수 있다. 예를 들어, 프로세서(미도시)는 메인 프로세서(main processor, 미도시) 및 슬립 모드(sleep mode)에서 동작하는 서브 프로세서(sub processor, 미도시)로 구현될 수 있다.
그래픽 처리부(미도시)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부는 감지부(미도시)를 통해 감지된 사용자 인터랙션을 이용하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부는 연산부에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부에서 생성된 화면은 디스플레이(1715)의 디스플레이 영역 내에 표시된다.
도 18은 본 개시의 실시예에 따른 이미지 처리 방법을 나타내는 흐름도이다.
본 개시의 실시예에 따른 이미지 처리 방법(1800)은 디스플레이 장치에서 디스플레이될 이미지를 처리하는 방법이다. 이미지 처리 방법(1800)은 도 1 내지 도 17을 참조하여 설명한 본 개시의 실시예에 따른 디스플레이 장치(예를 들어, 400)에서 수행되는 동작 구성과 동일하다. 따라서, 본 개시의 실시예에 따른 이미지 처리 방법(1800)을 설명하는데 있어서, 도 1 내지 도 17에서와 중복되는 설명은 생략한다. 또한, 이하에서는, 도 4에 도시된 디스플레이 장치(400)를 참조하여, 이미지 처리 방법(1800)을 설명한다.
도 18을 참조하면, 이미지 처리 방법(1800)은 외부 장치(미도시)로부터 이미지를 수신한다(S1810). 구체적으로, 디스플레이 장치(400)의 후면에 위치하는 벽면을 촬영한 이미지인 제1 이미지를 획득한다(S1810). S1810 단계의 동작은 통신부(410)를 통하여 수행될 수 있다. 구체적으로, S1810 단계의 동작은 제어부(420)의 제어에 따라서 통신부(410)를 통하여 수행될 수 있다.
디스플레이 장치(400)의 전면과 벽면 사이의 거리에 대응하는 제1 거리에 대한 정보를 획득한다(S1820). S1820 단계의 동작은 제어부(420)의 제어에 따라서 수행될 수 있다. 또한, 제1 거리에 대한 정보는 사용자의 수동 설정, 제품 정보에 근거한 자동 획득 등 다양한 방법으로 획득될 수 있다.
제1 거리에 근거하여, 제1 이미지의 네 측면들 중 적어도 하나의 측면에 그림자가 나타나도록 제1 이미지에 그림자 효과를 적용하여 제2 이미지를 생성한다(S1830). 구체적으로, 외부 장치로부터 수신한 이미지를 디스플레이 장치(400)에 포함되는 디스플레이(430) 상에 출력할 때, 제1 거리에 근거하여 수신된 이미지인 제1 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 적용하여 제2 이미지를 생성할 수 있다. S1830 단계의 동작은 제어부(420)를 통하여 수행될 수 있다. 구체적으로, S1810 단계의 동작은 제어부(420)의 제어에 따라서 제어부(420)를 통하여 수행될 수 있다.
S1830 단계에서 생성된 이미지를 디스플레이 한다(S1840). 구체적으로, S1830 단계에서 생성된 제2 이미지를 디스플레이(430)를 통하여 디스플레이 한다(S1840). S1840 단계의 동작은 디스플레이(430)를 통하여 수행될 수 있다. 구체적으로, S1810 단계의 동작은 제어부(420)의 제어에 따라서 디스플레이(430)를 통하여 수행될 수 있다.
상술한 실시예는, 일부 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. 또한, 일부 실시예는 컴퓨터에 의해 실행되는 컴퓨터 프로그램과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램 또는 컴퓨터 프로그램 제품 (computer program product)으로도 구현될 수 있다.
본 개시에서 설명된 특정 실행들은 일 실시예 일 뿐이며, 어떠한 방법으로도 본 개시의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 및 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다.
400: 디스플레이 장치
410: 입력부
420: 제어부
430: 디스플레이
440: 제어부
450: 사용자 인터페이스
460: 센서부
470: 통신부
480: 메모리

Claims (20)

  1. 디스플레이 장치에 있어서,
    디스플레이;
    외부 장치와 통신을 수행하는 통신부;
    하나 이상의 인스트럭션을 포함하는 메모리; 및
    상기 메모리에 저장된 상기 하나 이상의 인스트럭션을 수행하는 프로세서를 적어도 하나 포함하는 제어부를 포함하고,
    상기 프로세서는
    이미지를 획득하고, 상기 디스플레이 장치의 전면과 상기 벽면 사이의 거리에 대응하는 제1 거리에 대한 정보를 획득하고, 상기 이미지를 상기 디스플레이에 출력할 때, 상기 제1 거리에 대한 정보에 근거하여 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과가 제공되도록 제어하는, 디스플레이 장치.
  2. 제1항에 있어서, 상기 프로세서는
    상기 제1 거리에 대한 정보에 근거하여, 상기 이미지 내에서 상기 그림자 효과가 적용되는 영역의 넓이, 및 상기 그림자 효과가 적용되는 영역 내에서의 그림자의 짙은 정도 중 적어도 하나를 조절하는 디스플레이 장치.
  3. 제1항에 있어서, 상기 프로세서는
    상기 디스플레이 장치의 후면에 위치하는 벽면의 깊이감에 대응되는 상기 이미지의 깊이감 표현이 생성되도록, 상기 그림자 효과의 강도를 조절하는, 디스플레이 장치.
  4. 제1항에 있어서,
    광원의 상태를 감지하는 센서부를 더 포함하며,
    상기 프로세서는
    상기 광원의 상태 및 상기 제1 거리에 근거하여, 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 제공하도록 제어하는, 디스플레이 장치.
  5. 제4항에 있어서,
    상기 센서부는
    광원의 세기 및 방향을 감지하는 복수개의 조도 센서를 포함하며,
    상기 프로세서는
    상기 제1 거리, 및 상기 광원으로부터의 빛의 강도 및 방향에 근거하여, 상기 이미지에 적용되는 상기 그림자 효과의 강도를 조절하는, 디스플레이 장치.
  6. 제1항에 있어서, 상기 프로세서는
    상기 제1 거리에 대한 정보에 근거하여 가상 액자 프레임의 두께를 제1 두께로 결정하고, 상기 제1 두께를 갖는 상기 가상 액자 프레임 내에 상기 그림자 효과를 적용하고, 상기 그림자 효과가 적용된 상기 이미지가 디스플레이 되도록 제어하는, 디스플레이 장치.
  7. 제6항에 있어서, 상기 프로세서는
    상기 제1 두께에 근거하여, 상기 이미지 내에서 상기 그림자 효과가 적용되는 영역의 넓이, 및 상기 그림자 효과가 적용되는 영역 내에서의 그림자의 짙은 정도 중 적어도 하나를 조절하는, 디스플레이 장치.
  8. 제6항에 있어서,
    사용자 인터페이스를 더 포함하며,
    상기 프로세서는
    상기 가상 액자 프레임의 색상 및 형태 중 적어도 하나를 설정하기 위한 사용자 인터페이스 화면이 출력되도록 제어하며,
    사용자로부터 상기 가상 액자 프레임의 색상 및 형태 중 적어도 하나에 대한 정보를 입력 받도록, 상기 사용자 인터페이스를 제어하며,
    상기 입력받은 정보에 따른 색상 및 형태를 가지는 상기 가상 액자 프레임 내에 상기 그림자 효과가 적용된 상기 이미지를 디스플레이 하는, 디스플레이 장치.
  9. 제1항에 있어서,
    소정 명령 또는 정보를 수신하는 사용자 인터페이스를 더 포함하며,
    상기 프로세서는
    상기 제1 거리에 대한 정보를 입력 받기 위한 사용자 인터페이스 화면이 출력되도록 제어하며, 사용자로부터 상기 제1 거리에 대한 정보를 입력 받도록, 상기 사용자 인터페이스를 제어하는, 디스플레이 장치.
  10. 제1항에 있어서,
    소정 명령 또는 정보를 수신하는 사용자 인터페이스를 더 포함하며,
    상기 프로세서는
    상기 디스플레이 장치가 위치하는 공간에 빛이 들어오도록 하는 적어도 하나의 창문에 대한 정보를 입력 받기 위한 사용자 인터페이스 화면이 출력되도록 제어하는, 디스플레이 장치.
  11. 제10항에 있어서, 상기 프로세서는
    상기 사용자 인터페이스를 통하여 수신하는 상기 적어도 하나의 창문에 대한 정보 및 상기 제1 거리에 대한 정보에 근거하여, 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 제공하도록 제어하는, 디스플레이 장치.
  12. 제1항에 있어서,
    사용자의 위치를 감지하는 적어도 하나의 센서를 더 포함하며,
    상기 프로세서는
    상기 사용자의 위치 및 상기 제1 거리에 대한 정보에 근거하여, 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 제공하도록 제어하는, 디스플레이 장치.
  13. 디스플레이 장치의 이미지 처리 방법에 있어서,
    이미지를 획득하는 단계;
    상기 디스플레이 장치의 전면과 벽면 사이의 거리에 대응하는 제1 거리에 대한 정보를 획득하는 단계;
    상기 이미지를 상기 디스플레이 장치에 포함되는 디스플레이 상에 출력할 때, 상기 제1 거리에 대한 정보에 근거하여 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 적용하는 단계; 및
    상기 그림자 효과가 적용된 이미지를 디스플레이 하는 단계를 포함하는, 이미지 처리 방법.
  14. 제13항에 있어서, 상기 그림자 효과를 적용하는 단계는
    상기 제1 거리에 대한 정보에 근거하여, 상기 이미지 내에서 상기 그림자 효과가 적용되는 영역의 넓이, 및 상기 그림자 효과가 적용되는 영역 내에서의 그림자의 짙은 정도 중 적어도 하나를 조절하는 단계를 포함하는, 이미지 처리 방법.
  15. 제13항에 있어서, 상기 그림자 효과를 적용하는 단계는
    상기 디스플레이 장치의 후면에 위치하는 벽면의 깊이감에 대응되는 상기 이미지의 깊이감 표현이 생성되도록, 상기 그림자 효과의 강도를 조절하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  16. 제13항에 있어서, 상기 그림자 효과를 적용하는 단계는
    상기 디스플레이 장치에 포함되는 복수개의 조도 센서들을 이용하여 감지된 광원의 상태 및 상기 제1 거리에 대한 정보에 근거하여, 상기 이미지의 네 측면들 중 적어도 하나의 측면에 상기 그림자 효과를 적용하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  17. 제13항에 있어서, 상기 그림자 효과를 적용하는 단계는
    상기 제1 거리에 대한 정보에 근거하여 가상 액자 프레임의 두께를 제1 두께로 결정하고,
    상기 제1 두께를 갖는 상기 가상 액자 프레임 내에 상기 그림자 효과를 적용하고,
    상기 그림자 효과가 적용된 상기 이미지를 표시하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  18. 제17항에 있어서,
    상기 가상 액자 프레임의 색상 및 형태 중 적어도 하나를 설정하기 위한 사용자 인터페이스 화면을 디스플레이하는 단계;
    상기 가상 액자 프레임의 색상 및 형태 중 적어도 하나에 대한 정보를 수신하는 단계; 및
    상기 수신받은 정보에 따른 색상 및 형태를 가지는 상기 가상 액자 프레임 내에 상기 그림자 효과가 적용된 상기 이미지를 디스플레이 하는 단계를 더 포함하는 것을 특징으로 하는 이미지 처리 방법.
  19. 제13항에 있어서, 상기 그림자 효과를 적용하는 단계는
    사용자의 위치를 감지하는 적어도 하나의 센서에 의해서 감지된 상기 사용자의 위치 및 상기 제1 거리에 대한 정보에 근거하여, 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 적용하는 단계를 포함하는 것을 특징으로 하는 이미지 처리 방법.
  20. 컴퓨터에 의해서 실행 가능한 명령어들을 포함하는 프로그램을 기록한 기록 매체에 있어서, 상기 프로그램은
    이미지를 획득하는 단계;
    디스플레이 장치의 전면과 벽면 사이의 거리에 대응하는 제1 거리에 대한 정보를 획득하는 단계;
    상기 이미지를 상기 디스플레이 장치에 포함되는 디스플레이 상에 출력할 때, 상기 제1 거리에 대한 정보에 근거하여 상기 이미지의 네 측면들 중 적어도 하나의 측면에 그림자 효과를 적용하는 단계; 및
    상기 그림자 효과가 적용된 이미지를 디스플레이 하는 단계를 포함하는 디스플레이 장치의 이미지 처리 방법,을 실행하기 위한 명령어들을 포함하는 프로그램인 것을 특징으로 하는 기록 매체.
KR1020170178540A 2017-12-22 2017-12-22 이미지 처리 방법 및 그에 따른 디스플레이 장치 KR102004991B1 (ko)

Priority Applications (7)

Application Number Priority Date Filing Date Title
KR1020170178540A KR102004991B1 (ko) 2017-12-22 2017-12-22 이미지 처리 방법 및 그에 따른 디스플레이 장치
US16/227,784 US10748260B2 (en) 2017-12-22 2018-12-20 Image processing method and display apparatus therefor providing shadow effect
EP18214831.2A EP3503083B1 (en) 2017-12-22 2018-12-20 Image processing method and display apparatus therefor
EP23183679.2A EP4242975A3 (en) 2017-12-22 2018-12-20 Image processing method and display apparatus therefor
PCT/KR2018/016440 WO2019125036A1 (en) 2017-12-22 2018-12-21 Image processing method and display apparatus therefor
CN201880082596.0A CN111567054B (zh) 2017-12-22 2018-12-21 图像处理方法及其显示装置
US16/944,635 US11107203B2 (en) 2017-12-22 2020-07-31 Image processing method and display apparatus therefor providing shadow effect

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170178540A KR102004991B1 (ko) 2017-12-22 2017-12-22 이미지 처리 방법 및 그에 따른 디스플레이 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190088523A Division KR102225399B1 (ko) 2019-07-22 2019-07-22 이미지 처리 방법 및 그에 따른 디스플레이 장치

Publications (2)

Publication Number Publication Date
KR20190076609A KR20190076609A (ko) 2019-07-02
KR102004991B1 true KR102004991B1 (ko) 2019-10-01

Family

ID=65013468

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170178540A KR102004991B1 (ko) 2017-12-22 2017-12-22 이미지 처리 방법 및 그에 따른 디스플레이 장치

Country Status (5)

Country Link
US (2) US10748260B2 (ko)
EP (2) EP4242975A3 (ko)
KR (1) KR102004991B1 (ko)
CN (1) CN111567054B (ko)
WO (1) WO2019125036A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109064910B (zh) * 2018-08-02 2020-07-14 苏州佳世达电通有限公司 一种显示系统及用于操作显示系统的方法
KR20210074880A (ko) * 2019-12-12 2021-06-22 삼성전자주식회사 디스플레이 장치 및 그 동작 방법
CN111246012B (zh) * 2020-01-06 2022-09-16 北京小米移动软件有限公司 应用界面显示方法、装置及存储介质
CN114356264B (zh) * 2021-12-30 2023-12-05 威创集团股份有限公司 一种信号生成方法、装置、设备及可读存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120069055A1 (en) 2010-09-22 2012-03-22 Nikon Corporation Image display apparatus

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6587596B1 (en) * 2000-04-28 2003-07-01 Shutterfly, Inc. System and method of cropping an image
US7379531B2 (en) * 2005-06-13 2008-05-27 Siemens Medical Solutions Health Services Corporation Beam therapy treatment user interface monitoring and recording system
JP4507281B2 (ja) 2006-03-30 2010-07-21 富士フイルム株式会社 画像表示装置、撮像装置および画像表示方法
US7880746B2 (en) * 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7973796B1 (en) 2006-05-25 2011-07-05 Art.Com, Inc. Natural framing system
WO2008011050A2 (en) * 2006-07-18 2008-01-24 The Trustees Of The University Of Pennsylvania Separation and contrast enhancement of overlapping cast shadow components and target detection in shadow using polarization
US20080143890A1 (en) * 2006-11-30 2008-06-19 Aris Displays, Inc. Digital picture frame device and system
KR20090075234A (ko) 2008-01-03 2009-07-08 주식회사 대우일렉트로닉스 인테리어 효과를 가지는 텔레비전
US7995216B2 (en) * 2008-07-02 2011-08-09 Ut-Battelle, Llc Control of the positional relationship between a sample collection instrument and a surface to be analyzed during a sampling procedure with image analysis
MX2011006732A (es) * 2008-12-23 2011-07-13 Koninkl Philips Electronics Nv Sistema de iluminacion ambiental para un dispositivo de presentacion y metodo para operar tal sistema de iluminacion ambiental.
KR101639244B1 (ko) * 2009-11-19 2016-07-13 삼성전자주식회사 외부 광을 이용한 렌더링 시스템 및 방법
JP5110098B2 (ja) * 2010-02-08 2012-12-26 カシオ計算機株式会社 表示処理装置、及び、プログラム
US20120169718A1 (en) * 2010-06-28 2012-07-05 Melvin Schindler Three dimensional display structure
US20130113701A1 (en) * 2011-04-28 2013-05-09 Taiji Sasaki Image generation device
US10019440B2 (en) * 2011-05-27 2018-07-10 Adobe Systems Incorporated Methods and apparatus for three-dimensional (3D) sketching
US20130100266A1 (en) * 2011-10-25 2013-04-25 Kenneth Edward Salsman Method and apparatus for determination of object topology
KR101873746B1 (ko) * 2011-12-09 2018-07-03 엘지전자 주식회사 이동 단말기 및 그 제어방법
EP2602703B1 (en) 2011-12-09 2018-02-07 LG Electronics Inc. -1- Mobile terminal and controlling method thereof
US9311751B2 (en) 2011-12-12 2016-04-12 Microsoft Technology Licensing, Llc Display of shadows via see-through display
US9693646B2 (en) * 2012-01-27 2017-07-04 Donnie Leo Brill Shadow projecting device
KR101882267B1 (ko) * 2012-02-15 2018-07-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
WO2014010251A1 (en) * 2012-07-13 2014-01-16 Panasonic Corporation Hand and object tracking in three-dimensional space
EP2741260A1 (en) 2012-12-06 2014-06-11 Volvo Car Corporation Method and user interface system for adapting a graphic visualization of a virtual element
AU2014200754A1 (en) 2013-03-08 2014-09-25 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
US9792724B2 (en) * 2013-03-14 2017-10-17 Robert Bosch Gmbh System and method for generation of shadow effects in three-dimensional graphics
CA2907306C (en) 2013-03-15 2021-10-19 Videri Inc. Systems and methods for displaying, distributing, viewing, and controlling digital art and imaging
US9342467B1 (en) * 2013-07-17 2016-05-17 Frederick Thomas McGrath Virtual window system
US9652892B2 (en) 2013-10-29 2017-05-16 Microsoft Technology Licensing, Llc Mixed reality spotlight
KR20150133898A (ko) * 2014-05-20 2015-12-01 삼성디스플레이 주식회사 창문 겸용 표시장치
KR102210633B1 (ko) * 2014-07-09 2021-02-02 엘지전자 주식회사 가상 오브젝트의 뎁스와 연계된 인정범위를 가진 디스플레이 디바이스 및 그 제어 방법
US20160019718A1 (en) * 2014-07-16 2016-01-21 Wipro Limited Method and system for providing visual feedback in a virtual reality environment
JP6613458B2 (ja) * 2014-12-25 2019-12-04 パナソニックIpマネジメント株式会社 投影装置
US20160188195A1 (en) * 2014-12-30 2016-06-30 Innova Electronics, Inc. Cellphone with projection capability
KR102354319B1 (ko) * 2015-01-30 2022-01-21 삼성전자주식회사 오브젝트를 표시하기 위한 방법 및 전자 장치
JP6496172B2 (ja) * 2015-03-31 2019-04-03 大和ハウス工業株式会社 映像表示システム及び映像表示方法
CN105101558B (zh) 2015-08-24 2018-06-22 京东方科技集团股份有限公司 一种壁挂式显示装置及其控制方法
KR102425445B1 (ko) 2015-12-22 2022-07-27 삼성전자주식회사 디스플레이 장치 및 이의 제어 방법
US10115372B2 (en) 2016-04-29 2018-10-30 Samsung Electronics Co., Ltd. Display apparatus and controlling method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120069055A1 (en) 2010-09-22 2012-03-22 Nikon Corporation Image display apparatus

Also Published As

Publication number Publication date
EP4242975A3 (en) 2023-10-25
US20200364836A1 (en) 2020-11-19
US11107203B2 (en) 2021-08-31
CN111567054A (zh) 2020-08-21
US20190197672A1 (en) 2019-06-27
CN111567054B (zh) 2022-05-24
KR20190076609A (ko) 2019-07-02
EP3503083A2 (en) 2019-06-26
EP3503083A3 (en) 2019-11-06
EP4242975A2 (en) 2023-09-13
EP3503083B1 (en) 2023-11-08
US10748260B2 (en) 2020-08-18
EP3503083C0 (en) 2023-11-08
WO2019125036A1 (en) 2019-06-27

Similar Documents

Publication Publication Date Title
KR102004991B1 (ko) 이미지 처리 방법 및 그에 따른 디스플레이 장치
US9557808B2 (en) Display apparatus and method for motion recognition thereof
KR102266901B1 (ko) 디스플레이 장치 및 디스플레이 방법
US11431909B2 (en) Electronic device and operation method thereof
KR102431712B1 (ko) 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품
KR102489505B1 (ko) 장치 정보 또는 환경 정보 중 적어도 하나에 기초하여 설정 값을 결정하는 전자 장치 및 그 제어 방법
EP3203728A1 (en) Display apparatus and display method
KR20170030988A (ko) 이동 단말기 및 이의 제어방법
KR20190137506A (ko) 영상 표시 장치 및 그 동작방법
US10609305B2 (en) Electronic apparatus and operating method thereof
KR102333931B1 (ko) 영상 투사 장치 및 그의 동작 방법
CN111869224B (zh) 电子装置及其操作方法
KR102225399B1 (ko) 이미지 처리 방법 및 그에 따른 디스플레이 장치
KR20210086103A (ko) 디스플레이 기기, 모바일 기기, 그에 따른 디스플레이 기기를 통해 수행되는 영상 통화 방법 및 그에 따른 모바일 기기를 통해 수행되는 영상 통화 방법
CN116610312A (zh) 界面布局方法、装置、设备、可读存储介质及程序产品
CN114610186A (zh) 书写轨迹显示方法、装置及存储介质
CN113170229A (zh) 显示装置、服务器、电子装置及其控制方法
KR20150097291A (ko) 영상표시장치 및 그것의 제어방법
KR20160077918A (ko) 프로젝터를 구비한 디스플레이 시스템 및 그의 제어 방법

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant