KR20240009810A - 영상 출력 장치 및 그 제어 방법 - Google Patents

영상 출력 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20240009810A
KR20240009810A KR1020220087184A KR20220087184A KR20240009810A KR 20240009810 A KR20240009810 A KR 20240009810A KR 1020220087184 A KR1020220087184 A KR 1020220087184A KR 20220087184 A KR20220087184 A KR 20220087184A KR 20240009810 A KR20240009810 A KR 20240009810A
Authority
KR
South Korea
Prior art keywords
image
output device
luminance
video
video output
Prior art date
Application number
KR1020220087184A
Other languages
English (en)
Inventor
정영훈
박재성
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220087184A priority Critical patent/KR20240009810A/ko
Priority to PCT/KR2023/007263 priority patent/WO2024014703A1/ko
Publication of KR20240009810A publication Critical patent/KR20240009810A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/643Hue control means, e.g. flesh tone control

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

영상 출력 장치가 개시된다. 영상 출력 장치는, 프로젝션부, 회로를 포함하는 통신 인터페이스 및 통신 인터페이스를 통해 수신된 입력 영상의 밝기 정보를 획득하고, 입력 영상과 동일한 영상을 수신하여 투사면으로 출력하는 타 영상 출력 장치와 통신을 수행하여 타 영상 출력 장치가 영상의 휘도를 조정하여 출력하는지 여부를 식별하고, 식별 결과에 따라 밝기 정보에 기초하여 입력 영상에 포함된 적어도 하나의 영역의 휘도를 조정하고, 휘도가 조정된 영상을 투사면에 출력하도록 프로젝션부를 제어하는 적어도 하나의 프로세서를 포함한다.

Description

영상 출력 장치 및 그 제어 방법 { IMAGE DISPLAY APPARATUS AND CONTROL METHOD THEREOF }
본 발명은 영상 출력 장치 및 그 제어 방법에 관한 것으로, 보다 상세하게는 타 영상 출력 장치와 통신을 수행하는 영상 출력 장치 및 그 제어 방법에 관한 것이다.
최근, 다양한 형태의 디스플레이 장치가 개발 및 보급되는 추세이다.
다양한 영상 디스플레이 환경에서, 하나의 디스플레이 장치만 이용하는 것이 아니라, 복수의 디스플레이 장치 특히, 복수의 프로젝터 장치 등을 이용하는 사례가 증가하고 있다.
복수의 프로젝터 장치를 이용하면, 영상의 크기를 증가시키거나, 영상의 최대 출력 휘도를 증가시키는 등 다양한 효과, 장점이 있으나, 영상의 휘도가 과도하게 증가하거나, 명암비, 다이내믹 레인지가 감소하는 등의 문제가 있다.
복수의 프로젝터 장치 각각이 출력한 영상이 중첩되어 제공되면, 영상의 휘도가 최대 출력 휘도가 증가하며, 입체감이 증가하는 등의 장점이 있으므로, 이러한 장점을 유지하면서도, 영상의 명암비와 다이내믹 레인지를 유지 또는 증가시키기 위한 방법에 대한 요구가 있어왔다.
본 개시는 상술한 필요성에 따른 것으로, 본 개시의 목적은 복수의 영상 출력 장치 간에 통신을 수행하여, 사용자에게 하나의 영상을 제공하는 영상 출력 장치 및 그 제어 방법을 제공함에 있다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 영상 출력 장치는, 프로젝션부, 회로를 포함하는 통신 인터페이스 및 상기 통신 인터페이스를 통해 수신된 입력 영상의 밝기 정보를 획득하고, 상기 입력 영상과 동일한 영상을 수신하여 투사면으로 출력하는 타 영상 출력 장치와 통신을 수행하여 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하는지 여부를 식별하고, 식별 결과에 따라 상기 밝기 정보에 기초하여 상기 입력 영상에 포함된 적어도 하나의 영역의 휘도를 조정하고, 상기 휘도가 조정된 영상을 상기 투사면에 출력하도록 상기 프로젝션부를 제어하는 적어도 하나의 프로세서를 포함한다.
여기서, 상기 적어도 하나의 프로세서는, 상기 밝기 정보 및 다이내믹 레인지(DR)을 확장하기 위한 톤 맵 커브(tone map curve)에 기초하여 상기 입력 영상에 포함된 복수의 영역 중 상대적으로 밝은 영역의 휘도가 증가되고 상대적으로 어두운 영역의 휘도가 감소된 상기 조정된 영상을 획득할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 입력 영상의 밝기 정보에 기초하여 상기 입력 영상에 대응되는 뎁스 맵(Depth Map), 오브젝트 맵(Object Map) 또는 샐리언시 맵(Saliency Map) 중 어느 하나를 획득하고, 상기 뎁스 맵 또는 상기 오브젝트 맵 중 어느 하나에 기초하여 상기 입력 영상에 포함된 복수의 오브젝트 별 거리 정보를 식별하고, 상기 복수의 오브젝트 중 상대적으로 근거리에 위치하는 제1 오브젝트에 대응되는 영역의 휘도를 증가시키고, 상기 복수의 오브젝트 중 상대적으로 원거리에 위치하는 제2 오브젝트에 대응되는 영역의 휘도를 감소시킬 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하는 것으로 식별되면, 상기 영상 출력 장치가 이용하는 톤 맵 커브, 상기 입력 영상에 대응되는 뎁스 맵 또는 오브젝트 맵 중 적어도 하나를 상기 타 영상 출력 장치로 전송할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 타 영상 출력 장치가 상기 영상을 출력하는 상기 투사면 상의 위치 정보가 수신되면, 상기 수신된 위치 정보에 기초하여 상기 조정된 영상을 상기 투사면의 대응되는 위치로 출력하도록 상기 프로젝션부를 제어할 수 있다.
또한, 센서를 더 포함하며, 상기 적어도 하나의 프로세서는, 상기 센서를 통해 상기 타 영상 출력 장치가 상기 영상을 출력하는 상기 투사면 상의 위치 정보를 획득하고, 상기 획득된 위치 정보에 기초하여 상기 조정된 영상을 상기 투사면의 대응되는 위치로 출력하도록 상기 프로젝션부를 제어할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 타 영상 출력 장치와 상기 영상 출력 장치 중 어느 하나를 마스터(Master)로 설정하고, 나머지 하나를 슬레이브(Slave)로 설정하며, 상기 타 영상 출력 장치가 상기 슬레이브로 설정되면, 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하도록 상기 타 영상 출력 장치로 제어 신호를 전송하고, 상기 입력 영상의 휘도를 조정하지 않고 상기 입력 영상을 출력하도록 상기 프로젝션부를 제어하고, 상기 타 영상 출력 장치가 상기 마스터로 설정되면, 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하지 않고 출력하도록 상기 타 영상 출력 장치로 제어 신호를 전송하고, 상기 입력 영상의 휘도를 조정하고 상기 조정된 입력 영상을 출력하도록 상기 프로젝션부를 제어할 수 있다.
또한, 상기 적어도 하나의 프로세서는, 상기 입력 영상에 포함된 복수의 오브젝트 중 사용자 선택에 대응되는 적어도 하나의 오브젝트를 식별하며, 상기 식별된 적어도 하나의 오브젝트에 대응되는 영역의 휘도를 증가시키고, 나머지 영역의 휘도를 감소시켜 상기 조정된 영상을 획득할 수 있다.
또한, 상기 영상 출력 장치가 출력하는 투사 화면 및 상기 타 영상 출력 장치가 출력하는 투사 화면은 상기 투사면의 동일한 위치에 오버레이(Overlay)될 수 있다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 영상 출력 장치의 제어 방법은, 입력 영상의 밝기 정보를 획득하는 단계, 상기 입력 영상과 동일한 영상을 수신하여 투사면으로 출력하는 타 영상 출력 장치와 통신을 수행하여 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하는지 여부를 식별하는 단계, 식별 결과에 따라 상기 밝기 정보에 기초하여 상기 입력 영상에 포함된 적어도 하나의 영역의 휘도를 조정하는 단계 및 상기 휘도가 조정된 영상을 상기 투사면에 출력하는 단계를 포함한다.
여기서, 상기 조정하는 단계는, 상기 밝기 정보 및 다이내믹 레인지(DR)을 확장하기 위한 톤 맵 커브(tone map curve)에 기초하여 상기 입력 영상에 포함된 복수의 영역 중 상대적으로 밝은 영역의 휘도가 증가되고 상대적으로 어두운 영역의 휘도가 감소된 상기 조정된 영상을 획득하는 단계를 포함할 수 있다.
또한, 상기 조정하는 단계는, 상기 입력 영상의 밝기 정보에 기초하여 상기 입력 영상에 대응되는 뎁스 맵(Depth Map) 오브젝트 맵(Object Map) 또는 샐리언시 맵(Saliency Map) 중 어느 하나를 획득하는 단계, 상기 뎁스 맵 또는 상기 오브젝트 맵 중 어느 하나에 기초하여 상기 입력 영상에 포함된 복수의 오브젝트 별 거리 정보를 식별하는 단계, 상기 복수의 오브젝트 중 상대적으로 근거리에 위치하는 제1 오브젝트에 대응되는 영역의 휘도를 증가시키는 단계 및 상기 복수의 오브젝트 중 상대적으로 원거리에 위치하는 제2 오브젝트에 대응되는 영역의 휘도를 감소시키는 단계를 포함할 수 있다.
또한, 상기 제어 방법은, 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하는 것으로 식별되면, 상기 영상 출력 장치가 이용하는 톤 맵 커브, 상기 입력 영상에 대응되는 뎁스 맵 또는 오브젝트 맵 중 적어도 하나를 상기 타 영상 출력 장치로 전송하는 단계를 더 포함할 수 있다.
또한, 상기 출력하는 단계는, 상기 타 영상 출력 장치가 상기 영상을 출력하는 상기 투사면 상의 위치 정보가 수신되면, 상기 수신된 위치 정보에 기초하여 상기 조정된 영상을 상기 투사면의 대응되는 위치로 출력하는 단계를 포함할 수 있다.
또한, 상기 영상 출력 장치는, 센서를 포함하며, 상기 제어 방법은, 상기 센서를 통해 상기 타 영상 출력 장치가 상기 영상을 출력하는 상기 투사면 상의 위치 정보를 획득하는 단계를 더 포함하며, 상기 출력하는 단계는, 상기 획득된 위치 정보에 기초하여 상기 조정된 영상을 상기 투사면의 대응되는 위치로 출력할 수 있다.
또한, 상기 제어 방법은, 상기 타 영상 출력 장치와 상기 영상 출력 장치 중 어느 하나를 마스터(Master)로 설정하고, 나머지 하나를 슬레이브(Slave)로 설정하는 단계, 상기 타 영상 출력 장치가 상기 슬레이브로 설정되면, 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하도록 상기 타 영상 출력 장치로 제어 신호를 전송하며, 상기 입력 영상의 휘도를 조정하지 않고 상기 입력 영상을 출력하는 단계 및 상기 타 영상 출력 장치가 상기 마스터로 설정되면, 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하지 않고 출력하도록 상기 타 영상 출력 장치로 제어 신호를 전송하며, 상기 입력 영상의 휘도를 조정하고 상기 조정된 입력 영상을 출력하는 단계를 더 포함할 수 있다.
또한, 상기 제어 방법은, 상기 입력 영상에 포함된 복수의 오브젝트 중 사용자 선택에 대응되는 적어도 하나의 오브젝트를 식별하는 단계를 더 포함하며, 상기 조정하는 단계는, 상기 식별된 적어도 하나의 오브젝트에 대응되는 영역의 휘도를 증가시키고, 나머지 영역의 휘도를 감소시켜 상기 조정된 영상을 획득하는 단계를 포함할 수 있다.
또한, 상기 영상 출력 장치가 출력하는 투사 화면 및 상기 타 영상 출력 장치가 출력하는 투사 화면은 상기 투사면의 동일한 위치에 오버레이(Overlay)될 수 있다.
본 개시의 다양한 실시 예들에 따르면, 복수의 영상 출력 장치를 이용하여 영상을 제공할 수 있으며, 영상의 최대 출력 휘도를 증가시켜 시인성이 개선된 영상을 제공할 수 있다는 기술적 효과가 있다.
본 개시의 다양한 실시 예들에 따르면, 영상의 최대 출력 휘도를 증가시켜 시인성, 몰입감, 입체감 등을 증가시키면서, 동시에 명암비와 다이내믹 레인지를 증가시킬 수 있다.
도 1은 본 개시의 일 실시 예에 따른 영상 출력 장치 및 타 영상 출력 장치의 동작을 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 영상 출력 장치의 구성을 설명하기 위한 블록도이다.
도 3은 종래 기술에 따라 오버레이(Overlay) 방식으로 제공되는 영상을 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 뎁스 맵(Depth Map)을 이용하는 영상 출력 장치를 설명하기 위한 도면이다.
도 5는 본 개시의 다른 실시 예에 따른 뎁스 맵을 이용하는 영상 출력 장치를 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 돌출 맵(Saliency Map)을 이용하는 영상 출력 장치를 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 톤 맵 커브(Tone Map Curve)를 이용하는 영상 출력 장치를 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따라 오버레이(Overlay) 방식으로 제공되는 영상을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 영상 출력 장치의 세부 구성을 설명하기 위한 상세 블록도이다.
도 10은 본 개시의 일 실시 예에 따른 디스플레이 장치의 제어 방법을 설명하기 위한 흐름도이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 본 개시의 일 실시 예에 따른 영상 출력 장치 및 타 영상 출력 장치의 동작을 설명하기 위한 도면이다.
도 1을 참조하면, 영상 출력 장치(100) 및 타 영상 출력 장치(200) 각각은 영상을 출력하는 다양한 형태의 장치가 될 수 있다.
특히, 영상 출력 장치(100) 및 타 영상 출력 장치(200) 각각은 벽 또는 스크린으로 영상을 확대하여 투사하는 프로젝터 장치로 구현될 수 있으며, 프로젝터 장치는 LCD 프로젝터 또는 DMD(digital micromirror device)를 사용하는 DLP(digital light processing) 방식 프로젝터일 수 있다.
본 개시의 다양한 실시 예에 따라 영상 출력 장치(100) 및 타 영상 출력 장치(200)는 동일한 장치일 수도 있으며, 동일하지 않은 장치일 수도 있음은 물론이다.
예를 들어, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각의 사양, 제원(Specification)이 동일할 수 있다. 일 예로, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각의 밝기 단위(안시 루멘(ANSI-Lumens) 단위, LED루멘 단위 등), 명암비, 해상도 등이 동일할 수 있다. 다만, 이는 일 예시이며, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각의 사양, 제원이 동일하지 않을 수도 있음은 물론이다.
본 개시의 일 실시 예에 따른 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각은 영상을 투사하는 프로젝터 장치(또는, 프로젝터 디스플레이)로 구현될 수 있으나, 이에 한정되는 것은 아니며, TV, 비디오 월(video wall), LFD(large format display), Digital Signage(디지털 간판), DID(Digital Information Display) 등과 같이 다양한 형태의 디스플레이 장치로 구현 가능하다.
여기서, 디스플레이 장치는 LCD(liquid crystal display), OLED(organic light-emitting diode), LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing), QD(quantum dot) 디스플레이 패널, QLED(quantum dot light-emitting diodes), μLED(Micro light-emitting diodes), Mini LED 등과 같은 다양한 형태의 디스플레이를 구비할 수 있다.
또한, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각은 가정용 또는 산업용 디스플레이 장치일 수 있으며, 또는, 일상 생활에서 쓰이는 조명 장치일 수 있으며, 음향 모듈을 포함하는 음향 장치일 수 있으며, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 웨어러블 장치, 또는 가전 장치 등으로 구현될 수 있다.
한편, 본 개시의 일 실시 예에 따른 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각은 상술한 기기에 한정되지 않으며, 영상 출력 장치(100)는 상술한 기기들의 둘 이상의 기능을 갖춘 영상 출력 장치(100)로 구현될 수 있다. 예를 들면, 영상 출력 장치(100)는 프로세서의 조작에 따라 프로젝터 기능은 오프되고 조명 기능 또는 스피커 기능은 온되어 디스플레이 장치, 조명 장치 또는 음향 장치로 활용될 수 있으며, 마이크 또는 통신 장치를 포함하여 AI 스피커로 활용될 수 있다.
본 개시의 일 실시 예에 따라 영상 출력 장치(100)와 타 영상 출력 장치(200)가 결합되어 하나의 영상을 제공할 수 있다. 예를 들어, 영상 출력 장치(100)가 출력하는 영상(이하, 제1 영상)과 타 영상 출력 장치(200)가 출력하는 영상(이하, 제2 영상)이 서로 중첩(오버레이(Overlay))되어 하나의 영상(이하, 제3 영상)을 구성할 수 있다(이하, 오버레이 방식).
다른 예로, 영상 출력 장치(100)가 출력하는 영상(즉, 제1 영상)과 타 영상 출력 장치(200)가 출력하는 영상(즉, 제2 영상)이 배열(예를 들어, 영상 출력 장치(100)가 출력하는 영상과 타 영상 출력 장치(200)가 출력하는 영상 중 어느 하나가 좌측에 위치하고 나머지 하나가 우측에 위치하거나, 영상 출력 장치(100)가 출력하는 영상과 타 영상 출력 장치(200)가 출력하는 영상 중 어느 하나가 상측에 위치하고 나머지 하나가 하측에 위치)되어 하나의 영상을 구성할 수 있다(이하, 어레이(Array) 방식).
일 실시 예에 따라 오버레이 방식은, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각이 출력하는 영상(즉, 제1 영상과 제2 영상)이 중첩되어 제3 영상을 구성하므로, 영상의 밝기(또는, 휘도))가 증가할 수 있다.
다른 실시 예에 따라 어레이 방식은, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각이 출력하는 영상이 배열되어 하나의 영상을 구성하므로, 영상의 크기 또는 영상의 해상도가 증가할 수 있다.
본 개시의 다양한 실시 예에 따른 영상 출력 장치(100)는 오버레이 방식에 따라 영상을 제공하는 경우, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각이 출력하는 영상(즉, 제1 영상과 제2 영상)이 중첩되어 형성된 제3 영상의 암부(예를 들어, 저 계조, 저 휘도 영역)가 원본 영상(또는, 영상 출력 장치(100)로 입력된 영상)의 암부 대비 과도하게 밝아지는 것을 방지하고(암부의 휘도 증가 제한), 제3 영상의 명부(예를 들어, 고 계조, 고 휘도 영역)가 원본 영상의 명부 대비 밝아지도록(명부의 휘도 증가) 원본 영상의 휘도를 조정하여 출력할 수 있다.
도 2는 본 개시의 일 실시 예에 따른 영상 출력 장치의 구성을 설명하기 위한 블록도이다.
도 2에 따르면, 영상 출력 장치(100)는 프로젝션부(110), 통신 인터페이스(120) 및 적어도 하나의 프로세서(130)를 포함한다.
일 실시 예에 따른 프로젝션부(110)는 영상 출력 장치(100)가 출력하고자 하는 영상을 투사면에 출력할 수 있다. 일 실시 예에 따른 프로젝션부(110)는 프로젝션 렌즈(미도시)를 포함할 수 있다.
여기서, 프로젝션 렌즈는 영상 출력 장치(100)의 본체의 일 면에 형성되며, 렌즈 어레이를 통과한 광을 본체의 외부로 투사하도록 형성된다. 다양한 실시 예의 프로젝션 렌즈는 색수차를 줄이기 위하여 저분산 코팅된 광학 렌즈일 수 있다. 프로젝션 렌즈는 볼록 렌즈 또는 집광 렌즈일 수 있으며, 일 실시 예의 프로젝션 렌즈는 복수의 서브 렌즈의 위치를 조정하여 초점을 조절할 수 있다.
프로젝션부(110)는 영상을 투사면에 출력하는 기능을 수행할 수 있다. 여기서, 투사면은 이미지가 출력되는 물리적 공간의 일부이거나 별도의 스크린일 수 있다. 한편, 프로젝션부(110)의 구성은 상술한 예에 한정되지 않으며, 영상 출력 장치(100)는 다양한 방법을 이용하여 영상을 투사면에 출력할 수 있다.
본 개시의 일 실시 예에 따른 통신 인터페이스(120)는 다양한 형태의 외부 장치(예를 들어, 영상 제공 장치, 디스플레이 장치), 외부 서버 등과 통신을 수행하여 다양한 유형의 데이터, 정보를 입력받는다.
예를 들어, 통신 인터페이스(120)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), 선더볼트(ThunderboltTM), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식/통신 규격을 통해 영상 제공 장치(예를 들어, 소스 장치 등), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어, 클라우드 서버, 웹 하드) 등으로부터 다양한 유형의 데이터, 정보 등을 입력받을 수 있다.
특히, 본 개시의 일 실시 예에 따른 통신 인터페이스(120)는 영상 출력 장치(100)에 인접한 타 영상 출력 장치(200)(예를 들어, 프로젝터 장치)와 통신을 수행할 수 있다. 예를 들어, 통신 인터페이스(120)는 프로세서(130)의 제어에 따라 영상 출력 장치(100)에 인접한 타 영상 출력 장치(200)를 자동으로 감지할 수 있으며, 감지된 타 영상 출력 장치(200)와 통신을 수행할 수 있다.
다른 예로, 통신 인터페이스(120)는 프로세서(130)의 제어에 따라 영상 출력 장치(100)에 인접한 적어도 하나의 타 영상 출력 장치(200)를 포함하는 리스트(List)를 획득할 수 있으며, 리스트에서 타 영상 출력 장치(200)가 선택되면, 선택된 타 영상 출력 장치(200)와 통신을 수행할 수 있다.
적어도 하나의 프로세서(130)는 메모리(미도시)와 전기적으로 연결되며, 영상 출력 장치(100)의 전반적인 동작을 제어한다.
본 개시의 일 실시 예에 따라, 프로세서(130)는 디지털 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서, AI(Artificial Intelligence) 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(130)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다. 프로세서(130)는 메모리에 저장된 컴퓨터 실행가능 명령어(computer executable instructions)를 실행함으로써 다양한 기능을 수행할 수 있다.
우선, 본 개시의 일 실시 예에 따른 프로세서(130)는 통신 인터페이스(120)를 통해 입력 영상이 수신되면, 입력 영상의 밝기 정보를 획득할 수 있다.
여기서, 밝기 정보는, 입력 영상에 포함된 복수의 픽셀 각각의 계조 값, 복수의 픽셀 각각의 계조 값에 대응되는 출력 휘도를 포함할 수 있다.
적어도 하나의 프로세서(130)는 입력 영상과 동일한 영상을 수신하여 투사면으로 출력하는 타 영상 출력 장치(200)와 통신을 수행하여, 타 영상 출력 장치(200)가 영상의 휘도를 조정하여 출력하는지 여부를 식별할 수 있다.
이어서, 프로세서(130)는 식별 결과에 따라 밝기 정보에 기초하여 입력 영상에 포함된 적어도 하나의 영역의 휘도를 조정할 수 있다. 이어서, 프로세서(130)는 휘도가 조정된 영상을 투사면에 출력하도록 프로젝션부(110)를 제어할 수 있다.
이에 대한 구체적인 설명은 도 3 및 도 4를 참조하여 하도록한다.
도 3은 종래 기술에 따라 오버레이(Overlay) 방식으로 제공되는 영상을 설명하기 위한 도면이다.
오버레이 방식에 따르면, 영상 출력 장치(100)는 투사면으로 제1 화면(10)을 출력하며, 타 영상 출력 장치(200)도 투사면으로 제2 화면(20)을 출력할 수 있다. 여기서, 영상 출력 장치(100)가 화면을 출력하는 위치(이하, 제1 투사면)와 타 영상 출력 장치(200)가 화면을 출력하는 위치(이하, 제2 투사면)가 동일할 수 있다.
제1 투사면과 제2 투사면이 동일하므로, 영상 출력 장치(100)가 출력하는 제1 화면(10)과 타 영상 출력 장치(200)가 출력하는 제2 화면(20)은 서로 중첩(오버레이(Overlay))되어 제3 영상(30)을 구성할 수 있다.
한편, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각이 프로젝터 장치로 구현되면, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각은 고유의 안시 루멘(ANSI-Lumens)을 가질 수 있다.
하기 표 1과 같이 사용 환경에 따라 권장 휘도 범위(또는, 권장 밝기 범위)가 존재한다.
사용 환경 안시 루멘
밤 시간대 400 안시 이하
어둡지만, 조명이 있는 실내 400 내지 1,500 안시
커튼있는 낮 시간대 1,500 내지 3,000 안시
밝은 낮 시간대 3,000 안시 이상
일 실시 예에 따라, 영상 출력 장치(100)의 안시 루멘이 권장 휘도 범위를 만족하지 못하여도, 도 3에 도시된 바와 같이 오버레이 방식으로 영상 출력 장치(100)(예를 들어, Projector 1)와 타 영상 출력 장치(200)(예를 들어, Projector 2)가 동일한 위치로 영상을 출력하면, 영상 출력 장치(100)로부터 출력된 광량과 타 영상 출력 장치(200)로부터 출력된 광량이 중첩되므로, 영상 출력 장치(100)와 타 영상 출력 장치(200)는 권장 휘도 범위를 만족하는 제3 영상(30)을 제공할 수 있다. 여기서, 제3 영상의 픽셀 별 광량은, 제1 영상의 픽셀 별 광량과 제2 영상의 픽셀 별 광량의 중첩이다(즉, 제1 영상(10) + 제2 영상(20) = 제3 영상(30)).
다만, 종래의 오버레이 방법에 따라 중첩되어 형성된 제3 영상(30)은 입력 영상(또는, 원본 영상) 대비 명부 영역(예를 들어, 화이트 영역, 고 계조 영역, 고 휘도 영역 등)의 휘도 및 암부 영역(예를 들어, 블랙 영역, 저 계조 영역, 저 휘도 영역 등)의 휘도가 모두 증대(도 3의 화살표 참조)되므로, 사용자에게 제공되는 제3 영상(30)의 명암비, 깊이감(Depthness) 및 다이내믹 레인지(Dynamic range)가 감소하는 문제가 있었다.
도 4는 본 개시의 일 실시 예에 따른 뎁스 맵(Depth Map)을 이용하는 영상 출력 장치를 설명하기 위한 도면이다.
도 4를 참조하면, 영상 출력 장치(100)에 구비된 적어도 하나의 프로세서(130)는 입력 영상(1)의 밝기 정보에 기초하여 입력 영상(1)에 대응되는 뎁스 맵(Depth Map)(2) 또는 오브젝트 맵(Object Map) 중 어느 하나를 획득할 수 있다.
여기서, 뎁스 맵(2)은, 입력 영상(1) 내에서 관찰 시점(viewpoint)로부터 영역 별 또는 픽셀 별 거리와 관련된 정보를 포함하는 이미지 또는 이미지 채널을 의미할 수 있다. 오브젝트 맵은, 입력 영상(1) 내에서 복수의 오브젝트, 기 정의된 오브젝트, 임계 값 이상의 우선 순위를 가지는 메인 오브젝트 등의 형태, 모양을 나타내는 이미지 또는 이미지 채널을 의미할 수 있다.
일 실시 예에 따라 적어도 하나의 프로세서(130)는 뎁스 맵(2) 또는 오브젝트 맵 중 어느 하나에 기초하여 입력 영상(1)에 포함된 복수의 오브젝트 별 거리 정보를 식별할 수 있다.
이어서, 프로세서(130)는 복수의 오브젝트 중 상대적으로 근거리에 위치하는 제1 오브젝트에 대응되는 영역의 휘도를 증가시키고, 상대적으로 원거리에 위치하는 제2 오브젝트에 대응되는 영역의 휘도를 감소시켜 입력 영상(1)에 포함된 적어도 하나의 영역의 휘도를 조정할 수 있다.
일 실시 예에 따라 프로세서(130)는 근거리 오브젝트(거리 정보에 따라 관찰 시점으로부터 상대적으로 근거리에 위치하는 오브젝트)의 휘도는 증가시키고, 원거리 오브젝트(거리 정보에 따라 관찰 시점으로부터 상대적으로 원거리에 위치하는 오브젝트)의 휘도는 감소시킬 수 있다.
이어서, 프로세서(130)는 휘도가 조정된 영상을 투사면에 출력하도록 프로젝션부(110)를 제어할 수 있다.
일 실시 예에 따라 영상 출력 장치(100)가 출력하는 제1 화면(10)은, 휘도가 조정된 영상을 의미할 수 있다. 일 실시 에에 따라 타 영상 출력 장치(200)가 출력하는 제2 화면(20)은, 휘도가 조정되지 않은 영상을 의미할 수 있다.
영상 출력 장치(100)가 출력하는 제1 화면(10)과 타 영상 출력 장치(200)가 출력하는 제2 화면(20)이 중첩되어 형성된 제3 영상(30)은 하기의 수학식 1로 표현할 수 있다.
[수학식 1]
Ioverlay(x,y) = Ioriginal(x,y) + Ioriginal(x,y)*2D Region Map(x,y)
여기서, (x,y)는 픽셀 좌표, Ioverlay는 제3 영상(30), Ioriginal은 입력 영상(또는, 원본 영상)을 의미할 수 있다. 2D Region Map은 Depth Map, Object Map, Saliency Mask 등을 포함할 수 있다. 상술한 설명에서 영상 출력 장치(100)가 휘도가 조정된 영상을 출력하고, 타 영상 출력 장치(200)가 휘도가 조정되지 않은 영상을 출력하므로, Ioriginal(x,y)* 2D Region Map(x,y)가 제1 화면(10)을 의미하며, Ioriginal(x,y)이 제2 화면(20)을 의미할 수 있다.
한편, 상술한 설명의 반대도 가능하다. 도 4에 도시된 바와 같이, 영상 출력 장치(100)가 휘도가 조정되지 않은 영상을 출력하고, 타 영상 출력 장치(200)가 휘도가 조정된 영상을 출력할 수도 있음은 물론이다. 이 경우, 수학식 1에서 Ioriginal(x,y)은 제1 화면(10)을 의미하고, Ioriginal(x,y)*2D Region Map(x,y)는 제2 화면(20)을 의미할 수 있다.
도 4를 참조하면, 타 영상 출력 장치(200)가 휘도가 조정된 영상(즉, 제2 화면(20))을 출력하므로 제1 화면(10)과 제2 화면(20)이 중첩되어 형성된 제3 영상(30) 내에서 오브젝트(예를 들어, 인물, 사물 등)에 대응되는 영역의 휘도는 증가되며, 나머지 영역(예를 들어, 배경 등)의 휘도는 감소되거나 증가가 제한될 수 있다.
한편, 본 개시의 일 실시 예에 따라, 영상 출력 장치(100)와 타 영상 출력 장치(200)는 서로 통신을 수행하여, 영상 출력 장치(100)와 타 영상 출력 장치(200) 중 어느 하나가 휘도가 조정된 영상을 출력하고, 나머지 하나가 휘도가 조정되지 않은 영상을 출력할 수 있다.
예를 들어, 영상 출력 장치(100)에 구비된 적어도 하나의 프로세서(130)는 통신 인터페이스(120)를 통해 타 영상 출력 장치(200)와 통신을 수행하여, 영상 출력 장치(100)와 타 영상 출력 장치(200) 중 어느 하나를 마스터(Master)로 설정하고, 나머지 하나를 슬레이브(Slave)로 설정할 수 있다.
일 예로, 영상 출력 장치(100)는 타 영상 출력 장치(200)로부터 식별 정보를 수신하며, 영상 출력 장치(100)의 식별 정보와 타 영상 출력 장치(200)의 식별 정보를 비교하고, 비교 결과에 기초하여 어느 하나를 마스터(Master)로 설정하고, 나머지 하나를 슬레이브(Slave)로 설정할 수 있다. 예를 들어, 프로세서(130)는 영상 출력 장치(100)의 식별 정보와 타 영상 출력 장치(200)의 식별 정보를 비교하여, 영상 출력 장치(100)가 타 영상 출력 장치(200)보다 상대적으로 높은 밝기의 영상 출력이 가능하면, 영상 출력 장치(100)를 마스터로 설정하고, 타 영상 출력 장치(200)를 슬레이브로 설정할 수 있다. 여기서, 식별 정보는, 장치를 구성하는 구성 요소의 사양, 제원(예를 들어, 밝기(안시 루멘), 명암비, 해상도 등)을 의미할 수 있다. 다만, 이는 일 예시이며 이에 한정되지 않음은 물론이다.
예를 들어, 적어도 하나의 프로세서(130)는 통신 인터페이스(120)를 통해 타 영상 출력 장치(200)와 통신을 수행하여, 임의로(randomly) 영상 출력 장치(100)와 타 영상 출력 장치(200) 중 어느 하나를 마스터(Master)로 설정하고, 나머지 하나를 슬레이브(Slave)로 설정할 수도 있음은 물론이다.
이어서, 적어도 하나의 프로세서(130)는 타 영상 출력 장치(200)가 슬레이브로 설정되면, 타 영상 출력 장치(200)가 영상의 휘도를 조정하여 출력하도록 타 영상 출력 장치로 제어 신호를 전송할 수 있고, 입력 영상(1)의 휘도를 조정하지 않고 입력 영상(1)을 출력하도록 프로젝션부(110)를 제어할 수 있다.
다른 예로, 적어도 하나의 프로세서(130)는 타 영상 출력 장치(200)가 마스터로 설정되면, 타 영상 출력 장치(200)가 영상의 휘도를 조정하지 않고 출력하도록 타 영상 출력 장치(200)로 제어 신호를 전송할 수 있고, 입력 영상(1)의 휘도를 조정한 후, 조정된 입력 영상을 출력하도록 프로젝션부(110)를 제어할 수 있다.
도 5는 본 개시의 다른 실시 예에 따른 뎁스 맵을 이용하는 영상 출력 장치를 설명하기 위한 도면이다.
도 5를 참조하면, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각이 입력 영상(1)의 휘도를 조정하고, 휘도가 조정된 영상을 출력할 수도 있다.
일 예로, 영상 출력 장치(100)에 구비된 적어도 하나의 프로세서(130)는 뎁스 맵(2) 또는 오브젝트 맵 중 어느 하나에 기초하여 입력 영상(1)에 포함된 복수의 오브젝트 중 상대적으로 근거리에 위치하는 제1 오브젝트에 대응되는 영역의 휘도를 증가시키고, 상대적으로 원거리에 위치하는 제2 오브젝트에 대응되는 영역의 휘도는 감소시켜 휘도가 조정된 영상 즉, 제1 영상(10)을 획득할 수 있다. 이어서, 적어도 하나의 프로세서(130)는 휘도가 조정된 영상을 투사면에 출력하도록 프로젝션부(110)를 제어할 수 있다.
또한, 타 영상 출력 장치(200)는 뎁스 맵(2) 또는 오브젝트 맵 중 어느 하나에 기초하여 영상(1)에 포함된 복수의 오브젝트 중 상대적으로 근거리에 위치하는 제1 오브젝트에 대응되는 영역의 휘도를 증가시키고, 상대적으로 원거리에 위치하는 제2 오브젝트에 대응되는 영역의 휘도는 감소시켜 휘도가 조정된 영상 즉, 제2 영상(20)을 획득할 수 있다. 이어서, 타 영상 출력 장치(200)는 휘도가 조정된 영상을 투사면에 출력할 수 있다.
여기서, 영상 출력 장치(100)가 이용하는 뎁스 맵(2)(또는, 오브젝트 맵)은, 타 영상 출력 장치(200)가 이용하는 뎁스 맵(2)(또는, 오브젝트 맵)과 동일할 수도 있고, 상이할 수도 있다.
예를 들어, 영상 출력 장치(100)는 타 영상 출력 장치(200)가 영상의 휘도를 조정하여 출력하는 것으로 식별되면, 입력 영상(1)에 대응되는 뎁스 맵(2) 또는 오브젝트 맵을 타 영상 출력 장치(200)로 전송하거나, 타 영상 출력 장치(200)로부터 뎁스 맵(2) 또는 오브젝트 맵을 수신할 수 있다.
이어서, 제1 화면(10)과 제2 화면(20)이 중첩되어 형성된 제3 영상(30) 내에서 명부의 휘도는 입력 영상(1)(또는, 원본 영상)의 휘도 대비 증가하였으며, 암부의 휘도는 입력 영상(1)의 휘도 대비 증가하더라도, 도 3에 도시된 바와 같이 과도하게 증가하지 않았으므로(휘도의 증가가 제한됨), 제3 영상(30)의 명암비, 깊이감 및 다이내믹 레인지(DR)이 증가할 수 있다.
도 5에 도시된, 영상 출력 장치(100)가 출력하는 제1 화면(10)과 타 영상 출력 장치(200)가 출력하는 제2 화면(20)이 중첩되어 형성된 제3 영상(30)은 하기의 수학식 2로 표현할 수 있다.
[수학식 2]
Ioverlay(x,y) = Alpha*Ioriginal(x,y)*2D Region Map(x,y) + Beta*Ioriginal(x,y)*2D Region Map(x,y)
여기서, (x,y)는 픽셀 좌표, Ioverlay는 제3 영상(30), Ioriginal은 입력 영상(또는, 원본 영상)을 의미할 수 있다. 2D Region Map은 Depth Map, Object Map, Saliency Mask 등을 포함할 수 있다. 상술한 설명에서 영상 출력 장치(100)가 휘도가 조정된 영상에 Alpha의 가중치를 적용하고, 타 영상 출력 장치(200)가 휘도가 조정된 영상에 Beta의 가중치를 적용하므로 Alpha*Ioriginal(x,y)*2D Region Map(x,y)은 제1 화면(10)을 의미하며, Beta*Ioriginal(x,y)*2D Region Map(x,y)은 제2 화면(20)을 의미할 수 있다.
여기서, Alpha 및 Beta 가중치 각각은 0 내지 1의 값을 가지며, 동일한 값일 수도 있고 상이한 값일 수도 있다.
일 실시 예에 따라, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각은, 광원(밝기(안시 루멘))의 차이, 2D Region Map의 차이에 기초하여 Alpha 및 Beta 가중치를 획득할 수 있다.
도 6은 본 개시의 일 실시 예에 따른 돌출 맵(Saliency Map)을 이용하는 영상 출력 장치를 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 적어도 하나의 프로세서(130)는 입력 영상(1)에 포함된 복수의 오브젝트 중 사용자 선택에 대응되는 적어도 하나의 오브젝트를 식별할 수 있다.
이어서, 프로세서(130)는 식별된 적어도 하나의 오브젝트에 대응되는 영역의 휘도를 증가시키고, 나머지 영역의 휘도를 감소시켜 휘도가 조정된 영상을 획득할 수 있다.
구체적으로, 적어도 하나의 프로세서(130)는 입력 영상(1)으로부터 돌출 맵, 샐리언시 맵(Saliency Map)(또는, Saliency Mask)를 획득할 수 있다.
이어서, 적어도 하나의 프로세서(130)는 입력 영상(1)에 포함된 복수의 오브젝트 중 사용자 선택에 대응되는 적어도 하나의 오브젝트를 식별할 수 있다. 이어서, 적어도 하나의 프로세서(130)는 돌출 맵(샐리언시 맵(Saliency Map))에 기초하여, 식별된 적어도 하나의 오브젝트에 대응되는 영역(이하, 관심 영역)의 휘도를 증가시키고, 나머지 영역의 휘도를 감소시킬 수 있다.
다른 예로, 적어도 하나의 프로세서(130)는 입력 영상에서 관심 영역만을 출력하고 나머지 영역은 출력하지 않을 수도 있다.
도 6을 참조하면, 제1 화면(10)과 제2 화면(20)이 중첩되어 형성된 제3 영상(30) 내에서 관심 영역의 휘도는 입력 영상(1)(또는, 원본 영상)의 휘도 대비 증가하였으며, 나머지 영역의 휘도는 입력 영상(1)의 휘도 대비 증가하더라도, 도 3에 도시된 바와 같이 과도하게 증가하지 않았으므로(휘도의 증가가 제한됨), 제3 영상(30)에서 관심 영역의 시인성이 강화되는 효과(Highlight 효과와 유사)가 있다.
영상 출력 장치(100)가 출력하는 제1 화면(10)과 타 영상 출력 장치(200)가 출력하는 제2 화면(20)이 중첩되어 형성된 제3 영상(30)은 하기의 수학식 3으로 표현할 수 있다.
[수학식 3]
Ioverlay(x,y) = Ioriginal(x,y) + Ioriginal(x,y)*2D Region Map(x,y)
여기서, (x,y)는 픽셀 좌표, Ioverlay는 제3 영상(30), Ioriginal은 입력 영상(또는, 원본 영상)을 의미할 수 있다. 2D Region Map은 Depth Map, Object Map, Saliency Mask 등을 포함할 수 있다. 상술한 설명에서 영상 출력 장치(100)가 관심 영역의 휘도가 증가된 영상을 출력하고, 타 영상 출력 장치(200)가 영상을 그대로 출력하므로, Ioriginal(x,y)* 2D Region Map(x,y)가 제1 화면(10)을 의미하며, Ioriginal(x,y)이 제2 화면(20)을 의미할 수 있다.
한편, 상술한 설명의 반대도 가능하다. 도 6에 도시된 바와 같이, 영상 출력 장치(100)가 입력 영상을 그대로 출력하고, 타 영상 출력 장치(200)가 관심 영역의 휘도가 증가된 영상을 출력할 수도 있음은 물론이다. 이 경우, 수학식 3에서 Ioriginal(x,y)은 제1 화면(10)을 의미하고, Ioriginal(x,y)*2D Region Map(x,y)는 제2 화면(20)을 의미할 수 있다.
도 7은 본 개시의 일 실시 예에 따른 톤 맵 커브(Tone Map Curve)를 이용하는 영상 출력 장치를 설명하기 위한 도면이다.
본 개시의 일 실시 예에 따른 적어도 하나의 프로세서(130)는 입력 영상(1)의 밝기 정보 및 다이내믹 레인지(DR)을 확장하기 위한 톤 맵 커브(tone map curve)에 기초하여 입력 영상(1)에 포함된 복수의 영역 중 상대적으로 밝은 영역(예를 들어, 고 계조, 고 휘도)의 휘도가 증가되고 상대적으로 어두운 영역(예를 들어, 저 계조, 저 휘도)의 휘도가 감소된 조정된 영상을 획득할 수 있다.
본 개시의 일 실시 예에 따른 적어도 하나의 프로세서(130)는 톤 맵 커브(tone map curve)에 기초하여 입력 영상(1)에 포함된 복수의 픽셀 각각의 픽셀 값에 톤 매핑을 수행할 수 있다.
이어서, 적어도 하나의 프로세서(130)는 톤 매핑에 따라 휘도가 조정된 영상을 획득할 수 있다. 여기서, 휘도가 조정된 영상의 암부의 휘도는 입력 영상(1)의 암부(예를 들어, 저 계조, 블랙 영역)의 휘도로 유지될 수 있고, 휘도가 조정된 영상의 명부의 휘도는 입력 영상(1)의 명부(예를 들어, 중 계고, 고 계조 영역 등)의 휘도 보다 증가할 수 있다. 따라서, 휘도가 조정된 영상의 다이내믹 레인지(DR)은 입력 영상(1)의 다이내믹 레인지보다 증가하며, 명암비, 깊이감도 증가할 수 있다.
도 7에 도시된 바와 같이, 영상 출력 장치(100)가 휘도가 조정된 영상 즉, 제1 영상(10)을 출력하고, 타 영상 출력 장치(200)도 휘도가 조정된 영상 즉, 제2 영상(20)을 출력하므로, 제3 영상(30)을 제공할 수 있다.
여기서, 제3 영상은 하기의 수학식 3으로 표현할 수 있다.
[수학식 4]
Ioverlay(x,y) = Alpha*Tone Map Curve 1(Ioriginal(x,y)) + Beta*Tone Map Curve 2(Ioriginal(x,y))
여기서, (x,y)는 픽셀 좌표, Ioverlay는 제3 영상(30), Ioriginal은 입력 영상(또는, 원본 영상)을 의미할 수 있다. Tone Map Curve 1은 영상 출력 장치(100)가 톤 매핑에 이용하는 Tone Map Curve이며, Tone Map Curve 2는 타 영상 출력 장치(200)가 톤 매핑에 이용하는 Tone Map Curve 일 수 있다. 상술한 설명에서 영상 출력 장치(100)가 휘도가 조정된 영상에 Alpha의 가중치를 적용하고, 타 영상 출력 장치(200)가 휘도가 조정된 영상에 Beta의 가중치를 적용하므로 Alpha*Tone Map Curve 1(Ioriginal(x,y))은 제1 화면(10)을 의미하며, Beta*Tone Map Curve 2(Ioriginal(x,y))은 제2 화면(20)을 의미할 수 있다.
여기서, Alpha 및 Beta 가중치 각각은 0 내지 1의 값을 가지며, 동일한 값일 수도 있고 상이한 값일 수도 있다.
일 실시 예에 따라, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각은, 광원(밝기(안시 루멘))의 차이, Tone Map Curve의 차이에 기초하여 Alpha 및 Beta 가중치를 획득할 수 있다.
한편, Tone Map Curve 1과 Tone Map Curve 2는 동일할 수도 있고, 상이할 수도 있다. 예를 들어, 영상 출력 장치(100)와 타 영상 출력 장치(200)는 Tone Map Curve를 공유하며, 톤 매핑에 동일한 Tone Map Curve를 이용할 수 있다. 다른 예로, 영상 출력 장치(100)와 타 영상 출력 장치(200) 각각은 톤 매핑에 기 저장된 서로 다른 Tone Map Curve를 이용할 수도 있음은 물론이다.
도 8은 본 개시의 일 실시 예에 따라 오버레이(Overlay) 방식으로 제공되는 영상을 설명하기 위한 도면이다.
도 8의 상측을 참조하면, 하나의 프로젝터 장치가 영상을 출력하면, 프로젝터 장치의 밝기에 따라 제공 가능한 영상의 최대 밝기가 제한될 우려가 있다.
예를 들어, 프로젝터 장치의 최대 밝기(예를 들어, 안시 루멘)이 400루멘이고, 프로젝터 장치의 주변 환경이 밝은 낮, 실외이면, 프로젝터 장치가 제공하는 영상의 휘도가 권장 휘도 범위 미만이므로 사용자 관점에서 다소 어둡게 느껴지거나, 시안성이 떨어지는 문제가 있다.
오버레이 방식으로 영상 출력 장치(100)가 출력하는 제1 영상(10)과 타 영상 출력 장치(200)가 출력하는 제2 영상(20)이 중첩되어 형성된 제3 영상(30)은 영상 출력 장치(100)가 출력 가능한 최대 광량과 타 영상 출력 장치(200)가 출력 가능한 최대 광량의 합만큼의 광량으로 제공 가능하므로, 주변 환경이 밝은 낮, 실외일 때에도, 시안성(visibility)이 유지되는 효과가 있다.
다만, 입력 영상(1) 내에서 상대적으로 어두운 영역에 대응되는 제3 화면(30) 내의 일 영역의 휘도가 증가하므로, 제3 화면(30)의 다이내믹 레인지, 명암비 등이 감소하는 문제가 있었다.
본 개시의 다양한 실시 예에 따르면, 영상 출력 장치(100) 또는 타 영상 출력 장치(200) 중 적어도 하나는 입력 영상(1)에 포함된 적어도 하나의 영역의 휘도를 조정하며, 휘도가 조정된 영상을 투사면으로 출력하므로, 제3 영상(30)의 다이내믹 레인지, 명암비, 깊이감, 영상의 입체감 등이 증가하는 효과가 있다.
다른 예로, 도 8의 하측을 참조하면, 입력 영상(1)에 포함된 복수의 오브젝트 또는 복수의 영역 중에서 사용자 입력에 대응되는 오브젝트(이하, 관심 오브젝트) 또는 사용자 입력에 대응되는 영역(이하, 관심 영역)이 고 휘도로 조정된 제3 영상(30)을 제공할 수 있다.
도 9는 본 개시의 일 실시 예에 따른 영상 출력 장치의 세부 구성을 설명하기 위한 상세 블록도이다.
도 9의 상측을 참조하면, 영상 출력 장치(100)는 제1 통신 인터페이스를 통해 외부 장치(예를 들어, 소스 장치)로부터 입력 영상(1)을 수신할 수 있다.
또한, 영상 출력 장치(100)는 제2 통신 인터페이스를 통해 타 영상 출력 장치(200)와 통신을 수행할 수 있다.
일 예로, 영상 출력 장치(100)에 구비된 적어도 하나의 프로세서(130)는 타 영상 출력 장치(200)가 영상을 출력하는 투사면 상의 위치 정보가 제2 통신 인터페이스를 통해 수신되면, 수신된 위치 정보에 기초하여 휘도가 조정된 영상을 투사면에 대응되는 위치로 출력하도록 프로젝션부(110)를 제어할 수 있다.
본 개시의 일 실시 예에 따른 영상 출력 장치(100)는 제2 통신 인터페이스를 통해 타 영상 출력 장치(200)와 통신을 수행하여, 제1 영상(10)과 제2 영상(20) 간 출력 싱크(Sync)를 일치시킬 수 있다.
본 개시의 일 실시 예에 따른 영상 출력 장치(100)는 센서를 구비할 수 있다. 여기서, 센서는 카메라를 포함할 수 있다.
적어도 하나의 프로세서(130)는 센서를 통해 타 영상 출력 장치(20)가 제2 영상(20)을 출력하는 투사면 상의 위치 정보를 획득하고, 획득된 위치 정보에 기초하여 휘도가 조정된 영상을 투사면의 대응되는 위치로 출력하도록 프로젝션부(110)를 제어할 수 있다.
일 실시 예에 따른 적어도 하나의 프로세서(130)는 영상을 투사면의 대응되는 위치로 출력하도록 프로젝션부(110)를 제어하기 위해 키스톤 보정 기능, 레벨링 보정 기능 등을 수행할 수 있다.
여기서, 키스톤 보정 기능은 전자 장치(100)의 기울어짐으로 인하여 사다리꼴 형태의 이미지가 투사면에 출력되는 문제를 해결하기 위한 기능일 수 있다.
여기서, 키스톤 보정 기능은 투사면에 출력되는 사다리꼴 형태의 이미지를 직사각형 또는 정사각형 형태의 이미지로 출력되도록 이미지를 보정하는 기능일 수 있다. 키스톤 보정 기능은 키스톤 보정의 방향성에 따라 좌우 키스톤 보정 또는 상하 키스톤 보정으로 구분될 수 있다.
여기서, 레벨링 보정 기능은 이미지를 회전시키는 기능을 의미할 수 있다. 구체적으로, 프로세서(130)는 레벨링 보정 기능을 이용하여 이미지를 특정 각도만큼 회전시켜 영상이 출력되도록 프로젝션부(110)를 제어할 수 있다.
도 9의 상측을 참조하면, 다른 예에 따른 영상 출력 장치(100)는 추가 장치와 연결 가능하며, 여기서, 추가 장치는 상술한 제2 통신 인터페이스 및 카메라를 포함할 수 있다.
영상 출력 장치(100)와 추가 장치는 외부 신호 처리부를 통해 연결될 수 있다. 여기서, 외부 신호 처리부는 커넥터로 불릴 수도 있다.
외부 신호 처리부는 영상 처리 장치(100)와 추가 장치를 유선 또는 무선으로 연결하며 추가 장치로부터 전기 신호를 송수신할 수 있다. 커넥터는 추가 장치와 물리적으로 연결될 수 있다. 이때, 커넥터는 HDMI 연결 단자, USB 연결 단자 등 다양한 형태의 유선 통신 모듈을 포함할 수 있고, 블루투스, Wi-Fi 등 다양한 형태의 무선 통신 모듈을 포함할 수도 있음은 물론이다.
도 10은 본 개시의 일 실시 예에 따른 영상 처리 장치의 제어 방법을 설명하기 위한 흐름도이다.
본 개시의 상술한 목적을 달성하기 위한 일 실시 예에 따르면 영상 출력 장치의 제어 방법은, 우선, 입력 영상의 밝기 정보를 획득한다(S1010).
이어서, 입력 영상과 동일한 영상을 수신하여 투사면으로 출력하는 타 영상 출력 장치와 통신을 수행하여 타 영상 출력 장치가 영상의 휘도를 조정하여 출력하는지 여부를 식별한다(S1020).
이어서, 식별 결과에 따라 밝기 정보에 기초하여 입력 영상에 포함된 적어도 하나의 영역의 휘도를 조정한다(S1030).
이어서, 휘도가 조정된 영상을 투사면에 출력한다(S1040).
여기서, 조정하는 S1020 단계는, 밝기 정보 및 다이내믹 레인지(DR)을 확장하기 위한 톤 맵 커브(tone map curve)에 기초하여 입력 영상에 포함된 복수의 영역 중 상대적으로 밝은 영역의 휘도가 증가되고 상대적으로 어두운 영역의 휘도가 감소된 조정된 영상을 획득하는 단계를 포함할 수 있다.
본 개시의 일 실시 예에 따른 조정하는 S1020 단계는, 입력 영상의 밝기 정보에 기초하여 입력 영상에 대응되는 뎁스 맵(Depth Map), 오브젝트 맵(Object Map) 또는 또는 샐리언시 맵(Saliency Map) 중 어느 하나를 획득하는 단계, 뎁스 맵, 오브젝트 맵 또는 샐리언시 맵(Saliency Map) 중 어느 하나에 기초하여 입력 영상에 포함된 복수의 오브젝트 별 거리 정보를 식별하는 단계, 복수의 오브젝트 중 상대적으로 근거리에 위치하는 제1 오브젝트에 대응되는 영역의 휘도를 증가시키는 단계 및 복수의 오브젝트 중 상대적으로 원거리에 위치하는 제2 오브젝트에 대응되는 영역의 휘도를 감소시키는 단계를 포함할 수 있다.
본 개시의 일 실시 예에 따른 제어 방법은, 타 영상 출력 장치가 영상의 휘도를 조정하여 출력하는 것으로 식별되면, 영상 출력 장치가 이용하는 톤 맵 커브, 입력 영상에 대응되는 뎁스 맵 또는 오브젝트 맵 중 적어도 하나를 타 영상 출력 장치로 전송하는 단계를 더 포함할 수 있다.
본 개시의 일 실시 예에 따른 출력하는 S1040 단계는, 타 영상 출력 장치가 영상을 출력하는 투사면 상의 위치 정보가 수신되면, 수신된 위치 정보에 기초하여 조정된 영상을 투사면의 대응되는 위치로 출력하는 단계를 포함할 수 있다.
본 개시의 일 실시 예에 따른 영상 출력 장치는, 센서를 포함하며, 제어 방법은, 센서를 통해 타 영상 출력 장치가 영상을 출력하는 투사면 상의 위치 정보를 획득하는 단계를 더 포함하며, 출력하는 S1040 단계는, 획득된 위치 정보에 기초하여 조정된 영상을 투사면의 대응되는 위치로 출력할 수 있다.
본 개시의 일 실시 예에 따른 제어 방법은, 타 영상 출력 장치와 영상 출력 장치 중 어느 하나를 마스터(Master)로 설정하고, 나머지 하나를 슬레이브(Slave)로 설정하는 단계, 타 영상 출력 장치가 슬레이브로 설정되면, 타 영상 출력 장치가 영상의 휘도를 조정하여 출력하도록 타 영상 출력 장치로 제어 신호를 전송하며, 입력 영상의 휘도를 조정하지 않고 입력 영상을 출력하는 단계 및 타 영상 출력 장치가 마스터로 설정되면, 타 영상 출력 장치가 영상의 휘도를 조정하지 않고 출력하도록 타 영상 출력 장치로 제어 신호를 전송하며, 입력 영상의 휘도를 조정하고 조정된 입력 영상을 출력하는 단계를 더 포함할 수 있다.
본 개시의 일 실시 예에 따른 제어 방법은, 입력 영상에 포함된 복수의 오브젝트 중 사용자 선택에 대응되는 적어도 하나의 오브젝트를 식별하는 단계를 더 포함하며, 조정하는 S1020 단계는, 식별된 적어도 하나의 오브젝트에 대응되는 영역의 휘도를 증가시키고, 나머지 영역의 휘도를 감소시켜 조정된 영상을 획득하는 단계를 포함할 수 있다.
본 개시의 일 실시 예에 따른 영상 출력 장치가 출력하는 투사 화면 및 타 영상 출력 장치가 출력하는 투사 화면은 투사면의 동일한 위치에 오버레이(Overlay)될 수 있다.
다만, 본 개시의 다양한 실시 예들은 전자 장치 뿐 아니라, 디스플레이를 구비하는 모든 유형의 전자 장치에 적용될 수 있음은 물론이다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 전자 장치의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 영상 출력 장치(100)에서의 처리 동작을 특정 기기가 수행하도록 한다.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100: 영상 출력 장치 110: 프로젝션부
120: 통신 인터페이스 130: 프로세서
200: 타 영상 출력 장치

Claims (18)

  1. 영상 출력 장치에 있어서,
    프로젝션부;
    회로를 포함하는 통신 인터페이스; 및
    상기 통신 인터페이스를 통해 수신된 입력 영상의 밝기 정보를 획득하고,
    상기 입력 영상과 동일한 영상을 수신하여 투사면으로 출력하는 타 영상 출력 장치와 통신을 수행하여 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하는지 여부를 식별하고,
    식별 결과에 따라 상기 밝기 정보에 기초하여 상기 입력 영상에 포함된 적어도 하나의 영역의 휘도를 조정하고,
    상기 휘도가 조정된 영상을 상기 투사면에 출력하도록 상기 프로젝션부를 제어하는 적어도 하나의 프로세서;를 포함하는, 영상 출력 장치.
  2. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 밝기 정보 및 다이내믹 레인지(DR)을 확장하기 위한 톤 맵 커브(tone map curve)에 기초하여 상기 입력 영상에 포함된 복수의 영역 중 상대적으로 밝은 영역의 휘도가 증가되고 상대적으로 어두운 영역의 휘도가 감소된 상기 조정된 영상을 획득하는, 영상 출력 장치.
  3. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 입력 영상의 밝기 정보에 기초하여 상기 입력 영상에 대응되는 뎁스 맵(Depth Map), 오브젝트 맵(Object Map) 또는 샐리언시 맵(Saliency Map) 중 어느 하나를 획득하고,
    상기 뎁스 맵 또는 상기 오브젝트 맵 중 어느 하나에 기초하여 상기 입력 영상에 포함된 복수의 오브젝트 별 거리 정보를 식별하고,
    상기 복수의 오브젝트 중 상대적으로 근거리에 위치하는 제1 오브젝트에 대응되는 영역의 휘도를 증가시키고,
    상기 복수의 오브젝트 중 상대적으로 원거리에 위치하는 제2 오브젝트에 대응되는 영역의 휘도를 감소시키는, 영상 출력 장치.
  4. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하는 것으로 식별되면, 상기 영상 출력 장치가 이용하는 톤 맵 커브, 상기 입력 영상에 대응되는 뎁스 맵 또는 오브젝트 맵 중 적어도 하나를 상기 타 영상 출력 장치로 전송하는, 영상 출력 장치.
  5. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 타 영상 출력 장치가 상기 영상을 출력하는 상기 투사면 상의 위치 정보가 수신되면, 상기 수신된 위치 정보에 기초하여 상기 조정된 영상을 상기 투사면의 대응되는 위치로 출력하도록 상기 프로젝션부를 제어하는, 영상 출력 장치.
  6. 제1항에 있어서,
    센서;를 더 포함하며,
    상기 적어도 하나의 프로세서는,
    상기 센서를 통해 상기 타 영상 출력 장치가 상기 영상을 출력하는 상기 투사면 상의 위치 정보를 획득하고, 상기 획득된 위치 정보에 기초하여 상기 조정된 영상을 상기 투사면의 대응되는 위치로 출력하도록 상기 프로젝션부를 제어하는, 영상 출력 장치.
  7. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 타 영상 출력 장치와 상기 영상 출력 장치 중 어느 하나를 마스터(Master)로 설정하고, 나머지 하나를 슬레이브(Slave)로 설정하며,
    상기 타 영상 출력 장치가 상기 슬레이브로 설정되면, 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하도록 상기 타 영상 출력 장치로 제어 신호를 전송하고, 상기 입력 영상의 휘도를 조정하지 않고 상기 입력 영상을 출력하도록 상기 프로젝션부를 제어하고,
    상기 타 영상 출력 장치가 상기 마스터로 설정되면, 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하지 않고 출력하도록 상기 타 영상 출력 장치로 제어 신호를 전송하고, 상기 입력 영상의 휘도를 조정하고 상기 조정된 입력 영상을 출력하도록 상기 프로젝션부를 제어하는, 영상 출력 장치.
  8. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 입력 영상에 포함된 복수의 오브젝트 중 사용자 선택에 대응되는 적어도 하나의 오브젝트를 식별하며,
    상기 식별된 적어도 하나의 오브젝트에 대응되는 영역의 휘도를 증가시키고, 나머지 영역의 휘도를 감소시켜 상기 조정된 영상을 획득하는, 영상 출력 장치.
  9. 제1항에 있어서,
    상기 영상 출력 장치가 출력하는 투사 화면 및 상기 타 영상 출력 장치가 출력하는 투사 화면은 상기 투사면의 동일한 위치에 오버레이(Overlay)되는, 영상 출력 장치.
  10. 영상 출력 장치의 제어 방법에 있어서,
    입력 영상의 밝기 정보를 획득하는 단계;
    상기 입력 영상과 동일한 영상을 수신하여 투사면으로 출력하는 타 영상 출력 장치와 통신을 수행하여 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하는지 여부를 식별하는 단계;
    식별 결과에 따라 상기 밝기 정보에 기초하여 상기 입력 영상에 포함된 적어도 하나의 영역의 휘도를 조정하는 단계; 및
    상기 휘도가 조정된 영상을 상기 투사면에 출력하는 단계;를 포함하는 제어 방법.
  11. 제10항에 있어서,
    상기 조정하는 단계는,
    상기 밝기 정보 및 다이내믹 레인지(DR)을 확장하기 위한 톤 맵 커브(tone map curve)에 기초하여 상기 입력 영상에 포함된 복수의 영역 중 상대적으로 밝은 영역의 휘도가 증가되고 상대적으로 어두운 영역의 휘도가 감소된 상기 조정된 영상을 획득하는 단계;를 포함하는, 제어 방법.
  12. 제10항에 있어서,
    상기 조정하는 단계는,
    상기 입력 영상의 밝기 정보에 기초하여 상기 입력 영상에 대응되는 뎁스 맵(Depth Map), 오브젝트 맵(Object Map) 또는 샐리언시 맵(Saliency Map) 중 어느 하나를 획득하는 단계;
    상기 뎁스 맵 또는 상기 오브젝트 맵 중 어느 하나에 기초하여 상기 입력 영상에 포함된 복수의 오브젝트 별 거리 정보를 식별하는 단계;
    상기 복수의 오브젝트 중 상대적으로 근거리에 위치하는 제1 오브젝트에 대응되는 영역의 휘도를 증가시키는 단계; 및
    상기 복수의 오브젝트 중 상대적으로 원거리에 위치하는 제2 오브젝트에 대응되는 영역의 휘도를 감소시키는 단계;를 포함하는, 제어 방법.
  13. 제10항에 있어서,
    상기 제어 방법은,
    상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하는 것으로 식별되면, 상기 영상 출력 장치가 이용하는 톤 맵 커브, 상기 입력 영상에 대응되는 뎁스 맵 또는 오브젝트 맵 중 적어도 하나를 상기 타 영상 출력 장치로 전송하는 단계;를 더 포함하는, 제어 방법.
  14. 제10항에 있어서,
    상기 출력하는 단계는,
    상기 타 영상 출력 장치가 상기 영상을 출력하는 상기 투사면 상의 위치 정보가 수신되면, 상기 수신된 위치 정보에 기초하여 상기 조정된 영상을 상기 투사면의 대응되는 위치로 출력하는 단계;를 포함하는, 제어 방법.
  15. 제10항에 있어서,
    상기 영상 출력 장치는, 센서;를 포함하며,
    상기 제어 방법은,
    상기 센서를 통해 상기 타 영상 출력 장치가 상기 영상을 출력하는 상기 투사면 상의 위치 정보를 획득하는 단계;를 더 포함하며,
    상기 출력하는 단계는,
    상기 획득된 위치 정보에 기초하여 상기 조정된 영상을 상기 투사면의 대응되는 위치로 출력하는, 제어 방법.
  16. 제10항에 있어서,
    상기 제어 방법은,
    상기 타 영상 출력 장치와 상기 영상 출력 장치 중 어느 하나를 마스터(Master)로 설정하고, 나머지 하나를 슬레이브(Slave)로 설정하는 단계;
    상기 타 영상 출력 장치가 상기 슬레이브로 설정되면, 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하여 출력하도록 상기 타 영상 출력 장치로 제어 신호를 전송하며, 상기 입력 영상의 휘도를 조정하지 않고 상기 입력 영상을 출력하는 단계; 및
    상기 타 영상 출력 장치가 상기 마스터로 설정되면, 상기 타 영상 출력 장치가 상기 영상의 휘도를 조정하지 않고 출력하도록 상기 타 영상 출력 장치로 제어 신호를 전송하며, 상기 입력 영상의 휘도를 조정하고 상기 조정된 입력 영상을 출력하는 단계;를 더 포함하는, 제어 방법.
  17. 제10항에 있어서,
    상기 제어 방법은,
    상기 입력 영상에 포함된 복수의 오브젝트 중 사용자 선택에 대응되는 적어도 하나의 오브젝트를 식별하는 단계;를 더 포함하며,
    상기 조정하는 단계는,
    상기 식별된 적어도 하나의 오브젝트에 대응되는 영역의 휘도를 증가시키고, 나머지 영역의 휘도를 감소시켜 상기 조정된 영상을 획득하는 단계;를 포함하는, 제어 방법.
  18. 제10항에 있어서,
    상기 영상 출력 장치가 출력하는 투사 화면 및 상기 타 영상 출력 장치가 출력하는 투사 화면은 상기 투사면의 동일한 위치에 오버레이(Overlay)되는, 제어 방법.
KR1020220087184A 2022-07-14 2022-07-14 영상 출력 장치 및 그 제어 방법 KR20240009810A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220087184A KR20240009810A (ko) 2022-07-14 2022-07-14 영상 출력 장치 및 그 제어 방법
PCT/KR2023/007263 WO2024014703A1 (ko) 2022-07-14 2023-05-26 영상 출력 장치 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220087184A KR20240009810A (ko) 2022-07-14 2022-07-14 영상 출력 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20240009810A true KR20240009810A (ko) 2024-01-23

Family

ID=89536875

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220087184A KR20240009810A (ko) 2022-07-14 2022-07-14 영상 출력 장치 및 그 제어 방법

Country Status (2)

Country Link
KR (1) KR20240009810A (ko)
WO (1) WO2024014703A1 (ko)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101265950B1 (ko) * 2007-09-18 2013-05-23 삼성전자주식회사 프로젝터 및 상기 프로젝터의 프로젝션 제어 방법
KR101380777B1 (ko) * 2008-08-22 2014-04-02 정태우 영상에 포함된 객체를 색인하는 방법
KR20170044399A (ko) * 2015-10-15 2017-04-25 삼성전자주식회사 영상 투사 장치, 그의 투사 영역 확장 방법 및 비일시적 컴퓨터 판독가능 기록매체
WO2019069482A1 (ja) * 2017-10-06 2019-04-11 パナソニックIpマネジメント株式会社 映像表示システム及び映像表示方法
KR101959281B1 (ko) * 2018-03-15 2019-03-18 옥철식 영상 처리 장치 및 이를 포함하는 모션 인식형 증강현실 체험 시스템

Also Published As

Publication number Publication date
WO2024014703A1 (ko) 2024-01-18

Similar Documents

Publication Publication Date Title
US20170163948A1 (en) Projection apparatus and control method thereof, and projection system
US10520797B2 (en) Projection system, control device, and control method of projection system
US11178367B2 (en) Video display apparatus, video display system, and luminance adjusting method of video display apparatus
US10354428B2 (en) Display device and method of controlling display device
JP2017156581A (ja) 投影装置及びその制御方法
JP2019078786A (ja) 画像投射システム、プロジェクター、及び画像投射システムの制御方法
JP2015184383A (ja) プロジェクター、及び投写画像制御方法
US10055065B2 (en) Display system, projector, and control method for display system
US11443712B2 (en) Display device and method of controlling a display mode of the display device to selectively display a selection screen and an image screen
KR20240009810A (ko) 영상 출력 장치 및 그 제어 방법
JP2012222637A (ja) マルチ画面表示装置
KR20200025481A (ko) 전자 장치 및 그 제어 방법
JP6439254B2 (ja) 画像投影装置、画像投影装置の制御方法、および画像投影装置の制御プログラム
JP2014187530A (ja) 投影装置、画像出力装置、投影方法及び投影プログラム
US20240040077A1 (en) Image output apparatus including a plurality of projection parts and control method thereof
US11064171B1 (en) Method of controlling display device, and display device
CN114566116A (zh) 图像亮度控制方法及装置和显示控制器
KR20240014883A (ko) 복수의 프로젝션부를 포함하는 영상 출력 장치 및 그 제어 방법
US20240040092A1 (en) Projection method and projection system
KR20240033553A (ko) 지연 시간에 기초하여 영상을 출력하는 영상 출력 장치 및 그 제어 방법
US20240144896A1 (en) Display method, image generation device, and non-transitory computer-readable storage medium storing program
CN112104849B (zh) 用于投影影像光束的投影仪及方法
US20230217168A1 (en) Display apparatus and control method thereof
US11048468B2 (en) Sound output control method and display system
US20240323327A1 (en) Projection system, projection method, non-transitory computer-readable storage medium storing projection program