KR20210057354A - 전자 장치 및 그 제어 방법 - Google Patents

전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
KR20210057354A
KR20210057354A KR1020190144022A KR20190144022A KR20210057354A KR 20210057354 A KR20210057354 A KR 20210057354A KR 1020190144022 A KR1020190144022 A KR 1020190144022A KR 20190144022 A KR20190144022 A KR 20190144022A KR 20210057354 A KR20210057354 A KR 20210057354A
Authority
KR
South Korea
Prior art keywords
information
content
electronic device
identification information
video
Prior art date
Application number
KR1020190144022A
Other languages
English (en)
Inventor
조종명
정태웅
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190144022A priority Critical patent/KR20210057354A/ko
Priority to CN202011127958.9A priority patent/CN112866613A/zh
Priority to EP20202732.2A priority patent/EP3823288B1/en
Priority to PCT/KR2020/014449 priority patent/WO2021096091A1/en
Priority to US17/082,720 priority patent/US11516549B2/en
Publication of KR20210057354A publication Critical patent/KR20210057354A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44204Monitoring of content usage, e.g. the number of times a movie has been viewed, copied or the amount which has been watched
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43632Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wired protocol, e.g. IEEE 1394
    • H04N21/43635HDMI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/4363Adapting the video stream to a specific local network, e.g. a Bluetooth® network
    • H04N21/43637Adapting the video stream to a specific local network, e.g. a Bluetooth® network involving a wireless protocol, e.g. Bluetooth, RF or wireless LAN [IEEE 802.11]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4621Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치가 개시된다. 전자 장치는 통신 인터페이스, 디스플레이 및 통신 인터페이스를 통해 소스 장치로부터 컨텐츠가 수신되면, 수신된 컨텐츠의 특징 정보를 획득하여 서버로 전송하고, 서버로부터 특징 정보에 기초하여 획득된 컨텐츠의 식별 정보를 수신하고, 통신 인터페이스를 통해 소스 장치로부터 수신된 신호에 따라 디스플레이의 기설정된 모드가 턴 온되면, 기설정된 모드가 턴 온되는 제1 시점에 대한 정보를 획득하고, 제1 시점 이후 기설정된 모드가 턴 오프되는 제2 시점에 대한 정보를 획득하고, 식별 정보, 제1 시점에 대한 정보 및 제2 시점에 대한 정보에 기초하여 디스플레이를 통해 디스플레이된 컨텐츠에 대한 정보를 획득하는 프로세서를 포함한다.

Description

전자 장치 및 그 제어 방법 {Electronic apparatus and control method thereof}
본 개시는 디스플레이되는 컨텐츠에 대한 정보를 획득하는 전자 장치 및 그 제어 방법에 관한 것이다.
종래에는 디스플레이되는 컨텐츠에 대한 정보를 획득하는 다양한 방법이 존재하였다. 다만, 종래의 기술은 대체로 영화, 드라마와 같이 이미 정해진 프레임이 연속적으로 디스플레이되는 컨텐츠에 적용되는 기술이었다.
예를 들어, 현재 디스플레이되는 컨텐츠의 몇몇 프레임을 데이터 베이스에 저장된 프레임과 비교함에 따라 TV는 현재 디스플레이 중인 드라마 또는 영화의 제목을 인식할 수 있었다.
다만, 게임 컨텐츠의 경우 이미 정해진 프레임이 연속적으로 디스플레이되는 컨텐츠와 달리 사용자 조작에 따라 다양한 플레이 영상이 나올 수 있기 때문에 데이터 베이스에 저장된 프레임과 비교하여 컨텐츠를 특정하기는 어려운 문제가 있다.
본 개시는 상술한 필요성에 따른 것으로, 본 개시의 목적은, 현재 디스플레이 중인 컨텐츠의 타이틀 및 재생 시간을 식별하는 전자 장치 그 제어 방법을 제공함에 있다.
상술한 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 전자 장치는, 통신 인터페이스, 디스플레이 및 상기 통신 인터페이스를 통해 소스 장치로부터 컨텐츠가 수신되면, 상기 수신된 컨텐츠의 특징 정보를 획득하여 외부 서버로 전송하고, 상기 외부 서버로부터 상기 특징 정보에 기초하여 획득된 상기 컨텐츠의 식별 정보를 수신하고, 상기 통신 인터페이스를 통해 상기 소스 장치로부터 수신된 신호에 따라 상기 디스플레이의 기설정된 모드가 턴 온되면, 상기 기설정된 모드가 턴 온되는 제1 시점에 대한 정보를 획득하고, 상기 제1 시점 이후 상기 기설정된 모드가 턴 오프되는 제2 시점에 대한 정보를 획득하고, 상기 식별 정보, 상기 제1 시점에 대한 정보 및 상기 제2 시점에 대한 정보에 기초하여 상기 디스플레이를 통해 디스플레이된 상기 컨텐츠에 대한 정보를 획득하는 프로세서를 포함한다.
상기 프로세서는 상기 식별 정보에 기초하여 상기 디스플레이를 통해 디스플레이된 상기 컨텐츠의 타이틀을 식별하고, 상기 제1 시점 및 상기 제2 시점에 대한 정보에 기초하여 상기 식별된 컨텐츠의 재생 시간을 식별할 수 있다.
여기서, 상기 프로세서는 상기 외부 서버로부터 수신된 복수의 식별 정보 중 상기 제1 시점 및 상기 제2 시점 사이에서 획득된 특징 정보에 기초하여 상기 컨텐츠의 식별 정보를 획득할 수 있다.
상기 소스 장치로부터 수신된 신호는 상기 소스 장치에서 제공하는 컨텐츠의 타입에 기초하여 상기 전자 장치가 상기 기설정된 모드를 턴 온 또는 턴 오프시키도록 하는 제어 정보를 포함할 수 있다.
상기 기설정된 모드는 ALLM(Automatic Low-Latency Mode)일 수 있다.
여기서, 상기 제어 정보는 기설정된 버전 이상의 HDMI 규격을 지원하는 상기 전자 장치에 제공되는 정보일 수 있다.
상기 제어 정보는 상기 컨텐츠의 타입이 게임 컨텐츠인 경우 상기 소스 장치로부터 제공되는 정보일 수 있다.
상기 특징 정보는 비디오 특징 정보 또는 오디오 특징 정보 중 적어도 하나를 포함할 수 있다.
여기서, 상기 프로세서는 상기 수신된 컨텐츠 중 현재 시청 중인 컨텐츠의 이미지를 기설정된 시간 간격으로 캡쳐하고, 상기 캡쳐된 이미지의 픽셀 값에 기초하여 상기 비디오 특징 정보를 획득하고, 상기 현재 시청 중인 컨텐츠의 음향 신호의 주파수 정보를 기설정된 시간 간격으로 획득하고, 상기 획득된 주파수 정보에 기초하여 상기 오디오 특징 정보를 획득할 수 있다.
여기서, 상기 오디오 특징 정보는 상기 비디오 특징 정보에 기초하여 획득된 컨텐츠의 식별 정보가 복수인 경우, 상기 복수의 식별 정보 중 현재 시청 중인 컨텐츠에 대응되는 식별 정보를 획득하기 위해 추가적으로 이용되는 정보일 수 있다.
여기서, 상기 프로세서는 상기 기설정된 시간 간격으로 캡쳐된 복수의 이미지 중 최근에 캡쳐된 기설정된 개수의 이미지로부터 상기 비디오 특징 정보를 획득할 수 있다.
한편, 상술한 목적을 달성하기 위한 본 개시의 일 실시 예에 따른 제어 방법은, 소스 장치로부터 컨텐츠가 수신되면, 상기 수신된 컨텐츠의 특징 정보를 획득하여 외부 서버로 전송하는 단계, 상기 외부 서버로부터 상기 특징 정보에 기초하여 획득된 상기 컨텐츠의 식별 정보를 수신하는 단계, 상기 소스 장치로부터 수신된 신호에 따라 상기 전자 장치의 기설정된 모드가 턴 온되면, 상기 기설정된 모드가 턴 온되는 제1 시점에 대한 정보를 획득하는 단계, 상기 제1 시점 이후 상기 기설정된 모드가 턴 오프되는 제2 시점에 대한 정보를 획득하는 단계 및 상기 식별 정보, 상기 제1 시점에 대한 정보 및 상기 제2 시점에 대한 정보에 기초하여 디스플레이된 상기 컨텐츠에 대한 정보를 획득하는 단계를 포함한다.
상기 컨텐츠에 대한 정보를 획득하는 단계는, 상기 식별 정보에 기초하여 디스플레이된 상기 컨텐츠의 타이틀을 식별하고, 상기 제1 시점 및 상기 제2 시점에 대한 정보에 기초하여 상기 식별된 컨텐츠의 재생 시간을 식별할 수 있다.
상기 컨텐츠의 식별 정보를 수신하는 단계는, 상기 외부 서버로부터 수신된 복수의 식별 정보 중 상기 제1 시점 및 상기 제2 시점 사이에서 획득된 특징 정보에 기초하여 상기 컨텐츠의 식별 정보를 획득할 수 있다.
상기 소스 장치로부터 수신된 신호는 상기 소스 장치에서 제공하는 컨텐츠의 타입에 기초하여 상기 전자 장치가 상기 기설정된 모드를 턴 온 또는 턴 오프시키도록 하는 제어 정보를 포함할 수 있다.
여기서, 상기 기설정된 모드는 ALLM(Automatic Low-Latency Mode)일 수 있다.
상기 제어 정보는 기설정된 버전 이상의 HDMI 규격을 지원하는 상기 전자 장치에 제공되는 정보일 수 있다.
상기 제어 정보는 상기 컨텐츠의 타입이 게임 컨텐츠인 경우 상기 소스 장치로부터 제공되는 정보일 수 있다.
상기 특징 정보는 비디오 특징 정보 또는 오디오 특징 정보 중 적어도 하나를 포함할 수 있다.
여기서, 상기 특징 정보를 획득하여 외부 서버로 전송하는 단계는, 상기 수신된 컨텐츠 중 현재 시청 중인 컨텐츠의 이미지를 기설정된 시간 간격으로 캡쳐하고, 상기 캡쳐된 이미지의 픽셀 값에 기초하여 상기 비디오 특징 정보를 획득하고, 상기 현재 시청 중인 컨텐츠의 음향 신호의 주파수 정보를 기설정된 시간 간격으로 획득하고, 상기 획득된 주파수 정보에 기초하여 상기 오디오 특징 정보를 획득할 수 있다.
여기서, 상기 오디오 특징 정보는 상기 비디오 특징 정보에 기초하여 획득된 컨텐츠의 식별 정보가 복수인 경우, 상기 복수의 식별 정보 중 현재 시청 중인 컨텐츠에 대응되는 식별 정보를 획득하기 위해 추가적으로 이용되는 정보일 수 있다.
상기 특징 정보를 획득하여 외부 서버로 전송하는 단계는, 상기 기설정된 시간 간격으로 캡쳐된 복수의 이미지 중 최근에 캡쳐된 기설정된 개수의 이미지로부터 상기 비디오 특징 정보를 획득할 수 있다.
상술한 바와 같이 본 개시의 다양한 실시 예에 따르면, 전자 장치는 현재 디스플레이 중인 컨텐츠의 타이틀을 식별할 수 있다.
또한, 전자 장치를 통해 재생되는 컨텐츠가 게임 컨텐츠인 경우, 전자 장치는 사용자가 실제 플레이한 게임 컨텐츠의 플레이 시간을 식별할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 전자 시스템의 구성을 개략적으로 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 동작을 설명하기 위한 블록도이다.
도 3은 전자 장치의 세부 구성을 설명하기 위한 블록도이다.
도 4는 본 개시의 일 실시 예에 따른 전자 장치 및 서버 간 동작을 설명하기 위한 도면이다.
도 5는 본 개시의 일 실시 예에 따라 복수의 채널에서 동일한 비디오가 재생되는 경우를 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 비디오 특징 정보 만으로 컨텐츠 식별이 안되는 경우 오디오 특징 정보를 이용하는 과정을 설명하기 위한 도면이다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치, 소스 장치 및 서버의 시퀀스도이다.
도 8은 본 개시의 일 실시 예에 따른 특징 정보의 획득 시점에 기초한 식별 정보를 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 개시에 대해 구체적으로 설명하기로 한다.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 개시의 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
A 및/또는 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.
본 명세서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다. 본 명세서에서, 사용자라는 용어는 전자 장치(또는 전자 장치)를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. 그리고 도면에서 본 개시를 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
이하 첨부된 도면들을 참조하여 본 개시의 일 실시 예를 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시 예에 따른 전자 시스템의 구성을 개략적으로 설명하기 위한 도면이다.
도 1에 따르면 본 발명의 일 실시 예에 따른 전자 시스템(1000)은 전자 장치(100), 소스 장치(200) 및 서버(300)를 포함한다.
전자 장치(100)는 소스 장치(200)로부터 영상 신호를 수신하고, 수신된 영상 신호에 포함된 컨텐츠를 디스플레이하는 디스플레이 장치일 수 있다. 예를 들어, 전자 장치(100)는 TV, 스마트 TV, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 등 디스플레이를 구비하는 다양한 형태로 구현될 수 있다.
소스 장치(200)는 소스 영상 및 소스 영상과 관련된 정보가 포함된 신호를 전자 장치(100)로 전송하는 장치일 수 있다. 예를 들어, 소스 장치(200)는 게임 콘솔(예:XboxTM, PlayStationTM), 스마트폰, 태블릿 PC, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 웨어러블 장치, 셋탑 박스, USB와 같은 저장 장치 등 다양한 형태로 구현될 수 있다.
서버(300)는 다양한 컨텐츠에 대한 정보를 저장 및 관리하는 장치이다. 예를 들어, 서버(300)는 컨텐츠의 특징 정보를 생성하여 저장할 수 있다. 여기서, 특징 정보는 해당 컨텐츠를 다른 컨텐츠와 구별할 수 있도록 하는 고유의 정보를 의미하며, 예를 들어, 비디오 신호에 기초하여 생성되는 비디오 특징 정보 및 오디오 신호에 기초하여 생성되는 오디오 특징 정보를 포함할 수 있다. 이에 관하여는 하기에서 자세히 설명하도록 한다.
한편, 전자 장치(100)는 현재 디스플레이되는 컨텐츠에 대한 정보가 존재하지 않는 경우, 현재 디스플레이되는 컨텐츠에 대한 특징 정보를 획득하여 서버(300)로 전송하고, 서버(300)는 수신된 특징 정보를 서버(300)에 저장된 정보와 비교하여 현재 전자 장치(100) 상에 디스플레이되는 컨텐츠가 어떤 컨텐츠인지를 식별하고 식별 정보를 전자 장치(100)로 전송할 수 있다. 또한, 전자 장치(100)는 소스 장치(200)로부터 수신되는 신호에 포함된 정보에 기초하여 현재 디스플레이되는 컨텐츠의 재생 시간 정보를 획득할 수도 있다.
이와 같이, 전자 장치(100)가 재생 중인 컨텐츠에 대한 정보를 획득하는 실시 예에 대해 하기에서 자세히 설명하도록 한다.
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 동작을 설명하기 위한 블록도이다.
도 2에 따르면, 전자 장치(100)는 통신 인터페이스(110), 디스플레이(120) 및 프로세서(130)를 포함한다.
통신 인터페이스(110)는 회로(circuitry)를 포함하며, 소스 장치(200) 및 서버(300)와 통신할 수 있는 구성이다.
통신 인터페이스(110)는 유선 또는 무선 통신 방식에 기초하여 소스 장치(200) 및 서버(300)와 통신을 수행할 수 있다.
일 실시 예에 따라, 통신 인터페이스(110)가 유선 통신 방식으로 외부와 통신하는 경우, 통신 인터페이스(110)는 전자 장치(100)에 구비되는 포트로 구현될 수 있다. 특히, 통신 인터페이스(110)는 HDMI 포트로 구현되어 소스 장치(200)와 통신할 수 있다. 이 경우, 소스 장치(200) 또한 HDMI 포트를 구비할 수 있다. 이에 따라, 전자 장치(100) 및 소스 장치(200)는 각 HDMI 포트 및 이를 연결하는 HDMI(High Definition Multimedia Interface) 케이블을 통해 통신을 수행할 수 있다. 다만, 이에 한정되는 것은 아니며, LVDS(Low Voltage Differential Signals) 케이블, DVI(Digital Visual Interface) 케이블, D-SUB(D-subminiature) 케이블, VGA(Video Graphics Array) 케이블, V-by-One 케이블 또는 광 케이블 등을 통해 통신 인터페이스(110)는 소스 장치(200)와 통신을 수행할 수 있다.
다른 실시 예에 따라, 통신 인터페이스(110)는 무선 통신을 통하여 소스 장치(200) 및 서버(300)와 통신을 수행할 수 있다. 이 경우, 통신 인터페이스(110)는 와이파이 모듈(미도시), 블루투스 모듈(미도시), IR(infrared) 모듈, LAN(Local Area Network) 모듈, 이더넷(Ethernet) 모듈 등을 포함할 수 있다. 여기서, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다. 무선 통신 모듈은 상술한 통신 방식 이외에 지그비(zigbee), USB(Universal Serial Bus), MIPI CSI(Mobile Industry Processor Interface Camera Serial Interface), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 4G(4th Generation), 5G(5th Generation)등과 같은 다양한 무선 통신 규격에 따라 통신을 수행하는 적어도 하나의 통신 칩을 포함할 수 있다. 다만 이는 일 실시 예에 불과하며 통신 인터페이스(110)는 다양한 통신 모듈 중 적어도 하나의 통신 모듈을 이용할 수 있다.
한편, 소스 장치(200)와 통신을 수행하는 통신 인터페이스 및 서버(300)와 통신을 수행하는 통신 인터페이스는 서로 다른 인터페이스로 구현될 수 있다. 예를 들어, 통신 인터페이스(110)는 소스 장치(200)와 통신을 수행하는 제1 통신 인터페이스(110-1) 및 서버(300)와 통신을 수행하는 제2 통신 인터페이스(110-2)를 포함할 수 있다. 이 경우, 제1 통신 인터페이스(110-1)는 유선 통신을 통하여 소스 장치(200)와 통신하고, 제2 통신 인터페이스(110-2)는 무선 통신을 통하여 서버(300)와 통신할 수 있다. 특히, 제1 통신 인터페이스(110-1)는 HDMI 포트로 구현되는 것이 바람직하나, 이에 한정되는 것은 아니다.
제1 통신 인터페이스(110-1)는 소스 장치(200)로부터 영상 신호를 수신할 수 있다. 여기서, 영상 신호는 컨텐츠 및 컨텐츠와 관련된 정보가 포함된 신호를 포함할 수 있다. 제2 통신 인터페이스(110-2)는 서버(300)에 컨텐츠의 특징 정보를 전송하고, 서버(300)로부터 특징 정보에 기초하여 획득된 컨텐츠의 식별 정보를 수신할 수 있다. 이에 대해서는 하기에서 자세히 설명한다.
디스플레이(120)는 소스 장치(200)로부터 수신된 컨텐츠를 디스플레이하는 구성이다.
디스플레이(120)는 LCD(liquid crystal display), OLED(organic light-emitting diode), LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing), QD(quantum dot) 디스플레이 패널, QLED(quantum dot light-emitting diodes), 마이크로 LED(micro light-emitting diode) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다.
디스플레이(120)는 터치패드와 상호 레이어 구조를 이루는 터치스크린 형태로 구현될 수 있다. 여기서, 터치스크린은 터치 입력 위치 및 면적뿐만 아니라 터치 입력 압력까지도 검출할 수 있도록 구성될 수 있다.
프로세서(130)는 메모리(미도시)와 전기적으로 연결되며, 전자 장치(100)의 전반적인 동작을 제어한다.
본 개시의 일 실시 예에 따라, 프로세서(130)는 통신 인터페이스(110)를 통해 소스 장치(200)로부터 컨텐츠를 수신할 수 있다. 경우에 따라, 전자 장치(100)는 소스 장치(200)로부터 컨텐츠에 대한 정보(예를 들어, 컨텐츠의 타이틀, 타입, 재생 시간 등)를 수신할 수도 있으나, 본 개시에서는 소스 장치(200)로부터 컨텐츠에 대한 명시적인 정보를 수신하지 못하여 현재 재생 중인 또는 재생될 컨텐츠에 대한 정보의 획득이 필요한 경우를 상정하여 설명하도록 한다.
프로세서(130)는 소스 장치(200)로부터 수신된 컨텐츠의 특징 정보를 획득하여 외부 서버(300)로 전송할 수 있다. 여기서, 특징 정보는 해당 컨텐츠를 다른 컨텐츠와 구별할 수 있는 컨텐츠의 고유 정보를 의미하며, 특징 정보는 비디오 특징 정보 또는 오디오 특징 정보 중 적어도 하나를 포함할 수 있다. 비디오 특징 정보는 오디오 정보가 포함되지 않은 비디오 신호로부터 추출된 정보이며, 비디오 핑거프린트(Video Fingerprint) 정보일 수 있다. 또한, 오디오 특징 정보는 오디오 신호로부터 추출된 정보이며, 오디오 핑거프린트(Audio Fingerprint) 정보일 수 있다.
구체적으로, 비디오 핑거프린트 정보는 비디오 신호에 포함된 일 프레임의 픽셀 값에 기초하여 생성된 문자열 정보일 수 있다. 이러한 문자열은 픽셀 위치에 따른 픽셀 값에 따라 변경되므로 동일한 프레임일 경우에만 동일한 문자열이 생성될 수 있다. 따라서, 비디오 핑거프린트는 해당 프레임을 다른 프레임과 구별할 수 있는 특징 정보가 될 수 있다.
오디오 핑거프린트 정보는 오디오 신호의 일 구간에 포함된 음향 주파수 정보에 기초하여 생성된 문자열 정보일 수 있다. 이러한 문자열은 주파수 정보에 따라 변경되므로 동일한 음향 신호일 경우에만 동일한 문자열이 생성될 수 있다. 따라서, 오디오 핑거프린트 또한 해당 구간의 음향 주파수를 다른 음향 주파수와 구별할 수 있는 특징 정보가 될 수 있다.
프로세서(130)는 소스 장치(200)로부터 수신된 컨텐츠 중 현재 시청 중인 컨텐츠의 이미지를 기설정된 시간 간격으로 캡쳐할 수 있다. 예를 들어, 프로세서(130)는 디스플레이(120)를 통해 디스플레이되는 컨텐츠의 프레임을 500ms 간격으로 캡쳐할 수 있다. 이후, 프로세서(130)는 캡쳐된 이미지의 픽셀 값에 기초하여 비디오 특징 정보를 획득할 수 있다.
구체적으로, 프로세서(130)는 캡쳐된 이미지 즉, 캡쳐된 일 프레임 내의 전체 픽셀들을 n*m 개의 픽셀로 이루어진 블록들로 구분할 수 있다. 이후, 프로세서(130)는 구분된 블록들 중 일부 또는 전체 블록의 픽셀 값을 산출할 수 있다. 프로세서(130)는 산출된 픽셀 값에 대응되는 문자열을 생성하며, 생성된 문자열이 비디오 핑거프린트가 될 수 있다. 프로세서(130)는 이와 같은 방식으로 비디오 핑거프린트 즉, 비디오 특징 정보를 획득할 수 있다.
여기서, 프로세서(130)는 기설정된 시간 간격으로 캡쳐된 복수의 이미지 중 최근에 캡쳐된 기설정된 개수의 이미지로부터 비디오 특징 정보를 획득할 수 있다. 예를 들어, 기설정된 시간 간격으로 캡쳐된 모든 복수의 이미지에서 비디오 특징 정보를 획득하여 서버(300)로 전송하는 경우 현재 디스플레이(120) 상에서 재생 중인 컨텐츠에 대한 식별 정확도는 개선될 수 있으나, 프로세서(130)의 연산 량이 불필요하게 증가할 수 있다. 따라서, 프로세서(130)는 컨텐츠를 식별하기 위해 필요한 최소의 개수의 이미지로부터 비디오 특징 정보를 획득하며, 현재 재생 중인 컨텐츠의 실시간성을 고려할 때 최근 캡쳐된 이미지로부터 비디오 특징 정보를 획득하는 것이 바람직하다. 예를 들어, 기설정된 개수가 3개인 경우, 프로세서(130)는 최근 3개의 캡쳐된 이미지에서만 비디오 특정 정보를 획득할 수 있다.
또한, 프로세서(130)는 현재 시청 중인 컨텐츠의 음향 신호를 기설정된 시간 간격으로 획득할 수 있다. 예를 들어, 프로세서(130)는 스피커(미도시)를 통해 출력되는 컨텐츠의 음향 신호의 주파수 정보를 500ms 간격으로 획득할 수 있다. 이후, 프로세서(130)는 획득된 주파수 정보에 기초하여 오디오 특징 정보를 획득할 수 있다. 구체적으로, 프로세서(130)는 획득된 주파수 정보의 파형을 분석하고, 분석된 파형에 대응되는 문자열을 생성할 수 있다. 이와 같이 생성된 문자열이 오디오 핑거프린트가 될 수 있다. 프로세서(130)는 비디오 특징 정보와 마찬가지로, 기설정된 시간 간격으로 획득된 주파수 정보 중 최근에 획득된 기설정된 개수의 주파수 정보로부터 오디오 특징 정보를 획득할 수 있다.
한편, 오디오 특징 정보는 비디오 특징 정보에 기초하여 획득된 컨텐츠의 식별 정보가 복수인 경우, 복수의 식별 정보 중 현재 시청 중인 컨텐츠에 대응되는 식별 정보를 획득하기 위해 추가적으로 이용되는 정보일 수 있다. 이에 대하여는 도 5 및 도 6에서 자세히 설명하도록 한다.
프로세서(130)는 상술한 실시 예들에 의해 획득된 특징 정보를 서버(300)로 전송할 수 있다.
일 예에 따라, 프로세서(130)는 기설정된 시간 간격으로 특징 정보를 서버(300)로 전송할 수 있는데, 여기서 기설정된 시간 간격은 특징 정보를 획득하는 시간 간격과 동일할 수 있으나, 이에 한정되는 것은 아니며 특징 정보를 획득하는 시간 간격과 다른 시간 간격으로 특징 정보를 서버(300)로 전송할 수 있다.
다만 이에 한정되는 것은 아니며, 사용자로부터 컨텐츠 식별 요청이 입력되거나 서버(300)로부터 특징 정보 전송 요청 신호가 수신되는 경우, 프로세서(130)는 획득된 특징 정보를 서버(300)로 전송할 수 있다.
이후, 서버(300)는 전자 장치(100)로부터 전송된 특징 정보를 서버(300)의 데이터 베이스에 저장된 특징 정보와 비교할 수 있다. 예를 들어, 전자 장치(100)로부터 하나의 컨텐츠에 포함된 3개의 프레임에 대응되는 비디오 핑거프린트 정보가 전송된 경우, 서버(300)는 3개의 비디오 핑거프린트 정보를 포함하는 컨텐츠를 데이터 베이스에서 검색할 수 있다. 일 예에 따르면, 서버(300)는 3개의 비디오 핑거프린트 정보 중 적어도 하나를 포함하는 컨텐츠를 후보 컨텐츠로 식별할 수 있다. 이 경우, 식별된 후보 컨텐츠가 서로 다른 경우, 서버(300)는 3개의 비디오 핑거프린트 정보 중 상대적으로 많은 수의 비디오 핑거프린트 정보가 일치하는 컨텐츠를 전자 장치(100)로부터 전송된 비디오 핑거프린트 정보에 대응되는 컨텐츠로 식별할 수 있다. 예를 들어, 서로 다른 영화 컨텐츠라도 1편과 2편으로 구분되는 컨텐츠의 경우, 도입부 영상은 서로 동일할 수 있기 때문에 서버(300)는 식별된 복수의 후보 컨텐츠 중 상대적으로 많은 수의 비디오 핑거프린트 정보가 일치하는 컨텐츠를 전자 장치(100)로부터 전송된 특징 정보에 대응되는 컨텐츠로 식별할 수 있다. 이에 따라, 전자 장치(100)가 전송한 비디오 핑거프린트에 대응되는 컨텐츠 식별에 대한 정확도가 증가할 수 있다.
또한, 서버(300)가 일 컨텐츠에 대한 모든 프레임의 비디오 핑거프린트를 저장하지 않을 수 있으므로, 서버(300)는 전자 장치(100)로부터 전송된 비디오 핑거프린트와 모두 일치하는 컨텐츠를 발견하지 못할 수도 있다. 따라서, 서버(300)는 우선 전자 장치(100)로부터 전송된 복수의 비디오 핑거프린트 중 적어도 하나만 일치하는 경우를 검색하여 후보 컨텐츠로 식별할 수 있다. 이후의 과정은 상술한 바와 같이, 상대적으로 많은 수의 비디오 핑거프린트 정보가 일치하는 컨텐츠를 전자 장치(100)로부터 전송된 비디오 핑거프린트 정보에 대응되는 컨텐츠로 식별될 수 있다.
다시 말해, 서버(300)는 전자 장치(100)로부터 전송된 특징 정보와 데이터 베이스에 저장된 정보를 비교하여 유사도가 높은 컨텐츠를 식별할 수 있다. 서버(300)는 식별된 컨텐츠에 대한 정보를 데이터 베이스로부터 획득하여 획득된 컨텐츠의 식별 정보를 전자 장치(100)로 전송할 수 있다. 여기서, 컨텐츠의 식별 정보는 컨텐츠의 타이틀 정보, 타입 정보, 제작 연도 정보, 제작 국가 정보, 인물 정보 등을 포함할 수 있다.
이에, 프로세서(130)는 서버(300)로부터 특징 정보에 기초하여 획득된 컨텐츠의 식별 정보를 수신할 수 있다.
한편, 프로세서(130)는 통신 인터페이스(110)를 통해 소스 장치(200)로부터 신호를 수신할 수 있다. 여기서, 신호는 컨텐츠 및 제어 정보가 포함된 신호일 수 있다. 컨텐츠는 소스 장치(200)가 제공하는 소스 영상이며, 제어 정보는 디스플레이(120)의 설정 정보를 변경하는 커맨드 정보를 포함할 수 있다.
구체적으로, 소스 장치(200)로부터 수신된 신호는 소스 장치(200)에서 제공하는 컨텐츠의 타입에 기초하여 전자 장치(100)가 기설정된 모드를 턴 온 또는 턴 오프시키도록 하는 제어 정보를 포함할 수 있다. 여기서, 컨텐츠의 타입이 게임 컨텐츠인 경우, 기설정된 모드는 ALLM(Automatic Low-Latency Mode)일 수 있다. ALLM 이란 입력에 따른 응답을 디스플레이 상에서 상대적으로 신속하게 표시하는 모드이다. 게임 컨텐츠는 영화, 드라마와 같은 컨텐츠에 비해 실시간 사용자 조작이 요구되는 컨텐츠이다. 이에 따라, 사용자 조작에 따른 응답이 디스플레이(120) 상에 빠르게 반영될 필요가 있으며, 이를 위해서는 사용자 입력에 따른 응답 시간이 상대적으로 감소되어야 한다. 따라서, 소스 장치(200)는 전자 장치(100)로 전송하는 컨텐츠가 게임 컨텐츠로 식별되는 경우, 전자 장치(100)로 전송하는 신호에 ALLM을 턴 온시키는 제어 정보를 포함시킬 수 있다.
한편, 이와 같은 제어 정보는 기설정된 버전 이상의 HDMI 규격을 지원하는 전자 장치(100)에 제공되는 정보일 수 있다. 예를 들어, 제어 정보는 HDMI 2.0 버전 이상의 규격을 지원하는 전자 장치(100)에 제공될 수 있다. 이 경우, 전자 장치(100) 및 소스 장치(200)는 HDMI 2.0 포트를 구비할 수 있다. 다만, 이에 한정되는 것은 아니며, 전자 장치(100)가 지원하는 버전이 HDMI 2.0 미만인 경우, 소스 장치(200)로부터 제어 정보가 제공되더라도 전자 장치(100)에서 ALLM이 턴 온되지 않을 수 있다.
여기서, HDMI 2.0은 4K, 혹은 UHD(울트라 HD)로 불리는 초고해상도 환경에 최적화된 규격이다. HDMI 2.0에서 지원하는 최대 대역폭은 18Gbps이며, 최대 4,096 x 2,160(2160p)의 해상도에서 60Hz로 부드럽게 구동하는 영상을 전송할 수 있게 되었다.
HDMI 규격에는 VSDB(Vender Specific Data Block)라는 정보 블록이 포함되는데, VSDB는 Audio/Video Latency 정보, CEC Physical address 정보, Color bit 정보, 최고 TMDS 주파수 정보 등을 포함할 수 있다. 여기서, Color bit 정보는 컬러 정보를 의미하고, 최고 TMDS(Transition Minimized Differential Signaling)주파수 정보는 해상도 정보를 의미한다.
소스 장치(200)는 전자 장치(100)로 전송하는 컨텐츠의 타입이 게임 컨텐츠로 식별된 경우 VSDB에 포함된 Latency 정보를 조정하는 ALLM(Automatic Low-Latency Mode) 제어 정보를 포함시킬 수 있다.
여기서, 각 버전의 HDMI 포트는 하위 호환성을 가지고 있다. 때문에 상위 규격의 소스 장치(200)와 하위 규격의 전자 장치(100)를 연결해 사용하거나 혹은 그 반대의 경우도 가능하다. 다만, 이 경우에는 양쪽 모두 하위 규격에 해당하는 기능만 사용이 가능하다. 일 예로, 소스 장치(200)가 HDMI 2.0을 지원하더라도 전자 장치(100)가 HDMI 1.4 규격이라면 HDMI 1.4 기능만 이용할 수 있게 된다. 따라서, 전자 장치(100) 상에서 ALLM이 턴 온 되기 위해서는 전자 장치(100) 및 소스 장치(200)의 최소 규격이 HDMI 2.0이어야 한다.
한편, 프로세서(130)는 소스 장치(200)로부터 수신된 신호에 따라 디스플레이(120)의 기설정된 모드가 턴 온되면, 기설정된 모드가 턴 온되는 제1 시점에 대한 정보를 획득할 수 있다. 구체적으로, 프로세서(130)는 기설정된 모드가 턴 온되는 제1 시점에 대한 정보를 메모리(미도시)에 저장할 수 있다.
또한, 프로세서(130)는 제1 시점 이후 기설정된 모드가 턴 오프되는 제2 시점에 대한 정보를 획득할 수 있다. 구체적으로, 프로세서(130)는 기설정된 모드가 턴 오프되는 제2 시점에 대한 정보를 메모리(미도시)에 저장할 수 있다.
여기서, 기설정된 모드가 턴 온되는 제1 시점에 대한 정보 및 기설정된 모드가 턴 오프되는 제2 시점에 대한 정보는, 일 예에 따르면, 해당 시점의 시간 정보일 수 있다. 예를 들어, 제1 시점에 대한 정보는 19년 10월 1일 16시 30분과 같이 제1 시점에서의 시간 정보일 수 있다. 다른 예에 따르면, 제1 시점에 대한 정보는 소요 시간을 측정하는 스톱워치의 개념에서 시작 시점일 수 있다. 이 경우, 기설정된 모드가 턴 오프되는 제2 시점에 대한 정보는 소요 시간 그 자체를 의미할 수 있다. 예를 들어, 제1 시점은 스톱워치가 시작되는 시점으로 0이며 제2 시점은 스톱워치가 종료되는 시점으로 일 예로 2시간 30분일 수 있다.
일 예에 따라, 기설정된 모드를 턴 오프시키는 제어 정보가 포함된 신호에 기초하여 기설정된 모드가 턴 오프될 수 있다.
다른 예에 따라, 제1 시점부터 기설정된 모드를 턴 온시키는 제어 정보가 포함된 신호가 주기적으로 소스 장치(200)로부터 전자 장치(100)로 전송되며, 기설정된 모드를 턴 온시키는 제어 정보가 더 이상 전송되지 않는 경우 기설정된 모드가 턴 오프될 수 있다.
이에 따라, 프로세서(130)는 기설정된 모드가 턴 온되는 제1 시점에 대한 정보 및 기설정된 모드가 턴 오프되는 제2 시점에 대한 정보를 식별할 수 있다. 다시 말해, 프로세서(130)는 기설정된 모드가 턴 온되어 있는 동안의 시간을 식별할 수 있다.
프로세서(130)는 식별 정보, 제1 시점에 대한 정보 및 제2 시점에 대한 정보에 기초하여 디스플레이(120)를 통해 디스플레이된 컨텐츠에 대한 정보를 획득할 수 있다.
여기서, 컨텐츠에 대한 정보는 컨텐츠의 타이틀, 타입 또는 재생 시간 중 적어도 하나를 포함할 수 있다.
구체적으로, 프로세서(130)는 식별 정보에 기초하여 디스플레이(120)를 통해 디스플레이된 컨텐츠의 타이틀을 식별할 수 있다. 여기서, 식별 정보는 서버(300)가 전자 장치(100)로부터 수신된 특징 정보 및 서버(300)에 저장된 특징 정보를 비교하여 획득된 정보로서, 서버(300)가 전자 장치(100)로 전송한 정보일 수 있다. 프로세서(130)는 식별 정보에 기초하여 컨텐츠의 타이틀뿐만 아니라 타입 정보, 제작 연도 정보, 제작 국가 정보, 인물 정보 등을 식별할 수도 있다.
또한, 프로세서(130)는 제1 시점에 대한 정보 및 제2 시점에 대한 정보에 기초하여 식별된 컨텐츠의 재생 시간을 식별할 수 있다. 구체적으로, 프로세서(130)는 식별 정보에 기초하여 식별된 컨텐츠가 제1 시점에 재생이 시작되어 제2 시점에 재생이 종료되는 것으로 식별할 수 있다. 이에 따라, 프로세서(130)는 컨텐츠가 총 재생된 시간 정보를 획득할 수 있다.
프로세서(130)는 서버(300)로부터 수신된 복수의 식별 정보 중 제1 시점 및 제2 시점 사이에서 획득된 특징 정보에 기초하여 컨텐츠의 식별 정보를 획득할 수 있다. 예를 들어, 제1 시점 이전에 특징 정보가 획득되어 서버(300)로 전송되고, 서버(300)로부터 수신된 식별 정보는 제1 시점 및 제2 시점 사이에 디스플레이(120)를 통해 재생되는 컨텐츠가 아니므로, 프로세서(130)는 제1 시점 및 제2 시점 사이에서 획득된 특징 정보에 기초한 컨텐츠 만이 제1 시점 및 제2 시점 사이에서 재생되는 컨텐츠로 식별할 수 있다. 이에 대하여는 도 8에서 자세히 설명하도록 한다.
한편, 프로세서(130)는 현재 재생 중인 컨텐츠의 특징 정보를 획득하는 것으로 상술하였으나, 이에 한정되는 것은 아니며 재생될 컨텐츠의 특징 정보를 획득하여 이에 대한 식별 정보를 서버(300)로부터 수신할 수도 있다.
도 3은 전자 장치의 세부 구성을 설명하기 위한 블록도이다.
도 3에 따르면, 전자 장치(100)는 통신 인터페이스(110), 디스플레이(120), 프로세서(130), 메모리(140), 오디오 출력부(150) 및 사용자 입력부(160)를 포함한다. 도 3에 도시된 구성 중 도 2에 도시된 구성과 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.
프로세서(130)는 메모리(140)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 동작을 전반적으로 제어한다. 프로세서(130)는 영상에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 132)를 포함할 수 있다. 프로세서(130)는 코어(core, 미도시)와 GPU(132)를 포함하는 SoC(System On Chip)로 구현될 수 있다. 프로세서(130)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
한편, 프로세서(130)는 메인 CPU(131), GPU(132), NPU(133)를 포함한다.
메인 CPU(131)는 메모리(140)에 액세스하여, 메모리(140)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메모리(140)에 저장된 각종 프로그램, 컨텐츠 데이터 등을 이용하여 다양한 동작을 수행한다. 특히, 일 실시 예에 따르면, 메인 CPU(131)가 ROM에 저장된 명령어에 따라 메모리(140)에 프로그램을 RAM에 복사하고, RAM에 액세스하여 해당 프로그램을 실행시킬 수 있다.
GPU(132)는 그래픽처리를 위한 고성능의 처리장치에 해당할 수 있으며, 메모리를 빠르게 처리하고 바꾸어 화면으로 출력할 프레임 버퍼 안의 영상 생성을 가속하도록 설계된, 전문화된 전자 회로일 수 있다. 또한, GPU(132)는 VPU(Visual Processing Unit)를 의미할 수 있다.
NPU(133)는 AI 칩셋(또는 AI 프로세서)에 해당할 수 있으며 AI 가속기(AI accelerator)일 수 있다. NPU(133)는 딥뉴럴네트워크 수행에 최적환 된 프로세서 칩에 해당할 수 있다. 한편, NPU(133)는 GPU(132)를 대신하여 딥러닝 모델을 실행하는 처리 장치에 해당할 수 있으며, NPU(133)는 GPU(132)와 함께 딥러닝 모델을 실행하는 처리 장치에 해당할 수도 있다.
메모리(140)는 프로세서(130)와 전기적으로 연결되며, 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다.
메모리(140)는 데이터 저장 용도에 따라 전자 장치(100)에 임베디드된 메모리 형태로 구현되거나, 전자 장치(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 전자 장치(100)의 구동을 위한 데이터의 경우 전자 장치(100)에 임베디드된 메모리에 저장되고, 전자 장치(100)의 확장 기능을 위한 데이터의 경우 전자 장치(100)에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 전자 장치(100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현되고, 전자 장치(100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결 가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.
일 실시 예에 따라, 메모리(140)는 프로세서(130)에 의해 획득된 특징 정보를 저장할 수 있다. 구체적으로, 메모리(140)는 비디오 핑거프린트 또는 오디오 핑거프린트 중 적어도 하나를 저장할 수 있다.
메모리(140)는 제1 시점에 대한 정보 및 제2 시점에 대한 정보를 저장할 수 있다. 또한, 메모리(140)는 특징 정보가 획득된 시점에 대한 정보도 저장할 수 있다.
오디오 출력부(150)는 비디오 신호에 대응되는 오디오 신호를 출력하기 위한 구성이다. 오디오 출력부(150)는 스피커로 구현될 수 있으며, 경우에 따라 사운드 바와 같이 전자 장치(100) 외부 구성으로 구현될 수도 있다.
사용자 입력부(160)는 다양한 사용자 명령 및 정보를 입력 받기 위한 구성이다. 프로세서(130)는 사용자 입력부(160)를 통해 입력된 사용자 명령에 대응되는 기능을 실행하거나, 사용자 입력부(160)를 통해 입력된 정보를 메모리(140)에 저장할 수도 있다.
사용자 입력부(160)는 사용자 명령을 음성 형태로 수신하기 위해 마이크(미도시)를 포함하거나, 사용자 명령을 터치로 입력 받기 위한 디스플레이(120)로 구현될 수 있다.
또한, 사용자 입력부(160)는 전자 장치(100)를 제어하기 위한 별도의 제어 장치(미도시)로부터 사용자 명령 또는 작업에 대한 정보가 포함된 신호를 입력 받을 수도 있다.
도 4는 본 개시의 일 실시 예에 따른 전자 장치 및 서버 간 동작을 설명하기 위한 도면이다.
전자 장치(100)는 신호 수신 모듈, 비디오 핑거프린트(VFP) 획득 모듈, 오디오 핑거프린트(AFP) 획득 모듈, HDMI 정보 처리 모듈 및 컨텐츠 정보 획득 모듈을 포함할 수 있다. 상술한 모듈들은 메모리(140)에 저장되고 프로세서(130)의 제어에 따라 프로세서(130)에 로딩되어 실행될 수 있다.
신호 수신 모듈은 소스 장치(200)로부터 영상 신호를 수신할 수 있다. 영상 신호는 컨텐츠 및 컨텐츠와 관련된 제어 정보를 포함할 수 있다. 신호 수신 모듈은 소스 장치(200)로부터 수신된 영상 신호를 비디오 신호와 오디오 신호로 분리할 수 있다. 이후, 신호 수신 모듈은 비디오 신호를 비디오 핑거프린트 획득 모듈로 전송하고, 오디오 신호를 오디오 핑거프린트 획득 모듈로 전송하며, 제어 정보를 HDMI 정보 처리 모듈로 전송할 수 있다.
비디오 핑거프린트 획득 모듈은 기설정된 시간 간격으로 비디오 신호로부터 비디오 핑거프린트를 획득할 수 있다. 구체적으로, 비디오 핑거프린트 획득 모듈은 비디오 신호에 포함된 픽셀 값에 기초하여 문자열로 구성된 비디오 핑거프린트를 획득할 수 있다. 획득된 비디오 핑거프린트 정보는 컨텐츠 정보 획득 모듈로 전송될 수 있다.
오디오 핑거프린트 획득 모듈은 기설정된 시간 간격으로 오디오 신호로부터 오디오 핑거프린트를 획득할 수 있다. 구체적으로, 오디오 핑거프린트 획득 모듈은 오디오 신호에 포함된 음향 신호의 주파수 정보에 기초하여 문자열로 구성된 오디오 핑거프린트를 획득할 수 있다. 획득된 오디오 핑거프린트 정보는 컨텐츠 정보 획득 모듈로 전송될 수 있다.
HDMI 정보 처리 모듈은 소스 장치(200)로부터 기설정된 버전 이상의 HDMI 규격을 통해 전송된 제어 정보에 기초하여 전자 장치(100)에서 ALLM이 턴 온되는지를 모니터링할 수 있다. HDMI 정보 처리 모듈은 ALLM이 턴 온되는 제1 시점에 대한 정보를 컨텐츠 정보 획득 모듈로 전송할 수 있다.
또한, HDMI 정보 처리 모듈은 턴 온된 ALLM이 턴 오프되는지를 모니터링할 수 있다. HDMI 정보 처리 모듈은 제1 시점 이후 ALLM이 턴 오프되는 제2 시점에 대한 정보를 컨텐츠 정보 획득 모듈로 전송할 수 있다.
컨텐츠 정보 획득 모듈은 HDMI 정보 처리 모듈로부터 전송된 제1 시점에 대한 정보 및 제2 시점에 대한 정보를 메모리(140)에 저장하고, 제1 시점부터 제2 시점 사이에 기설정된 타입의 컨텐츠가 재생된 것으로 식별할 수 있다. 일 예로, 컨텐츠 정보 획득 모듈은 제1 시점부터 제2 시점 사이에 게임 컨텐츠가 재생된 것으로 식별할 수 있다.
한편, 컨텐츠 정보 획득 모듈은 비디오 핑거프린트 획득 모듈 및 오디오 핑거프린트 획득 모듈로부터 전송된 비디오 핑거프린트 정보 및 오디오 핑거프린트 정보를 서버(300)로 전송할 수 있다. 일 예에 따르면, 컨텐츠 정보 획득 모듈은 최근에 수신된 비디오 핑거프린트 정보 또는 오디오 핑거프린트 정보 중 적어도 하나를 서버(300)로 전송할 수 있다. 다만, 이에 한정되는 것은 아니며, 컨텐츠 정보 획득 모듈은 비디오 핑거프린트 획득 모듈 및 오디오 핑거프린트 획득 모듈로부터 전송된 모든 비디오 핑거프린트 정보 및 오디오 핑거프린트 정보를 서버(300)로 전송할 수도 있다.
신호 수신 모듈, 비디오 핑거프린트(VFP) 획득 모듈, 오디오 핑거프린트(AFP) 획득 모듈, HDMI 정보 처리 모듈 및 컨텐츠 정보 획득 모듈의 동작은 프로세서(130)에서 수행되며, 상술한 모듈들을 프로세서(130)로 통칭할 수도 있다. 또한, 모듈의 이름 및 모듈의 종류는 예시일 뿐 다양한 이름 및 다양한 종류의 모듈로 구현될 수 있음은 물론이다.
한편, 서버(300)는 매칭 모듈, 인덱싱 모듈, 데이터베이스, 영상 입력 모듈을 포함할 수 있다.
서버(300)는 전자 장치(100)로부터 전송된 비디오 핑거프린트 또는 오디오 핑거프린트 중 적어도 하나에 기초하여 전자 장치(100)에서 재생되는 컨텐츠를 식별할 수 있다.
매칭 모듈은 전자 장치(100)로부터 전송된 비디오 핑거프린트 또는 오디오 핑거프린트 중 적어도 하나와 매칭되는 컨텐츠를 판단할 수 있다. 예를 들면, 매칭 모듈은 데이터베이스에 저장된 비디오 핑거프린트 정보 및 오디오 핑거프린트 정보에 기초하여 전자 장치(100)으로부터 전송된 비디오 핑거프린트 또는 오디오 핑거프린트 중 적어도 하나와 매칭되는 컨텐츠를 식별할 수 있다. 여기서, 매칭은 비디오 핑거프린트가 다른 비디오 핑거프린트와 동일 또는 유사한 경우, 오디오 핑거프린트가 다른 오디오 핑거프린트와 동일 또는 유사한 경우를 의미할 수 있다.
데이터베이스는 적어도 하나의 컨텐츠에 대해 생성된 비디오 핑거프린트 또는 오디오 핑거프린트 중 적어도 하나를 저장할 수 있다. 예를 들면, 데이터베이스는 게임 컨텐츠의 비디오 핑거프린트 또는 오디오 핑거프린트를 저장하거나 실시간 방송 서비스에 대해 생성된 비디오 핑거프린트 및 오디오 핑거프린트를 저장할 수 있다.
인덱싱 모듈은 비디오, 오디오 각각을 인덱싱할 수 있다. 인덱싱 모듈은 영상 입력 모듈을 통해 전송된 영상 신호에 따른 비디오 신호를 기초로 비디오 핑거프린트를 생성할 수 있고, 전송된 영상 신호에 따른 오디오 신호를 기초로 오디오 핑거프린트를 생성할 수 있다. 여기서, 비디오 핑거프린트 생성 및 오디오 핑거프린트 생성은 비디오 핑거프린트 추출 및 오디오 핑거프린트 추출을 의미할 수 있다.
인덱싱 모듈은 생성된 비디오 핑거프린트 및 오디오 핑거프린트 각각을 인덱싱하여 데이터베이스에 저장할 수 있다.
영상 입력 모듈은 게임 컨텐츠 관련 신호 또는 방송 서비스 신호를 포함하는 컨텐츠 신호를 수신할 수 있다. 영상 입력 모듈은 수신된 신호를 비디오 신호와 오디오 신호로 분리할 수 있다. 영상 입력 모듈은 분리된 비디오 신호 및 오디오 신호를 인덱싱 모듈에 전달할 수 있다. 한편, 게임 컨텐츠 관련 신호 또는 방송 서비스 신호는 소스 장치(200) 또는 외부 장치(미도시)로부터 전송된 신호일 수 있다.
한편, 실시간 방송의 경우, 실시간 방송 서비스 신호는 전자 장치(100) 보다 서버(300)의 영상 입력 모듈에 먼저 전송될 수 있다. 이에 따라, 방송 서비스 신호에 포함된 영상 신호로부터 비디오 핑거프린트 및 오디오 핑거프린트가 전자 장치(100) 보다 먼저 획득되어 데이터베이스에 저장될 수 있다. 이에 따라, 전자 장치(100)로부터 실시간 방송에 대한 컨텐츠 식별 요청이 수신되더라도 서버(300)는 데이터베이스에 저장된 비디오 핑거프린트 또는 오디오 핑거프린트 중 적어도 하나에 기초하여 실시간 방송에 대응되는 컨텐츠를 식별할 수 있다.
도 5는 본 개시의 일 실시 예에 따라 복수의 채널에서 동일한 비디오가 재생되는 경우 컨텐츠를 구별하는 동작을 설명하기 위한 도면이다.
도 5와 같이, 복수의 채널에서 재생되는 컨텐츠의 비디오가 동일한 경우를 상정한다. 이 경우, 전자 장치(100)는 채널 5, 채널 7 및 채널 11로부터 획득된 비디오 핑거프린트 정보를 획득하여 서버(300)로 전송할 수 있다. 서버(300)는 전자 장치(100)로부터 전송된 복수의 비디오 핑거프린트가 동일하므로 각 채널의 컨텐츠를 하나의 컨텐츠로 인식할 수 있다.
다만, 예를 들어, 채널 5, 채널 7 및 채널 11에서 재생 중인 컨텐츠가 축구 경기로 상정하면 각 컨텐츠가 재생되는 채널 번호, 해설자 등이 달라 실제로는 다른 컨텐츠로 식별될 필요가 있다. 따라서, 이 경우 오디오 핑거프린트 정보를 이용하여 컨텐츠를 좀 더 정확하게 식별하는 실시 예에 대해서는 하기의 도 6에서 자세히 설명하도록 한다.
도 6은 본 개시의 일 실시 예에 따른 비디오 특징 정보 만으로 컨텐츠 식별이 안되는 경우 오디오 특징 정보를 이용하는 과정을 설명하기 위한 도면이다.
전자 장치(100)는 서버(300)로부터 컨텐츠에 대한 식별 정보를 수신할 수 있다(S610). 여기서, 서버(300)로부터 수신된 식별 정보가 복수 개인 경우인지를 식별할 수 있다. 즉, 서버(300)로부터 동일한 식별 정보가 복수 개 수신되었는지 여부를 식별할 수 있다. 서버(300)로부터 하나의 식별 정보만이 수신된 경우(S620-N), 전자 장치(100)는 하나의 컨텐츠에 대한 식별 정보를 요청한 것으로 인식하여 해당 식별 정보로서 재생 중인 컨텐츠를 식별할 수 있다(S630).
한편, 서버(300)로부터 복수의 식별 정보가 수신되고 복수의 식별 정보가 동일한 경우(S620-N), 전자 장치(100)는 오디오 핑거프린트(AFP) 정보를 획득할 수 있다(S640). 오디오 핑거프린트 정보를 이용하여 복수의 식별 정보가 구분될 수 있기 때문이다.
전자 장치(100)는 획득된 오디오 핑거프린트 정보를 서버(300)로 전송할 수 있다. 예를 들어, 채널 5, 채널 7 및 채널 11에서 재생 중인 컨텐츠가 축구 경기로 상정하면, 채널 5, 채널 7 및 채널 11의 비디오 신호는 동일하더라도 해설자는 서로 다를 수 있으므로 채널 5, 채널 7 및 채널 11의 오디오 신호는 상이할 수 있다. 따라서, 전자 장치(100)는 각 채널의 오디오 핑거프린트 정보를 서버(300)로 전송할 수 있다.
서버(300)는 전자 장치(100)로부터 전송된 복수의 오디오 핑거프린트 정보를 각각 데이터베이스에 저장된 정보와 비교하여 서로 다른 컨텐츠 식별 정보를 획득할 수 있다. 예를 들어, 서버(300)는 각 오디오 핑거프린트 정보에 대응되는 방송사, 채널 번호, 인물 정보를 상이하게 획득하여 전자 장치(100)로 전송할 수 있다.
전자 장치(100)는 서버(300)로부터 서로 다른 복수의 식별 정보를 수신(S660)하여 컨텐츠를 식별할 수 있다(S670).
전자 장치(100)가 비디오 핑거프린트에 대응되는 식별 정보를 서버(300)로부터 수신한 이후 오디오 핑거프린트 정보를 서버(300)로 전송하는 것으로 상술하였으나, 이에 한정되는 것은 아니며, 전자 장치(100)는 채널 5, 채널 7 및 채널 11에 대한 비디오 핑거프린트 및 오디오 핑거프린트를 함께 전송하고, 서버(300)는 전자 장치(100)로부터 전송된 복수의 비디오 핑거프린트가 동일한 것으로 식별되면 오디오 핑거프린트를 이용하여 각 오디오 핑거프린트 정보에 대응되는 서로 다른 컨텐츠 식별 정보를 획득하여 전자 장치(100)로 전송할 수도 있다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치, 소스 장치 및 서버의 시퀀스도이다.
소스 장치(200)는 전자 장치(100)로 전송할 컨텐츠의 타입을 식별하고(S705), 영상 신호를 전자 장치(100)로 전송할 수 있다(S710). 소스 장치(200)는 전자 장치(100)로 전송하는 컨텐츠가 게임 컨텐츠로 식별되는 경우, 전자 장치(100)로 전송하는 영상 신호에 ALLM을 턴 온시키는 제어 정보를 포함시킬 수 있다.
전자 장치(100)는 소스 장치(200)로부터 영상 신호를 수신할 수 있다(S715). 영상 신호에 포함된 제어 정보에 의해 기설정된 모드가 턴 온 되는지 여부를 식별할 수 있다(S720). 전자 장치(100)는 기설정된 모드가 턴 온되는 것으로 식별되면(S720-Y), 턴 온되는 제1 시점에 대한 정보를 저장할 수 있다.
또한, 전자 장치(100)는 소스 장치(200)로부터 영상 신호가 수신되면, 영상 신호에 포함된 컨텐츠를 비디오 신호 및 오디오 신호로 분리하고, 비디오 신호 및 오디오 신호로부터 주기적으로 특징 정보를 획득할 수 있다(S730). 구체적으로, 전자 장치(100)는 비디오 신호로부터 비디오 핑거프린트 정보를 획득하고, 오디오 신호로부터 오디오 핑거프린트 정보를 획득할 수 있다.
이후, 전자 장치(100)는 컨텐츠에 대한 정보를 식별하기 위해 획득된 특징 정보를 서버(300)로 전송할 수 있다(S735).
한편, 서버(300)는 전자 장치(100) 보다 우선하여 소스 장치(200) 또는 외부 장치로부터 영상 신호를 수신할 수 있다(S740). 서버(300)는 영상 신호에 포함된 컨텐츠를 비디오 신호 및 오디오 신호로 분리하고 비디오 특징 정보 및 오디오 특징 정보를 생성할 수 있다(S745). 생성된 특징 정보를 비디오 특징 정보 및 오디오 특징 정보로 구분하여 저장할 수 있다(S750).
이후, 전자 장치(100)로부터 특징 정보가 전송되면(S735), 서버(300)는 우선 전자 장치(100)로부터 전송된 비디오 특징 정보를 데이터베이스의 정보와 매칭(비교)할 수 있다(S755). 서버(300)는 비디오 특징 정보에 기초하여 획득된 식별 정보가 복수 개인지 여부를 식별할 수 있다(S760). 식별 정보가 복수 개로 식별(S760-Y) 즉, 하나의 컨텐츠로 식별되지 못한 경우 서버(300)는 전자 장치(100)로부터 전송된 오디오 특징 정보를 데이터베이스의 정보와 매칭(비교)할 수 있다(S765). 오디오 특징 정보까지 이용되는 복수의 식별 정보는 하나의 식별 정보로 식별될 것이며, 이에 따라 서버(300)는 하나의 매칭된 컨텐츠를 식별하고 이에 대한 식별 정보를 획득할 수 있다(S770). 이후, 서버(300)는 매칭된 컨텐츠 식별 정보를 전자 장치(100)로 전송할 수 있다(S775).
전자 장치(100)는 기설정된 모드가 턴 오프되는 제2 시점 정보를 획득하고, 제2 시점 정보를 저장할 수 있다(S780). 도 7 상에서는 S780의 단계가 서버(300)로부터 식별 정보를 수신한 이후로 도시되었으나, 이는 일 예일 뿐 S780의 단계는 전자 장치(100)에서 특징 정보를 획득하는 S730 단계 이후의 다양한 시점에서 수행될 수 있는 단계이다.
전자 장치(100)는 서버(300)로부터 수신된 식별 정보 및 저장된 제1 시점 및 제2 시점에 대한 정보에 기초하여 컨텐츠에 대한 정보를 획득할 수 있다(S785).
구체적으로, 전자 장치(100)는 식별 정보에 기초하여 컨텐츠의 타입 및 타이틀을 식별할 수 있고, 제1 시점 및 제2 시점에 대한 정보에 기초하여 컨텐츠의 재생 시간 및 타입을 식별할 수 있다.
도 8은 본 개시의 일 실시 예에 따른 특징 정보의 획득 시점에 기초한 식별 정보를 설명하기 위한 도면이다.
전자 장치(100)는 기설정된 모드가 턴 온되는 제1 시점부터 기설정된 모드가 턴 오프되는 제2 시점 사이에 특정 타입의 컨텐츠가 재생된 것으로 판단할 수 있다. 이 경우, 제1 시점부터 제2 시점 사이에 복수의 서로 다른 식별 정보가 수신되는 경우, 전자 장치(100)는 어떤 식별 정보에 대응되는 컨텐츠가 제1 시점 및 제2 시점 사이에 재생되었는지 식별할 필요가 있다.
예를 들어, 전자 장치(100)가 제1 시점 이전인 t1 시점에 A 컨텐츠로부터 특징 정보를 획득하고, 획득된 특징 정보를 서버(300)로 전송할 수 있다. 서버(300)는 특징 정보에 기초하여 매칭되는 A 컨텐츠를 식별하고, A 컨텐츠의 식별 정보를 전자 장치(100)로 전송할 수 있다. 이에 전자 장치(100)는 제1 시점 이후인 t2 시점에 서버(300)로부터 A 컨텐츠의 식별 정보를 수신하는 것으로 상정한다.
또한, 전자 장치(100)가 제1 시점 이후인 t3 시점에 B 컨텐츠로부터 특징 정보를 획득하고, 획득된 특징 정보를 서버(300)로 전송할 수 있다. 서버(300)는 특징 정보에 기초하여 매칭되는 B 컨텐츠를 식별하고, B 컨텐츠의 식별 정보를 전자 장치(100)로 전송할 수 있다. 이에 전자 장치(100)는 제2 시점 이전인 t4 시점에 서버(300)로부터 B 컨텐츠의 식별 정보를 수신하는 것으로 상정한다.
다시 말해, 전자 장치(100)는 제1 시점부터 제2 시점 사이에 서버(300)로부터 복수의 식별 정보를 수신할 수 있다. 이 경우, 전자 장치(100)는 서버(300)로부터 수신된 복수의 식별 정보 중 제1 시점 및 제2 시점 사이에서 획득된 특징 정보에 대응되는 식별 정보(t4 시점에 수신된 식별 정보)를 식별할 수 있다. 전자 장치(100)는 t4 시점에 수신된 식별 정보에 대응되는 컨텐츠가 제1 시점부터 제2 시점 사이에 재생된 것으로, 컨텐츠 B의 재생 시간을 식별할 수 있다.
또한, B 컨텐츠의 식별 정보를 수신한 시점인 t4가 제2 시점 이후이더라도 B 컨텐츠의 특징 정보는 제1 시점 및 제2 시점 사이에서 획득되었으므로, 이 경우에도 전자 장치(100)는 B 컨텐츠가 제1 시점부터 제2 시점 사이에 재생된 것으로 식별할 수 있다.
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
전자 장치(100)는 소스 장치(200로부터 컨텐츠가 수신되면, 수신된 컨텐츠의 특징 정보를 획득하여 서버(300)로 전송할 수 있다(S910).
여기서, 특징 정보는 비디오 특징 정보 또는 오디오 특징 정보 중 적어도 하나를 포함할 수 있다. 비디오 특징 정보는 비디오 핑거프린트로 구현되고, 오디오 특징 정보는 오디오 핑거프린트로 구현될 수 있다.
구체적으로, 전자 장치(100)는 수신된 컨텐츠 중 현재 시청 중인 컨텐츠의 이미지를 기설정된 시간 간격으로 캡쳐하고, 캡쳐된 이미지의 픽셀 값에 기초하여 비디오 특징 정보를 획득할 수 있다.
또한, 전자 장치(100)는 현재 시청 중인 컨텐츠의 음향 신호의 주파수 정보를 기설정된 시간 간격으로 획득하고, 획득된 주파수 정보에 기초하여 오디오 특징 정보를 획득할 수 있다.
여기서, 오디오 특징 정보는 비디오 특징 정보에 기초하여 획득된 컨텐츠의 식별 정보가 복수인 경우, 복수의 식별 정보 중 현재 시청 중인 컨텐츠에 대응되는 식별 정보를 획득하기 위해 추가적으로 이용되는 정보일 수 있다.
한편, 전자 장치(100)는 기설정된 시간 간격으로 캡쳐된 복수의 이미지 중 최근에 캡쳐된 기설정된 개수의 이미지로부터 비디오 특징 정보를 획득하여 서버(300)로 전송할 수 있다.
전자 장치(100)는 서버(300)로부터 특징 정보에 기초하여 획득된 컨텐츠의 식별 정보를 수신할 수 있다(S920).
구체적으로, 전자 장치(100)는 서버(300)로부터 수신된 복수의 식별 정보 중 제1 시점 및 제2 시점 사이에서 획득된 특징 정보에 기초하여 컨텐츠의 식별 정보를 획득할 수 있다.
전자 장치(100)는 소스 장치(200)로부터 수신된 신호에 따라 전자 장치(100)의 기설정된 모드가 턴 온되면, 기설정된 모드가 턴 온되는 제1 시점에 대한 정보를 획득할 수 있다(S930).
여기서, 소스 장치(200)로부터 수신된 신호는 소스 장치(200)에서 제공하는 컨텐츠의 타입에 기초하여 전자 장치(100)가 기설정된 모드를 턴 온 또는 턴 오프시키도록 하는 제어 정보를 포함할 수 있다.
제어 정보는 컨텐츠의 타입이 게임 컨텐츠인 경우 소스 장치(200)로부터 제공되는 정보이며, 기설정된 모드는 ALLM(Automatic Low-Latency Mode)일 수 있다.
전자 장치(100)는 제1 시점 이후 기설정된 모드가 턴 오프되는 제2 시점에 대한 정보를 획득할 수 있다(S940).
전자 장치(100)는 획득된 식별 정보, 제1 시점에 대한 정보 및 제2 시점에 대한 정보에 기초하여 디스플레이된 컨텐츠에 대한 정보를 획득할 수 있다(S950).
구체적으로, 전자 장치(100)는 식별 정보에 기초하여 디스플레이된 컨텐츠의 타이틀을 식별하고, 제1 시점 및 제2 시점에 대한 정보에 기초하여 식별된 컨텐츠의 재생 시간을 식별할 수 있다.
각 단계의 상세 동작에 대해서는 상술한 바 있으므로 자세한 설명은 생략하도록 한다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 설치 가능한 어플리케이션 형태로 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다.
또한, 상술한 본 개시의 다양한 실시 예들은 전자 장치에 구비된 임베디드 서버, 또는 전자 장치 중 적어도 하나의 외부 서버를 통해 수행되는 것도 가능하다.
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.
한편, 상술한 다양한 실시 예들에 따른 기기의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 기기에서의 처리 동작을 특정 기기가 수행하도록 한다.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.
또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
100 : 전자 장치 110 : 통신 인터페이스
120 : 디스플레이 130 : 프로세서
140 : 메모리 150 : 오디오 출력부
200 : 소스 장치 300 : 서버
1000 : 전자 시스템

Claims (20)

  1. 통신 인터페이스;
    디스플레이; 및
    상기 통신 인터페이스를 통해 소스 장치로부터 컨텐츠가 수신되면, 상기 수신된 컨텐츠의 특징 정보를 획득하여 외부 서버로 전송하고,
    상기 외부 서버로부터 상기 특징 정보에 기초하여 획득된 상기 컨텐츠의 식별 정보를 수신하고,
    상기 통신 인터페이스를 통해 상기 소스 장치로부터 수신된 신호에 따라 상기 디스플레이의 기설정된 모드가 턴 온되면, 상기 기설정된 모드가 턴 온되는 제1 시점에 대한 정보를 획득하고,
    상기 제1 시점 이후 상기 기설정된 모드가 턴 오프되는 제2 시점에 대한 정보를 획득하고,
    상기 식별 정보, 상기 제1 시점에 대한 정보 및 상기 제2 시점에 대한 정보에 기초하여 상기 디스플레이를 통해 디스플레이된 상기 컨텐츠에 대한 정보를 획득하는 프로세서;를 포함하는 전자 장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 식별 정보에 기초하여 상기 디스플레이를 통해 디스플레이된 상기 컨텐츠의 타이틀을 식별하고, 상기 제1 시점 및 상기 제2 시점에 대한 정보에 기초하여 상기 식별된 컨텐츠의 재생 시간을 식별하는, 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 외부 서버로부터 수신된 복수의 식별 정보 중 상기 제1 시점 및 상기 제2 시점 사이에서 획득된 특징 정보에 기초하여 상기 컨텐츠의 식별 정보를 획득하는, 전자 장치.
  4. 제1항에 있어서,
    상기 소스 장치로부터 수신된 신호는,
    상기 소스 장치에서 제공하는 컨텐츠의 타입에 기초하여 상기 전자 장치가 상기 기설정된 모드를 턴 온 또는 턴 오프시키도록 하는 제어 정보를 포함하는, 전자 장치.
  5. 제4항에 있어서,
    상기 기설정된 모드는,
    ALLM(Automatic Low-Latency Mode)인, 전자 장치.
  6. 제4항에 있어서,
    상기 제어 정보는,
    기설정된 버전 이상의 HDMI 규격을 지원하는 상기 전자 장치에 제공되는 정보인, 전자 장치.
  7. 제4항에 있어서,
    상기 제어 정보는,
    상기 컨텐츠의 타입이 게임 컨텐츠인 경우 상기 소스 장치로부터 제공되는 정보인, 전자 장치.
  8. 제1항에 있어서,
    상기 특징 정보는,
    비디오 특징 정보 또는 오디오 특징 정보 중 적어도 하나를 포함하고,
    상기 프로세서는,
    상기 수신된 컨텐츠 중 현재 시청 중인 컨텐츠의 이미지를 기설정된 시간 간격으로 캡쳐하고, 상기 캡쳐된 이미지의 픽셀 값에 기초하여 상기 비디오 특징 정보를 획득하고,
    상기 현재 시청 중인 컨텐츠의 음향 신호의 주파수 정보를 기설정된 시간 간격으로 획득하고, 상기 획득된 주파수 정보에 기초하여 상기 오디오 특징 정보를 획득하는, 전자 장치.
  9. 제8항에 있어서,
    상기 오디오 특징 정보는,
    상기 비디오 특징 정보에 기초하여 획득된 컨텐츠의 식별 정보가 복수인 경우, 상기 복수의 식별 정보 중 현재 시청 중인 컨텐츠에 대응되는 식별 정보를 획득하기 위해 추가적으로 이용되는 정보인, 전자 장치.
  10. 제8항에 있어서,
    상기 프로세서는,
    상기 기설정된 시간 간격으로 캡쳐된 복수의 이미지 중 최근에 캡쳐된 기설정된 개수의 이미지로부터 상기 비디오 특징 정보를 획득하는, 전자 장치.
  11. 소스 장치로부터 컨텐츠가 수신되면, 상기 수신된 컨텐츠의 특징 정보를 획득하여 외부 서버로 전송하는 단계;
    상기 외부 서버로부터 상기 특징 정보에 기초하여 획득된 상기 컨텐츠의 식별 정보를 수신하는 단계;
    상기 소스 장치로부터 수신된 신호에 따라 상기 전자 장치의 기설정된 모드가 턴 온되면, 상기 기설정된 모드가 턴 온되는 제1 시점에 대한 정보를 획득하는 단계;
    상기 제1 시점 이후 상기 기설정된 모드가 턴 오프되는 제2 시점에 대한 정보를 획득하는 단계; 및
    상기 식별 정보, 상기 제1 시점에 대한 정보 및 상기 제2 시점에 대한 정보에 기초하여 디스플레이된 상기 컨텐츠에 대한 정보를 획득하는 단계;를 포함하는 전자 장치의 제어 방법.
  12. 제11항에 있어서,
    상기 컨텐츠에 대한 정보를 획득하는 단계는,
    상기 식별 정보에 기초하여 디스플레이된 상기 컨텐츠의 타이틀을 식별하고, 상기 제1 시점 및 상기 제2 시점에 대한 정보에 기초하여 상기 식별된 컨텐츠의 재생 시간을 식별하는, 제어 방법.
  13. 제12항에 있어서,
    상기 컨텐츠의 식별 정보를 수신하는 단계는,
    상기 외부 서버로부터 수신된 복수의 식별 정보 중 상기 제1 시점 및 상기 제2 시점 사이에서 획득된 특징 정보에 기초하여 상기 컨텐츠의 식별 정보를 획득하는, 제어 방법.
  14. 제11항에 있어서,
    상기 소스 장치로부터 수신된 신호는,
    상기 소스 장치에서 제공하는 컨텐츠의 타입에 기초하여 상기 전자 장치가 상기 기설정된 모드를 턴 온 또는 턴 오프시키도록 하는 제어 정보를 포함하는, 제어 방법.
  15. 제14항에 있어서,
    상기 기설정된 모드는,
    ALLM(Automatic Low-Latency Mode)인, 제어 방법.
  16. 제14항에 있어서,
    상기 제어 정보는,
    기설정된 버전 이상의 HDMI 규격을 지원하는 상기 전자 장치에 제공되는 정보인, 제어 방법.
  17. 제14항에 있어서,
    상기 제어 정보는,
    상기 컨텐츠의 타입이 게임 컨텐츠인 경우 상기 소스 장치로부터 제공되는 정보인, 제어 방법.
  18. 제11항에 있어서,
    상기 특징 정보는,
    비디오 특징 정보 또는 오디오 특징 정보 중 적어도 하나를 포함하고,
    상기 특징 정보를 획득하여 외부 서버로 전송하는 단계는,
    상기 수신된 컨텐츠 중 현재 시청 중인 컨텐츠의 이미지를 기설정된 시간 간격으로 캡쳐하고, 상기 캡쳐된 이미지의 픽셀 값에 기초하여 상기 비디오 특징 정보를 획득하고,
    상기 현재 시청 중인 컨텐츠의 음향 신호의 주파수 정보를 기설정된 시간 간격으로 획득하고, 상기 획득된 주파수 정보에 기초하여 상기 오디오 특징 정보를 획득하는, 제어 방법.
  19. 제18항에 있어서,
    상기 오디오 특징 정보는,
    상기 비디오 특징 정보에 기초하여 획득된 컨텐츠의 식별 정보가 복수인 경우, 상기 복수의 식별 정보 중 현재 시청 중인 컨텐츠에 대응되는 식별 정보를 획득하기 위해 추가적으로 이용되는 정보인, 제어 방법.
  20. 제18항에 있어서,
    상기 특징 정보를 획득하여 외부 서버로 전송하는 단계는,
    상기 기설정된 시간 간격으로 캡쳐된 복수의 이미지 중 최근에 캡쳐된 기설정된 개수의 이미지로부터 상기 비디오 특징 정보를 획득하는, 제어 방법.
KR1020190144022A 2019-11-12 2019-11-12 전자 장치 및 그 제어 방법 KR20210057354A (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020190144022A KR20210057354A (ko) 2019-11-12 2019-11-12 전자 장치 및 그 제어 방법
CN202011127958.9A CN112866613A (zh) 2019-11-12 2020-10-20 电子装置及其控制方法
EP20202732.2A EP3823288B1 (en) 2019-11-12 2020-10-20 Electronic apparatus and control method thereof
PCT/KR2020/014449 WO2021096091A1 (en) 2019-11-12 2020-10-22 Electronic apparatus and control method thereof
US17/082,720 US11516549B2 (en) 2019-11-12 2020-10-28 Electronic apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190144022A KR20210057354A (ko) 2019-11-12 2019-11-12 전자 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
KR20210057354A true KR20210057354A (ko) 2021-05-21

Family

ID=72964516

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190144022A KR20210057354A (ko) 2019-11-12 2019-11-12 전자 장치 및 그 제어 방법

Country Status (5)

Country Link
US (1) US11516549B2 (ko)
EP (1) EP3823288B1 (ko)
KR (1) KR20210057354A (ko)
CN (1) CN112866613A (ko)
WO (1) WO2021096091A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3118375A1 (fr) * 2020-12-18 2022-06-24 Sagemcom Broadband Sas Procede et dispositif de gestion du mode de fonctionnement d’un dispositif comprenant des moyens de transfert d’une source audiovisuelle et des moyens de restitution d’un signal audio dans un systeme audiovisuel.
US11616999B1 (en) * 2021-09-30 2023-03-28 The Nielsen Company (Us), Llc Methods and apparatus to automate the recording of media for signature creation
US11785300B2 (en) * 2022-02-17 2023-10-10 Roku, Inc. HDMI customized ad insertion

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1044810A (en) 1912-04-22 1912-11-19 Oster Mfg Co Die-stock.
US20160019598A1 (en) 2014-07-17 2016-01-21 David Harrison Targeted advertising and attribution across multiple screens based on playing games on a game console through a television
JP5371493B2 (ja) 2009-03-09 2013-12-18 キヤノン株式会社 装置及び方法
US8203580B2 (en) * 2009-05-04 2012-06-19 Broadcom Corporation Adaptive control of LCD display characteristics based on video content
US9104238B2 (en) * 2010-02-12 2015-08-11 Broadcom Corporation Systems and methods for providing enhanced motion detection
US10142687B2 (en) * 2010-11-07 2018-11-27 Symphony Advanced Media, Inc. Audience content exposure monitoring apparatuses, methods and systems
US8918804B2 (en) 2012-02-07 2014-12-23 Turner Broadcasting System, Inc. Method and system for a reward program based on automatic content recognition
US20130205311A1 (en) * 2012-02-07 2013-08-08 Arun Ramaswamy Methods and apparatus to control a state of data collection devices
US8990446B2 (en) * 2012-10-04 2015-03-24 Sony Computer Entertainment America, LLC Method and apparatus for decreasing presentation latency
US9495451B2 (en) 2013-01-07 2016-11-15 Gracenote, Inc. Identifying video content via fingerprint matching
KR20150120963A (ko) 2013-02-21 2015-10-28 엘지전자 주식회사 영상 표시 장치 및 그 동작 방법
WO2014141425A1 (ja) * 2013-03-14 2014-09-18 株式会社 東芝 映像表示システム、ソース機器、シンク機器及び映像表示方法
EP3125567B1 (en) 2014-03-26 2019-09-04 Panasonic Intellectual Property Management Co., Ltd. Video receiving device, video recognition method, and supplementary information display system
KR20160003400A (ko) * 2014-07-01 2016-01-11 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
JP6616212B2 (ja) 2015-09-28 2019-12-04 マクセル株式会社 表示制御方法
KR101757878B1 (ko) * 2015-12-10 2017-07-14 삼성전자주식회사 컨텐츠 처리장치, 그의 컨텐츠 처리방법, 서버, 서버의 정보 제공방법 및 정보제공 시스템
KR102560635B1 (ko) 2015-12-28 2023-07-28 삼성전자주식회사 컨텐트 인식 장치 및 그 동작 방법
US10045075B2 (en) * 2016-02-18 2018-08-07 The Nielsen Company (Us), Llc Methods and apparatus to identify and credit media using ratios of media characteristics
US11134114B2 (en) * 2016-03-15 2021-09-28 Intel Corporation User input based adaptive streaming
US9681183B1 (en) * 2016-05-19 2017-06-13 Bby Solutions, Inc. Over-the-air digital television video stream tuning and casting
US10616639B2 (en) * 2016-12-21 2020-04-07 Samsung Electronics Co., Ltd. Display apparatus, content recognizing method thereof, and non-transitory computer readable recording medium
KR101918395B1 (ko) 2017-03-24 2018-11-13 주식회사 엘지유플러스 콘텐츠 객체 이동 궤적의 표시를 위한 장치 및 방법
JP6356857B1 (ja) 2017-03-30 2018-07-11 西日本電信電話株式会社 ログ記録装置、ログ記録方法及びログ記録プログラム
CN108853679B (zh) * 2017-05-10 2023-06-06 京东方科技集团股份有限公司 智能助睡设备及其方法、服务器及系统
KR102342051B1 (ko) * 2017-08-08 2021-12-22 삼성전자주식회사 영상 처리 장치, 영상 처리 방법 및 영상 디스플레이 시스템
US10448109B1 (en) * 2017-09-26 2019-10-15 Amazon Technologies, Inc. Supplemental content determinations for varied media playback
US10721527B2 (en) * 2018-04-23 2020-07-21 Free Stream Media Corporation Device setting adjustment based on content recognition
US11240280B2 (en) * 2019-02-19 2022-02-01 Apple Inc. Low latency streaming media
US11323766B2 (en) * 2019-10-03 2022-05-03 Dolby International Ab Method and device for providing audio/video content to a rendering device
US11037520B2 (en) * 2019-11-07 2021-06-15 International Business Machines Corporation Screen capture prevention

Also Published As

Publication number Publication date
EP3823288A1 (en) 2021-05-19
US11516549B2 (en) 2022-11-29
WO2021096091A1 (en) 2021-05-20
CN112866613A (zh) 2021-05-28
US20210144443A1 (en) 2021-05-13
EP3823288B1 (en) 2024-05-01

Similar Documents

Publication Publication Date Title
EP3823288B1 (en) Electronic apparatus and control method thereof
KR102453833B1 (ko) 전자 장치 및 그 제어 방법
US10741215B1 (en) Automatic generation of video playback effects
CN111954061B (zh) 电子设备及其控制方法
KR20200063777A (ko) 디스플레이 장치 및 그 제어 방법
US20190020543A1 (en) Automatic Determination of Display Device Functionality
US8204610B2 (en) Eletronic device, display device, and method of controlling audio/video output of an electronic device
KR102436020B1 (ko) 전자 장치 및 그 제어 방법
US20150181154A1 (en) Method and system for playing video
EP4287632A1 (en) Electronic apparatus and image processing method thereof
CN110286870A (zh) 输出方法和输出设备
US20180255264A1 (en) Electronic apparatus for playing substitutional advertisement and controlling method thereof
EP3487168A1 (en) Content providing apparatus, method of controlling the same, and recording medium thereof
KR20210049582A (ko) 전자 장치 및 그 제어 방법
KR20210051048A (ko) 전자 장치 및 그 제어 방법
US20240129593A1 (en) Electronic apparatus and controlling method thereof
KR20200004210A (ko) 디스플레이장치 및 그 제어방법과 기록매체
KR20240086432A (ko) 소스 기기로 edid를 제공하는 싱크 기기 및 그의 edid 제공 방법
US20240061633A1 (en) Display apparatus that provides image information and control method thereof
KR20230055073A (ko) 디스플레이 장치 및 이의 제어 방법
US20240056761A1 (en) Three-dimensional (3d) sound rendering with multi-channel audio based on mono audio input
KR102494591B1 (ko) 전자 장치, 그 제어 방법 및 전자 시스템
KR20240025993A (ko) 영상 정보를 제공하는 디스플레이 장치 및 그 제어 방법
KR20230020182A (ko) 전자 장치 및 그 제어 방법
KR20230111006A (ko) 디스플레이 장치의 동작 방법 및 이를 위한 장치