CN110447233B - 用于识别用户界面的显示设备及其控制方法 - Google Patents

用于识别用户界面的显示设备及其控制方法 Download PDF

Info

Publication number
CN110447233B
CN110447233B CN201880015921.1A CN201880015921A CN110447233B CN 110447233 B CN110447233 B CN 110447233B CN 201880015921 A CN201880015921 A CN 201880015921A CN 110447233 B CN110447233 B CN 110447233B
Authority
CN
China
Prior art keywords
image
broadcast
display
area
control signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880015921.1A
Other languages
English (en)
Other versions
CN110447233A (zh
Inventor
权五絪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN110447233A publication Critical patent/CN110447233A/zh
Application granted granted Critical
Publication of CN110447233B publication Critical patent/CN110447233B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42202Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] environmental sensors, e.g. for detecting temperature, luminosity, pressure, earthquakes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Ecology (AREA)
  • Emergency Management (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

提供了一种显示设备。显示设备包括通信接口、显示器、存储器和处理器。通信接口与外部电子设备连接。显示器显示从外部电子设备接收的广播图像。处理器处理从外部电子设备接收的广播图像。处理器接收用于控制外部电子设备的控制信号,响应于接收到控制信号,基于在显示器上显示的广播图像的噪声水平来确定广播图像的用户界面(UI)图像区域,并且将关于与控制信号相对应的UI图像区域的信息存储在存储器中。

Description

用于识别用户界面的显示设备及其控制方法
技术领域
根据本公开的装置、设备、方法和制品涉及一种用于识别与接收的广播图像混合(blend)的用户界面的显示设备以及该显示设备的控制方法。
背景技术
由于研发出了与广播技术和互联网通信技术一起使用的各种类型的电子设备,因此可以向用户提供各种类型的内容。具体而言,由于研发出了诸如笔记本个人计算机(PC)、智能电话或平板PC之类的移动设备,因此可以直接向用户提供内容。
在使用移动设备时,通过使用移动设备的用户信息可以向多个用户提供不同类型的内容,而不是单方面地向每个用户提供相同的内容。
以上信息仅作为背景信息呈现,用以帮助理解本公开。对于上述任何一者是否可适用为关于本公开的现有技术,没有作出任何确定,也没有作出认定。
发明内容
技术问题
在相关技术中,当显示设备从广播接收设备接收到其中混合有用户界面(UI)图像的广播图像时,显示设备可能无法识别广播图像中的UI图像区域。因此,当显示设备通过显示器针对用户提供不同的服务时,显示设备可能会在广播图像中的UI图像区域上显示不同的图像,由此不利地限制了通过UI带来的用户体验(UX)。
本公开的各方面至少解决了上述问题和/或缺点,并至少提供了下述优点。因此,本公开的一个方面是提供一种显示设备,该显示设备响应于从遥控设备接收到用于控制广播接收设备的控制信号,标识从广播接收设备接收的广播图像中的UI图像区域,从而防止通过UI带来的UX受到限制。
针对技术问题的技术方案
一个方面是提供一种显示设备,该显示设备响应于从遥控设备接收到用于控制广播接收设备的控制信号,标识从广播接收设备接收的广播图像中的用户界面(UI)图像区域,从而防止通过UI带来的用户体验(UX)受到限制。
根据一个或多个示例性实施例的一方面,提供了一种显示设备,该显示设备包括:通信接口,与外部电子设备连接;显示器,被配置为显示从外部电子设备接收的广播图像;存储器;以及,处理器,被配置为处理从外部电子设备接收的广播图像,该处理器被配置为:接收用于控制外部电子设备的控制信号;响应于接收到控制信号,基于在显示器上显示的广播图像的噪声水平,确定广播图像的用户界面(UI)图像区域;以及,将关于与控制信号相对应的UI图像区域的信息存储在存储器中。
根据一个或多个示例性实施例的另一方面,提供了一种方法,该方法包括:通过显示设备接收用于控制外部电子设备的控制信号;响应于接收到控制信号,通过显示设备基于在显示设备的显示器上显示的广播图像的噪声水平,确定广播图像中的UI图像区域;以及,通过显示设备将关于与控制信号相对应的UI图像区域的信息存储在显示设备的存储器中。
根据一个或多个示例性实施例的另一方面,提供了一种记录程序代码的非暂时性计算机可读记录介质,该程序代码在由计算机执行时实现包括以下操作的方法:接收用于控制外部电子设备的控制信号;响应于接收到控制信号,基于在显示器上显示的广播图像的噪声水平,确定广播图像中的用户界面(UI)图像区域;以及将关于与控制信号相对应的UI图像区域的信息存储在存储器中。
本发明的有益效果
根据各种示例性实施例,显示设备响应于从遥控设备接收到用于控制广播接收设备的控制信号,通过使用从广播服务器接收的广播图像的空间频率来计算噪声水平,通过从广播图像中标识具有阈值水平或更小水平的区域来确定广播图像中的UI图像区域,并且通过将关于UI图像的信息与控制信号进行匹配来存储关于UI图像区域的信息。因此,响应于从遥控设备发送控制信号,显示设备可以通过识别广播图像中的UI图像区域通过显示器向用户提供各种服务,而不会对通过UI带来的UX造成限制。
通过以下结合附图而公开各种示例性实施例的详细描述,本公开的其他方面、优点和显著特征对于本领域技术人员而言将变得显而易见。
附图说明
根据结合附图而做出的以下描述,上述和其他方面将变得更加明显,在附图中:
图1是示出了根据各种示例性实施例的显示系统的图;
图2是示出了根据示例性实施例的显示设备的元件的框图;
图3a至图3c是示出了根据示例性实施例的在显示设备中确定广播图像中的UI图像区域的方法的图;
图4是示出了根据示例性实施例的通过使显示设备的图像通过高通滤波器来确定其中混合有UI图像的区域的方法的图;
图5a至图5c示出了根据示例性实施例的通过使用在多个时间点处捕获的显示设备的图像来确定其中混合有UI图像的区域的方法;
图6是示出了根据各种示例性实施例的用于提供替代广告的系统的图;以及
图7是示出了根据各种示例性实施例的显示设备的控制方法的流程图。
具体实施方式
在下文中,可以参考附图描述本公开的各种示例性实施例。因此,本领域普通技术人员应理解的是,本公开并不限于特定示例性实施例,而是本公开的示例性实施例的各种修改、等同物和/或备选方案包括在本公开中。在以下参考附图进行的描述中,类似的元件将被指派有相似的附图标记。
在相关技术中,当显示设备从广播接收设备接收到其中混合有用户界面(UI)图像的广播图像时,显示设备可能无法识别广播图像中的UI图像区域。因此,当显示设备通过显示器针对用户提供不同的服务时,显示设备可能会在广播图像中的UI图像区域上显示不同的图像,由此不利地限制了通过UI带来的用户体验(UX)。
本公开的各方面至少解决了上述问题和/或缺点,并至少提供了下述优点。因此,本公开的一个方面是提供一种显示设备,该显示设备响应于从遥控设备接收到用于控制广播接收设备的控制信号,标识从广播接收设备接收到的广播图像中的UI图像区域,从而防止通过UI带来的UX受到限制。
根据各种示例性实施例,显示设备响应于从遥控设备接收到用于控制广播接收设备的控制信号,通过使用从广播服务器接收的广播图像的空间频率来计算噪声水平,通过从广播图像中标识出具有阈值水平或更小水平的区域来确定广播图像中的UI图像区域,并且通过将关于UI图像的信息与控制信号进行匹配来存储关于UI图像区域的信息。因此,响应于从遥控设备发送控制信号,显示设备可以通过识别广播图像中的UI图像区域经由显示器向用户提供各种服务,而不会对通过UI带来的UX造成限制。
根据以下结合附图而公开各种示例性实施例的详细描述,本公开的其他方面、优点和显著特征对于本领域技术人员而言将变得显而易见。
图1是示出了根据各种示例性实施例的显示系统的图。
参考图1,显示系统10可以包括显示设备100、广播接收设备(或外部电子设备)200和遥控设备300。显示设备100可以再现从广播接收设备200发送的内容和广告。内容和广告均可以包括图像(例如,视频图像)和音频信号。
根据示例性实施例,显示设备100可以从广播接收设备200接收广播图像。例如,显示设备100可以通过有线接口(例如,高清多媒体接口(HDMI)、数字视频/视觉交互(DVI)、视频图形阵列(VGA)、显示端口等)或通过无线接口(例如,无线保真(Wi-Fi)、无线HD(WiHD)、无线千兆比特(Wigig)等)与广播接收设备200连接,以接收广播图像。也就是说,图1中显示设备100与广播接收设备200之间的实线可以指示显示设备与广播接收设备200之间的有线或无线连接。广播图像可以包括例如内容(例如,广播节目)图像或广告图像。根据示例性实施例,显示设备100可以在显示器上显示广播图像。
根据示例性实施例,显示设备100可以从遥控设备300接收用于控制广播接收设备200的控制信号。例如,显示设备100可以针对从遥控设备300向广播接收设备200发送的控制信号执行侦听(snooping)。备选地,显示设备100可以从遥控设备300接收控制信号以通过显示设备100控制广播接收设备200,例如,在实现了由一个设备控制另一个设备的HDMI或DVI实现方式中。因此,显示设备100可以识别出产生了从遥控设备300到广播接收设备200的控制信号。
根据示例性实施例,显示设备100可以用从外部设备(比如,TV、台式计算机、膝上型PC、智能电话、平板PC、监视器、电子相框等)接收内容并在显示器上显示内容的各种设备来实现。
根据示例性实施例,广播接收设备200可以向显示设备100发送广播图像。例如,广播接收设备200可以从广播服务器接收广播图像。广播接收设备200可以通过通信网络(例如,射频(RF)通信网络或IP通信网络)与广播服务器连接以接收广播图像。根据示例性实施例,广播接收设备200可以将UI图像与所接收的广播图像混合,并且可以将混合的广播图像发送到显示设备100以进行显示。例如,响应于从遥控设备300接收到与用户输入相对应的控制信号,广播接收设备200可以将与控制信号相对应的UI图像与广播图像混合,并且可以将混合的图像发送到显示设备100。
根据示例性实施例,广播接收设备200可以用接收和/或存储广播内容并将广播内容发送到显示设备100的各种设备(例如,机顶盒)来实现。
根据示例性实施例,遥控设备300可以接收用户输入,并且可以将与所接收的用户输入相对应的控制信号发送到广播接收设备200。例如,遥控设备300可以通过短距离无线通信接口(例如,蓝牙、近场通信或红外线收发器接口等)将控制信号发送到广播接收设备200。根据示例性实施例,遥控设备300可以包括用于接收用户输入的至少一个按钮、触摸板、动作识别传感器或语音识别传感器中的一个或多个。
在相关技术的显示设备100中,当从广播接收设备200接收到其中混合有UI图像的广播图像时,显示设备100可能无法识别广播图像的UI图像区域(例如,其中混合有UI图像的区域)。因此,当通过显示器针对用户提供不同服务(例如,替代广告服务)时,显示设备100可能会在广播图像中的UI图像区域上显示不同的图像(例如,替代广告图像),由此限制了通过UI带来的UX。根据各种示例性实施例,响应于从遥控设备300接收到用于控制广播接收设备200的控制信号,显示设备100可以通过标识从广播接收设备200接收到的广播图像中的UI图像区域来防止通过UI带来的UX受到限制。
图2是示出了根据示例性实施例的显示设备的元件的框图。
参考图2,显示设备100可以包括通信接口110、存储器120、显示器130和处理器140。
根据示例性实施例,通信接口110可以与外部设备连接并且可以收发数据。例如,通信接口110可以与广播接收设备200连接,并且可以从广播接收设备200接收广播图像。作为另一示例,通信接口110可以与遥控设备300连接,并且可以接收用于控制广播接收设备200(见图1)的控制信号。换言之,通信接口110可以侦听不一定是用于(例如,用于控制)显示设备100的控制信号。
根据示例性实施例,存储器120可以存储通过对显示器130上显示的广播图像进行分析而创建的信息。例如,存储器120可以存储关于混合在广播图像中的UI图像的信息。例如,可以通过与对应于UI图像的控制信号进行匹配来存储关于广播图像中的UI图像区域的信息。
根据示例性实施例,显示器130可以显示从外部设备接收的图像。例如,显示器130可以显示从广播接收设备200接收的广播图像(例如,内容图像或广告图像)。例如,广播图像可以包括混合有UI图像的图像。
根据示例性实施例,处理器140可以控制显示设备100的整体操作。处理器140可以包括至少一个中央处理单元(CPU)和/或至少一个微处理器。例如,处理器140可以通过控制通信接口110、存储器120和显示器130来在显示器130上显示从外部设备接收的广播图像。
根据示例性实施例,处理器140可以控制显示器130在显示器130上显示从广播接收设备200接收的广播图像。例如,处理器140可以从广播接收设备200接收其中混合有UI图像的广播图像,并且可以在显示器130上显示该广播图像。例如,广播接收设备200可以将与从遥控设备300接收的控制信号相对应的UI图像与广播图像混合,并且可以将混合结果发送到显示设备100。
根据示例性实施例,处理器140可以接收用于控制广播接收设备200的控制信号。例如,处理器140可以从遥控设备300接收控制信号,该控制信号被发送以用于控制广播接收设备200。根据示例性实施例,处理器140可以通过识别所接收的控制信号中包括的代码(例如,IR码),根据彼此不同的用户输入来区分在遥控设备300与广播接收设备200之间发送并接收的控制信号。
根据示例性实施例,当从遥控设备300接收到用于控制广播接收设备200的控制信号时,显示设备100可以在显示器130上显示其中混合有与控制信号相对应的UI图像的广播图像。例如,广播接收设备200可以从遥控设备300接收控制信号,可以将与控制信号相对应的UI图像与广播图像混合,并且可以在短时间内(例如,0.1秒)将混合结果发送到显示设备100。因此,显示设备100可以通过将从遥控设备300接收到的控制信号与在显示器130上显示的广播图像进行匹配来创建关于混合在广播图像中的UI图像的信息。
根据示例性实施例,处理器140可以确定在显示器130上显示的广播图像中的UI图像区域。例如,处理器140可以捕获在显示器130上显示的广播图像,并且可以标识所捕获的广播图像中的UI图像区域,从而确定广播图像中的UI图像区域。例如,处理器140可以在多个时间点捕获在显示器130上显示的广播图像,并且可以标识在多个时间点捕获的每个广播图像中的UI图像区域,从而确定广播图像中的UI图像区域。根据示例性实施例,处理器140可以基于显示器130上显示的广播图像的噪声水平来确定广播图像中的UI图像区域。下面将参考图3a至图6更详细地描述由处理器140确定广播图像中的UI图像区域的操作。
根据示例性实施例,处理器140可以将广播图像中的UI图像区域与对应于UI图像的控制信号进行匹配,并且可以将匹配结果存储在存储器120中。
根据示例性实施例,处理器140可以通过使用存储在存储器120中的关于UI图像的信息来识别混合在广播图像中的UI图像的内容(例如,音量控制、频道显示、节目指南等)。例如,处理器140可以通过使用与其中混合有UI图像的区域有关的信息来确定UI图像的大小和形状中的至少一个。处理器140可以基于所确定的大小和形状中的至少一个来识别UI图像的内容。处理器140可以通过参考包括关于多个UI的信息(例如,UI内容、UI的大小和形状等)在内的数据库来识别UI图像的内容。
图3a至图3c是示出了根据示例性实施例的用于在显示设备中确定广播图像中的UI图像区域的方法的图。
参考图3a至图3c,显示设备100可以捕获在显示器130上显示的广播图像,并且可以确定所捕获的广播图像中的UI图像区域。
根据示例性实施例,显示设备100可以计算所捕获的广播图像的空间频率。例如,显示设备100可以通过使用所捕获的广播图像的每个像素的像素值(例如,RGB像素值或YUV像素值)来计算所捕获的广播图像的空间频率。
根据示例性实施例,显示设备100可以通过使用所计算的空间频率来计算所捕获的广播图像的噪声水平。例如,显示设备100可以计算与所计算的空间频率成比例的噪声水平。换言之,显示设备100可以在空间频率高时将噪声水平确定为高,并且可以在空间频率低时将噪声水平确定为低。
根据示例性实施例,显示设备100可以基于所计算的噪声水平确定所捕获的广播图像中的UI图像区域。例如,显示设备100可以将噪声水平被计算为等于或小于指定水平(或阈值水平)的区域确定为所捕获的广播图像中的其中混合有UI图像的区域。例如,可以将指定水平设置为足以将其中混合有UI图像的区域与其中未混合UI图像的区域进行区分的值。指定水平可以由制造商或用户设置为设定,可以实验性地设置,或者可以动态地设置(例如,基于最常显示的内容)。
根据示例性实施例,显示设备100可以根据所捕获的广播图像中包括的像素的线(例如,列、行等)来计算所捕获的广播图像的空间频率。显示设备100可以通过使用根据线计算出的空间频率,在具有相关计算的空间频率的每条线中确定表示UI图像的像素(或像素范围)。显示设备100可以相对于所捕获的广播图像的所有线确定表示UI图像的像素,并且可以确定所捕获的广播图像中的其中混合有UI图像的范围。
图3a示出了UI图像未与广播图像混合的示例。参考图3a,显示设备100可以接收其中未混合UI图像的广播图像,并且可以在显示器130上显示广播图像。显示设备100可以捕获在显示器130上显示的广播图像。
根据示例性实施例,显示设备100可以通过使用所捕获的广播图像310的像素值来计算空间频率。显示设备100可以计算针对所捕获的广播图像310中包括的每行像素的空间频率。例如,显示设备100可以将针对图3a的(a)中所示的所捕获的广播图像310的行A的像素的像素值计算为图3a的(b)的曲线图。像素值可以表示为YUV像素的值Y(或亮度)。在所捕获的广播图像310中的第一像素P1与第二像素P2(描绘人的面部)之间的区域中的像素的Y值可以低于其余像素的Y值。此外,像素值的变化宽度W在第一像素P1与第二像素P2之间可以更大。显示设备100可以通过使用行A的像素之间的像素值差来计算行A的空间频率。
根据示例性实施例,显示设备100可以通过使用所计算的行A的空间频率来计算行A的噪声水平。根据示例性实施例,显示设备100可以标识行A中的空间频率为指定水平L1或更小的区域。因此,显示设备100可以识别出UI图像未混合在行A中包括的像素的任何区域中。根据示例性实施例,显示设备100可以相对于所捕获的广播图像310的所有行确定其中混合有UI图像的区域。换言之,显示设备100可以通过按照以上关于图3a描述的方式对所捕获的广播图像310的每行像素进行分析,来确定其中混合有UI图像的区域。因此,显示设备100可以确定UI图像未混合在所捕获的广播图像310的任何区域中。
图3b示出了UI图像与广播图像混合的示例。参考图3b,显示设备100可以捕获其中混合有UI图像311的广播图像310′。混合在广播图像310′中的UI图像311的混合阿尔法(α)值可以是1。
根据示例性实施例,显示设备100可以通过使用所捕获的广播图像310′的像素值来计算空间频率。例如,显示设备100可以将针对图3b的(a)中所示的所捕获的广播图像310′的行A的像素的像素值计算为图3b的(b)的曲线图。图3b的(a)中所示的第三像素P3与第四像素P4(对应于设置框)之间的区域中的像素的Y值可以低于其余像素的Y值。此外,由于UI图像可以是图形图像并且UI图像311的混合阿尔法(α)值是1,因此,像素值可以在第三像素P3与第四像素P4之间的区域中保持一致。显示设备100可以通过使用行A的像素之间的像素值差来计算行A的空间频率。
根据示例性实施例,显示设备100可以通过使用所计算的行A的空间频率来计算行A的噪声水平。根据示例性实施例,显示设备100可以标识行A中的空间频率为指定水平L2或更小的区域。可以基于混合在所捕获的广播图像310′中的UI图像的混合阿尔法(α)值来确定指定阈值水平L2。由于UI图像的混合阿尔法(α)值是1,因此,与UI图像的混合阿尔法(α)值小于1的情况相比,指定水平L2可以表示更高的值。因此,显示设备100可以确定:UI图像混合在第三像素P3与第四像素P4之间的区域中,该区域表示实质上恒定的像素值。根据示例性实施例,显示设备100可以相对于所捕获的广播图像310′的所有行确定其中混合有UI图像的区域。换言之,显示设备100可以通过按照以上关于图3b描述的方式对所捕获的广播图像310′的每行像素进行分析,来确定其中混合有UI图像的区域。因此,显示设备100可以确定UI图像混合在区域B中。
图3c示出了UI图像与广播图像混合的另一示例。参考图3c,显示设备100可以捕获其中混合有UI图像311′的广播图像310″。混合在广播图像310″中的UI图像311′的混合阿尔法(α)值可以处于大于0至小于1的范围内(0<α<1)。
根据示例性实施例,显示设备100可以计算针对所捕获的广播图像310″中包括的每行像素的空间频率。例如,显示设备100可以将针对图3c的(a)中所示的所捕获的广播图像310″的行A的像素的像素值计算为图3c的(b)中所示的曲线图。在第五像素P5与第六像素P6之间的区域(或者其中混合有UI图像311′的区域)中的像素的Y值可以低于其余像素的Y值。尽管UI图像311′是图形图像,但是,由于UI图像311′的混合阿尔法(α)值小于1,因此,与UI图像311′的混合阿尔法(α)值为1的情况相比,第五像素P5与第六像素P6之间的区域中的像素可以表示像素值的更低的变化宽度W2,如图3b所示。换言之,第五像素P5与第六像素P6之间的区域中的像素的像素值的变化宽度W2可以窄于图3a的第一像素P1与第二像素P2之间的像素的像素值的变化宽度W1,但是却大于图3b中的变化宽度(由于如上所讨论的图3b的UI图像中的像素值是实质上恒定的,因而变化宽度实质上为0)。显示设备100可以通过使用行A的像素之间的像素值差来计算行A的空间频率。
根据示例性实施例,显示设备100可以通过使用所计算的行A的空间频率来计算行A的噪声水平。根据示例性实施例,显示设备100可以标识行A中的空间频率为指定水平L3或更小的区域。例如,由于UI图像311′的混合阿尔法(α)值小于1,因此,指定水平L3可以低于图3b的指定水平L2。因此,显示设备100可以确定UI图像混合在第五像素P5与第六像素P6之间的表示像素值的更窄变化宽度的区域中。根据示例性实施例,显示设备100可以关于所捕获的广播图像310″的所有行确定其中混合有UI图像的区域。换言之,显示设备可以通过按照以上关于图3c描述的方式对所捕获的广播图像310″的每行像素进行分析,来确定其中混合有UI图像的区域。因此,显示设备100可以确定UI图像混合在区域C中。
可以通过滤波器(例如,高通滤波器(HPF)或低通滤波器(LPF))来实现通过显示设备100计算所捕获的广播图像中的UI图像区域的方式。
图4是示出了根据示例性实施例的通过使显示设备的图像通过HPF来确定其中混合有UI图像的区域的方法的图。
参考图4,显示设备100可以将所捕获的广播图像的信号输入到HPF(或LPF)中,并且可以从通过HPF输出的图像410中确定所捕获的广播图像的UI图像区域411(例如,其中混合有UI图像的区域)。
根据示例性实施例,显示设备100可以将所捕获的广播图像变换为频域中的信号。例如,显示设备100可以通过计算所捕获的广播图像的空间频率来将所捕获的广播图像变换为频域中的信号。所捕获的广播图像中的UI图像区域的空间频率可以低于其中未混合UI图像的其余区域的空间频率。
根据示例性实施例,显示设备100可以使变换后的图像通过HPF(或LPF),并且可以标识空间频率比指定水平更高(或者,在LPF的情况下更低)的区域。可以基于指定水平确定HPF(或LPF)的截止频率。换言之,HPF的截止频率可以被确定为与指定水平相对应的频率。例如,当将变换后的图像输入到HPF中时,显示设备100可以从自HPF输出的图像410中确定截止区域(区域411)。作为另一示例,当将变换后的图像输入到LPF中时,显示设备100可以从自LPF输出的图像410中确定通过区域(区域411)。显示设备100可以将通过图像411确定为变换后的图像中的其中混合有UI图像的区域。
因此,显示设备100可以标识空间频率高于(或低于)指定水平的区域,并且可以确定所捕获的广播图像中的UI图像区域。
图5a至图5c示出了根据示例性实施例的通过使用在多个时间点捕获的显示设备的图像来确定其中混合有UI图像的区域的方法。
参考图5a至图5c,显示设备100可以在存储器120中存储广播图像中的与相同控制信号相对应的UI图像区域。显示设备100可以通过使用累积的存储结果来确定广播图像中的UI图像区域。
根据示例性实施例,显示设备100可以通过在多个时间点(其中接收相同的控制信号)捕获在显示器130上显示的广播图像来确定UI图像区域,从而存储广播图像的与相同的控制信号相对应的UI图像区域。
根据示例性实施例,在图5a中,显示设备100可以在第一时间点t1从遥控设备300接收用于控制广播接收设备200的控制信号,并且可以捕获其中混合有与控制信号相对应的UI图像的广播图像。显示设备100可以计算在第一时间点t1捕获的广播图像510的行A的空间频率值。显示设备100可以通过使用所计算的空间频率值来计算在第一时间点t1捕获的广播图像510的噪声水平。显示设备100可以通过标识噪声水平被计算为等于或小于指定水平的区域,确定UI图像540混合在第一像素P1与第二像素P2之间的区域中。显示设备100可以相对于其余行确定其中混合有UI图像540的区域。显示设备100可以通过将所确定的UI图像区域与控制信号进行匹配来将所确定的UI图像区域存储在存储器120中。换言之,显示设备100可以将与控制信号相对应的所确定的UI图像区域存储在存储器120中。例如,在图5a所示的示例中,显示设备100可以存储关于UI图像区域的信息以及指示设置UI的控制信号的信息。
根据示例性实施例,在图5b中,显示设备100可以在第二时间点t2从遥控设备300接收控制信号,并且可以捕获其中混合有与控制信号相对应的UI图像的广播图像。控制信号可以与在第一时间点t1接收的控制信号相同。显示设备100可以计算在第二时间点t2捕获的广播图像520的行A的空间频率值。显示设备100可以通过使用所计算的空间频率值来计算在第二时间点t2捕获的广播图像520的噪声水平。显示设备100可以按照与在第一时间点t1捕获的广播图像510类似的方式,通过标识所计算的噪声水平等于或小于指定水平的区域,来确定UI图像540混合在第一像素P1与第二像素P2之间的区域中。显示设备100可以通过确定针对其余行的噪声水平来确定UI图像混合在与在第一时间点t1捕获的广播图像510中的区域相同的区域中。显示设备100可以通过将所确定的UI图像区域与控制信号(其与在第一时间点t1接收的控制信号相同)进行匹配来将所确定的UI图像区域存储在存储器120中。
根据示例性实施例,在图5c中,显示设备100可以在第三时间t3从遥控设备300接收控制信号,并且可以捕获其中混合有与控制信号相对应的UI图像的广播图像。控制信号可以是与在第一时间点t1和第二时间点t2接收的控制信号相同的信号。显示设备100可以计算在第三时间t3捕获的广播图像530的行A的空间频率值。显示设备100可以计算所计算的空间频率值。显示设备100可以通过使用所计算的空间频率值来计算在第三时间t3捕获的广播图像530的噪声水平。尽管在这种情况下第三像素P3与第一像素P1之间的区域550以及第二像素P2与第四像素P4之间的区域560不是UI图像区域,但是,表示上述区域的信号特性可以类似于UI图像的信号特性。因此,显示设备100可以标识所计算的噪声水平等于或小于指定水平的区域,从而确定UI图像540混合在第三像素P3与第四像素P4之间的区域中,这不同于在第一时间点t1和第二时间点t2捕获的广播图像510和广播图像520。根据示例性实施例,显示设备100可以通过标识针对其余行的噪声水平来确定UI图像混合在与在第一时间点t1捕获的广播图像510的区域不同的区域中。显示设备100可以通过将所确定的UI图像区域与控制信号(其与在第一时间点t1和第二时间点t2接收的控制信号相同)进行匹配来将所确定的UI图像区域存储在存储器120中。
根据示例性实施例,显示设备100可以通过使用存储在存储器120中的针对相同控制信号的累积结果来确定广播图像中的与控制信号相对应的UI图像区域。
例如,当相对于在多个时间点捕获的广播图像以指定次数将相同区域确定为其中混合有UI图像的区域时,该区域可以被确定为广播图像中的UI图像区域。例如,显示设备100可以将第一像素P1与第二像素P2之间的区域(其被标识了指定次数(例如,两次)或更多次)确定为其中混合有UI图像540的区域。
对于另一示例,显示设备100可以将在多个时间点捕获的广播图像中的被确定为其中混合有UI图像的区域之间的公共区域确定为广播图像中的UI图像区域。例如,显示设备100可以确定UI图像区域540(其是所确定的区域之间的公共区域)将要混合在第一像素P1与第二像素P2之间的区域中。换言之,由于区域P1至P2较窄并且包括在区域P3至P4中,因此,将区域P1至P2确定为公共区域。
因此,显示设备100可以通过使用广播图像的累积和存储的UI图像区域识别针对广播图像的其中混合有UI图像的区域的错误确定,来确定广播图像中的正确UI图像区域。
图6是示出了根据各种示例性实施例的用于提供替代广告的系统的图。
参考图6,显示设备100中包括的程序模块(例如,应用)可以包括自动内容识别(ACR)模块151、动态广告替换(DAR)模块153、再现模块155和UI识别模块157。程序模块可以存储在存储器120中。程序模块可以包括程序代码,该程序代码可以由处理器140执行,以执行程序模块的相应操作。根据示例性实施例,显示设备100可以从广告服务器700接收替代广告图像,可以用所接收的替代广告图像替换从广播接收设备200接收的广播图像,并且可以在显示器130(也参见图1和图2)上显示所接收的替代广告图像。
根据示例性实施例,ACR模块151可以基于在显示器130上显示的图像来创建图像标识信息。例如,ACR模块151可以捕获在显示器130上显示的图像,并且可以通过使用所捕获的图像来创建图像标识信息(例如,指纹信息或水印信息)。例如,ACR模块151可以缩小所捕获的图像,可以提取表示所捕获的图像的特征点,并且可以创建指纹信息。对于另一示例,ACR模块151可以从所捕获的图像中提取内在水印,并且可以创建水印信息。根据示例性实施例,ACR模块151可以将图像标识信息发送到ACR服务器600。
根据示例性实施例,ACR服务器600可以接收图像标识信息,并且可以确定与图像标识信息相对应的频道。例如,ACR服务器600可以包括用于存储与每个广播频道相对应的图像标识信息的数据库。ACR服务器600可以通过将从ACR模块151接收的图像标识信息与根据存储在数据库中的广播频道的图像标识信息进行比较来确定与图像标识信息相对应的频道(或频道信息)。
根据示例性实施例,ACR服务器600可以标识与所确定的频道信息相对应的频道的广播时间表(例如,广播节目时间表(schedule)或广告时间表)。例如,ACR服务器600可以使用存储在数据库中的多个频道的广播时间表来标识与频道信息相对应的频道是否包括可以由另一广告(例如,替代广告)替代的备选广告。当备选广告包括在与频道信息相对应的频道中时,ACR服务器600可以标识关于备选广告的信息(例如,广告的开始时间或广告的标识信息)。ACR服务器600可以将频道信息以及关于与频道信息相对应的频道的备选广告的信息发送到显示设备100。根据示例性实施例,ACR服务器600执行的操作中的至少一部分操作可以是由ACR模块151执行。
根据示例性实施例,当从ACR服务器600接收到关于备选广告的信息时,DAR模块153可以向广告服务器700发送用于接收备选广告的请求(或替代广告请求)。替代广告请求可以包括用于使广告服务器700选择替代广告的信息。例如,替代广告请求可以包括关于备选广告的信息和用户简档信息(例如,住所、性别、年龄、关注领域等)。
根据示例性实施例,广告服务器700可以响应于来自DAR模块153的请求将替代广告(或替代广告图像)提供给显示设备100。根据示例性实施例,广告服务器700可以基于替代广告请求中包括的关于替代广告的信息或关于用户简档的信息中的至少一种信息来选择替代广告,并且可以将所选择的替代广告发送到显示设备100。
根据示例性实施例,再现模块155可以再现并输出从广告服务器700接收的替代广告。根据示例性实施例,再现模块155可以在显示器130上显示替代广告图像。例如,再现模块155可以用替代广告图像替换从广播接收设备200接收的广告图像,并且可以在显示器130上显示替代广告图像。替代广告图像可以是DAR模块153混合由UI识别模块157创建的UI图像而获得的图像。也就是说,UI识别程序模块157创建UI图像,DAR模块153将所创建的UI图像与来自广播接收设备200的广告图像混合,以替换广告图像。根据示例性实施例,再现模块155可以通过扬声器(未示出)与替代广告图像同步地输出包括在替代广告中的音频信号。根据示例性实施例,UI识别模块157可以确定在显示器130上显示的图像中的UI图像区域。例如,UI识别模块157可以计算在显示器130上显示的图像的空间频率,并且可以通过使用所计算的空间频率计算在显示器130上显示的图像的噪声水平。UI识别模块157可以标识在显示器130上显示的图像中的、所计算的噪声水平等于或小于指定水平的区域,从而确定UI图像区域。根据示例性实施例,UI识别模块157可以通过将关于所确定的UI图像区域的信息与从遥控设备300接收到的用于控制广播接收设备200的控制信号进行匹配,来将关于所确定的UI图像区域的信息存储在存储器120中。换言之,UI识别模块157可以将关于所确定的UI图像区域(其与控制信号相对应)的信息存储在存储器120中。
根据示例性实施例,响应于DAR模块153从遥控设备300接收到用于控制广播接收设备200的控制信号(例如,用于频道变更的控制信号或用于控制音量的控制信号),DAR模块153可以确认关于与所接收的控制信号相对应的UI图像的信息。例如,关于UI图像的信息可以是关于其中混合有与控制信号匹配的UI图像的区域的信息。
根据示例性实施例,当存储关于与控制信号相对应的UI图像的信息时,DAR模块153可以不在显示器130上显示替代广告图像。例如,当关于与控制信号相对应的UI图像的信息存储在存储器120中时,DAR模块153可以停止再现模块155对替代广告图像的再现。因此,可以不在显示器130上显示替代广告图像。根据示例性实施例,DAR模块153可以提供关于未在显示器130上显示的替代广告图像的信息。例如,DAR模块153可以在显示器130上显示用于通知替代广告的再现被停止的UI图像。对于另一示例,DAR模块153可以通过扬声器(未示出)输出用于通知替代广告的再现被停止的音频信号。
根据示例性实施例,当没有存储关于与控制信号相对应的UI图像的信息时,DAR模块153可以对显示器130上显示的图像进行分析,以分析是否混合了UI图像。根据示例性实施例,DAR模块153可以将分析出的信息存储在存储器120中。
根据参考图1至图6描述的各种示例性实施例,当从遥控设备300接收到用于控制广播接收设备200的控制信号时,显示设备100可以通过使用从广播服务器800接收到的广播图像的空间频率来计算噪声水平,可以标识广播图像中的噪声水平等于或小于指定水平的区域以确定广播图像中的UI图像区域,并且可以通过将UI图像区域与控制信号进行匹配来存储UI图像区域,从而响应于从遥控设备接收到控制信号来从显示器130上显示的广播图像中识别混合的UI图像,并且通过混合的UI在不对UX造成限制的前提下通过显示器130针对用户提供各种服务(例如,替代广告服务)。
图7是示出了根据各种示例性实施例的显示设备的方法的流程图。
图7所示的流程图可以包括由显示设备100处理的操作。因此,即使在以下描述中省略了显示设备100的细节,参考图1至图6对显示装置100进行的描述仍将适用于图7的流程图。
根据示例性实施例,在操作710中,显示设备100可以接收用于控制广播接收设备(或外部电子设备)200的控制信号。例如,如上所述,显示设备100可以从遥控设备300接收用于控制广播接收设备200的控制信号。
根据示例性实施例,在操作720中,响应于接收到控制信号,显示设备100可以基于在显示器130上显示的广播图像的噪声水平来确定广播图像中的UI图像区域。例如,如上所述,显示设备100可以捕获在显示器130上显示的广播图像,可以通过使用所捕获的广播图像的空间频率来计算噪声水平,并且可以通过标识广播图像区域中的噪声水平等于或小于指定水平的区域来确定其中混合有UI图像的区域。
根据示例性实施例,在操作730中,显示设备100可以通过将关于UI图像区域的信息与从遥控设备300接收到的用于控制广播接收设备200的控制信号进行匹配来将关于广播图像中的UI图像区域的信息存储在存储器120中。
根据各种实施例的装置的至少一部分(例如,其模块或功能)或方法的至少一部分(例如,操作)可以例如由以程序模块的形式存储在计算机可读存储介质中的程序代码来实现。程序代码在由处理器(例如,处理器120)执行时可以使得处理器执行与程序代码相对应的功能。计算机可读记录介质可以包括硬盘、软盘、磁介质(例如,磁带)、光学介质(例如,光盘只读存储器(CD-ROM)和数字通用盘(DVD)、磁光介质(例如,软式光盘))以及嵌入式存储器。此外,代码可以包含由编译器产生的代码或解译器可执行的代码
尽管已经参考本公开的各种示例性实施例示出并描述了本公开,但是本领域技术人员将理解的是,在不脱离由所附权利要求及其等同物限定的本公开的精神和范围的前提下,可以在本公开内作出形式及细节方面的各种改变。

Claims (9)

1.一种显示设备,包括:
通信接口,与外部电子设备连接;
显示器;
存储器;以及
处理器,被配置:
控制所述显示器显示从所述外部电子设备接收的广播图像;
接收与控制所述外部电子设备相对应的第一控制信号;
获得在所述显示器上显示的所述广播图像;
通过使用从所获得的广播图像中包括的像素行线中的每个像素行线和所获得的广播图像中包括的像素列线中的每个像素列线中的一者或两者获得的空间频率来标识噪声水平;
将包括等于或小于指定水平的噪声水平的区域标识为所述广播图像中的与所述第一控制信号相对应的用户界面UI图像区域;以及
将关于所述UI图像区域的信息存储在所述存储器中,
其中,所述处理器还被配置为:
控制所述显示器显示从广告服务器接收的替代广告图像;以及
基于在显示所述替代广告图像的同时接收到与控制所述外部电子设备相对应的第二控制信号,停止显示所述替代广告图像,其中所述替代广告图像是基于所存储的关于所述UI图像区域的信息而显示。
2.根据权利要求1所述的显示设备,其中,所述处理器被配置为:
通过使在所述显示器上显示的所述广播图像通过被设置为具有与所述指定水平相对应的截止频率的高通滤波器HPF,将所述广播图像中的噪声水平等于或小于所述指定水平的所述区域确定为所述广播图像中的所述UI图像区域。
3.根据权利要求1所述的显示设备,其中,所述指定水平是基于所述UI图像区域的混合阿尔法(α)值而确定的。
4.根据权利要求1所述的显示设备,其中,所述处理器被配置为:
在接收到相同的所述第一控制信号的多个时间点捕获在所述显示器上显示的所述广播图像;以及
基于在所述多个时间点捕获的广播图像中的每一个广播图像,确定所述广播图像中的所述UI图像区域。
5.根据权利要求4所述的显示设备,其中,所述处理器被配置为:
将在所述多个时间点捕获的所述广播图像中的每个广播图像中的以指定次数或更多次数被确定为所述UI图像区域的区域确定为所述广播图像中的所述UI图像区域。
6.根据权利要求4所述的显示设备,其中,所述处理器被配置为:
将在所述多个时间点捕获的所述广播图像中的被确定为所述UI图像区域的区域之间的公共区域确定为所述广播图像中的所述UI图像区域。
7.根据权利要求1所述的显示设备,其中,所述处理器被配置为:
通过使用存储在所述存储器中的关于所述UI图像区域的信息来确定UI图像的大小和形状中的至少一个;以及
基于所述UI图像的大小和形状中的至少一个,识别所述UI图像的内容。
8.根据权利要求1所述的显示设备,其中通过使用关于与所述第一控制信号匹配的所述UI图像区域的所述信息将所述广播图像替换成所述替代广告图像,显示所述替代广告图像。
9.一种控制显示设备的方法,包括:
控制所述显示设备的显示器显示从外部电子设备接收的广播图像;
通过所述显示设备接收与控制所述外部电子设备相对应的第一控制信号;
获得在所述显示器上显示的所述广播图像;
通过使用从所获得的广播图像中包括的像素行线中的每个像素行线和所获得的广播图像中包括的像素列线中的每个像素列线中的一者或两者获得的空间频率来标识噪声水平;
将包括等于或小于指定水平的噪声水平的区域标识为所述广播图像中的与所述第一控制信号相对应的用户界面UI图像区域;通过所述显示设备将关于所述UI图像区域的信息存储在所述显示设备的存储器中;
控制所述显示器显示从广告服务器接收的替代广告图像;以及
基于在显示所述替代广告图像的同时接收到与控制所述外部电子设备相对应的第二控制信号,停止显示所述替代广告图像,其中所述替代广告图像是基于所存储的关于所述UI图像区域的信息而显示。
CN201880015921.1A 2017-03-08 2018-03-08 用于识别用户界面的显示设备及其控制方法 Active CN110447233B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2017-0029691 2017-03-08
KR1020170029691A KR20180102933A (ko) 2017-03-08 2017-03-08 Ui를 인식하는 디스플레이 장치 및 그 디스플레이 장치의 제어 방법
PCT/KR2018/002793 WO2018164519A1 (en) 2017-03-08 2018-03-08 Display device for recognizing user interface and controlling method thereof

Publications (2)

Publication Number Publication Date
CN110447233A CN110447233A (zh) 2019-11-12
CN110447233B true CN110447233B (zh) 2022-01-25

Family

ID=63445222

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880015921.1A Active CN110447233B (zh) 2017-03-08 2018-03-08 用于识别用户界面的显示设备及其控制方法

Country Status (5)

Country Link
US (1) US20180260087A1 (zh)
EP (1) EP3568993B1 (zh)
KR (1) KR20180102933A (zh)
CN (1) CN110447233B (zh)
WO (1) WO2018164519A1 (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0725362A2 (en) * 1995-02-02 1996-08-07 Victor Company Of Japan, Limited Method of extracting texture region from original picture
CN103259989A (zh) * 2012-02-17 2013-08-21 中兴通讯股份有限公司 屏幕内容的显示方法及装置
CN105122175A (zh) * 2013-03-14 2015-12-02 摩托罗拉移动有限责任公司 用于检测显示器属性的方法
CN106095263A (zh) * 2015-04-27 2016-11-09 三星电子株式会社 用于显示用户界面的方法及其电子设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2898269B1 (ja) * 1998-03-02 1999-05-31 日本放送協会 映像検査装置、方法および記録媒体
JP2002108326A (ja) * 2000-09-29 2002-04-10 Toshiba Corp 映像処理装置
GB0028162D0 (en) * 2000-11-20 2001-01-03 Sentec Ltd Distributed image processing technology and services
US20090180025A1 (en) * 2002-05-28 2009-07-16 Sony Corporation Method and apparatus for overlaying graphics on video
US20050047647A1 (en) * 2003-06-10 2005-03-03 Ueli Rutishauser System and method for attentional selection
JP2008017292A (ja) * 2006-07-07 2008-01-24 Denso Corp ラジオ放送受信装置およびラジオ放送の自動選局装置
KR101315298B1 (ko) * 2008-10-07 2013-10-04 삼성테크윈 주식회사 카메라로 촬영된 영상에서의 osd 표시 제어방법 및 장치, 모니터에서의 osd 표시 제어방법 및 장치
US9141860B2 (en) * 2008-11-17 2015-09-22 Liveclips Llc Method and system for segmenting and transmitting on-demand live-action video in real-time
US8726310B2 (en) * 2009-02-05 2014-05-13 Purplecomm Inc. Meta channel media system control and advertisement technology
JP4620163B2 (ja) * 2009-06-30 2011-01-26 株式会社東芝 静止字幕検出装置、静止字幕を含む画像を表示する映像機器、および静止字幕を含んだ画像の処理方法
US8451312B2 (en) * 2010-01-06 2013-05-28 Apple Inc. Automatic video stream selection
JP2012019273A (ja) * 2010-07-06 2012-01-26 Olympus Corp 撮像装置、画像処理装置、画像処理方法、及び、画像処理プログラム
CN103261912B (zh) * 2010-07-29 2016-01-20 威凯托陵科有限公司 用于测量对象的距离和/或强度特性的设备和方法
US8863165B2 (en) * 2010-11-01 2014-10-14 Gracenote, Inc. Method and system for presenting additional content at a media system
US8441548B1 (en) * 2012-06-15 2013-05-14 Google Inc. Facial image quality assessment
JP6091133B2 (ja) * 2012-09-28 2017-03-08 キヤノン株式会社 投射型表示装置、及びそれに用いられる制御方法、及びプログラム
US9058522B2 (en) 2013-03-15 2015-06-16 Arris Technology, Inc. Logo presence detection based on blending characteristics
CN105684011B (zh) * 2013-06-27 2020-04-21 英特尔公司 自适应嵌入视觉广告内容到媒体内容中
KR102428272B1 (ko) 2015-08-24 2022-08-03 삼성전자주식회사 디스플레이 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
US10261584B2 (en) * 2015-08-24 2019-04-16 Rambus Inc. Touchless user interface for handheld and wearable computers
US10607321B2 (en) * 2016-06-22 2020-03-31 Intel Corporation Adaptive sharpness enhancement control

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0725362A2 (en) * 1995-02-02 1996-08-07 Victor Company Of Japan, Limited Method of extracting texture region from original picture
CN103259989A (zh) * 2012-02-17 2013-08-21 中兴通讯股份有限公司 屏幕内容的显示方法及装置
CN105122175A (zh) * 2013-03-14 2015-12-02 摩托罗拉移动有限责任公司 用于检测显示器属性的方法
CN106095263A (zh) * 2015-04-27 2016-11-09 三星电子株式会社 用于显示用户界面的方法及其电子设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于iOS的涂鸦软件研究与实现;唐珂;《中国优秀硕士学位论文全文数据库》;20140531;I138-801 *

Also Published As

Publication number Publication date
EP3568993A4 (en) 2020-01-01
CN110447233A (zh) 2019-11-12
EP3568993A1 (en) 2019-11-20
WO2018164519A1 (en) 2018-09-13
EP3568993B1 (en) 2022-01-26
US20180260087A1 (en) 2018-09-13
KR20180102933A (ko) 2018-09-18

Similar Documents

Publication Publication Date Title
US20200221177A1 (en) Embedding Interactive Objects into a Video Session
US10412452B2 (en) Display device and method for replacing advertisement
JP6336206B2 (ja) 動画ファイルの識別子を処理する方法、装置、プログラム及び記録媒体
CA2823301C (en) Network media device with code recognition
US8255825B2 (en) Content aware adaptive display
US9807470B2 (en) Content processing apparatus and method for providing an event
US20150113557A1 (en) Display device and method for processing information code in image
CN108476340A (zh) 显示系统、显示装置和用于控制显示装置的方法
EP2797331A1 (en) Display apparatus for providing recommendation information and method thereof
KR20190031032A (ko) 컨텐트를 실행하는 방법 및 장치
CN103946871A (zh) 图像处理装置、图像识别装置、图像识别方法以及程序
KR20190070145A (ko) 전자 장치 및 그의 제어방법
KR20150078229A (ko) 디스플레이 장치 및 디스플레이 장치의 채널 맵 관리 방법
US20180225445A1 (en) Display apparatus and method for controlling display apparatus thereof
CN110447233B (zh) 用于识别用户界面的显示设备及其控制方法
US20180255264A1 (en) Electronic apparatus for playing substitutional advertisement and controlling method thereof
US20230118698A1 (en) Electronic device and control method thereof
KR102427156B1 (ko) 자동 비디오 스케일링을 위한 시스템 및 방법
CN110140357B (zh) 用于播放代用广告的电子装置及其控制方法
CN114666623A (zh) 视频内容显示方法、装置、电子设备、存储介质
CN114489549A (zh) 投屏图像处理方法、装置、电子设备及存储介质
US20150026571A1 (en) Display apparatus and method for providing a user interface
US20160104266A1 (en) Display apparatus and display method
KR20150074602A (ko) 디스플레이 장치 및 그의 동작 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant