CN109643546A - 显示设备和用于控制显示设备的方法 - Google Patents

显示设备和用于控制显示设备的方法 Download PDF

Info

Publication number
CN109643546A
CN109643546A CN201780051293.8A CN201780051293A CN109643546A CN 109643546 A CN109643546 A CN 109643546A CN 201780051293 A CN201780051293 A CN 201780051293A CN 109643546 A CN109643546 A CN 109643546A
Authority
CN
China
Prior art keywords
equipment
user
display equipment
voice
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780051293.8A
Other languages
English (en)
Other versions
CN109643546B (zh
Inventor
庾智嫄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN109643546A publication Critical patent/CN109643546A/zh
Application granted granted Critical
Publication of CN109643546B publication Critical patent/CN109643546B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/441Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card
    • H04N21/4415Acquiring end-user identification, e.g. using personal code sent by the remote control or by inserting a card using biometric characteristics of the user, e.g. by voice recognition or fingerprint scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4532Management of client data or end-user data involving end-user characteristics, e.g. viewer profile, preferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4667Processing of monitored end-user data, e.g. trend analysis based on the log file of viewer selections
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4852End-user interface for client configuration for modifying audio parameters, e.g. switching between mono and stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4854End-user interface for client configuration for modifying image parameters, e.g. image brightness, contrast
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

提供了一种显示设备和一种用于显示设备的屏幕显示方法。详细地,公开了一种能够通过语音识别控制其屏幕的显示设备,以及一种显示设备的屏幕显示方法。所公开的实施方式中的一些提供了一种用于将与语音识别结果相对应的推荐指南显示在屏幕上的显示设备,以及一种显示设备的屏幕显示方法。

Description

显示设备和用于控制显示设备的方法
技术领域
以下示例性实施方式涉及能够根据用户的情况和显示设备的使用模式同时控制若干功能的显示设备,以及用于控制显示设备的方法。
背景技术
近期,配备有语音识别功能的显示设备迅速增加。用户可将显示设备切换至语音识别模式以通过语音来操作显示设备。因此,近年来,显示设备通常在设备本身上或在诸如用于控制显示设备的远程控制器的单独控制设备上具有用于切换至语音识别模式的用户界面。
近年来,用户还可通过发出预定的词来容易地执行显示设备的语音识别模式。用于执行语音识别模式的预定词被称为触发词。触发词可设置在显示设备中,但是也可根据用户的设置将其直接设置为用户友好的词。另外,触发词可通过语音识别服务器进行统计推断,并且可在没有附加用户输入的情况下进行确定。另外,语音识别功能不仅提供通过语音控制显示设备的功能,而且还识别发出语音的用户(下文中称作为说话者),并提供由每个用户设置的菜单、由每个用户收藏的节目等。具体地,显示设备可使用声纹来识别发出语音的用户,该声纹是作为语音的频率分布的时间序列分解的结果而获得的曲线图。
同时,随着显示设备的功能变得复杂化(例如,各种应用程序执行、游戏执行等)和变得多样化,出现了对于一种用户可通过语音有效地控制显示设备的方法的需要。
发明内容
技术问题
以下示例性实施方式提供能够根据用户的情况和显示装置的使用模式同时控制若干功能的显示装置,以及用于控制显示装置的方法。
技术解决方案
根据本公开的一方面,显示设备包括:存储器,配置成存储与显示设备的操作相关的日志数据;显示器,配置成显示内容;通信器,配置成执行与外部设备的通信;语音接收器,配置成接收语音信号;以及控制器,配置成控制存储器、显示器、通信器和语音接收器,其中,控制器分析日志数据以针对用户中的每个对日志数据进行分类,从针对用户中的每个分类的日志数据生成模式以将该模式存储为用于用户中的每个的宏,识别通过语音接收器接收的语音以确定说话者,并执行与所确定的说话者相对应的宏。
根据本公开的另一方面,用于控制显示设备的方法包括:存储与显示设备的操作相关的日志数据;分析日志数据以针对用户中的每个对日志数据进行分类;从针对用户中的每个分类的日志数据生成模式,以将该模式存储为宏;识别通过语音接收器接收的语音以确定说话者;以及执行与所确定的说话者相对应的宏。
有益效果
根据本公开的示例性实施方式的显示设备可通过以下方式来整体地控制显示设备的多个功能:存储与显示设备的操作相关的日志数据;分析所存储的日志数据以针对用户中的每个对日志数据进行分类;从针对用户中的每个分类的日志数据生成模式,以将模式存储为用于用户中的每个的宏;以及识别发出语音的用户以执行与该用户相对应的宏。因此,用户可方便地操纵显示设备。
附图说明
图1是示出根据本公开的示例性实施方式的显示设备、远程控制器和服务器之间的操作的示意图。
图2是示出根据本公开的示例性实施方式的显示设备、远程控制器和服务器的框图。
图3是示出根据本公开的示例性实施方式的用于控制显示设备的方法的示意流程图。
图4示出存储在存储器中的日志数据的示例。
图5是示出根据本公开的示例性实施方式的处理显示设备的宏的软件模块的框图。
图6示出根据本公开的示例性实施方式的显示设备根据用户发出的语音执行宏功能的示例。
图7示出根据本公开的示例性实施方式的显示设备根据用户发出的语音执行宏功能的另一示例。
具体实施方式
下文中,将参照附图中记载的内容详细描述本公开的示例性实施方式。另外,将参照附图中记载的内容详细描述根据本公开的示例性实施方式的用于制造和使用显示设备的方法。在附图中,类似的参考标记表示基本上执行相同功能的部分或部件。
包括诸如“第一”、“第二”等的序数的术语可用于描述各种部件。然而,这些部件不受这些术语的限制。该术语仅用于将一个部件与另一部件区分开。例如,在不背离本公开的范围的情况下,第一部件可命名为第二部件,以及第二部件也可类似地命名为第一部件。术语“和/或”包括多个相关项的组合或多个相关项中的任一个。
在本公开的示例性实施方式中,存在于远程控制器200(参见图1)中的术语“按钮(或键)的选择”可用作意指按钮(或键)的按压或按钮(或键)的触摸的术语。另外,术语“用户输入”可用作包括例如以下的术语:用户的按钮(或键)选择、用户的按钮(或键)的按压、用户的按钮触摸、用户的触摸手势、用户的语音或用户的动作。
在本公开的示例性实施方式中,术语“显示设备的屏幕”可用作意指包括显示设备的显示器。
本说明书中使用的术语用于描述示例性实施方式,而不是意图约束和/或限制本公开。除非上下文另有明确指示,否则单数形式旨在包括复数形式。应理解,本说明书中使用的术语“包括”或“具有”说明存在本说明书中记载的特征、标记、步骤、操作、部件、部分或它们的组合,但是不排除存在或附加一个多个其它特征、标记、步骤、操作、部件、部分或它们的组合。
在附图中,类似的参考标记表示基本上执行相同功能的构件。
图1是示出根据本公开的示例性实施方式的显示设备、远程控制器和服务器之间的操作的示意图。
参照图1,显示了显示设备200、远程控制器100以及一个或多个服务器300。
不仅能够输出接收到的广播而且还能够输出内容的显示设备200可使用嵌入式或可连接的麦克风240(参见图2)来接收用户的语音。另外,远程控制器100可使用麦克风163接收用户的语音(参见图2)。
远程控制器100可通过经由红外通信或近场通信(例如,蓝牙等)输出(或传输)控制命令来控制显示设备200。另外,远程控制器100可转换经由红外通信或近场通信(例如,蓝牙等)接收的语音并将转换的语音传输至显示设备200。
用户可通过使用远程控制100上的健(包括按钮)的选择以及用户的输入(例如,通过触摸板的触摸(手势))、通过麦克风163的语音识别或通过传感器164的动作识别)来控制(例如,电源开/关、启动、频道改变、音量调节,内容回放等)显示设备200(参见图2)。
用户可使用语音控制显示设备200。远程控制器100的麦克风163可接收与显示设备200的控制相对应的用户的语音。远程控制器100可将接收到的语音转换成电信号(例如,数字信号、数字数据或数据包)并将转换的电信号传输至显示设备200。
用户还可通过附接至显示设备的相机245(参见图2)通过动作识别来控制(例如,电源开/关、启动、频道改变、音量调节,内容回放等)显示设备200。另外,用户可通过使用远程控制器100的动作(例如,抓握或移动远程控制器100)来控制显示设备200的屏幕。
参照图1,语音识别服务器300可将与从远程控制器100或显示设备200输入的用户语音相对应的电信号(或与电信号相对应的数据包)转换成通过语音识别生成的语音数据(例如,文本、代码等)。
交互式服务器(未示出)可将转换的语音数据转换成在显示设备200中可识别的控制信息(例如,控制显示设备200的控制命令)。转换的控制信息可传输至显示设备200。
下面将描述语音识别服务器300的详细描述。
图2是示出根据本公开的示例性实施方式的显示设备、远程控制器和服务器的框图。
参照图2,从远程控制器100接收与用户语音相对应的电信号的显示设备200可通过使用通信器230或输入器/输出器260以有线或无线的方式连接至外部设备(例如,服务器300)。
从远程控制器100接收与用户语音相对应的电信号的显示设备200可通过使用通信器230或输入器/输出器260将接收到的电信号(或与电信号相对应的数据包)传输至以有线或无线方式连接的外部设备(例如,服务器300)。另外,显示设备200可通过使用通信器230或输入器/输出器260将与通过麦克风240接收的用户语音相对应的电信号(或与电信号相对应的数据包)传输至以有线或无线方式连接的外部设备(例如,服务器300)。外部设备可包括移动电话(未示出)、智能手机(未示出)、平板个人计算机(PC)(未示出)和PC(未示出)。
显示设备200可包括显示器270,并且还包括调谐器220、通信器230和输入器/输出器260中的一个。显示设备200可包括显示器270,并且还包括调谐器220、通信器230和输入器/输出器260的组合。另外,具有显示器270的显示设备200可电连接至具有调谐器(未示出)的单独的显示设备(未示出)。
显示设备200可实施为例如模拟电视(TV)、数字TV、三维(3D)TV、智能TV、发光二极管(LED)TV、有机发光二极管(OLED)TV、等离子TV、监视器、具有固定曲率的屏幕的曲线TV、具有固定曲率的屏幕的柔性TV、具有固定曲率的屏幕的弯曲TV、和/或屏幕的当前曲率可由接收到的用户输入改变的曲率可变的TV,但是本领域技术人员容易理解,显示设备200不限于此。
显示设备200包括调谐器220、通信器230、麦克风240、相机245、光接收器250、输入器/输出器260、显示器270、音频输出器275、存储器280和电源供应器290。显示设备200可包括传感器(例如,照明传感器、温度传感器等(未示出)),该传感器检测显示设备200的内部状态或外部状态。
控制器210可包括处理器211、只读存储器(ROM)(或非易失性存储器)212和随机存取存储器(RAM)(或易失性存储器)213,其中,只读存储器(ROM)212中存储有用于控制显示设备200的控制程序,随机存取存储器(RAM)213存储从显示设备200的外部输入其中的信号或数据,或者随机存取存储器(RAM)213用作与在显示设备200中执行的各种处理相对应的存储区域。
控制器210用于控制显示设备200的总体操作以及显示设备200的内部部件210至内部部件290之间的信号流,并且用于处理数据。控制器210控制从电源供应器290供应至内部部件210至内部部件290的电力。另外,在存在用户输入或满足预设条件或存储条件的情况下,控制器210可执行存储在存储器280中的操作系统(OS)或各种应用程序。
处理器211可包括图形处理器(未示出),该图形处理器用于处理与图像或视频相对应的图形。处理器211可包括图形处理器(未示出)或可单独地实现。处理器211可实施为包括核(未示出)和图形处理器(未示出)的片上系统(SoC)。另外,处理器211可实施为包括ROM 212和RAM 213中的至少一个的SoC。处理器211可包括单核、双核、三核、四核或其多个核。
显示设备200的处理器211可包括多个处理器。多个处理器可包括主处理器(未示出)和子处理器(未示出),其中,子处理器在作为显示设备200的状态中的一个的屏幕关闭(或电源关闭)和/或待机模式中操作。另外,多个处理器还可包括控制传感器(未示出)的传感器处理器(未示出)。
处理器211、ROM 212和RAM 213可经由内部总线彼此连接。
控制器210控制显示内容的显示器和连接至远程控制器和语音识别服务器的通信器,通过通信器将对应于从远程控制器接收的用户语音的信号传输至语音识别服务器,以及执行控制,使得响应于从语音识别服务器接收的语音识别结果在显示器上显示推荐指南。
控制器210可执行控制,使得响应于与用户语音相对应的信号的接收、接收到的信号到语音识别服务器的传输以及语音识别结果的接收,从而在显示器上显示其它用户界面。
控制器210可执行控制,使得与接收到的用户语音相对应的信号通过通信器传输至语音识别服务器。
控制器210可分析存储在存储器中的日志数据以针对用户中的每个对日志数据进行分类,从针对用户中的每个分类的日志数据生成模式以将模式存储为用于用户中的每个的宏,识别通过语音接收器接收的语音以确定说话者,以及执行与所确定的说话者相对应的宏。
控制器210可执行控制,使得正在执行的宏的指南信息显示在显示器上。
在本公开的示例性实施方式中,术语“显示设备200的控制器"可理解为包括显示设备200的处理器211、ROM 212和RAM 213。在本公开的示例性实施方式中,术语“显示设备200的控制器”可表示显示设备200的处理器211。在本公开的示例性实施方式中,术语“显示设备200的控制器”可理解为包括显示设备200的主处理器、子处理器、ROM 212和RAM 213。
本领域技术人员将容易地理解,控制器210的配置和操作可根据示例性实施方式进行不同地实现。
调谐器220可通过以有线或无线方式接收的广播信号的放大、混合、共振等来仅调谐和选择由显示设备200在许多无线电波分量中意图接收的频道的频率。广播信号包括视频、音频和附加数据(例如,电子节目指南(EPG))。
调谐器220可在与对应于用户输入(例如,语音、动作、按钮输入、触摸输入等)的频道号(例如,线缆广播频道号506)对应的频带中接收视频、音频和数据。
调谐器220可从诸如地面广播、线缆广播、卫星广播、因特网广播等的各种源接收广播信号。
调谐器220可与显示设备200一体地实现,或者可实施为电连接至显示设备200的调谐器(未示出),或者具有调谐器(未示出)的单独显示设备(例如,机顶盒或一个连接器(未示出))。
通信器230可通过控制器210的控制将显示设备200连接至远程控制器200或外部设备300。通信器230可通过控制器210的控制将与用户语音相对应的电信号(或与电信号相对应的数据包)传输至第一服务器300,或从第一服务器300接收与电信号(或与电信号相对应的数据包)相对应的语音数据。另外,通信器230可将通过控制器210的控制而接收到的语音数据传输至第二服务器,或从第二服务器接收与语音数据相对应的控制信息。
通信器230可用作语音接收器,以及可从外部设备接收语音信号。
通信器230可通过控制器210的控制从外部下载应用程序或执行网页浏览。
通信器230可包括有线以太网231、无线局域网(WLAN)通信器232和短程通信器233中的一个,取决于显示设备200的性能和结构。另外,通信器230可包括以太网232、WLAN通信器232和短程通信器233的组合。
WLAN通信器232可通过控制器210的控制无线地连接至安装有应用处理器(AP)的位置处的应用处理器(AP)。WLAM通信器232可包括例如Wi-Fi。WLAN通信器232可支持电气与电子工程师协会(IEEE)的WLAN标准(IEEE802.11x)。短程通信器233可通过控制单元210的控制在没有AP的情况下无线地执行远程控制器100与外部设备之间的短程通信。短程通信可包括例如蓝牙、蓝牙低功耗、红外数据协会(IrDA)、超宽频带(UWB)、近场通信(NFC)等。
根据本公开的示例性实施方式的通信器230可接收从远程控制器100传输的控制信号。另外,短程通信器233可通过控制器210的控制接收从远程控制器200传输的控制信号。
麦克风240可接收用户发出的语音。麦克风240可将接收到的语音转换成电信号并将电信号输出至控制器210。用户语音可以是例如与显示设备200的用户指南、菜单或功能的控制相对应的语音。麦克风240的识别范围可根据用户的语音大小和周围环境(例如,说话者声音和环境噪声)而改变。即,麦克风240可接收语音信号并用作语音接收器。
麦克风240可与显示设备200整体地实现,或可与显示设备200分离。与显示设备200分离的麦克风240可通过通信器230或输入/输出器260电连接至显示设备200。
相机245捕捉与在相机的识别范围内的用户的动作相对应的视频(例如,连续帧)。用户的动作可包括例如用户的存在(例如,用户在相机的识别范围内的外观)、用户的身体的一部分(诸如用户的面部、面部表情、手、拳头或手指)、用户身体的一部分的运动等。相机245可包括透镜(未示出)和图像传感器(未示出)。
相机245可位于显示设备200的上端、下端、左侧和右侧中的一处。
相机245可通过控制器210的控制对捕捉到的连续帧进行转换,并将转换的连续帧输出至控制器210。控制器210可分析捕捉到的连续帧以识别用户的动作。控制器210可在显示设备200上显示指南和显示菜单,或通过使用动作识别结果来执行与动作识别结果相对应的控制(例如,频道调节、音量调节等)。
在相机245的数量为多个的情况下,多个相机245可接收三维静止图像或三维动作(视频或图像)。
相机245可与显示设备200整体地实现,或可与显示设备200分离。包括与显示设备(未示出)分离的相机(未示出)的该显示设备(未示出)可通过通信器230或输入器/输出器260电连接至显示设备200。
光接收器250通过光学窗口(未示出)接收从远程控制器200输出的光信号(包括控制信号)。
光接收器250可从远程控制器200接收与用户输入(例如,触摸、按压、触摸手势、语音或动作)相对应的光信号。可从接收到的光信号中提取控制信号。接收到的光信号和/或提取的控制信号可传输至控制器210。
输入器/输出器260通过控制器210的控制从显示设备200的外部接收内容。该内容可包括例如视频、图像、文本或网页文件。
输入器/输出器260可包括以下中的一个:与内容的接收相对应的高清晰度多媒体接口(HDMI)输入端口261、部件输入插孔262、PC输入端口263和通用串行总线(USB)输入插孔264。输入器/输出器260可包括HDMI输入端口262、部件输入插孔262、PC输入端口263和USB输入插孔264的组合。本领域技术人员将容易地理解,根据显示设备200的性能和结构,可将其它部件添加到上述输入器/输出器260的部件中,或者可删除和/或改变上述输入器/输出器260的部件中的一些。
显示器270通过控制器210的控制显示通过调谐器220接收的广播信号中所包括的视频。显示器270可显示通过通信器230或输入器/输出器260输入的内容(例如,视频)。显示器270可通过控制器210的控制输出存储在存储器280的内容。另外,显示器270可显示用于执行与语音识别相对应的语音识别任务的用户界面(UI)或用于执行与动作识别相对应的动作识别任务的用户界面。例如,用户界面可包括语音指令指南(例如,推荐语音数据或推荐指南)和动作指令指南。
根据本公开的示例性实施方式的显示设备200的屏幕可用于包括显示设备200的显示器270。
根据本公开的示例性实施方式的显示器270可通过控制器210的控制显示与推荐指南的显示相对应的视觉反馈。
根据本公开的另一示例性实施方式的显示器270可与显示设备200分离。显示器270可通过显示设备200的输入器/输出器260电连接至显示设备200。
音频输出器275通过控制器110的控制输出通过调谐器220接收的广播信号中所包括的音频。音频输出器275可输出通过通信器230或输入器/输出器260输入的音频(与例如语音或声音相对应)。另外,音频输出器275可通过控制器110的控制输出存储在存储器280中的音频文件。
另外,音频输出器275可通过控制器的控制输出关于正在执行的宏的指南信息。
音频输出器275可包括扬声器276、耳机输出终端277或S/PDIF输出终端278中的一个。另外,音频输出器275可包括扬声器276、耳机输出终端277和S/PDIF输出终端278的组合。
根据本公开的示例性实施方式的音频输出器2755可通过显示设备200的控制器210的控制输出与推荐指南相对应的听觉反馈。
存储器280可通过控制器210的控制存储用于驱动和控制显示设备200的各种数据、程序或应用程序。存储器280可存储与调谐器220、通信器230、麦克风240、相机245、光接收器250、输入器/输出器260、显示器270、音频输出器275和电源供应器290的驱动相对应的输入/输出信号或数据。
存储器280可存储用于控制显示设备200和控制器210的控制程序、最初由制造商提供或从外部下载的应用程序、与应用程序相关的图形用户界面(下文中称为“GUI”)、用于提供GUI的对象(例如,图像文本、图标、按钮等)、用户信息、文档、语音数据库、动作数据库或相关数据。
存储器280可包括未示出的广播接收模块、频道控制模块、音量控制模块、通信控制模块、语音识别模块、动作识别模块、光接收模块、显示控制模块、音频控制模块、外部输入控制模块、电源控制模块、语音数据库(DB)、或动作数据库(DB)。
存储器280中所包括的模块和数据库(未示出)可以以软件的形式实现,以执行显示设备200中的广播接收的控制功能、频道控制功能、音量控制功能、通信控制功能、语音识别功能、动作识别功能、光接收控制功能、显示控制功能、音频控制功能、外部输入控制功能或功率控制功能。控制器210可使用存储在存储器280中的软件执行显示设备200的操作和/或功能。
存储器280可存储从语音识别服务器300接收的语音数据。存储器280可存储从语音识别服务器300接收的控制信息。存储器280可存储从交互式服务器(未示出)接收的控制信息。
存储器280可存储与对应于用户语音的音素相对应的数据库。另外,存储器280可存储与语音数据相对应的控制信息数据库。
存储器280可存储与视觉反馈相对应的活动图像、图像或文本。
存储器280可存储与听觉反馈相对应的声音。
存储器280可存储提供给用户的反馈的反馈提供时间(例如,300ms)。
存储器280可存储日志数据。
在本公开的示例性实施方式中,术语“存储器”可用作包括以下的术语:存储器280、控制器210的ROM 212和RAM 213、由SoC(未示出)实现的存储器(未示出)、安装在显示设备200中的存储卡(例如,微SD卡、USB存储器)(未示出)、或可连接至输入器/输出器260的USB端口264的外部存储器(例如,USB存储器等)(未示出)。另外,存储器可包括非易失性存储器、易失性存储器、硬盘驱动器(HDD)或固态驱动器(SDD)。
电源供应器290通过控制器210的控制将从外部电源输入的电力供应至显示设备200的内部部件210至内部部件290。电源供应器290可通过控制器210的控制将从位于显示设备200中的一个或两个或更多个电池(未示出)输入的电力供应至内部部件210至内部部件290。
电源供应器290可包括向显示设备200的处于断电状态(然而,电源插头连接至电源插座的状态)的相机245供电的电池(未示出)。
响应于显示设备200的性能和/或类型,可向图1和图2的显示设备200中示出的部件(例如,210至290)中添加或改变或从其中删除至少一个部件(例如,以虚线示出的框中的至少一个)。另外,本领域技术人员将容易地理解,部件(例如,210至290)的位置可根据显示设备200的性能或结构改变。
下文中,将详细描述控制显示设备的屏幕的情况的示例。
参照图2,远程控制显示设备200的远程控制器100包括控制器110、通信器130、输入器160、光输出器150、显示器170、存储器180和电源供应器190。远程控制器100可包括通信器130和光输出器150中的一个。另外,远程控制器100可包括通信器130和光输出器150两者。
远程控制器100可用作为是指可远程控制显示设备200的显示设备的术语。另外,远程控制器100可包括可安装(或可从外部下载)用于控制显示设备200的应用程序(未示出)的显示设备。
安装有用于控制显示设备200的应用程序(未示出)的显示设备可具有显示器(例如,仅具有显示面板,没有触摸屏或触摸面板)。例如,具有显示器的显示设备可包括移动电话(未示出)、智能手机(未示出)、平板PC(未示出)、膝上型PC(未示出)、另一显示设备(未示出)、或家用电器(例如,冰箱、洗衣机、吸尘器等)。
用户可通过使用由执行的应用程序提供的图形用户界面(GUI)(未示出)中的功能按钮(例如,频道改变按钮)(未示出)来控制显示设备200。
控制器110可包括处理器111、只读存储器(ROM)(或非易失性存储器)112和随机存取存储器(RAM)(或易失性存储器)113,其中,只读存储器(ROM)112中存储有用于控制远程控制器100的控制程序,随机存取存储器(RAM)113存储从远程控制器100的外部输入的信号或数据,或者随机存取存储器(RAM)113用作用于在远程控制器100中执行的各种任务的存储区域。
控制器110控制远程控制器100的总体操作以及远程控制器100的内部部件110至内部部件190之间的信号流,并且用于处理数据。控制器110使用电源供应器190控制对内部部件110至内部部件190的供电。
在本公开的示例性实施方式中术语“控制器110”可包括远程控制器100的处理器111、ROM 112和RAM 113。
通信器130可通过控制器110的控制将与用户输入(例如,触摸、按压、触摸手势、语音或动作)相对应的控制信号(例如,与接通电源相对应的控制信号或与音量调节相对应的控制信号)传输至作为控制对象的显示设备200。
通信器130可通过控制器110的控制无线地连接至显示设备200。通信器130可包括WLAN通信器131和短程通信器132中的至少一个(例如,WLAN通信器131和短程通信器132中的一个,或WLAN通信器131和短程通信器132两者)。
由于远程控制器100的通信器130与显示设备200的通信器230基本上相同,因此省略重叠的描述。
输入器/输出器120可包括接收用于控制显示设备200的用户输入(例如,触摸或按压)的按钮161或触摸板162。输入器/输出器120可包括接收所发出的用户语音的麦克风163、检测远程控制器100的动作的传感器164或提供触觉反馈的振动电机(未示出)。
输入器/输出器120可将与接收到的用户输入(例如,触摸、按压、触摸手势、语音或动作)相对应的电信号(例如,模拟信号或数字信号)输出至控制器110。
触摸板162可接收用户的触摸或用户的触摸手势。触摸板162可实施为方向键和输入键。另外,触摸板162还可位于远程控制器100的前表面上。
麦克风163接收用户发出的语音。麦克风163可转换接收到的语音并将转换的语音输出至控制器110。控制器210可生成与用户语音相对应的控制信号(或电信号)并通过通信器130将控制信号传输至显示设备200。
传感器164可检测远程控制器100的内部状态和/或外部状态。例如,传感器164可包括动作传感器(未示出)、陀螺仪传感器(未示出)、加速度传感器(未示出)或重力传感器(未示出)。传感器164可分别测量远程控制器100的运动加速度或重力加速度。
振动电机(未示出)可根据控制器210的控制将信号转换成机械振动。例如,振动电机(未示出)可包括线性振动电机、棒型振动电机、硬币型振动电机或压电元件振动电机。一个或多个振动电机(未示出)可位于远程控制器200中。
光输出器150可通过控制器110的控制输出与用户输入(例如,触摸、按压、触摸手势、语音或动作)相对应的光信号。输出的光信号可由显示设备200的光接收器250接收。作为远程控制器100中使用的远程控制器代码格式,可使用制造商专用远程控制器代码格式和商业远程控制器代码格式中的一个。远程控制器代码格式可包括引导代码和数据字。输出的光信号可调制成载波然后进行输出。控制信号可存储在存储器280中,或者还可由控制器110生成。远程控制器100可包括红外激光发光二极管(IR-LED)。
远程控制器100可包括可将控制信号传输至显示设备200的光输出器150和通信器130中的一个或两者。
控制器110可通过通信器130和光输出器150中的至少一个将与用户语音相对应的控制信号输出至显示设备200。控制器110可通过通信器130和光输出器150中的一个(例如,通信器130)将与用户语音相对应的控制信号优先地传输至显示设备200。
存储器180可通过控制器110的控制存储用于驱动和控制远程控制器100的各种数据、程序或应用程序。存储器180可存储与通信器130、光输出器150和电源供应器190的驱动相对应的输入或输出信号或数据。
存储器180可通过控制器110的控制存储与接收到的用户输入(例如,触摸、按压、触摸手势、语音或动作)相对应的控制信息和/或与远程控制器100的动作相对应的控制信息。
存储器180可存储与远程控制器100相对应的远程控制器信息。远程控制器信息可包括型号名称、唯一设备标识(ID)、存储器的剩余量、是否存在对象数据、蓝牙版本或蓝牙规范。
电源供应器190通过控制器110的控制向远程控制器100的部件110至部件190供电。电源供应器190可将来自远程控制器100中的一个或两个或更多个电池(未示出)的电力供应至部件110至部件190。电池可位于远程控制器200的表面(例如,存在按钮161或触摸板162的表面)与后表面(未示出)之间的空间内部。
响应于远程控制器100的性能,可向图1和图2的远程控制器100中示出的部件中添加或改变或从其中删除至少一个部件(例如,以虚线示出的框中的至少一个)。另外,本领域技术人员将容易地理解,部件的位置可根据远程控制器100的性能或结构改变。
语音识别服务器300通过通信器(未示出)接收与从远程控制器100或显示设备200输入的用户语音相对应的数据包。语音识别服务器300的控制器(未示出)通过使用语音识别器(未示出)和语音识别算法分析接收到的数据包来执行语音识别。
语音识别服务器300的控制器(未示出)可使用语音识别算法将接收到的电信号(或与电信号相对应的数据包)转换成语音识别数据,该语音识别数据包括词或句子形式的文本。
语音识别服务器300的控制器(未示出)可通过通信器(未示出)将语音数据传输至显示设备200。
语音识别服务器300的控制器(未示出)可将语音数据转换成控制信息(例如,控制指令)。控制信息可控制显示设备200的操作(或功能)。
语音识别服务器300可包括控制信息数据库。语音识别服务器300的控制器(未示出)可通过使用存储的控制信息数据库来确定与转换的语音数据相对应的控制信息。
语音识别服务器300还可通过使用控制信息数据库将转换的语音数据转换成控制显示设备的控制信息(例如,显示设备200的控制器210解析的)。
语音识别服务器300的控制器(未示出)可通过通信器(未示出)将控制信息传输至显示设备200。
在本公开的示例性实施方式中,语音识别服务器300可与显示设备200(200’)集成。语音识别服务器300可作为与显示设备200的部件210至部件290分离的部件包括在显示设备200中的200’。语音识别服务器300可嵌入在显示设备200的存储器280中,或者还可在单独的存储器(未示出)中实现。
在本公开的示例性实施方式中,交互式服务器(未示出)可实施成与语音识别服务器300分离。交互式服务器(未示出)可将通过语音识别服务器300转换的语音数据转换成控制信息。交互式服务器(未示出)可将从语音识别服务器300和显示设备200中的一个接收的语音数据转换成控制信息。交互式服务器(未示出)可将转换的控制信息传输至显示设备200。
响应于语音识别服务器300的性能,可向图1和图2的语音识别服务器300中示出的部件添加或从其中删除至少一个部件。
图3是示出根据本公开的示例性实施方式的用于控制显示设备的方法的示意流程图。
在图3的步骤S301中,显示设备可存储与显示设备的操作相关的日志数据。日志数据可存储在存储器中。日志数据可以是与显示设备的操作相关的数据。即,该日志数据可以是在显示设备由用户或事件操作时生成的数据。例如,日志数据可包括显示设备的操作时间、日期、频道信息、屏幕亮度、声音大小、播放的内容信息和操作显示设备的用户的语音模式。
当用户通过语音命令操作显示设备时,用户的语音模式可作为日志数据存储在存储器中。
当显示设备接通电源时,当前的时间和数据可作为日志数据存储在存储器中。
当用户观看TV时,当前正被观看的频道信息和内容信息可存储为日志数据。另外,正被用户观看的内容的屏幕亮度、音量信息等可存储为日志数据。另外,正被用户观看的内容的类型(例如,运动、电影、戏剧、娱乐等)可存储为日志数据。此处,内容可经由空中频道广播、线缆广播或因特网广播进行接收。
在步骤S303中,显示设备分析存储在存储器中的日志数据,并针对用户中的每个对日志数据进行分类。与用户语音模式一起存储的日志数据可基于用户的语音模式针对用户中的每个对日志数据进行分类。
图4示出存储在存储器中的日志数据的示例。
参照图4,日志数据400可包括关于用户语音模式401、频道信息403、日期405、时间407、内容类型408、屏幕亮度411和音量413的消息。
日志数据400可基于用户语音模式和关键词进行分类和存储。此处,关键词可以是例如内容类型409。关键词可在显示设备或服务器中预先确定,或者可通过学习算法确定。
即,日志数据400可基于用户语音模式401和关键词针对用户中的每个进行分类和存储。
返回参照图3,显示设备可在步骤S305中从针对用户中的每个分类的日志数据生成模式,并将模式存储为宏。此处,模式可以是内容类型409。显示设备可从针对用户语音模式中的每个分类的日志数据生成模式。例如,显示设备可针对用户中的每个将存储的日志数据进行分组,以针对用户中的每个对日志数据400进行分类。因此,日志数据400可分组为组A(421、427)、组B(423、429)和组C(425、431)。
此处,组A(421、427)分组为“A”的用户语音模式。组B(423、429)分组为“B”的用户语音模式。组C(425、431)分组为“C”的用户语音模式。
显示设备再次在组A(421、427)中生成模式。此处,模式可以是“运动”、“音乐”和“电影”。即,显示设备可分析日志数据400中是否存在预定的关键词。关键词可由用户设置或可由服务器提供。可替代地,显示设备可分析日志数据从而以重复模式搜索“运动”、“音乐”和“电影”,并且可将搜索到的“运动”、“音乐”和“电影”生成为模式。
显示设备可针对模式中的每个再次将针对用户中的每个分组的日志数据进行分类,以生成宏421、宏423、宏425、宏427、宏429和宏431。显示设备可将生成的宏421、宏423、宏425、宏427、宏429和宏431存储在存储器中。显示设备可基于用户语音模式401搜索存储在存储器中的宏421、宏423、宏425、宏427、宏429和宏431。
在步骤S307中,显示设备可识别通过语音接收器接收的语音信息以确定说话者。语音信息可包括语音信号或语音数据。语音接收器可以是例如这样的电路:将通过嵌入在显示设备的本体中的麦克风输入的语音转换成电信号以及将电信号转换成语音数据的电路,或者将通过通信器从诸如远程控制器的外部设备接收的语音信号成语音数据的电路。
显示设备可将语音数据传输至语音识别服务器300,以执行语音识别并确定发出语音的说话者。在这种情况下,显示设备可将语音数据包格式化并将包格式化的语音数据传输至语音识别服务器300。
语音识别服务器300的控制器(未示出)使用语音识别算法对接收到的数据包执行语音识别。语音识别算法可将数据包划分成具有预定长度的段,并对每个段执行声音分析,以提取包括频谱和语音功率的参数。语音识别算法可将数据包划分成音素的单元,并基于所划分的音素的单元的参数来识别音素。
语音识别服务器300的存储器(未示出)可存储(或更新)与特定音素相对应的音素数据库。语音识别服务器300的控制器(未示出)可使用识别的音素和预存储的数据库生成语音数据。
语音识别服务器300的控制器(未示出)可生成词或句子形式的语音识别数据。上述语音识别算法可包括例如隐式马尔可夫模型等。
语音识别服务器300的控制器(未示出)可对接收到的数据包的波形进行语音识别以生成语音数据。
语音识别服务器300的控制器(未示出)可使用语音数据确定用户语音模式,以确定发出语音的用户(说话者)。
语音识别服务器300的控制器(未示出)可将关于所确定的说话者的消息传输至显示设备,以及显示设备可基于从语音识别服务器300传输的关于说话者的消息来搜索存储在存储器280中的宏421至宏431。
根据示例性实施方式,语音识别服务器300的控制器(未示出)可从语音识别的语音数据中提取用户语音模式,将提取的语音模式传输至显示设备,以及基于从语音识别服务器300传输的语音模式来搜索存储在存储器280中的宏。
同时,语音识别服务器300的控制器(未示出)可将识别的语音数据存储在存储器(未示出)中。语音识别服务器300的控制器(未示出)可将识别的语音数据转换成控制信息(例如,控制指令)。控制信息可控制显示设备200的操作(或功能)。
另外,语音识别服务器300的控制器(未示出)可使用识别的语音数据确定执行宏功能的触发词。触发词可以是系统中的预定词。例如,触发词可以是由用户发出的诸如“模式”的预定词。另外,即使没有单独的用户输入,也可通过统计方法通过推理由语音识别服务器确定触发词。
如果将语音识别的语音数据确定为执行宏功能的触发词,则语音识别服务器300的控制器(未示出)可将关于触发词的消息传输至显示设备,以及显示设备可在步骤S309中执行与确定的说话者相对应的宏。显示设备可接收通过语音识别服务器300的控制器(未示出)传输的关于触发词的消息,以执行相应的宏。
例如,当用户A发出“运动模式”时,显示设备可执行宏421。显示设备可将正播放的内容的屏幕亮度设置为“70”以及音量设置为“12”。
当用户B发出“音乐模式”时,显示设备可执行宏423。显示设备可将正播放的内容的屏幕亮度设置为“55”以及音量设置为“15”。
当用户C发出“电影模式”时,显示设备可执行宏425。显示设备可将正播放的内容的屏幕亮度设置为“90”以及音量设置为“17”。
当用户A发出“音乐模式”时,显示设备可执行宏423。显示设备可将正播放的内容的屏幕亮度设置为“50”以及音量设置为“10”。
当用户B发出“电影模式”时,显示设备可执行宏429。显示设备可将正播放的内容的屏幕亮度设置为“45”以及音量设置为“15”。
当用户C发出“运动模式”时,显示设备可执行宏431。显示设备可将正播放的内容的屏幕亮度设置为“60”以及音量设置为“13”。
在步骤S311中,显示设备可将关于正在执行的宏的指南信息显示在显示器上。具体地,显示设备可在执行宏的同时将关于当前播放的内容的亮度和音量的消息显示在屏幕上。
可替代地,在步骤S311中,显示设备可将关于正在执行的宏的指南信息作为语音输出。具体地,显示设备可在执行宏的同时将关于当前执行的宏的消息输出为语音指南。
图5是示出根据本公开的示例性实施方式的处理显示设备的宏的软件模块的框图。
宏处理块500可以以指令的形式或构成程序的数据的形式存储在存储器中。
宏处理块500可包括语音模式存储器501、说话者鉴别器503、领域鉴别器506、宏功能提供器507、语音指南生成器509、用户模式存储器511、模式分析器513和宏存储器515。
语音模式存储器501可存储用于用户中的每个的语音模式,并且语音模式存储器501可以是设置在存储器中的空间。当用户发出语音时,显示设备可将用户的语音模式存储在存储器中。显示设备可从用户的语音数据中提取用户的特征点,并且可将提取的特征点存储为语音模式。语音模式可作为数据库存储在存储器中并且可容易地找到。
说话者鉴别器503可通过将由用户发出的语音数据与存储在语音模式存储器501中的语音模式进行比较来确定说话者。例如,当用户A发声时,显示设备可从用户发出的语音数据中提取语音模式,以将提取的语音模式与存储在语音模式存储器501中的语音模式进行比较,并且当找到相同的语音模式时可从找到的语音模式中确定说话者。当没有发现相同的语音模式时,显示设备可将用户A的语音模式作为新的语音模式存储在语音模式存储器501中。
领域鉴别器505可从由用户发出的语音数据中确定是否存在与领域相对应的词。领域可以是能够识别内容类型的词。例如,领域可表示诸如“运动”、“电影”、“音乐”等内容类型。
当确定了领域时,显示设备可基于与领域相对应的词搜索宏存储器515。
同时,当用户通过使用语音命令操作显示设备时,显示设备可识别发出语音的用户,并且可将用于所识别的用户的日志数据存储在用户模式存储器511中。由于它们的详细描述与上述参照图3和图4的详细描述相同,因此省略对它们的详细描述。
模式分析器513确定存储在用户模式存储器511中的日志数据中是否存在与关键词或领域相对应的词。例如,模式分析器513可针对诸如“电影”、“音乐”和/或“运动”的词搜索用户的日志数据,并且可将发现的词识别为模式。
宏存储器515可根据由模式分析器513分析的结果将存储在日志数据中的设定值(例如,屏幕亮度、音量信息等)和用户操作显示设备的信息存储为宏。
宏功能提供器507使用领域信息搜索用于相应的宏的宏存储器515并执行宏功能。
当执行宏时,语音指南生成器509生成关于相应宏的语音指南信息,并将语音指南信息输出为语音信号。
图6示出根据本公开的示例性实施方式的显示设备根据用户发出的语音执行宏功能的示例。
参照图6,示出了用户发出(605)语音以使显示设备200在运动模式中操作的示例。
当用户通过嵌入远程控制器100中的麦克风发出(605)语音时,显示设备200可通过通信器接收用户的语音信号。
即,嵌入远程控制器100中的麦克风将用户的语音转换成电信号并将电信号传输至显示设备200。显示设备200的通信器可接收语音信号并将接收到的语音信号传输至语音接收器,以及语音接收器可接收语音信号并将接收到的语音信号转换成可由控制器处理的语音数据。控制器可处理语音数据以识别说话者以及识别由用户发出的词。
语音识别过程可通过服务器300执行。当识别出说话者时,显示设备200可搜索与说话者相对应的宏,并且可执行与由用户发出的词相对应的宏功能。
同时,显示设备200可识别由用户发出的语音以识别用于执行宏功能的触发词。例如,当用户发出“运动模式”时,显示设备200可将“模式”识别为用于执行宏功能的触发词。用于执行宏功能的触发词可以是预定词,并且可由用户指定或由显示设备的制造商预先确定。另外,即使没有单独的用户输入,也可通过统计方法通过推理由语音识别服务器确定触发词。
显示设备200可通过识别触发词前面的词“运动”以搜索要执行的宏并搜索与“运动”相对应的宏来执行宏功能。在这种情况下,显示设备200可生成用于所执行的宏功能的指南,并且可将指南输出(601)为语音或将指南显示(603)在屏幕上。
根据示例性实施方式,显示设备200可通过嵌入的麦克风接收由用户发出的语音。
图7示出根据本公开的示例性实施方式的显示设备根据用户发出的语音执行宏功能的另一示例。
当用户通过嵌入远程控制器100中的麦克风发出(705)语音时,显示设备200可识别由用户发出的语音以识别用于执行宏功能的触发词。例如,当用户发出“电影模式705”时,显示设备200从由用户发出的词识别出说话者,并确定由用户发出的词中是否包括用于执行宏功能的触发词。
即,显示设备可通过识别发出“电影模式”的用户的语音而识别出触发词“模式”和领域“电影”,搜索与所识别的触发词和领域相对应的用户的宏,并执行宏功能。
在这种情况下,显示设备可生成用于所执行的宏功能的指南,并且可将指南输出(701)为语音或将指南显示(703)在屏幕上。
根据本公开的示例性实施方式的方法可以以程序指令的形式实现,该程序指令可通过各种计算机装置执行并且可记录在计算机可读介质中。计算机可读介质可包括单独的程序指令、数据文件、数据结构或者它们的组合。例如,计算机可读介质可包括易失性存储器或非易失性存储器(诸如,只读存储器(ROM))、诸如随机存取存储器(RAM)的存储器、存储器芯片、设备或集成电路,或者无论数据是否是可擦除的或可再写的光学或磁性可记录且机器(例如,计算机)可读存储介质(诸如,光盘(CD)、数字多功能光盘(DVD)、磁盘、磁带等)。可能适合的是,可包括在移动终端中的存储器是适于存储包括实施本公开的示例性实施方式的指令的一个或多个程序的机器可读存储介质的示例。记录在计算机可读记录介质中的程序指令可特别地设计和配置成用于本公开,或为计算机软件领域的技术人员已知。
尽管已参照示例性实施方式和附图对本公开进行了描述,但是本公开并不局限于上文提及的示例性实施方式,而是可由本公开所属领域的技术人员从上述描述中进行不同地修改和变化。
因此,本公开的范围不是解释为限于上述示例性实施方式,而是应由以下权利要求及其等同物限定。

Claims (15)

1.一种显示设备,包括:
存储器,配置成存储与所述显示设备的操作相关的日志数据;
显示器,配置成显示内容;
通信器,配置成执行与外部设备的通信;
语音接收器,配置成接收语音信号;以及
控制器,配置成控制所述存储器、所述显示器、所述通信器和所述语音接收器,
其中,所述控制器分析所述日志数据以针对用户中的每个对所述日志数据进行分类,从针对所述用户中的每个分类的所述日志数据生成模式以将所述模式存储为用于所述用户中的每个的宏,识别通过所述语音接收器接收的语音以确定说话者,并执行与所确定的说话者相对应的宏。
2.如权利要求1所述的显示设备,其中,所述控制器执行控制,使得关于所执行的宏的指南消息显示在所述显示器上。
3.如权利要求1所述的显示设备,还包括音频输出器,
其中,所述控制器控制所述音频输出器,使得关于所执行的宏的指南消息通过所述音频输出器输出。
4.如权利要求1所述的显示设备,其中,所述语音接收器通过所述显示设备中包括的麦克风接收所述语音信号。
5.如权利要求1所述的显示设备,其中,所述语音接收器通过所述通信器从所述外部设备接收所述语音信号。
6.如权利要求1所述的显示设备,其中,所述日志数据包括以下中的至少一个:所述显示设备的操作时间、日期、频道信息、屏幕亮度、音量大小、内容信息以及操作所述显示设备的用户的语音模式。
7.如权利要求1所述的显示设备,其中,所述控制器基于所述日志数据中包括的用户语音模式针对所述用户中的每个对所述日志数据进行分类。
8.如权利要求7所述的显示设备,其中,所述控制器基于来自针对所述用户中的每个分类的所述日志数据的关键词生成所述模式,并将所述模式作为所述宏存储在所述存储器中。
9.如权利要求1所述的显示设备,其中,所述控制器确定所接收到的语音是否包括触发词,以及当所接收到的语音包括所述触发词时,执行所述宏。
10.如权利要求9所述的显示设备,其中,所述控制器确定所接收到的语音是否包括关键词,以及当所接收到的语音包括所述关键词时,执行与所述关键词和所述说话者相对应的宏。
11.一种用于控制显示设备的方法,所述方法包括:
存储与所述显示设备的操作相关的日志数据;
分析所述日志数据以针对用户中的每个对所述日志数据进行分类;
从针对所述用户中的每个分类的所述日志数据生成模式,以将所述模式存储为宏;
识别通过语音接收器接收的语音以确定说话者;以及
执行与所确定的说话者相对应的宏。
12.如权利要求11所述的方法,还包括:
将关于所执行的宏的指南消息显示在显示器上。
13.如权利要求11所述的方法,还包括:
将关于所执行的宏的指南消息作为语音信号输出。
14.如权利要求11所述的方法,其中,所述语音接收器通过所述显示设备中包括的麦克风接收语音信号。
15.如权利要求11所述的方法,其中,所述语音接收器通过通信器从外部设备接收语音信号。
CN201780051293.8A 2016-08-31 2017-06-28 显示设备和用于控制显示设备的方法 Active CN109643546B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020160111976A KR20180024927A (ko) 2016-08-31 2016-08-31 디스플레이 장치 및 디스플레이 장치의 제어 방법
KR10-2016-0111976 2016-08-31
PCT/KR2017/006819 WO2018043895A1 (ko) 2016-08-31 2017-06-28 디스플레이 장치 및 디스플레이 장치의 제어 방법

Publications (2)

Publication Number Publication Date
CN109643546A true CN109643546A (zh) 2019-04-16
CN109643546B CN109643546B (zh) 2023-09-29

Family

ID=61301870

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780051293.8A Active CN109643546B (zh) 2016-08-31 2017-06-28 显示设备和用于控制显示设备的方法

Country Status (5)

Country Link
US (1) US11330320B2 (zh)
EP (1) EP3480813B1 (zh)
KR (1) KR20180024927A (zh)
CN (1) CN109643546B (zh)
WO (1) WO2018043895A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110300447A (zh) * 2019-06-28 2019-10-01 联想(北京)有限公司 一种控制方法和设备
CN112786032A (zh) * 2019-11-01 2021-05-11 富泰华工业(深圳)有限公司 显示内容控制方法、装置、计算机装置及可读存储介质
CN112786036A (zh) * 2019-11-04 2021-05-11 海信视像科技股份有限公司 显示设备与内容显示方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6882615B2 (ja) * 2018-03-12 2021-06-02 アマゾン テクノロジーズ インコーポレイテッド 音声制御マルチメディアデバイス
US10847176B2 (en) 2018-03-12 2020-11-24 Amazon Technologies, Inc. Detection of TV state using sub-audible signal
US10560737B2 (en) 2018-03-12 2020-02-11 Amazon Technologies, Inc. Voice-controlled multimedia device
JP2022028094A (ja) * 2018-12-21 2022-02-15 ソニーグループ株式会社 情報処理装置、制御方法、情報処理端末、情報処理方法
WO2020222322A1 (ko) * 2019-04-30 2020-11-05 엘지전자 주식회사 음성 인식 서비스를 제공하기 위한 디스플레이 장치
TWI734329B (zh) * 2019-12-31 2021-07-21 技嘉科技股份有限公司 電子裝置及利用外部輸入信號的按鍵巨集之觸發方法
CN113905110B (zh) * 2020-06-18 2022-11-18 Oppo广东移动通信有限公司 显示屏控制方法、装置、计算机设备以及存储介质
CN114679614B (zh) * 2020-12-25 2024-02-06 深圳Tcl新技术有限公司 一种语音查询方法、智能电视及计算机可读存储介质
FR3130439A1 (fr) * 2021-12-13 2023-06-16 Sagemcom Broadband Sas Détection de l’état d’un téléviseur
KR20230129857A (ko) * 2022-03-02 2023-09-11 삼성전자주식회사 전자 장치의 동작 모드를 설정하는 방법 및 이를 위한 전자 장치
US11895368B2 (en) * 2022-03-04 2024-02-06 Humane, Inc. Generating, storing, and presenting content based on a memory metric

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060091426A (ko) * 2005-02-15 2006-08-21 엘지전자 주식회사 음성인식 기능을 갖는 티브이
KR20110038424A (ko) * 2009-10-08 2011-04-14 김경수 음성인식 통합 리모컨 및 그 동작 방법
KR20130134545A (ko) * 2012-05-31 2013-12-10 주식회사 다음커뮤니케이션 리모컨을 이용한 디지털tv 음성 검색 시스템 및 방법
CN103811005A (zh) * 2012-11-13 2014-05-21 Lg电子株式会社 移动终端及其控制方法
US20150172744A1 (en) * 2012-06-27 2015-06-18 Electronics And Telecommunications Research Institute Remote control device capable of synchronizing screens
CN105408890A (zh) * 2013-07-15 2016-03-16 微软技术许可有限责任公司 基于声音输入执行与列表数据有关的操作
CN105813227A (zh) * 2016-04-29 2016-07-27 江苏惠通集团有限责任公司 Ble语音数据传输方法及蓝牙设备
CN105850145A (zh) * 2013-12-27 2016-08-10 三星电子株式会社 显示设备、服务器设备和包括它们的显示系统及其提供内容的方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7096185B2 (en) * 2000-03-31 2006-08-22 United Video Properties, Inc. User speech interfaces for interactive media guidance applications
KR100474252B1 (ko) * 2002-10-11 2005-03-10 한국전자통신연구원 전자 프로그램 가이드 제공 시스템 및 그 방법
US9747384B1 (en) * 2003-08-20 2017-08-29 Ip Holdings, Inc. Website personalization and predictive analytics using social networks, location, mobile and behavioral data
JP4978927B2 (ja) 2007-03-15 2012-07-18 京セラドキュメントソリューションズ株式会社 画像形成装置
JP4915665B2 (ja) 2007-04-18 2012-04-11 パナソニック株式会社 音声認識機能付き操作器
KR20120031548A (ko) * 2010-09-27 2012-04-04 주식회사 씨에스 다수 화자 음성에 대하여 자동적으로 적응화하는 음성 인식 방법
US10341711B2 (en) * 2010-11-10 2019-07-02 Saturn Licensing Llc Remote controller device with electronic programming guide and video display
JP5771002B2 (ja) * 2010-12-22 2015-08-26 株式会社東芝 音声認識装置、音声認識方法および音声認識装置を搭載したテレビ受像機
KR20120116324A (ko) 2011-04-12 2012-10-22 삼성전자주식회사 디스플레이장치 및 그 제어방법
US9152529B2 (en) * 2012-09-24 2015-10-06 Adobe Systems Incorporated Systems and methods for dynamically altering a user interface based on user interface actions
US20160005150A1 (en) * 2012-09-25 2016-01-07 Benjamin Firooz Ghassabian Systems to enhance data entry in mobile and fixed environment
KR20140089862A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법
KR20140129547A (ko) 2013-04-30 2014-11-07 숭실대학교산학협력단 사용자 컨텍스트를 이용한 셋탑박스 기반 서비스 선택 방법 및 그 시스템
KR102144554B1 (ko) 2013-08-07 2020-08-13 한성대학교 산학협력단 사용자 맞춤형 서비스 장치 및 사용자 맞춤형 생활서비스를 제공하는 시스템
WO2015034295A1 (en) 2013-09-05 2015-03-12 Samsung Electronics Co., Ltd. Method and apparatus for configuring and recommending device action using user context
KR102233602B1 (ko) 2013-09-05 2021-03-30 삼성전자 주식회사 사용자 컨텍스트를 이용한 디바이스 동작의 설정 및 추천 방법 및 장치
KR20160047151A (ko) * 2014-10-22 2016-05-02 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
KR20160087649A (ko) * 2015-01-14 2016-07-22 삼성전자주식회사 사용자 단말 장치, 시스템 및 그 제어 방법
JP2017123564A (ja) * 2016-01-07 2017-07-13 ソニー株式会社 制御装置、表示装置、方法及びプログラム
US20190129727A1 (en) * 2017-10-27 2019-05-02 Salesforce.Com, Inc. User pattern prediction using a neural network

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060091426A (ko) * 2005-02-15 2006-08-21 엘지전자 주식회사 음성인식 기능을 갖는 티브이
KR20110038424A (ko) * 2009-10-08 2011-04-14 김경수 음성인식 통합 리모컨 및 그 동작 방법
KR20130134545A (ko) * 2012-05-31 2013-12-10 주식회사 다음커뮤니케이션 리모컨을 이용한 디지털tv 음성 검색 시스템 및 방법
US20150172744A1 (en) * 2012-06-27 2015-06-18 Electronics And Telecommunications Research Institute Remote control device capable of synchronizing screens
CN103811005A (zh) * 2012-11-13 2014-05-21 Lg电子株式会社 移动终端及其控制方法
CN105408890A (zh) * 2013-07-15 2016-03-16 微软技术许可有限责任公司 基于声音输入执行与列表数据有关的操作
CN105850145A (zh) * 2013-12-27 2016-08-10 三星电子株式会社 显示设备、服务器设备和包括它们的显示系统及其提供内容的方法
CN105813227A (zh) * 2016-04-29 2016-07-27 江苏惠通集团有限责任公司 Ble语音数据传输方法及蓝牙设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110300447A (zh) * 2019-06-28 2019-10-01 联想(北京)有限公司 一种控制方法和设备
CN110300447B (zh) * 2019-06-28 2021-07-16 联想(北京)有限公司 一种控制方法和设备
US11388673B2 (en) 2019-06-28 2022-07-12 Lenovo (Beijing) Co., Ltd. Control method and device
CN112786032A (zh) * 2019-11-01 2021-05-11 富泰华工业(深圳)有限公司 显示内容控制方法、装置、计算机装置及可读存储介质
CN112786036A (zh) * 2019-11-04 2021-05-11 海信视像科技股份有限公司 显示设备与内容显示方法
CN112786036B (zh) * 2019-11-04 2023-08-08 海信视像科技股份有限公司 显示设备与内容显示方法

Also Published As

Publication number Publication date
US20210306694A1 (en) 2021-09-30
US11330320B2 (en) 2022-05-10
EP3480813A4 (en) 2019-05-08
CN109643546B (zh) 2023-09-29
WO2018043895A1 (ko) 2018-03-08
EP3480813B1 (en) 2022-12-07
EP3480813A1 (en) 2019-05-08
KR20180024927A (ko) 2018-03-08

Similar Documents

Publication Publication Date Title
CN109643546A (zh) 显示设备和用于控制显示设备的方法
KR102147346B1 (ko) 디스플레이 장치 및 그의 동작 방법
CN109243463A (zh) 遥控器及其用于接收用户语音的方法
CN107950030B (zh) 显示装置以及控制显示装置的方法
EP3334172B1 (en) Display apparatus and method for acquiring channel information of a display apparatus
CN111372109B (zh) 一种智能电视以及信息交互方法
KR102217238B1 (ko) 원격제어장치 및 그의 동작 방법
KR102540001B1 (ko) 디스플레이 장치 및 디스플레이 장치의 화면 표시방법
CN107801074B (zh) 显示系统及其控制方法
CN112492390A (zh) 一种显示设备及内容推荐方法
CN108353205A (zh) 电子设备和用于控制电子设备的方法
KR102194011B1 (ko) 영상 표시 기기 및 그의 동작 방법
KR101239177B1 (ko) Mirroring 시스템을 이용한 스마트 기기 제어용 입력 장치
KR20130080380A (ko) 전자 장치 및 그의 제어 방법
CN103218038A (zh) 电子设备及其控制方法
KR20150066156A (ko) 디스플레이 장치 및 이의 제어 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant