CN111656793A - 显示装置和用于显示显示装置的屏幕的方法 - Google Patents
显示装置和用于显示显示装置的屏幕的方法 Download PDFInfo
- Publication number
- CN111656793A CN111656793A CN201880087969.3A CN201880087969A CN111656793A CN 111656793 A CN111656793 A CN 111656793A CN 201880087969 A CN201880087969 A CN 201880087969A CN 111656793 A CN111656793 A CN 111656793A
- Authority
- CN
- China
- Prior art keywords
- voice
- display
- user
- processor
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/233—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42204—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
- H04N21/42206—User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
- H04N21/42222—Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4314—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for fitting data in a restricted space on the screen, e.g. EPG data in a rectangular grid
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/475—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
- H04N21/4753—End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data for user identification, e.g. by entering a PIN or password
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6582—Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Abstract
提供了一种显示装置和用于显示显示装置的屏幕的方法。该显示装置包括:显示器;通信接口,被配置为连接到遥控器和语音识别服务器中的每一个;以及处理器,被配置为控制显示器和通信接口。该处理器还被配置为:基于从遥控器接收到对应于用户语音的信号,控制通信接口将信号发送到语音识别服务器;以及基于从语音识别服务器接收到与用户语音相关的语音识别结果,执行对应于语音识别结果的操作并控制显示器显示推荐指南,其中该推荐指南提供用于执行与操作相关的语音控制方法的指导。
Description
技术领域
本公开涉及显示装置和用于显示显示装置的屏幕的方法,并且更具体地,涉及响应于语音识别而提供活动用户指南的显示装置和用于显示显示装置的屏幕的方法。
背景技术
显示装置的面板按键或遥控处理器被广泛用作用户和能够输出内容以及广播内容的显示装置之间的接口。此外,用户语音或用户运动可以用作显示装置和用户之间的接口。
随着技术的发展,显示装置的功能已经变得复杂(例如,各种应用执行、游戏执行等),并且已经可以执行各种内容(诸如可以从外部下载的移动图像)和/或浏览互联网。
响应于已经变得更复杂和多样化的显示装置,潜在的用户语音命令的数量也在增加。因此,需要提供适用于与能够使用语音输入的高性能显示装置结合的操作的活动用户指南。
发明内容
技术问题
示例性实施例的一方面涉及响应于语音识别而提供活动用户指南的显示装置和用于显示显示装置的屏幕的方法。
技术方案
根据本公开的一方面,提供了一种显示装置,包括:显示器;通信接口,被配置为连接到遥控器和语音识别服务器中的每一个;以及处理器,被配置为控制显示器和通信接口。该处理器还被配置为:基于从遥控器接收到对应于用户语音的信号,控制通信接口将信号发送到语音识别服务器;以及基于从语音识别服务器接收到与用户语音相关的语音识别结果,执行对应于语音识别结果的操作并控制显示器来显示推荐指南,其中该推荐指南提供用于执行与操作相关的语音控制方法的指导。
该显示装置还可以包括存储器,该存储器被配置为存储与至少一个用户的语音发声历史相对应的历史信息,并且该处理器还可以被配置为基于历史信息来确定推荐指南。
基于从语音识别服务器接收到相同的语音识别结果,处理器还可以被配置为基于历史信息,根据认证的用户来控制显示另一推荐指南。
处理器还可以被配置为基于接收到对应于用户语音的信号来控制显示器显示第一语音用户界面,基于将所接收的信号发送到语音识别服务器来控制显示器显示第二语音用户界面,以及基于接收到语音识别结果来控制显示器显示第三语音用户界面。
显示装置还可以包括麦克风,并且处理器还可以被配置为控制通信接口将对应于经由麦克风接收的用户语音的信号发送到语音识别服务器。
处理器还可以被配置为控制显示器相对于显示在显示器上的内容区别地显示语音用户界面。
处理器还可以被配置为分别基于接收到对应于用户语音的信号、将所接收的信号发送到语音识别服务器以及接收到语音识别结果来控制显示器显示不同的语音用户界面。
根据本公开的一方面,提供了一种用于在连接到遥控器和语音识别服务器的显示装置中显示显示装置的屏幕的方法,该方法包括:显示对应于从遥控器接收的对语音按钮的选择的第一语音用户界面;从遥控器接收对应于用户语音的信号;将对应于所接收的信号的分组发送到语音识别服务器;显示对应于从语音识别服务器接收的语音识别结果的第二语音用户界面;执行对应于语音识别结果的操作;以及显示推荐指南,其中该推荐指南提供用于执行与操作相关的语音控制方法的指导。
推荐指南可以被显示在显示装置的屏幕的一侧上。
该方法还可以包括基于与用户的预存的语音发声历史相对应的历史信息来确定推荐指南。
推荐指南可以基于认证用户而变化地提供。
第一语音用户界面、第二语音用户界面和推荐指南可以相对于显示在显示装置上的内容以重叠方式被显示。
根据本公开的一方面,提供了一种显示装置,包括:显示器;通信接口;被配置为连接到遥控器;以及处理器,被配置为控制显示器和通信接口。基于当通信接口经由遥控器接收到用户语音信号时,处理器还被配置为:针对所接收的用户语音信号执行语音识别算法,以便获得语音识别结果;执行对应于语音识别结果的操作;以及控制显示器显示推荐指南,其中该推荐指南提供用于执行与操作相关的语音控制方法的指导。
该显示装置还可以包括存储装置,该存储装置被配置为存储与至少一个用户的语音发声历史相对应的历史信息。处理器还可以被配置为基于历史信息来确定推荐指南。
当所接收的用户语音信号与音量增大或音量减小相关,并且操作与对应的音量改变相关时,推荐指南可以包括用于将音量设置为由用户选择的数值水平的指导。当所接收的用户语音信号与频道增大或频道减小相关,并且操作与对应的频道改变相关时,推荐指南可以包括用于将频道设置为由用户选择的数值的指导。
根据本公开的一方面,提供了一种用于显示连接到遥控器的显示装置的屏幕的方法,该方法包括:显示对应于从遥控器接收的对语音按钮的选择的第一语音用户界面;从遥控器接收对应于用户语音的信号;针对所接收的信号执行语音识别算法,以便获得语音识别结果;显示对应于所获得的语音识别结果的第二语音用户界面;针对显示装置,执行对应于语音识别结果的操作;以及显示推荐指南,其中该推荐指南提供用于执行与操作相关的语音控制方法的指导。
该方法还可以包括基于与用户的预存的语音发声历史相对应的历史信息来确定要被显示的推荐指南。
当所接收的信号与音量增大或音量减小相关,并且操作与对应的音量改变相关时,推荐指南可以包括用于将音量设置为由用户选择的数值水平的指导。当所接收的信号与频道增大或频道减小相关,并且操作与对应的频道改变相关时,推荐指南包括用于将频道设置为由用户选择的数值的指导。
有益效果
附图说明
从结合附图的下面描述中,本公开的特定实施例的以上以及其他方面、特征和优点将变得更加显而易见,其中:
图1是示出根据实施例的显示装置、遥控器和服务器之间的操作的示意图;
图2是示出根据实施例的显示装置和遥控器的框图;
图3是示出根据实施例的用于显示显示装置的屏幕的方法的示意性流程图;
图4A、图4B、图4C、图4D、图4E、图4F、图4G、图4H和图4I是示出根据实施例的用于显示显示装置的屏幕的方法的示例的示意图;
图5是示出根据实施例的对应于语音数据的推荐的语音数据列表的示例的示意图;并且
图6A、图6B、图6C、图6D、图6E和图6F是示出根据实施例的用于控制显示装置的屏幕的方法的示例的示意图。
最佳方式
具体实施方式
在下文中,将参考附图详细描述本公开的实施例。此外,将参考附图描述根据实施例的制造和使用电子装置的方法。在附图中,相同的附图标记或符号指代执行基本相同的功能的部件或元件。
如本文所使用的,术语“第1”或“第一”和“第2”或“第二”可以使用对应的组件而不管其重要性或顺序,并且用于将一个组件与另一个组件区分开来而不限制该组件。本文中使用的术语仅旨在解释特定的示例实施例,而不是限制本公开的范围。例如,第一元件可以被称为第二元件,并且类似地,第二元件可以被称为第一元件,而不超出本公开的权利的范围。如本文所使用的,术语“和/或”包括相关联的列出项中的一个或多个的任何或所有组合。此外,如本文所使用的,当在元素列表之后时,诸如“......中的至少一个”的表达修饰整个元素列表,而不修饰列表的单个元素。例如,表达“a、b和c中的至少一个”应该被理解为包括仅a,仅b,仅c,a和b,a和c,b和c,或a、b和c中的全部。
根据实施例,遥控器200(参考图1)上的“按钮(或按键)的选择”可以用作指代按钮(或按键)的按压或按钮(或按键)的触摸的术语。如本文所使用的表达“用户输入”可以指包括例如用户选择按钮(或按键)、按压按钮(或按键)、触摸按钮、做出触摸手势、语音或动作的概念。
根据实施例,“显示装置的屏幕”可以用作包括显示装置的显示器的术语。
本说明书中使用的术语仅用于描述特定的示例性实施例,而不是限制本公开。单数形式旨在包括复数形式,除非上下文另有明确指示。在整个说明书中,应当理解,术语“包含”和“包括”及其变体指定存在说明书中描述的特征、数字、步骤、操作、组件、部件或其组合,但是不排除存在或添加一个或多个其他特征、数字、步骤、操作、组件、部件或其组合。
在每个附图中提出的相似的附图标记表示相似的组件。
图1是示出根据实施例的显示装置、遥控器和服务器之间的操作的示意图。
图1示出了显示装置、遥控器和一个或多个服务器。
能够输出内容以及广播内容的显示装置200可以使用内置或可连接的麦克风240(参考图2)接收用户语音。此外,遥控器100可以使用麦克风163(参考图2)接收用户语音。
遥控器100可以通过使用红外或近场通信(例如,蓝牙等)来输出(或发送)控制命令,以控制显示装置200。此外,遥控器100可以转换经由红外或近场通信(例如,蓝牙等)接收的语音,并将经转换的语音发送到显示装置200。
用户可以通过在遥控器100上选择按键(包括按钮)并通过执行充当用户输入的运动(识别)(例如,经由触摸板的触摸(手势)、经由麦克风163的语音识别或经由传感器164(参考图2)的运动识别)来控制显示装置200的功能(例如,通电/断电、引导、频道改变、音量调节、内容回放等)。
用户可以通过使用语音来控制显示装置200。遥控器100的麦克风163可以接收与显示装置200的控制相对应的用户语音。遥控器100可以将所接收的语音转换为电信号(例如,数字信号、数字数据或分组),并将其发送到显示装置200。
用户可以通过使用附接到显示装置的相机245(参考图2)利用运动识别来控制显示装置200(例如,通电/断电、引导、频道改变、音量调节、内容回放等)。此外,用户可以通过使用遥控器100的移动(例如,通过握持或移动遥控器100)来控制显示装置200的屏幕。
参考图1和图2,遥控器100包括与显示装置200的至少一个功能和/或操作相对应的按钮161(或按键)。按钮161可以包括物理按钮或触摸按钮。此外,遥控器100可以包括与在显示装置200中执行的功能相对应的单功能按钮(例如,161a、161b、161c、161d、161e、161f、161g)和/或多功能按钮(例如,161h)。
遥控器100的每个单功能按钮(例如,电源按钮161a和指针键161e)可以指与来自在显示装置200中执行的多个功能当中的一个功能的控制相对应的按键。在大多数情况下,遥控器100的按键可以是单功能按键。
遥控器100的按钮的排列顺序和/或数量可以根据显示装置200的功能而增加、改变或减少。
语音识别服务器300可以将对应于在遥控器100或显示装置200处输入的用户语音的电信号(或对应于电子信号的分组)转换为通过使用语音识别而生成的语音数据(例如,文本、代码等)。经转换的语音数据可以经由显示装置200被发送到第二服务器(未示出),或者可以被直接发送到第二服务器。
交互式服务器(未示出)可以将经转换的语音数据控制为可以在显示装置200中被识别的控制信息(例如,用于控制显示装置200的控制命令)。经转换的控制信息可以被发送到显示装置200。
下面将提供关于语音识别服务器300和交互式服务器的详细描述。
图2是示出根据实施例的显示装置和遥控器的框图。
参考图2,从遥控器100接收对应于用户语音的电信号的显示装置200可以通过使用通信器(本文中也称为“通信接口”)230和/或输入/输出单元(本文中也称为“输入/输出组件”)260以有线或无线方式与外部装置(例如,服务器300等)连接。
从遥控器100接收对应于用户语音的电信号的显示装置200可以将所接收的电信号(或对应于电信号的分组)发送到通过使用通信器230或输入/输出单元260以有线或无线方式连接的外部装置(例如,服务器300等)。外部装置可以包括移动电话(未示出)、智能电话(未示出)、平板个人计算机(PC)(未示出)和PC(未示出)中的任何一个。
显示装置200可以包括显示器270,并且可以附加地包括调谐器220、通信器230和输入/输出单元260中的至少一个。显示装置200可以包括显示器270,并且可以附加地包括调谐器220、通信器230和输入/输出单元260的组合。此外,包括显示器270的显示装置200可以电连接到包括调谐器(未示出)的单独的电子装置(未示出)。
显示装置200例如可以被实施为模拟电视(TV)、数字TV、3D-TV、智能TV、发光二极管(LED)TV、有机发光二极管(OLED)TV、等离子TV、监视器、具有固定曲率的屏幕(或显示器)的曲面TV、具有固定曲率的屏幕的柔性TV、具有固定曲率的屏幕的弯曲TV和/或其中当前屏幕的曲率可以通过所接收的用户输入进行修改的曲率可修改TV中的任何一个。然而,对于本领域普通技术人员来说将显而易见的是,显示装置200不限于以上。
显示装置200可以包括调谐器220、通信器230、麦克风240、相机245、光学接收器250、输入/输出单元260、显示器270、音频输出单元275、存储装置280和电源290。显示装置200可以包括被配置为检测显示装置200的内部状态或外部状态的传感器(例如,照度传感器、温度传感器等(未示出))。
TA控制器210可以包括处理器(例如,中央处理单元(CPU))211、用于存储用于控制显示装置200的控制程序的只读存储器(ROM)212(或非易失性存储器)、以及用于存储在显示装置200外部输入的信号或数据或者用作与在显示装置200中执行的各种操作相对应的存储区域的随机存取存储器(RAM)213(或易失性存储器)。
控制器210控制显示装置200的一般操作和显示装置200的内部元件210-290之间的信号流,并且处理数据。控制器210控制从电源290供应给内部元件210-290的电力。此外,当存在用户输入时,或者当满足先前已经被存储的预定条件时,控制器210可以执行存储在存储装置280中的OS(操作系统)或各种应用。
处理器211还可以包括被配置用于对应于图像或视频的图形处理的图形处理单元(GPU,未示出)。处理器211可以包括图形处理器(未示出),或者图形处理器可以与处理器211分开地被提供。处理器211可以被实施为包括核心(未示出)和GPU的SoC(片上系统)。另外,处理器211可以被实施为包括ROM 212和RAM 213中的至少一个的SoC。处理器211可以包括单核、双核、三核、四核或更多数量的核心。
显示装置200的处理器211可以包括多个处理器。多个处理器可以包括主处理器(未示出)和子处理器(未示出),其根据显示装置200的状态之一在屏幕关闭(或断电)模式和/或预通电模式下进行操作。多个处理器还可以包括用于控制传感器(未示出)的传感器处理器(未示出)。
处理器211、ROM 212和RAM 213可以经由内部总线彼此连接。
控制器210控制被配置用于显示内容的显示器270以及连接到遥控器100和语音识别服务器300的通信器230。如果经由通信器230从遥控器100接收到用户语音,则控制器210将对应于所接收的用户语音的信号发送到语音识别服务器300。如果经由通信器230从语音识别服务器300接收到关于用户语音的语音识别结果,则控制器210执行对应于语音识别结果的操作。例如,如果识别出“音量增大”的用户语音,则可以顺序地或并行地执行显示表示识别结果的GUI的操作和增大语音输出水平的操作等。控制器210控制显示器270显示推荐指南,其中该推荐指南为执行与对应于语音识别结果的操作相关的语音控制方法提供指导。例如,处理器210可以控制显示器270显示提供如下指导的推荐指南:如果发出特定水平(例如,音量15)而不是使用递增地增大音量水平的方法,则音量水平可以被立即改变为音量水平15。
此外,处理器210基于语音识别结果和历史信息来控制显示器显示另一推荐指南。历史信息指代通过收集来自多个用户当中的每个用户的相应语音发声历史而获得的信息,并且可以被存储在存储装置280中。处理器210可以随时或周期性更新存储在存储装置280中的历史信息。
如果从语音识别服务器接收到相同的语音识别结果,则控制器210可以基于历史信息来控制显示另一推荐指南。
如果从语音识别服务器接收到相同的语音识别结果,则控制器210可以基于历史信息根据认证的用户来控制显示另一推荐指南。
推荐指南可以从外部服务器进行接收,或者可以被提前存储在存储装置280中。根据实施例,如果从外部服务器接收到推荐指南,则控制器210可以将语音识别结果发送到对应的服务器,并接收对应于语音识别结果的至少一个推荐指南和对应于推荐指南的操作信息。控制器210控制显示器270显示所接收的推荐指南中的至少一个。如果稍后输入的用户语音对应于推荐指南,则控制器210基于对应于推荐指南的操作信息来执行操作。
控制器210可以根据接收到对应于用户语音的信号、将所接收的信号发送到语音识别服务器以及接收到语音识别结果来控制显示器显示不同的相应语音用户界面。
控制器210可以进行控制以经由通信器将与经由麦克风接收的用户语音相对应的信号发送到语音识别服务器。
控制器210可以进行控制以相对于内容区别地显示语音用户界面。
根据实施例,术语“显示装置200的处理器”可以包括显示装置200的处理器211、ROM 212和RAM 213。根据实施例,术语“显示装置200的处理器”可以指显示装置200的处理器211。替代地,术语“显示装置200的处理器”可以包括显示装置200的主处理器、子处理器、ROM 212和RAM 213。
本领域普通技术人员应当容易理解,控制器210的配置和操作可以根据实施例以各种实施方式中的任何一种而实施。
调谐器220可以经由以有线或无线方式接收的广播信号的放大、混合和谐振,仅调谐和选择来自各种波分量当中的要由显示装置200接收的频道频率。广播信号包括视频信号、音频信号和(多个)附加数据信号(例如,包括电子节目指南(EPG)的信号)。
调谐器220可以基于用户输入(例如,语音、运动、按钮输入、触摸输入等)在对应于频道号(例如,有线广播频道No.506)的频带中接收视频、音频和数据。
调谐器220可以从各种源(诸如地面广播提供商、有线广播提供商、卫星广播提供商、互联网广播提供商等)中的任何一种接收广播信号。
调谐器220可以与显示装置200以一体式被实施,或者可以被实施为电连接到显示装置200的调谐器(未示出)或包括调谐器(未示出)的单独的设备(例如,机顶盒或智能集线盒(one connect))。
在通信器230的控制下,通信器230可以将显示装置连接到遥控器或外部装置300。通信器230可以在处理器210的控制下向第一服务器300发送对应于用户语音的电信号(或对应于电信号的分组),或者从第一服务器300接收对应于电信号的语音数据(或对应于电信号的分组)。此外,通信器230可以在处理器210的控制下向第二服务器(未示出)发送所接收的语音数据,或者从第二服务器接收对应于语音数据的控制信息。
通信器230可以在处理器210的控制下从外部下载应用或者执行网络浏览。
通信器230可以包括有线以太网231、无线局域网(LAN)通信器232和近场通信器233中的至少一个。此外,通信器230可以包括有线以太网231、无线LAN通信器232和近场通信器233的组合。
无线LAN通信器232可以在处理器210的控制下在安装接入点(AP)的地方与AP无线连接。例如,无线LAN通信器232可以包括无线保真(WiFi)。无线LAN通信器232支持电气和电子工程师协会(IEEE)的无线LAN标准(IEEE802.11x)。此外,近场通信器233可以在处理器210的控制下在没有AP的情况下无线地执行遥控器100和外部设备之间的近场通信。例如,近场通信可以包括蓝牙、蓝牙低功耗、红外数据协会(IrDA)、超宽带(UWB)和/或近场通信(NFC)中的任何一个。
根据实施例的通信器230可以接收由遥控器100发送的控制信号。此外,近场通信器233可以在处理器210的控制下接收由遥控器100发送的控制信号。
麦克风240接收发出的用户语音。麦克风240可以将所接收的语音转换为电信号,并将电信号输出到处理器210。例如,用户语音可以包括与显示装置200的菜单或功能控制相对应的语音。麦克风240的识别范围可以基于用户语音的水平和周边环境(例如,扬声器声音、周围噪声等)来变化。
麦克风240可以与显示装置200以一体式被实施,或者可以作为单独的设备与显示装置100分开实施。单独的麦克风240可以经由通信器230或输入/输出单元260与显示装置200电连接。
相机245可以拍摄相机识别范围中的视频(例如,连续帧)。例如,用户运动可以包括用户的存在(例如,用户出现在相机识别范围内)、用户身体的一部分(诸如用户的脸、面容、手、拳头或手指)的存在、和/或用户身体的一部分的运动。相机245可以包括镜头(未示出)和图像传感器(未示出)。
相机245可以被布置在例如显示装置200的上端、下端、左侧和右侧之一上。
相机245可以转换拍摄的连续帧,并将经转换的帧输出到处理器210。处理器210可以分析拍摄的连续帧,以便识别用户运动。处理器210可以使用运动识别结果在显示装置200上显示指南或菜单,或者处理器210可以执行对应于运动识别结果的控制操作(例如,频道改变操作或音量调节操作)。
如果有多个相机245,则处理器210可以经由多个相机245接收三维静止图像或三维运动。
相机245可以与显示装置200以一体式被实施,或者可以作为单独的设备与显示装置100分开实施。包括单独的相机(未示出)的电子装置(未示出)可以经由通信器230或输入/输出单元260电连接到显示装置200。
光学接收器250可以经由光学窗口(未示出)接收从遥控器100输出的光学信号(包括控制信息)。
光学接收器250可以从遥控器100接收对应于用户输入(例如,触摸、按压、触摸手势、语音或动作)的光学信号。可以从所接收的光学信号获得控制信号。所接收的光学信号和/或所获得的控制信号可以被发送到处理器210。
输入/输出单元260可以在处理器210的控制下从显示装置200外部接收内容。例如,内容可以包括视频、图像、文本或网络文档中的任何一个。
输入/输出单元260可以包括对应于内容的接收的高清多媒体接口(HDMI)端口261、组件输入插孔262、PC输入端口263和通用串行总线(USB)输入插孔264中的一个。输入/输出单元260可以包括HDMI输入端口262、组件输入插孔262、PC输入端口263和USB输入插孔264的组合。本领域普通技术人员将容易理解,输入/输出单元260可以基于显示装置200的性能和配置而添加、删除和/或改变。
显示器270可以在处理器210的控制下显示被包括在经由调谐器220接收的广播信号中的视频。显示器270可以显示经由通信器230或输入/输出单元260输入的内容(例如,视频)。显示器270可以在处理器210的控制下输出存储在存储装置280中的内容。此外,显示器270可以显示用以执行对应于语音识别的语音识别任务的语音用户界面(UI)、或用以执行对应于运动识别的运动识别任务的显示运动UI。例如,语音UI可以包括语音命令指南,并且运动UI可以包括运动命令指南。
根据实施例的显示装置200的屏幕可以在处理器210的控制下显示对应于推荐指南的显示的视觉反馈。
根据另一实施例的显示器270可以与显示装置200分开实施。显示器270可以经由显示装置200的输入/输出单元260与显示装置200电连接。
音频输出单元275在处理器210的控制下输出被包括在经由调谐器220接收的广播信号中的音频。音频输出单元275可以输出经由通信器230或输入/输出单元260输入的音频(例如,对应于语音或声音的音频)。此外,音频输出单元275可以在处理器210的控制下输出存储在存储装置280中的音频文件。
音频输出单元275可以包括扬声器276、耳机输出端子277和S/PDIF输出端子278中的至少一个,或者扬声器276、耳机输出端子277和S/PDIF输出端子278的组合。
根据实施例的音频输出单元275可以在处理器210的控制下响应于推荐指南的显示而输出听觉反馈。
存储装置280可以在处理器210的控制下存储用于驱动和控制显示装置200的各种数据、程序或应用。存储装置280可以存储响应于调谐器220、通信器230、麦克风240、相机245、光学接收器250、输入/输出单元260、显示器270、音频输出单元275和电源290的驱动而输入/输出的信号或数据。
存储装置280可以存储用以控制显示装置200和处理器210的控制程序、由制造商最初提供的或外部下载的应用、与应用相关的图形用户界面(“GUI”)、要被包括在GUI中的对象(例如,图像、文本、图标和按钮)、用户信息、文档、语音数据库、运动数据库以及相关数据。
另外,存储装置280可以包括广播接收模块、频道控制模块、音量控制模块、通信控制模块、语音识别模块、运动识别模块、光学接收模块、显示控制模块、音频控制模块、外部输入控制模块、电力控制模块、语音数据库和运动数据库中的任何一个。
存储装置中未示出的模块和数据库可以以软件格式被实施,以便执行广播接收的控制功能、频道控制功能、音量控制功能、通信控制功能、语音识别功能、运动识别功能、光学接收功能、显示控制功能、音频控制功能、外部输入控制功能和/或电力控制功能。处理器210可以通过使用存储在存储装置280中的软件来执行显示装置200的操作和/或功能。
存储装置280可以存储从语音识别服务器300接收的语音数据。存储装置280可以存储从遥控器300接收的控制信息。存储装置280可以存储从交互式服务器(未示出)接收的控制信息。
存储装置280可以存储与对应于用户语音的音素相对应的数据库。此外,存储装置280可以存储对应于语音数据的控制信息数据库。
存储装置280可以存储对应于视觉反馈的视频、图像或文本。
存储装置280可以存储对应于听觉反馈的声音。
存储装置280可以存储提供给用户的反馈的反馈提供时间(例如,300ms)。
如实施例中所使用的术语“存储装置”可以包括存储装置280、处理器210的ROM212、RAM 213、通过使用SoC(未示出)而实施的存储装置(未示出)、安装在显示装置200中的存储卡(未示出)(例如,微型安全数字(SD)卡或USB存储器)、以及可连接到输入/输出单元260的USB 264的端口的外部存储装置(未示出)(例如,USB存储器)。此外,存储装置可以包括非易失性存储器、易失性存储器、硬盘驱动器(HDD)或固态驱动器(SSD)。
电源290在处理器210的控制下将从外部电源接收的电力供应给显示装置200的内部元件210-290。电源290可以在处理器210的控制下将从位于显示装置200内的一个电池、两个电池或多于两个电池接收的电力提供给内部元件210-290。
电源290可以包括被配置为向关闭(尽管电源插头可以连接到电源插座)的显示装置200的相机245供电的电池(未示出)。
从在图1和图2中示出的显示装置200的元件210-290当中,可以基于显示装置200的性能和/或类型来添加、改变或删除至少一个元件(例如,由虚线框示出的元件中的至少一个)。此外,本领域普通技术人员应当容易理解,元件210-290的位置可以基于显示装置200的性能或配置而改变。
在下文中,将更详细地描述用于控制显示装置的屏幕的方法。
参考图2,遥控显示装置200的遥控器100可以包括控制器110、通信器130、光学输出单元150、显示器170、存储装置(也称为“存储器”)180和电源190。遥控器100可以包括通信器130和光学输出单元150中的一个。替代地,遥控器100可以包括通信器130和光学输出单元150两者。
遥控器可以指能够遥控显示装置的电子装置。此外,遥控器100可以包括能够安装(或下载)应用(未示出)来控制显示装置200的电子装置。
能够控制应用(未示出)以控制显示装置200的电子装置可以包括显示器(例如,仅具有显示面板而没有触摸屏或触摸面板的显示器)。例如,具有显示器的电子装置可以包括移动电话(未示出)、智能电话(未示出)、平板PC(未示出)、笔记本PC(未示出)、其他显示装置(未示出)或家用电器(例如,冰箱、洗衣机或吸尘器)等,但不限于此。
用户可以通过使用由执行的应用提供的GUI(未示出)上的按钮(未示出)(例如,频道改变按钮)来控制显示装置200。
控制器110可以包括处理器111、存储用于控制遥控器100的控制程序的ROM 112(或非易失性存储器)、以及存储在遥控器100外部输入的信号或数据并用作关于在遥控器100中执行的各种操作的存储区域的RAM 113(或易失性存储器)。
控制器110可以控制遥控器100的一般操作和内部元件110-190之间的信号流,并处理数据。控制器110控制电源190向内部元件110-190供电。
根据实施例,控制器110可以包括遥控器100的处理器111、ROM 112和RAM 113。
通信器130可以在处理器110的控制下将与用户输入(例如,触摸、按压、触摸手势、语音或运动)相对应的控制信号(例如,对应于通电的控制信号或对应于音量调节的控制信号)发送到显示装置200。
通信器130可以无线连接到显示装置200。通信器130可以包括无线LAN通信器131和近场通信器132中的至少一个,或者无线LAN通信器131和近场通信器132两者。
遥控器100的通信器130基本上类似于显示装置200的通信器230,因此将省略冗余描述。
输入单元160可以包括按钮161和/或触摸板162,其接收用户输入(例如,触摸或按压),以便控制显示装置200。输入单元160可以包括用于接收发出的用户语音的麦克风163、用于检测遥控器100的移动的传感器164和用于提供触觉反馈的振动马达(未示出)。
输入单元160可以将对应于所接收的用户输入(例如,触摸、按压、触摸手势、语音或运动)的电信号(例如,模拟信号或数字信号)发送到控制器110。
按钮161可以包括图1的按钮161a至161h。触摸板162可以接收用户的触摸或用户的触摸手势。触摸板162可以被实施为方向键或回车键。此外,触摸板162可以位于遥控器100的前部。
麦克风163接收由用户发出的语音。麦克风163可以转换所接收的语音,并将经转换的语音输出到控制器110。控制器110可以生成对应于用户语音的控制信号(或电信号),并将控制信号发送到显示装置200。
传感器164可以检测遥控器100的内部状态和/或外部状态。例如,传感器164可以包括运动传感器(未示出)、陀螺仪传感器(未示出)、加速度传感器(未示出)和/或重力传感器(未示出)中的任何一个。传感器164可以分别测量遥控器100的移动加速度或重力加速度。
振动马达(未示出)可以在控制器210的控制下将信号转换为机械振动。例如,振动马达可以包括线性振动马达、条型振动马达、硬币型振动马达和/或压电元件振动马达中的任何一个。单个振动马达(未示出)或多个振动马达(未示出)可以被布置在遥控器200内部。
光学输出单元150在控制器110的控制下输出对应于用户输入(例如,触摸、按压、触摸手势、语音或运动)的光学信号(例如,包括控制信号)。可以在显示装置200的光学接收器250处接收所输出的光学信号。对于在遥控器100中使用的遥控器代码格式,可以使用制造商专用遥控器代码格式和商用遥控器代码格式中的一个。遥控代码格式可以包括引导码和数据字。所输出的光学信号可以通过载波进行调制,然后被输出。控制信号可以被存储在存储装置180中或者由控制器110生成。遥控器100可以包括红外激光发光二极管(Infrared-Laser Emitting Diode,IR-LED)。
遥控器100可以包括可以将控制信号发送到显示装置200的通信器130和光学输出单元150中的一个或两个。
控制器110可以向显示装置200输出对应于用户输入的控制信号。控制器110可以经由通信器130和光学输出单元150中的一个将对应于用户输入的控制信号优先发送到显示装置200。
显示器170可以显示被显示在显示装置200上的广播频道号、广播频道名称和/或显示装置的状态(例如,屏幕关闭、预通电模式和/或正常模式)。
如果将光学信号从遥控器100输出到显示装置200,则显示器170可以在控制器110的控制下显示与用于打开显示装置200的电源的“TV ON”、用于关闭显示装置200的电源的“TV OFF”、用于显示调谐的频道号的“Ch.No.”或用于指示调节的音量的“Vol.Value”相对应的文本、图标或符号。
例如,显示器170可以包括液晶显示(LCD)方法、有机发光二极管(OLED)方法或真空荧光显示(VFD)方法的显示器。
存储装置180可以在控制器110的控制下存储被配置为驱动和控制遥控器100的各种数据、程序或应用。存储装置180可以存储根据通信器130、光学输出单元150和电源190的驱动而输入或输出的信号或数据。
存储装置180可以在控制器110的控制下存储对应于所接收的用户输入(例如,触摸、按压、触摸手势、语音或运动)的控制信息和/或对应于遥控器100的移动的控制信息。
存储装置180还可以存储对应于遥控器100的遥控器信息。遥控设备信息可以包括型号名称、原始设备ID、剩余内存、是否存储对象数据、蓝牙版本和/或蓝牙规范(profile)中的任何一个。
电源190在控制器110的控制下向遥控器100的元件110至190供电。电源190可以从位于遥控器100中的一个或多个电池向元件110至190供电。电池可以在遥控器200内部被布置在遥控器200的前表面(例如,其上形成按钮161或触摸板162的表面)和后表面(未示出)之间。
从在图1和图2中示出的遥控器100的元件当中,可以基于遥控器100的性能来添加或删除至少一个元件(例如,由虚线框示出的元件中的至少一个)。此外,本领域普通技术人员应当容易理解,元件的位置(即,定位)可以基于遥控器100的性能或配置而改变。
语音识别服务器300经由通信器(未示出)接收对应于在遥控器100或显示装置200处输入的用户语音的分组。语音识别服务器300的处理器(未示出)通过使用语音识别单元(未示出)和语音识别算法分析所接收的分组来执行语音识别。
语音识别服务器300的处理器可以通过使用语音识别算法将所接收的电信号(或对应于电信号的分组)转换为包括单词或句子形式的文本的语音识别数据。
语音识别服务器300的处理器可以经由语音识别服务器300的通信器将语音数据发送到显示装置200。
语音识别服务器300的处理器可以将语音数据转换为控制信息(例如,控制命令)。控制信息可以控制显示装置200的操作(或功能)。
语音识别服务器300可以包括控制信息数据库。语音识别服务器300的处理器可以通过使用被存储的控制信息数据库来确定对应于经转换的语音数据的控制信息。
语音识别服务器300可以通过使用控制信息数据库将经转换的语音数据转换为用于控制显示装置200的控制信息(例如,由显示装置200的控制器210解析的控制信息)。
语音识别服务器300的处理器可以经由语音识别服务器300的通信器将控制信息发送到显示装置200。
根据实施例,语音识别服务器300可以与显示装置200一体形成(即,如附图标记200’所指示的)。语音识别服务器300可以作为与显示装置200的元件210-290分开的元件被包括(200’)在显示装置200中。语音识别服务器300可以被嵌入在显示装置200的存储装置280中,或者可以被实施在单独的存储装置(未示出)中。
根据实施例,交互式服务器(未示出)可以与语音识别服务器300分开实施。交互式服务器可以将从语音识别服务器300和显示装置200中的一个接收的语音数据转换为控制信息。交互式服务器可以将经转换的控制信息发送到显示装置200。
在图1和图2的语音识别服务器300中示出的至少一个元件可以根据语音识别服务器300的性能而修改、添加或删除。
尽管为了解释各种实施例,在图2中已经详细示出和描述了遥控器100和显示装置200的配置,但是根据实施例的屏幕显示方法不限于此。
例如,显示装置200可以被配置为包括被配置用于显示各种内容的显示器、被配置用于与遥控器和语音识别服务器通信的通信器、以及被配置用于控制显示器和通信器的处理器。如果经由通信器接收到对应于用户语音的信号,并且从语音识别服务器获得关于用户语音的语音识别结果,则处理器可以显示各种推荐指南中的任何一种。根据其中基于历史信息来确定推荐指南的实施例,显示装置200还可以包括被配置用于存储与每个用户的语音发声历史相对应的历史信息的存储装置。下面将详细描述推荐指南的类型及其显示方法。
图3是示出根据实施例的用于显示显示装置的屏幕的方法的示意性流程图。
图4A、图4B、图4C、图4D、图4E、图4F、图4G、图4H和图4I是示出根据实施例的用于显示显示装置的屏幕的方法的示例的示意图。
在图3的步骤S310中,在显示装置上显示内容。
参考图4A,内容201(例如,广播信号或视频等)被显示在显示装置200上。显示装置200(例如,经由无线LAN通信器232或近场通信器233)无线连接到遥控器100。
被供电的显示器200显示内容201(例如,广播频道或视频)。此外,显示装置200可以以有线或无线方式连接到语音识别服务器300。
基于遥控器200和显示装置100最初彼此连接,遥控器100的控制器110可以通过使用近场通信器132(例如,蓝牙或蓝牙低功耗)来搜索显示装置200。遥控器100的处理器111可以向显示装置200发送查询,并向所查询的显示装置200做出连接请求。
在图3的步骤S320中,选择遥控器的语音按钮。
参考图4B,用户选择遥控器100的语音按钮161b。处理器111可以进行控制,使得麦克风163根据对语音按钮161b的用户选择进行操作。此外,处理器111可以进行控制,使得根据对语音按钮161b的用户选择向麦克风163供电。
处理器111可以经由通信器130将与麦克风163的操作的开始相对应的信号发送到显示装置200。
在图3的步骤S330中,在显示装置的屏幕上显示语音用户界面(UI)。
参考图4B,在控制器210的控制下,响应于麦克风163的操作,语音UI202被显示在显示装置200的屏幕上。与遥控装置100中的语音按钮161b的选择相对应的显示装置200中的语音UI 202的显示时间之间的间隔越短,提供给用户的用户体验越好。基于语音按钮161b的选择时间点,语音UI 202可以在500ms(可变)或更少的时间被显示在遥控装置100中。
语音UI 202的显示时间可以基于显示装置200的性能和/或遥控装置100和显示装置200之间的通信状态来变化。
语音UI 202指代对应于用户发声的提供给用户的指南用户界面。例如,当用户发声时,显示装置200的处理器211可以向用户提供由对应于用户发声的文本、图像、视频或符号构成的语音指南的用户界面。可以与显示在屏幕上的内容201分开地显示语音UI 202。
此外,语音UI 202可以包括显示在显示装置200的一侧上的用户指南(例如,文本202a、图像202b、视频(未示出)和/或符号202d等)。用户指南可以显示文本、图像、视频和符号中的一个或其组合。
语音UI 202可以位于显示装置200的屏幕的一侧上。此外,语音UI 202可以被叠加在显示在显示装置200的屏幕上的内容201上。语音UI 202可以具有一定程度(例如,0%至100%)的透明度。内容201可以基于语音UI 202的透明度以模糊状态被显示。此外,在本公开的示例性实施例中,可以与屏幕上的内容201分开地显示语音UI。
参考图4C,如果设置时间(例如,100ms,可变)已经过去,则显示装置200的处理器211可以显示另一语音UI 203。语音UI 202的区域可以不同于另一语音UI 203的区域(例如,如图像203b所示)。语音UI 203可以包括被显示在显示装置200的屏幕的一侧上的用户指南(例如,文本203a、图像203b和符号203d等)。
显示装置200的处理器211可以经由通信器230将与遥控装置100中的语音按钮161b的选择相对应的信号(例如,与语音识别服务器300的语音识别单元(未示出)的操作的准备相对应的信号)发送到语音识别服务器300。
在图3的步骤S340中,在遥控装置中输入用户语音。
参考图4C,用户发声(例如,“音量增大”)以用于控制显示装置200。遥控装置100的麦克风163可以接收(或输入)用户的语音。麦克风163可以将所接收的信号转换为对应于所接收的用户语音的信号(例如,数字信号或模拟信号),并将信号输出到处理器111。
处理器111可以将对应于所接收的用户语音的信号存储在存储装置180中。
在另一示例性实施例中,可以经由显示装置200的麦克风240输入用户语音。例如,用户可以不选择遥控装置100的语音按钮161b,而是朝向显示装置200的前表面直接发声,例如“音量增大”(例如,显示部分270被暴露)。即使当用户语音被直接输入到显示装置200时,显示装置200和语音识别服务器300的操作也基本上类似于经由遥控装置100的语音输入(例如,语音输入的路径的差异)。
在图3的步骤S350中,将对应于用户语音的信号发送到显示装置。
参考图4D,遥控装置100的处理器111可以经由通信器130将对应于存储的用户语音的信号发送到显示装置200。当对应于用户语音的信号的一部分被存储在存储装置180中时,遥控装置100的处理器110可以经由通信器130将对应于用户语音的信号的一部分直接发送(或延迟100ms或更少(可变))到显示装置200。
遥控装置100的处理器111可以基于无线通信标准来发送(或转换并发送)对应于存储的用户语音的信号,使得显示装置200可以接收信号。遥控装置100的处理器111可以控制通信器130发送包括对应于存储的用户语音的信号的分组。该分组可以是符合局域通信的规范的分组。
当从遥控装置100接收到分组时,显示装置100的处理器211可以将所接收的分组存储在存储装置280中。
显示装置200的处理器211可以分析(或解析)所接收的分组。根据分析结果,显示装置200的处理器211可以确定已经接收到对应于用户语音的信号。
显示装置200的处理器211显示对应于接收到分组的另一语音UI 204。语音UI 204可以包括对应于接收到分组的文本204a和视频204c。
语音UI 204在定性上(例如,文本的差异、图像和视频的差异等)与语音UI 202基本相同,因此将省略其冗余描述。
显示装置200的处理器211可以经由通信器230将所接收的分组发送到语音识别服务器300。显示装置200的处理器211可以按照原样转换所接收的分组,或者所接收的分组可以被发送到语音识别服务器300。
在图3的步骤S360中,执行语音识别。
语音识别服务器300对所接收的分组通过使用语音识别算法来执行语音识别。语音识别算法将分组划分为具有预定长度的分段,并且分析每个分段以提取包括频谱和语音功率的参数。语音识别算法可以将分组划分为音素,并基于所划分的音素的参数来识别音素。
语音识别服务器300的存储装置(未示出)可以存储(更新)对应于特定音素的音素数据库。语音识别服务器300的处理器(未示出)可以通过使用所识别的音素和预存的数据库来生成语音数据。
语音识别服务器300的处理器(未示出)可以生成单词或句子形式的语音识别数据。前述语音识别算法可以包括例如隐马尔可夫模型和/或任何其他合适的语音识别算法。
语音识别服务器300的处理器可以将所接收的分组的波形识别为语音,并生成语音数据。
语音识别服务器300的处理器可以将所生成的语音数据存储在存储装置(未示出)中。语音识别服务器300的处理器可以在发送控制信息之前经由通信器(未示出)将语音数据发送到显示装置200。
语音识别服务器300的处理器可以通过使用语音数据进行到控制信息(例如,控制命令)的转换。控制信息可以控制显示装置200的操作(或功能)。
语音识别服务器300可以包括控制信息数据库。语音识别服务器300的处理器可以通过使用存储在处理器中的控制信息数据库来确定对应于经转换的语音数据的控制信息。
语音识别服务器300可以将经转换的语音数据转换为控制信息(例如,由显示装置200的处理器211解析),以便通过使用控制信息数据库来控制显示装置200。
例如,基于用户语音(例如,对应于“音量增大”的模拟波形)被接收,显示装置200可以将对应于语音的电信号(例如,数字信号、模拟信号或分组)发送到语音识别服务器300。语音识别服务器300可以经由语音识别将所接收的电信号(或分组)转换为语音数据(例如,“音量增大”)。语音识别服务器300可以通过使用语音数据来转换(或生成)控制信息。
基于显示装置200接收控制信息,显示装置200的处理器211可以通过使用对应于语音数据的控制信息来增大音量。
语音识别服务器300的处理器可以经由通信器将控制信息发送到显示装置200。
参考图4E,当在语音识别服务器300中执行语音识别时,语音UI 205被显示在显示装置200的屏幕上。语音UI 205可以包括与语音识别服务器300的语音识别相对应的文本205a和视频205c。与语音识别相对应的视频205c可以是图像或符号。
在图3的步骤S370中,在语音UI上显示语音识别结果。
参考图4F,显示装置200的处理器210可以经由通信器230从语音识别服务器300接收语音数据。此外,显示装置200的处理器211可以经由通信器230从语音识别服务器300接收控制信息。
显示装置200的处理器211可以基于接收到语音数据来显示语音UI 206。显示装置200的处理器211可以在语音UI 206上显示所接收的语音数据206s。语音UI 206可以包括与接收到语音数据相对应的文本206s、图像206b和符号206d。语音UI 206的区域可以不同于先前显示的语音UI 201至205中的一个的区域。
处理器211可以在语音UI 206上显示所接收的语音数据206s。语音UI206可以包括与接收到语音数据相对应的文本206s、图像206b和符号206d。语音UI 206的区域可以不同于先前显示的语音UI 201至205中的一个的区域。
显示装置200的处理器211可以基于接收到控制信息在屏幕的一侧上显示时间指南271。显示在显示装置200的屏幕的一侧上的时间信息包括当前显示装置200的音量值(例如,“15”、271a)以及分别对应于音量的增大/减小的音量键271b和271c。
在视觉指南271中,可以根据音量的增大或减小来区别地显示音量键271b、271c。例如,在音量增大的情况下,如图4F所示的视觉指南271可以被显示。
语音UI 206和视觉指南271可以按优先级顺序被显示。例如,在显示语音UI 206之后,处理器211可以显示视觉指南271。此外,处理器211可以一起显示语音UI 206和视觉指南271。
参考图4H,根据另一示例性实施例(例如,语音数据是“上一频道”)的语音UI被显示。
当语音数据对应于频道增大时的图3的步骤S310至S360基本上类似于当语音数据的音量增大(例如,语音数据差异)时的图3的步骤S310至S360,因此将省略重复描述。
参考图4H,显示装置200的处理器211可以经由通信器230从语音识别服务器300接收语音数据(例如,“上一频道”)。此外,显示装置200的处理器211可以经由通信器230从语音识别服务器300接收对应于“上一频道”的控制信息。
显示装置200的处理器211可以基于接收到语音数据来显示语音UI 206’。显示装置200的处理器211可以在语音UI 206’上显示所接收的语音数据206s’。语音UI 206’可以包括对应于接收到语音数据的文本(例如,“上一频道”,206s’)、图像206b’和符号206d’。
对应于语音数据(例如,“上一频道”)的语音UI 206’与语音数据(例如,“音量增大”)基本相同,因此将省略重复描述。
显示装置200的处理器211可以基于接收到控制信息在屏幕的一侧上显示视觉指南(未示出)。显示在显示装置200的屏幕的一侧上的视觉信息可以包括当前显示装置200的当前频道号(例如,“120”,未示出)和对应于增大/减小的频道键(未示出)中的至少一个。
在图3的步骤S380中,显示装置基于语音识别结果进行改变。
参考图4G,显示装置(或显示装置200的设置)基于语音识别结果而改变。显示装置200的处理器211可以基于语音识别结果来改变设置的当前音量(例如,将扬声器276的输出从“15”改变为“16”)。响应于语音识别结果而改变的显示装置200的项可以是可以经由遥控装置100进行改变的显示装置200的项。
基于语音识别结果,处理器211可以显示与设置的当前音量的改变(例如,“15”到“16”)相对应的视觉指南271a1。在控制扬声器276的输出从“15”改变为“16”之后,处理器211可以控制显示视觉指南271a。
参考图4I,与根据另一实施例的语音识别结果相对应,显示装置(或显示装置200的设置)被改变。基于语音识别结果,显示装置200的处理器211可以改变显示在屏幕上的当前频道号(例如,频道号从120改变为121)。
上述音量改变是示例性实施例,并且不限于此。例如,本实施例可以被应用于可经由语音识别执行的显示装置200的通电/断电操作,本领域普通技术人员可以容易地理解频道改变、智能集线器执行、游戏执行、应用执行、网络浏览器执行和/或内容执行中的任何一个。
图5是示出根据示例性实施例的对应于语音数据的推荐的语音数据列表的示例的示意图。
在图3的步骤S390中,基于语音识别结果在语音UI上显示推荐指南。
参考图4G,显示装置200的处理器210可以基于语音识别结果在屏幕上显示推荐指南207s。显示装置200的处理器211可以基于语音识别结果在语音UI 207中显示推荐指南207s。
推荐指南207s可以包括与用户发出的语音(例如,音量增大等)相对应的推荐的语音数据207s1。如果用户基于推荐指南(例如,“要将音量直接设置为您想要的,请说‘将音量设置为十六’”,207s)的显示来选择推荐的语音数据(例如,“将音量设置为十六”207s1),则显示装置200的操作或功能可以基于语音识别而改变。
当用户发出被包括在推荐指南207s中的推荐的语音数据207s1的一部分时,显示装置200的操作或功能可以基于语音识别而改变。在该实施例中,推荐指南207s可以具有与推荐的语音数据207s1相同的含义。
显示装置200的操作(例如,音量、频道、搜索等)可以通过推荐指南207s和语音数据(例如,“音量增大”)进行改变。显示装置200的音量可以通过推荐指南(例如,“将音量设置为十六”,207s)和语音数据(例如,“音量增大”)进行改变。显示装置200的处理器211可以基于所识别的语音数据或推荐的指南来改变当前音量。
参考图5,语音数据和推荐的语音数据的列表400的示例被显示。在显示装置200的设置期间,对应于音量改变(即,音量401)的语音数据和推荐的语音数据列表400的一部分被显示在菜单400a中。上述语音数据和推荐的语音数据列表可以被存储在存储装置280中,或者可以被存储在语音识别服务器300的存储装置(未示出)中。
为了改变显示装置200的音量,用户在菜单深度区400b中输入菜单深度1(深度1,410)语音数据、深度2 411(即,语音数据411a、411b、411c、411d、411e、411f)或深度3 412(即,语音数据412a、412b)。上述深度1语音数据至深度3语音数据例示了一个实施例,并且深度4语音数据(未示出)、深度5语音数据(未示出)或深度6语音数据(或更多)可以被包括。
上述语音数据和推荐的语音数据的列表400适用于用于控制显示装置200的菜单。
显示装置200的处理器211可以输出用户1的语音数据(例如,语音数据410a的音量)。例如,当用户发出深度1语音数据(例如,音量增大,410a)以用于显示装置200的音量改变时,显示装置200的处理器211可以存储和更新语音数据发声历史(例如,深度1语音数据发声历史、深度2语音数据发声历史或深度3语音数据发声历史)。处理器211可以将与用户的语音数据发声历史相对应的关于语音数据发声历史的信息(或“历史信息”)存储在存储装置280中。对应于用户的语音数据发声历史信息可以被分别存储。此外,处理器211可以将历史信息发送到语音识别服务器300。语音识别服务器300可以将所接收的历史信息存储到语音识别服务器300的存储装置。
处理器211可以通过使用用户的语音数据发声历史来确定用户的频繁使用的语音数据(例如,发声的次数大于10,可变)。例如,当用户频繁使用深度1语音数据410a来改变显示装置200的音量时,显示装置200的处理器211可以显示深度2语音数据411a至411f以及深度3语音数据412a和412b中的一个作为推荐语音数据207d。
当用户频繁使用深度1语音数据410a和深度2语音数据411b来改变显示装置200的音量时,显示装置200的处理器211可以在语音UI 207上显示深度2语音数据411a、411c至411f和深度3语音数据412a、412b中的一个作为推荐的语音数据207d。
处理器211可以通过使用相应的语音数据发声历史信息向不同的用户提供不同的推荐指南。
处理器211可以结合用户认证将用户特定语音数据发声历史信息存储在存储装置280中。例如,存储装置280可以在处理器211的控制下存储第一用户特定语音数据发声历史信息、第二用户特定语音数据发声历史信息或第三用户特定语音数据发声历史信息。
处理器211可以基于认证的用户来提供(或显示)对应于用户语音数据发声历史信息的另一推荐指南。例如,当接收相同的语音识别结果时,处理器211可以通过使用相应的用户特定语音数据发声历史信息为每个用户提供不同的推荐指南。
语音UI 207可以包括与推荐指南的提供相对应的文本207s1。此外,语音UI 207还可以包括与推荐指南的提供相对应的图像207b和/或符号207。语音UI 207的区域可以不同于先前显示的语音UI 201至206中的一个的区域。
用户可以检查被显示的推荐的语音数据207d。此外,用户可以基于所显示的推荐的语音数据207d来发声。
参考图4I,根据另一示例性实施例(例如,语音数据是“上一频道”)的显示装置的改变和推荐指南被显示。
参考图4I,显示装置200的处理器211可以基于语音识别结果在屏幕上显示推荐指南207s’。显示装置200的处理器211可以基于语音识别结果在语音UI 207’上显示推荐指南207s’。
推荐指南207s’可以包括与用户发出的语音(例如,上一频道等)相对应的推荐的语音数据207s1’。如果用户发出来自推荐指南(例如,“要将频道直接改变为您想要的,请说‘将频道改变为频道121’,207s’)的推荐的语音数据(例如,“将频道改变为频道121”,207s1’),则显示装置200的操作或功能可以基于语音识别而改变。
当用户发出推荐指南207s’中的推荐的语音数据207s1’的一部分时,显示装置200的操作或功能可以基于语音识别而改变。在示例性实施例中,推荐指南207s’可以具有与推荐的语音数据207s1’相同的含义。
与本公开的另一示例性实施例(例如,频道改变402和“上一频道”,420a,参考图5)相对应的语音数据和推荐的语音数据的列表与示例性实施例(例如,“音量增大”)的语音数据和推荐的语音数据的列表基本相同,因此将省略重复描述。
图6A、图6B、图6C、图6D、图6E和图6F是示出关于根据另一示例实施例的用于控制显示装置的屏幕的方法的示例的示图。
参考图6A,根据另一示例实施例(例如,语音数据306s是“音量”)的语音UI 307被显示。通过执行图3的操作S310、S320、S330和S340,用户可以通过使用遥控装置100来输入用户语音(例如,音量)。
通过执行图3的操作S350、S360、S370、S380和S390,显示装置200的处理器211可以基于从语音识别服务器300接收的语音数据来显示语音UI307(例如,“在语音UI上显示语音数据(“音量”,306s))。此外,显示装置200的处理器211可以经由通信器230从语音识别服务器300接收对应于“音量”的控制信息。
根据语音识别结果,在显示装置200(或显示装置的设置)的改变之前(例如,不执行操作S380),显示装置200的处理器211可以基于语音识别结果在屏幕上显示推荐指南307s。显示装置200的处理器211可以基于语音识别结果在语音UI 307上显示推荐指南307s。
推荐指南307s可以包括与可以由用户发出的语音(例如,音量等)相对应的、显示装置200的当前设置值307s2和推荐的语音数据307s1。推荐指南307s可以例如包括“当前音量为10。要改变音量,您可以说:‘音量15(十五)’”。推荐的语音数据(音量15(十五),307s1)可以由显示装置200的处理器211随机显示。
在用户发出推荐指南(例如,“当前音量为10。要改变音量,您可以说:‘音量15(十五)’”)中的推荐的语音数据(例如,“音量15(音量15)”,307s)的情况下,显示装置200的操作或功能可以通过执行操作S340、S350和S360通过语音识别而改变。
在图6A中,显示装置200的处理器211可以基于语音识别结果来显示其中语音数据(例如,“音量”,306s)不显示在语音UI 307上的推荐指南(未示出)。此外,显示装置200的处理器211还可以基于语音识别结果来显示其中语音数据306s和显示装置200的当前设置值307s2都不显示在语音UI 307上的推荐指南(未示出)。
基于语音识别结果,处理器211可以显示与当前音量的改变(例如,“15”→“16”)相对应的视觉指南(未示出)。
参考图6B,根据另一示例实施例(例如,语音数据306s是“音量”)的语音UI 307被显示。图6B在某些项上可能不同于图6A。例如,与可以由用户发出的语音(例如,“音量”等)相对应的、显示装置100的当前设置值307s2可以不显示在语音UI 307上。
显示装置200的处理器211可以基于语音识别结果在语音UI 307上显示推荐指南307s。推荐指南307s可以仅包括与可以由用户发出的语音(例如,“音量”等)相对应的推荐的语音数据307s1。
在用户发出推荐指南(例如“,要改变音量,您可以说‘:音量15(十五)’”)中的推荐的语音数据(例如,“音量15”,307s1)的情况下,显示装置200的操作或功能可以通过执行图3的操作S340、S350和S360通过语音识别而改变。
参考图6C,根据另一示例实施例(例如,语音数据316s是“上一频道”)的语音UI317被显示。
通过执行图3的操作S310、S320、S330和S340,用户可以通过使用遥控装置100来输入用户语音(例如,上一频道)。
通过执行图3的操作S350、S360、S370、S380和S390,显示装置200的处理器211可以基于从语音识别服务器300接收的语音数据来显示语音UI317(例如,在语音UI 317上显示语音数据(“上一频道”,316s))。此外,显示装置200的处理器211可以经由通信器230从语音识别服务器300接收对应于“上一频道”的控制信息。
显示装置200的处理器211可以在语音UI 317上显示所接收的语音数据316s。语音UI 317可以包括对应于接收到语音数据的文本(例如,“上一频道”,316s)。
显示装置200的处理器211可以基于语音数据和控制信息被接收来改变(例如,上一频道)显示装置200的操作或功能。根据语音识别结果,在显示装置200(或显示装置的设置)被改变(例如,上一频道(或改变))的情况下,显示装置200的处理器211可以基于语音识别结果在语音UI 317上显示推荐指南317s。
推荐指南317s可以包括与可以由用户发出的语音(例如,“上一频道”等)相对应的推荐的语音数据(317s1和317s2中的至少一个)。例如,推荐指南317s可以例如包括“通过说以下内容来容易地改变频道:‘ABCDE’、‘频道55’”。推荐的语音数据(“ABCDE”317s1和“频道55”317s2)可以由显示装置200的处理器211随机显示。
在用户发出推荐指南(例如,“通过说以下内容来容易地改变频道:‘ABCDE’、‘频道55’,317s)中的推荐的语音数据(例如,“ABCDE”317s1和“频道55”317s2)中的一个的情况下,显示装置200的操作或功能可以通过执行图3的操作S340、S350和S360通过语音识别而改变。
在图6C中,显示装置200的处理器211可以基于语音识别结果来显示其中语音数据316s(例如,“上一频道”)被包括在语音UI 317中的推荐指南(未示出)。此外,显示装置200的处理器211可以基于语音识别结果不显示语音数据316s,而显示其中当前设置值(例如,当前频道为10,未示出)被显示在语音UI 317上的推荐指南(未示出)。
显示装置200的处理器211可以基于接收到控制信息在屏幕的一侧上显示视觉指南(例如,包括改变的频道号、频道名称等的频道信息)。此外,显示在屏幕的一侧上的频道信息可以包括来自当前显示装置200的当前频道号(例如,“11”,未示出)和对应于频道号的增大或减小的频道键(未示出)当中的至少一个。
参考图6A、图6B和图6C,与屏幕(或功能)的改变相对应的语音数据是与显示装置200的频道改变或音量改变相对应的示例实施例,并且也可以在其中改变显示装置的屏幕(或频道等)的替代示例实施例(例如,智能集线器的执行、游戏的执行、应用的执行、输入源的改变等)中被实施。
参考图6D,根据另一示例实施例(例如,对应于设置的语音数据326s是“对比度”)的语音UI 327被显示。通过执行图3的操作S310、S320、S330和S340,用户可以通过使用遥控装置100来输入用户语音(例如,对比度)。
通过执行图3的操作S350、S360、S370、S380和S390,显示装置200的处理器211可以基于从语音识别服务器300接收的语音数据来显示语音UI327(例如,在语音UI 327中显示语音数据326s(“对比度”))。此外,显示装置200的处理器211可以经由通信器230从语音识别服务器300接收对应于“对比度”的控制信息。
根据语音识别结果,在显示装置200(或显示装置的设置)的改变之前(例如,不执行操作S380),显示装置200的处理器211可以基于语音识别结果在屏幕上显示推荐指南327s。显示装置200的处理器211可以基于语音识别结果在语音UI 327上显示推荐指南327s。
推荐指南327s可以包括与可以由用户发出的语音(例如,对比度等)相对应的、显示装置200的当前设置值327s2和推荐的语音数据327s1。推荐指南327s可以例如包括“对比度当前为88。要改变设置,您可以说:‘将对比度设置为85’(0-100)”。推荐的语音数据(“将对比度设置为85”,327s1)可以由显示装置200的处理器211随机显示。
在用户发出推荐指南(例如,“对比度当前为88。要改变设置,您可以说:‘将对比度设置为85’(0-100)’,327s)中的推荐的语音数据(例如,“将对比度设置为85”,327s1)的情况下,显示装置200的操作或功能可以通过执行图3的操作S340、S350和S360通过语音识别而改变。
在图6D中,显示装置200的处理器211可以基于语音识别结果来显示其中语音数据326s(例如,“对比度”)被包括在语音UI 327中的推荐指南(未示出)。此外,显示装置200的处理器211还可以基于语音识别结果来显示其中语音数据326s和显示装置200的当前设置值327s2都不显示在语音UI 327上的推荐指南(未示出)。
参考图6D,与语音识别相对应的语音数据是与显示装置200的设置相对应的示例实施例,并且可以包括被包括在显示装置200的设置中的任何项(例如,图片、声音、网络等)。此外,语音数据可以被实施为单独项。
参考图6E,根据另一示例实施例(例如,对应于切换(toggle)的语音数据336是“足球模式”)的语音UI 337被显示。通过执行图3的操作S310、S320、S330和S340,用户可以通过使用遥控装置100来输入用户语音(例如,对比度)。
通过执行图3的操作S350、S360、S370、S380和S390,显示装置200的处理器211可以基于从语音识别服务器300接收的语音数据来显示语音UI337(例如,在语音UI 337中显示语音数据336s(“足球模式”))。此外,显示装置200的处理器211可以经由通信器230从语音识别服务器300接收对应于“足球模式”的控制信息。
根据语音识别结果,在显示装置200(或显示装置的设置)被改变之后(例如,在执行操作S380之后),显示装置200的处理器211可以基于语音识别结果在屏幕上显示推荐指南337s。显示装置200的处理器211可以基于语音识别结果在语音UI 337上显示推荐指南337s。
推荐指南337s可以包括与可以由用户发出的语音(例如,对比度等)相对应的、显示装置200的当前设置值337s2和推荐的语音数据337s1。推荐指南337s可以例如包括“足球模式被打开。您可以通过说以下内容来关闭它:‘关闭足球模式’”。推荐的语音数据(“关闭足球模式”,337s1)可以由显示装置200的处理器211选择性地(即,通过切换)显示。
在用户发出推荐指南(例如,“足球模式被打开。您可以通过说以下内容来关闭它:‘关闭足球模式’”,337s1)中的推荐的语音数据(例如,“关闭足球模式”,337s1)的情况下,显示装置200的操作或功能可以通过执行图3的操作S340、S350和S360通过语音识别而改变。
在图6E中,显示装置200的处理器211可以基于语音识别结果来显示其中语音数据336s(例如,“足球模式”)被包括在语音UI 337中的推荐指南(未示出)。此外,显示装置200的处理器211还可以基于语音识别结果来显示其中语音数据336s和显示装置200的当前设置值337s2都不显示在语音UI 337上的推荐指南(未示出)。
参考图6E,与语音识别相对应的语音数据是与显示装置的模式改变(或切换)相对应的示例实施例,并且可以包括被包括在显示装置200的模式改变中的任何项(例如,电影模式、体育模式等)。此外,语音数据可以被实施为单独项。
参考图6F,根据另一示例实施例(例如,语音数据346是“睡眠定时器”)的语音UI347被显示。通过执行图3的操作S310、S320、S330和S340,用户可以通过使用遥控装置100来输入用户语音(例如,睡眠定时器)。
通过执行图3的操作S350、S360、S370、S380和S390,显示装置200的处理器211可以基于从语音识别服务器300接收的语音数据来显示语音UI347(例如,在语音UI 347中显示语音数据346s(“睡眠定时器”))。此外,显示装置200的处理器211可以经由通信器230从语音识别服务器300接收对应于“睡眠定时器”的控制信息。
根据语音识别结果,在不改变显示装置200(或显示装置的设置)(例如,执行操作S380)的情况下,显示装置200的处理器211可以基于语音识别结果在屏幕上显示推荐指南347s。显示装置200的处理器211可以基于语音识别结果在语音UI 347上显示推荐指南347s。
推荐指南347s可以包括与可以由用户发出的语音(例如,睡眠定时器等)相对应的推荐的语音数据347s1。推荐指南347s可以例如包括“睡眠定时器已经被设置为[剩余时间]分钟。要改变睡眠定时器,您可以说:‘将睡眠定时器设置为[N]分钟’”。推荐的语音数据(“将睡眠定时器设置为[N]分钟”,347s1)可以由显示装置200的处理器211显示。
在用户发出推荐指南(例如,“睡眠定时器已经被设置为[剩余时间]分钟。要改变睡眠定时器,您可以说:‘将睡眠定时器设置为[N]分钟’,347s)中的推荐的语音数据(例如,“将睡眠定时器设置为[N]分钟”,347s1)的情况下,显示装置200的操作或功能可以通过执行图3的操作S340、S350和S360通过语音识别而改变。
在图6F中,显示装置200的处理器211可以基于语音识别结果来显示其中语音数据346s(例如,“睡眠定时器”)被包括在语音UI 347中的推荐指南(未示出)。
在图3的操作S390,在基于语音识别结果在语音UI上显示推荐指南的情况下,显示装置的内容显示方法结束。
根据本公开的示例性实施例的方法可以被实施为程序指令类型,其中该程序指令类型可以通过使用各种计算机组件中的任何一种而执行,并且可以被记录在非暂时性计算机可读介质中。计算机可读介质可以单独包括程序命令、数据文件、数据结构等或者包括其组合。例如,计算机可读介质可以被存储在易失性或非易失性存储设备(诸如ROM、诸如RAM的存储器、存储芯片、以及设备或集成电路)或者可以用机器(例如,中央处理单元(CPU))进行读取同时被光学地或磁性地记录的存储介质(诸如例如,光盘(CD)、数字多功能盘(DVD)、磁盘、磁带等)中,而不管它被删除还是被再次记录。可以被包括在显示装置中的存储器可以是存储介质的一个示例,其中该存储介质可以用包括实施本公开的示例性实施例的指令的程序或适于存储程序的机器进行读取。记录在计算机可读介质中的程序命令可以被设计用于示例性实施例,或者对于计算机软件领域的普通技术人员来说是已知的。
尽管为了说明的目的已经公开了几个示例性实施例,但是本领域普通技术人员将理解,在不脱离如所附权利要求所公开的范围和精神的情况下,各种修改、添加和替换是可能的。
因此,本公开的范围不被解释为限于所公开的实施例,而是由所附权利要求及其等同物限定。
Claims (12)
1.一种显示装置,包括:
显示器;
通信接口;以及
处理器,被配置为控制所述显示器和所述通信接口,
其中,所述处理器还被配置为:
基于从遥控器接收到对应于用户语音的信号,控制所述通信接口将所述信号发送到语音识别服务器,以及
基于通过所述通信接口从所述语音识别服务器接收到与所述用户语音相关的语音识别结果,执行对应于所述语音识别结果的操作,以及
控制所述显示器显示推荐指南,所述推荐指南提供用于执行与操作相关的语音控制方法的指导。
2.根据权利要求1所述的显示装置,还包括存储装置,
其中,所述处理器还被配置为基于存储在所述存储装置中的历史信息来确定所述推荐指南,所述历史信息对应于至少一个用户的语音发声历史。
3.根据权利要求2所述的显示装置,其中,所述处理器还被配置为基于从所述语音识别服务器接收到相同的语音识别结果,基于所述历史信息根据认证用户来控制所述显示器显示另一推荐指南。
4.根据权利要求2所述的显示装置,其中,所述处理器还被配置为基于接收到对应于所述用户语音的信号来控制所述显示器显示第一语音用户界面,基于将所接收的信号发送到所述语音识别服务器来控制所述显示器显示第二语音用户界面,以及基于接收到所述语音识别结果来控制所述显示器显示第三语音用户界面。
5.根据权利要求1所述的显示装置,还包括麦克风,
其中,所述处理器还被配置为控制所述通信接口将对应于经由所述麦克风接收的用户语音的信号发送到所述语音识别服务器。
6.根据权利要求1所述的显示装置,其中,所述处理器还被配置为控制所述显示器相对于显示在所述显示器上的内容区别地显示语音用户界面。
7.根据权利要求1所述的显示装置,其中,所述处理器还被配置为基于接收到对应于所述用户语音的信号来控制所述显示器显示第一语音用户界面,基于将所接收的信号发送到所述语音识别服务器来控制所述显示器显示第二语音用户界面,以及基于接收到所述语音识别结果来控制所述显示器显示第三语音用户界面。
8.一种用于显示显示装置的屏幕的方法,所述方法包括:
显示对应于从遥控器接收的对语音按钮的选择的第一语音用户界面;
从所述遥控器接收对应于用户语音的信号;
将对应于所接收的信号的分组发送到语音识别服务器;
显示对应于从所述语音识别服务器接收的语音识别结果的第二语音用户界面;
执行对应于所述语音识别结果的操作;以及
显示推荐指南,所述推荐指南提供用于执行与操作相关的语音控制方法的指导。
9.根据权利要求8所述的方法,其中,所述推荐指南被显示在所述显示装置的屏幕的一侧上。
10.根据权利要求8所述的方法,还包括:
基于与用户的预存的语音发声历史相对应的历史信息来确定所述推荐指南。
11.根据权利要求8所述的方法,其中,所述推荐指南是基于认证用户而变化地提供的。
12.根据权利要求8所述的方法,其中,所述第一语音用户界面、所述第二语音用户界面和所述推荐指南相对于显示在所述显示装置上的内容以重叠方式被显示。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2018-0010763 | 2018-01-29 | ||
KR1020180010763A KR102540001B1 (ko) | 2018-01-29 | 2018-01-29 | 디스플레이 장치 및 디스플레이 장치의 화면 표시방법 |
PCT/KR2018/004960 WO2019146844A1 (en) | 2018-01-29 | 2018-04-27 | Display apparatus and method for displaying screen of display apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111656793A true CN111656793A (zh) | 2020-09-11 |
Family
ID=67393602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880087969.3A Pending CN111656793A (zh) | 2018-01-29 | 2018-04-27 | 显示装置和用于显示显示装置的屏幕的方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190237085A1 (zh) |
EP (1) | EP3704862A4 (zh) |
KR (1) | KR102540001B1 (zh) |
CN (1) | CN111656793A (zh) |
WO (1) | WO2019146844A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112511882A (zh) * | 2020-11-13 | 2021-03-16 | 海信视像科技股份有限公司 | 一种显示设备及语音唤起方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110570837B (zh) * | 2019-08-28 | 2022-03-11 | 卓尔智联(武汉)研究院有限公司 | 一种语音交互方法、装置及存储介质 |
JP2021071797A (ja) * | 2019-10-29 | 2021-05-06 | 富士通クライアントコンピューティング株式会社 | 表示装置および情報処理装置 |
JP7404974B2 (ja) * | 2020-03-31 | 2023-12-26 | ブラザー工業株式会社 | 情報処理装置及びプログラム |
CN111601168B (zh) * | 2020-05-21 | 2021-07-16 | 广州欢网科技有限责任公司 | 一种电视节目市场表现分析方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101516005A (zh) * | 2008-02-23 | 2009-08-26 | 华为技术有限公司 | 一种语音识别频道选择系统、方法及频道转换装置 |
CN103037250A (zh) * | 2011-09-29 | 2013-04-10 | 幸琳 | 交互式地使用遥控器控制电视机获取多媒体信息服务的方法及系统 |
CN103208283A (zh) * | 2012-01-11 | 2013-07-17 | 三星电子株式会社 | 使用语音识别执行用户功能的方法及装置 |
CN103916708A (zh) * | 2013-01-07 | 2014-07-09 | 三星电子株式会社 | 显示装置和用于控制显示装置的方法 |
US20140350925A1 (en) * | 2013-05-21 | 2014-11-27 | Samsung Electronics Co., Ltd. | Voice recognition apparatus, voice recognition server and voice recognition guide method |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3842497B2 (ja) * | 1999-10-22 | 2006-11-08 | アルパイン株式会社 | 音声処理装置 |
TWI278762B (en) * | 2005-08-22 | 2007-04-11 | Delta Electronics Inc | Method and apparatus for speech input |
US11012732B2 (en) * | 2009-06-25 | 2021-05-18 | DISH Technologies L.L.C. | Voice enabled media presentation systems and methods |
US9363464B2 (en) * | 2010-06-21 | 2016-06-07 | Echostar Technologies L.L.C. | Systems and methods for history-based decision making in a television receiver |
WO2013012107A1 (ko) * | 2011-07-19 | 2013-01-24 | 엘지전자 주식회사 | 전자 기기 및 그 제어 방법 |
US8949903B2 (en) * | 2011-08-18 | 2015-02-03 | Verizon Patent And Licensing Inc. | Feature recommendation for television viewing |
US8793136B2 (en) * | 2012-02-17 | 2014-07-29 | Lg Electronics Inc. | Method and apparatus for smart voice recognition |
KR20140089863A (ko) * | 2013-01-07 | 2014-07-16 | 삼성전자주식회사 | 디스플레이 장치, 및 이의 제어 방법, 그리고 음성 인식 시스템의 디스플레이 장치 제어 방법 |
KR101732137B1 (ko) | 2013-01-07 | 2017-05-02 | 삼성전자주식회사 | 원격 제어 장치 및 전력 제어 방법 |
KR102019719B1 (ko) * | 2013-01-17 | 2019-09-09 | 삼성전자 주식회사 | 영상처리장치 및 그 제어방법, 영상처리 시스템 |
US9338493B2 (en) * | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10348658B2 (en) * | 2017-06-15 | 2019-07-09 | Google Llc | Suggested items for use with embedded applications in chat conversations |
-
2018
- 2018-01-29 KR KR1020180010763A patent/KR102540001B1/ko active IP Right Grant
- 2018-04-27 EP EP18902137.1A patent/EP3704862A4/en not_active Ceased
- 2018-04-27 CN CN201880087969.3A patent/CN111656793A/zh active Pending
- 2018-04-27 WO PCT/KR2018/004960 patent/WO2019146844A1/en unknown
- 2018-06-28 US US16/022,058 patent/US20190237085A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101516005A (zh) * | 2008-02-23 | 2009-08-26 | 华为技术有限公司 | 一种语音识别频道选择系统、方法及频道转换装置 |
CN103037250A (zh) * | 2011-09-29 | 2013-04-10 | 幸琳 | 交互式地使用遥控器控制电视机获取多媒体信息服务的方法及系统 |
CN103208283A (zh) * | 2012-01-11 | 2013-07-17 | 三星电子株式会社 | 使用语音识别执行用户功能的方法及装置 |
CN103916708A (zh) * | 2013-01-07 | 2014-07-09 | 三星电子株式会社 | 显示装置和用于控制显示装置的方法 |
US20140350925A1 (en) * | 2013-05-21 | 2014-11-27 | Samsung Electronics Co., Ltd. | Voice recognition apparatus, voice recognition server and voice recognition guide method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112511882A (zh) * | 2020-11-13 | 2021-03-16 | 海信视像科技股份有限公司 | 一种显示设备及语音唤起方法 |
Also Published As
Publication number | Publication date |
---|---|
KR102540001B1 (ko) | 2023-06-05 |
EP3704862A1 (en) | 2020-09-09 |
KR20190091782A (ko) | 2019-08-07 |
US20190237085A1 (en) | 2019-08-01 |
WO2019146844A1 (en) | 2019-08-01 |
EP3704862A4 (en) | 2020-12-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102392087B1 (ko) | 원격 조정 장치 및 원격 조정 장치의 사용자 음성 수신방법 | |
KR102349861B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 디스플레이 제어방법 | |
US11330320B2 (en) | Display device and method for controlling display device | |
CN111656793A (zh) | 显示装置和用于显示显示装置的屏幕的方法 | |
US20170180918A1 (en) | Display apparatus and method for controlling display apparatus | |
US10678563B2 (en) | Display apparatus and method for controlling display apparatus | |
KR102462671B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 화면 표시 제어 방법 | |
KR102328703B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 화면 제어방법 | |
KR102614697B1 (ko) | 디스플레이 장치 및 디스플레이 장치의 채널 정보 획득 방법 | |
US10110843B2 (en) | Image display device and operating method of the same | |
CN108141631B (zh) | 显示装置和用于控制显示装置的方法 | |
CN108353205B (zh) | 电子设备和用于控制电子设备的方法 | |
CN107801074B (zh) | 显示系统及其控制方法 | |
CN111316226B (zh) | 电子装置及其控制方法 | |
KR20180043627A (ko) | 디스플레이 장치 및 디스플레이 장치를 제어하는 방법 | |
KR20200092464A (ko) | 전자 장치 및 이를 이용하는 어시스턴트 서비스를 제공하는 방법 | |
KR20170101077A (ko) | 서버, 영상 표시 장치 및 그 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |