CN114360543A - 交互服务器及其控制方法和交互系统 - Google Patents

交互服务器及其控制方法和交互系统 Download PDF

Info

Publication number
CN114360543A
CN114360543A CN202210035613.3A CN202210035613A CN114360543A CN 114360543 A CN114360543 A CN 114360543A CN 202210035613 A CN202210035613 A CN 202210035613A CN 114360543 A CN114360543 A CN 114360543A
Authority
CN
China
Prior art keywords
pronunciation
information
received
response information
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210035613.3A
Other languages
English (en)
Other versions
CN114360543B (zh
Inventor
郑知惠
李清宰
李蕙汀
申容旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN114360543A publication Critical patent/CN114360543A/zh
Application granted granted Critical
Publication of CN114360543B publication Critical patent/CN114360543B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/487Arrangements for providing information services, e.g. recorded voice services or time announcements
    • H04M3/493Interactive information services, e.g. directory enquiries ; Arrangements therefor, e.g. interactive voice response [IVR] systems or voice portals
    • H04M3/4936Speech interaction details
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/35Aspects of automatic or semi-automatic exchanges related to information services provided via a voice call
    • H04M2203/355Interactive dialogue design tools, features or methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

提供一种交互服务器及其控制方法和交互系统。所述交互服务器包括:通信器,与显示设备进行通信来接收第一发音信号;存储装置,存储在接收到第一发音信号之前从显示设备接收的第二发音信号的发音历史信息;提取器,从接收的第一发音信号提取发音元素;控制器,基于存储在存储装置中的发音历史信息和提取的发音元素中的至少一个产生响应信息,并将所述响应信息发送到显示设备。因此,交互服务器针对关于用户的各种发音,理解用户的意图,以根据意图产生响应信息,并将响应信息发送到显示设备。

Description

交互服务器及其控制方法和交互系统
本申请是2017年08月28日向中国知识产权局提交的申请号为“201710749861.3”、发明名称为“交互服务器及其控制方法和交互系统”的发明专利申请的分案申请。
本申请要求于2013年1月7日提交到韩国知识产权局的第10-2013-0001829号韩国专利申请的优先权,其公开通过引用全部合并于此。
技术领域
与示例性实施例一致的设备、方法和系统总体涉及提供一种交互服务器及其控制方法和交互系统,更具体地讲,涉及提供一种提供与用户的各种发音相应的响应信息的交互服务器及其控制方法和交互系统。
背景技术
一般地,在交互式系统中能够识别语言的显示设备收集用户的发音,并将收集的发音发送到通过网络连接的外部服务器。当外部服务器接收到发音时,外部服务器对发音进行解析来理解用户的意图,产生与发音相应的响应信息,并将响应信息发送到显示设备。因此,显示设备执行与用户的发音相应的功能,或基于从外部服务器接收的响应信息,提供与用户的发音相应的信息。
然而,传统的交互系统在解析用户的发音和基于解析结果理解用户的意图方面存在限制。例如,在用户的清楚发音(如,“显示第一内容”)的情况下,外部服务器对发音进行解析,以正确地理解用户的意图,产生与发音相应的响应信息,并将响应信息发送到显示设备。因此,显示设备基于响应信息显示由用户请求的第一内容。
然而,在用户的模糊发音(如,“显示这个”)的情况下,外部服务器无法从模糊发音清楚地理解用户的意图。换句话说,交互系统仅针对预定义的发音理解用户的意图,并执行与预定义的发音相应的操作,或提供与预定义的发音相应的信息,从而限制了用户的发音。
发明内容
示例性实施例至少解决上述问题和/或缺点以及上面未描述的其他缺点。此外,示例性实施例不需要克服上述缺点,并且示例性实施例可以不克服上面描述的任何问题。
示例性实施例提供一种交互服务器、所述交互服务器的控制方法和交互系统,其中,交互服务器在交互系统中执行与用户的各种发音相应的操作。
根据示例性实施例的一方面,提供一种交互服务器,包括:通信器,被构造为与设备进行通信来接收第一发音信号;存储装置,被构造为存储在接收到第一发音信号之前从所述设备接收的第二发音信号的发音历史信息;提取器,被构造为从接收的第一发音信号提取发音元素;控制器,被构造为基于存储在存储装置中的发音历史信息和提取的发音元素之中的至少一个来产生响应信息,并将所述响应信息发送到所述设备。
如果分别与提取的发音元素相应的执行语言和命令被存储在存储装置中,则控制器可将分别与发音元素相应的执行语言和命令进行组合来产生响应信息。如果分别与提取的发音元素相应的执行语言和命令未被存储在存储装置中,则控制器可基于存储在存储装置中的发音历史信息,估计分别与提取的发音元素相应的执行语言和命令,并将估计的执行语言和命令进行组合来产生响应信息。
第一发音信号可包括第一发音元素和第二发音元素。如果分别与提取的发音元素相应的执行语言和命令未被存储在存储装置中,则控制器可获取在基于接收到第二发音信号的时间的预设时间范围内存储的发音历史信息,并将获取的发音历史信息内的与第一发音元素相应的执行语言和与第二发音元素相应的命令估计为与第一发音信号相应的执行语言和命令。
如果存储在存储装置中的发音历史信息不包括在基于接收到第二发音信号的时间的预设时间内存储的发音历史信息,则控制器可以不产生响应信息。
如果第一发音信号不包括第一发音元素和第二发音元素中的至少一个,则控制器可根据在基于接收到第二发音信号的时间的预设时间范围内存储的发音历史信息,产生与第二发音信号相应的响应信息。
交互服务器可还包括:语音处理器,被构造为将接收的第一发音信号转换为文本信息。
根据示例性实施例的另一方面,提供一种控制交互服务器的方法。所述方法可包括:从设备接收第一发音信号;从接收的第一发音信号提取发音元素;基于存储的发音历史信息和提取的发音元素之中的至少一个来产生响应信息;将产生的响应信息发送到所述设备。存储的发音历史信息可以是在接收到第一发音信号之前基于从所述设备接收的第二发音信号产生的信息。
所述方法可还包括:确定分别与提取的发音元素相应的执行语言和命令是否存在。如果分别与发音元素相应的执行语言和命令存在,则分别与发音元素相应的执行语言和命令可被组合来产生响应信息,并且如果分别与发音元素相应的执行语言和命令不存在,则与提取的发音元素相应的执行语言和命令可基于存储的发音历史信息被估计并可被组合来产生响应信息。
第一发音信号可包括第一发音元素和第二发音元素。如果分别与发音元素相应的执行语言和命令不存在,则可获取在基于接收到第二发音的时间的预设时间范围内存储的发音历史信息,并且获取的发音历史信息内的与第一发音元素相应的执行语言和与第二发音元素相应的命令可被估计为与第一发音信号相应的执行语言和命令。
如果发音历史信息不包括在基于接收到第二发音信号的时间的预设时间范围内存储的发音历史信息,则可以不产生响应信息。
如果第一发音信号可不包括第一发音元素和第二发音元素中的至少一个,则可根据在基于接收到第二发音信号的时间的预设时间范围内存储的发音历史信息产生与第一发音信号相应的响应信息。
所述方法可还包括:将接收的第一发音信号转换为文字信息。
根据示例性实施例的另一方面,提供一种交互系统,包括:设备,如果输入了用户的发音,则执行与输入的发音相应的功能;交互服务器,如果从所述设备接收到第一发音信号,则从第一发音信号提取发音元素,基于存储的发音历史信息和提取的发音元素中的至少一个来产生响应信息,将所述响应信息发送到所述设备。所述设备可基于从交互服务器接收的响应信息,执行与用户的意图相应的功能。
如果分别与提取的发音元素相应的执行语言和命令存在,则交互服务器可基于分别与发音元素相应的执行语言和命令,产生响应信息,并且如果分别与提取的发音元素相应的执行语言和命令不存在,则交互服务器基于存储的发音历史信息估计分别与提取的发音元素相应的执行语言和命令,并将估计的执行语言和命令进行组合来产生响应信息。
根据示例性实施例的一方面,上面提及的时间可与第一发音信号和第二发音信号的发音之间的时间差相关。根据另一示例性实施例的一方面,上面提及的设备可以是显示设备。
根据示例性实施例的另一方面,第一发音信号可由第一用户发出,发音历史信息可与第二用户的发音输入相关。
根据本总体发明构思的各种示例性实施例,在交互系统中,交互服务器可针对用户的各种发音理解用户的意图,产生各种发音的响应信息,并将所述响应信息发送到显示设备。
附图说明
通过参照附图对特定示例性实施例进行描述,以上和/或其他方面将更加清楚,其中:
图1是示出根据本总体发明构思的示例性实施例的提供适用于用户的发音的响应信息的交互系统的示图;
图2是示出根据本总体发明构思的另一示例性实施例的提供适用于用户的发音的响应信息的交互系统的示图;
图3是示出根据本总体发明构思的示例性实施例的交互服务器的框图;
图4是示出根据本总体发明构思的示例性实施例的基于显示在显示设备的屏幕上的对象的显示状态产生发音信息的方法的示图;
图5是示出根据本总体发明构思的示例性实施例的显示设备的框图;
图6是示出根据本总体发明构思的示例性实施例的控制交互服务器的方法的流程图;
图7是示出根据本总体发明构思的示例性实施例的通过交互服务器产生响应信息的方法的流程图。
具体实施方式
参照附图更详细地描述示例性实施例。
在下面的描述中,即使在不同的附图中,相同的附图标号也被用于相同的元件。提供在描述中被定义的内容(诸如详细的结构和元件)以帮助对示例性实施例的全面的理解。因此,明显的是,在没有那些明确定义的内容的情况下,示例性实施例能被执行。并且,因为公知的功能或结构会以不必要的细节模糊本示例性实施例,所以不对其进行详细描述。
图1是示出根据本总体发明构思的示例性实施例的提供适用于用户的发音的响应信息的交互系统的示图。
参照图1,根据本示例性实施例的交互系统包括显示设备100和交互服务器200。
显示设备100可被实现为上网的各种类型的电子设备,诸如,智能TV、诸如智能电话的便携式电话、桌上型PC、笔记本PC、导航系统等。如果用户的发音被输入,则显示设备100执行与用户的发音相应的操作。详细地,显示设备100输出与用户的发音相应的响应信息,或执行与用户的发音相应的功能。换句话说,显示设备100对输入的发音进行解析,来确定输入的发音是否可内部执行,并根据确定结果执行与输入的发音相应的功能,或基于从交互服务器200接收的响应信息执行操作。
例如,如果发音“调高音量”被输入,则显示设备100基于与输入的发音相应的预存控制信息条中的一个来调整音量。
作为另一示例,如果发音“今天天气如何?”被输入,则显示设备100将输入的发音的发音信号发送到交互服务器200。这里,所述发音可以是模拟信号。因此,显示设备100将作为模拟信号的发音转换为数字信号(以下称为“发音”)并将所述数字信号发送到交互服务器200。显示设备100基于从交互服务器200接收的响应信息,将今天天气的结果输出为语音或文本格式图像。
作为另一示例,如果发音“显示○○○(内容名称)”被输入,则显示设备100将输入的发音发送到交互服务器200。如果从交互服务器200接收到响应信息,则显示设备100基于接收的响应信息显示“○○○(内容名称)”的搜索列表。这里,搜索列表可包括每个剧集的内容信息。因此,用户检查显示在搜索列表上的剧集的内容信息,以做出用于选择用户想观看的剧集的○○○(内容名称)的发音。例如,用户做出“显示第一个”的发音,以观看与显示在搜索列表上的内容信息中的第一个相应的“○○○(内容名称)”。因此,显示设备100接收发音“显示第一个”,并将发音“显示第一个”发送到交互服务器200。如果从交互服务器200接收到与所述发音相应的响应信息,则显示设备100从内容提供服务器300接收与第一内容信息相应的“○○○(内容名称)”,并基于接收的响应信息显示“○○○(内容名称)”。
交互服务器200基于从显示设备100接收的用户的发音,来提供适用于用户的意图的响应信息。详细地,如果从显示设备100接收到用户的发音,则交互服务器200从接收的发音提取发音元素,并基于提取的发音元素产生并发送与用户的发音相关的响应信息。如上所述,从显示设备100接收的用户的发音可以是数字信号。因此,如果接收到被转换为数字信号的发音,则交互服务器200将发音产生为文本信息,对所述文本信息进行解析来提取发音元素,并基于提取的发音元素来产生与用户的发音相应的响应信息。从被转换为数字信号的发音产生文本信息是公知技术,从而这里将省略对其的详细描述。
发音元素是用于执行用户请求的操作的用户的发音的核心关键字,并被分类为根据域、用户动作和特征而提取的发音元素。如上所述,如果针对用户的发音“今天天气如何?”产生了文本信息,则交互服务器200提取发音元素“今天”、“天气”和“如何”。交互服务器200将发音元素“今天”和“天气”分类为特征(以下称为待执行的对象)的发音元素(以下称为第一发音元素),并将发音元素“如何?”分类为用户动作(以下称为执行命令)的发音元素(以下称为第二发音元素)。交互服务器200基于提取的发音元素将域的发音元素(以下称为第三发音元素)分类为属于网络搜索域。当从用户的发音的文本信息分类出第一发音元素至第三发音元素时,从提供各种类型的内容的外部服务器400将天气信息提供给交互服务器200,并且交互服务器200产生包括天气信息的响应信息,并将响应信息发送到显示设备100。因此,显示设备100基于从交互服务器200接收的响应信息通过语音和文本中的至少一个来显示关于今天天气的信息。
如果发音“选择第一个”的文本信息被产生,则交互服务器200从产生的文本信息提取第一发音元素“第一个”和第二发音元素“选择”。如果第一发音元素和第二发音元素被提取,则交互服务器200基于提取的第一发音元素和第二发音元素来确定是否产生适合用户的意图的响应信息。根据示例性实施例,交互服务器200可根据与提取的第一发音元素和第二发音元素相应的信息是否存在于数据库(DB)中,来确定是否产生适合用户的意图的响应信息。这里,与第一发音元素和第二发音元素相应的信息可以是分别与第一发音元素相应的执行语言和与第二发音元素相应的命令。因此,交互服务器200确定分别与第一发音元素和第二发音元素相应的执行语言和命令是否存在于DB中。如果确定与第一发音元素和第二发音元素相应的信息不存在于DB中,则交互服务器200基于就在发音“选择第一个”被接收之前存储的发音历史信息和提取的第一发音元素和第二发音元素中的一个来产生响应信息,并将所述响应信息发送到显示设备100。例如,可就在接收到发音“选择第一个”之前接收到发音“搜索○○○(内容名称)”,并且关于发音“○○○(内容名称)”的发音历史信息可被存储。因此,交互服务器200基于先前的发音历史信息产生与“○○○(内容名称)”的内容执行相关的响应信息,并将响应信息发送到显示设备100。因此,显示设备100基于从交互服务器200接收的响应信息来显示“○○○(内容名称)”的第一内容。
交互服务器200可包括第一服务器10和第二服务器20,其中,所述第一服务器10将被转换为数字信号的用户的发音产生为文本信息,所述第二服务器20产生与被产生为文本信息的发音相应的响应信息。现在将详细描述通过显示设备100和第一服务器10以及第二服务器20提供适合用户的发音的响应信息的交互系统。
图2是示出根据本总体发明构思的另一示例性实施例的提供适合用户的发音的响应信息的交互系统的示图。
如图2中所示,如果从用户输入了发音,则显示设备100将输入的发音转换为数字信号,并将所述数字信号发送到第一服务器10。如果接收到被转换为数字信号的发音,则第一服务器10根据存储的各种发音的特定模式产生用户的发音的文本信息,并将文本信息发送到显示设备100。
显示设备100从第一服务器10接收用户的发音的文本信息,并将用户的发音的文本信息发送到第二服务器20。第二服务器20接收用户的发音的文本信息,并对接收的文本信息进行解析以提取发音元素,基于提取的发音元素产生用于执行与用户的发音相应的操作的响应信息,并将响应信息发送到显示设备100。
已简要地示意性描述了在包括显示设备100和交互服务器200的交互系统中提供与用户的发音相应的响应信息的操作。现在将详细描述显示设备100的元件和交互服务器200的元件。
图3是示出根据本总体发明构思的示例性实施例的交互服务器200的框图。
参照图3,交互服务器200包括通信器210、语音处理器220、存储装置230、提取器240和控制器250。
通信器210与提供用户的发音的显示设备100进行通信。具体地,通信器210接收发音的数字信号(以下称为发音),其中,所述发音包括指示待执行对象的第一发音元素和指示执行命令的第二发音元素。这里,指示待执行对象的第一发音元素是被分类为用户的发音中的特征的发音元素。另外,指示执行命令的第二发音元素是被分类为用户的发音中的用户动作的发音元素。例如,在发音“搜索动作电影”中,“动作”可以是被分类为特征的第一发音元素,“搜索”可以是分类为用户动作的第二发音元素。
如果如上所述包括第一发音元素和第二发音元素的发音被接收到,则语音处理器220将接收的发音转换为文本信息。根据示例性实施例,语音处理器220可通过使用语音到文本(STT)算法将接收的用户的发音转换为文本。然而,本总体发明构思不限于此,并且因此,通信器210可从显示设备100接收用户的发音的文本信息。在这种情况下,显示设备100从语音识别设备(未示出)(诸如第一服务器10)接收用户的发音的文本信息,并将用户的发音的文本信息发送到交互服务器200。因此,通信器210从显示设备100接收用户的发音的文本信息。如果从显示设备100接收到用户的发音的文本信息,则可省略语音处理器220的配置。
如果用户的发音被转换为文本信息,或者用户的发音的文本信息被从显示设备100接收,则提取器240从被转换为文本信息的发音提取发音元素。如上所述,提取器240可从被转换为文本信息的发音提取指示特征的第一发音元素和指示执行命令的第二发音元素。
如上述示例中,提取器240可从发音“搜索动作电影”提取第一发音元素“动作”和“电影”以及第二发音元素“搜索”。作为另一示例,提取器240可从发音“执行这个”提取第一发音元素“这个”和第二发音元素“执行”。
如果如上所述的发音元素被提取,则控制器250基于存储在存储装置230中的发音历史信息和提取的发音元素产生响应信息,并将产生的响应信息发送到显示设备100。这里,存储装置230是存储操作交互服务器200所需的各种类型的程序的存储介质,并可被实现为存储器、硬盘驱动器(HDD)等。例如,存储装置230可包括存储用于执行控制器250的操作的程序的只读存储器(ROM)、临时存储根据控制器250的操作的执行而产生的数据的随机存取存储器(RAM)等。存储装置230可还包括存储各种类型的参考数据的电可擦除和可编程ROM(EEROM)。具体地,存储装置230存储从显示设备100接收的发音的发音历史信息。这里,发音历史信息指基于在从显示设备100接收到当前发音之前所接收的发音而产生的信息。详细地,存储装置230存储发音历史信息,所述发音历史信息包括从接收自显示设备100的发音所产生的文本信息、关于当接收到相应的发音时的时间信息、基于相应的发音产生的响应信息和关于当产生所述响应信息时的时间信息中的至少一个。
因此,控制器250基于在接收到当前发音之前存储在存储装置230中的先前发音历史信息和从接收的发音所提取的发音元素中的至少一个来产生响应信息,并将响应信息发送到显示设备100。详细地,控制器250确定与由提取器240提取的发音元素相应的信息是否存在于存储装置230中。如果确定与提取的发音元素相应的信息存在于存储装置230中,则控制器250基于与提取的发音元素相应的信息产生响应信息。这里,与提取的发音元素相应的信息可包括与指示待执行的对象的第一发音元素相应的执行语言和与指示执行命令的第二发音元素相应的命令中的至少一个。执行语言和命令可被存储在存储装置230中。换句话说,存储装置230可还包括根据第一发音元素定义的执行语言和根据第二发音元素定义的命令。例如,间接指示待执行对象“这个”的第一发音元素可被定义为执行语言“$这个$”。间接指示待执行对象“下一个”的第一发音元素可被定义为执行语言“$下一个$”。间接指示待执行对象“第三个”的第一发音元素可被定义为执行语言“$第三个$”。直接指示待执行对象如“○○○(内容名称)”的第一发音元素可被定义为执行语言“$○○○(内容名称)$”。基于直接指示待执行对象的第一发音元素和提供与发音相应的响应信息的执行区域,指示执行命令的第二发音元素可被分类为内容搜索、内容推荐、装置功能执行、装置用户界面(UI)控制和网络搜索。可根据分类的类型定义命令。因此,如果发音元素被从用户的发音提取,则控制器250确定与提取的发音元素相应的执行语言和命令是否已被存储在存储装置230中。如果确定与提取的发音元素相应的执行语言和命令已被存储在存储装置230中,则控制器250获取与提取的发音元素相应的执行语言和命令,并将获取的执行语言和命令进行组合以产生响应信息。
例如,提取器240可从发音“搜索○○○(内容名称)”提取第一发音元素“○○○(内容名称)”和第二发音元素“搜索”。如果第一发音元素和第二发音元素被从发音“搜索○○○(内容名称)”提取,则控制器250基于提取的第一发音元素确定执行区域是内容。控制器250还参照存储在存储装置230中的根据第一发音元素定义的执行语言,获取与第一发音元素“○○○(内容名称)”相应的执行语言“$○○○(内容名称)$”。控制器250基于确定为内容的执行区域来确定第二发音元素“搜索”的类型与内容搜索相关。因此,控制器250从存储在存储装置230中的根据第二发音元素定义的命令获取与内容搜索相应的命令“content_search(内容搜索)”。控制器250将分别与第一发音元素和第二发音元素相应的执行语言“$○○○(内容名称)$”和命令“content_search”进行组合,来产生执行命令脚本“content_search($○○○(内容名称)$)”。如果执行命令脚本被产生,则控制器250将包括产生的执行命令脚本的响应信息发送到显示设备100。因此,显示设备100基于包括在从交互服务器200接收的响应信息中的执行命令脚本,从内容提供服务器300接收“○○○(内容名称)”的剧集的内容信息,并在屏幕上显示剧集的接收的内容信息的内容列表。
然而,本总体发明构思不限于此,从而控制器250可基于执行命令脚本“content_search($○○○(内容名称)$)”,从存储在存储装置230中的电子节目指南(EPG)获取“○○○(内容名称)”的剧集的内容信息,或可从外部服务器400接收内容信息,并将内容信息发送到显示设备100。
作为另一示例,提取器240可从发音“进行就寝时间预订”提取第一发音元素“就寝时间预订”和第二发音元素“进行”。如果第一发音元素和第二发音元素被从发音“进行就寝时间预订”提取,则控制器250基于提取的第一发音元素确定执行区域是装置控制。控制器250还参照存储在存储装置230中的根据第一发音元素定义的执行语言,获取与第一发音元素“就寝时间预订”相应的执行语言“$就寝时间预订$”。控制器250基于被确定为装置控制的执行区域,确定第二发音元素“进行”的类型与装置功能执行相应。因此,控制器250从存储在存储装置230中的根据第二发音元素定义的命令获取与装置功能执行相应的命令“device_execute(装置执行)”。控制器250将分别与第一发音元素和第二发音元素相应的执行语言“$就寝时间预订$”和命令“device_execute”进行组合,来产生执行命令脚本“device_execute($就寝时间预订$)”。如果产生了执行命令脚本,则控制器250将包括产生的执行命令脚本的响应信息发送到显示设备100。因此,显示设备100基于从交互服务器200接收的响应信息的执行命令脚本来设置就寝时间预订,并通过语音和文本中的至少一个来输出显示已设置了就寝时间预订的通知消息。
作为另一示例,如果包括发音“选择第一个”和执行信息的发音信息被接收到,则提取器240从发音“选择第一个”提取第一发音元素“第一个”和第二发音元素“选择”。如果第一发音元素和第二发音元素被从发音“选择第一个”提取,则控制器250参照存储在存储装置230中的根据第一发音元素定义的执行语言,获取与第一发音元素“第一个”相应的执行语言“$第一个$”。控制器250基于接收的发音信息的执行信息确定执行区域是装置UI控制,并基于确定的执行区域确定第二发音元素“选择”的类型与装置UI控制相应。因此,控制器250从存储在存储装置230中的根据第二发音元素定义的命令获取与装置UI控制相应的命令“device_select(装置选择)”。如果获取了与第一发音元素“第一个”相应的执行语言“$第一个$”,则控制器250基于从显示设备100接收的发音信息的执行信息,将执行语言转换为与获取的执行语言“$第一个$”相应的执行语言。控制器250将从获取的执行语言“$第一个$”转换的执行语言与命令进行组合来产生执行命令脚本。
现在将描述如上述示例中的将发音和包括执行信息的发音信息从显示设备100发送到交互服务器200的操作和基于交互服务器200中的从显示设备100接收的发音信息产生响应信息的操作。
图4是示出根据本总体发明构思的示例性实施例的基于显示在显示设备的屏幕上的对象的显示状态产生发音信息的方法的示图。
如图4中所示,显示设备100通过用户请求的频道接收并显示第一内容30。显示设备100还基于用户命令在屏幕上显示用户请求的第二内容的内容列表40。直到现在已广播的第二内容的剧集的内容信息41至45被显示在内容列表40上。显示设备100基于预设优先级将标识信息分配给显示在内容列表40上的内容信息41至45。当如上所述第一内容30和第二内容的内容列表40被显示在屏幕上时,用户参照显示在内容列表40上的内容信息41至45,做出发音以观看与特定剧集相应的第二内容。例如,用户做出发音“选择第三个”以观看与第三剧集的内容信息43相应的第二内容。如果输入了这样的发音,则显示设备100基于先前发音的输入时间,确定当前输入的发音是否在预设时间内被输入。如果确定当前输入的发音在预设时间内被输入,则显示设备100将发音“选择第三个”发送给交互服务器200。如果确定当前输入的发音没有在预定时间内被输入,则显示设备100将发音“选择第三个”和发音信息发送到交互服务器200,其中,发音信息包括分别分配给显示在内容列表40上的剧集的内容信息41至45的标识信息(上述执行信息)。
如果如上所述发音信息被接收到,则提取器240从接收的发音信息的发音提取第一发音元素“第三个”和第二发音元素“选择”。如果第一发音元素和第二发音元素被提取,则控制器250确定分别与提取的第一发音元素和第二发音元素相应的执行语言和命令是否已被存储在存储装置230中。如上所述,存储装置230可存储分别根据第一发音元素和第二发音元素定义的执行语言和命令。因此,控制器250参照存储在存储装置230中的根据第一发音元素定义的执行语言,获取与第一发音元素“第三个”相应的执行语言“$第三个$”。控制器250基于接收的发音信息的标识信息确定执行区域是装置UI控制,并基于确定的执行区域确定第二发音元素“选择”的类型是装置UI控制。因此,控制器250从存储在存储装置230中的根据第二发音元素定义的命令获取与装置UI控制相应的命令“device_select”。如果获取了与第一发音元素“第三个”相应的执行语言“$第三个$”,则控制器250基于包括在从显示设备100接收的发音信息中的标识信息,将执行语言转换为与获取的执行语言“$第三个$”相应的执行语言。例如,如果与执行语言“$第三个$”相应的内容信息43的标识信息是“#3”,则控制器250可将执行语言“$第三个$”转换为从获取的执行语言“$第三个$”转换的执行语言“#3”。控制器250将执行语言“#3”和命令“device_select”进行组合来产生执行命令脚本“device_select(#3)”,并将包括执行命令脚本“device_select(#3)”的响应信息发送到显示设备100。因此,显示设备100基于包括在从交互服务器200接收的响应信息中的执行命令脚本,从内容提供服务器300接收并显示与内容信息43相应的剧集的第二内容。
如果如上所述存在与从用户的发音提取的发音元素相应的执行语言和命令,则控制器250基于与发音元素相应的执行语言和命令,产生与用户的意图相应的响应信息。
如果不存在与从用户的发音提取的发音元素相应的执行语言和命令,则控制器250基于存储在存储装置230中的发音历史信息估计与提取的发音元素相应的执行语言和命令。控制器250将估计的执行语言和命令进行组合来产生适合用户的意图的响应信息。
根据示例性实施例,如果不存在与提取的发音元素(例如,第一发音元素和第二发音元素)相应的执行语言和命令,则控制器250从存储在存储装置230中的发音历史信息获取在基于接收到当前发音的时间的预设时间范围内存储的发音历史信息。控制器250将获取的发音历史信息内的与第一发音元素相应的执行语言和与第二发音元素相应的命令估计为与接收的发音相应的执行语言和命令。如果在存储在存储装置230中的发音历史信息之中,未基于接收到当前发音的时间存储在预设时间范围内存储的发音历史信息,则控制器250不产生响应信息。
如上所述,存储装置230可存储发音历史信息,其中,所述发音历史信息包括从接收自显示设备100的发音而产生的文本信息、关于当接收到相应的发音时的时间信息、基于相应的发音产生的响应信息和关于当产生响应信息时的时间信息中的至少一个。因此,如果分别与从当前接收的发音提取的第一发音元素和第二发音元素相应的执行语言和命令中的至少一个未被存储在存储装置230中,则控制器250基于存储在存储装置230中的发音历史信息估计分别与第一发音元素和第二发音元素相应的执行语言和命令。
例如,提取器240可从发音“选择第一个”提取第一发音元素“第一个”和第二发音元素“选择”。如果如上所述第一发音元素和第二发音元素被提取,则控制器250确定分别与第一发音元素和第二发音元素相应的执行语言和命令是否已被存储在存储装置230中。详细地,控制器250参照存储在存储装置230中的根据第一发音元素定义的执行语言,获取与发音元素“第一个”相应的执行语言“$第一个$”。控制器250确定是否可能基于第一发音元素确定执行区域。如果确定不可能从第一发音元素“第一个”确定执行区域,则控制器250不从存储装置230获取与第二发音元素“选择”相应的命令,其中,所述存储装置230存储根据第二发音元素定义的命令。因此,控制器250从发音“选择第一个”确定用于提供发音的服务的执行区域和执行命令不清楚。根据确定结果,控制器250确定在存储在存储装置230中的发音历史信息之中,在基于接收到发音“选择第一个”的时间的预设时间范围内的发音历史信息是否被存储。换句话说,控制器250确定发音“选择第一个”的接收时间和存储在存储装置230中的发音历史信息之中的最新的先前发音历史信息之间的时间差是否属于预设时间范围。如果确定最新的先前发音历史信息不属于预设时间范围,则控制器250不产生关于发音“选择第一个”的响应信息。如果确定最新的先前发音历史信息属于预设时间范围,则提取器240从包括在最新的先前发音历史信息中的发音的文本信息提取第一发音元素和第二发音元素。
例如,如果包括在先前发音历史信息中的发音是“搜索“○○○(内容名称)””,则提取器240提取第一发音元素“○○○(内容名称)”和第二发音元素“搜索”。控制器250基于从先前发音历史信息的发音提取的第一发音元素“○○○(内容名称)”,将第一发音元素“第一个”估计为第一发音元素“○○○(内容名称)”。控制器250基于估计的第一发音元素确定执行区域是装置UI控制,并从存储在存储装置230中的根据第二发音元素定义的命令获取与装置UI控制相应的命令“device_select”。控制器250将与获取的第一发音元素相应的执行语言“$第一个$”和与第二发音元素相应的命令“device_select”进行组合来产生执行命令脚本“device_select($第一个$)”。控制器250将包括产生的执行命令脚本的响应信息发送到显示设备100。因此,显示设备100基于从交互服务器200接收的响应信息通过语音和文字中的至少一个,来输出响应消息“你已选择了第一内容”。显示设备100还基于响应信息的执行命令脚本从内容提供服务器300接收第一内容,并显示第一内容。
根据另一示例性实施例,如果接收的发音不包括第一发音元素和第二发音元素中的至少一个,则控制器250可基于存储在存储装置230中的发音历史信息之中的在基于接收到发音的时间的预设时间范围内存储的发音历史信息,产生响应信息。
例如,提取器240没有从发音“是”提取到第一发音元素和第二发音元素。在这种情况下,控制器250确定发音“是”不清楚,并从存储在存储装置230中的发音历史信息获取基于接收到发音“是”的时间的预设时间范围内存储的先前发音历史信息。例如,如果包括在获取的先前发音历史信息中的发音是“关闭TV”,则控制器250提取第一发音元素“TV”和第二发音元素“关闭”。控制器250基于提取的第一发音元素和第二发音元素将当前接收的发音“是”估计为“确认”。因此,控制器250基于从先前发音历史信息提取的第一发音元素“TV”确定执行区域是装置控制。控制器250参照存储在存储装置230中的根据第一发音元素定义的执行语音,获得与第一发音元素“TV”相应的执行语言“$TV$”。控制器250基于被确定为装置控制的执行区域确定第二发音元素“关闭”的类型是装置功能执行。因此,控制器250从存储在存储装置230中的根据第二发音元素定义的命令获取与装置功能执行相应的命令。控制器250从获取的与装置功能执行相应的命令获取与电源控制相应的命令“device_execute_turen off(装置执行关闭)”。控制器250将与第一发音元素相应的执行语言“$TV$”和与第二发音元素相应的命令“device_execute_turen off”进行组合来产生执行命令脚本“device_execute_turen off($TV$)”。如果产生了执行命令脚本,则控制器250将包括产生的执行命令脚本的响应信息发送到显示设备100。因此,显示设备100基于包括在从交互服务器200接收的响应信息中的执行命令脚本,关闭TV。
已详细描述了根据本发明总体构思的交互服务器200的元件。现在将详细描述接收用户的发音的显示设备100的元件。
图5是示出根据本总体发明构思的示例性实施例的显示设备100的框图。
参照图5,显示设备100包括输入装置110、通信器120、显示装置130、控制器140和存储装置150。
输入装置110从用户接收发音。详细地,如果输入了用户的模拟发音,则输入装置110对用户的输入模拟发音进行采样来将模拟发音转换为数字信号。这里,如果用户的输入发音包括噪声(例如,空调声音、清洁器声音等),则输入装置110从用户的发音去除噪声,并随后将已去除噪声的用户的发音转换为数字信号。输入装置110还接收各种类型的用户控制,并将各种类型的用户控制发送到控制器140。在这种情况下,输入装置110通过触摸面板、键盘(包括各种类型的功能键、数字键、专用键、字母键等)或触摸屏接收用户控制命令。
通信器120将通过输入装置110输入的用户的发音发送到服务器设备(以下称为交互服务器),并接收与发送的发音相应的响应信息。这里,通信器120可包括各种类型的通信模块,诸如,近场通信(NFC)模块(未示出)、无线通信模块(未示出)等。这里,NFC模块(未示出)与交互服务器200和提供内容的外部服务器(未示出)进行通信,并可以是蓝牙通信模块、Zigbee通信模块等。这里,交互服务器200和外部服务器被放置在近场中。无线通信模块根据无线通信协议(诸如,WiFi、电气和电子工程师协会(IEEE)等)连接到外部网络,以执行通信。无线通信模块可还包括根据各种类型的移动通信标准(诸如,第三代(3G)、第三代合作伙伴计划(3GPP)、长期演进(LTE)等)接入移动通信网络以执行通信的移动通信模块。
显示装置130可被实现为液晶显示器(LCD)、有机发光显示器(OLED)、等离子显示面板(PDP)等,来通过显示设备100提供各种类型的显示屏幕。具体地,显示装置130基于从交互服务器200接收的响应信息,显示与用户的发音相应的内容或内容信息。
控制器140控制显示设备100的元件。具体地,如果包括通过组合执行语言和命令而产生的执行命令脚本的响应消息被从交互服务器200接收到,则控制器140基于包括在接收的响应信息中的执行命令脚本执行操作。
如果如上述示例中用户的发音“搜索○○○(内容名称)”被从交互服务器200接收到,则控制器140基于接收的响应信息的执行命令脚本,通过通信器120从内容提供服务器300接收“○○○(内容名称)”的剧集的内容信息,并通过显示装置130在屏幕上显示剧集的内容信息的内容列表。详细地,从交互服务器200接收的响应信息可包括执行命令脚本“content_search($○○○(内容名称)$)”。因此,控制器140对执行命令脚本“content_search($○○○(内容名称)$)”进行解析来分类为执行语言“$○○○(内容名称)$”和命令“content_search”。如果如上所述从执行命令脚本分类出执行语言和命令,则控制器140基于分类的执行语言控制显示装置130从内容提供服务器300接收“○○○(内容名称)”的剧集的内容信息,并在屏幕上显示剧集的内容信息的内容列表。然而,本总体发明构思不限于此,因此通信器120可从交互服务器200接收包括“○○○(内容名称)”的剧集的内容信息的响应信息。在这种情况下,控制器140可通过显示装置130在屏幕上显示包括在从交互服务器200接收的响应信息中的“○○○(内容名称)”的剧集的内容信息。
如果如另一上述示例关于用户的发音“进行就寝时间预订”的响应信息被从交互服务器200接收到,则控制器140基于包括在接收的响应信息中的执行命令脚本自动将就寝时间预订设置为预设时间。详细地,从交互服务器200接收的响应信息可包括执行命令脚本“device_execute($就寝时间预订$)”。因此,控制器140对执行命令脚本“device_execute($就寝时间预订$)”进行解析来分类为执行语言“$就寝时间预订$”和命令“装置执行”。如果从执行命令脚本分类出执行语言和命令,则控制器140基于分类的执行语言自动将就寝时间预订设置为预设时间。如果如上所述自动设置就寝时间预订,则控制器140基于接收的响应信息通过显示装置130在屏幕上输出文本格式通知消息“已完全设置就寝时间预订”。
如图4中所示,显示装置130可根据控制器140的控制命令通过用户请求的频道接收并显示第一内容30。显示装置130可基于用户命令在屏幕上显示用户请求的第二内容的内容列表40。如果如上所述包括第二内容的剧集的内容信息41至45的内容列表40被显示在屏幕上,则控制器140可基于预设优先级将标识信息分配给剧集的内容信息41至45中的每一个。如果第一内容30和第二内容的内容列表40被显示在屏幕上,则可从用户输入用于观看与特定剧集相应的第二内容的发音。例如,用户可做出发音“选择第三个”来观看与第三剧集的内容信息43相应的第二内容。如果此发音被输入,则控制器140确定发音“选择第三个”的发音历史信息是否已被存储在存储装置150中。这里,发音历史信息可包括从先前用户输入的发音和关于当相应的发音被输入时的时间信息。如果确定发音历史信息已被存储在存储装置150中,则控制器140将包括发音“选择第三个”的发音信息和分配给剧集的内容信息41至45的标识信息发送到交互服务器200。
如果确定发音历史信息已存储在存储装置150中,则控制器140基于包括在存储的发音历史信息中的时间信息,获取最新的发音历史信息。控制器140基于包括在获取的发音历史信息中的时间信息,确定发音“选择第三个”是否已在预设时间内被输入。如果确定发音“选择第三个”已在预设时间内被输入,则控制器140通过通信器120将发音“选择第三个”发送到交互服务器200。如果确定发音“选择第三个”在预设时间内未被输入,则控制器140将包括发音“选择第三个”的发音信息和分配给显示在内容列表40上的剧集的内容信息41至45的标识信息(上述执行信息)发送到交互服务器200。
如果关于发音“选择第三个”的响应信息被从交互服务器200接收到,则控制器140基于包括在接收的响应信息中的执行命令脚本,从内容提供服务器300接收与第三剧集的内容信息43相应的第二内容,并通过显示装置130显示第二内容。
已详细描述了识别用户的发音并基于与识别的发音相应的响应信息执行操作的显示设备100的元件。现在将详细描述控制提供与用户的发音相应的响应信息的交互服务器200的方法,以及控制基于响应信息执行操作的显示设备100的方法。
图6是示出根据本总体发明构思的示例性实施例的控制交互服务器的方法的流程图。
参照图6,在操作S610,交互服务器200从显示设备100接收发音信号(以下称为发音)。这里,用户的发音是从模拟语音信号转换为数字信号的语音信号。在操作S620,交互服务器200将接收的发音转换为文本信息。根据示例性实施例,交互服务器200可通过使用STT算法将用户的发音转换为文本。然而,本总体发明构思不限于此,因此交互服务器200可从显示设备100接收用户的发音的文本信息。在这种情况下,显示设备100从自动语音识别(ASR)服务器(诸如,第一服务器10)接收用户的发音的文本信息,并将所述文本信息发送到交互服务器200。因此,交互服务器200可从显示设备100接收用户的发音的文本信息。
如果用户的发音被转换为文本信息或从显示设备100接收到用户的发音的文本信息,则在操作S630,交互服务器200从转换为文本信息的发音提取发音元素。换句话说,交互服务器200从转换为文本信息的发音提取指示特征的第一发音元素和指示执行命令的第二发音元素。如果提取出第一发音元素和第二发音元素中的至少一个,则在操作S640,交互服务器200确定是否可能基于提取的发音元素产生适合用户的意图的响应信息。如果在操作S640确定不可能基于提取的发音元素产生响应信息,则交互服务器200不从用户的发音产生响应信息。如果在操作S640确定可能基于提取的发音元素产生响应信息,则在操作S650,交互服务器200从用户的发音产生响应信息。在操作S660,交互服务器200将响应信息发送到显示设备100。
详细地,如果从用户的发音提取出第一发音元素和第二发音元素,则交互服务器200确定分别与提取的第一发音元素和第二发音元素相应的执行语言和命令是否已被存储。这里,第一发音元素是指示特征的发音元素,第二发音元素是指示执行命令的发音元素。因此,交互服务器200确定与指示特征的第一发音元素相应的执行语言和与指示执行命令的第二发音元素相应的命令是否已被存储。如果确定分别与提取的第一发音元素和第二发音元素相应的执行语言和命令已被存储,则交互服务器200将分别与提取的第一发音元素和第二发音元素相应的执行语言和命令进行组合来产生执行命令脚本。如果确定分别与提取的第一发音元素和第二发音元素相应的执行语言和命令未被存储,则交互服务器200确定是否可能基于存储的发音历史信息估计分别与提取的第一发音元素和第二发音元素相应的执行语言和命令。如果确定可能基于存储的发音历史信息估计分别与提取的第一发音元素和第二发音元素相应的执行语言和命令,则交互服务器200将估计的执行语言和命令进行组合来产生执行命令脚本。如果确定不可能基于存储的发音历史信息估计分别与提取的第一发音元素和第二发音元素相应的执行语言和命令,则交互服务器200不产生用户的发音的响应信息。如上所述,交互服务器200确定是否可能基于从用户的发音提取的发音元素和存储的发音历史信息产生用户的发音的响应信息,并根据确定结果将产生的响应信息发送到显示设备100。
现在将参照图7详细描述在交互服务器200中基于从用户的发音提取的发音元素和存储的发音历史信息产生响应信息的方法。
图7是示出根据本总体发明构思的示例性实施例的在交互服务器中产生响应信息的方法的流程图。
参照图7,通过上述操作620,用户的发音被转换为文本信息或者转换为文本信息的发音被从显示设备100接收到。如果如上所述用户的发音被转换为文本信息或被接收到,则交互服务器200从转换为文本信息的发音提取发音元素。如果提取出发音元素,则在操作S710,交互服务器200对提取的发音元素进行解析来确定发音元素是否包括指示特征的第一发音元素和指示执行命令的第二发音元素。如果在S710确定提取的发音元素不包括第一发音元素和第二发音元素中的至少一个,则交互服务器200通过操作S740确定先前发音历史信息是否已被存储,将稍后对其进行描述。
如果从用户的发音提取出第一发音元素和第二发音元素,则在操作S720,交互服务器200确定分别与提取的第一发音元素和第二发音元素相应的执行语言和命令是否存在。如果在操作S720确定分别与提取的第一发音元素和第二发音元素相应的执行语言和命令存在,则在操作730,交互服务器200将分别与提取的第一发音元素和第二发音元素相应的执行语言和命令进行组合来产生响应信息。如果在操作S720确定分别与提取的第一发音元素和第二发音元素相应的执行语言和命令不存在,则在操作S740,交互服务器200确定发音的发音历史信息是否在接收到用户的发音之前存在。如果在操作S740确定发音历史信息不存在,则交互服务器200不产生关于用户的发音的响应信息。如果在操作S740确定发音历史信息存在,则在操作S750,交互服务器200获取在基于接收到用户的发音的时间的预设时间范围内存储的发音历史信息。在操作S760,交互服务器200将获取的发音历史信息内的与从用户的发音提取的第一发音元素相应的执行语言和与从用户的发音提取的第二发音元素相应的命令估计为的与用户的发音相应的执行语言和命令。如果如上所述从用户的发音提取执行语言和命令,则在操作S770,交互服务器200将估计的执行语言和命令进行组合来产生响应信息。
现在将描述如果从用户的发音提取的发音元素不包括第一发音元素和第二发音元素中的至少一个,则在交互服务器200中产生用户的发音的响应信息的方法。
例如,交互服务器200没有从发音“是”提取第一发音元素和第二发音元素。在这种情况下,交互服务器200确定发音“是”不清楚并从存储的发音历史信息获取在基于接收到发音“是”的时间的预设时间范围内存储的先前发音历史信息。例如,如果包括在获取的先前发音历史信息中的发音是“关闭TV”,则交互服务器200提取第一发音元素“TV”和第二发音元素“关闭”。交互服务器200基于提取的第一发音元素和第二发音元素将当前接收的发音“是”估计为“确认”。因此,交互服务器200基于从先前发音历史信息提取的第一发音元素“TV”确定执行区域是装置控制。交互服务器200参照根据存储的第一发音元素而定义的执行语言来获取与第一发音元素“TV”相应的执行语言“$TV$”。交互服务器200基于被确定为装置控制的执行区域,确定第二发音元素“关闭”的类型与装置功能执行相关。因此,交互服务器200从根据存储的第二发音元素而定义的命令来获取与装置功能执行相应的命令。交互服务器200从获取的与装置功能执行相应的命令获取与电源控制相应的命令“device_execute_turen off”。交互服务器200将执行语言“$TV$”和第二发音元素相应的命令“device_execute_turen off”进行组合来产生执行命令脚本“device_execute_turen off($TV$)”。如果如上所述产生执行命令脚本,则交互服务器200产生包括产生的执行命令脚本的响应信息。
现在将描述如果分别与从用户的发音提取的第一发音元素和第二发音元素相应的执行语言和命令存在,则在交互服务器200中产生用户的发音的响应信息的方法。
如果输入了发音“搜索○○○(内容名称)”,则交互服务器200从发音“搜索○○○(内容名称)”提取第一发音元素“○○○(内容名称)”和第二发音元素“搜索”。如果如上所述提取了第一发音元素和第二发音元素,则交互服务器200基于提取的第一发音元素确定执行区域是内容。交互服务器200从根据存储的第一发音元素定义的命令提取与第一发音元素“○○○(内容名称)”相应的执行语言“$○○○(内容名称)$”。交互服务器200基于被确定为内容的执行区域,确定第二发音元素“搜索”的类型与内容搜索相关。因此,交互服务器200从根据存储的第二发音元素定义的命令获取与内容搜索相应的命令“content_search”。
如果如上所述获取了分别与第一发音元素和第二发音元素相应的执行语言和命令,则交互服务器200将执行语言“$○○○(内容名称)$”和命令“content_search”进行组合来产生执行命令脚本“content_search($○○○(内容名称)$)”。如果产生了执行命令脚本,则交互服务器200产生包括产生的执行命令脚本的响应信息。
现在将描述如果分别与从用户的发音提取的第一发音元素和第二发音元素相应的执行语言和命令不存在,则在交互服务器200中产生用户的发音的响应信息的方法。
例如,交互服务器200可从发音“选择第一个”提取第一发音元素“第一个”和第二发音元素“选择”。如果如上所述提取了第一发音元素和第二发音元素,则交互服务器200确定分别与第一发音元素和第二发音元素相应的执行语言和命令是否已被存储。详细地,交互服务器200参照根据存储的第一发音元素定义的执行语言,获取与第一发音元素“第一个”相应的执行语言“$第一个$”。交互服务器200确定是否可能基于提取的第一发音元素确定执行区域。如果确定不可能基于第一发音元素“第一个”确定执行区域,则交互服务器200不从根据存储的第二发音元素定义的命令获取与第二发音元素“选择”相应的命令。因此,交互服务器200从发音“选择第一个”确定用于提供发音的服务的执行区域和执行命令不清楚。根据确定结果,交互服务器200确定存储的发音历史信息是否包括在基于发音“选择第一个”的时间的预设时间范围内存储的发音历史信息。换句话说,交互服务器200确定发音“选择第一个”和存储的发音历史信息之中的最新存储的先前发音历史信息的时间之间的时间差是否属于预设时间范围。如果确定发音“选择第一个”和存储的发音历史信息之中的最新存储的先前发音历史信息的时间之间的时间差不属于预设时间范围,则交互服务器200不产生发音“选择第一个”的响应信息。如果确定最新存储的先前发音历史信息属于预设时间范围,则交互服务器200从包括在先前发音历史信息中的发音的文本信息提取第一发音元素和第二发音元素。
例如,如果包括在先前发音历史信息中的发音是“○○○(内容名称)”,则交互服务器200提取第一发音元素“○○○(内容名称)”和第二发音元素“搜索”。交互服务器200基于从包括在先前发音历史信息中的发音提取的第一发音元素和第二发音元素中的第一发音元素“○○○(内容名称)”,将第一发音元素“第一个”估计为第一发音元素“○○○(内容名称)”。交互服务器200基于估计的第一发音元素,确定执行区域是装置UI控制,并从根据存储的第二发音元素定义的命令获取与装置UI控制相应的命令“device_select”。交互服务器200将与获取的第一发音元素相应的执行语言“$第一个$”和与第二发音元素相应的命令“device_select”进行组合来产生执行命令脚本“device_select($第一个$)”。如果产生了执行命令脚本,则交互服务器200产生包括产生的执行命令脚本的响应信息。
如上所述,根据本总体发明构思的交互服务器200对用户的发音进行解析来理解用户的意图,并确定是否可能基于理解的用户的发音意图产生响应信息。如果确定不可能基于用户的发音意图产生响应信息,则交互服务器200基于用户的先前发音产生用户的当前发音的响应信息。因此,用户按照用户希望表达的方式来做出发音,而无需被限于特定发音,以被提供发音的服务。
上述示例性实施例和优点仅是示例性的,并且不应被解释为限制性的。本教导可容易地应用于其它类型的设备。此外,示例性实施例的描述意是说明,而不是限制权利要求的范围,并且许多替换、修改和变化对与本领域技术人员而言将是清楚的。

Claims (15)

1.一种显示设备,包括:
显示器;
通信器,被配置为与服务器进行通信;
接收器,被配置为接收内容;
处理器,被配置为:
控制所述显示器显示由所述接收器接收的所述内容,
基于在所述内容被显示在所述显示器上时接收到第一语音输入,控制所述显示器显示通过所述通信器从所述服务器接收到的搜索结果,
基于在预定时间内接收到第二语音输入,通过所述通信器从所述服务器接收第一响应信息,
控制所述显示器显示所述第一响应信息,其中,所述第一响应信息是基于所述第二语音输入和语音历史信息产生的,以及
基于在所述预定时间之后接收到第三语音输入,通过所述通信器从所述服务器接收第二响应信息,并且控制所述显示器显示基于所述第三语音输入的所述第二响应信息。
2.如权利要求1所述的显示设备,其中,所述语音历史信息是基于所述第一语音输入产生的。
3.如权利要求1所述的显示设备,其中,所述内容是通过由用户选择的频道接收的视频内容。
4.如权利要求1所述的显示设备,其中,所述处理器还被配置为:基于所述第一语音输入被接收,通过所述通信器将所述第一语音输入发送到所述服务器,并通过所述通信器从所述服务器接收所述搜索结果。
5.如权利要求1所述的显示设备,其中,基于所述第一语音输入被接收,所述预定时间能够与所述第一语音输入的接收相关联地计数。
6.如权利要求1所述的显示设备,其中,所述语音历史信息被存储在所述服务器中。
7.如权利要求1所述的显示设备,其中,所述处理器还被配置为:基于在所述预定时间内接收的所述第二语音输入与用于所述显示设备的功能执行的控制命令相应,执行与所述第二语音输入相应的功能,而不显示从所述服务器接收的所述第一响应信息。
8.如权利要求1所述的显示设备,其中,所述处理器还被配置为:基于在所述第一语音输入之后输入的语音在所述预定时间内被接收,控制所述显示器显示不同信息。
9.一种控制显示设备的方法,所述方法包括:
通过接收器接收内容;
显示所述内容;
基于在所述内容被显示时接收到第一语音输入,显示从服务器接收到的搜索结果;
基于在预定时间内接收到第二语音输入,从所述服务器接收第一响应信息;
显示所述第一响应信息,其中,所述第一响应信息是基于所述第二语音输入和语音历史信息产生的;以及
基于在所述预定时间之后接收到第三语音输入,从所述服务器接收第二响应信息,并且显示基于所述第三语音输入的所述第二响应信息。
10.如权利要求9所述的方法,其中,所述语音历史信息是基于所述第一语音输入产生的。
11.如权利要求9所述的方法,其中,所述内容是通过由用户选择的频道接收的视频内容。
12.如权利要求9所述的方法,还包括:基于所述第一语音输入被接收,将所述第一语音输入发送到所述服务器,并从所述服务器接收所述搜索结果。
13.如权利要求9所述的方法,其中,基于所述第一语音输入被接收,所述预定时间能够与所述第一语音输入的接收相关联地计数。
14.如权利要求9所述的方法,其中,所述语音历史信息被存储在所述服务器中。
15.如权利要求9所述的方法,还包括:基于在所述预定时间内接收的所述第二语音输入与用于所述显示设备的功能执行的控制命令相应,执行与所述第二语音输入相应的功能,而不显示从所述服务器接收的所述第一响应信息。
CN202210035613.3A 2013-01-07 2014-01-07 交互服务器及其控制方法和交互系统 Active CN114360543B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020130001829A KR20140089871A (ko) 2013-01-07 2013-01-07 대화형 서버, 그 제어 방법 및 대화형 시스템
KR10-2013-0001829 2013-01-07
CN201410006748.2A CN103914234A (zh) 2013-01-07 2014-01-07 交互服务器及其控制方法和交互系统

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201410006748.2A Division CN103914234A (zh) 2013-01-07 2014-01-07 交互服务器及其控制方法和交互系统

Publications (2)

Publication Number Publication Date
CN114360543A true CN114360543A (zh) 2022-04-15
CN114360543B CN114360543B (zh) 2023-03-24

Family

ID=49911359

Family Applications (4)

Application Number Title Priority Date Filing Date
CN202211532442.1A Pending CN115793945A (zh) 2013-01-07 2014-01-07 交互服务器及其控制方法和交互系统
CN201710749861.3A Active CN107564519B (zh) 2013-01-07 2014-01-07 交互服务器及其控制方法和交互系统
CN201410006748.2A Pending CN103914234A (zh) 2013-01-07 2014-01-07 交互服务器及其控制方法和交互系统
CN202210035613.3A Active CN114360543B (zh) 2013-01-07 2014-01-07 交互服务器及其控制方法和交互系统

Family Applications Before (3)

Application Number Title Priority Date Filing Date
CN202211532442.1A Pending CN115793945A (zh) 2013-01-07 2014-01-07 交互服务器及其控制方法和交互系统
CN201710749861.3A Active CN107564519B (zh) 2013-01-07 2014-01-07 交互服务器及其控制方法和交互系统
CN201410006748.2A Pending CN103914234A (zh) 2013-01-07 2014-01-07 交互服务器及其控制方法和交互系统

Country Status (4)

Country Link
US (3) US10891968B2 (zh)
EP (1) EP2753054B1 (zh)
KR (1) KR20140089871A (zh)
CN (4) CN115793945A (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140089871A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 대화형 서버, 그 제어 방법 및 대화형 시스템
US10157618B2 (en) * 2013-05-02 2018-12-18 Xappmedia, Inc. Device, system, method, and computer-readable medium for providing interactive advertising
US10018977B2 (en) * 2015-10-05 2018-07-10 Savant Systems, Llc History-based key phrase suggestions for voice control of a home automation system
US9978366B2 (en) 2015-10-09 2018-05-22 Xappmedia, Inc. Event-based speech interactive media player
CN107293294B (zh) * 2016-03-31 2019-07-16 腾讯科技(深圳)有限公司 一种语音识别处理方法及装置
KR20180084392A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 전자 장치 및 그의 동작 방법
CN108663942B (zh) * 2017-04-01 2021-12-07 青岛有屋科技有限公司 一种语音识别设备控制方法、语音识别设备和中控服务器
KR102411766B1 (ko) 2017-08-25 2022-06-22 삼성전자주식회사 음성 인식 서비스를 활성화하는 방법 및 이를 구현한 전자 장치
CN107919120B (zh) 2017-11-16 2020-03-13 百度在线网络技术(北京)有限公司 语音交互方法及装置,终端,服务器及可读存储介质
CN111742557B (zh) 2018-01-08 2024-01-19 Lg电子株式会社 显示装置和包括显示装置的系统
KR102515023B1 (ko) * 2018-02-23 2023-03-29 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7231342B2 (ja) * 2018-07-09 2023-03-01 シャープ株式会社 コンテンツ表示システム及び表示装置
CN109947252A (zh) * 2019-03-21 2019-06-28 百度在线网络技术(北京)有限公司 配置智能设备交互功能的方法和装置
WO2020230923A1 (ko) * 2019-05-15 2020-11-19 엘지전자 주식회사 음성 인식 서비스를 제공하기 위한 디스플레이 장치 및 그의 동작 방법
CN110176229A (zh) * 2019-05-28 2019-08-27 北京增强智能科技有限公司 一种语音处理方法和装置
WO2021162363A1 (en) * 2020-02-10 2021-08-19 Samsung Electronics Co., Ltd. Method and apparatus for providing voice assistant service
JP7405660B2 (ja) * 2020-03-19 2023-12-26 Lineヤフー株式会社 出力装置、出力方法及び出力プログラム
KR20220005348A (ko) * 2020-07-06 2022-01-13 삼성전자주식회사 인공지능 가상 비서 서비스에서의 화면 제공 방법 및 이를 지원하는 사용자 단말 장치 및 서버
US20220076694A1 (en) * 2020-09-08 2022-03-10 Lifeline Systems Company Cognitive impairment detected through audio recordings
KR20230017971A (ko) * 2021-07-28 2023-02-07 삼성전자주식회사 전자 장치 및 전자 장치의 동작 방법
US11908473B2 (en) * 2022-05-10 2024-02-20 Apple Inc. Task modification after task initiation

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2045959A1 (en) * 1990-07-02 1992-01-03 Haruyuki Hayashi Speech recognition apparatus
JPH08331237A (ja) * 1995-05-31 1996-12-13 Sharp Corp 留守番電話装置
JP2004258233A (ja) * 2003-02-25 2004-09-16 Fujitsu Ltd 適応型音声対話システム及び方法
US20060074670A1 (en) * 2004-09-27 2006-04-06 Fuliang Weng Method and system for interactive conversational dialogue for cognitively overloaded device users
CN101042866A (zh) * 2006-03-22 2007-09-26 富士通株式会社 语音识别设备及方法,以及记录有计算机程序的记录介质
CN101064753A (zh) * 2006-04-28 2007-10-31 朗迅科技公司 未应答电话呼叫的电子邮件通知系统和方法
US20110246190A1 (en) * 2010-03-31 2011-10-06 Kabushiki Kaisha Toshiba Speech dialog apparatus
US20120179473A1 (en) * 2009-09-25 2012-07-12 Kabushiki Kaisha Toshiba Speech interactive apparatus and computer program product

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5748841A (en) * 1994-02-25 1998-05-05 Morin; Philippe Supervised contextual language acquisition system
US6275788B1 (en) * 1996-09-26 2001-08-14 Mitsubishi Denki Kabushiki Kaisha Interactive processing apparatus having natural language interfacing capability, utilizing goal frames, and judging action feasibility
US6314398B1 (en) 1999-03-01 2001-11-06 Matsushita Electric Industrial Co., Ltd. Apparatus and method using speech understanding for automatic channel selection in interactive television
US6233561B1 (en) * 1999-04-12 2001-05-15 Matsushita Electric Industrial Co., Ltd. Method for goal-oriented speech translation in hand-held devices using meaning extraction and dialogue
JP2000339250A (ja) * 1999-05-25 2000-12-08 Nippon Telegr & Teleph Corp <Ntt> 対話メッセージ生成方法、その装置、そのプログラムを記録した媒体
KR20010004832A (ko) * 1999-06-30 2001-01-15 구자홍 음성인식을 이용한 기기 제어장치
EP1079387A3 (en) * 1999-08-26 2003-07-09 Matsushita Electric Industrial Co., Ltd. Mechanism for storing information about recorded television broadcasts
US8130918B1 (en) * 1999-09-13 2012-03-06 Microstrategy, Incorporated System and method for the creation and automatic deployment of personalized, dynamic and interactive voice services, with closed loop transaction processing
US6442522B1 (en) * 1999-10-12 2002-08-27 International Business Machines Corporation Bi-directional natural language system for interfacing with multiple back-end applications
US6622119B1 (en) * 1999-10-30 2003-09-16 International Business Machines Corporation Adaptive command predictor and method for a natural language dialog system
US6526382B1 (en) * 1999-12-07 2003-02-25 Comverse, Inc. Language-oriented user interfaces for voice activated services
US6456978B1 (en) * 2000-01-31 2002-09-24 Intel Corporation Recording information in response to spoken requests
US6757362B1 (en) * 2000-03-06 2004-06-29 Avaya Technology Corp. Personal virtual assistant
US6567805B1 (en) * 2000-05-15 2003-05-20 International Business Machines Corporation Interactive automated response system
JP2002041276A (ja) * 2000-07-24 2002-02-08 Sony Corp 対話型操作支援システム及び対話型操作支援方法、並びに記憶媒体
CN1471669A (zh) * 2000-10-24 2004-01-28 汤姆森许可公司 利用嵌入媒体播放器页面传播广告的方法
US20020198714A1 (en) * 2001-06-26 2002-12-26 Guojun Zhou Statistical spoken dialog system
US20120087637A1 (en) * 2002-01-29 2012-04-12 Logan James D Methods and apparatus for recording and replaying video broadcasts
US7398209B2 (en) 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US20030235183A1 (en) * 2002-06-21 2003-12-25 Net2Phone, Inc. Packetized voice system and method
KR100490406B1 (ko) * 2002-07-11 2005-05-17 삼성전자주식회사 음성 명령어 처리 장치 및 방법
JP2005065156A (ja) * 2003-08-20 2005-03-10 Victor Co Of Japan Ltd 音声認識処理システム及びそれに用いる映像信号記録再生装置
GB2409750B (en) * 2004-01-05 2006-03-15 Toshiba Res Europ Ltd Speech recognition system and technique
US20060075429A1 (en) * 2004-04-30 2006-04-06 Vulcan Inc. Voice control of television-related information
KR100617711B1 (ko) 2004-06-25 2006-08-28 삼성전자주식회사 휴대단말기에서 음성인식구동 방법
US8582567B2 (en) * 2005-08-09 2013-11-12 Avaya Inc. System and method for providing network level and nodal level vulnerability protection in VoIP networks
US7925506B2 (en) * 2004-10-05 2011-04-12 Inago Corporation Speech recognition accuracy via concept to keyword mapping
EP1848192A4 (en) * 2005-02-08 2012-10-03 Nippon Telegraph & Telephone END DEVICE, SYSTEM, METHOD AND PROGRAM FOR INFORMATION COMMUNICATION AND RECORDING MEDIUM WHICH RECORDED THE PROGRAM
JP5065050B2 (ja) * 2005-12-28 2012-10-31 インターナショナル・ビジネス・マシーンズ・コーポレーション クライアント・サーバ・システムにおける負荷分散
CN1794233A (zh) * 2005-12-28 2006-06-28 刘文印 一种网上用户交互问答方法及其系统
US8204751B1 (en) 2006-03-03 2012-06-19 At&T Intellectual Property Ii, L.P. Relevance recognition for a human machine dialog system contextual question answering based on a normalization of the length of the user input
US20070294721A1 (en) * 2006-06-20 2007-12-20 Sbc Knowledge Ventures, Lp System and method of providing supplemental video content related to targeted advertisements in a video stream
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US20080183852A1 (en) * 2007-01-26 2008-07-31 Pramer David M Virtual information technology assistant
WO2008106733A1 (en) * 2007-03-02 2008-09-12 Enikos Pty Limited A graphical user interface
TWI321313B (en) 2007-03-03 2010-03-01 Ind Tech Res Inst Apparatus and method to reduce recognization errors through context relations among dialogue turns
US10210531B2 (en) * 2007-06-18 2019-02-19 Yellowpages.Com Llc Systems and methods to facilitate the specification of a complex geographic area
KR101322486B1 (ko) 2007-06-28 2013-10-25 주식회사 케이티 범용 대화서비스 장치 및 그 방법
JP4859982B2 (ja) 2007-07-02 2012-01-25 三菱電機株式会社 音声認識装置
US8091103B2 (en) * 2007-07-22 2012-01-03 Overlay.Tv Inc. Server providing content directories of video signals and linkage to content information sources
US8560307B2 (en) * 2008-01-28 2013-10-15 Qualcomm Incorporated Systems, methods, and apparatus for context suppression using receivers
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US8531522B2 (en) * 2008-05-30 2013-09-10 Verint Systems Ltd. Systems and methods for video monitoring using linked devices
EP3937167B1 (en) * 2008-07-11 2023-05-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and audio decoder
US9858925B2 (en) * 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
WO2011004305A1 (en) * 2009-07-05 2011-01-13 Delegate Communications Ltd. System and method for brokering communication dependent tasks
KR101673032B1 (ko) * 2010-01-25 2016-11-04 엘지전자 주식회사 화상 통신 방법 및 그를 이용한 디지털 tv
US20110227911A1 (en) * 2010-03-22 2011-09-22 Lg Electronics Inc. Image display device and method for operating the same
US8522283B2 (en) * 2010-05-20 2013-08-27 Google Inc. Television remote control data transfer
JP2011250367A (ja) * 2010-05-31 2011-12-08 Sony Corp 表示装置、映像装置、メニュー画面表示方法、および映像表示システム
US8738377B2 (en) * 2010-06-07 2014-05-27 Google Inc. Predicting and learning carrier phrases for speech input
US20120131626A1 (en) * 2010-11-19 2012-05-24 Media Patents, S.L. Methods, apparatus and systems for delivering and receiving data
US20120131609A1 (en) * 2010-11-19 2012-05-24 Media Patents, S.L. Methods, apparatus and systems for delivering and receiving data
US20120154255A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Computing device having plural display parts for presenting plural spaces
KR20120080069A (ko) 2011-01-06 2012-07-16 삼성전자주식회사 디스플레이 장치 및 그 음성 제어 방법
EP3734409A1 (en) * 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Portable device comprising a touch-screen display, and method for controlling same
CN102750125A (zh) * 2011-04-19 2012-10-24 无锡天堂软件技术有限公司 基于语音的控制方法与控制系统
CN102324241A (zh) 2011-05-04 2012-01-18 鸿富锦精密工业(深圳)有限公司 具有语音控制功能的电子装置及语音控制方法
US20130018659A1 (en) * 2011-07-12 2013-01-17 Google Inc. Systems and Methods for Speech Command Processing
US20180032997A1 (en) * 2012-10-09 2018-02-01 George A. Gordon System, method, and computer program product for determining whether to prompt an action by a platform in connection with a mobile device
US20140095171A1 (en) * 2012-10-01 2014-04-03 Nuance Communications, Inc. Systems and methods for providing a voice agent user interface
KR20140089871A (ko) * 2013-01-07 2014-07-16 삼성전자주식회사 대화형 서버, 그 제어 방법 및 대화형 시스템

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2045959A1 (en) * 1990-07-02 1992-01-03 Haruyuki Hayashi Speech recognition apparatus
JPH08331237A (ja) * 1995-05-31 1996-12-13 Sharp Corp 留守番電話装置
JP2004258233A (ja) * 2003-02-25 2004-09-16 Fujitsu Ltd 適応型音声対話システム及び方法
US20060074670A1 (en) * 2004-09-27 2006-04-06 Fuliang Weng Method and system for interactive conversational dialogue for cognitively overloaded device users
CN101042866A (zh) * 2006-03-22 2007-09-26 富士通株式会社 语音识别设备及方法,以及记录有计算机程序的记录介质
CN101064753A (zh) * 2006-04-28 2007-10-31 朗迅科技公司 未应答电话呼叫的电子邮件通知系统和方法
US20120179473A1 (en) * 2009-09-25 2012-07-12 Kabushiki Kaisha Toshiba Speech interactive apparatus and computer program product
US20110246190A1 (en) * 2010-03-31 2011-10-06 Kabushiki Kaisha Toshiba Speech dialog apparatus

Also Published As

Publication number Publication date
US20240096345A1 (en) 2024-03-21
US10891968B2 (en) 2021-01-12
CN107564519B (zh) 2022-03-15
CN103914234A (zh) 2014-07-09
US20140195249A1 (en) 2014-07-10
CN107564519A (zh) 2018-01-09
CN115793945A (zh) 2023-03-14
US20210118463A1 (en) 2021-04-22
EP2753054B1 (en) 2018-02-28
EP2753054A1 (en) 2014-07-09
KR20140089871A (ko) 2014-07-16
US11854570B2 (en) 2023-12-26
CN114360543B (zh) 2023-03-24

Similar Documents

Publication Publication Date Title
CN114360543B (zh) 交互服务器及其控制方法和交互系统
US20200260127A1 (en) Interactive server, display apparatus, and control method thereof
US9886952B2 (en) Interactive system, display apparatus, and controlling method thereof
KR102304052B1 (ko) 디스플레이 장치 및 그의 동작 방법
KR102056461B1 (ko) 디스플레이 장치 및 디스플레이 장치의 제어 방법
EP2713366B1 (en) Electronic device, server and control method thereof
KR101914708B1 (ko) 서버 및 서버의 제어 방법
US20140195230A1 (en) Display apparatus and method for controlling the same
KR20170032114A (ko) 음성 인식 장치 및 그의 제어방법
KR102084739B1 (ko) 대화형 서버, 디스플레이 장치 및 제어 방법
US20140123185A1 (en) Broadcast receiving apparatus, server and control methods thereof
US20130041666A1 (en) Voice recognition apparatus, voice recognition server, voice recognition system and voice recognition method
KR20140087717A (ko) 디스플레이 장치 및 제어 방법
CN103546763A (zh) 用于提供内容信息的方法和广播接收设备
CN108111922B (zh) 电子设备和用于更新其频道映射表的方法
KR101660269B1 (ko) 대화형 서버, 그 제어 방법 및 대화형 시스템
KR20140138011A (ko) 음성 인식 장치 및 그 제어 방법
KR102049833B1 (ko) 대화형 서버, 디스플레이 장치 및 그 제어 방법
KR20140137263A (ko) 대화형 서버, 디스플레이 장치 및 제어 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant