CN112331196A - 管理多个智能代理的电子设备及其操作方法 - Google Patents

管理多个智能代理的电子设备及其操作方法 Download PDF

Info

Publication number
CN112331196A
CN112331196A CN202010739478.1A CN202010739478A CN112331196A CN 112331196 A CN112331196 A CN 112331196A CN 202010739478 A CN202010739478 A CN 202010739478A CN 112331196 A CN112331196 A CN 112331196A
Authority
CN
China
Prior art keywords
voice
electronic device
processor
information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010739478.1A
Other languages
English (en)
Inventor
李允珠
余在永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN112331196A publication Critical patent/CN112331196A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/51Discovery or management thereof, e.g. service location protocol [SLP] or web services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本公开涉及管理多个智能代理的电子设备及其操作方法。一种被配置为支持第一基于语音的智能代理的电子设备可以包括:通信电路;处理器,其可操作地连接到通信电路;以及存储器,其可操作地连接到处理器。存储器存储指令,当指令被执行时使得处理器控制电子设备:通过通信电路,从用户终端接收语音数据;处理语音数据以生成文本数据;通过分析文本数据,识别旨在要被控制的设备;通过通信电路,从第一外部服务器接收关于由所识别的设备支持的智能代理的信息;以及基于关于由所识别的设备支持的智能代理的信息,确定是否将语音数据发送到支持第二基于语音的智能代理的第二外部服务器。

Description

管理多个智能代理的电子设备及其操作方法
技术领域
本公开涉及一种管理多个智能代理的电子设备及其操作方法。
背景技术
针对使用智能代理的电子设备的服务已经普及。智能代理可以通过控制功能地连接到电子设备的若干个外部设备来向用户提供集成功能。电子设备可以提供基于语音的智能代理服务,并且电子设备的用户可以使用用户的语音来执行电子设备的各种功能。
随着物联网(IoT)的应用的开始,在其中用户设备通过有线/无线网络相互连接以分享用户的生活环境中的信息,从而有可能使用诸如电视机、冰箱等各种电子设备,针对通过网络连接的其他外部设备执行语音识别。
在用户的生活环境中提供基于语音的智能代理功能的电子设备正在增加。在存在多个基于语音的智能代理的情况下,分别支持多个基于语音的智能代理的电子设备可以共存于用户的生活环境中。为了控制特定设备,用户应当使用由特定设备支持的基于语音的智能代理。换句话说,在基于异类语音的智能代理之间互锁可能是不行的。
发明内容
本公开的实施例提供了一种电子设备及其操作方法,所述电子设备及其操作方法可以通过以下操作控制旨在要由用户控制的设备:通过对接收到的语音命令(例如,话音)的处理来识别所述设备,并将语音数据发送到智能代理,所述智能代理能够基于所识别的设备的信息来控制所识别的设备。例如,即使在将语音命令输入到基于语音的智能代理的情况下,控制命令也可以被传送到支持基于异构语音的智能代理的设备。
根据本公开的各种示例实施例,一种被配置为支持第一基于语音的智能代理的电子设备可以包括:通信电路;处理器,所述处理器可操作地连接到所述通信电路;以及存储器,所述存储器可操作地连接到所述处理器。根据各种实施例,所述存储器存储指令,当所述指令被执行时,使得所述处理器控制所述电子设备:通过所述通信电路,从用户终端接收语音数据,处理所述语音数据以生成文本数据;通过分析所述文本数据,识别旨在要被控制的设备,通过所述通信电路,从第一外部服务器接收关于由所识别的设备支持的智能代理的信息,以及基于关于由所识别的设备支持的所述智能代理的所述信息,确定是否将所述语音数据发送到支持第二基于语音的智能代理的第二外部服务器。
根据本公开的各种示例实施例,一种被配置为支持第一基于语音的智能代理的电子设备可以包括:通信电路;处理器,所述处理器可操作地连接到所述通信电路;以及存储器,所述处理器可操作地连接到所述处理器。根据各种示例实施例,所述存储器存储关于在账户中注册的至少一个设备的信息和关于由所述至少一个设备支持的智能代理的信息,以及所述存储器存储指令,当所述指令被执行时,使得所述处理器控制所述电子设备:通过所述通信电路,从用户终端接收语音数据;处理所述语音数据以生成文本数据;通过分析所述文本数据,识别旨在要被控制的设备;基于所述存储器中存储的关于在所述账户中注册的所述至少一个设备的信息和关于由所述至少一个设备支持的智能代理的信息,识别关于由所识别的设备支持的智能代理的信息;基于所识别的信息,确定是否通过所述通信电路将所述语音数据发送到支持第二基于语音的智能代理的外部服务器。
根据本公开的各种示例实施例,一种被配置为支持第一基于语音的智能代理的电子设备可以包括:通信电路;麦克风;处理器,所述处理器可操作地连接到所述通信电路和所述麦克风;以及存储器,所述存储器可操作地连接到所述处理器。根据各种实施例,所述存储器被配置为存储关于在账户中注册的至少一个设备的信息和关于由所述至少一个设备支持的智能代理的信息,以及所述存储器存储指令,当所述指令被执行时,使得所述处理器控制所述电子设备:通过所述麦克风,接收语音数据;处理所述语音数据以生成文本数据;通过分析所述文本数据,识别旨在要被控制的设备;基于在所述存储器中存储的关于在所述账户中注册的所述至少一个设备的信息和关于由所述至少一个设备支持的所述智能代理的信息,识别关于由所识别的设备支持的智能代理的信息;以及基于关于由所识别的设备支持的智能代理的信息,确定是否通过所述通信电路将所述语音数据发送到支持第二基于语音的智能代理的外部电子设备。
根据本公开的各种示例实施例的电子设备可以通过以下操作控制旨在要由用户控制的设备:通过对接收到的语音命令(例如,话音)的处理来识别所述设备,并将语音数据发送到智能代理,所述智能代理能够基于所识别的设备的信息来控制所识别的设备。例如,即使在将语音命令输入到基于语音的智能代理的情况下,控制命令也可以被传送到支持基于异构语音的智能代理的设备。
附图说明
通过以下结合附图的详细描述,本公开的某些实施例的上述和其他方面、特征和优点将变得更加明显,其中:
图1是示出根据实施例的示例集成智能系统的框图;
图2是示出根据实施例的将概念-动作关系信息存储在数据库中的示例形式的图;
图3是示出根据实施例的示例用户终端的示图,该示例用户终端显示用于处理通过智能应用(app)接收的语音输入的屏幕;
图4是示出根据实施例的用于支持各种基于语音的智能代理的示例环境的图;
图5是示出根据实施例的用于使用支持第一基于语音的智能代理的用户终端来控制支持第二基于语音的智能代理的电子设备的示例环境的图;
图6是示出根据实施例的在用户终端、第一智能服务器和第二智能服务器之间的示例操作环境的框图;
图7是示出根据实施例的在第一用户终端与第二用户终端之间的示例操作环境的框图;
图8是示出根据实施例的第一智能服务器的示例操作的流程图;
图9是示出根据实施例的第一智能服务器的示例操作的流程图;
图10是示出根据实施例的在用户终端、第一智能服务器、IoT服务器和第二智能服务器之间的示例操作的信号流程图;
图11是示出根据实施例的在用户终端、第一智能服务器和第二智能服务器之间的示例操作的信号流程图;
图12是示出根据实施例的在第一用户终端与第二用户终端之间的示例操作的信号流程图;
图13是示出根据实施例的用于通过支持第一基于语音的智能代理的用户终端来控制支持第二基于语音的智能代理的电子设备的示例环境的图;
图14是示出根据实施例的用于通过支持第一基于语音的智能代理的用户终端来控制支持第二基于语音的智能代理的电子设备的示例环境的图;
图15是示出根据实施例的用于通过支持第一基于语音的智能代理的用户终端来控制支持第二基于语音的智能代理的电子设备的示例环境的图;以及
图16是示出根据实施例的在网络环境中的示例电子设备的框图。
关于附图的描述,相同或相似的附图标记可以用于相同或相似的组成元件。
具体实施方式
图1是示出根据实施例的示例集成智能系统的框图。
参照图1,根据实施例的集成智能系统可以包括用户终端100、智能服务器200和服务服务器300。
根据实施例的用户终端100可以是能够连接到互联网的终端设备(或电子设备),并且可以包括例如移动电话、智能电话、个人数字助理(PDA)、笔记本电脑、电视、白色家电、可穿戴设备、头戴式设备(HMD)或智能扬声器。
根据实施例,用户终端100可以包括通信接口110、麦克风120、扬声器130、显示器140、存储器150或处理器160。已列出的元件可以彼此可操作地连接或电连接。
根据实施例的通信接口110可以连接到外部设备并且被配置为发送和接收数据。根据实施例的麦克风120可以接收声音(例如,用户语音)并将其转换为电信号。根据实施例的扬声器130可以以声音(例如,语音)的形式输出电信号。根据实施例的显示器140可以被配置为显示图像或视频。根据实施例的显示器140可以显示所运行的app(或应用)的图形用户界面(GUI)。
根据实施例的存储器150存储客户端模块151、软件开发套件(SDK)153和多个app155。客户端模块151和SDK 153可以配置用于执行通用功能的框架(或方案程序)。此外,客户端模块151或SDK 153可以配置用于处理语音输入的框架。
多个app 150可以是用于执行预定功能的程序。根据实施例,多个app155可以包括第一app 155_1和第二app 155_3。根据实施例,多个app 155中的每个可以包括用于执行预定功能的多个操作。例如,这些app可以包括闹钟app、消息app和/或日程app。根据实施例,多个app 155可以由处理器160执行,以便顺序地执行多个操作中的至少一些。
根据实施例的处理器160可以控制用户终端100的整体操作。例如,处理器160可以电连接到通信接口110、麦克风120、扬声器130和显示器140以执行预定的操作。
根据实施例的处理器160可以通过运行存储在存储器150中的程序来执行预定功能。例如,处理器160可以通过运行客户端模块151或SDK 153中的至少一个来执行以下用于处理语音输入的操作。处理器160可以通过SDK 153控制例如多个app 155的操作。作为客户端模块151或SDK 153的操作的以下操作可以由处理器160执行。
根据实施例的客户端模块151可以接收语音输入。例如,客户端模块151可以接收与通过麦克风120检测到的用户语音相对应的语音信号。客户端模块151可以将接收到的语音输入发送到智能服务器200。客户端模块151可以将用户终端100的状态信息以及接收到的语音输入发送到智能服务器200。状态信息可以是例如app的执行状态信息。
根据实施例的客户端模块151可以接收与所接收的语音输入相对应的结果。例如,如果智能模块200获得与接收到的语音输入相对应的结果,则客户端模块151可以接收与接收到的语音输入相对应的结果。客户端模块151可以在显示器140上显示接收到的结果。
根据实施例的客户端模块151可以接收与所接收的语音输入相对应的计划。客户端模块151可以根据计划在显示器140上显示通过执行app的多个操作获得的结果。客户端模块151可以在显示器上顺序地显示例如多个操作的执行结果。在另一示例中,用户终端100可以在显示器上仅显示多个操作的一些结果(仅最后操作的结果)。
根据实施例,客户端模块151可以从智能服务器200接收用于获取信息的请求,该信息被需要用于获得与语音输入相对应的结果。根据实施例,客户端模块151可以响应于该请求将所需信息发送到智能服务器200。
根据实施例的客户端模块151可以根据计划将多个操作的执行的结果信息发送到智能服务器200。智能服务器200可以使用该结果信息来识别接收到的语音输入被正确地处理。
根据实施例的客户端模块151可以包括语音识别模块。根据实施例,客户端模块151可以通过语音识别模块来识别用于执行受限功能的语音输入。例如,客户端模块151可以执行用于处理语音输入的智能app,以通过预定输入(例如,唤醒!)执行有机操作。
根据实施例的智能服务器200可以通过通信网络从用户终端100接收与用户语音输入相关的信息。根据实施例,智能服务器200可以将与接收到的语音输入相关的数据改变为文本数据。根据实施例,智能服务器200可以基于文本数据生成用于执行与用户语音输入相对应的任务的计划。
根据实施例,该计划可以由人工智能(AI)系统生成。智能系统可以是基于规则的系统、基于神经网络的系统(例如,前馈神经网络(FNN)或递归神经网络(RNN))。替代地,智能系统可以是上述系统的组合或与上述系统不同的智能系统。根据实施例,该计划可以从预定义计划的组合中选择或者响应于用户请求而实时地生成。例如,智能系统可以从多个预定计划中选择至少一个计划。
根据实施例的智能服务器200可以将生成的计划的结果发送到用户终端100,或者可以将生成的计划发送到用户终端100。根据实施例,用户终端200可以将计划的结果显示在显示器上。根据实施例,用户终端100可以在显示器上显示根据计划的操作结果。
根据实施例的智能服务器200可以包括前端210、自然语言平台220、胶囊数据库(DB)230、执行引擎240和终端用户界面250、管理平台260、大数据平台270或分析平台280。
根据实施例,前端210可以接收从用户终端100接收到的语音输入。前端210可以发送对语音输入的响应。
根据实施例,自然语言平台220可以包括自动语音识别模块(ASR模块)221、自然语言理解(NLU)模块223、计划器模块225、自然语言生成器(NLG)模块227或文本到语音(TTS)模块229。
根据实施例的自动语音识别模块221可以将从用户终端100接收到的语音输入转换为文本数据。根据实施例的自然语言理解模块223可以基于语音输入的文本数据来检测用户的意图。例如,自然语言理解模块223可以通过执行语法分析或语义分析来检测用户的意图。根据实施例的自然语言理解模块223可以基于词素或短语(例如,语法元素)的语言特性来检测从语音输入中提取的词的含义,并且匹配检测到的词的含义和意图,以确定用户的意图。
根据实施例的计划器模块225可以基于由自然语言理解模块223确定的意图和参数来生成计划。根据实施例,计划器模块225可以基于所确定的意图来确定执行任务所需的多个域。计划器模块225可以确定基于意图而确定的多个域中包括的多个操作。根据实施例,计划器模块225可以确定执行多个确定的操作所需的参数或通过执行多个操作输出的结果值。可以通过预定类型(或类)的概念来定义参数和结果值。根据实施例,该计划可以包括由用户的意图和多个概念确定的多个操作。计划器模块225可以逐渐地(或分层地)确定多个操作与多个概念之间的关系。例如,计划器模块225可以基于多个概念来确定基于用户的意图而确定的多个操作的执行顺序。换句话说,计划器模块225可以基于执行多个操作所需的参数和通过执行多个操作输出的结果来确定多个操作的执行顺序。因此,计划器模块225可以生成包括关于多个操作与多个概念之间的关系(本体论)的信息的计划。计划器模块225可以基于存储在胶囊数据库230中的信息来生成计划,该信息存储概念与操作之间的一组关系。
根据实施例的自然语言生成器模块227可以将预定信息转换为文本形式。转换为文本形式的信息可以是自然语言语音的形式。文本到语音模块229可以将文本形式的信息转换成语音形式的信息。
根据实施例,自然语言平台220的一些或全部功能也可以由用户终端100来实现。
胶囊数据库230可以存储关于多个概念与对应于多个域的操作之间的关系的信息。根据实施例的胶囊可以包括多个操作对象(动作对象或动作信息)和概念对象(或概念信息)。根据实施例,胶囊数据库230可以以概念动作网络(CAN)的形式存储多个胶囊。根据实施例,多个胶囊可以被存储在胶囊数据库230中包括的功能注册表中。
胶囊数据库230可以包括策略注册表,该策略注册表存储当确定与语音输入相对应的计划时所需的策略信息。当存在与语音输入相对应的多个计划时,策略信息可以包括用于确定一个计划的参考信息。根据实施例,胶囊数据库230可以包括后续注册表,该后续注册表存储以下操作以在预定情况下向用户建议后续操作。后续操作可以包括例如接下来的语音。根据实施例,胶囊数据库230可以包括布局注册表,该布局注册表存储与通过用户终端100输出的信息相对应的布局信息。根据实施例,胶囊数据库230可以包括词汇表注册表,该词汇表注册表存储胶囊信息中包括的词汇信息。根据实施例,胶囊数据库230可以包括对话注册表,该对话注册表存储与用户的对话(或交互)信息。胶囊数据库230可以通过开发者工具更新所存储的对象。开发者工具可以包括功能编辑器用于更新例如操作对象或概念对象。开发者工具可以包括词汇表编辑器用于更新词汇表。开发者工具可以包括策略编辑器用于生成和注册策略以确定计划。开发者工具可以包括对话编辑器用于生成与用户的对话。开发者工具可以包括后续编辑器,用于激活后续目标并编辑接下来的提供提示的语音。可以基于当前目标、用户的偏好或环境条件来确定后续目标。根据实施例,胶囊数据库230可以在用户终端100内部实现。
根据实施例的执行引擎240可以基于所生成的计划来获得结果。终端用户界面250可以将获得的结果发送给用户终端100。因此,用户终端100可以接收结果并将接收到的结果提供给用户。根据实施例的管理平台260可以管理由智能服务器200使用的信息。根据实施例的大数据平台270可以收集用户数据。根据实施例的分析平台280可以管理智能服务器200的服务质量(QoS)。例如,分析平台280可以管理智能服务器200的元素和处理速度(或效率)。
根据实施例的服务服务器300可以向用户终端100提供预定的服务(例如,食物订购或旅馆预订)。根据实施例,服务服务器300可以是由第三方运行的服务器。根据实施例的服务服务器300可以向智能服务器200提供用于生成与接收到的语音输入相对应的计划的信息。所提供的信息可以被存储在胶囊数据库230中。此外,服务服务器300可以向智能服务器200提供该计划的结果信息。
在上述集成智能系统10中,用户终端100可以响应于用户输入向用户提供各种智能服务。用户输入可以包括例如通过物理按钮的输入、触摸输入或语音输入。
根据实施例,用户终端100可以通过存储在用户终端100中的智能app(或语音识别app)来提供语音识别服务。在这种情况下,例如,用户终端100可以识别通过麦克风接收的用户语音(话音)或语音输入,并向用户提供与识别出的语音输入相对应的服务。
根据实施例,用户终端100可以基于接收到的语音输入与智能服务器和/或服务服务器一起执行预定操作。例如,用户终端100可以执行与所接收的语音输入相对应的app,并且通过所执行的app来执行预定操作。
根据实施例,当用户终端100与智能服务器200和/或服务服务器一起提供服务时,用户终端可以通过麦克风120检测用户语音并生成与检测到的用户语音对应的信号(或语音数据)。用户终端可以通过通信接口110将语音数据发送到智能服务器200。
根据实施例的智能服务器200可以响应于从用户终端100接收到的语音输入,生成用于执行与语音输入对应的任务的计划,或根据该计划的操作的结果。该计划可以包括例如用于执行与用户的语音输入相对应的任务的多个操作以及与该多个操作相关的多个概念。这些概念可以是输入以执行多个操作的参数,或者可以被定义为用于通过执行多个操作而输出的结果值。该计划可以包括多个操作与多个概念之间的关系。
根据实施例的用户终端100可以通过通信接口110接收响应。用户终端100可以通过扬声器130将由用户终端100生成的语音信号输出到外部,或者通过显示器140向外部输出由用户终端100生成的图像。
图2是示出根据各种实施例的将关于概念与操作之间的关系存储在数据库中的示例形式的图。
智能服务器200的胶囊数据库(例如,胶囊数据库230)可以以概念动作网络(CAN)的形式存储胶囊。胶囊数据库可以以概念动作网络(CAN)的形式存储用于处理与用户语音输入相对应的任务的操作和该操作所需的参数。
胶囊数据库可以存储与多个域(例如,应用)相对应的多个胶囊(胶囊A 401和胶囊B 404)。根据实施例,一个胶囊(例如,胶囊A 401)可以对应于一个域(例如,位置(地理位置)或应用)。此外,一个胶囊可以对应于至少一个服务提供商(例如,CP#1 402和CP#2403),用于执行与胶囊相关的域的功能。根据实施例,一个胶囊可以包括用于执行预定功能的一个或更多个操作410和一个或更多个概念420。
自然语言平台220可以通过胶囊数据库中存储的胶囊生成用于执行与接收到的语音输入相对应的任务的计划。例如,自然语言平台的计划器模块225可以通过存储在胶囊数据库中的胶囊来生成计划。例如,可以使用胶囊A 401的操作4011和4013以及概念4012和4014以及胶囊B 404的操作4041和概念4042来生成计划407。
图3是示出根据各种实施例的示例屏幕的图,用户终端在示例屏幕上处理接收到的通过智能app的语音输入。
用户终端100可以执行智能app,以便处理通过智能服务器200的用户输入。
根据实施例,在屏幕310中,当识别预定语音输入(例如,唤醒!)或通过硬件键(例如,专用硬件键)接收输入时,用户终端100可以执行用于处理语音输入的智能app。用户终端100可以在例如日程app被执行的状态下执行智能app。根据实施例,用户终端220可以在显示器140上显示与智能app相对应的对象311(例如,图标)。根据实施例,用户终端100可以接收通过用户语音输入的语音。例如,用户终端100可以接收语音输入“让我知道我本周的日程安排!”。根据实施例,用户终端100可以在显示器上显示智能app显示接收到的语音输入的文本数据的用户界面(UI)313(例如,输入窗口)。
根据实施例,在屏幕320中,用户终端100可以在显示器上显示与所接收的语音输入相对应的结果。例如,用户终端100可以接收与所接收的用户输入相对应的计划,并且根据该计划在显示器上显示“本周日程”。
图4是示出根据实施例的用于支持各种基于语音的智能代理的示例环境的图。
参照图4,根据各种实施例,支持各种基于语音的智能代理的设备可以例如在用户的生活环境中共存。基于语音的智能代理可以是例如通用术语调用软件,其基于语音识别执行具有自治性和预定级别的独立性的一系列操作。基于语音的智能代理可以表示为例如基于语音的智能助手、AI语音助手或智能虚拟助手。
根据本公开的实施例,第一用户终端100a、第二用户终端100b、第一电子设备41、第二电子设备43和第三电子设备45可以对应于例如各种互联网-可连接的终端设备,例如但不限于,语音识别扬声器(或AI扬声器)、智能电话、个人数字助理(PDA)、笔记本计算机和应用了IoT技术的电子设备(例如,智能电视、智能冰箱、智能灯或智能空气净化器)。
根据本公开的实施例,第一用户终端100a、第二用户终端100b、第一电子设备41、第二电子设备43和第三电子设备45可以通过存储在其中的相应的app(或应用)提供用户所需的服务。例如,第一用户终端100a和第二用户终端100b可以通过存储在其中的基于语音的智能代理服务(或语音识别应用)来接收用于控制外部电子设备的用户输入。可以通过例如物理按钮、触摸板、语音输入或远程输入来接收用户输入。例如,第一用户终端100a和第二用户终端100b可以接收用户的话语,并且可以生成与用户的话语相对应的语音数据。第一用户终端100a可以将生成的语音数据发送到第一智能服务器。第二用户终端100b可以将所生成的语音数据发送到第二智能服务器。第一用户终端100a和第二用户终端100b可以使用蜂窝网络或局域网(例如,Wi-Fi或LAN)将所生成的语音数据发送到第一智能服务器和第二智能服务器。
为了便于说明,以非限制性示例的方式假设第一用户终端100a是支持第一基于语音的智能代理的用户终端,并且第二用户终端100b是支持与第一基于语音的智能代理不同的第二基于语音的智能代理的用户终端。假设第一电子设备41支持第一基于语音的智能代理和第二基于语音的智能代理,第二电子设备43仅支持第二基于语音的智能代理,第三电子设备45仅支持第一个基于语音的智能代理。
为了控制第二电子设备43,用户可以选择支持第二基于语音的智能代理的第二用户终端100b,并且可以将用于控制第二电子设备43的语音命令输入到第二用户终端100b。为了控制第三电子设备45,用户可以选择支持第一基于语音的智能代理的第一用户终端100a,并且可以将用于控制第三电子设备45的语音命令输入到第一用户终端100a。
根据本公开的各种实施例,如果用户的语音命令被传递到某个用户终端,则用户终端可以生成与该用户的语音命令相对应的语音数据。用户终端可以将语音数据发送到与用户终端支持的基于语音的智能代理相关的智能服务器。智能服务器可以确定语音数据是否是可以由基于语音的智能代理处理的语音数据。如果基于语音的智能代理可以处理语音数据,则智能服务器可以处理语音数据。如果基于语音的智能代理无法处理语音数据,则智能服务器可以将语音数据传输到与可以处理语音数据的另一个基于语音的智能代理相关的智能服务器。
例如,在用户将用于控制第二电子设备43的语音命令输入到第一用户终端100a的情况下,第一用户终端100a所支持的第一基于语音的智能代理可能无法直接控制支持第二基于语音的智能代理的第二电子设备43。在这种情况下,第一基于语音的智能代理可以将用户的语音命令发送到第二基于语音的智能代理,以使第二基于语音的智能代理控制第二电子设备43。可以提供一种系统,该系统能够使用一个基于语音的智能代理为用户控制用户生活环境中的所有电子设备。
图5是示出根据实施例的用于使用支持第一基于语音的智能代理的用户终端来控制支持第二基于语音的智能代理的电子设备的示例环境的图。
参照图5,为了便于说明,以非限制性示例的方式假设用户终端100支持第一基于语音的智能代理,并且电子设备40支持第二基于语音的智能代理。
根据本公开的实施例,用户终端100可以通过麦克风接收用于执行第一基于语音的智能代理的唤醒话音。例如,如果通过麦克风输入了预先指定的语音(例如“嗨Bixby”),则用户终端100可以执行(调用)第一基于语音的智能代理。输入唤醒话音后,用户终端100可以接收各种类型的用户的语音命令。用户终端100可以将接收到的用户的语音命令处理为语音数据。例如,用户终端100可以通过预处理针对接收到的用户的语音命令的各种操作(诸如去除接收到的用户的语音命令中包括的回声的操作、去除语音命令中包括的背景噪声的操作、调整语音命令中包括的音量的操作),生成与用户的语音命令相对应的语音数据。用户终端100可以将语音数据发送到支持第一基于语音的智能代理的第一智能服务器200。
根据实施例的第一智能服务器200可以包括通信电路、存储器和/或处理器。第一智能服务器200还可以包括图1的智能服务器200中包括的全部或部分配置。第一智能服务器200中包括的各个平台可以在第一智能服务器200的处理器的控制下运行。
根据实施例,第一智能服务器200可以处理接收到的语音数据以生成文本数据。例如,第一智能服务器200可以处理从用户终端100接收到的语音数据,以通过自动语音识别(ASR)模块(例如,自动语音识别模块221)来生成文本数据。例如,自动语音识别模块可以包括话音识别模块。话音识别模块可以包括声学模型和语言模型。例如,声学模型可以包括与发声相关的信息,并且语言模型可以包括单位音素信息和关于单位音素信息的组合的信息。话音识别模块可以使用与语音相关的信息和单位音素信息将用户的话音转换为文本数据。关于声学模型和语言模型的信息可以存储在自动语音识别数据库(ASR DB)中。
根据实施例,第一智能服务器200可以通过分析文本数据来确定用户的意图和与该用户的意图相对应的操作。例如,第一智能服务器200可以通过自然语言理解模块(例如,图1的自然语言理解模块223)来处理文本数据。自然语言理解模块可以通过分析经处理的文本数据来确定用户的语音命令的域和意图以及掌握该意图所需的参数。例如,一个域(例如,咖啡馆)可以包括多个意图(例如,咖啡订单和咖啡订单取消),并且一个意图可以包括多个参数(例如,冰美式咖啡和拿铁咖啡)。
根据实施例,第一智能服务器200可以通过处理文本数据来确定域。域可以指的是例如应当处理输入用户的语音命令的应用或胶囊。域可以指的是例如应当处理输入用户的语音命令的设备。
根据实施例,第一智能服务器200可以通过分析文本数据来识别旨在由用户控制的设备。第一智能服务器200可以通过例如自然语言理解模块处理文本数据以足够来确定域。第一智能服务器200可以通过处理文本数据来确定域,并且可以基于所确定的域来识别旨在要由用户控制的设备。根据实施例,第一智能服务器200可以通过对接收到的语音数据的域进行分类来识别要被控制的设备。例如,参照图5,第一智能服务器200可以识别旨在要由用户控制的设备是电子设备40。通过非限制性示例的方式,假设用户的语音命令是“打开电视(TV)”。在这种情况下,第一智能服务器200可以处理与用户的语音命令相对应的文本数据,并且可以确定用户的语音命令的域是“TV”。因此,第一智能服务器200可以识别旨在由用户控制的设备是“TV”。即使第一智能服务器200没有执行完整的自然语言理解过程(确定用户的意图和参数),它也可以识别要被控制的设备。
根据实施例,第一智能服务器200可以从物联网(IoT)服务器500接收关于由所识别的设备支持的智能代理的信息。例如,IoT服务器500可以存储在用户的账户中注册的至少一个电子设备的设备信息、关于由至少一个设备支持的智能代理的信息以及用户信息。例如,IoT服务器500可以存储用户账户中存储的电子设备的设备信息,以及关于由电子设备支持的智能代理的信息。例如,参照图5,第一智能服务器200可以识别旨在要由用户控制的电子设备40支持第二基于语音的智能代理。
根据实施例,第一智能服务器200可以从IoT服务器500请求关于所识别的设备支持的智能代理的信息,并且可以接收关于所识别的设备支持的智能代理的信息。根据实施例,第一智能服务器200可以从IoT服务器500预先接收并且存储关于在用户账户中注册的至少一个设备的信息和关于由至少一个设备支持的智能代理的信息,以及可以基于该信息来识别关于由所识别的设备支持的智能代理的信息。
根据实施例,第一智能服务器200可以基于关于所识别的设备支持的智能代理的信息,确定是否将用户的语音数据发送到支持第二基于语音的智能代理的第二智能服务器600。
例如,第一智能服务器200可以确定由于电子设备40支持的智能代理是第二基于语音的智能代理,因此第一智能服务器200无法直接控制电子设备40,而第二智能服务器600可以控制电子设备40。在这种情况下,第一智能服务器200可以将用户的语音数据发送到支持第二基于语音的智能代理的第二智能服务器600。根据实施例,第一智能服务器200可以将通过处理用户的语音数据而获得的文本数据发送到第二智能服务器600。根据实施例,第二智能服务器600可以通过处理接收到的用户的语音数据来控制电子设备40满足用户的意图。
例如,如果由电子设备40支持的智能代理是第一基于语音的智能代理,并非是第二基于语音的智能代理,则第一智能服务器200可以确定其可以直接控制电子设备40。在这种情况下,第一智能服务器200可以确定其没有将用户的语音数据发送给第二智能服务器600。在这种情况下,除了域之外,第一智能服务器200还可以通过处理文本数据来确定用户的意图和参数。例如,第一智能服务器200可以通过自然语言理解模块通过对文本数据执行句法分析或语义分析来确定用户的意图。句法分析可以将文本数据划分为句法单元(例如,词、短语或语素),并且可以掌握该划分单元具有什么句法元素。可以使用语义匹配、规则匹配或公式匹配来执行语义分析。第一智能服务器200可以确定用于区分与对应于文本数据的意图匹配的服务的域、意图以及掌握该意图所需的参数。第一智能服务器200可以识别通过自然语言理解确定的用户意图以及适合于该用户意图的操作,并且可以识别执行所识别的操作所需的参数。第一智能服务器200可以基于该参数来执行与用户意图相对应的操作。例如,第一智能服务器200可以控制电子设备40以满足用户的意图。
在下文中,参照图5,将描述使用用户终端100控制电子设备40的示例场景。
根据本公开的示例实施例,支持第一基于语音的智能代理的用户终端100可以通过麦克风接收唤醒话音以执行第一基于语音的智能代理。在输入唤醒话音之后,用户终端100可以从用户接收语音命令“在电视上向我显示频道指南”。
根据示例实施例,用户终端100可以将接收到的语音命令处理为语音数据,并且可以将语音数据发送到支持第一基于语音的智能代理的第一智能服务器200。
根据示例实施例,第一智能服务器200可以处理接收到的语音数据以生成文本数据。
根据示例实施例,第一智能服务器200可以通过分析文本数据来识别旨在要由用户控制的设备是“TV”。例如,第一智能服务器可以通过处理文本数据来将域确定为“TV”,并且可以基于所确定的域来识别要被控制的设备是“TV”。
根据示例实施例,第一智能服务器200可以从IoT服务器500接收关于“TV”的信息(例如,设备信息)和关于由“TV”支持的智能代理的信息。智能服务器200可以从IoT服务器500接收通知“TV”支持第二基于语音的智能代理的信息。
根据示例实施例,响应于“TV”支持第二基于语音的智能代理的情况,第一智能服务器200可以确定将用户的语音数据发送到支持第二基于语音的智能代理的第二智能服务器600。例如,第一智能服务器200可以将用户的语音数据发送到第二智能服务器600。根据实施例,第一智能服务器200可以将处理后的文本数据发送到第二智能服务器600。
根据示例实施例,第二智能服务器600可以通过处理用户的语音数据来确定用户的意图和与该意图相对应的操作,并且可以向电子设备40发送控制命令以显示频道指南,从而该操作可以由与“TV”相对应的电子设备40来执行。例如,第二智能服务器600可以通过深层链接向电子设备40发送控制命令以显示频道指南。
根据示例实施例,电子设备40可以基于接收到的控制命令来显示频道指南。
图6是示出根据实施例的在用户终端、第一智能服务器和第二智能服务器之间的示例操作环境的框图。
参照图6,根据本公开的实施例的用户终端100可以通过麦克风接收用户的唤醒话音以执行第一基于语音的智能客户端101。响应于接收到唤醒话音,可以调用第一基于语音的智能代理。在第一基于语音的智能代理被调用之后,用户终端100可以从用户接收语音命令。用户终端100可以将接收到的语音命令处理为语音数据。用户终端100可以将语音数据发送到支持第一基于语音的智能代理的第一智能服务器200。
根据实施例的数据库235可以匹配并存储关于在用户账户中注册的至少一个设备的信息以及关于由至少一个设备支持的智能代理的信息。
根据实施例的第一智能服务器200可以包括自动语音识别模块(例如,包括处理电路和/或可执行程序元素)221、多智能代理确定模块(例如,包括处理电路和/或可执行程序元素)290、多智能代理接口模块(例如,包括处理电路和/或可执行程序元素)291、第一自然语言理解模块(例如,包括处理电路和/或可执行程序元素)223和数据库235。自动语音识别模块221、多智能代理确定模块290、多智能代理接口模块291和第一自然语言理解模块223可以是存储在第一智能服务器200的存储器(未示出)中的软件模块,并且可以在处理器的控制下操作。根据各种实施例,存储器可以存储用于第一智能服务器200的处理器的操作的各种指令。第一智能服务器200还可以包括图1的智能服务器200中包括的配置的全部或一部分。如上所述,将省略与以上参照图5描述的内容重叠的内容。根据实施例,第一智能服务器200的自动语音识别模块221可以处理用户的语音数据以生成文本数据。自动语音识别模块221可以将处理后的文本数据发送到多智能代理确定模块290。
根据实施例的多智能代理确定模块290可以是如下模块:该模块确定用户的语音数据是否能够由第一基于语音的智能代理通过处理文本数据而被处理。多智能代理确定模块290可以例如通过处理文本数据来识别旨在要由用户控制的设备。多智能代理确定模块290可以从数据库235中识别出关于所识别的设备的信息以及关于由所识别的设备支持的智能代理的信息。例如,根据实施例的多智能代理确定模块290可以是如下模块:该模块仅执行确定通过自然语言理解模块正在处理的自然语言理解处理操作中的域的操作。域可以是指例如应当处理已输入的用户的语音命令的应用或胶囊,或应当处理已输入的用户的语音命令的设备。多智能代理确定模块290可以基于例如关于由所识别的设备支持的智能代理的信息,确定是否将用户的语音数据发送到支持第二基于语音的智能代理的第二智能服务器600。根据实施例,多智能代理确定模块290可以是例如识别旨在要由用户控制的设备的模块。
例如,如果所识别的设备支持第一基于语音的智能代理,则多智能代理确定模块290可以确定不向第二智能服务器600发送用户的语音数据,并且可以确定第一智能服务器200处理用户的语音数据。多智能代理确定模块290可以将文本数据发送到第一自然语言理解模块223。第一自然语言理解模块223可以基于确定的参数来确定与用户的意图相对应的操作。第一智能服务器200可以将用于使所识别的设备执行所确定的操作的控制命令发送到所识别的设备。
例如,如果所识别的设备支持第二基于语音的智能代理,则多智能代理确定模块290可以确定将用户的语音数据发送给第二智能服务器600。在这种情况下,第一智能服务器200的处理器可以将用户的语音数据发送到第二智能服务器600。根据实施例,第一智能服务器200的处理器可以将处理后的文本数据发送到第二智能服务器600。
根据实施例的第二智能服务器600可以处理从第一智能服务器200接收的用户的语音数据,以通过自动语音识别模块610生成文本数据。如果从第一智能服务器200接收到文本数据,则可以省略上述操作。根据实施例的第二智能服务器600可以通过由第二自然语言理解模块620处理文本数据来确定用户的意图和与该意图相对应的参数,并且可以基于该参数来确定与用户的意图相对应的操作。根据实施例,第二智能服务器600可以将用于使所识别的设备执行所确定的操作的控制命令发送到所识别的设备。
根据实施例,第一智能服务器200可以通过多智能代理接口模块291与第二智能服务器600发送和接收各种消息。根据实施例,第一智能服务器200可以从第二智能服务器600接收包括附加问题的消息。在这种情况下,第一智能服务器200可以向用户终端发送包括附加问题的消息,并且可以从用户终端100接收对附加问题的响应消息。
图7是示出根据实施例的在第一用户终端和第二用户终端之间的示例操作环境的框图。
参照图7,假定第一用户终端70支持第一基于语音的智能代理,并且第二用户终端80支持第二基于语音的智能代理。将省略与上面参照图5和图6所述的内容重叠的内容的描述。
根据实施例的第一用户终端70可以包括第一基于语音的智能代理客户端710、自然语言平台(例如,包括处理电路和/或可执行程序元素)720、多智能代理接口模块(例如,包括处理电路和/或可执行程序元素)730、数据库740(例如,图1的存储器150)、麦克风(未示出)(例如,图1的麦克风120)、显示器(未示出)(例如,图1的显示器140)、扬声器(未示出)(例如,图1的扬声器130)、通信电路(未示出)(例如,图1的通信接口110)、存储器(未示出)(例如,图1的存储器150)或处理器(未示出)(例如,图1的处理器160)。自然语言平台720可以包括例如自动语音识别模块(ASR)(例如,包括处理电路和/或可执行程序元素)721、自然语言理解模块(NLU)(例如,包括处理电路和/或可执行程序元素)723,以及文本到语音模块(TTS)(例如,包括处理电路和/或可执行程序元素)725。
根据实施例的第二用户终端80可以包括第二基于语音的智能代理客户端810、自然语言平台(例如,包括处理电路和/或可执行程序元素)820、多智能代理接口模块(例如,包括处理电路和/或可执行程序元素)830、数据库840、通信电路(未示出)或处理器(未示出)。自然语言平台820可以包括例如自动语音识别模块(ASR)(例如,包括处理电路和/或可执行程序元素)821、自然语言理解模块(NLU)(例如,包括处理电路和/或可执行程序元素)823,以及文字到语音模块(TTS)(例如,包括处理电路和/或可执行程序元素)825。第一用户终端70的自然语言理解模块723和第二用户终端80的自然语言理解模块823可以是彼此不同的自然语言理解模块。
根据实施例,第一用户终端70的数据库740和第二用户终端80的数据库840可以存储在第一基于语音的智能代理中注册的设备信息750和在第二基于语音的智能代理中注册的设备信息850。例如,第一用户终端70和第二用户终端80可以一体地存储关于在第一基于语音的智能代理中注册的至少一个设备的信息和关于在第二基于语音的智能代理中注册的至少一个设备的信息。
根据实施例,第一用户终端70可以通过麦克风来接收用户的语音数据。
根据实施例,第一用户终端70可以处理接收到的语音数据以生成文本数据。
根据实施例,第一用户终端70可以通过分析文本数据来识别旨在要由用户控制的设备。
根据实施例,第一用户终端70可以识别关于在预存储的用户账户中注册的至少一个设备的信息以及关于由至少一个设备支持的智能代理的信息。根据实施例,第一用户终端70可以基于关于由所识别的设备支持的智能代理的信息,确定是否将用户的语音数据发送到支持第二基于语音的智能代理的第二用户终端80。
例如,如果所识别的设备支持第二基于语音的智能代理,则第一用户终端70可以通过通信电路将用户的语音数据发送到第二用户终端80。例如,如果所识别的设备支持第一基于语音的智能代理,则第一用户终端70可以通过自然语言平台720来处理文本数据。
根据实施例,在第一基于语音的智能代理中注册的设备信息750和在第二基于语音的智能代理中注册的设备信息850可以包括例如关于注册的设备的名称(例如,注册的名称)和注册设备支持的智能代理的信息。在这种情况下,即使在第一基于语音的智能代理中注册的同一设备的名称与在第二基于语音的智能代理中注册的名称不同,也可以基于所存储的信息来改变设备名称。例如,在一个电子设备在第一基于语音的智能代理中被注册为“主卧室电视(TV)”,而在第二基于语音的智能代理中将其注册为“大电视”的状态下,即使在第一用户终端70中接收到语音命令“打开大电视”,第一用户终端70也可以识别旨在要由用户控制的设备是“主卧室电视”。根据实施例,即使从用户输入了相同设备的注册的设备名称中的任何一个,第一用户终端70和第二用户终端80也可以准确地识别旨在要由用户控制的设备。
根据实施例,第一用户终端70和第二用户终端80可以通过多智能代理接口模块730和830彼此发送和接收各种消息。根据实施例,第一用户终端70可以从第二用户终端80接收包括附加问题的消息。
图8是示出根据实施例的第一智能服务器(例如,图5的第一智能服务器200)的示例操作的流程图。在图8中,第一智能服务器被描述为电子设备。
参考流程图800,根据实施例的电子设备的处理器,在操作810,可以从用户终端(例如,图5的用户终端100)接收用户的语音数据。电子设备可以是支持第一基于语音的智能代理的服务器(例如,图5的第一智能服务器200)。
在操作820,根据实施例的电子设备的处理器可以处理语音数据以生成文本数据。
在操作830,根据实施例的电子设备的处理器可以通过分析文本数据来识别旨在要由用户控制的设备。
在操作840,根据实施例的电子设备的处理器可以接收关于由所识别的设备支持的智能代理的信息。例如,处理器可以从第一外部服务器(例如,图5的IoT服务器500)接收关于由所识别的设备支持的智能代理的信息。例如,第一外部服务器可以存储在用户的账户中注册的至少一个电子设备的设备信息、关于至少一个设备支持的智能代理的信息以及用户信息。
在操作850,根据实施例的电子设备的处理器可以基于关于由所识别的设备支持的智能代理的信息来确定是否将用户的语音数据发送到外部服务器(例如,图5的第二智能服务器600)。例如,外部服务器可以是支持第二基于语音的智能代理的服务器。例如,如果所识别的设备支持第一基于语音的智能代理,则处理器可以确定不将用户的语音数据发送到外部服务器。例如,如果所识别的设备支持第二基于语音的智能代理,则处理器可以确定将用户的语音数据发送到外部服务器。
图9是示出根据实施例的第一智能服务器(例如,图5的第一智能服务器200)的示例操作的流程图。在图9中,第一智能服务器被描述为电子设备。
参考操作流程图900,根据实施例的电子设备的处理器,在操作901,可以从支持第一基于语音的智能代理的用户终端(例如,图5的用户终端100)接收用户的语音数据。电子设备可以是例如支持第一基于语音的智能代理的服务器。
在操作903,根据实施例的电子设备的处理器可以处理接收到的语音数据以生成文本数据。
在操作905,根据实施例的电子设备的处理器可以通过分析文本数据来确定语音数据的域。
在操作907,根据实施例的电子设备的处理器可以基于所确定的域来识别旨在要由用户控制的设备。
在操作909,根据实施例的电子设备的处理器可以从第一外部服务器(例如,图5的IoT服务器500)接收关于由所识别的设备支持的智能代理的信息。例如,第一外部服务器可以存储在用户的账户中注册的至少一个电子设备的设备信息、关于至少一个设备支持的智能代理的信息以及用户信息。
在操作911,根据实施例的电子设备的处理器可以基于接收到的信息来识别所识别的设备是否支持第一基于语音的智能代理。
如果识别出所识别的设备不支持第一基于语音的智能代理,则操作分支至操作919(911-否),并且电子设备的处理器可以将用户的语音数据发送到支持能够控制所识别的设备的智能代理的第二外部服务器(例如,图5的第二智能服务器600)。例如,如果所识别的设备支持第二基于语音的智能代理,则电子设备的处理器可以将用户的语音数据发送到支持第二基于语音的智能代理的第二外部服务器。
如果识别出所识别的设备支持第一基于语音的智能代理,则操作分支至操作913(911-是),并且电子设备的处理器可以通过分析文本数据来确定用户的意图和与该意图相对应的参数。
在操作915,根据实施例的电子设备的处理器可以基于所确定的参数来确定与用户的意图相对应的操作。
在操作917,根据实施例的电子设备的处理器可以基于所确定的操作将控制命令发送到所识别的设备。
图10是示出根据实施例的在用户终端100、第一智能服务器200、IoT服务器500和第二智能服务器600之间的示例操作的信号流程图。根据实施例,用户终端100和第一智能服务器200可以支持第一基于语音的智能代理,并且第二智能服务器600可以支持第二基于语音的智能代理。
参考信号流程图1000,根据实施例的用户终端100,在操作1001,可以从用户接收语音命令。例如,用户终端100可以通过麦克风接收用户的话语。
在操作1003,根据实施例的用户终端100可以处理接收到的语音命令以生成语音数据。
在操作1005,根据实施例的用户终端100可以将语音数据发送到第一智能服务器200。
在操作1007,根据实施例的第一智能服务器200可以处理接收到的语音数据以生成文本数据。
在操作1009,根据实施例的第一智能服务器200可以通过分析文本数据来识别旨在要由用户控制的设备。
在操作1011,根据实施例的第一智能服务器200可以向IoT服务器500请求关于所识别的设备的信息。关于所识别的设备的信息可以包括例如关于由所识别的设备支持的智能代理的信息。
在操作1013,根据实施例的第一智能服务器200可以接收从IoT服务器500发送的关于所识别的设备的信息。
在操作1015,根据实施例的第一智能服务器200可以基于关于所识别的设备的信息来确定是否将用户的语音数据发送到支持第二基于语音的智能代理的第二外部服务器。例如,第一智能服务器200可以基于关于所识别的设备支持的智能代理的信息,确定是否将用户的语音数据发送到支持第二基于语音的智能代理的第二外部服务器。
例如,如果所识别的设备支持第一基于语音的智能代理,则第一智能服务器200可以确定不将用户的语音数据发送给第二智能服务器600,并且可以确定第一智能服务器200处理了用户的语音数据。
例如,如果所识别的设备支持第二基于语音的智能代理,则第一智能服务器200可以确定将用户的语音数据发送到第二智能服务器600。
在操作1017,根据实施例的第一智能服务器200可以响应于所识别的设备支持第二基于语音的智能代理的情况,将用户的语音数据发送到第二智能服务器600。
图11是示出根据实施例的在用户终端100、第一智能服务器200和第二智能服务器600之间的示例操作的信号流程图。根据实施例,用户终端100和第一智能服务器200可以支持第一基于语音的智能代理,并且第二智能服务器600可以支持第二基于语音的智能代理。
参考信号流程图1100,在操作1101,根据实施例的第一智能服务器200可以在存储器(例如,图6的数据库235)中存储关于在用户账户中注册的至少一个设备的信息以及关于由该至少一个设备支持的智能代理的信息。在操作1103,根据实施例的第二智能服务器600也可以在存储器(例如,图6的数据库630)中存储关于在用户账户中注册的至少一个设备的信息和关于由该至少一个设备支持的智能代理的信息。例如,第一智能服务器200不仅可以整体存储在第一基于语音的智能代理中注册的设备信息,而且可以整体存储在第二基于语音的智能代理中注册的设备信息。关于在用户账户中注册的至少一个设备的信息可以包括例如在第一基于语音的智能代理和第二基于语音的智能代理中分别注册的至少一个设备的名称。
在操作1105,根据实施例的用户终端100可以从用户接收语音命令。
在操作1107,根据实施例的用户终端100可以处理接收到的语音命令以生成语音数据。
在操作1109,根据实施例的用户终端100可以将语音数据发送到第一智能服务器200。
在操作1111,根据实施例的用户终端100可以处理接收到的语音数据以生成文本数据。
在操作1113,根据实施例的第一智能服务器200可以通过分析文本数据来识别旨在要由用户控制的设备。例如,第一智能服务器200可以通过分析文本数据来确定语音数据的域,并且可以基于所确定的域来识别旨在要由用户控制的设备。
在操作1115,根据实施例的第一智能服务器200可以确定是否将用户的语音数据发送到第二智能服务器600。例如,第一智能服务器200可以基于在存储器中存储的关于在用户账户中注册的至少一个设备的信息和关于由至少一个设备支持的智能代理的信息,识别关于由所识别的设备支持的智能代理的信息。第一智能服务器200可以基于所识别的信息来确定是否将用户的语音数据发送到支持第二基于语音的智能代理的第二智能服务器600。
在操作1117,根据实施例的第一智能服务器200可以响应于所识别的设备支持第二基于语音的智能代理的情况,将用户的语音数据发送到第二智能服务器600。
在操作1119,根据实施例的第一智能服务器200可以将包括关于语音数据已经被完全发送到第二智能服务器600的信息的传输完成消息发送到用户终端100。
在操作1121,根据实施例的用户终端100可以响应于接收到传输完成消息,向第二基于语音的智能代理输出通知用户的语音命令的传输完成的消息。例如,用户终端100可以通过扬声器将传输完成消息作为声音输出。例如,用户终端100可以通过显示器显示传输完成消息。
在操作1123,根据实施例的第二智能服务器600可以响应于从第一智能服务器200接收到用户的语音数据而通过处理用户的语音数据来控制所识别的设备。例如,第二智能服务器600可以通过处理用户的语音数据来确定用户的意图和与用户的意图相对应的操作,并且可以基于所确定的操作将控制命令发送到所识别的设备。
在操作1125,根据实施例的第二智能服务器600可以响应于所识别的设备的控制,将包括关于第二基于语音的智能代理已经完成语音命令的信息的语音命令完成消息发送到第一智能服务器200。
在操作1127,根据实施例的第一智能服务器200可以将语音命令完成消息发送到用户终端100。
在操作1129,根据实施例的用户终端100可以响应于接收到语音命令完成消息,通过第二基于语音的智能代理输出通知语音命令完成的消息。例如,用户终端100可以通过扬声器将语音命令完成消息作为声音输出。例如,用户终端100可以通过显示器显示语音命令完成消息。
图12是示出根据实施例的在第一用户终端70与第二用户终端80之间的示例操作的信号流程图。根据实施例,第一用户终端70可以将关于在用户账户中注册的至少一个设备的信息和关于由至少一个设备支持的智能代理的信息存储在存储器(例如,图7的数据库740)中。
参照图12,在操作1201,根据实施例的第一用户终端70可以接收用户的语音命令。
在操作1203,根据实施例的第一用户终端70可以处理接收到的语音命令以生成语音数据。
在操作1205,根据实施例的第一用户终端70可以处理语音数据以生成文本数据。
在操作1207,根据实施例的第一用户终端70可以通过分析文本数据来识别旨在要由用户控制的设备。
在操作1209,根据实施例的第一用户终端70可以基于预存储的信息来识别关于由所识别的设备支持的智能代理的信息。
在操作1211,根据实施例的第一用户终端70可以响应于所识别的设备支持第二基于语音的智能代理的情况,将用户的语音数据发送到第二用户终端80。
在操作1213,根据实施例的第一用户终端70可以将包括关于用户的语音数据已经被发送的信息的传输完成消息输出到支持第二基于语音的智能代理的第二用户终端80。例如,第一用户终端70可以通过扬声器将传输完成消息作为声音输出。例如,第一用户终端70可以通过显示器显示传输完成消息。
在操作1215,根据实施例的第二用户终端80可以响应于从第一用户终端70接收到用户语音数据,通过处理用户的语音数据来控制所识别的设备。例如,第二用户终端80可以通过处理用户的语音数据来确定用户的意图和与用户的意图相对应的操作,并且可以基于所确定的操作将控制命令发送到所识别的设备。
在操作1217,根据实施例的第二用户终端80可以响应于所识别的设备的控制,向第一用户终端70发送包括关于第二基于语音的智能代理已经完成语音命令的信息的语音命令完成消息。
在操作1219,根据实施例的第一用户终端70可以响应于接收到语音命令完成消息,通过第二基于语音的智能代理输出通知语音命令完成的消息。例如,第一用户终端70可以通过扬声器将语音命令完成消息作为声音输出。例如,第一用户终端70可以通过显示器显示语音命令完成消息。
图13是示出根据实施例的用于通过支持第一基于语音的智能代理1301的用户终端100a来控制支持第二基于语音的智能代理1303的电子设备45的示例环境的图。
参照图13,假设第一用户终端100a是支持第一基于语音的智能代理1301的设备,并且电子设备45是支持第二基于语音的智能代理1303的电子设备。
根据实施例,用户可以向第一用户终端100a输入语音命令“嗨Bixby,使客厅灯变亮”。“嗨Bixby”可以是例如用于调用第一基于语音的智能代理1301客户端的唤醒话音。第一基于语音的智能代理1301可以处理输入的用户的语音命令“使客厅灯变亮”。
根据实施例,第一基于语音的智能代理1301可以识别旨在要由用户控制的设备是“客厅灯”。第一基于语音的智能代理1301可以识别“客厅灯”所支持的智能代理是第二基于语音的智能代理1303。例如,第一基于语音的智能代理1301可以从外部服务器(例如,图5的IoT服务器500)接收关于由“客厅灯”支持的智能代理的信息。例如,第一基于语音的智能代理1301可以将关于“客厅灯”支持的智能代理的信息预先存储在数据库中。
根据实施例,第一基于语音的智能代理1301可以将用户的语音命令发送到第二基于语音的智能代理1303。
例如,第一用户终端100a可以将通过处理用户的语音命令而获得的用户的语音数据发送到支持第一基于语音的智能代理1301的第一智能服务器200。第一智能服务器200可以通过处理用户的语音数据识别旨在要由用户控制的设备。第一智能服务器200可以识别关于旨在要由用户控制的设备所支持的智能代理的信息,并且可以将用户的语音数据发送到支持第二基于语音的智能代理1303的第二智能服务器600。
例如,第一用户终端100a可以通过处理用户的语音数据来识别关于旨在要由用户控制的设备所支持的智能代理的信息,并且响应于旨在要由用户控制的设备支持第二基于语音的智能代理1303的情况,可以将用户的语音数据直接发送到支持第二基于语音的智能代理1303的第二用户终端100b。
根据实施例,第一用户终端100a可以向第二基于语音的智能代理1303输出指示第一用户终端100a已经发送了用户的语音命令的消息。例如,第一用户终端100a可以通过扬声器输出消息“我已命令Googol处理客厅灯”作为声音。例如,Googol可以是第二基于语音的智能代理1303的名称。
根据实施例,第二基于语音的智能代理1303可以处理接收到的用户的语音命令。通过处理用户的语音命令,第二基于语音的智能代理1303可以识别旨在要由用户控制的设备是客厅灯,可以确定用户的意图是使客厅灯的亮度变亮,并可以确定将客厅灯的亮度设置为最大亮度的参数。第二基于语音的智能代理1303可以将用于使客厅灯设置为最大亮度的控制命令发送到与客厅灯相对应的电子设备45。
例如,第二智能服务器600可以通过处理接收到的用户语音数据,向旨在要由用户控制的电子设备45发送控制命令以执行与用户的语音数据中包括的用户意图相对应的操作。例如,第二智能服务器600可以发送控制命令以将旨在要由用户控制的设备的电子设备45设置为最大亮度。
例如,第二用户终端100b可以通过直接处理用户的语音数据,向旨在要由用户控制的电子设备45发送控制命令以执行与用户的语音数据中包括的用户的意图相对应的操作。例如,第二用户终端100b可以向电子设备45发送控制命令以将旨在要由用户控制的设备的电子设备45设置为最大亮度。
根据实施例,第二用户终端100b可以输出通知所接收的用户的语音命令的完成的消息。例如,第二用户终端100b可以输出消息“我已经将客厅灯设置为最大亮度”作为声音。根据实施例,可以通过第二基于语音的智能代理1303将通知用户语音命令完成的消息发送到第一用户终端100a,使得第一用户终端100a可以输出该消息。
例如,第二智能服务器600可以控制第二用户终端100b响应于用户的语音命令“使客厅灯变亮”的处理,输出指示支持第二基于语音的智能代理1303的第二用户终端100b已经接收并处理了用户的语音命令的消息。例如,第二用户终端100b可以通过扬声器输出消息“我已经将客厅灯设置为最大亮度”作为声音。
例如,在第二用户终端100b直接处理用户的语音数据的情况下,第二用户终端100b可以响应于用户的语音命令“使客厅灯变亮”的处理,输出指示用户的语音命令已经被传送并被处理的消息。例如,第二用户终端100b可以通过扬声器输出消息“我已经将客厅灯设置为最大亮度”作为声音。
图14是示出根据实施例的用于通过支持第一基于语音的智能代理1301的用户终端100a来控制支持第二基于语音的智能代理1305的电子设备47的示例环境的图。
参照图14,假定用户终端100a是支持第一基于语音的智能代理1301的设备,并且电子设备47是支持第二基于语音的智能代理1305的电子设备。
根据实施例,用户可以向用户终端100a输入语音命令“嗨Bixby,打开汽车的空调”。“嗨Bixby”可以是例如用于调用第一基于语音的智能代理1301客户端的唤醒话音。第一基于语音的智能代理1301可以处理输入的用户语音命令“打开汽车的空调”。
根据实施例,第一基于语音的智能代理1301可以识别旨在要由用户控制的设备是“汽车”。第一基于语音的智能代理1301可以识别“汽车”所支持的智能代理是第二基于语音的智能代理1305。例如,第一基于语音的智能代理1301可以从外部服务器(例如,图5的IoT服务器500)接收关于由“汽车”支持的智能代理的信息。例如,第一基于语音的智能代理1301可以将关于“汽车”所支持的智能代理的信息预先存储在数据库中。
根据实施例,第一基于语音的智能代理1301可以将用户的语音命令发送到支持第二基于语音的智能代理1305的电子设备47。根据实施例,用户终端100a可以输出指示用户终端100a已经将用户的语音命令发送到支持第二基于语音的智能代理1305的电子设备47。例如,用户终端100a可以输出消息“我已经将命令传送到汽车”作为声音。
根据实施例,第二基于语音的智能代理1305可以处理接收到的用户的语音命令。通过处理用户的语音命令,第二基于语音的智能代理1305可以识别旨在要由用户控制的设备是汽车,并且可以确定用户的意图是打开汽车的空调。第二基于语音的智能代理1305可以控制与汽车相对应的电子设备47,以打开汽车的空调。
根据实施例,第二基于语音的智能代理1305可以将通知用户的语音命令完成的消息发送给用户终端100a。根据实施例,用户终端100a可以输出通知所接收的用户的语音命令的完成的消息。例如,用户终端100a可以输出消息“汽车已经完成命令”作为声音。
图15是示出根据实施例的用于通过支持第一基于语音的智能代理1301的用户终端100c来控制支持第二基于语音的智能代理1303的电子设备40的示例环境的图。
参照图15,假设用户终端100c是支持第一基于语音的智能代理1301的设备,并且电子设备40是支持第二基于语音的智能代理1303的电子设备。
根据实施例,用户可以向用户终端100c输入语音命令“嗨Bixby,关闭电视(TV)”。“嗨Bixby”可以是例如用于调用第一基于语音的智能代理1301客户端的唤醒话音。第一基于语音的智能代理1301可以处理输入的用户的语音命令“关闭电视”。
根据实施例,第一基于语音的智能代理1301可以识别旨在要由用户控制的设备是“TV”。第一基于语音的智能代理1301可以识别“TV”所支持的智能代理是第二基于语音的智能代理1303。
根据实施例,第一基于语音的智能代理1301可以将用户的语音命令发送到第二基于语音的智能代理1303。根据实施例,用户终端100c可以将指示用户终端100c已将用户的语音命令发送到第二基于语音的智能代理1303的消息输出到用户界面(UI)1510。例如,用户终端100c可以将已经传送了语音命令的智能代理显示为徽标(logo),并且可以通过UI1510输出所传送的语音命令。
根据实施例,第二基于语音的智能代理1303可以处理接收到的用户的语音命令。通过处理用户的语音命令,第二基于语音的智能代理1303可以识别旨在要由用户控制的设备是TV,并且可以确定用户的意图是关闭TV。第二基于语音的智能代理1303可以控制TV关闭该TV的电源。
根据实施例,第二基于语音的智能代理1303可以将通知用户的语音命令完成的消息发送给用户终端100c。根据实施例,用户终端100c可以通过UI输出通知第二基于语音的智能代理1303已经完成用户的语音命令的消息。根据实施例,用户终端100c可以通过显示器输出第二基于语音的智能代理和所发送的语音命令的内容。根据实施例,用户终端100c可以输出通知用户的语音命令已经由第二基于语音的智能代理1303完成的消息作为声音。例如,用户终端100c可以输出消息“关闭电源”作为声音。
图16是示出根据各种实施例的在网络环境1600中的示例电子设备1601的框图。参照图16,网络环境1600中的电子设备1601可以经由第一网络1698(例如,短距离无线通信网络)与电子设备1602通信,或者可以经由第二网络1699(例如,远距离无线通信网络)与电子设备1604或服务器1608通信。根据实施例,电子设备1601可以经由服务器1608与电子设备1604通信。根据实施例,电子设备1601可以包括处理器1620、存储器1630、输入设备1650、声音输出设备1655、显示设备1660、音频模块1670、传感器模块1676、接口1677、触觉模块1679、相机模块1680、电力管理模块1688、电池1689、通信模块1690、用户识别模块(SIM)1696或天线模块1697。
在一些实施例中,可以从电子设备1601中省略这些组件中的至少一个(例如,显示设备1660或相机模块1680),或者可以在电子设备1601中添加一个或更多个其他组件。在一些实施例中,一些组件可以被实现为单个集成电路。例如,传感器模块1676(例如,指纹传感器、虹膜传感器或照度传感器)可以被实现为嵌入在显示设备1660(例如,显示器)中。
处理器1620可以执行例如软件(例如,程序1640)以控制与处理器1620耦接的电子设备1601的至少一个其他组件(例如,硬件或软件组件),并且可以执行各种数据处理或计算。根据示例实施例,作为数据处理或计算的至少一部分,处理器1620可以将从另一组件(例如,传感器模块1676或通信模块1690)接收到的命令或数据加载到易失性存储器1632中,处理存储在易失性存储器1632中的命令或数据,并将结果数据存储在非易失性存储器1634中。根据实施例,处理器1620可以包括主处理器1621(例如,中央处理器(CPU)或应用处理器)(AP)),可独立于主处理器1621操作或与主处理器结合操作的辅助处理器1623(例如,图形处理单元(GPU)、图像信号处理器(ISP)、传感器集线器处理器或通信处理器(CP))。附加地或替代地,辅助处理器1623可以适于比主处理器1621消耗更少的功率,或者专用于特定功能。辅助处理器1623可以被实现为与主处理器1621分离或作为主处理器1621一部分。
辅助处理器1623可以在主处理器1621处于非活动(例如,睡眠)状态时代替主处理器1621控制与电子设备1601的组件中的至少一个组件(例如,显示设备1660、传感器模块1676或通信模块1690)相关的功能或状态中的至少一些功能或状态,或者在主处理器1621处于活动状态(例如,执行应用)时与主处理器1621一起控制与电子设备1601的组件中的至少一个组件(例如,显示设备1660、传感器模块1676或通信模块1690)相关的功能或状态中的至少一些功能或状态。根据实施例,辅助处理器1623(例如,图像信号处理器或通信处理器)可以被实现为在功能上与辅助处理器1623相关的另一组件(例如,相机模块1680或通信模块1690)的一部分。
存储器1630可以存储电子设备1601的至少一个组件(例如,处理器1620或传感器模块1676)使用的各种数据。各种数据可以包括例如软件(例如,程序1640)以及用于与其相关的命令的输入数据或输出数据。存储器1630可以包括易失性存储器1632或非易失性存储器1634。
程序1640可以作为软件存储在存储器1630中,并且可以包括例如操作系统(OS)1642、中间件1644或应用1646。
输入设备1650可以从电子设备1601的外部(例如,用户)接收要由电子设备1601的其他组件(例如,处理器1620)使用的命令或数据。输入设备1650可以包括例如麦克风、鼠标、键盘或数字笔(例如,手写笔)。
声音输出设备1655可以向电子设备1601的外部输出声音信号。声音输出设备1655可以包括例如扬声器或接收器。扬声器可用于一般目的,例如播放多媒体或播放唱片,而接收器可用于来电。根据实施例,接收器可以被实现为与扬声器分离或作为扬声器的一部分。
显示设备1660可以在视觉上向电子设备1601的外部(例如,用户)提供信息。显示设备1660可以包括例如显示器、全息图设备或投影仪以及控制显示器、全息图设备和投影仪的相应的一个的控制电路。根据实施例,显示设备1660可以包括适于检测触摸的触摸电路,或适于测量由触摸引起的力的强度的传感器电路(例如,压力传感器)。
音频模块1670可以将声音转换成电信号,反之亦然。根据实施例,音频模块1670可以经由输入设备1650获得声音,或者经由声音输出设备1655或直接地(例如,有线地)或无线地耦接到电子设备1601的外部电子设备(例如,电子设备1602)的耳机输出声音。
传感器模块1676可以检测电子设备1601的操作状态(例如,功率或温度)或电子设备1601外部的环境状态(例如,用户的状态),然后生成与检测到的状态对应的电信号或数据值。根据实施例,传感器模块1676可以包括例如姿势传感器、陀螺仪传感器、大气压传感器、磁传感器、加速度传感器、握持传感器、接近传感器、颜色传感器、红外(IR)传感器、生物特征传感器、温度传感器、湿度传感器或照度传感器。
接口1677可以支持用于电子设备1601的一种或更多种指定协议,该电子设备1601直接地(例如,有线地)或无线地与外部电子设备(例如电子设备1602)耦接。根据实施例,接口1677可以包括例如高清晰度多媒体接口(HDMI)、通用串行总线(USB)接口、安全数字(SD)卡接口或音频接口。
连接端1678可以包括连接器,通过该连接器电子设备1601可以与外部电子设备(例如,电子设备1602)物理连接。根据实施例,连接端1678可以包括例如HDMI连接器、USB连接器、SD卡连接器或音频连接器(例如,耳机连接器)。
触觉模块1679可以将电信号转换成机械刺激(例如,振动或运动)或电刺激,其可以由用户经由其触觉或动觉感觉来识别。根据实施例,触觉模块1679可以包括例如电极、压电元件或电刺激器。
相机模块1680可以捕获静止图像或运动图像。根据实施例,相机模块1680可以包括一个或更多个镜头、图像传感器、图像信号处理器或闪光灯。
电力管理模块1688可以管理提供给电子设备1601的电力。根据示例实施例,电力管理模块1688可以被实现为例如电力管理集成电路(PMIC)的至少一部分。
电池1689可以向电子设备1601的至少一个组件供电。根据实施例,电池1689可以包括例如不可充电的原电池、可充电的蓄电池或燃料电池。
通信模块1690可以支持在电子设备1601与外部电子设备(例如,电子设备1602、电子设备1604或服务器1608)之间建立直接(例如,有线)通信信道或无线通信信道,并且通过已建立的通信通道进行通信。通信模块1690可以包括一个或更多个通信处理器,其可以独立于处理器1620(例如,应用处理器(AP))进行操作,并且支持直接(例如,有线)通信或无线通信。根据实施例,通信模块1690可以包括无线通信模块1692(例如,蜂窝通信模块、短距离无线通信模块或全球导航卫星系统(GNSS)通信模块)或有线通信模块1694(例如,局域网(LAN)通信模块或电力线通信(PLC)模块)。这些通信模块中的相应的一个可以经由第一网络1698(例如,短距离通信网络,诸如BluetoothTM、无线保真(Wi-Fi)直连或红外数据协会(IrDA))或第二网络1699(例如,远距离通信网络,诸如蜂窝网络、互联网或计算机网络(例如,LAN或广域网(WAN))与外部电子设备进行通信。可将这些各种类型的通信模块实现为单个组件(例如,单个芯片),或可将这些各种类型的通信模块实现为彼此分离的多个组件(例如,多个芯片)。无线通信模块1692可使用存储在用户识别模块1696中的用户信息(例如,国际移动用户识别码(IMSI))识别并验证通信网络(诸如第一网络1698或第二网络1699)中的电子设备1601。
天线模块1697可将信号或电力发送到电子设备1601的外部(例如,外部电子设备)或者从电子设备1601的外部(例如,外部电子设备)接收信号或电力。根据实施例,天线模块1697可包括天线,所述天线包括辐射元件,所述辐射元件由形成在基底(例如,PCB)中或形成在基底上的导电材料或导电图案构成。根据实施例,天线模块1697可包括多个天线。在这种情况下,可由例如通信模块1690(例如,无线通信模块1692)从所述多个天线中选择适合于在通信网络(诸如第一网络1698或第二网络1699)中使用的通信方案的至少一个天线。随后可经由所选择的至少一个天线在通信模块1690和外部电子设备之间发送或接收信号或电力。根据实施例,除了辐射元件之外的另外的组件(例如,射频集成电路(RFIC))可附加地形成为天线模块1697的一部分。
上述部件中的至少一些可经由外设间通信方案(例如,总线、通用输入输出(GPIO)、串行外设接口(SPI)或移动工业处理器接口(MIPI))相互连接并在它们之间通信地传送信号(例如,命令或数据)。
根据实施例,可经由与第二网络1699耦接的服务器1608在电子设备1601和外部电子设备1604之间发送或接收命令或数据。电子设备1602和电子设备1604中的每一个可以是与电子设备1601相同类型的设备,或者是与电子设备1601不同类型的设备。根据实施例,将在电子设备1601运行的全部操作或一些操作可在外部电子设备1602、外部电子设备1604或服务器1608中的一个或更多个运行。例如,如果电子设备1601应该自动执行功能或服务或者应该响应于来自用户或另一设备的请求执行功能或服务,则电子设备1601可请求所述一个或更多个外部电子设备执行所述功能或服务中的至少部分,而不是运行所述功能或服务,或者电子设备1601除了运行所述功能或服务以外,还可请求所述一个或更多个外部电子设备执行所述功能或服务中的至少部分。接收到所述请求的所述一个或更多个外部电子设备可执行所述功能或服务中的所请求的所述至少部分,或者执行与所述请求相关的另外功能或另外服务,并将执行的结果传送到电子设备1601。电子设备1601可在对所述结果进行进一步处理的情况下或者在不对所述结果进行进一步处理的情况下将所述结果提供作为对所述请求的至少部分答复。为此,可使用例如云计算技术、分布式计算技术或客户机-服务器计算技术。
根据本公开的各种示例实施例,一种被配置为支持第一基于语音的智能代理的电子设备(例如,图5的第一智能服务器200)可以包括:通信电路;处理器,所述处理器可操作地连接到所述通信电路;以及存储器,所述存储器可操作地连接到所述处理器。根据各种示例实施例,存储器可以存储指令,当所述指令被执行时,使得所述处理器控制所述电子设备:通过所述通信电路,从用户终端(例如,图5的用户终端100)接收语音数据;处理所述语音数据以生成文本数据;通过分析所述文本数据,识别旨在要被控制的设备;通过所述通信电路,从第一外部服务器(例如,图5的IoT服务器500)接收关于由所识别的设备支持的智能代理的信息;以及基于关于由所识别的设备支持的所述智能代理的所述信息,确定是否将所述语音数据发送到支持第二基于语音的智能代理的第二外部服务器(例如,图5的第二智能服务器600)。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:通过分析所述文本数据,确定所述语音数据的域,以及基于所确定的域,识别旨在要被控制的所述设备。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:响应于所识别的设备支持所述第一基于语音的智能代理,通过分析所述文本数据确定所述语音数据中包括的意图以及与所述意图对应的参数。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:响应于所识别的设备支持所述第二基于语音的智能代理,通过所述通信电路将所述语音数据发送到所述第二外部服务器。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:响应于所述处理器将所述语音数据发送到所述第二外部服务器,通过所述通信电路将传输完成消息发送到所述用户终端。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:通过所述通信电路,从所述第二外部服务器接收与所述语音数据相关的语音命令完成消息,并将所述语音命令完成消息发送到所述用户终端。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:从所述第一外部服务器接收关于在账户中注册的至少一个设备的信息以及关于由所述至少一个设备支持的智能代理的信息。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:基于识别旨在要被控制的所述设备,通过所述通信电路向所述第一外部服务器请求由所识别的设备支持的所述智能代理的信息,以及响应于所述请求,通过所述通信电路从所述第一外部服务器接收关于由所识别的设备支持的智能代理的信息。
根据本公开的各种示例实施例,一种被配置为支持第一基于语音的智能代理的电子设备(例如,图6的第一智能服务器200)可以包括:通信电路;处理器,所述处理器可操作地连接到所述通信电路;以及存储器(图6的数据库235),所述处理器可操作地连接到所述处理器。根据各种示例实施例,所述存储器可以存储关于在账户中注册的至少一个设备的信息和关于由所述至少一个设备支持的智能代理的信息,并且所述存储器可以存储指令,当所述指令被执行时,使得所述处理器控制所述电子设备:通过所述通信电路,从用户终端(例如,图6的用户终端100)接收语音数据;处理所述语音数据以生成文本数据;通过分析所述文本数据,识别旨在要被控制的设备;基于所述存储器中存储的关于在所述账户中注册的所述至少一个设备的信息和关于由所述至少一个设备支持的智能代理的信息,识别关于由所识别的设备支持的智能代理的信息;以及基于所识别的信息,确定是否通过所述通信电路将所述语音数据发送到支持第二基于语音的智能代理的外部服务器(例如,图6的第二智能服务器)。
在根据本公开的各种示例实施例的电子设备中,关于在所述账户中注册的所述至少一个设备的信息包括分别在所述第一基于语音的智能代理和所述基于第二语音的智能代理中注册的所述至少一个设备的名称。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:通过分析所述文本数据,确定所述语音数据的域,以及基于所确定的域,识别旨在要被控制的设备。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:响应于所识别的设备支持所述第一基于语音的智能代理,通过分析所述文本数据确定所述语音数据中包括的意图以及与所述意图对应的参数。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:响应于所识别的设备支持所述第二基于语音的智能代理,通过所述通信电路将所述语音数据发送到所述外部服务器。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:响应于所述处理器将所述语音数据发送到所述外部服务器,通过所述通信电路将传输完成消息发送到所述用户终端。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:通过所述通信电路,从所述外部服务器接收与用户的语音数据相关的用户语音命令完成消息,并将所述用户语音命令完成消息发送到所述用户终端。
根据本公开的各种示例实施例,一种被配置为支持第一基于语音的智能代理的电子设备(例如,图7的第一用户终端70)可以包括:通信电路(例如,图1的通信接口110)、麦克风(例如,图1的麦克风120)、可操作地连接到通信电路和麦克风的处理器(例如,图1的处理器160)以及可操作地连接到处理器的存储器(例如,图7的数据库740或图1的存储器150)。根据各种实施例,所述存储器可以存储关于在账户中注册的至少一个设备的信息和关于由所述至少一个设备支持的智能代理的信息,并且所述存储器可以存储指令,当所述指令被执行时,使得所述处理器控制所述电子设备:通过所述麦克风,接收语音数据;处理所述语音数据以生成文本数据;通过分析所述文本数据,识别旨在要被控制的设备;基于在所述存储器中存储的关于在所述账户中注册的所述至少一个设备的信息和关于由所述至少一个设备支持的所述智能代理的信息,识别关于由所识别的设备支持的智能代理的信息;以及基于关于由所识别的设备支持的智能代理的信息,确定是否通过所述通信电路将所述语音数据发送到支持第二基于语音的智能代理的外部电子设备(例如,图7的第二用户终端80)。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:响应于所识别的设备支持所述第二基于语音的智能代理,通过所述通信电路将所述语音数据发送到所述外部电子设备。
在根据本公开的各种示例实施例的电子设备中,所述电子设备还可以包括扬声器(例如,图1的扬声器130)。在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:响应于所述处理器将所述语音数据发送到所述外部电子设备,通过所述扬声器输出包括以下信息的消息:所述处理器已经将所述语音数据发送到所述外部电子设备。
在根据本公开的各种示例实施例的电子设备中,所述电子设备还可以包括显示器(例如,图1的显示器140)。在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:响应于所述处理器将所述语音数据发送到所述外部电子设备,通过所述显示器输出包括以下信息的消息:所述处理器已经将所述语音数据发送到所述外部电子设备。
在根据本公开的各种示例实施例的电子设备中,当所述指令被执行时,使得所述处理器控制所述电子设备:通过所述显示器,输出关于由所述外部电子设备支持的所述第二基于语音的智能代理的信息以及所发送的语音数据的内容。
根据各种实施例的电子设备可以是各种类型的电子设备之一。电子设备可以包括例如便携式通信设备(例如,智能电话)、计算机设备、便携式多媒体设备、便携式医疗设备、照相机、可穿戴设备、家用电器等。根据本公开的实施例,电子设备不限于上述那些。
应该理解的是,本公开的各种实施例以及其中使用的术语并不意图将在此阐述的技术特征限制于具体实施例,而是包括针对相应实施例的各种改变、等同形式或替换形式。对于附图的描述,相似的参考标号可用来指代相似或相关的元件。将理解的是,与术语相应的单数形式的名词可包括一个或更多个事物,除非相关上下文另有明确指示。如这里所使用的,诸如“A或B”、“A和B中的至少一个”、“A或B中的至少一个”、“A、B或C”、“A、B和C中的至少一个”以及“A、B或C中的至少一个”的短语中的每一个短语可包括在与所述多个短语中的相应一个短语中一起列举出的项的任意一项或所有可能组合。如这里所使用的,诸如“第1”和“第2”或者“第一”和“第二”的术语可用于将相应组件与另一组件进行简单区分,并且不在其它方面(例如,重要性或顺序)限制所述组件。将理解的是,在使用了术语“可操作地”或“通信地”的情况下或者在不使用术语“可操作地”或“通信地”的情况下,如果一元件(例如,第一元件)被称为“与另一元件(例如,第二元件)耦接”、“耦接到另一元件(例如,第二元件)”、“与另一元件(例如,第二元件)连接”或“连接到另一元件(例如,第二元件)”,则意味着所述一元件可与所述另一元件直接(例如,有线地)连接、与所述另一元件无线连接或经由第三元件与所述另一元件连接。
如这里所使用的,术语“模块”可包括以硬件、软件或固件实现的单元,并可与其他术语(例如,“逻辑”、“逻辑块”、“部件”或“电路”)可互换地使用。模块可以是被适配为执行一个或更多个功能的单个集成部件或者是该单个集成部件的最小单元或部分。例如,根据实施例,可以以专用集成电路(ASIC)的形式来实现模块。
可将在此阐述的各种实施例实现为包括存储在存储介质(例如,内部存储器1636或外部存储器1638)中的可由机器(例如,电子设备1601)读取的一个或更多个指令的软件(例如,程序1640)。例如,在处理器的控制下,所述机器(例如,电子设备1601)的处理器(例如,处理器1620)可在使用或无需使用一个或更多个其它组件的情况下调用存储在存储介质中的所述一个或更多个指令中的至少一个指令并运行所述至少一个指令。这使得所述机器能够操作用于根据所调用的至少一个指令执行至少一个功能。所述一个或更多个指令可包括由编译器产生的代码或能够由解释器运行的代码。可以以非暂时性存储介质的形式来提供机器可读存储介质。其中,术语“非暂时性”仅意味着所述存储介质是有形装置,并且不包括信号(例如,电磁波),但是该术语并不在数据被半永久性地存储在存储介质中与数据被临时存储在存储介质中之间进行区分。
根据实施例,可在计算机程序产品中包括和提供根据本公开的各种实施例的方法。计算机程序产品可作为产品在销售者和购买者之间进行交易。可以以机器可读存储介质(例如,紧凑盘只读存储器(CD-ROM))的形式来发布计算机程序产品,或者可经由应用商店(例如,Play StoreTM)在线发布(例如,下载或上传)计算机程序产品,或者可直接在两个用户设备(例如,智能电话)之间分发(例如,下载或上传)计算机程序产品。如果是在线发布的,则计算机程序产品中的至少部分可以是临时产生的,或者可将计算机程序产品中的至少部分至少临时存储在机器可读存储介质(诸如制造商的服务器、应用商店的服务器或转发服务器的存储器)中。
根据各种实施例,上述部件中的每个组件(例如,模块或程序)可包括单个实体或多个实体。根据各种实施例,可省略上述部件中的一个或更多个部件,或者可添加一个或更多个其它部件。可选择地或者另外地,可将多个组件(例如,模块或程序)集成为单个组件。在这种情况下,根据各种实施例,该集成组件可仍旧按照与所述多个部件中的相应一个组件在集成之前执行一个或更多个功能相同或相似的方式,执行所述多个组件中的每一个组件的所述一个或更多个功能。根据各种实施例,由模块、程序或另一组件所执行的操作可顺序地、并行地、重复地或以启发式方式来执行,或者所述操作中的一个或更多个操作可按照不同的顺序来运行或被省略,或者可添加一个或更多个其它操作。
尽管已经参考本公开的各种示例实施例示出和描述了本公开,但是应当理解,各种示例实施例旨在于说明而不是限制。本领域普通技术人员将进一步理解,在不脱离包括所附权利要求及其等同形式的本公开的真实精神和完整范围的情况下,可以进行形式和细节上的各种改变。

Claims (20)

1.一种被配置为支持第一基于语音的智能代理的电子设备,所述电子设备包括:
通信电路;
处理器,所述处理器可操作地连接到所述通信电路;以及
存储器,所述存储器可操作地连接到所述处理器,
其中,所述存储器存储有指令,所述指令在被执行时,使得所述处理器控制所述电子设备:
通过所述通信电路,从用户终端接收语音数据;
处理所述语音数据以生成文本数据;
通过分析所述文本数据,识别旨在要被控制的设备;
通过所述通信电路,从第一外部服务器接收关于由所识别的设备支持的智能代理的信息;以及
基于关于由所识别的设备支持的所述智能代理的所述信息,确定是否将所述语音数据发送到支持第二基于语音的智能代理的第二外部服务器。
2.根据权利要求1所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:
通过分析所述文本数据,确定所述语音数据的域;以及
基于所确定的域,识别所述旨在要被控制的设备。
3.根据权利要求2所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:响应于所识别的设备支持所述第一基于语音的智能代理,通过分析所述文本数据确定所述语音数据中包括的意图以及与所述意图对应的参数。
4.根据权利要求1所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:响应于所识别的设备支持所述第二基于语音的智能代理,通过所述通信电路将所述语音数据发送到所述第二外部服务器。
5.根据权利要求4所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:响应于所述处理器将所述语音数据发送到所述第二外部服务器,通过所述通信电路将传输完成消息发送到所述用户终端。
6.根据权利要求4所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:通过所述通信电路,从所述第二外部服务器接收与所述语音数据相关的语音命令完成消息,并将所述语音命令完成消息发送到所述用户终端。
7.根据权利要求1所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:从所述第一外部服务器接收关于在账户中注册的至少一个设备的信息以及关于由所述至少一个设备支持的智能代理的信息。
8.根据权利要求1所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:
基于识别了所述旨在要被控制的设备,通过所述通信电路向所述第一外部服务器请求关于由所识别的设备支持的所述智能代理的信息,以及
响应于所述请求,通过所述通信电路从所述第一外部服务器接收所述关于由所识别的设备支持的智能代理的信息。
9.一种被配置为支持第一基于语音的智能代理的电子设备,所述电子设备包括:
通信电路;
处理器,所述处理器可操作地连接到所述通信电路;以及
存储器,所述处理器可操作地连接到所述处理器,
其中,所述存储器存储有关于在账户中注册的至少一个设备的信息和关于由所述至少一个设备支持的智能代理的信息,并且
所述存储器存储有指令,所述指令在被执行时,使得所述处理器控制所述电子设备:
通过所述通信电路,从用户终端接收语音数据,
处理所述语音数据以生成文本数据,
通过分析所述文本数据,识别旨在要被控制的设备,
基于所述存储器中存储的关于在所述账户中注册的所述至少一个设备的信息和关于由所述至少一个设备支持的智能代理的信息,识别关于由所识别的设备支持的智能代理的信息,以及
基于所识别的信息,确定是否通过所述通信电路将所述语音数据发送到支持第二基于语音的智能代理的外部服务器。
10.根据权利要求9所述的电子设备,其中,关于在所述账户中注册的所述至少一个设备的信息包括分别在所述第一基于语音的智能代理和所述基于第二语音的智能代理中注册的所述至少一个设备的名称。
11.根据权利要求9所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:
通过分析所述文本数据,确定所述语音数据的域,以及
基于所确定的域,识别旨在要被控制的设备。
12.根据权利要求11所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:响应于所识别的设备支持所述第一基于语音的智能代理,通过分析所述文本数据确定所述语音数据中包括的意图以及与所述意图对应的参数。
13.根据权利要求9所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:响应于所识别的设备支持所述第二基于语音的智能代理,通过所述通信电路将所述语音数据发送到所述外部服务器。
14.根据权利要求13所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:响应于所述处理器将所述语音数据发送到所述外部服务器,通过所述通信电路将传输完成消息发送到所述用户终端。
15.根据权利要求13所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:通过所述通信电路,从所述外部服务器接收与所述语音数据相关的语音命令完成消息,并将所述语音命令完成消息发送到所述用户终端。
16.一种被配置为支持第一基于语音的智能代理的电子设备,所述电子设备包括:
通信电路;
麦克风;
处理器,所述处理器可操作地连接到所述通信电路和所述麦克风;以及
存储器,所述存储器可操作地连接到所述处理器,
其中,所述存储器被配置为存储关于在账户中注册的至少一个设备的信息和关于由所述至少一个设备支持的智能代理的信息,并且
所述存储器存储指令,当所述指令被执行时,使得所述处理器控制所述电子设备:
通过所述麦克风,接收语音数据,
处理所述语音数据以生成文本数据,
通过分析所述文本数据,识别旨在要被控制的设备,
基于在所述存储器中存储的关于在所述账户中注册的所述至少一个设备的信息和关于由所述至少一个设备支持的所述智能代理的信息,识别关于由所识别的设备支持的智能代理的信息,以及
基于关于由所识别的设备支持的智能代理的信息,确定是否通过所述通信电路将所述语音数据发送到支持第二基于语音的智能代理的外部电子设备。
17.根据权利要求16所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:响应于所识别的设备支持所述第二基于语音的智能代理,通过所述通信电路将所述语音数据发送到所述外部电子设备。
18.根据权利要求17所述的电子设备,所述电子设备还包括扬声器,
其中,当所述指令被执行时,使得所述处理器控制所述电子设备:响应于所述处理器将所述语音数据发送到所述外部电子设备,通过所述扬声器输出如下消息,所述消息包括所述处理器已经将所述语音数据发送到所述外部电子设备的信息。
19.根据权利要求17所述的电子设备,所述电子设备还包括显示器,
其中,当所述指令被执行时,使得所述处理器控制所述电子设备:响应于所述处理器将所述语音数据发送到所述外部电子设备,通过所述显示器输出如下消息,所述消息包括所述处理器已经将所述语音数据发送到所述外部电子设备的信息。
20.根据权利要求19所述的电子设备,其中,所述指令在被执行时,还使得所述处理器控制所述电子设备:通过所述显示器,输出关于由所述外部电子设备支持的所述第二基于语音的智能代理的信息以及所发送的语音数据的内容。
CN202010739478.1A 2019-08-05 2020-07-28 管理多个智能代理的电子设备及其操作方法 Pending CN112331196A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0095059 2019-08-05
KR1020190095059A KR20210016815A (ko) 2019-08-05 2019-08-05 복수의 지능형 에이전트를 관리하는 전자 장치 및 그의 동작 방법

Publications (1)

Publication Number Publication Date
CN112331196A true CN112331196A (zh) 2021-02-05

Family

ID=71846237

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010739478.1A Pending CN112331196A (zh) 2019-08-05 2020-07-28 管理多个智能代理的电子设备及其操作方法

Country Status (5)

Country Link
US (1) US11393474B2 (zh)
EP (1) EP3779969B1 (zh)
KR (1) KR20210016815A (zh)
CN (1) CN112331196A (zh)
WO (1) WO2021025350A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113079031A (zh) * 2021-02-22 2021-07-06 四川惟邦新创科技有限公司 一种基于智能代理建立有序链接提升网络服务质量的方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11640469B2 (en) 2019-06-21 2023-05-02 Ventech Solutions, Inc. Method and system for cloud-based software security vulnerability diagnostic assessment
US11108481B2 (en) 2019-09-18 2021-08-31 Sling Media L.L.C. Over-the-air programming integration with over the top streaming services
EP4037328A4 (en) * 2019-09-27 2023-08-30 LG Electronics Inc. ARTIFICIAL INTELLIGENCE DISPLAY DEVICE AND SYSTEM
US11417328B1 (en) * 2019-12-09 2022-08-16 Amazon Technologies, Inc. Autonomously motile device with speech commands
US11676031B2 (en) 2020-02-25 2023-06-13 Ventech Solutions, Inc. Anatomical position monitoring for bodily pressure ulcers
US11651107B2 (en) * 2020-03-17 2023-05-16 Ventech Solutions, Inc. Securing personally identifiable and private information in conversational AI-based communication
US11568262B2 (en) 2020-03-25 2023-01-31 Ventech Solutions, Inc. Neural network based radiowave monitoring of fall characteristics in injury diagnosis
KR102445391B1 (ko) 2021-05-24 2022-09-21 한국과학기술원 지능형 에이전트와 상호작용하기 위한 통신 인터페이스 구축 방법 및 장치
KR102394278B1 (ko) * 2021-10-28 2022-05-03 이희선 가상 비서 서비스를 제공하는 서버의 제어 방법
KR20240069443A (ko) * 2022-11-11 2024-05-20 삼성전자주식회사 전자 장치 및 그 제어 방법

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105659633B (zh) 2013-08-29 2020-04-28 康维达无线有限责任公司 物联网事件管理系统以及方法
US9633661B1 (en) 2015-02-02 2017-04-25 Amazon Technologies, Inc. Speech-responsive portable speaker
US10079012B2 (en) * 2015-04-21 2018-09-18 Google Llc Customizing speech-recognition dictionaries in a smart-home environment
US9485231B1 (en) 2015-05-26 2016-11-01 Dell Software Inc. Securing internet of things communications across multiple vendors
KR102469758B1 (ko) 2015-09-02 2022-11-22 삼성전자주식회사 서버 장치, 사용자 단말 장치, 그 제어 방법 및 전자 시스템
KR20170032114A (ko) * 2015-09-14 2017-03-22 삼성전자주식회사 음성 인식 장치 및 그의 제어방법
US9858927B2 (en) 2016-02-12 2018-01-02 Amazon Technologies, Inc Processing spoken commands to control distributed audio outputs
US10261830B2 (en) 2016-06-14 2019-04-16 Microsoft Technology Licensing, Llc Cross-device task execution
US10224031B2 (en) 2016-12-30 2019-03-05 Google Llc Generating and transmitting invocation request to appropriate third-party agent
KR20190054707A (ko) * 2017-11-14 2019-05-22 엘지전자 주식회사 음성 서버, 음성 인식 서버 시스템 및 그 동작 방법
KR20190101630A (ko) * 2018-02-23 2019-09-02 삼성전자주식회사 사용자 발화를 처리하는 시스템 및 그 시스템의 제어 방법
KR102219799B1 (ko) * 2019-06-13 2021-02-23 엘지전자 주식회사 음성 서버, 음성 인식 서버 시스템 및 그 동작 방법
KR102219800B1 (ko) * 2019-06-13 2021-02-23 엘지전자 주식회사 음성 서버, 음성 인식 서버 시스템 및 그 동작 방법
KR20210103208A (ko) 2020-02-13 2021-08-23 주식회사 케이티 다중 에이전트 제어 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113079031A (zh) * 2021-02-22 2021-07-06 四川惟邦新创科技有限公司 一种基于智能代理建立有序链接提升网络服务质量的方法

Also Published As

Publication number Publication date
EP3779969B1 (en) 2021-09-29
US11393474B2 (en) 2022-07-19
US20210043205A1 (en) 2021-02-11
WO2021025350A1 (en) 2021-02-11
EP3779969A1 (en) 2021-02-17
KR20210016815A (ko) 2021-02-17

Similar Documents

Publication Publication Date Title
US11393474B2 (en) Electronic device managing plurality of intelligent agents and operation method thereof
US10699704B2 (en) Electronic device for processing user utterance and controlling method thereof
US11662976B2 (en) Electronic device and method for sharing voice command thereof
US11804224B2 (en) Electronic device and method for operation thereof
US12112751B2 (en) Electronic device for processing user utterance and method for operating same
CN111640429B (zh) 提供语音识别服务的方法和用于该方法的电子装置
US11636867B2 (en) Electronic device supporting improved speech recognition
US11749271B2 (en) Method for controlling external device based on voice and electronic device thereof
KR102512614B1 (ko) 오디오 개선을 지원하는 전자 장치 및 이를 위한 방법
US20210217406A1 (en) Voice recognition service operating method and electronic device supporting same
US11810571B2 (en) Electronic device configured to perform action using speech recognition function and method for providing notification related to action using same
KR20200027753A (ko) 전자 장치 및 단축 명령어에 대응하는 태스크 수행 방법
CN113678119A (zh) 用于生成自然语言响应的电子装置及其方法
US11557285B2 (en) Electronic device for providing intelligent assistance service and operating method thereof
US11881215B2 (en) Electronic device and operation method of same

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination