CN107293295A - 一种执行自然语言命令所对应的任务的方法、设备和系统 - Google Patents

一种执行自然语言命令所对应的任务的方法、设备和系统 Download PDF

Info

Publication number
CN107293295A
CN107293295A CN201710430663.0A CN201710430663A CN107293295A CN 107293295 A CN107293295 A CN 107293295A CN 201710430663 A CN201710430663 A CN 201710430663A CN 107293295 A CN107293295 A CN 107293295A
Authority
CN
China
Prior art keywords
subtask
equipment
task
perform
execution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710430663.0A
Other languages
English (en)
Other versions
CN107293295B (zh
Inventor
戴帅湘
李国华
龚思颖
李龙飞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Suddenly Cognitive Technology Co ltd
Original Assignee
Beijing Moran Cognitive Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Moran Cognitive Technology Co Ltd filed Critical Beijing Moran Cognitive Technology Co Ltd
Priority to CN201710430663.0A priority Critical patent/CN107293295B/zh
Publication of CN107293295A publication Critical patent/CN107293295A/zh
Application granted granted Critical
Publication of CN107293295B publication Critical patent/CN107293295B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72433User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for voice messaging, e.g. dictaphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明的目的是提供一种用于执行自然语言命令所对应的任务的方法、设备与系统。具体地,获取用户当前输入的自然语言命令;对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;将所述任务拆分为具有执行时序关系的至少两个子任务;将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。与现有技术相比,本发明实现了用户通过一条自然语音命令即可操控多个智能设备协同操作来完成用户该自然语言命令所表达的需求,无需分别与每个智能设备进行交互,操作便利,不仅降低了用户的交互时间、提高了交互效率,也提升了用户的智能设备交互体验。

Description

一种执行自然语言命令所对应的任务的方法、设备和系统
技术领域
本发明涉及语音交互技术领域,尤其涉及一种用于执行自然语言命令所对应的任务的技术。
背景技术
随着计算机技术的普及,当今人们的生活已经逐渐走入智能时代。不仅仅是电脑,手机,PAD,人们衣食住行的方方面面也开始融入了智能技术,如智能电视,智能车载,智能家居等等;同时,将智能语音交互技术应用于智能设备也极大便利了智能设备的使用。
而现有的用户基于语音与智能设备间的交互通常局限于用户通过自然语言仅能同时与一个智能设备进行交互,即便用户可操作多个智能设备(如用户具有不止一个智能设备),尤其当需要多个智能设备协同操作来完成用户的需求时,也只能分别与各智能设备进行交互。例如,用户同时拥有智能眼镜和智能手机,当用户希望智能眼镜拍摄照片或视频并通过将其设置为智能手机的手机背景或在通过智能手机的社交应用分享该等照片或视频时,需要分别对智能眼镜和智能手机进行操作,无法通过一条简单的语音指令例如“拍摄一张照片,把其设置为手机背景”实现整个过程,这不仅增加了用户交互时间、降低了交互效率,也严重影响了用户的智能设备使用体验。
发明内容
本发明的一个目的是提供一种用于执行自然语言命令所对应的任务的方法、设备与系统。
根据本发明的一个方面,提供了一种用于执行自然语言命令所对应的任务的方法,其中,该方法包括以下步骤:
a获取用户当前输入的自然语言命令;
b对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;
c将所述任务拆分为具有执行时序关系的至少两个子任务;
d将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。
根据本发明的另一方面,还提供了一种在第一设备端用于辅助执行自然语言命令所对应的任务的方法,其中,所述任务被拆分为具有执行时序关系的至少两个子任务,其中,该方法包括以下步骤:
A接收待由所述第一设备执行的子任务;
B执行所述子任务。
根据本发明的一个方面,还提供了一种用于执行自然语言命令所对应的任务的执行设备,其中,该执行设备包括:
获取装置,用于获取用户当前输入的自然语言命令;
解析装置,用于对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;
拆分装置,用于将所述任务拆分为具有执行时序关系的至少两个子任务;
发送装置,用于将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。
根据本发明的另一方面,还提供了一种用于辅助执行自然语言命令所对应的任务的第一设备,其中,所述任务被拆分为具有执行时序关系的至少两个子任务,其中,该第一设备包括:
接收装置,用于接收待由所述第一设备执行的子任务;
第二执行装置,用于执行所述子任务。
根据本发明的又一方面,还提供了一种用于执行自然语言命令所对应的任务的系统,其中,该系统包括如前述根据本发明一个方面的一种用于执行自然语言命令所对应的任务的执行设备,以及根据本发明另一方面的一种用于辅助执行自然语言命令所对应的任务的第一设备。
根据本发明的还一方面,还提供了一种计算设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行如如前述根据本发明一个方面的一种用于执行自然语言命令所对应的任务的方法。
与现有技术相比,本发明的一个实施例通过将对用户的自然语音命令进行解析得到的任务进行拆分成具有执行时序关系的至少两个子任务,并将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行,从而实现了用户通过一条自然语音命令即可操控多个智能设备协同操作来完成用户该自然语言命令所表达的需求,无需分别与每个智能设备进行交互,操作便利,不仅降低了用户的交互时间、提高了交互效率,也提升了用户的智能设备语音交互体验。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1示出根据本发明一个方面的一种用于执行自然语言命令所对应的任务的执行设备的设备示意图;
图2示出本发明一个实施例的一种用于执行自然语言命令所对应的任务的执行设备和第一设备的设备示意图;
图3示出本发明另一个实施例的一种用于执行自然语言命令所对应的任务的执行设备的设备示意图;
图4示出本发明还一个实施例的一种用于执行自然语言命令所对应的任务的执行设备和第一设备的设备示意图;
图5示出根据本发明另一个方面的一种用于执行自然语言命令所对应的任务的方法流程图;
图6示出本发明一个实施例的执行设备和第一设备配合实现一种用于执行自然语言命令所对应的任务的方法流程图;
图7示出本发明另一个实施例的一种用于执行自然语言命令所对应的任务的方法流程图;
图8示出本发明一个实施例的执行设备和第一设备配合实现一种用于执行自然语言命令所对应的任务的方法流程图;
图9示出了适于用来实现本发明实施方式的示例性计算机系统/ 服务器的框图。
附图中相同或相似的附图标记代表相同或相似的部件。
具体实施方式
下面结合附图对本发明作进一步详细描述。
图1示出根据本发明一个方面的一种用于执行自然语言命令所对应的任务的执行设备1,其中,执行设备1包括获取装置11、解析装置12、拆分装置13和发送装置。具体地,获取装置11获取用户当前输入的自然语言命令;解析装置12对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;拆分装置13将所述任务拆分为具有执行时序关系的至少两个子任务;发送装置14将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。
在此,执行设备1是指能够获取以及处理用户的自然语言命令、并能将用户的自然语言命令所对应的任务进行拆分,以使得多设备协同操作来完成该任务的电子设备。在具体实施例中,执行设备1包括但不限于网络设备、用户设备或网络设备与用户设备通过网络相集成所构成的设备。在此,所述网络设备包括但不限于如网络主机、单个网络服务器、多个网络服务器集或基于云计算的计算机集合等实现;或者由用户设备实现。在此,云由基于云计算(Cloud Computing)的大量主机或网络服务器构成,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。在此,所述用户设备可以是任何一种可与用户通过键盘、触摸板、触摸屏、或手写设备、或语音交互等方式进行人机交互的电子产品,例如PC、手机、智能手机、PDA、可穿戴智能设备(如智能手环、智能眼镜、智能头盔等)、掌上电脑PPC或平板电脑等。所述网络包括但不限于互联网、广域网、城域网、局域网、VPN网络、无线自组织网络(Ad Hoc网络)等。本领域技术人员应能理解上述执行设备1仅为举例,其他现有的或今后可能出现的网络设备或用户设备如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。在此,网络设备及用户设备均包括一种能够按照事先设定或存储的指令,自动进行数值计算和信息处理的电子设备,其硬件包括但不限于微处理器、专用集成电路(ASIC)、可编程门阵列(FPGA)、数字处理器(DSP)、嵌入式设备等。
在具体实施例中,若执行设备1为用户设备,则执行设备1首先通过其自身提供的声音采集设备或拾音设备等,获取用户当前输入的自然语言命令;然后,对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;接着,将所述任务拆分为具有执行时序关系的至少两个子任务;再接着,将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。例如假设执行设备1可以执行所述至少两个子任务中的一个,则执行设备1执行该子任务,并将剩余子任务发送至相应的设备执行;再如假设执行设备1均不能执行所述至少两个子任务中的任何一个,则执行设备1将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备来执行。在具体应用中,执行设备1如执行了所述至少两个子任务中的在执行时序上属于前一子任务的子任务,则执行设备1可将该子任务的执行结果信息发送至用于执行在执行时序上属于该子任务的后一子任务的设备,以使得后一子任务被执行,从而完成任务的执行。在此,本领域技术人员应当理解,不同子任务可由不同设备执行,同一设备可执行一个或多个子任务,下同。
在另一实施例中,若执行设备1为网络设备,则执行设备1首先接收采集了用户当前输入的自然语言命令的设备所发送的该自然语言命令;然后,对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;接着,将所述任务拆分为具有执行时序关系的至少两个子任务;再接着,将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。
在还一实施例中,若执行设备1为网络设备和用户设备相集成的设备,则用户设备首先通过其自身提供的声音采集设备或拾音设备等,获取用户当前输入的自然语言命令;然后,将该自然语音命令发送至对应的网络设备,由网络设备对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务,并将所述任务拆分为具有执行时序关系的至少两个子任务,以及将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行,如网络设备将用户设备执行的子任务发送给该用户设备执行,并将剩余子任务发送至相应的设备执行,或者,网络设备将全部子任务均发送给用户设备,由用户设备执行相应的子任务,并将剩余的子任务发送给其他设备执行。
在此,本领域技术人员应当理解,当由用户设备和网络设备配合完成本发明时,用户设备和网络设备执行的步骤可任意变换,以上实施例仅是示例性的,并不能理解为对本发明的限定。
具体地,获取装置11可通过执行设备1自身提供的声音采集设备如麦克风等,采集用户当前输入的自然语言命令;或者,通过接收能够采集到用户当前输入的自然语音命令的设备所发送的该用户当前输入的自然语言命令,来获取该用户当前输入的自然语言命令。
例如,假设用户user具有两个智能设备如智能眼镜和智能手机,其希望用智能眼镜拍摄一张照片,然后将该照片设置为手机的背景,则用户user向智能眼镜发出自然语音命令“拍摄一张照片,把其设置为手机背景”,则智能眼镜通过其自身提供的声音采集设备,便可采集到该自然语言命令“拍摄一张照片,把其设置为手机背景”。
本领域技术人员应能理解上述获取用户当前输入的自然语言命令的方式仅为举例,其他现有的或今后可能出现的获取用户当前输入的自然语言命令的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。
接着,解析装置12通过诸如基于声道模型和语音知识的方法、模板匹配的方法以及利用人工神经网络的方法等语音识别技术将所述自然语音命令转换成文字,来对所述自然语言命令进行解析,以获得该自然语音命令所对应的任务。
在此,自然语言命令所对应的任务可用自然语音命令转换成文字后的文字本身来描述,也可用将自然语音命令转换成文字后、去除文字中无实际意义的虚词、助词后得到的文本来描述。
例如,接上例,解析装置12将自然语言命令“拍摄一张照片,把其设置为手机背景”解析后,得到对应的任务为:拍摄一张照片,把其设置为手机背景。
然后,拆分装置13将所述任务拆分为具有执行时序关系的至少两个子任务。具体地,拆分装置13对所述任务进行语法分析,以将所述任务拆分为具有执行时序关系的至少两个子任务,如通过语法分析器来标注任务中的动词和名词来对所述任务的进行拆分。例如,对于“拍摄一张照片,把其设置为手机背景”这个任务,通过标注“拍摄照片”和“设置为手机背景”来对任务进行识别,识别出所述任务包括两个具有时序执行关系的子任务,即得到两个按时序执行的子任务:“拍摄照片”、“设置为手机背景”。
本领域技术人员应能理解上述对任务拆分的方式仅为举例,其他现有的或今后可能出现的对任务拆分的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。
发送装置14将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。
例如,接上例,则发送装置14将子任务“拍摄照片”发送给智能眼镜执行,将子任务“设置为手机背景”发送给智能手机执行,使得智能手机将智能眼镜所拍摄的照片设置为其背景,从而完成自然语言命令“拍摄一张照片,把其设置为手机背景”。
优选地,发送装置14还可将在执行时序上属于前一子任务的执行结果信息发送至用于执行在执行时序上属于该子任务的后一子任务的设备,以使得后一子任务被执行。例如,对于“拍摄一张照片,把其设置为手机背景”这个任务,拆分装置13将其拆分为两个按时序执行的子任务:“拍摄照片”、“设置为手机背景”,则发送装置 14将子任务“拍摄照片”发送给智能眼镜执行,将子任务“设置为手机背景”发送给智能手机执行,如执行设备1自身即为智能眼镜,则发送装置14同时可将智能眼镜执行子任务“拍摄照片”得到的照片 photo发送给智能手机,从而使得智能手机基于子任务“设置为手机背景”将接收到的照片photo设置为背景;如执行设备1自身并非是智能眼镜,则发送装置14将子任务“拍摄照片”发送给智能眼镜执行后,执行设备1可获取智能眼镜执行子任务“拍摄照片”得到的照片 photo,从而发送装置14将子任务“设置为手机背景”发送给智能手机的同时,还可将该子任务“设置为手机背景”的前一子任务“拍摄照片”的执行结果信息即照片photo发送给智能手机,从而使得智能手机基于子任务“设置为手机背景”将接收到的照片photo设置为背景。
在一个实施例中,执行设备1还包括确定装置(参考图1,未示出)。具体地,确定装置确定用于执行相应子任务的设备,如根据所述自然语言命令中包含的关于执行相应子任务的设备的信息确定所述设备。
例如,对于用户user输入的自然语言命令“拍摄一张照片,把其设置为手机背景”,拆分装置13将其拆分为两个按时序执行的两个子任务“拍摄照片”和“设置为手机背景”,由于该自然语言命令中包含了关于执行子任务“设置为手机背景”的设备即用户user的智能手机的信息,则确定装置确定用户user的智能手机作为执行子任务“设置为手机背景”的设备。对于子任务“拍摄照片”,若执行设备 1为接收用户输入的自然语言命令的设备,即用户user的智能眼镜,则确定装置确定执行设备1本身即是执行子任务“拍摄照片”的设备。
优选地,若多个设备可执行同一子任务时,优选参与接收用户自然语言命令的设备。例如,确认具有拍摄功能的设备包括智能眼镜和智能手机,但是接收用户自然语言命令的是智能眼镜,因此,优先确认智能眼镜执行拍摄功能。
在一个实施例中,执行设备1还包括第一执行装置(参考图1,未示出)。具体地,第一执行装置执行所述至少两个子任务中的第一子任务;其中,发送装置14将所述至少两个子任务中的除所述第一子任务之外的剩余子任务发送至用于执行相应剩余子任务的设备,以使得所述任务被执行。
具体地,第一执行装置执行所述至少两个子任务中的第一子任务。在此,所述第一子任务可以是所述至少两个子任务中在执行时序上位属第一时序的子任务,也可以是非第一时序的子任务。例如,对于用户user输入的自然语言命令“拍摄一张照片,把其设置为手机背景”,拆分装置13将其拆分为两个按时序执行的两个子任务“拍摄照片”和“设置为手机背景”,若执行设备1为智能眼镜,则第一执行装置执行子任务“拍摄照片”;若执行设备1为智能手机,则第一执行装置执行子任务“设置为手机背景”。
接着,发送装置14将所述至少两个子任务中的除所述第一子任务之外的剩余子任务发送至用于执行相应剩余子任务的设备,以使得所述任务被执行。例如,接上例,若执行设备1为智能眼镜,则发送装置14将子任务“设置为手机背景”发送给智能手机;若执行设备1 为智能手机,则发送装置14将子任务“拍摄照片”发送给智能眼镜。
优选地,第一执行装置执行所述至少两个子任务中在执行时序上位属第一时序的子任务;其中,发送装置14将该子任务的执行结果信息以及在执行时序上属于该子任务的后一子任务发送至用于执行该后一子任务的设备,以使得后一子任务被执行,从而使得所述任务被执行。
例如,对于“拍摄一张照片,把其设置为手机背景”这个任务,拆分装置13将其拆分为两个按时序执行的子任务:“拍摄照片”、“设置为手机背景”,则第一执行装置执行在执行时序上属于第一时序的子任务“拍摄照片”,如拍摄了照片photo;然后,发送装置14 将照片photo以及后一子任务“设置为手机背景”发送至用于执行该后一子任务的设备,即智能手机。
图2示出本发明一个实施例的一种用于执行自然语言命令所对应的任务的执行设备1和第一设备2的设备示意图,其中,执行设备1 包括获取装置11’、解析装置12’、拆分装置13’和发送装置14’,第一设备2包括接收装置21’和第二执行装置22’。具体地,执行设备1的获取装置11’获取用户当前输入的自然语言命令;解析装置12’对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;拆分装置13’将所述任务拆分为具有执行时序关系的至少两个子任务;发送装置14’将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行;相应的,第一设备2的接收装置21’接收待由所述第一设备执行的子任务;第二执行装置22’执行所述子任务。在此,获取装置11’、解析装置12’、拆分装置13’和发送装置14’分别与图1实施例中对应装置的内容相同或相似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
在此,第一设备2可以是任何一种可与用户通过键盘、触摸板、触摸屏、或手写设备、或语音交互等方式进行人机交互的电子产品,例如PC、手机、智能手机、PDA、可穿戴智能设备(如智能手环、智能眼镜、智能头盔等)、掌上电脑PPC或平板电脑等。第一设备2 与执行设备1之间通过网络相连,第一设备2通常与执行设备1属于不同的设备,例如,执行设备1为智能眼镜等可穿戴智能设备,第一设备2为智能手机等智能设备。图2以执行设备1为智能眼镜、第一设备2为智能手机为例示出本发明。
在此,本领域技术人员应能理解上述第一设备2仅为举例,其他现有的或今后可能出现的第一设备如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。在此,第一设备2包括一种能够按照事先设定或存储的指令,自动进行数值计算和信息处理的电子设备,其硬件包括但不限于微处理器、专用集成电路(ASIC)、可编程门阵列(FPGA)、数字处理器(DSP)、嵌入式设备等。
具体地,第一设备2的接收装置21’通过网络接收执行设备1的发送装置14’发送的待由第一设备2执行的子任务。例如,对于用户 user输入的自然语言命令“拍摄一张照片,把其设置为手机背景”,执行设备1的拆分装置13’将其拆分为两个按时序执行的两个子任务“拍摄照片”和“设置为手机背景”,发送装置14’将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行,因该实施例中,执行设备1如为用户user的智能眼镜,则发送装置14’如将子任务“设置为手机背景”发送至第一设备2。相应地,第一设备2接收该子任务。
接着,第二执行装置22’执行所述子任务。例如,接上例,第二执行装置22’基于子任务“设置为手机背景”,将用户user的智能眼镜响应于子任务“拍摄照片”所拍摄的照片photo设置为第一设备2 的背景。
在另一实施例中,执行设备1的获取装置11’获取用户当前输入的自然语言命令;解析装置12’对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;拆分装置13’将所述任务拆分为具有执行时序关系的至少两个子任务;第一执行装置(未示出,对应于图1中的第一执行装置)执行所述至少两个子任务中在执行时序上位属第一时序的子任务;发送装置14’将该子任务的执行结果信息以及在执行时序上属于该子任务的后一子任务发送至用于执行该后一子任务的第一设备2,以使得后一子任务被执行,从而使得所述任务被执行;相应的,第一设备2的接收装置21’接收待由所述第一设备执行的子任务;第二执行装置22’执行所述子任务。
在一个实施例中,第一设备2还包括第二检测装置(未示出)和第二处理装置(未示出)。具体地,第二检测装置检测是否满足对所述子任务进行语义消歧处理的触发条件;若满足所述触发条件,第二处理装置对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务;其中,第二执行装置22’执行经语义消歧处理后的所述子任务。
具体地,第二检测装置检测是否满足对所述子任务进行语义消歧处理的触发条件。
优选地,所述触发条件包括以下至少任一项:
-所述子任务所对应的任务文本中含有预定类别词;
-所述子任务所对应的任务文本具备语义缺失。
例如,若所述触发条件包括所述子任务所对应的任务文本中含有预定类别词,在此,所述预定类别词是指使得所述子任务所对应的任务文本语义不完整的词,如缺失词、指代词等,如假设第一设备2的接收装置21’接收到执行设备1发送的待由第一设备2执行的子任务“把其设置为手机背景”,因该子任务所对应的任务文本中含有代词“其”,从而第一设备2根据该子任务,并不知晓将什么内容设置为手机背景,因此,第二检测装置判断满足对子任务“把其设置为手机背景”进行语义消歧处理的触发条件;假设第一设备2的接收装置21’接收到执行设备1发送的待由第一设备2执行的子任务“拍一张朋友圈的快照”,因该子任务所对应的任务文本语义完整,并不含有预定类别词如代词“其”、“它”等,因此,第二检测装置判断不满足对子任务“拍一张朋友圈的快照”进行语义消歧处理的触发条件。
再如,若所述触发条件包括所述子任务所对应的任务文本具备语义缺失,如假设第一设备2的接收装置21’接收到执行设备1发送的待由第一设备2执行的子任务“设置为手机背景”,因该子任务所对应的任务文本语义不完整,即具备语义缺失,从而第一设备2根据该子任务,并不知晓将什么内容设置为手机背景,因此,第二检测装置判断满足对子任务“设置为手机背景”进行语义消歧处理的触发条件。
在此,本领域技术人员应能理解上述触发条件仅为举例,其他现有的或今后可能出现的触发条件如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。
若满足所述触发条件,第二处理装置对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务。在此,第二处理装置进行语义消歧处理的方式包括但不限于以下至少任一项:
1)根据所述至少两个子任务中在执行时序上属于所述子任务的前一子任务,对所述子任务进行语义消歧处理。
例如,假设第一设备2的接收装置21’接收到执行设备1发送的待由第一设备2执行的子任务为“设置为手机背景”,而该子任务的前一子任务为“拍摄照片”,其执行者为用户user的智能眼镜,则第二处理装置可确定子任务“设置为手机背景”是指用户user的智能手机需要将智能眼镜基于前一子任务“拍摄照片”所拍摄的照片photo 设置为手机背景。
2)根据所述任务的任务文本,对所述子任务进行语义消歧处理。
例如,假设第一设备2的接收装置21’接收到执行设备1发送的待由第一设备2执行的子任务为“设置为手机背景”,而该子任务所对应的任务为“拍摄一张照片,把其设置为手机背景”,则第二处理装置可确定子任务“设置为手机背景”是指用户user的智能手机需要将智能眼镜所拍摄的照片photo设置为手机背景。
在此,本领域技术人员应能理解上述语义消歧处理的方式仅为举例,其他现有的或今后可能出现的语义消歧处理的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。
接着,第二执行装置22’执行经语义消歧处理后的所述子任务。
在此,本发明在第一设备端对待执行的子任务进行语义消歧处理,提高了对用户的自然语言命令所表达的需求识别的精准度,更进一步提升了用户的多智能设备语音交互体验。
图3示出本发明另一个实施例的一种用于执行自然语言命令所对应的任务的执行设备1,其中,执行设备1还包括第一检测装置15”和第一处理装置16”,其中,发送装置14”将经语义消歧处理后的所述子任务发送至用于执行该子任务的设备,以使得所述任务被执行。
具体地,获取装置11”获取用户当前输入的自然语言命令;解析装置12”对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;拆分装置13”将所述任务拆分为具有执行时序关系的至少两个子任务;第一检测装置15”检测是否满足对所述至少两个子任务中的子任务进行语义消歧处理的触发条件;若满足所述触发条件,第一处理装置16”对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务;发送装置14”将经语义消歧处理后的所述子任务发送至用于执行该子任务的设备,以使得所述任务被执行。在此,获取装置11”、解析装置12”和拆分装置13”分别与图1实施例中对应装置的内容相同或相似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
具体地,第一检测装置15”检测是否满足对所述至少两个子任务中的子任务进行语义消歧处理的触发条件。
在此,第一检测装置15”检测是否满足所述触发条件的方式与图 2实施例中的第二检测装置检测是否满足所述触发条件的方式相同或相似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
若满足所述触发条件,第一处理装置16”对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务。
在此,第一处理装置16”进行语义消歧处理的方式与图2实施例中第一处理装置进行语义消歧处理的方式相同或相似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
接着,发送装置14”将经语义消歧处理后的所述子任务发送至用于执行该子任务的设备,以使得所述任务被执行。
在此,本发明在执行设备端对待执行的子任务进行语义消歧处理,不仅使得本申请的语义消歧处理方案灵活多样,也提高了对用户的自然语言命令所表达的需求识别的精准度,更进一步提升了用户的多智能设备语音交互体验。
图4示出本发明还一个实施例的一种用于执行自然语言命令所对应的任务的执行设备1和第一设备2的设备示意图;其中,执行设备1包括获取装置11”’、解析装置12”’、拆分装置13”’、第一检测装置15”’、第一处理装置16”’和发送装置14”’,第一设备2包括接收装置21”’和第二执行装置222”’。具体地,执行设备1的获取装置 11”’获取用户当前输入的自然语言命令;解析装置12”’对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;拆分装置 13”’将所述任务拆分为具有执行时序关系的至少两个子任务;第一检测装置15”’检测是否满足对所述至少两个子任务中的子任务进行语义消歧处理的触发条件;若满足所述触发条件,第一处理装置16”’对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务;发送装置14”’将经语义消歧处理后的所述子任务发送至用于执行该子任务的设备,以使得所述任务被执行;相应地,第一设备2的接收装置21”’接收经语义消歧处理后的待由所述第一设备执行的子任务;第二执行装置22”’执行所述子任务。
在此,获取装置11”’、解析装置12”’和拆分装置13”’分别与图1 实施例中对应装置的内容相同或相似,第一检测装置15”’、第一处理装置16”’和发送装置14”’分别与图3实施例中对应装置的内容相同或相似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
在此,第二执行装置22”’与图2实施例中对应装置的内容相同或近似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
图5示出根据本发明另一个方面的一种用于执行自然语言命令所对应的任务的方法流程图。
其中,该方法包括步骤S1、步骤S2、步骤S3和步骤S4。
具体地,具体地,在步骤S1中,执行设备1获取用户当前输入的自然语言命令;在步骤S2中,执行设备1对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;在步骤S3中,执行设备1将所述任务拆分为具有执行时序关系的至少两个子任务;在步骤S4中,执行设备1将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。
在此,执行设备1是指能够获取以及处理用户的自然语言命令、并能将用户的自然语言命令所对应的任务进行拆分,以使得多设备协同操作来完成该任务的电子设备。在具体实施例中,执行设备1包括但不限于网络设备、用户设备或网络设备与用户设备通过网络相集成所构成的设备。在此,所述网络设备包括但不限于如网络主机、单个网络服务器、多个网络服务器集或基于云计算的计算机集合等实现;或者由用户设备实现。在此,云由基于云计算(Cloud Computing)的大量主机或网络服务器构成,其中,云计算是分布式计算的一种,由一群松散耦合的计算机集组成的一个超级虚拟计算机。在此,所述用户设备可以是任何一种可与用户通过键盘、触摸板、触摸屏、或手写设备、或语音交互等方式进行人机交互的电子产品,例如PC、手机、智能手机、PDA、可穿戴智能设备(如智能手环、智能眼镜、智能头盔等)、掌上电脑PPC或平板电脑等。所述网络包括但不限于互联网、广域网、城域网、局域网、VPN网络、无线自组织网络(Ad Hoc网络)等。本领域技术人员应能理解上述执行设备1仅为举例,其他现有的或今后可能出现的网络设备或用户设备如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。在此,网络设备及用户设备均包括一种能够按照事先设定或存储的指令,自动进行数值计算和信息处理的电子设备,其硬件包括但不限于微处理器、专用集成电路(ASIC)、可编程门阵列(FPGA)、数字处理器(DSP)、嵌入式设备等。
在具体实施例中,若执行设备1为用户设备,则执行设备1首先通过其自身提供的声音采集设备或拾音设备等,获取用户当前输入的自然语言命令;然后,对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;接着,将所述任务拆分为具有执行时序关系的至少两个子任务;再接着,将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。例如假设执行设备1可以执行所述至少两个子任务中的一个,则执行设备1执行该子任务,并将剩余子任务发送至相应的设备执行;再如假设执行设备1均不能执行所述至少两个子任务中的任何一个,则执行设备1将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备来执行。在具体应用中,执行设备1如执行了所述至少两个子任务中的在执行时序上属于前一子任务的子任务,则执行设备1可将该子任务的执行结果信息发送至用于执行在执行时序上属于该子任务的后一子任务的设备,以使得后一子任务被执行,从而完成任务的执行。在此,本领域技术人员应当理解,不同子任务可由不同设备执行,同一设备可执行一个或多个子任务,下同。
在另一实施例中,若执行设备1为网络设备,则执行设备1首先接收采集了用户当前输入的自然语言命令的设备所发送的该自然语言命令;然后,对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;接着,将所述任务拆分为具有执行时序关系的至少两个子任务;再接着,将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。
在还一实施例中,若执行设备1为网络设备和用户设备相集成的设备,则用户设备首先通过其自身提供的声音采集设备或拾音设备等,获取用户当前输入的自然语言命令;然后,将该自然语音命令发送至对应的网络设备,由网络设备对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务,并将所述任务拆分为具有执行时序关系的至少两个子任务,以及将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行,如网络设备将用户设备执行的子任务发送给该用户设备执行,并将剩余子任务发送至相应的设备执行,或者,网络设备将全部子任务均发送给用户设备,由用户设备执行相应的子任务,并将剩余的子任务发送给其他设备执行。
在此,本领域技术人员应当理解,当由用户设备和网络设备配合完成本发明时,用户设备和网络设备执行的步骤可任意变换,以上实施例仅是示例性的,并不能理解为对本发明的限定。
具体地,在步骤S1中,执行设备1可通过执行设备1自身提供的声音采集设备如麦克风等,采集用户当前输入的自然语言命令;或者,通过接收能够采集到用户当前输入的自然语音命令的设备所发送的该用户当前输入的自然语言命令,来获取该用户当前输入的自然语言命令。
例如,假设用户user具有两个智能设备如智能眼镜和智能手机,其希望用智能眼镜拍摄一张照片,然后将该照片设置为手机的背景,则用户user向智能眼镜发出自然语音命令“拍摄一张照片,把其设置为手机背景”,则智能眼镜通过其自身提供的声音采集设备,便可采集到该自然语言命令“拍摄一张照片,把其设置为手机背景”。
本领域技术人员应能理解上述获取用户当前输入的自然语言命令的方式仅为举例,其他现有的或今后可能出现的获取用户当前输入的自然语言命令的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。
接着,在步骤S2中,执行设备1通过诸如基于声道模型和语音知识的方法、模板匹配的方法以及利用人工神经网络的方法等语音识别技术将所述自然语音命令转换成文字,来对所述自然语言命令进行解析,以获得该自然语音命令所对应的任务。
在此,自然语言命令所对应的任务可用自然语音命令转换成文字后的文字本身来描述,也可用将自然语音命令转换成文字后、去除文字中无实际意义的虚词、助词后得到的文本来描述。
例如,接上例,在步骤S2中,执行设备1将自然语言命令“拍摄一张照片,把其设置为手机背景”解析后,得到对应的任务为:拍摄一张照片,把其设置为手机背景。
然后,在步骤S3中,执行设备1将所述任务拆分为具有执行时序关系的至少两个子任务。具体地,在步骤S3中,执行设备1对所述任务进行语法分析,以将所述任务拆分为具有执行时序关系的至少两个子任务,如通过语法分析器来标注任务中的动词和名词来对所述任务的进行拆分。例如,对于“拍摄一张照片,把其设置为手机背景”这个任务,通过标注“拍摄照片”和“设置为手机背景”来对任务进行识别,识别出所述任务包括两个具有时序执行关系的子任务,即得到两个按时序执行的子任务:“拍摄照片”、“设置为手机背景”。
本领域技术人员应能理解上述对任务拆分的方式仅为举例,其他现有的或今后可能出现的对任务拆分的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。
在步骤S4中,执行设备1将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。
例如,接上例,则在步骤S4中,执行设备1将子任务“拍摄照片”发送给智能眼镜执行,将子任务“设置为手机背景”发送给智能手机执行,使得智能手机将智能眼镜所拍摄的照片设置为其背景,从而完成自然语言命令“拍摄一张照片,把其设置为手机背景”。
优选地,在步骤S4中,执行设备1还可将在执行时序上属于前一子任务的执行结果信息发送至用于执行在执行时序上属于该子任务的后一子任务的设备,以使得后一子任务被执行。例如,对于“拍摄一张照片,把其设置为手机背景”这个任务,在步骤S3中,执行设备1将其拆分为两个按时序执行的子任务:“拍摄照片”、“设置为手机背景”,则在步骤S4中,执行设备1将子任务“拍摄照片”发送给智能眼镜执行,将子任务“设置为手机背景”发送给智能手机执行,如执行设备1自身即为智能眼镜,则在步骤S4中,执行设备1 同时可将智能眼镜执行子任务“拍摄照片”得到的照片photo发送给智能手机,从而使得智能手机基于子任务“设置为手机背景”将接收到的照片photo设置为背景;如执行设备1自身并非是智能眼镜,则在步骤S4中,执行设备1将子任务“拍摄照片”发送给智能眼镜执行后,执行设备1可获取智能眼镜执行子任务“拍摄照片”得到的照片 photo,从而在步骤S4中,执行设备1将子任务“设置为手机背景”发送给智能手机的同时,还可将该子任务“设置为手机背景”的前一子任务“拍摄照片”的执行结果信息即照片photo发送给智能手机,从而使得智能手机基于子任务“设置为手机背景”将接收到的照片 photo设置为背景。
在一个实施例中,执行设备1还包括步骤S8(参考图5,未示出)。具体地,在步骤S8中,执行设备1确定用于执行相应子任务的设备,如根据所述自然语言命令中包含的关于执行相应子任务的设备的信息确定所述设备。
例如,对于用户user输入的自然语言命令“拍摄一张照片,把其设置为手机背景”,在步骤S3中,执行设备1将其拆分为两个按时序执行的两个子任务“拍摄照片”和“设置为手机背景”,由于该自然语言命令中包含了关于执行子任务“设置为手机背景”的设备即用户user的智能手机的信息,则在步骤S8中,执行设备1确定用户user 的智能手机作为执行子任务“设置为手机背景”的设备。对于子任务“拍摄照片”,若执行设备1为接收用户输入的自然语言命令的设备,即用户user的智能眼镜,则在步骤S8中,执行设备1确定执行设备 1本身即是执行子任务“拍摄照片”的设备。
优选地,若多个设备可执行同一子任务时,优选参与接收用户自然语言命令的设备。例如,确认具有拍摄功能的设备包括智能眼镜和智能手机,但是接收用户自然语言命令的是智能眼镜,因此,优先确认智能眼镜执行拍摄功能。
在一个实施例中,执行设备1还包括步骤S9(参考图5,未示出)。具体地,在步骤S9中,执行设备1执行所述至少两个子任务中的第一子任务;其中,在步骤S4中,执行设备1将所述至少两个子任务中的除所述第一子任务之外的剩余子任务发送至用于执行相应剩余子任务的设备,以使得所述任务被执行。
具体地,在步骤S9中,执行设备1执行所述至少两个子任务中的第一子任务。在此,所述第一子任务可以是所述至少两个子任务中在执行时序上位属第一时序的子任务,也可以是非第一时序的子任务。例如,对于用户user输入的自然语言命令“拍摄一张照片,把其设置为手机背景”,在步骤S3中,执行设备1将其拆分为两个按时序执行的两个子任务“拍摄照片”和“设置为手机背景”,若执行设备1为智能眼镜,则在步骤S9中,执行设备1执行子任务“拍摄照片”;若执行设备1为智能手机,则在步骤S9中,执行设备1执行子任务“设置为手机背景”。
接着,在步骤S4中,执行设备1将所述至少两个子任务中的除所述第一子任务之外的剩余子任务发送至用于执行相应剩余子任务的设备,以使得所述任务被执行。例如,接上例,若执行设备1为智能眼镜,则在步骤S4中,执行设备1将子任务“设置为手机背景”发送给智能手机;若执行设备1为智能手机,则在步骤S4中,执行设备1将子任务“拍摄照片”发送给智能眼镜。
优选地,在步骤S9中,执行设备1执行所述至少两个子任务中在执行时序上位属第一时序的子任务;其中,在步骤S4中,执行设备1将该子任务的执行结果信息以及在执行时序上属于该子任务的后一子任务发送至用于执行该后一子任务的设备,以使得后一子任务被执行,从而使得所述任务被执行。
例如,对于“拍摄一张照片,把其设置为手机背景”这个任务,在步骤S3中,执行设备1将其拆分为两个按时序执行的子任务:“拍摄照片”、“设置为手机背景”,则在步骤S9中,执行设备1执行在执行时序上属于第一时序的子任务“拍摄照片”,如拍摄了照片 photo;然后,在步骤S4中,执行设备1将照片photo以及后一子任务“设置为手机背景”发送至用于执行该后一子任务的设备,即智能手机。
图6示出本发明一个实施例的执行设备和第一设备配合实现一种用于执行自然语言命令所对应的任务的方法流程图。
其中,该方法包括步骤S1’、步骤S2’、步骤S3’、步骤S4’和步骤S5’。
具体地,在步骤S1'中,执行设备1获取用户当前输入的自然语言命令;在步骤S2'中,执行设备1对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;在步骤S3'中,执行设备1将所述任务拆分为具有执行时序关系的至少两个子任务;在步骤S4'中,执行设备1将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行;相应的,第一设备2接收待由所述第一设备执行的子任务;在步骤S5'中,第一设备2执行所述子任务。在此,步骤S1'、步骤S2'、步骤S3'和步骤S4'分别与图5实施例中对应步骤的内容相同或相似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
在此,第一设备2可以是任何一种可与用户通过键盘、触摸板、触摸屏、或手写设备、或语音交互等方式进行人机交互的电子产品,例如PC、手机、智能手机、PDA、可穿戴智能设备(如智能手环、智能眼镜、智能头盔等)、掌上电脑PPC或平板电脑等。第一设备2 与执行设备1之间通过网络相连,第一设备2通常与执行设备1属于不同的设备,例如,执行设备1为智能眼镜等可穿戴智能设备,第一设备2为智能手机等智能设备。图2以执行设备1为智能眼镜、第一设备2为智能手机为例示出本发明。
在此,本领域技术人员应能理解上述第一设备2仅为举例,其他现有的或今后可能出现的第一设备如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。在此,第一设备2包括一种能够按照事先设定或存储的指令,自动进行数值计算和信息处理的电子设备,其硬件包括但不限于微处理器、专用集成电路(ASIC)、可编程门阵列(FPGA)、数字处理器(DSP)、嵌入式设备等。
具体地,在步骤S4'中,第一设备2通过网络接收执行设备1发送的待由第一设备2执行的子任务。例如,对于用户user输入的自然语言命令“拍摄一张照片,把其设置为手机背景”,在步骤S3'中,执行设备1将其拆分为两个按时序执行的两个子任务“拍摄照片”和“设置为手机背景”,在步骤S4'中,执行设备1将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行,因该实施例中,执行设备1如为用户user的智能眼镜,则在步骤S4'中,执行设备1如将子任务“设置为手机背景”发送至第一设备2。相应地,第一设备2接收该子任务。
接着,在步骤S5'中,第一设备2执行所述子任务。例如,接上例,在步骤S5'中,第一设备2基于子任务“设置为手机背景”,将用户user的智能眼镜响应于子任务“拍摄照片”所拍摄的照片photo 设置为第一设备2的背景。
在另一实施例中,在步骤S1'中,执行设备1获取用户当前输入的自然语言命令;在步骤S2'中,执行设备1对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;在步骤S3'中,执行设备1将所述任务拆分为具有执行时序关系的至少两个子任务;在步骤S9’中,执行设备1(未示出,对应于图5中的步骤S9)执行所述至少两个子任务中在执行时序上位属第一时序的子任务;在步骤S4' 中,执行设备1将该子任务的执行结果信息以及在执行时序上属于该子任务的后一子任务发送至用于执行该后一子任务的第一设备2,以使得后一子任务被执行,从而使得所述任务被执行;相应的,第一设备2接收待由所述第一设备执行的子任务;在步骤S5'中,第一设备2 执行所述子任务。
在一个实施例中,第一设备2还包括步骤S10’(未示出)和步骤 S11’(未示出)。具体地,在步骤S10'中,第一设备2检测是否满足对所述子任务进行语义消歧处理的触发条件;若满足所述触发条件,在步骤S11'中,第一设备2对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务;其中,在步骤S5'中,第一设备2 执行经语义消歧处理后的所述子任务。
具体地,在步骤S10'中,第一设备2检测是否满足对所述子任务进行语义消歧处理的触发条件。
优选地,所述触发条件包括以下至少任一项:
-所述子任务所对应的任务文本中含有预定类别词;
-所述子任务所对应的任务文本具备语义缺失。
例如,若所述触发条件包括所述子任务所对应的任务文本中含有预定类别词,在此,所述预定类别词是指使得所述子任务所对应的任务文本语义不完整的词,如缺失词、指代词等,如假设在步骤S4'中,第一设备2接收到执行设备1发送的待由第一设备2执行的子任务“把其设置为手机背景”,因该子任务所对应的任务文本中含有代词“其”,从而第一设备2根据该子任务,并不知晓将什么内容设置为手机背景,因此,在步骤S10'中,第一设备2判断满足对子任务“把其设置为手机背景”进行语义消歧处理的触发条件;假设在步骤S4'中,第一设备2接收到执行设备1发送的待由第一设备2执行的子任务“拍一张朋友圈的快照”,因该子任务所对应的任务文本语义完整,并不含有预定类别词如代词“其”、“它”等,因此,在步骤S10'中,第一设备2判断不满足对子任务“拍一张朋友圈的快照”进行语义消歧处理的触发条件。
再如,若所述触发条件包括所述子任务所对应的任务文本具备语义缺失,如假设在步骤S4'中,第一设备2接收到执行设备1发送的待由第一设备2执行的子任务“设置为手机背景”,因该子任务所对应的任务文本语义不完整,即具备语义缺失,从而第一设备2根据该子任务,并不知晓将什么内容设置为手机背景,因此,在步骤S10' 中,第一设备2判断满足对子任务“设置为手机背景”进行语义消歧处理的触发条件。
在此,本领域技术人员应能理解上述触发条件仅为举例,其他现有的或今后可能出现的触发条件如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。
若满足所述触发条件,在步骤S11'中,第一设备2对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务。在此,在步骤S11'中,第一设备2进行语义消歧处理的方式包括但不限于以下至少任一项:
2)根据所述至少两个子任务中在执行时序上属于所述子任务的前一子任务,对所述子任务进行语义消歧处理。
例如,假设在步骤S4'中,第一设备2接收到执行设备1发送的待由第一设备2执行的子任务为“设置为手机背景”,而该子任务的前一子任务为“拍摄照片”,其执行者为用户user的智能眼镜,则在步骤S11'中,第一设备2可确定子任务“设置为手机背景”是指用户user的智能手机需要将智能眼镜基于前一子任务“拍摄照片”所拍摄的照片photo设置为手机背景。
2)根据所述任务的任务文本,对所述子任务进行语义消歧处理。
例如,假设在步骤S4'中,第一设备2接收到执行设备1发送的待由第一设备2执行的子任务为“设置为手机背景”,而该子任务所对应的任务为“拍摄一张照片,把其设置为手机背景”,则在步骤 S11'中,第一设备2可确定子任务“设置为手机背景”是指用户user 的智能手机需要将智能眼镜所拍摄的照片photo设置为手机背景。
在此,本领域技术人员应能理解上述语义消歧处理的方式仅为举例,其他现有的或今后可能出现的语义消歧处理的方式如可适用于本发明,也应包含在本发明保护范围以内,并在此以引用方式包含于此。
接着,在步骤S5'中,第一设备2执行经语义消歧处理后的所述子任务。
图7示出本发明另一个实施例的一种用于执行自然语言命令所对应的任务的方法流程图。
其中,该方法包括步骤S1”、步骤S2”、步骤S3”、步骤S4”、步骤S6”和步骤S7”。
具体地,在步骤S1”中,执行设备1获取用户当前输入的自然语言命令;在步骤S2”中,执行设备1对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;在步骤S3”中,执行设备1将所述任务拆分为具有执行时序关系的至少两个子任务;在步骤S6”中,执行设备1检测是否满足对所述至少两个子任务中的子任务进行语义消歧处理的触发条件;若满足所述触发条件,在步骤S7”中,执行设备1对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务;在步骤S4”中,执行设备1将经语义消歧处理后的所述子任务发送至用于执行该子任务的设备,以使得所述任务被执行。在此,步骤S1”、步骤S2”和步骤S3”分别与图5实施例中对应步骤的内容相同或相似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
具体地,在步骤S6”中,执行设备1检测是否满足对所述至少两个子任务中的子任务进行语义消歧处理的触发条件。
在此,在步骤S6”中,执行设备1检测是否满足所述触发条件的方式与图6实施例中的步骤S10’检测是否满足所述触发条件的方式相同或相似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
若满足所述触发条件,在步骤S7”中,执行设备1对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务。
在此,在步骤S7”中,执行设备1进行语义消歧处理的方式与图 6实施例中步骤S11’进行语义消歧处理的方式相同或相似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
接着,在步骤S4”中,执行设备1将经语义消歧处理后的所述子任务发送至用于执行该子任务的设备,以使得所述任务被执行。
图8示出本发明一个实施例的执行设备和第一设备配合实现一种用于执行自然语言命令所对应的任务的方法流程图。
其中,该方法包括步骤S1”'、步骤S2”'、步骤S3”'、步骤S4”'、步骤S5”'、步骤S6”'和步骤S7”'。
具体地,在步骤S1”'中,执行设备1获取用户当前输入的自然语言命令;在步骤S2”'中,执行设备1对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;在步骤S3”'中,执行设备1将所述任务拆分为具有执行时序关系的至少两个子任务;在步骤S6”'中,执行设备1检测是否满足对所述至少两个子任务中的子任务进行语义消歧处理的触发条件;若满足所述触发条件,在步骤S7”'中,执行设备1对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务;在步骤S4”'中,执行设备1将经语义消歧处理后的所述子任务发送至用于执行该子任务的设备,以使得所述任务被执行;相应地,在步骤S4”'中,第一设备2接收经语义消歧处理后的待由所述第一设备执行的子任务;在步骤S5”'中,第一设备2执行所述子任务。
在此,步骤S1”'、步骤S2”'和步骤S3”'分别与图5实施例中对应步骤的内容相同或相似,步骤S6”'、步骤S7”'和步骤S4”'中分别与图 7实施例中对应步骤的内容相同或相似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
在此,步骤S5”'与图6实施例中对应步骤的内容相同或近似,为简明起见,故在此不再赘述,并以引用的方式包含于此。
图9示出了适于用来实现本发明实施方式的示例性计算机系统/ 服务器3的框图。图9显示的计算机系统/服务器3仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,计算机系统/服务器3以通用计算设备的形式表现。计算机系统/服务器3的组件可以包括但不限于:一个或者多个处理器或者处理单元31、系统存储器32、连接不同系统组件(包括系统存储器32和处理单元31)的总线33。
总线33表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器、外围总线、图形加速端口、处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线、微通道体系结构(MAC)总线、增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器3典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器3访问的可用介质,包括易失性和非易失性介质、可移动的和不可移动的介质。
系统存储器32可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)321和/或高速缓存存储器322。计算机系统/服务器3可以进一步包括其它可移动/不可移动的、易失性/ 非易失性计算机系统存储介质。仅作为举例,存储系统323可以用于读写不可移动的、非易失性磁介质(图9未显示,通常称为“硬盘驱动器”)。尽管图9中未示出,可以提供用于对可移动非易失性磁盘 (例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线33 相连。系统存储器32可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块325的程序/实用工具324,可以存储在例如系统存储器32中,这样的程序模块325包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块325通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器3也可以与一个或多个外部设备35(例如键盘、指向设备、显示器34等)通信,还可与一个或者多个使得用户能与该计算机系统/服务器3交互的设备通信,和/或与使得该计算机系统/服务器3能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O) 接口36进行。并且,计算机系统/服务器3还可以通过网络适配器30 与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图9所示,网络适配器30通过总线33与计算机系统/服务器3的其它模块通信。应当明白,尽管图9 中未示出,可以结合计算机系统/服务器3使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元31通过运行存储在系统存储器32中的程序,从而执行各种功能应用以及数据处理,例如实现以下用于执行自然语言命令所对应的任务的方法,其中,该方法包括以下步骤:
a获取用户当前输入的自然语言命令;
b对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;
c将所述任务拆分为具有执行时序关系的至少两个子任务;
d将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。
需要注意的是,本发明可在软件和/或软件与硬件的组合体中被实施,例如,可采用专用集成电路(ASIC)、通用目的计算机或任何其他类似硬件设备来实现。在一个实施例中,本发明的软件程序可以通过处理器执行以实现上文所述步骤或功能。同样地,本发明的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中,例如,RAM 存储器,磁或光驱动器或软磁盘及类似设备。另外,本发明的一些步骤或功能可采用硬件来实现,例如,作为与处理器配合从而执行各个步骤或功能的电路。
另外,本发明的一部分可被应用为计算机程序产品,例如计算机程序指令,当其被计算机执行时,通过该计算机的操作,可以调用或提供根据本发明的方法和/或技术方案。而调用本发明的方法的程序指令,可能被存储在固定的或可移动的记录介质中,和/或通过广播或其他信号承载媒体中的数据流而被传输,和/或被存储在根据所述程序指令运行的计算机设备的工作存储器中。在此,根据本发明的一个实施例包括一个装置,该装置包括用于存储计算机程序指令的存储器和用于执行程序指令的处理器,其中,当该计算机程序指令被该处理器执行时,触发该装置运行基于前述根据本发明的多个实施例的方法和/ 或技术方案。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。装置权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。

Claims (24)

1.一种用于执行自然语言命令所对应的任务的方法,其中,该方法包括以下步骤:
a获取用户当前输入的自然语言命令;
b对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;
c将所述任务拆分为具有执行时序关系的至少两个子任务;
d将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。
2.根据权利要求1所述的方法,其中,所述步骤c包括:
-对所述任务进行语法分析,以将所述任务拆分为具有执行时序关系的至少两个子任务。
3.根据权利要求1或2所述的方法,其中,该方法还包括步骤:
-检测是否满足对所述至少两个子任务中的子任务进行语义消歧处理的触发条件;
-若满足所述触发条件,对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务;
其中,所述步骤d包括:
-将经语义消歧处理后的所述子任务发送至用于执行该子任务的设备,以使得所述任务被执行。
4.根据权利要求3所述的方法,其中,所述触发条件包括以下至少任一项:
-所述子任务所对应的任务文本中含有预定类别词;
-所述子任务所对应的任务文本具备语义缺失。
5.根据权利要求3或4所述的方法,其中,根据以下至少任一项,对所述子任务进行语义消歧处理:
-根据所述至少两个子任务中在执行时序上属于所述子任务的前一子任务,对所述子任务进行语义消歧处理;
-根据所述任务的任务文本,对所述子任务进行语义消歧处理。
6.根据权利要求1至5中任一项所述的方法,其中,该方法还包括步骤:
-执行所述至少两个子任务中的第一子任务;
其中,所述步骤d包括:
-将所述至少两个子任务中的除所述第一子任务之外的剩余子任务发送至用于执行相应剩余子任务的设备,以使得所述任务被执行。
7.根据权利要求1至5中任一项所述的方法,其中,该方法还包括步骤:
m确定用于执行相应子任务的设备。
8.根据权利要求7所述的方法,其中,所述步骤m包括:
-根据所述自然语言命令中包含的关于执行相应子任务的设备的信息确定所述设备。
9.一种在第一设备端用于辅助执行自然语言命令所对应的任务的方法,其中,所述任务被拆分为具有执行时序关系的至少两个子任务,其中,该方法包括以下步骤:
A接收待由所述第一设备执行的子任务;
B执行所述子任务。
10.根据权利要求9所述的方法,其中,所述步骤A包括:
-接收经语义消歧处理后的待由所述第一设备执行的子任务。
11.根据权利要求9所述的方法,其中,该方法还包括步骤:
-检测是否满足对所述子任务进行语义消歧处理的触发条件;
-若满足所述触发条件,对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务;
其中,所述步骤B包括:
-执行经语义消歧处理后的所述子任务。
12.一种用于执行自然语言命令所对应的任务的执行设备,其中,该执行设备包括:
获取装置,用于获取用户当前输入的自然语言命令;
解析装置,用于对所述自然语音命令进行解析,以获得该自然语音命令所对应的任务;
拆分装置,用于将所述任务拆分为具有执行时序关系的至少两个子任务;
发送装置,用于将所述至少两个子任务中的每一个发送至用于执行相应子任务的设备,以使得所述任务被执行。
13.根据权利要求12所述的执行设备,其中,所述拆分装置用于:
-对所述任务进行语法分析,以将所述任务拆分为具有执行时序关系的至少两个子任务。
14.根据权利要求12或13所述的执行设备,其中,该执行设备还包括:
第一检测装置,用于检测是否满足对所述至少两个子任务中的子任务进行语义消歧处理的触发条件;
第一处理装置,用于若满足所述触发条件,对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务;
其中,所述发送装置用于:
-将经语义消歧处理后的所述子任务发送至用于执行该子任务的设备,以使得所述任务被执行。
15.根据权利要求14所述的执行设备,其中,所述触发条件包括以下至少任一项:
-所述子任务所对应的任务文本中含有预定类别词;
-所述子任务所对应的任务文本具备语义缺失。
16.根据权利要求14或15所述的执行设备,其中,根据以下至少任一项,对所述子任务进行语义消歧处理:
-根据所述至少两个子任务中在执行时序上属于所述子任务的前一子任务,对所述子任务进行语义消歧处理;
-根据所述任务的任务文本,对所述子任务进行语义消歧处理。
17.根据权利要求12至16中任一项所述的执行设备,其中,该执行设备还包括:
第一执行装置,用于执行所述至少两个子任务中的第一子任务;
其中,所述发送装置用于:
-将所述至少两个子任务中的除所述第一子任务之外的剩余子任务发送至用于执行相应剩余子任务的设备,以使得所述任务被执行。
18.根据权利要求12至16中任一项所述的执行设备,其中,该执行设备还包括:
确定装置,用于确定用于执行相应子任务的设备。
19.根据权利要求18所述的执行设备,其中,所述确定装置用于:
-根据所述自然语言命令中包含的关于执行相应子任务的设备的信息确定所述设备。
20.一种用于辅助执行自然语言命令所对应的任务的第一设备,其中,所述任务被拆分为具有执行时序关系的至少两个子任务,其中,该第一设备包括:
接收装置,用于接收待由所述第一设备执行的子任务;
第二执行装置,用于执行所述子任务。
21.根据权利要求20所述的第一设备,其中,所述接收装置用于:
-接收经语义消歧处理后的待由所述第一设备执行的子任务。
22.根据权利要求20所述的第一设备,其中,该第一设备还包括:
第二检测装置,用于检测是否满足对所述子任务进行语义消歧处理的触发条件;
第二处理装置,用于若满足所述触发条件,对所述子任务进行语义消歧处理,以获得经语义消歧处理后的所述子任务;
其中,所述第二执行装置用于:
-执行经语义消歧处理后的所述子任务。
23.一种用于执行自然语言命令所对应的任务的系统,其中,该系统包括根据权利要求12至19中任一项所述的执行设备,以及根据权利要求20至22中任一项所述的第一设备。
24.一种计算设备,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行如权利要求1至11中任一所述的方法。
CN201710430663.0A 2017-06-09 2017-06-09 一种执行自然语言命令所对应的任务的方法、设备和系统 Active CN107293295B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710430663.0A CN107293295B (zh) 2017-06-09 2017-06-09 一种执行自然语言命令所对应的任务的方法、设备和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710430663.0A CN107293295B (zh) 2017-06-09 2017-06-09 一种执行自然语言命令所对应的任务的方法、设备和系统

Publications (2)

Publication Number Publication Date
CN107293295A true CN107293295A (zh) 2017-10-24
CN107293295B CN107293295B (zh) 2019-08-09

Family

ID=60096742

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710430663.0A Active CN107293295B (zh) 2017-06-09 2017-06-09 一种执行自然语言命令所对应的任务的方法、设备和系统

Country Status (1)

Country Link
CN (1) CN107293295B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110853645A (zh) * 2019-12-02 2020-02-28 三星电子(中国)研发中心 一种识别语音命令的方法及装置
CN108470566B (zh) * 2018-03-08 2020-09-15 腾讯科技(深圳)有限公司 一种应用操作方法以及装置
CN113192490A (zh) * 2021-04-14 2021-07-30 维沃移动通信有限公司 语音处理方法、装置和电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855874A (zh) * 2012-09-07 2013-01-02 深圳市信利康电子有限公司 基于互联网语音交互的家电控制方法及系统
CN103685416A (zh) * 2012-09-20 2014-03-26 联想(北京)有限公司 分布式任务分配与认领方法以及电子设备
CN103916875A (zh) * 2014-04-24 2014-07-09 山东大学 基于wifi无线网络多类控制终端的管理与规划系统
CN104050157A (zh) * 2014-06-16 2014-09-17 海信集团有限公司 歧义消解的方法和系统
US9299039B1 (en) * 2006-08-23 2016-03-29 A9.Com, Inc. Managing task lists utilizing integrated information requests
CN106257960A (zh) * 2015-06-18 2016-12-28 中兴通讯股份有限公司 多设备协同操作的方法及设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9299039B1 (en) * 2006-08-23 2016-03-29 A9.Com, Inc. Managing task lists utilizing integrated information requests
CN102855874A (zh) * 2012-09-07 2013-01-02 深圳市信利康电子有限公司 基于互联网语音交互的家电控制方法及系统
CN103685416A (zh) * 2012-09-20 2014-03-26 联想(北京)有限公司 分布式任务分配与认领方法以及电子设备
CN103916875A (zh) * 2014-04-24 2014-07-09 山东大学 基于wifi无线网络多类控制终端的管理与规划系统
CN104050157A (zh) * 2014-06-16 2014-09-17 海信集团有限公司 歧义消解的方法和系统
CN106257960A (zh) * 2015-06-18 2016-12-28 中兴通讯股份有限公司 多设备协同操作的方法及设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108470566B (zh) * 2018-03-08 2020-09-15 腾讯科技(深圳)有限公司 一种应用操作方法以及装置
CN110853645A (zh) * 2019-12-02 2020-02-28 三星电子(中国)研发中心 一种识别语音命令的方法及装置
CN113192490A (zh) * 2021-04-14 2021-07-30 维沃移动通信有限公司 语音处理方法、装置和电子设备

Also Published As

Publication number Publication date
CN107293295B (zh) 2019-08-09

Similar Documents

Publication Publication Date Title
CN110717339B (zh) 语义表示模型的处理方法、装置、电子设备及存储介质
CN108197547B (zh) 人脸姿态估计方法、装置、终端及存储介质
WO2018072663A1 (zh) 数据处理方法及装置、分类器训练方法及系统、存储介质
CN109871800B (zh) 一种人体姿态估计方法、装置和存储介质
CN108986801A (zh) 一种人机交互方法、装置及人机交互终端
JP6756079B2 (ja) 人工知能に基づく三元組チェック方法、装置及びコンピュータプログラム
CN107423398A (zh) 交互方法、装置、存储介质和计算机设备
US11966872B2 (en) Service quality evaluation method and terminal device
CN106104528A (zh) 用于屏幕上项目选择和消歧的基于模型的方法
CN107430853A (zh) 将用于具有选择性离线能力的话音动作的数据本地保存在支持话音的电子装置中
CN109034203A (zh) 表情推荐模型的训练、表情推荐方法、装置、设备及介质
CN106294871A (zh) 一种拍照搜题的方法及装置
CN105359135B (zh) 用墨水来创作演示
CN107293295A (zh) 一种执行自然语言命令所对应的任务的方法、设备和系统
CN105917405B (zh) 外源性大词汇量模型到基于规则的语音识别的合并
CN104267922A (zh) 一种信息处理方法及电子设备
CN107408238A (zh) 从音频数据和计算机操作上下文自动捕获信息
CN109934080A (zh) 脸部表情辨识的方法及装置
CN109740567A (zh) 关键点定位模型训练方法、定位方法、装置及设备
CN107330009A (zh) 主题词分类模型创建方法、创建装置及存储介质
CN109240931A (zh) 问题反馈信息处理方法和装置
Stefanov et al. Opensense: A platform for multimodal data acquisition and behavior perception
CN114639152A (zh) 基于人脸识别的多模态语音交互方法、装置、设备及介质
CN114638939A (zh) 模型生成方法、模型生成装置、电子设备和可读存储介质
CN110909578A (zh) 一种低分辨率图像识别方法、装置和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220816

Address after: Room 35201, 5th Floor, Zone 2, Building 3, No. 2, Zhuantang Science and Technology Economic Zone, Xihu District, Hangzhou City, Zhejiang Province, 310024

Patentee after: Hangzhou suddenly Cognitive Technology Co.,Ltd.

Address before: Room B147, 9th Floor, No. 36, Haidian West Street, Haidian District, Beijing, 100080

Patentee before: BEIJING XIAOMO ROBOT TECHNOLOGY CO.,LTD.