WO2021012772A1 - 语音信息的处理方法及装置、存储介质和电子装置 - Google Patents

语音信息的处理方法及装置、存储介质和电子装置 Download PDF

Info

Publication number
WO2021012772A1
WO2021012772A1 PCT/CN2020/091902 CN2020091902W WO2021012772A1 WO 2021012772 A1 WO2021012772 A1 WO 2021012772A1 CN 2020091902 W CN2020091902 W CN 2020091902W WO 2021012772 A1 WO2021012772 A1 WO 2021012772A1
Authority
WO
WIPO (PCT)
Prior art keywords
question
voice information
user
rhetorical
information
Prior art date
Application number
PCT/CN2020/091902
Other languages
English (en)
French (fr)
Inventor
朱石争
刘杨
Original Assignee
中兴通讯股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中兴通讯股份有限公司 filed Critical 中兴通讯股份有限公司
Priority to JP2022503894A priority Critical patent/JP2022541799A/ja
Priority to US17/627,864 priority patent/US20220262353A1/en
Priority to EP20843234.4A priority patent/EP4006747A4/en
Publication of WO2021012772A1 publication Critical patent/WO2021012772A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3338Query expansion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Definitions

  • the present disclosure relates to the field of communications, and in particular to a method and device for processing voice information, a storage medium and an electronic device.
  • the omission recovery of user questions is an important research direction in the field of multi-round interactive question answering systems, which is mainly used to restore the omissions of user questions.
  • Existing ellipsis restoration systems are mainly divided into two categories: one is the restoration of referential semantic deficiencies, and the other is the restoration of ellipsis semantic deficiencies.
  • the existing restoration of elliptical semantic lack is basically based on the semantic understanding of the knowledge graph, but not all knowledge can be constructed in the knowledge graph, and some strong colloquial knowledge is only suitable for construction in other index libraries .
  • the embodiments of the present disclosure provide a method and device for processing voice information, a storage medium, and an electronic device, so as to at least solve the problem of the limitation of elliptical semantic loss recovery based on the semantic understanding result of the knowledge graph in the related art.
  • a method for processing voice information including: retrieving whether there is voice information matching the voice information of the first question input by the user; Perform semantic analysis on the voice information of the first question, and generate the voice information of the second question according to the voice information of the first question and its semantic analysis result; search the voice information of the second question, and determine the corresponding The voice information of the rhetorical question corresponding to the second question voice information; the question voice information to be fed back to the user is determined according to the user's answer to the rhetorical question.
  • a voice information processing device including: a retrieval module configured to retrieve whether there is voice information matching the voice information of a first question input by a user; a first processing module configured to In order to perform semantic analysis on the voice information of the first question sentence in the case of a negative search result, and generate the second question sentence voice information according to the semantic analysis result; the second processing module is configured to perform a semantic analysis on the second question sentence The voice information is retrieved, and the voice information of the rhetorical question corresponding to the voice information of the second question is determined according to the retrieval result; the determining module is configured to determine the to-be-feedback based on the answer of the user to the rhetorical question Question voice information to the user.
  • an electronic device including a memory and a processor, the memory stores a computer program, and the processor is configured to run the computer program to execute any one of the foregoing Steps in the method embodiment.
  • the voice information corresponding to the first voice question information can be recovered accurately, avoiding the recovery of elliptical semantic missing only relying on the knowledge graph, thereby solving the elliptical semantic understanding result based on the knowledge graph in related technologies
  • the recovery of semantic lack which improves the user experience.
  • FIG. 1 is a block diagram of the hardware structure of a terminal of a voice information processing method according to an embodiment of the present disclosure
  • Fig. 2 is a flowchart of a method for processing voice information according to an embodiment of the present disclosure
  • Fig. 3 is a structural block diagram of an apparatus for processing voice information according to an embodiment of the present disclosure
  • Fig. 4 is an optional structural block diagram of a voice information processing device according to an embodiment of the present disclosure.
  • FIG. 1 is a hardware structure block diagram of a terminal for a voice information processing method according to an embodiment of the present disclosure.
  • the terminal 10 may include one or more (only one is shown in FIG. 1) processor 102 (the processor 102 may include, but is not limited to, a processing device such as a microprocessor MCU or a programmable logic device FPGA)
  • the memory 104 for storing data, optionally, the aforementioned terminal may also include a transmission device 106 and an input/output device 108 for communication functions.
  • FIG. 1 is only for illustration, and does not limit the structure of the foregoing terminal.
  • the terminal 10 may also include more or fewer components than those shown in FIG. 1, or have a different configuration from that shown in FIG.
  • the memory 104 may be used to store computer programs, for example, software programs and modules of application software, such as the computer programs corresponding to the voice information processing method in the embodiments of the present disclosure.
  • the processor 102 runs the computer programs stored in the memory 104, thereby Perform various functional applications and data processing, that is, realize the above-mentioned methods.
  • the memory 104 may include a high-speed random access memory, and may also include a non-volatile memory, such as one or more magnetic storage devices, flash memory, or other non-volatile solid-state memory.
  • the memory 104 may further include a memory remotely provided with respect to the processor 102, and these remote memories may be connected to the terminal 10 via a network. Examples of the aforementioned networks include, but are not limited to, the Internet, corporate intranets, local area networks, mobile communication networks, and combinations thereof.
  • the transmission device 106 is used to receive or send data via a network.
  • the aforementioned specific examples of the network may include a wireless network provided by the communication provider of the terminal 10.
  • the transmission device 106 includes a network adapter (Network Interface Controller, NIC for short), which can be connected to other network devices through a base station to communicate with the Internet.
  • the transmission device 106 may be a radio frequency (Radio Frequency, referred to as RF) module, which is used to communicate with the Internet in a wireless manner.
  • RF Radio Frequency
  • FIG. 2 is a flowchart of a method for processing voice information according to an embodiment of the present disclosure. As shown in FIG. 2, the process includes the following steps:
  • Step S202 retrieve whether there is voice information matching the voice information of the first question input by the user;
  • Step S204 in the case that the retrieval result is negative, perform semantic analysis on the voice information of the first question, and generate the voice information of the second question according to the voice information of the first question and the result of the semantic analysis;
  • Step S206 retrieve the voice information of the second question, and determine the voice information of the rhetorical question corresponding to the voice information of the second question according to the search result;
  • Step S208 Determine the voice information of the question to be fed back to the user according to the user's answer to the rhetorical question.
  • semantic analysis is performed, and the second question is generated based on the first question voice information and the semantic analysis result.
  • voice information can be realized in the following ways:
  • Step S204-11 extract one or more entity words from the voice information of the first question
  • Step S204-12 Associate the extracted one or more entity words to obtain one or more related words
  • the method of associating one or more entity words in the application scenario of this application may be: associating words with the upper and lower conceptions of the one or more entity words, for example, "bank card”
  • the subordinate words of "food” are “debit card” and “credit card”
  • the subordinate words of "food” are "Hunan cuisine”, “Sichuan cuisine”, “Japanese and Korean cuisine”, etc.
  • the superordinate words of "car” and "bus” are "transportation” tool”.
  • the above process is an example of the upper and lower concept of one more word, which can be related according to the actual preset relationship between words. In addition to the association through the upper-lower relationship, the association can also be done through the same type of words.
  • Xiangcai can be associated with “Sichuan cuisine”, “Cantonese cuisine”, “Japanese and Korean cuisine”, etc.;
  • taxi can Associated with “Express”, “Special Car”, “Shunfeng Car”, etc., similarly, the specific associations are related according to the preset association relationship, and the association relationship can be adjusted according to the actual situation.
  • Step S204-13 Combine the context of the voice information of the first question with one or more related words obtained by the association to generate one or more voice information of the second question.
  • the entity word "bank card” in the question sentence can be replaced with the related word " "Debit card” and "credit card”, the second question is "How do I do a credit card?” and "How do I do a debit card?" Finally, the voice information of the two newly generated second questions is retrieved.
  • the voice information of the second question is searched for in step S206 of this implementation, and the voice information of the rhetorical question corresponding to the voice information of the second question is determined according to the search result.
  • the method can be achieved in the following ways:
  • Step S206-11 in the case that there is only one related word, the voice information of a rhetorical question corresponding to the voice information of the second question is obtained by searching according to one related word;
  • step S206-11 in a specific application scenario, if the voice information of the first question is "How to do a bank card”, if the voice information of the first question cannot be matched in the knowledge graph, it will be performed Semantic analysis, assuming that only one word “debit card” is associated with the "bank card”, the voice message of the rhetorical question obtained based on this is "Do you want to apply for a debit card?"
  • step S206-12 when there are multiple related words, the voice information of multiple rhetorical questions corresponding to the voice information of the second question is obtained by searching based on the multiple related words.
  • step S206-12 in a specific application scenario, if the voice information of the first question is "How to get to the provident fund center in the northern new district", the entity word extracted by semantic analysis is "provided fund center”, and the location constraint word is "Northern New District”, and then related to "provided fund center” and "Northern New District", the words obtained were "Chongqing City Provident Fund Center” and "Northern New District Provident Fund Center”; the voice message of the rhetorical question was "Excuse me Go to the Provident Fund Center of Chongqing City or the Provident Fund Center of the Northern New Area?".
  • the manner of determining the voice information of the question to be fed back to the user involved in step S208 of this embodiment can be implemented in the following manner:
  • Step S208-11 broadcast to the user the voice information of one or more rhetorical questions retrieved based on one or more related phrases;
  • Step S208-12 obtaining the user's answer voice information to the voice information of one or more rhetorical questions
  • the voice message of the first question is "How to do a bank card”
  • the rhetorical question obtained based on this is "Do you want to apply for a credit card or a debit card? ?”
  • the user answered according to actual needs For example, if the user really wants to know how to apply for a credit card, the user's answer is a credit card. According to the user's answer, it can be determined that the voice message of the question to be fed back to the user is "How to do a credit card?".
  • the method steps of this embodiment may further include:
  • the method according to the above embodiment can be implemented by means of software plus the necessary general hardware platform, of course, it can also be implemented by hardware, but in many cases the former is Better implementation.
  • the technical solution of the present disclosure essentially or the part that contributes to the existing technology can be embodied in the form of a software product, and the computer software product is stored in a storage medium (such as ROM/RAM, magnetic disk, The optical disc) includes a number of instructions to enable a terminal device (which may be a mobile phone, a computer, a server, or a network device, etc.) to execute the method of each embodiment of the present disclosure.
  • S3 retrieve the voice information of the second question, and determine the voice information of the rhetorical question corresponding to the voice information of the second question according to the search result;
  • the foregoing storage medium may include, but is not limited to: U disk, Read-Only Memory (Read-Only Memory, ROM for short), Random Access Memory (Random Access Memory, RAM for short), Various media that can store computer programs, such as mobile hard disks, magnetic disks, or optical disks.
  • modules or steps of the present disclosure can be implemented by a general computing device, and they can be concentrated on a single computing device or distributed in a network composed of multiple computing devices.
  • they can be implemented with program codes executable by the computing device, so that they can be stored in the storage device for execution by the computing device, and in some cases, can be executed in a different order than here.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Library & Information Science (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种语音信息的处理方法及装置、存储介质和电子装置;其中,该方法,包括:检索是否存在与用户输入的第一问句语音信息匹配的语音信息(S202);在检索结果为否的情况下,对第一问句语音信息进行语义分析,并根据第一问句语音信息及其语义分析结果生成第二问句语音信息(S204);对第二问句语音信息进行检索,并根据检索结果确定出与第二问句语音信息对应的反问问句的语音信息(S206);根据用户对反问问句的回答确定出待反馈给用户的问句语音信息(S208)。解决了相关技术中基于知识图谱的语义理解结果进行省略型语义缺失的恢复存在局限性的问题,提高了用户体验。

Description

语音信息的处理方法及装置、存储介质和电子装置 技术领域
本公开涉及通信领域,具体而言,涉及一种语音信息的处理方法及装置、存储介质和电子装置。
背景技术
对用户问句的省略恢复是多轮交互问答系统领域中一个重要的研究方向,主要用于对用户问句中的省略部分进行恢复。现有的省略恢复系统主要分为两大类:一类是对指代型语义缺失的恢复,另一类是对省略型语义缺失的恢复。而现有对省略型语义缺失的恢复基本上都是基于知识图谱的语义理解结果,但并不是所有的知识都能构建在知识图谱中,有些强口语化的知识只适合构建在其他索引库中。
针对相关技术中的上述问题,目前尚未存在有效的解决方案。
发明内容
本公开实施例提供了一种语音信息的处理方法及装置、存储介质和电子装置,以至少解决相关技术中基于知识图谱的语义理解结果进行省略型语义缺失的恢复存在局限性的问题。
根据本公开的一个实施例,提供了一种语音信息的处理方法,包括:检索是否存在与用户输入的第一问句语音信息匹配的语音信息;在检索结果为否的情况下,对所述第一问句语音信息进行语义分析,并根据第一问句语音信息及其语义分析结果生成第二问句语音信息;对所述第二问句语音信息进行检索,并根据检索结果确定出与所述第二问句语音信息对应的反问问句的语音信息;根据所述用户对所述反问问句的回答确定出待反馈给所述用户的问句语音信息。
根据本公开的另一个实施例,提供了一种语音信息的处理装置,包括:检索模块,设置为检索是否存在与用户输入的第一问句语音信息匹配的语 音信息;第一处理模块,设置为在检索结果为否的情况下,对所述第一问句语音信息进行语义分析,并根据语义分析结果生成第二问句语音信息;第二处理模块,设置为对所述第二问句语音信息进行检索,并根据检索结果确定出与所述第二问句语音信息对应的反问问句的语音信息;确定模块,设置为根据所述用户对所述反问问句的回答定出待反馈给所述用户的问句语音信息。
根据本公开的又一个实施例,还提供了一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
根据本公开的又一个实施例,还提供了一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行上述任一项方法实施例中的步骤。
通过本公开,如果没有检索到与第一问句语音信息匹配的语音信息,则对该第一问句语音信息进行语义分析,根据语义分析的结果生成第二问句语音信息,并再次进行检索,并根据检索结果确定出与第二问句语音信息对应的反问问句的语音信息,通过用户对该反问问句的回答确定出待反馈给用户的问句语音信息,也就是说,在与用户的语音交互中能够准确恢复与第一语音问句信息对应的语音信息,避免了仅依靠知识图谱进行省略型语义缺失的恢复,从而解决了相关技术中基于知识图谱的语义理解结果进行省略型语义缺失的恢复存在局限性的问题,提高了用户体验。
附图说明
此处所说明的附图用来提供对本公开的进一步理解,构成本申请的一部分,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。在附图中:
图1是本公开实施例的一种语音信息的处理方法的终端的硬件结构框图;
图2是根据本公开实施例的语音信息的处理方法的流程图;
图3是根据本公开实施例的语音信息的处理装置的结构框图;
图4是根据本公开实施例的语音信息的处理装置的可选结构框图;
图5是根据本公开的实施例基于知识图谱和FAQ的省略恢复问答系统的模块结构图;
图6是根据本公开实施例的基于知识图谱和FAQ的省略恢复的方法流程图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本公开。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
实施例1
本申请实施例一所提供的方法实施例可以在终端、计算机终端或者类似的运算装置中执行。以运行在终端上为例,图1是本公开实施例的一种语音信息的处理方法的终端的硬件结构框图。如图1所示,终端10可以包括一个或多个(图1中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)和用于存储数据的存储器104,可选地,上述终端还可以包括用于通信功能的传输设备106以及输入输出设备108。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述终端的结构造成限定。例如,终端10还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
存储器104可用于存储计算机程序,例如,应用软件的软件程序以及模块,如本公开实施例中的语音信息的处理方法对应的计算机程序,处理器102通过运行存储在存储器104内的计算机程序,从而执行各种功能应 用以及数据处理,即实现上述的方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输设备106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括终端10的通信供应商提供的无线网络。在一个实例中,传输设备106包括一个网络适配器(Network Interface Controller,简称为NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输设备106可以为射频(Radio Frequency,简称为RF)模块,其用于通过无线方式与互联网进行通讯。
在本实施例中提供了一种运行于上述终端的语音信息的处理方法,图2是根据本公开实施例的语音信息的处理方法的流程图,如图2所示,该流程包括如下步骤:
步骤S202,检索是否存在与用户输入的第一问句语音信息匹配的语音信息;
其中,对于该步骤S202在本申请中进行检索操作优选在FAQ(Frequently Asked Question,常见问题)系统中执行,当然也可以是其他系统中。
步骤S204,在检索结果为否的情况下,对第一问句语音信息进行语义分析,并根据第一问句语音信息及其语义分析结果生成第二问句语音信息;
需要说明的是,对第一问句语音信息进行语义分析是基于知识图谱进行语义分析的。
步骤S206,对第二问句语音信息进行检索,并根据检索结果确定出与第二问句语音信息对应的反问问句的语音信息;
步骤S208,根据用户对反问问句的回答确定出待反馈给用户的问句语音信息。
通过上述步骤S202至步骤S208,如果没有检索到与第一问句语音信息匹配的语音信息,则对该第一问句语音信息进行语义分析,根据语义分析的结果生成第二问句语音信息,并再次进行检索,并根据检索结果确定出与第二问句语音信息对应的反问问句的语音信息,通过用户对该反问问句的回答确定出待反馈给用户的问句语音信息,也就是说,在与用户的语音交互中能够准确恢复与第一语音问句信息对应的语音信息,避免了仅依靠知识图谱进行省略型语义缺失的恢复,从而解决了相关技术中基于知识图谱的语义理解结果进行省略型语义缺失的恢复存在局限性的问题,提高了用户体验。
在本实施例的可选实施方式中,对于本实施例步骤S204中涉及到的对第一问句语音信息进行语义分析,并根据第一问句语音信息及其语义分析结果生成第二问句语音信息的方式,可以通过如下方式来实现:
步骤S204-11,从第一问句语音信息中提取出一个或多个实体词;
步骤S204-12,对提取出的一个或多个实体词进行关联得到一个或多个关联词;
需要说明的是,对一个或多个实体词进行关联的方式在本申请的应用场景中可以是:关联出与该一个或多个实体词具有的上下位概念的词,例如,“银行卡”的下位词有“借记卡”和“信用卡”;“美食”的下位词有“湘菜”、“川菜”、“日韩料理”等等;“汽车”和“公交”的上位词就是“交通工具”。上述进行是多一个词的上下位概念进行举例说明,具体可以根据实际预设的词与词之间的关系进行关联。除了通过上下位的关系进行关联之外,还可以通过同类型词的方式进行关联,例如“湘菜”可以关联出“川菜”、“粤菜”、“日韩料理”等等;“出租车”可以关联出“快车”、“专车”、“顺风车”等等,同样的,具体关联出来的根据预设的关联关系进行关联,该关联关系可以根据实际情况进行调整。
步骤S204-13,结合第一问句语音信息的语境和进行关联得到的一个或多个关联词生成一个或多个第二问句语音信息。
基于上述关联词,对于上述步骤S204-11至步骤S204-13,在具体的应用场景中,如果用户输入的第一问句语音信息为“怎么办银行卡?”,且该第一问句语音信息在语音信息库,如知识图谱中无法检索到,则对该第一问句语音信息进行语义分析,即从中提取出的实体词为“银行卡”,对其关联得到关联词为“借记卡”和“信用卡”。结合第一问句语音信息的语境和关联得到的关联词“借记卡”和“信用卡”生成新的问句,具体的,可将问句中的实体词“银行卡”替换为其关联词“借记卡”和“信用卡”,得到第二问句语音信息为“怎么办信用卡?”,“怎么办借记卡?”。最后再对新生成的两个第二问句语音信息进行检索。
在本申请的可选实施方式中,对于本实施步骤S206中涉及到的对第二问句语音信息进行检索,并根据检索结果确定出与第二问句语音信息对应的反问问句的语音信息的方式,可以通过如下方式来实现:
步骤S206-11,在关联词只有一个的情况下,根据一个关联词检索得到与第二问句语音信息对应的一个反问问句的语音信息;
其中,对于该步骤S206-11在具体应用场景中,如果该第一问句语音信息为“怎么办银行卡”,如果在知识图谱中无法匹配出该第一问句语音信息,则对其进行语义分析,假设根据该“银行卡”只关联出一个词“借记卡”,基于此得到的反问问句的语音信息为“请问您是要办借记卡吗?”
步骤S206-12,在关联词有多个的情况下,根据多个关联词检索得到与第二问句语音信息对应的多个反问问句的语音信息。
对于上述步骤S206-12在具体应用场景中,如果该第一问句语音信息为“位于北部新区的公积金中心怎么走”,则语义分析提取出的实体词为“公积金中心”,地点约束词为“北部新区”,进而对“公积金中心”和“北部新区”进行关联得到的词有“重庆市公积金中心”和“北部新区公积金中心”;进而得到的反问问句的语音信息为“请问您是去重庆市公积金中 心,还是去北部新区公积金中心?”。
在本实施例的可选实施方式中,对于本实施例步骤S208中涉及到的确定出待反馈给用户的问句语音信息的方式,可以通过如下方式来实现:
步骤S208-11,向用户播报根据一个或多个关联词组检索得到的一个或多个反问问句的语音信息;
步骤S208-12,获取用户对一个或多个反问问句的语音信息的回答语音信息;
步骤S208-13,根据用户的回答语音信息确定出待反馈给用户的问句语音信息。
基于上述步骤S202至步骤S206在具体应用场景中的举例,例如,第一问句语音信息为“怎么办银行卡”,基于此得到的反问问句为“请问您是要办信用卡还是借记卡?”,此次用户根据实际需求回答,例如用户真实需求是想知道如何办信用卡,则用户回答为信用卡。根据用户的回答可以确定出待反馈给用户的问句语音信息为“怎么办信用卡?”。
在本实施例的可选实施方式中,本实施例的方法步骤还可以包括:
步骤S210,在检索出存在与用户输入的第一问句语音信息匹配的语音信息的情况下,将与第一问句语音信息匹配的结果返回给用户。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到根据上述实施例的方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本公开各个实施例的方法。
实施例2
在本实施例中还提供了一种语音信息的处理装置,该装置用于实现上述实施例及优选实施方式,已经进行过说明的不再赘述。如以下所使用的,术语“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图3是根据本公开实施例的语音信息的处理装置的结构框图,如图3所示,该装置包括:检索模块302,设置为检索是否存在与用户输入的第一问句语音信息匹配的语音信息;第一处理模块304,与检索模块302耦合连接,设置为在检索结果为否的情况下,对第一问句语音信息进行语义分析,并根据语义分析结果生成第二问句语音信息;第二处理模块306,与第一处理模块304耦合连接,设置为对第二问句语音信息进行检索,并根据检索结果确定出与第二问句语音信息对应的反问问句的语音信息;确定模块308,与第二处理模块306耦合连接,设置为根据用户对反问问句的回答定出待反馈给用户的问句语音信息。
可选地,本实施例中的该第一处理模块304进一步可以包括:提取单元,设置为从第一问句语音信息中提取出一个或多个实体词;关联单元,设置为对提取出的一个或多个实体词进行关联得到一个或多个关联词;检索单元,设置为结合第一问句语音信息的语境和进行关联得到的一个或多个关联词生成一个或多个第二问句语音信息。
可选地,本实施例中的第二处理模块306,还设置为在关联词只有一个的情况下,根据一个关联词检索得到与第二问句语音信息对应的一个反问问句的语音信息;在关联词有多个的情况下,根据多个关联词检索得到与第二问句语音信息对应的多个反问问句的语音信息。
可选地,本实施例中确定模块308进一步可以包括:播报单元,设置为向用户播报根据一个或多个关联词组检索得到的一个或多个反问问句的语音信息;确定单元,设置为获取用户对一个或多个反问问句的语音信息的回答语音信息;恢复单元,设置为根据用户的回答语音信息确定出待 反馈给用户的问句语音信息。
图4是根据本公开实施例的语音信息的处理装置的可选结构框图,如图4所示,该装置包括:反馈模块310,与确定模块308耦合连接,设置为检索出存在与用户输入的第一问句语音信息匹配的语音信息的情况下,将与第一问句语音信息匹配的结果返回给用户。
需要说明的是,上述各个模块是可以通过软件或硬件来实现的,对于后者,可以通过以下方式实现,但不限于此:上述模块均位于同一处理器中;或者,上述各个模块以任意组合的形式分别位于不同的处理器中。
实施例3
本实施例3结合本申请的具体实施方式对本申请上述实施例1和2进行举例说明;
本具体实施方式提供了一种基于知识图谱和FAQ系统的省略恢复方法及问答系统,以解决相关技术中省略恢复系统的不足;本具体实施方式的核心思想为:在基于知识图谱语义理解结果的前提下,有效地将知识图谱的语义理解结果应用在FAQ检索中,并根据最终的FAQ检索结果和知识图谱的语义理解结果对用户问句中的省略部分进行恢复,从而提升多轮交互问答的用户体验。
图5是根据本公开的实施例基于知识图谱和FAQ的省略恢复问答系统的模块结构图,如图5所示,该系统包括:输入模块501、知识图谱检索模块502、FAQ检索模块503、问句省略恢复模块504、输出模块505。
其中,输入模块501,设置为接收用户的输入请求,并将用户的输入信息送入知识图谱检索模块502;
知识图谱检索模块502包括:知识图谱检索子模块506和问句生成子模块507。
其中,知识图谱检索子模块506,设置为对用户输入的原始问句进行知识图谱检索及语义分析理解,得到相应的语义理解结果(从原始问句中抽取实体词及属性词)。问句生成子模块507,设置为根据知识图谱检索子 模块506得到的语义理解结果和用户输入的原始问句重新生成新的问句。
具体的方式为:可将用户原始问句中基于知识图谱抽取出的实体词替换为与其有语义关系链的实体词,比如实体词对应的上下位词,并将新生成的问句送入FAQ检索模块503。需要特别说明的是,知识图谱检索模块中新增了问句生成子模块是本公开专利同现有主流省略恢复问答系统中知识图谱检索模块的主要区别。
FAQ检索模块503包括:FAQ检索子模块508和交互反问问句组装子模块509;其中,FAQ检索子模块508设置为根据问句生成子模块507新生成的问句在FAQ索引库中检索。交互反问问句组装子模块509设置为根据FAQ检索子模块508的检索结果组装返回给用户的反问问句,以便得到用户真正的意图;
问句省略恢复模块504,设置为根据交互反问问句组装子模块509得到的反问问句及用户新一轮输入的问句对问句中省略的部分进行恢复;
输出模块505,设置为输出问答结果并返回给用户。
基于图5的问答系统,本实施例还提供了基于知识图谱和FAQ的省略恢复的方法,图6是根据本公开实施例的基于知识图谱和FAQ的省略恢复的方法流程图,如图6所示,该方法步骤包括:
步骤S601,用户在问答系统中输入第一问句;
步骤S602,输入模块获取用户在问答系统中输入的第一问句,并将获取到的输入信息送入知识图谱检索模块;
步骤S603,知识图谱检索模块根据输入模块送入的用户输入的第一问句进行语义分析及检索,若检索出答案则直接进入步骤S608,交互结束;若检索不出答案,则进入步骤S604;
步骤S604,FAQ检索模块先根据用户输入的第一问句进行初次检索,若检索出答案则直接进入步骤S608,交互结束;若检索不出答案,则进入步骤S605;
步骤S605,根据知识图谱检索模块得到的语义理解结果及用户输入的原始问句重新生成新的问句。
其中,优选地,可将用户输入的第一问句中基于知识图谱抽取出的实体词替换为与其有语义关系链的实体词,比如实体词对应的上下位词,并使用新生成的问句在FAQ索引库中再次进行检索。若检索出答案则直接进入步骤S608,交互结束;若检索不出答案,则进入步骤S606;
步骤S606,交互反问问句组装子模块根据FAQ检索模块的第二次检索结果组装返回给用户的反问问句;
步骤S607,当获取到用户新一轮输入的第二问句且确定需要对用户问句进行省略恢复时,则根据用户输入问句及步骤S606组装的交互反问问句恢复用户问句,并返回最终答案给用户;
步骤S608,交互问答结束。
对于上述图5和6中的问答系统,以及基于知识图谱和FAQ的省略恢复的方法,下面结合本申请的具体实施方式进行举例说明;
具体实施方式1:在银行领域多轮交互问答系统中问句省略恢复的方法,该方法的步骤:
步骤S701,用户输入第一问句:怎么办银行卡?
步骤S702,问答系统根据用户输入的第一问句在知识图谱和FAQ库中进行检索且均检索不出答案,且基于知识图谱从用户问句中抽取的实体词是:银行卡,且得到其下位词是:借记卡和信用卡;
步骤S703,将用户输入的第一问句中的银行卡分别替换为借记卡和信用卡,并进行FAQ检索且能检索出答案;
步骤S704,根据S703的检索结果组装返回给用户的交互反问问句:请问您是办信用卡,还是办借记卡?
步骤S705,用户输入第二问句:信用卡;
步骤S706,根据S704组装的交互反问问句和S705用户输入的第二 问句,对用户输入的第二问句进行省略恢复,恢复结果为:怎么办信用卡?
步骤S707,对恢复后的问句进行检索并将对应的答案返回给用户。
具体实施方式2:在闲聊领域多轮交互问答系统中问句省略恢复的方法,该方法的步骤包括:
步骤S801,用户输入第一问句:位于北部新区的公积金中心怎么走?
步骤S802,问答系统根据用户输入的第一问句在知识图谱和FAQ库中进行检索且均检索不出答案,且基于知识图谱从用户问句中抽取的粗粒度的实体词是:公积金中心,地点约束词为:北部新区,且根据知识图谱的语义理解结果得到同为北部新区约束的细粒度实体词有重庆市公积金中心和北部新区公积金中心;
步骤S803,将用户输入的第一问句中的公积金中心分别替换为重庆市公积金中心和北部新区公积金中心,并进行FAQ检索且能检索出答案;
步骤S804,根据S803的检索结果组装返回给用户的交互反问问句:请问您是去重庆市公积金中心,还是去北部新区公积金中心?
步骤S805,用户输入第二问句:北部新区公积金中心;
步骤S806,根据S804组装的交互反问问句和S805用户输入的第二问句,对用户输入的第二问句进行省略恢复,恢复结果为:北部新区公积金中心怎么走?
步骤S807,对恢复后的问句进行检索并将对应的答案返回给用户。
实施例4
本公开的实施例还提供了一种存储介质,该存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,检索是否存在与用户输入的第一问句语音信息匹配的语音信息;
S2,在检索结果为否的情况下,对第一问句语音信息进行语义分析,并根据第一问句语音信息及其语义分析结果生成第二问句语音信息;
S3,对第二问句语音信息进行检索,并根据检索结果确定出与第二问句语音信息对应的反问问句的语音信息;
S4,根据用户对反问问句的回答确定出待反馈给用户的问句语音信息。
可选地,在本实施例中,上述存储介质可以包括但不限于:U盘、只读存储器(Read-Only Memory,简称为ROM)、随机存取存储器(Random Access Memory,简称为RAM)、移动硬盘、磁碟或者光盘等各种可以存储计算机程序的介质。
本公开的实施例还提供了一种电子装置,包括存储器和处理器,该存储器中存储有计算机程序,该处理器被设置为运行计算机程序以执行上述任一项方法实施例中的步骤。
可选地,上述电子装置还可以包括传输设备以及输入输出设备,其中,该传输设备和上述处理器连接,该输入输出设备和上述处理器连接。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,检索是否存在与用户输入的第一问句语音信息匹配的语音信息;
S2,在检索结果为否的情况下,对第一问句语音信息进行语义分析,并根据第一问句语音信息及其语义分析结果生成第二问句语音信息;
S3,对第二问句语音信息进行检索,并根据检索结果确定出与第二问句语音信息对应的反问问句的语音信息;
S4,根据用户对反问问句的回答确定出待反馈给用户的问句语音信息。
可选地,本实施例中的具体示例可以参考上述实施例及可选实施方式中所描述的示例,本实施例在此不再赘述。
显然,本领域的技术人员应该明白,上述的本公开的各模块或各步骤 可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本公开不限制于任何特定的硬件和软件结合。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
工业实用性
通过本公开,如果没有检索到与第一问句语音信息匹配的语音信息,则对该第一问句语音信息进行语义分析,根据语义分析的结果生成第二问句语音信息,并再次进行检索,并根据检索结果确定出与第二问句语音信息对应的反问问句的语音信息,通过用户对该反问问句的回答确定出待反馈给用户的问句语音信息,也就是说,在与用户的语音交互中能够准确恢复与第一语音问句信息对应的语音信息,避免了仅依靠知识图谱进行省略型语义缺失的恢复,从而解决了相关技术中基于知识图谱的语义理解结果进行省略型语义缺失的恢复存在局限性的问题。

Claims (12)

  1. 一种语音信息的处理方法,包括:
    检索是否存在与用户输入的第一问句语音信息匹配的语音信息;
    在检索结果为否的情况下,对所述第一问句语音信息进行语义分析,并根据第一问句语音信息及其语义分析结果生成第二问句语音信息;
    对所述第二问句语音信息进行检索,并根据检索结果确定出与所述第二问句语音信息对应的反问问句的语音信息;
    根据所述用户对所述反问问句的回答确定出待反馈给所述用户的问句语音信息。
  2. 根据权利要求1所述的方法,其中,所述对所述第一问句语音信息进行语义分析并根据第一问句语音信息及其语义分析结果生成所述第二问句语音信息,包括:
    从所述第一问句语音信息中提取出一个或多个实体词;
    对提取出的所述一个或多个实体词进行关联得到一个或多个关联词;
    结合所述第一问句语音信息的语境和所述进行关联得到的一个或多个关联词生成一个或多个所述第二问句语音信息。
  3. 根据权利要求2所述的方法,其中,对所述第二问句语音信息进行检索,并根据检索结果确定出与所述第二问句语音信息对应的反问问句的语音信息,包括:
    在所述关联词只有一个的情况下,根据一个所述关联词检索得到与所述第二问句语音信息对应的一个反问问句的语音信息;
    在所述关联词有多个的情况下,根据多个所述关联词检索得到与所述第二问句语音信息对应的多个反问问句的语音信息。
  4. 根据权利要求3所述的方法,其中,所述根据所述用户对所 述反问问句的回答确定出待反馈给所述用户的问句语音信息,包括:
    向所述用户播报根据一个或多个所述关联词组检索得到的一个或多个反问问句的语音信息;
    获取所述用户对一个或多个反问问句的语音信息的回答语音信息;
    根据所述用户的回答语音信息确定出待反馈给所述用户的问句语音信息。
  5. 根据权利要求1至4任一项所述的方法,其中,所述方法还包括:
    在检索出存在与用户输入的第一问句语音信息匹配的语音信息的情况下,将与所述第一问句语音信息匹配的语音信息反馈给所述用户。
  6. 一种语音信息的处理装置,包括:
    检索模块,设置为检索是否存在与用户输入的第一问句语音信息匹配的语音信息;
    第一处理模块,设置为在检索结果为否的情况下,对所述第一问句语音信息进行语义分析,并根据语义分析结果生成第二问句语音信息;
    第二处理模块,设置为对所述第二问句语音信息进行检索,并根据检索结果确定出与所述第二问句语音信息对应的反问问句的语音信息;
    确定模块,设置为根据所述用户对所述反问问句的回答定出待反馈给所述用户的问句语音信息。
  7. 根据权利要求6所述的装置,其中,所述第一处理模块包括:
    提取单元,设置为从所述第一问句语音信息中提取出一个或多个实体词;
    关联单元,设置为对提取出的所述一个或多个实体词进行关联得到一个或多个关联词;
    检索单元,设置为结合所述第一问句语音信息的语境和所述进行关联得到的一个或多个关联词生成一个或多个所述第二问句语音信息。
  8. 根据权利要求7所述的装置,其中,
    所述第二处理模块,还设置为在所述关联词只有一个的情况下,根据一个所述关联词检索得到与所述第二问句语音信息对应的一个反问问句的语音信息;在所述关联词有多个的情况下,根据多个所述关联词检索得到与所述第二问句语音信息对应的多个反问问句的语音信息。
  9. 根据权利要求7所述的装置,其中,所述确定模块包括:
    播报单元,设置为向所述用户播报根据一个或多个所述关联词组检索得到的一个或多个反问问句的语音信息;
    确定单元,设置为获取所述用户对一个或多个反问问句的语音信息的回答语音信息;
    恢复单元,设置为根据所述用户的回答语音信息确定出待反馈给所述用户的问句语音信息。
  10. 根据权利要求6至9任一项所述的装置,其中,所述装置还包括:
    反馈模块,设置为检索出存在与用户输入的第一问句语音信息匹配的语音信息的情况下,将与所述第一问句语音信息匹配的结果返回给所述用户。
  11. 一种存储介质,所述存储介质中存储有计算机程序,其中,所述计算机程序被设置为运行时执行所述权利要求1至5任一项中所述的方法。
  12. 一种电子装置,包括存储器和处理器,所述存储器中存储有计算机程序,所述处理器被设置为运行所述计算机程序以执行所述权利要求1至5任一项中所述的方法。
PCT/CN2020/091902 2019-07-22 2020-05-22 语音信息的处理方法及装置、存储介质和电子装置 WO2021012772A1 (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022503894A JP2022541799A (ja) 2019-07-22 2020-05-22 音声情報の処理方法並びに装置、記憶媒体及び電子装置
US17/627,864 US20220262353A1 (en) 2019-07-22 2020-05-22 Method and device for Processing Voice Information, Storage Medium and Electronic Apparatus
EP20843234.4A EP4006747A4 (en) 2019-07-22 2020-05-22 LANGUAGE INFORMATION PROCESSING METHOD AND DEVICE, STORAGE MEDIA AND ELECTRONIC DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910663139.7 2019-07-22
CN201910663139.7A CN112347297A (zh) 2019-07-22 2019-07-22 语音信息的处理方法及装置、存储介质和电子装置

Publications (1)

Publication Number Publication Date
WO2021012772A1 true WO2021012772A1 (zh) 2021-01-28

Family

ID=74193109

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2020/091902 WO2021012772A1 (zh) 2019-07-22 2020-05-22 语音信息的处理方法及装置、存储介质和电子装置

Country Status (5)

Country Link
US (1) US20220262353A1 (zh)
EP (1) EP4006747A4 (zh)
JP (1) JP2022541799A (zh)
CN (1) CN112347297A (zh)
WO (1) WO2021012772A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113157966B (zh) * 2021-03-15 2023-10-31 维沃移动通信有限公司 显示方法、装置及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103000173A (zh) * 2012-12-11 2013-03-27 优视科技有限公司 一种语音交互方法及装置
CN105068661A (zh) * 2015-09-07 2015-11-18 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法和系统
CN105589844A (zh) * 2015-12-18 2016-05-18 北京中科汇联科技股份有限公司 一种用于多轮问答系统中缺失语义补充的方法
US20160155058A1 (en) * 2013-06-27 2016-06-02 National Institute Of Information And Communications Technology Non-factoid question-answering system and method
CN106407393A (zh) * 2016-09-19 2017-02-15 北京智能管家科技有限公司 一种用于智能设备的信息处理方法及装置
CN107305550A (zh) * 2016-04-19 2017-10-31 中兴通讯股份有限公司 一种智能问答方法及装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101339551B (zh) * 2007-07-05 2013-01-30 日电(中国)有限公司 自然语言查询需求扩展设备及其方法
US9280610B2 (en) * 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US10509814B2 (en) * 2014-12-19 2019-12-17 Universidad Nacional De Educacion A Distancia (Uned) System and method for the indexing and retrieval of semantically annotated data using an ontology-based information retrieval model
US10033714B2 (en) * 2015-06-16 2018-07-24 Business Objects Software, Ltd Contextual navigation facets panel
US10249207B2 (en) * 2016-01-19 2019-04-02 TheBeamer, LLC Educational teaching system and method utilizing interactive avatars with learning manager and authoring manager functions
US10332508B1 (en) * 2016-03-31 2019-06-25 Amazon Technologies, Inc. Confidence checking for speech processing and query answering
US20180052885A1 (en) * 2016-08-16 2018-02-22 Ebay Inc. Generating next user prompts in an intelligent online personal assistant multi-turn dialog

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103000173A (zh) * 2012-12-11 2013-03-27 优视科技有限公司 一种语音交互方法及装置
US20160155058A1 (en) * 2013-06-27 2016-06-02 National Institute Of Information And Communications Technology Non-factoid question-answering system and method
CN105068661A (zh) * 2015-09-07 2015-11-18 百度在线网络技术(北京)有限公司 基于人工智能的人机交互方法和系统
CN105589844A (zh) * 2015-12-18 2016-05-18 北京中科汇联科技股份有限公司 一种用于多轮问答系统中缺失语义补充的方法
CN107305550A (zh) * 2016-04-19 2017-10-31 中兴通讯股份有限公司 一种智能问答方法及装置
CN106407393A (zh) * 2016-09-19 2017-02-15 北京智能管家科技有限公司 一种用于智能设备的信息处理方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4006747A4 *

Also Published As

Publication number Publication date
EP4006747A4 (en) 2022-08-17
JP2022541799A (ja) 2022-09-27
EP4006747A1 (en) 2022-06-01
CN112347297A (zh) 2021-02-09
US20220262353A1 (en) 2022-08-18

Similar Documents

Publication Publication Date Title
CN110970021B (zh) 一种问答控制方法、装置及系统
CN109325040B (zh) 一种faq问答库泛化方法、装置及设备
US20110231353A1 (en) Artificial intelligence application in human machine interface for advanced information processing and task managing
CN108304424B (zh) 文本关键词提取方法及文本关键词提取装置
US11461317B2 (en) Method, apparatus, system, device, and storage medium for answering knowledge questions
CN111341311A (zh) 一种语音对话方法及装置
CN110266900A (zh) 客户意图的识别方法、装置及客服系统
CN110457454A (zh) 一种对话方法、服务器、对话系统及存储介质
WO2021012772A1 (zh) 语音信息的处理方法及装置、存储介质和电子装置
CN111078849B (zh) 用于输出信息的方法和装置
CN103226601A (zh) 一种图片搜索的方法和装置
CN111126422B (zh) 行业模型的建立及行业的确定方法、装置、设备及介质
US8862609B2 (en) Expanding high level queries
CN116522905B (zh) 文本纠错方法、装置、设备、可读存储介质及程序产品
CN103559177A (zh) 一种地名识别方法及装置
US9166619B2 (en) Method and system for pattern-based compression
CN111783425A (zh) 基于句法分析模型的意图识别方法及相关装置
CN111222322B (zh) 信息处理方法和电子设备
US20210141819A1 (en) Server and method for classifying entities of a query
CN114239602A (zh) 会话方法、装置和计算机程序产品
CN113946668A (zh) 基于边缘节点的语义处理方法、系统、装置及存储介质
US20210165772A1 (en) Discovering and merging entity record fragments of a same entity across multiple entity stores for improved named entity disambiguation
CN106682221B (zh) 问答交互的响应方法、装置及问答系统
CN111858864A (zh) 实现填槽的方法、装置、电子设备及可读介质
CN116992111B (zh) 数据处理方法、装置、电子设备及计算机存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20843234

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022503894

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020843234

Country of ref document: EP

Effective date: 20220222