CN107818781B - 智能交互方法、设备及存储介质 - Google Patents

智能交互方法、设备及存储介质 Download PDF

Info

Publication number
CN107818781B
CN107818781B CN201710815147.XA CN201710815147A CN107818781B CN 107818781 B CN107818781 B CN 107818781B CN 201710815147 A CN201710815147 A CN 201710815147A CN 107818781 B CN107818781 B CN 107818781B
Authority
CN
China
Prior art keywords
semantic
information
user
input
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710815147.XA
Other languages
English (en)
Other versions
CN107818781A (zh
Inventor
周志明
向万红
向婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yuanguang Software Co Ltd
Original Assignee
Yuanguang Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yuanguang Software Co Ltd filed Critical Yuanguang Software Co Ltd
Priority to CN201710815147.XA priority Critical patent/CN107818781B/zh
Publication of CN107818781A publication Critical patent/CN107818781A/zh
Application granted granted Critical
Publication of CN107818781B publication Critical patent/CN107818781B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/086Recognition of spelled words
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Abstract

本申请公开了一种智能交互方法、设备及存储介质。所述方法包括:按照用户所处的位置、所处的业务场景和用户语言习惯中的至少一种,对用户输入的信息进行分词得到若干个字词;对若干个字词分别进行语义标注分析后,识别出至少一个关键词;按照所述至少一个关键词在所述输入的信息中的位置对应的重要性和/或语义,确定所述至少一个关键词的权重和/或语义标注;根据确定结果对所述输入的信息进行新的语义解析,得到语义结果;查询与所述语义结果匹配的信息,并将查询结果返回给用户。上述方案,能够提高语义识别的准确性,进而提高智能交互的可靠性。

Description

智能交互方法、设备及存储介质
技术领域
本申请涉及数据处理领域,特别是涉及智能交互方法、设备及存储介质。
背景技术
随着计算机以及互联网不断发展,人们的生活已经逐渐走入智能时代。即,智能设备如电脑、手机、平板电脑等可与人们实现智能交互,为人们生活的各个方面提供方便、快捷的服务。
一般,智能设备需要先对用户输入的信息进行语义解析,再依据语义解析结果执行相关操作,例如提供相应回答。然而,对应同一个问题或操作命令,由于人们的表达方式的差异,甚至语气的差异,所代表的意思也不相同。目前,智能设备依然存在由于无法正确语音识别出用户输入的自然语言的意思,导致不当操作。因此,提高语义识别的准确性是当前智能交互的主要课题。
发明内容
本申请主要解决的技术问题是提供智能交互方法、设备及存储介质,能够提供语义识别的准确性,进而提供智能交互的可靠性。
为了解决上述问题,本申请第一方面提供了一种智能交互方法,所述方法包括:按照用户所处的位置、所处的业务场景和用户语言习惯中的至少一种,对用户输入的信息进行分词得到若干个字词;对若干个字词分别进行语义标注分析;在经所述语义标注后的若干个字词中,识别出至少一个关键词;获取所述至少一个关键词在所述输入的信息中的位置对应的重要性和/或语义;按照所述至少一个关键词的重要性和/或语义,确定所述至少一个关键词的权重和/或语义标注;根据确定结果对所述输入的信息进行新的语义解析,得到语义结果;以及查询与所述语义结果匹配的信息,并将查询结果返回给用户。
为了解决上述问题,本申请第二方面提供了一种智能交互设备,包括相互连接的存储器和处理器;所述处理器用于执行上述的方法。
为了解决上述问题,本申请第三方面提供了一种非易失性存储介质,存储有计算机程序,所述计算机程序用于被处理器运行,以执行上述的方法。
上述方案中,智能交互设备通过用户所处的位置、所处的业务场景和用户语言习惯中的至少一种对用户输入信息进行分词,并通过分词所得的关键词的位置确定其权重和/语义标注,进而输入信息进行语义解析以向用户返回相关信息,能够提高语义识别的准确性,进而提高查询结果的准确性,故提高了智能交互的可靠性。
附图说明
图1是本申请智能交互方法一实施例的流程图;
图2是本申请智能交互方法另一实施例的流程图;
图3是本申请智能交互方法再一实施例的部分流程图
图4是本申请智能交互设备一实施例的结构示意图;
图5是本申请非易失性存储介质一实施例的结构示意图。
具体实施方式
下面结合说明书附图,对本申请实施例的方案进行详细说明。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。
本文中术语“系统”和“网络”在本文中常被可互换使用。本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
请参阅图1,图1是本申请智能交互方法一实施例的流程图。该方法由具有处理能力且能够进行互联网通信的智能交互设备执行,例如电脑、手机等终端或者服务器等。本实施例中,该方法包括以下步骤:
S110:按照用户所处的位置、所处的业务场景和用户语言习惯中的至少一种,对用户输入的信息进行分词得到若干个字词。
智能交互设备可通过互联网获得用户输入的信息,例如该智能交互设备为服务器,其通过互联网获得用户通过用户终端输入的信息。或者智能交互设备直接通过其输入装置获得用户输入的信息。
由于不同地方的用户的语言表达方式不同,故对语句的分词也存在不同。不同的用户,其语言习惯也是不同,智能交互设备可通过收集用户历史输入信息,并针对每次用户对分词后得到的语义结果的反馈来建立该用户的分词模型,该分词模型记录该用户的分词方式,进而根据该分词模型对当前文本信息进行分词。针对的业务场景不同,其分词可存在差别,例如,用户输入“谁是卧底的规则”,若当前业务场景为游戏业务场景,则将属于当前场景设定名词的“谁是卧底”不拆分,得到分词为“谁是卧底”、“的”、“规则”;如当前业务场景为一般服务问答业务场景,则分词为“谁”、“是”、“卧底”、“的”、“规则”。由此,智能交互设备可根据上述用户所处的位置、所处的业务场景和用户语言习惯中的至少一种对该文本信息进行分词。其中,若根据用户所处的位置、所处的业务场景和用户语言习惯中的多个进行分词时,可对用户所处的位置、所处的业务场景和用户语言习惯设置权重,对于根据用户所处的位置、所处的业务场景和用户语言习惯得到的不同分词,选择其权重最高的分词。例如,根据用户所处的位置得到的分词为“谁”、“是”、“卧底”,根据所处的业务场景得到的分词为“谁是卧底”,则选择根据权重高的所处的业务场景得到的分词“谁是卧底”,或者,根据用户所处的位置和用户语言习惯得到的分词均为“谁”、“是”、“卧底”,根据所处的业务场景得到的分词为“谁是卧底”,则由于用户所处的位置和用户语言习的权重和高于所处的业务场景,则根据用户所处的位置和用户语言习惯得到的分词“谁”、“是”、“卧底”。
具体,该若干个字词可包括字、词和词组等。其分词方式可如“最大概率法分词”、“最大匹配分词”、“词典匹配算法”等。该词典匹配算法包括正向匹配、逆向匹配、双向匹配、最大匹配和最小匹配中的至少一种。进一步地,在分词之后,可对得到的若干个字词进行本体实例化,以识别该若干个字词的对象、属性、类别等信息。该本体是对该概念的一种明确详细的说明,是对现实世界的一种描述方法,或者说是对特定领域中某种概念及其相互之间关系的形式化表达。在本地实例化后,该若干个字词即可得到其本体的属性,为其后的语义标注分析做准备。
另外,在进行分词之前,可先对用户输入的信息进行去噪和模块结构化处理。
S120:对若干个字词分别进行语义标注分析。
该语义标注分析可包括词性标注和词义标注两部分。对于词性标注,智能交互设备一般采用隐马尔科夫模型或基于转换的错误驱动的词性标注方法。对于词义标注,一般采用基于互信息的词义排歧方法或基于词典的排歧方法。其中,每个字词所得到的语义标注可以为多个。
S130:在经所述语义标注后的若干个字词中,识别出至少一个关键词。
根据该若干个字词的语义标注,来从该若干个字词中选择至少一个关键词。
S140:获取所述至少一个关键词在所述输入的信息中的位置对应的重要性和语义。
S150:按照所述至少一个关键词的重要性和语义,确定所述至少一个关键词的权重和语义标注。
本实施例中,智能交互设备预存有不同关键词在不同的预设字词组合中的不同位置时,其重要性和语义。由于由以上步骤得到的每个关键词的语义标注可能存在多个,智能交互设备可根据该预存的关键词对应不同位置的重要性和语义,来确定由S130中得到的关键词的权重,以及从其对应的多个语义标注中选择匹配的语义标注。
其中,智能交互设备可利用更不同的符号来表示不同关键词的重要度和相似度,例如,采用“*1”表示关键词的重要度为高,用“*2”表示关键词的重要度为低,“#”表示关键词相似度较低或者不相似等。
进一步地,该预存的关键词的重要性和词义可根据用户的历史交互记录或者用户的反馈来调整。例如,智能交互设备可根据用户对关键词在预存字词组合中的位置所对应语义和/或重要性的反馈,来修正所述关键词在该输入的信息中的位置对应的重要性和/或语义。在进行如此修正后,可重新执行以下步骤,来得到更准确的语义结果,进而查询到更准确的相关信息以反馈给用户。又例如,智能交互设备可根据用户对关键词在预存字词组合中的位置所对应语义和/或重要性的反馈,来修正其对应预存关键词的重要性和/或语义,为以后用户输入的信息提供更准确的语义结果。
可以理解的是,在其他实施例中,智能交互设备可仅根据该关键词的重要性确定其权重,或者仅根据关键词的语义来选择其语义标注,在此不作限定。
S160:根据确定结果对所述输入的信息进行新的语义解析,得到语义结果。
本实施例中,智能交互设备根据S150得到的至少一个关键词的权重和语义标注,来进行语义解析,以得到最终的语义结果。
S170:查询与所述语义结果匹配的信息,并将查询结果返回给用户。
本实施例中,智能交互设备可预设有知识库。该预设知识库中存储有若干个问题相关信息,其中,每个相关信息设置有与不同问题的关联度,智能交互设备遍历预设知识库中的信息,以查找出与该语义结果表示的问题的关联度超过设定阈值的信息,并将该信息反馈给用户。又或者,该预设知识库中存储有若干问题及其相关信息,智能交互设备遍历预设知识库中的问题,以计算出该语义结果与预设知识库中的问题的关联度,并获得与语义结果的关联度超过设定阈值的问题,并将获得的问题相关的信息反馈给用户。由此,智能交互设备可实现对用户输入问题的智能回复。其中,该设定阈值可根据实际情况进行由用户或者智能交互设备根据设定算法进行设置。
本实施例中,智能交互设备通过用户所处的位置、所处的业务场景和用户语言习惯中的至少一种对用户输入信息进行分词,并通过分词所得的关键词的位置确定其权重和/语义标注,进而输入信息进行语义解析以向用户返回相关信息,能够提高语义识别的准确性,进而提高查询结果的准确性,故提高了智能交互的可靠性。
请参阅图2,图2是本申请智能交互方法另一实施例的流程图。本实施例中,该方法可由上述智能交互设备执行,包括以下步骤:
S210:接收用户输入的信息。
具体,用户输入的信息可包括语音信息和文本信息。智能交互设备可接收用户输入的语音信息和文本信息,并且,可同时接收到该语音信息和文本信息,并对其同时进行处理。又或者,智能交互设备仅接收用户输入的文本信息或者语音信息。当智能交互设备接收到语音信息时,先将该语音信息进行语音识别得到对应的文本信息。其中,语音识别方式可采用现有任意的语音识别方式,在此不作限定。
本实施例采用由用户输入的语音信息和用户输入的文本信息按照输入的顺序组成一完整语句的方式。即该S210具体包括:接收所述用户输入的语音信息和第一文本信息,并对所述语音信息进行语音识别得到第二文本信息;将所述第一文本信息和第二文本信息组按照输入顺序组合成第三文本信息,以作为用户输入的信息,并对该用户输入的信息进行后续步骤。例如,用户输入文本信息“水浒传中的”,再语音输入“李逵”,然后文本输入“的介绍”,通过语音识别并文本组合得到文本信息“水浒传中的李逵的介绍”。由此采用文本和语音输入配合使用的方式,即使用户遇到难以文本输入的词语,也可选择用语音输入,相反同理,对于不会读音的词语也可以采用文本输入,极大方便用户的信息输入。进一步地,智能交互设备通过语音识别得到的结果,可结合文本输入的第一文本信息的词义得到,例如,通过语音识别得到两个相近的文本结果,可结合文本输入的第一文本信息的词义,选择合理的文本结果。
在另一实施中,智能交互设备可以采用由用户输入的语义信息和文本信息各为完整语句,并通过对比两个完整语句的语义得到最终语义结果。具体,智能交互设备获取用户文本输入的第一文本信息,并通过语音识别得到一独立的第二文本信息。智能交互设备对第一文本信息和第二文本信息均执行后续步骤S220-S280,以得到对应第一文本信息的多个第一语义结果,及对应第二文本信息的多个第二语义结果,从所述第一语义结果中获取与第二语义结果匹配程度超过设定阈值的第一语义结果或从所述多个第二语义结果中获取与第一语义结果匹配程度超过设定阈值的第二语义结果,该选择的第一语义结果或第二语义结果即为得到的多个语义结果。
S220:按照用户所处的位置、所处的业务场景和用户语言习惯中的至少一种,对用户输入的信息进行分词得到若干个字词。
S230:对若干个字词分别进行语义标注分析。
S240:对所述若干个字词进行文本纠错。
S250:在经所述语义标注和文本纠错后的若干个字词中,识别出至少一个关键词。
S260:获取所述至少一个关键词在所述输入的信息中的位置对应的重要性和/或语义。
S270:按照所述至少一个关键词的重要性和/或语义,确定所述至少一个关键词的权重和/或语义标注。
该S220-S230,S250-S270具体可参阅上述实施例的S110-S160所述。
S280:根据确定结果对所述输入的信息进行新的语义解析,得到语义结果。
请结合参阅图3,该S280具体可包括以下子步骤:
S281:根据调整结果对所述输入的信息进行新的语义解析,得到多个语义结果。
由于关键词在不同位置上其语义不是唯一确定的,故根据上述S270得到的关键词可能依然存在多个语义批注。智能交互设备利用所述至少一个关键词的不同语义批注来组成得到该用户输入信息的多个语义结果。
S282:根据检测到的场景信息来确定当前的语义场景类型。
其中,所述场景信息包括用户使用的应用系统或应用程序、用户在所述应用系统或应用程序的当前操作信息、用户在所述应用系统或应用程序的历史操作信息、上下文信息、用户身份信息以及采集到的当前环境信息中的至少一种。用户使用的应用系统或应用程序为智能交互设备当前运行的应用系统或者应用程序,例如在运行旅行相关应用程序,由此可确定为与旅行相关的语义场景类型。用户在所述应用系统或应用程序的当前操作信息例如为在购物应用程序中搜索运动器材,由此可确定为与该运动器材相关的语义场景类型。上下文信息即为用户的历史输入的自然语言,通过分析上下文信息也可获知当前语义场景。该用户身份信息为用户的职业信息,例如为学生、美食家、建筑工程师、运动员等,根据用户的身份信息可自动将语义场景确定为与该身份相关的。采集到的当前环境信息可包括环境噪声、当前位置和当前时间等,根据该信息可确定用户所处环境,进而得到确定为相关的语义场景,例如对环境噪声分析得到为杂乱的车辆声音,且当前为上下班高峰期,则可确定当前语义场景为在拥堵的公路。
在一实施例中,当用户输入的信息包括语音信息时,上述检测到的场景信息还可包括输入的语音信息的类型,所述语音信息的类型包括正常说话类型和歌唱类型。智能交互设备可通过检测语音信息的语调确定其类型,并选择与该类型匹配的语义场景,例如若为歌唱类型,则确定歌曲相关的语义场景。
智能交互设备可给每种场景信息建立分类模型,以预先设置每种场景的不同情况下对应的语义场景类型。在检测到场景信息后,利用该分类模型对每种场景信息进行分类,得到对应的预设语义场景类型,由此确定当前的语义场景类型。
其中,智能交互设备可对每种场景信息设置不同的权重,该S282包括:对每个所述检测到的场景信息进行分类,得到与每个场景信息对应的预设语义场景类型,并按照每个所述检测到的场景信息的权重从得到的预设语义场景类型中择一作为当前的语义场景类型。例如,在检测到的场景信息包含上述两种以上,智能交互设备根据每种场景信息对应得到的预设语义场景类型,得到的预设语义场景类型为多个时,可选择对应场景信息的权重最高的预设语义场景类型作为当前的语义场景类型;或者选择权重最高的两个以上预设语义场景类型作为待定语义场景类型,并将剩余的预设语义场景类型按照语义场景相似度划分至该待定语义场景类型中,最后将划分为同一待定语义场景类型的所有预设语义场景类型对应的权重相加作为该待定语义场景类型的总权重,选择总权重最高的待定语义场景类型作为当前的语义场景类型。
S283:获取确定的所述语义场景类型的特征信息,从所述多个语义结果中选择与所述获取的特征信息匹配度最高的语义结果。
具体地,该语义场景类型的特征信息包括该语义场景类型下的热点词、常用词、关联词中的至少一个。例如,该语义场景类型为运动,则智能交互设备收集最近一段时间(如一个月)内网络上的与运动相关的热点词、常用词、关联词,如“女排大奖赛”、“游泳”等。其中,智能交互设备可从设定的社交平台上收集,例如微博、贴吧等,从该社交平台上收集使用频率高于设定频率的热点词,以及与该热点词搭配出现次数大于设定值的关联词,并存储在本地数据库中。
智能交互设备从本地数据库中获取与S282确定的语义场景类型关联的特征信息,并从S281得到的多个语义结果中选择出语义与该特征信息最相近的语义结果。
本实施例中,通过检测到的场景信息确定当前语义场景类型,并通过当前语义场景类型的特征信息来确定用户输入的自然语言的语义结果,以根据确定的语义结果实现相应操作,由于根据该检测到的场景信息能够准确确定得到当前语义场景类型,且利用当前语义场景类型的特征信息协助语义解析,可提高语义识别的准确性,进而提高智能交互的可靠性。
S290:查询与所述语义结果匹配的信息,分析用户输入语句表达方式得到用户使用的表达方式,按照所述用户使用的表达方式输出所述查询结果。
智能交互设备可如S170所述查询得到相关信息,对用户输入信息的语句表达方式进行分析,例如,用户输入的使用采用的表达方式是将“单车”表示自行车,喜欢在句末用语气词,则将查询结果采用相同的表达方式输出。
进一步地,该操作类型可根据用户输入的语义结果确定得到。在一具体实施例中,智能交互设备设置有多个业务机器人,其中不同的业务机器人用于执行不同的操作。该S150可包括:根据所述选择的语义结果确定用户的业务类型,进而选择对应的业务机器人进行对应操作。例如,智能交互设备若根据当前语义结果得到操作类型为查询,则选择查询机器人执行该查询业务。具体,该查询机器人也可划分不同的业务机器人,不同业务机器人负责查询不同领域的信息,智能交互设备根据语义结果确定查询内容属于何种领域,并选择对应领域的机器人执行查询业务。
在另一实施例中,智能交互设备还可根据检测到的用户情绪状况向用户输入提示信息。其中,所述用户情绪状况根据用户语速或打字速度、输入的关键词来确定。例如,智能交互设备预先存储不同情绪对应的语速、打字速度和关键词。通过检测用户输入自然语言时的速度(语速和/或打字速度)以及用户输入的文本信息中的关键词来确定当前用户情绪,并输入与该用户情绪相关的提示信息,例如当前用户情绪为生气,则选择一些安慰的提示信息显示用户或者播放愉悦的音乐。进一步地,智能交互设备还可将用户情绪状况作为上述场景信息,以确定当前语义场景。而且,智能交互设备还可以结合用户情绪状况选择与语义结果对应的操作,例如,根据语义结果确定的操作为查询天气预报,而当前的用户情绪为生气,则选择预设与该情绪对应的音调播放天气预报。
本实施例中,智能交互设备在接收到用户输入的自然语言后,通过检测到的场景信息确定当前语义场景类型,并通过当前语义场景类型的特征信息来确定用户输入的自然语言的语义结果,以根据确定的语义结果实现相应操作,由于根据该检测到的场景信息能够准确确定得到当前语义场景类型,且利用当前语义场景类型的特征信息协助语义解析,可提高语义识别的准确性,进而提供智能交互的可靠性。
在一应用中,该智能交互设备获取用户通过即时通信软件(如微信、QQ等)输入的即时消息(即为上述用户输入的信息),对该即时消息执行上述步骤得到后语义结果,并从语义结果中提取出相应的查询类型,根据提取出的查询类型从数据库中选择对应的业务机器人,业务机器人查询与语义结果匹配的信息,并将查询结果返回给用户。
请参阅图4,图4是本申请智能交互设备一实施例的结构示意图。本实施例中,该智能交互设备40具体可为电脑、手机等终端或者服务器,机器人等任意具有处理能力的设备。该智能交互设备40包括存储器41、处理器42、输入装置43以及输出装置44。其中,智能交互设备40的各个组件可通过总线耦合在一起,或者智能交互设备40的处理器42分别与其他组件一一连接。
输入装置43用于响应用户输入操作而产生信息,或者接收其他输入设备发送的用户输入的信息。例如,该输入装置43为键盘,用于响应用户对键盘的按压而产生相应的文本信息,该输入装置43为触摸屏,用于响应用户的触碰而产生相应的文本信息,该输入装置43为麦克风,用于响应用户的语音而产生相应的语音信息,该输入装置43为接收器,用户接收其他设备发送的文本、语音信息等。
输出装置44用于将信息反馈给用户或者其他设备用户。例如为显示屏、播放器或者发送器等。
存储器41用于存储处理器42执行的计算机指令以及处理器42在处理过程中的数据,其中,该存储器41包括非易失性存储部分,用于存储上述计算机指令。
处理器42控制该智能交互设备40的操作,处理器42还可以称为CPU(CentralProcessing Unit,中央处理单元)。处理器42可能是一种集成电路芯片,具有信号的处理能力。处理器42还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本实施例中,处理器42通过调用存储器41存储的计算机指令,用于:
按照用户所处的位置、所处的业务场景和用户语言习惯中的至少一种,对通过输入装置43获得的用户输入的信息进行分词,得到若干个字词;
对若干个字词分别进行语义标注分析;
在经所述语义标注后的若干个字词中,识别出至少一个关键词;
获取所述至少一个关键词在所述输入的信息中的位置对应的重要性和/或语义;
按照所述至少一个关键词的重要性和/或语义,确定所述至少一个关键词的权重和/或语义标注;
根据确定结果对所述输入的信息进行新的语义解析,得到语义结果;以及
查询与所述语义结果匹配的信息,并通过输出装置44将查询结果返回给用户。
可选地,处理器42在执行所述对若干个字词分别进行语义标注分析之后,还用于:对所述若干个字词进行文本纠错;以及
处理器42执行所述在经所述语义标注后的若干个字词中,识别出至少一个关键词,包括:在经所述语义标注和文本纠错后的若干个字词中,识别出至少一个关键词。
可选地,处理器42还用于根据用户对关键词在预存字词组合中的位置所对应语义和/或重要性的反馈来修正所述关键词在所述输入的信息中的位置对应的重要性和/或语义。
可选地,处理器42执行所述通过输出装置44将查询结果返回给用户,包括:分析用户输入语句表达方式得到用户使用的表达方式,通过输出装置44,按照所述用户使用的表达方式输出所述查询结果。
可选地,处理器42执行所述根据确定结果对所述输入的信息进行新的语义解析,得到语义结果,包括:根据调整结果对所述输入的信息进行新的语义解析,得到多个语义结果;根据检测到的场景信息来确定当前的语义场景类型,其中,所述场景信息包括用户使用的应用系统或应用程序、用户在所述应用系统或应用程序的当前操作信息、用户在所述应用系统或应用程序的历史操作信息、上下文信息、用户身份信息以及采集到的当前环境信息中的至少一种;获取确定的所述语义场景类型的特征信息,从所述多个语义结果中选择与所述获取的特征信息匹配度最高的语义结果。
进一步地,所述语义场景类型的特征信息包括所述语义场景类型下的热点词、常用词、关联词中的至少一个。
可选地,处理器42在执行所述按照用户所处的位置、所处的业务场景和用户语言习惯中的至少一种,对用户输入的信息进行分词得到若干个字词之前,还用于:接收通过输入装置43获得的所述用户输入的语音信息和第一文本信息,并对所述语音信息进行语音识别得到第二文本信息;将所述第一文本信息和第二文本信息组按照输入顺序组合成第三文本信息,以作为用户输入的信息。
可选地,处理器42还用于:将不同关键词在句子中不同位置中的重要性和语义存储在存储器41中;
可选地,该存储器41还存储有预设知识库,处理器42执行所述查询与所述语义结果匹配的信息,包括:从预设知识库中查询与所述语义结果的关联度超过设定阈值的信息。
在另一实施例中,该智能交互设备40的处理器42可用于执行上述实施方法例的步骤。
请参阅图5,本申请还提供一种非易失性存储介质的实施例,该非易失性存储介质50存储有处理器可运行的计算机程序51,该计算机程序51用于执行上述实施例中的方法。具体地,该存储介质具体可如图4所示的存储器41。
上述方案中,智能交互设备通过用户所处的位置、所处的业务场景和用户语言习惯中的至少一种对用户输入信息进行分词,并通过分词所得的关键词的位置确定其权重和/语义标注,进而输入信息进行语义解析以向用户返回相关信息,能够提高语义识别的准确性,进而提高查询结果的准确性,故提高了智能交互的可靠性。
以上描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本申请。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施方式中也可以实现本申请。在其它情况中,省略对众所周知的装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。

Claims (8)

1.一种智能交互方法,其特征在于,所述方法包括:
按照用户所处的位置、所处的业务场景和用户语言习惯中的至少一种,对用户输入的信息进行分词得到若干个字词;
对若干个字词分别进行语义标注分析;
在经所述语义标注后的若干个字词中,识别出至少一个关键词;
获取所述至少一个关键词在所述输入的信息中的位置对应的重要性和语义;
按照所述至少一个关键词的重要性,确定所述至少一个关键词的权重,按照所述至少一个关键词的语义,确定所述至少一个关键词的语义标注;
根据确定结果对所述输入的信息进行新的语义解析,得到语义结果;以及
查询与所述语义结果匹配的信息,并将查询结果返回给用户;
所述方法还包括:
存储不同关键词在预存字词组合中不同位置中的重要性和语义;
根据用户对关键词在预存字词组合中的位置所对应语义和重要性的反馈来修正所述关键词在所述输入的信息中的位置对应的重要性和语义;
所述根据确定结果对所述输入的信息进行新的语义解析,得到语义结果,包括:
根据所述确定结果对所述输入的信息进行新的语义解析,得到多个语义结果;
根据检测到的场景信息来确定当前的语义场景类型,其中,所述场景信息包括根据用户语速或打字速度、输入的关键词来确定的用户情绪状况、用户使用的应用系统或应用程序、用户在所述应用系统或应用程序的当前操作信息、用户在所述应用系统或应用程序的历史操作信息、上下文信息、用户身份信息以及采集到的当前环境信息;
获取确定的所述语义场景类型的特征信息,从所述多个语义结果中选择与所述获取的特征信息匹配度最高的语义结果;
其中,所述根据检测到的场景信息来确定当前的语义场景类型包括:对每种场景信息设置不同的权重,对每个所述检测到的场景信息进行分类,得到与每个场景信息对应的预设语义场景类型,并按照每个所述检测到的场景信息的所述权重从得到的预设语义场景类型中择一作为所述当前的语义场景类型。
2.根据权利要求1所述的方法,其特征在于,在所述对若干个字词分别进行语义标注分析之后,所述方法还包括:
对所述若干个字词进行文本纠错;
所述在经所述语义标注后的若干个字词中,识别出至少一个关键词,包括:
在经所述语义标注和文本纠错后的若干个字词中,识别出至少一个关键词。
3.根据权利要求1所述的方法,其特征在于,所述将查询结果返回给用户,包括:
分析用户输入语句表达方式得到用户使用的表达方式,按照所述用户使用的表达方式输出所述查询结果。
4.根据权利要求1所述方法,其特征在于,所述语义场景类型的特征信息包括所述语义场景类型下的热点词、常用词、关联词中的至少一个。
5.根据权利要求1所述的方法,其特征在于,在所述按照用户所处的位置、所处的业务场景和用户语言习惯中的至少一种,对用户输入的信息进行分词得到若干个字词之前,还包括:
接收所述用户输入的语音信息和第一文本信息,并对所述语音信息进行语音识别得到第二文本信息;
将所述第一文本信息和第二文本信息组按照输入顺序组合成第三文本信息,以作为用户输入的信息。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:存储不同关键词在句子中不同位置中的重要性和语义;
所述查询与所述语义结果匹配的信息,包括:
从预设知识库中查询与所述语义结果的关联度超过设定阈值的信息。
7.一种智能交互设备,其特征在于,包括相互连接的存储器和处理器;
所述处理器用于执行权利要求1至6任一项所述的方法。
8.一种非易失性存储介质,其特征在于,存储有计算机程序,所述计算机程序用于被处理器运行,以执行权利要求1至6任一项所述的方法。
CN201710815147.XA 2017-09-11 2017-09-11 智能交互方法、设备及存储介质 Active CN107818781B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710815147.XA CN107818781B (zh) 2017-09-11 2017-09-11 智能交互方法、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710815147.XA CN107818781B (zh) 2017-09-11 2017-09-11 智能交互方法、设备及存储介质

Publications (2)

Publication Number Publication Date
CN107818781A CN107818781A (zh) 2018-03-20
CN107818781B true CN107818781B (zh) 2021-08-10

Family

ID=61606905

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710815147.XA Active CN107818781B (zh) 2017-09-11 2017-09-11 智能交互方法、设备及存储介质

Country Status (1)

Country Link
CN (1) CN107818781B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110489517B (zh) * 2018-05-09 2023-10-31 鼎捷软件股份有限公司 虚拟助理的自动学习方法及系统
CN108959257B (zh) * 2018-06-29 2022-11-22 北京百度网讯科技有限公司 一种自然语言解析方法、装置、服务器及存储介质
CN109243438B (zh) * 2018-08-24 2023-09-26 上海擎感智能科技有限公司 一种车主情绪调节方法、系统及存储介质
CN109189911A (zh) * 2018-09-21 2019-01-11 广州神马移动信息科技有限公司 一种问答内容的搜索方法、装置和终端设备
CN109492221B (zh) * 2018-10-31 2023-06-30 广东小天才科技有限公司 一种基于语义分析的信息回复方法及可穿戴设备
CN109933782B (zh) * 2018-12-03 2023-11-28 创新先进技术有限公司 用户情绪预测方法和装置
CN109635091A (zh) * 2018-12-14 2019-04-16 上海钛米机器人科技有限公司 一种语义识别方法、装置、终端设备和存储介质
CN109686365B (zh) * 2018-12-26 2021-07-13 深圳供电局有限公司 一种语音识别方法和语音识别系统
CN109841216B (zh) * 2018-12-26 2020-12-15 珠海格力电器股份有限公司 语音数据的处理方法、装置和智能终端
CN109948155B (zh) * 2019-03-12 2023-06-30 广东小天才科技有限公司 一种多意图的选择方法及装置、终端设备
CN110008314B (zh) * 2019-04-12 2022-07-26 广东小天才科技有限公司 一种意图解析方法及装置
CN110047467B (zh) * 2019-05-08 2021-09-03 广州小鹏汽车科技有限公司 语音识别方法、装置、存储介质及控制终端
CN110162602A (zh) * 2019-05-31 2019-08-23 浙江核新同花顺网络信息股份有限公司 一种智能交互方法和系统
CN110334344A (zh) * 2019-06-13 2019-10-15 腾讯科技(深圳)有限公司 一种语义意图识别方法、装置、设备及存储介质
CN110415828B (zh) * 2019-06-21 2023-03-31 深圳壹账通智能科技有限公司 一种基于数据分析的预检信息交互方法及相关设备
CN110674634A (zh) * 2019-09-10 2020-01-10 吴杰 一种文字交互方法及服务端设备
CN112908319B (zh) * 2019-12-04 2022-10-25 海信视像科技股份有限公司 一种处理信息交互的方法及设备
CN111177520B (zh) * 2019-12-31 2023-12-15 东软集团股份有限公司 一种业务交互的处理方法、装置、存储介质及电子设备
CN111627432B (zh) * 2020-04-21 2023-10-20 升智信息科技(南京)有限公司 主动式外呼智能语音机器人多语种交互方法及装置
CN113822051B (zh) * 2020-06-19 2024-01-30 北京彩智科技有限公司 一种数据处理的方法、装置及电子设备
CN111523302B (zh) * 2020-07-06 2020-10-02 成都晓多科技有限公司 一种句法分析方法、装置、存储介质及电子设备
CN111897511A (zh) * 2020-07-31 2020-11-06 科大讯飞股份有限公司 一种语音绘图方法、装置、设备及存储介质
CN111933141A (zh) * 2020-08-31 2020-11-13 江西台德智慧科技有限公司 一种基于大数据的人工智能语音交互系统
CN112463927A (zh) * 2020-12-09 2021-03-09 上海嗨酷强供应链信息技术有限公司 一种高效智能语义匹配方法
CN113362809B (zh) * 2021-07-02 2023-02-21 上海淇玥信息技术有限公司 语音识别方法、装置和电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0822506A3 (en) * 1996-08-01 1999-01-20 Canon Kabushiki Kaisha Method and apparatus for retrieving data
CN102456019A (zh) * 2010-10-18 2012-05-16 腾讯科技(深圳)有限公司 检索方法及装置
CN103678404A (zh) * 2012-09-21 2014-03-26 联想(北京)有限公司 一种关键词识别方法及电子设备
CN104077327A (zh) * 2013-03-29 2014-10-01 阿里巴巴集团控股有限公司 核心词重要性识别方法和设备及搜索结果排序方法和设备
CN104199810A (zh) * 2014-08-29 2014-12-10 科大讯飞股份有限公司 一种基于自然语言交互的智能服务方法及系统
CN104360994A (zh) * 2014-12-04 2015-02-18 科大讯飞股份有限公司 自然语言理解方法及系统
CN105117388A (zh) * 2015-09-21 2015-12-02 上海智臻智能网络科技股份有限公司 一种智能机器人交互系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7212972B2 (en) * 1999-12-08 2007-05-01 Ddi Corporation Audio features description method and audio video features description collection construction method
CN101520775B (zh) * 2009-02-17 2012-05-30 北京大学 一种融入语义信息的中文句法分析与解码方法
CN102819524B (zh) * 2011-09-08 2015-06-03 金蝶软件(中国)有限公司 基于关键字的字符序列分割方法及装置
CN103455487B (zh) * 2012-05-29 2018-07-06 腾讯科技(深圳)有限公司 一种搜索词的提取方法及装置
CN103606037A (zh) * 2013-11-06 2014-02-26 远光软件股份有限公司 一种业务数据的查询配置方法及装置
CN104008186B (zh) * 2014-06-11 2018-10-16 北京京东尚科信息技术有限公司 从目标文本中确定关键词的方法和装置
CN106815262B (zh) * 2015-12-01 2020-07-03 北京国双科技有限公司 裁判文书的搜索方法及装置
CN105912820A (zh) * 2016-05-09 2016-08-31 江苏祥和电子科技有限公司 一种汽车发动机可靠性建模的方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0822506A3 (en) * 1996-08-01 1999-01-20 Canon Kabushiki Kaisha Method and apparatus for retrieving data
CN102456019A (zh) * 2010-10-18 2012-05-16 腾讯科技(深圳)有限公司 检索方法及装置
CN103678404A (zh) * 2012-09-21 2014-03-26 联想(北京)有限公司 一种关键词识别方法及电子设备
CN104077327A (zh) * 2013-03-29 2014-10-01 阿里巴巴集团控股有限公司 核心词重要性识别方法和设备及搜索结果排序方法和设备
CN104199810A (zh) * 2014-08-29 2014-12-10 科大讯飞股份有限公司 一种基于自然语言交互的智能服务方法及系统
CN104360994A (zh) * 2014-12-04 2015-02-18 科大讯飞股份有限公司 自然语言理解方法及系统
CN105117388A (zh) * 2015-09-21 2015-12-02 上海智臻智能网络科技股份有限公司 一种智能机器人交互系统

Also Published As

Publication number Publication date
CN107818781A (zh) 2018-03-20

Similar Documents

Publication Publication Date Title
CN107818781B (zh) 智能交互方法、设备及存储介质
CN107832286B (zh) 智能交互方法、设备及存储介质
CN107609101B (zh) 智能交互方法、设备及存储介质
CN107797984B (zh) 智能交互方法、设备及存储介质
CN108647205B (zh) 细粒度情感分析模型构建方法、设备及可读存储介质
CN106601237B (zh) 交互式语音应答系统及其语音识别方法
WO2020147428A1 (zh) 交互内容生成方法、装置、计算机设备及存储介质
CN106649825B (zh) 语音交互系统及其创建方法和装置
CN106709040B (zh) 一种应用搜索方法和服务器
CN104836720B (zh) 交互式通信中进行信息推荐的方法及装置
WO2020244150A1 (zh) 语音检索方法、装置、计算机设备及存储介质
WO2017181834A1 (zh) 一种智能问答方法及装置
CN110888990B (zh) 文本推荐方法、装置、设备及介质
CN109637537B (zh) 一种自动获取标注数据优化自定义唤醒模型的方法
CN105956053B (zh) 一种基于网络信息的搜索方法及装置
US20130246392A1 (en) Conversational System and Method of Searching for Information
CN108304375A (zh) 一种信息识别方法及其设备、存储介质、终端
CN108538294B (zh) 一种语音交互方法及装置
CN108920649B (zh) 一种信息推荐方法、装置、设备和介质
CN111090771B (zh) 歌曲搜索方法、装置及计算机存储介质
CN110532354A (zh) 内容的检索方法及装置
WO2016178337A1 (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
CN109615009B (zh) 一种学习内容推荐方法及电子设备
JP6994289B2 (ja) キャラクタ属性に応じた対話シナリオを作成するプログラム、装置及び方法
CN110209781B (zh) 一种文本处理方法、装置以及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant