CN108614678A - 一种基于人工智能的多功能智能人机交互方法 - Google Patents

一种基于人工智能的多功能智能人机交互方法 Download PDF

Info

Publication number
CN108614678A
CN108614678A CN201810361528.XA CN201810361528A CN108614678A CN 108614678 A CN108614678 A CN 108614678A CN 201810361528 A CN201810361528 A CN 201810361528A CN 108614678 A CN108614678 A CN 108614678A
Authority
CN
China
Prior art keywords
human
information
computer interaction
interaction device
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810361528.XA
Other languages
English (en)
Inventor
齐仁龙
张亚超
朱小会
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou University of Science and Technology
Original Assignee
Zhengzhou University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou University of Science and Technology filed Critical Zhengzhou University of Science and Technology
Priority to CN201810361528.XA priority Critical patent/CN108614678A/zh
Publication of CN108614678A publication Critical patent/CN108614678A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明公布提供了一种基于人工智能的多功能智能人机交互方法,属于人工智能领域,具体步骤如下:(1)信息输入:通过语音输入设备接受用户输入的语音;(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析;(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块;(4)信息输入类型:用户通过普通话语气将声音信息读出输入或者通过外设的键盘打字输入信息或者通过录音法;本发明公布通过获取人机交互装置当前的性格类型,以及针对所述人机交互装置发出的命令和所述命令的情绪类型,根据所述性格类型和所述命令的情绪类型对所述命令进行响应,能使人与机器之间的交互更加智能。

Description

一种基于人工智能的多功能智能人机交互方法
技术领域
本发明公布涉及一种人机交互方法,具体是一种基于人工智能的多功能智能人机交互方法。
背景技术
人与计算机之间的语音方式的交流成为可能,语音驱动的人机交互方式为人机交互提供了一种新途径,解放了人们的双手,能有效提高人机交互的便捷性和易用性,由于语音识别存在一定的误差以及口语交流过程中用户意图往往存在一定模糊性,人机自然语言交互是一种非精确的信息交互,一次人机语音对话一般需要人机之间的多次往复交流,因此人机对话系统需要循坏执行语音识别和理解、对话生成、语音合成等各个环节,以完成与用户的沟通,但是目前常见的人机交互装置尚未有成熟的语音驱动智能人机交互方法及相关系统。
发明内容
针对上述现有技术的不足,本发明公布要解决的技术问题是提供一种人工智能领域的基于人工智能的多功能智能人机交互方法。
为解决上述技术问题,本发明公布提供了如下技术方案:
一种基于人工智能的多功能智能人机交互方法,具体步骤如下:
(1)信息输入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词;
(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交互装置当前的性格类型,然后获取针对所述人机交互装置发出命令和所述命令的情绪类型,获取人机交互装置当前的性格类型的步骤包括:对预先存储的针对所述人机交互装置发出的命令的情绪类型进行分析,根据分析结果对所述人机交互装置的性格类型进行调整,将调整后的性格类型作为所述人机交互装置当前的性格类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交互装置的性格类型,确定指令的类型;
(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块;
(4)信息输入类型:用户通过普通话语气将声音信息读出输入,当不方便说话使用时,通过外设的键盘打字输入信息,并且人机交互装置内预设有语气标记符号,当输入一段文字信息后,标记上对应的语气标记符号,来确定输入文字信息的语气,或者通过录音法,将一些录制好的语音指令存储在人机交互装置内,然后需要执行相关指令时,播放相关的语音指令。
作为本发明公布进一步的改进方案:所述步骤(1)中带有词性的字词根据文法添加语义标签。
作为本发明公布再进一步的改进方案:所述步骤(2)中对人机交互装置内部预先存储带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息。
作为本发明公布再进一步的改进方案:所述步骤(3)中的中央处理模块根据所述性格类型和所述命令的情绪类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行。
作为本发明公布再进一步的改进方案:所述步骤(3)中的信息接受模块用于获取针对所述人机交互装置发出的命令信息,将所述信息发送给所述的中央处理模块。
与现有技术相比,本发明公布的有益效果是:
本发明公布通过获取人机交互装置当前的性格类型,以及针对所述人机交互装置发出的命令和所述命令的情绪类型,根据所述性格类型和所述命令的情绪类型对所述命令进行响应,能使人与机器之间的交互更加智能,便捷交互方式更加的便捷快速。
具体实施方式
下面结合具体实施方式对本专利的技术方案作进一步详细地说明。
实施例1
本实施例提供了一种基于人工智能的多功能智能人机交互方法,具体步骤如下:
(1)信息输入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词,并且将带有词性的字词添加语义标签;
(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交互装置当前的性格类型,然后获取针对所述人机交互装置发出命令和所述命令的情绪类型,获取人机交互装置当前的性格类型的步骤包括:对预先存储的针对所述人机交互装置发出的命令的情绪类型进行分析,根据分析结果对所述人机交互装置的性格类型进行调整,将调整后的性格类型作为所述人机交互装置当前的性格类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交互装置的性格类型,确定指令的类型,并且人机交互装置内存储有带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息;
(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块,此处的信息接受模块用于获取针对所述人机交互装置发出的命令信息,将所述信息发送给所述的中央处理模块,中央处理模块根据所述性格类型和所述命令的情绪类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行;
(4)信息输入类型:用户通过普通话语气将声音信息读出输入。
实施例2
本实施例提供了一种基于人工智能的多功能智能人机交互方法,具体步骤如下
(1)信息输入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词,并且将带有词性的字词添加语义标签;
(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交互装置当前的性格类型,然后获取针对所述人机交互装置发出命令和所述命令的情绪类型,获取人机交互装置当前的性格类型的步骤包括:对预先存储的针对所述人机交互装置发出的命令的情绪类型进行分析,根据分析结果对所述人机交互装置的性格类型进行调整,将调整后的性格类型作为所述人机交互装置当前的性格类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交互装置的性格类型,确定指令的类型,并且人机交互装置内存储有带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息;
(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块,此处的信息接受模块用于获取针对所述人机交互装置发出的命令信息,将所述信息发送给所述的中央处理模块,中央处理模块根据所述性格类型和所述命令的情绪类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行;
(4)信息输入类型:用户通过普通话语气将声音信息读出输入,当不方便说话使用时,通过外设的键盘打字输入信息,并且人机交互装置内预设有语气标记符号,当输入一段文字信息后,标记上对应的语气标记符号,来确定输入文字信息的语气。
实施例3
本实施例提供了一种基于人工智能的多功能智能人机交互方法,具体步骤如下:
(1)信息输入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词,并且将带有词性的字词添加语义标签;
(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交互装置当前的性格类型,然后获取针对所述人机交互装置发出命令和所述命令的情绪类型,获取人机交互装置当前的性格类型的步骤包括:对预先存储的针对所述人机交互装置发出的命令的情绪类型进行分析,根据分析结果对所述人机交互装置的性格类型进行调整,将调整后的性格类型作为所述人机交互装置当前的性格类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交互装置的性格类型,确定指令的类型,并且人机交互装置内存储有带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息;
(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块,此处的信息接受模块用于获取针对所述人机交互装置发出的命令信息,将所述信息发送给所述的中央处理模块,中央处理模块根据所述性格类型和所述命令的情绪类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行;
(4)信息输入类型:用户通过普通话语气将声音信息读出输入,当不方便说话使用时,通过录音法,将一些录制好的语音指令存储在人机交互装置内,然后需要执行相关指令时,播放相关的语音指令。
上面对本专利的较佳实施方式作了详细说明,但是本专利并不限于上述实施方式,在本领域的普通技术人员所具备的知识范围内,还可以在不脱离本专利宗旨的前提下做出各种变化。

Claims (5)

1.一种基于人工智能的多功能智能人机交互方法,其特征是,具体步骤如下:
(1)信息输入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词;
(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交互装置当前的性格类型,然后获取针对所述人机交互装置发出命令和所述命令的情绪类型,获取人机交互装置当前的性格类型的步骤包括:对预先存储的针对所述人机交互装置发出的命令的情绪类型进行分析,根据分析结果对所述人机交互装置的性格类型进行调整,将调整后的性格类型作为所述人机交互装置当前的性格类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交互装置的性格类型,确定指令的类型;
(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块;
(4)信息输入类型:用户通过普通话语气将声音信息读出输入,当不方便说话使用时,通过外设的键盘打字输入信息,并且人机交互装置内预设有语气标记符号,当输入一段文字信息后,标记上对应的语气标记符号,来确定输入文字信息的语气,或者通过录音法,将一些录制好的语音指令存储在人机交互装置内,然后需要执行相关指令时,播放相关的语音指令。
2.根据权利要求1所述的基于人工智能的多功能智能人机交互方法,其特征是,所述步骤(1)中带有词性的字词根据文法添加语义标签。
3.根据权利要求1所述的基于人工智能的多功能智能人机交互方法,其特征是,所述步骤(2)中对人机交互装置内部预先存储带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息。
4.根据权利要求1所述的基于人工智能的多功能智能人机交互方法,其特征是,所述步骤(3)中的中央处理模块根据所述性格类型和所述命令的情绪类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行。
5.根据权利要求1所述的基于人工智能的多功能智能人机交互方法,其特征是,所述步骤(3)中的信息接受模块用于获取针对所述人机交互装置发出的命令信息,将所述信息发送给所述的中央处理模块。
CN201810361528.XA 2018-04-20 2018-04-20 一种基于人工智能的多功能智能人机交互方法 Pending CN108614678A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810361528.XA CN108614678A (zh) 2018-04-20 2018-04-20 一种基于人工智能的多功能智能人机交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810361528.XA CN108614678A (zh) 2018-04-20 2018-04-20 一种基于人工智能的多功能智能人机交互方法

Publications (1)

Publication Number Publication Date
CN108614678A true CN108614678A (zh) 2018-10-02

Family

ID=63660711

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810361528.XA Pending CN108614678A (zh) 2018-04-20 2018-04-20 一种基于人工智能的多功能智能人机交互方法

Country Status (1)

Country Link
CN (1) CN108614678A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103761963A (zh) * 2014-02-18 2014-04-30 大陆汽车投资(上海)有限公司 包含情感类信息的文本的处理方法
CN104881108A (zh) * 2014-02-27 2015-09-02 青岛海尔机器人有限公司 一种智能人机交互方法及装置
CN105513593A (zh) * 2015-11-24 2016-04-20 南京师范大学 一种语音驱动的智能人机交互方法
CN106855879A (zh) * 2016-12-14 2017-06-16 竹间智能科技(上海)有限公司 人工智能心理与音乐咨询的机器人
CN106985137A (zh) * 2017-03-09 2017-07-28 北京光年无限科技有限公司 用于智能机器人的多模态交互方法及系统
CN107729311A (zh) * 2017-08-28 2018-02-23 云南大学 一种融合文本语气的中文文本特征提取方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103761963A (zh) * 2014-02-18 2014-04-30 大陆汽车投资(上海)有限公司 包含情感类信息的文本的处理方法
CN104881108A (zh) * 2014-02-27 2015-09-02 青岛海尔机器人有限公司 一种智能人机交互方法及装置
CN105513593A (zh) * 2015-11-24 2016-04-20 南京师范大学 一种语音驱动的智能人机交互方法
CN106855879A (zh) * 2016-12-14 2017-06-16 竹间智能科技(上海)有限公司 人工智能心理与音乐咨询的机器人
CN106985137A (zh) * 2017-03-09 2017-07-28 北京光年无限科技有限公司 用于智能机器人的多模态交互方法及系统
CN107729311A (zh) * 2017-08-28 2018-02-23 云南大学 一种融合文本语气的中文文本特征提取方法

Similar Documents

Publication Publication Date Title
US20220165268A1 (en) Indicator for voice-based communications
US10140973B1 (en) Text-to-speech processing using previously speech processed data
US10074369B2 (en) Voice-based communications
US6067520A (en) System and method of recognizing continuous mandarin speech utilizing chinese hidden markou models
CN106486121B (zh) 应用于智能机器人的语音优化方法及装置
US11093110B1 (en) Messaging feedback mechanism
Qian et al. A cross-language state sharing and mapping approach to bilingual (Mandarin–English) TTS
CN101551947A (zh) 辅助口语语言学习的计算机系统
WO2021179910A1 (zh) 文本语音的前端转换方法、装置、设备和存储介质
JP2013206253A (ja) 機械翻訳装置、方法、およびプログラム
CN112102811B (zh) 一种合成语音的优化方法、装置及电子设备
Dines et al. Measuring the gap between HMM-based ASR and TTS
CN106710585A (zh) 语音交互过程中的多音字播报方法及系统
CN112037755B (zh) 一种基于音色克隆的语音合成方法、装置及电子设备
JP2011504624A (ja) 自動同時通訳システム
CN114330371A (zh) 基于提示学习的会话意图识别方法、装置和电子设备
WO2018045154A1 (en) Voice-based communications
US11955112B1 (en) Cross-assistant command processing
JP2010169973A (ja) 外国語学習支援システム、及びプログラム
CN108614678A (zh) 一种基于人工智能的多功能智能人机交互方法
Gilbert et al. Intelligent virtual agents for contact center automation
US20230186902A1 (en) Multiple wakeword detection
CN114822489A (zh) 文本转写方法和文本转写装置
CN108717854A (zh) 基于优化gfcc特征参数的说话人识别方法
CN109657234A (zh) 一种机器人与人类顺畅交流的辅助交流方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181002

RJ01 Rejection of invention patent application after publication