CN108614678A - 一种基于人工智能的多功能智能人机交互方法 - Google Patents
一种基于人工智能的多功能智能人机交互方法 Download PDFInfo
- Publication number
- CN108614678A CN108614678A CN201810361528.XA CN201810361528A CN108614678A CN 108614678 A CN108614678 A CN 108614678A CN 201810361528 A CN201810361528 A CN 201810361528A CN 108614678 A CN108614678 A CN 108614678A
- Authority
- CN
- China
- Prior art keywords
- human
- information
- computer interaction
- interaction device
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 81
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 16
- 230000008451 emotion Effects 0.000 claims abstract description 19
- 241001672694 Citrus reticulata Species 0.000 claims abstract description 6
- 230000002093 peripheral effect Effects 0.000 claims abstract description 4
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000004891 communication Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明公布提供了一种基于人工智能的多功能智能人机交互方法,属于人工智能领域,具体步骤如下:(1)信息输入:通过语音输入设备接受用户输入的语音;(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析;(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块;(4)信息输入类型:用户通过普通话语气将声音信息读出输入或者通过外设的键盘打字输入信息或者通过录音法;本发明公布通过获取人机交互装置当前的性格类型,以及针对所述人机交互装置发出的命令和所述命令的情绪类型,根据所述性格类型和所述命令的情绪类型对所述命令进行响应,能使人与机器之间的交互更加智能。
Description
技术领域
本发明公布涉及一种人机交互方法,具体是一种基于人工智能的多功能智能人机交互方法。
背景技术
人与计算机之间的语音方式的交流成为可能,语音驱动的人机交互方式为人机交互提供了一种新途径,解放了人们的双手,能有效提高人机交互的便捷性和易用性,由于语音识别存在一定的误差以及口语交流过程中用户意图往往存在一定模糊性,人机自然语言交互是一种非精确的信息交互,一次人机语音对话一般需要人机之间的多次往复交流,因此人机对话系统需要循坏执行语音识别和理解、对话生成、语音合成等各个环节,以完成与用户的沟通,但是目前常见的人机交互装置尚未有成熟的语音驱动智能人机交互方法及相关系统。
发明内容
针对上述现有技术的不足,本发明公布要解决的技术问题是提供一种人工智能领域的基于人工智能的多功能智能人机交互方法。
为解决上述技术问题,本发明公布提供了如下技术方案:
一种基于人工智能的多功能智能人机交互方法,具体步骤如下:
(1)信息输入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词;
(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交互装置当前的性格类型,然后获取针对所述人机交互装置发出命令和所述命令的情绪类型,获取人机交互装置当前的性格类型的步骤包括:对预先存储的针对所述人机交互装置发出的命令的情绪类型进行分析,根据分析结果对所述人机交互装置的性格类型进行调整,将调整后的性格类型作为所述人机交互装置当前的性格类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交互装置的性格类型,确定指令的类型;
(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块;
(4)信息输入类型:用户通过普通话语气将声音信息读出输入,当不方便说话使用时,通过外设的键盘打字输入信息,并且人机交互装置内预设有语气标记符号,当输入一段文字信息后,标记上对应的语气标记符号,来确定输入文字信息的语气,或者通过录音法,将一些录制好的语音指令存储在人机交互装置内,然后需要执行相关指令时,播放相关的语音指令。
作为本发明公布进一步的改进方案:所述步骤(1)中带有词性的字词根据文法添加语义标签。
作为本发明公布再进一步的改进方案:所述步骤(2)中对人机交互装置内部预先存储带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息。
作为本发明公布再进一步的改进方案:所述步骤(3)中的中央处理模块根据所述性格类型和所述命令的情绪类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行。
作为本发明公布再进一步的改进方案:所述步骤(3)中的信息接受模块用于获取针对所述人机交互装置发出的命令信息,将所述信息发送给所述的中央处理模块。
与现有技术相比,本发明公布的有益效果是:
本发明公布通过获取人机交互装置当前的性格类型,以及针对所述人机交互装置发出的命令和所述命令的情绪类型,根据所述性格类型和所述命令的情绪类型对所述命令进行响应,能使人与机器之间的交互更加智能,便捷交互方式更加的便捷快速。
具体实施方式
下面结合具体实施方式对本专利的技术方案作进一步详细地说明。
实施例1
本实施例提供了一种基于人工智能的多功能智能人机交互方法,具体步骤如下:
(1)信息输入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词,并且将带有词性的字词添加语义标签;
(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交互装置当前的性格类型,然后获取针对所述人机交互装置发出命令和所述命令的情绪类型,获取人机交互装置当前的性格类型的步骤包括:对预先存储的针对所述人机交互装置发出的命令的情绪类型进行分析,根据分析结果对所述人机交互装置的性格类型进行调整,将调整后的性格类型作为所述人机交互装置当前的性格类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交互装置的性格类型,确定指令的类型,并且人机交互装置内存储有带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息;
(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块,此处的信息接受模块用于获取针对所述人机交互装置发出的命令信息,将所述信息发送给所述的中央处理模块,中央处理模块根据所述性格类型和所述命令的情绪类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行;
(4)信息输入类型:用户通过普通话语气将声音信息读出输入。
实施例2
本实施例提供了一种基于人工智能的多功能智能人机交互方法,具体步骤如下
(1)信息输入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词,并且将带有词性的字词添加语义标签;
(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交互装置当前的性格类型,然后获取针对所述人机交互装置发出命令和所述命令的情绪类型,获取人机交互装置当前的性格类型的步骤包括:对预先存储的针对所述人机交互装置发出的命令的情绪类型进行分析,根据分析结果对所述人机交互装置的性格类型进行调整,将调整后的性格类型作为所述人机交互装置当前的性格类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交互装置的性格类型,确定指令的类型,并且人机交互装置内存储有带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息;
(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块,此处的信息接受模块用于获取针对所述人机交互装置发出的命令信息,将所述信息发送给所述的中央处理模块,中央处理模块根据所述性格类型和所述命令的情绪类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行;
(4)信息输入类型:用户通过普通话语气将声音信息读出输入,当不方便说话使用时,通过外设的键盘打字输入信息,并且人机交互装置内预设有语气标记符号,当输入一段文字信息后,标记上对应的语气标记符号,来确定输入文字信息的语气。
实施例3
本实施例提供了一种基于人工智能的多功能智能人机交互方法,具体步骤如下:
(1)信息输入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词,并且将带有词性的字词添加语义标签;
(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交互装置当前的性格类型,然后获取针对所述人机交互装置发出命令和所述命令的情绪类型,获取人机交互装置当前的性格类型的步骤包括:对预先存储的针对所述人机交互装置发出的命令的情绪类型进行分析,根据分析结果对所述人机交互装置的性格类型进行调整,将调整后的性格类型作为所述人机交互装置当前的性格类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交互装置的性格类型,确定指令的类型,并且人机交互装置内存储有带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息;
(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块,此处的信息接受模块用于获取针对所述人机交互装置发出的命令信息,将所述信息发送给所述的中央处理模块,中央处理模块根据所述性格类型和所述命令的情绪类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行;
(4)信息输入类型:用户通过普通话语气将声音信息读出输入,当不方便说话使用时,通过录音法,将一些录制好的语音指令存储在人机交互装置内,然后需要执行相关指令时,播放相关的语音指令。
上面对本专利的较佳实施方式作了详细说明,但是本专利并不限于上述实施方式,在本领域的普通技术人员所具备的知识范围内,还可以在不脱离本专利宗旨的前提下做出各种变化。
Claims (5)
1.一种基于人工智能的多功能智能人机交互方法,其特征是,具体步骤如下:
(1)信息输入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词;
(2)语音解析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交互装置当前的性格类型,然后获取针对所述人机交互装置发出命令和所述命令的情绪类型,获取人机交互装置当前的性格类型的步骤包括:对预先存储的针对所述人机交互装置发出的命令的情绪类型进行分析,根据分析结果对所述人机交互装置的性格类型进行调整,将调整后的性格类型作为所述人机交互装置当前的性格类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交互装置的性格类型,确定指令的类型;
(3)指令执行:人机交互装置包括信息接受模块、中央处理模块和命令执行模块;
(4)信息输入类型:用户通过普通话语气将声音信息读出输入,当不方便说话使用时,通过外设的键盘打字输入信息,并且人机交互装置内预设有语气标记符号,当输入一段文字信息后,标记上对应的语气标记符号,来确定输入文字信息的语气,或者通过录音法,将一些录制好的语音指令存储在人机交互装置内,然后需要执行相关指令时,播放相关的语音指令。
2.根据权利要求1所述的基于人工智能的多功能智能人机交互方法,其特征是,所述步骤(1)中带有词性的字词根据文法添加语义标签。
3.根据权利要求1所述的基于人工智能的多功能智能人机交互方法,其特征是,所述步骤(2)中对人机交互装置内部预先存储带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息。
4.根据权利要求1所述的基于人工智能的多功能智能人机交互方法,其特征是,所述步骤(3)中的中央处理模块根据所述性格类型和所述命令的情绪类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行。
5.根据权利要求1所述的基于人工智能的多功能智能人机交互方法,其特征是,所述步骤(3)中的信息接受模块用于获取针对所述人机交互装置发出的命令信息,将所述信息发送给所述的中央处理模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810361528.XA CN108614678A (zh) | 2018-04-20 | 2018-04-20 | 一种基于人工智能的多功能智能人机交互方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810361528.XA CN108614678A (zh) | 2018-04-20 | 2018-04-20 | 一种基于人工智能的多功能智能人机交互方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108614678A true CN108614678A (zh) | 2018-10-02 |
Family
ID=63660711
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810361528.XA Pending CN108614678A (zh) | 2018-04-20 | 2018-04-20 | 一种基于人工智能的多功能智能人机交互方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108614678A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103761963A (zh) * | 2014-02-18 | 2014-04-30 | 大陆汽车投资(上海)有限公司 | 包含情感类信息的文本的处理方法 |
CN104881108A (zh) * | 2014-02-27 | 2015-09-02 | 青岛海尔机器人有限公司 | 一种智能人机交互方法及装置 |
CN105513593A (zh) * | 2015-11-24 | 2016-04-20 | 南京师范大学 | 一种语音驱动的智能人机交互方法 |
CN106855879A (zh) * | 2016-12-14 | 2017-06-16 | 竹间智能科技(上海)有限公司 | 人工智能心理与音乐咨询的机器人 |
CN106985137A (zh) * | 2017-03-09 | 2017-07-28 | 北京光年无限科技有限公司 | 用于智能机器人的多模态交互方法及系统 |
CN107729311A (zh) * | 2017-08-28 | 2018-02-23 | 云南大学 | 一种融合文本语气的中文文本特征提取方法 |
-
2018
- 2018-04-20 CN CN201810361528.XA patent/CN108614678A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103761963A (zh) * | 2014-02-18 | 2014-04-30 | 大陆汽车投资(上海)有限公司 | 包含情感类信息的文本的处理方法 |
CN104881108A (zh) * | 2014-02-27 | 2015-09-02 | 青岛海尔机器人有限公司 | 一种智能人机交互方法及装置 |
CN105513593A (zh) * | 2015-11-24 | 2016-04-20 | 南京师范大学 | 一种语音驱动的智能人机交互方法 |
CN106855879A (zh) * | 2016-12-14 | 2017-06-16 | 竹间智能科技(上海)有限公司 | 人工智能心理与音乐咨询的机器人 |
CN106985137A (zh) * | 2017-03-09 | 2017-07-28 | 北京光年无限科技有限公司 | 用于智能机器人的多模态交互方法及系统 |
CN107729311A (zh) * | 2017-08-28 | 2018-02-23 | 云南大学 | 一种融合文本语气的中文文本特征提取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220165268A1 (en) | Indicator for voice-based communications | |
US10140973B1 (en) | Text-to-speech processing using previously speech processed data | |
US10074369B2 (en) | Voice-based communications | |
US6067520A (en) | System and method of recognizing continuous mandarin speech utilizing chinese hidden markou models | |
CN106486121B (zh) | 应用于智能机器人的语音优化方法及装置 | |
US11093110B1 (en) | Messaging feedback mechanism | |
Qian et al. | A cross-language state sharing and mapping approach to bilingual (Mandarin–English) TTS | |
CN101551947A (zh) | 辅助口语语言学习的计算机系统 | |
WO2021179910A1 (zh) | 文本语音的前端转换方法、装置、设备和存储介质 | |
JP2013206253A (ja) | 機械翻訳装置、方法、およびプログラム | |
CN112102811B (zh) | 一种合成语音的优化方法、装置及电子设备 | |
CN106710585A (zh) | 语音交互过程中的多音字播报方法及系统 | |
CN112037755B (zh) | 一种基于音色克隆的语音合成方法、装置及电子设备 | |
WO2021189984A1 (zh) | 语音合成方法、装置、设备及计算机可读存储介质 | |
CN114330371A (zh) | 基于提示学习的会话意图识别方法、装置和电子设备 | |
WO2018045154A1 (en) | Voice-based communications | |
US11955112B1 (en) | Cross-assistant command processing | |
JP2010169973A (ja) | 外国語学習支援システム、及びプログラム | |
CN108614678A (zh) | 一种基于人工智能的多功能智能人机交互方法 | |
US20230186902A1 (en) | Multiple wakeword detection | |
CN114822489A (zh) | 文本转写方法和文本转写装置 | |
JP3576066B2 (ja) | 音声合成システム、および音声合成方法 | |
Sečujski et al. | Learning prosodic stress from data in neural network based text-to-speech synthesis | |
CN109657234A (zh) | 一种机器人与人类顺畅交流的辅助交流方法 | |
JP2001117921A (ja) | 翻訳装置および翻訳方法、並びに記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181002 |
|
RJ01 | Rejection of invention patent application after publication |