CN109657234A - 一种机器人与人类顺畅交流的辅助交流方法 - Google Patents
一种机器人与人类顺畅交流的辅助交流方法 Download PDFInfo
- Publication number
- CN109657234A CN109657234A CN201811417603.6A CN201811417603A CN109657234A CN 109657234 A CN109657234 A CN 109657234A CN 201811417603 A CN201811417603 A CN 201811417603A CN 109657234 A CN109657234 A CN 109657234A
- Authority
- CN
- China
- Prior art keywords
- type
- man
- machine communication
- voice
- tone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 16
- 230000006854 communication Effects 0.000 claims abstract description 39
- 241001672694 Citrus reticulata Species 0.000 claims abstract description 4
- 230000002093 peripheral effect Effects 0.000 claims abstract description 4
- 230000001419 dependent effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 abstract 1
- 208000033748 Device issues Diseases 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
本发明公布提供了一种机器人与人类顺畅交流的辅助交流方法,属于人工智能领域,具体步骤如下:(1)语音录入:通过语音输入设备接受用户输入的语音;(2)语义分析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析;(3)输出反馈语音:人机交流装置包括信息接受模块、总服务器和命令执行模块;(4)语音录入类型:用户通过普通话语气将声音信息读出输入或者通过外设的键盘打字输入信息或者通过录音法;本发明公布通过获取人机交流装置当前的偏好类型,以及针对所述人机交流装置发出的命令和所述命令的语气类型,根据所述偏好类型和所述命令的语气类型对所述命令进行响应,能使人与机器之间的交流更加智能。
Description
技术领域
本发明公布涉及一种人机交流方法,具体是一种机器人与人类顺畅交流的辅助交流方法。
背景技术
人与计算机之间在交流过程中,由于语音识别存在一定的误差以及口语交流过程中用户意图往往存在一定模糊性,人机自然语言交流是一种非精确的信息交流,一次人机语音对话一般需要人机之间的多次往复交流,因此人机对话系统需要循坏执行语音识别和理解、对话生成、语音合成等各个环节,以完成与用户的沟通,但是目前尚未有成熟的辅助交流系统。
发明内容
为解决上述技术问题,本发明公布提供了如下技术方案:
一种机器人与人类顺畅交流的辅助交流方法,具体步骤如下:
(1)语音录入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词;
(2)语义分析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交流装置当前的偏好类型,然后获取针对所述人机交流装置发出命令和所述命令的语气类型,获取人机交流装置当前的偏好类型的步骤包括:对预先存储的针对所述人机交流装置发出的命令的语气类型进行分析,根据分析结果对所述人机交流装置的偏好类型进行调整,将调整后的偏好类型作为所述人机交流装置当前的偏好类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交流装置的偏好类型,确定指令的类型;
(3)输出反馈语音:人机交流装置包括信息接受模块、总服务器和命令执行模块;
(4)语音录入类型:用户通过普通话语气将声音信息读出输入,当不方便说话使用时,通过外设的键盘打字输入信息,并且人机交流装置内预设有语气标记符号,当输入一段文字信息后,标记上对应的语气标记符号,来确定输入文字信息的语气,或者通过录音法,将一些录制好的语音指令存储在人机交流装置内,然后需要执行相关指令时,播放相关的语音指令。
作为本发明公布进一步的改进方案:所述步骤(1)中带有词性的字词根据数据库自动匹配。
作为本发明公布再进一步的改进方案:所述步骤(2)中对人机交流装置内部预先存储带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息。
作为本发明公布再进一步的改进方案:所述步骤(3)中的总服务器根据所述偏好类型和所述命令的语气类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行。
本发明公布通过获取人机交流装置当前的偏好类型,以及针对所述人机交互装置发出的命令和所述命令的语气类型,根据所述偏好类型和所述命令的语气类型对所述命令进行响应,能使人与机器之间的交流更加智能,便捷交流方式更加的便捷快速。
具体实施方式
一种机器人与人类顺畅交流的辅助交流方法,具体步骤如下:
(1)语音录入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词;
(2)语义分析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交流装置当前的偏好类型,然后获取针对所述人机交流装置发出命令和所述命令的语气类型,获取人机交流装置当前的偏好类型的步骤包括:对预先存储的针对所述人机交流装置发出的命令的语气类型进行分析,根据分析结果对所述人机交流装置的偏好类型进行调整,将调整后的偏好类型作为所述人机交流装置当前的偏好类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交流装置的偏好类型,确定指令的类型;
(3)输出反馈语音:人机交流装置包括信息接受模块、总服务器和命令执行模块;
(4)语音录入类型:用户通过普通话语气将声音信息读出输入,当不方便说话使用时,通过外设的键盘打字输入信息,并且人机交流装置内预设有语气标记符号,当输入一段文字信息后,标记上对应的语气标记符号,来确定输入文字信息的语气,或者通过录音法,将一些录制好的语音指令存储在人机交流装置内,然后需要执行相关指令时,播放相关的语音指令。
作为本发明公布进一步的改进方案:所述步骤(1)中带有词性的字词根据数据库自动匹配。
作为本发明公布再进一步的改进方案:所述步骤(2)中对人机交流装置内部预先存储带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息。
作为本发明公布再进一步的改进方案:所述步骤(3)中的总服务器根据所述偏好类型和所述命令的语气类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行。
上面对本专利的较佳实施方式作了详细说明,但是本专利并不限于上述实施方式,在本领域的普通技术人员所具备的知识范围内,还可以在不脱离本专利宗旨的前提下做出各种变化。
Claims (4)
1.一种机器人与人类顺畅交流的辅助交流方法,其特征是,具体步骤如下:
(1)语音录入:首先通过语音输入设备接受用户输入的语音,然后通过语音识别模块识别用户的语音,确定识别结果,然后将语音信息首先转换为文字信息,再将文字信息转化分为独立的字词,从而得到多个字词,然后将多个分词根据所处的文字信息中的组合方式、不同句型中的位置以及语法规律,找出对应的词性,得到带有词性的字词;
(2)语义分析:对话管理器根据语义理解模块将带有标签的短语分词进行语义解析,然后获取人机交流装置当前的偏好类型,然后获取针对所述人机交流装置发出命令和所述命令的语气类型,获取人机交流装置当前的偏好类型的步骤包括:对预先存储的针对所述人机交流装置发出的命令的语气类型进行分析,根据分析结果对所述人机交流装置的偏好类型进行调整,将调整后的偏好类型作为所述人机交流装置当前的偏好类型,然后根据用户输入的文字信息的语气,结合语法规律,得到所述带有词性的字词的词义,然后对比人机交流装置的偏好类型,确定指令的类型;
(3)输出反馈语音:人机交流装置包括信息接受模块、总服务器和命令执行模块;
(4)语音录入类型:用户通过普通话语气将声音信息读出输入,当不方便说话使用时,通过外设的键盘打字输入信息,并且人机交流装置内预设有语气标记符号,当输入一段文字信息后,标记上对应的语气标记符号,来确定输入文字信息的语气,或者通过录音法,将一些录制好的语音指令存储在人机交流装置内,然后需要执行相关指令时,播放相关的语音指令。
2.根据权利要求1所述的机器人与人类顺畅交流的辅助交流方法,其特征是,所述步骤(1)中带有词性的字词根据数据库自动匹配。
3.根据权利要求1所述的机器人与人类顺畅交流的辅助交流方法,其特征是,所述步骤(2)中对人机交流装置内部预先存储带有相关关键词的语句,当输入关键词时对应的关键词直接显示出来供使用者选择,方便快速输入信息。
4.根据权利要求1所述的机器人与人类顺畅交流的辅助交流方法,其特征是,所述步骤(3)中的总服务器根据所述偏好类型和所述命令的语气类型获取所述命令的响应指令,将所述响应指令发送给所述命令执行模块,然后执行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811417603.6A CN109657234A (zh) | 2018-11-26 | 2018-11-26 | 一种机器人与人类顺畅交流的辅助交流方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811417603.6A CN109657234A (zh) | 2018-11-26 | 2018-11-26 | 一种机器人与人类顺畅交流的辅助交流方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109657234A true CN109657234A (zh) | 2019-04-19 |
Family
ID=66112344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811417603.6A Withdrawn CN109657234A (zh) | 2018-11-26 | 2018-11-26 | 一种机器人与人类顺畅交流的辅助交流方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109657234A (zh) |
-
2018
- 2018-11-26 CN CN201811417603.6A patent/CN109657234A/zh not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6067520A (en) | System and method of recognizing continuous mandarin speech utilizing chinese hidden markou models | |
US10140973B1 (en) | Text-to-speech processing using previously speech processed data | |
CN111489748A (zh) | 一种调度智能语音辅助系统 | |
JP2019528512A (ja) | 人工知能に基づくヒューマンマシンインタラクション方法及び装置 | |
WO2021189984A1 (zh) | 语音合成方法、装置、设备及计算机可读存储介质 | |
US20120016671A1 (en) | Tool and method for enhanced human machine collaboration for rapid and accurate transcriptions | |
KR100321841B1 (ko) | 스피치 애플리케이션의 언어 모델 갱신 방법 | |
CN101551947A (zh) | 辅助口语语言学习的计算机系统 | |
CA3011397A1 (en) | Natural expression processing method, processing and response method, device and system | |
WO2002073595A1 (fr) | Dispositif generateur de prosodie, procede de generation de prosodie, et programme | |
WO2006054724A1 (ja) | 音声認識装置及び方法ならびにプログラム | |
CN103632663B (zh) | 一种基于hmm的蒙古语语音合成前端处理的方法 | |
Cumbal et al. | You don't understand me!: Comparing ASR results for L1 and L2 speakers of Swedish | |
CN109388705A (zh) | 一种文本意图分类方法 | |
Rosenberg | Speech, prosody, and machines: Nine challenges for prosody research | |
CN104679733B (zh) | 一种语音对话翻译方法、装置及系统 | |
CN105225659A (zh) | 一种指令式语音控制发音词典辅助生成方法 | |
JP5574842B2 (ja) | Faq候補抽出システムおよびfaq候補抽出プログラム | |
CN113257221B (zh) | 一种基于前端设计的语音模型训练方法及语音合成方法 | |
Raux | Flexible turn-taking for spoken dialog systems | |
Zhou et al. | Accented text-to-speech synthesis with limited data | |
Dutrey et al. | A CRF-based approach to automatic disfluency detection in a French call-centre corpus. | |
CN116933806A (zh) | 一种同传翻译系统及同传翻译终端 | |
CN109657234A (zh) | 一种机器人与人类顺畅交流的辅助交流方法 | |
JP4581549B2 (ja) | 音声処理装置および方法、記録媒体、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190419 |