CN109119076B - 一种老人用户交流习惯的收集系统及方法 - Google Patents
一种老人用户交流习惯的收集系统及方法 Download PDFInfo
- Publication number
- CN109119076B CN109119076B CN201810873515.0A CN201810873515A CN109119076B CN 109119076 B CN109119076 B CN 109119076B CN 201810873515 A CN201810873515 A CN 201810873515A CN 109119076 B CN109119076 B CN 109119076B
- Authority
- CN
- China
- Prior art keywords
- module
- information
- sound information
- sound
- robot body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000006854 communication Effects 0.000 title claims abstract description 41
- 238000004891 communication Methods 0.000 title claims abstract description 35
- 238000000034 method Methods 0.000 title claims abstract description 17
- 230000008451 emotion Effects 0.000 claims abstract description 47
- 239000002184 metal Substances 0.000 claims description 32
- 235000014676 Phragmites communis Nutrition 0.000 claims description 12
- 230000008909 emotion recognition Effects 0.000 claims description 9
- 229910000831 Steel Inorganic materials 0.000 claims description 7
- 239000010959 steel Substances 0.000 claims description 7
- 230000007717 exclusion Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 230000001737 promoting effect Effects 0.000 claims description 4
- 239000000463 material Substances 0.000 claims description 2
- 230000036651 mood Effects 0.000 claims 2
- 238000003466 welding Methods 0.000 claims 2
- 244000089486 Phragmites australis subsp australis Species 0.000 claims 1
- 244000273256 Phragmites communis Species 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000005284 excitation Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000032683 aging Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 230000035622 drinking Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01H—MEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
- G01H17/00—Measuring mechanical vibrations or ultrasonic, sonic or infrasonic waves, not provided for in the preceding groups
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
本发明涉及数据采集技术领域,具体涉及一种老人用户交流习惯的收集系统及方法,该系统包括机器人本体,机器人本体包括控制模块、标签模块、匹配模块、存储模块和多个拾音模块,该方法包括,S1采集用户交流时的声音信息;S2对声音信息进行匹配,若匹配的频次为零,生成存储信号,若匹配的频次大于零,生成频次信号;S3将声音信息与情绪信息进行对比,当声音信息中含有情绪信息时,给声音信息添加情绪标签;S4根据存储信号存储声音信息,根据频次信号给声音信息添加频次标签。本发明采集用户的语言信息,让其他养老机器人在接收用户的语音指令后从数据库中匹配语言习惯,由此分析用户的语音指令来提高指令识别的准确性。
Description
技术领域
本发明涉及数据采集技术领域,具体涉及一种老人用户交流习惯的收集系统及方法。
背景技术
老龄化问题已成为了我国的重要社会问题,我国老龄化的特点是人口基数大、人口分散及基础养老困难等,社会养老压力和家庭养老压力较大,为了减轻社会和家庭的养老压力,开发了具备提醒、监测和陪伴等功能的养老机器人,尤其适合独居老人。
养老机器人在为老人服务时,养老机器人在接收老人的语音指令后,养老机器人识别语音指令并根据语音指令执行相应动作,例如老人向养老机器人发送“听音乐”的语音指令,养老机器人就可调出音乐文件进行播放,为了使得养老机器人能够准确识别老人的语音指令,养老机器人需要对老人语音指令进行识别。
现有专利CN107862060A,本发明公开了一种追踪目标人的语义识别装置,包括麦克风阵列模块、说话人辨识模块、存储模块、音频数据缓存区以及语义匹配模块;麦克风阵列模块采集来自外界声场的多路音频信号并进行语音增强处理,处理后的音频信号只增强了外界声场中特定位置声源的音频信号;说话人辨识模块提取麦克风阵列模块采集的声纹特征,与目标人的声纹模型进行匹配,判断通过麦克风阵列模块增强处理后的特定声源信号是否来自于目标人;语义匹配模块识别音频中的语义信息并以一定形式输出。该发明配置了声纹提取模块和声源定位模块,可以在噪杂的外界声场中定位到目标人的声源位置,并通过音频数据缓存区和语义匹配模块将目标人的语音信号转换为目标人语义。
但是,在使用上述的语音识别装置时,需要老人以标准普通话进行吩咐,而不同地域的老人具有不同的方言口音,以及不同的老人在交流时具有不同的语言习惯,养老机器人在识别语音指令时容易出现无法识别或错误识别的问题,所以对老人交流时的语言习惯的收集显得尤为重要,收集老人语言习惯,方便养老机器人准确获取老人需求。
发明内容
本发明意在提供一种老人用户交流习惯的收集系统,以对老人交流时的语言习惯进行收集。
本方案中的老人用户交流习惯的收集系统,包括机器人本体,所述机器人本体包括控制模块、标签模块、匹配模块、存储模块和多个拾音模块;
拾音模块,用于采集用户交流时的声音信息并发送至控制模块;
存储模块,用于存储拾音模块采集到的用户的声音信息;
匹配模块,用于将采集到的声音信息与存储模块中存储的声音信息进行匹配,所述匹配模块在匹配的频次为零时向控制模块发送存储信号,所述匹配模块在匹配的频次大于零时向控制模块发送频次信号;
标签模块,用于根据频次信号给声音信息添加频次标签;
控制模块,用于获取声音信息并控制匹配模块将获取的声音信息与存储模块中的声音信息进行匹配,所述控制模块根据存储信号将匹配后的声音信息存储至存储模块中,所述控制模块获取匹配模块的频次信号并控制标签模块给声音信息添加频次标签。
本方案的工作原理及有益效果是:在老人用户集中交流的场所中,机器人本体上的拾音模块采集用户交流时的声音信息并发送至控制模块,当存储模块中未存储任何数据时,控制模块将语音信息存储至存储模块中,当存储模块中存储了数据后,控制模块控制匹配模块将获取的声音信息与存储模块中的声音信息进行匹配,例如匹配时将两个声音的波形进行减法运算得到匹配结果,当匹配结果小于20%时,即两个声音信息的重合度较大,匹配的频次大于零,匹配模块向控制模块发送频次信号,控制模块根据频次信号控制标签模块给声音信息添加频次标签,当匹配结果大于20%时,即两个声音信息的重合度较小,该获取到的声音信息未被采集过,匹配的频次为零,控制模块将该获取的声音信息存储到存储模块中。
与现有技术相比,本方案对老人日常交流过程中的语言习惯进行采集,老人交流时比较放松,交流涉及的内容较多且较广泛,更容易采集到老人针对不同内容的真实语言习惯,而且在采集后存储声音信息时,统计声音信息出现的频次,频次越高,表示该声音信息代表的用户的语言习惯更准确,将该语言习惯形成其他养老机器人的数据库,让其他养老机器人在接收用户的语音指令后从数据库中匹配语言习惯,由此分析用户的语音指令来提高指令识别的准确性。
进一步,所述机器人本体还包括情绪识别模块和对比模块,所述情绪识别模块用于产生用户交流时的情绪信息,所述对比模块用于将采集到的声音信息与情绪信息进行对比,当采集到的声音信息中有情绪信息时,所述对比模块向控制模块发送排除信号,所述控制模块根据排除信号控制标签模块给声音信息添加情绪标签。
在机器人本体获取用户的声音信息后,控制模块控制对比模块获取情绪识别模块中的情绪信息与声音信息进行对比,例如情绪信息可用声音的声波振动来表征用户处于兴奋或愤怒状态下,若声音信息中有情绪信息,对比模块向控制模块发送排除信号,控制模块控制标签模块给声音信息添加情绪标签,避免一些需要向用户反馈语音的养老机器人学习到该情绪,防止机器人本体播放的语音信息携带情绪信息引起用户反感。
进一步,所述机器人本体还包括引导模块和播放模块,所述引导模块预存有推广语音信息,所述推广语音信息包括关键词标签,所述控制模块在定时长时间段内未获取用户声音信息时从引导模块中获取推广语音信息,所述控制模块控制播放模块播放推广语音信息,所述控制模块在推广语音信息播放完成后控制拾音模块采集用户的声音信息。
当机器人本体在定时长时间段内未采集到声音信息时,控制模块从引导模块中获取推广语音信息并通过播放模块播放给老人用户,由此来引导老人用户进行交流,避免等待老人用户交流过程中耽搁的时间,减小声音信息采集的时间,同时在播放模块播放完推广语音信息后,控制模块获取拾音模块采集到的用户的声音信息,避免声音信息中夹杂推广语音信息而造成干扰。
进一步,所述机器人本体还包括关键词识别模块,所述关键词识别模块用于识别用户历史声音信息中的交流关键词并发送至控制模块,所述控制模块根据交流关键词获取引导模块中的推广语音信息。
关键词识别模块识别用户历史声音信息中的交流关键词,控制模块根据交流关键词获取引导模块中的推广语音信息,以推广老人用户感兴趣的内容,增加引导老人进行交流的有效性。
针对上述收集系统,还提供一种老人用户交流习惯的收集方法,包括以下步骤:
S1,将机器人本体放置在用户集中交流处,由机器人本体采集用户交流过程中的声音信息;
S2,在机器人本体对声音信息进行存储前,由机器人本体将声音信息与空信息进行匹配,匹配后机器人本体对声音信息进行存储,在机器人本体存储声音信息后,机器人本体再次获取的声音信息并与已存储的声音信息进行匹配,当匹配的频次为零时,机器人本体生成存储信号,当匹配的频次大于零时,机器人本体生成频次信号;
S3,机器人本体获取声音信息后获取预存的情绪信息,机器人本体将获取的声音信息与情绪信息进行对比,当声音信息中具有情绪信息时,机器人本体给声音信息添加情绪标签;
S4,机器人本体根据存储信号对获取的声音信息进行存储,机器人本体根据频次信号给声音信息添加频次标签。
机器人本体采集用户的声音信息并与已存储声音信息进行匹配,然后获得匹配后的频次,以声音信息的频次来表征用户的语言习惯,并识别声音信息中的情绪信息添加情绪标签,将该语言习惯形成其他养老机器人的数据库,让其他养老机器人在接收用户的语音指令后从数据库中匹配语言习惯,由此分析用户的语音指令来提高指令识别的准确性,同时避免机器人本体将具有情绪的声音信息作为语言习惯,避免机器人本体播放的语音信息携带情绪信息引起用户反感。
进一步,还包括步骤S5,当机器人本体在定时长时间段内未获取用户声音信息时,机器人本体识别出用户历史声音信息中的交流关键词,让机器人本体根据交流关键词获取预存的推广语音信息并播放推广语音信息,当推广语音信息播放完成后机器人本体再采集用户的声音信息。
根据用户历史声音信息中的交流关键词引导用户进行交流,避免等待老人用户交流过程中耽搁的时间,增加引导老人进行交流的有效性,减小声音信息采集的时间。
附图说明
图1为本发明老人用户交流习惯的收集系统实施例一电路的示意性框图;
图2为本发明老人用户交流习惯的收集系统实施例一中机器人本体的结构示意图;
图3为本发明老人用户交流习惯的收集系统实施例二中机器人本体的结构示意图;
图4为图3中圆筒的纵截面结构示意图。
具体实施方式
下面通过具体实施方式进一步详细的说明。
说明书附图中的附图标记包括:机器人本体1、行走轮2、延伸柱3、圆筒4、第一金属振片5、第二金属振片6、簧片7、钢珠8。
实施例一
老人用户交流习惯的收集系统,如图1和图2所示:包括机器人本体1,机器人本体1呈椭球形,机器人本体1的底端上安装有行走轮2,机器人本体1顶端处焊接有多个延伸柱3,本实施例可安装五根延伸柱3,机器人本体1包括控制模块、标签模块、匹配模块、存储模块、情绪识别模块、对比模块、引导模块、播放模块、关键词识别模块和多个拾音模块;
拾音模块分别位于延伸柱3上,拾音模块用于采集用户交流时的声音信息并发送至控制模块,拾音模块可用现有CHUMSUN-A200拾音装置;
存储模块用于存储拾音模块采集到的用户的声音信息,存储模块可用现有的硬件存储模器hts721010a9e630;
匹配模块用于将采集到的声音信息与存储模块中存储的声音信息进行匹配,例如匹配时将两个声音的波形进行减法运算得到匹配结果,匹配结果等于两个声音的波形相减后除以采集的声音信息,当匹配结果大于20%时,即两个声音信息的重合度较小,该获取到的声音信息未被采集过,匹配的频次为零,匹配模块在匹配的频次为零时向控制模块发送存储信号,当匹配结果小于20%时,即两个声音信息的重合度较大,匹配的频次大于零,匹配模块在匹配的频次大于零时向控制模块发送频次信号,通过语音信息的频次来表征用户的语言习惯,如老人用户声音信息中关于“喝水”的语言为“渴了”或“吃水”出现频次较多,则老人用户的语音习惯比较口语化,若老人用户关于“不想干某件事”的语言为“不想吃饭,我”出现的频次较多,老人用户语言习惯是说话喜欢主语后置;
标签模块用于根据频次信号给声音信息添加频次标签,频次标签即为老人用户在针对某个动作词语的语言表达方式出现的次数,标签模块根据控制模块的控制给声音信息添加情绪标签,例如情绪信息可用声音的声波振动来表征用户处于兴奋或愤怒状态下,添加情绪标签时,给每条声音信息添加文字头;
情绪识别模块用于产生用户交流时的情绪信息,情绪信息是指用户在兴奋或愤怒状态下的声音;
对比模块用于将采集到的声音信息与情绪信息进行对比,对比时对声音信息和情绪信息的波形进行对比,当采集到的声音信息中有情绪信息时,对比模块向控制模块发送排除信号;
引导模块预存有推广语音信息,推广语音信息包括关键词标签,例如推广语音信息可以是某种商品的折扣信息、某条线路的旅游信息和新闻信息等,各自的关键词标签可以是“折扣”、“旅游”和“新闻”等;
播放模块用于播放推广语音信息,播放模块可用现有的WTZ700A语音播放器;
关键词识别模块用于识别用户历史声音信息中的交流关键词并发送至控制模块,关键词识别可用现有最小编辑距离的关键词搜索算法;
控制模块可用现有的C8051F120单片机,控制模块用于获取声音信息并控制匹配模块将获取的声音信息与存储模块中的声音信息进行匹配,控制模块根据存储信号将匹配后的声音信息存储至存储模块中,控制模块获取匹配模块的频次信号并控制标签模块给声音信息添加频次标签,控制模块根据排除信号控制标签模块给声音信息添加情绪标签;
控制模块在定时长时间段内未获取用户声音信息时,控制模块根据交流关键词获取引导模块中的推广语音信息,控制模块控制播放模块播放推广语音信息,控制模块在推广语音信息播放完成后控制拾音模块采集用户的声音信息。
针对上述系统,本实施例还提供一种老人用户交流习惯的收集方法,包括以下步骤:
S1,将机器人本体1放置在用户集中交流处,机器人本体1上的拾音模块采集用户交流过程中声音信息并发送至控制模块;
S2,在控制模块获取声音信息后且在存储模块存入声音信息前,由控制模块控制匹配模块将来自拾音模块的声音信息与空信息进行匹配,控制模块将声音信息存储至存储模块中,将声音信息存储至存储模块后,控制模块将再次获取的拾音模块的声音信息与存储模块中的声音信息进行匹配,当匹配模块匹配的频次为零时,匹配模块向控制模块发送存储信号,当匹配模块匹配的频次大于零时,匹配模块向控制模块发送频次信号;
S3,控制模块获取声音信息后获取情绪识别模块中的情绪信息,控制模块控制对比模块对声音信息和情绪信息进行对比,当声音信息中具有情绪信息时,标签模块根据来自对比模块的排除信号给声音信息添加情绪标签;
S4,控制模块根据存储信号将该再次获取的声音信息存储至存储模块中,控制模块根据频次信号控制标签模块给声音信息添加频次标签;
S5,当机器人本体1在定时长时间段内未获取用户声音信息时,由关键词识别模块识别出用户历史声音信息中的交流关键词并发送至控制模块,让控制模块根据交流关键词获取引导模块中的推广语音信息并控制播放模块播放推广语音信息,当推广语音信息播放完成后,由控制模块控制拾音模块采集用户的声音信息。
实施例二
与实施例一的区别在于,如图3和图4所示,情绪识别模块包括焊接在延伸柱3端部的圆筒4,圆筒4中卡接有第一金属振片5,圆筒4的顶端部处卡接有第二金属振片6,第二金属振片6朝向第一金属振片5一侧的侧面上焊接有多个簧片7,本实施例中簧片7可设置五片,簧片7的长度、材质和厚度均相同,第一金属振片5和第二金属振片6使用现有电容话筒中的金属薄膜,第二金属振片6与第一金属振片5间放置有可碰触簧片7发出撞击声的钢珠8,由撞击声来表征情绪信息,即当用户在兴奋或愤怒状态下声音的声波引起两块金属振片振动。
由于老人用户在交流过程中未将口部对准延伸柱3,所以当老人用户以正常的说话分贝进行交流时,正常分贝即老人用户未在愤怒或兴奋情况下提升分贝说话,老人用户的说话声波不会引起圆筒4中的第一金属振片5和第二金属振片6震动,而当老人在愤怒或兴奋状态下说话声音的分贝提高后,声音传递到圆筒4处,声波使第一金属振片5和第二金属振片6振动,第一金属振片5振动过程中使钢珠8跳动,同时第二金属振片6振动过程中让簧片7跟随着移动,当钢珠8与簧片7相互撞击时产生撞击声,撞击声表示老人用户的说话分贝很高,由该撞击声来表征此时老人用户处于愤怒或兴奋的情绪状态,避免一些需要向用户反馈语音的养老机器人学习到该情绪,防止机器人本体1播放的语音信息携带情绪信息引起用户反感,如机器人本体1播放的声音处于兴奋或愤怒状态下的高分贝声音。
以上所述的仅是本发明的实施例,方案中公知的具体结构及特性等常识在此未作过多描述。应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。
Claims (5)
1.一种老人用户交流习惯的收集系统,包括机器人本体,其特征在于:所述机器人本体包括控制模块、标签模块、匹配模块、存储模块和多个拾音模块;
拾音模块,用于采集用户交流时的声音信息并发送至控制模块;
存储模块,用于存储拾音模块采集到的用户的声音信息;
匹配模块,用于将采集到的声音信息与存储模块中存储的声音信息进行匹配,所述匹配模块在匹配的频次为零时向控制模块发送存储信号,所述匹配模块在匹配的频次大于零时向控制模块发送频次信号;
标签模块,用于根据频次信号给声音信息添加频次标签;
控制模块,用于获取声音信息并控制匹配模块将获取的声音信息与存储模块中的声音信息进行匹配,所述控制模块根据存储信号将匹配后的声音信息存储至存储模块中,所述控制模块获取匹配模块的频次信号并控制标签模块给声音信息添加频次标签;
所述机器人本体还包括情绪识别模块和对比模块,所述情绪识别模块用于产生用户交流时的情绪信息,所述对比模块用于将采集到的声音信息与情绪信息进行对比,当采集到的声音信息中有情绪信息时,所述对比模块向控制模块发送排除信号,所述控制模块控制标签模块给声音信息添加情绪标签;
情绪识别模块包括焊接在延伸柱端部的圆筒,圆筒中卡接有第一金属振片,圆筒的顶端部处卡接有第二金属振片,第二金属振片朝向第一金属振片一侧的侧面上焊接有多个簧片,簧片的长度、材质和厚度均相同,第一金属振片和第二金属振片使用现有电容话筒中的金属薄膜,第二金属振片与第一金属振片间放置有可碰触簧片发出撞击声的钢珠,由撞击声来表征情绪信息。
2.根据权利要求1所述的老人用户交流习惯的收集系统,其特征在于:所述机器人本体还包括引导模块和播放模块,所述引导模块预存有推广语音信息,所述推广语音信息包括关键词标签,所述控制模块在定时长时间段内未获取用户声音信息时从引导模块中获取推广语音信息,所述控制模块控制播放模块播放推广语音信息,所述控制模块在推广语音信息播放完成后控制拾音模块采集用户的声音信息。
3.根据权利要求2所述的老人用户交流习惯的收集系统,其特征在于:所述机器人本体还包括关键词识别模块,所述关键词识别模块用于识别用户历史声音信息中的交流关键词并发送至控制模块,所述控制模块根据交流关键词获取引导模块中的推广语音信息。
4.根据权利要求1所述老人用户交流习惯的收集系统的老人用户交流习惯的收集方法,其特征在于,包括以下步骤:
S1,将机器人本体放置在用户集中交流处,由机器人本体采集用户交流过程中的声音信息;
S2,在机器人本体对声音信息进行存储前,由机器人本体将声音信息与空信息进行匹配,匹配后机器人本体对声音信息进行存储,在机器人本体存储声音信息后,机器人本体再次获取的声音信息并与已存储的声音信息进行匹配,当匹配的频次为零时,机器人本体生成存储信号,当匹配的频次大于零时,机器人本体生成频次信号;
S3,机器人本体获取声音信息后获取预存的情绪信息,声音传递到圆筒处,声波使第一金属振片和第二金属振片振动,第一金属振片振动过程中使钢珠跳动,同时第二金属振片振动过程中让簧片跟随着移动,当钢珠与簧片相互撞击时产生撞击声,撞击声表示老人用户的说话分贝很高,由该撞击声来表征此时老人用户处于愤怒或兴奋的情绪状态,机器人本体将获取的声音信息与情绪信息进行对比,当声音信息中具有情绪信息时,标签模块根据来自对比模块的排除信号给声音信息添加情绪标签;
S4,机器人本体根据存储信号对获取的声音信息进行存储,机器人本体根据频次信号给声音信息添加频次标签。
5.根据权利要求4所述的老人用户交流习惯的收集方法,其特征在于:还包括步骤S5,当机器人本体在定时长时间段内未获取用户声音信息时,机器人本体识别出用户历史声音信息中的交流关键词,让机器人本体根据交流关键词获取预存的推广语音信息并播放推广语音信息,当推广语音信息播放完成后机器人本体再采集用户的声音信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810873515.0A CN109119076B (zh) | 2018-08-02 | 2018-08-02 | 一种老人用户交流习惯的收集系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810873515.0A CN109119076B (zh) | 2018-08-02 | 2018-08-02 | 一种老人用户交流习惯的收集系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109119076A CN109119076A (zh) | 2019-01-01 |
CN109119076B true CN109119076B (zh) | 2022-09-30 |
Family
ID=64851994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810873515.0A Active CN109119076B (zh) | 2018-08-02 | 2018-08-02 | 一种老人用户交流习惯的收集系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109119076B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110473534A (zh) * | 2019-07-12 | 2019-11-19 | 南京邮电大学 | 一种基于深度神经网络的老年人看护对话系统 |
CN114260919B (zh) * | 2022-01-18 | 2023-08-29 | 华中科技大学同济医学院附属协和医院 | 一种智能机器人 |
CN117283577B (zh) * | 2023-09-19 | 2024-05-03 | 重庆宗灿科技发展有限公司 | 一种仿真陪护机器人 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015008931A1 (ko) * | 2013-07-19 | 2015-01-22 | 전자부품연구원 | 감정 분석을 통한 선호 음원 관리 장치 및 방법 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7447320B2 (en) * | 2001-02-14 | 2008-11-04 | Gentex Corporation | Vehicle accessory microphone |
KR100626653B1 (ko) * | 2002-10-15 | 2006-09-22 | 한국전자통신연구원 | 사용자의 선호도에 따른 오디오 신호 적응 변환 장치 및그 방법 |
CN1852354A (zh) * | 2005-10-17 | 2006-10-25 | 华为技术有限公司 | 收集用户行为特征的方法和装置 |
US8972313B2 (en) * | 2012-10-01 | 2015-03-03 | Korea Institute Of Industrial Technology | Apparatus and method for learning emotion of robot |
CN104157286B (zh) * | 2014-07-31 | 2017-12-29 | 深圳市金立通信设备有限公司 | 一种习惯用语的获取方法及装置 |
CN104134439B (zh) * | 2014-07-31 | 2018-01-12 | 深圳市金立通信设备有限公司 | 一种习惯用语的获取方法、装置及系统 |
CN104598644B (zh) * | 2015-02-12 | 2020-10-30 | 腾讯科技(深圳)有限公司 | 喜好标签挖掘方法和装置 |
CN106933561A (zh) * | 2015-12-31 | 2017-07-07 | 北京搜狗科技发展有限公司 | 语音输入方法和终端设备 |
CN105791931A (zh) * | 2016-02-26 | 2016-07-20 | 深圳Tcl数字技术有限公司 | 智能电视及其语音控制方法 |
CN107336246B (zh) * | 2017-06-15 | 2021-04-30 | 重庆柚瓣科技有限公司 | 养老机器人的拟人化系统 |
CN108132805B (zh) * | 2017-12-20 | 2022-01-04 | 深圳Tcl新技术有限公司 | 语音交互方法、装置及计算机可读存储介质 |
-
2018
- 2018-08-02 CN CN201810873515.0A patent/CN109119076B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015008931A1 (ko) * | 2013-07-19 | 2015-01-22 | 전자부품연구원 | 감정 분석을 통한 선호 음원 관리 장치 및 방법 |
Non-Patent Citations (2)
Title |
---|
听音识人――语音频谱与人格特质的关系初探;胡超等;《心理科学进展》;20110615(第06期);全文 * |
基于SVM的中文微博情绪分析研究;丁晟春等;《情报资料工作》;20160525(第03期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109119076A (zh) | 2019-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11646027B2 (en) | Multi-layer keyword detection | |
US11710478B2 (en) | Pre-wakeword speech processing | |
US11380330B2 (en) | Conversational recovery for voice user interface | |
US11657832B2 (en) | User presence detection | |
US20210082411A1 (en) | Generating input alternatives | |
US11361763B1 (en) | Detecting system-directed speech | |
US10643609B1 (en) | Selecting speech inputs | |
US10923111B1 (en) | Speech detection and speech recognition | |
CN109074806B (zh) | 控制分布式音频输出以实现语音输出 | |
US10917758B1 (en) | Voice-based messaging | |
US10365887B1 (en) | Generating commands based on location and wakeword | |
US10056078B1 (en) | Output of content based on speech-based searching and browsing requests | |
US10629186B1 (en) | Domain and intent name feature identification and processing | |
CN109119076B (zh) | 一种老人用户交流习惯的收集系统及方法 | |
US10565989B1 (en) | Ingesting device specific content | |
CN111210829A (zh) | 语音识别方法、装置、系统、设备和计算机可读存储介质 | |
US11798559B2 (en) | Voice-controlled communication requests and responses | |
US10504512B1 (en) | Natural language speech processing application selection | |
CN109994106B (zh) | 一种语音处理方法及设备 | |
US12032611B1 (en) | Responding with unresponsive content | |
US11288513B1 (en) | Predictive image analysis | |
CN109065026B (zh) | 一种录音控制方法及装置 | |
KR20190032557A (ko) | 음성 기반 통신 | |
US20110119052A1 (en) | Speech recognition dictionary creating support device, computer readable medium storing processing program, and processing method | |
CN111785302A (zh) | 说话人分离方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |