CN107972028A - 人机交互方法、装置及电子设备 - Google Patents

人机交互方法、装置及电子设备 Download PDF

Info

Publication number
CN107972028A
CN107972028A CN201710632059.6A CN201710632059A CN107972028A CN 107972028 A CN107972028 A CN 107972028A CN 201710632059 A CN201710632059 A CN 201710632059A CN 107972028 A CN107972028 A CN 107972028A
Authority
CN
China
Prior art keywords
interactive object
value
interactive
touch
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710632059.6A
Other languages
English (en)
Other versions
CN107972028B (zh
Inventor
张锦华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Luka Beijing Intelligent Technology Co ltd
Original Assignee
Beijing Genius Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Genius Intelligent Technology Co Ltd filed Critical Beijing Genius Intelligent Technology Co Ltd
Priority to CN201710632059.6A priority Critical patent/CN107972028B/zh
Publication of CN107972028A publication Critical patent/CN107972028A/zh
Application granted granted Critical
Publication of CN107972028B publication Critical patent/CN107972028B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive

Abstract

本发明公开了一种人机交互方法,包括:采集交互对象的识别数据;所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率中的至少两种;根据所述识别数据,计算得到所述交互对象的情绪总值;根据所述情绪总值,完成与所述情绪总值相对应的交互操作;所述交互操作包括播放多媒体文件、互动问答、控制家庭环境中的任意设备运行中的至少一种。本发明还提供了一种人机交互装置和电子设备。

Description

人机交互方法、装置及电子设备
技术领域
本发明涉及数据处理技术领域,特别是指一种人机交互方法、装置及电子设备。
背景技术
随着中国人口红利消失,机器人不仅在制造业上正在逐渐替代工人,未来还将在军事、服务、娱乐等领域代替人类完成许多工作。当今世界,服务机器人的市场化程度仍处于起步阶段,但在受简单劳动力不足及老龄化等刚性驱动和科技发展促进的影响下,其增长也较为迅速。服务机器人是除工业机器人之外的、用于非制造业并服务于人类的各种先进机器人,主要包括个人/家用服务机器人和专业服务机器人。其中,个人/家用机器人主要包括:家庭作业机器人、娱乐休闲机器人、残障辅助机器人、住宅安全和监视机器人等;专业服务机器人主要包括:场地机器人、专业清洁机器人、医用机器人、物流用途机器人、检查和维护保养机器人、建筑机器人、水下机器人,以及国防、营救和安全应用机器人等等。现在机器人行业大多数都以你问我答方式来为人们服务,即下发指令方式来做出相应的功能表现。比如:用户询问天气“今天天气怎么样?”,机器人则回答相应的天气情况,或者,用户通过语音命令机器人扫地等等。
服务机器人行业目前基本上都是以目的性服务为主。没有通过机器人本体去观察人为的需求,在人们需要服务时不能及时主动的为人们服务,需要用户主动地下发相应的指令。这样一来,使得服务性能上显得有些滞后,即,机器人反应速度比较慢。
目前日常见到的机器人大都是以人脸识别、语音技术其中的单一技术做为产品生产的基础技术。例如,常见的故事机(应用到了语音技术)、儿童教育机器人(应用到了人脸识别技术来绑定设备、语音技术做为正常交互)等。这些机器人大都是以用户主动下发指令并等待机器人做出响应为实现方式,也就不能及时为人们做出主动的、恰当的、合理的服务。
发明内容
有鉴于此,本发明的目的在于提出一种人机交互方法、装置及电子设备,能够主动地提供及时的服务。
基于上述目的本发明提供的人机交互方法,包括:
采集交互对象的识别数据;所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率中的至少两种;
根据所述识别数据,计算得到所述交互对象的情绪总值;
根据所述情绪总值,完成与所述情绪总值相对应的交互操作;所述交互操作包括播放多媒体文件、互动问答、控制家庭环境中的任意设备运行中的至少一种。
可选的,所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率;
根据所述识别数据,计算得到所述交互对象的情绪总值的步骤,包括:
根据所述交互对象图像,处理得到面部识别值和交互对象速度值;
根据所述交互对象语音,处理得到语速值和语调值;
根据所述交互对象触控操作信号,处理得到触控速度值;
根据所述交互频率,处理得到互动频率值;
所述情绪总值为所述面部识别值、交互对象速度值、语速值、语调值、触控速度值和互动频率值中至少两项之和。
可选的,据所述交互对象图像,处理得到面部识别值的步骤,包括:
采用21点面部特征人脸识别算法识别所述交互对象图像,得到面部识别结果;
在预先设定的面部识别结果与面部识别值对照表中,查找得到与所述面部识别结果对应的面部识别值。
可选的,根据所述交互对象图像,处理得到交互对象速度值的步骤,包括:
获取按预设频率采集的多张交互对象图像;
计算交互对象图像中交互对象轮廓在交互对象图像中的变化;
根据所述预设频率和变化,计算得到交互对象的移动速度;
在预先设定的移动速度与交互对象速度值对照表中,查找得到与所述移动速度对应的交互对象速度值。
可选的,根据所述交互对象语音,处理得到语速值的步骤,包括:
根据交互对象语音,计算得到交互对象的语速;
在预先设定的语速与语速值对照表中,查找得到与所述语速对应的语速值。
可选的,根据所述交互对象语音,处理得到语调值的步骤,包括:
计算得到交互对象语音的分贝值;
在预先设定的分贝值与语调值对照表中,查找得到与所述分贝值对应的语调值。
可选的,根据所述交互对象触控操作信号,处理得到触控速度值的步骤,包括:
根据所述交互对象触控操作信号,计算得到触控时长;
在预先设定的触控时长与触控速度值对照表中,查找得到与所述触控时长对应的触控速度值。
可选的,根据所述交互频率,处理得到互动频率值的步骤,包括:
在预先设定的交互频率与互动频率值对照表中,查找得到与所述交互频率对应的互动频率值。
可选的,所述情绪总值为所述面部识别值、交互对象速度值、语速值、语调值、触控速度值和互动频率值之和。
本发明实施例的第二个方面,提供了一种人机交互装置,包括:
采集模块,用于采集交互对象的识别数据;所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率中的至少两种;
计算模块,用于根据所述识别数据,计算得到所述交互对象的情绪总值;
操作模块,用于根据所述情绪总值,完成与所述情绪总值相对应的交互操作;所述交互操作包括播放多媒体文件、互动问答、控制家庭环境中的任意设备运行中的至少一种。
可选的,所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率;
所述计算模块,具体用于:
根据所述交互对象图像,处理得到面部识别值和交互对象速度值;
根据所述交互对象语音,处理得到语速值和语调值;
根据所述交互对象触控操作信号,处理得到触控速度值;
根据所述交互频率,处理得到互动频率值;
所述情绪总值为所述面部识别值、交互对象速度值、语速值、语调值、触控速度值和互动频率值中至少两项之和。
可选的,所述计算模块,具体用于:
采用21点面部特征人脸识别算法识别所述交互对象图像,得到面部识别结果;
在预先设定的面部识别结果与面部识别值对照表中,查找得到与所述面部识别结果对应的面部识别值。
可选的,所述计算模块,具体用于:
获取按预设频率采集的多张交互对象图像;
计算交互对象图像中交互对象轮廓在交互对象图像中的变化;
根据所述预设频率和变化,计算得到交互对象的移动速度;
在预先设定的移动速度与交互对象速度值对照表中,查找得到与所述移动速度对应的交互对象速度值。
可选的,所述计算模块,具体用于:
根据交互对象语音,计算得到交互对象的语速;
在预先设定的语速与语速值对照表中,查找得到与所述语速对应的语速值。
可选的,所述计算模块,具体用于:
计算得到交互对象语音的分贝值;
在预先设定的分贝值与语调值对照表中,查找得到与所述分贝值对应的语调值。
可选的,所述计算模块,具体用于:
根据所述交互对象触控操作信号,计算得到触控时长;
在预先设定的触控时长与触控速度值对照表中,查找得到与所述触控时长对应的触控速度值。
可选的,所述计算模块,具体用于:
在预先设定的交互频率与互动频率值对照表中,查找得到与所述交互频率对应的互动频率值。
可选的,所述情绪总值为所述面部识别值、交互对象速度值、语速值、语调值、触控速度值和互动频率值之和。
本发明实施例的第三个方面,提供了一种电子设备,包括:
用于采集图像的摄像头、用于采集语音的声音传感器和/或用于接收触摸信号的触摸装置;
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上任一项所述的人机交互方法。
从上面所述可以看出,本发明实施例提供的人机交互方法、装置及电子设备,通过主动采集更为丰富的交互对象的识别数据,并基于所述识别数据得到更接近交互对象的当前状态的情绪总值,再根据情绪总值完成相应的较为丰富的交互操作,从而主动为交互对象提供更合理的服务。
附图说明
图1为本发明提供的人机交互方法的一个实施例的流程示意图;
图2为本发明提供的人机交互方法的一个实施例中21点面部特征人脸识别算法在人脸上的关键点分布示意图;
图3为本发明提供的人机交互装置的一个实施例的结构示意图;
图4为本发明提供的电子设备的一个实施例的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于前述目的,本发明实施例的第一个方面,提供了一种能够主动地提供及时的服务的人机交互方法的一个实施例。如图1所示,为本发明提供的人机交互方法的一个实施例的流程示意图。
所述人机交互方法,包括:
步骤101:采集交互对象的识别数据;所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率中的至少两种;
所述交互对象,通常是指所述人机交互方法中的用户一方;所述交互对象图像可以是指通过摄像头采集得到的包含交互对象的图像数据。用于采集所述交互对象图像的摄像头,可以是设置在用于完成所述人机交互方法的专用设备上(例如集成在可以完成人机交互的智能机器人上),也可以是设置在具有较好的拍摄角度的室内的某个位置,例如能够拍摄到大门处的较为完整的画面的玄关的某个位置,或者是正对着大门的客厅的某个位置等等。所述交互对象语音,可以是指通过声音传感器、拾音器或麦克风等能够采集声音的装置采集得到的包含交互对象发出的声音的语音数据。用于采集所述交互对象语音的装置,可以是设置在用于完成所述人机交互方法的专用设备上(例如集成在可以完成人机交互的智能机器人上),也可以是设置在具有较好的声音采集效果的室内的某个位置,例如能够采集到用户进门以后所发出的声音的位置(例如玄关的某个位置),或者是用户经常活动的区域,例如客厅的某个位置,等等。所述交互对象触控操作信号,可以是通过能够接收触控信号的触控装置采集得到的,所述触控信号则可以是交互对象触摸该触控装置而发出的触控信号;用于采集所述交互对象触控操作信号的触控装置,可以是设置在室内如玄关、客厅、卧室等位置的触控板等触控装置,也可以是设置在用于完成所述人机交互方法的专用设备上的(例如集成在可以完成人机交互的智能机器人上)。当然,可以想到,用于采集所述交互对象图像、交互对象语音和交互对象触控操作信号的设备,并不局限于仅在某个地方设置一个,为了达到更全面的效果,可以在需要的位置进行设置,并且用户可以根据自己的实际需求进行增删,等等。所述交互频率则是根据用户在预定时间范围内进行人机交互的次数而定的,具体的参数可以根据用户需要进行设置,也可以采用系统默认设定值。
步骤102:根据所述识别数据,计算得到所述交互对象的情绪总值;所述情绪总值基于当前采集的所述识别数据而得出,可以用于表征所述交互对象的情绪状态。
步骤103:根据所述情绪总值,完成与所述情绪总值相对应的交互操作;在得到情绪总值后,能够根据预先设定的情绪总值(也可以是情绪总值的范围区间)与所述交互操作的对应关系,选择相应的交互操作并执行;根据情绪总值的不同,所述交互操作也可以不同,或者,在情绪总值对应的交互操作为多种时,不同情绪总值(或者情绪总值的范围区间)对应的交互操作可以有部分重叠,所述交互操作包括播放多媒体文件、互动问答、控制家庭环境中的任意设备运行中的至少一种。
所述播放多媒体文件,可以是播放预先存储于某设备中的语音或视频,并且不同语音或视频与相应的情绪总值相关联,在不同情绪总值时,可根据设定的方式播放所述语音或视频;除此之外,所述语音或视频还可以是通过网络连接到的互联网中的语音或视频,这种方式可以通过提取用户的所述交互对象语音中的关键词来实现;可以想到,除了语音和视频外,还可以包括歌曲、电视剧、电影等各种多媒体文件,在此不再赘述。
所述互动问答,可以是基于预先存储于某设备中的对话数据,根据交互对象发出的语音中的关键字而进行的交互对象与设备之间的一问一答;此外,当交互对象的语音中的关键字不能在本地找到匹配数据时,还可以通过网络从互联网中查找。
所述控制家庭环境中的任意设备运行,可以是指,控制处于用户的家庭室内环境中的任何能够建立连接的电子设备或电器设备等,实现开启、关闭、调节等操作,例如开启音响并播放音乐,调节灯的颜色、亮度等,打开热水器并对浴缸进行注水,打开电视并播放用户喜欢的节目,等等。所述家庭环境中的任意设备,可以是指家庭环境中安装的具有常用功能的电子设备或电器设备,例如电视、冰箱、音响设备等等,但也可以是将一些能够集成在一起的功能集成于一体的专用设备(例如可以完成人机交互的智能机器人)。
上述的交互操作包括播放多媒体文件、互动问答、控制家庭环境中的任意设备运行中的至少一种,在特殊情况下,可以同时包括这三种,从而使用户获得更丰富的反馈,有利于调节用户的情绪状态。
从上述实施例可以看出,本发明实施例提供的人机交互方法,通过主动采集更为丰富的交互对象的识别数据,并基于所述识别数据得到更接近交互对象的当前状态的情绪总值,再根据情绪总值完成相应的较为丰富的交互操作,从而主动为交互对象提供更合理的服务。
在一些可选实施方式中,所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率;
继续参照附图1,根据所述识别数据,计算得到所述交互对象的情绪总值的步骤102,可具体包括以下步骤:
步骤1021:根据所述交互对象图像,处理得到面部识别值a和交互对象速度值b。
可选的,所述面部识别值a可通过人脸识别技术来处理得到。
所述人脸识别技术可包含以下三个部分:
(1)人脸检测
面貌检测是指在动态的场景与复杂的背景中判断是否存在面像,并分离出这种面像。一般有下列几种方法:
①参考模板法
首先设计一个或数个标准人脸的模板,然后计算测试采集的样品与标准模板之间的匹配程度,并通过阈值来判断是否存在人脸;
②人脸规则法
由于人脸具有一定的结构分布特征,所谓人脸规则的方法即提取这些特征生成相应的规则以判断测试样品是否包含人脸;
③样品学习法
这种方法即采用模式识别中人工神经网络的方法,即通过对面像样品集和非面像样品集的学习产生分类器;
④肤色模型法
这种方法是依据面貌肤色在色彩空间中分布相对集中的规律来进行检测;
⑤特征子脸法
这种方法是将所有面像集合视为一个面像子空间,并基于检测样品与其在子空间的投影之间的距离判断是否存在面像。
值得提出的是,上述5种方法在实际的人脸识别过程中也可综合采用。
(2)人脸跟踪
面貌跟踪是指对被检测到的面貌进行动态目标跟踪。具体采用基于模型的方法或基于运动与模型相结合的方法。此外,利用肤色模型跟踪也不失为一种简单而有效的手段。
(3)人脸比对
面貌比对是对被检测到的面貌像进行身份确认或在面像库中进行目标搜索。这实际上就是说,将采样到的面像与库存的面像依次进行比对,并找出最佳的匹配对象。所以,面像的描述决定了面像识别的具体方法与性能。主要采用特征向量与面纹模板两种描述方法:
①特征向量法
该方法是先确定眼虹膜、鼻翼、嘴角等面像五官轮廓的大小、位置、距离等属性,然后再计算出它们的几何特征量,而这些特征量形成一描述该面像的特征向量。
②面纹模板法
该方法是在库中存贮若干标准面像模板或面像器官模板,在进行比对时,将采样面像所有象素与库中所有模板采用归一化相关量度量进行匹配。此外,还有采用模式识别的自相关网络或特征与模板相结合的方法。
人脸识别技术的核心实际为“局部人体特征分析”和“图形/神经识别算法。”这种算法是利用人体面部各器官及特征部位的方法。如对应几何关系多数据形成识别参数与数据库中所有的原始参数进行比较、判断与确认。一般要求判断时间低于1秒。
在一些可选实施方式中,根据所述交互对象图像,处理得到面部识别值a的步骤,具体可包括以下步骤:
步骤10211:采用21点面部特征人脸识别算法识别所述交互对象图像,得到面部识别结果;
所述21点面部特征人脸识别算法具体的实现方式包括:
在人脸上的关键位置进行标记,如图2和表1所示。
表1 21点面部特征人脸识别算法中21点在人脸上的分布
左眉 A、B、C 右眉 D、E、F
左眼 G、Q、H 右眼 I、R、J
鼻子 K、L、M、S
嘴唇 N、O、P 嘴角 T、U
根据21点中各个点的变动偏离值给出一个数值,赋予成员变量中;然后根据预设算法得到相应的情绪识别结果,例如悲痛、高兴等等。
可选的,21点面部特征人脸识别算法可直接调用商汤提供的接口,接口方法中需要传递相应的参数,参数1为bitmap类型的图片,参数2为该图片的方向;根据该参数,商汤根据21点识别技术,返回一个情绪的识别结果(例如悲痛、高兴等等,参见表2),具体函数为CvAttributeResult attribute(Bitmap image,int rotation),商汤会对这个图片进行处理,返回一个自定义的类CvAttributeResult,该类包含两个数组,一个为人脸特征(戴太阳镜、性别、种族等),另一个数组为人脸情绪(悲痛、高兴等),具体细节请参见商汤提供的FaceSDK_WhitePaper v6.2.pdf技术文档。
对于能够返回的所有人脸情绪(面部识别结果),赋予其相应的面部识别值,从而得到预先设定的面部识别结果与面部识别值对照表。
步骤10212:在预先设定的面部识别结果与面部识别值对照表(可选的,所述面部识别结果与面部识别值对照表如表2所示)中,查找得到与所述面部识别结果对应的面部识别值a;在所述面部识别结果与面部识别值对照表中,判定交互对象为平静状态时,面部识别值a赋值为0~1。
表2面部识别结果与面部识别值对照表
识别结果 面部识别值
悲痛 -8
恐惧 -8
哭泣 -7
愤慨 -7
悲伤 -6
沮丧 -5
忐忑 -5
郁郁寡欢 -5
悲观 -4
尴尬 -3
颓然 -3
忧愁 -2
忧郁 -2
郁闷 -2
纠结 -1
无奈 -1
正常 0
期待 1
微笑 1
感兴趣的 2
欣喜 2
激动 3
喜出望外 3
兴奋 4
高兴 4
愉悦 5
快乐 5
欢快 6
大笑 7
开怀大笑 8
在一些可选实施方式中,根据所述交互对象图像,处理得到交互对象速度值的步骤,还可具体包括以下步骤:
步骤10213:获取按预设频率采集的多张交互对象图像;所述预设频率可以根据不同的需求进行设定,可选的,具体的设定值以能够通过连续采集得到的图像判断交互对象的移动速度和移动方式为准;
步骤10214:计算交互对象图像中交互对象轮廓在交互对象图像中的变化;所述变化可以是交互对象在交互对象图像中的位置变化、轮廓大小的变化等等;
步骤10215:根据所述预设频率和变化,计算得到交互对象的移动速度;根据两张相邻图像中交互对象的轮廓的变化,可以计算得到交互对象相对于采集装置的移动距离,而基于所述预设频率,则可计算得到交互对象移动该移动距离所耗费的时间,基于计算得到的移动距离和时间,就可以计算得到交互对象的移动速度;较佳的,为了保证计算结果的准确性,可以将多张连续的图片分别计算移动速度后取平均值;
步骤10216:在预先设定的移动速度与交互对象速度值对照表(可选的,所述移动速度与交互对象速度值对照表如表3所示)中,查找得到与所述移动速度对应的交互对象速度值b。
表3移动速度与交互对象速度值对照表
除了采用上述方式计算移动速度外,还可以采用其他方式来计算所述移动速度。根据运动学原理,人体重心位于第二骶骨前缘,两髋关节中央。直线运动时该中心是身体摆动幅度最小的部位。行走时人体重心不仅在水平方向,而且在垂直方向上不断改变着位置和速度。其中身体重心在垂直方向的速度变化与各关节及其活动肌肉的力学状况有密切关系。以人体重心加速度为衡量依据。因此,可以通过计算重心加速度来判断交互对象的移动速度,例如,利用交互对象随身携带的手机中的陀螺仪采集交互对象的重心加速度变化,并通过网络接收所述计算结果;或者,若所述人机交互方法对应有专用于该方法的设备(例如智能机器人)时,可通过交互对象携带所述设备运动时,经该设备中的陀螺仪等装置来计算重心加速度的变化。
步骤1022:根据所述交互对象语音,处理得到语速值c和语调值d;
可选的,所述语速值c可通过语音识别技术来处理得到。
一般来说,语音识别的方法有三种:基于声道模型和语音知识的方法、模板匹配的方法以及利用人工神经网络的方法。
(1)基于语音学和声学的方法
通常认为常用语言中有有限个不同的语音基元,而且可以通过其语音信号的频域或时域特性来区分。这样该方法分为两步实现:
第一步,分段和标号
把语音信号按时间分成离散的段,每段对应一个或几个语音基元的声学特性。然后根据相应声学特性对每个分段给出相近的语音标号。
第二步,得到词序列
根据第一步所得语音标号序列得到一个语音基元网格,从词典得到有效的词序列,也可结合句子的文法和语义同时进行。
(2)模板匹配的方法
模板匹配的方法发展比较成熟,目前已达到了实用阶段。在模板匹配方法中,要经过四个步骤:特征提取、模板训练、模板分类、判决。常用的技术有三种:动态时间规整(DTW)、隐马尔可夫(HMM)理论、矢量量化(VQ)技术。
动态时间规整(DTW)
语音信号的端点检测是进行语音识别中的一个基本步骤,它是特征训练和识别的基础。所谓端点检测就是在语音信号中的各种段落(如音素、音节、词素)的始点和终点的位置,从语音信号中排除无声段。在早期,进行端点检测的主要依据是能量、振幅和过零率。但效果往往不明显。60年代日本学者Itakura提出了动态时间规整算法(DTW:DynamicTimeWarping)。算法的思想就是把未知量均匀的升长或缩短,直到与参考模式的长度一致。在这一过程中,未知单词的时间轴要不均匀地扭曲或弯折,以使其特征与模型特征对正。
隐马尔可夫法(HMM)
隐马尔可夫法(HMM)是70年代引入语音识别理论的,它的出现使得自然语音识别系统取得了实质性的突破。HMM方法现已成为语音识别的主流技术,目前大多数大词汇量、连续语音的非特定人语音识别系统都是基于HMM模型的。HMM是对语音信号的时间序列结构建立统计模型,将之看作一个数学上的双重随机过程:一个是用具有有限状态数的Markov链来模拟语音信号统计特性变化的隐含的随机过程,另一个是与Markov链的每一个状态相关联的观测序列的随机过程。前者通过后者表现出来,但前者的具体参数是不可测的。人的言语过程实际上就是一个双重随机过程,语音信号本身是一个可观测的时变序列,是由大脑根据语法知识和言语需要(不可观测的状态)发出的音素的参数流。可见HMM合理地模仿了这一过程,很好地描述了语音信号的整体非平稳性和局部平稳性,是较为理想的一种语音模型。
矢量量化(VQ)
矢量量化(VectorQuantization)是一种重要的信号压缩方法。与HMM相比,矢量量化主要适用于小词汇量、孤立词的语音识别中。其过程是:将语音信号波形的k个样点的每一帧,或有k个参数的每一参数帧,构成k维空间中的一个矢量,然后对矢量进行量化。量化时,将k维无限空间划分为M个区域边界,然后将输入矢量与这些边界进行比较,并被量化为“距离”最小的区域边界的中心矢量值。矢量量化器的设计就是从大量信号样本中训练出好的码书,从实际效果出发寻找到好的失真测度定义公式,设计出最佳的矢量量化系统,用最少的搜索和计算失真的运算量,实现最大可能的平均信噪比。
核心思想可以这样理解:如果一个码书是为某一特定的信源而优化设计的,那么由这一信息源产生的信号与该码书的平均量化失真就应小于其他信息的信号与该码书的平均量化失真,也就是说编码器本身存在区分能力。
在实际的应用过程中,人们还研究了多种降低复杂度的方法,这些方法大致可以分为两类:无记忆的矢量量化和有记忆的矢量量化。无记忆的矢量量化包括树形搜索的矢量量化和多级矢量量化。
(3)神经网络的方法
利用人工神经网络的方法是80年代末期提出的一种新的语音识别方法。人工神经网络(ANN)本质上是一个自适应非线性动力学系统,模拟了人类神经活动的原理,具有自适应性、并行性、鲁棒性、容错性和学习特性,其强的分类能力和输入-输出映射能力在语音识别中都很有吸引力。但由于存在训练、识别时间太长的缺点,目前仍处于实验探索阶段。
由于ANN不能很好的描述语音信号的时间动态特性,所以常把ANN与传统识别方法结合,分别利用各自优点来进行语音识别。
一个完整的基于统计的语音识别系统可大致分为三部分:
(1)语音信号预处理与特征提取;
选择识别单元是语音识别研究的第一步。语音识别单元有单词(句)、音节和音素三种,具体选择哪一种,由具体的研究任务决定。
单词(句)单元广泛应用于中小词汇语音识别系统,但不适合大词汇系统,原因在于模型库太庞大,训练模型任务繁重,模型匹配算法复杂,难以满足实时性要求。
音节单元多见于汉语语音识别,主要因为汉语是单音节结构的语言,而英语是多音节,并且汉语虽然有大约1300个音节,但若不考虑声调,约有408个无调音节,数量相对较少。因此,对于中、大词汇量汉语语音识别系统来说,以音节为识别单元基本是可行的。
音素单元以前多见于英语语音识别的研究中,但目前中、大词汇量汉语语音识别系统也在越来越多地采用。原因在于汉语音节仅由声母(包括零声母有22个)和韵母(共有28个)构成,且声韵母声学特性相差很大。实际应用中常把声母依后续韵母的不同而构成细化声母,这样虽然增加了模型数目,但提高了易混淆音节的区分能力。由于协同发音的影响,音素单元不稳定,所以如何获得稳定的音素单元,还有待研究。
语音识别一个根本的问题是合理的选用特征。特征参数提取的目的是对语音信号进行分析处理,去掉与语音识别无关的冗余信息,获得影响语音识别的重要信息,同时对语音信号进行压缩。在实际应用中,语音信号的压缩率介于10-100之间。语音信号包含了大量各种不同的信息,提取哪些信息,用哪种方式提取,需要综合考虑各方面的因素,如成本,性能,响应时间,计算量等。非特定人语音识别系统一般侧重提取反映语义的特征参数,尽量去除说话人的个人信息;而特定人语音识别系统则希望在提取反映语义的特征参数的同时,尽量也包含说话人的个人信息。
线性预测(LP)分析技术是目前应用广泛的特征参数提取技术,许多成功的应用系统都采用基于LP技术提取的倒谱参数。但线性预测模型是纯数学模型,没有考虑人类听觉系统对语音的处理特点。
Mel参数和基于感知线性预测(PLP)分析提取的感知线性预测倒谱,在一定程度上模拟了人耳对语音的处理特点,应用了人耳听觉感知方面的一些研究成果。实验证明,采用这种技术,语音识别系统的性能有一定提高。从目前使用的情况来看,梅尔刻度式倒频谱参数已逐渐取代原本常用的线性预测编码导出的倒频谱参数,原因是它考虑了人类发声与接收声音的特性,具有更好的鲁棒性(Robustness)。
也有研究者尝试把小波分析技术应用于特征提取,但目前性能难以与上述技术相比,有待进一步研究。
(2)声学模型与模式匹配;
声学模型通常是将获取的语音特征使用训练算法进行训练后产生。在识别时将输入的语音特征同声学模型(模式)进行匹配与比较,得到最佳的识别结果。
声学模型是识别系统的底层模型,并且是语音识别系统中最关键的一部分。声学模型的目的是提供一种有效的方法计算语音的特征矢量序列和每个发音模板之间的距离。声学模型的设计和语言发音特点密切相关。声学模型单元大小(字发音模型、半音节模型或音素模型)对语音训练数据量大小、系统识别率,以及灵活性有较大的影响。必须根据不同语言的特点、识别系统词汇量的大小决定识别单元的大小。
以汉语为例:
汉语按音素的发音特征分类分为辅音、单元音、复元音、复鼻尾音四种,按音节结构分类为声母和韵母。并且由音素构成声母或韵母。有时,将含有声调的韵母称为调母。由单个调母或由声母与调母拼音成为音节。汉语的一个音节就是汉语一个字的音,即音节字。由音节字构成词,最后再由词构成句子。
汉语声母共有22个,其中包括零声母,韵母共有38个。按音素分类,汉语辅音共有22个,单元音13个,复元音13个,复鼻尾音16个。
目前常用的声学模型基元为声韵母、音节或词,根据实现目的不同来选取不同的基元。汉语加上语气词共有412个音节,包括轻音字,共有1282个有调音节字,所以当在小词汇表孤立词语音识别时常选用词作为基元,在大词汇表语音识别时常采用音节或声韵母建模,而在连续语音识别时,由于协同发音的影响,常采用声韵母建模。
基于统计的语音识别模型常用的就是HMM模型λ(N,M,π,A,B),涉及到HMM模型的相关理论包括模型的结构选取、模型的初始化、模型参数的重估以及相应的识别算法等。
(3)语言模型与语言处理;
语言模型包括由识别语音命令构成的语法网络或由统计方法构成的语言模型,语言处理可以进行语法、语义分析。
语言模型对中、大词汇量的语音识别系统特别重要。当分类发生错误时可以根据语言学模型、语法结构、语义学进行判断纠正,特别是一些同音字则必须通过上下文结构才能确定词义。语言学理论包括语义结构、语法规则、语言的数学描述模型等有关方面。目前比较成功的语言模型通常是采用统计语法的语言模型与基于规则语法结构命令语言模型。语法结构可以限定不同词之间的相互连接关系,减少了识别系统的搜索空间,这有利于提高系统的识别。
通过上述语音识别方法,能够得到采集得到的语音的文字表达,结合采集得到的语音的长度,即可得出交互对象的语速。
在一些可选实施方式中,根据所述交互对象语音,处理得到语速值c的步骤,还可具体包括以下步骤:
步骤10221:根据交互对象语音,计算得到交互对象的语速;经大量数据统计及分析,性别不同正常语速略有区别,因为是判断人的情绪,所以这里采用自发言语速度;
步骤10222:在预先设定的语速与语速值对照表(可选的,所述语速与语速值对照表如表4所示)中,查找得到与所述语速对应的语速值c。
表4语速与语速值对照表
其中,SPM指代每分钟的音节数,英文全称为:Syllables Per Minute。男性和女性的区分可以根据男性和女性的发音特点,通过设定分贝值的范围来区分;也可以通过初始设定时输入性别来确定。
在一些可选实施方式中,根据所述交互对象语音,处理得到语调值d的步骤,还可具体包括以下步骤:
步骤10223:计算得到交互对象语音的分贝值;通过采集得到的语音计算分贝值属于现有技术,在此不再赘述;
步骤10224:在预先设定的分贝值与语调值对照表(可选的,所述分贝值与语调值对照表如下表5所示)中,查找得到与所述分贝值对应的语调值。
表5分贝值与语调值对照表
步骤1023:根据所述交互对象触控操作信号,处理得到触控速度值e;
在一些可选实施方式中,根据所述交互对象触控操作信号,处理得到触控速度值e的步骤,还可具体包括以下步骤:
步骤10231:根据所述交互对象触控操作信号,计算得到触控时长;
步骤10232:在预先设定的触控时长与触控速度值对照表(可选的,所述触控时长与触控速度值对照表如下表6所示)中,查找得到与所述触控时长对应的触控速度值;所述触控时长以交互对象与触控设备相触碰的时长为准,例如:交互对象有意识的触碰触控设备后,1.5s内快速收回,则认为触摸触控板的速度为快,对应的触控速度值e即为1。
表6触控时长与触控速度值对照表
步骤1024:根据所述交互频率,处理得到互动频率值f;
在一些可选实施方式中,根据所述交互频率,处理得到互动频率值f的步骤,还可具体包括以下步骤:
在预先设定的交互频率与互动频率值对照表(可选的,所述交互频率与互动频率值对照表如下表7所示)中,查找得到与所述交互频率对应的互动频率值;所述交互频率,是指在预定时间间隔内,交互对象与人机交互装置之间的互动次数,参见下表7。
表7交互频率与互动频率值对照表
在一些可选实施方式中,所述情绪总值为所述面部识别值a、交互对象速度值b、语速值c、语调值d、触控速度值e和互动频率值f中至少两项之和;这种任意的选择,可选的,以情绪总值足够表征交互对象的当前情绪状况为准。
较佳的,在一些可选实施方式中,所述情绪总值T为所述面部识别值a、交互对象速度值b、语速值c、语调值d、触控速度值e和互动频率值f之和;即:情绪总值T=a+b+c+d+e+f。在预先设定的情绪总值、情绪表现与交互操作(可选的,所述情绪总值、情绪表现与交互操作如下表8所示)中,查找得到与所述情绪总值对应的情绪表现。根据情绪表现找到对应的交互操作(参见下表8),并执行相应的交互操作。
表8情绪总值、情绪表现与交互操作对照表
上表8是以举例的方式给出的本发明实施例中交互操作与情绪总值的对应关系,可以知道,除了上述的例举之外,还可以增删或变化上述的交互操作内容,这些增删或变化都应当属于本发明的保护范围。较佳的,这些增删或变化应当以能够较好地调节用户情绪的目的为准。
以下以举例方式示意性地介绍所述人机交互方法如何实现:
假设用户很晚下班,回家后身心疲惫。当用户开门回家后,采集所述交互对象图像、交互对象语音、交互对象触控操作信号和交互频率;根据所述交互图像,检测到交互对象(用户)的面部表情为不开心,其对应分值为0~-2;并且交互对象(用户)的行为速度较慢分值为-1;在进行互动时,频率不是很高,1小时内很可能也及2~3次分值为-4;说话的语调也许会低沉分值为-1~-2;语速也较慢分值为-1;人累的时候也基本不会去触摸机器人所以分值为-1;这时的情绪总值T=a+b+c+d+e+f=-8~-10,则判断交互对象(用户)需要照顾及情感呵护,此时,可将智能家居的灯调到温馨暖色,给交互对象(用户)打开热水器,给交互对象(用户)播放一首缓解疲劳的歌曲,如果交互对象(用户)有聊天需求并主动进行说话聊天,人机交互设备还可以说一些比较有意思的热点话题。
从上述实施例可以看出,本发明实施例提供的人机交互方法,通过采集交互对象图像、交互对象语音、交互对象触控操作信号和交互频率,从而捕获到交互对象的情绪并且根据交互对象的情绪去影响交互功能的实现,对应不同的情绪主动推送不同的功能、满足用户的需求,无需用户主动下发指令,更智能化,从而达到主动为交互对象提供服务的效果;此外,在用户有需求时也能够及时响应满足用户需求。
对比之下,单一的数据采集(例如只采集语音或只采集图像),其给出的情绪总值区间过于宽泛,对应的交互操作也就更不准确,难以达到较为精确地识别交互对象情绪的效果。
基于前述目的,本发明实施例的第二个方面,提供了一种能够主动地提供及时的服务的人机交互装置的一个实施例。如图3所示,为本发明提供的人机交互装置的一个实施例的结构示意图。
所述人机交互装置,可选的,为可以完成人机交互的智能机器人,具体包括:
采集模块201,用于采集交互对象的识别数据;所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率中的至少两种;相应地,所述采集模块201可以包括摄像头、采集声音的装置和触控装置中的至少两种;所述交互对象,通常是指与所述人机交互装置进行交互的用户一方。
所述交互对象图像可以是指通过摄像头采集得到的包含交互对象的图像数据。用于采集所述交互对象图像的摄像头,可以是设置在用于所述人机交互装置上(例如集成在可以完成人机交互的智能机器人上),也可以是设置在具有较好的拍摄角度的室内的某个位置,例如能够拍摄到大门处的较为完整的画面的玄关的某个位置,或者是正对着大门的客厅的某个位置等等;当摄像头不集成在所述人机交互装置上时,摄像头可以与所述人机交互装置建立连接(通常是通过网络连接),从而向所述人机交互装置发送采集得到的数据。
所述交互对象语音,可以是指通过声音传感器、拾音器或麦克风等能够采集声音的装置采集得到的包含交互对象发出的声音的语音数据。用于采集所述交互对象语音的装置,可以是设置在所述人机交互装置上(例如集成在可以完成人机交互的智能机器人上),也可以是设置在具有较好的声音采集效果的室内的某个位置,例如能够采集到用户进门以后所发出的声音的位置(例如玄关的某个位置),或者是用户经常活动的区域,例如客厅的某个位置,等等;当采集声音的装置不集成在所述人机交互装置上时,该采集声音的装置可以与所述人机交互装置建立连接(通常是通过网络连接),从而向所述人机交互装置发送采集得到的数据。
所述交互对象触控操作信号,可以是通过能够接收触控信号的触控装置采集得到的,所述触控信号则可以是交互对象触摸该触控装置而发出的触控信号;用于采集所述交互对象触控操作信号的触控装置,可以是设置在室内如玄关、客厅、卧室等位置的触控板等触控装置,也可以是设置在所述人机交互装置上的(例如集成在可以完成人机交互的智能机器人上);当触控装置不集成在所述人机交互装置上时,该触控装置可以与所述人机交互装置建立连接(通常是通过网络连接),从而向所述人机交互装置发送采集得到的数据;当该触控装置设置在所述人机交互装置上时,其设置的位置可以是所述人机交互装置任意部位,例如顶部、侧面、背面等。
当然,可以想到,用于采集所述交互对象图像、交互对象语音和交互对象触控操作信号的设备,并不局限于仅在某个地方设置一个,为了达到更全面的效果,可以在需要采集数据的室内任意位置进行设置,并且用户可以根据自己的实际需求进行增删,等等。所述交互频率则是根据用户在预定时间范围内进行人机交互的次数而定的,具体的参数可以根据用户需要进行设置,也可以采用系统默认设定值。
计算模块202,用于根据所述识别数据,计算得到所述交互对象的情绪总值;所述情绪总值基于当前采集的所述识别数据而得出,可以用于表征所述交互对象的情绪状态。
操作模块203,用于根据所述情绪总值,完成与所述情绪总值相对应的交互操作;在得到情绪总值后,能够根据预先设定的情绪总值(也可以是情绪总值的范围区间)与所述交互操作的对应关系,选择相应的交互操作并执行;根据情绪总值的不同,所述交互操作也可以不同,或者,在情绪总值对应的交互操作为多种时,不同情绪总值(或者情绪总值的范围区间)对应的交互操作可以有部分重叠,所述交互操作包括播放多媒体文件、互动问答、控制家庭环境中的任意设备运行中的至少一种。
所述播放多媒体文件,可以是播放预先存储于某设备(该设备可以是所述人机交互装置,也可以是能够被所述人机交互装置控制的其他设备)中的语音或视频,并且不同语音或视频与相应的情绪总值相关联,在不同情绪总值时,可根据设定的方式播放所述语音或视频;除此之外,所述语音或视频还可以是通过网络连接到的互联网中的语音或视频,这种方式可以通过提取用户的所述交互对象语音中的关键词来实现;可以想到,除了语音和视频外,还可以包括歌曲、电视剧、电影等各种多媒体文件,在此不再赘述。
所述互动问答,可以是基于预先存储于某设备(该设备可以是所述人机交互装置,也可以是能够被所述人机交互装置控制的其他设备)中的对话数据,根据交互对象发出的语音中的关键字而进行的交互对象与设备之间的一问一答;此外,当交互对象的语音中的关键字不能在本地找到匹配数据时,还可以通过网络从互联网中查找。
所述控制家庭环境中的任意设备运行,可以是指,所述人机交互装置控制处于用户的家庭室内环境中的任何能够建立连接的电子设备或电器设备等,实现开启、关闭、调节等操作,例如开启音响并播放音乐,调节灯的颜色、亮度等,打开热水器并对浴缸进行注水,打开电视并播放用户喜欢的节目,等等。所述家庭环境中的任意设备,可以是指家庭环境中安装的具有常用功能的电子设备或电器设备,例如电视、冰箱、音响设备等等,但也可以是将一些能够集成在一起的功能集成于一体的专用设备(例如可以完成人机交互的智能机器人)。
上述的交互操作包括播放多媒体文件、互动问答、控制家庭环境中的任意设备运行中的至少一种,在特殊情况下,可以同时包括这三种,从而使用户获得更丰富的反馈,有利于调节用户的情绪状态。
从上述实施例可以看出,本发明实施例提供的人机交互装置,通过主动采集更为丰富的交互对象的识别数据,并基于所述识别数据得到更接近交互对象的当前状态的情绪总值,再根据情绪总值完成相应的较为丰富的交互操作,从而主动为交互对象提供更合理的服务。
在一些可选实施方式中,所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率;
所述计算模块202,具体用于:
根据所述交互对象图像,处理得到面部识别值a和交互对象速度值b;可选的,所述面部识别值a可通过人脸识别技术来处理得到;
根据所述交互对象语音,处理得到语速值c和语调值d;可选的,所述语速值c可通过语音识别技术来处理得到;
根据所述交互对象触控操作信号,处理得到触控速度值e;
根据所述交互频率,处理得到互动频率值f;
所述情绪总值为所述面部识别值a、交互对象速度值b、语速值c、语调值d、触控速度值e和互动频率值f中至少两项之和;这种任意的选择,可选的,以情绪总值足够表征交互对象的当前情绪状况为准。
在一些可选实施方式中,所述计算模块202,具体用于:
采用21点面部特征人脸识别算法识别所述交互对象图像,得到面部识别结果;
在预先设定的面部识别结果与面部识别值对照表(可选的,所述面部识别结果与面部识别值对照表如表2所示)中,查找得到与所述面部识别结果对应的面部识别值a。
在一些可选实施方式中,所述计算模块202,具体用于:
获取按预设频率采集的多张交互对象图像;所述预设频率可以根据不同的需求进行设定,可选的,具体的设定值以能够通过连续采集得到的图像判断交互对象的移动速度和移动方式为准;
计算交互对象图像中交互对象轮廓在交互对象图像中的变化;所述变化可以是交互对象在交互对象图像中的位置变化、轮廓大小的变化等等;
根据所述预设频率和变化,计算得到交互对象的移动速度;根据两张相邻图像中交互对象的轮廓的变化,可以计算得到交互对象相对于采集装置的移动距离,而基于所述预设频率,则可计算得到交互对象移动该移动距离所耗费的时间,基于计算得到的移动距离和时间,就可以计算得到交互对象的移动速度;较佳的,为了保证计算结果的准确性,可以将多张连续的图片分别计算移动速度后取平均值;
在预先设定的移动速度与交互对象速度值对照表(可选的,所述移动速度与交互对象速度值对照表如表3所示)中,查找得到与所述移动速度对应的交互对象速度值b。
除了采用上述方式计算移动速度外,还可以采用其他方式来计算所述移动速度。根据运动学原理,人体重心位于第二骶骨前缘,两髋关节中央。直线运动时该中心是身体摆动幅度最小的部位。行走时人体重心不仅在水平方向,而且在垂直方向上不断改变着位置和速度。其中身体重心在垂直方向的速度变化与各关节及其活动肌肉的力学状况有密切关系。以人体重心加速度为衡量依据。因此,可以通过计算重心加速度来判断交互对象的移动速度,例如,利用交互对象随身携带的手机中的陀螺仪采集交互对象的重心加速度变化,并通过网络接收所述计算结果;或者,若所述人机交互方法对应有专用于该方法的设备(例如智能机器人)时,可通过交互对象携带所述设备运动时,经该设备中的陀螺仪等装置来计算重心加速度的变化。
在一些可选实施方式中,所述计算模块202,具体用于:
根据交互对象语音,计算得到交互对象的语速;通过语音识别方法,能够得到采集得到的语音的文字表达,结合采集得到的语音的长度,即可得出交互对象的语速;经大量数据统计及分析,性别不同正常语速略有区别,因为是判断人的情绪,所以这里采用自发言语速度;
在预先设定的语速与语速值对照表(可选的,所述语速与语速值对照表如表4所示)中,查找得到与所述语速对应的语速值c。
在一些可选实施方式中,所述计算模块202,具体用于:
计算得到交互对象语音的分贝值;通过采集得到的语音计算分贝值属于现有技术,在此不再赘述;
在预先设定的分贝值与语调值对照表(可选的,所述分贝值与语调值对照表如表5所示)中,查找得到与所述分贝值对应的语调值。
在一些可选实施方式中,所述计算模块202,具体用于:
根据所述交互对象触控操作信号,计算得到触控时长;
在预先设定的触控时长与触控速度值对照表(可选的,所述触控时长与触控速度值对照表如表6所示)中,查找得到与所述触控时长对应的触控速度值;所述触控时长以交互对象与触控设备相触碰的时长为准,例如:交互对象有意识的触碰触控设备后,1.5s内快速收回,则认为触摸触控板的速度为快,对应的触控速度值e即为1。
在一些可选实施方式中,所述计算模块202,具体用于:
在预先设定的交互频率与互动频率值对照表(可选的,所述交互频率与互动频率值对照表如表7所示)中,查找得到与所述交互频率对应的互动频率值;所述交互频率,是指在预定时间间隔内,交互对象与人机交互装置之间的互动次数,参见表7。
较佳的,在一些可选实施方式中,所述情绪总值T为所述面部识别值a、交互对象速度值b、语速值c、语调值d、触控速度值e和互动频率值f之和;即:情绪总值T=a+b+c+d+e+f。在预先设定的情绪总值与情绪表现对照表(可选的,所述情绪总值与情绪表现对照表如表8所示)中,查找得到与所述情绪总值对应的情绪表现。根据情绪表现找到对应的交互操作(参见表8),并执行相应的交互操作。
以下以举例方式示意性地介绍所述人机交互方法如何实现:
假设用户很晚下班,回家后身心疲惫。当用户开门回家后,采集所述交互对象图像、交互对象语音、交互对象触控操作信号和交互频率;根据所述交互图像,检测到交互对象(用户)的面部表情为不开心,其对应分值为0~-2;并且交互对象(用户)的行为速度较慢分值为-1;在进行互动时,频率不是很高,1小时内很可能也及2~3次分值为-4;说话的语调也许会低沉分值为-1~-2;语速也较慢分值为-1;人累的时候也基本不会去触摸机器人所以分值为-1;这时的情绪总值T=a+b+c+d+e+f=-8~-10,则判断交互对象(用户)需要照顾及情感呵护,此时,可将智能家居的灯调到温馨暖色,给交互对象(用户)打开热水器,给交互对象(用户)播放一首缓解疲劳的歌曲,如果交互对象(用户)有聊天需求并主动进行说话聊天,人机交互设备还可以说一些比较有意思的热点话题。
从上述实施例可以看出,本发明实施例提供的人机交互装置,通过采集交互对象图像、交互对象语音、交互对象触控操作信号和交互频率,从而捕获到交互对象的情绪并且根据交互对象的情绪去影响交互功能的实现,对应不同的情绪主动推送不同的功能、满足用户的需求,无需用户主动下发指令,更智能化,从而达到主动为交互对象提供服务的效果;此外,在用户有需求时也能够及时响应满足用户需求。
对比之下,单一的数据采集(例如只采集语音或只采集图像),其给出的情绪总值区间过于宽泛,对应的交互操作也就更不准确,难以达到较为精确地识别交互对象情绪的效果。
基于上述目的,本发明实施例的第三个方面,提供了一种能够主动地提供及时的服务的电子设备。如图4所示,为本发明提供的电子设备的一个实施例的结构示意图。
如图4所示,所述电子设备包括:
用于采集图像的摄像头、用于采集语音的声音传感器和/或用于接收触摸信号的触摸装置;
一个或多个处理器301以及存储器302,图4中以一个处理器301为例。
所述执行所述人机交互方法的电子设备还可以包括:输入装置303和输出装置304。
处理器301、存储器302、输入装置303和输出装置304可以通过总线或者其他方式连接,图4中以通过总线连接为例。
存储器302作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的所述人机交互方法对应的程序指令/模块(例如,附图3所示的采集模块201、计算模块202和操作模块203)。处理器301通过运行存储在存储器302中的非易失性软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例的人机交互方法。
存储器302可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据数据推荐装置的使用所创建的数据等。此外,存储器302可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器302可选包括相对于处理器301远程设置的存储器,这些远程存储器可以通过网络连接至会员用户行为监控装置。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置303可接收输入的数字或字符信息,以及产生与人机交互装置的用户设置以及功能控制有关的键信号输入。输出装置304可包括显示屏等显示设备。
所述一个或者多个模块存储在所述存储器302中,当被所述一个或者多个处理器301执行时,执行上述任意方法实施例中的人机交互方法。所述执行所述人机交互方法的电子设备的实施例,其技术效果与前述任意方法实施例相同或者类似。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本发明难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本发明难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本发明的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本发明的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本发明。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本发明的具体实施例对本发明进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本发明的实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (19)

1.一种人机交互方法,其特征在于,包括:
采集交互对象的识别数据;所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率中的至少两种;
根据所述识别数据,计算得到所述交互对象的情绪总值;
根据所述情绪总值,完成与所述情绪总值相对应的交互操作;所述交互操作包括播放多媒体文件、互动问答、控制家庭环境中的任意设备运行中的至少一种。
2.根据权利要求1所述的方法,其特征在于,所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率;
根据所述识别数据,计算得到所述交互对象的情绪总值的步骤,包括:
根据所述交互对象图像,处理得到面部识别值和交互对象速度值;
根据所述交互对象语音,处理得到语速值和语调值;
根据所述交互对象触控操作信号,处理得到触控速度值;
根据所述交互频率,处理得到互动频率值;
所述情绪总值为所述面部识别值、交互对象速度值、语速值、语调值、触控速度值和互动频率值中至少两项之和。
3.根据权利要求2所述的方法,其特征在于,根据所述交互对象图像,处理得到面部识别值的步骤,包括:
采用21点面部特征人脸识别算法识别所述交互对象图像,得到面部识别结果;
在预先设定的面部识别结果与面部识别值对照表中,查找得到与所述面部识别结果对应的面部识别值。
4.根据权利要求2所述的方法,其特征在于,根据所述交互对象图像,处理得到交互对象速度值的步骤,包括:
获取按预设频率采集的多张交互对象图像;
计算交互对象图像中交互对象轮廓在交互对象图像中的变化;
根据所述预设频率和变化,计算得到交互对象的移动速度;
在预先设定的移动速度与交互对象速度值对照表中,查找得到与所述移动速度对应的交互对象速度值。
5.根据权利要求2所述的方法,其特征在于,根据所述交互对象语音,处理得到语速值的步骤,包括:
根据交互对象语音,计算得到交互对象的语速;
在预先设定的语速与语速值对照表中,查找得到与所述语速对应的语速值。
6.根据权利要求2所述的方法,其特征在于,根据所述交互对象语音,处理得到语调值的步骤,包括:
计算得到交互对象语音的分贝值;
在预先设定的分贝值与语调值对照表中,查找得到与所述分贝值对应的语调值。
7.根据权利要求2所述的方法,其特征在于,根据所述交互对象触控操作信号,处理得到触控速度值的步骤,包括:
根据所述交互对象触控操作信号,计算得到触控时长;
在预先设定的触控时长与触控速度值对照表中,查找得到与所述触控时长对应的触控速度值。
8.根据权利要求2所述的方法,其特征在于,根据所述交互频率,处理得到互动频率值的步骤,包括:
在预先设定的交互频率与互动频率值对照表中,查找得到与所述交互频率对应的互动频率值。
9.根据权利要求2-8任一项所述的方法,其特征在于,所述情绪总值为所述面部识别值、交互对象速度值、语速值、语调值、触控速度值和互动频率值之和。
10.一种人机交互装置,其特征在于,包括:
采集模块,用于采集交互对象的识别数据;所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率中的至少两种;
计算模块,用于根据所述识别数据,计算得到所述交互对象的情绪总值;
操作模块,用于根据所述情绪总值,完成与所述情绪总值相对应的交互操作;所述交互操作包括播放多媒体文件、互动问答、控制家庭环境中的任意设备运行中的至少一种。
11.根据权利要求10所述的装置,其特征在于,所述识别数据包括交互对象图像、交互对象语音、交互对象触控操作信号和交互频率;
所述计算模块,具体用于:
根据所述交互对象图像,处理得到面部识别值和交互对象速度值;
根据所述交互对象语音,处理得到语速值和语调值;
根据所述交互对象触控操作信号,处理得到触控速度值;
根据所述交互频率,处理得到互动频率值;
所述情绪总值为所述面部识别值、交互对象速度值、语速值、语调值、触控速度值和互动频率值中至少两项之和。
12.根据权利要求11所述的装置,其特征在于,所述计算模块,具体用于:
采用21点面部特征人脸识别算法识别所述交互对象图像,得到面部识别结果;
在预先设定的面部识别结果与面部识别值对照表中,查找得到与所述面部识别结果对应的面部识别值。
13.根据权利要求11所述的装置,其特征在于,所述计算模块,具体用于:
获取按预设频率采集的多张交互对象图像;
计算交互对象图像中交互对象轮廓在交互对象图像中的变化;
根据所述预设频率和变化,计算得到交互对象的移动速度;
在预先设定的移动速度与交互对象速度值对照表中,查找得到与所述移动速度对应的交互对象速度值。
14.根据权利要求11所述的装置,其特征在于,所述计算模块,具体用于:
根据交互对象语音,计算得到交互对象的语速;
在预先设定的语速与语速值对照表中,查找得到与所述语速对应的语速值。
15.根据权利要求11所述的装置,其特征在于,所述计算模块,具体用于:
计算得到交互对象语音的分贝值;
在预先设定的分贝值与语调值对照表中,查找得到与所述分贝值对应的语调值。
16.根据权利要求11所述的装置,其特征在于,所述计算模块,具体用于:
根据所述交互对象触控操作信号,计算得到触控时长;
在预先设定的触控时长与触控速度值对照表中,查找得到与所述触控时长对应的触控速度值。
17.根据权利要求11所述的装置,其特征在于,所述计算模块,具体用于:
在预先设定的交互频率与互动频率值对照表中,查找得到与所述交互频率对应的互动频率值。
18.根据权利要求11-17任一项所述的装置,其特征在于,所述情绪总值为所述面部识别值、交互对象速度值、语速值、语调值、触控速度值和互动频率值之和。
19.一种电子设备,包括:
用于采集图像的摄像头、用于采集语音的声音传感器和/或用于接收触摸信号的触摸装置;
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1-9任一项所述的方法。
CN201710632059.6A 2017-07-28 2017-07-28 人机交互方法、装置及电子设备 Active CN107972028B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710632059.6A CN107972028B (zh) 2017-07-28 2017-07-28 人机交互方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710632059.6A CN107972028B (zh) 2017-07-28 2017-07-28 人机交互方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN107972028A true CN107972028A (zh) 2018-05-01
CN107972028B CN107972028B (zh) 2020-10-23

Family

ID=62012344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710632059.6A Active CN107972028B (zh) 2017-07-28 2017-07-28 人机交互方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN107972028B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108568807A (zh) * 2018-06-14 2018-09-25 深圳埃米电子科技有限公司 一种控制机器人面部表情的装置
CN109571494A (zh) * 2018-11-23 2019-04-05 北京工业大学 情绪识别方法、装置及宠物机器人
CN110085225A (zh) * 2019-04-24 2019-08-02 北京百度网讯科技有限公司 语音交互方法、装置、智能机器人及计算机可读存储介质
CN110262413A (zh) * 2019-05-29 2019-09-20 深圳市轱辘汽车维修技术有限公司 智能家居控制方法、控制装置、车载终端及可读存储介质
CN111079465A (zh) * 2018-10-18 2020-04-28 北京入思技术有限公司 一种基于三维成像分析的情绪状态综合判定方法
CN111475206A (zh) * 2019-01-04 2020-07-31 优奈柯恩(北京)科技有限公司 用于唤醒可穿戴设备的方法及装置
WO2020220180A1 (zh) * 2019-04-29 2020-11-05 华为技术有限公司 媒体内容推荐方法及设备
CN112291281A (zh) * 2019-07-09 2021-01-29 钉钉控股(开曼)有限公司 语音播报及语音播报内容的设定方法和装置
CN113253835A (zh) * 2021-03-19 2021-08-13 安徽淘云科技股份有限公司 一种人机交互设备控制方法及装置
CN114999534A (zh) * 2022-06-10 2022-09-02 中国第一汽车股份有限公司 一种车载音乐的播放控制方法、装置、设备和存储介质
CN115223553A (zh) * 2022-03-11 2022-10-21 广州汽车集团股份有限公司 语音识别方法和驾驶辅助系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163178A (ja) * 1998-11-26 2000-06-16 Hitachi Ltd 仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置
CN103456314A (zh) * 2013-09-03 2013-12-18 广州创维平面显示科技有限公司 一种情感识别方法以及装置
CN106203344A (zh) * 2016-07-12 2016-12-07 北京光年无限科技有限公司 一种用于智能机器人的情绪识别方法及系统
CN205989331U (zh) * 2016-06-15 2017-03-01 深圳光启合众科技有限公司 云端互动系统及其多感知型智能机器人
CN106469297A (zh) * 2016-08-31 2017-03-01 北京小米移动软件有限公司 情绪识别方法、装置和终端设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163178A (ja) * 1998-11-26 2000-06-16 Hitachi Ltd 仮想キャラクタとのインタラクション装置、及び仮想キャラクタの映像を生成するプログラムを記憶した記憶媒体
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置
CN103456314A (zh) * 2013-09-03 2013-12-18 广州创维平面显示科技有限公司 一种情感识别方法以及装置
CN205989331U (zh) * 2016-06-15 2017-03-01 深圳光启合众科技有限公司 云端互动系统及其多感知型智能机器人
CN106203344A (zh) * 2016-07-12 2016-12-07 北京光年无限科技有限公司 一种用于智能机器人的情绪识别方法及系统
CN106469297A (zh) * 2016-08-31 2017-03-01 北京小米移动软件有限公司 情绪识别方法、装置和终端设备

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108568807B (zh) * 2018-06-14 2024-02-13 深圳埃米电子科技有限公司 一种控制机器人面部表情的装置
CN108568807A (zh) * 2018-06-14 2018-09-25 深圳埃米电子科技有限公司 一种控制机器人面部表情的装置
CN111079465A (zh) * 2018-10-18 2020-04-28 北京入思技术有限公司 一种基于三维成像分析的情绪状态综合判定方法
CN109571494A (zh) * 2018-11-23 2019-04-05 北京工业大学 情绪识别方法、装置及宠物机器人
CN111475206B (zh) * 2019-01-04 2023-04-11 优奈柯恩(北京)科技有限公司 用于唤醒可穿戴设备的方法及装置
CN111475206A (zh) * 2019-01-04 2020-07-31 优奈柯恩(北京)科技有限公司 用于唤醒可穿戴设备的方法及装置
CN110085225A (zh) * 2019-04-24 2019-08-02 北京百度网讯科技有限公司 语音交互方法、装置、智能机器人及计算机可读存储介质
CN110085225B (zh) * 2019-04-24 2024-01-02 北京百度网讯科技有限公司 语音交互方法、装置、智能机器人及计算机可读存储介质
WO2020220180A1 (zh) * 2019-04-29 2020-11-05 华为技术有限公司 媒体内容推荐方法及设备
CN110262413A (zh) * 2019-05-29 2019-09-20 深圳市轱辘汽车维修技术有限公司 智能家居控制方法、控制装置、车载终端及可读存储介质
CN112291281B (zh) * 2019-07-09 2023-11-03 钉钉控股(开曼)有限公司 语音播报及语音播报内容的设定方法和装置
CN112291281A (zh) * 2019-07-09 2021-01-29 钉钉控股(开曼)有限公司 语音播报及语音播报内容的设定方法和装置
CN113253835A (zh) * 2021-03-19 2021-08-13 安徽淘云科技股份有限公司 一种人机交互设备控制方法及装置
CN115223553A (zh) * 2022-03-11 2022-10-21 广州汽车集团股份有限公司 语音识别方法和驾驶辅助系统
CN115223553B (zh) * 2022-03-11 2023-11-17 广州汽车集团股份有限公司 语音识别方法和驾驶辅助系统
CN114999534A (zh) * 2022-06-10 2022-09-02 中国第一汽车股份有限公司 一种车载音乐的播放控制方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN107972028B (zh) 2020-10-23

Similar Documents

Publication Publication Date Title
CN107972028A (zh) 人机交互方法、装置及电子设备
Yadav et al. Survey on machine learning in speech emotion recognition and vision systems using a recurrent neural network (RNN)
Zhang et al. Spontaneous speech emotion recognition using multiscale deep convolutional LSTM
CN110992987B (zh) 语音信号中针对通用特定语音的并联特征提取系统及方法
CN103366618B (zh) 基于人工智能与虚拟现实用于汉语学习培训的场景设备
CN111368609A (zh) 基于情绪引擎技术的语音交互方法、智能终端及存储介质
Schuller et al. Emotion recognition in the noise applying large acoustic feature sets
CN112162628A (zh) 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端
CN112216307B (zh) 语音情感识别方法以及装置
CN111312245B (zh) 一种语音应答方法、装置和存储介质
Lee et al. Study on emotion recognition and companion Chatbot using deep neural network
Gharavian et al. Audio-visual emotion recognition using FCBF feature selection method and particle swarm optimization for fuzzy ARTMAP neural networks
KR20210070213A (ko) 음성 사용자 인터페이스
CN109036395A (zh) 个性化的音箱控制方法、系统、智能音箱及存储介质
CN114127849A (zh) 语音情感识别方法和装置
Verkholyak et al. Modeling short-term and long-term dependencies of the speech signal for paralinguistic emotion classification
Zhang et al. Deep learning-based multimodal emotion recognition from audio, visual, and text modalities: A systematic review of recent advancements and future prospects
CN113393828A (zh) 一种语音合成模型的训练方法、语音合成的方法及装置
Gupta et al. Speech emotion recognition using svm with thresholding fusion
CN115937369A (zh) 一种表情动画生成方法、系统、电子设备及存储介质
CN106971721A (zh) 一种基于嵌入式移动设备的地方口音语音识别系统
CN114360584A (zh) 一种基于音素级的语音情感分层式识别方法及系统
Zeng Implementation of Embedded Technology-Based English Speech Identification and Translation System.
Jia et al. Two-level discriminative speech emotion recognition model with wave field dynamics: A personalized speech emotion recognition method
CN110853669A (zh) 音频识别方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 100000 Room D529, No. 501, Floor 5, Building 2, Fourth District, Wangjing Dongyuan, Chaoyang District, Beijing

Patentee after: Beijing Wuling Technology Co.,Ltd.

Address before: 100102 room 3602, 36 / F, building 101, building 13, District 4, Wangjing East Garden, Chaoyang District, Beijing

Patentee before: BEIJING LING TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230105

Address after: 100000 Room 815, Floor 8, Building 6, Yard 33, Guangshun North Street, Chaoyang District, Beijing

Patentee after: Luka (Beijing) Intelligent Technology Co.,Ltd.

Address before: 100000 Room D529, No. 501, Floor 5, Building 2, Fourth District, Wangjing Dongyuan, Chaoyang District, Beijing

Patentee before: Beijing Wuling Technology Co.,Ltd.