CN113253835A - 一种人机交互设备控制方法及装置 - Google Patents
一种人机交互设备控制方法及装置 Download PDFInfo
- Publication number
- CN113253835A CN113253835A CN202110296092.2A CN202110296092A CN113253835A CN 113253835 A CN113253835 A CN 113253835A CN 202110296092 A CN202110296092 A CN 202110296092A CN 113253835 A CN113253835 A CN 113253835A
- Authority
- CN
- China
- Prior art keywords
- human
- user
- computer
- computer interaction
- interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种人机交互设备控制方法及装置,在确定人机交互设备的当前空闲持续时长达到第一阈值后,先根据上一轮人机持续交互过程的交互状态数据,确定该人机交互设备与该人机交互设备的使用者之间的当前人机亲密度;再根据该当前人机亲密度,更新人机交互设备的设备控制参数,以使后续该人机交互设备可以按照更新后的设备控制参数进行控制,如此能够实现人机交互设备与该人机交互设备的使用者之间的交互模式随着人机亲密度的变化进行适应性调整,有利于提高用户体验。
Description
技术领域
本申请涉及计算机技术领域,尤其涉及一种人机交互设备控制方法及装置。
背景技术
随着人工智能的不断发展,具有不同功能的人机交互设备逐渐走进人们的生活。例如,具有儿童陪伴功能的人机交互设备(如儿童陪伴机器人)可以给儿童讲故事、读诗歌、播放动画等。又如,具有教育辅导功能的人机交互设备(如教育机器人)可以帮助学生提高学习能力(如,进行问题解答、知识讲解等)。
然而,因人机交互设备的控制过程通常是一成不变的,使得该人机交互设备与用户之间的交互模式是固定不变的,如此导致用户体验较差。
发明内容
本申请实施例的主要目的在于提供一种人机交互设备控制方法及装置,使得人机交互设备与该人机交互设备的使用者之间的交互模式能够随着人机亲密度的变化进行适应性调整,如此有利于提高用户体验。
本申请实施例提供了一种人机交互设备控制方法,所述方法包括:
在确定人机交互设备的当前空闲持续时长达到第一阈值后,根据上一轮人机持续交互过程的交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度;
根据所述当前人机亲密度,更新所述人机交互设备的设备控制参数,以使所述人机交互设备按照更新后的设备控制参数进行控制。
在一种可能的实施方式下,所述交互状态数据包括设备使用时长、用户主动交互次数、用户交互心情特征、用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率中的至少一个。
在一种可能的实施方式下,若所述上一轮人机持续交互过程包括N次人机交互过程,则所述上一轮人机持续交互过程的用户交互心情特征的确定过程包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的心情表征数据,确定所述第i次人机交互过程的用户情绪特征;其中,i为正整数,i≤N,N为正整数;
将所述上一轮人机持续交互过程中第1次人机交互过程的用户情绪特征至第N次人机交互过程的用户情绪特征进行第一统计处理,得到所述上一轮人机持续交互过程的用户交互心情特征。
在一种可能的实施方式下,若所述心情表征数据包括语音采集数据,则所述第i次人机交互过程的用户情绪特征的确定过程,包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的语音采集数据,得到所述第i次人机交互过程对应的第一心情特征;根据所述第i次人机交互过程对应的第一心情特征,确定所述第i次人机交互过程的用户情绪特征;
或者,
若所述心情表征数据包括行为采集数据,则所述第i次人机交互过程的用户情绪特征的确定过程,包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的行为采集数据,得到所述第i次人机交互过程对应的第二心情特征;根据所述第i次人机交互过程对应的第二心情特征,确定所述第i次人机交互过程的用户情绪特征;
或者,
若所述心情表征数据包括语音采集数据和行为采集数据,则所述第i次人机交互过程的用户情绪特征的确定过程,包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的语音采集数据,得到所述第i次人机交互过程对应的第一心情特征;根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的行为采集数据,得到所述第i次人机交互过程对应的第二心情特征;将所述第i次人机交互过程对应的第一心情特征和所述第i次人机交互过程对应的第二心情特征进行加权求和,得到所述第i次人机交互过程的用户情绪特征。
在一种可能的实施方式下,若所述上一轮人机持续交互过程包括M次用户被动应答过程,则所述上一轮人机持续交互过程的用户被动应答速度的确定过程,包括:
将所述人机交互设备的使用者在所述上一轮人机持续交互过程中第1次用户被动应答过程的应答速度至第M次用户被动应答过程的应答速度进行第二统计处理,得到所述上一轮人机持续交互过程的用户被动应答速度;其中,M为正整数;
和/或,
所述上一轮人机持续交互过程的用户被动应答准确率的确定过程,包括:
将所述人机交互设备的使用者在所述上一轮人机交互过程中第1次用户被动应答过程的应答准确率至第M次用户被动应答过程的应答准确率进行第三统计处理,得到所述上一轮人机持续交互过程的用户被动应答准确率。
在一种可能的实施方式下,若所述交互状态数据包括设备使用时长、用户主动交互次数和用户交互心情特征,则所述根据上一轮人机交互过程中交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度,包括:
将所述上一轮人机持续交互过程的设备使用时长、用户主动交互次数和用户交互心情特征进行加权求和,得到所述人机交互设备与所述人机交互设备的使用者之间的第一亲密特征;
根据所述人机交互设备与所述人机交互设备的使用者之间的第一亲密特征,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度。
在一种可能的实施方式下,所述用户主动交互次数对应的加权权重与所述用户主动交互次数正相关;
和/或,
所述用户交互心情特征对应的加权权重与所述用户交互心情特征正相关。
在一种可能的实施方式下,若所述交互状态数据包括用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率,则所述根据上一轮人机交互过程中交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度,包括:
将所述上一轮人机持续交互过程的用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率进行加权求和,得到所述人机交互设备与所述人机交互设备的使用者之间的第二亲密特征;
根据所述人机交互设备与所述人机交互设备的使用者之间的第二亲密特征,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度。
在一种可能的实施方式下,所述用户被动应答准确率对应的加权权重与所述用户被动应答准确率正相关。
在一种可能的实施方式下,所述根据上一轮人机持续交互过程的交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度,包括:
根据当前设备功能覆盖率和所述上一轮人机持续交互过程的交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度。
在一种可能的实施方式下,若所述设备控制参数包括空闲等待最大时长,则所述根据所述当前人机亲密度,更新所述人机交互设备的设备控制参数,包括:
在确定所述当前人机亲密度高于第二阈值后,根据所述当前人机亲密度,确定时长校正权重;
根据更新前的空闲等待最大时长、所述时长校正权重和预设时长调整幅度,确定更新后的空闲等待最大时长。
在一种可能的实施方式下,若所述设备控制参数包括关联推荐相似度阈值,则所述根据所述当前人机亲密度,更新所述人机交互设备的设备控制参数,包括:
在确定所述当前人机亲密度高于第三阈值后,根据所述当前人机亲密度,确定阈值校正权重;
根据更新前的关联推荐相似度阈值、所述阈值校正权重和预设阈值调整幅度,确定更新后的关联推荐相似度阈值。
在一种可能的实施方式下,若所述设备控制参数包括设备主动交互频率,则所述根据所述当前人机亲密度,更新所述人机交互设备的设备控制参数,包括:
在确定所述当前人机亲密度高于第四阈值后,根据所述当前人机亲密度,确定频率校正权重;
根据更新前的设备主动交互频率、所述频率校正权重和预设频率调整幅度,确定更新后的设备主动交互频率。
本申请实施例还提供了一种人机交互设备控制装置,包括:
亲密度确定单元,用于在确定人机交互设备的当前空闲持续时长达到第一阈值后,根据上一轮人机持续交互过程的交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度;
参数更新单元,用于根据所述当前人机亲密度,更新所述人机交互设备的设备控制参数,以使所述人机交互设备按照更新后的设备控制参数进行控制。
基于上述技术方案,本申请具有以下有益效果:
本申请提供的人机交互设备控制方法及装置中,在确定人机交互设备的当前空闲持续时长达到第一阈值后,先根据上一轮人机持续交互过程的交互状态数据,确定该人机交互设备与该人机交互设备的使用者之间的当前人机亲密度;再根据该当前人机亲密度,更新人机交互设备的设备控制参数,以使后续该人机交互设备可以按照更新后的设备控制参数进行控制。
其中,因上述当前人机亲密度能够准确地表示出人机交互设备的使用者对该人机交互设备的喜爱程度,使得基于该当前人机亲密度更新得到的设备控制参数能够更准确地表示出该使用者更喜欢的人机交互设备控制过程,从而使得后续按照更新后的设备控制参数进行控制的人机交互设备能够与该人机交互设备的使用者进行更合理地人机交互过程,如此实现了人机交互设备与该人机交互设备的使用者之间的交互模式能够随着人机亲密度的变化进行适应性调整,如此有利于提高用户体验。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种人机交互设备控制方法的流程图;
图2为本申请实施例提供的一种人机交互设备控制装置的结构示意图。
具体实施方式
发明人针对人机交互设备的研究中发现,因人机交互设备通常是依据预先设定的控制参数(如,出厂设置的控制参数的默认值)进行控制的,使得该人机交互设备的控制过程基本是一成不变的,从而使得该人机交互设备与该人机交互设备的使用者之间的交互模式基本也是固定不变的,如此导致该人机交互设备与该人机交互设备的使用者之间的交互模式比较单调,从而导致用户体验较差。
基于此,为了解决背景技术部分的技术问题,本申请实施例提供了一种人机交互设备控制方法,该方法包括:在确定人机交互设备的当前空闲持续时长达到第一阈值后,先根据上一轮人机持续交互过程的交互状态数据,确定该人机交互设备与该人机交互设备的使用者之间的当前人机亲密度;再根据该当前人机亲密度,更新人机交互设备的设备控制参数,以使后续该人机交互设备可以按照更新后的设备控制参数进行控制。
可见,因上述当前人机亲密度能够准确地表示出人机交互设备的使用者对该人机交互设备的喜爱程度,使得基于该当前人机亲密度更新得到的设备控制参数能够更准确地表示出该使用者更喜欢的人机交互设备控制过程,从而使得后续按照更新后的设备控制参数进行控制的人机交互设备能够与该人机交互设备的使用者进行更合理地人机交互过程,如此实现了人机交互设备与该人机交互设备的使用者之间的交互模式能够随着人机亲密度的变化进行适应性调整,如此有利于提高用户体验。
另外,本申请实施例不限定人机交互设备控制方法的执行主体,例如,本申请实施例提供的人机交互设备控制方法可以应用于终端设备或服务器等数据处理设备。其中,终端设备可以为智能手机、计算机、个人数字助理(Personal Digital Assitant,PDA)或平板电脑等。服务器可以为独立服务器、集群服务器或云服务器。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
方法实施例
参见图1,该图为本申请实施例提供的一种人机交互设备控制方法的流程图。
本申请实施例提供的人机交互设备控制方法,包括S1-S2:
S1:在确定人机交互设备的当前空闲持续时长达到第一阈值后,根据上一轮人机持续交互过程的交互状态数据,确定人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。
其中,当前空闲持续时长是指人机交互设备在完成最后一次人机交互过程之后一直处于空闲状态(例如,未执行任何人机交互过程)的时长。
第一阈值可以预先根据应用场景设定。
上一轮人机持续交互过程是指发生时间距离“确定人机交互设备的当前空闲持续时长达到第一阈值”的发生时刻最近,且发生时间早于“确定人机交互设备的当前空闲持续时长达到第一阈值”的发生时刻的一轮人机持续交互过程。另外,上一轮人机持续交互过程可以包括多次人机交互过程,而且该多次人机交互过程中任意两次相邻人机交互过程之间的时间间隔均低于第一阈值。
需要说明的是,一次人机交互过程用于描述人机交互设备与该人机交互设备的使用者之间的一组交互操作。例如,一次人机交互过程可以包括人机交互设备触发的一次人机交互指令以及该使用者针对该人机交互指令进行的应答操作。又如,一次人机交互过程也可以包括该使用者触发的一次人机交互指令以及人机交互设备针对该人机交互指令进行的应答操作。其中,人机交互指令是指能够触发人机交互过程的指令。
交互状态数据用于描述交互过程的参与者在交互过程(如,上一轮人机持续交互过程)中呈现的状态数据。另外,本申请实施例不限定交互状态数据,例如,交互状态数据可以包括设备使用时长、用户主动交互次数、用户交互心情特征、用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率中的至少一个。
设备使用时长是指人机交互设备在交互过程(如,上一轮人机持续交互过程)中处于工作状态的时长。另外,本申请实施例不限定设备使用时长的确定过程,例如,上一轮人机持续交互过程的设备使用时长可以是指上一轮人机持续交互过程的持续时长。
用户主动交互次数是指人机交互设备的使用者在交互过程(如,上一轮人机持续交互过程)中主动触发人机交互指令的次数。另外,本申请实施例不限定人机交互指令的用户触发方式,例如,人机交互设备的使用者可以通过输入预设语音指令的方式、按压预设按键的方式、和触控预设屏幕功能组件的方式中至少一种方式主动触发人机交互指令。
用户交互心情特征用于表征人机交互设备的使用者在交互过程(如,上一轮人机持续交互过程)中所处的心情状态。另外,本申请实施例不限定用户交互心情特征的获取方式,例如,可以直接将用户输入的心情状态确定为该用户交互心情特征。
实际上,因人机交互设备的使用者在上一轮人机持续交互过程中所处的心情状态可能会不断发生变化,故为了提高用户交互心情特征,本申请实施例还提供了一种确定用户交互心情特征的实施方式,在该实施方式中,若上一轮人机持续交互过程包括N次人机交互过程,则上一轮人机持续交互过程的用户交互心情特征的确定过程其具体可以包括步骤11-步骤12:
步骤11:根据人机交互设备的使用者在上一轮人机持续交互过程中第i次人机交互过程的心情表征数据,确定第i次人机交互过程的用户情绪特征。其中,i为正整数,i≤N,N为正整数。
心情表征数据用于描述人机交互设备的使用者在一次人机交互过程所具有的心情状态;而且本申请实施例不限定心情表征数据,例如,心情表征数据可以包括语音采集数据和/或行为采集数据。
其中,语音采集数据是指由人机交互设备针对该人机交互设备的使用者采集的语音数据;而且该语音采集数据通常携带有该使用者通过语音方式传达的心情状态信息。
行为采集数据是指由人机交互设备针对该人机交互设备的使用者采集的行为数据(例如,表情、动作或者手势等);而且该行为采集数据通常携带有该使用者通过行为方式传达的心情状态信息。另外,本申请实施例不限定行为采集数据,例如,行为采集数据可以是指人机交互设备针对该人机交互设备的使用者采集的视频或者图像。
另外,本申请实施例不限定第i次人机交互过程的用户情绪特征的确定方式,为了便于理解,下面结合三种可能实施方式进行说明。
在第一种可能的实施方式中,若心情表征数据包括语音采集数据,则第i次人机交互过程的用户情绪特征的确定过程,具体可以包括步骤2A1-步骤2A2:
步骤2A 1:根据人机交互设备的使用者在上一轮人机持续交互过程中第i次人机交互过程的语音采集数据,得到该第i次人机交互过程对应的第一心情特征。
其中,第i次人机交互过程对应的第一心情特征用于表征在该第i次人机交互过程的语音采集数据中携带的心情状态信息。
需要说明的是,本申请实施例不限定步骤21的实施方式,可以采用现有的任一种基于语音数据提取心情特征的方法(例如,深度学习方法)进行实施。
步骤2A 2:根据第i次人机交互过程对应的第一心情特征,确定第i次人机交互过程的用户情绪特征。
本申请实施例中,在获取到第i次人机交互过程对应的第一心情特征之后,可以依据该第i次人机交互过程对应的第一心情特征,确定第i次人机交互过程的用户情绪特征(例如,可以直接将第i次人机交互过程对应的第一心情特征确定为第i次人机交互过程的用户情绪特征),以使该第i次人机交互过程的用户情绪特征能够准确地表示出人机交互设备的使用者在一次人机交互过程中通过语音方式传达出的心情状态信息。
基于上述步骤2A 1至步骤2A 2的相关内容可知,对于上一轮人机持续交互过程中第i次人机交互过程来说,可以从人机交互设备在该第i次人机交互过程中采集的用户语音数据,得到该第i次人机交互过程的用户情绪特征,以使该第i次人机交互过程的用户情绪特征能够准确地表示出人机交互设备的使用者在该第i次人机交互过程中所具有的心情状态,从而使得后续能够基于该第i次人机交互过程的用户情绪特征,准确地确定出上一轮人机持续交互过程的用户交互心情特征。
在第二种可能的实施方式中,若心情表征数据包括行为采集数据,则第i次人机交互过程的用户情绪特征的确定过程,具体可以包括步骤2B1-步骤2B2:
步骤2B1:根据人机交互设备的使用者在上一轮人机持续交互过程中第i次人机交互过程的行为采集数据,得到该第i次人机交互过程对应的第二心情特征。
其中,第i次人机交互过程对应的第二心情特征用于表征在该第i次人机交互过程的行为采集数据中携带的心情状态信息。
需要说明的是,本申请实施例不限定步骤22的实施方式,可以采用现有的任一种基于行为数据提取心情特征的方法(例如,深度学习方法)进行实施。
步骤2B2:根据第i次人机交互过程对应的第二心情特征,确定该第i次人机交互过程的用户情绪特征。
本申请实施例中,在获取到第i次人机交互过程对应的第二心情特征之后,可以依据该第i次人机交互过程对应的第二心情特征,确定第i次人机交互过程的用户情绪特征(例如,可以直接将第i次人机交互过程对应的第二心情特征确定为第i次人机交互过程的用户情绪特征),以使该第i次人机交互过程的用户情绪特征能够准确地表示出人机交互设备的使用者在一次人机交互过程中通过行为方式传达出的心情状态信息。
基于上述步骤2B 1至步骤2B2的相关内容可知,对于上一轮人机持续交互过程中第i次人机交互过程来说,可以从人机交互设备在该第i次人机交互过程中采集的行为采集数据,得到该第i次人机交互过程的用户情绪特征,以使该第i次人机交互过程的用户情绪特征能够准确地表示出人机交互设备的使用者在该第i次人机交互过程中所具有的心情状态,从而使得后续能够基于该第i次人机交互过程的用户情绪特征,准确地确定出上一轮人机持续交互过程的用户交互心情特征。
在第三种可能的实施方式中,若心情表征数据包括语音采集数据和行为采集数据,则第i次人机交互过程的用户情绪特征的确定过程,具体可以包括步骤2C1-步骤2C3:
步骤2C1:根据人机交互设备的使用者在上一轮人机持续交互过程中第i次人机交互过程的语音采集数据,得到该第i次人机交互过程对应的第一心情特征。
需要说明的是,步骤2C1的相关内容请参见上文步骤2A1的相关内容。
步骤2C2:根据人机交互设备的使用者在上一轮人机持续交互过程中第i次人机交互过程的行为采集数据,得到该第i次人机交互过程对应的第二心情特征。
需要说明的是,步骤2C2的相关内容请参见上文步骤2B1的相关内容。
步骤2C3:将第i次人机交互过程对应的第一心情特征和该第i次人机交互过程对应的第二心情特征进行加权求和,得到该第i次人机交互过程的用户情绪特征。
需要说明的是,第一心情特征对应的加权权重和第二心情特征对应的加权权重均可以预先根据应用场景设定。
基于上述步骤2C1至步骤2C3的相关内容可知,对于上一轮人机持续交互过程中第i次人机交互过程来说,可以从人机交互设备在该第i次人机交互过程中采集的用户语音数据以及用户行为数据进行心情特征提取,得到该第i次人机交互过程的用户情绪特征,以使该第i次人机交互过程的用户情绪特征能够准确地表示出人机交互设备的使用者在该第i次人机交互过程中所具有的心情状态,从而使得后续能够基于该第i次人机交互过程的用户情绪特征,准确地确定出上一轮人机持续交互过程的用户交互心情特征。
步骤12:将上一轮人机持续交互过程中第1次人机交互过程的用户情绪特征至第N次人机交互过程的用户情绪特征进行第一统计处理,得到该上一轮人机持续交互过程的用户交互心情特征。
其中,第一统计处理可以预先设定;而且本申请实施例不限定第一统计处理,例如,第一统计处理可以是取平均值处理、取最大值处理、取最小值处理、取众数处理、取中数处理或者取和值处理。
基于上述步骤11至步骤12的相关内容可知,对于上一轮人机持续交互过程来说,若上一轮人机持续交互过程包括N次人机交互过程,则可以先分别计算上一轮人机持续交互过程中各次人机交互过程的用户情绪特征;再将上一轮人机持续交互过程中所有次人机交互过程的用户情绪特征进行第一统计处理,得到该上一轮人机持续交互过程的用户交互心情特征,以使该用户交互心情特征能够准确地表示出人机交互设备的使用者在上一轮人机持续交互过程所具有的心情状态。
用户被动应答次数是指人机交互设备的使用者在交互过程(如,上一轮人机持续交互过程)中被动反馈由该人机交互设备主动触发的人机交互指令的次数。
用户被动应答速度用于表征人机交互设备的使用者在交互过程(如,上一轮人机持续交互过程)中被动反馈由该人机交互设备主动触发的人机交互指令的反馈速度。
另外,本申请实施例不限定用户被动应答速度的获取方式,例如,在一种可能的实施方式中,若上一轮人机持续交互过程包括M次用户被动应答过程,则该上一轮人机持续交互过程的用户被动应答速度的确定过程具体可以包括:将人机交互设备的使用者在该上一轮人机持续交互过程中第1次用户被动应答过程的应答速度至第M次用户被动应答过程的应答速度进行第二统计处理,得到该上一轮人机持续交互过程的用户被动应答速度。其中,M为正整数。
其中,用户被动应答过程是指由人机交互设备主动触发人机交互指令且由该人机交互设备的使用者针对该人机交互指令进行反馈的人机交互过程。
第二统计处理可以预先设定;而且本申请实施例不限定第二统计处理,例如,第二统计处理可以是取平均值处理、取最大值处理、取最小值处理、取众数处理、取中数处理或者取和值处理。
可见,对于上一轮人机持续交互过程来说,若上一轮人机持续交互过程包括M次用户被动应答过程,则可以将第1次用户被动应答过程的应答速度v1、第2次用户被动应答过程的应答速度v2、……、以及第M次用户被动应答过程的应答速度vM进行第二统计处理,得到该上一轮人机持续交互过程的用户被动应答速度,以使该用户被动应答速度能够准确地表示出人机交互设备的使用者在该上一轮人机持续交互过程中所具有的被动应答速度。
用户被动应答频率是指用户被动应答次数与人机交互设备在交互过程(如,上一轮人机持续交互过程)中主动触发的人机交互指令的次数之间的比值。例如,若上一轮人机持续交互过程包括M次用户被动应答过程,则该上一轮人机持续交互过程的用户被动应答具体可以是指该上一轮人机持续交互过程的用户被动应答次数与M之间的比值。
用户被动应答准确率用于表征人机交互设备的使用者在交互过程(如,上一轮人机持续交互过程)中被动反馈由该人机交互设备主动触发的人机交互指令的反馈准确率。
另外,本申请实施例不限定用户被动应答准确率的获取方式,例如,在一种可能的实施方式中,若上一轮人机持续交互过程包括M次用户被动应答过程,则该上一轮人机持续交互过程的用户被动应答准确率的确定过程具体可以包括:将人机交互设备的使用者在该上一轮人机持续交互过程中第1次用户被动应答过程的应答准确率至第M次用户被动应答过程的应答准确率进行第三统计处理,得到该上一轮人机持续交互过程的用户被动应答准确率。其中,M为正整数。
其中,应答准确率用于描述在人机交互设备主动触发人机交互指令之后该人机交互设备的使用者是否按照该人机交互指令对应的标准应答方式进行反馈。为了便于理解,下面结合三个示例进行说明。
示例1,当人机交互设备的电量低于警戒线时,该人机交互设备可以主动触发一个人机交互指令(如,触发预设充电请求语音“主人,我的电量过低,请帮我充电吧!”),此时该人机交互指令对应的标准应答方式可以为该人机交互设备的使用者对该人机交互设备进行充电。
示例2,当人机交互设备持续较长时间处于空闲状态时,该人机交互设备可以主动触发另一个人机交互指令(如,触发休眠提醒语音“主人,由于长时间未收到任何指令,我将进入休眠状态”),此时该人机交互指令对应的标准应答方式可以为该人机交互设备的使用者针对该人机交互设备下达控制指令。
示例3,当人机交互设备与该人机交互设备的使用者进行语音交流时,若因该使用者的声音较小或者距离该人机交互设备较远导致该人机交互设备无法准确地分析出该使用者的语音信息,故该人机交互设备可以主动触发又一个人机交互指令(如,触发音量调整语音“主人,你的声音太小,我听不清呢!”或“主人,你离得太远,我听不清呢”),此时该人机交互指令对应的标准应答方式可以为在该人机交互设备的使用者提高音量或者缩短与该人机交互设备之间的距离后重复刚才的用户语音。
第三统计处理可以预先设定;而且本申请实施例不限定第三统计处理,例如,第三统计处理可以是取平均值处理、取最大值处理、取最小值处理、取众数处理、取中数处理或者取和值处理。
可见,对于上一轮人机持续交互过程来说,若上一轮人机持续交互过程包括M次用户被动应答过程,则可以将第1次用户被动应答过程的应答准确率r1、第2次用户被动应答过程的应答准确率r2、……、以及第M次用户被动应答过程的应答准确率rM进行第三统计处理,得到该上一轮人机持续交互过程的用户被动应答准确率,以使该用户被动应答准确率能够准确地表示出人机交互设备的使用者在该上一轮人机持续交互过程中所达到的被动应答准确率。
当前人机亲密度是指截至“确定人机交互设备的当前空闲持续时长达到第一阈值”的发生时刻,该人机交互设备与该人机交互设备的使用者之间达到的亲密程度(也就是,人机交互设备的使用者对该人机交互设备的喜爱程度)。
另外,本申请实施例不限定当前人机亲密度的确定过程,为了便于理解,下面结合四种可能的实施方式进行说明。
在第一种可能的实施方式下,如果交互状态数据包括设备使用时长、用户主动交互次数和用户交互心情特征,则当前人机亲密度的确定过程具体可以包括步骤31-步骤32:
步骤31:将上一轮人机持续交互过程的设备使用时长、用户主动交互次数和用户交互心情特征进行加权求和,得到人机交互设备与该人机交互设备的使用者之间的第一亲密特征。
需要说明的是,对于步骤31中“加权求和”来说,本申请实施例不限定上一轮人机持续交互过程的设备使用时长对应的加权权重、上一轮人机持续交互过程的用户主动交互次数对应的加权权重、以及上一轮人机持续交互过程的用户交互心情特征对应的加权权重的获取方式。例如,上述三个权重均可以预先设定。
实际上,用户主动交互次数能够更准确地反映出用户对人机交互设备的喜爱程度,其具体为:若用户主动交互次数越高,则表示该用户越喜欢该人机交互设备,故为了提高人机亲密度的准确性,可以根据用户主动交互次数确定该用户主动交互次数对应的加权权重(如,公式(1)所示),以使用户主动交互次数对应的加权权重与该用户主动交互次数正相关。
wc=eC+kc (1)
式中,wc表示上一轮人机持续交互过程的用户主动交互次数对应的加权权重;C表示上一轮人机持续交互过程的用户主动交互次数;kc表示上一轮人机持续交互过程的用户主动交互次数对应的权重校正值,而且kc可以预先设定。
实际上,用户交互心情特征也能够更准确地反映出用户对人机交互设备的喜爱程度,其具体为:用户交互心情越好,则表示该用户越喜欢该人机交互设备,故为了提高人机亲密度的准确性,可以根据用户交互心情特征确定该用户交互心情特征对应的加权权重(如,公式(2)所示),以使用户交互心情特征对应的加权权重与该用户交互心情特征正相关。
wm=eM+km (2)
式中,wm表示上一轮人机持续交互过程的用户交互心情特征对应的加权权重;M表示上一轮人机持续交互过程的用户交互心情特征;km表示上一轮人机持续交互过程的用户交互心情特征对应的权重校正值,且km可以预先设定。
基于上述步骤31的相关内容可知,在获取到上一轮人机持续交互过程的设备使用时长及其对应的加权权重、上一轮人机持续交互过程的用户主动交互次数及其对应的加权权重、以及上一轮人机持续交互过程的用户交互心情特征及其对应的加权权重之后,可以将该设备使用时长、用户主动交互次数以及用户交互心情特征进行加权求和(如公式(3)所示),得到人机交互设备与该人机交互设备的使用者之间的第一亲密特征。
V1=wc×C+wm×M+wt×T (3)
式中,V1表示人机交互设备与该人机交互设备的使用者之间的第一亲密特征;wc表示上一轮人机持续交互过程的用户主动交互次数对应的加权权重;C表示上一轮人机持续交互过程的用户主动交互次数;wm表示上一轮人机持续交互过程的用户交互心情特征对应的加权权重;M表示上一轮人机持续交互过程的用户交互心情特征;wt表示上一轮人机持续交互过程的设备使用时长对应的加权权重;T表示上一轮人机持续交互过程的设备使用时长。
步骤32:根据人机交互设备与该人机交互设备的使用者之间的第一亲密特征,确定人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。
本申请实施例中,在获取到人机交互设备与该人机交互设备的使用者之间的第一亲密特征之后,可以参考该第一亲密特征计算人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。例如,可以直接将人机交互设备与该人机交互设备的使用者之间的第一亲密特征,确定为该人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。又如,可以将人机交互设备与该人机交互设备的使用者之间的第一亲密特征以及其他参考特征(例如,下文第二亲密特征和/或当前设备功能覆盖率)进行加权求和,得到该人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。
基于上述步骤31至步骤32的相关内容可知,在获取到上一轮人机持续交互过程的设备使用时长及其对应的加权权重、上一轮人机持续交互过程的用户主动交互次数及其对应的加权权重、以及上一轮人机持续交互过程的用户交互心情特征及其对应的加权权重之后,可以先将该设备使用时长、用户主动交互次数以及用户交互心情特征进行加权求和,得到人机交互设备与该人机交互设备的使用者之间的第一亲密特征;再依据该第一亲密特征计算人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。
在第二种可能的实施方式下,如果交互状态数据包括用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率,则当前人机亲密度的确定过程具体可以包括步骤41-步骤42:
步骤41:将上一轮人机持续交互过程的用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率进行加权求和,得到人机交互设备与该人机交互设备的使用者之间的第二亲密特征。
需要说明的是,对于步骤41中“加权求和”来说,本申请实施例不限定上一轮人机持续交互过程的用户被动应答次数对应的加权权重、上一轮人机持续交互过程的用户被动应答速度对应的加权权重、上一轮人机持续交互过程的用户被动应答频率对应的加权权重、以及上一轮人机持续交互过程的用户被动应答准确率对应的加权权重的获取方式。例如,上述四个权重均可以预先设定。
实际上,用户被动应答准确率能够更准确地反映出用户对人机交互设备的喜爱程度,其具体为:若用户被动应答准确率越高,则表示该用户越重视人机交互设备,从而表示该用户越喜欢该人机交互设备,故为了提高人机亲密度的准确性,可以根据用户被动应答准确率确定用户被动应答准确率对应的加权权重(如公式(4)所示),以使用户被动应答准确率对应的加权权重与该用户被动应答准确率正相关。
wr=eR+kr (4)
式中,wr表示上一轮人机持续交互过程的用户被动应答准确率对应的加权权重;R表示上一轮人机持续交互过程的用户被动应答准确率;kr表示上一轮人机持续交互过程的用户被动应答准确率对应的权重校正值。
基于上述步骤41的相关内容可知,在获取到上一轮人机持续交互过程的用户被动应答次数及其对应的加权权重、上一轮人机持续交互过程的用户被动应答速度及其对应的加权权重、上一轮人机持续交互过程的用户被动应答频率及其对应的加权权重、以及上一轮人机持续交互过程的用户被动应答准确率及其对应的加权权重之后,可以将该用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率进行加权求和(如公式(5)所示),得到人机交互设备与该人机交互设备的使用者之间的第二亲密特征。
V2=wr×R+wy×Y+ws×S+wp×P (5)
式中,V2表示人机交互设备与该人机交互设备的使用者之间的第二亲密特征;wr表示上一轮人机持续交互过程的用户被动应答准确率对应的加权权重;R表示上一轮人机持续交互过程的用户被动应答准确率;wy表示上一轮人机持续交互过程的用户被动应答次数对应的加权权重;Y表示上一轮人机持续交互过程的用户被动应答次数;ws表示上一轮人机持续交互过程的用户被动应答速度对应的加权权重;S表示上一轮人机持续交互过程的用户被动应答速度;wp表示上一轮人机持续交互过程的用户被动应答频率对应的加权权重;P表示上一轮人机持续交互过程的用户被动应答频率。
步骤42:根据人机交互设备与该人机交互设备的使用者之间的第二亲密特征,确定人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。
本申请实施例中,在获取到人机交互设备与该人机交互设备的使用者之间的第二亲密特征之后,可以参考该第二亲密特征计算人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。例如,可以直接将人机交互设备与该人机交互设备的使用者之间的第二亲密特征,确定为该人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。又如,可以将人机交互设备与该人机交互设备的使用者之间的第二亲密特征以及其他参考特征(例如,上文第一亲密特征和/或下文当前设备功能覆盖率)进行加权求和,得到该人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。
基于上述步骤41至步骤42的相关内容可知,在获取到上一轮人机持续交互过程的用户被动应答次数及其对应的加权权重、上一轮人机持续交互过程的用户被动应答速度及其对应的加权权重、上一轮人机持续交互过程的用户被动应答频率及其对应的加权权重、以及上一轮人机持续交互过程的用户被动应答准确率及其对应的加权权重之后,可以先将该用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率进行加权求和,得到人机交互设备与该人机交互设备的使用者之间的第二亲密特征;再依据该第二亲密特征计算人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。
实际上,用户尝试使用人机交互设备中功能的个数越多,表示该用户对该人机交互设备越感兴趣,从而表示该用户越喜欢该人机交互设备。可见,用户尝试使用人机交互设备中功能的个数也能够影响人机亲密度的确定,故为了提高当前人机亲密度的准确性,可以进一步参考当前设备功能覆盖率确定当前人机亲密度。
基于此,本申请实施例提供了确定当前人机亲密度的第三种可能的实施方式,其具体可以包括:根据当前设备功能覆盖率和上一轮人机持续交互过程的交互状态数据,确定人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。
其中,当前设备功能覆盖率是指截至“确定人机交互设备的当前空闲持续时长达到第一阈值”的发生时刻,人机交互设备的使用者在该人机交互设备上使用过的功能个数与该人机交互设备的功能总数之间的比值。
可见,在获取到当前设备功能覆盖率和上一轮人机持续交互过程的交互状态数据之后,可以参考该当前设备功能覆盖率和该交互状态数据,计算人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。例如,可以依据该当前设备功能覆盖率和该交互状态数据,并利用公式(6)-(8)计算人机交互设备与该人机交互设备的使用者之间的当前人机亲密度。
Q=K1×I1+K2×I2 (6)
I1=V1+wf×F=wc×C+wm×M+wt×T+wf×F (7)
I2=V2=wr×R+wy×Y+ws×S+wp×P (8)
式中,Q表示人机交互设备与该人机交互设备的使用者之间的当前人机亲密度;K1表示第一亲密度值对应的加权权重;I1表示第一亲密度值;K2表示第二亲密度值对应的加权权重;I2表示第二亲密度值;wf表示当前设备功能覆盖率对应的加权权重,F表示当前设备功能覆盖率。
可见,若交互状态数据包括设备使用时长、用户主动交互次数、用户交互心情特征、用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率,则在获取到当前设备功能覆盖率和该交互状态数据之后,可以利用公式(6)-(8)计算人机交互设备与该人机交互设备的使用者之间的当前人机亲密度,以使该当前人机亲密度能够准确地表示出截至目前人机交互设备与该人机交互设备的使用者之间达到的亲密程度。
基于上述S1的相关内容可知,对于人机交互设备来说,在该人机交互设备的使用者与该人机交互设备之间持续进行一段时间人机交互之后,该人机交互设备的使用者不再使用该人机交互设备,使得该人机交互设备持续处于空闲状态,直到在确定该人机交互设备处于空闲状态的持续时长达到第一阈值后,可以利用刚才持续进行一段时间的人机交互过程的交互状态数据,计算人机交互设备与该人机交互设备的使用者之间的当前人机亲密度,以使该当前人机亲密度能够准确地表示出截至目前人机交互设备与该人机交互设备的使用者之间达到的亲密程度,从而使得后续能够基于该当前人机亲密度适应性地调整人机交互设备的设备控制参数。
需要说明的是,本申请实施例不限定人机交互设备,例如,人机交互设备可以是具有预设功能的机器人。其中,预设功能可以预先设定,例如,预设功能可以是儿童陪伴功能或者教育辅导功能。
S2:根据当前人机亲密度,更新人机交互设备的设备控制参数,以使该人机交互设备按照更新后的设备控制参数进行控制。
其中,设备控制参数用于表征人机交互设备的控制过程(例如,人机交互过程)。另外,本申请实施例不限定设备控制参数,例如,设备控制参数可以包括空闲等待最大时长、关联推荐相似度阈值和设备主动交互频率中的至少一个。
空闲等待最大时长表示人机交互设备持续处于空闲状态的最大时长;而且,若人机交互设备持续处于空闲状态的时长超过该空闲等待最大时长,则该人机交互设备可以进入待机状态。
关联推荐相似度阈值表示在依据用户当前使用功能进行功能推荐时被推荐功能与该用户当前使用功能之间的相似度最小值。其中,用户当前使用功能是指用户在上一轮人机持续交互过程中使用的人机交互设备所具有的功能(尤其可以是指用户在上一轮人机持续交互过程的最后一次人机交互过程中使用的人机交互设备所具有的功能)。
可见,在依据用户当前使用功能进行功能推荐时,可以先计算人机交互设备中除了该用户当前使用功能以外各个功能与该用户当前使用功能之间的相似度;再判断上述各个功能与该用户当前使用功能之间的相似度是否达到关联推荐相似度阈值,并将对应相似度达到关联推荐相似度阈值的功能确定为被推荐功能进行推荐。需要说明的是,本申请不限定被推荐功能的推荐发生时刻,可以在人机交互设备处于空闲状态时推荐这些被推荐功能。
设备主动交互频率表示人机交互设备主动触发人机交互指令的频率(尤其可以是指人机交互设备在空闲状态动触发人机交互指令的频率)。
另外,本申请实施例不限定设备控制参数的更新过程,为了便于理解,下面结合三种情况进行说明。
情况1,随着人机亲密度的逐渐增加,可以逐渐推迟人机交互设备进入待机状态的发生时刻,以使人机交互设备具有更多的空闲等待时长等待用户触发人机交互指令,如此有利于该人机交互设备更好地服务于用户。
基于此,本申请实施例提供了一种更新设备控制参数的实施方式,在该实施方式中,若设备控制参数包括空闲等待最大时长,则该设备控制参数的更新过程可以包括:在确定当前人机亲密度高于第二阈值后,先根据该当前人机亲密度确定时长校正权重(如公式(9)所示);再根据更新前的空闲等待最大时长、该时长校正权重和预设时长调整幅度,确定更新后的空闲等待最大时长(如公式(10)所示)。其中,第二阈值可以预先根据应用场景设定。
α1=arctan(Q)-k1 (9)
T′=T+α1×ΔT (10)
式中,T′表示更新后的空闲等待最大时长;T为更新前的空闲等待最大时长;α1表示时长校正权重;ΔT表示预设时长调整幅度;Q表示人机交互设备与该人机交互设备的使用者之间的当前人机亲密度;k1表示时长校正权重对应的参数校正值,而且k1可以预先设定。
情况2,随着人机亲密度的逐渐增加,可以逐渐扩大人机交互设备向用户进行功能推荐时所涉及的功能覆盖范围,以使该用户能够更好地了解该人机交互设备所具有的功能,如此有利于该人机交互设备更好地服务于用户。
基于此,本申请实施例提供了一种更新设备控制参数的实施方式,在该实施方式中,若设备控制参数包括关联推荐相似度阈值,则该设备控制参数的更新过程可以包括:在确定当前人机亲密度高于第三阈值后,先根据当前人机亲密度,确定阈值校正权重(如公式(11)所示);再根据更新前的关联推荐相似度阈值、该阈值校正权重和预设阈值调整幅度,确定更新后的关联推荐相似度阈值(如公式(12)所示)。
α2=ln(Q)+k2 (11)
J′=J+α2×ΔJ (12)
式中,J′表示更新后的关联推荐相似度阈值;J表示更新前的关联推荐相似度阈值;α2表示阈值校正权重;ΔJ表示预设阈值调整幅度;Q表示人机交互设备与该人机交互设备的使用者之间的当前人机亲密度;k2表示阈值校正权重对应的参数校正值,而且k2可以预先设定。
情况3,随着人机亲密度的逐渐增加,可以逐渐增加人机交互设备主动发起人机交互过程的次数,以使人机交互设备能够更频繁地与用户进行交流,如此有利于该人机交互设备更好地服务于用户。
基于此,本申请实施例提供了一种更新设备控制参数的实施方式,在该实施方式中,若设备控制参数包括设备主动交互频率,则该设备控制参数的更新过程可以包括:在确定当前人机亲密度高于第四阈值后,先根据当前人机亲密度,确定频率校正权重(如公式(13)所示);再根据更新前的设备主动交互频率、该频率校正权重和预设频率调整幅度,确定更新后的设备主动交互频率(如公式(14)所示)。
α3=eQ+k3 (13)
G′=G+α3×ΔG (14)
式中,G′表示更新后的设备主动交互频率;G表示更新前的设备主动交互频率;α3表示频率校正权重;ΔG表示预设频率调整幅度;Q表示人机交互设备与该人机交互设备的使用者之间的当前人机亲密度;k3表示频率校正权重对应的参数校正值,而且k3可以预先设定。
对于上述三种情况来说,本申请实施例不限定第二阈值、第三阈值与第四阈值之间的关系,例如,第二阈值≤第三阈值≤第四阈值。另外,本申请实施例也不限定第二阈值、第三阈值与第四阈值的确定过程,为了便于理解,下面结合示例进行说明。
作为示例,若人机亲密度可以划分为三个等级,则在确定当前人机亲密度达到第二阈值时,可以确定当前人机亲密度达到第一等级,故可以在人机设备上显示人机亲密度达到第一等级的显示标识(例如,亮一颗五角星),同时还可以根据当前人机亲密度更新空闲等待最大时长;在确定当前人机亲密度达到第三阈值时,可以确定当前人机亲密度达到第二等级,故可以在人机设备上显示人机亲密度达到第二等级的显示标识(例如,亮两颗五角星),同时还可以根据当前人机亲密度更新空闲等待最大时长和关联推荐相似度阈值;在确定当前人机亲密度达到第四阈值时,可以确定当前人机亲密度达到第三等级,故可以在人机设备上显示人机亲密度达到第三等级的显示标识(例如,亮三颗五角星),同时还可以根据当前人机亲密度更新空闲等待最大时长、关联推荐相似度阈值和设备主动交互频率。
基于上述S1至S2的相关内容可知,本申请提供的人机交互设备控制方法中,在确定人机交互设备的当前空闲持续时长达到第一阈值后,先根据上一轮人机持续交互过程的交互状态数据,确定该人机交互设备与该人机交互设备的使用者之间的当前人机亲密度;再根据该当前人机亲密度,更新人机交互设备的设备控制参数,以使后续该人机交互设备可以按照更新后的设备控制参数进行控制。
其中,因上述当前人机亲密度能够准确地表示出人机交互设备的使用者对该人机交互设备的喜爱程度,使得基于该当前人机亲密度更新得到的设备控制参数能够更准确地表示出该使用者更喜欢的人机交互设备控制过程,从而使得后续按照更新后的设备控制参数进行控制的人机交互设备能够与该人机交互设备的使用者进行更合理地人机交互过程,如此实现了人机交互设备与该人机交互设备的使用者之间的交互模式能够随着人机亲密度的变化进行适应性调整,如此有利于提高用户体验。
需要说明的是,为了保证人机交互设备安全,该人机交互设备的使用者在开启该人机交互设备之后,该使用者可以在人机交互设备上进行身份验证过程,以使只有通过身份验证过程的使用者才能使用该人机交互设备。另外,因上述身份验证过程可以包括声纹验证、人脸验证、密码验证和手势验证中的至少两种验证方式,使得人机交互设备的使用者可以从该人机交互设备的身份验证过程所支持的多个验证方式中择一进行验证。
此外,本申请实施例还提供了一种身份验证流程,其具体可以为:在人机交互设备的使用者从该人机交互设备的身份验证过程所支持的多种验证方式中选择目标验证方式(如,人脸验证)之后,该人机交互设备可以依据该目标验证方式提示该使用者输入待验证数据(如,人脸图像),并由该人机交互设备将该待验证数据与预先存储的至少一个标准身份数据(如,标准人脸图像)进行匹配。若该至少一个标准身份数据中存在与该待验证数据匹配成功的标准身份数据,则由人机交互设备切换至该匹配成功的标准身份数据对应的账户进行登录,以使该人机交互设备的使用者能够使用该账户进行人机交互;若该至少一个标准身份数据中不存在与该待验证数据匹配成功的标准身份数据,则由人机交互设备跳转至身份注册页面,以使该使用者能够在该身份注册页面完成身份注册(例如,声纹注册、人脸注册、密码注册和手势注册),以便在注册完成之后,由人机交互设备自动切换至刚才注册完成的账号进行登录,而且因刚才注册完成的账号是初次使用,此时为了提高用户体验,可以为向该使用者展示使用引导教程,以便后续能够根据该使用者在该引导教程中的完成度,来确定人机交互设备与该人机交互设备的使用者之间的人机亲密度初始值。
基于上述方法实施例提供的人机交互设备控制方法,本申请实施例还提供了一种人机交互设备控制装置,下面结合附图进行解释和说明。
装置实施例
装置实施例对人机交互设备控制装置进行介绍,相关内容请参见上述方法实施例。
参见图2,该图为本申请实施例提供的一种人机交互设备控制装置的结构示意图。
本申请实施例提供的人机交互设备控制装置200,包括:
亲密度确定单元201,用于在确定人机交互设备的当前空闲持续时长达到第一阈值后,根据上一轮人机持续交互过程的交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度;
参数更新单元202,用于根据所述当前人机亲密度,更新所述人机交互设备的设备控制参数,以使所述人机交互设备按照更新后的设备控制参数进行控制。
在一种可能的实施方式下,所述交互状态数据包括设备使用时长、用户主动交互次数、用户交互心情特征、用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率中的至少一个。
在一种可能的实施方式下,若所述上一轮人机持续交互过程包括N次人机交互过程,则所述上一轮人机持续交互过程的用户交互心情特征的确定过程包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的心情表征数据,确定所述第i次人机交互过程的用户情绪特征;其中,i为正整数,i≤N,N为正整数;
将所述上一轮人机持续交互过程中第1次人机交互过程的用户情绪特征至第N次人机交互过程的用户情绪特征进行第一统计处理,得到所述上一轮人机持续交互过程的用户交互心情特征。
在一种可能的实施方式下,若所述心情表征数据包括语音采集数据,则所述第i次人机交互过程的用户情绪特征的确定过程,包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的语音采集数据,得到所述第i次人机交互过程对应的第一心情特征;根据所述第i次人机交互过程对应的第一心情特征,确定所述第i次人机交互过程的用户情绪特征;
或者,
若所述心情表征数据包括行为采集数据,则所述第i次人机交互过程的用户情绪特征的确定过程,包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的行为采集数据,得到所述第i次人机交互过程对应的第二心情特征;根据所述第i次人机交互过程对应的第二心情特征,确定所述第i次人机交互过程的用户情绪特征;
或者,
若所述心情表征数据包括语音采集数据和行为采集数据,则所述第i次人机交互过程的用户情绪特征的确定过程,包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的语音采集数据,得到所述第i次人机交互过程对应的第一心情特征;根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的行为采集数据,得到所述第i次人机交互过程对应的第二心情特征;将所述第i次人机交互过程对应的第一心情特征和所述第i次人机交互过程对应的第二心情特征进行加权求和,得到所述第i次人机交互过程的用户情绪特征。
在一种可能的实施方式下,若所述上一轮人机持续交互过程包括M次用户被动应答过程,则所述上一轮人机持续交互过程的用户被动应答速度的确定过程,包括:
将所述人机交互设备的使用者在所述上一轮人机持续交互过程中第1次用户被动应答过程的应答速度至第M次用户被动应答过程的应答速度进行第二统计处理,得到所述上一轮人机持续交互过程的用户被动应答速度;其中,M为正整数;
和/或,
所述上一轮人机持续交互过程的用户被动应答准确率的确定过程,包括:
将所述人机交互设备的使用者在所述上一轮人机交互过程中第1次用户被动应答过程的应答准确率至第M次用户被动应答过程的应答准确率进行第三统计处理,得到所述上一轮人机持续交互过程的用户被动应答准确率。
在一种可能的实施方式下,所述亲密度确定单元201包括:
第一确定子单元,用于若所述交互状态数据包括设备使用时长、用户主动交互次数和用户交互心情特征,则将所述上一轮人机持续交互过程的设备使用时长、用户主动交互次数和用户交互心情特征进行加权求和,得到所述人机交互设备与所述人机交互设备的使用者之间的第一亲密特征;根据所述人机交互设备与所述人机交互设备的使用者之间的第一亲密特征,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度。
在一种可能的实施方式下,所述用户主动交互次数对应的加权权重与所述用户主动交互次数正相关;
和/或,
所述用户交互心情特征对应的加权权重与所述用户交互心情特征正相关。
在一种可能的实施方式下,所述亲密度确定单元201包括:
第二确定子单元,用于若所述交互状态数据包括用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率,则将所述上一轮人机持续交互过程的用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率进行加权求和,得到所述人机交互设备与所述人机交互设备的使用者之间的第二亲密特征;根据所述人机交互设备与所述人机交互设备的使用者之间的第二亲密特征,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度。
在一种可能的实施方式下,所述用户被动应答准确率对应的加权权重与所述用户被动应答准确率正相关。
在一种可能的实施方式下,所述亲密度确定单元201,具体用于:
根据当前设备功能覆盖率和所述上一轮人机持续交互过程的交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度。
在一种可能的实施方式下,参数更新单元202,包括:
第三确定子单元,用于若所述设备控制参数包括空闲等待最大时长,则在确定所述当前人机亲密度高于第二阈值后,根据所述当前人机亲密度,确定时长校正权重;根据更新前的空闲等待最大时长、所述时长校正权重和预设时长调整幅度,确定更新后的空闲等待最大时长。
在一种可能的实施方式下,参数更新单元202,包括:
第三确定子单元,用于若所述设备控制参数包括关联推荐相似度阈值,则在确定所述当前人机亲密度高于第三阈值后,根据所述当前人机亲密度,确定阈值校正权重;根据更新前的关联推荐相似度阈值、所述阈值校正权重和预设阈值调整幅度,确定更新后的关联推荐相似度阈值。
在一种可能的实施方式下,参数更新单元202,包括:
第三确定子单元,用于若所述设备控制参数包括设备主动交互频率,则在确定所述当前人机亲密度高于第四阈值后,根据所述当前人机亲密度,确定频率校正权重;根据更新前的设备主动交互频率、所述频率校正权重和预设频率调整幅度,确定更新后的设备主动交互频率。
进一步地,本申请实施例还提供了一种人机交互设备控制设备,包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述人机交互设备控制方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述人机交互设备控制方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述人机交互设备控制方法的任一种实现方法。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如媒体网关等网络通信设备,等等)执行本申请各个实施例或者实施例的某些部分所述的方法。
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (13)
1.一种人机交互设备控制方法,其特征在于,所述方法包括:
在确定人机交互设备的当前空闲持续时长达到第一阈值后,根据上一轮人机持续交互过程的交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度;
根据所述当前人机亲密度,更新所述人机交互设备的设备控制参数,以使所述人机交互设备按照更新后的设备控制参数进行控制。
2.根据权利要求1所述的方法,其特征在于,所述交互状态数据包括设备使用时长、用户主动交互次数、用户交互心情特征、用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率中的至少一个。
3.根据权利要求2所述的方法,其特征在于,若所述上一轮人机持续交互过程包括N次人机交互过程,则所述上一轮人机持续交互过程的用户交互心情特征的确定过程包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的心情表征数据,确定所述第i次人机交互过程的用户情绪特征;其中,i为正整数,i≤N,N为正整数;
将所述上一轮人机持续交互过程中第1次人机交互过程的用户情绪特征至第N次人机交互过程的用户情绪特征进行第一统计处理,得到所述上一轮人机持续交互过程的用户交互心情特征。
4.根据权利要求3所述的方法,其特征在于,若所述心情表征数据包括语音采集数据,则所述第i次人机交互过程的用户情绪特征的确定过程,包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的语音采集数据,得到所述第i次人机交互过程对应的第一心情特征;根据所述第i次人机交互过程对应的第一心情特征,确定所述第i次人机交互过程的用户情绪特征;
或者,
若所述心情表征数据包括行为采集数据,则所述第i次人机交互过程的用户情绪特征的确定过程,包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的行为采集数据,得到所述第i次人机交互过程对应的第二心情特征;根据所述第i次人机交互过程对应的第二心情特征,确定所述第i次人机交互过程的用户情绪特征;
或者,
若所述心情表征数据包括语音采集数据和行为采集数据,则所述第i次人机交互过程的用户情绪特征的确定过程,包括:
根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的语音采集数据,得到所述第i次人机交互过程对应的第一心情特征;根据所述人机交互设备的使用者在所述上一轮人机持续交互过程中第i次人机交互过程的行为采集数据,得到所述第i次人机交互过程对应的第二心情特征;将所述第i次人机交互过程对应的第一心情特征和所述第i次人机交互过程对应的第二心情特征进行加权求和,得到所述第i次人机交互过程的用户情绪特征。
5.根据权利要求2所述的方法,其特征在于,若所述上一轮人机持续交互过程包括M次用户被动应答过程,则所述上一轮人机持续交互过程的用户被动应答速度的确定过程,包括:
将所述人机交互设备的使用者在所述上一轮人机持续交互过程中第1次用户被动应答过程的应答速度至第M次用户被动应答过程的应答速度进行第二统计处理,得到所述上一轮人机持续交互过程的用户被动应答速度;其中,M为正整数;
和/或,
所述上一轮人机持续交互过程的用户被动应答准确率的确定过程,包括:
将所述人机交互设备的使用者在所述上一轮人机交互过程中第1次用户被动应答过程的应答准确率至第M次用户被动应答过程的应答准确率进行第三统计处理,得到所述上一轮人机持续交互过程的用户被动应答准确率。
6.根据权利要求1所述的方法,其特征在于,若所述交互状态数据包括设备使用时长、用户主动交互次数和用户交互心情特征,则所述根据上一轮人机交互过程中交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度,包括:
将所述上一轮人机持续交互过程的设备使用时长、用户主动交互次数和用户交互心情特征进行加权求和,得到所述人机交互设备与所述人机交互设备的使用者之间的第一亲密特征;
根据所述人机交互设备与所述人机交互设备的使用者之间的第一亲密特征,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度。
7.根据权利要求6所述的方法,其特征在于,所述用户主动交互次数对应的加权权重与所述用户主动交互次数正相关;
和/或,
所述用户交互心情特征对应的加权权重与所述用户交互心情特征正相关。
8.根据权利要求1所述的方法,其特征在于,若所述交互状态数据包括用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率,则所述根据上一轮人机交互过程中交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度,包括:
将所述上一轮人机持续交互过程的用户被动应答次数、用户被动应答速度、用户被动应答频率和用户被动应答准确率进行加权求和,得到所述人机交互设备与所述人机交互设备的使用者之间的第二亲密特征;
根据所述人机交互设备与所述人机交互设备的使用者之间的第二亲密特征,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度。
9.根据权利要求1所述的方法,其特征在于,所述根据上一轮人机持续交互过程的交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度,包括:
根据当前设备功能覆盖率和所述上一轮人机持续交互过程的交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度。
10.根据权利要求1所述的方法,其特征在于,若所述设备控制参数包括空闲等待最大时长,则所述根据所述当前人机亲密度,更新所述人机交互设备的设备控制参数,包括:
在确定所述当前人机亲密度高于第二阈值后,根据所述当前人机亲密度,确定时长校正权重;
根据更新前的空闲等待最大时长、所述时长校正权重和预设时长调整幅度,确定更新后的空闲等待最大时长。
11.根据权利要求1所述的方法,其特征在于,若所述设备控制参数包括关联推荐相似度阈值,则所述根据所述当前人机亲密度,更新所述人机交互设备的设备控制参数,包括:
在确定所述当前人机亲密度高于第三阈值后,根据所述当前人机亲密度,确定阈值校正权重;
根据更新前的关联推荐相似度阈值、所述阈值校正权重和预设阈值调整幅度,确定更新后的关联推荐相似度阈值。
12.根据权利要求1所述的方法,其特征在于,若所述设备控制参数包括设备主动交互频率,则所述根据所述当前人机亲密度,更新所述人机交互设备的设备控制参数,包括:
在确定所述当前人机亲密度高于第四阈值后,根据所述当前人机亲密度,确定频率校正权重;
根据更新前的设备主动交互频率、所述频率校正权重和预设频率调整幅度,确定更新后的设备主动交互频率。
13.一种人机交互设备控制装置,其特征在于,包括:
亲密度确定单元,用于在确定人机交互设备的当前空闲持续时长达到第一阈值后,根据上一轮人机持续交互过程的交互状态数据,确定所述人机交互设备与所述人机交互设备的使用者之间的当前人机亲密度;
参数更新单元,用于根据所述当前人机亲密度,更新所述人机交互设备的设备控制参数,以使所述人机交互设备按照更新后的设备控制参数进行控制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110296092.2A CN113253835A (zh) | 2021-03-19 | 2021-03-19 | 一种人机交互设备控制方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110296092.2A CN113253835A (zh) | 2021-03-19 | 2021-03-19 | 一种人机交互设备控制方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113253835A true CN113253835A (zh) | 2021-08-13 |
Family
ID=77181060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110296092.2A Pending CN113253835A (zh) | 2021-03-19 | 2021-03-19 | 一种人机交互设备控制方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113253835A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113744738A (zh) * | 2021-09-10 | 2021-12-03 | 安徽淘云科技股份有限公司 | 一种人机交互方法及其相关设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107972028A (zh) * | 2017-07-28 | 2018-05-01 | 北京物灵智能科技有限公司 | 人机交互方法、装置及电子设备 |
CN108491519A (zh) * | 2018-03-26 | 2018-09-04 | 上海智臻智能网络科技股份有限公司 | 人机交互方法及装置、存储介质、终端 |
CN110609620A (zh) * | 2019-09-05 | 2019-12-24 | 深圳追一科技有限公司 | 基于虚拟形象的人机交互方法、装置及电子设备 |
-
2021
- 2021-03-19 CN CN202110296092.2A patent/CN113253835A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107972028A (zh) * | 2017-07-28 | 2018-05-01 | 北京物灵智能科技有限公司 | 人机交互方法、装置及电子设备 |
CN108491519A (zh) * | 2018-03-26 | 2018-09-04 | 上海智臻智能网络科技股份有限公司 | 人机交互方法及装置、存储介质、终端 |
CN110609620A (zh) * | 2019-09-05 | 2019-12-24 | 深圳追一科技有限公司 | 基于虚拟形象的人机交互方法、装置及电子设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113744738A (zh) * | 2021-09-10 | 2021-12-03 | 安徽淘云科技股份有限公司 | 一种人机交互方法及其相关设备 |
CN113744738B (zh) * | 2021-09-10 | 2024-03-19 | 安徽淘云科技股份有限公司 | 一种人机交互方法及其相关设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11133008B2 (en) | Reducing the need for manual start/end-pointing and trigger phrases | |
CN107643977B (zh) | 防沉迷的方法及相关产品 | |
KR102437944B1 (ko) | 음성 웨이크업 방법 및 장치 | |
CN108205627A (zh) | 交互式助理模块对访问的有条件提供 | |
CN107995370B (zh) | 通话控制方法、装置及存储介质和移动终端 | |
KR20140060112A (ko) | 사용자의 심리 상태 판단 장치 및 방법 | |
CN109240786B (zh) | 一种主题更换方法及电子设备 | |
WO2019055292A1 (en) | PROACTIVE LIMITATION OF FUNCTIONALITIES | |
CN110544468B (zh) | 应用唤醒方法、装置、存储介质及电子设备 | |
CN110910887B (zh) | 语音唤醒方法和装置 | |
CN112000726A (zh) | 按摩操作模式的存储方法及电子设备、存储介质 | |
CN112667075A (zh) | 终端控制方法、装置、电子设备以及存储介质 | |
CN113253835A (zh) | 一种人机交互设备控制方法及装置 | |
CN110580897A (zh) | 音频校验方法、装置、存储介质及电子设备 | |
CN113709629A (zh) | 频响参数调节方法、装置、设备及存储介质 | |
CN111369275B (zh) | 识别和描述群体方法、协调装置及计算机可读取存储介质 | |
CN111949813B (zh) | 交友请求方法、装置、计算机设备和存储介质 | |
CN107357444A (zh) | 一种基于使用场景的输入模式智能切换方法及装置 | |
CN112637148B (zh) | 验证用户的方法、装置、电子设备及介质 | |
CN112820265B (zh) | 一种语音合成模型训练方法和相关装置 | |
CN111107400B (zh) | 数据收集方法、装置、智能电视及计算机可读存储介质 | |
CN113413590A (zh) | 一种信息验证方法、装置、计算机设备及存储介质 | |
CN110415688B (zh) | 一种信息交互方法及机器人 | |
CN114237794A (zh) | 应用可用时长显示方法、装置、设备及存储介质 | |
CN112863511B (zh) | 信号处理方法、装置以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |