CN112949418A - 说话对象的确定方法、装置、电子设备及存储介质 - Google Patents

说话对象的确定方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112949418A
CN112949418A CN202110167298.5A CN202110167298A CN112949418A CN 112949418 A CN112949418 A CN 112949418A CN 202110167298 A CN202110167298 A CN 202110167298A CN 112949418 A CN112949418 A CN 112949418A
Authority
CN
China
Prior art keywords
lip
image
face image
determining
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110167298.5A
Other languages
English (en)
Inventor
黄冠文
程骏
庞建新
谭欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Ubtech Technology Co ltd
Original Assignee
Shenzhen Ubtech Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Ubtech Technology Co ltd filed Critical Shenzhen Ubtech Technology Co ltd
Priority to CN202110167298.5A priority Critical patent/CN112949418A/zh
Publication of CN112949418A publication Critical patent/CN112949418A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Image Analysis (AREA)

Abstract

本申请适用于机器人技术领域,提供了说话对象的确定方法、装置、电子设备及存储介质。说话对象的确定方法包括:获取机器人拍摄得到的初始图像中的人脸图像,确定每个人脸图像的嘴唇遮挡信息和嘴唇变化信息,一个嘴唇变化信息为:一个人脸图像中的嘴唇相对于参考图像中的嘴唇的变化信息,将嘴唇遮挡信息指示嘴唇是未被遮挡,且嘴唇变化信息满足预设变化条件的人脸图像对应的用户作为机器人的说话对象。由于机器人拍摄得到的初始图像是机器人视角内的用户的图像,根据每个人脸图像的嘴唇遮挡信息和嘴唇变化信息可以确定出机器人视角内正在说话的用户,从而确定出机器人的说话对象,进而实现与说话对象有效交互,提高用户体验。

Description

说话对象的确定方法、装置、电子设备及存储介质
技术领域
本申请属于机器人技术领域,尤其涉及说话对象的确定方法、装置、电子设备及存储介质。
背景技术
机器人一般通过语音识别实现与用户的交互,当机器人同时面对多个用户时,仅仅依靠接收到的语音无法识别出与机器人交互的对象,即无法确定机器人的说话对象,从而无法实现与说话对象的有效交互,影响用户体验。
发明内容
有鉴于此,本申请实施例提供了说话对象的确定方法、装置、电子设备及存储介质,可以确定出机器人的说话对象,从而实现与的说话对象有效交互,提高用户体验。
本申请实施例的第一方面提供了一种说话对象的确定方法,包括:
获取机器人拍摄得到的初始图像中的人脸图像;
确定每个所述人脸图像的嘴唇遮挡信息和嘴唇变化信息,一个所述嘴唇变化信息为:一个人脸图像中的嘴唇相对于参考图像中的嘴唇的变化信息,一个人脸图像对应一个用户;
将所述嘴唇遮挡信息指示嘴唇未被遮挡,且所述嘴唇变化信息满足预设变化条件的人脸图像对应的用户作为所述机器人的说话对象。
在一种可能的实现方式中,所述确定每个所述人脸图像的嘴唇变化信息,包括:
将所述参考图像中的上下嘴唇间的距离作为第一距离,将所述人脸图像中的上下嘴唇间的距离作为第二距离;
根据所述第一距离与所述第二距离的差值确定对应人脸图像的嘴唇变化信息。
在一种可能的实现方式中,一个用户对应一个参考图像,在所述确定每个所述人脸图像的嘴唇变化信息之后,所述说话对象的确定方法还包括:
若所述人脸图像的嘴唇变化信息满足所述预设变化条件,将所述人脸图像中的嘴唇图像作为对应用户的更新后的参考图像,所述更新后的参考图像用于确定目标图像中对应用户的人脸图像的嘴唇变化信息,所述目标图像为在初始图像之后所述机器人拍摄得到的图像。
在一种可能的实现方式中,在所述将所述人脸图像中的上下嘴唇间的距离作为第二距离之前,所述说话对象的确定方法还包括:
根据预设算法确定所述人脸图像上的特征点,所述特征点包括分布于所述嘴唇上的特征点;
根据所述分布于所述嘴唇上的特征点计算所述人脸图像中的上下嘴唇间的距离。
在一种可能的实现方式中,所述确定每个所述人脸图像的嘴唇遮挡信息,包括:
根据所述分布于所述嘴唇上的特征点确定每个所述人脸图像中的嘴唇所在的位置,根据每个所述嘴唇所在的位置分别从对应的所述人脸图像中提取嘴唇图像;
根据每个所述嘴唇图像分别确定每个所述人脸图像的嘴唇遮挡信息。
在一种可能的实现方式中,在所述将所述嘴唇遮挡信息指示嘴唇未被遮挡,且所述嘴唇变化信息满足预设变化条件的人脸图像对应的用户作为所述机器人的说话对象之后,所述说话对象的确定方法还包括:
确定所述说话对象所在的位置,根据所述说话对象所在的位置控制所述机器人的动作。
在一种可能的实现方式中,所述初始图像是视频流中的一帧图像,所述根据所述说话对象所在的位置控制所述机器人的动作,包括:
根据所述说话对象所在的位置,以及所述视频流中的每帧图像对应的所述说话对象控制所述机器人的动作。
在一种可能的实现方式中,所述获取机器人拍摄得到的初始图像中的人脸图像,包括:
获取机器人拍摄得到的初始图像;
对所述初始图像进行人脸检测,得到初始人脸图像;
将满足预设约束条件的初始人脸图像作为所述初始图像中的人脸图像,所述预设约束条件包括像素大于预设值、位于所述初始图像中的预设位置、人脸朝向在预设范围内中的任意一项或多项。
本申请实施例的第二方面提供了一种说话对象的确定装置,包括:
获取模块,用于获取机器人拍摄得到的初始图像中的人脸图像;
确定模块,用于确定每个所述人脸图像的嘴唇遮挡信息和嘴唇变化信息,一个所述嘴唇变化信息为:一个人脸图像中的嘴唇相对于参考图像中的嘴唇的变化信息,一个人脸图像对应一个用户;
判定模块,用于将所述嘴唇遮挡信息指示嘴唇未被遮挡,且所述嘴唇变化信息满足预设变化条件的人脸图像对应的用户作为所述机器人的说话对象。
在一种可能的实现方式中,所述确定模块具体用于:
将所述参考图像中的上下嘴唇间的距离作为第一距离,将所述人脸图像中的上下嘴唇间的距离作为第二距离;
根据所述第一距离与所述第二距离的差值确定对应人脸图像的嘴唇变化信息。
在一种可能的实现方式中,一个用户对应一个参考图像,所述说话对象的确定装置还包括:
更新模块,用于若所述人脸图像的嘴唇变化信息满足所述预设变化条件,将所述人脸图像中的嘴唇图像作为对应用户的更新后的参考图像,所述更新后的参考图像用于确定目标图像中对应用户的人脸图像的嘴唇变化信息,所述目标图像为在初始图像之后所述机器人拍摄得到的图像。
在一种可能的实现方式中,所述确定模块具体还用于:
根据预设算法确定所述人脸图像上的特征点,所述特征点包括分布于所述嘴唇上的特征点;
根据所述分布于所述嘴唇上的特征点计算所述人脸图像中的上下嘴唇间的距离。
在一种可能的实现方式中,所述确定模块具体还用于:
根据所述分布于所述嘴唇上的特征点确定每个所述人脸图像中的嘴唇所在的位置,根据每个所述嘴唇所在的位置分别从对应的所述人脸图像中提取嘴唇图像;
根据每个所述嘴唇图像分别确定每个所述人脸图像的嘴唇遮挡信息。
在一种可能的实现方式中,所述说话对象的确定装置还包括:
控制模块,用于确定所述说话对象所在的位置,根据所述说话对象所在的位置控制所述机器人的动作。
在一种可能的实现方式中,所述初始图像是视频流中的一帧图像,所述控制模块具体用于:
根据所述说话对象所在的位置,以及所述视频流中的每帧图像对应的所述说话对象控制所述机器人的动作。
在一种可能的实现方式中,所述获取模块具体用于:
获取机器人拍摄得到的初始图像;
对所述初始图像进行人脸检测,得到初始人脸图像;
将满足预设约束条件的初始人脸图像作为所述初始图像中的人脸图像,所述预设约束条件包括像素大于预设值、位于所述初始图像中的预设位置、人脸朝向在预设范围内中的任意一项或多项。
本申请实施例的第三方面提供了一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的说话对象的确定方法。
本申请实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面所述的说话对象的确定方法。
本申请实施例的第五方面提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的说话对象的确定方法。
本申请实施例与现有技术相比存在的有益效果是:获取机器人拍摄得到的初始图像中的人脸图像,确定每个人脸图像的嘴唇遮挡信息和嘴唇变化信息,一个嘴唇变化信息为:对应的人脸图像中的嘴唇相对于参考图像中的嘴唇的变化信息,一个人脸图像对应一个用户,将嘴唇遮挡信息指示嘴唇是未被遮挡,且嘴唇变化信息满足预设变化条件的人脸图像对应的用户作为机器人的说话对象。由于机器人拍摄得到的初始图像是机器人视角内的用户的图像,每个用户对应一个人脸图像,根据每个人脸图像的嘴唇遮挡信息和嘴唇变化信息可以确定出机器人视角内正在说话的用户,从而确定出机器人的说话对象,进而实现与说话对象有效交互,提高用户体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1是本申请一实施例提供的说话对象的确定方法的实现流程示意图;
图2是本申请实施例提供的一种应用场景下的说话对象的确定方法的流程图;
图3是本申请实施例提供的嘴唇信息检测算法的流程图;
图4是本申请实施例提供的嘴唇状态检测算法的流程图;
图5是本申请实施例提供的说话对象的确定装置的示意图;
图6是本申请实施例提供的电子设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
现有的机器人在同时面对多个用户时,无法确定出机器人的说话对象,从而无法实现与说话对象的有效交互,影响用户体验。为此,本申请提供了说话对象的确定方法,通过获取机器人拍摄得到的初始图像中的人脸图像,确定每个人脸图像的嘴唇遮挡信息和嘴唇变化信息,将嘴唇遮挡信息指示嘴唇是未被遮挡,且嘴唇变化信息满足预设变化条件的人脸图像对应的用户作为机器人的说话对象,实现与的说话对象有效交互,提高用户体验。
下面对本申请提供的说话对象的确定方法进行示例性说明。
请参阅附图1,本申请一实施例提供的说话对象的确定方法包括:
S101:获取机器人拍摄得到的初始图像中的人脸图像。
具体地,机器人拍摄得到的初始图像是机器人视角下的图像,初始图像中包括机器人面对的多个用户的图像,对初始图像进行人脸检测,得到每个用户对应的人脸图像。
在一种可能的实现方式中,采用预设的人脸检测模型进行人脸检测,预设的人脸检测模型是采用方向梯度直方图(Histogram of Oriented Gradient,HOG)算法和级联分类器,对训练样本进行训练后得到的,具有较高的准确度。
在一种可能的实现方式中,在获取机器人拍摄得到的初始图像后,对初始图像进行人脸检测,得到初始人脸图像,判断初始人脸图像是否满足预设约束条件,将满足预设约束条件的初始人脸图像作为初始图像中的人脸图像,丢弃不满足预设约束条件的初始人脸图像。预设约束条件包括像素大于预设值、位于初始图像中的预设位置、人脸朝向在预设范围内中的任意一项或多项。其中,预设值可以是50*50像素,若人脸图像的像素值较小,则说明人脸图像对应的用户距离机器人较远或者被遮挡,通过设定人脸图像的像素大于预设值,可以得到有效的人脸图像,提高后续嘴唇图像识别的准确率。人脸图像位于初始图像中的预设位置可以是指人脸图像位于初始图像的非边缘区域,或者是人脸图像对应的人脸框位于初始图像的非边缘区域,边缘区域可以是初始图像的边缘的10个像素形成的区域,其中,可以通过计算人脸图像的分布区域或者计算人脸框在初始图像中的坐标确定人脸图像是否位于初始图像中的预设位置。位于初始图像的边缘的人脸图像相对于机器人正面的偏移角度较大,与机器人对话的概率较小,通过设定人脸图像位于预设位置,可以减少对相对于机器人正面偏移角度较大的初始人脸图像的分析,减少计算量。人脸朝向对应的预设范围可以是-45度~45度之间,可以通过人脸图像上的特征点确定人脸朝向,例如根据人脸图像上的特征点之间的相对距离确定人脸朝向,通过设定人脸图像的人脸朝向位于预设范围,可以提高得到的人脸图像的完整度,提高后续嘴唇图像识别的准确率。
S102:确定每个所述人脸图像的嘴唇遮挡信息和嘴唇变化信息,一个所述嘴唇变化信息为:一个人脸图像中的嘴唇相对于参考图像中的嘴唇的变化信息,一个人脸图像对应一个用户。
具体地,从人脸图像中提取嘴唇图像,对嘴唇图像进行识别,得到嘴唇遮挡信息,嘴唇遮挡信息用于指示嘴唇被遮挡或者嘴唇未被遮挡。可以采用图像识别的方法从人脸图像中提取嘴唇图像,也可以根据人脸图像上的特征点确定人脸图像中的嘴唇所在的位置,根据嘴唇所在的位置从人脸图像中提取嘴唇图像。
在一种可能的实现方式中,人脸图像上的特征点是位于人脸图像上的68个特征点,68个特征点分布于人脸的眉毛、眼睛、鼻子、嘴唇等位置,将人脸图像输入预设的人脸特征点回归器,即可输出68个特征点所在的位置。根据68个特征点中分布于嘴唇上的特征点在人脸图像中的坐标,即可确定出嘴唇对应的嘴唇框的坐标,根据嘴唇框的坐标即可从人脸图像中提取嘴唇图像。
在一种可能的实现方式中,在提取出嘴唇图像后,将嘴唇图像输入预设的遮挡判断器,得到预设的遮挡判断器输出的嘴唇遮挡信息。预设的遮挡判断器是采用HOG算法和支持向量机(Support Vector Machine,SVM)算法,对训练样本进行训练后得到的模型,具有较高的计算速度和计算准确度。
在另一种可能的实现方式中,也可以根据分布于嘴唇上的特征点的数量判断嘴唇遮挡信息,例如,若分布于嘴唇上的特征点的数量小于预设数量,则判定嘴唇被遮挡,否则判定嘴唇未被遮挡。
嘴唇变化信息可以是嘴唇的形状变化信息或者上下嘴唇间的距离变化信息。在一种可能的实现方式中,将参考图像中的上下嘴唇间的距离作为第一距离,将人脸图像中的上下嘴唇间的距离作为第二距离,根据第一距离与第二距离的差值确定对应人脸图像的嘴唇变化信息。由于人在说话时上下嘴唇间的距离会发生改变,因此第一距离与第二距离的差值反映嘴唇的变化信息,根据嘴唇的变化信息可以确定出对应的人脸图像是否处于说话状态。例如,将第一距离与第二距离的差值的绝对值作为嘴唇的变化信息。
其中,上下嘴唇间的距离可以通过嘴唇边缘所在的像素计算,也可以根据分布于嘴唇上的特征点计算。在一种可能的实现方式中,根据68个特征点的分布位置,选取分布于上嘴唇的预设位置的三个特征点,以及选取分布于下嘴唇的预设位置三个的特征点,组成三组特征点,预设位置可以是嘴唇的中间位置以及位于中间位置两侧的两个位置,每组特征点包括分布于上嘴唇的特征点以及分布于下嘴唇的特征点,计算每组特征点之间的距离,将三组特征点之间的距离的平均值作为上下嘴唇间的距离。根据特征点计算上下嘴唇间的距离,可以降低计算复杂度,从而降低算法运行过程中对中央处理单元(CentralProcessing Unit,CPU)的占用率。
参考图像可以是根据经验设定的未说话状态下的嘴唇图像,也可以是对应用户在预设状态下的嘴唇图像。在一种可能的实现方式中,一个用户对应一个参考图像,若人脸图像的嘴唇变化信息满足预设变化条件,将人脸图像中的嘴唇图像作为对应用户的更新后的参考图像,更新后的参考图像用于确定目标图像中对应用户的人脸图像的嘴唇变化信息,目标图像为在初始图像之后机器人拍摄得到的图像。因此,更新后的参考图像是在目标图像之前机器人拍摄得到的图像中的嘴唇图像,根据机器人之前拍摄得到的嘴唇图像确定目标图像中同一个用户的人脸图像的嘴唇变化信息,可以提高获取的嘴唇变化信息的准确度。具体地,初始图像是视频流中的一帧图像,若初始图像是视频流的第一帧图像,不计算嘴唇的变化信息,若初始图像是视频流的第二帧图像,将第一帧图像中的人脸图像中的嘴唇图像分别作为参考图像。对于同一个用户,若第二帧图像中的人脸图像中的嘴唇变化信息满足预设条件,例如,第一距离与第二距离的差值的绝对值大于预设值,说明第二帧图像中的人脸图像是说话状态,将第二帧图像中的人脸图像中的嘴唇图像作为参考图像,确定第三帧图像中的人脸图像的嘴唇变化信息,若第三帧图像中的人脸图像的嘴唇变化信息满足预设条件,则将第三帧图像中的人脸图像中的嘴唇图像作为参考图像,确定第四帧图像中的人脸图像的嘴唇变化信息,依此类推。若第二帧图像中的人脸图像的嘴唇变化信息不满足预设条件,例如,第一距离与第二距离的差值的绝对值小于或等于预设值,说明第二帧图像中的人脸图像是未说话状态,则在确定第三帧图像中的人脸图像的嘴唇变化信息时,仍然将第一帧图像中对应人脸图像中的嘴唇图像作为参考图像。
在一种可能的实现方式中,对于视频流中的每帧图像中的每个人脸图像,将人脸图像中的上下嘴唇间的距离作为第二距离,将对应的参考图像中的上下嘴唇间的距离作为第一距离,计算第一距离与第二距离的差值的绝对值。在计算出每帧图像中的每个人脸对象对应的第一距离和第二距离的差值的绝对值后,采用卡尔曼滤波算法对得到的绝对值进行平滑处理,得到平滑处理后的绝对值,将平滑处理后的绝对值作为对应用户在每帧图像中的嘴唇变化信息,从而可以去除干扰数据,提高计算出的嘴唇变化信息的准确度。
在一种可能的实现方式中,根据前一帧图像中的人脸图像与当前帧图像中的人脸图像之间的交并比(Intersection over Union,IOU)判断前一帧图像中的人脸图像与当前帧图像中的人脸图像是否对应同一个用户。例如,获取视频流的第一帧图像后,对第一帧图像进行人脸识别,得到第一帧图像中的人脸图像,对第一帧图像中的每个人脸图像设置人脸标识。在获取到第二帧图像后,对第二帧图像进行人脸识别,得到第二帧图像中的人脸图像。若第二帧图像中的一个人脸图像与第一帧图像中的一个人脸图像的IOU大于预设阈值,则两个人脸图像对应同一个用户,也即对应同一个人脸标识。同理,对于每一帧图像中的人脸图像,通过与前一帧图像中的人脸图像计算IOU的方法,得到每个人脸图像的人脸标识,从而可以快速获取每个人脸图像的人脸标识,以获取对应的参考图像。
在一种可能的实现方式中,可以根据人脸标识建立人脸信息字典,人脸信息字典中记录人脸标识,以及每个人脸标识在每帧图像中对应的嘴唇变化信息、嘴唇遮挡信息,根据人脸信息字典可以对每个人脸标识对应的用户进行嘴唇状态分析。
S103:将所述嘴唇遮挡信息指示嘴唇未被遮挡,且所述嘴唇变化信息满足预设变化条件的人脸图像对应的用户作为所述机器人的说话对象。
具体地,若人脸图像的嘴唇遮挡信息指示嘴唇未被遮挡,且嘴唇变化信息满足预设变化条件,说明该人脸图像对应的用户处于说话状态,将该用户作为说话对象。
在一种可能的实现方式中,在确定出说话对象后,根据说话对象在初始图像中的位置确定说话对象相对于机器人的位置,也即说话对象所在的位置,根据说话对象所在的位置控制机器人的动作。例如,可以控制机器人转动头部或者同时转动身体和头部,使得机器人的头部的正面朝向说话对象,从而可以使得机器人与用户面对面交流,提高用户的体验。又例如,对说话对象对应的嘴唇图像进行识别,并结合接收到的语音数据进行语音识别,从而可以根据嘴唇图像识别出有效的语音数据,提高语音识别的准确度。
在一种可能的实现方式中,若初始图像中不存在嘴唇变化信息满足预设变化条件的人脸图像,说明不存在说话对象,机器人不进行语音识别。当检测到初始图像中存在说话对象后,才开始进行语音识别,从而节省机器人的能耗。
在一种可能的实现方式中,初始图像是视频流中的一帧图像,在确定出说话对象后,根据说话对象所在的位置,以及视频流中的每帧图像对应的说话对象控制机器人的动作。例如,若初始图像中存在多个嘴唇遮挡信息指示嘴唇未被遮挡,且嘴唇变化信息满足预设变化条件的人脸图像,说明存在多个说话对象,则根据初始图像所在的视频流确定出最早开始说话的用户,将最早开始说话的用户作为交互对象,控制机器人的头部正面朝向交互对象,与交互对象进行交互。其中,最早开始说话的用户是在视频流中第一次检测到的说话对象。在其他可能的实现方式中,若存在多个说话对象,则根据对应帧的图像计算每个说话对象与机器人之间的距离,将距离机器人最近的说话对象作为交互对象,控制机器人的头部正面朝向交互对象,从而使得机器人每次与一个说话对象进行交互,提高用户体验。机器人在完成一次交互后,根据视频流中的每帧图像重新确定新的交互对象,根据新的交互对象所在的位置控制机器人的动作,从而可以实现机器人与每个说话用户的有效交互,提高用户体验。
在一种可能的实现方式中,采用前述方法建立人脸信息字典后,从人脸信息字典中依次获取每个人脸标识在每帧图像中对应的嘴唇变化信息和嘴唇遮挡信息,将每个人脸标识在每帧图像中对应的嘴唇变化信息和嘴唇遮挡信息输入预设的嘴唇状态分类器,嘴唇状态分类器用于根据嘴唇变化信息和嘴唇遮挡信息确定每个人脸标识在每帧图像中对应的说话标志位。具体地,若嘴唇状态分类器确定出某一人脸标识在某一帧图像中的嘴唇遮挡信息指示嘴唇未被遮挡,且嘴唇变化信息满足预设变化条件,则将该人脸标识在该帧图像中的说话标志位设为True,并存储至人脸信息字典中,否则将说话标志位设为False,并存储至人脸信息字典中。根据人脸信息字典中的说话标志位即可得到每个人脸标识对应的嘴唇状态,根据每个人脸标识对应的嘴唇状态即可确定出说话对象。
在上述实施例中,由于机器人拍摄得到的初始图像是机器人视角内的用户的图像,每个用户对应一个人脸图像,根据每个人脸图像的嘴唇遮挡信息和嘴唇变化信息可以确定出机器人视角内正在说话的用户,从而确定出机器人的说话对象,进而实现与说话对象有效交互,提高用户体验。
下面结合具体场景介绍本申请一实施例提供的说话对象的确定方法。如图2所示,机器人启动说话对象检测算法,说话对象检测算法用于检测机器人的说话对象。在启动说话对象检测算法后,获取视频流参数,视频流参数包括分辨率、帧率、通道数、格式等。同时对说话对象检测过程中用到的人脸检测器、人脸特征点回归器、遮挡判断器、嘴唇状态分类器以及人脸标识进行初始化。具体地,分别获取人脸检测器、人脸特征点回归器、遮挡判断器、嘴唇状态分类器的模型参数,将人脸标识设为初始值,初始值可以为0。在完成初始化后,判断是否获取到机器人拍摄的视频流,若获取到机器人拍摄的视频流,根据视频流的参数对视频流进行分帧处理得到图像,在得到图像后开启嘴唇信息检测算法,嘴唇信息检测算法用于检测图像中每个人脸图像的嘴唇遮挡信息和嘴唇变化信息。在得到嘴唇遮挡信息和嘴唇变化信息后,开启嘴唇状态检测算法,嘴唇状态检测算法用于根据嘴唇遮挡信息和嘴唇变化信息确定用户的嘴唇状态。在确定用户的嘴唇状态后,将用户的嘴唇状态发送至机器人控制器,机器人控制器根据用户的嘴唇状态确定说话对象,进而确定出交互对象,并控制机器人执行对应的动作。在将用户的嘴唇状态发送至机器人控制器后,返回判断是否获取到机器人拍摄的视频流,若未获取到机器人拍摄的视频流,关闭说话对象检测算法。
其中,嘴唇信息检测算法的流程如图3所示,在获取分帧处理得到图像后,对每帧图像进行人脸检测,得到初始人脸图像。首先判断是否存在未分析的初始人脸图像,若存在未分析的初始人脸图像,判断初始人脸图像是否满足预设约束条件。若人脸图像不满足预设约束条件,返回判断是否存在未分析的初始人脸图像。若人脸图像满足预设约束条件,将该初始人脸图像作为对应图像中的人脸图像,对人脸图像进行识别,得到嘴唇遮挡信息和嘴唇变化信息。在得到嘴唇遮挡信息和嘴唇变化信息后,根据当前帧的人脸图像与前一帧的人脸图像的IOU确定人脸图像的人脸标识。在确定人脸标识后,返回判断是否存在未分析的初始人脸图像,若不存在未分析的初始人脸图像,根据所有的人脸标识以及对应的在每帧图像嘴唇遮挡信息和嘴唇变化信息生成人脸信息字典,结束嘴唇信息检测算法,将人脸信息字典传递至嘴唇状态检测算法。
嘴唇状态检测算法的流程如图4所示,开启嘴唇状态检测算法后,首先判断是否完成对人脸信息字典的分析,若未完成,从人脸信息字典中读取人脸标识以及对应的在每帧图像中的嘴唇遮挡信息和嘴唇变化信息,对于每个人脸标识,确定每帧图像中对应的嘴唇遮挡信息是否指示嘴唇未被遮挡,若嘴唇遮挡信息指示嘴唇未被遮挡,则判断嘴唇变化信息是否满足预设变化条件,若嘴唇变化信息满足预设变化条件,将该帧图像对应的说话标志位设为True。若嘴唇遮挡信息指示嘴唇被遮挡,或者嘴唇变化信息不满足预设变化条件,将该帧图像对应的说话标志位设为False。对于每个人脸标识,在确定一帧图像对应的说话标志位后,将该帧图像对应的说话标志位作为该人脸标识的嘴唇状态,每确定一帧图像对应的说话标志位,更新一次该人脸标识对应的嘴唇状态。在完成人脸标识对应的嘴唇状态的更新后,判断是否完成对人脸信息字典的分析,若完成,则结束嘴唇状态检测算法,将每个人脸标识对应的嘴唇状态发送至机器人控制器。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的说话对象的确定方法,图5示出了本申请实施例提供的说话对象的确定装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
如图5所示,说话对象的确定装置,包括:
获取模块10,用于获取机器人拍摄得到的初始图像中的人脸图像;
确定模块20,用于确定每个所述人脸图像的嘴唇遮挡信息和嘴唇变化信息,一个所述嘴唇变化信息为:一个人脸图像中的嘴唇相对于参考图像中的嘴唇的变化信息,一个人脸图像对应一个用户;
判定模块30,用于将所述嘴唇遮挡信息指示嘴唇未被遮挡,且所述嘴唇变化信息满足预设变化条件的人脸图像对应的用户作为所述机器人的说话对象。
在一种可能的实现方式中,所述确定模块20具体用于:
将所述参考图像中的上下嘴唇间的距离作为第一距离,将所述人脸图像中的上下嘴唇间的距离作为第二距离;
根据所述第一距离与所述第二距离的差值确定对应人脸图像的嘴唇变化信息。
在一种可能的实现方式中,一个用户对应一个参考图像,所述说话对象的确定装置还包括:
更新模块,用于若所述人脸图像的嘴唇变化信息满足所述预设变化条件,将所述人脸图像中的嘴唇图像作为对应用户的更新后的参考图像,所述更新后的参考图像用于确定目标图像中对应用户的人脸图像的嘴唇变化信息,所述目标图像为在初始图像之后所述机器人拍摄得到的图像。
在一种可能的实现方式中,所述确定模块20具体还用于:
根据预设算法确定所述人脸图像上的特征点,所述特征点包括分布于所述嘴唇上的特征点;
根据所述分布于所述嘴唇上的特征点计算所述人脸图像中的上下嘴唇间的距离。
在一种可能的实现方式中,所述确定模块20具体还用于:
根据所述分布于所述嘴唇上的特征点确定每个所述人脸图像中的嘴唇所在的位置,根据每个所述嘴唇所在的位置分别从对应的所述人脸图像中提取嘴唇图像;
根据每个所述嘴唇图像分别确定每个所述人脸图像的嘴唇遮挡信息。
在一种可能的实现方式中,所述说话对象的确定装置还包括:
控制模块,用于确定所述说话对象所在的位置,根据所述说话对象所在的位置控制所述机器人的动作。
在一种可能的实现方式中,所述初始图像是视频流中的一帧图像,所述控制模块具体用于:
根据所述说话对象所在的位置,以及所述视频流中的每帧图像对应的所述说话对象控制所述机器人的动作。
在一种可能的实现方式中,所述获取模块10具体用于:
获取机器人拍摄得到的初始图像;
对所述初始图像进行人脸检测,得到初始人脸图像;
将满足预设约束条件的初始人脸图像作为所述初始图像中的人脸图像,所述预设约束条件包括像素大于预设值、位于所述初始图像中的预设位置、人脸朝向在预设范围内中的任意一项或多项。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
图6是本申请实施例提供的电子设备的结构示意图。所述电子设备可以是机器人,也可以是桌上型计算机、笔记本、掌上电脑等计算设备。
如图6所示,该实施例的电子设备包括:处理器11、存储器12以及存储在所述存储器12中并可在所述处理器11上运行的计算机程序13。所述处理器11执行所述计算机程序13时实现上述电子设备的控制方法实施例中的步骤,例如图1所示的步骤S101至S103。或者,所述处理器11执行所述计算机程序13时实现上述各装置实施例中各模块/单元的功能,例如图5所示获取模块10至判定模块30的功能。
示例性的,所述计算机程序13可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器11执行,以完成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序13在所述终端设备中的执行过程。
本领域技术人员可以理解,图6仅仅是电子设备的示例,并不构成对电子设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备还可以包括输入输出设备、网络接入设备、总线等。
所述处理器11可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器12可以是所述电子设备的内部存储单元,例如电子设备的硬盘或内存。所述存储器12也可以是所述电子设备的外部存储设备,例如所述电子设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器12还可以既包括所述电子设备的内部存储单元也包括外部存储设备。所述存储器12用于存储所述计算机程序以及所述电子设备所需的其他程序和数据。所述存储器12还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (11)

1.一种说话对象的确定方法,其特征在于,包括:
获取机器人拍摄得到的初始图像中的人脸图像;
确定每个所述人脸图像的嘴唇遮挡信息和嘴唇变化信息,一个所述嘴唇变化信息为:一个人脸图像中的嘴唇相对于参考图像中的嘴唇的变化信息,一个人脸图像对应一个用户;
将所述嘴唇遮挡信息指示嘴唇未被遮挡,且所述嘴唇变化信息满足预设变化条件的人脸图像对应的用户作为所述机器人的说话对象。
2.根据权利要求1所述的说话对象的确定方法,其特征在于,所述确定每个所述人脸图像的嘴唇变化信息,包括:
将所述参考图像中的上下嘴唇间的距离作为第一距离,将所述人脸图像中的上下嘴唇间的距离作为第二距离;
根据所述第一距离与所述第二距离的差值确定对应人脸图像的嘴唇变化信息。
3.根据权利要求1或2所述的说话对象的确定方法,其特征在于,一个用户对应一个参考图像,在所述确定每个所述人脸图像的嘴唇变化信息之后,所述说话对象的确定方法还包括:
若所述人脸图像的嘴唇变化信息满足所述预设变化条件,将所述人脸图像中的嘴唇图像作为对应用户的更新后的参考图像,所述更新后的参考图像用于确定目标图像中对应用户的人脸图像的嘴唇变化信息,所述目标图像为在初始图像之后所述机器人拍摄得到的图像。
4.根据权利要求2所述的说话对象的确定方法,其特征在于,在所述将所述人脸图像中的上下嘴唇间的距离作为第二距离之前,所述说话对象的确定方法还包括:
根据预设算法确定所述人脸图像上的特征点,所述特征点包括分布于所述嘴唇上的特征点;
根据所述分布于所述嘴唇上的特征点计算所述人脸图像中的上下嘴唇间的距离。
5.根据权利要求4所述的说话对象的确定方法,其特征在于,所述确定每个所述人脸图像的嘴唇遮挡信息,包括:
根据所述分布于所述嘴唇上的特征点确定每个所述人脸图像中的嘴唇所在的位置,根据每个所述嘴唇所在的位置分别从对应的所述人脸图像中提取嘴唇图像;
根据每个所述嘴唇图像分别确定每个所述人脸图像的嘴唇遮挡信息。
6.根据权利要求1所述的说话对象的确定方法,其特征在于,在所述将所述嘴唇遮挡信息指示嘴唇未被遮挡,且所述嘴唇变化信息满足预设变化条件的人脸图像对应的用户作为所述机器人的说话对象之后,所述说话对象的确定方法还包括:
确定所述说话对象所在的位置,根据所述说话对象所在的位置控制所述机器人的动作。
7.根据权利要求6所述的说话对象的确定方法,其特征在于,所述初始图像是视频流中的一帧图像,所述根据所述说话对象所在的位置控制所述机器人的动作,包括:
根据所述说话对象所在的位置,以及所述视频流中的每帧图像对应的所述说话对象控制所述机器人的动作。
8.根据权利要求1所述的说话对象的确定方法,其特征在于,所述获取机器人拍摄得到的初始图像中的人脸图像,包括:
获取机器人拍摄得到的初始图像;
对所述初始图像进行人脸检测,得到初始人脸图像;
将满足预设约束条件的初始人脸图像作为所述初始图像中的人脸图像,所述预设约束条件包括像素大于预设值、位于所述初始图像中的预设位置、人脸朝向在预设范围内中的任意一项或多项。
9.一种说话对象的确定装置,其特征在于,包括:
获取模块,用于获取机器人拍摄得到的初始图像中的人脸图像;
确定模块,用于确定每个所述人脸图像的嘴唇遮挡信息和嘴唇变化信息,一个所述嘴唇变化信息为:一个人脸图像中的嘴唇相对于参考图像中的嘴唇的变化信息,一个人脸图像对应一个用户;
判定模块,用于将所述嘴唇遮挡信息指示嘴唇未被遮挡,且所述嘴唇变化信息满足预设变化条件的人脸图像对应的用户作为所述机器人的说话对象。
10.一种电子设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8任一项所述的说话对象的确定方法。
11.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8任一项所述的说话对象的确定方法。
CN202110167298.5A 2021-02-05 2021-02-05 说话对象的确定方法、装置、电子设备及存储介质 Pending CN112949418A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110167298.5A CN112949418A (zh) 2021-02-05 2021-02-05 说话对象的确定方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110167298.5A CN112949418A (zh) 2021-02-05 2021-02-05 说话对象的确定方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN112949418A true CN112949418A (zh) 2021-06-11

Family

ID=76243102

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110167298.5A Pending CN112949418A (zh) 2021-02-05 2021-02-05 说话对象的确定方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112949418A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114299952A (zh) * 2021-12-29 2022-04-08 湖北微模式科技发展有限公司 结合多种运动分析的话者角色区分方法及系统
CN114666639A (zh) * 2022-03-18 2022-06-24 海信集团控股股份有限公司 视频播放方法及显示设备
CN114819110A (zh) * 2022-06-23 2022-07-29 之江实验室 一种实时识别视频中说话人的方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633204A (zh) * 2017-08-17 2018-01-26 平安科技(深圳)有限公司 人脸遮挡检测方法、装置及存储介质
CN111241922A (zh) * 2019-12-28 2020-06-05 深圳市优必选科技股份有限公司 一种机器人及其控制方法、计算机可读存储介质
CN111259711A (zh) * 2018-12-03 2020-06-09 北京嘀嘀无限科技发展有限公司 一种识别唇动的方法和系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107633204A (zh) * 2017-08-17 2018-01-26 平安科技(深圳)有限公司 人脸遮挡检测方法、装置及存储介质
CN111259711A (zh) * 2018-12-03 2020-06-09 北京嘀嘀无限科技发展有限公司 一种识别唇动的方法和系统
CN111241922A (zh) * 2019-12-28 2020-06-05 深圳市优必选科技股份有限公司 一种机器人及其控制方法、计算机可读存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114299952A (zh) * 2021-12-29 2022-04-08 湖北微模式科技发展有限公司 结合多种运动分析的话者角色区分方法及系统
CN114299952B (zh) * 2021-12-29 2022-08-19 湖北微模式科技发展有限公司 结合多种运动分析的话者角色区分方法及系统
CN114666639A (zh) * 2022-03-18 2022-06-24 海信集团控股股份有限公司 视频播放方法及显示设备
CN114666639B (zh) * 2022-03-18 2023-11-03 海信集团控股股份有限公司 视频播放方法及显示设备
CN114819110A (zh) * 2022-06-23 2022-07-29 之江实验室 一种实时识别视频中说话人的方法及装置
CN114819110B (zh) * 2022-06-23 2022-10-21 之江实验室 一种实时识别视频中说话人的方法及装置

Similar Documents

Publication Publication Date Title
US10891473B2 (en) Method and device for use in hand gesture recognition
CN109584276B (zh) 关键点检测方法、装置、设备及可读介质
CN112949418A (zh) 说话对象的确定方法、装置、电子设备及存储介质
WO2021218293A1 (zh) 图像处理方法、装置、电子设备和存储介质
CN110163096B (zh) 人物识别方法、装置、电子设备和计算机可读介质
CN112069879B (zh) 一种目标人物跟随方法、计算机可读存储介质及机器人
KR20200118076A (ko) 생체 검출 방법 및 장치, 전자 기기 및 저장 매체
CN106648078B (zh) 应用于智能机器人的多模态交互方法及系统
WO2016077000A1 (en) Systems and methods for tracking an object
CN111783626B (zh) 图像识别方法、装置、电子设备及存储介质
CN112633084B (zh) 人脸框确定方法、装置、终端设备及存储介质
CN112149615B (zh) 人脸活体检测方法、装置、介质及电子设备
CN111241922B (zh) 一种机器人及其控制方法、计算机可读存储介质
CN110781770B (zh) 基于人脸识别的活体检测方法、装置及设备
CN108229494B (zh) 网络训练方法、处理方法、装置、存储介质和电子设备
CN111695462A (zh) 一种人脸识别方法、装置、存储介质和服务器
WO2020034672A1 (zh) 一种确定图像中用户的感兴趣区域的方法及装置
CN114049674A (zh) 一种三维人脸重建方法、装置及存储介质
CN109413470B (zh) 一种待检测图像帧的确定方法和终端设备
CN116433809A (zh) 表情驱动方法、以及模型训练方法
CN112906571A (zh) 活体识别方法、装置及电子设备
KR101909326B1 (ko) 얼굴 모션 변화에 따른 삼각 매쉬 모델을 활용하는 사용자 인터페이스 제어 방법 및 시스템
WO2021026281A1 (en) Adaptive hand tracking and gesture recognition using face-shoulder feature coordinate transforms
KR101956166B1 (ko) 비주얼 큐를 이용하여 비디오 시퀀스에서 토킹 세그먼트를 검출하는 방법 및 장치
KR102237131B1 (ko) 객체를 포함하는 이미지를 처리하는 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination