CN115933874B - 一种基于人脸控制的智能滑动控制方法、系统和存储介质 - Google Patents

一种基于人脸控制的智能滑动控制方法、系统和存储介质 Download PDF

Info

Publication number
CN115933874B
CN115933874B CN202211474101.3A CN202211474101A CN115933874B CN 115933874 B CN115933874 B CN 115933874B CN 202211474101 A CN202211474101 A CN 202211474101A CN 115933874 B CN115933874 B CN 115933874B
Authority
CN
China
Prior art keywords
data
feature
facial
characteristic
inertial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202211474101.3A
Other languages
English (en)
Other versions
CN115933874A (zh
Inventor
盛小木
李键
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Jiangyuan Zhizao Technology Co ltd
Original Assignee
Shenzhen Jiangyuan Zhizao Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Jiangyuan Zhizao Technology Co ltd filed Critical Shenzhen Jiangyuan Zhizao Technology Co ltd
Priority to CN202211474101.3A priority Critical patent/CN115933874B/zh
Publication of CN115933874A publication Critical patent/CN115933874A/zh
Application granted granted Critical
Publication of CN115933874B publication Critical patent/CN115933874B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Processing Or Creating Images (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明实施例提供了一种基于人脸控制的智能滑动控制方法、系统和介质。该方法包括:根据人物标识信息识别采集的形貌和头部动作特征动态信息获取面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并获得面部动作和视觉惯性特征阈值,根据界面特征内容信息结合眼部视界特征数据和脸部活动特征数据获得瞬时界面视域数据并结合特征数据计算处理获得视域活动数据和头部动作活动数据,再经过阈值对比控制视域界面滑动;从而根据形貌和头部特征信息与界面内容信息处理获得视域和头部活动数据与面部动作和视觉惯性阈值进行对比控制屏幕滑动,实现通过人脸形貌动作进行数据采集分析判断控制屏幕界面的滑动的人脸控屏的智能手段。

Description

一种基于人脸控制的智能滑动控制方法、系统和存储介质
技术领域
本发明涉及人脸智慧化控制和生物电子信息技术领域,具体而言,涉及一种基于人脸控制的智能滑动控制方法、系统和存储介质。
背景技术
随着移动终端的广泛应用,触摸屏的技术更新日益加速,目前的智能终端普遍采用人脸识别和电容屏触屏控制平台,给用户的快速应用提供了方便和效率,但目前的触屏发展模式仅限于屏幕的二维平面操控,对于超二维屏控的功能设计较为浅显。
在用户浏览屏幕界面内容时,如浏览网页新闻、电子书、文档等,目前的触屏控制多基于外界传感器或手触操控,而无法实现根据用户浏览的阅读动作习惯如眼球视野的快速移动或头部面部的幅度摆动对屏幕内容进行滑动控制的人脸控制屏幕进行智能滑动控制的技术手段,更不具备根据用户的个人动作习惯进行个性化滑动操控设定,以辨识用户发出的是惯性动作还是滑动指令动作的技术。
针对上述问题,目前亟待有效的技术解决方案。
发明内容
本发明实施例的目的在于提供基于人脸控制的智能滑动控制方法、系统和介质,可以根据形貌和头部特征信息与界面内容信息处理获得视域和头部活动数据与面部动作和视觉惯性阈值进行对比控制屏幕滑动,实现通过人脸形貌动作进行数据采集分析判断控制屏幕界面的滑动的人脸控屏的智能手段。
本发明实施例还提供了基于人脸控制的智能滑动控制方法,包括以下步骤:
识别人脸面部特征信息并提取形貌特征信息和头部动作特征信息进行人物标识信息识别,所述形貌特征信息包括面容特征数据、五官空间阵列数据以及面部姿态特征数据,所述头部动作特征信息包括头部摆幅特征数据、眼部视界特征数据以及脸部活动特征数据;
根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息;
根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值;
获取视觉目标的界面特征内容信息并结合所述眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据;
根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据;
根据所述视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据;
根据所述视域活动数据和头部动作活动数据分别与所述视觉惯态特征阈值以及面部动作惯性特征阈值进行阈值对比,根据对比结果控制视域界面滑动。
可选地,在本发明实施例所述的基于人脸控制的智能滑动控制方法中,所述根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息,包括:
根据采集的预设时间内多个时间节点的多个面容特征数据、五官空间阵列数据、面部姿态特征数据以及头部摆幅特征数据、眼部视界特征数据、脸部活动特征数据进行动态数据积累融合获得面部容貌动作特征画像;
根据所述面部容貌动作特征画像提取面容习性动态特性信息。
可选地,在本发明实施例所述的基于人脸控制的智能滑动控制方法中,所述根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值,包括:
根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据;
所述面部动作惯性特征数据包括头部微动习惯数据、面部作动习惯数据;
所述视觉惯态特征数据包括眼部转动惯态数据、视觉摆动惯态数据以及视野波动惯态数据;
根据所述面部动作惯性特征数据和视觉惯态特征数据输入预设面部姿态惯性数据库查询分别获得对应面部动作惯性特征阈值和视觉惯态特征阈值。
可选地,在本发明实施例所述的基于人脸控制的智能滑动控制方法中,所述获取视觉目标的界面特征内容信息并结合所述眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据,包括:
获取视觉目标的屏幕界面的界面特征内容信息;
所述界面特征内容信息包括界面尺寸数据、视线距离数据以及界面显示类型数据;
根据所述界面尺寸数据、视线距离数据以及界面显示类型数据结合所述眼部视界特征数据和脸部活动特征数据进行目标捕捉获取瞬时界面视域数据;
所述瞬时界面视域数据的目标捕捉公式为:
其中,为瞬时界面视域数据,/>为界面尺寸数据,s为视线距离数据,/>为脸部活动特征数据,/>为眼部视界特征数据,/>为界面显示类型系数、/>、/>为特征系数。
可选地,在本发明实施例所述的基于人脸控制的智能滑动控制方法中,所述根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据,包括:
对第二时间段内多个预设时间节点的所述视域范围动态数据和焦点虚拟坐标动态数据进行数据累积;
根据累积的数据与所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据;
所述视域活动数据的计算公式为:
其中,为视域活动数据,N为第二时间段节点数,/>为视域范围动态数据,/>为焦点虚拟坐标动态数据,n为累积节点数,/>为视域动态系数,/>为眼部视界特征数据,为脸部活动特征数据。
可选地,在本发明实施例所述的基于人脸控制的智能滑动控制方法中,所述根据所述视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据,包括:
根据获得的所述第二时间段内的视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据;
所述头部动作活动数据的加权计算公式为:
其中,为头部动作活动数据,/>为视域活动数据,/>为头部摆幅特征数据,为面部姿态特征数据,/>、/>、/>为特征系数。
可选地,在本发明实施例所述的基于人脸控制的智能滑动控制方法中,所述根据所述视域活动数据和头部动作活动数据分别与所述视觉惯态特征阈值以及面部动作惯性特征阈值进行阈值对比,根据对比结果控制视域界面滑动,包括:
根据所述视域活动数据与所述视觉惯态特征阈值进行阈值对比获得第一对比结果;
根据所述头部动作活动数据与所述面部动作惯性特征阈值进行阈值对比获得第二对比结果;
若所述第一对比结果和第二对比结果均满足预设要求,则控制屏幕界面的视域界面执行滑动操控;
若所述第一对比结果或第二对比结果不能同时满足预设要求,则屏幕界面的视域界面不执行滑动,保持原视域界面显示。
第二方面,本发明实施例提供了基于人脸控制的智能滑动控制系统,该系统包括:存储器及处理器,所述存储器中包括基于人脸控制的智能滑动控制方法的程序,所述基于人脸控制的智能滑动控制方法的程序被所述处理器执行时实现以下步骤:
识别人脸面部特征信息并提取形貌特征信息和头部动作特征信息进行人物标识信息识别,所述形貌特征信息包括面容特征数据、五官空间阵列数据以及面部姿态特征数据,所述头部动作特征信息包括头部摆幅特征数据、眼部视界特征数据以及脸部活动特征数据;
根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息;
根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值;
获取视觉目标的界面特征内容信息并结合所述眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据;
根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据;
根据所述视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据;
根据所述视域活动数据和头部动作活动数据分别与所述视觉惯态特征阈值以及面部动作惯性特征阈值进行阈值对比,根据对比结果控制视域界面滑动。
可选地,在本发明实施例所述的基于人脸控制的智能滑动控制系统中,所述根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息,包括:
根据采集的预设时间内多个时间节点的多个面容特征数据、五官空间阵列数据、面部姿态特征数据以及头部摆幅特征数据、眼部视界特征数据、脸部活动特征数据进行动态数据积累融合获得面部容貌动作特征画像;
根据所述面部容貌动作特征画像提取面容习性动态特性信息。
第三方面,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中包括基于人脸控制的智能滑动控制方法程序,所述基于人脸控制的智能滑动控制方法程序被处理器执行时,实现如上述任一项所述的基于人脸控制的智能滑动控制方法的步骤。
由上可知,本发明实施例提供的一种基于人脸控制的智能滑动控制方法、系统和介质通过识别人脸面部特征信息进行人物标识信息识别,根据采集的形貌特征动态信息和头部动作特征动态信息获取面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并获得面部动作惯性特征阈值和视觉惯态特征阈值,根据界面特征内容信息结合眼部视界特征数据和脸部活动特征数据获得瞬时界面视域数据,并结合眼部视界特征数据、脸部活动特征数据以及头部摆幅特征数据、面部姿态特征数据计算处理获得视域活动数据和头部动作活动数据,再经过阈值对比控制视域界面滑动;从而根据形貌特征信息和头部动作特征信息结合界面特征内容信息获得的瞬时界面视域数据进行计算处理获得视域活动数据和头部动作活动数据,与通过获取的容习性动态特性信息提取的面部动作惯性特征阈值和视觉惯态特征阈值进行阈值对比判断控制视域界面滑动,实现通过人脸形貌动作进行数据采集分析判断控制屏幕界面的滑动的人脸控屏的智能手段。
本发明的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明实施例了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本发明实施例提供的基于人脸控制的智能滑动控制方法的流程图;
图2为本发明实施例提供的基于人脸控制的智能滑动控制方法的获取面容习性动态特性信息的流程图;
图3为本发明实施例提供的基于人脸控制的智能滑动控制方法的获得面部动作惯性特征阈值和视觉惯态特征阈值的流程图;
图4为本发明实施例提供的基于人脸控制的智能滑动控制系统的一种结构示意图。
具体实施方式
下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
应注意到,相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参照图1,图1是本发明一些实施例中的基于人脸控制的智能滑动控制方法的流程图。该基于人脸控制的智能滑动控制方法用于终端设备中,例如电脑、操控终端等。该基于人脸控制的智能滑动控制方法,包括以下步骤:
S101、识别人脸面部特征信息并提取形貌特征信息和头部动作特征信息进行人物标识信息识别,所述形貌特征信息包括面容特征数据、五官空间阵列数据以及面部姿态特征数据,所述头部动作特征信息包括头部摆幅特征数据、眼部视界特征数据以及脸部活动特征数据;
S102、根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息;
S103、根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值;
S104、获取视觉目标的界面特征内容信息并结合所述眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据;
S105、根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据;
S106、根据所述视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据;
S107、根据所述视域活动数据和头部动作活动数据分别与所述视觉惯态特征阈值以及面部动作惯性特征阈值进行阈值对比,根据对比结果控制视域界面滑动。
需要说明的是,为实现用户通过头部幅度摆动或眼球视野焦点移动对浏览的屏幕界面内容是否发出滑动翻页的指令动作的判断,以区别出用户做出的动作是阅读习惯性动作、偶尔随意性动作还是符合预设作动要求的滑动翻页指令性动作,需根据采集用户的相貌和动作信息数据进行习惯性动作特征分析处理获得用户个性化动作习惯的特征阈值,再根据一定时间段内用户浏览界面的视野、范围、坐标点移动的捕捉数据结合获得的用户眼部视觉移动和脸部头部活动的数据进行计算处理获得眼球移动的视野活动数据和头部摆动的动作活动数据,与获得的特征阈值进行对比,判断用户的动作属性是否为惯性动作还是指令动作以进行翻页滑动控制,实现通过人脸眼部的形貌动作进行数据采集分析判断控制屏幕界面的滑动的人脸控屏的智能手段技术,具体为:根据识别的人脸面部特征信息并提取形貌特征信息和头部动作特征信息进行人物标识信息识别,即根据提取的用户相貌特征如面容特征、五官特征、脸型姿态特征以及头部面部活动特征如头脸摆动幅度特征、眼部动作视觉特征、脸部肌肉微动特征进行用户生物标识信息识别,再根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息,即根据累积一定时间段内获取的用户相貌特征和头部面部活动特征采集面部头部的习惯性动态特征,反映出头、面、眼的活动习惯信息,再提取出面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值,通过预设面部姿态惯性数据库可获得反映用户的面部动作和眼部动作的惯性特征阈值,反映用户头脸和眼部习惯活动如转眼球、视角晃动、头部摆动、转脸习惯等习惯特征域度值,不同人由于脸眼头的习惯动作不同因此导致特征阈值不同,再根据用户观看视觉目标的屏幕界面特征结合眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据,即根据界面特性信息和眼部视焦和脸部活动捕捉到瞬时界面视觉范围域度的数据,包括视域范围和视焦的虚拟坐标,反映出用户浏览观看界面的视野视焦情况,再根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合眼部面部头部的特征数据进行计算处理获得视域活动数据和头部动作活动数据,即获得在第二时间段内用户观看屏幕界面的眼部眼球移动数据和头部摆动转动的活动数据,该移动数据和活动数据可以是眼部头部左右移动摆动也可以是上下移动摆动,根据移动摆动数据与得到的视觉惯态特征阈值和面部动作惯性特征阈值进行阈值对比,根据对比结果判断用户的动作是阈值内的惯性偶然动作还是滑动翻页的指令动作,以控制屏幕的视域界面进行滑动。
请参照图2,图2是本发明一些实施例中的基于人脸控制的智能滑动控制方法的获取面容习性动态特性信息的流程图。根据本发明实施例,所述根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息,具体为:
S201、根据采集的预设时间内多个时间节点的多个面容特征数据、五官空间阵列数据、面部姿态特征数据以及头部摆幅特征数据、眼部视界特征数据、脸部活动特征数据进行动态数据积累融合获得面部容貌动作特征画像;
S202、根据所述面部容貌动作特征画像提取面容习性动态特性信息。
需要说明的是,为获得脸部眼部头部的习惯性动作特征信息,根据采集在预设时间内多个时间节点的容貌特征、五官特征、脸部姿态特征的数据以及头脸摆动幅度特征、眼部视野转动特征、脸部肌肉微动特征的数据进行动态数据积累合成面部容貌动作特征画像,该特征画像反映出用户的容貌五官和头脸眼的活动状况,再提取出面容习性动态特性信息,即根据累积一定时间段内获取的用户相貌特征和头部面部活动特征采集面部头部的习惯性动态特征信息。
请参照图3,图3是本发明一些实施例中的基于人脸控制的智能滑动控制方法的获得面部动作惯性特征阈值和视觉惯态特征阈值的流程图。根据本发明实施例,所述根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值,具体为:
S301、根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据;
S302、所述面部动作惯性特征数据包括头部微动习惯数据、面部作动习惯数据;
S303、所述视觉惯态特征数据包括眼部转动惯态数据、视觉摆动惯态数据以及视野波动惯态数据;
S304、根据所述面部动作惯性特征数据和视觉惯态特征数据输入预设面部姿态惯性数据库查询分别获得对应面部动作惯性特征阈值和视觉惯态特征阈值。
需要说明的是,根据面容习性动态特性信息提取出面部动作惯性特征数据和视觉惯态特征数据,面部动作惯性特征数据反映头部微动习惯、面部作动习惯,视觉惯态特征数据反映眼部转动习惯状态、视觉摆动习惯状态、视野波动习惯状态,再将面部动作惯性特征数据和视觉惯态特征数据输入预设的面部姿态惯性数据库进行查询获得面部动作惯性特征阈值和视觉惯态特征阈值,通过预设面部姿态惯性数据库可获得反映用户的面部动作和眼部动作的惯性特征阈值,反映用户头脸和眼部习惯活动如转眼球、视角晃动、头部摆动、转脸习惯等习惯状态的特征域度值,不同人由于脸眼头的习惯动作不同因此导致特征阈值不同。
根据本发明实施例,所述获取视觉目标的界面特征内容信息并结合所述眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据,具体为:
获取视觉目标的屏幕界面的界面特征内容信息;
所述界面特征内容信息包括界面尺寸数据、视线距离数据以及界面显示类型数据;
根据所述界面尺寸数据、视线距离数据以及界面显示类型数据结合所述眼部视界特征数据和脸部活动特征数据进行目标捕捉获取瞬时界面视域数据;
所述瞬时界面视域数据的目标捕捉公式为:
其中,为瞬时界面视域数据,/>为界面尺寸数据,s为视线距离数据,/>为脸部活动特征数据,/>为眼部视界特征数据,/>为界面显示类型系数、/>、/>为特征系数(根据预设第三方面部姿态特征数据库进行查询获取)。
需要说明的是,为获取用户浏览观看屏幕界面的视焦范围情况,根据用户观看的屏幕界面特征信息结合眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,其中包括视域范围数据和焦点虚拟坐标数据,即根据界面特性信息包括界面尺寸数据、视线距离数据和界面显示类型数据结合眼部视焦和脸部活动的数据进行计算处理捕捉到瞬时界面视焦范围域度的数据,包括视域范围和视焦的虚拟坐标,反映出用户浏览观看界面的视野视焦情况。
根据本发明实施例,所述根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据,具体为:
对第二时间段内多个预设时间节点的所述视域范围动态数据和焦点虚拟坐标动态数据进行数据累积;
根据累积的数据与所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据;
所述视域活动数据的计算公式为:
其中,为视域活动数据,N为第二时间段节点数,/>为视域范围动态数据,/>为焦点虚拟坐标动态数据,n为累积节点数,/>为视域动态系数,/>为眼部视界特征数据,为脸部活动特征数据。
需要说明的是,为获取用户在一定动作发出时间段内的头部眼部动作活动数据进而判断是否为指令动作,根据第二时间段内多个预设时间节点累积的视域范围动态数据和焦点虚拟坐标动态数据结合眼部头部的活动特征数据进行计算处理获得视域活动数据,即获得在第二时间段内用户观看屏幕界面的眼部眼球移动数据,该移动数据可以是眼部眼球视焦的左右移动也可以是上下移动。
根据本发明实施例,所述根据所述视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据,具体为:
根据获得的所述第二时间段内的视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据;
所述头部动作活动数据的加权计算公式为:
其中,为头部动作活动数据,/>为视域活动数据,/>为头部摆幅特征数据,为面部姿态特征数据,/>、/>、/>为特征系数(根据预设第三方面部姿态特征数据库进行查询获取)。
需要说明的是,根据获得的第二时间段内的视域活动数据结合头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据,即获得在第二时间段内用户观看屏幕界面的头部摆动转动的活动数据,该活动转动数据可以是头部左右摇动摆动也可以是上下摇动摆动。
根据本发明实施例,所述根据所述视域活动数据和头部动作活动数据分别与所述视觉惯态特征阈值以及面部动作惯性特征阈值进行阈值对比,根据对比结果控制视域界面滑动,具体为:
根据所述视域活动数据与所述视觉惯态特征阈值进行阈值对比获得第一对比结果;
根据所述头部动作活动数据与所述面部动作惯性特征阈值进行阈值对比获得第二对比结果;
若所述第一对比结果和第二对比结果均满足预设要求,则控制屏幕界面的视域界面执行滑动操控;
若所述第一对比结果或第二对比结果不能同时满足预设要求,则屏幕界面的视域界面不执行滑动,保持原视域界面显示。
需要说明的是,通过获得的在第二时间段内的视域活动数据和头部动作活动数据分别与视觉惯态特征阈值和面部动作惯性特征阈值进行阈值对比并获得第一对比结果合第二对比结果,若第一对比结果和第二对比结果均满足预设要求,则表面用户在第二时间段内的眼部和头部的移动摆动均超过习惯性动作阈值,为用户控制屏幕视域界面进行滑动翻页的指令性动作,因此响应执行动作指令对界面进行操控,若第一对比结果或第二对比结果不能同时满足预设要求,则表面用户只是发出了眼部或头部的惯性动作,而不触发屏幕视域界面进行滑动翻页,保持原视域界面的显示,屏幕视域界面的滑动翻页根据用户的指令动作方向进行执行,即根据用户的头部眼部向左或右或上或下进行相应方向的滑动,实现根据头部眼部动作进行习惯性或指令性动作的数据采集分析判断执行控制屏幕界面的滑动的人脸控屏的智能技术。
根据本发明实施例,还包括:
根据所述视域活动数据提取视焦移动速率数据,根据所述头部动作活动数据提取面部转动角加速度数据;
根据所述视焦移动速率数据和面部转动角加速数据结合所述视域范围数据和焦点虚拟坐标数据计算获得界面视域移动数据;
根据所述界面视域移动数据控制视野对象界面进行左右或上下移动。
需要说明的是,为提高用户的良好应用体验实现根据用户眼部和头部的移动转动速度幅度情况进行相应屏幕界面的页面滑动或翻滚,使界面翻页滑动操作更符合用户的浏览阅读动作习惯,根据用户的视域活动数据提取眼部视焦移动速率数据,根据头部动作活动数据提取面部转动的角加速度数据,再结合视域范围数据和焦点虚拟坐标数据计算获得界面视域移动数据,再根据界面视域移动数据控制屏幕视野对象的界面进行相应的左右或上下移动;
其中,所述界面视域移动数据的计算公式为:
其中,为界面视域移动数据,/>为视焦移动速率数据,/>为面部转动角加速度数据,/>为视域范围数据,/>为焦点虚拟坐标数据,/>为视域系数,/>、/>为特征系数。
如图4所示,本发明还公开了一种基于人脸控制的智能滑动控制系统,包括存储器41和处理器42,所述存储器中包括基于人脸控制的智能滑动控制方法程序,所述基于人脸控制的智能滑动控制方法程序被所述处理器执行时实现如下步骤:
识别人脸面部特征信息并提取形貌特征信息和头部动作特征信息进行人物标识信息识别,所述形貌特征信息包括面容特征数据、五官空间阵列数据以及面部姿态特征数据,所述头部动作特征信息包括头部摆幅特征数据、眼部视界特征数据以及脸部活动特征数据;
根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息;
根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值;
获取视觉目标的界面特征内容信息并结合所述眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据;
根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据;
根据所述视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据;
根据所述视域活动数据和头部动作活动数据分别与所述视觉惯态特征阈值以及面部动作惯性特征阈值进行阈值对比,根据对比结果控制视域界面滑动。
需要说明的是,为实现用户通过头部幅度摆动或眼球视野焦点移动对浏览的屏幕界面内容是否发出滑动翻页的指令动作的判断,以区别出用户做出的动作是阅读习惯性动作、偶尔随意性动作还是符合预设作动要求的滑动翻页指令性动作,需根据采集用户的相貌和动作信息数据进行习惯性动作特征分析处理获得用户个性化动作习惯的特征阈值,再根据一定时间段内用户浏览界面的视野、范围、坐标点移动的捕捉数据结合获得的用户眼部视觉移动和脸部头部活动的数据进行计算处理获得眼球移动的视野活动数据和头部摆动的动作活动数据,与获得的特征阈值进行对比,判断用户的动作属性是否为惯性动作还是指令动作以进行翻页滑动控制,实现通过人脸眼部的形貌动作进行数据采集分析判断控制屏幕界面的滑动的人脸控屏的智能手段技术,具体为:根据识别的人脸面部特征信息并提取形貌特征信息和头部动作特征信息进行人物标识信息识别,即根据提取的用户相貌特征如面容特征、五官特征、脸型姿态特征以及头部面部活动特征如头脸摆动幅度特征、眼部动作视觉特征、脸部肌肉微动特征进行用户生物标识信息识别,再根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息,即根据累积一定时间段内获取的用户相貌特征和头部面部活动特征采集面部头部的习惯性动态特征,反映出头、面、眼的活动习惯信息,再提取出面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值,通过预设面部姿态惯性数据库可获得反映用户的面部动作和眼部动作的惯性特征阈值,反映用户头脸和眼部习惯活动如转眼球、视角晃动、头部摆动、转脸习惯等习惯特征域度值,不同人由于脸眼头的习惯动作不同因此导致特征阈值不同,再根据用户观看视觉目标的屏幕界面特征结合眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据,即根据界面特性信息和眼部视焦和脸部活动捕捉到瞬时界面视觉范围域度的数据,包括视域范围和视焦的虚拟坐标,反映出用户浏览观看界面的视野视焦情况,再根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合眼部面部头部的特征数据进行计算处理获得视域活动数据和头部动作活动数据,即获得在第二时间段内用户观看屏幕界面的眼部眼球移动数据和头部摆动转动的活动数据,该移动数据和活动数据可以是眼部头部左右移动摆动也可以是上下移动摆动,根据移动摆动数据与得到的视觉惯态特征阈值和面部动作惯性特征阈值进行阈值对比,根据对比结果判断用户的动作是阈值内的惯性偶然动作还是滑动翻页的指令动作,以控制屏幕的视域界面进行滑动。
根据本发明实施例,所述根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息,具体为:
根据采集的预设时间内多个时间节点的多个面容特征数据、五官空间阵列数据、面部姿态特征数据以及头部摆幅特征数据、眼部视界特征数据、脸部活动特征数据进行动态数据积累融合获得面部容貌动作特征画像;
根据所述面部容貌动作特征画像提取面容习性动态特性信息。
需要说明的是,为获得脸部眼部头部的习惯性动作特征信息,根据采集在预设时间内多个时间节点的容貌特征、五官特征、脸部姿态特征的数据以及头脸摆动幅度特征、眼部视野转动特征、脸部肌肉微动特征的数据进行动态数据积累合成面部容貌动作特征画像,该特征画像反映出用户的容貌五官和头脸眼的活动状况,再提取出面容习性动态特性信息,即根据累积一定时间段内获取的用户相貌特征和头部面部活动特征采集面部头部的习惯性动态特征信息。
根据本发明实施例,所述根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值,具体为:
根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据;
所述面部动作惯性特征数据包括头部微动习惯数据、面部作动习惯数据;
所述视觉惯态特征数据包括眼部转动惯态数据、视觉摆动惯态数据以及视野波动惯态数据;
根据所述面部动作惯性特征数据和视觉惯态特征数据输入预设面部姿态惯性数据库查询分别获得对应面部动作惯性特征阈值和视觉惯态特征阈值。
需要说明的是,根据面容习性动态特性信息提取出面部动作惯性特征数据和视觉惯态特征数据,面部动作惯性特征数据反映头部微动习惯、面部作动习惯,视觉惯态特征数据反映眼部转动习惯状态、视觉摆动习惯状态、视野波动习惯状态,再将面部动作惯性特征数据和视觉惯态特征数据输入预设的面部姿态惯性数据库进行查询获得面部动作惯性特征阈值和视觉惯态特征阈值,通过预设面部姿态惯性数据库可获得反映用户的面部动作和眼部动作的惯性特征阈值,反映用户头脸和眼部习惯活动如转眼球、视角晃动、头部摆动、转脸习惯等习惯状态的特征域度值,不同人由于脸眼头的习惯动作不同因此导致特征阈值不同。
根据本发明实施例,所述获取视觉目标的界面特征内容信息并结合所述眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据,具体为:
获取视觉目标的屏幕界面的界面特征内容信息;
所述界面特征内容信息包括界面尺寸数据、视线距离数据以及界面显示类型数据;
根据所述界面尺寸数据、视线距离数据以及界面显示类型数据结合所述眼部视界特征数据和脸部活动特征数据进行目标捕捉获取瞬时界面视域数据;
所述瞬时界面视域数据的目标捕捉公式为:
其中,为瞬时界面视域数据,/>为界面尺寸数据,s为视线距离数据,/>为脸部活动特征数据,/>为眼部视界特征数据,/>为界面显示类型系数、/>、/>为特征系数(根据预设第三方面部姿态特征数据库进行查询获取)。
需要说明的是,为获取用户浏览观看屏幕界面的视焦范围情况,根据用户观看的屏幕界面特征信息结合眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,其中包括视域范围数据和焦点虚拟坐标数据,即根据界面特性信息包括界面尺寸数据、视线距离数据和界面显示类型数据结合眼部视焦和脸部活动的数据进行计算处理捕捉到瞬时界面视焦范围域度的数据,包括视域范围和视焦的虚拟坐标,反映出用户浏览观看界面的视野视焦情况。
根据本发明实施例,所述根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据,具体为:
对第二时间段内多个预设时间节点的所述视域范围动态数据和焦点虚拟坐标动态数据进行数据累积;
根据累积的数据与所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据;
所述视域活动数据的计算公式为:
其中,为视域活动数据,N为第二时间段节点数,/>为视域范围动态数据,/>为焦点虚拟坐标动态数据,n为累积节点数,/>为视域动态系数,/>为眼部视界特征数据,为脸部活动特征数据。
需要说明的是,为获取用户在一定动作发出时间段内的头部眼部动作活动数据进而判断是否为指令动作,根据第二时间段内多个预设时间节点累积的视域范围动态数据和焦点虚拟坐标动态数据结合眼部头部的活动特征数据进行计算处理获得视域活动数据,即获得在第二时间段内用户观看屏幕界面的眼部眼球移动数据,该移动数据可以是眼部眼球视焦的左右移动也可以是上下移动。
根据本发明实施例,所述根据所述视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据,具体为:
根据获得的所述第二时间段内的视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据;
所述头部动作活动数据的加权计算公式为:
其中,为头部动作活动数据,/>为视域活动数据,/>为头部摆幅特征数据,为面部姿态特征数据,/>、/>、/>为特征系数(根据预设第三方面部姿态特征数据库进行查询获取)。
需要说明的是,根据获得的第二时间段内的视域活动数据结合头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据,即获得在第二时间段内用户观看屏幕界面的头部摆动转动的活动数据,该活动转动数据可以是头部左右摇动摆动也可以是上下摇动摆动。
根据本发明实施例,所述根据所述视域活动数据和头部动作活动数据分别与所述视觉惯态特征阈值以及面部动作惯性特征阈值进行阈值对比,根据对比结果控制视域界面滑动,具体为:
根据所述视域活动数据与所述视觉惯态特征阈值进行阈值对比获得第一对比结果;
根据所述头部动作活动数据与所述面部动作惯性特征阈值进行阈值对比获得第二对比结果;
若所述第一对比结果和第二对比结果均满足预设要求,则控制屏幕界面的视域界面执行滑动操控;
若所述第一对比结果或第二对比结果不能同时满足预设要求,则屏幕界面的视域界面不执行滑动,保持原视域界面显示。
需要说明的是,通过获得的在第二时间段内的视域活动数据和头部动作活动数据分别与视觉惯态特征阈值和面部动作惯性特征阈值进行阈值对比并获得第一对比结果合第二对比结果,若第一对比结果和第二对比结果均满足预设要求,则表面用户在第二时间段内的眼部和头部的移动摆动均超过习惯性动作阈值,为用户控制屏幕视域界面进行滑动翻页的指令性动作,因此响应执行动作指令对界面进行操控,若第一对比结果或第二对比结果不能同时满足预设要求,则表面用户只是发出了眼部或头部的惯性动作,而不触发屏幕视域界面进行滑动翻页,保持原视域界面的显示,屏幕视域界面的滑动翻页根据用户的指令动作方向进行执行,即根据用户的头部眼部向左或右或上或下进行相应方向的滑动,实现根据头部眼部动作进行习惯性或指令性动作的数据采集分析判断执行控制屏幕界面的滑动的人脸控屏的智能技术。
根据本发明实施例,还包括:
根据所述视域活动数据提取视焦移动速率数据,根据所述头部动作活动数据提取面部转动角加速度数据;
根据所述视焦移动速率数据和面部转动角加速数据结合所述视域范围数据和焦点虚拟坐标数据计算获得界面视域移动数据;
根据所述界面视域移动数据控制视野对象界面进行左右或上下移动。
需要说明的是,为提高用户的良好应用体验实现根据用户眼部和头部的移动转动速度幅度情况进行相应屏幕界面的页面滑动或翻滚,使界面翻页滑动操作更符合用户的浏览阅读动作习惯,根据用户的视域活动数据提取眼部视焦移动速率数据,根据头部动作活动数据提取面部转动的角加速度数据,再结合视域范围数据和焦点虚拟坐标数据计算获得界面视域移动数据,再根据界面视域移动数据控制屏幕视野对象的界面进行相应的左右或上下移动;
其中,所述界面视域移动数据的计算公式为:
其中,为界面视域移动数据,/>为视焦移动速率数据,/>为面部转动角加速度数据,/>为视域范围数据,/>为焦点虚拟坐标数据,/>为视域系数,/>、/>为特征系数。
本发明第三方面提供了一种可读存储介质,所述可读存储介质中包括基于人脸控制的智能滑动控制方法程序,所述基于人脸控制的智能滑动控制方法程序被处理器执行时,实现如上述任一项所述的基于人脸控制的智能滑动控制方法的步骤。
本发明公开的一种基于人脸控制的智能滑动控制方法、系统和介质,通过识别人脸面部特征信息进行人物标识信息识别,根据采集的形貌特征动态信息和头部动作特征动态信息获取面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并获得面部动作惯性特征阈值和视觉惯态特征阈值,根据界面特征内容信息结合眼部视界特征数据和脸部活动特征数据获得瞬时界面视域数据,并结合眼部视界特征数据、脸部活动特征数据以及头部摆幅特征数据、面部姿态特征数据计算处理获得视域活动数据和头部动作活动数据,再经过阈值对比控制视域界面滑动;从而根据形貌特征信息和头部动作特征信息结合界面特征内容信息获得的瞬时界面视域数据进行计算处理获得视域活动数据和头部动作活动数据,与通过获取的容习性动态特性信息提取的面部动作惯性特征阈值和视觉惯态特征阈值进行阈值对比判断控制视域界面滑动,实现通过人脸形貌动作进行数据采集分析判断控制屏幕界面的滑动的人脸控屏的智能手段。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (10)

1.一种基于人脸控制的智能滑动控制方法,其特征在于,包括以下步骤:
识别人脸面部特征信息并提取形貌特征信息和头部动作特征信息进行人物标识信息识别,所述形貌特征信息包括面容特征数据、五官空间阵列数据以及面部姿态特征数据,所述头部动作特征信息包括头部摆幅特征数据、眼部视界特征数据以及脸部活动特征数据;
根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息;
根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值;
获取视觉目标的界面特征内容信息并结合所述眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据;
根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据;
根据所述视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据;
根据所述视域活动数据和头部动作活动数据分别与所述视觉惯态特征阈值以及面部动作惯性特征阈值进行阈值对比,根据对比结果控制视域界面滑动。
2.根据权利要求1所述的基于人脸控制的智能滑动控制方法,其特征在于,所述根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息,包括:
根据采集的预设时间内多个时间节点的多个面容特征数据、五官空间阵列数据、面部姿态特征数据以及头部摆幅特征数据、眼部视界特征数据、脸部活动特征数据进行动态数据积累融合获得面部容貌动作特征画像;
根据所述面部容貌动作特征画像提取面容习性动态特性信息。
3.根据权利要求2所述的基于人脸控制的智能滑动控制方法,其特征在于,所述根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值,包括:
根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据;
所述面部动作惯性特征数据包括头部微动习惯数据、面部作动习惯数据;
所述视觉惯态特征数据包括眼部转动惯态数据、视觉摆动惯态数据以及视野波动惯态数据;
根据所述面部动作惯性特征数据和视觉惯态特征数据输入预设面部姿态惯性数据库查询分别获得对应面部动作惯性特征阈值和视觉惯态特征阈值。
4.根据权利要求3所述的基于人脸控制的智能滑动控制方法,其特征在于,所述获取视觉目标的界面特征内容信息并结合所述眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据,包括:
获取视觉目标的屏幕界面的界面特征内容信息;
所述界面特征内容信息包括界面尺寸数据、视线距离数据以及界面显示类型数据;
根据所述界面尺寸数据、视线距离数据以及界面显示类型数据结合所述眼部视界特征数据和脸部活动特征数据进行目标捕捉获取瞬时界面视域数据;
所述瞬时界面视域数据的目标捕捉公式为:
其中,为瞬时界面视域数据,/>为界面尺寸数据,s为视线距离数据,/>为脸部活动特征数据,/>为眼部视界特征数据,/>为界面显示类型系数、/>、/>为特征系数。
5.根据权利要求4所述的基于人脸控制的智能滑动控制方法,其特征在于,所述根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据,包括:
对第二时间段内多个预设时间节点的所述视域范围动态数据和焦点虚拟坐标动态数据进行数据累积;
根据累积的数据与所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据;
所述视域活动数据的计算公式为:
其中,为视域活动数据,N为第二时间段节点数,/>为视域范围动态数据,/>为焦点虚拟坐标动态数据,n为累积节点数,/>为视域动态系数,/>为眼部视界特征数据,/>为脸部活动特征数据。
6.根据权利要求5所述的基于人脸控制的智能滑动控制方法,其特征在于,所述根据所述视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据,包括:
根据获得的所述第二时间段内的视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据;
所述头部动作活动数据的加权计算公式为:
其中,为头部动作活动数据,/>为视域活动数据,/>为头部摆幅特征数据,/>为面部姿态特征数据,/>、/>、/>为特征系数。
7.根据权利要求6所述的基于人脸控制的智能滑动控制方法,其特征在于,所述根据所述视域活动数据和头部动作活动数据分别与所述视觉惯态特征阈值以及面部动作惯性特征阈值进行阈值对比,根据对比结果控制视域界面滑动,包括:
根据所述视域活动数据与所述视觉惯态特征阈值进行阈值对比获得第一对比结果;
根据所述头部动作活动数据与所述面部动作惯性特征阈值进行阈值对比获得第二对比结果;
若所述第一对比结果和第二对比结果均满足预设要求,则控制屏幕界面的视域界面执行滑动操控;
若所述第一对比结果或第二对比结果不能同时满足预设要求,则屏幕界面的视域界面不执行滑动,保持原视域界面显示。
8.一种基于人脸控制的智能滑动控制系统,其特征在于,该系统包括:存储器及处理器,所述存储器中包括基于人脸控制的智能滑动控制方法的程序,所述基于人脸控制的智能滑动控制方法的程序被所述处理器执行时实现以下步骤:
识别人脸面部特征信息并提取形貌特征信息和头部动作特征信息进行人物标识信息识别,所述形貌特征信息包括面容特征数据、五官空间阵列数据以及面部姿态特征数据,所述头部动作特征信息包括头部摆幅特征数据、眼部视界特征数据以及脸部活动特征数据;
根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息;
根据所述面容习性动态特性信息提取面部动作惯性特征数据和视觉惯态特征数据并输入面部姿态惯性数据库获得面部动作惯性特征阈值和视觉惯态特征阈值;
获取视觉目标的界面特征内容信息并结合所述眼部视界特征数据和脸部活动特征数据捕捉提取获得瞬时界面视域数据,包括视域范围数据和焦点虚拟坐标数据;
根据第二时间段内累积获取的视域范围动态数据和焦点虚拟坐标动态数据结合所述眼部视界特征数据和脸部活动特征数据进行计算处理获得视域活动数据;
根据所述视域活动数据结合所述头部摆幅特征数据和面部姿态特征数据进行加权计算获得头部动作活动数据;
根据所述视域活动数据和头部动作活动数据分别与所述视觉惯态特征阈值以及面部动作惯性特征阈值进行阈值对比,根据对比结果控制视域界面滑动。
9.根据权利要求8所述的基于人脸控制的智能滑动控制系统,其特征在于,所述根据采集的预设时间内的形貌特征动态信息和头部动作特征动态信息进行动态特征积加获取面容习性动态特性信息,包括:
根据采集的预设时间内多个时间节点的多个面容特征数据、五官空间阵列数据、面部姿态特征数据以及头部摆幅特征数据、眼部视界特征数据、脸部活动特征数据进行动态数据积累融合获得面部容貌动作特征画像;
根据所述面部容貌动作特征画像提取面容习性动态特性信息。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括基于人脸控制的智能滑动控制方法程序,所述基于人脸控制的智能滑动控制方法程序被处理器执行时,实现如权利要求1至7中任一项所述的基于人脸控制的智能滑动控制方法的步骤。
CN202211474101.3A 2022-11-23 2022-11-23 一种基于人脸控制的智能滑动控制方法、系统和存储介质 Active CN115933874B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211474101.3A CN115933874B (zh) 2022-11-23 2022-11-23 一种基于人脸控制的智能滑动控制方法、系统和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211474101.3A CN115933874B (zh) 2022-11-23 2022-11-23 一种基于人脸控制的智能滑动控制方法、系统和存储介质

Publications (2)

Publication Number Publication Date
CN115933874A CN115933874A (zh) 2023-04-07
CN115933874B true CN115933874B (zh) 2023-08-29

Family

ID=86551406

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211474101.3A Active CN115933874B (zh) 2022-11-23 2022-11-23 一种基于人脸控制的智能滑动控制方法、系统和存储介质

Country Status (1)

Country Link
CN (1) CN115933874B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018059552A1 (zh) * 2016-09-30 2018-04-05 中兴通讯股份有限公司 屏幕显示控制方法、装置及移动终端和计算机存储介质
CN109584285A (zh) * 2017-09-29 2019-04-05 上海中兴软件有限责任公司 一种显示内容的控制方法、装置及计算机可读介质
CN110231871A (zh) * 2019-06-14 2019-09-13 腾讯科技(深圳)有限公司 页面阅读方法、装置、存储介质及电子设备
CN112099634A (zh) * 2020-09-17 2020-12-18 珠海格力电器股份有限公司 基于头部动作的交互操作方法、装置、存储介质及终端
WO2021232827A1 (zh) * 2020-05-22 2021-11-25 北京百度网讯科技有限公司 一种控制视频播放的方法、装置、电子设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018059552A1 (zh) * 2016-09-30 2018-04-05 中兴通讯股份有限公司 屏幕显示控制方法、装置及移动终端和计算机存储介质
CN109584285A (zh) * 2017-09-29 2019-04-05 上海中兴软件有限责任公司 一种显示内容的控制方法、装置及计算机可读介质
CN110231871A (zh) * 2019-06-14 2019-09-13 腾讯科技(深圳)有限公司 页面阅读方法、装置、存储介质及电子设备
WO2021232827A1 (zh) * 2020-05-22 2021-11-25 北京百度网讯科技有限公司 一种控制视频播放的方法、装置、电子设备及存储介质
CN112099634A (zh) * 2020-09-17 2020-12-18 珠海格力电器股份有限公司 基于头部动作的交互操作方法、装置、存储介质及终端

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Multiple Screen Control Application with Facial and Gesture Recognitions in a Manufacturing Control Room;Zhengjin Guo, et al;2020 15th IEEE Conference on Industrial Electronics and Applications (ICIEA);全文 *

Also Published As

Publication number Publication date
CN115933874A (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
KR102292537B1 (ko) 이미지 처리 방법 및 장치, 및 저장 매체
CN104331168B (zh) 显示调整方法和电子设备
CN103336576B (zh) 一种基于眼动追踪进行浏览器操作的方法及装置
US8022948B2 (en) Image capture and buffering in a virtual world using situational measurement averages
US8026913B2 (en) Image capture and buffering in a virtual world
CN103703438B (zh) 基于注视的内容显示器
EP3519926A1 (en) Method and system for gesture-based interactions
CN111580652B (zh) 视频播放的控制方法、装置、增强现实设备及存储介质
CN108712603B (zh) 一种图像处理方法及移动终端
CN107493495A (zh) 交互位置确定方法、系统、存储介质和智能终端
CN116051115A (zh) 一种刷脸支付提示方法、装置及设备
CN111898407B (zh) 一种基于人脸动作识别的人机交互操作系统
CN108090463B (zh) 对象控制方法、装置、存储介质和计算机设备
CN111527468A (zh) 一种隔空交互方法、装置和设备
CN110245250A (zh) 图像处理方法及相关装置
CN108664887A (zh) 一种虚拟现实体验中的摔倒预警装置和方法
CN105468249B (zh) 智能互动系统及其控制方法
CN109711287A (zh) 人脸采集方法及相关产品
CN115933874B (zh) 一种基于人脸控制的智能滑动控制方法、系统和存储介质
CN110069126A (zh) 虚拟对象的控制方法和装置
CN111723636B (zh) 利用视动反应的欺骗检测
CN107544660B (zh) 一种信息处理方法及电子设备
CN113986105A (zh) 人脸图像的变形方法、装置、电子设备及存储介质
CN112416126A (zh) 页面滚动控制方法和装置、存储介质及电子设备
CN111651054A (zh) 音效控制方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant