CN115082971B - 一种读取触摸数据信息实现影像轨迹跟踪的方法 - Google Patents

一种读取触摸数据信息实现影像轨迹跟踪的方法 Download PDF

Info

Publication number
CN115082971B
CN115082971B CN202210859896.3A CN202210859896A CN115082971B CN 115082971 B CN115082971 B CN 115082971B CN 202210859896 A CN202210859896 A CN 202210859896A CN 115082971 B CN115082971 B CN 115082971B
Authority
CN
China
Prior art keywords
fingerprint
image
data information
information
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210859896.3A
Other languages
English (en)
Other versions
CN115082971A (zh
Inventor
李子敬
刘振弘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Bifan Entertainment Technology Co ltd
Original Assignee
Shenzhen Bifan Entertainment Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Bifan Entertainment Technology Co ltd filed Critical Shenzhen Bifan Entertainment Technology Co ltd
Priority to CN202210859896.3A priority Critical patent/CN115082971B/zh
Publication of CN115082971A publication Critical patent/CN115082971A/zh
Application granted granted Critical
Publication of CN115082971B publication Critical patent/CN115082971B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/6045Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开一种读取触摸数据信息实现影像轨迹跟踪的方法,涉及数据识别、数据处理技术领域,解决的技术问题是影像轨迹跟踪,采用的方法包括步骤1:采集用户指纹数据信息,并对采集到的用户指纹数据信息进行分解;步骤2:将采集到的用户指纹数据信息输入到匹配模型;步骤3:通过轨迹跟踪控制器控制用户指纹数据信息匹配程度,并根据用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息配对影像轨迹;步骤4:通过评估模型对影像轨迹跟踪结果进行评价;本发明能够根据手势动作和特点评估影像轨迹跟踪路径,自动化高,容易评估。

Description

一种读取触摸数据信息实现影像轨迹跟踪的方法
技术领域
本发明涉及数据识别、数据处理技术领域,且更具体地涉及一种读取触摸数据信息实现影像轨迹跟踪的方法。
背景技术
随着电子技术的飞速发展,触摸屏越来越多地应用到各种场合,触摸屏在运行过程中,大部分通过用户手动触摸,通过触摸,显示屏能够显示不同的画面。在游戏中,表现尤其突出。比如用户手势表现出不同的方式,显示屏就会显示不同的界面和画面。在一种示例中,比如通过读取触摸数据信息,手势会显示不同的动作,根据动作显示不同,进而实现不同的表现界面。
在实际应用中,存在以下技术弊端:
(1)用户无法根据手势动作和特点评估影像轨迹跟踪路径;
(2)用户难以通过手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度预估影像轨迹;
(3)应用自动化差,评估难度大。
发明内容
针对上述技术的不足,本发明公开一种读取触摸数据信息实现影像轨迹跟踪的方法,能够根据手势动作和特点评估影像轨迹跟踪路径,能够通过手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度预估影像轨迹,自动化高,容易评估。
本发明采用以下技术方案:
一种读取触摸数据信息实现影像轨迹跟踪的方法,其中包括以下步骤:
步骤1:采集用户指纹数据信息,并对采集到的用户指纹数据信息进行分解,分解内容为用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度;
步骤2:将采集到的用户指纹数据信息输入到匹配模型,匹配模型通过分析用户指纹数据信息输出不同的影像轨迹信息;并将匹配的用户指纹数据信息存储;
步骤3:通过轨迹跟踪控制器控制用户指纹数据信息匹配程度,并根据用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息配对影像轨迹;
步骤4:通过评估模型对影像轨迹跟踪结果进行评价,当评价合格,影像跟踪活动结束,当评价不合格,当继续进行影像跟踪活动。
作为本发明进一步的技术方案,通过指纹采集器采集用户指纹数据信息。
作为本发明进一步的技术方案,指纹采集器包括主控模块和所述主控模块连接的手势识别模块、指纹辨识模块、特征提取模块和特征数据库;
其中主控模块为ARM+DSP双核处理器;
所述手势识别模块用于识别用户的手势信息以及手指触摸的运行方向;
指纹辨识模块用于识别用户指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度、指纹显示程度、手势信息以及手指触摸的运行方向信息特征;
特征提取模块用于提取指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息;
特征数据库用于存储不同形态的手指数据信息。
作为本发明进一步的技术方案,匹配模型在进行指纹匹配时,通过以下方法进行:
(S1)录入指纹图像数据信息,对获取的原始指纹图像进行处理,处理内容包括指纹图像分割、指纹图像增强、二值化、细化和细节点提取;
(S2)对指纹的细节特征进行提取,分析提取指纹的具体数据信息;
(S3)将提取的数据信息与指纹模板数据库进行匹配;
(S4)影像轨迹判断,当输入的数据信息与模板匹配数据库信息一致时,则输出与模板匹配数据库信息一致的信息,当输入的数据信息与模板匹配数据库信息不一致时,则不输出数据信息。
作为本发明进一步的技术方案,指纹信息增强的方法为:
假设指纹图像的灰度等级为
Figure 916885DEST_PATH_IMAGE001
,对指纹图像的灰度等排序为
Figure 856153DEST_PATH_IMAGE002
则该指纹图 像的概率密度函数
Figure 369174DEST_PATH_IMAGE003
表示为:
Figure 626849DEST_PATH_IMAGE004
(1)
公式(1)中,
Figure 883518DEST_PATH_IMAGE005
为灰度等级序号,
Figure 926560DEST_PATH_IMAGE006
为该灰度等级下的像素数量,
Figure 361215DEST_PATH_IMAGE007
为该指纹图像 的像素总量;指纹图像的概率密度函数为:
Figure 388077DEST_PATH_IMAGE008
(2)
公式(2)中,
Figure 182858DEST_PATH_IMAGE009
为设定的阈值,当
Figure 595253DEST_PATH_IMAGE010
时,
Figure 184497DEST_PATH_IMAGE011
不变;当
Figure 918229DEST_PATH_IMAGE012
时,
Figure 516701DEST_PATH_IMAGE013
为设置的阈值
Figure 268756DEST_PATH_IMAGE014
;采用平台直方图均衡化对指纹图像进行处理完成后的输出结果为:
Figure 809328DEST_PATH_IMAGE015
(3)
公式(3)中,
Figure 14044DEST_PATH_IMAGE016
为增强后的灰度等级序号,
Figure 681786DEST_PATH_IMAGE017
为向下取整运算符号。
作为本发明进一步的技术方案,轨迹跟踪控制器为基于高斯混合模型算法的控制器,方法为:
首先选定当前指纹目标数据信息,通过卡尔曼滤波器预测当前指纹数据信息的目标质心,预测用户指纹行为方向,通过欧式距离计算目标数据信息和理论数据信息之间的距离,将计算出的距离与模板数据信息进行对比,通过匈牙利匹配算法做数据的关联性,得到最优的影像轨迹运动路径,最终实现影像轨迹跟踪。
作为本发明进一步的技术方案,评估模型通过以下方法实现指纹数据信息跟踪评估:
步骤一:假设其输出的指纹数据信息分别为离散值,记作为
Figure 304660DEST_PATH_IMAGE018
Figure 235706DEST_PATH_IMAGE019
为个 数,
Figure 708145DEST_PATH_IMAGE020
表示离散值,
Figure 648419DEST_PATH_IMAGE021
为对影像轨迹跟踪评估时,对不同指纹数据信息进行采样的周期间 隔,假设评估输出影像轨迹跟踪数据信息的周期间隔为1秒,则影像轨迹跟踪评估参数通过 小波变换的方式实现数据的转换和计算;通过初始指纹数据序列获取的影像轨迹跟踪数据 序列记作为:
Figure 375067DEST_PATH_IMAGE022
(4)
在公式(4)中,
Figure 758906DEST_PATH_IMAGE023
为任意时间下指纹数据信息;
步骤二:数据特征提取,经过间隔为1秒的时间时段后,通过指纹数据特征抽取,获取的影像轨迹跟踪数据序列可以记作为:
Figure 203794DEST_PATH_IMAGE024
(5)
在公式(5)中,将待评估的影像轨迹跟踪数据进行累加之后,评估函数记作为:
Figure 931447DEST_PATH_IMAGE025
(6)
在公式(6)中,
Figure 778180DEST_PATH_IMAGE026
Figure 582188DEST_PATH_IMAGE027
表示评估函数标识;为了对其任意指纹数据信息参 数值进行求解,需要采用微分方程进行求解,以计算不同时间下的指纹数据信息采集方程;
Figure 745665DEST_PATH_IMAGE028
(7)
在公式(7)中
Figure 293321DEST_PATH_IMAGE029
表示影响指纹输入的外界参数,
Figure 994561DEST_PATH_IMAGE030
表示采集信息输出值,构建矩阵 方程进行求解,则有:
Figure 218737DEST_PATH_IMAGE031
(8)
公式(8)中,
Figure 107059DEST_PATH_IMAGE032
Figure 943559DEST_PATH_IMAGE033
分别表示用户随心所欲下影像轨迹跟踪的类型,
Figure 499305DEST_PATH_IMAGE034
为一种类 型下的影像轨迹跟踪矩阵,
Figure 645116DEST_PATH_IMAGE035
为用户随心所欲下影像轨迹跟踪的另一种数据类型的影像轨 迹跟踪数据矩阵,
Figure 535580DEST_PATH_IMAGE036
表示影像轨迹跟踪评估影响因子。
步骤三:对公式(9)中的函数通过累加生成序列公式,可以有:
Figure 425039DEST_PATH_IMAGE037
(9)
公式(9)中,
Figure 835292DEST_PATH_IMAGE038
表示累加次数;反映影像轨迹跟踪不同参数的数据信息可以记作为:
Figure 902736DEST_PATH_IMAGE039
(10)
公式(10)中,
Figure 31229DEST_PATH_IMAGE040
表示参数类型;
Figure 708067DEST_PATH_IMAGE041
(11)
在公式(11)中,
Figure 238405DEST_PATH_IMAGE042
表示影像轨迹参数函数;
则获取的影像轨迹跟踪预测模型记作为:
Figure 460439DEST_PATH_IMAGE043
(12)
在公式(12)中,
Figure 826961DEST_PATH_IMAGE044
表示影像轨迹参数影响量;
步骤四:输出的估计值为:
Figure 58222DEST_PATH_IMAGE045
(13)
其中
Figure 426755DEST_PATH_IMAGE046
本发明积极有益效果在于:
本发明能够根据手势动作和特点评估影像轨迹跟踪路径,能够通过手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度预估影像轨迹,自动化高,容易评估。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图,其中:
图1为本发明流程示意图;
图2为发明中匹配模型工作示意图;
图3为发明中指纹增强实施例示意图;
图4为发明中评估模型流程示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的实施例仅用于说明和解释本发明,并不用于限定本发明。
一种读取触摸数据信息实现影像轨迹跟踪的方法,包括以下步骤:
步骤1:采集用户指纹数据信息,并对采集到的用户指纹数据信息进行分解,分解内容为用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度;
步骤2:将采集到的用户指纹数据信息输入到匹配模型,匹配模型通过分析用户指纹数据信息输出不同的影像轨迹信息;并将匹配的用户指纹数据信息存储;
步骤3:通过轨迹跟踪控制器控制用户指纹数据信息匹配程度,并根据用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息配对影像轨迹;
步骤4:通过评估模型对影像轨迹跟踪结果进行评价,当评价合格,影像跟踪活动结束,当评价不合格,当继续进行影像跟踪活动。
在上述实施例中,通过指纹采集器采集用户指纹数据信息。
在上述实施例中,指纹采集器包括主控模块和所述主控模块连接的手势识别模块、指纹辨识模块、特征提取模块和特征数据库;
其中主控模块为ARM+DSP双核处理器;
所述手势识别模块用于识别用户的手势信息以及手指触摸的运行方向;
指纹辨识模块用于识别用户指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度、指纹显示程度、手势信息以及手指触摸的运行方向信息特征;
特征提取模块用于提取指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息;
特征数据库用于存储不同形态的手指数据信息;
在具体实施例中,指纹采集器通过获取原始指纹图像的数据信息,并对用户指纹数据信息进行优化,通过提取信息特征值进而输出不同的数据信息。所采集到的指纹图像信息一般在14K左右,优化指纹图像在9800字节左右,所采集到的指纹数据信息特征值分二种, 一般普通的是256字节,特殊应用压缩后可以达到:196字节,如果要存于PC机的数据库中,一般用字符串。
在具体实施例中,采用了ARM+DSP技术的双控方式。通过STC12C4A60S单片机对用户指纹数据信息的运行状态进行控制,该主控芯片通过STM32控制器完成,在结构上,通过连接ZigBee协调模块和WIFI通讯模块实现数据信息的传递,其中STM32控制器还设计了基于ARM32位的CortexTM-M3 CPU,该模块实现指纹数据信息数据信息的计算与应用。在具体设计中,在控制器上设置12通道的DMA控制器,3种16通道A/D转换、2通道的12位D/A转换器。通过这种方式能够实现检测数据的快速转换,除此之外,ARM Cortex应用处理器还采用16/32位RISC微处理,在该模块的数据接口处还设置有SDIO接口、SD卡接口、串口、网口、USB接口等,通过这种方式设置,能够实现多种不同通信方式的交互。为了提高数据计算能力,还设置了DSP处理模块,该处理模块设置有扩展电路、A/D转换模块、显示模块、D/A转换模块等,将DSP模块在硬件架构中作为计算适配器,在ARM控制器工作时,实现指纹数据信息数据信息输入的高精度计算,通过DSP模块设计,能够实现指纹数据信息的快速计算与处理。
在上述实施例中,匹配模型在进行指纹匹配时,通过以下方法进行:
(S1)录入指纹图像数据信息,对获取的原始指纹图像进行处理,处理内容包括指纹图像分割、指纹图像增强、二值化、细化和细节点提取;
(S2)对指纹的细节特征进行提取,分析提取指纹的具体数据信息;
(S3)将提取的数据信息与指纹模板数据库进行匹配;
(S4)影像轨迹判断,当输入的数据信息与模板匹配数据库信息一致时,则输出与模板匹配数据库信息一致的信息,当输入的数据信息与模板匹配数据库信息不一致时,则不输出数据信息。
在上述实施例中, 指纹信息增强的方法为:
假设指纹图像的灰度等级为
Figure 350849DEST_PATH_IMAGE001
,对指纹图像的灰度等排序为
Figure 188355DEST_PATH_IMAGE047
则该指纹 图像的概率密度函数
Figure 442881DEST_PATH_IMAGE048
表示为:
Figure 947812DEST_PATH_IMAGE004
(1)
公式(1)中,
Figure 42807DEST_PATH_IMAGE049
为灰度等级序号,
Figure 882456DEST_PATH_IMAGE050
为该灰度等级下的像素数量,
Figure 455519DEST_PATH_IMAGE051
为该指纹图像 的像素总量;指纹图像的概率密度函数为:
Figure 80536DEST_PATH_IMAGE052
(2)
公式(2)中,
Figure 831585DEST_PATH_IMAGE009
为设定的阈值,当
Figure 909263DEST_PATH_IMAGE053
时,
Figure 20438DEST_PATH_IMAGE054
不变;当
Figure 499961DEST_PATH_IMAGE055
时,
Figure 920447DEST_PATH_IMAGE056
为设置的阈 值
Figure 219841DEST_PATH_IMAGE014
;采用平台直方图均衡化对指纹图像进行处理完成后的输出结果为:
Figure 400287DEST_PATH_IMAGE057
(3)
公式(3)中,
Figure 219469DEST_PATH_IMAGE058
为增强后的灰度等级序号,
Figure 827168DEST_PATH_IMAGE059
为向下取整运算符号。
在上述实施例中,轨迹跟踪控制器为基于高斯混合模型算法的控制器,方法为:
首先选定当前指纹目标数据信息,通过卡尔曼滤波器预测当前指纹数据信息的目标质心,预测用户指纹行为方向,通过欧式距离计算目标数据信息和理论数据信息之间的距离,将计算出的距离与模板数据信息进行对比,通过匈牙利匹配算法做数据的关联性,得到最优的影像轨迹运动路径,最终实现影像轨迹跟踪。
在具体实施例中,卡尔曼滤波(Kalman filtering)是一种利用线性系统状态方程,通过系统输入输出观测数据,对系统状态进行最优估计的算法。由于观测数据中包括系统中的噪声和干扰的影响,所以最优估计也可看作是滤波过程。数据滤波是去除噪声还原真实数据的一种数据处理技术,Kalman滤波在测量方差已知的情况下能够从一系列存在测量噪声的数据中,估计动态系统的状态。由于它便于计算机编程实现,并能够对现场采集的数据进行实时的更新和处理。总的来说,在线性系统的状态空间表示基础上,从输出和输入观测数据求系统状态的最优估计。卡尔曼滤波不要求信号和噪声都是平稳过程的假设条件。对于每个时刻的系统扰动和观测误差(即噪声),只要对它们的统计性质作某些适当的假定,通过对含有噪声的观测信号进行处理,就能在平均的意义上,求得误差为最小的真实信号的估计值。因此,自从卡尔曼滤波理论问世以来,在指纹数据信息处理方面,应用卡尔曼滤波对由于某些噪声影响而造成模糊的图像进行复原。在对噪声作了某些统计性质的假定后,就可以用卡尔曼的算法以递推的方式从模糊图像中得到均方差最小的真实图像,使模糊的图像得到复原。
在具体实施例中,欧式距离也称为欧几里得度量(euclidean metric)(也称欧氏距离),是一个通常采用的距离定义,指在m维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)。在二维和三维空间中的欧氏距离就是两点之间的实际距离。
在具体实施例中,匈牙利匹配算法是一种在多项式时间内求解任务分配问题的组合优化算法,如果一个指纹的某个匹配中,所有的顶点都是匹配点,那么它就是一个完美匹配。显然,完美匹配一定是最大匹配(完美匹配的任何一个点都已经匹配,添加一条新的匹配边一定会与已有的匹配边冲突)。但并非每个图都存在完美匹配。通过这种方式指纹信息与模板数据库之间的匹配。初始时最大匹配为控,然后不断寻找增广路,并扩展增广路。不断重复这一过程直到找不到增广路为止。通过这种思路实现信息匹配。
在上述实施例中,评估模型通过以下方法实现指纹数据信息跟踪评估:
步骤一:假设其输出的指纹数据信息分别为离散值,记作为
Figure 613859DEST_PATH_IMAGE060
Figure 847263DEST_PATH_IMAGE061
为个 数,
Figure 770220DEST_PATH_IMAGE020
表示离散值,
Figure 548820DEST_PATH_IMAGE021
为对影像轨迹跟踪评估时,对不同指纹数据信息进行采样的周期间 隔,假设评估输出影像轨迹跟踪数据信息的周期间隔为1秒,则影像轨迹跟踪评估参数通过 小波变换的方式实现数据的转换和计算;通过初始指纹数据序列获取的影像轨迹跟踪数据 序列记作为:
Figure 573539DEST_PATH_IMAGE062
(4)
在公式(4)中,
Figure 95787DEST_PATH_IMAGE063
为任意时间下指纹数据信息;
步骤二:数据特征提取,经过间隔为1秒的时间时段后,通过指纹数据特征抽取,获取的影像轨迹跟踪数据序列可以记作为:
Figure 138829DEST_PATH_IMAGE064
(5)
在公式(5)中,将待评估的影像轨迹跟踪数据进行累加之后,评估函数记作为:
Figure 72019DEST_PATH_IMAGE065
(6)
在公式(6)中,
Figure 98881DEST_PATH_IMAGE066
Figure 893661DEST_PATH_IMAGE067
表示评估函数标识;为了对其任意指纹数据信息参 数值进行求解,需要采用微分方程进行求解,以计算不同时间下的指纹数据信息采集方程;
Figure 795803DEST_PATH_IMAGE068
(7)
在公式(7)中,
Figure 916206DEST_PATH_IMAGE069
表示影响指纹输入的外界参数,
Figure 164785DEST_PATH_IMAGE030
表示采集信息输出值,构建矩阵 方程进行求解,则有:
Figure 12524DEST_PATH_IMAGE070
(8)
公式(8)中,
Figure 295738DEST_PATH_IMAGE032
Figure 321463DEST_PATH_IMAGE033
分别表示用户随心所欲下影像轨迹跟踪的类型,
Figure 542491DEST_PATH_IMAGE071
为一种类 型下的影像轨迹跟踪矩阵,
Figure 210232DEST_PATH_IMAGE072
为用户随心所欲下影像轨迹跟踪的另一种数据类型的影像轨 迹跟踪数据矩阵,
Figure 347953DEST_PATH_IMAGE073
表示影像轨迹跟踪评估影响因子。
步骤三:对公式(9)中的函数通过累加生成序列公式,可以有:
Figure 544579DEST_PATH_IMAGE074
(9)
公式(9)中,
Figure 751438DEST_PATH_IMAGE038
表示累加次数;反映影像轨迹跟踪不同参数的数据信息可以记作为:
Figure 957291DEST_PATH_IMAGE075
(10)
公式(10)中,
Figure 683939DEST_PATH_IMAGE076
表示参数类型;
Figure 67778DEST_PATH_IMAGE077
(11)
在公式(11)中,
Figure 778245DEST_PATH_IMAGE042
表示影像轨迹参数函数;
在具体实施例中,比如时间、速度、角度、位移、用户手势轨迹、用户指纹信息等
则获取的影像轨迹跟踪预测模型记作为:
Figure 256631DEST_PATH_IMAGE078
(12)
在公式(12)中,
Figure 352632DEST_PATH_IMAGE044
表示影像轨迹参数影响量;
步骤四:输出的估计值为:
Figure 891060DEST_PATH_IMAGE079
(13)
其中
Figure 573977DEST_PATH_IMAGE080
在具体实施例中,上述方法能够根据手势动作和特点评估影像轨迹跟踪路径,能够通过手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度预估影像轨迹,自动化高,容易评估。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些具体实施方式仅是举例说明,本领域的技术人员在不脱离本发明的原理和实质的情况下,可以对上述方法和系统的细节进行各种省略、替换和改变。例如,合并上述方法步骤,从而按照实质相同的方法执行实质相同的功能以实现实质相同的结果则属于本发明的范围。因此,本发明的范围仅由所附权利要求书限定。

Claims (6)

1.一种读取触摸数据信息实现影像轨迹跟踪的方法,其特征在于:包括以下步骤:
步骤1:采集用户指纹数据信息,并对采集到的用户指纹数据信息进行分解,分解内容为用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度;
步骤2:将采集到的用户指纹数据信息输入到匹配模型,匹配模型通过分析用户指纹数据信息输出不同的影像轨迹信息;并将匹配的用户指纹数据信息存储;
步骤3:通过轨迹跟踪控制器控制用户指纹数据信息匹配程度,并根据用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息配对影像轨迹;
步骤4:通过评估模型对影像轨迹跟踪结果进行评价,当评价合格,影像跟踪活动结束,当评价不合格,继续进行影像跟踪活动;
其中评估模型通过以下方法实现指纹数据信息跟踪评估:
步骤一:假设其输出的指纹数据信息分别为离散值,记作为
Figure 502407DEST_PATH_IMAGE001
Figure 888389DEST_PATH_IMAGE002
为个数,
Figure 136968DEST_PATH_IMAGE003
表示离散值,
Figure 735440DEST_PATH_IMAGE004
为对影像轨迹跟踪评估时,对不同指纹数据信息进行采样的周期间隔,假设评估输出影像轨迹跟踪数据信息的周期间隔为1秒,则影像轨迹跟踪评估参数通过小波变换的方式实现数据的转换和计算;通过初始指纹数据序列获取的影像轨迹跟踪数据序列记作为:
Figure 18653DEST_PATH_IMAGE005
(4)
在公式(4)中,
Figure 542913DEST_PATH_IMAGE006
为任意时间下指纹数据信息;
步骤二:数据特征提取,经过间隔为1秒的时间时段后,通过指纹数据特征抽取,获取的影像轨迹跟踪数据序列可以记作为:
Figure 278788DEST_PATH_IMAGE007
(5)
在公式(5)中,将待评估的影像轨迹跟踪数据进行累加之后,评估函数记作为:
Figure 946530DEST_PATH_IMAGE008
(6)
在公式(6)中,
Figure 818671DEST_PATH_IMAGE009
Figure 15297DEST_PATH_IMAGE010
表示评估函数标识;为了对其任意指纹数据信息参数值进行求解,需要采用微分方程进行求解,以计算不同时间下的指纹数据信息采集方程;
Figure 238468DEST_PATH_IMAGE011
(7)
在公式(7)中,
Figure 178742DEST_PATH_IMAGE012
表示影响指纹输入的外界参数,
Figure 406855DEST_PATH_IMAGE013
表示采集信息输出值,构建矩阵方程进行求解,则有:
Figure 305540DEST_PATH_IMAGE014
(8)
公式(8)中,
Figure 750428DEST_PATH_IMAGE012
Figure 494393DEST_PATH_IMAGE013
分别表示用户随心所欲下影像轨迹跟踪的类型,
Figure 341127DEST_PATH_IMAGE015
为一种类型下的影像轨迹跟踪矩阵,
Figure 879555DEST_PATH_IMAGE016
为用户随心所欲下影像轨迹跟踪的另一种数据类型的影像轨迹跟踪数据矩阵,
Figure 575854DEST_PATH_IMAGE017
表示影像轨迹跟踪评估影响因子;
步骤三:对公式(9)中的函数通过累加生成序列公式,可以有:
Figure 123510DEST_PATH_IMAGE018
(9)
公式(9)中,
Figure 559170DEST_PATH_IMAGE019
表示累加次数;反映影像轨迹跟踪不同参数的数据信息可以记作为:
Figure 799659DEST_PATH_IMAGE020
(10)
公式(10)中,
Figure 219139DEST_PATH_IMAGE021
表示参数类型;
Figure 304906DEST_PATH_IMAGE022
(11)
在公式(11)中,
Figure 373836DEST_PATH_IMAGE023
表示影像轨迹参数函数;
则获取的影像轨迹跟踪预测模型记作为:
Figure 519647DEST_PATH_IMAGE024
(12)
在公式(12)中,
Figure 426423DEST_PATH_IMAGE025
表示影像轨迹参数影响量;
步骤四:输出的估计值为:
Figure 50302DEST_PATH_IMAGE026
(13)
其中
Figure 991713DEST_PATH_IMAGE027
2.根据权利要求1所述的一种读取触摸数据信息实现影像轨迹跟踪的方法,其特征在于:通过指纹采集器采集用户指纹数据信息。
3.根据权利要求1所述的一种读取触摸数据信息实现影像轨迹跟踪的方法,其特征在于:指纹采集器包括主控模块和所述主控模块连接的手势识别模块、指纹辨识模块、特征提取模块和特征数据库;
其中主控模块为ARM+DSP双核处理器;
所述手势识别模块用于识别用户的手势信息以及手指触摸的运行方向;
指纹辨识模块用于识别用户指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度、指纹显示程度、手势信息以及手指触摸的运行方向信息特征;
特征提取模块用于提取指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息;
特征数据库用于存储不同形态的手指数据信息。
4.根据权利要求1所述的一种读取触摸数据信息实现影像轨迹跟踪的方法,其特征在于:匹配模型在进行指纹匹配时,通过以下方法进行:
(S1)录入指纹图像数据信息,对获取的原始指纹图像进行处理,处理内容包括指纹图像分割、指纹图像增强、二值化、细化和细节点提取;
(S2)对指纹的细节特征进行提取,分析提取指纹的具体数据信息;
(S3)将提取的数据信息与指纹模板数据库进行匹配;
(S4)影像轨迹判断,当输入的数据信息与模板匹配数据库信息一致时,则输出与模板匹配数据库信息一致的信息,当输入的数据信息与模板匹配数据库信息不一致时,则不输出数据信息。
5.根据权利要求4所述的一种读取触摸数据信息实现影像轨迹跟踪的方法,其特征在于:指纹信息增强的方法为:
假设指纹图像的灰度等级为
Figure 308425DEST_PATH_IMAGE028
,对指纹图像的灰度等排序为
Figure 201033DEST_PATH_IMAGE029
则该指纹图像的概率密度函数
Figure 894182DEST_PATH_IMAGE030
表示为:
Figure 158941DEST_PATH_IMAGE031
(1)
式(1)中,
Figure 912134DEST_PATH_IMAGE032
为灰度等级序号,
Figure 527923DEST_PATH_IMAGE033
为该灰度等级下的像素数量,
Figure 24763DEST_PATH_IMAGE034
为该指纹图像的像素总量;指纹图像的概率密度函数为:
Figure 409608DEST_PATH_IMAGE035
(2)
式(2)中,
Figure 569588DEST_PATH_IMAGE036
为设定的阈值,当
Figure 672673DEST_PATH_IMAGE037
时,
Figure 442046DEST_PATH_IMAGE038
不变;当
Figure 212556DEST_PATH_IMAGE039
时,
Figure 776392DEST_PATH_IMAGE040
为设置的阈值
Figure 366773DEST_PATH_IMAGE041
;采用平台直方图均衡化对指纹图像进行处理完成后的输出结果为:
Figure 703952DEST_PATH_IMAGE042
(3)
式(3)中,
Figure 797810DEST_PATH_IMAGE043
为增强后的灰度等级序号,
Figure 798127DEST_PATH_IMAGE044
为向下取整运算符号。
6.根据权利要求1所述的一种读取触摸数据信息实现影像轨迹跟踪的方法,其特征在于:轨迹跟踪控制器为基于高斯混合模型算法的控制器,方法为:
首先选定当前指纹目标数据信息,通过卡尔曼滤波器预测当前指纹数据信息的目标质心,预测用户指纹行为方向,通过欧式距离计算目标数据信息和理论数据信息之间的距离,将计算出的距离与模板数据信息进行对比,通过匈牙利匹配算法做数据的关联性,得到最优的影像轨迹运动路径,最终实现影像轨迹跟踪。
CN202210859896.3A 2022-07-22 2022-07-22 一种读取触摸数据信息实现影像轨迹跟踪的方法 Active CN115082971B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210859896.3A CN115082971B (zh) 2022-07-22 2022-07-22 一种读取触摸数据信息实现影像轨迹跟踪的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210859896.3A CN115082971B (zh) 2022-07-22 2022-07-22 一种读取触摸数据信息实现影像轨迹跟踪的方法

Publications (2)

Publication Number Publication Date
CN115082971A CN115082971A (zh) 2022-09-20
CN115082971B true CN115082971B (zh) 2022-11-08

Family

ID=83243843

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210859896.3A Active CN115082971B (zh) 2022-07-22 2022-07-22 一种读取触摸数据信息实现影像轨迹跟踪的方法

Country Status (1)

Country Link
CN (1) CN115082971B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548795A (zh) * 2016-10-31 2017-03-29 维沃移动通信有限公司 一种多媒体播放器的控制方法及移动终端
CN106814944A (zh) * 2016-12-26 2017-06-09 广东欧珀移动通信有限公司 一种进度调整方法、装置及移动终端
CN108920079A (zh) * 2018-06-27 2018-11-30 北京小米移动软件有限公司 手势识别方法及装置
CN110568989A (zh) * 2019-08-23 2019-12-13 深圳传音控股股份有限公司 业务处理方法、业务处理装置、终端及介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107958239B (zh) * 2018-01-03 2021-07-27 北京小米移动软件有限公司 指纹识别方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106548795A (zh) * 2016-10-31 2017-03-29 维沃移动通信有限公司 一种多媒体播放器的控制方法及移动终端
CN106814944A (zh) * 2016-12-26 2017-06-09 广东欧珀移动通信有限公司 一种进度调整方法、装置及移动终端
CN108920079A (zh) * 2018-06-27 2018-11-30 北京小米移动软件有限公司 手势识别方法及装置
CN110568989A (zh) * 2019-08-23 2019-12-13 深圳传音控股股份有限公司 业务处理方法、业务处理装置、终端及介质

Also Published As

Publication number Publication date
CN115082971A (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN112506342B (zh) 基于动态手势识别的人机交互方法及系统
CN107808143B (zh) 基于计算机视觉的动态手势识别方法
CN111444828B (zh) 一种模型训练的方法、目标检测的方法、装置及存储介质
Ibraheem et al. Survey on various gesture recognition technologies and techniques
CN109145717B (zh) 一种在线学习的人脸识别方法
Zhu et al. Vision based hand gesture recognition using 3D shape context
CN112861575A (zh) 一种行人结构化方法、装置、设备和存储介质
CN1828630A (zh) 基于流形学习的人脸姿势识别方法
Caputo et al. A 3 Cent Recognizer: Simple and Effective Retrieval and Classification of Mid-air Gestures from Single 3D Traces.
CN110458235B (zh) 一种视频中运动姿势相似度比对方法
Tümen et al. Feature Extraction and Classifier Combination for Image-based Sketch Recognition.
Ramani et al. Breast cancer detection in mammograms based on clustering techniques-a survey
Nasri et al. A novel approach for dynamic hand gesture recognition using contour-based similarity images
Wang et al. Gesture Feature Extraction and Recognition Based on Image Processing.
CA2022075C (en) Cross-product filter
Zhang et al. Hand gesture recognition with SURF-BOF based on Gray threshold segmentation
Jin et al. Image edge enhancement detection method of human-computer interaction interface based on machine vision technology
Yang et al. Fast and robust key frame extraction method for gesture video based on high-level feature representation
CN108257148B (zh) 特定对象的目标建议窗口生成方法及其在目标跟踪的应用
CN114397963A (zh) 一种手势识别方法、装置、电子设备及存储介质
CN115082971B (zh) 一种读取触摸数据信息实现影像轨迹跟踪的方法
CN110309689B (zh) 基于超宽带雷达的Gabor域手势识别检测方法
Cao et al. Real-time dynamic gesture recognition and hand servo tracking using PTZ camera
Fan et al. Robust visual tracking via bag of superpixels
CN112507940A (zh) 一种基于差分指导表示学习网络的骨骼动作识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant