CN115082971B - 一种读取触摸数据信息实现影像轨迹跟踪的方法 - Google Patents
一种读取触摸数据信息实现影像轨迹跟踪的方法 Download PDFInfo
- Publication number
- CN115082971B CN115082971B CN202210859896.3A CN202210859896A CN115082971B CN 115082971 B CN115082971 B CN 115082971B CN 202210859896 A CN202210859896 A CN 202210859896A CN 115082971 B CN115082971 B CN 115082971B
- Authority
- CN
- China
- Prior art keywords
- fingerprint
- image
- data information
- information
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/60—Methods for processing data by generating or executing the game program
- A63F2300/6045—Methods for processing data by generating or executing the game program for mapping control signals received from the input arrangement into game commands
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开一种读取触摸数据信息实现影像轨迹跟踪的方法,涉及数据识别、数据处理技术领域,解决的技术问题是影像轨迹跟踪,采用的方法包括步骤1:采集用户指纹数据信息,并对采集到的用户指纹数据信息进行分解;步骤2:将采集到的用户指纹数据信息输入到匹配模型;步骤3:通过轨迹跟踪控制器控制用户指纹数据信息匹配程度,并根据用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息配对影像轨迹;步骤4:通过评估模型对影像轨迹跟踪结果进行评价;本发明能够根据手势动作和特点评估影像轨迹跟踪路径,自动化高,容易评估。
Description
技术领域
本发明涉及数据识别、数据处理技术领域,且更具体地涉及一种读取触摸数据信息实现影像轨迹跟踪的方法。
背景技术
随着电子技术的飞速发展,触摸屏越来越多地应用到各种场合,触摸屏在运行过程中,大部分通过用户手动触摸,通过触摸,显示屏能够显示不同的画面。在游戏中,表现尤其突出。比如用户手势表现出不同的方式,显示屏就会显示不同的界面和画面。在一种示例中,比如通过读取触摸数据信息,手势会显示不同的动作,根据动作显示不同,进而实现不同的表现界面。
在实际应用中,存在以下技术弊端:
(1)用户无法根据手势动作和特点评估影像轨迹跟踪路径;
(2)用户难以通过手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度预估影像轨迹;
(3)应用自动化差,评估难度大。
发明内容
针对上述技术的不足,本发明公开一种读取触摸数据信息实现影像轨迹跟踪的方法,能够根据手势动作和特点评估影像轨迹跟踪路径,能够通过手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度预估影像轨迹,自动化高,容易评估。
本发明采用以下技术方案:
一种读取触摸数据信息实现影像轨迹跟踪的方法,其中包括以下步骤:
步骤1:采集用户指纹数据信息,并对采集到的用户指纹数据信息进行分解,分解内容为用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度;
步骤2:将采集到的用户指纹数据信息输入到匹配模型,匹配模型通过分析用户指纹数据信息输出不同的影像轨迹信息;并将匹配的用户指纹数据信息存储;
步骤3:通过轨迹跟踪控制器控制用户指纹数据信息匹配程度,并根据用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息配对影像轨迹;
步骤4:通过评估模型对影像轨迹跟踪结果进行评价,当评价合格,影像跟踪活动结束,当评价不合格,当继续进行影像跟踪活动。
作为本发明进一步的技术方案,通过指纹采集器采集用户指纹数据信息。
作为本发明进一步的技术方案,指纹采集器包括主控模块和所述主控模块连接的手势识别模块、指纹辨识模块、特征提取模块和特征数据库;
其中主控模块为ARM+DSP双核处理器;
所述手势识别模块用于识别用户的手势信息以及手指触摸的运行方向;
指纹辨识模块用于识别用户指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度、指纹显示程度、手势信息以及手指触摸的运行方向信息特征;
特征提取模块用于提取指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息;
特征数据库用于存储不同形态的手指数据信息。
作为本发明进一步的技术方案,匹配模型在进行指纹匹配时,通过以下方法进行:
(S1)录入指纹图像数据信息,对获取的原始指纹图像进行处理,处理内容包括指纹图像分割、指纹图像增强、二值化、细化和细节点提取;
(S2)对指纹的细节特征进行提取,分析提取指纹的具体数据信息;
(S3)将提取的数据信息与指纹模板数据库进行匹配;
(S4)影像轨迹判断,当输入的数据信息与模板匹配数据库信息一致时,则输出与模板匹配数据库信息一致的信息,当输入的数据信息与模板匹配数据库信息不一致时,则不输出数据信息。
作为本发明进一步的技术方案,指纹信息增强的方法为:
作为本发明进一步的技术方案,轨迹跟踪控制器为基于高斯混合模型算法的控制器,方法为:
首先选定当前指纹目标数据信息,通过卡尔曼滤波器预测当前指纹数据信息的目标质心,预测用户指纹行为方向,通过欧式距离计算目标数据信息和理论数据信息之间的距离,将计算出的距离与模板数据信息进行对比,通过匈牙利匹配算法做数据的关联性,得到最优的影像轨迹运动路径,最终实现影像轨迹跟踪。
作为本发明进一步的技术方案,评估模型通过以下方法实现指纹数据信息跟踪评估:
步骤一:假设其输出的指纹数据信息分别为离散值,记作为;为个
数,表示离散值,为对影像轨迹跟踪评估时,对不同指纹数据信息进行采样的周期间
隔,假设评估输出影像轨迹跟踪数据信息的周期间隔为1秒,则影像轨迹跟踪评估参数通过
小波变换的方式实现数据的转换和计算;通过初始指纹数据序列获取的影像轨迹跟踪数据
序列记作为:
步骤二:数据特征提取,经过间隔为1秒的时间时段后,通过指纹数据特征抽取,获取的影像轨迹跟踪数据序列可以记作为:
在公式(5)中,将待评估的影像轨迹跟踪数据进行累加之后,评估函数记作为:
步骤三:对公式(9)中的函数通过累加生成序列公式,可以有:
则获取的影像轨迹跟踪预测模型记作为:
步骤四:输出的估计值为:
本发明积极有益效果在于:
本发明能够根据手势动作和特点评估影像轨迹跟踪路径,能够通过手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度预估影像轨迹,自动化高,容易评估。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图,其中:
图1为本发明流程示意图;
图2为发明中匹配模型工作示意图;
图3为发明中指纹增强实施例示意图;
图4为发明中评估模型流程示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的实施例仅用于说明和解释本发明,并不用于限定本发明。
一种读取触摸数据信息实现影像轨迹跟踪的方法,包括以下步骤:
步骤1:采集用户指纹数据信息,并对采集到的用户指纹数据信息进行分解,分解内容为用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度;
步骤2:将采集到的用户指纹数据信息输入到匹配模型,匹配模型通过分析用户指纹数据信息输出不同的影像轨迹信息;并将匹配的用户指纹数据信息存储;
步骤3:通过轨迹跟踪控制器控制用户指纹数据信息匹配程度,并根据用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息配对影像轨迹;
步骤4:通过评估模型对影像轨迹跟踪结果进行评价,当评价合格,影像跟踪活动结束,当评价不合格,当继续进行影像跟踪活动。
在上述实施例中,通过指纹采集器采集用户指纹数据信息。
在上述实施例中,指纹采集器包括主控模块和所述主控模块连接的手势识别模块、指纹辨识模块、特征提取模块和特征数据库;
其中主控模块为ARM+DSP双核处理器;
所述手势识别模块用于识别用户的手势信息以及手指触摸的运行方向;
指纹辨识模块用于识别用户指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度、指纹显示程度、手势信息以及手指触摸的运行方向信息特征;
特征提取模块用于提取指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息;
特征数据库用于存储不同形态的手指数据信息;
在具体实施例中,指纹采集器通过获取原始指纹图像的数据信息,并对用户指纹数据信息进行优化,通过提取信息特征值进而输出不同的数据信息。所采集到的指纹图像信息一般在14K左右,优化指纹图像在9800字节左右,所采集到的指纹数据信息特征值分二种, 一般普通的是256字节,特殊应用压缩后可以达到:196字节,如果要存于PC机的数据库中,一般用字符串。
在具体实施例中,采用了ARM+DSP技术的双控方式。通过STC12C4A60S单片机对用户指纹数据信息的运行状态进行控制,该主控芯片通过STM32控制器完成,在结构上,通过连接ZigBee协调模块和WIFI通讯模块实现数据信息的传递,其中STM32控制器还设计了基于ARM32位的CortexTM-M3 CPU,该模块实现指纹数据信息数据信息的计算与应用。在具体设计中,在控制器上设置12通道的DMA控制器,3种16通道A/D转换、2通道的12位D/A转换器。通过这种方式能够实现检测数据的快速转换,除此之外,ARM Cortex应用处理器还采用16/32位RISC微处理,在该模块的数据接口处还设置有SDIO接口、SD卡接口、串口、网口、USB接口等,通过这种方式设置,能够实现多种不同通信方式的交互。为了提高数据计算能力,还设置了DSP处理模块,该处理模块设置有扩展电路、A/D转换模块、显示模块、D/A转换模块等,将DSP模块在硬件架构中作为计算适配器,在ARM控制器工作时,实现指纹数据信息数据信息输入的高精度计算,通过DSP模块设计,能够实现指纹数据信息的快速计算与处理。
在上述实施例中,匹配模型在进行指纹匹配时,通过以下方法进行:
(S1)录入指纹图像数据信息,对获取的原始指纹图像进行处理,处理内容包括指纹图像分割、指纹图像增强、二值化、细化和细节点提取;
(S2)对指纹的细节特征进行提取,分析提取指纹的具体数据信息;
(S3)将提取的数据信息与指纹模板数据库进行匹配;
(S4)影像轨迹判断,当输入的数据信息与模板匹配数据库信息一致时,则输出与模板匹配数据库信息一致的信息,当输入的数据信息与模板匹配数据库信息不一致时,则不输出数据信息。
在上述实施例中, 指纹信息增强的方法为:
在上述实施例中,轨迹跟踪控制器为基于高斯混合模型算法的控制器,方法为:
首先选定当前指纹目标数据信息,通过卡尔曼滤波器预测当前指纹数据信息的目标质心,预测用户指纹行为方向,通过欧式距离计算目标数据信息和理论数据信息之间的距离,将计算出的距离与模板数据信息进行对比,通过匈牙利匹配算法做数据的关联性,得到最优的影像轨迹运动路径,最终实现影像轨迹跟踪。
在具体实施例中,卡尔曼滤波(Kalman filtering)是一种利用线性系统状态方程,通过系统输入输出观测数据,对系统状态进行最优估计的算法。由于观测数据中包括系统中的噪声和干扰的影响,所以最优估计也可看作是滤波过程。数据滤波是去除噪声还原真实数据的一种数据处理技术,Kalman滤波在测量方差已知的情况下能够从一系列存在测量噪声的数据中,估计动态系统的状态。由于它便于计算机编程实现,并能够对现场采集的数据进行实时的更新和处理。总的来说,在线性系统的状态空间表示基础上,从输出和输入观测数据求系统状态的最优估计。卡尔曼滤波不要求信号和噪声都是平稳过程的假设条件。对于每个时刻的系统扰动和观测误差(即噪声),只要对它们的统计性质作某些适当的假定,通过对含有噪声的观测信号进行处理,就能在平均的意义上,求得误差为最小的真实信号的估计值。因此,自从卡尔曼滤波理论问世以来,在指纹数据信息处理方面,应用卡尔曼滤波对由于某些噪声影响而造成模糊的图像进行复原。在对噪声作了某些统计性质的假定后,就可以用卡尔曼的算法以递推的方式从模糊图像中得到均方差最小的真实图像,使模糊的图像得到复原。
在具体实施例中,欧式距离也称为欧几里得度量(euclidean metric)(也称欧氏距离),是一个通常采用的距离定义,指在m维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)。在二维和三维空间中的欧氏距离就是两点之间的实际距离。
在具体实施例中,匈牙利匹配算法是一种在多项式时间内求解任务分配问题的组合优化算法,如果一个指纹的某个匹配中,所有的顶点都是匹配点,那么它就是一个完美匹配。显然,完美匹配一定是最大匹配(完美匹配的任何一个点都已经匹配,添加一条新的匹配边一定会与已有的匹配边冲突)。但并非每个图都存在完美匹配。通过这种方式指纹信息与模板数据库之间的匹配。初始时最大匹配为控,然后不断寻找增广路,并扩展增广路。不断重复这一过程直到找不到增广路为止。通过这种思路实现信息匹配。
在上述实施例中,评估模型通过以下方法实现指纹数据信息跟踪评估:
步骤一:假设其输出的指纹数据信息分别为离散值,记作为;为个
数,表示离散值,为对影像轨迹跟踪评估时,对不同指纹数据信息进行采样的周期间
隔,假设评估输出影像轨迹跟踪数据信息的周期间隔为1秒,则影像轨迹跟踪评估参数通过
小波变换的方式实现数据的转换和计算;通过初始指纹数据序列获取的影像轨迹跟踪数据
序列记作为:
步骤二:数据特征提取,经过间隔为1秒的时间时段后,通过指纹数据特征抽取,获取的影像轨迹跟踪数据序列可以记作为:
在公式(5)中,将待评估的影像轨迹跟踪数据进行累加之后,评估函数记作为:
步骤三:对公式(9)中的函数通过累加生成序列公式,可以有:
在具体实施例中,比如时间、速度、角度、位移、用户手势轨迹、用户指纹信息等
则获取的影像轨迹跟踪预测模型记作为:
步骤四:输出的估计值为:
在具体实施例中,上述方法能够根据手势动作和特点评估影像轨迹跟踪路径,能够通过手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度预估影像轨迹,自动化高,容易评估。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些具体实施方式仅是举例说明,本领域的技术人员在不脱离本发明的原理和实质的情况下,可以对上述方法和系统的细节进行各种省略、替换和改变。例如,合并上述方法步骤,从而按照实质相同的方法执行实质相同的功能以实现实质相同的结果则属于本发明的范围。因此,本发明的范围仅由所附权利要求书限定。
Claims (6)
1.一种读取触摸数据信息实现影像轨迹跟踪的方法,其特征在于:包括以下步骤:
步骤1:采集用户指纹数据信息,并对采集到的用户指纹数据信息进行分解,分解内容为用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度;
步骤2:将采集到的用户指纹数据信息输入到匹配模型,匹配模型通过分析用户指纹数据信息输出不同的影像轨迹信息;并将匹配的用户指纹数据信息存储;
步骤3:通过轨迹跟踪控制器控制用户指纹数据信息匹配程度,并根据用户手指触摸的运行方向、指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息配对影像轨迹;
步骤4:通过评估模型对影像轨迹跟踪结果进行评价,当评价合格,影像跟踪活动结束,当评价不合格,继续进行影像跟踪活动;
其中评估模型通过以下方法实现指纹数据信息跟踪评估:
步骤一:假设其输出的指纹数据信息分别为离散值,记作为;为个数,表示离散值,为对影像轨迹跟踪评估时,对不同指纹数据信息进行采样的周期间隔,假设评估输出影像轨迹跟踪数据信息的周期间隔为1秒,则影像轨迹跟踪评估参数通过小波变换的方式实现数据的转换和计算;通过初始指纹数据序列获取的影像轨迹跟踪数据序列记作为:
步骤二:数据特征提取,经过间隔为1秒的时间时段后,通过指纹数据特征抽取,获取的影像轨迹跟踪数据序列可以记作为:
在公式(5)中,将待评估的影像轨迹跟踪数据进行累加之后,评估函数记作为:
步骤三:对公式(9)中的函数通过累加生成序列公式,可以有:
则获取的影像轨迹跟踪预测模型记作为:
步骤四:输出的估计值为:
2.根据权利要求1所述的一种读取触摸数据信息实现影像轨迹跟踪的方法,其特征在于:通过指纹采集器采集用户指纹数据信息。
3.根据权利要求1所述的一种读取触摸数据信息实现影像轨迹跟踪的方法,其特征在于:指纹采集器包括主控模块和所述主控模块连接的手势识别模块、指纹辨识模块、特征提取模块和特征数据库;
其中主控模块为ARM+DSP双核处理器;
所述手势识别模块用于识别用户的手势信息以及手指触摸的运行方向;
指纹辨识模块用于识别用户指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度、指纹显示程度、手势信息以及手指触摸的运行方向信息特征;
特征提取模块用于提取指纹按压屏幕面积、纹路条数、纹路形状、指纹完整度以及指纹显示程度信息;
特征数据库用于存储不同形态的手指数据信息。
4.根据权利要求1所述的一种读取触摸数据信息实现影像轨迹跟踪的方法,其特征在于:匹配模型在进行指纹匹配时,通过以下方法进行:
(S1)录入指纹图像数据信息,对获取的原始指纹图像进行处理,处理内容包括指纹图像分割、指纹图像增强、二值化、细化和细节点提取;
(S2)对指纹的细节特征进行提取,分析提取指纹的具体数据信息;
(S3)将提取的数据信息与指纹模板数据库进行匹配;
(S4)影像轨迹判断,当输入的数据信息与模板匹配数据库信息一致时,则输出与模板匹配数据库信息一致的信息,当输入的数据信息与模板匹配数据库信息不一致时,则不输出数据信息。
6.根据权利要求1所述的一种读取触摸数据信息实现影像轨迹跟踪的方法,其特征在于:轨迹跟踪控制器为基于高斯混合模型算法的控制器,方法为:
首先选定当前指纹目标数据信息,通过卡尔曼滤波器预测当前指纹数据信息的目标质心,预测用户指纹行为方向,通过欧式距离计算目标数据信息和理论数据信息之间的距离,将计算出的距离与模板数据信息进行对比,通过匈牙利匹配算法做数据的关联性,得到最优的影像轨迹运动路径,最终实现影像轨迹跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210859896.3A CN115082971B (zh) | 2022-07-22 | 2022-07-22 | 一种读取触摸数据信息实现影像轨迹跟踪的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210859896.3A CN115082971B (zh) | 2022-07-22 | 2022-07-22 | 一种读取触摸数据信息实现影像轨迹跟踪的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115082971A CN115082971A (zh) | 2022-09-20 |
CN115082971B true CN115082971B (zh) | 2022-11-08 |
Family
ID=83243843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210859896.3A Active CN115082971B (zh) | 2022-07-22 | 2022-07-22 | 一种读取触摸数据信息实现影像轨迹跟踪的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115082971B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548795A (zh) * | 2016-10-31 | 2017-03-29 | 维沃移动通信有限公司 | 一种多媒体播放器的控制方法及移动终端 |
CN106814944A (zh) * | 2016-12-26 | 2017-06-09 | 广东欧珀移动通信有限公司 | 一种进度调整方法、装置及移动终端 |
CN108920079A (zh) * | 2018-06-27 | 2018-11-30 | 北京小米移动软件有限公司 | 手势识别方法及装置 |
CN110568989A (zh) * | 2019-08-23 | 2019-12-13 | 深圳传音控股股份有限公司 | 业务处理方法、业务处理装置、终端及介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107958239B (zh) * | 2018-01-03 | 2021-07-27 | 北京小米移动软件有限公司 | 指纹识别方法及装置 |
-
2022
- 2022-07-22 CN CN202210859896.3A patent/CN115082971B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106548795A (zh) * | 2016-10-31 | 2017-03-29 | 维沃移动通信有限公司 | 一种多媒体播放器的控制方法及移动终端 |
CN106814944A (zh) * | 2016-12-26 | 2017-06-09 | 广东欧珀移动通信有限公司 | 一种进度调整方法、装置及移动终端 |
CN108920079A (zh) * | 2018-06-27 | 2018-11-30 | 北京小米移动软件有限公司 | 手势识别方法及装置 |
CN110568989A (zh) * | 2019-08-23 | 2019-12-13 | 深圳传音控股股份有限公司 | 业务处理方法、业务处理装置、终端及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115082971A (zh) | 2022-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112506342B (zh) | 基于动态手势识别的人机交互方法及系统 | |
CN107808143B (zh) | 基于计算机视觉的动态手势识别方法 | |
CN111444828B (zh) | 一种模型训练的方法、目标检测的方法、装置及存储介质 | |
Ibraheem et al. | Survey on various gesture recognition technologies and techniques | |
CN109145717B (zh) | 一种在线学习的人脸识别方法 | |
Zhu et al. | Vision based hand gesture recognition using 3D shape context | |
CN112861575A (zh) | 一种行人结构化方法、装置、设备和存储介质 | |
CN1828630A (zh) | 基于流形学习的人脸姿势识别方法 | |
Caputo et al. | A 3 Cent Recognizer: Simple and Effective Retrieval and Classification of Mid-air Gestures from Single 3D Traces. | |
CN110458235B (zh) | 一种视频中运动姿势相似度比对方法 | |
Tümen et al. | Feature Extraction and Classifier Combination for Image-based Sketch Recognition. | |
Ramani et al. | Breast cancer detection in mammograms based on clustering techniques-a survey | |
Nasri et al. | A novel approach for dynamic hand gesture recognition using contour-based similarity images | |
Wang et al. | Gesture Feature Extraction and Recognition Based on Image Processing. | |
CA2022075C (en) | Cross-product filter | |
Zhang et al. | Hand gesture recognition with SURF-BOF based on Gray threshold segmentation | |
Jin et al. | Image edge enhancement detection method of human-computer interaction interface based on machine vision technology | |
Yang et al. | Fast and robust key frame extraction method for gesture video based on high-level feature representation | |
CN108257148B (zh) | 特定对象的目标建议窗口生成方法及其在目标跟踪的应用 | |
CN114397963A (zh) | 一种手势识别方法、装置、电子设备及存储介质 | |
CN115082971B (zh) | 一种读取触摸数据信息实现影像轨迹跟踪的方法 | |
CN110309689B (zh) | 基于超宽带雷达的Gabor域手势识别检测方法 | |
Cao et al. | Real-time dynamic gesture recognition and hand servo tracking using PTZ camera | |
Fan et al. | Robust visual tracking via bag of superpixels | |
CN112507940A (zh) | 一种基于差分指导表示学习网络的骨骼动作识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |