CN101916338B - 一种自适应的视点平滑滤波数据处理方法 - Google Patents

一种自适应的视点平滑滤波数据处理方法 Download PDF

Info

Publication number
CN101916338B
CN101916338B CN2010102763466A CN201010276346A CN101916338B CN 101916338 B CN101916338 B CN 101916338B CN 2010102763466 A CN2010102763466 A CN 2010102763466A CN 201010276346 A CN201010276346 A CN 201010276346A CN 101916338 B CN101916338 B CN 101916338B
Authority
CN
China
Prior art keywords
viewpoint
current
window length
smooth
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2010102763466A
Other languages
English (en)
Other versions
CN101916338A (zh
Inventor
潘纲
李姗
李石坚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Zheda Xitou Brain Computer Intelligent Technology Co ltd
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN2010102763466A priority Critical patent/CN101916338B/zh
Publication of CN101916338A publication Critical patent/CN101916338A/zh
Application granted granted Critical
Publication of CN101916338B publication Critical patent/CN101916338B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时域约束的视点聚类的方法,其步骤如下:(1)利用视点信号采集设备检测并记录用户眼睛运动的在线视点二维数据;(2)检测当前视点和聚类中心的距离是否小于聚类阈值;(3)根据视点速度和是否小于聚类阈值更新平滑窗口长度;(4)根据平滑窗口长度进行自适应的高斯滤波,求出平滑后的视点。本发明方法减低设备噪声和视点抖动对于视点平滑的限制和影响,从而提高用户眼动过程中的视点平滑效果。

Description

一种自适应的视点平滑滤波数据处理方法
技术领域
本发明涉及一种自适应的视点平滑滤波数据处理方法,尤其涉及一种平滑窗口长度自适应于视点速度和视点状态(是否在聚类内部)的,采用高斯滤波的视点平滑滤波数据处理方法。
背景技术
随着人机交互越来越深入的发展,推进各种不同模态的新型人机交互方式的发展成为计算技术研究的热点。眼动交互作为一种具有直接性、自然性和双向性的交互技术具有广泛的应用前景。
当前的眼动交互研究中,视点信号的提取技术已经越来越成熟,利用摄像头,生物电等方式能够较好的获取用户视点。但是视点信号的处理还存在一些问题,比如眼动噪声问题,由于眼动获取设备的噪声和眼睛本身存在的抖动、眨眼等干扰行为,使得眼动数据的抖动较大,无法呈现较平滑的视点轨迹,给提取有意义的视点行为造成困难。另外,现有眼动信号的平滑方法没有很好的结合眼动本身的规律,如视点状态和眼动的语义信息等。
发明内容
本发明的目的在于减低设备噪声和眼睛抖动对于视点平滑的影响,提供一种平滑窗口长度自适应于视点速度和视点状态(是否在聚类内部)的,采用高斯滤波的视点平滑滤波数据处理方法。
一种基于时域约束的视点聚类的方法,其步骤如下:
(1)利用视点信号采集设备检测头戴该设备的用户相对于电脑屏幕的二维视点坐标原始数据。
通过眼动仪等视点信号采集设备检测用户包含某种语义的眼睛运动,并记录眼动相对于屏幕的x轴,y轴二维坐标。
步骤(1)中的包含时间的数据gi采用下述方法标记
gi=(xgi,ygi)        (1)
gi标记了第i个视点,xgi,ygi为gi点在电脑屏幕上的的x轴坐标,y轴坐标。xgi,ygi的下标gi表示该数据所属的视点。
(2)初始化在线视点聚类中心坐标,检测新加入的视点和聚类中心的距离是否小于聚类阈值D,D值以使得当前的视点和聚类中心的距离范围在用户的1度视角范围内来确定。初始化在线视点聚类中心坐标c1为首个视点坐标g1,判断新加入的视点gk与聚类中心c1之间的距离是否小于聚类阈值D。
步骤(2)中的距离采用下述方法标记
ξ ( c 1 , g k ) = ( x c 1 - x gk ) 2 + ( y c 1 - y gk ) 2 - - - ( 2 )
ξ(c1,gk)为c1和gk两点间的距离,xc1,yc1为c1点坐标,xgk,ygk为gk点的坐标。
(3)更新聚类中心和平滑窗口长度。
(a)若步骤(2)中,当前的视点和聚类中心的距离小于聚类阈值D,则按照加权均值更新聚类中心,并按照聚类内部采样点的个数更新平滑窗口长度。
步骤(3)(a)中聚类中心的更新方法如下
c 1 = { Σ i = so k x gi k - s 0 , Σ i = so k y gi k - s 0 } - - - ( 3 )
c1为聚类中心,so为聚类起始点下标,k为当前点下标,xgi为gi点的x坐标,ygi为gi点的y坐标。
步骤(3)(a)中的平滑窗口长度更新方法如下
N=min(smoothMax,fixSample)        (4)
N为平滑窗口长度,最大窗口长度smoothMax为在保证响应的条件下的最大的平滑窗口长度,fixSample为当前平滑窗口长度内的样本个数。
(b)若步骤(2)中,当前的视点和聚类中心的时空距离大于聚类阈值D,则开启新的聚类中心,并按照当前采样点速度更新平滑窗口长度;
步骤(3)(b)中开启新的聚类中心的方法为:
c1={xgk,ygk}        (5)
c1为聚类中心,xgk,ygk为当前视点gk的x轴与y轴坐标。
步骤(3)(b)中更新平滑窗口长度的方法为
N = max ( smoothMax * e - Vgn 2 2 ϵ 2 , smoothMin ) - - - ( 6 )
smoothMax为自定义的最大窗口长度,是在响应延时允许的情况下的最大平滑窗口长度常量。gn为当前视点,vgn为gn点的速度,ε为自定义的比例系数,调整窗口随速度变化而变化的速率,ε越大,窗口随速度变化而变化的速率越小,smoothMin为自定义的最小窗口长度,在有足够平滑去抖动效果的基础上的最小常量。按照采样频率,实验中vgn为每1/60秒视点移动的距离,按照平滑的精度,smoothMax的取值范围一般为15-20之间的整数。smoothMin一般取5-10之间的整数,ε的取值使得vgn为2.5度每1/60秒时(约为150度每秒),
Figure BDA0000025883810000032
为smoothMax*(0.5),ε取2。
(4)按照当前平滑窗口长度,通过高斯滤波方法计算,输出平滑后的视点,计算平滑后视点的方法为:
δ n = Σ i = 0 N - 1 e - ( gn + 1 - N + i - gn ) 2 2 σ 2 gn + 1 - N + i Σ i = 0 N - 1 e - ( gn - N + i - gn ) 2 2 σ 2 - - - ( 7 )
δn为平滑后视点,N为平滑滤波窗口长度,gn为当前视点,gn+1-N为当前窗口N中第一个视点,gn+1-N-i为当前窗口长度N内第i+1个视点。σ为高斯滤波参数,σ越大,高斯滤波器的平滑程度就越好。σ的范围为1-10之间。
本发明的积极效果在于减低设备噪声和视点抖动对于视点平滑的限制和影响,从而提高用户眼动过程中的视点平滑效果。本发明方法通过自适应的视点平滑滤波数据处理方法根据眼动状态的检测来辅助平滑操作,针对眼动的运动模式有针对性的予以的平滑处理,有较好的效果。
附图说明
图1是本发明的流程示意图;
图2是对尖锐噪点的平滑处理实验图;
图3是对速度变化视点的平滑处理实验图。
具体实施方式
本发明的步骤如图1所示,
(1)利用美国ASL实验室单目标准H6眼动仪,检测并记录用户的眼动:
用户头戴可检测视点坐标的ASL眼动仪,其原理为瞳孔-角膜反射向量法。光学系统安装在ASL可调节的头盔上,探测结果以指针或交叉瞄准线的形式在场景摄像头的图像上分层显示。同时系统以专用的文件格式记录测量数据,测量数据通过H6型控制单元的RS232串口输出。主要技术参数如下:采样率50/60HZ(无分辨率损失),精确度0.5度视角范围,分辨率0.1度视角,眼动捕捉范围水平45度,垂直35度。
通过眼动仪检测用户包含某种语义的眼睛运动,并记录眼动相对于屏幕的x轴,y轴二维坐标。
眼动坐标gi采用下述方法标记
gi=(xgi,ygi)        (1)
其中眼动坐标的范围不超过屏幕范围。
(2)初始化在线视点聚类中心坐标,检测新加入的视点和聚类中心的距离是否小于聚类阈值D,D值以使得当前的视点和聚类中心的距离范围在用户的1度视角范围内来确定:
初始化在线视点聚类中心坐标c1为首个视点坐标g1,判断新加入的视点gk与聚类中心c1之间的距离是否小于聚类阈值D,D值以使得当前的视点和聚类中心的距离范围在用户的1度视角范围内来确定。
步骤(2)中的距离采用下述方法标记
ξ ( c 1 , g k ) = ( x c 1 - x gk ) 2 + ( y c 1 - y gk ) 2 - - - ( 2 )
(3)更新聚类中心和平滑窗口长度。
(a)若步骤(2)中,当前的视点和聚类中心的距离小于聚类阈值D,则按照加权均值更新聚类中心,并按照聚类内部采样点的个数更新平滑窗口长度。
步骤(3)(a)中聚类中心的更新方法如下
c 1 = { Σ i = so k x gi k - s 0 , Σ i = so k y gi k - s 0 } - - - ( 3 )
步骤(3)(a)中的平滑窗口长度更新方法如下
N=min(smoothMax,fixSample)        (4)
N为平滑窗口长度,smoothMax为在保证响应的条件下的最大窗口长度,fixSample为当前平滑窗口长度内的样本个数。实验中smoothMax取20。
(b)若步骤(2)中,当前的视点和聚类中心的时空距离大于聚类阈值D,则开启新的聚类中心,并按照当前采样点速度更新平滑窗口长度;
步骤(3)(b)中开启新的聚类中心的方法为:
c1={xgk,ygk}        (5)
步骤(3)(b)中更新平滑窗口长度的方法为
N = max ( smoothMax * e - Vgn 2 2 ϵ 2 , smoothMin ) - - - ( 6 )
smoothMax为自定义的最大窗口长度,gn为当前视点,vgn为gn点的速度,ε调整窗口随速度变化而变化的速率,smoothMin为自定义的最小窗口长度。实验中vgn为每1/60秒视点移动的距离,smoothMin取5,ε取2。
(4)按照当前平滑窗口长度,通过高斯滤波方法计算,输出平滑后的视点,计算平滑后视点的方法为:
δ n = Σ i = 0 N - 1 e - ( gn + 1 - N + i - gn ) 2 2 σ 2 gn + 1 - N + i Σ i = 0 N - 1 e - ( gn - N + i - gn ) 2 2 σ 2 - - - ( 7 )
δn为平滑后视点,N为平滑滤波窗口长度,gn为当前视点,gn+1-N为当前窗口N中第一个视点,gn+1-N-i为当前窗口长度N内第i+1个视点。σ为高斯滤波参数,σ越大,高斯滤波器的频带就越宽,平滑程度就越好。实验中σ取5。
本发明的实验结果如图2,3所示,在图2中,我们可以看到,由于自适应的视点平滑滤波数据处理方法对聚类内部的尖锐噪点使用最大窗口进行平滑,有效的减少了干扰和抖动,在尖锐点时的平滑效果明显;在图3中,当出现眼动速度发生快速变化时,自适应的视点平滑滤波数据处理方法对于聚类之间的快速眼动点减小了窗口长度,较好的保留了眼动信息。总的来说,自适应的视点平滑滤波数据处理方法根据眼动状态的检测来辅助平滑操作,针对眼动的运动模式有针对性的予以的平滑处理,有较好的效果。

Claims (4)

1.一种自适应的视点平滑滤波数据处理方法,其步骤如下:
(1)利用视点信号采集设备检测头戴视点信号采集设备的用户的眼睛相对于电脑屏幕的二维视点坐标原始数据;
(2)初始化在线视点聚类中心坐标为首个视点坐标,对每个新的视点,检测当前的视点和聚类中心的距离是否小于聚类阈值D,D值以使得当前的视点和聚类中心的距离范围在用户的1度视角范围内来确定;
(3)更新聚类中心和平滑窗口长度:
(3.1)已知用户距离屏幕的距离,若步骤(2)中,当前的视点和聚类中心的距离范围小于聚类阈值D,按照加权均值更新聚类中心,并按照聚类内部采样点的个数更新平滑窗口长度;
(3.2)若步骤(2)中,当前的视点和聚类中心的距离大于聚类阈值D,则开启新的聚类中心,并按照当前采样点速度更新平滑窗口长度;
(4)按照当前平滑窗口长度,通过自适应的高斯滤波方法计算,输出平滑后的视点,若有新的视点数据,重复循环步骤(2)-(4)。
2.根据权利要求1所述的自适应的视点平滑滤波数据处理方法,其特征是:步骤(2)中的视点平滑滤波之前先通过基于分散域的聚类算法判断视点与之前的视点是否在同一个聚类中。
3.根据权利要求1所述的自适应的视点平滑滤波数据处理方法,其特征是:
(1)所述的步骤(3.1)中若当前的视点和聚类中心的距离小于聚类阈值D,平滑窗口长度N取聚类内部采样点的个数fixSample与最大窗口长度smoothMax两者的较小值,smoothMax是自定义的,在响应允许的情况下的最大平滑窗口长度常量;
(2)所述的步骤(3.2)中若当前的视点和聚类中心的距离大于聚类阈值D,平滑窗口长度N是一个速度自适应的,与当前速度负相关的函数的 函数值与最小窗口长度smoothMin两者的较大值,smoothMin是自定义的,保证防抖动效果的最小平滑窗口长度常量,公式为
Figure FDA0000085671480000021
N为平滑窗口长度,smoothMax为最大窗口长度,gn为当前视点,vgn为gn点当前的速度,ε为自定义的比例系数,调整窗口随速度变化而变化的速率,smoothMin为最小窗口长度。
4.根据权利要求1所述的自适应的视点平滑滤波数据处理方法,其特征是:步骤(4)中,计算平滑后的视点的方法为,取当前平滑窗口长度内的视点,通过高斯滤波算法取加权均值,权重值与该视点在窗口内的位置有关,离当前点越近的视点权重越大。 
CN2010102763466A 2010-09-08 2010-09-08 一种自适应的视点平滑滤波数据处理方法 Active CN101916338B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2010102763466A CN101916338B (zh) 2010-09-08 2010-09-08 一种自适应的视点平滑滤波数据处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2010102763466A CN101916338B (zh) 2010-09-08 2010-09-08 一种自适应的视点平滑滤波数据处理方法

Publications (2)

Publication Number Publication Date
CN101916338A CN101916338A (zh) 2010-12-15
CN101916338B true CN101916338B (zh) 2012-05-23

Family

ID=43323848

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010102763466A Active CN101916338B (zh) 2010-09-08 2010-09-08 一种自适应的视点平滑滤波数据处理方法

Country Status (1)

Country Link
CN (1) CN101916338B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103942615B (zh) * 2014-04-15 2018-03-27 广东电网有限责任公司信息中心 噪点剔除方法
CN105078480B (zh) * 2015-05-18 2018-01-23 中国民航大学 一种空中交通管制员注意力动态分配的测量方法
CN106452670B (zh) * 2016-09-22 2020-04-03 江苏卓胜微电子股份有限公司 一种低复杂度滑窗处理方法
CN109255342B (zh) * 2018-11-20 2020-07-10 武汉大学 一种基于眼动轨迹数据两步聚类的图像感兴趣区域提取方法和系统
CN112990074B (zh) * 2021-03-31 2023-04-07 北京理工大学 基于vr的多场景自主式控制的混合脑机接口在线系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4272711B2 (ja) * 1995-05-15 2009-06-03 キヤノン株式会社 画像生成方法及び装置
KR100654615B1 (ko) * 2004-02-07 2006-12-07 (주)사나이시스템 액정 패널 전산 모사에 있어서 디스플레이 영상의 관찰자시야각 의존성을 파노라믹하게 출력하는 방법
CN101576771B (zh) * 2009-03-24 2010-12-01 山东大学 基于非均匀样本插值的眼动仪定标方法
CN101814136B (zh) * 2010-02-11 2012-12-05 华南理工大学 一种基于快速傅立叶变换的打盹行为检测方法

Also Published As

Publication number Publication date
CN101916338A (zh) 2010-12-15

Similar Documents

Publication Publication Date Title
Liu et al. M-gesture: Person-independent real-time in-air gesture recognition using commodity millimeter wave radar
CN101916338B (zh) 一种自适应的视点平滑滤波数据处理方法
Li et al. Deep Fisher discriminant learning for mobile hand gesture recognition
Khan et al. Robust human locomotion and localization activity recognition over multisensory
US8781991B2 (en) Emotion recognition apparatus and method
CN102789568B (zh) 一种基于深度信息的手势识别方法
CN108371545B (zh) 一种基于多普勒雷达的人体手臂动作感知方法
EP3195102B1 (en) Simulating real-time responsiveness for touch displays
CN101794528A (zh) 一种手语语音双向翻译系统
CN107015646A (zh) 运动状态的识别方法及装置
Yuan et al. Accelerometer-based Chinese traffic police gesture recognition system
WO2014146011A2 (en) Feature extraction and classification to determine one or more activities from sensed motion signals
CN105556434A (zh) 用于传感器系统的连续圆形姿势检测
Xu et al. Attention-based gait recognition and walking direction estimation in wi-fi networks
US11287903B2 (en) User interaction method based on stylus, system for classifying tap events on stylus, and stylus product
Rudigkeit et al. An analytical approach for head gesture recognition with motion sensors
CN112733609A (zh) 一种基于离散小波变换的领域自适应Wi-Fi手势识别方法
WO2014084622A1 (ko) 동작예측을 통한 동작인식방법
CN107390867A (zh) 一种基于安卓手表的人机交互系统
Wang et al. Gaze-aware hand gesture recognition for intelligent construction
Faisal et al. Sensor dataglove for real-time static and dynamic hand gesture recognition
CN102096757A (zh) 一个基于时域约束的注视点聚类数据处理方法
CN107346207B (zh) 一种基于隐马尔科夫模型的动态手势切分识别方法
CN111062300A (zh) 驾驶状态检测方法、装置、设备及计算机可读存储介质
Huang et al. Interpreting American sign language with Kinect

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20200702

Address after: 310013 3 / F, building C, National University Science Park, Zhejiang University, 525 Xixi Road, Hangzhou, Zhejiang Province

Patentee after: Zhejiang University Holding Group Co., Ltd

Address before: 310027 Hangzhou, Zhejiang Province, Xihu District, Zhejiang Road, No. 38, No.

Patentee before: ZHEJIANG University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210723

Address after: Room 801-804, building 1, Zhihui Zhongchuang center, Xihu District, Hangzhou City, Zhejiang Province, 310013

Patentee after: Zhejiang Zheda Xitou Brain Computer Intelligent Technology Co.,Ltd.

Address before: 3 / F, building C, National University Science Park, Zhejiang University, 525 Xixi Road, Hangzhou, Zhejiang 310013

Patentee before: Zhejiang University Holding Group Co., Ltd

TR01 Transfer of patent right