CN106604130A - 一种基于视线追踪的视频播放方法 - Google Patents
一种基于视线追踪的视频播放方法 Download PDFInfo
- Publication number
- CN106604130A CN106604130A CN201611103213.2A CN201611103213A CN106604130A CN 106604130 A CN106604130 A CN 106604130A CN 201611103213 A CN201611103213 A CN 201611103213A CN 106604130 A CN106604130 A CN 106604130A
- Authority
- CN
- China
- Prior art keywords
- point
- user
- pupil
- gray
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Social Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于视线追踪的视频播放方法,其特征在于,包括:确定用户的注视点;判断所述注视点是否在视频播放区域之内;若判断结果为是,则继续播放所述视频;若判断结果为否,则进一步判断所述用户的注视点脱离所述视频播放区域的持续时间是否超过预定时间;若超过所述预定时间,则暂停播放所述视频;若不超过所述预定时间,则继续播放所述视频。本发明提供的技术方案可以实现当用户不再观看视频时,该视频自动暂停,避免了用户因为离开屏幕而造成用户错过了视频内容。
Description
技术领域
本发明涉及电子设备领域,特别涉及一种基于视线追踪的视频播放方法。
背景技术
随着互联网的普及,视频播放在日常生活中占有重要的地位。视频播放器有多个功能,比如开始播放、关闭视频、播放暂停等等。当用户需要开始播放视频时,用户用鼠标点击播放按键。用户需要暂停视频播放时,用户用鼠标点击暂停按键。
视频播放过程中,用户经常会短暂离看屏幕,而此时视频仍会继续播放。等用户回到屏幕前继续进行观看视频时,就会错过视频的内容。此时,用户往往会调整播放器的进度条。由此可见,采用何种技术可以让用户离开屏幕时视频时,视频实现自动暂停播放,是个很重要也很有意义的问题。
发明内容
因此,为解决现有技术存在的技术缺陷和不足,本发明提出一种基于视线追踪的视频播放方法,包括:
确定用户的注视点;
判断所述注视点是否在视频播放区域之内;
若判断结果为是,则继续播放所述视频;
若判断结果为否,则进一步判断所述用户的注视点脱离所述视频播放区域的持续时间是否超过预定时间;
若超过所述预定时间,则暂停播放所述视频;
若不超过所述预定时间,则继续播放所述视频。
在上述实施例的基础上,确定用户的注视点,包括:
获取所述用户的眼部图像;
处理所述眼部图像,利用预先建立的匹配模型,获取所述用户的注视点。
在上述实施例的基础上,获取所述用户的眼部图像,包括:
使用采集设备拍摄所述用户的眼部区域以得到所述用户的眼部图像,其中,所述采集设备包括至少一个红外光源。
在上述实施例的基础上,处理所述眼部图像,包括:
将所述眼部图像进行灰度化处理,得到所述眼部图像的灰度图;
增加所述灰度图的对比度;
在所述灰度图中确定所述用户的瞳孔中心点。
在上述实施例的基础上,在增加所述灰度图的对比度之后,还包括:
采用拉普拉斯算法对所述灰度图进行降噪处理。
在上述实施例的基础上,在所述灰度图中确定所述用户的瞳孔中心点,包括:
在所述灰度图中获取所述用户的瞳孔边缘信息,根据所述瞳孔边缘信息确定所述用户的瞳孔中心点。
在上述实施例的基础上,在所述灰度图中获取所述用户的瞳孔边缘信息,包括:
在所述灰度图中对所述用户的瞳孔中心点进行粗定位,得到瞳孔粗定位点的坐标(xmin,ymin);
以所述瞳孔粗定位点为起点沿多个射线方向计算所述灰度图上不同位置处的灰度值的变化;
沿每一所述射线的方向获取灰度值变化最大的点,确定该点为所述用户的瞳孔边缘点,由此得到所述用户的多个瞳孔边缘点。
在上述实施例的基础上,所述多条射线的任意相邻两条射线形成的夹角相同,相应地,根据所述瞳孔边缘信息确定所述用户的瞳孔中心点,包括:
以所述瞳孔粗定位点的坐标(xmin,ymin)为原点建立平面直角坐标系;
求出所述多个瞳孔边缘点在所述平面直角坐标系中水平方向的坐标平均值xmean及竖直方向上的坐标平均值ymean;
确定点(xmean,ymean)为所述用户的瞳孔中心点。
在上述实施例的基础上,根据所述瞳孔边缘信息确定所述用户的瞳孔中心点,包括:
将所述多个瞳孔边缘点拟合成一个类椭圆;
确定所述类椭圆的中心为所述用户的瞳孔中心点。
在上述实施例的基础上,所述匹配模型的建立过程,包括:
引导所述用户观察屏幕上位置坐标已知的K个点;
记录所述用户观察每一个点时对应的瞳孔中心点的坐标;
根据所述屏幕上点的坐标及与该点对应的所述用户的瞳孔中心点的坐标之间的关系,建立所述匹配模型,其中,所述匹配模型的输入为所述用户的瞳孔中心点的坐标,所述匹配模型的输出为所述屏幕上点的坐标,进而实现通过所述用户的瞳孔中心点,获取所述用户的注视点。
本发明提供的技术方案可以实现当用户不再观看视频时,该视频自动暂停,避免了用户因为离开屏幕而造成用户错过了视频内容。
通过以下参考附图的详细说明,本发明的其它方面和特征变得明显。但是应当知道,该附图仅仅为解释的目的设计,而不是作为本发明的范围的限定,这是因为其应当参考附加的权利要求。还应当知道,除非另外指出,不必要依比例绘制附图,它们仅仅力图概念地说明此处描述的结构和流程。
附图说明
下面将结合附图,对本发明的具体实施方式进行详细的说明。
图1为本发明实施例提供的一种基于视线追踪的视频播放方法的流程图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图对本发明的具体实施方式做详细的说明。
如图1所示,本发明提出了一种基于视线追踪的视频播放方法,该方法包括如下步骤:
确定用户的注视点;
判断所述注视点是否在视频播放区域之内;
若判断结果为是,则继续播放所述视频;
若判断结果为否,则进一步判断所述用户的注视点脱离所述视频播放区域的持续时间是否超过预定时间;
若超过所述预定时间,则暂停播放所述视频;
若不超过所述预定时间,则继续播放所述视频。
进一步地,在上述实施例的基础上,确定用户的注视点,可以是:
获取所述用户的眼部图像;
处理所述眼部图像,利用预先建立的匹配模型,获取所述用户的注视点。
进一步地,在上述实施例的基础上,获取所述用户的眼部图像,可以为:
使用采集设备拍摄所述用户的眼部区域以得到所述用户的眼部图像,其中,所述采集设备包括至少一个红外光源。
进一步地,在上述实施例的基础上,处理所述眼部图像,可以是:
将所述眼部图像进行灰度化处理,得到所述眼部图像的灰度图;
增加所述灰度图的对比度;
在所述灰度图中确定所述用户的瞳孔中心点。
其中,增加所述灰度图的对比度可以采用以下方法:
采用增强算子作用在所述眼部图像的灰度图的每个像素以使图像亮度增强进而实现灰度对比度的增大。其中,所述增强算子的公式为:En=c*lg(1+double(f0));其中,En为增强算子,f0为原灰度值,c是常系数。其中,c的具体取值可根据实际情况设置,本发明在此不做限制。
进一步地,在上述实施例的基础上,在增加所述灰度图的对比度之后,还可进行如下处理:
采用拉普拉斯算法对所述灰度图进行降噪处理。
进一步地,在上述实施例的基础上,在所述灰度图中确定所述用户的瞳孔中心点,可以采用如下方式:
在所述灰度图中获取所述用户的瞳孔边缘信息,根据所述瞳孔边缘信息确定所述用户的瞳孔中心点。
进一步地,在上述实施例的基础上,在所述灰度图中获取所述用户的瞳孔边缘信息,可以采用如下方式:
在所述灰度图中对所述用户的瞳孔中心点进行粗定位,得到瞳孔粗定位点的坐标(xmin,ymin);
优选地,xmin,ymin的计算方法可以为:
其中,min表示取最小值运算,sum表示求和运算,f(i,j)表示在坐标(i,j)处图像的灰度值。
以所述瞳孔粗定位点为起点沿多个射线方向计算所述灰度图上不同位置处的灰度值的变化;
沿每一所述射线的方向获取灰度值变化最大的点,确定该点为所述用户的瞳孔边缘点,由此得到所述用户的多个瞳孔边缘点。
例如,设f(i,j)为图像f在坐标(i,j)处的灰度值,灰度值的偏微分为:
则该方向的灰度梯度:
D最大的点即为边缘点。
进一步地,在上述实施例的基础上,所述多条射线的任意相邻两条射线形成的夹角相同,相应地,根据所述瞳孔边缘信息确定所述用户的瞳孔中心点,可以采用如下方法:
以所述瞳孔粗定位点的坐标(xmin,ymin)为原点建立平面直角坐标系;
求出所述多个瞳孔边缘点在所述平面直角坐标系中水平方向的坐标平均值xmean及竖直方向上的坐标平均值ymean;
确定点(xmean,ymean)为所述用户的瞳孔中心点。
进一步地,在上述实施例的基础上,根据所述瞳孔边缘信息确定所述用户的瞳孔中心点,可以采用如下方法:
将所述多个瞳孔边缘点拟合成一个类椭圆;
确定所述类椭圆的中心为所述用户的瞳孔中心点。
其中,将所述多个瞳孔边缘点拟合成一个类椭圆,可以采用如下方案:
具体地,本方案采用最小二乘法(LSM)和随机采样一致性(RANSAC)混合迭代的一种算法,对多个所述瞳孔边缘点进行拟合处理形成类椭圆曲线。本方法既能够克服最小二乘法精度不高的缺点,又改进了RANSAC算法时效性的不足。具体步骤如下:
步骤a、从N个所述特征点中选取任意5个点,使用最小二乘法进行椭圆拟合形成第一类椭圆方程;
步骤b、对N个所述特征点利用随机采样一致性算法通过所述第一类椭圆方程进行局内点和局外点甄别,统计得到M个局内点和N-M个局外点;
在本实施例中,落在所述类椭圆上的点,视为局内点。当然,本发明不在此处做限制。
步骤c、判断局内点占有率是否小于第一阈值t1;若是,则确定所述5个点为非典型特征点,拟合椭圆为非典型特征椭圆,则重新执行步骤a;若否,则确定所述5个点为典型特征点,则执行步骤d;
步骤d、根据所述M个局内点任意选取5个点,利用最小二乘法对所述第一类椭圆方程进行优化形成第二类椭圆方程,并对所述N个特征点利用随机采样一致性算法通过所述第二类椭圆方程进行局内点和局外点甄别,最终统计得到M1个局内点和N-M1局外点;
步骤e、判断局内点占有率是否大于第二阈值t2;如是,则终止迭代,认为所述第二类椭圆方程为最优方程;若否,则执行步骤d。
可选地,本发明实施例还提供另一种采用最小二乘法(LSM)和随机采样一致性(RANSAC)混合迭代的一种算法,对多个所述瞳孔边缘点进行拟合处理形成类椭圆曲线。具体步骤如下:
步骤S1:从N个特征点中选取任意5个点,使用LSM进行椭圆拟合,将剩余的N-5个点利用RANSAC带入椭圆方程进行局内点和局外点甄别,统计出N个点中共有M个局内点,N-M个局外点;
步骤S2:如果局内点占有率小于阈值t1,则认为步骤S1选取的5个点为非典型特征点,拟合椭圆为非典型特征椭圆,跳到步骤S1;若则认为步骤S1选取的5个点典型特征点,则跳往步骤S3;
步骤S3:将步骤S1中甄别出的M个局内特征点全部带入LSM方程,求出优化的椭圆方程,再次使用RANSAC算法,对N-M个特征点带入新的椭圆方程进行局内点的再甄别,甄别的局内点为M1,局外点为N-M1;
步骤S4:计算局内点占有率若大于阈值t2,则终止迭代,认为当前的椭圆方程为最优方程;若则认为局内点比例无法满足阈值,跳入步骤S3,再次迭代。
进一步地,在上述实施例的基础上,所述匹配模型的建立过程的方法可以为:
引导所述用户观察屏幕上位置坐标已知的K个点;
记录所述用户观察每一个点时对应的瞳孔中心点的坐标;
根据所述屏幕上点的坐标及与该点对应的所述用户的瞳孔中心点的坐标之间的关系,建立所述匹配模型,其中,所述匹配模型的输入为所述用户的瞳孔中心点的坐标,所述匹配模型的输出为所述屏幕上点的坐标,进而实现通过所述用户的瞳孔中心点,获取所述用户的注视点。
本发明还提供一种匹配模型的建立方法,根据所述K个点的坐标(X,Y)和所述瞳孔中心点的坐标(x,y)得到映射模型(X,Y)=F(x,y),具体可以采用如下方法:
选取所述匹配模型为:
通过所述K个点的坐标(X,Y)和对应的所述瞳孔中心点的坐标(x,y)确定所述匹配模型的参数a、b、c、d、e、f、g、h、k、l、m及n,以完成所述匹配模型的建立。
具体地,屏幕中依次出现的K个点的坐标记录为X=(X1,X2,X3…Xk),Y=(Y1,Y2,Y3…Yk),对应的瞳孔中心坐标为x=(x1,x2,x3…xk),y=(y1,y2,y3…yk),模型的建立则可以用下面的矩阵表达:
f(x,y)表示x和y的一种关系,代表着映射关系函数F绝非简单的一次线性关系,M表示瞳孔中心位置和屏幕坐标之间的映射参数。
本发明建立的模型如下:
将该模型使用矩阵形式表达为:
则
在本模型中,取K=6时,X,Y对应有6个屏幕坐标,瞳孔相应也有6个对应中心坐标,X=|X1,X2,X3,X4,X5,X6|,Y=|Y1,Y2,Y3,Y4,Y5,Y6|,同理,x=|x1,x2,x3,x4,x5,x6|,y=|y1,y2,y3,y4,y5,y6|,那么上面的矩阵可以进一步改写为:
通过方程组求出a、b、c、d、e、f、g、h、k、l、m及n,进而得到所述匹配模型。
本发明提供的技术方案可以实现当用户不再观看视频时,该视频自动暂停,避免了用户因为离开屏幕而造成用户错过了视频内容。
综上所述,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制,本发明的保护范围应以所附的权利要求为准。
Claims (10)
1.一种基于视线追踪的视频播放方法,其特征在于,包括:
确定用户的注视点;
判断所述注视点是否在视频播放区域之内;
若判断结果为是,则继续播放所述视频;
若判断结果为否,则进一步判断所述用户的注视点脱离所述视频播放区域的持续时间是否超过预定时间;
若超过所述预定时间,则暂停播放所述视频;
若不超过所述预定时间,则继续播放所述视频。
2.如权利要求1所述的方法,其特征在于,确定用户的注视点,包括:
获取所述用户的眼部图像;
处理所述眼部图像,利用预先建立的匹配模型,获取所述用户的注视点。
3.如权利要求2所述的方法,其特征在于,获取所述用户的眼部图像,包括:
使用采集设备拍摄所述用户的眼部区域以得到所述用户的眼部图像,其中,所述采集设备包括至少一个红外光源。
4.如权利要求2所述的方法,其特征在于,处理所述眼部图像,包括:
将所述眼部图像进行灰度化处理,得到所述眼部图像的灰度图;
增加所述灰度图的对比度;
在所述灰度图中确定所述用户的瞳孔中心点。
5.如权利要求4所述的方法,其特征在于,在增加所述灰度图的对比度之后,还包括:
采用拉普拉斯算法对所述灰度图进行降噪处理。
6.如权利要求4所述的方法,其特征在于,在所述灰度图中确定所述用户的瞳孔中心点,包括:
在所述灰度图中获取所述用户的瞳孔边缘信息,根据所述瞳孔边缘信息确定所述用户的瞳孔中心点。
7.如权利要求6所述的方法,其特征在于,在所述灰度图中获取所述用户的瞳孔边缘信息,包括:
在所述灰度图中对所述用户的瞳孔中心点进行粗定位,得到瞳孔粗定位点的坐标(xmin,ymin);
以所述瞳孔粗定位点为起点沿多个射线方向计算所述灰度图上不同位置处的灰度值的变化;
沿每一所述射线的方向获取灰度值变化最大的点,确定该点为所述用户的瞳孔边缘点,由此得到所述用户的多个瞳孔边缘点。
8.如权利要求7所述的方法,其特征在于,所述多条射线的任意相邻两条射线形成的夹角相同,相应地,根据所述瞳孔边缘信息确定所述用户的瞳孔中心点,包括:
以所述瞳孔粗定位点的坐标(xmin,ymin)为原点建立平面直角坐标系;
求出所述多个瞳孔边缘点在所述平面直角坐标系中水平方向的坐标平均值xmean及竖直方向上的坐标平均值ymean;
确定点(xmean,ymean)为所述用户的瞳孔中心点。
9.如权利要求7所述的方法,其特征在于,根据所述瞳孔边缘信息确定所述用户的瞳孔中心点,包括:
将所述多个瞳孔边缘点拟合成一个类椭圆;
确定所述类椭圆的中心为所述用户的瞳孔中心点。
10.如权利要求2所述的方法,其特征在于,所述匹配模型的建立过程,包括:
引导所述用户观察屏幕上位置坐标已知的K个点;
记录所述用户观察每一个点时对应的瞳孔中心点的坐标;
根据所述屏幕上点的坐标及与该点对应的所述用户的瞳孔中心点的坐标之间的关系,建立所述匹配模型,其中,所述匹配模型的输入为所述用户的瞳孔中心点的坐标,所述匹配模型的输出为所述屏幕上点的坐标,进而实现通过所述用户的瞳孔中心点,获取所述用户的注视点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611103213.2A CN106604130A (zh) | 2016-12-03 | 2016-12-03 | 一种基于视线追踪的视频播放方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611103213.2A CN106604130A (zh) | 2016-12-03 | 2016-12-03 | 一种基于视线追踪的视频播放方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106604130A true CN106604130A (zh) | 2017-04-26 |
Family
ID=58595765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611103213.2A Pending CN106604130A (zh) | 2016-12-03 | 2016-12-03 | 一种基于视线追踪的视频播放方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106604130A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110286753A (zh) * | 2019-06-11 | 2019-09-27 | 福建天泉教育科技有限公司 | 视频关注度判断方法、存储介质 |
CN111586459A (zh) * | 2020-05-22 | 2020-08-25 | 北京百度网讯科技有限公司 | 一种控制视频播放的方法、装置、电子设备及存储介质 |
CN112219205A (zh) * | 2018-06-05 | 2021-01-12 | 奇跃公司 | 内容到空间3d环境的匹配 |
CN114779925A (zh) * | 2022-03-22 | 2022-07-22 | 天津理工大学 | 一种基于单目标的视线交互方法及装置 |
JP2022537236A (ja) * | 2020-05-22 | 2022-08-25 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 動画再生の制御方法、装置、電子機器及び記憶媒体 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679180A (zh) * | 2012-09-19 | 2014-03-26 | 武汉元宝创意科技有限公司 | 一种基于单摄像头单光源的视线追踪方法 |
WO2015135106A1 (en) * | 2014-03-10 | 2015-09-17 | Nokia Technologies Oy | Method and apparatus for video processing |
CN105138965A (zh) * | 2015-07-31 | 2015-12-09 | 东南大学 | 一种近眼式视线跟踪方法及其系统 |
CN105721939A (zh) * | 2016-04-29 | 2016-06-29 | 乐视控股(北京)有限公司 | 视频播放方法和装置 |
-
2016
- 2016-12-03 CN CN201611103213.2A patent/CN106604130A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103679180A (zh) * | 2012-09-19 | 2014-03-26 | 武汉元宝创意科技有限公司 | 一种基于单摄像头单光源的视线追踪方法 |
WO2015135106A1 (en) * | 2014-03-10 | 2015-09-17 | Nokia Technologies Oy | Method and apparatus for video processing |
CN105138965A (zh) * | 2015-07-31 | 2015-12-09 | 东南大学 | 一种近眼式视线跟踪方法及其系统 |
CN105721939A (zh) * | 2016-04-29 | 2016-06-29 | 乐视控股(北京)有限公司 | 视频播放方法和装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112219205A (zh) * | 2018-06-05 | 2021-01-12 | 奇跃公司 | 内容到空间3d环境的匹配 |
CN112219205B (zh) * | 2018-06-05 | 2022-10-25 | 奇跃公司 | 内容到空间3d环境的匹配 |
CN110286753A (zh) * | 2019-06-11 | 2019-09-27 | 福建天泉教育科技有限公司 | 视频关注度判断方法、存储介质 |
CN110286753B (zh) * | 2019-06-11 | 2022-06-07 | 福建天泉教育科技有限公司 | 视频关注度判断方法、存储介质 |
CN111586459A (zh) * | 2020-05-22 | 2020-08-25 | 北京百度网讯科技有限公司 | 一种控制视频播放的方法、装置、电子设备及存储介质 |
JP2022537236A (ja) * | 2020-05-22 | 2022-08-25 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 動画再生の制御方法、装置、電子機器及び記憶媒体 |
CN114779925A (zh) * | 2022-03-22 | 2022-07-22 | 天津理工大学 | 一种基于单目标的视线交互方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106604130A (zh) | 一种基于视线追踪的视频播放方法 | |
US20220303446A1 (en) | Techniques for determining settings for a content capture device | |
DE112016006081T5 (de) | Automatische Echtzeit-Fahrzeugkamerakalibrierung | |
US11328687B2 (en) | Display adjustment method, display adjustment apparatus, display device, computer device and storage medium | |
CN110309784A (zh) | 动作识别处理方法、装置、设备和存储介质 | |
US9330333B2 (en) | Method and apparatus for image content-based automatic brightness detection | |
CN109934785A (zh) | 图像锐化方法及装置 | |
WO2020042542A1 (zh) | 眼动控制校准数据获取方法和装置 | |
CN106774862B (zh) | 基于视线的vr显示方法及vr设备 | |
CN103412643B (zh) | 终端及其遥控的方法 | |
CN111104910B (zh) | 垃圾投递行为监督方法及相关产品 | |
DE202014011483U1 (de) | Endgerät | |
CN104571474A (zh) | 一种对终端屏幕显示内容进行自适应调整的方法和装置 | |
CN109766007A (zh) | 一种显示设备的注视点补偿方法及补偿装置、显示设备 | |
CN105678732A (zh) | 一种点球、角球和任意球关键帧的检测方法和装置 | |
CN113495629B (zh) | 笔记本电脑显示屏亮度调节系统及方法 | |
CN111184994B (zh) | 击球训练方法、终端设备及存储介质 | |
CN104112131A (zh) | 一种用于人脸检测的训练样本的生成方法及装置 | |
DE112017008230T5 (de) | Verfahren und vorrichtung zum abbilden einer virtuellen umgebung auf eine physische umgebung | |
WO2021259033A1 (zh) | 人脸识别方法、电子设备以及存储介质 | |
CN106131421A (zh) | 一种视频图像的调整方法和电子设备 | |
CN109905694B (zh) | 一种立体视频的质量评价方法、装置和设备 | |
CN107704106B (zh) | 姿态定位方法、装置及电子设备 | |
Bai et al. | Mobile terminal implementation of image filtering and edge detection based on OpenCV | |
CN110047057A (zh) | 一种图片处理方法、终端及存储装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170426 |
|
RJ01 | Rejection of invention patent application after publication |