CN104866470B - 一种基于用户眼球的单词查询方法 - Google Patents
一种基于用户眼球的单词查询方法 Download PDFInfo
- Publication number
- CN104866470B CN104866470B CN201510283624.3A CN201510283624A CN104866470B CN 104866470 B CN104866470 B CN 104866470B CN 201510283624 A CN201510283624 A CN 201510283624A CN 104866470 B CN104866470 B CN 104866470B
- Authority
- CN
- China
- Prior art keywords
- user
- word
- mrow
- region
- vocabulary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
Abstract
本发明涉及一种基于用户眼球的单词查询方法,包括以下步骤:1)判断用户初始词汇量;2)计算用户眼球区域时间;3)根据用户眼球在该区域停留的时间和用户的词汇量判断用户不认识的单词并列表;4)用户阅读完后,对列表中的单词进行筛选,选出陌生单词并分类。通过眼睛定位屏幕区域的时间来推测用户是否在该屏幕区域中有陌生词,不需要通过鼠标移动到该区域来,以方便用户阅读的连贯性和便捷性。
Description
技术领域
本发明涉及属于模式分类、计算机视觉领域,具体涉及一种基于用户眼球的单词查询方法。
背景技术
当今社会信息化发展的今天,人们在电脑上阅读的习惯也越来越普遍。而我们阅读的内容的多样化的同时也产生了很多需求,比如一个非英语作为其母语的学生在阅读英文类的书籍是难免会发生不认识的单词的情况。对于这样一种情形,在互联网发达的今天已经有了很多的电子词典软件辅助我们查阅陌生单词提高我们的效率。就我们目前的情况而言,已经成熟并大量投入使用的词典有金山词霸,有道词典,灵格斯词霸等等。它们目前的查询方式有以下几个:通过键盘输入单词查询方式,通过鼠标指针移动取词查询方式。其中第二种查找方式为用户的查询提供了很大的便捷性,备受广大用户喜爱。但是这种方式也有其缺点,第一当我们发现又不认识的单词时,必须将鼠标指针移动到该单词的位置,这还是比较麻烦;第二当我们的鼠标指针不小心落到一个认识的单词上时,它也会出现该单词的释义,从而挡住了其他单词的位置,使我们在阅读时不得不把鼠标的位置摆放到一个特定的区域,以免影响到我们阅读的连贯性。
发明内容
本发明的目的在于克服上述现有技术中存在的缺点,提供一种基于用户眼球的单词查询方法,具有方便快捷的优点。
为实现上述目的,本发明采用以下技术方案:包括以下步骤:
1)判断用户初始词汇量;
2)计算用户眼球区域时间;
3)根据用户眼球在该区域停留的时间和用户的词汇量判断用户不认识的单词并列表;
4)用户阅读完后,对列表中的单词进行筛选,选出陌生单词并更新分类器。
所述的1)判断用户初始词汇量的具体方法为:
(1-1)通过录入若干相关度高的英语文章,统计每个常用单词的词频;
(1-2)对统计出来的词频进行排序;
(1-3)将出现频率高的词库录入词典中;
(1-4)对每个词库我们随机抽取单词作为该词库的样本单词;
(1-5)根据用户填写自己的个人信息后,我们将对应词库的样本单词给用户,让其进行判断,根据其答题情况,通过决策树算法判断出用户的词汇量;
(1-6)判断出用户词汇量后,将用户的正确率统计出来,通过第二步的单词频率,推断出用户在该词汇量下对单词的掌握程度。
所述的2)计算用户眼球区域时间的具体方法为:
(2-1)定义电脑屏幕分为m*n个区域,每个区域Areai用(Xbi,Ybi,Xei,Yei)表示;
(2-2)用电脑摄像头拍摄用户脸部,通过Viola人脸检测器检测出人脸位置;
(2-3)对人脸位置区域进行图像去噪预处理操作;
(2-4)利用AAM人脸模型找到人眼球中心坐标,通过坐标映射算法算出人眼注视在屏幕的区域(Areai)和当前注视的时刻t;
(2-5)通过在一个区域Areai内计算当前注视时刻的最大值和最小值算眼球在该区域内的注视时间。
所述3)根据用户眼球在该区域停留的时间判断用户不认识的单词并列表的方式为:当用户该注视时间大于设定的阈值时提取该区域内的单词。
所述选4)选出陌生单词的方法为:
(4-1)通过上一步所知道的用户的区域我们将该区域内所有的单词提取出来;
(4-2)依靠用户的词汇量,利用我们之前训练好的一个分类模型将该区域内所有的单词进行分类;
(4-3)对分类的结果为陌生词的单词进行词典查找为用户列出该单词的释义列表。
所述4)中选出陌生单词的方法为:分类用户的陌生词和已知词选取的特征为单词的词频和其长度还有单词之间的相似度作为特征,训练SVM分类器判断用户所注视区域内的所有单词是否有用户的陌生词。
所述训练SVM分类器的训练步骤为:
(5-1)通过logistic函数将特征值归一化
(5-2)确定超平面的分类函数
f(x)=wTx+b
(5-3)定义函数间隔
(5-4)定义最大间隔分类器
(5-5)选择真阳性率(true positive rate,TPR)从而确定向量机参数进行训练;
(5-6)将用户所注视区域的单词输入训练模型进行计算,将所得结果与模型的参数进行比较,当误差值小于定义的误差时,则判定该单词为陌生词,否则为已知词。
所述4)完成后,用于对用户将该列表中认识的单词打钩,然后提交;系统根据该列表的内容,生成新的训练数据对我们的分类模型进一步的训练;更新分类器以供用户的下一次使用。
本发明具有以下的有益效果:相比较现有技术,本发明包括以下步骤1)判断用户初始词汇量;2)计算用户眼球区域时间;3)根据用户眼球在该区域停留的时间和用户的词汇量判断用户不认识的单词并列表;4)用户阅读完后,对列表中的单词进行筛选,选出陌生单词并分类。通过眼睛定位屏幕区域的时间来推测用户是否在该屏幕区域中有陌生词,不需要通过鼠标移动到该区域来,以方便用户阅读的连贯性和便捷性。
进一步的,通过不断的训练用户的陌生词库,以使得用户的陌生词库越来越精确,使用户感到词典越来越好用,越来越“了解”用户的词汇量。
附图说明
图1是用户初始词汇量判断图;
图2是用户眼球区域时间计算图;
图3是用户陌生词辅助查询图;
图4是训练器更新图。
具体实施方式
下面结合附图,对本发明作进一步详细说明。
参见图1-4,本发明包括以下步骤:
1)判断用户初始词汇量;
2)计算用户眼球区域时间;
3)根据用户眼球在该区域停留的时间和用户的词汇量判断用户不认识的单词并列表;
4)用户阅读完后,对列表中的单词进行筛选,选出陌生单词并分类。
1)判断用户初始词汇量的具体方法为:
(1-1)通过录入若干相关度高的英语文章,统计每个常用单词的词频;
(1-2)对统计出来的词频进行排序;
(1-3)将出现频率高的词库录入词典中;
(1-4)对每个词库我们随机抽取单词作为该词库的样本单词;
(1-5)根据用户填写自己的个人信息后,我们将对应词库的样本单词给用户,让其进行判断,根据其答题情况,通过决策树算法判断出用户的词汇量;
(1-6)判断出用户词汇量后,将用户的正确率统计出来,通过第二步的单词频率,推断出用户在该词汇量下对单词的掌握程度。
2)计算用户眼球区域时间的具体方法为:
(2-1)定义电脑屏幕分为m*n个区域,每个区域Areai用(Xbi,Ybi,Xei,Yei)表示;
(2-2)用电脑摄像头拍摄用户脸部,通过Viola人脸检测器检测出人脸位置;
(2-3)对人脸位置区域进行图像去噪预处理操作;
(2-4)利用AAM人脸模型找到人眼球中心坐标,通过坐标映射算法算出人
眼注视在屏幕的区域(Areai)和当前注视的时刻t;
(2-5)通过在一个区域Areai内计算当前注视时刻的最大值和最小值算眼球在该区域内的注视时间。
3)根据用户眼球在该区域停留的时间判断用户不认识的单词并列表的方式为:当用户该注视时间大于设定的阈值时提取该区域内的单词。
4)选出陌生单词的方法为:
(4-1)通过上一步所知道的用户的区域我们将该区域内所有的单词提取出来;
(4-2)依靠用户的词汇量,利用我们之前训练好的一个分类模型将该区域内所有的单词进行分类;
(4-3)对分类的结果为陌生词的单词进行词典查找为用户列出该单词的释义列表。
4)中选出陌生单词的方法为:分类用户的陌生词和已知词选取的特征为单词的词频和其长度还有单词之间的相似度作为特征,训练SVM分类器判断用户所注视区域内的所有单词是否有用户的陌生词。
训练SVM分类器的训练步骤为:
(5-1)通过logistic函数将特征值归一化
(5-2)确定超平面的分类函数
f(x)=wTx+b
(5-3)定义函数间隔
(5-4)定义最大间隔分类器
(5-5)选择真阳性率(true positive rate,TPR)从而确定向量机参数进行训练;
(5-6)将用户所注视区域的单词输入训练模型进行计算,将所得结果与模型的参数进行比较,当误差值小于定义的误差时,则判定该单词为陌生词,否则为已知词。
完成后,用于对用户将该列表中认识的单词打钩,然后提交;
系统根据该列表的内容,生成新的训练数据对我们的分类模型进一步的训练;更新分类器以供用户的下一次使用。
本发明分为三个步骤:一是用户初始词汇量推断;二是用户眼球区域时间计算;三是依据用户眼球在该区域停留的时间和用户的词汇量推断出该区域内用户不认识的单词,为用户列出用户可能不认识的单词的列表;四是用户标识不认识的单词提供给系统以作为再次训练的反馈。
步骤一、用户初始词汇量判断
1.用户开启我们的词典系统;
2.用户填写自己的资料信息年龄、学历、语言;
3.根据用户填写的信息我们选择相应的词库让用户辨别认识到单词;
4.根据用户的答题情况我们采取决策树算法推断出用户当前的词汇量;
参见附图1,步骤二、用户眼球区域时间计算
1.用户在阅读时我们的系统利用摄像头扫视用户,并利用计算机视觉中的人脸识别算法识别人脸;
2.若未识别出人脸则转1,否则,转3;
3.利用图像识别算法在识别出的人脸区域内识别人的眼球中心;
4.若识别出眼球中心则记录其坐标,否则转3;
5.通过坐标变换将识别出的眼球坐标映射到电脑屏幕中的一块区域;
6.将眼球在该区域内注视的时间记录下来,与之前的在其他区域的时间进行比较;
7.若该时间比之前的平均时间长则系统认为该用户在该区域内可能有不认识的单词转步骤三,否则转1。
参见附图2,步骤三、根据用户眼球在该区域停留的时间和用户的词汇量推断出用户不认识的单词,列出用户可能不认识的单词,辅助用户查询:
1.通过上一步所知道的用户的区域我们将该区域内所有的单词提取出来;
2.依靠用户的词汇量,利用我们之前训练好的一个分类模型将该区域内所有的单词进行分类;
3.对分类的结果为陌生词的单词进行词典查找为用户列出该单词的释义列表。
参见附图3,步骤四、用户在阅读完后,对列表中的单词进行表示
1.用户将该列表中认识的单词打钩,然后提交;
2.我们的系统会根据该列表的内容,生成新的训练数据对我们的分类模型进一步的训练;
3.更新分类器以供用户的下一次使用。
参见附图4,本发明提出一种基于用户的历史查询和眼球注视区域时间以方便用户查询单词的方法,我们使用现有的普通PC机进行该词典查询系统的开发。
本发明的核心方法如下:
1.用户初始词汇量推断
在用户第一次使用本词典时,我们需要对用户进行一个词汇量的判断,以供用户方便的使用本词典做一个较好的基础。该算法的主要步骤如下:
(1)通过录入几本常见的英语小说和英语报刊,统计每个常用单词的词频;
(2)对统计出来的词频进行排序;
(3)将常见的词库录入词典,如高中词库,四级词库,六级词库,TOFEL词库等;
(4)对每个词库我们随机抽取50个单词作为该词库的样本单词;
(5)根据用户填写自己的个人信息后,我们将对应词库的样本单词给用户,让其进行判断,根据其答题情况,通过决策树算法判断出用户的词汇量;
(6)判断出用户词汇量后,将用户的正确率统计出来,通过第二步的单词频率,推断出用户在该词汇量下对单词的掌握程度。
2、用户眼球区域时间计算
(1)我们定义将电脑屏幕分为m*n个区域,每个区域Areai用(Xbi,Ybi,Xei,Yei)表示;
(2)用电脑摄像头拍摄用户脸部,通过Viola人脸检测器检测出人脸位置;
(3)利用图像处理算法对人脸位置区域进行一些图像去噪的预处理操作;
(4)利用AAM人脸模型找到人眼球中心坐标,通过坐标映射算法算出人眼注视在屏幕的区域(Areai)和当前注视的时刻t;
(5)通过在一个区域Areai内计算当前注视时刻的最大值和最小值可算出眼球在该区域内的注视时间;
(6)当该注视时间大于一定的阈值时我们对该区域内的单词提取出来。
3、陌生词分类
我们在分类用户的陌生词和已知词选取的特征为单词的词频和其长度还有单词之间的相似度作为特征,通过这些特征来训练SVM分类器,该分类器的作用是判断用户所注视区域内的所有单词是否有用户的陌生词。我们的SVM将我们获得的单词的特征作为分类器的输入进行训练。训练步骤如下:
(1)通过logistic函数将我们获得的特征值归一化
(2)确定超平面的分类函数
f(x)=wTx+b;
(3)定义函数间隔
(4)定义最大间隔分类器
(5)选择真阳性率(true positive rate,TPR)从而确定向量机参数进行训练;
(6)将用户所注视区域的单词输入训练模型进行计算,将所得结果与模型的参数进行比较,当误差值小于我们定义的误差时,则判定该单词为陌生词,否则为已知词。
4、训练器更新
(1)用户阅读完成后通过用户将我们训练模型认为的陌生词表进行反馈;
(2)我们对其中用户打钩的单词提取出其相应的单词特征;
(3)将这些单词特征和其相应的新的标识作为输入,再次进行训练,更新训练模型,以便作为下次的使用。
本发明中的单词查询技术和现有的电子查询技术相比,我们具有两个方面的优点:(1)通过眼睛定位屏幕区域的时间来推测用户是否在该屏幕区域中有陌生词,不需要通过鼠标移动到该区域来,以方便用户阅读的连贯性和便捷性。(2)通过不断的训练用户的陌生词库,以使得用户的陌生词库越来越精确,使用户感到词典越来越好用,越来越“了解”用户的词汇量。
Claims (6)
1.一种基于用户眼球的单词查询方法,其特征在于:包括以下步骤:
1)判断用户初始词汇量;
2)计算用户眼球区域时间:
(2-1)定义电脑屏幕分为m*n个区域,每个区域Areai用(Xbi,Ybi,Xei,Yei)表示;
(2-2)用电脑摄像头拍摄用户脸部,通过Viola人脸检测器检测出人脸位置;
(2-3)对人脸位置区域进行图像去噪预处理操作;
(2-4)利用AAM人脸模型找到人眼球中心坐标,通过坐标映射算法算出人眼注视在屏幕的区域Areai和当前注视的时刻t;
(2-5)通过在一个区域Areai内计算当前注视时刻的最大值和最小值算眼球在该区域内的注视时间;
3)根据用户眼球在该区域停留的时间和用户的词汇量判断用户不认识的单词并列表;
4)用户阅读完后,对列表中的单词进行筛选,选出陌生单词并更新分类器;
选出陌生单词的方法为:
(4-1)通过上一步所知道的用户眼球在该区域停留的时间和用户的词汇量将该区域内所有的单词提取出来;
(4-2)依靠用户的词汇量,利用之前训练好的一个分类器将该区域内所有的单词进行分类;
(4-3)对分类的结果为陌生词的单词进行词典查找,为用户列出该单词的释义列表。
2.根据权利要求1所述的一种基于用户眼球的单词查询方法,其特征在于:所述的1)判断用户初始词汇量的具体方法为:
(1-1)通过录入若干相关度高的英语文章,统计每个常用单词的词频;
(1-2)对统计出来的词频进行排序;
(1-3)将出现频率高的词库录入词典中;
(1-4)对每个词库随机抽取单词作为该词库的样本单词;
(1-5)根据用户填写自己的个人信息后,将对应词库的样本单词给用户,让其进行判断,根据其答题情况,通过决策树算法判断出用户的词汇量;
(1-6)判断出用户词汇量后,将用户的正确率统计出来,通过(1-2)的单词频率,推断出用户在该词汇量下对单词的掌握程度。
3.根据权利要求1所述的一种基于用户眼球的单词查询方法,其特征在于:所述3)根据用户眼球在该区域停留的时间和用户的词汇量判断用户不认识的单词并列表的方式为:当用户的注视时间大于设定的阈值时提取该区域内的单词。
4.根据权利要求1所述的一种基于用户眼球的单词查询方法,其特征在于:所述4)中选出陌生单词的方法为:将单词的词频和单词长度还有单词之间的相似度作为特征对用户的陌生词和已知词进行分类,训练SVM分类器判断用户所注视区域内的所有单词是否有用户的陌生词。
5.根据权利要求4所述的一种基于用户眼球的单词查询方法,其特征在于:所述训练SVM分类器的训练步骤为:
(5-1)通过logistic函数将特征值归一化
<mrow>
<msub>
<mi>h</mi>
<mi>&theta;</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>g</mi>
<mrow>
<mo>(</mo>
<msup>
<mi>&theta;</mi>
<mi>T</mi>
</msup>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>1</mn>
<mo>+</mo>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<msup>
<mi>&theta;</mi>
<mi>T</mi>
</msup>
<mi>x</mi>
</mrow>
</msup>
</mrow>
</mfrac>
<mo>,</mo>
</mrow>
(5-2)确定超平面的分类函数
f(x)=wTx+b
(5-3)定义函数间隔
<mrow>
<mover>
<mi>&gamma;</mi>
<mo>^</mo>
</mover>
<mo>=</mo>
<mi>y</mi>
<mrow>
<mo>(</mo>
<msup>
<mi>w</mi>
<mi>T</mi>
</msup>
<mi>x</mi>
<mo>+</mo>
<mi>b</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>y</mi>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
</mrow>
(5-4)定义最大间隔分类器
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>min</mi>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<mo>|</mo>
<mo>|</mo>
<mi>w</mi>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>s</mi>
<mo>.</mo>
<mi>t</mi>
<mo>.</mo>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<msup>
<mi>w</mi>
<mi>T</mi>
</msup>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>+</mo>
<mi>b</mi>
<mo>)</mo>
</mrow>
<mo>&GreaterEqual;</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>,</mo>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<mi>n</mi>
</mrow>
(5-5)选择真阳性率(true positive rate,TPR)从而确定向量机参数进行训练;
(5-6)将用户所注视区域的单词输入训练模型进行计算,将所得结果与模型的参数进行比较,当误差值小于定义的误差时,则判定该单词为陌生词,否则为已知词。
6.根据权利要求1所述的一种基于用户眼球的单词查询方法,其特征在于:所述4)完成后,对用户在该列表中认识的单词打钩,然后提交;根据该列表的内容,生成新的训练数据对分类器进一步的训练;更新分类器以供用户的下一次使用。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510283624.3A CN104866470B (zh) | 2015-05-28 | 2015-05-28 | 一种基于用户眼球的单词查询方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510283624.3A CN104866470B (zh) | 2015-05-28 | 2015-05-28 | 一种基于用户眼球的单词查询方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104866470A CN104866470A (zh) | 2015-08-26 |
CN104866470B true CN104866470B (zh) | 2018-01-19 |
Family
ID=53912309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510283624.3A Expired - Fee Related CN104866470B (zh) | 2015-05-28 | 2015-05-28 | 一种基于用户眼球的单词查询方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104866470B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106897426A (zh) * | 2017-02-27 | 2017-06-27 | 上海禹放信息科技有限公司 | 基于眼球追踪技术的特定数据生成系统及方法 |
CN107357768A (zh) * | 2017-07-26 | 2017-11-17 | 王�华 | 一种进行生词标注的方法及系统 |
CN107808559A (zh) * | 2017-11-06 | 2018-03-16 | 鲍增彬 | 一种智能外语学习方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103294194A (zh) * | 2013-04-28 | 2013-09-11 | 北京小米科技有限责任公司 | 一种基于眼球跟踪的翻译方法及系统 |
CN103300815A (zh) * | 2012-03-15 | 2013-09-18 | 凹凸电子(武汉)有限公司 | 眼球关注点确定方法、装置和系统 |
CN104092822A (zh) * | 2014-07-01 | 2014-10-08 | 惠州Tcl移动通信有限公司 | 基于人脸检测和眼球跟踪的手机状态切换方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2638558C (en) * | 2008-08-08 | 2013-03-05 | Bloorview Kids Rehab | Topic word generation method and system |
-
2015
- 2015-05-28 CN CN201510283624.3A patent/CN104866470B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103300815A (zh) * | 2012-03-15 | 2013-09-18 | 凹凸电子(武汉)有限公司 | 眼球关注点确定方法、装置和系统 |
CN103294194A (zh) * | 2013-04-28 | 2013-09-11 | 北京小米科技有限责任公司 | 一种基于眼球跟踪的翻译方法及系统 |
CN104092822A (zh) * | 2014-07-01 | 2014-10-08 | 惠州Tcl移动通信有限公司 | 基于人脸检测和眼球跟踪的手机状态切换方法及系统 |
Non-Patent Citations (1)
Title |
---|
基于肤色信息和AAM模型方法人脸特征点定位研究;董兰芳等;《2005中国计算机大会》;20051231;正文第1-6页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104866470A (zh) | 2015-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hendricks et al. | Women also snowboard: Overcoming bias in captioning models | |
Burns et al. | Women also snowboard: Overcoming bias in captioning models | |
CN111897964B (zh) | 文本分类模型训练方法、装置、设备及存储介质 | |
O'Donovan et al. | Exploratory font selection using crowdsourced attributes | |
CN104750844B (zh) | 基于tf-igm的文本特征向量生成方法和装置及文本分类方法和装置 | |
Zhila et al. | Combining heterogeneous models for measuring relational similarity | |
CN106897363B (zh) | 基于眼动追踪的文本推荐方法 | |
CN112270196A (zh) | 实体关系的识别方法、装置及电子设备 | |
CN106909946A (zh) | 一种多模态融合的商品分类系统 | |
Narayanan et al. | Hybrid machine learning architecture for automated detection and grading of retinal images for diabetic retinopathy | |
Liu et al. | Multimodal recognition of visual concepts using histograms of textual concepts and selective weighted late fusion scheme | |
CN104866470B (zh) | 一种基于用户眼球的单词查询方法 | |
CN108509421A (zh) | 基于随机游走和粗糙决策置信度的文本情感分类方法 | |
CN112732974A (zh) | 一种数据处理方法、电子设备及存储介质 | |
CN114398681A (zh) | 训练隐私信息分类模型、识别隐私信息的方法和装置 | |
CN108496185A (zh) | 用于对象检测的系统和方法 | |
US20220075804A1 (en) | Method and device for providing guide information for enhancement of artist's reputation | |
CN109933202A (zh) | 一种基于骨传导的智能输入方法和系统 | |
Gomez et al. | Evolutionary learning of meta-rules for text classification | |
CN109214275B (zh) | 一种基于深度学习的低俗图片识别方法 | |
JP6043460B2 (ja) | データ分析システム、データ分析方法、およびデータ分析プログラム | |
CN108520248A (zh) | 运动模式识别方法及装置 | |
KR101987227B1 (ko) | 시선 추적 기반의 사용자 입력 데이터 분석 장치 및 방법 | |
Naha et al. | Beyond verbs: Understanding actions in videos with text | |
KR102092633B1 (ko) | 스마트 시니어 인지반응 기반의 모델링 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180119 Termination date: 20210528 |