CN112861633A - 一种基于机器学习的图像识别方法、设备及存储介质 - Google Patents
一种基于机器学习的图像识别方法、设备及存储介质 Download PDFInfo
- Publication number
- CN112861633A CN112861633A CN202110024790.7A CN202110024790A CN112861633A CN 112861633 A CN112861633 A CN 112861633A CN 202110024790 A CN202110024790 A CN 202110024790A CN 112861633 A CN112861633 A CN 112861633A
- Authority
- CN
- China
- Prior art keywords
- user
- machine learning
- preference
- eye movement
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Geometry (AREA)
- Data Mining & Analysis (AREA)
- Psychiatry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Social Psychology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种基于机器学习的图像识别方法、设备及存储介质,其中方法包括步骤S1:采集用户注视不同目标物图像所生成的眼动数据,根据眼动数据确定用户注视的重点注视区域;步骤S2:采集用户注视每个目标物图像时的人脸数据,根据机器学习算法确定用户注视重点注视区域时的情绪状态;步骤S3:若判断出情绪状态为积极的,则对重点注视区域进行喜好特征识别,并将其存储于喜好数据库中;若判断出情绪状态为消极的,则结合喜好数据库中的喜好特征向用户发出具有喜好特征的推送建议。本发明可清楚了解用户注视图像时的情绪,更加准确地了解到用户的观看喜好,从而做出更加准确、更加符合用户喜好的推送策略。
Description
技术领域
本发明涉及图像识别技术领域,尤其涉及一种基于机器学习的图像识别方法、设备及存储介质。
背景技术
目前,眼球追踪技术的应用领域越来越广泛,可通过追踪用户的眼球运动来了解用户在观看图像或视频时的关注点位置;但是,该眼球追踪过程中无法确定用户关注图像时的情绪;当用户正在观看图像中的某个区域时,若用户的面部表情较差,则用户正在关注的图像位置有可能是用户厌恶的地方,若用户在观看图像时其面部表情较好,则该图像的关注点位置则有可能是用户喜好的地方。但是,现有的眼球追踪技术或现有的图像识别技术都无法准确地分析出用户的喜好类型和注视习惯,使得无法做出更加准确且更加符合用户喜好的推送策略。
发明内容
为了克服现有技术的不足,本发明的目的之一在于提供一种基于机器学习的图像识别方法,可清楚了解用户注视图像时的情绪,更加准确地了解到用户的观看喜好,从而做出更加准确、更加符合用户喜好的推送策略。
本发明的目的之二在于提供一种电子设备。
本发明的目的之三在于提供一种存储介质。
本发明的目的之一采用如下技术方案实现:
一种基于机器学习的图像识别方法,包括:
步骤S1:采集用户注视不同目标物图像所生成的眼动数据,根据眼动数据确定用户注视的重点注视区域;
步骤S2:采集用户注视每个目标物图像时的人脸数据,根据机器学习算法确定用户注视重点注视区域时的情绪状态;
步骤S3:若判断出情绪状态为积极的,则对重点注视区域进行喜好特征识别,并将其存储于喜好数据库中;若判断出情绪状态为消极的,则结合喜好数据库中的喜好特征向用户发出具有喜好特征的推送建议。
进一步地,所述眼动数据包含由多个注视坐标点连接而成的眼动路径,所述眼动路径以具有预设透明度的线段呈现,当所述眼动路径存在部分路径相重合时,根据重合次数逐渐增加眼动路径的透明度。
进一步地,所述步骤S1中根据眼动数据确定用户注视的重点注视区域的方法为:
判断眼动路径中是否存在任意一注视坐标点的透明度超过预设值,若有,则将眼动路径中透明度超过预设值的注视坐标点标记为基准点,将基准点所在区域作为重点注视区域。
进一步地,所述步骤S2在采集到人脸数据后,还包括对人脸数据进行预处理:根据人脸数据对用户的唇部区域进行识别,以生成唇部像素图像,再对唇部像素图像进行机器学习,以根据唇部像素图像确定用户注视目标物时的情绪状态。
进一步地,所述步骤S3中对重点注视区域进行喜好特征识别的方法为:
预先对目标物图像进行子目标识别,以确定目标物图像中所有子目标的坐标范围,判断基准点是否处于任意一子目标的坐标范围内,若是,再对该子目标进行特征识别,识别所获得的子目标的特征信息即为重点注视区域的喜好特征。
进一步地,所述特征信息包括有颜色信息。
进一步地,还包括采集用户注视目标物图像时产生的语音数据,对语音数据进行自然语言分析,将分析后的语音数据和人脸数据作为情绪状态判断的分析依据。
进一步地,所述推送建议以弹窗的方式进行显示。
本发明的目的之二采用如下技术方案实现:
一种电子设备,其包括处理器、存储器及存储于所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的基于机器学习的图像识别方法。
本发明的目的之三采用如下技术方案实现:
一种存储介质,其上存储有计算机程序,所述计算机程序被执行时实现上述的基于机器学习的图像识别方法。
相比现有技术,本发明的有益效果在于:
本发明在采集眼动数据的同时,采集用户注视图像时的人脸数据,根据人脸数据识别出用户注视图像时的情绪,可清楚了解用户注视图像时的情绪,更加准确地了解到用户的观看喜好,从而做出更加准确、更加符合用户喜好的推送策略。
附图说明
图1为本发明基于机器学习的图像识别方法的流程示意图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述,需要说明的是,在不相冲突的前提下,以下描述的各实施例之间或各技术特征之间可以任意组合形成新的实施例。
实施例一
本实施例提供一种基于机器学习的图像识别方法,可根据用户的注视位置和用户的表情情绪来获知用户观看同类图像时的注视习惯和喜好,根据注视习惯和喜好做出对应的推送策略,可最大程度提高用户使用体验感。
如图1所示,本实施例的基于机器学习的图像识别方法具体包括如下步骤:
步骤S1:采集用户注视不同目标物图像所生成的眼动数据,根据眼动数据确定用户注视的重点注视区域。
所述眼动数据由眼动仪生成,用户佩戴上眼动仪并查看图像,即可生成对应的眼动数据。当图像为三维图像时,用户可采用结合有vr技术的眼动仪对三维图像进行观看,以生成三维的眼动数据。根据所述眼动数据生成由多个注视坐标点连接而成的眼动路径,该眼动路径即为用户眼球运动的路线;系统将用户眼球运动路线直接转换成具有预设透明度的线段,并将在线段在图像中显示,使得用户可获知自己当前注视的位置;此外,所述眼动路径存在部分路径相重合时,根据重合次数逐渐增加眼动路径的透明度,即当用户多次重复注视同一个坐标点时,眼动路径中该坐标点的透明度则随着注视次数的增加而增加,而用户在同一坐标点上的注视时长越长,该坐标点上的透明度也逐渐增加;通过眼动路径的透明度深浅可了解到用户的重点注视位置。
在获取眼动数据后,判断眼动路径中是否存在坐标点的透明度超过预设值的情况。若有,则代表用户在该坐标点上的注视时长或注视次数相对较多,则将该坐标点标记作为基准点,将基准点所在区域作为用户的重点注视区域。
步骤S2:采集用户注视每个目标物图像时的人脸数据,根据机器学习算法确定用户注视重点注视区域时的情绪状态。
在本实施例中,眼动数据和人脸数据的数据采集时间相互同步,调取同一时刻的眼动数据和人脸数据即可获知用户在该时刻注视图像的位置和用户在注视时的人脸表情。在本实施例中,所述人脸数据则可通过眼动仪上的摄像头或外置摄像头对人脸进行拍摄而获取。在获取人脸数据后,通过人脸识别技术着重对人脸的唇部区域进行识别,识别出唇部的外轮廓,将唇部外轮廓映射在像素坐标中以生成像素图像,通过判断像素图像中唇部嘴角位置的变化情况,即可对应了解到用户观看图像时的情绪。举个例子,可预先采集用户不观看任何图像时的标准表情,将该标准表情映射在像素图像中,再将像素图像中嘴角位置定义为标准位置;当用户观看图像时,根据人脸数据获知像素图像中的嘴角位置从标准位置向上移动,即嘴角上翘的效果,此时则可认为用户在注视某一点时的情绪是积极的;若像素图像中的嘴角位置从标准位置向下移动,表现出嘴角向下的效果,则认为用户当前注视的情绪是消极的。
而情绪分析的过程可通过机器学习算法来进行学习和训练,该机器学习可以是基于卷积神经网络的学习和训练,即将人脸数据处理后的唇部像素图像作为神经网络模型的输入,情绪状态作为神经网络模型的输出,从而对网络进行学习和训练。
由于基准点可能是用户多次注视同一坐标点产生的,因此,基准点所对应的数据采集时间同样也具有多个,将每次用户注视该基准点位置的多个时间调取出来,根据多个时间找到用户注视该基准点时所对应的人脸数据,根据人脸数据识别出多个脸部表情,根据多个脸部表情分析用户注视基准点时的情绪信息;具体为:当在分析用户情绪过程中有多个脸部表情时,可逐个对每个脸部表情进行情绪分析,将相同情绪数量最多的情绪状态作为用户的最终情绪状态,将少数且不同的情绪状态抛弃;举个例子,针对同一基准点调取出三个脸部表情,其中两个脸部表情为微笑表情,一个脸部表情为嘴角向下的表情,则将嘴角向下的表情抛弃,将两个微笑表情所代表的积极的情绪作为用户的最终情绪状态。
与此同时,本实施例在分析用户情绪状态时,还可引入语音数据;即采集用户注视目标物图像时产生的语音数据,对语音数据进行自然语言分析,其中语音数据分析过程中可将语音转换为文字,再对文字的含义进行识别,将文字含义与表情信息进行结合,以更好地了解到用户在注视图像某个点时的情绪。本实施例中将分析后的语音数据和处理后的人脸数据作为情绪状态判断的分析依据;期间,可通过另一个神经网络模型来学习语音数据和人脸数据所对应的情绪状态,即将语音数据和人脸数据作为输入,情绪状态作为输出,对网络进行学习和训练。
步骤S3:若判断出情绪状态为积极的,则对重点注视区域进行喜好特征识别,并将其存储于喜好数据库中;若判断出情绪状态为消极的,则结合喜好数据库中的喜好特征向用户发出具有喜好特征的推送建议。
在对重点注视区域进行喜好特征识别之前,需对目标物图像进行子目标识别,该子目标为目标物的组成部分;举个例子,图像中的目标物是建筑物外观图像时,则子目标即为建筑物中的墙壁、窗户、门框,同时识别出每个子目标的坐标范围,该坐标范围即是由子目标外轮廓所对应的坐标点相连而成。其后,判断基准点是否在任意一子目标的坐标范围内,若基准点落入其中一子目标的坐标范围内,则基准点所在的子目标的特征信息输出,该特征信息包括子目标的外观特征及子目标的颜色;例如,基准点落入建筑物中的其中一个窗户的坐标范围内时,则将该窗户上的花纹、窗户轮廓及窗户颜色等特征信息作为用户的喜好特征,并将其存储在喜好数据库中。在识别出喜好特征后,还可生成询问窗口让用户选择是否将该喜好特征数据在喜好数据库中,用户确认添加才将该喜好特征存储在喜好数据库中。
当判断出情绪状态为消极时,则以弹窗的方式显示推送建议,推送建议可根据用户的喜好特征在互联网上搜索拥有喜好特征的图像,并将图像的互联网地址推送给用户,用户点击推送地址即可快速查看到具有用户喜好特征的图像。此外,还可根据喜好特征推送对应的新闻、文章、视频或其他信息。
实施例二
本实施例提供一种电子设备,其包括处理器、存储器及存储于所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现实施例一中的基于机器学习的图像识别方法;另外,本实施例还提供一种存储介质,其上存储有计算机程序,所述计算机程序被执行时实现上述的基于机器学习的图像识别方法。
本实施例中的设备及存储介质与前述实施例中的方法是基于同一发明构思下的两个方面,在前面已经对方法实施过程作了详细的描述,所以本领域技术人员可根据前述描述清楚地了解本实施中的系统的结构及实施过程,为了说明书的简洁,在此就不再赘述。
上述实施方式仅为本发明的优选实施方式,不能以此来限定本发明保护的范围,本领域的技术人员在本发明的基础上所做的任何非实质性的变化及替换均属于本发明所要求保护的范围。
Claims (10)
1.一种基于机器学习的图像识别方法,其特征在于,包括:
步骤S1:采集用户注视不同目标物图像所生成的眼动数据,根据眼动数据确定用户注视的重点注视区域;
步骤S2:采集用户注视每个目标物图像时的人脸数据,根据机器学习算法确定用户注视重点注视区域时的情绪状态;
步骤S3:若判断出情绪状态为积极的,则对重点注视区域进行喜好特征识别,并将其存储于喜好数据库中;若判断出情绪状态为消极的,则结合喜好数据库中的喜好特征向用户发出具有喜好特征的推送建议。
2.根据权利要求1所述的基于机器学习的图像识别方法,其特征在于,所述眼动数据包含由多个注视坐标点连接而成的眼动路径,所述眼动路径以具有预设透明度的线段呈现,当所述眼动路径存在部分路径相重合时,根据重合次数逐渐增加眼动路径的透明度。
3.根据权利要求2所述的基于机器学习的图像识别方法,其特征在于,所述步骤S1中根据眼动数据确定用户注视的重点注视区域的方法为:
判断眼动路径中是否存在任意一注视坐标点的透明度超过预设值,若有,则将眼动路径中透明度超过预设值的注视坐标点标记为基准点,将基准点所在区域作为重点注视区域。
4.根据权利要求1所述的基于机器学习的图像识别方法,其特征在于,所述步骤S2在采集到人脸数据后,还包括对人脸数据进行预处理:根据人脸数据对用户的唇部区域进行识别,以生成唇部像素图像,再对唇部像素图像进行机器学习,以根据唇部像素图像确定用户注视目标物时的情绪状态。
5.根据权利要求1所述的基于机器学习的图像识别方法,其特征在于,所述步骤S3中对重点注视区域进行喜好特征识别的方法为:
预先对目标物图像进行子目标识别,以确定目标物图像中所有子目标的坐标范围,判断基准点是否处于任意一子目标的坐标范围内,若是,再对该子目标进行特征识别,识别所获得的子目标的特征信息即为重点注视区域的喜好特征。
6.根据权利要求5所述的基于机器学习的图像识别方法,其特征在于,所述特征信息包括有颜色信息。
7.根据权利要求1所述的基于机器学习的图像识别方法,其特征在于,还包括采集用户注视目标物图像时产生的语音数据,对语音数据进行自然语言分析,将分析后的语音数据和人脸数据作为情绪状态判断的分析依据。
8.根据权利要求1所述的基于机器学习的图像识别方法,其特征在于,所述推送建议以弹窗的方式进行显示。
9.一种电子设备,其特征在于,其包括处理器、存储器及存储于所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现权利要求1~8任一所述的基于机器学习的图像识别方法。
10.一种存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被执行时实现权利要求1~8任一所述的基于机器学习的图像识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110024790.7A CN112861633B (zh) | 2021-01-08 | 2021-01-08 | 一种基于机器学习的图像识别方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110024790.7A CN112861633B (zh) | 2021-01-08 | 2021-01-08 | 一种基于机器学习的图像识别方法、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112861633A true CN112861633A (zh) | 2021-05-28 |
CN112861633B CN112861633B (zh) | 2022-05-31 |
Family
ID=76005619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110024790.7A Active CN112861633B (zh) | 2021-01-08 | 2021-01-08 | 一种基于机器学习的图像识别方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112861633B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435924A (zh) * | 2021-06-21 | 2021-09-24 | 安徽西柚酷媒信息科技有限公司 | 一种voc车主云大数据平台 |
CN113486744A (zh) * | 2021-06-24 | 2021-10-08 | 中国科学院西安光学精密机械研究所 | 基于眼动和人脸表情范式的学生学习状态评估系统及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766767A (zh) * | 2018-12-18 | 2019-05-17 | 深圳壹账通智能科技有限公司 | 行为数据推送方法、装置、计算机设备和存储介质 |
CN110245250A (zh) * | 2019-06-11 | 2019-09-17 | Oppo广东移动通信有限公司 | 图像处理方法及相关装置 |
CN110399837A (zh) * | 2019-07-25 | 2019-11-01 | 深圳智慧林网络科技有限公司 | 用户情绪识别方法、装置以及计算机可读存储介质 |
CN111161035A (zh) * | 2019-12-31 | 2020-05-15 | 北京三快在线科技有限公司 | 菜品推荐方法、装置、服务器、电子设备及存储介质 |
CN111966724A (zh) * | 2020-06-29 | 2020-11-20 | 北京津发科技股份有限公司 | 基于人机交互界面区域自动识别技术的交互行为数据采集、分析方法及装置 |
CN112181152A (zh) * | 2020-11-13 | 2021-01-05 | 幻蝎科技(武汉)有限公司 | 基于mr眼镜的广告推送管理方法、设备及应用 |
-
2021
- 2021-01-08 CN CN202110024790.7A patent/CN112861633B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766767A (zh) * | 2018-12-18 | 2019-05-17 | 深圳壹账通智能科技有限公司 | 行为数据推送方法、装置、计算机设备和存储介质 |
CN110245250A (zh) * | 2019-06-11 | 2019-09-17 | Oppo广东移动通信有限公司 | 图像处理方法及相关装置 |
CN110399837A (zh) * | 2019-07-25 | 2019-11-01 | 深圳智慧林网络科技有限公司 | 用户情绪识别方法、装置以及计算机可读存储介质 |
CN111161035A (zh) * | 2019-12-31 | 2020-05-15 | 北京三快在线科技有限公司 | 菜品推荐方法、装置、服务器、电子设备及存储介质 |
CN111966724A (zh) * | 2020-06-29 | 2020-11-20 | 北京津发科技股份有限公司 | 基于人机交互界面区域自动识别技术的交互行为数据采集、分析方法及装置 |
CN112181152A (zh) * | 2020-11-13 | 2021-01-05 | 幻蝎科技(武汉)有限公司 | 基于mr眼镜的广告推送管理方法、设备及应用 |
Non-Patent Citations (1)
Title |
---|
周霞: "基于局部特征分析的笑脸表情识别研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435924A (zh) * | 2021-06-21 | 2021-09-24 | 安徽西柚酷媒信息科技有限公司 | 一种voc车主云大数据平台 |
CN113435924B (zh) * | 2021-06-21 | 2021-12-31 | 安徽西柚酷媒信息科技有限公司 | 一种voc车主云大数据平台 |
CN113486744A (zh) * | 2021-06-24 | 2021-10-08 | 中国科学院西安光学精密机械研究所 | 基于眼动和人脸表情范式的学生学习状态评估系统及方法 |
CN113486744B (zh) * | 2021-06-24 | 2023-02-14 | 中国科学院西安光学精密机械研究所 | 基于眼动和人脸表情范式的学生学习状态评估系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112861633B (zh) | 2022-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108564007B (zh) | 一种基于表情识别的情绪识别方法和装置 | |
US9818024B2 (en) | Identifying facial expressions in acquired digital images | |
US8401248B1 (en) | Method and system for measuring emotional and attentional response to dynamic digital media content | |
Harezlak et al. | Towards accurate eye tracker calibration–methods and procedures | |
CN112861633B (zh) | 一种基于机器学习的图像识别方法、设备及存储介质 | |
Wimmer et al. | Low-level fusion of audio and video feature for multi-modal emotion recognition | |
US20220148333A1 (en) | Method and system for estimating eye-related geometric parameters of a user | |
CN111460976B (zh) | 一种数据驱动的基于rgb视频的实时手部动作评估方法 | |
CN110741377A (zh) | 人脸图像处理方法、装置、存储介质及电子设备 | |
WO2010133661A1 (en) | Identifying facial expressions in acquired digital images | |
CN112632349B (zh) | 展区指示方法、装置、电子设备及存储介质 | |
JP2016200969A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
Marcos-Ramiro et al. | Let your body speak: Communicative cue extraction on natural interaction using RGBD data | |
CN112417142A (zh) | 基于眼动跟踪的词义和摘要生成辅助方法及系统 | |
CN112053205A (zh) | 通过机器人情绪识别的产品推荐方法及装置 | |
Wu et al. | Watch-Bot: Unsupervised learning for reminding humans of forgotten actions | |
Saxena et al. | Towards efficient calibration for webcam eye-tracking in online experiments | |
CN111753168A (zh) | 一种搜题的方法、装置、电子设备及存储介质 | |
Zhou et al. | Long-term person tracking for unmanned aerial vehicle based on human-machine collaboration | |
US20210158565A1 (en) | Pose selection and animation of characters using video data and training techniques | |
Ray et al. | Design and implementation of affective e-learning strategy based on facial emotion recognition | |
EP2685351A1 (en) | Method for calibration free gaze tracking using low cost camera | |
Singh et al. | A robust, real-time camera-based eye gaze tracking system to analyze users’ visual attention using deep learning | |
Lakshmi et al. | Real-Time Hand Gesture Recognition for Improved Communication with Deaf and Hard of Hearing Individuals | |
Yabunaka et al. | Facial expression sequence recognition for a japanese sign language training system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: Room 238, room 406, 1 Yichuang street, Huangpu District, Guangzhou, Guangdong 510700 Applicant after: Guangzhou langguo Electronic Technology Co.,Ltd. Address before: Room 238, room 406, 1 Yichuang street, Huangpu District, Guangzhou, Guangdong 510700 Applicant before: GUANGZHOU LANGO ELECTRONIC SCIENCE & TECHNOLOGY Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |