CN118151745A - 一种动作推荐方法、电子设备以及计算机存储介质 - Google Patents
一种动作推荐方法、电子设备以及计算机存储介质 Download PDFInfo
- Publication number
- CN118151745A CN118151745A CN202410116553.7A CN202410116553A CN118151745A CN 118151745 A CN118151745 A CN 118151745A CN 202410116553 A CN202410116553 A CN 202410116553A CN 118151745 A CN118151745 A CN 118151745A
- Authority
- CN
- China
- Prior art keywords
- emotion
- virtual object
- action recommendation
- action
- recommendation method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000009471 action Effects 0.000 title claims abstract description 112
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 19
- 230000008451 emotion Effects 0.000 claims description 112
- 230000008859 change Effects 0.000 claims description 17
- 238000002372 labelling Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000002996 emotional effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 2
- 230000008909 emotion recognition Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/822—Strategy games; Role-playing games
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/807—Role playing or strategy games
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
本申请提出一种动作推荐方法、电子设备以及计算机存储介质,所述方法包括:获取前置摄像头的前置采集画面,以及获取后置摄像头的视线范围;判断是否在所述前置采集画面检测到人脸,且在所述视线范围内存在虚拟对象;若是,将所述虚拟对象的动作推荐模式切换为学习模式;若否,将所述虚拟对象的动作推荐模式切换为使用模式。通过上述方式,实时切换模型的训练模式,提高动作推荐的适应性。
Description
技术领域
本申请涉及人工智能技术领域,特别是涉及一种动作推荐方法、电子设备以及计算机存储介质。
背景技术
目前市场上的虚拟现实场景中虚拟角色的动作推荐,大多以屏幕点击的方式与虚拟角色互动,虚拟角色完全按照操作者的意愿来运作,玩法单一、思维老旧、互动感弱、缺乏真实感,存在动作推荐模式单一的弊端。
发明内容
为解决上述技术问题,本申请提出了一种动作推荐方法、电子设备以及计算机存储介质。
为解决上述技术问题,本申请提出了一种动作推荐方法,所述一种动作推荐方法包括:
获取前置摄像头的前置采集画面,以及获取后置摄像头的视线范围;判断是否在所述前置采集画面检测到人脸,且在所述视线范围内存在虚拟对象;若是,将所述虚拟对象的动作推荐模式切换为学习模式;若否,将所述所述虚拟对象的动作推荐模式切换为使用模式;
其中,所述学习模式为在根据所述人脸的情绪特征获取虚拟对象的推荐动作,按照所述推荐动作控制所述虚拟对象运动的同时,利用所述人脸的情绪特征对情绪预测模型进行训练;所述使用模式为根据预设推荐动作控制所述虚拟对象运动。
其中,所述利用所述人脸的情绪特征对情绪预测模型进行训练,包括:获取所述情绪预测模型输入所述人脸的情绪特征、所述推荐动作后输出的预测情绪特征;获取所述虚拟对象按照所述推荐动作运动后,所述人脸的当前情绪特征;利用所述预测情绪特征与所述当前情绪特征,对所述情绪预测模型进行训练。
其中,所述利用所述预测情绪特征与所述当前情绪特征,对所述情绪预测模型进行训练,包括:在所述预测情绪特征与所述当前情绪特征的距离大于预设阈值时,将所述人脸的情绪特征变化、所述推荐动作上传至云端,以在所述云端对所述情绪预测模型进行训练。
其中,所述动作推荐方法,还包括:基于所述人脸的情绪特征变化对所述推荐动作进行标注,并将所述标注存储到推荐动作数据库。
其中,其中,所述动作推荐方法还包括:获取后置摄像头视线范围;响应于在所述前置采集画面检测到人脸,且在所述视线范围内存在虚拟对象,将所述虚拟对象的动作推荐模式切换为学习模式;所述获取后置摄像头的视线范围,包括:利用所述后置摄像头扫描当前场景,获取所述当前场景的点云数据;利用所述点云数据创建所述当前场景的点云地图;获取所述后置摄像头的当前画面中的特征点;基于所述特征点在所述点云地图的位置,确定所述后置摄像头的视线范围。
其中,所述动作推荐方法,还包括:获取所述虚拟对象在所述点云地图的初始化位置;获取所述后置摄像头在所述点云地图的当前位置;基于所述当前位置以及所述视线范围,确定所述后置摄像头的视线范围内的位置范围;判断所述初始化位置是否在所述位置范围内;若是,则确定所述后置摄像头的视线范围内存在所述虚拟对象;若否,则确定所述后置摄像头的视线范围内不存在所述虚拟对象。
其中,所述确定所述后置摄像头的视线范围内不存在所述虚拟对象之后,所述动作推荐方法还包括:获取所述位置范围的中心点位置;控制所述虚拟对象从初始化位置移动至所述中心点位置。
其中,所述中心点位置位于所述当前场景的点云地图中最接近视线中央的平面上。
为解决上述技术问题,本申请还提出一种电子设备,所述电子设备包括存储器以及与所述存储器耦接的处理器;其中,所述存储器用于存储程序数据,所述处理器用于执行所述程序数据以实现上述所述的动作推荐方法。
为解决上述技术问题,本申请还提出一种计算机存储介质,所述计算机存储介质用于存储程序数据,所述程序数据在被计算机执行时,用以实现上述所述的动作推荐方法。
与现有技术相比,本申请的有益效果是:电子设备获取前置摄像头的前置采集画面,以及获取后置摄像头的视线范围;判断是否在所述前置采集画面检测到人脸,且在所述视线范围内存在虚拟对象;若是,将所述虚拟对象的动作推荐模式切换为学习模式;若否,将所述虚拟对象的动作推荐模式切换为使用模式。通过上述方式,实时切换模型的训练模式,提高动作推荐的适应性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
其中:
图1是本申请提供的动作推荐方法的第一实施例的流程示意图
图2是本申请提供的动作推荐方法的第二实施例的流程示意图;
图3是本申请提供的电子设备一实施例的结构示意图;
图4是本申请提供的计算机存储介质一实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例,例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
具体请参阅图1,图1是本申请提供的动作推荐方法的第一实施例的流程示意图。
本申请的动作推荐方法应用于一种电子设备,其中,本申请的电子设备可以为服务器,也可以为本地终端,还可以为由服务器和本地终端相互配合的系统。相应地,电子设备包括的各个部分,例如各个单元、子单元、模块、子模块可以全部设置于服务器中,也可以全部设置于本地终端中,还可以分别设置于服务器和本地终端中。
进一步地,上述服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块,例如用来提供分布式服务器的软件或软件模块,也可以实现成单个软件或软件模块,在此不做具体限定。
如图1所示,其具体步骤如下:
步骤S11:获取前置摄像头的前置采集画面,以及获取后置摄像头的视线范围。
需要说明的是,本申请中的后置摄像头与激光雷达对室内场景进行实时扫描,获取室内场景的三维建模,并显示于移动终端的显示界面中,进行一步地,本申请将AR虚拟角色显示于所述显示界面中的三维场景中,该AR虚拟角色可以根据用户的情绪作出相应的动作,并且AR虚拟角色可以根据三维场景中的障碍物和平面信息进行显示,并根据后置摄像头的拍摄实时更新。
具体地,电子设备通过终端设备,获取前置摄像头实时采集的前置采集画面,同时获取后置摄像头的拍摄视线范围,电子设备利用后置摄像头扫描当前场景,获取当前场景的点云数据,利用点云数据创建当前场景的点云地图,获取后置摄像头的当前画面中的特征点,基于特征点在点云地图的位置,确定后置摄像头的视线范围。
在本申请其他实施例中,还可以通过特征点标记和相机内参与外参确定后置摄像头的实现范围。
步骤S12:判断是否在前置采集画面检测到人脸,且在视线范围内存在虚拟对象。
具体地,电子设备获取前置采集画面图像,对前置采集画面图像进行特征识别,判断前置采集画面中是否包括人脸,同时获取对后置摄像头的拍摄范围,判断显示界面中是否有虚拟对象存在。
若是,则执行步骤S13,若否,则执行步骤S14。
步骤S13:将虚拟对象的动作推荐模式切换为学习模式。
其中,学习模式为在根据人脸的情绪特征获取虚拟对象的推荐动作,电子设备按照推荐动作控制所述虚拟对象运动的同时,利用人脸的情绪特征对情绪预测模型进行训练。
具体地,当电子设备处于学习模式时,电子设备通过前置摄像头,采集当前人脸图像,对当前人脸图像进行特征识别,获取人脸情绪特征,通过动作推荐模型库获取当前人脸情绪特征对应的推荐动作,将当前人脸情绪特征和推荐动作输入到情绪预测模型中,获取情绪预测模型输出的预测情绪,进一步通过前置摄像头对获取推荐动作后的人脸进行图像采集和特征提取,获取真实当前情绪特征。
具体地,电子设备在预测情绪特征与当前情绪特征的距离大于预设阈值时,说明当前的情绪预测模型不够精准,电子设备将人脸的情绪特征变化、推荐动作上传至云端,以在云端对情绪预测模型进行训练,需要说明的是,情绪预测模型会根据用户的使用不断获取更多的学习数据,因此随着情绪预测模型使用的时间增长,其预测精度就会越高。
通过上述方式,提高情绪预测模型的精准度。
具体地,情绪预测模型的训练方式如下:电子设备获取初始人物图像,对所述初始人物图像进行特征提取,获取初始人物情绪特征;获取所述初始人物图像对应的虚拟对象图像的动作特征;响应于所述动作特征,获取第一人物图像的第一人物情绪特征;基于初始人物情绪特征与所述第一人物情绪特征,获取情绪特征变化参数;基于所述初始人物情绪特征、所述情绪特征变化参数、虚拟对象的动作特征对待训练模型进行训练,获取初始情绪预测模型。
电子设备获取初始人物图像,对初始人物图像进行特征提取,获取初始人物情绪特征。
具体地,电子设备通过客户端的前置摄像头,获取初始人物图像,将初始人物图像输入到人脸情绪识别模型中,获取初始人物情绪特征。
人脸情绪识别模型确认输入为连续时间序列的人脸表情图像,模型输出为人脸的bbox和对应的情绪值。本申请实施例中情绪值采用一维数值来进行描述,数值越大表示心情越好。在模型的设计上,选用具有时间序列识别特性的LSTM模型进行训练,深度学习框架选用TensorFlow。
电子设备获取初始人物图像对应的虚拟对象图像的动作特征。
具体地,电子设备通过虚拟对象动作模型库,获取初始人物图像对应的虚拟对象图像的动作特征。虚拟对象动作库中包括若干虚拟对象的动作,以及人物与虚拟对象的动作之间的对应关系,虚拟对象动作库可以为任意一种数据库。
电子设备响应于动作特征,获取第一人物图像的第一人物情绪特征。
具体地,电子设备在获取虚拟角色的动作特征时,获取虚拟角色动作特征对应的第一人物图像,用任一种特征提取方法对第一人物图像进行特征提取,获取第一人物图像的第一任务情绪特征。
电子设备基于初始人物情绪特征与第一人物情绪特征,获取情绪特征变化参数。
具体地,电子设备对初始人物情绪特征和第一人物情绪特征进行比较,获取情绪特征变化参数。通过情绪变化参数即可计算出该虚拟对象动作能够引起人情绪的变化程度。例如,当虚拟对象的动作为转圈时,情绪变化参数为8,当虚拟对象动作为跳舞时,情绪变化参数为12,即可得出,跳舞的动作引起人情绪变化较大。
电子设备基于初始人物情绪特征、情绪特征变化参数、虚拟对象的动作特征对待训练模型进行训练,获取情绪预测模型。
在本申请一实施例中,获取虚拟对象的历史动作特征及其历史情绪特征变化参数;基于所述初始人物情绪特征、所述情绪特征变化参数、虚拟对象的动作特征以及历史动作特征及其历史情绪特征变化参数对待训练模型进行训练,获取情绪预测模型。
在本申请其他实施例中,本申请提供一种个性化的训练方式,电子设备利用大数据集中的若干人物情绪及其虚拟对象动作的数据训练获取预先训练的好的通用情绪预测模型,将初始人物情绪特征、所述情绪特征变化参数、虚拟对象的动作特征输入所述通用情绪预测模型进行训练,以此得到个性化的情绪预测模型。
步骤S14:将虚拟对象的动作推荐模式切换为使用模式。
使用模式为根据预设推荐动作控制所述虚拟对象运动,在使用模式下,电子设备默认推荐的虚拟对象动作会让用户的情绪值上升,并调用宠物动作推荐模块得到推荐的动作,通过上述方式,保证虚拟角色始终是保持拟真状态或者自主生活状态,即根据用户情绪使得虚拟宠物处于运动或休息等真实生活状态,提高动作推荐的真实性。
在本申请一实施例中,在使用模式下还可以按照用户需求进行设置默认动作,例如,用户对虚拟对象跳舞动作的偏好值较高,即可手动将虚拟对象跳舞动作设置为默认动作。
在本申请实施例中,默认动作还可以根据用户指令或者业务场景进行修改。例如,当用户连续n天处于情绪低迷状态时,电子设备将使得用户情绪上升最高的虚拟对象动作作为默认动作,当用户处于情绪稳定状态时,将休息、放松的虚拟对象动作作为默认动作以贴近生活状态。
在本申请一实施例中,使用模式时,云端可以通过大数据对情绪预测模型继续训练,提高情绪预测模型的精准度,在学习模式下,电子设备通过不断上传至云端的大数据训练情绪预测模型,会生成一个普适性较高的公共情绪预测模型,在使用模式下时,通过大数据训练的情绪预测模型由于大量迭代对于个体特征较强的人脸的识别精度势必会下降,例如当当前用户的面部表情变化不明显时,通过大数据训练的公共情绪预测模型的适用性会下降。因此在本申请实施例中提出一种二次训练的技术方案,在使用模式下,通过对当前用户的人脸进行特征提取,获取每一虚拟对象动作的情绪变化值,在原有的公共情绪预测模型基础上进行个性化训练。
在本申请一实施例中,还提供了模型分级推荐的技术方案,即本申请可以根据用户对于电子设备的使用程度,推荐不同的级别的情绪预测模型。例如,当电子设备检测到该用户的使用次数较少,则对该用户推荐低级模型,该模型的功能为基础功能,而当电子设备检测到该用户使用次数较多时,该模型的功能为多项功能,并且由于学习模式的不断训练,该模型的情绪预测精度更高。通过上述方式自适应调整模型级别,能够进行分级推荐,提高动作推荐的丰富度和适应性。
进一步地,在本申请实施例中,电子设备基于人脸的情绪特征变化对推荐动作进行标注,即电子设备对每一个推荐动作对人脸情绪变化程度进行标注,并将标注存储到推荐动作数据库,通过上述方式,在调用推荐动作数据库中的推荐动作时,能够获取到该推荐动作对情绪变化的影响,当用户使用动作推荐模型时,可以根据用户的当前情绪获取到目标动作,该目标动作为能使用户到达某种情绪的动作。在其他实施例中,即前置摄像头中没有识别到人脸时,根据标注自动推荐能使人情绪变化最大的推荐动作。
其中,所述标注可以为数字标注,也可以通过训练进行标签标注,此处不做具体限定。
进一步地,为了能够确定虚拟对象是否在显示范围内,本申请提出一实施例用于定位建图,以此判断虚拟角色的位置。具体请参见图2,图2是本申请提供的第二实施例的流程示意图。
如图2所示,其具体步骤如下:
步骤S21:获取虚拟对象在点云地图的初始化位置。
具体地,电子设备用视觉SLAM的方式,构建空间中的点云地图,视觉SLAM可以从环境中提取语义信息。当电子设备获取虚拟对象的初始位置时,建图算法启动,并将地图存储到本地。
步骤S22:获取后置摄像头在点云地图的当前位置。
具体地,电子设备通过摄像机的内参和外参,确定后置摄像头在点云地图中的当前位置。
步骤S23:基于当前位置以及所述视线范围,确定后置摄像头的视线范围内的位置范围。
电子设备进一步通过SIFT算法提取特征点进行匹配,得到当前后视摄像头的空间位置以及俯仰角,通过当前后视摄像头的空间位置和俯仰角确定后视摄像头的视线范围。
步骤S24:判断初始化位置是否在位置范围内。
具体地,电子设备判断虚拟对象的初始位置是否在后置摄像头的实现范围内,若是,则执行步骤S25,若否,则执行步骤S26。
步骤S25:则确定后置摄像头的视线范围内存在虚拟对象。
具体地,当后置摄像头的视线范围内存在虚拟对象,即该虚拟对象的模型会出现在三维场景显示界面中。
步骤S26:则确定后置摄像头的视线范围内不存在虚拟对象。
在电子设备确定后置摄像头的视线范围内不存在虚拟对象后,电子设备获取位置范围的中心点位置;控制虚拟对象从初始化位置移动至中心点位置。其中,中心点位置位于所述当前场景的点云地图中最接近视线中央的平面上。
为实现上述动作推荐方法,本申请还提出了一种电子设备,具体请参阅图3,图3是本申请提供的电子设备一实施例的结构示意图。
本实施例的电子设备400包括处理器41、存储器42、输入输出设备43以及总线44。
该处理器41、存储器42、输入输出设备43分别与总线44相连,该存储器42中存储有程序数据,处理器41用于执行程序数据以实现上述实施例所述的动作推荐方法。
在本申请实施例中,处理器41还可以称为CPU(Central Processing Unit,中央处理单元)。处理器41可能是一种集成电路芯片,具有信号的处理能力。处理器41还可以是通用处理器、数字信号处理器(DSP,Digital Signal Process)、专用集成电路(ASIC,Application Specific Integrated Circuit)、现场可编程门阵列(FPGA,FieldProgrammable Gate Array)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器41也可以是任何常规的处理器等。
本申请还提供一种计算机存储介质,请继续参阅图4,图4是本申请提供的计算机存储介质一实施例的结构示意图,该计算机存储介质500中存储有计算机程序51,该计算机程序51在被处理器执行时,用以实现上述实施例的动作推荐方法。
本申请的实施例以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (11)
1.一种动作推荐方法,其特征在于,所述动作推荐方法包括:
获取前置摄像头的前置采集画面,以及获取后置摄像头的视线范围;
判断是否在所述前置采集画面检测到人脸,且在所述视线范围内存在虚拟对象;
若是,将所述虚拟对象的动作推荐模式切换为学习模式;
若否,将所述虚拟对象的动作推荐模式切换为使用模式。
2.根据权利要求1所述的动作推荐方法,其特征在于,
其中,所述学习模式为在根据所述人脸的情绪特征获取虚拟对象的推荐动作,按照所述推荐动作控制所述虚拟对象运动的同时,利用所述人脸的情绪特征对情绪预测模型进行训练;所述使用模式为根据预设推荐动作控制所述虚拟对象运动。
3.根据权利要求1所述的动作推荐方法,其特征在于,
所述利用所述人脸的情绪特征对情绪预测模型进行训练,包括:
获取所述情绪预测模型输入所述人脸的情绪特征、所述推荐动作后输出的预测情绪特征;
获取所述虚拟对象按照所述推荐动作运动后,所述人脸的当前情绪特征;
利用所述预测情绪特征与所述当前情绪特征,对所述情绪预测模型进行训练。
4.根据权利要求3所述的动作推荐方法,其特征在于,
所述利用所述预测情绪特征与所述当前情绪特征,对所述情绪预测模型进行训练,包括:
在所述预测情绪特征与所述当前情绪特征的距离大于预设阈值时,将所述人脸的情绪特征变化、所述推荐动作上传至云端,以在所述云端对所述情绪预测模型进行训练。
5.根据权利要求4所述的动作推荐方法,其特征在于,
所述动作推荐方法,还包括:
基于所述人脸的情绪特征变化对所述推荐动作进行标注,并将所述标注存储到推荐动作数据库。
6.根据权利要求1所述的动作推荐方法,其特征在于,
所述动作推荐方法还包括:
获取后置摄像头视线范围;
响应于在所述前置采集画面检测到人脸,且在所述视线范围内存在虚拟对象,将所述虚拟对象的动作推荐模式切换为学习模式;
所述获取后置摄像头的视线范围,包括:
利用所述后置摄像头扫描当前场景,获取所述当前场景的点云数据;
利用所述点云数据创建所述当前场景的点云地图;
获取所述后置摄像头的当前画面中的特征点;
基于所述特征点在所述点云地图的位置,确定所述后置摄像头的视线范围。
7.根据权利要求6所述的动作推荐方法,其特征在于,
所述动作推荐方法,还包括:
获取所述虚拟对象在所述点云地图的初始化位置;
获取所述后置摄像头在所述点云地图的当前位置;
基于所述当前位置以及所述视线范围,确定所述后置摄像头的视线范围内的位置范围;
判断所述初始化位置是否在所述位置范围内;
若是,则确定所述后置摄像头的视线范围内存在所述虚拟对象;
若否,则确定所述后置摄像头的视线范围内不存在所述虚拟对象。
8.根据权利要求7所述的动作推荐方法,其特征在于,
所述确定所述后置摄像头的视线范围内不存在所述虚拟对象之后,所述动作推荐方法还包括:
获取所述位置范围的中心点位置;
控制所述虚拟对象从初始化位置移动至所述中心点位置。
9.根据权利要求8所述的动作推荐方法,其特征在于,
所述中心点位置位于所述当前场景的点云地图中最接近视线中央的平面上。
10.一种电子设备,其特征在于,所述电子设备包括存储器以及与所述存储器耦接的处理器;
其中,所述存储器用于存储程序数据,所述处理器用于执行所述程序数据以实现如权利要求1-9任一项所述的动作推荐方法。
11.一种计算机存储介质,其特征在于,所述计算机存储介质用于存储程序数据,所述程序数据在被计算机执行时,用以实现如权利要求1-9任一项所述的动作推荐方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410116553.7A CN118151745A (zh) | 2024-01-26 | 2024-01-26 | 一种动作推荐方法、电子设备以及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410116553.7A CN118151745A (zh) | 2024-01-26 | 2024-01-26 | 一种动作推荐方法、电子设备以及计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118151745A true CN118151745A (zh) | 2024-06-07 |
Family
ID=91297431
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410116553.7A Pending CN118151745A (zh) | 2024-01-26 | 2024-01-26 | 一种动作推荐方法、电子设备以及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118151745A (zh) |
-
2024
- 2024-01-26 CN CN202410116553.7A patent/CN118151745A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102400017B1 (ko) | 객체를 식별하는 방법 및 디바이스 | |
RU2648573C2 (ru) | Выделение ресурсов для машинного обучения | |
CN112889108B (zh) | 使用视听数据进行说话分类 | |
US9349218B2 (en) | Method and apparatus for controlling augmented reality | |
US20190087975A1 (en) | Methods and Apparatus for Autonomous Robotic Control | |
JP2022534337A (ja) | ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム | |
CN113656582B (zh) | 神经网络模型的训练方法、图像检索方法、设备和介质 | |
CN110928411B (zh) | 一种基于ar的交互方法、装置、存储介质及电子设备 | |
CN111652181B (zh) | 目标跟踪方法、装置及电子设备 | |
CN111783997B (zh) | 一种数据处理方法、装置及设备 | |
CN113766330A (zh) | 基于视频生成推荐信息的方法和装置 | |
CN108961314B (zh) | 运动图像生成方法、装置、电子设备及计算机可读存储介质 | |
CN115131604A (zh) | 一种多标签图像分类方法、装置、电子设备及存储介质 | |
US11455501B2 (en) | Response based on hierarchical models | |
CN112580750A (zh) | 图像识别方法、装置、电子设备及存储介质 | |
CN112668608A (zh) | 一种图像识别方法、装置、电子设备及存储介质 | |
CN114898266A (zh) | 训练方法、图像处理方法、装置、电子设备以及存储介质 | |
CN113902989A (zh) | 直播场景检测方法、存储介质及电子设备 | |
CN118151745A (zh) | 一种动作推荐方法、电子设备以及计算机存储介质 | |
CN113591865B (zh) | 一种回环检测方法、装置以及电子设备 | |
Manso et al. | A novel robust scene change detection algorithm for autonomous robots using mixtures of gaussians | |
CN117011449A (zh) | 三维面部模型的重构方法和装置、存储介质及电子设备 | |
CN113537359A (zh) | 训练数据的生成方法及装置、计算机可读介质和电子设备 | |
CN113705209A (zh) | 一种副标题的生成方法、装置、电子设备和存储介质 | |
CN112711324B (zh) | 基于tof相机的手势交互方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |