CN114712862A - 虚拟宠物交互方法、电子设备及计算机可读存储介质 - Google Patents

虚拟宠物交互方法、电子设备及计算机可读存储介质 Download PDF

Info

Publication number
CN114712862A
CN114712862A CN202210345046.1A CN202210345046A CN114712862A CN 114712862 A CN114712862 A CN 114712862A CN 202210345046 A CN202210345046 A CN 202210345046A CN 114712862 A CN114712862 A CN 114712862A
Authority
CN
China
Prior art keywords
pet
user
virtual pet
virtual
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210345046.1A
Other languages
English (en)
Inventor
贾彤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
New Ruipeng Pet Healthcare Group Co Ltd
Original Assignee
New Ruipeng Pet Healthcare Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by New Ruipeng Pet Healthcare Group Co Ltd filed Critical New Ruipeng Pet Healthcare Group Co Ltd
Priority to CN202210345046.1A priority Critical patent/CN114712862A/zh
Publication of CN114712862A publication Critical patent/CN114712862A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/825Fostering virtual characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种虚拟宠物交互方法、电子设备及计算机可读存储介质,其中虚拟宠物交互方法包括基于真实宠物的宠物信息生成虚拟宠物,以及对用户的情绪进行识别,从而根据所识别出的用户情绪确定第一交互动作,进而控制虚拟宠物显示第一交互动作。本申请可以生成虚拟宠物来代替真实宠物,通过虚拟宠物与用户进行交互,从而可以给予用户情绪安抚及陪伴。

Description

虚拟宠物交互方法、电子设备及计算机可读存储介质
技术领域
本申请涉及虚拟宠物技术领域,尤其涉及一种虚拟宠物交互方法、电子设备及计算机可读存储介质。
背景技术
目前有越来越多人饲养宠物。宠物可以陪伴宠物主人,给宠物主人带来乐趣,与宠物主人建立深厚的感情。然而,当宠物因为寄养、丢失甚至去世而无法陪伴宠物主人,宠物主人容易陷入孤独、抑郁情绪,严重时甚至会影响到生活的正常进行。
发明内容
本申请的主要目的是提供一种虚拟宠物交互方法,可以生成与真实宠物相贴合的虚拟宠物,并且该虚拟宠物可以根据用户的情绪适应性地与用户进行交互,从而可以代替真实宠物来给予用户陪伴以及安抚用户情绪,从而解决现有技术中宠物主人因失去宠物陪伴而陷入孤独、抑郁情绪的问题。
本申请的一个目的在于提供一种虚拟宠物交互方法,该方法可以根据用户的面部表情、语音、肢体动作、脑电信号和人眼视觉信号以及用户的输入信息等用户信息来准确判断用户的情绪类型,从而针对该类情绪来控制虚拟宠物做出合适的第一交互动作,以更有效地安抚用户情绪。
本申请的一个目的在于提供一种虚拟宠物交互方法,该方法通过检测用户对虚拟宠物所做出的用户行为,并根据用户行为来控制虚拟宠物做出合适的第二交互动作,使得虚拟宠物可以与用户形成良好的互动,能够对用户行为做出及时、有效地响应。
本申请的一个目的在于提供一种虚拟宠物交互方法,该方法可以通过不同的途径来获得宠物信息,例如可以是通过分析真实宠物的影像而获得,可以由用户输入而获得,可以从宠物信息数据库进行搜索而获得,并且还可以是这些途径中的任意一个或多个来获得宠物信息,显然,本申请获得宠物信息的方式非常灵活,这也有助于获得更多元化的宠物信息。
本申请的一个目的在于提供一种虚拟宠物交互方法,该方法所获得的宠物信息包括真实宠物的品种、外观、声音和行为。可见,获得的宠物信息丰富多样,从而有利于生成一个更贴合真实宠物、更符合用户预期的虚拟宠物。
本申请的一个目的在于提供一种虚拟宠物交互方法,该方法可以对宠物信息、第一交互动作及第二交互动作进行编辑修改,从而可以生成更符合用户预期的虚拟宠物,与用户进行更流畅有效的交互。
本申请的一个目的在于提供一种虚拟宠物交互方法,该方法可以根据用户选择的真实宠物的生长时期,并生成处于该生长时期下的真实宠物所对应的虚拟宠物。如此可以给用户提供更多选择,提升用户体验。
本申请的一个目的在于提供一种虚拟宠物交互方法,该方法可以生成真实环境的全景图,使得虚拟宠物可以显示于全景图中,从而更真实地模拟真实宠物,使虚拟宠物更具有沉浸感。
本申请的一个目的在于提供一种电子设备,该电子设备包括存储器和处理器,存储器可用于存储可执行计算机程序,处理器可用于执行存储器中的可执行计算机程序,以实现上述虚拟宠物交互方法。
本申请的一个目的在于提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,计算机程序由处理器加载并执行,以实现上述虚拟宠物交互方法。
与现有技术相比,本申请具有以下优点:
本申请可以提供虚拟宠物来代替真实宠物,虚拟宠物可以根据用户的情绪适应性地与用户进行交互,并且可以对用户的互动行为做出响应,从而可以给予用户情绪安抚及陪伴。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例提供的虚拟宠物交互方法的流程图。
图2为图1中的虚拟宠物的示意图。
图3为图1中生成虚拟宠物的流程图。
图4为图1中虚拟宠物显示于全景图的流程图。
图5为图1中的虚拟宠物显示第二交互动作的流程图。
图6为本申请实施例提供的电子设备的示意图。
图7为本申请实施例提供的电子设备之间通过服务器连接的示意图。
主要元件符号说明
虚拟宠物 100
电子设备 200,200a,200b
存储器 210
处理器 220
显示器 230
服务器 300
如下具体实施方式将结合上述附图进一步说明本申请。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
在本申请的描述中,需要理解的是,术语“第一”、“第二”和“第三”等是用于区别不同对象,而非用于描述特定顺序,因此不能理解为对本申请的限制。
在本申请的描述中,需要说明的是,除非另有明确的规定和限定,术语“包括”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或模块的过程、方法、系统、产品或设备没有限定于已列出的步骤或模块,而是可选地还包括没有列出的步骤或模块,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或模块。
请参照图1,图1示出了本申请实施例提供的一种虚拟宠物交互方法的流程示意图。可以理解,虚拟宠物100是指以真实宠物的形象进行呈现的数字宠物。虚拟宠物100可以是2D数字模型,3D数字模型或虚拟现实模型,本申请并不加以限制。虚拟宠物100可由显示器进行显示。可以理解,本申请并不限制显示器的类型,显示器例如可以是触控显示器、2D显示器、3D显示器和/或虚拟现实显示器等。
如图1所示,虚拟宠物交互方法包括以下步骤:
基于真实宠物的宠物信息,生成所述真实宠物所对应的虚拟宠物100。
对用户的情绪进行识别。
根据所识别的情绪确定第一交互动作,并控制所述虚拟宠物100显示所述第一交互动作。
可以理解,虚拟宠物100在品种、外观、声音和行为上与真实宠物一致,也即虚拟宠物100可以模仿真实宠物,从而可以在一定程度上代替真实宠物。可以理解,本申请并没有对真实宠物的种类加以限定。示例的,真实宠物可以是猫,对应地,生成的虚拟宠物100为猫(参照图2)。又示例的,真实宠物可以是狗,对应地,生成的虚拟宠物100为狗。
可以理解,宠物信息包括真实宠物的品种、外观、声音和行为。
其中,外观可以包括体型、毛色、毛发浓密程度、花纹,耳朵和尾巴等外在特征。耳朵例如有长耳、短耳、卷耳、折耳、正常耳等不同形式。尾巴例如有长尾、中尾、短尾、无尾和钩型尾等不同形式。
其中,行为可以包括真实宠物所属品种的普遍行为和真实宠物独有的行为习惯。普遍行为具有普遍性,例如,宠物猫在肚子饿的时候基本会寻找宠物主人,并冲着宠物主人叫唤。真实宠物独有的行为习惯具有独特性,例如有的猫在趴下时会将四肢隐藏在躯干下方,做出揣手的动作,而有的猫则不会做出揣手的动作。
可以理解,本申请实施例并没有限制宠物信息的获取方式,宠物信息可以通过一种或多种方式来获得。例如,宠物信息可以是用户直接输入的信息。又例如,宠物信息可以是从宠物信息数据库搜索得到的信息。其中,宠物信息数据库可以是宠物医院数据库,也可以是公共的动物信息数据库等,本申请对此并不加以限制。又例如,宠物信息可以是通过分析真实宠物的影像而获得,其中,分析过程具体可以是先提取出真实宠物的影像中的特征区域和/或特征点,然后再将特征区域和/或特征点输入至神经网络模型进行处理识别,从而得出宠物信息。
可以理解,在一些实施例中,宠物信息还可以包括可以穿戴在真实宠物身上的衣服和/或饰品。
在本申请实施例中,考虑到宠物具有不同的生长时期,不同生长时期的宠物具有不同的表现。例如,猫的生长时期有新生儿期(0~9天)、过渡期(9~15天)、过渡期(9~15天)、青春期(8周~7个月)、成年期(1岁~7岁)和老年期(8岁以后)。新生儿期的猫未完全睁眼,而过渡期的猫就可以开始学习走路,成年期的猫活泼好动。因此,如图3所示,在生成虚拟宠物100的过程中,还可以包括如下步骤:
获得真实宠物在多个生长时期下的宠物信息。
其中,多个生长时期可以显示于界面,并且界面可以生成虚拟控件,以供用户使用来选择生长时期。可以理解,界面上还可以显示各个生长时期下的虚拟宠物100,以及显示各个生长时期下的虚拟宠物100的表现的相应说明。
然后,接收用户对生长时期的选择信息。
基于选择信息所对应的宠物信息生成虚拟宠物100。
可以理解,在一些实施例中,还可以对宠物信息进行编辑,例如可以编辑虚拟宠物100的体型,比如使虚拟宠物100等比增大等。又例如可以更换虚拟宠物100所穿戴的衣服和/或饰品。因此,本申请方法还可以通过获得编辑后的宠物信息,基于编辑后的宠物信息来更新显示的虚拟宠物100。
如图4所示,为增强虚拟宠物100的真实性,还可以包括:
基于真实环境的图像,生成真实环境的全景图。
然后,控制虚拟宠物100显示于全景图中。
可以理解,真实环境的图像可以通过拍摄用户所处的当前环境来获得。
在上述步骤中,通过将多个图像进行拼接,从而使得多个图像的内容可以连成一体,得到可以显示当前环境全景的全景图。通过将虚拟宠物100与全景图进行融合,从而可以使虚拟宠物100显示于全景图中,也即全景图作为虚拟宠物100所处的虚拟环境。
可以理解,全景图可以根据虚拟宠物100的显示方式保持一致。例如当虚拟宠物100为三维数字模型时,全景图对应为三维全景图。又例如当虚拟宠物100为虚拟现实模型时,全景图对应为虚拟现实全景图。
其中,三维全景图及虚拟现实全景图可以以空间360°的形式进行显示,并且通过直接调整全景图的观看视角,或者通过调整用户的视点位置,可以切换虚拟宠物100所处的全景图中的场景区域。
可以理解,在一些实施例中,还可以对全景图进行编辑。例如,可以在全景图中添加虚拟玩具,例如虚拟的毛球、逗猫棒和/或转盘等。因此,本申请方法可以通过获取编辑后的全景图,从而控制虚拟宠物100显示于更新后的全景图。基于此,在控制虚拟宠物100做出第一交互动作时,第一交互动作可以是虚拟宠物100玩耍虚拟玩具的行为。
在本申请实施例中,上述方法中的对用户的情绪进行识别,具体包括以下步骤:
获得用户的用户信息。
然后,根据用户信息判断用户的情绪类型。
可以理解,用户信息包括但不限于用户的面部表情、语音、肢体动作、脑电信号和人眼视觉信号以及用户通过鼠标、键盘等输入设备生成的输入信息中的至少一种。
其中,本申请可以通过摄像头拍摄用户来获得用户的面部表情、肢体动作和人眼视觉信号,可以通过接触式或非接触式传感器来检测用户的肢体动作,可以通过如麦克风等录音设备来获得用户的语音,可以通过脑电信号传感器来获得用户的脑电信号,还可以通过程序侦测用户的输入信息。例如,当虚拟宠物100由显示器进行显示时,显示器可以通过程序侦测用户的输入内容,另外还可以通过摄像头拍摄用户来获得用户的面部表情、手势动作和人眼视觉信号,以及通过麦克风记录用户的语音。
可以理解,情绪类型的判断过程可以包括以下步骤:
对用户信息进行特征提取,得到对应的特征。
将特征输入至对应的神经网络模型,神经网络模型对所输入的特征进行情绪分类,从而输出情绪分类结果。
示例的,在一些实施例中,可以是对用户的面部表情图像和音频进行特征提取,得到对应的面部特征、动作特征、声纹特征和语义特征。然后,将面部特征、动作特征、声纹特征和语义特征分别输入至对应的神经网络模型,每个神经网络模型输出对应的情绪分类结果。可以理解,情绪类型包括开心、生气、伤心、惊讶和害怕等,模型所输出的情绪分类结果为各种情绪的概率,因此,从中选出重复率最高且概率最大的情绪类型,即可作为最终的情绪判断结果。
可以理解,本申请并不限制神经网络模型的类型,例如面部特征、动作特征和声纹特征所输入的神经网络模型可以是隐马尔可夫模型方法、支持向量机、AdaBoost算法及贝叶斯决策模型中的任意一种。语义特征所输入的神经网络模型可以是fastText或TextCNN等模型。
在本申请实施例中,第一交互动作与用户的情绪相关联,第一交互动作可用于缓解用户的不良情绪。示例的,当识别出用户的情绪为伤心时,则可以确定虚拟宠物100的第一交互动作为用于安抚用户情绪的动作。例如,可以控制虚拟宠物100发出喵叫声来吸引用户的注意力,使用户暂停思考引起伤心的事情,而且还可以在全景图中存在有虚拟玩具的情况下,控制虚拟宠物100做出玩耍虚拟玩具的动作,以取悦用户,从而缓解用户伤心的情绪。又例如,当识别出用户的情绪为害怕时,则可以控制虚拟宠物100站立,并且背拱起,以保护用户的姿势陪伴用户。
可以理解,本申请并不限制第一交互动作的形式。例如,第一交互动作可以是摇头、摇尾巴、吐舌头、趴下、拱起腰背、伸爪、拍打、蹭人、行走、起跳以及发出呼噜声或喵叫声等行为中的任意一种或多种。
可以理解,本申请可以通过深度学习技术确定第一交互动作。比如,将宠物信息按照不同的情绪进行分类,并将情绪作为输入,宠物信息作为输出来训练一个深度学习模型,从而可以利用训练好的深度学习模型来自动输出不同情绪下所对应的宠物信息。其中,深度学习模型包括但不限于AlexNet、VGGNet、GoogLeNet、ResNet、DenseNet等,本申请实施例对此不进行具体限定。
可以理解,在一些实施例中,还可以对第一交互动作进行编辑、修改。因此,本申请方法可以通过获取编辑后的第一交互动作,以迭代更新用于输出第一交互动作的深度学习模型。进而,可以使虚拟宠物100显示编辑后的第一交互动作。如此可使虚拟宠物100所显示的第一交互动作可以更有效地缓解用户的情绪。
如图5所示,在本申请实施例中,虚拟宠物交互方法还可以包括:
检测用户对虚拟宠物100所做出的用户行为。
可以理解,用户行为包括但不限于用户的面部表情、语音、手势动作、脑电信号和人眼视觉信号,以及用户通过鼠标、键盘等输入设备做出的输入操作中的至少一种。其中,可通过拍摄用户的方式来获得用户的面部表情、手势动作和人眼视觉信号,可通过录音的方式来获得用户的语音,还可通过传感器感应的方式来获得用户的手势动作和脑电信号,通过程序侦测用户利用鼠标完成的点击操作和/或通过键盘完成的输入信息的操作。
例如,当虚拟宠物100由2D显示器进行显示时,2D显示器可以通过程序侦测用户的输入内容,还可以通过摄像头拍摄用户来获得用户的面部表情、手势动作和人眼视觉信号,以及通过麦克风记录用户的语音。当虚拟宠物100由触控显示器进行显示时,可通过触控显示器的压力传感器来检测用户是否有触碰到触控显示器,进而获知用户是否有做出触摸虚拟宠物的行为。又例如,当虚拟宠物100由虚拟现实显示器进行显示时,可通过虚拟现实显示器的惯性传感器来检测用户做出的手势。
然后,根据用户行为确定虚拟宠物100的第二交互动作,并控制虚拟宠物100显示第二交互动作。
其中,第二交互动作包括但不限于摇头、摇尾巴、吐舌头、趴下、拱起腰背、蹭人、伸爪以及发出呼噜声或喵叫声等。
可以理解,例如检测到用户对虚拟宠物猫做出抚摸的动作,则可以控制虚拟宠物猫做出用头蹭人的动作,以表达对用户的喜欢,以及可以发出呼噜声来表达舒服,另外还可以控制宠物猫的尾巴垂直摇动或大幅度上下摆动尾巴,以表示虚拟宠物猫的心情愉悦。如此可以模拟真实宠物对用户的抚摸动作的响应,与用户形成良好的互动。
可以理解,为防止误判,在检测用户行为时,还可以通过眼动跟踪技术来检测用户的视点位置。当用户的视点位置落在虚拟宠物100上时,才判定用户是针对虚拟宠物100而做出的用户行为。
可以理解,本申请可以通过深度学习技术确定第二交互动作。例如,利用训练好的深度学习模型来自动输出用户行为所对应的第二交互动作。可以理解,本申请实施例并不限制深度学习模型的类型。
可以理解,在一些实施例中,还可以对第二交互动作进行编辑、修改。因此,本申请方法可以通过获取编辑后的第二交互动作,以迭代更新用于输出第二交互动作的深度学习模型。进而,可以使虚拟宠物100显示编辑后的第二交互动作。如此可使虚拟宠物100所做出的第二交互动作更符合用户的喜好。
可以理解,在一些实施例中,并没有对显示的虚拟宠物100的数量进行限制。例如在一些情况下,可以同时显示两只虚拟宠物100。基于此,虚拟宠物100所做出的第一交互动作还可以是与另一只虚拟宠物100之间的互动,例如一起嬉戏、一起睡觉等。
综上,本申请虚拟宠物交互方法可以提供虚拟宠物100来代替真实宠物,通过自动感知用户情绪,并根据用户的情绪来自动控制虚拟宠物100做出相关联的交互动作,从而可以给予用户情绪安抚及陪伴。
图6为本申请实施例提供的一种电子设备200的结构示意图。该电子设备200包括处理器220、存储器210和显示器230。处理器220连接存储器210和显示器230。
处理器220可以是一个通用中央处理器(Central Processing Unit,CPU),特定应用集成电路(application-specific integrated circuit,ASIC),图形处理器(graphicsprocessing unit,GPU)或其任意组合。处理器220可以包括一个或多个芯片。处理器220可以包括AI加速器,例如:神经网络处理器(neural processing unit,NPU)。
存储器210可以是只读存储器(read-only memory,ROM)或可存储静态信息和指令的其它类型的静态存储设备,随机存取存储器(random access memory,RAM))或者可存储信息和指令的其它类型的动态存储设备,也可以是电可擦可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其它光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其它磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其它介质,但不限于此。存储器210可以是独立存在,并与处理器220相连接。存储器210也可以和处理器220集成在一起。存储器210可以存储可执行计算机程序,当存储器210中存储的可执行计算机程序被处理器220加载并执行时,可以实现本申请的虚拟宠物交互方法。另外,存储器210中还可以存储有处理器220在执行上述方法的过程中所需的数据以及所产生的中间数据和/或结果数据。
显示器可以是触控显示器、2D显示器、3D显示器和/或虚拟现实显示器。显示器可以用于显示虚拟宠物及其所处的虚拟环境。
电子设备200可以是智能手机、智能手表、智能手环、个人电脑、智能电视、平板电脑、虚拟现实设备、游戏机等终端设备。
在具体实现中,作为一种实施例,电子设备200可以包括多个处理器220。这些处理器220中的每一个可以是一个单核(single-CPU)处理器,也可以是一个多核(multi-CPU)处理器。这里的处理器220可以指一个或多个设备、电路、和/或用于处理数据(例如计算机程序指令)的处理核。
在具体实现中,作为一种实施例,如图7所示,电子设备200a可以通过服务器300连接相同或不同类型的其他电子设备200b,如此,电子设备200a所生成的虚拟宠物100可以通过服务器300迁移至其他电子设备200b,并在其他电子设备200b的显示器230进行显示。其中,服务器300例如可以是云服务器。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有可执行计算机程序,当该可执行计算机程序在电子设备200上运行时,使得电子设备200执行上述虚拟宠物交互方法。
本申请实施例还提供了一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述相关步骤,以实现上述虚拟宠物交互方法。
另外,本申请的实施例还提供一种装置,这个装置具体可以是芯片,组件或模块,该装置可包括相连的处理器220和存储器210。其中,存储器210用于存储计算机执行指令,当装置运行时,处理器220可执行存储器210存储的计算机执行指令,以使芯片执行上述虚拟宠物交互方法。
其中,本申请实施例提供的电子设备200、计算机可读存储介质、计算机程序产品或芯片均用于执行上文所提供的虚拟宠物交互方法,因此,其所能达到的有益效果可参考上文所提供的虚拟宠物交互方法中的有益效果,此处不再赘述。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,该模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
其中,该作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
该集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (10)

1.一种虚拟宠物交互方法,其特征在于,包括,
基于真实宠物的宠物信息,生成所述真实宠物所对应的虚拟宠物;
对用户的情绪进行识别;
根据所识别的情绪确定第一交互动作,并控制所述虚拟宠物显示所述第一交互动作。
2.如权利要求1所述的虚拟宠物交互方法,其特征在于,所述对用户的情绪进行识别,包括以下步骤:
获得所述用户的用户信息,所述用户信息包括用户的面部表情、语音、肢体动作、脑电信号和人眼视觉信号以及用户的输入信息中的至少一种;
根据所述用户信息判断所述用户的情绪类型。
3.如权利要求1所述的虚拟宠物交互方法,其特征在于,所述方法还包括:
检测所述用户对所述虚拟宠物所做出的用户行为;
根据所述用户行为确定第二交互动作,并控制所述虚拟宠物显示所述第二交互动作。
4.如权利要求1所述的虚拟宠物交互方法,其特征在于,所述宠物信息通过分析所述真实宠物的影像而获得,和/或由所述用户输入而获得,和/或从宠物信息数据库进行搜索而获得。
5.如权利要求1所述的虚拟宠物交互方法,其特征在于,所述宠物信息包括所述真实宠物的品种、外观、声音、所述真实宠物所属品种的普遍行为以及所述真实宠物独有的行为习惯。
6.如权利要求1所述的虚拟宠物交互方法,其特征在于,所述方法还包括:
获得编辑后的所述宠物信息,从而基于编辑后的所述宠物信息更新所述虚拟宠物;和/或
获得编辑后的所述第一交互动作,从而控制所述虚拟宠物显示编辑后的所述第一交互动作。
7.如权利要求1所述的虚拟宠物交互方法,其特征在于,所述基于真实宠物的宠物信息,生成所述真实宠物所对应的虚拟宠物,包括以下步骤:
获得所述真实宠物在多个生长时期下的所述宠物信息;
接收所述用户对所述生长时期的选择信息;
基于所述选择信息所对应的所述宠物信息生成所述虚拟宠物。
8.如权利要求1所述的虚拟宠物交互方法,其特征在于,所述方法还包括:
基于真实环境的图像,生成所述真实环境的全景图;
控制所述虚拟宠物显示于所述全景图中。
9.一种电子设备,其特征在于,包括:
存储器,用于存储可执行计算机程序;
处理器,用于执行所述存储器中的所述可执行计算机程序,以实现如权利要求1至8中任一项所述的虚拟宠物交互方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序由处理器加载并执行,以实现如权利要求1至8中任一项所述的虚拟宠物交互方法。
CN202210345046.1A 2022-03-31 2022-03-31 虚拟宠物交互方法、电子设备及计算机可读存储介质 Pending CN114712862A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210345046.1A CN114712862A (zh) 2022-03-31 2022-03-31 虚拟宠物交互方法、电子设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210345046.1A CN114712862A (zh) 2022-03-31 2022-03-31 虚拟宠物交互方法、电子设备及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN114712862A true CN114712862A (zh) 2022-07-08

Family

ID=82241216

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210345046.1A Pending CN114712862A (zh) 2022-03-31 2022-03-31 虚拟宠物交互方法、电子设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN114712862A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115983051A (zh) * 2023-03-20 2023-04-18 星宠王国(北京)科技有限公司 一种虚拟宠物交互仿真电子宠物方法及系统
CN117520489A (zh) * 2023-10-13 2024-02-06 北京百度网讯科技有限公司 基于aigc的交互方法、装置、设备和存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115983051A (zh) * 2023-03-20 2023-04-18 星宠王国(北京)科技有限公司 一种虚拟宠物交互仿真电子宠物方法及系统
CN117520489A (zh) * 2023-10-13 2024-02-06 北京百度网讯科技有限公司 基于aigc的交互方法、装置、设备和存储介质

Similar Documents

Publication Publication Date Title
US11276216B2 (en) Virtual animal character generation from image or video data
KR102296906B1 (ko) 이미지 또는 비디오 데이터로부터의 가상 캐릭터 생성
US11798215B2 (en) Avatar facial expression representation in multidimensional space
CN102473320B (zh) 通过学习到的来自用户的输入使视觉表示生动化的方法
JP6888096B2 (ja) ロボット、サーバおよびヒューマン・マシン・インタラクション方法
US11291919B2 (en) Development of virtual character in a learning game
Tinwell et al. The uncanny wall
CN102470273B (zh) 基于玩家表情的视觉表示表情
CN109844735A (zh) 用于使用用户的情感状态控制虚拟图像生成系统的技术
US11554315B2 (en) Communication with augmented reality virtual agents
US20130095725A1 (en) Figurine toy in combination with a portable, removable wireless computer device having a visual display screen
CN114712862A (zh) 虚拟宠物交互方法、电子设备及计算机可读存储介质
CN103764236A (zh) 连接的多功能系统及其使用方法
US20140314327A1 (en) Systems and Methods for Computer Recognition of Plush Toys
CN113593013A (zh) 基于vr逝者仿真的交互方法、系统、终端及vr设备
CN102999153A (zh) 基于自然人机交互的二维数据对象控制系统及其方法
CN116370954B (zh) 游戏方法和游戏装置
JP6935531B1 (ja) 情報処理プログラムおよび情報処理システム
US20220319088A1 (en) Facial capture artificial intelligence for training models
Lenders Physical Perception of a VR Handshake
WO2024214709A1 (ja) 行動制御システム及びプログラム、並びに自律学習方法
Christou An affective gaming scenario using the Kinect Sensors
KR20240016817A (ko) 사용자의 메타버스 활동 로그에 기초하여 메타버스 속 가상 npc 아바타를 성장시키는 시스템 및 방법
Huang Development of Human-Computer Interaction for Holographic AIs
Rosenkind Creating Believable, Emergent Behaviour in Virtual Agents, Using a Synthetic Psychology Approach

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination