CN109086860B - 一种基于虚拟人的交互方法及系统 - Google Patents

一种基于虚拟人的交互方法及系统 Download PDF

Info

Publication number
CN109086860B
CN109086860B CN201810523371.6A CN201810523371A CN109086860B CN 109086860 B CN109086860 B CN 109086860B CN 201810523371 A CN201810523371 A CN 201810523371A CN 109086860 B CN109086860 B CN 109086860B
Authority
CN
China
Prior art keywords
user
interaction
expression
scene
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810523371.6A
Other languages
English (en)
Other versions
CN109086860A (zh
Inventor
俞志晨
李晓丹
尚小维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Virtual Point Technology Co Ltd
Original Assignee
Beijing Guangnian Infinite Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Guangnian Infinite Technology Co ltd filed Critical Beijing Guangnian Infinite Technology Co ltd
Priority to CN201810523371.6A priority Critical patent/CN109086860B/zh
Publication of CN109086860A publication Critical patent/CN109086860A/zh
Application granted granted Critical
Publication of CN109086860B publication Critical patent/CN109086860B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于虚拟人的交互方法以及系统。方法包括:采集用户多模态数据并解析,获取包含用户表情意图的用户交互意图,其中:从所述用户多模态数据中提取用户表情数据;对所述用户表情数据进行解析,生成对应的用户表情意图;针对所述用户交互意图,生成对应的多模态交互回应数据,所述多模态交互回应数据包含表情回应数据;基于所述虚拟人输出所述多模态交互回应数据,其中,利用所述虚拟人展示所述表情回应数据对应的表情。根据本发明的方法及系统,可以令虚拟人展现与当前交互内容自然匹配的表情,从而大大提高虚拟人的亲切感,提高用户体验。

Description

一种基于虚拟人的交互方法及系统
技术领域
本发明涉及计算机领域,具体涉及一种基于虚拟人的交互方法及系统。
背景技术
随着人工智能技术的不断发展,智能机器人被越来越多的应用于人类的生产生活当中。在众多种类的智能机器人当中,较为常见的一种就是虚拟机器人。
在现有技术中,通常的虚拟机器人是以人类或者与人类相似的形态为其虚拟形象。这就使得虚拟机器人可以利用其虚拟形象模拟人类的表情。基于此,在现有技术中,在很多应用场景中利用虚拟机器人在输出交互数据的同时会进行表情展示。
然而,在现有技术中,虚拟机器人在进行人机交互时通常是输出一个大概的表情,不仅输出的表情十分粗糙,而且表情的输出与当前的交互内容的匹配度也很低。在很多应用场景中,虚拟机器人的表情输出不仅不能给人带来亲切感,反而因其与当前交互内容不搭造成用户感到莫名其妙从而降低用户体验。
发明内容
本发明提供了一种基于虚拟人的交互方法,所述虚拟人在智能设备运行,且所述虚拟人具备预设形象特征和预设属性,在处于交互状态时启动语音、情感、视觉和感知能力,所述方法包括:
确认当前的交互场景,当所述交互场景为任务场景时采集用户多模态数据并从云端服务器获取对应所述交互场景的场景特征描述;
解析所述用户多模态数据,基于所述场景特征描述,获取包含用户表情意图的用户交互意图,针对所述用户交互意图生成包含第一表情回应数据的多模态交互回应数据,其中,获取用户表情意图包括:
从所述用户多模态数据中提取用户表情数据;
对所述用户表情数据进行解析,基于所述场景特征描述获取对应的用户表情意图;
基于所述虚拟人输出所述多模态交互回应数据,其中,利用所述虚拟人展示所述第一表情回应数据所对应的表情。
在一实施例中,所述方法还包括:
解析所述用户多模态数据,判断是否符合主动交互条件;
当符合主动交互条件时,基于所述场景特征描述,获取所述用户表情意图,针对所述用户表情意图生成包含第二表情回应数据的多模态主动交互数据;
基于所述虚拟人主动输出所述多模态主动交互数据,其中,利用所述虚拟人展示所述第二表情回应数据所对应的表情。
在一实施例中,生成所述多模态主动交互数据或所述多模态交互回应数据,其中:
获取所述虚拟人与所述用户的熟悉度参量;
当所述熟悉度参量超过设定阈值时生成与所述用户表情意图同步的所述第一表情回应数据或所述第二表情回应数据。
在一实施例中,利用所述虚拟人与所述用户的交互次数描述所述熟悉度参量。
在一实施例中,所述用户表情数据包括用户面部表情数据和/或用户姿态数据。
在一实施例中:
当所述交互场景为任务场景时采集所述交互场景中多个用户的用户多模态数据;
从每个用户的用户多模态数据中提取所述用户表情数据;
对所述用户表情数据进行解析,基于所述场景特征描述获取多个用户的独立用户表情意图;
统合所有的独立用户表情意图,基于所述场景特征描述获取所述用户表情意图。
本发明还提出了一种存储介质,所述存储介质上存储有可实现如本发明所述方法的程序代码。
本发明还提出了一种基于虚拟人的交互系统,所述系统包括:
场景确认模块,其配置为确认当前的交互场景,判断所述交互场景是否为任务场景;
输入获取模块,其配置为当所述交互场景为任务场景时采集用户多模态数据;
场景特征描述获取模块,其配置为当所述交互场景为任务场景时获取对应所述交互场景的场景特征描述;
交互解析模块,其配置为解析所述用户多模态数据,基于所述场景特征描述,获取包含用户表情意图的用户交互意图,所述交互解析模块包括:
表情数据提取单元,其配置为从所述用户多模态数据中提取用户表情数据;
表情数据解析单元,其配置为对所述用户表情数据进行解析,基于所述场景特征描述获取对应的用户表情意图;
交互回应生成模块,其配置为基于所述场景特征描述,针对所述用户交互意图生成包含第一表情回应数据的多模态交互回应数据。
在一实施例中:
所述交互解析模块还配置为解析所述用户多模态数据,判断是否符合主动交互条件,当符合主动交互条件时,基于所述场景特征描述,获取所述用户表情意图;
所述交互回应生成模块还配置为当符合主动交互条件时,基于所述场景特征描述,针对所述用户表情意图生成包含第二表情回应数据的多模态主动交互数据。
本发明还提出了一种虚拟人系统,所述系统包括智能设备以及云端服务器,其中:
所述云端服务器包含如本发明所述的交互系统,所述交互系统配置为调用所述云端服务器的能力接口确认所述交互场景、获取所述场景特征描述以及所述用户多模态数据并解析,生成并输出所述多模态交互回应数据或所述多模态主动交互数据,其中,所述云端服务器的能力接口包括语义理解接口、视觉识别接口、情感计算接口、认知计算接口;
所述智能设备包括:
用户界面,其配置为基于虚拟人执行参数在预设显示区域内显示被唤醒的虚拟人;
人机交互输入输出模块,其配置为获取所述用户多模态数据以及输出所述虚拟人执行参数;
通信模块,其配置为输出所述用户多模态数据并接收所述多模态交互回应数据或所述多模态主动交互数据;
中央处理单元,其配置为利用所述多模态交互回应数据或所述多模态主动交互数据计算与所述多模态交互回应数据或所述多模态主动交互数据相对应的虚拟人执行参数。
根据本发明的方法及系统,可以令虚拟人展现与当前交互内容自然匹配的表情,从而大大提高虚拟人的亲切感,提高用户体验。
本发明的其它特征或优点将在随后的说明书中阐述。并且,本发明的部分特征或优点将通过说明书而变得显而易见,或者通过实施本发明而被了解。本发明的目的和部分优点可通过在说明书、权利要求书以及附图中所特别指出的步骤来实现或获得。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例共同用于解释本发明,并不构成对本发明的限制。在附图中:
图1是根据本发明一实施例的方法流程图;
图2以及图3是根据本发明实施例的方法的部分流程图;
图4是根据本发明一实施例的交互系统结构简图;
图5是根据本发明一实施例的虚拟人系统结构简图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此本发明的实施人员可以充分理解本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程并依据上述实现过程具体实施本发明。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
在现有技术中,通常的虚拟机器人是以人类或者与人类相似的形态为其虚拟形象。这就使得虚拟机器人可以利用其虚拟形象模拟人类的表情。基于此,在现有技术中,在很多应用场景中利用虚拟机器人在输出交互数据的同时会进行表情展示。
然而,在现有技术中,虚拟机器人在进行人机交互时通常是输出一个大概的表情,不仅输出的表情十分粗糙,而且表情的输出与当前的交互内容的匹配度也很低。在很多应用场景中,虚拟机器人的表情输出不仅不能给人带来亲切感,反而因其与当前交互内容不搭造成用户感到莫名其妙从而降低用户体验。
针对上述问题,本发明提出了一种基于虚拟人的交互方法。在本发明的方法中,虚拟人在智能设备运行,且虚拟人具备预设形象特征和预设属性,在处于交互状态时启动语音、情感、视觉和感知能力。
具体的,本发明提到的虚拟人为搭载于支持感知、控制等输入输出模块的智能设备;
以高仿真3d虚拟人物形象为主要用户界面,具备显著人物特征的外观;
支持多模态人机交互,具备自然语言理解、视觉感知、触摸感知、语言语音输出、情感表情动作输出等AI能力;
可配置社会属性、人格属性、人物技能等,使用户享受智能化及个性化流畅体验的虚拟人物。
虚拟机人在系统层面与用户进行交互,所述系统硬件中运行操作系统,如全息设备内置系统,如PC则为windows或MAC OS。
虚拟人为系统应用程序,或者可执行文件。
虚拟机器人基于硬件设备获取用户多模态交互数据,在云端大脑对多模态交互数据进行语义理解、视觉识别、认知计算、情感计算。
所提到的云端大脑为提供所述多模态交互机器人对用户的交互需求进行语义理解(语言语义理解、动作语义理解、视觉识别、情感计算、认知计算)的处理能力的终端,实现与用户的交互,以便帮助用户进行决策。
在正常的人与人交互的过程中,人类所展现出的面部表情通常是与当前的交互内容匹配的。因此,为了提高对人类的交互内容的理解程度,在本发明的方法中,特别针对当前交互对象的表情进行解析,在表情解析的基础上对交互对象的交互意图进行理解,从而生成对应的交互回应。并且,进一步的,在进行交互回应时,输出匹配交互对象的交互意图的虚拟人表情进行辅助,从而使得虚拟人的交互回应更加生动。
根据本发明的方法及系统,可以令虚拟人展现与当前交互内容自然匹配的表情,从而大大提高虚拟人的亲切感,提高用户体验。
进一步的,考虑到在某些实际应用场景中,虚拟人所运行的交互场景是可以预知的(如家庭、商超、博物馆、学校)。例如用于陪护的虚拟人只运行在陪护交互场景中;家用虚拟人只运行在家庭场景中;导购虚拟人只运行在商场导购场景中。而在特定的交互场景中,用户的交互意图也会具有特定的指向性。例如,在商场导购场景中,用户的交互意图通常是围绕商品价格、位置、打折信息或是商场布局等信息的;而在博物馆交互场景中,用户的交互意图通常是围绕展品位置、展品介绍等信息的。
因此,在一实施例中,预先将特定交互场景中用户交互意图指向相关的信息或是可以辅助虚拟人理解用户交互意图的信息保存为该交互场景对应的场景特征描述。在进行人机交互时,通过场景特征描述来辅助虚拟人进行用户交互意图理解,从而提高虚拟人对用户交互输出的理解正确性。具体的,虚拟人获取当前运行的交互场景的场景特征描述。之后,基于获取到的场景特征描述进行表情解析和/或交互意图理解。这样,就能尽可能的避免理解歧义,提高理解的精确性和准确性。
具体的,在一实施例中,场景特征描述包括该交互场景下的用户的用户画像、场景中设备、路线、人物关系、事件图谱等。
进一步的,在一实施例中,场景特征描述包括在该交互场景下虚拟人对用户意图理解的理解结果历史纪录。
具体的,在一实施例中,场景特征描述是预存好的(保存在本地或云端),虚拟人只需要调用对应的场景特征描述。
以一个具体的应用场景为例,在商场导购场景下,用户询问“有什么活动”,虚拟人就会理解为“有什么打折活动或是促销活动”;而在博物馆场景下,用户询问“有什么活动”,虚拟人就会理解为“有什么展览主题”。
进一步的,在实际的应用场景中,虚拟人通常会预设好自身的功能,即预设好自身应用于哪些交互场景。而用户的交互行为是不可控的,也就是说,在某些情况下,用户所想要实现的交互场景并不是虚拟人预设的(虚拟人无能力实现),在这种情况下,虚拟人强行进行交互回应,只能是回应错误。这不仅会降低用户的交互体验,而且大大浪费了虚拟人的计算资源。因此,在一实施例中,虚拟人在和用户进行交互前,还要判断当前的交互场景是否是自己被预设的任务场景。
进一步的,考虑到在实际场景中,虚拟人可能会同时具有多个交互对象,为了尽可能的提高用户的交互体验,在一实施例中,虚拟人综合考虑多个交互对象的交互输出来确定自身的交互回应。
根据本发明的方法,虚拟人表情理解下,结合以往对场景设备、用户习惯、群体特征所获取的信息、用户的当前交互意图,从而生动准确的呈现输出表情回应。
相较于现有技术,根据本发明的方法,由于虚拟人更为了解场景、用户的意图,其根据用户画像及场景中设备、路线、人物关系、事件图谱,更准确地输出用户当前的交互话题及相应表情。
接下来基于附图详细描述根据本发明实施例的方法的详细流程,附图的流程图中示出的步骤可以在包含诸如一组计算机可执行指令的计算机系统中执行。虽然在流程图中示出了各步骤的逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
具体的,如图1所示,在一实施例中,本发明的方法包含以下流程。
确认当前的交互场景(S100),判断当前的交互场景是否为任务场景(S110)。
当当前的交互场景为任务场景时采集用户多模态数据并获取交互场景的场景特征描述(S111)。
解析用户多模态数据,基于场景特征描述,获取包含用户表情意图的用户交互意图(S130)。在这里,用户交互意图是由多种意图组合而成,例如用户语言意图、用户文字意图等。具体的,在本实施例中,用户交互意图包含用户表情意图,即用户通过表情所体现出的意图。具体的,步骤S130包括:
S131,从用户多模态数据中提取用户表情数据;
S132,对用户表情数据进行解析,基于场景特征描述获取对应的用户表情意图。
在步骤S130之后,针对用户交互意图,基于场景特征描述,生成对应的多模态交互回应数据(例如描述回应内容的文本数据)(S140)。在本实施例中,步骤S140所生成的多模态交互回应数据包含表情回应数据(S141);
进一步的,基于虚拟人输出多模态交互回应数据(例如在对话框展示文本数据或是以语音形式播放文本数据)(S150),其中,利用虚拟人展示表情回应数据对应的表情(S151)(即,令虚拟人形象展示对应的表情)。
进一步的,在一实施例中,当步骤S110判断当前的交互场景不是任务场景时,虚拟人对当前用户不采取回应行为(S101)。具体的,在一实施例中,虚拟人并不采集当前用户的用户多模态数据和/或向用户输出无法提供服务的提示信息。
进一步的,在一实施例中,在步骤S111中,当交互场景为任务场景时采集交互场景中多个用户的用户多模态数据;在步骤S131中,从每个用户的用户多模态数据中提取用户表情数据;在步骤S132中,对用户表情数据进行解析,首先基于场景特征描述获取多个用户的独立用户表情意图,然后统合所有的独立用户表情意图,基于场景特征描述获取用户表情意图,此时获取到的并不是某一个用户的用户表情意图,而是多个用户的群体意图。
进一步的,在一实施例中,场景特征描述包括在该场景下用户群体的群体特征描述。
进一步的,在一实施例中,在获取除用户表情意图的其他用户交互意图时,也采用获取群体意图的方式。
进一步的,考虑到在实际场景中,人类在做出表情时并不仅仅是面部发生变化,在很多时候还会配合一定的肢体动作。因此,在一实施例中,在步骤S131 中,从用户多模态数据中提取的并不仅仅是用户面部描述,还包括用户肢体动作描述。具体的,在一实施例中,用户表情数据包括用户面部表情数据和/或用户姿态数据。
进一步的,在一实施例中,调用视觉能力提取用户面部表情数据。
进一步的,在实际场景中,人类的表情通常表达两类含义,一是自身的情绪,例如高兴、悲伤等,而是自身的某种态度,例如赞同、否定等。因此,在一实施例中,在步骤S132中,确认用户情绪和/或用户态度。
进一步的,在实际场景中,人类的表情非常复杂,例如,人类的笑容就可以细分为不同的多个等级。如果要完全模拟人类的表情势必需要很高的硬件支持。因此,在一实施例中,为了降低虚拟人的硬件需求,将人类正式的表情花费为多个基础情绪表现,预先记录每个基础情绪表现所对应的人类眼部变化以及皮肤机理反应,然后令虚拟人模拟记录的表情并存储该模拟对应的虚拟人参数。这样,当之后虚拟人需要展现该情绪时只需要调用预存的对应参数并执行就可以展现对应的基础情绪表现。
具体的,如图2所示,在一实施例中,利用虚拟人展示表情回应数据对应的表情,包括:
根据表情回应数据确定虚拟人的基础情绪表现(S210);
根据虚拟人的基础情绪表现输出与基础情绪表现匹配的虚拟人眼部变化以及虚拟人皮肤肌理反应的展示数据(S220)。
具体的,在一实施例中,虚拟人具有基础情绪表现,其中,基础情绪表现包含:生气、大笑、害羞、悲伤、含泪以及哭泣。基础情绪表现可以包含多种不同类型的情绪表现,例如:喜类、怒类、哀类以及乐类。每一类包含一个专属调用标识符,在需要调用时通过调用标识符进行区分。
任一基础情绪表现还具备与之对应的虚拟人眼部变化集以及皮肤肌理反应集。在存储介质中,包含虚拟人眼部变化库以及皮肤肌理反应库,里边包含所有的虚拟人眼部变化以及皮肤肌理反应的展示数据。在与基础情绪表现匹配时,需要从虚拟人眼部变化库以及皮肤肌理反应库中调用合适的虚拟人眼部变化以及皮肤肌理反应,将调用出来的虚拟人眼部变化以及皮肤肌理反应放在一个集中,用于与当前调用的基础情绪表现进行匹配。
任一对应的虚拟人眼部变化集以及皮肤肌理反应集还具备与之对应的虚拟人泪腺作用组。在存储介质中,包含虚拟人泪腺作用库,里边包含所有的虚拟人泪腺作用的展示数据。在与虚拟人眼部变化集以及皮肤肌理反应集匹配时,需要从虚拟人泪腺作用库调用合适的虚拟人泪腺作用,将调用出来的虚拟人泪腺作用放在一个组中,用于与当前虚拟人眼部变化集以及皮肤肌理反应集进行匹配。
具体的,在一实施例中,根据虚拟人的基础情绪表现输出与基础情绪表现匹配的虚拟人眼部变化以及虚拟人皮肤肌理反应的展示数据,即是令虚拟人执行基础情绪表现对应的虚拟人执行参数。
基础情绪表现对应的虚拟人执行参数包含虚拟人眼部变化以及虚拟人皮肤肌理反应的展示数据。其中,皮肤肌理反应可以包含皮肤褶皱、面部明暗变化和面部肤色。
在一实施例中,在图1所示步骤S150中,通过虚拟人的形象输出多模态交互回应数据。输出多模态交互回应数据的载体是虚拟人的形象,通过虚拟人的形象,能够全方位的展现多模态数据中的文本、语音视觉识别结果等输出数据。交互对象也能够快速准确的获知多模态交互回应数据中包含的交互信息。在此处,多模态交互回应数据中包含虚拟人眼部变化以及虚拟人皮肤肌理反应的展示数据。
进一步的,在实际场景中,针对用户的交互需求以及场景任务需求,虚拟人会有预设的场景交互任务,例如在舞蹈教室中,开启音箱、展示舞蹈动作等。为了提高虚拟人的交互体验,在一实施例中,虚拟人在进行交互输出时,并不是单纯的完成场景交互任务,而是尽量的令场景交互任务与用户(群体)的用户交互意图同步,即令场景交互任务与用户(群体)所需的事件、指令同步。
具体的,在一实施例中,虚拟人令针对场景交互任务的交互输出与用户(群体)的用户表情意图同步。例如,在开启音箱时,根据用户(群体)的用户表情意图确定开启的数量(例如,用户表现的忧郁时,开启数量相对较少的音箱);在展示舞蹈动作时采用和用户表情同步的表情输出(例如,用户表现的比较平和时,采用平和表情展示舞蹈动作)。
进一步的,在实际的交互应用场景中,交互双方要由一方主动发起交互。在人机交互过程中,通常是由用户主动发起交互,由虚拟人进行回应。然而,在某些应用场景中,也可以由虚拟人发起主动交互,这样可以提高虚拟人的使用频率。然而,由于虚拟人的主动交互并不是基于用户的交互输入所生成的交互回应,这就导致虚拟人的主动交互行为很难与当前用户的实际交互需求匹配,从而导致虚拟人的主动并没有给用户带来很好的用户体验。
针对上述问题,在一实施例中,当需要由虚拟人主动发起交互时,根据当前用户的表情意图生成对应的主动交互输出,这样就可以尽可能的令主动交互输出与用户当前的状态匹配,这样就能大大提高虚拟人交互行为的针对性,使其交互行为更接近人类真实行为,避免虚拟人突兀的发起交互产生的尴尬场景,从而提高用户对虚拟人交互输出的认同感,避免用户对虚拟人的主动交互行为产生厌烦。
具体的,如图3所示,在一实施例中,当用户并没有向虚拟人发起交互时,判断是否符合主动交互条件(S320),当符合主动交互条件时,基于场景特征描述,获取用户表情意图(S360)。具体的,步骤S360包括:
S361,从用户多模态数据中提取用户表情数据;
S362,对用户表情数据进行解析,基于场景特征描述获取对应的用户表情意图。
在步骤S360之后,针对用户表情意图,基于场景特征描述,生成对应的多模态主动交互数据(例如描述回应内容的文本数据)(S370)。在本实施例中,步骤S370所生成的多模态主动交互数据包含表情回应数据(S371);
进一步的,基于虚拟人输出多模态主动交互数据(S380),其中,利用虚拟人展示表情回应数据对应的表情(S381)(即,令虚拟人形象展示对应的表情)。
进一步的,在一实施例中,当虚拟人判断不符合主动交互条件时,虚拟人不做任何交互输出。
进一步的,在一实施例中,虚拟人发起主动交互的前提是用户并没有对虚拟人发起交互,即,用户并没有向虚拟人表达(输入)其交互需求。例如,如果用户向虚拟人提问“现在几点”,这就是向虚拟人表达了“自身想要知道时间”的交互需求。而如果用户并没有向虚拟人输入任何数据(例如既没有对虚拟人说话,也没有向虚拟人输入任何文字),而是在自己看书,那么就相当于用户并没有向虚拟人表达(输入)任何交互需求(也可以说,用户当前并没有确切的交互需求)。在这个前提下,虚拟人才进行判断是否要进行主动交互(判断是否符合主动交互条件)。
反之,如果用户对虚拟人发起交互,即,用户向虚拟人表达(输入)其交互需求。例如,如果用户向虚拟人提问“现在几点”。那么虚拟人不需要进行主动交互判断,而是直接回应用户的交互输入。
进一步的,在一实施例中,虚拟人所进行的主动交互输出是在不影响用户的前提下,为之后的人机交互行为营造一种良好的交互氛围。因此,在进行主动交互判断时,虚拟人需要确认用户当前的状态,判断其是否接受主动交互行为以及什么样的主动交互行为对用户不构成干扰。
例如,在一应用场景中,用户忙于工作,虚拟人在用户暂时没有主动交互意愿时向用户展露微笑的表情,除此以外并不作任何其他输出以免打搅用户。在另一应用场景中,用户随机的浏览网络视频,虚拟人在用户暂时没有主动交互意愿时向用户展露微笑的表情并提醒用户今天的天气,建议其出去散步。
进一步的,在一实施例中,在进行主动输出时,虚拟人所考虑的也不仅仅时单个用户的状态,而是当前群体用户的群体用户表情意图。
进一步的,基于本发明的方法,本发明还提出了一种存储介质,该存储介质上存储有可实现本发明所述方法的程序代码。
进一步的,基于本发明的方法,本发明还提出了一种基于虚拟人的交互系统。如图4所示,在一实施例中,系统包括:
场景确认模块400,其配置为确认当前的交互场景,判断交互场景是否为任务场景;
输入获取模块411,其配置为当交互场景是否为任务场景时采集用户多模态数据;
场景特征描述获取模块412,其配置为当交互场景是否为任务场景时获取交互场景的场景特征描述;
交互解析模块422,其配置为解析用户多模态数据,基于场景特征描述,获取包含用户表情意图的用户交互意图,交互解析模块422包括:
表情提取单元423,其配置为从用户多模态数据中提取用户表情数据;
表情解析单元424,其配置为基于场景特征描述对用户表情数据进行解析,生成对应的用户表情意图;
交互回应生成模块430,其配置为针对用户交互意图,基于场景特征描述生成对应的多模态交互回应数据,该多模态交互回应数据包含表情回应数据,表情回应数据可被虚拟人展示为对应的表情。
进一步的,在一实施例中,交互解析模块422还配置为解析用户多模态数据,判断是否符合主动交互条件,当符合主动交互条件时,基于场景特征描述,获取用户表情意图。交互回应生成模块430还配置为当符合主动交互条件时,基于场景特征描述,针对用户表情意图生成包含表情回应数据的多模态主动交互数据。
进一步的,基于本发明的交互方法以及交互系统,本发明还提出了一种虚拟人系统。具体的,如图5所示,在一实施例中,系统包括智能设备120以及云端服务器110,其中:
云端服务器110包含本发明所述的交互系统以及多个能力接口。交互系统配置为调用云端服务器110的能力接口确认交互场景、获取用户多模态数据以及场景特征描述并解析,生成并输出多模态交互回应数据和/或多模态主动交互数据。具体的,用户多模态数据解析过程中各个能力接口分别调用对应的逻辑处理。
具体的,云端服务器110的能力接口包括语义理解接口111、视觉识别接口 112、情感计算接口113、认知计算接口114。
具体的,在一实施例中,以下为各个接口的说明:
语义理解接口,其接收从智能设备的通信模块转发的特定语音指令,对其进行语音识别以及基于大量语料的自然语言处理。
视觉识别接口,可以针对人体、人脸、场景依据计算机视觉算法、深度学习算法等进行视频内容检测、识别、跟踪等。即根据预定的算法对图像进行识别,给出定量的检测结果。具备图像预处理功能、特征提取功能和决策功能。其中:
图像预处理功能可以是对获取的视觉采集数据进行基本处理,包括颜色空间转换、边缘提取、图像变换和图像阈值化;
特征提取功能可以提取出图像中目标的肤色、颜色、纹理、运动和坐标等特征信息;
决策功能可以是对特征信息,按照一定的决策策略分发给需要该特征信息的具体多模态输出设备或多模态输出应用,如实现人脸检测、人物肢体识别、运动检测等功能。
情感计算接口,其接收从通信模块转发的多模态数据,利用情感计算逻辑(可以是情绪识别技术)来计算用户当前的情绪状态。情绪识别技术是情感计算的一个重要组成部分,情绪识别研究的内容包括面部表情、语音、行为、文本和生理信号识别等方面,通过以上内容可以判断用户的情绪状态。情绪识别技术可以仅通过视觉情绪识别技术来监控用户的情绪状态,也可以采用视觉情绪识别技术和声音情绪识别技术结合的方式来监控用户的情绪状态,且并不局限于此。在本实施例中,优选采用二者结合的方式来监控情绪。
情感计算接口是在进行视觉情绪识别时,通过使用图像采集设备收集人类面部表情图像,而后转换成可分析数据,再利用图像处理等技术进行表情情绪分析。理解面部表情,通常需要对表情的微妙变化进行检测,比如脸颊肌肉、嘴部的变化以及挑眉等。
认知计算接口,其接收从通信模块转发的多模态数据,认知计算接口用以处理多模态数据进行数据采集、识别和学习,以获取场景特征描述、知识图谱等,以对多模态输出数据进行合理决策。
智能设备120包括用户界面121、通信模块122、中央处理单元123以及人机交互输入输出模块124。
用户界面121配置为基于虚拟人执行参数在预设显示区域内显示被唤醒的虚拟人并令虚拟人展示与表情回应数据对应的表情。
具体的,在一实施例中,用户界面121包含需要屏显载体来支持以呈现显示区域。显示区域的硬件支撑包括:PC屏、投影仪、电视机、多媒体显示屏、全息投影设备、VR设备以及AR设备。本发明提出的多模态交互过程需要一定的硬件性能作为支撑,一般来说,选用有主机的PC端来作为硬件支持设备。
人机交互输入输出模块124配置为获取场景信息、获取用户多模态数据以及输出虚拟人执行参数。具体的,在一实施例中,多模态数据包括来自周围环境的数据及与用户进行交互的多模态交互数据。
通信模块122配置为输出人机交互输入输出模块124获取到的场景信息、用户多模态数据到云端服务器110,并接收来自云端服务器110的场景确认信息、多模态交互回应数据以及多模态主动交互数据。
中央处理单元123配置为利用通信模块122接收的多模态交互回应数据或多模态主动交互数据计算与该多模态交互回应数据或多模态主动交互数据相对应的虚拟人执行参数。
具体的,在一具体应用场景中,人机交互输入输出模块124配置为获取场景信息。通信模块122配置为输出场景信息到云端服务器110。云端服务器110中的交互系统配置为调用云端服务器110的能力接口(111、112、113、114)获取场景信息从而生成并返回场景确认信息。通信模块122还配置为接收场景确认信息。中央处理单元123配置为根据场景确认信息生成对应的数据采集配置参数和 /或虚拟人执行参数。
人机交互输入输出模块124配置为基于数据采集配置参数获取包括用户表情数据的用户多模态数据。
通信模块122还配置为输出包括用户表情数据的用户多模态数据到云端服务器110。
云端服务器110中的交互系统还配置为调用云端服务器110的能力接口 (111、112、113、114)获取场景特征描述、用户多模态数据并提取用户表情数据(例如,调用视觉识别接口112从通信模块122输出的用户多模态数据中提取用户表情数据)并解析,生成并输出包含表情回应数据的多模态交互回应数据或多模态主动交互数据。
通信模块122还配置为接收包含表情回应数据的多模态交互回应数据或多模态主动交互数据。
中央处理单元123还配置为利用包含表情回应数据的多模态交互回应数据或多模态主动交互数据计算与多模态交互回应数据或多模态主动交互数据相对应的虚拟人执行参数。
用户界面121配置为基于虚拟人执行参数在预设显示区域内显示被唤醒的虚拟人并令虚拟人展示与虚拟人执行参数对应的表情。
上述为本申请实施例的一种示意性的技术方案。本申请中,智能设备与云端服务器连接使得虚拟人具备多模态人机交互的能力,即具备自然语言理解、视觉感知、触摸感知、语言语音输出、情感表情动作输出等Artificial Intelligence(AI) 的能力。虚拟人可以以3D虚拟形象通过所述智能设备进行显示,具备特定形象特征,并且可以为虚拟人配置社会属性、人格属性和人物技能等。
具体来说,社会属性可以包括:外貌、姓名、服饰、装饰、性别、籍贯、年龄、家庭关系、职业、职位、宗教信仰、感情状态、学历等属性;人格属性可以包括:性格、气质等属性;人物技能可以包括:唱歌、跳舞、讲故事、培训等专业技能,并且人物技能展示不限于肢体、表情、头部和/或嘴部的技能展示。
在本申请中,虚拟人的社会属性、人格属性和人物技能等可以使得多模态交互的解析和决策结果更倾向或更为适合该虚拟人。
应该理解的是,本发明所公开的实施例不限于这里所公开的特定结构、处理步骤或材料,而应当延伸到相关领域的普通技术人员所理解的这些特征的等同替代。还应当理解的是,在此使用的术语仅用于描述特定实施例的目的,而并不意味着限制。
说明书中提到的“一实施例”意指结合实施例描述的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,说明书通篇各个地方出现的短语“一实施例”并不一定均指同一个实施例。
虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。本发明所述的方法还可有其他多种实施例。在不背离本发明实质的情况下,熟悉本领域的技术人员当可根据本发明做出各种相应的改变或变形,但这些相应的改变或变形都应属于本发明的权利要求的保护范围。

Claims (8)

1.一种基于虚拟人的交互方法,其特征在于,所述虚拟人在智能设备运行,且所述虚拟人具备预设形象特征和预设属性,在处于交互状态时启动语音、情感、视觉和感知能力,所述方法包括:
基于在特定的交互场景中用户的交互意图具有相应指向性的策略,确认当前的交互场景,当所述交互场景为任务场景时采集用户多模态数据并从云端服务器获取对应所述交互场景的场景特征描述;当前的交互场景不是任务场景时,虚拟人对当前用户不采取回应行为;
解析所述用户多模态数据,基于所述场景特征描述,获取包含用户表情意图的用户交互意图,针对所述用户交互意图生成包含第一表情回应数据的多模态交互回应数据,其中,当同时具有多个交互对象时,虚拟人综合考虑多个交互对象的交互输出来确定自身的交互回应;获取用户表情意图包括:
从所述用户多模态数据中提取用户表情数据;对所述用户表情数据进行解析,基于所述场景特征描述获取对应的用户通过表情所体现出的意图,作为用户表情意图;
预先将特定交互场景中用户交互意图指向相关的信息或是可以辅助虚拟人理解用户交互意图的信息保存为该交互场景对应的场景特征描述;所述场景特征描述包括该交互场景下用户的用户画像、场景中设备、路线、人物关系、事件图谱,以及该交互场景下虚拟人对用户意图理解的理解结果历史纪录;
基于所述虚拟人输出所述多模态交互回应数据,其中,利用所述虚拟人展示所述第一表情回应数据所对应的表情,利用虚拟人展示表情回应数据对应的表情的过程,包括:
根据表情回应数据确定虚拟人的基础情绪表现;
根据虚拟人的基础情绪表现输出与基础情绪表现匹配的虚拟人眼部变化以及虚拟人皮肤肌理反应的展示数据;其中,任一基础情绪表现还具备与之对应的虚拟人眼部变化集以及皮肤肌理反应集,任一对应的虚拟人眼部变化集以及皮肤肌理反应集还具备与之对应的虚拟人泪腺作用组;
其中,当虚拟人针对用户的交互需求以及场景任务需求,有预设的场景交互任务时,令针对场景交互任务的交互输出与用户的用户表情意图同步;
所述方法还包括:
在用户并没有对虚拟人发起交互时,解析所述用户多模态数据,判断是否符合主动交互条件;在判断是否符合主动交互条件时,确认用户当前的状态,判断其是否接受主动交互行为以及什么样的主动交互行为对用户不构成干扰;
当符合主动交互条件时,基于所述场景特征描述,获取所述用户表情意图,针对所述用户表情意图生成包含第二表情回应数据的多模态主动交互数据;
基于所述虚拟人主动输出所述多模态主动交互数据,其中,利用所述虚拟人展示所述第二表情回应数据所对应的表情。
2.根据权利要求1所述的方法,其特征在于,生成所述多模态主动交互数据或所述多模态交互回应数据,其中:
获取所述虚拟人与所述用户的熟悉度参量;
当所述熟悉度参量超过设定阈值时生成与所述用户表情意图同步的所述第一表情回应数据或所述第二表情回应数据。
3.根据权利要求2所述的方法,其特征在于,利用所述虚拟人与所述用户的交互次数描述所述熟悉度参量。
4.根据权利要求1所述的方法,其特征在于,所述用户表情数据包括用户面部表情数据和/或用户姿态数据。
5.根据权利要求1~4中任一项所述的方法,其特征在于:
当所述交互场景为任务场景时采集所述交互场景中多个用户的用户多模态数据;
从每个用户的用户多模态数据中提取所述用户表情数据;
对所述用户表情数据进行解析,基于所述场景特征描述获取多个用户的独立用户表情意图;
统合所有的独立用户表情意图,基于所述场景特征描述获取所述用户表情意图。
6.一种存储介质,其特征在于,所述存储介质上存储有可实现如权利要求1-5中任一项所述方法的程序代码。
7.一种基于虚拟人的交互系统,其特征在于,所述系统包括:
场景确认模块,其配置为确认当前的交互场景,判断所述交互场景是否为任务场景;
输入获取模块,其配置为当所述交互场景为任务场景时采集用户多模态数据;
场景特征描述获取模块,其配置为基于在特定的交互场景中用户的交互意图具有相应指向性的策略,在所述交互场景为任务场景时获取对应所述交互场景的场景特征描述,当前的交互场景不是任务场景时,虚拟人对当前用户不采取回应行为;
交互解析模块,其配置为解析所述用户多模态数据,基于所述场景特征描述,获取包含用户表情意图的用户交互意图,所述交互解析模块包括:
表情数据提取单元,其配置为从所述用户多模态数据中提取用户表情数据;
表情数据解析单元,其配置为对所述用户表情数据进行解析,基于所述场景特征描述获取对应的用户通过表情所体现出的意图,作为用户表情意图;预先将特定交互场景中用户交互意图指向相关的信息或是可以辅助虚拟人理解用户交互意图的信息保存为该交互场景对应的场景特征描述;所述场景特征描述包括该交互场景下用户的用户画像、场景中设备、路线、人物关系、事件图谱,以及该交互场景下虚拟人对用户意图理解的理解结果历史纪录;
交互回应生成模块,其配置为基于所述场景特征描述,针对所述用户交互意图生成包含第一表情回应数据的多模态交互回应数据,展示表情回应数据对应的表情;当同时具有多个交互对象时,虚拟人综合考虑多个交互对象的交互输出来确定自身的交互回应;
所述交互回应生成模块通过以下操作展示表情回应数据对应的表情:
根据表情回应数据确定虚拟人的基础情绪表现;
根据虚拟人的基础情绪表现输出与基础情绪表现匹配的虚拟人眼部变化以及虚拟人皮肤肌理反应的展示数据;其中,任一基础情绪表现还具备与之对应的虚拟人眼部变化集以及皮肤肌理反应集,任一对应的虚拟人眼部变化集以及皮肤肌理反应集还具备与之对应的虚拟人泪腺作用组;
所述交互解析模块还配置为:在用户并没有对虚拟人发起交互时,解析所述用户多模态数据,判断是否符合主动交互条件,当符合主动交互条件时,基于所述场景特征描述,获取所述用户表情意图;在判断是否符合主动交互条件时,确认用户当前的状态,判断其是否接受主动交互行为以及什么样的主动交互行为对用户不构成干扰;
所述交互回应生成模块还配置为:当虚拟人针对用户的交互需求以及场景任务需求,有预设的场景交互任务时,令针对场景交互任务的交互输出与用户的用户表情意图同步;
所述交互回应生成模块还配置为当符合主动交互条件时,基于所述场景特征描述,针对所述用户表情意图生成包含第二表情回应数据的多模态主动交互数据。
8.一种虚拟人系统,其特征在于,所述系统包括智能设备以及云端服务器,其中:
所述云端服务器包含如权利要求7所述的交互系统,所述交互系统配置为调用所述云端服务器的能力接口确认所述交互场景、获取所述场景特征描述以及所述用户多模态数据并解析,生成并输出所述多模态交互回应数据或所述多模态主动交互数据,其中,所述云端服务器的能力接口包括语义理解接口、视觉识别接口、情感计算接口、认知计算接口;
所述智能设备包括:
用户界面,其配置为基于虚拟人执行参数在预设显示区域内显示被唤醒的虚拟人;
人机交互输入输出模块,其配置为获取所述用户多模态数据以及输出所述虚拟人执行参数;
通信模块,其配置为输出所述用户多模态数据并接收所述多模态交互回应数据或所述多模态主动交互数据;
中央处理单元,其配置为利用所述多模态交互回应数据或所述多模态主动交互数据计算与所述多模态交互回应数据或所述多模态主动交互数据相对应的虚拟人执行参数。
CN201810523371.6A 2018-05-28 2018-05-28 一种基于虚拟人的交互方法及系统 Active CN109086860B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810523371.6A CN109086860B (zh) 2018-05-28 2018-05-28 一种基于虚拟人的交互方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810523371.6A CN109086860B (zh) 2018-05-28 2018-05-28 一种基于虚拟人的交互方法及系统

Publications (2)

Publication Number Publication Date
CN109086860A CN109086860A (zh) 2018-12-25
CN109086860B true CN109086860B (zh) 2022-03-15

Family

ID=64839171

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810523371.6A Active CN109086860B (zh) 2018-05-28 2018-05-28 一种基于虚拟人的交互方法及系统

Country Status (1)

Country Link
CN (1) CN109086860B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111443794A (zh) * 2019-01-16 2020-07-24 北京字节跳动网络技术有限公司 一种阅读互动方法、装置、设备、服务器及存储介质
CN110175226B (zh) * 2019-05-09 2021-06-08 厦门邑通软件科技有限公司 一种基于多维度场景分析的对话决策方法
CN112182327A (zh) * 2019-07-05 2021-01-05 北京猎户星空科技有限公司 一种数据处理方法、装置、设备及介质
CN110568712B (zh) * 2019-08-26 2022-09-06 深圳市远望淦拓科技有限公司 一种全息投影装置及系统
CN111273990A (zh) * 2020-01-21 2020-06-12 腾讯科技(深圳)有限公司 信息交互方法、装置、计算机设备和存储介质
CN111897434A (zh) * 2020-08-05 2020-11-06 上海永骁智能技术有限公司 信号控制虚拟人像的系统、方法及介质
CN114338577B (zh) * 2020-10-12 2023-05-23 腾讯科技(深圳)有限公司 信息处理方法及装置、电子设备、存储介质
CN117273054A (zh) * 2023-09-28 2023-12-22 南京八点八数字科技有限公司 一种应用不同场景的虚拟人交互方法与系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105913039A (zh) * 2016-04-26 2016-08-31 北京光年无限科技有限公司 基于视觉和语音的对话数据交互处理方法及装置
CN106502382A (zh) * 2016-09-21 2017-03-15 北京光年无限科技有限公司 用于智能机器人的主动交互方法和系统
CN106569613A (zh) * 2016-11-14 2017-04-19 中国电子科技集团公司第二十八研究所 一种多模态人机交互系统及其控制方法
CN106845624A (zh) * 2016-12-16 2017-06-13 北京光年无限科技有限公司 与智能机器人的应用程序有关的多模态交互方法及系统
CN107644641A (zh) * 2017-07-28 2018-01-30 深圳前海微众银行股份有限公司 对话场景识别方法、终端以及计算机可读存储介质
CN107765852A (zh) * 2017-10-11 2018-03-06 北京光年无限科技有限公司 基于虚拟人的多模态交互处理方法及系统
CN107944542A (zh) * 2017-11-21 2018-04-20 北京光年无限科技有限公司 一种基于虚拟人的多模态交互输出方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105913039A (zh) * 2016-04-26 2016-08-31 北京光年无限科技有限公司 基于视觉和语音的对话数据交互处理方法及装置
CN106502382A (zh) * 2016-09-21 2017-03-15 北京光年无限科技有限公司 用于智能机器人的主动交互方法和系统
CN106569613A (zh) * 2016-11-14 2017-04-19 中国电子科技集团公司第二十八研究所 一种多模态人机交互系统及其控制方法
CN106845624A (zh) * 2016-12-16 2017-06-13 北京光年无限科技有限公司 与智能机器人的应用程序有关的多模态交互方法及系统
CN107644641A (zh) * 2017-07-28 2018-01-30 深圳前海微众银行股份有限公司 对话场景识别方法、终端以及计算机可读存储介质
CN107765852A (zh) * 2017-10-11 2018-03-06 北京光年无限科技有限公司 基于虚拟人的多模态交互处理方法及系统
CN107944542A (zh) * 2017-11-21 2018-04-20 北京光年无限科技有限公司 一种基于虚拟人的多模态交互输出方法及系统

Also Published As

Publication number Publication date
CN109086860A (zh) 2018-12-25

Similar Documents

Publication Publication Date Title
CN109086860B (zh) 一种基于虚拟人的交互方法及系统
CN108942919B (zh) 一种基于虚拟人的交互方法及系统
CN107894833B (zh) 基于虚拟人的多模态交互处理方法及系统
WO2022048403A1 (zh) 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端
CN108665492B (zh) 一种基于虚拟人的舞蹈教学数据处理方法及系统
CN110688911B (zh) 视频处理方法、装置、系统、终端设备及存储介质
JP6902683B2 (ja) 仮想ロボットのインタラクション方法、装置、記憶媒体及び電子機器
CN107340865B (zh) 多模态虚拟机器人交互方法和系统
CN109176535B (zh) 基于智能机器人的交互方法及系统
CN107632706B (zh) 多模态虚拟人的应用数据处理方法和系统
US6526395B1 (en) Application of personality models and interaction with synthetic characters in a computing system
CN107704169B (zh) 虚拟人的状态管理方法和系统
KR20210110620A (ko) 상호작용 방법, 장치, 전자 장치 및 저장 매체
CN110598576B (zh) 一种手语交互方法、装置及计算机介质
CN111418198B (zh) 提供文本相关图像的电子装置及其操作方法
CN107807734B (zh) 一种用于智能机器人的交互输出方法以及系统
WO2022170848A1 (zh) 人机交互方法、装置、系统、电子设备以及计算机介质
CN107480766B (zh) 多模态虚拟机器人的内容生成的方法和系统
CN106502382B (zh) 用于智能机器人的主动交互方法和系统
KR102222911B1 (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
CN110737335B (zh) 机器人的交互方法、装置、电子设备及存储介质
CN114495927A (zh) 多模态交互的虚拟数字人的生成方法及装置、存储介质、终端
JP7278307B2 (ja) コンピュータプログラム、サーバ装置、端末装置及び表示方法
CN108052250A (zh) 基于多模态交互的虚拟偶像演绎数据处理方法及系统
CN109032328A (zh) 一种基于虚拟人的交互方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230926

Address after: 100000 6198, Floor 6, Building 4, Yard 49, Badachu Road, Shijingshan District, Beijing

Patentee after: Beijing Virtual Dynamic Technology Co.,Ltd.

Address before: 100000 Fourth Floor Ivy League Youth Venture Studio No. 193, Yuquan Building, No. 3 Shijingshan Road, Shijingshan District, Beijing

Patentee before: Beijing Guangnian Infinite Technology Co.,Ltd.

TR01 Transfer of patent right