CN116797695A - 一种数字人与虚拟白板的交互方法、系统及存储介质 - Google Patents
一种数字人与虚拟白板的交互方法、系统及存储介质 Download PDFInfo
- Publication number
- CN116797695A CN116797695A CN202310390573.9A CN202310390573A CN116797695A CN 116797695 A CN116797695 A CN 116797695A CN 202310390573 A CN202310390573 A CN 202310390573A CN 116797695 A CN116797695 A CN 116797695A
- Authority
- CN
- China
- Prior art keywords
- interaction
- gesture action
- digital person
- speech
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 96
- 238000000034 method Methods 0.000 title claims abstract description 37
- 230000009471 action Effects 0.000 claims abstract description 69
- 238000004458 analytical method Methods 0.000 claims abstract description 43
- 238000003058 natural language processing Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims description 13
- 238000013135 deep learning Methods 0.000 claims description 9
- 230000002452 interceptive effect Effects 0.000 claims description 8
- 230000008451 emotion Effects 0.000 claims description 6
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 abstract description 8
- 230000000875 corresponding effect Effects 0.000 description 41
- 230000001276 controlling effect Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/205—3D [Three Dimensional] animation driven by audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/90335—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Data Mining & Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及智能技术领域,具体公开了一种数字人与虚拟白板的交互方法、系统及存储介质,通过获取针对目标虚拟白板的演讲语音来进行语音识别及自然语言处理,得到相应的关键情态词,然后利用关键情态词生成语义解析指令来调取针对目标数字人的姿态动作参数和交互规则参数,最后利用姿态动作参数和交互规则参数来控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互,适用于元宇宙中数字人进行讲演、讲课、培训时与虚拟白板交互的场景。本发明可以实现元宇宙空间中数字人与虚拟白板的高效、深度、协调互动,使数字人在讲解时呈现拟人化的行为状态,提升数字人讲解的表现力和趣味性。
Description
技术领域
本发明属于智能交互技术领域,具体涉及一种数字人与虚拟白板的交互方法、系统及存储介质。
背景技术
现实世界中,人们在讲话时常常伴随相应的动作、表情来提升讲解的表现力,而在虚拟世界中,虚拟的数字人就缺乏这方面的技术呈现。虚拟白板是元宇宙虚拟世界中常用的虚拟办公或教学工具,在目前的元宇宙场景下,虚拟数字人在数据驱动下进行拟人化讲演、讲课、培训时,仅能做到用单一化的手势指向虚拟白板,无法做到与虚拟白板上的内容产生深度互动,如进行做出相应的动作、表情,或在虚拟白板上对重点内容画线、画圈、打勾等标注,从而影响了数字人讲解的表现力和效果,数字人不具备拟人化的行为状态,行为动作单一、呆板,与白板交互不自然、不协调。
发明内容
本发明的目的是提供一种数字人与虚拟白板的交互方法、系统及存储介质,用以解决现有技术中存在的上述问题。
为了实现上述目的,本发明采用以下技术方案:
第一方面,提供一种数字人与虚拟白板的交互方法,包括:
获取针对目标虚拟白板的演讲语音;
对演讲语音进行语音识别处理,得到对应的文本信息,并对所述文本信息进行自然语言处理,提取出关键情态词;
根据关键情态词确定对应的语义解析指令;
根据语义解析指令从预置的交互规则库中匹配调取对应的交互规则参数,根据语义解析指令从预置的姿态动作库中匹配调取对应的姿态动作参数;
根据姿态动作参数和交互规则参数控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互。
在一个可能的设计中,所述演讲语音包括演讲者的实时演讲语音或者基于预存语音文本的同步播放语音。
在一个可能的设计中,所述对演讲语音进行语音识别处理,得到对应的文本信息,包括:将演讲语音输入预置的基于深度学习的语音识别模型进行语音识别处理,得到对应的文本信息。
在一个可能的设计中,所述对文本信息进行自然语言处理,提取出关键情态词,包括:将文本信息输入预置的基于深度学习的自然语言处理模型进行自然语言处理,输出关键情态词。
在一个可能的设计中,所述根据关键情态词确定对应的语义解析指令,包括:将关键情态词导入语义指令库中进行关联查找,得到与所述关键情态词匹配的语义解析指令,所述语义指令库中与预存有若干语义解析指令,各语义解析指令分别关联有对应的关键情态词。
在一个可能的设计中,在根据语义解析指令从预置的交互规则库中匹配调取对应的交互规则参数,根据语义解析指令从预置的姿态动作库中匹配调取对应的姿态动作参数之前,所述方法还包括:根据第一配置指令生成若干交互规则参数,并将各交互规则参数关联相应的语义解析指令后存入姿态动作库中;根据第二配置指令生成若干姿态动作参数,并将各姿态动作参数关联相应的语义解析指令后存入姿态动作库中。
在一个可能的设计中,所述根据姿态动作参数和交互规则参数控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互,包括:将姿态动作参数和交互规则参数输入基于深度学习的Transformer模型,输出姿态动作交互控制序列,并根据姿态动作交互控制序列控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互。
第二方面,提供一种数字人与虚拟白板的交互系统,包括获取单元、识别单元、确定单元、调取单元和交互单元,其中:
获取单元,用于获取针对目标虚拟白板的演讲语音;
识别单元,用于对演讲语音进行语音识别处理,得到对应的文本信息,并对所述文本信息进行自然语言处理,提取出关键情态词;
确定单元,用于根据关键情态词确定对应的语义解析指令;
调取单元,用于根据语义解析指令从预置的交互规则库中匹配调取对应的交互规则参数,根据语义解析指令从预置的姿态动作库中匹配调取对应的姿态动作参数;
交互单元,用于根据姿态动作参数和交互规则参数控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互。
第三方面,提供一种数字人与虚拟白板的交互系统,包括:
存储器,用于存储指令;
处理器,用于读取所述存储器中存储的指令,并根据指令执行上述第一方面中任意一种所述的方法。
第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,使得所述计算机执行第一方面中任意一种所述的方法。同时,还提供一种包含指令的计算机程序产品,当所述指令在计算机上运行时,使所述计算机执行第一方面中任意一种所述的方法。
有益效果:本发明通过获取针对目标虚拟白板的演讲语音来进行语音识别及自然语言处理,得到相应的关键情态词,然后利用关键情态词生成语义解析指令来调取针对目标数字人的姿态动作参数和交互规则参数,最后利用姿态动作参数和交互规则参数来控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互,适用于元宇宙中数字人进行讲演、讲课、培训时与虚拟白板交互的场景。本发明可以实现元宇宙空间中数字人与虚拟白板的高效、深度、协调互动,使数字人在讲解时呈现拟人化的行为状态,提升数字人讲解的表现力和趣味性。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例1中方法的步骤示意图;
图2为本发明实施例2中系统的构成示意图;
图3为本发明实施例3中系统的构成示意图。
具体实施方式
在此需要说明的是,对于这些实施例方式的说明用于帮助理解本发明,但并不构成对本发明的限定。本文公开的特定结构和功能细节仅用于描述本发明的示例实施例。然而,可用很多备选的形式来体现本发明,并且不应当理解为本发明限制在本文阐述的实施例中。
应当理解,除非另有明确的规定和限定,术语“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在实施例中的具体含义。
在下面的描述中提供了特定的细节,以便于对示例实施例的完全理解。然而,本领域普通技术人员应当理解可以在没有这些特定细节的情况下实现示例实施例。例如可以在框图中示出系统,以避免用不必要的细节来使得示例不清楚。在其他实施例中,可以不以非必要的细节来示出众所周知的过程、结构和技术,以避免使得实施例不清楚。
实施例1:
本实施例提供一种数字人与虚拟白板的交互方法,可应用于相应的元宇宙服务器侧,如图1所示,方法包括以下步骤:
S1.获取针对目标虚拟白板的演讲语音。
本实施例方法是为了实现元宇宙中数字人进行讲演、讲课、培训时与虚拟白板的深度交互,在具体实施时,需要先获取针对目标虚拟白板的演讲语音。所述演讲语音可以是演讲者的实时演讲语音或者是基于预存语音文本的同步播放语音。
S2.对演讲语音进行语音识别处理,得到对应的文本信息,并对所述文本信息进行自然语言处理,提取出关键情态词。
具体实施时,在获取到演讲语音后,先对演讲语音进行语音识别处理,示例性地,可将演讲语音输入预置的基于深度学习的语音识别模型进行语音识别处理,得到对应的文本信息。然后对文本信息进行自然语言处理,示例性地,可将文本信息输入预置的基于深度学习的自然语言处理模型进行自然语言处理,输出关键情态词,所述自然语言处理模型预先经过相应的语料训练集训练得到,所述语料训练集包含若干关键情态词,所述关键情态词可以是设定的自然语言中具有情绪、方位、动作等特征的词语。
S3.根据关键情态词确定对应的语义解析指令。
具体实施时,在提取出相应的关键情态词后,即可根据关键情态词确定对应的语义解析指令,示例性地,可将关键情态词导入语义指令库中进行关联查找,得到与所述关键情态词匹配的语义解析指令,所述语义指令库中与预存有若干语义解析指令,各语义解析指令分别关联有对应的关键情态词,所述语义解析指令可以为相应的数据串。
S4.根据语义解析指令从预置的交互规则库中匹配调取对应的交互规则参数,根据语义解析指令从预置的姿态动作库中匹配调取对应的姿态动作参数。
具体实施时,在确定语义解析指令后,即可根据语义解析指令从预置的交互规则库中匹配调取对应的交互规则参数,根据语义解析指令从预置的姿态动作库中匹配调取对应的姿态动作参数。在此之前,需要配置好交互规则库和姿态动作库,以便根据语义解析指令进行交互规则参数和姿态动作参数的调取,配置过程包括:根据配置人员的第一配置指令生成若干交互规则参数,并将各交互规则参数关联相应的语义解析指令后存入姿态动作库中;根据配置人员的第二配置指令生成若干姿态动作参数,并将各姿态动作参数关联相应的语义解析指令后存入姿态动作库中。所述姿态动作参数为映射数字人身体动作、表情动作等的相应配置参数,交互规则参数为映射数字人与虚拟白板的交互距离、交互方式、手势类型等的相应配置参数,交互距离包括在虚拟世界三维空间中数字人所处位置与虚拟白板位置的距离;交互方式包括做出动作、表情或手势等;手势类型包括画线、画圈、打勾、旋转、反射、高亮、回放、放大、翻页、分页等手势。
S5.根据姿态动作参数和交互规则参数控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互。
具体实施时,在调取到相应的姿态动作参数和交互规则参数后,就可以根据姿态动作参数和交互规则参数控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互。示例性地,可将姿态动作参数和交互规则参数输入基于深度学习的Transformer模型,输出姿态动作交互控制序列,并根据姿态动作交互控制序列控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互。姿态动作交互控制序列可包含对于数字人步态、路径、手势动作、手势指向物、手势类型、表情动作等的交互控制指令。
本实施例方法适用于元宇宙中数字人进行讲演、讲课、培训时与虚拟白板交互的场景,可以实现元宇宙空间中数字人与虚拟白板的高效、深度、协调互动,使数字人在讲解时呈现拟人化的行为状态,提升数字人讲解的表现力和趣味性。
实施例2:
本实施例提供一种数字人与虚拟白板的交互系统,如图2所示,包括获取单元、识别单元、确定单元、调取单元和交互单元,其中:
获取单元,用于获取针对目标虚拟白板的演讲语音;
识别单元,用于对演讲语音进行语音识别处理,得到对应的文本信息,并对所述文本信息进行自然语言处理,提取出关键情态词;
确定单元,用于根据关键情态词确定对应的语义解析指令;
调取单元,用于根据语义解析指令从预置的交互规则库中匹配调取对应的交互规则参数,根据语义解析指令从预置的姿态动作库中匹配调取对应的姿态动作参数;
交互单元,用于根据姿态动作参数和交互规则参数控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互。
实施例3:
本实施例提供一种数字人与虚拟白板的交互系统,如图3所示,在硬件层面,包括:
数据接口,用于建立处理器与用户端的数据对接;
存储器,用于存储指令;
处理器,用于读取所述存储器中存储的指令,并根据指令执行实施例1中数字人与虚拟白板的交互方法。
可选地,该系统还包括内部总线,处理器与存储器和数据接口可以通过内部总线相互连接,该内部总线可以是ISA(Industry Standard Architecture,工业标准体系结构)总线、PCI(Peripheral Component Interconnect,外设部件互连标准)总线或EISA(Extended Industry Standard Architecture,扩展工业标准结构)总线等。所述总线可以分为地址总线、数据总线、控制总线等。
所述存储器可以但不限于包括随机存取存储器(Random Access Memory,RAM)、只读存储器(Read Only Memory,ROM)、闪存(Flash Memory)、先进先出存储器(First InputFirst Output,FIFO)和/或先进后出存储器(First In Last Out,FILO)等。所述处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
实施例4:
本实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,使得所述计算机执行实施例1中数字人与虚拟白板的交互方法。其中,所述计算机可读存储介质是指存储数据的载体,可以但不限于包括软盘、光盘、硬盘、闪存、优盘和/或记忆棒(Memory Stick)等,所述计算机可以是通用计算机、专用计算机、计算机网络或者其他可编程系统。
本实施例还提供一种包含指令的计算机程序产品,当所述指令在计算机上运行时,使所述计算机执行实施例1中数字人与虚拟白板的交互方法。其中,所述计算机可以是通用计算机、专用计算机、计算机网络或者其他可编程系统。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种数字人与虚拟白板的交互方法,其特征在于,包括:
获取针对目标虚拟白板的演讲语音;
对演讲语音进行语音识别处理,得到对应的文本信息,并对所述文本信息进行自然语言处理,提取出关键情态词;
根据关键情态词确定对应的语义解析指令;
根据语义解析指令从预置的交互规则库中匹配调取对应的交互规则参数,根据语义解析指令从预置的姿态动作库中匹配调取对应的姿态动作参数;
根据姿态动作参数和交互规则参数控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互。
2.根据权利要求1所述的一种数字人与虚拟白板的交互方法,其特征在于,所述演讲语音包括演讲者的实时演讲语音或者基于预存语音文本的同步播放语音。
3.根据权利要求1所述的一种数字人与虚拟白板的交互方法,其特征在于,所述对演讲语音进行语音识别处理,得到对应的文本信息,包括:将演讲语音输入预置的基于深度学习的语音识别模型进行语音识别处理,得到对应的文本信息。
4.根据权利要求1所述的一种数字人与虚拟白板的交互方法,其特征在于,所述对文本信息进行自然语言处理,提取出关键情态词,包括:将文本信息输入预置的基于深度学习的自然语言处理模型进行自然语言处理,输出关键情态词。
5.根据权利要求1所述的一种数字人与虚拟白板的交互方法,其特征在于,所述根据关键情态词确定对应的语义解析指令,包括:将关键情态词导入语义指令库中进行关联查找,得到与所述关键情态词匹配的语义解析指令,所述语义指令库中与预存有若干语义解析指令,各语义解析指令分别关联有对应的关键情态词。
6.根据权利要求1所述的一种数字人与虚拟白板的交互方法,其特征在于,在根据语义解析指令从预置的交互规则库中匹配调取对应的交互规则参数,根据语义解析指令从预置的姿态动作库中匹配调取对应的姿态动作参数之前,所述方法还包括:根据第一配置指令生成若干交互规则参数,并将各交互规则参数关联相应的语义解析指令后存入姿态动作库中;根据第二配置指令生成若干姿态动作参数,并将各姿态动作参数关联相应的语义解析指令后存入姿态动作库中。
7.根据权利要求1所述的一种数字人与虚拟白板的交互方法,其特征在于,所述根据姿态动作参数和交互规则参数控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互,包括:将姿态动作参数和交互规则参数输入基于深度学习的Transformer模型,输出姿态动作交互控制序列,并根据姿态动作交互控制序列控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互。
8.一种数字人与虚拟白板的交互系统,其特征在于,包括获取单元、识别单元、确定单元、调取单元和交互单元,其中:
获取单元,用于获取针对目标虚拟白板的演讲语音;
识别单元,用于对演讲语音进行语音识别处理,得到对应的文本信息,并对所述文本信息进行自然语言处理,提取出关键情态词;
确定单元,用于根据关键情态词确定对应的语义解析指令;
调取单元,用于根据语义解析指令从预置的交互规则库中匹配调取对应的交互规则参数,根据语义解析指令从预置的姿态动作库中匹配调取对应的姿态动作参数;
交互单元,用于根据姿态动作参数和交互规则参数控制目标数字人在虚拟世界三维空间中与目标虚拟白板的姿态动作交互。
9.一种数字人与虚拟白板的交互系统,其特征在于,包括:
存储器,用于存储指令;
处理器,用于读取所述存储器中存储的指令,并根据指令执行权利要求1-7任意一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,使得所述计算机执行权利要求1-7任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310390573.9A CN116797695A (zh) | 2023-04-12 | 2023-04-12 | 一种数字人与虚拟白板的交互方法、系统及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310390573.9A CN116797695A (zh) | 2023-04-12 | 2023-04-12 | 一种数字人与虚拟白板的交互方法、系统及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116797695A true CN116797695A (zh) | 2023-09-22 |
Family
ID=88044497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310390573.9A Pending CN116797695A (zh) | 2023-04-12 | 2023-04-12 | 一种数字人与虚拟白板的交互方法、系统及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116797695A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117174117A (zh) * | 2023-11-02 | 2023-12-05 | 北京烽火万家科技有限公司 | 一种基于虚拟数字人的英语助学系统及方法 |
CN117556802A (zh) * | 2024-01-12 | 2024-02-13 | 碳丝路文化传播(成都)有限公司 | 一种基于大语言模型的用户画像方法、装置、设备及介质 |
CN117808942A (zh) * | 2024-02-29 | 2024-04-02 | 暗物智能科技(广州)有限公司 | 一种语义强相关的3d数字人动作生成方法及系统 |
-
2023
- 2023-04-12 CN CN202310390573.9A patent/CN116797695A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117174117A (zh) * | 2023-11-02 | 2023-12-05 | 北京烽火万家科技有限公司 | 一种基于虚拟数字人的英语助学系统及方法 |
CN117556802A (zh) * | 2024-01-12 | 2024-02-13 | 碳丝路文化传播(成都)有限公司 | 一种基于大语言模型的用户画像方法、装置、设备及介质 |
CN117556802B (zh) * | 2024-01-12 | 2024-04-05 | 碳丝路文化传播(成都)有限公司 | 一种基于大语言模型的用户画像方法、装置、设备及介质 |
CN117808942A (zh) * | 2024-02-29 | 2024-04-02 | 暗物智能科技(广州)有限公司 | 一种语义强相关的3d数字人动作生成方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20210038449A (ko) | 문답 처리, 언어 모델 훈련 방법, 장치, 기기 및 저장 매체 | |
CN116797695A (zh) | 一种数字人与虚拟白板的交互方法、系统及存储介质 | |
US9805718B2 (en) | Clarifying natural language input using targeted questions | |
CN110853626B (zh) | 基于双向注意力神经网络的对话理解方法、装置及设备 | |
CN112162628A (zh) | 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端 | |
CN110647636A (zh) | 交互方法、装置、终端设备及存储介质 | |
JP2018073411A (ja) | 自然言語の生成方法、自然言語の生成装置及び電子機器 | |
CN113450759A (zh) | 语音生成方法、装置、电子设备以及存储介质 | |
WO2021134417A1 (zh) | 交互行为预测方法、智能装置和计算机可读存储介质 | |
CN113505198A (zh) | 关键词驱动的生成式对话回复方法、装置及电子设备 | |
CN110895656A (zh) | 一种文本相似度计算方法、装置、电子设备及存储介质 | |
KR20190074508A (ko) | 챗봇을 위한 대화 모델의 데이터 크라우드소싱 방법 | |
CN111402864A (zh) | 语音处理方法及电子设备 | |
CN111126084A (zh) | 数据处理方法、装置、电子设备和存储介质 | |
Inupakutika et al. | Integration of NLP and Speech-to-text Applications with Chatbots | |
CN110020429A (zh) | 语义识别方法及设备 | |
CN111210824A (zh) | 语音信息处理方法、装置、电子设备及存储介质 | |
CN110931002B (zh) | 人机交互方法、装置、计算机设备和存储介质 | |
CN109002498B (zh) | 人机对话方法、装置、设备及存储介质 | |
CN110263346B (zh) | 基于小样本学习的语意分析方法、电子设备及存储介质 | |
CN116821290A (zh) | 面向多任务对话的大语言模型训练方法和交互方法 | |
WO2023040545A1 (zh) | 一种数据处理方法、装置、设备、存储介质和程序产品 | |
CN116343755A (zh) | 领域自适应语音识别方法、装置、计算机设备及存储介质 | |
Kumar et al. | Augmenting small data to classify contextualized dialogue acts for exploratory visualization | |
CN115798456A (zh) | 跨语言情感语音合成方法、装置及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |