CN112907706A - 基于多模态的声音驱动动漫视频生成方法、装置及系统 - Google Patents
基于多模态的声音驱动动漫视频生成方法、装置及系统 Download PDFInfo
- Publication number
- CN112907706A CN112907706A CN202110132055.8A CN202110132055A CN112907706A CN 112907706 A CN112907706 A CN 112907706A CN 202110132055 A CN202110132055 A CN 202110132055A CN 112907706 A CN112907706 A CN 112907706A
- Authority
- CN
- China
- Prior art keywords
- video
- generating
- time
- information
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000009471 action Effects 0.000 claims abstract description 40
- 230000001815 facial effect Effects 0.000 claims abstract description 24
- 230000002996 emotional effect Effects 0.000 claims abstract description 3
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 230000008451 emotion Effects 0.000 claims description 17
- 230000033764 rhythmic process Effects 0.000 claims description 9
- 239000000126 substance Substances 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000033001 locomotion Effects 0.000 description 5
- 230000007774 longterm Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 206010011469 Crying Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2213/00—Indexing scheme for animation
- G06T2213/12—Rule based animation
Abstract
本发明提供了基于多模态的声音驱动动漫生成方法、装置及系统,该方法包括:基于输入的语音,生成脸部关键点动作信息;将脸部关键点动作信息转换成视频生成特征信息;基于视频生成特征信息,生成动漫视频。本发明实施例提供的方法充分利用音频信息,获取目标面部关键点信息,生成清晰流畅动漫视频;因为其通过视频生成视频参数控制动漫生成而不是通过大量素材库,大大减少了人力的投入;通过视频生成情绪参数控制人体姿态,保证动漫生成的流畅性和准确性。
Description
技术领域
本发明书一个或多个实施例涉及计算机技术领域,尤其涉及一种基于多模态的声音驱动动漫视频生成方法、装置及系统、芯片和计算机可读存储介质。
背景技术
本部分旨在为权利要求书中陈述的本发明的实施方式提供背景或上下文。此处的描述可包括可以探究的概念,但不一定是之前已经想到或者已经探究的概念。因此,除非在此指出,否则在本部分中描述的内容对于本申请的说明书和权利要求书而言不是现有技术,并且并不因为包括在本部分中就承认是现有技术。
随着计算机技术的快速发展,动画制作也得到了广泛的应用,目前,普通存在生成的动画人物无法根据语音制作相对应的口型,动画播放出来之后经常会出现口型与语音不对应的问题,甚至动画人物的口型十分夸张,从而导致动画不够自然,不够真实,生成的动画质量比较差。
现有的解决办法,主要有四部分构成:第一部分接受语音音频和语音音频对应的语音文本;第二部分获取所述语音音频的每个音频帧中的候选音素概率和所述语音文本对应的音素序列;第三部分根据所述语音音频的每个音频帧中的候选音素概率和所述音素序列生成所述语音音频对应的音素集合列表;第四部分根据所述音素集合列表在预设的动画人物素材库中查找并播放对应的动画人物口型。
但该方法存在如下问题:
(1)在第一部分中除了需要语音音频信息还需要语音对应文本信息;
(2)在第四部分模中需要根据音素集合提前制作大量的人物素材库即动画人物口型;
(3)该技术只能生成不同口型动画人物,无法生成脸部其他表情和身体动作。
有鉴于此,亟需一种新的数据处理技术,适用于基于一段语音音频,无需制作大量人物素材库,即可不但生成与之匹配的播音/说话动漫视频、而且可生成脸部整体动作,并匹配生成身体动作。
发明内容
本说明书一个或多个实施例描述了一种基于多模态的声音驱动动漫视频生成方法、装置及系统,其通过语音作为系统输入,无需制作大量人物素材库,即可生成自然流畅的动漫视频,解决了现有技术中存在的需大量人物素材库及无法生成脸部其他表情和身体动作等问题。
本说明书一个或多个实施例提供的技术方案如下:
第一方面,本发明提供了基于多模态的声音驱动动漫生成方法,包括:
基于输入的语音,生成脸部关键点动作信息;
将脸部关键点动作信息转换成视频生成特征信息;
基于视频生成特征信息,生成动漫视频。
在一个可能的实现方式中,所述基于输入的语音,生成脸部关键点动作,具体为:
将输入的语音转换为长短时特征;
利用语音长短时特征生成脸部关键点动作信息。
在一个可能的实现方式中,所述将输入的语音转换为长短时特征,具体为:
对输入的语音提取长时韵律及短时信息;
基于提取的所述长时韵律及短时信息,将输入的语音转换为长短时特征。
在一个可能的实现方式中,将所述语音情绪分析转换为对应的情感参数,通过所述情感参数控制人体姿势动作。
在一个可能的实现方式中,所述将脸部关键点动作信息转换成视频生成特征信息,具体为:
通过脸部关键点动作信息转换为脸部各部分参数以及对应的情感参数。
在一个可能的实现方式中,所述基于视频生成特征信息,生成动漫视频,具体为:
基于视频生成特征信息生成视频帧序列,通过将视频帧序列和输入的语音结合生成动漫视频。
第二方面,本发明提供了基于多模态的声音驱动动漫生成装置,包括脸部关键点动作信息生成模块、参数转换模块和视频生成模块;其中,
所述脸部关键点动作信息生成模块,用于基于输入的语音,生成脸部关键点动作信息;
所述参数转换模块,用于将脸部关键点动作信息转换成视频生成特征信息;
所述视频生成模块,用于基于视频生成特征信息,生成动漫视频。
在一个可能的实现方式中,所述脸部生成关键点动作信息模块包括第一转换单元和生成单元;其中,
所述第一转换单元,用于将输入的语音转换为长短时特征;
所述生成单元,用于利用语音长短时特征生成脸部关键点动作信息。
在一个可能的实现方式中,所述第一转换单元包括提取单元和第二转换单元;其中,
所述提取单元,用于对输入的语音提取长时韵律及短时信息;
所述第二转换单元,用于基于提取的所述长时韵律及短时信息,将输入的语音转换为长短时特征。
第三方面,本发明提供了基于多模态的声音驱动动漫生成系统,该系统包括至少一个处理器和存储器;
所述存储器,用于存储一个或多个程序指令;
所述处理器,用于运行一个或多个程序指令,用以执行如第一方面中一个或多个所述的方法。
第四方面,本发明提供了一种芯片,所述芯片与系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如第一方面中一个或多个所述的方法。
第五方面,本发明提供了一种计算机可读存储介质,所述计算机可读存储介质包括一个或多个程序指令,所述一个或多个程序指令可被如第三方面所述的系统执行,以实现如第一方面中一个或多个所述的方法。
本发明实施例提供的方法充分利用音频信息,获取目标面部关键点信息,生成清晰流畅动漫视频;因为其通过视频生成视频参数控制动漫生成而不是通过大量素材库,大大减少了人力的投入;通过视频生成情绪参数控制人体姿态,保证了动漫生成的流畅性和准确性。
附图说明
图1为本发明实施例提供的基于多模态的声音驱动动漫生成方法流程示意图;
图2为基于输入的语音,生成脸部关键点动作的流程示意图;
图3为本发明实施例提供的将输入的语音转换为长短时特征流程示意图;
图4为本发明实施例提供的基于多模态的声音驱动动漫生成装置结构示意图;图5为脸部生成关键点动作信息模块结构示意图;
图6为第一转换单元的结构示意图;
图7为本发明实施例提供的基于多模态的声音驱动动漫生成系统结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为便于描述,附图中仅示出了与有关发明相关的部分。
应当理解,尽管在本申请一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本发明一个或多个实施例涉及的名词术语进行解释。
ASR,Automatic Speech Recognition的简称,自动语音识别技术。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
本发明实现一种声音驱动动漫视频生成,其通过语音作为系统输入,生成自然流畅的动漫视频。具体的:
图1示出一个实施例的基于多模态的声音驱动动漫生成方法流程图,如图1所示,所述方法包括以下步骤:
步骤10,基于输入的语音,生成脸部关键点动作信息。
具体的,如图2所示,该步骤主要包括2个步骤:
步骤101,将输入的语音转换为长短时特征。
该过程由ASR模型处理的,比如黑盒。具体的,如图3所示,该步骤包括以下步骤:
步骤1011,对输入的语音提取长时韵律及短时信息。
步骤1012,基于提取的所述长时韵律及短时信息,将输入的语音转换为长短时特征。
步骤102,利用语音长短时特征生成脸部关键点动作信息。
利用语音长短时特征合成关键点序列,生成脸部关键点动作信息。
其中,脸部关键点包含脸部68个关键点,比如嘴、双眼和鼻子等,后面根据嘴部关键点判断人的情绪,比如分析判断此人的情绪是笑或哭等。
本发明充分利用音频信息,获取目标面部关键点信息,方便了后续生成清晰流畅动漫视频。
步骤20,将脸部关键点动作信息转换成视频生成特征信息。
通过脸部关键点动作信息转换为脸部各部分参数以及对应的情感参数,并通过所述情感参数控制人体姿势动作。比如通过嘴部关键点,双眼关键点及鼻子关键点转换成人脸头部旋转参数、眼睛参数、口型参数以及对应的情感参数。比如:
根据脸部关键点信息,计算头部的上下左右旋转角度;
根据嘴部关键点信息,角度和距离判断人的情绪;
根据眼睛关键点信息,判断人是否眨眼。
即我们可根据嘴部关键点判断人的情绪,比如是笑还是在哭,还是其他表情。比如,通过该关键点判断这个人在笑,就匹配一个笑的人的动作。匹配的过程是进行人体姿态选择,在判断人的情绪后,根据该情绪在个人体姿态库中选择对应的情绪即可。通过视频生成情绪参数控制人体姿态,保证了动漫生成的流畅性和准确性
步骤30,基于视频生成特征信息,生成动漫视频。
具体的,基于视频生成特征信息生成视频帧序列,通过将视频帧序列和输入的语音结合生成动漫视频。即以视频特征作为系统输入,通过视频生成特征输入到渲染引擎后生成视频帧序列,最后通过将视频帧序列和音频结合生成动漫视频。通过视频生成视频参数来控制动漫生成而不是通过大量素材库,大大减少人力的投入。
与上述实施例方法对应的,本发明还提供了基于多模态的声音驱动动漫生成装置,如图4所示,该结构包括脸部关键点动作信息生成模块41、参数转换模块42和视频生成模块43;其中,
所述脸部关键点动作信息生成模块41,用于基于输入的语音,生成脸部关键点动作信息;
所述参数转换模块42,用于将脸部关键点动作信息转换成视频生成特征信息;
所述视频生成模块43,用于基于视频生成特征信息,生成动漫视频。
在一个示例中,图5为脸部生成关键点动作信息模块结构示意图,如图5所示,该模块41包括第一转换单元411和生成单元412;其中,
所述第一转换单元411,用于将输入的语音转换为长短时特征;
所述生成单元412,用于利用语音长短时特征生成脸部关键点动作信息。
在一个示例中,图6为第一转换单元的结构示意图,如图6所示,该单元包括提取单元4111和第二转换单元4112;其中,
所述提取单元4111,用于对输入的语音提取长时韵律及短时信息;
所述第二转换单元4112,用于基于提取的所述长时韵律及短时信息,将输入的语音转换为长短时特征。
本发明实施例提供的装置中各部件所执行的功能均已在上述方法中做了详细介绍,因此这里不做过多赘述。
与上述实施例相对应的,本发明实施例、还提供了基于多模态的声音驱动动漫生成系统,具体如图7所示,该系统包括至少一个处理器71和存储器72;
存储器71,用于存储一个或多个程序指令;
处理器72,用于运行一个或多个程序指令,执行如上述实施例所介绍的基于多模态的声音驱动动漫生成方法中的任一方法步骤。
与上述实施例相对应的,本发明实施例还提供了一种芯片,该芯片与上述系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如上述实施例所介绍的基于多模态的声音驱动动漫生成方法。
与上述实施例相对应的,本发明实施例还提供了一种计算机存储介质,该计算机存储介质中包括一个或多个程序,其中,一个或多个程序指令用于被基于多模态的声音驱动动漫生成系统执行如上介绍的基于多模态的声音驱动动漫生成方法。
本申请提供的方案,充分利用音频信息,获取目标面部关键点信息,生成清晰流畅动漫视频;因为其通过视频生成视频参数控制动漫生成而不是通过大量素材库,大大减少了人力的投入;通过视频生成情绪参数控制人体姿态,保证了动漫生成的流畅性和准确性。
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (12)
1.基于多模态的声音驱动动漫生成方法,其特征在于,包括:
基于输入的语音,生成脸部关键点动作信息;
将脸部关键点动作信息转换成视频生成特征信息;
基于视频生成特征信息,生成动漫视频。
2.根据权利要求1所述的方法,其特征在于,所述基于输入的语音,生成脸部关键点动作,具体为:
将输入的语音转换为长短时特征;
利用语音长短时特征生成脸部关键点动作信息。
3.根据权利要求2所述的方法,其特征在于,所述将输入的语音转换为长短时特征,具体为:
对输入的语音提取长时韵律及短时信息;
基于提取的所述长时韵律及短时信息,将输入的语音转换为长短时特征。
4.根据权利要求1所述的方法,其特征在于,所述将脸部关键点动作信息转换成视频生成特征信息,具体为:
通过脸部关键点动作信息转换为脸部各部分参数以及对应的情感参数。
5.根据权利要4所述的方法,其特征在于,通过所述情感参数控制人体姿势动作。
6.根据权利要求1所述的方法,其特征在于,所述基于视频生成特征信息,生成动漫视频,具体为:
基于视频生成特征信息生成视频帧序列,通过将视频帧序列和输入的语音结合生成动漫视频。
7.基于多模态的声音驱动动漫生成装置,其特征在于,包括脸部关键点动作信息生成模块、参数转换模块和视频生成模块;其中,
所述脸部关键点动作信息生成模块,用于基于输入的语音,生成脸部关键点动作信息;
所述参数转换模块,用于将脸部关键点动作信息转换成视频生成特征信息;
所述视频生成模块,用于基于视频生成特征信息,生成动漫视频。
8.根据权利要求7所述的装置,其特征在于,所述脸部生成关键点动作信息模块包括第一转换单元和生成单元;其中,
所述第一转换单元,用于将输入的语音转换为长短时特征;
所述生成单元,用于利用语音长短时特征生成脸部关键点动作信息。
9.根据权利要求7所述的装置,其特征在于,所述第一转换单元包括处理单元和第二转换单元;其中,
所述处理单元,用于对输入的语音提取长时韵律及短时信息;
所述第二转换单元,用于基于提取的所述长时韵律及短时信息,将输入的语音转换为长短时特征。
10.基于多模态的声音驱动动漫生成系统,其特征在于,所述系统包括至少一个处理器和存储器;
所述存储器,用于存储一个或多个程序指令;
所述处理器,用于运行一个或多个程序指令,用以执行如权利要求1至6中一个或多个所述的方法。
11.一种芯片,其特征在于,所述芯片与系统中的存储器耦合,使得所述芯片在运行时调用所述存储器中存储的程序指令,实现如权利要求1至6中一个或多个所述的方法。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括一个或多个程序指令,所述一个或多个程序指令可被如权利要求10所述的系统执行,以实现如权利要求1至6中一个或多个所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110132055.8A CN112907706A (zh) | 2021-01-31 | 2021-01-31 | 基于多模态的声音驱动动漫视频生成方法、装置及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110132055.8A CN112907706A (zh) | 2021-01-31 | 2021-01-31 | 基于多模态的声音驱动动漫视频生成方法、装置及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112907706A true CN112907706A (zh) | 2021-06-04 |
Family
ID=76122128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110132055.8A Pending CN112907706A (zh) | 2021-01-31 | 2021-01-31 | 基于多模态的声音驱动动漫视频生成方法、装置及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112907706A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022267380A1 (zh) * | 2021-06-25 | 2022-12-29 | 达闼科技(北京)有限公司 | 基于语音驱动的人脸动作合成方法、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020024519A1 (en) * | 2000-08-20 | 2002-02-28 | Adamsoft Corporation | System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character |
CN103971393A (zh) * | 2013-01-29 | 2014-08-06 | 株式会社东芝 | 计算机生成的头部 |
CN109377539A (zh) * | 2018-11-06 | 2019-02-22 | 北京百度网讯科技有限公司 | 用于生成动画的方法和装置 |
CN109599113A (zh) * | 2019-01-22 | 2019-04-09 | 北京百度网讯科技有限公司 | 用于处理信息的方法和装置 |
CN110809090A (zh) * | 2019-10-31 | 2020-02-18 | Oppo广东移动通信有限公司 | 通话控制方法及相关产品 |
-
2021
- 2021-01-31 CN CN202110132055.8A patent/CN112907706A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020024519A1 (en) * | 2000-08-20 | 2002-02-28 | Adamsoft Corporation | System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character |
CN103971393A (zh) * | 2013-01-29 | 2014-08-06 | 株式会社东芝 | 计算机生成的头部 |
CN109377539A (zh) * | 2018-11-06 | 2019-02-22 | 北京百度网讯科技有限公司 | 用于生成动画的方法和装置 |
CN109599113A (zh) * | 2019-01-22 | 2019-04-09 | 北京百度网讯科技有限公司 | 用于处理信息的方法和装置 |
CN110809090A (zh) * | 2019-10-31 | 2020-02-18 | Oppo广东移动通信有限公司 | 通话控制方法及相关产品 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022267380A1 (zh) * | 2021-06-25 | 2022-12-29 | 达闼科技(北京)有限公司 | 基于语音驱动的人脸动作合成方法、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230316643A1 (en) | Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal | |
US20230064749A1 (en) | Two-Level Speech Prosody Transfer | |
US8224652B2 (en) | Speech and text driven HMM-based body animation synthesis | |
US9754580B2 (en) | System and method for extracting and using prosody features | |
CN112650831A (zh) | 虚拟形象生成方法、装置、存储介质及电子设备 | |
CN106486121B (zh) | 应用于智能机器人的语音优化方法及装置 | |
GB2516965A (en) | Synthetic audiovisual storyteller | |
CN111145777A (zh) | 一种虚拟形象展示方法、装置、电子设备及存储介质 | |
CN113077537A (zh) | 一种视频生成方法、存储介质及设备 | |
CN114357135A (zh) | 交互方法、交互装置、电子设备以及存储介质 | |
CN115700772A (zh) | 人脸动画生成方法及装置 | |
Wang et al. | Comic-guided speech synthesis | |
Hrúz et al. | Automatic fingersign-to-speech translation system | |
CN115147521A (zh) | 一种基于人工智能语义分析的角色表情动画的生成方法 | |
CN114330631A (zh) | 数字人生成方法、装置、设备及存储介质 | |
CN114173188B (zh) | 视频生成方法、电子设备、存储介质和数字人服务器 | |
CN116309984A (zh) | 一种基于文本驱动的口型动画生成方法及系统 | |
US11475874B2 (en) | Generating diverse and natural text-to-speech samples | |
CN114387945A (zh) | 语音生成方法、装置、电子设备及存储介质 | |
CN112907706A (zh) | 基于多模态的声音驱动动漫视频生成方法、装置及系统 | |
Filntisis et al. | Video-realistic expressive audio-visual speech synthesis for the Greek language | |
CN115497448A (zh) | 语音动画的合成方法、装置、电子设备及存储介质 | |
WO2014167570A1 (en) | System and method for extracting and using prosody features | |
CN115662388A (zh) | 虚拟形象面部驱动方法、装置、电子设备及介质 | |
D’alessandro et al. | Reactive statistical mapping: Towards the sketching of performative control with data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |