CN108764299A - 故事模型训练及生成方法、系统、机器人及存储设备 - Google Patents

故事模型训练及生成方法、系统、机器人及存储设备 Download PDF

Info

Publication number
CN108764299A
CN108764299A CN201810422262.5A CN201810422262A CN108764299A CN 108764299 A CN108764299 A CN 108764299A CN 201810422262 A CN201810422262 A CN 201810422262A CN 108764299 A CN108764299 A CN 108764299A
Authority
CN
China
Prior art keywords
story
encoder
decoder
training
paint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810422262.5A
Other languages
English (en)
Other versions
CN108764299B (zh
Inventor
程璞
顾嘉唯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Luka Beijing Intelligent Technology Co ltd
Original Assignee
Beijing Genius Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Genius Intelligent Technology Co Ltd filed Critical Beijing Genius Intelligent Technology Co Ltd
Priority to CN201810422262.5A priority Critical patent/CN108764299B/zh
Publication of CN108764299A publication Critical patent/CN108764299A/zh
Application granted granted Critical
Publication of CN108764299B publication Critical patent/CN108764299B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请公开了一种故事模型训练及生成方法、系统、机器人及存储设备,该训练方法包括:利用第一编码器将训练集中的故事描述转换为向量表示,其中训练集包括绘本Ii及其对应的故事描述Oi,Ii={Ii1,Ii2,…,Iim},Oi={Oi1,Oi2,…,Oim};Iij为绘本Ii第j页的图片,Oij为绘本Ii第j页的故事描述,故事描述Oi转换为向量表示Vi={Vi1,Vi2,…,Vim},Vij为Oij对应的向量表示;1≤j≤m,m为绘本Ii的总页数,1≤i≤k,k为训练集中绘本的总数量;根据Vi以及Oi训练第一解码器;利用第二编码器提取Ii的特征Fi;根据该Fi以及Vi训练第三编解码器;根据第二编码器、第三编解码器、以及第一解码器组成故事模型。本申请可以根据绘本自动生成故事描述,提高了绘本故事制作的效率。

Description

故事模型训练及生成方法、系统、机器人及存储设备
技术领域
本申请涉及,尤其涉及一种故事模型训练及生成方法、系统、机器人及存储设备。
背景技术
图1为计算机组成结构框图,其中示出了计算机的主要部件。图1中,处理器110、内部存储器105、总线桥120以及网络接口115接入系统总线140,总线桥120用于桥接系统总线140和I/O总线145,I/O接口接入I/O总线145,USB接口以及外部存储器与I/O接口连接。图1中,处理器110可以为一个或多个处理器,每个处理可以具有一个或者多个处理器内核;内部存储器105为易失性存储器,例如寄存器、缓存器、各种类型的随机存取存储器等;在计算机开机运行的时候,内部存储器105中的数据包括操作系统和应用程序;网络接口115可以为以太网接口、光纤接口等;系统总线140可以用来传送数据信息、地址信息、以及控制信息;总线桥120可以用来进行协议转换,将系统总线协议转换为I/O协议或者将I/O协议转换为系统总线协议以实现数据传输;I/O总线145用来数据信息和控制信息,还可以总线终结电阻或电路来降低信号反射干扰;I/O接口130主要与各种外部设备连接,例如键盘、鼠标、传感器等等,闪存可以通过USB接口接入I/O总线,外部存储器为非易失性存储器,例如硬盘、光盘等。在计算机开机之后,处理器可以将存储于外部存储其中的数据读取到内部存储器中,并对内部存储其中的计算机指令进行处理,完成操作系统以及应用程序的功能。该示例计算机可以为台式机、笔记本电脑、平板电脑、智能手机、绘本阅读机器人等。
绘本故事是与绘本图片对应的故事,目前需要人工预先设计,然后将绘本图片与故事描述对应起来,供绘本阅读机器人向用户展示。人工处理需要的工作量大,有必要通过设计新的方案自动生成故事描述。
目前标注算法是可以从一张图片中自动生成一段描述性文字的算法,其通过编码器-解码器(Encoder-Decoder)架构来实现,即首先利用卷积神经网络(CNN)提取图像特征,作为循环神经网络(RNN)的输入;然后利用循环神经网络解码得到描述性文字。在实现编码器-解码器模型时,收集一定数量的图像和文字描述对作为训练样本,根据训练样本,将图像作为输入、对应的文字描述作为输出,训练得到编码器-解码器模型。对于新的图片,将其作为模型输入,模型输出即为该图片对应的文字描述。图像标注算法主要用于对一张图片生成描述,而绘本是由一系列前后相互关联的图片组成,已有的图片标注算法难以直接用于对绘本生成故事描述。
发明内容
本申请实施例提供一种故事模型训练及生成方法、系统、机器人及存储设备,用以解决自动生成绘本故事的问题。
本申请提供了一种故事模型训练方法,包括:
利用第一编码器将训练集中的故事描述转换为向量表示,其中训练集包括绘本Ii及其对应的故事描述Oi,Ii={Ii1,Ii2,…,Iim},Oi={Oi1,Oi2,…,Oim};Iij为绘本Ii第j页的图片,Oij为绘本Ii第j页的故事描述,故事描述Oi转换为向量表示Vi={Vi1,Vi2,…,Vim},Vij为Oij对应的向量表示;1≤j≤m,m为绘本Ii的总页数,1≤i≤k,k为训练集中绘本的总数量;
根据Vi以及Oi训练第一解码器;
利用第二编码器提取Ii的特征Fi,Fi={Fi1,Fi2,…,Fim},Fij为绘本Ii第j页的图片的特征;
根据该Fi以及Vi训练第三编解码器;
根据第二编码器、第三编解码器、以及第一解码器组成故事模型。
可选地,所述第一编码器为句子向量编码器。
可选地,所述第一解码器为基于循环神经网络、长短期记忆网络或门控循环单元神经网络的解码器。
可选地,所述第二编码器为基于卷积神经网络的编码器。
可选地,第三编解码器包括第三编码器和第三解码器,其中第三编码器的输出作为第三解码器的输入;
所述第三编码器为基于循环神经网络、长短期记忆网络或门控循环单元神经网络的编码器,所述第三解码器为基于循环神经网络、长短期记忆网络或门控循环单元神经网络的解码器。
可选地,所述根据第二编码器、第三编解码器、以及第一解码器组成故事模型包括:
将所述第二编码器、第三编解码器、以及第一解码器依次连接组成故事模型。
本申请提供了一种故事生成方法,包括:
将新的绘本图片输入所述的方法得到的故事模型;
所述故事模型输出与所述新的绘本图片对应的故事描述。
本申请提供了一种故事模型训练系统,该系统包括存储设备和处理器;
所述存储设备,用于存储程序;
所述处理器,用于执行所述程序以实现故事模型训练方法或者故事生成方法。
本申请提供了一种绘本阅读机器人,该机器人包括所述的系统。
本身请提供了一种存储设备,其上存储有程序,所述程序用于被处理器执行时实现故事模型训练方法或者故事生成方法。
本申请可以根据绘本自动生成故事描述,提高了绘本故事制作的效率。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请提供的计算机组成结构框图;
图2为本申请提供的故事模型训练方法流程图;
图3为故事模型示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图2为本申请提供的故事模型训练方法流程图,具体包括:
步骤205,将训练集中绘本的故事描述转换为矢量表示。训练集是用来训练故事模型的样本,包括绘本图片以及绘本图片对应的故事描述。例如,训练集包括绘本Ii及其对应的故事描述Oi,Ii={Ii1,Ii2,…,Iim},Oi={Oi1,Oi2,…,Oim};Iij为绘本Ii第j页的图片,Oij为绘本Ii第j页的故事描述,故事描述Oi转换为向量表示Vi={Vi1,Vi2,…,Vim},Vij为Oij对应的向量表示;1≤j≤m,m为绘本Ii的总页数,1≤i≤k,k为训练集中绘本的总数量。为了提高故事模型的准确度,可以在训练集中包含大量的绘本及绘本对应的故事描述,一般绘本中每页图片可以存在对应的故事描述。第一编码器可以是基于skip-thought vector方法的为句子向量(Sentence2Vec)编码器,其可以将Oij转换为向量表示Vij={Vij1,Vij2,…,Vijn},n为向量的维度,则第i个绘本的故事描述可以表示为Vi={Vi1,Vi2,…,Vim}。
步骤210,训练第一解码器。第一解码器可以是基于基于循环神经网络、长短期记忆网络或门控循环单元神经网络的解码器,例如采用长短期记忆网络lstm、门控循环单元神经网络gru等模型。该解码器以一段故事描述Oij的向量表示Vij={Vij1,Vij2,…,Vijn}为输入,以Oij为输出,进行训练。
步骤215,利用第二编码器提取绘本图片的特征。利用基于卷积神经网络(可采用残差网络resnet、移动视觉网络mobi leNet等模型)的第二编码器对训练集中的绘本图片提取特征,假设对Iij提取的特征为Fij,则第i个绘本可表示为Fi={Fi1,Fi2,…,Fim}。
步骤220,训练第三编码器和第三解码器。使用特征Fi为输入,Vi为输出训练第三编码器和第三解码器。第三编码器和第三解码器构成编码器-解码器模型。第三编码器和第三解码器可以是基于基于循环神经网络、长短期记忆网络或门控循环单元神经网络(例如可采用lstm、gru等模型)的编码器和解码器。第三编码器以绘本图片的特征Fi为输入,并输出中间结果Ti。第三解码器为基于循环神经网络的编码器,以Ti为输入,以绘本故事描述的向量表示Vi为输出。
步骤225,将第二编码器、第三编码器、第三解码器、第一解码器组成故事模型,如图3所示。
本申请提供了一种绘本故事生成的方法,该方法包括:
将新绘本的图片输入故事模型;
故事模型输出新绘本的图片对应的故事描述。
通过上述的方法,可以根据绘本自动生成故事。
本申请提供了一种故事模型训练系统,该系统包括存储设备和处理器;
所述存储设备,用于存储程序;
所述处理器,用于执行所述程序以实现故事模型训练方法或者故事生成方法。
本申请提供了一种绘本阅读机器人,该机器人包括所述的系统。
本身请提供了一种存储设备,其上存储有程序,所述程序用于被处理器执行时实现故事模型训练方法或者故事生成方法。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种故事模型训练方法,其特征在于,包括:
利用第一编码器将训练集中的故事描述转换为向量表示,其中训练集包括绘本Ii及其对应的故事描述Oi,Ii={Ii1,Ii2,…,Iim},Oi={Oi1,Oi2,…,Oim};Iij为绘本Ii第j页的图片,Oij为绘本Ii第j页的故事描述,故事描述Oi转换为向量表示Vi={Vi1,Vi2,…,Vim},Vij为Oij对应的向量表示;1≤j≤m,m为绘本Ii的总页数,1≤i≤k,k为训练集中绘本的总数量;
根据Vi以及Oi训练第一解码器;
利用第二编码器提取Ii的特征Fi,Fi={Fi1,Fi2,…,Fim},Fij为绘本Ii第j页的图片的特征;
根据该Fi以及Vi训练第三编解码器;
根据第二编码器、第三编解码器、以及第一解码器组成故事模型。
2.根据权利要求1所述的方法,其特征在于,所述第一编码器为句子向量编码器。
3.根据权利要求1所述的方法,其特征在于,所述第一解码器为基于循环神经网络、长短期记忆网络或门控循环单元神经网络的解码器。
4.根据权利要求1所述的方法,其特征在于,所述第二编码器为基于卷积神经网络的编码器。
5.根据权利要求1所述的方法,其特征在于,第三编解码器包括第三编码器和第三解码器,其中第三编码器的输出作为第三解码器的输入;
所述第三编码器为基于循环神经网络、长短期记忆网络或门控循环单元神经网络的编码器,所述第三解码器为基于循环神经网络、长短期记忆网络或门控循环单元神经网络的解码器。
6.根据权利要求1所述的方法,其特征在于,所述根据第二编码器、第三编解码器、以及第一解码器组成故事模型包括:
将所述第二编码器、第三编解码器、以及第一解码器依次连接组成故事模型。
7.一种故事生成方法,其特征在于,包括:
将新的绘本图片输入根据权利要求1-6任意一项所述的方法得到的故事模型;
所述故事模型输出与所述新的绘本图片对应的故事描述。
8.一种故事模型训练系统,其特征在于,该系统包括存储设备和处理器;
所述存储设备,用于存储程序;
所述处理器,用于执行所述程序以实现权利要求1-6任意一项所述的方法或者权利要求7所述的方法。
9.一种绘本阅读机器人,其特征在于,该机器人包括根据权利要求8所述的系统。
10.一种存储设备,其上存储有程序,其特征在于,所述程序用于被处理器执行时实现权利要求1-6任意一项所述的方法或者权利要求7所述的方法。
CN201810422262.5A 2018-05-04 2018-05-04 故事模型训练及生成方法、系统、机器人及存储设备 Active CN108764299B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810422262.5A CN108764299B (zh) 2018-05-04 2018-05-04 故事模型训练及生成方法、系统、机器人及存储设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810422262.5A CN108764299B (zh) 2018-05-04 2018-05-04 故事模型训练及生成方法、系统、机器人及存储设备

Publications (2)

Publication Number Publication Date
CN108764299A true CN108764299A (zh) 2018-11-06
CN108764299B CN108764299B (zh) 2020-10-23

Family

ID=64009358

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810422262.5A Active CN108764299B (zh) 2018-05-04 2018-05-04 故事模型训练及生成方法、系统、机器人及存储设备

Country Status (1)

Country Link
CN (1) CN108764299B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287999A (zh) * 2019-05-28 2019-09-27 清华大学 基于隐变量模型的故事生成方法及装置
CN111008643A (zh) * 2019-10-29 2020-04-14 平安科技(深圳)有限公司 基于半监督学习的图片分类方法、装置和计算机设备
CN112712130A (zh) * 2021-01-13 2021-04-27 清华大学 视觉理解模型训练方法、装置、计算机设备和存储介质
CN113990356A (zh) * 2020-07-13 2022-01-28 Tcl科技集团股份有限公司 一种图书生成方法、图书生成设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040002935A1 (en) * 2002-06-27 2004-01-01 Hagai Attias Searching multi-media databases using multi-media queries
CN102360351A (zh) * 2011-09-27 2012-02-22 北京中科希望软件股份有限公司 一种对电子图书内容进行语义描述的方法及系统
CN105809201A (zh) * 2016-03-11 2016-07-27 中国科学院自动化研究所 一种生物启发式自主提取图像语义概念的识别方法及装置
CN105938485A (zh) * 2016-04-14 2016-09-14 北京工业大学 一种基于卷积循环混合模型的图像描述方法
CN107038221A (zh) * 2017-03-22 2017-08-11 杭州电子科技大学 一种基于语义信息引导的视频内容描述方法
CN107506377A (zh) * 2017-07-20 2017-12-22 南开大学 基于推荐系统的互动绘本生成系统
CN107807971A (zh) * 2017-10-18 2018-03-16 北京信息科技大学 一种自动图像语义描述方法
CN107909115A (zh) * 2017-12-04 2018-04-13 上海师范大学 一种图像中文字幕生成方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040002935A1 (en) * 2002-06-27 2004-01-01 Hagai Attias Searching multi-media databases using multi-media queries
CN102360351A (zh) * 2011-09-27 2012-02-22 北京中科希望软件股份有限公司 一种对电子图书内容进行语义描述的方法及系统
CN105809201A (zh) * 2016-03-11 2016-07-27 中国科学院自动化研究所 一种生物启发式自主提取图像语义概念的识别方法及装置
CN105938485A (zh) * 2016-04-14 2016-09-14 北京工业大学 一种基于卷积循环混合模型的图像描述方法
CN107038221A (zh) * 2017-03-22 2017-08-11 杭州电子科技大学 一种基于语义信息引导的视频内容描述方法
CN107506377A (zh) * 2017-07-20 2017-12-22 南开大学 基于推荐系统的互动绘本生成系统
CN107807971A (zh) * 2017-10-18 2018-03-16 北京信息科技大学 一种自动图像语义描述方法
CN107909115A (zh) * 2017-12-04 2018-04-13 上海师范大学 一种图像中文字幕生成方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110287999A (zh) * 2019-05-28 2019-09-27 清华大学 基于隐变量模型的故事生成方法及装置
CN110287999B (zh) * 2019-05-28 2021-05-28 清华大学 基于隐变量模型的故事生成方法及装置
CN111008643A (zh) * 2019-10-29 2020-04-14 平安科技(深圳)有限公司 基于半监督学习的图片分类方法、装置和计算机设备
CN111008643B (zh) * 2019-10-29 2024-03-19 平安科技(深圳)有限公司 基于半监督学习的图片分类方法、装置和计算机设备
CN113990356A (zh) * 2020-07-13 2022-01-28 Tcl科技集团股份有限公司 一种图书生成方法、图书生成设备及存储介质
CN113990356B (zh) * 2020-07-13 2023-05-16 Tcl科技集团股份有限公司 一种图书生成方法、图书生成设备及存储介质
CN112712130A (zh) * 2021-01-13 2021-04-27 清华大学 视觉理解模型训练方法、装置、计算机设备和存储介质
CN112712130B (zh) * 2021-01-13 2022-06-10 清华大学 视觉理解模型训练方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
CN108764299B (zh) 2020-10-23

Similar Documents

Publication Publication Date Title
CN107293296B (zh) 语音识别结果纠正方法、装置、设备及存储介质
Ertam et al. Data classification with deep learning using Tensorflow
CN108764299A (zh) 故事模型训练及生成方法、系统、机器人及存储设备
EP4089587A1 (en) Data processing method and related device
CN107767870A (zh) 标点符号的添加方法、装置和计算机设备
CN108959246A (zh) 基于改进的注意力机制的答案选择方法、装置和电子设备
CN105335133B (zh) 用于生成业务规则模型的方法和装置
US20220027707A1 (en) Subgraph guided knowledge graph question generation
CN112528637B (zh) 文本处理模型训练方法、装置、计算机设备和存储介质
US10664659B2 (en) Method for modifying segmentation model based on artificial intelligence, device and storage medium
CN106649345A (zh) 用于新闻的自动会话创建器
CN110309282B (zh) 一种答案确定方法及装置
CN111310441A (zh) 基于bert的语音识别后文本修正方法、装置、终端及介质
US11170183B2 (en) Language entity identification
CN107025480A (zh) 图像生成方法及其设备
CN109960815A (zh) 一种神经机器翻译nmt模型的创建方法及系统
CN112825114A (zh) 语义识别方法、装置、电子设备及存储介质
CN110232914A (zh) 一种语义识别方法、装置以及相关设备
CN110175469A (zh) 一种社交媒体用户隐私泄漏检测方法、系统、设备及介质
CN111178082A (zh) 一种句向量生成方法、装置及电子设备
CN112434746B (zh) 基于层次化迁移学习的预标注方法及其相关设备
CN110502236B (zh) 基于多尺度特征解码的前端代码生成方法、系统及设备
CN115982363A (zh) 基于提示学习的小样本关系分类方法、系统、介质及电子设备
CN112017660B (zh) 一种智能语音机器人的对话策略构建方法、装置及系统
CN114417891A (zh) 基于粗糙语义的回复语句确定方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 100000 Room D529, No. 501, Floor 5, Building 2, Fourth District, Wangjing Dongyuan, Chaoyang District, Beijing

Patentee after: Beijing Wuling Technology Co.,Ltd.

Address before: 100102 room 3602, 36 / F, building 101, building 13, District 4, Wangjing East Garden, Chaoyang District, Beijing

Patentee before: BEIJING LING TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20221228

Address after: 100000 Room 815, Floor 8, Building 6, Yard 33, Guangshun North Street, Chaoyang District, Beijing

Patentee after: Luka (Beijing) Intelligent Technology Co.,Ltd.

Address before: 100000 Room D529, No. 501, Floor 5, Building 2, Fourth District, Wangjing Dongyuan, Chaoyang District, Beijing

Patentee before: Beijing Wuling Technology Co.,Ltd.