CN110909541A - 指令生成方法、系统、设备和介质 - Google Patents

指令生成方法、系统、设备和介质 Download PDF

Info

Publication number
CN110909541A
CN110909541A CN201911089232.8A CN201911089232A CN110909541A CN 110909541 A CN110909541 A CN 110909541A CN 201911089232 A CN201911089232 A CN 201911089232A CN 110909541 A CN110909541 A CN 110909541A
Authority
CN
China
Prior art keywords
word
model
words
converting
word slot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911089232.8A
Other languages
English (en)
Inventor
郑永升
石磊
曹越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
According To Hangzhou Medical Technology Co Ltd
Original Assignee
According To Hangzhou Medical Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by According To Hangzhou Medical Technology Co Ltd filed Critical According To Hangzhou Medical Technology Co Ltd
Priority to CN201911089232.8A priority Critical patent/CN110909541A/zh
Publication of CN110909541A publication Critical patent/CN110909541A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及自然语言处理和人工智能技术领域,特别涉及指令生成方法、系统、设备和介质。本发明的方法包括:根据输入信息中的字的上下文信息将字转化为表征向量;将表征向量转化为词槽标签和意图;基于词槽标签和意图,生成指令。与静态的“字到向量”的映射关系相比,相同的字根据该字的上下文信息可以被转化为不同的表征向量,从而提供更加丰富的信息,并且可以再将该表征向量转化为更为准确的词槽标签和意图,从而提高指令生成系统整体的性能。

Description

指令生成方法、系统、设备和介质
技术领域
本发明涉及自然语言处理和人工智能技术领域,特别涉及指令生成方法、系统、设备和介质。
背景技术
现有的指令生成系统在文字表征阶段,使用一组静态的“字到向量”的映射关系,将输入信息中的字转化为表征向量。该组映射关系是通过随机初始化的或由无监督训练所得到的词嵌入(word embedding)模型而得到的。在通过由无监督训练所得到的词嵌入模型而得到的映射关系中,语义相近的字会被映射到相近的表征向量。
现有方案中所使用的映射关系,即使是通过由无监督训练所得到的词嵌入模型而得到的映射关系,也只能表达字的语义,而不能表达字在输入信息中的上下文信息。也就是说,无论在什么样的输入信息中,相同的字总是被映射到相同的表征向量。这会带来以下两个问题:
第一,不同上下文中相同的字可能表达不同的信息,例如对于“手”这个字,其可能表达的是医疗操作,诸如“手术”,也可能表达的是部位,诸如“手部”,如果对这些字使用相同的表征则会造成混淆。因此,在不同的上下文中将相同的字映射到相同的表征向量,会使得后续模型难以区分这些词汇,从而影响模型性能。
第二,模型的训练需要大量样本,样本量较少的场景可能使得模型的性能不足。由于静态的映射关系对输入信息所建立的表征失去了上下文信息,因此这就在一定程度上要求后续模型来学习对上下文进行建模,而这样的建模需要大量的样本,从而使得在训练样本较少的场景中,模型性能会受到较大的影响。
发明内容
本发明的目的在于提供指令生成方法、系统、设备和介质,根据输入信息中的字的上下文信息将字转化为表征向量,并且将表征向量转化为词槽标签和意图。与静态的“字到向量”的映射关系相比,相同的字根据该字的上下文信息可以被转化为不同的表征向量,从而提供更加丰富的信息,并且可以再将该表征向量转化为更为准确的词槽标签和意图,从而提高指令生成系统整体的性能。
本发明的实施方式公开了一种指令生成方法,包括:
根据输入信息中的字的上下文信息将所述字转化为表征向量;
将所述表征向量转化为词槽标签和意图;
基于所述词槽标签和所述意图,生成指令。
可选地,通过预训练语言模型来根据所述输入信息中的所述字的所述上下文信息将所述字转化为所述表征向量。
可选地,所述预训练语言模型包括以下中的一个:ELMo模型、BERT模型、XLNet模型和GPT模型。
可选地,所述预训练语言模型的训练样本为未标注的训练样本。
可选地,通过语言理解模型来将所述表征向量转化为所述词槽标签和所述意图。
本发明的实施方式公开了一种指令生成系统,包括:
第一转化单元,用于根据输入信息中的字的上下文信息将所述字转化为表征向量;
第二转化单元,用于将所述表征向量转化为词槽标签和意图;
生成单元,用于基于所述词槽标签和所述意图,生成指令。
可选地,所述第一转化单元包括预训练语言模型。
可选地,所述预训练语言模型包括以下中的一个:ELMo模型、BERT模型、XLNet模型和GPT模型。
本发明的实施方式公开了一种指令生成设备,所述设备包括存储有计算机可执行指令的存储器和处理器,所述处理器被配置为执行所述指令以实施指令生成方法,包括:
根据输入信息中的字的上下文信息将所述字转化为表征向量;
将所述表征向量转化为词槽标签和意图;
基于所述词槽标签和所述意图,生成指令。
本发明的实施方式公开了一种使用计算机程序编码的计算机存储介质,所述计算机程序包括指令,所述指令被一个以上的计算机执行以实施指令生成方法,包括:
根据输入信息中的字的上下文信息将所述字转化为表征向量;
将所述表征向量转化为词槽标签和意图;
基于所述词槽标签和所述意图,生成指令。
本发明实施方式与现有技术相比,主要区别及其效果在于:
本发明根据输入信息中的字的上下文信息将字转化为表征向量,并且将表征向量转化为词槽标签和意图。与静态的“字到向量”的映射关系相比,相同的字根据该字的上下文信息可以被转化为不同的表征向量,从而提供更加丰富的信息,并且可以再将该表征向量转化为更为准确的词槽标签和意图,从而提高指令生成系统整体的性能。
附图说明
图1示出根据本发明的计算设备的结构示意图;
图2示出根据本发明的第一实施方式的指令生成方法的流程图;
图3示出根据本发明的第二实施方式的指令生成系统的结构图。
具体实施方式
为使本发明实施例的目的和技术方案更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
根据本发明实施方式,提供了一种指令生成方法的实施方式,需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
本申请方式所提供的方法实施方式可以在计算设备中执行。图1是根据本发明的计算设备的结构示意图。如图1所示,计算设备100可以包括一个或多个(图中仅示出一个)处理器101(处理器101可以包括但不限于中央处理器CPU、图像处理器GPU、数字信号处理器DSP、微处理器MCU或可编程逻辑器件FPGA等的处理装置)、总线102、用于存储数据的存储器103、以及用于通信功能的通信接口104。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
存储器103可用于存储数据库、队列、应用软件的软件程序以及模块,如本发明实施方式中的指令生成方法对应的程序指令/模块,处理器101通过运行存储在存储器103内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的指令生成方法。存储器103可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器103可进一步包括相对于处理器101远程设置的存储器,这些远程存储器可以通过网络连接至计算设备100。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
通信接口104用于经由网络接收或者发送数据,网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。上述的网络具体实例可包括计算设备400的通信供应商提供的互联网。
在上述运行环境下,本发明提供了如图2所示的指令生成方法。该方法可以应用于上述计算设备100中,由计算设备100中的处理器101执行。计算设备100中安装有至少一个应用程序,本发明实施方式并不限定应用程序的种类,可以为系统类应用程序,也可以为软件类应用程序。
本发明的第一实施方式涉及一种指令生成方法。图2示出根据本发明的第一实施方式的指令生成方法的流程图。
如图2所示,方法200包括:
步骤202,根据输入信息中的字的上下文信息将字转化为表征向量;
步骤204,将表征向量转化为词槽标签和意图;
步骤206,基于词槽标签和意图,生成指令。
其中,输入信息包括由用户所输入的指令信息,诸如是语音指令信息和/或文字指令信息。对于语音指令信息,可以先将语音指令信息转化为文字指令信息,再进行步骤202的处理。对于文字指令信息,可以直接进行步骤202的处理。
其中,输入信息中的每个字出现的概率通常与该字前面的一个或多个字以及后面的一个或多个字相关,即每个字与该字在输入信息中的上下文信息相关。本发明根据输入信息中的每个字的上下文信息,将字转化为表征向量,并且将每个表征向量转化为词槽标签和意图。与静态的“字到向量”的映射关系相比,相同的字根据该字的上下文信息可以被转化为不同的表征向量,从而提供更加丰富的信息,并且可以再将该表征向量转化为更为准确的词槽标签和意图,从而提高指令生成系统整体的性能。
可选地,通过预训练语言模型来根据输入信息中的字的上下文信息将字转化为表征向量。
其中,预训练语言模型可以根据输入信息中的每个字的上下文信息,将字转化为表征向量。与静态的“字到向量”的映射关系相比,通过使用预训练语言模型,相同的字根据该字的上下文信息可以被转化为不同的表征向量,从而提供更加丰富的信息。
可选地,预训练语言模型包括以下中的一个:ELMo(Embeddings from LanguageModels)模型、BERT(Bidirectional Encoder Representations from Transformers)模型、XLNet模型和GPT(Generative Pre-Training)模型。
可以理解的是,预训练语言模型还可以包括其他模型,以根据输入信息中的字的上下文信息将字转化为表征向量,在此不受限制。
可选地,通过语言理解模型来将表征向量转化为词槽标签和意图。
其中,语言理解模型可以包括词槽标签分类器和意图分类器,可以分别将表征向量转化为词槽标签和意图。
例如,输入信息为由用户所输入的语音指令信息,该语音指令信息已经被转化为文字指令信息“你好我想挂呼吸科”。首先,通过预训练语言模型来根据输入信息中的字的上下文信息将字转化为表征向量。其次,通过语言理解模型来将表征向量转化为词槽标签和意图;其中,词槽和意图根据输入信息来确定,在上述的医院问询的场景中,词槽可以包括“科室”和“医生”等,并且意图可以包括“挂号”和“查询坐诊时间”等;可以使用IOB(in/out/begin)形式来表示词槽标签,即可以将多个表征向量转化为词槽标签的序列“O,O,O,O,O,B-科室,I-科室,I-科室”,其中O代表该字不属于任何词槽,B代表该字属于该词槽且是该词槽的第一个字,I代表该字属于该词槽且不是该词槽的第一个字,并且可以将多个表征向量转化为意图“挂号”。最后,基于词槽标签和意图,生成指令;其中,基于上述的词槽标签和意图,确定由输入信息所生成的指令是“挂号”,并且对应的科室是“呼吸科”,因此可以向医院的挂号系统发送该指令以进行“挂号呼吸科”的操作。
本发明将预训练语言模型和语言理解模型相结合,在指令生成系统的文字表征阶段,预训练语言模型代替了静态的“字到向量”的映射关系,可以基于输入信息中的字的上下文信息,对每个字的语义进行建模,从而生成表征向量,给语言理解模型提供更加丰富的信息,并且语言理解模型可以再将每个表征向量转化为更为准确的词槽标签和意图,从而提高指令生成系统整体的性能。
可选地,预训练语言模型的训练样本为未标注的训练样本。
其中,在训练中,预训练语言模型可以根据无标注的训练样本中的每个字前面的一个或多个字来预测该字,和/或根据无标注的训练样本中的每个字后面的一个或多个字来估计该字。可以理解的是,还可以以其他方式使用无标注的训练样本来训练预训练语言模型,在此不受限制。通过训练,预训练语言模型可以根据输入信息中的字的上下文信息将字转化为更适合的表征向量。
本发明的预训练语言模型并不需要使用标注的训练样本来训练,通常可以以无监督的方式来训练,这使得在预训练语言模型的训练中可以使用大量的易得的无标注的训练样本。预训练语言模型能够从大量的训练样本中学习到语言理解过程中的一般性的泛化性强的规律,并且将使用这些规律的能力迁移到语言理解模型中,使得整体的指令生成系统具有更强的泛化性,提升模型在训练样本较少的场景中的性能。
例如,在传统指令生成系统的情况下,假设“张医生”和“王医生”出现在语言理解模型的训练样本中,则语言理解模型后续再遇到这两个词就可以正确识别,但是由于“李医生”没有出现在训练样本中,因此语言理解模型就难以正确识别。由此可见,模型的识别能力非常依赖于训练样本,也因此在训练样本较少的场景中,模型性能较差。然而,由于预训练语言模型使用无标注的训练样本来训练,相对于训练语言理解模型所需的标注的训练样本,无标注的训练样本容易获得,数量更多,因此包含更丰富的语料,预训练语言模型有机会遇到多种姓氏和职位的组合,并且学习到这些组合的理解方式。因此,在加入了预训练语言模型之后,语言理解模型也获得了这样的理解能力,能够对训练样本以外的词汇进行正确的建模和推理,也就是说,语言理解模型的泛化能力通过预训练语言模型得到了提升。
本发明的第二实施方式涉及一种指令生成系统。图3示出根据本发明的第二实施方式的指令生成系统的结构图。
如图3所示,系统300包括:
第一转化单元302,用于根据输入信息中的字的上下文信息将字转化为表征向量;
第二转化单元304,用于将表征向量转化为词槽标签和意图;
生成单元306,用于基于词槽标签和意图,生成指令。
可选地,第一转化单元包括预训练语言模型。本实施例中,通过预训练语言模型来根据输入信息中的字的上下文信息将字转化为表征向量,对于预训练语言模型而言,其不需要使用标注的训练样本来训练,可以以无监督的方式来训练,使得在预训练语言模型的训练中可以使用大量的易得的无标注的训练样本,因此,预训练语言模型能够从大量的训练样本中学习到语言理解过程中的一般性的泛化性强的规律,并且可以将这些规律的能力迁移到第二转化单元,使得本实施例的指令生成系统具有更强的泛化性,进而提高指令生成系统的性能。
可选地,预训练语言模型包括以下中的一个:ELMo模型、BERT模型、XLNet模型和GPT模型。
可选地,预训练语言模型的训练样本为未标注的训练样本。
可选地,第二转化单元包括语言理解模型。
第一实施方式是与本实施方式相对应的方法实施方式,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
本发明的第三实施方式涉及一种指令生成设备,设备包括存储有计算机可执行指令的存储器和处理器,处理器被配置为执行指令以实施指令生成方法,包括:
根据输入信息中的字的上下文信息将字转化为表征向量;
将表征向量转化为词槽标签和意图;
基于词槽标签和意图,生成指令。
第一实施方式是与本实施方式相对应的方法实施方式,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
本发明的第四实施方式涉及一种使用计算机程序编码的计算机存储介质,计算机程序包括指令,指令被一个以上的计算机执行以实施指令生成方法,包括:
根据输入信息中的字的上下文信息将字转化为表征向量;
将表征向量转化为词槽标签和意图;
基于词槽标签和意图,生成指令。
第一实施方式是与本实施方式相对应的方法实施方式,本实施方式可与第一实施方式互相配合实施。第一实施方式中提到的相关技术细节在本实施方式中依然有效,为了减少重复,这里不再赘述。相应地,本实施方式中提到的相关技术细节也可应用在第一实施方式中。
需要说明的是,本发明的各方法实施方式均可以以软件、硬件、固件等方式实现。不管本发明是以软件、硬件、还是固件方式实现,指令代码都可以存储在任何类型的计算机可访问的存储器中(例如永久的或者可修改的,易失性的或者非易失性的,固态的或者非固态的,固定的或者可更换的介质等等)。同样,存储器可以例如是可编程阵列逻辑(Programmable Array Logic,简称“PAL”)、随机存取存储器(Random Access Memory,简称“RAM”)、可编程只读存储器(Programmable Read Only Memory,简称“PROM”)、只读存储器(Read-Only Memory,简称“ROM”)、电可擦除可编程只读存储器(Electrically ErasableProgrammable ROM,简称“EEPROM”)、磁盘、光盘、数字通用光盘(Digital Versatile Disc,简称“DVD”)等等。
需要说明的是,本发明各设备实施方式中提到的各单元/模块都是逻辑单元/模块,在物理上,一个逻辑单元可以是一个物理单元,也可以是一个物理单元的一部分,还可以以多个物理单元的组合实现,这些逻辑单元本身的物理实现方式并不是最重要的,这些逻辑单元所实现的功能的组合才是解决本发明所提出的技术问题的关键。此外,为了突出本发明的创新部分,本发明上述各设备实施方式并没有将与解决本发明所提出的技术问题关系不太密切的单元引入,这并不表明上述设备实施方式并不存在其它的单元。
需要说明的是,在本专利的权利要求和说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
虽然通过参照本发明的某些优选实施方式,已经对本发明进行了图示和描述,但本领域的普通技术人员应该明白,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。

Claims (10)

1.一种指令生成方法,其特征在于,包括:
根据输入信息中的字的上下文信息将所述字转化为表征向量;
将所述表征向量转化为词槽标签和意图;
基于所述词槽标签和所述意图,生成指令。
2.根据权利要求1所述的方法,其特征在于,通过预训练语言模型来根据所述输入信息中的所述字的所述上下文信息将所述字转化为所述表征向量。
3.根据权利要求2所述的方法,其特征在于,所述预训练语言模型包括以下中的一个:ELMo模型、BERT模型、XLNet模型和GPT模型。
4.根据权利要求2或3所述的方法,其特征在于,所述预训练语言模型的训练样本为未标注的训练样本。
5.根据权利要求1所述的方法,其特征在于,通过语言理解模型来将所述表征向量转化为所述词槽标签和所述意图。
6.一种指令生成系统,其特征在于,包括:
第一转化单元,用于根据输入信息中的字的上下文信息将所述字转化为表征向量;
第二转化单元,用于将所述表征向量转化为词槽标签和意图;
生成单元,用于基于所述词槽标签和所述意图,生成指令。
7.根据权利要求6所述的系统,其特征在于,所述第一转化单元包括预训练语言模型。
8.根据权利要求7所述的系统,其特征在于,所述预训练语言模型包括以下中的一个:ELMo模型、BERT模型、XLNet模型和GPT模型。
9.一种指令生成设备,其特征在于,所述设备包括存储有计算机可执行指令的存储器和处理器,所述处理器被配置为执行所述指令以实施指令生成方法,包括:
根据输入信息中的字的上下文信息将所述字转化为表征向量;
将所述表征向量转化为词槽标签和意图;
基于所述词槽标签和所述意图,生成指令。
10.一种使用计算机程序编码的计算机存储介质,其特征在于,所述计算机程序包括指令,
所述指令被一个以上的计算机执行以实施指令生成方法,包括:
根据输入信息中的字的上下文信息将所述字转化为表征向量;
将所述表征向量转化为词槽标签和意图;
基于所述词槽标签和所述意图,生成指令。
CN201911089232.8A 2019-11-08 2019-11-08 指令生成方法、系统、设备和介质 Pending CN110909541A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911089232.8A CN110909541A (zh) 2019-11-08 2019-11-08 指令生成方法、系统、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911089232.8A CN110909541A (zh) 2019-11-08 2019-11-08 指令生成方法、系统、设备和介质

Publications (1)

Publication Number Publication Date
CN110909541A true CN110909541A (zh) 2020-03-24

Family

ID=69817033

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911089232.8A Pending CN110909541A (zh) 2019-11-08 2019-11-08 指令生成方法、系统、设备和介质

Country Status (1)

Country Link
CN (1) CN110909541A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114023306A (zh) * 2022-01-04 2022-02-08 阿里云计算有限公司 用于预训练语言模型的处理方法和口语语言理解系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136352A (zh) * 2013-02-27 2013-06-05 华中师范大学 基于双层语义分析的全文检索系统
CN109597993A (zh) * 2018-11-30 2019-04-09 深圳前海微众银行股份有限公司 语句分析处理方法、装置、设备以及计算机可读存储介质
US20190132264A1 (en) * 2017-10-30 2019-05-02 International Business Machines Corporation Generation of a chatbot interface for an application programming interface
CN109871451A (zh) * 2019-01-25 2019-06-11 中译语通科技股份有限公司 一种融入动态词向量的关系抽取方法和系统
US20190294673A1 (en) * 2018-03-23 2019-09-26 Servicenow, Inc. Method and system for automated intent mining, classification and disposition
CN110309514A (zh) * 2019-07-09 2019-10-08 北京金山数字娱乐科技有限公司 一种语义识别方法及装置
CN110377716A (zh) * 2019-07-23 2019-10-25 百度在线网络技术(北京)有限公司 对话的交互方法、装置及计算机可读存储介质
CN110413746A (zh) * 2019-06-25 2019-11-05 阿里巴巴集团控股有限公司 对用户问题进行意图识别的方法及装置
CN110413756A (zh) * 2019-07-29 2019-11-05 北京小米智能科技有限公司 自然语言处理的方法、装置及设备

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136352A (zh) * 2013-02-27 2013-06-05 华中师范大学 基于双层语义分析的全文检索系统
US20190132264A1 (en) * 2017-10-30 2019-05-02 International Business Machines Corporation Generation of a chatbot interface for an application programming interface
US20190294673A1 (en) * 2018-03-23 2019-09-26 Servicenow, Inc. Method and system for automated intent mining, classification and disposition
CN109597993A (zh) * 2018-11-30 2019-04-09 深圳前海微众银行股份有限公司 语句分析处理方法、装置、设备以及计算机可读存储介质
CN109871451A (zh) * 2019-01-25 2019-06-11 中译语通科技股份有限公司 一种融入动态词向量的关系抽取方法和系统
CN110413746A (zh) * 2019-06-25 2019-11-05 阿里巴巴集团控股有限公司 对用户问题进行意图识别的方法及装置
CN110309514A (zh) * 2019-07-09 2019-10-08 北京金山数字娱乐科技有限公司 一种语义识别方法及装置
CN110377716A (zh) * 2019-07-23 2019-10-25 百度在线网络技术(北京)有限公司 对话的交互方法、装置及计算机可读存储介质
CN110413756A (zh) * 2019-07-29 2019-11-05 北京小米智能科技有限公司 自然语言处理的方法、装置及设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114023306A (zh) * 2022-01-04 2022-02-08 阿里云计算有限公司 用于预训练语言模型的处理方法和口语语言理解系统

Similar Documents

Publication Publication Date Title
WO2021082953A1 (zh) 机器阅读理解方法、设备、存储介质及装置
CN109033068B (zh) 基于注意力机制的用于阅读理解的方法、装置和电子设备
CN111222317B (zh) 序列标注方法、系统和计算机设备
CN104714931B (zh) 用于选择用以代表表格式信息的方法和系统
WO2023241410A1 (zh) 数据处理方法、装置、设备及计算机介质
WO2022142011A1 (zh) 一种地址识别方法、装置、计算机设备及存储介质
CN112131883B (zh) 语言模型训练方法、装置、计算机设备和存储介质
CN110472255B (zh) 神经网络机器翻译方法、模型、电子终端以及存储介质
CN110827929A (zh) 疾病分类编码识别方法、装置、计算机设备及存储介质
CN114298121B (zh) 基于多模态的文本生成方法、模型训练方法和装置
CN114676234A (zh) 一种模型训练方法及相关设备
WO2021120779A1 (zh) 一种基于人机对话的用户画像构建方法、系统、终端及存储介质
JP2021033995A (ja) テキスト処理装置、方法、デバイス及びコンピューター読み取り可能な記憶媒体
CN116257406A (zh) 用于智慧城市的网关数据管理方法及其系统
CN113836866B (zh) 文本编码方法、装置、计算机可读介质及电子设备
CN113743101B (zh) 文本纠错方法、装置、电子设备和计算机存储介质
US20190121953A1 (en) Deep Learning for Targeted Password Generation with Cognitive User Information Understanding
CN115293348A (zh) 一种多模态特征提取网络的预训练方法及装置
CN116484867A (zh) 命名实体识别方法及装置、存储介质、计算机设备
CN113553411B (zh) 查询语句的生成方法、装置、电子设备和存储介质
CN110909541A (zh) 指令生成方法、系统、设备和介质
CN113065027A (zh) 视频推荐的方法、装置、电子设备和存储介质
CN111967253A (zh) 一种实体消歧方法、装置、计算机设备及存储介质
CN109657250B (zh) 一种文本翻译方法、装置、设备及可读存储介质
CN115357710B (zh) 表格描述文本生成模型的训练方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200324