JP2019511033A5 - - Google Patents

Download PDF

Info

Publication number
JP2019511033A5
JP2019511033A5 JP2018539314A JP2018539314A JP2019511033A5 JP 2019511033 A5 JP2019511033 A5 JP 2019511033A5 JP 2018539314 A JP2018539314 A JP 2018539314A JP 2018539314 A JP2018539314 A JP 2018539314A JP 2019511033 A5 JP2019511033 A5 JP 2019511033A5
Authority
JP
Japan
Prior art keywords
neural network
training
dependency analysis
text sequence
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018539314A
Other languages
English (en)
Other versions
JP2019511033A (ja
JP6789303B2 (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/US2017/023047 external-priority patent/WO2017161320A1/en
Publication of JP2019511033A publication Critical patent/JP2019511033A/ja
Publication of JP2019511033A5 publication Critical patent/JP2019511033A5/ja
Application granted granted Critical
Publication of JP6789303B2 publication Critical patent/JP6789303B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

POS出力レイヤ120は、入力テキストセグメント内の所与のトークンの特徴表現112を処理して、その所与のトークンについてのpart-of-speech割当てを定義する、その所与のトークンについてのPOSタグ122を定義する出力を生成するように構成される。具体的には、POS出力レイヤ120は、特徴表現112を処理して、POSタグの所定のセット内の各POSタグについてのそれぞれのスコアを生成するように構成されるsoftmaxまたは他の種類のニューラルネットワーク出力レイヤである。各スコアは、対応する品詞が入力テキストシーケンス内のトークンの品詞である可能性を表す。
システムは、1つまたは複数の初期ニューラルネットワークレイヤを通じて、入力テキストセグメント内のトークンのそれぞれについての特徴入力を処理する(ステップ204)。前述のように、初期ニューラルネットワークレイヤは、所与のトークンの特徴入力を処理して、トークンの品詞を決定する際に使用するために、すなわちPOSタグ出力レイヤによって処理するために、および入力テキストセグメントの係り受け解析を生成する際に使用するために、特徴表現、すなわち特徴の代替表現を生成するように構成される。

Claims (14)

1つまたは複数のコンピュータによって実装されるシステムであって、
入力テキストシーケンス内の各トークンについて、
前記トークンについての特徴入力を受け取り、
前記トークンについての前記特徴入力を集合的に処理して、前記入力テキストシーケンス内の前記トークンの品詞を決定する際に使用するための、前記特徴入力の代替表現を生成する
ように構成された1つまたは複数の初期ニューラルネットワークレイヤ
を備える第1のニューラルネットワークと、
前記1つまたは複数の初期ニューラルネットワークレイヤによって生成された前記入力テキストシーケンス内の前記トークンについての前記特徴の前記代替表現を処理して、前記代替表現を使用してパーサ状態を反復的に更新することによって前記入力テキストシーケンスの係り受け解析を生成する
ように構成された係り受け解析ニューラルネットワークと
を備えるシステム。
前記第1のニューラルネットワークが、
各トークンについて、
前記特徴入力の前記代替表現を受け取り、対応する品詞が前記入力テキストシーケンス内の前記トークンの前記品詞である可能性を表す、複数の品詞タグのそれぞれについてのそれぞれのスコアを生成する
ように構成された出力レイヤ
をさらに備える請求項1に記載のシステム。
前記係り受け解析ニューラルネットワークが状態ベースの係り受け解析ニューラルネットワークである請求項1または2に記載のシステム。
前記係り受け解析ニューラルネットワークが、現在のパーサ状態での特定の位置のトークンについての前記特徴入力の前記代替表現を処理することによって前記パーサ状態を更新することによって前記係り受け解析を生成するように構成される請求項3に記載のシステム。
前記係り受け解析ニューラルネットワークが、現在のパーサ状態での特定の位置のトークンについての前記特徴入力の前記代替表現を含む状態特徴入力を受け取り、前記状態特徴入力を処理して、複数のパーサ状態更新のそれぞれについてのそれぞれのスコアを生成するように構成される請求項4に記載のシステム。
前記係り受け解析ニューラルネットワークが、前記係り受け解析を生成する際に前記入力テキストシーケンス内の前記トークンの前記品詞を直接的に使用しない請求項1から5のいずれか一項に記載のシステム。
前記生成した係り受け解析を入力として使用して前記入力テキストセグメントを解析し、
前記解析した入力テキストセグメントに基づいて、前記入力テキストセグメントに応答する動作の実施を引き起こす
ように構成された自然言語処理システムを備える請求項1から6のいずれか一項に記載のシステム。
前記1つまたは複数のコンピュータによって実行されるとき、請求項1から7のいずれか一項に記載のニューラルネットワークシステムを前記1つまたは複数のコンピュータに実装させる命令と共に符号化された1つまたは複数のコンピュータ可読記憶媒体。
請求項2から7のいずれか一項に記載のシステムの前記第1のニューラルネットワークおよび前記係り受け解析ニューラルネットワークをトレーニングするための方法であって、
トレーニングテキストシーケンスと、各トレーニングテキストシーケンスについて、前記トレーニングテキストシーケンス内の各トークンについての品詞タグのそれぞれとを含む第1のトレーニングデータを得るステップと、
トレーニングテキストシーケンスと、各トレーニングテキストシーケンスについて、前記トレーニングテキストシーケンスの係り受け解析を定義するパーサ状態のセットとを含む第2のトレーニングデータを得るステップと、
前記第1および第2のトレーニングデータに関して前記第1のニューラルネットワークおよび前記係り受け解析ニューラルネットワークをトレーニングするステップを含み、トレーニングする前記ステップが、
前記第1のトレーニングデータからのトレーニング例上の前記第1のニューラルネットワークをトレーニングして、前記第1のニューラルネットワークのパラメータの値を更新するステップと、
前記係り受け解析ニューラルネットワークおよび前記第1のニューラルネットワークの前記初期ニューラルネットワークレイヤをトレーニングするステップであって、
前記第2のトレーニングデータからのトレーニング例について解析損失を決定することと、
前記係り受け解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤを通じて前記解析損失を逆伝播し、前記係り受け解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤのパラメータの値を更新することと
を含むステップと
を反復的に実施するステップを含む、方法。
反復的に実施する前記ステップが、
前記第1のニューラルネットワークの前記トレーニングを実施するステップと、前記第1および第2のトレーニングデータとは異なるトレーニング例に関して前記解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤの前記トレーニングとを実施するステップとを反復的に交替するステップ
を含む請求項9に記載の方法。
前記第2のトレーニングデータを得る前記ステップが、
前記第2のトレーニングデータ内の前記トレーニングテキストシーケンスのそれぞれについて、
前記トレーニングテキストシーケンスの前記係り受け解析を得るステップと、
前記係り受け解析を広げて、前記トレーニングテキストシーケンスの前記係り受け解析を定義するパーサ状態の前記セットを決定するステップと
を含む請求項9または10に記載の方法。
前記第1および第2のトレーニングデータに関して前記第1のニューラルネットワークおよび前記係り受け解析ニューラルネットワークをトレーニングする前記ステップが、
前記トレーニング動作を反復的に実施する前に、前記第1のニューラルネットワークを事前トレーニングするステップ
をさらに含む請求項9から11のいずれか一項に記載の方法。
1つまたは複数のコンピュータによって実行されるとき、請求項9から12のいずれか一項に記載の方法の動作を前記1つまたは複数のコンピュータに実施させる命令と共に符号化された1つまたは複数のコンピュータ可読記憶媒体。
1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータによって実行されるとき、請求項9から12のいずれか一項に記載の方法の動作を前記1つまたは複数のコンピュータに実施させる命令を記憶する1つまたは複数の記憶デバイスとを備えるシステム。
JP2018539314A 2016-03-18 2017-03-17 ニューラルネットワークを用いたテキストセグメントの係り受け解析の生成 Active JP6789303B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662310513P 2016-03-18 2016-03-18
US62/310,513 2016-03-18
PCT/US2017/023047 WO2017161320A1 (en) 2016-03-18 2017-03-17 Generating dependency parses of text segments using neural networks

Publications (3)

Publication Number Publication Date
JP2019511033A JP2019511033A (ja) 2019-04-18
JP2019511033A5 true JP2019511033A5 (ja) 2019-12-19
JP6789303B2 JP6789303B2 (ja) 2020-11-25

Family

ID=58547795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018539314A Active JP6789303B2 (ja) 2016-03-18 2017-03-17 ニューラルネットワークを用いたテキストセグメントの係り受け解析の生成

Country Status (6)

Country Link
US (1) US10878188B2 (ja)
EP (1) EP3394798A1 (ja)
JP (1) JP6789303B2 (ja)
KR (1) KR102201936B1 (ja)
CN (1) CN109313719B (ja)
WO (1) WO2017161320A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109558583A (zh) * 2017-09-27 2019-04-02 株式会社理光 一种自动生成文摘的方法、装置及设备
US10482162B2 (en) * 2017-11-30 2019-11-19 International Business Machines Corporation Automatic equation transformation from text
US10721190B2 (en) * 2018-07-31 2020-07-21 Microsoft Technology Licensing, Llc Sequence to sequence to classification model for generating recommended messages
CN110033091B (zh) 2018-12-13 2020-09-01 阿里巴巴集团控股有限公司 一种基于模型进行预测的方法和装置
RU2721190C1 (ru) * 2018-12-25 2020-05-18 Общество с ограниченной ответственностью "Аби Продакшн" Обучение нейронных сетей с использованием функций потерь, отражающих зависимости между соседними токенами
US10956474B2 (en) 2019-03-14 2021-03-23 Microsoft Technology Licensing, Llc Determination of best set of suggested responses
US11436486B2 (en) * 2019-08-19 2022-09-06 Advanced Micro Devices, Inc. Neural network internal data fast access memory buffer
CN110765243A (zh) * 2019-09-17 2020-02-07 平安科技(深圳)有限公司 自然语言处理系统的构建方法、电子装置及计算机设备
CN112800737A (zh) * 2019-10-29 2021-05-14 京东数字科技控股有限公司 自然语言文本生成方法和装置以及对话系统
CN111178039B (zh) * 2019-12-18 2023-05-09 北京明略软件系统有限公司 一种模型训练方法、装置、实现文本处理的方法及装置
CN111832315B (zh) * 2020-06-30 2024-04-30 北京小米松果电子有限公司 语义识别的方法、装置、电子设备和存储介质
CN111832316A (zh) * 2020-06-30 2020-10-27 北京小米松果电子有限公司 语义识别的方法、装置、电子设备和存储介质
CN112699665B (zh) * 2021-03-25 2021-08-27 北京智源人工智能研究院 一种安全报告文本的三元组抽取方法、装置及电子设备
CN113762445B (zh) * 2021-04-26 2023-11-07 重庆大学 一种基于装配式建筑的标识解析系统
CN113468878A (zh) * 2021-07-13 2021-10-01 腾讯科技(深圳)有限公司 词性标注方法、装置、电子设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03263266A (ja) 1990-03-14 1991-11-22 Fujitsu Ltd 未知語の品詞選択装置
US6076051A (en) * 1997-03-07 2000-06-13 Microsoft Corporation Information retrieval utilizing semantic representation of text
CN1313972A (zh) 1998-08-24 2001-09-19 Bcl计算机有限公司 自适应的自然语言接口
US7016828B1 (en) * 2000-10-23 2006-03-21 At&T Corp. Text-to-scene conversion
EP1680780A1 (en) * 2003-08-12 2006-07-19 Philips Intellectual Property & Standards GmbH Speech input interface for dialog systems
GB2428508B (en) * 2005-07-15 2009-10-21 Toshiba Res Europ Ltd Parsing method
US8700403B2 (en) * 2005-11-03 2014-04-15 Robert Bosch Gmbh Unified treatment of data-sparseness and data-overfitting in maximum entropy modeling
US7603330B2 (en) * 2006-02-01 2009-10-13 Honda Motor Co., Ltd. Meta learning for question classification
US8874434B2 (en) 2010-06-02 2014-10-28 Nec Laboratories America, Inc. Method and apparatus for full natural language parsing
US9454962B2 (en) * 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US8935151B1 (en) * 2011-12-07 2015-01-13 Google Inc. Multi-source transfer of delexicalized dependency parsers
CN102662931B (zh) * 2012-04-13 2015-03-25 厦门大学 一种基于协同神经网络的语义角色标注方法
CN102866989B (zh) * 2012-08-30 2016-09-07 北京航空航天大学 基于词语依存关系的观点抽取方法
US9507852B2 (en) * 2013-12-10 2016-11-29 Google Inc. Techniques for discriminative dependency parsing
WO2015116909A1 (en) * 2014-01-31 2015-08-06 Google Inc. Generating vector representations of documents
CN104049755B (zh) * 2014-06-18 2017-01-18 中国科学院自动化研究所 信息处理方法及装置
CN104575501B (zh) * 2015-01-19 2017-11-03 北京云知声信息技术有限公司 一种收音机语音操控指令解析方法及系统

Similar Documents

Publication Publication Date Title
JP2019511033A5 (ja)
KR102353284B1 (ko) 신경망을 사용하여 오디오 생성
JP6710745B2 (ja) バッチ正規化レイヤ
CN109313719B (zh) 使用神经网络生成文本段的依存性解析
CN105940395B (zh) 生成文档的矢量表示
EP3304437B1 (en) Whitened neural network layers
JP6611053B2 (ja) 主題推定システム、主題推定方法およびプログラム
US20160180215A1 (en) Generating parse trees of text segments using neural networks
JP6986569B2 (ja) ニューラル・ネットワークの更新管理のためのコンピュータ実装方法、コンピュータ・プログラム、およびコンピュータ処理システム
US20210182680A1 (en) Processing sequential interaction data
CN106897265B (zh) 词向量训练方法及装置
CN110663049A (zh) 神经网络优化器搜索
WO2019075267A1 (en) ARTIFICIAL NEURON NETWORK AUTO-SYNCHRONIZATION ACTIVATION LAYERS
CN113011155B (zh) 用于文本匹配的方法、装置、设备和存储介质
JP2022173453A (ja) ディープラーニングモデルのトレーニング方法、自然言語処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム
JP6506360B2 (ja) 教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラム
JP6770709B2 (ja) 機械学習用モデル生成装置及びプログラム。
CN107943788A (zh) 企业简称生成方法、装置及存储介质
CN113965313A (zh) 基于同态加密的模型训练方法、装置、设备以及存储介质
CN111950579A (zh) 分类模型的训练方法和训练装置
CN111241843B (zh) 基于复合神经网络的语义关系推断系统和方法
US10607277B2 (en) Automated product personalization based on mulitple sources of product information
CN114792097B (zh) 预训练模型提示向量的确定方法、装置及电子设备
CN114462350B (zh) 集成电路芯片验证方法、装置、电子设备及存储介质
CN115131709B (zh) 视频类别预测方法、视频类别预测模型的训练方法及装置