JP2019511033A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2019511033A5 JP2019511033A5 JP2018539314A JP2018539314A JP2019511033A5 JP 2019511033 A5 JP2019511033 A5 JP 2019511033A5 JP 2018539314 A JP2018539314 A JP 2018539314A JP 2018539314 A JP2018539314 A JP 2018539314A JP 2019511033 A5 JP2019511033 A5 JP 2019511033A5
- Authority
- JP
- Japan
- Prior art keywords
- neural network
- training
- dependency analysis
- text sequence
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000001537 neural Effects 0.000 claims description 33
- 238000000034 method Methods 0.000 claims description 6
- 230000000875 corresponding Effects 0.000 claims description 2
- 238000003058 natural language processing Methods 0.000 claims 1
- 230000001902 propagating Effects 0.000 claims 1
- 230000026676 system process Effects 0.000 description 1
Description
POS出力レイヤ120は、入力テキストセグメント内の所与のトークンの特徴表現112を処理して、その所与のトークンについてのpart-of-speech割当てを定義する、その所与のトークンについてのPOSタグ122を定義する出力を生成するように構成される。具体的には、POS出力レイヤ120は、特徴表現112を処理して、POSタグの所定のセット内の各POSタグについてのそれぞれのスコアを生成するように構成されるsoftmaxまたは他の種類のニューラルネットワーク出力レイヤである。各スコアは、対応する品詞が入力テキストシーケンス内のトークンの品詞である可能性を表す。
システムは、1つまたは複数の初期ニューラルネットワークレイヤを通じて、入力テキストセグメント内のトークンのそれぞれについての特徴入力を処理する(ステップ204)。前述のように、初期ニューラルネットワークレイヤは、所与のトークンの特徴入力を処理して、トークンの品詞を決定する際に使用するために、すなわちPOSタグ出力レイヤによって処理するために、および入力テキストセグメントの係り受け解析を生成する際に使用するために、特徴表現、すなわち特徴の代替表現を生成するように構成される。
Claims (14)
1つまたは複数のコンピュータによって実装されるシステムであって、
入力テキストシーケンス内の各トークンについて、
前記トークンについての特徴入力を受け取り、
前記トークンについての前記特徴入力を集合的に処理して、前記入力テキストシーケンス内の前記トークンの品詞を決定する際に使用するための、前記特徴入力の代替表現を生成する
ように構成された1つまたは複数の初期ニューラルネットワークレイヤ
を備える第1のニューラルネットワークと、
前記1つまたは複数の初期ニューラルネットワークレイヤによって生成された前記入力テキストシーケンス内の前記トークンについての前記特徴の前記代替表現を処理して、前記代替表現を使用してパーサ状態を反復的に更新することによって前記入力テキストシーケンスの係り受け解析を生成する
ように構成された係り受け解析ニューラルネットワークと
を備えるシステム。
入力テキストシーケンス内の各トークンについて、
前記トークンについての特徴入力を受け取り、
前記トークンについての前記特徴入力を集合的に処理して、前記入力テキストシーケンス内の前記トークンの品詞を決定する際に使用するための、前記特徴入力の代替表現を生成する
ように構成された1つまたは複数の初期ニューラルネットワークレイヤ
を備える第1のニューラルネットワークと、
前記1つまたは複数の初期ニューラルネットワークレイヤによって生成された前記入力テキストシーケンス内の前記トークンについての前記特徴の前記代替表現を処理して、前記代替表現を使用してパーサ状態を反復的に更新することによって前記入力テキストシーケンスの係り受け解析を生成する
ように構成された係り受け解析ニューラルネットワークと
を備えるシステム。
前記第1のニューラルネットワークが、
各トークンについて、
前記特徴入力の前記代替表現を受け取り、対応する品詞が前記入力テキストシーケンス内の前記トークンの前記品詞である可能性を表す、複数の品詞タグのそれぞれについてのそれぞれのスコアを生成する
ように構成された出力レイヤ
をさらに備える請求項1に記載のシステム。
各トークンについて、
前記特徴入力の前記代替表現を受け取り、対応する品詞が前記入力テキストシーケンス内の前記トークンの前記品詞である可能性を表す、複数の品詞タグのそれぞれについてのそれぞれのスコアを生成する
ように構成された出力レイヤ
をさらに備える請求項1に記載のシステム。
前記係り受け解析ニューラルネットワークが状態ベースの係り受け解析ニューラルネットワークである請求項1または2に記載のシステム。
前記係り受け解析ニューラルネットワークが、現在のパーサ状態での特定の位置のトークンについての前記特徴入力の前記代替表現を処理することによって前記パーサ状態を更新することによって前記係り受け解析を生成するように構成される請求項3に記載のシステム。
前記係り受け解析ニューラルネットワークが、現在のパーサ状態での特定の位置のトークンについての前記特徴入力の前記代替表現を含む状態特徴入力を受け取り、前記状態特徴入力を処理して、複数のパーサ状態更新のそれぞれについてのそれぞれのスコアを生成するように構成される請求項4に記載のシステム。
前記係り受け解析ニューラルネットワークが、前記係り受け解析を生成する際に前記入力テキストシーケンス内の前記トークンの前記品詞を直接的に使用しない請求項1から5のいずれか一項に記載のシステム。
前記生成した係り受け解析を入力として使用して前記入力テキストセグメントを解析し、
前記解析した入力テキストセグメントに基づいて、前記入力テキストセグメントに応答する動作の実施を引き起こす
ように構成された自然言語処理システムを備える請求項1から6のいずれか一項に記載のシステム。
前記解析した入力テキストセグメントに基づいて、前記入力テキストセグメントに応答する動作の実施を引き起こす
ように構成された自然言語処理システムを備える請求項1から6のいずれか一項に記載のシステム。
前記1つまたは複数のコンピュータによって実行されるとき、請求項1から7のいずれか一項に記載のニューラルネットワークシステムを前記1つまたは複数のコンピュータに実装させる命令と共に符号化された1つまたは複数のコンピュータ可読記憶媒体。
請求項2から7のいずれか一項に記載のシステムの前記第1のニューラルネットワークおよび前記係り受け解析ニューラルネットワークをトレーニングするための方法であって、
トレーニングテキストシーケンスと、各トレーニングテキストシーケンスについて、前記トレーニングテキストシーケンス内の各トークンについての品詞タグのそれぞれとを含む第1のトレーニングデータを得るステップと、
トレーニングテキストシーケンスと、各トレーニングテキストシーケンスについて、前記トレーニングテキストシーケンスの係り受け解析を定義するパーサ状態のセットとを含む第2のトレーニングデータを得るステップと、
前記第1および第2のトレーニングデータに関して前記第1のニューラルネットワークおよび前記係り受け解析ニューラルネットワークをトレーニングするステップを含み、トレーニングする前記ステップが、
前記第1のトレーニングデータからのトレーニング例上の前記第1のニューラルネットワークをトレーニングして、前記第1のニューラルネットワークのパラメータの値を更新するステップと、
前記係り受け解析ニューラルネットワークおよび前記第1のニューラルネットワークの前記初期ニューラルネットワークレイヤをトレーニングするステップであって、
前記第2のトレーニングデータからのトレーニング例について解析損失を決定することと、
前記係り受け解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤを通じて前記解析損失を逆伝播し、前記係り受け解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤのパラメータの値を更新することと
を含むステップと
を反復的に実施するステップを含む、方法。
トレーニングテキストシーケンスと、各トレーニングテキストシーケンスについて、前記トレーニングテキストシーケンス内の各トークンについての品詞タグのそれぞれとを含む第1のトレーニングデータを得るステップと、
トレーニングテキストシーケンスと、各トレーニングテキストシーケンスについて、前記トレーニングテキストシーケンスの係り受け解析を定義するパーサ状態のセットとを含む第2のトレーニングデータを得るステップと、
前記第1および第2のトレーニングデータに関して前記第1のニューラルネットワークおよび前記係り受け解析ニューラルネットワークをトレーニングするステップを含み、トレーニングする前記ステップが、
前記第1のトレーニングデータからのトレーニング例上の前記第1のニューラルネットワークをトレーニングして、前記第1のニューラルネットワークのパラメータの値を更新するステップと、
前記係り受け解析ニューラルネットワークおよび前記第1のニューラルネットワークの前記初期ニューラルネットワークレイヤをトレーニングするステップであって、
前記第2のトレーニングデータからのトレーニング例について解析損失を決定することと、
前記係り受け解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤを通じて前記解析損失を逆伝播し、前記係り受け解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤのパラメータの値を更新することと
を含むステップと
を反復的に実施するステップを含む、方法。
反復的に実施する前記ステップが、
前記第1のニューラルネットワークの前記トレーニングを実施するステップと、前記第1および第2のトレーニングデータとは異なるトレーニング例に関して前記解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤの前記トレーニングとを実施するステップとを反復的に交替するステップ
を含む請求項9に記載の方法。
前記第1のニューラルネットワークの前記トレーニングを実施するステップと、前記第1および第2のトレーニングデータとは異なるトレーニング例に関して前記解析ニューラルネットワークおよび前記初期ニューラルネットワークレイヤの前記トレーニングとを実施するステップとを反復的に交替するステップ
を含む請求項9に記載の方法。
前記第2のトレーニングデータを得る前記ステップが、
前記第2のトレーニングデータ内の前記トレーニングテキストシーケンスのそれぞれについて、
前記トレーニングテキストシーケンスの前記係り受け解析を得るステップと、
前記係り受け解析を広げて、前記トレーニングテキストシーケンスの前記係り受け解析を定義するパーサ状態の前記セットを決定するステップと
を含む請求項9または10に記載の方法。
前記第2のトレーニングデータ内の前記トレーニングテキストシーケンスのそれぞれについて、
前記トレーニングテキストシーケンスの前記係り受け解析を得るステップと、
前記係り受け解析を広げて、前記トレーニングテキストシーケンスの前記係り受け解析を定義するパーサ状態の前記セットを決定するステップと
を含む請求項9または10に記載の方法。
前記第1および第2のトレーニングデータに関して前記第1のニューラルネットワークおよび前記係り受け解析ニューラルネットワークをトレーニングする前記ステップが、
前記トレーニング動作を反復的に実施する前に、前記第1のニューラルネットワークを事前トレーニングするステップ
をさらに含む請求項9から11のいずれか一項に記載の方法。
前記トレーニング動作を反復的に実施する前に、前記第1のニューラルネットワークを事前トレーニングするステップ
をさらに含む請求項9から11のいずれか一項に記載の方法。
1つまたは複数のコンピュータによって実行されるとき、請求項9から12のいずれか一項に記載の方法の動作を前記1つまたは複数のコンピュータに実施させる命令と共に符号化された1つまたは複数のコンピュータ可読記憶媒体。
1つまたは複数のコンピュータと、前記1つまたは複数のコンピュータによって実行されるとき、請求項9から12のいずれか一項に記載の方法の動作を前記1つまたは複数のコンピュータに実施させる命令を記憶する1つまたは複数の記憶デバイスとを備えるシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662310513P | 2016-03-18 | 2016-03-18 | |
US62/310,513 | 2016-03-18 | ||
PCT/US2017/023047 WO2017161320A1 (en) | 2016-03-18 | 2017-03-17 | Generating dependency parses of text segments using neural networks |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2019511033A JP2019511033A (ja) | 2019-04-18 |
JP2019511033A5 true JP2019511033A5 (ja) | 2019-12-19 |
JP6789303B2 JP6789303B2 (ja) | 2020-11-25 |
Family
ID=58547795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018539314A Active JP6789303B2 (ja) | 2016-03-18 | 2017-03-17 | ニューラルネットワークを用いたテキストセグメントの係り受け解析の生成 |
Country Status (6)
Country | Link |
---|---|
US (1) | US10878188B2 (ja) |
EP (1) | EP3394798A1 (ja) |
JP (1) | JP6789303B2 (ja) |
KR (1) | KR102201936B1 (ja) |
CN (1) | CN109313719B (ja) |
WO (1) | WO2017161320A1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109558583A (zh) * | 2017-09-27 | 2019-04-02 | 株式会社理光 | 一种自动生成文摘的方法、装置及设备 |
US10482162B2 (en) * | 2017-11-30 | 2019-11-19 | International Business Machines Corporation | Automatic equation transformation from text |
US10721190B2 (en) * | 2018-07-31 | 2020-07-21 | Microsoft Technology Licensing, Llc | Sequence to sequence to classification model for generating recommended messages |
CN110033091B (zh) | 2018-12-13 | 2020-09-01 | 阿里巴巴集团控股有限公司 | 一种基于模型进行预测的方法和装置 |
RU2721190C1 (ru) * | 2018-12-25 | 2020-05-18 | Общество с ограниченной ответственностью "Аби Продакшн" | Обучение нейронных сетей с использованием функций потерь, отражающих зависимости между соседними токенами |
US10956474B2 (en) | 2019-03-14 | 2021-03-23 | Microsoft Technology Licensing, Llc | Determination of best set of suggested responses |
US11436486B2 (en) * | 2019-08-19 | 2022-09-06 | Advanced Micro Devices, Inc. | Neural network internal data fast access memory buffer |
CN110765243A (zh) * | 2019-09-17 | 2020-02-07 | 平安科技(深圳)有限公司 | 自然语言处理系统的构建方法、电子装置及计算机设备 |
CN112800737A (zh) * | 2019-10-29 | 2021-05-14 | 京东数字科技控股有限公司 | 自然语言文本生成方法和装置以及对话系统 |
CN111178039B (zh) * | 2019-12-18 | 2023-05-09 | 北京明略软件系统有限公司 | 一种模型训练方法、装置、实现文本处理的方法及装置 |
CN111832315B (zh) * | 2020-06-30 | 2024-04-30 | 北京小米松果电子有限公司 | 语义识别的方法、装置、电子设备和存储介质 |
CN111832316A (zh) * | 2020-06-30 | 2020-10-27 | 北京小米松果电子有限公司 | 语义识别的方法、装置、电子设备和存储介质 |
CN112699665B (zh) * | 2021-03-25 | 2021-08-27 | 北京智源人工智能研究院 | 一种安全报告文本的三元组抽取方法、装置及电子设备 |
CN113762445B (zh) * | 2021-04-26 | 2023-11-07 | 重庆大学 | 一种基于装配式建筑的标识解析系统 |
CN113468878A (zh) * | 2021-07-13 | 2021-10-01 | 腾讯科技(深圳)有限公司 | 词性标注方法、装置、电子设备及存储介质 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03263266A (ja) | 1990-03-14 | 1991-11-22 | Fujitsu Ltd | 未知語の品詞選択装置 |
US6076051A (en) * | 1997-03-07 | 2000-06-13 | Microsoft Corporation | Information retrieval utilizing semantic representation of text |
CN1313972A (zh) | 1998-08-24 | 2001-09-19 | Bcl计算机有限公司 | 自适应的自然语言接口 |
US7016828B1 (en) * | 2000-10-23 | 2006-03-21 | At&T Corp. | Text-to-scene conversion |
EP1680780A1 (en) * | 2003-08-12 | 2006-07-19 | Philips Intellectual Property & Standards GmbH | Speech input interface for dialog systems |
GB2428508B (en) * | 2005-07-15 | 2009-10-21 | Toshiba Res Europ Ltd | Parsing method |
US8700403B2 (en) * | 2005-11-03 | 2014-04-15 | Robert Bosch Gmbh | Unified treatment of data-sparseness and data-overfitting in maximum entropy modeling |
US7603330B2 (en) * | 2006-02-01 | 2009-10-13 | Honda Motor Co., Ltd. | Meta learning for question classification |
US8874434B2 (en) | 2010-06-02 | 2014-10-28 | Nec Laboratories America, Inc. | Method and apparatus for full natural language parsing |
US9454962B2 (en) * | 2011-05-12 | 2016-09-27 | Microsoft Technology Licensing, Llc | Sentence simplification for spoken language understanding |
US8935151B1 (en) * | 2011-12-07 | 2015-01-13 | Google Inc. | Multi-source transfer of delexicalized dependency parsers |
CN102662931B (zh) * | 2012-04-13 | 2015-03-25 | 厦门大学 | 一种基于协同神经网络的语义角色标注方法 |
CN102866989B (zh) * | 2012-08-30 | 2016-09-07 | 北京航空航天大学 | 基于词语依存关系的观点抽取方法 |
US9507852B2 (en) * | 2013-12-10 | 2016-11-29 | Google Inc. | Techniques for discriminative dependency parsing |
WO2015116909A1 (en) * | 2014-01-31 | 2015-08-06 | Google Inc. | Generating vector representations of documents |
CN104049755B (zh) * | 2014-06-18 | 2017-01-18 | 中国科学院自动化研究所 | 信息处理方法及装置 |
CN104575501B (zh) * | 2015-01-19 | 2017-11-03 | 北京云知声信息技术有限公司 | 一种收音机语音操控指令解析方法及系统 |
-
2017
- 2017-03-17 WO PCT/US2017/023047 patent/WO2017161320A1/en active Application Filing
- 2017-03-17 CN CN201780008760.9A patent/CN109313719B/zh active Active
- 2017-03-17 KR KR1020187021920A patent/KR102201936B1/ko active IP Right Grant
- 2017-03-17 JP JP2018539314A patent/JP6789303B2/ja active Active
- 2017-03-17 US US16/084,470 patent/US10878188B2/en active Active
- 2017-03-17 EP EP17717542.9A patent/EP3394798A1/en not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019511033A5 (ja) | ||
KR102353284B1 (ko) | 신경망을 사용하여 오디오 생성 | |
JP6710745B2 (ja) | バッチ正規化レイヤ | |
CN109313719B (zh) | 使用神经网络生成文本段的依存性解析 | |
CN105940395B (zh) | 生成文档的矢量表示 | |
EP3304437B1 (en) | Whitened neural network layers | |
JP6611053B2 (ja) | 主題推定システム、主題推定方法およびプログラム | |
US20160180215A1 (en) | Generating parse trees of text segments using neural networks | |
JP6986569B2 (ja) | ニューラル・ネットワークの更新管理のためのコンピュータ実装方法、コンピュータ・プログラム、およびコンピュータ処理システム | |
US20210182680A1 (en) | Processing sequential interaction data | |
CN106897265B (zh) | 词向量训练方法及装置 | |
CN110663049A (zh) | 神经网络优化器搜索 | |
WO2019075267A1 (en) | ARTIFICIAL NEURON NETWORK AUTO-SYNCHRONIZATION ACTIVATION LAYERS | |
CN113011155B (zh) | 用于文本匹配的方法、装置、设备和存储介质 | |
JP2022173453A (ja) | ディープラーニングモデルのトレーニング方法、自然言語処理方法及び装置、電子機器、記憶媒体及びコンピュータプログラム | |
JP6506360B2 (ja) | 教師データを生成する方法、学習済みモデルを生成する方法、学習済みモデル、コンピュータおよびプログラム | |
JP6770709B2 (ja) | 機械学習用モデル生成装置及びプログラム。 | |
CN107943788A (zh) | 企业简称生成方法、装置及存储介质 | |
CN113965313A (zh) | 基于同态加密的模型训练方法、装置、设备以及存储介质 | |
CN111950579A (zh) | 分类模型的训练方法和训练装置 | |
CN111241843B (zh) | 基于复合神经网络的语义关系推断系统和方法 | |
US10607277B2 (en) | Automated product personalization based on mulitple sources of product information | |
CN114792097B (zh) | 预训练模型提示向量的确定方法、装置及电子设备 | |
CN114462350B (zh) | 集成电路芯片验证方法、装置、电子设备及存储介质 | |
CN115131709B (zh) | 视频类别预测方法、视频类别预测模型的训练方法及装置 |