JP2021517316A - ニューラルネットワークのネットワーク表示生成方法及びその装置、コンピュータプログラム並びに機器 - Google Patents
ニューラルネットワークのネットワーク表示生成方法及びその装置、コンピュータプログラム並びに機器 Download PDFInfo
- Publication number
- JP2021517316A JP2021517316A JP2020551812A JP2020551812A JP2021517316A JP 2021517316 A JP2021517316 A JP 2021517316A JP 2020551812 A JP2020551812 A JP 2020551812A JP 2020551812 A JP2020551812 A JP 2020551812A JP 2021517316 A JP2021517316 A JP 2021517316A
- Authority
- JP
- Japan
- Prior art keywords
- sequence
- vector
- local
- display
- scalar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/47—Machine-assisted translation, e.g. using translation memory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Complex Calculations (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
入力シーケンスに対応するソース側のベクトル表示シーケンスを取得し、
前記ソース側のベクトル表示シーケンスに対して線形変換を行って、前記ソース側のベクトル表示シーケンスに対応する要求ベクトルシーケンス、キーベクトルシーケンス及び値ベクトルシーケンスをそれぞれ取得し、
前記要求ベクトルシーケンスと前記キーベクトルシーケンスとの間のロジック類似度を算出し、
前記要求ベクトルシーケンスに基づいて局所強化行列を構築し、
前記ロジック類似度及び前記局所強化行列に基づいて、非線形変換を行って、各前記要素に対応する局所的に強化されたアテンション重み分布を取得し、
前記アテンション重み分布に従って、前記値ベクトルシーケンスにおける値ベクトルを融合して、前記入力シーケンスに対応するネットワーク表示シーケンスを取得することを含む。
入力シーケンスに対応するソース側のベクトル表示シーケンスを取得するための取得モジュールと、
前記ソース側のベクトル表示シーケンスに対して線形変換を行って、前記ソース側のベクトル表示シーケンスに対応する要求ベクトルシーケンス、キーベクトルシーケンス及び値ベクトルシーケンスをそれぞれ取得するための線形変換モジュールと、
前記要求ベクトルシーケンスと前記キーベクトルシーケンスとの間のロジック類似度を算出するためのロジック類似度算出モジュールと、
前記要求ベクトルシーケンスに基づいて、局所強化行列を構築するための局所強化行列構築モジュールと、
前記ロジック類似度及び前記局所強化行列に基づいて、非線形変換を行って、各前記要素に対応する局所的に強化されたアテンション重み分布を取得するためのアテンション重み分布決定モジュールと、
前記アテンション重み分布に従って、前記値ベクトルシーケンスにおける値ベクトルを融合して、前記入力シーケンスに対応するネットワーク表示シーケンスを取得するための融合モジュールとを含む。
その中、KTはキーベクトルシーケンスKの転置行列を示し、dは入力シーケンスにおける各要素xiがソース側のベクトル表示ziに変換される次元であり、dはxiに対応するネットワーク表示の次元でもあり、ネットワーク隠れ状態ベクトルの次元でもあり、内積を減少し、算出速度を低減するために、上記の公式において
入力シーケンスにおけるi番目の要素xiに対応するアテンション重み分布が
1)コンピュータ機器は、第1のフィードフォワードニューラルネットワークにより、i番目の要素に対応する要求ベクトルqiを1つの隠れ状態にマッピングし、
取得モジュール1002は、入力シーケンスに対応するソース側のベクトル表示シーケンスを取得する。
1002 取得モジュール
1004 線形変換モジュール
1006 ロジック類似度算出モジュール
1008 局所強化行列構築モジュール
1010 アテンション重み分布決定モジュール
1012 融合モジュール
Claims (22)
- コンピュータ機器が実行するニューラルネットワークのネットワーク表示生成方法であって、
入力シーケンスに対応するソース側のベクトル表示シーケンスを取得するステップと、
前記ソース側のベクトル表示シーケンスに対して線形変換を行って、前記ソース側のベクトル表示シーケンスに対応する要求ベクトルシーケンス、キーベクトルシーケンス及び値ベクトルシーケンスをそれぞれ取得するステップと、
前記要求ベクトルシーケンスと前記キーベクトルシーケンスとの間のロジック類似度を算出するステップと、
前記要求ベクトルシーケンスに基づいて局所強化行列を構築するステップと、
前記ロジック類似度及び前記局所強化行列に基づいて、非線形変換を行って、各要素に対応する局所的に強化されたアテンション重み分布を取得するステップと、
前記アテンション重み分布に従って、前記値ベクトルシーケンスにおける値ベクトルを融合して、前記入力シーケンスに対応するネットワーク表示シーケンスを取得するステップと、を含む方法。 - 前記要求ベクトルシーケンスに基づいて局所強化行列を構築する前記ステップは、
前記要求ベクトルシーケンスに基づいて、各要素に対応する局所強化範囲の中心点を決定するステップと、
前記要求ベクトルシーケンスに基づいて、各要素に対応する局所強化範囲のウィンドウサイズを決定するステップと、
前記中心点、前記ウィンドウサイズに従って、各要素に対応する局所強化範囲を決定するステップと、
前記局所強化範囲に基づいて、2つずつの要素間の強弱関連を算出して、局所強化行列を取得するステップとを含むことを特徴とする請求項1に記載の方法。 - 前記要求ベクトルシーケンスに基づいて局所強化行列を構築する前記ステップは、
前記要求ベクトルシーケンスに基づいて、各要素に対応する局所強化範囲の中心点を決定するステップと、
前記キーベクトルシーケンスに基づいて、統一された局所強化範囲のウィンドウサイズを決定するステップと、
前記中心点、前記ウィンドウサイズに従って、各要素に対応する局所強化範囲を決定するステップと、
前記局所強化範囲に基づいて、2つずつの要素間の強弱関連を算出して、局所強化行列を取得するステップと、を含むことを特徴とする請求項1に記載の方法。 - 前記要求ベクトルシーケンスに基づいて、各要素に対応する局所強化範囲の中心点を決定する前記ステップは、
前記入力シーケンスにおける各要素について、第1のフィードフォワードニューラルネットワークにより前記要求ベクトルシーケンスにおける前記要素に対応する要求ベクトルを変換して、前記要素に対応する第1のスカラーを取得するステップと、
非線形変換関数により、前記第1のスカラーに対して非線形変換を行って、入力シーケンスの長さに比例する第2のスカラーを取得するステップと、
前記第2のスカラーを、前記要素に対応する局所強化範囲の中心点とするステップと、を含むことを特徴とする請求項2又は3に記載の方法。 - 前記要求ベクトルシーケンスに基づいて、各要素に対応する局所強化範囲のウィンドウサイズを決定する前記ステップは、
前記入力シーケンスにおける各要素について、第2のフィードフォワードニューラルネットワークにより、前記要求ベクトルシーケンスにおける前記要素に対応する要求ベクトルに対して線形変換を行って、前記要素に対応する第3のスカラーを取得するステップと、
非線形変換関数により、前記第3のスカラーに対して非線形変換を行って、入力シーケンスの長さに比例する第4のスカラーを取得するステップと、
前記第4のスカラーを、前記要素に対応する局所強化範囲のウィンドウサイズとするステップと、を含むことを特徴とする請求項2に記載の方法。 - 前記キーベクトルシーケンスに基づいて、統一された局所強化範囲のウィンドウサイズを決定する前記ステップは、
前記キーベクトルシーケンスにおける各キーベクトルを取得するステップと、
各前記キーベクトルの平均値を算出するステップと、
前記平均値に対して線形変換を行って、第5のスカラーを取得するステップと、
非線形変換関数により、前記第5のスカラーに対して非線形変換を行って、入力シーケンスの長さに比例する第6のスカラーを取得するステップと、
前記第6のスカラーを、統一された局所強化範囲のウィンドウサイズとするステップとを含むことを特徴とする請求項3に記載の方法。 - 前記中心点、前記ウィンドウサイズに従って、各要素に対応する局所強化範囲を決定する前記ステップは、
前記中心点をガウス分布の期待値として、前記ウィンドウサイズをガウス分布の分散とするステップと、
平均値及び前記分散に従って決定されたガウス分布に基づいて、局所強化範囲を決定するステップとを含み、
前記局所強化範囲に基づいて、2つずつの要素間の強弱関連を算出して、局所強化行列を取得する前記ステップは、
入力シーケンスにおける各前記要素の順序に従って、2つずつの要素間の強弱関連を順に並べて、局所強化行列を取得するステップを含み、2つずつの要素間の強弱関連は、以下の式により算出し、
- 前記ロジック類似度及び前記局所強化行列に基づいて、非線形変換を行って、各前記要素に対応する局所的に強化されたアテンション重み分布を取得する前記ステップは、
前記局所強化行列に基づいて前記ロジック類似度を修正して、局所的に強化されたロジック類似度を取得するステップと、
前記局所的に強化されたロジック類似度に対して正規化処理を行って、各前記要素に対応する局所的に強化されたアテンション重み分布を取得するステップとを含むことを特徴とする請求項1〜3のいずれか一項に記載の方法。 - 前記ソース側のベクトル表示シーケンスに対して線形変換を行って、前記ソース側のベクトル表示シーケンスに対応する要求ベクトルシーケンス、キーベクトルシーケンス及び値ベクトルシーケンスをそれぞれ取得する前記ステップは、
前記ソース側のベクトル表示シーケンスを複数セットの低次元のソース側のベクトル表示サブシーケンスに分割するステップと、
複数セットの異なるパラメータ行列に従って、各セットのソース側のベクトル表示サブシーケンスに対して異なる線形変換をそれぞれ行って、各セットのソース側のベクトル表示サブシーケンスに対応する要求ベクトルシーケンス、キーベクトルシーケンス及び値ベクトルシーケンスを取得するステップとを含み、
前記方法は、
各セットのソース側のベクトル表示サブシーケンスに対応するネットワーク表示サブシーケンスをスプライシングした後に線形変換を行って、出力のネットワーク表示シーケンスを取得するステップをさらに含むことを特徴とする請求項1〜3のいずれか一項に記載の方法。 - 前記方法は、
入力シーケンスに対応するネットワーク表示シーケンスを取得した後に、前記ネットワーク表示シーケンスを、新しいソース側のベクトル表示シーケンスとし、前記ソース側のベクトル表示シーケンスに対して線形変換を行って、前記ソース側のベクトル表示シーケンスに対応する要求ベクトルシーケンス、キーベクトルシーケンス及び値ベクトルシーケンスをそれぞれ取得する前記ステップに戻り実行を続け、ループ停止条件に達した場合最終的なネットワーク表示シーケンスを出力するステップをさらに含むことを特徴とする請求項1〜3のいずれか一項に記載の方法。 - ニューラルネットワークのネットワーク表示生成装置であって、
入力シーケンスに対応するソース側のベクトル表示シーケンスを取得するための取得モジュールと、
前記ソース側のベクトル表示シーケンスに対して線形変換を行って、前記ソース側のベクトル表示シーケンスに対応する要求ベクトルシーケンス、キーベクトルシーケンス及び値ベクトルシーケンスをそれぞれ取得するための線形変換モジュールと、
前記要求ベクトルシーケンスと前記キーベクトルシーケンスとの間のロジック類似度を算出するためのロジック類似度算出モジュールと、
前記要求ベクトルシーケンスに基づいて、局所強化行列を構築するための局所強化行列構築モジュールと、
前記ロジック類似度及び前記局所強化行列に基づいて、非線形変換を行って、各要素に対応する局所的に強化されたアテンション重み分布を取得するためのアテンション重み分布決定モジュールと、
前記アテンション重み分布に従って、前記値ベクトルシーケンスにおける値ベクトルを融合して、前記入力シーケンスに対応するネットワーク表示シーケンスを取得するための融合モジュールとを含むことを特徴とする装置。 - 前記局所強化行列構築モジュールは、さらに、
前記要求ベクトルシーケンスに基づいて、各要素に対応する局所強化範囲の中心点を決定し、前記要求ベクトルシーケンスに基づいて、各要素に対応する局所強化範囲のウィンドウサイズを決定し、前記中心点、前記ウィンドウサイズに従って、各要素に対応する局所強化範囲を決定し、前記局所強化範囲に基づいて、2つずつの要素間の強弱関連を算出して、局所強化行列を取得することを特徴とする請求項11に記載の装置。 - 前記局所強化行列構築モジュールは、さらに、
前記要求ベクトルシーケンスに基づいて、各要素に対応する局所強化範囲の中心点を決定し、前記キーベクトルシーケンスに基づいて、統一された局所強化範囲のウィンドウサイズを決定し、前記中心点、前記ウィンドウサイズに従って、各要素に対応する局所強化範囲を決定し、前記局所強化範囲に基づいて、2つずつの要素間の強弱関連を算出して、局所強化行列を取得することを特徴とする請求項11に記載の装置。 - 前記局所強化行列構築モジュールは、さらに、
前記入力シーケンスにおける各要素について、第1のフィードフォワードニューラルネットワークにより、前記要求ベクトルシーケンスにおける前記要素に対応する要求ベクトルを変換し、前記要素に対応する第1のスカラーを取得し、非線形変換関数により、前記第1のスカラーに対して非線形変換を行って、入力シーケンスの長さに比例する第2のスカラーを取得し、前記第2のスカラーを、前記要素に対応する局所強化範囲の中心点とすることを特徴とする請求項12又は13に記載の装置。 - 前記局所強化行列構築モジュールは、さらに、
前記入力シーケンスにおける各要素について、第2のフィードフォワードニューラルネットワークにより、前記要求ベクトルシーケンスにおける前記要素に対応する要求ベクトルに対して線形変換を行って、前記要素に対応する第3のスカラーを取得し、非線形変換関数により、前記第3のスカラーに対して非線形変換を行って、入力シーケンスの長さに比例する第4のスカラーを取得し、前記第4のスカラーを、前記要素に対応する局所強化範囲のウィンドウサイズとすることを特徴とする請求項12に記載の装置。 - 前記局所強化行列構築モジュールは、さらに、
前記キーベクトルシーケンスにおける各キーベクトルを取得し、各前記キーベクトルの平均値を算出し、前記平均値に対して線形変換を行って、第5のスカラーを取得し、非線形変換関数により、前記第5のスカラーに対して非線形変換を行って、入力シーケンスの長さに比例する第6のスカラーを取得し、前記第6のスカラーを、統一された局所強化範囲のウィンドウサイズとすることを特徴とする請求項13に記載の装置。 - 前記局所強化行列構築モジュールは、さらに、
前記中心点をガウス分布の期待値として、前記ウィンドウサイズをガウス分布の分散とし、平均値及び前記分散に従って決定されたガウス分布に基づいて、局所強化範囲を決定し、入力シーケンスにおける各前記要素の順序に従って、2つずつの要素間の強弱関連を順に並べて、局所強化行列を取得し、2つずつの要素間の強弱関連は以下の式により算出し、
- 前記アテンション重み分布決定モジュールは、さらに、
前記局所強化行列に基づいて、前記ロジック類似度を修正して、局所的に強化されたロジック類似度を取得し、前記局所的に強化されたロジック類似度に対して正規化処理を行って、各前記要素に対応する局所的に強化されたアテンション重み分布を取得することを特徴とする請求項11〜13のいずれか一項に記載の装置。 - 前記線形変換モジュールは、さらに、
前記ソース側のベクトル表示シーケンスを、複数セットの低次元のソース側のベクトル表示サブシーケンスに分割し、複数セットの異なるパラメータ行列に従って、各セットのソース側のベクトル表示サブシーケンスに対して異なる線形変換をそれぞれ行って、各セットのソース側のベクトル表示サブシーケンスに対応する要求ベクトルシーケンス、キーベクトルシーケンス及び値ベクトルシーケンスを取得し、
前記装置は、
各セットのソース側のベクトル表示サブシーケンスに対応するネットワーク表示サブシーケンスをスプライシングした後に線形変換を行って、出力のネットワーク表示シーケンスを取得するためのスプライシングモジュールをさらに含むことを特徴とする請求項11〜13のいずれか一項に記載の装置。 - 前記装置は、
入力シーケンスに対応するネットワーク表示シーケンスを取得した後に、前記ネットワーク表示シーケンスを、新しいソース側のベクトル表示シーケンスとし、前記ソース側のベクトル表示シーケンスに対して線形変換を行って、前記ソース側のベクトル表示シーケンスに対応する要求ベクトルシーケンス、キーベクトルシーケンス及び値ベクトルシーケンスをそれぞれ取得する前記ステップに戻り実行を続け、ループ停止条件に達した場合に最終的なネットワーク表示シーケンスを出力するためのループモジュールをさらに含むことを特徴とする請求項11〜13のいずれか一項に記載の装置。 - コンピュータ読み取り可能な記憶媒体であって、コンピュータプログラムを記憶しており、前記コンピュータプログラムがプロセッサによって実行される場合に、請求項1〜10のいずれか一項に記載の方法のステップを前記プロセッサに実行させる媒体。
- コンピュータ機器であって、メモリ及びプロセッサを含み、前記メモリにコンピュータプログラムが記憶され、前記コンピュータプログラムがプロセッサによって実行される場合に、請求項1〜10のいずれか一項に記載の方法のステップを前記プロセッサに実行させるコンピュータ機器。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811027795.XA CN109034378B (zh) | 2018-09-04 | 2018-09-04 | 神经网络的网络表示生成方法、装置、存储介质和设备 |
CN201811027795.X | 2018-09-04 | ||
PCT/CN2019/100212 WO2020048292A1 (zh) | 2018-09-04 | 2019-08-12 | 神经网络的网络表示生成方法、装置、存储介质和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021517316A true JP2021517316A (ja) | 2021-07-15 |
JP7098190B2 JP7098190B2 (ja) | 2022-07-11 |
Family
ID=64623896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020551812A Active JP7098190B2 (ja) | 2018-09-04 | 2019-08-12 | ニューラルネットワークのネットワーク表示生成方法及びその装置、コンピュータプログラム並びに機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11875220B2 (ja) |
EP (1) | EP3848856A4 (ja) |
JP (1) | JP7098190B2 (ja) |
CN (1) | CN109034378B (ja) |
WO (1) | WO2020048292A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109034378B (zh) * | 2018-09-04 | 2023-03-31 | 腾讯科技(深圳)有限公司 | 神经网络的网络表示生成方法、装置、存储介质和设备 |
CN109918630B (zh) * | 2019-01-23 | 2023-08-04 | 平安科技(深圳)有限公司 | 文本生成方法、装置、计算机设备及存储介质 |
CN110163339A (zh) * | 2019-03-06 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 神经网络中网络表示生成、编码方法和装置 |
CN110008482B (zh) * | 2019-04-17 | 2021-03-09 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、计算机可读存储介质和计算机设备 |
CN110276082B (zh) * | 2019-06-06 | 2023-06-30 | 百度在线网络技术(北京)有限公司 | 基于动态窗口的翻译处理方法和装置 |
CN110347790B (zh) * | 2019-06-18 | 2021-08-10 | 广州杰赛科技股份有限公司 | 基于注意力机制的文本查重方法、装置、设备及存储介质 |
CN110705273B (zh) * | 2019-09-02 | 2023-06-13 | 腾讯科技(深圳)有限公司 | 基于神经网络的信息处理方法及装置、介质和电子设备 |
US11875131B2 (en) * | 2020-09-16 | 2024-01-16 | International Business Machines Corporation | Zero-shot cross-lingual transfer learning |
CN112434527B (zh) * | 2020-12-03 | 2024-06-18 | 上海明略人工智能(集团)有限公司 | 一种关键词的确定方法、装置、电子设备及存储介质 |
CN112785848B (zh) * | 2021-01-04 | 2022-06-17 | 清华大学 | 一种交通数据预测方法以及系统 |
CN112967112B (zh) * | 2021-03-24 | 2022-04-29 | 武汉大学 | 一种自注意力机制和图神经网络的电商推荐方法 |
CN113392139B (zh) * | 2021-06-04 | 2023-10-20 | 中国科学院计算技术研究所 | 一种基于关联融合的环境监测数据补全方法及系统 |
CN113254592B (zh) * | 2021-06-17 | 2021-10-22 | 成都晓多科技有限公司 | 基于门机制的多级注意力模型的评论方面检测方法及系统 |
CN113378791B (zh) * | 2021-07-09 | 2022-08-05 | 合肥工业大学 | 基于双注意力机制和多尺度特征融合的宫颈细胞分类方法 |
CN113283235B (zh) * | 2021-07-21 | 2021-11-19 | 明品云(北京)数据科技有限公司 | 一种用户标签的预测方法及系统 |
CN113887325A (zh) * | 2021-09-10 | 2022-01-04 | 北京三快在线科技有限公司 | 一种模型训练方法、表情识别方法以及装置 |
CN113989343A (zh) * | 2021-10-31 | 2022-01-28 | 南京理工大学 | 基于注意力机制的传感器融合深度重建数据驱动方法 |
CN117180952B (zh) * | 2023-11-07 | 2024-02-02 | 湖南正明环保股份有限公司 | 多向气流料层循环半干法烟气脱硫系统及其方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09297112A (ja) * | 1996-03-08 | 1997-11-18 | Mitsubishi Heavy Ind Ltd | 構造パラメータ解析装置及び解析方法 |
US7496546B2 (en) * | 2003-03-24 | 2009-02-24 | Riken | Interconnecting neural network system, interconnecting neural network structure construction method, self-organizing neural network structure construction method, and construction programs therefor |
CN104765728B (zh) | 2014-01-08 | 2017-07-18 | 富士通株式会社 | 训练神经网络的方法和装置以及确定稀疏特征向量的方法 |
EP3141610A1 (en) * | 2015-09-12 | 2017-03-15 | Jennewein Biotechnologie GmbH | Production of human milk oligosaccharides in microbial hosts with engineered import / export |
CN106056526B (zh) * | 2016-05-26 | 2019-04-12 | 南昌大学 | 一种基于解析稀疏表示与压缩感知的图像加密算法 |
CN106096640B (zh) * | 2016-05-31 | 2019-03-26 | 合肥工业大学 | 一种多模式系统的特征降维方法 |
CN106339564B (zh) * | 2016-09-06 | 2017-11-24 | 西安石油大学 | 一种基于灰色关联聚类的射孔方案优选方法 |
CN106571135B (zh) * | 2016-10-27 | 2020-06-09 | 苏州大学 | 一种耳语音特征提取方法及系统 |
US11188824B2 (en) * | 2017-02-17 | 2021-11-30 | Google Llc | Cooperatively training and/or using separate input and subsequent content neural networks for information retrieval |
CN107025219B (zh) * | 2017-04-19 | 2019-07-26 | 厦门大学 | 一种基于内部语义层次结构的词嵌入表示方法 |
CN107180247A (zh) * | 2017-05-19 | 2017-09-19 | 中国人民解放军国防科学技术大学 | 基于选择性注意力卷积神经网络的关系分类器及其方法 |
CN107345860B (zh) * | 2017-07-11 | 2019-05-31 | 南京康尼机电股份有限公司 | 基于时间序列数据挖掘的轨道车辆门亚健康状态识别方法 |
GB2566257A (en) * | 2017-08-29 | 2019-03-13 | Sky Cp Ltd | System and method for content discovery |
CN107783960B (zh) * | 2017-10-23 | 2021-07-23 | 百度在线网络技术(北京)有限公司 | 用于抽取信息的方法、装置和设备 |
CN107797992A (zh) * | 2017-11-10 | 2018-03-13 | 北京百分点信息科技有限公司 | 命名实体识别方法及装置 |
CN108256172B (zh) * | 2017-12-26 | 2021-12-07 | 同济大学 | 一种顶管下穿既有箱涵过程中险情预警预报方法 |
CN108537822B (zh) * | 2017-12-29 | 2020-04-21 | 西安电子科技大学 | 基于加权置信度估计的运动目标跟踪方法 |
CN108334499B (zh) * | 2018-02-08 | 2022-03-18 | 海南云江科技有限公司 | 一种文本标签标注设备、方法和计算设备 |
CN108828533B (zh) * | 2018-04-26 | 2021-12-31 | 电子科技大学 | 一种类内样本相似结构保持非线性投影特征提取方法 |
CN109034378B (zh) * | 2018-09-04 | 2023-03-31 | 腾讯科技(深圳)有限公司 | 神经网络的网络表示生成方法、装置、存储介质和设备 |
-
2018
- 2018-09-04 CN CN201811027795.XA patent/CN109034378B/zh active Active
-
2019
- 2019-08-12 EP EP19857335.4A patent/EP3848856A4/en active Pending
- 2019-08-12 WO PCT/CN2019/100212 patent/WO2020048292A1/zh unknown
- 2019-08-12 JP JP2020551812A patent/JP7098190B2/ja active Active
-
2020
- 2020-10-13 US US17/069,609 patent/US11875220B2/en active Active
Non-Patent Citations (3)
Title |
---|
ASHISH VASWANI, ET AL.: ""Attention Is All You Need"", PROCEEDINGS OF 31ST CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS (NIPS 2017), JPN6022021246, 2017, pages 1 - 11, ISSN: 0004784755 * |
SHANG GAO, ET AL.: ""Hierarchical Convolutional Attention Networks for Text Classification"", PROCEEDINGS OF THE 3RD WORKSHOP ON REPRESENTATION LEARNING FOR NLP, JPN6022021248, 20 July 2018 (2018-07-20), pages 11 - 23, ISSN: 0004784757 * |
西田 京介(外1名): "「深層学習におけるアテンション技術の最新動向」", 電子情報通信学会誌, vol. 101, no. 6, JPN6022021247, 1 June 2018 (2018-06-01), JP, pages 591 - 596, ISSN: 0004784756 * |
Also Published As
Publication number | Publication date |
---|---|
JP7098190B2 (ja) | 2022-07-11 |
EP3848856A4 (en) | 2021-11-17 |
WO2020048292A1 (zh) | 2020-03-12 |
US20210042603A1 (en) | 2021-02-11 |
EP3848856A1 (en) | 2021-07-14 |
CN109034378B (zh) | 2023-03-31 |
US11875220B2 (en) | 2024-01-16 |
CN109034378A (zh) | 2018-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7098190B2 (ja) | ニューラルネットワークのネットワーク表示生成方法及びその装置、コンピュータプログラム並びに機器 | |
KR102180002B1 (ko) | 어텐션-기반의 시퀀스 변환 신경망 | |
WO2020088330A1 (en) | Latent space and text-based generative adversarial networks (latext-gans) for text generation | |
CN111061847A (zh) | 对话生成及语料扩充方法、装置、计算机设备和存储介质 | |
BR112020022270A2 (pt) | sistemas e métodos para unificar modelos estatísticos para diferentes modalidades de dados | |
CN114219076B (zh) | 量子神经网络训练方法及装置、电子设备和介质 | |
CN108665506B (zh) | 图像处理方法、装置、计算机存储介质及服务器 | |
WO2021196954A1 (zh) | 序列化数据处理方法和装置、文本处理方法和装置 | |
WO2023087656A1 (zh) | 图像生成方法及装置 | |
CN115017178B (zh) | 数据到文本生成模型的训练方法和装置 | |
CN110162783B (zh) | 用于语言处理的循环神经网络中隐状态的生成方法和装置 | |
CN110705273B (zh) | 基于神经网络的信息处理方法及装置、介质和电子设备 | |
CN112699215B (zh) | 基于胶囊网络与交互注意力机制的评级预测方法及系统 | |
CN116882369A (zh) | 基于增量学习的大语言模型、训练方法及文本生成方法 | |
CN112837673B (zh) | 基于人工智能的语音合成方法、装置、计算机设备和介质 | |
CN110555099B (zh) | 计算机执行的、利用神经网络进行语言处理的方法及装置 | |
CN110163339A (zh) | 神经网络中网络表示生成、编码方法和装置 | |
JP2021033994A (ja) | テキスト処理方法、装置、デバイス及びコンピュータ読み取り可能な記憶媒体 | |
JP7349811B2 (ja) | 訓練装置、生成装置及びグラフ生成方法 | |
CN114464267A (zh) | 模型训练与生成物预测的方法及装置 | |
CN112651494A (zh) | 用于线缆防缠绕预警的神经网络的训练方法 | |
CN111859939A (zh) | 文本匹配方法、系统和计算机设备 | |
CN111597829A (zh) | 翻译方法和装置、存储介质和电子设备 | |
CN116822632B (zh) | 一种文本数据的推理方法、装置、存储介质和电子设备 | |
CN114625888A (zh) | 关系抽取方法、装置、设备、存储介质及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200925 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220622 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7098190 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |