JP7224447B2 - 符号化方法、装置、機器およびプログラム - Google Patents
符号化方法、装置、機器およびプログラム Download PDFInfo
- Publication number
- JP7224447B2 JP7224447B2 JP2021516730A JP2021516730A JP7224447B2 JP 7224447 B2 JP7224447 B2 JP 7224447B2 JP 2021516730 A JP2021516730 A JP 2021516730A JP 2021516730 A JP2021516730 A JP 2021516730A JP 7224447 B2 JP7224447 B2 JP 7224447B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- phrase
- matrix
- vector
- paragraph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 72
- 239000013598 vector Substances 0.000 claims description 407
- 239000011159 matrix material Substances 0.000 claims description 214
- 230000015654 memory Effects 0.000 claims description 52
- 238000012545 processing Methods 0.000 claims description 40
- 230000009021 linear effect Effects 0.000 claims description 23
- 230000006870 function Effects 0.000 claims description 13
- 230000008569 process Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 13
- 238000003062 neural network model Methods 0.000 description 12
- 230000011218 segmentation Effects 0.000 description 9
- 230000002093 peripheral effect Effects 0.000 description 8
- 230000000306 recurrent effect Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 6
- 230000002457 bidirectional effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003672 processing method Methods 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000590419 Polygonia interrogationis Species 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000006993 memory improvement Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000009022 nonlinear effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/151—Transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Description
目標段落および目標段落のコンテキストの語句を取得して、目標段落およびコンテキストの語句を記憶符号化モデルに入力するステップであって、目標段落は、少なくとも1つの語句を含み、記憶符号化モデルは、少なくとも入力層、記憶層および出力層を含む、ステップと、
入力層において目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得するステップであって、オリジナルベクトル集合は、目標段落における各語句のそれぞれの語句ベクトルを含み、記憶ベクトル集合は、目標段落のコンテキストの語句における各単語のそれぞれの単語ベクトルを含む、ステップと、
記憶層においてオリジナルベクトル集合および記憶ベクトル集合に基づいてオリジナルベクトル集合の第1の目標語句行列を取得するステップであって、第1の目標語句行列は、オリジナルベクトル集合と記憶ベクトル集合との関連性に基づいて目標段落を記述するためのものである、ステップと、
出力層において第1の目標語句行列に基づいて目標段落の段落ベクトルを取得するステップと、
段落ベクトルに基づいて処理を行うステップと、を含む符号化方法を提供する。
目標段落および目標段落のコンテキストの語句を取得して、目標段落およびコンテキストの語句を記憶符号化モデルに入力するための取得モジュールであって、目標段落は、少なくとも1つの語句を含む取得モジュールと、
目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得するための入力層モジュールであって、オリジナルベクトル集合は、目標段落における各語句のそれぞれの語句ベクトルを含み、記憶ベクトル集合は、目標段落のコンテキストの語句における各単語のそれぞれの単語ベクトルを含む入力層モジュールと、
オリジナルベクトル集合および記憶ベクトル集合に基づいてオリジナルベクトル集合の第1の目標語句行列を取得するための記憶層モジュールであって、第1の目標語句行列は、オリジナルベクトル集合と記憶ベクトル集合との関連性に基づいて目標段落を記述する記憶層モジュールと、
第1の目標語句行列に基づいて目標段落の段落ベクトルを取得するための出力層モジュールと、
段落ベクトルに基づいて処理を行うための処理モジュールと、を備える符号化装置を提供する。
出力層103は、第1の目標語句行列に基づいて当該目標段落の段落ベクトルを取得する。
語句の分割過程については、目標段落において句点、疑問符、感嘆符などのような対応する語句が既に終了したことを表す句読点を取得して、取得した句読点に基づいて目標段落を分割することによって、目標段落における語句を得ることができる。
ただし、O’は第2の目標語句行列であり、Gは第1の重みであり、Xは目標段落のオリジナル語句行列であり、Oは第1の目標語句行列である。
目標段落の各語句における各段落のそれぞれの単語ベクトルに基づいて、語句符号化モデルによって各語句の語句ベクトルを取得して、オリジナルベクトル集合を取得する第1の取得部と、
コンテキストの語句における各単語のそれぞれの単語ベクトルに基づいて記憶ベクトル集合を取得する第2の取得部とを含む。
記憶モデルによって、記憶ベクトル集合に対応する第1の記憶行列および第2の記憶行列を取得するための記憶取得部と、
オリジナルベクトル集合、第1の記憶行列および第2の記憶行列に基づいてオリジナルベクトル集合の第1の目標語句行列を取得するための第1の目標取得部とを含む。
線形ネットワークモデルによって、オリジナルベクトル集合に対応する線形数値を取得して、予定関数によって線形数値を処理してオリジナルベクトル集合の第1の重みを得ることによって、第1の重みを予定数値範囲にあるようにするための第1の重み取得部と、
第1の重みに基づいて第1の目標語句行列の第2の重みを決定するための第2の重み取得部と、
第1の重みおよび第2の重みに基づいて、オリジナルベクトル集合と第1の目標語句行列とを重み付き加算して第2の目標語句行列を得る重み付き部とを含む。
第1の目標語句行列を列方向に加算して段落ベクトルを得るための列方向加算部を含む。
Claims (20)
- 符号化機器が実行する符号化方法であって、
目標段落および前記目標段落のコンテキストの語句を取得して、前記目標段落および前記コンテキストの語句を記憶符号化モデルに入力するステップであって、前記目標段落は、少なくとも1つの語句を含み、前記記憶符号化モデルは、少なくとも入力層、記憶層および出力層を含む、ステップと、
前記入力層において前記目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得するステップであって、前記オリジナルベクトル集合は、前記目標段落における各語句のそれぞれの語句ベクトルを含み、前記記憶ベクトル集合は、前記目標段落のコンテキストの語句における各単語のそれぞれの単語ベクトルを含む、ステップと、
前記記憶層において前記オリジナルベクトル集合および前記記憶ベクトル集合に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するステップであって、前記第1の目標語句行列は、前記オリジナルベクトル集合と前記記憶ベクトル集合との関連性に基づいて前記目標段落を記述するためのものである、ステップと、
前記出力層において前記第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するステップと、
前記段落ベクトルに基づいて処理を行うステップと、を含む、
ことを特徴とする符号化方法。 - 前記入力層は、語句符号化モデルを含み、
前記入力層において前記目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得する前記ステップは、
前記目標段落の各語句における各単語のそれぞれの単語ベクトルに基づいて、前記語句符号化モデルによって前記各語句のそれぞれの語句ベクトルを取得することによって、前記オリジナルベクトル集合を得るステップと、
前記コンテキストの語句における各単語のそれぞれの単語ベクトルに基づいて前記記憶ベクトル集合を取得するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記語句符号化モデルは、第1の語句符号化サブモデルと第2の語句符号化サブモデルとを含み、
前記目標段落の各語句における各単語のそれぞれの単語ベクトルに基づいて、前記語句符号化モデルによって前記各語句のそれぞれの語句ベクトルを取得することによって、前記オリジナルベクトル集合を得る前記ステップは、
前記目標段落における各語句に対して、前記語句における各単語のそれぞれの単語ベクトルを取得して複数の単語ベクトルを得るステップと、
前記第1の語句符号化サブモデルによって前記複数の単語ベクトルを正順に符号化して第1のベクトルを得、前記第2の語句符号化サブモデルによって前記複数の単語ベクトルを逆順に符号化して第2のベクトルを得るステップと、
前記第1のベクトルおよび前記第2のベクトルに基づいて前記語句の語句ベクトルを取得するステップと、を含む、
ことを特徴とする請求項2に記載の方法。 - 前記記憶層は、記憶モデルを含み、
前記記憶層において前記オリジナルベクトル集合および前記記憶ベクトル集合に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得する前記ステップは、
前記記憶モデルによって、前記記憶ベクトル集合に対応する第1の記憶行列および第2の記憶行列を取得するステップと、
前記オリジナルベクトル集合、前記第1の記憶行列および前記第2の記憶行列に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記記憶ベクトル集合は、前記オリジナルベクトル集合と同じであり、
前記オリジナルベクトル集合、前記第1の記憶行列および前記第2の記憶行列に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得する前記ステップは、
前記オリジナルベクトル集合と前記第1の記憶行列との類似性行列を取得するステップと、
前記類似性行列に対して確率分布演算を行うことによって確率行列を得るステップと、
前記第2の記憶行列および前記確率行列に基づいて前記第1の目標語句行列を取得するステップと、を含む、
ことを特徴とする請求項4に記載の方法。 - 前記記憶符号化モデルは、ゲーティング層をさらに含み、
前記出力層において前記第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得する前記ステップは、
前記ゲーティング層において前記オリジナルベクトル集合と前記第1の目標語句行列とを重み付け加算して第2の目標語句行列を得ることによって、前記第2の目標語句行列の各数値がそれぞれ予定数値範囲にあるようにするステップと、
前記出力層において前記第2の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するステップと、を含む、
ことを特徴とする請求項1に記載の方法。 - 前記ゲーティング層は、線形ネットワークモデルを含み、
前記ゲーティング層において前記オリジナルベクトル集合と前記第1の目標語句行列とを重み付け加算して第2の目標語句行列を得る前記ステップは、
前記オリジナルベクトル集合の第1の重みが予定数値範囲にあるように、前記線形ネットワークモデルによって前記オリジナルベクトル集合に対応する線形数値を取得し、予定関数によって前記線形数値を処理して前記第1の重みを得るステップと、
前記第1の重みに基づいて、前記第1の目標語句行列の第2の重みを確定するステップと、
前記第1の重みおよび前記第2の重みに従って、前記オリジナルベクトル集合と前記第1の目標語句行列とを重み付け加算して前記第2の目標語句行列を得るステップと、を含む、
ことを特徴とする請求項6に記載の方法。 - 前記出力層において前記第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得する前記ステップは、前記第1の目標語句行列を列方向に加算して前記段落ベクトルを得るステップを含む、
ことを特徴とする請求項1に記載の方法。 - 前記第1の目標語句行列を更新後のオリジナルベクトル集合および記憶ベクトル集合とし、前記記憶層において、繰り返し回数が所定の回数に達するまで、前記オリジナルベクトル集合および前記記憶ベクトル集合に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するステップを繰り返して実行した場合に、前記出力層において、現在の第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するステップをさらに含む、
ことを特徴とする請求項1乃至8のいずれか1項に記載の方法。 - 符号化機器に設けられる符号化装置であって、
目標段落および前記目標段落のコンテキストの語句を取得して、前記目標段落および前記コンテキストの語句を記憶符号化モデルに入力するための取得モジュールであって、前記目標段落は、少なくとも1つの語句を含む取得モジュールと、
前記目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得するための入力層モジュールであって、前記オリジナルベクトル集合は、前記目標段落における各語句のそれぞれの語句ベクトルを含み、前記記憶ベクトル集合は、前記目標段落のコンテキストの語句における各単語のそれぞれの単語ベクトルを含む入力層モジュールと、
前記オリジナルベクトル集合および前記記憶ベクトル集合に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するための記憶層モジュールであって、前記第1の目標語句行列は、前記オリジナルベクトル集合と前記記憶ベクトル集合との関連性に基づいて前記目標段落を記述する記憶層モジュールと、
前記第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するための出力層モジュールと、
前記段落ベクトルに基づいて処理を行うための処理モジュールと、を備える、
ことを特徴とする符号化装置。 - 前記入力層モジュールは、さらに、
前記目標段落の各語句における各単語のそれぞれの単語ベクトルに基づいて、語句符号化モデルによって前記各語句のそれぞれの語句ベクトルを取得することによって、前記オリジナルベクトル集合を得、
前記コンテキストの語句における各単語のそれぞれの単語ベクトルに基づいて前記記憶ベクトル集合を取得するために用いられる、
ことを特徴とする請求項10に記載の装置。 - 前記語句符号化モデルは、第1の語句符号化サブモデルと第2の語句符号化サブモデルとを含み、
前記入力層モジュールは、さらに、
前記目標段落における各語句に対して、前記語句における各単語のそれぞれの単語ベクトルを取得して複数の単語ベクトルを得、
前記第1の語句符号化サブモデルによって前記複数の単語ベクトルを正順に符号化して第1のベクトルを得、前記第2の語句符号化サブモデルによって前記複数の単語ベクトルを逆順に符号化して第2のベクトルを得、
前記第1のベクトルおよび前記第2のベクトルに基づいて前記語句の語句ベクトルを取得するために用いられる、
ことを特徴とする請求項11に記載の装置。 - 前記記憶層モジュールは、記憶モデルを含み、
前記記憶層モジュールは、
前記記憶モデルによって、前記記憶ベクトル集合に対応する第1の記憶行列および第2の記憶行列を取得するための記憶取得部と、
前記オリジナルベクトル集合、前記第1の記憶行列および前記第2の記憶行列に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するための第1の目標取得部とを含む、
ことを特徴とする請求項10に記載の装置。 - 前記記憶ベクトル集合は、前記オリジナルベクトル集合と同じであり、
前記第1の目標取得部は、
前記オリジナルベクトル集合と前記第1の記憶行列との類似性行列を取得し、
前記類似性行列に対して確率分布演算を行うことによって確率行列を得、
前記第2の記憶行列および前記確率行列に基づいて前記第1の目標語句行列を取得するために用いられる、
ことを特徴とする請求項13に記載の装置。 - ゲーティング層モジュールをさらに含み、
前記ゲーティング層モジュールは、前記オリジナルベクトル集合と前記第1の目標語句行列とを重み付け加算して第2の目標語句行列を得ることによって、前記第2の目標語句行列の各数値がそれぞれ予定数値範囲にあるようにするためのものであり、
前記出力層モジュールは、さらに、前記第2の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するために用いられる、
ことを特徴とする請求項10に記載の装置。 - 前記ゲーティング層モジュールは、
線形ネットワークモデルによって前記オリジナルベクトル集合に対応する線形数値を取得し、前記オリジナルベクトル集合の第1の重みが予定数値範囲にあるように、予定関数によって前記線形数値を処理して、前記第1の重みを取得し、
前記第1の重みに基づいて、前記第1の目標語句行列の第2の重みを決定し、
前記第1の重みおよび前記第2の重みに従って、前記オリジナルベクトル集合と前記第1の目標語句行列とを重み付け加算して前記第2の目標語句行列を得るために用いられる、
ことを特徴とする請求項15に記載の装置。 - 前記出力層モジュールは、さらに、前記第1の目標語句行列を列方向に加算して前記段落ベクトルを得るために用いられる、
ことを特徴とする請求項10に記載の装置。 - 前記記憶層モジュールは、さらに、前記第1の目標語句行列を更新後のオリジナルベクトル集合および記憶ベクトル集合とし、繰り返し回数が所定の回数に達するまで、前記オリジナルベクトル集合および前記記憶ベクトル集合に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するステップを繰り返して実行した場合に、現在の第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するように前記出力層モジュールに通知するために用いられる、
ことを特徴とする請求項10乃至17のいずれか1項に記載の装置。 - 1または複数のプロセッサと、1または複数のメモリとを備え、
前記1または複数のメモリには、前記1または複数のプロセッサがロードされ実行されることによって請求項1乃至9のいずれか1項に記載の符号化方法における動作を実現するための少なくとも1つのコンピュータ読取可能なコマンド、少なくとも1セグメントのプログラム、コードセット、またはコンピュータ読取可能なコマンドセットが記憶される、
ことを特徴とする符号化機器。 - 請求項1乃至9のいずれか1項に記載の符号化方法を1または複数のプロセッサに実行させるプログラムを記憶したコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910069752.6 | 2019-01-24 | ||
CN201910069752.6A CN110147533B (zh) | 2019-01-24 | 2019-01-24 | 编码方法、装置、设备及存储介质 |
PCT/CN2020/073376 WO2020151688A1 (zh) | 2019-01-24 | 2020-01-21 | 编码方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022502758A JP2022502758A (ja) | 2022-01-11 |
JP7224447B2 true JP7224447B2 (ja) | 2023-02-17 |
Family
ID=67588660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021516730A Active JP7224447B2 (ja) | 2019-01-24 | 2020-01-21 | 符号化方法、装置、機器およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11934788B2 (ja) |
JP (1) | JP7224447B2 (ja) |
CN (1) | CN110147533B (ja) |
WO (1) | WO2020151688A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110147533B (zh) | 2019-01-24 | 2023-08-29 | 腾讯科技(深圳)有限公司 | 编码方法、装置、设备及存储介质 |
CN111178082A (zh) * | 2019-12-05 | 2020-05-19 | 北京葡萄智学科技有限公司 | 一种句向量生成方法、装置及电子设备 |
CN111078851B (zh) * | 2019-12-09 | 2024-04-12 | 科大讯飞(苏州)科技有限公司 | 信息处理方法、装置、设备及可读存储介质 |
CN111753498B (zh) * | 2020-08-10 | 2024-01-26 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、设备及存储介质 |
CN114444471A (zh) * | 2022-03-09 | 2022-05-06 | 平安科技(深圳)有限公司 | 句子向量生成方法、装置、计算机设备及存储介质 |
CN115563933B (zh) * | 2022-09-19 | 2023-12-01 | 中国电信股份有限公司 | 词编码方法、装置、存储介质与电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106919646A (zh) | 2017-01-18 | 2017-07-04 | 南京云思创智信息科技有限公司 | 中文文本摘要生成系统及方法 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002169834A (ja) * | 2000-11-20 | 2002-06-14 | Hewlett Packard Co <Hp> | 文書のベクトル解析を行うコンピュータおよび方法 |
US9336192B1 (en) * | 2012-11-28 | 2016-05-10 | Lexalytics, Inc. | Methods for analyzing text |
JP6047247B2 (ja) | 2013-02-14 | 2016-12-21 | エルジー エレクトロニクス インコーポレイティド | 無線通信システムにおけるmbms情報報告方法及びそれをサポートする装置 |
US20160350653A1 (en) * | 2015-06-01 | 2016-12-01 | Salesforce.Com, Inc. | Dynamic Memory Network |
US11113598B2 (en) * | 2015-06-01 | 2021-09-07 | Salesforce.Com, Inc. | Dynamic memory network |
CN104915448B (zh) * | 2015-06-30 | 2018-03-27 | 中国科学院自动化研究所 | 一种基于层次卷积网络的实体与段落链接方法 |
US10664744B2 (en) * | 2015-10-13 | 2020-05-26 | Facebook, Inc. | End-to-end memory networks |
US10332508B1 (en) * | 2016-03-31 | 2019-06-25 | Amazon Technologies, Inc. | Confidence checking for speech processing and query answering |
WO2018057945A1 (en) * | 2016-09-22 | 2018-03-29 | nference, inc. | Systems, methods, and computer readable media for visualization of semantic information and inference of temporal signals indicating salient associations between life science entities |
CN107885756B (zh) * | 2016-09-30 | 2020-05-08 | 华为技术有限公司 | 基于深度学习的对话方法、装置及设备 |
KR101923780B1 (ko) * | 2016-12-19 | 2018-11-29 | 성균관대학교산학협력단 | 일관된 주제의 텍스트 생성 방법 및 이를 수행하는 텍스트 생성 장치 |
KR20180077691A (ko) * | 2016-12-29 | 2018-07-09 | 주식회사 엔씨소프트 | 문장 추상화 장치 및 방법 |
JP7066727B2 (ja) | 2017-02-03 | 2022-05-13 | テレフオンアクチーボラゲット エルエム エリクソン(パブル) | コンテキストフェッチなしの無線リソース制御再開 |
WO2018165932A1 (en) * | 2017-03-16 | 2018-09-20 | Microsoft Technology Licensing, Llc | Generating responses in automated chatting |
TWI753034B (zh) * | 2017-03-31 | 2022-01-21 | 香港商阿里巴巴集團服務有限公司 | 特徵向量的產生、搜索方法、裝置及電子設備 |
CN107229684B (zh) * | 2017-05-11 | 2021-05-18 | 合肥美的智能科技有限公司 | 语句分类方法、系统、电子设备、冰箱及存储介质 |
US10817650B2 (en) * | 2017-05-19 | 2020-10-27 | Salesforce.Com, Inc. | Natural language processing using context specific word vectors |
US10380259B2 (en) * | 2017-05-22 | 2019-08-13 | International Business Machines Corporation | Deep embedding for natural language content based on semantic dependencies |
CN107273487A (zh) * | 2017-06-13 | 2017-10-20 | 北京百度网讯科技有限公司 | 基于人工智能的聊天数据的生成方法、装置及计算机设备 |
US11200269B2 (en) * | 2017-06-15 | 2021-12-14 | Microsoft Technology Licensing, Llc | Method and system for highlighting answer phrases |
CN108280112B (zh) * | 2017-06-22 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 摘要生成方法、装置及计算机设备 |
CN107832310A (zh) * | 2017-11-27 | 2018-03-23 | 首都师范大学 | 基于seq2seq模型的结构化论点生成方法及系统 |
CN108614855A (zh) * | 2018-03-19 | 2018-10-02 | 众安信息技术服务有限公司 | 一种谣言识别方法 |
KR101929509B1 (ko) * | 2018-09-17 | 2018-12-14 | 서강대학교 산학협력단 | 형태소 합성 장치 및 방법 |
CN109241536B (zh) * | 2018-09-21 | 2020-11-06 | 浙江大学 | 一种基于深度学习自注意力机制的句子排序方法 |
CN110147532B (zh) * | 2019-01-24 | 2023-08-25 | 腾讯科技(深圳)有限公司 | 编码方法、装置、设备及存储介质 |
CN110147533B (zh) * | 2019-01-24 | 2023-08-29 | 腾讯科技(深圳)有限公司 | 编码方法、装置、设备及存储介质 |
-
2019
- 2019-01-24 CN CN201910069752.6A patent/CN110147533B/zh active Active
-
2020
- 2020-01-21 JP JP2021516730A patent/JP7224447B2/ja active Active
- 2020-01-21 WO PCT/CN2020/073376 patent/WO2020151688A1/zh active Application Filing
-
2021
- 2021-06-17 US US17/350,752 patent/US11934788B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106919646A (zh) | 2017-01-18 | 2017-07-04 | 南京云思创智信息科技有限公司 | 中文文本摘要生成系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
US11934788B2 (en) | 2024-03-19 |
CN110147533A (zh) | 2019-08-20 |
CN110147533B (zh) | 2023-08-29 |
WO2020151688A1 (zh) | 2020-07-30 |
JP2022502758A (ja) | 2022-01-11 |
US20210312137A1 (en) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7224447B2 (ja) | 符号化方法、装置、機器およびプログラム | |
EP3940638A1 (en) | Image region positioning method, model training method, and related apparatus | |
US11995556B2 (en) | Video retrieval method, and method and apparatus for generating video retrieval mapping relationship | |
CN112347795B (zh) | 机器翻译质量评估方法、装置、设备及介质 | |
CN107578014B (zh) | 信息处理装置及方法 | |
EP3637258A1 (en) | Data processing apparatus and method | |
CN112487182A (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN112069309B (zh) | 信息获取方法、装置、计算机设备及存储介质 | |
JP7324838B2 (ja) | 符号化方法並びにその、装置、機器及びコンピュータプログラム | |
CN114298053B (zh) | 一种基于特征和注意力机制融合的事件联合抽取系统 | |
JP7431977B2 (ja) | 対話モデルの訓練方法、装置、コンピュータ機器及びプログラム | |
CN109961041B (zh) | 一种视频识别方法、装置及存储介质 | |
CN110162604B (zh) | 语句生成方法、装置、设备及存储介质 | |
CN113421547B (zh) | 一种语音处理方法及相关设备 | |
US11816876B2 (en) | Detection of moment of perception | |
CN113948060A (zh) | 一种网络训练方法、数据处理方法及相关设备 | |
CN115512005A (zh) | 一种数据处理方法及其装置 | |
US20230281833A1 (en) | Facial image processing method and apparatus, device, and storage medium | |
CN115757692A (zh) | 一种数据处理方法及其装置 | |
CN116543076A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN117454954A (zh) | 模型训练方法、装置、计算机设备及存储介质 | |
CN111414737A (zh) | 故事生成模型训练方法、装置、设备及存储介质 | |
CN115866291A (zh) | 一种数据处理方法及其装置 | |
CN114333772A (zh) | 语音识别方法、装置、设备、可读存储介质及产品 | |
CN116306612A (zh) | 一种词句生成方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7224447 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |