JP7224447B2 - 符号化方法、装置、機器およびプログラム - Google Patents

符号化方法、装置、機器およびプログラム Download PDF

Info

Publication number
JP7224447B2
JP7224447B2 JP2021516730A JP2021516730A JP7224447B2 JP 7224447 B2 JP7224447 B2 JP 7224447B2 JP 2021516730 A JP2021516730 A JP 2021516730A JP 2021516730 A JP2021516730 A JP 2021516730A JP 7224447 B2 JP7224447 B2 JP 7224447B2
Authority
JP
Japan
Prior art keywords
target
phrase
matrix
vector
paragraph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021516730A
Other languages
English (en)
Other versions
JP2022502758A (ja
Inventor
タン,イジャン
スン,シュオ
ツァオ,ジエ
ティエン,レェ
ニィウ,チョン
ジョウ,ジエ
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2022502758A publication Critical patent/JP2022502758A/ja
Application granted granted Critical
Publication of JP7224447B2 publication Critical patent/JP7224447B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/151Transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Description

本開示は、2019年01月24日に中国特許庁へ提出した出願番号が2019100697526であり、出願名称が「符号化方法、装置、機器および記憶媒体」である中国特許出願に基づいて優先権を要求し、その全ての内容は援用により本開示に組み込まれる。
本開示は、自然言語処理分野に関し、特に、符号化方法、装置、機器、および記憶媒体に関する。
符号化は、文字をコード値に変換することによって、当該テキストの意味を正確に記述できるベクトルを得る過程である。符号化は、文字を演算処理に便利なベクトル形式に変換することが可能であり、語句の抽出、語句の生成などの様々な分野で広く活用されている。
従来、複数の語句からなる目標段落を符号化しようとする場合、目標段落の各語句における各単語の単単語ベクトルを取得する階層符号化が提案されている。目標段落における各語句について、単語階層の第1の符号化モデルに基づいてこの語句における単語のそれぞれの単語ベクトルを1つのベクトルに符号化することによって、この語句の語句ベクトルを得て、さらに目標段落における複数の語句の語句ベクトルを得る。そして、語句階層の第2の符号化モデルに基づいて、この複数の語句の語句ベクトルを1つのベクトルに符号化することによって、目標段落の段落ベクトルを得る。
上記の方案では、シリアル方式で目標段落における語句のそれぞれの単語ベクトルを順次に符号化して、シリアル方式で複数の語句ベクトルを符号化することしかできないので、符号化速度が遅くなる。
本開示の種々の実施例によれば、符号化方法、装置、機器、および記憶媒体を提供する。
本開示は、具体的には、以下の技術案を講じる。
本開示によれば、符号化機器が実行する符号化方法であって、
目標段落および目標段落のコンテキストの語句を取得して、目標段落およびコンテキストの語句を記憶符号化モデルに入力するステップであって、目標段落は、少なくとも1つの語句を含み、記憶符号化モデルは、少なくとも入力層、記憶層および出力層を含む、ステップと、
入力層において目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得するステップであって、オリジナルベクトル集合は、目標段落における各語句のそれぞれの語句ベクトルを含み、記憶ベクトル集合は、目標段落のコンテキストの語句における各単語のそれぞれの単語ベクトルを含む、ステップと、
記憶層においてオリジナルベクトル集合および記憶ベクトル集合に基づいてオリジナルベクトル集合の第1の目標語句行列を取得するステップであって、第1の目標語句行列は、オリジナルベクトル集合と記憶ベクトル集合との関連性に基づいて目標段落を記述するためのものである、ステップと、
出力層において第1の目標語句行列に基づいて目標段落の段落ベクトルを取得するステップと、
段落ベクトルに基づいて処理を行うステップと、を含む符号化方法を提供する。
また、本開示によれば、符号化機器に設けられる符号化装置であって、
目標段落および目標段落のコンテキストの語句を取得して、目標段落およびコンテキストの語句を記憶符号化モデルに入力するための取得モジュールであって、目標段落は、少なくとも1つの語句を含む取得モジュールと、
目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得するための入力層モジュールであって、オリジナルベクトル集合は、目標段落における各語句のそれぞれの語句ベクトルを含み、記憶ベクトル集合は、目標段落のコンテキストの語句における各単語のそれぞれの単語ベクトルを含む入力層モジュールと、
オリジナルベクトル集合および記憶ベクトル集合に基づいてオリジナルベクトル集合の第1の目標語句行列を取得するための記憶層モジュールであって、第1の目標語句行列は、オリジナルベクトル集合と記憶ベクトル集合との関連性に基づいて目標段落を記述する記憶層モジュールと、
第1の目標語句行列に基づいて目標段落の段落ベクトルを取得するための出力層モジュールと、
段落ベクトルに基づいて処理を行うための処理モジュールと、を備える符号化装置を提供する。
さらに、本開示によれば、1または複数のプロセッサと、1または複数のメモリとを備え、当該1または複数のメモリには、1または複数のプロセッサがロードされ実行されることによって上記の符号化方法における動作を実現するための少なくとも1つのコンピュータ読取可能なコマンド、少なくとも1セグメントのプログラム、コードセット、またはコンピュータ読取可能なコマンドセットが記憶される符号化機器を提供する。
さらに、本開示によれば、1または複数のプロセッサがロードされ実行されることによって上記の符号化方法における動作を実現するための少なくとも1つのコンピュータ読取可能なコマンド、少なくとも1セグメントのプログラム、コードセット、またはコンピュータ読取可能なコマンドセットが記憶されるコンピュータ読取可能な記憶媒体を提供する。
なお、本開示の1または複数の実施例について、下記の図面および明細書に詳細に説明する。また、本開示の他の特徴、目的および利点は、本開示の明細書、図面および特許請求の範囲によってより顕著になろう。
以下、本開示の実施例の技術手段をより明瞭に説明するために、実施例の説明に必要な図面を簡単に説明するが、以下に説明する図面は、本開示のいくつかの実施例に関するものに過ぎなく、当業者にとっては、進歩性のある労働をすることなくこれらの図面に基づいて他の図面を得ることができることは明らかなことである。
本開示の実施例が提供する記憶符号化モデルの構成を示す図である。 本開示の実施例が提供する他の記憶符号化モデルの構成を示す図である。 本開示の実施例が提供する符号化方法を示すフローチャートである。 本開示の実施例が提供する語句符号化モデルの構成を示す図である。 本開示の実施例が提供する語句符号化モデルのフローを示す図である。 本開示の実施例が提供する記憶符号化モデルの構成を示す図である。 本開示の実施例が提供する記憶層の構成を示す図である。 本開示の実施例によるゲーティング層の構成を示す図である。 本開示の実施例が提供する記憶符号化モデルの構成を示す図である。 本開示の実施例が提供する記憶符号化モデルの構成を示す図である。 本開示の実施例が提供する符号化装置の構成を示す図である。 本開示の実施例が提供する端末の構成を示すブロック図である。 本開示の実施例が提供するサーバの構成を示す図である。
以下、本開示の目的、技術手段および利点をより明確にするために、本開示の実施例について図面を参照しながらさらに詳細に説明する。
本開示の実施例は、記憶符号化モデルを提供し、目標段落および目標段落のコンテキストの語句を取得して記憶符号化モデルに入力し、当該記憶符号化モデルによってこの目標段落を符号化してこの目標段落の段落ベクトルを得ることができるので、段落ベクトルに基づいて処理を行うことができる。符号化過程では、目標段落における各語句をそれぞれシリアル方式で符号化する必要がなく、目標段落を単位として、この記憶符号化モデルによって1回だけで目標段落を符号化することができる。そして、目標段落における各語句の意味だけではなく、目標段落における語句と目標段落のコンテキストの語句との関連性も考慮するので、取得した段落ベクトルは、目標段落の意味をより正確に表現することができ、段落ベクトルに基づいて処理を行う場合に正確性を向上させることができる。
図1に示すように、この記憶符号化モデルは、入力層101、記憶層102および出力層103を含み、入力層101は記憶層102に接続され、記憶層102は出力層103に接続されている。
入力層101は、目標段落における語句のそれぞれに基づいて語句の意味を表す語句ベクトルを抽出することによって、当該目標段落のオリジナルベクトル集合を取得して、オリジナルベクトル集合を記憶層102に入力する。また、入力層101は、さらに、目標段落のコンテキストの語句における各単語に基づいて各単語のそれぞれの単語ベクトルを取得して、取得した複数の単語ベクトルを記憶ベクトル集合として組み合わせて記憶層102に入力する。記憶層102は、入力されたオリジナルベクトル集合および記憶ベクトル集合に基づいて第1の目標語句行列を取得して、第1の目標語句行列を出力層103に入力する。
出力層103は、第1の目標語句行列に基づいて当該目標段落の段落ベクトルを取得する。
また、記憶層102は、注意力学習機構を採用しており、記憶ベクトル集合に基づいてオリジナルベクトル集合への影響が大きい関連情報を抽出することができるため、目標段落における語句とそのコンテキストの語句との関連性を考慮して、より正確な段落ベクトルを取得することができる。
また、1つの実施例では、図2に示すように、当該記憶符号化モデルは、ゲーティング層104をさらに含む。入力層101は、記憶層102およびゲーティング層104に接続され、記憶層102は、ゲーティング層104に接続され、ゲーティング層104は、出力層103に接続されている。すなわち、本開示の実施例は、GSMN(Gated Self-attentive Memory Network)モデルを提供する。
記憶層102は、第1の目標語句行列を得てゲーティング層104に入力し、ゲーティング層104は、オリジナルベクトル集合と第1の目標行列とを重み付け加算することによって第2の目標語句行列を得て、第2の目標語句行列を出力層103に入力し、出力層103は、第2の目標語句行列に基づいて当該目標段落の段落ベクトルを取得する。
また、1つの実施例では、当該記憶ネットワークモデルは、ゲーティング層104から出力された第2の目標語句行列を記憶層102のオリジナルベクトル集合および記憶ベクトル集合として記憶層102に再入力するように、繰り返し回数が所定の回数に達するまで、記憶層102およびゲーティング層104を繰り返して動作させた後、現在の目標語句行列を出力層103に入力して、目標段落の段落ベクトルを得るようになっている。繰り返し回数は、2回または3回であってもよく、または他の数値であってもよい。
本開示の実施例は、いずれかの段落を符号化する場面に適用することができる。
例えば、インテリジェント対話の場面では、ユーザはチャットロボットと対話すると、チャットロボットは、ユーザが入力したテキストメッセージを目標段落として取得し、本開示の実施例が提供する方法によって目標段落を符号化して段落ベクトルを取得し、この段落ベクトルをチャットデータベースにおける複数の応答メッセージのベクトルとマッチングして、そのベクトルが当該段落ベクトルとマッチングする応答メッセージを得てユーザに提示することができ、ユーザがチャットロボットと対話するという効果を奏することができる。
符号化過程ではユーザが入力したテキストメッセージおよびこのテキストメッセージのコンテキストの語句を考慮するため、生成した段落ベクトルは正確であり、チャットロボットに、ユーザが表現しようとしている意味をよりよく理解させることができる。また、当該段落ベクトルに基づいてよりマッチングする応答メッセージを取得することができるので、ユーザが入力したテキストメッセージに対して、ユーザのニーズにより合致する応答を与えることができ、対話効果を高めることができる。
あるいは、テキスト分類の場面では、分類する目標段落を取得して、本開示の実施例が提供する方法によって目標段落を符号化して段落ベクトルを取得し、この段落ベクトルに基づいて分類することによって、この目標段落が所属する類別を特定することができる。
符号化過程では目標段落のコンテキストの語句を考慮するため、生成した段落ベクトルは正確であり、目標段落の意味をよりよく理解することができ、この段落ベクトルに基づいて分類することによって、分類の正確性を向上させることができる。
あるいは、段落選択の場面では、選択候補とする複数の目標段落を取得して、本開示の実施例が提供する方法によって各目標段落をそれぞれ符号化して段落ベクトルを取得し、複数の目標段落の段落ベクトルに基づいて、複数の目標段落から所望の目標段落を選択する。
符号化過程では目標段落のコンテキストの語句を考慮するため、生成した段落ベクトルは正確であり、目標段落の意味をよりよく理解することができ、段落ベクトルに基づいて選択することによって、所望の目標段落を選択し、選択ミスの問題を回避することができる。
また、本開示の実施例が提供する方法は、上記の場面に加えて、閲読理解等の他の場面にも適用することができるが、本開示の実施例ではこれに対して限定されない。
図3は、本開示の実施例が提供する符号化方法を示すフローチャートである。本開示の実施例では、記憶符号化モデルによって目標段落を符号化する過程を説明し、その実行本体は、符号化機器であり、当該符号化機器は、サーバであってもよいし、または携帯電話、コンピュータ等の端末であってもよい。当該方法は、図3に示すように、以下のようなステップを含む。
ステップ300において、目標段落および目標段落のコンテキストの語句を取得して、目標段落およびそのコンテキストの語句を記憶符号化モデルに入力する。
当該目標段落は、少なくとも1つの語句を含み、各語句はそれぞれ少なくとも1つの単語を含む。目標段落のコンテキストの語句は、目標段落より前の1または複数の段落における語句、目標段落より後の1または複数の段落における語句を含んでもよく、あるいは、目標段落における1または複数の語句を含んでもよい。例えば、目標段落のコンテキストの語句は、目標段落の本文であってもよい。
また、1つの実施例では、当該目標段落は、ある文における1つの段落であり、そのコンテキストの語句は、当該文において当該段落より前または後の語句を含んでもよいし、または当該段落における語句を含んでもよい。あるいは、当該目標段落は、インテリジェント対話の場面においてユーザが入力したある段落のテキストであり、そのコンテキストの語句は、当該目標段落の前にユーザが入力したテキスト、または当該目標段落におけるテキストを含んでもよいし、あるいは、当該目標段落の前にチャットロボットからユーザへ返信するテキストなどを含んでもよい。
目標段落を符号化すると、当該目標段落および当該目標段落のコンテキストの語句を取得して、目標段落およびそのコンテキストの語句を記憶符号化モデルに入力する。
301において、入力層において目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得する。
入力層は、記憶符号化モデルにおける第1の層であり、目標段落を符号化する場合、目標段落および目標段落のコンテキストの語句を入力層に入力し、入力層において目標段落および目標段落のコンテキストの語句を処理して、目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得する。
当該オリジナルベクトル集合は、目標段落における各語句のそれぞれの語句ベクトルを含み、記憶ベクトル集合は、目標段落のコンテキストの語句における各単語のそれぞれの単語ベクトルを含む。また、本開示の実施例では、目標段落を符号化する場合、目標段落そのものだけではなく、目標段落のコンテキストの語句も考慮するため、オリジナルベクトル集合だけではなく、記憶ベクトル集合も取得する必要があり、以降ではオリジナルベクトル集合および記憶ベクトル集合に基づいて処理を行う。
また、1つの実施例では、ステップ301は、以下のステップ3011-3012を含み得る。
ステップ3011において、目標段落の各語句における各単語のそれぞれの単語ベクトルに基づいて、語句符号化モデルによって各語句のそれぞれの語句ベクトルを取得して、オリジナルベクトル集合を得る。
最初に、当該目標段落に対して前処理を実施する。当該前処理の過程は、目標段落に対して語句の分割を実行して目標段落における各語句を取得し、各語句に対して単語の分割を実行して各語句における各単語を取得して、各単語のそれぞれの単語ベクトルを取得することを含む。

語句の分割過程については、目標段落において句点、疑問符、感嘆符などのような対応する語句が既に終了したことを表す句読点を取得して、取得した句読点に基づいて目標段落を分割することによって、目標段落における語句を得ることができる。
単語の分割過程については、例えば双方向最大マッチング法、最小切り分け法などの複数のアルゴリズムを含み得る単語分割アルゴリズムを用いて、各語句ごとに単語分割を行うことができる。あるいは、その他の方式によって単語分割を行ってもよい。
単語ベクトルの取得過程については、各単語に対して、単語ベクトル辞典から当該単語と対応する単語ベクトルをサーチすることができる。ここで、当該単語ベクトル辞典は、単語と単語ベクトルとの対応関係を含んでもよく、または、当該単語ベクトル辞典は、例えば再帰型ニューラルネットワークモデル、深層学習ネットワークモデル、畳み込み型ニューラルネットワークモデル等の単語ベクトル取得モデルであってもよく、当該単語ベクトル取得モデルによって単語の単語ベクトルを取得することができる。
また、目標段落を前処理した後、各語句に対して、語句符号化モデルによって当該語句における各単語のそれぞれの単語ベクトルを処理して、当該語句の語句ベクトルを取得することによって、目標段落における各語句のそれぞれの語句ベクトルを取得して、各語句の語句ベクトルからオリジナルベクトル集合を構成することができる。
語句符号化モデルは、いずれかの語句における複数の単語の単語ベクトルを、当該語句の意味を表す語句ベクトルに圧縮するためのものであって、再帰型ニューラルネットワークモデル、深層学習ネットワークモデル、畳み込み型ニューラルネットワークモデル、変換ニューラルネットワークモデル、単語階層に基づくGSMNモデルなどの複数種類のモデルであってもよい。
また、1つの実施例では、語句符号化モデルは、第1の語句符号化サブモデルと第2の語句符号化サブモデルとを含む。語句の語句ベクトルの取得過程は、目標段落における各語句に対して当該語句における各単語のそれぞれの単語ベクトルを取得して複数の単語ベクトルを得るステップと、第1の語句符号化サブモデルによって複数の単語ベクトルを正順に符号化して第1のベクトルを取得し、第2の語句符号化サブモデルによって複数の単語ベクトルを逆順に符号化して第2のベクトルを取得するステップと、第1のベクトルおよび第2のベクトルに基づいて語句の語句ベクトルを取得するステップとを含み得る。また、上記のステップを繰り返して実行することによって、目標段落における各語句の語句ベクトルを取得することができる。
この第1の語句符号化サブモデルは、正順符号化モデルであり、この第2の語句符号化サブモデルは、逆順符号化モデルである。この語句における複数の単語の単語ベクトルは順に配列される場合、第1の語句符号化サブモデルによって、複数の単語ベクトルの並び順に従って複数の単語ベクトルを正順に符号化して、第1のベクトルを得る。一方、第2の語句符号化サブモデルによって、複数の単語ベクトルを逆順に処理し、その後、逆順に処理後の並び順に従って複数の単語ベクトルを逆順に符号化して、第2のベクトルを得る。
また、第1のベクトルおよび第2のベクトルを取得した後、第1のベクトルと第2のベクトルとを直列に接続して語句ベクトルを取得してもよく、または、第1のベクトルと第2のベクトルとを加算して語句ベクトルを取得してもよく、または、他の方式によって語句ベクトルを取得してもよい。
なお、語句符号化モデルが双方向再帰型ニューラルネットワークモデルであることを例として説明すると、図4および図5に示すように、双方向再帰型ニューラルネットワークモデルは、1つの前進再帰型ニューラルネットワークモデルと1つの後進再帰型ニューラルネットワークモデルとを含み、前進再帰型ニューラルネットワークモデルによって語句における複数の単語ベクトルを正順に符号化して第1のベクトルを取得し、後進再帰型ニューラルネットワークモデルによって語句における複数の単語ベクトルを逆順に符号化して第2のベクトルを取得し、第1のベクトルと第2のベクトルとを直列に接続して、当該語句の語句ベクトルを得る。
ステップ3012において、コンテキストの語句における各単語のそれぞれの単語ベクトルに基づいて記憶ベクトル集合を取得する。
コンテキストの語句に対して単語分割を行ってコンテキストの語句における各単語を取得した後、各単語のそれぞれの単語ベクトルを取得して、取得した単語ベクトルから記憶ベクトル集合を構成する。単語の分割および単語の単語ベクトルの取得過程は、上記のステップ3011と類似する。
なお、目標段落とコンテキストの語句は同様であると、目標段落における語句を処理するだけでオリジナルベクトル集合および記憶ベクトル集合を得ることができ、他の語句を処理する必要はなくなる。また、図6に示すように、目標段落に対して前処理を行って得られた単語ベクトルに基づいて記憶ベクトル集合を取得する。
本開示の実施例では、記憶符号化モデルは、目標段落単位で符号化を行うため、入力層は、取得したオリジナルベクトル集合および記憶ベクトル集合を記憶層に入力して処理を行う。
ステップ302において、記憶層において、記憶モデルによって記憶ベクトル集合に対応する第1の記憶行列および第2の記憶行列を取得する。
記憶層は、記憶モデルを含み、当該記憶モデルにって当該記憶ベクトル集合に対応する第1の記憶行列および第2の記憶行列を取得することができ、第1の記憶行列および第2の記憶行列は、当該記憶ベクトル集合を記述するためのものであって、両者は同じであってもよく異なってもよい。
第1の記憶行列の取得方式については、記憶ベクトル集合に基づいてコンテキストの語句における各単語のそれぞれの単語ベクトルを取得し、語句符号化モデルによって各語句のそれぞれの語句ベクトルを取得し、各語句のそれぞれの語句ベクトルに基づいて第1の記憶行列を取得することができる。
1つの実施例では、当該語句符号化モデルは、第3の語句符号化サブモデルと第4の語句符号化サブモデルとを含み、語句の語句ベクトルの取得過程は、コンテキストの語句のそれぞれに対して、当該語句における各単語のそれぞれの単語ベクトルを取得して複数の単語ベクトルを得るステップと、第3の語句符号化サブモデルによって複数の単語ベクトルを正順に符号化して第3のベクトルを取得し、第4の語句符号化サブモデルによって複数の単語ベクトルを逆順に符号化して第4ベクトルを取得するステップと、第3のベクトルおよび第4のベクトルに基づいて語句の語句ベクトルを取得するステップとを含み得る。
語句ベクトルの具体的な取得過程は、上記のステップ3011と類似する。
コンテキストの語句のそれぞれの語句ベクトルを取得した後、これらの語句の語句ベクトルを組み合わせて第1の記憶行列を取得する。
また、第2の記憶行列の取得方式は、採用する語句符号化モデルが第1の記憶行列を取得する際に採用する語句符号化モデルと同じであっても異なってもよいという点の以外に、第1の記憶行列の取得方式と類似する。
図7に示すように、第1の記憶行列および第2の記憶行列を取得する際に採用する語句符号化モデルはいずれも双方向再帰型ニューラルネットワークモデルであり、これら2つの双方向再帰型ニューラルネットワークモデルによって記憶ベクトル集合をそれぞれ処理することによって、第1の記憶行列および第2の記憶行列を得ることができる。なお、これら2つの双方向再帰型ニューラルネットワークモデルのパラメーターは同じであってもよく異なってもよいため、得られる第1の記憶行列および第2の記憶行列は同じであってもよく異なってもよい。
第1の記憶行列および第2の記憶行列は記憶ベクトル集合を記述できるため、第1の記憶行列と第2の記憶行列およびオリジナルベクトル集合に基づいて処理を行うことにより、コンテキストの語句と目標段落との関連性が考慮され、当該目標段落をより正確に記述可能な段落ベクトルを得ることができる。
本開示の実施例では、目標段落とコンテキストの語句が同じであることを例とするので、オリジナルベクトル集合と記憶ベクトル集合は同一である。この場合、下記のステップ303-305を実行することにより、目標段落を記述するための第1の目標語句行列を取得することができる。もちろん、目標段落とコンテキストの語句は異なる場合、複数の方式によって第1の目標語句行列を取得してもよい。
ステップ303において、オリジナルベクトル集合と第1の記憶行列との類似性行列を取得する。
類似性行列の取得方式としては、例えば行列乗算法や行列減算法などの複数種類ある。また、1つの実施例では、図7に示すように、当該オリジナルベクトル集合における語句ベクトルを組み合わせることによって目標段落のオリジナル語句行列を取得して、このオリジナル語句行列と第1の記憶行列とを乗算して得られた行列を類似性行列とする。あるいは、当該オリジナル語句行列と第1の記憶行列の転置とを乗算して得られた行列を類似性行列としてもよい。
類似性行列における各数値は、オリジナルベクトル集合における語句と、そのコンテキストの語句のうち対応する語句との類似性をそれぞれ示し、類似性が高いほど、2つの語句が緊密に関連することを表すので、後続の処理過程ではこの語句に注意すべきである。
ステップ304において、類似性行列に対して確率分布演算を行うことによって確率行列を得る。
類似性行列には、複数の類似性が含まれ、類似性行列に対して確率分布演算を行うことによって確率行列を得ることができ、確率行列には、各類似性のそれぞれに対応する確率が含まれ、かつ全ての類似性の確率の和は1である。
確率分布演算の方式としては種々考えられるが、1つの実施例では、Softmax(正規化指数)関数によって類似性行列に対して演算を行って、類似性行列に対応する確率行列を得るようになっている。あるいは、類似性行列における各位置に対して、その位置における類似性と類似性行列における全ての類似性の和との比を取得して、その位置における類似性に対応する確率を得ることによって、各位置における類似性に対応する確率を取得し、取得した確率から確率行列を構成する。
ステップ305において、第2の記憶行列および確率行列に基づいて第1の目標語句行列を取得する。
第2の記憶行列および確率行列に基づいて第1の目標語句行列を取得する方式としては種々考えられるが、1つの実施例では、図7に示すように、確率行列と第2の記憶行列とを乗算して、目標段落の語句行列とサイズが同じである第1の目標語句行列を得るようになっている。
第1の目標語句行列は、オリジナルベクトル集合と記憶ベクトル集合との関連性に基づいて目標段落を記述するためのものである。目標段落における語句とコンテキストの語句との類似性が高いほど確率が大きくなるので、確率行列と第2の記憶行列とを乗算することによって、コンテキストの語句との類似性が高い語句を記憶強化して、後続きの処理過程では当該語句により注意することができる。これは、注意機構によって第1の目標語句行列を得ることにより、第1の目標語句行列による当該目標段落の記述をより正確にすることに相当する。
例えば、オリジナルベクトル集合は、目標段落のJ個の語句の語句ベクトルを含み、記憶ベクトル集合は、コンテキストの語句のうちK個の語句の語句ベクトルを含む(JおよびKは、正の整数である)と、オリジナルベクトル集合に対応する行列XはJ*Dの行列となり、記憶ベクトル集合に対応する行列MはK*Dの行列となる(Dは、語句ベクトルの次元数である)。そして、これら2つの行列を記憶層に入力して、上記のステップ302-305を実行することによって得られた第1の目標語句行列は、O=Softmax(XΦ(M)(M)である(ここで、Φ(M)は、第1の記憶行列であり、Φ(M)は、第2の記憶行列である)。
ステップ306において、ゲーティング層において、線形ネットワークモデルによってオリジナルベクトル集合に対応する線形数値を取得して、第1の重みが予定数値範囲にあるように、予定関数によって線形数値を処理して、オリジナルベクトル集合の第1の重みを求める。
入力層は、オリジナルベクトル集合をゲーティング層に入力し、記憶層は、第1の目標語句行列をゲーティング層に入力し、ゲーティング層において、オリジナルベクトル集合および第1の目標語句行列に基づいて処理を行い、記憶強化された第1の目標語句行列と元のオリジナルベクトル集合とが占める比重を調整することにより、目標段落においてコンテキストの語句との類似性が高い語句が占める比重を調整する。
図8に示すように、ゲーティング層において、線形ネットワークモデルによってオリジナルベクトル集合に対応する線形数値を取得する。ここで、線形ネットワークモデルは、線形ニューラルネットワークモデルであってもよいし、他の線形ネットワークモデルであってもよく、オリジナルベクトル集合に対して線形処理を行った後に得られる線形数値は、オリジナルベクトル集合を記述することができる。
線形数値を取得した後、予定関数によって線形数値を処理して、オリジナルベクトル集合の第1の重みを求める。当該予定関数は、線形数値を予定数値範囲に圧縮して、得られた第1の重みが当該予定数値範囲にあるようにするためのものである。当該予定関数は、sigmoid(ニューロンの非線形作用)関数または他の関数であってもよく、当該予定数値範囲は、0~1の数値範囲であってもよい。すると、第1の重みは、0より大きく1より小さくなる。
ステップ307において、第1の重みに基づき、第1の目標語句行列の第2の重みを確定する。
第1の重みは、オリジナルベクトル集合が占める重みであり、第2の重みは、第1の目標語句行列が占める重みであり、第1の重みと第2の重みとの和は1であり、第1の重みを得た後、第1の重みに基づいて第2の重みを確定する。
ステップ308において、第1の重みおよび第2の重みに従って、オリジナルベクトル集合と第1の目標語句行列とを重み付け加算して第2の目標語句行列を得る。
図9に示すように、当該オリジナルベクトル集合における語句ベクトルを組み合わせることによって目標段落のオリジナル語句行列を取得し、第1の重みは当該オリジナル語句行列の重みであり、第2の重みは第1の目標語句行列の重みであり、第1重みおよび第2の重みに基づいて、当該オリジナル語句行列と当該第1の目標語句行列とを重み付き加算して第2の目標語句行列を得ることによって、第2の目標語句行列の各数値がそれぞれ予定数値範囲にあるようにする。
また、1つの実施例では、以下の式を用いて重み付け加算を行う。
O’=G*X+(1-G)*O
ただし、O’は第2の目標語句行列であり、Gは第1の重みであり、Xは目標段落のオリジナル語句行列であり、Oは第1の目標語句行列である。
記憶強調後に学習した情報をゲーティング層によって選別し、目標段落とコンテキストの語句との比重を調整することができるので、制御情報の流れを制御して、目標段落とは関係がない情報を過度に加えるのを避けることができる。
ステップ309において、出力層において、第2の目標語句行列に基づいて目標段落の段落ベクトルを取得する。
出力層において、第2の目標語句行列を1つのベクトルに変換して、目標段落の段落ベクトルとする。段落ベクトルの取得方式としては種々考えられるが、1つの実施例では、第2の目標語句行列を列方向に加算し、すなわち、第2の目標語句行列を複数の列ベクトルに分割し、各列ベクトルの数値の和を算出して各列ベクトルのそれぞれの総数値を得て、この複数の列ベクトルの総数値を1つのベクトルに組み合わせることによって、段落ベクトルを得るようになっている。
なお、図10に示すように、本開示の実施例では、記憶層およびゲーティング層を1回動作させた場合のみを例として説明したが、他の実施例では、記憶層およびゲーティング層を繰り返して動作させてもよい。すなわち、ゲーティング層において、第2の目標語句行列を取得した後、第2の目標語句行列を更新後のオリジナルベクトル集合および記憶ベクトル集合とする。記憶層およびゲーティング層において、繰り返し回数が所定の回数に達するまで、更新後のオリジナルベクトル集合および記憶ベクトル集合に基づいて目標語句行列を取得するステップを繰り返して実行し、現在の目標語句行列を出力層に入力する。出力層において、現在の目標語句行列に基づいて目標段落の段落ベクトルを取得する。当該所定の回数は、2または3などとすることができるが、需要に応じて決定してもよいし、または実験によって決定した好適な値であってもよい。
なお、本開示の実施例では、記憶符号化モデルがゲーティング層を含む場合のみを例として説明したが、他の実施例では、記憶符号化モデルは、ゲーティング層を含まない。この場合、ステップ305~308を実行することなく、記憶層において第1の目標語句行列を取得した後、第1の目標語句行列を出力層に入力し、出力層において第1の目標語句行列に基づいて目標段落の段落ベクトルを取得する。
また、1つの実施例では、第1の目標語句行列を列方向に加算して1つのベクトルを得て、目標段落の段落ベクトルとする。
記憶符号化モデルはゲーティング層を含まない場合、記憶層を繰り返して動作させてもよい。すなわち、記憶層において第1の目標語句行列を取得した後、第1の目標語句行列を更新後のオリジナルベクトル集合および記憶ベクトル集合とし、記憶層において、繰り返し回数が所定の回数に達するまで、更新後のオリジナルベクトル集合および記憶ベクトル集合に基づいて目標語句行列を取得するステップを繰り返して実行して、現在の目標語句行列を出力層に入力し、出力層において現在の目標語句行列に基づいて目標段落の段落ベクトルを取得する。当該所定の回数は、2または3などとすることができるが、需要に応じて確定してもよいし、または実験によって確定した好適な値であってもよい。
ステップ310において、段落ベクトルに基づいて処理を行う。
目標段落の段落ベクトルを取得した後、段落ベクトルに対して処理を行う。なお、段落ベクトルに対する処理方式は場面によっては異なり、具体的にどのような処理方式を採用するかは、必要に応じて確定することができる。例えば、インテリジェント対話の場面では、目標段落は、ユーザが入力したテキストメッセージであり、目標段落の段落ベクトルを取得した後、この段落ベクトルに基づいて対応する応答メッセージを取得するので、ユーザが入力したテキストメッセージに対してユーザが所望する応答を与えることができる。
本開示の実施例が提供する符号化方法では、1種の記憶符号化モデルを提供する。当該記憶符号化モデルは、入力層、記憶層および出力層を含み、目標段落および目標段落のコンテキストの語句を取得して、目標段落およびコンテキストの語句を記憶符号化モデルに入力し、入力層において目標段落のオリジナルベクトル集合および目標段落のコンテキストの語句の記憶ベクトル集合を取得し、記憶層においてオリジナルベクトル集合および記憶ベクトル集合に基づいてオリジナルベクトル集合の第1の目標語句行列を取得し、出力層において第1の目標語句行列に基づいて目標段落の段落ベクトルを取得して、段落ベクトルに基づいて処理を行う。本開示の実施例は、各語句をそれぞれシリアル方式にて符号化することなく、目標段落を単位とし、目標段落を記憶符号化モデルによって符号化しているため、符号化速度を向上させることができる。また、符号化過程では、目標段落そのものだけではなく、目標段落のコンテキストの語句も考慮しているので、目標段落における語句とコンテキストの語句との関連性に基づいて目標段落を正確に記述可能な段落ベクトルを取得することができ、符号化の正確度を向上することができる。
また、本開示の実施例が提供する記憶符号化モデルは、自己注意性を有し、自己注意機構を段落の語句階層に適用して、目標段落およびコンテキストの語句に基づいて統合処理を行うことによって、目標段落の段落ベクトルの表現がより豊かであることを保証でき、目標段落の意味をより正確に記述することができる。また、本開示の実施例は、多くの場面に適用可能であり、通過範囲が広い。
本開示の実施例は、記憶符号化モデルのネットワークアーキテクチャを提供し、当該記憶符号化モデルによって目標段落を符号化することができる。また、上記の実施例が提供する符号化方法は、符号化過程に適用されてもよいし、記憶符号化モデルのトレーニング過程に適用されてもよい。
つまり、1つの実施例では、記憶符号化モデルのトレーニング過程では、初期化した記憶符号化モデルを取得し、または1回あるいは複数回のトレーニングを行ったがその正確性が未だ要求を満足していない記憶符号化モデルを取得する。そして、1または複数のサンプル段落を目標段落として取得する。現在の記憶符号化モデルによって目標段落を処理し、かつ処理過程では上記の実施例が提供する符号化方法を実行することによって、目標段落の段落ベクトルを得ることができる。
その後、目標段落の段落ベクトルを復号して、この段落ベクトルに対応するテスト段落を取得し、目標段落とテスト段落との誤差に基づいて、記憶符号化モデルにおけるモデルパラメータを補正する。なお、復号方式としては種々考えられるが、例えば、復号アルゴリズムを用いて段落ベクトルを復号してもよいし、復号モデルによって段落ベクトルを復号してもよく、当該復号モデルは、再帰型ニューラルネットワークモデル、深層学習ネットワークモデル、畳み込み型ニューラルネットワークモデル等であってもよい。
このように1回または複数回のトレーニングを行った後、記憶符号化モデルにおけるモデルパラメータを確定して、正確性が要求を満足する記憶符号化モデルを得ることができる。
また、他の1つの実施例では、記憶符号化モデルは、そのトレーニングが既に完了し、かつその正確性が要求を満足しているものである。すると、当該記憶符号化モデルを取得し、かつ、ある目標段落を符号化しようとする場合、当該記憶符号化モデルによって目標段落を処理し、処理過程において上記の実施例が提供する符号化方法を実行することによって、目標段落の段落ベクトルを得ることができる。当該記憶符号化モデルは、符号化機器によってトレーニングされてもよいし、トレーニング機器によってトレーニングされて符号化機器へ送信されてもよく、当該トレーニング機器は、端末またはサーバなどであってもよい。
図11は、本開示の実施例が提供する符号化装置の構成を示す図である。当該装置は、符号化機器に設けられてもよい。当該装置は、様々なモジュールまたはユニットを含み、各モジュールまたはユニットは、全部または部分的にソフトウェア、ハードウェアまたはこれらの組み合わせによって実現することができる。図11に示すように、当該装置は、取得モジュール1100と、入力層モジュール1101と、記憶層モジュール1102と、出力層モジュール1103と、処理モジュール1104とを備える。
取得モジュール1100は、目標段落および目標段落のコンテキストの語句を取得し、目標段落およびコンテキストの語句を記憶符号化モデルに入力するためのものである。ここで、目標段落は、少なくとも1つの語句を含む。
入力層モジュール1101は、目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得するためのものである。ここで、オリジナルベクトル集合は、目標段落における各語句のそれぞれの語句ベクトルを含み、記憶ベクトル集合は、目標段落のコンテキストの語句における各単語のそれぞれの単語ベクトルを含む。
記憶層モジュール1102は、オリジナルベクトル集合および記憶ベクトル集合に基づいてオリジナルベクトル集合の第1の目標語句行列を取得するためのものである。ここで、第1の目標語句行列は、オリジナルベクトル集合と記憶ベクトル集合との関連性に基づいて目標段落を記述するためのものである。
出力層モジュール1103は、第1の対象語句行列に基づいて目標段落の段落ベクトルを取得するためのものである。
処理モジュール1104は、段落ベクトルに基づいて処理を行うためのものである。
また、本開示の実施例が提供する符号化装置では、取得モジュールは、目標段落および目標段落のコンテキストの語句を取得して、目標段落およびコンテキストの語句を記憶符号化モデルに入力し、入力層モジュールは、目標段落のオリジナルベクトル集合および目標段落のコンテキストの語句の記憶ベクトル集合を取得し、記憶層モジュールは、オリジナルベクトル集合および記憶ベクトル集合に基づいてオリジナルベクトル集合の第1の目標語句行列を取得し、出力層モジュールは、第1の目標語句行列に基づいて目標段落の段落ベクトルを取得し、処理モジュールは段落ベクトルに基づいて処理を行う。従って、本開示の実施例は、各語句をそれぞれシリアル方式にて符号化することなく、目標段落を単位とし、目標段落を符号化装置によって符号化するため、符号化速度を向上させることができる。また、符号化過程では、目標段落そのものだけではなく、目標段落のコンテキストの語句も考慮しているので、目標段落における語句とコンテキストの語句との関連性に基づいて目標段落を正確に記述可能な段落ベクトルを取得することができ、符号化の正確度を向上することができる。
また、本開示の実施例が提供する記憶符号化モデルは、自己注意性を有し、自己注意機構を段落の語句階層に適用して、目標段落およびコンテキストの語句に基づいて統合処理を行うことによって、目標段落の段落ベクトルの表現がより豊かであることを保証でき、目標段落の意味をより正確に記述することができる。また、本開示の実施例は、多くの場面に適用可能であり、通過範囲が広い。
また、1つの実施例では、入力層モジュール1101は、
目標段落の各語句における各段落のそれぞれの単語ベクトルに基づいて、語句符号化モデルによって各語句の語句ベクトルを取得して、オリジナルベクトル集合を取得する第1の取得部と、
コンテキストの語句における各単語のそれぞれの単語ベクトルに基づいて記憶ベクトル集合を取得する第2の取得部とを含む。
また、1つの実施例では、語句符号化モデルは、第1の語句符号化サブモデルおよび第2の語句符号化サブモデルを含む。第1の取得部は、目標段落の各語句に対して各語句における各単語のそれぞれの単語ベクトルを取得して複数の単語ベクトルを取得し、第1の語句符号化サブモデルによって複数の単語ベクトルを正順に符号化して第1のベクトルを取得し、第2の語句符号化サブモデルによって複数の単語ベクトルを逆順に符号化して第2のベクトルを取得し、第1のベクトルおよび第2のベクトルに基づいて語句の語句ベクトルを取得するために用いられる。
また、1つの実施例では、記憶層モジュール1102は、
記憶モデルによって、記憶ベクトル集合に対応する第1の記憶行列および第2の記憶行列を取得するための記憶取得部と、
オリジナルベクトル集合、第1の記憶行列および第2の記憶行列に基づいてオリジナルベクトル集合の第1の目標語句行列を取得するための第1の目標取得部とを含む。
また、1つの実施例では、第1の目標取得部は、オリジナルベクトル集合と第1の記憶行列との類似性行列を取得し、類似性行列に対して確率分布演算を行って確率行列を取得し、第2の記憶行列および確率行列に基づいて第1の目標語句行列を取得するために用いられる。
また、1つの実施例では、装置は、ゲーティング層モジュールをさらに備える。
ゲーティング層モジュールは、オリジナルベクトル集合と第1の目標語句行列とを重み付け加算して第2の目標語句行列を得ることによって、第2の目標語句行列の各数値が予定数値範囲にあるようにするためのものである。
出力層モジュール1103は、さらに、第2の対象語句行列に基づいて目標段落の段落ベクトルを取得するために用いられる。
また、1つの実施例では、ゲート制御モジュールは、
線形ネットワークモデルによって、オリジナルベクトル集合に対応する線形数値を取得して、予定関数によって線形数値を処理してオリジナルベクトル集合の第1の重みを得ることによって、第1の重みを予定数値範囲にあるようにするための第1の重み取得部と、
第1の重みに基づいて第1の目標語句行列の第2の重みを決定するための第2の重み取得部と、
第1の重みおよび第2の重みに基づいて、オリジナルベクトル集合と第1の目標語句行列とを重み付き加算して第2の目標語句行列を得る重み付き部とを含む。
また、1つの実施例では、出力層モジュール1103は、
第1の目標語句行列を列方向に加算して段落ベクトルを得るための列方向加算部を含む。
また、1つの実施例では、記憶層モジュール1102は、さらに、第1の目標語句行列を更新後のオリジナルベクトル集合および記憶ベクトル集合として、繰り返し回数が所定の回数に達するまで、更新後のオリジナルベクトル集合および記憶ベクトル集合に基づいて目標文行列を取得するステップを繰り返して実行した場合に、出力層モジュール1103をトリガさせるために用いられる。
出力層モジュール1103は、さらに、現在の目標語句行列に基づいて目標段落の段落ベクトルを取得するために用いられる。
なお、上記の実施例が提供する符号化装置による段落の符号化については、上記のような各機能モジュールの分割のみを例に挙げて説明したが、実際の応用では、必要に応じて、上記の機能を異なる機能モジュールに完了させ、すなわち、符号化機器の内部構成を異なる機能モジュールに分割して以上に述べた全部または一部の機能を完成させるようにしてもよい。なお、上記実施例が提供する符号化装置は、符号化方法の実施例と同一の思想に属し、その具体的な実現過程は方法の実施例を参照できるので、ここでは説明を省略する。
図12は、本開示の実施例が提供する端末の構造を示すブロック図である。当該端末1200は、上記の実施例における符号化機器が実行するステップを実行するためのものであり、例えば、スマートフォン、タブレット、MP3(Moving Picture Experts Group Audio LayerIII)プレーヤ、MP4(Moving Picture Experts Group Audio LayerIV)プレーヤ、ノートパソコン、または卓上型パソコンなどのような携帯型の携帯端末であってもよい。端末1200は、ユーザ機器、携帯端末、ラップトップ型端末、卓上型端末等の他の名称とも称され得る。
また、端末1200は、通常、プロセッサ1201とメモリ1202とを備える。
プロセッサ1201は、4コアのプロセッサ、8コアのプロセッサなどのように1または複数の処理コアを含んでもよい。プロセッサ1201は、DSP(Digital Signal Processing)、FPGA(Field-Programmable Gate Array)、PLA(Programmable Logic Array)のうちの少なくとも1つのハードウェアによって実現され得る。プロセッサ1201は、メインプロセッサとコプロセッサを含み、メインプロセッサは、ウェイクアップ状態でのデータを処理するためのプロセッサであり、CPU(Central Processing Unit)とも呼ばれる。コプロセッサは、待機状態でのデータを処理するための低消費電力プロセッサである。また、幾つかの実施例では、プロセッサ1201は、GPU(Graphics Processing Unit)がさらに集積されてもよく、GPUは、表示画面に表示すべきコンテンツのレンダリングや描画を担当する。また、幾つかの実施例では、プロセッサ1201は、機械学習に関する計算動作を行うためのAI(Artificial Intelligence)プロセッサをさらに含んでもよい。
メモリ1202は、1または複数の非一時的なコンピュータ読取可能な記憶媒体を含んでもよい。また、メモリ1202は、高速ランダムアクセスメモリ、および1または複数の磁気ディスク記憶装置、フラッシュメモリなどのような不揮発性メモリをさらに含んでもよい。また、幾つかの実施例では、メモリ1202のうちの非一時的なコンピュータ読取可能な記憶媒体は、プロセッサ1201によって実行されることにより、本開示に係る方法の実施例が提供する符号化方法を実現するための少なくとも1つのコンピュータ読取可能なコマンドを記憶するためのものである。
また、いくつかの実施例では、端末1200は、周辺機器インターフェース1203と少なくとも1つの周辺機器とをさらに含んでもよい。プロセッサ1201、メモリ1202および周辺機器インターフェース1203は、バスまたは信号線によって接続される。各周辺機器は、バス、信号線または回路基板を介して周辺機器インターフェース1203に接続されてもよい。具体的には、周辺機器は、RF(無線周波数)回路1204と、表示画面1205と、カメラアセンブリ1206と、オーディオ回路1207と、測位アセンブリ1208と、電源1209のうちの少なくとも1種を含む。
周辺機器インターフェース1203は、I/O(Input/Output)に関する少なくとも1つの周辺機器をプロセッサ1201およびメモリ1202に接続するために用いられる。
RF回路1204は、電磁信号とも呼ばれるRF(Radio Frequency:無線周波数)信号を送受信するためのものである。
表示画面1205は、UI(User Interface)を表示するためのものである。当該UIは、図形、テキスト、アイコン、ビデオおよびそれらの任意の組み合わせを含むことができる。また、表示画面1205は、タッチスクリーンである場合、その表面または表面の上方におけるタッチ信号を収集する能力も有している。このタッチ信号は、制御信号としてプロセッサ1201に入力して処理を行うことができる。このとき、表示画面1205は、仮想ボタンおよび/または仮想キーボード(ソフトボタンおよび/またはソフトキーボードとも言われる)を提供するために用いることもできる。
カメラアセンブリ1206は、画像またはビデオを採集するためのものである。また、カメラアセンブリ1206は、フロントカメラとリアカメラとを含む。一般的に、フロントカメラは、端末のフロントパネルに設けられ、リアカメラは、端末の背面に設けられる。
オーディオ回路1207は、マイクおよびスピーカを含む。マイクは、ユーザや環境の音波を収音するとともに、音波を電気信号に変換して、プロセッサ1201に入力して処理を行ったり、RF回路1204に入力して音声通信を実現したりするためのものである。スピーカは、プロセッサ1201またはRF回路1204からの電気信号を音波に変換するためのものである。スピーカは、従来のフィルムスピーカであってもよいし、圧電セラミックスピーカであってもよい。
測位アセンブリ1208は、ナビゲーションやLBS(Location Based Service)を実現するために、端末1200の現在の地理位置を測位するためのものである。
電源1209は、端末1200内の各構成要素に電力を供給するためのものである。電源1209は、交流電源、直流電源、一次電池または二次電池である。電源1209が二次電池である場合、当該二次電池は、有線充電または無線充電を支持することができる。当該二次電池は、急速充電技術を支持するために用いられてもよい。
いくつかの実施例では、端末1200は、1または複数のセンサ1210をさらに備える。1または複数のセンサ1210は、加速度センサ1211と、ジャイロセンサ1212と、圧力センサ1213と、指紋センサ1214と、光学センサ1215と、近接センサ1216とを含むが、これらに限定されるものではない。加速度センサ1211は、端末1200で確立した座標系の3つの座標軸における加速度の大きさを検出することができる。ジャイロセンサ1212は、端末1200の機体方向および回動角度を検出することができる。また、ジャイロセンサ1212は、加速度センサ1211と協働してユーザによる端末1200への3D動作を採集することができる。圧力センサ1213は、端末1200のサイドフレームおよび/またはタッチ表示画面1205の下層に設けることができる。指紋センサ1214は、ユーザの指紋を採集するものである。また、プロセッサ1201は、指紋センサ1214によって採集された指紋に基づいてユーザの身分を識別し、または、指紋センサ1214は、採集した指紋に基づいてユーザの身分を識別する。光学センサ1215は、環境光の強度を採集するためのものである。近接センサ1216は、距離センサとも呼ばれ、通常端末1200のフロントパネルに設けられている。近接センサ1216は、ユーザと端末1200の正面との間の距離を取得するためのものである。
なお、当業者であれば、端末1200は、図12に示す構成に限定されず、図示よりも多くまたは少ない要素を含んだり、複数の要素を組み合わせたり、異なる要素の配置を採用したりしてもよいことを理解すべきである。
図13は、本開示の実施例が提供するサーバの構成を示す図である。当該サーバ1300は、構成や性能によっては大きく異なり、1以上のプロセッサ(central processing units,CPU)1301と1つ以上のメモリ1302とを含み、メモリ1302には、プロセッサ1301がロードされ実行されることによって上記の各方法の実施例が提供する方法を実現するための少なくとも1つのコンピュータ読取可能なコマンドが記憶されている。もちろん、当該サーバは、入出力を行うために有線/無線ネットワークインターフェース、キーボードおよび入出力インターフェースなどの部材を有していてもよく、機器の機能を実現するための他の部材を含んでいてもよく、ここで説明を省略する。
サーバ1300は、上記の符号化方法において符号化機器が実行するステップを実行してもよい。
なお、上記各実施例のフローチャートにおける各ステップは、矢印の指示に従って順次表示されるが、これらのステップは必ずしも矢印で示される順番で実行される必要はない。なお、本明細書に特に説明がない限り、これらのステップの実行順序は、厳密に限定されるものではなく、他の順序で実行されてもよい。そして、上述した各実施例における少なくとも一部のステップは、複数のサブステップまたは複数の段階を含んでもよく、これらのサブステップまたは段階は、必ずしも同一のタイミングで実行される必要がなく、異なるタイミングで実行されてもよく、これらのサブステップまたは段階の実行順序は必ずしも逐次的に行われるものではなく、他のステップまたは他のステップのサブステップまたは段階の少なくとも一部と順番にまたは交互に実行されてもよい。
また、本開示の実施例は、1または複数のプロセッサと、1または複数のメモリとを備え、当該1または複数のメモリには、1または複数のプロセッサがロードされ実行されることによって上記の実施例に係る符号化方法における動作を実現するための少なくとも1つのコンピュータ読取可能なコマンド、少なくとも1セグメントのプログラム、コードセット、またはコンピュータ読取可能なコマンドセットが記憶される符号化機器をさらに提供する。
また、本開示の実施例は、1または複数のプロセッサがロードされ実行されることによって上記の実施例に係る符号化方法における動作を実現するための少なくとも1つのコンピュータ読取可能なコマンド、少なくとも1セグメントのプログラム、コードセット、またはコンピュータ読取可能なコマンドセットが記憶されるコンピュータ読取可能な記憶媒体をさらに提供する。
また、本分野の一般的技術者であれば、上記の実施例の全部または一部のステップは、ハードウェアによって実行されてもよいし、関連するハードウェアが実行するようにプログラムによって指示してもよく、前記プログラムは、コンピュータ読み取り可能な記憶媒体に記憶されてもよく、上記の記憶媒体は、ROM、磁気ディスク、光ディスクなどであってもよい。
以上は、あくまでも本開示の好適な実施例に過ぎなく、本開示を限定するものではなく、本開示の精神と原則内で行われるいかなる修正、均等置換、改善などは、いずれも本開示の保護範囲内に含まれるべきである。

Claims (20)

  1. 符号化機器が実行する符号化方法であって、
    目標段落および前記目標段落のコンテキストの語句を取得して、前記目標段落および前記コンテキストの語句を記憶符号化モデルに入力するステップであって、前記目標段落は、少なくとも1つの語句を含み、前記記憶符号化モデルは、少なくとも入力層、記憶層および出力層を含む、ステップと、
    前記入力層において前記目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得するステップであって、前記オリジナルベクトル集合は、前記目標段落における各語句のそれぞれの語句ベクトルを含み、前記記憶ベクトル集合は、前記目標段落のコンテキストの語句における各単語のそれぞれの単語ベクトルを含む、ステップと、
    前記記憶層において前記オリジナルベクトル集合および前記記憶ベクトル集合に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するステップであって、前記第1の目標語句行列は、前記オリジナルベクトル集合と前記記憶ベクトル集合との関連性に基づいて前記目標段落を記述するためのものである、ステップと、
    前記出力層において前記第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するステップと、
    前記段落ベクトルに基づいて処理を行うステップと、を含む、
    ことを特徴とする符号化方法。
  2. 前記入力層は、語句符号化モデルを含み、
    前記入力層において前記目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得する前記ステップは、
    前記目標段落の各語句における各単語のそれぞれの単語ベクトルに基づいて、前記語句符号化モデルによって前記各語句のそれぞれの語句ベクトルを取得することによって、前記オリジナルベクトル集合を得るステップと、
    前記コンテキストの語句における各単語のそれぞれの単語ベクトルに基づいて前記記憶ベクトル集合を取得するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  3. 前記語句符号化モデルは、第1の語句符号化サブモデルと第2の語句符号化サブモデルとを含み、
    前記目標段落の各語句における各単語のそれぞれの単語ベクトルに基づいて、前記語句符号化モデルによって前記各語句のそれぞれの語句ベクトルを取得することによって、前記オリジナルベクトル集合を得る前記ステップは、
    前記目標段落における各語句に対して、前記語句における各単語のそれぞれの単語ベクトルを取得して複数の単語ベクトルを得るステップと、
    前記第1の語句符号化サブモデルによって前記複数の単語ベクトルを正順に符号化して第1のベクトルを得、前記第2の語句符号化サブモデルによって前記複数の単語ベクトルを逆順に符号化して第2のベクトルを得るステップと、
    前記第1のベクトルおよび前記第2のベクトルに基づいて前記語句の語句ベクトルを取得するステップと、を含む、
    ことを特徴とする請求項2に記載の方法。
  4. 前記記憶層は、記憶モデルを含み、
    前記記憶層において前記オリジナルベクトル集合および前記記憶ベクトル集合に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得する前記ステップは、
    前記記憶モデルによって、前記記憶ベクトル集合に対応する第1の記憶行列および第2の記憶行列を取得するステップと、
    前記オリジナルベクトル集合、前記第1の記憶行列および前記第2の記憶行列に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  5. 前記記憶ベクトル集合は、前記オリジナルベクトル集合と同じであり、
    前記オリジナルベクトル集合、前記第1の記憶行列および前記第2の記憶行列に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得する前記ステップは、
    前記オリジナルベクトル集合と前記第1の記憶行列との類似性行列を取得するステップと、
    前記類似性行列に対して確率分布演算を行うことによって確率行列を得るステップと、
    前記第2の記憶行列および前記確率行列に基づいて前記第1の目標語句行列を取得するステップと、を含む、
    ことを特徴とする請求項4に記載の方法。
  6. 前記記憶符号化モデルは、ゲーティング層をさらに含み、
    前記出力層において前記第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得する前記ステップは、
    前記ゲーティング層において前記オリジナルベクトル集合と前記第1の目標語句行列とを重み付け加算して第2の目標語句行列を得ることによって、前記第2の目標語句行列の各数値がそれぞれ予定数値範囲にあるようにするステップと、
    前記出力層において前記第2の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するステップと、を含む、
    ことを特徴とする請求項1に記載の方法。
  7. 前記ゲーティング層は、線形ネットワークモデルを含み、
    前記ゲーティング層において前記オリジナルベクトル集合と前記第1の目標語句行列とを重み付け加算して第2の目標語句行列を得る前記ステップは、
    前記オリジナルベクトル集合の第1の重みが予定数値範囲にあるように、前記線形ネットワークモデルによって前記オリジナルベクトル集合に対応する線形数値を取得し、予定関数によって前記線形数値を処理して前記第1の重みを得るステップと、
    前記第1の重みに基づいて、前記第1の目標語句行列の第2の重みを確定するステップと、
    前記第1の重みおよび前記第2の重みに従って、前記オリジナルベクトル集合と前記第1の目標語句行列とを重み付け加算して前記第2の目標語句行列を得るステップと、を含む、
    ことを特徴とする請求項6に記載の方法。
  8. 前記出力層において前記第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得する前記ステップは、前記第1の目標語句行列を列方向に加算して前記段落ベクトルを得るステップを含む、
    ことを特徴とする請求項1に記載の方法。
  9. 前記第1の目標語句行列を更新後のオリジナルベクトル集合および記憶ベクトル集合とし、前記記憶層において、繰り返し回数が所定の回数に達するまで、前記オリジナルベクトル集合および前記記憶ベクトル集合に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するステップを繰り返して実行した場合に、前記出力層において、現在の第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するステップをさらに含む、
    ことを特徴とする請求項1乃至8のいずれか1項に記載の方法。
  10. 符号化機器に設けられる符号化装置であって、
    目標段落および前記目標段落のコンテキストの語句を取得して、前記目標段落および前記コンテキストの語句を記憶符号化モデルに入力するための取得モジュールであって、前記目標段落は、少なくとも1つの語句を含む取得モジュールと、
    前記目標段落のオリジナルベクトル集合および記憶ベクトル集合を取得するための入力層モジュールであって、前記オリジナルベクトル集合は、前記目標段落における各語句のそれぞれの語句ベクトルを含み、前記記憶ベクトル集合は、前記目標段落のコンテキストの語句における各単語のそれぞれの単語ベクトルを含む入力層モジュールと、
    前記オリジナルベクトル集合および前記記憶ベクトル集合に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するための記憶層モジュールであって、前記第1の目標語句行列は、前記オリジナルベクトル集合と前記記憶ベクトル集合との関連性に基づいて前記目標段落を記述する記憶層モジュールと、
    前記第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するための出力層モジュールと、
    前記段落ベクトルに基づいて処理を行うための処理モジュールと、を備える、
    ことを特徴とする符号化装置。
  11. 前記入力層モジュールは、さらに、
    前記目標段落の各語句における各単語のそれぞれの単語ベクトルに基づいて、語句符号化モデルによって前記各語句のそれぞれの語句ベクトルを取得することによって、前記オリジナルベクトル集合を得、
    前記コンテキストの語句における各単語のそれぞれの単語ベクトルに基づいて前記記憶ベクトル集合を取得するために用いられる、
    ことを特徴とする請求項10に記載の装置。
  12. 前記語句符号化モデルは、第1の語句符号化サブモデルと第2の語句符号化サブモデルとを含み、
    前記入力層モジュールは、さらに、
    前記目標段落における各語句に対して、前記語句における各単語のそれぞれの単語ベクトルを取得して複数の単語ベクトルを得、
    前記第1の語句符号化サブモデルによって前記複数の単語ベクトルを正順に符号化して第1のベクトルを得、前記第2の語句符号化サブモデルによって前記複数の単語ベクトルを逆順に符号化して第2のベクトルを得、
    前記第1のベクトルおよび前記第2のベクトルに基づいて前記語句の語句ベクトルを取得するために用いられる、
    ことを特徴とする請求項11に記載の装置。
  13. 前記記憶層モジュールは、記憶モデルを含み、
    前記記憶層モジュールは、
    前記記憶モデルによって、前記記憶ベクトル集合に対応する第1の記憶行列および第2の記憶行列を取得するための記憶取得部と、
    前記オリジナルベクトル集合、前記第1の記憶行列および前記第2の記憶行列に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するための第1の目標取得部とを含む、
    ことを特徴とする請求項10に記載の装置。
  14. 前記記憶ベクトル集合は、前記オリジナルベクトル集合と同じであり、
    前記第1の目標取得部は、
    前記オリジナルベクトル集合と前記第1の記憶行列との類似性行列を取得し、
    前記類似性行列に対して確率分布演算を行うことによって確率行列を得、
    前記第2の記憶行列および前記確率行列に基づいて前記第1の目標語句行列を取得するために用いられる、
    ことを特徴とする請求項13に記載の装置。
  15. ゲーティング層モジュールをさらに含み、
    前記ゲーティング層モジュールは、前記オリジナルベクトル集合と前記第1の目標語句行列とを重み付け加算して第2の目標語句行列を得ることによって、前記第2の目標語句行列の各数値がそれぞれ予定数値範囲にあるようにするためのものであり、
    前記出力層モジュールは、さらに、前記第2の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するために用いられる、
    ことを特徴とする請求項10に記載の装置。
  16. 前記ゲーティング層モジュールは、
    線形ネットワークモデルによって前記オリジナルベクトル集合に対応する線形数値を取得し、前記オリジナルベクトル集合の第1の重みが予定数値範囲にあるように、予定関数によって前記線形数値を処理して、前記第1の重みを取得し、
    前記第1の重みに基づいて、前記第1の目標語句行列の第2の重みを決定し、
    前記第1の重みおよび前記第2の重みに従って、前記オリジナルベクトル集合と前記第1の目標語句行列とを重み付け加算して前記第2の目標語句行列を得るために用いられる、
    ことを特徴とする請求項15に記載の装置。
  17. 前記出力層モジュールは、さらに、前記第1の目標語句行列を列方向に加算して前記段落ベクトルを得るために用いられる、
    ことを特徴とする請求項10に記載の装置。
  18. 前記記憶層モジュールは、さらに、前記第1の目標語句行列を更新後のオリジナルベクトル集合および記憶ベクトル集合とし、繰り返し回数が所定の回数に達するまで、前記オリジナルベクトル集合および前記記憶ベクトル集合に基づいて前記オリジナルベクトル集合の第1の目標語句行列を取得するステップを繰り返して実行した場合に、現在の第1の目標語句行列に基づいて前記目標段落の段落ベクトルを取得するように前記出力層モジュールに通知するために用いられる、
    ことを特徴とする請求項10乃至17のいずれか1項に記載の装置。
  19. 1または複数のプロセッサと、1または複数のメモリとを備え、
    前記1または複数のメモリには、前記1または複数のプロセッサがロードされ実行されることによって請求項1乃至9のいずれか1項に記載の符号化方法における動作を実現するための少なくとも1つのコンピュータ読取可能なコマンド、少なくとも1セグメントのプログラム、コードセット、またはコンピュータ読取可能なコマンドセットが記憶される、
    ことを特徴とする符号化機器。
  20. 請求項1乃至9のいずれか1項に記載の符号化方法を1または複数のプロセッサに実行させるプログラムを記憶したコンピュータ可読記憶媒体。

JP2021516730A 2019-01-24 2020-01-21 符号化方法、装置、機器およびプログラム Active JP7224447B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910069752.6 2019-01-24
CN201910069752.6A CN110147533B (zh) 2019-01-24 2019-01-24 编码方法、装置、设备及存储介质
PCT/CN2020/073376 WO2020151688A1 (zh) 2019-01-24 2020-01-21 编码方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022502758A JP2022502758A (ja) 2022-01-11
JP7224447B2 true JP7224447B2 (ja) 2023-02-17

Family

ID=67588660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021516730A Active JP7224447B2 (ja) 2019-01-24 2020-01-21 符号化方法、装置、機器およびプログラム

Country Status (4)

Country Link
US (1) US11934788B2 (ja)
JP (1) JP7224447B2 (ja)
CN (1) CN110147533B (ja)
WO (1) WO2020151688A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110147533B (zh) 2019-01-24 2023-08-29 腾讯科技(深圳)有限公司 编码方法、装置、设备及存储介质
CN111178082A (zh) * 2019-12-05 2020-05-19 北京葡萄智学科技有限公司 一种句向量生成方法、装置及电子设备
CN111078851B (zh) * 2019-12-09 2024-04-12 科大讯飞(苏州)科技有限公司 信息处理方法、装置、设备及可读存储介质
CN111753498B (zh) * 2020-08-10 2024-01-26 腾讯科技(深圳)有限公司 文本处理方法、装置、设备及存储介质
CN114444471A (zh) * 2022-03-09 2022-05-06 平安科技(深圳)有限公司 句子向量生成方法、装置、计算机设备及存储介质
CN115563933B (zh) * 2022-09-19 2023-12-01 中国电信股份有限公司 词编码方法、装置、存储介质与电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106919646A (zh) 2017-01-18 2017-07-04 南京云思创智信息科技有限公司 中文文本摘要生成系统及方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169834A (ja) * 2000-11-20 2002-06-14 Hewlett Packard Co <Hp> 文書のベクトル解析を行うコンピュータおよび方法
US9336192B1 (en) * 2012-11-28 2016-05-10 Lexalytics, Inc. Methods for analyzing text
JP6047247B2 (ja) 2013-02-14 2016-12-21 エルジー エレクトロニクス インコーポレイティド 無線通信システムにおけるmbms情報報告方法及びそれをサポートする装置
US20160350653A1 (en) * 2015-06-01 2016-12-01 Salesforce.Com, Inc. Dynamic Memory Network
US11113598B2 (en) * 2015-06-01 2021-09-07 Salesforce.Com, Inc. Dynamic memory network
CN104915448B (zh) * 2015-06-30 2018-03-27 中国科学院自动化研究所 一种基于层次卷积网络的实体与段落链接方法
US10664744B2 (en) * 2015-10-13 2020-05-26 Facebook, Inc. End-to-end memory networks
US10332508B1 (en) * 2016-03-31 2019-06-25 Amazon Technologies, Inc. Confidence checking for speech processing and query answering
WO2018057945A1 (en) * 2016-09-22 2018-03-29 nference, inc. Systems, methods, and computer readable media for visualization of semantic information and inference of temporal signals indicating salient associations between life science entities
CN107885756B (zh) * 2016-09-30 2020-05-08 华为技术有限公司 基于深度学习的对话方法、装置及设备
KR101923780B1 (ko) * 2016-12-19 2018-11-29 성균관대학교산학협력단 일관된 주제의 텍스트 생성 방법 및 이를 수행하는 텍스트 생성 장치
KR20180077691A (ko) * 2016-12-29 2018-07-09 주식회사 엔씨소프트 문장 추상화 장치 및 방법
JP7066727B2 (ja) 2017-02-03 2022-05-13 テレフオンアクチーボラゲット エルエム エリクソン(パブル) コンテキストフェッチなしの無線リソース制御再開
WO2018165932A1 (en) * 2017-03-16 2018-09-20 Microsoft Technology Licensing, Llc Generating responses in automated chatting
TWI753034B (zh) * 2017-03-31 2022-01-21 香港商阿里巴巴集團服務有限公司 特徵向量的產生、搜索方法、裝置及電子設備
CN107229684B (zh) * 2017-05-11 2021-05-18 合肥美的智能科技有限公司 语句分类方法、系统、电子设备、冰箱及存储介质
US10817650B2 (en) * 2017-05-19 2020-10-27 Salesforce.Com, Inc. Natural language processing using context specific word vectors
US10380259B2 (en) * 2017-05-22 2019-08-13 International Business Machines Corporation Deep embedding for natural language content based on semantic dependencies
CN107273487A (zh) * 2017-06-13 2017-10-20 北京百度网讯科技有限公司 基于人工智能的聊天数据的生成方法、装置及计算机设备
US11200269B2 (en) * 2017-06-15 2021-12-14 Microsoft Technology Licensing, Llc Method and system for highlighting answer phrases
CN108280112B (zh) * 2017-06-22 2021-05-28 腾讯科技(深圳)有限公司 摘要生成方法、装置及计算机设备
CN107832310A (zh) * 2017-11-27 2018-03-23 首都师范大学 基于seq2seq模型的结构化论点生成方法及系统
CN108614855A (zh) * 2018-03-19 2018-10-02 众安信息技术服务有限公司 一种谣言识别方法
KR101929509B1 (ko) * 2018-09-17 2018-12-14 서강대학교 산학협력단 형태소 합성 장치 및 방법
CN109241536B (zh) * 2018-09-21 2020-11-06 浙江大学 一种基于深度学习自注意力机制的句子排序方法
CN110147532B (zh) * 2019-01-24 2023-08-25 腾讯科技(深圳)有限公司 编码方法、装置、设备及存储介质
CN110147533B (zh) * 2019-01-24 2023-08-29 腾讯科技(深圳)有限公司 编码方法、装置、设备及存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106919646A (zh) 2017-01-18 2017-07-04 南京云思创智信息科技有限公司 中文文本摘要生成系统及方法

Also Published As

Publication number Publication date
US11934788B2 (en) 2024-03-19
CN110147533A (zh) 2019-08-20
CN110147533B (zh) 2023-08-29
WO2020151688A1 (zh) 2020-07-30
JP2022502758A (ja) 2022-01-11
US20210312137A1 (en) 2021-10-07

Similar Documents

Publication Publication Date Title
JP7224447B2 (ja) 符号化方法、装置、機器およびプログラム
EP3940638A1 (en) Image region positioning method, model training method, and related apparatus
US11995556B2 (en) Video retrieval method, and method and apparatus for generating video retrieval mapping relationship
CN112347795B (zh) 机器翻译质量评估方法、装置、设备及介质
CN107578014B (zh) 信息处理装置及方法
EP3637258A1 (en) Data processing apparatus and method
CN112487182A (zh) 文本处理模型的训练方法、文本处理方法及装置
CN112069309B (zh) 信息获取方法、装置、计算机设备及存储介质
JP7324838B2 (ja) 符号化方法並びにその、装置、機器及びコンピュータプログラム
CN114298053B (zh) 一种基于特征和注意力机制融合的事件联合抽取系统
JP7431977B2 (ja) 対話モデルの訓練方法、装置、コンピュータ機器及びプログラム
CN109961041B (zh) 一种视频识别方法、装置及存储介质
CN110162604B (zh) 语句生成方法、装置、设备及存储介质
CN113421547B (zh) 一种语音处理方法及相关设备
US11816876B2 (en) Detection of moment of perception
CN113948060A (zh) 一种网络训练方法、数据处理方法及相关设备
CN115512005A (zh) 一种数据处理方法及其装置
US20230281833A1 (en) Facial image processing method and apparatus, device, and storage medium
CN115757692A (zh) 一种数据处理方法及其装置
CN116543076A (zh) 图像处理方法、装置、电子设备及存储介质
CN117454954A (zh) 模型训练方法、装置、计算机设备及存储介质
CN111414737A (zh) 故事生成模型训练方法、装置、设备及存储介质
CN115866291A (zh) 一种数据处理方法及其装置
CN114333772A (zh) 语音识别方法、装置、设备、可读存储介质及产品
CN116306612A (zh) 一种词句生成方法及相关设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230207

R150 Certificate of patent or registration of utility model

Ref document number: 7224447

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150