JP2021182430A - 意味解析モデルのトレーニング方法及び装置、電子機器並びに記憶媒体 - Google Patents

意味解析モデルのトレーニング方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP2021182430A
JP2021182430A JP2021130067A JP2021130067A JP2021182430A JP 2021182430 A JP2021182430 A JP 2021182430A JP 2021130067 A JP2021130067 A JP 2021130067A JP 2021130067 A JP2021130067 A JP 2021130067A JP 2021182430 A JP2021182430 A JP 2021182430A
Authority
JP
Japan
Prior art keywords
sample
target
training data
search
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021130067A
Other languages
English (en)
Other versions
JP7253593B2 (ja
Inventor
ジャシャン リュウ,
Jiaxiang Liu
シクン フェン,
Shikun Feng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021182430A publication Critical patent/JP2021182430A/ja
Application granted granted Critical
Publication of JP7253593B2 publication Critical patent/JP7253593B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

【課題】意味解析モデルのトレーニング方法及び装置、電子機器並びに記憶媒体を提供する。【解決手段】各グループのトレーニングデータが検索語と、検索語を用いて検索して得られた少なくとも1つのテキストの情報と、テキストに対応する少なくとも1つの関連語とを含む複数グループのトレーニングデータを取得し、トレーニングデータを用いてグラフモデルを構築するとともに、グラフモデルに基づいて複数グループのトレーニングデータの中から、サンプル検索語、サンプル情報及びサンプル関連語を含む目標トレーニングデータを決定し、また、サンプル検索語、サンプル情報及びサンプル関連語を用いて意味解析モデルをトレーニングする。検索応用シーンにおけるトレーニングデータに効果的に適用し、検索応用シーンにおける意味解析モデルのモデル表現効果を向上させる。【選択図】図1

Description

本出願はコンピュータ技術分野に関し、具体的には自然言語処理、深層学習、ビッグデータ処理などの人工知能の技術分野に関し、特に意味解析モデルのトレーニング方法及び装置、電子機器並びに記憶媒体に関する。
人工知能はコンピュータが人間の思惟過程とインテリジェントな挙動(例えば学習、推論、考え、計画など)を模擬するように研究する学科であり、ハードウェアレベルの技術もソフトウェアレベルの技術もある。人工知能のハードウェア技術は、一般的に、例えばセンサ、人工知能専用チップ、クラウドコンピューティング、分散記憶、ビッグデータ処理などの技術を含み、人工知能のソフトウェア技術は、主に、コンピュータビジョン技術、音声認識技術、自然言語処理技術及び機械学習/深層学習、ビッグデータ処理技術、知識マップ技術などのいくつかの面を含む。
関連技術において、通常、ビッグデータを用いて教師無しタスクを構成し、意味解析モデルの事前トレーニングを行う。
意味解析モデルのトレーニング方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム製品を提供する。
第1の態様によれば、意味解析モデルのトレーニング方法を提供し、この方法は、各グループのトレーニングデータが検索語と、前記検索語を用いて検索して得られた少なくとも1つのテキストの情報と、前記テキストに対応する少なくとも1つの関連語とを含む複数グループのトレーニングデータを取得するステップと、前記トレーニングデータを用いてグラフモデルを構築するとともに、前記グラフモデルに基づいて前記複数グループのトレーニングデータの中から、サンプル検索語、サンプル情報、及びサンプル関連語を含む目標トレーニングデータを決定するステップと、前記サンプル検索語、サンプル情報、及びサンプル関連語を用いて意味解析モデルをトレーニングするステップと、を含む。
第2の態様によれば、意味解析モデルのトレーニング装置を提供し、この装置は、各グループのトレーニングデータが検索語と、前記検索語を用いて検索して得られた少なくとも1つのテキストの情報と、前記テキストに対応する少なくとも1つの関連語とを含む複数グループのトレーニングデータを取得するための取得モジュールと、前記トレーニングデータを用いてグラフモデルを構築するとともに、前記グラフモデルに基づいて前記複数グループのトレーニングデータの中から、サンプル検索語、サンプル情報、及びサンプル関連語を含む目標トレーニングデータを決定するための決定モジュールと、前記サンプル検索語、サンプル情報、及びサンプル関連語を用いて意味解析モデルをトレーニングするためのトレーニングモジュールと、を備える。
第3の態様によれば、電子機器を提供し、この電子機器は、少なくとも1つのプロセッサと、該少なくとも1つのプロセッサと通信可能に接続されるメモリとを備え、前記メモリが、前記少なくとも1つのプロセッサによって実行可能な命令を記憶しており、前記命令が、少なくとも1つのプロセッサが本出願の実施例の意味解析モデルのトレーニング方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
第4の態様によれば、コンピュータ命令が記憶されている非一時的コンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令が前記コンピュータに本出願の実施例に開示された意味解析モデルのトレーニング方法を実行させるために用いられる。
第5の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムがコンピュータに本出願の実施例に開示された意味解析モデルのトレーニング方法を実行させることに用いられる。
この部分に記載されている内容は、本出願の実施例の肝心な、又は重要な特徴を特定することを意図しておらず、本出願の範囲を限定するものでもないことを理解すべきである。本出願の他の特徴は、以下の明細書を通じて容易に理解される。
図面は、本技術案をよりよく理解するために用いられ、本出願を限定するものではない。
本出願の第1の実施例による概略図である。 本出願の実施例におけるグラフモデルの概略図である。 本出願の第2の実施例による概略図である。 本出願の第3の実施例による概略図である。 本出願の第4の実施例による概略図である。 本出願の実施例の意味解析モデルのトレーニング方法を実現するための電子機器のブロック図である。
以下、図面を参照しながら、本出願の例示的な実施例について説明し、理解を容易にするためにその中には本出願の実施例の様々な詳細事項が含まれており、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすく且つ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
図1は本出願の第1の実施例による概略図である。
なお、ここで、本実施例の意味解析モデルのトレーニング方法の実行主体は意味解析モデルのトレーニング装置であり、この装置はソフトウェア及び/又はハードウェアの形態で実現でき、この装置は電子機器に配置することができ、電子機器は端末、サーバ側を含むことができるが、これらに限定されるものではない。
本出願の実施例は、自然言語処理、深層学習、ビッグデータ処理などの人工知能の技術分野に関する。
ここで、人工知能(Artificial Intelligence)は、AIと略称される。それは、人間の知能を模擬、延伸及び拡張するための理論、方法、技術及び応用システムを開発する新しい技術科学である。
深層学習は、サンプルデータの内在的ルール及び表示レベルを学習するものであり、これらの学習過程において取得された情報は、文字、画像及び音声などのデータの解釈に大きく寄与するものである。深層学習の最終目標は、ロボットが人間のように解析と学習能力を持つことができ、文字、画像及び音声などのデータを認識できるようにすることである。
自然言語処理は、人間とコンピュータとの間に自然言語で効果的な通信を行う様々な理論及び方法を実現することができる。深層学習は、サンプルデータの内在的ルール及び表示レベルを学習するものであり、これらの学習過程において取得された情報は、文字、画像及び音声などのデータの解釈に大きく寄与するものである。深層学習の最終目標は、ロボットが人間のように解析と学習能力を持つことができ、文字、画像及び音声などのデータを認識できるようにすることである。
ビッグデータ処理とは、人工知能の方式を用いて大規模なデータを解析しかつ処理するプロセスであり、ビッグデータは、大きなデータ量(Volume)、速い速度(Velocity)、多種のタイプ(Variety)、価値(Value)、真実性(Veracity)という5つのVに総括することができる。
図1に示すように、この意味解析モデルのトレーニング方法はステップS101〜S103を含む。
S101において、各グループのトレーニングデータが検索語と、検索語を用いて検索して得られた少なくとも1つのテキストの情報と、テキストに対応する少なくとも1つの関連語とを含む複数グループのトレーニングデータを取得する。
本出願の実施例では、検索エンジンの補助で、大量のトレーニングデータを事前に取得することができ、トレーニングデータは、例えばユーザがよく使用している検索語、検索語を用いて検索エンジンにおいて検索して得られたテキスト、テキストの情報(情報は例えばテキストのタイトルや要約、又はテキストのハイパーリンクであり、これについて限定しない)、及びこのテキストに関連する他の検索語(このテキストに関連する他の検索語は、テキストに対応する関連語と呼ばれてもよい)である。
本出願の実施例は、検索エンジンの補助で、大量のトレーニングデータを事前に取得した後、さらに、大量のトレーニングデータをグループ化し、各グループのトレーニングデータには1つ又は1つのタイプの検索語と、この検索語を用いて検索して得られた少なくとも1つのテキストの情報と、テキストに対応する少なくとも1つの関連語とが含まれるようにすることができ、これについて限定しない。
S102において、トレーニングデータを用いてグラフモデルを構築するとともに、グラフモデルに基づいて複数グループのトレーニングデータの中から、サンプル検索語、サンプル情報、及びサンプル関連語を含む目標トレーニングデータを決定する。
ここで、グラフモデルに基づいて複数グループのトレーニングデータの中から決定された、意味解析モデルに適合する1グループ又は複数グループのトレーニングデータは、目標トレーニングデータと呼ぶことができ、すなわち、目標トレーニングデータのグループ数は1グループ又は複数グループであってもよく、これについて限定しない。
上記のように複数グループのトレーニングデータを取得した後には、トレーニングデータを用いてグラフモデルを構築するとともに、グラフモデルに基づいて複数グループのトレーニングデータの中から目標トレーニングデータを決定するものとすることができ、意味解析モデルに適合する1グループ又は複数グループのトレーニングデータを高速に決定し、モデルトレーニング効率を向上させ、モデルトレーニング効果を保証することができる。
ここで、グラフモデルは、深層学習におけるグラフモデルであってもよく、又は人工知能の技術分野における他の任意の可能なアーキテクチャ態様のグラフモデルであってもよく、これについて限定しない。
本発明の実施例に用いられるグラフモデルは確率分布のグラフ表示であり、1つのグラフはノードとそれらの間のリンクによって構成され、確率グラフモデルにおいて、各ノードは1つの確率変数(又は1グループの確率変数)を表し、リンクはこれらの変数間の確率関係を表す。このように、グラフモデルは同時確率分布が全ての確率変数において1グループの係数の積に分解できる方式を記述し、各係数は確率変数の1つの部分集合のみに依存する。
任意選択的に、いくつかの実施例では、目標グラフモデルは、複数の経路を含み、各経路は複数のノードを繋げり、ノードは1つの検索語に対応し、又は1つの関連語に対応し、又は1つの情報に対応し、経路は繋げられるノードに対応する内容の間の検索関連重みを記述し、それにより、複数グループのトレーニングデータにおける検索関連重みの分布を明確且つ効率的に示し、検索応用シーンにおけるトレーニングデータと意味解析モデルとの融合を補助することができる。
すなわち、本出願の実施例では、まず、複数グループのトレーニングデータを用いてグラフモデルを構築するとともに、グラフモデルに基づいて複数グループのトレーニングデータの中から、サンプル検索語、サンプル情報、及びサンプル関連語を含む目標トレーニングデータを決定することができ、それにより、後続する決定されたサンプル検索語、サンプル情報、及びサンプル関連語を用いて意味解析モデルをトレーニングすることをトリガし、意味解析モデルが検索応用シーンにおけるトレーニングデータ間のコンテキスト意味関係をよりよく学習できるようにする。
任意選択的に、いくつかの実施例では、トレーニングデータを用いてグラフモデルを構築するとともに、グラフモデルに基づいて複数グループのトレーニングデータの中から目標トレーニングデータを決定するには、トレーニングデータにおける検索語と情報と関連語との間の検索関連重みを取得し、複数グループのトレーニングデータを用いて初期のグラフモデルを構築するとともに、検索関連重みに基づいて初期のグラフモデルを反復トレーニングし、目標グラフモデルを取得し、目標グラフモデルに基づいて複数グループのトレーニングデータの中から目標トレーニングデータを決定するものとしてもよく、グラフモデルのトレーニング効果を効果的に向上させ、トレーニングして得られた目標グラフモデルがより高い目標トレーニングデータ選別能力を有するようにすることができる。
例を挙げると、上記検索関連重みは、予め配置されてもよく、例えば検索語Aが挙げられ、検索語Aを用いて検索応用シーンにおいて検索してテキストA1、テキストA2を得ると、検索語Aを用いて検索してテキストA1を得る検索関連重みは1としてもよく、検索語Aを用いて検索してテキストA2を得る検索関連重みは2としてもよく、テキストA1に対応する関連語1は、テキストA1と関連語1との間の検索関連重みが11としてもよく、1つの経路が検索語AとテキストA1を接続すると仮定すると、この経路が記述する検索関連重みは1であり、1つの経路が検索語AとテキストA2を接続すると仮定すると、この経路が記述する検索関連重みは2であり、1つの経路がテキストA1と関連語1を接続すると仮定すると、この経路が記述する検索関連重みは11であり、以下同様である。
図2に示すように、図2は本出願の実施例におけるグラフモデルの概略図であり、ここで、q0は1つの検索語を表し、t1は検索語q0を用いて検索して得られたテキスト(このテキストは具体的にはクリックされるテキストである)の情報を表し、q2はテキストt1に対応する関連語を表し、t3は関連語q2を用いて検索して得られたテキストを表し、これによって類推すると、初期のグラフモデルを構築することができ、その後、検索関連重みに基づいて初期のグラフモデルを反復トレーニングし、目標グラフモデルを取得し、目標グラフモデルに基づいて複数グループのトレーニングデータの中から目標トレーニングデータを決定することができる。
例えば、上記のように初期のグラフモデルを構築した後、初期のグラフモデルの中に含まれる各経路が記述する検索関連重みに基づいて1つの損失値を算出するとともに、この損失値に基づいて初期のグラフモデルを反復してトレーニングし、初期のグラフモデルから出力された損失値が設定値を満たすようになると、トレーニングして得られたグラフモデルを目標グラフモデルとし、これについて限定しない。
そして、この目標グラフモデルを用いて目標トレーニングデータの決定を補助し、具体的には下記実施例を参照する。
S103において、サンプル検索語、サンプル情報、及びサンプル関連語を用いて意味解析モデルをトレーニングする。
トレーニングデータを用いてグラフモデルを構築するとともに、グラフモデルに基づいて複数グループのトレーニングデータの中から目標トレーニングデータを決定する上記ステップの後に、目標トレーニングデータにおけるサンプル検索語、サンプル情報、及びサンプル関連語を用いて意味解析モデルをトレーニングするステップを実行することができる。
本出願の実施例における意味解析モデルは機械翻訳による双方向の符号化表現(Bidirectional Encoder Representations from Transformer、BERT)モデルであり、又は人工知能分野における他の任意の可能なニューラルネットワークモデルであってもよく、これについて限定しない。
サンプル検索語、サンプル情報、及びサンプル関連語を用いて機械翻訳による双方向の符号化表現BERTモデルをトレーニングすると、トレーニングして得られたBERTモデルはより高い意味解析能力を取得することができ、また、一般的に、BERTモデルは他のモデルトレーニングにおける事前トレーニングタスクに適用され、それにより、検索応用シーンにおけるBERTモデルに基づく事前トレーニングタスクのモデル表現を効果的に向上させることができる。
本実施例では、トレーニングデータを1つのグラフモデルとして構築し、グラフモデルを用いて、サンプル検索語と、検索して得られたテキストのサンプル情報と、テキストに対応するサンプル関連語を含む目標トレーニングデータを決定することにより、トレーニングして得られた意味解析モデルは検索応用シーンにおけるトレーニングデータに効果的に適用し、検索応用シーンにおける意味解析モデルのモデル表現効果を向上させることができる。
図3は本出願の第2の実施例による概略図である。
図3に示すように、この意味解析モデルのトレーニング方法はステップS301〜S307を含む。
S301において、各グループのトレーニングデータが検索語と、検索語を用いて検索して得られた少なくとも1つのテキストの情報と、テキストに対応する少なくとも1つの関連語とを含む複数グループのトレーニングデータを取得する。
S302において、トレーニングデータにおける検索語と情報と関連語との間の検索関連重みを取得する。
S303において、複数グループのトレーニングデータを用いて初期のグラフモデルを構築するとともに、検索関連重みに基づいて初期のグラフモデルを反復トレーニングし、目標グラフモデルを取得する。
ステップS301〜S303の説明は上記実施例を参照することができ、ここでは説明を省略する。
S304において、目標グラフモデルから、複数の目標ノードを繋げる目標経路を決定する。
任意選択的に、いくつかの実施例では、目標グラフモデルから、目標経路を決定するステップは、ランダムウオーク方式を用いて、目標グラフモデルから目標経路を決定するステップ、又は幅優先検索方式を用いて、目標グラフモデルから目標経路を決定するステップを含む。
例を挙げると、上記図2に示されるグラフモデル構造と組み合わせて、ランダムウオーク方式を用いて、目標グラフモデルから目標経路を決定する場合に、得られた目標経路上のトレーニングデータはS=[q0,t1,…,qN−1,tN]と表すことができ、幅優先検索方式を用いて、目標グラフモデルから目標経路を決定する場合に、得られた目標経路上のトレーニングデータはS=[q0,t1,…,tN]と表すことができる。
もちろん、他の任意の可能な選択方式を用い、例えばモデリング方式、エンジニアリング方式などを用いて、目標グラフモデルから目標経路を決定してもよく、これについて限定しない。
S305において、目標ノードに対応する検索語をサンプル検索語とし、目標ノードに対応する関連語をサンプル関連語とし、目標ノードに対応する情報をサンプル情報とする。
上記のようにランダムウオーク方式を用いて、目標グラフモデルから目標経路を決定するステップ、又は幅優先検索方式を用いて、目標グラフモデルから目標経路を決定するステップであって、目標経路は複数の目標ノードを繋げるステップにより、目標ノードに対応する検索語をサンプル検索語とし、目標ノードに対応する関連語をサンプル関連語とし、目標ノードに対応する情報をサンプル情報とすることができ、トレーニングして得られた意味解析モデルが検索応用シーンにおけるトレーニングデータに効果的に適用できるようにするとともに、モデルデータ取得の完全性を向上させ、モデルデータの取得効率を向上させ、またモデルトレーニング全体の時間コストを効果的に削減することができる。
S306において、サンプル検索語、サンプル情報、サンプル関連語、及びサンプル検索語とサンプル情報とサンプル関連語との間の検索関連重みを意味解析モデルに入力し、意味解析モデルから出力されたコンテキスト予測意味を取得する。
S307において、コンテキスト予測意味及びコンテキスト注記意味に基づいて意味解析モデルをトレーニングする。
上記例と組み合わせると、各グループのトレーニングデータがサンプル検索語、サンプル情報、サンプル関連語で構成される1グループ又は複数グループの目標トレーニングデータが決定されるため、各グループのトレーニングデータに対応する目標経路上の各検索関連重みの加算値は、サンプル検索語とサンプル情報とサンプル関連語との間の検索関連重みとすることができる。
これにより、サンプル検索語、サンプル情報、サンプル関連語、及びサンプル検索語とサンプル情報とサンプル関連語との間の検索関連重みを機械翻訳による双方向の符号化表現BERTモデルに入力し、BERTモデルから出力されたコンテキスト予測意味を取得し、その後、コンテキスト予測意味とコンテキスト注記意味との間の損失値を決定することができ、損失値が参照損失値を満たす場合、意味解析モデルのトレーニングが完了し、意味解析モデルのトレーニング効率及びトレーニング正確性を向上させる。
例えば、機械翻訳による双方向の符号化表現BERTモデルに対して対応する損失関数を配置し、この損失関数に基づいて、サンプル検索語、サンプル情報、サンプル関連語、及び検索関連重みを入力した後に、得られたコンテキスト予測意味とコンテキスト注記意味との間の損失値を取得し、それにより、損失値と予め定められた参照損失値を比較し、損失値が参照損失値を満たす場合、意味解析モデルのトレーニングが完了する。
限定されるものではないが、トレーニングして得られた意味解析モデルは入力された1段落のテキストに対して意味解析を行い、この段落のテキストにおけるマスクワードを決定し、又は、この段落のテキストが特定の文章に由来するか否かを解析するために用いることができる。
本実施例では、トレーニングデータを1つのグラフモデルとして構築し、グラフモデルを用いて、サンプル検索語と、検索して得られたテキストのサンプル情報と、テキストに対応するサンプル関連語を含む目標トレーニングデータを決定することにより、トレーニングして得られた意味解析モデルは検索応用シーンにおけるトレーニングデータに効果的に適用し、検索応用シーンにおける意味解析モデルのモデル表現効果を向上させることができる。トレーニングして得られた意味解析モデルが検索応用シーンにおけるトレーニングデータに効果的に適用できるようにするとともに、モデルデータ取得の完全性を向上させ、モデルデータの取得効率を向上させ、またモデルトレーニング全体の時間コストを効果的に削減することができる。サンプル検索語、サンプル情報、サンプル関連語、及びサンプル検索語とサンプル情報とサンプル関連語との間の検索関連重みを意味解析モデルに入力し、意味解析モデルから出力されたコンテキスト予測意味を取得するとともに、コンテキスト予測意味及びコンテキスト注記意味に基づいて意味解析モデルをトレーニングすることにより、意味解析モデルのトレーニング効果を効果的に向上させ、さらに検索応用シーンにおける意味解析モデルの適用性を保証することができる。
図4は本出願の第3の実施例による概略図である。
図4に示すように、この意味解析モデルのトレーニング装置40は、
各グループのトレーニングデータが検索語と、検索語を用いて検索して得られた少なくとも1つのテキストの情報と、テキストに対応する少なくとも1つの関連語とを含む複数グループのトレーニングデータを取得するための取得モジュール401と、トレーニングデータを用いてグラフモデルを構築するとともに、グラフモデルに基づいて複数グループのトレーニングデータの中から、サンプル検索語、サンプル情報、及びサンプル関連語を含む目標トレーニングデータを決定するための決定モジュール402と、サンプル検索語、サンプル情報、及びサンプル関連語を用いて意味解析モデルをトレーニングするためのトレーニングモジュール403と、を備える。
本出願のいくつかの実施例では、図5に示すように、図5は本出願の第4の実施例による概略図であり、図5において、この意味解析モデルのトレーニング装置50は、取得モジュール501と、決定モジュール502と、トレーニングモジュール503とを備え、ここで、決定モジュール502は、トレーニングデータにおける検索語と情報と関連語との間の検索関連重みを取得するための取得サブモジュール5021と、複数グループのトレーニングデータを用いて初期のグラフモデルを構築するとともに、検索関連重みに基づいて初期のグラフモデルを反復トレーニングし、目標グラフモデルを取得するための構築サブモジュール5022と、目標グラフモデルに基づいて複数グループのトレーニングデータの中から目標トレーニングデータを決定するための決定サブモジュール5023と、を備える。
本出願のいくつかの実施例では、目標グラフモデルは、複数の経路を含み、各経路は複数のノードを繋げり、ノードは1つの検索語に対応し、又は1つの関連語に対応し、又は1つの情報に対応し、経路は繋げられるノードに対応する内容の間の検索関連重みを記述する。
本出願のいくつかの実施例では、ここで、決定サブモジュール5023は、具体的に、目標グラフモデルから、複数の目標ノードを繋げる目標経路を決定し、目標ノードに対応する検索語をサンプル検索語とし、目標ノードに対応する関連語をサンプル関連語とし、目標ノードに対応する情報をサンプル情報とするために用いられる。
本出願のいくつかの実施例では、ここで、決定サブモジュール5023は、さらに、ランダムウオーク方式を用いて、目標グラフモデルから目標経路を決定し、又は幅優先検索方式を用いて、目標グラフモデルから目標経路を決定するために用いられる。
本出願のいくつかの実施例において、ここで、トレーニングモジュール503は、具体的に、サンプル検索語、サンプル情報、サンプル関連語、及びサンプル検索語とサンプル情報とサンプル関連語との間の検索関連重みを意味解析モデルに入力し、意味解析モデルから出力されたコンテキスト予測意味を取得し、コンテキスト予測意味及びコンテキスト注記意味に基づいて意味解析モデルをトレーニングするために用いられる。
本出願のいくつかの実施例において、ここで、トレーニングモジュール503は、さらに、コンテキスト予測意味とコンテキスト注記意味との間の損失値を決定し、損失値が参照損失値を満たす場合、意味解析モデルのトレーニングを完了させるために用いられる。
本出願のいくつかの実施例では、意味解析モデルは機械翻訳による双方向の符号化表現BERTモデルである。
理解されるように、本実施例の図5における意味解析モデルのトレーニング装置50と上記実施例における意味解析モデルのトレーニング装置40、取得モジュール501と上記実施例における取得モジュール401、決定モジュール502と上記実施例における決定モジュール402、トレーニングモジュール503と上記実施例におけるトレーニングモジュール403は、同一の機能及び構成を有してもよい。
なお、前述した意味解析モデルのトレーニング方法についての解釈及び説明は、本実施例の意味解析モデルのトレーニング装置にも適用し、ここでは重複する説明を省略する。
本実施例では、トレーニングデータを1つのグラフモデルとして構築し、グラフモデルを用いて、サンプル検索語と、検索して得られたテキストのサンプル情報と、テキストに対応するサンプル関連語を含む目標トレーニングデータを決定することにより、トレーニングして得られた意味解析モデルは検索応用シーンにおけるトレーニングデータに効果的に適用し、検索応用シーンにおける意味解析モデルのモデル表現効果を向上させることができる。
本出願の実施例によれば、本出願は電子機器、読み取り可能な記憶媒体及びコンピュータプログラム製品をさらに提供する。
図6は本出願の実施例の意味解析モデルのトレーニング方法を実現するための電子機器のブロック図である。電子機器は、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルディジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ及び他の適切なコンピュータなど、様々な形態のデジタルコンピュータを表すことを意図する。電子機器はさらに、例えば、携帯情報端末、携帯電話、スマートフォン、ウェアラブルデバイス及び他の同様のコンピューティング装置など、様々な形態の移動体装置を表すことができる。本明細書に示されるコンポーネント、それらの接続及び関係、並びにそれらの機能は、単なる例であり、本明細書に記載及び/又は請求される本出願の実施を限定することを意図しない。
図6に示すように、機器600は、リードオンリーメモリ(ROM)602に記憶されたコンピュータプログラムや、記憶ユニット608からランダムアクセスメモリ(RAM)603にロードされたコンピュータプログラムに基づいて、各種の適切な動作及び処理を実行することができるコンピューティングユニット601を備える。RAM 603には、さらに、機器600の操作に必要な各種のプログラム及びデータを記憶してもよい。コンピューティングユニット601、ROM 602及びRAM 603は、バス604を介して相互に接続されている。入力/出力(I/O)インタフェース605もバス604に接続されている。
機器600における複数のコンポーネントはI/Oインタフェース605に接続されており、例えば、キーボード、マウス、マイクなどのような入力ユニット606と、例えば、各種のディスプレイ、スピーカなどのような出力ユニット607と、例えば、磁気ディスク、光ディスクなどのような記憶ユニット608と、例えば、ネットワークカード、モデム、無線通信送受信機などのような通信ユニット609とを備える。通信ユニット609は、機器600が、インターネットのようなコンピュータネットワーク及び/又は各種の電気通信網を介して、他の機器と情報/データを交換することを可能にする。
コンピューティングユニット601は、処理及びコンピューティング能力を有する汎用及び/又は専用処理コンポーネントである。コンピューティングユニット601のいくつかの例として、中央処理装置(CPU)、グラフィックス処理装置(GPU)、各種の人工知能(AI)専用コンピューティングチップ、各種の機械学習モデルアルゴリズムを実行するコンピューティングユニット、デジタル信号処理装置(DSP)、及びあらゆる適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されるものではない。コンピューティングユニット601は、上述した各方法及び処理、例えば意味解析モデルのトレーニング方法を実行する。
例えば、いくつかの実施例では、意味解析モデルのトレーニング方法は、コンピュータソフトウェアプログラムとして実現されてもよく、それは、具現化されて、例えば、記憶ユニット608のような機械読み取り可能な媒体に備えられる。いくつかの実施例では、コンピュータプログラムの一部又は全部は、ROM 602及び/又は通信ユニット609を経由して、機器600にロード及び/又はインストールされてもよい。コンピュータプログラムがRAM 603にロードされ、コンピューティングユニット601によって実行されると、上述した意味解析モデルのトレーニング方法の1つ又は複数のステップを実行することができる。それに代えて、他の実施例では、コンピューティングユニット601は、他の任意の適切な方式(例えばファームウェアの助けを借りる)によって、意味解析モデルのトレーニング方法を実行するように構成されてもよい。
ここで説明されるシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途用標準品(ASSP)、システムオンチップのシステム(SOC)、複雑なプログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はこれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラム内で実施されることを含むことができ、この1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを備えるプログラマブルシステム上で実行及び/又は解釈することができ、このプログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、この記憶システム、この少なくとも1つの入力装置、及びこの少なくとも1つの出力装置にデータ及び命令を送信することができる。
本出願の意味解析モデルのトレーニング方法を実施するためのプログラムコードは1つ又は複数のプログラミング言語の任意の組み合わせを用いて作成することができる。これらのプログラムコードを、汎用コンピュータ、専用コンピュータ又は他のプログラマブルデータ処理装置のプロセッサ若しくはコントローラに提供することができ、それにより、プログラムコードがプロセッサ又はコントローラによって実行されると、フローチャート及び/又はブロック図において定められた機能/操作が実施される。プログラムコードは、機械上で完全に実行され、機械上で部分的に実行され、スタンドアロンソフトウェアパッケージとして機械上で部分的に実行され、且つ遠隔機械上で部分的に実行され、又は遠隔機械やプロセッサ上で完全に実行されてもよい。
本出願の文脈において、機械読み取り可能な媒体は形のある媒体であってもよく、それは、命令実行システム、装置又は機器に使用され、或いは、命令実行システム、装置又は機器と組み合わせて使用されるプログラムを含み、又は記憶することができる。機械読み取り可能な媒体は機械読み取り可能な信号媒体又は機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は電子的、磁気的、光学的、電磁的、赤外線、又は半導体システム、装置又は機器、或いは上述した内容の任意の適切な組み合わせを備えることができるが、これらに限定されるものではない。機械読み取り可能な記憶媒体のより具体的な例は1つ又は複数の電線による電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能なプログラマブルリードオンリーメモリ(EPROM又はフラッシュメモリ)、光ファイバー、コンパクトディスクリードオンリーメモリ(CD−ROM)、光学記憶機器、磁気記憶機器、又は上記内容の任意の適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、ここで説明されるシステム及び技術をコンピュータ上で実施することができ、このコンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)やLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)であって、ユーザがこのキーボード及びこのポインティングデバイスによりコンピュータに入力を提供可能なものと、を有する。他の種類の装置は、ユーザとのインタラクションを提供するために用いることもでき、例えば、ユーザに提供されるフィードバックは、任意の形態の感知フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、また、任意の形態(音響入力、音声入力、又は触覚入力を含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを備えるコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを備えるコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドコンポーネントを備えるコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、このグラフィカルユーザインタフェース又はこのウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションできる)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントとの任意のグループの組み合わせを備えるコンピューティングシステムで実施される。任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークとを含む。
コンピュータシステムは、クライアントとサーバとを備えることができる。クライアントとサーバは、一般的に、互いに離れており、通常、通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、且つ互いにクライアント−サーバの関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。サーバはクラウドサーバであってもよく、クラウドコンピューティングサーバ又はクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおけるホスト製品であり、従来の物理ホストとVPSサービス(「Virtual Private Server」、又は略称「VPS」)において存在する、管理の難易度が大きく、業務拡張性が低いという欠点を解決するためのものである。サーバは分散システムのサーバ、又はブロックチェーンと結び付けたサーバであってもよい。
以上に示される様々な形態のフローを使用して、ステップを新たに順序付け、追加、又は削除することが可能であることを理解すべきである。例えば、本開示に記載されている各ステップは、並列に実行してもよいし、順次実行してもよいし、異なる順序で実行してもよいが、本出願に開示されている技術案が所望する結果を実現することができる限り、本明細書ではこれに限定されない。
上記具体的な実施形態は、本出願の保護範囲を限定するものではない。当業者であれば、設計要件と他の要因によって、様々な修正、グループみ合わせ、サブコンビネーション、及び代替を行うことができることを理解すべきである。本出願の精神及び原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (19)

  1. 各グループのトレーニングデータが、検索語と、該検索語を用いて検索して得られた少なくとも1つのテキストの情報と、前記テキストに対応する少なくとも1つの関連語とを含む複数グループのトレーニングデータを取得するステップと、
    前記トレーニングデータを用いてグラフモデルを構築するとともに、前記グラフモデルに基づいて前記複数グループのトレーニングデータの中から、サンプル検索語、サンプル情報、及びサンプル関連語を含む目標トレーニングデータを決定するステップと、
    前記サンプル検索語、サンプル情報、及びサンプル関連語を用いて意味解析モデルをトレーニングするステップと、
    を含む、意味解析モデルのトレーニング方法。
  2. 前記トレーニングデータを用いてグラフモデルを構築するとともに、前記グラフモデルに基づいて前記複数グループのトレーニングデータの中から、目標トレーニングデータを決定するステップが、
    前記トレーニングデータにおける前記検索語及び前記情報と前記関連語との間の検索関連重みを取得するステップと、
    前記複数グループのトレーニングデータを用いて初期のグラフモデルを構築するとともに、前記検索関連重みに基づいて前記初期のグラフモデルを反復トレーニングし、目標グラフモデルを取得するステップと、
    前記目標グラフモデルに基づいて前記複数グループのトレーニングデータの中から目標トレーニングデータを決定するステップと、
    を含む請求項1に記載の方法。
  3. 前記目標グラフモデルが、複数の経路を含み、
    各前記経路が複数のノードを繋げ、該ノードが、1つの前記検索語に対応し、又は1つの前記関連語に対応し、又は1つの前記情報に対応し、前記経路が、繋げられるノードに対応する内容の間の検索関連重みを記述する請求項2に記載の方法。
  4. 前記目標グラフモデルに基づいて前記複数グループのトレーニングデータの中から、目標トレーニングデータを決定するステップが、
    前記目標グラフモデルから、複数の目標ノードを繋げる目標経路を決定するステップと、
    前記目標ノードに対応する検索語を前記サンプル検索語とし、前記目標ノードに対応する関連語を前記サンプル関連語とし、前記目標ノードに対応する情報を前記サンプル情報とするステップと、
    を含む請求項3に記載の方法。
  5. 前記目標グラフモデルから、目標経路を決定するステップが、
    ランダムウオーク方式を用いて、目標グラフモデルから目標経路を決定するステップ、又は
    幅優先検索方式を用いて、目標グラフモデルから目標経路を決定するステップ
    を含む請求項4に記載の方法。
  6. 前記サンプル検索語、サンプル情報、及びサンプル関連語を用いて意味解析モデルをトレーニングするステップが、
    前記サンプル検索語、前記サンプル情報、前記サンプル関連語、及び前記サンプル検索語と前記サンプル情報と前記サンプル関連語との間の検索関連重みを前記意味解析モデルに入力し、前記意味解析モデルから出力されたコンテキスト予測意味を取得するステップと、
    前記コンテキスト予測意味及びコンテキスト注記意味に基づいて前記意味解析モデルをトレーニングするステップと、
    を含む請求項2に記載の方法。
  7. 前記コンテキスト予測意味及びコンテキスト注記意味に基づいて前記意味解析モデルをトレーニングするステップが、
    前記コンテキスト予測意味と前記コンテキスト注記意味との間の損失値を決定するステップと、
    前記損失値が参照損失値を満たす場合、前記意味解析モデルのトレーニングを完了させるステップと、
    を含む請求項6に記載の方法。
  8. 前記意味解析モデルが機械翻訳による双方向の符号化表現BERTモデルである請求項1から7のいずれか一項に記載の方法。
  9. 各グループのトレーニングデータが検索語と、前記検索語を用いて検索して得られた少なくとも1つのテキストの情報と、前記テキストに対応する少なくとも1つの関連語とを含む複数グループのトレーニングデータを取得するための取得モジュールと、
    前記トレーニングデータを用いてグラフモデルを構築するとともに、前記グラフモデルに基づいて前記複数グループのトレーニングデータの中から、サンプル検索語、サンプル情報、及びサンプル関連語を含む目標トレーニングデータを決定するための決定モジュールと、
    前記サンプル検索語、サンプル情報、及びサンプル関連語を用いて意味解析モデルをトレーニングするためのトレーニングモジュールと、
    を備える、意味解析モデルのトレーニング装置。
  10. 前記決定モジュールが、
    前記トレーニングデータにおける前記検索語及び前記情報と前記関連語との間の検索関連重みを取得するための取得サブモジュールと、
    前記複数グループのトレーニングデータを用いて初期のグラフモデルを構築するとともに、前記検索関連重みに基づいて前記初期のグラフモデルを反復トレーニングし、目標グラフモデルを取得するための構築サブモジュールと、
    前記目標グラフモデルに基づいて前記複数グループのトレーニングデータの中から目標トレーニングデータを決定するための決定サブモジュールと、
    を備える請求項9に記載の装置。
  11. 前記目標グラフモデルが、複数の経路を含み、各前記経路が複数のノードを繋げ、該ノードが1つの前記検索語に対応し、又は1つの前記関連語に対応し、又は1つの前記情報に対応し、前記経路は繋げられるノードに対応する内容の間の検索関連重みを記述する請求項10に記載の装置。
  12. 前記決定サブモジュールが、
    前記目標グラフモデルから、複数の目標ノードを繋げる目標経路を決定し、
    前記目標ノードに対応する検索語を前記サンプル検索語とし、前記目標ノードに対応する関連語を前記サンプル関連語とし、前記目標ノードに対応する情報を前記サンプル情報とするために用いられる請求項11に記載の装置。
  13. 前記決定サブモジュールが、
    ランダムウオーク方式を用いて、目標グラフモデルから目標経路を決定し、又は
    幅優先検索方式を用いて、目標グラフモデルから目標経路を決定するために用いられる請求項12に記載の装置。
  14. 前記トレーニングモジュールが、
    前記サンプル検索語、前記サンプル情報、前記サンプル関連語、及び前記サンプル検索語と前記サンプル情報と前記サンプル関連語との間の検索関連重みを前記意味解析モデルに入力し、前記意味解析モデルから出力されたコンテキスト予測意味を取得し、
    前記コンテキスト予測意味及びコンテキスト注記意味に基づいて前記意味解析モデルをトレーニングするために用いられる請求項10に記載の装置。
  15. 前記トレーニングモジュールが、
    前記コンテキスト予測意味と前記コンテキスト注記意味との間の損失値を決定し、
    前記損失値が参照損失値を満たす場合、前記意味解析モデルのトレーニングを完了させるために用いられる請求項14に記載の装置。
  16. 前記意味解析モデルは機械翻訳による双方向の符号化表現BERTモデルである請求項9から15のいずれか一項に記載の装置。
  17. 少なくとも1つのプロセッサと、
    該少なくとも1つのプロセッサと通信可能に接続されるメモリと、
    を備え、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶されており、前記命令は、前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが請求項1から8のいずれか一項に記載の方法を実行させる電子機器。
  18. コンピュータ命令が記憶されている非一時的コンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令が、コンピュータに請求項1から8のいずれか一項に記載の方法を実行させるために用いられる、コンピュータ命令が記憶されている非一時的コンピュータ読み取り可能な記憶媒体。
  19. コンピュータ上で動作しているときに、請求項1から8のいずれか一項に記載の方法を前記コンピュータに実現させるコンピュータプログラム。
JP2021130067A 2020-12-09 2021-08-06 意味解析モデルのトレーニング方法及び装置、電子機器並びに記憶媒体 Active JP7253593B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011451655.2 2020-12-09
CN202011451655.2A CN112560496B (zh) 2020-12-09 2020-12-09 语义分析模型的训练方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2021182430A true JP2021182430A (ja) 2021-11-25
JP7253593B2 JP7253593B2 (ja) 2023-04-06

Family

ID=75061681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021130067A Active JP7253593B2 (ja) 2020-12-09 2021-08-06 意味解析モデルのトレーニング方法及び装置、電子機器並びに記憶媒体

Country Status (3)

Country Link
US (1) US20210342549A1 (ja)
JP (1) JP7253593B2 (ja)
CN (1) CN112560496B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113361247A (zh) * 2021-06-23 2021-09-07 北京百度网讯科技有限公司 文档版面分析方法、模型训练方法、装置和设备
CN113360711B (zh) * 2021-06-29 2024-03-29 北京百度网讯科技有限公司 视频理解任务的模型训练和执行方法、装置、设备及介质
CN113408299B (zh) * 2021-06-30 2022-03-25 北京百度网讯科技有限公司 语义表示模型的训练方法、装置、设备和存储介质
CN113408636B (zh) * 2021-06-30 2023-06-06 北京百度网讯科技有限公司 预训练模型获取方法、装置、电子设备及存储介质
CN113590796B (zh) * 2021-08-04 2023-09-05 百度在线网络技术(北京)有限公司 排序模型的训练方法、装置和电子设备
CN113836316B (zh) * 2021-09-23 2023-01-03 北京百度网讯科技有限公司 三元组数据的处理方法、训练方法、装置、设备及介质
CN113836268A (zh) * 2021-09-24 2021-12-24 北京百度网讯科技有限公司 文档理解方法及装置、电子设备和介质
CN114281968B (zh) * 2021-12-20 2023-02-28 北京百度网讯科技有限公司 一种模型训练及语料生成方法、装置、设备和存储介质
CN114417878B (zh) * 2021-12-29 2023-04-18 北京百度网讯科技有限公司 语义识别方法、装置、电子设备及存储介质
CN114428907B (zh) * 2022-01-27 2024-05-28 北京百度网讯科技有限公司 信息搜索方法、装置、电子设备及存储介质
CN114693934B (zh) * 2022-04-13 2023-09-01 北京百度网讯科技有限公司 语义分割模型的训练方法、视频语义分割方法及装置
CN114968520B (zh) * 2022-05-19 2023-11-24 北京百度网讯科技有限公司 任务搜索方法及装置、服务器和存储介质
CN115082602B (zh) * 2022-06-15 2023-06-09 北京百度网讯科技有限公司 生成数字人的方法、模型的训练方法、装置、设备和介质
CN115719066A (zh) * 2022-11-18 2023-02-28 北京百度网讯科技有限公司 基于人工智能的搜索文本理解方法、装置、设备和介质
CN115878784B (zh) * 2022-12-22 2024-03-15 北京百度网讯科技有限公司 基于自然语言理解的摘要生成方法、装置及电子设备
CN116110099A (zh) * 2023-01-19 2023-05-12 北京百度网讯科技有限公司 头像生成的方法和头像更换的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012133520A (ja) * 2010-12-21 2012-07-12 Nippon Telegr & Teleph Corp <Ntt> 確率的情報検索処理装置、確率的情報検索処理方法および確率的情報検索処理プログラム
JP2019121159A (ja) * 2018-01-04 2019-07-22 富士通株式会社 選択プログラム、選択方法、及び選択装置
JP2020135207A (ja) * 2019-02-15 2020-08-31 富士通株式会社 経路探索方法、経路探索プログラム、経路探索装置および経路探索のデータ構造
JP2020527812A (ja) * 2017-07-21 2020-09-10 トヨタ モーター ヨーロッパ セマンティック・インスタンス・セグメンテーションに使用されるニューラルネットワークを訓練するための方法およびシステム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7739267B2 (en) * 2006-03-10 2010-06-15 International Business Machines Corporation Classification and sequencing of mixed data flows
US20150379571A1 (en) * 2014-06-30 2015-12-31 Yahoo! Inc. Systems and methods for search retargeting using directed distributed query word representations
CN104834735B (zh) * 2015-05-18 2018-01-23 大连理工大学 一种基于词向量的文档摘要自动提取方法
CN106372090B (zh) * 2015-07-23 2021-02-09 江苏苏宁云计算有限公司 一种查询聚类方法及装置
US20190294731A1 (en) * 2018-03-26 2019-09-26 Microsoft Technology Licensing, Llc Search query dispatcher using machine learning
CN110808032B (zh) * 2019-09-20 2023-12-22 平安科技(深圳)有限公司 一种语音识别方法、装置、计算机设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012133520A (ja) * 2010-12-21 2012-07-12 Nippon Telegr & Teleph Corp <Ntt> 確率的情報検索処理装置、確率的情報検索処理方法および確率的情報検索処理プログラム
JP2020527812A (ja) * 2017-07-21 2020-09-10 トヨタ モーター ヨーロッパ セマンティック・インスタンス・セグメンテーションに使用されるニューラルネットワークを訓練するための方法およびシステム
JP2019121159A (ja) * 2018-01-04 2019-07-22 富士通株式会社 選択プログラム、選択方法、及び選択装置
JP2020135207A (ja) * 2019-02-15 2020-08-31 富士通株式会社 経路探索方法、経路探索プログラム、経路探索装置および経路探索のデータ構造

Also Published As

Publication number Publication date
JP7253593B2 (ja) 2023-04-06
US20210342549A1 (en) 2021-11-04
CN112560496A (zh) 2021-03-26
CN112560496B (zh) 2024-02-02

Similar Documents

Publication Publication Date Title
JP7253593B2 (ja) 意味解析モデルのトレーニング方法及び装置、電子機器並びに記憶媒体
JP7283009B2 (ja) 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体
US10223355B2 (en) Knowledge-based editor with natural language interface
CN112487173B (zh) 人机对话方法、设备和存储介质
JP2022028908A (ja) 多項関係生成モデルのトレーニング方法、装置、電子機器及び媒体
KR20210124938A (ko) 이벤트 추출 방법, 장치, 전자 기기 및 저장 매체
EP4113357A1 (en) Method and apparatus for recognizing entity, electronic device and storage medium
CN108536735B (zh) 基于多通道自编码器的多模态词汇表示方法与系统
JP2021106016A (ja) 対話生成方法、装置、電子機器及び媒体
CN114281968B (zh) 一种模型训练及语料生成方法、装置、设备和存储介质
JP2022040026A (ja) エンティティリンキング方法、装置、電子デバイス及び記憶媒体
JP2022091986A (ja) インテリジェント対話方法、装置、電子機器及び記憶媒体
JP7308910B2 (ja) 単語スロットの認識方法、装置及び電子機器
EP3862891A2 (en) Method and apparatus for retrieving multi-turn dialogue, storage medium, and electronic device
JP2021170310A (ja) 対話生成方法、装置、電子機器、プログラム及び記憶媒体
CN113392197A (zh) 问答推理方法、装置、存储介质及电子设备
US20220179889A1 (en) Method for generating query statement, electronic device and storage medium
JP2022088540A (ja) ユーザ興味画像の生成方法、装置、電子機器及び記憶媒体
CN113779190B (zh) 事件因果关系识别方法、装置、电子设备与存储介质
WO2020263182A1 (en) Method and system for conducting a brainstorming session with a virtual expert
US20230111052A1 (en) Self-learning annotations to generate rules to be utilized by rule-based system
CN114416941A (zh) 融合知识图谱的对话知识点确定模型的生成方法及装置
CN115510203B (zh) 问题答案确定方法、装置、设备、存储介质及程序产品
CN113515598B (zh) 一种网络威胁情报文档实体关系提取方法及装置
US20230222344A1 (en) Method, electronic device, and storage medium for determining prompt vector of pre-trained model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R150 Certificate of patent or registration of utility model

Ref document number: 7253593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150