JP7108675B2 - 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム - Google Patents

意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP7108675B2
JP7108675B2 JP2020205155A JP2020205155A JP7108675B2 JP 7108675 B2 JP7108675 B2 JP 7108675B2 JP 2020205155 A JP2020205155 A JP 2020205155A JP 2020205155 A JP2020205155 A JP 2020205155A JP 7108675 B2 JP7108675 B2 JP 7108675B2
Authority
JP
Japan
Prior art keywords
text
vector
determining
knowledge
semantic matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020205155A
Other languages
English (en)
Other versions
JP2021197133A (ja
Inventor
ホンジャン シ
ウェンビン ジャン
シャンウェイ フェン
ミャオ ユ
ファンユ チョウ
メン ティアン
シュエチェン ウー
シュンチャオ ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021197133A publication Critical patent/JP2021197133A/ja
Application granted granted Critical
Publication of JP7108675B2 publication Critical patent/JP7108675B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3334Selection or weighting of terms from queries, including natural language queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Description

本出願は、コンピュータ技術分野に関し、詳しくは、ナレッジグラフ、自然言語処理、深層学習の技術分野に関し、特に、意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラムに関する。
意味マッチング技術は自然言語処理の技術分野における重要な技術研究方向であり、ビジネスにおいて幅広く使用され、アプリケーションの基礎となっている。意味マッチング技術は、2つの文字列を意味理解を経て、その意味によって類似度マッチングを行う技術である。意味マッチング技術は自然言語処理分野においてずっと非常に重要な位置を占めているだけでなく、ソート、推奨、質問応答など多くのビジネス分野において幅広く使用されており、研究やビジネスにおいて欠かせない部分である。
意味マッチング技術は通常、意味マッチングモデルを用いて実施される。意味マッチングモデルを構築する目標は、簡単に言えば、2つのテキストの間の意味類似度を記述するために、意味類似度に基づいて2つの文字列がマッチングするかどうかを判断することである。意味マッチングモデルの肝心なステップはテキストの意味を記述することであるが、このプロセスは、テキストに含まれる情報のみではテキストに含まれる意味を正確に記述することができないため、意味マッチング精度が低いという問題によく直面する。
意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラムを提供している。
第1の態様によれば、意味マッチング方法であって、第1テキスト及び第2テキストを取得するステップと、第1テキスト、第2テキストに関連する言語知識を取得するステップと、第1テキスト、第2テキスト及び言語知識に基づいて、ターゲット埋め込みベクトルを確定するステップと、ターゲット埋め込みベクトルに基づいて、第1テキストと第2テキストとの意味マッチング結果を確定するステップとを含む意味マッチング方法を提供する。
第2の態様によれば、意味マッチング装置であって、第1テキスト及び第2テキストを取得するように構成される第1取得ユニットと、第1テキスト及び第2テキストに関連する言語知識を取得するように構成される第2取得ユニットと、第1テキスト、第2テキスト及び言語知識に基づいて、ターゲット埋め込みベクトルを確定するように構成されるベクトル確定ユニットと、ターゲット埋め込みベクトルに基づいて、第1テキストと第2テキストとの意味マッチング結果を確定するように構成される意味マッチングユニットとを含む意味マッチング装置を提供する。
第3の態様によれば、意味マッチング電子機器であって、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されるメモリとを含み、メモリには、少なくとも1つのプロセッサが第1の態様に記載の方法を実行できるように、少なくとも1つのプロセッサにより実行され得る指令が格納されている意味マッチング電子機器を提供する。
第4の態様によれば、コンピュータに第1の態様に記載の方法を実行させるためのコンピュータ指令が格納されている非一時的コンピュータ可読記憶媒体を提供している。
第5の態様によれば、コンピュータプログラムであって、前記コンピュータプログラムがプロセッサにより実行されると、第1の態様に記載の方法を実現するコンピュータプログラムを提供する。
本出願の技術によって、外部言語知識を利用してテキスト意味マッチングプロセスに情報量を増やすことができて、テキストの意味を正確に記述することができ、意味マッチングの精度が向上する。
この部分に記載した内容は、本出願の実施形態の重要な点や重要な特徴を示すためのものではなく、本出願の範囲を制限するためのものでもないことを理解されたい。本出願のその他特徴は以下の説明により容易に理解されるだろう。
図面は本技術的手段をよりよく理解するためのものであって、本出願を制限するためのものではない。
本出願の一実施例が適用可能な例示的システムアーキテクチャを示す図である。 本出願による意味マッチング方法の一実施例のフローチャートである。 本出願による意味マッチング方法の1つの適用シーンを示す図である。 本出願による意味マッチング方法のもう1つの実施例のフローチャートである。 本出願による意味マッチング装置の一実施例の構造概略図である。 本出願の実施例の意味マッチング方法を実施するための電子機器のブロック図である。
以下、容易に理解されるように様々な細部を含む本出願の例示的な実施例を添付図面を参照しながら説明し、それらは単なる例示的なものとして見なされるべきである。したがって、当業者は、本出願の範囲及び精神から逸脱することなく、本明細書に記載された実施例に対して様々な変更及び修正を行うことができることを理解されたい。また、以下の説明では、明瞭かつ簡潔にするために、周知の機能及び構造に対する説明は省略されている。
本出願における実施例及び実施例における特徴は衝突しない限り互いに組み合わせ可能であることを理解されたい。以下、添付図面に実施例に組み合わせて本出願を詳細に説明する。
図1は、本出願の意味マッチング方法又は意味マッチング装置を適用することができる実施例の例示的システムアーキテクチャ100を示した。
図1に示されるように、システムアーキテクチャ100は、端末装置101、102、103、ネットワーク104及びサーバ105を含むことができる。ネットワーク104は、端末装置101、102、103とサーバ105との間に通信リンクのための媒体を提供するために使用される。ネットワーク104は有線、無線通信リンク又は光ファイバーケーブルなどの様々な接続タイプを含むことができる。
ユーザは、端末装置101、102、103を使用してネットワーク104を介してサーバ105と対話してメッセージなどを送受信することができる。端末装置101、102、103には、例えば、テキスト入力系アプリケーション、音声認識アプリケーションなど、各種の通信クライアントアプリケーションがインストールされていても良い。
端末装置101、102、103はハードウェアであっても良く、ソフトウェアであっても良い。端末装置101、102及び103がハードウェアである場合、スマートフォン、タブレットコンピュータ、電子書籍リーダー、車載コンピュータ、ラップトップコンピュータ及びデスクトップコンピュータなど様々な電子機器であってもよいが、これらに限定されない。端末装置101、102、103がソフトウェアである場合は、上記に挙げられた電子機器にインストールされても良い。端末装置101、102、103がソフトウェアである場合、複数のソフトウェア又はソフトウェアモジュール(例えば、分散サービスを提供するためのもの)として実施されてもよく、単一のソフトウェア又はソフトウェアモジュールとして実施されてもよい。ここでは、具体的な限定をしない。
サーバ105は、例えば、端末装置101、102、103に送信されたテキストを意味マッチングするバックグラウンドサーバなど、様々なサービスを提供するサーバであってもよい。バックグラウンドサーバは受信したテキストを処理し、意味マッチング結果を確定するとともに、意味マッチング結果を端末装置101、102、103にフィードバックすることができる。
サーバ105はハードウェアであってもよく、ソフトウェアであってもよいことを理解されたい。サーバ105がハードウェアである場合、複数のサーバからなる分散型サーバクラスタとして実施してもよく、単一のサーバとして実施してもよい。サーバ105がソフトウェアである場合、複数のソフトウェア又はソフトウェアモジュール(例えば、分散サービスを提供するためのもの)として実施されてもよく、単一のソフトウェア又はソフトウェアモジュールとして実施されてもよい。ここでは、具体的な限定をしない。
本出願の実施例による意味マッチング方法は一般的にサーバ105によって実行されることを理解されたい。これに応じて、意味マッチング装置は一般的にサーバ105に設けられる。
図1における端末装置、ネットワーク及びサーバの数が単なる例示的なものであることを理解されたい。実施の必要に応じて、任意の数の端末装置、ネットワーク及びサーバを有することができる。
引き続き図2を参照し、図2は本出願による意味マッチング方法の1つの実施例のフローチャート200を示す。本実施例による意味マッチング方法は、以下のステップを含む。
ステップ201:第1テキスト、第2テキストを取得する。
本実施例では、モデルを訓練するための方法の実行主体(例えば、図1に示されるサーバ105)は、まず、第1テキスト及び第2テキストを取得することができる。ここで、第1テキストと第2テキストはマッチング対象となるテキストである。例えば、第1テキストは「どこから出荷しますか」であってもよく、第2テキストは「出荷場所はどこですか」であってもよい。
ステップ202:第1テキスト、第2テキストに関連付けられる言語知識を取得する。
実行主体は第1テキスト及び第2テキストを取得した後、第1テキスト、第2テキストに関連付けられる言語知識を取得することができる。具体的には、実行主体は知識ベースにおけるすべての言語知識を関連する言語知識とすることができる。或いは、実行主体は、第1テキスト及び第2テキストを含むドキュメント又はウェブページを検索し、これらのドキュメント又はウェブページを関連する言語知識とすることができる。
本実施例のいくつかの選択可能な実施方法において、実行主体は、図2に示されていない以下のステップ、すなわち、第1テキスト及び第2テキストにおける実体言及を確定するステップと、予め設定された知識ベース及び実体言及に基づいて言語知識を確定するステップとによって関連する言語知識を取得することができる。
本実施方法では、実行主体はまず第1テキスト及び第2テキストにおける実体言及を確定することができる。例えば、実行主体は、ターゲットテキストに対して単語分割処理を行い、取得した名詞を実体言及とすることができる。或いは、実行主体は、ターゲットテキストに対して固有表現抽出を行い、取得した固有表現を実体言及とすることができる。ここで、実体言及とは実体のテキスト表現形態を指し、固有表現、一般的な名詞句、代名詞などであり得る。例えば、実体「復旦大学」の場合、その実体言及は「復旦大学」、「復旦」、「旦大」などを含み得る。
そして、実行主体は予め設定された知識ベース及び実体言及に基づいて言語知識を確定することができる。ここでの言語知識は実体言及の記述テキスト、対応する候補実体、実体言及に対応する候補実体などを含み得る。
ステップ203:第1テキスト、第2テキスト及び言語知識に基づいてターゲット埋め込みベクトルを確定する。
実行主体は第1テキスト、第2テキスト及び言語知識に基づいてターゲット埋め込みベクトルを確定することができる。具体的には、実行主体は第1テキスト、第2テキスト及び言語知識を事前トレーニングされた埋め込みベクトル確定モデルに入力して、ターゲット埋め込みベクトル(embedding)を得ることができる。前記埋め込みベクトル確定モデルは第1テキスト、第2テキスト及び言語知識とターゲット埋め込みベクトルとの間の対応関係を表すために使用される。前記埋め込みベクトル確定モデルは既存の複数の言語モデル、例えば、Bert(Bidirectional Encoder Representation from Transformers,双方向トランスフォーマーエンコーダー)、Ernie(Ernieはバイドゥ社のディープラーニングプラットフォームフライングパドルに基づいて構築されている)などであり得る。
前記ターゲット埋め込みベクトルには第1テキスト及び第2テキストの意味情報が含まれていることを理解することができる。
ステップ204:ターゲット埋め込みベクトルに基づいて、第1テキストと第2テキストとの意味マッチング結果を確定する。
実行主体はターゲット埋め込みベクトルを得た後、第1テキストと第2テキストとの意味マッチング関係を確定することができる。具体的には、実行主体は事前にトレーニングされた分類モデルにターゲット埋め込みベクトルを入力して、ターゲット埋め込みベクトルの分類結果を確定し、分類結果に基づいて第1テキストが第2テキストとマッチングするかどうかを確定することができる。
引き続き図3を参照し、図3は本出願による意味マッチング方法の1つの適用シーンを示す。図3に示される適用シーンにおいて、ユーザは端末301を介して第1テキスト「出荷場所はどこですか?」を入力する。サーバ302は前記第1テキストを受信した後、質問応答ペアセットから複数の第2テキストを選択した後、第1テキストが各第2テキストとマッチングするかどうかをそれぞれ分析する。第1テキストにマッチングする第2テキスト(どこから出荷しますか?)を確定した後、第2テキストに対応する回答(XX市XX区XX路XX号)を端末301に返すことができる。
本出願の上記実施例による意味マッチング方法は、外部言語知識を利用してテキスト意味マッチングプロセスに情報量を増やすことができ、それによりテキストの意味を正確に記述することができ、意味マッチングの精度を向上させることができる。
引き続き図4を参照し、図4は本出願による意味マッチング方法のもう1つの実施例のフロー400を示す。本実施例において、意味マッチング方法は以下のステップを含む。
ステップ401:第1テキスト、第2テキストを取得する。
ステップ402:第1テキスト、第2テキストに関連する言語知識を取得する。
ステップ403:言語知識に基づいて、第1テキスト、第2テキストの意味情報を抽出し、意味情報に基づいて、ターゲット埋め込みベクトルを確定する。
本実施例において、まず、言語知識に基づいて、第1テキスト、第2テキストの意味情報をそれぞれ抽出することができる。ここで、意味情報は第1テキスト及び第2テキストにおける重要な情報を含んでもよく、また、第1テキスト、第2テキストと外部言語知識との間の関連情報を含んでもよい。ここで、重要な情報は無効ワード、句読点、絵文字など以外の情報として理解することができる。そして、実行主体は意味情報に基づいてターゲット埋め込みベクトルを確定することができる。具体的には、実行主体は意味情報を様々なベクトル生成アルゴリズムに入力してターゲット埋め込みベクトルを取得することができる。前記ベクトル生成アルゴリズムは言語モデル、ニューラルネットワークなどを含むことができる。
一部の適用シーンでは、マスクを介して意味情報を抽出してもよく、ナレッジグラフを介して意味情報を抽出してもよい。具体的には、実行主体はステップ40311から40314の第1実施方法によりターゲット埋め込みベクトルを確定してもよく、また、ステップ40321から40325の第2実施方法によりターゲット埋め込みベクトルを確定してもよい。
第1実施方法
ステップ40311:第1テキスト、第2テキスト、言語知識及び予め設定されたマスク生成モデルにより、ターゲットマスクを確定する。
本実施例では、実行主体は前記第1テキスト、第2テキスト及び言語知識を予め設定されたマスク生成モデルに入力してターゲットマスクを取得することができる。前記マスク生成モデルはトレーニングサンプルセットにおけるトレーニングサンプルに基づいて事前にトレーニングして取得することができる。前記トレーニングサンプルは2つのテキスト及び言語知識を含んでもよく、マーク付きマスクを含んでもよい。トレーニングの際、トレーニングサンプルの2つのテキスト及び言語知識を入力とし、対応するマスクを出力として、マスク生成モデルを取得することができる。
ここで、マスクの長さは2つのテキストの長さに対応することができ、マスクには1と0を含むことができる。例えば、マスクは11111000111100であってもよい。これは、第1~5位、9~12位が隠蔽されていないテキストであり、第6~8位、13~14位が隠蔽されているテキストであることを意味する。本実施例では、ターゲットマスクを使用することによって第1テキスト及び第2テキストにおける重要ではない文字を隠蔽することができる。これらの重要ではない文字には無効ワード、句読点、絵文字などが含まれてもよく、これにより、抽出された埋め込みベクトルは第1テキスト及び第2テキストをより正確に表現することができる。
ステップ40312:ターゲットマスク及び第1テキストに基づいて、第1更新テキストを確定する。
ターゲットマスクを取得した後、ターゲットマスク及び第1テキストに基づいて、第1更新テキストを確定することができる。第1更新テキストにおいて一部の文字が隠蔽されていることが理解できる。
ステップ40313:ターゲットマスク及び第2テキストに基づいて、第2更新テキストを確定する。
同様に、実行主体はターゲットマスク及び第2テキストに基づいて、第2更新テキストを確定することもできる。
ステップ40314:第1更新テキスト及び第2更新テキストに基づいて、ターゲット埋め込みベクトルを確定する。
第1更新テキスト及び第2更新テキストを取得した後、実行主体は第1更新テキストと第2更新テキストとを接続することができ、そして、接続されたテキストを言語モデルに入力して、ターゲット埋め込みベクトルを取得する。接続されたテキストには第1更新テキストと第2更新テキストとを区別するためのマークを含んでいてもよいことを理解することができる。
第1実施方法によって、実行主体は第1テキスト及び第2テキストにおける重要な語彙を言語知識と組み合わせて学習することができ、埋め込みベクトルが第1テキスト及び第2テキストの意味をより正確に表現できるようになる。
第2実施方法
ステップ40321:第1テキスト、第2テキスト及び言語知識に基づいて、ナレッジグラフを生成する。
実行主体は第1テキスト、第2テキスト及び言語知識を取得した後、ナレッジグラフを生成することができる。具体的には、実行主体はまず第1テキスト及び第2テキストに対して単語分割を行って複数の単語を取得することができる。次に、各々の単語に対して、実行主体は該単語に関わる知識に基づいて、該単語を中心としたサブグラフを作成することができる。該単語は各サブグラフの中心単語と呼ぶこともできる。各サブグラフの作成が完成した後、各サブグラフは接続される。接続に際し、中心語彙間の関係に応じて接続する必要がある。接続されたグラフからナレッジグラフを作成することができる。ナレッジグラフには第1テキスト、第2テキスト及び言語知識のすべての知識が含まれていることを理解できる。
ステップ40322:ナレッジグラフにおける複数のエッジを符号化して、第1ベクトル集合を取得する。
実行主体はナレッジグラフの作成を完成した後、ナレッジグラフにおける複数のエッジを符号化して、第1ベクトル集合を取得することができる。符号化する際、任意の符号化アルゴリズムを使用して実施することができる。ここで、第1ベクトル集合における各々のベクトルは1つのエッジに対応する。
ステップ40323:ナレッジグラフにおける複数のノードを符号化して、第2ベクトル集合を取得する。
同様に、実行主体はナレッジグラフにおける複数のノードを符号化して、第2ベクトル集合を取得することもできる。第2ベクトル集合における各々のベクトルは1つのノードに対応する。
ステップ40324:第1ベクトル集合、第2ベクトル集合及びナレッジグラフに基づいて、第3ベクトル集合を確定する。
実行主体はグラフにおけるノードとエッジとの関係に基づいて、第1ベクトル集合における各ベクトルと第2ベクトル集合における対応する各ベクトルとを接続して、第3ベクトル集合を取得することができる。第3ベクトル集合における各々のベクトルはナレッジグラフの作成の際に生成されたサブグラフに対応する。接続する際、実行主体は2つのベクトルの間に切れ目を挿入して接続された2つのベクトルを区別することができる。
ステップ40325:第3ベクトル集合に基づいて、ターゲット埋め込みベクトルを確定する。
実行主体は第3ベクトル集合における各ベクトルを接続して、ターゲット埋め込みベクトルを取得することができる。接続する際、第3ベクトル集合における各ベクトルを全結合層に入力して、ターゲット埋め込みベクトルを取得することができる。
本実施方法によって確定されたターゲット埋め込みベクトルは、ナレッジグラフに第1テキスト、第2テキスト及び言語知識のすべての情報が含まれているため、埋め込みベクトルに第1テキスト、第2テキストに関するより豊富な情報が含まれるようになる。
ステップ404:得られたターゲット埋め込みベクトルを事前にトレーニングされた分類モデルに入力して、第1テキストと第2テキストとの意味マッチング結果を確定する。
実行主体は上記第1実施方法によりターゲット埋め込みベクトルを取得してもよく、また、上記第2実施方法によりターゲット埋め込みベクトルを取得してもよく、第1実施方法及び第2実施方法の両方によりターゲット埋め込みベクトルを取得してもよい。単一の実施方法によりターゲット埋め込みベクトルを取得した後、ターゲット埋め込みベクトルを事前にトレーニングされた分類モデルに入力して、第1テキストと第2テキストとの意味マッチング結果を確定することができる。第1実施方法及び第2実施方法の両方によりターゲット埋め込みベクトルを取得した後、まず2つの埋め込みベクトルを接続又は重み付けして、1つの埋め込みベクトルを取得することができる。次に、該埋め込みベクトルを事前にトレーニングされた分類モデルに入力して、第1テキストと第2テキストとの意味マッチング結果を確定する。
該分類モデルは二分類モデルであってもよい。ここで、第1テキストと第2テキストとのマッチング問題は、実質的には分類問題と見なすことができる。2つのテキストがマッチングすれば、カテゴリ1に分類されることができる。2つのテキストがマッチングしなければ、カテゴリ0に分類されることができる。該分類モデルは、マッチングする複数のテキストペア及びマッチングしない複数のテキストペアを介して事前にトレーニングすることができる。
本実施例のいくつかの選択可能な実施方法において、実行主体が少なくとも2種類の方法により少なくとも2つのターゲット埋め込みベクトルを取得する場合、接続によって得られた各ターゲット埋め込みベクトルによって接続ベクトルを得るステップと、接続ベクトルを分類モデルに入力して、第1テキストと第2テキストとの意味マッチング結果を確定するステップとによって意味マッチング結果を確定することができる。
本実施例では、実行主体は得られた少なくとも2つのターゲット埋め込みベクトルを接続して、接続ベクトルを取得することができる。接続する際、各ターゲット埋め込みベクトルを直接接続することができ、各ターゲット埋め込みベクトルを予め設定されたマークによって区別することができる。或いは、実行主体は、まず、各ターゲット埋め込みベクトルの長さが同じになるように各ターゲット埋め込みベクトルをインターセプトした後、予め設定された順番で各ターゲット埋め込みベクトルを接続することもできる。次に、実行主体は接続ベクトルを分類モデルに入力して、第1テキストと第2テキストとの意味マッチング結果を確定することができる。
本出願の上記実施例によって提供される意味マッチング方法は、2種類の方法を通じて第1テキスト及び第2テキストの埋め込みベクトルを得ることができ、得られた埋め込みベクトルは外部言語知識を学習したため第1テキスト及び第2テキストの意味を正確に記述することができ、これにより、意味マッチングの精度を向上させることができる。
さらに図5を参照すると、本出願は、上記各図に示された方法の実施として、意味マッチング装置の1つの実施例を提供し、該装置の実施例は図2に示された方法の実施例に対応し、該装置は様々な電子機器に適用することができる。
図5に示すように、本実施例の出力情報装置500は第1取得ユニット501、第2取得ユニット502、ベクトル確定ユニット503及び意味マッチングユニット504を含む。
第1取得ユニット501は、第1テキスト、第2テキストを取得するように構成される。
第2取得ユニット502は、第1テキスト、第2テキストに関連する言語知識を取得するように構成される。
ベクトル確定ユニット503は、第1テキスト、第2テキスト及び言語知識に基づいて、ターゲット埋め込みベクトルを確定するように構成される。
意味マッチングユニット504は、ターゲット埋め込みベクトルに基づいて、第1テキストと第2テキストとの意味マッチング結果を確定するように構成される。
本実施例のいくつかの選択可能な実施方法において、ベクトル確定ユニット503はさらに、言語知識に基づいて、第1テキスト、第2テキストの意味情報を抽出し、意味情報に基づいて、ターゲット埋め込みベクトルを確定するように構成されてもよい。
本実施例のいくつかの選択可能な実施方法において、ベクトル確定ユニット503はさらに、第1テキスト、第2テキスト、言語知識及び予め設定されたマスク生成モデルに基づいてターゲットマスクを確定し、ターゲットマスク及び第1テキストに基づいて第1更新テキストを確定し、ターゲットマスク及び第2テキストに基づいて第2更新テキストを確定し、第1更新テキスト及び第2更新テキストに基づいてターゲット埋め込みベクトルを確定するように構成されてもよい。
本実施例のいくつかの選択可能な実施方法において、ベクトル確定ユニット503はさらに、第1テキスト、第2テキスト及び言語知識に基づいてナレッジグラフを生成し、ナレッジグラフにおける複数のエッジを符号化して第1ベクトル集合を取得し、ナレッジグラフにおける複数のノードを符号化して第2ベクトル集合を取得し、第1ベクトル集合、第2ベクトル集合及びナレッジグラフに基づいて、第3ベクトル集合を確定し、第3ベクトル集合に基づいてターゲット埋め込みベクトルを確定するように構成されてもよい。
本実施例のいくつかの選択可能な実施方法において、意味マッチングユニット504はさらに、得られたターゲット埋め込みベクトルを事前にトレーニングされた分類モデルに入力して、第1テキストと第2テキストとの意味マッチング結果を確定するように構成されてもよい。
本実施例のいくつかの選択可能な実施方法において、意味マッチングユニット504はさらに、少なくとも2種の方法により少なくとも2つのターゲット埋め込みベクトルを取得することに応答して、取得した各ターゲット埋め込みベクトルを接続して、接続ベクトルを取得し、接続ベクトルを分類モデルに入力して、第1テキストと第2テキストとの意味マッチング結果を確定するように構成されてもよい。
本実施例のいくつかの選択可能な実施方法において、第2取得ユニット502はさらに、第1テキスト及び第2テキストにおける実体言及を確定し、予め設定された知識ベース及び実体言及に基づいて言語知識を確定するように構成されてもよい。
意味マッチング装置500に記載されているユニット501からユニット504はそれぞれ図2に記載されている方法の各々のステップに対応することを理解されたい。したがって、上記意味マッチング方法に対して説明した操作及び特徴は同様に装置500及びそれに含まれるユニットにも適用可能であり、ここではその詳細を省略する。
本出願の実施例によれば、本出願はさらに電子機器及び可読記憶媒体を提供している。
図6に示すように、図6は本出願の実施例による意味マッチング方法を実行する電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークベンチ、パーソナル・デジタル・アシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、その他の適切なコンピュータなど、様々な形態のデジタルコンピュータを表すことを目的としている。電子機器は、パーソナル・デジタル・アシスタント、携帯電話、スマートフォン、ウェアラブルデバイス及びその他類似のコンピューティングデバイスなど、様々な形態のモバイルデバイスを表すこともできる。本明細書に示されている構成要素、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書で説明及び/又は要求されている本出願の実施を制限するものではない。
図6に示すように、該電子機器は、1つ又は複数のプロセッサ601、メモリ602、及び高速インターフェース及び低速インターフェースを含む様々な部品を接続するためのインターフェースを含む。各構成要素は、互いに異なるバスで接続されており、共通のマザーボードに実装されていてもよく、又は必要に応じて他の形態で実装されていてもよい。プロセッサは、電子機器内で実行される指令を処理することができ、メモリ内又はメモリに格納されて外部の入力/出力装置(インターフェースなどに接続されたディスプレイデバイス)にGUIのグラフィック情報を表示させる指令を含む。他の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバスを複数のメモリと組み合わせて使用してもよい。同様に、複数の電子機器を接続することができ、それぞれの機器はいくつかの必要な操作(例えば、サーバアレイ、一組のブレードサーバ、又はマルチプロセッサシステムとして)を提供する。図6では1つのプロセッサ601を例とする。
メモリ602は本出願による非一時的コンピュータ可読記憶媒体である。前記メモリは、少なくとも1つのプロセッサによって実行可能な指令を格納しており、前記少なくとも1つのプロセッサに本出願による意味マッチング方法の実行を実行させる。本出願の非一時的コンピュータ可読記憶媒体は、本出願による意味マッチング方法の実行をコンピュータに実行させるためのコンピュータ指令を格納する。
メモリ602は、非一時的コンピュータ可読記憶媒体として、本出願の実施例における意味マッチング方法の実行に対応するプログラム指令/モジュール(例えば、図5に示す第1取得ユニット501、第2取得ユニット502、ベクトル確定ユニット503及び意味マッチングユニット504)など、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能プログラム及びモジュールを格納することができる。プロセッサ601は、メモリ602に格納されている非一時的なソフトウェアプログラム、指令及びモジュールを実行することにより、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち上記方法の実施例における意味マッチング方法の実行を実施する。
メモリ602は、オペレーティングシステム、少なくとも1つの機能を実行するために必要なアプリケーションプログラムを格納し得るストレージプログラム領域と、意味マッチングを実行する電子機器の使用によって作成されたデータなどを格納し得るストレージデータ領域とを含むことができる。また、メモリ602は、高速ランダムアクセスメモリを含んでもよく、さらに、例えば、少なくとも1つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の非一時的な固体メモリデバイスなどの非一時的メモリを含むことができる。いくつかの実施例において、メモリ602は、プロセッサ601に対して遠隔に設けられたメモリを任意選択で含んでもよく、これらのリモートメモリはネットワークを介して意味マッチングを実行する電子機器に接続されてもよい。上記ネットワークの実例はインターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク及びそれらの組み合わせを含むがこれらに限定されない。
意味マッチング方法を実行する電子機器はさらに入力装置603及び出力装置604を含むことができる。プロセッサ601、メモリ602、入力装置603及び出力装置604は、バス又はその他の形態で接続されていてもよく、図6ではバスを介して接続されている例を示している。
入力装置603は、入力されたデジタル又は文字情報を受け取り、意味マッチングを実行する電子機器のユーザ設定や機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置を含む。出力装置604は、表示装置、補助照明装置(例えば、LED)、触覚フィードバック装置(例えば、振動モータ)などを含み得る。該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ及びプラズマディスプレイを含むがそれらに限定されない。いくつかの実施形態において、ディスプレイデバイスはタッチスクリーンであってもよい。
ここで説明されるシステム及び技術の様々な実施形態はデジタル電子回路システム、集積回路システム、専用ASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせにおいて実施することができる。これら様々な実施形態は以下を含むことができる。1つ又は複数のコンピュータプログラムにおいて実施され、該1つ又は複数のコンピュータプログラムは少なくとも1つのプログラマブルプロセッサを含むプログラム可能なシステムで実行、及び/又は解釈されてもよく、該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び指令を受信するとともに、データ及び指令を前記ストレージシステム、前記少なくとも1つの入力装置、及び前記少なくとも1つの出力装置に伝送することができる。
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械指令を含み、これらの計算プログラムを高度なプロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ言語/機械語で実施することができる。本明細書で使用されているように用語「機械可読媒体」及び「コンピュータ可読媒体」は、機械指令及び/又はデータをプログラマブルプロセッサに提供するためのあらゆるコンピュータプログラム製品、デバイス及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を意味し、機械可読信号としての機械指令を受信する機械可読媒体を含む。用語「機械可読信号」は機械指令及び/又はデータをプログラマブルプロセッサに提供するためのあらゆる信号を指す。
ユーザとのインタラクションを提供するために、コンピュータ上で、明細書で説明したシステム及び技術を実施してもよく、該コンピュータは、ユーザに情報を表示するための表示装置(例えば、CRT(カソードレイチューブ)又はLCD(液晶ディスプレイ)モニタ)、及びユーザがコンピュータに入力を提供するためのキーボード及びポインティングデバイス(例えば、マウス又はトラックボール)を有する。他の種類の装置はユーザとのインタラクションを提供するために用いられてもよく、例えば、ユーザへのフィードバックは任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(音響入力、音声入力又は触覚入力を含む)でユーザからの入力を受信することができる。
本明細書で説明したシステム及び技術は、バックグラウンドコンポーネントを含むコンピューティングシステム(例えば、データサーバーとして)、又は、ミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又は、フロントエンドコンポーネント(例えば、グラフィカルユーザインタフェース又はウェブブラウザを備えたユーザーコンピュータであって、ユーザが該グラフィカルユーザインタフェース又は該ウェブブラウザを介して、本明細書で説明したシステム及び技術の実施形態と対話することができる)、又は、これらのバックグラウンドコンポーネント、ミドルウェアコンポーネント又はフロントエンドコンポーネントのあらゆる組み合わせを含むコンピューティングシステムで実施することができる。また、システムのコンポーネントは、任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)を介して相互に接続することができる。通信ネットワークの例示として、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及びインターネットを含む。
コンピュータシステムにはクライアント及びサーバを含むことができる。
クライアントとサーバは一般的に互いに離れており、通常は通信ネットワークを介して相互作用する。クライアントとサーバとの関係は、対応するコンピュータに互いにクライアント-サーバの関係を持つコンピュータプログラムによって生成される。
本出願の実施形態の技術的手段によって、外部言語知識を利用してテキスト意味マッチングプロセスに情報量を増やすことができ、それによりテキストの意味を正確に記述することができ、意味マッチングの精度が向上する。
上記に示した様々な形態のプロセスにおけるステップを順序変更、追加又は削除できることを理解されたい。本出願に開示した技術的手段の望ましい結果を実現することができれば、例えば、本出願に記載された各ステップは並行して又は順番通りに又は異なる順番で実行されてもよく、本明細書では限定をしない。
上記の具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者は、設計要件及び他の要因に応じて、様々な修正、組み合わせ、再組合及び置き換えが可能であることを理解すべきである。本出願の精神及び原則の範囲内で行われた如何なる修正、同等の置き換え及び改善などはいずれも本出願の保護範囲内に含まれるべきである。

Claims (15)

  1. サーバまたは電子機器によって実行される意味マッチング方法であって、
    第1テキスト及び第2テキストを取得するステップと、
    前記第1テキスト及び前記第2テキストに関連する言語知識を取得するステップと、
    前記言語知識に基づいて、前記第1テキスト及び前記第2テキストの意味情報を抽出し、前記意味情報に基づいて、ターゲット埋め込みベクトルを確定するステップと、
    前記ターゲット埋め込みベクトルに基づいて前記第1テキストと前記第2テキストとの意味マッチング結果を確定するステップとを含む、意味マッチング方法。
  2. 前記言語知識に基づいて前記第1テキスト及び前記第2テキストの意味情報を抽出し、
    前記意味情報に基づいて前記ターゲット埋め込みベクトルを確定するステップは、
    前記第1テキスト、前記第2テキスト、前記言語知識及び予め設定されたマスク生成モデルにより、ターゲットマスクを確定するステップと、
    前記ターゲットマスク及び前記第1テキストに基づいて、第1更新テキストを確定するステップと、
    前記ターゲットマスク及び前記第2テキストに基づいて、第2更新テキストを確定するステップと、
    前記第1更新テキスト及び前記第2更新テキストに基づいて、前記ターゲット埋め込みベクトルを確定するステップとを含む、請求項1に記載の方法。
  3. 前記言語知識に基づいて前記第1テキスト及び前記第2テキストの意味情報を抽出し、
    前記意味情報に基づいて、前記ターゲット埋め込みベクトルを確定するステップは、
    前記第1テキスト、前記第2テキスト及び前記言語知識に基づいてナレッジグラフを生成するステップと、
    前記ナレッジグラフにおける複数のエッジを符号化して、第1ベクトル集合を取得するステップと、
    前記ナレッジグラフにおける複数のノードを符号化して、第2ベクトル集合を取得するステップと、
    前記第1ベクトル集合、前記第2ベクトル集合及び前記ナレッジグラフに基づいて、第3ベクトル集合を確定するステップと、
    前記第3ベクトル集合に基づいて、前記ターゲット埋め込みベクトルを確定するステップとを含む、請求項1に記載の方法。
  4. 前記ターゲット埋め込みベクトルに基づいて前記第1テキストと前記第2テキストとの意味マッチング結果を確定するステップは、
    得られたターゲット埋め込みベクトルを事前トレーニングされた分類モデルに入力して、前記第1テキストと前記第2テキストとの意味マッチング結果を確定するステップを含む、請求項1~のいずれか1項に記載の方法。
  5. 前記ターゲット埋め込みベクトルに基づいて前記第1テキストと前記第2テキストとの意味マッチング結果を確定するステップは、
    少なくとも2種の方法により少なくとも2つのターゲット埋め込みベクトルを取得することに応答して、取得した各ターゲット埋め込みベクトルを接続して、接続ベクトルを取得するステップと、
    前記接続ベクトルを前記分類モデルに入力して、前記第1テキストと前記第2テキストとの意味マッチング結果を確定するステップとを含む、請求項に記載の方法。
  6. 前記第1テキスト及び前記第2テキストに関連する言語知識を取得するステップは、
    前記第1テキスト及び前記第2テキストにおける実体言及を確定するステップと、
    予め設定された知識ベース及び前記実体言及に基づいて、前記言語知識を確定するステップとを含む、請求項1に記載の方法。
  7. 第1テキスト及び第2テキストを取得するように構成される第1取得ユニットと、
    前記第1テキスト及び前記第2テキストに関連する言語知識を取得するように構成される第2取得ユニットと、
    前記言語知識に基づいて、前記第1テキスト及び前記第2テキストの意味情報を抽出し、前記意味情報に基づいて、ターゲット埋め込みベクトルを確定するように構成されるベクトル確定ユニットと、
    前記ターゲット埋め込みベクトルに基づいて、前記第1テキストと前記第2テキストとの意味マッチング結果を確定するように構成される意味マッチングユニットとを含む、意味マッチング装置。
  8. 前記ベクトル確定ユニットはさらに、
    前記第1テキスト、前記第2テキスト、前記言語知識及び予め設定されたマスク生成モデルに基づいて、ターゲットマスクを確定し、
    前記ターゲットマスク及び前記第1テキストに基づいて、第1更新テキストを確定し、
    前記ターゲットマスク及び前記第2テキストに基づいて、第2更新テキストを確定し、
    前記第1更新テキスト及び前記第2更新テキストに基づいて、前記ターゲット埋め込みベクトルを確定するように構成される、請求項に記載の装置。
  9. 前記ベクトル確定ユニットはさらに、
    前記第1テキスト、前記第2テキスト及び前記言語知識に基づいて、ナレッジグラフを生成し、
    前記ナレッジグラフにおける複数のエッジを符号化して、第1ベクトル集合を取得し、
    前記ナレッジグラフにおける複数のノードを符号化して、第2ベクトル集合を取得し、
    前記第1ベクトル集合、前記第2ベクトル集合及び前記ナレッジグラフに基づいて、第3ベクトル集合を確定し、
    前記第3ベクトル集合に基づいて前記ターゲット埋め込みベクトルを確定するように構成される、請求項に記載の装置。
  10. 前記意味マッチングユニットはさらに、
    得られたターゲット埋め込みベクトルを事前トレーニングされた分類モデルに入力して、前記第1テキストと前記第2テキストとの意味マッチング結果を確定するように構成される、請求項に記載の装置。
  11. 前記意味マッチングユニットはさらに、
    少なくとも2種の方法により少なくとも2つのターゲット埋め込みベクトルを取得することに応答して、得られた各ターゲット埋め込みベクトルを接続して、接続ベクトルを取得し、
    前記接続ベクトルを前記分類モデルに入力して、前記第1テキストと前記第2テキストとの意味マッチング結果を確定するように構成される、請求項10に記載の装置。
  12. 前記第2取得ユニットはさらに、
    前記第1テキスト及び前記第2テキストにおける実体言及を確定し、
    予め設定された知識ベース及び前記実体言及に基づいて、前記言語知識を確定するように構成される、請求項に記載の装置。
  13. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリとを備え、
    前記メモリには、前記少なくとも1つのプロセッサが請求項1~のいずれか1項に記載の方法を実行できるように、前記少なくとも1つのプロセッサにより実行され得る指令が格納されている、意味マッチング電子機器。
  14. コンピュータに請求項1~のいずれか1項に記載の方法を実行させるためのコンピュータ指令が格納されている非一時的コンピュータ可読記憶媒体。
  15. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサにより実行されると、請求項1~のいずれか1項に記載の方法を実現するコンピュータプログラム。
JP2020205155A 2020-06-12 2020-12-10 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム Active JP7108675B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010532484.XA CN111428514A (zh) 2020-06-12 2020-06-12 语义匹配方法、装置、设备以及存储介质
CN202010532484.X 2020-06-12

Publications (2)

Publication Number Publication Date
JP2021197133A JP2021197133A (ja) 2021-12-27
JP7108675B2 true JP7108675B2 (ja) 2022-07-28

Family

ID=71551472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020205155A Active JP7108675B2 (ja) 2020-06-12 2020-12-10 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US20210390260A1 (ja)
EP (1) EP3923159A1 (ja)
JP (1) JP7108675B2 (ja)
KR (1) KR20210154705A (ja)
CN (1) CN111428514A (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112035609B (zh) * 2020-08-20 2024-04-05 出门问问创新科技有限公司 一种智能对话方法、装置以及计算机可读存储介质
CN112052825B (zh) * 2020-09-18 2024-04-16 北京百度网讯科技有限公司 用于处理图像的方法、装置、设备以及存储介质
CN113780006B (zh) * 2021-09-27 2024-04-09 广州金域医学检验中心有限公司 医学语义匹配模型的训练方法、医学知识匹配方法及装置
CN114218381B (zh) * 2021-12-08 2022-08-30 北京中科闻歌科技股份有限公司 立场识别方法、装置、设备及介质
CN114218961A (zh) * 2021-12-14 2022-03-22 北京百度网讯科技有限公司 文本检测方法、装置和电子设备
CN113971407B (zh) * 2021-12-23 2022-03-18 深圳佑驾创新科技有限公司 语义特征提取方法及计算机可读存储介质
CN114398136A (zh) * 2022-01-17 2022-04-26 北京达佳互联信息技术有限公司 对象提及方法、装置、终端及存储介质
CN115456176B (zh) * 2022-10-10 2023-07-21 延边大学 一种基于知识增强的文本匹配方法及系统
CN115345152B (zh) * 2022-10-19 2023-03-14 北方健康医疗大数据科技有限公司 模板库更新方法、报告解析方法、装置、设备及介质
CN117555644B (zh) * 2024-01-11 2024-04-30 之江实验室 一种基于自然语言交互的前端页面构建方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107977676A (zh) 2017-11-24 2018-05-01 北京神州泰岳软件股份有限公司 文本相似度计算方法及装置
CN109871428A (zh) 2019-01-30 2019-06-11 北京百度网讯科技有限公司 用于确定文本相关度的方法、装置、设备和介质
WO2019208222A1 (ja) 2018-04-27 2019-10-31 日本電信電話株式会社 回答選択装置、回答選択方法、回答選択プログラム
CN110609902A (zh) 2018-05-28 2019-12-24 华为技术有限公司 一种基于融合知识图谱的文本处理方法及装置
US20200104315A1 (en) 2018-07-26 2020-04-02 JANZZ Ltd Semantic matching system and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2406738A4 (en) * 2009-03-13 2012-08-15 Invention Machine Corp SYSTEM AND METHOD FOR RESPONSE TO QUESTIONS THAT INVOLVE THE APPOSITION OF SEMANTIC MARKS ON TEXT DOCUMENTS AND USER QUESTIONS
US8468160B2 (en) * 2009-10-30 2013-06-18 International Business Machines Corporation Semantic-aware record matching
US10489393B1 (en) * 2016-03-30 2019-11-26 Amazon Technologies, Inc. Quasi-semantic question answering
US11080491B2 (en) * 2019-10-14 2021-08-03 International Business Machines Corporation Filtering spurious knowledge graph relationships between labeled entities

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107977676A (zh) 2017-11-24 2018-05-01 北京神州泰岳软件股份有限公司 文本相似度计算方法及装置
WO2019208222A1 (ja) 2018-04-27 2019-10-31 日本電信電話株式会社 回答選択装置、回答選択方法、回答選択プログラム
CN110609902A (zh) 2018-05-28 2019-12-24 华为技术有限公司 一种基于融合知识图谱的文本处理方法及装置
US20200104315A1 (en) 2018-07-26 2020-04-02 JANZZ Ltd Semantic matching system and method
CN109871428A (zh) 2019-01-30 2019-06-11 北京百度网讯科技有限公司 用于确定文本相关度的方法、装置、设备和介质

Also Published As

Publication number Publication date
JP2021197133A (ja) 2021-12-27
EP3923159A1 (en) 2021-12-15
KR20210154705A (ko) 2021-12-21
CN111428514A (zh) 2020-07-17
US20210390260A1 (en) 2021-12-16

Similar Documents

Publication Publication Date Title
JP7108675B2 (ja) 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
KR102504699B1 (ko) 엔티티 링킹 방법, 장치, 기기, 저장 매체 및 컴퓨터 프로그램
CN112560912B (zh) 分类模型的训练方法、装置、电子设备和存储介质
JP7169389B2 (ja) 文書タイトルツリーの構築方法、装置、電子設備、記憶媒体、及びプログラム
CN111259671B (zh) 文本实体的语义描述处理方法、装置及设备
KR102565673B1 (ko) 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체
US20210200813A1 (en) Human-machine interaction method, electronic device, and storage medium
JP7335300B2 (ja) 知識事前訓練モデルの訓練方法、装置及び電子機器
JP2021111323A (ja) 感情分析モデルの事前トレーニング方法、装置及び電子機器
CN111797216B (zh) 检索项改写方法、装置、设备以及存储介质
EP4113357A1 (en) Method and apparatus for recognizing entity, electronic device and storage medium
JP2021108098A (ja) レビュー情報の処理方法、装置、コンピュータ機器及び媒体
JP7395553B2 (ja) 文章翻訳方法、装置、電子機器及び記憶媒体
JP7337979B2 (ja) モデル訓練方法および装置、テキスト予測方法および装置、電子デバイス、コンピュータ可読記憶媒体、およびコンピュータプログラム
JP2022003537A (ja) 対話意図の認識方法及び装置、電子機器並びに記憶媒体
CN111522944A (zh) 用于输出信息的方法、装置、设备以及存储介质
CN114444462B (zh) 模型训练方法及人机交互方法、装置
US20210312308A1 (en) Method for determining answer of question, computing device and storage medium
EP3855341A1 (en) Language generation method and apparatus, electronic device and storage medium
CN112329429A (zh) 文本相似度学习方法、装置、设备以及存储介质
US20230130662A1 (en) Method and apparatus for analyzing multimodal data
US12033615B2 (en) Method and apparatus for recognizing speech, electronic device and storage medium
US11900918B2 (en) Method for training a linguistic model and electronic device
CN116244432B (zh) 语言模型的预训练方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220715

R150 Certificate of patent or registration of utility model

Ref document number: 7108675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150