JP6975377B2 - テキスト相関度を確定するためのコンピュータ実施方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム - Google Patents

テキスト相関度を確定するためのコンピュータ実施方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP6975377B2
JP6975377B2 JP2019210903A JP2019210903A JP6975377B2 JP 6975377 B2 JP6975377 B2 JP 6975377B2 JP 2019210903 A JP2019210903 A JP 2019210903A JP 2019210903 A JP2019210903 A JP 2019210903A JP 6975377 B2 JP6975377 B2 JP 6975377B2
Authority
JP
Japan
Prior art keywords
text
knowledge
vector representation
knowledge elements
elements
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019210903A
Other languages
English (en)
Other versions
JP2020123318A (ja
Inventor
イエ シュ
ヂィーファン フェン
ジョー ファン
ヤン ジャン
ヨン ジュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2020123318A publication Critical patent/JP2020123318A/ja
Application granted granted Critical
Publication of JP6975377B2 publication Critical patent/JP6975377B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3347Query execution using vector based model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3325Reformulation based on results of preceding query
    • G06F16/3326Reformulation based on results of preceding query using relevance feedback from the user, e.g. relevance feedback on documents, documents sets, document terms or passages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/418Document matching, e.g. of document images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/046Forward inferencing; Production systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示の実施形態は主にコンピュータ分野に関し、より具体的には、テキスト相関度を確定するためのコンピュータ実施方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。
テキストの相関度はテキストのマッチング度合いともいう。多くのアプリケーションでは異なるテキスト間の相関度を確定しなければならない。一つの典型的な場面は検索アプリケーションである。通常、検索を行う際に、各々の文書におけるテキストと検索クエリにおけるテキストとの相関度を確定する必要があり、相関度の高低に基づいてフィードバックされたクエリ結果において各々の文書の順位付け状況を確定することができ、すなわち相関度の順位付けが実現される。テキスト相関度の確定はテキストに対する理解を基にしており、2つのテキストの意味類似度に関連するだけでなく、テキスト間のマッチング度合いにも関連する。大量の研究がなされてきたが、現在の多くのテキスト相関度の確定を実現する方法は正確さの面で依然として改善する余地がある。
本開示の例示的実施形態によれば、テキスト相関度を確定するための手段が提供される。
本開示の第1態様では、テキスト相関度を確定するためのコンピュータ実施方法が提供される。該方法は、知識要素からなる知識表現を含む予め定義された知識ベースから、第1テキストに関連付けられる第1組の知識要素と、第2テキストに関連付けられる第2組の知識要素とを識別するステップと、第1組の知識要素及び第2組の知識要素のうち、知識ベースにおいて同じ識別子を有する知識要素の数を確定するステップであって、知識要素の識別子は知識ベースにおいて知識要素を一意に識別する、ステップと、同じ識別子を有する知識要素の数に基づいて、第1組の知識要素と第2組の知識要素との間の知識要素相関度を確定するステップと、少なくとも知識要素相関度に基づいて、第1テキストに対する第2テキストのテキスト相関度を確定するステップとを含む。
本開示の第2態様では、テキスト相関度を確定するための装置が提供される。該装置は、知識要素からなる知識表現を含む予め定義された知識ベースから、第1テキストに関連付けられる第1組の知識要素と、第2テキストに関連付けられる第2組の知識要素とを識別するように構成された知識要素関連付けモジュールと、第1組の知識要素と第2組の知識要素との間の知識要素相関度を確定するように構成された要素相関度確定モジュールと、少なくとも知識要素相関度に基づいて、第1テキストに対する第2テキストのテキスト相関度を確定するように構成されたテキスト相関度確定モジュールとを含み、要素相関度確定モジュールは、第1組の知識要素及び第2組の知識要素のうち、知識ベースにおいて同じ識別子を有する知識要素の数を確定するように構成された同識別子モジュールであって、知識要素の識別子は知識ベースにおいて知識要素を一意に識別する、同識別子モジュールと、同じ識別子を有する知識要素の数に基づいて、知識要素相関度を確定するように構成された識別子に基づく相関度確定モジュールとを含む。
本開示の第3態様では、一つ以上のプロセッサと、1つ又は複数のプログラムを格納するための記憶装置であって、前記1つ又は複数のプログラムが1つ以上のプロセッサによって実行されると、1つ以上のプロセッサに本開示の第1態様に係る方法を実現させる記憶装置と、を備える電子機器が提供される。
本開示の第4態様では、コンピュータプログラムが格納されているコンピュータ可読記憶媒体であって、該プログラムがプロセッサによって実行されたときに本開示の第1態様による方法を実現するコンピュータ可読記憶媒体が提供される。
本開示の第5態様では、コンピュータプログラムであって、コンピュータプログラムがプロセッサにより実行されると、本開示の第1態様による方法を実現する、コンピュータプログラムが提供される。
発明の開示の部分に記載された内容は、本開示の実施形態の肝要な又は重要な特徴を限定するためのものではなく、本開示の範囲を限定するためのものでもないことを理解されたい。本開示のその他の特徴は以下の説明により容易に理解されるものと思われる。
添付の図面及び以下の詳細な説明を参照することにより、本開示の各実施形態の上記説明、並びにその他の特徴、利点及び態様はより明確になると思われる。添付図面において同一又は類似の図面符号は同一又は類似の要素を示している。
従来の技術手段におけるテキスト類似度を確定する例示的な環境の概略図を示す。
本開示の複数の実施形態によるテキスト類似性を確定する例示的な環境の概略図を示す。
本開示のいくつかの実施形態による学習ネットワークに基づくテキスト相関度を確定するシステムの概略ブロック図を示す。
本開示のいくつかの実施形態による、図3のシステムにおける表現決定モジュールの例示的なブロック図を示す。
本開示のいくつかの実施形態による、図3のシステムにおける特徴抽出モジュールの例示的なブロック図を示す。
本開示のいくつかの実施形態によるテキスト相関度を確定する方法のフローチャートを示す。
本開示の実施形態によるテキスト相関度を確定するための装置の概略ブロック図を示す。
本開示の複数の実施形態を実施することができるコンピューティングデバイスのブロック図を示す。
以下、添付図面を参照しながら本開示の実施形態について詳細に説明する。添付図面には本開示のいくつかの実施形態が示されているが、本開示は様々な形態によって実現することができ、本明細書に記載された実施形態に限定されるものとして解釈されてはいけなく、むしろ、本開示をより徹底的かつ完全に理解するためにこれらの実施形態が提供されることを理解されたい。本開示の添付図面及び実施形態は例示的な役割を果たすためのものであって、本開示の保護範囲を限定するためのものではないことを理解されたい。
本開示の実施形態の説明において、「含む」という用語及びその類似の用語は非限定的な包含、すなわち、「含むが、それらに限定されない」と理解されるべきである。「基づく」という用語は「少なくとも部分的に基づく」と理解されるべきである。「一実施形態」又は「この実施形態」という用語は「少なくとも1つの実施形態」と理解されるべきである。「第1」、「第2」などの用語は異なる又は同じ対象を指すことができる。以下にはその他にも明示的及び暗示的な定義が含まれ得る。
本明細書で使用されているように、用語「文書」は電子文書とも呼ばれ、テキストを含むあらゆるフォーマットのコンピュータ可読文書を指す。文書の例としては、ハイパーテキストマークアップランゲージ(HTML)ファイル(ウェブページとも呼ばれる)、word文書、プレゼンテーション文書、ポータブル文書フォーマット(PDF)文書、スプレッドシート文書、プレーンテキスト文書などがある。
上述したように、多くのアプリケーションにおいてテキスト間の相関度を確定する必要がある。図1は、従来の技術手段においてテキスト類似度を確定する例示的な環境100の概略図を示している。環境100において、コンピューティングデバイス110は、2つのテキスト間の相関度を確定するように構成され、文書ライブラリ120は、それぞれが対応するテキストを有する文書が複数記憶されて構成される。テキスト102「華子の妻は誰ですか?」はユーザが入力した検索クエリ102としてコンピューティングデバイス110に提供される。コンピューティングデバイス110はその後文書ライブラリ120からテキスト102に関連付けられる(又はマッチングする)テキストを検索する。例えば、コンピューティングデバイス110は、文書ライブラリ120から文書130を取得し、文書130の一部、例えば、文章「朱麗倩の夫は劉徳華です」をテキスト132として抽出する。次に、コンピューティングデバイス110は、テキスト132と102との相関度を出力104として決定する。検索クエリのアプリケーションにおいて、確定された相関度は文書130が検索クエリに対する検索結果としてユーザに提示可能であるか否か、及び/又は検索結果における文書130の順位付けに影響を与え得る。
多くの相関度確定技術では、テキスト間での文字や単語レベルの共起、すなわち、2つのテキストで同じ文字や単語が出現する場合を主に考える。しかし、このような明示的な文字や単語レベルの情報はテキストの深層意味を捉えることが困難であることから、相関度確定の精度を十分に満足することが困難である。文書の順位付けを考慮したアプリケーションでは、ユーザのジャンプ関係とウェブページの品質とを利用してウェブ類文書を順位付けすることが提案されている(典型的な手法は「PageRank」モデルと呼ばれる)が、ウェブページと検索クエリとの間の相関度が正確に判定されていない。また、深層学習アルゴリズムの発展に伴い、テキストの相関度を算出する問題を分類問題や順位付け問題にモデル化し、様々な特徴を手動で構築するか又はアルゴリズムを利用して深層特徴を学習した後、その特徴に基づいて相関度又はマッチング度合いを確定することも提案されている。しかしながら、特徴を手動で構築することは多大な労力を必要とし、クエリテキストに対する深層理解を達成することが困難であり、単語レベルでの特徴学習も正確なテキスト理解及びマッチング問題への解決にも直面している。
本開示の実施形態によれば、改善されたテキスト相関度確定手法が提出される。この技術案では、相関度確定の精度を高めるために知識ベースが導入されている。具体的には、エンティティ関連付け手段によって2つのテキストを知識ベースにおける対応するエンティティに関連付けし、その後、2つのテキストに対応するエンティティ間のエンティティ相関度に基づいてテキスト間のテキスト相関度を確定する。このような方法により、知識ベースにおける知識要素レベルの相関度によってテキスト相関度の確定を向上させることができる。
以下、本開示の実施形態について図面を参照しながら詳細に説明する。図2は、本開示の実施形態によるテキスト類似度を確定する例示的環境200の概略図を示している。図1に示される環境100と比較して、環境200のコンピューティングデバイス210は、テキスト102「華子の妻は誰ですか?」と、テキスト132「朱麗倩の夫は劉徳華です」のテキスト相関度を確定する際に、さらに予め定義された知識ベース240も参照して、テキスト102とテキスト132との間のエンティティレベルの相関度を確定する。図2の例にテキスト102及び132の具体的な内容が与えられているが、これはただ解釈や説明をするためのものであることを理解されたい。他の実施形態ではコンピューティングデバイス210は任意の2つのテキスト間のテキスト相関度を確定することができる。
理解を容易にするために、まず知識ベース240を簡単に紹介する。本明細書で使用される「知識ベース」(KB)は、「知識グラフ」又は「知識マップ」とも呼ばれ、これらの用語は本明細書で互換的に使用されてもよい。知識ベースは大量の知識の集合である。知識ベースは複数の知識要素を含むことができ、これらの知識要素のうちの2つ以上が知識表現を構成する。知識の例は、例えば、「劉徳華の妻は朱麗倩である」、「劉徳華の職業は歌手である」、「劉徳華の誕生日は1961年9月27日である」等の事実又は現象である。
知識ベースにおいて、知識要素は、エンティティ、エンティティ間の関係、及びエンティティ間の属性を含む。本明細書で記載の「エンティティ」とは、人物、地理的位置、組織、ブランド、職業、日付など、実世界に存在する様々なオブジェクト及び概念を指す。上記の知識の例で、「エンティティ」は、人物「劉徳華」及び「朱麗倩」、職業「歌手」、日付「1961.9.27」を含む。ここで記載の「関係」とは、2つのエンティティ間の関連付けを意味し、例えば、劉徳華と朱麗倩との関係は夫婦である。ここで記載の「属性」とは、エンティティそのものの性質を意味する。人物を例にすると、その属性には職業、誕生日、代表作、年齢、身長、体重、性別などが含まれる。エンティティの属性は時にはエンティティの名詞的関係と見なされることもあり、したがって、知識ベースは個々のエンティティの1つ以上の関係を記述していることになる。
コンピュータの処理及び理解を容易にするために、知識ベースにおける知識はトリプル(triple)の形態で表されてもよく、トリプルは、例えば、第1のエンティティ、関係/属性、第2のエンティティである。例えば、知識「劉徳華の妻は朱麗倩である」はトリプルによって(劉徳華、妻、朱麗倩)と表され得る。本明細書では、妻などのような関係又は属性は「述語」とも呼ばれ、対応する関係又は属性を有する2つのエンティティは「主語」又は「目的語」として機能し得る。1つのエンティティをノードとし、エンティティ間の関係や属性などをエッジとみなすと、多くのトリプルを含んだ知識ベースは膨大な知識マップを形成する。エンティティ、関係/属性等の知識要素を関連付けすることにより、知識ベースから対応する知識を容易に取得することができる。
図2の知識ベース240は任意の既存のもの又はこれから開発されるものであってもよく、その例は、Freebase、DBpedia、YAGO、公開情報抽出(Open Information Extraction,Open IE)、ネバーエンディング言語学習(Never−Ending Language Learning,NELL)などを含むが、これらに限定されない。図2にはさらに知識ベース240におけるエンティティ「劉徳華」に関連する知識部分240が示されており、エンティティ「劉徳華」201と他のエンティティとの関係/属性が示されている。例えば、エンティティ「劉徳華」201の属性「代表作」202が指す映画エンティティ「いますぐ抱きしめたい(原題:旺角卡門)」203の関係は代表作であり、これは、知識「劉徳華の代表作はいますぐ抱きしめたいである」ことを示し、エンティティ「劉徳華」201と人物エンティティ「朱麗倩」205との関係が「夫婦」204で、これは、知識「劉徳華と朱麗倩は夫婦関係である」ことを示し、エンティティ「劉徳華」201の「職業」属性206及び「誕生日」属性208は、それぞれエンティティ「歌手」207及びエンティティ「1961.9.27」209を指し、それぞれ知識「劉徳華の職業は歌手である」、「劉徳華の誕生日は1961年9月27日である」ことを示している。図2に示される知識部分240及びその配置は単なる具体的な例示であることを理解されたい。他の例示では、エンティティ「劉徳華」に関連する知識は異なる形式で配置されてもよく、知識ベース240は、より多い、より少ない、又は異なる知識、及び/又は他の方式で配置、提示される指示を含んでもよい。
知識ベースでは、区別を容易にするために、異なる知識要素にはそれぞれ対応する識別子(ID)が割り当てることができ、そのような識別子は対応する知識要素を一意に識別することができる。なお、各々の知識要素は対応する知識要素を示すために1つ又は複数の指称(名称とも呼ぶ)を有することができる。図2の例示的な知識部分242では、各々のエンティティ、関係及び属性の単一指称が描かれているが、1つ又は複数の要素は他の指称を有することができる。複数の指称を有する知識要素については、それらの指称は同義語、同じオブジェクトの異なる呼称などであり得る。例えば、エンティティ「劉徳華」について、その指称「劉徳華」の他に、その歌手の他の名称、例えば、ニックネーム「華子」や英文名「Andy Lau」なども該エンティティの指称にすることができる。いくつかの場合によっては、異なる知識要素は同じ指称を有することもあり、例えば、歌手の李娜に対応するエンティティ及びテニス選手の李娜に対応するエンティティはいずれも「李娜」という指称を有する。
知識ベース240は任意の記憶システム、記憶デバイス、データベースに記憶され得ることを理解されたい。文書ベース120とは別個に示されているが、知識ベース240も文書ベース120と同じデータベースに格納され得る。知識ベース240内の知識は継続的に拡張、削除、修正、及び/又は更新され得る。
本開示の実施形態によれば、コンピューティングデバイス210は、テキスト102とテキスト132との間のテキスト相関度214を確定するように構成される。テキスト相関度214の確定結果は、例えば、他の機器に提供されて使用又は記憶され、ユーザに提示されてもよい。コンピューティングデバイス210は確定されたテキスト相関度214をローカルに記憶することもできる。テキスト102及び132はそれぞれ1つ又は複数の文字、単語などからなる、あらゆるソースに由来するテキストであってもよい。図2に示される例では、テキスト102はユーザの検索クエリに含まれ、テキスト132は文書130の一部又は全部である。このような例では、文書130は検索クエリの候補文書であり、コンピューティングデバイス210は、文書130内のテキスト132が検索クエリのテキスト102と関連又はマッチングするかどうかを判定するように構成される。確定されたテキスト相関度の大きさは、文書130が検索クエリの検索結果としてユーザに返され得るかどうかを判定するために使用されてもよく、また、全ての検索結果における文書130の順位を確定するために使用されてもよい。例えば、テキスト132が検索クエリのテキスト102と相関性が高い場合、検索結果における対応する文書130の順位はより上位になり得る。知識ベースの導入により、クエリユーザのニーズをより良く理解することができ、より一致した結果を返すことができる。
いくつかの例では、テキスト102は検索クエリ全体を含み、テキスト132は文書130の1つの段落、1つの文又は他の粒度で分割された文書セグメントを含み得る。文書130は文書ライブラリ120におけるいずれかの文書であってもよく、コンピューティングデバイス210は、テキスト102とのテキスト相関度確定を文書130の各セグメントに対して実行し、テキスト相関度確定を文書ライブラリ120の1つ以上の文書に対して実行してもよい。
検索アプリケーションにおけるテキスト相関度確定のほかに、コンピューティングデバイス210は、任意の2つの文書からのテキスト102とテキスト132との間のテキスト相関度を確定してもよい。例えば、ニュース、ホットスポットプッシュ、又はユーザの興味に基づく推薦などの文書フィードアプリケーションにおいて、2つの文書のいずれかの候補におけるテキスト間の相関度を確定することができる。これらのアプリケーションでは、テキスト102及び132はいずれも文書からのものであり、例えば、文書の一部(一文又は一段落等)であってもよい。確定されたテキスト相関度又は2つの文書の全体テキスト相関度は、文書フィード時対応する2つの文書の順位を確定するために使用されてもよい。例えば、コンテンツの配信を多様化するために、テキスト相関度が高い文書同士の距離を大きくして、ユーザがより多くの異なる文書を取得できるようにしてもよい。あるいは、必要に応じて、テキスト相関度の高い文書をまとめて提示することもできる。
テキスト102及び132のソースにかかわらず、これらの2つのテキストの相関度を確定する際に、本開示の実施形態によれば、コンピューティングデバイス210は、テキスト102(説明を容易にするために本明細書では「第1テキスト」と呼ばれることもある)に関連付けられた知識要素(説明を容易にするために本明細書では「第1組の知識要素」と呼ばれることもある)を知識ベース240から決定する。同様に、テキスト132について、コンピューティングデバイス210は、テキスト132(説明を容易にするために本明細書では「第2テキスト」と呼ばれることもある)に関連付けられた知識要素(説明を容易にするために本明細書では「第2組の知識要素」と呼ばれることもある)を知識ベース240から決定する。以上説明したように、知識ベースにおける知識要素はエンティティ、エンティティ間の関係、及び/又は属性などを含むことができる。テキスト102及び132に含まれる内容に応じて、第1組及び/又は第2組の知識要素は1つ以上のエンティティ、エンティティ間の関係、及び/又はエンティティの属性などを含むことができる。
テキストに出現する知識要素を決定するプロセスは知識要素又はエンティティ関連付け、リンク、又はアノテーションとも呼ばれ、テキストにて記述されたあるオブジェクトが知識ベース内の対応する知識要素に実際に対応するかどうかを識別することを目的としている。コンピューティングデバイス210は、知識ベース240内の知識要素とテキスト102及び132との間の関連付けを決定するために、様々な関連付け/リンク/アノテーション技術を利用してもよく、本開示の実施形態の範囲はこの点において限定されない。図2の例では、コンピューティングデバイス210は、エンティティ関連付けを実行した後、テキスト102に出現した「華子」及び「妻」が知識ベース240内のエンティティ「劉徳華」201及び関係「夫婦」204に関連付けられ得ると確定することができる。さらに、テキスト132に出現する「朱麗倩」、「夫」、「劉徳華」が知識ベース240内のエンティティ「朱麗倩」205、関係「夫婦」204、及びエンティティ「劉徳華」に関連付けられ得ることが確定され得る。
コンピューティングデバイス210は、テキスト102に関連する第1組の知識要素と、テキスト132に関連する第2組の知識要素との間の知識要素相関度を確定し、少なくとも類似度に基づいてテキスト102に対するテキスト132のテキスト相関度を確定するように構成される。知識ベースにおける知識要素が合理的に編成され、知識要素の曖昧性の排除、知識要素の関係/属性の抽出などが実現されたので、知識ベースの補助によりテキスト相関度をより正確に確定することができる。これにより、知識要素の類似度がより高い、あるいは相関度がより強い場合には、これらの2つのテキストの相関度もより高いことを示すことができる。
いくつかの実施形態では、知識要素間の知識要素相関度は所定の規則で抽出されたカスタム特徴によって確定されてもよく、及び/又は機械学習の方法によって抽出された深層学習特徴に基づいて確定されてもよい。いくつかの実施形態では、相関度を確定すべきテキストに知識ベース内のあらゆる知識要素が含まれていない場合など、アプリケーションの安定性を確保するために、テキスト相関度はテキスト102及び132自体に基づいて確定されてもよい。 この際、所定の規則によってテキスト102、132のカスタム特徴を抽出すること、及び/又は機械学習の方法によってテキスト102及び132の深層学習特徴を決定することも考えられる。
カスタム特徴は、単純な規則に従って決定される、知識要素及び/又はテキストのある態様を示すための特性を指す。深層学習特徴に対して、カスタム特徴は浅層特徴と呼ばれることもある。知識要素に関して、いくつかの実施形態では、テキスト102に関連付けられた第1組の知識要素と、テキスト132に関連付けられた第2組の知識要素との間の類似度を確定することができる。この類似度は、第1組の知識要素と第2組の知識要素に対する、知識ベース240における同じ知識要素(例えば、エンティティ、関係、及び/又は属性)の含有比率、及び/又は同じ知識要素の指称の使用比率を示す。一実施形態では、コンピューティングデバイス210は、第1組の知識要素及び第2組の知識要素において、知識ベースにおける同じ識別子を有する知識要素の数を確定することができる。知識要素の識別子は知識要素の指称とは異なって、知識ベース内で知識要素を一意に識別し、したがって、同じ識別子で同じ知識要素を確定することによって、異なる知識要素が同じ指称を有することに起因する相関度確定精度の低下を防止することができる。
次に、コンピューティングデバイス210は、知識要素相関度を確定するために、同じ識別子を有する知識要素の数に基づいて2組の知識要素の間の類似度を確定することができる。2組の知識要素の間の類似度は、同じ識別子を有する知識要素の数によって示されてもよく、同じ識別子を有する知識要素の数で示すことができ、第1組の知識要素の総要素数に対する同じ識別子を有する知識要素の数の割合、或いは第2組の知識要素の総要素数に対する同じ識別子を有する知識要素の数の割合、或いは2組の総要素数の和に対する同じ識別子を有する知識要素の数の割合によって示されてもよい。以下は、同じ識別子に基づく知識要素の数と第1組の知識要素における要素数との間の割合に基づいて決定される知識要素間の類似度の一例を示す。
Figure 0006975377
ここで、id_qは、第1組の知識要素のうちi番目の知識要素の識別子(ID)を示し、第1組の知識要素はn個の知識要素を含み、id_dは、第2組の知識要素のうちj番目の知識要素の識別子を示し、第2組の知識要素はm個の知識要素を含み、
Figure 0006975377
式(1)は、第1組の知識要素のいずれか1つに対して、同じ識別子を有する知識要素が第2組の知識要素内に存在するかどうかを判定することを示す。そして、知識要素相関度を確定するために、第1組の知識要素のうち、同じ識別子を有する要素の数と第1組の総要素数nとの比率が知識要素の類似度を示すために用いられる。2組の知識要素の間の識別子レベルでの類似度は他の方法で確定されてもよいことを理解されたい。
以上は知識要素の一意の識別子を利用して第1組の知識要素及び第2組の知識要素が知識ベース240内の同じ要素を指向するかどうかを判定する。 選択的に又は追加的に、コンピューティングデバイス210は、第1組の知識要素と第2組の知識要素との間の指称の面の類似度を確定することで、知識要素相関度を確定することができる。具体的には、コンピューティングデバイス210は、第1組の知識要素に関連付けるためのテキスト102の第1組のテキストアイテム、及び第2組の知識要素に関連付けるためのテキスト132の第2組のテキストアイテムを識別し、これらの2組のテキストアイテム間のテキスト類似度を確定する。これらのテキストアイテムはテキスト102及び132から知識ベース240内の知識要素にリンクするためのテキストセグメントである。各々のテキストアイテムは1つ以上の文字、単語などを含み得る。例えば、図2の例では、テキスト102のテキストアイテムは「華子」、「妻」、テキスト132のテキストアイテムは「朱麗倩」、「夫」及び「劉徳華」であり、これらのテキストアイテムはそれぞれ対応する知識要素(例えば、エンティティ、関係又は属性)の指称でもある。コンピューティングデバイス210はテキスト類似度レベルに基づいて2組の知識要素の相関度を確定し得る。
テキスト類似度を確定する際に、コンピューティングデバイス210は、第1組のテキストアイテムの第1組のテキストベクトル表現を決定し、第2組のテキストアイテムの第2組のテキストベクトル表現を決定し、次いで、第1組のテキストベクトル表現における各々のベクトル表現と第2組のテキストベクトル表現における各々のベクトル表現との間の距離を決定する。テキストアイテムの「ベクトル表現」は、テキストアイテムのベクトル符号化又は埋め込み(embedding)とも呼ばれ得る。各テキストアイテムのベクトル表現は、ある次元の複数の数値から構成され得る。異なるテキストアイテムのベクトル表現の次元は同じであってもよいが、含まれる数値は異なる。テキストアイテムのベクトル表現間の距離、差異、又は類似度は、異なるテキストアイテム間の意味的類似度を示してもよい。また、テキストアイテムをベクトル表現にマッピングして処理を行うことにより、言語間の相違を効果的に回避することができ、適用制限を低減することができる。本明細書で言及されるテキストアイテムは、知識ベース240内の一部知識要素の指称を指すので、いくつかの実施形態では、知識ベース240内の各々の知識要素の1つ又は複数の指称に対応するベクトル表現が事前に定義され得る。コンピューティングデバイス210は、指称とベクトル表現との間の所定のマッピング関係に基づいて第1組及び第2組のテキストアイテムのベクトル表現を決定し得る。
いくつかの実施形態では、第1組のテキストベクトル表現に基づいて、該組の各々のテキストベクトル表現と第2組の各々のテキストベクトル表現との間の距離の最大値、平均値又は中央値を確定した後、第1組のテキストベクトル表現のすべてについて確定された最大又は平均距離から平均値をさらに計算するか、又は、最大又は中央値を取って2組のテキストベクトル表現間の類似度を示すものとする。以下の式(2)は、2組のテキストベクトル表現間のテキスト類似度を確定する一例を示す。
Figure 0006975377
ここで、mention_qは、第1組のテキストアイテムのうちi番目のテキストアイテム(第1組の知識要素におけるi番目の知識要素の指称にも対応する)のベクトル表現を示し、mention_dは、第2組のテキストアイテムにおけるj番目のテキストアイテム(第2組の知識要素におけるj番目の知識要素の指称にも対応する)のベクトル表現を示す。式(2)は、第1組のテキストアイテムのベクトル表現のいずれか1つについて、第2組のテキストアイテムの各々のベクトル表現との間の差を確定した後、最大差値を選択することを示す。第1組のテキストアイテムのすべてのテキストアイテムのベクトル表現について、選択された対応する最大差値の和を統計し、第1組のテキストアイテムの数にて平均を取る。平均して得た値を2組のテキストアイテム間のテキスト類似度として、知識要素相関度の確定に用いる。
上記の議論は、知識要素の同じ識別子及び/又は知識要素に対応するテキストアイテムのテキスト類似度に基づいて知識要素相関度を確定することを説明した。これらの態様の特徴は統計、単純な計算などによって得ることができるので、知識要素のカスタム特徴とすることができる。他の実施形態では、以上に言及されたように、コンピューティングデバイス210は、選択的に又は追加的に、機械学習の方法で深層学習特徴を決定してもよい。テキスト102及び132自体についても同様にカスタム特徴及び深層学習特徴を決定することができる。機械学習手段の導入はモデルのトレーニング及び使用に係わる。これらの例示的な態様を全面的に説明するために、図3を参照しながら説明し、図3は、本開示のいくつかの実施形態による学習ネットワークに基づくテキスト相関度確定のためのシステム300の概略的なブロック図を示す。
本明細書で使用される用語「学習ネットワーク」は、トレーニングデータから対応する入力と出力との間のマッピング関係を学習可能にされることで、トレーニングが完了した後にトレーニングによって得られたパラメータセットに基づいて与えられた入力を処理して対応する出力を生成するモデルを指す。「学習ネットワーク」は、「ニューラルネットワーク」、「学習モデル」、「ネットワーク」又は「モデル」と呼ばれることもある。これらの用語は本明細書では互換的に使用される。
図3に示されるシステム300は図2のコンピューティングデバイス210内に実現され得る。説明を容易にするために、図2を参照して図3の例示的なアーキテクチャを説明する。システム300は、学習ネットワーク部分302を含み、学習ネットワーク部分302の前の処理部分も含む。具体的には、テキスト102及び132に対して、単語分割モジュール310−1及び310−2(単語分割モジュール310と総称することができる)は、テキスト102及び132に対してそれぞれ単語分割し、テキストアイテム間が空白で区切られている単語分割結果312及び314を得るように構成される。テキストの単語分割は現在既存の又は将来開発される様々な単語分割技術を用いて行うことができる。一部の実施形態において、英文字等文字区切り記号を有する言語については、単語分割モジュール310を使用しなくてもよい。他の実施形態では、テキスト102及び/又はテキスト132の各単語又は各文字は、特別な単語分割技術を必要とすることなく、次の層への入力としても使用され得る。本開示の範囲はこの点において限定されない。
システム300は、テキスト102及び132を知識ベース240内の知識要素にそれぞれ関連付けして、関連付け結果322及び324を得るように構成された知識要素関連付けモジュール320−1及び320−2(知識要素管理モジュール320と総称することができる)をさらに含み、テキスト102が知識ベース240内の第1組の知識要素、すなわち、エンティティ201及び関係204に関連付けられていること、並びに、テキスト132が知識ベース240内の第2組の知識要素、すなわち、エンティティ205、関係204及びエンティティ201に関連付けられていることをそれぞれ示す。
システム300は、知識要素管理モジュール320によって決定された、第1組の知識要素と第2組の知識要素との間の浅層カスタム特徴に用いられる、カスタム特徴決定モジュール330を含み、この浅層カスタム特徴は、第1組の知識要素と第2組の知識要素との間の知識要素相関度を特徴付けるための、識別子レベルにおける類似度及び指称面上のテキスト類似度を含む。これらの両方面の類似度は、例えば、カスタム特徴332として、テキスト102とテキスト132との間のテキスト相関度214を確定するための後続の相関度確定モジュール360に提供される。
知識要素に関連するカスタム特徴を抽出することに加えて、カスタム特徴決定モジュール330は、テキスト102及び132のカスタム特徴を、浅層テキスト相関度として確定することができる。いくつかの実施形態では、カスタム特徴決定モジュール330は、テキスト102及び132に出現する同じ又は類似の単語の数又は頻度を決定することができる。類似語は、同義語、同じ内容の異なる表現(例えば、略語、異なる言語での表現など)であってもよい。通常、テキスト102内の単語がテキスト132に多く出現するほど、テキスト132とテキスト102との相関度が高いことを意味する。いくつかの実施形態では、テキスト102及び132に出現する同一/類似語の数をカウントした後、該数の、テキスト102内の単語の総数との割合、テキスト132内の単語の総数との割合などを、同一/類似語が出現する頻度として決定することができる。いくつかの実施形態では、カスタム特徴決定モジュール330はまた、テキスト102及び/又はテキスト132自体の統計情報を決定することができ、これらの統計情報には、テキスト102及び/又はテキスト132の文字数、単語数、ソース信頼度等、テキスト102の分類とテキスト132の分類との間の類似度等が含まれるが、これらに限定されない。これらの統計情報及び/又は同一/類似語の数及び/又は頻度はカスタム特徴332として後続の相関度確定モジュール360に提供され得る。
知識要素及び/又はテキストの深層学習特徴を抽出する前に、通常、知識要素及び/又はテキストをベクトル表現にマッピングする。システム300は、テキスト102に関連付けられた第1組の知識要素(すなわち、関連付けの結果322)に対応する第1結合ベクトル表現342−1と、テキスト132に関連付けられた第2組の知識要素(すなわち、関連付けの結果324)に対応する第2結合ベクトル表現342−4とをそれぞれ決定するための表現決定モジュール340−2及び340−4を含む。システム300は、テキスト102の第1テキストベクトル表現342−1及びテキスト132の第2テキストベクトル表現342−3をそれぞれ決定するための、特にテキスト132の単語分割結果312及び314に基づいて、第1テキストベクトル表現342−1及び第2テキストベクトル表現342−3を決定するための表現決定モジュール340−1及び340−3を含む。説明の便宜上、表現決定モジュール340−1、340−2、340−3、及び340−4は、表現決定モジュール340と総称することができる。
通常、ベクトル表現を決定するとき、表現決定モジュール340は、所定のマッピング関係に基づいてベクトル表現を決定する。図4は表現決定モジュール340の一例を示す。表現決定モジュール340は、ホットコーディングモジュール410及びベクトル化モジュール420を含む。ホットコーディングモジュール410は、入力された各々のテキストアイテム(例えば、単語分割結果312、314内の単語分割後のテキストアイテム、又は関連付け結果322、324内の各々の知識要素の指称対応テキストアイテム)を、ホットコーディング又はワンホットコーディング(one−hot code)にマッピングするように構成される。ワンホットコーディングの次元はデータベース又はコーパス内の異なるテキストアイテムの数に関連し、相応するテキストアイテムに対応する要素は1とマークアップされ、他の要素は0とマークアップされている。
ベクトル化モジュール420は、ホットコーディングモジュール410によって出力された各テキストアイテムのワンホットコーディングをさらに縮小する。具体的に、ベクトル化モジュール420は、入力された知識要素(表現決定モジュール340−2及び340−4に対して)又はテキストアイテム(表現決定モジュール340−1及び340−3に対して)とベクトル表現との間の所定のマッピング関係を示して、それぞれの知識要素及び/又はテキストアイテムに対応するワンホットコーディングを所定のベクトル表現にマッピングする、所定のベクトル化モデルとして構成され得る。ベクトル化モジュール420は、各々の知識要素又はテキストアイテムに対応するベクトル表現を決定した後、各々の知識要素が対応するテキスト102又は132内で出現する順位を組み合わせる(例えば、カスケードする)ことができる。例えば、表現決定モジュール340−2に関して、知識要素「華子」及び「妻」に対応するベクトル表現を組み合わせて、第1結合ベクトル表現を得ることができる。表現決定モジュール340−4に関して、同様に第2結合ベクトル表現を決定することができる。表現決定モジュール340−1に関して、単語分割後の単語分割結果312内の各テキストアイテムに対応するベクトル表現を、対応するテキスト内のテキストアイテムの順位に従って組み合わせ(例えば、カスケード)して、第1テキストベクトル表現を決定することができる。同様に、表現決定モジュール340−1に関して、第2テキストベクトル表現を決定することができる。
いくつかの実施形態では、知識要素のベクトル表現を決定するために使用される表現決定モジュール(例えば、モジュール340−2又は340−4)、特に、その中のベクトル化モジュール420に使用される所定マッピング関係(時には「第1所定マッピング関係」とも呼ぶ)は、テキストの隣接表現を決定するために使用される表現決定モジュール(例えば、モジュール340−1又は340−3)内のベクトル化モジュール420に使用される所定マッピング関係(時には「第2所定マッピング関係」とも呼ぶ)と異なってもよい。
いくつかの実施形態では、第1所定マッピング関係は知識要素レベルでのベクトル化を実現し、知識要素からベクトル表現へのマッピングを実現して、知識ベース240内の同じ識別子を有する知識要素がその知識要素の指称(例えば、テキスト内の対応するテキストアイテム)にかかわらず同じベクトル表現にマッピングされるようにする。いくつかの実施形態において、第1所定マッピング関係は、知識ベース240内の知識要素の主語、述語、目的語(SPO)情報に基づいて決定され得る。具体的には、TransEモデルを用いて第1所定マッピング関係をモデル化することができ、該モデルは、知識要素のSPO関係が成立するような、例えば、S+P=Oと表される方法でモデル化する。TransEモデルの入力は、ある知識要素の主語(S)のベクトル表現と述語(P)のベクトル表現であり、出力は目的語(O)のベクトル表現である。モデルトレーニングは、S及びPのベクトル表現がOのベクトル表現のみに等しくなるようにすることを目的とする。モデルを継続してトレーニングすることにより、各知識要素を対応するベクトル表現にマッピングすることができる第1マッピング関係を決定することができる。
いくつかの実施形態において、第2所定マッピング関係も知識ベース240内の知識要素のSPO情報に基づいて決定することができる。第2所定マッピング関係は、テキストアイテムからベクトル表現へのマッピングを実現するため、例えば、連続単語袋詰めモデル(continuous bag−of−words Model,CBOWモデル)などによって決定することができる。CBOWモデルの入力は、中心テキストアイテムのコンテキストテキストアイテムのワンホットコーディングであり、出力は該中心テキストアイテムのワンホットコーディングである。コンテキストテキストアイテムの区画は所定の単語ウィンドウによって限定される。いくつかの実施形態において、SPO情報を考慮することにより、中心テキストアイテムとはSPO関係を有するコンテキストテキストアイテムと中心テキストアイテムとの間の距離は、例えば最大で1つのテキストアイテム距離のように短い。したがって、所定単語ウィンドウを1とすることができる。知識要素のSPO情報を利用することで、同様の関係を有する知識要素のベクトル表現をより近づける目的を実現することができる。
以上に与えられたのはベクトル表現決定のいくつかの例示的な実施形態のみであることを理解されたい。他の実施形態では、知識要素及びテキストアイテムのためのベクトル表現が他の方法で決定されてもよい。いくつかの実施形態において、知識要素及びテキストアイテムのベクトル表現は同じマッピング関係を用いて決定され得る。この点において、本開示の実施形態は限定されない。
表現決定モジュール340によって、テキスト102に対応するテキストベクトル表現342−1、結合ベクトル表現342−2がそれぞれ特徴抽出モジュール350−1、350−2に提供され、テキスト132に対応するテキストベクトル表現342−3、結合ベクトル表現342−2及び342−4がそれぞれ特徴抽出モジュール350−3、350−4に提供される。説明を容易にするために、特徴抽出モジュール350−1、350−2、350−3、350−4を特徴抽出モジュール350と総称してもよい。4つの特徴抽出モジュール350は、それぞれ対応する特徴表現から特徴352−1、352−2、352−3、及び352−4(特徴352と総称する)を抽出する。これらの特徴は、トレーニング済み特徴抽出モジュール350がトレーニングによって得られたパラメータに基づいて、ベクトル表現を処理した後に決定される特徴表現であり、これらの特徴表現は、対応する知識要素及び/又はテキストアイテムにおけるテキスト相関度の確定に役立つ特徴情報に注目するのに役立つものである。
特徴抽出モジュール350の一例が図5に示されている。特徴抽出モジュール350は、1つ以上の再帰型ニューラルネットワーク(RNN)層512を含む第1ネットワーク部分510を含み得る。RNN層の使用は、テキスト内の語順を捕捉するのに役立つ。例えば、「謝霆鋒の息子は誰ですか」、「謝霆鋒は誰の息子ですか」という2つのテキストに含まれるテキストアイテムは同じであるが、表す意味は全く異なり、これは、語順によるテキストの意味の変化を区別するのを助けるためのRNNを必要とする。特徴抽出モジュール350は、第1ネットワーク部分510によって抽出された中間表現514の処理を継続して、特徴528を出力するための第2ネットワーク部分520をさらに含むことができる。第2ネットワーク部分520は、全体的な特徴表現能力を向上させるために、1つ又は複数の深い畳み込み(DNN)層を含み得る。図5には、第2ネットワーク部分520における3つのDNN層522、524、及び526が示されている。各ネットワーク層は、特徴関数及び関連パラメータに基づいて入力を処理し、出力を次のネットワーク層に提供するための対応する処理ユニット(ニューロンとも呼ばれる)を1組含み得る。
特徴抽出モジュール350は、テキスト特徴抽出の目的を達成するように任意の方法で構成され得ることを理解されたい。図5には、特徴抽出モジュール350の具体例が1つのみ示されている。他の実施形態では、特徴抽出モジュール350は異なる方法で配置されてもよく、例えば、第1部分510と第2部分520の位置は互いに交換されてもよく、より多くのRNN層、DNN層、他のネットワーク層を含んでもよく、又は1つ以上のRNN層、DNN層等を含まなくてもよい。
いくつかの実施形態では、テキスト自体に対する特徴抽出のため(すなわち、単語分割結果312及び314のベクトル表現に対する特徴抽出のため)の特徴抽出モジュール350−1及び350−3のパラメータセットは共有することができ、すなわち、同じネットワーク構成及びパラメータセットの値を用いることができる。いくつかの実施形態において、知識要素を特徴抽出するため(すなわち、単語分割結果322及び324のベクトル表現を特徴抽出するため)の特徴抽出モジュール350−2及び350−4のパラメータセットは共有することができ、すなわち、同じネットワーク構成及びパラメータセットの値を用いる。いくつかの実施形態において、特徴抽出モジュール350−1、350−3は、知識要素とテキストアイテムの表現、用語等との相違を考慮して、特徴抽出モジュール350−2、350−4のパラメータセットと共有されない、すなわち、パラメータセットの値がそれぞれトレーニングされる。このとき、これらの特徴抽出モジュールのネットワーク構成(例えば、ネットワーク層の類似、数、接続方法など)は同一であってもよく異なっていてもよい。当然ながら、いくつかの実現形態では、4つの特徴抽出モジュール350は同じパラメータセットを有する値としてトレーニングされ得る。
続けて図3を参照し、各特徴抽出モジュール350によって決定された特徴352は相関度確定モジュール360に提供される。相関度確定モジュール360は各々の特徴抽出モジュール350と共に学習ネットワーク302を構成する。カスタム特徴決定モジュール330によって決定された知識要素及び/又はテキスト自体に関する浅層特徴332は、テキスト102とテキスト132との間のテキスト相関度を確定するために、特徴352と共に使用され得る。カスタム特徴決定モジュール330からの特徴332は、相関度確定モジュール360の入力として、特徴352と接続/カスケードされ得る。いくつかの実施形態において、相関度確定モジュール360は、テキスト102とテキスト132との間のテキスト相関度104を確定するために、例えばsoftmax関数に基づいて入力(すなわち、カスケード済み特徴)を処理してもよい。いくつかの実施形態において、相関度確定モジュール360によって出力されるテキスト相関度104は、テキスト132がテキスト102とマッチングする又は関連している度合いを示してもよく、及び/又は、これら2つのテキストがどの程度マッチング/関連していないかを示してもよい。知識要素に基づいて取得された特徴/類似度などは、知識要素レベルでのテキスト102と132の相関度を特徴付けることができる。知識要素相関度が高いほどテキスト類似度が高いことを示すことができる。
一部の実施形態では、テキスト相関度のタスクのために、学習ネットワーク302は、各々のモジュールのパラメータセットの値を決定するためにトレーニングされる必要がある。トレーニングプロセスの目的は、学習ネットワークのパラメータセットが初期値から常に最適化され、一定の収束条件(すなわち、学習目標)を達成することである。学習ネットワーク302のトレーニングはコンピューティングデバイス210によって実現されてもよく、又は、コンピューティングデバイス210の使用のために、コンピューティングデバイス210以外の他のデバイスによって学習ネットワーク302をトレーニングしてもよい。
トレーニングプロセスにおいて、ポジティブサンプル及びネガティブサンプルは知識ベース240又は他の知識ベースにおける知識を用いて生成してもよく、ポジティブサンプルは、知識ベース240における知識のためのクエリ及び正しい知識のためのテキスト表現であってもよく、ネガティブサンプルは、対応するクエリ及びエラー又は関連せずに示されたテキスト表現であってもよい。トレーニングプロセスにおいて、パラメータセットの共有が必要な特徴抽出モジュール350に対して、パラメータ更新を同期化して行うことができる。
図3は、テキスト自体と知識要素のいずれに対してカスタム特徴計算と深層学習特徴抽出を行う例を示している。いくつかの実施形態では、図3の1つ以上のモジュールは省略されてもよく、例えば、テキスト102及び/又は132に対してカスタム特徴計算又は深層特徴抽出が実施されなくてもよく、対応する処理モジュールは省略されてもよい。
図6は、本開示のいくつかの実施形態によるテキスト相関度を確定する方法600のフローチャートを示す。方法600は図2のコンピューティングデバイス210によって実現され得る。説明を容易にするために、方法600は図2を参照して説明する。特定の順序で示されているが、方法600のいくつかのステップは示されているものとは異なる順序で、又は並列的に実行され得ることを理解されたい。この点において本開示の実施形態は限定されない。
ステップ610で、コンピューティングデバイス210は、予め定義された知識ベースから第1テキストに関連付けられる第1組の知識要素と、第2テキストに関連付けられる第2組の知識要素とを識別する。知識ベースは、知識要素から構成される知識表現を含む。ステップ620で、コンピューティングデバイス210は、第1組の知識要素と第2組の知識要素との間の知識要素相関度を確定する。ステップ630で、コンピューティングデバイス210は、少なくとも知識要素相関度に基づいて、第1テキストに対する第2テキストのテキスト相関度を確定する。
いくつかの実施形態では、第1テキストは検索クエリを含み、第2テキストは候補文書の少なくとも一部を含み、相関度は、検索クエリに対するクエリ結果における候補文書の順位を決定するために使用される。
いくつかの実施形態では、第1組の知識要素又は第2組の知識要素は、知識ベース内のエンティティ、エンティティ間の関係及びエンティティの属性のうちの少なくとも1つを含む。
いくつかの実施形態では、知識要素相関度を確定することは、第1組の知識要素及び第2組の知識要素において、知識ベース内に同じ識別子を有する知識要素の数を決定すること、並びに、同じ識別子を有する知識要素の数に基づいて知識要素相関度を確定することを含み、ここで、知識要素の識別子は知識ベース内において知識要素を一意に識別する。
いくつかの実施形態では、知識要素相関度を確定することは、第1テキストにおいて第1組の知識要素に関連付けるための第1組のテキストアイテムと、第2テキストにおいて第2組の知識要素に関連付けるための第2組のテキストアイテムとの間のテキスト類似度を確定すること、及びテキスト類似度に基づいて知識要素相関度を確定することとを含む。
いくつかの実施形態では、知識要素相関度を確定することはさらに、第1組の知識要素に対応する第1結合ベクトル表現及び第2組の知識要素に対応する第2結合ベクトル表現を決定することと、第1結合ベクトル表現の第1特徴及び第2結合ベクトル表現の第2特徴を抽出することと、さらに第1特徴及び第2特徴に基づいて知識要素相関度を確定することとを含む。
いくつかの実施形態では、第1結合ベクトル表現及び第2結合ベクトル表現を決定することは、知識要素とベクトル表現との間の第1所定マッピング関係に基づいて、第1組の知識要素の第1組のベクトル表現及び第2組の知識要素の第2組のベクトル表現を決定し、第1組の知識要素及び第2組の知識要素のうち知識ベース内の同じ識別子を有する知識要素が同じベクトル表現にマッピングされることと、第1組の知識要素が第1テキスト内で出現する順序に従って第1組のベクトル表現を組み合わせることによって、第1結合ベクトル表現を決定することと、第2組の知識要素が第2テキスト内で出現する順序に従って第2組のベクトル表現を組み合わせることによって、第2結合ベクトル表現を決定することとを含む。
いくつかの実施形態において、第1所定マッピング関係は知識ベース内の知識要素の主語、述語、目的語(SPO)情報に基づいて決定される。
いくつかの実施形態において、テキスト相関度を確定することはさらに、テキストアイテムとベクトル表現との間の第2所定マッピング関係に基づいて、第1テキストに対応する第1テキストベクトル表現及び第2テキストに対応する第2テキストベクトル表現を決定することと、第1テキストベクトル表現の第3特徴及び第2テキストベクトル表現の第4特徴を抽出することと、さらに第3特徴及び第4特徴に基づいてテキスト相関度を確定することとを含む。
いくつかの実施形態では、第2所定マッピング関係は、テキストアイテムが知識ベースにおいて関連付けられる知識要素の主語、述語、目的語(SPO)情報に基づいて決定される。
図7は、本開示の実施形態によるテキスト相関度を確定するための装置700の概略ブロック図を示す。装置700は、図2のコンピューティングデバイス210に含まれてもよく、又はコンピューティングデバイス210として実現されてもよい。図7に示すように、装置700は、知識要素から構成される知識表現を含む予め定義された知識ベースから、第1テキストに関連付けられる第1組の知識要素と、第2テキストに関連付けられる第2組の知識要素とを識別するように構成された知識要素関連付けモジュール710を含む。装置700は、第1組の知識要素と第2組の知識要素との間の知識要素相関度を確定するように構成された要素相関度確定モジュール720をさらに含む。装置700は、少なくとも知識要素相関度に基づいて、第2テキストの第1テキストに対するテキスト相関度を確定するように構成されたテキスト相関度確定モジュール730をさらに含む。
いくつかの実施形態では、第1テキストは検索クエリを含み、第2テキストは候補文書の少なくとも一部を含み、相関度は、検索クエリに対するクエリ結果における候補文書の順位を決定するために使用される。
いくつかの実施形態では、第1組の知識要素又は第2組の知識要素は、知識ベース内のエンティティ、エンティティ間の関係及びエンティティの属性のうちの少なくとも1つを含む。
いくつかの実施形態では、要素相関度確定モジュール720は、第1組の知識要素及び第2組の知識要素のうち、知識ベース内で同じ識別子を有する知識要素の数を決定するように構成された同じ識別子モジュールと、同じ識別子を有する知識要素の数に基づいて、知識要素相関度を確定するように構成されている識別子に基づく相関度確定モジュールとを含み、ここで、知識要素の識別子は知識ベース内において知識要素を一意に識別する。
いくつかの実施形態では、要素相関度確定モジュール720は、第1テキストにおいて第1組の知識要素に関連付けるための第1組のテキストアイテムと、第2テキストにおいて第2組の知識要素に関連付けるための第2組のテキストアイテムとのテキスト類似度を確定するように構成されるテキスト類似度確定モジュールと、テキスト類似度に基づいて知識要素相関度を確定するように構成される類似度に基づく相関度確定モジュールとを含む。
いくつかの実施形態では、要素相関度確定モジュール720はさらに、第1組の知識要素に対応する第1結合ベクトル表現と第2組の知識要素に対応する第2結合ベクトル表現とを決定するように構成された第1表現決定モジュールと、第1結合ベクトル表現の第1特徴及び第2結合ベクトル表現の第2特徴を抽出するように構成される第1特徴抽出モジュールと、さらに第1特徴及び第2特徴に基づいて知識要素相関度を確定するように構成される特徴に基づく相関度確定モジュールとを含む。
いくつかの実施形態では、表現決定モジュールは、知識要素とベクトル表現との間の第1所定マッピング関係に基づいて、第1組の知識要素の第1組のベクトル表現及び第2組の知識要素の第2組のベクトル表現を決定し、第1組の知識要素及び第2組の知識要素のうち知識ベース内の同じ識別子を有する知識要素が同じベクトル表現にマッピングされるように構成された個別表現決定モジュールと、第1組のベクトル表現を、第1組の知識要素が第1テキスト内で出現する順位で結合することによって、第1結合ベクトル表現を決定するように構成された第1結合モジュールと、第2組のベクトル表現を、第2組の知識要素が第2テキスト内で出現する順位で結合することによって、第2結合ベクトル表現を決定するように構成される第2結合モジュールとを含む。
いくつかの実施形態において、第1所定マッピング関係が知識ベース内の知識要素の主語、述語、目的語(SPO)情報に基づいて決定される。
いくつかの実施形態では、テキスト相関度確定モジュール730はさらに、テキストアイテムとベクトル表現との第2所定マッピング関係に基づいて、第1テキストに対応する第1テキストベクトル表現、及び第2テキストに対応する第2テキストベクトル表現を決定するように構成される第2表現決定モジュールと、第1テキストベクトル表現の第3特徴と、第2テキストベクトル表現の第4特徴とを抽出するように構成される第2特徴抽出モジュールと、さらに第3特徴及び第4特徴に基づいて、テキスト相関度を確定するように構成される特徴に基づく相関度確定モジュールとを含む。
図8は、本開示の実施形態を実施するのに適用される例示的な機器800の概略ブロック図を示す。機器800は、図2のコンピューティングデバイス210を実現するのに適用され得る。図に示されるように、機器800は、読み出し専用メモリ(ROM)802に記憶されたコンピュータプログラム命令、又は記憶ユニット808からランダムアクセスメモリ(RAM) 803にロードされたコンピュータプログラム命令に基づいて、様々な適切な動作及び処理を実行することができるコンピューティングユニット801を備える。RAM803には、機器800の操作に必要な様々なプログラム及びデータがさらに記憶されてもよい。コンピューティングユニット801、ROM802及びRAM803はバス804を介して互いに接続されている。入力/出力(I/O)インターフェース805もバス804に接続されている。
機器800中のI/Oインターフェース805に接続されている複数の部品として、キーボード、マウスなどの入力ユニット806と、様々なタイプの表示装置、スピーカーなどの出力ユニット807と、磁気ディスク、コンパクトディスクなどの記憶ユニット808と、ネットワークカード、モデム、無線通信トランシーバなどの通信ユニット809が含まれる。通信ユニット809は、機器800がインターネットなどのコンピュータネットワーク及び/又は各種の電気通信ネットワークを介して他の機器と情報/データを交換することを可能にする。
コンピューティングユニット801は、処理及び計算機能を有する様々な汎用及び/又は専用処理コンポーネントであってもよい。コンピューティングユニット801のいくつかの例は、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、様々な専用人工知能(AI)計算チップ、様々な機械学習モデルアルゴリズムを実行する計算ユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。コンピューティングユニット801は前述した各方法及び処理、例えば、方法600を実行する。例えば、いくつかの実施形態において、方法600はコンピュータソフトウェアプログラムとして実現されることができ、機械可読媒体、例えば、記憶ユニット808に有形に含まれている。一部の実施形態において、コンピュータプログラムの一部又は全部は、ROM802、及び/又は通信ユニット809を経由して機器800上にロード及び/又はインストールすることができる。コンピュータプログラムは、RAM803にロードされてコンピューティングユニット801により実行されるとき、前述した方法600の1つ又は複数のステップを実行することができる。選択可能に、その他実施形態において、コンピューティングユニット801はその他任意の適切な方法で(例えば、ファームウェアを介して)方法600を実行するように構成することができる。
本明細書で上述された機能は、少なくとも部分的に1つ又は複数のハードウェアロジック部材で実行することができる。例えば、使用可能な模式的なタイプのハードウェアロジック部材は、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップシステム(SOC)、コンプレックスプログラマブルロジックデバイス(CPLD)などを含むが、これらに限定されない。
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラマブル言語の任意の組み合わせを利用してプログラミングすることができる。これらのプログラムコードは、汎用コンピュータ、特定用途向けコンピュータ又はその他のプログラマブルデータ処理装置のプロセッサ又は制御装置に提供されることができ、プログラムコードがプロセッサ又は制御装置により実行される場合には、フローチャート、及び/又はブロック図に規定された機能/操作が実施される。プログラムコードは、完全に機械上で実行されるか、部分的に機械上で実行されるか、独立したソフトウェアパッケージとして部分的に機械上で実行されて、部分的にリモートマシン上で実行されたり、又は完全にリモートマシン又はサーバーで実行されることができる。
本開示の文脈において、機械可読媒体は、有形タイプの媒体であることができ、命令実行システム、装置又は機器によって使用されるか、又は命令実行システム、装置又は機器と組み合わせて使用されるプログラムを含む又は記憶することができる。機械可読媒体は、機械可読信号媒体又は機械可読記憶媒体であることができる。機械可読媒体は、電子、磁気、光学、電磁、赤外線又は半導体システム、装置、又は機器、又は前述した内容の任意の適切な組み合わせを含むことができるが、これらに限定されない。機械可読記憶媒体のより具体的な例は、1本又は複数のワイヤによる電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD−ROM)、光学記憶装置、磁気記憶装置、又は前述した内容の任意の適切な組み合わせを含むことができるが、これらに限定されない。
また、特定の順序で各動作を説明したが、これはこのような動作が図示された特定の順序又はシーケンスで実行されることを要求したり、所望の結果を取得するために図示されたすべての動作が実行されることを要求すると理解してはならない。一定の環境において、マルチタスクと並列処理は有利であることができる。同様に、上記説明に複数の具体的な実現の詳細が含まれているが、これらは本開示の範囲への限定と解釈してはならない。個別の実施形態の文脈で説明されたいくつかの特徴を組み合わせて単一の実現形態に実現されることができる。逆に、単一の実現形態の文脈で説明された各種の特徴も個別に又は任意の適切なサブセットの形式で複数の実現形態に実現されることもできる。
構造の特徴及び/又は方法のロジックの動作に固有の言語を使用して本主題を説明したが、特許請求の範囲に限定された主題は、必ずしも前述した特定の特徴又は動作に限定されるべきではないことを理解すべきである。逆に、前述した特定の特徴又は動作は、単に特許請求の範囲を実現する例示的な形式である。

Claims (20)

  1. 知識要素からなる知識表現を含む予め定義された知識ベースから、第1テキストに関連付けられる第1組の知識要素と、第2テキストに関連付けられる第2組の知識要素とを識別するステップと、
    前記第1組の知識要素及び第2組の知識要素のうち、前記知識ベースにおいて同じ識別子を有する知識要素の数を確定するステップであって、知識要素の識別子は前記知識ベースにおいて前記知識要素を一意に識別する、ステップと、
    同じ識別子を有する前記知識要素の数に基づいて、前記第1組の知識要素と前記第2組の知識要素との間の知識要素相関度を確定するステップと、
    少なくとも前記知識要素相関度に基づいて、前記第1テキストに対する前記第2テキストのテキスト相関度を確定するステップとを含む、テキスト相関度を確定するためのコンピュータ実施方法。
  2. 前記第1テキストは検索クエリを含み、前記第2テキストは候補文書の少なくとも一部を含み、前記知識要素相関度は、前記検索クエリに対するクエリ結果における前記候補文書の順位の決定に用いられる、請求項1に記載の方法。
  3. 前記第1組の知識要素又は前記第2組の知識要素は、前記知識ベースにおけるエンティティ、前記エンティティ間の関係、及び前記エンティティの属性のうちの少なくとも1つを含む、請求項1に記載の方法。
  4. 前記方法は、
    前記第1テキストにおいて前記第1組の知識要素に関連付けるための第1組のテキストアイテムと、前記第2テキストにおいて前記第2組の知識要素に関連付けるための第2組のテキストアイテムとのテキスト類似度を確定するステップと、
    前記テキスト類似度に基づいて前記知識要素相関度を確定するステップとをさらに含む、請求項1に記載の方法。
  5. 前記方法は、
    前記第1組の知識要素に対応する第1結合ベクトル表現及び前記第2組の知識要素に対応する第2結合ベクトル表現を決定するステップと、
    前記第1結合ベクトル表現の第1特徴及び前記第2結合ベクトル表現の第2特徴を抽出するステップと、
    さらに前記第1特徴及び前記第2特徴に基づいて前記知識要素相関度を確定するステップとをさらに含む、請求項1に記載の方法。
  6. 前記第1結合ベクトル表現及び前記第2結合ベクトル表現を決定するステップは、
    知識要素とベクトル表現との間の第1所定マッピング関係に基づいて、前記第1組の知識要素の第1組のベクトル表現、及び前記第2組の知識要素の第2組のベクトル表現を決定するステップであって、前記第1組の知識要素及び前記第2組の知識要素のうち、前記知識ベースにおける同じ識別子を有する知識要素が同じベクトル表現にマッピングされるステップと、
    前記第1テキストで現れる前記第1組の知識要素の順位によって前記第1組のベクトル表現を組み合わせることにより、前記第1結合ベクトル表現を決定するステップと、
    前記第2テキストで現れる前記第2組の知識要素の順位によって前記第2組のベクトル表現を組み合わせることにより、前記第2結合ベクトル表現を決定するステップとを含む、請求項5に記載の方法。
  7. 前記第1所定マッピング関係が前記知識ベースにおける知識要素の主語、述語、目的語(SPO)情報に基づいて決定される、請求項6に記載の方法。
  8. 前記テキスト相関度を確定するステップはさらに、
    テキストアイテムとベクトル表現との間の第2所定マッピング関係に基づいて、前記第1テキストに対応する第1テキストベクトル表現と、前記第2テキストに対応する第2テキストベクトル表現とを決定するステップと、
    前記第1テキストベクトル表現の第3特徴及び前記第2テキストベクトル表現の第4特徴を抽出するステップと、
    さらに前記第3特徴及び前記第4特徴に基づいて前記テキスト相関度を確定するステップとを含む、請求項1に記載の方法。
  9. 前記第2所定マッピング関係は、テキストアイテムが前記知識ベースにおいて関連付けられる知識要素の主語、述語、目的語(SPO)情報に基づいて決定される、請求項8に記載の方法。
  10. 知識要素からなる知識表現を含む予め定義された知識ベースから、第1テキストに関連付けられる第1組の知識要素と、第2テキストに関連付けられる第2組の知識要素とを識別するように構成された知識要素関連付けモジュールと、
    前記第1組の知識要素と前記第2組の知識要素との間の知識要素相関度を確定するように構成された要素相関度確定モジュールと、
    少なくとも前記知識要素相関度に基づいて、前記第1テキストに対する前記第2テキストのテキスト相関度を確定するように構成されたテキスト相関度確定モジュールとを含み、
    前記要素相関度確定モジュールは、
    前記第1組の知識要素及び第2組の知識要素のうち、前記知識ベースにおいて同じ識別子を有する知識要素の数を確定するように構成された同識別子モジュールであって、知識要素の識別子は前記知識ベースにおいて前記知識要素を一意に識別する、同識別子モジュールと、
    同じ識別子を有する前記知識要素の数に基づいて、前記知識要素相関度を確定するように構成された識別子に基づく相関度確定モジュールとを含む、テキスト相関度を確定するための装置。
  11. 前記第1テキストは検索クエリを含み、前記第2テキストは候補文書の少なくとも一部を含み、前記知識要素相関度は、前記検索クエリに対するクエリ結果における前記候補文書の順位の決定に用いられる、請求項10に記載の装置。
  12. 前記第1組の知識要素又は前記第2組の知識要素は、前記知識ベースにおけるエンティティ、前記エンティティ間の関係、及び前記エンティティの属性のうちの少なくとも1つを含む、請求項10に記載の装置。
  13. 前記要素相関度確定モジュールは、
    前記第1テキストにおいて前記第1組の知識要素に関連付けるための第1組のテキストアイテムと、前記第2テキストにおいて前記第2組の知識要素に関連付けるための第2組のテキストアイテムとのテキスト類似度を確定するように構成されたテキスト類似度確定モジュールと、
    前記テキスト類似度に基づいて前記知識要素相関度を確定するように構成された類似度に基づく相関度確定モジュールとをさらに含む、請求項10に記載の装置。
  14. 前記要素相関度確定モジュールは、
    前記第1組の知識要素に対応する第1結合ベクトル表現及び前記第2組の知識要素に対応する第2結合ベクトル表現を決定するように構成された第1表現決定モジュールと、
    前記第1結合ベクトル表現の第1特徴及び前記第2結合ベクトル表現の第2特徴を抽出するように構成された第1特徴抽出モジュールと、
    さらに前記第1特徴及び前記第2特徴に基づいて前記知識要素相関度を確定するように構成された特徴に基づく相関度確定モジュールとをさらに含む、請求項10に記載の装置。
  15. 前記表現決定モジュールは、
    知識要素とベクトル表現との間の第1所定マッピング関係に基づいて、前記第1組の知識要素の第1組のベクトル表現、及び前記第2組の知識要素の第2組のベクトル表現を決定するように構成された個別表現決定モジュールであって、前記第1組の知識要素及び前記第2組の知識要素のうち、前記知識ベースにおける同じ識別子を有する知識要素が同じベクトル表現にマッピングされている個別表現決定モジュールと、
    前記第1テキストで現れる前記第1組の知識要素の順位によって前記第1組のベクトル表現を組み合わせることにより、前記第1結合ベクトル表現を決定するように構成される第1組み合わせモジュールと、
    前記第2テキストで現れる前記第2組の知識要素の順位によって前記第2組のベクトル表現を組み合わせることにより、前記第2結合ベクトル表現を決定するように構成される第2組み合わせモジュールとを含む、請求項14に記載の装置。
  16. 前記第1所定マッピング関係が、前記知識ベースにおける知識要素の主語、述語、目的語(SPO)情報に基づいて決定される、請求項15に記載の装置。
  17. 前記テキスト相関度確定モジュールは、
    テキストアイテムとベクトル表現との間の第2所定マッピング関係に基づいて、前記第1テキストに対応する第1テキストベクトル表現と、前記第2テキストに対応する第2テキストベクトル表現とを決定するように構成される第2表現決定モジュールと、
    前記第1テキストベクトル表現の第3特徴及び前記第2テキストベクトル表現の第4特徴を抽出するように構成された第2特徴抽出モジュールと、
    さらに前記第3特徴及び前記第4特徴に基づいて前記テキスト相関度を確定するように構成される特徴に基づく相関度確定モジュールとをさらに含む、請求項10に記載の装置。
  18. 1つ又は複数のプロセッサと、
    1つ又は複数のプログラムを格納するための記憶装置であって、前記1つ又は複数のプログラムが前記1つ又は複数のプロセッサによって実行されるとき、前記1つ又は複数のプロセッサに請求項1〜9のいずれか1項に記載の方法を実現させる記憶装置とを含む、電子機器。
  19. コンピュータプログラムが格納されているコンピュータ可読記憶媒体であって、
    前記プログラムがプロセッサにより実行されるとき、請求項1〜9のいずれか1項に記載の方法を実現するコンピュータ可読記憶媒体。
  20. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサにより実行されると、請求項1〜9のいずれか1項に記載の方法を実現する、コンピュータプログラム。
JP2019210903A 2019-01-30 2019-11-21 テキスト相関度を確定するためのコンピュータ実施方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム Active JP6975377B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910093336.XA CN109871428B (zh) 2019-01-30 2019-01-30 用于确定文本相关度的方法、装置、设备和介质
CN201910093336.X 2019-01-30

Publications (2)

Publication Number Publication Date
JP2020123318A JP2020123318A (ja) 2020-08-13
JP6975377B2 true JP6975377B2 (ja) 2021-12-01

Family

ID=66918312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019210903A Active JP6975377B2 (ja) 2019-01-30 2019-11-21 テキスト相関度を確定するためのコンピュータ実施方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11520812B2 (ja)
EP (1) EP3690672A1 (ja)
JP (1) JP6975377B2 (ja)
KR (1) KR102564144B1 (ja)
CN (1) CN109871428B (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11580127B1 (en) 2018-12-21 2023-02-14 Wells Fargo Bank, N.A. User interfaces for database visualizations
CN110738059B (zh) * 2019-10-21 2023-07-14 支付宝(杭州)信息技术有限公司 一种文本相似度计算方法及系统
CN111159485B (zh) * 2019-12-30 2020-11-13 科大讯飞(苏州)科技有限公司 尾实体链接方法、装置、服务器及存储介质
US11687570B2 (en) * 2020-02-03 2023-06-27 Samsung Electronics Co., Ltd. System and method for efficient multi-relational entity understanding and retrieval
DE102020109953A1 (de) * 2020-04-09 2021-10-14 Contexon GmbH Verfahren und Computersystem zur Bestimmung der Relevanz eines Textes
CN111428514A (zh) * 2020-06-12 2020-07-17 北京百度网讯科技有限公司 语义匹配方法、装置、设备以及存储介质
CN111753055B (zh) * 2020-06-28 2024-01-26 中国银行股份有限公司 一种客户问答自动提示方法及装置
CN112507684B (zh) * 2020-11-30 2023-09-22 北京百度网讯科技有限公司 用于检测原创文本的方法、装置、电子设备及存储介质
WO2022149400A1 (ja) * 2021-01-08 2022-07-14 ソニーグループ株式会社 情報処理装置および情報処理方法
CN112769625B (zh) * 2021-01-29 2021-11-30 广州技象科技有限公司 一种配置数据的分组配置方法及装置
CN112860866B (zh) * 2021-02-09 2023-09-19 北京百度网讯科技有限公司 语义检索方法、装置、设备以及存储介质
CN112906368B (zh) * 2021-02-19 2022-09-02 北京百度网讯科技有限公司 行业文本增量方法、相关装置及计算机程序产品
CN113554053B (zh) * 2021-05-20 2023-06-20 重庆康洲大数据有限公司 一种比较中药处方相似性的方法
US20230140791A1 (en) * 2021-10-29 2023-05-04 International Business Machines Corporation Programming task supporting material generation
US11768837B1 (en) 2021-12-28 2023-09-26 Wells Fargo Bank, N.A. Semantic entity search using vector space
US11880379B1 (en) 2022-04-28 2024-01-23 Wells Fargo Bank, N.A. Identity resolution in knowledge graph databases
CN115861715B (zh) * 2023-02-15 2023-05-09 创意信息技术股份有限公司 基于知识表示增强的图像目标关系识别算法
CN116028597B (zh) * 2023-03-27 2023-07-21 南京燧坤智能科技有限公司 对象检索方法、装置、非易失性存储介质及计算机设备
CN116721730B (zh) * 2023-06-15 2024-03-08 医途(杭州)科技有限公司 一种基于数字疗法的患者全程管理系统

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6766316B2 (en) 2001-01-18 2004-07-20 Science Applications International Corporation Method and system of ranking and clustering for document indexing and retrieval
JP4534666B2 (ja) 2004-08-24 2010-09-01 富士ゼロックス株式会社 テキスト文検索装置及びテキスト文検索プログラム
EP2183686A4 (en) * 2007-08-31 2018-03-28 Zhigu Holdings Limited Identification of semantic relationships within reported speech
US9201927B1 (en) * 2009-01-07 2015-12-01 Guangsheng Zhang System and methods for quantitative assessment of information in natural language contents and for determining relevance using association data
US8458171B2 (en) * 2009-01-30 2013-06-04 Google Inc. Identifying query aspects
JP2012520527A (ja) 2009-03-13 2012-09-06 インベンション マシーン コーポレーション ユーザ質問及びテキスト文書の意味ラベリングに基づく質問応答システム及び方法
US8965896B2 (en) 2009-12-22 2015-02-24 Nec Corporation Document clustering system, document clustering method, and recording medium
IN2013CH04333A (ja) * 2013-09-25 2015-08-28 Accenture Global Services Ltd
CN103678281B (zh) * 2013-12-31 2016-10-19 北京百度网讯科技有限公司 对文本进行自动标注的方法和装置
CN105701083A (zh) * 2014-11-28 2016-06-22 国际商业机器公司 文本表示方法和装置
KR20160120583A (ko) * 2015-04-08 2016-10-18 주식회사 노스트 지식 관리 시스템 및 이의 지식 구조 기반의 자료 관리 방법
KR101662450B1 (ko) * 2015-05-29 2016-10-05 포항공과대학교 산학협력단 다중 소스 하이브리드 질의응답 방법 및 시스템
CN105279264B (zh) * 2015-10-26 2018-07-03 深圳市智搜信息技术有限公司 一种文档的语义相关度计算方法
CN106844368B (zh) 2015-12-03 2020-06-16 华为技术有限公司 用于人机对话的方法、神经网络系统和用户设备
KR101768852B1 (ko) * 2016-01-26 2017-08-17 경북대학교 산학협력단 트리플 데이터의 생성 방법 및 시스템
US10127274B2 (en) 2016-02-08 2018-11-13 Taiger Spain Sl System and method for querying questions and answers
KR102457821B1 (ko) 2016-03-15 2022-10-24 한국전자통신연구원 자연어 이해 및 질의응답 기반의 의사결정 지원 장치 및 방법
KR101992399B1 (ko) 2016-07-05 2019-06-24 한국전자통신연구원 하이브리드 추론 기반의 자연어 질의응답 시스템 및 그 방법
KR101914853B1 (ko) * 2017-02-08 2018-11-02 경북대학교 산학협력단 논리적 속성이 반영된 지식 그래프 임베딩 방법 및 시스템, 이를 수행하기 위한 기록매체
US10798027B2 (en) * 2017-03-05 2020-10-06 Microsoft Technology Licensing, Llc Personalized communications using semantic memory
JP6775465B2 (ja) 2017-04-21 2020-10-28 日本電信電話株式会社 対話ルール照合装置、対話装置、対話ルール照合方法、対話方法、対話ルール照合プログラム、及び対話プログラム
CN108304381B (zh) * 2018-01-25 2021-09-21 北京百度网讯科技有限公司 基于人工智能的实体建边方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US11520812B2 (en) 2022-12-06
US20200242140A1 (en) 2020-07-30
JP2020123318A (ja) 2020-08-13
KR102564144B1 (ko) 2023-08-08
CN109871428B (zh) 2022-02-18
KR20200094627A (ko) 2020-08-07
CN109871428A (zh) 2019-06-11
EP3690672A1 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6975377B2 (ja) テキスト相関度を確定するためのコンピュータ実施方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム
CN110019732B (zh) 一种智能问答方法以及相关装置
CN108681557B (zh) 基于自扩充表示和相似双向约束的短文本主题发现方法及系统
CN102955848B (zh) 一种基于语义的三维模型检索系统和方法
JP2015518210A (ja) 製品に関連するデータを体系化する方法、装置及びコンピュータ読み取り可能な媒体
Shekarpour et al. Keyword query expansion on linked data using linguistic and semantic features
KR20170055970A (ko) 컴퓨터로 구현되는 관련 아이템의 식별 기법
CN112966091B (zh) 一种融合实体信息与热度的知识图谱推荐系统
Avasthi et al. Techniques, applications, and issues in mining large-scale text databases
WO2014210387A2 (en) Concept extraction
US20130232147A1 (en) Generating a taxonomy from unstructured information
CN111797245B (zh) 基于知识图谱模型的信息匹配方法及相关装置
WO2020123689A1 (en) Suggesting text in an electronic document
Vekariya et al. A novel approach for semantic similarity measurement for high quality answer selection in question answering using deep learning methods
CN115017315A (zh) 一种前沿主题识别方法、系统及计算机设备
Brenon et al. Classifying encyclopedia articles: Comparing machine and deep learning methods and exploring their predictions
Gupta et al. A Comparative Analysis of Sentence Embedding Techniques for Document Ranking
Dahir et al. Query expansion based on term distribution and DBpedia features
Liu et al. Complura: Exploring and leveraging a large-scale multilingual visual sentiment ontology
Xu et al. Measuring semantic relatedness between flickr images: from a social tag based view
JP7029204B1 (ja) 技術調査支援装置、技術調査支援方法、および技術調査支援プログラム
CN115470358A (zh) 一种跨语言实体链接方法、系统、设备及终端
CN114400099A (zh) 疾病信息挖掘和检索方法、装置、电子设备和存储介质
Zhou et al. Unsupervised technical phrase extraction by incorporating structure and position information
Putra et al. Analyzing sentiments on official online lending platform in Indonesia with a Combination of Naive Bayes and Lexicon Based Method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211019

R150 Certificate of patent or registration of utility model

Ref document number: 6975377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150