JP7100087B2 - 情報を出力する方法および装置 - Google Patents

情報を出力する方法および装置 Download PDF

Info

Publication number
JP7100087B2
JP7100087B2 JP2020099160A JP2020099160A JP7100087B2 JP 7100087 B2 JP7100087 B2 JP 7100087B2 JP 2020099160 A JP2020099160 A JP 2020099160A JP 2020099160 A JP2020099160 A JP 2020099160A JP 7100087 B2 JP7100087 B2 JP 7100087B2
Authority
JP
Japan
Prior art keywords
word
sequence
dictionary
sample
entity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020099160A
Other languages
English (en)
Other versions
JP2021108096A (ja
Inventor
カオ、ユアン
タイ、タイ
シアオ、シンイェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021108096A publication Critical patent/JP2021108096A/ja
Application granted granted Critical
Publication of JP7100087B2 publication Critical patent/JP7100087B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)

Description

本開示の実施形態は、コンピュータ技術分野に関し、具体的に、情報を出力する方法および装置に関する。
ドメイン要素認識技術は、専門分野(医療、法律、金融など)の自然言語テキストに含まれる要素(重要なエンティティ)または主要な属性の識別とタグ付けを解決する自然言語処理技術である。例えば、医療シナリオの病歴テキスト処理では、医師が懸念している疾患、症状、手術、検査などの要素を抽出しようとする。例えば、患者は冠状動脈性心臓病[disease]であり、冠動脈バイパス手術[operation]の後、非定型の心筋梗塞「disease」がある可能性があることを考慮する必要があり、これを排除するように心電図[examination]および心筋損傷のマーカー[examination]を行って診断する必要がある。
ドメイン要素認識技術は、さまざまな専門分野で自然言語の理解と構造化に使用でき、次のような後続のすべての決定に最も基本的なサポートを提供する。例えば、1.医療分野:ドメイン要素認識技術はCDSS(臨床意思決定支援システム)のコアモジュールとして、病歴の主要なエンティティを抽出し、後続の疾患の推論のためにテキストを理解する重要な機能を提供するために使用され、2.財務分野:ドメイン要素認識技術は、上場企業の財務レポートの分析に使用でき、これらのテキストの主要エンティティ(例えば、会社名、上場時間、融資履歴)を分析して、最終的にインテリジェント投資調査などの金融投資意思決定製品で使用できる。
現在、業界には2つの主流の慣行がある。1つは純粋なルールを使用してドメイン要素にタギングすることであり、もう1つはルール+モデルを使用してタギングすることである。
ルールとルール+モデルに基づく既存のドメイン要素認識システムには、次の欠点がある。
1)純粋なルールを使用したドメイン要素認識システムは、汎化能力が低く、既存のルールでカバーされる要素のみを認識できる。
2)ルールシステムの構築は技術者の大量なエネルギーを必要とし、パーフェクトドメインルールシステムは、エンジニアが長年フィールドを開拓し、システムの問題を分析、解決することを要求する。
3)モデルに基づく既存のドメイン要素認識システムは、大量の手動タギングデータを必要とする。専門分野でのタギングは、一般的には専門分野の実務者が行うものであり、タギングコストが非常に高く、タギング費用は一般のタギング費用の約5~10倍である。
本開示の実施形態は、情報を出力する方法および装置を提出する。
第1の態様において、本開示の実施形態は、情報を出力する方法であって、認識されるステートメントを取得するステップと、前記認識されるステートメントをワードカッティングしてワードシーケンスを取得するステップと、および前記ワードシーケンスを、シーケンスタギングとエンティティワード予測に基づいて予めトレーニングされたマルチタスク要素認識モデルに入力し、認識されたエンティティワード、エンティティカテゴリおよびエンティティワード位置を出力するステップとを含み、前記マルチタスク要素認識モデルは、シーケンスタギングネットワークおよびエンティティワード予測ネットワークを含み、前記シーケンスタギングネットワークは、シーケンスタギングタスクを実行するために使用され、前記エンティティワード予測ネットワークは、エンティティワード予測タスクを実行するために使用され、前記シーケンスタギングネットワークは、フュージョンモジュールによって前記エンティティワード予測ネットワークと融合される方法を提供する。
いくつかの実施形態において、マルチタスク要素認識モデルは、トレーニングサンプルセットを取得するステップであって、前記トレーニングサンプルは、サンプルステートメントをワードカッティングして得られるサンプルワードシーケンスと、サンプルステートメント中のエンティティワード、エンティティカテゴリおよびエンティティワード位置を表示するためのタギング情報とを含む、ステップと、および前記トレーニングサンプルセット中のトレーニングサンプル中のサンプルワードシーケンスとタギング情報をそれぞれ初期マルチタスク要素認識モデルの入力と期待される出力として使用し、マルチタスク機械学習法でシーケンスタギングタスクとエンティティワード予測タスクを学習して、トレーニング済みのマルチタスク要素認識モデルを取得するステップとによって、トレーニングされる。
いくつかの実施形態において、シーケンスタギングネットワークは、埋め込み層、コンテキストコーディング層、CRF層を含み、前記エンティティワード予測ネットワークは、メモリネットワーク、ディクショナリプレゼンテーション層およびディクショナリ生成層を含み、前記機械学習法でシーケンスタギングタスクとエンティティワード予測タスクを学習して、前記初期マルチタスク要素認識モデルを取得するステップは、前記トレーニングサンプルセットからトレーニングサンプルを選択し、トレーニングステップを実行するステップを含み、前期トレーニングステップは、選択されたトレーニングサンプル中のサンプルワードシーケンスを埋め込み層によってワードベクトルシーケンスに変換し、前記ワードベクトルシーケンスをコンテキストコーディング層によってコンテキストベクトルシーケンスに変換するステップと、事前トレーニング済みのメモリネットワークによって前記サンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップと、フュージョンモジュールによって前記コンテキストベクトルシーケンスと前記ディクショナリベクトルシーケンスを融合してフュージョンベクトルシーケンスを取得するステップと、前記フュージョンベクトルシーケンスをディクショナリプレゼンテーション層に通過させてからコンテキストベクトルシーケンスに完全接続させ、CRF層によってシーケンスタギングして、シーケンスタギング結果を取得するステップと、ディクショナリ生成層によってディクショナリプレゼンテーション層の出力をエンティティワード予測して、エンティティワード予測結果を取得するステップと、および前記シーケンスタギング結果と前記トレーニングサンプル中のタギング情報の差および前記エンティティワード予測結果と前記トレーニングサンプル中のタギング情報の差に基づいて、埋め込み層、コンテキストコーディング層、ディクショナリプレゼンテーション層、CRF層、ディクショナリ生成層のパラメーターを調整し、マルチタスク要素認識モデルをトレーニングするステップを含む。
いくつかの実施形態において、トレーニングサンプルセットを取得するステップは、非構造化/半構造化のドキュメントを取得するステップと、前記ドキュメントを文分割するステップと、およびそれぞれの文節について、前記文節をワードカッティングしてワードシーケンスを取得し、ルールマッチング方法で前記文節にエンティティタギングして、前記文節のエンティティワード、エンティティカテゴリおよびエンティティワード位置を取得し、タギング情報とするステップとを含む。
いくつかの実施形態において、事前トレーニング済みのメモリネットワークによって前記サンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップは、前記サンプルワードシーケンス中の各サンプルワードを、前記メモリネットワークに記憶されているディクショナリとマッチングして、各サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを取得するステップと、前記サンプルワードシーケンス中のそれぞれのサンプルワードに対して、前記サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを、注意力メカニズムによって前記サンプルワードのディクショナリベクトルに融合するステップと、および前記サンプルワードシーケンス中の各サンプルワードのディクショナリベクトルによって前記サンプルワードシーケンスのディクショナリベクトルシーケンスを構成するステップとを含む。
いくつかの実施形態において、ディクショナリ生成層は、予めトレーニングされた分類モデルである。
第2の態様において、本開示の実施形態は、情報を出力する装置であって、認識されるステートメントを取得するように構成される取得ユニットと、前記認識されるステートメントをワードカッティングしてワードシーケンスを取得するように構成されるワードワードカッティングユニットと、前記ワードシーケンスを、シーケンスタギングとエンティティワード予測に基づいて予めトレーニングされたマルチタスク要素認識モデルに入力し、認識されたエンティティワード、エンティティカテゴリおよびエンティティワード位置を出力するように構成される出力ユニットとを含み、前記マルチタスク要素認識モデルは、シーケンスタギングネットワークおよびエンティティワード予測ネットワークを含み、前記シーケンスタギングネットワークは、シーケンスタギングタスクを実行するために使用され、前記エンティティワード予測ネットワークは、エンティティワード予測タスクを実行するために使用され、前記シーケンスタギングネットワークは、フュージョンモジュールによって前記エンティティワード予測ネットワークと融合される装置を提供する。
いくつかの実施形態において、前記装置は、トレーニングユニットをさらに含み、前記トレーニングユニットは、トレーニングサンプルセットを取得し、トレーニングサンプルは、サンプルステートメントをワードカッティングして得られるサンプルワードシーケンスと、サンプルステートメント中のエンティティワード、エンティティカテゴリおよびエンティティワード位置を表示するためのタギング情報とを含み、および前記トレーニングサンプルセット中のトレーニングサンプル中のサンプルワードシーケンスとタギング情報をそれぞれ初期マルチタスク要素認識モデルの入力と期待される出力として使用し、マルチタスク機械学習法でシーケンスタギングタスクとエンティティワード予測タスクを学習して、トレーニング済みのマルチタスク要素認識モデルを取得するように構成される。
いくつかの実施形態において、シーケンスタギングネットワークは、埋め込み層、コンテキストコーディング層、CRF層を含み、前記エンティティワード予測ネットワークは、メモリネットワーク、ディクショナリプレゼンテーション層およびディクショナリ生成層を含み、前記トレーニングユニットは、前記トレーニングサンプルセットからトレーニングサンプルを選択し、トレーニングステップを実行するステップを含むようにさらに構成され、前記トレーニングステップは、選択されたトレーニングサンプル中のサンプルワードシーケンスを埋め込み層によってワードベクトルシーケンスに変換し、前記ワードベクトルシーケンスをコンテキストコーディング層によってコンテキストベクトルシーケンスに変換するステップと、事前トレーニング済みのメモリネットワークによって前記サンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップと、フュージョンモジュールによって前記コンテキストベクトルシーケンスと前記ディクショナリベクトルシーケンスを融合してフュージョンベクトルシーケンスを取得するステップと、前記フュージョンベクトルシーケンスをディクショナリプレゼンテーション層に通過させてからコンテキストベクトルシーケンスに完全接続させ、CRF層によってシーケンスタギングして、シーケンスタギング結果を取得するステップと、ディクショナリ生成層によってディクショナリプレゼンテーション層の出力をエンティティワード予測して、エンティティワード予測結果を取得するステップと、および前記シーケンスタギング結果と前記トレーニングサンプル中のタギング情報の差および前記エンティティワード予測結果と前記トレーニングサンプル中のタギング情報の差に基づいて、埋め込み層、コンテキストコーディング層、ディクショナリプレゼンテーション層、CRF層、ディクショナリ生成層のパラメーターを調整し、マルチタスク要素認識モデルをトレーニングするステップを含む。
いくつかの実施形態において、トレーニングユニットは、非構造化/半構造化のドキュメントを取得し、前記ドキュメントを文分割し、およびそれぞれの文節について、前記文節をワードカッティングしてワードシーケンスを取得し、ルールマッチング方法で前記文節にエンティティタギングして、前記文節のエンティティワード、エンティティカテゴリおよびエンティティワード位置を取得し、タギング情報とするようにさらに構成される。
いくつかの実施形態において、トレーニングユニットは、前記サンプルワードシーケンス中の各サンプルワードを前記メモリネットワークに記憶されているディクショナリとマッチングして、各サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを取得し、前記サンプルワードシーケンス中のそれぞれのサンプルワードに対して、注意力メカニズムによって前記サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを前記サンプルワードのディクショナリベクトルに融合し、および前記サンプルワードシーケンス中の各サンプルワードのディクショナリベクトルによって前記サンプルワードシーケンスのディクショナリベクトルシーケンスを構成するようにさらに構成される。
いくつかの実施形態において、ディクショナリ生成層は、予めトレーニングされた分類モデルである。
第3の態様において、1つまたは複数のプロセッサと、および1つまたは複数のプログラムが記憶されている記憶装置とを含み、1つまたは複数のプログラムが1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサが第1の態様のいずれか一項に記載の方法を実施する電子機器を提供する。
第4の態様において、プログラムがプロセッサによって実行されると、第1の態様のいずれか一項に記載の方法が実施されるコンピュータプログラムが記憶されているコンピュータ可読媒体を提供する。
本開示の実施形態によって提供される情報を出力する方法および装置は、グローバルおよびローカルの方法で既存のドメイン知識を統合することができる。グローバルとは、シーケンスタギングとエンティティワード予測に基づくマルチタスク要素認識モデルを指し、エンティティの出現したコンテキストをモデル化することができ、コンテキストを通じてエンティティワードと対応するカテゴリの出現を予測することができる。ローカル情報とは、前のセクションで説明したメモリネットワークを指す。ここで、メモリネットワークは、現在のワードに意味的に関連するディクショナリ候補ワード(ディクショナリのローカル情報、部分的なワードのみ)を記憶する。
本開示の一実施形態を適用することができる例示的なシステムアーキテクチャ図である。 本開示に係る情報を出力する方法の一実施形態のフローチャートである。 本開示に係る情報を出力する方法のマルチタスク要素認識モデルのネットワークアーキテクチャ図である。 本開示に係る情報を出力する方法のマルチタスク要素認識モデルのメモリネットワークのネットワークアーキテクチャ図である。 本開示に係る情報を出力する方法の一アプリケーションシナリオの模式図である。 本開示に係る情報を出力する装置の一実施形態の構造模式図である。 本開示の実施形態の電子機器を実現するのに適したコンピュータシステムの構造模式図である。
以下の図面を参照して行われる非限定的な実施形態の詳細な説明を読むことにより、本開示の他の特徴、目的、および利点がより明らかになるであろう。
図面および実施形態を結び付けて、本開示をさらに詳細に説明する。本明細書に記載される具体的な実施形態は、関連する発明を説明するためだけに使用され、本発明を限定するためではないことが理解され得る。また、説明を簡単にするために、本発明に関連する部分のみが図面に示されていることにも留意されたい。
なお、矛盾しない場合、本開示の実施形態と実施形態の特徴は、互いに組み合わせることができる。以下、図面を参照し、実施形態を結び付けて、本開示を詳細に説明する。
図1は、本開示の情報を出力する方法または情報を出力する装置の実施形態を適用することができる例示的なシステムアーキテクチャ100を示した。
図1に示したように、システムアーキテクチャ100は、端末機器101、102、103、ネットワーク104、およびサーバー105を含むことができる。ネットワーク104は、端末機器101、102、103とサーバー105との間に通信リンクを提供するために使用される媒体である。ネットワーク104は、有線、無線通信リンクまたは光ファイバーケーブルなどの様々な接続タイプを含むことができる。
ユーザは、端末機器101、102、103を使用してネットワーク104と介してサーバー105とインタラクトして、メッセージなどを送信または受信することができる。端末機器101、102、103には、ドメイン要素認識アプリケーション、ウェブブラウザアプリケーション、ショッピングアプリケーション、検索アプリケーション、インスタントメッセージングソフトウェア、メールクライアント、ソーシャルプラットフォームソフトウェアなどの様々な通信クライアントアプリケーションがインストールされることができる。
端末機器101、102、103は、ハードウェアまたはソフトウェアであり得る。端末機器101、102、103がハードウェアである場合、スマートフォン、タブレットコンピュータ、電子書籍リーダー、MP3プレーヤー(Moving Picture Experts Group Audio Layer III、動画エキスパート圧縮標準オーディオレイヤー3)、MP4プレーヤー(Moving Picture Experts Group Audio Layer IV、動画エキスパート圧縮標準オーディオレイヤー4)、ラップトップポータブルコンピュータ、およびデスクトップコンピュータなどを含むがこれらに限定されず、ディスプレイ画面を備え、テキストの閲覧をサポートするさまざまな電子機器であることができる。端末機器101、102、103がソフトウェアである場合、上記の電子機器にインストールされることができる。それは、複数のソフトウェアまたはソフトウェアモジュール(例えば、分散サービスを提供するための)として実現でき、単一のソフトウェアまたはソフトウェアモジュールとしても実現できる。ここでは具体的に制限しない。
サーバー105は、様々なサービスを提供するサーバーであることができる。例えば、端末機器101、102、103に表示されるテキストにドメインタギングサービスのサポートを提供するバックグラウンドタギングサーバである。バックグラウンドウェブサーバは、受信された認識されるステートメントを含むタギング要求などのデータを分析し、処理結果(例えば、識別されたエンティティワード、エンティティカテゴリ、エンティティワードの位置)を端末機器にフィードバックすることができる。
説明すべきなのは、サーバーは、ハードウェアまたはソフトウェアであり得る。サーバーがハードウェアである場合、複数のサーバーで構成される分散サーバクラスターとして、または単一のサーバーとして実現できる。サーバーがソフトウェアである場合、サーバーは複数のソフトウェアまたはソフトウェアモジュール(例えば、分散サービスを提供するために使用される複数のソフトウェアまたはソフトウェアモジュール)、または単一のソフトウェアまたはソフトウェアモジュールとして実施できる。ここでは具体的に制限しない。
説明すべきなのは、本開示の実施形態によって提供される情報を出力する方法は、一般的にサーバー105によって実行され、対応的に、情報を出力する装置は、一般的にサーバー105に設置される。
図1の端末機器、ネットワークおよびサーバーの数は模式的にすぎないことを理解されたい。実現のニーズに応じて、任意の数の端末機器、ネットワーク、およびサーバーを有することができる。
図2を引き続き参照すると、本開示による情報を出力する方法の一実施形態のフロー200を示した。上記情報を出力する方法は、以下のステップを含む。
ステップ201において、認識されるステートメントを取得する。
本実施形態において、情報を出力する方法の実行本体(例えば、図1に示されたサーバ)は、有線接続方法または無線接続方法によってユーザがドメイン要素認識を行う端末から、認識されるステートメントを受信してもよい。
ステップ202において、認識されるステートメントをワードカッティングしてワードシーケンスを取得する。
本実施形態において、最大逆マッチング方法などの通常のワードカッティング方法でワードカッティングすることができる。例えば、「患者は冠状動脈性心臓病であり、冠動脈バイパス手術の後、非定型の心筋梗塞がある可能性があることを考慮する必要があり、これを排除するように心電図および心筋損傷のマーカーを行って診断する必要がある」を、{患者、は、冠状動脈性心臓病、冠動脈バイパス手術、後、非定型の心筋梗塞、ある、可能性、考慮、必要、排除、心電図、および、心筋損傷のマーカー、診断、必要、ある}のワードシーケンスにする。
ステップ203において、ワードシーケンスを、シーケンスタギングとエンティティワード予測に基づいて予めトレーニングされたマルチタスク要素認識モデルに入力し、認識されたエンティティワード、エンティティカテゴリおよびエンティティワード位置を出力する。
本実施形態において、マルチタスク要素認識モデルは、シーケンスタギングネットワークおよびエンティティワード予測ネットワークを含む。シーケンスタギングネットワークは、BILSTM-CRF(biLSTMとは、双方向LSTM(Long Short-Term Memory、ロングショートタームメモリネットワーク)を指し、CRFとは、条件付きランダムフィールドを指す)ネットワークなどシーケンスタギングタスクを実行するためのネットワークであることができる。エンティティワード予測ネットワークは、エンティティワード予測タスクを実行するために使用される。LSTMの隠れ層の後、BILSTM-CRFネットワークは、フュージョンモジュールによってエンティティワード予測ネットワークと融合されることができる。
図3aに示したように、ワードシーケンスがマルチタスク要素認識モデルに入った後、以下のステップを実行する。
ステップ301において、埋め込み層によってワードシーケンスをワードベクトルシーケンスに変換する。
本実施形態において、埋め込み層の本質は、word2vecであり、データの次元を削減すると同時に、同義語(各ワード間の距離)を計算するのに便利である。各ワードについて、ワードの意味とエンティティ認識に役立ついくつかの特徴を取得するためのベクトルを作成する必要があり、このベクトルは、Gloveによってトレーニングされたワードベクトルと文字から抽出されたベクトルを積み重ねることによって形成される。1つのオプションは、ワードが大文字で始まるかどうかなど、手動で抽出された特徴を使用することである。別のより良いオプションは、あるタイプのニューラルネットワークを使用して自動的に特徴を抽出することである。ここで、単一の文字にbi-LSTMを使用し、もちろん、他のリカレントニューラルネットワークも使用することができ、または単一の文字またはn-gramにCNNを使用することができる。
ステップ302において、コンテキストコーディング層によってワードベクトルシーケンスをコンテキストベクトルシーケンスに変換する。
本実施形態において、ワードの最終的なベクトル表示を取得した後、ワードベクトルに対してLSTMまたはbi-LSTMを実行する。今回は、最終状態だけでなく、各時点での隠れ状態を使用する。m個のワードベクトルを入力して、m個の隠れ状態ベクトルを取得するが、ワードベクトルにはワードレベルの情報しか含まれておらず、隠れ状態ベクトルはコンテキストを考慮した。
ステップ303において、事前トレーニング済みのメモリネットワークによってサンプルワードシーケンスをディクショナリベクトルシーケンスに変換する。
本実施形態において、メモリネットワーク(memory networks、略してMemNN)である。メモリネットワークモデルは、コンテキストセットS(ドメインディクショナリ)と質問q(サンプルワードシーケンス)の数学的変換を通じて、質問に対応する回答(ディクショナリベクトルシーケンス)を取得した。具体的なステップは次のとおりである。
1、図3bの左側の図(a)に示したような単一の推論。
ドメインディクショナリのワードにembeddingを行い、ベクトルに変更し、メモリmに入れる。
質問qに同じembeddingを行い、ベクトルuに変更する。
uとメモリmの一致度を計算する。
Figure 0007100087000001
出力o:メモリmの加重和
Figure 0007100087000002
oと質問uを使用して回答を予測
Figure 0007100087000003
2、図3bの右側の図(b)に示したような複数回の推論。
毎回の更新:
Figure 0007100087000004
複数回の推論を経て、出力を計算:
Figure 0007100087000005
選択的に、まずドメインディクショナリとサンプルワードシーケンスのベクトル表示を計算し、その後サンプルワードシーケンスにしたがってAttentionメカニズムをトリガーし、ゲート法を使用してサンプルワードシーケンスに関連するドメインディクショナリ内のワードを選択する。次に、エピソードメモリモジュールは、関連するドメインディクショナリとサンプルワードシーケンスを組み合わせて、メモリを繰り返し生成し、一回答のベクトル表示を生成する。
ステップ304において、フュージョンモジュールによってコンテキストベクトルシーケンスとディクショナリベクトルシーケンスを融合して、フュージョンベクトルシーケンスを取得する。
本実施形態において、ベクトルconcat方法でコンテキストベクトルシーケンスとディクショナリベクトルシーケンスを融合して、フュージョンベクトルシーケンスを取得することができる。
ステップ305において、ディクショナリプレゼンテーション層を介してフュージョンベクトルシーケンスをコンテキストベクトルシーケンスに完全接続させる。
本実施形態において、ディクショナリプレゼンテーション層は、ドメインディクショナリ知識を融合したメインネットワーク中のプレゼンテーション層である。完全接続(FC)は、主に変換を表示するために使用されるニューラルネットワークのレイヤーである。
ステップ306において、CRF層によってシーケンスタギングして、シーケンスタギング結果を取得する。
本実施形態において、CRF層がデコードを実行し、デコード段階でタグスコアを計算し、各ワードに対応する隠れ状態ベクトルを使用して最終的な予測を行い、完全接続されたニューラルネットワークを使用して、各エンティティタグのスコアを取得することができる。タグスコアをデコードし、タグシーケンスの確率を計算し、確率が最も高いシーケンスを見つけて、シーケンスタギング結果を取得する。すなわち、シーケンスタギングタスクは、エンティティワード、エンティティカテゴリ、エンティティワード位置を識別するために実行される。
ステップ307において、ディクショナリ生成層によってディクショナリプレゼンテーション層の出力をエンティティワード予測して、エンティティワード予測結果を取得する。
本実施形態において、ディクショナリ生成層は、ニューラルネットワークベースの分類モデルであることができ、ディクショナリプレゼンテーション層の出力を分類して、分類タグおよび確率を取得することにより、エンティティワード、エンティティカテゴリおよびエンティティワード位置を判断する。
ステップ307は、シーケンスタギングネットワークの性能を改善するためのマルチタスクトレーニングに使用され、適用時にステップ307を実行せず、ステップ306のシーケンスタギングネットワークのタギング結果のみを使用することができる。
マルチタスク要素認識モデルのトレーニングプロセスは、ステップ301-307と類似するが、ステップ307のエンティティワード予測結果とステップ306のシーケンスタギング結果のそれぞれの期待されるタギング結果の差を使用して、マルチタスク要素認識モデルの各層のパラメーターを調整して反復トレーニングするようにする必要がある。図1に示されたサーバーでモデルをトレーニングすることができ、第三者のサーバーでモデルをトレーニングすることもできる。
ディクショナリを使用して、ドメイン内の大量の無監督のテキストにルールタギングしてトレーニングサンプルを取得することができる。ルールタギングとは、ドメインディクショナリ、正規プレゼンテーションおよび構文ツリーを使用して、入力されたドメインテキストをルールマッチングさせることを指す。例えば、上記の例から、医師の注意の疾患(disease)、症状、手術(operation)、検査(examination)などの要素を抽出する:患者は冠状動脈性心臓病[disease]であり、冠動脈バイパス手術[operation]の後、非定型の心筋梗塞「disease」がある可能性があることを考慮する必要があり、これを排除するように心電図[examination]および心筋損傷のマーカー[examination]を行って診断する必要がある。
図4を引き続き参照すると、図4は、本実施形態に係る情報を出力する方法のアプリケーションシナリオの模式図である。図4のアプリケーションシナリオでは、まずディクショナリを使用してドメイン内の大量の無監督のテキストをルールタギングして、得られたルールタギングデータをトレーニングサンプルとして使用する。さらにドメインディクショナリを通じてディクショナリプレゼンテーションモデリングして、メモリネットワークを構築する必要がある。その後、構築されたメモリネットワークとタギングされたトレーニングサンプルを使用して、マルチタスク学習して、初期化モデルを取得する。その後、手動タギングデータを使用して微調整を行い、最終的なモデル取得する。ユーザがドメイン要素認識を行う必要ある場合、認識されるステートメントをトレーニング済みのモデルに入力することにより、認識されたエンティティワード、エンティティカテゴリおよびエンティティワード位置を出力することができる。
さらに図5を参照すると、上記の各図に示された方法の実現として、本開示は、図2に示された方法の実施形態に対応する、情報を出力する装置の一実施形態を提供し、前記装置は具体的に、様々な電子機器に適用することができる。
図5に示したように、本実施形態の情報を出力する装置500は、取得ユニット501、ワードワードカッティングユニット502および出力ユニット503を含む。ここで、取得ユニット501は、認識されるステートメントを取得するように構成され、ワードワードカッティングユニット502は、認識されるステートメントをワードカッティングしてワードシーケンスを取得するように構成され、出力ユニット503は、ワードシーケンスをシーケンスタギングとエンティティワード予測に基づいて予めトレーニングされたマルチタスク要素認識モデルに入力し、認識されたエンティティワード、エンティティカテゴリおよびエンティティワード位置を出力するように構成され、ここで、マルチタスク要素認識モデルは、シーケンスタギングネットワークおよびエンティティワード予測ネットワークを含み、シーケンスタギングネットワークは、シーケンスタギングタスクを実行するために使用され、エンティティワード予測ネットワークは、エンティティワード予測タスクを実行するために使用され、シーケンスタギングネットワークは、フュージョンモジュールによってエンティティワード予測ネットワークと融合される。
本実施形態において、情報を出力する装置500の取得ユニット501、ワードワードカッティングユニット502および出力ユニット503の具体的な処理は、図2に対応する実施形態のステップ201、ステップ202、ステップ203を参照することができる。
本実施形態のいくつかの選択可能な実現形態では、装置500は、トレーニングサンプルセットを取得し、ここで、トレーニングサンプルは、サンプルステートメントをワードカッティングして得られるサンプルワードシーケンスと、サンプルステートメント中のエンティティワード、エンティティカテゴリおよびエンティティワード位置を表示するためのタギング情報とを含み、およびトレーニングサンプルセット中のトレーニングサンプル中のサンプルワードシーケンスとタギング情報をそれぞれ初期マルチタスク要素認識モデルの入力と期待される出力として使用し、マルチタスク機械学習法でシーケンスタギングタスクとエンティティワード予測タスクを学習して、トレーニング済みのマルチタスク要素認識モデルを取得するように構成されるトレーニングユニットをさらに含む。
本実施形態のいくつかの選択可能な実現形態では、BILSTM-CRFネットワークは、埋め込み層、コンテキストコーディング層、CRF層を含み、エンティティワード予測ネットワークは、メモリネットワーク、ディクショナリプレゼンテーション層およびディクショナリ生成層を含み、およびトレーニングユニットはさらに、トレーニングサンプルセットからトレーニングサンプルを選択し、以下のトレーニングステップを実行するステップを含むように構成され、埋め込み層によって選択されたトレーニングサンプル中のサンプルワードシーケンスをワードベクトルシーケンスに変換し、コンテキストコーディング層によってワードベクトルシーケンスをコンテキストベクトルシーケンスに変換するステップ、事前トレーニング済みのメモリネットワークによってサンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップ、フュージョンモジュールによってコンテキストベクトルシーケンスとディクショナリベクトルシーケンスを融合してフュージョンベクトルシーケンスを取得するステップ、ディクショナリプレゼンテーション層を介してフュージョンベクトルシーケンスをコンテキストベクトルシーケンスに完全接続させ、その後CRF層によってシーケンスタギングして、シーケンスタギング結果を取得するステップ、ディクショナリ生成層によってディクショナリプレゼンテーション層の出力をエンティティワード予測して、エンティティワード予測結果を取得するステップ、およびシーケンスタギング結果とトレーニングサンプル中のタギング情報の差およびエンティティワード予測結果とトレーニングサンプル中のタギング情報の差に基づいて、埋め込み層、コンテキストコーディング層、ディクショナリプレゼンテーション層、CRF層、ディクショナリ生成層のパラメーターを調整し、マルチタスク要素認識モデルをトレーニングするステップである。
本実施形態のいくつかの選択可能な実現形態では、トレーニングユニットはさらに、非構造化/半構造化のドキュメントを取得し、ドキュメントを文分割し、およびそれぞれの文節について、前記文節をワードカッティングしてワードシーケンスを取得し、ルールマッチング方法で前記文節にエンティティタギングして、前記文節のエンティティワード、エンティティカテゴリおよびエンティティワード位置を取得し、タギング情報とするように構成される。
本実施形態のいくつかの選択可能な実現形態では、トレーニングユニットはさらに、サンプルワードシーケンス中の各サンプルワードをメモリネットワークに記憶されているディクショナリとマッチングして、各サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを取得し、サンプルワードシーケンス中のそれぞれのサンプルワードに対して、注意力メカニズムによって前記サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを前記サンプルワードのディクショナリベクトルに融合し、およびサンプルワードシーケンス中の各サンプルワードのディクショナリベクトルをサンプルワードシーケンスのディクショナリベクトルシーケンスに構成するように構成される。
本実施形態のいくつかの選択可能な実現形態では、ディクショナリ生成層は、事前トレーニング済みの分類モデルである。
図6を参照すると、本開示の実施形態の電子機器(例えば、図1のサーバ)600を実現するのに適した構造模式図を示した。図6に示されたサーバーは単なる例であり、本開示の実施形態の機能および使用範囲にいかなる制限をもたらすべきではない。
図6に示したように、電子機器600は、読み取り専用メモリ(ROM)602に記憶されたプログラム、または記憶装置608からランダムアクセスメモリ(RAM)603にロードされたプログラムに従って、さまざまな適切なアクションと処理を実行することができる処理装置(例えば、中央プロセッサ、グラフィックプロセッサなど)601を含むことができる。RAM603では、電子機器600の操作に必要な様々なプログラムとデータがさらに記憶されている。処理装置601、ROM602およびRAM603は、バス604を介して相互に接続されている。入力/出力(I/O)インターフェース605もバス604に接続されている。
通常、タッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイク、加速度計、ジャイロスコープなどを含む入力装置606と、液晶ディスプレイ(LCD)、スピーカー、バイブレーターなどを含む出力装置607と、磁気テープ、ハードディスクなどを含む記憶装置608と、および通信装置609とは、I/Oインターフェース605に接続されることができる。通信装置609は、電子機器600がデータを交換するために他の機器と無線または有線通信を実行することを可能にすることができる。図6は、様々な装置を有する電子機器600を示したが、示されているすべての装置を実施または有する必要はないことを理解されたい。代わりに、より多くのまたはより少ない装置を実施または提供することができる。図6に示されたそれぞれのブロックは、1つの装置を表すことができ、または必要に応じて複数の装置を表すことができる。
特に、本開示の実施形態によれば、上記のフローチャートを参照して説明されたプロセスは、コンピュータソフトウェアプログラムとして実現されることができる。例えば、本開示の実施形態は、コンピュータ可読媒体に搭載されるコンピュータプログラムを含むコンピュータプログラム製品を含み、前記コンピュータプログラムは、フローチャートに示された方法を実行するためのプログラムコードを含む。このような実施形態において、前記コンピュータプログラムは、通信装置609を介してネットワークからダウンロードおよびインストールされ、または記憶装置608からインストールされ、またはROM602からインストールされることができる。前記コンピュータプログラムが処理装置601によって実行されると、本開示の実施形態の方法で限定された前記機能を実行する。説明すべきなのは、本開示の実施形態で説明されるコンピュータ可読媒体は、コンピュータ可読信号媒体またはコンピュータ可読記憶媒体、または前記2つの任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、電気、磁気、光学、電磁気、赤外線、または半導体のシステム、装置またはデバイス、あるいは上記の任意の組み合わせであることができるが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例は、1つまたは複数のワイヤを有する電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能なプログラム可能な読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバー、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光ストレージデバイス、磁気ストレージデバイス、またはこれらの適切な組み合わせを含むが、これらに限定されない。本開示の実施形態において、コンピュータ可読記憶媒体は、プログラムを含むまたは記憶する任意の有形媒体であることができ、前記プログラムは、命令実行システム、装置、またはデバイスと組み合わせて使用することができる。本開示の実施形態において、コンピュータ可読信号媒体は、コンピュータ可読プログラムコードを搭載し、ベースバンド中または搬送波の一部として伝播されるデータ信号を含むことができる。このような伝播されたデータ信号は、電磁信号、光信号、または上記の任意の適切な組み合わせを含むがこれらに限定されず、多くの形態をとることができる。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよく、前記コンピュータ可読信号媒体は、命令実行システム、装置、またはデバイスによって、またはそれらと組み合わせて使用するプログラムを送信、伝播、または送信することができる。コンピュータ可読媒体に含まれるプログラムコードは、電線、光ケーブル、RF(無線周波数)など、または前述の任意の適切な組み合わせを含むがこれらに限定されない任意の適切な媒体を使用して伝送されることができる。
前記コンピュータ可読媒体は、前記電子機器に含まれてもよく、または電子機器に組み込まれることなく単独で存在してもよい。前記コンピュータ可読媒体は、1つまたは複数のプログラムを搭載し、前記1つまたは複数のプログラムが前記電子機器によって実行されると、前記電子機器は、以下を行われる:認識されるステートメントを取得し、認識されるステートメントをワードカッティングしてワードシーケンスを取得し、およびワードシーケンスをシーケンスタギングとエンティティワード予測に基づいて予めトレーニングされたマルチタスク要素認識モデルに入力し、認識されたエンティティワード、エンティティカテゴリおよびエンティティワード位置を出力し、ここで、マルチタスク要素認識モデルは、シーケンスタギングネットワークおよびエンティティワード予測ネットワークを含み、シーケンスタギングネットワークは、シーケンスタギングタスクを実行するために使用され、エンティティワード予測ネットワークは、エンティティワード予測タスクを実行するために使用され、LSTMの隠れ層の後、BILSTM-CRFネットワークは、フュージョンモジュールによってエンティティワード予測ネットワークと融合される。
本開示の実施形態の操作を実行するためのコンピュータプログラムコードは、1つまたは複数のプログラミング言語またはそれらの組み合わせで作成されることができ、前記プログラミング言語は、Java、Smalltalk、C++(登録商標)などの対象指向プログラミング言語を含み、「C」言語または類似のプログラミング言語などの従来の手続き型プログラミング言語を含むことができる。プログラムコードは、完全にユーザのコンピュータで実行され、一部はユーザのコンピュータで実行され、独立したソフトウェアパッケージとして、一部はユーザのコンピュータで一部はリモートコンピュータで、または完全にリモートコンピュータまたはサーバーで実行されることができる。リモートコンピュータが関係する状況では、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含むあらゆる種類のネットワークを介してユーザのコンピュータに接続するか、または外部コンピュータに接続することができる(例えば、インターネットサービスプロバイダーを使用してインターネットを介して接続する)。
図面のフローチャートおよびブロック図は、本開示の様々な実施形態によるシステム、方法、およびコンピュータプログラム製品の実現可能なアーキテクチャ、機能、および動作を示している。この点で、フローチャートまたはブロック図のそれぞれのブロックは、指定された論理関数を実現するための実行可能命令を含むモジュール、プログラムセグメント、またはコードの一部を表すことができる。また、一部の代替実現では、ブロックでマークされた機能は、図面でマークされたものとは異なる順序で発生する場合もある。例えば、連続して示されている2つのブロックは、実際には並行して実行でき、関連する機能によっては、逆の順序で実行することもできる。また、ブロック図および/またはフローチャートのそれぞれのブロック、およびブロック図および/またはフローチャートのブロックの組み合わせは、指定された機能または操作を実行する専用のハードウェアベースのシステムで実現することができ、または、専用のハードウェアとコンピュータの命令を組み合わせて実現することもできる。
本開示の実施形態で説明されるユニットは、ソフトウェアまたはハードウェアで実現されることができる。上記のユニットは、プロセッサに設置されることもでき、例えば、プロセッサは、取得ユニット、ワードワードカッティングユニット、出力ユニットを含むと記述することができる。ここで、これらのユニットの名称は、ある場合ではユニット自体を限定するものではなく、例えば、取得ユニットは、「認識されるステートメントを取得するユニット」と説明することもできる。
上記の説明は、本開示の好ましい実施形態および適用された技術原理の説明にすぎない。当業者は、本開示に関する本発明の範囲が、上記の技術的特徴の特定の組み合わせによって形成される技術的解決策に限定されず、同時に上記の発明の概念から逸脱することなく、上記の技術的特徴またはそれらの同等物の任意の組み合わせによって形成される他の技術的解決策も網羅すべきであることを理解できるだろう。例えば、上記の特徴を、類似の機能を有する本開示の実施形態に開示される(しかし、これらに限定されない)技術的特徴で置き換えることによって形成される技術的解決策。

Claims (15)

  1. 情報を出力する方法であって、
    認識されるステートメントを取得するステップと、
    前記認識されるステートメントをワードカッティングしてワードシーケンスを取得するステップと、および
    前記ワードシーケンスを、シーケンスタギングとエンティティワード予測に基づいて予めトレーニングされたマルチタスク要素認識モデルに入力るステップであって、前記マルチタスク要素認識モデルは、シーケンスタギングネットワークおよびエンティティワード予測ネットワークを含み、前記シーケンスタギングネットワークは、シーケンスタギングタスクを実行するために使用され、前記エンティティワード予測ネットワークは、エンティティワード予測タスクを実行するために使用され、前記シーケンスタギングネットワークは、フュージョンモジュールによって前記エンティティワード予測ネットワークと融合され、前記シーケンスタギングネットワークは、埋め込み層、コンテキストコーディング層、CRF層を含み、前記エンティティワードの予測ネットワークは、メモリネットワーク、ディクショナリプレゼンテーション層およびディクショナリ生成層を含む、ステップと、
    ワードシーケンスを前記埋め込み層によってワードベクトルシーケンスに変換するステップと、
    前記ワードベクトルシーケンスを前記コンテキストコーディング層によってコンテキストベクトルシーケンスに変換するステップと、
    事前トレーニング済みのメモリネットワークによってサンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップと、
    前記フュージョンモジュールによって前記コンテキストベクトルシーケンスと前記ディクショナリベクトルシーケンスを融合して、フュージョンベクトルシーケンスを取得するステップと、
    前記ディクショナリプレゼンテーション層を介して前記フュージョンベクトルシーケンスを前記コンテキストベクトルシーケンスに完全に接続させるステップと、
    前記CRF層によってシーケンスタギングして、シーケンスタギング結果を取得するステップと、
    前記ディクショナリ生成層によって前記ディクショナリプレゼンテーション層の出力に対してエンティティワードの予測を行って、認識されたエンティティワード、エンティティカテゴリおよびエンティティワード位置を出力するステップと、を含む、
    情報を出力する方法。
  2. 前記マルチタスク要素認識モデルは、
    トレーニングサンプルセットを取得するステップであって、前記トレーニングサンプルは、サンプルステートメントをワードカッティングして得られるサンプルワードシーケンスと、サンプルステートメント中のエンティティワード、エンティティカテゴリおよびエンティティワード位置を表示するためのタギング情報とを含む、ステップと、および
    前記トレーニングサンプルセット中のトレーニングサンプル中のサンプルワードシーケンスとタギング情報をそれぞれ初期マルチタスク要素認識モデルの入力と期待される出力として使用し、マルチタスク機械学習法でシーケンスタギングタスクとエンティティワード予測タスクを学習して、トレーニング済みのマルチタスク要素認識モデルを取得するステップとによって、トレーニングされることを特徴とする
    請求項1に記載の方法。
  3. 前記シーケンスタギングネットワークは、BILSTM-CRFネットワークであり、
    前記機械学習法でシーケンスタギングタスクとエンティティワード予測タスクを学習して、前記初期マルチタスク要素認識モデルを取得するステップは、
    前記トレーニングサンプルセットからトレーニングサンプルを選択し、トレーニングステップを実行するステップを含み、
    前記トレーニングステップは、
    選択されたトレーニングサンプル中のサンプルワードシーケンスを埋め込み層によってワードベクトルシーケンスに変換し、前記ワードベクトルシーケンスをコンテキストコーディング層によってコンテキストベクトルシーケンスに変換するステップと、
    事前トレーニング済みのメモリネットワークによって前記サンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップと、
    フュージョンモジュールによって前記コンテキストベクトルシーケンスと前記ディクショナリベクトルシーケンスを融合してフュージョンベクトルシーケンスを取得するステップと、
    前記フュージョンベクトルシーケンスをディクショナリプレゼンテーション層に通過させてからコンテキストベクトルシーケンスに完全接続させ、CRF層によってシーケンスタギングして、シーケンスタギング結果を取得するステップと、
    ディクショナリ生成層によってディクショナリプレゼンテーション層の出力に対してエンティティワードの予測を行って、エンティティワード予測結果を取得するステップと、および
    前記シーケンスタギング結果と前記トレーニングサンプル中のタギング情報の差および前記エンティティワード予測結果と前記トレーニングサンプル中のタギング情報の差に基づいて、埋め込み層、コンテキストコーディング層、ディクショナリプレゼンテーション層、CRF層、ディクショナリ生成層のパラメーターを調整し、マルチタスク要素認識モデルをトレーニングするステップを含むことを特徴とする
    請求項2に記載の方法。
  4. 前記トレーニングサンプルセットを取得するステップは、
    非構造化/半構造化のドキュメントを取得するステップと、
    前記ドキュメントを文分割するステップと、および
    それぞれの文節について、前記文節をワードカッティングしてワードシーケンスを取得し、ルールマッチング方法で前記文節にエンティティタギングして、前記文節のエンティティワード、エンティティカテゴリおよびエンティティワード位置を取得し、タギング情報とするステップとを含むことを特徴とする
    請求項2に記載の方法。
  5. 前記事前トレーニング済みのメモリネットワークによって前記サンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップは、
    前記サンプルワードシーケンス中の各サンプルワードを、前記メモリネットワークに記憶されているディクショナリとマッチングして、各サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを取得するステップと、
    前記サンプルワードシーケンス中のそれぞれのサンプルワードに対して、前記サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを、注意力メカニズムによって前記サンプルワードのディクショナリベクトルに融合するステップと、および
    前記サンプルワードシーケンス中の各サンプルワードのディクショナリベクトルによって前記サンプルワードシーケンスのディクショナリベクトルシーケンスを構成するステップとを含むことを特徴とする
    請求項3に記載の方法。
  6. 前記ディクショナリ生成層は、予めトレーニングされた分類モデルであることを特徴とする
    請求項3に記載の方法。
  7. 情報を出力する装置であって、
    認識されるステートメントを取得するように構成される取得ユニットと、
    前記認識されるステートメントをワードカッティングしてワードシーケンスを取得するように構成されるワードワードカッティングユニットと、
    前記ワードシーケンスを、シーケンスタギングとエンティティワード予測に基づいて予めトレーニングされたマルチタスク要素認識モデルに入力るように構成される出力ユニットであって、前記マルチタスク要素認識モデルは、シーケンスタギングネットワークおよびエンティティワード予測ネットワークを含み、前記シーケンスタギングネットワークは、シーケンスタギングタスクを実行するために使用され、前記エンティティワード予測ネットワークは、エンティティワード予測タスクを実行するために使用され、前記シーケンスタギングネットワークは、フュージョンモジュールによって前記エンティティワード予測ネットワークと融合され、前記シーケンスタギングネットワークは、埋め込み層、コンテキストコーディング層、CRF層を含み、前記エンティティワードの予測ネットワークは、メモリネットワーク、ディクショナリプレゼンテーション層およびディクショナリ生成層を含み、ワードシーケンスを前記埋め込み層によってワードベクトルシーケンスに変換し、前記ワードベクトルシーケンスを前記コンテキストコーディング層によってコンテキストベクトルシーケンスに変換し、事前トレーニング済みのメモリネットワークによってサンプルワードシーケンスをディクショナリベクトルシーケンスに変換し、前記フュージョンモジュールによって前記コンテキストベクトルシーケンスと前記ディクショナリベクトルシーケンスを融合して、フュージョンベクトルシーケンスを取得し、前記ディクショナリプレゼンテーション層を介して前記フュージョンベクトルシーケンスを前記コンテキストベクトルシーケンスに完全に接続させ、前記CRF層によってシーケンスタギングして、シーケンスタギング結果を取得し、前記ディクショナリ生成層によって前記ディクショナリプレゼンテーション層の出力に対してエンティティワードの予測を行って、認識されたエンティティワード、エンティティカテゴリおよびエンティティワード位置を出力する、出力ユニットとを含む、
    情報を出力する装置。
  8. 前記装置は、トレーニングユニットをさらに含み、
    前記トレーニングユニットは、
    トレーニングサンプルセットを取得し、トレーニングサンプルは、サンプルステートメントをワードカッティングして得られるサンプルワードシーケンスと、サンプルステートメント中のエンティティワード、エンティティカテゴリおよびエンティティワード位置を表示するためのタギング情報とを含み、および
    前記トレーニングサンプルセット中のトレーニングサンプル中のサンプルワードシーケンスとタギング情報をそれぞれ初期マルチタスク要素認識モデルの入力と期待される出力として使用し、マルチタスク機械学習法でシーケンスタギングタスクとエンティティワード予測タスクを学習して、トレーニング済みのマルチタスク要素認識モデルを取得するように構成されることを特徴とする
    請求項7に記載の装置。
  9. 前記シーケンスタギングネットワークは、BILSTM-CRFネットワークであり、
    前記トレーニングユニットは、
    前記トレーニングサンプルセットからトレーニングサンプルを選択し、トレーニングステップを実行するステップを含むようにさらに構成され、
    前記トレーニングステップは、
    選択されたトレーニングサンプル中のサンプルワードシーケンスを埋め込み層によってワードベクトルシーケンスに変換し、前記ワードベクトルシーケンスをコンテキストコーディング層によってコンテキストベクトルシーケンスに変換するステップと、
    事前トレーニング済みのメモリネットワークによって前記サンプルワードシーケンスをディクショナリベクトルシーケンスに変換するステップと、
    フュージョンモジュールによって前記コンテキストベクトルシーケンスと前記ディクショナリベクトルシーケンスを融合してフュージョンベクトルシーケンスを取得するステップと、
    前記フュージョンベクトルシーケンスをディクショナリプレゼンテーション層に通過させてからコンテキストベクトルシーケンスに完全接続させ、CRF層によってシーケンスタギングして、シーケンスタギング結果を取得するステップと、
    ディクショナリ生成層によってディクショナリプレゼンテーション層の出力に対してエンティティワード予測を行って、エンティティワード予測結果を取得するステップと、および
    前記シーケンスタギング結果と前記トレーニングサンプル中のタギング情報の差および前記エンティティワード予測結果と前記トレーニングサンプル中のタギング情報の差に基づいて、埋め込み層、コンテキストコーディング層、ディクショナリプレゼンテーション層、CRF層、ディクショナリ生成層のパラメーターを調整し、マルチタスク要素認識モデルをトレーニングするステップを含むことを特徴とする
    請求項8に記載の装置。
  10. 前記トレーニングユニットは、
    非構造化/半構造化のドキュメントを取得し、
    前記ドキュメントを文分割し、および
    それぞれの文節について、前記文節をワードカッティングしてワードシーケンスを取得し、ルールマッチング方法で前記文節にエンティティタギングして、前記文節のエンティティワード、エンティティカテゴリおよびエンティティワード位置を取得し、タギング情報とするようにさらに構成されることを特徴とする
    請求項8に記載の装置。
  11. 前記トレーニングユニットは、
    前記サンプルワードシーケンス中の各サンプルワードを前記メモリネットワークに記憶されているディクショナリとマッチングして、各サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを取得し、
    前記サンプルワードシーケンス中のそれぞれのサンプルワードに対して、注意力メカニズムによって前記サンプルワードの少なくとも1つの関連ワードに対応するディクショナリベクトルを前記サンプルワードのディクショナリベクトルに融合し、および
    前記サンプルワードシーケンス中の各サンプルワードのディクショナリベクトルによって前記サンプルワードシーケンスのディクショナリベクトルシーケンスを構成するようにさらに構成されることを特徴とする
    請求項9に記載の装置。
  12. 前記ディクショナリ生成層は、予めトレーニングされた分類モデルであることを特徴とする
    請求項9に記載の装置。
  13. 電子機器であって、
    1つまたは複数のプロセッサと、および
    1つまたは複数のプログラムが記憶されている記憶装置とを含み、
    前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサは請求項1~6のいずれか一項に記載の方法を実施することを特徴とする、電子機器。
  14. コンピュータプログラムが記憶されているコンピュータ可読媒体であって、
    前記プログラムがプロセッサによって実行されると、請求項1~6のいずれか一項に記載の方法が実施される、コンピュータ可読媒体。
  15. コンピュータプログラムであって、
    前記コンピュータプログラムがプロセッサにより実行されると、請求項1~6のいずれか一項に記載の方法を実現させるコンピュータプログラム。
JP2020099160A 2019-12-27 2020-06-08 情報を出力する方法および装置 Active JP7100087B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201911378383.5A CN111090987B (zh) 2019-12-27 2019-12-27 用于输出信息的方法和装置
CN201911378383.5 2019-12-27

Publications (2)

Publication Number Publication Date
JP2021108096A JP2021108096A (ja) 2021-07-29
JP7100087B2 true JP7100087B2 (ja) 2022-07-12

Family

ID=70397500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020099160A Active JP7100087B2 (ja) 2019-12-27 2020-06-08 情報を出力する方法および装置

Country Status (3)

Country Link
US (1) US11507748B2 (ja)
JP (1) JP7100087B2 (ja)
CN (1) CN111090987B (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11487942B1 (en) * 2019-06-11 2022-11-01 Amazon Technologies, Inc. Service architecture for entity and relationship detection in unstructured text
US11556579B1 (en) 2019-12-13 2023-01-17 Amazon Technologies, Inc. Service architecture for ontology linking of unstructured text
JP6884436B1 (ja) * 2020-01-16 2021-06-09 株式会社テンクー 文書表示支援システム及び文書表示支援方法並びに該方法を実行するためのプログラム
CN113761882B (zh) * 2020-06-08 2024-09-20 北京沃东天骏信息技术有限公司 一种词典构建方法和装置
CN112131380A (zh) * 2020-08-20 2020-12-25 彭涛 用于识别问题类别的方法、装置、电子设备及存储介质
CN112214987B (zh) * 2020-09-08 2023-02-03 深圳价值在线信息科技股份有限公司 一种信息提取方法、提取装置、终端设备及可读存储介质
CN112307766B (zh) * 2020-09-22 2024-08-16 北京京东世纪贸易有限公司 用于识别预设类别实体的方法、装置、电子设备和介质
CN112084783B (zh) * 2020-09-24 2022-04-12 中国民航大学 基于民航不文明旅客的实体识别方法及系统
CN113536793A (zh) * 2020-10-14 2021-10-22 腾讯科技(深圳)有限公司 一种实体识别方法、装置、设备以及存储介质
CN112257448A (zh) * 2020-10-29 2021-01-22 重庆紫光华山智安科技有限公司 一种多任务命名实体识别方法、系统、介质及终端
CN112559727B (zh) * 2020-12-15 2024-04-09 北京百度网讯科技有限公司 用于输出信息的方法、装置、设备、存储介质和程序
CN113268452B (zh) * 2021-05-25 2024-02-02 联仁健康医疗大数据科技股份有限公司 一种实体抽取的方法、装置、设备和存储介质
CN113254656B (zh) * 2021-07-06 2021-10-22 北京邮电大学 专利文本分类方法、电子设备及计算机存储介质
CN113627424B (zh) * 2021-07-14 2023-09-12 重庆师范大学 一种协同门控循环融合lstm图像标注方法
CN113537345B (zh) * 2021-07-15 2023-01-24 中国南方电网有限责任公司 一种通信网设备数据关联的方法及系统
CN113676348B (zh) * 2021-08-04 2023-12-29 南京赋乐科技有限公司 一种网络通道破解方法、装置、服务器及存储介质
CN113743746A (zh) * 2021-08-17 2021-12-03 携程旅游网络技术(上海)有限公司 模型训练方法、事件分派处理方法、设备及介质
CN113392189B (zh) * 2021-08-17 2022-02-08 东华理工大学南昌校区 基于自动分词的新闻文本处理方法
CN113836940B (zh) * 2021-09-26 2024-04-12 南方电网数字电网研究院股份有限公司 电力计量领域的知识融合方法、装置和计算机设备
CN113626564B (zh) * 2021-10-09 2021-12-17 腾讯科技(深圳)有限公司 一种概念标签生成方法、装置、电子设备和存储介质
US20230161962A1 (en) * 2021-11-23 2023-05-25 Microsoft Technology Licensing, Llc System for automatically augmenting a message based on context extracted from the message
CN114281987B (zh) * 2021-11-26 2024-08-30 联通沃悦读科技文化有限公司 一种用于智能语音助手的对话短文本语句匹配方法
CN114139545A (zh) * 2021-12-07 2022-03-04 北京金山数字娱乐科技有限公司 信息提取方法及装置
CN114330345B (zh) * 2021-12-24 2023-01-17 北京百度网讯科技有限公司 命名实体识别方法、训练方法、装置、电子设备及介质
CN114821622B (zh) * 2022-03-10 2023-07-21 北京百度网讯科技有限公司 文本抽取方法、文本抽取模型训练方法、装置及设备
CN114997169B (zh) * 2022-05-30 2023-06-13 中电金信软件有限公司 一种实体词识别方法、装置、电子设备及可读存储介质
CN115081451A (zh) * 2022-06-30 2022-09-20 中国电信股份有限公司 实体识别方法、装置、电子设备及存储介质
CN115204150B (zh) * 2022-09-06 2022-12-09 北京国电通网络技术有限公司 信息校验方法、装置、电子设备和计算机可读介质
CN115374788B (zh) * 2022-10-26 2023-02-07 江西农业大学 农业病虫害文本命名实体的方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176355A (ja) 2014-03-14 2015-10-05 日本電信電話株式会社 モデル学習装置、方法及びプログラム
JP2016126748A (ja) 2014-12-26 2016-07-11 Kddi株式会社 ラベル付与装置、方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10509860B2 (en) * 2016-02-10 2019-12-17 Weber State University Research Foundation Electronic message information retrieval system
US10997223B1 (en) * 2017-06-28 2021-05-04 Amazon Technologies, Inc. Subject-specific data set for named entity resolution
CN109388795B (zh) * 2017-08-07 2022-11-08 芋头科技(杭州)有限公司 一种命名实体识别方法、语言识别方法及系统
CN107977361B (zh) * 2017-12-06 2021-05-18 哈尔滨工业大学深圳研究生院 基于深度语义信息表示的中文临床医疗实体识别方法
US11392828B2 (en) * 2018-09-24 2022-07-19 Salesforce.Com, Inc. Case object context embeddings for machine learning training of case context
CN109657230B (zh) * 2018-11-06 2023-07-28 众安信息技术服务有限公司 融合词向量和词性向量的命名实体识别方法及装置
WO2020172329A1 (en) * 2019-02-19 2020-08-27 Google Llc Learning to extract entities from conversations with neural networks
CN110147551B (zh) * 2019-05-14 2023-07-11 腾讯科技(深圳)有限公司 多类别实体识别模型训练、实体识别方法、服务器及终端
US11354506B2 (en) * 2019-07-30 2022-06-07 Baidu Usa Llc Coreference-aware representation learning for neural named entity recognition
CN111274815B (zh) * 2020-01-15 2024-04-12 北京百度网讯科技有限公司 用于挖掘文本中的实体关注点的方法和装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015176355A (ja) 2014-03-14 2015-10-05 日本電信電話株式会社 モデル学習装置、方法及びプログラム
JP2016126748A (ja) 2014-12-26 2016-07-11 Kddi株式会社 ラベル付与装置、方法およびプログラム

Also Published As

Publication number Publication date
US20210200951A1 (en) 2021-07-01
CN111090987B (zh) 2021-02-05
CN111090987A (zh) 2020-05-01
US11507748B2 (en) 2022-11-22
JP2021108096A (ja) 2021-07-29

Similar Documents

Publication Publication Date Title
JP7100087B2 (ja) 情報を出力する方法および装置
Schuller et al. A review on five recent and near-future developments in computational processing of emotion in the human voice
US11037657B2 (en) Personalized questionnaire for health risk assessment
US20200279147A1 (en) Method and apparatus for intelligently recommending object
US20200104409A1 (en) Method and system for extracting information from graphs
US11321534B2 (en) Conversation space artifact generation using natural language processing, machine learning, and ontology-based techniques
US11495332B2 (en) Automated prediction and answering of medical professional questions directed to patient based on EMR
US11532387B2 (en) Identifying information in plain text narratives EMRs
CN110517767B (zh) 辅助诊断方法、装置、电子设备及存储介质
US11880664B2 (en) Identifying and transforming text difficult to understand by user
Kaswan et al. AI-based natural language processing for the generation of meaningful information electronic health record (EHR) data
US11176441B2 (en) Neural network architecture for performing medical coding
CN113657105A (zh) 基于词汇增强的医学实体抽取方法、装置、设备及介质
CN114708976A (zh) 辅助诊断技术的方法、装置、设备及存储介质
Gillies et al. Theme and topic: How qualitative research and topic modeling can be brought together
Ahmed et al. MED-Prompt: A novel prompt engineering framework for medicine prediction on free-text clinical notes
US11532174B2 (en) Product baseline information extraction
CN110580294B (zh) 实体融合方法、装置、设备及存储介质
CN115357710B (zh) 表格描述文本生成模型的训练方法、装置及电子设备
Qin Research on the application of intelligent speech recognition technology in medical big data fog computing system
Yun et al. Transforming unstructured voice and text data into insight for paramedic emergency service using recurrent and convolutional neural networks
Xia et al. An online intelligent electronic medical record system via speech recognition
CN115862794A (zh) 病历文本生成方法、装置、计算机设备及存储介质
Kulkarni et al. Deep Reinforcement-Based Conversational AI Agent in Healthcare System
US11989520B2 (en) System and method for morality assessment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200819

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220630

R150 Certificate of patent or registration of utility model

Ref document number: 7100087

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150