JP7431833B2 - 言語シーケンスラベリング方法、装置、プログラム及びコンピューティング機器 - Google Patents

言語シーケンスラベリング方法、装置、プログラム及びコンピューティング機器 Download PDF

Info

Publication number
JP7431833B2
JP7431833B2 JP2021539998A JP2021539998A JP7431833B2 JP 7431833 B2 JP7431833 B2 JP 7431833B2 JP 2021539998 A JP2021539998 A JP 2021539998A JP 2021539998 A JP2021539998 A JP 2021539998A JP 7431833 B2 JP7431833 B2 JP 7431833B2
Authority
JP
Japan
Prior art keywords
representation
deep
word
sequence
hidden layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021539998A
Other languages
English (en)
Other versions
JP2022517971A (ja
Inventor
凡▲東▼ 孟
宜▲進▼ ▲劉▼
金超 ▲張▼
杰 周
金安 徐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2022517971A publication Critical patent/JP2022517971A/ja
Application granted granted Critical
Publication of JP7431833B2 publication Critical patent/JP7431833B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/151Transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/117Tagging; Marking up; Designating a block; Setting of attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Machine Translation (AREA)

Description

本願は、2019年6月5日に中国特許局に提出された、出願番号が201910486896.1であり、出願名称が「深層変換アーキテクチャに基づくシーケンスラベリング方法及び装置」である中国特許出願の優先権を主張する。
本願の実施例はデータ処理の技術分野に関し、具体的には、言語シーケンスラベリング方法、装置、記憶媒体及びコンピューティング機器に関する。
自然言語処理(Nature Language processing、NLP)はコンピュータ科学分野と人工知能分野における重要な方向である。自然言語で人間とコンピュータとの効果的な通信を実現できる様々な理論や方法を研究している。自然言語処理は言語学、コンピュータ科学、数学を統合した科学である。したがって、この分野の研究は自然言語、即ち、人間が日常的に使っている言語に関するため、言語学の研究と密接に関連している。自然言語処理技術は通常、テキスト処理、意義理解、機械翻訳、ロボットの質問応答、知識グラフ等の技術を含む。
シーケンスラベリングは自然言語処理の基本的な作業であり、自然言語処理で難しい問題でもあり、主に品詞ラベリング、固有表現認識等を含む。例えば、固有表現認識の主なタスクはテキスト中の人名、地名、組織名等の固有名詞及び意味のある時間、日付等のフレーズを認識することである。シーケンスラベリングタスクは情報抽出の重要な構成部分であり、その効果は機械翻訳、インテリジェント対話システム等に大きな影響を与える。
現在、シーケンスラベリングの主なモデルは従来の機械学習モデル及びニューラルネットワークモデルに分けられる。近年、従来の機械学習モデルに比べて、ニューラルネットワークモデルがシーケンスラベリングタスクにおいて少量の人工的な特徴を補助として使用されてよりよい効果を達成できる。
しかしながら、上記従来技術では、隣接する隠れ層の状態間の変換プロセスは浅く、豊富な言語的特徴を抽出するのに十分ではない。また、従来技術では、言語シーケンスにおける各単語の位置でグローバル情報に対する表現が不十分であり、現在の単語に対して正確に予測することは困難である。
以上に鑑みて、本願の実施例は言語シーケンスラベリング方法、装置、記憶媒体及びコンピューティング機器を提供する。
本願の実施例の一態様によれば、コンピューティング機器が実行する言語シーケンスラベリング方法を提供する。該方法は、
言語シーケンスの第1埋め込み表現を読み取るステップであって、前記第1埋め込み表現は前記言語シーケンスの文字レベル単語埋め込み表現、事前訓練単語埋め込み表現及びグローバル単語埋め込み表現を含み、前記グローバル単語埋め込み表現は前記言語シーケンスのグローバルコンテキスト表現であるステップと、
第1深層変換リカレントニューラルネットワークに基づいて、前記第1埋め込み表現に対して第1深層変換符号化を行い、前記言語シーケンスにおける各単語に対応する第1隠れ層状態表現を出力するステップと、
前記第1隠れ層状態表現を復号化して、前記言語シーケンスのラベリング結果を獲得するステップと、を含む。
本願の実施例の別の態様によれば、言語シーケンスラベリング装置を提供する。該装置は、シーケンスラベリングエンコーダと、シーケンスラベリングデコーダと、を含み、
前記シーケンスラベリングエンコーダは、
言語シーケンスの第1埋め込み表現を読み取るための第1読み取りモジュールであって、前記第1埋め込み表現は前記言語シーケンスの文字レベル単語埋め込み表現、事前訓練単語埋め込み表現及びグローバル単語埋め込み表現を含み、前記グローバル単語埋め込み表現は前記言語シーケンスのグローバルコンテキスト表現である第1読み取りモジュールと、
第1深層変換リカレントニューラルネットワークに基づいて、前記第1埋め込み表現に対して第1深層変換符号化を行い、前記言語シーケンスにおける各単語に対応する第1隠れ層状態表現を出力するための第1深層変換モジュールと、を含み、
シーケンスラベリングデコーダは、前記第1隠れ層状態表現を復号化して、前記言語シーケンスのラベリング結果を獲得するためのものである。
本願の実施例の別の態様によれば、コンピュータ可読記憶媒体を提供し、コンピュータプログラム命令が記憶されており、プロセッサが前記コンピュータプログラム命令を実行すると、前記プロセッサが前記方法を実行する。
本願の実施例の別の態様によれば、コンピューティング機器を提供する。該コンピューティング機器はプロセッサと、コンピュータプログラムを記憶するメモリとを含み、前記コンピュータプログラムが前記プロセッサにより実行されると、前記プロセッサが前記方法を実行する。
以下、図面を参照しながら本願の実施例をより詳しく説明する。
本願の一実施例に係る実施環境の構造模式図である。 本願の一実施例による言語シーケンスラベリングが基礎技術として使用される応用シーンの模式図を示す。 本願の別の一実施例による言語シーケンスラベリングが基礎技術として使用される応用シーンの模式図を示す。 本願の一実施例によるシーケンスラベリング用のエンコーダ-デコーダアーキテクチャの模式図を示す。 本願の一実施例によるグローバル情報強化の深層変換に基づくシーケンスラベリングアーキテクチャの図を示す。 本願の一実施例による言語シーケンスラベリング方法のフローチャートを示す。 本願の別の一実施例による言語シーケンスラベリング方法のフローチャートを示す。 本願の一実施例による言語シーケンスラベリング装置の模式図を示す。 本願の別の一実施例による言語シーケンスラベリング装置の模式図を示す。 例示的なシステムを示し、本明細書に記載される様々な技術を実現できる1つ又は複数のシステム及び/又は機器を代表する例示的なコンピューティング機器を含む。
以下の説明は本願の実施例の様々な実施例を十分に理解及び実施するための特定の詳細を提供する。当業者にとって、本願の実施例の技術案はこれらの詳細のいくつかを省略しても実施できると理解すべきである。場合によっては、本願の実施例に対する説明を不必要に曖昧にすることを回避するために、いくつかの周知する構造及び機能を示していない又は詳しく説明していない。本願の実施例で使用される用語については、本願の特定実施例と組み合わせて使用される場合であっても、最も広い合理的な方法で理解すべきである。
本願の実施例では、言語シーケンスラベリングは基礎となる処理として応用され、中国語単語分割、品詞ラベリング、固有表現認識等の問題を解決できる。言語シーケンスラベリングタスクは情報抽出の重要な構成部分であり、具体的には、機械翻訳、インテリジェント対話システム等に適用されることができる。固有表現認識は情報抽出、質問応答システム、構文解析、機械翻訳等の応用分野における重要な基本ツールである。
図1aは本願の一実施例に係る実施環境の構造模式図である。図1に示すように、言語シーケンスラベリングシステム100はサーバ110と、ネットワーク120と、端末機器130と、ユーザー140とを含む。サーバ110はプロセッサ及びメモリを含み、本願における方法実施例はプロセッサによりメモリに記憶された命令を実行することで実行される。具体的には、サーバ110は言語シーケンスラベリング装置111及び訓練データベース112を含む。端末機器130にクライアント130-1がインストールされている。
クライアント130-1は言語シーケンスを受信するアプリケーションプログラムとして、ユーザーが入力する音声又は文字を受信でき、その中からラベリングする対象となる言語シーケンスを取得する。その後、端末機器130はラベリングする対象となる言語シーケンスをサーバ110に送信し、サーバ110の言語シーケンスラベリング装置111は該言語シーケンスに対してラベリング解析を行う。
本願の実施例に記載される方法によれば、訓練データベース112に事前訓練された単語ベクトルテーブルが記憶されている。言語シーケンスラベリング装置111は訓練データベース112から事前訓練単語ベクトルを取得し、第1埋め込み表現及び第2埋め込み表現を構成する。言語シーケンスラベリング装置111は深層変換リカレントニューラルネットワークを構築することで、言語シーケンスのラベリング結果を獲得し、該ラベリング結果に応じて、ユーザーの意図を理解し、端末機器130に返信するメッセージを決定し、クライアント130-1に該メッセージを表示して、ヒューマンマシンインタラクションを実現する。
サーバ110は1台のサーバであってもよく、又は複数台のサーバからなるサーバクラスターであってもよく、又は1つのクラウドコンピューティングサービスセンターであってもよい。ネットワーク120は無線又は有線でサーバ110と端末機器130を接続してもよい。端末機器130はインテリジェント端末であってもよく、スマートフォン、タブレットコンピュータ、ラップトップポータブルコンピュータ等を含む。
図1bは本願の実施例が基礎技術として応用されるインテリジェント対話システムの応用シーンを模式的に示し、具体的には、1つのヒューマンマシンインタラクションインタフェース200を示す。該インタラクションインタフェース200では、210及び220に示すように、ユーザーは音声又は文字からなる言語シーケンスを入力できる。機械はバックグラウンドで、ユーザーが入力した言語シーケンス、例えば、210「トイレはどこですか」等に対してシーケンスラベリング解析を行うことで、ユーザーの意図、例えば、ユーザーの質問を理解できる。230及び240に示すように、機械はユーザーの質問に対応する応答を提供する。上記言語シーケンス210に対して、対応する応答230「デパートの2、3、4階にある」を提供し、それにより機械とユーザーとの間のインテリジェント対話を実現できる。当業者にとって理解できることは、本願の実施例は言語シーケンスを解析する必要がある他の様々なシーンにも適用できる。
シーケンスラベリング方法とは、線形シーケンスにおける各要素に対して分類することであり、例えば、シーケンスX=x,x,…xにおける各要素にラベルセットY=y,y,…yにおける特定のラベルを追加する。
例えば、入力された言語シーケンス「アインシュタインはドイツで生まれた」について、品詞解析タスクでは、要素に品詞ラベルを追加し、結果としてアインシュタイン[名詞]、生まれた[動詞]、で[介詞]、ドイツ[名詞]を出力する。
固有表現認識タスクでは、テキストにおける特定の意味を持つ固有表現認識し、人名、地名、機構名、固有名詞等を含む。上記例では、命名された固有表現にラベルを追加し、結果としてアインシュタイン[人名]、ドイツ[組織名]を出力する。
図2は本願の実施例が基礎技術として応用される機械翻訳の応用シーンを模式的に示し、具体的には、1つのヒューマンマシンインタラクションインタフェース300を示す。該インタフェース300では、例えば、翻訳君321、テンセントAIlab 322のような複数の技術プロバイダを提供し、テキスト翻訳311、音声翻訳312、ピクチャ翻訳313を含む様々なバックグラウンドサービスをユーザーに提供できる。例えば、テキスト翻訳311を例にすると、左側のボックス331に入力された言語シーケンスを右側のボックス332における言語シーケンスに翻訳することができる。例えば、図2では、左側のボックス331に中国語の「我明天去北京玩」を入力した場合、基礎技術の1つであるシーケンスラベリング等の処理を経て、右側のボックス332に「I’m going to Beijing tomorrow」を出力する。以上からわかるように、本願の実施例におけるシーケンスラベリング処理は、基礎アプリケーションとしてバックグラウンドで、入力された言語を解析及び処理することができる。
シーケンスラベリングタスクでは、コアアーキテクチャはエンコーダ-デコーダスキームである。エンコーダは可変長入力を処理し、固定長のベクトル表現を作成する。デコーダは符号化済みのベクトル表現に基づいて可変長シーケンス(目標シーケンス)を生成する。図3はシーケンスラベリング用のエンコーダ-デコーダアーキテクチャの模式図を示す。図3に示すように、シーケンスラベリングの品詞解析を例にすると、エンコーダに入力される可変長シーケンスがX=x,x,…xであり、エンコーダにより出力される符号化済みのベクトル表現が[z,z,…z]であり、デコーダにより出力される可変長シーケンスがY=y,y,…yである。
図4は本願の一実施例によるグローバル情報強化の深層変換に基づくシーケンスラベリングアーキテクチャの図を示し、例えば、図1a中のサーバ110のようなコンピューティング機器に適用できる。図4に示すアーキテクチャでは、グローバル情報エンコーダ401と、シーケンスラベリングエンコーダ402と、シーケンスラベリングデコーダ403とを含む。
具体的には、処理する対象となる言語シーケンスはx,x,…xであり、xの各々は処理する対象となる言語シーケンスの1つの単語を示し、n=1,…,Nであり、Nは正の整数であり、該言語シーケンス中の単語の総数を示す。言語シーケンスに対して双方向深層変換処理を行うことを例にすると、それぞれ順方向x,x,…x及び逆方向x,xn-1,…xの順序で言語シーケンスに対して深層変換処理を行う。
本願の実施例では、深層変換(DT)とは、ニューラルネットワーク構造における多階層の非線形回帰型ユニットを用いて複数の隣接する時間ステップ間の処理深度を増加させることである。図4では、各キューブはDT回帰型ニューロンを示し、DTユニットと略称される。具体的には、ブロック404には4個のマークの意味が示されており、それぞれ、右斜線付きキューブは前方(左から右へ)のDTユニットを示し、左斜線付きキューブは後方(右から左へ)のDTユニットを示し、斜線無しブロックは一方向DTユニットを示し、丸みを帯びたブロックは単語埋め込みを示す。
グローバル情報エンコーダ401は言語シーケンスx,x,…xの第2埋め込み表現を読み取り、文字レベル単語埋め込み表現c,c,…c及び事前訓練単語埋め込み表現w,w,…wを含む。文字レベル単語埋め込み表現c及び事前訓練単語埋め込み表現wはそれぞれ、入力された言語シーケンスにおけるサブ単語xに対応する。文字レベル単語埋め込みcは文字レベルで学習を行う単語ベクトルであり、サブ単語xを文字レベルで畳み込み処理することによって得たものである。事前訓練単語埋め込み表現wはサブ単語xに応じて、事前訓練して記憶された単語ベクトルテーブルから検索された単語ベクトルである。
一例では、テキストシーケンスの「我在家」の事前訓練単語埋め込み表現wの場合、我=[0.5486464,0.14654642,…,0.4489789]は300次元のベクトルであり、同様に、「在」及び「家」もそれぞれ300次元のベクトルである。
サブ単語xに対応するcとwを接合して、言語シーケンスの第2埋め込み表現を構成する。その後、読み込んだ言語シーケンスの第2埋め込み表現に対して第2深層変換符号化を行う。
本願の実施例では、深層変換リカレントニューラルネットワークを構築することによって、深層変換を実行する。深層変換リカレントニューラルネットワークは線形変換によって改良されたゲート付き回帰型ユニット(GRU)から構成される。GRUは長期短期記憶(LSTM)の変形である。一方、LSTMは時間リカレントニューラルネットワークであり、時系列で間隔及び遅延が相対的に長いイベントを処理及び予測することに適する。リカレントニューラルネットワーク(RNN)はシーケンスデータを入力とし、シーケンスの進化方向に再帰的であり、すべてのノード(回帰型ユニット)がチェーンの形で接続される再帰型ニューラルネットワークである。GRUはLSTMの効果を保持するとともに、構造がさらに簡単であり、RNNにおける勾配消失に非常に寄与する。
グローバル情報エンコーダ401の深層変換ユニット4011は第2深層変換リカレントニューラルネットワークを表し、1層の線形変換強化ゲート付き回帰型ユニット(L-GRU)及び1層の変換ゲート付き回帰型ユニット(T-GRU)を含む。最下位層はL-GRUユニットを使用し、その上位層はT-GRUユニットを使用する。当業者にとって理解できることは、他の層数のT-GRUユニットを使用してもよく、典型的には、2-3層である。
具体的には、GRUは入力層と、隠れ層と、出力層とを含む。GRUでは、t時刻の隠れ層状態表現は下記式(1)のようである。
Figure 0007431833000001
Figure 0007431833000002
は候補活性化であり、下記式(2)によって計算される。
Figure 0007431833000003
式中、Wは学習対象となるネットワークパラメータ、xtは時刻tの入力符号化ベクトル、rtはリセットゲート。リセットゲートrt及び更新ゲートztは下記式(3)及び(4)によって計算される。
rt=σ(wxrxt+whrht-1) (3)
zt=σ(wxzxt+whzht-1) (4)
式中、σは重み係数であり、rt及びztの値を[0,1]にする。
T-GRUは1つのタイプのゲート付き回帰型ユニットであり、深層変換リカレントニューラルネットワークの第1層に出現しないため、GRUのような入力符号化ベクトルxtを具備せず、t時刻における隠れ層状態は下記式(5)及び(6)によって計算される。
Figure 0007431833000004
リセットゲートrt及び更新ゲートztは下記式(7)及び(8)によって計算される。
rt=σ(whrht-1) (7)
zt=σ(whzht-1) (8)
式中、Wは学習対象となるネットワークパラメータである。
L-GRUは別のタイプのゲート付き回帰型ユニットであり、t時刻の隠れ層状態は下記式(9)によって計算される。
Figure 0007431833000005
式中、候補活性化
Figure 0007431833000006
は下記式(10)によって計算される。
Figure 0007431833000007
リセットゲートrt、更新ゲートztは上記式(3)、(4)と同じであり、線形変換ゲートltは下記式(11)によって計算される。
Figure 0007431833000008
グローバル情報エンコーダ401で行われる第2深層変換符号化は双方向である。したがって、接合ユニット4012は同一サブ単語xに対して順方向及び逆方向深層変換処理を行った結果を接合し、情報集約処理ユニット4013によって次元を削減して、グローバル単語埋め込みベクトルgを獲得する。一実施例では、情報集約処理は平均プーリング、最大プーリング又はアテンションメカニズムを含んでもよい。
シーケンスラベリングエンコーダ402はグローバル情報エンコーダ401により出力されたグローバル単語埋め込みベクトルgを用いて言語シーケンス埋め込み表現を強化する。例示的には、シーケンスラベリングエンコーダ402が読み取った言語シーケンスの第1埋め込み表現は、4021に示す文字レベル単語埋め込み表現c,c,…c、4022に示す事前訓練単語埋め込み表現w,w,…w、及び4023に示すグローバル単語埋め込み表現gを含む。文字レベル単語埋め込み表現c及び事前訓練単語埋め込み表現wはそれぞれ、入力された言語シーケンスにおけるサブ単語xに対応する。サブ単語xに対応するc、w及びグローバル単語埋め込みベクトルgを接合して、言語シーケンスの第1埋め込み表現を構成する。
具体的には、n個の単語を持つ言語シーケンスX={x,x,…,x}を考慮して、本願の実施例のシーケンスラベリングエンコーダ402は、まず、3つのプライマリ埋め込みc、w及びgを直列接続することによってt時刻の各単語の表現x=[c;w;g]をキャプチャする。文字レベル単語埋め込み表現cは回帰型畳み込みネットワーク(CNN)によって取得されたものである。事前訓練単語埋め込み表現wはルックアップテーブルから検索することによって取得されたものである。グローバル単語埋め込み表現gは事前符号化計算によって得られた言語シーケンスに対するグローバルコンテキスト表現であり、即ち、上記グローバル情報エンコーダ401によって双方向の第2深層変換リカレントニューラルネットワークから抽出されたものである。
その後、シーケンスラベリングエンコーダ402は第1深層変換リカレントニューラルネットワークに基づいて、読み込んだ言語シーケンスの第1埋め込み表現に対して第1深層変換符号化を行う。一実施例では、第1深層変換符号化は双方向に行われる。深層変換ユニット4024で表される第1深層変換リカレントニューラルネットワークでは、最下位層はL-GRUユニットを使用し、残りの層はT-GRUユニットを使用する。図4に示す例では、使用するT-GRUユニットの層数は通常、2-5であり、当業者にとって理解できることは、他の層数のT-GRUユニットを使用してもよい。シーケンスラベリングエンコーダ402はグローバル情報エンコーダ401と比較すると、使用するL-GRU層数はいずれも1層である。
接合ユニット4025は同一サブ単語xnに対して順方向及び逆方向深層変換処理を行った結果を接合して、各単語に対応する第1隠れ層状態表現htを獲得する。
シーケンスラベリングデコーダ403は各時刻tにおいて、シーケンスラベリングエンコーダ402から現在の単語に対応する第1隠れ層状態表現htを読み込み、前の時刻のラベル情報yt-1に基づいて復号化する。具体的には、以下のステップを含む。
まず、各単語に対して、第3深層変換リカレントニューラルネットワークに基づいて、該単語の第1隠れ層状態表現に対して深層変換を行い、各単語に対応する第2隠れ層状態表現stを獲得する。
次に、第2隠れ層状態表現st及び前の時刻のラベル情報yt-1に対して線形変換を行い、隠れ層状態の次元をラベルの数に等しくする。
lt=stWl+bl (12)
最後に、softmax操作によって、ltを確率分布形式に正規化し、i番目の単語に対して、ラベルjと予測される確率は、
P(yt=j|xt)=softmax(lt)[j] (13)であり、
このように、各単語のラベル予測結果を獲得する。
シーケンスラベリングデコーダ403は一方向構造を使用し、一方向深層変換を実行する。その回帰型ニューロンDTの構造は上記グローバル情報エンコーダ401及びシーケンスラベリングエンコーダ402の回帰型ニューロンDTの構造と類似し、第1層(図4中の4031を参照)はL-GRUであり、残りの層はT-GRUである。
図5は本願の一実施例による言語シーケンスラベリング方法のフローチャートを模式的に示し、例えば、図1a中のサーバ110のようなコンピューティング機器によって実行される。具体的には、以下のステップ501~503を含む。
ステップ501では、言語シーケンスの第1埋め込み表現を読み取り、第1埋め込み表現は言語シーケンスの文字レベル単語埋め込み表現、事前訓練単語埋め込み表現及びグローバル単語埋め込み表現を含み、グローバル単語埋め込み表現は、言語シーケンスのグローバルコンテキスト表現である。
第1埋め込み表現は、言語シーケンスの文字レベル単語埋め込み表現c、事前訓練単語埋め込み表現w及びグローバル単語埋め込み表現gを含む。文字レベル単語埋め込みcは文字レベルで学習を行う単語ベクトルであり、サブ単語xを文字レベルで畳み込み処理することで得られる。事前訓練された単語ベクトルwはサブ単語xに応じて、事前訓練して記憶された単語ベクトルテーブルから検索することによって得られる。各サブ単語xに対して、それに対応する文字レベル単語埋め込み表現c、事前訓練単語埋め込み表現w及びグローバル単語埋め込み表現gを接合する。該グローバル単語埋め込み表現gは事前符号化計算によって得られた言語シーケンスに対するグローバルコンテキスト表現である。
ステップ502では、第1深層変換リカレントニューラルネットワークに基づいて、第1埋め込み表現に対して第1深層変換符号化を行い、言語シーケンスにおける各単語に対応する第1隠れ層状態表現を出力する。
一実施例では、第1深層変換符号化は、第1埋め込み表現に対して、それぞれ順方向及び逆方向の2つの方向に第1深層変換符号化を実行する、即ち、左から右への順方向及び右から左への逆方向に行われる双方向深層変換を含む。双方向深層変換に対して、順方向及び逆方向の深層変換符号化結果を接合する必要がある。順方向及び逆方向で獲得された深層変換符号化結果を接合して、各単語に対応する第1隠れ層状態表現を獲得する。
第1深層変換符号化のネットワークアーキテクチャでは、最下位層における深層変換ユニットはL-GRUユニットを使用し、残りの層における深層変換ユニットはT-GRUユニットを使用する。一例では、使用されるT-GRUユニットの層数は通常、2-5であり、当業者にとって理解できることは、他の層数のT-GRUユニットを使用してもよい。
ステップ503では、第1隠れ層状態表現を復号化して、言語シーケンスのラベリング結果を獲得する。
本ステップの復号化方法は、上記シーケンスラベリングデコーダ403に対する説明を参照すればよく、ここでは詳細説明をしない。
上記実施例によれば、グローバル情報により強化された深層変換アーキテクチャに基づくシーケンスラベリング方法を提供し、リカレントニューラルネットワークの隣接する状態間の変換プロセスを深めることができる。それとともに、グローバル情報エンコーダによって各単語のローカル情報を強化し、より全面的な特徴表現を取得し、予測精度を高める。
図6は本願の別の一実施例による言語シーケンスラベリング方法のフローチャートを模式的に示し、該方法は、例えば、図1a中のサーバ110のようなコンピューティング機器によって実行される。図5の方法のフローをもとに、図6は具体的に、以下のステップ601~603を含む。
ステップ601では、線形変換強化ゲート付き回帰型ユニットL-GRU及び変換ゲート付き回帰型ユニットT-GRUによって、深層変換リカレントニューラルネットワークを構築する。
本ステップでは、構築した深層変換リカレントニューラルネットワークは複数層のGRUから構成され、L-GRUとT-GRUを使用する層数は設定可能である。例えば、シーケンスラベリングエンコーダ402に使用される第1深層変換リカレントニューラルネットワークは、1層のL-GRU及び少なくとも2層のT-GRUから構成されてもよい。グローバル情報エンコーダ401に使用される第2深層変換リカレントニューラルネットワークは、1層のL-GRU及び1層のT-GRUから構成されてもよい。1層のL-GRUはネットワークの最下位層にある。
ステップ602では、言語シーケンスの第2埋め込み表現を読み取り、第2埋め込み表現は文字レベル単語埋め込み表現及び事前訓練単語埋め込み表現を含む。
文字レベル単語埋め込み表現c及び事前訓練単語埋め込み表現wはそれぞれ、入力された言語シーケンスにおけるサブ単語xに対応する。文字レベル単語埋め込み表現cは文字レベルで学習を行う単語ベクトルであり、サブ単語xを文字レベルで畳み込み処理することによって得られる。事前訓練埋め込み表現はサブ単語xに応じて、事前訓練して記憶された単語ベクトルテーブルから検索された単語ベクトルである。
ステップ603では、第2深層変換リカレントニューラルネットワークに基づいて、第2埋め込み表現に対して第2深層変換符号化を行い、グローバル単語埋め込み表現を獲得する。
一実施例では、第2埋め込み表現に対して第2深層変換符号化を行った後、次元削減を行うために、第2深層変換符号化後の結果に対して情報集約を行い、グローバル単語埋め込み表現を獲得する。具体的には、第2深層変換符号化は、読み取った第2埋め込み表現に対して、それぞれ左から右への順方向及び右から左への逆方向の2つの方向に深層変換符号化を行うステップを含む。順方向及び逆方向の2つの方向に深層変換符号化を行う場合、順方向及び逆方向の2つの方向に深層変換を行った結果を接合し、さらに情報集約を行う。情報集約は最大プーリング又は平均プーリングを含んでもよい。
第2深層変換符号化は線形変換強化ゲート付き回帰型ユニットL-GRU及び変換ゲート付き回帰型ユニットT-GRUから構成される第2深層変換リカレントニューラルネットワークによって行われる。L-GRUは第2深層変換リカレントニューラルネットワークにおける回帰型ユニットの第1層に位置し、T-GRUは深層変換リカレントニューラルネットワークにおける回帰型ユニットの他の層に位置する。一実施例では、第1深層変換リカレントニューラルネットワークにおけるT-GRUの層数は1であり、当業者にとって理解することは、第2深度リカレントネットワークにおいて、例えば、2-3層のような他の層数のT-GRUを有してもよい。
ステップ501及び502を実行した後、ステップ604及び605を実行し、
ステップ604では、各単語に対して、第3深層変換リカレントニューラルネットワークに基づいて、該単語の第1隠れ層状態表現に対して深層変換を行い、第2隠れ層状態表現を獲得する。
本願の一実施例では、行われる深層変換は一方向深層変換であってもよい。例えば、図4に示すシーケンスラベリングデコーダ403では、4031に含まれるのは一方向DTユニットである。
ステップ605では、第2隠れ層状態表現に基づいて、言語シーケンスのラベリング結果を獲得する。
本願の一実施例では、複数のラベルを事前設定し、第2隠れ層状態表現及び前の時刻のラベル情報に対して線形変換を行った後、該単語が各ラベルに属する確率を取得する。例えば、ラベルセットY=y,y,…yを事前設定し、上記式(12)及び(13)を参照して、各単語がラベルセットY中の各ラベルに属する確率を、該単語のラベル予測結果として獲得して、即ち、該言語シーケンスのラベリング結果を獲得する。
図7は本願の一実施例による言語シーケンスラベリング装置700の模式図を模式的に示し、該装置700は、例えば、図1aに示すサーバ110のようなコンピューティング機器に適用できる。言語シーケンスラベリング装置700はシーケンスラベリングエンコーダ701とシーケンスラベリングデコーダ702とを含む。シーケンスラベリングエンコーダ701は第1読み取りモジュール7011と第1深層変換モジュール7012とを含む。
第1読み取りモジュール7011は、言語シーケンスの第1埋め込み表現を読み取るためのものであり、前記第1埋め込み表現は前記言語シーケンスの文字レベル単語埋め込み表現、事前訓練単語埋め込み表現及びグローバル単語埋め込み表現を含み、前記グローバル単語埋め込み表現は前記言語シーケンスのグローバルコンテキスト表現である。
第1深層変換モジュール7012は、第1深層変換リカレントニューラルネットワークに基づいて、前記第1埋め込み表現に対して第1深層変換符号化を行い、前記言語シーケンスにおける各単語に対応する第1隠れ層状態表現を出力するためのものである。
シーケンスラベリングデコーダ702は、前記第1隠れ層状態表現を復号化して、前記言語シーケンスのラベリング結果を獲得するためのものである。
図8は本願の別の一実施例による言語シーケンスラベリング装置800の模式図を模式的に示し、該装置800は、例えば、図1aに示すサーバ110のようなコンピューティング機器に適用できる。図7に示す装置をもとに、言語シーケンスラベリング装置800はグローバル情報エンコーダ703をさらに含む。
一実施例では、グローバル情報エンコーダ703は前記グローバル単語埋め込み表現を取得するためのものであり、
前記言語シーケンスの第2埋め込み表現を読み取るための第2読み取りモジュール7031であって、前記第2埋め込み表現は前記文字レベル単語埋め込み表現及び前記事前訓練単語埋め込み表現を含む第2読み取りモジュール7031と、
第2深層変換リカレントニューラルネットワークに基づいて、前記第2埋め込み表現に対して第2深層変換符号化を行い、前記グローバル単語埋め込み表現を獲得するための第2深層変換モジュール7032と、を含む。
一実施例では、グローバル情報エンコーダ703は、
前記第2深層変換符号化後の結果に対して情報集約を行い、前記グローバル単語埋め込み表現を獲得するように構成される情報集約モジュール7033をさらに含む。
グローバル情報エンコーダ703は双方向深層変換符号化、即ち、左から右への変換符号化及び右から左への深層変換符号化を行うことができる。双方向深層変換符号化は、入力シーケンスの方向が異なる以外、他の差異がない。
一実施例では、第1深層変換モジュール7012は、前記第1埋め込み表現に対して、それぞれ順方向及び逆方向の2つの方向に前記第1深層変換符号化を実行し、順方向及び逆方向で獲得した深層変換符号化結果を接合して、各単語に対応する前記第1隠れ層状態表現を獲得するためのものである。
一実施例では、装置800は、
線形変換強化ゲート付き回帰型ユニットL-GRU及び変換ゲート付き回帰型ユニットT-GRUによって、深層変換リカレントニューラルネットワークを構築するための構築モジュール704をさらに含む。
一実施例では、前記第1深層変換リカレントニューラルネットワークは1層のL-GRU及び少なくとも2層のT-GRUから構成される。
一実施例では、シーケンスラベリングデコーダ702は、
各単語に対して、第3深層変換リカレントニューラルネットワークに基づいて、該単語の前記第1隠れ層状態表現に対して深層変換を行い、第2隠れ層状態表現を獲得するための第3深層変換モジュール7022と、
前記第2隠れ層状態表現に基づいて、前記言語シーケンスのラベリング結果を獲得するためのラベリングモジュール7023と、を含む。
一実施例では、シーケンスラベリングデコーダ702は、
複数のラベルを事前設定するための設定モジュール7021をさらに含み、
ラベリングモジュール7023は、前記第2隠れ層状態表現及び前の時刻のラベル情報に対して線形変換を行った後、該単語が各ラベルに属する確率を取得するためのものである。
第1深層変換モジュール7012、第2深層変換モジュール7032は双方向DTを実行する。一方、第3深層変換モジュール7022は一方向DTを実行する。
以下、一方向変換エンコーダを例に説明する。Lは変換エンコーダ深度を示し、i時刻、深度jにおいて、深層変換エンコーダの隠れ層状態は下記式(14)及び(14)によって計算される。
Figure 0007431833000009
深層変換符号化を行った後、i番目の単語に対応する状態は
Figure 0007431833000010
である。同様に2つの方向の深層変換符号化を計算し、2つの方向の符号化された隠れ層状態表現を接合して、i番目の単語に対応する最終符号化表現
Figure 0007431833000011
を獲得する。
その後、第2深層変換モジュール7032は各単語の符号化表現に対して平均プーリングを行い、最終的な言語シーケンス全体のグローバル表現
Figure 0007431833000012
を獲得する。
本願の実施例のシーケンスラベリングスキームは従来の双方向LSTMモデルに比べて、より良好なラベリング効果を示し、文中の固有表現、文法ブロック、品詞等の情報をより正確に認識でき、さらに、例えばマイクロ対話システムのような従来の関連アプリケーションシステムを最適化する。
F1は精度及びフィードバック率を表す平均指標である。シーケンスラベリングの評注指標F1を例にして、実際にテストを行ったところ、本願の実施例のスキームは様々な点でF1値が上がった。表1は固有表現認識及び文法ブロック認識における様々なスキームでのF1性能の比較を模式的に示す。
Figure 0007431833000013
表1に示すように、シーケンスラベリングにおける固有表現認識について、本願の実施例のスキームはF1値を従来技術の91.64よりも0.32上げ、シーケンスラベリングにおける文法ブロック認識について、F1値を従来技術の95.29よりも0.14上げた。
また、本願の実施例をもとに、変換器に基づく双方向エンコーダ表現(BERT)を組み合わせることで、性能をさらに向上させる。
Figure 0007431833000014
表2はスタック型リカレントニューラルネットワークとの性能比較を示す。まず、スタック型リカレントニューラルネットワークが非常に深い構造を処理できるが、単語レベルで連続する隠れ層状態間の変換深度は浅い。次に、スタック型リカレントニューラルネットワークでは、シーケンスの軸方向に沿う隠れ層状態は簡単に上位層の対応する位置にフィードされ、つまり、深度アーキテクチャのみでは位置感知特徴のみを伝送する。
一方、本願の実施例では、グローバルエンコーダのすべての単語位置の内部状態は固定サイズのベクトルに変換される。スタック型リカレントニューラルネットワークに比べて、このようなコンテキスト感知表現は文のより一般的でより多くの情報の特徴を提供する。より厳密な比較を獲得するために、本願の実施例と類似するパラメータ数値を持つスタック型リカレントニューラルネットワークを使用する。表2中の数値スタック型リカレントニューラルネットワークによれば、スタック型リカレントニューラルネットワークと本願の実施例の技術案の間に大きなギャップがまだある。表2に示すように、本願の実施例はより小さいパラメータ量で、スタック型リカレントニューラルネットワークよりも良好な性能を実現し、図中の固有表現認識F1に対する列に示すように、本願の実施例のF1は91.96であり、スタック型リカレントニューラルネットワークよりも1.02高い。それにより、本願の実施例の技術案はグローバル情報を効果的に利用して、より多くのシーケンスラベリングタスクの有用な表現を学習できることが確認された。
Figure 0007431833000015
表3はモデルアブレーション実験の結果、即ち、それぞれ文字レベル単語埋め込み表現(即ち、図4中の4021)、事前訓練単語埋め込み表現(即ち、図4中の4022)、グローバル単語埋め込み表現(即ち、図4中の4023)及び深層変換リカレントニューラルネットワーク(図4中の4024)のうちのいずれかを除去し、残りの3つの構成部分を保留する情况に得た固有表現認識タスクのF1値を示す。
4つの部分がすべて存在する情况場合、F1値は91.96と最も高く、文字レベル畳み込みネットワークをアブレーションする場合における90.94、事前訓練単語ベクトルをアブレーションする場合における88.59、グローバル情報をアブレーションする場合における91.60、及び深度伝送リカレントネットワークをアブレーションする場合における91.42よりも高いことが分かった。以上からわかるように、本願の実施例の技術案の性能は他のアブレーションスキームよりも高い。
本願の実施例はグローバル単語埋め込み表現を用いてシーケンスラベリングエンコーダの入力を強化したが、シーケンスラベリングデコーダの入力、softmax分類層の入力とする等の他の方式を用いてグローバル単語埋め込み情報を強化してもよい。
しかし、本願の実施例の技術案は効果が最もよく、グローバル単語埋め込み表現と多粒度の文字レベル単語埋め込み表現、事前訓練単語埋め込み表現を接合したものをシーケンスラベリングエンコーダの入力とし、複雑な組合せ計算を経て、各単語位置がより具体的でより豊富な表現を学習でき、それによりモデル全体の効果を向上させる。一方、後の2種のスキームでは、グローバル情報と他の隠れ層状態の特徴空間は類似する。
図9は例示的なシステム900を示し、本明細書に記載される様々な技術を実現できる1つ又は複数のシステム及び/又は機器を代表する例示的なコンピューティング機器910を含む。コンピューティング機器910は、例えば、サービスプロバイダのサーバ、クライアント(例えば、クライアント機器)に関連付けられた機器、システムオンチップ、及び/又は任意の他の適切なコンピューティング機器又はコンピューティングシステムであってもよい。上記図7の言語シーケンスラベリング装置700又は図8の言語シーケンスラベリング装置800はコンピューティング機器910の形態を使用してもよい。あるいは、言語シーケンスラベリング装置700及び800はシーケンスラベリングアプリケーション916の形態でコンピュータプログラムとして実現されてもよい。
図示される例示的なコンピューティング機器910は、互いに通信結合される処理システム911、1つ又は複数のコンピュータ可読媒体912、及び1つ又は複数のI/Oインタフェース913を含む。図示していないが、コンピューティング機器910は、様々なユニットを互いに接続するシステムバス又は他のデータ及び命令伝送システムをさらに含んでもよい。システムバスは様々なバス構造のいずれか又は組合せを含んでもよく、前記バス構造は、例えば、メモリバス又はメモリコントローラ、ペリフェラルバス、ユニバーサルシリアルバス、及び/又は様々なバスアーキテクチャのうちのいずれかを用いたプロセッサ又はローカルバスであってもよい。例えば、制御及びデータラインのような様々な他の例も想到し得る。
処理システム911はハードウェアを用いて1つ又は複数の操作を実行する機能を代表する。したがって、図示されるように、処理システム911は、プロセッサ、機能ブロック等として構成できるハードウェア素子914を含む。これには、ハードウェアで特定用途向け集積回路として実現される、又は1つ又は複数の半導体から形成される他のロジックデバイスが含まれる。ハードウェア素子914はその製造材料又は使用する処理機構によって制限されない。例えば、プロセッサは(複数の)半導体及び/又はトランジスタ(例えば、電子集積回路(IC))からなってもよい。このような場合、プロセッサ実行可能命令は電子的に実行可能な命令であってもよい。
図示されるように、コンピュータ可読媒体912はメモリ/記憶装置915を含む。メモリ/記憶装置915は1つ又は複数のコンピュータ可読媒体に関連付けられたメモリ/記憶容量を示す。メモリ/記憶装置915は揮発性媒体(例えば、ランダムアクセスメモリ(RAM))及び/又は不揮発性媒体(例えば、読み出し専用メモリ(ROM)、フラッシュ、光ディスク、磁気ディスク等)を含んでもよい。メモリ/記憶装置915は固定媒体(例えば、RAM、ROM、固定ハードディスクドライブ等)及びリムーバブル媒体(例えば、フラッシュ、リムーバブルハードディスクドライブ、光ディスク等)を含んでもよい。コンピュータ可読媒体912は以下さらに説明される様々な他の方式で構成されてもよい。
1つ又は複数のI/Oインタフェース913は、ユーザーがコンピューティング機器910に命令及び情報を入力することを可能にし、選択的に様々な入力/出力機器を用いて情報をユーザー及び/又は他のユニット又は機器に提示することを可能にする機能を代表する。入力機器の例として、キーボード、カーソル制御機器(例えば、マウス)、マイク(例えば、音声入力用)、スキャナー、タッチ機能(例えば、物理的なタッチを検出する静電容量式又は他のセンサ)、カメラ(例えば、可視又は不可視の波長(例えば、赤外線周波数)を用いてタッチとは関係のない動きをジェスチャーとして検出する)等が含まれる。出力機器の例は表示機器(例えば、モニタ又はプロジェクタ)、スピーカー、プリンタ、ネットワークカード、触覚応答機器等を含む。したがって、コンピューティング機器910は、ユーザーの対話をサポートするように、以下さらに説明される様々な方式で構成されてもよい。
コンピューティング機器910はシーケンスラベリングアプリケーション916をさらに含む。シーケンスラベリングアプリケーション916は、例えば、図5に示す言語シーケンスラベリング装置700及び800のソフトウェア例であってもよく、コンピューティング機器910の他の素子と組み合わせて、本明細書に記載される技術を実現する。
本明細書はソフトウェア・ハードウェア素子又はプログラムモジュールの一般的なコンテキストでは様々な技術を説明できる。一般に、これらのモジュールは、特定のタスクを実行する、又は特定の抽象データタイプを実現するルーチン、プログラム、オブジェクト、要素、ユニット、データ構造等を含む。本明細書で使用する用語「モジュール」、「機能」及び「ユニット」は一般に、ソフトウェア、ファームウェア、ハードウェア又はこれらの組合せを示す。本明細書に記載される技術的特徴はプラットフォームとは無関係であり、これらの技術は様々なプロセッサを持つ様々なコンピューティングプラットフォームで実現できる。
説明されるモジュール及び技術の実現は特定の形式のコンピュータ可読媒体に記憶され、又は特定の形式のコンピュータ可読媒体間で伝送されてもよい。コンピュータ可読媒体は、コンピューティング機器910がアクセス可能な様々な媒体を含んでもよい。限定ではなく例として、コンピュータ可読媒体は「コンピュータ可読記憶媒体」及び「コンピュータ可読信号媒体」を含んでもよい。
単なる信号伝送、キャリア又は信号自体とは反対であり、「コンピュータ可読記憶媒体」とは、情報を永続的に記憶できる媒体及び/又は機器、及び/又は有形の記憶装置である。したがって、コンピュータ可読記憶媒体とは非信号キャリア媒体である。コンピュータ可読記憶媒体は、例えば、揮発性及び不揮発性、リムーバブル及び固定媒体、及び/又は記憶情報(例えば、コンピュータ可読命令、データ構造、プログラムモジュール、ロジック素子/回路又は他のデータ)を記憶する方法又は技術を適用して実現される記憶機器のようなハードウェアを含む。コンピュータ可読記憶媒体の例はRAM、ROM、EEPROM、フラッシュ又は他のメモリ技術、CD-ROM、デジタル多用途ディスク(DVD)又は他の光記憶装置、ハードディスク、カセットテープ、磁気テープ、磁気ディスク記憶装置又は他の磁気記憶機器、又は他の記憶機器、有形の媒体、又は所望の情報を記憶することに適し、コンピュータがアクセス可能な製品を含むが、これらに限定されない。
「コンピュータ可読信号媒体」とは、例えば、ネットワークを介して命令をコンピューティング機器910のハードウェアに送信する信号キャリア媒体である。信号媒体は典型的には、コンピュータ可読命令、データ構造、プログラムモジュール又は他のデータを、例えば、キャリア、データ信号又は他の伝送メカニズムの変調データ信号に具体化できる。信号媒体は任意の情報伝送媒体をさらに含む。用語「変調データ信号」とは、このような方式で信号中の情報を符号化することでその特徴のうちの1つ又は複数を設定又は変更する信号である。限定ではなく例として、通信媒体は、例えば、有線ネットワーク又は直接接続された有線媒体、及び、例えば、声、RF、赤外線及び他の無線媒体などの無線媒体を含む。
上述したように、ハードウェア素子914及びコンピュータ可読媒体912はハードウェアの形態で実現される命令、モジュール、プログラマブルデバイスロジック及び/又は固定デバイスロジックを代表し、いくつかの実施例では、本明細書に記載される技術の少なくともいくつかの態様を実現できる。ハードウェア素子は集積回路又はシステムオンチップ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、コンプレックスプログラマブルロジックデバイス(CPLD)及びシリコンにおける他の実現又は他のハードウェア機器のユニットを含んでもよい。このような場合、ハードウェア素子はハードウェア素子により具体化される命令、モジュール及び/又はロジックに定義されたプログラムタスクを実行する処理機器、及び実行用の命令を記憶するハードウェア機器、例えば、上述したコンピュータ可読記憶媒体として機能してもよい。
上記組合せは本明細書に記載される様々な技術及びモジュールを実現してもよい。したがって、ソフトウェア、ハードウェア又はプログラムモジュール及び他のプログラムモジュールは、特定の形式のコンピュータ可読記憶媒体における及び/又は1つ又は複数のハードウェア素子914により具体化される1つ又は複数の命令及び/又はロジックとして実現されてもよい。コンピューティング機器910は、ソフトウェア及び/又はハードウェアモジュールに対応する特定の命令及び/又は機能を実現するように構成されてもよい。したがって、例えば、処理システムのコンピュータ可読記憶媒体及び/又はハードウェア素子914を用いることで、少なくとも部分的にハードウェアで、モジュールをコンピューティング機器910によりソフトウェアとして実行可能なモジュールとして実現できる。命令及び/又は機能は1つ又は複数の製品(例えば、1つ又は複数のコンピューティング機器910及び/又は処理システム911)により実行/操作可能であり、それにより本明細書に記載される技術、モジュール及び例を実現する。
様々な実施形態では、コンピューティング機器910は様々な構成としてもよい。例えば、コンピューティング機器910は、パーソナルコンピュータ、デスクトップコンピュータ、マルチスクリーンコンピュータ、ラップトップコンピュータ、ネットブック等のコンピュータ機器を含むように実現されてもよい。コンピューティング機器910はさらに、例えば、携帯電話、携帯型音楽プレーヤー、携帯型ゲーム機器、タブレットコンピュータ、マルチスクリーンコンピュータ等のモバイル機器のモバイル装置のような機器を含むように実現されてもよい。コンピューティング機器910はさらにテレビ機器として実現されてもよく、娯楽視聴環境における一般に大きなスクリーンを持つ、又はそれに接続される機器を含む。これらの機器はテレビ、セットトップボックス、ゲーム機等を含む。
本明細書に記載されている技術は、コンピューティング機器910のこれらの様々な構成によってサポートでき、且つ本明細書に記載される技術の具体例に限定されない。機能はさらに、例えば、下記プラットフォーム922のような分散型システムによって「クラウド」920ですべて又は部分的に実現されてもよい。
クラウド920はリソース924用のプラットフォーム922を含み、及び/又は代表する。プラットフォーム922はクラウド920のハードウェア(例えば、サーバ)及びソフトウェアリソースの基礎機能を抽象化する。リソース924は、コンピューティング機器910から離れたサーバでコンピュータ処理を実行する時に使用できるアプリケーション及び/又はデータを含んでもよい。リソース924はさらに、インターネット、及び/又は、例えば、セルラー又はWi-Fiネットワークの加入者ネットワークによって提供するサービスを含んでもよい。
プラットフォーム922はリソース及び機能を抽象化することで、コンピューティング機器910と他のコンピューティング機器を接続してもよい。プラットフォーム922はさらに、リソースの等級付けを抽象することで、遭遇するプラットフォーム922を介して実現されるリソース924のニーズの対応するレベルの等級付けを提供する。したがって、相互接続機器の実施例では、本明細書に記載される機能の実現はシステム900全体に分散してもよい。例えば、機能は部分的にコンピューティング機器910でクラウド920の機能を抽象化するプラットフォーム922によって実現されてもよい。
明確にするために、異なる機能モジュールを参照して本願の実施例を説明したことを理解すべきである。しかし、明らかなように、本願の実施例を逸脱せずに、各機能モジュールの機能は単一のモジュールで実施され、複数のモジュールで実施され、又は他の機能モジュールの一部として実施されてもよい。例えば、単一のモジュールにより実行されるように説明される機能は複数の異なるモジュールにより実行されてもよい。したがって、特定の機能モジュールの参考は、説明される機能を提供する適切なモジュールの参考のみとして見なされ、厳密なロジック又は物理的構造又は組織を示すものではない。したがって、本願の実施例は、単一のモジュールで実施されてもよく、又は物理的・機能的に異なるモジュールと回路の間に分散してもよい。
第1、第2、第3等の用語は本明細書において様々な機器、素子、又は部材を説明するためのものであるが、これらの機器、素子、又は部材はこれらの用語に限定されないことを理解できる。これらの用語は単に1つの機器、素子、又は部材をもう1つの機器、素子、又は部材と区別するためのものである。
いくつかの実施例を参照しながら本願の実施例を説明したが、本明細書で説明された特定の形態に限定されない。一方、本願の実施例の範囲は添付特許請求の範囲に制限される。付加的に、単独な特徴は異なる請求項に含まれてもよいが、可能な限り、有利に組み合わせてもよく、そして、異なる請求項に含まれる特徴を暗示しない組合せは実現可能及び/又は有利ではない。請求項における特徴の順序は特徴が動作しなければならない特定の順序を暗示しない。また、請求項では、単語「含む」は他の素子を除外せず、不定冠詞「一」又は「1つ」は複数を除外しない。請求項における符号は単に明確な例として提供され、特許請求の範囲を限定するものではないと理解すべきである。
100 言語シーケンスラベリングシステム
110 サーバ
111 言語シーケンスラベリング装置
112 訓練データベース
120 ネットワーク
130 クライアント
130-1 端末機器
140 ユーザー

Claims (11)

  1. コンピューティング機器が実行する言語シーケンスラベリング方法であって、
    言語シーケンスの第1埋め込み表現を読み取るステップであって、前記第1埋め込み表現は前記言語シーケンスの文字レベル単語埋め込み表現、事前訓練単語埋め込み表現及びグローバル単語埋め込み表現を直列接続することによって得られ、前記グローバル単語埋め込み表現は前記言語シーケンスのグローバルコンテキスト表現であるステップと、
    第1深層変換リカレントニューラルネットワークに基づいて、前記第1埋め込み表現に対して第1深層変換符号化を行い、前記言語シーケンスにおける各単語に対応する第1隠れ層状態表現を出力するステップと、
    前記第1隠れ層状態表現を復号化して、前記言語シーケンスのラベリング結果を獲得するステップと、を含み、
    前記第1隠れ層状態表現を復号化して、前記言語シーケンスのラベリング結果を獲得する前記ステップは、
    各単語に対して、第3深層変換リカレントニューラルネットワークに基づいて、該単語の前記第1隠れ層状態表現に対して深層変換を行い、第2隠れ層状態表現を獲得するステップと、
    前記第2隠れ層状態表現に基づいて、前記言語シーケンスのラベリング結果を獲得するステップと、を含み、
    前記獲得するステップは、
    複数のラベルを事前設定するステップと、
    前記第2隠れ層状態表現及び前の時刻のラベル情報に対して線形変換を行い、隠れ層状態の次元をラベルの数に等しくした後、該単語が各ラベルに属する確率を取得するステップと、を含む
    ことを特徴とする言語シーケンスラベリング方法。
  2. 前記言語シーケンスの第2埋め込み表現を読み取るステップであって、前記第2埋め込み表現は前記文字レベル単語埋め込み表現及び前記事前訓練単語埋め込み表現を含むステップと、
    第2深層変換リカレントニューラルネットワークに基づいて、前記第2埋め込み表現に対して第2深層変換符号化を行い、前記グローバル単語埋め込み表現を獲得するステップと、をさらに含む請求項1に記載の方法。
  3. 前記第2深層変換符号化後の結果に対して情報集約を行い、前記グローバル単語埋め込み表現を獲得するステップをさらに含む請求項2に記載の方法。
  4. 第1深層変換リカレントニューラルネットワークに基づいて、前記第1埋め込み表現に対して第1深層変換符号化を行い、前記言語シーケンスにおける各単語に対応する第1隠れ層状態表現を出力する前記ステップは、
    前記第1埋め込み表現に対して、それぞれ順方向及び逆方向の2つの方向に前記第1深層変換符号化を実行するステップと、
    順方向及び逆方向で獲得した深層変換符号化結果を接合して、各単語に対応する前記第1隠れ層状態表現を獲得するステップと、を含む請求項1に記載の方法。
  5. 線形変換強化ゲート付き回帰型ユニットL-GRU及び変換ゲート付き回帰型ユニットT-GRUによって、深層変換リカレントニューラルネットワークを構築するステップをさらに含む請求項1に記載の方法。
  6. 前記第1深層変換リカレントニューラルネットワークは1層のL-GRU及び少なくとも2層のT-GRUから構成される請求項5に記載の方法。
  7. 該単語の前記第1隠れ層状態表現に対して深層変換を行う前記ステップは、
    一方向深層変換を行うステップを含む請求項1に記載の方法。
  8. 前記情報集約は平均プーリング又は最大プーリングを含む請求項3に記載の方法。
  9. 言語シーケンスラベリング装置であって、シーケンスラベリングエンコーダと、シーケンスラベリングデコーダと、を含み、
    前記シーケンスラベリングエンコーダは、
    言語シーケンスの第1埋め込み表現を読み取るための第1読み取りモジュールであって、前記第1埋め込み表現は前記言語シーケンスの文字レベル単語埋め込み表現、事前訓練単語埋め込み表現及びグローバル単語埋め込み表現を直列接続することによって得られ、前記グローバル単語埋め込み表現は前記言語シーケンスのグローバルコンテキスト表現である第1読み取りモジュールと、
    第1深層変換リカレントニューラルネットワークに基づいて、前記第1埋め込み表現に対して第1深層変換符号化を行い、前記言語シーケンスにおける各単語に対応する第1隠れ層状態表現を出力するための第1深層変換モジュールと、を含み、
    シーケンスラベリングデコーダは、各単語に対して、第3深層変換リカレントニューラルネットワークに基づいて、該単語の前記第1隠れ層状態表現に対して深層変換を行い、第2隠れ層状態表現を獲得し、前記第2隠れ層状態表現に基づいて、前記言語シーケンスのラベリング結果を獲得することによって前記第1隠れ層状態表現を復号化して、前記言語シーケンスのラベリング結果を獲得するためのものであって、前記言語シーケンスのラベリング結果を獲得することは、複数のラベルを事前設定することと、前記第2隠れ層状態表現及び前の時刻のラベル情報に対して線形変換を行い、隠れ層状態の次元をラベルの数に等しくした後、該単語が各ラベルに属する確率を取得することと、を含む
    ことを特徴とする言語シーケンスラベリング装置。
  10. プログラムであって、プロセッサが前記プログラムを実行すると、前記プロセッサが請求項1~請求項8のいずれか一項に記載の方法を実行することを特徴とするプログラム。
  11. コンピューティング機器であって、プロセッサと、コンピュータプログラムを記憶するメモリとを含み、前記コンピュータプログラムは、前記プロセッサにより実行されると、前記プロセッサが請求項1~請求項8のいずれか一項に記載の方法を実行するようにすることを特徴とするコンピューティング機器。
JP2021539998A 2019-06-05 2020-06-01 言語シーケンスラベリング方法、装置、プログラム及びコンピューティング機器 Active JP7431833B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910486896.1A CN110196967A (zh) 2019-06-05 2019-06-05 基于深度转换架构的序列标注方法和装置
CN201910486896.1 2019-06-05
PCT/CN2020/093679 WO2020244475A1 (zh) 2019-06-05 2020-06-01 用于语言序列标注的方法、装置、存储介质及计算设备

Publications (2)

Publication Number Publication Date
JP2022517971A JP2022517971A (ja) 2022-03-11
JP7431833B2 true JP7431833B2 (ja) 2024-02-15

Family

ID=67754015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021539998A Active JP7431833B2 (ja) 2019-06-05 2020-06-01 言語シーケンスラベリング方法、装置、プログラム及びコンピューティング機器

Country Status (4)

Country Link
US (1) US11681872B2 (ja)
JP (1) JP7431833B2 (ja)
CN (1) CN110196967A (ja)
WO (1) WO2020244475A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110196967A (zh) * 2019-06-05 2019-09-03 腾讯科技(深圳)有限公司 基于深度转换架构的序列标注方法和装置
CN111274820B (zh) * 2020-02-20 2023-04-07 齐鲁工业大学 一种基于神经网络的智能医疗命名实体识别方法和装置
CN111353295A (zh) * 2020-02-27 2020-06-30 广东博智林机器人有限公司 序列标注方法、装置、存储介质及计算机设备
CN112818676B (zh) * 2021-02-02 2023-09-26 东北大学 一种医学实体关系联合抽取方法
CN113220876B (zh) * 2021-04-16 2022-12-06 山东师范大学 一种用于英文文本的多标签分类方法及系统
CN114153942B (zh) * 2021-11-17 2024-03-29 中国人民解放军国防科技大学 一种基于动态注意力机制的事件时序关系抽取方法
CN114548080B (zh) * 2022-04-24 2022-07-15 长沙市智为信息技术有限公司 一种基于分词增强的中文错字校正方法及系统
CN115545035B (zh) * 2022-11-29 2023-02-17 城云科技(中国)有限公司 一种文本实体识别模型及其构建方法、装置及应用

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108829818A (zh) 2018-06-12 2018-11-16 中国科学院计算技术研究所 一种文本分类方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9239828B2 (en) * 2013-12-05 2016-01-19 Microsoft Technology Licensing, Llc Recurrent conditional random fields
US20170308790A1 (en) * 2016-04-21 2017-10-26 International Business Machines Corporation Text classification by ranking with convolutional neural networks
CN107025219B (zh) * 2017-04-19 2019-07-26 厦门大学 一种基于内部语义层次结构的词嵌入表示方法
CN108304911B (zh) * 2018-01-09 2020-03-13 中国科学院自动化研究所 基于记忆神经网络的知识抽取方法以及系统和设备
CN108628823B (zh) * 2018-03-14 2022-07-01 中山大学 结合注意力机制和多任务协同训练的命名实体识别方法
CN108846017A (zh) * 2018-05-07 2018-11-20 国家计算机网络与信息安全管理中心 基于Bi-GRU和字向量的大规模新闻文本的端到端分类方法
CN108717409A (zh) * 2018-05-16 2018-10-30 联动优势科技有限公司 一种序列标注方法及装置
CN109408812A (zh) * 2018-09-30 2019-03-01 北京工业大学 一种基于注意力机制的序列标注联合抽取实体关系的方法
CN110196967A (zh) * 2019-06-05 2019-09-03 腾讯科技(深圳)有限公司 基于深度转换架构的序列标注方法和装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108829818A (zh) 2018-06-12 2018-11-16 中国科学院计算技术研究所 一种文本分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Ling Luo 他6名,An attention-based BiLSTM-CRF approach to document-level chemical named entity recognition,Bioinformatics, 34(8),英国,Oxford University Press,2017年11月24日,pp. 1381-1388
Marek Rei, Gamal K.O. Crichton, Sampo Pyysalo,Attending to Characters in Neural Sequence Labeling Models,Proceedings of COLING 2016,2016年12月17日,pp. 309-318
Xishuang Dong 他6名,Deep learning for named entity recognition on Chinese electronic medical records: Combining deep transfer learning with multitask bi-directional LSTM RNN,PLOS ONE,2019年05月02日

Also Published As

Publication number Publication date
US20210319181A1 (en) 2021-10-14
WO2020244475A1 (zh) 2020-12-10
JP2022517971A (ja) 2022-03-11
US11681872B2 (en) 2023-06-20
CN110196967A (zh) 2019-09-03

Similar Documents

Publication Publication Date Title
JP7431833B2 (ja) 言語シーケンスラベリング方法、装置、プログラム及びコンピューティング機器
US11423233B2 (en) On-device projection neural networks for natural language understanding
US20220180202A1 (en) Text processing model training method, and text processing method and apparatus
JP7407968B2 (ja) 音声認識方法、装置、設備及び記憶媒体
Fan et al. Augmenting transformers with KNN-based composite memory for dialog
CN109313650B (zh) 在自动聊天中生成响应
Chen et al. Deep Learning for Video Captioning: A Review.
CN109937446A (zh) 用于端到端语音识别的极深卷积神经网络
US20230385560A1 (en) System and Method for Temporal Attention Behavioral Analysis of Multi-Modal Conversations in a Question and Answer System
CN110234018B (zh) 多媒体内容描述生成方法、训练方法、装置、设备及介质
CN112131366A (zh) 训练文本分类模型及文本分类的方法、装置及存储介质
JP7488871B2 (ja) 対話推薦方法、装置、電子機器、記憶媒体ならびにコンピュータプログラム
WO2019154411A1 (zh) 词向量更新方法和装置
CN113705315B (zh) 视频处理方法、装置、设备及存储介质
US11947920B2 (en) Man-machine dialogue method and system, computer device and medium
CN113987169A (zh) 基于语义块的文本摘要生成方法、装置、设备及存储介质
CN113239169A (zh) 基于人工智能的回答生成方法、装置、设备及存储介质
CN112100375A (zh) 文本信息生成方法、装置、存储介质及设备
CN113128431B (zh) 视频片段检索方法、装置、介质与电子设备
CN113961679A (zh) 智能问答的处理方法、系统、电子设备及存储介质
CN116932731B (zh) 面向5g消息的多模态知识问答方法及系统
CN116208824A (zh) 标题生成方法、计算机设备、存储介质和计算机程序产品
CN114328910A (zh) 文本聚类方法以及相关装置
CN110377915B (zh) 文本的情感分析方法、装置、存储介质及设备
CN113449517A (zh) 基于bert门控多窗口注意力网络模型的实体关系抽取方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230412

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231113

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240202

R150 Certificate of patent or registration of utility model

Ref document number: 7431833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150