JP2023508062A - 対話モデルの訓練方法、装置、コンピュータ機器及びプログラム - Google Patents

対話モデルの訓練方法、装置、コンピュータ機器及びプログラム Download PDF

Info

Publication number
JP2023508062A
JP2023508062A JP2022538829A JP2022538829A JP2023508062A JP 2023508062 A JP2023508062 A JP 2023508062A JP 2022538829 A JP2022538829 A JP 2022538829A JP 2022538829 A JP2022538829 A JP 2022538829A JP 2023508062 A JP2023508062 A JP 2023508062A
Authority
JP
Japan
Prior art keywords
dialogue
interaction
features
feature
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022538829A
Other languages
English (en)
Other versions
JP7431977B2 (ja
Inventor
蛟 欧
金超 ▲張▼
洋 ▲馮▼
凡▲東▼ 孟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2023508062A publication Critical patent/JP2023508062A/ja
Application granted granted Critical
Publication of JP7431977B2 publication Critical patent/JP7431977B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • G06N3/0442Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/098Distributed learning, e.g. federated learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

対話モデルの訓練方法、対話返答生成方法、装置、コンピュータ機器及び記憶媒体であって、人工知能の技術分野に属する。前記方法は、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するステップと、前記第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、対話モデルを更新するステップと、前記第1対話の少なくとも2つの第1対話特徴に基づいて、前記事後的ネットワークを更新するステップと、第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルにおける判別器を更新するステップと、訓練終了条件を満たすことに応答して、訓練により得られたモデルを対話モデルとするステップと、を含む。上記技術的解決手段において、対話の異なるセマンティックを考慮し、対話の返答に複数種のセマンティックを含ませ、対話モデルによって生成される対話返答の多様性を向上させる。

Description

(関連出願の相互参照)
本願は、2020年05月25日に提出された、出願番号が202010450194.0であり、発明の名称が「対話モデルの訓練方法、装置、コンピュータ機器及び記憶媒体」である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願は、人工知能の技術分野に関し、特に対話モデルの訓練方法、対話返答生成方法、装置、コンピュータ機器及び記憶媒体に関する。
人工知能技術が継続的に成長することに伴い、自然言語処理は、より広い範囲に適用することができる。例えば、チャットボット、対話システム及び端末スマートアシスタントなどのヒューマンマシンインタラクションシーンに用いることができる。コンピュータ機器は、対話中においてユーザによって入力された対話発話文に基づいて、対応する対話返答を出力することができる。コンピュータ機器からの対話返答があまりに単調であることを如何に回避するかは、解決されるべき問題である。
本願の実施例は、対話の対話特徴に基づいて、対話モデルのパラメータを複数回更新し、対話の異なるセマンティックを考慮し、対話の返答に複数種のセマンティックを含ませることで、対話モデルによって生成される対話返答の多様性を向上させる対話モデルの訓練方法、対話返答生成方法、装置、コンピュータ機器及び記憶媒体を提供する。前記技術的解決手段は、以下の通りである。
一方面によれば、対話モデルの訓練方法を提供する。前記方法は、
対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するステップであって、前記先験的ネットワークは、対話特徴の確率分布を出力するためのものであり、前記事後的ネットワークは、前記先験的ネットワークから出力された対話特徴の確率分布を推定するためのものであり、前記第1対話特徴は、1つの対話における対話発話文と1つの対話返答の事後的特徴を表すためのものであり、前記第2対話特徴は、1つの対話における前記対話発話文と1つの対話返答の先験的特徴を表すためのものであり、前記第1対話は、1つの第1対話発話文と少なくとも2つの第1対話返答とを含む、ステップと、
前記第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルを更新するステップと、
前記第1対話の少なくとも2つの第1対話特徴に基づいて、前記事後的ネットワークを更新するステップと、
第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルの判別器を更新するステップと、
訓練終了条件を満たすことに応答して、訓練により得られたモデルを対話モデルとするステップと、を含む。
別の方面によれば、対話返答生成方法を提供する。前記方法は、
対話発話文を取得するステップと、
前記対話発話文を対話モデルに入力し、前記対話モデルにおける先験的ネットワークによって、複数の対話返答に対応する第2対話特徴から、1つの目標対話特徴をランダムに抽出するステップと、
前記対話モデルにおけるデコーダによって、前記目標対話特徴に対して復号を行い、目標対話返答を出力するステップと、
前記目標対話返答を展示するステップと、を含む。
別の方面によれば、対話モデルの訓練装置を提供する。前記装置は、
対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するように構成される特徴取得モジュールであって、前記先験的ネットワークは、対話特徴の確率分布を出力するためのものであり、前記事後的ネットワークは、前記先験的ネットワークから出力された対話特徴の確率分布を推定するためのものであり、前記第1対話特徴は、1つの対話における対話発話文と1つの対話返答の事後的特徴を表すためのものであり、前記第2対話特徴は、1つの対話における前記対話発話文と1つの対話返答の先験的特徴を表すためのものであり、前記第1対話は、1つの第1対話発話文と少なくとも2つの第1対話返答とを含む、特徴取得モジュールと、
前記第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルを更新するように構成されるモデル更新モジュールであって、
前記モデル更新モジュールは更に、前記第1対話の少なくとも2つの第1対話特徴に基づいて、前記事後的ネットワークを更新するように構成され、
前記モデル更新モジュールは更に、第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルの判別器を更新するように構成される、モデル更新モジュールと、
訓練終了条件を満たすことに応答して、訓練により得られたモデルを対話モデルとするように構成されるモデル取得モジュールと、を備える。
別の方面によれば、対話返答生成装置を提供する。前記装置は、
対話発話文を取得するように構成される対話取得モジュールと、
前記対話発話文を対話モデルに入力し、前記対話モデルにおける先験的ネットワークによって、複数の対話返答に対応する第1対話特徴から、1つの目標対話特徴をランダムに抽出するように構成される特徴抽出モジュールと、
前記対話モデルにおけるデコーダによって、前記目標対話特徴に対して復号を行い、目標対話返答を出力するように構成される返答出力モジュールと、
前記目標対話返答を展示するように構成される返答展示モジュールと、を備える。
別の方面によれば、コンピュータ機器を提供する。前記コンピュータ機器は、プロセッサと、メモリと、を備え、前記メモリは、少なくとも1つのプログラムコードを記憶するように構成され、前記少なくとも1つのプログラムコードは、前記プロセッサによりロードされて実行され、本願の実施例における対話モデルの訓練方法において実行される操作を実現させ、又は本願の実施例における対話返答生成方法において実行される操作を実現させる。
別の方面によれば、記憶媒体を提供する。前記記憶媒体に少なくとも1つのプログラムコードが記憶されており、前記少なくとも1つのプログラムコードは、本願の実施例における対話モデルの訓練方法を実行するか又は本願の実施例における対話返答生成方法を実行するように構成される。
本願の実施例による対話モデルの訓練方法の実施環境を示す概略図である。 本願の実施例による対話モデルの訓練方法を示すフローチャートである。 本願の実施例による対話返答生成方法を示すフローチャートである。 本願の実施例による対話モデルの訓練方法を示すフローチャートである。 本願の実施例による対話モデルの構造を示す概略図である。 本願の実施例によるマルチセマンティックWAEアルゴリズムを示すフローチャート概略図である。 本願の実施例による対話モデルの訓練装置を示すブロック図である。 本願の実施例による対話返答生成装置を示すブロック図である。 本願の実施例による端末の構造を示すブロック図である。 本願の実施例によるサーバの構造を示す概略図である。
本願の実施例における技術的解決手段をより明確に説明するために、以下、実施例の説明に必要な図面を簡単に説明する。勿論、上記の図面は本願の一部の実施例に過ぎず、当業者は創造的な労力を要することなく、これらの図面に基づいて他の図面を得ることもできる。
本願の目的、技術的解決手段及びメリットをより明確にするために、以下、図面を参照しながら、本願の実施形態を更に詳しく説明する。
ここで、例示的な実施例を詳しく説明し、その例を図面に示す。以下の記載が図面に関わる場合、他に明記されない限り、異なる図面における同じ数字は、同じまたは類似する要素を示す。以下の例示的な実施例に記載の実施形態は、本願と一致する全ての実施形態ではない。むしろそれらは、単に特許請求の範囲において詳しく記載されているように、本願のいくつかの方面と一致する装置及び方法の例である。
以下では、本願の実施例に使用し得る技術を簡単に説明する。
人工知能(Artificial Intelligence:AI)は、デジタルコンピュータ又はデジタルコンピュータにより制御された、機器で人間の知能をシミュレーション、延長、拡張し、環境を感知して知識を取得し、知識を利用して最適な結果を得る理論、方法、技術及びアプリケーションシステムである。換言すれば、人工知能は、コンピュータサイエンスにおける1つの総合技術であり、知能の本質を理解し、人間知能と同様な方式で反応可能な新たな知能機器を生み出すことを意図する。人工知能は、種々の知能機器の設計原理及び実現方法を検討し、機器に、感知、推理及び意思決定機能を持たせるためのものである。
人工知能クラウドサービスは、一般的には、AIaaS(AI as a Service:日本語で「サービスとしてのAI」)とも呼ばれる。これは、現在では、主流となる人工知能プラットフォームのサービス方式である。具体的には、AIaaSプラットフォームは、複数のよく使用されるAIサービスを分割し、クラウド側で独立又はパッケージングしたサービスを提供する。このようなサービスモードは、AIテーマのストアに類似する。全ての開発者はいずれも、APIインタフェースの方式で、プラットフォームによって提供される1つ又は複数種の人工知能サービスにアクセスしてそれを使用することができ、一部のベテラン開発者は、プラットフォームによって提供されるAIフレームワークとAIインフラストラクチャを使用して、自己専用のクラウド人工知能サービスを配置してメンテナンスすることもできる。
自然言語処理(Nature Language processing:NLP)は、コンピュータ科学分野と人工知能分野における1つの重要な方向である。それは、人間とコンピュータとの間で自然言語を用いて有効な通信を行うことを実現できる種々の理論及び方法を検討する。自然言語処理は、言語学、コンピュータサイエンス、数学を一体化に融合する科学である。従って、この分野に関する検討は、自然言語、即ち、人間が日常生活で使用する言語に係る。そのため、これは、言語学の検討に密接に関連付けられている。自然言語処理技術は、一般的には、テキスト処理、セマンティック理解、機械翻訳、ロボット問答、知識グラフなどの技術を含む。
機械学習(Machine Learning:ML)は、多数の分野に関わる学科であり、確率論、統計学、近似論、凸解析、アルゴリズム複雑度理論などの複数の学科に関わる。それは、コンピュータが人間の学習挙動を如何に模擬又は実現するかを鋭意検討し、新たな知識又はスキルを取得し、既存の知識構造を再構成し、自体の性能を絶え間なく改良する。機械学習は、人工知能のキーポイントであり、コンピュータに知能を持たせる根本的な手段であり、その適用は、人工知能の各分野にわたる。機械学習及び深層学習は一般的には、人工ニューラルネットワーク、信念ネットワーク、強化学習、転移学習、帰納的学習、教師あり学習などの技術を含む。
本願の実施例は、人工知能技術に基づいて実現できる対話モデルの訓練方法を提供する。該方法で訓練された対話モデルは、ヒューマンマシンインタラクションシーンに適用することができる。例えば、チャットボット、対話システム及び端末スマートアシスタントなどに適用することができる。ユーザとチャットボットがチャットする時、チャットボットは、ユーザによって入力された内容を対話発話文として対話モデルに入力することができ、対話モデルから複数の対話返答を出力し、続いて、ユーザに対してそのうちの1つの対話返答を展示する。同様に、対話システムと端末スマートアシスタントは、ユーザによって入力された内容に基づいて、ユーザの需要に合致する対話返答を出力することもできる。
以下では、対話モデルの訓練方法の実施環境を説明する。図1は、本願の実施例による対話モデルの訓練方法の実施環境を示す概略図である。該実施環境は、端末110と、サーバ120と、を含んでもよい。
端末110及びサーバ120は、有線又は無線通信方式で直接的又は間接的に接続されてもよく、本願は、ここでは限定しない。端末110は、スマートフォン、タブレット、ノートパソコン、デスクトップコンピュータ、スマートスピーカ、スマートウォッチなどであってもよいが、これらに限定されない。端末110に、ヒューマンマシンインタラクションをサポートするアプリケーションプログラムがインストールされて実行されてもよい。該アプリケーションプログラムは、チャットボット型アプリケーションプログラム、ソーシャル型アプリケーションプログラム及び端末スマートアシスタント型アプリケーションプログラムなどであってもよい。模式的に、端末110は、ユーザが使用する端末であり、端末110において実行されているアプリケーションプログラムにユーザアカウントがログインされている。
サーバ120は、独立した物理サーバであってもよく、複数の物理サーバからなるサーバクラスタ又は分散型システムであってもよく、更に、クラウドサービス、クラウドデータベース、クラウドコンピューティング、クラウド関数、クラウドストレージ、ネットワークサービス、クラウド通信、ミドルウェアサービス、ドメイン名サービス、セキュリティサービス、CDN、及びビッグデータと人工知能プラットフォームなどの基礎クラウドコンピューティングサービスを提供するクラウドサーバであってもよい。サーバ120は、ヒューマンマシンインタラクションをサポートするアプリケーションプログラムにバックグラウンドサービスを提供するためのものである。選択的に、サーバ120は、主なモデル訓練動作を担い、端末110は、副次的なモデル訓練動作を担う。又は、サーバ120は、副次的なモデル訓練動作を担い、端末110は、主なモデル訓練動作を担う。又は、サーバ120又は端末110は、それぞれ、単独でモデル訓練動作を担ってもよい。
選択的に、サーバ120は、アクセスサーバ、モデル訓練サーバ及びデータベースサーバから構成されてもよい。アクセスサーバは、端末110によって提供されるアクセスサービスを提供するためのものである。モデル訓練サーバは、端末によって提供される、許可されている対話データに基づいて、モデル訓練を行うためのものである。モデル訓練サーバは、1台又は複数台であってもよい。モデル訓練サーバが複数台である時、少なくとも2台のモデル訓練サーバは、異なるサービスを提供するために用いられ、及び/又は、少なくとも2台のモデル訓練サーバは、同じサービスを提供するために用いられ、例えば、負荷分散の方式で同一のサービスを提供するために用いられ、本願の実施例は、これを限定しない。
端末110は、広く言えば、複数の端末のうちの1つを指してもよく、本実施例では、端末110のみを例として説明する。
上記端末の数は、より多くても少なくてもよいことは、当業者には明らかであろう。例えば、上記端末は、1つのみであってもよく、又は、上記端末は、数十個又は数百個であり、又はより多くてもよく、この場合、上記対話モデルの訓練方法の実施例において、他の端末を更に含む。本願の実施例は、端末の数及び機器タイプを限定するものではない。
本願の実施例において、サーバ又は端末を実行主体として本願の実施例による技術的解決手段を実施してもよく、端末とサーバとのインタラクションによって本願による技術的方法を実施してもよく、本願の実施例は、これを限定しない。図2は、本願の実施例による対話モデルの訓練方法を示すフローチャートである。該実施例は、実行主体がサーバであることを例として説明する。図2を参照すると、該実施例は、以下を含む。
201において、サーバは、対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得し、該先験的ネットワークは、対話特徴の確率分布を出力するためのものであり、該事後的ネットワークは、該先験的ネットワークから出力された対話特徴の確率分布を推定するためのものであり、該第1対話特徴は、1つの対話における対話発話文と1つの対話返答の事後的特徴を表すためのものであり、該第2対話特徴は、1つの対話における該対話発話文と1つの対話返答の先験的特徴を表すためのものであり、該第1対話は、1つの第1対話発話文と少なくとも2つの第1対話返答とを含む。ステップ201において、サーバは、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得し、該第1対話特徴と該第2対話特徴はそれぞれ、第1対話発話文と1つの第1対話返答の事後的特徴と先験的特徴を表すためのものであり、1つの対話発話文は、少なくとも2つの対話返答に対応する。
本願の実施例において、サーバは、複数の対話から、1つの対話を第1対話として選択してもよく、該第1対話は、1つの第1対話発話文と、該第1対話発話文に対応する少なくとも2つの第1対話返答と、を含む。いずれか1組の第1対話発話文と第1対話返答に対して、サーバは、先験的ネットワークと事後的ネットワークによって、対応する先験的特徴と事後的特徴をそれぞれ取得することができる。
202において、サーバは、該第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、対話モデルを更新する。
本願の実施例において、サーバは、第1対話の少なくとも2つの対話特徴と少なくとも2つの第2対話特徴を取得することができ、第1対話における第1対話発話文と1つの第1対話返答によって、1つの第1対話特徴と1つの第2対話特徴を得ることができ、該第1対話特徴と第2対話特徴に基づいて、対話モデルを一回更新し、対話モデルにおける先験的ネットワークと事後的ネットワークのパラメータを更新する。更に、第1対話における第1対話発話文と他の1つの第1対話返答によって、他の1つの第1対話特徴と他の1つの第2対話特徴を得て、対話モデルを更に一回更新する。対話モデルの更新回数は、第1対話に含まれる第1対話返答の数と同じである。
説明すべきこととして、該対話モデルは、エンコーダ、デコーダ及び判別器を更に含んでもよく、サーバは、上記先験的ネットワークと事後的ネットワークのパラメータを更新すると同時に、上記エンコーダ、デコーダ及び判別器のパラメータを更に更新する。
203において、サーバは、該第1対話の少なくとも2つの第1対話特徴に基づいて、該事後的ネットワークを更新する。
本願の実施例において、サーバは、上記第1対話の少なくとも2つの第2対話特徴を取得し、続いて、各第2対話特徴に基づいて、事後的ネットワークのパラメータを一回更新することができる。
204において、サーバは、第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、該対話モデルの判別器を更新する。
ここで、第2対話は、1つの第2対話発話文と、少なくとも2つの第2対話返答と、を含む。
本願の実施例において、サーバは、複数の対話から、少なくとも1つの対話を第2対話として選択し、いずれか1つの第2対話に対して、サーバは、ステップ201に記載の方式で、該第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得することができる。いずれか1つの第2対話の第2対話発話文と1つの第2対話返答によって、1つの第1対話特徴と1つの第2対話特徴を得ることができ、該第1対話特徴と第2対話特徴に基づいて、判別器のパラメータを一回更新する。この時、判別器の更新回数は、第2対話に含まれる第2対話返答の数である。
説明すべきこととして、上記プロセスは、判別器に対する一回の反復プロセスだけであり、サーバは、判別器の反復回数閾値を取得し、続いて、該反復回数閾値に基づいて複数回の反復を行い、反復回数閾値に達すると、訓練を終了する。
205において、サーバが訓練終了条件を満たすことに応答して、訓練により得られたモデルを対話モデルとする。
本願の実施例において、訓練終了条件は、所定の反復回数に達すること、又は、モデルが収束されること、又は、モデルから出力された結果が目標条件を満たすこと、又は、他の訓練終了条件に合致することであってもよく、本願の実施例は、これを限定しない。
本願の実施例において、第1対話の複数の対話特徴によって、対話モデルを複数回更新し、事後的ネットワークを更新し、更に、第2対話の複数の対話特徴に基づいて、対話モデルの判別器を更新することで、対話の異なるセマンティックを考慮し、対話の返答に複数種のセマンティックを含ませることができ、対話モデルの性能を向上させ、対話モデルによって生成される対話返答の多様性も向上させる。
本願の実施例において、サーバ又は端末を実行主体として本願の実施例による技術的解決手段を実施してもよく、端末とサーバとのインタラクションによって本願による技術的方法を実施してもよく、本願の実施例は、これを限定しない。図3は、本願の実施例による対話返答生成方法を示すフローチャートである。該実施例は、実行主体が端末であることを例として説明する。図3を参照すると、該実施例は、以下を含む。
301において、端末は、対話発話文を取得する。
本願の実施例において、該対話発話文は、端末ユーザによって入力された内容、例えば、文字、音声又はエモーティコンなどであってもよい。
302において、端末は、該対話発話文を対話モデルに入力し、該対話モデルにおける先験的ネットワークによって、複数の対話返答に対応する第2対話特徴から、1つの目標対話特徴をランダムに抽出する。
本願の実施例において、端末に対話モデルが設けられてもよく、ユーザによって入力された内容を対話発話文として対話モデルに入力し、該対話モデルにより、入力された対話発話文に対して符号化を行い、符号化によって得られた特徴を対話モデルにおける先験的ネットワークに入力し、該先験的ネットワークによって、複数の第1対話特徴から、1つの目標対話特徴をランダムに抽出する。ランダムに抽出しているため、端末が該対話発話文を再び入力する時、先験的ネットワークによって抽出された対話特徴は、前回抽出された対話特徴と異なる可能性があり、それにより対話モデルから出力された対話返答も異なる。
303において、端末は、該対話モデルにおけるデコーダによって、該目標対話特徴に対して復号を行い、目標対話返答を出力する。
本願の実施例において、対話モデルにおけるデコーダは、ランダムな抽出によって得られた目標対話特徴に対して復号を行い、目標対話返答を得ることができる。先験的ネットワークによるランダムな抽出によって得られた対話特徴が異なると、デコーダによる復号によって得られた対話返答は異なる。
304において、端末は、該目標対話返答を展示する。
本願の実施例において、端末は、音声再生、文字表示又は対応するエモーティコンの展示などの方式で、上記目標対話返答を展示することができる。
本願の実施例において、ランダムな抽出の方式で、対話発話文に対応する対話返答を取得しており、それにより、同一の対話発話文を対話モデルに複数回入力すれば、異なる対話返答を得ることができ、それにより対話返答の多様性を向上させる。
説明すべきこととして、上述した、対話モデルによってインタラクションを行うプロセスにおいて、端末は、自体に配置されている対話モデルによって対話返答の取得と出力を行うが、いくつかの実施例において、端末は、サーバに配置されている対話モデルによって対話返答の取得を行い、取得された対話返答に基づいて出力を行い、ヒューマンマシン対話の効果を達成することができる。
本願の実施例において、サーバ又は端末を実行主体として本願の実施例による技術的解決手段を実施してもよく、端末とサーバとのインタラクションによって本願による技術的方法を実施してもよく、本願の実施例は、これを限定しない。図4は、本願の実施例による対話モデルの訓練方法を示すフローチャートである。該実施例は、サーバによる一回の反復を例として説明する。図4を参照すると、該実施例は、以下を含む。
401において、サーバは、複数の対話から、第1対話を取得する。
本願の実施例において、サーバは、複数の対話から、N個の対話を第1対話としてランダムに選択することができ、ここで、Nは、正の整数である。いずれか1つの第1対話について、該第1対話は、1つの第1対話発話文と、該第1対話発話文に対応するK個の第1対話返答と、を含み、ここで、Kは、2以上の正の整数である。異なる第1対話に含まれる第1対話返答の数は、同じであっても異なってもよい。
例えば、データセットに1000個の対話が含まれ、サーバは、そのうちから、10個の対話を第1対話としてランダムに選択し、第1対話A、B、C、D、E、F、G、H、I及びJを得て、ここで、第1対話Aは、5個の第1対話返答a1、a2、a3、a4及びa5に対応し、第1対話Bは、6個の第1対話返答b1、b2、b3、b4、b5及びb6に対応し、第1対話Cは、5個の第1対話返答c1、c2、c3、c4、c5及びc6に対応する。ここで、一々列挙しない。
402において、サーバが対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得し、該第1対話特徴は、1つの対話における対話発話文と1つの対話返答の事後的特徴を表すためのものであり、該第2対話特徴は、1つの対話における該対話発話文と1つの対話返答の先験的特徴を表すためのものであり、該第1対話は、1つの第1対話発話文と少なくとも2つの第1対話返答とを含む。
本願の実施例において、1つの第1対話に少なくとも2つの第1対話返答が含まれ、その場合、N個の第1対話に少なくとも2N個の第1対話返答が含まれる。いずれか1つの第1対話返答に対して、サーバは、該第1対話返答及び対応する第1対話発話文に対して符号化を行い、続いて、符号化によって得られたベクトルを先験的ネットワークと事後的ネットワークにそれぞれ入力し、先験的特徴と事後的特徴、即ち第2対話特徴と第1対話特徴を得ることができる。
1つの第1対話を例として、該第1対話に含まれる各第1対話返答に対して、サーバは、事後的ネットワークと先験的ネットワークによって、一対の第1対話特徴と第2対話特徴を取得し、即ち、1つの第1対話特徴と1つの第2対話特徴を取得することができる。これに対応して、サーバが1つの第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するステップは、下記サブステップ4021~サブステップ4023によって実現してもよい。
4021において、第1対話のいずれか1つの第1対話返答に対して、サーバは、該対話モデルのエンコーダによって、第1対話発話文と該第1対話返答に対してそれぞれ符号化を行い、該第1対話発話文の第1ベクトルと第1対話返答の第2ベクトルを得る。
本願の実施例において、サーバは、第1対話発話文と該第1対話返答をそれぞれ対話モデルのエンコーダに入力し、該エンコーダは、双方向ゲート付き回帰型ユニットニューラルネットワークによって構築されたものである。サーバは、該エンコーダによって、上記第1対話発話文と該第1対話返答に対してそれぞれ符号化を行い、該第1対話発話文の第1ベクトルと該第1対話返答の第2ベクトルを得る。
説明すべきこととして、エンコーダは、双方向ゲート付き回帰型ユニットニューラルネットワークによって、全ての入力、例えば第1対話発話文と第1対話返答に対して、符号化を行い、符号化によって得られたベクトルは、固定長のベクトルである。例えば、第1対話発話文Cを符号化して第1ベクトルcを得ることを例として説明する。第1ベクトルcは、下記式(1)~式(4)によって算出される。
Figure 2023508062000002
ここで、
Figure 2023508062000003
は、第1対話発話文Cにおける左からt番目の単語のベクトルを表し、GRU()は、ゲート付き回帰型ユニットを表し、
Figure 2023508062000004
は、第1対話発話文Cにおける左からt-1番目の単語のベクトルを表し、e(Ct)は、第1対話発話文Cにおける左からt番目の単語に対応するコードを表す。
Figure 2023508062000005
ここで、
Figure 2023508062000006
は、第1対話発話文Cにおける右からt番目の単語のベクトルを表し、GRU()は、ゲート付き回帰型ユニットを表し、
Figure 2023508062000007
は、第1対話発話文Cにおける右からt+1番目の単語のベクトル表現を表し、e(Ct)は、第1対話発話文Cにおける右からt番目の単語に対応するコードを表す。
Figure 2023508062000008
ここで、htは、第1対話発話文Cにおける左からt番目の単語のベクトル表現と第1対話発話文Cにおける右からt番目の単語のベクトルの結合ベクトルを表す。
Figure 2023508062000009
ここで、cは、第1対話発話文Cにおける左からT番目の単語のベクトルと第1対話発話文Cにおける右から1番目の単語のベクトルの結合ベクトルを表し、Tは、第1対話発話文Cに含まれる単語の数を表す。
4022において、サーバは、該第1対話の少なくとも2つの第1対話特徴を取得し、該第1対話の該第1対話特徴は、該事後的ネットワークによって該第1対話発話文の第1ベクトルと該第1対話返答の第2ベクトルとを処理することで得られたものである。
該ステップ4022において、サーバは、事後的ネットワークによって、該第1対話発話文の第1ベクトルと該第1対話返答の第2ベクトルに基づいて、第1対話特徴を取得する。
本願の実施例において、事後的ネットワークは、対話発話文と対話返答に基づいて、対話の対話特徴の分布を学習するためのものであり、返答情報によれば、訓練によって得られた対話モデルにおける対話特徴の分布をより正確にすることができる。事後的ネットワークから出力された対話特徴の確率分布は、事後的分布と呼ばれ、該事後的分布は、先験的分布、即ち、先験的ネットワークから出力された対話特徴の確率分布を推定するためのものである。
選択的な実現形態において、現在では、再構築されるべき対話返答が第1対話返答であり、事後的分布が正規分布に従うとする。これに対応して、サーバが、事後的ネットワークによって、該第1ベクトルと第2ベクトルに基づいて、第1対話特徴を取得するステップは、以下の通りであってもよい。サーバは、事後的ネットワークによって、第1対話発話文の第1ベクトルと第1対話返答の第2ベクトルに基づいて、事後的分布の第1パラメータ平均値と第1パラメータ分散を取得することができる。サーバは、該第1パラメータ平均値、第1パラメータ分散及び第1サンプリング値に基づいて、第1対話特徴を取得することができる。ここで、第1サンプリング値は、標準正規分布からサンプリングされた値であり、即ち、サンプリング点の値である。標準正規分布からサンプリングされた値によって、第1対話特徴を取得することで、訓練プロセスにおいて、該第1対話特徴に基づいて、デコーダによって対話返答を再構築し、再構築された対話返答と第1対話返答との差に基づいて、対話モデルのパラメータを調整し、該第1対話特徴と第1対話返答との差が小さくなり、そのため、第1対話特徴で第1対話返答を表すことができる。
説明すべきこととして、サーバは、事後的ネットワークによって、第1対話特徴を取得する時、下記式(5)と式(6)で算出する。
Figure 2023508062000010
ここで、μkは、第1パラメータ平均値を表し、σkは、第1パラメータ分散を表し、Wは、可変パラメータを表し、
Figure 2023508062000011
は、事後的ネットワークを表し、Xkは、第1対話返答の第2ベクトルを表し、cは、第1対話発話文の第1ベクトルを表し、bは、偏りパラメータを表す。
Figure 2023508062000012
ここで、zkは、第1対話特徴を表し、μkは、第1パラメータ平均値を表し、σkは、第1パラメータ分散を表し、εは、第1サンプリング値を表し、ε~N(0,I)は、εが標準正規分布に従うことを表す。
4023において、サーバは、先験的ネットワークによって、該第1ベクトルと該第1対話返答の属する返答種別に基づいて、第2対話特徴を取得し、該返答種別は、該第1対話返答と同一の種別に属する少なくとも1つの他の対話返答を含む。
本願の実施例において、先験的ネットワークは、実の対話特徴の確率分布を表すためのものであり、この確率分布は、事後的分布から推定されるものである。事後的分布によって先験的分布を推定する時、先験的分布から、1つのサブ分布を選択し、事後的分布とマッチングする。事後的分布と先験的分布を正確にマッチングするために、1つの対話発話文に対応する少なくとも2つの対話返答に対してクラスタリングを行い、複数の返答種別を得ることができる。続いて、第2対話特徴を取得する時、第1対話返答の属する返答種別に基づいて、先験的分布におけるサブ分布を選択する。
選択的な実現形態において、先験的分布が混合ガウスに従うとすると、サーバが第1対話返答の属する返答種別に基づいて、サブ分布を選択し、続いて、該サブ分布からサンプリングを行い、第2対話特徴を得る。これに対応して、サーバが先験的ネットワークによって、該第1ベクトルと該第1対話返答の属する返答種別に基づいて、第2対話特徴を取得するステップは、以下の通りであってもよい。サーバは、第1ベクトルと第1対話返答の属する返答種別に基づいて、目標確率分布を決定することができ、該目標確率分布は、先験的ネットワークから出力された対話特徴の確率分布のうちの該返答種別に対応する確率分布、即ち、事後的分布とマッチングするためのサブ分布である。サーバは、先験的ネットワークによって、第1ベクトルに基づいて、第2パラメータ平均値と第2パラメータ分散を取得することができる。サーバは、第2パラメータ平均値、第2パラメータ分散及び第2サンプリング値に基づいて、第2対話特徴を取得することができる。ここで、該第2サンプリング値は、目標確率分布からサンプリングされた値であり、即ち、サンプリング点の値である。混合ガウス分布におけるサブ分布上のサンプリング値によって第2対話特徴を取得するため、訓練プロセスにおいて、エンコーダによって、該第2対話特徴と第1対話特徴に基づいて、先験的分布と事後的分布とのWasserstein(ワッサースタイン)距離を取得することができ、それにより先験的分布と事後的分布を正確にマッチングする。
説明すべきこととして、サーバは、先験的ネットワークによって、第2対話特徴を取得する時、下記式(7)~式(9)で算出することができる。
Figure 2023508062000013
ここで、
Figure 2023508062000014
は、第2対話特徴を表し、
Figure 2023508062000015
は、第2対話特徴が先験的分布に従うことを表し、jは、返答種別の識別子を表し、Jは、返答種別の総数を表し、πは、サブ分布選択パラメータを表し、γkは、k番目の対話返答を表し、
Figure 2023508062000016
は、先験的分布を表す。
Figure 2023508062000017
ここで、
Figure 2023508062000018
は、返答種別jに対応する目標確率分布の第2パラメータ平均値を表し、
Figure 2023508062000019
は、返答種別jに対応する目標確率分布の第2パラメータ分散を表し、
Figure 2023508062000020
は、返答種別jに対応する目標確率分布の可変パラメータを表し、fθ( )は、先験的ネットワークを表し、cは、第1対話発話文の第1ベクトルを表し、
Figure 2023508062000021
は、返答種別jに対応する目標確率分布の偏りパラメータを表す。
Figure 2023508062000022
ここで、
Figure 2023508062000023
は、第2対話特徴を表し、
Figure 2023508062000024
は、返答種別jに対応する目標確率分布の第2パラメータ平均値を表し、
Figure 2023508062000025
は、返答種別jに対応する目標確率分布の第2パラメータ分散を表し、
Figure 2023508062000026
は、第2サンプリング値を表し、
Figure 2023508062000027
は、
Figure 2023508062000028
が標準正規分布に従うことを表す。
説明すべきこととして、いずれか1つの第1対話に対して、該第1対話に含まれる少なくとも2つの対話返答に基づいて、少なくとも2つの事後的分布を得ることができ、各事後的分布から、1つの第1対話特徴zkをサンプリングによって得ることができる。該第1対話に含まれる対話発話文に基づいて、1つの先験的分布を得ることができ、該先験的分布は、少なくとも2つのサブ分布を含み、各サブ分布から、1つの第2対話特徴
Figure 2023508062000029
をサンプリングによって得ることができる。即ち、同一の第1対話に対して、得られた少なくとも2つの第2対話特徴
Figure 2023508062000030
は、同一の先験的分布からのものである。
403において、サーバは、該第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、対話モデルを更新する。
本願の実施例において、いずれか1つの第1対話返答に対して、サーバは、該第1対話返答に対応する第1対話特徴と第2対話特徴を取得することができる。サーバは、第1対話発話文を符号化することで得られた第1ベクトルと、該第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、判別器損失と再構築損失を取得することができる。続いて、サーバは、該判別器損失に基づいて、対話モデルにおける事後的ネットワークと先験的ネットワークのパラメータを更新し、該再構築損失に基づいて、対話モデルにおけるエンコーダ、事後的ネットワーク、先験的ネットワーク及びデコーダのパラメータを更新することができる。最後に、サーバは、判別器損失に基づいて、対話モデルの判別器のパラメータを更新することができる。
説明すべきこととして、判別器の損失は、敵対的ネットワークによって事後的分布と先験的分布とのWasserstein(ワッサースタイン)距離を最適化することで得られる。サーバは、対話モデルの判別器によって、第1対話発話文の第1ベクトル、該第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、第1対話特徴と第2対話特徴との第1ワッサースタイン距離を取得し、該第1ワッサースタイン距離を判別器損失とする。これに対応して、判別器損失は、式(10)で算出されてもよい。
Figure 2023508062000031
ここで、
Figure 2023508062000032
は、判別器損失を表し、
Figure 2023508062000033
は、第1対話特徴zkの数学的期待値を表し、D( )は、判別器を表し、zkは、第1対話特徴を表し、cは、第1対話発話文の第1ベクトルを表し、
Figure 2023508062000034
は、第2対話特徴
Figure 2023508062000035
の数学的期待値を表し、
Figure 2023508062000036
は、第2対話特徴を表す。
これに対応して、サーバは、判別器損失に基づいて、対話モデルにおける先験的ネットワークのパラメータを更新する時、式(11)で算出することができる。
Figure 2023508062000037
ここで、θp-netは、先験的ネットワークのパラメータを表し、lrは、対話モデルの学習率を表し、∂は、微分演算を表し、
Figure 2023508062000038
は、判別器損失を表す。
これに対応して、サーバは、判別器損失に基づいて、対話モデルにおける事後的ネットワークのパラメータを更新し、該事後的モデルのパラメータは、式(12)で算出される。
Figure 2023508062000039
ここで、θR-netは、事後的ネットワークのパラメータを表し、lrは、対話モデルの学習率を表し、∂は、微分演算を表し、
Figure 2023508062000040
は、判別器損失を表す。
説明すべきこととして、再構築損失について、事後的分布からサンプリングされた第1対話特徴に基づいて、デコーダに基づいて該第1対話特徴に対して復号を行い、対話返答を再構築し、再構築された対話返答と第1対話返答との誤差に基づいて、再構築損失を決定することができる。サーバは、対話モデルにおけるデコーダによって、第1対話特徴に対して復号を行い、復号によって得られた目標対話返答に対応する目標対話特徴を取得することができる。サーバは、第1ベクトル、第1対話特徴、第2対話特徴及び目標対話特徴に基づいて、再構築損失を取得することができる。これに対応して、再構築損失は、式(13)で算出されてもよい。
Figure 2023508062000041
ここで、
Figure 2023508062000042
は、再構築損失を表し、
Figure 2023508062000043
は、事後的分布から無限回サンプリングすることで第1対話特徴zkを得ることで、再構築された目標対話特徴の確率全体を十分に大きくする数学的期待値を表し、
Figure 2023508062000044
は、デコーダを表し、xkは、目標対話特徴を表す。
これに対応して、サーバは、対話モデルにおけるエンコーダ、事後的ネットワーク、先験的ネットワーク及びデコーダのパラメータを更新する時、式(14)で算出することができる。
Figure 2023508062000045
ここで、θnetは、netのパラメータを表し、lrは、対話モデルの学習率を表し、
Figure 2023508062000046
は、再構築損失を表し、
Figure 2023508062000047
は、netがEnc、P-net、R-net及びDecのうちの1つであることを表し、Encは、エンコーダを表し、P-netは、先験的ネットワークを表し、R-netは、事後的ネットワークを表し、Decは、デコーダを表す。
これに対応して、サーバは、判別器損失に基づいて、対話モデルにおける判別器のパラメータを更新する時、判別器のパラメータは、式(15)で算出されてもよい。
Figure 2023508062000048
ここで、θDiscは、判別器のパラメータを表し、lrは、対話モデルの学習率を表し、∂は、微分演算を表し、
Figure 2023508062000049
は、判別器損失を表す。
404において、サーバは、該第1対話の少なくとも2つの第1対話特徴に基づいて、該事後的ネットワークを更新する。
本願の実施例において、サーバは、上記ステップによって少なくとも2つの第1対話特徴、即ち、事後的特徴を得ることができる。対話モデルによって最終的に学習された先験的分布を分割可能なマルチセマンティック分布にするために、サーバは、セマンティック距離の最適化目標に基づいて、対話発話文に対応する事後的分布の間のセマンティック距離を制御してもよい。
選択的な実現形態において、サーバは、最大平均値差異を使用して、1つの第1対話特徴と他の第1対話特徴の平均値の間のWasserstein距離を最大化することができる。これに対応して、サーバが該第1対話の少なくとも2つの第1対話特徴に基づいて、該事後的ネットワークを更新するステップは、以下の通りであってもよい。いずれか1つの第1対話特徴に対して、サーバは、該少なくとも2つの第1対話特徴のうちの該第1対話特徴以外の他の第1対話特徴の平均値を取得し、該平均値を平均対話特徴とすることができる。サーバは、該第1対話特徴と平均対話特徴との第2ワッサースタイン距離を取得し、該第2ワッサースタイン距離をセマンティック損失とすることができる。サーバは、該セマンティック損失に基づいて、事後的ネットワークのパラメータを更新することができる。事後的分布の間のセマンティック距離を制御しているため、先験的分布は、分割可能なマルチセマンティック分布である。
説明すべきこととして、サーバは、該少なくとも2つの第1対話特徴のうちの該第1対話特徴以外の他の第1対話特徴の平均値を取得する時、下記式(16)で算出することができる。
Figure 2023508062000050
ここで、
Figure 2023508062000051
は、平均対話特徴を表し、Kは、第1対話特徴の数を表し、ziは、i番目の第1対話特徴を表し、
Figure 2023508062000052
は、iがセット
Figure 2023508062000053
に属することを表し、
Figure 2023508062000054
であり、セット
Figure 2023508062000055
にK個の第1対話特徴におけるzkが含まれない。
これに対応して、サーバは、下記式(17)でセマンティック損失を算出する。
Figure 2023508062000056
ここで、
Figure 2023508062000057
は、セマンティック損失を表し、zkは、第1対話特徴を表し、
Figure 2023508062000058
は、平均対話特徴を表し、GKF( )は、ガウスカーネル関数を表し、
Figure 2023508062000059
は、事後的分布からサンプリングされた異なる第1対話特徴zkの間の距離が十分に小さい数学的期待値を表し、
Figure 2023508062000060
は、事後的分布からサンプリングされた第1対話特徴zkと他の事後的分布の平均対話特徴
Figure 2023508062000061
との距離が十分に大きい数学的期待値を表し、
Figure 2023508062000062
は、他の事後的分布の平均対話特徴
Figure 2023508062000063
の間の距離が十分に小さい数学的期待値を表す。
これに対応して、サーバは、該セマンティック損失に基づいて、事後的ネットワークのパラメータを更新する時、事後的ネットワークのパラメータは、下記式(18)で算出される。
Figure 2023508062000064
ここで、θR-netは、事後的ネットワークのパラメータを表し、lrは、対話モデルの学習率を表し、∂は、微分演算を表し、
Figure 2023508062000065
は、セマンティック損失を表す。
405において、サーバは、第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、該対話モデルの判別器を更新し、第2対話は、1つの第2対話発話文と、少なくとも2つの第2対話返答と、を含む。
本願の実施例において、サーバは、判別器の更新回数を設定してもよい。判別器を更新するたびに、サーバは、複数の対話から、少なくとも1つの対話を第2対話として選択し、続いて、第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得し、これは、ステップ402を参照してもよく、ここでは説明を省略する。いずれか1つの第2対話の第2対話返答に対して、サーバは、該第2対話返答に対応する第1対話特徴と第2対話特徴に基づいて、判別器損失を取得することができ、具体的には、ステップ403を参照してもよく、ここでは説明を省略する。サーバは、該判別器損失に基づいて、対話モデルにおける判別器を更新することができる。サーバは、対話モデルにおける判別器のパラメータを更新する時、上記式(15)を参照してもよく、ここでは説明を省略する。
説明すべきこととして、上記ステップ401~ステップ405は、本願の実施例による対話モデルの訓練方法の一回の反復プロセスであり、サーバは、上記ステップを繰り返し、訓練終了条件を満たすまで継続する。
本願の実施例において、第1対話の複数の対話特徴によって、対話モデルを複数回更新し、事後的ネットワークを更新し、更に、第2対話の複数の対話特徴に基づいて、対話モデルにおける判別器を更新することで、訓練プロセスにおいて、対話の異なるセマンティックを考慮し、対話の返答に複数種のセマンティックを含ませることができ、対話モデルによって生成される対話返答の多様性を向上させる。
図5は、本願の実施例による対話モデルの構造を示す概略図である。図5に示すように、左側には、1つの第1対話を例示的に示し、該第1対話は、1つの第1対話発話文と、K個の第1対話返答と、を含む。該第1対話をエンコーダに入力することで、第1対話発話文の第1ベクトルと第1対話返答の第2ベクトルを得ることができる。第1ベクトルを先験的ネットワークに入力することで、先験的分布を得ることができ、先験的分布の各サブ分布からサンプリングすることで、複数の第2対話特徴を得ることができる。第2ベクトルをそれぞれ事後的ネットワークに入力することで、事後的分布を得ることができ、1つの事後的分布からサンプリングすることで、1つの第1対話特徴を得ることができ、k番目の第1対話返答に対応する第1対話特徴は、zkであり、他の第1対話特徴の平均値は、
Figure 2023508062000066
である。デコーダは、第1対話特徴zkを復号し、再構築された対話返答を得て、再構築された対話返答は、第1対話返答に類似していれば類似しているほどよい。
以下では、本願の実施例において上記対話モデルを訓練する時に使用されるマルチセマンティックWAE(WassersteinAuto-Encoder:Wasserstein自動エンコーダ)アルゴリズムを説明する。
Figure 2023508062000067
Figure 2023508062000068
上記マルチセマンティックWAEアルゴリズムに記載のステップをより明瞭にするために、図6を参照すると、図6は、本願の実施例によるマルチセマンティックWAEアルゴリズムを示すフローチャート概略図である。該WAEアルゴリズムの入力は、複数の対話であり、ステップ1は、エンコーダのパラメータを初期化することであり、ステップ2は、モデルの反復条件を判定することであり、ステップ3は、少なくとも1つの第1対話を取得することであり、ステップ4は、第1対話における第1対話返答に基づいて、反復判定を行うことであり、ステップ5は、第1対話発話文と第1対話返答に対して符号化を行うことであり、ステップ6は、事後的ネットワークによって、第1対話特徴を得ることであり、ステップ7は、先験的ネットワークによって、第2対話特徴を得ることであり、ステップ8は、判別器損失に基づいて、先験的ネットワークを更新することであり、ステップ9は、判別器損失に基づいて、事後的ネットワークを更新することであり、ステップ10は、再構築損失に基づいて、エンコーダ、事後的ネットワーク、先験的ネットワーク及びデコーダを更新することであり、ステップ11は、判別器損失に基づいて、判別器を更新することであり、ステップ12は、第1対話返答に基づく反復を終了することであり、ステップ13は、第1対話特徴に基づいて、反復判定を行うことであり、ステップ14は、セマンティック損失に基づいて、事後的ネットワークを更新することである。ステップ15は、第1対話特徴に基づく反復を終了することであり、ステップ16は、判別器更新回数に基づいて、反復判定を行うことであり、ステップ17は、少なくとも1つの第2対話を取得することであり、ステップ18は、第2対話における第2対話返答に基づいて、反復判定を行うことであり、ステップ19は、上記ステップ5~ステップ7を繰り返すことであり、ステップ20は、判別器損失に基づいて、判別器を更新することであり、ステップ21は、第2対話返答に基づく反復を終了することであり、ステップ22は、判別器更新回数に1を加算することであり、ステップ23は、判別器更新回数に基づく反復を終了することであり、ステップ24は、モデル反復回数に1を加算することであり、ステップ25は、モデル反復を終了することである。
説明すべきこととして、上記WAEアルゴリズムにおける入力可能なコーパス
Figure 2023508062000069
は、下記アルゴリズムで算出されてもよい。
Figure 2023508062000070
説明すべきこととして、本願の実施例による対話モデルの訓練方法で訓練された対話モデルが良好な効果を奏していることを検証するために、本願の実施例は、検証実験を更に設計する。実験において、2つの共通対話データセットによって評価を行う。1つのデータセットは、Douban(Yu Wu、Furu Wei、Shaohan Huang、Yunli Wang、Zhoujun Li、and Ming Zhouにより2019年に発表された《Response generationby context-aware prototype editing》からのものであり、これは、Proceedingsof the AAAI Conference on Artificial Intelligence、第33巻、ページ281-7288に発表されている)である。もう1つは、DailyDialg(Yanran Li、Hui Su、Xiaoyu Shen、Wenjie Li、ZiqiangCao、and ShuziNiuにより2017年に発表された《DailyDialog:A manually labelled multi-turn dialogue dataset》からのものであり、これは、Proceedings of the Eighth International Joint Conference onNatural Language Processing (Volume 1: Long Papers)、ページ986-995に発表されている)である。データセットにおけるサンプル数の統計は、表1に示す通りである。説明すべきこととして、DoubanとDailyDialog対話データセットにおける単語数は、それぞれ20,000と10,000である。
Figure 2023508062000071
以下では、実験において、比較に用いられる他の方法を説明する。実験時、本願の実施例によるMS-WAE(Multi-Semanticwasserstein autoencoder:マルチセマンティックワッサースタイン自動エンコーダ)方法を、Bahdanauらが2015年に提出したSeq2Seq-attn(The standard Seq2Seq architecture with attention mechanism:アテンションメカニズムを有する標準Seq2Seqアーキテクチャ)方法、Gaoらが2019年に提出されたDCVAE(A discrete CVAE forresponse generation on short-text conversation:ショートテキストに対して応答を発生するための離散CVAE(Conditional AutoEncoder:条件付き自動エンコーダ))方法、Chenらが2019年に提出したMMPMS(Generating multiple diverse responses with multi-mapping and posterior mappingselection:マルチマッピングと事後的マッピング選択によって様々な応答を生成する)方法、及びGuらが2018年に提出したDialogWAE(Multimodal response generation with conditional wasserstein autoencoder:条件付きワッサースタイン自動エンコーダを用いてマルチモーダル応答を生成する)方法と比較する。
以下では、実験の評価標準を説明する。実験時、BLUE(機械翻訳の自動評価方法)、BOWEmbedding(bagofwordsEmbedding:単語バッグモデル埋め込み)、intra-dist(内因的差異)、及びinter-dist(外因的差異)の4つの大きな方面から評価する。ここで、BLUEは、Recall(リコール率)、Precision(精度)及びF1(F1-Score:F1スコア)を含む。BOWEmbeddingは、Average(平均値)、Extrema(極値)及びGreedy(グリーディ)を含む。intra-distは、dist-1及びdist-2を含み、inter-distは、dist-1及びdist-2を含む。
実験結果は、表2に示す通りである。
Figure 2023508062000072
表2において、符号+を有する数字は、最適な基本閾値を超える数値を表し、統計学的意味を有する。表2におけるデータによれば、本願によるMA-WAE方法が多様性を著しく向上させて関連性を保持することが明らかになる。
なお、本願は、手動による評価実験を更に設計する。実験プロセスにおいて、参加者5名を募集しており、それぞれ、Informativeness(情報性:1つの対話返答が意義のある情報を提供するものであるかどうかを評価する)、Appropriateness(適当性:1つの対話返答がロジックに合致するかどうかを評価する)及びSemantic Diversity(セマンティック多様性)の点から評価する。評価スコアは、0-2であり、0は、最も悪いものを表し、2は、最も良いものを表す。
手動による評価の実験結果は、表3に示す通りである。
Figure 2023508062000073
表3には、全ての方法の平均値±標準差を示す。結果によれば、セマンティック多様性の方面では、MS-WAEは、2つのデータセットにおいて、他のデータセットよりも遥かに好ましく、ベースラインを超えた。
図7は、本願の実施例による対話モデルの訓練装置を示すブロック図である。該装置は、上記対話モデルの訓練方法を実行する時のステップを実行するためのものである。図7を参照すると、装置は、特徴取得モジュール701と、モデル更新モジュール702と、モデル取得モジュール703と、を備える。
特徴取得モジュール701は、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するように構成され、該第1対話特徴と該第2対話特徴はそれぞれ、第1対話発話文と1つの第1対話返答の事後的特徴と先験的特徴を表すためのものであり、1つの対話発話文は、少なくとも2つの対話返答に対応する。選択的に、特徴取得モジュール701は、対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するように構成され、該先験的ネットワークは、対話特徴の確率分布を出力するためのものであり、該事後的ネットワークは、該先験的ネットワークから出力された対話特徴の確率分布を推定するためのものであり、該第1対話特徴は、1つの対話における対話発話文と1つの対話返答の事後的特徴を表すためのものであり、該第2対話特徴は、1つの対話における該対話発話文と1つの対話返答の先験的特徴を表すためのものであり、該第1対話は、1つの第1対話発話文と少なくとも2つの第1対話返答とを含む。
モデル更新モジュール702は、該第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、対話モデルを更新するように構成され、該対話モデルに、先験的ネットワークと、事後的ネットワークとが含まれ、該事後的ネットワークは、該先験的ネットワークから出力された対話特徴の確率分布を推定するためのものであり、
該モデル更新モジュール702は更に、該第1対話の少なくとも2つの第1対話特徴に基づいて、該事後的ネットワークを更新するように構成され、
該モデル更新モジュール702は更に、第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、該対話モデルの判別器を更新するように構成され、該第2対話は、第2対話発話文と、少なくとも2つの第2対話返答と、を含む。
モデル取得モジュール703は、訓練終了条件を満たすことに応答して、訓練により得られたモデルを対話モデルとするように構成される。
選択可能な実現形態において、該特徴取得モジュール701は、いずれか1つの第1対話返答に対して、該対話モデルに基づいて、該第1対話発話文と該第1対話返答に対してそれぞれ符号化を行い、該第1対話発話文の第1ベクトルと第1対話返答の第2ベクトルを得て、該事後的ネットワークによって、該第1ベクトルと第2ベクトルに基づいて、第1対話特徴を取得し、該先験的ネットワークによって、該第1ベクトルと該第1対話返答の属する返答種別に基づいて、第2対話特徴を取得するように構成され、該返答種別は、該第1対話返答と同一の種別に属する少なくとも1つの他の対話返答を含む。
選択的な実現形態において、該特徴取得モジュール701は、該第1対話のいずれか1つの該第1対話返答に対して、該対話モデルのエンコーダによって、該第1対話発話文と該第1対話返答に対してそれぞれ符号化を行い、該第1対話発話文の第1ベクトルと該第1対話返答の第2ベクトルを得て、該第1対話の少なくとも2つの第1対話特徴を取得し、該第1対話の該第1対話特徴は、該事後的ネットワークによって該第1対話発話文の第1ベクトルと該第1対話返答の第2ベクトルとを処理することで得られたものであり、該第1対話の少なくとも2つの第2対話特徴を取得し、該第1対話の該第2対話特徴は、該先験的ネットワークによって該第1対話発話文の第1ベクトルと該第1対話返答の属する返答種別を処理することで得られたものであるように構成される。
選択的な実現形態において、該特徴取得モジュール701は、該第1対話発話文と該第1対話返答をそれぞれ対話モデルのエンコーダに入力し、該エンコーダは、双方向ゲート付き回帰型ユニットニューラルネットワークによって構築されたものであり、該エンコーダによって、該第1対話発話文と該第1対話返答に対してそれぞれ符号化を行い、該第1対話発話文の第1ベクトルと該第1対話返答の第2ベクトルを得るように構成される。
選択的な実現形態において、該特徴取得モジュール701は更に、該事後的ネットワークによって、該第1ベクトルと該第2ベクトルに基づいて、第1パラメータ平均値と第1パラメータ分散を取得し、該第1パラメータ平均値、該第1パラメータ分散及び第1サンプリング値に基づいて、第1対話特徴を取得するように構成され、該第1サンプリング値は、標準正規分布から取得されたサンプリング点の値である。
選択的な実現形態において、該特徴取得モジュール701は、該第1ベクトルと該第2ベクトルを該事後的ネットワークに入力し、第1パラメータ平均値と第1パラメータ分散を出力し、該第1パラメータ平均値、該第1パラメータ分散及び第1サンプリング値に基づいて、第1対話特徴を取得するように構成され、該第1サンプリング値は、標準正規分布からサンプリングを行うことで得られたものである。
選択的な実施形態において、該特徴取得モジュール701は、該第1ベクトルと該第1対話返答の属する返答種別に基づいて、目標確率分布を決定し、該目標確率分布は、該先験的ネットワークから出力された対話特徴の確率分布のうちの該返答種別に対応する確率分布であり、該先験的ネットワークによって、該第1ベクトルに基づいて、第2パラメータ平均値と第2パラメータ分散を取得し、該第2パラメータ平均値、該第2パラメータ分散及び第2サンプリング値に基づいて、第2対話特徴を取得し、該第2サンプリング値は、該目標確率分布から取得されたサンプリング点の値であるように構成される。
選択的な実施形態において、該特徴取得モジュール701は、該第1ベクトルと該第1対話返答の属する返答種別に基づいて、目標確率分布を決定し、該目標確率分布は、該先験的ネットワークから出力された確率分布のうち、該返答種別に対応する確率分布であり、該第1ベクトルを該先験的ネットワークに入力し、第2パラメータ平均値と第2パラメータ分散を得て、該第2パラメータ平均値、該第2パラメータ分散及び第2サンプリング値に基づいて、第2対話特徴を取得し、該第2サンプリング値は、該目標確率分布に対してサンプリングを行うことで得られたものであるように構成される。
選択的な実施形態において、該モデル更新モジュール702は、該第1対話のいずれか1つの第1対話返答に対して、該第1対話返答に対応する第1対話特徴と第2対話特徴を取得し、第1ベクトル、該第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、判別器損失を取得し、該第1ベクトルは、該第1対話発話文を符号化することで得られたものであり、該第1ベクトル、該第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、再構築損失を取得し、該判別器損失に基づいて、該対話モデルにおける事後的ネットワークと先験的ネットワークのパラメータを更新し、該再構築損失に基づいて、対話モデルにおけるエンコーダ、該事後的ネットワーク、該先験的ネットワーク及びデコーダのパラメータを更新し、該判別器損失に基づいて、該対話モデルにおける判別器のパラメータを更新するように構成される。
選択的な実施形態において、該モデル更新モジュール702は、該対話モデルの判別器によって、該第1対話発話文の第1ベクトル、該第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、該第1対話返答に対応する第1対話特徴と第2対話特徴との第1ワッサースタイン距離を取得し、該第1ワッサースタイン距離を判別器損失とするように構成される。
選択的な実施形態において、該モデル更新モジュール702は、該対話モデルにおけるデコーダによって、該第1対話特徴に対して復号を行い、目標対話特徴を取得し、該第1ベクトル、該第1対話返答に対応する第1対話特徴と第2対話特徴、該目標対話特徴に基づいて、再構築損失を取得するように構成される。
選択的な実施形態において、該モデル更新モジュール702は更に、第1対話のいずれか1つの第1対話特徴に対して、該少なくとも2つの第1対話特徴のうちの該第1対話特徴以外の他の第1対話特徴の平均値を取得し、該平均値を平均対話特徴とし、該第1対話特徴と該平均対話特徴との第2ワッサースタイン距離を取得し、該第2ワッサースタイン距離をセマンティック損失とし、該セマンティック損失に基づいて、該事後的ネットワークのパラメータを更新するように構成される。
本願の実施例において、第1対話の複数の対話特徴によって、対話モデルを複数回更新し、事後的ネットワークを更新し、更に、第2対話の複数の対話特徴に基づいて、対話モデルにおける判別器を更新する。対話の対話特徴に基づいて、対話モデルのパラメータを複数回更新し、対話の異なるセマンティックを考慮し、対話の返答に複数種のセマンティックを含ませることができ、対話モデルによって生成される対話返答の多様性を向上させる。
上記実施例で提供される対話モデルの訓練装置がアプリケーションプログラムを実行する時、上記各機能モジュールの分割のみを例として説明することに留意されたい。実際の適用において、必要に応じて、様々な機能モジュールにより上記機能を実現させることができる。つまり、装置の内部構造を様々な機能モジュールに分割して、上記全て又は一部の機能を完了する。なお、上記実施例で提供される対話モデルの訓練装置の構想は、対話モデルの訓練方法の実施例の構想と同じであり、具体的な実現プロセスは、方法の実施例を参照されたい。ここでは説明を省略する。
図8は、本願の実施例による対話返答生成装置を示すブロック図である。該装置は、上記対話返答生成方法を実行する時のステップを実行するためのものである。図8を参照すると、装置は、対話取得モジュール801と、特徴抽出モジュール802と、返答出力モジュール803と、返答展示モジュール804と、を備える。
対話取得モジュール801は、対話発話文を取得するように構成され、
特徴抽出モジュール802は、該対話発話文を対話モデルに入力し、該対話モデルにおける先験的ネットワークによって、複数の対話返答に対応する第1対話特徴から、1つの目標対話特徴をランダムに抽出するように構成され、
返答出力モジュール803は、該対話モデルにおけるデコーダによって、該目標対話特徴に対して復号を行い、目標対話返答を出力するように構成され、
返答展示モジュール804は、該目標対話返答を展示するように構成される。
本願の実施例において、ランダムな抽出の方式で、対話発話文に対応する対話返答を取得し、同一の対話発話文を複数回入力する時、異なる対話返答を得ることができ、それにより対話返答の多様性を向上させる。
上記実施例で提供される対話返答生成装置がアプリケーションプログラムを実行する時、上記各機能モジュールの分割のみを例として説明することに留意されたい。実際の適用において、必要に応じて、様々な機能モジュールにより上記機能を実現させることができる。つまり、装置の内部構造を様々な機能モジュールに分割して、上記全て又は一部の機能を完了する。なお、上記実施例で提供される対話返答生成装置の構想は、対話返答生成方法の実施例の構想と同じであり、具体的な実現プロセスは、方法の実施例を参照されたい。ここでは説明を省略する。
本願の実施例において、コンピュータ機器は、端末又はサーバとして配置されてもよく、コンピュータ機器が端末として配置される時、端末を実行主体として本願の実施例による技術的解決手段を実施してもよく、コンピュータ機器がサーバとして配置される時、サーバを実行主体として本願の実施例による技術的解決手段を実施してもよく、端末とサーバとのインタラクションによって、本願の実施例による技術的方法を実施してもよく、本願の実施例は、これを限定しない。
コンピュータ機器が端末として配置される時、図9は、本願の実施例による端末900の構造を示すブロック図である。該端末900は、スマートフォン、タブレット、MP3プレーヤー(Moving Picture Experts Group Audio Layer III:動画専門家集団オーディオ規格のレイヤ3)、MP4(Moving Picture Experts Group Audio Layer IV::動画専門家集団オーディオ規格のレイヤ4)プレーヤー、ノートパソコン又はデスクトップパソコンであってもよい。端末900は、ユーザ機器、携帯端末、ラップトップ端末、デスクトップ端末などの他の名称と呼ばれてもよい。
一般的には、端末900は、プロセッサ901と、メモリ902とを備える。
プロセッサ901は、1つ又は複数のプロセッシングコアを含んでもよい。例えば、4コアプロセッサ、8コアプロセッサ等である。プロセッサ901は、DSP(Digital Signal Processing:デジタル信号処理)、FPGA(Field-Programmable Gate Array:フィールドプログラマブルゲートアレイ)、PLA(Programmable Logic Array:プログラマブルロジックアレイ)のうちの少なくとも1つのハードウェア形態により実現してもよい。プロセッサ901は、ホストプロセッサ及びコプロセッサを含んでもよい。ホストプロセッサは、アウェイク状態であるデータを処理するためのプロセッサであり、CPU(Central Processing Unit:中央プロセッサ)とも呼ばれる。コプロセッサは、待機状態であるデータを処理するための低電力プロセッサである。幾つかの実施例において、プロセッサ901に、GPU(Graphics Processing Unit:画像プロセッサ)が集積されてもよい。GPUは、ディスプレイが表示すべきコンテンツのレンダリング及び描画に用いられる。幾つかの実施例において、プロセッサ901は、AI(Artificial Intelligence:人工知能)プロセッサを含んでもよい。該AIプロセッサは、機器学習に関わる演算操作を処理するためのものである。
メモリ902は、1つ又は複数のコンピュータ可読記憶媒体を含んでもよい。該コンピュータ可読記憶媒体は、非一時的なものであってもよい。メモリ902は、高速ランダムアクセスメモリ、及び不揮発性メモリを含んでもよい。例えば、1つ又は複数の磁気ディスク記憶機器、フラッシュ記憶機器を含む。幾つかの実施例において、メモリ902における非一時的なコンピュータ可読記憶媒体は、少なくとも1つの命令を記憶するためのものである。該少なくとも1つの命令は、プロセッサ901により実行され、本願の方法の実施例で提供される対話モデルの訓練方法、又は対話返答生成方法を実現させる。
幾つかの実施例において、端末900は、選択的に、外部機器インタフェース903と、少なくとも1つの外部機器とを備えてもよい。プロセッサ901、メモリ902及び外部機器インタフェース903は、バス又は信号線を介して接続されてもよい。各外部機器は、バス、信号線又は回路基板を介して外部機器インタフェース903に接続されてもよい。具体的には、外部機器は、無線周波数回路904、ディスプレイ905、カメラユニット906、オーディオ回路907、位置決めユニット908及び電源909のうちの少なくとも1つを含む。
外部機器インタフェース903は、I/O(Input /Output:入力/出力)に関わる少なくとも1つの外部機器をプロセッサ901及びメモリ902に接続するためのものであってもよい。幾つかの実施例において、プロセッサ901、メモリ902及び外部機器インタフェース903は、同一のチップ又は回路基板に集積され、幾つかの他の実施例において、プロセッサ901、メモリ902及び外部機器インタフェース903のうちのいずれか1つ又は2つは、単独のチップ又は回路基板上で実現されてもよく、本実施例はこれを限定するものではない。
無線周波数回路904は、電磁信号とも呼ばれるRF(Radio Frequency:無線周波数)信号の受信及び送信に用いられる。無線周波数回路904は電磁信号を経由して通信ネットワーク及び他の通信機器と通信する。無線周波数回路904は、電気信号を電磁信号に変換して送信するか又は受信した電磁信号を電気信号に変換する。選択的に、無線周波数回路904は、アンテナシステム、RF送受信機、1つ又は複数の増幅器、チューナ、発振器、デジタル信号プロセッサ、コーデックチップセット、加入者識別モジュールカードなどを含む。無線周波数回路904は、少なくとも1つの無線通信プロトコルにより、他の端末と通信することができる。該無線通信プロトコルは、メトロエリアネットワーク、各世代の移動体通信ネットワーク(2G、3G、4G及び5G)、無線ローカルエリアネットワーク及び/又はWiFi(Wireless Fidelity:ワイヤレスフィデリティ)ネットワークを含むが、これらに限定されない。幾つかの実施例において、無線周波数回路904は、NFC(Near Field Communication:近接場通信)に関わる回路を含んでもよく、本願は、これを限定するものではない。
ディスプレイ905は、UI(User Interface:ユーザインタフェース)を表示するためのものである。該UIは、図形、テキスト、アイコン、ビデオ及びそれらの任意の組み合わせを含んでもよい。ディスプレイ905がタッチディスプレイである場合、ディスプレイ905は、ディスプレイ905の表面又は表面の上方のタッチ信号を収集する能力を有する。該タッチ信号は、制御信号としてプロセッサ901に入力されて処理されてもよい。この場合、ディスプレイ905は、ソフトボタン及び/又はソフトキーボードとも呼ばれる仮想ボタン及び/又は仮想キーボードを提供するためのものであってもよい。幾つかの実施例において、ディスプレイ905は1つであってもよく、端末900のフロントパネルに設けられる。別の幾つかの実施例において、ディスプレイ905は少なくとも2つであってもよく、それぞれ端末900の様々な表面に設けられるか又は折り畳むように設けられる。また幾つかの実施例において、ディスプレイ905は、フレキシブルディスプレイであってもよく、端末900の湾曲表面又は折り畳み面に設けられる。なお、ディスプレイ905は、非矩形の不規則状に設けられてもよく、つまり、異形ディスプレイであってもよい。ディスプレイ905として、LCD(Liquid Crystal Display:液晶ディスプレイ)、OLED(Organic Light-Emitting Diode:有機発光ダイオード)などの材質からなるものであってもよい。
カメラユニット906は、画像又はビデオの収集に用いられる。選択的に、カメラユニット906は、フロントカメラ及びリアカメラを備える。一般的には、フロントカメラは、端末のフロントパネルに設けられ、リアカメラは、端末の背面に設けられる。幾つかの実施例において、リアカメラは少なくとも2つであり、それぞれメインカメラ、デプスカメラ、広角カメラ、長焦点カメラのうちのいずれか1つである。これにより、メインカメラとデプスカメラを組み合わせて背景ぼかし機能を実現させる。メインカメラと広角カメラを組み合わせてパノラマ撮影及びVR(Virtual Reality:仮想現実)撮影機能又は他の組み合わせによる撮影機能を実現させる。幾つかの実施例において、カメラユニット906は、フラッシュを含んでもよい。フラッシュは、単色フラッシュであってもよいし、二色フラッシュであってもよい。二色フラッシュは、暖色光フラッシュと冷色光フラッシュとの組み合わせを指し、様々な色温度での光線補償に用いられる。
オーディオ回路907は、マイクロホン及びスピーカーを含んでもよい。マイクロホンは、ユーザ及び環境の音波を収集し、音波を電気信号に変換してプロセッサ901に入力して処理するか、又は無線周波数回路904に入力して音声通信を実現させる。ステレオ音響の収集又はノイズ低減を実現させるために、マイクロホンは、複数であってもよく、それぞれ端末900の様々な部位に設けられる。マイクロホンは、アレイマイクロホン又は全方向収集型マイクロホンであってもよい。スピーカーは、プロセッサ901又は無線周波数回路904からの電気信号を音波に変換するためのものである。スピーカーは、従来のフィルムスピーカーであってもよいし、圧電セラミックススピーカーであってもよい。スピーカーは、圧電セラミックススピーカーである場合、電気信号を、人間にとって可聴な音波に変換することができるだけでなく、電気信号を、人間にとって不可聴な音波に変換して距離測定などの用途に適用することもできる。幾つかの実施例において、オーディオ回路907は、イヤホンジャックを含んでもよい。
位置決めユニット908は、端末900の現在の地理的位置を位置決めし、ナビゲーション又はLBS(Location Based Service:ロケーションベースサービス)を実現させるためのものである。位置決めユニット908は、米国のGPS(Global Positioning System:全地球測位システム)、中国の北斗システム、ロシアのガリレオシステム又は欧州連合のガリレオシステムに基づく位置決めユニットであってもよい。
電源909は、端末900における各ユニットに給電するためのものである。電源909は、交流電、直流電、使い捨て電池又は充電可能な電池であってもよい。電源909が充電可能な電池を含む場合、該充電可能な電池は、有線充電又は無線充電をサポートすることができる。該充電可能な電池は、急速充電技術をサポートするものであってもよい。
幾つかの実施例において、端末900は、1つ又は複数のセンサ910を更に備える。該1つ又は複数のセンサ910は、加速度センサ911、ジャイロセンサ912、圧力センサ913、指紋センサ914、光学センサ915及び近接センサ916を含むが、これらに限定されない。
加速センサ911は、端末900により確立された座標系の3つの座標軸における加速度の大きさを検出することができる。例えば、加速度センサ911は、3つの座標軸における重力加速度の成分を検出することができる。プロセッサ901は、加速度センサ911により収集された重力加速度信号に基づいて、ディスプレイ905を、横ビュー又は縦ビューによりユーザインタフェースの表示を行うように制御することができる。加速度センサ911は、ゲーム又はユーザの動きデータの収集にも用いられる。
ジャイロセンサ912は、端末900の本体方向及び回転角度を検出することができる。ジャイロセンサ912は、ユーザによる端末900に対する3D動作を加速度センサ911と協力して収集することができる。プロセッサ901は、ジャイロセンサ912により収集されたデータに基づいて、動作検知(例えば、ユーザによる傾斜操作に基づいてUIを変える)、撮影時の画像安定化、ゲーム制御及び慣性航法機能を実現させることができる。
圧力センサ913は、端末900の側枠及び/又はディスプレイ905の下層に設けられてもよい。圧力センサ913が端末900の側枠に設けられる時、ユーザによる端末900に対する把持信号を検出することができる。プロセッサ901は、圧力センサ913により収集された把持信号に基づいて、左右手識別又はショートカット操作を行う。圧力センサ913がディスプレイ905の下層に設けられる時、プロセッサ901は、ユーザによるディスプレイ905に対する加圧操作に基づいて、UIインタフェースにおける操作可能なコントロールの制御を実現させる。操作可能なコントロールは、ボタンコントロール、スクロールバーコントロール、アイコンコントロール、メニューコントロールのうちの少なくとも1つを含む。
指紋センサ914は、ユーザの指紋の収集に用いられる。プロセッサ901は、指紋センサ914により収集された指紋に基づいて、ユーザの身分認証を行う。又は、指紋センサ914は、収集された指紋に基づいて、ユーザの身分認証を行う。ユーザの身分が信頼できる身分であると判定した時、プロセッサ901は、該ユーザによる関連機密操作の実行を許可する。該機密操作は、スクリーンアンロック、暗号化情報の確認、ソフトウェアダウンロード、支払い及び設定変更などを含む。指紋センサ914は、端末900の正面、背面又は側面に設けられてもよい。端末900に物理的ボタン又はメーカーLogoが設けられた場合、指紋センサ914は、物理的ボタン又はメーカーLogoと一体化されてもよい。
光学センサ915は、環境光の強度の収集に用いられる。一実施例において、プロセッサ901は、光学センサ915により収集された環境光の強度に基づいて、ディスプレイ905の表示輝度を制御することができる。具体的には、環境光の強度が高い時、ディスプレイ905の表示輝度を高くする。環境光の強度が低い時、ディスプレイ905の表示輝度を低くする。別の実施例において、プロセッサ901は、光学センサ915により収集された環境光の強度に基づいて、カメラユニット906の撮影パラメータを動的に調整することもできる。
近接センサ916は、距離センサとも呼ばれ、一般的には、端末900のフロントパネルに設けられる。近接センサ916は、ユーザと端末900の正面との距離の収集に用いられる。一実施例において、近接センサ916は、ユーザと端末900の正面との距離が次第に小さくなることを検出した時、プロセッサ901により、ディスプレイ905をスクリーン点灯状態からスクリーン消灯状態に切り替えるように制御する。近接センサ916は、ユーザと端末900の正面との距離が次第に大きくなることを検出した時、プロセッサ901により、ディスプレイ905をスクリーン消灯状態からスクリーン点灯状態に切り替えるように制御する。
図9に示した構造は、端末900を限定するものではなく、図示したものより多く又は少ないユニットを含んでもよいし、幾つかのユニットを組み合わせてもよいし、様々なユニット配置を利用してもよいことは、当業者であれば理解されるべきである。
コンピュータ機器がサーバとして配置される時、図10は、本願の実施例によるサーバの構造を示す概略図である。該サーバ1000は、配置又は性能によって大きく相違してもよく、1つ又は1つ以上のプロセッサ(Central Processing Units:CPU)1001と1つ又は1つ以上のメモリ1002とを含んでもよく、ここで、該メモリ1002に少なくとも1つの命令が記憶されており、該少なくとも1つの命令は、該プロセッサ1001によってロードされて実行され、上記各方法の実施例による対話モデルの訓練方法又は対話返答生成方法を実現させる。無論、該サーバは、入力と出力を行うために、有線又は無線ネットワークインタフェース、キーボード及び入力出力インタフェースなどの部材を有してもよく、該サーバ1000は、機器の機能を実現させるための他の部材を更に含んでもよく、ここでは説明を省略する。
本願の実施例は、コンピュータ可読記憶媒体を提供する。該コンピュータ可読記憶媒体は、コンピュータ機器に用いられ、該コンピュータ可読記憶媒体に少なくとも1つのプログラムコードが記憶されており、該少なくとも1つのプログラムコードは、プロセッサによって実行されて本願の実施例における対話モデルの訓練方法を実現させるか又は対話返答生成方法におけるコンピュータ機器により実行される操作を実現させるように構成される。
上記実施例の全て又は一部のステップはハードウェアにより実行されてもよいし、プログラム命令に係るハードウェアにより実行されてもよく、前記プログラムは、コンピュータ可読記憶媒体に記憶されてもよく、上記言及した記憶媒体は、読み出し専用メモリ、磁気ディスク又は光ディスクなどであってもよいことは当業者であれば理解されるべきである。
以上は、本願の選択的な実施例に過ぎず、本願を限定するものではない。本願の精神や原則を逸脱することなく行われるあらゆる修正、同等置換、改良などはすべて本願の保護範囲内に含まれるものとする。
110 端末
120 サーバ
701 特徴取得モジュール
702 モデル更新モジュール
703 モデル取得モジュール
801 対話取得モジュール
802 特徴抽出モジュール
803 返答出力モジュール
804 返答展示モジュール
900 端末
901 プロセッサ
902 メモリ
903 外部機器インタフェース
904 無線周波数回路
905 ディスプレイ
906 カメラユニット
907 オーディオ回路
908 位置決めユニット
909 電源
910 センサ
911 加速度センサ
912 ジャイロセンサ
913 圧力センサ
914 指紋センサ
915 光学センサ
916 近接センサ
1000 サーバ
1001 プロセッサ
1002 メモリ

Claims (14)

  1. 対話モデルの訓練方法であって、
    対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するステップであって、前記先験的ネットワークは、対話特徴の確率分布を出力するためのものであり、前記事後的ネットワークは、前記先験的ネットワークから出力された対話特徴の確率分布を推定するためのものであり、前記第1対話特徴は、1つの対話における対話発話文と1つの対話返答の事後的特徴を表すためのものであり、前記第2対話特徴は、1つの対話における前記対話発話文と1つの対話返答の先験的特徴を表すためのものであり、前記第1対話は、1つの第1対話発話文と少なくとも2つの第1対話返答とを含む、ステップと、
    前記第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルを更新するステップと、
    前記第1対話の少なくとも2つの第1対話特徴に基づいて、前記事後的ネットワークを更新するステップと、
    第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルの判別器を更新するステップと、
    訓練終了条件を満たすことに応答して、訓練により得られたモデルを対話モデルとするステップと、を含むことを特徴とする、対話モデルの訓練方法。
  2. 対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するステップは、
    前記第1対話のいずれか1つの前記第1対話返答に対して、前記対話モデルのエンコーダによって、前記第1対話発話文と前記第1対話返答に対してそれぞれ符号化を行い、前記第1対話発話文の第1ベクトルと前記第1対話返答の第2ベクトルを得るステップと、
    前記第1対話の少なくとも2つの第1対話特徴を取得するステップであって、前記第1対話の前記第1対話特徴は、前記事後的ネットワークによって前記第1対話発話文の第1ベクトルと前記第1対話返答の第2ベクトルとを処理することで得られたものである、ステップと、
    前記第1対話の少なくとも2つの第2対話特徴を取得するステップであって、前記第1対話の前記第2対話特徴は、前記先験的ネットワークによって前記第1対話発話文の第1ベクトルと前記第1対話返答の属する返答種別とを処理することで得られたものである、ステップと、を含むことを特徴とする
    請求項1に記載の方法。
  3. 前記第1対話の少なくとも2つの第1対話特徴を取得するステップは、
    前記第1ベクトルと前記第2ベクトルを前記事後的ネットワークに入力し、第1パラメータ平均値と第1パラメータ分散を出力するステップと、
    前記第1パラメータ平均値、前記第1パラメータ分散及び第1サンプリング値に基づいて、第1対話特徴を取得するステップであって、前記第1サンプリング値は、標準正規分布からサンプリングを行うことで得られたものである、ステップと、を含むことを特徴とする
    請求項2に記載の方法。
  4. 前記第1対話の少なくとも2つの第2対話特徴を取得するステップは、
    前記第1ベクトルと前記第1対話返答の属する返答種別に基づいて、目標確率分布を決定するステップであって、前記目標確率分布は、前記先験的ネットワークから出力された確率分布のうちの前記返答種別に対応する確率分布である、ステップと、
    前記第1ベクトルを前記先験的ネットワークに入力し、第2パラメータ平均値と第2パラメータ分散を得るステップと、
    前記第2パラメータ平均値、前記第2パラメータ分散及び第2サンプリング値に基づいて、第2対話特徴を取得するステップであって、前記第2サンプリング値は、前記目標確率分布に対してサンプリングを行うことで得られたものである、ステップと、を含むことを特徴とする
    請求項2に記載の方法。
  5. 前記第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルを更新するステップは、
    前記第1対話のいずれか1つの前記第1対話返答に対して、前記第1対話返答に対応する第1対話特徴と第2対話特徴を取得するステップと、
    第1ベクトル、前記第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、判別器損失を取得するステップであって、前記第1ベクトルは、前記第1対話発話文を符号化することで得られたものである、ステップと、
    前記第1ベクトル、前記第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、再構築損失を取得するステップと、
    前記判別器損失に基づいて、前記対話モデルにおける事後的ネットワークと先験的ネットワークのパラメータを更新するステップと、
    前記再構築損失に基づいて、前記対話モデルにおけるエンコーダ、前記事後的ネットワーク、前記先験的ネットワーク及びデコーダのパラメータを更新するステップと、
    前記判別器損失に基づいて、前記対話モデルの判別器のパラメータを更新するステップと、を含むことを特徴とする
    請求項1に記載の方法。
  6. 第1ベクトル、前記第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、判別器損失を取得するステップは、
    前記対話モデルの判別器によって、前記第1対話発話文の第1ベクトル、前記第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、前記第1対話返答に対応する第1対話特徴と第2対話特徴との第1ワッサースタイン距離を取得し、前記第1ワッサースタイン距離を判別器損失とするステップを含むことを特徴とする
    請求項5に記載の方法。
  7. 第1ベクトル、前記第1対話返答に対応する第1対話特徴と第2対話特徴に基づいて、再構築損失を取得するステップは、
    前記対話モデルにおけるデコーダによって、前記第1対話特徴に対して復号を行い、目標対話特徴を取得するステップと、
    前記第1ベクトル、前記第1対話返答に対応する前記第1対話特徴と第2対話特徴、前記目標対話特徴に基づいて、再構築損失を取得するステップと、を含むことを特徴とする
    請求項5に記載の方法。
  8. 前記第1対話の少なくとも2つの第1対話特徴に基づいて、前記事後的ネットワークを更新するステップは、
    前記第1対話のいずれか1つの第1対話特徴に対して、前記少なくとも2つの第1対話特徴のうちの前記第1対話特徴以外の他の第1対話特徴の平均値を取得し、前記平均値を平均対話特徴とするステップと、
    前記第1対話特徴と前記平均対話特徴との第2ワッサースタイン距離を取得し、前記第2ワッサースタイン距離をセマンティック損失とするステップと、
    前記セマンティック損失に基づいて、前記事後的ネットワークのパラメータを更新するステップと、を含むことを特徴とする
    請求項1に記載の方法。
  9. 対話返答生成方法であって、
    対話発話文を取得するステップと、
    前記対話発話文を対話モデルに入力し、前記対話モデルにおける先験的ネットワークによって、複数の対話返答に対応する第2対話特徴から、1つの目標対話特徴をランダムに抽出するステップと、
    前記対話モデルにおけるデコーダによって、前記目標対話特徴に対して復号を行い、目標対話返答を出力するステップと、
    前記目標対話返答を展示するステップと、を含むことを特徴とする、対話返答生成方法。
  10. 対話モデルの訓練装置であって、
    対話モデルにおける先験的ネットワークと事後的ネットワークによって、第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴を取得するように構成される特徴取得モジュールであって、前記先験的ネットワークは、対話特徴の確率分布を出力するためのものであり、前記事後的ネットワークは、前記先験的ネットワークから出力された対話特徴の確率分布を推定するためのものであり、前記第1対話特徴は、1つの対話における対話発話文と1つの対話返答の事後的特徴を表すためのものであり、前記第2対話特徴は、1つの対話における前記対話発話文と1つの対話返答の先験的特徴を表すためのものであり、前記第1対話は、1つの第1対話発話文と少なくとも2つの第1対話返答とを含む、特徴取得モジュールと、
    前記第1対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルを更新するように構成されるモデル更新モジュールであって、
    前記モデル更新モジュールは更に、前記第1対話の少なくとも2つの第1対話特徴に基づいて、前記事後的ネットワークを更新するように構成され、
    前記モデル更新モジュールは更に、第2対話の少なくとも2つの第1対話特徴と少なくとも2つの第2対話特徴に基づいて、前記対話モデルの判別器を更新するように構成される、モデル更新モジュールと、
    訓練終了条件を満たすことに応答して、訓練により得られたモデルを対話モデルとするように構成されるモデル取得モジュールと、を備えることを特徴とする、対話モデルの訓練装置。
  11. 前記特徴取得モジュールは、前記第1対話のいずれか1つの前記第1対話返答に対して、前記対話モデルのエンコーダによって、前記第1対話発話文と前記第1対話返答に対してそれぞれ符号化を行い、前記第1対話発話文の第1ベクトルと前記第1対話返答の第2ベクトルを得て、
    前記第1対話の少なくとも2つの第1対話特徴を取得し、前記第1対話の前記第1対話特徴は、前記事後的ネットワークによって前記第1ベクトルと前記第2ベクトルを処理することで得られたものであり、
    前記第1対話の少なくとも2つの第2対話特徴を取得し、前記第1対話の前記第2対話特徴は、前記先験的ネットワークによって前記第1ベクトルと前記第1対話返答の属する返答種別を処理することで得られたものであるように構成されることを特徴とする
    請求項10に記載の装置。
  12. 対話返答生成装置であって、
    対話発話文を取得するように構成される対話取得モジュールと、
    前記対話発話文を対話モデルに入力し、前記対話モデルにおける先験的ネットワークによって、複数の対話返答に対応する第1対話特徴から、1つの目標対話特徴をランダムに抽出するように構成される特徴抽出モジュールと、
    前記対話モデルにおけるデコーダによって、前記目標対話特徴に対して復号を行い、目標対話返答を出力するように構成される返答出力モジュールと、
    前記目標対話返答を展示するように構成される返答展示モジュールと、を備えることを特徴とする、対話返答生成装置。
  13. コンピュータ機器であって、前記コンピュータ機器は、プロセッサと、メモリと、を備え、前記メモリは、少なくとも1つのプログラムコードを記憶するように構成され、前記少なくとも1つのプログラムコードは、前記プロセッサによりロードされ、請求項1~8に記載の対話モデルの訓練方法を実行し、又は、請求項9に記載の対話返答生成方法を実行することを特徴とする、コンピュータ機器。
  14. コンピュータに、請求項1~8のうちいずれか一項に記載の対話モデルの訓練方法を実行させるか又は請求項9に記載の対話返答生成方法を実行させる少なくとも1つのプログラムを記憶した、記憶媒体。
JP2022538829A 2020-05-25 2021-05-06 対話モデルの訓練方法、装置、コンピュータ機器及びプログラム Active JP7431977B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010450194.0 2020-05-25
CN202010450194.0A CN111680123B (zh) 2020-05-25 2020-05-25 对话模型的训练方法、装置、计算机设备及存储介质
PCT/CN2021/091954 WO2021238599A1 (zh) 2020-05-25 2021-05-06 对话模型的训练方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
JP2023508062A true JP2023508062A (ja) 2023-02-28
JP7431977B2 JP7431977B2 (ja) 2024-02-15

Family

ID=72434775

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022538829A Active JP7431977B2 (ja) 2020-05-25 2021-05-06 対話モデルの訓練方法、装置、コンピュータ機器及びプログラム

Country Status (4)

Country Link
US (1) US20220309088A1 (ja)
JP (1) JP7431977B2 (ja)
CN (1) CN111680123B (ja)
WO (1) WO2021238599A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680123B (zh) * 2020-05-25 2024-01-26 腾讯科技(深圳)有限公司 对话模型的训练方法、装置、计算机设备及存储介质
CN112702329B (zh) * 2020-12-21 2023-04-07 四川虹微技术有限公司 一种流量数据异常检测方法、装置和存储介质
CN113254597B (zh) * 2021-06-23 2021-09-28 腾讯科技(深圳)有限公司 模型训练方法、查询处理方法及相关设备
CN113569212B (zh) * 2021-07-30 2024-04-26 上海交通大学 基于自动编码器的击键动力学身份认证与识别方法及系统
CN117785964A (zh) * 2024-02-28 2024-03-29 宜宾市万事通网络信息服务有限公司 应用于网络服务的数据处理方法及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3454260A1 (en) 2017-09-11 2019-03-13 Tata Consultancy Services Limited Bilstm-siamese network based classifier for identifying target class of queries and providing responses thereof
US10303978B1 (en) * 2018-03-26 2019-05-28 Clinc, Inc. Systems and methods for intelligently curating machine learning training data and improving machine learning model performance
CN108897797A (zh) * 2018-06-12 2018-11-27 腾讯科技(深圳)有限公司 对话模型的更新训练方法、装置、存储介质及电子设备
KR102204979B1 (ko) 2018-08-24 2021-01-19 네이버 주식회사 딥러닝 생성모델과 다중모달 분포를 이용하여 멀티턴 대화 응답을 생성하는 방법 및 시스템
US11544524B2 (en) * 2018-09-28 2023-01-03 Samsung Electronics Co., Ltd. Electronic device and method of obtaining emotion information
CN110222164B (zh) * 2019-06-13 2022-11-29 腾讯科技(深圳)有限公司 一种问答模型训练方法、问题语句处理方法、装置及存储介质
CN110457457B (zh) * 2019-08-02 2023-09-22 腾讯科技(深圳)有限公司 对话生成模型的训练方法、对话生成方法及装置
CN111143509B (zh) * 2019-12-09 2023-06-30 天津大学 一种基于静态-动态注意力变分网络的对话生成方法
CN111680123B (zh) * 2020-05-25 2024-01-26 腾讯科技(深圳)有限公司 对话模型的训练方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
CN111680123B (zh) 2024-01-26
CN111680123A (zh) 2020-09-18
JP7431977B2 (ja) 2024-02-15
US20220309088A1 (en) 2022-09-29
WO2021238599A1 (zh) 2021-12-02

Similar Documents

Publication Publication Date Title
JP7431977B2 (ja) 対話モデルの訓練方法、装置、コンピュータ機器及びプログラム
US20220165288A1 (en) Audio signal processing method and apparatus, electronic device, and storage medium
US20220172737A1 (en) Speech signal processing method and speech separation method
CN110490213A (zh) 图像识别方法、装置及存储介质
CN112069309B (zh) 信息获取方法、装置、计算机设备及存储介质
CN110147533B (zh) 编码方法、装置、设备及存储介质
CN111985240A (zh) 命名实体识别模型的训练方法、命名实体识别方法及装置
CN110162604B (zh) 语句生成方法、装置、设备及存储介质
WO2020151685A1 (zh) 编码方法、装置、设备及存储介质
CN111368525A (zh) 信息搜索方法、装置、设备及存储介质
CN111324699A (zh) 语义匹配的方法、装置、电子设备及存储介质
CN111753498A (zh) 文本处理方法、装置、设备及存储介质
CN114281956A (zh) 文本处理方法、装置、计算机设备及存储介质
CN113822076A (zh) 文本生成方法、装置、计算机设备及存储介质
CN114282587A (zh) 数据处理方法、装置、计算机设备及存储介质
CN110990549B (zh) 获取答案的方法、装置、电子设备及存储介质
CN112988984B (zh) 特征获取方法、装置、计算机设备及存储介质
CN113486260B (zh) 互动信息的生成方法、装置、计算机设备及存储介质
CN113762585B (zh) 数据的处理方法、账号类型的识别方法及装置
CN114328815A (zh) 文本映射模型的处理方法、装置、计算机设备及存储介质
CN111310701B (zh) 手势识别方法、装置、设备及存储介质
CN111737415A (zh) 实体关系抽取方法、实体关系学习模型的获取方法及设备
CN113822084A (zh) 语句翻译方法、装置、计算机设备及存储介质
CN113761195A (zh) 文本分类方法、装置、计算机设备及计算机可读存储介质
CN112035649A (zh) 问答模型处理方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220622

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240202

R150 Certificate of patent or registration of utility model

Ref document number: 7431977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150