JP7426917B2 - ユーザ周辺のマルチモーダル情報に応じてユーザと対話するプログラム、装置及び方法 - Google Patents

ユーザ周辺のマルチモーダル情報に応じてユーザと対話するプログラム、装置及び方法 Download PDF

Info

Publication number
JP7426917B2
JP7426917B2 JP2020164490A JP2020164490A JP7426917B2 JP 7426917 B2 JP7426917 B2 JP 7426917B2 JP 2020164490 A JP2020164490 A JP 2020164490A JP 2020164490 A JP2020164490 A JP 2020164490A JP 7426917 B2 JP7426917 B2 JP 7426917B2
Authority
JP
Japan
Prior art keywords
video
feature vector
language
sentence
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020164490A
Other languages
English (en)
Other versions
JP2022056638A (ja
Inventor
博 楊
剣明 呉
元 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020164490A priority Critical patent/JP7426917B2/ja
Publication of JP2022056638A publication Critical patent/JP2022056638A/ja
Application granted granted Critical
Publication of JP7426917B2 publication Critical patent/JP7426917B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、ユーザと自然な対話を実現する対話エージェントの技術に関する。
ユーザとの対話システムとしては、テキストベースが一般的である。端末は、ユーザインタフェースとして機能し、ユーザの発話音声を対話システムへ送信する。対話システムは、その発話文に対して自然な対話となる応答文を推定し、その応答文を端末へ返信する。そして、端末は、その応答文を音声又はテキストによって、ユーザへ返答する。このような対話システムとしては、例えば「Siri(登録商標)」や「しゃべってコンシェル(登録商標)」がある。
これに対し、ユーザ周辺のマルチモーダル情報(動画、画像、そのキャプション、字幕、音声、自然言語テキストなど)に応じた対話システムが期待されている。この対話システムは、テキストベースのユーザの発話文のみならず、ユーザ周辺の様々なマルチモーダル情報に応じて、より自然な応答文を推定することができると考えられている。特に、テレビ番組に連動した対話や、映画の場面に応じた対話、オンラインビデオの場面に応じた対話など、ユーザにおける特有な周辺環境が想定されている。特に、AI(Artificial Intelligence)を用いた雑談対話システムによれば、マルチモーダル情報に応じて自然な応答文を返答することができ、ユーザの対話意欲を高めることが期待される。
従来、ユーザが視聴している映像の内容に基づいて、ユーザとロボットとが対話する対話システムの技術がある(例えば非特許文献1参照)。この技術によれば、音声付き映像及び字幕を入力することによって、ユーザの質問文に対して、当該ユーザが視聴している映像に応じた応答文を返答することができる。
また、音声付き映像及び字幕の特徴ベクトルを学習し、直前の質問文に対する応答文を生成する技術もある(例えば非特許文献2参照)。この技術によれば、対話システムは、訓練済みの学習モデルGPT-2(登録商標)を用いてファインチューニングをし、マルチモーダル情報に応じた応答文の対話精度を高めることができる。
Hung Le, Doyen Sahoo, Nancy F. Chen, Steven C.H. Hoi, "Multimodal Transformer Networks for End-to-End Video-Grounded Dialogue Systems"(2019)、[online]、[令和2年9月26日検索]、インターネット<URL:https://arxiv.org/abs/1907.01166> Hung Le, Steven C.H. Hoi, "Video-Grounded Dialogues with Pretrained Generation Language Models" (2020) 、[online]、[令和2年9月26日検索]、インターネット<URL:https://www.aclweb.org/anthology/2020.acl-main.518/> 「深層学習界の大前提Transformerの論文解説!」、[online]、[令和2年9月26日検索]、インターネット<URL:https://qiita.com/omiita/items/07e69aef6c156d23c538>
しかしながら、前述した非特許文献1及び2に記載の技術によれば、マルチモーダル情報を用いているものの、結局、ユーザの直前の発話文に対して、音声付き映像及び字幕に応じた応答文を生成しているに過ぎない。そのために、発話文と応答文以外のオープンドメインの話題に対して、例えば雑談のような自然な対話を生成することは難しい。これは、結局、ユーザの直前の質問文(発話文)に対する回答文(応答文)との関係に過ぎない。
そこで、本発明は、ユーザ周辺のマルチモーダル情報を用いて、ユーザと自然に対話することができるプログラム、装置及び方法を提供することを目的とする。
本発明によれば、ユーザ周辺のマルチモーダル情報に応じてユーザの発話文に対する応答文をコンピュータに生成させるためのプログラムにおいて、
教師データは、映像と、当該映像を視聴している人物同士の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
対象データは、映像と、当該映像を視聴しているユーザとの間の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
教師データ又は対象データを入力し、所定時間帯の映像及び対話文履歴を抽出するマルチモーダル情報抽出手段と、
マルチモーダル情報抽出手段から抽出された対話文履歴の発話文及び応答文の1文毎に、当該映像からサンプリング画像を抽出するサンプリング画像抽出手段と、
映像から分散表現生成アルゴリズムによって特徴ベクトルを生成する映像特徴ベクトル生成手段と、
サンプリング画像から分散表現生成アルゴリズムによって特徴ベクトルを生成する画像特徴ベクトル生成手段と、
発話文及び対話文履歴から分散表現生成アルゴリズムによって特徴ベクトルを生成する言語特徴ベクトル生成手段と、
映像の特徴ベクトルと、サンプリング画像の特徴ベクトルとを入力し、映像潜在ベクトルを出力する映像エンコーダと、
映像エンコーダから出力された映像潜在ベクトルを入力し、映像特徴ベクトルを出力する映像デコーダと、
発話文の特徴ベクトルと、所定時間帯における当該発話文を含む対話文履歴の特徴ベクトルとを入力し、言語潜在ベクトルを出力する言語エンコーダと、
言語エンコーダから出力された言語潜在ベクトルを入力し、言語特徴ベクトルを出力する言語デコーダと、
映像デコーダから出力された映像特徴ベクトルと、言語デコーダから出力された言語特徴ベクトルとを結合した結合ベクトルを出力する結合層と、
結合層から出力された結合ベクトルを入力し、当該結合ベクトルからsoftmax関数に基づく、対応する応答文の特徴ベクトルを算出して出力する回帰層と
してコンピュータを機能させ、
回帰層は、
訓練段階では、線形回帰に基づいて、教師データにおける発話文及び対話文履歴について結合層から出力された結合ベクトルから算出した応答文の特徴ベクトルと、教師データにおける発話文に対応する応答文の特徴ベクトルとの間の損失が最小となるように、映像エンコーダ、映像デコーダ、言語エンコーダ及び言語デコーダの内部パラメータを訓練し、
運用段階では、対象データにおける発話文及び対話文履歴について結合層から出力された結合ベクトルから算出した応答文の特徴ベクトルを出力する
ように機能させることを特徴とする。
本発明のプログラムにおける他の実施形態によれば、
映像エンコーダ及び映像デコーダと、言語エンコーダ及び言語デコーダとは、Transformerに基づくものである
ように機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
教師データにおける映像は、字幕付き映像である
ように機能させることも好ましい。
本発明によれば、ユーザ周辺のマルチモーダル情報に応じてユーザの発話文に対する応答文を生成するための対話装置において、
教師データは、映像と、当該映像を視聴している人物同士の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
対象データは、映像と、当該映像を視聴しているユーザとの間の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
教師データ又は対象データを入力し、所定時間帯の映像及び対話文履歴を抽出するマルチモーダル情報抽出手段と、
マルチモーダル情報抽出手段から抽出された対話文履歴の発話文及び応答文の1文毎に、当該映像からサンプリング画像を抽出するサンプリング画像抽出手段と、
映像から分散表現生成アルゴリズムによって特徴ベクトルを生成する映像特徴ベクトル生成手段と、
サンプリング画像から分散表現生成アルゴリズムによって特徴ベクトルを生成する画像特徴ベクトル生成手段と、
発話文及び対話文履歴から分散表現生成アルゴリズムによって特徴ベクトルを生成する言語特徴ベクトル生成手段と、
映像の特徴ベクトルと、サンプリング画像の特徴ベクトルとを入力し、映像潜在ベクトルを出力する映像エンコーダと、
映像エンコーダから出力された映像潜在ベクトルを入力し、映像特徴ベクトルを出力する映像デコーダと、
発話文の特徴ベクトルと、所定時間帯における当該発話文を含む対話文履歴の特徴ベクトルとを入力し、言語潜在ベクトルを出力する言語エンコーダと、
言語エンコーダから出力された言語潜在ベクトルを入力し、言語特徴ベクトルを出力する言語デコーダと、
映像デコーダから出力された映像特徴ベクトルと、言語デコーダから出力された言語特徴ベクトルとを結合した結合ベクトルを出力する結合層と、
結合層から出力された結合ベクトルを入力し、当該結合ベクトルからsoftmax関数に基づく、対応する応答文の特徴ベクトルを算出して出力する回帰層と
してコンピュータを機能させ、
回帰層は、
訓練段階では、線形回帰に基づいて、教師データにおける発話文及び対話文履歴について結合層から出力された結合ベクトルから算出した応答文の特徴ベクトルと、教師データにおける発話文に対応する応答文の特徴ベクトルとの間の損失が最小となるように、映像エンコーダ、映像デコーダ、言語エンコーダ及び言語デコーダの内部パラメータを訓練し、
運用段階では、対象データにおける発話文及び対話文履歴について結合層から出力された結合ベクトルから算出した応答文の特徴ベクトルを出力する
ことを特徴とする。
本発明によれば、ユーザ周辺のマルチモーダル情報に応じてユーザの発話文に対する応答文を生成する装置の対話方法において、
教師データは、映像と、当該映像を視聴している人物同士の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
対象データは、映像と、当該映像を視聴しているユーザとの間の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
装置は、
教師データ又は対象データを入力し、所定時間帯の映像及び対話文履歴を抽出する第1のステップと、
第1のステップから抽出された対話文履歴の発話文及び応答文の1文毎に、当該映像からサンプリング画像を抽出する第2のステップと、
映像から分散表現生成アルゴリズムによって特徴ベクトルを生成し、サンプリング画像から分散表現生成アルゴリズムによって特徴ベクトルを生成し、発話文及び対話文履歴から分散表現生成アルゴリズムによって特徴ベクトルを生成する第3のステップと、
映像エンコーダに、映像の特徴ベクトルと、サンプリング画像の特徴ベクトルとを入力し、映像潜在ベクトルを出力すると共に、映像デコーダに、映像エンコーダから出力された映像潜在ベクトルを入力し、映像特徴ベクトルを出力し、且つ、言語エンコーダに、発話文の特徴ベクトルと、所定時間帯における当該発話文を含む対話文履歴の特徴ベクトルとを入力し、言語潜在ベクトルを出力すると共に、言語デコーダに、言語エンコーダから出力された言語潜在ベクトルを入力し、言語特徴ベクトルを出力する第4のステップと、
映像デコーダから出力された映像特徴ベクトルと、言語デコーダから出力された言語特徴ベクトルとを結合した結合ベクトルを出力する第5のステップと、
第5のステップで出力された結合ベクトルを入力し、当該結合ベクトルからsoftmax関数に基づく、対応する応答文の特徴ベクトルを算出して出力する第6のステップと
を実行し、
第6のステップは、
訓練段階では、線形回帰に基づいて、教師データにおける発話文及び対話文履歴について第5のステップで出力された結合ベクトルから算出した応答文の特徴ベクトルと、教師データにおける発話文に対応する応答文の特徴ベクトルとの間の損失が最小となるように、映像エンコーダ、映像デコーダ、言語エンコーダ及び言語デコーダの内部パラメータを訓練し、
運用段階では、対象データにおける発話文及び対話文履歴について第5のステップで出力された結合ベクトルから算出した応答文の特徴ベクトルを出力する
ように実行することを特徴とする。
本発明のプログラム、装置及び方法によれば、ユーザ周辺のマルチモーダル情報を用いて、ユーザと自然に対話することができる。
訓練時に用いられる教師データを表す説明図である。 本発明の対話装置における訓練時の機能構成図である。 映像に対するマルチモーダル情報抽出部及びサンプリング画像抽出部の処理を表す説明図である。 対話文履歴に対するマルチモーダル情報抽出部の処理を表す説明図である。 本発明の対話装置における運用時の機能構成図である。 運用時に入力される対象データを表す説明図である。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。
本発明の対話装置1は、ユーザ周辺のマルチモーダル情報に応じてユーザと対話する。
対話装置1は、複数の機械学習エンジンを搭載しており、<訓練時>及び<運用時>に分けられる。また、対話装置1は、機械学習エンジンの訓練時に、<教師データ>によって学習モデルを構築する。
<教師データ>
図1は、訓練時に用いられる教師データを表す説明図である。
教師データは、「映像」と「対話文履歴」とからなるマルチモーダル情報である。映像は、2人の人物が一緒に視聴している共通認識となるメディアである。また、対話文履歴は、その映像を一緒に視聴している人物同士の「発話文及び応答文の組」を複数含む一連の対話文である。これらマルチモーダル情報を、教師データとして大量に収集しておく必要がある。勿論、同一映像に対して異なる人物同士の対話文履歴を収集することも好ましい。同一映像であっても、対話相手が異なれば様々な観点から多様な対話文を収集することができる。
図1によれば、ユーザA及びBが、映像と、その映像を視聴しながら対話した対話文履歴とからなるマルチモーダル情報を、教師データをして記録したものである。具体的は、映像は、「オレンジを切っている」ものであり、ユーザA及びBは以下のように対話している。
・・・・・・・・・・・・・・・・・・・・
ユーザA:オレンジの頭とお尻をとってるね
ユーザB:そうそう、次は皮ですね
ユーザA:慣れてきたら、一緒に剥いちゃって全然いいですけど、
まずはオレンジの皮を剥いて、白い皮まで
ユーザB:僕は皮を切ることが下手ですね
・・・・・・・・・・・・・・・・・・・・
<訓練時>
図2は、本発明の対話装置における訓練時の機能構成図である。
図2によれば、対話装置1は、教師データ蓄積部100に、過去に記録された大量のマルチモーダル情報を、教師データとして予め蓄積している。勿論、これら教師データは、対話装置1自らが記憶しておく必要はないが、訓練時に外部から入力する必要がある。
図2によれば、対話装置1は、「訓練時及び運用時の両方に共通した機能部」として、マルチモーダル情報抽出部101と、サンプリング画像抽出部120とを有する。
また、図2によれば、対話装置1は、「訓練時の機能部」として、映像特徴ベクトル生成部111と、画像特徴ベクトル生成部121と、言語特徴ベクトル生成部131と、映像エンコーダ141と、映像デコーダ142と、言語エンコーダ151と、言語デコーダ152と、結合層16と、回帰層17とを有する。
これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、対話装置の訓練方法としても理解できる。
[マルチモーダル情報抽出部101]
マルチモーダル情報抽出部101は、マルチモーダル情報に対して、以下のように、<映像の抽出機能>と<対話文履歴の抽出機能>とを有する。
<映像の抽出機能>
図3は、映像に対するマルチモーダル情報抽出部及びサンプリング画像抽出部の処理を表す説明図である。
図3によれば、マルチモーダル情報抽出部101は、教師データの映像に対して、所定時間帯(例えば5秒程度)に区分する。ここで、一連の映像の中で、一部が重畳するように連続的に区分されてもよいし、重畳しないように断片的に区分されるものであってもよい。
抽出された所定時間帯の映像は、映像特徴ベクトル生成部111とサンプリング画像抽出部120との両方へ出力される。
<対話文履歴の抽出機能>
図4は、対話文履歴に対するマルチモーダル情報抽出部の処理を表す説明図である。
図4によれば、マルチモーダル情報抽出部101は、教師データの対話文履歴に対して、前述した映像と同期した所定時間帯(例えば5秒程度)に区分する。図4によれば、具体的に以下の対話文履歴として区分される。
ユーザA:オレンジの頭とお尻をとってるね
ユーザB:そうそう、次は皮ですね
ユーザA:慣れてきたら、一緒に剥いちゃって全然いいですけど、
まずはオレンジの皮を剥いて、白い皮まで
ユーザB:僕は皮を切ることが下手ですね
そして、所定時間帯の対話文履歴は、言語特徴ベクトル生成部131へ出力される。
また、マルチモーダル情報抽出部101は、対話文履歴の中で、発話文及び応答文の組に区分したそれぞれを、言語特徴ベクトル生成部131へ出力する。
図4によれば、具体的に以下の発話文及び応答文の組がそれぞれ、言語特徴ベクトル生成部131へ出力される。
発話文 :慣れてきたら、一緒に剥いちゃって全然いいですけど、
まずはオレンジの皮を剥いて、白い皮まで
応答文 :僕は皮を切ることが下手ですね
[サンプリング画像抽出部120]
サンプリング画像抽出部120は、抽出された対話文履歴における発話文及び応答文の1文毎に、所定時間帯の映像からサンプリング画像を抽出する。
図3によれば、ユーザAの発話文「慣れてきたら、一緒に剥いちゃって全然いいですけど、まずはオレンジ皮を剥いて、白い皮まで」の1文に対して、その時点の映像の中の1枚のフレームとなるサンプリング画像が抽出される。
抽出されたサンプリング画像は、画像特徴ベクトル生成部121へ出力される。
[映像特徴ベクトル生成部111]
映像特徴ベクトル生成部111は、マルチモーダル情報抽出部101から所定時間帯の映像を入力し、その映像特徴ベクトルを映像エンコーダ141へ出力する。
映像特徴ベクトルは、具体的にはVideoBERT(登録商標)やVGD-GPT2(登録商標)のような分散表現生成(embedding)アルゴリズムを適用し、高次元ベクトルに置き換えたものである。
ここで、教師データの「映像」は、「字幕付き映像」であることも好ましい。
[画像特徴ベクトル生成部121]
画像特徴ベクトル生成部121は、サンプリング画像抽出部120からサンプリング画像を入力し、その画像特徴ベクトルを映像エンコーダ141へ出力する。
画像特徴ベクトルも、具体的にはVisualBERT(登録商標)のような分散表現生成アルゴリズムを適用し、高次元ベクトルに置き換えたものである。
[言語特徴ベクトル生成部131]
言語特徴ベクトル生成部131は、マルチモーダル情報抽出部101から、「対話文履歴」と「発話文」及び「応答文」の組とを入力し、それぞれの言語特徴ベクトルを言語エンコーダ151へ出力する。
言語特徴ベクトルも、具体的にはBERT(登録商標)やGPT-2(登録商標)のような分散表現生成アルゴリズムを適用し、高次元ベクトルに置き換えたものである。
[映像エンコーダ141]
映像エンコーダ141は、教師データにおける映像の特徴ベクトルとサンプリング画像の特徴ベクトルとを入力し、映像潜在ベクトルを出力する。
[映像デコーダ142]
映像デコーダ142は、映像エンコーダから出力された映像潜在ベクトルを入力し、映像特徴ベクトルを出力する。
[言語エンコーダ151]
言語エンコーダ151は、教師データにおける発話文の特徴ベクトルと、所定時間帯における当該発話文を含む対話文履歴の特徴ベクトルとを入力し、言語潜在ベクトルを出力する。
[言語デコーダ152]
言語デコーダ152は、言語エンコーダから出力された言語潜在ベクトルを入力し、言語特徴ベクトルを出力する。
[結合層16]
結合層16は、映像デコーダ142から出力された映像特徴ベクトルと、言語デコーダ152から出力された言語特徴ベクトルとを結合する。具体的には、映像の特徴ベクトルと画像の特徴ベクトルとの全てを、1つのノードに結合する。結合ベクトルは、回帰層17へ出力される。
本発明の結合層16は、映像特徴ベクトルと言語特徴ベクトルとによって、以下の2つのマッチングに基づく結合ベクトルを出力する。
(1)「所定時間帯の映像」と、「対話文履歴」とのマッチング
(2)「サンプリング画像」と、「発話文」とのマッチング
映像エンコーダ141と、映像デコーダ142と、言語エンコーダ151と、言語デコーダ152とは、Transformerに基づくものである(例えば非特許文献3参照)。前述したように、具体的にはBERT(Bidirectional Encoder Representations from Transformers)やGPT-2(Generative Pre-Training 2)を適用することができる。これらは、ラベル付けされていない映像特徴ベクトルと言語特徴ベクトルとをクロスモーダルに学習する。これは、時間的に同期した映像、画像、対話文履歴、発話文、応答文との関連付けを学習することを意味する。
BERTとは、Transformerアーキテクチャによる双方向学習のエンコード表現であり、Google(登録商標)の自然言語処理モデルである。映像や画像についてはVideoBERTやVisualBERTがある。BERTは、Seq2seqベースの事前学習モデルであり、ラベルが付与されていない特徴ベクトル(分散表現)をTransformerで処理して学習する。これは、連続する文章の中で、次に来る単語を単に予測するだけでなく、周りの文脈からからマスクされている単語を双方向で予測する。これによって、単語に対応する文脈情報を学習する。
尚、VideoBERTは、映像と字幕(テキスト)とを組み合わせてクロスモーダルに学習することもできる。そのために、教師データの映像として、「字幕付き映像」を用いることもできる。
また、GPT-2は、Open AIに基づくものであり、自然言語に代えてピクセルで学習することによって、前半の映像(又は一部の画像)のシーケンスから、人間が感覚的に考えるように、後半の映像(又は画像全体)を予測することができる。
[回帰層17]
回帰層17は、線形回帰に基づいて、結合層16の結合ベクトルからsoftmax関数に基づく応答文の特徴ベクトルと、発話文に対応する応答文の特徴ベクトルとの間の損失が最小となるように、映像エンコーダ141及び映像デコーダ142と言語エンコーダ151及び言語デコーダ152との内部パラメータを訓練する。
<運用時>
図5は、本発明の対話装置における運用時の機能構成図である。
図5によれば、対話装置1は、ユーザインタフェース機能となる端末2と通信する。端末2は、ユーザ周辺のマルチモーダル情報を取得可能なデバイスを搭載している。少なくとも、ユーザからの発話音声を収音可能なマイクと、ユーザが視聴中の映像を撮影可能なカメラ(又はテレビやディスプレイへの接続インタフェース)とを搭載する。このような端末2としては、例えば「SOTA(登録商標)」「ユニボー(登録商標)」のようなロボット(以下「端末」と称す)がある。また、マイク及びカメラ等を備えた「Google Home(登録商標)」や「Amazon Echo(登録商標)」のようなスマートスピーカであってもよい。
対話装置1の通信インタフェース102は、端末2から「映像」「発話音声」を受信すると共に、端末2へ「応答音声」を送信する。ここで、通信インタフェース102は、ユーザの発話音声の音声認識機能、及び、ユーザへの応答文の音声合成機能を有する。音声認識機能は、端末2のマイクによって取得されたユーザの発話音声を、テキストベースの発話文に変換する。音声合成機能は、生成された応答文を、音声信号に変換する。これら発話文及び応答文の組の履歴が、対話文履歴となる。
尚、音声認識機能及び音声合成機能は、端末2に搭載されるものであってもよい。その場合、端末2からテキストベースの「発話文」を受信すると共に、端末2へ「応答文」を送信する。
図5の機能構成は、図2の訓練時の機能構成と異なって、言語変換部18を更に有する。言語変換部18は、前述した言語特徴ベクトル生成部131と逆の機能であって、回帰層17から出力された応答文の特徴ベクトルを、応答文のテキストに変換する。変換された応答文は、通信インタフェース102を介して端末2へ送信される。
即ち、前述した図2における訓練段階では、教師データについて処理されるのに対し、図5における運用段階では、通信インタフェース102によってリアルタイムに受信した対象データについて処理される。
図6は、運用時に入力される対象データを表す説明図である。
図6によれば、対話装置1の対話エージェントのキャラクタXと、ユーザYとが対話している。このとき、ユーザYが視聴している映像を取得すると共に、ユーザYとキャラクタXとの間の対話文履歴も記録されている。
マルチモーダル情報抽出部101によって抽出された対象データの所定時間帯の映像は、映像特徴ベクトル生成部111へ入力される。また、その対象データの所定時間帯の映像から、サンプリング画像抽出部120によって抽出されたサンプリング画像は、画像特徴ベクトル生成部121へ入力される。更に、対象データの対話文履歴と、対話文履歴に含まれるユーザYの最後の発話文とが、言語特徴ベクトル生成部131へ入力される。
図6によれば、対象データとして、具体的に以下の対話文履歴が入力されている。
ユーザY:オレンジを切りますね。
ユーザX:皮も剥いてください。
ユーザY:どこまで剥けばいいですかね。
また、ユーザYの最後の発話文も、特定される。
ユーザY:どこまで剥けばいいですかね。
運用段階では、映像エンコーダ141は、対象データにおける映像特徴ベクトルとサンプリング画像の画像特徴ベクトルとを入力する。また、言語エンコーダ151は、対象データにおける発話文の特徴ベクトルと、所定時間帯における当該発話文を含む対話文履歴の特徴ベクトルとを入力する。
そして、回帰層17は、応答文の特徴ベクトルを出力する。その特徴ベクトルは、言語変換部18によってテキストベースの応答文に変換される。
最終的に、ユーザから見て、その応答文はキャラクタXの応答音声としてスピーカから出される。
ユーザX:白い皮まで剥いてください。
以上、詳細に説明したように、本発明の対話プログラム、装置及び方法によれば、ユーザ周辺のマルチモーダル情報を用いて、ユーザと自然に対話することができる。これによって、ユーザから見て雑談のように対話することができ、ユーザの対話意欲を高めることができる。
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 対話装置
100 教師データ蓄積部
101 マルチモーダル情報抽出部
102 通信インタフェース
111 映像特徴ベクトル生成部
120 サンプリング画像抽出部
121 画像特徴ベクトル生成部
131 言語特徴ベクトル生成部
141 映像エンコーダ
142 映像デコーダ
151 言語エンコーダ
152 言語デコーダ
16 結合層
17 回帰層
18 言語変換部
2 端末

Claims (5)

  1. ユーザ周辺のマルチモーダル情報に応じてユーザの発話文に対する応答文をコンピュータに生成させるためのプログラムにおいて、
    教師データは、映像と、当該映像を視聴している人物同士の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
    対象データは、映像と、当該映像を視聴しているユーザとの間の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
    教師データ又は対象データを入力し、所定時間帯の映像及び対話文履歴を抽出するマルチモーダル情報抽出手段と、
    マルチモーダル情報抽出手段から抽出された対話文履歴の発話文及び応答文の1文毎に、当該映像からサンプリング画像を抽出するサンプリング画像抽出手段と、
    映像から分散表現生成アルゴリズムによって特徴ベクトルを生成する映像特徴ベクトル生成手段と、
    サンプリング画像から分散表現生成アルゴリズムによって特徴ベクトルを生成する画像特徴ベクトル生成手段と、
    発話文及び対話文履歴から分散表現生成アルゴリズムによって特徴ベクトルを生成する言語特徴ベクトル生成手段と、
    映像の特徴ベクトルと、サンプリング画像の特徴ベクトルとを入力し、映像潜在ベクトルを出力する映像エンコーダと、
    映像エンコーダから出力された映像潜在ベクトルを入力し、映像特徴ベクトルを出力する映像デコーダと、
    発話文の特徴ベクトルと、所定時間帯における当該発話文を含む対話文履歴の特徴ベクトルとを入力し、言語潜在ベクトルを出力する言語エンコーダと、
    言語エンコーダから出力された言語潜在ベクトルを入力し、言語特徴ベクトルを出力する言語デコーダと、
    映像デコーダから出力された映像特徴ベクトルと、言語デコーダから出力された言語特徴ベクトルとを結合した結合ベクトルを出力する結合層と、
    結合層から出力された結合ベクトルを入力し、当該結合ベクトルからsoftmax関数に基づく、対応する応答文の特徴ベクトルを算出して出力する回帰層と
    してコンピュータを機能させ、
    回帰層は、
    訓練段階では、線形回帰に基づいて、教師データにおける発話文及び対話文履歴について結合層から出力された結合ベクトルから算出した応答文の特徴ベクトルと、教師データにおける発話文に対応する応答文の特徴ベクトルとの間の損失が最小となるように、映像エンコーダ、映像デコーダ、言語エンコーダ及び言語デコーダの内部パラメータを訓練し、
    運用段階では、対象データにおける発話文及び対話文履歴について結合層から出力された結合ベクトルから算出した応答文の特徴ベクトルを出力する
    ように機能させることを特徴とするプログラム。
  2. 映像エンコーダ及び映像デコーダと、言語エンコーダ及び言語デコーダとは、Transformerに基づくものである
    ように機能させることを特徴とする請求項1に記載のプログラム。
  3. 教師データにおける映像は、字幕付き映像である
    ように機能させることを特徴とする請求項1又は2に記載のプログラム。
  4. ユーザ周辺のマルチモーダル情報に応じてユーザの発話文に対する応答文を生成するための対話装置において、
    教師データは、映像と、当該映像を視聴している人物同士の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
    対象データは、映像と、当該映像を視聴しているユーザとの間の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
    教師データ又は対象データを入力し、所定時間帯の映像及び対話文履歴を抽出するマルチモーダル情報抽出手段と、
    マルチモーダル情報抽出手段から抽出された対話文履歴の発話文及び応答文の1文毎に、当該映像からサンプリング画像を抽出するサンプリング画像抽出手段と、
    映像から分散表現生成アルゴリズムによって特徴ベクトルを生成する映像特徴ベクトル生成手段と、
    サンプリング画像から分散表現生成アルゴリズムによって特徴ベクトルを生成する画像特徴ベクトル生成手段と、
    発話文及び対話文履歴から分散表現生成アルゴリズムによって特徴ベクトルを生成する言語特徴ベクトル生成手段と、
    映像の特徴ベクトルと、サンプリング画像の特徴ベクトルとを入力し、映像潜在ベクトルを出力する映像エンコーダと、
    映像エンコーダから出力された映像潜在ベクトルを入力し、映像特徴ベクトルを出力する映像デコーダと、
    発話文の特徴ベクトルと、所定時間帯における当該発話文を含む対話文履歴の特徴ベクトルとを入力し、言語潜在ベクトルを出力する言語エンコーダと、
    言語エンコーダから出力された言語潜在ベクトルを入力し、言語特徴ベクトルを出力する言語デコーダと、
    映像デコーダから出力された映像特徴ベクトルと、言語デコーダから出力された言語特徴ベクトルとを結合した結合ベクトルを出力する結合層と、
    結合層から出力された結合ベクトルを入力し、当該結合ベクトルからsoftmax関数に基づく、対応する応答文の特徴ベクトルを算出して出力する回帰層と
    してコンピュータを機能させ、
    回帰層は、
    訓練段階では、線形回帰に基づいて、教師データにおける発話文及び対話文履歴について結合層から出力された結合ベクトルから算出した応答文の特徴ベクトルと、教師データにおける発話文に対応する応答文の特徴ベクトルとの間の損失が最小となるように、映像エンコーダ、映像デコーダ、言語エンコーダ及び言語デコーダの内部パラメータを訓練し、
    運用段階では、対象データにおける発話文及び対話文履歴について結合層から出力された結合ベクトルから算出した応答文の特徴ベクトルを出力する
    ことを特徴とする対話装置。
  5. ユーザ周辺のマルチモーダル情報に応じてユーザの発話文に対する応答文を生成する装置の対話方法において、
    教師データは、映像と、当該映像を視聴している人物同士の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
    対象データは、映像と、当該映像を視聴しているユーザとの間の発話文及び応答文の組を複数含む一連の対話文履歴とからなり、
    装置は、
    教師データ又は対象データを入力し、所定時間帯の映像及び対話文履歴を抽出する第1のステップと、
    第1のステップから抽出された対話文履歴の発話文及び応答文の1文毎に、当該映像からサンプリング画像を抽出する第2のステップと、
    映像から分散表現生成アルゴリズムによって特徴ベクトルを生成し、サンプリング画像から分散表現生成アルゴリズムによって特徴ベクトルを生成し、発話文及び対話文履歴から分散表現生成アルゴリズムによって特徴ベクトルを生成する第3のステップと、
    映像エンコーダに、映像の特徴ベクトルと、サンプリング画像の特徴ベクトルとを入力し、映像潜在ベクトルを出力すると共に、映像デコーダに、映像エンコーダから出力された映像潜在ベクトルを入力し、映像特徴ベクトルを出力し、且つ、言語エンコーダに、発話文の特徴ベクトルと、所定時間帯における当該発話文を含む対話文履歴の特徴ベクトルとを入力し、言語潜在ベクトルを出力すると共に、言語デコーダに、言語エンコーダから出力された言語潜在ベクトルを入力し、言語特徴ベクトルを出力する第4のステップと、
    映像デコーダから出力された映像特徴ベクトルと、言語デコーダから出力された言語特徴ベクトルとを結合した結合ベクトルを出力する第5のステップと、
    第5のステップで出力された結合ベクトルを入力し、当該結合ベクトルからsoftmax関数に基づく、対応する応答文の特徴ベクトルを算出して出力する第6のステップと
    を実行し、
    第6のステップは、
    訓練段階では、線形回帰に基づいて、教師データにおける発話文及び対話文履歴について第5のステップで出力された結合ベクトルから算出した応答文の特徴ベクトルと、教師データにおける発話文に対応する応答文の特徴ベクトルとの間の損失が最小となるように、映像エンコーダ、映像デコーダ、言語エンコーダ及び言語デコーダの内部パラメータを訓練し、
    運用段階では、対象データにおける発話文及び対話文履歴について第5のステップで出力された結合ベクトルから算出した応答文の特徴ベクトルを出力する
    ように実行することを特徴とする装置の対話方法。
JP2020164490A 2020-09-30 2020-09-30 ユーザ周辺のマルチモーダル情報に応じてユーザと対話するプログラム、装置及び方法 Active JP7426917B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020164490A JP7426917B2 (ja) 2020-09-30 2020-09-30 ユーザ周辺のマルチモーダル情報に応じてユーザと対話するプログラム、装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020164490A JP7426917B2 (ja) 2020-09-30 2020-09-30 ユーザ周辺のマルチモーダル情報に応じてユーザと対話するプログラム、装置及び方法

Publications (2)

Publication Number Publication Date
JP2022056638A JP2022056638A (ja) 2022-04-11
JP7426917B2 true JP7426917B2 (ja) 2024-02-02

Family

ID=81110876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020164490A Active JP7426917B2 (ja) 2020-09-30 2020-09-30 ユーザ周辺のマルチモーダル情報に応じてユーザと対話するプログラム、装置及び方法

Country Status (1)

Country Link
JP (1) JP7426917B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116229955B (zh) * 2023-05-09 2023-08-18 海尔优家智能科技(北京)有限公司 基于生成式预训练gpt模型的交互意图信息确定方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094212A1 (ja) 2015-11-30 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018190077A (ja) 2017-04-28 2018-11-29 日本放送協会 発話生成装置、発話生成方法及び発話生成プログラム
JP2019045978A (ja) 2017-08-30 2019-03-22 国立大学法人 奈良先端科学技術大学院大学 対話制御装置、学習装置、対話制御方法、学習方法、制御プログラム、および、記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094212A1 (ja) 2015-11-30 2017-06-08 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018190077A (ja) 2017-04-28 2018-11-29 日本放送協会 発話生成装置、発話生成方法及び発話生成プログラム
JP2019045978A (ja) 2017-08-30 2019-03-22 国立大学法人 奈良先端科学技術大学院大学 対話制御装置、学習装置、対話制御方法、学習方法、制御プログラム、および、記録媒体

Also Published As

Publication number Publication date
JP2022056638A (ja) 2022-04-11

Similar Documents

Publication Publication Date Title
CN106469212B (zh) 基于人工智能的人机交互方法和装置
Khare et al. Self-supervised learning with cross-modal transformers for emotion recognition
CN111128126A (zh) 多语种智能语音对话的方法及系统
Tarek et al. Towards highly adaptive edu-chatbot
CN115329779A (zh) 一种多人对话情感识别方法
CN112420050B (zh) 一种语音识别方法、装置和电子设备
KR20240068704A (ko) 준지도 스피치 인식을 위한 대조 샴 네트워크
Scotti et al. A modular data-driven architecture for empathetic conversational agents
CN114882861A (zh) 语音生成方法、装置、设备、介质及产品
JP7426917B2 (ja) ユーザ周辺のマルチモーダル情報に応じてユーザと対話するプログラム、装置及び方法
Tanberk et al. Deep learning for videoconferencing: A brief examination of speech to text and speech synthesis
CN113393841A (zh) 语音识别模型的训练方法、装置、设备及存储介质
CN117150338A (zh) 任务处理、自动问答以及多媒体数据识别模型训练方法
WO2023219752A1 (en) Face-translator: end-to-end system for speech-translated lip-synchronized and voice preserving video generation
KR20230151157A (ko) 인공지능 신경망 학습 기반 tts 및 stf 기술을 이용한 아바타 스피치 서비스 제공 장치의 동작 방법
Liu et al. Speech-gesture GAN: gesture generation for robots and embodied agents
Kumar et al. Towards robust speech recognition model using Deep Learning
JP7426919B2 (ja) 画像から因果関係語を推定するプログラム、装置及び方法
Errattahi et al. Recent advances in LVCSR: a benchmark comparison of performances
KR20190111642A (ko) 실제 사진의 픽셀 기반의 토킹 헤드 애니메이션을 이용한 영상 처리 시스템 및 방법
KR102550750B1 (ko) 수어 인식 방법
JP7352491B2 (ja) ユーザ周辺データに応じて雑談のような対話を進行させる対話装置、プログラム及び方法
KR102370993B1 (ko) 신경망 기반의 실시간 수어 통역 및 대화를 지원하는 인공지능 시스템
Chettiar et al. Impersonated Human Speech Chatbot with Adaptive Frequency Spectrum
Jokinen et al. Learning co-occurrence of laughter and topics in conversational interactions

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240123

R150 Certificate of patent or registration of utility model

Ref document number: 7426917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150