JP2018049132A - 音声対話システムおよび音声対話方法 - Google Patents

音声対話システムおよび音声対話方法 Download PDF

Info

Publication number
JP2018049132A
JP2018049132A JP2016184128A JP2016184128A JP2018049132A JP 2018049132 A JP2018049132 A JP 2018049132A JP 2016184128 A JP2016184128 A JP 2016184128A JP 2016184128 A JP2016184128 A JP 2016184128A JP 2018049132 A JP2018049132 A JP 2018049132A
Authority
JP
Japan
Prior art keywords
user
utterance
mood
voice
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016184128A
Other languages
English (en)
Inventor
純一 伊藤
Junichi Ito
純一 伊藤
池野 篤司
Tokuji Ikeno
篤司 池野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016184128A priority Critical patent/JP2018049132A/ja
Publication of JP2018049132A publication Critical patent/JP2018049132A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ユーザがシステム発話に応答しない場合に注意を引くように繰り返し発話を行う音声対話システムにおいて、ユーザに過度な不快感を与えることを防止する。【解決手段】発話文を生成する発話文生成手段と、前記発話文を出力する音声出力手段と、ユーザからの音声を入力する音声入力手段と、前記ユーザの機嫌を検出する機嫌検出手段と、を備え、ユーザに話しかける発話文の出力の後に前記ユーザが応答しない場合に、当該発話文と同じ内容をより強い口調で出力する繰り返し発話を出力するものであり、ユーザに話しかける発話文の出力の後に前記ユーザが応答せず、かつ、ユーザの機嫌が悪化した場合には、ユーザの機嫌が悪化していない場合と比較して、繰り返し発話を抑制する。【選択図】図3

Description

本発明は、音声対話システムに関する。
ユーザとの音声対話を行うシステムにおいて、システムからの問いかけに対してユーザが反応しない場合に、ユーザの注意を引くようにして同じ内容の発話を繰り返すことが行われている。例えば、特許文献1は、前回の発話に対して、イントネーション、発話スピード、言葉の区切り方、省略形、声色の少なくともいずれかを変えて発話を繰り返すことを提案する。
特開2004−46400号公報
システムが繰り返し発話をしてもユーザが応答しない場合には、さらに発話を繰り返すことが考えられる。しかしながら、単純に繰り返し発話を継続すると、ユーザに不快感を与えてしまうことがあり得る。
本発明は、ユーザがシステム発話に応答しない場合に注意を引くように繰り返し発話を行う音声対話システムにおいて、ユーザに過度な不快感を与えることを防止することを目的とする。
本発明の第一の態様は、
発話文を生成する発話文生成手段と、
前記発話文を出力する音声出力手段と、
ユーザからの音声を入力する音声入力手段と、
前記ユーザの機嫌を検出する機嫌検出手段と、
を備え、
ユーザに話しかける発話文の出力の後に前記ユーザが応答しない場合に、当該発話文と同じ内容をより強い口調で出力する繰り返し発話を出力するものであり、
ユーザに話しかける発話文の出力の後に前記ユーザが応答せず、かつ、前記ユーザの機嫌が悪化した場合には、前記ユーザの機嫌が悪化していない場合と比較して、繰り返し発話を抑制する、
ことを特徴とする音声対話システムである。
本発明において、繰り返し発話とは、先の発話と同じ内容をユーザに伝達するための発話を意味する。ただし、先の発話と完全に同じ内容を含んでいる必要はなく、先の発話の少なくとも一部の内容を含んでいればよい。また、先の発話と繰り返し発話は少なくとも一部の内容が実質的に同じであればよく、その具体的な表現態様は異なっていてもよい。
また、本発明において、繰り返し発話は、先の発話と比較してより強い口調で出力される。ここで、「先の発話と比較して繰り返し発話の口調が強い」ということは、繰り返し発話の内容や表現あるいはイントネーションや発話スピード、発話音量、声色が先の発話と異なり、ユーザの注意をより強く引くと想定または期待されることを意味する。
また、本発明において、「繰り返し発話を抑制する」とは、繰り返し発話によるユーザの注意喚起効果を低くすることを意味する。典型的には、繰り返し発話を一時的または完全に停止することや、繰り返し発話を行うまでの期間を長くすること、口調の強さの変化をより少なくすることが、「繰り返し発話の抑制」に該当する。
本発明において機嫌検出手段によるユーザの機嫌の変化を検出は、前記ユーザの顔を撮影した画像に基づいて検出される前記発話文の出力前後における前記ユーザの表情の変化に基づいて行うことができる。機嫌検出手段は、前記音声入力手段から得られる前記ユーザからの音声も考慮して前記ユーザの機嫌の変化を検出することも好ましい。ただし、本発明においてはユーザが音声によって応答しないことが想定されるので、音声に基づくユーザの機嫌を履歴として保持しておき、当該履歴を用いて機嫌変化の検出に用いるとよい。
なお、本発明は、上記手段の少なくとも一部を備える音声対話システムとして捉えることもできる。本発明はまた、音声対話システムを構成する音声対話装置あるいは対話サーバとして捉えることもできる。本発明は、また、上記処理の少なくとも一部を実行する音声対話方法として捉えることができる。また、本発明は、この方法をコンピュータに実行させるためのコンピュータプログラム、あるいはこのコンピュータプログラムを非一時的に記憶したコンピュータ可読記憶媒体として捉えることもできる。上記手段および処理の各々は可能な限り互いに組み合わせて本発明を構成することができる。
例えば、本発明の一態様は、音声対話システムが行う音声対話方法であって、
第1の発話文を生成および出力する発話ステップと、
前記第1の発話文の出力の後に前記ユーザが応答しない場合に、当該第1の発話文と同じ内容であり、かつ、より強い口調の第2の発話文を生成および出力する繰り返し発話ステップと、
前記ユーザの機嫌を検出する機嫌検出ステップと、
を含み、
前記第1の発話文の出力の後に前記ユーザが応答せず、かつ、ユーザの機嫌が悪化した場合には、ユーザの機嫌が悪化していない場合と比較して、繰り返し発話を抑制する、
ことを特徴とする音声対話方法である。
本発明によれば、ユーザがシステム発話に応答しない場合に注意を引くように繰り返し発話を行う音声対話システムにおいて、ユーザに過度な不快感を与えることを防止できる。
図1は、実施形態に係る音声対話システムの構成を示す図である。 図2は、実施形態に係る音声対話システムを構成する対話サーバの機能構成を示す図である。 図3は、実施形態に係る音声対話システムにおける処理の流れの例を示す図である。 図4は、実施形態における催促文データベースを説明する図である。
以下に図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。以下で説明される実施形態は、音声対話ロボットをフロントエンド装置とし、スマートフォンや各種のサーバが連携することで実現するし音声対話システムであるが、システムをどの
ような装置から構成するかは適宜変更可能である。
<システム構成>
図1は、本実施形態に係る音声対話システムの構成を示す図である。本実施形態に係る音声対話システムは、音声対話ロボット(フロントエンド装置)100、スマートフォン200、音声認識サーバ300、対話サーバ400、表情検出サーバ500から構成される。
音声対話ロボット100は、マイク、スピーカー、カメラおよびマイクロプロセッサなどの演算装置、メモリ、通信装置などを含むコンピュータである。音声対話ロボット100は、マイクから取得した音声データやカメラから取得した画像データをスマートフォン200に送信すると共に、スマートフォン200から送信される音声出力命令にしたがって音声をスピーカーから出力する。音声対話ロボット100は、可動関節部や移動手段などを備えていて、スマートフォン200から命令にしたがってこれらを制御してもよい。
スマートフォン200は、マイクロプロセッサなどの演算装置、メモリ、通信装置などを含む電話通話機能を有するコンピュータである。スマートフォン200は、音声対話ロボット100と、音声認識サーバ300、対話サーバ400、表情検出サーバ500とののあいだの処理を制御する。スマートフォン200は、音声対話ロボット100からユーザから入力される音声データを取得し、音声認識サーバ300に送って音声認識結果を取得する。また、スマートフォン200は、音声対話ロボット100からユーザの顔を写した画像データを取得し、表情検出サーバ500に送って表情検出結果を取得する。また、スマートフォン200は、ユーザ発話の音声認識結果およびユーザの表情検出結果を対話サーバ400へ送り、ユーザに対して応答するための応答文を取得する。スマートフォン200は、対話サーバ400から得られた応答文を音声対話ロボット100出力するための命令を生成して、音声対話ロボット100に送信する。
なお、ロボットおよび各サーバ間のデータがスマートフォン200を経由してやりとりされる例を示しているが、音声認識結果が音声認識サーバ300から対話サーバ400に直接送られたり、表情検出結果が表情検出サーバ500から対話サーバ400に直接送られたりしてもよい。
音声認識サーバ300は、マイクロプロセッサなどの演算装置、メモリ、通信装置などを含むコンピュータであり、音声認識部を備える。音声認識サーバ300は、豊富な資源(高速な演算部や、大容量の語彙辞書など)を有しており、高精度な音声認識が可能である。音声認識サーバ300は、音声認識の結果をスマートフォン200へ送信する。なお、音声認識は公知な技術のため詳しい説明は省略する。
表情検出サーバ500は、マイクロプロセッサなどの演算装置、メモリ、通信装置などを含むコンピュータであり、表情検出部を備える。表情検出部は、音声対話ロボット100が撮影した画像からユーザの顔を抽出して、その表情の変化を検出(認識)する。表情検出サーバ500は、検出した表情をスマートフォン200へ送信する。
表情の検出には、統計的学習ベースの手法やルールベースの手法など既存の技術が利用できる。顔検出および表情検出は公知な技術のため詳しい説明は省略する。
対話サーバ400は、マイクロプロセッサなどの演算装置、メモリ、通信装置などを含むコンピュータであり、対話生成機能を備える。対話サーバ400は、ユーザの発話の内容や表情(感情)の変化などに基づいてユーザに話しかける発話内容を決定して、スマートフォン200へ送信する。本実施形態では、システムからの発話にユーザが反応しない
場合に口調を強めて繰り返し発話を行う。
図2を参照して、対話サーバ400をより詳細に説明する。対話サーバ400は、会話データベース(DB)401、催促文データベース402、話しかけ文選択部403、発話メッセージ作成部404、再発話タイマー405、会話応答検出部406、機嫌検出部407として機能する。以下、各機能部の詳細については、図3のフローチャートを用いた処理説明において行う。
図3は、音声対話システムからユーザに対して話しかける際の処理を示すフローチャートである。システムからユーザに話しかけるというのは、システムが会話を開始する場合だけでなく、ユーザからの発話に対してシステムが応答する場合も含む。
ステップS11において、話しかけ文選択部403は会話データベース401を参照して、適切な会話文を選択する選択処理を実行する。会話データベース401には、話題や状況に応じた複数の会話シナリオが格納されており、話しかけ文選択部403が適切なものを選択する。この選択の際に、話しかけ文選択部403は、ユーザの発話内容(音声認識結果)やユーザの置かれている状況、ユーザの個人情報(属性や嗜好など)を考慮することができる。
ステップS12において、発話メッセージ作成部404は、話しかけ文選択部403が選択した会話文に基づいて、応答文のテキスト(音声対話ロボットに発話させる文章)を作成する。発話メッセージ作成部404は、話しかけ文選択部403が選択した会話文に対して、適当なつなぎ言葉(文頭におかれる簡易的な応答や相づちなど)を付け加えたり、語尾(文末)を変えたりして応答文のテキストを生成する。発話メッセージ作成部404は、生成した応答文テキストを出力する際のイントネーションや発話スピードなどを決定してもよい。
ステップS13において、発話メッセージ作成部404は、作成した応答文テキストをスマートフォン200に送信し、スマートフォン200が応答文テキストを出力するように音声対話ロボット100に命令する。これにより、対話サーバ400が作成した発話が音声対話ロボット100からユーザに向けて話しかけられる。なお、ここまでの時点で催促レベル(後述)は初期値0に設定される。
ステップS14において、再発話タイマー405が、音声対話ロボット100が発話を開始したタイミングで再発話タイマーを起動させる。再発話タイマーは、起動から所定の時間が経過すると再発話トリガーイベントを発する。
ステップS15において、会話応答検出部406は、音声対話ロボット100からの発話に対するユーザの応答の有無を検出する。会話応答検出部406は、スマートフォン200から送信される音声認識処理結果に基づいてユーザがロボットからの発話に対して応答したか否かを判断する。より簡単には、会話応答検出部406は、スマートフォン200から送信される音声入力の有無に基づいて、ユーザが応答したか否かを判断してもよい。ユーザからの応答が無い場合にはステップS16に進み、応答が検出された場合はステップS20に進む。
ステップS15においてユーザからの応答が無いと判断された場合(S15−NO)、ステップS16において、機嫌検出部407が、ユーザの機嫌が悪化したか否かを判断する。機嫌検出部407は、基本的に、ユーザの表情の変化(表情検出サーバ500の処理結果)に基づいて、ユーザの機嫌の悪化を判断する。
機嫌検出部407は、ユーザの音声(発話の内容や、発話音量やトーンなどの音声特徴量)などを考慮してユーザの機嫌の悪化を判断することも好ましい。ただし、ステップS16での判断はユーザの応答が無い場合の処理であるから、対話サーバ400は直近のユーザの発話音声に基づく機嫌検出の結果を履歴として保持しておき、この履歴と表情に基づく判断結果とを総合してユーザの機嫌検出を行う。
ステップS16においてユーザの機嫌が悪化していないと判断された場合はステップS17に進み、悪化していると判断された場合はステップS20に進む。
ユーザの応答が無く(S15−NO)かつユーザの機嫌が悪化していない場合(S16−NO)は、ステップS17において再発話タイマーがトリガされたか否かを判断する。すなわち、システムからユーザへの発話(再発話タイマーの起動)から所定時間が経過したかが判断される。再発話タイマーがトリガされていない場合(S17−NO)には、ステップS15に戻って上記の処理が繰り返される。一方、再発話タイマーがトリガされた場合(S17−YES)にはステップS18に進み、口調を強めて同じ内容の発話を繰り返すための制御を行う。
再発話タイマーがトリガされると(S17−YES)、ステップS18において、発話メッセージ作成部404は催促レベルを+1増加させる。すなわち、前回行ったシステムからユーザへの話しかけよりも一段強いレベル(口調)で発話するように設定する。なお、ここでいう「強いレベルにする」というのは、イントネーションや発話スピード、内容や表現など、口調を強い段階にすることである。
ステップS19において、発話メッセージ作成部404は、現在の催促レベルに応じた発話メッセージを作成する。発話メッセージ作成部404は、発話の内容自体はステップS11で決定した会話文と同様であるが、催促文データベース402を参照して前回の話しかけよりも口調が一段階強い発話を作成する。
図4は、催促文データベース402の例を示す。催促文データベース402には、催促レベル3021に応じて、発話文の文頭に付加する語句3022および文末に付加する語句3023を記憶している。ここでは催促レベルが3段階(レベル0を含めると4段階)であるものとしているが、催促レベルの数はいくつであっても構わない。
発話メッセージ作成部404は、現在の催促レベルおよび会話文に応じて適切な文頭および文末に付加する語句を選択して、繰り返し発話のテキストを決定する。なお、ここでは応答文のテキストのみを考慮しているが、催促レベルに応じてイントネーションや発話スピード、発話音量などを調整するようにしてもよい。
繰り返し発話の内容が決定されるとステップS13に進み、繰り返し発話が音声対話ロボット100からユーザに向けて出力される共に、上述したステップS14以降の処理が繰り返される。
システムからユーザに対して発話(最初の発話および繰り返し発話の両方を含む)がされた後に、ユーザからの応答が検出された場合(S15−YES)あるいはユーザの機嫌が悪化した場合(S16−YES)は、ステップS20に進み、再発話タイマーを停止する。これにより、ユーザが応答を返さなかった場合でもシステムからの繰り返し発話は行われなくなる。
<動作例>
ここで、催促レベルが上がっていく際のシステムからの発話内容を説明する。たとえば
、「明日は雨」という情報をユーザに伝えるために、「明日は雨らしいよ」という発話をシステムが行うことを考える。
このシステム発話に対してユーザが応答をしないでいると、システムからは催促レベルに応じて次のような発話が行われる。
「明日は雨だって」(催促レベル1)
→「ねぇねぇ、明日は雨だって」(催促レベル2)
→「ちょっと聞いてるの?明日は雨だって」(催促レベル3)
いずれかのシステム発話の後にユーザが応答を返した場合には、それ以降の繰り返し発話を行わないことはもちろんであるが、途中でユーザの機嫌が悪化した場合にも、それ以降の繰り返し発話は行われない。例えば、催促レベル2の「ねぇねぇ、明日は雨だって」の後にユーザの機嫌が悪化したことが検出されたら、催促レベル3の繰り返し発話は抑制される。
<効果>
本実施形態によれば、システム発話に対してユーザが応答しない場合に口調を強くして同じ内容の発話を繰り返すことでユーザの注意を喚起するとともに、ユーザが不快感を感じた場合にも対処できる。すなわち、繰り返し発話に対してユーザが不快感を感じた場合に、それ以上の繰り返し発話を行わないことでユーザに与える不快感を最小限に留めることができる。
<変形例>
上記の実施形態ではユーザの機嫌悪化が検出された場合にただちに繰り返し発話を中止するようにしているが、繰り返し発話を抑制する対応であれば、中止以外の対応を取っても構わない。例えば、ユーザの応答が無いと判断するまでに待つ所定期間(再発話タイマーの時間)を長く設定するという対応をとることができる。また、繰り返し発話を一時的に中断するだけにし、ユーザの機嫌が元に戻ったら繰り返し発話を行うようにしてもよい。この際、中断前と同じ催促レベルの繰り返し発話を行ってもよいし、催促レベルを1レベル(あるいはそれ以上)下げて繰り返し発話を行ってもよい。
上記の説明では、催促レベルを上げて口調を強くするために、発話の内容(テキスト)を変えることを主として説明したが、イントネーション、発話スピード、発話音量、声色などテキストの読み上げ方法を変えることによって口調を強くするようにしてもよい。口調を強くするのは、ユーザの注意をより強く引きつけることを目的とするものなので、この目的を達せられるような態様であれば、繰り返し発話をどのように行うかは特に制限されない。
図3のフローチャートでは、ユーザが応答を返さず、かつ機嫌も悪化しない場合には、無制限に催促レベルが増加していくように示してあるが、一定回数の繰り返し発話をしてもユーザが応答を返さない場合には繰り返し発話を中止することが望ましい。
本実施形態では、音声対話ロボット100、スマートフォン200、音声認識サーバ300、対話サーバ400、表情検出サーバ500など複数の装置が連携して上記の機能を実現する例を示した。上述の各機能を具体的のどのコンピュータで実現するかは適宜定めればよく、上記の説明において1つの機能(処理)を複数のコンピュータで分担してもよいし、上記の説明において異なるコンピュータで行っていた複数の機能(処理)を1台のコンピュータで実行してもよい。
<その他>
上記の実施形態および変形例の構成は、本発明の技術的思想を逸脱しない範囲内で、適宜組み合わせて利用することができる。また、本発明は、その技術的思想を逸脱しない範囲で適宜変更を加えて実現しても構わない。
100:音声対話ロボット
200:スマートフォン
300:音声認識サーバ
400:対話サーバ
401:会話データベース 402:催促文データベース
403:話しかけ文選択部 404:発話メッセージ作成部
405:再発話タイマー 406:会話応答検出部 407:機嫌検出部
500:表情検出サーバ

Claims (8)

  1. 発話文を生成する発話文生成手段と、
    前記発話文を出力する音声出力手段と、
    ユーザからの音声を入力する音声入力手段と、
    前記ユーザの機嫌を検出する機嫌検出手段と、
    を備え、
    ユーザに話しかける発話文の出力の後に前記ユーザが応答しない場合に、当該発話文と同じ内容をより強い口調で出力する繰り返し発話を出力するものであり、
    ユーザに話しかける発話文の出力の後に前記ユーザが応答せず、かつ、前記ユーザの機嫌が悪化した場合には、前記ユーザの機嫌が悪化していない場合と比較して、繰り返し発話を抑制する、
    音声対話システム。
  2. ユーザに話しかける発話文の出力の後に前記ユーザが応答せず、かつ、前記ユーザの機嫌が悪化した場合には、繰り返し発話を少なくとも一時的に停止する、
    請求項1に記載の音声対話システム。
  3. ユーザの機嫌が改善されたことが検出された後に、繰り返し発話を再開する、
    請求項2に記載の音声対話システム。
  4. ユーザに話しかける発話文の出力の後に所定期間の経過後も前記ユーザからの応答が得られない場合に、前記ユーザが前記発話文に応答しないと判断するものであり、
    ユーザに話しかける発話文の出力の後に前記ユーザが応答せず、かつ、ユーザの機嫌が悪化した場合には、ユーザの機嫌が悪化していない場合と比較して、前記所定期間を長くする、
    請求項1に記載の音声対話システム。
  5. 前記機嫌検出手段は、前記ユーザの顔を撮影した画像に基づいて検出される前記発話文の出力前後における前記ユーザの表情の変化から前記ユーザの機嫌の変化を検出する、
    請求項1から4のいずれか1項に記載の音声対話システム。
  6. 前記機嫌検出手段は、前記音声入力手段から得られる前記ユーザからの音声も考慮して前記ユーザの機嫌の変化を検出する、
    請求項5に記載の音声対話システム。
  7. 音声対話システムが行う音声対話方法であって、
    第1の発話文を生成および出力する発話ステップと、
    前記第1の発話文の出力の後に前記ユーザが応答しない場合に、当該第1の発話文と同じ内容であり、かつ、より強い口調の第2の発話文を生成および出力する繰り返し発話ステップと、
    前記ユーザの機嫌を検出する機嫌検出ステップと、
    を含み、
    前記第1の発話文の出力の後に前記ユーザが応答せず、かつ、前記ユーザの機嫌が悪化した場合には、前記ユーザの機嫌が悪化していない場合と比較して、繰り返し発話を抑制する、
    音声対話方法。
  8. 請求項7に記載の方法の各ステップをコンピュータに実行させるためのプログラム。
JP2016184128A 2016-09-21 2016-09-21 音声対話システムおよび音声対話方法 Pending JP2018049132A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016184128A JP2018049132A (ja) 2016-09-21 2016-09-21 音声対話システムおよび音声対話方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016184128A JP2018049132A (ja) 2016-09-21 2016-09-21 音声対話システムおよび音声対話方法

Publications (1)

Publication Number Publication Date
JP2018049132A true JP2018049132A (ja) 2018-03-29

Family

ID=61766260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016184128A Pending JP2018049132A (ja) 2016-09-21 2016-09-21 音声対話システムおよび音声対話方法

Country Status (1)

Country Link
JP (1) JP2018049132A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219452A (ja) * 2018-06-18 2019-12-26 株式会社デンソーアイティーラボラトリ 対話システム、対話方法、およびプログラム
CN110866764A (zh) * 2019-11-20 2020-03-06 冠杰消防工程师教育服务(深圳)有限公司 客服方法及装置
CN111540383A (zh) * 2019-02-06 2020-08-14 丰田自动车株式会社 语音会话装置及其控制装置、控制程序以及控制方法
CN112242136A (zh) * 2019-07-19 2021-01-19 国际商业机器公司 提高会话模型的测试覆盖
JPWO2021106080A1 (ja) * 2019-11-26 2021-06-03
JP2021533501A (ja) * 2018-10-11 2021-12-02 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co., Ltd. マンマシンインタラクション方法、システム、コンピュータ機器及び記憶媒体

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219452A (ja) * 2018-06-18 2019-12-26 株式会社デンソーアイティーラボラトリ 対話システム、対話方法、およびプログラム
JP2021533501A (ja) * 2018-10-11 2021-12-02 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co., Ltd. マンマシンインタラクション方法、システム、コンピュータ機器及び記憶媒体
JP7061228B2 (ja) 2018-10-11 2022-04-27 平安科技(深▲せん▼)有限公司 マンマシンインタラクション方法、システム、コンピュータ機器及び記憶媒体
CN111540383A (zh) * 2019-02-06 2020-08-14 丰田自动车株式会社 语音会话装置及其控制装置、控制程序以及控制方法
JP2020126195A (ja) * 2019-02-06 2020-08-20 トヨタ自動車株式会社 音声対話装置、音声対話装置の制御装置及び制御プログラム
JP7120060B2 (ja) 2019-02-06 2022-08-17 トヨタ自動車株式会社 音声対話装置、音声対話装置の制御装置及び制御プログラム
US11682389B2 (en) 2019-02-06 2023-06-20 Toyota Jidosha Kabushiki Kaisha Voice conversation system, control system for voice conversation system, and control program, and control method
CN112242136A (zh) * 2019-07-19 2021-01-19 国际商业机器公司 提高会话模型的测试覆盖
CN110866764A (zh) * 2019-11-20 2020-03-06 冠杰消防工程师教育服务(深圳)有限公司 客服方法及装置
JPWO2021106080A1 (ja) * 2019-11-26 2021-06-03

Similar Documents

Publication Publication Date Title
JP2018049132A (ja) 音声対話システムおよび音声対話方法
KR102178738B1 (ko) 적절한 에이전트의 자동화된 어시스턴트 호출
US9601114B2 (en) Method for embedding voice mail in a spoken utterance using a natural language processing computer system
KR102189853B1 (ko) 퍼스널 어시스턴트 모듈에 의한 비결정적 작업 개시
US20160293157A1 (en) Contextual Voice Action History
US7490042B2 (en) Methods and apparatus for adapting output speech in accordance with context of communication
US8600013B2 (en) Real time automatic caller speech profiling
JP5195405B2 (ja) 応答生成装置及びプログラム
US8185400B1 (en) System and method for isolating and processing common dialog cues
US20230046658A1 (en) Synthesized speech audio data generated on behalf of human participant in conversation
JP2018054791A (ja) 音声対話システムおよび発話意図理解方法
JP2014191029A (ja) 音声認識システムおよび音声認識システムの制御方法
JP5431282B2 (ja) 音声対話装置、方法、プログラム
US11854533B2 (en) Speaker awareness using speaker dependent speech model(s)
KR102060775B1 (ko) 음성 입력에 대응하는 동작을 수행하는 전자 장치
JP7463469B2 (ja) 自動通話システム
JP2018021953A (ja) 音声対話装置および音声対話方法
JP4798039B2 (ja) 音声対話装置および方法
JP2015148712A (ja) 音声対話装置、音声対話システム及びプログラム
US11914923B1 (en) Computer system-based pausing and resuming of natural language conversations
US20230053341A1 (en) Enabling natural conversations with soft endpointing for an automated assistant
Anand Current State of Virtual Personal Machines
CN117121100A (zh) 为自动化助理启用具有软端点的自然对话
EP4158621A1 (en) Enabling natural conversations with soft endpointing for an automated assistant
JP2020122821A (ja) 応答義務推定方法および対話システム