JP2018021953A - 音声対話装置および音声対話方法 - Google Patents

音声対話装置および音声対話方法 Download PDF

Info

Publication number
JP2018021953A
JP2018021953A JP2016151130A JP2016151130A JP2018021953A JP 2018021953 A JP2018021953 A JP 2018021953A JP 2016151130 A JP2016151130 A JP 2016151130A JP 2016151130 A JP2016151130 A JP 2016151130A JP 2018021953 A JP2018021953 A JP 2018021953A
Authority
JP
Japan
Prior art keywords
voice
user
familiarity
intimacy
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016151130A
Other languages
English (en)
Other versions
JP6468258B2 (ja
Inventor
池野 篤司
Tokuji Ikeno
篤司 池野
宗明 島田
Muneaki Shimada
宗明 島田
浩太 畠中
Kota HATANAKA
浩太 畠中
西島 敏文
Toshifumi Nishijima
敏文 西島
史憲 片岡
Fuminori Kataoka
史憲 片岡
刀根川 浩巳
Hiromi Tonegawa
浩巳 刀根川
倫秀 梅山
Norihide Umeyama
倫秀 梅山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016151130A priority Critical patent/JP6468258B2/ja
Priority to US15/658,966 priority patent/US10269349B2/en
Publication of JP2018021953A publication Critical patent/JP2018021953A/ja
Application granted granted Critical
Publication of JP6468258B2 publication Critical patent/JP6468258B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification
    • G10L17/22Interactive procedures; Man-machine interfaces
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Abstract

【課題】音声によって人と対話する音声対話装置において、より精度よく親密度を算出する。
【解決手段】音声によってユーザと対話する音声対話装置であって、ユーザが発した音声を取得および認識する音声入力手段と、前記ユーザとの間の親密度を算出する親密度算出手段と、前記親密度に基づいて、前記認識した音声に対する応答を生成する応答生成手段と、前記応答を音声によって出力する音声出力手段と、を有し、前記親密度算出手段は、前記ユーザが行った発話の内容に基づいて算出された第一の親密度と、前記ユーザとの過去の対話回数に基づいて算出された第二の親密度との合計値に基づいて、前記ユーザとの親密度を算出する。
【選択図】図1

Description

本発明は、音声によって人と対話する装置に関する。
近年、人と対話をすることによって様々な情報を提供するロボットが開発されている。特に、マイクによって入力された音声を処理し、入力に対する応答を音声で返すコミュニケーションロボットが多く開発されている。また、ロボットに擬似的な感情を持たせることで人間味のある対話を行わせる試みが行われている。
例えば、特許文献1に記載のロボットは、インタラクションを受けた回数や総時間に基づいて親密度を算出し、算出した親密度に基づいてユーザに対する応答を変化させるという特徴を持っている。また、特許文献2に記載のロボットは、ユーザがロボットに対して行った発話の内容に基づいて親密度を決定し、適切な応答を返すという特徴を持っている。
特開2004−090109号公報 特開2001−188779号公報 特開2013−206389号公報 特開2013−142911号公報
一般的に、人間同士がコミュニケーションを行う場合、相手に対する親密度は、過去にどのような接触があったかによって大きく変化する。しかし、従来技術に係る対話型ロボットでは、限られた要素でしか親密度を算出していないため、より人間味のある応答を生成するという点において課題があった。
本発明は上記の課題を考慮してなされたものであり、音声によって人と対話する音声対話装置において、より精度よく親密度を算出することを目的とする。
本発明に係る音声対話装置は、音声によってユーザと対話する音声対話装置であって、
ユーザが発した音声を取得および認識する音声入力手段と、前記ユーザとの間の親密度を算出する親密度算出手段と、前記親密度に基づいて、前記認識した音声に対する応答を生成する応答生成手段と、前記応答を音声によって出力する音声出力手段と、を有し、前記親密度算出手段は、前記ユーザが行った発話の内容に基づいて算出された第一の親密度と、前記ユーザとの過去の対話回数に基づいて算出された第二の親密度との合計値に基づいて、前記ユーザとの親密度を算出することを特徴とする。
本発明に係る音声対話装置は、ユーザが装置に対して発した発話の内容に基づいて第一の親密度を算出し、また、ユーザとの過去の対話回数に基づいて第二の親密度を算出する。
第一の親密度は、最新の発話の内容のみに基づいて算出されたものであってもよいし、過去になされた発話の内容に基づいて算出されたものであってもよい。また、過去の発話の内容に基づいて算出された値を、最新の発話の内容に基づいて算出された値を用いて更
新してもよい。
また、第二の親密度は、ユーザが過去に装置に対して対話を行った回数に基づいて算出される。例えば、対話を行った回数そのものであってもよいし、所定の期間における対話頻度であってもよい。また、対話を行ってからの経過時間を用いて重み付けを行ってもよい。
かかる構成によると、対話の内容と対話の多さという二つの基準によって親密度を算出するため、より人間に近い親密度を算出することができる。
また、本発明に係る音声対話装置は、算出した前記親密度を記憶する記憶手段をさらに有し、前記親密度算出手段は、前記ユーザから発話を受けた場合に、当該発話に起因する親密度の変動量を算出し、前記第一の親密度および前記第二の親密度を更新することを特徴としてもよい。
親密度は、対話を行う都度算出してもよいが、過去に算出した値を記憶しておき、ユーザから発話を受けるごとに更新してもよい。すなわち、第一の親密度と第二の親密度それぞれについて変動量を算出し、各々を更新してもよい。
このように、記憶された親密度に対して、「最新の対話に起因した親密度の変動量」を適用して最新の親密度を算出することで、対話を行うごとに徐々に親密度が変動していくという効果を得ることができる。
また、本発明に係る音声対話装置は、ユーザを識別するユーザ識別手段をさらに有し、前記記憶手段は、ユーザごとに前記親密度を記憶することを特徴としてもよい。
ユーザ識別手段は、例えば音声や画像に基づいてユーザを識別してもよいし、ユーザから得られた入力に基づいて当該ユーザを識別してもよい。音声によってユーザを識別する場合、声紋などを利用してもよいし、画像によってユーザを識別する場合、顔画像から抽出した特徴量などを利用してもよい。このように、ユーザごとに親密度を記憶させて利用することで、装置とユーザとの間の親密度をより正確に算出することができる。
また、前記親密度算出手段は、前回ユーザと最後に接触してからの経過時間に基づいて、前記第一の親密度または前記第二の親密度の変動量を補正することを特徴としてもよい。
実際のコミュニケーションにおいては、最後に接触してからの時間が長くなるほど親密度が減少する。そこで、ユーザと装置が最後に接触してからの時間に基づいて、算出した親密度の変動量を補正してもよい。例えば、最後に接触してからの時間が長くなるほど、親密度の変動量をマイナス方向に補正してもよい。これにより、より人間味のあるコミュニケーションが行えるようになる。
また、本発明に係る対話システムは、音声対話装置と、対話サーバと、からなる対話システムであって、前記音声対話装置は、ユーザが発した音声を取得し、前記音声を前記対話サーバに送信する音声入力手段と、前記音声に対する応答を前記対話サーバから取得して音声によって出力する音声出力手段と、を有し、前記対話サーバは、前記ユーザが発した音声を認識する音声認識手段と、前記ユーザとの親密度を算出する親密度算出手段と、前記親密度に基づいて、前記認識した音声に対する応答を生成し、前記音声対話装置に送信する応答生成手段と、を有し、前記親密度算出手段は、前記ユーザが行った発話の内容に基づいて算出された第一の親密度と、前記ユーザとの過去の対話回数に基づいて算出された第二の親密度とに基づいて、前記ユーザとの親密度を算出することを特徴とする。
なお、本発明は、上記手段の少なくとも一部を含む音声対話装置や対話システムとして
特定することができる。また、前記音声対話装置や対話システムが行う音声対話方法として特定することもできる。上記処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
本発明によれば、音声によって人と対話する音声対話装置において、より精度よく親密度を算出することができる。
第一の実施形態に係るロボットのシステム構成図である。 第一の実施形態における親密度テーブルの例である。 ロボット10が行う処理フローチャート図である。 第二の実施形態に係る対話システムのシステム構成図である。
(第一の実施形態)
以下、本発明の好ましい実施形態について図面を参照しながら説明する。
本実施形態に係るロボットは、ユーザが発した音声を取得して音声認識を行い、認識結果に基づいて応答文を生成して出力することでユーザとの対話を行う装置である。
<システム構成>
図1は、本実施形態に係るロボット10のシステム構成図である。
ロボット10は、外部から音声を取得する機能と、取得した音声を認識する機能と、当該音声に対する返答を取得する機能と、当該返答を音声によって出力する機能を有するロボットである。ロボット10は、例えば、コミュニケーションロボットであるが、必ずしもキャラクターの形をしている必要はない。例えば、ロボットに組み込むことができる汎用のコンピュータであってもよい。
ロボット10は、音声入出力部11、音声認識部12、親密度算出部13、応答生成部14、制御部15から構成される。
音声入出力部11は、音声を入出力する手段である。具体的には、不図示のマイクを用いて、音声を電気信号(以下、音声データ)に変換する。取得した音声データは、後述する音声認識部12へ出力される。また、音声入出力部11は、不図示のスピーカを用いて、制御部15から送信された音声データを音声に変換する。
音声認識部12は、音声入出力部11が取得した音声に対して音声認識を行い、テキストに変換する手段である。音声認識は、既知の技術によって行うことができる。例えば、音声認識部12には、音響モデルと認識辞書が記憶されており、取得した音声データと音響モデルとを比較して特徴を抽出し、抽出した特徴を認識辞書とをマッチングさせることで音声認識を行う。認識結果は、制御部15へ送信される。
親密度算出部13は、ロボット10とユーザとの親密度を算出する手段である。親密度算出部13は、ユーザごとの現在の親密度を表す値をテーブル形式(親密度テーブル)で記憶しており、ユーザから発話を受けた場合に、当該発話の内容と、記憶されたテーブルに基づいて親密度を算出する。算出された親密度は、後述する応答生成部14へ送信され、応答の生成に供される。また、親密度算出部13は、算出した親密度を用いて親密度テーブルを更新する。
図2は、親密度算出部13が記憶する親密度テーブルの例である。親密度テーブルには
、ユーザから発せられた発話の内容に基づいて算出された親密度(以下、第一の親密度)と、ユーザとロボット10との対話回数に基づいて算出された親密度(以下、第二の親密度)が、ユーザがロボット10と最後に対話した日時および係数とともに記録されている。
第一および第二の親密度の算出方法と、最終対話日時、係数の詳細については後述する。
応答生成部14は、音声認識部12が出力したテキスト(すなわちユーザが行った発話の内容)に基づいて、ユーザへの返答となる文章(発話文)を生成する手段である。応答生成部14は、例えば、予め記憶された対話シナリオ(対話辞書)に基づいて応答を生成してもよい。
また、応答生成部14は、親密度算出部13が算出した親密度を加味して応答の生成を行う。具体的には、例えば、親密度が低い場合は丁寧口調の文章を生成し、親密度が高くなると友達口調の文章を生成するなど、入力された親密度に応じて応答を生成する。このため、応答生成部14には、親密度に応じた対話シナリオを持たせてもよい。
応答生成部14が生成した返答は、制御部15へテキスト形式で送信され、その後、合成音声によってユーザに向けて出力される。
制御部15は、ロボット10が行う音声対話全般を制御する手段である。具体的には、対話の相手(ユーザ)が存在することを検出して対話を開始する機能、ユーザの発話に対して音声認識を実行させる機能、応答文の生成を実行させる機能、取得した発話文を音声データに変換し、音声入出力部11を介して出力する機能などを実行する。
ロボット10は、CPU、主記憶装置、補助記憶装置を有する情報処理装置として構成することができる。補助記憶装置に記憶されたプログラムが主記憶装置にロードされ、CPUによって実行されることで、図1に図示した各手段が機能する。なお、図示した機能の全部または一部は、専用に設計された回路を用いて実行されてもよい。
<親密度の算出方法>
次に、親密度の算出方法について説明する。親密度の算出は、ロボット10がユーザから発話を受け取った場合に、親密度算出部13によって行われる。なお、ここでは、図2に示したように、第一の親密度(対話内容に基づく親密度)の値が30、第二の親密度(対話回数に基づく親密度)の値が20であるユーザを例に説明を行う。親密度テーブルに記録されている親密度は、現時点における親密度(すなわち、最後に対話を行った際に算出された親密度)である。
(1)発話内容による親密度の変動量を取得
まず、親密度算出部13が、ユーザが行った発話の内容に基づいて、第一の親密度の変動量(以下、変動量α)を算出する。変動量αは、今回のユーザの発話に起因して、親密度がどの程度変動するかを表す値である。変動量αの算出は、以下のような方法で行うことができる。
例えば、親密度算出部13が、音声認識部12から取得したテキストに対して形態素解析を行い、得られた形態素のそれぞれを、予め記憶された親密度辞書と比較する。親密度辞書は、親密度の増減量がキーワードごとに定義されたリストであり、ヒットしたキーワードに対応する親密度の増減量の総和を、第一の親密度の変動量αとする。なお、ユーザの発話に起因した親密度の変動量を算出することができれば、その算出方法は例示したものに限られない。本例では、α=5という値が得られたものとする。
(2)経過時間による親密度の変動量を取得
次に、親密度算出部13が、経過時間に基づく親密度の変動量を取得する。本例では、
tを前回対話時からの経過時間、aを親密度テーブルに定義された係数とし、−ta/2を時間の経過に伴う親密度の変動量(以下、変動量β)とする。すなわち、前回対話時からの時間が経過するほど、第一および第二の親密度が共に下がるようになっている。本例では、t=10(時間)、a=0.1とする。すなわち、時間の経過に伴う親密度の変動量βは、−ta/2=−0.5である。
(3)第一の親密度を算出
次に、親密度テーブルに記録されている第一の親密度に、前述したαおよびβを加算する。その後、得られた値によって、親密度テーブルに記録されている第一の親密度を更新する。本例では、30+5−0.5=34.5が、最新の第一の親密度となる。
(4)第二の親密度を算出
次に、親密度テーブルに記録されている第二の親密度に1およびβを加算する。1という値の加算は、対話回数が一回増えたことを意味する。その後、得られた値によって、親密度テーブルに記録されている第二の親密度を更新する。本例では、20+1−0.5=20.5が、最新の第二の親密度となる。
(5)親密度の総和を算出
最後に、第一の親密度と第二の親密度を加算し、トータルの親密度を得る。本例では、34.5+20.5=55が最新の親密度となる。すなわち、ユーザがロボットと対話したことによって、親密度が50から55に上昇する。
<処理フローチャート>
次に、ロボット10が行う具体的な処理の内容について説明する。
まず、ロボット10とユーザが音声によって対話する処理について、図3のフローチャートを参照しながら説明する。
まず、ステップS11で、音声入出力部11が、不図示のマイクを通してユーザから音声を取得する。取得した音声は音声データに変換され、音声認識部12へ送信される。
次に、音声認識部12が、取得したデータに対して音声認識を実行する(ステップS12)。音声を認識した結果のテキストは、親密度算出部13と応答生成部14へ送信される。
次に、親密度算出部13が、取得したテキストと、記憶されている親密度テーブルに基づいて、前述した方法によって親密度を算出する(ステップS13)。算出された親密度は、応答生成部14へ送信される。
次に、応答生成部14が、音声認識部12が出力したテキストと、親密度算出部13が出力した親密度に基づいて応答文を生成する(ステップS14)。生成された応答文は制御部15へ送信される。
そして、ステップS14で、制御部15が、応答文に基づいて音声合成を行い、音声入出力部11を介して出力する。
以上説明したように、第一の実施形態では、ユーザが発した発話の内容と、対話を行った回数に基づいて親密度の変動量を算出して更新する。これにより、複数回の接触によって親密度が変動するという効果を得ることができる。また、第一の親密度および第二の親密度に対して、最終対話時からの経過時間に基づく補正を加えることで、時間の経過とともに親密度が低下していくという効果を得ることができる。すなわち、より人間味のある対話が可能になる。
なお、親密度の低下度合いは、係数によって調整することができる。これにより、対話を行うことによる親密度の上昇と、時間の経過による親密度の低下とのバランスを取ることができる。
(第二の実施形態)
第二の実施形態は、第一の実施形態におけるロボットの機能を、ロボット10と対話サーバ20に分散させた実施形態である。
図4は、第二の実施形態に係る対話システムのシステム構成図である。なお、第一の実施形態と同様の機能を有する機能ブロックには、同一の符号を付し説明は省略する。
第二の実施形態では、通信部21、音声認識部22(音声認識部12に対応)、親密度算出部23(親密度算出部13に対応)、応答生成部24(応答生成部14に対応)を有する対話サーバ20によって、ユーザに対するロボットの応答を生成する。ロボット10および対話サーバ20は、通信部21および通信部16によって互いに通信可能に接続される。両者の接続には、例えば無線通信ネットワークを用いてもよい。
第二の実施形態では、ロボット10が、ステップS11で取得した音声を対話サーバ20に送信し、ステップS12で、対話サーバ20にて音声認識を行う。また、親密度の算出(ステップS13)、応答文の生成(ステップS14)を、対話サーバ20が実行する。生成した応答文はロボット10へ送信され、第一の実施形態と同様に合成音声によって出力される。
なお、本例では、音声の合成をロボット10側で行うものとしたが、音声の合成は対話サーバ20側で行ってもよい。
(変形例)
上記の実施形態はあくまでも一例であって、本発明はその要旨を逸脱しない範囲内で適宜変更して実施しうる。
例えば、実施形態の説明では、対話回数が1回増えるごとに第二の親密度に1を加算したが、加算する値は1以外の値であってもよい。また、発話内容がネガティブなものであった場合、加算を行わなくてもよいし、任意の値を減算してもよい。
10・・・ロボット
11・・・音声入出力部
12・・・音声認識部
13・・・親密度算出部
14・・・応答生成部
15・・・制御部

Claims (6)

  1. 音声によってユーザと対話する音声対話装置であって、
    ユーザが発した音声を取得および認識する音声入力手段と、
    前記ユーザとの間の親密度を算出する親密度算出手段と、
    前記親密度に基づいて、前記認識した音声に対する応答を生成する応答生成手段と、
    前記応答を音声によって出力する音声出力手段と、
    を有し、
    前記親密度算出手段は、前記ユーザが行った発話の内容に基づいて算出された第一の親密度と、前記ユーザとの過去の対話回数に基づいて算出された第二の親密度との合計値に基づいて、前記ユーザとの親密度を算出する、
    音声対話装置。
  2. 算出した前記親密度を記憶する記憶手段をさらに有し、
    前記親密度算出手段は、前記ユーザから発話を受けた場合に、当該発話に起因する親密度の変動量を算出し、前記第一の親密度および前記第二の親密度を更新する、
    請求項1に記載の音声対話装置。
  3. ユーザを識別するユーザ識別手段をさらに有し、
    前記記憶手段は、ユーザごとに前記親密度を記憶する、
    請求項2に記載の音声対話装置。
  4. 前記親密度算出手段は、
    前回ユーザと最後に接触してからの経過時間に基づいて、前記第一の親密度または前記第二の親密度の変動量を補正する、
    請求項2または3に記載の音声対話装置。
  5. 音声によってユーザと対話する音声対話装置が行う音声対話方法であって、
    ユーザが発した音声を取得および認識する音声入力ステップと、
    前記ユーザとの間の親密度を算出する親密度算出ステップと、
    前記親密度に基づいて、前記認識した音声に対する応答を生成する応答生成ステップと、
    前記応答を音声によって出力する音声出力ステップと、
    を含み、
    前記親密度算出ステップでは、前記ユーザが行った発話の内容に基づいて算出された第一の親密度と、前記ユーザとの過去の対話回数に基づいて算出された第二の親密度との合計値に基づいて、前記ユーザとの親密度を算出する、
    音声対話方法。
  6. 音声対話装置と、対話サーバと、からなる対話システムであって、
    前記音声対話装置は、
    ユーザが発した音声を取得し、前記音声を前記対話サーバに送信する音声入力手段と、
    前記音声に対する応答を前記対話サーバから取得して音声によって出力する音声出力手段と、
    を有し、
    前記対話サーバは、
    前記ユーザが発した音声を認識する音声認識手段と、
    前記ユーザとの親密度を算出する親密度算出手段と、
    前記親密度に基づいて、前記認識した音声に対する応答を生成し、前記音声対話装置に送信する応答生成手段と、
    を有し、
    前記親密度算出手段は、前記ユーザが行った発話の内容に基づいて算出された第一の親密度と、前記ユーザとの過去の対話回数に基づいて算出された第二の親密度とに基づいて、前記ユーザとの親密度を算出する、
    対話システム。
JP2016151130A 2016-08-01 2016-08-01 音声対話装置および音声対話方法 Active JP6468258B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016151130A JP6468258B2 (ja) 2016-08-01 2016-08-01 音声対話装置および音声対話方法
US15/658,966 US10269349B2 (en) 2016-08-01 2017-07-25 Voice interactive device and voice interaction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016151130A JP6468258B2 (ja) 2016-08-01 2016-08-01 音声対話装置および音声対話方法

Publications (2)

Publication Number Publication Date
JP2018021953A true JP2018021953A (ja) 2018-02-08
JP6468258B2 JP6468258B2 (ja) 2019-02-13

Family

ID=61011678

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016151130A Active JP6468258B2 (ja) 2016-08-01 2016-08-01 音声対話装置および音声対話方法

Country Status (2)

Country Link
US (1) US10269349B2 (ja)
JP (1) JP6468258B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200081925A (ko) * 2018-12-28 2020-07-08 수상에스티(주) 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법
JP2022522104A (ja) * 2019-03-01 2022-04-14 グーグル エルエルシー アシスタントの応答を動的に適応させること

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108228191B (zh) * 2018-02-06 2022-01-25 威盛电子股份有限公司 语法编译系统以及语法编译方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003117866A (ja) * 2001-10-16 2003-04-23 Nec Corp ロボット装置及びその制御方法
JP2016071050A (ja) * 2014-09-29 2016-05-09 シャープ株式会社 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188779A (ja) 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2004090109A (ja) 2002-08-29 2004-03-25 Sony Corp ロボット装置およびロボット装置の対話方法
JP5864273B2 (ja) 2012-01-06 2016-02-17 Kddi株式会社 ユーザ間親密度推定装置、方法及びプログラム
JP6069870B2 (ja) 2012-03-29 2017-02-01 富士通株式会社 親密度算出方法、親密度算出プログラムおよび親密度算出装置
JP6257368B2 (ja) * 2014-02-18 2018-01-10 シャープ株式会社 情報処理装置
WO2016018111A1 (en) * 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Message service providing device and method of providing content via the same
WO2016157642A1 (ja) * 2015-03-27 2016-10-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003117866A (ja) * 2001-10-16 2003-04-23 Nec Corp ロボット装置及びその制御方法
JP2016071050A (ja) * 2014-09-29 2016-05-09 シャープ株式会社 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200081925A (ko) * 2018-12-28 2020-07-08 수상에스티(주) 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법
KR102181583B1 (ko) * 2018-12-28 2020-11-20 수상에스티(주) 음성인식 교감형 로봇, 교감형 로봇 음성인식 시스템 및 그 방법
JP2022522104A (ja) * 2019-03-01 2022-04-14 グーグル エルエルシー アシスタントの応答を動的に適応させること
JP7386878B2 (ja) 2019-03-01 2023-11-27 グーグル エルエルシー アシスタントの応答を動的に適応させること
US11875790B2 (en) 2019-03-01 2024-01-16 Google Llc Dynamically adapting assistant responses

Also Published As

Publication number Publication date
US10269349B2 (en) 2019-04-23
JP6468258B2 (ja) 2019-02-13
US20180033432A1 (en) 2018-02-01

Similar Documents

Publication Publication Date Title
JP6465077B2 (ja) 音声対話装置および音声対話方法
JP5753869B2 (ja) 音声認識端末およびコンピュータ端末を用いる音声認識方法
JP5327054B2 (ja) 発音変動規則抽出装置、発音変動規則抽出方法、および発音変動規則抽出用プログラム
JP6654611B2 (ja) 成長型対話装置
JP6464650B2 (ja) 音声処理装置、音声処理方法、およびプログラム
JP2018124425A (ja) 音声対話装置及び音声対話方法
US20190013008A1 (en) Voice recognition method, recording medium, voice recognition device, and robot
US20120078607A1 (en) Speech translation apparatus, method and program
US20150046163A1 (en) Leveraging interaction context to improve recognition confidence scores
WO2016013503A1 (ja) 音声認識装置及び音声認識方法
JP2012037619A (ja) 話者適応化装置、話者適応化方法および話者適応化用プログラム
WO2014183373A1 (en) Systems and methods for voice identification
JP2010020102A (ja) 音声認識装置、音声認識方法及びコンピュータプログラム
JP5431282B2 (ja) 音声対話装置、方法、プログラム
CN111986675A (zh) 语音对话方法、设备及计算机可读存储介质
JP6468258B2 (ja) 音声対話装置および音声対話方法
KR20230150377A (ko) 대화 동안 텍스트 음성 변환에서의 즉각적인 학습
JP2019101065A (ja) 音声対話装置、音声対話方法及びプログラム
JP2015049254A (ja) 音声データ認識システム及び音声データ認識方法
JP6696803B2 (ja) 音声処理装置および音声処理方法
JP2006259641A (ja) 音声認識装置及び音声認識用プログラム
JP2013178384A (ja) 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム
JP2019015950A (ja) 音声認識方法、プログラム、音声認識装置、及びロボット
JP6176137B2 (ja) 音声対話装置、音声対話システム及びプログラム
JP2018132623A (ja) 音声対話装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181231

R151 Written notification of patent or utility model registration

Ref document number: 6468258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151