JP2018140477A - 発話制御装置、電子機器、発話制御装置の制御方法、および制御プログラム - Google Patents
発話制御装置、電子機器、発話制御装置の制御方法、および制御プログラム Download PDFInfo
- Publication number
- JP2018140477A JP2018140477A JP2017037424A JP2017037424A JP2018140477A JP 2018140477 A JP2018140477 A JP 2018140477A JP 2017037424 A JP2017037424 A JP 2017037424A JP 2017037424 A JP2017037424 A JP 2017037424A JP 2018140477 A JP2018140477 A JP 2018140477A
- Authority
- JP
- Japan
- Prior art keywords
- user
- utterance
- determination unit
- emotion
- electronic device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】ユーザに対して発話するか否かをより適切に決定可能な発話制御装置などを提供する。【解決手段】電子機器(1)の発話を制御する制御部(10)は、ユーザの感情を判定する感情判定部(14)と、ユーザの行動状態を判定する行動状態判定部(15)と、感情判定部および行動状態判定部の判定結果の組み合わせに応じて、電子機器がユーザに対して発話を行うか否かを決定する発話決定部(16)と、を備える。【選択図】図1
Description
本開示は、ユーザに対して発話を行う電子機器の発話を制御する発話制御装置などに関する。
近年、音声認識および言語処理などを行うことでユーザと音声対話によるコミュニケーションが可能なロボットの開発が行われている。
一方で、このようなロボットの発言について、例えば発言の量が多すぎるなどの理由でユーザが煩わしく感じることがあるという問題がある。特許文献1には、このような問題を解決するため、ユーザが発話した時にユーザの顔画像データおよび発話音声データを取得して感情認識を行い、認識した感情に対応する行動を実行するロボットが開示されている。
しかしながら、ユーザがロボットからの発話を煩わしく思うか否かは、必ずしもユーザの感情のみによって左右されるものではない。このため、特許文献1に開示されているロボットは、依然としてユーザにとって不適切なタイミングで発話を行う虞がある。
本発明の一態様は、上記の問題点に鑑みてなされたものであり、ユーザに対して発話するか否かをより適切に決定可能な発話制御装置などを提供することを目的とする。
上記の課題を解決するために、本発明の一態様に係る発話制御装置は、ユーザに対して発話を行う機能を有する電子機器の上記発話を制御する発話制御装置であって、上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの感情が予め定められた複数の感情のいずれに該当するかを判定する感情判定部と、上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの行動状態が予め定められた複数の行動状態のいずれに該当するかを判定する行動状態判定部と、上記感情判定部および上記行動状態判定部の判定結果の組み合わせに応じて、上記電子機器が上記ユーザに対して発話を行うか否かを決定する発話決定部と、を備える。
また、本発明の一態様に係る制御方法は、ユーザに対して発話を行う機能を有する電子機器の上記発話を制御する発話制御装置の制御方法であって、上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの感情が予め定められた複数の感情のいずれに該当するかを判定する感情判定ステップと、上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの行動状態が予め定められた複数の行動状態のいずれに該当するかを判定する行動状態判定ステップと、上記感情判定ステップおよび上記行動状態判定ステップの判定結果の組み合わせに応じて、上記電子機器が上記ユーザに対して発話を行うか否かを決定する発話決定ステップと、を含む。
本発明の一態様によれば、ユーザに対して発話するか否かをより適切に決定できる。
〔実施形態1〕
以下、本発明の実施形態について、図1〜図4に基づいて詳細に説明する。
以下、本発明の実施形態について、図1〜図4に基づいて詳細に説明する。
(電子機器1の概略)
図1は、本実施形態に係る電子機器1の構成を示すブロック図である。電子機器1は、ユーザに対して発話を行う機能を有する。図1に示すように、電子機器1は、制御部10(発話制御装置)、マイク20、カメラ30、スピーカ40、記憶部50、およびタイマー60を備える。
図1は、本実施形態に係る電子機器1の構成を示すブロック図である。電子機器1は、ユーザに対して発話を行う機能を有する。図1に示すように、電子機器1は、制御部10(発話制御装置)、マイク20、カメラ30、スピーカ40、記憶部50、およびタイマー60を備える。
制御部10は、ユーザに対して発話を行う機能を有する電子機器1の上記発話を制御する。制御部10の具体的な構成については後述する。
マイク20は、周囲の音声の入力を受け付ける音声入力装置である。カメラ30は、周囲の状況およびユーザなどの画像を連続して撮像する撮像装置である。制御部10は、マイク20に入力される音声のデータ、およびカメラ30が撮像した画像から、ユーザの言動および表情を示す情報を取得する。
スピーカ40は、ユーザに対して発話するための音声出力装置である。タイマー60は、上述したユーザの言動および表情を示す情報を取得する処理を制御部10が実行する時の、時間の計測を行う。
記憶部50は、制御部10による電子機器1の制御に必要なデータを記憶する記憶媒体である。記憶部50は、例えばフラッシュメモリ、SSD(Solid State Drive)、またはハードディスクなどであってよい。記憶部50は、例えばユーザの音声および画像を他の音声および画像と識別するためのデータ、後述する感情判定部14および行動状態判定部15による判定結果、ユーザに対して発話するか否かを決定するための発話決定テーブル、およびユーザに対する発話に用いる音声データ、などを記憶している。
なお、記憶部50は、電子機器1ではなく別の外部装置に設けられていてもよい。この場合、電子機器1は、上記外部装置が備える記憶部50と、有線または無線によりアクセス可能に接続されていてよい。
(制御部10の構成)
制御部10は、発話契機判定部11、音声解析部12、画像解析部13、感情判定部14、行動状態判定部15、発話決定部16、および発話制御部17を備える。
制御部10は、発話契機判定部11、音声解析部12、画像解析部13、感情判定部14、行動状態判定部15、発話決定部16、および発話制御部17を備える。
発話契機判定部11は、発話契機であるか否かを判定する。発話契機は、電子機器1がユーザに対して発話する契機である。発話契機は、例えばユーザに対して発話すべき情報である発話情報を電子機器1が取得した時であってもよく、また例えば予めユーザまたは電子機器1の製造者によって設定された所定の時刻であってもよい。発話情報を電子機器1が取得した時の具体例については、実施形態3で説明する。
音声解析部12は、マイク20に入力された音声の音声データを解析する。具体的には、音声解析部12は、タイマー60によって計測される所定の時間内に、マイク20に入力された音声について、特定の情報(例えば、ユーザの言動を示す情報)を抽出して記憶部50に記憶させる。
例えば、音声解析部12は、抽出した特定の情報を用いて、マイク20に入力された音声にユーザの声が含まれているか否かを判定する。この場合、例えば電子機器の使用開始時などに、ユーザが予めマイク20に声を入力し、音声解析部12が入力された声の特徴を抽出して、当該特徴を記憶部50に保持(登録)していればよい。
画像解析部13は、カメラ30が撮像した画像を解析する。具体的には、画像解析部13は、タイマー60によって計測される所定の時間内にカメラ30が撮像した画像について、特定の情報(例えば、ユーザの言動を示す情報、ユーザの表情を示す情報)を抽出して記憶部50に記憶させる。
例えば、画像解析部13は、抽出した特徴を用いて、ユーザ、ユーザの目の位置、およびユーザの視線が向けられている対象である対象物などを特定する。この場合、例えば電子機器の使用開始時などに、ユーザが予めカメラ30によりユーザ自身の顔の画像を撮像し、画像解析部13が当該顔の画像の特徴を抽出して、当該特徴を記憶部50に保持(登録)していればよい。
感情判定部14は、ユーザの言動および表情の少なくとも何れかを示す情報を用いて、ユーザの感情が予め定められた複数の感情のいずれに該当するかを判定する。本実施形態では、感情判定部14は、音声解析部12および画像解析部13による解析の結果に基づいて、予め登録されているユーザの感情を判定する。
本実施形態では、感情判定部14は、ユーザの感情について、予め定められた、(1)楽しんでいる、(2)怒っている、(3)悲しんでいる、または(4)その他(特に感情は見られない)、の4種類の感情のいずれであるかを判定する。ただし、本開示の一態様においては、感情判定部14が判定する感情は上記の(1)〜(4)に限定されない。感情判定部14による感情の判定の処理は、例えば特許文献1に開示されている通り公知であるため、本明細書においては当該処理についての説明を省略する。
行動状態判定部15は、ユーザの言動および表情の少なくとも何れかを示す情報を用いて、ユーザの行動の状態(行動状態)が予め定められた複数の行動状態のいずれに該当するかを判定する。本実施形態では、行動状態判定部15は、音声解析部12および画像解析部13による解析の結果に基づいて、ユーザの行動状態を判定する。
本実施形態では、行動状態判定部15は、ユーザの行動状態について、予め定められた、(A)他者と会話中、(B)テレビ視聴中または読書中、または(C)何もしていない、の3種類の行動状態のいずれであるかを判定する。ただし、本開示の一態様においては、行動状態判定部15が判定する行動状態は上記の(A)〜(C)に限定されない。行動状態判定部15による判定の処理については後述する。
発話決定部16は、感情判定部14および行動状態判定部15の判定結果の組み合わせに応じて、電子機器1がユーザに対して発話を行うか否かを決定する。具体的には、発話決定部16は、電子機器1がユーザに対して発話を行うか否かを決定するための発話決定テーブルを参照し、感情判定部14が判定した感情および行動状態判定部15が判定した行動状態に対応する発話の可否を決定する。発話決定テーブルは、例えば予め記憶部50に格納されていてよい。
図2は、本実施形態において発話決定部16が参照する発話決定テーブルを示す図である。図2に示す発話決定テーブルにおいては、上記の(1)〜(4)の感情、および(A)〜(C)の行動状態の、計12通りの組み合わせのそれぞれについて、電子機器1がユーザに対して発話するか否かが規定されている。
例えば、感情判定部14がユーザの感情について「(4)その他(特に感情は見られない)」と判定し、行動状態判定部15がユーザの行動状態について「(B)テレビ視聴中または読書中」と判定した場合について考える。この場合、電子機器1がユーザに対して発話しても問題ないと考えられることから、図2に示した発話決定テーブルでは「発話する」と規定されている。
一方、感情判定部14がユーザの感情について「(1)楽しんでいる」と判定し、行動状態判定部15がユーザの行動状態について「(B)テレビ視聴中または読書中」と判定した場合について考える。この場合、電子機器1が発話することはユーザにとって邪魔になると考えられるため、図2に示した発話決定テーブルでは「発話しない」と規定されている。
このように、発話決定部16は、ユーザの感情および行動状態の両方から、電子機器1がユーザに対して発話するか否かを決定することができる。したがって、電子機器1は、ユーザの状況に応じた発話、換言すればユーザが発話を望んでいないと考えられる不適切な場面における発話の抑制が可能になる。したがって、電子機器1は、従来の発話可能な電子機器と比較して、ユーザの満足度を向上させることができる。
なお、上述した通り、感情判定部14が判定するユーザの感情は上記の(1)〜(4)に限定されず、行動状態判定部15が判定するユーザの行動状態は上記の(A)〜(C)に限定されない。このため、発話決定テーブルにおいて規定される感情と行動状態との組み合わせも図2に示した12通りに限定されない。
発話制御部17は、電子機器1がユーザに対して発話を行うと発話決定部16が決定した場合に、発話の内容を制御する。発話制御部17は、例えば記憶部50に格納された音声のデータから、電子機器1が発話に用いる音声のデータを選択または合成し、スピーカ40から発話する。
(制御部10における処理)
図3は、制御部10における処理(発話制御装置の制御方法)を示すフローチャートである。制御部10においては、最初に発話契機判定部11が、発話契機であるか否かを判定する(SA1)。発話契機でない場合(SA1でNO)、発話契機判定部11は、ステップSA1の処理を繰り返す。
図3は、制御部10における処理(発話制御装置の制御方法)を示すフローチャートである。制御部10においては、最初に発話契機判定部11が、発話契機であるか否かを判定する(SA1)。発話契機でない場合(SA1でNO)、発話契機判定部11は、ステップSA1の処理を繰り返す。
発話契機である場合(SA1でYES)、感情判定部14はユーザの感情を判定し(SA2、感情判定ステップ)、判定結果を記憶部50に記憶させる。また、行動状態判定部15はユーザの行動状態を判定し(SA3、行動状態判定ステップ)、判定結果を記憶部50に記憶させる。ステップSA2およびSA3は、どちらが先に行われてもよい。ステップSA3における処理については後述する。
発話決定部16は、感情判定部14および行動状態判定部15における判定結果を記憶部50から読み出し、当該判定結果の組み合わせに応じて、電子機器1がユーザに対して発話を行うか否かを決定する(SA4、発話決定ステップ)。発話を行わないと決定した場合(SA4でNO)、制御部10は、再度ステップSA1からの処理を実行する。発話を行うと決定した場合(SA4でYES)、発話制御部17は、スピーカ40によりユーザに対して発話を行う(SA5)。
(行動状態の判定の処理)
図4は、行動状態判定部15による、ユーザの行動状態を判定する処理(ステップSA3)を示すフローチャートである。ステップSA3においては、行動状態判定部15は最初に、音声解析部12が解析した音声情報を予め登録されたユーザの声の音声情報と比較し、音声解析部12が解析した音声に、登録されたユーザの声が含まれているか否かを判定する(SB1)。上記音声にユーザの声が含まれている場合(SB1でYES)、続けて行動状態判定部15は、上記音声にユーザ以外の他者の声が含まれているか否かを判定する(SB2)。
図4は、行動状態判定部15による、ユーザの行動状態を判定する処理(ステップSA3)を示すフローチャートである。ステップSA3においては、行動状態判定部15は最初に、音声解析部12が解析した音声情報を予め登録されたユーザの声の音声情報と比較し、音声解析部12が解析した音声に、登録されたユーザの声が含まれているか否かを判定する(SB1)。上記音声にユーザの声が含まれている場合(SB1でYES)、続けて行動状態判定部15は、上記音声にユーザ以外の他者の声が含まれているか否かを判定する(SB2)。
上記音声にユーザ以外の他者の声が含まれている場合(SB2でYES)、さらに行動状態判定部15は、ユーザと他者とが会話(掛け合い)をしているか否かを判定する(SB3)。ユーザと他者とが会話している場合(SB3でYES)、行動状態判定部15は、ユーザの行動状態が「(A)他者と会話中」に該当すると判定し(SB4)、判定結果を記憶部50に記憶させる。
一方、上述したステップSB1〜SB3のいずれかでNOの場合、行動状態判定部15は、カメラ30が撮像した画像においてユーザの視線が向けられている物体であるとして画像解析部13により解析された対象物を特定する(SB5)。続けて行動状態判定部15は、特定した対象物がテレビであるか否かを判定する(SB6)。対象物がテレビである場合(SB6でYES)、行動状態判定部15は、ユーザの行動状態が「(B)テレビ視聴中または読書中」に該当すると判定し(SB7)、判定結果を記憶部50に記憶させる。
対象物がテレビではない場合(SB6でNO)、行動状態判定部15は、対象物が本または雑誌であるか否かを判定する(SB8)。対象物が本または雑誌である場合(SB8でYES)、行動状態判定部15は、ユーザの行動状態が「(B)テレビ視聴中または読書中」に該当すると判定し(SB9)、判定結果を記憶部50に記憶させる。対象物が本または雑誌ではない場合(SB8でNO)、行動状態判定部15は、ユーザの行動状態が「(C)何もしていない」に該当すると判定し(SB10)、判定結果を記憶部50に記憶させる。
上述したステップSB1〜SB10までの処理により、行動状態判定部15は、ユーザの行動状態が上述した(A)〜(C)のいずれに該当するかを判定する。なお、ステップSB6およびSB7と、ステップSB8およびSB9とは、どちらが先に実行されてもよい。
また、上述した通り、行動状態判定部15が判定するユーザの行動状態は上記の(A)〜(C)に限定されないため、行動状態判定部15が判定する対象物の種類もテレビ、本または雑誌に限定されない。その場合、行動状態判定部15は、ユーザの視線の対象物以外の物体、例えばユーザが手に持っている物体などを参照してユーザの行動状態を判定してもよい。
また、上述した例では、カメラ30が撮像した画像にユーザの画像が含まれていることを前提として説明したが、電子機器1の使用態様などによっては発話契機においてカメラ30が撮像した画像にユーザの画像が含まれていないことも考えられる。このような場合についても想定するのであれば、例えば画像解析部13が最初に、カメラ30が撮像した画像にユーザの画像が含まれているか否かを解析してもよい。そして、ユーザの画像が含まれていない場合には電子機器1が発話しないように、発話決定テーブルに規定されていてもよい。
以上の処理により、制御部10は、ユーザの感情および行動状態を総合的に判定して電子機器1が発話を行うか否かを決定できる。
〔実施形態2〕
本発明の他の実施形態について、図5および図6に基づいて説明すれば、以下の通りである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
本発明の他の実施形態について、図5および図6に基づいて説明すれば、以下の通りである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
図5は、本実施形態に係る電子機器2の構成を示すブロック図である。電子機器2は、制御部10の代わりに制御部10Aを備える点で電子機器1と相違する。また、制御部10Aは、発話契機判定部11を備えず、発話契機検出部18を備える点で制御部10と相違する。
発話契機検出部18は、感情判定部14が判定した感情が所定の感情であること、または行動状態判定部15が判定した行動状態が所定の行動状態であることを発話契機として検出する。例えば、発話契機検出部18は、感情判定部14がユーザの感情について「(4)その他(特に感情は見られない)」に該当すると判定した時を発話契機として検出してよい。また例えば、発話契機検出部18は、行動状態判定部15がユーザの行動状態について「(C)何もしていない」に該当すると判定した時を発話契機として検出してもよい。また例えば、発話契機検出部18は、ユーザの感情または行動状態が、さらに別の感情または行動状態、あるいはその組み合わせに該当すると感情判定部14または行動状態判定部15が判定した時を発話契機として検出してもよい。本実施形態の発話決定部16は、発話契機検出部18が発話契機を検出したときに、感情判定部14および行動状態判定部15の判定結果の組み合わせに応じて、電子機器2がユーザに対して発話を行うか否かを決定する。
図6は、制御部10Aにおける処理を示すフローチャートである。本実施形態においては、まず、感情判定部14がユーザの感情を判定し(SC1、感情判定ステップ)、行動状態判定部15がユーザの行動状態を判定する(SC2、行動状態判定ステップ)。ステップSC1・SC2の処理は、それぞれ図3に示したステップSA2・SA3の処理と同様である。そして、発話契機検出部18は、感情判定部14および行動状態判定部15による判定結果について、発話契機の検出を行う(SC3)。発話契機を検出しなかった場合(SC3でNO)、制御部10Aは再度ステップSC1からの処理を繰り返す。ステップSC1〜SC3の処理は、継続的に実行されることが好ましい。
発話契機を検出した場合(SC3でYES)、発話決定部16は、感情判定部14および行動状態判定部15の判定結果の組み合わせに応じて、電子機器2がユーザに対して発話を行うか否かを決定する(SC4、発話決定ステップ)。発話を行わないと決定した場合(SC4でNO)、制御部10Aは、再度ステップSC1からの処理を実行する。発話を行うと決定した場合(SC4でYES)、発話制御部17は、スピーカ40によりユーザに対して発話を行う(SC5)。
なお、図6に示したフローチャートでは、ステップSC1・SC2の両方がステップSC3より前に実行される。しかし、本開示の一態様においては、ステップSC1のみがステップSC3より前に実行されてもよい。この場合、ステップSC3において、発話契機検出部18は、感情判定部14の判定結果のみについて発話契機の検出を行う。またこの場合、行動状態判定部15は、例えばステップSC3でYESの場合に、ステップSC4の前にステップSC2を実行してもよい。
また、上記の例とは逆に、ステップSC2のみがステップSC3より前に実行されてもよい。この場合、ステップSC3において、発話契機検出部18は、行動状態判定部15の判定結果のみについて発話契機の検出を行う。またこの場合、感情判定部14は、例えばステップSC3でYESの場合に、ステップSC4の前にステップSC1を実行してもよい。
以上の処理により、制御部10Aは、ユーザが発話に適した感情または行動状態になったことを契機として、電子機器2がユーザに対して発話を行うか否かを決定できる。
〔実施形態3〕
本発明の他の実施形態について、以下に説明する。
本発明の他の実施形態について、以下に説明する。
実施形態1における電子機器1は、例えば家電製品であってよい。具体的には例えば、電子機器1はエアコンであってよい。例えば発話契機判定部11は、電子機器1の冷房運転中に室内の気温が設定温度を下回ったという情報を発話情報として取得した場合、発話契機であると判定してよい。この場合、制御部10は、電子機器1がユーザに対して発話するか否かを決定する処理(すなわち図3に示したステップSA2以降)を行う。また、この場合における電子機器1の発話内容は、例えば冷房の出力を小さくする旨の通知などであってよい。
また、実施形態2における電子機器2も、例えば家電製品であってよい。具体的には例えば、電子機器2は、エアコンであってよい。例えばユーザが何もしていないと行動状態判定部15が判定した場合、発話契機検出部18は当該判定を発話契機として検出する。そして、発話決定部16は、電子機器2がユーザに対して発話するか否かを決定し、発話する場合には発話制御部17が発話内容をスピーカ40から発話する。この場合、電子機器2の発話内容は、例えばその時点における室内の気温の通知などであってよい。
また、電子機器1・2は、例えば冷蔵庫、またはテレビなどであってもよい。このように、本開示の一態様に係る電子機器1・2を家電製品とすることで、制御部10・10Aは、ユーザの感情および行動状態を総合的に判定して、家電製品がユーザに対して発話するか否かを制御することができる。なお、電子機器1・2は、例えば電子機器1・2自体の動作不良など、緊急性の高い情報については、発話決定部16による決定に無関係にユーザに対して発話してもよい。
〔ソフトウェアによる実現例〕
電子機器1・2の制御ブロック(特に感情判定部14、行動状態判定部15、発話決定部16、および発話契機検出部18)は、集積回路(ICチップ)などに形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
電子機器1・2の制御ブロック(特に感情判定部14、行動状態判定部15、発話決定部16、および発話契機検出部18)は、集積回路(ICチップ)などに形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、電子機器1・2は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の一態様の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波など)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る発話制御装置(制御部10・10A)は、ユーザに対して発話を行う機能を有する電子機器(1・2)の上記発話を制御する発話制御装置であって、上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの感情が予め定められた複数の感情のいずれに該当するかを判定する感情判定部(14)と、上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの行動状態が予め定められた複数の行動状態のいずれに該当するかを判定する行動状態判定部(15)と、上記感情判定部および上記行動状態判定部の判定結果の組み合わせに応じて、上記電子機器が上記ユーザに対して発話を行うか否かを決定する発話決定部(16)と、を備える。
本発明の態様1に係る発話制御装置(制御部10・10A)は、ユーザに対して発話を行う機能を有する電子機器(1・2)の上記発話を制御する発話制御装置であって、上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの感情が予め定められた複数の感情のいずれに該当するかを判定する感情判定部(14)と、上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの行動状態が予め定められた複数の行動状態のいずれに該当するかを判定する行動状態判定部(15)と、上記感情判定部および上記行動状態判定部の判定結果の組み合わせに応じて、上記電子機器が上記ユーザに対して発話を行うか否かを決定する発話決定部(16)と、を備える。
上記の構成によれば、発話制御装置は、感情判定部、行動状態判定部、および発話決定部を備える。発話決定部は、ユーザの感情についての感情判定部の判定結果と、ユーザの行動状態についての行動状態判定部の判定結果との組み合わせに応じて、電子機器が発話を行うか否か決定する。したがって、発話制御装置は、ユーザの感情および行動状態を把握して発話可能な状態か否かを総合的に判定することにより、ユーザに対して発話を行うか否かを適切に決定できる。
本発明の態様2に係る発話制御装置(制御部10A)は、上記態様1において、上記感情判定部が判定した感情が所定の感情であること、または上記行動状態判定部が判定した行動状態が所定の行動状態であることを発話契機として検出する発話契機検出部(18)をさらに備え、上記発話決定部は、上記発話契機検出部が上記発話契機を検出したときに、上記感情判定部および上記行動状態判定部の判定結果の組み合わせに応じて、上記電子機器(2)が上記ユーザに対して発話を行うか否かを決定することが好ましい。
上記の構成によれば、発話契機検出部は、ユーザの感情または行動状態が所定の感情または行動状態である場合を、発話契機として検出する。そして、発話決定部は、発話契機におけるユーザの感情および行動状態の組み合わせに応じて、電子機器がユーザに対して発話を行うか否かを決定する。したがって、発話制御装置は、ユーザが発話に適した感情または行動状態になったことを契機とした発話を行うか否かを、そのときのユーザの行動状態または感情に応じて制御することができる。
本発明の態様3に係る電子機器は、上記態様1または2の発話制御装置を備える。
上記の構成によれば、電子機器がユーザに対して発話するか否かを発話制御装置により制御することができる。
本発明の態様4に係る電子機器は、上記態様3において、家電製品である。
上記の構成によれば、家電製品がユーザに対して発話するか否かを発話制御装置により制御することができる。
本発明の態様5に係る制御方法は、ユーザに対して発話を行う機能を有する電子機器(1・2)の上記発話を制御する発話制御装置(10・10A)の制御方法であって、上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの感情が予め定められた複数の感情のいずれに該当するかを判定する感情判定ステップと、上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの行動状態が予め定められた複数の行動状態のいずれに該当するかを判定する行動状態判定ステップと、上記感情判定ステップおよび上記行動状態判定ステップの判定結果の組み合わせに応じて、上記電子機器が上記ユーザに対して発話を行うか否かを決定する発話決定ステップと、を含む。
上記の構成によれば、態様1と同様の効果を奏する。
本発明の各態様に係る発話制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記発話制御装置が備える各部(ソフトウェア要素)として動作させることにより上記発話制御装置をコンピュータにて実現させる発話制御装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の一態様の範疇に入る。
本発明の一態様は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の一態様の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1・2 電子機器
10・10A 制御部(発話制御装置)
14 感情判定部
15 行動状態判定部
16 発話決定部
18 発話契機検出部
10・10A 制御部(発話制御装置)
14 感情判定部
15 行動状態判定部
16 発話決定部
18 発話契機検出部
Claims (6)
- ユーザに対して発話を行う機能を有する電子機器の上記発話を制御する発話制御装置であって、
上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの感情が予め定められた複数の感情のいずれに該当するかを判定する感情判定部と、
上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの行動状態が予め定められた複数の行動状態のいずれに該当するかを判定する行動状態判定部と、
上記感情判定部および上記行動状態判定部の判定結果の組み合わせに応じて、上記電子機器が上記ユーザに対して発話を行うか否かを決定する発話決定部と、を備えることを特徴とする発話制御装置。 - 上記感情判定部が判定した感情が所定の感情であること、または上記行動状態判定部が判定した行動状態が所定の行動状態であることを発話契機として検出する発話契機検出部をさらに備え、
上記発話決定部は、上記発話契機検出部が上記発話契機を検出したときに、上記感情判定部および上記行動状態判定部の判定結果の組み合わせに応じて、上記電子機器が上記ユーザに対して発話を行うか否かを決定することを特徴とする請求項1に記載の発話制御装置。 - 請求項1または2に記載の発話制御装置を備えることを特徴とする電子機器。
- 上記電子機器は、家電製品であることを特徴とする請求項3に記載の電子機器。
- ユーザに対して発話を行う機能を有する電子機器の上記発話を制御する発話制御装置の制御方法であって、
上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの感情が予め定められた複数の感情のいずれに該当するかを判定する感情判定ステップと、
上記ユーザの言動および表情の少なくとも何れかを示す情報を用いて、上記ユーザの行動状態が予め定められた複数の行動状態のいずれに該当するかを判定する行動状態判定ステップと、
上記感情判定ステップおよび上記行動状態判定ステップの判定結果の組み合わせに応じて、上記電子機器が上記ユーザに対して発話を行うか否かを決定する発話決定ステップと、を含むことを特徴とする制御方法。 - 請求項1に記載の発話制御装置としてコンピュータを機能させるための制御プログラムであって、上記感情判定部、上記行動状態判定部、および上記発話決定部としてコンピュータを機能させるための制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017037424A JP2018140477A (ja) | 2017-02-28 | 2017-02-28 | 発話制御装置、電子機器、発話制御装置の制御方法、および制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017037424A JP2018140477A (ja) | 2017-02-28 | 2017-02-28 | 発話制御装置、電子機器、発話制御装置の制御方法、および制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018140477A true JP2018140477A (ja) | 2018-09-13 |
Family
ID=63527281
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017037424A Pending JP2018140477A (ja) | 2017-02-28 | 2017-02-28 | 発話制御装置、電子機器、発話制御装置の制御方法、および制御プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018140477A (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09269889A (ja) * | 1996-04-02 | 1997-10-14 | Sharp Corp | 対話装置 |
JPH11305985A (ja) * | 1998-04-22 | 1999-11-05 | Sharp Corp | 対話装置 |
JP2004109323A (ja) * | 2002-09-17 | 2004-04-08 | Denso Corp | 音声対話装置及びプログラム |
JP2005196134A (ja) * | 2003-12-12 | 2005-07-21 | Toyota Central Res & Dev Lab Inc | 音声対話システム及び方法並びに音声対話プログラム |
JP2016076117A (ja) * | 2014-10-07 | 2016-05-12 | 株式会社Nttドコモ | 情報処理装置及び発話内容出力方法 |
-
2017
- 2017-02-28 JP JP2017037424A patent/JP2018140477A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09269889A (ja) * | 1996-04-02 | 1997-10-14 | Sharp Corp | 対話装置 |
JPH11305985A (ja) * | 1998-04-22 | 1999-11-05 | Sharp Corp | 対話装置 |
JP2004109323A (ja) * | 2002-09-17 | 2004-04-08 | Denso Corp | 音声対話装置及びプログラム |
JP2005196134A (ja) * | 2003-12-12 | 2005-07-21 | Toyota Central Res & Dev Lab Inc | 音声対話システム及び方法並びに音声対話プログラム |
JP2016076117A (ja) * | 2014-10-07 | 2016-05-12 | 株式会社Nttドコモ | 情報処理装置及び発話内容出力方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11462213B2 (en) | Information processing apparatus, information processing method, and program | |
TWI639114B (zh) | 具有智慧語音服務功能之電子裝置及調整輸出聲音之方法 | |
JP5996603B2 (ja) | サーバ、発話制御方法、発話装置、発話システムおよびプログラム | |
US20180009118A1 (en) | Robot control device, robot, robot control method, and program recording medium | |
KR20150112337A (ko) | 디스플레이 장치 및 그 사용자 인터랙션 방법 | |
KR102193029B1 (ko) | 디스플레이 장치 및 그의 화상 통화 수행 방법 | |
US20210105437A1 (en) | Information processing device, information processing method, and storage medium | |
KR20200025226A (ko) | 전자 장치 및 그 제어 방법 | |
WO2018135276A1 (ja) | 言動制御装置、ロボット、制御プログラムおよび言動制御装置の制御方法 | |
JP7330066B2 (ja) | 音声認識装置、音声認識方法及びそのプログラム | |
JP6766675B2 (ja) | 音声対話装置 | |
JP6874437B2 (ja) | コミュニケーションロボット、プログラム及びシステム | |
US11405735B2 (en) | System and method for dynamically adjusting settings of audio output devices to reduce noise in adjacent spaces | |
JP2018140477A (ja) | 発話制御装置、電子機器、発話制御装置の制御方法、および制御プログラム | |
JP6772881B2 (ja) | 音声対話装置 | |
JP2018081147A (ja) | コミュニケーション装置、サーバ、制御方法、および情報処理プログラム | |
JP2020024310A (ja) | 音声処理システム及び音声処理方法 | |
JP7410754B2 (ja) | 音声入出力装置、音声入出力方法、および音声入出力プログラム | |
CN112259097A (zh) | 一种语音识别的控制方法和计算机设备 | |
CN111354351A (zh) | 控制装置、语音交互装置、语音识别服务器以及存储介质 | |
CN111182256A (zh) | 一种信息处理方法及服务器 | |
JP2020136828A (ja) | 電子機器、制御方法及びプログラム | |
JP7404568B1 (ja) | プログラム、情報処理装置、及び情報処理方法 | |
JP6810641B2 (ja) | 命令実行装置、サーバ、命令実行システム、命令実行方法、及び命令実行プログラム | |
JP2019072787A (ja) | 制御装置、ロボット、制御方法、および制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201013 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210406 |