JP2016109897A - 電子機器、発話制御方法、およびプログラム - Google Patents

電子機器、発話制御方法、およびプログラム Download PDF

Info

Publication number
JP2016109897A
JP2016109897A JP2014247827A JP2014247827A JP2016109897A JP 2016109897 A JP2016109897 A JP 2016109897A JP 2014247827 A JP2014247827 A JP 2014247827A JP 2014247827 A JP2014247827 A JP 2014247827A JP 2016109897 A JP2016109897 A JP 2016109897A
Authority
JP
Japan
Prior art keywords
utterance
robot
determined
person
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014247827A
Other languages
English (en)
Other versions
JP6452420B2 (ja
Inventor
孝之 永松
Takayuki Nagamatsu
孝之 永松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014247827A priority Critical patent/JP6452420B2/ja
Publication of JP2016109897A publication Critical patent/JP2016109897A/ja
Application granted granted Critical
Publication of JP6452420B2 publication Critical patent/JP6452420B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】会話の相手に適した発話をする電子機器を提供する。
【解決手段】電子機器であるロボット1は、人との会話に基づき人の特徴を判定し、判定された特徴に応じた発話を行なう。ロボット1は、方言の種別や年齢層、性別などを音声特徴から判定し、判定された種別、年齢層、性別に適した発話を行なう。
【選択図】図2

Description

本発明は、発話が可能な電子機器、電子機器における発話制御方法、および電子機器を制御するためのプログラムに関する。
従来、フレーズから語調に関する特徴量を分析する技術が知られている。たとえば、特許文献1には、このような分析技術を備えるユーザプロファイル抽出装置が開示されている。当該ユーザプロファイル抽出装置は、発話者の音声信号から有声区間の音声信号をフレーズとして抽出し、フレーズから語調に関する特徴量を分析する。さらに、ユーザプロファイル抽出装置は、第1記憶手段に記憶されている地域別の語調特徴量を読み出して、分析した特徴量に最も近い語調特徴量に対応する地域を判定する。
特許文献2にも、上記のような分析技術を備える情報処理システムが開示されている。情報処理システムでは、音声状況判定部が、ユーザの音声信号から発話中の方言を語調に基づいて分析し、方言が使用されている地域を判定すると共に、分析された方言の数及び各方言の使用時間長に基づいて利用者の発話状況を判定する。さらに、当該情報処理システムでは、サービスゲートウェイが、前回の会話から一定時間以内に該利用者から情報検索要求が送信された場合に、判定された地域情報及び利用者の発話状況に対応する付加情報を情報検索要求に追加して、追加された付加情報に対応する情報検索応答を利用者に提供する。
また、従来、ユーザとの間で会話が可能なロボットが開発されている。たとえば、特許文献3には、このようなロボットとしてのコミュニケーションロボットが開示されている。当該コミュニケーションロボットは、ユーザが発話する言葉を検知する音声検知手段と、所定の応答反応を表出する反応表出手段とを有する。コミュニケーションロボットは、ユーザの話し言葉に反応して予め定められた複数パターンの応答反応を表出させる。詳しくは、コミュニケーションロボットは、話し言葉が通常表現であるか否かの判定、話し言葉が同意要求表現であるか否かの判定、話し言葉が断定表現であるか否かの判定の少なくともいずれかの判定を実施し、判定結果に基づいて異なる応答反応を表出させる。
特許文献4には、子供の相手をするためのロボットが開示されている。当該ロボットは、子供の状況を示す情報を取得する。また、ロボットは、取得された状況に基づき、状況と、当該状況が生じたときにロボットがとるべき行動とを対応づけて記憶する行動記憶部を参照して、行動を決定する。
特開2010−256765号公報 特開2010−277388号公報 特開2013−86226号公報 特開2005−305631号公報
特許文献1のユーザプロファイル抽出装置は、特定された方言を用いて発話をするものではない。この点は、特許文献2の情報処理システムでも同様である。
特許文献3における応答反応は、相槌を打つこと、首を振ること等である。それゆえ、応答反応は、ロボットがユーザに話す場合の話し言葉とは関連性がない。
特許文献4のロボットは、ロボットの前にいる子供の声に基づき行動を決定する構成であって、子供との会話を通じて行動を決定するものではない。
本願発明は、上記の問題点に鑑みなされたものであって、その目的は、会話の相手に適した発話をすることが可能な電子機器、発話制御方法、およびプログラムを提供することにある。
本発明のある局面に従うと、電子機器は、人との会話に基づき人の特徴を判定し、判定された特徴に応じた発話を行なう。
好ましくは、特徴は、方言の種別、年齢層、および会話時の気分のうちの少なくとも1つである。
好ましくは、特徴は、方言の種別である。電子機器は、発話のために音声を出力する音声出力手段と、方言の種別を判定する第1の判定手段と、判定された特徴に応じた発話を音声出力手段に行なわせる発話制御手段とを備える。発話制御手段は、音声出力手段に判定された種別の方言で発話させる。
好ましくは、特徴は、方言の種別である。電子機器は、発話のために音声を出力する音声出力手段と、方言の種別を判定する第1の判定手段と、判定された特徴に応じた発話を音声出力手段に行なわせる発話制御手段とを備える。発話制御手段は、音声出力手段に判定された種別の方言が用いられている地域の情報に関する発話を行なわせる。
好ましくは、特徴は、年齢層である。電子機器は、発話のために音声を出力する音声出力手段と、人の年齢層を判定する第2の判定手段と、判定された特徴に応じた発話を音声出力手段に行なわせる発話制御手段とを備える。発話制御手段は、音声出力手段に判定された年齢層に見合った話し方で発話を行わせる。
好ましくは、発話制御手段は、音声出力手段に判定された年齢層に見合った内容を発話させる。
好ましくは、特徴は、気分である。電子機器は、発話のために音声を出力する音声出力手段と、人の気分を判定する第3の判定手段と、判定された特徴に応じた発話を音声出力手段に行なわせる発話制御手段とを備える。発話制御手段は、音声出力手段に判定された気分に応じた発話を行なわせる。
好ましくは、電子機器は、複数の人との会話に基づき複数の人の各々の特徴を判定する。電子機器は、判定された複数の特徴のうち、特徴を共通にする人が最も多い特徴を特定する。電子機器は、特定された特徴に応じた発話を行なう。
好ましくは、電子機器は、複数の人のうち特定された特徴とは異なる特徴を有する人に対して発話する場合には、特定された特徴に応じた発話を行なわずに、当該人の特徴に応じた発話を行なう。
好ましくは、電子機器は自走式のロボットである。
本発明の他の局面に従うと、発話制御方法は、電子機器において実行される。発話制御方法は、人との会話に基づき人の特徴を判定するステップと、判定された特徴に応じた発話を行なうステップとを備える。
本発明のさらに他の局面に従うと、プログラムは、電子機器を制御する。プログラムは、人との会話に基づき人の特徴を判定するステップと、判定された特徴に応じた発話を行なうステップとを、電子機器のプロセッサに実行させる。
上記の発明によれば、会話の相手に適した発話をすることが可能となる。
ロボット1の外観を表した図である。 ロボット1と人901とが会話をしている状態を表した図である。 ロボット1が使用するデータベースD3の概略構成を説明するための図である。 ロボット1の機能的構成を説明するための機能ブロック図である。 ロボット1における処理の流れを説明するためのフローチャートである。 ロボット1のハードウェア構成を表した図である。 ロボット1と複数の人間とが輪になっている状況を表した図である。 ロボット1における処理の流れを説明するためのフローチャートである。 図8のステップS110,S118の処理における例外処理を説明するためのフローチャートである。 ロボットとサーバとを備えた通信システムの概略図である。 ロボット2と人901とが会話をしている状態を表した図である。
以下、図面を参照しつつ、本発明の各実施の形態に係る電子機器について説明する。また、以下の説明では、同一の部材には同一の参照符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
また、実施の形態1〜4では、電子機器が自走式の人間型ロボットである場合を例に挙げて説明する。実施の形態5では、電子機器が自走式の掃除機型ロボットである場合を例に挙げて説明する。なお、電子機器は、必ずしもロボットである必要はない。また、上記ロボットは、必ずしも自走式ではなくてもよい。
さらに、実施の形態1では、説明を簡略化するため、ロボットが一人の人間と会話するときの処理を説明する。その後、実施の形態2等において、ロボットが複数の人間と会話するときの処理を説明する。
[実施の形態1]
<A.外観>
図1は、ロボット1の外観を表した図である。図1を参照して、ロボット1は、車輪111によって自走可能なロボットである。ロボット1は、タッチスクリーン109を備えている。ロボット1は、発話機能のみならず、人と会話を行なう機能を備える。このため、ロボット1は、図示しないマイクおよびスピーカを筐体に備えている。なお、ロボット1は、一般家庭のみならず、公共施設で使用され得る。公共施設としては、たとえば、駅、空港等が挙げられる。
<B.処理の概要>
ロボット1は、人との会話に基づき当該人の特徴を判定し、当該判定された特徴に応じた発話を行なう。典型的には、ロボット1は、人との会話における内容および音声に基づき、人が使用する方言の種別、人の年齢層、人の気分等を判定し、判定結果に基づいた発話を行なう。また、ある局面では、ロボット1は、人との会話に基づき当該人の特徴を判定し、当該判定された特徴に応じた発話を行なう。
上述したように、上記特徴としては、方言の種別、年齢層、および会話時の気分が挙げられる。なお、特徴は、これらに限定されるものではない。以下では、特徴が上記の典型な例である場合の処理について、例を挙げて説明する。
(b1.方言の種別)
ロボット1は、人との会話を通じて、人の特徴として方言の種別を判定する。ロボット1は、当該判定結果に基づいた発話を行なう。たとえば、ロボット1は、判定された種別の方言を用いた発話を行なう。
図2は、ロボット1と人(男性)901とが会話をしている状態を表した図である。図2を参照して、ロボット1は、人901が発話した言葉がたとえば関西弁であると判定すると、人901に対して関西弁で発話を行なう。
判定結果に基づいた発話は、判定された種別の方言を用いた発話に限定されるものではない。たとえば、判定結果に基づいた発話は、判定された種別の方言が用いられている地域の情報が含まれたものであってもよい。
(b2.年齢)
ロボット1は、人901との会話を通じて、人901の特徴として年齢層を判定する。ロボット1は、当該判定結果に基づいた発話を行なう。典型的には、ロボット1は、判定された年齢層に応じた発話(話し方)をする。また、ロボット1は、判定された年齢層に応じた内容を発話する。
(b3.気分)
ロボット1は、人901との会話を通じて、人901の特徴として会話時の人901の気分を判定する。ロボット1は、判定結果(気分)に応じた発話を行なう。たとえば、ロボット1は、人901が落ち込んでいると判定すると、優しい口調で発話する。
(b4.利点)
以上のように、ロボット1が、人901との会話に基づき人901の特徴を判定し、当該判定された特徴に応じた発話を行なうため、ロボット1は、会話の相手に適した発話をすることが可能となる。それゆえ、人901は、ロボット1との会話を通じて、ロボット1に親近感を抱くことができる。したがって、ロボット1と人901との会話が活発になり、ロボット1が人901にとって一層役に立つ存在となり得る。
以下、上記のような機能を有するロボット1の詳細について説明する。
<C.データ>
図3は、ロボット1が使用するデータベースD3の概略構成を説明するための図である。図3を参照して、データベースD3は、上述した特徴とロボットの発話形式とが対応付けられている。特徴は、複数に分類(大分類)されている。詳しくは、各分類は、さらに、複数に分類(小分類)されている。データベースD3においては、小分類毎に、ロボットの発話形式が対応付けられている。
大分類としては、典型的には、上述したように、方言の種別、年齢層、および発話時の気分(機嫌)が挙げられる。方言の種別についての分類(小分類)としては、“標準語”、“関西弁”、“九州弁”等が挙げられる。年齢層についての分類としては、“幼い”、“学生”、“お年寄り”等が挙げられる。発話時の気分についての分類としては、“機嫌よい”、“怒り”、“苛立ち”、“落ち込み”等が挙げられる。
ロボット1は、データベースD3を参照し、人901との会話に使用するフレーズ、語調等を決定する。詳しくは、ロボット1は、データベースD3を参照し、人901との会話を通じて、人901の特徴を判定する。その後、ロボット1は、判定された特徴に応じた発話を行なう。一例として、ロボット1は、人901の発話が関西弁であって、年寄りの発話であると判定すると、関西弁で発話するとともに、ゆっくり一語ずつ丁寧に話す。
なお、小分類毎のロボットの発話形式の欄に、複数の発話形式(たとえば、“標準語で話す”、“日本で最近の話題を活用する”)が記載されている場合には、ロボット1は、全ての発話形式を利用して、人901に対して発話を行なってもよいし、あるいは、ロボット1は、複数の発話形式のうちの1つを利用して、人901に対して発話してもよい。後者の場合には、ロボット1は、予め定められた規則に基づき、どの発話形式を選択するかを決定すればよい。
<D.機能的構成>
図4は、ロボット1の機能的構成を説明するための機能ブロック図である。図4を参照して、ロボット1は、制御部151と、音声入力部152と、記憶部153と、音声出力部154と、通信部155とを備える。
制御部151は、特徴判定部1510と、発話制御部1520とを含む。特徴判定部1510は、方言判定部1511と、年齢層判定部1512と、気分判定部1513とを有する。
制御部151は、ロボット1の全体の動作を制御する。詳しくは、制御部151は、記憶部153に記憶された、オペレーティングシステムおよび各種のプログラムを実行することにより、ロボット1の全体の動作を制御する。さらに詳しくは、ロボット1は、記憶部153に記憶されたデータベースD3(図3)を参照して、特徴を判定し、当該判定された特徴に応じた発話を行なうための制御を行なう。
音声入力部152は、マイク108(図6)に対応する。音声入力部152からは、人901等の声、周囲の雑音等が入力される。
音声出力部154は、スピーカ106(図6)に対応する。音声出力部154は、典型的には、発話のために音声を出力する。
通信部155は、無線通信IF(InterFace)112およびアンテナ113に対応する。通信部155は、他の通信機器(図示せず)と通信するために設けられている。
次に、制御部151の特徴判定部1510と発話制御部1520との処理について説明する。
特徴判定部1510は、人901との会話に基づき人901の特徴を判定する。発話制御部1520は、上記判定された特徴に応じた発話を音声出力部154に行なわせる。
方言判定部1511は、人901が方言で発話した場合、当該方言の種別を判定する。具体的に説明すると以下の通りである。記憶部153には、各地域の方言(複数の言葉)が当該地域(正確には地域の識別情報)に対応付けて記憶されている。方言判定部1511は、人901が方言を発話した場合、当該方言の種別を判定する。方言判定部1511は、判定結果を発話制御部1520に送る。
発話制御部1520は、典型的には、判定された種別の方言を音声出力部154に発話させる制御を行なう。具体的には、発話制御部1520は、データベースD3におけるロボットの発話形式を参照することにより、たとえば判定された種別の方言を音声出力部154に発話させる制御を行なう。
あるいは、発話制御部1520は、データベースD3におけるロボットの発話形式を参照することにより、判定された種別の方言が用いられている地域の情報を含んだ発話を、音声出力部154に行わせてもよい。
年齢層判定部1512は、人901が発話した場合、人901の年齢層を判定する。具体的に説明すると以下の通りである。具体的に説明すると以下の通りである。記憶部153には、年齢層を判定するためのデータ(図示せず)が記憶されている。当該データは、各年齢層が使用する特有の言葉の情報等が格納されている。年齢層判定部1512は、人901が発話した場合、発話の内容(使用される言葉等)に基づき、年齢層を判定する。
年齢層判定部1512は、判定結果を発話制御部1520に送る。
発話制御部1520は、典型的には、判定された年齢層に見合った話し方で、音声出力部154に発話させる制御を行なう。具体的には、発話制御部1520は、データベースD3におけるロボットの発話形式を参照することにより、たとえば判定された年齢層に見合った話で、音声出力部154に発話させる制御を行なう。
あるいは、発話制御部1520は、データベースD3におけるロボットの発話形式を参照することにより、判定された年齢層に見合った内容を音声出力部154に発話させてもよい。
気分判定部1513は、人901が発話した場合、人901の気分を判定する。具体的に説明すると以下の通りである。記憶部153には、様々な気分を表す言葉が、当該気分(正確には、気分の識別情報)に対応付けて記憶されている。気分判定部1513は、人901が発話した場合、当該発話における言葉が対応付けれた気分を判定する。気分判定部1513は、判定結果を発話制御部1520に送る。なお、気分判定部1513は、人901の発話における声の抑揚等に基づいて、気分を判定してもよい。この場合には、判定の精度を上げるため、ロボット1は、人901の通常時の抑揚を事前に学習しておくことが好ましい。
発話制御部1520は、典型的には、判定された気分に応じた発話を、音声出力部154にさせる制御を行なう。具体的には、発話制御部1520は、データベースD3におけるロボットの発話形式を参照することにより、たとえば判定された気分に応じた発話を音声出力部154に行わせる。
<E.制御構造>
図5は、ロボット1における処理の流れを説明するためのフローチャートである。図5を参照して、ステップS2において、ロボット1は、特徴についてのデフォルトの設定で、人901との会話する。ステップS4において、ロボット1は、人901との会話を通じて、人901の特徴を判定する。ステップS6において、ロボット1は、特徴が判定できたか否かを判断する。
特徴が判定できたと判断された場合(ステップS6においてYES)、ロボット1は、ステップS8において、判定された特徴で会話をする。たとえば、デフォルトの設定が標準語である場合、人901の特徴が関西弁であると判定されると、ロボット1は、標準語による発話(会話)を取止め、関西弁に応じた発話(会話)をする。なお、特徴が判定できていないと判断された場合(ステップS6においてNO)、ロボット1は、処理をステップS4に戻す。
ステップS10において、ロボット1は、会話の終了を示すイベントが発生したか否かを判断する。「インベントの発生」としては、たとえば、ロボット1の周囲に人901がいなくなったこと、人901からの発話が予め定めらた時間行われなかったこと、人901から所定の入力を受け付けたこと等とすることができる。
イベントが発生したと判断した場合(ステップS10においてYES)、ロボット1は、ステップS12において、判定された特徴をデフォルトに設定する。これにより、ロボット1は、次回の会話において、最初から、上記判定された特徴で会話を開始することができる。たとえば、ロボット1は、ステップS2において、関西弁で会話を開始することができる。なお、イベントが発生していないと判断した場合(ステップS10においてNO)、ロボット1は、処理をステップS8に戻す。
なお、特徴についてのデフォルトの設定を変更しない構成であってもよい。たとえば、ステップS2において、常に標準語で会話を開始するようにロボット1を構成してもよい。
<F.ハードウェア構成>
図6は、ロボット1のハードウェア構成を表した図である。図6を参照して、ロボット1は、プログラムを実行するCPU101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、フラッシュメモリ104と、操作キー105と、スピーカ106と、カメラ107と、マイク108と、タッチスクリーン109と、モータ110と、車輪111と、無線通信IF(Interface)112と、アンテナ113とを、少なくとも含んで構成されている。タッチスクリーン109は、ディスプレイ1091と、タッチパネル1092とを含む。各構成要素101〜110,112は、相互にデータバスによって接続されている。
アンテナ113は、無線通信IF112に接続されている。アンテナ113および無線通信IF112は、たとえば、基地局を介した、他の移動体端末、固定電話、およびPC(Personal Computer)との間における無線通信に用いられる。
ROM102は、不揮発性の半導体メモリである。ROM102は、ロボット1のブートプログラムが予め格納されている。フラッシュメモリ104は、不揮発性の半導体メモリである。フラッシュメモリ104は、一例としてNAND型で構成してもよい。フラッシュメモリ104は、ロボット1のオペレーティングシステム、ロボット1を制御するための各種のプログラム、並びに、ロボット1が生成したデータ、ロボット1の外部装置から取得したデータ等の各種データを揮発的に格納する。
ロボット1における処理は、各ハードウェアおよびCPU101により実行されるソフトウェアによって実現される。このようなソフトウェアは、フラッシュメモリ104に予め記憶されている場合がある。また、ソフトウェアは、図示しないメモリカードその他の記憶媒体に格納されて、プログラムプロダクトとして流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラムプロダクトとして提供される場合もある。このようなソフトウェアは、アンテナ113および無線通信IF112を介してダウンロードされた後、フラッシュメモリ104に一旦格納される。そのソフトウェアは、CPU101によってフラッシュメモリ104から読み出され、さらにフラッシュメモリ104に実行可能なプログラムの形式で格納される。CPU101は、そのプログラムを実行する。
本発明の本質的な部分は、フラッシュメモリ104その他の記憶媒体に格納されたソフトウェア、あるいはネットワークを介してダウンロード可能なソフトウェアであるともいえる。なお、記録媒体としては、DVD-ROM、CD−ROM、FD、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク、光カード、マスクROM、EPROM、EEPROM、フラッシュROMなどの半導体メモリ等の固定的にプログラムを担持する媒体でもよい。また、記録媒体は、当該プログラム等をコンピュータが読取可能な一時的でない媒体である。また、ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。
[実施の形態2]
本実施の形態では、上述したとおり、ロボット1が複数の人間と会話するときの処理を説明する。
図7は、ロボット1と複数の人間とが輪になっている状況を表した図である。図7を参照して、ロボット1は、2名の大人の男性901,902と、2名の大人の女性903,904と、1名の男の子(子供)と会話が可能な状態となっている。
この場合、ロボット1は、5人と会話を行なう。会話の内容としては、5人全員に対するもの、特定の一人に対するもの、5人を1つのグループとしてとらえた場合における一部のサブグループ(たとえば、2人の大人の女性で構成されるサブグループ、4人の大人で構成されるサブグループ)に対するもの等がある。
図8は、ロボット1における処理の流れを説明するためのフローチャートである。図8を参照して、図5のフローチャートの相違は、ステップS102〜S120が追加されている点である。したがって、以下では、図5のフローチャートと異なる点を主として説明する。
ステップS2の後、ロボット1は、ステップS102において、会話の相手が複数人か否かを判断する。複数人ではないと判断された場合(ステップS102においてNO)、ロボット1は、処理をステップS4に進める。複数人であると判断された場合(ステップS102においてYES)、ロボット1は、ステップS104において、会話を通じて各人の特徴の判定を開始する。ステップS106において、ロボット1は、全員分の特徴が判定されたか否かを判断する。
全員の特徴が判定されていないと判断された場合(ステップS106においてNO)、ロボット1は、ステップS108において、判定がなされた人数分の判定結果に基づいて、会話に用いる特徴を決定する。ステップS110において、ロボット1は、決定された特徴で会話する。
ステップS112において、ロボット1は、会話の終了を示すイベントが発生したか否かを判断する。インベントが発生したと判断された場合(ステップS112においてYES)、ロボット1は、ステップS114において、決定された特徴をデフォルトに設定する。インベントが発生していないと判断された場合(ステップS112においてNO)、ロボット1は、処理をステップS104に戻す。
全員の特徴が判定されたと判断された場合(ステップS106においてYES)、ロボット1は、ステップS116において、全員の判定結果に基づいて、会話に用いる特徴を決定する。ステップS118において、ロボット1は、決定された特徴で会話する。
ステップS120において、ロボット1は、会話の終了を示すイベントが発生したか否かを判断する。インベントが発生したと判断された場合(ステップS120においてYES)、ロボット1は、処理をステップS114に進める。インベントが発生していないと判断された場合(ステップS120においてNO)、ロボット1は、処理をステップS120に戻す。
ロボット1は、ステップS108,S116において、典型的には、最も人数の多い特徴(つまり、特徴を共通にする人が最も多い特徴)を、会話に用いる特徴として決定する。たとえば、ロボット1は、全員(5人)のうち、3人の特徴が関西弁で、かつ2人の特徴が標準語であると判断した場合、ロボット1は、ステップS116において、会話に用いる特徴を関西弁とする。
以上のように、ロボット1は、複数の前記人との会話に基づき当該複数の人の各々の特徴を判定する。ロボット1は、判定された複数の特徴のうち、特徴を共通にする人が最も多い特徴を特定する。ロボット1は、特定された特徴に応じた発話を行なう。これにより、ロボット1は、複数人と会話する場合であっても、全体最適の観点から全体(グループ)に適した発話をすることができる。
[実施の形態3]
本実施の形態でも、実施の形態2と同様、ロボットが複数の人間と会話するときの処理を説明する。
実施の形態2においては、ステップS108およびステップS116において決定された特徴でのみ会話が行われる構成を説明した。
本実施の形態では、ロボット1が、ステップS108およびステップS116で決定された特徴に基づき、ステップS110およびステップS118において会話(発話)をすることを原則としつつも、ステップS110およびステップS118において例外処理を設ける。以下、例外処理について説明する。
図9は、図8のステップS110,S118の処理における例外処理を説明するためのフローチャートである。図9を参照して、ステップS202において、ロボット1は、発話するフレーズを決定する。ステップS204において、ロボット1は、決定されたフレーズは、全員向けのフレーズであるか否かを判断する。なお、フレーズが全員向けであるか否かは、フレーズ毎に予め識別情報を付加しておくことより、ロボット1が当該識別情報を参照して判断すればよい。
全員向けのフレーズであると判断された場合(ステップS206においてYES)、ロボット1は、ステップS110またはステップS112で決定された特徴で会話する。全員向けのフレーズであると判断されなかった場合(ステップS206においてNO)、ロボット1は、特定の人、または特定のサブグループ向けの特徴で会話する。
本実施の形態における処理の一例を、具体例を挙げて説明すれば以下のとおりである。たとえば、図7においては、5人のうち4人が中年の大人であるため、ロボット1は、ステップS116において、会話に用いる特徴として、年齢層のうち“中年”を選択する。
このため、ロボット1は、ステップS118において、“中年”に対応したロボットの発話形式(図3参照)にて、会話する。しかしながら、フレーズが子供向けである場合には、会話に用いる特徴として、年齢層のうち“幼い”を選択する。つまり、フレーズが子供向けの場合には、ロボット1は、発話形式を“中年”に対応した形式から“幼い”に対応した形式に一時的に切り替えて、発話を行なう。
以上のように、ロボット1は、複数の人のうち特定された特徴とは異なる特徴を有する人に対して発話する場合には、特定された特徴に応じた発話を行なわずに、当該人の特徴に応じた発話を行なう。これにより、ロボット1は、会話相手に対して一層柔軟な発話を行なうことが可能となる。
[実施の形態4]
上記の実施の形態1から3においては、ロボット1が上述したデータテーブルD3等の各種のデータ、プログラムを格納し、上述した全ての処理を単独で実行する構成を例に挙げて説明した。しかしながら、これに限定されず、ロボット1は、サーバと共同して、上述した各処理を実行してもよい。
図10は、ロボットとサーバとを備えた通信システムの概略図である。図10を参照して、通信システムは、ロボット1Aと、サーバ700と、ルータ900とを備える。ロボット1は、ルータ900を介して、サーバ700と通信可能に接続されている。なお、ロボット1Aは、ロボット1と同様のハードウェア構成を有するため、ここでは、ロボット1Aのハードウェア構成については繰り返し説明は行わない。
このような通信システムでは、たとえば、ロボット1Aの代わりにサーバ700がデータベースD3を備えていてもよい。また、ロボット1Aの代わりにサーバ700が図4に示した特徴判定部1510を備えていてもよい。
このような構成であっても、ロボット1Aは、会話の相手に適した発話をすることが可能となる。
[実施の形態5]
実施の形態1から4では、電子機器の一例として、人間型のロボット1,1Aを例に挙げて説明したが、これに限定されるものではない。
図11は、ロボット2と人901とが会話をしている状態を表した図である。図11を参照して、ロボット1,1Aの代わりに掃除機型のロボット2に、ロボット1,1Aと同様の発話処理(発話制御方法)を行なわせてもよい。
<まとめ>
(1)以上のように、ロボット1,1A,2は、人との会話に基づき人の特徴を判定し、判定された特徴に応じた発話を行なう。上記の構成によれば、会話の相手に適した発話をすることが可能となる。
(2)たとえば、特徴は、方言の種別、年齢層、および会話時の気分のうちの少なくとも1つである。
(3)特徴は、方言の種別である。ロボット1,1A,2は、発話のために音声を出力する音声出力部154と、方言の種別を判定する方言判定部1511と、判定された特徴に応じた発話を音声出力部154に行なわせる発話制御部1520とを備える。発話制御部1520は、音声出力部154に判定された種別の方言で発話させる。上記の構成によれば、ロボット1,1A,2は、人が話している方言と同じ方言で発話することが可能となるため、会話が弾む。
(4)特徴は、方言の種別である。ロボット1,1A,2は、発話のために音声を出力する音声出力部154と、方言の種別を判定する方言判定部1511と、判定された特徴に応じた発話を音声出力部154に行なわせる発話制御部1520とを備える。発話制御部1520は、音声出力部154に判定された種別の方言が用いられている地域の情報に関する発話を行なわせる。上記の構成によれば、ロボット1,1A,2は、人の出身地に関する情報を発話するため、会話が弾む。
(5)好ましくは、特徴は、年齢層である。ロボット1,1A,2は、発話のために音声を出力する音声出力部154と、人の年齢層を判定する年齢層判定部1512と、判定された特徴に応じた発話を音声出力部154に行なわせる発話制御部1520とを備える。発話制御部1520は、音声出力部154に判定された年齢層に見合った話し方で発話を行わせる。上記の構成によれば、ロボット1,1A,2は、同じような話し方で発話をするため、人は違和感を感じすることなくロボット1,1A,2と会話ができる。
(6)発話制御部1520は、音声出力部154に判定された年齢層に見合った内容を発話させる。上記の構成によれば、ロボット1,1A,2は、会話の内容に興味を抱きやすいため、人との会話が弾む。
(7)特徴は、気分である。ロボット1,1A,2は、発話のために音声を出力する音声出力部154と、人の気分を判定する気分判定部1513と、判定された特徴に応じた発話を音声出力部154に行なわせる発話制御部1520とを備える。発話制御部1520は、音声出力部154に判定された気分に応じた発話を行なわせる。上記の構成によれば、ロボット1は、ユーザの気分に応じた発話を行なうため、ユーザは、ロボット1と心地の良い会話ができる。
(8)ロボット1,1A,2は、複数の人との会話に基づき複数の人の各々の特徴を判定する。ロボット1,1A,2は、判定された複数の特徴のうち、特徴を共通にする人が最も多い特徴を特定する。ロボット1,1A,2は、特定された特徴に応じた発話を行なう。上記の構成によれば、ロボット1,1A,2は、複数人と会話する場合であっても、全体最適の観点から全体(グループ)に適した発話をすることができる。
(9)ロボット1,1A,2は、複数の人のうち特定された特徴とは異なる特徴を有する人に対して発話する場合には、特定された特徴に応じた発話を行なわずに、当該人の特徴に応じた発話を行なう。上記の構成によれば、ロボット1,1A,2は、会話相手に対して一層柔軟な発話を行なうことが可能となる。
(10)好ましくは、ロボット1,1A,2は自走式である。
今回開示された実施の形態は例示であって、上記内容のみに制限されるものではない。本発明の範囲は特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1,1A,2 ロボット、106 スピーカ、108 マイク、109 タッチスクリーン、111 車輪、151 制御部、152 音声入力部、153 記憶部、154 音声出力部、155 通信部、700 サーバ、900 ルータ、1510 特徴判定部、1511 方言判定部、1512 年齢層判定部、1513 気分判定部、1520 発話制御部、D3 データベース。

Claims (12)

  1. 人との会話に基づき前記人の特徴を判定し、前記判定された特徴に応じた発話を行なう、電子機器。
  2. 前記特徴は、方言の種別、年齢層、および前記会話時の気分のうちの少なくとも1つである、請求項1に記載の電子機器。
  3. 前記特徴は、前記方言の種別であって、
    前記発話のために音声を出力する音声出力手段と、
    前記方言の種別を判定する第1の判定手段と、
    前記判定された特徴に応じた発話を前記音声出力手段に行なわせる発話制御手段とを備え、
    前記発話制御手段は、前記音声出力手段に前記判定された種別の方言で発話させる、請求項2に記載の電子機器。
  4. 前記特徴は、前記方言の種別であって、
    前記発話のために音声を出力する音声出力手段と、
    前記方言の種別を判定を判定する第1の判定手段と、
    前記判定された特徴に応じた発話を前記音声出力手段に行なわせる発話制御手段とを備え、
    前記発話制御手段は、前記音声出力手段に前記判定された種別の方言が用いられている地域の情報に関する発話を行なわせる、請求項2に記載の電子機器。
  5. 前記特徴は、前記年齢層であって、
    前記発話のために音声を出力する音声出力手段と、
    前記人の年齢層を判定する第2の判定手段と、
    前記判定された特徴に応じた発話を前記音声出力手段に行なわせる発話制御手段とを備え、
    前記発話制御手段は、前記音声出力手段に前記判定された年齢層に見合った話し方で発話を行わせる、請求項2に記載の電子機器。
  6. 前記発話制御手段は、前記音声出力手段に前記判定された年齢層に見合った内容を発話させる、請求項5に記載の電子機器。
  7. 前記特徴は、前記気分であって、
    前記発話のために音声を出力する音声出力手段と、
    前記人の気分を判定する第3の判定手段と、
    前記判定された特徴に応じた発話を前記音声出力手段に行なわせる発話制御手段とを備え、
    前記発話制御手段は、前記音声出力手段に前記判定された気分に応じた発話を行なわせる、請求項2に記載の電子機器。
  8. 複数の前記人との会話に基づき前記複数の人の各々の特徴を判定し、
    前記判定された複数の前記特徴のうち、前記特徴を共通にする人が最も多い前記特徴を特定し、
    前記特定された特徴に応じた発話を行なう、請求項1から7のいずれか1項に記載の電子機器。
  9. 前記複数の人のうち前記特定された特徴とは異なる特徴を有する人に対して発話する場合には、前記特定された特徴に応じた発話を行なわずに、当該人の特徴に応じた発話を行なう、請求項8に記載の電子機器。
  10. 前記電子機器は自走式のロボットである、請求項1から9のいずれか1項に記載の電子機器。
  11. 電子機器における発話制御方法であって、
    人との会話に基づき前記人の特徴を判定するステップと、
    前記判定された特徴に応じた発話を行なうステップとを備える、発話制御方法。
  12. 電子機器を制御するためのプログラムであって、
    人との会話に基づき前記人の特徴を判定するステップと、
    前記判定された特徴に応じた発話を行なうステップとを、前記電子機器のプロセッサに実行させる、プログラム。
JP2014247827A 2014-12-08 2014-12-08 電子機器、発話制御方法、およびプログラム Expired - Fee Related JP6452420B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014247827A JP6452420B2 (ja) 2014-12-08 2014-12-08 電子機器、発話制御方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014247827A JP6452420B2 (ja) 2014-12-08 2014-12-08 電子機器、発話制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2016109897A true JP2016109897A (ja) 2016-06-20
JP6452420B2 JP6452420B2 (ja) 2019-01-16

Family

ID=56122060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014247827A Expired - Fee Related JP6452420B2 (ja) 2014-12-08 2014-12-08 電子機器、発話制御方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6452420B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017208495A1 (ja) 2016-06-01 2017-12-07 パナソニックIpマネジメント株式会社 浄化ユニット及び浄化装置
WO2018061888A1 (ja) * 2016-09-29 2018-04-05 株式会社 東芝 関心維持システム及びサーバ
JP2019061050A (ja) * 2017-09-26 2019-04-18 カシオ計算機株式会社 対話装置、対話方法及びプログラム
KR20190068021A (ko) * 2017-12-08 2019-06-18 전자부품연구원 감정 및 윤리 상태 모니터링 기반 사용자 적응형 대화 장치 및 이를 위한 방법
CN110364164A (zh) * 2018-03-26 2019-10-22 卡西欧计算机株式会社 对话控制装置、对话系统、对话控制方法以及存储介质
JP2020064151A (ja) * 2018-10-16 2020-04-23 東京瓦斯株式会社 再生システムおよびプログラム
KR20200124595A (ko) * 2019-04-24 2020-11-03 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 음성 인터랙션 방법, 장치, 지능형 로봇 및 컴퓨터 판독 가능 저장 매체
CN111916056A (zh) * 2019-10-28 2020-11-10 宁波大学 一种智能语音识别方法
US11328711B2 (en) 2019-07-05 2022-05-10 Korea Electronics Technology Institute User adaptive conversation apparatus and method based on monitoring of emotional and ethical states
WO2022114701A1 (ko) * 2020-11-25 2022-06-02 삼성전자 주식회사 사용자 입력에 대한 응답을 생성하는 전자 장치 및 그 동작 방법
US20220357752A1 (en) * 2021-05-06 2022-11-10 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a robot

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175081A (ja) * 1997-12-11 1999-07-02 Toshiba Corp 発話装置及び発話方法
JPH11175082A (ja) * 1997-12-10 1999-07-02 Toshiba Corp 音声対話装置及び音声対話用音声合成方法
JP2004109323A (ja) * 2002-09-17 2004-04-08 Denso Corp 音声対話装置及びプログラム
WO2005076258A1 (ja) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. ユーザ適応型装置およびその制御方法
JP2006099195A (ja) * 2004-09-28 2006-04-13 Sony Corp 視聴コンテンツ提供システム及び視聴コンテンツ提供方法
JP2009087074A (ja) * 2007-09-28 2009-04-23 Panasonic Electric Works Co Ltd 機器制御システム
JP2011215900A (ja) * 2010-03-31 2011-10-27 Kddi Corp マルチモーダル対話装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175082A (ja) * 1997-12-10 1999-07-02 Toshiba Corp 音声対話装置及び音声対話用音声合成方法
JPH11175081A (ja) * 1997-12-11 1999-07-02 Toshiba Corp 発話装置及び発話方法
JP2004109323A (ja) * 2002-09-17 2004-04-08 Denso Corp 音声対話装置及びプログラム
WO2005076258A1 (ja) * 2004-02-03 2005-08-18 Matsushita Electric Industrial Co., Ltd. ユーザ適応型装置およびその制御方法
JP2006099195A (ja) * 2004-09-28 2006-04-13 Sony Corp 視聴コンテンツ提供システム及び視聴コンテンツ提供方法
JP2009087074A (ja) * 2007-09-28 2009-04-23 Panasonic Electric Works Co Ltd 機器制御システム
JP2011215900A (ja) * 2010-03-31 2011-10-27 Kddi Corp マルチモーダル対話装置

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017208495A1 (ja) 2016-06-01 2017-12-07 パナソニックIpマネジメント株式会社 浄化ユニット及び浄化装置
WO2018061888A1 (ja) * 2016-09-29 2018-04-05 株式会社 東芝 関心維持システム及びサーバ
JP2018055428A (ja) * 2016-09-29 2018-04-05 株式会社東芝 関心維持システム及びサーバ
CN109804407A (zh) * 2016-09-29 2019-05-24 株式会社东芝 关心维持系统以及服务器
US10997400B2 (en) 2016-09-29 2021-05-04 Kabushiki Kaisha Toshiba Interest maintaining system and server
JP2019061050A (ja) * 2017-09-26 2019-04-18 カシオ計算機株式会社 対話装置、対話方法及びプログラム
KR102326853B1 (ko) 2017-12-08 2021-11-16 한국전자기술연구원 감정 및 윤리 상태 모니터링 기반 사용자 적응형 대화 장치 및 이를 위한 방법
KR20190068021A (ko) * 2017-12-08 2019-06-18 전자부품연구원 감정 및 윤리 상태 모니터링 기반 사용자 적응형 대화 장치 및 이를 위한 방법
CN110364164A (zh) * 2018-03-26 2019-10-22 卡西欧计算机株式会社 对话控制装置、对话系统、对话控制方法以及存储介质
CN110364164B (zh) * 2018-03-26 2023-12-05 卡西欧计算机株式会社 对话控制装置、对话系统、对话控制方法以及存储介质
JP2020064151A (ja) * 2018-10-16 2020-04-23 東京瓦斯株式会社 再生システムおよびプログラム
JP7218143B2 (ja) 2018-10-16 2023-02-06 東京瓦斯株式会社 再生システムおよびプログラム
KR20200124595A (ko) * 2019-04-24 2020-11-03 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 음성 인터랙션 방법, 장치, 지능형 로봇 및 컴퓨터 판독 가능 저장 매체
JP2020181183A (ja) * 2019-04-24 2020-11-05 北京百度网▲訊▼科技有限公司Beijing Baidu Netcom Science And Technology Co.,Ltd. 音声対話方法、装置、スマートロボット及びコンピュータ可読記憶媒体
KR102360062B1 (ko) * 2019-04-24 2022-02-09 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 음성 인터랙션 방법, 장치, 지능형 로봇 및 컴퓨터 판독 가능 저장 매체
US11328711B2 (en) 2019-07-05 2022-05-10 Korea Electronics Technology Institute User adaptive conversation apparatus and method based on monitoring of emotional and ethical states
CN111916056A (zh) * 2019-10-28 2020-11-10 宁波大学 一种智能语音识别方法
CN111916056B (zh) * 2019-10-28 2023-05-02 宁波大学 一种智能语音识别方法
WO2022114701A1 (ko) * 2020-11-25 2022-06-02 삼성전자 주식회사 사용자 입력에 대한 응답을 생성하는 전자 장치 및 그 동작 방법
US20220357752A1 (en) * 2021-05-06 2022-11-10 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a robot
US11934203B2 (en) * 2021-05-06 2024-03-19 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a robot

Also Published As

Publication number Publication date
JP6452420B2 (ja) 2019-01-16

Similar Documents

Publication Publication Date Title
JP6452420B2 (ja) 電子機器、発話制御方法、およびプログラム
US11600291B1 (en) Device selection from audio data
US11887590B2 (en) Voice enablement and disablement of speech processing functionality
US10339166B1 (en) Systems and methods for providing natural responses to commands
US11942084B2 (en) Post-speech recognition request surplus detection and prevention
US11138977B1 (en) Determining device groups
US10540970B2 (en) Architectures and topologies for vehicle-based, voice-controlled devices
US11355098B1 (en) Centralized feedback service for performance of virtual assistant
JP7243625B2 (ja) 情報処理装置、及び情報処理方法
WO2016194740A1 (ja) 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法
JP5731998B2 (ja) 対話支援装置、対話支援方法および対話支援プログラム
WO2015005679A1 (ko) 음성 인식 방법, 장치 및 시스템
US20230176813A1 (en) Graphical interface for speech-enabled processing
JP7113047B2 (ja) 人工知能基盤の自動応答方法およびシステム
KR102628211B1 (ko) 전자 장치 및 그 제어 방법
JP2019090942A (ja) 情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム
US10629199B1 (en) Architectures and topologies for vehicle-based, voice-controlled devices
US10866948B2 (en) Address book management apparatus using speech recognition, vehicle, system and method thereof
JP7287006B2 (ja) 話者決定装置、話者決定方法、および話者決定装置の制御プログラム
JP2010197858A (ja) 音声対話システム
KR20210042520A (ko) 전자 장치 및 이의 제어 방법
JP6736225B2 (ja) 対話装置、対話装置の制御方法およびプログラム
WO2020208972A1 (ja) 応答生成装置及び応答生成方法
WO2021064947A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
US11755652B2 (en) Information-processing device and information-processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181211

R150 Certificate of patent or registration of utility model

Ref document number: 6452420

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees