JP2019219509A - ロボット、ロボットの制御方法及びプログラム - Google Patents

ロボット、ロボットの制御方法及びプログラム Download PDF

Info

Publication number
JP2019219509A
JP2019219509A JP2018116650A JP2018116650A JP2019219509A JP 2019219509 A JP2019219509 A JP 2019219509A JP 2018116650 A JP2018116650 A JP 2018116650A JP 2018116650 A JP2018116650 A JP 2018116650A JP 2019219509 A JP2019219509 A JP 2019219509A
Authority
JP
Japan
Prior art keywords
predetermined target
robot
unit
voice
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018116650A
Other languages
English (en)
Other versions
JP7176244B2 (ja
Inventor
哲司 牧野
Tetsuji Makino
哲司 牧野
英里奈 市川
Erina Ichikawa
英里奈 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2018116650A priority Critical patent/JP7176244B2/ja
Publication of JP2019219509A publication Critical patent/JP2019219509A/ja
Application granted granted Critical
Publication of JP7176244B2 publication Critical patent/JP7176244B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】対話時の音声認識精度が高いロボット、ロボットの制御方法及びプログラムを提供する。【解決手段】ロボット100は、動作手段と、判定手段と、制御手段と、を備える。動作手段は、自装置に動作をさせる。判定手段は、自装置が所定の対象から話しかけがあった場合、自装置と所定の対象との間の音声認識精度の向上が可能であるか否かを判定する。制御手段は、判定手段により自装置と所定の対象との間の音声認識精度の向上が可能でないと判定された場合に、所定の対象に話しかけの中断をさせるための第1の応答をするように動作手段を制御する。【選択図】図2

Description

本発明は、ロボット、ロボットの制御方法及びプログラムに関する。
一般家庭等において音声対話を目的としたロボットが用いられている。音声対話を目的としたロボットの普及には、ロボットと、ユーザを含む所定の対象と、の対話の精度を向上させることが重要な点となっている。ロボットと所定の対象との距離が、ロボットと所定の対象との対話に必要な対話距離よりも離れている場合、又は、雑音が大きい場合には、ロボットと所定の対象との対話が困難である。
例えば、特許文献1は、所定の対象からの音源方向を推定して、推定された音源方向へロボットを移動させて、所定の対象と対話をする対話型ロボットを開示する。
特開2006−181651号公報
しかしながら、特許文献1の技術においては、所定の対象から音源方向へロボットを移動させて、所定の対象と対話をするだけであるため、対話距離よりも離れている所定の対象から話しかけられた場合や、雑音が大きいときに所定の対象から話しかけられた場合に、ロボットと所定の対象との対話時の音声認識精度を向上させることが困難であるという問題がある。
本発明は、前記のような課題を解決するためになされたものであり、対話時の音声認識精度が高いロボット、ロボットの制御方法及びプログラムを提供することを目的とする。
本発明の目的を達成するため、本発明に係るロボットの一様態は、
自装置に動作をさせる動作手段と、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定手段と、
前記判定手段により前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段と、
を備える、
ことを特徴とする。
本発明の目的を達成するため、本発明に係るロボットの制御方法の一様態は、
自装置に動作をさせる動作手段を備えるロボットの制御方法であって、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定ステップと、
前記判定ステップにより前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御ステップと、
を含む、
ことを特徴とする。
本発明の目的を達成するため、本発明に係るプログラムの一様態は、
自装置に動作をさせる動作手段を備えるロボットを制御するコンピュータを、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定手段、
前記判定手段により前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段、
として機能させる、
ことを特徴とする。
本発明によれば、対話時の音声認識精度が高いロボット、ロボットの制御方法及びプログラムを提供することができる。
本発明の第1の実施の形態に係るロボットを示す図である。 本発明の第1の実施の形態に係るロボットの構成を示すブロック図である。 本発明の第1の実施の形態に係る第1の対話処理を示すフローチャートである。 本発明の第1の実施の形態に係る第1の対話処理を説明する図である。 本発明の第1の実施の形態に係る第1の対話処理を説明する図である。 本発明の第1の実施の形態に係る第1の対話処理を説明する図である。 本発明の第1の実施の形態に係る第1の対話処理を説明する図である。 本発明の第2の実施の形態に係るロボットの構成を示すブロック図である。 本発明の第2の実施の形態に係る第2の対話処理を示すフローチャートである。 本発明の変形例に係る対話可能距離と雑音の音量との関係を示す図である。 本発明の変形例に係る雑音の音量の基準値と、ユーザとロボットとの距離と、の関係を示す図である。
以下、本発明を実施するための形態に係るロボットを、図面を参照しながら説明する。
(第1の実施の形態)
第1の実施の形態に係るロボット100は、図1に示すように、人をデフォルメした形状を有し、目と口と鼻とを模した部材が配置された頭部101と、足を模した部材が配置された胴体部(筐体)102と、胴体部102に配置された手部103と、頭部101に配置されたマイク(マイクロフォン)104と、撮像部105と、スピーカ106と、表示部107と、底部に配置された移動部108と、胴体部102の背中に設けられた操作ボタン120と、を備え、胴体部102の内部には、制御部110と電源部130とを有する。手部103とマイク104と撮像部105とスピーカ106と表示部107とは、動作手段として機能する。
手部103は、制御部110の制御に基づいて、図示しない駆動部により動作する。例えば、手部103を耳の後ろにあてる動作で、音声が聞こえないことをジェスチャーにより表現する。
マイク104は、頭部101の右耳、左耳及び後頭部に配置され、音声を収音する。右耳に配置されたマイク104は、右前方から発せられた音声を集音する。左耳に配置されたマイク104は、左前方から発せられた音声を集音する。後頭部に配置されたマイク104は、後ろから発せられた音声を集音する。マイク104は、収音した音声を制御部110に出力する。このように、マイク104は、音声を入力する音声入力手段として機能する。
撮像部105は、頭部101の鼻の位置に設けられたカメラである。撮像部105は、ユーザUなどの所定の対象を撮像し、撮像された画像を示すデータを制御部110に出力する。このように、撮像部105は、画像を撮像する撮像手段として機能する。
スピーカ106は、頭部101の口の位置に設けられ、制御部110の制御に基づいて、音声を発話する。このように、スピーカ106は、音声を出力する音声出力手段として機能する。
表示部107は、頭部101の目の位置に設けられ、制御部110の制御に基づいて、目の画像を表示する。
移動部108は、モータとタイヤとから構成され、制御部110の制御に基づいて、ロボット100を自律移動するものである。移動部108は、ロボット100を前進、後退、右折、左折、右旋回及び左旋回する。このように、移動部108は、移動手段として機能する。
制御部110は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)から構成される。ROMは、フラッシュメモリ等の不揮発性メモリから構成され、制御部110が各種機能を実現するためのプログラム及び呼びかけ音声の音声パターンを示すデータ、対話を開始する通知を示す音声データ及び移動中話しかけ対策のための音声データを記憶する。RAMは、揮発性メモリから構成され、制御部110が各種処理を行うためのプログラムを実行するための作業領域として用いられる。また、RAMは、移動中話しかけFlagがONであるかOFFであるかを記憶する。制御部110は、CPUがROMに記憶されたプログラムを読み出してRAM上で実行することにより、図2に示すように、音声解析部111と、移動制御部112と、判定部113と、対話制御部114として機能する。移動制御部112と対話制御部114とは、制御手段として機能する。
音声解析部111は、ユーザUから発せられた音声を検出し、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する。呼びかけ音声は、例えば、ロボットの名前、「おーい」、「ちょっと聞いて」などが含まれる。呼びかけ音声は、予め登録されている音声パターンと照合するため、対話可能距離Dを超えて離れていても検出可能である。また、音声解析部111は、呼びかけ音声が発せられた音源の方向を検出する。具体的には、音声解析部111は、呼びかけ音声が発せられた音源の方向を、頭部101の右耳に配置されたマイク104、左耳に配置されたマイク104、及び後頭部に配置されたマイク104で収音した呼びかけ音声の音量差又は位相差により検出する。また、音声解析部111は、移動中にユーザUから話しかけられているか否かを判定する。移動中にユーザUから話しかけられていると判定すると、音声解析部111は、移動中話しかけFlagをONにする。
移動制御部112は、移動部108を制御し、呼びかけ音声が発せられた音源の方向にロボット100が向くように旋回する。具体的には、移動制御部112は、音声解析部111で検出された方向、又は撮像部105で検出したユーザUの顔の方向にロボット100を右旋回又は左旋回し、呼びかけ音声が発せられた音源の方向に向ける。また、移動制御部112は、移動部108を制御し、ロボット100をユーザUに向けて移動する。また、対話可能距離Dを超えていた位置から、ロボット100がユーザUに向けて移動をするように移動部108を制御した後において、移動制御部112は、ロボット100が対話可能距離D以下に近づいたと判定された場合に、ロボット100を停止するように移動部108を制御する。
判定部113は、ユーザUからロボット100に話しかけられた場合、ユーザUとロボット100との対話が可能であるか否かを判定する。撮像部105が撮像した画像からユーザUの顔を検出し、ユーザUの顔までの距離を検出する。判定部113は、顔の大きさから距離を検出してもよく、左右の目の間の距離からユーザUの顔までの距離を検出してもよい。その後、判定部113は、ユーザUとロボット100との対話が可能であるか否かを、ユーザUの顔までの距離が対話可能距離D以下であるか否かにより判定する。対話可能距離Dは、音声パターンが予め登録されていなくても、マイク104で集音した音声を文字情報に変換できる程度に音声を認識できる距離である。対話可能距離Dは、例えば1mである。このように、判定部113は、判定手段として機能する。
対話制御部114は、対話の開始を阻止する動作(対話の中断をさせるための第1の応答)、対話を開始する通知(第1の応答とは異なる対話を継続する第2の応答)、移動中話しかけ対策及び対話の実行を行う。対話制御部114は、ロボット100とユーザUとの間の対話が可能になるまでの間、対話の開始を阻止する動作を実行する。具体的には、対話制御部114は、対話の開始を阻止する動作として、「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話する、又は手部103を耳の後ろに当てて聞こえないジェスチャーを実行する。また、対話制御部114は、対話の開始を阻止する動作を実行した後、ロボット100とユーザUとの間の対話が可能になったと判定されると、対話を開始する通知を実行する。対話制御部114は、対話を開始する通知として、スピーカ106からユーザUの名前、「何でしょうか」などの対話を開始する通知を音声により発話してもよく、手部103を前に出して対話を開始するジェスチャーを実行してもよい。また、対話制御部114は、移動中話しかけFlagがONであるか否かを判定し、移動中話しかけFlagがONであると判定されると、スピーカ106から移動中話しかけ対策のための音声を発話する。移動中話しかけ対策のための音声は、「聞こえなかった」、「もう一回言って」などを含む。
操作ボタン120は、胴体部102の背中に設けられ、ロボット100を操作するためのボタンであり、電源ボタンを含む。
電源部130は、胴体部102に内蔵された充電池から構成され、ロボット100の各部に電力を供給する。
次に、以上の構成を有するロボット100が実行する第1の対話処理について説明する。第1の対話処理は、ユーザUとロボット100との距離が対話可能距離D以上離れている場合、対話の開始を阻止し、対話可能距離D以下に近づくと対話を開始する通知を実行する処理である。
ユーザUが操作ボタン120を操作し電源をONにすると、ロボット100は電源をONにする指示に応答し、図3に示す第1の対話処理を開始する。以下、ロボット100が実行する第1の対話処理を、フローチャートを用いて説明する。
まず、音声解析部111は、ユーザUから発せられた音声を検出する(ステップS101)。次に、音声解析部111は、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する(ステップS102)。呼びかけ音声は、例えば、ロボットの名前、「おーい」、「ちょっと聞いて」などが含まれる。呼びかけ音声が含まれていないと判定されると(ステップS102;No)、ステップS101〜ステップS102を繰り返す。
ユーザUから発せられた音声に、呼びかけ音声が含まれていると判定されると(ステップS102;Yes)、音声解析部111は、移動中話しかけFlagをOFFにする(ステップS103)。次に、音声解析部111は、呼びかけ音声が発せられた音源の方向を検出する(ステップS104)。具体的には、音声解析部111は、呼びかけ音声が発せられた音源の方向を、頭部101の右耳に配置されたマイク104、左耳に配置されたマイク104、及び後頭部に配置されたマイク104で収音した呼びかけ音声の音量差又は位相差により検出する。次に、移動制御部112は、呼びかけ音声が発せられた音源の方向にロボット100が向くように旋回する(ステップS105)。具体的には、移動制御部112は、移動部108を制御し、ロボット100を右旋回又は左旋回し、呼びかけ音声が発せられた音源の方向に向ける。次に、判定部113は、ユーザUの顔を検出する(ステップS106)。次に、判定部113は、ユーザUの顔までの距離を検出する(ステップS107)。判定部113は、顔の大きさから距離を検出してもよく、左右の目の間の距離からユーザUの顔までの距離を検出してもよい。
次に、判定部113は、ユーザUの顔までの距離が対話可能距離D以下であるか否かを判定する(ステップS108)。対話可能距離Dは、例えば1mである。ユーザUの顔までの距離が対話可能距離D以下でないと判定されると(ステップS108;No)、対話制御部114は、対話の開始を阻止する動作を行う(ステップS109)。対話の開始を阻止する動作には、スピーカ106から「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話してもよく、手部103を耳の後ろに当てて聞こえないジェスチャーを実行してもよい。次に、移動制御部112は、移動部108を制御し、ロボット100をユーザUに向けて移動する(ステップS110)。次に、音声解析部111は、移動中にユーザUから話しかけられているか否かを判定する(ステップS111)。移動中にユーザUから話しかけられていると判定すると(ステップS111;Yes)、音声解析部111は、移動中話しかけFlagをONにし(ステップS112)、ステップS106に戻る。移動中にユーザUから話しかけられていないと判定すると(ステップS111;No)、ステップS106に戻る。
ユーザUの顔までの距離が対話可能距離D以下であると判定されると(ステップS108;Yes)、対話制御部114は、対話を開始する通知を行う(ステップS113)。具体的には、対話制御部114は、スピーカ106から「何でしょうか」などの対話を開始する通知を音声により発話してもよく、手部103を前に出して対話を開始するジェスチャーを実行してもよい。このとき、移動制御部112は、ロボット100を停止するように移動部108を制御する。次に、対話制御部114は、移動中話しかけFlagがONであるか否かを判定する(ステップS114)。移動中話しかけFlagがONであると判定されると(ステップS114;Yes)、スピーカ106から移動中話しかけ対策のための音声を発話する(ステップS115)。移動中話しかけ対策のための音声は、「聞こえなかった」、「もう一回言って」などを含む。次に、対話制御部114は、対話を実行する(ステップS116)。移動中話しかけFlagがONでないと判定されると(ステップS114;No)、対話制御部114は、対話を実行する(ステップS116)。その後、音声解析部111は、終了指示を受け付けたか否かを判定する(ステップS117)。終了指示を受け付けていないと判定すると(ステップS117;No)、ステップS101に戻り、ステップS101からステップS117を繰り返す。対話中に終了指示を受け付けたと判定すると(ステップS117;Yes)、第1の対話処理を終了する。
次に、本実施の形態に係るロボット100が実行する第1の対話処理を具体例に基づいて図4〜図7を参照しながら説明する。
ユーザUが操作ボタン120を操作し電源をONにすると、ロボット100は電源をONにする指示に応答し第1の対話処理を開始する。ロボット100は、自走しユーザUから対話可能距離Dを超えて離れた位置に移動したとする。
ユーザUが図4に示すロボット100に「ちょっと聞いて」と呼びかけると、音声解析部111は、ユーザUから発せられた音声を検出する(ステップS101;図3)。ユーザUから発せられた音声に、「ちょっと聞いて」という音声を含んでいるので、音声解析部111は、予め登録された呼びかけ音声を含んでいると判定する(ステップS102;Yes;図3)。
次に、音声解析部111は、移動中話しかけFlagをOFFにする(ステップS103;図3)。次に、音声解析部111は、呼びかけ音声が発せられた音源の方向を検出する(ステップS104;図3)。このときユーザUは、ロボット100からみて右に位置するので、音声解析部111は、右耳、左耳、後頭部に配置されたマイク104で収音した呼びかけ音声の音量差又は位相差により、呼びかけ音声が発せられた音源の方向は、右であると検出する。次に、移動制御部112は、図5に示すように、呼びかけ音声が発せられた音源の方向にロボット100が向くように右旋回する(ステップS105;図3)。次に、判定部113は、ユーザの顔を検出する(ステップS106;図3)。次に、判定部113は、ユーザの顔までの距離D1を検出する(ステップS107;図3)。
次に、判定部113は、ユーザの顔までの距離が対話可能距離D以下であるか否かを判定する(ステップS108;図3)。このとき、距離D1は、対話可能距離Dよりも大きいので、ユーザの顔までの距離が対話可能距離D以下でないと判定され(ステップS108;No;図3)、対話制御部114は、対話の開始を阻止する動作を行う(ステップS109;図3)。対話の開始を阻止する動作として、図6に示すように、手部103を耳の後ろに当てて聞こえないジェスチャーを実行する、又はスピーカ106から「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話する。次に、移動制御部112は、移動部108を制御し、ロボット100をユーザに向けて移動する(ステップS110;図3)。次に、移動中にユーザUから話しかけられると、音声解析部111は、移動中にユーザから話しかけられていると判定する(ステップS111;Yes;図3)。次に、音声解析部111は、移動中話しかけFlagをONにし(ステップS112;図3)、ステップS106に戻る。
ロボット100が図7に示す位置まで移動すると、判定部113は、ユーザの顔までの距離D2が対話可能距離D以下であると判定する(ステップS108;Yes;図3)。次に、対話制御部114は、対話を開始する通知を行う(ステップS113;図3)。具体的には、対話制御部114は、手部103を前に出して対話を開始するジェスチャーを実行し、スピーカ106から「何でしょうか」などの対話を開始する通知を音声により発話する。次に、対話制御部114は、移動中話しかけFlagがONであると判定し(ステップS114;Yes;図3)、スピーカ106から移動中話しかけ対策のための音声「聞こえなかった」を発話(ステップS115;図3)する。次に、対話制御部114は、対話を実行する(ステップS116;図3)。その後、音声解析部111は、対話中に終了指示を受け付けたと判定すると(ステップS117;Yes;図3)、第1の対話処理を終了する。
以上のように、本実施の形態のロボット100によれば、呼びかけ音声を検出し、ユーザUとロボット100の距離が、対話の音声認識精度が確保できる対話可能距離Dよりも大きい場合に、明示的にまだ対話出来ない旨を表し、ユーザUに対話可能距離D以下の位置まで近づくまで不用な対話開始を阻止することで、音声認識精度を向上することができる。また、ロボット100が対話を開始する通知を行うことで、移動後の対話をスムーズに行うことを可能にする。
(第2の実施の形態)
第1の実施の形態に係るロボット100は、移動部108により自律移動し、ユーザUがロボット100に呼びかけたとき、ロボット100がユーザUから離れているとユーザUに移動して近づくものである。これに対して、第2の実施の形態に係るロボット200は、自律移動せず、雑音の音量がユーザUと対話をすることができる基準値以上である場合、雑音の音量が基準値以下になるまでの間、ユーザUに対話の開始を阻止する動作を実行する。
第2の実施の形態に係るロボット200は、図8に示すように、ロボット100の構成で有していた移動部108及び移動制御部112を有さず、ロボット100の構成に加えて、唇動作検出部115を備える。
音声解析部111は、ユーザUから発せられた音声を検出し、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する。また、音声解析部111は、ユーザUから発せられた音声以外の音を雑音として検出する。また、音声解析部111は、雑音がテレビジョン、オーディオ機器、楽器などの音響機器から発せられた音であるか否かを判定する。音響機器から発せられた音か否かは、音に音声又は楽器の音を含むか、音にリズムを有するか、等により判定する。
判定部113は、音声解析部111により検出された雑音の音量がユーザUと対話をすることができる基準値以下である場合に、ロボット200とユーザUとの間の対話が可能であると判定する。判定部113は、唇動作検出部115により検出されたユーザUの唇の動作により、ユーザUがロボット200に呼びかけたか否かを判定する。具体的には、判定部113は、ユーザUの唇の動作にロボットの名前、「おーい」、「ちょっと聞いて」と発音したときの動きが含まれるか否かにより判定する。
対話制御部114は、判定部113により雑音の音量が基準値を超えると判定された場合に、雑音の音量が基準値以下になるまでの間、ユーザUへ対話の開始を阻止する動作を実行する。また、対話制御部114は、音声解析部111により雑音がテレビジョン、オーディオ機器、楽器などの音響機器から発せられたものであると判定されると、音響機器からの音量を下げる指示を示す音声を発話する。
唇動作検出部115は、撮像部105により撮像された画像からユーザUの顔を検出し、ユーザUの唇の動作を検出する。このように、唇動作検出部115は、唇動作検出手段として機能する。
次に、第2の実施の形態に係るロボット200が実行する第2の対話処理を説明する。
ユーザUが操作ボタン120を操作し電源をONにすると、ロボット200は電源をONにする指示に応答し、図9に示す第2の対話処理を開始する。以下、ロボット200が実行する第2の対話処理を、フローチャートを用いて説明する。
まず、音声解析部111は、ユーザUから発せられた音声を検出する(ステップS201)。次に、音声解析部111は、ユーザUから発せられた音声に、予め登録された呼びかけ音声を含んでいるか否かを判定する(ステップS202)。呼びかけ音声は、例えば、ロボット200の名前、「おーい」、「ちょっと聞いて」などが含まれる。呼びかけ音声が含まれていないと判定されると(ステップS202;No)、唇動作検出部115は、撮像部105により撮像された画像からユーザUの顔を検出する(ステップS203)。次に、唇動作検出部115は、ユーザUの唇の動作を検出する(ステップS204)。次に、判定部113は、ユーザUの唇の動作により、ユーザUがロボット200に呼びかけたか否かを判定する(ステップS205)。具体的には、判定部113は、ユーザUの唇の動作にロボット200の名前、「おーい」、「ちょっと聞いて」と発音したときの動きが含まれるか否かにより判定する。呼びかけがなかったと判定されると(ステップS205;No)、ステップS201〜ステップS204を繰り返す。
音声解析部111により呼びかけ音声が含まれていると判定される(ステップS202;Yes)、又は判定部113により、ユーザUがロボット200に呼びかけたと判定されると(ステップS205;Yes)、音声解析部111は、ユーザUから発せられた音声以外の音を雑音として検出する(ステップS206)。次に、判定部113は、音声解析部111により検出された雑音の音量がユーザUと対話をすることができる基準値以下であるか否かを判定する(ステップS207)。
判定部113により、雑音の音量が基準値以下でないと判定されると(ステップS207;No)、対話制御部114は、対話の開始を阻止する動作を行う(ステップS208)。対話の開始を阻止する動作には、スピーカ106から「ハーイただいま」「ちょっと待って」などの対話の開始を阻止する音声を発話してもよく、手部103を耳の後ろに当てて聞こえないジェスチャーを実行してもよい。音声解析部111は、雑音がテレビジョン、オーディオ機器、楽器などの音響機器から発せられた音であるか否かを判定する(ステップS209)。音響機器から発せられた音か否かは、音に音声又は楽器の音を含むか、音にリズムを有するか、等により判定する。雑音が音響機器から発せられた音であると判定されると(ステップS209;Yes)、対話制御部114は、音響機器からの音量を下げる指示、例えば「ボリュームを下げて」を示す音声を発話し(ステップS210)、ステップS206に戻る。雑音が音響機器から発せられた音でないと判定されると(ステップS209;No)、ステップS206に戻る。
判定部113により、雑音の音量が基準値以下であると判定されると(ステップS207;Yes)、対話制御部114は、対話を開始する通知を行う(ステップS211)。具体的には、対話制御部114は、スピーカ106から「何でしょうか」などの対話を開始する通知を音声により発話してもよく、手部103を前に出して対話を開始するジェスチャーを実行してもよい。次に、対話制御部114は、対話を実行する(ステップS212)。その後、音声解析部111は、終了指示を受け付けたか否かを判定する(ステップS213)。終了指示を受け付けていないと判定すると(ステップS213;No)、ステップS201に戻り、ステップS201からステップS213を繰り返す。対話中に終了指示を受け付けたと判定すると(ステップS213;Yes)、第2の対話処理を終了する。
以上のように、第2の実施の形態のロボット200によれば、雑音の音量が基準値を超える場合、対話の開始を阻止する動作を行う。これにより、雑音により対話が困難である場合に対話が中止されるため、音声認識精度を向上することができる。また、ロボット200が対話を開始する通知を行うことで、移動後の対話をスムーズに行うことを可能にする。また、唇動作検出部115は、撮像部105により撮像された画像からユーザUの唇の動作を検出し、判定部113は、ユーザUの唇の動作により、ユーザUがロボット200に呼びかけたか否かを判定する。これにより、雑音が大きい場合でもロボット200は、ユーザUがロボット200に呼びかけたか否かを判定できる。
(変形例)
前述の実施の形態では、第1の実施の形態に係るロボット100の判定部113は、ユーザUとの距離が対話可能距離Dを超えるか否かで、対話が困難であるか否かを判定した。第2の実施の形態に係るロボット200の判定部113は、雑音の音量が基準値を超えるか否かにより、対話が困難であるか否かを判定した。ロボット100、200の判定部113は、対話が困難であるか否かを判定できればよい。例えば、ロボット100、200の判定部113は、ユーザUとの距離と、雑音と、により対話が困難であるか否かを判定してもよい。例えば、ユーザUとの距離が対話可能距離Dを超え、且つ雑音の音量が基準値を超えた場合に、対話が困難であるか否かを判定してもよい。また、雑音の音量レベルに応じて対話可能距離Dを変更してもよい。例えば、図10に示すように、雑音の音量が大きいとき、対話可能距離Dを小さくし、雑音の音量が小さいとき、対話可能距離Dを大きくする。この場合、ロボット100、200は、対話可能距離Dを関数により算出してもよく、対話可能距離DをあらかじめROMに記憶したテーブルにより得てもよい。また、ユーザUと対話をすることができる雑音の音量の基準値は、ユーザUとロボット100、200の距離により変化してもよい。例えば、図11に示すように、ユーザUとロボット100、200の距離が大きいとき、雑音の音量の基準値を小さくする。この場合、ロボット100、200は、雑音の音量の基準値を関数により算出してもよく、雑音の音量の基準値をあらかじめROMに記憶したテーブルにより得てもよい。また、ロボット100、200の判定部113は、ユーザUの声の大きさ、音声認識で文字データに変換できる割合、対話に用いる言語などにより対話が困難であるか否かを判定してもよい。
前述の実施の形態のロボット100、200の対話制御部114は、目を表す表示部107とユーザUの目とがアイコンタクトをするように、表示部107に目の画像を表示してもよい。このようにすることで、ロボット100、200がより人間に近い動作を表現できる。対話制御部114が行う対話の開始を阻止する動作は、マイク104が配置さていている耳部及び目部に配置された表示部107に目をとじた画像を表示し、ロボット100、200が音声を聞いておらず且つユーザUも見ていないようなふりをしてもよい。
前述の第1の実施の形態では、移動制御部112が、移動部108を制御し、ロボット100をユーザUに向けて移動し、対話可能距離D以下に近づくと、ロボット100を停止するように移動部108を制御する例について説明した。移動制御部112は、ロボット100を対話可能距離D以下に近づくように制御すればよい。例えば、判定部113によりロボット100とユーザUとの距離が対話可能距離Dを超えると判定された場合に、移動制御部112は、ロボット100が任意の方向に移動をしている場合にはロボット100が移動の方向を変更してユーザUに向けて移動をするように移動部108を制御して、ロボット100が停止をしている場合にはロボット100がユーザUに向けて移動を始めるように移動部108を制御してもよい。判定部113によりロボット100とユーザUとの距離が対話可能距離以下であると判定された場合に、移動制御部112は、ロボット100が移動をしている場合にはロボット100を停止するように移動部108を制御して、ロボット100が停止をしている場合にはロボット100の停止を維持するように移動部を制御してもよい。この場合、対話制御部114は、ユーザUに対話の継続をさせるための応答をするように動作手段を制御してもよい。
前述の実施の形態では、撮像部105が、頭部101の鼻の位置に設けられたカメラである例について説明した。撮像部105は、頭部101の片方の目の位置に設けられたカメラでもよく、両目に設けられたステレオカメラであってもよい。
前述の実施の形態では、ロボット100、200とユーザUの顔との距離を、撮像部105が撮像した画像に写るユーザUの顔の大きさ、又は左右の目の間の距離から検出する例について説明した。ロボット100、200とユーザUの顔との距離を測定する方法は限定されず、非接触距離センサにより測定されてもよい。非接触距離センサは、例えば、ロボット100、200の胴体部102に設置された超音波センサ又はレーザーセンサである。撮像部105にステレオカメラを用いた場合、ステレオカメラで撮像した画像からロボット100、200とユーザUの顔との距離を検出してもよい。
前述の実施の形態では、所定の対象がユーザUである例について説明した。所定の対象は、ロボット100と対話できるものであればよく、人であってもよく、犬や猫などの動物であってもよく、ロボット100以外の他のロボットであってもよい。
前述の実施の形態では、移動部108が、モータとタイヤとから構成される例について説明した。移動部108は、ロボット100を移動することができればよく、例えば、複数の足と足を動かすモータとから構成されてもよい。このようにすることで、ロボット100の形状を人や動物により近づけることができる。
前述の実施の形態では、ロボット100、200が、人を模した形状を有する例について説明したが、ロボット100、200の形状は、特に限定されず、例えば、犬又は猫を含む動物を模した形状を有してもよく、アニメーションのキャラクタや想像上の生き物を模した形状であってもよい。また、ロボット100、200は、対話機能を有するものであればよく、自律走行して床などを掃除する掃除ロボット、巡回監視などを行う警備ロボットなどを含む。
前述の実施の形態では、判定手段は、ロボットが所定の対象から話しかけられた場合、ロボットと所定の対象との間の対話が可能であるか否かを判定したが、対話に限定されず、判定手段は、ロボットが所定の対象から話しかけがあった場合、ロボットと所定の対象との間の音声認識精度の向上が可能であるか否かを判定してもよい。
また、前述の実施の形態では、制御手段は、判定手段によりロボットと所定の対象との間の対話が可能でないと判定された場合に、対話の中断をさせるための第1の応答をするように動作手段を制御したが、同様に対話に限定されず、制御手段は判定手段によりロボットと所定の対象との間の音声認識精度の向上が可能でないと判定された場合に、所定の対象に話しかけの中断をさせるための第1の応答をしてもよい。
また、第1の応答は、所定の対象に対話の中断を促す、音声出力手段による音声の出力、又は、所定の対象に対話の中断を促す、動作手段による姿勢の出力を含んでもよい。また、第1の応答は、音声入力手段及び撮像手段が意図的に機能していないふりをして、ロボット100、200が音声を聞いておらず、且つ、画像も見ていないような感情表現をすることを含んでもよい。
また、第2の応答は、所定の対象に対話の継続を促す、音声出力手段による音声の出力、又は、所定の対象に対話の継続を促す、動作手段による姿勢の出力を含んでもよい。また、第2の応答は、音声入力手段及び撮像部105が意図的に機能しているふりをして、ロボット100、200が音声を聞いており、且つ、画像も見ているような感情表現をすることを含んでもよい。
また、前述の実施の形態では、ロボットを例として説明したが、ロボットに限定されず、AI(Artificial Intelligence)スピーカ等の電子機器でもよい。
また、CPU、RAM、ROM等から構成される制御部110が実行する処理を行う中心となる部分は、専用のシステムによらず、通常の情報携帯端末(スマートフォン、タブレットPC(Personal Computer))、パーソナルコンピュータなどを用いて実行可能である。たとえば、前述の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)等)に格納して配布し、このコンピュータプログラムを情報携帯端末などにインストールすることにより、前述の処理を実行する情報端末を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置にこのコンピュータプログラムを格納しておき、通常の情報処理端末などがダウンロード等することで情報処理装置を構成してもよい。
また、制御部110の機能を、OS(Operating System)とアプリケーションプログラムとの分担、又はOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にこのコンピュータプログラムを掲示し、ネットワークを介してこのコンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前述の処理を実行できるように構成してもよい。
本発明は、本発明の広義の精神と範囲とを逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、前述した実施形態は、本発明を説明するためのものであり、本発明の範囲を限定するものではない。つまり、本発明の範囲は、実施形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、本発明の範囲内とみなされる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
自装置に動作をさせる動作手段と、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定手段と、
前記判定手段により前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段と、
を備える、
ことを特徴とするロボット。
(付記2)
前記判定手段は、前記自装置が前記所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の対話が可能であるか否かを判定し、
前記制御手段は、前記判定手段により前記自装置と前記所定の対象との間の前記対話が可能でないと判定された場合に、前記対話の前記中断をさせるための前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記1に記載のロボット。
(付記3)
前記制御手段は、前記自装置と前記所定の対象との間の前記対話が可能になるまでの間、前記対話の前記中断をさせるための前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記2に記載のロボット。
(付記4)
前記制御手段が、前記第1の応答をするように前記動作手段を制御した後、前記判定手段が前記自装置と前記所定の対象との間の前記対話が可能であると判定すると、前記制御手段は、前記第1の応答とは異なる前記所定の対象に前記対話の継続をさせるための第2の応答をするように前記動作手段を制御する、
ことを特徴とする付記2又は3に記載のロボット。
(付記5)
前記判定手段は、前記自装置が前記所定の対象から話しかけられた場合、前記自装置と前記所定の対象との距離を検出し、前記距離が前記所定の対象と前記対話をするために必要な対話可能距離を超える場合に、前記自装置と前記所定の対象との間の前記対話が可能でないと判定する、
ことを特徴とする付記2乃至4の何れか1つに記載のロボット。
(付記6)
前記自装置を移動させる移動手段を更に備え、
前記制御手段は、前記判定手段により前記距離が前記対話可能距離を超えると判定された場合に、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御する、
ことを特徴とする付記5に記載のロボット。
(付記7)
前記距離が前記対話可能距離以下になるまでの間、前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記5又は6に記載のロボット。
(付記8)
音声を入力する音声入力手段と、
前記音声入力手段により入力された音声を解析する音声解析手段と、
を更に備え、
前記判定手段は、前記音声解析手段により解析された雑音の音量が前記所定の対象と前記対話をすることができる基準値を超える場合に、前記自装置と前記所定の対象との間の前記対話が可能でないと判定し、
前記制御手段は、前記判定手段により前記雑音の音量が前記基準値を超えると判定された場合に、前記雑音の音量が前記基準値以下になるまでの間、前記第1の応答をするように前記動作手段を制御する、
ことを特徴とする付記2乃至7の何れか1つに記載のロボット。
(付記9)
画像を撮像する撮像手段と、
前記撮像手段により撮像された画像から前記所定の対象の顔を検出し、検出された前記顔に含まれる唇動作を検出する唇動作検出手段と、
を更に備え、
前記判定手段は、前記唇動作検出手段により検出された前記唇動作により前記所定の対象から話しかけられたか否かを判定する、
ことを特徴とする付記2乃至8の何れか1つに記載のロボット。
(付記10)
前記判定手段により前記自装置と前記所定の対象との距離が対話可能距離を超えると判定された場合に、
前記制御手段は、前記自装置が任意の方向に移動をしている場合には前記自装置が移動の方向を変更して前記所定の対象に向けて移動をするように移動手段を制御して、前記自装置が停止をしている場合には前記自装置が前記所定の対象に向けて移動を始めるように前記移動手段を制御する、
ことを特徴とする付記2乃至9の何れか1つに記載のロボット。
(付記11)
前記判定手段により前記自装置と前記所定の対象との距離が対話可能距離以下であると判定された場合に、
前記制御手段は、前記自装置が移動をしている場合には前記自装置を停止するように移動手段を制御して、前記自装置が停止をしている場合には前記自装置の停止を維持するように前記移動手段を制御して、
前記制御手段は、前記所定の対象に前記対話の継続をさせるための第2の応答をするように前記動作手段を制御する、
ことを特徴とする付記2乃至10の何れか1つに記載のロボット。
(付記12)
音声を出力する音声出力手段を更に備え、
前記第1の応答は、前記所定の対象に前記対話の前記中断を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記中断を促す、前記動作手段による姿勢の出力を含む、
ことを特徴とする付記2に記載のロボット。
(付記13)
音声を出力する音声出力手段を更に備え、
前記第2の応答は、前記所定の対象に前記対話の前記継続を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記継続を促す、前記動作手段による姿勢の出力を含む、
ことを特徴とする付記4又は11に記載のロボット。
(付記14)
音声を入力する音声入力手段と、
画像を撮像する撮像手段と、
を更に備え、
前記第1の応答は、前記音声入力手段及び前記撮像手段が意図的に機能していないふりをして、前記自装置が音声を聞いておらず、且つ、画像も見ていないような感情表現をすることを含む、
ことを特徴とする付記2に記載のロボット。
(付記15)
音声を入力する音声入力手段と、
画像を撮像する撮像手段と、
を更に備え、
前記第2の応答は、前記音声入力手段及び前記撮像手段が意図的に機能しているふりをして、前記自装置が音声を聞いており、且つ、画像も見ているような感情表現をすることを含む、
ことを特徴とする付記4又は11に記載のロボット。
(付記16)
前記所定の対象は、人又は動物又は他のロボットを含む、
ことを特徴とする付記1乃至15の何れか1つに記載のロボット。
(付記17)
自装置に動作をさせる動作手段を備えるロボットの制御方法であって、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定ステップと、
前記判定ステップにより前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御ステップと、
を含む、
ことを特徴とするロボットの制御方法。
(付記18)
自装置に動作をさせる動作手段を備えるロボットを制御するコンピュータを、
前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定手段、
前記判定手段により前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段、
として機能させる、
ことを特徴とするプログラム。
100、200…ロボット、101…頭部、102…胴体部、103…手部、104…マイク、105…撮像部、106…スピーカ、107…表示部、108…移動部、110…制御部、111…音声解析部、112…移動制御部、113…判定部、114…対話制御部、115…唇動作検出部、120…操作ボタン、130…電源部

Claims (18)

  1. 自装置に動作をさせる動作手段と、
    前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定手段と、
    前記判定手段により前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段と、
    を備える、
    ことを特徴とするロボット。
  2. 前記判定手段は、前記自装置が前記所定の対象から話しかけられた場合、前記自装置と前記所定の対象との間の対話が可能であるか否かを判定し、
    前記制御手段は、前記判定手段により前記自装置と前記所定の対象との間の前記対話が可能でないと判定された場合に、前記対話の前記中断をさせるための前記第1の応答をするように前記動作手段を制御する、
    ことを特徴とする請求項1に記載のロボット。
  3. 前記制御手段は、前記自装置と前記所定の対象との間の前記対話が可能になるまでの間、前記対話の前記中断をさせるための前記第1の応答をするように前記動作手段を制御する、
    ことを特徴とする請求項2に記載のロボット。
  4. 前記制御手段が、前記第1の応答をするように前記動作手段を制御した後、前記判定手段が前記自装置と前記所定の対象との間の前記対話が可能であると判定すると、前記制御手段は、前記第1の応答とは異なる前記所定の対象に前記対話の継続をさせるための第2の応答をするように前記動作手段を制御する、
    ことを特徴とする請求項2又は3に記載のロボット。
  5. 前記判定手段は、前記自装置が前記所定の対象から話しかけられた場合、前記自装置と前記所定の対象との距離を検出し、前記距離が前記所定の対象と前記対話をするために必要な対話可能距離を超える場合に、前記自装置と前記所定の対象との間の前記対話が可能でないと判定する、
    ことを特徴とする請求項2乃至4の何れか1項に記載のロボット。
  6. 前記自装置を移動させる移動手段を更に備え、
    前記制御手段は、前記判定手段により前記距離が前記対話可能距離を超えると判定された場合に、前記自装置が前記所定の対象に向けて移動をするように前記移動手段を制御する、
    ことを特徴とする請求項5に記載のロボット。
  7. 前記距離が前記対話可能距離以下になるまでの間、前記第1の応答をするように前記動作手段を制御する、
    ことを特徴とする請求項5又は6に記載のロボット。
  8. 音声を入力する音声入力手段と、
    前記音声入力手段により入力された音声を解析する音声解析手段と、
    を更に備え、
    前記判定手段は、前記音声解析手段により解析された雑音の音量が前記所定の対象と前記対話をすることができる基準値を超える場合に、前記自装置と前記所定の対象との間の前記対話が可能でないと判定し、
    前記制御手段は、前記判定手段により前記雑音の音量が前記基準値を超えると判定された場合に、前記雑音の音量が前記基準値以下になるまでの間、前記第1の応答をするように前記動作手段を制御する、
    ことを特徴とする請求項2乃至7の何れか1項に記載のロボット。
  9. 画像を撮像する撮像手段と、
    前記撮像手段により撮像された画像から前記所定の対象の顔を検出し、検出された前記顔に含まれる唇動作を検出する唇動作検出手段と、
    を更に備え、
    前記判定手段は、前記唇動作検出手段により検出された前記唇動作により前記所定の対象から話しかけられたか否かを判定する、
    ことを特徴とする請求項2乃至8の何れか1項に記載のロボット。
  10. 前記判定手段により前記自装置と前記所定の対象との距離が対話可能距離を超えると判定された場合に、
    前記制御手段は、前記自装置が任意の方向に移動をしている場合には前記自装置が移動の方向を変更して前記所定の対象に向けて移動をするように移動手段を制御して、前記自装置が停止をしている場合には前記自装置が前記所定の対象に向けて移動を始めるように前記移動手段を制御する、
    ことを特徴とする請求項2乃至9の何れか1項に記載のロボット。
  11. 前記判定手段により前記自装置と前記所定の対象との距離が対話可能距離以下であると判定された場合に、
    前記制御手段は、前記自装置が移動をしている場合には前記自装置を停止するように移動手段を制御して、前記自装置が停止をしている場合には前記自装置の停止を維持するように前記移動手段を制御して、
    前記制御手段は、前記所定の対象に前記対話の継続をさせるための第2の応答をするように前記動作手段を制御する、
    ことを特徴とする請求項2乃至10の何れか1項に記載のロボット。
  12. 音声を出力する音声出力手段を更に備え、
    前記第1の応答は、前記所定の対象に前記対話の前記中断を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記中断を促す、前記動作手段による姿勢の出力を含む、
    ことを特徴とする請求項2に記載のロボット。
  13. 音声を出力する音声出力手段を更に備え、
    前記第2の応答は、前記所定の対象に前記対話の前記継続を促す、前記音声出力手段による音声の出力、又は、前記所定の対象に前記対話の前記継続を促す、前記動作手段による姿勢の出力を含む、
    ことを特徴とする請求項4又は11に記載のロボット。
  14. 音声を入力する音声入力手段と、
    画像を撮像する撮像手段と、
    を更に備え、
    前記第1の応答は、前記音声入力手段及び前記撮像手段が意図的に機能していないふりをして、前記自装置が音声を聞いておらず、且つ、画像も見ていないような感情表現をすることを含む、
    ことを特徴とする請求項2に記載のロボット。
  15. 音声を入力する音声入力手段と、
    画像を撮像する撮像手段と、
    を更に備え、
    前記第2の応答は、前記音声入力手段及び前記撮像手段が意図的に機能しているふりをして、前記自装置が音声を聞いており、且つ、画像も見ているような感情表現をすることを含む、
    ことを特徴とする請求項4又は11に記載のロボット。
  16. 前記所定の対象は、人又は動物又は他のロボットを含む、
    ことを特徴とする請求項1乃至15の何れか1項に記載のロボット。
  17. 自装置に動作をさせる動作手段を備えるロボットの制御方法であって、
    前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定ステップと、
    前記判定ステップにより前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御ステップと、
    を含む、
    ことを特徴とするロボットの制御方法。
  18. 自装置に動作をさせる動作手段を備えるロボットを制御するコンピュータを、
    前記自装置が所定の対象から話しかけがあった場合、前記自装置と前記所定の対象との間の音声認識精度の向上が可能であるか否かを判定する判定手段、
    前記判定手段により前記自装置と前記所定の対象との間の前記音声認識精度の向上が可能でないと判定された場合に、前記所定の対象に前記話しかけの中断をさせるための第1の応答をするように前記動作手段を制御する制御手段、
    として機能させる、
    ことを特徴とするプログラム。
JP2018116650A 2018-06-20 2018-06-20 ロボット、ロボットの制御方法及びプログラム Active JP7176244B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018116650A JP7176244B2 (ja) 2018-06-20 2018-06-20 ロボット、ロボットの制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116650A JP7176244B2 (ja) 2018-06-20 2018-06-20 ロボット、ロボットの制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019219509A true JP2019219509A (ja) 2019-12-26
JP7176244B2 JP7176244B2 (ja) 2022-11-22

Family

ID=69096421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116650A Active JP7176244B2 (ja) 2018-06-20 2018-06-20 ロボット、ロボットの制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7176244B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113176775A (zh) * 2020-01-24 2021-07-27 株式会社日立制作所 对移动的机器人进行控制的方法以及机器人
JP7430083B2 (ja) 2020-03-19 2024-02-09 株式会社フジタ 発話制御装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006181651A (ja) * 2004-12-24 2006-07-13 Toshiba Corp 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
JP2006187825A (ja) * 2005-01-05 2006-07-20 Yaskawa Electric Corp ロボット装置およびその制御方法
JP2006251266A (ja) * 2005-03-10 2006-09-21 Hitachi Ltd 視聴覚連携認識方法および装置
JP2009192942A (ja) * 2008-02-15 2009-08-27 Toshiba Corp 音声対話装置及び支援方法
JP2009222969A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2013061715A (ja) * 2011-09-12 2013-04-04 Nec Corp 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム
JP2013244566A (ja) * 2012-05-28 2013-12-09 Fujitsu Ltd ロボット及びロボットの制御方法
WO2017169826A1 (ja) * 2016-03-28 2017-10-05 Groove X株式会社 お出迎え行動する自律行動型ロボット
JP2018086689A (ja) * 2016-11-28 2018-06-07 株式会社G−グロボット コミュニケーションロボット

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006181651A (ja) * 2004-12-24 2006-07-13 Toshiba Corp 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
JP2006187825A (ja) * 2005-01-05 2006-07-20 Yaskawa Electric Corp ロボット装置およびその制御方法
JP2006251266A (ja) * 2005-03-10 2006-09-21 Hitachi Ltd 視聴覚連携認識方法および装置
JP2009192942A (ja) * 2008-02-15 2009-08-27 Toshiba Corp 音声対話装置及び支援方法
JP2009222969A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
JP2013061715A (ja) * 2011-09-12 2013-04-04 Nec Corp 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム
JP2013244566A (ja) * 2012-05-28 2013-12-09 Fujitsu Ltd ロボット及びロボットの制御方法
WO2017169826A1 (ja) * 2016-03-28 2017-10-05 Groove X株式会社 お出迎え行動する自律行動型ロボット
JP2018086689A (ja) * 2016-11-28 2018-06-07 株式会社G−グロボット コミュニケーションロボット

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113176775A (zh) * 2020-01-24 2021-07-27 株式会社日立制作所 对移动的机器人进行控制的方法以及机器人
JP2021117695A (ja) * 2020-01-24 2021-08-10 株式会社日立製作所 移動するロボットを制御する方法
JP7351757B2 (ja) 2020-01-24 2023-09-27 株式会社日立製作所 移動するロボットを制御する方法
CN113176775B (zh) * 2020-01-24 2024-03-29 株式会社日立制作所 对移动的机器人进行控制的方法以及机器人
JP7430083B2 (ja) 2020-03-19 2024-02-09 株式会社フジタ 発話制御装置

Also Published As

Publication number Publication date
JP7176244B2 (ja) 2022-11-22

Similar Documents

Publication Publication Date Title
US20190057716A1 (en) System and Method for Enhancing Speech Activity Detection Using Facial Feature Detection
JP6551507B2 (ja) ロボット制御装置、ロボット、ロボット制御方法およびプログラム
US9293134B1 (en) Source-specific speech interactions
JP7038210B2 (ja) 対話セッション管理用のシステム及び方法
EP3896691A1 (en) Speech interaction method, device and system
EP3686724A1 (en) Robot interaction method and device
KR102628211B1 (ko) 전자 장치 및 그 제어 방법
JP2014191029A (ja) 音声認識システムおよび音声認識システムの制御方法
JP7180139B2 (ja) ロボット、ロボットの制御方法及びプログラム
US20180054688A1 (en) Personal Audio Lifestyle Analytics and Behavior Modification Feedback
CN114360527B (zh) 车载语音交互方法、装置、设备及存储介质
JP2009166184A (ja) ガイドロボット
JP6514475B2 (ja) 対話装置および対話方法
JP7176244B2 (ja) ロボット、ロボットの制御方法及びプログラム
KR102629796B1 (ko) 음성 인식의 향상을 지원하는 전자 장치
KR102115222B1 (ko) 사운드를 제어하는 전자 장치 및 그 동작 방법
US11361750B2 (en) System and electronic device for generating tts model
Tasaki et al. Dynamic communication of humanoid robot with multiple people based on interaction distance
JP2007155986A (ja) 音声認識装置および音声認識装置を備えたロボット
JP2020126195A (ja) 音声対話装置、音声対話装置の制御装置及び制御プログラム
JP6874437B2 (ja) コミュニケーションロボット、プログラム及びシステム
KR20190139489A (ko) 음성 인식 서비스 운용 방법 및 이를 지원하는 전자 장치
KR102168812B1 (ko) 사운드를 제어하는 전자 장치 및 그 동작 방법
JP2019113696A (ja) 発話タイミング判定装置、ロボット、発話タイミング判定方法及びプログラム
JP6908636B2 (ja) ロボットおよびロボットの音声処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221024

R150 Certificate of patent or registration of utility model

Ref document number: 7176244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150