JP5975947B2 - ロボットを制御するためのプログラム、及びロボットシステム - Google Patents

ロボットを制御するためのプログラム、及びロボットシステム Download PDF

Info

Publication number
JP5975947B2
JP5975947B2 JP2013142316A JP2013142316A JP5975947B2 JP 5975947 B2 JP5975947 B2 JP 5975947B2 JP 2013142316 A JP2013142316 A JP 2013142316A JP 2013142316 A JP2013142316 A JP 2013142316A JP 5975947 B2 JP5975947 B2 JP 5975947B2
Authority
JP
Japan
Prior art keywords
input voice
voice information
unit
robot
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013142316A
Other languages
English (en)
Other versions
JP2015013351A (ja
Inventor
彰 小森
彰 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
UNIROBOT CORPORATION
Original Assignee
UNIROBOT CORPORATION
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by UNIROBOT CORPORATION filed Critical UNIROBOT CORPORATION
Priority to JP2013142316A priority Critical patent/JP5975947B2/ja
Publication of JP2015013351A publication Critical patent/JP2015013351A/ja
Application granted granted Critical
Publication of JP5975947B2 publication Critical patent/JP5975947B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボットを制御するためのプログラムに関する。
特許文献1には、ロボットの近傍にいる視聴者の数に基づいて、ロボットが視聴者に対して行う動作パターンを選択し、選択された動作パターンに基づいてロボットの動作を決定するロボット制御システムが記載されている。
特許文献1 特開2007−50461号公報
上記のようなロボット制御システムは、汎用性に乏しく比較的高価なものが多い。そこで、汎用性の高いロボットを安価に提供可能にすることが望まれている。
本発明の一態様に係るプログラムは、ロボットの動作を定義するモーションファイルに従ってロボットを制御するためのプログラムであって、コンピュータを、通信ネットワークを介して接続された外部格納装置に格納された複数のモーションファイルから少なくとも1つのモーションファイルを選択する選択部、通信ネットワークを介して、少なくとも1つのモーションファイルを受信するモーションファイル受信部、少なくとも1つのモーションファイルから、少なくとも1つのモーションファイルで定義される動作をロボットに実行させるための制御命令を生成する命令生成部、およびロボットを制御するロボット制御部に対して、命令生成部が生成した制御命令を出力する出力部として機能させるためのプログラムである。
本発明の一態様に係るプログラムは、ロボットの動作を定義するモーションファイルに従ってロボットを制御するためのプログラムであって、コンピュータを、通信ネットワークを介して接続された外部格納装置に格納された複数のモーションファイルから少なくとも1つのモーションファイルを選択する選択部、通信ネットワークを介して、少なくとも1つのモーションファイルで定義される動作をロボットに実行させるための制御命令を受信する制御命令受信部、およびロボットを制御するロボット制御部に対して、制御命令受信部が受信した制御命令を出力する出力部として機能させるためのプログラムである。
上記プログラムは、通信ネットワークを介して、入力音声に対する出力音声を決定する対話装置に、マイクを介して入力された入力音声を示す入力音声情報を送信する入力音声情報送信部、通信ネットワークを介して、入力音声情報に対する出力音声情報を示す複数の対話ファイルのうち少なくとも1つのモーションファイルに関連付けられた対話ファイルに基づいて対話装置が決定した出力音声情報を受信する出力音声情報受信部、および出力音声情報受信部が受信した出力音声情報に基づいてスピーカから出力される出力音声を制御する出力音声制御部としてコンピュータをさらに機能させてもよい。
上記プログラムは、入力音声情報送信部は、通信ネットワークを介して、少なくとも1つのモーションファイルを識別する識別情報が関連付けられた入力音声情報を対話装置に送信し、出力音声情報受信部は、通信ネットワークを介して、入力音声情報に関連付けられた識別情報に対応する対話ファイルに基づいて対話装置が決定した出力音声情報を受信してもよい。
上記プログラムは、マイクを介して入力される入力音声の音量を検出する音量検出部、マイクを介して入力される入力音声を示す入力音声情報を生成する入力音声情報生成部、音量検出部により検出された音量が基準音量を超えた場合、入力音声情報生成部に入力音声情報を生成させる入力音声情報生成制御部として、コンピュータをさらに機能させ、入力音声情報送信部は、通信ネットワークを介して、入力音声情報生成部が生成した入力音声情報を対話装置に送信してもよい。
上記プログラムは、通信ネットワークを介して、カメラにより撮像された顔画像を対話装置に送信する顔画像送信部として、コンピュータをさらに機能させ、出力音声情報受信部は、通信ネットワークを介して、入力音声情報に対する出力音声情報を示す複数の対話ファイルの中から少なくとも1つのモーションファイルに関連付けられ、かつ顔画像に関連付けられた対話ファイルに基づいて対話装置が決定した出力音声情報を受信してもよい。
上記プログラムは、ロボットの異なる位置に設けられた複数のマイクから入力される入力音声に基づいて、入力音声が発せられたロボットに対する方向を検出する方向検出部として、コンピュータをさらに機能させ、出力部は、方向に基づく動作をロボットに実行させるための制御命令をロボット制御部に対して出力してもよい。
上記プログラムは、ロボットに設けられたタッチセンサからのタッチ検出信号を取得するタッチ検出信号取得部として、コンピュータを機能させ、出力部は、タッチ検出信号に基づく動作をロボットに実行させるための制御命令をロボット制御部に対して出力してもよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係るロボットシステムの全体構成の一例を示す図である。 ロボットの機能ブロックの一例を示す図である。 通信端末の機能ブロックの一例を示す図である。 モーションファイルの一例を示す図である。 対話ファイルの一例を示す図である。 ロボットの動作手順の一例を示すフローチャートである。 通信端末のハードウェア構成の一例を示す図である。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、ロボットシステムの全体構成の一例を示す。ロボットシステムは、ロボット100、通信端末200、ファイル提供装置300、対話装置310を含む。ロボット100と通信端末200とはケーブルを介して通信接続されている。ロボット100と通信端末200とは無線を介して通信接続されてもよい。通信端末200、ファイル提供装置300、および対話装置310は、インターネットなどの通信ネットワーク10を介して通信接続されている。ファイル提供装置300および対話装置310は、クラウド上に配置されてもよい。
通信端末200は、通信ネットワーク10を介して無線または有線によりファイル提供装置300および対話装置310と通信する。通信端末200は、スマートフォン(多機能携帯電話機)、タブレット(多機能携帯端末)、ノートパソコン、携帯情報端末など通信機能を有する端末である。通信端末200は、ロボット100のロボット本体に対して着脱可能に装着される。通信端末200は、ロボット本体の背面に設けられた固定ホルダなどを介してロボット100に装着されてもよい。
ファイル提供装置300は、ロボット100の動作を定義するモーションファイルを複数格納する外部格納装置の一例である。通信端末200は、ファイル提供装置300から通信ネットワーク10を介して少なくとも1つのモーションファイルを受信し、受信したモーションファイルに従って制御命令をロボット100に出力する。ロボット100は、通信端末200からの制御命令に従ってモーションファイルに従った動作をする。
対話装置310は、入力音声情報に対する出力音声情報を示す対話ファイルに基づいて、入力音声に対する出力音声を決定する。対話装置310は、例えば、ユーザがロボット100に対して話しかけた内容を示す入力音声情報を通信ネットワーク10を介して受信する。対話装置310は、入力音声情報に基づいてユーザの音声を認識し、対話ファイルに基づいて、ユーザが話しかけた内容に沿った応答内容である出力音声情報を決定する。対話装置310は、通信ネットワーク10を介して、出力音声情報を通信端末200に送信する。通信端末200は、受信した出力音声情報に応じた出力音声を出力する。ロボット100が、通信端末200から提供される出力音声情報に応じて出力音声を出力してもよい。
対話装置310は、モーションファイルに関連付けられた対話ファイルを保持してもよい。対話装置310は、ロボット100が使用しているモーションファイルに関連付けられた対話ファイルに従って、入力音声情報に対する出力音声情報を決定してもよい。対話装置310は、モーションファイルを識別する識別情報が関連付けられた対話ファイルを保持してもよい。対話装置310は、識別情報が関連付けられた入力音声情報をロボット100から受信してもよい。対話装置310は、受信した入力音声情報に関連付けられた識別情報を参照して、識別情報に対応する対話ファイルを特定し、特定された対話ファイルに従って、入力音声情報に対する出力音声情報を決定してもよい。
本実施形態によれば、ファイル提供装置300に格納されている複数のモーションファイルの中から選択されたモーションファイルに従ってロボット100を動作させることができる。ユーザは、ロボット100に実行させたい動作に応じて複数のモーションファイルの中から適宜少なくとも1つのモーションファイルを選択できる。モーションファイルを変更することで、ロボット100は、異なる動作を実行できる。よって、汎用性の高いロボット100を提供することができる。
また、本実施形態によれば、ロボット100が使用しているモーションファイルに応じて対話装置310が利用する対話ファイルを変更できる。よって、ロボット100が使用しているモーションファイルに応じて、ロボット100は、ユーザとの会話の内容を変更できる。ロボット100は、ロボット100の動作内容に沿った会話をユーザとの間で実現できる。
本実施形態に係るロボット100は、スマートフォンなどのユーザが所有している通信端末200がモーションファイルに従って出力した制御命令に基づいて動作する。ロボット100を動作させるための一部の機能を、ロボット100を動作させるための専用端末ではない通信端末200が提供することで、ロボット100の製造コストを抑制できる。
例えば、教育、娯楽、または高齢者の癒しなどに用いられる小型サービスロボットあるいは玩具ロボットは、産業用ロボットに比べて、普及していない。幼児への童話読み聞かせまたは語学教育などを行う幼児教育ロボットまたは高齢者と対話を行うロボットは、高度な音声対話機能を搭載することにより、幼児教育効果または癒し効果を向上させることができる。しかし、ロボットに高度な音声対話機能を搭載する場合、ロボットの製造コストが向上し、ロボットの普及の妨げになる可能性がある。これに対して、本実施形態によれば、対話装置310と連携した音声認識処理を実行可能なスマートフォンなどの通信端末200を利用して、ロボット100による会話動作を実現できる。よって、例えば、幼児教育効果または癒し効果を向上させながら、ロボット本体に音声認識処理を搭載させる場合よりもロボット100の製造コストを抑制できる。
図2は、ロボット100の機能ブロックの一例を示す。ロボット100は、センサ制御部110、複数のアクチュエータ120、複数のマイク122、タッチセンサ124、カメラ126、および入出力部130を備える。
アクチュエータ駆動部112は、入出力部130を介して通信端末200から制御命令を取得し、取得した制御命令に従ってアクチュエータ120を駆動させる。アクチュエータ駆動部112は、ロボット100を制御するロボット制御部の一例である。
アクチュエータ120は、ロボット100の腕部、脚部、頭部などの関節部などに設けられる駆動機構である。アクチュエータ120は、アクチュエータ駆動部112からの指令に従って駆動する。
センサ制御部110は、複数のマイク122、タッチセンサ124、およびカメラ126を制御する。センサ制御部110は、複数のマイク122を介して入力される入力音声を示す音声信号を入出力部130を介して通信端末200に出力する。複数のマイク122は、ロボット100の異なる位置に設けられる。一方のマイク122は、ロボット100の頭部の右側面に設けられてもよい。他方のマイク122は、ロボットの頭部の左側面に設けられてもよい。
センサ制御部110は、タッチセンサ124からのタッチセンサ信号を入出力部130を介して通信端末200に出力する。タッチセンサ124は、ロボット100の頭部、腕部、胴体部、脚部などのユーザが接触可能な位置に設けられる。タッチセンサ124は、例えばユーザの指がタッチセンサ124の接触面に接触したことに対応して、タッチセンサ信号をセンサ制御部110に出力する。
カメラ126は、ロボット100の頭部、胴体部などに設けられ、ロボット100の近傍にいるユーザの顔を含む顔画像を撮像する。カメラ126は、顔画像をセンサ制御部110に出力する。センサ制御部110は、顔画像を入出力部130を介して通信端末200に出力する。
図3は、本実施形態に係る通信端末200の機能ブロックの一例を示す。通信端末200は、選択部202、選択要求送信部203、命令取得部207、入出力部208、音量検出部210、入力音声情報生成部212、入力音声情報生成制御部214、入力音声情報送信部216、出力音声情報受信部220、出力音声制御部222、スピーカ224、方向検出部230、タッチ検出信号取得部232、顔画像取得部233、および顔画像送信部234を備える。
通信部201は、通信ネットワーク10を介してファイル提供装置300および対話装置310と通信する。選択部202は、通信ネットワーク10を介して接続されたファイル提供装置300に格納された複数のモーションファイルから少なくとも1つのモーションファイルを選択する。選択部202は、ユーザからの指示に応じて、ファイル提供装置300に格納された複数のモーションファイルから少なくとも1つのモーションファイルを選択してもよい。選択要求送信部203は、選択部202により選択された少なくとも1つのモーションファイルを示す選択要求を通信部201を介してファイル提供装置300に送信する。
命令取得部207は、モーションファイル受信部204および命令生成部206を含む。モーションファイル受信部204は、通信ネットワーク10を介して、選択部202が選択した少なくとも1つのモーションファイルを受信する。命令生成部206は、モーションファイル受信部204が受信した少なくとも1つのモーションファイルから、少なくとも1つのモーションファイルで定義される動作をロボット100に実行させるための制御命令を生成する。命令生成部206は、モーションファイルからロボット100の駆動機構の特性に応じてアクチュエータ120の回転量などを示す制御命令を生成するインタプリンタとして機能する。
入出力部208は、USBケーブルなどの有線またはBluetooth(登録商標)などの無線でロボット100と通信する。入出力部208は、ロボット100の入出力部130を介してアクチュエータ駆動部112に対して、命令生成部206が生成した制御命令を出力する。
音量検出部210は、ロボット100に設けられたマイク122を介して入力される入力音声の音量を検出する。音量検出部210は、マイク122を介して入力された入力音声を示す音声信号を入出力部208を介して検出し、音声信号から入力音声の音量を検出する。なお、音量検出部210は、通信端末200に設けられたマイクを介して検出した音声信号から入力音声の音量を検出してもよい。
入力音声情報生成部212は、マイク122を介して入力された入力音声を示す音声信号を入出力部208を介して検出し、音声信号から入力音声を示す入力音声情報を生成する。なお、入力音声情報生成部212は、ロボット本体に設けられたマイク122ではなく、通信端末200に設けられたマイクから入力された入力音声を示す音声信号を入出力部208から検知し、入力音声情報を生成してもよい。
入力音声情報生成制御部214は、音量検出部210により検出された音量が予め定められた基準音量を超えた場合、入力音声情報生成部212に入力音声情報を生成させる。入力音声情報生成制御部214は、音量検出部210により検出された音量が予め定められた基準音量を超えた場合、入力音声情報生成部212として機能するアプリケーションを起動することで、入力音声情報生成部212に入力音声情報を生成させてもよい。
入力音声情報送信部216は、通信ネットワーク10を介して、入力音声に対する出力音声を決定する対話装置310に、マイク122を介して入力された入力音声を示す入力音声情報を送信する。入力音声情報送信部216は、入力音声情報生成部212が生成した入力音声情報を対話装置310に送信する。
入力音声情報生成部212は、音声信号から音声認識処理を実行して、音声認識処理の結果を入力音声情報として生成してもよい。つまり、対話装置310が、音声認識処理を実行するのではなく、通信端末200が音声認識処理を実行して、その結果を示す入力音声情報を入力音声情報送信部216が対話装置310に送信してもよい。
出力音声情報受信部220は、通信ネットワーク10を介して、入力音声情報に対する出力音声情報を示す複数の対話ファイルのうち少なくとも1つのモーションファイルに関連付けられた対話ファイルに基づいて対話装置310が決定した出力音声情報を受信する。
入力音声情報送信部216は、通信ネットワーク10を介して、モーションファイル受信部204が受信した少なくとも1つのモーションファイルを識別する識別情報が関連付けられた入力音声情報を対話装置310に送信してもよい。この場合、出力音声情報受信部220は、通信ネットワーク10を介して、入力音声情報に関連付けられた識別情報に対応する対話ファイルに基づいて対話装置310が決定した出力音声情報を受信してもよい。
出力音声制御部222は、出力音声情報受信部220が受信した出力音声情報に基づいてスピーカ224から出力される出力音声を制御する。なお、出力音声制御部222は、通信端末200が備えるスピーカ224でははく、ロボット本体に設けられたスピーカから出力音声情報に基づく音声を出力してもよい。また、モーションファイル受信部204が受信したモーションファイルに音声を出力することが定義されている場合には、命令生成部206からの指示を受けて、出力音声情報受信部220は、モーションファイルで定義された音声をスピーカ224を介して出力してもよい。
顔画像取得部233は、カメラ126により撮像された顔画像を入出力部208を介して取得する。顔画像送信部234は、通信ネットワーク10を介して、顔画像取得部233が取得した顔画像を対話装置310に対して送信する。対話装置310は、顔画像に関連付けられた対話ファイルを保持してもよい。対話装置310は、受信した顔画像に関連付けられた対話ファイルを特定し、特定された対話ファイルを利用して、入力音声情報に対する出力音声情報を決定してもよい。なお、通信端末200がカメラを搭載している場合には、顔画像取得部233は、通信端末200に搭載されたカメラから顔画像を取得し、顔画像送信部234が、その顔画像を対話装置310に送信してもよい。
これにより、対話装置310は、ユーザ毎に対話ファイルを選択できる。例えば、対話装置310は、ユーザの年齢または性別毎に対話ファイルを保持し、事前にユーザの年齢または性別に応じた対話ファイルを、ユーザの顔画像に関連付けておいてもよい。対話装置310は、ロボット100が使用中のモーションファイルに関連付けられ、かつ受信した顔画像に関連付けられた対話ファイルを利用して、入力音声情報に対する出力音声情報を決定してもよい。
入力音声情報送信部216は、顔画像が関連付けられた入力音声情報を対話装置310に送信してもよい。出力音声情報受信部220は、通信ネットワーク10を介して、入力音声情報に対する出力音声情報を示す複数の対話ファイルの中から少なくとも1つのモーションファイルに関連付けられ、かつ顔画像に関連付けられた対話ファイルに基づいて対話装置310が決定した出力音声情報を受信してもよい。
方向検出部230は、ロボット100の異なる位置に設けられた複数のマイク122から入力される入力音声を入出力部208を介して取得する。方向検出部230は、取得した複数のマイク122のそれぞれからの入力音声に基づいて、入力音声が発せられたロボット100に対する方向を検出する。方向検出部230は、複数のマイク122のそれぞれから入力される音声信号の音量の差に基づいて、入力音声が発せられたロボット100に対する方向を検出してもよい。方向検出部230は、音量が最も大きい音声が入力されるマイク122の方向を、入力音声が発生されたロボット100に対する方向として検出してもよい。
命令生成部206は、音声が発せられた方向を方向検出部230が検出した場合、使用中のモーションファイルで定義されるその方向に基づく動作をロボット100に実行させるための制御命令を生成してもよい。命令生成部206は、方向検出部230により検出された音声が発生された方向にロボット100を向けさせる制御命令を生成してもよい。入出力部208は、使用中のモーションファイルで定義される方向検出部230により検出された方向に基づく動作をロボット100に実行させるための制御命令を入出力部130を介してアクチュエータ駆動部112に対して出力してもよい。
タッチ検出信号取得部232は、ロボット100に設けられたタッチセンサ124からのタッチ検出信号を入出力部208を介して取得する。命令生成部206は、タッチ検出信号に基づく動作をロボット100に実行させるための制御命令を生成してもよい。命令生成部206は、使用中のモーションファイルで定義されるタッチ検出信号に基づく動作をロボット100に実行させるための制御命令を生成してもよい。命令生成部206は、タッチ検出信号取得部232がタッチ検出信号を取得した場合、モーションファイルに従ってロボット100の腕を上げる、ジャンプするなどの特定の動作をロボット100に実行させるための制御命令を生成してもよい。
入出力部208は、使用中のモーションファイルで定義されるタッチ検出信号に基づく動作をロボット100に実行させるための制御命令をアクチュエータ駆動部112に対して出力してもよい。
なお、上記の実施形態では、通信端末200が、通信ネットワーク10を介してモーションファイルをダウンロードして利用する例について説明した。しかし、通信端末200は、モーションファイルをダウンロードせずに、ストリーミングを利用して、モーションファイルの内容を受信してもよい。また、インタプリンタとして機能する命令生成部206を備えた装置を通信ネットワーク10上に配置して、通信端末200が、ストリーミングを利用して、通信ネットワーク10を介して命令生成部206から、モーションファイルで定義される動作をロボット100に実行させるための制御命令を受信してもよい。この場合、命令取得部207は、モーションファイル受信部204の代わりに、通信ネットワーク10を介して、選択部202が選択した少なくとも1つのモーションファイルで定義される動作をロボット100に実行させるための制御命令を受信する制御命令受信部を有する。命令取得部207は、モーションファイル受信部204および制御命令受信部を有してもよい。
図4は、モーションファイルの一例を示す。モーションファイルは、ロボット100に実行させるための動作を示す。図4のモーションファイルにおいて、行番号「0000」は、ロボット100が予め定められた位置を示すホーム位置に移動する動作を示す。行番号「0001」は、ロボット100が瞑想の姿勢をして、ゆっくり移動する動作を示す。行番号「0002」は、タッチセンサ124がオフなら、行番号「0004」に示す「jump1」に遷移することを示す。行番号「0003」は、タッチセンサ124がオンなら、行番号「0012」に示す「banzai」に遷移することを示す。
行番号「0005」は、ロボット100が「こんにちは」という音声を出力する動作を示す。行番号「0006」は、モーションファイルで定義されている表示ファイル群の中から1ページ目の表示ファイルを、通信端末200が備える表示部またはロボット100が備える表示部に表示させる動作を示す。行番号「0007」は、ロボット100が右腕を60度移動させる動作を示す。行番号「0008」は、ロボット100が左腕を30度移動させる動作を示す。行番号「0009」は、ロボット100が首を水平に45度回転させる動作を示す。行番号「0010」は、ロボット100が首を垂直に−15度傾ける動作を示す。行番号「0011」は、モーションファイルによるロボット100の動作を終了することを示す。
行番号「0013」は、ロボット100が万歳の姿勢をして、早く移動する動作を示す。行番号「0014」は、ロボット100が予め定められた「微笑1」の表情をする動作を示す。行番号「0015」は、ロボット100が右目を閉じる動作を示す。行番号「0016」は、ロボット100が現在の状態のまま1秒待機する動作を示す。行番号「0017」は、ロボット100が右目を開ける動作を示す。行番号「0018」は、サブルーチンリターンを示す。
図5は、対話ファイルの一例を示す。対話ファイルには、少なくとも1つのモーションファイルが関連付けられている。対話ファイルは、モーションファイルによるロボット100の動作の内容に応じた出力音声情報を示す。
図5に示す対話ファイルは、童話の読み聞かせを行うモーションファイルに関連付けられている対話ファイルの一例である。ロボット100が、鬼が出てくる日本の童話である「桃太郎」の読み聞かせを行うモーションファイルに従って動作している場合、ユーザである幼児が、「鬼って何?」という質問をする場合が考えられる。この場合、対話装置310は、入力音声情報に基づいて音声認識を行い、「鬼」および「何」という単語を認識する。そして、対話装置310は、認識結果に基づいて、対話ファイルを参照して、認識された入力音声情報に対して、鬼の説明を示す出力音声情報を決定し、ロボット100に送信する。
上記のように、モーションファイルによって実行されるロボット100の動作を考慮して、ユーザから発せられる可能性がある質問などを予測して、その予測に沿った回答を示す対話ファイルを対話装置310に保持させておく。例えば、対話ファイルは、モーションファイルの内容に沿ったオントロジーに基づいて構成されてもよい。これにより、対話装置310は、ロボット100の動作に適合した音声をロボット100に出力させることができる。
図6は、ロボット100の動作手順の一例を示すフローチャートである。まず、ユーザの指示に応じて、通信端末200の選択部202が、ファイル提供装置300に格納されている複数のモーションファイルからロボット100に適用するモーションファイルを選択する(S100)。
モーションファイル受信部204は、通信ネットワーク10を介して、選択部202が選択したモーションファイルをファイル提供装置300から受信する(S102)。命令生成部206は、モーションファイル受信部204が受信したモーションファイルで定義される動作をロボット100に実行させるための制御命令を生成する。入出力部208は、命令生成部206が生成した制御命令をロボット100の入出力部130を介してアクチュエータ駆動部112に出力する(S104)。
制御命令に従ってロボット100が動作中に、方向検出部230がマイク122を介して基準音量以上の音量の音声を検出した場合(S106)、入出力部208は、モーションファイルに従った制御命令の出力を中断する。また、入力音声情報生成制御部214が、入力音声情報生成部212を起動させて、入力音声情報生成部212がマイク122を介して入力される入力音声を示す入力音声情報を生成する(S108)。
次いで、入力音声情報送信部216は、入力音声情報生成部212が生成した入力音声情報を対話装置310に送信する(S110)。入力音声情報送信部216は、動作中のモーションファイルを識別する識別情報とともに入力音声情報を対話装置310に送信してもよい。出力音声情報受信部220は、対話装置310が入力音声情報に対して決定した出力音声情報を受信する(S112)。対話装置310は、入力音声情報ととともに識別情報を受信した場合に、識別情報に対応する対話ファイルを利用して、出力音声情報を決定してもよい。
出力音声制御部222は、出力音声情報受信部220が受信した出力音声情報に示される出力音声をスピーカ224を介して出力する(S114)。音声の出力が終了した後、入出力部208は、モーションファイルに従った制御命令の出力を再開する。
モーションファイルに従った動作が終了するまで、ロボット100は、ステップS104からステップS114までの処理を繰返し、モーションファイルに従った動作が終了した時点で、ロボット100は処理を終了する(S116)。
以上の通り、本実施形態によれば、ロボット100がモーションファイルに従って動作中に、マイク122から基準音量以上の音量の音声が入力された場合、入力音声情報生成部212が起動して、入力音声情報生成部212がマイク122から入力された入力音声を示す入力音声情報を生成する。
通信端末200として、ロボット100を制御するための専用の端末ではないスマートフォンなどが利用された場合、通信端末200の処理能力が十分でない場合がある。このような場合、通信端末200が、命令生成部206および入出力部208による制御命令の生成および出力と、入力音声情報送信部216による入力音声情報の生成および入力音声情報送信部216による入力音声情報の送信とを同時にまたは並列に実行した場合、通信端末200の処理負担が増大し、入力音声情報送信部216によって生成される入力音声情報の質の低下を招く可能性がある。
そこで、上記のように、入力音声の音量が基準音量以上になった場合に、入力音声情報生成部212を起動させて、入力音声情報の生成をさせることで、入力音声情報生成部212が起動し続けている場合によりも通信端末200の処理の負担を低減できる。また、入力音声情報生成部212による入力音声情報の生成中に、入出力部208が他の制御命令を出力しないことで、制御命令の出力と入力音声情報の生成とを同時に実行することに伴う通信端末200の処理負担を低減できる。さらに、常に入力音声情報生成部212を起動させておくことにより、通信端末200の処理の負担が増大することを防止できる。
例えば、音量検出部210が、マイク122により入力された入力音声の音量が基準音量以上になったことを検出したことに対応して、方向検出部230が検出した音声の発せられた方向を向くように、命令生成部206が制御命令を生成し、入出力部208が出力する。次いで、入力音声情報生成制御部214が、入力音声情報生成部212を起動して、入力音声の生成の準備をする。ロボット100が、制御命令に従って音声が発せられた方向に向いた後、マイク122を介して入力された入力音声に従って、入力音声情報生成部212が入力音声情報を生成してもよい。
なお、モーションファイルの中に、音声認識処理を実行するタイミングで入力音声情報生成部212を起動させる命令を含めてもよい。モーションファイルに示される動作にあったタイミングで、入力音声情報生成部212を起動させることができる。これにより、常に入力音声情報生成部212を起動させておくことにより、通信端末200の処理の負担が増大することを防止できる。
また、モーションファイルの中に、タッチセンサ124による接触を検知すべきタイミングで、タッチセンサ124をオンにして、タッチ検出信号取得部232を起動させる命令を含めてもよい。さらに、タッチセンサ124がオンしたことに対応して、入出力部208がモーションファイルに従った制御命令の出力を一時中断してもよい。そして、中断している間に、タッチ検出信号取得部232がタッチ検出信号を取得した場合、命令生成部206が、タッチ検出信号を取得した場合に実行すべく制御命令を生成して、入出力部208が、その制御命令を出力してもよい。
図7は、本実施形態に係る通信端末200ハードウェア構成の一例を示す。本実施形態に係る通信端末200は、ホストコントローラ902により相互に接続されるCPU904、RAM906を有するCPU周辺部と、入出力コントローラ908によりホストコントローラ902に接続されるROM910、通信インターフェイス912、およびアンテナ914を有する入出力部とを備える。入出力部は、ハードディスクドライブ、CD−ROMドライブ、およびUSBインターフェイスをさらに有してよい。
ホストコントローラ902は、RAM906と、高い転送レートでRAM906をアクセスするCPU904とを接続する。CPU904は、ROM910およびRAM906に格納されたプログラムに基づいて動作して、各部を制御する。入出力コントローラ908は、ホストコントローラ902と、比較的高速な入出力装置である通信インターフェイス912と、ROM910とを接続する。
通信インターフェイス912は、アンテナ914を介して無線でファイル提供装置300および対話装置310と通信する。また、通信インターフェイス912は、有線または無線でロボット本体に設けられたアクチュエータ駆動部112と通信する。ROM910は、通信端末200内のCPU904が使用するプログラムおよびデータを格納する。また、ROM910は、通信端末200が起動時に実行するブート・プログラム、通信端末200のハードウェアに依存するプログラム等を格納する。
RAM906を介してROM910に提供されるプログラムは、通信インターフェイス912またはUSBインターフェイスを介して、通信端末200内のRAM906を介してROM910にインストールされ、CPU904において実行される。
通信端末200にインストールされて実行されるプログラムは、CPU904等に働きかけて、通信端末200を、図1から図6にかけて説明した選択部202、選択要求送信部203、命令取得部207、入出力部208、音量検出部210、入力音声情報生成部212、入力音声情報生成制御部214、入力音声情報送信部216、出力音声情報受信部220、出力音声制御部222、スピーカ224、方向検出部230、タッチ検出信号取得部232、顔画像取得部233、および顔画像送信部234として機能させる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 通信ネットワーク
100 ロボット
110 センサ制御部
112 アクチュエータ駆動部
120 アクチュエータ
122 マイク
124 タッチセンサ
126 カメラ
130 入出力部
200 通信端末
201 通信部
202 選択部
203 選択要求送信部
204 モーションファイル受信部
206 命令生成部
207 命令取得部
208 入出力部
210 音量検出部
212 入力音声情報生成部
214 入力音声情報生成制御部
216 入力音声情報送信部
220 出力音声情報受信部
222 出力音声制御部
224 スピーカ
230 方向検出部
232 タッチ検出信号取得部
233 顔画像取得部
234 顔画像送信部
300 ファイル提供装置
310 対話装置

Claims (8)

  1. ロボットの動作を定義するモーションファイルに従って前記ロボットを制御するためのプログラムであって、コンピュータを、
    通信ネットワークを介して接続された外部格納装置に格納された複数の前記モーションファイルから少なくとも1つのモーションファイルを選択する選択部、
    前記通信ネットワークを介して、前記少なくとも1つのモーションファイルを受信するモーションファイル受信部、
    前記少なくとも1つのモーションファイルから、前記少なくとも1つのモーションファイルで定義される動作を前記ロボットに実行させるための制御命令を生成する命令生成部
    前記ロボットを制御するロボット制御部に対して、前記命令生成部が生成した前記制御命令を出力する出力部
    前記通信ネットワークを介して、入力音声に対する出力音声を決定する対話装置に、マイクを介して入力された入力音声を示す入力音声情報を送信する入力音声情報送信部、
    前記通信ネットワークを介して、前記入力音声情報に対する出力音声情報を示す複数の対話ファイルのうち前記少なくとも1つのモーションファイルに関連付けられた対話ファイルに基づいて前記対話装置が決定した出力音声情報を受信する出力音声情報受信部、
    前記出力音声情報受信部が受信した前記出力音声情報に基づいてスピーカから出力される出力音声を制御する出力音声制御部、
    前記マイクを介して入力される入力音声の音量を検出する音量検出部、
    前記マイクを介して入力される入力音声を示す入力音声情報を生成する入力音声情報生成部、および
    前記音量検出部により検出された音量が基準音量を超えた場合、前記入力音声情報生成部に前記入力音声情報を生成させる入力音声情報生成制御部
    として機能させ、
    前記入力音声情報送信部は、前記通信ネットワークを介して、前記入力音声情報生成部が生成した前記入力音声情報を前記対話装置に送信する、プログラム。
  2. ロボットの動作を定義するモーションファイルに従って前記ロボットを制御するためのプログラムであって、コンピュータを、
    通信ネットワークを介して接続された外部格納装置に格納された複数の前記モーションファイルから少なくとも1つのモーションファイルを選択する選択部、
    前記通信ネットワークを介して、前記少なくとも1つのモーションファイルで定義される動作を前記ロボットに実行させるための制御命令を受信する制御命令受信部
    前記ロボットを制御するロボット制御部に対して、前記制御命令受信部が受信した前記制御命令を出力する出力部
    前記通信ネットワークを介して、入力音声に対する出力音声を決定する対話装置に、マイクを介して入力された入力音声を示す入力音声情報を送信する入力音声情報送信部、
    前記通信ネットワークを介して、前記入力音声情報に対する出力音声情報を示す複数の対話ファイルのうち前記少なくとも1つのモーションファイルに関連付けられた対話ファイルに基づいて前記対話装置が決定した出力音声情報を受信する出力音声情報受信部、
    前記出力音声情報受信部が受信した前記出力音声情報に基づいてスピーカから出力される出力音声を制御する出力音声制御部、
    前記マイクを介して入力される入力音声の音量を検出する音量検出部、
    前記マイクを介して入力される入力音声を示す入力音声情報を生成する入力音声情報生成部、および
    前記音量検出部により検出された音量が基準音量を超えた場合、前記入力音声情報生成部に前記入力音声情報を生成させる入力音声情報生成制御部
    として機能させ、
    前記入力音声情報送信部は、前記通信ネットワークを介して、前記入力音声情報生成部が生成した前記入力音声情報を前記対話装置に送信する、
    として機能させるためのプログラム。
  3. 前記入力音声情報送信部は、前記通信ネットワークを介して、前記少なくとも1つのモーションファイルを識別する識別情報が関連付けられた前記入力音声情報を前記対話装置に送信し、
    前記出力音声情報受信部は、前記通信ネットワークを介して、前記入力音声情報に関連付けられた前記識別情報に対応する前記対話ファイルに基づいて前記対話装置が決定した前記出力音声情報を受信する、請求項1または2に記載のプログラム。
  4. 前記通信ネットワークを介して、カメラにより撮像された顔画像を前記対話装置に送信する顔画像送信部として、前記コンピュータをさらに機能させ、
    前記出力音声情報受信部は、前記通信ネットワークを介して、前記入力音声情報に対する出力音声情報を示す複数の対話ファイルの中から前記少なくとも1つのモーションファイルに関連付けられ、かつ前記顔画像に関連付けられた前記対話ファイルに基づいて前記対話装置が決定した出力音声情報を受信する、請求項から請求項のいずれか1つに記載のプログラム。
  5. 前記ロボットの異なる位置に設けられた複数の前記マイクから入力される入力音声に基づいて、前記入力音声が発せられた前記ロボットに対する方向を検出する方向検出部として、前記コンピュータをさらに機能させ、
    前記出力部は、前記方向に基づく動作を前記ロボットに実行させるための制御命令を前記ロボット制御部に対して出力する、請求項から請求項のいずれか1つに記載のプログラム。
  6. 前記ロボットに設けられたタッチセンサからのタッチ検出信号を取得するタッチ検出信号取得部として、前記コンピュータを機能させ、
    前記出力部は、前記タッチ検出信号に基づく動作を前記ロボットに実行させるための制御命令を前記ロボット制御部に対して出力する、請求項1から請求項のいずれか1つに記載のプログラム。
  7. モーションファイルに従って動作するロボットを備えるロボットシステムであって、
    通信ネットワークを介して接続された外部格納装置に格納された複数の前記モーションファイルから少なくとも1つのモーションファイルを選択する選択部と、
    前記通信ネットワークを介して、前記少なくとも1つのモーションファイルを受信するモーションファイル受信部と、
    前記少なくとも1つのモーションファイルから、前記少なくとも1つのモーションファイルで定義される動作を前記ロボットに実行させるための制御命令を生成する命令生成部と、
    前記ロボットを制御するロボット制御部に対して、前記命令生成部が生成した前記制御命令を出力する出力部と、
    前記通信ネットワークを介して、入力音声に対する出力音声を決定する対話装置に、マイクを介して入力された入力音声を示す入力音声情報を送信する入力音声情報送信部と、
    前記通信ネットワークを介して、前記入力音声情報に対する出力音声情報を示す複数の対話ファイルのうち前記少なくとも1つのモーションファイルに関連付けられた対話ファイルに基づいて前記対話装置が決定した出力音声情報を受信する出力音声情報受信部と、
    前記出力音声情報受信部が受信した前記出力音声情報に基づいてスピーカから出力される出力音声を制御する出力音声制御部と、
    前記マイクを介して入力される入力音声の音量を検出する音量検出部と、
    前記マイクを介して入力される入力音声を示す入力音声情報を生成する入力音声情報生成部と、
    前記音量検出部により検出された音量が基準音量を超えた場合、前記入力音声情報生成部に前記入力音声情報を生成させる入力音声情報生成制御部と
    を備え、
    前記入力音声情報送信部は、前記通信ネットワークを介して、前記入力音声情報生成部が生成した前記入力音声情報を前記対話装置に送信する、ロボットシステム。
  8. モーションファイルに従って動作するロボットを備えるロボットシステムであって、
    通信ネットワークを介して接続された外部格納装置に格納された複数の前記モーションファイルから少なくとも1つのモーションファイルを選択する選択部と、
    前記通信ネットワークを介して、前記少なくとも1つのモーションファイルで定義される動作を前記ロボットに実行させるための制御命令を受信する制御命令受信部と、
    前記ロボットを制御するロボット制御部に対して、前記制御命令受信部が受信した前記制御命令を出力する出力部と、
    前記通信ネットワークを介して、入力音声に対する出力音声を決定する対話装置に、マイクを介して入力された入力音声を示す入力音声情報を送信する入力音声情報送信部と、
    前記通信ネットワークを介して、前記入力音声情報に対する出力音声情報を示す複数の対話ファイルのうち前記少なくとも1つのモーションファイルに関連付けられた対話ファイルに基づいて前記対話装置が決定した出力音声情報を受信する出力音声情報受信部と、
    前記出力音声情報受信部が受信した前記出力音声情報に基づいてスピーカから出力される出力音声を制御する出力音声制御部と、
    前記マイクを介して入力される入力音声の音量を検出する音量検出部と、
    前記マイクを介して入力される入力音声を示す入力音声情報を生成する入力音声情報生成部と、
    前記音量検出部により検出された音量が基準音量を超えた場合、前記入力音声情報生成部に前記入力音声情報を生成させる入力音声情報生成制御部と
    を備え、
    前記入力音声情報送信部は、前記通信ネットワークを介して、前記入力音声情報生成部が生成した前記入力音声情報を前記対話装置に送信する、ロボットシステム。
JP2013142316A 2013-07-08 2013-07-08 ロボットを制御するためのプログラム、及びロボットシステム Active JP5975947B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013142316A JP5975947B2 (ja) 2013-07-08 2013-07-08 ロボットを制御するためのプログラム、及びロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013142316A JP5975947B2 (ja) 2013-07-08 2013-07-08 ロボットを制御するためのプログラム、及びロボットシステム

Publications (2)

Publication Number Publication Date
JP2015013351A JP2015013351A (ja) 2015-01-22
JP5975947B2 true JP5975947B2 (ja) 2016-08-23

Family

ID=52435536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013142316A Active JP5975947B2 (ja) 2013-07-08 2013-07-08 ロボットを制御するためのプログラム、及びロボットシステム

Country Status (1)

Country Link
JP (1) JP5975947B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199585A1 (ja) * 2016-05-19 2017-11-23 シャープ株式会社 ロボット、ロボットの動作方法、及びプログラム
JPWO2017199565A1 (ja) * 2016-05-20 2019-01-10 シャープ株式会社 ロボット、ロボットの動作方法、及びプログラム
JP6447578B2 (ja) 2016-05-27 2019-01-09 トヨタ自動車株式会社 音声対話装置および音声対話方法
JP6465077B2 (ja) 2016-05-31 2019-02-06 トヨタ自動車株式会社 音声対話装置および音声対話方法
JP6402748B2 (ja) 2016-07-19 2018-10-10 トヨタ自動車株式会社 音声対話装置および発話制御方法
JP6925794B2 (ja) 2016-09-02 2021-08-25 株式会社安川電機 コントローラ、作業制御装置、多軸動作制御装置、及び駆動制御装置
JP6610610B2 (ja) * 2017-04-27 2019-11-27 トヨタ自動車株式会社 音声入出力装置、無線接続方法、音声対話システム
JP6508251B2 (ja) * 2017-04-27 2019-05-08 トヨタ自動車株式会社 音声対話システムおよび情報処理装置
JP7242248B2 (ja) 2018-10-31 2023-03-20 キヤノン株式会社 電子機器、その制御方法、およびそのプログラム
JPWO2021117441A1 (ja) * 2019-12-10 2021-06-17

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4815940B2 (ja) * 2005-08-17 2011-11-16 日本電気株式会社 ロボット制御システム、ロボット装置、およびロボット制御方法
JP5040865B2 (ja) * 2008-09-08 2012-10-03 日本電気株式会社 ロボット制御システム、遠隔管理装置、遠隔管理方法及びプログラム

Also Published As

Publication number Publication date
JP2015013351A (ja) 2015-01-22

Similar Documents

Publication Publication Date Title
JP5975947B2 (ja) ロボットを制御するためのプログラム、及びロボットシステム
JP6379103B2 (ja) ジェスチャを介したマルチデバイスのペアリングおよび共有
JP6551507B2 (ja) ロボット制御装置、ロボット、ロボット制御方法およびプログラム
JP7119896B2 (ja) コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
CN106055088B (zh) 交互式穿戴式设备的空气书写和手势系统
CN107111430B (zh) 语音注释和呼叫的混合
US20190019512A1 (en) Information processing device, method of information processing, and program
JP2011000681A (ja) コミュニケーションロボット
CN107688791A (zh) 显示内容控制方法及装置、系统、存储介质和电子设备
US9672808B2 (en) Information processing apparatus, information processing system, information processing method, and program
US11675360B2 (en) Information processing apparatus, information processing method, and program
US11376742B2 (en) Robot and method of controlling the same
JP6514475B2 (ja) 対話装置および対話方法
KR20210068474A (ko) 인터랙티브 오브젝트 구동 방법, 장치, 전자 디바이스 및 기록 매체
WO2016206642A1 (zh) 机器人的控制数据的生成方法及装置
US20120316679A1 (en) Providing remote gestural and voice input to a mobile robot
US20180063283A1 (en) Information processing apparatus, information processing method, and program
US10828773B2 (en) Voice interactive robot and voice interaction system
US10596708B2 (en) Interaction device and interaction method thereof
JP6558764B2 (ja) テレプレゼンスロボット
US11938625B2 (en) Information processing apparatus, information processing method, and program
KR20210009209A (ko) 다른 로봇과 대화가 가능한 로봇 및 이의 제어 방법
JP2022060288A (ja) 制御装置、ロボット、制御方法およびプログラム
JP2013042476A (ja) 動作体玩具
WO2018056169A1 (ja) 対話装置、処理方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150520

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160719

R150 Certificate of patent or registration of utility model

Ref document number: 5975947

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250