JP4534427B2 - Robot control apparatus and method, recording medium, and program - Google Patents

Robot control apparatus and method, recording medium, and program Download PDF

Info

Publication number
JP4534427B2
JP4534427B2 JP2003097647A JP2003097647A JP4534427B2 JP 4534427 B2 JP4534427 B2 JP 4534427B2 JP 2003097647 A JP2003097647 A JP 2003097647A JP 2003097647 A JP2003097647 A JP 2003097647A JP 4534427 B2 JP4534427 B2 JP 4534427B2
Authority
JP
Japan
Prior art keywords
information
advertisement
robot
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003097647A
Other languages
Japanese (ja)
Other versions
JP2004302328A (en
Inventor
コスタ ガブリエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003097647A priority Critical patent/JP4534427B2/en
Publication of JP2004302328A publication Critical patent/JP2004302328A/en
Application granted granted Critical
Publication of JP4534427B2 publication Critical patent/JP4534427B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ロボット制御装置および方法、記録媒体、並びにプログラムに関し、特に、広告に対するユーザの好感度を向上し、広告の効果を向上することができるようにしたロボット制御装置および方法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】
近年、自律的に動作するようにした自律移動ロボットが一般的なものになりつつある。このような自律移動ロボットにおいて、商品の広告内容を自由に変更する機能を付加することにより、広告の効果を向上させることが特許文献1に提案されている。
【0003】
この自律移動ロボットは、例えば、テレビジョン受像機のように、モニタに広告を表示させる機能を有し、ネットワークを介して取得した広告を表示させながら、自律的に人が集まる場所へ移動することができる。したがって、さまざまな広告をより多くの人に対して見せることができる。
【0004】
【特許文献1】
特開2003−50559号公報
【0005】
【発明が解決しようとする課題】
しかしながら、特許文献1に記載の自律移動ロボットは、街頭で多くの人を対象として広告する場合には効果があるが、この広告機能を、ユーザの個人の自律移動ロボットに適用した場合、ユーザにとって、興味のないものまで広告されてしまうといった課題があった。
【0006】
また、ユーザの気分に関係なく、広告を行ってしまうため、例えば、ユーザの機嫌が悪い場合において、自律移動ロボットが広告を行ってしまったとき、ユーザの不快感は、さらに増幅してしまう。これにより、広告の効果が減少してしまう課題があった。
【0007】
本発明はこのような状況に鑑みてなされたものであり、広告に対するユーザの好感度を向上し、広告の効果を向上することができるようにするものである。
【0008】
【課題を解決するための手段】
本発明のロボット制御装置は、ユーザの嗜好、ユーザに対して広告動作を実行するのに適した単位時間における回数、および、ユーザの許容性を取得するための補助動作情報が少なくとも含まれるユーザ情報を記憶するユーザ情報記憶手段と、ロボットに広告動作を実行させるための、少なくともキーワードおよび広告動作情報を含む動作情報の中から、ユーザ情報記憶手段に記憶されているユーザ情報のユーザの嗜好に対応する動作情報を選択し、ネットワークを介して情報提供装置から取得する取得手段と、連続する入力音声を認識する音声認識手段と、音声認識手段により認識された入力音声と、取得手段により取得された動作情報に含まれるキーワードとが一致した場合に、ロボットが広告動作をした単位時間における回数が、ユーザ情報の回数未満であるとき、取得手段により取得された動作情報に含まれる広告動作情報に基づいて、ロボットが広告動作を実行するように制御する広告動作制御手段と、ロボットが広告動作を実行した後、ロボットが、ユーザ情報の補助動作情報に基づく動作をするように制御する補助動作制御手段と、補助動作制御手段により制御されたロボットの動作に基づいて入力される入力音声に応じて、ユーザ情報記憶手段に記憶されているユーザ情報の回数を更新する更新手段とを備える。
【0009】
動作情報には、動作時間帯が含まれており、現在時刻が動作時間帯であるか否かを判断する時刻判断手段をさらに備え、時刻判断手段により現在時刻が動作時間帯であると判断された場合にも、ロボットが広告動作をした単位時間における回数が、ユーザ情報の回数未満であるとき、広告動作手段は、ロボットが広告動作を実行するように制御することができる。
【0010】
ロボットが広告動作として運動するように、ロボットを駆動する駆動手段と、ロボットが広告動作として広告発話するように、音声を合成し、出力する音声出力手段とをさらに備えるようにすることができる。
【0011】
動作情報には、広告動作の対象の購入に関する情報が含まれており、ロボットが広告動作を実行した後、購入に関する情報に基づいて、広告動作の対象が購入可能であるか否かを判断する購入判断手段と、購入判断手段により広告動作の対象が購入可能であると判断された場合、ロボットが、購入に関する情報に含まれる購入を促すための動作情報に基づく動作をするように制御する購入動作制御手段と、購入動作制御手段により制御されたロボットの動作に基づいて入力される入力音声に応じて、ネットワークを介して情報提供装置に、対象の購入を要求する要求手段とをさらに備えることができる
【0012】
動作情報には、広告動作の対象の詳細情報に関する情報が含まれており、ロボットが広告動作を実行した後、詳細情報に関する情報に基づいて、情報提供装置に広告動作の対象の詳細情報があるか否かを判断する詳細情報判断手段と、詳細情報判断手段により情報提供装置に広告動作の対象の詳細情報があると判断された場合、ロボットが、詳細情報に関する情報に含まれる詳細情報取得を促すための動作情報に基づく動作をするように制御する詳細情報動作制御手段と、詳細情報動作制御手段により制御されたロボットの動作に基づいて入力される入力音声に応じて、ネットワークを介して情報提供装置に、対象の詳細情報を要求する要求手段とをさらに備えることができる
【0013】
動作情報には、広告動作または広告動作の対象のフィードバックに関する情報が含まれており、ロボットが広告動作を実行した後、フィードバックに関する情報に基づいて、広告動作に対するユーザの音声入力を情報提供装置に送信するか否かを判断する送信判断手段と、送信判断手段によりユーザの音声入力を送信すると判断された場合、ロボットが、フィードバックに関する情報に含まれるユーザからフィードバック情報を取得するための動作情報に基づく動作をするように制御する送信動作制御手段と、送信動作制御手段により制御されたロボットの送信動作に基づいて入力される入力音声に応じて、ネットワークを介して情報提供装置に、ユーザの音声入力を送信する送信手段とをさらに備えることができる
【0015】
本発明のロボット制御方法は、ロボットの動作を制御するロボット制御装置のロボット制御方法において、ロボット制御装置が、ロボットに広告動作を実行させるための、少なくともキーワードおよび広告動作情報を含む動作情報の中から、メモリに記憶されている、ユーザの嗜好、ユーザに対して広告動作を実行するのに適した単位時間における回数、および、ユーザの許容性を取得するための補助動作情報が少なくとも含まれるユーザ情報のユーザの嗜好に対応する動作情報を選択し、ネットワークを介して情報提供装置から取得する取得ステップと、連続する入力音声を認識する音声認識ステップと、音声認識ステップの処理により認識された入力音声と、取得ステップの処理により取得された動作情報に含まれるキーワードとが一致した場合に、ロボットが広告動作をした単位時間における回数が、ユーザ情報の回数未満であるとき、取得ステップの処理により取得された動作情報に含まれる広告動作情報に基づいて、ロボットが広告動作を実行するように制御する広告動作制御ステップと、ロボットが広告動作を実行した後、ロボットが、ユーザ情報の補助動作情報に基づく動作をするように制御する補助動作制御ステップと、補助動作制御ステップの処理により制御されたロボットの動作に基づいて入力される入力音声に応じて、メモリに記憶されているユーザ情報の回数を更新する更新ステップとを含む。
【0016】
本発明の記録媒体に記録されているプログラムは、ロボットに広告動作を実行させるための、少なくともキーワードおよび広告動作情報を含む動作情報の中から、メモリに記憶されている、ユーザの嗜好、ユーザに対して広告動作を実行するのに適した単位時間における回数、および、ユーザの許容性を取得するための補助動作情報が少なくとも含まれるユーザ情報のユーザの嗜好に対応する動作情報を選択し、ネットワークを介して情報提供装置から取得する取得ステップと、連続する入力音声を認識する音声認識ステップと、音声認識ステップの処理により認識された入力音声と、取得ステップの処理により取得された動作情報に含まれるキーワードとが一致した場合に、ロボットが広告動作をした単位時間における回数が、ユーザ情報の回数未満であるとき、取得ステップの処理により取得された動作情報に含まれる広告動作情報に基づいて、ロボットが広告動作を実行するように制御する広告動作制御ステップと、ロボットが広告動作を実行した後、ロボットが、ユーザ情報の補助動作情報に基づく動作をするように制御する補助動作制御ステップと、補助動作制御ステップの処理により制御されたロボットの動作に基づいて入力される入力音声に応じて、メモリに記憶されているユーザ情報の回数を更新する更新ステップとを含む処理をコンピュータに実行させる。
【0017】
本発明のプログラムは、ロボットに広告動作を実行させるための、少なくともキーワードおよび広告動作情報を含む動作情報の中から、メモリに記憶されている、ユーザの嗜好、ユーザに対して広告動作を実行するのに適した単位時間における回数、および、ユーザの許容性を取得するための補助動作情報が少なくとも含まれるユーザ情報のユーザの嗜好に対応する動作情報を選択し、ネットワークを介して情報提供装置から取得する取得ステップと、連続する入力音声を認識する音声認識ステップと、音声認識ステップの処理により認識された入力音声と、取得ステップの処理により取得された動作情報に含まれるキーワードとが一致した場合に、ロボットが広告動作をした単位時間における回数が、ユーザ情報の回数未満であるとき、取得ステップの処理により取得された動作情報に含まれる広告動作情報に基づいて、ロボットが広告動作を実行するように制御する広告動作制御ステップと、ロボットが広告動作を実行した後、ロボットが、ユーザ情報の補助動作情報に基づく動作をするように制御する補助動作制御ステップと、補助動作制御ステップの処理により制御されたロボットの動作に基づいて入力される入力音声に応じて、メモリに記憶されているユーザ情報の回数を更新する更新ステップとを含む処理をコンピュータに実行させる。
【0018】
本発明においては、ロボットに広告動作を実行させるための、少なくともキーワードおよび広告動作情報を含む動作情報の中から、メモリに記憶されている、ユーザの嗜好、ユーザに対して広告動作を実行するのに適した単位時間における回数、および、ユーザの許容性を取得するための補助動作情報が少なくとも含まれるユーザ情報のユーザの嗜好に対応する動作情報が選択され、ネットワークを介して情報提供装置から取得される。そして、連続する入力音声が認識され、認識された入力音声と、取得された動作情報に含まれるキーワードとが一致した場合に、ロボットが広告動作をした単位時間における回数が、ユーザ情報の回数未満であるとき、取得された動作情報に含まれる広告動作情報に基づいて、ロボットが広告動作を実行するように制御される。さらに、ロボットが広告動作を実行した後、ロボットが、ユーザ情報の補助動作情報に基づく動作をするように制御され、制御されたロボットの動作に基づいて入力される入力音声に応じて、メモリに記憶されているユーザ情報の回数が更新される。
【0029】
以下、図を参照して、本発明の実施の形態について説明する。
【0030】
図1は、本発明を適用した情報提供システムの構成例を表している。インターネットに代表されるネットワーク2には、ロボット1−1,1−2(以下、これらのロボットを個々に区別する必要がない場合、単にロボット1と称する)、および、複数のロボット1に対して、広告情報を提供する広告情報提供サーバ3が接続されている。この例においては、ロボットが2台、広告情報提供サーバ3が1台のみ示されているが、ネットワーク2には、任意の台数のロボットおよび広告情報提供サーバ3が接続される。
【0031】
広告情報提供サーバ3は、さまざまな種類の広告情報および広告の対象の詳細情報などを記憶し、定期的に、広告情報および広告の対象の詳細情報を更新している。広告情報は、ロボット1に広告動作および広告発話を行わせるための情報、並びに、ロボット1に広告の対象の購入、広告の対象の詳細情報の取得またはフィードバック情報取得などの広告補助動作を実行させるための情報などにより構成される。広告の対象は、食品、飲み物、本、映画、またはイベントなどにより構成される。
【0032】
広告情報提供サーバ3は、ロボット1より広告情報の要求を受けると、ネットワーク2を介してロボット1に広告情報を提供する。また、広告情報提供サーバ3は、予めユーザID(Identification)で、広告の対象の購入することができるユーザを管理している。ロボット1は、広告情報に基づいて、広告補助動作を実行し、広告情報提供サーバ3にアクセスしてくる。例えば、ロボット1より広告の対象の購入の要求を受けると、広告情報提供サーバ3は、ユーザIDに基づいて、指示された広告の対象の購入の処理を実行する。また、ロボット1より広告の対象の詳細情報の要求を受けると、広告情報提供サーバ3は、指示された広告の対象の詳細情報を、ネットワーク2を介して、ユーザのメールアドレス宛に送信する。広告情報提供サーバ3は、ロボット1より広告情報の広告動作に対するユーザの意見を、フィードバック情報として受けると、受信したフィードバック情報を、図示せぬ広告提供者、または、広告の対象のメーカに提供する。これにより、広告提供者、または、広告の対象のメーカにおいては、ユーザの意見を、その広告、または、広告の対象そのものに反映させることができる。
【0033】
ロボット1は、自律的に制御ができる2足歩行型のロボットである。ロボット1は、実際には、ネットワーク2に接続された、図示せぬ基地局を介して、無線通信を行って、広告情報提供サーバ3と接続される。ロボット1は、ユーザの嗜好、広告の対象を広告情報提供サーバ3から購入するためのユーザID、およびメールアドレスなどにより構成される個人情報を有している。ロボット1は、ネットワーク2を介して、広告情報提供サーバ3にアクセスし、広告情報提供サーバ3に記憶される広告情報の中から、ユーザの嗜好に対応する広告情報を取得する。広告情報は、ロボット1が広告動作および広告発話を行うための情報により構成されている。ロボット1は、広告情報提供サーバ3から取得した広告情報に基づいて、広告動作および広告発話を行う。
【0034】
また、広告情報には、ロボット1が、次のような広告の補助動作を行うための情報も含まれている。ロボット1は、広告動作および広告発話を実行した後、広告情報に基づいて、広告の対象の購入や広告の対象の詳細情報の取得をユーザに促す動作や発話を実行し、実行した動作や発話に対する、ユーザからの音声入力に応じて、個人情報のユーザIDまたはメールアドレスを送信するとともに、広告の対象の購入や広告の対象の詳細情報の取得を、ネットワーク2を介して、広告情報提供サーバ3に要求する。さらに、ロボット1は、広告情報に基づいて、広告動作または広告の対象に対するユーザの意見を取得する動作や発話を実行し、実行した動作や発話に対する、ユーザからの音声入力を、フィードバック情報として、ネットワーク2を介して、広告情報提供サーバ3に送信する。
【0035】
以上のように、この広告情報提供システムにおいては、ロボット1には、広告情報提供サーバ3から、ユーザの個人情報に対応する広告情報が提供される。また、ロボット1からのフィードバック情報が情報提供サーバ3を介して、広告提供者、または、広告の対象のメーカに提供される。
【0036】
図2は、図1のロボット1の正面方向の斜視図であり、図3は、ロボット1の背面方向からの斜視図である。また、図4は、ロボット1の軸構成について説明するための図である。
【0037】
ロボット1は、胴体部ユニット11の上部に頭部ユニット12が配設されるとともに、胴体部ユニット11の上部左右に、同様の構成を有する腕部ユニット13A、および、腕部ユニット13Bが所定位置にそれぞれ取り付けられ、かつ、胴体部ユニット11の下部左右に、同様の構成を有する脚部ユニット14A、および、脚部ユニット14Bが所定位置にそれぞれ取り付けられることにより構成されている。頭部ユニット12には、タッチセンサ51が設けられている。
【0038】
胴体部ユニット11においては、体幹上部を形成するフレーム21および体幹下部を形成する腰ベース22が、腰関節機構23を介して連結することにより構成されており、体幹下部の腰ベース22に固定された腰関節機構23のアクチュエータA1、および、アクチュエータA2をそれぞれ駆動することによって、体幹上部を、図4に示す直交するロール軸24およびピッチ軸25の回りに、それぞれ独立に回転させることができるようになされている。
【0039】
また頭部ユニット12は、フレーム21の上端に固定された肩ベース26の上面中央部に首関節機構27を介して取り付けられており、首関節機構27のアクチュエータA3、および、アクチュエータA4をそれぞれ駆動することによって、図4に示す直交するピッチ軸28およびヨー軸29の回りに、それぞれ独立に回転させることができるようになされている。
【0040】
更に、腕部ユニット13A、および、腕部ユニット13Bは、肩関節機構30を介して肩ベース26の左右にそれぞれ取り付けられており、対応する肩関節機構30のアクチュエータA5、および、アクチュエータA6をそれぞれ駆動することによって、図4に示す、直交するピッチ軸31およびロール軸32の回りに、それぞれを独立に回転させることができるようになされている。
【0041】
この場合、腕部ユニット13A、および、腕部ユニット13Bにおいては、上腕部を形成するアクチュエータA7の出力軸に、肘関節機構44を介して、前腕部を形成するアクチュエータA8が連結され、前腕部の先端に手部34が取り付けられることにより構成されている。
【0042】
そして腕部ユニット13A、および腕部ユニット13Bでは、アクチュエータA7を駆動することによって、前腕部を、図4に示すヨー軸35に対して回転させることができ、アクチュエータA8を駆動することによって、前腕部を図3に示すピッチ軸36対して回転させることができるようになされている。
【0043】
脚部ユニット14A、および、脚部ユニット14Bは、股関節機構37を介して、体幹下部の腰ベース22にそれぞれ取り付けられており、対応する股関節機構37のアクチュエータA9乃至A11をそれぞれ駆動することによって、図4に示す、互いに直交するヨー軸38、ロール軸39、およびピッチ軸40に対して、それぞれ独立に回転させることができるようになされている。
【0044】
脚部ユニット14A、および、脚部ユニット14Bは、大腿部を形成するフレーム41の下端が、膝関節機構42を介して、下腿部を形成するフレーム43に連結されるとともに、フレーム43の下端が、足首関節機構44を介して、足部45に連結されることにより構成されている。
【0045】
これにより脚部ユニット14A、および、脚部ユニット14Bにおいては、膝関節機構42を形成するアクチュエータA12を駆動することによって、図3に示すピッチ軸46に対して、下腿部を回転させることができ、また足首関節機構44のアクチュエータA13、および、アクチュエータA14をそれぞれ駆動することによって、図4に示す直交するピッチ軸47およびロール軸48に対して、足部45をそれぞれ独立に回転させることができるようになされている。
【0046】
また、胴体部ユニット11の体幹下部を形成する腰ベース22の背面側には、後述するメイン制御部61や周辺回路62(いずれも図5)などを内蔵したボックスである、制御ユニット52が配設されている。
【0047】
図5は、ロボット1のアクチュエータとその制御系等について説明する図である。
【0048】
制御ユニット52には、ロボット1全体の動作制御をつかさどるメイン制御部61、電源回路および通信回路などの周辺回路62、および、バッテリ74(図6)などが収納されている
【0049】
そしてこの制御ユニット52は、各構成ユニット(胴体部ユニット11、頭部ユニット12、腕部ユニット13Aおよび腕部ユニット13B、並びに、脚部ユニット14Aおよび脚部ユニット14B)内にそれぞれ配設されたサブ制御部63A乃至サブ制御部63Dと接続されており、サブ制御部63A乃至サブ制御部63Dに対して必要な電源電圧を供給したり、サブ制御部63A乃至サブ制御部63Dと通信を行う。
【0050】
また、サブ制御部63A乃至サブ制御部63Dは、対応する構成ユニット内のアクチュエータA1乃至アクチュエータA14と、それぞれ接続されており、メイン制御部61から供給された各種制御コマンドに基づいて、構成ユニット内のアクチュエータA1乃至アクチュエータA14を、指定された状態に駆動させるように制御する。
【0051】
図6は、ロボット1の内部構成を示すブロック図である。
【0052】
頭部ユニット12には、このロボット1の「目」として機能するCCD(Charge Coupled Device )カメラ81、「耳」として機能するマイクロホン82、タッチセンサ51などからなる外部センサ部71、および、「口」として機能するスピーカ72となどがそれぞれ所定位置に配設され、制御ユニット52内には、バッテリセンサ91および加速度センサ92などからなる内部センサ部73が配設されている。
【0053】
そして、外部センサ部71のCCDカメラ81は、周囲の状況を撮像し、得られた画像信号S1Aを、メイン制御部61に送出する。マイクロホン82は、ユーザから音声入力として与えられる「歩け」、「とまれ」または「右手を挙げろ」等の各種命令音声を集音し、得られた音声信号S1Bを、メイン制御部61に送出する。
【0054】
また、タッチセンサ51は、例えば、図2および図3に示されるように頭部ユニット12の上部に設けられており、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出し、検出結果を、圧力検出信号S1Cとしてメイン制御部61に送出する。
【0055】
内部センサ部73のバッテリセンサ91は、バッテリ74のエネルギ残量を所定の周期で検出し、検出結果をバッテリ残量検出信号S2Aとして、メイン制御部61に送出する。加速度センサ92は、ロボット1の移動について、3軸方向(x軸、y軸およびz軸)の加速度を、所定の周期で検出し、検出結果を、加速度検出信号S2Bとして、メイン制御部61に送出する。
【0056】
メイン制御部61は、外部センサ部71のCCDカメラ81、マイクロホン82およびタッチセンサ51からそれぞれ供給される、画像信号S1A、音声信号S1Bおよび圧力検出信号S1C(以下、これらをまとめて外部センサ信号S1と称する)と、内部センサ部73のバッテリセンサ91および加速度センサ等からそれぞれ供給される、バッテリ残量検出信号S2Aおよび加速度検出信号S2B(以下、これらをまとめて内部センサ信号S2と称する)に基づいて、ロボット1の周囲および内部の状況や、ユーザからの指令、または、ユーザからの働きかけの有無などを判断する。
【0057】
また、メイン制御部61は、通信部76を制御し、ネットワーク2に接続される広告情報提供サーバ3とのデータ転送を実行させる。通信部76は、メイン制御部61の制御のもと、広告情報提供サーバ3よりネットワーク2を介して広告情報を受信し、メイン制御部61に供給する。また、通信部76は、メイン制御部61からの制御のもと、広告の対象の購入や詳細情報を、ネットワーク2を介して、広告情報提供サーバ3に要求したり、広告に対するフィードバック情報を、ネットワーク2を介して、広告情報提供サーバ3に送信する。
【0058】
メイン制御部61は、ロボット1の周囲および内部の状況や、ユーザからの指令、または、ユーザからの働きかけの有無の判断結果と、内部メモリ61Aに予め格納されている制御プログラム、そのとき装填されている外部メモリ75に格納されている各種制御パラメータ、あるいは、広告情報提供サーバ3から取得された広告情報などに基づいて、ロボット1の行動を決定し、決定結果に基づく制御コマンドを生成して、対応するサブ制御部63A乃至サブ制御部63Dに送出する。サブ制御部63A乃至サブ制御部63Dは、供給された制御コマンドに基づいて、アクチュエータA1乃至アクチュエータA14のうち、対応するものの駆動を制御するので、ロボット1は、例えば、頭部ユニット12を上下左右に揺動させたり、腕部ユニット13A、あるいは、腕部ユニット13Bを上に挙げたり、脚部ユニット14Aおよび脚部ユニット14Bを交互に駆動させて、歩行するなどの行動を行うことが可能となる。
【0059】
また、メイン制御部61は、必要に応じて、所定の音声信号S3をスピーカ72に与えることにより、音声信号S3に基づく音声を外部に出力させる。更に、メイン制御部61は、外見上の「目」として機能する、頭部ユニット12の所定位置に設けられた、図示しないLEDに対して駆動信号を出力することにより、LEDを点滅させる。
【0060】
このようにして、ロボット1においては、周囲および内部の状況や、ユーザからの指令および働きかけの有無などに基づいて、自律的に行動することができ、さらに、広告情報提供サーバ3から取得された広告情報に基づいて、自律的に広告動作することができるようになされている。
【0061】
次に、図7は、図6のメイン制御部61の機能的構成例を示している。なお、図7に示す機能的構成は、メイン制御部61が、メモリ61Aに記憶された制御プログラムを実行することで実現されるようになっている。
【0062】
メイン制御部61は、特定の外部状態を認識するセンサ入力処理部101、センサ入力処理部101の認識結果を累積して、ロボット1の感情、本能、あるいは、成長の状態などのモデルを記憶するモデル記憶部102、音声認識結果と行動内容のテーブルを記憶するテーブル記憶部104、広告情報を取得したり、広告情報記憶部106に記憶される情報を管理する広告情報管理部105、広告情報、ユーザの個人情報、および広告動作に関する対話情報などを記憶する広告情報記憶部106、センサ入力処理部101の認識結果や、テーブル記憶部104に記憶されているテーブル、または広告情報記憶部106に記憶されている情報等に基づいて、ロボット1の行動を決定する行動決定機構部103、行動決定機構部103の決定結果に基づいて、実際にロボット1に行動を起こさせる姿勢遷移機構部107、並びに合成音を生成する音声合成部108から構成されている。
【0063】
センサ入力処理部101は、マイクロホン82や、CCDカメラ81、タッチセンサ51等から与えられる音声信号、画像信号、圧力検出信号等に基づいて、特定の外部状態や、ユーザからの特定の働きかけ、ユーザからの指示等を認識し、その認識結果を表す状態認識情報を、モデル記憶部102および行動決定機構部103に通知する。
【0064】
すなわち、センサ入力処理部101は、音声認識部101Aを有しており、音声認識部101Aは、マイクロホン82から与えられる音声信号について音声認識を行う。そして、音声認識部101Aは、例えば、「歩け」、「止まれ」、「右手を挙げろ」等の指令、ロボット1からの発話に対する返答、およびその他の音声認識結果を、状態認識情報として、モデル記憶部102および行動決定機構部103に通知する。
【0065】
また、センサ入力処理部101は、画像認識部101Bを有しており、画像認識部101Bは、CCDカメラ81から与えられる画像信号を用いて、画像認識処理を行う。そして、画像認識部101Bは、その処理の結果、例えば、「赤い丸いもの」や、「地面に対して垂直なかつ所定高さ以上の平面」等を検出したときには、「ボールがある」や、「壁がある」等の画像認識結果を、状態認識情報として、モデル記憶部102および行動決定機構部103に通知する。
【0066】
さらに、センサ入力処理部101は、圧力処理部101Cを有しており、圧力処理部101Cは、タッチセンサ51から与えられる圧力検出信号を処理する。そして、圧力処理部101Cは、その処理の結果、所定の閾値以上で、かつ短時間の圧力を検出したときには、「叩かれた(しかられた)」と認識し、所定の閾値未満で、かつ長時間の圧力を検出したときには、「撫でられた(ほめられた)」と認識して、その認識結果を、状態認識情報として、モデル記憶部102および行動決定機構部103に通知する。
【0067】
モデル記憶部102は、ロボット1の感情、本能、成長の状態を表現する感情モデル、本能モデル、成長モデルをそれぞれ記憶、管理している。
【0068】
ここで、感情モデルは、WO00/4316公報に、その詳細が記載されているが、例えば、「うれしさ」、「悲しさ」、「怒り」、「楽しさ」等の感情の状態(度合い)を、所定の範囲(例えば、−1.0乃至1.0等)の値によってそれぞれ表し、センサ入力処理部101からの状態認識情報や時間経過等に基づいて、その値を変化させる。本能モデルは、例えば、「食欲」、「睡眠欲」、「運動欲」等の本能による欲求の状態(度合い)を、所定の範囲の値によってそれぞれ表し、センサ入力処理部101からの状態認識情報や時間経過等に基づいて、その値を変化させる。成長モデルは、例えば、「幼年期」、「青年期」、「熟年期」、「老年期」等の成長の状態(度合い)を、所定の範囲の値によってそれぞれ表し、センサ入力処理部101からの状態認識情報や時間経過等に基づいて、その値を変化させる。
【0069】
モデル記憶部102は、上述のようにして感情モデル、本能モデル、成長モデルの値で表される感情、本能、成長の状態を、状態情報として、行動決定機構部103に送出する。
【0070】
なお、モデル記憶部102には、センサ入力処理部101から状態認識情報が供給される他、行動決定機構部103から、ロボット1の現在または過去の行動、具体的には、例えば、「長時間歩いた」などの行動の内容を示す行動情報が供給されるようになっており、モデル記憶部102は、同一の状態認識情報が与えられても、行動情報が示すロボット1の行動に応じて、異なる状態情報を生成するようになっている。
【0071】
即ち、例えば、ロボット1が、ユーザに挨拶をし、ユーザに頭を撫でられた場合には、ユーザに挨拶をしたという行動情報と、頭を撫でられたという状態認識情報とが、モデル記憶部102に与えられ、この場合、モデル記憶部102では、「うれしさ」を表す感情モデルの値が増加される。
【0072】
一方、ロボット1が、何らかの仕事を実行中に頭を撫でられた場合には、仕事を実行中であるという行動情報と、頭を撫でられたという状態認識情報とが、モデル記憶部102に与えられ、この場合、モデル記憶部102では、「うれしさ」を表す感情モデルの値は変化されない。
【0073】
このように、モデル記憶部102は、状態認識情報だけでなく、現在または過去のロボット1の行動を示す行動情報も参照しながら、感情モデルの値を設定する。これにより、例えば、何らかのタスクを実行中に、ユーザが、いたずらするつもりで頭を撫でたときに、「うれしさ」を表す感情モデルの値を増加させるような、不自然な感情の変化が生じることを回避することができる。
【0074】
なお、モデル記憶部102は、本能モデルおよび成長モデルについても、感情モデルにおける場合と同様に、状態認識情報および行動情報の両方に基づいて、その値を増減させるようになっている。また、モデル記憶部102は、感情モデル、本能モデル、成長モデルそれぞれの値を、他のモデルの値にも基づいて増減させるようになっている。
【0075】
広告情報管理部105は、所定の間隔で通信部76を制御し、ネットワーク2を介して、広告情報提供サーバ3にアクセスさせ、広告情報提供サーバ3に記憶されている広告情報を取得させる。このとき、広告情報管理部105は、図8を参照して後述するユーザの個人情報に基づいて、広告情報提供サーバ3の広告情報の中から、ユーザの嗜好に対応する広告情報を選択して、広告情報提供サーバ3から取得し、広告情報記憶部106に記憶する。また、広告情報管理部105は、行動決定機構部103からの指示に基づいて、広告情報提供サーバ3に情報を送信したり、広告ユーザ情報記憶部106の情報の更新を実行する。
【0076】
具体的には、広告情報管理部105は、行動決定機構部103からの指示に基づいて、広告情報提供サーバ3に広告の対象の購入の要求を行ったり、広告の対象の詳細情報取得の要求を行う。また、広告情報管理部105は、行動決定機構部103から、ユーザの意見を、フィードバック情報として入力されると、通信部76を制御し、ネットワーク2を介して、広告情報提供サーバ3に、そのフィードバック情報を送信させる。さらに、広告情報管理部105は、行動決定機構部103から、ユーザの個人情報が入力されると、広告ユーザ情報記憶部106の個人情報の更新を実行する。
【0077】
図8は、図7の広告ユーザ情報記憶部106の構成例を示している。図8の例の場合、広告ユーザ情報記憶部106は、広告情報121、個人情報122、および広告動作に関する対話情報123により構成される。以下、図9乃至図11を参照して、広告情報121、ユーザの個人情報122、および広告動作に関する対話情報123を順に説明していく。
【0078】
図9は、広告情報121の詳細な構成例を示す。広告情報121は、広告情報提供サーバ3により広告の対象に応じて設定され、広告情報管理部105により個人情報122に基づいて、広告情報提供サーバ3から定期的に取得される情報である。図9の例において、広告情報121は、広告の種類、優先度、広告動作、広告順番、動作最適時間帯、反応キーワード、購入情報、詳細情報、フィードバック取得情報、および広告期間などの情報により構成される。
【0079】
広告の種類には、例えば、イベント、商品、飲み物、映画、本などの、広告情報121の広告の対象の種類が示される。優先度には、広告情報121の高、中または低である優先度が示される。例えば、広告情報提供サーバ3は、広告のキャンペーンに高い費用がかかっている広告情報の優先度、および、世界的なサッカーイベントなどに関する広告情報の優先度などを他の広告情報より高く設定する。ロボット1においては、広告ユーザ情報記憶部106に広告情報が複数ある場合には、この優先度が高い広告情報が、優先度の低い広告情報より優先的に実行される。
【0080】
広告動作は、広告の内容に応じて、ロボット1の動作を制御するための広告動作情報、およびロボット1の発話を制御するための広告発話情報などを示す。例えば、アクション映画などの広告動作は、キックやパンチをさせるようにするなど、広告の内容に応じた広告動作にすることができる。また、広告動作は、複数のパターンの広告動作情報および広告発話情報を持つようにしてもよい。広告順番は、広告動作の中に、複数種類のパターン(例えば、AパターンおよびBパターン)があった場合、1回目の広告では、Aパターンの広告動作を実行し、2回目の広告では、Bパターンの広告動作を実行させるという広告動作の順番が示される。
【0081】
動作最適時間帯は、昼食時、20時乃至21時、または、「ユーザがうれしいとき」など、ロボット1に広告動作を行わせる最適時間帯を示す。例えば、広告情報121の対象が食品の場合には、ユーザの空腹の時間帯である昼食時にロボット1に広告動作を実行させたり、広告情報121の対象が映画や本の場合、ユーザがくつろいでいる20時乃至21時の時間帯に広告動作を実行させるようにすることができる。また、WO00/4316公報に記載されている感情モデルを用いて、ロボット1がうれしいとき、またはユーザがうれしいときを認識させて、ロボット1にイベントなどの広告動作を実行させるようにするようにしてもよい。
【0082】
反応キーワードは、広告動作を実行させるためのキーワードを示す。音声認識部101Aが、例えば、「おなかがすいた」、「夕食」、「たいくつだ」、または「疲れたな」などユーザが発するキーワードを認識した場合に、広告動作を実行させることができる。なお、ロボット1において、動作最適時間帯と反応キーワードをどちらかを優先させるようにしてもよいし、動作最適時間帯と反応キーワードのどちらを優先するかという情報を、優先広告情報提供サーバ3により広告情報121に設定させるようにしてもよい。
【0083】
購入情報は、広告情報121の広告の対象をネットワーク2を介して購入することができる場合に、商品を購入することができる店の住所、購入先のURL(Uniform Resource Locator)(例えば、広告情報提供サーバ3のURLなど)、商品の価格、および商品のシリアル番号などを示す。また、購入情報には、ユーザに購入を促すためにロボット1に発話させる発話情報も含まれる。
【0084】
詳細情報は、広告情報121の広告の対象の詳細情報が広告情報提供サーバ3にあるか否かの情報を示している。なお、他のサーバにある場合は、他のサーバのURLなどの情報を示すようにしてもよい。また、詳細情報には、ユーザに広告の対象の詳細情報の取得を促すためにロボット1に発話させる発話情報も含まれる。
【0085】
フィードバック取得情報は、「このCMは好きか?」および「この製品はよく使うか?」などの広告情報121に対するユーザの意見を、フィードバック情報として取得するための発話情報を示している。ロボット1に「このCMは好きか?」または「この製品はよく使うか?」などを発話させ、その発話に対応したユーザの入力音声や反応を読み取り、読み取った情報は、広告情報提供サーバ3に送信される。これにより、広告情報提供サーバ3を介して、メーカなどに商品や広告に対するユーザのフィードバック情報を提供することができる。
【0086】
広告期間は、「1週間」または「2003年5月31日まで」など広告動作を実行する期間を示す。広告情報管理部105は、内蔵するクロックで計時動作を行っており、この広告期間が過ぎた広告情報121を広告ユーザ情報記憶部106から消去する。
【0087】
広告情報提供サーバ3は、以上のようなロボット1の広告動作および広告発話を制御する広告情報121の各情報を、広告の内容に応じて設定し、ロボット1に提供する。そして、広告の内容に応じて設定された広告情報121に基づいて、行動決定機構部103は、ロボット1の広告動作、広告発話および広告補助動作を制御する。
【0088】
図10は、ユーザの個人情報122の詳細な構成例を示す。図10の例の場合、個人情報122は、ユーザの嗜好、ユーザ購入ID、メールアドレス、広告に対する許容性およびユーザの反応などの情報により構成される。
【0089】
ユーザの嗜好は、「映画が嫌い」または「外食が好き」などユーザの嗜好に関する情報を示す。広告情報管理部105は、ユーザの嗜好に対応する広告情報121を広告情報提供サーバ3から取得する。ユーザ購入IDは、広告情報提供サーバ3から広告の対象を購入する場合に使用される、例えば、広告情報提供サーバ3において予め登録されているユーザ購入ID「「No.○○○△」を示す。メールアドレスは、広告情報提供サーバ3から、広告の対象の詳細情報を取得する場合に、その詳細情報を、ユーザがPC(パーソナルコンピュータ)や携帯電話機などで受信するためのメールアドレス「○○○○@△△.ne.jp」を示す。
【0090】
広告に対する許容性は、ユーザに広告動作を実行するのに適する回数(例えば、10回/1日、1回/1時間)を示している。なお、広告に対する許容性は、ユーザが「止めて」というまでに、ロボット1が広告動作を実行した回数(ユーザの反応として記録される)などが反映され、広告情報管理部105により更新される。ユーザの反応は、広告情報121に基づいて広告動作を実行した回数(すなわち、ユーザに広告動作を見せた回数)、広告動作に関する対話情報123の発話をするまでの広告動作実行回数(すなわち、広告動作を何回(例えば、5回)実行した後に、広告動作に関する対話情報123の発話するかという情報)、または、広告動作を実行時のユーザの表情や反応を示している。
【0091】
広告情報管理部105は、以上のような個人情報122のユーザの嗜好に対応する広告情報121を、広告情報提供サーバ3からネットワーク2を介して取得する。行動決定機構部103は、個人情報122の広告に対する許容性に基づいて、広告動作の回数を制御し、個人情報122のユーザの反応に基づいて、図11を参照して後述する広告動作に関する対話情報123の発話動作を実行する。そして、広告動作に関する対話情報123の発話動作に対応して取得されたユーザの行動決定機構部103は、入力音声を認識し、認識した情報に基づいて、広告情報管理部105を制御し、個人情報122の情報を更新させる。
【0092】
図11は、広告動作に関する対話情報123の詳細な構成例を示す。この広告動作に関する対話情報123は、外部メモリ75やネットワーク2を介して配信され、予め記憶されている。広告動作に関する対話情報123は、ユーザの個人情報122を更新するためにロボット1に発話させる対話情報(発話情報)により構成される。
【0093】
図11の例の場合、広告動作に関する対話情報123は、ロボット1が個人情報122の「ユーザの嗜好」を取得する場合の対話情報である「この広告は好きですか?」または「この種類の広告は今後も欲しいであるか?」を示す情報、ロボット1が個人情報122の「IDやメールアドレス」を取得する場合の対話情報である「メールアドレスを教えてください」または「ユーザIDとパスワードを教えてください」を示す情報、並びに、ロボット1が個人情報122の「広告に対する許容性」を取得する場合の対話情報である「もっと広告が見たいですか?」または、ロボット1が「広告に対する許容性」を取得する場合に監視するユーザのキーワード(例えば、広告は見たくない)を示す情報などにより構成される。
【0094】
したがって、行動決定機構部103は、広告動作に関する対話情報123に基づいて発話を実行し、この発話に対応するユーザの入力音声を、ユーザの個人情報122として、広告情報管理部105を制御し、広告ユーザ情報記憶部106に記憶(更新)させる。
【0095】
図7に戻って、行動決定機構部103は、センサ入力処理部101からの状態認識情報や、モデル記憶部102からの状態情報、時間経過等に基づいて、広告ユーザ情報記憶部106に記憶された各種情報を参照して、広告情報管理部105を制御し、ネットワーク2を介して、広告情報提供サーバ3とのデータ転送させたり、または、広告ユーザ情報記憶部106の情報を更新させる。
【0096】
また、行動決定機構部103は、センサ入力処理部101からの状態認識情報や、モデル記憶部102からの状態情報、時間経過等に基づいて、必要に応じて、テーブル記憶部104に記憶されたテーブル、または、広告ユーザ情報記憶部106に記憶された各種情報を参照して、次のロボット1の行動を決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部107に送出する。
【0097】
すなわち、行動決定機構部103は、ロボット1がとり得る行動をステート(状態:state)に対応させた有限オートマトンを、ロボット1の行動を規定する行動モデルとして管理しており、この行動モデルとしての有限オートマトンにおけるステートを、センサ入力処理部101からの状態認識情報や、モデル記憶部102における感情モデル、本能モデル、または成長モデルの値、時間経過等に基づいて遷移させ、遷移後のステートに対応する行動を、次にとるべき行動として決定する。
【0098】
ここで、行動決定機構部103は、所定のトリガ(trigger)があったことを検出すると、ステートを遷移させる。即ち、行動決定機構部103は、例えば、現在のステートに対応する行動を実行している時間が所定時間に達したときや、特定の状態認識情報を受信したとき、モデル記憶部102から供給される状態情報が示す感情や、本能、成長の状態の値が所定の閾値以下または以上になったとき等に、ステートを遷移させる。
【0099】
なお、行動決定機構部103は、上述したように、センサ入力処理部101からの状態認識情報だけでなく、モデル記憶部102における感情モデルや、本能モデル、成長モデルの値等にも基づいて、行動モデルにおけるステートを遷移させることから、同一の状態認識情報が入力されても、感情モデルや、本能モデル、成長モデルの値(状態情報)によっては、ステートの遷移先は異なるものとなる。
【0100】
また、行動決定機構部103は、センサ入力処理部101からの状態認識情報や、モデル記憶部102からの状態情報、時間経過等に基づいて、必要に応じて、テーブル記憶部104に記憶されたテーブル、または、広告ユーザ情報記憶部106に記憶された各種情報(広告情報121、個人情報122、および広告動作に関する対話情報123)を参照して、次のロボット1の発話を決定し、決定された発話の内容も、行動指令情報として、音声合成部108に供給する。音声合成部108に供給される行動指令情報には、音声合成部108に生成させる合成音に対応するテキスト等が含まれる。
【0101】
そして、音声合成部108は、行動決定機構部103から行動指令情報を受信すると、その行動指令情報に含まれるテキストに基づき、合成音を生成し、スピーカ18に供給して出力させる。これにより、スピーカ18からは、例えば、「こんにちは」などのユーザへの挨拶、「質問していいですか?」などのユーザへの各種の要求、あるいは、「何ですか?」等のユーザの呼びかけに対する応答その他の音声出力が行われる。
【0102】
姿勢遷移機構部107は、行動決定機構部103から供給される行動指令情報に基づいて、ロボット1の姿勢を、現在の姿勢から次の姿勢に遷移させるための姿勢遷移情報を生成し、これをサブ制御部63A乃至63Dに送出する。
【0103】
図12は、広告情報提供サーバ3の構成を表している。図12において、CPU(Central Processing Unit)211は、ROM(Read Only Memory)212に記憶されているプログラム、または記憶部218からRAM(Random Access Memory)213にロードされたプログラムに従って各種の処理を実行する。RAM213にはまた、CPU211が各種の処理を実行する上において必要なデータなども適宜記憶される。
【0104】
CPU211、ROM212およびRAM213は、バス214を介して相互に接続されている。このバス214にはまた、入出力インタフェース215も接続されている。
【0105】
入出力インタフェース215には、キーボード、マウスなどよりなる入力部26、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部217、ハードディスクなどより構成される記憶部218、モデム、ターミナルアダプタなどより構成される通信部219が接続されている。通信部219は、ネットワーク2を介しての通信処理を行う。
【0106】
入出力インタフェース215にはまた、必要に応じてドライブ220が接続され、磁気ディスク221、光ディスク222、光磁気ディスク223、或いは半導体メモリ224などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部218にインストールされる。
【0107】
図13は、記憶部218の構成例を示す。図13の例の場合、広告情報提供サーバ3の記憶部218は、ユーザの管理情報データベース(DB)231および広告情報データベース(DB)232により構成される。
【0108】
ユーザの管理情報データベース231は、ロボット1のユーザを管理するためのユーザIDとパスワードにより構成される。ユーザIDとパスワードは、例えば、広告情報121の広告の対象の購入の場合に、ロボット1から要求とともに送信されてくる。なお、このユーザIDおよびパスワードは、ロボット1が広告情報232を取得する際にも使用されるものとしてもよい。
【0109】
広告情報データベース232は、さまざまな種類の複数の広告情報により構成される。なお、広告情報は、図9を参照して上述した広告情報121と同様であるので、繰り返しになるためその説明を省略するが、広告情報データベース232の広告情報も、広告の種類、優先度、広告動作、広告順番、動作最適時間帯、反応キーワード、購入情報、詳細情報、フィードバック取得情報、および広告期間などにより構成される。そして、この広告情報データベース232は、広告情報提供サーバ3により随時更新される。
【0110】
次に、図14のフローチャートを参照して、ロボット1の広告情報取得処理について説明する。
【0111】
広告情報提供サーバ3は、常に広告情報データベース232の広告情報を更新して管理している。そこで、ロボット1の広告情報管理部105は、新しい広告情報を得るために、所定の時間間隔(例えば、1日おき)で、ネットワーク2を介して、広告情報提供サーバ3より広告情報121を取得している。
【0112】
広告情報管理部105は、ステップS1において、内蔵するクロックで計時動作を行って、予め設定されている所定の時間が経過するまで待機しており、所定の時間が経過したと判断した場合、ステップS2に進み、通信部76を制御し、ネットワーク2を介して、広告情報提供サーバ3にアクセスさせ、ステップS3に進む。広告情報管理部105は、ステップS3において、広告情報提供サーバ3の広告情報データベース232の中の広告情報(広告の種類)と、個人情報122(ユーザの嗜好)とを比較し、個人情報122のユーザの嗜好に対応する広告情報を選択し、ステップS4に進む。ステップS4において、広告情報管理部105は、通信部76を制御し、ユーザの嗜好に対応する広告情報を、ネットワーク2を介して、取得させ、広告情報121として広告ユーザ情報記憶部106に記憶させ、ステップS5に進む。
【0113】
ステップS5において、行動決定機構部103は、広告ユーザ情報記憶部106の広告情報121に基づいて、広告動作処理を実行し、ステップS6に進む。この広告動作処理については、図15のフローチャートを参照して後述する。
【0114】
ステップS6において、広告情報管理部105は、内蔵するクロックで計時動作を行って、広告情報121の広告期間が経過したか否かを判断し、広告情報121の広告期間が経過していないと判断した場合、ステップS5に戻り、それ以降の処理を繰り返す。ステップS6において、広告情報管理部105は、内蔵するクロックで計時動作を行って、広告情報121の広告期間が経過したと判断した場合、ステップS7に進み、広告期間が経過した広告情報121を、広告ユーザ情報記憶部106から消去する。
【0115】
以上のようにして、広告情報提供サーバ3から広告情報121が取得され、広告情報管理部105により管理される。なお、図14の例においては、ロボット1の広告情報管理部105が広告情報提供サーバ3に所定の間隔でアクセスし、広告情報121を取得するようにしたが、広告情報提供サーバ3が広告情報データベース232の広告情報を更新するたびに、ロボット1に送信するようにしてもよい。なお、その場合、広告情報管理部105は、個人情報212に対応する広告情報のみを選択して、広告ユーザ情報記憶部106に記憶する。
【0116】
次に、図15のフローチャートを参照して、図14のステップS5の広告動作処理を説明する。いまの場合、広告ユーザ情報記憶部106には、広告の種類が「映画」である広告情報121が記憶されているとする。
【0117】
ステップS21において、音声認識部101Aは、マイクロホン82から、音声の入力を受けるまで待機しており、マイクロホン82から、音声の入力を受けたと判断した場合、ステップS22に進み、入力音声に対して、音声認識処理を実行し、認識された音声認識結果を、行動決定機構部103、および、必要に応じて、モデル記憶部102に出力し、ステップS23に進む。
【0118】
行動決定機構部103は、広告情報121の反応キーワード(いまの場合、反応キーワードが「退屈だな」である)を参照している。行動決定機構部103は、ステップS23において、音声認識部101Aから供給された音声認識結果に基づいて、音声認識部101Aが「退屈だな」という音声を認識したか否かを判断し、音声認識部101Aが「退屈だな」という音声を認識していないと判断した場合、ステップS24およびS25の処理をスキップし、図14のステップS6に戻る。すなわち、行動決定機構部103は、「退屈だな」という音声以外の別の音声認識結果が入力された場合、広告動作処理をせずに、認識された音声認識結果に対応した行動を行動指令情報として、姿勢遷移機構部105および音声合成部108に送出する。
【0119】
ステップS23において、音声認識部101Aが「退屈だな」という音声を認識したと判断された場合、行動決定機構部103は、ステップS24に進み、広告情報121の広告動作情報に基づいて、映画の広告動作処理を実行し、ステップS25に進む。
【0120】
具体的には、行動決定機構部103は、ロボット1の行動を規定する広告動作情報に合致した、ロボット1の行動を決定し、決定された行動の内容を、行動指令情報として、姿勢遷移機構部107に送出する。姿勢遷移機構部107は、アクチュエータA1乃至アクチュエータA14のうち、必要なものの制御情報を生成し、サブ制御部63A乃至サブ制御部63Dに供給して、アクチュエータA1乃至アクチュエータA14のうち対応するものを駆動させ、ロボット1に「映画」の広告をするための行動(例えば、ユーザの興味を引くような楽しい行動)を実行させる。
【0121】
また、同時に、行動決定機構部103は、ロボット1の発話を規定する広告発話情報に合致した、ロボット1の発話を決定し、ロボット1に、「映画」の広告に関する発話させるための行動指令情報を生成し、決定された発話の内容を、発話指令情報として、音声合成部108に送出する。音声合成部108は、姿勢遷移機構部105から発話指令情報を受信すると、その発話指令情報に含まれるテキストに基づき、合成音を生成し、スピーカ18に供給して出力させる。これにより、スピーカ72から、例えば、映画を広告するための「現在、シアターで○○映画を上映しています。○○映画は楽しいですよ」という音声が出力される。なお、このとき、スピーカ18より、歌や音楽などを出力させるようにしてもよい。
【0122】
ステップS25において、行動決定機構部103は、広告情報121を参照して、図16のフローチャートを参照して後述する広告補助動作処理を実行し、広告動作処理を終了し、図14のステップS6に戻る。
【0123】
以上のように、ユーザの「退屈だな」という入力音声に対応して、広告動作を実行するようにしたので、ユーザの退屈による不快感を広告により抑制することができ、広告の効果を向上できる。なお、図15のステップS22において、認識された音声の認識結果を、モデル記憶部102に出力し、感情モデルを用いて、ステップS23において、ユーザまたはロボット1がうれしいときを認識、判断して、広告動作を実行するようにしてもよい。
【0124】
次に、図16のフローチャートを参照して、図15のステップS25の広告補助動作処理について説明する。
【0125】
行動決定機構部103は、ステップS41において、広告情報121に購入情報があるか否かを判断し、広告情報121に購入情報があると判断した場合、広告の対象の購入が可能であると判断し、ステップS42に進み、図17のフローチャートを参照して後述する広告の対象の購入処理を実行し、ステップS43に進む。ステップS41において、広告情報121に購入情報がないと判断された場合、行動決定機構部103は、広告の対象の購入が可能ではないとし、ステップS42の処理をスキップし、ステップS43に進む。
【0126】
行動決定機構部103は、ステップS43において、広告情報121に詳細情報があるか否かを判断し、広告情報121に詳細情報があると判断した場合、広告情報提供サーバ3に広告の対象の詳細情報があると判断し、ステップS44に進み、図18のフローチャートを参照して後述する詳細情報取得処理を実行し、ステップS45に進む。ステップS43において、広告情報121に詳細情報がないと判断された場合、行動決定機構部103は、広告情報提供サーバ3に広告の対象の詳細情報がないと判断し、ステップS44の処理をスキップし、ステップS45に進む。
【0127】
行動決定機構部103は、ステップS45において、広告情報121にフィードバック取得情報があるか否かを判断し、広告情報121にフィードバック取得情報があると判断した場合、ステップS46に進み、図19のフローチャートを参照して後述するフィードバック処理を実行し、ステップS47に進む。ステップS45において、広告情報121にフィードバック取得情報がないと判断された場合、行動決定機構部103は、ステップS46の処理をスキップし、ステップS47に進む。
【0128】
行動決定機構部103は、個人情報122のユーザの反応に基づいて、ステップS47の判断を実行する。いまの場合、個人情報122のユーザの反応に、広告動作を5回実行したときに、広告動作に関する対話情報123を参照して、ユーザの反応を確認することが示されている。そこで、行動決定機構部103は、ステップS47において、広告情報121に基づいて、映画の広告動作を5回実行したか否かを判断する。映画の広告動作を5回実行したと判断した場合、ステップS48に進み、図20のフローチャートを参照して後述するユーザの反応確認処理を実行し、広告補助動作を終了し、図14のステップS6に戻る。ステップS48において、映画の広告動作を5回実行していないと判断された場合、または、映画の広告動作を6回以上実行したと判断された場合、行動決定機構部103は、ステップS48の処理をスキップし、広告補助動作を終了し、図14のステップS6に戻る。なお、ステップS47のユーザの反応確認処理を行う判断における広告動作の回数は、特に限定されないし、何度行うようにしてもよい。
【0129】
以上のようにして、広告動作を実行するだけでなく、広告補助動作として、広告の対象購入処理、広告の対象の詳細情報取得処理、およびフィードバック処理を実行することより、販売促進、広告品質の向上を図ることができる。さらに、ユーザの反応確認処理を実行することより、ロボット1のユーザに対応した広告動作能力(例えば、ユーザがどんなときに広告するとよいかを見極める能力)も向上する。
【0130】
なお、図16の例においては、広告の対象購入処理、広告の対象の詳細情報取得処理、フィードバック処理、およびユーザの反応確認処理を連続して実行するようにしたが、順番や処理数は、これに限定されない。
【0131】
次に、図17のフローチャートを参照して、図16のステップS42の広告の対象の購入処理を説明する。いまの場合、広告情報121の購入情報には、映画のチケットの価格と購入を促すための発話情報が記憶されている。
【0132】
行動決定機構部103は、広告情報121の購入情報を参照して、映画のチケットの価格とともに、音声合成部108を制御して、例えば、「この映画のチケットを買いますか」と言う音声を合成させ、スピーカ72から出力、すなわち、発話させて、ステップS102に進む。ユーザは、「この映画のチケットを買いますか」というロボット1の発話に対応して応答する。
【0133】
そこで、音声認識部101Aは、ステップS102において、マイクロホン82から、音声の入力を受けたか否かを判断し、マイクロホン82から、音声の入力を受けたと判断した場合、ステップS103に進み、入力音声に対して、音声認識処理を実行し、認識された音声認識結果を、行動決定機構部103、および、必要に応じて、モデル記憶部102に出力し、ステップS104に進む。
【0134】
行動決定機構部103は、ステップS104において、音声認識部101Aから供給された音声認識結果に基づいて、音声認識部101Aが「はい」という音声を認識したか否かを判断し、音声認識部101Aが「はい」という音声を認識したと判断した場合、ステップS105に進み、広告情報管理部105を制御し、広告情報121に対応する映画のチケットの購入処理を実行させる。
【0135】
具体的には、広告情報管理部105は、行動決定機構部103からの広告情報121の映画のチケットの購入処理の指令を受けると、通信部76を制御し、広告情報121の購入情報に記載されている映画のシリアル番号および個人情報122のユーザ購入IDなどを、ネットワーク2を介して、広告情報提供サーバ3に送信させる。これに対応して、広告情報提供サーバ3は、ユーザ管理データベース231を参照し、チケット購入に関する課金処理などのチケット購入処理を実行し、チケット購入完了などの通知を、ネットワーク2を介して、ロボット1に送信してくる。
【0136】
広告情報管理部105は、チケット購入完了などの通知を、ネットワーク2および通信部76を介して受信すると、行動決定機構部103に通知する。広告情報管理部105からのチケット購入完了の通知を受けると、行動決定機構部103は、ステップS106において、音声合成部108を制御して、例えば、「チケットが購入されました。○○へ取りに行ってください。」というチケット購入完了を知らせる音声を合成させ、スピーカ72から出力、すなわち、発話させて、広告の対象購入処理を終了し、図16のステップS43に戻る。
【0137】
一方、ステップS102において、マイクロホン82から、音声の入力を受けていないと判断された場合、広告情報管理部105は、ステップS103乃至S105の処理をスキップし、広告の対象の購入処理を終了し、図16のステップS43に戻る。また、ステップS104において、音声認識部101Aが「はい」という音声を認識していないと判断された場合、広告情報管理部105は、ステップS105およびS106の処理をスキップし、広告の対象の購入処理を終了し、図16のステップS43に戻る。
【0138】
以上のようにして、ロボット1に広告動作および広告発話をさせた後、すぐに、その広告の対象の購入を促すことができるので、ユーザの購買意欲を促進させることができる。
【0139】
次に、図18のフローチャートを参照して、図16のステップS44の詳細情報取得処理を説明する。いまの場合、広告情報121の詳細情報には、広告情報提供サーバ3に映画の詳細情報があるという情報と、映画の詳細情報取得を促すための発話情報が記憶されている。
【0140】
行動決定機構部103は、ステップS121において、広告情報121の詳細情報を参照して、音声合成部108を制御して、例えば、「この映画についての詳しい情報が欲しいですか」と言う音声を合成させ、スピーカ72から出力、すなわち、発話させて、ステップS122に進む。ユーザは、「この映画についての詳しい情報が欲しいですか」というロボット1の発話に対応して応答する。
【0141】
そこで、音声認識部101Aは、ステップS122において、マイクロホン82から、音声の入力を受けたか否かを判断し、マイクロホン82から、音声の入力を受けたと判断した場合、ステップS123に進み、入力音声に対して、音声認識処理を実行し、認識された音声認識結果を、行動決定機構部103、および、必要に応じて、モデル記憶部102に出力し、ステップS124に進む。
【0142】
行動決定機構部103は、ステップS124において、音声認識部101Aから供給された音声認識結果に基づいて、音声認識部101Aが「はい」という音声を認識したか否かを判断し、音声認識部101Aが「はい」という音声を認識したと判断した場合、ステップS125に進み、広告情報管理部105を制御し、広告情報121に対応する映画の詳細情報を要求させ、詳細情報取得処理を終了し、図16のステップS45に戻る。
【0143】
具体的には、広告情報管理部105は、行動決定機構部103からの広告情報121の映画の詳細情報の要求処理の指令を受けると、通信部76を制御し、広告情報121の購入情報に記載されている映画のシリアル番号および個人情報122のメールアドレスなどを、およびネットワーク2を介して、広告情報提供サーバ3に送信させる。これに対応して、広告情報提供サーバ3は、要求された映画の詳細情報を、ロボット1のユーザのメールアドレス宛に送信する。これにより、ユーザは、自分宛のメールを確認することにより、すぐに映画の詳細情報を取得することができる。なお、いまの場合、メールに詳細情報を送信するようにしたが、広告情報提供サーバ3から直接ロボット1に詳細情報を送信し、送信された詳細情報をロボット1に発話させるようにしてもよい。
【0144】
一方、ステップS122において、マイクロホン82から、音声の入力を受けていないと判断された場合、広告情報管理部105は、ステップS123乃至S125の処理をスキップし、詳細情報取得処理を終了し、図16のステップS45に戻る。また、ステップS124において、音声認識部101Aが「はい」という音声を認識していないと判断された場合、広告情報管理部105は、ステップS125の処理をスキップし、詳細情報取得処理処理を終了し、図16のステップS45に戻る。
【0145】
以上のようにして、ロボット1に広告動作および広告発話をさせた後、すぐに、その広告の対象の詳細情報を取得することができるので、広告の対象に対するユーザの興味を促進させることができる。
【0146】
次に、図19のフローチャートを参照して、図16のステップS46のフィードバック処理を説明する。いまの場合、広告情報121のフィードバック取得情報には、ユーザから映画のフィードバック情報を取得するための発話情報が記憶されている。
【0147】
行動決定機構部103は、ステップS141において、広告情報121のフィードバック取得情報を参照して、音声合成部108を制御して、例えば、「この広告は好きですか?」と言う音声を合成させ、スピーカ72から出力、すなわち、発話させて、ステップS142に進む。ユーザは、「この広告は好きですか?」というロボット1の発話に対応して応答する。
【0148】
そこで、音声認識部101Aは、ステップS142において、マイクロホン82から、音声の入力を受けたか否かを判断し、マイクロホン82から、音声の入力を受けたと判断した場合、ステップS143に進み、入力音声に対して、音声認識処理を実行し、認識された音声認識結果を、行動決定機構部103、および、必要に応じて、モデル記憶部102に出力し、ステップS144に進む。
【0149】
行動決定機構部103は、ステップS144において、音声認識部101Aから供給された音声認識結果に基づいて、音声認識部101Aが「はい」または「いいえ」という音声を認識したか否かを判断し、音声認識部101Aが「はい」または「いいえ」という音声を認識したと判断した場合、ステップS145に進み、広告情報管理部105を制御し、音声認識結果に基づいた、広告情報121の広告動作に対するフィードバック情報(ロボット1のユーザが広告情報121の広告動作が好きである、または嫌いであるという情報)を、広告情報提供サーバ3に送信させ、フィードバック処理を終了し、図16のステップS47に戻る。
【0150】
具体的には、広告情報管理部105は、行動決定機構部103からのフィードバック情報の送信処理の指令を受けると、通信部76を制御し、音声認識結果に基づいたフィードバック情報(ロボット1のユーザが広告情報121の広告動作が好きである、または嫌いであるという情報)を、ネットワーク2を介して、広告情報提供サーバ3に送信させる。広告情報提供サーバ3は、ロボット1からフィードバック情報を受信し、受信したフィードバック情報を、広告情報121の広告を登録した広告依頼者に対して提供する。これにより、広告依頼者は、その広告に対してのユーザの反応を取得することができ、ユーザの反応のよい広告を作成することができる。なお、いまの場合、広告そのものに対するユーザの反応をフィードバック情報としたが、広告の対象(例えば、映画や飲み物)などについてのユーザの反応をフィードバック情報として取得するようにしてもよい。
【0151】
一方、ステップS142において、マイクロホン82から、音声の入力を受けていないと判断された場合、広告情報管理部105は、ステップS143乃至S145の処理をスキップし、詳細情報取得処理を終了し、図16のステップS47に戻る。また、ステップS124において、音声認識部101Aが「はい」または「いいえ」という音声を認識していないと判断された場合、広告情報管理部105は、ステップS145の処理をスキップし、詳細情報取得処理処理を終了し、図16のステップS47に戻る。
【0152】
以上のようにして、ロボット1に広告動作および広告発話をさせた後、すぐに、その広告、または、広告の対象に対するユーザの反応をフィードバック情報として取得し、広告に対するユーザの反応を反映することができるので、広告の品質の向上、または、広告の対象自体の品質の向上、販売促進を図ることができる。
【0153】
次に、図20のフローチャートを参照して、図16のステップS48のユーザの反応確認処理を説明する。いまの場合、広告動作に関する対話情報123には、ユーザの嗜好を取得するための発話情報が記憶されている。
【0154】
行動決定機構部103は、ステップS161において、広告動作に関する対話情報123を参照して、音声合成部108を制御して、例えば、「今後も映画に対応する広告情報が欲しいですか?」と言う音声を合成させ、スピーカ72から出力、すなわち、発話させて、ステップS162に進む。ユーザは、「今後も映画に対応する広告情報が欲しいですか?」というロボット1の発話に対応して応答する。
【0155】
そこで、音声認識部101Aは、ステップS162において、マイクロホン82から、音声の入力を受けたか否かを判断し、マイクロホン82から、音声の入力を受けたと判断した場合、ステップS163に進み、入力音声に対して、音声認識処理を実行し、認識された音声認識結果を、行動決定機構部103、および、必要に応じて、モデル記憶部102に出力し、ステップS164に進む。
【0156】
行動決定機構部103は、ステップS164において、音声認識部101Aから供給された音声認識結果に基づいて、音声認識部101Aが「はい」または「いいえ」という音声を認識したか否かを判断し、音声認識部101Aが「はい」または「いいえ」という音声を認識したと判断した場合、ステップS165に進み、広告情報管理部105を制御し、その音声認識の結果を、ユーザ情報121のユーザの嗜好に記憶させ、反応確認処理を終了し、図14のステップS6に戻る。
【0157】
具体的には、広告情報管理部105は、行動決定機構部103から受け取った音声認識の結果が「はい」だった場合、ユーザ情報121のユーザの嗜好に、映画が好きであることを記憶する。一方、広告情報管理部105は、行動決定機構部103から受け取った音声認識の結果が「いいえ」だった場合、ユーザ情報121のユーザの嗜好に、映画が好きではない(嫌い)であることを記憶する。このようにして、ユーザ情報が更新されるので、常にユーザの興味関心に応じた広告情報を広告情報取得サーバ3から取得できる。
【0158】
一方、ステップS162において、マイクロホン82から、音声の入力を受けていないと判断された場合、広告情報管理部105は、ステップS163乃至S165の処理をスキップし、詳細情報取得処理を終了し、図14のステップS6に戻る。また、ステップS164において、音声認識部101Aが「はい」または「いいえ」という音声を認識していないと判断された場合、広告情報管理部105は、ステップS165の処理をスキップし、詳細情報取得処理処理を終了し、図14のステップS6に戻る。
【0159】
以上のようにして、ロボット1に広告動作および広告発話をさせた後、すぐに、広告に対するユーザの反応をユーザ情報に反映することができるので、広告に対するユーザの反応を考慮した広告を取得することができる。なお、図20の例においては、ユーザの嗜好に対してのユーザの反応を確認するようにしたが、例えば、ロボット1に広告動作および広告発話をさせた後に、広告動作に関する対話情報123の広告に対する許容性を参照して、ユーザの「広告は見たくない」などの入力音声を監視するようにして、ユーザの広告に対する許容性(1日に何度広告を見せてもよいかなど)を確認し、個人情報122を更新するようにしてもよい。これにより、ロボット1は、広告に対してユーザが不快を感じないように、広告動作を行うことができるので、広告に対するユーザの好感度が増し、広告の効果が向上する。
【0160】
次に、図21のフローチャートを参照して、図14のステップS5の広告動作処理の他の例を説明する。いまの場合、行動決定機構部103は、広告情報121の動作最適時間帯(いまの場合、20時乃至21時)を参照している。
【0161】
行動決定機構部103は、ステップS181において、内蔵するクロックに基づいて、予め設定されている所定の時間帯であると判断するまで待機しており、予め設定されている所定の時間帯(いまの場合、20時乃至21時)でないと判断した場合、行動決定機構部103は、ステップS182に進み、広告情報121の広告動作情報に基づいて、映画の広告動作処理を実行し、ステップS183に進み、ステップS183において、広告補助動作処理を実行する。なお、ステップS182およびS183の処理は、図15のステップS24およびS25の処理と同様の処理を行うため、その説明は繰り返しになるので省略する。
【0162】
以上のように、広告情報121の動作最適時間帯に基づいて、ロボット1の広告動作を実行させることもできる。なお、上記説明において、内蔵するクロックに基づいて、所定の時間帯を判断するようにしたが、所定の時刻を判断するようにしてもよい。
【0163】
次に、図22を参照して、図16のステップS46のフィードバック処理の他の例を説明する。いまの場合、広告情報121の広告の対象は、清涼飲料水であり、フィードバック取得情報には、清涼飲料水のフィードバック情報を取得するための発話情報が記憶されている。
【0164】
行動決定機構部103は、ステップS201において、広告情報121のフィードバック取得情報を参照して、音声合成部108を制御して、例えば、「この広告についての質問に答えてもらえますか?」という音声を合成させ、スピーカ72から出力、すなわち、発話させて、ステップS202に進む。ユーザは、「この広告についての質問に答えてもらえますか?」というロボット1の発話に対応して応答する。
【0165】
そこで、音声認識部101Aは、ステップS202において、マイクロホン82から、音声の入力を受けたか否かを判断し、マイクロホン82から、音声の入力を受けたと判断した場合、ステップS203に進み、入力音声に対して、音声認識処理を実行し、認識された音声認識結果を、行動決定機構部103、および、必要に応じて、モデル記憶部102に出力し、ステップS204に進む。
【0166】
行動決定機構部103は、ステップS204において、音声認識部101Aから供給された音声認識結果に基づいて、音声認識部101Aが「はい」という音声を認識したか否かを判断し、音声認識部101Aが「はい」という音声を認識したと判断した場合、ステップS205に進み、さらに、広告情報121のフィードバック取得情報に基づいて、図23を参照して後述する質問対話処理を実行し、フィードバック処理を終了し、図16のステップS47に戻る。
【0167】
一方、ステップS202において、マイクロホン82から、音声の入力を受けていないと判断された場合、広告情報管理部105は、ステップS203乃至S205の処理をスキップし、フィードバック処理を終了し、図16のステップS47に戻る。また、ステップS204において、音声認識部101Aが「はい」という音声を認識していないと判断された場合、広告情報管理部105は、ステップS205の処理をスキップし、フードバック処理処理を終了し、図16のステップS47に戻る。
【0168】
次に、図23のフローチャートを参照して、図22のステップS205の質問対話処理を説明する。
【0169】
行動決定機構部103は、ステップS221において、広告情報121のフィードバック取得情報を参照して、音声合成部108を制御して、例えば、「この清涼飲料水を飲んだことがありますか?」という音声を合成させ、スピーカ72から出力、すなわち、発話させて、ステップS222に進む。ユーザは、「この清涼飲料水を飲んだことがありますか?」というロボット1の発話に対応して応答する。
【0170】
そこで、音声認識部101Aは、ステップS222において、マイクロホン82から、音声の入力を受けたか否かを判断し、マイクロホン82から、音声の入力を受けたと判断した場合、ステップS223に進み、入力音声に対して、音声認識処理を実行し、認識された音声認識結果を、行動決定機構部103、および、必要に応じて、モデル記憶部102に出力し、ステップS224に進む。
【0171】
行動決定機構部103は、ステップS224において、音声認識部101Aから供給された音声認識結果に基づいて、音声認識部101Aが「はい」という音声を認識したか否かを判断し、音声認識部101Aが「はい」という音声を認識したと判断した場合、ステップS225に進み、広告情報121のフィードバック取得情報を参照して、音声合成部108を制御して、例えば、「この清涼飲料水を飲んだことがありますか?」という音声を合成させ、スピーカ72から出力、すなわち、発話させて、ステップS227に進む。ユーザは、「この清涼飲料水を飲んだことがありますか?」というロボット1の発話に対応して応答する。
【0172】
一方、ステップS224において、音声認識部101Aが「はい」という音声を認識していないと判断した場合、ステップS225に進み、広告情報121のフィードバック取得情報を参照して、音声合成部108を制御して、例えば、「このような種類の飲み物は好きですか?」という音声を合成させ、スピーカ72から出力、すなわち、発話させて、ステップS227に進む。ユーザは、「このような種類の飲み物は好きですか?」というロボット1の発話に対応して応答する。
【0173】
音声認識部101Aは、ステップS227において、マイクロホン82から、音声の入力を受けたか否かを判断し、マイクロホン82から、音声の入力を受けたと判断した場合、ステップS228に進み、入力音声に対して、音声認識処理を実行し、認識された音声認識結果を、行動決定機構部103、および、必要に応じて、モデル記憶部102に出力し、ステップS229に進む。ステップS227において、マイクロホン82から、音声の入力を受けていないと判断した場合、ステップS228の処理はスキップされ、処理は、ステップS229に進む。
【0174】
ステップS229において、行動決定機構部103は、広告情報管理部105を制御し、ステップS223およびS228における音声認識処理の結果をすべて、広告情報121のフィードバック情報として、広告情報提供サーバ3に送信させ、フィードバック処理を終了させ、図16のステップS47に戻る。
【0175】
具体的には、広告情報管理部105は、行動決定機構部103からのフィードバック情報の送信処理の指令を受けると、通信部76を制御し、フィードバック情報を、ネットワーク2を介して、広告情報提供サーバ3に送信させる。広告情報提供サーバ3は、ロボット1からフィードバック情報を受信し、受信したフィードバック情報を、広告情報121の広告を登録した広告依頼者に対して提供する。これにより、広告依頼者は、その広告に対してのユーザの反応を取得することができ、ユーザの反応のよい広告を作成することができる。
【0176】
一方、ステップS222において、マイクロホン82から、音声の入力を受けていないと判断された場合、広告情報管理部105は、ステップS223乃至S229の処理をスキップし、フィードバック処理を終了し、図16のステップS47に戻る。
【0177】
以上のようにして、ロボット1に広告動作および広告発話をさせた後、すぐに、広告そのもの、または、広告の対象に対する複数の質問(発話)を行い、それに対するユーザの反応をフィードバック情報として取得することができるので、広告そのもの、または、広告の対象に対するユーザの反応を、広告そのもの、または、広告の対象に反映させることができる。
【0178】
以上のように、ユーザの嗜好に応じた広告情報だけを取得し、ユーザの状態を考慮して、広告動作をするようにしたので、広告の効果を向上させ、広告によってユーザが不快感を与えられることを抑制することができる。
【0179】
また、ロボット1に広告動作および広告発話だけでなく、広告補助動作として、広告の対象の購入処理、詳細情報取得処理、または、フィードバック情報取得処理を実行させるようにしたので、広告の対象の販促を促進させ、広告そのもの、または、広告の対象の品質向上を図ることができる。
【0180】
さらに、広告に対するユーザの意見を取得し、ロボット1の個人情報を更新するようにしたので、ロボット1の広告動作を、さらに、ユーザに対応させたものにすることができる。
【0181】
また、上述した一連の処理は、ソフトウェアにより実行することもできる。そのソフトウェアは、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
【0182】
この記録媒体は、図24に示すように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク331(フレキシブルディスクを含む)、光ディスク332(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク333(MD(Mini-Disk)(商標)を含む)、もしくは半導体メモリ334などよりなるパッケージメディアなどにより構成される。
【0183】
例えば、パーソナルコンピュータ301に、本発明を適用したロボット1制御装置としての動作を実行させるロボット1制御処理プログラムは、磁気ディスク331(フロッピディスクを含む)、光ディスク332(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク333(MD(Mini Disc)を含む)、もしくは半導体メモリ334に格納された状態でパーソナルコンピュータ301に供給され、ドライブ320によって読み出されて、記憶部318に内蔵されるハードディスクドライブにインストールされる。記憶部318にインストールされた音声処理プログラムは、入力部317に入力されるユーザからのコマンドに対応するCPU311の指令によって、記憶部318からRAM313にロードされて実行される。
【0184】
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0185】
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0186】
【発明の効果】
以上の如く、本発明によれば、広告に対するユーザの好感度を向上し、広告の効果を向上することができる。また、本発明によれば、広告の対象の販売促進を図ることができる。
【図面の簡単な説明】
【図1】本発明を適用した情報提供システムの構成例を示す図である。
【図2】図1のロボットの外観構成を示す斜視図である。
【図3】図1のロボットの外観構成を示す、背後側の斜視図である。
【図4】図1のロボットについて説明するための略線図である。
【図5】図1のロボットの内部構成を示すブロック図である。
【図6】図1のロボットの制御に関する部分を主に説明するためのブロック図である。
【図7】図6のメイン制御部の構成を示すブロック図である。
【図8】図7の広告ユーザ情報記憶部の構成を示すブロック図である。
【図9】図8の広告情報を説明する図である。
【図10】図8の個人情報を説明する図である。
【図11】図8の広告動作に関する対話情報を説明する図である。
【図12】図1の広告情報提供サーバの構成例を示すブロック図である。
【図13】図12の記憶部の構成例を示すブロック図である。
【図14】図1のロボットの広告情報取得処理を説明するフローチャートである。
【図15】図14のステップS5の広告動作処理を説明するフローチャートである。
【図16】図15のステップS25の広告補助動作処理を説明するフローチャートである。
【図17】図16のステップS42の広告の対象の購入処理を説明するフローチャートである。
【図18】図16のステップS44の詳細情報取得処理を説明するフローチャートである。
【図19】図16のステップS46のフィードバック処理を説明するフローチャートである。
【図20】図16のステップS48の反応確認処理を説明するフローチャートである。
【図21】図14のステップS5の広告動作処理の他の例を説明するフローチャートである。
【図22】図16のステップS46のフィードバック処理の他の例を説明するフローチャートである。
【図23】図22のステップS205の質問対話処理を説明するフローチャートである。
【図24】本発明を適用したコンピュータの構成を示すブロック図である。
【符号の説明】
1−1,1−2 ロボット,2 ネットワーク,3 広告情報提供サーバ,61 メイン制御部,63 サブ制御部,72 スピーカ,76 通信部,82 マイクロホン,101 センサ入力処理部,101A 音声認識部,103 行動決定機構部,104 テーブル記憶部,105 広告情報管理部,106 広告ユーザ情報記憶部,107 姿勢遷移機構部,108 音声合成部,121 広告情報,122 個人情報,123 広告動作に関する対話情報,218 記憶部,232 広告情報DB
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot control device and method, a recording medium, and a program, and more particularly, to a robot control device and method, a recording medium, and a program capable of improving a user's preference for an advertisement and improving an advertisement effect. And the program.
[0002]
[Prior art]
In recent years, autonomous mobile robots that operate autonomously are becoming common. In such an autonomous mobile robot, Patent Document 1 proposes to improve the effect of advertisement by adding a function of freely changing the advertisement content of a product.
[0003]
This autonomous mobile robot has a function of displaying advertisements on a monitor, such as a television receiver, and moves autonomously to a place where people gather while displaying advertisements acquired via a network. Can do. Therefore, various advertisements can be shown to more people.
[0004]
[Patent Document 1]
JP 2003-50559 A
[0005]
[Problems to be solved by the invention]
However, the autonomous mobile robot described in Patent Document 1 is effective when advertising to many people on the street. However, when this advertising function is applied to a user's personal autonomous mobile robot, There was a problem that even those who were not interested were advertised.
[0006]
In addition, since the advertisement is performed regardless of the user's mood, for example, when the autonomous mobile robot performs the advertisement when the user is in a bad mood, the user's discomfort is further amplified. As a result, there is a problem that the effect of the advertisement is reduced.
[0007]
The present invention has been made in view of such a situation, and improves the user's preference for an advertisement and improves the effect of the advertisement.
[0008]
[Means for Solving the Problems]
  The robot controller of the present invention isIncludes at least user preferences, number of times per unit time suitable for performing advertising actions on the user, and auxiliary action information for obtaining user acceptanceUser information storage means for storing user information and user information stored in the user information storage means from at least a keyword and advertisement action information for causing the robot to execute an advertisement actionUser preferencesAcquisition means for selecting operation information corresponding to the information from the information providing apparatus via the network, voice recognition means for recognizing continuous input voice, input voice recognized by the voice recognition means, and acquisition by the acquisition means When the keyword included in the recorded operation information matchesIn addition, the number of times that the robot has performed an advertisement operation in the unit time is less than the number of times of user informationAn advertising motion control means for controlling the robot to execute the advertising motion based on the advertising motion information included in the motion information acquired by the acquiring means;After the robot executes the advertisement operation, the robot is input based on the auxiliary operation control means for controlling the operation based on the auxiliary operation information of the user information, and the operation of the robot controlled by the auxiliary operation control means. Updating means for updating the number of times of user information stored in the user information storage means according to the input voiceIs provided.
[0009]
  The operation information includes an operation time zone, and further includes time determination means for determining whether or not the current time is the operation time zone, and the time determination means determines that the current time is the operation time zone. Even ifWhen the number of times the robot has performed an advertising operation in the unit time is less than the number of user information,The advertisement operation means can control the robot to execute the advertisement operation.
[0010]
The robot may further include driving means for driving the robot so that the robot moves as an advertising action, and voice output means for synthesizing and outputting the voice so that the robot speaks the advertisement as the advertising action.
[0011]
  The behavior information includes information about purchases that are subject to advertising behavior,The robot executed an advertising actionLater, based on purchase information,A purchase determination means for determining whether or not an advertising action target can be purchased, and a purchase determination means that the advertising action target is determined to be available for purchase,Based on motion information that encourages the purchase of robots to be included in the purchase informationPurchasing target is requested to the information providing device via the network in accordance with the input operation input based on the movement of the robot controlled by the purchasing operation control unit and the purchase operation controlling unit that controls the operation. And further request meansCan be prepared.
[0012]
  The action information includes information about the detailed information about the advertisement action target,The robot executed an advertising actionLater, based on information about detailed information,When it is determined by the detailed information determining means that there is detailed information about the advertising action in the information providing apparatus, the detailed information determining means for determining whether the information providing apparatus has the detailed information about the advertising action,Based on motion information that prompts the robot to acquire detailed information included in the information related to detailed informationDetailed information operation control means for controlling the operation, and the information providing device via the network in accordance with the input voice input based on the movement of the robot controlled by the detailed information operation control means And request means for requesting informationCan be prepared.
[0013]
  Behavioral information includes information about the advertising behavior or feedback on the subject of the advertising behavior,The robot executed an advertising actionLater, based on information about feedback,When it is determined by the transmission determination means that the user's voice input for the advertisement operation is transmitted to the information providing apparatus, and the transmission determination means determines that the user's voice input is transmitted,Based on motion information for the robot to obtain feedback information from the user included in the feedback informationThe transmission operation control means for controlling the operation, and the user's voice input to the information providing apparatus via the network according to the input voice input based on the transmission operation of the robot controlled by the transmission operation control means Further transmitting means for transmittingCan be prepared.
[0015]
  The robot control method of the present invention is a robot control device that controls the operation of a robot.Robot control method, robot control deviceIs stored in the memory from the operation information including at least the keyword and the advertisement operation information for causing the robot to execute the advertisement operation., User preference, number of times per unit time suitable for executing an advertisement operation for the user, and auxiliary operation information for obtaining the user's toleranceUser informationUser preferencesAcquisition step for selecting operation information corresponding to the information providing device from the information providing device via the network, a speech recognition step for recognizing continuous input speech, an input speech recognized by the processing of the speech recognition step, and an acquisition step When the keyword included in the operation information obtained by the process is matchedIn addition, the number of times that the robot has performed an advertisement operation in the unit time is less than the number of times of user informationAn advertisement operation control step for controlling the robot to execute the advertisement operation based on the advertisement operation information included in the operation information acquired by the process of the acquisition step;After the robot performs the advertisement operation, the robot performs an operation based on the auxiliary operation information of the user information, and an operation of the robot controlled by the process of the auxiliary operation control step. An updating step for updating the number of times the user information is stored in the memory in accordance with the input voice input;including.
[0016]
  The program recorded on the recording medium of the present invention is stored in the memory from the operation information including at least the keyword and the advertisement operation information for causing the robot to execute the advertisement operation., User preference, number of times per unit time suitable for executing an advertisement operation for the user, and auxiliary operation information for obtaining the user's toleranceUser informationUser preferencesAcquisition step for selecting operation information corresponding to the information providing device from the information providing device via the network, a speech recognition step for recognizing continuous input speech, an input speech recognized by the processing of the speech recognition step, and an acquisition step When the keyword included in the operation information obtained by the process is matchedIn addition, the number of times that the robot has performed an advertisement operation in the unit time is less than the number of times of user informationAn advertisement operation control step for controlling the robot to execute the advertisement operation based on the advertisement operation information included in the operation information acquired by the process of the acquisition step;After the robot performs the advertisement operation, the robot performs an operation based on the auxiliary operation information of the user information, and an operation of the robot controlled by the process of the auxiliary operation control step. An updating step for updating the number of times the user information is stored in the memory in accordance with the input voice input;Causes the computer to execute processing including
[0017]
  The program of the present invention is stored in a memory from operation information including at least a keyword and advertisement operation information for causing the robot to execute an advertisement operation., User preference, number of times per unit time suitable for executing an advertisement operation for the user, and auxiliary operation information for obtaining the user's toleranceUser informationUser preferencesAcquisition step for selecting operation information corresponding to the information providing device from the information providing device via the network, a speech recognition step for recognizing continuous input speech, an input speech recognized by the processing of the speech recognition step, and an acquisition step When the keyword included in the operation information obtained by the process is matchedIn addition, the number of times that the robot has performed an advertisement operation in the unit time is less than the number of times of user informationAn advertisement operation control step for controlling the robot to execute the advertisement operation based on the advertisement operation information included in the operation information acquired by the process of the acquisition step;After the robot performs the advertisement operation, the robot performs an operation based on the auxiliary operation information of the user information, and an operation of the robot controlled by the process of the auxiliary operation control step. An updating step for updating the number of times the user information is stored in the memory in accordance with the input voice input;Causes the computer to execute processing including
[0018]
  In the present invention, the operation information including at least the keyword and the advertisement operation information for causing the robot to execute the advertisement operation is stored in the memory., User preference, number of times per unit time suitable for executing an advertisement operation for the user, and auxiliary operation information for obtaining the user's toleranceUser informationUser preferencesIs selected from the information providing apparatus via the network. When continuous input speech is recognized and the recognized input speech matches the keyword included in the acquired motion informationIn addition, the number of times that the robot has performed an advertisement operation in the unit time is less than the number of times of user informationThe robot is controlled to execute the advertisement operation based on the advertisement operation information included in the acquired operation information.Further, after the robot performs the advertisement operation, the robot is controlled to perform the operation based on the auxiliary operation information of the user information, and is stored in the memory according to the input voice input based on the controlled robot operation. The number of stored user information is updated.
[0029]
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0030]
FIG. 1 shows a configuration example of an information providing system to which the present invention is applied. The network 2 typified by the Internet includes robots 1-1 and 1-2 (hereinafter referred to simply as robot 1 when these robots do not need to be individually distinguished) and a plurality of robots 1. The advertisement information providing server 3 that provides advertisement information is connected. In this example, only two robots and one advertisement information providing server 3 are shown. However, an arbitrary number of robots and advertisement information providing server 3 are connected to the network 2.
[0031]
The advertisement information providing server 3 stores various types of advertisement information and detailed information on the target of the advertisement, and periodically updates the detailed information on the advertising information and the target of the advertisement. The advertisement information is information for causing the robot 1 to perform an advertisement operation and an advertisement utterance, and causes the robot 1 to perform an advertisement assist operation such as purchase of an advertisement target, acquisition of detailed information of an advertisement target, or acquisition of feedback information. For information. The target of advertisement is constituted by food, drinks, books, movies, events or the like.
[0032]
When the advertisement information providing server 3 receives a request for advertisement information from the robot 1, the advertisement information providing server 3 provides the advertisement information to the robot 1 via the network 2. In addition, the advertisement information providing server 3 manages users who can purchase an advertisement target with a user ID (Identification) in advance. The robot 1 executes an advertisement assisting operation based on the advertisement information and accesses the advertisement information providing server 3. For example, when receiving a request for purchasing an advertisement target from the robot 1, the advertisement information providing server 3 executes a process of purchasing the specified advertisement target based on the user ID. When receiving a request for detailed information about the advertisement from the robot 1, the advertisement information providing server 3 transmits the detailed information about the instructed advertisement to the user's e-mail address via the network 2. When the advertisement information providing server 3 receives a user's opinion on the advertisement operation of the advertisement information from the robot 1 as feedback information, the advertisement information providing server 3 provides the received feedback information to an advertisement provider (not shown) or an advertisement target manufacturer. . Thereby, in the advertisement provider or the maker targeted for the advertisement, the opinion of the user can be reflected in the advertisement or the advertisement target itself.
[0033]
The robot 1 is a biped walking robot that can be controlled autonomously. The robot 1 is actually connected to the advertisement information providing server 3 by performing wireless communication via a base station (not shown) connected to the network 2. The robot 1 has personal information including user preferences, a user ID for purchasing advertisement targets from the advertisement information providing server 3, and an e-mail address. The robot 1 accesses the advertisement information providing server 3 via the network 2 and acquires advertisement information corresponding to the user's preference from the advertisement information stored in the advertisement information providing server 3. The advertisement information includes information for the robot 1 to perform an advertisement operation and an advertisement utterance. The robot 1 performs an advertising operation and an advertising utterance based on the advertising information acquired from the advertising information providing server 3.
[0034]
The advertisement information also includes information for the robot 1 to perform the following advertisement assisting operation. The robot 1 executes an operation and an utterance that execute an advertisement operation and an utterance, and then performs an operation and an utterance that prompts the user to purchase an advertisement target and acquire detailed information about the advertisement target based on the advertisement information. In response to voice input from the user, the user ID or email address of the personal information is transmitted, and the advertisement information providing server via the network 2 purchases the advertisement target and acquires the detailed information of the advertisement target. 3 is requested. Furthermore, the robot 1 executes an operation or an utterance for obtaining the user's opinion on an advertisement operation or an advertisement target based on the advertisement information, and voice input from the user for the executed operation or utterance is used as feedback information. The information is transmitted to the advertisement information providing server 3 via the network 2.
[0035]
As described above, in this advertisement information providing system, the robot 1 is provided with advertisement information corresponding to the user's personal information from the advertisement information providing server 3. Further, feedback information from the robot 1 is provided to the advertisement provider or the manufacturer of the advertisement target via the information providing server 3.
[0036]
2 is a front perspective view of the robot 1 of FIG. 1, and FIG. 3 is a perspective view of the robot 1 from the back direction. FIG. 4 is a diagram for explaining the axis configuration of the robot 1.
[0037]
In the robot 1, the head unit 12 is disposed on the upper part of the body unit 11, and the arm unit 13 </ b> A and the arm unit 13 </ b> B having the same configuration are disposed at predetermined positions on the upper and left sides of the body unit 11. The leg unit 14A and the leg unit 14B having the same configuration are respectively attached to the left and right sides of the body unit 11 at predetermined positions. The head unit 12 is provided with a touch sensor 51.
[0038]
In the torso unit 11, a frame 21 that forms the upper part of the trunk and a waist base 22 that forms the lower part of the trunk are connected via a hip joint mechanism 23. By driving the actuator A1 and the actuator A2 of the lumbar joint mechanism 23 fixed to each other, the upper part of the trunk is independently rotated around the orthogonal roll axis 24 and pitch axis 25 shown in FIG. It has been made so that it can.
[0039]
The head unit 12 is attached to the center of the upper surface of the shoulder base 26 fixed to the upper end of the frame 21 via a neck joint mechanism 27, and drives the actuator A3 and the actuator A4 of the neck joint mechanism 27, respectively. By doing so, it can be rotated independently around the orthogonal pitch axis 28 and yaw axis 29 shown in FIG.
[0040]
Furthermore, the arm unit 13A and the arm unit 13B are respectively attached to the left and right sides of the shoulder base 26 via the shoulder joint mechanism 30, and the corresponding actuator A5 and actuator A6 of the shoulder joint mechanism 30 are respectively connected. By driving, each of them can be rotated independently around the orthogonal pitch axis 31 and roll axis 32 shown in FIG.
[0041]
In this case, in the arm unit 13A and the arm unit 13B, the actuator A8 that forms the forearm is connected to the output shaft of the actuator A7 that forms the upper arm via the elbow joint mechanism 44, and the forearm It is comprised by attaching the hand part 34 to the front-end | tip.
[0042]
In the arm unit 13A and the arm unit 13B, the forearm can be rotated with respect to the yaw axis 35 shown in FIG. 4 by driving the actuator A7, and the forearm can be driven by driving the actuator A8. The portion can be rotated with respect to the pitch axis 36 shown in FIG.
[0043]
The leg unit 14A and the leg unit 14B are respectively attached to the lower back base 22 of the trunk through the hip joint mechanism 37, and the actuators A9 to A11 of the corresponding hip joint mechanism 37 are respectively driven. 4, the yaw axis 38, the roll axis 39, and the pitch axis 40 that are orthogonal to each other can be independently rotated.
[0044]
In the leg unit 14A and the leg unit 14B, the lower end of the frame 41 forming the thigh is connected to the frame 43 forming the crus via the knee joint mechanism 42, and The lower end is configured by being connected to the foot portion 45 via the ankle joint mechanism 44.
[0045]
Accordingly, in the leg unit 14A and the leg unit 14B, the lower leg part can be rotated with respect to the pitch axis 46 shown in FIG. 3 by driving the actuator A12 forming the knee joint mechanism 42. In addition, by driving the actuator A13 and the actuator A14 of the ankle joint mechanism 44, the foot 45 can be independently rotated with respect to the orthogonal pitch axis 47 and roll axis 48 shown in FIG. It has been made possible.
[0046]
A control unit 52, which is a box containing a main control unit 61 and a peripheral circuit 62 (both shown in FIG. 5), which will be described later, is provided on the back side of the waist base 22 that forms the lower trunk of the trunk unit 11. It is arranged.
[0047]
FIG. 5 is a diagram for explaining the actuator of the robot 1 and its control system.
[0048]
The control unit 52 houses a main control unit 61 that controls the operation of the entire robot 1, a peripheral circuit 62 such as a power supply circuit and a communication circuit, a battery 74 (FIG. 6), and the like.
[0049]
The control unit 52 is disposed in each component unit (the body unit 11, the head unit 12, the arm unit 13A and the arm unit 13B, and the leg unit 14A and the leg unit 14B). It is connected to the sub-control units 63A to 63D and supplies necessary power supply voltages to the sub-control units 63A to 63D and communicates with the sub-control units 63A to 63D.
[0050]
Further, the sub control unit 63A to the sub control unit 63D are respectively connected to the actuator A1 to the actuator A14 in the corresponding configuration unit, and based on various control commands supplied from the main control unit 61, The actuators A1 to A14 are controlled so as to be driven to a designated state.
[0051]
FIG. 6 is a block diagram showing the internal configuration of the robot 1.
[0052]
The head unit 12 includes a CCD (Charge Coupled Device) camera 81 that functions as an “eye” of the robot 1, a microphone 82 that functions as an “ear”, an external sensor unit 71 including a touch sensor 51, and a “mouth” And a speaker 72 functioning as “,” are disposed at predetermined positions, and an internal sensor unit 73 including a battery sensor 91 and an acceleration sensor 92 is disposed in the control unit 52.
[0053]
Then, the CCD camera 81 of the external sensor unit 71 images the surrounding situation and sends the obtained image signal S1A to the main control unit 61. The microphone 82 collects various command voices such as “walk”, “throw away” or “lift the right hand” given as voice input from the user, and sends the obtained voice signal S 1 B to the main control unit 61.
[0054]
Further, for example, as shown in FIGS. 2 and 3, the touch sensor 51 is provided on the top of the head unit 12, and pressure received by a physical action such as “blow” or “slap” from the user. And the detection result is sent to the main controller 61 as a pressure detection signal S1C.
[0055]
The battery sensor 91 of the internal sensor unit 73 detects the remaining energy of the battery 74 at a predetermined cycle, and sends the detection result to the main control unit 61 as a remaining battery level detection signal S2A. The acceleration sensor 92 detects the acceleration in three axis directions (x axis, y axis, and z axis) with respect to the movement of the robot 1 at a predetermined cycle, and sends the detection result as an acceleration detection signal S2B to the main control unit 61. Send it out.
[0056]
The main control unit 61 is supplied with the image signal S1A, the sound signal S1B, and the pressure detection signal S1C (hereinafter collectively referred to as the external sensor signal S1) supplied from the CCD camera 81, the microphone 82, and the touch sensor 51 of the external sensor unit 71, respectively. And a battery remaining amount detection signal S2A and an acceleration detection signal S2B (hereinafter collectively referred to as an internal sensor signal S2) supplied from the battery sensor 91 and the acceleration sensor of the internal sensor unit 73, respectively. Thus, the situation around and inside the robot 1, the instruction from the user, the presence / absence of the action from the user, and the like are determined.
[0057]
The main control unit 61 controls the communication unit 76 to execute data transfer with the advertisement information providing server 3 connected to the network 2. The communication unit 76 receives advertisement information from the advertisement information providing server 3 via the network 2 and supplies the advertisement information to the main control unit 61 under the control of the main control unit 61. Further, the communication unit 76 requests the advertisement information providing server 3 for purchase and detailed information of the advertisement target via the network 2 under control of the main control unit 61, or provides feedback information for the advertisement, The information is transmitted to the advertisement information providing server 3 via the network 2.
[0058]
The main control unit 61 is loaded with the control program stored in advance in the internal memory 61A, the situation around and inside the robot 1, the command from the user, the judgment result of the presence / absence of the user's action, and the like. The behavior of the robot 1 is determined based on various control parameters stored in the external memory 75 or advertisement information acquired from the advertisement information providing server 3, and a control command based on the determination result is generated. , To the corresponding sub-control unit 63A to sub-control unit 63D. Since the sub control unit 63A to the sub control unit 63D control the driving of the corresponding one of the actuators A1 to A14 based on the supplied control command, the robot 1 moves the head unit 12 up and down, left and right, for example. The arm unit 13A or the arm unit 13B can be lifted up, or the leg unit 14A and the leg unit 14B can be driven alternately to perform an action such as walking. Become.
[0059]
Moreover, the main control part 61 outputs the audio | voice based on audio | voice signal S3 outside by giving the predetermined audio | voice signal S3 to the speaker 72 as needed. Furthermore, the main control unit 61 blinks the LED by outputting a drive signal to an LED (not shown) provided at a predetermined position of the head unit 12 that functions as an “eye” in appearance.
[0060]
In this way, the robot 1 can act autonomously based on the surrounding and internal conditions, instructions from the user, presence / absence of an action, and the like, and is obtained from the advertisement information providing server 3. Based on the advertisement information, the advertisement operation can be performed autonomously.
[0061]
Next, FIG. 7 shows a functional configuration example of the main control unit 61 of FIG. The functional configuration shown in FIG. 7 is realized by the main control unit 61 executing a control program stored in the memory 61A.
[0062]
The main control unit 61 accumulates the recognition results of the sensor input processing unit 101 and the sensor input processing unit 101 for recognizing a specific external state, and stores a model such as the emotion, instinct, or growth state of the robot 1. A model storage unit 102; a table storage unit 104 that stores a table of speech recognition results and action contents; an advertisement information management unit 105 that acquires advertisement information or manages information stored in the advertisement information storage unit 106; Stored in the advertisement information storage unit 106 that stores personal information of the user and dialogue information related to the advertisement operation, the recognition result of the sensor input processing unit 101, the table stored in the table storage unit 104, or the advertisement information storage unit 106 The action determination mechanism unit 103 that determines the action of the robot 1 based on the information and the like, the determination result of the action determination mechanism unit 103 Based on, and a really posture transition mechanism unit 107 to take action to the robot 1 and the speech synthesizing unit 108 for generating a composite sound.
[0063]
The sensor input processing unit 101 uses a specific external state or a specific action from the user based on an audio signal, an image signal, a pressure detection signal, or the like given from the microphone 82, the CCD camera 81, the touch sensor 51, or the like. The model storage unit 102 and the action determination mechanism unit 103 are notified of state recognition information representing the recognition result.
[0064]
That is, the sensor input processing unit 101 includes a voice recognition unit 101A, and the voice recognition unit 101A performs voice recognition on a voice signal given from the microphone 82. Then, the voice recognition unit 101A stores, for example, a command such as “walk”, “stop”, “raise the right hand”, a response to the utterance from the robot 1, and other voice recognition results as model recognition information. Notification to the unit 102 and the action determination mechanism unit 103.
[0065]
The sensor input processing unit 101 includes an image recognition unit 101B, and the image recognition unit 101B performs image recognition processing using an image signal provided from the CCD camera 81. When the image recognition unit 101B detects, for example, “a red round object”, “a plane perpendicular to the ground and higher than a predetermined height” as a result of the processing, “there is a ball”, “ An image recognition result such as “There is a wall” is notified to the model storage unit 102 and the action determination mechanism unit 103 as state recognition information.
[0066]
Further, the sensor input processing unit 101 includes a pressure processing unit 101C, and the pressure processing unit 101C processes a pressure detection signal provided from the touch sensor 51. When the pressure processing unit 101C detects a pressure that is equal to or higher than the predetermined threshold and for a short time as a result of the processing, the pressure processing unit 101C recognizes that the pressure has been hit, and is less than the predetermined threshold. When a long-time pressure is detected, it is recognized as “boiled (praised)”, and the recognition result is notified to the model storage unit 102 and the action determination mechanism unit 103 as state recognition information.
[0067]
The model storage unit 102 stores and manages an emotion model, an instinct model, and a growth model that express the emotion, instinct, and growth state of the robot 1, respectively.
[0068]
Here, the details of the emotion model are described in WO00 / 4316, but for example, the state (degree) of emotion such as “joyfulness”, “sadness”, “anger”, “fun”, etc. Is represented by a value in a predetermined range (for example, -1.0 to 1.0, etc.), and the value is changed based on the state recognition information from the sensor input processing unit 101, the passage of time, or the like. The instinct model represents, for example, the state (degree) of desire by instinct such as “appetite”, “sleep appetite”, “exercise desire”, etc. by values in a predetermined range, and state recognition information from the sensor input processing unit 101 The value is changed based on the passage of time or the like. The growth model represents, for example, growth states (degrees) such as “childhood”, “adolescence”, “mature age”, “old age”, and the like by values in a predetermined range, and from the sensor input processing unit 101 The value is changed based on the state recognition information and the passage of time.
[0069]
The model storage unit 102 sends the emotion, instinct, and growth states represented by the values of the emotion model, instinct model, and growth model as described above to the action determination mechanism unit 103 as state information.
[0070]
In addition to the state recognition information supplied from the sensor input processing unit 101, the model storage unit 102 receives the current or past behavior of the robot 1 from the behavior determination mechanism unit 103, specifically, for example, “long time Action information indicating the content of the action such as “walked” is supplied, and the model storage unit 102 responds to the action of the robot 1 indicated by the action information even if the same state recognition information is given. Different state information is generated.
[0071]
That is, for example, when the robot 1 greets the user and strokes the head, the behavior information that the user has been greeted and the state recognition information that the head has been stroked are the model storage unit. In this case, in the model storage unit 102, the value of the emotion model representing “joyfulness” is increased.
[0072]
On the other hand, when the robot 1 is stroked while performing some kind of work, behavior information indicating that the work is being performed and state recognition information indicating that the head has been stroked are given to the model storage unit 102. In this case, the value of the emotion model representing “joyfulness” is not changed in the model storage unit 102.
[0073]
As described above, the model storage unit 102 sets the value of the emotion model while referring not only to the state recognition information but also to behavior information indicating the current or past behavior of the robot 1. This causes an unnatural emotional change that increases the value of the emotion model that expresses “joyfulness” when, for example, the user is stroking his / her head while performing some task. You can avoid that.
[0074]
Note that the model storage unit 102 increases or decreases the values of the instinct model and the growth model based on both the state recognition information and the behavior information, as in the emotion model. In addition, the model storage unit 102 is configured to increase or decrease the values of the emotion model, instinct model, and growth model based on the values of other models.
[0075]
The advertisement information management unit 105 controls the communication unit 76 at predetermined intervals to access the advertisement information providing server 3 via the network 2 and acquire the advertisement information stored in the advertisement information providing server 3. At this time, the advertisement information management unit 105 selects advertisement information corresponding to the user's preference from the advertisement information of the advertisement information providing server 3 based on the user's personal information described later with reference to FIG. , Acquired from the advertisement information providing server 3 and stored in the advertisement information storage unit 106. Further, the advertisement information management unit 105 transmits information to the advertisement information providing server 3 or updates information in the advertisement user information storage unit 106 based on an instruction from the behavior determination mechanism unit 103.
[0076]
Specifically, the advertisement information management unit 105 requests the advertisement information providing server 3 to purchase an advertisement target based on an instruction from the behavior determination mechanism unit 103, or requests detailed information acquisition of the advertisement target. I do. In addition, when the user's opinion is input as feedback information from the action determination mechanism unit 103, the advertisement information management unit 105 controls the communication unit 76 and sends it to the advertisement information providing server 3 via the network 2. Send feedback information. Further, the advertisement information management unit 105 updates the personal information in the advertisement user information storage unit 106 when the user's personal information is input from the behavior determination mechanism unit 103.
[0077]
FIG. 8 shows a configuration example of the advertising user information storage unit 106 of FIG. In the case of the example in FIG. 8, the advertisement user information storage unit 106 includes advertisement information 121, personal information 122, and dialogue information 123 related to advertisement operations. Hereinafter, with reference to FIG. 9 to FIG. 11, the advertisement information 121, the user personal information 122, and the dialog information 123 regarding the advertisement operation will be described in order.
[0078]
FIG. 9 shows a detailed configuration example of the advertisement information 121. The advertisement information 121 is information that is set by the advertisement information providing server 3 according to the target of the advertisement and is periodically acquired from the advertisement information providing server 3 by the advertisement information management unit 105 based on the personal information 122. In the example of FIG. 9, the advertisement information 121 includes information such as advertisement type, priority, advertisement operation, advertisement order, operation optimum time zone, reaction keyword, purchase information, detailed information, feedback acquisition information, and advertisement period. Is done.
[0079]
The type of advertisement indicates, for example, the type of advertisement target of the advertisement information 121 such as an event, a product, a drink, a movie, or a book. The priority indicates the priority of the advertisement information 121 that is high, medium, or low. For example, the advertisement information providing server 3 sets the priority of the advertisement information that is expensive for the advertisement campaign, the priority of the advertisement information related to the global soccer event, etc. higher than the other advertisement information. In the robot 1, when there are a plurality of pieces of advertisement information in the advertisement user information storage unit 106, the advertisement information with a higher priority is executed with priority over the advertisement information with a lower priority.
[0080]
The advertisement operation indicates advertisement operation information for controlling the operation of the robot 1 and advertisement utterance information for controlling the utterance of the robot 1 according to the content of the advertisement. For example, an advertising operation such as an action movie can be an advertising operation according to the content of the advertisement, such as kicking or punching. The advertisement operation may have a plurality of patterns of advertisement operation information and advertisement utterance information. When there are a plurality of types of patterns (for example, A pattern and B pattern) in the advertisement operation, the advertisement operation of the A pattern is executed in the first advertisement, and B is performed in the second advertisement. The order of the advertisement operation of executing the pattern advertisement operation is shown.
[0081]
The optimum operation time zone indicates an optimum time zone in which the robot 1 performs an advertising operation such as lunch, 20:00 to 21:00, or “when the user is happy”. For example, when the target of the advertising information 121 is food, the robot 1 is allowed to execute an advertising operation at lunch time, which is the user's hungry time zone, or when the target of the advertising information 121 is a movie or book, the user can relax. The advertisement operation can be executed in the time zone from 20:00 to 21:00. In addition, the emotion model described in WO00 / 4316 is used to recognize when the robot 1 is happy or when the user is happy so that the robot 1 executes an advertising operation such as an event. Also good.
[0082]
The reaction keyword indicates a keyword for executing the advertisement operation. For example, when the voice recognition unit 101A recognizes a keyword issued by the user, such as “I am hungry”, “Dinner”, “How many”, or “I am tired”, the advertisement operation can be executed. . In the robot 1, priority may be given to either the optimal operation time zone or the reaction keyword, and information indicating which priority should be given to the optimal operation time zone or the reaction keyword is given by the priority advertisement information providing server 3. The advertisement information 121 may be set.
[0083]
The purchase information includes the address of the store where the product can be purchased and the URL (Uniform Resource Locator) of the purchase destination (for example, the advertisement information) when the advertisement target of the advertisement information 121 can be purchased via the network 2. The URL of the providing server 3), the price of the product, and the serial number of the product. The purchase information also includes utterance information that causes the robot 1 to utter in order to prompt the user to purchase.
[0084]
The detailed information indicates information indicating whether or not the advertisement information providing server 3 has the detailed information of the advertisement target of the advertisement information 121. In addition, when it exists in another server, you may make it show information, such as URL of another server. The detailed information also includes utterance information that causes the robot 1 to utter in order to prompt the user to acquire detailed information to be advertised.
[0085]
The feedback acquisition information indicates utterance information for acquiring, as feedback information, a user's opinion on the advertisement information 121 such as “Do you like this CM?” And “Do you often use this product?”. The robot 1 utters “Do you like this CM?” Or “Do you often use this product?” And the like, reads the user's input voice and reaction corresponding to the utterance, and the read information is the advertisement information providing server 3. Sent to. As a result, user feedback information for products and advertisements can be provided to manufacturers and the like via the advertisement information providing server 3.
[0086]
The advertisement period indicates a period during which the advertisement operation is executed, such as “one week” or “until May 31, 2003”. The advertisement information management unit 105 performs a timekeeping operation with a built-in clock, and deletes the advertisement information 121 whose advertisement period has passed from the advertisement user information storage unit 106.
[0087]
The advertisement information providing server 3 sets each information of the advertisement information 121 for controlling the advertisement operation and advertisement utterance of the robot 1 as described above according to the contents of the advertisement, and provides the information to the robot 1. Then, based on the advertisement information 121 set according to the content of the advertisement, the behavior determination mechanism unit 103 controls the advertisement operation, advertisement utterance, and advertisement assist operation of the robot 1.
[0088]
FIG. 10 shows a detailed configuration example of the personal information 122 of the user. In the example of FIG. 10, the personal information 122 includes information such as user preferences, user purchase IDs, e-mail addresses, admissibility for advertisements, and user responses.
[0089]
The user's preference indicates information related to the user's preference such as “I hate movies” or “I like to eat out”. The advertisement information management unit 105 acquires advertisement information 121 corresponding to the user's preference from the advertisement information providing server 3. The user purchase ID is used when purchasing an advertisement target from the advertisement information providing server 3. For example, the user purchase ID indicates a user purchase ID “No. ○○○ △” registered in advance in the advertisement information providing server 3. . The e-mail address is an e-mail address “XXX” for receiving detailed information of a target of advertisement from the advertisement information providing server 3 by a PC (personal computer) or a mobile phone. ○@ΔΔ.ne.jp ”.
[0090]
The admissibility for the advertisement indicates the number of times (for example, 10 times / day, 1 time / 1 hour) suitable for the user to execute the advertisement operation. The admissibility for the advertisement is updated by the advertisement information management unit 105, reflecting the number of times that the robot 1 has executed the advertisement operation (recorded as the user's reaction) before the user “stops”. . The user's reaction is the number of times that the advertisement operation has been executed based on the advertisement information 121 (that is, the number of times the user has shown the advertisement operation), and the number of times that the advertisement operation has been executed until the dialogue information 123 about the advertisement operation is uttered (that is, the advertisement). It shows how many times (for example, 5 times) the operation is performed and then information on how to speak the dialogue information 123 regarding the advertising operation), or the facial expression and reaction of the user when the advertising operation is executed.
[0091]
The advertisement information management unit 105 acquires the advertisement information 121 corresponding to the user preference of the personal information 122 as described above from the advertisement information providing server 3 via the network 2. The behavior determination mechanism unit 103 controls the number of advertisement operations based on the admissibility of the personal information 122 to the advertisement, and based on the user's reaction of the personal information 122, the dialogue regarding the advertisement operation described later with reference to FIG. The speech operation of the information 123 is executed. Then, the user behavior determination mechanism unit 103 acquired corresponding to the utterance operation of the dialogue information 123 regarding the advertisement operation recognizes the input voice, controls the advertisement information management unit 105 based on the recognized information, and The information 122 is updated.
[0092]
FIG. 11 shows a detailed configuration example of the dialogue information 123 related to the advertisement operation. The dialogue information 123 related to the advertisement operation is distributed via the external memory 75 or the network 2 and stored in advance. The dialogue information 123 related to the advertisement operation is configured by dialogue information (speech information) that causes the robot 1 to utter to update the personal information 122 of the user.
[0093]
In the case of the example in FIG. 11, the dialogue information 123 related to the advertisement operation is dialogue information when the robot 1 acquires the “user preference” of the personal information 122. Do you like this advertisement? "Do you want to continue advertising?", "Tell me your e-mail address" or "User ID and password" which is dialogue information when the robot 1 acquires "ID and e-mail address" of the personal information 122 "Please tell me" "as well as" Do you want to see more ads? "Which is the dialogue information when the robot 1 acquires" admissibility for advertisement "of the personal information 122 or the robot 1 It is comprised by the information etc. which show the keyword (for example, I do not want to see an advertisement) of the user who monitors when acquiring "acceptability".
[0094]
Therefore, the action determination mechanism unit 103 executes the utterance based on the dialogue information 123 regarding the advertisement operation, and controls the advertisement information management unit 105 using the user's input voice corresponding to the utterance as the user's personal information 122, It is stored (updated) in the advertisement user information storage unit 106.
[0095]
Returning to FIG. 7, the behavior determination mechanism unit 103 is stored in the advertisement user information storage unit 106 based on the state recognition information from the sensor input processing unit 101, the state information from the model storage unit 102, and the passage of time. The advertisement information management unit 105 is controlled by referring to the various types of information, and data is transferred to or from the advertisement information providing server 3 via the network 2 or information in the advertisement user information storage unit 106 is updated.
[0096]
Further, the behavior determination mechanism unit 103 is stored in the table storage unit 104 as necessary based on the state recognition information from the sensor input processing unit 101, the state information from the model storage unit 102, the passage of time, and the like. The action of the next robot 1 is determined with reference to various information stored in the table or the advertisement user information storage unit 106, and the content of the determined action is sent to the posture transition mechanism unit 107 as action command information. Send it out.
[0097]
That is, the behavior determination mechanism unit 103 manages a finite automaton that associates the behavior that can be taken by the robot 1 with a state (state) as a behavior model that defines the behavior of the robot 1. The state in the finite automaton is transitioned based on the state recognition information from the sensor input processing unit 101, the value of the emotion model, instinct model or growth model in the model storage unit 102, the time course, etc., and corresponds to the state after the transition The action to be taken is determined as the action to be taken next.
[0098]
Here, when the behavior determination mechanism unit 103 detects that a predetermined trigger (trigger) has occurred, the behavior determination mechanism unit 103 transitions the state. That is, the behavior determination mechanism unit 103 is supplied from the model storage unit 102 when, for example, the time during which the behavior corresponding to the current state is executed reaches a predetermined time or when specific state recognition information is received. The state is changed when the emotion, instinct, and growth state values indicated by the state information are below or above a predetermined threshold.
[0099]
Note that, as described above, the behavior determination mechanism unit 103 is based not only on the state recognition information from the sensor input processing unit 101 but also on the emotion model, instinct model, growth model value, etc. in the model storage unit 102. Since the state in the behavior model is transitioned, even if the same state recognition information is input, the state transition destination differs depending on the value (state information) of the emotion model, instinct model, and growth model.
[0100]
Further, the behavior determination mechanism unit 103 is stored in the table storage unit 104 as necessary based on the state recognition information from the sensor input processing unit 101, the state information from the model storage unit 102, the passage of time, and the like. The next utterance of the robot 1 is determined with reference to various information (the advertisement information 121, the personal information 122, and the dialogue information 123 related to the advertisement operation) stored in the table or the advertisement user information storage unit 106. The content of the utterance is also supplied to the speech synthesizer 108 as action command information. The action command information supplied to the speech synthesizer 108 includes text corresponding to the synthesized sound to be generated by the speech synthesizer 108.
[0101]
When the voice synthesis unit 108 receives the behavior command information from the behavior determination mechanism unit 103, the voice synthesis unit 108 generates a synthesized sound based on the text included in the behavior command information, and supplies the synthesized sound to the speaker 18 for output. As a result, from the speaker 18, for example, greeting to the user, such as "Hello", various requests of "Can I ask you a question?" To the user, such as, or, "What?" And the like of the user of A response to the call or other audio output is performed.
[0102]
The posture transition mechanism unit 107 generates posture transition information for transitioning the posture of the robot 1 from the current posture to the next posture based on the behavior command information supplied from the behavior determination mechanism unit 103. The data is sent to the sub-control units 63A to 63D.
[0103]
FIG. 12 shows the configuration of the advertisement information providing server 3. In FIG. 12, a CPU (Central Processing Unit) 211 executes various processes according to a program stored in a ROM (Read Only Memory) 212 or a program loaded from a storage unit 218 to a RAM (Random Access Memory) 213. To do. The RAM 213 also appropriately stores data necessary for the CPU 211 to execute various processes.
[0104]
The CPU 211, ROM 212, and RAM 213 are connected to each other via a bus 214. An input / output interface 215 is also connected to the bus 214.
[0105]
The input / output interface 215 includes an input unit 26 including a keyboard and a mouse, a display including a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal Display), an output unit 217 including a speaker, and a hard disk. A communication unit 219 including a storage unit 218, a modem, a terminal adapter, and the like is connected. The communication unit 219 performs communication processing via the network 2.
[0106]
A drive 220 is connected to the input / output interface 215 as necessary, and a magnetic disk 221, an optical disk 222, a magneto-optical disk 223, a semiconductor memory 224, or the like is appropriately mounted, and a computer program read from these is loaded. It is installed in the storage unit 218 as necessary.
[0107]
FIG. 13 shows a configuration example of the storage unit 218. In the example of FIG. 13, the storage unit 218 of the advertisement information providing server 3 includes a user management information database (DB) 231 and an advertisement information database (DB) 232.
[0108]
The user management information database 231 includes a user ID and a password for managing the user of the robot 1. The user ID and password are transmitted together with the request from the robot 1 in the case of, for example, purchase of the advertisement target of the advertisement information 121. The user ID and password may be used when the robot 1 acquires the advertisement information 232.
[0109]
The advertisement information database 232 includes a plurality of types of advertisement information. Since the advertisement information is the same as the advertisement information 121 described above with reference to FIG. 9, the description is omitted because it is repeated. However, the advertisement information in the advertisement information database 232 also includes the advertisement type, priority, It consists of an advertisement operation, an advertisement order, an operation optimal time zone, a reaction keyword, purchase information, detailed information, feedback acquisition information, an advertisement period, and the like. The advertisement information database 232 is updated as needed by the advertisement information providing server 3.
[0110]
Next, the advertisement information acquisition process of the robot 1 will be described with reference to the flowchart of FIG.
[0111]
The advertisement information providing server 3 always updates and manages the advertisement information in the advertisement information database 232. Therefore, the advertisement information management unit 105 of the robot 1 acquires the advertisement information 121 from the advertisement information providing server 3 via the network 2 at predetermined time intervals (for example, every other day) in order to obtain new advertisement information. is doing.
[0112]
In step S1, the advertisement information management unit 105 performs a time counting operation with a built-in clock, waits until a predetermined time elapses, and determines that the predetermined time has elapsed. The process proceeds to S2, the communication unit 76 is controlled, the advertisement information providing server 3 is accessed via the network 2, and the process proceeds to Step S3. In step S <b> 3, the advertisement information management unit 105 compares the advertisement information (advertisement type) in the advertisement information database 232 of the advertisement information providing server 3 with the personal information 122 (user preference), and stores the personal information 122. The advertisement information corresponding to the user's preference is selected, and the process proceeds to step S4. In step S <b> 4, the advertisement information management unit 105 controls the communication unit 76 to acquire the advertisement information corresponding to the user's preference via the network 2 and store it in the advertisement user information storage unit 106 as the advertisement information 121. The process proceeds to step S5.
[0113]
In step S5, the behavior determination mechanism unit 103 executes an advertisement operation process based on the advertisement information 121 in the advertisement user information storage unit 106, and proceeds to step S6. This advertisement operation process will be described later with reference to the flowchart of FIG.
[0114]
In step S <b> 6, the advertisement information management unit 105 performs a time counting operation with a built-in clock, determines whether the advertisement period of the advertisement information 121 has elapsed, and determines that the advertisement period of the advertisement information 121 has not elapsed. If so, the process returns to step S5 and the subsequent processing is repeated. In step S6, when the advertisement information management unit 105 performs a time counting operation with the built-in clock and determines that the advertisement period of the advertisement information 121 has elapsed, the process proceeds to step S7, and the advertisement information 121 after the advertisement period has elapsed. Delete from the advertisement user information storage unit 106.
[0115]
As described above, the advertisement information 121 is acquired from the advertisement information providing server 3 and managed by the advertisement information management unit 105. In the example of FIG. 14, the advertisement information management unit 105 of the robot 1 accesses the advertisement information providing server 3 at a predetermined interval and acquires the advertisement information 121. However, the advertisement information providing server 3 Each time the advertisement information in the database 232 is updated, it may be transmitted to the robot 1. In this case, the advertisement information management unit 105 selects only the advertisement information corresponding to the personal information 212 and stores it in the advertisement user information storage unit 106.
[0116]
Next, the advertisement operation process in step S5 in FIG. 14 will be described with reference to the flowchart in FIG. In this case, it is assumed that the advertisement information 121 whose advertisement type is “movie” is stored in the advertisement user information storage unit 106.
[0117]
In step S21, the voice recognition unit 101A stands by until voice input is received from the microphone 82. If it is determined that voice input has been received from the microphone 82, the process proceeds to step S22, The speech recognition process is executed, and the recognized speech recognition result is output to the action determination mechanism unit 103 and, if necessary, to the model storage unit 102, and the process proceeds to step S23.
[0118]
The action determination mechanism unit 103 refers to the reaction keyword of the advertisement information 121 (in this case, the reaction keyword is “boring”). In step S23, the behavior determination mechanism unit 103 determines whether or not the speech recognition unit 101A has recognized the speech “I am bored” based on the speech recognition result supplied from the speech recognition unit 101A. When it is determined that the part 101A does not recognize the voice “I am bored”, the process of steps S24 and S25 is skipped, and the process returns to step S6 of FIG. That is, when another voice recognition result other than the voice “boring” is input, the action determination mechanism unit 103 performs an action command corresponding to the recognized voice recognition result without performing the advertisement operation process. Information is sent to the posture transition mechanism unit 105 and the speech synthesis unit 108.
[0119]
If it is determined in step S23 that the voice recognition unit 101A has recognized the voice “I am bored”, the behavior determination mechanism unit 103 proceeds to step S24, and based on the advertisement operation information in the advertisement information 121, The advertisement operation process is executed, and the process proceeds to step S25.
[0120]
Specifically, the behavior determination mechanism unit 103 determines the behavior of the robot 1 that matches the advertisement operation information that defines the behavior of the robot 1, and uses the content of the determined behavior as behavior command information. To the unit 107. The posture transition mechanism unit 107 generates control information of necessary ones of the actuators A1 to A14, supplies them to the sub-control units 63A to 63D, and drives the corresponding ones of the actuators A1 to A14. Then, the robot 1 is caused to execute an action for advertising a “movie” (for example, a fun action that attracts the user's interest).
[0121]
At the same time, the action determination mechanism unit 103 determines the utterance of the robot 1 that matches the advertisement utterance information that defines the utterance of the robot 1, and action command information for causing the robot 1 to utter about the advertisement of “movie”. And the content of the determined utterance is transmitted to the speech synthesizer 108 as utterance command information. When the speech synthesizer 108 receives the utterance command information from the posture transition mechanism unit 105, the speech synthesizer 108 generates a synthesized sound based on the text included in the utterance command information and supplies the synthesized sound to the speaker 18 for output. As a result, for example, a sound for advertising a movie “currently a XX movie is being screened in a theater. XX movies are fun” is output from the speaker 72. At this time, a song or music may be output from the speaker 18.
[0122]
In step S25, the action determination mechanism unit 103 refers to the advertisement information 121, executes an advertisement auxiliary operation process described later with reference to the flowchart in FIG. 16, ends the advertisement operation process, and proceeds to step S6 in FIG. Return.
[0123]
As described above, the advertisement operation is executed in response to the user's input voice saying “I am bored”, so the discomfort caused by the user's boredom can be suppressed by the advertisement, and the advertising effect is improved. it can. In addition, the recognition result of the recognized speech is output to the model storage unit 102 in step S22 of FIG. 15, and the emotion model is used to recognize and determine when the user or the robot 1 is happy in step S23. An advertisement operation may be executed.
[0124]
Next, with reference to the flowchart of FIG. 16, the advertisement assistance operation process of step S25 of FIG. 15 will be described.
[0125]
In step S <b> 41, the behavior determination mechanism unit 103 determines whether or not the advertisement information 121 includes purchase information. If the advertisement information 121 determines that there is purchase information, the action determination mechanism unit 103 determines that the advertisement target can be purchased. Then, the process proceeds to step S42, an advertising target purchase process described later with reference to the flowchart of FIG. In step S41, when it is determined that there is no purchase information in the advertisement information 121, the behavior determination mechanism unit 103 determines that the purchase of the advertisement target is not possible, skips the process of step S42, and proceeds to step S43.
[0126]
In step S43, the behavior determination mechanism unit 103 determines whether or not the advertisement information 121 has detailed information. If the action determination mechanism unit 103 determines that the advertisement information 121 has detailed information, the behavior determination mechanism unit 103 notifies the advertisement information providing server 3 of the advertisement target details. It is determined that there is information, the process proceeds to step S44, a detailed information acquisition process described later with reference to the flowchart of FIG. 18 is executed, and the process proceeds to step S45. In step S43, when it is determined that there is no detailed information in the advertisement information 121, the behavior determination mechanism unit 103 determines that there is no detailed information on the advertisement target in the advertisement information providing server 3, and skips the process of step S44. The process proceeds to step S45.
[0127]
In step S45, the behavior determining mechanism unit 103 determines whether or not the advertisement information 121 includes feedback acquisition information. If the action determination mechanism unit 103 determines that the advertisement information 121 includes feedback acquisition information, the process proceeds to step S46, and the flowchart of FIG. The feedback processing described later is executed with reference to FIG. In step S45, when it is determined that there is no feedback acquisition information in the advertisement information 121, the behavior determination mechanism unit 103 skips the process of step S46 and proceeds to step S47.
[0128]
The behavior determination mechanism unit 103 executes the determination in step S47 based on the user's reaction of the personal information 122. In the present case, it is shown that when the advertisement operation is executed five times in response to the user's reaction of the personal information 122, the user's reaction is confirmed by referring to the dialogue information 123 regarding the advertisement operation. Therefore, in step S47, the behavior determination mechanism unit 103 determines whether or not the movie advertisement operation has been executed five times based on the advertisement information 121. If it is determined that the movie advertisement operation has been executed five times, the process proceeds to step S48, where a user response confirmation process described later with reference to the flowchart of FIG. 20 is executed, the advertisement assist operation is terminated, and step S6 of FIG. Return to. If it is determined in step S48 that the movie advertisement operation has not been performed five times, or if it has been determined that the movie advertisement operation has been performed six times or more, the behavior determination mechanism unit 103 performs the process of step S48. Is skipped, the advertisement assisting operation is terminated, and the process returns to step S6 in FIG. In addition, the frequency | count of the advertisement operation | movement in judgment which performs the user's reaction confirmation process of step S47 is not specifically limited, You may make it perform it repeatedly.
[0129]
As described above, not only the advertising operation is executed but also the advertising target purchase processing, the detailed information acquisition processing of the advertising target, and the feedback processing are executed as the advertising auxiliary operation. Improvements can be made. Furthermore, by executing the user's reaction confirmation process, the advertising operation ability corresponding to the user of the robot 1 (for example, the ability to determine when the user should advertise) is also improved.
[0130]
In the example of FIG. 16, the advertisement target purchase process, the advertisement target detailed information acquisition process, the feedback process, and the user reaction confirmation process are continuously executed. It is not limited to this.
[0131]
Next, with reference to the flowchart in FIG. 17, the advertisement target purchase processing in step S42 in FIG. 16 will be described. In this case, the purchase information of the advertisement information 121 stores the price of a movie ticket and utterance information for prompting purchase.
[0132]
The behavior determination mechanism unit 103 refers to the purchase information of the advertisement information 121 and controls the voice synthesis unit 108 together with the price of the movie ticket, for example, a voice saying “Do you want to buy this movie ticket”? Synthesizing and outputting from the speaker 72, that is, uttering, proceeds to step S102. The user responds in response to the utterance of the robot 1 "Do you want to buy this movie ticket?"
[0133]
Therefore, in step S102, the voice recognition unit 101A determines whether or not a voice input is received from the microphone 82. If the voice recognition unit 101A determines that a voice input is received from the microphone 82, the process proceeds to step S103. On the other hand, a speech recognition process is executed, and the recognized speech recognition result is output to the action determination mechanism unit 103 and, if necessary, the model storage unit 102, and the process proceeds to step S104.
[0134]
In step S104, the behavior determination mechanism unit 103 determines whether or not the speech recognition unit 101A has recognized the speech “Yes” based on the speech recognition result supplied from the speech recognition unit 101A, and the speech recognition unit 101A. If it is determined that the voice “Yes” is recognized, the process proceeds to step S 105, where the advertisement information management unit 105 is controlled to execute the purchase process of the movie ticket corresponding to the advertisement information 121.
[0135]
Specifically, upon receiving a movie ticket purchase processing instruction of the advertisement information 121 from the behavior determination mechanism unit 103, the advertisement information management unit 105 controls the communication unit 76 and describes the purchase information in the advertisement information 121. The serial number of the movie being recorded and the user purchase ID of the personal information 122 are transmitted to the advertisement information providing server 3 via the network 2. In response to this, the advertisement information providing server 3 refers to the user management database 231, executes ticket purchase processing such as billing processing related to ticket purchase, and sends notification of ticket purchase completion via the network 2 to the robot. 1 to send.
[0136]
When the advertisement information management unit 105 receives a notification such as ticket purchase completion via the network 2 and the communication unit 76, the advertisement information management unit 105 notifies the behavior determination mechanism unit 103. Upon receiving a notification of the completion of ticket purchase from the advertisement information management unit 105, the behavior determination mechanism unit 103 controls the speech synthesis unit 108 in step S106, for example, “Ticket has been purchased. "Please go to", a voice notifying completion of ticket purchase is synthesized and output from the speaker 72, that is, uttered, the advertisement target purchase processing is terminated, and the process returns to step S43 in FIG.
[0137]
On the other hand, if it is determined in step S102 that the voice input from the microphone 82 has not been received, the advertisement information management unit 105 skips the processes in steps S103 to S105, ends the advertisement target purchase process, Returning to step S43 of FIG. If it is determined in step S104 that the voice recognition unit 101A does not recognize the voice “Yes”, the advertisement information management unit 105 skips the processes in steps S105 and S106 and performs the purchase processing for the target of the advertisement. Is finished, and the process returns to step S43 in FIG.
[0138]
As described above, after the robot 1 performs the advertising operation and the advertising utterance, it is possible to promptly purchase the target of the advertisement, and thus the user's willingness to purchase can be promoted.
[0139]
Next, the detailed information acquisition processing in step S44 in FIG. 16 will be described with reference to the flowchart in FIG. In this case, the detailed information of the advertisement information 121 stores information that the advertisement information providing server 3 has detailed movie information and speech information for prompting acquisition of detailed movie information.
[0140]
In step S121, the action determination mechanism unit 103 refers to the detailed information of the advertisement information 121 and controls the voice synthesis unit 108 to synthesize a voice saying, “Do you want detailed information about this movie?” And output from the speaker 72, that is, utterance, and proceed to step S122. The user responds in response to the utterance of the robot 1 "Do you want detailed information about this movie?"
[0141]
Therefore, in step S122, the voice recognition unit 101A determines whether or not a voice input is received from the microphone 82. If the voice recognition unit 101A determines that a voice input is received from the microphone 82, the process proceeds to step S123. On the other hand, a speech recognition process is executed, and the recognized speech recognition result is output to the action determination mechanism unit 103 and, if necessary, the model storage unit 102, and the process proceeds to step S124.
[0142]
In step S124, the behavior determination mechanism unit 103 determines whether or not the speech recognition unit 101A has recognized the speech “Yes” based on the speech recognition result supplied from the speech recognition unit 101A, and the speech recognition unit 101A. If it is determined that the voice “Yes” has been recognized, the process proceeds to step S125, the advertising information management unit 105 is controlled to request the detailed information of the movie corresponding to the advertising information 121, and the detailed information acquisition process is terminated. Returning to step S45 of FIG.
[0143]
Specifically, upon receiving an instruction for requesting detailed movie information of the advertisement information 121 from the action determination mechanism unit 103 from the action determination mechanism unit 103, the advertisement information management unit 105 controls the communication unit 76 to obtain purchase information of the advertisement information 121. The serial number of the movie described and the mail address of the personal information 122 and the like are sent to the advertisement information providing server 3 via the network 2. In response to this, the advertisement information providing server 3 transmits the detailed information of the requested movie to the mail address of the user of the robot 1. Thereby, the user can acquire the detailed information of a movie immediately by confirming the mail addressed to himself / herself. In this case, the detailed information is transmitted by e-mail. However, the detailed information may be transmitted directly from the advertisement information providing server 3 to the robot 1 so that the robot 1 speaks the transmitted detailed information. .
[0144]
On the other hand, if it is determined in step S122 that no sound is received from the microphone 82, the advertisement information management unit 105 skips the processes in steps S123 to S125, ends the detailed information acquisition process, and FIG. Return to step S45. When it is determined in step S124 that the voice recognition unit 101A does not recognize the voice “Yes”, the advertisement information management unit 105 skips the process of step S125 and ends the detailed information acquisition process. Return to step S45 of FIG.
[0145]
As described above, after the robot 1 performs the advertising operation and the advertising utterance, the detailed information of the advertising target can be acquired immediately, and thus the user's interest in the advertising target can be promoted. .
[0146]
Next, the feedback process in step S46 of FIG. 16 will be described with reference to the flowchart of FIG. In this case, the feedback acquisition information of the advertisement information 121 stores speech information for acquiring movie feedback information from the user.
[0147]
In step S141, the action determination mechanism unit 103 refers to the feedback acquisition information of the advertisement information 121, controls the speech synthesis unit 108, and synthesizes, for example, a voice saying “Do you like this advertisement?” The output from the speaker 72, that is, the speech is made, and the process proceeds to step S142. The user responds in response to the utterance of the robot 1 “Do you like this advertisement?”.
[0148]
Therefore, in step S142, the voice recognition unit 101A determines whether or not a voice input is received from the microphone 82. If the voice recognition unit 101A determines that a voice input is received from the microphone 82, the process proceeds to step S143. On the other hand, a speech recognition process is executed, and the recognized speech recognition result is output to the action determination mechanism unit 103 and, if necessary, the model storage unit 102, and the process proceeds to step S144.
[0149]
In step S144, the behavior determination mechanism unit 103 determines whether or not the voice recognition unit 101A has recognized the voice “Yes” or “No” based on the voice recognition result supplied from the voice recognition unit 101A. If the voice recognition unit 101A determines that the voice “Yes” or “No” has been recognized, the process proceeds to step S145, where the advertisement information management unit 105 is controlled and the advertisement operation of the advertisement information 121 based on the voice recognition result is performed. Feedback information (information that the user of the robot 1 likes or dislikes the advertisement operation of the advertisement information 121) is transmitted to the advertisement information providing server 3, the feedback processing is terminated, and the process returns to step S47 in FIG. .
[0150]
Specifically, when receiving the feedback information transmission processing instruction from the action determination mechanism unit 103, the advertisement information management unit 105 controls the communication unit 76 to provide feedback information (the user of the robot 1) based on the voice recognition result. Is sent to the advertisement information providing server 3 via the network 2 (the information that the user likes or dislikes the advertisement operation of the advertisement information 121). The advertisement information providing server 3 receives the feedback information from the robot 1 and provides the received feedback information to the advertisement requester who has registered the advertisement of the advertisement information 121. Thereby, the advertisement requester can acquire a user's reaction to the advertisement, and can create an advertisement with a good user response. In this case, the user's reaction to the advertisement itself is used as feedback information. However, the user's reaction regarding an advertisement target (for example, a movie or a drink) may be acquired as feedback information.
[0151]
On the other hand, when it is determined in step S142 that no sound is input from the microphone 82, the advertisement information management unit 105 skips the processes in steps S143 to S145, ends the detailed information acquisition process, and FIG. Return to step S47. If it is determined in step S124 that the voice recognition unit 101A does not recognize the voice “Yes” or “No”, the advertisement information management unit 105 skips the process in step S145 and performs the detailed information acquisition process. The process ends, and the process returns to step S47 in FIG.
[0152]
As described above, immediately after the robot 1 performs the advertising operation and the advertising utterance, the user's reaction to the advertisement or the target of the advertisement is acquired as feedback information, and the user's reaction to the advertisement is reflected. Therefore, it is possible to improve the quality of the advertisement, improve the quality of the advertising target itself, and promote sales.
[0153]
Next, the user's reaction confirmation process in step S48 in FIG. 16 will be described with reference to the flowchart in FIG. In this case, the conversation information 123 related to the advertisement operation stores utterance information for acquiring the user's preference.
[0154]
In step S161, the behavior determination mechanism unit 103 refers to the conversation information 123 regarding the advertisement operation and controls the speech synthesizer 108 to say, for example, “Do you want advertising information corresponding to movies in the future?” The speech is synthesized and output from the speaker 72, that is, the speech is made, and the process proceeds to step S162. The user responds in response to the utterance of the robot 1 "Do you want advertisement information corresponding to movies in the future?"
[0155]
Therefore, in step S162, the voice recognition unit 101A determines whether or not a voice input is received from the microphone 82. If the voice recognition unit 101A determines that a voice input is received from the microphone 82, the process proceeds to step S163. On the other hand, a speech recognition process is executed, and the recognized speech recognition result is output to the action determination mechanism unit 103 and, if necessary, the model storage unit 102, and the process proceeds to step S164.
[0156]
In step S164, the behavior determination mechanism unit 103 determines whether the speech recognition unit 101A has recognized the speech “Yes” or “No” based on the speech recognition result supplied from the speech recognition unit 101A. If the voice recognition unit 101A determines that the voice “Yes” or “No” has been recognized, the process proceeds to step S165, where the advertisement information management unit 105 is controlled, and the result of the voice recognition is determined based on the user preference of the user information 121. And the reaction confirmation process is terminated, and the process returns to step S6 in FIG.
[0157]
Specifically, when the voice recognition result received from the action determination mechanism unit 103 is “Yes”, the advertisement information management unit 105 stores that the user preference of the user information 121 likes a movie. . On the other hand, when the result of the voice recognition received from the behavior determination mechanism unit 103 is “No”, the advertisement information management unit 105 indicates that the user preference of the user information 121 does not like (dislikes) a movie. Remember. Thus, since the user information is updated, the advertisement information corresponding to the user's interest can always be acquired from the advertisement information acquisition server 3.
[0158]
On the other hand, when it is determined in step S162 that no sound is received from the microphone 82, the advertisement information management unit 105 skips the processes of steps S163 to S165, ends the detailed information acquisition process, and FIG. Return to step S6. If it is determined in step S164 that the voice recognition unit 101A has not recognized the voice “Yes” or “No”, the advertisement information management unit 105 skips the process in step S165 and performs detailed information acquisition processing. The process ends, and the process returns to step S6 in FIG.
[0159]
As described above, since the user's reaction to the advertisement can be reflected in the user information immediately after the robot 1 performs the advertisement operation and the advertisement utterance, the advertisement in consideration of the user's reaction to the advertisement is acquired. be able to. In the example of FIG. 20, the user's reaction to the user's preference is confirmed. For example, after the robot 1 performs the advertisement operation and the advertisement utterance, the advertisement of the dialogue information 123 regarding the advertisement operation is displayed. Referring to the admissibility for the user, the user's input voice such as “I don't want to see the advertisement” is monitored, and the admissibility for the user's advertisement (how many times the ad can be shown per day) The personal information 122 may be updated after confirmation. Thereby, since the robot 1 can perform an advertising operation so that the user does not feel uncomfortable with the advertisement, the user's preference for the advertisement is increased and the effect of the advertisement is improved.
[0160]
Next, another example of the advertisement operation process in step S5 in FIG. 14 will be described with reference to the flowchart in FIG. In this case, the behavior determination mechanism unit 103 refers to the operation optimal time zone of the advertisement information 121 (in this case, 20:00 to 21:00).
[0161]
In step S181, the action determination mechanism unit 103 waits until it is determined that the predetermined time zone is set in advance based on the built-in clock. If it is determined that it is not 20:00 to 21:00), the action determination mechanism unit 103 proceeds to step S182, executes the movie advertisement operation process based on the advertisement operation information of the advertisement information 121, and proceeds to step S183. In step S183, advertisement assist operation processing is executed. In addition, since the process of step S182 and S183 performs the process similar to the process of FIG.15 S24 and S25, since the description will be repeated, it abbreviate | omits.
[0162]
As described above, the advertisement operation of the robot 1 can also be executed based on the operation optimal time zone of the advertisement information 121. In the above description, the predetermined time zone is determined based on the built-in clock, but a predetermined time may be determined.
[0163]
Next, with reference to FIG. 22, another example of the feedback process in step S46 of FIG. 16 will be described. In this case, the advertisement target of the advertisement information 121 is a soft drink, and speech information for acquiring feedback information of the soft drink is stored in the feedback acquisition information.
[0164]
In step S201, the behavior determination mechanism unit 103 refers to the feedback acquisition information of the advertisement information 121 and controls the speech synthesis unit 108, for example, “Can you answer the question about this advertisement?” Are output from the speaker 72, that is, uttered, and the process proceeds to step S202. The user responds in response to the utterance of the robot 1 "Can you answer the question about this advertisement?"
[0165]
Therefore, in step S202, the voice recognition unit 101A determines whether or not a voice input is received from the microphone 82. If the voice recognition unit 101A determines that a voice input is received from the microphone 82, the process proceeds to step S203. On the other hand, a speech recognition process is executed, and the recognized speech recognition result is output to the action determination mechanism unit 103 and, if necessary, the model storage unit 102, and the process proceeds to step S204.
[0166]
In step S204, the behavior determination mechanism unit 103 determines whether or not the speech recognition unit 101A has recognized the speech “Yes” based on the speech recognition result supplied from the speech recognition unit 101A, and the speech recognition unit 101A. When it is determined that the voice “Yes” is recognized, the process proceeds to step S205, and further, based on the feedback acquisition information of the advertisement information 121, the question dialogue process described later with reference to FIG. Then, the process returns to step S47 of FIG.
[0167]
On the other hand, when it is determined in step S202 that no sound is input from the microphone 82, the advertisement information management unit 105 skips the processes in steps S203 to S205, ends the feedback process, and performs the steps in FIG. Return to S47. If it is determined in step S204 that the voice recognition unit 101A does not recognize the voice “Yes”, the advertisement information management unit 105 skips the process in step S205 and ends the food back process. Returning to step S47 of FIG.
[0168]
Next, the question dialogue processing in step S205 in FIG. 22 will be described with reference to the flowchart in FIG.
[0169]
In step S221, the behavior determination mechanism unit 103 refers to the feedback acquisition information of the advertisement information 121 and controls the speech synthesizer 108 to, for example, say “Have you ever drank this soft drink?” Are output from the speaker 72, that is, uttered, and the process proceeds to step S222. The user responds in response to the utterance of the robot 1 "Have you ever drank this soft drink?"
[0170]
Therefore, in step S222, the voice recognition unit 101A determines whether or not a voice input is received from the microphone 82. If the voice recognition unit 101A determines that a voice input is received from the microphone 82, the process proceeds to step S223. On the other hand, a speech recognition process is executed, and the recognized speech recognition result is output to the action determination mechanism unit 103 and, if necessary, the model storage unit 102, and the process proceeds to step S224.
[0171]
In step S224, the behavior determination mechanism unit 103 determines whether or not the speech recognition unit 101A has recognized the speech “Yes” based on the speech recognition result supplied from the speech recognition unit 101A, and the speech recognition unit 101A. If it is determined that the voice “Yes” has been recognized, the process proceeds to step S225, the feedback synthesis information of the advertisement information 121 is referred to, and the voice synthesizer 108 is controlled, for example, “Drink this soft drink. "Sound?" Is synthesized and output from the speaker 72, that is, uttered, and the process proceeds to step S227. The user responds in response to the utterance of the robot 1 "Have you ever drank this soft drink?"
[0172]
On the other hand, if it is determined in step S224 that the speech recognition unit 101A has not recognized the speech “Yes”, the process proceeds to step S225, and the speech synthesis unit 108 is controlled with reference to the feedback acquisition information of the advertisement information 121. Thus, for example, a voice of “Do you like this kind of drink?” Is synthesized and output from the speaker 72, that is, uttered, and the process proceeds to step S227. The user responds in response to the utterance of the robot 1 "Do you like this kind of drink?"
[0173]
In step S227, the voice recognition unit 101A determines whether or not a voice input is received from the microphone 82. If the voice recognition unit 101A determines that a voice input is received from the microphone 82, the process proceeds to step S228. Then, the speech recognition process is executed, and the recognized speech recognition result is output to the action determination mechanism unit 103 and, if necessary, to the model storage unit 102, and the process proceeds to step S229. If it is determined in step S227 that no sound has been input from the microphone 82, the process of step S228 is skipped, and the process proceeds to step S229.
[0174]
In step S229, the behavior determination mechanism unit 103 controls the advertisement information management unit 105 to cause the advertisement information providing server 3 to transmit all the results of the voice recognition processing in steps S223 and S228 as feedback information of the advertisement information 121, The feedback process is terminated, and the process returns to step S47 in FIG.
[0175]
Specifically, when receiving the feedback information transmission processing instruction from the action determination mechanism unit 103, the advertisement information management unit 105 controls the communication unit 76 to provide the feedback information via the network 2. The server 3 is transmitted. The advertisement information providing server 3 receives the feedback information from the robot 1 and provides the received feedback information to the advertisement requester who has registered the advertisement of the advertisement information 121. Thereby, the advertisement requester can acquire a user's reaction to the advertisement, and can create an advertisement with a good user response.
[0176]
On the other hand, when it is determined in step S222 that no sound is received from the microphone 82, the advertisement information management unit 105 skips the processes of steps S223 to S229, ends the feedback process, and performs the process of FIG. Return to S47.
[0177]
As described above, after causing the robot 1 to perform an advertising operation and an advertising utterance, immediately after the advertising itself or a plurality of questions (utterances) to the advertising target, the user's reaction to that is acquired as feedback information. Therefore, the user's reaction to the advertisement itself or the advertisement target can be reflected in the advertisement itself or the advertisement target.
[0178]
As described above, only the advertising information according to the user's preference is acquired, and the advertising operation is performed in consideration of the user's condition, so that the advertising effect is improved and the user feels uncomfortable by the advertising. Can be suppressed.
[0179]
Further, since the robot 1 is allowed to execute not only the advertising operation and the advertising utterance but also the advertising target purchase processing, detailed information acquisition processing, or feedback information acquisition processing as the advertising auxiliary operation, the advertising target sales promotion is performed. And the quality of the advertisement itself or the target of the advertisement can be improved.
[0180]
Furthermore, since the user's opinion on the advertisement is acquired and the personal information of the robot 1 is updated, the advertisement operation of the robot 1 can be further adapted to the user.
[0181]
The series of processes described above can also be executed by software. The software is a computer in which the program constituting the software is incorporated in dedicated hardware, or various functions can be executed by installing various programs, for example, a general-purpose personal computer For example, it is installed from a recording medium.
[0182]
As shown in FIG. 24, this recording medium is distributed to provide a program to the user separately from the computer, and includes a magnetic disk 331 (including a flexible disk) on which the program is recorded, an optical disk 332 (CD- ROM (Compact Disk-Read Only Memory), DVD (including Digital Versatile Disk)), magneto-optical disk 333 (including MD (Mini-Disk) (trademark)), or a package medium composed of semiconductor memory 334, etc. Is done.
[0183]
For example, a robot 1 control processing program for causing a personal computer 301 to execute an operation as a robot 1 control device to which the present invention is applied is a magnetic disk 331 (including a floppy disk), an optical disk 332 (CD-ROM (Compact Disc-Read). (Only memory), DVD (including digital versatile disc), magneto-optical disc 333 (including MD (mini disc)), or semiconductor memory 334 and supplied to personal computer 301 and read by drive 320 And installed in a hard disk drive built in the storage unit 318. The voice processing program installed in the storage unit 318 is loaded from the storage unit 318 to the RAM 313 and executed in accordance with a command from the CPU 311 corresponding to a command from the user input to the input unit 317.
[0184]
Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
[0185]
In the present specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
[0186]
【The invention's effect】
As described above, according to the present invention, it is possible to improve the user's preference for an advertisement and improve the effect of the advertisement. Further, according to the present invention, it is possible to promote sales of advertisement targets.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration example of an information providing system to which the present invention is applied.
FIG. 2 is a perspective view showing an external configuration of the robot shown in FIG.
3 is a rear perspective view showing an external configuration of the robot of FIG. 1. FIG.
FIG. 4 is a schematic diagram for explaining the robot of FIG. 1;
FIG. 5 is a block diagram showing an internal configuration of the robot shown in FIG. 1;
6 is a block diagram for mainly explaining a portion related to control of the robot of FIG. 1; FIG.
7 is a block diagram showing a configuration of a main control unit in FIG. 6. FIG.
8 is a block diagram illustrating a configuration of an advertising user information storage unit in FIG. 7;
FIG. 9 is a diagram illustrating the advertisement information of FIG.
FIG. 10 is a diagram for explaining personal information in FIG. 8;
FIG. 11 is a diagram for explaining dialogue information regarding the advertisement operation of FIG. 8;
12 is a block diagram illustrating a configuration example of an advertisement information providing server in FIG. 1. FIG.
13 is a block diagram illustrating a configuration example of a storage unit in FIG. 12. FIG.
14 is a flowchart for explaining advertisement information acquisition processing of the robot of FIG. 1;
FIG. 15 is a flowchart for explaining the advertisement operation processing in step S5 of FIG.
FIG. 16 is a flowchart illustrating the advertisement assisting operation process in step S25 of FIG.
FIG. 17 is a flowchart for explaining the advertising target purchase process in step S42 of FIG. 16;
FIG. 18 is a flowchart illustrating detailed information acquisition processing in step S44 of FIG.
FIG. 19 is a flowchart illustrating feedback processing in step S46 of FIG.
FIG. 20 is a flowchart illustrating the reaction confirmation process in step S48 of FIG.
FIG. 21 is a flowchart illustrating another example of the advertisement operation process in step S5 of FIG.
FIG. 22 is a flowchart illustrating another example of the feedback process in step S46 of FIG.
FIG. 23 is a flowchart illustrating the question dialogue process in step S205 of FIG.
FIG. 24 is a block diagram illustrating a configuration of a computer to which the present invention is applied.
[Explanation of symbols]
1-1, 1-2 Robot, 2 Network, 3 Advertisement information providing server, 61 Main control unit, 63 Sub control unit, 72 Speaker, 76 Communication unit, 82 Microphone, 101 Sensor input processing unit, 101A Voice recognition unit, 103 Action decision mechanism section, 104 table storage section, 105 advertisement information management section, 106 advertisement user information storage section, 107 attitude transition mechanism section, 108 speech synthesis section, 121 advertisement information, 122 personal information, 123 dialogue information regarding advertisement operation, 218 Storage unit, 232 Advertising information DB

Claims (9)

ロボットの動作を制御するロボット制御装置において、
ユーザの嗜好、ユーザに対して広告動作を実行するのに適した単位時間における回数、および、ユーザの許容性を取得するための補助動作情報が少なくとも含まれるユーザ情報を記憶するユーザ情報記憶手段と、
前記ロボットに広告動作を実行させるための、少なくともキーワードおよび広告動作情報を含む動作情報の中から、前記ユーザ情報記憶手段に記憶されている前記ユーザ情報の前記ユーザの嗜好に対応する前記動作情報を選択し、ネットワークを介して情報提供装置から取得する取得手段と、
連続する入力音声を認識する音声認識手段と、
前記音声認識手段により認識された前記入力音声と、前記取得手段により取得された前記動作情報に含まれる前記キーワードとが一致した場合に、前記ロボットが前記広告動作をした単位時間における回数が、前記ユーザ情報の前記回数未満であるとき、前記取得手段により取得された前記動作情報に含まれる前記広告動作情報に基づいて、前記ロボットが広告動作を実行するように制御する広告動作制御手段と
前記ロボットが前記広告動作を実行した後、前記ロボットが、前記ユーザ情報の前記補助動作情報に基づく動作をするように制御する補助動作制御手段と、
前記補助動作制御手段により制御された前記ロボットの動作に基づいて入力される入力音声に応じて、前記ユーザ情報記憶手段に記憶されている前記ユーザ情報の前記回数を更新する更新手段と
を備えるロボット制御装置。
In the robot control device that controls the operation of the robot,
User information storage means for storing user information including at least user preference, the number of times per unit time suitable for executing an advertisement operation for the user, and auxiliary operation information for obtaining the user's tolerance; ,
The operation information corresponding to the user preference of the user information stored in the user information storage means is selected from operation information including at least a keyword and advertisement operation information for causing the robot to execute an advertisement operation. Obtaining means for selecting and obtaining from the information providing apparatus via the network;
Speech recognition means for recognizing continuous input speech;
When the input voice recognized by the voice recognition unit matches the keyword included in the motion information acquired by the acquisition unit, the number of times that the robot has performed the advertising motion in the unit time is An advertising motion control means for controlling the robot to execute an advertising motion based on the advertising motion information included in the motion information acquired by the acquiring means when the number of user information is less than the number of times ;
Auxiliary operation control means for controlling the robot to perform an operation based on the auxiliary operation information of the user information after the robot has executed the advertisement operation;
A robot comprising: update means for updating the number of times of the user information stored in the user information storage means in response to an input voice input based on the movement of the robot controlled by the auxiliary action control means. Control device.
前記動作情報には、動作時間帯が含まれており、
現在時刻が前記動作時間帯であるか否かを判断する時刻判断手段をさらに備え、
前記時刻判断手段により前記現在時刻が前記動作時間帯であると判断された場合にも、前記ロボットが前記広告動作をした単位時間における回数が、前記ユーザ情報の前記回数未満であるとき、前記広告動作手段は、前記ロボットが前記広告動作を実行するように制御する
請求項1に記載のロボット制御装置。
The operation information includes an operation time zone,
It further comprises time determination means for determining whether or not the current time is the operating time zone,
Even when it is determined by the time determination means that the current time is in the operation time zone, when the number of times the robot has performed the advertisement operation in the unit time is less than the number of times of the user information, the advertisement The robot control apparatus according to claim 1, wherein the operation unit controls the robot to execute the advertisement operation.
前記ロボットが広告動作として運動するように、前記ロボットを駆動する駆動手段と、
前記ロボットが前記広告動作として広告発話するように、音声を合成し、出力する音声出力手段と
をさらに備える請求項1に記載のロボット制御装置。
Drive means for driving the robot such that the robot moves as an advertising motion;
The robot control device according to claim 1, further comprising voice output means for synthesizing and outputting voice so that the robot speaks an advertisement as the advertisement operation.
前記動作情報には、前記広告動作の対象の購入に関する情報が含まれており、
前記ロボットが前記広告動作を実行した後、前記購入に関する情報に基づいて、前記広告動作の対象が購入可能であるか否かを判断する購入判断手段と、
前記購入判断手段により前記広告動作の対象が購入可能であると判断された場合、前記ロボットが、前記購入に関する情報に含まれる購入を促すための動作情報に基づく動作をするように制御する購入動作制御手段と、
前記購入動作制御手段により制御された前記ロボットの動作に基づいて入力される入力音声に応じて、前記ネットワークを介して前記情報提供装置に、前記対象の購入を要求する要求手段と
をさらに備える請求項1に記載のロボット制御装置。
The operation information includes information related to the purchase of the advertising operation target,
Purchase determination means for determining whether or not a target of the advertisement operation can be purchased based on information on the purchase after the robot performs the advertisement operation;
A purchase operation for controlling the robot to perform an operation based on operation information for prompting purchase included in the purchase-related information when the purchase determination means determines that the target of the advertisement operation is available for purchase. Control means;
Requesting means for requesting the information providing apparatus to purchase the target via the network in response to an input voice input based on an operation of the robot controlled by the purchase operation control means. Item 2. The robot control device according to Item 1.
前記動作情報には、前記広告動作の対象の詳細情報に関する情報が含まれており、
前記ロボットが前記広告動作を実行した後、前記詳細情報に関する情報に基づいて、前記情報提供装置に前記広告動作の対象の詳細情報があるか否かを判断する詳細情報判断手段と、
前記詳細情報判断手段により前記情報提供装置に前記広告動作の前記対象の詳細情報があると判断された場合、前記ロボットが、前記詳細情報に関する情報に含まれる詳細情報取得を促すための動作情報に基づく動作をするように制御する詳細情報動作制御手段と、
前記詳細情報動作制御手段により制御された前記ロボットの動作に基づいて入力される入力音声に応じて、前記ネットワークを介して前記情報提供装置に、前記対象の詳細情報を要求する要求手段と
をさらに備える請求項1に記載のロボット制御装置。
The operation information includes information related to detailed information about the advertisement operation target,
Detailed information determining means for determining whether or not there is detailed information on the target of the advertising action in the information providing device based on information on the detailed information after the robot performs the advertising action;
When it is determined by the detailed information determination means that the information providing apparatus has the detailed information of the target of the advertisement operation, the robot includes operation information for prompting acquisition of detailed information included in the information related to the detailed information. Detailed information operation control means for controlling to perform an operation based on;
Requesting means for requesting detailed information of the object to the information providing apparatus via the network in response to an input voice input based on the movement of the robot controlled by the detailed information operation control means. The robot control device according to claim 1, further comprising:
前記動作情報には、前記広告動作または前記広告動作の対象のフィードバックに関する情報が含まれており、
前記ロボットが前記広告動作を実行した後、前記フィードバックに関する情報に基づいて、前記広告動作に対するユーザの音声入力を前記情報提供装置に送信するか否かを判断する送信判断手段と、
前記送信判断手段により前記ユーザの音声入力を送信すると判断された場合、前記ロボットが、前記フィードバックに関する情報に含まれるユーザからフィードバック情報を取得するための動作情報に基づく動作をするように制御する送信動作制御手段と、
前記送信動作制御手段により制御された前記ロボットの送信動作に基づいて入力される入力音声に応じて、前記ネットワークを介して前記情報提供装置に、前記ユーザの音声入力を送信する送信手段と
をさらに備える請求項1に記載のロボット制御装置。
The operation information includes information related to feedback of the advertising operation or the target of the advertising operation,
A transmission determination means for determining whether or not to transmit a user's voice input for the advertisement operation to the information providing device based on the information about the feedback after the robot performs the advertisement operation;
Transmission for controlling the robot to perform an operation based on operation information for obtaining feedback information from the user included in the feedback-related information when it is determined by the transmission determining means to transmit the user's voice input. An operation control means;
Transmission means for transmitting the user's voice input to the information providing apparatus via the network in response to an input voice input based on the transmission operation of the robot controlled by the transmission operation control means. The robot control device according to claim 1, further comprising:
ロボットの動作を制御するロボット制御装置のロボット制御方法において、
前記ロボット制御装置が、
前記ロボットに広告動作を実行させるための、少なくともキーワードおよび広告動作情報を含む動作情報の中から、メモリに記憶されている、ユーザの嗜好、ユーザに対して広告動作を実行するのに適した単位時間における回数、および、ユーザの許容性を取得するための補助動作情報が少なくとも含まれるユーザ情報の前記ユーザの嗜好に対応する前記動作情報を選択し、ネットワークを介して情報提供装置から取得する取得ステップと、
連続する入力音声を認識する音声認識ステップと、
前記音声認識ステップの処理により認識された前記入力音声と、前記取得ステップの処理により取得された前記動作情報に含まれる前記キーワードとが一致した場合に、前記ロボットが前記広告動作をした単位時間における回数が、前記ユーザ情報の前記回数未満であるとき、前記取得ステップの処理により取得された前記動作情報に含まれる前記広告動作情報に基づいて、前記ロボットが広告動作を実行するように制御する広告動作制御ステップと
前記ロボットが前記広告動作を実行した後、前記ロボットが、前記ユーザ情報の前記補助動作情報に基づく動作をするように制御する補助動作制御ステップと、
前記補助動作制御ステップの処理により制御された前記ロボットの動作に基づいて入力される入力音声に応じて、前記メモリに記憶されている前記ユーザ情報の前記回数を更新する更新ステップと
を含むロボット制御方法。
In a robot control method of a robot control device that controls the operation of a robot ,
The robot controller is
A unit suitable for executing the advertisement operation for the user's preference and the user stored in the memory from the operation information including at least the keyword and the advertisement operation information for causing the robot to execute the advertisement operation. Acquisition that selects the operation information corresponding to the user's preference of the user information including at least the number of times in time and auxiliary operation information for acquiring the user's acceptability, and acquires the information from the information providing apparatus via the network Steps,
A speech recognition step for recognizing continuous input speech;
When the input speech recognized by the processing of the speech recognition step matches the keyword included in the motion information acquired by the processing of the acquisition step , in the unit time when the robot performs the advertising motion When the number of times is less than the number of times of the user information, an advertisement that controls the robot to execute an advertising motion based on the advertising motion information included in the motion information acquired by the processing of the acquiring step An operation control step ;
An auxiliary operation control step for controlling the robot to perform an operation based on the auxiliary operation information of the user information after the robot performs the advertisement operation;
A robot control including: an updating step of updating the number of times of the user information stored in the memory in accordance with an input voice input based on the motion of the robot controlled by the process of the auxiliary motion control step Method.
ロボットに広告動作を実行させるための、少なくともキーワードおよび広告動作情報を含む動作情報の中から、メモリに記憶されている、ユーザの嗜好、ユーザに対して広告動作を実行するのに適した単位時間における回数、および、ユーザの許容性を取得するための補助動作情報が少なくとも含まれるユーザ情報の前記ユーザの嗜好に対応する前記動作情報を選択し、ネットワークを介して情報提供装置から取得する取得ステップと、
連続する入力音声を認識する音声認識ステップと、
前記音声認識ステップの処理により認識された前記入力音声と、前記取得ステップの処理により取得された前記動作情報に含まれる前記キーワードとが一致した場合に、前記ロボットが前記広告動作をした単位時間における回数が、前記ユーザ情報の前記回数未満であるとき、前記取得ステップの処理により取得された前記動作情報に含まれる前記広告動作情報に基づいて、前記ロボットが広告動作を実行するように制御する広告動作制御ステップと
前記ロボットが前記広告動作を実行した後、前記ロボットが、前記ユーザ情報の前記補助動作情報に基づく動作をするように制御する補助動作制御ステップと、
前記補助動作制御ステップの処理により制御された前記ロボットの動作に基づいて入力される入力音声に応じて、前記メモリに記憶されている前記ユーザ情報の前記回数を更新する更新ステップと
を含む処理をコンピュータに実行させるためのプログラムが記録されている記録媒体。
A unit time suitable for executing an advertisement operation for a user, which is stored in a memory, and is stored in a memory, in order to cause the robot to execute an advertisement operation. The acquisition step of selecting the operation information corresponding to the user's preference of the user information including at least auxiliary operation information for acquiring the user's admissibility and the number of times in the information providing device via the network When,
A speech recognition step for recognizing continuous input speech;
When the input speech recognized by the processing of the speech recognition step matches the keyword included in the motion information acquired by the processing of the acquisition step , in the unit time when the robot performs the advertising motion When the number of times is less than the number of times of the user information, an advertisement that controls the robot to execute an advertising motion based on the advertising motion information included in the motion information acquired by the processing of the acquiring step An operation control step ;
An auxiliary operation control step for controlling the robot to perform an operation based on the auxiliary operation information of the user information after the robot performs the advertisement operation;
A process including an update step of updating the number of times of the user information stored in the memory in accordance with an input voice input based on the motion of the robot controlled by the process of the auxiliary motion control step. A recording medium on which a program for causing a computer to execute is recorded.
ロボットに広告動作を実行させるための、少なくともキーワードおよび広告動作情報を含む動作情報の中から、メモリに記憶されている、ユーザの嗜好、ユーザに対して広告動作を実行するのに適した単位時間における回数、および、ユーザの許容性を取得するための補助動作情報が少なくとも含まれるユーザ情報の前記ユーザの嗜好に対応する前記動作情報を選択し、ネットワークを介して情報提供装置から取得する取得ステップと、
連続する入力音声を認識する音声認識ステップと、
前記音声認識ステップの処理により認識された前記入力音声と、前記取得ステップの処理により取得された前記動作情報に含まれる前記キーワードとが一致した場合に、前記ロボットが前記広告動作をした単位時間における回数が、前記ユーザ情報の前記回数未満であるとき、前記取得ステップの処理により取得された前記動作情報に含まれる前記広告動作情報に基づいて、前記ロボットが広告動作を実行するように制御する広告動作制御ステップと
前記ロボットが前記広告動作を実行した後、前記ロボットが、前記ユーザ情報の前記補助動作情報に基づく動作をするように制御する補助動作制御ステップと、
前記補助動作制御ステップの処理により制御された前記ロボットの動作に基づいて入力される入力音声に応じて、前記メモリに記憶されている前記ユーザ情報の前記回数を更新する更新ステップと
を含む処理をコンピュータに実行させるためのプログラム。
A unit time suitable for executing an advertisement operation for a user, which is stored in a memory, and is stored in a memory, in order to cause the robot to execute an advertisement operation. The acquisition step of selecting the operation information corresponding to the user's preference of the user information including at least auxiliary operation information for acquiring the user's admissibility and the number of times in the information providing device via the network When,
A speech recognition step for recognizing continuous input speech;
When the input speech recognized by the processing of the speech recognition step matches the keyword included in the motion information acquired by the processing of the acquisition step , in the unit time when the robot performs the advertising motion When the number of times is less than the number of times of the user information, an advertisement that controls the robot to execute an advertising motion based on the advertising motion information included in the motion information acquired by the processing of the acquiring step An operation control step ;
An auxiliary operation control step for controlling the robot to perform an operation based on the auxiliary operation information of the user information after the robot performs the advertisement operation;
A process including an update step of updating the number of times of the user information stored in the memory in accordance with an input voice input based on the motion of the robot controlled by the process of the auxiliary motion control step. A program that causes a computer to execute.
JP2003097647A 2003-04-01 2003-04-01 Robot control apparatus and method, recording medium, and program Expired - Fee Related JP4534427B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003097647A JP4534427B2 (en) 2003-04-01 2003-04-01 Robot control apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003097647A JP4534427B2 (en) 2003-04-01 2003-04-01 Robot control apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2004302328A JP2004302328A (en) 2004-10-28
JP4534427B2 true JP4534427B2 (en) 2010-09-01

Family

ID=33409378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003097647A Expired - Fee Related JP4534427B2 (en) 2003-04-01 2003-04-01 Robot control apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4534427B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210023704A1 (en) * 2018-04-10 2021-01-28 Sony Corporation Information processing apparatus, information processing method, and robot apparatus

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219175A (en) * 2006-02-16 2007-08-30 Univ Waseda Recognizer constructing system, recognizer constructing method, assembly service providing system and program
JP4715655B2 (en) * 2006-07-04 2011-07-06 富士通株式会社 Information presentation system, information presentation device, information presentation method, and information presentation program using environmental information
KR101385316B1 (en) * 2012-04-03 2014-04-30 주식회사 로보플래닛 System and method for providing conversation service connected with advertisements and contents using robot
JP2018008316A (en) * 2014-11-21 2018-01-18 ヴイストン株式会社 Learning type robot, learning type robot system, and program for learning type robot
JP6440483B2 (en) * 2014-12-17 2018-12-19 シャープ株式会社 COMMUNICATION SYSTEM, SERVER DEVICE, ROBOT, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6242359B2 (en) * 2015-03-19 2017-12-06 ヤフー株式会社 Information processing apparatus and method
JP6159357B2 (en) * 2015-03-19 2017-07-05 ヤフー株式会社 Information processing apparatus and method
JP2017042883A (en) * 2015-08-27 2017-03-02 シャープ株式会社 Robot, robot selling system, robot control method, and program
JP6781545B2 (en) * 2015-12-28 2020-11-04 ヴイストン株式会社 robot
SG10201600561YA (en) * 2016-01-25 2017-08-30 Mastercard Asia Pacific Pte Ltd A Method For Facilitating A Transaction Using A Humanoid Robot
JP6888342B2 (en) 2017-03-14 2021-06-16 富士フイルムビジネスイノベーション株式会社 Information providing device and information providing system
JP6243564B1 (en) * 2017-03-17 2017-12-06 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP2019049785A (en) * 2017-09-08 2019-03-28 株式会社日立ビルシステム Robot management system and commodity proposing method
JP6788620B2 (en) * 2018-01-22 2020-11-25 ヤフー株式会社 Information processing systems, information processing methods, and programs
JP2020134553A (en) * 2019-02-13 2020-08-31 シャープ株式会社 Electronic apparatus, controller, control method and control program
JP7453513B2 (en) * 2020-01-23 2024-03-21 株式会社Mixi Information processing device and program
WO2023153221A1 (en) * 2022-02-10 2023-08-17 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001162054A (en) * 1999-09-30 2001-06-19 Microhouse:Kk Toy and toy system
JP2001188785A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001188787A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001188784A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001188786A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001229207A (en) * 2000-02-15 2001-08-24 Sony Corp Information collecting system and information providing system
JP2002149394A (en) * 2000-11-14 2002-05-24 Tomy Co Ltd Toy set, toy, storage medium, server device and toy device
JP2002268581A (en) * 2001-03-09 2002-09-20 Matsushita Electric Ind Co Ltd Electronic equipment and remodeling service system therefor
JP2002288527A (en) * 2001-03-26 2002-10-04 Casio Comput Co Ltd Advertising terminal, advertising terminal processing program, advertisement management device, advertisement management method and advertisement management processing program
JP2002304507A (en) * 2001-04-05 2002-10-18 Sony Corp Advertisement/questionnaire circulation system and its method
JP2002328933A (en) * 2001-05-01 2002-11-15 Sharp Corp Apparatus and method for presenting information
JP2004017200A (en) * 2002-06-14 2004-01-22 Mitsubishi Heavy Ind Ltd Information service robot system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0832538A (en) * 1994-07-21 1996-02-02 Sony Corp Data serving system

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001162054A (en) * 1999-09-30 2001-06-19 Microhouse:Kk Toy and toy system
JP2001188785A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001188787A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001188784A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001188786A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for processing conversation and recording medium
JP2001229207A (en) * 2000-02-15 2001-08-24 Sony Corp Information collecting system and information providing system
JP2002149394A (en) * 2000-11-14 2002-05-24 Tomy Co Ltd Toy set, toy, storage medium, server device and toy device
JP2002268581A (en) * 2001-03-09 2002-09-20 Matsushita Electric Ind Co Ltd Electronic equipment and remodeling service system therefor
JP2002288527A (en) * 2001-03-26 2002-10-04 Casio Comput Co Ltd Advertising terminal, advertising terminal processing program, advertisement management device, advertisement management method and advertisement management processing program
JP2002304507A (en) * 2001-04-05 2002-10-18 Sony Corp Advertisement/questionnaire circulation system and its method
JP2002328933A (en) * 2001-05-01 2002-11-15 Sharp Corp Apparatus and method for presenting information
JP2004017200A (en) * 2002-06-14 2004-01-22 Mitsubishi Heavy Ind Ltd Information service robot system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210023704A1 (en) * 2018-04-10 2021-01-28 Sony Corporation Information processing apparatus, information processing method, and robot apparatus

Also Published As

Publication number Publication date
JP2004302328A (en) 2004-10-28

Similar Documents

Publication Publication Date Title
JP4534427B2 (en) Robot control apparatus and method, recording medium, and program
US11024294B2 (en) System and method for dialogue management
US20190206402A1 (en) System and Method for Artificial Intelligence Driven Automated Companion
US11003860B2 (en) System and method for learning preferences in dialogue personalization
US11455986B2 (en) System and method for conversational agent via adaptive caching of dialogue tree
JP2019179243A (en) Voice response device
US20190202063A1 (en) System and method for selective animatronic peripheral response for human machine dialogue
CN112262024B (en) System and method for dynamic robot configuration for enhanced digital experience
US20190251966A1 (en) System and method for prediction based preemptive generation of dialogue content
US20190251716A1 (en) System and method for visual scene construction based on user communication
US20190248019A1 (en) System and method for dynamic robot profile configurations based on user interactions
WO2019198310A1 (en) Information processing device, information processing method, and robot device
WO2019133680A1 (en) System and method for detecting physical proximity between devices
US11331807B2 (en) System and method for dynamic program configuration
JP3930389B2 (en) Motion program generation device and robot during robot utterance
JP2004017200A (en) Information service robot system
JP2019040516A (en) Robot for the deceased possession
JP2004045591A (en) Method for recognizing voice and method for providing specific speaker&#39;s voice dictionary
JP2004046400A (en) Speaking method of robot
JP2002139989A (en) Participatory polylogue system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100525

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100607

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130625

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees