JP3891020B2 - ロボット装置 - Google Patents

ロボット装置 Download PDF

Info

Publication number
JP3891020B2
JP3891020B2 JP2002088966A JP2002088966A JP3891020B2 JP 3891020 B2 JP3891020 B2 JP 3891020B2 JP 2002088966 A JP2002088966 A JP 2002088966A JP 2002088966 A JP2002088966 A JP 2002088966A JP 3891020 B2 JP3891020 B2 JP 3891020B2
Authority
JP
Japan
Prior art keywords
user
robot apparatus
function
robot
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002088966A
Other languages
English (en)
Other versions
JP2003285286A (ja
Inventor
信行 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002088966A priority Critical patent/JP3891020B2/ja
Publication of JP2003285286A publication Critical patent/JP2003285286A/ja
Application granted granted Critical
Publication of JP3891020B2 publication Critical patent/JP3891020B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はロボット装置に関し、特にユーザーのロボット装置の使用経験に応じて成長するロボット装置に関する。
【0002】
【従来の技術】
従来、この種のロボット装置は、例えば、家庭内で用いられ、ユーザーの関わり度合いに応じて模擬的に変化や成長をし、ユーザーにこの変化や成長を感じさせて愛着を抱かせるために用いられている。
【0003】
従来のロボット装置の一例を図8、図9を用いて説明する。
【0004】
従来のロボット装置の外観は、図8に示すように、頭部ユニット204、胴体ユニット及び車輪部ユニット205により構成する。
【0005】
頭部ユニット204は、頭ボタン100と、音声認識用マイク101と、二つのCCDカメラ102と、複数のLED103とを有し、頭部ユニット204を上下左右に回転するための首108により胴体ユニットと接続している。
【0006】
胴体ユニットは、音源方向検出用マイク104と、スピーカー105と、超音波センサ106と、電源スイッチ110とを備えている。
【0007】
車輪部ユニット205は、近接センサ107と、車輪109とを備えている。
【0008】
頭ボタン100は、電気スイッチであり、スイッチがオンかオフかの状態を検出することができ、更に、頭ボタン100を押されている時間によって、異なる入力として扱うことが出来るようになっている。
【0009】
音声認識用マイク101は、指向性マイクであって、ロボットの顔面に正対してユーザーが話し掛けたときに指向特性が最大になるような音声認識に適したマイクとなっている。
【0010】
二つのCCDカメラ102は、両カメラ間の距離や二つのカメラの向いている軸を揃える等の予め校正された状態で組み込まれたステレオカメラになっており、首108を下方向に向けて、床面の障害物検出のための入力用として使用されることと、首108を上方に向けて人物の検出や人物の同定のための入力用として使用されることとに使用される。
【0011】
複数のLED103は、目、耳、口、頬に相当する部分にそれぞれ埋め込まれており、ロボットの感情表現として役割と、音の検知や人物検出といったロボットのセンシングの状態をユーザーに知らせる役割とを持つ。
【0012】
音源方向検出用マイク104は、襟の部分の左右と正面に計3つのマイクが取り付けられており、到達する音の時間差を計測処理して、音源の方向を推定するために使用される。
【0013】
スピーカー105は、合成音声や収録音声や効果音や音楽などを出力する。
【0014】
超音波センサ106は、近距離(例えば、50cm程度まで)にある物体までの距離計測用のセンサと中距離(例えば、120cm程度まで)にある物体までの距離計測用のセンサとがあり、近距離用のセンサはロボット下部の前方と後方に取り付けられ、中距離用のセンサはロボット中央部正面に取り付けられている。この超音波センサ106は、CCDカメラ102を用いた障害物検出と併用され、ロボットの移動の際に障害物を検出して避けるために使用される。
【0015】
電源スイッチ110は、ロボットの電源のオン/オフに使用される。
【0016】
近接センサ107は、階段などの段差を検出して、階段からの落下防止のために使用される。
【0017】
車輪109は、胴体下部の左右に各1つずつ、それぞれ独立して回転角速度を与えることが出来る車輪109が取り付けられ、胴体後方には1つのキャスターが取り付けられている。
【0018】
図8で示す従来のロボット装置に適用する制御系は、図9に示すように、シナリオ実行部900と、シナリオDB部901と、動作制御部902と、セリフ選択部210と、セリフDB部211と、パラメータ格納部904と、成長判定部903とにより構成する。
【0019】
図9中の、LED203,頭部ユニット204のアクチュエータ204A,車輪部ユニット205のアクチュエータ205A,各種センサ206,マイク207,スピーカー208及びカメラ209は動作制御部902により制御される。
【0020】
ここで、LED203は図8のLED103、アクチュエータ204Aは図8の首108を動かすためのアクチュエータ、アクチュエータ205Aは図8の車輪109を動かすためのアクチュエータ、各種センサ206は図8の頭ボタン100,超音波センサ106、近接センサ107のそれぞれのセンサ、マイク207は図8の音声認識用マイク101、音源方向検出用マイク104、スピーカー208は図8のスピーカー105、カメラ209は図8のCCDカメラ102である。
【0021】
パラメータ格納部904には、ロボット装置の成長の度合いを示す成長パラメータ(パラメータ値は例えば1、2、3の3種。)とロボット装置の感情の度合いを示す感情パラメータとが格納されている。
【0022】
セリフDB部211には、セリフを状況毎に分類したときのセリフ発話状況を表すセリフカテゴリー名(以後、セリフ種と記載する。)毎に、成長パラメータの値や感情パラメータの値に基づいて、対応するセリフが格納されている。セリフ種とは、例えば、ロボット装置が人に対して挨拶をする際に使われる「おはようございます」や「おはよう」といったセリフを一まとめにして“朝の挨拶”というように分類したときの“朝の挨拶”というカテゴリー名称を表す。
【0023】
シナリオDB部901には、「移動」,「人を捜す」,「あいさつ」等の動作を示す各種のシナリオが格納されている。それぞれのシナリオは成長パラメータのパラメータ値に対応するシナリオをそれぞれ有している。「人を捜す」シナリオには、成長パラメータのパラメータ値に対応する3種類のシナリオがあり、例えば、成長パラメータのパラメータ値が1のときには、首を動かすことも無く、人の検出が出来ない場合は必ず一定時間だけ「人を探す」シナリオを動作させるが、成長パラメータのパラメータ値が3のときには、ときどき首を左右に振りながら、「探してるよ。誰かいないの?」などと発話したり、例えば、ロボットが感情を模擬するような仕組み(未記載)を有する場合には、感情の状態が良好なときには長い時間「人を探す」シナリオを動作させるが、感情の状態が悪い場合には短時間しか「人を探す」シナリオを動作させないようにシナリオに記述されている。このように成長パラメータが上の段階に行くにつれて、ロボット装置が感情を有しているようにユーザーには感じられるが、その反面首を動かしている最中は人を検出しないことや、「人を探す」シナリオの実行時間が一定で無いため、ユーザーが予期しないタイミングで「人を探す」シナリオを抜けて他のシナリオを実行するということがある。
【0024】
そして、セリフDB部211にある、各々のシナリオには、LED203の点灯制御処理の記述と、頭部ユニット204のアクチュエータ204Aの動作制御処理の記述と、車輪部ユニット205のアクチュエータ205Aの動作制御処理の記述と、スピーカー208による音声出力制御処理の記述と、動作制御部902から送られる各種センサ206の計測結果やロボットの内部状態の解析結果として発行されるセンサイベント入力があった際の処理の記述と、マイク207を通して入力された音声の音声認識結果である音声認識イベント入力があった際の処理の記述と、カメラ209を通して入力された画像を解析して得られた画像認識イベント入力があった際の処理の記述と、次のシナリオ(状態)への遷移に関する記述と、が記述されている。
【0025】
成長判定部903は、ロボット装置を初めて起動してからの経過時間、総起動時間、ユーザーとのやりとりの回数などのロボットの経験に基づいて、ロボット装置の成長段階を決定しこの成長段階に応じて予め定めた成長パラメータ(パラメータ値は例えば1、2、3の3種。)をパラメータ格納部904に設定する。
【0026】
シナリオ実行部900は、シナリオDB部901に格納された「移動」,「人を捜す」,「あいさつ」等の動作を示す各種シナリオのうちから1つのシナリオを選択し、選択したシナリオに記述されたコマンドを順次、動作制御部902に送信したり、動作制御部902から送られてくる動作結果の発生や検出結果の発生等を示す各種イベントに対応する処理をしたりする。シナリオ実行部900は、選択したシナリオに記述されたコマンド中にセリフ種があるときには、このコマンドをセリフ選択部210に送り、セリフ選択部210よりセリフを受け、このセリフを発話させるコマンドに含めて動作制御部902に送る。
【0027】
セリフ選択部210は、シナリオ実行部900より受けたコマンドに記述されたセリフ種と、パラメータ格納部904に格納された成長パラメータと感情パラメータとに基づいてセリフDB部211から、具体的なセリフを選択してシナリオ実行部900に渡す。セリフ種が例えば“朝の挨拶”のときには、「おはようございます」や「おはよう」を選択する。
【0028】
動作制御部902は、シナリオ実行部900から与えられたコマンドを解釈し実行する処理と、各種センサ206からの入力やマイク207からの音声信号やカメラ209からの画像信号を解析処理して、その処理結果をイベントという形でシナリオ実行部900に送信する処理とを行う。このとき、シナリオ実行部900から与えられたコマンドがセリフを発話させるコマンドのときには、動作制御部902は、音声合成機能によってこのセリフに対応する音声信号を生成し、生成した音声信号をスピーカー208から出力する。
【0029】
ここで、例えば、人を捜す状況になったときのロボット装置の動作について説明する。
【0030】
ロボット装置が人を捜す状況になったときには、シナリオ実行部900は「人を捜す」シナリオのうちの成長パラメータのパラメータ値に対応する「人を捜す」シナリオをシナリオDB部901より読み込み実行する。この実行により、ロボット装置は人を探していることをユーザーに通知しながら、かつ、カメラ209からの入力画像を画像認識処理しながら人を探す。ここで、人を探していることをユーザーに通知するためには、シナリオ実行部900は、「人を捜しています」,「誰かいないの?」,「Aさん、どこですか?」等のセリフを動作制御部902に送り、動作制御部902により音声信号を生成しスピーカー208からこのセリフを出力する。カメラ209からの入力画像を画像認識処理しながら人を探すためには、シナリオ実行部900は、動作制御部902に「カメラ209からの入力画像を画像認識処理しながら人を探す」ように指示し、動作制御部902は、カメラ209からの入力画像を画像認識処理しながら人を捜す。
【0031】
このときユーザーがロボット装置の人物検出機能のことを良く知らないと、ロボット装置がユーザーを探し出すのに時間が掛かる。
【0032】
この理由について説明する。
【0033】
現在、既に画像認識による人物検出機能を備えた装置は存在するが、それらは家庭用ロボット装置の使用されるような一般環境においては望ましい性能を発揮出来ないのが実情である。したがって、画像認識による人物検出機能を備えた装置を使用する際には、カメラ209の設置位置などを工夫するなどして、充分に期待される性能を発揮出来るような限定された環境を作り出し、使用することが必要となる。また画像認識処理の内容によっては、画像認識装置による人物検出の助けとなるような動作の工夫をユーザーに要求する場合も少なくない。このユーザーに人物検出の助けとなるような動作の工夫を要求する例としては、人物検出処理において、動き情報を使用している場合があり、この場合に検出されるためには、ユーザーは静止しているのではなく、少し動く必要がある。本ロボット装置に採用される画像認識技術も、このような使用環境条件の制約やユーザーに使用方法の工夫を要求するものである。しかしながら、移動を行う家庭用ロボットでは移動するために、カメラ209の設置位置を工夫して環境条件を整えることは難しく、ユーザーにはある程度、使用可能な環境条件を理解してもらうことが必要である。
【0034】
したがって、上記の理由によりユーザーがロボット装置の人物検出機能のことを良く知らないと、ロボット装置がユーザーを探し出すのに時間が掛かる。
【0035】
そして、この人物検出機能に関してユーザーが不慣れのままにユーザーのロボット装置に対する経験が進むと、成長判定部903が成長パラメータ値を増加させ、ロボット装置が変化し成長する。
【0036】
このことは、人物検出機能に限らず、例えば、音声認識機能等のロボット装置を使いこなすためにユーザが使用方法を習得する必要のある機能においても同様に発生する。音声認識機能についても、現状は人間同士の会話において人間が音声認識を行うようなレベルとロボットの音声認識のレベルとはかけ離れている。現状のロボットにおける音声認識では、ユーザーはロボットのマイクから例えば80cmの距離(ロボットが音声認識するための最適な距離)と適切な声の大きさ(音圧レベルがロボット内部で飽和することも無く、レベルが低すぎることもない)でしかも「あのー。伝言しておくれ」のような話し言葉ではなく、「伝言」や「伝言機能して」のような単語を中心とした言葉で話しかける必要がある。したがって、このような音声認識機能の使い方をユーザーが良く知らないと、ユーザーは何度も試行錯誤して声を掛けないと、ロボット装置に音声認識をさせることが出来ない。
【0037】
【発明が解決しようとする課題】
上述した従来のロボット装置は、ロボット装置を初めて起動してからの経過時間、総起動時間、ユーザーとのやりとりの回数などのユーザーのロボット装置に対する経験が進むと、成長判定部により、成長パラメータのパラメータ値を増加させ、ロボット装置が変化し成長し、シナリオ実行部がこの成長パラメータ値に応じたシナリオを実行し、ロボット装置はこの成長に応じた動作をするため、ユーザが使用方法を習得する必要のある機能に対して、ユーザーがこの機能を習得する前に、ロボット装置が成長すると、ユーザーは、ますます、この機能を使いこなすことができなくなるので、ユーザーは、ロボットに対して悪い印象を抱き、このためロボット装置に対する飽きが助長するという問題がある。
【0038】
本発明の目的はこのような従来の欠点を除去するため、ユーザが使用方法を習得する必要のある機能に対して、ユーザーがこの機能を習得する前に、ロボット装置が成長することのないロボット装置を提供することにある。
【0039】
【課題を解決するための手段】
本発明の第1のロボット装置は、複数の機能を有し、ユーザーのロボット装置の使用経験に応じて成長するロボット装置において、前記ユーザーの前記ロボット装置の機能の習得の度合いを示す第1の習得度を判定する第1の習得度判定手段と、前記ロボット装置の起動時間と前記ロボット装置の前記ユーザーとのやりとりの回数とを含む、前記ユーザーの前記ロボット装置の前記使用経験と、前記ユーザーの前記ロボット装置の機能の前記第1の習得度の前記度合いとから、前記ロボット装置の成長段階を予め定めた個数の段階のいずれかの段階に当てはめる成長度判定手段と、前記成長度判定手段が当てはめた前記成長段階に応じて予め定めた前記ロボット装置の動作を制御するロボット装置制御手段と、を備えて構成されている。
【0040】
また、本発明の第1のロボット装置の前記第1の習得度判定手段は、ユーザーに対して機能の習得の度合いを確認するテストを自ロボット装置の有する複数の機能に対して行い、このテスト結果に応じて前記第1の習得度を判定するようにしている。
【0041】
更に、本発明の第1のロボット装置の前記第1の習得度判定手段中の前記テストは、自ロボット装置に接続した表示手段に表示した表示内容に対して前記ユーザーより応答を受けることにより行うようにしている。
【0042】
また、本発明の第1のロボット装置の前記第1の習得度判定手段は、ユーザーの自ロボット装置の使用履歴に基づいて前記第1の習得度を判定するようにしている。
【0043】
更に、本発明の第1のロボット装置の前記第1の習得度判定手段は、ユーザーの習得すべき機能に対応した本ロボット装置のアクション結果の成功回数、非成功回数、アクション結果がでるまでの平均時間を含んだ使用履歴を、予め定めた期間分集計して、前記使用履歴で示す前記回数や前記平均時間が、予め前記機能ごとに定めた基準を満たしているときに、前記第1の習得度を、ユーザーが前記基準を満たした前記機能を習得できていると判定するようにしている。
【0048】
【発明の実施の形態】
次に、本発明の実施の形態について図面を参照して説明する。
【0049】
図1は、本発明のロボット装置の外観の一例を示す図である。
【0050】
この図は、従来のロボット装置の外観を示す図8に、AV端子111,AVケーブル112,モニタ113及びマウス114を付加している。図8で使用した番号と同じ番号のものは同一の機能を有する。
【0051】
図2は、本発明のロボット装置の第1の実施の形態を示すブロック図である。
【0052】
この図は、従来のロボット装置の制御系を示す図9に、モニタ216,マウス217及び記憶媒体215を付加している。モニタ216とマウス217とは図1で示したモニタ113とマウス114と同じである。これらは、ユーザーに対してロボット装置の有する機能を説明するときやこの機能の習得の度合いを確認するテストを行うとき等に使用する。
【0053】
また、図9とは、シナリオDB部201、シナリオ実行部200は、成長判定部213、動作制御部202及びパラメータ格納部212が異なり、ユーザー習得度判定部が追加されている。
【0054】
シナリオDB部201は、図9のシナリオDB部901に「機能レッスン」シナリオ201Aが追加されている。「機能レッスン」シナリオ201Aには、ユーザーに対して行う機能の説明や機能の習得の度合いを確認するテスト等のシナリオが記述してある。
【0055】
シナリオ実行部200は、「機能レッスン」シナリオ201Aの実行動作が、図9のシナリオ実行部900の実行動作に加わっている。
【0056】
パラメータ格納部212には、図9の従来の技術で記載したロボット装置の成長の度合いを示す成長パラメータ(パラメータ値は例えば1、2、3の3種。)とロボット装置の感情の度合いを示す感情パラメータ(不図示)とに加えて、ユーザーがロボット装置の機能を習得したか否かを示す習得済みフラグがロボット装置の機能毎に格納されている。また、この各々の機能にはそれぞれ複数の習得すべき項目があり、この習得すべき項目に対して習得したか否かを示すサブクリアフラグがこの各々の機能毎に複数格納されている。例えば、画像認識機能について、ユーザーが習得すべき項目は、▲1▼ユーザーはロボットのカメラ209の視野角内に顔を持ってくる必要がある。▲2▼ロボットのカメラ209から80cmの距離に顔があるのが最適である。▲3▼ユーザーは顔を少し動かす必要がある。▲4▼顔をあまり傾けてはいけない。▲5▼逆光条件や暗い環境においては人物検出をうまく出来ない。▲6▼顔の登録をある程度行わなければ、画像認識による人物同定の精度は向上しない。の6つがあり、このそれぞれの項目にサブクリアフラグを設ける。
【0057】
また、これらの習得済みフラグとサブクリアフラグとは、ロボット装置を購入して、初めて電源スイッチ110を入れるときにすべてリセットされ、各機能ごとに用意した機能レッスンをユーザーが受けこのレッスンの後にユーザーに対してロボット装置の有する機能の習得の度合いの確認テストを行ったときに、この機能のある項目に対してユーザーが正解した場合、この正解した項目のサブクリアフラグをセットし、この機能の複数のサブクリアフラグのセット率(第2の習得度:例えば、複数のサブクリアフラグのうちのセットされているフラグの割合を示す。)が予め定めた値以上であるときにこの機能の習得済みフラグをセットする。
【0058】
成長判定部213は、ロボット装置の電源スイッチ110のオン時にパラメータ格納部212内の成長パラメータを更新する処理を行う。このとき、パラメータ格納部212の習得済みフラグのセット率(第1の習得度:例えば、複数の習得済みフラグのうちセットされているフラグの割合を示す。)とユーザーのロボット装置の使用経験とに基づいて成長パラメータをパラメータ格納部212にセットする。
【0059】
ユーザー習得度判定部214は、シナリオ実行部200の指示により、パラメータ格納部212内のサブクリアフラグをセットしたり、パラメータ格納部212内のサブクリアフラグのセット率(第2の習得度)が予め定めた値以上のときにこのサブクリアフラグに対応する機能の習得済みフラグをセットしたりする。
【0060】
図9で使用した番号と同じ番号のものは同一の機能を有する。
【0061】
次に、本実施の形態のロボット装置(図2)の動作について図3、図4、図5及び図6を参照して詳細に説明する。
【0062】
図3は、図2に示すロボット装置の状態と状態間の遷移との一例を示す図である。
【0063】
図4は、機能レッスン状態で行われる処理の一例を示すフローチャートである。
【0064】
図5は、機能レッスン状態で行われる機能の教示内容の表示の一例を示す図である。
【0065】
図6は、ユーザーの機能の習得度合いを確認するテスト内容の表示の一例を示す図である。
【0066】
図1において、図3を使用して説明する。
【0067】
ロボット装置の電源スイッチ110がユーザーによってオンにされるとロボット装置は起動直後状態300に遷移し、シナリオ実行部200は「起動直後」シナリオをシナリオDB部201より読み込み、実行し、例えば、「起動が完了しました」というセリフを動作制御部202に送り、首108のモータと車輪109のモータとのサーボを動作させたり、成長判定部213に成長パラメータの更新処理をさせる等の各種の初期化処理を行う。
【0068】
動作制御部202は、シナリオ実行部200より「起動が完了しました」というセリフを受け、音声信号を生成しスピーカー208からこの「起動が完了しました」を出力してユーザーに起動が完了したことを通知する。
【0069】
シナリオ実行部200は、首108のモータと車輪109のモータとのサーボを動作させるために、動作制御部202にサーボ制御開始のコマンドを送り、動作制御部202は、このコマンドにより、アクチュエータ204Aとアクチュエータ205Aとにサーボの制御を開始させる。
【0070】
シナリオ実行部200は、成長判定部213に成長パラメータの更新処理をさせるために、成長判定部213に成長パラメータの更新処理の実行を指示し、成長判定部213は、パラメータ格納部212内の習得済みフラグのセット率(第1の習得度)を調べ、この調べたセット率と、初めて起動してからの経過時間、総起動時間、ユーザーとのやりとりの回数などのロボットの使用経験とに基づいて、ロボット装置の成長段階を決定しこの成長段階に応じて予め定めた成長パラメータをパラメータ格納部212に設定する。 成長判定部213は、初めて起動してからの経過時間、総起動時間を常に計数するとともに、頭ボタン100を押した回数,頭を撫でた回数,人物を検出した回数等のユーザーとのやりとりの回数をシナリオ実行部200から報告を受けてその都度計算しておく。
【0071】
ロボット装置は、例えば3つの成長段階を有し、この段階を成長パラメータで表わす。最も下の成長段階では、成長パラメータを1とし、次の成長段階では、成長パラメータを2とし、最も上の成長段階では、成長パラメータを3とする。成長パラメータ3となる条件は、初めて起動してからの経過時間が例えば14日以上、かつ総起動時間が例えば30時間以上、かつ頭ボタン100を押した回数と頭を撫でた回数と音声認識した言葉の数と人物を検出した数の合計が例えば1000以上、かつ、ユーザーが習得すべきすべての機能をユーザーが習得できていること(セット率(第1の習得度)が100%)を満足することである。
【0072】
ユーザーが習得すべき機能を習得しているか否かは、習得すべき機能に対応するパラメータ格納部212内の習得済みフラグがセットされているか否かにより調べる。また、セット率は、パラメータ格納部212内の習得すべき複数の機能にそれぞれ対応する複数の習得済みフラグのセット具合をみて決める。
【0073】
成長パラメータ2となる条件は、成長パラメータ3となる条件を満足せずに、初めて起動してからの経過時間が例えば7日以上、かつ総起動時間が例えば15時間以上、かつ頭ボタン100を押した回数と頭を撫でた回数と音声認識した言葉の数と人物を検出した数の合計が例えば500以上、かつ、セット率(第1の習得度)50%以上を満足することである。成長パラメータ1となるのは、成長パラメータ2と3になる条件を満足していないときである。
【0074】
「起動直後」シナリオの処理が終了すると、ロボット装置は起動直後状態300から移動状態301に遷移し、シナリオ実行部200は、「移動」シナリオをシナリオDB部201より読み込み、実行し、動作制御部202に対してコマンドを送り、ロボット装置に、自律的に移動しているいわゆる散歩を行わせる。
【0075】
ロボット装置に一定時間散歩させると休息状態302に遷移し、シナリオ実行部200は、「休息」シナリオをシナリオDB部201より読み込み、実行し、ロボット装置を停止し静かにさせる。
【0076】
この休息状態302は、ロボット装置が演出として休息している状態であり、一定時間休息すると移動状態301に遷移し、シナリオ実行部200は、「移動」シナリオをシナリオDB部201より読み込み実行する。
【0077】
ロボット装置が移動状態301又は休息状態302のときに、ユーザーから何らかの働きかけがあった場合、例えば、ユーザーが「おーい」とロボット装置に呼びかけた場合には、この呼びかけをマイク207でひろい、このひろった音が予め定めた閾値以上の音圧を越えた時間が一定時間以上であったときに、動作制御部202が音源検出イベントをシナリオ実行部200に送信して、ロボット装置は人を探す状態310に遷移する。
【0078】
また、ロボット装置が移動状態301又は休息状態302のときに、ユーザーがロボット装置(頭ボタン100)を撫でた場合には、動作制御部202が頭ボタン100のオン・オフを検出し頭ボタン100が撫でられたイベントをシナリオ実行部200に送信し、ロボット装置はあいさつ状態311に遷移する。
【0079】
ロボット装置が人を探す状態310に遷移すると、シナリオ実行部200は、「人を捜す」シナリオをシナリオDB部201より読み込み、実行し、ロボット装置は人を探していることをユーザーに通知しながら、かつ、カメラ209からの入力画像を画像認識処理しながら人を探す。
【0080】
シナリオ実行部200は、人を探していることをユーザーに通知するために、「人を捜しています」,「誰かいないの?」,「Aさん、どこですか?」等のセリフを動作制御部202に送り、動作制御部202は、音声信号を生成しスピーカー208からこのセリフを出力する。
【0081】
シナリオ実行部200は、カメラ209からの入力画像を画像認識処理しながら人を探すために、シナリオ実行部200は、動作制御部202に「カメラからの入力画像を画像認識処理しながら人を探す」ように指示し、動作制御部202は、カメラ209からの入力画像を画像認識処理しながら人を捜す。
【0082】
人を探す状態310において、画像認識処理が人物の検出に成功する、すなわち、ロボット装置がユーザーを見つけると、人物検出イベントが動作制御部202からシナリオ実行部200に送信され、ロボット装置はあいさつ状態311に遷移する。
【0083】
ロボット装置があいさつ状態311に遷移すると、シナリオ実行部200は、「あいさつ」シナリオをシナリオDB部201より読み込み、実行し、ロボット装置はユーザーに対してあいさつし、ユーザーとの言葉でのやりとりが開始したことを通知する。すなわち、シナリオ実行部200は、内部時計により判断した時間帯に応じて「おはよう」,「こんにちは」,「こんばんは」等のセリフを動作制御部202に送り、動作制御部202に音声信号を生成させスピーカー208からこのセリフを出力させ、「会話しましょう」等のセリフを動作制御部202に送り、動作制御部202に音声信号を生成させスピーカー208からこのセリフを出力させる。
【0084】
シナリオ実行部200が「あいさつ」シナリオの実行を終了すると、ロボット装置は機能レッスン状態312に遷移し、シナリオ実行部200は、「機能レッスン」シナリオ201AをシナリオDB部201より読み込み、実行する。
【0085】
機能レッスン状態312で行われる処理の一例として、画像認識による人物検出機能の機能レッスンについて、図4のフローチャートと、図5と図6の画面イメージとを用いて説明する。
【0086】
シナリオ実行部200が、「機能レッスン」シナリオ201Aを実行すると、ステップS400において、習得すべき機能が残っているか否かをユーザー習得度判定部214に問い合わせてチェックする。ユーザー習得度判定部214は、パラメータ格納部212の習得済みフラグをチェックし、習得すべき全ての機能をユーザーが習得済みか否かを習得済みフラグのセット状況により調べる。習得済みでない機能が1つ以上存在するときには、最も優先順位の上位にある機能、言い換えると最も先に覚えるべき機能名についての使用方法の説明を、ステップS401以降で行う。全ての機能をユーザーが習得している場合には何もせずに終了し、ロボット装置は対話状態313に遷移する。
【0087】
ステップS401では、画面出力可能な状態かどうかをAVケーブル112がロボット装置のAV端子111に接続されているか否かをシナリオ実行部200が動作制御部202に問い合わせることで調べる。調べた結果、画面出力可能(AVケーブル112がAV端子111に接続されている)な場合には、ステップS404に進む。画面出力可能でない場合には、ステップS402に進む。
【0088】
ステップS402では、画面出力可能な状態にすることをユーザーに要求する内容を発話(例えば、シナリオ実行部200が「AVケーブルを挿して、モニタテレビと接続して下さい」を動作制御部202に送り、動作制御部202はスピーカにこのセリフを出力させる。)し、ステップS403に進む。
【0089】
ステップS403では、シナリオ実行部200は、動作制御部202からの画面出力可能状態に遷移したときに発行されるイベント(画面出力可能イベントと記載する。)を所定の時間待つ。動作制御部202は、センサ206により、AVケーブル112がAV端子111に接続されていない状態からAVケーブル112がAV端子111に接続された状態への変化を検知し、画面出力可能イベントを発行する。所定時間内に画面出力可能イベントがあったときには、ステップS404に進み、所定時間内に画面出力可能イベントが無かった場合には、終了し、ロボット装置は対話状態313に遷移する。
【0090】
ステップS404では、まず最初に、シナリオ実行部200は、ロボット装置に接続したモニタ216に、習得済みでない機能の説明画面を表示させる。例えば、この習得済みでない機能が「画像認識による人物検出機能」の場合、この機能のサブクリアフラグのセット率(第2の習得度)が例えば”0”の時には、図5に示すような説明画面をモニタ216に表示させる。
【0091】
説明画面の文章説明部500に表示させる項目について説明する。
【0092】
例えば、この「画像認識による人物検出機能」の習得すべき項目には、▲1▼ユーザーはロボットのカメラ209の視野角内に顔を持ってくる必要がある。▲2▼ロボットのカメラ209から80cmの距離に顔があるのが最適である。▲3▼ユーザーは顔を少し動かす必要がある。▲4▼顔をあまり傾けてはいけない。▲5▼逆光条件や暗い環境においては人物検出をうまく出来ない。▲6▼顔の登録をある程度行わなければ、画像認識による人物同定の精度は向上しない。の6つがあるが、シナリオ実行部200が、ユーザー習得度判定部214に対しこの「画像認識による人物検出機能」のサブクリアフラグのセット状況を調べさせ、このセット状況により、セット率(第2の習得度)を求め、このセット率が例えば”0”の時には、数字の小さい方から3つの▲1▼ユーザーはロボットのカメラ209の視野角内に顔を持ってくる必要がある。▲2▼ロボットのカメラ209から80cmの距離に顔があるのが最適である。▲3▼ユーザーは顔を少し動かす必要がある。の3つの項目を説明画面に表示させる。そして、次にロボット装置を起動したときに行われる機能レッスンにおいては、この機能の習得出来ていない項目の中で、数字の小さい3つを説明画面に表示させる。このとき、サブクリアフラグのセット率の値により、説明画面に表示させる項目数を増減させたり、説明画面に表示させる項目を選択しても良い。
【0093】
シナリオ実行部200は、図5に示すような説明画面をモニタ216に表示させるために、予め記憶媒体215に格納してあるこの「画像認識による人物検出機能」の使い方の説明画面を上記の▲1▼、▲2▼、▲3▼の項目について表示するよう動作制御部202に指示し、動作制御部202は、記憶媒体215より「画像認識による人物検出機能」の使い方の説明画面を▲1▼、▲2▼、▲3▼の項目とともに取り出しモニタ216に表示する。
【0094】
ステップS404において、次に、シナリオ実行部200は、モニタ216に表示した文章説明部500の項目をユーザーに読んで理解してもらった後に、ビデオ再生ボタン501を押してもらい(モニタ216に接続したマウス217によりビデオ再生のエリアをクリックする等)、ビデオ映像を用いて使用方法の説明を行う。すなわち、シナリオ実行部200は、動作制御部202よりビデオ再生ボタンONイベントを受けると、予め記憶媒体215に格納してあるこの「画像認識による人物検出機能」の使い方のビデオ映像を表示するよう動作制御部202に指示し、動作制御部202は、記憶媒体215より「画像認識による人物検出機能」の使い方のビデオ映像を取り出しモニタ216に表示する。このビデオ映像では、人が上手に機能を使用している様子を上手に使用するために重要な点をキャプション(字幕)で画面下部に表示しながら動画等により説明する。この説明が終わると、図5の説明画面をモニタ216に表示する。
【0095】
ステップS404において、最後に、シナリオ実行部200は、ユーザーにテストボタン502を押してもらい(モニタ216に接続したマウス217によりテストのエリアをクリックする等)、図6に示すような「画像認識による人物検出機能」の確認テストの問題画面をモニタ216に表示させ、ユーザーが「画像認識による人物検出機能」の使用方法を習得できたか否かをテスト(チェック)する。(この確認テストの問題画面は、図5で示した文章説明部500の項目に対応している。)すなわち、シナリオ実行部200は、動作制御部202よりテストボタンONイベントを受けると、予め記憶媒体215に格納してある「画像認識による人物検出機能」の項目数分の複数の確認テストの問題画面のうちの、図5で示した文章説明部500の項目内の一つの項目に対応する問題画面を指定しこの問題画面を表示するよう動作制御部202に指示し、動作制御部202は、記憶媒体215に格納してある、シナリオ実行部200から指定された「画像認識による人物検出機能」の確認テストの問題画面を取り出しモニタ216に表示する。
【0096】
この表示した問題に対し、ユーザーは音声にて回答すると、動作制御部202は、回答内容である回答イベントを発生し、シナリオ実行部200は、この回答イベントを受けこの問題に対して正解か否かを判断し、動作制御部202に図5で示した文章説明部500内の項目のうちの次の項目に対応する問題画面を表示させ、同様にして、この問題に対する回答イベントを動作制御部202より受けこの受けた回答イベントがこの問題に対して正解か否かを判断する。
【0097】
そして、この「画像認識による人物検出機能」に対する予め用意した複数の習得すべき項目に対応するすべての問題を終了すると、ステップS405に進む。
【0098】
ステップS405では、シナリオ実行部200は、ステップS404において出題した問題に対するユーザーの回答に正解があったときには、この正解の問題に対応する機能の項目に関してユーザーが習得できたとしてこの項目に対応するサブクリアフラグをセットするようユーザー習得度判定部214に指示し、ユーザー習得度判定部214は、この指示されたサブクリアフラグをセットする。シナリオ実行部200は、このことをステップS404において出題したすべての問題に対するユーザーの回答に対して行った後に、ユーザーの回答が一つでも正解があったときには、ステップS406に進む。ユーザーの回答がすべて不正解のときには、終了し、ロボット装置は対話状態313に遷移する。
【0099】
ステップS406では、シナリオ実行部200は、ユーザーが習得すべき機能の使用方法を習得できたか否かを判定するようユーザー習得度判定部214に指示する。ユーザー習得度判定部214はこの指示を受け、指定された機能に対応するそれぞれの複数のサブクリアフラグのセット状況を調べ、この機能のサブクリアフラグのセット率(第2の習得度)を判定し、予め定めたセット率以上のときには、この機能をユーザーが習得できたと判定してこの機能に対応する習得済みフラグをセットし、終了する。「機能レッスン」シナリオ201Aの実行が終了すると、ロボット装置は対話状態313に遷移する。
【0100】
ロボット装置が対話状態313に遷移すると、シナリオ実行部200は、「対話」シナリオをシナリオDB部201より読み込み、実行し、ユーザーからの要求の有無等を聞いたり、要求内容を実現したりする。
【0101】
例えば、「何か要求することはありませんか?」等のセリフを動作制御部202に送り、動作制御部202により音声信号を生成しスピーカー208からこのセリフを出力し、動作制御部202が、ユーザーから「伝言して」のセリフをマイク207より受けこのセリフを認識した場合には、マイク207を使用して、ユーザの伝言を受け、この伝言を伝言元ユーザー名と伝言先ユーザー名をセットにして内部HD(不記載)などの記憶媒体215に保持する。
【0102】
ロボット装置が対話状態313ときに、ユーザーから、「バイバイ」や「おやすみ」のような対話の終了を促す意味の音声の入力があったと、音声認識結果によって得られた場合には、対話終了イベントが動作制御部202からシナリオ実行部200に送信され、非対人行動状態30(移動状態301もしくは休息状態302)に遷移する。
【0103】
図7は、本発明のロボット装置の第2の実施の形態を示すブロック図である。
【0104】
この図は、本発明の第1の実施の形態を示す図2に、ユーザー使用履歴格納部を付加している。
【0105】
図2で使用した番号と同じ番号のものは同一の機能を有する。
【0106】
ユーザー使用履歴格納部700には、ユーザーの習得すべき機能に対応した本ロボット装置のアクション結果の成功回数、非成功回数、アクション結果がでるまでの平均時間を含んだ使用履歴を格納している。
【0107】
すなわち、例えば、2002/02/15:1回目の起動:音声認識回数100回:音声認識リジェクト数=38回:音声認識非リジェクト数=62回;2002/02/15:1回目の起動:人物検出までの平均時間=3400[ms]、2002/02/15:2回目の起動:音声認識回数50回:音声認識リジェクト数=40回:音声認識非リジェクト数=10回;2002/02/15:2回目の起動:人物検出までの平均時間=3000[ms]のようなデータを、例えば、現在時刻から過去一週間分程度格納してある。このデータは、例えば、シナリオ実行部702が、音声認識したり、画像認識して人物を検出したりしたときに、その都度、ユーザー使用履歴格納部700に格納している。
【0108】
ユーザー習得度判定部701は、第1の実施の形態での動作に加え、シナリオ実行部702の指示により、ユーザー使用履歴格納部700に格納してある使用履歴を、例えば、現在時刻から過去一週間分集計して、過去一週間の音声認識リジェクト率と平均の人物検出から人物検出までの時間を算出し、音声認識リジェクト率が例えば30%以下ならば、パラメータ格納部212の音声認識の機能に対応する習得済みフラグをセットし、平均の人物検出から人物検出までの時間が例えば2500ms以下ならば、人物検出の機能に対応する習得済みフラグをセットする。
【0109】
ユーザー習得度判定部701の、ユーザー使用履歴格納部700に格納してある使用履歴を調べて習得済みフラグをセットする動作は、例えば、ロボット装置の起動直後状態300中や、第1の実施の形態でシナリオ実行部200がユーザー習得度判定部214にユーザーが習得すべき機能の使用方法を習得できたか否かを判定するように指示したときに実行する。
【0110】
シナリオ実行部702は、第1の実施の形態での動作に加え、第1の実施の形態を示す図2に、ユーザー使用履歴格納部を付加したことにより発生する、前述の動作が加わる。
【0111】
【発明の効果】
以上説明したように、本発明のロボット装置によれば、第1の習得度判定手段により、ユーザーの機能の習得の度合いを示す第1の習得度を判定し、成長度判定手段により、ユーザーの使用経験を判定しこの判定した使用経験と第1の習得度判定手段が判定した第1の習得度とに基づいてロボット装置の成長の度合いを判定し、ロボット装置制御手段により、成長度判定手段が判定した成長の度合いに基づいてロボット装置を制御するため、第1の習得度判定手段が判定した第1の習得度を使用して、成長度判定手段により、ロボット装置の成長の度合いを判定するので、ユーザーが使用方法を習得する必要のある機能に対して、ユーザーがこの機能を習得する前に、ロボット装置が成長することがない。
【0112】
また、本発明のロボット装置によれば、
第2の習得度判定手段により、ユーザーの機能の習得の度合いを機能毎に示す第2の習得度を判定し、機能使用方法説明手段により、第2の習得度判定手段が判定した機能の第2の習得度に応じた教示内容をユーザーに教示するため、ユーザーは習得度に応じた教示内容により機能の使用方法の教示をうけるので、わかりにくい機能でも順を追って容易に習得できる。
【図面の簡単な説明】
【図1】本発明のロボット装置の外観の一例を示す図である。
【図2】本発明のロボット装置の第1の実施の形態を示すブロック図である。
【図3】図2に示すロボット装置の状態と状態間の遷移との一例を示す図である。
【図4】機能レッスン状態で行われる処理の一例を示すフローチャートである。
【図5】機能レッスン状態で行われる機能の教示内容の表示の一例を示す図である。
【図6】ユーザーの機能の習得度合いを確認するテスト内容の表示の一例を示す図である。
【図7】本発明のロボット装置の第2の実施の形態を示すブロック図である。
【図8】従来のロボット装置の外観を示す図である。
【図9】図8で示す従来のロボット装置に適用する制御系である。
【符号の説明】
100 頭ボタン
101 音声認識用マイク
102 CCDカメラ
103 LED
104 音源方向検出用マイク
105 スピーカー
106 超音波センサ
107 近接センサ
108 首
109 車輪
110 電源スイッチ
111 AV端子
112 AVケーブル
113 モニタ
114 マウス
200 シナリオ実行部
201 シナリオDB部
201A 「機能レッスン」シナリオ
202 動作制御部
203 LED
204 頭部ユニット
204A アクチュエータ
205 車輪部ユニット
205A アクチュエータ
206 センサ
207 マイク
208 スピーカー
209 カメラ
210 セリフ選択部
211 セリフDB部
212 パラメータ格納部
213 成長判定部
214 ユーザー習得度判定部
215 記憶媒体
216 モニタ
217 マウス
30 非対人行動状態
31 対人行動状態
300 起動直後状態
301 移動状態
302 休息状態
303 終了処理状態
310 人を探す状態
311 あいさつ状態
312 機能レッスン状態
313 対話状態
500 文章説明部
501 ビデオ再生ボタン
502 テストボタン
600 確認テスト用問題
700 ユーザー使用履歴格納部
701 ユーザー習得度判定部
702 シナリオ実行部
900 シナリオ実行部
901 シナリオDB部
902 動作制御部
903 成長判定部
904 パラメータ格納部

Claims (6)

  1. 複数の機能を有し、ユーザーのロボット装置の使用経験に応じて成長するロボット装置において、
    前記ユーザーの前記ロボット装置の機能の習得の度合いを示す第1の習得度を判定する第1の習得度判定手段と、
    前記ロボット装置の起動時間と前記ロボット装置の前記ユーザーとのやりとりの回数とを含む、前記ユーザーの前記ロボット装置の前記使用経験と、前記ユーザーの前記ロボット装置の機能の前記第1の習得度の前記度合いとから、前記ロボット装置の成長段階を予め定めた個数の段階のいずれかの段階に当てはめる成長度判定手段と、
    前記成長度判定手段が当てはめた前記成長段階に応じて予め定めた前記ロボット装置の動作を制御するロボット装置制御手段と、
    を備えたことを特徴とするロボット装置。
  2. 前記第1の習得度判定手段は、ユーザーに対して機能の習得の度合いを確認するテストを自ロボット装置の有する複数の機能に対して行い、このテスト結果に応じて前記第1の習得度を判定することを特徴とする請求項1記載のロボット装置。
  3. 前記テストは、自ロボット装置に接続した表示手段に表示した表示内容に対して前記ユーザーより応答を受けることにより行うようにしたことを特徴とする請求項2記載のロボット装置。
  4. 前記第1の習得度判定手段は、ユーザーの自ロボット装置の使用履歴に基づいて前記第1の習得度を判定することを特徴とする請求項1記載のロボット装置。
  5. 前記第1の習得度判定手段は、ユーザーの習得すべき機能に対応した本ロボット装置のアクション結果の成功回数、非成功回数、アクション結果がでるまでの平均時間を含んだ使用履歴を、予め定めた期間分集計して、前記使用履歴で示す前記回数や前記平均時間が、予め前記機能ごとに定めた基準を満たしているときに、前記第1の習得度を、ユーザーが前記基準を満たした前記機能を習得できていると判定することを特徴とする請求項1記載のロボット装置。
  6. 前記使用経験は、本ロボット装置を初めて起動してからの経過時間、総起動時間、前記ユーザーが前記ロボット装置に対して行ったアクションの情報を前記ロボット装置が捉えた回数を示す、前記ユーザーと前記ロボット装置とのやりとりの回数を含むことを特徴とする請求項1、2、3、4又は5記載のロボット装置。
JP2002088966A 2002-03-27 2002-03-27 ロボット装置 Expired - Fee Related JP3891020B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002088966A JP3891020B2 (ja) 2002-03-27 2002-03-27 ロボット装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002088966A JP3891020B2 (ja) 2002-03-27 2002-03-27 ロボット装置

Publications (2)

Publication Number Publication Date
JP2003285286A JP2003285286A (ja) 2003-10-07
JP3891020B2 true JP3891020B2 (ja) 2007-03-07

Family

ID=29234684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002088966A Expired - Fee Related JP3891020B2 (ja) 2002-03-27 2002-03-27 ロボット装置

Country Status (1)

Country Link
JP (1) JP3891020B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108972495A (zh) * 2018-07-27 2018-12-11 芜湖市越泽机器人科技有限公司 一种自走式机器人移动底座

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005076660A1 (ja) * 2004-02-10 2005-08-18 Mitsubishi Denki Engineering Kabushiki Kaisha 超指向性スピーカ搭載型移動体
US20070183618A1 (en) * 2004-02-10 2007-08-09 Masamitsu Ishii Moving object equipped with ultra-directional speaker
JP7075168B2 (ja) * 2017-07-18 2022-05-25 パナソニックホールディングス株式会社 装置、方法、プログラム、及びロボット
JP7192905B2 (ja) * 2021-03-16 2022-12-20 カシオ計算機株式会社 制御装置、制御方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108972495A (zh) * 2018-07-27 2018-12-11 芜湖市越泽机器人科技有限公司 一种自走式机器人移动底座

Also Published As

Publication number Publication date
JP2003285286A (ja) 2003-10-07

Similar Documents

Publication Publication Date Title
JP7254772B2 (ja) ロボットインタラクションのための方法及びデバイス
KR101880775B1 (ko) 자연스러운 대화 인터페이스가 장착된 인간형 로봇, 이러한 로봇의 제어 방법 및 대응 프로그램
US11548147B2 (en) Method and device for robot interactions
RU2336560C2 (ru) Диалоговое управление для электрического устройства
WO2017215297A1 (zh) 云端互动系统及其多感知型智能机器人和感知互动方法
US20130066468A1 (en) Telepresence robot, telepresence system comprising the same and method for controlling the same
CN108733209A (zh) 人机交互方法、装置、机器人和存储介质
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP4622384B2 (ja) ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
WO2019087495A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2009166184A (ja) ガイドロボット
JP4555039B2 (ja) ロボット、ロボット制御方法、ロボット制御プログラム
JP5206151B2 (ja) 音声入力ロボット、遠隔会議支援システム、遠隔会議支援方法
JP3891020B2 (ja) ロボット装置
Li et al. " BIRON, let me show you something": evaluating the interaction with a robot companion
JP2020126195A (ja) 音声対話装置、音声対話装置の制御装置及び制御プログラム
JP2004234631A (ja) ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法
JP2007030050A (ja) ロボット制御装置、ロボット制御システム、ロボット装置、およびロボット制御方法
JP6798258B2 (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム
Wrede et al. Research issues for designing robot companions: BIRON as a case study
Goetze et al. Multimodal human-machine interaction for service robots in home-care environments
KR102301763B1 (ko) 이동로봇을 제어하기 위한 시스템 및 방법
JP7024754B2 (ja) 制御装置、ロボット、制御方法およびプログラム
US20210201139A1 (en) Device and method for measuring a characteristic of an interaction between a user and an interaction device
Nishimuta et al. Development of a robot quizmaster with auditory functions for speech-based multiparty interaction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050218

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061127

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3891020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131215

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees