JP4764377B2 - 移動型ロボット - Google Patents

移動型ロボット Download PDF

Info

Publication number
JP4764377B2
JP4764377B2 JP2007124139A JP2007124139A JP4764377B2 JP 4764377 B2 JP4764377 B2 JP 4764377B2 JP 2007124139 A JP2007124139 A JP 2007124139A JP 2007124139 A JP2007124139 A JP 2007124139A JP 4764377 B2 JP4764377 B2 JP 4764377B2
Authority
JP
Japan
Prior art keywords
dialogue
inducing
robot
mobile robot
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007124139A
Other languages
English (en)
Other versions
JP2008279529A (ja
Inventor
さち恵 橋本
由希子 江原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2007124139A priority Critical patent/JP4764377B2/ja
Publication of JP2008279529A publication Critical patent/JP2008279529A/ja
Application granted granted Critical
Publication of JP4764377B2 publication Critical patent/JP4764377B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、人間と対話可能なロボットに係り、特に、自律移動可能な移動型ロボットに関するものである。
従来、入力される対話対象(人間)の音声を認識し、予め定められた情報を音声として出力することで対話対象と対話可能なロボットが知られている(例えば、特許文献1および特許文献2参照)。
特許文献1に記載のロボットは、予め定められたスケジュールにしたがって、例えば、対話対象に伝達すべき情報として、天気予報などの定期的に更新される情報を発話し、例えば、「快晴」という単語が伝達すべき情報の内容を示す場合に、「快晴」を身振りで示すために両手を上に挙げて「ばんざい」を行う。このロボットは、移動中に対話対象から呼びかけられたときに立ち止まり、例えば、天気予報などの定期的に更新される情報を要求された場合に、最新の情報を示す発話や身振りを行うようにしている。
特許文献2に記載の対話装置は、対話対象に向かって能動的かつ積極的にインターネット上の情報を発信する対話型のロボット装置である。このロボットは、対話対象が対話可能な領域内に存在することを検知している場合は、対話対象の存在に反応して対話対象の移動に追従するように、頭部、口および耳の動き部位を動作する。一方、このロボットは、対話対象が対話不可能な領域に存在することを検知した場合や、対話対象が対話可能な領域に存在していることを検知しているが対話対象の発話を検知できない場合には、動き部位を操作し、対話対象の動作に関連せず反応的ではない自発的動作を行わせ、対話対象の注意を引き、対話対象がロボットへ接近するように誘発するようにしている。
特開2005−088179号公報(段落0032,0033、図8) 特開2001−162573号公報(段落0009〜段落0020、図1)
しかしながら、特許文献1に記載のロボットは、対話対象から呼びかけられ、最新の情報を求める要求がある場合に、対話対象の発話に反応して最新の情報についての発話を行うことはできるが、最新の情報を求める要求がない限り、音声出力部を使用していなかったとしても、その保有している最新の情報についての発話を行わない。つまり、ロボットは、音声出力部を使用していない場合であっても、対話対象の発話を誘発するために、音声出力部を使用した自発的な発話を行わない。そのため、ロボットは、対話対象の発話を誘発しにくいという問題がある。
また、特許文献2に記載のロボットは、対話対象を検知した場合に、例えば対話対象の位置に応じて、対話対象の移動に追従するように動き部位を動作するか、あるいは、対話対象の動作に関連しない自発的動作を動き部位で行うので、対話対象の位置を検知できなければ動き部位を使用しない。つまり、ロボットは、動き部位を使用していない場合であっても、対話対象の発話を誘発するために、動き部位を使用した自発的動作を行っていない。つまり、これらの従来のロボットは、対話対象から呼びかけられた場合や対話対象を認識した場合にはじめて行動を行う。そのため、対話対象の有無に関わらず何らかの動作を行うことで、より人間的な行動を行うロボットが望まれていた。
そこで、本発明では、前記した問題を解決し、複数の可動部または音声出力部のいずれかの部位を使用していない場合にその使用していない部位を有効に活用して対話対象の発話を誘発する行動のできる移動型ロボットを提供することを目的とする。
本発明は、前記目的を達成するために創案されたものであり、本発明のうち請求項1に記載の移動型ロボットは、視覚センサを介して取得された対話対象の撮影画像を画像処理する画像処理部と、音声入力部に入力された対話対象の音声を認識する音声認識部と、所定の発話情報に基づいて音声を出力する音声出力部と、前記対話対象が知覚可能な動作をそれぞれ行う複数の可動部とを有する移動型ロボットであって、前記対話対象の発話を誘発するために実行する対話誘発動作を、前記複数の可動部と前記音声出力部とのうちの少なくとも1つの部位を使用して前記対話対象が知覚可能な単独の動作または動作の組合せとして、前記部位に実行させる制御を行う対話誘発動作制御手段と、前記対話誘発動作と、当該対話誘発動作を実行するために使用する部位とを予め関連付けた情報を示す対話誘発動作情報を複数記憶した対話誘発動作情報記憶手段とを備え、前記対話誘発動作制御手段が、前記各部位のうち現在使用している部位を検出する使用状況検出手段と、前記検出された部位と前記対話誘発動作情報とに基づいて、前記検出された部位以外の部位を使用する対話誘発動作を、実行すべき対話誘発動作として決定する対話誘発動作決定手段と、前記対話誘発動作決定手段により決定された対話誘発動作を実行するために使用する部位に対して前記対話対象が知覚可能な動作を実行させる知覚可能動作制御手段とを有することを特徴とする。
かかる構成によれば、移動型ロボットは、対話誘発動作決定手段によって、使用状況検出手段で検出された部位と、対話誘発動作情報記憶手段に記憶された対話誘発動作情報とに基づいて、現在使用中ではない部位のみを使用する対話誘発動作を実行すべき動作として決定する。そして、移動型ロボットは、知覚可能動作制御手段によって、決定された対話誘発動作を実行するために使用するそれぞれの部位に対して対話対象が知覚可能な動作を実行させるコマンドを出力する。これにより、移動型ロボットは、対話対象が知覚可能な単独の動作または動作の組合せとして対話誘発動作を実行できる。ここで、対話対象が知覚可能な動作は、例えば、対話対象が視聴できるような移動型ロボットの動きや発話である。また、移動型ロボットの動きとして、例えば、関節を動かすことで複数の可動部を動作させることができる。
また、請求項2に記載のロボットは、請求項1に記載の移動型ロボットであって、前記対話誘発動作情報記憶手段が、前記対話誘発動作情報を所定の重みづけデータと共に記憶し、前記対話誘発動作決定手段が、前記検出された部位に基づいて、前記検出された部位以外の部位を用いる対話誘発動作を前記対話誘発動作情報から検索する対話誘発動作検索手段と、前記検索された対話誘発動作の中から前記重みづけデータに基づいて実行すべき対話誘発動作を選択する対話誘発動作選択手段とを備えることを特徴とする。
かかる構成によれば、移動ロボットは、対話誘発動作情報記憶手段に、対話誘発動作情報を所定の重みづけデータと共に記憶するので、現在使用していない部位を使用する対話誘発動作の候補が複数存在する場合に、所定の重みづけデータに基づいて、実行すべき1つの対話誘発動作を容易に決定することができる。ここで、所定の重みづけデータは、例えば、予め定めておいてもよいし、状況に応じてその都度設定するようにしてもよい。また、この重みづけデータは、適宜更新するようにしてもよい。
また、請求項3に記載の移動型ロボットは、請求項2に記載のロボットであって、前記記憶された重みづけデータは、当該移動型ロボットが実行するタスクの種別、当該移動型ロボットの内部状態の良否、当該移動型ロボットの位置する場所、および、前記対話誘発動作の実行履歴状況のうちの少なくとも1つの項目に関して重みが予め定められたデータであり、前記対話誘発動作決定手段が、現在検出されたタスクの種別、当該移動型ロボットの内部状態の良否、当該移動型ロボットの位置する場所、および、前記対話誘発動作を最後に実行してから経過した時間のうちの少なくとも1つの情報に基づいて、前記重みづけデータの各項目から前記現在検出された各情報に対応する重みを判別する現在状況判別手段と、前記現在状況判別手段により判別された重みを使用して、前記対話誘発動作ごとに前記重みづけデータの各項目の重みを合計し、現在状況に対応した重みを算出する重みづけ算出手段とをさらに備え、前記対話誘発動作選択手段が、前記算出された現在状況に対応した重みが最も重い対話誘発動作を、実行すべき対話誘発動作として選択することを特徴とする。
かかる構成によれば、移動型ロボットは、現在状況判別手段によって、現在検出された情報に基づいて、重みづけデータの各項目から、現在検出された各情報に対応する重みを判別し、重みづけ算出手段によって、現在状況に対応した重みづけデータの各項目の重みを合計することで、対話誘発動作ごとに現在状況を反映した重みを算出する。そして、移動型ロボットは、現在の重みが最も重い対話誘発動作を、実行すべき対話誘発動作として選択する。したがって、移動型ロボットは、現在状況を反映した適切な対話誘発動作を実行できる。ここで、移動型ロボットの内部状態の良否とは、例えば、バッテリ残量が充分であれば「良」、不足していれば「否」を意味する。
また、請求項4に記載の移動型ロボットは、請求項3に記載の移動型ロボットであって、前記知覚可能動作制御手段が、前記現在検出されたタスクの種別、当該移動型ロボットの内部状態の良否、および、当該移動型ロボットの位置する場所のうちの少なくとも1つの情報が状態変化した場合に、前記対話対象が知覚可能な動作を開始させることで前記対話誘発動作を開始させることを特徴とする。
かかる構成によれば、移動型ロボットは、現在状況が変化したときに、対話誘発動作を開始する。したがって、現在状況に合わせて適切な対話誘発動作を実行することが可能である。
また、請求項5に記載の移動型ロボットは、請求項3または請求項4に記載の移動型ロボットであって、前記知覚可能動作制御手段が、前記対話対象が知覚可能な動作を実行させているときに、前記現在検出されたタスクの種別、当該移動型ロボットの内部状態の良否、および、当該移動型ロボットの位置する場所のうちの少なくとも1つの情報が状態変化した場合に、前記現在実行させている動作を終了させることで前記対話誘発動作を終了させることを特徴とする。
かかる構成によれば、移動型ロボットは、現在状況が変化したときに、実行中の対話誘発動作を終了する。したがって、現在状況に合わせて適切な対話誘発動作を実行することが可能である。
また、請求項6に記載の移動型ロボットは、請求項2に記載の移動型ロボットであって、前記記憶された重みづけデータが、当該移動型ロボットが実行するタスクの種別、当該移動型ロボットの内部状態の良否、当該移動型ロボットの位置する場所、前記対話対象の反応、および、前記対話誘発動作の実行履歴状況のうちの少なくとも1つの項目に関して重みが予め定められたデータであり、前記対話誘発動作決定手段が、前記対話誘発動作を実行した後に前記画像処理部で処理された画像または前記音声認識部で認識された音声を用いて前記対話対象の反応を予め設定された基準により判別する反応判別手段と、前記判別された反応に基づいて、前記記憶された重みづけデータの前記実行した対話誘発動作に関して、前記対話対象の反応の項目の重みを、前記対話対象の反応別に予め定められた重みに更新する重みづけデータ更新手段とをさらに備えることを特徴とする。
かかる構成によれば、移動型ロボットは、反応判別手段によって、対話誘発動作を実行した後に取得した対話対象の画像または音声を用いて対話対象の反応を判別し、重みづけデータ更新手段によって、判別された反応に基づいて対話誘発動作の重みづけデータにおいて、実行した対話誘発動作に関して、対話対象の反応の項目の重みを更新する。したがって、対話誘発動作を決定する基準となる重みづけデータが、対話対象の反応を反映したものとなる。その結果、移動型ロボットは、対話対象が良好な反応を示すような適切な対話誘発動作を次回から選択することが可能となる。
また、請求項7に記載の移動型ロボットは、請求項6に記載の移動型ロボットであって、前記対話対象の反応別に、前記発話情報として前記対話誘発動作に関連する話題を記憶した発話情報記憶手段と、前記反応判別手段で判別された前記対話対象の反応に基づいて、前記対話誘発動作に関連する話題を前記発話情報記憶手段から選択して前記発話情報として前記知覚可能動作制御手段に出力する発話情報選択手段とをさらに備えることを特徴とする。
かかる構成によれば、移動型ロボットは、発話情報選択手段によって、対話対象の反応に基づいて、対話誘発動作に関連する話題を発話情報として選択し、対話誘発動作に関連する話題を発話する。したがって、移動型ロボットは、対話誘発動作に関連する話題を用いて対話対象に対して自発的に対話を開始し、対話対象の発話を誘発することができる。ここで、対話対象の反応とは、例えば、ロボットに声をかけたり、接近したりすることを示す。
請求項1に記載の発明によれば、移動型ロボットは、使用していない部位を有効に活用して対話対象の発話を誘発する行動ができる。
請求項2に記載の発明によれば、移動型ロボットは、対話誘発動作の候補が複数存在する場合に、その中から1つの対話誘発動作を容易に決定することができる。
請求項3ないし請求項5に記載の発明によれば、移動型ロボットは、内部状態や現在位置等の現在状況を反映した適切な対話誘発動作を実行できる。
請求項6に記載の発明によれば、移動型ロボットは、対話対象が良好な反応を示すような適切な対話誘発動作を実行することができる。
請求項7に記載の発明によれば、移動型ロボットは、対話対象に対して自発的に対話を開始することができる。
以下、図面を参照して本発明の移動型ロボット(以下「ロボット」という)を実施するための最良の形態(以下「実施形態」という)について詳細に説明する。まず、本発明の実施形態に係るロボットを含むロボット制御システムAの全体構成について図1を参照して説明する。図1は、本発明の実施形態に係るロボットを含むロボット制御システムの構成を模式的に示す図である。
(ロボット制御システムAの構成)
図1に示すように、ロボット制御システムAは、ロボットRと、このロボットRと無線通信によって接続された基地局1と、この基地局1とロボット専用ネットワーク2を介して接続された管理用コンピュータ3と、この管理用コンピュータ3にネットワーク4を介して接続された端末5とから構成される。
図1に示すように、このロボット制御システムAは、移動機能を備えた複数のロボットRA,RB,RC(ただし、ロボットを特定しない場合は、単にロボットRという)を有しており、各ロボットRは、管理用コンピュータ3においてロボットR毎に予め設定されたタスクの実行計画(タスクスケジュール)に従って、タスクを実行する。
ここでは、自律移動型の2足歩行ロボットを一例として説明する。
ロボットRは、管理用コンピュータ3から入力された実行命令に従ってタスクを実行するものであり、ロボットRがタスクを実行する領域として予め設定されたタスク実行エリア内に、少なくとも一台配置されている。
ここで、図1には、来訪者を会議室などの所定の場所に案内するという内容のタスク(案内タスク)を実行中のロボットRAと、荷物をある人に渡すという内容のタスク(荷物配達タスク)を実行中のロボットRBと、新たなタスクが割り当てられるまで待機中のロボットRCとが、例示されている。
ロボットRは、図2に示すように、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5を有しており、胴部R4にそれぞれ接続された頭部R1、腕部R2、脚部R3は、それぞれアクチュエータ(駆動手段)により駆動され、自律移動制御部50(図6参照)により2足歩行の制御がなされる。この2足歩行についての詳細は、例えば、特開2001−62760号公報に開示されている。
このロボットRは、例えば、案内タスクを実行するときには、人物Hを所定の案内領域(オフィスや廊下などの移動領域)で案内する。ここでは、ロボットRは、周囲に光(例えば、赤外光、紫外光、レーザ光など)および電波を発信して周辺領域に、タグTを備えた人物Hが存在するか否かを検知し、検知した人物Hの位置を特定して接近し、タグTに基づいて、人物Hが誰であるのかという個人識別を行う。このタグTは、ロボットRが人物の位置(距離および方向)を特定するために発する赤外光および電波を受信する。このタグTは、受信した赤外光に含まれる受光方向を示す信号と、受信した電波に含まれるロボットIDとに基づいて、タグ識別番号を含む受信報告信号を生成し、当該ロボットRに返信する。この受信報告信号を受信したロボットRは、受信報告信号に基づいて、タグTを装着した人物Hまでの距離と方向とを認識し、当該人物Hに接近することができる。
ロボットRは、あるタスク(例えば案内タスクや荷物配達タスクなど)を実行するために案内領域内を自律移動する場合に、レーザスリット光または赤外線を照射して、路面状態あるいは路面上のマークを探索するようになっている。すなわち、ロボットRは、自己が移動領域内のどこを移動しているかを把握し、通常の移動領域内にいる場合はレーザスリット光を路面に照射して路面の段差、うねり、障害物の有無などを検出し、マークMの設置領域内にいる場合は、赤外線を路面に照射してマークMを検出し、自己位置の確認・補正などを行うようになっている。ここで、マークMは、例えば赤外線を再帰的に反射する反射材料で構成された部材である。また、マークMは位置データを有しており、当該位置データは地図データに含まれる形で記憶部30(図6参照)に記憶されている。なお、地図データは、案内領域内の特定の場所に設置されたマークMの位置データと、当該位置データに所定の幅(範囲)を持たせたマークMの設置領域に関するデータとを含んでいる。また、マークMの設置領域とは、マークMから所定距離の範囲内にある領域をいい、例えば、マークMを中心とした半径が1〜3mの円形領域や、マークMの手前(ロボット側)3mの矩形領域などのように任意に設定される。
図1に戻って、ロボット制御システムAの構成の説明を続ける。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を仲介するものである。
具体的には、基地局1は、管理用コンピュータ3から出力された実行命令をロボットRに送信すると共に、ロボットRから送信されたロボットRの状態に関するデータ(ステータス情報)やロボットRが実行命令を受信したことを示す信号(受信報告信号)を受信して、管理用コンピュータ3に出力するものである。
基地局1は、ロボットRと管理用コンピュータ3との間のデータ交換を確実に行えるようにするために、タスク実行エリア内に少なくとも一つ設けられている。
なお、タスク実行エリアが建物の数フロアに亘って設定されている場合には、フロア毎に設けられていることが好ましく、一つの基地局1では総てのタスク実行エリアをカバーできない場合には、複数の基地局1がタスク実行エリア内に設けられていることが好ましい。
ロボット専用ネットワーク2は、基地局1と、管理用コンピュータ3と、ネットワーク4とを接続するものであり、LAN(Local Area Network)などにより実現されるものである。
管理用コンピュータ3は、複数のロボットRを管理するものであり、基地局1、ロボット専用ネットワーク2を介してロボットRの移動・発話などの各種制御を行うと共に、ロボットRに対して必要な情報を提供する。ここで、必要な情報とは、検知された人物の氏名や、ロボットRの周辺の地図(ローカル地図)などがこれに相当し、これらの情報は、管理用コンピュータ3の記憶部3aに記憶されている。
図3は、図1に示したロボットシステムで用いられるローカル地図の一例を示す図である。ここでは、案内領域301は、図3(a)に示すように、建物のあるフロアの長方形の領域である。ロボットRやロボットRが案内すべき人物は、案内領域301の出入口302の外側の廊下303を通って案内領域301に入る。出入口302の内側には、ホール304が広がっており、ホール304の奥の隅には受付305が配置され、案内領域301の壁側には個室として仕切られた複数の会議室306(306a,306b,306c)が設けられている。受付305は、L字型のカウンタテーブル305aと、受付スタッフが配置されるカウンタスペース305bとから成る。カウンタスペース305bには、基地局1が設置されている。なお、管理用コンピュータ3は、通路や部屋などのローカル地図の情報を位置座標データと関連づけて登録したローカルマップ(ローカル地図データ)と、ローカルマップを集積したタスク実行エリアの地図情報であるグローバルマップとを記憶部3a(図1参照)に保持している。
また、管理用コンピュータ3は、ロボットRに実行させるタスクに関する情報(タスクデータ)を記憶するタスク情報データベースを記憶部3a(図1参照)に保持している。
図4に示すように、タスク情報データベース400には、タスク毎に割り当てられた固有の識別子であるタスクID、タスクの優先度、タスクの重要度、タスクを実行させるロボットの識別子であるロボットID、案内や運搬(荷物配達)などのタスクの内容、タスク実行エリア内におけるタスクを開始する位置(開始位置)、タスク実行エリア内におけるタスクを終了する位置(終了位置)、タスクの実行に要する時間(所要時間)、そしてタスクの開始予定時刻(開始時刻)、タスクの終了予定時刻(終了時刻)、そしてタスクの状態などが、情報項目として含まれている。
また、管理用コンピュータ3は、ロボットRに実行させるタスクの実行計画(タスクスケジュール)を、ロボットR毎に設定するものである。
図5に示すように、タスクスケジュールテーブル500は、ロボットRに実行させるタスクの実行順位、タスク情報データベース400(図4参照)に登録されたタスクを特定するためのタスクID、タスクの優先度、タスクの内容、そしてタスクの状態を情報項目として含むテーブルである。
このタスクスケジュールテーブル500では、これら情報項目が、タスク実行エリア内に配置されたロボットR毎に整理されており、どの様なタスクが、どのような順番で各ロボットRに割り当てられているのかを把握できるようになっている。
再び、図1に戻って、ロボット制御システムAの構成の説明を続ける。
端末5は、ネットワーク4を介して管理用コンピュータ3に接続し、管理用コンピュータ3の記憶部3aに、人物に関する情報などを登録する、もしくは登録されたこれらの情報を修正するものである。また、端末5は、ロボットRに実行させるタスクの登録や、管理用コンピュータ3において設定されるタスクスケジュールの変更や、ロボットRの動作命令の入力などを行うものである。
以下、ロボットRについて詳細に説明する。
[ロボット]
ロボットRは、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5に加えて、これら各部R1〜R5の適所に、図6に示すように、カメラC,C、スピーカS、マイクMC,MC、画像処理部10、音声処理部20、記憶部30、主制御部40、自律移動制御部50、無線通信部60、バッテリ70、対象検知部80、および周辺状態検知部90を有する。
さらに、ロボットRは、ロボットRの向いている方向を検出するジャイロセンサSR1や、予め設定された地図上におけるロボットRの存在する位置座標を取得するためのGPS(Global Positioning System)受信器SR2を有している。
[カメラ]
カメラ(視覚センサ)C,Cは、ロボットRの前方移動方向側の映像をデジタルデータとして取り込むことができるものであり、例えば、カラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像処理部10に出力される。このカメラC,Cと、スピーカSおよびマイクMC,MCは、いずれも頭部R1の内部に配設される。スピーカ(音声出力手段)Sは、音声処理部20で音声合成された所定の音声を発することができる。
[画像処理部]
画像処理部(画像処理手段)10は、カメラC,Cが撮影した画像(撮影画像)を処理して、撮影された画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。この画像処理部10は、ステレオ処理部11a、移動体抽出部11bおよび顔認識部11cを含んで構成される。
ステレオ処理部11aは、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を移動体抽出部11bに出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。
移動体抽出部11bは、ステレオ処理部11aから出力されたデータに基づき、撮影した画像中の移動体を抽出するものである。移動する物体(移動体)を抽出するのは、移動する物体が人物であると推定して、人物の認識をするためである。
移動体の抽出をするために、移動体抽出部11bは、過去の数フレーム(コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物があると推定し、その所定距離範囲のみの視差画像として、移動体を抽出し、顔認識部11cへ移動体の画像を出力する。
顔認識部11cは、抽出した移動体の一部分の大きさ、形状などから顔領域および顔の位置を認識する。なお、同様にして、抽出した移動体の一部分の大きさ、形状などから手の位置も認識される。
認識された顔の位置は、ロボットRが移動するときの情報として、また、その人とのコミュニケーションを取るため、主制御部40に出力される。
[音声処理部]
音声処理部20は、音声合成部21aと、音声認識部21bおよび音源定位部21cを有する。
音声合成部21aは、主制御部40が決定し、出力してきた発話行動の指令に基づき、文字情報(テキストデータ)から音声データを生成し、スピーカSに音声を出力する部分である。音声データの生成には、予め記憶部30に記憶している文字情報(テキストデータ)と音声データとの対応関係を利用する。なお、音声データは、管理用コンピュータ3から取得され、記憶部30に保存される。
音声認識部(音声認識手段)21bは、マイクMC,MCから音声データが入力され、入力された音声データから文字情報(テキストデータ)を生成し、主制御部40に出力するものである。なお、音声データと文字情報(テキストデータ)との対応関係は、記憶部30に予め記憶されている。
音源定位部21cは、マイクMC,MC間の音圧差および音の到達時間差に基づいて音源位置(ロボットRが認識する平面状の位置)を特定し、主制御部40に出力するものである。音源位置は、例えば、ロボットRの立っている方向(z軸方向)周りの回転角θzで表される。
[記憶部]
記憶部30は、例えば、一般的なハードディスク等から構成され、管理用コンピュータ3から送信された必要な情報(ローカル地図データ、会話用データなど)を記憶するものである。また、記憶部30は、後記するように、主制御部40の各種動作を行うために必要な情報を記憶している。
[主制御部]
主制御部40は、画像処理部10、音声処理部20、記憶部30、自律移動制御部50、無線通信部60、対象検知部80、および周辺状態検知部90を統括制御するものである。また、ジャイロセンサSR1、およびGPS受信器SR2が検出したデータは、主制御部40に出力され、ロボットRの行動を決定するために利用される。この主制御部40は、例えば、管理用コンピュータ3と通信を行うための制御、管理用コンピュータ3から取得したタスク実行命令に基づいて所定のタスクを実行するための制御、ロボットRを目的地に移動させるための制御、人物を識別するための制御、人物と対話するための制御を行うために、種々の判断を行ったり、各部の動作のための指令を生成したりする。
[自律移動制御部]
自律移動制御部50は、主制御部40の指示に従い頭部R1、腕部R2、脚部R3および胴部R4を駆動するものである。この自律移動制御部50は、図示を省略するが、頭部R1の首関節を駆動させる首制御部、腕部R2の手の先の指関節を駆動させる手制御部、腕部R2の肩関節、肘関節、手首関節を駆動させる腕制御部、脚部R3に対して胴部R4を水平方向に回転駆動させる腰制御部、脚部R3の股関節、膝関節、足首関節を駆動させる足制御部を有している。これら首制御部、手制御部,腕制御部、腰制御部および足制御部は、頭部R1、腕部R2、脚部R3および胴部R4を駆動するアクチュエータに駆動信号を出力する。
[無線通信部]
無線通信部60は、管理用コンピュータ3とデータの送受信を行う通信装置である。無線通信部60は、公衆回線通信装置61aおよび無線通信装置61bを有する。
公衆回線通信装置61aは、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線を利用した無線通信手段である。一方、無線通信装置61bは、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信による無線通信手段である。
無線通信部60は、管理用コンピュータ3からの接続要求に従い、公衆回線通信装置61aまたは無線通信装置61bを選択して管理用コンピュータ3とデータ通信を行う。
バッテリ70は、ロボットRの各部の動作や処理に必要な電力の供給源である。このバッテリ70は、充填式の構成をもつものが使用され、バッテリ補給エリア(図1参照)で電力が補給される。
[対象検知部]
対象検知部(対象検知手段)80は、ロボットRの周囲にタグTを備える人物が存在するか否かを検知するものである。対象検知部80は、複数の発光部81(図6では1つのみ表示した)を備える。これら発光部81は、例えば、LEDから構成され、ロボットRの頭部R1外周に沿って前後左右などに配設される(図示は省略する)。対象検知部80は、発光部81から、各発光部81を識別する発光部IDを示す信号を含む赤外光をそれぞれ発信すると共に、この赤外光を受信したタグTから受信報告信号を受信する。いずれかの赤外光を受信したタグTは、その赤外光に含まれる発光部IDに基づいて、受信報告信号を生成するので、ロボットRは、この受信報告信号に含まれる発光部IDを参照することにより、当該ロボットRから視てどの方向にタグTが存在するかを特定することができる。また、対象検知部80は、タグTから取得した受信報告信号の電波強度に基づいて、タグTまでの距離を特定する機能を有する。したがって、対象検知部80は、受信報告信号に基づいて、タグTの位置(距離および方向)を、人物の位置として特定することができる。さらに、対象検知部80は、発光部81から赤外光を発光するだけではなく、ロボットIDを示す信号を含む電波を図示しないアンテナから発信する。これにより、この電波を受信したタグTは、赤外光を発信したロボットRを正しく特定することができる。なお、対象検知部80およびタグTについての詳細は、例えば、特開2006−192563号公報に開示されている。
[周辺状態検知部]
周辺状態検知部90は、ロボットRの周辺状態を検知するものであり、ジャイロセンサSR1やGPS受信器SR2によって検出された自己位置データを取得可能になっている。また、周辺状態検知部90は、探索域に向かってスリット光を照射するレーザ照射部91と、探索域に向かって赤外線を照射する赤外線照射部92と、スリット光または赤外線が照射された探索域を撮像する床面カメラ93とを有する。この周辺状態検知部90は、床面カメラ93で撮像したスリット光画像(スリット光が照射されたときの画像)を解析して路面状態を検出する。また、周辺状態検知部90は、床面カメラ93で撮像した赤外線画像(赤外線が照射されたときの画像)を解析してマークM(図2参照)を検出し、検出されたマークMの位置(座標)からマークMとロボットRとの相対的な位置関係を計算する。なお、周辺状態検知部90についての詳細は、例えば、特開2006−167844号公報に開示されている。
[主制御部の構成]
図7は、図6に示したロボットの主制御部の構成を示すブロック図である。
主制御部40は、静止障害物統合部41と、オブジェクトデータ統合部42と、行動パターン部43と、身振り統合部44と、内部状態検出部45と、行動計画管理部46と、対話誘発動作制御部47とを備えている。
静止障害物統合部41は、周辺状態検知部90で検知されたロボットRの周辺状態に関する情報を統合し、行動パターン部43に出力するものである。例えば、静止障害物統合部41が、ロボットRの進路の床面に段ボール箱などの障害物を検知した場合や、床面の段差を検知した場合には、行動パターン部43は、この統合された障害物情報に基づいて、図示しない局所回避モジュールによって迂回経路を探索する。
オブジェクトデータ統合部42は、ロボットRの姿勢データ、画像処理部10、対象検知部80および音源定位部21cからの入力データに基づいて、対象物(オブジェクト)に関する識別データ(オブジェクトデータ)を統合し、この統合したオブジェクトデータを記憶部30のオブジェクトデータ記憶手段31に出力するものである。これにより、オブジェクトデータ記憶手段31には、オブジェクトデータをオブジェクト別かつ時刻別に記録したデータであるオブジェクトマップが生成される。
行動パターン部43は、行動パターンを実行するための各種プログラム(モジュール)を格納すると共に、この行動パターンを実行するときに、記憶部30を参照して、行動パターンに反映するものである。
本実施形態では、図7に示すように、記憶部30に、オブジェクトデータ記憶手段31のほかに、ローカル地図データ記憶手段32と、シナリオ記憶手段33と、対話誘発動作情報記憶手段34と、発話情報記憶手段35とを備えている。
ローカル地図データ記憶手段32は、図3を参照して説明したロボットRの周辺の地図(ローカル地図)を記憶するものである。このローカル地図は、例えば、管理用コンピュータ3から取得される。
シナリオ記憶手段33は、各種行動パターンに対応したシナリオ(台本)を記憶するものである。シナリオは、例えば、歩行中に人物や障害物(オブジェクト)に遭遇したときにオブジェクトの1m手前で立ち止まるといったもの、立ち止まってから10秒後に腕部R2を所定位置まで上げるといったものなど動作に関するものと、発話に関するものとがある。また、シナリオ記憶手段33は、所定の発話を行うときに頭部R1、腕部R2、脚部R3および胴部R4のうちの少なくとも1つの部位を移動させる身体動作である身振りを指定する予め作成されたシナリオを記憶する。
対話誘発動作情報記憶手段34は、対話誘発動作情報を記憶するものである。対話誘発動作情報は、対話誘発動作制御部47が管理するものなので詳細は後記する。
発話情報記憶手段35は、ロボットRの発話行動に用いられる話題を発話情報として記憶するものである。本実施形態では、発話情報記憶手段35は、対話対象の反応別に、発話情報として対話誘発動作に関連する話題を記憶している。具体的には、対話誘発動作が「踊り」であれば、話題も「踊り」に関するものである。また、本実施形態では、例えば、対話対象の反応が「ロボットRに対して話しかける行為」である場合に、「踊り」に関する話題のうち、比較的詳細な内容や長文の発話が用意され、対話対象の反応が「ロボットRに対して接近する行為」である場合に、「踊り」に関する話題のうち、比較的簡略な内容や短文の発話が用意されている。さらに、発話情報記憶手段35は、対話誘発動作別に、発話情報として対話誘発動作に関連する話題を記憶している。したがって、対話誘発動作が、例えば「踊る」と「歌う」であれば、「踊り」に関する話題と「歌う」に関する話題とが記憶されている。ここで、対話対象とは、ロボットが対話可能な対象である人物等を指す。
行動パターン部43は、オブジェクトデータ記憶手段31、ローカル地図データ記憶手段32、シナリオ記憶手段33、および発話情報記憶手段35を適宜利用して様々な場面や状況に応じた行動パターンを実行するモジュールを備えている。モジュールの例としては、目的地移動モジュール、局所回避モジュール、デリバリモジュール、案内モジュール、人対応モジュール等がある。
目的地移動モジュールは、ロボットRの現在位置から、例えば、タスク実行エリア内のタスク実行位置等の目的地までの経路探索(例えばノード間の経路を探索)及び移動を行うものである。この目的地移動モジュールは、地図データと現在位置とを参照しつつ、目的地までの最短距離を求める。
局所回避モジュールは、歩行中に障害物が検知されたときに、静止障害物統合部41で統合された障害物情報に基づいて、障害物を回避する迂回経路を探索するものである。
デリバリモジュールは、荷物配達タスクを実行するときに動作するものであり、物品の運搬を依頼する人物(依頼人)から物品を受け取る(把持する)動作や、受け取った物品を受取人に渡す(物品を手放す)動作を実行するものである。
案内モジュールは、例えば、タスク実行エリア内の案内開始地点に来訪した来訪客を案内領域301(図3参照)の受付305にいる受付スタッフのもとへ案内するタスクを実行するものである。
人対応モジュールは、例えば、物品運搬タスクや案内タスクの実行時に所定のシナリオに基づいて、発話、姿勢の変更、腕部R2の上下移動や把持等を行うものである。
身振り統合部44は、対象とする人物に対して行う発話に対応した身振りをシナリオ記憶手段33から抽出し、抽出した身振りを指定するコマンドを自律移動制御部50に出力するものである。頭部R1の動作による身振りは、例えば、頭部R1を下方に傾けることで「お辞儀」、「礼」、「同意」、「謝罪」等を表示する動作や、頭部R1を左右に傾けることで「分からない」という意思表示を伝える動作が含まれる。また、腕部R2の動作による身振りは、例えば、腕部R2を上げることで「喜び」、「賞賛」等を表示する動作や、腕部R2を下方左右に広げることや握手を行うことで「歓迎」という意思表示を伝える動作が含まれる。また、脚部R3の動作による身振りは、例えば、その場で駆け足をすることで「喜び」、「元気」等の意思表示を伝える動作が含まれる。
内部状態検出部45は、ロボットRの内部状態を検出するものである。本実施形態では、内部状態検出部45は、バッテリ70の残量を検出する。また、内部状態検出部45は、ロボットRの状態(現在位置、バッテリ残量、タスク実行状況など)に関するデータを所定時間間隔毎にステータス情報として生成し、生成したステータス情報を対話誘発動作制御部47に出力する。また、内部状態検出部45は、生成したステータス情報を無線通信部60を介して管理用コンピュータ3に出力する。そして、管理用コンピュータ3は、入力されたステータス情報を記憶部3aに格納された図示しないロボット情報データベースにロボットR毎に登録する。
行動計画管理部46は、行動パターン部43が備える各種モジュールを所定のスケジュールで実行する行動計画を管理するものである。本実施形態では、行動計画管理部46は、管理用コンピュータ3から取得したタスク実行命令に基づいて予め定められたタスクを実行するための行動計画を管理し、現在実行すべき作業に必要なモジュールを適宜選択する。
対話誘発動作制御部(対話誘発動作制御手段)47は、対話対象とのコミュニケーションを誘発するために実行する対話誘発動作を、対話対象が知覚可能な動作をそれぞれ行う複数の可動部とスピーカSとのうちの少なくとも1つの部位を使用して対話対象が知覚可能な単独の動作または動作の組合せとして各部位に実行させる制御を行うものである。
[対話誘発動作制御部の構成]
図8は、図7に示した対話誘発動作制御部の構成を示すブロック図である。
対話誘発動作制御部47は、図8に示すように、使用状況検出手段110と、対話誘発動作決定手段120と、知覚可能動作制御手段130とを備え、これらによって記憶部30に記憶された各種の情報やデータに基づいて後記する制御を行う。
記憶部30に備えられた対話誘発動作情報記憶手段34は、対話誘発動作と、当該対話誘発動作を実行するために使用する部位とを予め関連付けた情報を示す対話誘発動作情報を複数記憶している。この対話誘発動作情報記憶手段34は、対話誘発動作情報を所定の重みづけデータと共に記憶している。ここで、対話誘発動作情報および重みづけデータの具体例について図9を参照して説明する。
図9は、図8に示した対話誘発動作情報記憶手段に記憶された情報テーブルを示す図である。この例では、対話誘発動作情報記憶手段34(図8参照)は、対話誘発動作情報テーブル910と、動作不許可情報テーブル920と、重みデータテーブル930とを有している。図9(a)に示すように、対話誘発動作情報テーブル910は、対話誘発動作と、その動作を実行するために使用する可動部の部位とを関連付けたテーブルであり、項目として、対話誘発動作の識別番号、対話誘発動作の内容、可動部の各部位とを有している。この対話誘発動作情報テーブル910では、可動部の部位の一例として、腕、指、肩、頭およびスピーカ(口)を記述した。例えば、識別番号「1」は、腕、指、肩および頭を使用すると共に、スピーカ(口)を使用しないで「踊る」動作を、対話誘発動作として行うことを示す。
図9(b)に示すように、動作不許可情報テーブル920は、ロボットRの現在位置と、ロボットRが実行する対話誘発動作のうち現在位置において許可されていない動作(不許可動作)とを関連付けたテーブルである。この動作不許可情報テーブル920では、ロボットRの現在位置の一例として、受付、廊下および会議室を記述した。また、動作不許可情報テーブル920では、例えば、「受付」では、不許可動作は記述されていないが、「廊下」では、識別番号「1」および「8」の動作は、許可されていないことを示す。
図9(c)に示すように、重みデータテーブル930は、対話誘発動作を実行するロボットRの現在状況と、対話誘発動作の履歴とに所定の重みを関連付けたテーブルである。
この重みデータテーブル930は、項目の一例として、現在状況1(タスク)、現在状況2(場所)および実行履歴状況とを有している。
現在状況1(タスク)の項目には、タスクが無い場合の重みと、案内タスクを実行する場合の重みとを有している。そして、各対話誘発動作では、タスクが無い場合の重みと、案内タスクを実行する場合の重みとがそれぞれ異なっている。例えば、識別番号「1」の対話誘発動作(踊ること)は、ロボットRのタスクが無い場合には、非常に高いスコア「20」の重みであり、案内タスク中の場合には、非常に低いスコア「−100」の重みである。これは、「踊る」内容の対話誘発動作は、案内タスク中にさせないように予め重みづけて作成されたことを示している。なお、タスクの種類はこれに限定されるものではない。
現在状況2(場所)の項目には、ロボットRの現在位置を示す場所として「受付」における重みと、「廊下」における重みとを有している。そして、各対話誘発動作では、「受付」における重みと、「廊下」における重みとがそれぞれ異なっている。例えば、識別番号「1」の対話誘発動作(踊ること)は、ロボットRが「受付」にいる場合には、スコア「0」の重みであり、ロボットRが「廊下」にいる場合には、非常に低いスコア「−100」の重みである。これは、「踊る」内容の対話誘発動作は、廊下ではさせないように予め重みづけて作成されたことを示している。なお、ロボットRの現在位置を示す場所の種類はこれらに限定されるものではない。
実行履歴状況の項目には、「対話対象反応」における重みと、「実行回数」における重みとを有している。ここで、「対話対象反応」とは、対話対象の人物の反応であり、ロボットRが対話誘発動作を実行したことにより、例えば、対話対象の人物がロボットRに話しかけてきた場合に、後記する重みづけデータ更新手段127によって重みが更新されるものである。また、「実行回数」とは、これまでに対話誘発動作を実行した回数であり、例えば、回数が多いほどスコアが高くなるように重み付けられている。なお、実行履歴状況の項目の種類はこれらに限定されるものではなく、例えば、対話誘発動作を最後に実行してから経過した時間に関する項目を設けることができる。この場合には、経過時間が長いほどスコアが高くなるように重み付けられる。
図8に戻って、対話誘発動作制御部47の構成の説明を続ける。
<使用状況検出手段>
使用状況検出手段110は、ロボットRの可動部(例えば、腕、指、肩、頭)とスピーカ(音声出力部)Sとを示す各部位のうち現在使用している部位を検出するものである。本実施形態では、使用状況検出手段110は、各部位の動作信号によって各部位が使用中であることを検出し、使用中または未使用であることを示す情報を使用状況として対話誘発動作決定手段120に出力する。
<対話誘発動作決定手段>
対話誘発動作決定手段120は、使用状況検出手段110で検出された使用状況(現在使用している部位)と、対話誘発動作情報記憶手段34に記憶された対話誘発動作情報とに基づいて実行すべき対話誘発動作を決定するものである。この対話誘発動作決定手段120は、図8に示すように、対話誘発動作検索手段121と、現在状況判別手段122と、使用許可判別手段123と、対話誘発動作選択手段124と、重みづけ算出手段125と、反応判別手段126と、重みづけデータ更新手段127と、発話情報選択手段128とを備えている。
対話誘発動作検索手段121は、使用状況検出手段110で検出された現在使用している部位に基づいて、検出された部位以外の部位を用いる対話誘発動作を対話誘発動作情報テーブル910から検索するものである。
現在状況判別手段122は、内部状態検出部45で検出されたロボットRの状態(現在位置、バッテリ残量、タスク実行状況など)に関するデータを示すステータス情報に基づいて、重みデータテーブル930の各項目から、現在検出された各情報に対応する重みを判別するものである。本実施形態では、一例として、現在状況判別手段122は、ステータス情報のうち、現在位置およびタスクの種別に関する現在の重みを判別することとした。なお、重みデータテーブル930に、例えば、バッテリ残量の項目や、対話誘発動作を最後に実行してから経過した時間の項目を含む場合には、現在状況判別手段122は、例えば、バッテリ残量が所定のしきい値より大きいか否かを判別したり、対話誘発動作を最後に実行してから経過した時間を算出したりすることで、こららの項目に関する現在の重みを判別するように構成してもよい。
使用許可判別手段123は、現在状況判別手段122により判別された情報の現在状況に応じて、ロボットRの可動部の各部位の使用が許可されているか否かを判別するものである。本実施形態では、使用許可判別手段123は、予め作成された動作不許可情報テーブル920(図9参照)と、現在状況判別手段122により判別された現在位置とに基づいて、ロボットRが実行する対話誘発動作のうち現在位置において許可されていない動作(不許可動作)を判別することとした。
対話誘発動作選択手段124は、対話誘発動作検索手段121で検索された対話誘発動作の中から重みデータテーブル930に基づいて実行すべき対話誘発動作を選択するものである。本実施形態では、対話誘発動作選択手段124は、使用許可判別手段123で判別された不許可動作を除いて、重みデータテーブル930(図9参照)と、現在状況判別手段122により判別された現在位置およびタスクの実行状況とに基づいて、実行すべき対話誘発動作を選択することとした。
重みづけ算出手段125は、現在状況判別手段122により判別された重みを使用して、対話誘発動作ごとに重みづけデータの各項目の重みを合計し、現在状況に対応した重みを算出するものである。本実施形態では、重みづけ算出手段125は、重みデータテーブル930(図9参照)において予め定められた重みと、現在状況判別手段122により判別された現在位置およびタスクの種別とに基づいて、所定のスコアを算出することとした。
反応判別手段126は、対話誘発動作を実行した後に画像処理部10で処理された画像または音声認識部21bで認識された音声を用いて対話対象の反応を予め設定された基準により判別する。例えば、音声認識部21bで「何をしているの?」、「ありがとう」のような音声や挨拶を示す肯定的な音声を認識することで、反応判別手段126は、「対話対象から音声の反応がある」と判別することが可能となる。また、音声認識部21bで「静かにしなさい」、「やめなさい」のような音声を認識することで、反応判別手段126は、「対話対象から不評を買った反応がある」と判別することが可能となる。また、例えば、画像処理部10による画像処理の結果、対話対象がロボットRに接近したことを認識することで、反応判別手段126は、「対話対象が興味を示す反応がある」と判別することが可能となる。なお、対話対象がロボットRに接近したと認識する方法は、例えば、画像処理部10による画像処理の結果、認識された顔画像の画素数が増加した場合にそのように認識することができる。
重みづけデータ更新手段127は、反応判別手段126で判別された反応に基づいて、対話誘発動作情報記憶手段34に記憶された重みづけデータにおいて、実行した対話誘発動作に関して、対話対象の反応の項目の重みを、対話対象の反応別に予め定められた重みに更新するものである。本実施形態では、重みづけデータ更新手段127は、重みデータテーブル930において該当する対話誘発動作の「対話対象反応」に関する実行履歴状況について、重みを更新する。具体的には、重みづけデータ更新手段127は、反応判別手段126で肯定的な反応(対話対象から好評を博した反応)であると判別された場合に、「対話対象反応」のスコア(重み)を増加させる(例えば、+10点)。一方、反応判別手段126で否定的な反応(対話対象から不評を買った反応)であると判別された場合に、「対話対象反応」のスコア(重み)を減少させる(例えば、−10点)。また、重みづけデータ更新手段127は、反応判別手段126で対話対象がロボットRに接近したと判別された場合(対話対象が興味を示す反応がある場合)に、「対話対象反応」のスコア(重み)を増加させる(例えば、+5点)。また、本実施形態では、重みづけデータ更新手段127は、対話誘発動作の実行回数を計数して、重みデータテーブル930において該当する対話誘発動作の「実行回数」のスコア(重み)を、計数した実行回数に比例させて増加させる。
発話情報選択手段128は、反応判別手段126で判別された対話対象の反応に基づいて、対話誘発動作に関連する話題を発話情報記憶手段35から選択して発話情報として知覚可能動作制御手段130に出力するものである。これにより、例えば、ロボットRが発話することの好ましくない場所にいるためにスピーカSを使用しない対話誘発動作を実行していたとしても、対話対象の反応が、例えば、「ロボットRに対して話しかける行為」である場合には、発話情報選択手段128は、未使用のスピーカSを用いて対話誘発動作に関連する話題を発話することができる。
<知覚可能動作制御手段>
知覚可能動作制御手段130は、対話誘発動作決定手段120により決定された対話誘発動作を実行するために使用する部位に対して対話対象が知覚可能な動作を実行させるものである。本実施形態では、知覚可能動作制御手段130は、頭部R1や腕部R2を用いた身振りを実行させるコマンドを身振り統合部44に出力し、発話情報選択手段128で選択された話題をスピーカSから発話させるコマンドを行動パターン部43に出力する。
また、知覚可能動作制御手段130は、内部状態検出部45で検出されたロボットRの状態(現在位置、バッテリ残量、タスク実行状況など)に関するデータを示すステータス情報が状態変化した場合に、対話対象が知覚可能な動作を開始させることで対話誘発動作を開始させる。本実施形態では、知覚可能動作制御手段130は、例えば、ロボットRが移動した場合、すなわち、現在位置が特定の場所(受付、廊下、会議室など)に変化した場合や、タスクを開始した場合、タスクを終了した場合、バッテリ残量が所定のしきい値より増加した場合等に、知覚可能動作を開始させるコマンドを各部に出力する。なお、ロボットRの起動時や、現在のバッテリ残量が充分であると判別された場合に、対話対象が知覚可能な動作を開始させるように構成することもできる。
また、知覚可能動作制御手段130は、ステータス情報が状態変化した場合に、現在各部に実行させている対話対象が知覚可能な動作を終了させることで対話誘発動作を終了させる。なお、ロボットRの現在のバッテリ残量が所定のしきい値より減少した場合等に、対話対象が知覚可能な動作を終了させるように構成することもできる。
また、知覚可能動作制御手段130は、認識尤度変更手段131を備えている。この認識尤度変更手段131は、発話情報選択手段128によって、対話誘発動作に関連する話題を選択した場合に、選択した話題に関連する単語の音声認識尤度を高めるものである。本実施形態では、認識尤度変更手段131は、対話誘発動作の話題を記憶した話題辞書に関連する語彙を音声認識部21b(図6参照)に供給し、その語彙に含まれる単語についての音声認識尤度を高くする。例えば、実行中の対話誘発動作が「踊り」であれば、認識尤度変更手段131は、「踊り」に関連する単語の音声認識尤度を高くする。
[ロボットの動作]
図6に示したロボットRの動作について主に対話誘発動作制御部47の動作を中心に図10を参照(適宜図1、図6および図7参照)して説明する。図10は、図7に示した対話誘発動作制御部の動作を示すフローチャートである。ロボットRは、主制御部40によって、無線通信部60を介して管理用コンピュータ3からローカル地図等の情報を予め取得しておく。
まず、対話誘発動作制御部47は、使用状況検出手段110によって、ロボットRの可動部の各部位の使用状況を検出し(ステップS1)、対話誘発動作決定手段120の使用許可判別手段123によって、使用することが許可されている部位を判別する(ステップS2)。具体的には、使用許可判別手段123は、動作不許可情報テーブル920(図9参照)と現在位置とに基づいて、不許可動作を判別する。そして、対話誘発動作制御部47は、対話誘発動作検索手段121によって、使用状況検出手段110で検出された部位を用いる対話誘発動作の候補を対話誘発動作情報テーブル910(図9参照)から抽出する(ステップS3)。そして、対話誘発動作制御部47は、現在状況判別手段122によって、ステータス情報に基づいて、重みづけの項目に対応する情報の現在状況を判別する(ステップS4)。すなわち、現在状況判別手段122は、重みデータテーブル930の各項目から、現在検出された各情報に対応する重みを判別する。そして、対話誘発動作制御部47は、ステップS2で判別された不許可動作を除いた対話誘発動作の候補について、重みづけ算出手段125によって、現在状況に応じて重みづけデータの重み(スコア)を算出する(ステップS5)。
そして、対話誘発動作制御部47は、対話誘発動作選択手段124によって、重みづけデータに基づいて対話誘発動作を選択する(ステップS6)。すなわち、対話誘発動作選択手段124は、重みづけデータのスコアが最大である対話誘発動作を実行すべき動作として決定する。そして、対話誘発動作制御部47は、知覚可能動作制御手段130によって、決定された対話誘発動作を実行させる命令を各部位に出力する(ステップS7)。
そして、ロボットRが対話誘発動作を実行した後、対話誘発動作制御部47は、反応判別手段126によって、対話対象の反応があると判別した場合には、重みづけデータ更新手段127によって、重みデータテーブル930の「対話対象反応」に関する実行履歴状況についての重みを更新する。これにより、次回から、対話誘発動作制御部47は、重みづけ算出手段125によって、更新された重みに基づいてスコアを算出することとなる。
また、対話対象の反応があった場合、対話誘発動作制御部47は、発話情報選択手段128によって、その反応に基づいて、対話誘発動作に関連する話題を発話情報記憶手段35から選択して発話情報として知覚可能動作制御手段130に出力する。これにより、ロボットRが対話誘発動作を実行した後、対話対象の反応に応じて、実行した対話誘発動作に関連する話題を自発的に発話することができる。
[対話誘発動作を決定する処理の具体例]
次に、ロボットRの対話誘発動作制御部47で、実行すべき対話誘発動作を決定する処理の具体例について図11を参照(適宜図9参照)して説明する。図11は、実行すべき対話誘発動作を決定する処理の一例を示す説明図である。この例では、図11(a)に示すように、対話誘発動作制御部47は、使用状況検出手段110によって、腕、指、肩、頭およびスピーカ(口)のうち、指と肩とが使用中であり、その他の部位が未使用であると判別した場合を想定している。ここで、指と肩とが使用中である状況とは、ロボットRが例えばトレイを把持して前腕および上腕の姿勢を変えずに肩関節を回転させる状況に相当する。この場合、図9(a)の対話誘発動作情報テーブル910に示すように、指と肩とを使用する識別番号「1」の対話誘発動作「踊る」を実行することはできない。
また、この例では、図11(b)に示すように、現在状況1として、ロボットRは現在実行すべきタスクを保有しておらず、また、現在状況2として、ロボットRの現在位置は「受付」である場合を想定している。このため、対話誘発動作制御部47は、使用許可判別手段123によって、図9(b)の動作不許可情報テーブル920と現在位置「受付」とに基づいて、不許可動作はないものと判別する。
また、図9(a)の対話誘発動作情報テーブル910に示す識別番号が「2」,「3」,「8」,「12」の対話誘発動作は、腕、頭およびスピーカ(口)のうちの少なくとも1つの部位を使用する対話誘発動作である。したがって、対話誘発動作制御部47は、対話誘発動作検索手段121によって、これらの対話誘発動作を、ロボットRがこれから実行すべき対話誘発動作の候補として抽出する。
そして、対話誘発動作制御部47は、現在状況判別手段122によって、図9(c)の重みデータテーブル930から、「現在状況1」、「現在状況2」および「実行履歴状況」の各項目に応じた重みづけデータの重みを選択し、重みづけ算出手段125によって、図11(b)に示すように、合計スコアを算出する。さらに、対話誘発動作制御部47は、対話誘発動作選択手段124によって、合計スコアが最大値「50」である対話誘発動作(2:天気情報を発話)を選択する。そして、対話誘発動作制御部47は、知覚可能動作制御手段130によって、決定された対話誘発動作を実行させる命令を音声合成部21a(図6参照)に出力する。
本実施形態によれば、ロボットRは、スピーカSや可動部の各部位の現在の使用状況と、対話誘発動作情報記憶手段34に記憶された重みづけデータとに基づいて、現在位置や現在のタスク実行状況等を考慮して決定した適切な対話誘発動作を実行する。また、ロボットRは対話対象の反応に基づいて、対話誘発動作に関連する話題を用いて対話対象に対して自発的に対話を開始する。したがって、ロボットRは、対話対象の状況によらずに対話対象の発話を誘発して自発的な対話を行うことができる。
以上、本発明の好ましい実施形態について説明したが、本発明は前記した実施形態に限定されるものではない。例えば、本実施形態では、対話誘発動作情報テーブル910において、ロボットRの対話誘発動作を実現する可動部の部位を、腕、指、肩、頭およびスピーカ(口)として説明したが、これは一例であって、腰や足を含めてもよい。また、これらの部位をさらに細分化して対話誘発動作を定義するようにしてもよい。
また、対話誘発動作情報テーブル910において、各部位に優先度を設定するようにしてもよい。例えば、全部位を3つのグループに分けて、「頭、腰、指」を優先度「大」に設定し、「スピーカ(口)」を優先度「中」に設定し、「腕、肩、足」を優先度「小」に設定してもよい。この場合、対話誘発動作検索手段121は、優先度「大」である「頭、腰、指」を使用する対話誘発動作を優先的に選択するようにしてもよい。
また、対話誘発動作情報テーブル910において、自律移動制御部50によって動かす各部位の関節の自由度や各関節の回転角度ごとに、対話誘発動作を定めるようにしてもよい。なお、関節の自由度は、関節を前後方向に曲げる、上下方向に曲げる、回転させる等の動きを示す。また、音声合成部21aによって合成する音声の音量ごとに、対話誘発動作を定めるようにしてもよい。
また、本実施形態では、対話誘発動作情報テーブル910において、「踊る」、「腕や首を振る」、「歌う」、「ニュースを発話する」、「天気情報を発話する」を例示したが、対話誘発動作は、これらに限定されるものではない。対話誘発動作は、例えば、「腰をひねる」、「腕をぶらぶら振る」、「手指を閉じたり開いたりする」、「把持した旗等の物品を振る」等の動作を含んでもよい。
また、本実施形態では、タスクを有していない場合について対話誘発動作を例示したが、タスク実行中に対話誘発動作を実行できることはもちろんである。例えば、デリバリモジュールによって荷物配達タスクを実行するときには、依頼人から物品を受け取るときや、受け取った物品を受取人に渡すときには、対話誘発動作に関連する話題は発話せずに、タスクに必要な発話を行う。そして、ロボットRは、依頼人のいる場所から受取人のいる場所に移動する間、例えば、廊下を歩行しているときに、荷物配達タスクで使用していないスピーカSを用いて、ニュースを発話することができる。そして、歩行中にすれ違った人物からの発話を誘発することができる。仮に、話しかけられた場合には、受け答えをしたり、「配達中なので応答できません」という返事をしたりすることができる。
また、本実施形態のロボットRが実行する対話誘発動作は、ロボットRの近くに対話対象がいる状況で必ず実行しなければならないものではない。例えば、ロボットRは無人のロビーで対話誘発動作を実行してもよい。この場合であっても、ロボットRは、対話することを命令されていないような偶然に通りかかった人物から、「何をしているの?」等の発話を自然に誘発することが可能である。
また、本実施形態では、対話誘発動作情報記憶手段34は、対話誘発動作情報を、現在状況や実行履歴状況に関する重みづけデータと共に記憶しているものとして説明したが、このような現在状況や実行履歴状況に関する重みづけデータは必ずしも必要ではない。例えば、対話誘発動作決定手段120は、重みづけデータを用いずに、複数の対話誘発動作の中から実行すべき動作をランダムに選択してもよい。また、対話誘発動作決定手段120は、複数の対話誘発動作の中から実行すべき動作を、所定の確率分布に基づいて選択してもよい。
また、本実施形態では、ロボットRは、動作不許可情報テーブル920(図9参照)を有し、使用許可判別手段123は、動作不許可情報テーブル920(図9参照)と、現在状況判別手段122により判別された現在位置とに基づいて、不許可動作を判別することとしたが、これに限定されるものではない。つまり、動作不許可情報テーブル920(図9参照)はロボットRにとって必須ではない。例えば、重みデータテーブル930(図9参照)の現在状況2(場所)の項目において、対話誘発動作を許可しない場所に「×」のスコアを予め設定し、かつ、対話誘発動作を許可する場所に「×」よりも高いスコアを予め設定しておくようにしてもよい。この場合、「×」のスコアを設定された場所で行う対話誘発動作について算出されるスコアが他よりも低くなる。その結果、その場所で行う対話誘発動作が選択されなくなる。
また、本実施形態では、対話対象が知覚可能な動作として、対話対象が視聴できるような可動部の部位の動作や発話を説明したが、ロボットRは、対話対象が臭覚によって知覚できるような動作を実行できるように構成してもよい。この場合には、例えば、芳香剤を噴射する芳香剤噴射装置をロボットRの所定位置に設け、この芳香剤噴射装置の噴射動作を対話対象の知覚可能動作とする。そして、この芳香剤噴射装置の単独の動作または他の部位の知覚可能動作と組み合わせることで、ロボットRの対話誘発動作を実現する。これにより、対話対象の発話を誘発する効果を奏することができる。
また、本実施形態では、ロボットを、2足歩行可能な自律移動型ロボットとして説明したが、これに限定されず、車輪で移動する自律移動型ロボットへの応用も可能である。この場合には、2足歩行可能な自律移動型ロボットの「足」に該等する可動部が「車輪」となる点を除いて、本実施形態と同等の効果を奏することができる。
本発明の実施形態に係るロボットを含むロボットシステムの構成を模式的に示す図である。 ロボットによる自己位置検出およびオブジェクト検出の一例を模式的に示す図である。 図1に示したロボットシステムで用いられるローカル地図の一例を示す図である。 図1に示した管理用コンピュータの記憶手段に記憶されたタスク情報データベースの一例を示す図である。 図1に示した管理用コンピュータの記憶手段に記憶されたタスクスケジュールテーブルの一例を示す図である。 本発明の実施形態に係るロボットの構成を示すブロック図である。 図6に示したロボットの主制御部の構成を示すブロック図である。 図7に示した対話誘発動作制御部の構成を示すブロック図である。 図8に示した対話誘発動作情報記憶手段に記憶された情報テーブルを示す図である。 図7に示した対話誘発動作制御部の動作を示すフローチャートである。 実行すべき対話誘発動作を決定する処理の一例を示す説明図である。
符号の説明
A ロボットシステム
R ロボット(移動型ロボット)
R1 頭部
R2 腕部
R3 脚部
R4 胴体部
R5 背面格納部
1 基地局
2 ロボット専用ネットワーク
3 管理用コンピュータ
3a 記憶部
4 ネットワーク
5 端末
10 画像処理部
20 音声処理部
21a 音声合成部
21b 音声認識部
21c 音源定位部
30 記憶部
31 オブジェクトデータ記憶手段
32 ローカル地図データ記憶手段
33 シナリオ記憶手段
34 対話誘発動作情報記憶手段
35 発話情報記憶手段
40 主制御部
41 静止障害物統合部
42 オブジェクトデータ統合部
43 行動パターン部
44 身振り統合部
45 内部状態検出部
46 行動計画管理部
47 対話誘発動作制御部(対話誘発動作制御手段)
50 自律移動制御部
60 無線通信部
70 バッテリ
80 対象検知部
90 周辺状態検知部
110 使用状況検出手段
120 対話誘発動作決定手段
121 対話誘発動作検索手段
122 現在状況判別手段
123 使用許可判別手段
124 対話誘発動作選択手段
125 重みづけ算出手段
126 反応判別手段
127 重みづけデータ更新手段
128 発話情報選択手段
130 知覚可能動作制御手段
131 認識尤度変更手段
C カメラ(視覚センサ)
MC マイク(音声入力部)
S スピーカ(音声出力手段)
SR1 ジャイロセンサ
SR2 GPS受信器

Claims (7)

  1. 視覚センサを介して取得された対話対象の撮影画像を画像処理する画像処理部と、音声入力部に入力された対話対象の音声を認識する音声認識部と、所定の発話情報に基づいて音声を出力する音声出力部と、前記対話対象が知覚可能な動作をそれぞれ行う複数の可動部とを有する移動型ロボットであって、
    前記対話対象の発話を誘発するために実行する対話誘発動作を、前記複数の可動部と前記音声出力部とのうちの少なくとも1つの部位を使用して前記対話対象が知覚可能な単独の動作または動作の組合せとして、前記部位に実行させる制御を行う対話誘発動作制御手段と、
    前記対話誘発動作と、当該対話誘発動作を実行するために使用する部位とを予め関連付けた情報を示す対話誘発動作情報を複数記憶した対話誘発動作情報記憶手段とを備え、
    前記対話誘発動作制御手段は、
    前記各部位のうち現在使用している部位を検出する使用状況検出手段と、
    前記検出された部位と前記対話誘発動作情報とに基づいて、前記検出された部位以外の部位を使用する対話誘発動作を、実行すべき対話誘発動作として決定する対話誘発動作決定手段と、
    前記対話誘発動作決定手段により決定された対話誘発動作を実行するために使用する部位に対して前記対話対象が知覚可能な動作を実行させる知覚可能動作制御手段と、
    を有することを特徴とする移動型ロボット。
  2. 前記対話誘発動作情報記憶手段は、前記対話誘発動作情報を所定の重みづけデータと共に記憶し、
    前記対話誘発動作決定手段は、
    前記検出された部位に基づいて、前記検出された部位以外の部位を用いる対話誘発動作を前記対話誘発動作情報から検索する対話誘発動作検索手段と、
    前記検索された対話誘発動作の中から前記重みづけデータに基づいて実行すべき対話誘発動作を選択する対話誘発動作選択手段と、
    を備えることを特徴とする請求項1に記載の移動型ロボット。
  3. 前記記憶された重みづけデータは、当該移動型ロボットが実行するタスクの種別、当該移動型ロボットの内部状態の良否、当該移動型ロボットの位置する場所、および、前記対話誘発動作の実行履歴状況のうちの少なくとも1つの項目に関して重みが予め定められたデータであり、
    前記対話誘発動作決定手段は、
    現在検出されたタスクの種別、当該移動型ロボットの内部状態の良否、当該移動型ロボットの位置する場所、および、前記対話誘発動作を最後に実行してから経過した時間のうちの少なくとも1つの情報に基づいて、前記重みづけデータの各項目から前記現在検出された各情報に対応する重みを判別する現在状況判別手段と、
    前記現在状況判別手段により判別された重みを使用して、前記対話誘発動作ごとに前記重みづけデータの各項目の重みを合計し、現在状況に対応した重みを算出する重みづけ算出手段とをさらに備え、
    前記対話誘発動作選択手段は、前記算出された現在状況に対応した重みが最も重い対話誘発動作を、実行すべき対話誘発動作として選択することを特徴とする請求項2に記載の移動型ロボット。
  4. 前記知覚可能動作制御手段は、
    前記現在検出されたタスクの種別、当該移動型ロボットの内部状態の良否、および、当該移動型ロボットの位置する場所のうちの少なくとも1つの情報が状態変化した場合に、前記対話対象が知覚可能な動作を開始させることで前記対話誘発動作を開始させることを特徴とする請求項3に記載の移動型ロボット。
  5. 前記知覚可能動作制御手段は、
    前記対話対象が知覚可能な動作を実行させているときに、前記現在検出されたタスクの種別、当該移動型ロボットの内部状態の良否、および、当該移動型ロボットの位置する場所のうちの少なくとも1つの情報が状態変化した場合に、前記現在実行させている動作を終了させることで前記対話誘発動作を終了させることを特徴とする請求項3または請求項4に記載の移動型ロボット。
  6. 前記記憶された重みづけデータは、
    当該移動型ロボットが実行するタスクの種別、当該移動型ロボットの内部状態の良否、当該移動型ロボットの位置する場所、前記対話対象の反応、および、前記対話誘発動作の実行履歴状況のうちの少なくとも1つの項目に関して重みが予め定められたデータであり、
    前記対話誘発動作決定手段は、
    前記対話誘発動作を実行した後に前記画像処理部で処理された画像または前記音声認識部で認識された音声を用いて前記対話対象の反応を予め設定された基準により判別する反応判別手段と、
    前記判別された反応に基づいて、前記記憶された重みづけデータの前記実行した対話誘発動作に関して、前記対話対象の反応の項目の重みを、前記対話対象の反応別に予め定められた重みに更新する重みづけデータ更新手段と、
    をさらに備えることを特徴とする請求項2に記載の移動型ロボット。
  7. 前記対話対象の反応別に、前記発話情報として前記対話誘発動作に関連する話題を記憶した発話情報記憶手段と、
    前記反応判別手段で判別された前記対話対象の反応に基づいて、前記対話誘発動作に関連する話題を前記発話情報記憶手段から選択して前記発話情報として前記知覚可能動作制御手段に出力する発話情報選択手段と、
    をさらに備えることを特徴とする請求項6に記載の移動型ロボット。
JP2007124139A 2007-05-09 2007-05-09 移動型ロボット Expired - Fee Related JP4764377B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007124139A JP4764377B2 (ja) 2007-05-09 2007-05-09 移動型ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007124139A JP4764377B2 (ja) 2007-05-09 2007-05-09 移動型ロボット

Publications (2)

Publication Number Publication Date
JP2008279529A JP2008279529A (ja) 2008-11-20
JP4764377B2 true JP4764377B2 (ja) 2011-08-31

Family

ID=40140790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007124139A Expired - Fee Related JP4764377B2 (ja) 2007-05-09 2007-05-09 移動型ロボット

Country Status (1)

Country Link
JP (1) JP4764377B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5569073B2 (ja) * 2010-03-18 2014-08-13 富士通株式会社 サービス提供装置、サービス提供プログラム及びサービスロボット
US8818556B2 (en) * 2011-01-13 2014-08-26 Microsoft Corporation Multi-state model for robot and user interaction
JP2013237124A (ja) * 2012-05-15 2013-11-28 Fujitsu Ltd 端末装置、情報提供方法及びプログラム
US10929336B2 (en) * 2012-11-19 2021-02-23 Nokia Technologies Oy Methods, apparatuses, and computer program products for synchronized conversation between co-located devices
JP7146373B2 (ja) * 2017-07-13 2022-10-04 雅美 田嶋 接客サービスシステム
JP7174673B2 (ja) * 2019-06-17 2022-11-17 株式会社日立ビルシステム 案内ロボット

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3797047B2 (ja) * 1999-12-08 2006-07-12 富士通株式会社 ロボット装置
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2001300148A (ja) * 2000-04-18 2001-10-30 Casio Comput Co Ltd アクション応答システムおよびそのプログラム記録媒体
JP2005088179A (ja) * 2003-09-22 2005-04-07 Honda Motor Co Ltd 自律移動ロボットシステム
JP2005246564A (ja) * 2004-02-06 2005-09-15 Sanyo Electric Co Ltd ロボット装置
JP4261529B2 (ja) * 2005-08-31 2009-04-30 株式会社東芝 ホームロボットにおける処理方法及びホームロボット

Also Published As

Publication number Publication date
JP2008279529A (ja) 2008-11-20

Similar Documents

Publication Publication Date Title
JP4560078B2 (ja) コミュニケーションロボット
JP5411789B2 (ja) コミュニケーションロボット
JP5405381B2 (ja) 音声対話装置
JP4516592B2 (ja) 移動型ロボット
JP2008254122A (ja) ロボット
JP4718987B2 (ja) インターフェース装置およびそれを備えた移動ロボット
JP5366048B2 (ja) 情報提供システム
JP4460528B2 (ja) 識別対象識別装置およびそれを備えたロボット
JP4764377B2 (ja) 移動型ロボット
JP4886572B2 (ja) ロボット
JP2008087140A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
US20050234729A1 (en) Mobile unit and method of controlling a mobile unit
JP2007264472A (ja) 位置検出装置、自律移動装置、位置検出方法および位置検出プログラム
US20210347386A1 (en) Information processing apparatus, information processing method, computer program, and package receipt support system
JP2008152504A (ja) 案内ロボット装置及び案内システム
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP2007249427A (ja) 情報管理システム
KR20200128486A (ko) 사용자의 위치를 결정하는 인공 지능 장치 및 그 방법
JP2023095918A (ja) ロボット、ロボットの制御方法及びプログラム
US11709065B2 (en) Information providing device, information providing method, and storage medium
JP2017205848A (ja) サービス提供システム
JP7426631B2 (ja) 無人移動体及び情報処理方法
JP5163202B2 (ja) 物品推定システム
JP5866646B2 (ja) コミュニケーションシステム、発話内容生成装置、発話内容生成プログラムおよび発話内容生成方法
JP2020021351A (ja) ロボット、ロボット制御プログラムおよびロボット制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110610

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140617

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4764377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees