JP4595436B2 - ロボット、その制御方法及び制御用プログラム - Google Patents

ロボット、その制御方法及び制御用プログラム Download PDF

Info

Publication number
JP4595436B2
JP4595436B2 JP2004234890A JP2004234890A JP4595436B2 JP 4595436 B2 JP4595436 B2 JP 4595436B2 JP 2004234890 A JP2004234890 A JP 2004234890A JP 2004234890 A JP2004234890 A JP 2004234890A JP 4595436 B2 JP4595436 B2 JP 4595436B2
Authority
JP
Japan
Prior art keywords
child
robot
information
unit
situation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004234890A
Other languages
English (en)
Other versions
JP2005305631A (ja
Inventor
慎一 大中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2004234890A priority Critical patent/JP4595436B2/ja
Priority to US11/089,433 priority patent/US8376803B2/en
Publication of JP2005305631A publication Critical patent/JP2005305631A/ja
Application granted granted Critical
Publication of JP4595436B2 publication Critical patent/JP4595436B2/ja
Priority to US13/737,385 priority patent/US20130123658A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Description

本発明は、ロボットおよびその制御方法に関し、とくに子供の相手をするロボットおよびその制御方法に関する。
近年、様々な社会的要因により仕事と子育ての両立のニーズは益々高まる傾向にある。地域における保育サービスの状況として保育ニーズは高まる傾向にあり、とくに低年齢児の保育のニーズは、より顕著な傾向にある。
保育のニーズが高まる傾向にある一方、公立または認可された私立の保育所に入れない、いわゆる待機児童がいる地域が存在し、地方自治体の選挙だけではなく、衆議院選挙や参議院選挙等の国政選挙等で待機児童をゼロとすることが立候補者の公約となる等、社会的に大きな問題となっている。この問題は、保育所や託児施設の経費が人件費に関わる部分が大半を占め、地方自治体あるいは民間においても簡単に保育所や託児施設を増やせない状況にある点が理由に挙げられる。
ところで、近年、コンピュータ技術の発達により、コンピュータを応用したロボットが開発され、その一部は商品化されている。たとえば、ソニー株式会社が商品化しているAIBO(商標)や本田技研工業株式会社が開発中のASIMO(商標)などが知られている。
特開2000−353012号公報
しかし、従来のロボットには、保育所や託児所等における子供の相手をするための機能はほとんどなく、これらのロボットを保育所や託児所に配置したとしても、上記人件費の問題は全く解決されない。
本発明は上記事情を踏まえてなされたものであり、本発明の目的は、子供の相手をしたり管理をしたりすることのできるロボットを提供することにある。
本発明によれば、子供の相手をするロボットであって、子供の状況を示す情報を取得する状況取得部と、状況取得部が取得した状況を示す情報に基づき、状況と、当該状況が生じたときにロボットがとるべき行動とを対応づけて記憶する行動記憶部を参照して、ロボットの行動を決定する行動決定部と、行動決定部の決定に従い、ロボットの行動を制御する制御部と、を含むことを特徴とするロボットが提供される。
ここで、ロボットがとるべき行動は、たとえば遠隔地にいる保護者にネットワークを介して子供の状況を通知する、先生へ知らせる、音声出力する、画像記録する、子供と対話する等である。
行動記憶部は、ロボットに含まれるように構成することもでき、またロボットとLAN等のネットワークを介して接続されたサーバ等に含まれるように構成することもできる。
子供の状況を示す情報は、たとえば子供の音声に基づき生成することができる。状況取得部は、子供の音声を取得することができ、当該音声に基づき、子供の状況を判断して状況を示す情報を生成することができる。本発明のロボットは、音声のパターンと、状況とを対応づけて記憶する音声パターン記憶部をさらに含むことができ、状況取得部は、取得した子供の音声に基づき、音声パターン記憶部を参照して、子供の状況を判断することができる。たとえば、状況取得部は、パターン記憶部を参照して、子供の音声に基づき、子供が泣いているか、笑っているか、大声を出しているか等の状況を判断することができる。
また、ロボットは、子供の体温を測定する体温測定部をさらに含むことができ、状況取得部は、子供の体温を状況を示す情報として取得することもできる。このようにすれば、子供の体温の管理を自動的に行うことができ、子供の体温が所定温度以上等の場合に、何らかの対策をとることができ、子供の健康管理を行うことができる。
本発明のロボットによれば、ロボットが、子供の状況に応じて、その状況に対応づけられた行動をとるので、子供に何らかの問題が生じた場合等に、迅速に対処をとることができる。これにより、ロボットを保育所や託児施設等に配置しておけば、保護者が安心してその保育所や託児施設等に子供を預けることができる。また、ロボットが保育所や託児施設等の先生や家庭における保護者の補助的な役割をはたすこともでき、先生や保護者の労力を削減することもできる。
本発明のロボットは、子供を識別する識別部をさらに含むことができ、状況取得部は、子供の状況を示す情報とともに、当該子供を識別する情報とを対応づけて取得することができる。
ここで、子供の識別は、たとえば、子供の画像を取得して、予め記憶されている子供の画像とマッチングさせることにより行うことができる。また、子供の音声を取得して、予め記憶されている子供の音声とマッチングさせることにより行うこともできる。さらに、子供にICタグを付けておき、ICタグの識別情報に基づき、子供を識別することもできる。さらに、子供にワイヤレスマイクロフォンを付けておき、どのマイクロフォンからの音声かを識別することにより、子供の識別をおこなうこともできる。
このようにすれば、特定の状況にある子供を識別することができ、子供を特定して、保護者への通知や、先生へ知らせる処理等を行うことができる。
本発明のロボットにおいて、状況取得部は、子供の画像または音声を取得することができ、当該画像または音声を、子供の識別情報に対応づけて所定の状況記憶部に記憶することができる。
このようにすれば、保護者への通知や先生に知らせる処理を行う際に、状況記憶部から子供の画像や音声を読み出し、それを提示することにより、保護者や先生が子供の様子をすぐに把握することができる。また、後で保護者や先生が状況記憶部から子供の画像や音声を読み出すことにより、特定の状況が発生していたときの子供の様子を知ることができる。ロボットは、計時部をさらに含むことができ、状況取得部は、子供の画像や音声を時間に対応づけて記憶することもできる。
本発明のロボットは、行動決定部が、ロボットの行動として、子供の画像または音声をその子供の保護者に通知することを決定した場合、ネットワークを介して、子供の画像または音声を保護者の端末に送信する通信制御部をさらに含むことができる。
通信制御部は、ロボットから直接インターネット等のパブリックネットワークに接続して保護者の端末と通信を行うこともでき、またLAN等のローカルネットワークで接続されたサーバを介して保護者の端末と通信を行うこともできる。また、保護者の端末からたとえば子供の画像や音声の送信要請があった場合に、その返信として子供の画像や音声を送信することもできる。
このようにすれば、遠隔地にいる保護者も、子供の様子を知ることができるので、安心して子供を保育所や託児施設等に子供を預けることができる。また、家庭において、保護者が外出するような場合でも、ロボットから子供の様子を取得することができる。
本発明のロボットにおいて、行動決定部は、子供と、その子供の保護者の連絡先とを対応づけて記憶する保護者情報記憶部から、対応する保護者の連絡先を読み出し、通信制御部に通知することができ、通信制御部は、行動決定部からの通知に基づき、連絡先に子供の画像または音声を送信することができる。
ここで、保護者とは、たとえば子供の家族や親戚とすることができるが、それらに限られず、子供の世話をする立場にある種々の人を含む。保護者は、保護者情報記憶部に、自己の端末の連絡先を記憶させておくことにより、ロボットから子供の画像や音声等を取得することができる。
本発明のロボットは、音声出力部をさらに含むことができ、通信制御部は、保護者の端末から、保護者の音声を受信することができ、音声出力部は、通信制御部が受信した保護者の音声を出力することができる。
このようにすれば、子供がロボットを介して保護者の声を聞くことができるので、たとえば子供が泣いている場合等でも、安心して泣きやむ等の効果が期待できる。また、ロボットは、子供の音声を取得して、保護者の端末に送信することができる。これにより、ロボットを介して子供と保護者が会話をすることができる。
本発明のロボットは、音声出力部が保護者の音声を出力する際に、保護者の画像を表示する表示部をさらに含むことができる。
ここで、保護者の端末から保護者の写真が送信されてきた場合には、ロボットは、その画像を表示することができる。また、保護者の識別情報に対応づけて保護者の写真を予め記憶しておき、その画像を表示することもできる。これにより、子供は、保護者の画像を見ながらより保護者の声を聞いたり会話をするので、より安心することができる。保護者の画像を予め記憶しておく場合、ロボット内に記憶しておくこともでき、ロボットとLAN等のネットワークで接続されたサーバ等に記憶しておき、必要に応じてサーバから読み出すようにすることもできる。
本発明のロボットにおいて、通信制御部は、保護者の端末から、ネットワークを介して、当該保護者の子供の画像または音声の送信要求を受け付けることができ、行動決定部は、当該送信要求に基づき、子供の画像または音声をその子供の保護者に通知することができる。
ロボットは、保護者への通知を行う場合に、画像や音声を含まない通知を行うことができる。本発明によれば、保護者がロボットからの通知に基づき、子供の画像や音声を取得したい場合に、保護者の要求に応じて、子供の画像や音声が送信されるので、保護者は、子供の様子を画像や音声に基づき知ることができる。これにより、保護者は安心して子供を保育所や託児施設等に預けることができる。また、ロボットは、子供の状況に応じて、子供の画像や音声を記録しておくことができ、後に保護者から要求があった場合に、それらの画像や音声を保護者の端末に送信することもできる。
本発明のロボットにおいて、行動記憶部は、状況と、当該状況が生じたときにロボットがとるべき複数の行動を優先順位とともに対応づけて記憶することができ、行動決定部は、優先順位の高い順に、ロボットの行動を決定し、当該行動が実行されたか否かを判断し、実行されなかった場合には、次に優先順位の高い行動をロボットの行動として決定する処理を繰り返すことができる。
これにより、たとえばある状況が生じたときの行動として、保護者への通知を行うことが設定されている場合に、保護者への通知がとれない場合でも、ロボットが次に優先順位の高い行動をとるので、何らかの対策を取ることができる。また、行動記憶部には、ある状況に対して、複数の行動を対応づけて記憶しておくことができ、ロボットはそれらの行動を並行してとることができる。たとえば、子供が泣いている場合には、保護者への通知と先生へ知らせることが設定されている場合、ロボットはこれらの両方を実行することができる。
本発明のロボットは、ロボット本体を自律走行させる駆動部をさらに含むことができ、制御部は、駆動部を制御してロボット本体を巡回させることができる。
これにより、子供の間を自在に巡回することができ、子供の異常等を発見しやすくなる。また、保護者から子供の状況の取得要求があったときに、目的の子供を迅速に探すことができる。
本発明のロボットは、自己の位置情報を取得する自己位置情報取得部と、対象物の位置情報を、当該対象物の識別情報に対応づけて取得する対象物位置情報取得部と、建物の設計情報を取得する設計情報取得部と、自己の位置情報、対象物の位置情報、および建物の設計情報に基づき、自己および対象物の建物内の位置を示すマップ情報を生成するマップ生成部と、をさらに含むことができる。
ここで、対象物とは、子供や先生の位置である。これにより、目的の子供を探しやすくなるとともに、先生に子供の状況等を知らせる場合にも、先生を迅速に探し出すことができる。
本発明によれば、子供の相手をするロボットであって、遠隔地にいる保護者の端末から、ネットワークを介して、当該保護者の子供の画像または音声の送信要求を受け付ける受付部と、子供に関する情報と、その子供の保護者に関する情報とを対応づけて記憶する保護者情報記憶部から、要求のあった子供に関する情報を読み出し、当該子供の画像または音声を取得する情報取得部と、ネットワークを介して、情報取得部が取得した子供の画像または音声を保護者の端末に送信する送信部と、を含むことを特徴とするロボットが提供される。
ここで、ロボットは、子供の画像や音声を記憶しておくことができ、保護者の端末から画像または音声の送信要求があった場合に、記憶しておいた画像や音声を保護者の端末に送信することができる。また、ロボットは、保護者の端末から画像または音声の送信要求があった場合に、略リアルタイムで子供の画像や音声を取得し、それらの画像や音声を保護者の端末に送信することもできる。これにより、保護者が所望するときに、子供の画像や音声を取得することができ、保護者は安心することができる。
本発明によれば、子供の相手をするロボットであって、子供の体温を測定する体温測定部と、子供を識別する識別部と、計時部と、体温測定部が測定した体温を、子供を識別する情報および体温測定部が体温を測定した時間に対応づけて記憶する記憶部と、を含むことを特徴とするロボットが提供される。
これにより、子供の体温の管理を自動的に行うことができ、子供の健康管理を行うことができる。また、子供の体温が時間に対応づけて記憶されるので、保護者や先生が、保育所や託児施設等における子供の体温を把握することができる。
本発明のロボットは、ロボット本体を自律走行させる駆動部と、駆動部を制御してロボット本体を巡回させるとともに、体温測定部に子供の体温を測定させる制御部と、を含むことができる。
これにより、子供が遊んでいる間等にロボットが子供の間を巡回して子供の体温を測定することができるので、子供への負担をなくして、子供の体温の管理を行うことができる。
本発明のロボットにおいて、体温測定部は、赤外線センサを含むことができ、非接触で子供の体温を測定することができる。
これにより、子供が遊んでいる間等にロボットが子供の間を巡回して子供の体温を測定することができるので、子供への負担をなくして、子供の体温の管理を行うことができる。
本発明によれば、自己の位置情報を取得する自己位置情報取得部と、対象物の位置情報を、当該対象物の識別情報に対応づけて取得する対象物位置情報取得部と、建物の設計情報を取得する設計情報取得部と、自己の位置情報、対象物の位置情報、および建物の設計情報に基づき、自己および対象物の建物内の位置を示すマップ情報を生成するマップ生成部と、を含むことを特徴とするロボットが提供される。
ここで、対象物とは、たとえば子供や先生等である。このようにすれば、ロボットが目的の子供や先生を迅速に見つけ出すことができる。
本発明のロボットは、マップ生成部が生成したマップ情報を表示する表示部をさらに含むことができる。このようにすれば、たとえば子供に何らかの異常が発生した場合に、先生にその異常を知らせる際に、その子供の位置をマップ情報として表示することにより、先生がすぐに子供のいる位置に駆けつけることができ、迅速に対処することができる。
本発明のロボットは、マップ情報に基づき、自己の位置と検出対象の対象物の位置とを検出する移動方向検出部と、ロボット本体を自律走行させる駆動部と、移動方向検出部の検出結果に基づき、駆動部を制御して、ロボット本体を検出対象の対象物の方向に移動させる制御部と、をさらに含むことができる。
これにより、ロボットが目的の子供や先生がいる位置に迅速に移動することができる。
本発明によれば、子供の相手をするロボットの制御方法であって、子供の状況を示す情報を取得するステップと、子供の状況を示す情報を取得するステップで取得した状況を示す情報に基づき、状況と、当該状況が生じたときにロボットがとるべき行動とを対応づけて記憶する行動記憶部を参照して、ロボットの行動を決定するステップと、ロボットの行動を決定するステップにおける決定に従い、ロボットの行動を制御するステップと、をロボットに実行させることを特徴とするロボットの制御方法が提供される。
本発明によれば、子供の相手をするロボットの制御方法であって、遠隔地にいる保護者の端末から、ネットワークを介して、当該保護者の子供の画像または音声の送信要求を受け付けるステップと、子供に関する情報と、その子供の保護者に関する情報とを対応づけて記憶する保護者情報記憶部から、要求のあった子供に関する情報を読み出し、当該子供の画像または音声を取得するステップと、ネットワークを介して、情報取得部が取得した子供の画像または音声を保護者の端末に送信するステップと、をロボットに実行させることを特徴とするロボットの制御方法が提供される。
本発明によれば、体温測定部と、子供を識別する識別部と、計時部と、を含むロボットを制御する方法であって、子供の体温を測定するステップと、子供を識別するステップと、子供の体温を測定するステップにおいて測定した体温を、子供を識別する情報および体温が測定された時間に対応づけて記憶するステップと、をロボットに実行させることを特徴とするロボットの制御方法が提供される。
ロボットの制御方法であって、ロボットの自己の位置情報を取得するステップと、対象物の位置情報を、当該対象物の識別情報に対応づけて取得するステップと、建物の設計情報を取得するステップと、自己の位置情報、対象物の位置情報、および建物の設計情報に基づき、自己および対象物の建物内の位置を示すマップ情報を生成するステップと、をロボットに実行させることを特徴とするロボットの制御方法が提供される。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置の間で変換したものもまた、本発明の態様として有効である。
本発明によれば、子供の相手をしたり管理をしたりすることのできるロボットが提供される。
次に、本発明の実施の形態について図面を参照して詳細に説明する。なお、以下の実施の形態において、同様の構成要素には同様の符号を付し、適宜説明を省略する。
以下の実施の形態において、ロボットは、保育所や託児施設等に配置され、子供の相手をしたり管理をしたりする。
(第一の実施の形態)
本実施の形態において、ロボットは、状況に応じて、音楽を出力する機能を有する。ロボットは、人物からの問いかけがあると、それに応じて対話を行う。一方、一定期間問いかけがないような場合は、ロボットは、音楽を出力する。
図1は、本発明の実施の形態におけるロボットの構成を示すブロック図である。
ロボット100は、音声入力手段101、画像入力手段102、音声認識手段201、画像認識手段202、行動決定手段301、記憶手段401、音声出力手段501、および動作手段502を備える。
図2は、本実施の形態における、ロボット100の外観構成の一例を示す前面図である。図3は、図2の電気的構成の一例を示すブロック図である。
本実施の形態において、ロボット100は、胴体部1と頭部2とが連結されて構成されている。胴体部1の下部には左右にそれぞれ車輪3Aおよび車輪3Bが取り付けられており、それらの車輪は独立に前後に回転する。頭部2は、胴体部1に垂直に取り付けられた垂直軸とその垂直軸に対して90度の角度で設置された水平軸に関して決められた範囲で回転する。垂直軸は頭部2の中心を通るように設置されており、水平軸は胴体1と頭部2が正面を向いた状態で頭部2の中心を通りかつ左右方向に水平に設置されている。つまり、頭部2は左右と上下の2自由度で、決められた範囲内で回転する。図1に示した動作手段502は、車輪3Aおよび車輪3B、ならびに頭部2の動きにより実現される。
胴体部1には、ロボット全体の制御を行うコントローラ10、ロボットの動力源となるバッテリ11、スピーカ12、ならびに2つの車輪3Aおよび3Bを動かすためのアクチュエータ14Aおよびアクチュエータ14B等が収納される。
頭部2には、マイクロフォン13、CCDカメラ21AおよびCCDカメラ21B、ならびに頭部2を回転するためのアクチュエータ22Aおよびアクチュエータ22B等が収納される。
頭部2におけるマイクロフォン13は、ユーザからの発話を含む周囲の音声を集音し、得られた音声信号をコントローラ10に送出する。これにより図1に示した音声入力手段101が実現される。なお、図2には、マイクロフォン13を一つしか示していないが、ロボット100は、複数のマイクロフォン13を含むことができる。また、ロボット100が複数のマイクロフォン13を含む場合、これらのマイクロフォン13は、ロボット10の前面と背面等、複数方向に設置することができる。この場合、ロボット100は、複数のマイクロフォン13から入力される音声を用いて、雑音抑圧処理を行った後に音声認識を行ってもよい。とくに、ロボットが保育所や託児施設に配置された場合、周囲の雑音が多いことが想定されるため、雑音抑圧処理を行うようにすることもでき、反対に、泣き声等、通常であれば雑音として処理されるような音が重要な場合もあるため、雑音をきわだたせる処理を行うこともできる。
頭部2におけるCCDカメラ21AおよびCCDカメラ21Bは、周囲の状況を撮像し、得られた画像信号を、コントローラ10に送出する。これにより、図1に示した動作手段102が実現される。また、マイクロフォン13としては、ワイヤレスマイクを用いることもできる。
コントローラ10は、CPU10Aやメモリ10Bを内蔵しており、CPU10Aにおいて、メモリ10Bに記憶された制御プログラムが実行されることにより、各種の処理を行う。これにより、図1に示した音声認識手段201、画像認識手段202、行動決定手段301、および記憶手段401が実現される。
すなわち、コントローラ10は、マイクロフォン13から得られる音声信号、CCDカメラ21AおよびCCDカメラ21Bから得られる画像信号に基づいて、周囲の状況や、ユーザからの指令を判断する。なお、図1の構成によれば、音声信号は、音声認識手段201において音声認識され、その結果が行動決定手段301に送出される。画像信号は、画像認識手段202によって画像認識され、その結果が行動決定手段301に送出される。行動決定手段301は、これらの認識結果を受け取り、周囲の状況や、ユーザからの指令を判断する。
さらに、コントローラ10は、判断結果等に基づいて、ロボット100の次の行動を決定する。ついで、コントローラ10は、決定結果に基づいて、アクチュエータ14A、アクチュエータ14B、アクチュエータ22A、およびアクチュエータ22Bのうちの必要なものを駆動させる。これによりロボット100の頭部2が上下左右に回転したり、ロボット100が移動したり回転する。
また、コントローラ10は、必要に応じて、合成音を生成し、スピーカ12に供給して出力させる。スピーカ12により、図1に示した音声出力手段501が実現される。
本実施の形態におけるロボット100は、以上のような構成により、周囲の状況等に基づいて自律的に行動できるようになっている。
図4は、図3に示したコントローラ10の機能的構成の一例を示すブロック図である。なお、図4に示す機能的構成は、CPU10Aが、メモリ10Bに記憶された制御プログラムを実行することで実現される。
コントローラ10は、特定の外部状態を認識するセンサ入力処理部51、センサ入力処理部51の認識結果に基づいて、ロボット100の次の行動を決定する行動決定部52、行動決定部52の決定結果に基づいて、アクチュエータ14A、アクチュエータ14B、アクチュエータ22A、およびアクチュエータ22Bを制御する制御部53、合成音を生成する音声合成部54、音声合成部54において合成された合成音の出力を制御する出力部55、ならびにロボットの行動を記憶する記憶部56から構成されている。
センサ入力処理部51は、マイクロフォン13から得られる音声信号、ならびにCCDカメラ21AおよびCCDカメラ21Bから得られる画像信号等に基づいて、特定の外部状態や、ユーザからの特定の働きかけ等を認識し、その認識結果を表す状態認識情報を行動決定部52に通知する。
センサ入力処理部51は、画像認識部51A、音声認識部51B、選択部51C、第一の音声処理部51D、および第二の音声処理部51Eを含む。画像認識部51Aは、CCDカメラ21AおよびCCDカメラ21Bから得られる画像信号を用いて、画像認識処理を行う。画像認識部51Aは、画像中に存在する人を検出する機能を有し、検出処理の結果、「人がいる」、「その人物に対応するID」、「その人の画像上の位置」等の画像認識結果を、状態認識情報として、行動決定部52に通知する。画像中に複数の人物が存在する場合、状態認識情報には、検出された複数の人物それぞれについての情報が含まれる。なお、画像認識部51Aがステレオ画像ではなく、単一のCCDカメラから入力される画像データのみから、人を検出できる場合、CCDカメラは一つでも構わない。また、CCDカメラ以外の撮像装置を用いることもできる。
音声認識部51Bは、マイクロフォン13から得られる音声信号について音声認識を行う。音声認識部51Bは、その音声認識結果としての、たとえば、「おはよう」、「こんにちは」等の言葉を、状態認識情報として、行動決定部52に通知する。また、音声認識部51Bは、状態認識情報として認識された言葉だけではなく、泣き声や笑い声等の事象を認識することもできる。その場合、状態認識情報として、「泣き声」や「笑い声」が行動決定部52に通知される。
第一の音声処理部51Dおよび第二の音声処理部51Eは、ロボット100に設けられた複数のマイクロフォン13のうち、いずれかのマイクロフォン13を選択的に用い、それらのマイクロフォン13から入力される音声信号の雑音処理等を行う。たとえば、ロボット100は、アレイ状に配列された複数のマイクロフォン13と、これらとは異なる位置に配置されたマイクロフォン13とを含むことができる。第二の音声処理部51Eは、アレイ状の複数のマイクロフォン13から得られた音声信号を用いて、所定の方向からの音声のみを強調する適応アレイ処理を行う。また、第一の音声処理部51Dは、アレイ状の複数のマイクロフォン13のうちの一つと、異なる位置に配置されたマイクロフォン13とから得られる音声信号を用いて、適応フィルタを用いて雑音消去処理を行う。選択部51Cは、画像認識部51Aから得られる情報に基づき、第一の音声処理部51Dから得られる音声信号と、第二の音声処理部51Eから得られる音声信号のいずれかを選択して、音声認識部51Bに出力する。たとえば、選択部51Cは、画像認識部51Aから得られる情報に基づき、目的の人が近くにいない場合は、第一の音声処理部51Dから得られる音声信号を選択して音声認識部51Bに出力する。また、選択部51Cは、画像認識部51Aから得られる情報に基づき、目的の人が存在し、その人がロボット100の正面にいる場合、第二の音声処理部51Eから得られる音声信号を選択して音声認識部51Bに出力する。
行動決定部52は、センサ入力処理部51からの状態認識情報に基づいて、記憶部56を参照し、ロボット100の次の行動を決定する。そして、決定された行動の内容を、行動指令として制御部53に、また、合成発話指令として音声合成部54に送出する。
行動決定部52は、状態認識情報として「おはよう」、「こんにちは」等の音声認識結果や、事象の認識結果を表す「泣き声」や「笑い声」や、「人が一人存在する」「その人のIDはkである」、「物体Bと子供が目の前に存在する」や「物体BのIDはyで、その子供のIDはzである」という画像認識結果を、画像認識部51A及び音声認識部51Bから受け取る。行動決定部52は、音声認識結果を受け取ると、記憶部56を参照し、その音声認識結果や事象の認識結果に対応するロボットの動作情報を得る。また、行動決定部52は、画像認識結果を受け取ると、記憶部56を参照し、画像認識結果に含まれる人物の名前や物を取得する。
記憶部56に格納されているロボットの動作情報は、合成発話指令とロボット動作指令とから構成される。合成発話指令には、ロボットが発話すべき内容が含まれており、それは、発話すべき文字列情報であったり、現在検出している人物の名前を発話せよ、という指示であったり、または、それらの組合せから構成される。
また、記憶部56には画像認識結果として得られるIDに対応する人物や物体の名前や形状が格納されており、IDから人物や物体の名前と形状を得ることができる。
人物識別の方法としては、顔画像を登録しておいて照合する方法も考えられるし、人物に固有のマーカを人物に装着してそれを検出するという方法もある。また、無線ICタグを人物・物体識別に用いることもできる。この場合は、予め無線ICタグを名札等に入れて人物に持たせておく。ロボット100は、無線ICタグの情報を読み取るリーダ機能を含むことができる。
行動決定部52は、記憶部56からロボットの動作情報を得ると、合成発話指令を解釈して発話文字列を生成し音声合成部54へ送出し、ロボット動作指令を制御部53へ送出する。
たとえば、「おはよう」という音声認識結果に対応するロボットの動作指令は、頭部2を上下に振って正面に戻すという内容であり、合成発話指令は、最初に、人物名がわかれば人物名を発話し、次に、「おはようございます」という合成発話を行う、という内容である。
そこで、行動決定部52が、状態認識情報として「おはよう」という音声認識結果を受け取ると、行動決定部52は、頭部2を上下に振って正面に戻すという内容の行動指令を制御部53へ送出し、最初に人物名を発音し、つぎに「おはようございます」という合成発話を行う内容の合成発話指令を音声合成部54へ送出する。
また、行動決定部52は、画像認識結果や音声認識結果が入力されたタイミングから、音楽を出力する命令を発生することもできる。音楽を出力する命令を発生した場合、乱数を発生し、その乱数をキーにして記憶部56を参照する。記憶部56には乱数の各々の数値に対応して異なる音楽情報が格納されており、行動決定部はキーにした乱数に対応する音楽情報を記憶部56から取得することができる。音楽情報は、パソコンで音楽を再生するときに用いる音声ファイルと、その音楽の進行とともにロボットを動作させるロボット音楽関連動作指令とからなる。行動決定部は記憶部56から音楽情報を取得すると、音声ファイルを再生するとともに、ロボット音楽関連動作指令を制御部53へ送出し、ロボットは、音楽を鳴らしながら動く。
制御部53は、行動決定部52から与えられる行動指令に基づいて、アクチュエータ14A、アクチュエータ14B、アクチュエータ22A、およびアクチュエータ22Bを駆動するための制御信号を生成し、これをアクチュエータ14A、アクチュエータ14B、アクチュエータ22A、およびアクチュエータ22Bへ送出する。これにより、アクチュエータ14A、アクチュエータ14B、アクチュエータ22A、およびアクチュエータ22Bは、制御信号にしたがって駆動し、ロボットは、自律的に行動する。
出力部55には、音声合成部54からの合成音のディジタルデータが供給されるようになっており、出力部55は、それらのディジタルデータを、アナログの音声信号にD/A変換し、スピーカ12に供給して出力させる。
図5は、以上のように構成されたロボットの動作を示すフローチャートである。
まず、行動決定手段301は、画像認識手段202からの画像認識結果または音声認識手段201からの音声認識結果を待つ(S1)。
ステップS1において、画像認識結果または音声認識結果がない場合(S1のNO)、その状態が10秒続いたか否かを判断する(S2)。画像認識結果または音声認識結果がない状態が10秒経過した場合(S2のYES)、ステップS3に進み、ロボット100が周囲にいる人物を識別しているか否かを判断する(S3)。
ステップS3において、人物を識別している場合(S3のYES)、その人物の名前を発話し(S4)、音楽を出力する(S5)。本実施の形態において、記憶手段401(図4)に音楽データを複数記憶しておくことができ、行動決定手段301は、音楽データをランダムに選択して、その音楽データに基づいた出力を音声出力手段501を介して行うことができる。
一方、ステップS3において、人物を識別していない場合(S3のNO)、ステップS5に進み、音楽を出力する(S5)。
ステップS1において、画像認識結果または音声認識結果がある場合(S1のYES)、行動決定部52は、音声認識結果があったか否かを判断する(S7)。音声認識結果があった場合(S7のYES)、行動決定部52は、記憶部56から音声認識結果に応じた応答を読み出し、音声合成部54により合成した音声を出力部55から出力させる(S8)。このとき、アクチュエータ14A、アクチュエータ14B、アクチュエータ22A、およびアクチュエータ22Bを駆動し、音楽にあわせてロボット100が踊っているようにすることもできる。
一方、ステップS7において、音声認識結果がなかった場合(S7のNO)、ステップS3に進み、上述したのと同様の処理が行われる。
本実施の形態におけるロボット100は、人物を識別した場合にはその人物の名前を発話する。人物が子供の場合は、単に話しかけただけでは興味を持たないことが多いが、自分の名前が呼ばれることにより、自分に話しかけられていることを認識しやすくなり、ロボット100に興味を持たせることができる。また、人物が発話した場合には、その発話に応じた応答をする。そのため、子供がたとえば先生と会話をしているような気分にさせることができ、ロボット100が先生の役割の一部を担うことができる。また、一定時間発話がないような場合、ロボット100は、音楽を出力する。これにより、子供たちを楽しませることができる。以上のように、ロボット100が先生の役割を軽減することができるので、保育所や託児施設における人件費の削減が可能となる。
(第二の実施の形態)
本実施の形態において、ロボットは、子供の状況を把握し、状況に応じて、子供の状況を遠隔地にいる保護者へ通知する機能を有する。
図6は、本実施の形態におけるロボットのコントローラの構成を示すブロック図である。
本実施の形態において、コントローラ10は、第一の実施の形態において、図4を参照して説明したのと同様の機能を有するが、図6においては、本実施の形態に関係のある機能のみを図示する。
コントローラ10は、通信制御部602、状況取得部604、保護者情報記憶部606、行動記憶部608、子供情報記憶部610、ウェブサーバ612、取得情報記憶部614、音声出力部616、行動決定部52、および制御部53を含む。
通信制御部602は、ネットワーク630を介して、保護者端末632との間でデータの送受信を行う。保護者端末632は、たとえば携帯電話、パーソナルコンピュータ、電話等である。ネットワーク630は、インターネット等のパブリックネットワークや、携帯電話網等の無線通信網、または公衆電話回線網(PSTN)等とすることができるが、ここではまとめて一つのネットワークとして示す。
保護者情報記憶部606は、保育所や託児施設に預けられた子供の保護者の連絡先等、保護者に関する情報を記憶する。
図7は、保護者情報記憶部606の内部構造の一例を示す図である。
保護者情報記憶部606は、保護者名欄と、保護者ID欄と、パスワード欄と、連絡先欄と、連絡先種類欄と、子供ID欄と、子供名欄とを有する。たとえば、「スズキタロウ」という保護者の保護者IDは「abcd」でパスワードは「01efg」で、連絡先としては、電子メールのアドレス「abc@de.fg」が登録されている。また、「スズキタロウ」の子供のIDは「1234」で、名前は「ハナ」である。
図6に戻り、状況取得部604は、ロボット100が配置された保育所や託児施設に預けられた子供の状況を示す情報を取得する。状況取得部604は、CCDカメラ21AやCCDカメラ21B、およびマイクロフォン13から、それぞれ、画像信号および音声信号を取得する。状況取得部604は、第一の実施の形態で説明した画像認識部51Aや音声認識部51Bの機能も有し、CCDカメラ21AやCCDカメラ21Bから得られた画像信号やマイクロフォン13から得られた音声信号に基づいて、子供の状況を把握する。たとえば、状況取得部604は、マイクロフォン13から得られた音声信号に基づき、その声が泣き声か、笑い声か、叫んでいる声か等を判断する。ロボット100は、音声のパターンと、状況とを対応づけて記憶するパターン記憶部(不図示)を含むことができ、状況取得部604は、取得した子供の音声に基づき、音声パターン記憶部を参照して、子供の状況を判断し、子供の状況を示す情報を生成することができる。
状況取得部604は、子供を識別して、子供の状況を示す情報とともに、その子供の識別情報を取得することができる。子供の識別は、たとえば以下のようにして行うことができる。
子供情報記憶部610には、たとえば、子供ごとに、その子供の音声データや画像データが子供のIDに対応づけて記憶されている。状況取得部604は、たとえば、ある子供の泣き声を音声信号として取得した場合、その子供の音声に基づき、子供情報記憶部610を参照して、泣いている子供を識別することができる。
また、状況取得部604は、「子供の泣き声」という情報を取得した場合、行動決定部52にその旨を通知する。行動決定部52は、制御部53に、泣き声のする方に移動して泣いている子供の画像を取得する指示を行うことができる。制御部53は、アクチュエータ14Aおよびアクチュエータ14Bを制御して、ロボット100本体を泣き声のする方向に移動させる。次いで、制御部53は、CCDカメラ21AおよびCCDカメラ21Bを制御して、泣いている子供の顔写真を取得させる。状況取得部604は、CCDカメラ21AおよびCCDカメラ21Bから泣いている子供の顔写真を画像信号として取得した場合、子供の顔写真に基づき、子供情報記憶部610を参照して、泣いている子供を識別することもできる。
また、他の例として、子供にそれぞれICタグを付けておくこともできる。この場合も、状況取得部604は、「子供の泣き声」という情報を取得した場合、行動決定部52にその旨を通知する。行動決定部52は、制御部53に、泣き声のする方に移動する指示を行うことができる。制御部53は、アクチュエータ14Aおよびアクチュエータ14Bを制御して、ロボット100本体を泣き声のする方向に移動させる。状況取得部604は、子供に付けられたICタグから子供の情報を読み出し、泣いている子供を識別することができる。
また、他の例として、子供にそれぞれ小さいマイクロフォンを付けておくこともできる。この場合、子供情報記憶部610には、マイクロフォンの識別情報と、そのマイクロフォンが付けられた子供とが対応づけて記憶される。状況取得部604は、子供情報記憶部610を参照して、泣いている子供を識別することができる。
以上では、子供が泣いている場合を例として説明したが、子供が笑っている場合や、子供が大声を出している場合等も同様に処理することができる。
行動記憶部608は、子供の状況と、そのときにロボット100が行うべき行動とを対応づけて記憶する。
図8は、行動記憶部608の内部構造の一例を示す図である。
行動記憶部608は、状況欄と、行動(1)欄と、行動(2)欄とを含む。ここで、状況欄には、状況取得部604が取得した子供の状況が記憶される。行動(1)欄には、状況欄に記憶された状況が生じたときに、ロボット100が最初にどのような行動をとるかが記憶される。行動(2)欄には、ロボット100が、何らかの事情で行動(1)欄に記憶された行動をとることができなかった場合に、ロボット100が次にどのような行動をとるかが記憶される。
たとえば、状況取得部604が、「子供の泣き声」という情報を取得した場合、行動決定部52は、行動記憶部608を参照して、ロボット100がどのような行動を行うかを決定する。図8に示した例では、状況「泣き声」には行動(1)「保護者に通知」が対応づけられているので、「子供の泣き声」という情報が取得された場合、行動決定部52は、保護者に通知するという行動をとることを決定する。泣いている子供が識別されている場合、行動決定部52は、保護者情報記憶部606を参照して、泣いている子供の保護者の連絡先を取得する。次いで、通信制御部602を介して保護者への通知を行う。泣いている子供が識別されていない場合、行動決定部52は、制御部53に通知を行い、ロボット100を泣いている子供の近くに移動させ、泣いている子供の顔写真を取得する等して、状況取得部604に子供の情報を取得させる。次いで、状況取得部604が子供情報記憶部610を参照することにより、子供の識別を行う。
一方、通信状態が悪くて保護者への通知ができなかった場合や、子供を識別することができない場合等、行動(1)の「保護者に通知」という行動をとることができなかった場合、行動決定部52は、行動(2)の「先生に知らせる」という行動をとることを決定する。行動決定部52は、制御部53や音声出力部616に通知を行い、ロボット100を保育所や託児施設の先生の近くに移動させ、子供が泣いていることを知らせる。本実施の形態において、コントローラ10は、先生の識別情報を記憶する記憶部(不図示)を含むこともできる。ロボット100は、当該記憶部を参照して、先生の声や顔画像等に基づき、先生を識別して、子供が泣いていることを先生に知らせることができる。
また、たとえば、状況取得部604が、「子供の笑い声」という情報を取得した場合、状況「笑い声」には行動(1)「画像記憶」が対応づけられているので、行動決定部52は、子供の画像を記憶するという行動をとることを決定する。行動決定部52は、制御部53に通知を行い、CCDカメラ21AおよびCCDカメラ21Bにその子供の画像を取得させる。次いで、状況取得部604は、取得した画像を、その子供のIDに対応づけて取得情報記憶部614に記憶する。これにより、子供が笑っているときの画像を取得情報記憶部614に蓄積することができ、後に保護者がそれらの画像を取得したり閲覧したりすることができる。
また、たとえば、状況取得部604が、「大きい声」という情報を取得した場合、状況「大きい声」には行動(1)「先生に知らせる」が対応づけられているので、行動決定部52は、先生に知らせるという行動をとることを決定する。行動決定部52は、制御部53や音声出力部616に通知を行い、子供が大きい声を出していることを先生へ知らせる処理を行う。
一方、先生を見つけることができなかったりして、行動(1)の「先生に知らせる」という行動をとることができなかった場合、行動決定部52は、行動(2)の「音声出力」という行動をとることを決定する。行動決定部52は、音声出力部616に通知を行い、子供が大きい声を出していることを音声出力により周囲に知らせる処理を行う。たとえば、状況取得部604が子供情報記憶部610を参照して、大きい声を出している子供を識別できた場合、ロボット100は、「○○ちゃんが大きい声を出しています。様子を見て下さい。」等の音声を出力しつつ、保育所や託児施設を動き回ることができる。
ここでは、行動記憶部608の一例を示したが、他の例において、行動記憶部608は、子供毎に、状況と行動とを対応づけたテーブルを保持することもできる。たとえば、体の弱い子供の場合は、子供が泣いている場合に直ちに保護者に通知をするように設定してもよく、理由もなくよく泣くような子供の場合、所定時間以上泣き続けている場合に保護者に通知をするように設定することができる。
図6に戻り、状況取得部604は、たとえばCCDカメラ21AやCCDカメラ21B、およびマイクロフォン13が取得した子供の画像や音声を取得情報記憶部614に記憶する。このとき、子供が識別できている場合は、状況取得部604は、取得された画像や音声に子供のIDに対応づけて記憶することができる。
音声出力部616は、第一の実施の形態で説明した音声合成部54や出力部55の機能も有し、ロボット100が音声を出力する際の音声を合成してスピーカ12から出力させる処理を行う。
ウェブサーバ612は、HTTPクライアント機能等を有する保護者端末632から取得情報記憶部614に記憶された情報の取得要求があった場合、取得情報記憶部614に記憶された画像をたとえばHTTPにより、保護者端末632に送信する処理を行う。
保護者端末632から情報の取得要求があると、ウェブサーバ612は、たとえば保護者端末632のユーザにユーザIDやパスワード等を入力させ、保護者情報記憶部606を参照して保護者端末632のユーザを認証することができる。保護者端末632のユーザが認証された場合、ウェブサーバ612は、取得情報記憶部614に記憶された画像等をたとえばHTML形式で通信制御部602を介して保護者端末632に送信する。これにより、保護者が所望のタイミングで子供の様子を知ることができる。
また、状況取得部604は、たとえば子供の写真をその保護者に送信する場合に、保護者端末632に、「お子さんの様子が心配なので、画像を確認して下さい。」等のメッセージと、その子供の写真を閲覧可能なウェブページのURLのみをたとえば電子メールで送信し、保護者に保護者端末632からHTTPにより子供の写真を閲覧可能なウェブページにアクセスさせるようにすることもできる。
また、状況取得部604は、ネットワーク630を介して、保護者端末632のユーザから子供の状況の取得要求を受け付けることもできる。状況取得部604は、保護者端末632から子供の状況の取得要求があると、保護者情報記憶部606を参照して、対応する子供を識別し、その子供の画像や音声を取得させる処理を行うことができる。状況取得部604は、保護者端末632に、リアルタイムで子供の画像や音声を送信することができる。また、取得情報記憶部614にその子供の画像や音声が記憶されている場合は、それらの情報を読み出して保護者端末632に送信することもできる。
図9は、図6〜図8を用いて説明した本実施の形態におけるロボット100の処理手順を示すフローチャートである。
子供の泣き声や笑い声等のトリガーがあると(S100)、状況取得部604は、状況を示す情報を取得する処理を行う(S102)。また、トリガーは、たとえば保護者端末632からの保護者の指示とすることもできる。保護者端末632から、子供の状況の取得要求があった場合も、状況取得部604は、子供の状況を示す情報を取得する処理を行う。状況取得部604は、たとえば子供情報記憶部610を参照して、状況を示す情報を取得する対象の子供を識別する(S104)。状況取得部604は、子供の状況および子供の識別情報を行動決定部52に通知する。行動決定部52は、行動記憶部608を参照して、状況に応じてロボット100がとるべき行動を決定する(S106)。行動決定部52は、決定した行動を実行する処理を行う(S108)。つづいて、行動決定部52は、処理が完了したか否かを判断する(S110)。ステップS106で決定された行動が実行できなかった場合(S110のNO)、ステップS106に戻り、行動決定部52は、再び行動記憶部608を参照して次にとるべき行動を決定する。
ステップS110において、ステップS106で決定された行動が完了した場合(S110のYES)、ロボット100は、管理作業を終了するか否かを判断する(S112)。管理作業を終了しない場合(S112のNO)、ステップS100に戻り、次のトリガーがあるまで待機する。
本実施の形態におけるロボット100によれば、子供の状況に応じて、保護者への通知が行われたり、保護者の要望に応じて子供の状況を把握することができるので、保護者が安心して保育所や託児施設等に子供を預けることができる。また、子供の状況に応じて、ロボット100が予め設定された行動をとるので、保育所や託児施設の先生たちの労力を軽減することができるとともに、保育所や託児施設における人件費を削減できることも期待される。
(第三の実施の形態)
本実施の形態においても、第二の実施の形態と同様、ロボットは、子供の状況を把握する。本実施の形態において、ロボットは、たとえばLAN等のネットワークを介して接続されたサーバを介して、子供の状況を遠隔地にいる保護者へ通知する機能を有する。
図10は、本実施の形態におけるロボットおよびサーバを含むシステムを示すブロック図である。
本実施の形態において、第二の実施の形態で説明した保護者情報記憶部606、行動記憶部608、子供情報記憶部610、および取得情報記憶部614等の記憶部は、サーバ680が含む構成とされる。また、ロボット100は、通信部618を有し、たとえば無線のLAN682等を介してサーバ680と通信可能に構成される。ロボット100は、サーバ680を介して保護者端末632とのデータの送受信を行う。
また、サーバ680とロボット100との構成は、図10に示した構成に限られず、保護者情報記憶部606、行動記憶部608、子供情報記憶部610、および取得情報記憶部614等の記憶部のうち、一部はロボット100内に設けられ、残りはサーバ680内に設けられた構成とすることもできる。
さらに、サーバ680を介してロボット100への指示等を行うことができる構成とすることもできる。
本実施の形態においても、第二の実施の形態と同様の効果を得ることができる。
(第四の実施の形態)
本実施の形態において、ロボットは、遠隔地にいる保護者と子供とを電話により会話させる機能を有する。
図11は、本実施の形態における、ロボットの構成を示すブロック図である。
本実施の形態において、ロボット100は、第二の実施の形態において図6に示した構成に加えて、画像出力部620およびモニタ622をさらに含む。
本実施の形態において、行動記憶部608は、状況に対応づけられた行動として、「保護者と会話」を記憶する。たとえば、状況「泣き声」に対応づけて行動「保護者と会話」を記憶することができる。この場合、第二の実施の形態で説明したように、状況取得部604が子供の泣き声を取得し、その子供が認識されると、行動決定部52は、その子供を保護者と会話させるという行動をとることを決定する。行動決定部52は、保護者情報記憶部606を参照して、識別された子供の保護者の連絡先を取得する。ここで、たとえばある保護者について、保護者情報記憶部606に、連絡先として電子メールアドレスと電話番号とが記憶されている場合、行動決定部52は、電話番号を連絡先として取得する。次いで、行動決定部52は、通信制御部602に通知を行い、保護者へ電話をかける処理を行う。保護者が電話に応答すると、行動決定部52は、音声出力部616に通知し、スピーカ12から保護者の音声を出力させる。また、本実施の形態におけるロボット100において、保護者情報記憶部606は、保護者の顔写真を記憶しておくこともできる。行動決定部52は、画像出力部620に通知し、スピーカ12から保護者の音声が出力される際にモニタ622に保護者の顔写真を表示させることもできる。これにより、たとえば子供が泣いている場合でも、保護者の声を聞くことができ、顔写真も表示されるので、子供は安心して泣きやむことが期待される。
また、保護者端末632が保護者の画像を略リアルタイムで取得してその画像をネットワーク630を介してロボット100に送信できる機能を有する場合、モニタ622に、保護者の略リアルタイムの画像を表示することもできる。
また、行動決定部52は、子供からの要請に基づき、保護者へ電話をかけ、保護者と子供とを会話させることもできる。
さらに、保護者端末632からネットワーク630を介して電話があった場合、行動決定部52は、保護者情報記憶部606を参照して保護者を識別し、その保護者の子供を探して、保護者と子供とを会話させることもできる。ここで、保護者の識別は、たとえば保護者端末632が電話の場合は、発信番号等に基づき行うことができる。
また、たとえば子供から要請があった場合でも、常に保護者に電話をかけていたのでは、保護者が勤務中の場合等、不都合が生じることになる。保護者情報記憶部606には、たとえば子供からの要請があれば常に電話をかけてもよいか否か等に関する情報も記憶しておくことができ、行動決定部52は、保護者情報記憶部606を参照して、保護者に電話をかけるか否かを判断する。たとえば、保護者情報記憶部606に、子供からの要請があった場合にはそのことを知らせるメールの送信を希望するという設定がされている保護者については、子供からの要請があった場合、行動決定部52は、保護者に電子メールを送信するという行動をとることを決定する。この場合、行動決定部52は、通信制御部602に通知し、「○○ちゃんが電話して欲しいそうです。」等のメッセージを含むメールを保護者端末632に送信させる。このとき、たとえば子供の現在の状況を示す画像や音声をメールに添付して送信することもできる。このようにすれば、電話をして子供と会話するか否かを保護者が判断することができる。
以上のようなメールを送信した後、保護者からの電話がない場合や、電話をかけることができない旨のメールが送られてきた場合、行動決定部52は、モニタ622に保護者の顔写真を表示させたりして、子供と会話を行うことができる。これにより、子供が実際に保護者と会話していなくても、保護者と会話をしているような気分にさせることができ、子供が安心することができる。
図12および図13は、本実施の形態におけるロボット100の処理手順を示すフローチャートである。
図12は、ロボット100が保護者に電話をかける場合の処理手順を示す。
子供から保護者への電話要請があった場合、または、子供の状況に応じて保護者に電話をかける必要がある場合(S120のYES)、行動決定部52は、保護者情報記憶部606を参照して、保護者に電話をかけることが可能か否かを判断する(S122)。たとえば保護者情報記憶部606に、「いつでも電話可」と設定されているような保護者の場合、行動決定部52は、電話をかけることが可能と判断し(S122のYES)、通信制御部602により保護者へ電話発信をする(S124)。応答があった場合(S126)、スピーカ12から保護者からの音声を出力するとともに、マイクロフォン13から子供の音声を入力し、子供と保護者とを会話させる(S128)。
保護者端末632から保護者の画像が送信されてきた場合(S130のYES)、モニタ622に保護者の画像を表示する(S134)。また、保護者端末632から保護者の画像が送信されない場合(S130のNO)でも、たとえば保護者情報記憶部606等に保護者の顔写真の画像データが保存されている場合(S132のYES)、モニタ622に保護者の顔写真を表示する(S134)。ステップS132において、保護者の顔写真の画像データが保存されていない場合(132のNO)、会話のみを行わせる。つづいて、行動決定部52は、会話が終了したか否かを判断する(S136)。会話の終了は、保護者が電話を切ったか否かにより判断することもでき、保護者と子供の発話内容に基づき判断することもでき、また、所定時間が経過したら終了すると判断することもできる。所定時間が経過したら終了するような場合は、その時間が経過する前に「あと1分で電話を切断します」等の通知を行うことができる。これにより、保護者が電話が切れることを予測して、子供にもうすぐ電話が終わることを理解させるような会話をすることができる。
ステップS136において、会話が終了すると(S136のYES)、行動決定部52は、電話を切断する(S138)。つづいて、ロボット100は、管理作業を終了するか否かを判断する(S140)。管理作業を終了しない場合(S140のNO)、行動決定部52は、フォローが必要か否かを判断する(S142)。たとえば、子供の泣き声に基づき、行動記憶部608を参照して保護者へ電話をすることを決定したような場合、保護者との電話が終わっても子供が泣きやんでいないような場合はフォローが必要と判断される(S142のYES)。この場合、ロボット100は、子供と対話をする(S152)等のフォローを行う。このとき、保護者の画像をモニタ622に表示したままにしておくこともできる。これにより、子供は保護者との会話が続いているような気分になることができ、安心することが期待される。
ステップS122において、たとえば保護者情報記憶部606に保護者の電話番号が記憶されていない場合や、「メールのみ受信可」等の設定がされている場合、行動決定部52は、電話をかけることが不可能と判断する(S122のNO)。つづいて、行動決定部52は、メールを送信するか否かを判断する(S144)。メールを送信する場合(S144のYES)、たとえば、「○○ちゃんが泣いています。電話して下さい。」や「○○ちゃんが電話をして欲しいそうです。」等のメッセージを含むメールを保護者の保護者端末632に送信する(S146)。
この後、ロボット100は、たとえば保護者からの電話があるまでの間、子供の相手をする。具体的には、たとえば保護者情報記憶部606等に保護者の顔写真の画像データが保存されている場合(S148のYES)、モニタ622に保護者の顔写真を表示する(S150)。つづいて、子供と対話を行う(S152)。
また、ステップS144において、メールを送信しない場合(S144のNO)、ステップS126において、保護者が応答しなかった場合(S126のNO)も、ステップS148に進み、同様の処理が行われる。
図13は、保護者から電話があった場合の処理手順を示す。
保護者から電話の着信があると(S160のYES)、行動決定部52は、保護者情報記憶部606を参照して、保護者を識別する(S162)。保護者の識別は、たとえば保護者端末632の発信番号と保護者情報記憶部606に記憶された連絡先とを照合して行うこともでき、保護者の音声に基づき行うこともでき、また、保護者の発話内容に応じて判断することもできる。
つづいて、ロボット100は、電話のあった保護者の子供を検出する(S164)。行動決定部52は、保護者情報記憶部606を参照して子供の情報を読み出し、たとえば「○○ちゃん!」と呼びかけながら子供たちの間を移動する等して、子供を見つけ出す。その後、スピーカ12から保護者からの音声を出力するとともに、マイクロフォン13から子供の音声を入力し、子供と保護者とを会話させる(S166)。
保護者端末632から保護者の画像が送信されてきた場合(S168のYES)、モニタ622に保護者の画像を表示する(S172)。また、保護者端末632から保護者の画像が送信されない場合(S168のNO)でも、たとえば保護者情報記憶部606等に保護者の顔写真の画像データが保存されている場合(S170のYES)、モニタ622に保護者の顔写真を表示する(S172)。ステップS170において、保護者の顔写真の画像データが保存されていない場合(170のNO)、会話のみを行わせる。
なお、ステップS168〜ステップS172までの処理は、ステップS164の子供を検出する処理の前に行うこともできる。これにより、モニタ622に保護者の顔写真等が表示されるので、子供がその顔写真を見て保護者の写真だということに気がつき、自分からロボット100に近づいてきたりして、子供を検出しやすくすることができる。
つづいて、行動決定部52は、会話が終了したか否かを判断する(S174)。会話の終了は、保護者が電話を切ったか否かにより判断することもでき、保護者と子供の発話内容に基づき判断することもでき、また、所定時間が経過したら終了すると判断することもできる
ステップS174において、会話が終了すると(S174のYES)、行動決定部52は、電話を切断する(S176)。つづいて、ロボット100は、管理作業を終了するか否かを判断する(S178)。管理作業を終了しない場合(S178のNO)、行動決定部52は、フォローが必要か否かを判断する(S180)。フォローが必要と判断された場合(S180のYES)、ロボット100は、子供と対話をする(S182)等のフォローを行う。フォローが必要でない場合(S180のNO)、ステップS160に戻り、着信があるまで待機する。
本実施の形態におけるロボット100によれば、ロボット100を通じて、保護者と子供とが会話をすることができるので、保護者が安心して保育所や託児施設に子供を預けることができる。また、子供にとっても、必要なときに保護者と会話をすることができるので、安心感を得ることができる。さらに、保護者と会話ができないときでも、ロボット100が相手をしてくれるので、保育所や託児施設において、楽しい時間を過ごすことができる。
(第五の実施の形態)
本実施の形態において、ロボット100は、マップ生成機能や自己位置同定機能を有する。
図14は、本実施の形態における、ロボット100の構成を示すブロック図である。
本実施の形態において、ロボット100は、第一の実施の形態において、図4を参照して説明したのと同様の機能を有するが、図14においては、本実施の形態に関係のある機能のみを図示する。
ロボット100のコントローラ10は、位置情報取得部640、位置情報記憶部642、施設情報記憶部644、マップ生成処理部646、マップ情報記憶部648、および表示処理部650を含む。ロボット100は、さらにモニタ622を含む。
施設情報記憶部644は、ロボット100が配置される保育所や託児所等の施設の設計図を記憶する。
位置情報取得部640は、保育所や託児所内の子供、先生、およびロボット100自体の位置情報を取得する。ここで、たとえば、ロボット100は、GPS等の位置管理機能部(不図示)を有し、自己位置を検知することができる。また、施設内に予め無線ICタグを分散して配置しておき、ロボット100にICタグリーダを設け、ロボット100が移動時に無線ICタグを読み取ることにより、自己位置を検知するようにすることもできる。
ロボット100は、施設内を移動しながら、子供や先生の画像や音声を取得していき、子供や先生を識別する。また、他の例として、子供や先生にICタグを付しておき、ICタグに基づき、子供や先生を識別することもできる。位置情報取得部640は、子供や先生を識別したときの自己位置に基づき、子供や先生の位置情報を検知し、子供や先生の位置情報をそれぞれのIDに対応づけて取得する。
位置情報取得部640は、取得した子供、先生、およびロボット100自体(以下、単に対象物という)の位置情報を位置情報記憶部642に記憶する。
マップ生成処理部646は、施設情報記憶部644および位置情報記憶部642からそれぞれ施設の設計図と対象物の位置情報とを読み出し、施設の設計図上に対象物をマッピングして対象物の施設内での位置を示すマップを生成する。マップ生成処理部646は、生成したマップ情報をマップ情報記憶部648に記憶する。
表示処理部650は、マップ情報記憶部648に記憶されたマップ情報、またはマップ生成処理部646で生成されたマップ情報に基づき、モニタ622にマップを表示する。
本実施の形態におけるロボット100によれば、先生や子供の位置情報を把握することができるので、上述した実施の形態で説明したように、子供の保護者から子供の状況の取得要求等があった場合に、迅速に目的の子供のいる位置に移動して、その子供の音声や画像を取得することができる。
また、子供や先生の位置の取得を常に行うことにより、子供のいる位置を略リアルタイムで把握することができ、マップに子供の位置をマッピングしておくことができる。このようにすれば、保護者や先生から、ある子供がいる位置の問い合わせがあった場合に、音声出力や画像出力により当該問い合わせに応えることが可能となる。
また、先生に子供の状況を知らせなければならないような場合に、迅速に先生がいる位置に移動することができる。この場合、ロボット100は、最も近くにいる先生を検出し、その先生に通知することができる。
さらに、モニタ622にマップを表示することにより、先生が子供の位置を把握することもできる。
本実施の形態におけるロボット100によれば、子供の位置や先生の位置を予め把握しておくことができるので、子供や先生を探すときに、迅速に目的の人物を見つけ出すことができる。
(第六の実施の形態)
本実施の形態において、ロボット100は、子供の体温をチェックする機能を有する。
図15は、本実施の形態における、ロボット100の構成を示すブロック図である。
本実施の形態において、ロボット100は、第一の実施の形態において、図4を参照して説明したのと同様の機能を有するが、図15においては、本実施の形態に関係のある機能のみを図示する。
ロボット100は、赤外線センサ660、温度検出部662、記録処理部664、体温記憶部666、判断部668、通知処理部670、および行動記憶部608を含む。
赤外線センサ660は、対象となる子供等の人物から放射される赤外線を取得する。温度検出部662は、赤外線センサ660が取得した赤外線を電気信号に変換して、対象人物の体温を検出する。このとき、ロボット100は、第二の実施の形態で説明したのと同様の方法で、対象人物を識別する。記録処理部664は、対象人物のIDに対応づけて、その人物の体温を体温記憶部666に記録する。このとき、記録処理部664は、体温が測定された時間も対応づけて記憶することができる。
本実施の形態において、ロボット100は、施設内を移動しながら、子供たちの体温を測定していく。
判断部668は、温度検出部662が検出した子供の体温や体温記憶部666に記憶された体温の変化状況等に応じて、子供の体温が正常か否かを判断する。本実施の形態において、判断部668は、第二の実施の形態で説明した行動決定部52と同様の機能も含む。本実施の形態において、行動記憶部608は、体温や体温の変化等の状況と、ロボット100がとるべき行動とを対応づけて記憶する。
判断部668は、行動記憶部608を参照して、ロボット100がとるべき行動を決定する。たとえば、行動記憶部608に、子供の体温が38度以上等、一定体温以上の場合に、行動として「保護者に通知」や「先生に知らせる」等の設定が記憶されている場合、判断部668は、通知処理部670に指示を行う。通知処理部670は、判断部668の指示に基づき、保護者や先生への通知を行う。
図16は、本実施の形態におけるロボット100の処理手順を示すフローチャートである。
ロボット100は、施設内を巡回しつつ、子供を識別する(S190)。つづいて、赤外線センサ660および温度検出部662により、識別された子供の体温を測定する(S192)。記録処理部664は、子供のIDと、子供の体温と、および時間とを対応づけて体温記憶部666に記録する(S194)。判断部668は、測定された子供の体温が正常か否かを判断する(S196)。子供の体温が所定温度以下等、正常な場合(S196のYES)、次の子供の体温測定を行うか否かを判断する(S198)。次の子供の体温測定を行う場合(S198のYES)、ステップS190に戻り、同様の処理を繰り返す。
一方、ステップS196において、子供の体温が正常でない場合(S196のNO)、判断部668は、行動記憶部608を参照して、ロボット100がとるべき行動を決定する(S202)。つづいて、判断部668は、ステップS202で決定された行動を実行させる(S204)。判断部668は、ステップS202で決定された行動が完了したか否かを判断し(S206)、完了した場合、ステップS198に進み、上記と同様の処理を繰り返す。
また、ステップS206において、ステップS202で決定された行動が完了していない場合、ステップS202に戻り、代替の行動を決定し、実行する処理を行う。
通常、保育所や託児施設に子供を預ける場合、予め体温を測り、子供を預かってもよいか否かが確認される。しかし、子供が風邪等ひいている場合、子供の体温は急激に変化する。そのため、朝は体温が平熱であっても、午後には体温が高くなる場合がある。通常は、先生が子供を監視する過程において、子供の体調の変化をみて、その都度体温を測り、体温が上がりすぎている場合には、親に連絡して迎えに来てもらうようにしていた。しかしながら、先生が子供の体調の変化に気付かなかった場合、そのまま規定の時間まで保育をし、親と子供が自分の家に帰ってから親が子供の体温の変化に気付き、その時には、病院が開いていない等ケースも多々ある。この場合、親はいつから体調が悪かったのか知る手段がなく、最悪のケースでは、保育所や託児施設への不信感が増す場合もある。
本実施の形態におけるロボット100によれば、子供の体温の管理を自動的に行うことができ、子供の体温が所定温度以上となった場合には、保護者や先生への通知が行われる。これにより、上記のような問題が生じることなく、保護者が安心して子供を保育所や託児施設に預けることができる。また、体温データを時間に対応づけて記録処理部664に保存しておくことによって、子供の一日の体温変化を管理することができ、子供の健康管理に役立てることもできる。
本実施の形態におけるロボット100によれば、ロボット100が子供の体温を測定するので、これまで保育所や託児施設が行っていた作業をロボット100が代行することができるので、先生たちの労力を低減することができる。また、本実施の形態におけるロボット100によれば、子供の体調管理をロボット100がシステマティックに行い、記録も残るので、保護者が安心して保育所や託児施設に子供を預けることができる。
(第七の実施の形態)
本実施の形態において、ロボットは、遊戯等子供と遊ぶゲーム機能や、英語等を教える学習機能を有する。本実施の形態におけるロボットは、第一の実施の形態において、図1〜図4を参照して説明したのと同様の構成を有する。
本実施の形態において、図4に示した記憶部56には、子供の顔画像や音声等の識別情報と、その子供の名前等のプロフィールが対応づけて記憶される。ロボット100は、センサ入力処理部51で認識した子供の顔や音声に基づき、子供を識別することができる。また、子供の名前は、無線ICタグを利用して取得することもできる。ロボット100は、記憶部56を参照して、識別した子供の名前等を読み出し、子供の名前を呼びかけつつ、歌、ゲーム、クイズ、学習等を行うことができる。これにより、子供はより興味をもってロボット100と接することができる。
さらに、ロボット100は、タッチセンサを1つまたは複数含むこともでき、子供からの応答をタッチセンサを用いて受け付けることができる。これにより、ゲームやクイズをする際に、ロボットと子供とのインタラクション性が増す。
本実施の形態におけるロボット100によれば、従来は保育所や託児施設の先生が行っていたような子供との遊技等をロボット100が代行することができるので、先生たちの労力を軽減することができるとともに、保育所や託児施設における人件費を削減できることが期待される。
また、以上の第一〜第七の実施の形態で説明したロボット100やロボット100を含むシステムの各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた上記各図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インターフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以上で説明した各図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。
以上、図面を参照して本発明の実施の形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
本発明のロボットの構成は、子供の託児をするロボットに広く適用できる。以上の実施の形態において、ロボット100が保育所や託児施設等に配置される例を説明したが、ロボット100は、家庭に配置することもできる。この場合、ロボット100は、保護者が外出している間に子供の相手や管理をすることができる。また、保護者がいる場合でも、保護者の補助として子供の相手や管理をすることができる。
また、ロボットの形状は、図2に示したものに限定されず、種々の形状とすることができる。また、本発明は、現実世界のロボットだけでなく、たとえば、液晶ディスプレイ等の表示装置に表示される仮想的なロボットにも適用可能である。
さらに、以上の実施の形態においては、上述した一連の処理を、CPU10A(図3)にプログラムを実行させることにより行うようにしたが、一連の処理は、それ専用のハードウエアによって行うことも可能である。
なお、プログラムは、あらかじめメモリ10B(図3)に記憶させておく他、フロッピー(登録商標)(R)ディスク、CD−ROM、MOディスク、DVD、磁気ディスク、半導体メモリ等のリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。そして、このようなリムーバブル記録媒体を、いわゆるパッケージソフトウェアとして提供し、ロボット(メモリ10B)にインストールするようにすることができる。
また、プログラムは、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、無線で転送したり、LAN、インターネットといったネットワークを介して、有線で転送し、メモリ10Bにインストールすることができる。
この場合、プログラムがバージョンアップされたとき等に、そのバージョンアップされたプログラムを、メモリ10Bに、容易にインストールすることができる。
ここで、本明細書において、CPU10Aに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理も含むものである。
また、プログラムは、1つのCPUにより処理されるものであってもよいし、複数のCPUによって分散処理されるものであってもよい。
また、本発明は、以下の態様も含む。
(1)プログラムにしたがって動作するロボットであって、主に小児の相手をするためのプログラムを備えたことを特徴とするロボット。
(2)ある対象や事象を認識する認識手段を備え、この認識された結果により動作することを特徴とする(1)のロボット。
ここでいう対象とは、先生や親、子供等の人物や柱や壁や扉等の建築物や、積み木やブロック、三輪車等の物体を指し、事象とは、泣き声、笑い声等ロボットが存在する空間でおきていることを指す。
(3)前記認識手段が、音声認識手段あるいは画像認識手段のいずれかまたは両方からなることを特徴とする(2)のロボット。
(4)ある対象の位置を認識する手段をさらに備えることを特徴とする(1)〜(3)のロボット。
(5)前記認識手段が、音声認識手段あるいは画像認識手段のいずれかまたは両方からなることを特徴とする(4)のロボット。
(6)主に小児と対話する手段をさらに備えることを特徴とする(1)〜(5)のロボット。
(7)前記対話手段が、音声または画像を入力または出力する手段であることを特徴とする(6)のロボット。
(8)前記プログラムがゲームやクイズ等小児を楽しませるプログラムを含むことを特徴とする(1)〜(7)のロボット。
(9)前記プログラムが小児教育用のプログラムを含むことを特徴とする(1)〜(7)のロボット。
上記(1)から(9)の構成を備えたロボットによれば、とくに保育所や託児所において、先生の代わりに成り得るロボットを提供することができるので、保育所や託児施設に配置すれば人件費の問題が解決される。
(10)入力された画像から人物や物体等の対象を認識する画像認識手段と、前記認識結果に対応する振る舞いを記憶した記憶手段と、前記記憶手段を参照し、前記画像認識手段の認識結果を用いて行動を決定する行動決定手段を少なくとも備えるロボットにおいて、前記記憶手段に前記入力された画像を保存しておき、前記行動決定手段は、利用者から該保存された画像の参照要求があった場合に、この参照要求に合致した画像を送出することを特徴とするロボット。
(11)入力された画像から人物や物体等の対象を認識する画像認識手段と、前記認識結果に対応する振る舞いを記憶した記憶手段と、前記記憶手段を参照し、前記画像認識手段の認識結果を用いて行動を決定する行動決定手段を少なくとも備えるロボットにおいて、前記記憶手段に前記入力された画像を保存しておき、前記行動決定手段は、利用者から該保存された画像を予め定められた利用者に対して送出することを特徴とするロボット。
(12)前記行動決定手段は、前記画像認識手段で認識された結果を用いて、送出する画像を決定することを特徴とする(10)または(11)のロボット。
上記(10)から(12)の構成を備えたロボットによれば、とくに保育所や託児施設を利用する利用者にとって望まれていた機能を有するロボットを提供することができる。
(13)入力された画像から人物や物体等の対象を認識する画像認識ステップと、前記認識結果に対応する振る舞いを記憶させる記憶ステップと、前記記憶ステップで記憶された内容を参照し、前記画像認識ステップの認識結果を用いて行動を決定する行動決定ステップを少なくとも含むロボットの制御方法において、前記入力された画像を保存させる第2の記憶ステップをさらに含み、前記行動決定ステップは、利用者から該保存された画像の参照要求があった場合に、この参照要求に合致した画像を送出することを特徴とするロボットの制御方法。
(14)入力された画像から人物や物体等の対象を認識する画像認識ステップと、前記認識結果に対応する振る舞いを記憶させる記憶ステップと、前記記憶ステップで記憶された内容を参照し、前記画像認識ステップの認識結果を用いて行動を決定する行動決定ステップを少なくとも含むロボットの制御プログラムにおいて、前記入力された画像を保存させる第2の記憶ステップと、をさらに含み、前記行動決定ステップは、利用者から該保存された画像の参照要求があった場合に、この参照要求に合致した画像を送出することを特徴とするロボットの制御プログラム。
実施の形態におけるロボットの構成を示すブロック図である。 実施の形態におけるロボットの外観の一例を示す図である。 ロボットの内部構成の一例を示すブロック図である。 コントローラの機能的構成の一例を示すブロック図である。 実施の形態におけるロボットの動作を示すフローチャートである。 実施の形態におけるロボットの構成を示すブロック図である。 保護者情報記憶部の内部構造の一例を示す図である。 行動記憶部の内部構造の一例を示す図である。 実施の形態におけるロボットの処理手順を示すフローチャートである。 実施の形態におけるロボットおよびサーバを含むシステムを示すブロック図である。 実施の形態における、ロボットの構成を示すブロック図である。 実施の形態におけるロボットの処理手順を示すフローチャートである。 実施の形態におけるロボットの処理手順を示すフローチャートである。 実施の形態における、ロボットの構成を示すブロック図である。 実施の形態における、ロボットの構成を示すブロック図である。 実施の形態におけるロボットの処理手順を示すフローチャートである。
符号の説明
1 胴体部
2 頭部
3A、3B 車輪
10 コントローラ
10A CPU
10B メモリ
11 バッテリ
12 スピーカ
13 マイクロフォン
14A、14B アクチュエータ
21A、21B CCDカメラ
22A、22B アクチュエータ
51 センサ入力処理部
51A 画像認識部
51B 音声認識部
52 行動決定部
53 制御部
54 音声合成部
55 出力部
56 記憶部
100 ロボット
101 音声入力手段
201 第一の音声処理手段
202 第二の音声処理手段
300 状況検知手段
401 記憶手段
501 音声出力手段
502 動作手段
602 通信制御部
604 状況取得部
606 保護者情報記憶部
608 行動記憶部
610 子供情報記憶部
612 ウェブサーバ
614 取得情報記憶部
616 音声出力部
618 通信部
620 画像出力部
622 モニタ
630 ネットワーク
632 保護者端末
640 位置情報取得部
642 位置情報記憶部
644 施設情報記憶部
646 マップ生成処理部
648 マップ情報記憶部
650 表示処理部
660 赤外線センサ
662 温度検出部
664 記録処理部
666 体温記憶部
668 判断部
670 通知処理部
680 サーバ
682 LAN

Claims (13)

  1. 複数の子供の相手をするロボットであって、
    前記ロボット本体を自律走行させる駆動部と、
    前記駆動部を制御する制御部と、
    マイクロフォンと、
    ネットワークを介して端末装置とデータの送受信を行う通信制御部と、
    泣き声の音声のパターンと子供が泣いていることを示す情報とを対応づけて記憶する音声パターン記憶部を参照し、前記マイクロフォンから入力される音声と前記泣き声の音声のパターンとをマッチングさせ、その結果に基づき、子供の状況を示す情報として、子供が泣いていることを示す情報を取得するとともに、子供から、当該子供を特定するための情報である子供特定情報を取得し、前記複数の子供各々の連絡先と対応づけられた複数の識別情報が記憶された識別情報記憶部を参照して、前記子供特定情報と前記複数の識別情報とをマッチングさせることで、一つの前記識別情報を特定する状況取得部と、
    前記状況取得部が、前記子供が泣いていることを示す情報を取得した場合、子供が泣いている状況に対してロボットがとるべき行動を記憶する行動記憶部を参照し、前記制御部を制御して泣き声のする方へ移動した後、泣いている子供から前記子供特定情報を取得し、その後、前記通信制御部を制御して、前記取得した子供特定情報を基に前記状況取得部が特定した一つの前記識別情報に対応づけられている前記連絡先に当該状況を通知する行動を、前記ロボットがとるべき行動として決定する行動決定部と、
    を含むことを特徴とするロボット。
  2. 請求項1に記載のロボットにおいて、
    前記音声パターン記憶部をさらに含むことを特徴とするロボット。
  3. 請求項1または2に記載のロボットにおいて、
    前記行動記憶部をさらに有し、
    前記行動記憶部は、子供が泣いている状況に対してロボットがとるべき行動として、前記制御部を制御して泣き声のする方へ移動した後、泣いている子供から前記子供特定情報を取得し、その後、前記通信制御部を制御して、前記取得した子供特定情報を基に前記状況取得部が特定した一つの前記識別情報に対応づけられている前記連絡先に当該状況を通知する行動を記憶しているロボット。
  4. 請求項1から3のいずれか1項に記載のロボットにおいて、
    前記制御部に制御されるCCDカメラをさらに有し、
    前記識別情報記憶部は、前記識別情報として、前記複数の子供各々の顔を撮像した画像データを記憶しておき、
    前記状況取得部は、子供から、前記子供特定情報として、前記子供の顔を撮像した画像データを取得し、当該画像データと、前記識別情報として前記識別情報記憶部に記憶されている前記画像データとをマッチングさせることで、一つの前記識別情報を特定し、
    前記状況取得部が、子供が泣いていることを示す情報を取得した場合、
    前記行動決定部は前記行動記憶部を参照し、子供が泣いている状況に対してロボットが取るべき行動として、前記制御部を制御して泣き声のする方へ移動した後、前記子供特定情報として、泣いている子供の顔を撮像した画像データを取得し、その後、前記通信制御部を制御して、前記状況取得部が当該子供特定情報を基に特定した一つの前記識別情報に対応づけられている前記連絡先に当該状況を通知する行動を決定することを特徴とするロボット。
  5. 請求項1から4のいずれか1項に記載のロボットにおいて、
    前記行動記憶部は、
    子供が泣いている状況に対してロボットがとるべき行動を、前記複数の識別情報各々に対応づけて記憶し、ある前記識別情報には、子供が泣いている場合に直ちに当該識別情報に対応付けられている連絡先に当該状況を通知し、他の前記識別情報には、子供が所定時間以上泣き続けている場合に当該識別情報に対応付けられている連絡先に当該状況を通知する行動が対応づけられており、
    前記状況取得部が、子供が泣いていることを示す情報を取得し、かつ、一つの前記識別情報を特定した場合、
    前記行動決定部は前記行動記憶部を参照し、前記状況取得部が特定した前記識別情報に対応づけられている行動を、当該子供が泣いている場合に前記ロボットが取るべき行動として決定することを特徴とするロボット。
  6. 請求項1から5のいずれか1項に記載のロボットにおいて、
    モニタをさらに含み、
    前記識別情報記憶部は、前記複数の識別情報各々に対応づけて、複数の子供各々の保護者の顔を撮像した画像データを記憶するとともに、前記連絡先として電話番号を記憶しておき、
    前記状況取得部が、子供が泣いていることを示す情報を取得した場合、
    前記行動決定部は前記行動記憶部を参照し、子供が泣いている状況に対してロボットが取るべき行動として、前記制御部を制御して泣き声のする方へ移動した後、泣いている子供から前記子供特定情報を取得し、その後、前記通信制御部を制御して、前記取得した前記子供特定情報を基に前記状況取得部が特定した第1の前記識別情報に対応づけられている前記電話番号に電話をかけ、前記電話が繋がらなかった場合には、前記第1の識別情報に対応づけられている前記保護者の顔を撮像した画像データを前記モニタに出力する行動を決定することを特徴とするロボット。
  7. 請求項1から6のいずれか1項に記載のロボットにおいて、
    前記制御部に制御されるCCDカメラをさらに有し、
    前記状況取得部は、笑い声の音声のパターンと子供が笑っていることを示す情報とを対応づけてさらに記憶する前記音声パターン記憶部を参照し、前記マイクロフォンから入力される音声と前記笑い声の音声のパターンとをマッチングさせ、その結果に基づき、子供の状況を示す情報として、子供が笑っていることを示す情報を取得し、
    前記状況取得部が、子供が笑っていることを示す情報を取得した場合、
    前記行動決定部は、子供が笑っている状況に対してロボットがとるべき行動をさらに記憶する前記行動記憶部を参照し、子供が笑っている状況に対してロボットが取るべき行動として、前記制御部を制御して笑い声のする方へ移動した後、笑っている子供から前記子供特定情報を取得するとともに、前記CCDカメラを介して当該子供の笑い顔を撮像した画像データを取得し、その後、前記取得した子供特定情報を基に前記状況取得部が特定した一つの前記識別情報に対応づけて、前記子供の笑い顔を撮像した画像データをメモリに記憶する行動を決定することを特徴とするロボット。
  8. 請求項1から7のいずれか1項に記載のロボットにおいて、
    子供の体温を測定する体温測定部をさらに含み、
    前記状況取得部は、
    前記体温測定部が測定した子供の体温を所定の基準体温と比較し、測定した子供の体温が前記基準体温以上の場合、子供の状況を示す情報として、体温が正常でないことを示す情報を取得し、
    前記状況取得部が、前記子供の体温が正常でないことを示す情報を取得した場合、
    前記行動決定部は、子供の体温が正常でない状況に対してロボットがとるべき行動をさらに記憶する前記行動記憶部を参照し、子供の体温が正常でない状況に対してロボットが取るべき行動として、前記通信制御部を制御して、当該子供から取得した前記子供特定情報を基に前記状況取得部が特定した一つの前記識別情報に対応づけられている前記連絡先に当該状況を通知する行動を決定することを特徴とするロボット。
  9. 請求項1から8のいずれか1項に記載のロボットにおいて、
    前記行動記憶部は、状況と、当該状況が生じたときにロボットがとるべき複数の行動を優先順位とともに対応づけて記憶し、
    前記行動決定部は、優先順位の高い順に、ロボットの行動を決定し、当該行動が実行されたか否かを判断し、実行されなかった場合には、次に優先順位の高い行動をロボットの行動として決定する処理を繰り返すことを特徴とするロボット。
  10. 請求項1から9のいずれか1項に記載のロボットにおいて、
    前記制御部は、前記駆動部を制御してロボット本体を巡回させることを特徴とするロボット。
  11. 請求項1から10のいずれか1項に記載のロボットにおいて、
    自己の位置情報を取得する自己位置情報取得部と、
    対象物の位置情報を、当該対象物の識別情報に対応づけて取得する対象物位置情報取得部と、
    建物の設計情報を取得する設計情報取得部と、
    前記自己の位置情報、前記対象物の位置情報、および前記建物の設計情報に基づき、前記自己および前記対象物の前記建物内の位置を示すマップ情報を生成するマップ生成部と、
    をさらに含むことを特徴とするロボット。
  12. ロボット本体を自律走行させる駆動部と、マイクロフォンと、ネットワークを介して端末装置とデータの送受信を行う通信制御部とを有し、子供が泣いている状況に対してロボットがとるべき行動を記憶する行動記憶部と、複数の子供各々の連絡先と対応づけられた複数の識別情報が記憶された識別情報記憶部とを参照可能に構成され、複数の子供の相手をするロボットの制御方法であって、
    前記マイクロフォンから入力される音声に基づき、子供の状況を示す情報として、子供が泣いていることを示す情報を取得するステップと、
    前記子供が泣いていることを示す情報を取得した場合、前記行動記憶部を参照して、子供が泣いている状況に対してロボットが取るべき行動を決定するステップと、
    前記決定に従い、前記駆動部を制御して泣き声のする方へ移動した後、泣いている子供から前記子供を特定するための情報である子供特定情報を取得するステップと、
    前記識別情報記憶部を参照して、取得した前記子供特定情報と前記複数の識別情報とをマッチングさせることで、一つの前記識別情報を特定するステップと、
    前記通信制御部を制御して、前記特定した一つの前記識別情報に対応づけられている前記連絡先に当該状況を通知するステップと、
    をロボットに実行させることを特徴とするロボットの制御方法。
  13. 複数の子供の相手をするロボットの制御用プログラムであって、
    コンピュータを、
    前記ロボット本体を自律走行させる駆動手段、
    前記駆動手段を制御する制御手段、
    マイクロフォンを介して音声信号を取得するマイクロフォン手段、
    ネットワークを介して端末装置とデータの送受信を行う通信制御手段、
    前記マイクロフォンから入力される音声に基づき、子供の状況を示す情報として、子供が泣いていることを示す情報を取得するとともに、子供から、当該子供を特定するための情報である子供特定情報を取得し、前記複数の子供各々の連絡先と対応づけられた複数の識別情報が記憶された識別情報記憶部を参照して、前記子供特定情報と前記複数の識別情報とをマッチングさせることで、一つの前記識別情報を特定する状況取得手段、
    前記状況取得手段が、前記子供が泣いていることを示す情報を取得した場合、子供が泣いている状況に対してロボットがとるべき行動を記憶する行動記憶部を参照して、前記制御手段を制御して泣き声のする方へ移動した後、泣いている子供から前記子供特定情報を取得し、その後、前記通信制御手段を制御して、前記取得した子供特定情報を基に前記状況取得手段が特定した一つの前記識別情報に対応づけられている前記連絡先に当該状況を通知する行動を、前記ロボットがとるべき行動として決定する行動決定手段、
    として機能させるためのロボットの制御用プログラム。
JP2004234890A 2004-03-25 2004-08-11 ロボット、その制御方法及び制御用プログラム Expired - Fee Related JP4595436B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004234890A JP4595436B2 (ja) 2004-03-25 2004-08-11 ロボット、その制御方法及び制御用プログラム
US11/089,433 US8376803B2 (en) 2004-03-25 2005-03-25 Child-care robot and a method of controlling the robot
US13/737,385 US20130123658A1 (en) 2004-03-25 2013-01-09 Child-Care Robot and a Method of Controlling the Robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004088734 2004-03-25
JP2004234890A JP4595436B2 (ja) 2004-03-25 2004-08-11 ロボット、その制御方法及び制御用プログラム

Publications (2)

Publication Number Publication Date
JP2005305631A JP2005305631A (ja) 2005-11-04
JP4595436B2 true JP4595436B2 (ja) 2010-12-08

Family

ID=34990635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004234890A Expired - Fee Related JP4595436B2 (ja) 2004-03-25 2004-08-11 ロボット、その制御方法及び制御用プログラム

Country Status (2)

Country Link
US (2) US8376803B2 (ja)
JP (1) JP4595436B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018131789A1 (ko) * 2017-01-12 2018-07-19 주식회사 하이 합성 센서와 상황인식기를 이용하여 생활 소음을 비롯한 각종 센서데이터를 분석하여 일상 활동 정보를 인식하고 공유하는 홈 소셜 로봇 시스템
KR102064365B1 (ko) * 2017-09-04 2020-01-10 주식회사 하이 생활 소음으로부터의 음향 종류 판별 방법 및 이를 이용한 일상 활동 정보 공유용 홈 소셜 로봇 관리 시스템

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1741044B1 (en) * 2004-03-27 2011-09-14 Harvey Koselka Autonomous personal service robot
JP5188977B2 (ja) 2005-09-30 2013-04-24 アイロボット コーポレイション 個人の相互交流のためのコンパニオンロボット
JP5033994B2 (ja) * 2006-01-19 2012-09-26 株式会社国際電気通信基礎技術研究所 コミュニケーションロボット
US20070200695A1 (en) * 2006-02-28 2007-08-30 Cristian Almstrand System and method for monitoring location of object such as child
JP4903519B2 (ja) * 2006-09-11 2012-03-28 日本電気株式会社 機器の制御装置および方法ならびにプログラム
US8155392B1 (en) * 2007-10-01 2012-04-10 McWilliams Security, LLC Security system
KR20090065212A (ko) * 2007-12-17 2009-06-22 한국전자통신연구원 로봇 채팅 시스템 및 방법
US9839856B2 (en) * 2008-03-11 2017-12-12 Disney Enterprises, Inc. Method and system for providing interactivity based on sensor measurements
US8858351B2 (en) * 2008-05-27 2014-10-14 Disney Enterprises, Inc. Operating show or ride elements in response to visual object recognition and tracking
WO2010061286A1 (en) * 2008-11-27 2010-06-03 Stellenbosch University A toy exhibiting bonding behaviour
WO2010119393A1 (en) * 2009-04-17 2010-10-21 Koninklijke Philips Electronics N.V. An ambient telephone communication system, a movement member, method, and computer readable medium therefor
KR101222624B1 (ko) * 2010-12-17 2013-01-16 한국생산기술연구원 군집 로봇 및 군집 로봇을 이용한 수색 방법
US20150138333A1 (en) * 2012-02-28 2015-05-21 Google Inc. Agent Interfaces for Interactive Electronics that Support Social Cues
KR101946364B1 (ko) * 2012-05-01 2019-02-11 엘지전자 주식회사 적어도 하나의 마이크 센서를 갖는 모바일 디바이스 및 그 제어방법
JP5987259B2 (ja) * 2012-06-19 2016-09-07 株式会社リコー 自動運転ナビゲーションシステム
US9569976B2 (en) * 2012-10-02 2017-02-14 Gavriel Yaacov Krauss Methods circuits, devices and systems for personality interpretation and expression
JP6223673B2 (ja) * 2012-10-23 2017-11-01 シャープ株式会社 自走式電子機器
US9304652B1 (en) 2012-12-21 2016-04-05 Intellifect Incorporated Enhanced system and method for providing a virtual space
US20170206064A1 (en) * 2013-03-15 2017-07-20 JIBO, Inc. Persistent companion device configuration and deployment platform
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
US20140308873A1 (en) * 2013-04-16 2014-10-16 Kimberly Smith Spacek Sensory stimulation device
US9836806B1 (en) 2013-06-07 2017-12-05 Intellifect Incorporated System and method for presenting user progress on physical figures
US10743732B2 (en) 2013-06-07 2020-08-18 Intellifect Incorporated System and method for presenting user progress on physical figures
GB2517915A (en) * 2013-09-04 2015-03-11 Binatone Electronics Internat Ltd Infant monitoring apparatus
KR102093709B1 (ko) * 2013-09-17 2020-03-26 엘지전자 주식회사 로봇 청소기, 이동 단말기 및 그 동작방법
US20150105608A1 (en) * 2013-10-14 2015-04-16 Rest Devices, Inc. Infant Sleeping Aid and Infant-Bed Accessory
US9597805B2 (en) * 2014-03-28 2017-03-21 Nathaniel Bender Care apparatus
EP2933065A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
KR102178490B1 (ko) * 2014-05-01 2020-11-13 엘지전자 주식회사 로봇 청소기 및 그 동작방법
US9728097B2 (en) 2014-08-19 2017-08-08 Intellifect Incorporated Wireless communication between physical figures to evidence real-world activity and facilitate development in real and virtual spaces
JP6583283B2 (ja) * 2014-11-07 2019-10-02 ソニー株式会社 制御システム、制御方法、および記憶媒体
US9914218B2 (en) * 2015-01-30 2018-03-13 Toyota Motor Engineering & Manufacturing North America, Inc. Methods and apparatuses for responding to a detected event by a robot
US9931749B2 (en) * 2015-04-15 2018-04-03 John C. Nappo Remote presence robotic system
JP6586810B2 (ja) * 2015-07-30 2019-10-09 富士通株式会社 玩具
CN106570443A (zh) * 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
JP2017164871A (ja) * 2016-03-18 2017-09-21 株式会社国際電気通信基礎技術研究所 人型ロボットシステム
WO2017199662A1 (ja) * 2016-05-20 2017-11-23 Groove X株式会社 自律行動型ロボット及びコンピュータプログラム
JP6380469B2 (ja) * 2016-06-23 2018-08-29 カシオ計算機株式会社 ロボット、ロボット制御方法及びプログラム
WO2018012219A1 (ja) * 2016-07-11 2018-01-18 Groove X株式会社 自律行動型ロボット
DE102016216409A1 (de) 2016-08-31 2018-03-01 BSH Hausgeräte GmbH Interaktive Bedienvorrichtung
JP6519560B2 (ja) * 2016-09-23 2019-05-29 カシオ計算機株式会社 ロボット、ロボットの作動方法及びプログラム
JP6658907B2 (ja) * 2016-10-11 2020-03-04 三菱電機株式会社 空気調和装置
JP6794819B2 (ja) * 2016-11-08 2020-12-02 大日本印刷株式会社 画像プリントシステム
CN106422349A (zh) * 2016-11-09 2017-02-22 遵义市斑寅科技有限公司 一种多功能机器人玩具
CN106492469A (zh) * 2016-11-18 2017-03-15 遵义市斑寅科技有限公司 一种智能机器人玩具
WO2018098659A1 (zh) * 2016-11-30 2018-06-07 深圳前海达闼云端智能科技有限公司 控制机器人的方法、装置、服务器及机器人
CN107019498A (zh) * 2017-03-09 2017-08-08 深圳市奥芯博电子科技有限公司 看护机器人
CN107030691B (zh) * 2017-03-24 2020-04-14 华为技术有限公司 一种看护机器人的数据处理方法及装置
WO2018183347A1 (en) 2017-03-27 2018-10-04 Pacific Cycle, Llc Interactive ride-on toy apparatus
JP6833601B2 (ja) * 2017-04-19 2021-02-24 パナソニック株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP6833600B2 (ja) * 2017-04-19 2021-02-24 パナソニック株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP7075168B2 (ja) * 2017-07-18 2022-05-25 パナソニックホールディングス株式会社 装置、方法、プログラム、及びロボット
JP2019046242A (ja) * 2017-09-04 2019-03-22 株式会社social solutions 保育用ロボット、保育用ロボットによる保育方法、及びコンピュータプログラム
JP6945193B2 (ja) * 2017-11-01 2021-10-06 パナソニックIpマネジメント株式会社 情報通信装置、行動支援システム、情報通信方法及びプログラム
CN108030474A (zh) * 2017-11-10 2018-05-15 深圳市赛亿科技开发有限公司 儿童夜间看护机器人
JP6724889B2 (ja) * 2017-12-07 2020-07-15 カシオ計算機株式会社 見守りシステム及び見守り方法
JP7109207B2 (ja) * 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP7034808B2 (ja) * 2018-04-03 2022-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置及び情報処理システム
CN108399826A (zh) * 2018-05-17 2018-08-14 佛山拾念科技有限公司 一种具有互动功能的儿童音乐教学机器人
JP7000253B2 (ja) * 2018-05-31 2022-01-19 国立大学法人東海国立大学機構 力覚視覚化装置、ロボットおよび力覚視覚化プログラム
CN108608439A (zh) * 2018-06-29 2018-10-02 华南理工大学广州学院 一种儿童情感宣泄机器人及方法
CN108888245A (zh) * 2018-08-17 2018-11-27 广州市君望机器人自动化有限公司 测温机器人
US11094219B2 (en) * 2018-11-28 2021-08-17 International Business Machines Corporation Portable computing device having a color detection mode and a game mode for learning colors
US11610502B2 (en) 2018-11-28 2023-03-21 Kyndryl, Inc. Portable computing device for learning mathematical concepts
US11610498B2 (en) 2018-11-28 2023-03-21 Kyndryl, Inc. Voice interactive portable computing device for learning about places of interest
CN109719743A (zh) * 2019-01-31 2019-05-07 广东星美灿照明科技股份有限公司 一种具备家居控制功能的儿童教育机器人
CN211435072U (zh) * 2019-07-19 2020-09-08 陈国平 红外体温测试公仔
CN110445940A (zh) * 2019-08-02 2019-11-12 深圳市三宝创新智能有限公司 一种助教机器人的通话应用方法
CN110640757A (zh) * 2019-09-23 2020-01-03 浙江树人学院(浙江树人大学) 一种应用于智能机器人的多模态交互方法和智能机器人系统
CN111469137B (zh) * 2020-04-10 2022-09-06 京东科技信息技术有限公司 机器人
CN111557649A (zh) * 2020-05-22 2020-08-21 云知声智能科技股份有限公司 体温监测数据处理方法及装置
KR102295836B1 (ko) * 2020-11-20 2021-08-31 오로라월드 주식회사 성장형 스마트 토이 장치 및 스마트 토이 시스템

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0366302A (ja) * 1989-08-05 1991-03-22 Fujitsu Ltd 乳児用留守番援助装置
JPH03195513A (ja) * 1989-12-26 1991-08-27 Kubota Bussan:Kk 揺りかご
JPH11267074A (ja) * 1998-03-25 1999-10-05 Sharp Corp 掃除ロボット
JP2001157985A (ja) * 1999-11-30 2001-06-12 Sony Corp 使用者識別装置、使用者識別方法、及びロボット装置
JP2001246580A (ja) * 2000-03-03 2001-09-11 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP2002000574A (ja) * 2000-06-22 2002-01-08 Matsushita Electric Ind Co Ltd 介護支援用ロボットおよび介護支援システム
JP2002073634A (ja) * 2000-09-05 2002-03-12 Alpine Electronics Inc 行動パターン処理装置
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
JP2002144264A (ja) * 2000-11-08 2002-05-21 Matsushita Electric Ind Co Ltd ペット・ロボット装置およびペット・ロボット・ネットワーク・システム
JP2002244731A (ja) * 2001-02-21 2002-08-30 Matsushita Electric Ind Co Ltd 移動作業ロボット
JP2002351305A (ja) * 2001-05-23 2002-12-06 Apollo Seiko Ltd 語学研修用ロボット
JP2003291084A (ja) * 2002-03-28 2003-10-14 Toshiba Corp ロボット並びにロボットの視野制御装置及び方法
JP2004126983A (ja) * 2002-10-03 2004-04-22 Matsushita Electric Ind Co Ltd 移動作業ロボット
JP2004185080A (ja) * 2002-11-29 2004-07-02 Toshiba Corp セキュリティシステム及び移動ロボット
JP2004357915A (ja) * 2003-06-04 2004-12-24 Matsushita Electric Ind Co Ltd センシング玩具
JP2006039760A (ja) * 2004-07-23 2006-02-09 Victor Co Of Japan Ltd 移動ロボット
JP2009297892A (ja) * 2000-09-19 2009-12-24 Toyota Motor Corp 移動体搭載用のロボット及びこれを搭載した移動体

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法
IL121574A0 (en) * 1997-08-18 1998-02-08 Creator Ltd Techniques and apparatus for entertainment sites amusement parks and other information and/or entertainment dispensing sites
JP3318539B2 (ja) 1999-06-10 2002-08-26 株式会社エイ・ティ・アール知能映像通信研究所 対話システムを有する自立移動ロボット
US7066781B2 (en) * 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
US7016532B2 (en) * 2000-11-06 2006-03-21 Evryx Technologies Image capture and identification system and process
KR20020067669A (ko) * 2001-02-16 2002-08-23 산요 덴키 가부시키가이샤 로봇 시스템 및 로봇
US6967455B2 (en) * 2001-03-09 2005-11-22 Japan Science And Technology Agency Robot audiovisual system
JP2002354551A (ja) * 2001-05-25 2002-12-06 Mitsubishi Heavy Ind Ltd ロボットサービス提供方法およびロボットサービス提供システム
JP2002352354A (ja) * 2001-05-30 2002-12-06 Denso Corp 遠隔介護方法
US7315821B2 (en) * 2002-01-31 2008-01-01 Sanyo Electric Co., Ltd. System and method for health care information processing based on acoustic features
US20040162637A1 (en) * 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US7103447B2 (en) * 2002-09-02 2006-09-05 Sony Corporation Robot apparatus, and behavior controlling method for robot apparatus
JP3781370B2 (ja) * 2002-11-19 2006-05-31 本田技研工業株式会社 移動装置
JP3879848B2 (ja) * 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
US20050105769A1 (en) * 2003-11-19 2005-05-19 Sloan Alan D. Toy having image comprehension

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0366302A (ja) * 1989-08-05 1991-03-22 Fujitsu Ltd 乳児用留守番援助装置
JPH03195513A (ja) * 1989-12-26 1991-08-27 Kubota Bussan:Kk 揺りかご
JPH11267074A (ja) * 1998-03-25 1999-10-05 Sharp Corp 掃除ロボット
JP2001157985A (ja) * 1999-11-30 2001-06-12 Sony Corp 使用者識別装置、使用者識別方法、及びロボット装置
JP2001246580A (ja) * 2000-03-03 2001-09-11 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP2002000574A (ja) * 2000-06-22 2002-01-08 Matsushita Electric Ind Co Ltd 介護支援用ロボットおよび介護支援システム
JP2002073634A (ja) * 2000-09-05 2002-03-12 Alpine Electronics Inc 行動パターン処理装置
JP2009297892A (ja) * 2000-09-19 2009-12-24 Toyota Motor Corp 移動体搭載用のロボット及びこれを搭載した移動体
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
JP2002144264A (ja) * 2000-11-08 2002-05-21 Matsushita Electric Ind Co Ltd ペット・ロボット装置およびペット・ロボット・ネットワーク・システム
JP2002244731A (ja) * 2001-02-21 2002-08-30 Matsushita Electric Ind Co Ltd 移動作業ロボット
JP2002351305A (ja) * 2001-05-23 2002-12-06 Apollo Seiko Ltd 語学研修用ロボット
JP2003291084A (ja) * 2002-03-28 2003-10-14 Toshiba Corp ロボット並びにロボットの視野制御装置及び方法
JP2004126983A (ja) * 2002-10-03 2004-04-22 Matsushita Electric Ind Co Ltd 移動作業ロボット
JP2004185080A (ja) * 2002-11-29 2004-07-02 Toshiba Corp セキュリティシステム及び移動ロボット
JP2004357915A (ja) * 2003-06-04 2004-12-24 Matsushita Electric Ind Co Ltd センシング玩具
JP2006039760A (ja) * 2004-07-23 2006-02-09 Victor Co Of Japan Ltd 移動ロボット

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018131789A1 (ko) * 2017-01-12 2018-07-19 주식회사 하이 합성 센서와 상황인식기를 이용하여 생활 소음을 비롯한 각종 센서데이터를 분석하여 일상 활동 정보를 인식하고 공유하는 홈 소셜 로봇 시스템
KR102064365B1 (ko) * 2017-09-04 2020-01-10 주식회사 하이 생활 소음으로부터의 음향 종류 판별 방법 및 이를 이용한 일상 활동 정보 공유용 홈 소셜 로봇 관리 시스템

Also Published As

Publication number Publication date
US20050215171A1 (en) 2005-09-29
JP2005305631A (ja) 2005-11-04
US8376803B2 (en) 2013-02-19
US20130123658A1 (en) 2013-05-16

Similar Documents

Publication Publication Date Title
JP4595436B2 (ja) ロボット、その制御方法及び制御用プログラム
US20220012470A1 (en) Multi-user intelligent assistance
JP6428954B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN105320726B (zh) 降低对手动开始/结束点和触发短语的需求
EP3616175A1 (en) Modular emergency communication flow management system
CN1894740B (zh) 信息处理系统、信息处理方法以及信息处理用程序
US11302325B2 (en) Automatic dialogue design
EP1748379A1 (en) User taste estimation device, user profile estimation device, and robot
JP2020194184A (ja) 音声応答装置、及び音声応答システム
JP4622384B2 (ja) ロボット、ロボット制御装置、ロボットの制御方法およびロボットの制御用プログラム
JP2010064154A (ja) ロボット制御システム、遠隔管理装置、ロボット、それらの方法及びプログラム
US8103382B2 (en) Method and system for sharing information through a mobile multimedia platform
JPWO2019087484A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6291303B2 (ja) コミュニケーション支援ロボットシステム
KR20200005741A (ko) 검출된 이벤트들에 관한 정보를 제공하기 위한 방법들, 시스템들 및 매체들
JP2023101501A (ja) 装置、方法、及びプログラム
JP2019197550A (ja) 音声入出力装置
US20220016757A1 (en) Information processing device, information processing method, and program
ES2393718T3 (es) Procedimiento y dispositivo de teleasistencia de al menos una persona que se mueve en un entorno predeterminado
JP2003108362A (ja) コミュニケーション支援装置およびコミュニケーション支援システム
US8588979B2 (en) Enhancements to mechanical robot
JP2002261966A (ja) コミュニケーション支援システムおよび撮影装置
JP2007260864A (ja) コミュニケーションロボット
WO2017149848A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20220157305A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100824

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100906

R150 Certificate of patent or registration of utility model

Ref document number: 4595436

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131001

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees