JP2005288646A - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP2005288646A
JP2005288646A JP2004109001A JP2004109001A JP2005288646A JP 2005288646 A JP2005288646 A JP 2005288646A JP 2004109001 A JP2004109001 A JP 2004109001A JP 2004109001 A JP2004109001 A JP 2004109001A JP 2005288646 A JP2005288646 A JP 2005288646A
Authority
JP
Japan
Prior art keywords
confirmation
confirmation work
user
robot
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004109001A
Other languages
English (en)
Inventor
Taku Yoshimi
見 卓 吉
Kaoru Suzuki
木 薫 鈴
Daisuke Yamamoto
本 大 介 山
Junko Hirokawa
川 潤 子 廣
Shuichi Nakamoto
本 秀 一 中
Masabumi Tamura
村 正 文 田
Tomotaka Miyazaki
崎 友 孝 宮
Shunichi Kawabata
端 俊 一 川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2004109001A priority Critical patent/JP2005288646A/ja
Priority to US11/091,418 priority patent/US20050222711A1/en
Publication of JP2005288646A publication Critical patent/JP2005288646A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means

Abstract

【課題】 ユーザが外出する前に行なう屋内の確認作業をサポートするロボットを提供する。
【解決手段】 ロボット100は、屋内を自律的に移動するロボットであって、該ロボットを移動させる移動機構31と、ユーザが外出するときに行なう確認作業および該確認作業を行なう屋内の確認箇所を記憶する確認作業記憶部61と、確認作業の実行の順番を生成する確認作業計画部65と、確認作業計画部65が生成した順番に従い、確認作業を実行する確認箇所へ該ロボットを移動させるように移動機構を制御する制御部30と、確認作業の実施状況を記録する確認作業記録部70と、確認作業の実施状況を提示する提示部21とを備えている。
【選択図】 図1

Description

本発明はロボットに関する。
近年、留守宅の監視を行うために、遠隔監視カメラや留守番ロボットが開発されている。例えば、非特許文献1に掲載された遠隔監視カメラは、イントラネットやインターネットと接続されており、PC(Personal Computer)へリアルタイムに映像を配信する。また、このロボットのカメラは、PCのブラウザ画面から遠隔操作でその向きを変えることができる。
非特許文献2に記載されたロボットでは、ユーザは、外出先から屋内のロボットを遠隔操作し、屋内の映像を取得することができる。また、このロボットは、留守宅の異常発生を自動検知して外出先のユーザに通知することができる。このように従来の遠隔監視カメラや留守番ロボットは、留守宅の監視を目的としていた。
非特許文献3に記載されたロボットは、移動やアームの動作を自律的におこなうことを目的とした自律的に動作可能なホームロボットである。
東芝のネットワークカメラ"IK−WB11"、インターネット<URL: http://www.toshiba.co.jp/about/press/2003_08/pr_j2501.htm> 株式会社富士通研究所の留守番ロボット"MARON−1"(安川等:"ホームロボットMARON−1の開発(1)"、第20回日本ロボット学会学術講演会予稿集、3F11、2002) 筑波大学による自律移動ロボット「山彦」、インターネット<URL:http://www.roboken.esys.tsukuba.ac.jp/ >
しかしながら、非特許文献1〜非特許文献3に記載されたカメラやロボットは、事前に犯罪や災害等を予防するためにユーザをサポートすることはできなかった。例えば、留守宅に泥棒が侵入した場合、ユーザは非特許文献1〜非特許文献3に記載されたカメラやロボットを介してその事実を知ることができるが、これらのカメラやロボットは泥棒の侵入を予防することに関してサポートすることはできない。また、例えば、ユーザが忘れ物をした場合、ユーザは、非特許文献1〜非特許文献3に記載されたカメラやロボットを介して、その忘れ物が留守宅内にあることを確認することができるが、これらのカメラやロボットは忘れ物自体を予防することに関してサポートすることはできない。
そこで、本発明の目的は、ユーザが外出する前に行なう屋内の確認作業をサポートするロボットを提供することである。
本発明に係る実施形態に従ったロボットは、屋内を自律的に移動するロボットであって、該ロボットを移動させる移動機構と、ユーザが外出するときに行なう確認作業および該確認作業を行なう屋内の確認箇所を記憶する確認作業記憶部と、前記確認作業の実行の要否または前記確認作業の実行の順番を生成する確認作業計画部と、前記確認作業計画部が生成した順番に従い、前記確認作業を実行する前記確認箇所へ該ロボットを移動させるように前記移動機構を制御する制御部と、前記確認作業の実施状況を記録する確認作業記録部と、前記確認作業の実施状況を提示する提示部とを備えている。
本発明によるロボットは、ユーザが外出する前に行なう屋内の確認作業をサポートすることができる。
以下、図面を参照して、本発明に係る実施形態を説明する。これらの実施形態は本発明を限定しない。
(第1の実施形態)
図1は、本発明に係る第1の実施形態に従った外出時サポートロボット(以下、ロボット100)の構成図である。ロボット100は、管理・動作計画部10、コミュニケーション部20、運動制御部30、外部通信部40および確認作業サポート部50を備えている。ロボット100は、コミュニケーション部20に接続されたカメラ21、ディスプレイ23、タッチパネル25、マイク27およびスピーカ29、並びに、運動制御部30に接続された移動機構31、腕機構33およびカメラ雲台機構35を備えている。
管理・動作計画部10は、ロボット100の各構成要素を統合管理し、ロボット100の作業動作を計画する。例えば、管理・動作計画部10は、ロボット100が移動可能な範囲の地図情報を格納し、この地図情報に基づいてロボット100の移動経路を生成する。これにより、ロボット100は、自律的に屋内を移動することができる。
コミュニケーション部20は、ユーザからの音声や入出力デバイスからユーザの指示を受信し、あるいは、ユーザに情報を提示する。例えば、コミュニケーション部20は、カメラ21、タッチパネル25またはマイク27を介してユーザの画像、ユーザの指示またはユーザの音声を受け取る。また、コミュニケーション部20は、ディスプレイ23またはスピーカ29を介して画像を表示し、あるいは、音声を発声する。これにより、ロボット100は、ユーザの指示を受け、並びに、ユーザに対して情報を提示することができる。
運動制御部30は、移動機構31、腕機構33およびカメラ雲台機構35を制御する。例えば、運動制御部30は、管理・動作計画部10で生成された経路に従ってロボット100を目的地へ移動させ、作業を行なうために、移動機構31および腕機構33を制御する。また、運動制御部30は、カメラ21を所望の方向へ向け、あるいは、所望の高さに位置付けるためにカメラ雲台機構35を制御する。
外部通信部40は、ネットワーク101を介して必要な情報を送受信する。例えば、外部通信部40は、無線LANなどのイントラネットを経由して外部機器とデータを送受信し、あるいは、インターネット網を経由して情報を送受信する。
確認作業サポート部50は、確認作業計画部60および確認作業記録部70を備えている。確認作業計画部60は、図2に示すデータベース61、63に格納されたデータに基づいて確認作業の実行の順番を生成する。確認作業記録部70は、ユーザまたはロボット100が確認作業の実施状況を記録する。例えば、確認作業記録部70は、確認作業を実行した後の確認箇所の画像を格納する。
ここで、確認作業とは、ユーザが外出するときに行なう様々な確認作業である。確認作業としては、例えば、防犯のための戸締り、防災のための火の始末、電気製品のスイッチオフの確認、忘れ物の有無のチェック、目的地までの経路の確認等である。確認作業には、ユーザが実行する確認作業およびロボット100が自律的に実行する確認作業を含む。また、確認箇所とは、確認作業を実行する屋内の位置である。確認箇所は、例えば、戸締りに対して窓や扉、火の始末に対してはガス器具、電気製品に対してはスイッチ、雨天で傘が必要な場合に対しては傘立てをロボット100が確認することができる位置座標(X,Y,Z)を示す。
図2は、確認作業計画部60の内部構成を示す構成図である。確認作業計画部60は、確認作業データベース61、ユーザ情報データベース63および確認作業計画生成部65を備えている。確認作業データベース61は、確認作業とその確認作業を実行すべき確認箇所とを関連付けて記憶している。例えば、確認作業の実行対象の名称、確認箇所、確認対象の種別および確認作業の内容が、確認作業ごとに関連付けられた状態で確認作業データベース61に格納されている。
ユーザ情報データベース63は、ユーザごとに必要な確認作業の指標、ユーザ認証に必要な生体データ、ユーザのスケジュール等を格納する。ユーザごとに必要な確認作業の指標は、例えば、確認作業データベース61内で作業情報ごとに付された番号である。生体データは、ユーザの顔、指紋、声紋などである。
確認作業計画生成部65は、ユーザ情報データベース63内の情報に基づいて、そのユーザに必要な確認作業を確認作業データベース61から抽出する。さらに、確認作業計画生成部65は、管理・動作計画部10内の地図情報に基づいて、効率良くかつ確実に確認作業を実行することができるように確認作業の実行の順番を生成する。例えば、確認作業計画生成部65は、確認箇所を結ぶ経路が最短になるように確認作業の実行の順番を決定する。
図3は、第1の実施形態の具体的な運用を示す概念図である。図4は、第1の実施形態の具体的な運用の流れを示すフロー図である。第1の実施形態における運用では、ユーザの外出時にロボット100が戸締りを確認する。本実施形態において、ユーザ情報データベース63は、各ユーザに対応した確認作業番号を記憶している。確認作業データベース61は、各確認作業番号に関連付けて、確認対象の名称(例えば、リビング窓)、確認箇所の座標、確認対象の種別(例えば、鍵)および確認作業の内容(例えば、閉確認)を格納している。
まず、ロボット10は、ユーザ認証を行なう(S10)。例えば、ユーザがマイク27へ外出する旨を音声で伝えると、管理・動作計画部10が、認証部として、ユーザの音声と、予め登録された声紋とを比較して、ユーザ認証を行う。このユーザがユーザ情報データベース63に含まれているユーザである場合には、ロボット100は確認作業を開始する。ユーザ認証は、声紋以外の他の生体データを用いて行なってもよい。
確認作業計画生成部65は、ユーザ情報データベース63からそのユーザに対応した確認作業番号を獲得し、その確認作業番号に該当する確認作業等を確認作業データベース61から抽出する(S20)。ユーザ情報データベース63は、ユーザの音声を入力したときの位置を基準位置として記憶し、この基準位置と地図情報とに基づいて確認作業の実行の順番を生成する(S30)。このとき、基準位置から各確認箇所へ行く経路が作成される。
ロボット100は、をこの経路に従って移動する(S40)。ロボット100の位置は、ジャイロや車輪の回転と地図情報とに基づいて判断すればよい。ロボット100が確認箇所(X,Y,Z)に到達すると、ロボット100は確認作業を実行する(S50)。例えば、確認対象の名称が“リビング窓”、確認対象の種別が“鍵”、確認作業が“閉確認”である場合には、ロボット100は、リビング窓の鍵が閉まっていることを確認する。
鍵の開閉を判断するためには、確認作業データベース61が、鍵の開いた状態および鍵の閉じた状態の各画像を予め格納し、管理・動作計画部10が、画像処理部として、これらの予め準備された画像とカメラ21によって実際に撮影された鍵の画像とを比較すればよい。
この鍵の画像は、撮影日時および撮影場所とともに確認作業記録部70に格納される(S60)。総ての確認作業が終了すると、ロボット100は、基準位置に戻る。ユーザ認証によりロボット100が、再度、ユーザを認証すると、ロボット100は、ディスプレイ23に各確認箇所で撮影した画像を撮影日時および撮影場所とともにユーザへ表示する(S70)。このとき、ロボット100は、ユーザに理解し易いように経路と共に確認作業の実行順に画像をディスプレイ23に表示する。これに代えて、ロボット100は、ディスプレイ23に鍵が開いている箇所の画像のみを表示してもよい。ロボット100は、スピーカ29を用いて、鍵が開いている箇所を音声で出力してもよい。これにより、ユーザは、鍵が開いている箇所のみを確認すれば足りる。
確認作業記録部70に格納された確認箇所の画像情報や音声情報は、コミュニケーション部20を介してディスプレイ23やスピーカ29でユーザに提示される。ユーザは、外出後に携帯端末でネットワーク101を介して確認作業記録部70にアクセスし、要求信号を送ることによって、これらの画像情報や音声情報を取得することができる。
確認結果は、図5に示すように確認作業時の画像を、確認日時および確認対象の名称とともに確認作業記録部70に格納してよい。あるいは、確認結果は、図6に示すように確認対象の名称とともにリストとして確認作業記録部70に格納してもよい。この場合、ユーザは、外出後に確認作業記録部70にアクセスし、これらの確認結果を参照することができる。
本実施形態では、ロボット100は、鍵の開閉を自動的に判断する。しかし、ロボット100は、鍵の開閉を判断することなく、単に、確認箇所の画像をユーザに提示するだけでもよい。これにより、ロボット100は、画像処理を行なう必要がない。また、ユーザは、画像によって鍵の開閉をその場で判断し、鍵が開いている窓のみを確認すればよい。
さらに、ロボット100はユーザと共に確認作業を行ってもよい。この場合、ロボット100はユーザに同行する。ユーザは、確認箇所で窓の鍵が閉まっていることを確認すると、マイク27またはタッチパネル25に鍵が閉まっている旨を入力する。ロボット100は、その確認箇所での鍵が閉まっていることを確認個所の画像とともに確認作業記録部70に格納する。
本実施形態の具体例では、確認作業等が窓に関するものであった。しかし、確認作業等は、例えば、ガス器具や電気製品に関するものでもよい。確認作業等がガス器具に関するものである場合、確認対象の名称は、例えば、ガス栓またはガスストーブであり、確認対象の種別は、例えば、元栓またはスイッチであり、確認作業の内容は、例えば、閉確認でよい。確認作業等が電気製品に関するものである場合、確認対象の名称は、例えば、電灯または電気コンロであり、確認対象の種別は、例えば、スイッチであり、確認作業の内容は、例えば、オフ確認でよい。栓の開閉やスイッチのオン/オフの判断は、ステップS50における鍵の開閉の判断と同様に画像を比較処理することによって実現してもよく、または、ユーザが確認してもよい。
ロボット100は、ユーザが外出した後、玄関の施錠を確認する。玄関が施錠されていない場合には、ロボット100は、直ちにユーザへ通知を行う。また、ロボット100は、ユーザが外出した後に部屋の照明を消すように運用してもよい。
ロボット100は、ユーザの外出後、自動的に確認作業を実行し、確認作業記録部70内に格納されている図5および図6に示す確認結果を自動的に更新してよい。ロボット100は、各種防犯用センサ、異常検知センサを利用して確認作業を行ってもよい。
本実施形態において、確認作業計画生成部65は、確認個所を結ぶ経路が最短になるように確認作業の実行の順番を決定した。しかし、確認作業データベース61の情報に優先度を含め、確認作業計画生成部65は、優先度の高い順に確認作業を実行するように経路を生成してもよい。ユーザが忙しい場合、ユーザの外出時には優先度が一定以上の確認作業のみを行い、残りの確認作業はユーザの外出後にロボット100が行ってもよい。
本実施形態は、ユーザの外出前にロボット100が確認作業をサポートするので、事前に犯罪や災害を予防することができる。
(第2の実施形態)
図7は、本発明に係る第2の実施形態の具体的な運用を示す概念図である。第2の実施形態における運用では、ユーザの外出時にロボット100がユーザの持ち物または外出先までの経路を確認する。第2の実施形態は、図1および図2に示すロボット100で実施することができる。
本実施形態において、ユーザ情報データベース63は、各ユーザに対応した確認作業番号を記憶している。確認作業データベース61は、ユーザのスケジュールを格納している。このスケジュールは、ユーザがタッチパネル25を介して予め登録したものでよく、あるいは、ユーザが外出時にマイク27を介して入力してもよい。確認作業データベース61は、確認対象の名称(例えば、持ち物)、確認箇所の座標、確認対象の種別(例えば、傘)、確認作業の内容(例えば、携帯確認)および条件(例えば、降水確率30%以上)を格納している。
図8は、第2の実施形態の具体的な運用の流れを示すフロー図である。図8に示すように、まず、ロボット10は、ユーザ認証を行なう(S10)。ユーザ認証の方法は、第1の実施形態におけるユーザ認証と同様でよい。
確認作業計画生成部65は、ユーザ情報データベース63からユーザのスケジュールを取得し、ユーザが外出する日時および外出先を認識する(S21)。次に、確認作業計画生成部65は、インターネット101からその日時における外出先の天気予報および交通情報等を取得する(S31)。
確認作業計画生成部65は、さらに、天候および交通情報等に合致する条件を確認作業データベース61から検索し、この条件を有する確認作業を抽出する(S41)。例えば、天気予報で降水確率が30%以上である場合には、確認作業計画生成部65は、図7の確認作業データベース61内の“No.1”の確認作業等を抽出する。また、例えば、天気予報で気温が10℃以下である場合には、確認作業計画生成部65は、確認作業データベース61内の“No.2”の確認作業等を抽出する。
ロボット100は、ユーザに同行し、抽出された確認箇所にユーザが到達または接近したときに、適宜、確認作業を実行する(S51)。例えば、ユーザが玄関の座標に到達または接近したときに、ロボット100は、スピーカ29を介して音声で傘を携帯することを喚起する。あるいは、ロボット100は、傘の画像を予め格納し、ディスプレイ23で傘の画像を表示してもよい。また、例えば、ユーザがクローゼットの座標に到達または接近したときに、ロボット100は、スピーカ29を介して音声でコートの着用を喚起する。あるいは、ロボット100は、コートの画像を予め格納し、ディスプレイ23でコートの画像を表示してもよい。
確認作業計画生成部65は、日時を計る時計を内蔵し、この時計の日付や時刻に基づいて季節や時刻を判断し、これに対応した確認作業を実行してもよい。例えば、確認作業計画生成部65は、時計の日付により季節が冬であると判断した場合には、確認作業データベース61内の“No.2”の確認作業等を抽出し、ロボット100は、スピーカ29を介して音声でコートの着用を喚起する。また、例えば、確認作業計画生成部65は、時計の時刻により夜であると判断した場合には、ロボット100は屋内の電灯をオンにする。
交通情報に関しては、確認作業計画生成部65は、インタネット101から取得した情報に基づいて、ユーザの外出先までの経路を推奨経路としてディスプレイ23で提示してよい。例えば、ユーザの現在位置から外出先までの最短経路が渋滞している場合には、ロボット100は、迂回経路をディスプレイ23でユーザへ提示する。屋外の地図情報は、確認作業データベース61または管理・動作計画部10に予め格納しておけばよい。あるいは、ユーザの現在位置から外出先までの最短経路が渋滞している場合には、ロボット100は、スピーカ29を介して早目に外出することをユーザに推奨し、道路の渋滞状況に基づいて推奨外出時刻として出発時刻を提示してもよい。
このように、第2の実施形態は、外出先の情報とロボット100またはユーザの現在位置の両方に基づき、ユーザにとって有用な情報を提供する。第2の実施形態は、ユーザの外出時にユーザの持ち物または外出先までの経路を確認することができる。
(第3の実施形態)
図9は、本発明に係る第3の実施形態の具体的な運用を示す概念図である。第3の実施形態における運用では、ユーザの外出時にロボット100がユーザの服装を確認する。第3の実施形態は、図1および図2に示すロボット100で実施することができる。
本実施形態において、ユーザ情報データベース63は、ユーザの現在位置、現在の服装、過去の服装、スケジュール等の情報を格納している。これらの情報は、ユーザがタッチパネル25を介して予め登録したものでよく、あるいは、ユーザが外出時にマイク27を介して入力してもよい。さらに、ユーザの現在の服装および過去の服装の情報は、カメラ21で撮影された画像情報でよい。確認作業データベース61は、確認対象の名称(例えば、服装)、確認箇所の座標、確認対象の種別(例えば、ジャケット)および確認作業の内容(例えば、相違の確認)を格納している。
図10は、第3の実施形態の具体的な運用の流れを示すフロー図である。図10に示すように、まず、ロボット10は、ユーザ認証を行なう(S10)。ユーザ認証の方法は、第1の実施形態におけるユーザ認証と同様でよい。
確認作業計画生成部65は、ユーザ情報データベース63からユーザのスケジュールを取得し、ユーザが外出する日時および外出先を認識する(S21)。次に、確認作業計画生成部65は、ユーザ情報データベース63からユーザの現在の服装および過去の服装の情報を取得する(S32)。過去の服装は、ユーザが以前に同一の外出先に出かけたときの服装である。
例えば、服装のうちジャケットに関する確認作業を説明する。この場合、確認作業計画生成部65は、確認作業データベース61から確認対象の種別がジャケットである確認作業等を抽出する(S42)。次に、ロボット100は、ユーザに同行し、抽出された確認箇所にユーザが到達または接近したときに、適宜、確認作業を実行する(S52)。例えば、確認作業計画生成部65は、確認作業として、ユーザの現在のジャケットと過去のジャケットとが相違するか否かの判断を行なう(S52)。これらが同一である場合には、ロボット100は、スピーカ29を介して同一の外出先に対して以前と同一のジャケットを着用して訪問しようとしていることをユーザに提示する(S62)。
このように、第3の実施形態は、現在の服装と過去の服装とに基づいて、ユーザの服装を確認することができる。よって、ロボット100は、前日や数日前と同じ服装を連続で着ないようにユーザにアドバイスすることもできる。
第2および第3の実施形態において、持ち物や服装の確認作業は、画像処理に代えて、無線タグ等を利用して実行してもよい。例えば、各持ち物や衣服に無線タグを設け、ロボット100は、この無線タグを認識することによって、ユーザの持ち物の確認および服装の確認を行うことができる。これにより、ロボット100は、忘れ物や服装の適否に関してユーザをサポートすることができる。
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
本発明に係る第1の実施形態に従ったロボット100の構成図。 確認作業計画部60の内部構成を示す構成図。 第1の実施形態の具体的な運用を示す概念図。 第1の実施形態の具体的な運用の流れを示すフロー図。 確認結果を画像として表示した図。 確認結果をリストとして表示した図。 本発明に係る第2の実施形態の具体的な運用を示す概念図。 第2の実施形態の具体的な運用の流れを示すフロー図。 本発明に係る第3の実施形態の具体的な運用を示す概念図。 第3の実施形態の具体的な運用の流れを示すフロー図。
符号の説明
100 ロボット
10 管理・動作計画部
20 コミュニケーション部
30 運動制御部
40 外部通信部
50 確認作業サポート部
60 確認作業計画部
61 確認作業データベース
63 ユーザ情報データベース
65 確認作業計画生成部
70 確認作業記録部

Claims (11)

  1. 屋内を自律的に移動するロボットであって、
    該ロボットを移動させる移動機構と、
    ユーザが外出するときに行なう確認作業および該確認作業を行なう屋内の確認箇所を記憶する確認作業記憶部と、
    前記確認作業の実行の要否または前記確認作業の実行の順番を生成する確認作業計画部と、
    前記確認作業計画部が生成した順番に従い、前記確認作業を実行する前記確認箇所へ該ロボットを移動させるように前記移動機構を制御する制御部と、
    前記確認作業の実施状況を記録する確認作業記録部と、
    前記確認作業の実施状況を提示する提示部とを備えたことを特徴とするロボット。
  2. 前記確認作業計画部は、日時を計る時計を備え、確認作業の実施時の時刻や季節に対応した前記確認作業の順番を生成することを特徴とする請求項1に記載のロボット。
  3. ユーザ認証を行う認証部をさらに備え、
    前記確認作業記憶部は前記確認作業をユーザごとに記憶し、
    前記確認作業計画部はユーザに対応した前記確認作業の順番を生成することを特徴とする請求項1に記載のロボット。
  4. 屋内の前記各確認箇所の画像を撮影するカメラをさらに備え、
    前記確認作業記録部は、前記カメラにより撮影された画像を撮影日時とともに記憶し、
    前記提示部は前記確認箇所の画像を撮影日時とともに表示することができるモニタであることを特徴とする請求項1に記載のロボット。
  5. 前記確認箇所の画像を処理し、該確認箇所の状況を認識する画像処理部をさらに備え、
    前記提示部は、該確認箇所の状況に基づいてユーザに対して注意を喚起することを特徴とする請求項1に記載のロボット。
  6. 該ロボットは、前記確認作業計画部が生成した順番に従って前記確認箇所へ移動し、
    前記確認作業記録部が前記確認箇所の状況を記憶し、
    前記提示部が該確認箇所の状況をユーザへ提示することを特徴とする請求項1に記載のロボット。
  7. 前記提示部は、前記確認箇所の状況を、該ロボットの経路と共に前記確認作業の実行順にユーザへ提示することを特徴とする請求項6に記載のロボット。
  8. ネットワークと通信可能なインタフェースをさらに備え、
    前記確認作業計画部は、前記ネットワークから得た外部情報に基づいて前記確認作業の実行の要否を判断することを特徴とする請求項1に記載のロボット。
  9. 前記確認作業計画部は、前記外部情報、ユーザの外出先到着時間およびユーザの行き先に基づいて、ユーザの居場所からユーザの行き先までの推奨経路または推奨外出時間を生成することを特徴とする請求項8に記載のロボット。
  10. 前記確認箇所の画像を処理し、該確認箇所の状況を認識する画像処理部をさらに備え、
    ユーザの外出後に前記確認作業計画部が生成した順番に従って前記確認箇所へ移動し、
    前記確認作業記録部が前記確認箇所の確認結果を記録することを特徴とする請求項1に記載のロボット。
  11. ネットワークに通信可能なインタフェースをさらに備え、
    前記確認作業計画部は、外出後、ユーザが有する携帯端末からの要求に対して、前記ネットワークを介して前記確認作業の状況を送信することを特徴とする請求項1に記載のロボット。
JP2004109001A 2004-04-01 2004-04-01 ロボット Pending JP2005288646A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004109001A JP2005288646A (ja) 2004-04-01 2004-04-01 ロボット
US11/091,418 US20050222711A1 (en) 2004-04-01 2005-03-29 Robot and a robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004109001A JP2005288646A (ja) 2004-04-01 2004-04-01 ロボット

Publications (1)

Publication Number Publication Date
JP2005288646A true JP2005288646A (ja) 2005-10-20

Family

ID=35055429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004109001A Pending JP2005288646A (ja) 2004-04-01 2004-04-01 ロボット

Country Status (2)

Country Link
US (1) US20050222711A1 (ja)
JP (1) JP2005288646A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150081427A (ko) * 2012-09-11 2015-07-14 유진 알. 파렌테 골프채를 원격으로 스윙하기 위한 시스템
JP2020064496A (ja) * 2018-10-18 2020-04-23 東京瓦斯株式会社 情報処理システムおよびプログラム
WO2023084823A1 (ja) * 2021-11-12 2023-05-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置、及び情報処理プログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE524784T1 (de) 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
US8982217B1 (en) 2012-01-31 2015-03-17 Google Inc. Determining states and modifying environments according to states
MY200573A (en) * 2016-01-04 2024-01-03 Zhejiang Libiao Robots Co Ltd Method and device for returning robots from site
EP3403146A4 (en) 2016-01-15 2019-08-21 iRobot Corporation AUTONOMOUS MONITORING ROBOT SYSTEMS
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6799087B2 (en) * 2000-07-10 2004-09-28 Hrl Laboratories, Llc Method and apparatus for providing agent swarm dispersal and separation by directed movement
US7194428B2 (en) * 2001-03-02 2007-03-20 Accenture Global Services Gmbh Online wardrobe
US6580246B2 (en) * 2001-08-13 2003-06-17 Steven Jacobs Robot touch shield
JP4657728B2 (ja) * 2002-08-29 2011-03-23 アイティス・ホールディングス・ピーエルシー トラフィック情報を提供するための装置および方法
WO2005098729A2 (en) * 2004-03-27 2005-10-20 Harvey Koselka Autonomous personal service robot

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150081427A (ko) * 2012-09-11 2015-07-14 유진 알. 파렌테 골프채를 원격으로 스윙하기 위한 시스템
JP2015534473A (ja) * 2012-09-11 2015-12-03 ペアレンテ、ユージーン、アール. 離れた場所からゴルフクラブをスイングさせるシステム
KR102032342B1 (ko) 2012-09-11 2019-10-15 유진 알. 파렌테 골프채를 원격으로 스윙하기 위한 시스템
JP2020064496A (ja) * 2018-10-18 2020-04-23 東京瓦斯株式会社 情報処理システムおよびプログラム
JP7126919B2 (ja) 2018-10-18 2022-08-29 東京瓦斯株式会社 情報処理システムおよびプログラム
WO2023084823A1 (ja) * 2021-11-12 2023-05-19 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置、及び情報処理プログラム

Also Published As

Publication number Publication date
US20050222711A1 (en) 2005-10-06

Similar Documents

Publication Publication Date Title
US11143521B2 (en) System and method for aiding responses to an event detected by a monitoring system
JP6525229B1 (ja) デジタルサーチ・セキュリティシステム、方法及びプログラム
JP5871296B1 (ja) スマートセキュリティ・デジタルシステム、方法及びプログラム
US20220101676A1 (en) Verified access to a monitored property
US20190347924A1 (en) Drone-augmented emergency response services
JP6608911B2 (ja) ドア及びホームセキュリティシステム及び方法
US8356249B2 (en) Intelligent video tours
US9607501B2 (en) Systems and methods for providing emergency resources
JP5674406B2 (ja) 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
US10325461B1 (en) Dynamic security patrol guidance system
US20050222711A1 (en) Robot and a robot control method
US20110092249A1 (en) Portable blind aid device
US10922547B1 (en) Leveraging audio/video recording and communication devices during an emergency situation
US20220027637A1 (en) Property monitoring and management using a drone
JP2020178167A (ja) 人物監視システムおよび人物監視方法
US11845547B1 (en) Indoor drone flight awareness system
JP2006325064A (ja) 広域モニタシステム
WO2020161823A1 (ja) 光ファイバセンシングシステム、監視装置、監視方法、及びコンピュータ可読媒体
US11846941B2 (en) Drone graphical user interface
JP2020129215A (ja) 危険度判別プログラム及びシステム
Darwante et al. Hybrid Model for Robotic Surveillance using Advance Computing Techniques with IoT
US20230162580A1 (en) Systems and methods for building surveillance re-identification based on a building graph
US11521384B1 (en) Monitoring system integration with augmented reality devices
JP2006103854A (ja) エレベータのセキュリティシステム
EP4235102A1 (en) Method of providing a navigation path in an enclosed environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080425

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090428