JP2015016549A - 移動式ヒューマンインターフェースロボット - Google Patents

移動式ヒューマンインターフェースロボット Download PDF

Info

Publication number
JP2015016549A
JP2015016549A JP2014140541A JP2014140541A JP2015016549A JP 2015016549 A JP2015016549 A JP 2015016549A JP 2014140541 A JP2014140541 A JP 2014140541A JP 2014140541 A JP2014140541 A JP 2014140541A JP 2015016549 A JP2015016549 A JP 2015016549A
Authority
JP
Japan
Prior art keywords
robot
drive
human interface
touch
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2014140541A
Other languages
English (en)
Inventor
マイケル ティー ローゼンスタイン
T Rosenstein Michael
マイケル ティー ローゼンスタイン
チーキュン ウォン
Chikyung Won
チーキュン ウォン
ジェフリー ランスベリー
Lansberry Geoffrey
ジェフリー ランスベリー
スティーヴン ヴィー シャムリアン
V Shamlian Steven
スティーヴン ヴィー シャムリアン
マイケル ハロラン
Halloran Michael
マイケル ハロラン
マーク チアペッタ
Chiappetta Mark
マーク チアペッタ
トーマス ピー アレン
p allen Thomas
トーマス ピー アレン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
iRobot Corp
Original Assignee
iRobot Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by iRobot Corp filed Critical iRobot Corp
Publication of JP2015016549A publication Critical patent/JP2015016549A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0227Control of position or course in two dimensions specially adapted to land vehicles using mechanical sensing means, e.g. for sensing treated area
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Motorcycle And Bicycle Frame (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】有用な移動式ヒューマンインターフェースロボットを提供する。【解決手段】移動式ヒューマンインターフェースロボット(100)であって、垂直中心軸線(Z)及び前方駆動方向(F)を定める基部(120)及び基部(120)によって支持されたホロノミック駆動システム(200)を有する移動式ヒューマンインターフェースロボット(100)。駆動システム(200)は、第1、第2及び第3の被動駆動輪(210a,210b,210c)を有し、各駆動輪は、垂直中心軸線(Z)回りに三角形の形に互いに間隔を置いて配置されると共に垂直中心軸線(Z)に対して半径方向軸線に垂直な駆動方向を有する。ロボットは、ホロノミック駆動システム(200)と通信状態にあるコントローラ(500)、基部(120)の上方に支持された胴部(140)及びコントローラ(500)と通信状態にあるタッチセンサシステム(480)を更に有する。【選択図】図1

Description

本発明は、移動式ヒューマンインターフェースロボットに関する。
本米国特許出願は、2010年5月20日に出願された米国特許仮出願第61/346,612号、2010年6月21日に出願された米国特許仮出願第61/356,910号、2010年12月30日に出願された米国特許仮出願第61/428,717号、2010年12月30日に出願された米国特許仮出願第61/428,734号、2010年12月30日に出願された米国特許仮出願第61/428,759号及び2011年1月5日に出願された米国特許仮出願第61/429,863号に関する35U.S.C.§119(e)の規定に基づくと共に2011年2月22日に出願された米国特許出願第13/032,370号に関する35U.S.C.§120に基づく優先権主張出願である。これら先の出願を参照により引用し、これら先の出願の開示内容全体を本明細書の一部とする。
ロボットは、一般に、コンピュータ又は電子プログラミングにより誘導される電気機械的装置である。移動式ロボットは、自分の環境内を動き回る能力を備えていて、1つの物理的な場所に固定されることはない。今日一般に用いられている移動式ロボットの一例は、自動搬送車又は無人搬送車(AGV)である。AGVは、一般に、床のマーカ又はワイヤを辿り又はナビゲーションのためにビジョンシステム又はレーザを用いる移動式ロボットである。移動式ロボットは、産業界、軍事環境又はセキュリティ環境において見受けられる。これら移動式ロボットは又、娯楽のための又は真空クリーニングや在宅支援(ホームアシスタンス)のような或る特定の仕事を実行するための消費者用製品とも考えられる。
本発明の一観点は、垂直中心軸線及び前方駆動方向を定める基部及び基部によって支持されたホロノミック駆動システムを有する移動式ヒューマンインターフェースロボットを提供する。駆動システムは、第1、第2及び第3の被動駆動輪を有し、各駆動輪は、垂直中心軸線回りに三角形の形に互いに間隔を置いて配置されると共に垂直中心軸線に対して半径方向軸線に垂直な駆動方向を有する。ロボットは、ホロノミック駆動システムと通信状態にあるコントローラ、基部の上方に支持された胴部及びコントローラと通信状態にあるタッチセンサシステムを更に有する。タッチセンサシステムは、人の接触に応動する。
コントローラは、タッチセンサシステムから受け取ったタッチ信号に基づいて駆動指令をホロノミック駆動システムに出す。
本発明の具体化例は、以下の特徴のうちの1つ又は2つ以上を含むことができる。幾つかの具体化例では、タッチセンサシステムは、少なくとも一部が胴部に設けられる。ロボットは、基部に取り付けられると共に胴部を支持した作動可能な伸縮式脚部を更に有する。コントローラは、タッチセンサシステムから受け取ったタッチ信号に応答して脚部の高さを変更して胴部の高さを変更する。コントローラは、タッチセンサシステムから受け取ったタッチ信号に応答して脚部に命令して脚部が胴部のユーザ高さ変更に対するアクティブな支援を提供するようにする。
幾つかの実施例では、駆動指令は、ロボットをロボットと接触状態にあるユーザからの支援により推進する電力減少支援駆動指令を含む。ロボットは、胴部に取り付けられた頸部及び頸部によって支持された頭部を更に有するのが良い。頸部は、頭部を胴部に対してパンしたり傾動させたりしたりするよう構成されているのが良い。コントローラは、頭部タッチを指示するタッチセンサシステムから受け取ったタッチ信号に応答して頭部のユーザ関節運動を可能にすると共に頭部タッチの完了後、頭部の姿勢を維持することができる。さらに、コントローラは、タッチセンサシステムから受け取ったタッチ信号に応答してロボットに対する接触場所に向くよう頭部を関節運動させることができる。幾つかの実施例では、ロボットは、頸部及び頭部のうちの少なくとも一方に設けられていて、頭部のユーザ操作を検出する操作センサを更に有する。
幾つかの具体化例では、タッチセンサシステムは、容量センサ、接触センサ、カメラ、三次元イメージセンサ及びスイッチのうちの少なくとも1つを有する。タッチセンサシステムは、胴部の頂面、底面、右側面、左側面、前面及び後面に取り付けられた接触センサを有するのが良い。さらに、タッチセンサシステムは、ロボットの支持面から3フィート(91.5cm)〜5フィート(152.5cm)のところに位置する少なくとも1つの作動可能なタッチ応答式入力を有するのが良い。
コントローラは、幾つかの実施例では、受け取ったタッチとは逆の方向におけるロボットの少なくとも一部分の運動抵抗を増大させる。追加の実施例では、コントローラは、タッチセンサシステムから受け取ったタッチ信号に応答して駆動を停止させるよう駆動システムに命令を出す。
別の観点では、移動式ヒューマンインターフェースロボットが、前方駆動方向を有する基部と、基部によって支持された駆動システムと、基部によって支持されていて、毎秒100億を超える命令(million instruction(s) per second :MIPS)を処理することができるロボットコンピュータとを有する。ロボットは、基部の上方に取り外し可能に支持されると共にロボットコンピュータとワイヤレス通信状態にある少なくとも1つのタブレット型コンピュータと、基部の上方に支持されていて、少なくとも1つのタブレット型コンピュータとは別個に少なくとも1つの自由度の範囲内で動くことができるカメラとを更に有する。
幾つかの具体化例では、駆動システムは、第1、第2及び第3の被動駆動輪を有し、各駆動輪は、垂直中心軸線回りに三角形の形に互いに間隔を置いて配置されると共に垂直中心軸線に対して半径方向軸線に垂直な駆動方向を有する。各駆動輪は、駆動輪の周囲に沿って設けられた第1及び第2の列をなすローラを有する。各ローラは、駆動輪の転動方向に垂直な転動方向を有する。さらに、ローラは各々、弧状転動面を備えるのが良い。ローラは、一緒になって、駆動輪の少なくとも実質的に円形の転動面を構成する。
幾つかの実施例では、カメラは、地面よりも約1フィート(30.5cm)以上、上方の高さ位置のところに位置決めされると共に移動式ロボットの移動方向において床平面を含む空間ボリュームから点群を得ることができるよう差し向けられているボリューム形点群イメージング装置である。追加の実施例では、カメラは、ロボットに隣接して位置する空間ボリュームから点群を得るよう位置決めされたボリューム形点群イメージング装置である。カメラは、基部の前縁の近くの領域を視認するよう動くことができる。
タブレット型コンピュータは、少なくとも150平方インチ(967.7cm2)の表示領域を有する。さらに、タブレット型コンピュータは、ロボットに取り付けられた状態で少なくとも1つの自由度で動くことができる。幾つかの実施例では、ロボットは、ロボットコンピュータと電気通信状態にあるディスプレイを有する。タブレット型コンピュータは、ディスプレイに取り外し可能に装着できる。ディスプレイは、タブレット型コンピュータがディスプレイに装着されると不作動状態になり、タブレット型コンピュータがディスプレイから取り外されると作動状態になる。
さらに別の観点では、移動式ヒューマンインターフェースロボットを作動させる方法が、ユーザがロボットにタッチしたことに応答してロボットのタッチセンサシステムからタッチ信号を受け取るステップを有する。しきい期間を超えるタッチ持続時間の間、この方法は、ロボットをロボットへの接触場所に基づく方向に駆動するステップを有する。しきい期間よりも短いタッチ持続時間の間、この方法は、ロボットのインターフェースを関節運動させてインターフェースが少なくとも実質的に、ロボットへの接触場所に向くようにするステップを有する。しきい期間よりも短いタッチ持続時間の間、この方法は、ゼロ速度駆動指令を出すステップを有する。
幾つかの具体化例では、この方法は、駆動指令をホロノミック駆動システムに出してロボットをしきい期間よりも長いタッチ持続時間、受け取ったタッチのロボットとは逆方向に向く方向に動かすステップを有する。しきい期間は、0.25秒であるのが良い。この方法は、ロボットの頭部をロボットの連結状態の胴部に対してパンすること及び傾動させることのうちの少なくとも一方を行って少なくとも実質的に、頭部をしきい期間よりも短いタッチ持続時間の間、ロボットに対する接触場所の方へ向かせるステップを有するのが良い。
幾つかの実施例では、タッチセンサシステムは、容量センサ、接触センサ、カメラ、三次元イメージセンサ及びスイッチのうちの少なくとも1つを有する。
本発明のさらに別の観点では、移動式ヒューマンインターフェースロボットが、駆動モータにより対応関係をなして駆動される少なくとも1つの駆動輪を有する駆動システムと、駆動システムと通信状態にある存在場所突き止めシステムと、駆動システム及び存在場所突き止めシステムと通信状態にある電源と、駆動システムの上方に支持されたタッチ応答入力とを有する。タッチ応答入力の作動により、駆動システムへの配電状態が変更され、それにより対応の少なくとも1つの駆動輪への駆動モータの駆動荷重が少なくとも減少する。
幾つかの具体化例では、タッチ応答入力の作動により、駆動システムへの配電が終了し、他方、存在場所突き止めシステムへの配電を続行させることができる。タッチ応答入力の作動に応答して、駆動システムは、タッチ応答入力の作動に応答して、ロボットを移動させると共にロボットのユーザ運動を支援することしかできない電力減少駆動指令を出すことができる。さらに、タッチ応答入力の作動により、対応の駆動モータからの少なくとも1つの駆動輪の結合解除を生じさせることができる。タッチ応答入力は、地面よりも約3フィート(91.5cm)〜約5フィート(152.5cm)上方に位置する。
幾つかの実施例では、存在場所突き止めシステムは、センサシステムと、駆動システム、センサシステム、電源及びタッチ応答入力と通信状態にあるコントローラとを有する。
センサシステムは、慣性測定ユニット、オドメータ、全地球測位システム、レーザスキャナ、ソナー近接センサ及び三次元イメージセンサのうちの少なくとも1つを有するのが良い。追加の実施例では、存在場所突き止めシステムは、三次元イメージセンサ、レーザスキャナ、1つ又は2つ以上のソナー近接センサ、少なくとも1つの駆動輪のための駆動輪エンコーダ及び駆動輪モータフィードバックのうちの少なくとも1つを有する。
駆動システムは、幾つかの実施例では、第1、第2及び第3のホロノミック的に駆動される駆動輪を有し、各駆動輪は、ロボットの垂直軸線回りに三角形の形に間隔を置いて配置されると共に垂直軸線に対して半径方向軸線に垂直な駆動方向を有する。
移動式ヒューマンインターフェースロボットは、駆動システムを支持した基部と、基部から上方に延びる作動可能な伸縮式脚部と、脚部によって支持されていて、地面よりも約3フィート(91.5cm)〜約5フィート(152.5cm)上方に位置する胴部とを更に有し、タッチ応答入力は、胴部に設けられる。タッチ応答入力は、接触センサ、容量センサ、作動可能なボタン及びスイッチのうちの少なくとも1つを含むのが良い。
本発明の別の観点は、移動式ヒューマンインターフェースロボットを提供し、このロボットは、垂直中央軸線回りに実質的に三角形の形をした対称形状を定めると共に第1、第2及び第3の部分を有する基部を有する。ロボットは、基部によって支持されたホロノミック駆動システムを有する。駆動システムは、第1、第2及び第3の被動駆動輪を有し、各駆動輪は、垂直中心軸線回りに三角形の形に互いに間隔を置いて配置されると共に対応の第1、第2及び第3の基部部分により支持される。各駆動輪は、垂直中心軸線に対して半径方向軸線に垂直な駆動方向を有する。ロボットは、基部から上方に延びると共に可変高さを有する脚部、脚部によって支持された胴部及び胴部に設けられた胴部イメージングセンサを更に有する。胴部は、基部から張り出した底面を有する肩を備える。胴部イメージングセンサは、胴部の底面に設けられると共に駆動システムの前方駆動方向に沿って下方に向いている。胴部イメージングセンサは、ロボットの周りのシーンの三次元イメージを捕捉する。ロボットは、胴部によって支持された頸部、頸部によって支持された頭部及び頭部によって支持されたディスプレイを更に有する。頸部は、頭部を垂直中心軸線に対してパンさせたり傾動させたりする。
幾つかの具体化例では、ディスプレイは、頭部に解除可能に取り付けられる。ディスプレイは、頭部から取り外されると、ディスプレイの存在場所を突き止めるロケータ(例えば、存在場所検出のための信号を出すホーミングデバイス又は回路)を有する。幾つかの実施例では、ディスプレイは、タッチスクリーンを備えたタブレット型コンピュータを有する。さらに、頭部及び/又はロボットの他の部分、例えば基部、脚部及び/又は胴部に解除可能に取り付けられたタブレット型コンピュータが設けられるのが良い。幾つかの具体化例では、タブレット型コンピュータは、ディスプレイに解除可能に装着される。ロボットは、頭部に取り付けられたカメラを有するのが良い。
ロボットは、頭部に取り付けられると共にロボットの周りのシーンの三次元イメージを捕捉する頭部イメージングセンサを有するのが良い。頭部イメージングセンサは、好ましくは、ロボットの周りの空間ボリュームから点群を得ることができるよう位置決めされたボリューム形点群イメージング装置を有するのが良い。
アームが頸部に取り付けられると共に頭部を頸部から遠ざけて支持するのが良い。さらに、ロボットは、胴部に取り付けられたマニピュレータアーム及びマニピュレータアームの遠位端部に取り付けられたエンドエフェクタを有するのが良い。マニピュレータアームは、長さが可変であるのが良い。
本発明の1つ又は2つ以上の具体例の細部が添付の図面及び以下の説明に記載されている。他の観点、他の特徴及び他の利点は、明細書、図面及び特許請求の範囲の記載から明らかになろう。
例示の移動式ヒューマンインターフェースロボットの斜視図である。 例示の移動式ヒューマンインターフェースロボットの略図である。 例示の移動式ヒューマンインターフェースロボットの上方に見た斜視図である。 移動式ヒューマンインターフェースロボットの例示の基部の前から見た斜視図である。 図4Aに示された基部の後ろから見た斜視図である。 図4Aに示された基部の平面図である。 例示のヒューマンインターフェースロボットの例示の基部の概略正面図である。 移動式ヒューマンインターフェースロボットの例示の基部の概略平面図である。 移動式ヒューマンインターフェースロボットの例示のホロノミック車輪の正面図である。 図5Cに示された車輪の側面図である。 移動式ヒューマンインターフェースロボットのための例示の胴部の前から見た斜視図である。 移動式ヒューマンインターフェースロボットのためのタッチ検出機能を備えた例示の胴部の前から見た斜視図である。 図6Bに示されている胴部の下から見た斜視図である。 移動式ヒューマンインターフェースロボットの例示の頸部の前から斜視図である。 移動式ヒューマンインターフェースロボットの例示の回路構成の略図である。 移動式ヒューマンインターフェースロボットの例示の回路構成の略図である。 移動式ヒューマンインターフェースロボットの例示の回路構成の略図である。 移動式ヒューマンインターフェースロボットの例示の回路構成の略図である。 移動式ヒューマンインターフェースロボットの例示の回路構成の略図である。 移動式ヒューマンインターフェースロボットの例示の回路構成の略図である。 移動式ヒューマンインターフェースロボットの例示の回路構成の略図である。 取り外し可能なウェブパッドを有する例示の移動式ヒューマンインターフェースロボットの斜視図である。 例示の移動式ヒューマンインターフェースロボットと対話する人々の斜視図である。 例示の移動式ヒューマンインターフェースロボットと対話する人々の斜視図である。 例示の移動式ヒューマンインターフェースロボットと対話する人々の斜視図である。 例示の移動式ヒューマンインターフェースロボットと対話する人々の斜視図である。 例示の移動式ヒューマンインターフェースロボットと対話する人々の斜視図である。 移動式ヒューマンインターフェースロボットとの通信を開始すると共に実行する例示の電話技術略図である。 例示のロボットシステムアーキテクチャの略図である。 例示のロボットシステムアーキテクチャの略図である。 例示の移動式ヒューマンインターフェースロボットの略図である。 地面の方へ向けられた多数のセンサを有する例示の移動式ヒューマンインターフェースロボットの斜視図である。 移動式ヒューマンインターフェースロボットのコントローラによって実行される例示の制御システムの略図である。 ヒューマンタッチ指令を受け取る例示の移動式ヒューマンインターフェースロボットの斜視図である。 ユーザが手動で移動式ヒューマンインターフェースロボットを動かすことができるようロボット保持を実行する操作又はステップの例示の構成の流れ図である。 ユーザが手動で移動式ヒューマンインターフェースロボットを動かすことができるようにする保持ボタンシステムの略図である。 マニピュレータが取り付けられている例示の移動式ヒューマンインターフェースロボットの斜視図である。 マニピュレータがドアノブに近付いている状態の例示の移動式ヒューマンインターフェースロボットの斜視図である。 マニピュレータがドアノブを掴んで対応のドアを開けている状態の例示の移動式ヒューマンインターフェースロボットの斜視図である。 マニピュレータがドアノブをリリースして対応の開いたドアの出入口を通って動いている状態の例示の移動式ヒューマンインターフェースロボットの斜視図である。 マニピュレータが人のためにドアを開放状態に保持した状態の例示の移動式ヒューマンインターフェースロボットの斜視図である。 アームが頭部をロボットの胴部から遠ざけて支持した状態の例示の移動式ヒューマンインターフェースロボットの斜視図である。
種々の図において、同一の参照符号は、同一の要素を示している。
移動式ロボット(移動ロボットとも呼ばれる)は、ホームアシスタンス(在宅支援からコマーシャルアシスタンス(商業的支援)まで)の範囲にわたる多くのサービスを提供するよう人と対話し又はインターフェースすることができる。ホームアシスタンスの例では、移動式ロボットは、日常の仕事について年取った人を支援することができ、かかる仕事としては、薬物療法、移動支援、コミュニケーション支援(例えば、テレビ会議、電気通信、Internetアクセス等)、住宅又は現場監視(内側及び/又は外側)、人の監視及び/又は個人用緊急時対応システム(personal emergency response system:PERS)の提供が挙げられるが、これらには限定されない。コマーシャルアシスタントの場合、移動式ロボットは、テレビ会議(例えば、病院環境内における)、売場専用端末(POS端末)、対話式情報/マーケティング端末等を提供することができる。
図1及び図2を参照すると、幾つかの具体例では、移動式ロボット100が前方駆動方向Fを定めるロボット本体110(又はシャーシ)を有している。ロボット100は、駆動システム200、インターフェースモジュール300及びセンサシステム400を更に有し、これらは各々、ロボット本体110により支持されると共にロボット100の動作と運動を協調させるコントローラ500と通信状態にある。電源100を(例えば、1個又は複数個のバッテリ)が必要に応じてこれらコンポーネントの各々と電気的通信関係をなして支持されるのが良く、この電源は、電力を必要に応じてこれらコンポーネントの各々に送り出す。例えば、コントローラ500は、1,000MIPS(1秒当たり100万の命令)を超える数の命令を実施することができるコンピュータを含むのが良く、電源1058は、コンピュータに3時間を超える間、電力供給するのに十分なバッテリを提供する。
ロボット本体110は、図示の実施例では、基部120、基部120から上方に延びる少なくとも1本の脚部130及び少なくとも1本の脚部130によって支持された胴部140を有する。基部120は、少なくとも駆動システム200を部分的に支持することができる。ロボット本体110は、胴部140によって支持された頸部150を更に有する。頸部150は、頭部160を支持し、頭部160は、インターフェースモジュール300の少なくとも一部分を支持している。基部120は、機械的安定性を維持するために基部120の低い重心CGB及びロボット100の低い全体的重心CGRを維持するのに十分なおもり(例えば、電源105(バッテリを支持することによって)を有する。
図3及び図4A〜図4Cを参照すると、幾つかの具体例では、基部120は、三辺形的に対称の形状(例えば、平面図で見て三角形の形状)を定めている。例えば、基部120は、基部シャーシ122を有するのが良く、基部シャーシ122は、三辺形状の基部120(例えば、図4A参照)の各脚部に対応する第1、第2及び第3の基部本体部分124a,124b,124cを備えた基部本体124を支持している。各基部本体部分124a,124b,124cは、物体との接触に応答して基部シャーシ122に対して別個独立に動くよう基部シャーシ122によって可動的に支持されるのが良い。基部120の三辺形的対称形状により、ロボット100周りに360°にわたる出っ張りバンプ(隆起部)の検出が可能である。各基部本体部分124a,124b,124cは、基部シャーシ122に対する対応の基部本体部分124a,124b,124cの運動を検出する関連の接触センサ(例えば、容量センサ、リードスイッチ等)を有するのが良い。
幾つかの具体化例では、駆動システム200は、ロボット100の全方向性及び/又はホロノミック運動制御を可能にする。本明細書で用いられる「全方向性」という用語は、実質的に任意の平面方向、即ち、左右(側方)、前後及び回転運動を行うことができるということを意味している。これら方向は、一般に、本明細書ではそれぞれx、y及びθzと称する。さらに、「ホロノミック」という用語は、この用語の文献的使用と実質的に一致した仕方で用いられており、平面方向に3つの平面状自由度、即ち、2つの並進及び1つの回転で動くことができるということを意味している。それ故、平面方向に3つの平面速度(前後、側方及び回転)の実質的に任意の比率で構成された速度で動くことができる能力を備えると共に実質的に連続した仕方でこれらの比率を変化させることができる能力を備えている。
ロボット100は、車輪付き移動方式を用いて人の環境(例えば、典型的には二足歩行居住者向きに設計された環境)で働くことができる。幾つかの具体化例では、駆動システム200は、垂直軸線Z回りに等間隔を置いて(例えば、120°の間隔を置いて)(即ち、三辺形対称に)配置された第1、第2及び第3の駆動輪210a,210b,210cを有するが、他の構成も又採用可能である。図5A及び図5Bを参照すると、駆動輪210a,210b,210cは、横方向弧状転動面(即ち、転動方向DR)に対して横方向又は垂直な方向に湾曲した輪郭形状を備えるのが良く、この転動面は、ホロノミック駆動システム200の操縦性を助けることができる。各駆動輪210a,210b,210cは、それぞれ駆動モータ220a,220b,220cに結合されており、この駆動モータは、他の駆動モータ220a,220b,220cとは別個独立に駆動輪210a,210b,210cを前進(前方)方向及び/又は後退(後方)方向に駆動することができる。各駆動モータ220a〜220cは、それぞれのエンコーダ212(図8C)を有するのが良く、このエンコーダは、コントローラ500に車輪回転フィードバックを提供する。幾つかの実施例では、各駆動輪210a,210b,210cは、正三角形の3つの頂点のうちの1つに又はこの近くに取り付けられ、それぞれの三角形の端の角度の二等分線に垂直な駆動方向(前後方向)を有する。三辺形対称ホロノミック基部120を前方駆動方向Fで駆動することにより、ロボット100は、閉じ込め状態又はクラッタからの自律的な逃げ出しのために非前方駆動方向に移行することができ、次に、逃げ出しが解決した後、前方駆動方向Fに沿って駆動するよう回転すると共に/或いは並進することができる。
図5C及び図5Dを参照すると、幾つかの具体化例では、各駆動輪210は、ローラ230の内側の列232及び外側の列234を有し、各列は、駆動輪210の転動方向DRに垂直な転動方向Drを有する。ローラ230の列232,234は、互い違いに配置されているのが良い(例えば、その結果、内側の列232に属する1つのローラ230は、外側の列234に属する2つの隣り合うローラ230相互間に等しく位置決めされる。ローラ230は、駆動輪210の駆動方向に垂直な無限のスリップを行う。ローラ230は、これらの転動方向Drに垂直な弧状(例えば、凸状)外面235を備え、その結果、ローラ230は、一緒になって、駆動輪210の円形又は実質的に円形の周囲を定めている。ローラ230の輪郭形状は、駆動輪210の全体的輪郭形状に影響を及ぼす。例えば、ローラ230は、一緒になって駆動輪210のスカラップ状転動面(例えば、トラクションのためのトレッドとして)を構成する弧状ローラ外面235を備えることができる。しかしながら、ローラ230をこれが駆動輪210の全体として円形の転動面を構成する輪郭形状を有するよう構成することにより、ロボット100は、車輪トレッドと垂直に振動するのではなく、平坦な表面上で滑らかに移動することができる。角度をなして物体に接近する場合、ローラ230(半径r)の互い違いの列232,234をトレッドとして用いると、駆動輪210の車輪半径Rとほぼ同じほど高く又はほぼ同じほど高い物体を登ることができる。
図3〜図5Bに示された実施例では、第1の駆動輪210は、前方駆動方向Fに沿う先導駆動輪として構成され、残りの2つの駆動輪210b,210cは、これに後続する。
この構成例では、前方に駆動するためには、コントローラ500は、第1の駆動輪210aが前方駆動方向Fに沿ってスリップしている間に第2及び第3の駆動輪210b,210cが同じ速度で前方転動方向に駆動するようにする駆動指令を出すのが良い。さらに、この駆動輪構成により、ロボット100は、短時間で停止することができる(例えば、前方駆動方向Fに対して迅速な負の加速を生じさせる)。これは、三輪設計の自然な動的不安定性に起因している。前方駆動方向Fが2本の前方駆動輪相互間の角度の二等分線に沿っている場合、短時間で停止させると、ロボット100がその2本の「前」輪を中心として回動してこれを転倒させるトルクが生じる。これとは異なり、1本の駆動輪210aを前方に自然に走行させることにより、ロボット100が支持され又は急停止を行うことが必要な場合であっても前方に倒れるのが阻止される。しかしながら、停止状態から加速すると、コントローラ500は、ロボット100の全体的重心CGRからロボット100の慣性モーメントIを考慮に入れることができる。
駆動システム200の幾つかの具体化例では、各駆動輪210a,210b,210cは、垂直軸Zと半径方向に整列した転動方向DRを有し、垂直軸Zは、ロボット100のX軸及びY軸と直交している。第1の駆動輪210aは、前方駆動方向Fに沿う先導駆動輪として構成されるのが良く、残りの2つの駆動輪210b,210cは、これに後続する。この構成例では、前方に進むために、制御装置500は、第1の駆動輪210aが前方転動方向に進むようにし、第2及び第3の駆動輪210b,210cが第1の駆動輪210aと同一の速度で、しかしながら、逆方向に進むようにする駆動指令を出すのが良い。
他の具体化例では、駆動システム200は、2本の駆動輪210a,210b相互間の角度の角度二等分線がロボット100の前方駆動方向Fと整列するよう位置決めされた第1及び第2の駆動輪210a,210bを有するよう配置されるのが良い。この構成例では、前方に駆動するため、コントローラ500は、第1及び第2の駆動輪210a,210bを前方転動方向に且つ同一速度で駆動させ、駆動させる駆動指令を出すのが良く、他方、第3の駆動輪210cは、逆方向に逆方向に駆動し又は空回り状態のままであり、第1及び第2の駆動輪210a,210bの後ろに引きずられる。前方に駆動しながら左又は右に曲がるため、コントローラ500は、対応の第1又は第2の駆動輪210a,210bが比較的迅速な/遅い速度で駆動するようにする指令を出すのが良い。他の構成の駆動システム200も又使用できる。駆動輪210a,210b,210cは、円筒形、円形、楕円形又は多角形の輪郭形状を備えることができる。
再び図1〜図3を参照すると、基部120は、基部120からZ方向に上方に延びる少なくとも1本の脚部130を支持している。脚部130は、胴部140を基部120に対して昇降させるために可変高さを有するよう構成されているのが良い。幾つかの具体化例では、各脚部130は、互いに対して動く(例えば、入れ子式又は伸縮運動、直線運動及び/又は角運動)第1及び第2の脚部分132,134を有する。連続的に小径の押し出し部を互いに入れ子式に出入りさせたり比較的大径の基部押し出し部から入れ子式に出したりするのではなく、第2の脚部分134は、図示の実施例では、第1の脚部分132上でこれに沿って入れ子式に動き、かくして、他のコンポーネントを第2の脚部分134に沿って配置することができると共に潜在的に第2の脚部分134と一緒に基部120の比較的近くまで動くことができる。脚部130は、第2の脚部分134を第1の脚部分132に対し動かすアクチュエータ組立体136(図8C)を有するのが良い。アクチュエータ組立体136は、昇降モータ138b及び位置フィードバックをコントローラ500に提供するエンコーダ138cと連絡状態にあるモータドライバ138aを含むのが良い。
一般に、入れ子式構成は、脚部130全体の重心CGLをできるだけ低く保つために基部120のところの比較的大径の押し出し部から入れ子式に出入りする連続的に小径の押し出し部を有する。さらに、脚部130を完全に伸長させたときに基部120のところで生じる大きなトルクを取り扱うために底部のところに強力且つ/又は大径のコンポーネントを設けるのが良い。しかしながら、このやり方は、2つの問題を提起する。第1に、比較的小径のコンポーネントが脚部130の頂部のところに配置されると、雨、埃又は他の粒状物が押し出し部に沿って流れ又は落ちる傾向があり、それにより押し出し部相互間の空間に入り込み、かくして押し出し部の嵌合を妨害する。これにより、脚部130の完全な移動性/関節運動を依然として維持しようとする場合に極めて困難な密封上の問題が生じる。第2に、ロボット100にペイロード又は付属装置を取り付けることが望ましい場合がある。付属装置に取り付ける1つのありふれた場所は、胴部140の頂部である。第2の脚部分134が入れ子式に第1の脚部分に対して出入りした場合、付属装置及びコンポーネントは、胴部140と一緒に移動する必要がある場合、第2の脚部分134全体の上方にしか取り付けることができない。もしそうでなければ、第2の脚部分134に取り付けられたコンポーネントが脚部130の入れ子式運動を制限することになる。
第2の脚部分134を第1の脚部分130上でこれに沿って入れ子式に動かすことにより、第2の脚部分134は、基部120に対して垂直に動くことができる追加のペイロード取り付け箇所を提供する。この種の構成により、水又は空気により運ばれる粒状物が脚部分132,134相互間の空間に入らないで、全ての脚部分132,134(例えば、押し出し部)の外部で胴部140に沿って流れる。これにより、脚部130の継手又は関節部の密封が大幅に単純化される。さらに、胴部140のペイロード/付属装置取り付け特徴部及び/又は第2の脚部分134は、常時露出され、脚部130がどのように伸長されようと接近可能である。
図3及び図6Aを参照すると、脚部130は、胴部140を支持し、胴部140は、基部120を覆うと共にこの上方に延びる肩142を有するのが良い。図示の実施例では、胴部140は、肩142の少なくとも一部を形成する下方に向いた底面44(例えば、基部寄り)及び逆の上方に向いた頂面146を有し、これら相互間には側面148が延びている。胴部140は、脚部130によって支持された中央部分141及び脚部130の側方広がりを超える側方に延びる周辺自由部分143を備えた種々の形状又は幾何学的形状、例えば、円形又は楕円形の形をしているのが良く、かくして、下方に向いた表面144を構成する張り出し部分が形成されている。幾つかの実施例では、胴部140は、肩を構成する多角形又は他の複雑な形状を有し、肩は、基部120を覆った状態で脚部130を超えて延びる張り出し部分となっている。
ロボット100は、ペイロードを受け入れる1つ又は2つ以上の付属装置ポート170(例えば、機械的及び/又は電気的相互連結箇所)を有するのが良い。付属装置ポート170は、受け入れたペイロードがセンサシステム400(例えば、胴部140の底面144及び/又は頂面146等に取り付けられている)のセンサを遮蔽せず又は妨害しないよう配置されるのが良い。幾つかの具体化例では、図6Aに示されているように、胴部140は、胴部140の後方部分149に設けられていて、例えば、バスケット340に入ったペイロードを受け入れる1つ又は2つ以上の付属装置ポート170を有し、それにより、胴部140の前方部分147又はロボット本体110の他の部分に取り付けられているセンサが妨害されないようになっている。
胴部140の外面は、ユーザからのタッチ指令を受け取るようユーザによる接触又はタッチに敏感であるのが良い。例えば、ユーザが胴部140の頂面146にタッチする(触る)と、ロボット100は、胴部の高さHTを床に対して(例えば、胴部140を支持した脚部130の高さHLを減少させることによって)下降させることによって応動する。
同様に、ユーザが胴部140の底面144にタッチすると、ロボット100は、胴部140を床に対して(例えば、胴部140を支持した脚部130の高さHLを増大させることによって)上昇させることによって応動する。さらに、胴部140の側面148の前方、後方、右側又は左側部分に対するユーザのタッチを受け取ると、ロボット100は、受け取ったタッチ指令の対応の方向(例えば、それぞれ、後方、前方、左側及び右側)に動くことによって応動する。胴部140の外面は、コントローラ500と通信状態にあり、ユーザ接触を検出する容量センサを有するのが良い。
図6B及び図6Cを参照すると、幾つかの具体化例では、胴部140は、頂部パネル145t、底部パネル145b、前側パネル145f、後側パネル145b、右側パネル145r及び左側パネル145lを備えた胴部本体145を有する。各パネル145t,145b,145f,145r,145lは、他のパネルに対して別個独立に動くことができる。さらに、各パネル145t,145b,145f,145r,145lは、コントローラ500と通信状態にあり、それぞれのパネルの運動及び/又はそれぞれのパネルとの接触を検出する関連の運動及び/又は接触センサ147t,147b,147f,147r,147lを有するのが良い。
再び図1〜図3及び図7を参照すると、胴部140は、頭部160を胴部140に対してパンしたり係合させたりする頸部150を支持している。図示の実施例では、頸部150は、ローテータ152及びチルタ154を有する。ローテータ152は、約90°〜約360°の角運動範囲θR(例えば、Z軸回り)を提供することができる。他の範囲も又、採用可能である。さらに、幾つかの実施例では、ローテータ152は、頭部160とロボット100の残部との間の電気的連絡状態を維持しながら制限されない回転数で胴部140に対する頭部160の連続した360°の回転を可能にする電気的コネクタ又は接点を有する。チルタ154は、頭部160とロボット100の残部との間の電気的連絡状態を維持しながら胴部140に対する頭部150の回転を可能にする同一又は類似の電気コネクタ又は接点を有するのが良い。ローテータ152は、リング153(例えば、歯付きリングラック)に結合され又はこれに係合するローテータモータ151を有するのが良い。チルタ154は、ローテータ152とは別個独立に、頭部を胴部140に対して角度θT(例えば、Y軸回りに)動かすことができる。幾つかの実施例では、チルタ154は、チルタモータ155を有し、チルタモータ155は、頭部160をZ軸に対して±90°の角度θTの間で動かす。他の範囲、例えば±45°等も又採用可能である。ロボット100は、脚部130、胴部140、頸部150及び頭部160がロボット100の安定した移動性を維持するために基部120の周囲の範囲内に留まるよう構成されているのが良い。図10Fに示されている例示の概略回路図では、頸部150は、パン・チルト組立体151を有し、パン・チルト組立体151は、ローテータ152及びチルタ154を対応のモータドライバ156a,156b及びエンコーダ158a,158bと一緒に含む。
頭部160は、ユーザからのタッチ指令を受け取るようユーザによる接触又はタッチ操作に敏感であるのが良い。例えば、ユーザが頭部160を前方に引くと、頭部160は、受動的抵抗をもたらしながら前方に傾動し、次にその位置を保持する。さらに、ユーザが頭部160垂直方向下方に押したり引っ張ったりした場合、胴部140は、頭部160を下降させるよう下降することができる(脚部130の長さの減少により)。頭部160及び/又は頸部150は、ユーザの接触又は操作を検出するひずみ計及び/又は接触センサ165(図7)を有するのが良い。
図8A〜図8Gは、ロボット100の回路構成の例示の略図である。図8A〜図8Cは、基部120のための回路構成の例示の略図を提供しており、基部120は、近接センサ、例えばソナー近接センサ410及びクリフ(断崖状箇所)近接センサ420、接触センサ430、レーザスキャナ440、ソナースキャナ460及び駆動システム200を収容するのが良い。基部120は、コントローラ500、電源105及び脚部アクチュエータ組立体136を更に収容するのが良い。胴部140は、マイクロコントローラ145、マイクロホン330、スピーカ340、走査型3‐Dイメージセンサ410a及び胴部タッチセンサシステム480を収容するのが良く、胴部タッチセンサシステム480により、コントローラ500は、ユーザの接触又はタッチを受け取ってこれに対して応動することができる(例えば、胴部140を基部120に対して動かし、頸部150をパンすると共に/或いは傾動させると共に/或いはこれに応答して指令を駆動システム200に送り出すことによって)。頸部150は、パン・チルト組立体151を収容するのが良く、パン・チルト組立体151は、対応のモータドライバ156a及びエンコーダ138aを有するパンモータ152と、対応のモータドライバ156b及びエンコーダ138bを有するチルトモータ154とを含むのが良い。頭部160は、1つ又は2つ以上のウェブパッド130及びカメラ312を収容するのが良い。
図1〜図3及び図9を参照すると、幾つかの具体化例では、頭部160は、インターフェースモジュール300の1つ又は2つ以上の部分を支持する。頭部160は、ウェブパッド又はタブレットPCとも呼ばれる1つ又は2つ以上のコンピューティングタブレット310を解除可能に受け入れるドック302を有するのが良く、これらコンピューティングタブレットは各々、タッチスクリーン312を有するのが良い。ウェブパッド310を前方、後方又は上方に差し向けることができる。幾つかの具体化例では、ウェブパッド310は、タッチスクリーン、オプションとしてのI/O(例えば、ボタン及び/又はコネクタ、例えばマイクロUSB等)、プロセッサ及びプロセッサと通信状態にあるメモリを有する。例示のウェブパッド310としては、アップル・インコーポレイテッド(Apple Inc.)製のアップルiPadが挙げられる。幾つかの実施例では、ウェブパッド310は、コントローラ500として機能し又はコントローラ500を支援すると共にロボット100を制御する。幾つかの実施例では、ドック302は、これにしっかりと取り付けられた第1のコンピューティングタブレット310a(例えば、比較的高い帯域幅、例えばギガビット速度でのデータ伝送のためのワイヤードインターフェース)及びドックに取り外し可能に接続された第2のコンピューティングタブレット310bを有する。第2のウェブパッド310bを図9に示されているように第1のウェブパッド310aに装着することができ又は第2のウェブパッド310bを第1のウェブパッド310aに対して頭部160の反対側に向いた側部又は他方の側部に装着することができる。追加の実施例では、頭部160は、これに固定的に取り付けられるか着脱自在に取り付けられるかのいずであっても良い単一のウェブパッド310を支持する。タッチスクリーン312は、ユーザ入力を受け取ると共にタッチ対話式であるグラフィカルユーザインターフェースを提供するためにユーザがタッチスクリーンにタッチする箇所を検出し、モニタすると共に/或いは再現することができる。幾つかの実施例では、ウェブパッド310をロボット100から取り外したときにユーザがこれを見出すことができるようにするタッチスクリーンコーラ(caller)を有する。
幾つかの具体化例では、ロボット100は、ロボット本体110の1つ又は2つ以上の部分に取り付けられた多数のウェブパッドドック302を有する。図27に示されている実施例では、ロボット100は、オプションとして脚部130及び/又は胴部140に取り付けられたウェブパッドドック302を有する。これにより、ユーザは、例えばウェブパッド310を種々の高さでロボット100にドッキングさせて異なる背丈のユーザに対応すると共に異なる見晴らしの利く箇所でウェブパッド310のカメラを用いて映像を捕捉すると共に/或いは多数のウェブパッド310をロボット100に装着することができる。
インターフェースモジュール300は、頭部160に取り付けられたカメラ320を有するのが良く(例えば、図2を参照されたい)、このカメラを用いると、頭部160の高い見晴らしの利く箇所から映像を捕捉することができる(例えば、テレビ会議のために)。図3に示されている実施例では、カメラ320は、頸部150に取り付けられている。
幾つかの実施例では、カメラ320がウェブパッド310,310aを頭部160から取り外し又はドッキング解除したときにのみ作動される。ウェブパッド310,310aをドック302内で頭部160に取り付け又はドッキングさせたとき(そして、オプションとしてカメラ320を覆ったとき)、ロボット100は、映像を捕捉するためにウェブパッド310aのカメラを用いることができる。かかる場合、カメラ320は、ドッキングさせたウェブパッド310の背後に配置されるのが良く、かかるカメラ320は、ウェブパッド310を頭部160から取り外し又はドッキング解除したときに作動状態にあり、ウェブパッド310を頭部160に取り付け又はドッキングさせたときには不作動状態になる。ウェブパッド310は、これが頭部160から取り外されたときにウェブパッド310を位置決めするロケータ315を有するのが良い。ロケータ315は、光エミッタ(例えば、可視光、赤外光等)、信号エミッタ(例えば、無線エミッタ)及び/又は光若しくは信号検出器であるのが良い。
ロボット100は、インターフェースモジュール300を介して(例えば、ウェブパッド310、カメラ320、マイクロホン330及び/又はスピーカ340を用いて)テレビ会議(例えば、24fpsのところで)提供することができる。テレビ会議は、多パーティであるのが良い。ロボット100は、頭部160をこれがユーザに向くよう操縦することによってテレビ会議の両方のパーティ相互間のアイコンタクトを提供することができる。さらに、ロボット100は、5°未満の凝視角度(例えば、頭部160の前方フェースに垂直な軸線から遠ざかる角度)を有するのが良い。ロボット100に取り付けられている少なくとも1つの3‐Dイメージセンサ450及び/又はカメラ320は、ボディランゲージを含む実物大のイメージを捕捉することができる。コントローラ500は、音声と映像を同期させることができる(例えば、50ミリ秒未満の差で)。図10A〜図10Eに示されている実施例では、ロボット100は、頭部160に取り付けられているウェブパッド310及び/カメラ320の高さを調節する(胴部140を昇降させることにより)と共に/或いは頭部160をパンすると共に/或いは傾動させることによって立っている又は座っている人々にテレビ会議を提供することができる。カメラ320は、ウェブパッド310とは別個に少なくとも1つの自由度の範囲内で動くことができる。幾つかの実施例では、カメラ320は、地面から3フィートを超える距離のところであるがウェブパッド310の表示領域の頂縁からウェブパッド高さの10パーセント以下のところに位置決めされた対物レンズを有する。さらに、ロボット100は、カメラ320をズームしてロボット100の周りの拡大ピクチャ又は映像を得ることができる。頭部160は、テレビ会議を表示しているウェブパッド310の近くで音声を頭部160から出すよう1つ又は2つ以上のスピーカ340を有するのが良い。
幾つかの実施例では、ロボット100は、図10Eに示されているようにユーザ入力をウェブパッド310に受け入れることができる(例えば、タッチスクリーンを介して)。
幾つかの具体化例では、ウェブパッド310は、ディスプレイ又はモニタであり、他の具体化例では、ウェブパッド310は、タブレット形コンピュータである。ウェブパッド310は、高い対話性を提供する容易且つ直感的に使える制御装置、例えばタッチスクリーンを有するのが良い。ウェブパッド310は、少なくとも1つの自由度で動くことができる150平方インチ(967.7cm2)以上の表示面積を備えたモニタディスプレイ312(例えば、タッチスクリーン)を有するのが良い。
ロボット100は、幾つかの実施例では、医師及び患者及び/又は他の医師又は看護師相互間のテレビ会議を提供することによってEMRインテグレーションを提供することができる。ロボット100は、パススルーコンサルテーション(対診)命令を含むのが良い。例えば、ロボット100は、聴き取りをテレビ会議ユーザ(例えば、医師)に伝えるよう構成されたステソスコープ(聴診器)を有するのが良い。他の実施例では、ロボットは、クラスII医療器具、例えば電子ステソスコープ、オトスコープ(耳鏡)及び超音波への直接的な接続を可能にして医療データを遠隔ユーザ(主治医)に送るコネクタ1710を有する。
図10Bに示されている実施例では、ユーザは、ロボット100の遠隔操作、テレビ会議(例えば、ウェブパッド310のカメラ及びマイクロホンを用いて)及び/又はウェブパッド310上におけるソフトウェアアプリケーションの利用のためにウェブパッド310を頭部160に取り付けられているウェブパッドドック302から取り外すことができる。ロボット100は、ウェブパッド310がウェブパッドドック302から取り外されている間、テレビ会議、ナビゲーション等のために種々の見晴らしの利く箇所を得るために頭部160に取り付けられた第1及び第2のカメラ320a,320bを有するのが良い。
コンピュータ500上で実行可能であると共に/或いはコントローラ500と通信状態にある対話型用途では、ロボット100に2つ以上のディスプレイを設ける必要がある場合がある。ロボット100と関連した多数のウェブパッド310は、「フェースタイム(FaceTime)」、テレストレーション(Telestration)、HDルックアットジス‐カム(HD look at this-cam)(例えば、内蔵カメラを有するウェブパッド310の場合)の種々
の組み合わせを提供することができ、ロボット100を遠隔制御するための遠隔オペレータ制御ユニット(OCU)として働くことができると共に/或いは局所ユーザインターフェースパッドを提供することができる。
幾つかの具体化例では、ロボット100は、ウェブパッド310とコントローラ500(及び/又はロボット100の他のコンポーネント)との通信を可能にするブリッジとも呼ばれている媒介セキュリティ装置350(図9)を有する。例えば、ブリッジ350は、ウェブパッド310の通信をウェブパッド通信プロトコルからロボット通信プロトコル(例えば、ギガビット容量を有するEthernet)に変換することができる。ブリッジ350は、ウェブパッド310が不正でないものと認証することができ、そしてウェブパッド310とコントローラ500との通信変換を可能にする。幾つかの実施例では、ブリッジ350は、ウェブパッド310とロボット100との間の通信トラフィックを認可/確認する認可チップを有する。ブリッジ350は、ブリッジがロボット100と通信しようとするウェブパッド310をチェックして認可した時期をコントローラ500に知らせることができる。さらに、認可後、ブリッジ350は、通信認可をウェブパッド310に知らせる。ブリッジ350は、頸部150又は頭部(又は図2及び図3に示されているように)又はロボット100のどこか他の場所に取り付け可能である。
セッション開始プロトコル(SIP)は、インターネットプロトコル(IP)によりマルチメディア通信セッション、例えば音声及び映像コールを制御するために広く用いられているIETF規定シグナリングプロトコルである。このプロトコルは、1つ又は数個のメディアストリームを含む2パーティ(ユニキャスト)又は多パーティ(マルチキャスト)セッションを作成したり修正したり終了させたりするために使用できる。修正は、アドレス又はポートの変更、多くの参加者の招待及びメディアストリームの追加又は削除を含む場合がある。他の実行可能な用途の例としては、テレビ会議、ストリーミングマルチメディア配信、インスタントメッセージング、プレゼンスインフォメーション、ファイル伝送等が挙げられる。インターネットプロトコルによる音声(IPによる音声、即ち、VoIP)は、インターネットプロトコル(IP)ネットワーク、例えばインターネットにより音声通信及びマルチメディアセッションの配信のための方法論、コミュニケーションプロトコル及び送信技術の系統の一部である。しばしば見受けられると共にVoIPと同義的に用いられる場合の多い他の用語は、IP電話技術、インターネット電話、ブロードバンドによる音声(VoBB)、ブロードバンド電話技術及びブロードバンド電話である。
図11は、ロボット100を介して通信を開始すると共に行うためにブリッジ350との対話を含む例示としての電話技術を提供している。電話AのSIPは、SIPアプリケーションサーバに電話をかける。SIPは、VoIPのダイヤル機能を起動し、それにより、HTTPポストリクエストがVoIPウェブサーバに送られる。HTTPポストリクエストは、折り返し(コールバック機能)電話機能のように挙動するのが良い。SIPアプリケーションサーバは、呼び出しを電話Aに送り、通話が開始したことを指示する。VoIPサーバは、PSTNを介してHTTPポストリクエストに含まれているコールバック電話番号への呼び出しを開始する。コールバック電話番号は、SIP DIDプロバイダで終わり、SIP DIDプロバイダは、SIPアプリケーションサーバへのコールバックを送るよう構成されている。SIPアプリケーションサーバは、来た電話と電話Aの元の電話を照合し、両方の電話をオーケー応答で返答する。メディアセッションは、電話AとSIP DIDプロバイダとの間に成り立っている。電話Aは、VoIPにより生じた人工的な呼び出しを聞くことができる。VoIPによりコールバックレッグに応答したことがいったん確認されると、VoIPは、送信宛先、例えばロボット100へのブリッジ350を介する)PSTNのコールを開始する。ロボット100は、コールに応答し、VoIPサーバは、SIP DIDプロバイダからのメディアをロボット100からのメディアにブリッジする。
図12A及び図12Bは、例示のロボットシステムアーキテクチャ1200の略図であり、この例示のロボットシステムアーキテクチャは、ロボット100(又はその一部分、例えばコントローラ500又は駆動システム200)、コンピューティング装置310(頭部160に取り外し可能であり又はこれに固定的に取り付けられる)、クラウド1220(例えば、クラウドコンピューティング)及びポータル1230を有するのが良い。
ロボット100は、種々の基本的なロボット特徴を提供することができ、かかる基本的なロボット特徴としては、移動性(例えば、駆動システム200)、信頼性があって確実であり、しかもセキュリティ保護されたロボットインテリジェンスシステム、例えば、コントローラ500、電源105、検出システム400及びオプションとしてのコントローラ500と通信状態にあるマニピュレータについて実行される制御システムを含むのが良い。制御システムは、方位及び速度制御、本体姿勢制御、ナビゲーション及び基本的なロボットアプリケーションを提供することができる。検出システム400は、ビジョン(例えば、カメラ320を介して)、深さマップイメージング(例えば、3‐Dイメージングセンサ450により)、衝突検出、障害物検出及び障害物回避及び/又は慣性測定(例えば、慣性測定ユニット470を介して)を提供することができる。
コンピューティング装置310は、タブレット型コンピュータ、携帯型電子装置、例えば携帯電話若しくは携帯型情報端末又はダムタブレット型ディスプレイ(例えば、ロボット本体110内のアトムスケールPC用のモニタとして働くタブレット)であるのが良い。幾つかの実施例では、タブレット型コンピュータは、ユーザインターフェースを表示すると共にユーザ入力を受け入れるタッチスクリーンを有するのが良い。コンピューティング装置310は、1つ又は2つ以上のロボットアプリケーション1210を実行することができ、かかるロボットアプリケーションは、セキュリティ、服薬順守、テレプレゼンス、挙動指導、ソーシャルネットワーキング、能動的警報、家庭管理)等のためのソフトウェアアプリケーション(例えば、メモリに記憶されていて、プロセッサ上で実行可能である)を含むのが良い。コンピューティング装置310は、種々の通信機能(例えば、ワイヤレス接続性及び/又はセルラ通信、改良アプリケーション開発ツール、音声認識及び個人若しくは物体認識機能を提供することができる。コンピューティング装置310は、幾つかの実施例では、対話/COMS特徴オペレーティングシステム、例えばグーグル・インコーポレイテッド(Google Inc.)により提供されているAndroid、アップル・インコーポレイテッド(Apple Inc.)により提供されているiPad OS、他のスマートホンオペレーティングシステム又は政府システム、例えばRSS A2を利用する。
クラウド1220は、クラウドコンピューティング/又はクラウド記憶機能を提供する。クラウドコンピューティングは、インターネット利用コンピューティングを提供することができ、それにより共有サーバは、要求に応じてリソース、ソフトウェア及びデータをコンピュータ及び他の装置に提供する。例えば、クラウド1220は、少なくとも1つのサーバコンピューティング装置を含むクラウドコンピューティングサービスであるのが良く、かかるサーバコンピューティング装置は、アブストラクションレーヤ及びこれに具体化されたサーバ仮想機械によるハイパーテキスト転送プロトコルラッパを含むのが良い。
サーバコンピューティング装置は、HTTP要求をパースしてHTTP応答を送るよう構成されているのが良い。クラウドコンピューティングは、データ及びアプリケーションを維持するようインターネット及び中央リモートサーバを用いる技術であるのが良い。クラウドコンピューティングにより、ユーザは、インストールなしでアプリケーションにアクセスしてこれを使用することができ、そしてインターネットアクセスにより任意のコンピュータでパーソナルファイルにアクセスすることができる。クラウドコンピューティングは、格納装置、メモリ、処理及び帯域幅を集中化させることによって比較的効率的なコンピューティングを可能にする。クラウド1220は、スケール変更可能なオンデマンドコンピューティング出力、記憶及び帯域幅を提供することができる。
クラウド記憶装置1222は、データが一般に第三者によってホストされる多数の仮想サーバ上に記憶されるネットワーク化コンピュータデータ記憶装置の一モデルであるのが良い。ロボット100とクラウド1220との間の通信を可能にすることによって、ロボット100によって集められた情報をウェブ利用情報ポータルを介して資格のあるユーザによって確実に見ることができる。
ポータル1230は、情報、例えばパーソナル情報、家庭状態情報、アンガーロボット状態情報を集めると共に/或いは提供するウェブ利用ユーザポータルであるのが良い。情報は、第三者の情報と一体化され、それにより追加の機能及びリソースをユーザ及び/又はロボット100に提供することができる。ロボットシステムアーキテクチャ1200は、プロアクティブデータ収集を容易にすることができる。例えば、コンピューティング装置310上で実行されるアプリケーション1210は、ロボット100及び/又は人によって実行される行為又はロボット100により視認される環境(検出システム400を用いて)に関するデータ及び報告を集めることができる。このデータは、ロボット100の特徴的な属性であると言える。
幾つかの実施例では、ポータル1230は、ワールド・ワイド・ウェブ(World Wide Web)上のパーソナルポータルウェブサイトである。ポータル1230は、個人化された機能及び経路を他のコンテンツに提供することができる。ポータル1230は、分散型アプリケーション、種々の数及び種々の形式のミドルウェア及びハードウェアを用いて多種多様なソースからサービスを提供することができる。加うるに、ビジネスポータル1230は、仕事場での協調を共有し、多数のプラットホーム、例えばパーソナルコンピュータ、携帯型情報端末(PDA)及び携帯電話/モバイルホン上で利用できるコンテンツを提供することができる。情報、ニュース及びアップデートは、ポータル1230を介して配信可能なコンテンツの例である。パーソナルポータ1230は、友人情報をソーシャルネットワーク上で提供し又は他人を助けることができる外部コンテンツへのリンクを提供する特定のトピックに関連付け可能である。
再び図6Aを参照すると、インターフェースモジュール300は、音声入力を受け取るマイクロホン330(例えば、又はマイクロホンアレイ)及びロボット本体110に取り付けられていて、音声出力を出す1つ又は2つ以上のスピーカ340を有するのが良い。
マイクロホン330及びスピーカ340は各々、コントローラ500と通信することができる。幾つかの実施例では、インターフェースモジュール300は、パンフレット、非常時情報、家庭用品及び他のアイテムを保持するよう構成されているのが良いバスケット360を有する。
図1〜図4C、図13及び図14を参照すると、確実且つ堅牢な自律運動を達成するため、センサシステム400は、ロボット100がロボットの環境で取る行為に関する知的な決定を行うことができるのに十分なロボット環境の知覚を生じさせるよう互いに関連して用いることができる幾つかの互いに異なる形式のセンサを有するのが良い。センサシステム400は、ロボット本体110により支持された1つ又は2つ以上の形式のセンサを有するのが良く、かかるセンサとしては、障害物検出衝突回避(ODOA)センサ、通信センサ、ナビゲーションセンサ等が挙げられる。例えば、これらセンサとしては、近接センサ、接触センサ、三次元(3‐D)イメージング/深度マップセンサ、カメラ(例えば、可視光及び/又は赤外線カメラ)、ソナー、レーダ、LIDAR(Light Detection And Ranging)(光検知測距、これは、遠くに位置する標的のレンジ及び/又は他の情報を検知するよう散乱光の特性を測定する光学遠隔検出方式を必要とする場合がある)、LADAR(Laser Detection and Ranging)等が挙げられるが、これらには限定されない。
幾つかの具体化例では、センサシステム400は、レンジングソナーセンサ410(例えば、基部120の周囲の周りに9つ)、近接クリフ検出器420、接触センサ430、レーザスキャナ440、1つ又は2つ以上の3‐Dイメージング/深度センサ450及びイメージングソナー460を有するのが良い。
センサをロボットプラットホームに配置するには幾つかの課題が存在する。第1に、センサは、これらがロボット100の周りの関心のある領域の最大カバレージ(有効範囲)を有するよう配置されることが必要である。第2に、センサは、ロボット100それ自体がセンサに対する絶対最小限の遮蔽度を生じさせるよう配置されることが必要な場合があり、本質的には、センサは、これらがロボットそれ自体により「目隠しされ」るように配置されてはならない。第3に、センサの配置及び取り付けは、プラットホームの工業的設計の残部に対して出しゃばるようなことがあってはならない。美感の面で、センサが目立たないように取り付けられたロボットがそうではないロボットよりも「魅力的」であると見なすことができる。実用性の面では、センサは、通常のロボット動作を邪魔しないよう(障害物に引っ掛かったりなどしないよう)取り付けられるべきである。
幾つかの具体化例では、センサシステム400は、コントローラ500と通信状態にあると共に近くの又は侵入している障害物を検出するためにロボット100の1つ又は2つ以上のゾーン又は部分内に配置された(例えば、ロボット本体110の基部本体部分124a,142b,142cに又はその近くに設けられた1組の又はアレイをなす近接センサ410,420を有する。近接センサ410,420は、物体がロボット100の所与の範囲内にあるときに信号をコントローラ500に提供する集束形赤外線(IR)エミッタ‐センサ要素、ソナーセンサ、超音波センサ及び/又はイメージングセンサ(例えば、3‐D深度マップイメージセンサ)であるのが良い。
図4A〜図4Cに示されている実施例では、ロボット100は、基部本体120の周りに設けられる(例えば、実質的に等間隔を置いて)と共に上向き視野を備えて構成されたアレイをなすソナー形近接センサ410を有する。第1、第2及び第3のソナー近接センサ410a,410b,410cが第1の(前方の)基部本体部分124aに設けられ又はその近くに設けられており、ソナー近接センサのうちの少なくとも1つは、第1の基部本体124aの半径方向最も外側の縁部125aの近くに位置している。第4、第5及び第6のソナー近接センサ410d,410e,410fが第2の(右側の)基部本体部分124bに又はその近くに設けられており、ソナー近接センサのうちの少なくとも1つは、第2の基部本体124bの半径方向最も外側の縁部125bの近くに位置する。第7、第8及び第9のソナー近接センサ410g,410h,410iが第3の(右側の)基部本体部分124cに又はその近くに設けられており、ソナー近接センサのうちの少なくとも1つは、第3の基部本体124cの半径方向最も外側の縁部125cの近くに位置している。この構成により、少なくとも3つの検出ゾーンが得られる。
幾つかの実施例では、基部本体120の周りに設けられた1組のソナー近接センサ410(例えば、410a〜410i)は、上方に(例えば、実質的にZ方向に)向くよう配置され、オプションとして、Z軸から外方に遠ざかるよう角度をなしており、かくして、ロボット100の周りに検出カーテン412が形成されている。各ソナー近接センサ410a〜410iは、ソナーエミッション(放射波)を上方に案内し又は少なくともロボット本体110の他の部分に向かっては案内しない(例えば、ロボット本体110のそれ自体に対する運動を検出しないようにするため)シュラウド又はエミッション案内414を有するのが良い。エミッション案内414は、シェル又は半シェル形のものであるのが良い。図示の実施例では、基部本体120は、脚部130を越えて側方に延び、ソナー近接センサ410(例えば、410a〜410i)は、脚部130の周りで基部本体120に(例えば、実質的に本体基部120の周囲に沿って)設けられている。さらに、上方に向いたソナー近接センサ410は、脚部130周りの連続した又は実質的に連続したソナー検出カーテン412を形成するよう互いに間隔を置いて位置している。ソナー検出カーテン412は、高所側方突き出し部分を備えた障害物、例えばテーブル上面、棚等を検出するために使用できる。
上方視認型ソナー近接センサ410は、主として水平面内に位置する物体、例えばテーブル上面を見る機能を提供する。これら物体は、これらのアスペクト比に起因して、他のセンサシステムの他のセンサ、例えばレーザスキャナ440又はイメージングセンサ450では見えない場合があり、したがって、ロボット100に対して問題をもたらす場合がある。基部120の周囲に沿って設けられた、上方視認型ソナー近接センサ410は、これら形式の物体/障害物を視認し又は検出する手段となる。さらに、ソナー近接センサ410は、ロボット100の胴部120又は頭部160により遮蔽又は妨害されないように僅かに外方に傾斜した状態で基部周囲の最も幅の広い箇所の周りに配置されるのが良く、かくして、結果的にロボット100それ自体の部分を検出する誤った確信が生じなくなる。幾つかの具体化例では、ソナー近接センサ410は、ソナー近接センサ410の視野の外部で胴部140の周りに設けられていて、かくして、取り付けられたペイロード又は付属装置、例えばバスケット340を自由に受け入れることができる容積部を後に残すよう配置されている(上方及び外方に)。ソナー近接センサ410は、目に見えないようにしかも障害物に引っ掛かり又は当たる外部特徴部をもたらさないよう基部本体124内に引っ込められるのが良い。
センサシステム400は、バックアップの役目を果たしながら障害物を検出するために後方に(例えば、前方駆動方向Fとは反対側の方向に)向けられた1つ又は2つ以上のソナー近接センサ410(例えば、後側近接センサ410j)を有するのが良い。後側ソナー近接センサ410jは、そのソナー検出野412を方向付けるエミッション案内414を有するのが良い。さらに、後側ソナー近接センサ410jは、ロボット100と後側ソナー近接センサ410jの視野内の検出物体(例えば、「バックアップアラート」として)との間の距離を求めるための測距に使用できる。幾つかの実施例では、後側ソナー近接センサ410jは、ハウジング形式の視覚的又は機能的不規則性をもたらさないよう基部本体120内に引っ込められた状態で設けられる。
図3及び図4Bを参照すると、幾つかの具体化例では、ロボット100は、駆動輪210a,210b,210cがクリフ(例えば、階段)に当たる前にクリフ検出を可能にするよう駆動輪210a,210b,210cの近くに又はこれらの周りに配置されたクリフ近接センサ420を有している。例えば、クリフ近接センサ420は、基部本体124a〜124cの半径方向最も外側の縁部125a〜125cの各々のところ又はその近くで且つこれら相互間の場所に配置されるのが良い。幾つかの場合、クリフ検出は、赤外線(IR)近接又は実際のレンジ検出を用いると共に床を予測するべき場所にオーバーラップしたエミッション及び検出野及びかくして検出ゾーンを形成するよう互いに向かって傾けられた赤外線エミッタ422及び赤外線検出器424を用いて実施される。IR近接検出は、比較的狭い視野を有するのが良く、信頼性を得るために表面アルベド(albedo)で決まる場合があり、表面ごとの変化するレンジ精度を有するのが良い。結果として多数の別々のセンサをロボット100の周囲に沿ってぐるりと配置してロボット100上の多数の箇所からのクリフを適切に検出するのが良い。さらに、IR近接利用型センサは、代表的には、クリフと例えばロボット100が敷居を上がった直後の安全事象とを区別することができない。
クリフ近接センサ420は、ロボット100が床の下がり縁に遭遇した時点、例えばロボットが一連の階段に遭遇した時点を検出することができる。コントローラ500(制御システムを実行する)は、縁を検出したときにロボット100が例えばその移動方向の変化という行為を取るようにする挙動を実行することができる。幾つかの具体化例では、センサシステム400は、1つ又は2つ以上の二次クリフセンサ(例えば、クリフ検出及びオプションとしての他形式の検出を行うよう構成された他のセンサ)を有する。クリフ検出近接センサ420は、クリフの早期検出を提供し、実際のクリフと安全事象(例えば、敷居を上がること)とを区別するためのデータを提供するよう構成され、そして、これらの視野がロボット本体110の少なくとも一部及びロボット本体110から遠ざかって位置する領域を含むよう下方及び外方に位置決めされるのが良い。幾つかの具体化例では、コントローラ500は、支持作業面(例えば、床)の縁、作業面の縁を通過する距離の増大及び/又はロボット本体110と作業面との間の距離の増大を識別して検出するクリフ検出ルーチンを実施する。この具体化例では、1)潜在的なクリフの早期検出(これは、未知の環境における迅速な移動速度の実現を可能にする場合がある)、2)コントローラ500がクリフ事象が真の意味で安全ではないかどうか又はクリフを安全に横切ることができるかどうか(例えば、敷居を上がって)を知るためにクリフ検出近接センサ420からのクリフイメージング情報を受け取るので、自律移動性の信頼性の増大、3)クリフの誤った確信の減少(例えば、狭い視野を備えた多数の別々のIR近接センサに対する縁検出の使用に起因している)が可能になる。「ホイールドロップ(wheel drop)」センサとして配置された追加のセンサは、万全を期すためにしかもレンジ検出カメラが或る特定の形式のクリフを確実に検出することができない状況を検出するために使用できる。
敷居及び階段の検出により、ロボット100は、上がることができる敷居を横切るか高すぎる階段を回避するかのいずれかを効果的に計画することができる。これは、ロボット100が安全に横切ることができる場合があり又はそうでない作業面上の乱雑に置かれた物体についても当てはまる。ロボット100が確認する障害物又は敷居の場合、ロボット100が滑らかさを最大にすると共に突然の加速に起因した不安定性を最小限に抑えるために滑らかに移行することができるよう必要であると見なされた場合に適度に減速することができるこれらの高さを知って上がることができる。幾つかの具体化例では、敷居及び階段検出は、幾何学的認識(例えば、敷居又は電気ケーブルと染み、例えばソックスの区別)と共に作業面上の物体高さに基づいている。敷居は、縁検出によって認識できる。コントローラ500は、クリフ検出近接センサ420(又は、ロボット100に取り付けられている別のイメージングセンサ)からイメージングデータを受け取り、縁検出ルーチンを実行し、そして縁検出ルーチンの結果に基づいて駆動指令を出すことができる。コントローラ500は、パターン認識を利用して物体を識別することも可能である。敷居検出により、ロボット100は、滑らかな階段登り能力を最大にするよう敷居に対してその向きを変えることができる。
近接センサ410,420は、単独で機能することができ又は変形例として、万全を期すために1つ又は2つ以上の接触センサ430(例えば、バンプスイッチ)と組み合わせて機能することができる。例えば、ロボット本体110に取り付けられている1つ又は2つ以上の接触又はバンプセンサ430は、ロボット100が物理的に障害物に出会ったかどうかを検出することができる。かかるセンサは、ロボットが障害物に出会った時点を確認するためにロボット100内の物理的性質、例えばキャパシタンス又は物理的変位を利用することができる。幾つかの具体化例では、基部120の各基部本体部分124a,124b,124cは、基部シャーシ122(例えば、図4Aを参照されたい)に対する対応の基部本体部分124a,124b,124cの運動を検出する関連の接触センサ430(例えば、容量形センサ、リードスイッチ等)を有する。例えば、各基部本体124a,124b,124cは、スリーウェイバンプ検出を可能にするよう基部シャーシ122のZ軸に対して半径方向に動くことができる。
再び図1〜図4C、図13及び図14を参照すると、幾つかの具体化例では、センサシステム400は、ロボット本体110の前方部分に取り付けられると共にコントローラ500と通信状態にあるレーザスキャナ440を有する。図示の実施例では、レーザスキャナ440は、第1の基部124aに又はこれの上方で(例えば、ロボットの駆動方向Fに沿う最大イメージングカバレージを得るために)前方に向いた状態で(例えば、前方駆動方向Fに沿う視野を有する)基部本体120に取り付けられている。さらに、レーザスキャナを三角形基部120の前側先端部に又はその近くに配置することは、ロボット基部の外側の角度(例えば、300°)がレーザスキャナ440の視野442(例えば、約285°)よりも大きく、かくして、基部120がレーザスキャナ440の検出視野442を遮蔽せず又は妨害するのが阻止されることを意味している。レーザスキャナ440を基部本体124を越える突き出しレーザスキャナの部分を最小限に抑えるために(例えば、美感のために、更に障害物に引っ掛かる恐れを最小限に抑えるために)その視野を遮蔽しないで、可能な限り基部本体124内に引っ込んだ状態で設けられるのが良い。
レーザスキャナ440は、ロボット100の周りの領域を走査し、コントローラ500は、レーザスキャナ440から受け取った信号を用いて、走査した領域の環境マップ又は物体マップを作る。コントローラ500は、ナビゲーション、障害物検出及び障害物回避のために物体マップを用いることができる。さらに、コントローラ500は、物体マップを作成するため且つ/或いはナビゲーションのためにセンサシステム400の他のセンサから感覚入力を用いることができる。
幾つかの実施例では、レーザスキャナ440は、走査型LIDARであり、これは、一方向に領域を迅速に走査するレーザを「主」走査線として用いると共に深度をこのライン中で生じた各ピクセルに割り当てる(走査平面内の二次元深度線に戻る)ために位相差又はこれに類似した技術を用いるタイムオブフライトイメージング要素を使用することができる。三次元マップを作成するため、LIDARは、第2の方向に「補助」走査を実施することができる(例えば、スキャナを「うなずかせる」によって)。この機械的走査技術は、捕捉されなければ、例えば“フラッシュ”LIDAR/LADAR及び“Swiss Ranger”型焦点面イメージング要素センサのようなテクノロジー、各ピクセルのところに深度
又は各ピクセルのところに一連の深度を提供するよう(エンコードされたイルミネータ又は照明レーザにより)ピクセルの完全2‐Dマトリックスのためのタイムオブフライト計算を可能にするよう半導体スタックを用いる技術によって完全なものとなることができる。
センサシステム400は、コントローラ500と通信状態にある1つ又は2つ以上の三次元(3‐D)イメージセンサ450を有するのが良い。3‐Dイメージセンサ450が限られた視野を持つ場合、コントローラ500又はセンサシステム400は、3‐Dイメ
ージセンサ450aを側方走査方式で作動させて比較的広い視野を作り、それにより堅固なODOAを実施することができる。図1〜図3、図14を参照すると、幾つかの具体化例では、ロボット100は、ロボット本体110の前方部分に取り付けられていて、前方駆動方向Fに沿って視野を持つ(例えば、ロボットの駆動方向Fに沿って最大のイメージングカバレージを有するよう)走査型3‐Dイメージセンサ450aを有する。走査型3‐Dイメージセンサ450aは、主として、障害物検出/障害物回避(ODOA)のため
に使用できる。図示の実施例では、例えば図3に示されているように胴部140内に引っ込められた状態で(例えば、底面144と面一をなして又はこれを越えて)胴部140に肩142の下で又は底面144上に取り付けられており、それにより、ユーザと走査型3‐Dイメージセンサ450aとの接触が阻止されている。走査型3‐Dイメージセンサ450aは、障害物検出及び障害物回避(ODOA)のために(例えば、ロボット本体11
0の基部120又は他の部分による妨害がある状態で)ロボット100の前に下向きの視野452を有するよう実施的に下方に且つロボット本体110から遠ざかる方向に向くよう配置されるのが良い。走査型3‐Dイメージセンサ450aを胴部140の前方縁部に又はその近くに配置することにより、3‐Dイメージセンサ450の視野(例えば、約285°)は、3‐Dイメージセンサ450に対して胴部140の外側の表面角度(例えば、300°)よりも小さいものとすることができ、かくして、胴部140が走査型3‐Dイメージセンサ450aの検出視野452を遮蔽し又は妨害するのが阻止される。さらに、走査型3‐Dイメージセンサ450a(及び関連のアクチュエータ)は、その視野を遮蔽しないで(例えば、美感のためにも且つ障害物に引っ掛かるのを最小限に抑えるために)できるだけ胴部140内に引っ込んだ状態で設けられるのが良い。走査型3‐Dイメージセンサ450aの注意をそらせてしまうような走査運動は、ユーザの目には見えず、かくして注意をそらすような相互作用の経験が少なくなる。突出したセンサ又は特徴部とは異なり、引っ込んだ状態で設けられた走査型3‐Dイメージセンサ450aは、特に動いているとき又は走査しているときに環境と意図しない相互作用(人、障害物等に引っ掛かること)を生じる傾向はないであろう。というのは、胴部140のエンベロープを越えて延びる可動部分が事実上ないからである。
幾つかの具体化例では、センサシステム400は、基部本体120、脚部130、頸部150及び/又は頭部160に設けられた追加の3‐Dイメージセンサ450を有している。図1に示されている実施例では、ロボット100は、基部本体120、胴部140及び頭部160に設けられた3‐Dイメージセンサ450を有している。図2に示されている実施例では、ロボット100は、基部本体120、胴部140及び頭部160に設けられた3‐Dイメージセンサ450を有している。図13に示されている実施例では、ロボット100は、脚部130、胴部140及び頸部150に設けられた3‐Dイメージセンサ450を有している。他の形態も又、採用可能である。1つの3‐Dイメージセンサ450(例えば、頭部160の上方で頸部150に取り付けられている)は、人々の認識、ジェスチャの認識及び/又はテレビ会議のために用いることができ、他方、別の3‐Dイメージセンサ450(例えば、基部120及び/又は脚部130に取り付けられている)は、ナビゲーション及び/又は障害物検出及び障害物回避のために用いることができる。
頸部150及び/又は頭部160に設けられた前方に向いた3‐Dイメージセンサ450がロボット100の周りの人々の個人の、顔面及び/又はジェスチャの認識のために使用できる。例えば、頭部160に設けられた3‐Dイメージセンサ450からの信号入力を用いて、コントローラ500は、視認すると共に/或いは捕捉したユーザの顔面の三次元マップを作り、そして作った三次元マップを人々の顔面の既知の3‐Dイメージと比較し、そして既知の3‐D顔面イメージのうちの1つとの一致を確認することによってユーザを認識することができる。顔面認識は、ロボット100の許容可能なユーザとしてユーザを確証するために使用されるのが良い。さらに、3‐Dイメージセンサ450のうちの1つ又は2つ以上は、ロボット100によって視認される個人のジェスチャを判定し、オプションとして、判定したジェスチャ(例えば、手の指差し、手を振って合図すること及び/又は手信号)に基づいて反応するために使用できる。例えば、コントローラ500は、特定の方向における認識された手の指差しに応答して駆動指令を出すことができる。
3‐Dイメージセンサ450は、以下の形式のデータ、即ち、(i)深度マップ、(ii)反射率を利用した強度イメージ及び/又は(iii)通常強度のイメージを生成することができる場合がある。3‐Dイメージセンサ450は、イメージパターン照合、フライトタイムの測定及び/又は源から放出されて標的から反射される光の位相遅れシフトによってかかるデータを得ることができる。
幾つかの具体化例では、プロセッサ(例えば、ロボットコントローラ500のプロセッサ)上で実行可能な推論又は制御ソフトウェアがセンサシステム400により生成される種々のタイプのデータを用いて実行されるアルゴリズムの組み合わせを用いる。推論ソフトウェアは、センサシステム400から集められたデータを処理し、ロボット100が例えば障害物と衝突しないで動くことができる場所についてのナビゲーション上の決定を行うためのデータを出力する。ロボットの周囲の経時的なイメージングデータの蓄積によって、推論ソフトウェアは、効果的な方法を検出されたイメージの選択されたセグメントに適用して3‐Dイメージセンサ450の深度測定を向上させることができる。これは、適当な一時的且つ空間的平均化技術の使用を含むのが良い。
ロボットの衝突なしの運動を実行する信頼性は、(i)経時的な高レベル推論によって得られる信頼水準及び(ii)分析のために3つの主要な形式のデータを蓄積する深度知覚センサに基づくのが良く、かかる3つの主要な形式のデータは、(a)深度イメージ、(b)アクティブ照明イメージ及び(c)周囲照明イメージである。種々の形式のデータを認識するアルゴリズムを深度知覚イメージングセンサ450により得られたイメージの各々について実行するのが良い。集まったデータは、種々のデータのうちの1つだけを用いたシステムと比較して信頼水準を向上させることができる。
3‐Dイメージセンサ450は、1つ又は2つ以上の物体を含むロボット100の周りのシーン(例えば、部屋又は作業領域のセンサ視認部分)から深度及び輝度データを含むイメージを得ることができる。コントローラ500は、シーンからの反射光の捕捉に基づいて物体に関する占有データを定めるよう構成されているのが良い。さらに、コントローラ500は、幾つかの実施例では、障害物(即ち、シーン内の物体)を迂回するために少なくとも部分的に占有データに基づいて駆動指令を駆動システム200に出す。3‐Dイメージセンサ450は、コントローラ500によるリアルタイム決定のためにシーン深度イメージを繰り返し捕捉してロボット100をシーン内の物体に衝突することなくシーン中を進むことができる。例えば、深度イメージデータが3‐Dイメージセンサ450により得られる速度又は頻度を3‐Dイメージセンサ450のシャッタ速度によって制御することができる。加うるに、コントローラ500は、事象トリガ(例えば、センサシステム400の別のセンサコンポーネント(例えば近接センサ410,420からの)を受け取り、コントローラ500に近くに物体があること又は危険があることを知らせる。コントローラ500は、事象トリガに応答して、3‐Dイメージセンサ450が深度イメージを捕捉すると共に占有情報を得る頻度を増大させるようにすることができる。
幾つかの具体化例では、ロボットは、ロボット100の周りの領域の音響イメージングを得るためのソナースキャナ460を有する。図1及び図3に示されている実施例では、ソナースキャナ460は、基部本体120の前方部分に設けられている。
図1、図3B及び図14を参照すると、幾つかの具体化例では、ロボット100は、検出の万全を期すためにレーザスキャナ又はレーザレンジファインダ440並びに安全のために後方に向いたソナー近接センサ410jを用いており、これらは両方共、地面Gに平行に差し向けられている。ロボット100は、ロボット100の周りの堅調な検出を可能にするために第1及び第2の3‐Dイメージセンサ450a,450b(デプスカメラ)を有するのが良い。第1の3‐Dイメージセンサ450aは、地面Gに対して一定の角度をなして下方に差し向けられた状態で胴部140に取り付けられている。第1の3‐Dイメージセンサ450aを下方に傾斜させることによって、ロボット100は、ロボット100のすぐ前又はこれに隣接した領域の密なセンサカバレージを受け取り、このカバレージは、前方方向におけるロボット100の短時間移動に適切である。後方に向いたソナー410jは、ロボットが後方に移動しているときに物体検出を行う。後方移動がロボット100にとって一般的である場合、ロボット100は、ロボット100のすぐ後方の又はこれに隣接した領域の密のセンサカバレージを提供するよう前後に向いた第3の3‐Dイメージセンサ450を有するのが良い。
第2の3‐Dイメージセンサ450bは、頸部150をパンしたり傾動させたりすることができる頭部160に取り付けられている。第2の3‐Dイメージセンサ450bは、遠隔駆動に有用であるのが良い。というのは、これにより、オペレータとしての人が、ロボット100がどこに行っているかを見ることができるからである。頸部150により、オペレータは、第2の3‐Dイメージセンサ450bを傾動させたり/或いはパンしたりして近くの物体と遠くの物体の両方を見ることができる。第2の3‐Dイメージセンサ450bをパンすると、関連の水平視野が広がる。速い走行中、ロボット100は、第2の3‐Dイメージセンサ450bを僅かに下方に傾けて3‐Dイメージセンサ450a,450bの両方の全体的又は組み合わせ状態の視野を広げると共にロボット100が障害物
を回避するのに十分な時間を与えることができる(というのは、速い速度は、一般に、物体に対応する時間が短いことを意味するからである)。遅い速度では、ロボット100は、第2の3‐Dイメージセンサ450bを上方に又は地面Gに実質的に平行に傾けてロボット100がついて行っている人を追跡することができる。さらに、比較的低速で駆動している間、ロボット100は、第2の3‐Dイメージセンサ450bをパンしてロボット100の周りのその視野を広げることができる。第1の3‐Dイメージセンサ450aは、ロボットがロボットの知覚範囲を広げようと駆動しているとき、固定状態のままであるのが良い(例えば、基部120に対して動かないのが良い)。
幾つかの具体化例では、3‐Dイメージセンサ450のうちの少なくとも1つは、地面よりも1フィート(30.5cm)又は2フィート(61.0cm)以上、上方の高さ位置のところでロボット100に取り付けられると共にロボットの移動方向において床平面を含む空間ボリュームから点群を得ることができる(全方向性駆動システム200により)差し向けられたボリューム形点群イメージング装置(例えば、スペックル又はタイムオブフライトカメラ)であるのが良い。図1及び図3に示されている実施例では、第1の3‐Dイメージセンサ450aは、地面よりも1又は2フィート以上、上方の高さ位置(又は、地面よりも約1又は2フィートの高さ)のところで基部120に取り付けられると共に駆動しながら(例えば、物体検出及び物体回避のために)床を含むボリュームのイメージ(例えば、ボリューム的点群)を捕捉するために前方駆動方向Fに沿って差し向けられるのが良い。第2の3‐Dイメージセンサ450bは、ロボット100に隣接して位置する空間ボリュームから骨組み認識及びデフィニション点群を得ることができるよう頭部160に(例えば、地面よりも約3フィート(91.5cm)又は4フィート(122.0cm)以上、上方の高さ位置のところで)取り付けられた状態で示されている。コントローラ500は、骨組み/ディジタル認識ソフトウェアを実行して捕捉されたボリューム形点群のデータを分析することができる。
再び図2及び図4A〜図4Cを参照すると、センサシステム400は、ロボット100の全体的重心CGRに対するロボット100の慣性モーメントを測定したりモニタしたりするようコントローラ500と通信状態にある慣性測定ユニット(IMU)470を有するのが良い。
コントローラ500は、通常の制限のない操作に対応したしきい信号に対するIMU470からのフィードバックのずれをモニタすることができる。例えば、ロボットが直立位置からつんのめり始めた場合、ロボットは、「衣服内張り」され又は違ったやり方で妨害され、或いは、誰かが突然重いペイロードを追加する場合がある。これらの場合、ロボット100の安全動作を保証するために緊急措置(かかる措置としては、捕らえどころのない操作、再較正及び/又は音声的/視覚的警告の発生を含むが、これらには限定されない)を取ることが必要な場合がある。
ロボット100は、人間環境で働くことができるので、ロボット100は、人と対話することができ、そして人向きに設計された空間内で作業することができる(ロボットの制約を顧慮しないで)。ロボット100は、混雑し、拘束され又は極めて動的な環境内にあるとき、例えば、カクテルパーティ又はせわしない病院においてその駆動速度及び加速度を制限することができる。しかしながら、ロボット100は、例えば長くて何も置かれていない廊下では比較的迅速に駆動しても安全である状況に遭遇する場合があるが、例えば何かがロボットの運動経路を横切った場合に突然減速することが可能である。
停止から加速すると、コントローラ500は、ロボットの全体的重心CGRからのロボット100の慣性モーメントを考慮してロボットがひっくり返るのを阻止することができる。コントローラ500は、その現在の慣性モーメントを含むその姿勢のモデルを使用することができる。ペイロードを支持する場合、コントローラ500は、全体的重心CGRに対する荷重の影響を計測してロボット慣性モーメントの運動をモニタすることができる。例えば、胴部140及び/又は頸部150は、ひずみを測定するためにひずみ計を有するのが良い。これが可能ではない場合、コントローラ500は、試験登録指令を駆動輪210に加えるのが良く、そして安全限度を経験的に定めるためにIMU470を用いてロボットの実際の直線加速度及び角加速度を測定することができる。
突然の減速の際、第2及び第3の駆動輪210b,210c(後輪)に対する指令された荷重を減少させ、その間、第1の駆動輪210a(前輪)は、前方駆動方向にスリップし、ロボット100を支持する。第2及び第3の駆動輪210b,210c(後輪)の荷重が非対称である場合、ロボット100は、「偏揺れ(ヨーイング)」し、それにより、動的安定性が低下する。IMU470(例えば、ジャイロ)を用いると、この偏揺れを検出し、第2及び第3の駆動輪210b,210cに指令を出してロボット100の向きを向け直すことができる。
図3〜図4C及び図6Aを参照すると、幾つかの具体例では、ロボット100は、多数のアンテナを有する。図示の実施例では、ロボット100は、第1のアンテナ490a及び第2のアンテナ490bを有し、これら両方のアンテナは、基部120に取り付けられている(但し、これらアンテナは、ロボット100の任意他の部分、例えば、脚部130、胴部140、頸部150及び/又は頭部160に取り付けられても良い)。多数のアンテナを使用することにより、堅調な信号受信及び信号送信が可能になる。多数のアンテナの使用により、ロボット100に多入力及び多出力、即ちMIMOが提供され、このMIMOは、通信性能を向上させるために送信器及び/受信器のための多数のアンテナの使用法である。MIMOは、追加の帯域幅又は送信電力をなしでデータスループット及びリンクレンジの大幅な増大をもたらす。MIMOは、高いスペクトル性能(帯域幅の1ヘルツ当たり1秒当たりのビット数が多い)及びリンク信頼性又は多様性(フェーディングの減少)によってこれを達成する。MIMOは、これらの特性に鑑みて、最新式のワイヤレス通信規格、例えばIEEE 802.11n(WiFi)、4G、3GPPロング・ターム・エボリューション(Long Term Evolution)、WiMAX及びHSPA+の重要な部分である。さらに、ロボット100は、近くの他の電子装置のためのWiFiブリッジ、ハブ又はホットスポットとして働くことができる。ロボット100のMIMOの移動性及び使用により、ロボットは、比較的高い信頼性のあるWiFiブリッジとなることができる。
MIMOは、3つの主要なカテゴリ、即ち、プレコーディング(pre-coding)、空間多重化又はSM及び多様化コーディングダイバーシティコーディングに細分できる。プレコーディングは、一種のマルチストリームビーム成形であり、送信器のところで生じる全ての空間処理であると考えられる。ビーム形成(単一層ビーム成形)では、同一の信号は、信号出力が受信器入力のところで最大になるよう重み付けする適当な位相(及び場合によってはゲイン)を備えた送信器アンテナの各々から放出される。ビーム成形の利点は、互いに異なるアンテナから放出された信号を互いに強めるようにすることによって受け取った信号のゲインを増大させると共に多パスフェーディング効果を減少させることにある。
散乱が存在しない場合、ビーム形成の結果として、良好に規定された方向性パターンが得られる。受信器が多数のアンテナを備えている場合、送信ビーム形成は、受信アンテナの全てのところでの信号レベルを同時に最大にすることができず、多数のストリームを備えたプレコーディングを使用するのが良い。プレコーディングは、送信器のところでのチャネル状態情報(CSI)の知識を必要とする場合がある。
空間多重化は、MIMOアンテナ構成を必要とする。空間多重化では、高レート信号が多数の低レートストリームに分割され、各ストリームは、同一周波数チャネルで異なる送信アンテナから送信される。これら信号が十分に異なる空間シグナチュアで受信器アンテナアレイに達した場合、受信器は、これらストリームを平行な(ほぼ平行な)チャネルに分離することができる。空間多重化は、チャネルキャパシティを高い信号対雑音費(SNR)で増大させる非常に強力が技術である。空間ストリームの最大数は、送信器又は受信器のところのアンテナの個数の減少によって制限される。空間多重化を送信チャネルに関する知識の有無にかかわらず利用することができる。空間多重化は又、空間分割多元接続と呼ばれている多数の受信器への同時送信にも使用できる。互いに異なる空間シグナチュアを備えた受信器をスケジュール設定することにより、良好な分離性を保証することができる。
ダイバーシティコーディング技術は、送信器のところでのチャネルに関する知識が存在しない場合に使用されるのが良い。ダイバーシティ方法では、単一のストリーム(空間多重化の多数のストリームとは異なり)を送信するが、時空間コーディングと呼ばれている技術を用いてコード化される。信号は、完全又はほぼ直交するコーディングを備えた送信アンテナの各々から放出される。ダイバーシティコーディングは、信号ダイバーシティを高めるために多数のアンテナリンクにおける独立フェーディングを利用する。チャネルに関する知識がないので、ビーム成形は行われず又はダイバーシティコーディングからのアレイゲインが存在しない。空間多重化は又、チャネルが送信器のところで知られている場合にプレコーディングと組み合わせ可能であり又はデコーディング信頼性がトレードオフの関係にある場合にダイバーシティコーディングと組み合わせ可能である。
幾つかの具体化例では、胴部140及び/又は頭部160にそれぞれ設けられた第3のアンテナ490c及び/又は第4のアンテナ490dを有している(例えば、図3を参照されたい)。かかる場合、コントローラ500は、堅調な通信のためのしきい信号レベルを達成するアンテナ配置構成を定めることができる(例えば、胴部140を昇降させると共に/或いは頭部160を回転させると共に/或いは傾動させることにより例えばアンテナ490a〜490dを動かすことによって)。例えば、コントローラ500は、指令を出して胴部140の高さを持ち上げることによって第3及び第4のアンテナ490c,490dを高くすることができる。さらに、コントローラ500は、指令を出して頭部160を回転させると共に/或いは傾動させて他のアンテナ490a〜490cに対して第4のアンテナ490dを更に配向させることができる。
図15を参照すると、幾つかの具体化例では、コントローラ500は、互いに通信状態にある制御調停システム510aと挙動システム510bを含む制御システム510を実行する。制御調停システム510aにより、アプリケーション520を制御システム510に動的に追加したりこれから削除したりすることができ、又、アプリケーション520が各々任意他のアプリケーション520について知る必要なくロボット100を制御することができるようにするのが容易になる。換言すると、制御調停システム510aは、ロボット100のアプリケーション520とリソース又は資源530との間の単純な優先化制御機構体を提供する。リソース530は、コントローラ500と通信状態にある駆動システム200、センサシステム400及び/又は任意のペイロード又は制御可能な装置を有するのが良い。
アプリケーション520は、ロボット100のメモリ内に記憶されるのが良く又はロボット100と通信関係をなすのが良く、それにより同時に動作し(例えば、プロセッサ)、それと同時にロボット100を制御する。アプリケーション520は、挙動システム510bの挙動600にアクセスすることができる。独立して配備されるアプリケーション520を実行時に動的に組み合わせてロボット100のロボットリソース530(例えば、駆動システム200、腕、頭部等)を共有することができる。アプリケーション520の中で実行時にロボットリソース530を動的に共有する低レベルポリシーが実施される。ポリシーは、どのアプリケーション520がそのアプリケーション520(例えば、アプリケーション520のうちで優先度階層)の必要とするロボットリソース530の制御を行うかを決定する。アプリケーション520は、動的に開始したり停止したりすることができ、そして互いに完全に別個独立にランする。また、制御システム510により、互いに組み合わせることができる複雑な挙動600は、互いに支援することができる。
制御調停システム510aは、1つ又は2つ以上のリソースコントローラ540、ロボットマネージャ550及び1つ又は2つ以上の制御アービタ560を有する。これらコンポーネントは、共通のプロセス又はコンピュータにある必要はなく、しかも、任意特定の順序で開始される必要もない。リソースコントローラ540のコンポーネントは、アプリケーション520のための制御調停システム510aのインターフェースをなす。あらゆるアプリケーション520についてこのコンポーネントのインスタンスが存在する。リソースコントローラ540は、認証、分散型リソース制御アービタ、コマンドバッファリング等の複雑さを抜粋すると共に要約する。ロボットマネージャ550は、どのアプリケーション520が任意特定の時点でロボットリソース530のうちの任意のものの排他的制御を行うかを制御することによってアプリケーション520の優先化を強調させる。これは、上方の中央コーディネータなので、ロボット部分毎にロボットマネージャ550のインスタンスが1つだけ存在する。ロボットマネージャ550は、リソースコントローラ540の線形優先化順序を有する優先度ポリシーを実行し、ハードウェア制御を可能にするリソース制御アービタ560を常時監視する。制御アービタ560は、全てのアプリケーション520から指令を受け取り、そしてアプリケーションの優先度に基づいて単一の指令を出し、そしてこれをその関連のリソース530のために公示する。制御アービタ560は又、その関連のリソース530から状態フィードバックを受け取り、そしてこれをアプリケーション520に送り戻す。ロボットリソース530は、1つ又は2つ以上のハードウェアコントローラを備えた機能モジュール(例えば、アクチュエータ、駆動システム及びこれらの群)のネットワークであるのが良い。制御アービタ560の指令は、特定の行為を実行する上でリソース530にとって特有である。
コントローラ500上で実行可能なダイナミックスモデル570が現在のロボットの状態を評価するためにロボット100の種々の部分の重心(CG)、慣性モーメント及び慣性の外積をコンピュータ計算するよう構成されているのが良い。ダイナミックスモデル570は又、これらコンポーネントの形状、重量及び/又は慣性モーメントをモデル化することができる。幾つかの実施例では、ダイナミックスモデル570は、ロボット100に設けられていて、ロボット100の種々の重心を計算するためにコントローラ500と通信状態にある慣性モーメントユニット470(IMU)又はその部分(例えば、加速度計及び/又はジャイロ)と通信する。ダイナミックスモデル570を他のプログラム520又は挙動600と一緒にコントローラ500によって使用することができ、それによりロボット100及びそのコンポーネントの作動エンベロープを求めることができる。
各アプリケーション520は、行為選択エンジン580及びリソースコントローラ540を有し、1つ又は2つ以上の挙動600が、行為選択エンジン580に接続され、1つ又は2つ以上の行為モデル590が行為選択エンジン580に接続されている。挙動システム510bは、予測モデル化を提供し、かかる挙動システムにより、挙動600は、ロボット行為の考えられる結果を評価することによってロボットの行為に関して協調的に決定することができる。幾つかの実施例では、挙動600は、アプリオリ(事前)限度及び情報を備えた多数の源から感覚フィードバックをロボットの許容可能な行為に対する評価フィードバックに結合する階層的ステート・フル(state-full)評価機能を提供するプラグインコンポーネントである。挙動600は、アプリケーション520にプラグ接続可能なので(例えば、アプリケーション520の内側又は外側に存在する)、アプリケーション520又は制御システム510の任意他の部分を改変することなく挙動600を取り外したり付け加えたりすることができる。各挙動600は、スタンドアロンポリシーである。挙動600を強力にするためには、多数の挙動600の出力を一緒に別の挙動の入力に取り付けて複雑な組み合わせ機能を有することができるようにすることが可能である。挙動600は、ロボット100の全管轄の管理可能な部分を実行するようになっている。
行為選択エンジン580は、制御システム510の協調要素であり、挙動600の全ての入力が与えられると、最適行為を探して迅速な最適化された行為選択サイクル(予測/修正サイクル)を実施する。行為選択エンジン580は、3つの段階、即ち、ノミネーション、行為選択サーチ及び完了を有する。ノミネーション段階では、各挙動600が通知され、行為選択サイクルが開始し、これにサイクル開始時間、現在の状態及びロボットアクチュエータ空間の制限が与えられる。内部ポリシー又は外部入力に基づいて、各挙動600は、この行為選択サイクルに参加したいかどうかを決定する。この段階中、アクティブな挙動原形のリストが生じ、これら入力は、ロボット100上で実行されるべき指令の選択に影響を及ぼすであろう。
行為選択サーチ段階では、行為選択エンジン580は、行為空間とも呼ばれる利用可能な行為の空間から実行可能な結果を発生させる。行為選択エンジン580は、行為モデル590を用いて、将来における計画対象時間により互いに異なる時間ステップで各指令の行為をシミュレートした結果としてひとまとまりの実行可能な指令(限度内)及び対応の結果を提供する。行為選択エンジン580は、挙動600の結果評価に基づいて好ましい結果を計算し、対応の指令を制御調停システム510aに送り、フィードバックとして選択された指令の行為モデル590を知らせる。
完了段階では、協調的な最善の得点が付けられた結果に対応する指令を全体的指令として互いに組み合わせ、かかる全体的な指令がロボットリソース530上で実行可能にリソースコントローラ540に提供される。最善の結果は、フィードバックとしてアクティブな挙動600に提供され、将来の評価サイクルで用いられる。
センサシステム400からの受け取りセンサ信号により、1つ又は2つ以上の挙動600との相互作用が行為を実行することができる。例えば、制御システム510を用いて、コントローラ500は、対応の行為空間(例えば、その特定のコンポーネントのためのひとまとまりの考えられる行為又は動き)から各ロボットコンポーネント(例えば、モータ又はアクチュエータのための行為又は動き指令)を選択し、それにより各ロボットコンポーネント自体との衝突及びロボット100が知っているロボット100の周りの物体との衝突を回避する効率的な仕方で各ロボットコンポーネントの協調された動きを行わせる。
コントローラ500は、2010年2月16日に出願された米国特許出願第61/305,069号明細書に記載されているようにロボットネットワーク、例えばEtherIOネットワークにより協調された指令を出すことができる。なお、この米国特許出願を参照により引用し、その記載内容を本明細書の一部とする。
制御システム510は、ロボット100が所与の領域の回りを動いているときに互いに異なる形態/位置におけるロボット100の安定性を最大にするために駆動システム200の適応速度/加速度を提供することができる。
幾つかの具体化例では、コントローラ500は、指令を駆動システム200に出し、この駆動システムは、方位設定値及び速度設定値に従ってロボット100を推進する。1つ又は複数の挙動600は、センサシステム400から受け取った信号を用いて実行可能な指令の予想される結果を評価し、これら指令のうちの1つは、障害物を取り扱うために実行可能に(単独で又は全体的ロボット指令として他の指令と組み合わせて)選ばれるのが良い。例えば、近接センサ410からの信号により、制御システム510は、ロボット100の指令された速度又は方位を変化させることができる。例えば、近くの壁の存在に起因した近接センサ410からの信号の結果として、制御システム510は、原則指令を出すことができる。別の場合、椅子との遭遇に起因した接触センサからの衝突信号により、制御システム510は、方位を変える指令を出すことができる。他の場合、ロボット100の速度設定値を接触センサに応答して減少させることができず、しかも/或いはロボット100の方位設定値を近接センサ410に応答して変えることができない。
挙動システム510bは、占有マップ1700及び/又はロボットマップ1820を生じさせるマッピング挙動600a、ロボット100の速度設定値を調節するよう構成された速度挙動600c(例えば、プロセッサ上で実行可能な挙動ルーチン)及びロボット100の方位設定値を変更するよう構成された方位挙動600dを有するのが良い。速度及び方位挙動600c,600dは、同時に実行したり別個独立に実行したりするよう構成可能である。例えば、速度挙動600cは、センサのうちの1つ(例えば、近接センサ410,420の組)をポーリングするよう構成されているのが良く、方位挙動600dは、別のセンサ(例えば、運動学的バンプセンサ)をポーリングするよう構成されているのが良い。
図15及び図16を参照すると、挙動システム510bは、遠隔操作(例えば、ロボット100の案内)のためにユーザ1600が胴部140にタッチしたことに応答するよう構成された胴部タッチ遠隔操作挙動600a(例えば、プロセッサ上で実行可能な挙動ルーチン)を有するのが良い。胴部タッチ遠隔操作挙動600aは、センサシステム400により胴部が少なくともしきい期間(例えば、0.25秒間)接触(例えば、人による接触)を受けたことが検出された場合に有効になるのが良い。例えば、コントローラ500と通信状態にあると共に胴部本体145の頂部パネル145t、底部パネル145b、前側パネル145f、後側パネル145b、右側パネル145r及び左側パネル145lと対応関係をなして関連した運動及び/又は接触センサ147t,147b,147f,147r,147lは、図6B及び図6Cに示されているように運動及び/又はそれぞれのパネルとの接触を検出することができる。いったん有効になると、胴部タッチ遠隔操作挙動600aは、接触力方向(例えば、タッチの楕円形場所から検出されると共にコンピュータ計算される)を受け取り、そして局所X/Y座標(ホロノミック移動性を利用して)をなして速度指令を駆動システム200に出す。障害物検出及び障害物回避挙動を胴部タッチ遠隔操作挙動600aが有効になっている間、ターンオフするのが良い。検出されたタッチ場所、力及び方向が変化した場合、胴部タッチ遠隔操作挙動600aは、速度指令を変更して検出された接触力方向と対応関係をなす。胴部タッチ遠隔操作挙動600aは、センサシステム400がしきい期間にわたって(例えば、2秒間)ロボット100との接触をもはや検出しない場合に停止ルーチンを実行するのが良い。停止ルーチンにより、駆動システム200は、センサシステム400がロボット100との(例えば、胴部140との)接触をもはや検出しない場合に約0.5秒後、駆動を停止することができる。胴部タッチ遠隔操作挙動600aは、ロボット100を停止させる際に遅延をもたらすことができ、それによりトリガ期間の間、待機する必要なく、タッチ点の移動を可能にする。
胴部タッチ遠隔操作挙動600aは、駆動システム200からの駆動支援を受け取っている間、ユーザがロボット100を押すことができるようにする支援駆動指令(例えば、それ自体ロボット100を動かすことができないがユーザによるロボット100の運動を支援する部分速度指令)を駆動システム200に出すことができる。
胴部タッチ遠隔操作挙動600aは、タッチセンサシステム480(例えば、ボタン、容量センサ、接触センサ等)からセンサ信号を受け取ることができ、かかるタッチセンサシステムの一部分は、胴部140及びロボット100上のどこかほかの場所、例えば頭部160)に設けられるのが良い。胴部タッチ遠隔操作挙動600aは、タッチセンサシステム480の少なくとも一部分を典型的なユーザにとって接近可能な高さのところに配置するよう胴部140を地面Gから3〜5フィートの高さHTのところに位置決めするのが良い。
幾つかの具体化例では、胴部タッチ遠隔操作挙動600aは、ロボット100を配置するユーザのタッチ及び特定の姿勢を認識する。例えば、ユーザ1600が胴部140を押し下げたとき、センサシステム400は、胴部140に加わる下向きの力を検出し、対応の信号をコントローラ500に送る。胴部タッチ遠隔操作挙動600aは、胴部140に加わる下向きの力の指標を受け取り、それにより、制御システム510は、指令を出して脚部130の長さHLを減少させ、それにより胴部140の高さHTを減少させる。同様に、ユーザ1600が胴部140を押し上げたり引き上げたりすると、胴部タッチ遠隔操作挙動600aは、センサシステム400から胴部140に加わる上向きの力の指標を受け取り、それにより、制御システム510は、指令を出して脚部130の高さHLを増大させ、それにより胴部140の高さHTを増大させる。
ユーザ1600が頭部160を押したり引いたりすると共に/或いは回転させると、胴部タッチ遠隔操作挙動600aは、センサシステム400から(例えば、頸部150に設けられているひずみ計/運動/接触センサ165から)ユーザ行為の指標を受け取ることができ、そして、制御システム510が指令を出して頭部160をそれに応じて動かし、しかる後、その姿勢を保持するようにすることによって応動することができる。
幾つかの具体化例では、ロボット100は、ロボット100のユーザによる操作に対して受動的な抵抗及び/又は積極的な支援を提供する。例えば、脚部130及び頸部150を作動させるモータ138b,152,154は、ユーザに操作のフィードバックを提供するようロボット100のユーザによる操作に対して受動的な抵抗及び/又は積極的な支援を提供すると共に比較的重いコンポーネントを動かし、例えば胴部140を持ち上げる支援を提供する。これにより、ユーザは、対応のコンポーネントの重量全体に耐える必要なく種々のロボットコンポーネントを動かすことができる。
挙動システム510bは、ロボット100の注意をユーザに向けるよう構成されたタップ注意挙動600b(例えば、プロセッサ上で実行可能な挙動ルーチン)を有するのが良い。タップ注意挙動600bは、センサシステム400により胴部140(又はロボット100の他の何らかの部分)がしきい期間(例えば、0.25秒間)よりも短い期間にわたって接触(例えば、人との接触)を受け取ったことが検出されると、有効になるのが良い。さらに、タップ注意挙動600bは、胴部タッチ遠隔操作挙動600aが不作動状態にあるときにのみ有効になるのが良い。例えば、0.2秒間胴部140へのタッチが検出されても、胴部タッチ遠隔操作挙動600aはトリガされないが、タップ注意挙動600bはトリガされることになる。タップ注意挙動600bは、胴部140に対する接触場所を用いることができ、それにより、頭部160は、ユーザを見るよう傾動すると共に/或いはパンする(頸部150の作動により)ことができる。頭部160がタッチ場所の方向に見ている位置に頭部160が達したときに挙動600bの停止基準に達することができる。 幾つかの具体化例では、挙動システム510bは、駆動システム200を駆動から停止させる(例えば、ロボット100を停止状態にする)よう構成されたタップ停止挙動600c(例えば、プロセッサ上で実行可能な挙動ルーチン)を有する。タップ停止挙動600cは、センサシステム400により胴部140が接触(例えば、人との接触)を受け取り、そしてゼロ速度駆動指令を駆動システム200に出して先の駆動指令をキャンセルしたことが検出された場合に有効になるのが良い。ロボットが進み、ユーザがロボットを停止させたいと思った場合、ユーザは、胴部140(又はロボット100の他の何らかの部分)又はタッチセンサをタップするのが良い。幾つかの実施例では、タップ停止挙動600cを優先度の高い挙動、例えば、胴部タッチ遠隔操作挙動600a及びタップ注意挙動600bが有効でない場合にのみ作動させるのが良い。タップ停止挙動600cは、センサシステム400が胴部140(又は、ロボット100上のどこかほかの場所)へのタッチをもはや検出しない場合に終了することができる。
図1〜図6Aを参照すると、幾つかの具体化例では、ロボットは、駆動システム200又はその部分を稼働解除(例えば、モータドライバ出力をシャットオフする)機能を提供し、したがって、ロボット100を場所から場所へ自由に押すことができるようになる。
モータエンコーダ212は、動作状態のままであるのが良く、したがって、ロボット100の存在場所が突き止められたままである(例えば、その場所を定めることができる)。
ロボット100が静止状態にあるとき、対応のモータ220a〜220cが稼働状態にあることに起因して駆動輪210a〜210cをロックすることができ、かくして人がロボット100を動かすのが困難になる。ロボットをシャットオフすることにより、車輪モータ220a〜220cに加わるトルクを解除することができるが、電力が供給されないロボット100は、全ての存在場所突き止め及び通信を失うことになる。ロボット100は、保持ボタン175(非常時停止ボタンとも呼ばれる)を有するのが良い。保持ボタン175は、胴部140に設けられた状態で示されているが、保持ボタンは、ロボット本体110の他の部分にも取り付けることができる。保持ボタン175は、幾つかの実施例では、胴部140に設けられる。というのは、胴部140は、平均的なユーザにとって接近可能な高さのところに(例えば、地面Gから約3〜5フィートの高さHTのところに)維持できるからである。
図17Aは、保持ボタン175の使用法を記載した例示の流れ図である。図17Bは、補助ボタンシステム1700のところの例示の略図である。幾つかの具体化例では、保持ボタン175は、駆動輪モータ220a〜220cへの配電を止め、かくして、電力を存在場所突き止めシステム1710(例えば、コントローラ500(制御システム510)及びセンサシステム400)への電力を止めることなく、駆動輪210a〜210cのロック解除/係合解除が行われる。例えば、保持ボタン175を作動させると、存在場所突き止めシステム1710を除き、ロボット100全体への電力を切ることができる。保持ボタン175を押しながらロボット100を動かしているとき、駆動輪モータ220a〜220cは、車輪運動に抵抗せず、存在場所突き止めシステム1710は、ロボットの位置を追跡し続ける。幾つかの実施例では、存在場所突き止めシステム1710は、3‐Dイメージセンサ450、レーザ距離検出のためのレーザスキャナ440、ソナー距離検出のためのソナー近接センサ410及び駆動輪モータ220a〜220c及びエンコーダ212からのフィードバックを有する。
駆動輪モータ220a〜220cから高電圧電力を除くことにより、駆動輪210a〜210cに加わる駆動トルクをなくすことができる。幾つかの場合、機械的ハードウェア、例えばクラッチ又は他の車輪係合方法を用いることが必要な場合がある。保持ボタン175と関連した回路は、ロボット100がユーザにより手動で動かされたときに外部から加わるトルクに起因して電流がモータ220a〜220cに流れるのを阻止する必要がある場合がある。対応のモータ接続を切る装置、例えばリレー(中継器)を用いると、電流は、ロボット100がユーザにより手動で動かされたときに外部から加わるトルクに起因してモータ220a〜220cに流れるのを阻止することができる。変形例として、モータDCバス上昇を可能にする装置は、モータ電流が流れるのを阻止するであろう。エネルギーがロボット100を動かしているユーザからのみ利用できる仕方でこれが行われる場合、駆動輪モータ220a〜220cは、依然として、保持ボタン175の目的である場合があるロボット指令下において動くのが阻止される。
幾つかの具体化例では、保持ボタン175の作動により、駆動システム200への電力が止められず、というよりも、駆動システム200は、ロボット100を推進せず、ロボット100のユーザ運動を支援するだけの仕方で駆動モータ220a〜220cを付勢する支援モードになる。
駆動システム200は、50N未満の横方向抵抗がロボット100を床レベルで動かすのに必要であるよう構成されているのが良い。さらに、基部120は、任意の方向に2フィート未満の車輪ベースを有するよう寸法決めされるのが良く、ロボット100を路面よりも4フィート(122cm)の高さで100Nで押しても、ロボット100をつれて行くことができない。
図18を参照すると、幾つかの具体化例では、ロボット100は、エンドエフェクタ182を備えたマニピュレータ180(例えば、関節連結式又は非関節連結式)を有する。
マニピュレータ180が固定状態のベース(即ち、動かないベース)に取り付けられている場合、マニピュレータ180は、関節を備えていなければならず、関節のうちの任意の1つは、多数の自由度でエンドエフェクタ182の運動を可能にするよう少なくとも1つもしそうでなくても2つ以上の自由度を有する。しかしながら、多数のモータを備えた多数の関節は、マニピュレータ180のコスト及び複雑さを増大させる。
マニピュレータ180を移動性プラットホームに取り付けることにより、この問題を緩和することができる。というのは、幾つかの自由度は、プラットホーム自体の移動性によって得られるからである。しかしながら、移動性に関するパラダイムが軌道付きの又は平行な車輪方式に基づいている場合、マニピュレータは、移動性プラットホームの向きを維持しながらエンドエフェクタ182を任意の方向に動かすことができるようにするためには或る程度の関節連結方式を依然として必要とするであろう。例えば、マニピュレータ180が軌道付き車両上で前方に真っ直ぐ向いていて軌道付き車両の向きを維持しながらエンドエフェクタ182を側方に直接動かすことが望ましい場合、軌道付き車両を動かすことなく、マニピュレータ180に何らかの関節連結方式が必要である。というのは、軌道付き車両は、側方に直接(即ち、軌道の駆動方向に垂直に)動くことができないからである。
胴部140の可変高さと関連した(脚部130の作動による)ホロノミック駆動システム200により、胴部140に取り付けられた非関節連結式マニピュレータ180の無限の運動の自由度の実現が可能であり、したがって、任意所与のロボットの向きを維持しながらエンドエフェクタを実際の空間内で任意のベクトルに沿って動かすことができる。さらに、マニピュレータ180を頸部150と共に動かすことができる頭部160に取り付けることにより、マニピュレータ180の追加の運動及び到達範囲が得られる。基部120のホロノミック移動性により、x、y及びθz自由度が提供される。脚部130の垂直作動により、胴部140は、“z”自由度に関しZ方向に動く。したがって、ロボット100は、マニピュレータ180それ自体の関節運動なしで、エンドエフェクタ182のx
、y及びθ運動を提供することができる。
マニピュレータ180のコスト及び複雑さの減少に加えて、この方式は、エンドエフェクタ182を種々の方向に制御するのに必要なコンピュータ処理を大幅に単純化する。運動を分析すること又は多数の関節を多数の自由度で制御することによってエンドエフェクタ182を特定の方向に動かすことができるようにするには、複雑な論理及び制御アルゴリズムが必要である。しかしながら、マニピュレータを開示したロボット100の胴部140に取り付けることにより、自由度のうちの2つ以上に影響を及ぼす関節の制御を利用するよりもむしろ各自由度(x,y,z,θz)の独立制御が可能になり、分析される運動アルゴリズムの背後にある数学的手法が比較的容易になる。さらに、これにより、コンピュータプロセッサオーバーヘッドの要件が比較的少なくなり、コストが減少すると共に信頼性が向上する。
伝統的に、ロボットのためのドア又は出入口を開くと共に/或いは通る方法は、「チョック(chock)」を用いてドアを開いたままにし又は多数の自由度又は広いレンジの運動マニピュレータを用いてロボットが出入口を通って操作している間(例えば、非ホロノミック運動(y及びθzだけ)を用いてドアを連続的に開いたままにする(これには、個別の波形運動が必要である)ステップを含む。ホロノミック駆動システム200により、ロボット100は、ドアを開いて(フリーハング(free hung)又は自動閉鎖)そしてそれに対応した出入口を通ることができる。
図19A〜図19Cを参照すると、幾つかの具体化例では、挙動システム410aは、制御システム510が指令を出してドア1902を開き、対応の出入口1900をうまく通るようにするマニピュレータ挙動600d(例えば、コンピューティングプロセッサ上で実行可能なルーチン)を含む。ドア1902を開ける方法は、ロボット100を操作して(例えば、回転させると共に/或いは並進させて)マニピュレータ180のエンドエフェクタ182を方向付けると共に位置決めし、その結果、エンドエフェクタ182がドア1902のドアノブ1904を操作することができるようにするステップを有する。エンドエフェクタ182は、開閉して物体を掴み、そして回転させる(例えば、マニピュレータ180の軸線回りに、例えば、ひねる)ようにするよう構成されているのが良い。この方法は、ドアノブ1904をエンドエフェクタ182で掴んでドアノブ1904をひねり(又は、胴部140を昇降させてレバー1904をひねると共に作動させて)ドアノブ1904を解除するステップを有する。この方法は、ロボット100を操作してドア1902を引き又は押して開き、次にロボットをホロノミック的に対応の出入口1900を通って操作するステップを更に有する。ロボット100は、ドアの反対側のドアノブ1904を掴み、次に、ドア1902を引き又は押して閉じることができる。
比較的重いドア1902を比較的小形の軽量ロボット100で開閉するため、ドアノブ1904を解除した後(例えば、ドアノブを回し又はレバーをひねることによって)、ロボット100をドアノブ1904のできるだけ近くで操作し、他方、マニピュレータ180の伸長長さを減少させてドアノブ1904と基部120との間の距離を最小限に抑える。この方法は、ドアノブ1904を押し上げて(例えば、脚部130を伸長させることによって、例えば胴部140を持ち上げることによって)駆動輪210a〜210cに加わる法線力を増大させ、それによりトラクションを増大させるステップを更に有する。
自動閉鎖式ドア1902をうまく通り過ぎるため(いずれかの方向から)、ドア1902をいったん開けると、ロボット100は、既にドア1902の近くに位置し、そして基部120を回転させると共に/或いは移動させてチョックのように働く。幾つかの実施例では、マニピュレータ180は、エンドエフェクタ182とドアノブ1904の接触状態を維持するよう受動又は能動的パン自由度(DOF)を有する。出入口1900をいったん通過すると、この方法は、エンドエフェクタ182を解除し、マニピュレータ180を引っ込めて(例えば、基部120のx,y,θzDOFを用いることによって)、ドア1902とロボット基部120の連続接触状態を維持しながら出入口1900をスムーズに通過するステップを有する。ドア1902に対する摺動接触運動が不要であり、かくして、ロボット100又はドア1902の引っ掻きが回避されると共にこれら相互の摩擦が回避され、それにより、ロボットの作業性が向上する。ロボット100は、幾つかの具体化例では、基部120により定められる垂直容積部内に全ての関連したコンポーネントを基部120上に維持するので、ドア1902と基部120との接触しか存在しない。ドア1902との接触は、地面に近いので、ロボット100のトラクション及び安定性を最大にすることができる。
図19Dに示されている実施例では、ロボット100は、頭部160に取り付けられた伸長可能なマニピュレータ180を有する。ロボット100は、操作しながら(例えば、ホロノミック的に)、ドアノブ1904を掴んだり解除したりし、対応のドア1902を押して開き、次に出入口1900を出てドアを開けそらし、ドア1902を開いたままにした状態で人が出入口を通過することができるようにする。
図20を参照すると、幾つかの具体化例では、ロボット100は、基部120、基部120から上方に延びる少なくとも1本の脚部130及び少なくとも1本の脚部130によって支持された胴部140を備えたロボット本体110を有する。基部120は、駆動システム200の少なくとも幾つかの部分を支持するのが良い。ロボット本体110は、胴部140によって支持された頸部150を更に有する。頸部150は、頭部160を支持したアーム190(これは、関節連結されているのが良い)を支持している。頭部160は、インターフェースモジュール300の少なくとも一部分を支持するのが良い。アーム190により、ロボット100は、頭部160を頸部150よりも上方でこれから離れた高い位置に動かすことができる。図示の実施例では、ロボット100は、頭部160をコンベヤベルト上に動かしてロボット100が頭部160に取り付けられているカメラ320又は3‐Dイメージセンサ450を用いてコンベヤベルト上の物品を見ることができるようにする。遠隔のユーザ、ロボット100及びロボット100に隣接して位置する現地のユーザとのテレビ会議セッションの間、遠隔のユーザ及び/又は現地のユーザは、ロボット100を差し向けてロボット100が関心のある物体を検出すると共に/或いは視認することができるようにする姿勢を取らせることができる。さらに、制御システム510は、ロボット100の安定性を維持するよう頸部150から遠ざかる頭部160の運動を制限するのが良い。幾つかの実施例では、制御システム510は、全体的重心CGRを基部120の周囲を越えて動かさないように頭部160を基部120の周囲内に維持する。
本明細書において説明したシステム及び技術の種々の具体化例をディジタル電子回路、集積回路、特別設計ASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア及び/又はこれらの組み合わせで実現できる。これら種々の具体化例は、プログラム可能なシステム上で実行可能であると共に/或いは解釈可能な1つ又は2つ以上のコンピュータプログラムの状態での具体化例を含むことができ、かかるプログラム可能なシステムは、記憶システム、少なくとも1つの入力装置及び少なくとも1つの出力装置からデータ及び命令を受け取り、データ及び命令を記憶システム、少なくとも1つの入力装置及び少なくとも1つの出力装置に送るよう結合された特定目的又は一般目的であるのが良い少なくとも1つのプログラム可能プロセッサを含む。
これらコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション又はコードとも呼ばれる)は、プログラム可能プロセッサのための機械命令を含み、ハイレベル手順及び/又はオブジェクト指向プログラミング言語及び/又はアセンブリ/機械言語で実施できる。本明細書で用いられる「機械可読媒体」及び「コンピュータ可読媒体」という用語は、機械命令及び/又はデータを、機械命令を機械可読信号として受け取る機械可読媒体を含むプログラム可能プロセッサに提供するために用いられる任意のコンピュータプログラム製品、装置及び/又はデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を意味する。「機械可読信号」という用語は、機械命令及び/又はデータをプログラム可能プロセッサに提供するために用いられる任意の信号を意味している。
本明細書において説明した本発明の内容及び機能的操作の具体化は、ディジタル電子回路又はコンピュータソフトウェア、ファームウェア又は本明細書において開示した構造及びこれら構造の均等例又はこれらのうちの1つ又は2つ以上の組み合わせを含むハードウェアで具体化できる。本明細書において説明した本発明の内容の実施形態は、1つ又は2つ以上のコンピュータプログラム製品、即ち、データ処理装置により実行可能に又はデータ処理装置の動作を制御するためのコンピュータ可読媒体上にコード化されたコンピュータプログラム命令の1つ又は2つ以上のモジュールとして具体化できる。コンピュータ可読媒体は、機械可読記憶装置、機械可読記憶基板、メモリ装置、機械可読伝搬信号を送る物体の構成物又はこれらのうちの1つ又は2つ以上の組み合わせであって良い。「データ処理装置」という用語は、データを処理するための全ての装置、デバイス及び機械を含み、これらとしては、一例を挙げると、プログラム可能プロセッサ、コンピュータ又は多数のプロセッサ若しくはコンピュータが挙げられる。装置は、ハードウェアに加えて、問題のコンピュータプログラムのための実行環境を生じさせるコード、例えば、プロセッサファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム又はこれらのうちの1つ若しくは2つ以上の組み合わせを構成するコードを含むのが良い。伝搬信号は、適当なレシーバ装置への送信のために情報をコード化するよう生成される人工的に生じた信号、例えば、機械生成電気信号、光信号又は電磁信号である。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト又はコードとも呼ばれる)は、コンパイルされ又は解釈された言語を含むプログラミング言語の任意の形態で書き込み可能であり、これをスタンドアロンプログラム又はモジュール、コンポーネント、サブルーチン若しくはコンピュータ処理環境で用いられるのに適した他のユニットとして含まれる任意の形態で利用可能である。コンピュータプログラムは、必ずしも、ファイルシステム中のファイルに対応しているわけではない。
プログラムは、問題のプログラムに専用のシングルファイル又は多数のコーディネートされたファイル(例えば、1つ又は2つ以上のモジュール、サブプログラム又はコードの部分を記憶したファイル)中に他のプログラム又はデータ(例えば、メーキャップ言語文章に記憶された1つ又は2つ以上のスクリプト)を保持したファイルの一部分に記憶可能である。コンピュータプログラムは、1つのコンピュータ又は1つのサイトに配置され又は多数の場所に分散して配置されると共に通信ネットワークによって互いに接続された多数のコンピュータ上で実行されるよう利用可能である。
本明細書において説明したプロセス及び論理の流れは、入力データについて働き、出力を生じさせることによって機能を実行するよう1つ又は2つ以上のコンピュータプログラムを実行する1つ又は2つ以上のプログラム可能プロセッサによって実施できる。プロセス及び論理流れは又、専用目的論理回路、例えばFPGA(フィールドプログラマブルゲートアレイ)又はASIC(特定用途向け集積回路)によっても実行可能であり、そして装置は、これらとしても具体化できる。
コンピュータプログラムの実行に適したプロセッサとしては、一例を挙げると、汎用目的マイクロプロセッサと専用目的プロセッサの両方及び任意種類のディジタルコンピュータの任意の1つ又は2つ以上のプロセッサが挙げられる。一般に、プロセッサは、読み取り専用記憶装置又は読み取り書き込み記憶装置から命令及びデータを受け取る。コンピュータの必須の要素は、命令を実行するプロセッサ及び命令及びデータを記憶する1つ又は2つ以上の記憶装置である。一般に、コンピュータは、データを記憶する1つ又は2つ以上の大量記憶装置、例えば、磁気ディスク、光磁気ディスク又は光ディスクを含み又はこれらからデータを受け取り、若しくはデータをこれらに伝送し又はこれら両方を行うよう作動的に結合される。しかしながら、コンピュータは、かかる装置を有する必要はない。
さらに、コンピュータは、別の装置、例えば、少し挙げてみただけでも、携帯電話、携帯型端末(PDA)、移動式オーディオプレーヤ、全地球測位システム(GPS)レシーバに埋め込み可能である。コンピュータプログラム命令及びデータを記憶するのに適したコンピュータ可読媒体としては、あらゆる形式の不揮発性メモリ、メディア及び記憶装置が挙げられ、かかる形態としては、一例を挙げると、半導体記憶装置、例えばEPROM、EEPROM及びフラッシュメモリ装置、磁気ディスク、例えば内部ハードディスク又はリムーバブルディスク、光磁気ディスク、CDROM及びDVD‐ROMディスクが挙げられる。プロセッサ及びメモリは、専用目的論理回路によって捕捉されるのが良く又はこれらの中に組み込まれるのが良い。
本明細書において説明した本発明の内容の具体化例は、例えばデータサーバとしてバックエンドコンポーネントを含み若しくはミドルウェアコンポーネント、例えばアプリケーションサーバを含み、或いはフロントエンドコンピュータ、例えばユーザが本明細書において説明した本発明の内容の具体化例と対話することができるようにするグラフィカルユーザインターフェース又はウェブブラウザを有するクライアントコンピュータを含み又は1つ又は2つ以上のかかるバックエンド、ミドルウェア又はフロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで具体化できる。かかるシステムのコンポーネントは、ディジタルデータ通信の任意の形態又は媒体、例えば通信ネットワークにより互いに接続可能である。通信ネットワークの例としては、ローカルエリアネットワーク(「LAN」)及びワイドエリアネットワーク(「WAN」)、例えばインターネットが挙げられる。
コンピューティングシステムは、クライアント及びサーバを含むのが良い。クライアント及びサーバは、一般に、互いに離れており、典型的には、通信ネットワークを介して対話する。クライアントとサーバの関係は、それぞれのコンピュータ上でランすると共に互いに対するクライアント‐サーバ関係を有するコンピュータプログラムによって生じる。
本明細書は、多くの細部を有するが、これら細部は、本発明の範囲又はクレーム請求可能な本発明の制限として介されてはならず、それどころか、本発明の特定の具体化例に特有の特徴の説明として介されるべきである。別々の具体化例に関連して本明細書において説明した或る特定の特徴は又、単一の具体化例において組み合わせ状態で具体化できる。
これとは逆に、単一の具体化例の関連で説明した種々の特徴も又、多数の具体化例において別々に又は任意適当なサブコンビネーションの状態で具体化できる。さらに、特徴を或る特定の組み合わせで用いられるものとして上述し、場合によっては当初その状態でクレーム請求されている場合があるが、クレーム請求されたコンビネーションからの1つ又は2つ以上の特徴は、場合によっては、その組み合わせから削除でき、クレーム請求されるコンビネーションは、サブコンビネーション又はさびコンビネーションの変形例に変更可能である。
同様に、操作又はステップが図面に特定の順序で記載されているが、これは、かかる操作又はステップが図示の特定の順序又は逐次順序で実施されること又は全ての図示した操作又はステップが所望の目的を達成するために実施されるべきであることを必要条件として理解されるべきではない。或る特定の状況では、多重タスキング及び並行処理が有利な場合がある。さらに、上述の実施形態における種々のシステムコンポーネントの分離は、あらゆる実施形態においてかかる分離を必要とするものであると理解されるべきではなく、上述のプログラムコンポーネント及びシステムは、一般に、単一ソフトウェア製品に互いに一体化でき又は多数のソフトウェア製品にパッケージ化できることは理解されるべきである。
多くの具体化例を説明した。それにもかかわらず、本発明の精神及び範囲から逸脱することなく、種々の改造例を相当できることは理解されよう。したがって、特許請求の範囲に記載された本発明の範囲内で他の具体化例が存在する。例えば、特許請求の範囲に記載された行為は、別の順序で実施でき、この場合であっても、所望の結果を達成することができる。

Claims (38)

  1. 移動式ヒューマンインターフェースロボット(100)であって、
    垂直中心軸線(Z)及び前方駆動方向(F)を定める基部(120)を有し、
    前記基部(120)によって支持されたホロノミック駆動システム(200)を有し、前記駆動システム(200)は、第1、第2及び第3の被動駆動輪(210a,210b,210c)を有し、各駆動輪は、前記垂直中心軸線(Z)回りに三角形の形に互いに間隔を置いて配置されると共に前記垂直中心軸線(Z)に対して半径方向軸線(Slip)に垂直な駆動方向(Drive)を有し、
    前記ホロノミック駆動システム(200)と通信状態にあるコントローラ(500)を有し、
    前記基部(120)の上方に支持された胴部(140)を有し、
    前記コントローラ(500)と通信状態にあるタッチセンサシステム(480)を有し、前記タッチセンサシステム(480)は、人の接触に応動し、
    前記コントローラ(500)は、前記タッチセンサシステム(480)から受け取ったタッチ信号に基づいて駆動指令を前記ホロノミック駆動システム(200)に出す、移動式ヒューマンインターフェースロボット(100)。
  2. 前記タッチセンサシステム(480)は、少なくとも一部が前記胴部(140)に設けられている、請求項1記載の移動式ヒューマンインターフェースロボット(100)。
  3. 前記基部(120)に取り付けられると共に前記胴部(140)を支持した作動可能な伸縮式脚部(130)を更に有し、前記コントローラ(500)は、前記タッチセンサシステム(480)から受け取った前記タッチ信号に応答して前記脚部の高さ(HL)を変更して前記胴部(140)の高さ(HT)を変更し、好ましくは、前記コントローラ(500)は、前記タッチセンサシステム(480)から受け取った前記タッチ信号に応答して前記脚部(130)に命令して前記脚部が前記胴部(140)のユーザ高さ変更に対するアクティブな支援を提供するようにする、請求項1又は2記載の移動式ヒューマンインターフェースロボット(100)。
  4. 前記駆動指令は、前記ロボット(100)を前記ロボット(100)と接触状態にあるユーザからの支援により推進する電力減少支援駆動指令を含む、請求項1〜3のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  5. 前記胴部(140)に取り付けられた頸部(150)及び前記頸部(150)によって支持された頭部(160)を更に有し、前記頸部(150)は、前記頭部(160)を前記胴部(140)に対してパンしたり傾動させたりしたりするよう構成され、好ましくは、前記コントローラ(500)は、頭部タッチを指示する前記タッチセンサシステム(480)から受け取った前記タッチ信号に応答して前記頭部(160)のユーザ関節運動を可能にすると共に頭部タッチの完了後、前記頭部(160)の姿勢を維持する、請求項1〜4のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  6. 前記コントローラ(500)は、前記タッチセンサシステム(480)から受け取った前記タッチ信号に応答して前記ロボット(100)に対する接触場所に向くよう前記頭部(160)を関節運動させる、請求項5記載の移動式ヒューマンインターフェースロボット(100)。
  7. 前記頸部(150)及び前記頭部(160)のうちの少なくとも一方に設けられていて、前記頭部(160)のユーザ操作を検出する操作センサ(158a,158b,165)を更に有する、請求項5記載の移動式ヒューマンインターフェースロボット(100)。
  8. 前記タッチセンサシステム(480)は、容量センサ(147t,147b,147f,147r,147l,165)、接触センサ(147t,147b,147r,147l,165)、カメラ(320)、三次元イメージセンサ(450)及びスイッチ(147t,147b,147f,147r,147l,165)のうちの少なくとも1つを有し、好ましくは、タッチセンサシステムは、前記胴部(140)の頂面、底面、右側面、左側面、前面及び後面(144,146,147,148,149)に取り付けられた接触センサ(147t,147b,147f,147r,147l)を有する、請求項1〜7のうちいずれか一に移動式ヒューマンインターフェースロボット(100)。
  9. 前記タッチセンサシステム(480)は、前記ロボット(100)の支持面から3フィート(91.5cm)〜5フィート(152.5cm)のところに位置する少なくとも1つの作動可能なタッチ応答式入力(147t,147b,147f,147r,147l,165)を有する、請求項1〜8のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  10. 前記コントローラ(500)は、受け取ったタッチとは逆の方向における前記ロボット(100)の少なくとも一部分の運動抵抗を増大させると共に/或いは前記タッチセンサシステム(480)から受け取った前記タッチ信号に応答して駆動を停止させるよう前記駆動システム(200)に命令を出す、請求項1〜9のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  11. 移動式ヒューマンインターフェースロボット(100)であって、
    前方駆動方向(F)を有する基部(120)と、
    前記基部(120)によって支持された駆動システム(200)と、
    前記基部(120)によって支持されていて、毎秒100億を超える命令(million instruction(s) per second :MIPS)を処理することができるロボットコンピュータ(500)と、
    前記基部(120)の上方に取り外し可能に支持されると共に前記ロボットコンピュータ(500)とワイヤレス通信状態にある少なくとも1つのタブレット型コンピュータ(310,310a,310b)と、
    前記基部(120)の上方に支持されていて、前記少なくとも1つのタブレット型コンピュータ(310,310a,310b)とは別個に少なくとも1つの自由度の範囲内で動くことができるカメラ(320,320a,320b,450,450a,450b)とを有する、移動式ヒューマンインターフェースロボット(100)。
  12. 前記駆動システムは、第1、第2及び第3の被動駆動輪(210a,210b,210c)を有し、各駆動輪は、前記垂直中心軸線(Z)回りに三角形の形に互いに間隔を置いて配置されると共に前記垂直中心軸線(Z)に対して半径方向軸線(Slip)に垂直な駆動方向(Drive)を有し、好ましくは、各駆動輪(210a,210b,210c)は、前記駆動輪(210a,210b,210c)の周囲に沿って設けられた第1及び第2の列(232,234)をなすローラ(230)を有し、各ローラ(230)は、前記駆動輪(DR)の転動方向に垂直な転動方向(Dr)を有し、より好ましくは、前記ローラ(230)は各々、弧状転動面(235)を備え、前記ローラ(230)は、一緒になって、前記駆動輪(210a,210b,210c)の少なくとも実質的に円形の転動面を構成する、請求項11記載の移動式ヒューマンインターフェースロボット(100)。
  13. 前記カメラ(320,320a,320b,450,450a,450b)は、前記ロボット(100)に隣接して位置する空間ボリュームから点群を得るよう位置決めされたボリューム形点群イメージング装置(450,450a,450b)を有し、好ましくは、前記ボリューム形点群イメージング装置(450,450a,450b)は、地面よりも約1フィート(30.5cm)以上、上方の高さ位置のところに位置決めされると共に前記移動式ロボット(100)の移動方向において床平面を含む空間ボリュームから点群を得ることができるよう差し向けられている、請求項11又は12記載の移動式ヒューマンインターフェースロボット(100)。
  14. 前記カメラ(320,320a,320b,450,450a,450b)は、前記基部(120)の前縁の近くの領域を視認するよう動くことができる、請求項13記載の移動式ヒューマンインターフェースロボット(100)。
  15. 前記タブレット型コンピュータ(310,310a,310b)は、少なくとも150平方インチ(967.7cm2)の表示領域を有すると共に/或いは前記ロボット(100)に取り付けられた状態で少なくとも1つの自由度で動くことができるタッチスクリーン(312)を有する、請求項11〜14のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  16. 前記ロボットコンピュータ(500)と電気通信状態にあるディスプレイ(310b)を更に有し、前記タブレット型コンピュータ(310,310a)は、前記ディスプレイ(310b)に取り外し可能に装着でき、前記ディスプレイ(310b)は、前記タブレット型コンピュータ(310,310a)が前記ディスプレイ(310b)に装着されると不作動状態になり、前記タブレット型コンピュータ(310,310a)が前記ディスプレイ(310b)から取り外されると作動状態になる、請求項15記載の移動式ヒューマンインターフェースロボット(100)。
  17. 移動式ヒューマンインターフェースロボット(100)を作動させる方法であって、前記方法は、
    ユーザが前記ロボット(100)にタッチしたことに応答して前記ロボット(100)のタッチセンサシステム(480)からタッチ信号を受け取るステップと、
    しきい期間を超えるタッチ持続時間の間、前記ロボットを前記ロボット(100)への接触場所に基づく方向に駆動するステップと、
    前記しきい期間よりも短いタッチ持続時間の間、前記ロボット(100)のインターフェース(310,320,320a,320b,450,450a,450b)を関節運動させて前記インターフェースが少なくとも実質的に、前記ロボット(100)への前記接触場所に向くようにするステップと、
    前記しきい期間よりも短いタッチ持続時間の間、ゼロ速度駆動指令を出すステップとを有する、方法。
  18. 駆動指令をホロノミック駆動システム(200)に出して前記ロボット(100)を前記しきい期間、好ましくは0.25秒間よりも長いタッチ持続時間、前記受け取ったタッチの前記ロボット(100)とは逆方向に向く方向に動かすステップを更に有する、請求項17記載の方法。
  19. 前記ロボット(100)の頭部(160)を前記ロボット(100)の連結状態の胴部(140)に対してパンすること及び傾動させることのうちの少なくとも一方を行って少なくとも実質的に、前記頭部(160)を前記しきい期間よりも短いタッチ持続時間の間、前記ロボット(110)に対する前記接触場所の方へ向かせるステップを更に有する、請求項17又は18記載の方法。
  20. 前記タッチセンサシステム(480)は、容量センサ(147t,147b,147f,147r,147l,165)、接触センサ(147t,147b,147f,147r,147l,165)、カメラ(320)、三次元イメージセンサ(450)及びスイッチ(147t,147b,147f,147r,147l,165)のうちの少なくとも1つを有する、請求項17〜19のうちいずれか一に記載の方法。
  21. 移動式ヒューマンインターフェースロボット(100)であって、
    駆動モータ(220a,220b,220c)により対応関係をなして駆動される少なくとも1つの駆動輪(210,210a,210b,210c)を有する駆動システム(200)と、
    前記駆動システム(200)と通信状態にある存在場所突き止めシステム(1710)と、
    前記駆動システム(200)及び前記存在場所突き止めシステム(1710)と通信状態にある電源(105)と、
    前記駆動システム(200)の上方に支持されたタッチ応答入力(175)とを有し、 前記タッチ応答入力(175)の作動により、前記駆動システム(200)への配電状態が変更され、それにより前記対応の少なくとも1つの駆動輪(210,210a,210b,210c)への前記駆動モータ(220a,220b,220c)の駆動荷重が少なくとも減少する、移動式ヒューマンインターフェースロボット(100)。
  22. 前記タッチ応答入力(175)の作動により、前記駆動システム(200)への配電が終了し、他方、前記存在場所突き止めシステム(1710)への配電を続行させることができると共に/或いは前記対応の駆動モータ(220a,220b,220c)からの少なくとも1つの駆動輪(210,210a,210b,210c)の結合解除が生じる、請求項21記載の移動式ヒューマンインターフェースロボット(100)。
  23. 前記駆動システム(200)は、前記タッチ応答入力(175)の作動に応答して、前記ロボット(100)を移動させると共に前記ロボット(100)のユーザ運動を支援することしかできない電力減少駆動指令を出す、請求項21又は22記載の移動式ヒューマンインターフェースロボット(100)。
  24. 前記タッチ応答入力(175)は、地面よりも約3フィート(91.5cm)〜約5フィート(152.5cm)上方に位置している、請求項21〜23のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  25. 前記存在場所突き止めシステム(1710)は、センサシステム(400)と、前記駆動システム(200)、前記センサシステム(400)、前記電源(105)及び前記タッチ応答入力(175)と通信状態にあるコントローラ(500)とを有する、請求項21〜24のうちいずれ一に記載の移動式ヒューマンインターフェースロボット(100)。
  26. 前記センサシステム(400)は、慣性測定ユニット(470)、オドメータ、全地球測位システム、レーザスキャナ(440)、ソナー近接センサ(410)及び三次元イメージセンサ(450)のうちの少なくとも1つを有する、請求項25記載の移動式ヒューマンインターフェースロボット(100)。
  27. 前記存在場所突き止めシステム(1710)は、三次元イメージセンサ(450)、レーザスキャナ(440)、1つ又は2つ以上のソナー近接センサ(410)、前記少なくとも1つの駆動輪(210,210a,210b,210c)のための駆動輪エンコーダ(138a)及び駆動輪モータフィードバックのうちの少なくとも1つを有する、請求項21〜26のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  28. 前記駆動システム(200)は、第1、第2及び第3のホロノミック的に駆動される駆動輪(210a,210b,210c)を有し、各駆動輪は、前記ロボット(100)の垂直軸線(Z)回りに三角形の形に間隔を置いて配置されると共に前記垂直軸線(Z)に対して半径方向軸線(Slip)に垂直な駆動方向(Drive)を有する、請求項21〜27のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  29. 前記駆動システム(200)を支持した基部(120)と、
    前記基部(120)から上方に延びる作動可能な伸縮式脚部(130)と、
    前記脚部(130)によって支持されていて、地面よりも約3フィート(91.5cm)〜約5フィート(152.5cm)上方に位置する胴部(140)とを更に有し、前記タッチ応答入力(175)は、前記胴部(140)に設けられている、請求項21〜28のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  30. 前記タッチ応答入力(175)は、接触センサ、容量センサ、作動可能なボタン及びスイッチのうちの少なくとも1つを有する、請求項21〜29のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  31. 移動式ヒューマンインターフェースロボット(100)であって、
    垂直中央軸線(Z)回りに実質的に三角形の形をした対称形状を定めると共に第1、第2及び第3の部分(124a,124b,124c)を有する基部(120)を有し、
    前記基部(120)によって支持されたホロノミック駆動システム(200)を有し、前記駆動システム(200)は、第1、第2及び第3の被動駆動輪(210a,210b,210c)を有し、各駆動輪は、前記垂直中心軸線(Z)回りに三角形の形に互いに間隔を置いて配置されると共に対応の前記第1、前記第2及び前記第3の基部部分(124a,124b,124c)により支持され、各駆動輪(210a,210b,210c)は、前記垂直中心軸線(Z)に対して半径方向軸線(Slip)に垂直な駆動方向(Drive)を有し、
    前記基部(120)から上方に延びると共に可変高さ(HL)を有する脚部(130)を有し、
    前記脚部(130)によって支持された胴部(140)を有し、前記胴部(140)は、前記基部(120)から張り出した底面(144)を有する肩(142)を備え、
    前記胴部(140)の前記底面(144)に設けられていて、前記駆動システム(200)の前方駆動方向(F)に沿って下方に向いた胴部イメージングセンサ(450,450a)を有し、前記胴部イメージングセンサ(450,450a)は、前記ロボット(100)の周りのシーンの三次元イメージを捕捉し、
    前記胴部(140)によって支持された頸部(150)を有し、
    前記頸部(150)によって支持された頭部(160)を有し、前記頸部(150)は、前記頭部(160)を前記垂直中心軸線(Z)に対してパンさせたり傾動させたりし、 前記頭部(160)によって支持されたディスプレイ(310,310a,310b,312)を有する、移動式ヒューマンインターフェースロボット(100)。
  32. 前記ディスプレイ(310,310a,310b,312)は、前記頭部(160)に解除可能に取り付けられ、好ましくは、前記ディスプレイ(310,310a,310b,312)は、タッチスクリーン(312)を備えたタブレット型コンピュータ(310,310a,310b)を有する、請求項31記載の移動式ヒューマンインターフェースロボット(100)。
  33. 前記ディスプレイ(310,310a,310b,312)は、前記頭部(160)から取り外されると、前記ディスプレイ(310,310a,310b,312)の存在場所を突き止めるロケータ(315)を有する、請求項31又は32記載の移動式ヒューマンインターフェースロボット(100)。
  34. 前記頭部(160)に解除可能に取り付けられたタブレット型コンピュータ(310,310b)を更に有し、前記タブレット型コンピュータ(310,310b)は、前記ディスプレイ(310,310a)に解除可能に装着される、請求項31〜33のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  35. 前記頭部(160)に取り付けられたカメラ(320,320a,32b,450,450a,450b)を更に有する、請求項31〜34のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  36. 前記頭部(160)に取り付けられると共に前記ロボット(100)の周りのシーンの三次元イメージを捕捉する頭部イメージングセンサ(320,320a,320b,450,450b)を更に有し、前記頭部イメージングセンサ(320,320a,320b,450,450b)は、好ましくは、前記ロボット(100)の周りの空間ボリュームから点群を得ることができるよう位置決めされたボリューム形点群イメージング装置(450,450b)を有する、請求項31〜35のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  37. 前記頸部(150)に取り付けられると共に前記頭部(160)を前記頸部(150)から遠ざけて支持するアーム(190)を更に有する、請求項31〜36のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
  38. 前記胴部(140)に取り付けられたマニピュレータアーム(180)及び前記マニピュレータアーム(180)の遠位端部に取り付けられたエンドエフェクタ(182)を更に有し、好ましくは、前記マニピュレータアーム(180)は、長さが可変である、請求項31〜37のうちいずれか一に記載の移動式ヒューマンインターフェースロボット(100)。
JP2014140541A 2010-05-20 2014-07-08 移動式ヒューマンインターフェースロボット Ceased JP2015016549A (ja)

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
US34661210P 2010-05-20 2010-05-20
US61/346,612 2010-05-20
US35691010P 2010-06-21 2010-06-21
US61/356,910 2010-06-21
US201061428759P 2010-12-30 2010-12-30
US201061428717P 2010-12-30 2010-12-30
US201061428734P 2010-12-30 2010-12-30
US61/428,734 2010-12-30
US61/428,717 2010-12-30
US61/428,759 2010-12-30
US201161429863P 2011-01-05 2011-01-05
US61/429,863 2011-01-05
US13/032,370 2011-02-22
US13/032,370 US8918213B2 (en) 2010-05-20 2011-02-22 Mobile human interface robot

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014108606A Division JP6028304B2 (ja) 2010-05-20 2014-05-26 移動式ヒューマンインターフェースロボット

Publications (1)

Publication Number Publication Date
JP2015016549A true JP2015016549A (ja) 2015-01-29

Family

ID=44992266

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2013511208A Active JP5735102B2 (ja) 2010-05-20 2011-05-06 移動式ヒューマンインターフェースロボット、及び移動式ヒューマンインターフェースロボットを作動させる方法
JP2014108606A Active JP6028304B2 (ja) 2010-05-20 2014-05-26 移動式ヒューマンインターフェースロボット
JP2014140541A Ceased JP2015016549A (ja) 2010-05-20 2014-07-08 移動式ヒューマンインターフェースロボット

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2013511208A Active JP5735102B2 (ja) 2010-05-20 2011-05-06 移動式ヒューマンインターフェースロボット、及び移動式ヒューマンインターフェースロボットを作動させる方法
JP2014108606A Active JP6028304B2 (ja) 2010-05-20 2014-05-26 移動式ヒューマンインターフェースロボット

Country Status (4)

Country Link
US (2) US8918213B2 (ja)
EP (2) EP2647475A3 (ja)
JP (3) JP5735102B2 (ja)
WO (1) WO2011146256A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017077608A (ja) * 2015-10-21 2017-04-27 ファナック株式会社 ロボットの安全監視装置
JP2018050161A (ja) * 2016-09-21 2018-03-29 公立大学法人首都大学東京 コミュニケーションシステム
KR20190024962A (ko) * 2016-06-30 2019-03-08 브레인 코퍼레이션 이동 바디들 주위의 로봇 행동을 위한 시스템들 및 방법들
WO2019156280A1 (ko) * 2018-02-06 2019-08-15 (주)원익로보틱스 정보 제공용 로봇 및 이를 이용한 정보 제공 방법

Families Citing this family (148)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8769479B2 (en) * 2006-01-31 2014-07-01 Digital River, Inc. Physical on demand
WO2010144813A1 (en) 2009-06-11 2010-12-16 Raytheon Sarcos, Llc Method and system for deploying a surveillance network
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
US10343283B2 (en) * 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US8717447B2 (en) 2010-08-20 2014-05-06 Gary Stephen Shuster Remote telepresence gaze direction
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US20120249468A1 (en) * 2011-04-04 2012-10-04 Microsoft Corporation Virtual Touchpad Using a Depth Camera
US9440357B2 (en) * 2011-05-02 2016-09-13 John Hu System for stabilization control of mobile robotics
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
JP5892360B2 (ja) * 2011-08-02 2016-03-23 ソニー株式会社 ロボット指示装置、ロボット指示方法、プログラム、及び通信システム
US20130041976A1 (en) * 2011-08-12 2013-02-14 Microsoft Corporation Context-aware delivery of content
US9628843B2 (en) * 2011-11-21 2017-04-18 Microsoft Technology Licensing, Llc Methods for controlling electronic devices using gestures
US9776332B2 (en) * 2011-12-08 2017-10-03 Lg Electronics Inc. Automatic moving apparatus and manual operation method thereof
US8908913B2 (en) * 2011-12-19 2014-12-09 Mitsubishi Electric Research Laboratories, Inc. Voting-based pose estimation for 3D sensors
DE102012200445A1 (de) * 2012-01-13 2013-07-18 Robert Bosch Gmbh Autonomes Arbeitsgerät
US8958911B2 (en) * 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
KR101320169B1 (ko) * 2012-03-05 2013-10-23 김억 스마트기기 도킹형 로봇
WO2013176758A1 (en) * 2012-05-22 2013-11-28 Intouch Technologies, Inc. Clinical workflows utilizing autonomous and semi-autonomous telemedicine devices
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US20120253554A1 (en) * 2012-06-16 2012-10-04 Stanton Mark Hamilton RC Car Anti-Flip System and Methods
DE102012106448B4 (de) * 2012-07-17 2016-03-31 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters sowie sicheres Überwachungsgerät zur Durchführung des Verfahrens
US8983662B2 (en) * 2012-08-03 2015-03-17 Toyota Motor Engineering & Manufacturing North America, Inc. Robots comprising projectors for projecting images on identified projection surfaces
WO2014033055A1 (en) 2012-08-27 2014-03-06 Aktiebolaget Electrolux Robot positioning system
US9031698B2 (en) 2012-10-31 2015-05-12 Sarcos Lc Serpentine robotic crawler
KR102058918B1 (ko) * 2012-12-14 2019-12-26 삼성전자주식회사 홈 모니터링 방법 및 장치
JP6198234B2 (ja) 2013-04-15 2017-09-20 アクティエボラゲット エレクトロラックス 突出サイドブラシを備えたロボット真空掃除機
CN110448222A (zh) 2013-04-15 2019-11-15 伊莱克斯公司 机器人真空吸尘器
US20150139766A1 (en) * 2013-06-26 2015-05-21 Willow Garage, Inc. Robotic bin management system and method
KR101444858B1 (ko) * 2013-09-03 2014-11-03 재단법인 실감교류인체감응솔루션연구단 원격 존재 장치
US9409292B2 (en) 2013-09-13 2016-08-09 Sarcos Lc Serpentine robotic crawler for performing dexterous operations
WO2015090405A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Sensing climb of obstacle of a robotic cleaning device
CN105744872B (zh) 2013-12-19 2020-01-14 伊莱克斯公司 旋转侧刷的自适应速度控制
WO2015090399A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Robotic cleaning device and method for landmark recognition
US9811089B2 (en) 2013-12-19 2017-11-07 Aktiebolaget Electrolux Robotic cleaning device with perimeter recording function
WO2015090398A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Robotic vacuum cleaner with side brush moving in spiral pattern
WO2015090404A1 (en) 2013-12-19 2015-06-25 Aktiebolaget Electrolux Prioritizing cleaning areas
US10209080B2 (en) 2013-12-19 2019-02-19 Aktiebolaget Electrolux Robotic cleaning device
US10231591B2 (en) 2013-12-20 2019-03-19 Aktiebolaget Electrolux Dust container
EP3091887A4 (en) 2014-01-10 2017-09-13 iRobot Corporation Autonomous mobile robot
US10279488B2 (en) 2014-01-17 2019-05-07 Knightscope, Inc. Autonomous data machines and systems
US9329597B2 (en) 2014-01-17 2016-05-03 Knightscope, Inc. Autonomous data machines and systems
US10514837B1 (en) * 2014-01-17 2019-12-24 Knightscope, Inc. Systems and methods for security data analysis and display
US9792434B1 (en) * 2014-01-17 2017-10-17 Knightscope, Inc. Systems and methods for security data analysis and display
US9535421B1 (en) * 2014-02-28 2017-01-03 Savioke, Inc. Mobile delivery robot with interior cargo space
JP2015164789A (ja) * 2014-03-03 2015-09-17 キヤノン株式会社 電子機器
US9566711B2 (en) 2014-03-04 2017-02-14 Sarcos Lc Coordinated robotic control
DE102014204251A1 (de) 2014-03-07 2015-09-10 Siemens Aktiengesellschaft Verfahren zu einer Interaktion zwischen einer Assistenzvorrichtung und einem medizinischen Gerät und/oder einem Bedienpersonal und/oder einem Patienten, Assistenzvorrichtung, Assistenzsystem, Einheit und System
DE102014206086A1 (de) 2014-03-31 2015-10-01 Robert Bosch Gmbh Verfahren zum Betreiben einer selbstbeweglichen mobilen Plattform
ES2746754T3 (es) * 2014-04-17 2020-03-06 Softbank Robotics Europe Robot humanoide con ruedas omnidireccionales basado en un controlador de posición y velocidad lineal predictivo
KR102325130B1 (ko) 2014-07-10 2021-11-12 에이비 엘렉트로룩스 로봇 청소 장치에서 측정 에러를 검출하는 방법
GB2529847B (en) * 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources
KR102271782B1 (ko) 2014-09-08 2021-06-30 에이비 엘렉트로룩스 로봇 진공 청소기
EP3190939B1 (en) 2014-09-08 2021-07-21 Aktiebolaget Electrolux Robotic vacuum cleaner
US9597807B2 (en) * 2014-10-24 2017-03-21 Hiwin Technologies Corp. Robot teaching device
US9701012B1 (en) * 2014-10-30 2017-07-11 Daniel Theobald Controlled interaction between a mobile robot and another entity
US9440351B2 (en) 2014-10-30 2016-09-13 International Business Machines Corporation Controlling the operations of a robotic device
US9914211B2 (en) 2014-11-25 2018-03-13 Synaptive Medical (Barbados) Inc. Hand-guided automated positioning device controller
EP3230814B1 (en) 2014-12-10 2021-02-17 Aktiebolaget Electrolux Using laser sensor for floor type detection
EP3229983B1 (en) 2014-12-12 2019-02-20 Aktiebolaget Electrolux Side brush and robotic cleaner
EP3234714B1 (en) 2014-12-16 2021-05-12 Aktiebolaget Electrolux Experience-based roadmap for a robotic cleaning device
US10678251B2 (en) 2014-12-16 2020-06-09 Aktiebolaget Electrolux Cleaning method for a robotic cleaning device
US10518407B2 (en) 2015-01-06 2019-12-31 Discovery Robotics Apparatus and methods for providing a reconfigurable robotic platform
US10328573B2 (en) * 2015-01-06 2019-06-25 Discovery Robotics Robotic platform with teach-repeat mode
US11400595B2 (en) 2015-01-06 2022-08-02 Nexus Robotics Llc Robotic platform with area cleaning mode
JP6690265B2 (ja) * 2015-03-19 2020-04-28 株式会社デンソーウェーブ ロボット操作装置、ロボット操作方法
US9625582B2 (en) * 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
US9880263B2 (en) * 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
KR102343513B1 (ko) 2015-04-17 2021-12-28 에이비 엘렉트로룩스 로봇 청소 장치 및 로봇 청소 장치의 제어 방법
US9594377B1 (en) * 2015-05-12 2017-03-14 Google Inc. Auto-height swing adjustment
US9505140B1 (en) 2015-06-02 2016-11-29 Irobot Corporation Contact sensors for a mobile robot
US10071303B2 (en) 2015-08-26 2018-09-11 Malibu Innovations, LLC Mobilized cooler device with fork hanger assembly
US10880470B2 (en) * 2015-08-27 2020-12-29 Accel Robotics Corporation Robotic camera system
GB2541884A (en) * 2015-08-28 2017-03-08 Imp College Of Science Tech And Medicine Mapping a space using a multi-directional camera
US9789610B1 (en) 2015-09-02 2017-10-17 X Development Llc Safe path planning for collaborative robots
KR102445064B1 (ko) 2015-09-03 2022-09-19 에이비 엘렉트로룩스 로봇 청소 장치의 시스템
US10016897B2 (en) * 2015-09-14 2018-07-10 OneMarket Network LLC Robotic systems and methods in prediction and presentation of resource availability
JP2017064862A (ja) * 2015-09-30 2017-04-06 シャープ株式会社 ロボット装置
CN105549588A (zh) * 2015-12-10 2016-05-04 上海电机学院 一种多功能导视机器人
JP6528280B2 (ja) * 2015-12-28 2019-06-12 株式会社エクォス・リサーチ 移動体
US9776323B2 (en) * 2016-01-06 2017-10-03 Disney Enterprises, Inc. Trained human-intention classifier for safe and efficient robot navigation
JP6695146B2 (ja) * 2016-01-07 2020-05-20 シャープ株式会社 自律走行車両
CN108603935A (zh) 2016-03-15 2018-09-28 伊莱克斯公司 机器人清洁设备以及机器人清洁设备进行陡壁检测的方法
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
EP3430880B1 (en) * 2016-03-17 2020-09-02 Honda Motor Co., Ltd. Unmanned traveling work vehicle
US10019566B1 (en) * 2016-04-14 2018-07-10 X Development Llc Authorizing robot use and/or adapting physical control parameters for a robot
JP2017200790A (ja) * 2016-05-02 2017-11-09 シャープ株式会社 自律走行車両
CA3023107A1 (en) 2016-05-06 2017-11-09 Mtd Products Inc Autonomous mower navigation system and method
WO2017194102A1 (en) 2016-05-11 2017-11-16 Aktiebolaget Electrolux Robotic cleaning device
US10807659B2 (en) 2016-05-27 2020-10-20 Joseph L. Pikulski Motorized platforms
US11212437B2 (en) * 2016-06-06 2021-12-28 Bryan COLIN Immersive capture and review
USD849813S1 (en) * 2016-07-13 2019-05-28 Crosswing Inc. Mobile robot
USD869108S1 (en) 2016-07-14 2019-12-03 Discovery Robotics Robot comprising a service module
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
KR102577571B1 (ko) * 2016-08-03 2023-09-14 삼성전자주식회사 로봇 장치 및 로봇 장치의 감정 표현 방법
WO2018033839A1 (en) * 2016-08-16 2018-02-22 Santos Paiva Ferraz Da Conceicao Marta Isabel Interactive modular robot
CN106541413B (zh) * 2016-10-12 2018-11-02 浙江大学 基于Arduino平台和机器视觉模块的水下机器人控制系统
JP2020500385A (ja) * 2016-10-20 2020-01-09 ロボ−チーム ホーム リミテッド 人間追跡ロボット
JP6348947B2 (ja) * 2016-11-07 2018-06-27 オリンパス株式会社 移動撮影装置、移動撮影指示装置、撮影機器、移動撮影システム、移動撮影方法及び移動撮影指示方法
CA171589S (en) * 2016-11-15 2017-08-04 Crosswing Inc Security robot
US10449671B2 (en) * 2017-04-04 2019-10-22 Toyota Research Institute, Inc. Methods and systems for providing robotic operation constraints for remote controllable robots
US10690466B2 (en) 2017-04-19 2020-06-23 Global Tel*Link Corporation Mobile correctional facility robots
US10949940B2 (en) * 2017-04-19 2021-03-16 Global Tel*Link Corporation Mobile correctional facility robots
FR3066131B1 (fr) * 2017-05-15 2019-06-14 Fogale Nanotech Robot dote d'une detection capacitive
JP7243967B2 (ja) 2017-06-02 2023-03-22 アクチエボラゲット エレクトロルックス ロボット清掃デバイスの前方の表面のレベル差を検出する方法
USD839940S1 (en) * 2017-06-06 2019-02-05 College of the Holy and Undivided Trinity Robot neck
USD859485S1 (en) * 2017-06-23 2019-09-10 Crosswing Inc. Retail and security robot
USD829250S1 (en) * 2017-07-17 2018-09-25 Robo-Team Home Ltd Robot
USD829252S1 (en) * 2017-07-28 2018-09-25 Engineering Services Inc. Robot
USD829251S1 (en) * 2017-07-28 2018-09-25 Engineering Services Inc. Robot head
USD829793S1 (en) * 2017-07-28 2018-10-02 Engineering Services Inc. Robot
JP6936081B2 (ja) * 2017-08-30 2021-09-15 パナソニック株式会社 ロボット
US10898999B1 (en) * 2017-09-18 2021-01-26 X Development Llc Selective human-robot interaction
WO2019063066A1 (en) * 2017-09-26 2019-04-04 Aktiebolaget Electrolux CONTROL FOR MOVING A ROBOTIC CLEANING DEVICE
TWI652619B (zh) * 2017-10-26 2019-03-01 隆宸星股份有限公司 應用於智慧型機器人的開機系統及其開機方法
US11648485B2 (en) 2017-12-19 2023-05-16 Learning Resources, Inc. Toy robot
US10821602B2 (en) 2017-12-28 2020-11-03 Aeolus Robotics Corporation Limited Carrier for robot and robot having the same
US20200348324A1 (en) * 2018-01-09 2020-11-05 Formulatrix, Inc. Rover-based integrated laboratory system including autonomous mobile robots
CA3092261A1 (en) * 2018-03-01 2019-09-06 The Governing Council Of The University Of Toronto Method of calibrating a mobile manipulator
USD897385S1 (en) * 2018-04-28 2020-09-29 Beijing Jingdong Shangke Information Tech. Co. Ltd Robot
KR20190141303A (ko) * 2018-06-14 2019-12-24 엘지전자 주식회사 이동 로봇의 동작 방법
CN108922808B (zh) * 2018-07-10 2023-07-18 深圳市优必选科技有限公司 机器人及其触摸按键结构
TWD200891S (zh) * 2018-12-27 2019-11-11 威強電工業電腦股份有限公司 陪伴機器人
USD897389S1 (en) * 2018-12-27 2020-09-29 Iei Integration Corp. Accompany robot
USD897387S1 (en) * 2018-12-27 2020-09-29 Iei Integration Corp. Accompany robot
USD897388S1 (en) * 2018-12-27 2020-09-29 Iei Integration Corp. Accompany robot
KR102288640B1 (ko) * 2019-01-02 2021-08-11 엘지전자 주식회사 이동 로봇
WO2020159238A1 (ko) * 2019-02-01 2020-08-06 (주)에바 전동 카트
US11279042B2 (en) * 2019-03-12 2022-03-22 Bear Robotics, Inc. Robots for serving food and/or drinks
WO2020230929A1 (ko) * 2019-05-15 2020-11-19 엘지전자 주식회사 로봇
KR102288658B1 (ko) * 2019-05-15 2021-08-11 엘지전자 주식회사 로봇 및 그의 제어 방법
USD894987S1 (en) * 2019-06-14 2020-09-01 Bear Robotics Korea, Inc. Robot
US10966897B2 (en) 2019-07-02 2021-04-06 Mike Bankowski Automated walker assembly
JP7226237B2 (ja) * 2019-10-15 2023-02-21 トヨタ自動車株式会社 映像表示装置
CN111413963B (zh) * 2020-02-20 2021-10-15 上海交通大学 多功能机器人自主配送方法及系统
US11918519B2 (en) * 2020-03-19 2024-03-05 Verb Surgical Inc. Systems and methods for moving a surgical table
JP7460415B2 (ja) * 2020-03-26 2024-04-02 株式会社タダノ ガイド表示システムおよびこれを備えたクレーン
JP2021171904A (ja) * 2020-04-30 2021-11-01 東京ロボティクス株式会社 移動ロボット、移動ロボットの制御方法、及び制御プログラム
JP2021171905A (ja) * 2020-04-30 2021-11-01 東京ロボティクス株式会社 ロボット制御装置、方法、及びプログラム
CN111823214A (zh) * 2020-07-22 2020-10-27 中信重工开诚智能装备有限公司 一种自动调整夹紧力的轨道巡检机器人驱动装置
CN112859662A (zh) * 2020-08-11 2021-05-28 广东中汇移动实验室检测技术有限公司 一种实验室物联网检测系统
CN115079684A (zh) * 2021-03-15 2022-09-20 华为技术有限公司 一种机器人的反馈方法及机器人
WO2022195839A1 (ja) * 2021-03-19 2022-09-22 本田技研工業株式会社 ロボット
KR20220165948A (ko) * 2021-06-09 2022-12-16 주식회사 버넥트 원격 협업 방법 및 그 시스템
CN114441807B (zh) * 2021-07-22 2023-07-07 荣耀终端有限公司 一种接线方法及系统
JP2023092695A (ja) * 2021-12-22 2023-07-04 東京ロボティクス株式会社 ロボット、並びにその制御方法及び制御プログラム
JP2023092691A (ja) * 2021-12-22 2023-07-04 東京ロボティクス株式会社 ロボット、並びにその制御方法及び制御プログラム
CN114536349A (zh) * 2022-04-12 2022-05-27 武汉湾流科技股份有限公司 一种工业机器人自动探测避障控制方法
US20240176348A1 (en) * 2022-11-30 2024-05-30 Earthsense Inc. System and method for autonomous navigation of a field robot

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4223753A (en) * 1977-12-19 1980-09-23 Bradbury Harold M Omni-directional transport device
JPS622987A (ja) * 1985-06-28 1987-01-08 株式会社タイト− 催事用ロボツト装置
US5213176A (en) * 1989-12-08 1993-05-25 Hitachi, Ltd. Self-propelled vehicle
JPH06178293A (ja) * 1992-12-01 1994-06-24 Canon Inc 情報処理装置
JP2001198868A (ja) * 2000-01-17 2001-07-24 Atr Media Integration & Communications Res Lab サイバー漫才用ロボットおよび支援装置
JP2002046088A (ja) * 2000-08-03 2002-02-12 Matsushita Electric Ind Co Ltd ロボット装置
JP2002144278A (ja) * 2000-11-13 2002-05-21 Honda Motor Co Ltd 脚式移動ロボット
JP2003009108A (ja) * 2001-06-26 2003-01-10 Minolta Co Ltd 画像通信システム、画像通信装置、および画像通信方法
US20040179714A1 (en) * 2003-03-11 2004-09-16 Jouppi Norman Paul Telepresence system with simultaneous automatic preservation of user height, perspective, and vertical gaze
US20050216126A1 (en) * 2004-03-27 2005-09-29 Vision Robotics Corporation Autonomous personal service robot
JP2006508806A (ja) * 2002-07-25 2006-03-16 インタッチ−ヘルス・インコーポレーテッド 医療用遠隔操作ロボット・システム
JP2007038406A (ja) * 2002-05-17 2007-02-15 Victor Co Of Japan Ltd 移動ロボット
JP2007320033A (ja) * 2007-08-29 2007-12-13 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2008260117A (ja) * 2007-03-16 2008-10-30 Nsk Ltd 脚車輪型ロボット及び脚車輪装置
JP2009509673A (ja) * 2005-09-30 2009-03-12 アイロボット コーポレーション 個人の相互交流のためのコンパニオンロボット
JP2009090404A (ja) * 2007-10-05 2009-04-30 Ihi Corp 移動ロボットの姿勢制御装置及び方法
JP2009113190A (ja) * 2007-11-09 2009-05-28 Toyota Motor Corp 自律動作型ロボットおよび自律動作型ロボットの動作制御方法

Family Cites Families (396)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4413693A (en) 1981-03-27 1983-11-08 Derby Sherwin L Mobile chair
US5148591A (en) 1981-05-11 1992-09-22 Sensor Adaptive Machines, Inc. Vision target based assembly
DE3372942D1 (en) 1982-09-25 1987-09-17 Fujitsu Ltd A multi-articulated robot
JPS60121480U (ja) 1984-01-19 1985-08-16 株式会社アマダ レーザ加工装置における材料位置決め装置
US4638445A (en) 1984-06-08 1987-01-20 Mattaboni Paul J Autonomous mobile robot
JPH0246088Y2 (ja) 1984-08-13 1990-12-05
JPS6180410A (ja) 1984-09-28 1986-04-24 Yutaka Kanayama 移動ロボツトの走行指令方式
JPS61111863A (ja) 1984-11-05 1986-05-29 Nissan Motor Co Ltd ロボットによる組立装置
JPH02574Y2 (ja) 1984-11-21 1990-01-09
US4709265A (en) 1985-10-15 1987-11-24 Advanced Resource Development Corporation Remote control mobile surveillance system
US4777416A (en) 1986-05-16 1988-10-11 Denning Mobile Robotics, Inc. Recharge docking system for mobile robot
US4751658A (en) 1986-05-16 1988-06-14 Denning Mobile Robotics, Inc. Obstacle avoidance system
SE455539B (sv) 1986-05-23 1988-07-18 Electrolux Ab Elektrooptiskt positionskennande system for ett i plan rorligt foremal, foretredesvis en mobil robot
US4803625A (en) 1986-06-30 1989-02-07 Buddy Systems, Inc. Personal health monitor
JPH0528066Y2 (ja) 1986-12-18 1993-07-19
US4847764C1 (en) 1987-05-21 2001-09-11 Meditrol Inc System for dispensing drugs in health care instituions
JPH01198865A (ja) 1987-08-13 1989-08-10 Ricoh Co Ltd 画像処理装置
JPH0191834A (ja) 1987-08-20 1989-04-11 Tsuruta Hiroko 個人医療データの集中管理装置
JPH01125641A (ja) 1987-11-11 1989-05-18 Hitachi Ltd バッファメモリ制御方式
JPH01147718A (ja) 1987-12-04 1989-06-09 Agency Of Ind Science & Technol 記憶装置
US4942538A (en) 1988-01-05 1990-07-17 Spar Aerospace Limited Telerobotic tracker
US5193143A (en) 1988-01-12 1993-03-09 Honeywell Inc. Problem state monitoring
JPH01198868A (ja) 1988-02-03 1989-08-10 Nec Corp ファクシミリ復号化回路
US4979949A (en) 1988-04-26 1990-12-25 The Board Of Regents Of The University Of Washington Robot-aided system for surgery
US5142484A (en) 1988-05-12 1992-08-25 Health Tech Services Corporation An interactive patient assistance device for storing and dispensing prescribed medication and physical device
JPH01179663U (ja) 1988-06-08 1989-12-22
US5008804A (en) 1988-06-23 1991-04-16 Total Spectrum Manufacturing Inc. Robotic television-camera dolly system
US5040116A (en) 1988-09-06 1991-08-13 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
US5157491A (en) 1988-10-17 1992-10-20 Kassatly L Samuel A Method and apparatus for video broadcasting and teleconferencing
US5155684A (en) 1988-10-25 1992-10-13 Tennant Company Guiding an unmanned vehicle by reference to overhead features
JPH01199356A (ja) 1988-12-26 1989-08-10 Clarion Co Ltd ローディングイジェクト機構
US4953159A (en) 1989-01-03 1990-08-28 American Telephone And Telegraph Company Audiographics conferencing arrangement
US5016173A (en) 1989-04-13 1991-05-14 Vanguard Imaging Ltd. Apparatus and method for monitoring visually accessible surfaces of the body
US5006988A (en) 1989-04-28 1991-04-09 University Of Michigan Obstacle-avoiding navigation system
US4977971A (en) 1989-05-17 1990-12-18 University Of Florida Hybrid robotic vehicle
JP2530911B2 (ja) 1989-05-19 1996-09-04 キヤノン株式会社 シ―ト搬送装置
US5224157A (en) 1989-05-22 1993-06-29 Minolta Camera Kabushiki Kaisha Management system for managing maintenance information of image forming apparatus
US5051906A (en) 1989-06-07 1991-09-24 Transitions Research Corporation Mobile robot navigation employing retroreflective ceiling features
JP3002206B2 (ja) 1989-06-22 2000-01-24 神鋼電機株式会社 移動ロボットの走行制御方法
US5084828A (en) 1989-09-29 1992-01-28 Healthtech Services Corp. Interactive medication delivery system
US5130794A (en) 1990-03-29 1992-07-14 Ritchey Kurtis J Panoramic display system
JP2921936B2 (ja) 1990-07-13 1999-07-19 株式会社東芝 画像監視装置
US6958706B2 (en) 1990-07-27 2005-10-25 Hill-Rom Services, Inc. Patient care and communication system
JP3023000B2 (ja) 1991-02-15 2000-03-21 株式会社アイジー技術研究所 目地材
US5217453A (en) 1991-03-18 1993-06-08 Wilk Peter J Automated surgical system and apparatus
DE4291016T1 (ja) 1991-04-22 1993-05-13 Evans & Sutherland Computer Corp., Salt Lake City, Utah, Us
US5231693A (en) 1991-05-09 1993-07-27 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Telerobot control system
US5341459A (en) 1991-05-09 1994-08-23 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Generalized compliant motion primitive
US7382399B1 (en) 1991-05-13 2008-06-03 Sony Coporation Omniview motionless camera orientation system
US5417210A (en) 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
US5366896A (en) 1991-07-30 1994-11-22 University Of Virginia Alumni Patents Foundation Robotically operated laboratory system
IL99420A (en) 1991-09-05 2000-12-06 Elbit Systems Ltd Helmet mounted display
WO1993006690A1 (en) 1991-09-17 1993-04-01 Radamec Epo Limited Setting-up system for remotely controlled cameras
US5631973A (en) 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
DE69332914T2 (de) 1992-01-21 2004-02-26 Sri International, Menlo Park Chirurgisches System
US5544649A (en) 1992-03-25 1996-08-13 Cardiomedix, Inc. Ambulatory patient health monitoring techniques utilizing interactive visual communication
US5441047A (en) 1992-03-25 1995-08-15 David; Daniel Ambulatory patient health monitoring techniques utilizing interactive visual communication
US5594859A (en) 1992-06-03 1997-01-14 Digital Equipment Corporation Graphical user interface for video teleconferencing
US5762458A (en) 1996-02-20 1998-06-09 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
US5372211A (en) 1992-10-01 1994-12-13 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Method for surmounting an obstacle by a robot vehicle
US5374879A (en) 1992-11-04 1994-12-20 Martin Marietta Energy Systems, Inc. Omni-directional and holonomic rolling platform with decoupled rotational and translational degrees of freedom
US5315287A (en) 1993-01-13 1994-05-24 David Sol Energy monitoring system for recreational vehicles and marine vessels
US5319611A (en) 1993-03-31 1994-06-07 National Research Council Of Canada Method of determining range data in a time-of-flight ranging system
US5350033A (en) 1993-04-26 1994-09-27 Kraft Brett W Robotic inspection vehicle
US5876325A (en) 1993-11-02 1999-03-02 Olympus Optical Co., Ltd. Surgical manipulation system
GB2284968A (en) 1993-12-18 1995-06-21 Ibm Audio conferencing system
US5436542A (en) 1994-01-28 1995-07-25 Surgix, Inc. Telescopic camera mount with remotely controlled positioning
JPH07213753A (ja) 1994-02-02 1995-08-15 Hitachi Ltd パーソナルロボット装置
DE4408329C2 (de) 1994-03-11 1996-04-18 Siemens Ag Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert
JPH07248823A (ja) 1994-03-11 1995-09-26 Hitachi Ltd パーソナルロボット装置
JPH07257422A (ja) 1994-03-19 1995-10-09 Hideaki Maehara 全方位駆動輪並びにこれを備えた全方位走行車両
US5784546A (en) 1994-05-12 1998-07-21 Integrated Virtual Networks Integrated virtual networks
JPH0811074A (ja) 1994-06-29 1996-01-16 Fanuc Ltd ロボットシステム
US5462051A (en) 1994-08-31 1995-10-31 Colin Corporation Medical communication system
JP3302188B2 (ja) 1994-09-13 2002-07-15 日本電信電話株式会社 テレイグジスタンス型テレビ電話装置
US6463361B1 (en) 1994-09-22 2002-10-08 Computer Motion, Inc. Speech interface for an automated endoscopic system
US5767897A (en) 1994-10-31 1998-06-16 Picturetel Corporation Video conferencing system
JPH08139900A (ja) 1994-11-14 1996-05-31 Canon Inc 画像通信装置
JP2726630B2 (ja) 1994-12-07 1998-03-11 インターナショナル・ビジネス・マシーンズ・コーポレイション ゲートウェイ装置及びゲートウェイ方法
US20020195548A1 (en) 2001-06-06 2002-12-26 Dowski Edward Raymond Wavefront coding interference contrast imaging systems
US5553609A (en) 1995-02-09 1996-09-10 Visiting Nurse Service, Inc. Intelligent remote visual monitoring system for home health care service
JP2947113B2 (ja) 1995-03-09 1999-09-13 日本電気株式会社 画像通信端末用ユーザインタフェース装置
US5652849A (en) 1995-03-16 1997-07-29 Regents Of The University Of Michigan Apparatus and method for remote control using a visual information stream
JP3241564B2 (ja) 1995-05-10 2001-12-25 富士通株式会社 通常車輪型全方向移動ロボットの運動制御のための制御装置および方法
JPH08320727A (ja) 1995-05-24 1996-12-03 Shinko Electric Co Ltd 移動装置
JPH08335112A (ja) 1995-06-08 1996-12-17 Minolta Co Ltd 移動作業ロボットシステム
US5825982A (en) 1995-09-15 1998-10-20 Wright; James Head cursor control interface for an automated endoscope system for optimal positioning
US6710797B1 (en) 1995-09-20 2004-03-23 Videotronic Systems Adaptable teleconferencing eye contact terminal
US5797515A (en) 1995-10-18 1998-08-25 Adds, Inc. Method for controlling a drug dispensing system
US20010034475A1 (en) 1995-11-13 2001-10-25 Flach Terry E. Wireless lan system with cellular architecture
WO1997023094A1 (en) 1995-12-18 1997-06-26 Bell Communications Research, Inc. Head mounted displays linked to networked electronic panning cameras
US5701904A (en) 1996-01-11 1997-12-30 Krug International Telemedicine instrumentation pack
US5624398A (en) 1996-02-08 1997-04-29 Symbiosis Corporation Endoscopic robotic surgical tools and methods
US5682199A (en) 1996-03-28 1997-10-28 Jedmed Instrument Company Video endoscope with interchangeable endoscope heads
JP3601737B2 (ja) 1996-03-30 2004-12-15 技術研究組合医療福祉機器研究所 搬送ロボットシステム
US5867653A (en) 1996-04-18 1999-02-02 International Business Machines Corporation Method and apparatus for multi-cast based video conferencing
WO1997039715A1 (en) 1996-04-25 1997-10-30 Massachusetts Institute Of Technology Human transport system with dead reckoning facilitating docking
US6496099B2 (en) 1996-06-24 2002-12-17 Computer Motion, Inc. General purpose distributed operating room control system
US5949758A (en) 1996-06-27 1999-09-07 International Business Machines Corporation Bandwidth reservation for multiple file transfer in a high speed communication network
JPH1064154A (ja) 1996-08-19 1998-03-06 Nippon Columbia Co Ltd ディスク再生装置
JPH1079097A (ja) 1996-09-04 1998-03-24 Toyota Motor Corp 移動体通信方法
US5974446A (en) 1996-10-24 1999-10-26 Academy Of Applied Science Internet based distance learning system for communicating between server and clients wherein clients communicate with each other or with teacher using different communication techniques via common user interface
US6646677B2 (en) 1996-10-25 2003-11-11 Canon Kabushiki Kaisha Image sensing control method and apparatus, image transmission control method, apparatus, and system, and storage means storing program that implements the method
US5917958A (en) 1996-10-31 1999-06-29 Sensormatic Electronics Corporation Distributed video data base with remote searching for image data features
JP3749323B2 (ja) 1996-11-13 2006-02-22 富士通株式会社 移動装置
US6331181B1 (en) 1998-12-08 2001-12-18 Intuitive Surgical, Inc. Surgical robotic tools, data architecture, and use
US6148100A (en) 1996-12-20 2000-11-14 Bechtel Bwxt Idaho, Llc 3-dimensional telepresence system for a robotic environment
US5886735A (en) 1997-01-14 1999-03-23 Bullister; Edward T Video telephone headset
JPH10246954A (ja) 1997-03-04 1998-09-14 Fuji Photo Film Co Ltd 光重合性組成物
US5927423A (en) 1997-03-05 1999-07-27 Massachusetts Institute Of Technology Reconfigurable footprint mechanism for omnidirectional vehicles
US6501740B1 (en) 1997-03-07 2002-12-31 At&T Corp. System and method for teleconferencing on an internetwork comprising connection-oriented and connectionless networks
WO1998042407A1 (en) 1997-03-27 1998-10-01 Medtronic, Inc. Concepts to implement medconnect
JPH10288689A (ja) 1997-04-14 1998-10-27 Hitachi Ltd 遠隔監視システム
US20040157612A1 (en) 1997-04-25 2004-08-12 Minerva Industries, Inc. Mobile communication and stethoscope system
US6914622B1 (en) 1997-05-07 2005-07-05 Telbotics Inc. Teleconferencing robot with swiveling video monitor
AU7420398A (en) 1997-05-07 1998-11-27 Ryerson Polytechnic University Teleconferencing robot with swiveling video monitor
US6330486B1 (en) 1997-07-16 2001-12-11 Silicon Graphics, Inc. Acoustic perspective in a virtual three-dimensional environment
JPH11126017A (ja) 1997-08-22 1999-05-11 Sony Corp 記憶媒体、ロボット、情報処理装置、並びに電子ペットシステム
AU9223298A (en) 1997-09-04 1999-03-22 Dynalog, Inc. Method for calibration of a robot inspection system
US6714839B2 (en) 1998-12-08 2004-03-30 Intuitive Surgical, Inc. Master having redundant degrees of freedom
JPH11112965A (ja) * 1997-09-30 1999-04-23 Omron Corp 移動体の観測装置
US6209018B1 (en) 1997-11-13 2001-03-27 Sun Microsystems, Inc. Service framework for a distributed object network system
JPH11149315A (ja) * 1997-11-19 1999-06-02 Mitsubishi Heavy Ind Ltd ロボット制御システム
US6532404B2 (en) 1997-11-27 2003-03-11 Colens Andre Mobile robots and their control system
AU1827699A (en) 1997-12-16 1999-07-05 Board Of Trustees Of Michigan State University Spherical mobile robot
US6563533B1 (en) 1998-01-06 2003-05-13 Sony Corporation Ergonomically designed apparatus for selectively actuating remote robotics cameras
US6346962B1 (en) 1998-02-27 2002-02-12 International Business Machines Corporation Control of video conferencing system with pointing device
US6650748B1 (en) 1998-04-13 2003-11-18 Avaya Technology Corp. Multiple call handling in a call center
US6233504B1 (en) 1998-04-16 2001-05-15 California Institute Of Technology Tool actuation and force feedback on robot-assisted microsurgery system
US6529765B1 (en) 1998-04-21 2003-03-04 Neutar L.L.C. Instrumented and actuated guidance fixture for sterotactic surgery
US6219587B1 (en) 1998-05-27 2001-04-17 Nextrx Corporation Automated pharmaceutical management and dispensing system
KR100617525B1 (ko) 1998-06-23 2006-09-04 소니 가부시끼 가이샤 로봇장치 및 정보처리시스템
US6452915B1 (en) 1998-07-10 2002-09-17 Malibu Networks, Inc. IP-flow classification in a wireless point to multi-point (PTMP) transmission system
US6266577B1 (en) 1998-07-13 2001-07-24 Gte Internetworking Incorporated System for dynamically reconfigure wireless robot network
US6175779B1 (en) 1998-09-29 2001-01-16 J. Todd Barrett Computerized unit dose medication dispensing cart
US6852107B2 (en) 2002-01-16 2005-02-08 Computer Motion, Inc. Minimally invasive surgical training using robotics and tele-collaboration
US6468265B1 (en) 1998-11-20 2002-10-22 Intuitive Surgical, Inc. Performing cardiac surgery without cardioplegia
US6951535B2 (en) 2002-01-16 2005-10-04 Intuitive Surgical, Inc. Tele-medicine system that transmits an entire state of a subsystem
US6232735B1 (en) 1998-11-24 2001-05-15 Thames Co., Ltd. Robot remote control system and robot image remote control processing system
US6170929B1 (en) 1998-12-02 2001-01-09 Ronald H. Wilson Automated medication-dispensing cart
US6535182B2 (en) 1998-12-07 2003-03-18 Koninklijke Philips Electronics N.V. Head-mounted projection display system
ATE460127T1 (de) 1998-12-08 2010-03-15 Intuitive Surgical Inc Telerobot zum verschieben von bildern
US6522906B1 (en) 1998-12-08 2003-02-18 Intuitive Surgical, Inc. Devices and methods for presenting and regulating auxiliary information on an image display of a telesurgical system to assist an operator in performing a surgical procedure
US6799065B1 (en) 1998-12-08 2004-09-28 Intuitive Surgical, Inc. Image shifting apparatus and method for a telerobotic system
JP3980205B2 (ja) 1998-12-17 2007-09-26 コニカミノルタホールディングス株式会社 作業ロボット
US6259956B1 (en) 1999-01-14 2001-07-10 Rawl & Winstead, Inc. Method and apparatus for site management
US6463352B1 (en) 1999-01-21 2002-10-08 Amada Cutting Technologies, Inc. System for management of cutting machines
US6338013B1 (en) 1999-03-19 2002-01-08 Bryan John Ruffner Multifunctional mobile appliance
EP1166222A2 (en) 1999-04-01 2002-01-02 ACIST Medical Systems, Inc. An integrated medical information management and medical device control system and method
JP2000289985A (ja) 1999-04-05 2000-10-17 Furukawa Co Ltd フック格納機構付きクレーンの巻過検出装置
US6424885B1 (en) 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
US6323942B1 (en) 1999-04-30 2001-11-27 Canesta, Inc. CMOS-compatible three-dimensional image sensor IC
US6292713B1 (en) 1999-05-20 2001-09-18 Compaq Computer Corporation Robotic telepresence system
US6781606B2 (en) 1999-05-20 2004-08-24 Hewlett-Packard Development Company, L.P. System and method for displaying images using foveal video
US6346950B1 (en) 1999-05-20 2002-02-12 Compaq Computer Corporation System and method for display images using anamorphic video
US6523629B1 (en) 1999-06-07 2003-02-25 Sandia Corporation Tandem mobile robot system
US7256708B2 (en) 1999-06-23 2007-08-14 Visicu, Inc. Telecommunications network for remote patient monitoring
US6804656B1 (en) 1999-06-23 2004-10-12 Visicu, Inc. System and method for providing continuous, expert network critical care services from a remote location(s)
US6304050B1 (en) 1999-07-19 2001-10-16 Steven B. Skaar Means and method of robot control relative to an arbitrary surface using camera-space manipulation
US6540039B1 (en) 1999-08-19 2003-04-01 Massachusetts Institute Of Technology Omnidirectional vehicle with offset wheel pairs
EP1091273B1 (fr) 1999-08-31 2005-10-05 Swisscom AG Robot mobile et procédé de commande d'un robot mobile
US6810411B1 (en) 1999-09-13 2004-10-26 Intel Corporation Method and system for selecting a host in a communications network
DE60035651T2 (de) 1999-09-16 2008-05-21 Fanuc Ltd. Steuerungssystem zum synchronen kooperativen Betreiben einer Mehrzahl von Robotern
JP4207336B2 (ja) 1999-10-29 2009-01-14 ソニー株式会社 移動ロボットのための充電システム、充電ステーションを探索する方法、移動ロボット、コネクタ、及び、電気的接続構造
JP2001134309A (ja) 1999-11-09 2001-05-18 Mitsubishi Electric Corp ロボットの操作端末およびロボットの遠隔操作システム
JP2001142512A (ja) 1999-11-16 2001-05-25 Mitsubishi Electric Corp ロボットの遠隔操作システム
US6374155B1 (en) 1999-11-24 2002-04-16 Personal Robotics, Inc. Autonomous multi-platform robot system
US7156809B2 (en) 1999-12-17 2007-01-02 Q-Tec Systems Llc Method and apparatus for health and disease management combining patient data monitoring with wireless internet connectivity
US20010051881A1 (en) 1999-12-22 2001-12-13 Aaron G. Filler System, method and article of manufacture for managing a medical services network
WO2001045627A1 (en) 1999-12-23 2001-06-28 Hill-Rom Services, Inc. Surgical theater system
JP3791663B2 (ja) 2000-01-17 2006-06-28 富士電機ホールディングス株式会社 全方向移動車両とその制御方法
JP2001222309A (ja) 2000-02-10 2001-08-17 Yaskawa Electric Corp ロボット制御装置
JP2001252884A (ja) 2000-03-06 2001-09-18 Matsushita Electric Ind Co Ltd ロボット、ロボットシステムおよびロボットの制御方法
US20010054071A1 (en) 2000-03-10 2001-12-20 Loeb Gerald E. Audio/video conference system for electronic caregiving
US6369847B1 (en) 2000-03-17 2002-04-09 Emtel, Inc. Emergency facility video-conferencing system
JP3511088B2 (ja) 2000-04-10 2004-03-29 独立行政法人航空宇宙技術研究所 多関節介護ロボット制御用の圧力分布センサ
US6845297B2 (en) 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
EP2363775A1 (en) * 2000-05-01 2011-09-07 iRobot Corporation Method and system for remote control of mobile robot
WO2001090919A2 (en) 2000-05-24 2001-11-29 Virtual Clinic, Inc. Method and apparatus for providing personalized services
US7215786B2 (en) 2000-06-09 2007-05-08 Japan Science And Technology Agency Robot acoustic device and robot acoustic system
US6539284B2 (en) * 2000-07-25 2003-03-25 Axonn Robotics, Llc Socially interactive autonomous robot
US6746443B1 (en) 2000-07-27 2004-06-08 Intuitive Surgical Inc. Roll-pitch-roll surgical tool
US8751248B2 (en) 2000-07-28 2014-06-10 Visual Telecommunications Network, Inc. Method, apparatus, and medium using a master control file for computer software interoperability between disparate operating systems
US20020027597A1 (en) 2000-09-05 2002-03-07 John Sachau System for mobile videoconferencing
US20070273751A1 (en) 2000-09-05 2007-11-29 Sachau John A System and methods for mobile videoconferencing
JP2002085305A (ja) 2000-09-12 2002-03-26 Toshiba Tec Corp ロボットクリーナ及びロボットクリーナシステム
US6741911B2 (en) 2000-09-20 2004-05-25 John Castle Simmons Natural robot control
AU2001296925A1 (en) 2000-09-28 2002-04-08 Vigilos, Inc. Method and process for configuring a premises for monitoring
US20030060808A1 (en) 2000-10-04 2003-03-27 Wilk Peter J. Telemedical method and system
US20020082498A1 (en) 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
JP2002113675A (ja) 2000-10-11 2002-04-16 Sony Corp ロボット制御システム並びにロボット制御用ソフトウェアの導入方法
AU2002211598A1 (en) 2000-10-16 2002-04-29 Cardionow, Inc. Medical image capture system and method
US6636780B1 (en) 2000-11-07 2003-10-21 Mdg Medical Inc. Medication dispensing system including medicine cabinet and tray therefor
US6515740B2 (en) 2000-11-09 2003-02-04 Canesta, Inc. Methods for CMOS-compatible three-dimensional image sensing using quantum efficiency modulation
AU2002235158A1 (en) 2000-12-01 2002-06-11 Vigilos, Inc. System and method for processing video data utilizing motion detection and subdivided video fields
US6543899B2 (en) 2000-12-05 2003-04-08 Eastman Kodak Company Auto-stereoscopic viewing system using mounted projection
WO2002046901A1 (en) 2000-12-06 2002-06-13 Vigilos, Inc. System and method for implementing open-protocol remote device control
US6791550B2 (en) 2000-12-12 2004-09-14 Enounce, Inc. Management of presentation time in a digital media presentation system with variable rate presentation capability
KR20020061961A (ko) 2001-01-19 2002-07-25 사성동 지능형 애완로봇
JP2002342759A (ja) 2001-01-30 2002-11-29 Nec Corp 情報提供システム、情報提供方法、およびそのプログラム
US7184559B2 (en) 2001-02-23 2007-02-27 Hewlett-Packard Development Company, L.P. System and method for audio telepresence
EP1386472A4 (en) 2001-02-27 2009-05-27 Anthrotronix Inc ROBOTIC APPARATUS AND WIRELESS TELECOMMUNICATIONS SYSTEM
JP4739556B2 (ja) 2001-03-27 2011-08-03 株式会社安川電機 制御対象の遠隔調整及び異常判断装置
US6965394B2 (en) 2001-03-30 2005-11-15 Koninklijke Philips Electronics N.V. Remote camera control device
US20020143923A1 (en) 2001-04-03 2002-10-03 Vigilos, Inc. System and method for managing a device network
US6920373B2 (en) 2001-04-13 2005-07-19 Board Of Trusstees Operating Michigan State University Synchronization and task control of real-time internet based super-media
US20030199000A1 (en) 2001-08-20 2003-10-23 Valkirs Gunars E. Diagnostic markers of stroke and cerebral injury and methods of use thereof
KR100437372B1 (ko) 2001-04-18 2004-06-25 삼성광주전자 주식회사 이동통신망을 이용한 로봇 청소 시스템
US7206753B2 (en) * 2001-05-04 2007-04-17 Axxon Robotics, Llc Methods for facilitating a retail environment
US6723086B2 (en) 2001-05-07 2004-04-20 Logiq Wireless Solutions, Inc. Remote controlled transdermal medication delivery device
US7242306B2 (en) 2001-05-08 2007-07-10 Hill-Rom Services, Inc. Article locating and tracking apparatus and method
JP2002354551A (ja) 2001-05-25 2002-12-06 Mitsubishi Heavy Ind Ltd ロボットサービス提供方法およびロボットサービス提供システム
JP2002352354A (ja) 2001-05-30 2002-12-06 Denso Corp 遠隔介護方法
JP4291523B2 (ja) * 2001-05-30 2009-07-08 トヨタ自動車株式会社 コントロール装置及びその制御方法
US20020186243A1 (en) 2001-06-06 2002-12-12 Robert Ellis Method and system for providing combined video and physiological data over a communication network for patient monitoring
US6507773B2 (en) 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
US6995664B1 (en) 2001-06-20 2006-02-07 Jeffrey Darling Remote supervision system and method
US6604021B2 (en) * 2001-06-21 2003-08-05 Advanced Telecommunications Research Institute International Communication robot
NO20013450L (no) 2001-07-11 2003-01-13 Simsurgery As Systemer og fremgangsmåter for interaktiv trening av prosedyrer
US6580246B2 (en) 2001-08-13 2003-06-17 Steven Jacobs Robot touch shield
JP4689107B2 (ja) 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
US20030069752A1 (en) 2001-08-24 2003-04-10 Ledain Timon Remote health-monitoring system and method
US6728599B2 (en) 2001-09-07 2004-04-27 Computer Motion, Inc. Modularity system for computer assisted surgery
JP4378072B2 (ja) 2001-09-07 2009-12-02 キヤノン株式会社 電子機器、撮像装置、携帯通信機器、映像の表示制御方法及びプログラム
WO2003022142A2 (en) 2001-09-13 2003-03-20 The Boeing Company Method for transmitting vital health statistics to a remote location form an aircraft
US6840904B2 (en) 2001-10-11 2005-01-11 Jason Goldberg Medical monitoring device and system
JP2003136450A (ja) 2001-10-26 2003-05-14 Communication Research Laboratory 聴覚情報提示によるロボットアームの遠隔操作システム
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
US6785589B2 (en) 2001-11-30 2004-08-31 Mckesson Automation, Inc. Dispensing cabinet with unit dose dispensing drawer
US20050101841A9 (en) 2001-12-04 2005-05-12 Kimberly-Clark Worldwide, Inc. Healthcare networks with biosensors
US7539504B2 (en) 2001-12-05 2009-05-26 Espre Solutions, Inc. Wireless telepresence collaboration system
US6839612B2 (en) 2001-12-07 2005-01-04 Institute Surgical, Inc. Microwrist system for surgical procedures
US6784916B2 (en) 2002-02-11 2004-08-31 Telbotics Inc. Video conferencing apparatus
AU2003217587A1 (en) 2002-02-15 2003-09-09 Canesta, Inc. Gesture recognition system using depth perceptive sensors
JP2003241807A (ja) 2002-02-19 2003-08-29 Yaskawa Electric Corp ロボット制御装置
US7206627B2 (en) 2002-03-06 2007-04-17 Z-Kat, Inc. System and method for intra-operative haptic planning of a medical procedure
US6915871B2 (en) 2002-03-12 2005-07-12 Dan Gavish Method and apparatus for improving child safety and adult convenience while using a mobile ride-on toy
WO2003076984A1 (en) 2002-03-14 2003-09-18 Ramot At Tel Aviv University Ltd. All optical extended depth-of-field imaging system
US6769771B2 (en) 2002-03-14 2004-08-03 Entertainment Design Workshop, Llc Method and apparatus for producing dynamic imagery in a visual medium
JP3945279B2 (ja) 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
IL163540A0 (en) 2002-03-18 2005-12-18 Medic4All Ag Monitoring method and monitoring system for assessing physiological parameters of a subject
KR100483790B1 (ko) 2002-03-22 2005-04-20 한국과학기술연구원 마이크로 조립용 다자유도 원격조종 로봇 시스템
JP4032793B2 (ja) 2002-03-27 2008-01-16 ソニー株式会社 充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体
US7117067B2 (en) 2002-04-16 2006-10-03 Irobot Corporation System and methods for adaptive control of robotic devices
US20030231244A1 (en) 2002-04-22 2003-12-18 Bonilla Victor G. Method and system for manipulating a field of view of a video image from a remote vehicle
US20040172301A1 (en) 2002-04-30 2004-09-02 Mihai Dan M. Remote multi-purpose user interface for a healthcare system
JP4296278B2 (ja) 2002-05-07 2009-07-15 国立大学法人京都大学 医療用コクピットシステム
AU2003239555A1 (en) 2002-05-20 2003-12-12 Vigilos, Inc. System and method for providing data communication in a device network
AU2002304133A1 (en) 2002-05-31 2003-12-19 Fujitsu Limited Remotely-operated robot, and robot self position identifying method
US20030232649A1 (en) 2002-06-18 2003-12-18 Gizis Alexander C.M. Gaming system and method
US7593030B2 (en) 2002-07-25 2009-09-22 Intouch Technologies, Inc. Tele-robotic videoconferencing in a corporate environment
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
DE10234233A1 (de) 2002-07-27 2004-02-05 Kuka Roboter Gmbh Verfahren zum Austausch von Daten zwischen Steuerungen von Maschinen, insbesondere von Robotern
EP1388813A2 (en) 2002-08-09 2004-02-11 Matsushita Electric Industrial Co., Ltd. Apparatus and method for image watermarking
US6753899B2 (en) 2002-09-03 2004-06-22 Audisoft Method and apparatus for telepresence
WO2004025947A2 (en) 2002-09-13 2004-03-25 Irobot Corporation A navigational control system for a robotic device
US20040065073A1 (en) 2002-10-08 2004-04-08 Ingersoll-Rand Energy Systems Corporation Flexible recuperator mounting system
US7881658B2 (en) 2002-10-10 2011-02-01 Znl Enterprises, Llc Method and apparatus for entertainment and information services delivered via mobile telecommunication devices
US6804579B1 (en) 2002-10-16 2004-10-12 Abb, Inc. Robotic wash cell using recycled pure water
AU2003288947A1 (en) 2002-10-28 2004-05-25 The General Hospital Corporation Tissue disorder imaging analysis
US6920376B2 (en) 2002-10-31 2005-07-19 Hewlett-Packard Development Company, L.P. Mutually-immersive mobile telepresence system with user rotation and surrogate translation
US6879879B2 (en) 2002-10-31 2005-04-12 Hewlett-Packard Development Company, L.P. Telepresence system with automatic user-surrogate height matching
US20040093409A1 (en) 2002-11-07 2004-05-13 Vigilos, Inc. System and method for external event determination utilizing an integrated information system
KR100542340B1 (ko) 2002-11-18 2006-01-11 삼성전자주식회사 홈네트워크 시스템 및 그 제어방법
US7123974B1 (en) 2002-11-19 2006-10-17 Rockwell Software Inc. System and methodology providing audit recording and tracking in real time industrial controller environment
KR20040046071A (ko) 2002-11-26 2004-06-05 삼성전자주식회사 무선단말장치의 안테나-바 표시방법
JP3885019B2 (ja) 2002-11-29 2007-02-21 株式会社東芝 セキュリティシステム及び移動ロボット
US7135992B2 (en) 2002-12-17 2006-11-14 Evolution Robotics, Inc. Systems and methods for using multiple hypotheses in a visual simultaneous localization and mapping system
US7584019B2 (en) 2003-12-15 2009-09-01 Dako Denmark A/S Systems and methods for the automated pre-treatment and processing of biological samples
US7158859B2 (en) 2003-01-15 2007-01-02 Intouch Technologies, Inc. 5 degrees of freedom mobile robot
US7158860B2 (en) 2003-02-24 2007-01-02 Intouch Technologies, Inc. Healthcare tele-robotic system which allows parallel remote station observation
US7171286B2 (en) 2003-02-24 2007-01-30 Intouch Technologies, Inc. Healthcare tele-robotic system with a robot that also functions as a remote station
US7262573B2 (en) 2003-03-06 2007-08-28 Intouch Technologies, Inc. Medical tele-robotic system with a head worn device
US20050065813A1 (en) 2003-03-11 2005-03-24 Mishelevich David J. Online medical evaluation system
JP2004298977A (ja) 2003-03-28 2004-10-28 Sony Corp 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置
US6804580B1 (en) 2003-04-03 2004-10-12 Kuka Roboter Gmbh Method and control system for controlling a plurality of robots
US20040201602A1 (en) 2003-04-14 2004-10-14 Invensys Systems, Inc. Tablet computer system for industrial process design, supervisory control, and data management
CA2466371A1 (en) 2003-05-05 2004-11-05 Engineering Services Inc. Mobile robot hydrid communication link
US20050003330A1 (en) 2003-07-02 2005-01-06 Mehdi Asgarinejad Interactive virtual classroom
US7154526B2 (en) 2003-07-11 2006-12-26 Fuji Xerox Co., Ltd. Telepresence system and method for video teleconferencing
US20050065435A1 (en) 2003-07-22 2005-03-24 John Rauch User interface for remote control of medical devices
US7995090B2 (en) 2003-07-28 2011-08-09 Fuji Xerox Co., Ltd. Video enabled tele-presence control host
US20050027567A1 (en) 2003-07-29 2005-02-03 Taha Amer Jamil System and method for health care data collection and management
US7395126B2 (en) 2003-07-29 2008-07-01 Far Touch, Inc. Remote control of wireless electromechanical device using a web browser
US7133062B2 (en) 2003-07-31 2006-11-07 Polycom, Inc. Graphical user interface for video feed on videoconference terminal
US7413040B2 (en) 2003-08-12 2008-08-19 White Box Robotics, Inc. Robot with removable mounting elements
US7432949B2 (en) 2003-08-20 2008-10-07 Christophe Remy Mobile videoimaging, videocommunication, video production (VCVP) system
US7174238B1 (en) 2003-09-02 2007-02-06 Stephen Eliot Zweig Mobile robotic system with web server and digital radio links
TWI244044B (en) 2003-09-26 2005-11-21 Sunplus Technology Co Ltd Method and device for controlling dynamic image capturing rate of an optical mouse
JP2005103680A (ja) 2003-09-29 2005-04-21 Toshiba Corp 監視システムおよび監視ロボット
JP2005103679A (ja) * 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
US7307651B2 (en) 2003-10-16 2007-12-11 Mark A. Chew Two-way mobile video/audio/data interactive companion (MVIC) system
US7096090B1 (en) 2003-11-03 2006-08-22 Stephen Eliot Zweig Mobile robotic router with web server and digital radio links
US7115102B2 (en) 2003-11-17 2006-10-03 Abbruscato Charles R Electronic stethoscope system
US7161322B2 (en) 2003-11-18 2007-01-09 Intouch Technologies, Inc. Robot with a manipulator arm
JP4055701B2 (ja) * 2003-11-25 2008-03-05 松下電工株式会社 自律移動車両
US7092001B2 (en) 2003-11-26 2006-08-15 Sap Aktiengesellschaft Video conferencing system with physical cues
GB2408655B (en) 2003-11-27 2007-02-28 Motorola Inc Communication system, communication units and method of ambience listening thereto
US7624166B2 (en) 2003-12-02 2009-11-24 Fuji Xerox Co., Ltd. System and methods for remote control of multiple display and devices
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
AU2004311841B2 (en) 2003-12-24 2008-10-09 Walker Digital, Llc Method and apparatus for automatically capturing and managing images
US20050154265A1 (en) 2004-01-12 2005-07-14 Miro Xavier A. Intelligent nurse robot
AU2004313840A1 (en) 2004-01-16 2005-07-28 Yoshiaki Takida Robot arm type automatic car washing device
DE602005017749D1 (de) 2004-02-03 2009-12-31 F Robotics Acquisitions Ltd Roboter-dockstation und roboter zur verwendung damit
US20050182322A1 (en) 2004-02-17 2005-08-18 Liebel-Flarsheim Company Injector auto purge
US20050204438A1 (en) 2004-02-26 2005-09-15 Yulun Wang Graphical interface for a remote presence system
US7756614B2 (en) 2004-02-27 2010-07-13 Hewlett-Packard Development Company, L.P. Mobile device control system
US7949616B2 (en) 2004-06-01 2011-05-24 George Samuel Levy Telepresence by human-assisted remote controlled devices and robots
US20050283414A1 (en) 2004-06-17 2005-12-22 Fernandes Curtis T Remote system management
US20060007943A1 (en) 2004-07-07 2006-01-12 Fellman Ronald D Method and system for providing site independent real-time multimedia transport over packet-switched networks
US7539187B2 (en) 2004-07-07 2009-05-26 Qvidium Technologies, Inc. System and method for low-latency content-sensitive forward error correction
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US7551647B2 (en) 2004-07-19 2009-06-23 Qvidium Technologies, Inc. System and method for clock synchronization over packet-switched networks
CN100394897C (zh) 2004-08-03 2008-06-18 张毓笠 复合振动的超声骨骼手术仪
US20060052676A1 (en) 2004-09-07 2006-03-09 Yulun Wang Tele-presence system that allows for remote monitoring/observation and review of a patient and their medical records
US20060064212A1 (en) 2004-09-22 2006-03-23 Cycle Time Corporation Reactive automated guided vehicle vision guidance system
US7441953B2 (en) 2004-10-07 2008-10-28 University Of Florida Research Foundation, Inc. Radiographic medical imaging system using robot mounted source and sensor for dynamic image capture and tomography
US20060087746A1 (en) 2004-10-22 2006-04-27 Kenneth Lipow Remote augmented motor-sensory interface for surgery
KR100703692B1 (ko) 2004-11-03 2007-04-05 삼성전자주식회사 공간상에 존재하는 오브젝트들을 구별하기 위한 시스템,장치 및 방법
US20060098573A1 (en) 2004-11-08 2006-05-11 Beer John C System and method for the virtual aggregation of network links
US20060173712A1 (en) 2004-11-12 2006-08-03 Dirk Joubert Portable medical information system
US8698817B2 (en) 2004-11-15 2014-04-15 Nvidia Corporation Video processor having scalar and vector components
US7522528B2 (en) 2004-11-18 2009-04-21 Qvidium Technologies, Inc. Low-latency automatic repeat request packet recovery mechanism for media streams
US20060122482A1 (en) 2004-11-22 2006-06-08 Foresight Imaging Inc. Medical image acquisition system for receiving and transmitting medical images instantaneously and method of using the same
US7222000B2 (en) 2005-01-18 2007-05-22 Intouch Technologies, Inc. Mobile videoconferencing platform with automatic shut-off features
US7944469B2 (en) 2005-02-14 2011-05-17 Vigilos, Llc System and method for using self-learning rules to enable adaptive security monitoring
US20060189393A1 (en) 2005-02-22 2006-08-24 Albert Edery Real action network gaming system
US7436143B2 (en) 2005-04-25 2008-10-14 M-Bots, Inc. Miniature surveillance robot
US7240879B1 (en) 2005-05-06 2007-07-10 United States of America as represented by the Administration of the National Aeronautics and Space Administration Method and associated apparatus for capturing, servicing and de-orbiting earth satellites using robotics
US20060259193A1 (en) 2005-05-12 2006-11-16 Yulun Wang Telerobotic system with a dual application screen presentation
US20060293788A1 (en) 2005-06-26 2006-12-28 Pavel Pogodin Robotic floor care appliance with improved remote management
US7398843B2 (en) 2005-08-30 2008-07-15 Boston Dynamics, Inc. Reconfigurable robot drive
US7643051B2 (en) 2005-09-09 2010-01-05 Roy Benjamin Sandberg Mobile video teleconferencing system and control method
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
GB0520576D0 (en) 2005-10-10 2005-11-16 Applied Generics Ltd Using traffic monitoring information to provide better driver route planning
JP4375320B2 (ja) 2005-10-27 2009-12-02 株式会社日立製作所 移動ロボット
US7751780B2 (en) 2005-11-23 2010-07-06 Qualcomm Incorporated Method and apparatus for collecting information from a wireless device
US20070120965A1 (en) 2005-11-25 2007-05-31 Sandberg Roy B Mobile video teleconferencing authentication and management system and method
EP2544066B1 (en) 2005-12-02 2018-10-17 iRobot Corporation Robot system
KR100670202B1 (ko) 2005-12-02 2007-01-16 삼성전자주식회사 주행 로봇
US20070135967A1 (en) 2005-12-08 2007-06-14 Jung Seung W Apparatus and method of controlling network-based robot
US8190238B2 (en) 2005-12-09 2012-05-29 Hansen Medical, Inc. Robotic catheter system and methods
WO2007079346A2 (en) 2005-12-30 2007-07-12 Olsen Christopher J Articulated wheel assemblies and vehicles therewith
JP5028568B2 (ja) * 2006-01-24 2012-09-19 株式会社国際電気通信基礎技術研究所 ロボット制御システム
US7433024B2 (en) 2006-02-27 2008-10-07 Prime Sense Ltd. Range mapping using speckle decorrelation
JP5174684B2 (ja) 2006-03-14 2013-04-03 プライムセンス リミテッド スペックル・パターンを用いた三次元検出
KR101408959B1 (ko) 2006-03-14 2014-07-02 프라임센스 엘티디. 삼차원 감지를 위한 깊이 가변 광 필드
JP5167248B2 (ja) 2006-05-11 2013-03-21 プライムセンス リミテッド 深度マップによるヒューマノイド形状のモデル化
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US20070291128A1 (en) 2006-06-15 2007-12-20 Yulun Wang Mobile teleconferencing system that projects an image provided by a mobile robot
KR100843085B1 (ko) 2006-06-20 2008-07-02 삼성전자주식회사 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치
US20100066587A1 (en) 2006-07-14 2010-03-18 Brian Masao Yamauchi Method and System for Controlling a Remote Vehicle
US7761185B2 (en) 2006-10-03 2010-07-20 Intouch Technologies, Inc. Remote presence display through remotely controlled robot
US7798264B2 (en) 2006-11-02 2010-09-21 Hutcheson Timothy L Reconfigurable balancing robot and method for dynamically transitioning between statically stable mode and dynamically balanced mode
WO2008083489A1 (en) 2007-01-12 2008-07-17 Hansjorg Baltes Method and system for robot generation
US8350847B2 (en) 2007-01-21 2013-01-08 Primesense Ltd Depth mapping using multi-beam illumination
JP4871160B2 (ja) 2007-02-16 2012-02-08 株式会社東芝 ロボットおよびその制御方法
KR100835968B1 (ko) 2007-02-28 2008-06-09 엘지전자 주식회사 로봇청소기 및 그에 따른 제어방법
JP4993087B2 (ja) * 2007-03-28 2012-08-08 株式会社Ihi レーザ監視装置
US8493496B2 (en) 2007-04-02 2013-07-23 Primesense Ltd. Depth mapping using projected patterns
US8150142B2 (en) 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
US8577126B2 (en) 2007-04-11 2013-11-05 Irobot Corporation System and method for cooperative remote vehicle behavior
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
FR2917204B1 (fr) 2007-06-05 2011-07-01 Airbus France Procede et dispositif d'acquisition, enregistrement et exploitation de donnees captees dans un aeronef
IL185124A0 (en) * 2007-08-08 2008-11-03 Wave Group Ltd A generic omni directional imaging system & method for vision, orientation and maneuver of robots
US8116910B2 (en) * 2007-08-23 2012-02-14 Intouch Technologies, Inc. Telepresence robot with a printer
JP2009123061A (ja) 2007-11-16 2009-06-04 Topy Ind Ltd ロボット位置検出システム
US7962243B2 (en) 2007-12-19 2011-06-14 Foster-Miller, Inc. Weapon robot with situational awareness
CN101984767B (zh) 2008-01-21 2014-01-29 普莱姆森斯有限公司 用于使零级减少的光学设计
JP2009174898A (ja) * 2008-01-22 2009-08-06 Toyota Motor Corp 移動体および環境情報作成方法
JP4999734B2 (ja) 2008-03-07 2012-08-15 株式会社日立製作所 環境地図生成装置、方法及びプログラム
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
JP5160322B2 (ja) * 2008-06-30 2013-03-13 株式会社Ihi 自律移動ロボット装置及び自律移動ロボット装置の制御方法
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8564663B2 (en) 2009-04-14 2013-10-22 Bae Systems Information And Electronic Systems Integration Inc. Vehicle-mountable imaging systems and methods
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
JP5397081B2 (ja) 2009-08-12 2014-01-22 富士通モバイルコミュニケーションズ株式会社 携帯端末
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
JP2013503571A (ja) 2009-08-26 2013-01-31 インタッチ・テクノロジーズ・インコーポレーテッド 携帯用テレプレゼンス装置
US20110187875A1 (en) 2010-02-04 2011-08-04 Intouch Technologies, Inc. Robot face used in a sterile environment
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US9014848B2 (en) 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
GB2493887B (en) 2010-05-20 2016-01-13 Irobot Corp Mobile human interface robot
WO2011146259A2 (en) 2010-05-20 2011-11-24 Irobot Corporation Mobile human interface robot
US10343283B2 (en) * 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
US8588972B2 (en) * 2011-04-17 2013-11-19 Hei Tao Fung Method for creating low-cost interactive entertainment robots

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4223753A (en) * 1977-12-19 1980-09-23 Bradbury Harold M Omni-directional transport device
JPS622987A (ja) * 1985-06-28 1987-01-08 株式会社タイト− 催事用ロボツト装置
US5213176A (en) * 1989-12-08 1993-05-25 Hitachi, Ltd. Self-propelled vehicle
JPH06178293A (ja) * 1992-12-01 1994-06-24 Canon Inc 情報処理装置
JP2001198868A (ja) * 2000-01-17 2001-07-24 Atr Media Integration & Communications Res Lab サイバー漫才用ロボットおよび支援装置
JP2002046088A (ja) * 2000-08-03 2002-02-12 Matsushita Electric Ind Co Ltd ロボット装置
JP2002144278A (ja) * 2000-11-13 2002-05-21 Honda Motor Co Ltd 脚式移動ロボット
JP2003009108A (ja) * 2001-06-26 2003-01-10 Minolta Co Ltd 画像通信システム、画像通信装置、および画像通信方法
JP2007038406A (ja) * 2002-05-17 2007-02-15 Victor Co Of Japan Ltd 移動ロボット
JP2006508806A (ja) * 2002-07-25 2006-03-16 インタッチ−ヘルス・インコーポレーテッド 医療用遠隔操作ロボット・システム
US20040179714A1 (en) * 2003-03-11 2004-09-16 Jouppi Norman Paul Telepresence system with simultaneous automatic preservation of user height, perspective, and vertical gaze
US20050216126A1 (en) * 2004-03-27 2005-09-29 Vision Robotics Corporation Autonomous personal service robot
JP2009509673A (ja) * 2005-09-30 2009-03-12 アイロボット コーポレーション 個人の相互交流のためのコンパニオンロボット
JP2008260117A (ja) * 2007-03-16 2008-10-30 Nsk Ltd 脚車輪型ロボット及び脚車輪装置
JP2007320033A (ja) * 2007-08-29 2007-12-13 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2009090404A (ja) * 2007-10-05 2009-04-30 Ihi Corp 移動ロボットの姿勢制御装置及び方法
JP2009113190A (ja) * 2007-11-09 2009-05-28 Toyota Motor Corp 自律動作型ロボットおよび自律動作型ロボットの動作制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017077608A (ja) * 2015-10-21 2017-04-27 ファナック株式会社 ロボットの安全監視装置
KR20190024962A (ko) * 2016-06-30 2019-03-08 브레인 코퍼레이션 이동 바디들 주위의 로봇 행동을 위한 시스템들 및 방법들
KR102361261B1 (ko) 2016-06-30 2022-02-10 브레인 코퍼레이션 이동 바디들 주위의 로봇 행동을 위한 시스템들 및 방법들
JP2018050161A (ja) * 2016-09-21 2018-03-29 公立大学法人首都大学東京 コミュニケーションシステム
WO2019156280A1 (ko) * 2018-02-06 2019-08-15 (주)원익로보틱스 정보 제공용 로봇 및 이를 이용한 정보 제공 방법

Also Published As

Publication number Publication date
EP2571661A2 (en) 2013-03-27
EP2571661B1 (en) 2019-07-17
US8918213B2 (en) 2014-12-23
JP5735102B2 (ja) 2015-06-17
WO2011146256A3 (en) 2013-08-01
US20120185095A1 (en) 2012-07-19
JP2013537487A (ja) 2013-10-03
JP2014176966A (ja) 2014-09-25
WO2011146256A2 (en) 2011-11-24
EP2647475A2 (en) 2013-10-09
JP6028304B2 (ja) 2016-11-16
US9498886B2 (en) 2016-11-22
EP2647475A3 (en) 2014-05-07
US20150073598A1 (en) 2015-03-12

Similar Documents

Publication Publication Date Title
JP6028304B2 (ja) 移動式ヒューマンインターフェースロボット
US8935005B2 (en) Operating a mobile robot
JP5963372B2 (ja) 移動式ロボットを作動させて人について行くようにする方法
US8930019B2 (en) Mobile human interface robot
US9902069B2 (en) Mobile robot system
JP6526613B2 (ja) 可動式ロボットシステム
US9400503B2 (en) Mobile human interface robot
AU2011256720B2 (en) Mobile human interface robot

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150430

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150727

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160613

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161017

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20170227