JP6250617B2 - 移動式ロボットの近接センサ、近接検知方法及び移動式ロボット - Google Patents

移動式ロボットの近接センサ、近接検知方法及び移動式ロボット Download PDF

Info

Publication number
JP6250617B2
JP6250617B2 JP2015238515A JP2015238515A JP6250617B2 JP 6250617 B2 JP6250617 B2 JP 6250617B2 JP 2015238515 A JP2015238515 A JP 2015238515A JP 2015238515 A JP2015238515 A JP 2015238515A JP 6250617 B2 JP6250617 B2 JP 6250617B2
Authority
JP
Japan
Prior art keywords
field
view
robot
emitter
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015238515A
Other languages
English (en)
Other versions
JP2016076248A (ja
Inventor
スティーヴン ヴィー シャムリアン
スティーヴン ヴィー シャムリアン
サミュエル ダフリー
サミュエル ダフリー
ニコライ ロマノフ
ニコライ ロマノフ
Original Assignee
アイロボット コーポレイション
アイロボット コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アイロボット コーポレイション, アイロボット コーポレイション filed Critical アイロボット コーポレイション
Publication of JP2016076248A publication Critical patent/JP2016076248A/ja
Application granted granted Critical
Publication of JP6250617B2 publication Critical patent/JP6250617B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0227Control of position or course in two dimensions specially adapted to land vehicles using mechanical sensing means, e.g. for sensing treated area
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Electric Vacuum Cleaner (AREA)

Description

(関連出願の相互参照)
本米国特許出願は、2012年9月21日に出願された米国特許暫定出願第61/704,419号に対して米国特許法第119(e)条に基づく優先権を主張し、当該暫定出願は引用により全体が本明細書に組み込まれる。
(技術分野)
本開示は、移動式ロボット用の近接センサに関する。
真空掃除機は一般に、空気ポンプを用いて部分真空を生成して、通常は床から、任意選択的には更に他の表面から塵埃及び汚れを引き上げるようにしている。真空掃除機は通常、後で廃棄するために集塵バッグ又はサイクロン内に汚れを集める。家庭並びに産業界で使用される真空掃除機は、小型バッテリ駆動式携帯装置、家庭用セントラル真空掃除機、排出するまでに数百リットルの塵埃を扱うことができる大型の定置用産業電気機器、又は大量の流出液の回収及び汚染土壌の除去のための自走式真空トラックなど、様々なサイズ及びモデルが存在する。
自律式ロボット真空掃除機は一般に、正常動作条件下では、床を真空掃除しながら居住空間の床表面を移動する。自律式ロボット真空掃除機は一般に、壁、家具、又は階段などの障害物を避けることを可能にするセンサを含む。ロボット真空掃除機は、障害物に衝突したときにその駆動方向を変える(例えば、転回又は後退する)ことができる。ロボット真空掃除機はまた、床上に異常な汚れスポットを検出したときに駆動方向又は駆動パターンを変えることができる。
本開示の1つの態様は、センサ本体と、センサ本体により収容される第1のエミッタと、第1のエミッタに隣接してセンサ本体により収容される第2のエミッタと、第2のエミッタの反対側で第1のエミッタに隣接して配置されるレシーバとを含む近接センサを提供する。第1のエミッタが第1の視野を有し、第2のエミッタが第2の視野を有し、レシーバが第3の視野を有する。第1及び第3の視野の交差が第1の体積(volume)を定め、第2及び第3の視野の交差が第2の体積(volume)を定める。第1の体積は、検知基準点から第1の閾距離内で第1の表面を検出し、第2の体積は、検知基準点から第2の閾距離内で第2の表面を検出する。第2の閾距離は第1の閾距離よりも大きい。
本開示の実施構成は、以下の特徴の1又はそれ以上を含むことができる。一部の実施構成において、第1及び第2のエミッタ及びレシーバは、それぞれの視野軸線を定め、センサ本体は、横軸線及び長手方向軸線を定める。第1及び第2のエミッタ及びレシーバは、長手方向軸線に対してある角度で配列された視野軸線と共に横軸線に沿って配置される。第1及び第2のエミッタ及びレシーバのうちの何れかの視野は、センサ本体の長手方向軸線に対して0〜約10度の角度で配列される。センサ本体は、第1のエミッタ、第2のエミッタ、又はレシーバのうちの少なくとも1つに関する視野を定めるよう配列された少なくとも1つの壁を含む。一部の実施例において、第1の閾距離は、約1インチ〜約3インチに等しい。加えて、又は代替として、第2の閾距離は3インチよりも大きい。
本開示の1つの態様は、センサ本体と、第1、第2及び第3のセンサ構成要素とを含む近接センサを提供する。第1及び第2のセンサ構成要素は、互いに隣接したセンサ本体によって収容される。第1のセンサ構成要素は、エミッタ又はレシーバの何れかである。第2のセンサ構成要素は、エミッタ又はレシーバの何れかであり、第2のセンサ構成要素は第1のセンサ構成要素と同じではない。第3のセンサ構成要素は、第1のセンサとは反対側で第2のセンサに隣接して配置される。第3のセンサ構成要素は、第2のセンサがエミッタである場合にはエミッタであり、又は第2のセンサがレシーバである場合にはレシーバである。第1のセンサ構成要素は第1の視野を有し、第2のセンサ構成要素は第2の視野を有し、第3のセンサ構成要素は第3の視野を有する。第1の視野は、第2の視野及び第3の視野と交差する。第1及び第2の視野の交差は第1の体積を定め、第1及び第3の視野の交差は第2の体積を定める。第1の体積は、検知基準点から第1の閾距離内で第1の表面を検出し、第2の体積は、検知基準点から第2の閾距離内で第2の表面を検出する。第2の閾距離は第1の閾距離よりも大きい。
一部の実施構成において、各エミッタは赤外光を放射し、各レシーバは、放射された赤外光の反射を受け取る。センサ本体は、少なくとも1つのセンサ構成要素の視野を定めるよう配列された少なくとも1つの壁を含むことができる。加えて、又は代替として、第1のセンサ構成要素と第2のセンサ構成要素との間の第1の距離は、第2のセンサ構成要素と第3のセンサ構成要素との間の第2の距離よりも小さい。
各センサ構成要素は、視野軸線を定めることができ、センサ本体は、横軸線と長手方向軸線とを定めることができる。センサ構成要素は、長手方向軸線に対してある角度で配列された視野軸線と共に横軸線に沿って配置することができる。第2のセンサ構成要素及び第3のセンサ構成要素の視野軸線は平行とすることができる。加えて、又は代替として、第2のセンサ構成要素及び第3のセンサ構成要素の視野軸線は各々、センサ本体の長手方向軸線に対して0〜約10度の角度で配列される。第1のセンサ構成要素の視野軸線は、長手方向軸線に対して約5度〜約15度の角度で配列することができる。第1のセンサ構成要素の視野軸線の角度は、第2及び第3のセンサ構成要素の視野軸線の角度よりも大きくすることができる。
一部の実施例において、第1の閾距離は、約1インチ〜約10インチに等しい。加えて、又は代替として、第2の閾距離は10インチよりも大きくすることができる。
本開示の別の態様は、物体の近接度を検知する方法を提供する。本方法は、コンピュータプロセッサにおいて、第1のセンサからデータを受け取るステップを含む。第1のセンサは、第1のエミッタ及び第1のレシーバを含む。本方法は、コンピュータプロセッサにおいて、第2のエミッタ及び第2のレシーバを備えた第2のセンサからデータを受け取るステップを含む。第1のエミッタ及び第2のエミッタは、同じエミッタであり、第1のレシーバ及び第2のレシーバは、同じレシーバである。本方法は、コンピュータプロセッサを用いて、受け取ったデータに基づいて検知基準点と検知した物体との間の目標距離を求めるステップと、目標距離が第1の閾距離又は第2の閾距離内にあるかどうかを判定するステップとを含む。本方法はまた、コンピュータプロセッサから、目標距離が第1の閾距離又は第2の閾距離内にあるかどうかに基づいて、コマンドを発するステップを含む。一部の実施例において、目標距離が第1の閾距離又は第2の閾距離内にあるかどうかを判定するステップとコマンドを発するステップとの間の処理時間は、約8ミリ秒以下である。
一部の実施構成において、第1のエミッタと第2のエミッタが同じである場合、本方法は更に、第1の視野に沿って第1のエミッタから光を放射するステップと、第2の視野に沿って第1のレシーバにて光の反射を受け取るステップとを含む。加えて、本方法は、第3の視野に沿って第2のレシーバにて光の反射を受け取るステップを含む。第1の視野は、第2及び第3の視野と交差する。第1及び第2の視野の交差は第1の体積を定め、第1及び第3の視野の交差は第2の体積を定める。第1の体積は、検知基準点から第1の閾距離内で第1の表面を検出し、第2の体積は、検知基準点から第2の閾距離内で第2の表面を検出する。第2の閾距離は第1の閾距離よりも大きい。第1、第2及び第3の視野は、第1、第2及び第3の視野軸線を定めることができ、ここで第2及び第3の視野軸線は平行である。加えて、又は代替として、本方法は、第1の視野によって定められる視野軸線を共通の長手方向検知軸線に対して約5度〜約15度の角度で配列するステップと、第2及び第3の視野によって定められる視野軸線を、共通の長手方向検知軸線に対して約0度〜約10度の角度で配列するステップと、を含むことができる。
一部の実施構成において、第1のレシーバと第2のレシーバが同じである場合、本方法は更に、第1の視野に沿って光の反射を受け取るステップと、第2の視野に沿って第1のエミッタから光を放射するステップと、を含む。本方法はまた、第3の視野に沿って第2のエミッタから光を放射するステップを含む。第1の視野は、第2及び第3の視野と交差し、ここで第1及び第2の視野の交差は第1の体積を定める。第1及び第3の視野の交差は第2の体積を定める。第1の体積は、検知基準点から第1の閾距離内で第1の表面を検出し、第2の体積は、検知基準点から第2の閾距離内で第2の表面を検出する。第2の閾距離は第1の閾距離よりも大きい。第1、第2及び第3の視野は、第1、第2及び第3の視野軸線を定め、ここで第2及び第3の視野軸線は平行である。加えて、又は代替として、本方法は、第1の視野によって定められる視野軸線を共通の長手方向検知軸線に対して約5度〜約15度の角度で配列するステップと、第2及び第3の視野によって定められる視野軸線を、共通の長手方向検知軸線に対して約0度〜約10度の角度で配列するステップと、を含むことができる。
第1のエミッタと第1のレシーバとの間の第1の距離は、第2のエミッタと第2のレシーバとの間の第2の距離よりも小さいとすることができる。第1の閾距離は、約1インチ〜約10インチに等しいとすることができ、及び/又は第2の閾距離は、10インチよりも大きい。
本開示の別の態様は、ロボット本体と、駆動システムと、センサシステムと、コントローラとを備えた自律式ロボットを提供する。ロボット本体は、前方駆動方向を定める。駆動システムは、ロボット本体を支持し、床表面上でロボットを操縦するよう構成される。センサシステムは、ロボット本体上に配置され、少なくとも1つの近接センサを含む。近接センサは、センサ本体と、第1、第2及び第3のセンサ構成要素とを含む。第1及び第2のセンサ構成要素は、互いに隣接してセンサ本体によって収容される。第1のセンサ構成要素は、エミッタ及びレシーバの一方であり、第2のセンサ構成要素は、エミッタ及びレシーバの他方である。第3のセンサ構成要素は、第1のセンサとは反対側で第2のセンサに隣接して配置され、第2のセンサがエミッタである場合にはエミッタであり、又は第2のセンサがレシーバである場合にはレシーバである。第1のセンサ構成要素は第1の視野を有し、第2のセンサ構成要素は第2の視野を有し、第3のセンサ構成要素は第3の視野を有する。第1の視野は、第2の視野及び第3の視野と交差する。第1及び第2の視野の交差は第1の体積を定め、第1及び第3の視野の交差は第2の体積を定める。第1の体積は、検知基準点から第1の閾距離内で第1の表面を検出し、第2の体積は、検知基準点から第2の閾距離内で第2の表面を検出する。第2の閾距離は第1の閾距離よりも大きい。コントローラは、駆動システム及びセンサシステムと通信状態にある。コントローラは、センサシステムから受け取ったデータを処理するコンピュータプロセッサを含み、受け取ったデータに基づいてコマンドを発する。センサ本体は、少なくとも1つのセンサ構成要素の視野を定めるよう配列される少なくとも1つの壁を含むことができる。
一部の実施例において、ロボットは、2又はそれ以上の近接センサを含む。コントローラは、無効にした1つの近接センサと有効にした別の近接センサとの間の閾期間を用いて、各近接センサを順次的に有効及び無効にする。
コントローラは、検知基準点と検知した物体との間の目標距離を決定し、物体に対する目標距離が第2の閾距離内にある場合には駆動システムに反転駆動コマンドを発することができる。反転駆動コマンドは、ロボットの方向を前方駆動方向から反転駆動方向に変化させる。加えて、又は代替として、第1のセンサ構成要素と第2のセンサ構成要素との間の第1の距離は、第2のセンサ構成要素と第3のセンサ構成要素との間の第2の距離よりも小さい。
一部の実施構成において、各センサ構成要素は、視野軸線を定め、センサ本体は、横軸線と長手方向軸線とを定める。センサ構成要素は、長手方向軸線に対してある角度で配列された視野軸線と共に横軸線に沿って配置される。第2のセンサ構成要素及び第3のセンサ構成要素の視野軸線は平行とすることができる。第2のセンサ構成要素及び第3のセンサ構成要素の視野軸線は各々、センサ本体の長手方向軸線に対して0〜約10度の角度で配列することができる。加えて、又は代替として、第1のセンサ構成要素の視野軸線は、長手方向軸線に対して約5度〜約15度の角度で配列することができる。第1のセンサ構成要素の視野軸線の角度は、第2及び第3のセンサ構成要素の視野軸線の角度よりも大きくすることができる。一部の実施例において、第1の閾距離は約10インチであり、及び/又は第2の閾距離は10インチよりも大きい。
本開示の1又はそれ以上の実施構成の詳細は、添付図面及び以下の説明において記載される。他の態様、特徴、及び利点は、本明細書及び図面並びに請求項から明らかになるであろう。
例示的な自律移動式ロボットの斜視図である。 図1に示すロボットの分解図である。 例示的な自律移動式ロボットの正面図である。 例示的な自律移動式ロボットの概略図である。 自律移動式ロボット用の例示的なコントローラの概略図である。 床表面を横断しているときの例示的な自律移動式ロボットの側面図である。 床表面を横断しているときの例示的な自律式ロボットの側面図である。 床表面を横断しているときの例示的な自律式ロボットの側面図である。 例示的な近接センサの概略側面図である。 例示的な近接センサの概略側面図である。 例示的な近接センサの概略側面図である。 例示的な近接センサの断面図である。 床表面を横断して障害物に遭遇したときの例示的な自律式ロボットの側面図である。 1つのエミッタと2つのレシーバを有する例示的な近接センサの概略側面図である。 2つのエミッタと1つのレシーバを有する例示的な近接センサの概略側面図である。 近接センサの視野の角度を示す例示的な近接センサの概略図である。 段差に遭遇した例示的な近接センサの概略図である。 段差に遭遇した例示的な近接センサの概略図である。 近接センサ用の例示的なハウジングの斜視断面図である。 図11Aの例示的なハウジングから投射された光ビームが表面に衝突した斜視断面図である。 表面に投影させた図11Aの例示的なハウジングから放射された光ビームの上面図である。 自律移動式ロボットを作動させる例示的な工程構成の概略図である。 様々な高さで表面を検知したときの例示的な近接センサを有するロボットの概略図である。 様々な高さで表面を検知したときの例示的な近接センサを有するロボットの概略図である。
種々の図面における同じ参照符号は同じ要素を示している。
移動可能に支持される自律式ロボットは、床表面を移動することができる。一部の実施例において、自律式ロボットは、表面を横断しながらその表面を清掃することができる。ロボットは、負圧(例えば、部分真空)を加えることでデブリを撹拌し及び/又は表面からデブリを持ち上げ、次いで、このデブリを表面から集めることによって表面からデブリを除去することができる。
図1〜3を参照すると、一部の実施構成において、ロボット100は、例えば、x、y、及びθ成分を有する駆動コマンドに基づいて床表面10にわたってロボット100を操縦することができる駆動システム120により支持される本体110を含む。ロボット本体110は、前方部分112と後方部分114とを有する。図示のように、ロボット本体110は、円形形状を有するが、限定ではないが、方形形状、矩形形状、又は前方部分112は方形で後方部分114は丸みがあるか、又はその逆である組み合わせを含む、他の形状を有することができる。駆動システム120は、右及び左被駆動ホイールモジュール120a、120bを含む。ホイールモジュール120a、120bは、本体110によって定められる横軸線Xに沿って実質的に対向し、それぞれのホイール124a、124bを駆動する駆動モータ122a、122bをそれぞれ含む。駆動モータ122a、122bは、本体110(例えば、ファスナー又は工具不要接続を介して)に解除可能に接続することができ、駆動モータ122a、122bは、任意選択的に、実質的にそれぞれのホイール124a、124bの上に位置付けられる。ホイールモジュール120a、120bは、ロボット本体110に解除可能に取り付けられ、床表面10と係合するようバネ付勢することができる。一部の実施例において、ホイール124a、124bは、ホイールモジュール120a、120bに解除可能に取り付けられる。ホイール124a、124bは、滑り易い床(例えば、木、濡れた床)の上のホイールモジュール120a、120bの牽引力を改善する、下方付勢(biased−to−drop)懸架システムを有することができる。一部の実施例において、ホイールモジュール120a、120bは、ロボット本体110に移動可能に固定(例えば、回転可能に取り付け)され、駆動ホイール124a、124bをロボット本体から下向きに離れるよう付勢するバネ付勢(例えば、約5〜25ニュートン)を受ける。例えば、駆動ホイール124a、124bは、展開位置に移動したときに約10ニュートン、ロボット本体110内の格納位置に移動したときに約20ニュートンの下向きの付勢力を受けることができる。このバネ付勢により、駆動ホイール124a、124bは、ロボット100の何らかの清掃要素が床表面10に接触しながら、床表面10との接触及び牽引力を維持することが可能となる。ロボット100は、ロボット本体110の前方部分112を支持するよう配置されたキャスターホイール126を含むことができる。キャスターホイール126は、本体110に解除可能に取り付けられ、床表面10と係合するよう付勢することができる。ロボット本体110は、ロボット100の何れかの電気部品に給電するために電力供給源(例えば、バッテリ)102を支持する。
ロボット100は、本体110によって定められる互いに直交する3つの軸線、すなわち、横軸線X、前後軸線Y、及び中心垂直軸線Zに対する移動の種々の組み合わせにより床表面10にわたって移動することができる。前後軸線Yに沿った前方への駆動方向は、F(以下「前方」と呼ばれる場合もある)で示され、前後軸線Yに沿った後方への駆動方向は、A(以下「後方」と呼ばれる場合もある)で示される。横軸線Xは、ホイールモジュール120a、120bの中心点によって定められる軸線に実質的に沿って右側Rと左側Lとの間に延びる。
ロボット100は、X軸線の周りで傾斜することができる。ロボット100が南側位置に傾斜すると、ロボット100は後方部分114に向かって傾斜(以下「ピッチアップ」と呼ばれる場合もある)し、ロボット100が北側位置に傾斜すると、ロボット100は前方部分112に向かって傾斜(以下「ピッチダウン」と呼ばれる場合もある)する。加えて、ロボット100は、Y軸線の周りに傾斜する。ロボット100は、Y軸線の東に傾斜(以下「右ロール」と呼ばれる場合もある)することができ、或いは、ロボット100は、Y軸線の西に傾斜(以下「左ロール」と呼ばれる場合もある)することができる。従って、X軸線の周りのロボット100の傾斜の変化は、ピッチ角αXの周りのピッチの変化であり、Y軸線の周りのロボット100の傾斜の変化は、ロール角αYの周りのロールの変化である。加えて、ロボット100は、右すなわち東位置、又は左すなわち西位置の何れにも傾斜することができる。一部の実施例において、ロボット100は、北東、北西、南東、及び南西などの傾斜位置を有するX軸線及びY軸線の周りに傾斜する。ロボット100が床表面10を横断しているときには、ロボット100は、Z軸線の周りで左転回又は右転回(以下「ヨー方向の変化」と呼ばれる場合もある)することができる。ヨー方向の変化により、ロボット100は、移動しながら左転回又は右転回を生じるようになる。従って、ロボット100は、ピッチ、ロール、又はヨーのうちの1又はそれ以上の変化を同時に有することができる。ロボット100は、X軸線及びY軸線の周りの組み合わせ傾斜で傾斜することができ、すなわち、ロボット100は、ピッチ及びロールを行うことができる。総チルト角αTは、X軸線及びY軸線の周りの各チルトのベクトルの総和である。従って、ロボット100がピッチのみ行った場合、総チルト角αTはピッチ角に等しい。同様に、ロボット100がロールのみ行った場合、総チルト角αTはロール角に等しい。
本体110の前方部分112は、バンパー130を保持することができ、該バンパーは、例えば、ホイールモジュール120a、120bが清掃ルーチン中に床表面10にわたってロボット100を推進させるときに、ロボット100の駆動経路における1又はそれ以上の事象を(例えば、センサシステム500を介して)検出する。ロボット100は、事象に応答してロボット100を操縦(例えば、障害物から離れて)するようホイールモジュール120a、120bを制御することにより、バンパー130によって検出された事象(例えば、障害物、段差12、壁)に応答することができる。センサシステム500は、バンパー130上に配置することができ、或いは、これに加えて、又は代替として、ロボット100上の様々な異なる位置の何れかに配置することができる。
ロボット100は、床表面10を清掃又は処理するための清掃システム160を含むことができる。清掃システム160は、乾燥式清掃システム160a及び/又は湿式清掃システム160bを含むことができる。清掃システム160はまた、デブリを清掃システム160の清掃帯状領域に移動させるために床表面10に対してある角度の回転軸を有するサイドブラシ164を含むことができる。
本体110の上部分115に配置されたユーザインタフェース140は、1又はそれ以上のユーザコマンドを受け取り、及び/又はロボット100のステータスを表示する。ユーザインタフェース140は、ロボット100によって保持されるロボットコントローラ200と通信し、ユーザインタフェース140により受け取られた1又はそれ以上のコマンドが、ロボット100によるルーチンの実行を開始できるようにする。ロボットコントローラ200は、非一時的メモリ204(例えば、ハードディスク、フラッシュメモリ、ランダムアクセスメモリ)と通信状態にあるコンピュータプロセッサ202(例えば、セントラルプロセッシングユニット)を含む。
図4及び5を参照すると、ロボットコントローラ200(制御システムを実行する)は、壁に追従するような操縦、床を磨くような操縦、又は障害物が検出されたときに移動方向を変えるなどの動作をロボット100にさせる挙動部300を実行することができる。ロボットコントローラ200は、各ホイールモジュール120a、120bの回転速度及び方向を独立して制御することによって、清掃面上のあらゆる方向でロボット100を操縦することができる。例えば、ロボットコントローラ200は、ロボット100を前方F、反転(後方)A、右R、及び左L方向で操縦することができる。
信頼性があり堅牢な自律移動を達成するために、ロボット100は、複数の異なるタイプのセンサを有するセンサシステム500を含むことができ、これらセンサは、互いに連動して用いて、ロボット100がロボットの環境において行うべき措置に関して知的決定を下すことができるほどに十分なロボットの環境の知覚を生成することができる。センサシステム500は、ロボット本体110によって支持される1又はそれ以上のタイプのセンサを含むことができ、これらセンサは、障害物検出障害物回避(ODOA)センサ、通信センサ、ナビゲーションセンサ、その他を含むことができる。例えば、これらのセンサは、限定ではないが、近接センサ520、接触センサ、カメラ(例えば、点群ボリュームイメージング、3次元(3D)イメージング、又は深度図センサ、可視光カメラ及び/又は赤外線カメラ)、ソナー、レーダー、LIDAR(ライダー;光検出及び側距、散乱光の特性を測定して遠隔ターゲットの距離及び/又は他の情報を求める光学的リモートセンシングを必要とする可能性がある)、LADAR(レーザ検出及び側距)、その他を含むことができる。
一部の実施例において、センサシステム500は、ロボット100の全体重心CGR(図1、6)に対するロボット100の慣性モーメントを測定及び監視するためにコントローラ200と通信状態にある慣性計測ユニット(IMU)を含む。コントローラ200は、正常な妨げのない動作に対応する閾値信号からのIMUによるフィードバックのあらゆる偏差を監視することができる。例えば、コントローラ200は、全チルト角αTを監視しており、全チルト角αTが閾チルト角を上回ると、ロボット100が段差12に向かって進んでおり、ロボット100が段差12から落ちるのを阻止するストップコマンドを実行することをコントローラ200が決定することができる。コントローラ200は、回転又は後退コマンドを実行し、ロボット100を段差12から離れて移動させることができる。
IMUは、相対値に基づいてロボット100の慣性モーメントを測定及び監視することができる。一部の実施構成において、及び長期期間にわって、一定の移動によりIMUをドリフトさせることができる。コントローラ200は、再設定コマンドを実行し、IMUを再較正してゼロに再設定する。IMUを再較正する前に、コントローラ200は、ロボット100が傾斜しているかどうかを判定して、ロボット100が平坦面上にある場合にのみ再設定コマンドを発する。
一部の実施構成において、ロボット100は、障害物に衝突せず、又は階段から落ちることなく床表面10を移動することができ、また、清掃のため比較的汚れた床領域をインテリジェントに認識することを可能にするよう構成されたナビゲーションシステム400を含む。その上、ナビゲーションシステム400は、床表面10にわたり決定性パターン及び擬似ランダムパターンでロボット100を操縦することができる。ナビゲーションシステム400は、ロボットコントローラ200上に格納及び/又は実行される挙動ベースシステムとすることができる。ナビゲーションシステム400は、センサシステム500と通信して、駆動システム120に対して駆動コマンド241を決定し発することができる。ナビゲーションシステム400は、ロボット挙動部300に影響を及ぼし且つ構成し、すなわち、ロボット100が体系的な計画的移動で行動できるようにする。一部の実施例において、ナビゲーションシステム400は、センサシステム500からデータを受け取り、ロボット100が横断する望ましい経路を計画する。
一部の実施構成において、コントローラ200(例えば、1つ又は複数のコンピュータプロセッサ上で実行可能な命令を記憶することができる非一時的メモリ204と通信状態にある1又はそれ以上のコンピュータプロセッサ202を有するデバイス)は、互いに通信状態にある挙動システム210aと制御調停システム210bとを含む制御システム210を実行する。制御調停システム210bは、ロボットアプリケーション220を制御システム210に対して動的に追加及び削除することを可能にし、各アプリケーション220が他の何れかのアプリケーション220について知る必要もなくロボット100を制御できるようにする。換言すると、制御調停システム210bは、アプリケーション220とロボット100のリソース240との間の簡単な優先制御機構を提供する。
アプリケーション220は、メモリ内に格納され又はロボット100と通信して、(例えば、プロセッサ上で)並行して実行し、ロボット100を同時に制御することができる。アプリケーション220は、挙動システム210aの挙動部300にアクセスすることができる。独立して配備されたアプリケーション220は、ランタイム時に動的に組み合わされ、ロボットリソース240(例えば、駆動システム120及び/又は清掃システム160、160a、160b)を共有する。ランタイム時のアプリケーション220間でのロボットリソース240を動的に共有するための低レベルポリシーが実装される。このポリシーは、どのアプリケーション220が当該アプリケーション220により必要とされるロボットリソース240を制御するかを決定する(例えば、アプリケーション220間の優先順位階層)。アプリケーション220は、動的に開始及び停止し、互いに完全に独立して実行することができる。制御システム210はまた、共に組み合わせて互いに支援することができる複合挙動部300を可能にする。
制御調停システム210bは、制御アービター260と通信する1又はそれ以上のアプリケーション220を含むことができる。制御調停システム210bは、アプリケーション220のための制御調停システム210bに対するインタフェースを提供するコンポーネントを含むことができる。このようなコンポーネントは、認証、分散リソース制御アービター、コマンドバッファリングの複雑さを解消して抽象化及びカプセル化し、アプリケーション220の優先順位付けの協調などを行うことができる。制御アービター260は、あらゆるアプリケーション220からコマンドを受け取り、アプリケーションの優先順位に基づいて単一のコマンドを生成し、これを関連のリソース240に公開する。制御アービター260は、その関連のリソース240から状態フィードバックを受け取り、これをアプリケーション220に送り返すことができる。ロボットリソース240は、1又はそれ以上のハードウェアコントローラを備えた機能モジュール(例えば、アクチュエータ、駆動システム、及びこれらのグループ)のネットワークとすることができる。制御アービター260のコマンド241は、特定の動作を実施するリソース240に固有のものである。コントローラ200上で実行可能なダイナミックスモデル230は、現在のロボット100の状態を評価するために、ロボット100の種々の部分の重心(CG)、慣性モーメント、及び慣性の外積を計算するよう構成される。
一部の実施構成において、挙動部300は、センサシステム500のような複数のソースからのセンサフィードバックを先験的限界及び情報を有してロボットの許容動作に関する評価フィードバックに結合する階層的状態完全評価機能を提供するプラグインコンポーネントである。挙動部300は、アプリケーション220にプラグ着脱可能であり(例えば、アプリケーション220の内部又は外部にある)、アプリケーション220又は制御システム210の他の何れかの部分を修正することなく削除及び追加することができる。各挙動部300は、独立したポリシーである。挙動部300をより強力にするために、複数の挙動部300の出力を別の挙動部の入力に取り付けて、複雑な組み合わせ機能を有することができるようにすることができる。挙動部300は、ロボット100の全体的認識の管理可能部分を実施することを目的としている。
図示の実施例において、挙動システム210aは、センサによって感知された障害物に基づいて、ロボット応答動作(例えば、転回、Uターン、障害物前での停止、その他)を決定するための障害物検出/障害物回避(ODOA)挙動部300aを含む。別の挙動部300は、検出した壁に隣接して(例えば、壁に平行な方向で、又は壁に向かってもしくは壁から離れて駆動するくねりパターンで)駆動するための壁追従挙動部300bを含むことができる。他の挙動部300は、段差検出挙動部300cを含むことができる(例えば、ロボットが階段を検出して、階段から落ちるのを回避する)。
図3及び図6を参照すると、一部の実施構成において、ロボット100(すなわち、センサシステム500)は、ロボット本体110の前方部分112の底部116付近又はその周りに配置された1又はそれ以上の段差近接センサ520を含む。一部の実施構成において、ロボット100の底部116は、リム118を含む。リム118は、ロボット100の底部116とロボット本体110の前方及び後方周囲とを接続する。リム118は、裁頭円錐形状を有し、ロボット本体110の底部116の直径がより小さい直径であり、ロボット本体110の前方及び後方部分112、114と接続するよう延びている。段差近接センサ520は、ロボット100が一連の階段、又は床表面10の高さの変化に遭遇したときなど、床10の下降段差12に遭遇した時点を検出することができる。コントローラ200(制御システムを実行する)は、段差12が検出されたときに移動方向の変化のような動作をロボット100にとらせる挙動部を実行することができる。一部の実施構成において、センサシステム500は、1又はそれ以上の2次段差センサ(例えば、段差検知及び任意選択的に他のタイプの検知を行うよう構成された他のセンサ)を含む。段差検出近接センサ520は、段差12の早期検出を可能にし、ロボット100が横断できない実際の段差(例えば、垂直方向の上り段を有する階段)と、事象(敷居を超える上り、又は横断可能段差又は横断可能敷居12aを超える横断など、ここでロボット100は、横断可能敷居12aによって分離される第1の面10aと第2の面10bとの間を移動することができ、場合によっては、ロボット100は第2の面10bから第1の面10aに向けてその間を移動することができる)との間の判別を可能にするよう構成することができ、これらのセンサの視野523、525(図8D)がロボット本体110の少なくとも一部とロボット本体110から離れた領域とを含むように、外側下方に位置付けることができる。一部の実施構成において、コントローラ200は、支持している床表面10の端部、床表面10の端部を通過した距離の増大、及び/又はロボット本体110と床表面10との間の距離の増大を識別し検出する段差検出ルーチンを実行する。この実施構成は、1)可能性のある段差の早期検出(未知の環境でのより速い移動速度を可能にすることができる)、2)段差事象が真に実際の段差であるかどうか(この場合には、ロボット100が移動を停止すべきである)、又は横断可能敷居12aを有する床表面10が横断できるかどうか(例えば、敷居を上って超えるなど)を認知するためにコントローラ200が段差検出センサ520から段差イメージング情報を受け取ることに起因した自律的移動性の信頼生の向上、3)段差の誤検出の低減(例えば、ロボット100と床表面10との間の距離の決定及び当該距離の変化、並びに2つの検出ゾーンを有することに起因した)を可能にする。冗長性のため、及び特定のタイプの段差を距離検知カメラが確実に検出することができない状況を検出するために、「脱輪」センサとして配置される追加のセンサを用いることができる。
敷居及び段検出により、ロボット100が、登ることが可能な敷居又は横断可能敷居を横断するか、又は高過ぎる実際の段差を回避することを効率的に計画することが可能になる。これは、ロボット100が横断できるか、又は横断できない床表面10上の不規則な物体についても同じとすることができる。ロボット100が登ることができると判定する障害物又は敷居について、これらの高さを認知することで、ロボット100が、必要と見なされる場合には適切に減速し、円滑さを最大にし、突然の加速に起因するあらゆる不安定性を最小限にするために円滑な移行を可能にする。一部の実施構成において、敷居及び段検出は、幾何学的形状認識(例えば、敷居又は電気ケーブルと靴下のような小塊とを判別する)に加えて、床表面10の上方の物体の高さに基づく。敷居は、端部検出によって認識することができる。コントローラ200は、段差検出近接センサ520(又はロボット100上の別のイメージセンサ)からイメージングデータを受信し、端部検出ルーチンを実行し、端部検出ルーチンの結果に基づいて駆動コマンドを発することができる。敷居検出により、ロボット100は、円滑な段登り及び段下り能力を最大限にするように、敷居に対するその向きを変えることができる。近接センサ520は、単独で機能してもよく、又は代替として、冗長性のために1つ以上の接触センサ(例えば、隆起スイッチ)と組み合わせて機能することができる。
一部の実施例において、近接センサ520は、キャスターホイール126と、駆動ホイール124a、124bの各々との間のリム118上に配置され、キャスターホイール126が段差(例えば、階段)に遭遇する前に段差検出を可能にするようにする。場合によっては、段差検知は、赤外線(IR)近接又は実距離検知を用いて、すなわち、互いに向かって角度が付けられた赤外線エミッタ522と赤外線検出器524とを使用して、床表面10が予想される場所にて重なり合う放射場及び検出場、従って検出ゾーンV1、V2を有するようにする。IR近接検知は、比較的狭い視野を有する可能性があり、信頼性が表面アルベドに依存する場合があり、表面間で変化する距離精度を有する場合がある。結果として、ロボット100上の複数の点からの段差を適切に検出するために、複数の離散的センサをロボット100の周辺付近に配置することができる。更に、IR近接ベースセンサは、典型的には、実際の段差と、出口敷居のような閾降下距離内の床張り面又は横断可能敷居12aとを区別することができない。
図6を参照すると、一部の実施例において、ロボット100は、前方駆動方向Fに移動している。近接センサ520は、例えば、第1の床表面10a(例えば、カーペット床表面)から第2の床表面10b(例えば、硬材床面又はタイル面)に横断しているときの床表面10の段差12又は高さの変化(例えば、落下距離Dc)を検出する。ロボット100は、このような高さの差異が閾降下距離Ds(以下で詳細に検討する)内にあり、ロボット100が床表面10間を容易に移動できることを判定する。
図7A及び7Bは、ロボット100が第1の床表面10aに沿って移動し、第2の床表面10bへの段差12に接近しているのを示している。降下距離Dcは、第1の床表面10aを第2の床表面10bから分離している。ロボット100は、ロボット100(すなわち、ロボットセンサ520の底面に沿った検知点P)と第2の床表面10bとの間の距離dが閾距離Ds内にあるかどうかを判定し、閾距離内にある場合には、ロボット100は、第2の床表面10bに駆動される。一部の実施例において、ロボット100は、距離dが閾降下距離Ds距離内にある場合には、第1の床表面10aに戻ることができ、そうでない場合には、ロボット100は、第2の床表面10b上を駆動する。
図8A〜8Dは、3要素近接センサの差分距離測定クラスを記述しており、ここでアルベドの自己較正のために差分光路長が使用され、距離測定のために信号強度を用いることが可能となる。このクラス内では、異なる実施構成のために2つの要素が1つの種類で、1つの要素が残りの種類を用いる(2つのエミッタと1つのレシーバ、又は2つのレシーバと1つのエミッタ)。一部の実施例において、近接センサ520は、床表面10までの距離Dを測定する。これは、ロボット100が障害物、段差12、その他を検出及び回避することによりある環境において知的且つ効率的に移動することを可能にする。近接センサ520の性能は、物体(すなわち、床表面10)の表面特性に依存することができる。一部の近接センサ520は、より暗い低反射表面に対して許容できない性能を有する。一部の実施例において、一部の実施例において、エミッタ522及び検出器ペア524a、524bは、放射場523及び視野525が予想される床表面10近傍で完全に又はほぼ完全に重なり合い、より離れた表面では最小の重なり合い(表面への距離が大きくなるほど減少する)又は重なり合いがないような向きにされ、これらを用いて大部分の表面(図8A〜8Dに示す)上で良好に機能することができる。エミッタ522は、周辺光及び他のソースを排除するよう変調することができる。
図8Aを参照すると、近接センサ520は、床表面10に対する距離d1、d2を測定する。差分光学センサ520aとすることができ、床表面10にビーム光523Aを充てるエミッタ522を含む。床表面10の大部分は、多少のランバーシャンがあり、入射光523を球状波面に拡散する。結果として、レシーバ524によって集められたエネルギーEの量は、レシーバ524から表面への距離d1、d2の二乗に反比例する。更に、レシーバの視野525は、エミッタ522によって生成されるスポットを含み、無限距離まで可能な限り重なり合うように設計される。レシーバ524a、524b両方により受け取られるエネルギーE1、E2は、反射エネルギーLの同じ量に比例する。レシーバ524a、524bによって集められたエネルギーE1は、次式を用いて計算することができる。
Figure 0006250617

Figure 0006250617
ここで、Eiはレシーバによって集められたエネルギー、giは各レシーバ524a、524bのゲイン、Lは表面により反射されるエネルギー、diはレシーバ524a、524bまでの距離である。
測定値の比Rをとると、次式が得られる。
Figure 0006250617
また、
Figure 0006250617
となる。
式4は、レシーバ524a、524b間のベースライン距離d0(図8A)を既知とした場合に、床表面10までの距離d1がレシーバ524a、524bでの測定値から推定することができることを示している。パラメータg1及びg2は何れも既知であり、又は、比g1/g2は、製造中の較正により推定することができる。
図8B及び8Cを参照すると、一部の実施構成において、エミッタ522に対するレシーバ524a、524bの相対角θiは、近接センサ520bを強い鏡面反射を有して床表面10上でより堅牢にするために同じに維持される(すなわち、θ1=θ2)。別の実施例が図8Cに示される。近接センサ520cは、障害物に対するセンサ520b、520cの向きに応じて、床表面10又は段差12などの障害物の存在を検出するのに用いることができる(すなわち、センサ520b、520cが下向きに面する場合、床表面10への距離dを検出することができ、センサ520b、520cがロボット本体110に対してある角度にある場合には、ロボット100が床表面10にわたって移動しているときに障害物を検出することができる。例えば、図8Eに描かれるように、図8A〜8Dの差分距離測定クラスタイプのセンサ520は、壁又は家具の一部などの障害物9までの距離dを測定するのに用いることができる。これは、ロボット100が物体に接近するときに突然の衝突を防ぐために一定の距離で減速することに限定されない、幾つかの理由において有用となる。)
図6、7A、7B、及び8Dは、段差12を検出するために移動式ロボット100上で使用される近接センサ520を示している。図8Dを参照すると、一部の実施例において、近接センサ520dは、エミッタ522と、2つのレシーバ524a、524bとを含む。エミッタ522は、第1のレシーバ524aと第2のレシーバ524bとの間に配置される。距離dmin又はそれ以上では、レシーバ524a、524bの視野525a、525b(S1及びS2)は、エミッタ522の完全放射場523(Se)を包含し、すなわち、「S1>Se」及び「S2>Se」である。
近接センサ520dは、床表面10が近接センサ520dから少なくとも距離Dにあり、
Figure 0006250617
であるように移動式ロボット100上に配置される。
式4は、ロボット100が床表面10の周りを移動している何れかの時点での床表面10までの距離dを推定するのに用いることができる。d0は床表面10までの初期距離dであり、図8Dに示されるDである。E1及びE2は、レシーバ524a、524bにおける強度であり、アナログデジタルコンバータを用いて測定することができる。g1/g2は、レシーバゲインの比であり、既知とするか、又は以下で検討する較正プロセス中に推定される。従って、ロボット100は、ロボット100が横切って移動できる閾降下距離DSを有することができる。一部の実施構成において、エミッタ522は、エミッタ522以外の周辺光及び他の浮遊光源を排除するように1kHzに変調される。
段差12は、床表面10から距離DCを有することができる。ロボット100は、推定距離d1が閾降下距離DSよりも小さいときに段差を超えて移動することができる。d1>DSである場合、ロボット100は、実際の段差を検出し、プロセッサ202は、挙動部300を実行し、ロボット100が段差12から落下するのを防ぐことができる。
一部の実施例において、製造時には較正が実施可能ではないので、センサ520のパラメータは未知である。未較正のセンサ520は、ランタイム時に較正することができる。一部の実施例において、近接センサ520が公称距離d1nにて床表面10に面して配置されたときには、公称面での比に対する式1及び2の比測定を参照する。公称距離d1nでは、
Figure 0006250617
別の距離では、
Figure 0006250617
ここで、距離d1は、2つのレシーバのベースラインオフセットd0及び公称距離d1nが既知である場合に推定することができる。
センサ520は、d1th=kd0を定義することにより、表面に対する接近度のデジタル指標として用いることができる。よって、Rthの閾値は、次式となる。
Figure 0006250617
ここでセンサ520は、R≧Rthであるときに障害物が近くにあり、そうでなければ、床表面10が離れていることを示すことになる。
Figure 0006250617
と仮定すると、Rthは、次式となる。
Figure 0006250617
k>>>1では、閾値は次式に簡約される点に留意されたい。
Figure 0006250617
閾値は、公称比測定の良好な推定に依存するので、信頼生のある推定法を用いて、Rnの値を求め、センサ520が異なる表面(すなわち、異なる床の高さレベル)に曝されるときに常に更新することができる。
図9A、9B及び11Aは、3要素近接センサの2体積「真理値表」クラス(以下、「真理値表クラス」)を記述しており、ここでは、2つの異なる体積を用いて可変の降下距離、マルチパス、ピッチ角、及びアルベド状況を効率的な決定行列に分類する。このクラス内では、異なる実施構成のために2つの要素が1つの種類で、1つの要素が残りの種類を用いる(2つのエミッタと1つのレシーバ、又は2つのレシーバと1つのエミッタ)。
図9、11A、及び13A〜Hを参照すると、一部の実施例において、近接センサ520eは、エミッタ522及び第1及び第2のレシーバ524a、524bを収容するセンサ本体514を含む。レシーバ524a、524bは、互いに隣接している。エミッタ522は、第2のレシーバ524bの反対側で第1のレシーバ524aに隣接して配置される。エミッタ522と第1のレシーバ524aを隔てる距離S1は、第1のレシーバ524aと第2のレシーバ524bとの間の距離S2よりも小さくすることができる。エミッタ522はエミッタ視野523を有し、第1及び第2のレシーバ524a、524bの各々は、それぞれ第1及び第2の視野525a、525bを有する。エミッタ視野523は、第1のレシーバ視野525aと交差し、第1の体積V1を定める。加えて、エミッタ視野523は、第2の視野525bと交差して第2の体積V2を定める。第1の体積V1は、閾降下距離DS(上述のように、DSは、ロボット100が第1の床表面10aから第2の床表面10bに進むことができる最大距離である)を有するゾーンを定め、第2の体積V2は、閾降下距離DSよりも大きい距離DACにある。従って、第1の体積V1及び第2の体積V2は、2つの異なるレシーバ524a、524bによって検出された異なる距離(距離DS内で最大でもDSである距離と、距離DSを超える距離)で重なり合う2つの層を定める。以下の二値真理値表1でまとめられるように、「1」又は「0」は、体積V1、V2の何れか、両方、又は何れでもないときの表面から受け取った放射を示しており、これらの体積での検出の二値特性を組み合わせて、ロボットがどのような動作を示すかを決定付ける。センサ520が第1の体積V1において応答を受け取り、第2の体積V2において応答を受け取らなかった場合、ロボット100は、床張り状態のみを検出し、現在の移動方向で移動を継続する。センサ520が第1の体積V1と第2の体積V2において床張りを検出した場合、実際の段差がロボット100に信号で伝えられ、ロボット100は移動を停止する。センサ520が、第2の体積V2においてのみ床張りを検出し、第1の体積V1において検出しなかった場合には、閾降下距離DS内に床が検出されなかったので、ロボット100は停止するよう信号を受け取る。センサ520が第1の体積V1においても第2の体積V2においても床張りを検出しなかった場合には、レシーバ524a、524bが放射を受け取るには床表面10が遠く離れているか、放射523が何れかのレシーバに到達するには暗過ぎる(及び吸収される)か、又はセンサ520が作動を停止しているかの何れかであるので、ロボット100は停止する。
(表1)
Figure 0006250617
換言すると、ロボット100が閾降下距離DSよりも小さい、ロボット100からの距離dを有する表面10を検出した場合、ロボット100は、床表面10上を移動し続けることができる。距離dが戻り閾距離DS1よりも小さい場合、ロボット100は、2つの表面10a、10b間を自在に移動することができる。距離dが閾降下距離DSよりも小さいとロボット100が判定した場合、実際の段差が存在するので、ロボット100はその経路で継続すべきではないと判定する。2つのレシーバを用いることにより、段差センサの底面から閾降下距離DS内に床張りが存在するという正しい真陽性のセンサ読み取り値が確保され、第1のレシーバ視野525aが放射523と交差する。
図9B及び11A〜C、並びに13A〜Hを参照すると、一部の実施例において、近接センサ520fは、上述のように1つのエミッタ522及び2つのレシーバ524a、524bではなく、1つのレシーバ524と第1及び第2のエミッタ522a、522bとを収容するセンサ本体514を含む。エミッタ522a、522bは、互いに隣接している。レシーバ524は、第2のエミッタ522bの反対側で第1のエミッタ522aに隣接して配置される。レシーバ524と第1のエミッタ522aとの間の距離S1は、第1のエミッタ522aと第2のエミッタ522bとの間の距離よりも小さくすることができる。レシーバ524は、レシーバ視野525を有し、第1及び第2のエミッタ522a、522bの各々は、それぞれ第1及び第2の視野523a、523bを有する。レシーバ視野525は、第1のエミッタ522aの視野523aと交差し、第1の体積V1を定める。加えて、レシーバ視野525は、第2のエミッタ522bの視野523bと交差し、第2の体積V2を定める。従って、第1の体積V1及び第2の体積V2は、2つの異なるソースからの点灯を有する異なる距離(閾降下距離DS内で最大でもDSである距離と、閾降下距離DSを超える距離)で2つの重なり合う層を定める。一部の実施構成において、ソース(すなわち、エミッタ522a、522b)は同じ点灯を行うことができ、ロボット100は、2つの放射を識別するために、1つをオンにし、1つをオフに交互にするよう時間領域で放射を変調する。時間領域で変調される複数のセンサを有する実施例において、センサ520は、ラウンドロビンシーケンスで発射し、ロボット100のプロセッサが1ms/センサで(又はそれよりも高速で)処理して、移動中の段差状態に対して時間内で応答する(例えば、回復不能な事象が起こる前に検知した実際の段差からロボット100を配向し直す)ように点灯することになる。別の実施構成において、2つのエミッタ522a、522bは、周波数領域で異なるように変調される。一部の実施構成において、FFT技法を利用することで、1又は2の変調周波数期間内に応答がもたらされる。一部の実施構成において、エミッタ522a、522bは、光周波数領域で変調され、2つのソースの確実な別個の検出のため2つの異なる放射色を使用し、レシーバ524は、2つの異なる波長を識別する。
図13A〜13Hは、第1及び第2の体積V1、V2内の検知面の種々の状態を示す状態図を描いている。図13A〜13Hが示すように、ロボット100が段差12又は極めて高い段差にて暗色面に遭遇する状況において、第1の体積V1は、床(又は段差底部)が光を反射するには暗過ぎるので検知されない。第2の体積V2は、段差底部が暗過ぎるか又は遠すぎるので検知されない。図13C及び13Dが示すように、ロボット100は、第2の体積V2内で感知される段差12の暗色又は明色底部の上をロボットが移動するときにバッフル519、521及びセンサ520のハウジング514の角度により反射が除外されることに起因して第1の体積V1内で横断可能面は検知されない場合には、ロボット100は移動を停止することになる。図13E及び13Fが示すように、ロボット100が横断可能面12a上にあるときには(すなわち、実際の段差ではなく)、床10は第1の体積V1内で感知可能であるが、ハウジング514のバッフル519、521、並びに第2のエミッタ522b(又は第2のレシーバ524b)の角度θ2及び1つのレシーバ524(又は1つのエミッタ522)の角度θ3によって反射が排除されるので、床10は第2の体積V2内では感知されない。図13G及び13Hにおいて、ロボット100は、明色の段差底部及び垂直上り部13を有する実際の段差にあるので、移動を停止することになる。ここで、複数の反射523mは第1の体積V1内の表面を示すことになるが、ハウジング514のバッフル519、521並びに第2のエミッタ522b(又は第2のレシーバ524b)の角度θ2及び1つのレシーバ524(又は1つのエミッタ522)の角度θ3によって段差底面10又は極めて明るい面からの反射/マルチパスを検知することが可能となるので、段差底部の床表面10もまた、第2の体積V2内で感知される。
図9A〜9Bにおいて示される実施構成において、第1の又はその近距離体積V1は、LEDのレンズ効果、バッフリング、及び/又は他の光閉じ込め、コリメーション、又は場制限を用いて、ロボットの本体と近距離体積V1における関心領域の端部との間に延びるように範囲が制限される。近距離体積V1における関心領域は、カーペットと硬質床両方のロボットの最低地上高を含む(すなわち、短、中、及び高パイルカーペット繊維の遠位端が、硬質床表面と同様に、この領域内にあることになる)。従って、近距離体積V1は、ロボット又はセンサ底部0cmからおよそ3〜5cmまで延びる(幅が約20〜40cmでホイール直径が約3〜8cmのロボットにおいて)。第1の体積V1は、ロボット又はセンサ底部から僅かに離間して始まる(例えば、0cmではなく、0〜2cm)ように構成することができる。
近距離体積又は遠距離体積内で受け取った信号強度は、反射が領域底部からではなく領域上部から来る場合により強くなることができる。図9A〜9Bの各々において、レシーバの視野が連続しているがより強い反射のみが検出されることになる領域RFOVが示されている。近距離体積及び遠距離体積は、エミッタ及びレシーバ視野の重なり(例えば、図9A及び9Bの近距離体積V1)によって、或いは、これに加えて、閾信号強度(例えば、遠距離体積V2の底部)によってほとんど境界付けることができる。
第1の体積V1及び/又は第2の体積V2間の信号検出においてより先鋭な境界を生成するために、両方又は何れかの視野を直列配列の複数(すなわち、1つよりも多い)のバッフルにより境界付けることができる。図11Aにおいて、2つの順次的バッフル519は、近距離体積から遠距離体積V2への移行部にて体積のより先鋭な端部を生成する。加えて、2つの順次的バッフル521は、近距離体積V1から遠距離体積V2への移行部にて体積V2のより先鋭な端部を生成する(すなわち、図9A及び図9Bにおいて、閾距離DSが終わり、実際の段差距離DACが始まる場所)。
図9A及び9Bに示すように、第1又は近距離体積V1は、ロボット100の底部(又はセンサ520出口、例えば、図11AのB1−B2付近)から約0〜2cmの最上限度と、ロボット100の底部(又はセンサ520出口)から約3〜5cmの最下限度とを有する。任意選択的に、この体積V1のほぼ中間部分は、予想される床距離(カーペット又は硬質床を含む)にあるとすることができる。
図9A及び9Bに示すように、第2又は遠距離体積V2は、ロボット100の底部(又はセンサ520出口、例えば、図11AのB1−B2付近)から約4〜6cmの最上限度と、より暗い面におけるロボットの底部(又はセンサ出口)から約6〜10cmの最下限度と、より明るい面におけるロボット100の底部から約6〜25cmの最下限度とを有する。第2又は遠距離体積V2の最下限度は、例えば、標準的な上り階段13が6〜8インチ幅であるので、多くの暗い又は明るい階段奥行きを含むことになる。体積V2の最下限度は、より暗い面又は遠位の明色面から信号戻りの予想される信号強度によって境界付けることができる。
1つのエミッタ522と2つのレシーバ524とを有する上述の実施例と同様に、第1の体積V1が第1の閾降下距離DS内のゾーンを定め、第2の体積V2は、段差状態(実際の段差)、すなわち、閾降下距離DSよりも大きい閾距離DACにある。上記の表1にまとめられるように、センサ520が第1の体積V1において床張りを示す応答を受け取り、第2の体積V2において応答を受け取らなかった場合、ロボット100は、床張り状態のみを検出し、現在の移動方向で移動を継続する。センサ520が第1の体積V1と第2の体積V2において床張りを検出した場合、段差状態(実際の段差)がロボット100に信号で伝えられ、ロボット100は移動を停止する。センサ520が、第2の体積V2においてのみ床張りを検出し、第1の体積V1において検出しなかった場合には、閾降下距離DS内に床10が検出されなかったので、ロボット100は停止するよう信号を受け取る。センサ520が第1の体積V1においても第2の体積V2においても床表面10を検出しなかった場合には、放射場523a、523b(視野とも呼ばれる)がレシーバ524に到達するには床表面10が遠く離れ過ぎているか、放射場523a、523bがレシーバ524に到達するには暗過ぎる(及び吸収される)か、或いはセンサ520が作動を停止しているかの何れかであるので、ロボット100は停止する。換言すると、ロボット100が閾降下距離DSよりも小さい、ロボット100からの距離dを有する段差12を検出した場合、ロボット100は、段差12が横断可能敷居12aであり、該横断可能敷居12aを超えて移動し続けることができると判定する。距離dが戻り閾距離DS1よりも小さい場合、ロボット100は、横断可能敷居12aによって隔てられた2つの表面10a、10b間を自在に移動することができる。距離dが閾降下距離DS(すなわち、横断可能敷居12a)よりも小さいとロボット100が判定した場合、実際の段差が存在するので、ロボット100は停止する。異なる距離にてレシーバ視野と交差するそれぞれの放射場523a、523bを有する2つのエミッタ522a、522bを用いることにより、閾降下距離DS内に床張り面10が存在するという正しい真陽性のセンサ読み取り値が確保される。
図8A〜8D、9A及び9Bを再度参照すると、各近接センサ520のエミッタ522又はエミッタ522a、522bは、赤外光を放射することができる。各レシーバ524又はレシーバ524a、524bは、放射された赤外光の反射を受け取る。一部の実施例において、各センサ構成要素522、524(すなわち、エミッタ及びレシーバ)は、視野軸線Fを定め、センサ本体514は、横軸線XS及び長手方向軸線YSを定める。センサ構成要素522、524は、横軸線XSに沿って配置され、これらの視野軸線Fは長手方向軸線YSに対して角度θ1、θ2、θ3で配列することができる。一部の実施例において、少なくとも1つのエミッタ522は、レシーバ524が反射光を受け取るためにレシーバ524に対して鋭角をなす。センサの横軸線XSは、ロボットの横断軸線Xに対してある角度又は平行とすることができる。これに加えて、又は代替として、センサの長手方向軸線YSは、ロボットの中心垂直軸線Zに対してある角度又は平行とすることができる。
図8Dを参照すると、エミッタ522の視野523は、長手方向軸線YSに沿うことができ、ゼロに等しい長手方向軸線YSに対する角度θ3をなすことができる。他の構成も実施可能である。
図9Aに示すように、レシーバ524a、524bの視野軸線F525a及びF525bは、近接センサ本体514の長手方向軸線YSに対して平行であるか、又は0〜約45度の角度θ1、θ2で配列することができ、狭いハウジング本体514を有する一部の実施例では、θ1、θ2は、指定の最大閾降下距離DSを達成するために約5〜25度の間にある場合がある。一部の実施構成において、角度θ1、θ2は必ずしも等しくなくてもよい。一部の実施構成において、遠距離体積エミッタ視野523bの視野角β523bは、約5〜15度、好ましくは約10度とすることができ、遠距離体積エミッタ視野523aの視野β523aは、これとほぼ同じとすることができる。この場合、レシーバ視野525の視野軸線F523は、長手方向軸線YSに対して約5度〜約45度の角度θ3で配列される。放射523の視野軸線F523は、レシーバ524a、524b両方の視野F525a、F525bと交差するよう配列することができる。エミッタ522の視野軸線F523の広がり角β523は、レシーバ524a、524bの視野軸線F525a、F525bの広がり角β525a、β525bよりも大きいとすることができる。広がり角は、対応する視野軸線を中心とすることができる。同様に、図9Bにおいて、放射523a、523bの視野軸線F523a及びF523bは、近接センサ本体514の長手方向軸線YSに対して平行であるか、又は0〜約45度の角度θ1、θ2で配列することができ、狭いハウジング本体514を有する一部の実施例では、θ1、θ2は、指定の最大閾降下距離DSを達成するために約5〜25度の間にある場合がある。一部の実施構成において、レシーバ525の視野軸線F525は、長手方向軸線YSに対して約5度〜約45度の角度θ3で配列され、エミッタ522a、522bの視野軸線F523a、F523bと交差するよう配列することができる。レシーバ524の視野軸線F525の広がり角β525は、エミッタ522a、522bの視野軸線F523a、F523bの広がり角β523a、β523bよりも大きいとすることができる。この場合も同様に、広がり角は、対応する視野軸線を中心とすることができる。一部の実施例において、DSは、約1インチ〜約3インチであり、段差12は、dがDSよりも大きい(例えば、約2インチよりも大きい)ときに検出される。
一部の実施構成において、図9A及び9Bに示されるように、エミッタ522、522a、及びレシーバ524、524aは、第1の関心領域(例えば、第1の床表面10)を見るように照準が定められる。第2のエミッタ522b又は第2のレシーバbは、エミッタ522からの放射光又はセンサ520の高いゲイン及び感度によって引き起こされる浮遊光子のマルチパス反射の誤検出について制御するために付加される。一部の実施構成において、符号化変調(38kHz上のデータ)を用いて第1のエミッタ522aと第2のエミッタ522bとを識別し、従って、センサは、時間符号化と周波数符号化の混成であり、ここで周波数符号化は、外部ソースを排除し、時間符号化は、どのエミッタが点灯しているかを識別する。一部の実施構成において、38kHzレシーバ524は、同時符号化データの8ビットを用いて、約90dB増幅度で使用される。6ビットは、段差センサ520として透過ソースを識別するために使用され、2ビットは、透過ソースを第1又は第2のエミッタ522a、522bの何れに属するかを識別するのに使用される。一部の実施構成において、レシーバは、1kHzで変調されたゲインが約80dBのフォトダイオードであり、透過ソースを第1又は第2のエミッタの何れに属するかを識別するのに2ビットが使用される。
1つのエミッタと1つのレシーバのみを備えた段差センサ520では、特定の床表面10を検知するのは困難である。近IR領域において光学的に極めて吸収性のある特定の表面10(すなわち、黒色カーペット)は、誤った距離dでセンサをトリガさせる可能性がある。段差センサ520のレシーバ524は、黒色カーペットを考慮して高いゲインを有するので、暗い表面から反射する少量の光を調べることができるが、閾降下距離DSを超える表面から反射する光も調べることができる。第2のエミッタ522b又は第2のレシーバ524bは、段差12の存在(又は存在しないこと)を確認するために、閾降下距離DSを超えるこの第2の関心領域(例えば、可能性がある第2の床表面10b)に照準が定められる。例えば、図9Bの実施例において、第2のエミッタ522bは、レシーバ524が、段差12を示し且つロボット100の移動を停止させる閾降下距離DSを超える距離表面10上の放射ビーム523bのみを調べることができるように配列される。特別に配列された第2のエミッタ522bを用いると、ロボット100が中断されずに移動できる近距離床張り面10の存在によるレシーバ視野525と第2の放射523bの交差が予め回避されることに起因して、センサ520は、第1のエミッタ522aが第1の体積V1において床表面10の存在を示し且つ第2のエミッタ522bが段差12を示していないときに、閾降下距離DS内に位置する床張り面10を確実に判定することができる。換言すると、閾降下距離DS内の高さdに位置する床張り面10の検知によって判定され、閾降下距離DSを超える床張り面10の検知がないことによって判定されるように段差12が存在しないことに起因して、段差センサ520は、ロボット100に移動を維持するよう信号を送る。床表面10は、全体で第2の体積V2の形成を阻止する。第2の体積V2の形成が無い場合、当該体積内で検知される床張り面10が存在しない。
エミッタ522及びレシーバ524は、クロストークを防ぐために増分的又は順次的に作動することができ、このクロストークは、1つのセンサ構成要素が2つのセンサ構成要素から同時に信号を受け取ったときに起こり、これにより物体又は段差12の誤検出(例えば、偽陽性又は偽陰性)が生じる。他の実施例において、上述のように、複数の段差センサを順次的に作動させ、マルチパス測定値を排除することができる。FFTを用いた更に別の実施例において、同時放射では異なる周波数のエミッタを有し、これにより誤った測定値を阻止することができる。更に他の実施例において、エミッタ522a、522bは、光周波数領域で変調され、2つのソースの信頼性のある分離検出のため2つの異なる色の放射を使用し、レシーバ524は、2つの異なる波長を識別する。
図9C、10A、及び10Bを参照すると、一部の実施構成において、段差センサ520の視野523、525は、後方視角αで(一次移動方向Fに対して)後方を確認する。一部の実施例において、αは、(センサの長手方向軸線YSから)10度未満である。この角αは、2つの対立する制約条件すなわち、第1は、障害物を登っている間も床10を依然として検知することができること(例えば、図9Cに描かれるように、第2の床表面10bから第1の床表面10aを隔てる降下距離DC)、第2に、ロボット100はそれほど後方を確認しないので、ロボット100が降りることができない実際の段差の上り階段13(又は、図10Aに示すような下り段の前方の他の垂直面)を調べることの釣り合いをとるように決定される。(図10Aにおいて、マルチパス放射523mは、第1のエミッタ522a及び第1の体積V1と関連する放射523aと同一であり、直接放射523dは、第2のエミッタ522b及び第2の体積V2と関連する放射523bと同一である)。センサレシーバ524は、上り階段13から跳ね返るマルチパス放射534mを受け取ることに加えて、閾降下距離DSを超える距離dを示す放射523dを受け取るので、ロボット100は、段差状態(すなわち、実際の段差)であると信号を受け取る。換言すると、ロボット100が、DSよりも大きい距離d(センサ520から第2の床表面10bまで)を有する段差に向かって移動するときには、上り階段13から跳ね返って段差センサ520のレシーバ524に戻る何らかのマルチパス放射534mは、ロボット100が移動して回復不能状態(例えば、ホイール124、124a、124b、又はキャスター126が下り段から宙づりになる状態)になる前に生じる可能性は幾何学的にあり得ず、この時点ではセンサレシーバ524は、実際の段差を示す放射523dを受け取る。10度未満で後方を確認するよう段差センサ520の視野後方視角αを調整することにより、10度を超える後方視角αで起こる、マルチパス放射523mが垂直面13から反射して閾距離DS内の床表面10までの距離dを誤って示す可能性が最小限になる。これにより、キャスター126が、段差(d>DS)の端部を転動して、ロボット100が落下又は下り段の端部に衝突するなどの回復不能な状態になるのを防ぐことができる。図9Cに示すように、移動方向Fから後方を確認する段差センサ520の視野523、525を有することにより、ロボット100は、第2の床表面10bから第1の床表面10aを隔てる降下距離DC並びに閾降下距離DS以内の上り段高さ及び下り段高さ(すなわち、センサ520からの距離d)を有する段差12aを横断するようロボット100が傾斜したときの横断可能敷居12a(すなわち、閾降下距離DS以内の床張り状態)を検知することができる。図10Bは、表1の第2の縦列におけるセンサ応答に一致する状態を描いており、その両方の放射523a、523dの応答は、閾距離DSを超えて位置する表面10から反射した後にレシーバ524によって受け取られる。ここの表面は、離れ過ぎており(d>>DS)、表面10は、白大理石の階段のように拡散反射性がある。
何れの場合においても、表1に関して上記で説明したように、ロボット100は、4つのセンサ状態に応答することができ、その1つだけが、実際の段差の懸念なくロボット100が移動を継続する状態(d≦Ds)を示している。ロボット100は、他のセンサ状態にも応答することができる。
図11A〜11Cを参照すると、センサ本体514は、センサ構成要素522、524のうちの少なくとも1つのセンサ構成要素の視野523、525を定める少なくとも1つの壁516を含む。壁516は、エミッタ又はレシーバから反射した光が物体又は段差12に衝突又は受け取られるのを阻止又は低減する。壁516は、バッフルピンチ点A1、A2、B1、B2で光を配向し、従って、壁516は、センサ構成要素522、524のうちの少なくとも1つのセンサ構成要素の視野523、525を定める。壁516は、センサ構成要素522、524の視野523、525を狭窄又は拡大するよう設計することができる。図11Aの実施例において図示されるように、センサ本体514は、4つのピンチ点(上側の2つのピンチ点A1、A2と、下側の2つのピンチ点B1、B2)を備えた二重バッフルを有する。上側ピンチ点A1、A2の開口により、放射523がハウジング514の体積を満たすことができ、下側ピンチ点B1、B2は、明確なカットオフ部(すなわち、先鋭な放射光境界)を生成する。放射523は、先鋭であり、これにより第1の体積V1から及び第1の体積V1への移行状態、第1の放射場523a及びレシーバ視野525(又は2つのレシーバと1つのエミッタの実施例における第1のレシーバ視野524a及びエミッタ522)の交差、並びに第2の体積V2が始まる移行状態及び閾降下距離の精度が改善される。図11B及び11Cに示すように、放射523は、最小の降り端部放射523eと共に、「先鋭な」中心放射523cを定める。降り端部放射523eの角度は、中心放射523cから1度未満である。床表面10から投射される放射523のサイズは、LEDビーム放射がどれほど狭いか、及び第2のピンチ点開口B1、B2からの床表面10の距離に依存する。加えて、一部の実施構成において、下側ピンチ点開口B1、B2は、LEDエミッタ522の電力半値角に等しい距離にわたる開口幅のサイズにされる。放射523の端部の明るさを管理するには、開口B1、B2の幅を狭くすることが必要となる可能性がある。放射523の端部での電力を管理することによって、閾降下距離Dsのカットオフは、放射523a、523bとレシーバ視野525との間の明確な交差点にある。この移行点における精度は、表面依存性を排除し、床張りタイプにわたるセンサ応答とロボット100のロール及びピッチ角の整合性を改善する。
図9A及び9Bの2体積真理値表の実施構成を用いた距離測定を可能にするために、第2のレシーバ524c(又は第2のエミッタ)(図示せず)をエミッタ522a、522b(又はレシーバ524a、524b)の間又は傍に配置することができ、視野は、近距離又は遠距離エミッタ522a、522b(又はレシーバ524a、524b)の何れか又は両方の近距離又は遠距離体積の何れか又は両方を重なり合わせている。図9Bに第2のレシーバ524cを付加することに関して、第2のレシーバ524cは、第1のレシーバ524よりも候補表面/体積(近距離敷居又は遠距離下り段体積)から遠位にあり、図8B及び8Cのように第1のレシーバ524と同じ側又は反対側に配列されることになる。従って、3要素センサの2つの実施構成を組み合わせた混成差分/2体積センサは、第1及び第2のエミッタと第1及び第2のレシーバとを有することになる。第1のレシーバは、近距離閾降下距離Dsにて第1のエミッタ522aの第1の体積V1と、遠距離階段降下距離にて第2のエミッタ522bの第2の体積V2を観測するよう構成され(センサ520の底部のレンズ効果により)、第2のレシーバ524cは、第1のレシーバ524aよりも遠位の位置から、第1の体積V1又は第2の体積V2の一方又は両方の少なくとも一部を観測するよう構成されることになる。
作動時には、ロボットは、表1の真理値表及び図13A〜Hの真理値表状態図に記載されたのと同じ論理に従い、又は従うことができる。それでも尚、混成センサを用いて、閾値及びゲインを確認し、第1又は第2の体積含有量(ゲイン増大又は帯域通過フィルタ処理により)の何れかを確認し、表面タイプ(例えば、反射性、パターン化、硬質、軟質、浅い又は深いパイルの中から)を判定し、表面距離(高い中心、ピッチ、ヨー)に応じて状況を分類することができる。或いは、異なる真理値表は、V1、V2、V3、及びV4で統合することができ、V3及びV4は、駆動停止決定ではなく、確認に使用される第2のレシーバ524cからもたらされる。
図12は、移動式ロボット100の作動方法1200の例示的な工程構成を示す。方法1200は、コンピュータプロセッサにおいて、第1のセンサ522a、522bからデータを受け取るステップ1202を含む。第1のセンサ522a、522bは、第1のエミッタ522a及び第1のレシーバ524aを含む。本方法1200は、コンピュータプロセッサにおいて、第2のエミッタ522b及び第2のレシーバ524bを備えた第2のセンサ522b、524bからデータを受け取るステップ1204を含む。第1のエミッタ522a及び第2のエミッタ522bは、同じエミッタ522であり、第1のレシーバ524a及び第2のレシーバ524bは、同じレシーバ524である。本方法1200は、コンピュータプロセッサを用いて、受け取ったデータに基づいて検知基準点(例えば、レシーバ524)と検知した物体との間の目標距離dを求めるステップ1206と、目標距離dが第1の閾距離Ds又は第2の閾距離DNS内にあるかどうかを判定するステップ1208とを含む。本方法1200はまた、コンピュータプロセッサから、目標距離dが第1の閾距離Ds又は第2の閾距離DNS内にあるかどうかに基づいて、コマンドを発するステップ1210を含む。一部の実施例において、目標距離dが第1の閾距離又は第2の閾距離内にあるかどうかを判定するステップとコマンドを発するステップとの間の処理時間は、約10ミリ秒(±5ms)以下である。プロセッサは、キャスターホイール126が段差12から落下する前にロボット100の方向を変えるコマンドを発するべきかどうか判定する必要があるので、処理時間は、センサ520とキャスターホイール126との間の距離に基づいている。従って、キャスターホイール126(又はセンサ520に近接した何れかのホイール)がセンサ520からの近接距離内にある場合には、段差12が存在するかどうかを判定して、ロボット100が移動を維持することができるかどうかを評価するのに必要となる時間がより少なくなる可能性がある。キャスターホイール126(又は何れかの他のホイール)間の距離がより大きい場合、ロボットは、決定を下すのにより長い時間を用いることができる。
図9Aを再度参照すると、一部の実施構成において、第1のエミッタ522a及び第2のエミッタ522bが同じである場合、方法1200は更に、第1の視野523に沿って第1のエミッタ522aから光を放射し、第2の視野525aに沿って第1のレシーバ524aにて光の反射を受け取るステップを含む。加えて、方法1200は、第3の視野525bに沿って第2のレシーバ524bにて光の反射を受け取るステップを含む。第1の視野523は、第2及び第3の視野525a、525bと交差する。第1及び第2の視野523、525aの交差は、第1の体積V1を定め、第1及び第3の視野523、525bの交差は、第2の体積V2を定める。第1の体積V1は、検知基準点(例えば、ロボット本体110)から第1の閾距離DS内の第1の床表面10aを検出し、第2の体積V2は、検知基準点から第1の閾距離DSよりも大きい第2の閾距離内の第2の床表面10bを検出する。第1、第2、及び第3の視野523、525a、525bは、第1、第2、及び第3の視野軸線F523、F525a、F525bそれぞれを定めることができ、ここで第1、第2、及び第3の視野軸線は平行である。加えて、又は代替として、方法1200は、第1の視野523によって定められる視野軸線F523を共通の長手方向検知軸線YSに対して約5度〜約15度の角度で配列するステップと、第2及び第3の視野525a、525bによって定められる視野軸線F525a、F525bを、共通の長手方向検知軸線YSに対して約0度〜約10度の角度で配列するステップと、を含むことができる。
図9Bを再度参照すると、一部の実施構成において、第1のレシーバ524a及び第2のレシーバ524bが同じである場合、方法1200は更に、第1の視野525に沿って光の反射を受け取るステップと、第2の視野523aに沿って第1のエミッタ522aから光を放射するステップと、を含む。方法1200はまた、第3の視野523bに沿って第2のエミッタ522bから光を放射するステップを含む。第1の視野525は、第2及び第3の視野523a、523bと交差し、ここで第1及び第2の視野525、523bの交差は第1の体積V1を定める。第1及び第3の視野525、523bの交差は、第2の体積V2を定める。第1の体積V1は、検知基準点から第1の閾距離DS内の第1の床表面10aを検出し、第2の体積V2は、検知基準点から、第1の閾距離DSよりも大きい距離である第2の閾距離内の第2の床表面10bを検出する。第1、第2、及び第3の視野525、523a、523bは、第1、第2、及び第3の視野軸線F525、F523a、F523bそれぞれを定め、ここで第2及び第3の視野軸線523a、523bは平行である。加えて、又は代替として、方法1200は、第1の視野525によって定められる視野軸線F525を共通の長手方向検知軸線YSに対して約5度〜約15度の角度で配列するステップと、第2及び第3の視野523a、523bによって定められる視野軸線F523a、F523bを、共通の長手方向検知軸線YSに対して約0度〜約10度の角度で配列するステップと、を含むことができる。
本明細書に記載したシステム及び技術の様々な実施構成は、デジタル電子回路及び/又は光学回路、集積回路、特別に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア及び/又はこれらの組み合わせで実現することができる。これらの様々な実施構成は、ストレージシステム、少なくとも1つの入力装置及び少なくとも1つの出力装置との間でデータ及び命令を受信及び送信するように結合された少なくとも1つのプログラマブルプロセッサ(専用又は汎用とすることができる)を含むプログラマブルシステム上で実行可能及び/又は解釈実行可能な1又はそれ以上のコンピュータプログラムにおける実施構成を含むことができる。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション又はコードとしても知られる)は、プログラマブルプロセッサのための機械命令を含み、高レベル手続き型及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ言語/機械語で実装することができる。本明細書で使用される「機械可読媒体」及び「コンピュータ可読媒体」とは、機械命令又はデータをプログラマブルプロセッサに提供するために使用される、あらゆるコンピュータプログラム製品、非一時的コンピュータ可読媒体、装置及び/又はデバイス(例えば、磁気ディスク、光ディスク、メモリ、プログラマブル論理デバイス(PLD)を指し、機械可読信号として機械命令を受け取る機械可読媒体を含む。用語「機械可読信号」とは、機械命令及び/又はデータをプログラマブルプロセッサに提供するのに使用されるあらゆる信号を指す。
本明細書に記載した主題及び機能操作の実施構成は、デジタル電子回路又はコンピュータソフトウェア、ファームウェア、又はハードウェアで実施することができ、本明細書に開示された構造及びこれらの等価構造又はこれらの1又はそれ以上の組み合わせを含む。その上、本明細書に記載した主題は、1又はそれ以上のコンピュータプログラム製品、すなわち、コンピュータ可読媒体上に符号化され、データ処理装置によって実行するため又はデータ処理装置の動作を制御するためのコンピュータプログラム命令の1又はそれ以上のモジュールとして実装することができる。コンピュータ可読媒体は、機械可読ストレージデバイス、機械可読ストレージ基板、メモリデバイス、機械可読伝播信号に影響を与える組成物、或いは、これらの1又はそれ以上の組み合わせとすることができる。用語「データ処理装置」、「コンピュータデバイス」、及び「コンピュータプロセッサ」は、データを処理するあらゆる装置、デバイス及び機械を包含し、例えば、プログラマブルプロセッサ、コンピュータ、又は、複数のプロセッサ又は複数のコンピュータを含む。装置は、ハードウェアに加えて、対象のコンピュータプログラムに対する実行環境を生成するコード、例えば、プロセッサファームウェア、プロトコルスタック、データベースマネジメントシステム、オペレーティングシステム、又はこれらの1又はそれ以上の組み合わせを構成するコードを含むことができる。伝播信号は、人工的に生成される信号、例えば好適な受信装置に送信する情報を符号化するのに生成される機械生成電気信号、光信号又は電磁信号である。
コンピュータプログラム(アプリケーション、プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト又はコードとしても知られる)は、コンパイル型言語又はインタプリータ型言語を含むあらゆるプログラミング言語の形態で記述することができ、スタンドアロンプログラムとして、或いはモジュール、コンポーネント、サブルーチン又はコンピューティング環境で使用するのに好適な他のユニットとしてを含め、あらゆる形態で配備することができる。コンピュータプログラムは、必ずしもファイルシステムのファイルに対応させる必要はない。プログラムは、他のプログラム又はデータ(例えばマークアップ言語ドキュメントに格納された1又はそれ以上のスクリプト)を保持するファイルの一部に、対象のプログラムに専用の単一ファイルに、又は複数の協調ファイル(例えば、1又はそれ以上のモジュール、サブプログラム又はコードの一部分を格納するファイル)に格納することができる。コンピュータプログラムは、1つのコンピュータ上で、又は1つのサイトに位置するか、又は複数のサイトに分散されて通信ネットワークにより相互接続された複数のコンピュータ上で実行されるように配備することができる。
本明細書に記載したプロセス及び論理フローは、入力データを処理して出力を生成することによって種々の機能を実行するために1又はそれ以上のコンピュータプログラムを実行する1又はそれ以上のプログラマブルプロセッサによって実行することができる。このプロセス及び論理フローはまた、専用の論理回路、例えばFPGA(フィールドプログラマブルゲートアレイ)又はASIC(特定用途向け集積回路)によって実施することができ、装置もまた、そのような専用の論理回路として実装することができる。
コンピュータプログラムの実行に好適なプロセッサは、例えば、汎用及び専用のマイクロプロセッサ、及び何れかの種類のデジタルコンピュータの何らかの1又はそれ以上のプロセッサを含むことができる。一般に、プロセッサは、リードオンリーメモリ又はランダムアクセスメモリ、又はその両方からの命令及びデータを受け取ることになる。コンピュータの必須要素は、命令を実行するプロセッサと、命令及びデータを格納する1又はそれ以上のメモリデバイスである。一般に、コンピュータはまた、データを格納する1又はそれ以上の大容量ストレージデバイス(例えば磁気ディスク、磁気光学ディスク又は光ディスク)を含み、或いは、大容量ストレージデバイスからデータを受信し、又はデータを大容量ストレージデバイスに転送するように動作可能に結合される。しかしながら、コンピュータは、必ずしもこのようなデバイスを有する必要はない。更に、コンピュータは、別のデバイス、例えば、2〜3例を挙げると、移動体電話、携帯情報端末(PDA)、携帯オーディオプレーヤ、グローバル・ポジショニング・システム(GPS)レシーバに組み込むことができる。コンピュータプログラム命令及びデータを格納するのに好適なコンピュータ可読媒体は、あらゆる形態の不揮発性メモリ、メディア及びメモリデバイスを含み、例を挙げれば、例えば、EPROM,EEPROM及びフラッシュメモリデバイスなどの半導体メモリデバイス、内部ハードディスク又はリムーバブルディスクなどの磁気ディスク、磁気光学ディスク、及びCD ROM及びDVD−ROMディスクが挙げられる。プロセッサ及びメモリは、専用論理回路により補完することができ、またこの回路に組み込むこともできる。
ユーザとの対話を提供するために、本開示の1又はそれ以上の態様は、ユーザに対して情報を表示するためのディスプレイデバイス(例えば、CRT(冷陰極管)、LCD(液晶ディスプレイ)モニタ、又はタッチスクリーン)と、任意選択的にユーザがコンピュータに入力を提供できるキーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有するコンピュータ上で実施することができる。他の種類のデバイスを用いてもユーザとの対話を提供することができ、例えば、ユーザに提供されるフィードバックは、あらゆる形態のセンサフィードバック(例えば、視覚的フィードバック、聴覚的フィードバック、又は触覚的フィードバック)とすることができ、及びユーザからの入力は、音響、音声、又は触覚入力を含む、あらゆる形態で受け取ることができる。加えて、コンピュータは、ユーザにより使用されるデバイスに文書を送信し、当該デバイスから文書を受け取ることにより、例えば、ウェブブラウザから受け取ったリクエストに応答して、ユーザのクライアントデバイス上のウェブブラウザにウェブページを送信することによって、ユーザと対話することができる。
本開示の1又はそれ以上の態様は、コンピューティングシステムで実施することができ、該コンピュータシステムは、バックエンドコンポーネント(例えばデータサーバ)を含み、又はミドルウェアコンポーネント(例えばアプリケーションサーバ)を含み、或いは、フロントエンドコンポーネント(例えば、本明細書に記載した主題の実施構成とユーザが対話できるグラフィックユーザインタフェース又はウェブブラウザを有するクライアントコンピュータ)、もしくは1又はそれ以上のこのようなバックエンド、ミドルウェア又はフロントエンドコンポーネントのあらゆる組み合わせを含む。本システムのコンポーネントは、任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互接続することができる。通信ネットワークの実施例には、ローカルエリアネットワーク(「LAN」)及びワイドエリアネットワーク(「WAN」)、相互接続ネットワーク(例えば、インターネット)、及びピアツーピアネットワーク(例えば、アドホックピアツーピアネットワーク)が挙げられる。
コンピューティングシステムは、クライアント及びサーバを含むことができる。クライアント及びサーバは一般に、互いにリモートであり、通常は通信ネットワークを介して対話する。クライアントとサーバの関係は、互いにクライアント−サーバ関係を有するそれぞれのコンピュータ上で実行されるコンピュータプログラムによって生じる。一部の実施構成において、サーバは、クライアントデバイスにデータ(例えば、HTMLページ)を送信する(例えば、クライアントデバイスと対話するユーザからのユーザにデータを表示するため、及び当該ユーザからのユーザ入力を受け取る目的で)。(ユーザ対話の結果として)クライアントデバイスにて生成されるデータは、クライアントデバイスからサーバにて受け取ることができる。
本明細書は、多くの詳細事項を含むが、これらは、本開示又は請求項に記載された範囲を限定するものと解釈されるべきではなく、むしろ、本開示の特定の実施構成に特有の特徴に関する説明として解釈すべきである。また、別個の複数の実施構成の関連において本明細書で記載される特定の特徴は、単一の実施構成において組み合わせて実施することもできる。逆に、単一の実施構成の関連で記載される様々な特徴は、複数の実施構成において別々に、又は任意の好適な部分的組み合わせで実施することもできる。更に、これらの特徴は、特定の組み合わせで機能するように上記で説明され、更に、最初にそのように請求項に記載されている場合があるが、場合によっては、請求項に記載された組み合わせからの1つ以上の特徴を切り出すことができ、また、請求項に記載された組み合わせは、部分的組み合わせ又は部分的組み合わせの変形形態を対象とすることができる。
同様に、図面において幾つかの工程が特定の順序で示されているが、これは、このような工程が図示の特定の順序で又は順番で実行される必要があること、また所望の結果を得るために例示の全ての工程が実行される必要があることを要求するものと理解すべきではない。特定の状況においては、マルチタスク及び並列処理が有利とすることができる。更に、上記の実施例における様々なシステムコンポーネントの分離は、全ての実施例においてこのような分離が必要とされるものと解釈すべきでなく、また、記載したプログラムコンポーネント及びシステムは、単一のソフトウェア製品に統合することができ、又は複数のソフトウェア製品にパッケージングすることもできる。
幾つかの実施構成を説明してきた。それでも尚、本開示の精神及び範囲から逸脱することなく様々な修正を行うことができる点を理解されたい。従って、他の実施構成も添付の請求項の範囲内にある。例えば、請求項に記載した動作は、異なる順序で実行し、それでも尚所望の結果を得ることができる。
10 床表面
516 壁
520 段差検出近接センサ
522、524 センサ構成要素
523、525 センサの視野

Claims (25)

  1. 近接センサであって、
    センサ本体と、
    前記センサ本体により収容される第1のエミッタと、
    前記第1のエミッタに隣接して前記センサ本体により収容される第2のエミッタと、
    前記第2のエミッタの反対側で前記第1のエミッタに隣接して配置されるレシーバと、
    を含み、
    前記第1のエミッタが第1の視野を有し、前記第2のエミッタが第2の視野を有し、前記レシーバが第3の視野を有し、
    前記第1及び第3の視野の交差が第1の体積を定め、前記第2及び第3の視野の交差が第2の体積を定め、前記第1の体積が検知基準点から第1の閾距離内で第1の表面を検出し、前記第2の体積が前記検知基準点から第2の閾距離内で第2の表面を検出し、前記第2の閾距離が前記第1の閾距離よりも大き
    前記センサ本体が、前記第1及び第2のエミッタ並びに前記レシーバのうちの少なくとも1つの視野を定めるように配列された少なくとも2つのバッフルを含む、近接センサ。
  2. 前記第1及び第2のエミッタ並びに前記レシーバが、それぞれの視野軸線を定め、前記センサ本体が、横軸線及び長手方向軸線を定め、前記第1及び第2のエミッタ並びに前記レシーバが、前記長手方向軸線に対してある角度で配列された視野軸線と共に前記横軸線に沿って配置される、請求項1に記載の近接センサ。
  3. 前記第1及び第2のエミッタの前記視野軸線が平行である、請求項2に記載の近接センサ。
  4. 前記第1及び第2のエミッタ並びに前記レシーバのうちの何れかの視野が、前記センサ本体の前記長手方向軸線に対して0〜約10度の角度で配列される、請求項2に記載の近接センサ。
  5. 前記第1及び第2のエミッタの各々の視野が、約5度〜約15度の角度であり、前記レシーバの視野が、前記第1及び第2のエミッタの視野以上である、請求項2に記載の近接センサ。
  6. 前記第1の閾距離が約2.54cm7.62cmである、請求項1に記載の近接センサ。
  7. 前記第2の閾距離が7.62cmよりも大きい、請求項1に記載の近接センサ。
  8. 前記第1のエミッタと前記第2のエミッタとの間の第1の距離が、前記第2のエミッタと前記レシーバとの間の第2の距離よりも小さい、請求項1に記載の近接センサ。
  9. 前記第1の体積が、前記センサ本体から約5cm延びており、前記第2の体積が、前記センサ本体から遠隔の距離に約25cm延びている、請求項1に記載の近接センサ。
  10. 物体の近接度を検知する方法であって、
    コンピュータプロセッサにおいて、第1のエミッタ及び第1のレシーバを備える第1のセンサからデータを受け取るステップを含み、
    前記コンピュータプロセッサにおいて、第2のエミッタ及び第2のレシーバを備える第2のセンサからデータを受け取るステップを含み、前記第1のエミッタ及び前記第2のエミッタは同じエミッタであるか又は前記第1のレシーバ及び前記第2のレシーバは同じレシーバであり、
    前記コンピュータプロセッサを用いて、受け取った前記データに基づいて、検知基準点と検知した物体との間の目標距離を求めるステップを含み、
    前記コンピュータプロセッサを用いて、前記目標距離が第1の閾距離又は第2の閾距離内にあるかどうかを判定するステップを含み、
    前記目標距離が前記第1の閾距離又は前記第2の閾距離内にあるかどうかに基づいて、
    前記コンピュータプロセッサからコマンドを発するステップを含む、方法。
  11. 前記目標距離が前記第1又は前記第2の閾距離内にあるかどうかを判定するステップと前記コマンドを発するステップとの間の前記コンピュータプロセッサによる処理時間が、約10ミリ秒以下である、請求項10に記載の方法。
  12. 前記第1のエミッタと前記第2のエミッタが同じである場合、前記方法は更に、
    第1の視野に沿って前記第1のエミッタから光を放射するステップと、
    第2の視野に沿って前記第1のレシーバにて前記光の反射を受け取るステップと、
    第3の視野に沿って前記第2のレシーバにて前記光の反射を受け取るステップと、
    を含み、
    前記第1の視野が前記第2及び第3の視野と交差し、前記第1及び第2の視野の交差が第1の体積を定め、前記第1及び第3の視野の交差が第2の体積を定め、前記第1の体積が前記検知基準点から前記第1の閾距離内で第1の表面を検出し、前記第2の体積が前記検知基準点から前記第2の閾距離内で第2の表面を検出し、前記第2の閾距離が前記第1の閾距離よりも大きい、請求項10に記載の方法。
  13. 前記第1、第2及び第3の視野がそれぞれ第1、第2及び第3の視野軸線を定め、前記第2及び第3の視野軸線が平行である、請求項12に記載の方法。
  14. 前記第1の視野によって定められる視野軸線を、共通の長手方向検知軸線に対して約5度〜約15度の角度で配列するステップと、
    前記第2及び第3の視野によって定められる視野軸線を、前記共通の長手方向検知軸線に対して0度〜約10度の角度で配列するステップと、を更に含む、請求項12に記載の方法。
  15. 前記第1のレシーバと前記第2のレシーバが同じである場合、前記方法は更に、
    第1の視野に沿って光の反射を受け取るステップと、
    第2の視野に沿って前記第1のエミッタから光を放射するステップと、
    第3の視野に沿って前記第2のエミッタから光を放射するステップと、
    を含み、
    前記第1の視野が前記第2及び第3の視野と交差し、前記第1及び第2の視野の交差が第1の体積を定め、前記第1及び第3の視野の交差が第2の体積を定め、前記第1の体積が検前記知基準点から前記第1の閾距離内で第1の表面を検出し、前記第2の体積が前記検知基準点から前記第2の閾距離内で第2の表面を検出し、前記第2の閾距離が前記第1の閾距離よりも大きい、請求項10に記載の方法。
  16. 前記第1、第2及び第3の視野がそれぞれ第1、第2及び第3の視野軸線を定め、前記第2及び第3の視野軸線が平行である、請求項15に記載の方法。
  17. 前記第1の視野によって定められる視野軸線を、共通の長手方向検知軸線に対して約5度〜約15度の角度で配列するステップと、
    前記第2及び第3の視野によって定められる視野軸線を、前記共通の長手方向検知軸線に対して0度〜約10度の角度で配列するステップと、を更に含む、請求項15に記載の方法。
  18. 前記第1のエミッタと前記第1のレシーバとの間の第1の距離が、前記第2のエミッタと前記第2のレシーバとの間の第2の距離よりも小さい、請求項10に記載の方法。
  19. 前記第1の閾距離が約2.54cm〜約7.62cmに等しい、及び/又は、前記第2の閾距離が7.62cmよりも大きい、請求項10に記載の方法。
  20. 自律式ロボットであって、
    前方駆動方向を定めるロボット本体と、
    前記ロボット本体を支持し、表面上で前記自律式ロボットを操縦するよう構成された駆動システムと、
    少なくとも1つの近接センサと、
    を備え、
    前記少なくとも1つの近接センサが、
    第1の視野を有する第1の構成要素と、
    第2の視野を有する第2の構成要素であって、前記第1の視野がこの第2の視野と交差して第1の交差体積を形成する、前記第2の構成要素と、
    第3の視野を有する第3の構成要素であって、前記第1の視野が前記第3の視野と交差して第2の交差体積を形成し、該第2の交差体積が前記第1の交差体積よりも前記ロボット本体から遠位にあり且つ前記第1の交差体積に隣接する、前記第3の構成要素と、
    を含み、
    前記第1の構成要素が、エミッタ及びレシーバのうちの1つであり、前記第2の構成要素及び前記第3の構成要素の各々が、エミッタ及びレシーバの残りのものであり、
    前記自律式ロボットは、前記駆動システムと通信状態にあるコントローラを更に備え、
    前記コントローラは、
    前記第2及び第3の構成要素の各々を段階的又は連続的に有効及び無効にして、前記第2及び第3の構成要素の1つのみが一度に作動されるようにし、
    物体が前記第1の交差体積及び前記第2の交差体積の少なくとも1つと干渉したときに生成される、前記少なくとも1つの近接センサからの信号に基づいて、前記自律式ロボットを操縦するために駆動コマンドを前記駆動システムに発するよう構成され、
    前記少なくとも1つの近接センサが更に、少なくとも1つの構成要素の視野を定めるように配列された少なくとも2つのバッフルを含み、前記各構成要素が視野軸線を定め、前記センサ本体が横軸線及び長手方向軸線を定め、前記構成要素が、前記長手方向軸線に対して或る角度で配列された視野軸線と共に前記横軸線に沿って配置される、ロボット。
  21. 前記第1の交差体積が、前記ロボット本体から約5cm延びており、前記第2の交差体積が、前記ロボット本体から遠隔の距離に約25cm延びている、請求項20に記載のロボット。
  22. 前記第1の構成要素と前記第2の構成要素との間の第1の距離が、前記第2の構成要素と前記第3の構成要素との間の第2の距離よりも小さい、請求項20に記載のロボット。
  23. 前記第2の構成要素及び前記第3の構成要素の視野軸線が平行ではない、請求項22に記載のロボット。
  24. 前記第2の構成要素及び前記第3の構成要素の視野軸線が各々、前記ロボット本体の後方部分に向けて前記センサ本体により定められる長手方向軸線に対して0〜約10度の角度で配列される、請求項23に記載のロボット。
  25. 前記第1の構成要素の視野軸線が、長手方向軸線に対して約5度〜約15度の角度で配列され、前記第1の構成要素の視野軸線の前記角度が、前記第2及び第3の構成要素の視野軸線の角度よりも大きい、請求項22に記載のロボット。
JP2015238515A 2012-09-21 2015-12-07 移動式ロボットの近接センサ、近接検知方法及び移動式ロボット Active JP6250617B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261704419P 2012-09-21 2012-09-21
US61/704,419 2012-09-21

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015507268A Division JP5885147B2 (ja) 2012-09-21 2013-09-23 自動式ロボット

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017224805A Division JP6675373B2 (ja) 2012-09-21 2017-11-22 自律式ロボット

Publications (2)

Publication Number Publication Date
JP2016076248A JP2016076248A (ja) 2016-05-12
JP6250617B2 true JP6250617B2 (ja) 2017-12-20

Family

ID=50339648

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2015507268A Active JP5885147B2 (ja) 2012-09-21 2013-09-23 自動式ロボット
JP2015238515A Active JP6250617B2 (ja) 2012-09-21 2015-12-07 移動式ロボットの近接センサ、近接検知方法及び移動式ロボット
JP2017224805A Active JP6675373B2 (ja) 2012-09-21 2017-11-22 自律式ロボット

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015507268A Active JP5885147B2 (ja) 2012-09-21 2013-09-23 自動式ロボット

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017224805A Active JP6675373B2 (ja) 2012-09-21 2017-11-22 自律式ロボット

Country Status (8)

Country Link
US (3) US8862271B2 (ja)
EP (2) EP2834048B1 (ja)
JP (3) JP5885147B2 (ja)
CN (2) CN105404298B (ja)
AU (1) AU2013317738B2 (ja)
CA (1) CA2868860C (ja)
ES (1) ES2656899T3 (ja)
WO (1) WO2014047557A1 (ja)

Families Citing this family (172)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2011305154B2 (en) * 2010-09-24 2015-02-05 Irobot Corporation Systems and methods for VSLAM optimization
EP2825925B1 (en) * 2012-03-15 2022-04-27 iRobot Corporation Bumper for robot comprising sensor arrays
US9086274B2 (en) 2012-06-27 2015-07-21 Pentair Water Pool And Spa, Inc. Pool cleaner with laser range finder system and method
CN105404298B (zh) 2012-09-21 2018-10-16 艾罗伯特公司 移动机器人上的接近度感测
US9121703B1 (en) * 2013-06-13 2015-09-01 Google Inc. Methods and systems for controlling operation of a laser device
US9584775B2 (en) 2013-07-18 2017-02-28 BOT Home Automation, Inc. Wireless entrance communication device
US9013575B2 (en) 2013-07-26 2015-04-21 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9060103B2 (en) 2013-07-26 2015-06-16 SkyBell Technologies, Inc. Doorbell security and safety
US9172920B1 (en) 2014-09-01 2015-10-27 SkyBell Technologies, Inc. Doorbell diagnostics
US9065987B2 (en) 2013-07-26 2015-06-23 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9736284B2 (en) 2013-07-26 2017-08-15 SkyBell Technologies, Inc. Doorbell communication and electrical systems
US9049352B2 (en) 2013-07-26 2015-06-02 SkyBell Technologies, Inc. Pool monitor systems and methods
US9172922B1 (en) 2013-12-06 2015-10-27 SkyBell Technologies, Inc. Doorbell communication systems and methods
US20180343141A1 (en) 2015-09-22 2018-11-29 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9247219B2 (en) 2013-07-26 2016-01-26 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9179108B1 (en) 2013-07-26 2015-11-03 SkyBell Technologies, Inc. Doorbell chime systems and methods
US11764990B2 (en) 2013-07-26 2023-09-19 Skybell Technologies Ip, Llc Doorbell communications systems and methods
US11909549B2 (en) 2013-07-26 2024-02-20 Skybell Technologies Ip, Llc Doorbell communication systems and methods
US9113051B1 (en) 2013-07-26 2015-08-18 SkyBell Technologies, Inc. Power outlet cameras
US11004312B2 (en) 2015-06-23 2021-05-11 Skybell Technologies Ip, Llc Doorbell communities
US9142214B2 (en) 2013-07-26 2015-09-22 SkyBell Technologies, Inc. Light socket cameras
US9237318B2 (en) 2013-07-26 2016-01-12 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9230424B1 (en) 2013-12-06 2016-01-05 SkyBell Technologies, Inc. Doorbell communities
US9113052B1 (en) 2013-07-26 2015-08-18 SkyBell Technologies, Inc. Doorbell communication systems and methods
US11651665B2 (en) 2013-07-26 2023-05-16 Skybell Technologies Ip, Llc Doorbell communities
US10708404B2 (en) 2014-09-01 2020-07-07 Skybell Technologies Ip, Llc Doorbell communication and electrical systems
US10044519B2 (en) 2015-01-05 2018-08-07 SkyBell Technologies, Inc. Doorbell communication systems and methods
US10733823B2 (en) 2013-07-26 2020-08-04 Skybell Technologies Ip, Llc Garage door communication systems and methods
US20170263067A1 (en) 2014-08-27 2017-09-14 SkyBell Technologies, Inc. Smart lock systems and methods
US11889009B2 (en) 2013-07-26 2024-01-30 Skybell Technologies Ip, Llc Doorbell communication and electrical systems
US9058738B1 (en) 2013-07-26 2015-06-16 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9094584B2 (en) 2013-07-26 2015-07-28 SkyBell Technologies, Inc. Doorbell communication systems and methods
US10440165B2 (en) 2013-07-26 2019-10-08 SkyBell Technologies, Inc. Doorbell communication and electrical systems
US9160987B1 (en) 2013-07-26 2015-10-13 SkyBell Technologies, Inc. Doorbell chime systems and methods
US9172921B1 (en) 2013-12-06 2015-10-27 SkyBell Technologies, Inc. Doorbell antenna
US9342936B2 (en) 2013-07-26 2016-05-17 SkyBell Technologies, Inc. Smart lock systems and methods
US9769435B2 (en) 2014-08-11 2017-09-19 SkyBell Technologies, Inc. Monitoring systems and methods
US9197867B1 (en) 2013-12-06 2015-11-24 SkyBell Technologies, Inc. Identity verification using a social network
US9179109B1 (en) 2013-12-06 2015-11-03 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9118819B1 (en) 2013-07-26 2015-08-25 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9196133B2 (en) 2013-07-26 2015-11-24 SkyBell Technologies, Inc. Doorbell communication systems and methods
US10672238B2 (en) 2015-06-23 2020-06-02 SkyBell Technologies, Inc. Doorbell communities
US9060104B2 (en) 2013-07-26 2015-06-16 SkyBell Technologies, Inc. Doorbell communication systems and methods
US10204467B2 (en) 2013-07-26 2019-02-12 SkyBell Technologies, Inc. Smart lock systems and methods
US9179107B1 (en) 2013-07-26 2015-11-03 SkyBell Technologies, Inc. Doorbell chime systems and methods
US9786133B2 (en) 2013-12-06 2017-10-10 SkyBell Technologies, Inc. Doorbell chime systems and methods
US9799183B2 (en) 2013-12-06 2017-10-24 SkyBell Technologies, Inc. Doorbell package detection systems and methods
US9743049B2 (en) 2013-12-06 2017-08-22 SkyBell Technologies, Inc. Doorbell communication systems and methods
US9253455B1 (en) 2014-06-25 2016-02-02 SkyBell Technologies, Inc. Doorbell communication systems and methods
US20160357265A1 (en) 2014-02-10 2016-12-08 Apple Inc. Motion gesture input detected using optical sensors
JP2016002198A (ja) * 2014-06-16 2016-01-12 株式会社東芝 電気掃除機
US20170085843A1 (en) 2015-09-22 2017-03-23 SkyBell Technologies, Inc. Doorbell communication systems and methods
US10687029B2 (en) 2015-09-22 2020-06-16 SkyBell Technologies, Inc. Doorbell communication systems and methods
US11184589B2 (en) 2014-06-23 2021-11-23 Skybell Technologies Ip, Llc Doorbell communication systems and methods
US9888216B2 (en) 2015-09-22 2018-02-06 SkyBell Technologies, Inc. Doorbell communication systems and methods
US10391637B2 (en) * 2014-06-25 2019-08-27 Miraikikai, Inc. Self-propelled robot
IL233711B (en) * 2014-07-17 2018-04-30 Rafael Advanced Defense Systems Ltd Object detection system
JP6453583B2 (ja) * 2014-08-20 2019-01-16 東芝ライフスタイル株式会社 電気掃除機
US9997036B2 (en) 2015-02-17 2018-06-12 SkyBell Technologies, Inc. Power outlet cameras
US9798328B2 (en) * 2014-10-10 2017-10-24 Irobot Corporation Mobile robot area cleaning
KR20160048492A (ko) * 2014-10-24 2016-05-04 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
JP2017531259A (ja) * 2014-10-31 2017-10-19 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 位置に基づく制御方法、装置、移動可能な機器及びロボット
TWI627609B (zh) * 2014-12-04 2018-06-21 微星科技股份有限公司 狀態檢測方法、機器人及移動裝置
US9704043B2 (en) * 2014-12-16 2017-07-11 Irobot Corporation Systems and methods for capturing images and annotating the captured images with information
JP6475994B2 (ja) * 2015-01-30 2019-02-27 シャープ株式会社 自走式掃除機
US10742938B2 (en) 2015-03-07 2020-08-11 Skybell Technologies Ip, Llc Garage door communication systems and methods
WO2016151724A1 (ja) * 2015-03-23 2016-09-29 富士機械製造株式会社 移動体
US11575537B2 (en) 2015-03-27 2023-02-07 Skybell Technologies Ip, Llc Doorbell communication systems and methods
US10545504B2 (en) * 2015-04-01 2020-01-28 AI Incorporated System and method for establishing virtual boundaries for robotic devices
US10500716B2 (en) * 2015-04-08 2019-12-10 Beijing Evolver Robotics Co., Ltd. Multi-functional home service robot
US11381686B2 (en) 2015-04-13 2022-07-05 Skybell Technologies Ip, Llc Power outlet cameras
KR101649665B1 (ko) * 2015-04-29 2016-08-30 엘지전자 주식회사 이동 로봇 및 그 제어방법
US11641452B2 (en) 2015-05-08 2023-05-02 Skybell Technologies Ip, Llc Doorbell communication systems and methods
US20180047269A1 (en) 2015-06-23 2018-02-15 SkyBell Technologies, Inc. Doorbell communities
US9919425B2 (en) * 2015-07-01 2018-03-20 Irobot Corporation Robot navigational sensor system
US10706702B2 (en) 2015-07-30 2020-07-07 Skybell Technologies Ip, Llc Doorbell package detection systems and methods
US9625571B1 (en) * 2015-08-06 2017-04-18 X Development Llc Disabling robot sensors
US9903947B2 (en) 2015-08-10 2018-02-27 Deere & Company Boundary signal detection
US11036318B2 (en) * 2015-09-30 2021-06-15 Apple Inc. Capacitive touch or proximity detection for crown
JP6703820B2 (ja) * 2015-11-11 2020-06-03 シャープ株式会社 自走式電子機器
JP6724349B2 (ja) * 2015-11-30 2020-07-15 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
US10190914B2 (en) 2015-12-04 2019-01-29 Amazon Technologies, Inc. Motion detection for A/V recording and communication devices
US10325625B2 (en) 2015-12-04 2019-06-18 Amazon Technologies, Inc. Motion detection for A/V recording and communication devices
JP6685755B2 (ja) * 2016-02-16 2020-04-22 東芝ライフスタイル株式会社 自律走行体
US10386847B1 (en) * 2016-02-19 2019-08-20 AI Incorporated System and method for guiding heading of a mobile robotic device
US10901431B1 (en) * 2017-01-19 2021-01-26 AI Incorporated System and method for guiding heading of a mobile robotic device
US11726490B1 (en) * 2016-02-19 2023-08-15 AI Incorporated System and method for guiding heading of a mobile robotic device
US11399995B2 (en) 2016-02-23 2022-08-02 Deka Products Limited Partnership Mobility device
US10908045B2 (en) 2016-02-23 2021-02-02 Deka Products Limited Partnership Mobility device
US10926756B2 (en) 2016-02-23 2021-02-23 Deka Products Limited Partnership Mobility device
WO2017171045A1 (ja) * 2016-03-31 2017-10-05 株式会社未来機械 自走式ロボット
WO2017171046A1 (ja) * 2016-03-31 2017-10-05 株式会社未来機械 作業ロボットおよびエッジ検出器
EP4350456A1 (en) * 2016-04-14 2024-04-10 DEKA Products Limited Partnership User control device for a transporter
TWI653964B (zh) * 2016-05-17 2019-03-21 Lg電子股份有限公司 行動機器人及其控制方法
TWI689387B (zh) 2016-05-17 2020-04-01 南韓商Lg電子股份有限公司 行動機器人
TWI639021B (zh) 2016-05-17 2018-10-21 南韓商Lg電子股份有限公司 行動機器人及其控制方法
US10245730B2 (en) * 2016-05-24 2019-04-02 Asustek Computer Inc. Autonomous mobile robot and control method thereof
US10043332B2 (en) 2016-05-27 2018-08-07 SkyBell Technologies, Inc. Doorbell package detection systems and methods
CN109310049B (zh) 2016-08-31 2022-08-12 苏州宝时得电动工具有限公司 智能割草机、自移动设备及其识别障碍物的方法
EP3519651B1 (en) * 2016-09-30 2021-11-24 ETH Singapore Sec Ltd System for placing objects on a surface and method thereof
DE112018002314T5 (de) 2017-05-01 2020-01-23 Symbol Technologies, Llc Verfahren und vorrichtung zur erkennung eines objektstatus
WO2018208984A1 (en) * 2017-05-09 2018-11-15 Brain Corporation System and method for motion control of robots
CN107204014B (zh) * 2017-05-24 2019-06-07 京东方科技集团股份有限公司 智能终端设备的定位方法、装置和智能终端设备
US11202542B2 (en) 2017-05-25 2021-12-21 Sharkninja Operating Llc Robotic cleaner with dual cleaning rollers
US20180348783A1 (en) * 2017-05-31 2018-12-06 Neato Robotics, Inc. Asynchronous image classification
EP3638979A4 (en) * 2017-06-15 2021-03-24 AMS Sensors Singapore Pte. Ltd. PROXIMITY SENSORS, AND METHODS FOR OPERATING THESE SENSORS
JP6788118B2 (ja) * 2017-07-20 2020-11-18 株式会社Fuji 作業システム
EP3673232B8 (en) 2017-08-22 2023-07-19 Pentair Water Pool and Spa, Inc. Pool cleaner control system
TWI671053B (zh) * 2017-09-08 2019-09-11 智棋科技股份有限公司 自動裝置的偵測系統
US10909825B2 (en) 2017-09-18 2021-02-02 Skybell Technologies Ip, Llc Outdoor security systems and methods
AU2018356126B2 (en) * 2017-10-25 2021-07-29 Lg Electronics Inc. Artificial intelligence moving robot which learns obstacles, and control method therefor
CN107717996B (zh) * 2017-11-14 2018-08-24 北京镁伽机器人科技有限公司 具有测距停止功能的多关节机器人和测距停止方法
US10293489B1 (en) * 2017-12-15 2019-05-21 Ankobot (Shanghai) Smart Technologies Co., Ltd. Control method and system, and cleaning robot using the same
CN109955246B (zh) * 2017-12-26 2020-11-24 深圳市优必选科技有限公司 悬崖检测方法、装置、终端设备及计算机可读存储介质
WO2019128227A1 (zh) * 2017-12-29 2019-07-04 江苏美的清洁电器股份有限公司 检测组件、扫地机器人及检测其行走路况的方法和系统
CN108051824B (zh) * 2017-12-29 2020-05-22 江苏美的清洁电器股份有限公司 检测组件、扫地机器人及检测其行走路况的方法和系统
US10717435B2 (en) * 2018-01-03 2020-07-21 Qualcomm Incorporated Adjustable object avoidance proximity threshold based on classification of detected objects
EP4345566A3 (en) * 2018-03-26 2024-06-26 Jabil Inc. Apparatus, system, and method of using depth assessment for autonomous robot navigation
US11525921B2 (en) 2018-04-03 2022-12-13 Sharkninja Operating Llc Time of flight sensor arrangement for robot navigation and methods of localization using same
MX2020013312A (es) 2018-06-07 2021-06-08 Deka Products Lp Sistema y método para la ejecución de servicios públicos distribuidos.
US10977874B2 (en) * 2018-06-11 2021-04-13 International Business Machines Corporation Cognitive learning for vehicle sensor monitoring and problem detection
USD929478S1 (en) 2018-06-15 2021-08-31 Mobile Industrial Robots A/S Mobile robot having an illuminated region
US20190384314A1 (en) * 2018-06-15 2019-12-19 Mobile Industrial Robots A/S Detecting objects near an autonomous device
USD907677S1 (en) 2018-06-15 2021-01-12 Mobile Industrial Robots A/S Mobile robot
JP7080393B2 (ja) 2018-08-01 2022-06-03 シャークニンジャ オペレーティング エルエルシー ロボット掃除機
EP3623894B1 (en) 2018-09-13 2022-11-23 Mobile Industrial Robots A/S Agv having dynamic safety zone
US10831212B2 (en) 2018-09-19 2020-11-10 International Business Machines Corporation Autonomous roving vehicle management using laser barriers
JP7192359B2 (ja) * 2018-09-28 2022-12-20 セイコーエプソン株式会社 ロボットを制御する制御装置、および制御方法
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US11203334B2 (en) 2018-10-10 2021-12-21 Roadtec, Inc. Proximity detection zone for working machine
CN111090277B (zh) * 2018-10-22 2021-11-26 科沃斯机器人股份有限公司 行进控制的方法、设备及存储介质
KR20210110610A (ko) * 2018-12-11 2021-09-08 브레인 코퍼레이션 에스컬레이터를 검출하기 위한 시스템, 장치, 및 방법
CN113260293B (zh) * 2018-12-20 2023-02-28 尚科宁家运营有限公司 具有用于估计机器人清洁器的速度的距离传感器的机器人清洁器
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
CN109669478B (zh) * 2019-02-20 2024-08-23 广州愿托科技有限公司 基于测距传感器的无人机定距贴壁环绕控制方法及无人机
US10809734B2 (en) 2019-03-13 2020-10-20 Mobile Industrial Robots A/S Route planning in an autonomous device
CN111766607A (zh) * 2019-03-13 2020-10-13 科沃斯机器人股份有限公司 一种自移动设备和非接触式障碍物检测装置
US12090629B2 (en) * 2019-04-16 2024-09-17 University Of Louisville Research Foundation, Inc. Adaptive robotic nursing assistant
CN110123210B (zh) * 2019-05-07 2022-05-03 深圳市银星智能科技股份有限公司 一种机器人地检方法、清洁机器人以及数据存储装置
US11269076B2 (en) * 2019-07-11 2022-03-08 Mtd Products Inc Solid state LIDAR machine vision for power equipment device
JP7390817B2 (ja) * 2019-08-02 2023-12-04 清水建設株式会社 進行方向状態検出装置及びそれを用いた台車
US11074790B2 (en) 2019-08-24 2021-07-27 Skybell Technologies Ip, Llc Doorbell communication systems and methods
EP4071514A4 (en) * 2019-12-02 2023-12-20 Beijing Roborock Technology Co., Ltd. LASER AND ROBOT TELEMETRY DEVICE
US11507103B2 (en) * 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11537141B2 (en) 2019-12-19 2022-12-27 Diversey, Inc. Robotic cleaning device with dynamic area coverage
CN114415660B (zh) * 2020-01-21 2023-08-08 追觅创新科技(苏州)有限公司 自移动设备及其测距方法
KR20210100518A (ko) * 2020-02-06 2021-08-17 엘지전자 주식회사 로봇 청소기 및 그 제어 방법
US11592299B2 (en) 2020-03-19 2023-02-28 Mobile Industrial Robots A/S Using static scores to control vehicle operations
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
CN111610783A (zh) * 2020-04-29 2020-09-01 尚科宁家(中国)科技有限公司 自主机器人的行进控制方法、自主机器人及存储介质
CN111685662A (zh) * 2020-05-19 2020-09-22 湖北如新电子有限公司 一种清扫方法、装置、扫地机器人及存储介质
CN111631640B (zh) * 2020-05-26 2022-06-14 珠海一微半导体股份有限公司 可判断机器人行走面状况的检测装置的应用方法
CN111633648B (zh) * 2020-05-26 2022-03-04 珠海一微半导体股份有限公司 机器人检测凸起面的检测方法、芯片以及清洁机器人
CN111631641B (zh) * 2020-05-26 2022-04-01 珠海一微半导体股份有限公司 机器人防跌落检测方法
CN111736139B (zh) * 2020-06-22 2023-05-23 歌尔科技有限公司 一种红外校准方法、距离检测方法、装置及介质
CN111743464A (zh) * 2020-07-06 2020-10-09 追创科技(苏州)有限公司 一种基于线激光的避障方法及装置
WO2022027015A1 (en) * 2020-07-27 2022-02-03 Brain Corporation Systems and methods for preserving data and human confidentiality during feature identification by robotic devices
CN111857153B (zh) * 2020-07-31 2023-09-19 北京石头世纪科技股份有限公司 一种距离检测装置及扫地机器人
USD1017154S1 (en) * 2020-09-17 2024-03-05 Irobot Corporation Mobile cleaning robot
DE102020212047B4 (de) * 2020-09-24 2024-10-17 BSH Hausgeräte GmbH Reinigungsroboter für eine gepolsterte Fläche
KR20220049854A (ko) * 2020-10-15 2022-04-22 삼성전자주식회사 로봇청소기
US11835949B2 (en) 2020-11-24 2023-12-05 Mobile Industrial Robots A/S Autonomous device safety system
CN112596527B (zh) * 2020-12-17 2023-10-24 珠海一微半导体股份有限公司 基于斜坡结构的机器人卡住检测方法、芯片及清洁机器人
CN112764033B (zh) * 2020-12-24 2024-03-08 珠海格力电器股份有限公司 距离检测方法、装置及移动机器人
CN114690761A (zh) * 2020-12-31 2022-07-01 华为技术有限公司 一种机器人的位置校正方法以及相关设备
GB202101612D0 (en) * 2021-02-05 2021-03-24 Ams Sensors Singapore Pte Ltd Distance measurement using field of view
CN113199452B (zh) * 2021-05-14 2022-09-30 北京京东乾石科技有限公司 机器人系统及其控制方法
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
CN116372990A (zh) * 2021-08-03 2023-07-04 汤恩智能科技(常熟)有限公司 机器人防跌落方法、机器人及可读存储介质
CN113721301A (zh) * 2021-08-17 2021-11-30 广东盈峰智能环卫科技有限公司 一种悬崖检测方法及装置
KR20230108552A (ko) * 2022-01-11 2023-07-18 삼성전자주식회사 이동 로봇 및 그 제어 방법
DE102023202867A1 (de) 2023-03-29 2024-10-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zum Erzeugen eines Steuersignals zum Steuern eines mobilen Roboters, Sensorsystem für einen mobilen Roboter, mobiler Roboter und Verfahren zum Kalibrieren eines Sensorsystems

Family Cites Families (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1780221A (en) 1930-05-08 1930-11-04 Buchmann John Brush
US1970302A (en) 1932-09-13 1934-08-14 Charles C Gerhardt Brush
US2136324A (en) 1934-09-05 1938-11-08 Simon Louis John Apparatus for cleansing floors and like surfaces
US2302111A (en) 1940-11-26 1942-11-17 Air Way Electric Appl Corp Vacuum cleaner
US3629796A (en) * 1968-12-11 1971-12-21 Atlantic Richfield Co Seismic holography
IT1021244B (it) 1974-09-10 1978-01-30 Ceccato & Co Spazzolone rotante ad albero ver ticale per impianti di lavaggio di veicoli in genere
US3978539A (en) 1975-06-30 1976-09-07 Bissell, Inc. Floor sweeper with auxiliary rotary brushes
JPS5618710A (en) * 1979-07-23 1981-02-21 Matsushita Electric Ind Co Ltd Distance measuring instrument
US4445245A (en) 1982-08-23 1984-05-01 Lu Ning K Surface sweeper
US4624026A (en) 1982-09-10 1986-11-25 Tennant Company Surface maintenance machine with rotary lip
US4502773A (en) 1983-01-31 1985-03-05 Polaroid Corporation Two zone infrared ranging system
US4532867A (en) * 1983-07-07 1985-08-06 The United States Of America As Represented By The Secretary Of The Army Dual field-of-view optical target detector
US4659922A (en) * 1985-02-19 1987-04-21 Eaton Corporation Optical sensor device for detecting the presence of an object
US4752799A (en) * 1986-07-07 1988-06-21 Honeywell Inc. Optical proximity sensing optics
FR2648071B1 (fr) 1989-06-07 1995-05-19 Onet Procede et appareil autonomes de nettoyage automatique de sol par execution de missions programmees
DE3937859C1 (de) 1989-11-14 1996-06-27 Daimler Benz Aerospace Ag Optischer Abstandszünder
IL92720A (en) 1989-12-15 1993-02-21 Neta Holland Toothbrush
US5254853A (en) * 1990-02-14 1993-10-19 Stefan Reich Optical sensing device
US5018240A (en) 1990-04-27 1991-05-28 Cimex Limited Carpet cleaner
JPH0593844A (ja) * 1991-03-20 1993-04-16 Asahi Optical Co Ltd ズームレンズ内蔵型カメラ
US5093837A (en) * 1991-03-08 1992-03-03 S-Tron Baffle for attenuating off-axis light emissions
US5560065A (en) 1991-07-03 1996-10-01 Tymco, Inc. Broom assisted pick-up head
JP2738610B2 (ja) 1991-09-07 1998-04-08 富士重工業株式会社 自走台車の走行制御装置
FI914598A (fi) 1991-09-30 1993-03-31 Valtion Teknillinen Foerfarande i en med optisk princip fungerande ankomstkoppling
KR940006561B1 (ko) 1991-12-30 1994-07-22 주식회사 금성사 자동주행 청소용 로버트의 장애물 감지장치
US5276618A (en) 1992-02-26 1994-01-04 The United States Of America As Represented By The Secretary Of The Navy Doorway transit navigational referencing system
US5568589A (en) 1992-03-09 1996-10-22 Hwang; Jin S. Self-propelled cleaning machine with fuzzy logic control
JPH064130A (ja) 1992-06-23 1994-01-14 Sanyo Electric Co Ltd 掃除ロボット
US5279672A (en) 1992-06-29 1994-01-18 Windsor Industries, Inc. Automatic controlled cleaning machine
US5261139A (en) 1992-11-23 1993-11-16 Lewis Steven D Raised baseboard brush for powered floor sweeper
BE1008470A3 (fr) 1994-07-04 1996-05-07 Colens Andre Dispositif et systeme automatique de depoussierage de sol et engin y adapte.
JP3887678B2 (ja) 1995-04-21 2007-02-28 フォルベルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハー 表面の湿式洗浄用真空クリーナのアタッチメント
JPH0947413A (ja) 1995-08-08 1997-02-18 Minolta Co Ltd 清掃ロボット
US6167587B1 (en) 1997-07-09 2001-01-02 Bissell Homecare, Inc. Upright extraction cleaning machine
US5996167A (en) 1995-11-16 1999-12-07 3M Innovative Properties Company Surface treating articles and method of making same
DE19617986B4 (de) 1996-05-04 2004-02-26 Ing. Haaga Werkzeugbau Kg Kehrmaschine
JP3343027B2 (ja) 1996-05-17 2002-11-11 アマノ株式会社 床面洗浄機用スキージ
JP3581911B2 (ja) 1996-06-07 2004-10-27 コニカミノルタホールディングス株式会社 移動走行車
WO1997050218A1 (en) 1996-06-26 1997-12-31 Philips Electronics N.V. Trellis coded qam using rate compatible, punctured, convolutional codes
US6076226A (en) 1997-01-27 2000-06-20 Robert J. Schaap Controlled self operated vacuum cleaning system
US6226830B1 (en) 1997-08-20 2001-05-08 Philips Electronics North America Corp. Vacuum cleaner with obstacle avoidance
TW410593U (en) 1997-08-29 2000-11-01 Sanyo Electric Co Suction head for electric vacuum cleaner
US6532404B2 (en) 1997-11-27 2003-03-11 Colens Andre Mobile robots and their control system
JP4458664B2 (ja) 1997-11-27 2010-04-28 ソーラー・アンド・ロボティクス 移動性ロボット及びその制御システムの改良
US6030464A (en) 1998-01-28 2000-02-29 Azevedo; Steven Method for diagnosing, cleaning and preserving carpeting and other fabrics
GB2344884A (en) 1998-12-18 2000-06-21 Notetry Ltd Light Detection Apparatus - eg for a robotic cleaning device
US6339735B1 (en) 1998-12-29 2002-01-15 Friendly Robotics Ltd. Method for operating a robot
US6238451B1 (en) 1999-01-08 2001-05-29 Fantom Technologies Inc. Vacuum cleaner
KR100441323B1 (ko) 1999-06-08 2004-07-23 존슨디버세이, 인크. 플로어 클리너
AU5376400A (en) 1999-06-17 2001-01-09 Solar And Robotics S.A. Device for automatically picking up objects
GB9917232D0 (en) 1999-07-23 1999-09-22 Notetry Ltd Method of operating a floor cleaning device
IL149558A0 (en) 1999-11-18 2002-11-10 Procter & Gamble Home cleaning robot
US8788092B2 (en) * 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US7155308B2 (en) * 2000-01-24 2006-12-26 Irobot Corporation Robot obstacle detection system
US8412377B2 (en) * 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6594844B2 (en) * 2000-01-24 2003-07-22 Irobot Corporation Robot obstacle detection system
US6421870B1 (en) 2000-02-04 2002-07-23 Tennant Company Stacked tools for overthrow sweeping
US6276478B1 (en) 2000-02-16 2001-08-21 Kathleen Garrubba Hopkins Adherent robot
EP2363775A1 (en) 2000-05-01 2011-09-07 iRobot Corporation Method and system for remote control of mobile robot
US6741054B2 (en) 2000-05-02 2004-05-25 Vision Robotics Corporation Autonomous floor mopping apparatus
US6481515B1 (en) 2000-05-30 2002-11-19 The Procter & Gamble Company Autonomous mobile surface treating apparatus
DE10059156A1 (de) * 2000-11-29 2002-06-06 Sick Ag Abstandsbestimmung
US6883201B2 (en) 2002-01-03 2005-04-26 Irobot Corporation Autonomous floor-cleaning robot
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
EP1408729B1 (fr) 2001-05-28 2016-10-26 Husqvarna AB Amelioration d'une tondeuse robotique
EP2287696B1 (en) 2001-06-12 2018-01-10 iRobot Corporation Method and system for multi-code coverage for an autonomous robot
US7663333B2 (en) 2001-06-12 2010-02-16 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
IL145680A0 (en) 2001-09-26 2002-06-30 Friendly Robotics Ltd Robotic vacuum cleaner
US20040031113A1 (en) 2002-08-14 2004-02-19 Wosewick Robert T. Robotic surface treating device with non-circular housing
US7123351B1 (en) * 2002-08-20 2006-10-17 Schaefer Philip R Method and apparatus for measuring distances using light
JP2006087507A (ja) * 2004-09-21 2006-04-06 Sanyo Electric Co Ltd 自走式掃除機
WO2007041295A2 (en) * 2005-09-30 2007-04-12 Irobot Corporation Companion robot for personal interaction
ATE534941T1 (de) * 2005-12-02 2011-12-15 Irobot Corp Abdeckungsrobotermobilität
ES2522926T3 (es) * 2005-12-02 2014-11-19 Irobot Corporation Robot Autónomo de Cubrimiento
TWI303754B (en) * 2006-05-09 2008-12-01 Ind Tech Res Inst Obstacle and cliff avoiding system and method thereof
KR20080045523A (ko) * 2006-11-20 2008-05-23 엘지전자 주식회사 센싱장치 및 이를 이용한 로봇 청소기
KR101301834B1 (ko) * 2007-05-09 2013-08-29 아이로보트 코퍼레이션 소형 자율 커버리지 로봇
KR20090001948A (ko) 2007-05-29 2009-01-09 주식회사 신한은행 대출 처리방법 및 시스템과 이를 위한 프로그램 기록매체
JP5008479B2 (ja) * 2007-06-28 2012-08-22 ラピスセミコンダクタ株式会社 レジストパターンの形成方法及びフォトマスク
KR20090019480A (ko) * 2007-08-21 2009-02-25 에이스로봇 주식회사 로봇 청소기의 바닥 감지 방법 그리고 이에 적합한 로봇청소기
KR20090019479A (ko) * 2007-08-21 2009-02-25 에이스로봇 주식회사 로봇 청소기의 장애물 감지 방법 및 이에 적합한 로봇청소기
TWM397531U (en) * 2010-07-29 2011-02-01 Agait Technology Corp Detect apparatus and the of detect apparatus from removing apparatus the same
US20120167917A1 (en) * 2011-01-03 2012-07-05 Gilbert Jr Duane L Autonomous coverage robot
CN105404298B (zh) 2012-09-21 2018-10-16 艾罗伯特公司 移动机器人上的接近度感测
US9840003B2 (en) * 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices

Also Published As

Publication number Publication date
US9442488B2 (en) 2016-09-13
AU2013317738B2 (en) 2015-05-07
EP2834048A4 (en) 2015-05-20
US20140257622A1 (en) 2014-09-11
US20170031366A1 (en) 2017-02-02
WO2014047557A1 (en) 2014-03-27
US10429851B2 (en) 2019-10-01
CA2868860C (en) 2018-04-24
JP2016076248A (ja) 2016-05-12
JP2018028947A (ja) 2018-02-22
US20140088761A1 (en) 2014-03-27
EP3287242B1 (en) 2021-10-20
US8862271B2 (en) 2014-10-14
CN104245244A (zh) 2014-12-24
AU2013317738A1 (en) 2014-10-16
JP5885147B2 (ja) 2016-03-15
EP2834048A1 (en) 2015-02-11
EP3287242A1 (en) 2018-02-28
CN105404298B (zh) 2018-10-16
JP2015517162A (ja) 2015-06-18
CA2868860A1 (en) 2014-03-27
EP2834048B1 (en) 2017-11-01
JP6675373B2 (ja) 2020-04-01
CN105404298A (zh) 2016-03-16
ES2656899T3 (es) 2018-02-28
CN104245244B (zh) 2016-01-20

Similar Documents

Publication Publication Date Title
JP6250617B2 (ja) 移動式ロボットの近接センサ、近接検知方法及び移動式ロボット
US10124490B2 (en) Autonomous mobile robot
US9278690B2 (en) Autonomous mobile robot
AU2015241429B2 (en) Autonomous mobile robot
WO2022022227A1 (zh) 一种距离检测装置及扫地机器人
CN213850443U (zh) 机器人清洁器和机器人系统
AU2016225774B2 (en) Proximity sensing on mobile robots
AU2015201973A1 (en) Proximity sensing on mobile robots

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161212

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170313

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171122

R150 Certificate of patent or registration of utility model

Ref document number: 6250617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250