JP2023159103A - 移動ロボットセンサ構成 - Google Patents

移動ロボットセンサ構成 Download PDF

Info

Publication number
JP2023159103A
JP2023159103A JP2023122652A JP2023122652A JP2023159103A JP 2023159103 A JP2023159103 A JP 2023159103A JP 2023122652 A JP2023122652 A JP 2023122652A JP 2023122652 A JP2023122652 A JP 2023122652A JP 2023159103 A JP2023159103 A JP 2023159103A
Authority
JP
Japan
Prior art keywords
tof
sensors
robotic device
mobile robotic
tof sensors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023122652A
Other languages
English (en)
Inventor
レンビズ,ジャスティン
Rembisz Justine
シェーファー,アレックス
Shafer Alex
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
X Development LLC
Original Assignee
X Development LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by X Development LLC filed Critical X Development LLC
Publication of JP2023159103A publication Critical patent/JP2023159103A/ja
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/027Electromagnetic sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】カバレッジの非効率的な重複を避けることによって必要な1DToFセンサの数を最小限に減少させる利点があると共に、1DToFセンサで検出されない可能性のある物体のサイズに予測可能な上限を設けることができる移動ロボットデバイスを提供する。
【解決手段】複数の1DToFセンサの各1DToFセンサは、移動ロボットデバイス上で固定の位置及び向きに搭載され得る。複数の1DToFセンサのうち1DToFセンサの各対は、1DToFセンサの対のカバレッジの各円錐形が重複しないように相互に対してそれぞれの位置及び向きに固定され得る。
【選択図】図6B

Description

(関連出願の相互参照)
[0001] 本出願は、2019年7月31日に出願された米国特許出願第16/528,123号に対する優先権を主張する。その全体的な内容は援用により本願に含まれる。
[0002] 技術の進歩と共に、ユーザを支援することができる多種多様な機能を実行するため様々なタイプのロボットデバイスが生成されている。ロボットデバイスは特に、マテリアルハンドリング、輸送、溶接、組み立て、及び分配に関連する用途向けに使用できる。時間と共に、こういったロボットシステムの動作の仕方はいっそうインテリジェントに、高効率に、かつ直感的になっている。ロボットシステムは現代生活の多くの面でますます普及してきており、ロボットシステムが効率的であることが望まれている。従って、効率的なロボットシステムに対する需要は、アクチュエータ、移動、検知技法、並びにコンポーネントの設計及び組み立てにおいて、革新的な分野を切り開くことに役立っている。
[0003] 一例の移動ロボットデバイスは、障害物検出のための複数の1次元(1D)飛行時間(ToF:time-of-flight)センサを含む。1D ToFセンサは、それぞれのカバレッジ領域が重複しないように相互に対して固定の位置及び向きで搭載され得る。この配置は、カバレッジの非効率的な重複を避けることによって必要な1D ToFセンサの数を最小限に減少させる利点があると共に、1D ToFセンサで検出されない可能性のある物体のサイズに予測可能な上限を設けることができる。
[0004] 一実施形態では、複数の1D ToFセンサを含む移動ロボットデバイスが開示される。複数の1D ToFセンサの各1D ToFセンサは、移動ロボットデバイス上で固定の位置及び向きに搭載され得る。複数の1D ToFセンサのうち1D ToFセンサの各対は、1D ToFセンサの対のカバレッジの各円錐形が重複しないように相互に対してそれぞれの位置及び向きに固定され得る。
[0005] 別の実施形態では、複数の1D ToFセンサからセンサデータを受信することを含む方法が提供される。複数の1D ToFセンサの各1D ToFセンサは、移動ロボットデバイス上で固定の位置及び向きに搭載され、複数の1D ToFセンサのうち1D ToFセンサの各対は、1D ToFセンサの対のカバレッジの各円錐形が重複しないように相互に対してそれぞれの位置及び向きに固定されている。方法は更に、センサデータを処理して移動ロボットデバイスの環境内の1つ以上の障害物を検出することを含む。方法は更に、センサデータに基づいて移動ロボットデバイスをナビゲートすることを含む。
[0006] 更に別の実施形態では、複数の1D ToFセンサを含む移動ベースが開示される。複数の1D ToFセンサの各1D ToFセンサは、移動ベース上で固定の位置及び向きに搭載され得る。複数の1D ToFセンサのうち1D ToFセンサの各対は、1D ToFセンサの対のカバレッジの各円錐形が重複しないように相互に対してそれぞれの位置及び向きに固定され得る。
[0007] 更に別の実施形態では、非一時的コンピュータ可読媒体が提供される。この媒体は、少なくとも1つのプロセッサに機能を実行させるため、この少なくとも1つのプロセッサによって実行可能なプログラミング命令を含む。この機能は、複数の1D ToFセンサからセンサデータを受信することを含む。複数の1D ToFセンサの各1D ToFセンサは、移動ロボットデバイス上で固定の位置及び向きに搭載され、複数の1D ToFセンサのうち1D ToFセンサの各対は、1D ToFセンサの対のカバレッジの各円錐形が重複しないように相互に対してそれぞれの位置及び向きに固定されている。機能は更に、センサデータを処理して移動ロボットデバイスの環境内の1つ以上の障害物を検出することを含む。機能は更に、センサデータに基づいて移動ロボットデバイスをナビゲートすることを含む。
[0008] 別の実施形態では、複数の1D ToFセンサからセンサデータを受信するための手段を含むシステムが提供される。複数の1D ToFセンサの各1D ToFセンサは、移動ロボットデバイス上で固定の位置及び向きに搭載され、複数の1D ToFセンサのうち1D ToFセンサの各対は、1D ToFセンサの対のカバレッジの各円錐形が重複しないように相互に対してそれぞれの位置及び向きに固定されている。システムは更に、センサデータを処理して移動ロボットデバイスの環境内の1つ以上の障害物を検出するための手段を含む。システムは更に、センサデータに基づいて移動ロボットデバイスをナビゲートするための手段を含む。
[0009] 前述の概要は単なる例示であり、いかなる点でも限定的であることは意図されない。図面、以下の詳細な説明、及び添付図面を参照することにより、上述した例示的な態様、実施形態、及び特徴に加えて、別の態様、実施形態、及び特徴も明らかとなろう。
一例の実施形態に従ったロボットシステムの構成を示す。 一例の実施形態に従った移動ロボットを示す。 一例の実施形態に従った移動ロボットの分解図を示す。 一例の実施形態に従ったロボットアームを示す。 一例の実施形態に従った移動ベース上の1D ToFセンサを示す。 一例の実施形態に従った移動ベース上の1D ToFセンサを示す。 一例の実施形態に従った、搭載ブラケット上に搭載された1D ToFセンサを示す。 一例の実施形態に従った、搭載ブラケット上に搭載された1D ToFセンサを示す。 一例の実施形態に従ったセンサ群のカバレッジ領域を示す。 一例の実施形態に従った下向き1D ToFセンサを示す。 一例の実施形態に従った方法のブロック図を示す。
[0019] 本明細書において、一例の方法、デバイス、及びシステムが記載される。「一例の」及び「例示的な」という用語は、本明細書で用いる場合、「例、事例、又は例示として機能する」を意味することは理解されよう。「一例」又は「例示的」であると本明細書に記載されている実施形態又は特徴は、そのように指示されていない限り、他の実施形態又は特徴より好適であるとも優れているとも必ずしも解釈されない。本明細書に提示される主題の範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を加えることができる。
[0020] 従って、本明細書に記載される一例の実施形態は限定的であることは意図されない。一般的に本明細書に記載されると共に図面に示される本開示の態様を、多種多様な異なる構成に配列、置換、結合、分離、及び設計できることは、容易に理解されよう。
[0021] 本記載全体を通して、一例の実施形態の要素を導入するために冠詞「a」又は「an」が用いられる。特に他の規定がない限り、又は文脈上明らかに他の意味が示される場合を除いて、「a」又は「an」の使用は「少なくとも1つ」を意味し、「the」の使用は「その少なくとも1つ」を意味する。少なくとも2つの用語を列挙した記載中で接続詞「or(又は)」を用いる意図は、列挙した用語のうち任意のもの又は列挙した用語の任意の組み合わせを示すことである。
[0022] 「第1」、「第2」、「第3」のような序数の使用は、各要素の特定の順序を示すためでなく、各要素を区別するためである。この記載の目的で、「多数の」及び「複数の」という用語は、「2つ以上の」又は「2つを超える」を示す。
[0023] 更に、文脈上他の意味が示唆される場合を除いて、図面の各々に示される特徴部(feature)は相互に組み合わせて使用することができる。このため、図示されている全ての特徴部が各実施形態に必要であるわけではないことを理解した上で、図面は一般的に、1つ以上の全体的な実施形態の要素態様(component aspect)として見るべきである。図面では、文脈上他の意味が示される場合を除いて、同様の符号は通常、同様のコンポーネントを識別する。更に、特に断りのない限り、図面は一定の縮尺通りには描かれておらず、単に例示の目的のためだけのものである。また、図面は単に代表的なものであり、全てのコンポーネントが図示されているわけではない。例えば、追加の構造的又は制限的(restraining)コンポーネントは図示されていない場合がある。
[0024] 更に、本明細書又は特許請求の範囲における要素、ブロック、又はステップの列挙は、明確さの目的のためのものである。従って、そのような列挙は、これらの要素、ブロック、又はステップが特定の配列に従うこと又は特定の順序で実行されることを要求する又は示唆すると解釈されるべきではない。
I.概要
[0025] 移動ロボットデバイス上に様々なセンサを提供することで、ロボットデバイスが障害物を検出し環境内をナビゲートすることが可能となる。利用可能なタイプのセンサについて検討する場合、精度とコストとの間にはトレードオフが存在する。コストを最小限に抑えながら障害物検出において保証された精度レベルを与えるように、センサの配置を選択することができる。
[0026] 本明細書に記載される一例のロボットは、固定の位置及び向きに搭載された複数の1次元(1D)飛行時間(ToF)深度センサを含む。より具体的に述べると、ロボットは移動ベースを含み、この移動ベースの後側に沿って選択された高さで水平方向に配置された1D ToFセンサ群を備えることができる。そのような複数の1D ToFセンサを、間隔を空けて配置することで、ロボット後方の選択された高さにある所定のサイズよりも大きい障害物を確実に検出することを可能とする。有利な点として、1D ToFセンサは、3次元(3D)深度センサのような他の利用可能なセンサに比べて比較的低コストである。
[0027] ロボット上に1D ToFセンサを配置する場合、各センサの位置及び向きは、必要なセンサ総数を最小限に抑えるように選択され得る。より具体的に述べると、1D ToFセンサの各対は、それら2つのセンサのカバレッジの各円錐形が重複しないように相互に対して向きを設定することができる。もしカバレッジ領域が重複すると、この非効率によって、センサカバレッジ全体で所望の精度レベルを満たすために余分なセンサが必要となる可能性がある。センサは、カバレッジ領域を重複させずに、どのセンサによっても検出されない実質的に固定幅のネガティブレーン(negative lane)がロボットから延出して生成されるように配置され得る。ネガティブレーンの幅は、センサによって検出できない円筒形の物体の最大直径を示し得る。
[0028] いくつかの例では、1対の連続したセンサ間の角度オフセットを、個々のセンサの視野に等しく設定することができる。例えば各センサが15度の視野を有する場合、対のセンサ間の向きの差を15度に等しく設定すればよい。その結果、センサ対は対応する1対の平行な円錐形エッジを有し、これにより、2つのセンサのカバレッジ円錐形間には実質的に固定幅のネガティブレーンが生じ得る。このようなネガティブレーンの幅は、ロボット上で2つのセンサがどのくらい離れて配置されるかに基づいて選択され得る。例えばセンサは、7センチメートル(cm)以下の直径の円筒形に適合するネガティブレーンを生成するよう離隔され得る。この幅は、安全のため、オペレータを確実に検出するように、予測されるオペレータの脚の幅に基づいて選択され得る。他の例では、異なる適用例のためにネガティブレーンの異なる幅が使用され得る。
[0029] 実質的に平坦でない表面(例えば、丸みを帯びたコーナを含む移動ベースの後部)に沿って1D ToFセンサが位置決めされている場合、この表面の形状に対応するため、センサ群内の各センサに合わせて特別に設定した位置及び向きを選択することができる。より具体的に述べると、各センサの位置及び向きの双方は、連続した各対のセンサ円錐形の間に実質的に固定幅のネガティブレーンを生成するよう決定され得る。実質的に固定幅のネガティブレーンは、いくつかの例では全て同じ幅を有し、他の例では異なる幅を有し得る。いくつかの例において、センサは最初に、ロボットに適合するよう特別注文された板金ブラケットのようなカスタム整形部品の所定の位置及び向きに搭載することができる。
[0030] ロボットは、1D ToFセンサの各々が環境内へレーザビームを投影することを可能とする開口を含み得る。他の例では、レーザビームが透過できる赤外材料のようなウィンドウ材料が使用され得る。ウィンドウのサイズは、各センサの視野に対する妨害を最小限に抑えるように選択され得る。
[0031] いくつかの例では、1D ToFセンサを複数の別個のストリップ上に配置して、各ストリップ上のセンサからのデータを並列に処理できるようになっている。例えば、2つのストリップをロボットベースの後部の両側に配置して、各ストリップが4つの水平方向に配置されたセンサを含むようにする。センサからのデータの処理率は、ロボットの最大許容速度(例えば逆速度(reverse velocity))に関連付けられ得る。従って、2つの別個のストリップを用いることにより、単一のストリップに比べて2倍の速度でセンサからデータを引き出すことができる。いくつかの例では、2つのストリップは対称とすることができる。
[0032] 別の例では、移動ロボットは更に、崖検出のための1つ以上の下向き1D ToFセンサも含むことができる。例えば、ロボットの2つの後輪の各々に近接して1つの下向き1D ToF崖センサを配置すればよい。これらの崖センサからのデータをロボットにより使用して、ロボットが後ろに進んでいる時に崖からの落下を避けるにはいつ停止するべきかを決定することができる。これらの例のいくつかでは、障害物検出のための水平方向に配置された1D ToFセンサを含むストリップ上に1つ以上の下向き崖センサを含めてもよい。例えば、2つの対称なストリップの各々が、4つの水平方向に配置された1D ToFセンサと1つの下向き1D ToFセンサを含むことができる。また、1つ以上の下向き1D ToFセンサからセンサデータを引き出す率を用いて、ロボットの最大逆速度を決定することができる。
[0033] 移動ロボットデバイスの全てのセンサに適合するように1D ToFセンサのセットを配置することができる。いくつかの例では、ロボットデバイスの前方のエリアでは、ロボットデバイスの後方のエリアよりも精密なセンサデータが必要となることがある。従って、ロボットの前方では3Dライダーセンサ等の比較的高価なセンサを用いて障害物及び/又は崖を検出し、ロボットの後方ではより安価な1D ToFセンサを用いて障害物及び/又は崖を検出してもよい。また、1D ToFセンサの位置及び向きは、ロボット上の他のセンサの視野に基づいて選択され得る。例えば、3Dライダーがカバレッジを提供しないロボットのすぐ後ろのエリアに比べて、3Dライダーもある程度のカバレッジを提供するロボットの側方のエリアでは、連続した1D ToFセンサ間で大きい盲点の円筒形が許容され得る。他の例では、物体検出のための2つ以上の1D ToFセンサから成る群、及び/又は1つ以上の下向き1D ToF崖センサを、多種多様なロボット形態及びセンサ群に組み込みことができるという利点がある。
II.一例のロボットシステム
[0034] 図1は、本明細書に記載されている実施例と関連付けて使用され得るロボットシステムの一例の構成を示す。ロボットシステム100は、自律的に、半自律的に、又は1人もしくは複数人のユーザによって与えられる指示を用いて動作するよう構成できる。ロボットシステム100は、ロボットアーム、産業用ロボット、又は他の何らかの機構のような様々な形態で実施され得る。いくつかの例示の実施例は、大規模で低コストに設計されると共に種々のタスクをサポートするように設計されたロボットシステム100を含む。ロボットシステム100は、人間の周囲で動作できるように設計され得る。また、ロボットシステム100は機械学習向けに最適化され得る。本記載全体を通して、ロボットシステム100は、いくつかある名称の中でも特に、ロボット、ロボットデバイス、又は移動ロボットと呼ばれることもある。
[0035] 図1に示されているように、ロボットシステム100は、1又は複数のプロセッサ102、データストレージ104、及び1又は複数のコントローラ108を含むことができ、これらは共に制御システム118の一部であり得る。また、ロボットシステム100は、1又は複数のセンサ112、1又は複数の動力源114、機械コンポーネント110、及び電気コンポーネント116も含むことができる。しかしながら、ロボットシステム100は例示の目的で図示されているので、これより多数の又は少数のコンポーネントを含み得る。ロボットシステム100の様々なコンポーネントは、有線又は無線の接続を含む任意の方法で接続することができる。更に、いくつかの例では、ロボットシステム100のコンポーネントは、単一の物理的要素(entity)でなく複数の物理的要素にわたって分散させることができる。ロボットシステム100の他の例示も存在し得る。
[0036] 1又は複数のプロセッサ102は、1つ以上の汎用ハードウェアプロセッサ又は専用ハードウェアプロセッサ(例えばデジタル信号プロセッサ、特定用途向け集積回路等)として動作できる。1又は複数のプロセッサ102は、コンピュータ可読プログラム命令106を実行すると共にデータ107を操作するように構成できる。コンピュータ可読プログラム命令106及びデータ107の双方はデータストレージ104に記憶されている。また、1又は複数のプロセッサ102は、例えば1又は複数のセンサ112、1又は複数の動力源114、機械コンポーネント110、又は電気コンポーネント116のようなロボットシステム100の他のコンポーネントと、直接又は間接的に相互作用することができる。
[0037] データストレージ104は、1つ以上の種類のハードウェアメモリとすることができる。例えばデータストレージ104は、1又は複数のプロセッサ102によって読み出し又はアクセスが可能な1つ以上のコンピュータ可読記憶媒体を含むか又はこの形態をとることができる。1つ以上のコンピュータ可読記憶媒体は、光学、磁気、有機、又は他のタイプのメモリ又はストレージのような揮発性又は不揮発性ストレージコンポーネントを含むことができ、全体的に又は部分的に1又は複数のプロセッサ102に一体化され得る。いくつかの実施例では、データストレージ104は単一の物理的デバイスとすることができる。他の実施例では、データストレージ104は、有線又は無線の通信を介して相互に通信できる2つ以上の物理的デバイスを用いて実施され得る。前述のように、データストレージ104はコンピュータ可読プログラム命令106及びデータ107を含むことができる。データ107は、いくつかある可能性の中でも特に、構成データ、センサデータ、又は診断データのような任意のタイプのデータであり得る。
[0038] コントローラ108は、(おそらく、いくつかあるタスクの中でも特に)機械コンポーネント110、1又は複数のセンサ112、1又は複数の動力源114、電気コンポーネント116、制御システム118、又はロボットシステム100のユーザのうち任意の組み合わせ間のインタフェースとなるように構成された、1つ以上の電気回路、デジタル論理ユニット、コンピュータチップ、又はマイクロプロセッサを含み得る。いくつかの実施例において、コントローラ108は、ロボットシステム100の1つ以上のサブシステムによって特定の動作を実行するための専用の埋め込みバイスとすることができる。
[0039] 制御システム118は、ロボットシステム100の動作状態を監視し、物理的に変化させることができる。その際に制御システム118は、機械コンポーネント110間又は電気コンポーネント116間のようなロボットシステム100の部分間のリンクとして機能できる。いくつかの例において、制御システム118は、ロボットシステム100と別のコンピューティングデバイスとの間のインタフェースとして機能できる。更に、制御システム118は、ロボットシステム100とユーザとの間のインタフェースとして機能できる。いくつかの例において制御システム118は、ジョイスティック、ボタン、又はポート等、ロボットシステム100と通信を行うための様々なコンポーネントを含み得る。上述した一例のインタフェース及び通信は、有線もしくは無線の接続、又はこれら双方によって実施され得る。制御システム118は、ロボットシステム100のため他の動作も実行することができる。
[0040] 動作中、制御システム118は、有線又は無線の接続を介してロボットシステム100の他のシステムと通信を行うことができ、更に、ロボットの1人以上のユーザと通信を行うように構成できる。1つの可能な例として、制御システム118は、例えば物体を拾ってある位置から別の位置へ移動させるといった要求されるタスクを実行する命令を示す入力を、(例えばユーザから又は別のロボットから)受信できる。この入力に基づいて、制御システム118は、要求されたタスクを実行するための移動シーケンスをロボットシステム100に行わせる動作を実行できる。別の例として、制御システムは、要求された位置へ移動する命令を示す入力を受信できる。これに応答して、制御システム118は(おそらく他のコンポーネント又はシステムを用いて)、要求された位置へ向かう途中の環境でロボットシステム100を移動させる方向及び速度を決定できる。
[0041] 制御システム118の動作は、1又は複数のプロセッサ102によって実行することができる。あるいは、これらの動作は、1もしくは複数のコントローラ108によって、又は1もしくは複数のプロセッサ102と1もしくは複数のコントローラ108との組み合わせによって実行できる。いくつかの実施例において、制御システム118は、部分的に又は全体的にロボットシステム100以外のデバイス上に存在し、従って少なくとも部分的にロボットシステム100を遠隔で制御することができる。
[0042] 機械コンポーネント110は、ロボットシステム100が物理的動作を実行することを可能とするロボットシステム100のハードウェアを表す。いくつかの例として、ロボットシステム100は、アーム、エンドエフェクタ、頭部、首、胴体、ベース、及び車輪といった1つ以上の物理部材を含み得る。ロボットシステム100の物理部材又は他の部分は更に、これらの物理的部材を相互に対して移動させるよう配置されたアクチュエータを含み得る。また、ロボットシステム100は、制御システム118又は他のコンポーネントを収容するための1つ以上の構造体も含むことができ、更に、他のタイプの機械コンポーネントも含み得る。所与のロボットで用いられる特定の機械コンポーネント110は、ロボットの設計に基づいて変動する可能性があり、また、ロボットが実行するように構成された動作又はタスクに基づき得る。
[0043] いくつかの例では、機械コンポーネント110は1つ以上の着脱可能コンポーネントを含み得る。ロボットシステム100は、そのような着脱可能コンポーネントを追加又は除去するように構成できるが、それにはユーザ又は別のロボットによる支援が必要となることがある。例えばロボットシステム100は、必要に応じて又は所望の場合に交換又は変更できる着脱可能エンドエフェクタ又は指を備えて構成することができる。いくつかの実施例において、ロボットシステム100は、1つ以上の着脱可能又は交換可能なバッテリユニット、制御システム、動力システム、バンパ、又はセンサを含み得る。他のタイプの着脱可能コンポーネントもいくつかの実施例に含まれ得る。
[0044] ロボットシステム100は、ロボットシステム100の様相(aspect)を検知するように配置された1又は複数のセンサ112を含み得る。1又は複数のセンサ112は、いくつかの可能性の中でも特に、1又は複数の力センサ、トルクセンサ、速度センサ、加速度センサ、位置センサ、近接センサ、運動センサ、位置センサ、荷重センサ、温度センサ、タッチセンサ、深度センサ、超音波距離センサ、赤外線センサ、物体センサ、又はカメラを含み得る。いくつかの例において、ロボットシステム100は、ロボットから物理的に分離されているセンサ(例えば、他のロボット上に位置決めされたセンサ、又はロボットが動作している環境内に配置されたセンサ)からセンサデータを受信するように構成できる。
[0045] 1又は複数のセンサ112は、(おそらくデータ107を介して)センサデータを1又は複数のプロセッサ102に提供することで、ロボットシステム100がその環境と相互作用すること、及びロボットシステム100の動作を監視することを可能とする。センサデータは、制御システム118によって機械コンポーネント110及び電気コンポーネント116の活性化、移動、及び非活性化を行うため様々なファクタを評価する際に使用できる。例えば、1又は複数のセンサ112は、環境の地形又は付近の物体の位置に対応するデータを捕捉することができ、これによって環境認識及びナビゲーションを支援できる。
[0046] いくつかの例において、1又は複数のセンサ112は、(例えば長距離の物体検出、距離決定、もしくは速度決定のための)レーダ、(例えば短距離の物体検出、距離決定、もしくは速度決定のための)ライダー、(例えば水中の物体検出、距離決定、もしくは速度決定のための)ソーナ、(例えばモーションキャプチャのための)VICON(登録商標)、1つ以上のカメラ(例えば3Dビジョンのための立体カメラ)、全地球測位システム(GPS)送受信器、又は、ロボットシステム100が動作している環境の情報を捕捉するための他のセンサを含み得る。1又は複数のセンサ112は、環境をリアルタイムで監視し、障害物、地形の要素、気象条件、温度、又は環境の他の様相を検出することができる。別の例において、1又は複数のセンサ112は、ターゲット又は識別された物体のサイズ、形状、外形、構造、又は向き等、その物体の1つ以上の特徴に対応するデータを捕捉できる。
[0047] また、ロボットシステム100は、ロボットシステム100の様々なコンポーネントの状態を監視できる1又は複数のセンサ112を含む、ロボットシステム100の状態を示す情報を受信するように構成された1又は複数のセンサ112を含み得る。1又は複数のセンサ112は、ロボットシステム100のシステムの活動を測定し、例えば伸縮式アーム、エンドエフェクタ、又はロボットシステム100の他の機械的もしくは電気的特徴部の動作等、ロボットシステム100の様々な特徴部の動作に基づく情報を受信することができる。1又は複数のセンサ112が提供したデータによって、制御システム118がロボットシステム100のコンポーネントの動作のエラーを決定すること、及びそれらのコンポーネントの全体的な動作を監視することが可能となる。
[0048] 一例としてロボットシステム100は、力/トルクセンサを用いて、ロボットシステム100の様々なコンポーネントにかかる負荷を測定することができる。いくつかの実施例において、ロボットシステム100は、アーム又はエンドエフェクタ上に1つ以上の力/トルクセンサを含んで、アーム又はエンドエフェクタの1つ以上の部材を移動させるアクチュエータにかかる負荷を測定できる。いくつかの例において、ロボットシステム100は、手首又はエンドエフェクタ又はその近傍であるがロボットアームの他の関節又はその近傍でない位置に、力/トルクセンサを含むことができる。別の例において、ロボットシステム100は、ロボットシステムのアクチュエータの位置を検知する1つ以上の位置センサを使用することができる。例えばそのような位置センサは、アーム又はエンドエフェクタ上のアクチュエータの伸長、格納、配置、又は回転の状態を検知できる。
[0049] 別の例として、1又は複数のセンサ112は1つ以上の速度又は加速度センサを含むことができる。例えば、1又は複数のセンサ112は慣性測定ユニット(IMU:inertial measurement unit)を含み得る。IMUは、重力ベクトルに対するワールドフレーム(world frame)の速度及び加速度を検知できる。次いで、ロボットシステム100内のIMUの位置とロボットシステム100の運動学に基づいて、IMUにより検知した速度及び加速度をロボットシステム100の速度及び加速度に変換すればよい。
[0050] ロボットシステム100は、本明細書で明示的に検討されない他のタイプのセンサを含み得る。これに加えて又はこの代わりに、ロボットシステムは、本明細書に列挙されていない目的のために特定のセンサを用い得る。
[0051] また、ロボットシステム100は、ロボットシステム100の様々なコンポーネントに動力を供給するように構成された1つ以上の動力源114も含むことができる。ロボットシステム100は、いくつかの可能な動力システムの中でも特に、油圧システム、電気システム、バッテリ、又は他のタイプの動力システムを含み得る。1つの例示として、ロボットシステム100は、ロボットシステム100のコンポーネントに電荷を与えるように構成された1つ以上のバッテリを含み得る。機械コンポーネント110又は電気コンポーネント116のいくつかは、それぞれ異なる動力源に接続するか、同一の動力源によって動力を供給するか、又は複数の動力源によって動力を供給することができる。
[0052] 電力又はガソリンエンジン等、任意のタイプの動力源を用いてロボットシステム100に動力を供給することができる。これに加えて又はこの代わりに、ロボットシステム100は、流体動力を用いて機械コンポーネント110に動力を供給するよう構成された油圧システムを含み得る。ロボットシステム100のコンポーネントは、例えば作動油(hydraulic fluid)が油圧システム全体を通って様々な油圧モータ及び油圧シリンダへ伝送されることに基づいて動作し得る。油圧システムは、ロボットシステム100のコンポーネント間のチューブ、可撓性ホース、又は他のリンクを通る加圧作動油によって、油圧動力を伝達できる。1又は複数の動力源114は、外部動力源に対する有線接続、無線充電、燃焼、又は他の例のように、様々なタイプの充電を用いて充電することができる。
[0053] 電気コンポーネント116は、電荷又は電気信号を処理、伝達、又は提供することができる様々な機構を含み得る。電気コンポーネント116は、いくつかの可能な例の中でも特に、ロボットシステム100の動作を可能とするための電線、回路、又は無線通信送信器及び受信器を含み得る。電気コンポーネント116は、ロボットシステム100が様々な動作を実行できるように機械コンポーネント110と相互作用し得る。電気コンポーネント116は、例えば様々な機械コンポーネント110に1又は複数の動力源114からの動力を供給するように構成できる。更に、ロボットシステム100は電気モータを含み得る。電気コンポーネント116の他の例も存在し得る。
[0054] ロボットシステム100は、ロボットシステムの付属物及びコンポーネントに接続するか又はそれらを収容することができる本体を含み得る。このため、本体の構造は複数の例において変動することがあり、更に、所与のロボットが実行するよう設計され得る特定の動作に依存する可能性がある。例えば、重い荷物を運ぶように開発されたロボットは、荷物を置くことができる幅広い本体を有し得る。同様に、狭い空間内で動作するように設計されたロボットは、比較的背が高く細い本体を有し得る。また、本体又は他のコンポーネントは、金属又はプラスチックといった様々なタイプの材料を用いて開発され得る。他の例において、ロボットは、異なる構造を有するか又は様々なタイプの材料で作製された本体を有し得る。
[0055] 本体又は他のコンポーネントは、1又は複数のセンサ112を含むか又は担持し得る。これらのセンサは、いくつかの例の中でも特に、本体、頭部、首、胴体、ベース、アーム、又はエンドエフェクタ等、ロボットシステム100上の様々な位置に配置することができる。
[0056] ロボットシステム100は、輸送される予定の何らかの貨物のような荷物を運ぶように構成できる。いくつかの例では、ロボットシステム100によって、ロボットシステム100に取り付けられた箱又は他の容器内に荷物を置くことができる。また、荷物は、ロボットシステム100が利用できる外部バッテリ又は他のタイプの動力源(例えばソーラーパネル)も表し得る。荷物を運ぶことは、ロボットシステム100を構成することができる1つの使用例を表すが、ロボットシステム100は他の動作を実行するようにも構成され得る。
[0057] 上述のようにロボットシステム100は、様々なタイプの付属物、車輪、エンドエフェクタ、把持デバイス等を含み得る。いくつかの例では、ロボットシステム100は、車輪、トレッド(tread)、又は他の何らかの移動形態を用いる移動ベースを含み得る。加えて、ロボットシステム100は、ロボットアーム又は他の何らかの形態のロボットマニピュレータを含み得る。移動ベースの場合、このベースは機械コンポーネント110の1つと見なされ、車輪を含むことができ、本体の残り部分に加えてロボットアームの可動性を与えるアクチュエータのうち1つ以上によって動力が供給される。
[0058] 図2は、一例の実施形態に従った移動ロボットを示す。図3は、一例の実施形態に従った移動ロボットの分解図を示す。より具体的には、ロボット200は、移動ベース202、中央部204、アーム206、アームエンドシステム(EOAS:end-of-arm system)208、マスト210、知覚筐体212、及び知覚部214を含み得る。ロボット200は、移動ベース202内に収容された計算ボックス216も含み得る。
[0059] 移動ベース202は、ロボット200の移動を行うためロボット200の前端に位置決めされた2つの駆動輪を含む。また、移動ベース202は、地面上での移動ベース202の運動を容易にするため追加のキャスタ(図示せず)も含む。移動ベース202は、計算ボックス216の容易な取り外しを可能とするモジュール式アーキテクチャを有し得る。計算ボックス216は、ロボット200のための(機械的に一体化された制御システムでなく)着脱可能制御システムとして機能することができる。外殻を取り外した後、計算ボックス216を容易に取り外すこと及び/又は交換することができる。また、移動ベース202は、追加のモジュール方式を与えるように設計できる。例えば移動ベース202は、動力システム、バッテリ、及び/又は外部バンパを全て容易に取り外す及び/又は交換することができるように設計され得る。
[0060] 中央部204は、移動ベース202の前端で移動ベース202に取り付けることができる。中央部204は、移動ベース202に固定された搭載柱を含む。中央部204は更に、アーム206のための回転関節を含む。より具体的には、中央部204は、アーム206のための第1の2自由度を含む(肩ヨーJ0関節と肩ピッチJ1関節)。搭載柱及び肩ヨーJ0関節は、移動ベース202の前面で積層塔の一部を形成し得る。搭載柱及び肩ヨーJ0関節は同軸であり得る。中央部204の搭載柱の長さは、一般的に遭遇する高さレベル(例えばコーヒーテーブル面及びカウンタ天板のレベル)で操作タスクを実行するのに充分な高さをアーム206に与えるように選択できる。また、中央部204の搭載柱の長さによって、肩ピッチJ1関節は、アーム206を移動ベース202の上方で移動ベース202に接触させずに回転させることができる。
[0061] アーム206は、中央部204に接続された場合に7DOFロボットアームであり得る。上記のように、アーム206の第1の2DOFは中央部204に含めることができる。残りの5DOFは、図2及び図3に示されているように、アーム206の独立した部分に含めることができる。アーム206は、プラスチックの一体リンク構造で構成され得る。アーム206内部に、独立したアクチュエータモジュール、ローカルモータドライバ、及び貫通孔配線を収容することができる。
[0062] EOAS208は、アーム206の端部のエンドエフェクタとすることができる。EOAS208は、ロボット200が環境内で物体を操作することを可能とする。図2及び図3に示されているように、EOAS208は、劣駆動ピンチグリッパ等のグリッパとすることができる。グリッパは、物体検出及びグリッパ制御を容易にするため、力/トルクセンサのような1つ以上の接触センサ及び/又は1つ以上のカメラのような非接触センサを含み得る。また、EOAS208は、吸引グリッパのような異なるタイプのグリッパ、又はドリルもしくはブッシュのような異なるタイプのツールとしてもよい。また、EOAS208は、交換可能とすること、又はグリッパ指のような交換可能コンポーネントを含むことも可能である。
[0063] マスト210は、アーム206の肩ヨーJ0関節と知覚筐体212との間の比較的長くて細いコンポーネントとすることができる。マスト210は、移動ベース202の前面における積層塔の一部であり得る。マスト210は中央部204と同軸であり得る。マスト210の長さによって、EOAS208が操作している物体を知覚部214で知覚することが容易になり得る。マスト210は、肩ピッチJ1関節が垂直方向上方へ回転した場合にアーム206の二頭筋の最上部がマスト210の上部とほぼ並ぶような長さを有し得る。そのため、マスト210の長さは、肩ピッチJ1関節が垂直方向上方へ回転した場合に知覚筐体212とアーム206との衝突を防ぐのに充分なものであり得る。
[0064] 図2及び図3に示されているように、マスト210はライダーセンサを含み得る。ライダーセンサは、スピン3次元(3D)深度センサとすることができる。ライダーセンサは、マスト210の切り取り部分(carved out portion)に結合して、下向きの角度に固定することができる。ライダーの位置は、位置特定、ナビゲーション、及び前方の崖の検出のために最適化できる。
[0065] 知覚筐体212は、知覚部214を構成する少なくとも1つのセンサを含み得る。知覚筐体212は、(例えば、EOAS208で操作されている物体を見るため)知覚筐体212の向きを変えることを可能とするパン/チルト制御に接続され得る。知覚筐体212は、移動ベース202に固定された積層塔の一部であり得る。知覚筐体212の後部はマスト210と同軸であり得る。
[0066] 知覚部214は、ロボット200の環境を表すセンサデータを収集するように構成されたセンサ一式を含み得る。知覚部214は、赤外線(IR)支援立体深度センサを含み得る。知覚部214は更に、人間とロボットの相互作用及び文脈情報のための広角RGB(red-green-blue)カメラを含み得る。知覚部214は更に、物体分類のための高解像度RGBカメラを含み得る。また、人間とロボットの相互作用及びシーン照明を改善するため、知覚部214を取り囲むフェースリング光(face light ring)も含めることができる。
[0067] 図4は、一例の実施形態に従ったロボットアームを示す。ロボットアームは7DOFを含む。すなわち、肩ヨーJ0関節、肩ピッチJ1関節、二頭筋ロールJ2関節、肘ピッチJ3関節、前腕ロールJ4関節、手首ピッチJ5関節、及び手首ロールJ6関節である。これらの関節の各々を1つ以上のアクチュエータに結合することができる。関節に結合されたアクチュエータは、運動連鎖(kinematic chain)(及び、ロボットアームに取り付けられたエンドエフェクタ)に沿ってリンクの移動を発生させるように動作可能であり得る。
[0068] 肩ヨーJ0関節は、ロボットアームがロボットの前後へ回転することを可能とする。この運動の1つの有益な利用は、ロボットが前方にある物体を拾い、その物体をロボットの後部へ素早く置くこと(及びその逆の運動)である。この運動の別の有益な利用は、ロボットアームをロボット後方の格納構成(stowed configuration)からロボット前方のアクティブ位置へ素早く移動させること(及びその逆の運動)である。
[0069] 肩ピッチJ1関節は、ロボットがロボットアームを上げること(例えば二頭筋がロボットの知覚部レベルにくるように)、及びロボットアームを下げること(例えば二頭筋が移動ベースのすぐ上にくるように)を可能とする。この運動は、ロボットが環境内の様々な目標高さレベルで操作動作(例えば上方把持及び側方把持)を効率的に実行することを可能とするために有益である。例えば、肩ピッチJ1関節を垂直方向上方位置へ回転させて、ロボットが環境内のテーブル上の物体を容易に操作することを可能とする。肩ピッチJ1関節を垂直下方位置へ回転させて、ロボットが環境内の地面上の物体を容易に操作することを可能とする。
[0070] 二頭筋ロールJ2関節は、ロボットが二頭筋を回転させて二頭筋に対して肘及び前腕を移動させることを可能とする。この運動は、ロボットの知覚部がEOASをはっきり見ることを容易にするために特に有益であり得る。二頭筋ロールJ2関節を回転させることによって、ロボットは、ロボットのグリッパで保持された物体までの見通しを改善するため、肘及び前腕がそれを遮ることを防止できる。
[0071] 運動連鎖に沿って交互に配置されたピッチ関節及びロール関節(肩ピッチJ1関節、二頭筋ロールJ2関節、肘ピッチJ3関節、前腕ロールJ4関節、手首ピッチJ5関節、及び手首ロールJ6関節)は、ロボットアームの操作性を向上させるように提供される。物体の向きを変える際のアーム運動を低減するため、手首ピッチJ5関節、手首ロールJ6関節、及び前腕ロールJ4関節の軸は交差している。物体の回転を改善するため、手首に2つのピッチ関節でなく手首ロールJ6関節が提供されている。
[0072] いくつかの例において、図4に示されているようなロボットアームは教示モードで動作することができる。具体的に述べると、教示モードは、ユーザがロボットアームと物理的に相互作用し、様々な移動を実行及び記録させるよう指導することを可能とするロボットアームの動作モードであり得る。教示モードでは、特定のタスクをどのように実行するかに関してロボットに教示することを目的とした教示入力に基づいて、ロボットアームに(例えばユーザによって)外力を加える。ロボットアームはこれにより、ユーザからの命令及び指導に基づいて、どのように特定のタスクを実行するかに関するデータを取得できる。このようなデータは、いくつかの可能性の中でも特に、機械コンポーネントの複数の構成、関節位置データ、速度データ、加速度データ、トルクデータ、力データ、及び動力データに関し得る。
[0073] 教示モードの間、ユーザは、いくつかの例ではEOAS又は手首をつかみ、他の例ではロボットアームの任意の部分をつかみ、ロボットアームを物理的に動かすことによって外力を与えることができる。具体的に述べると、ユーザは、ロボットアームが物体をつかみ、その物体を第1の位置から第2の位置へ動かすようにロボットアームを指導できる。教示モード中にユーザがロボットアームを指導する際、ロボットは移動に関するデータを取得し記録することができるので、ロボットアームは、後の独立動作中に(例えばロボットアームが教示モード外で独立して動作するときに)独立してタスクを実行するように構成できる。場合によっては、いくつかの可能性の中でも特に、他の物体、機械、又はロボットシステムのような、物理的作業空間内の他の要素によって外力を加えることができる。
[0074] 図5A及び図5Bは、一例の実施形態に従った移動ベース上の1D ToFセンサを示す。より具体的に述べると、図5Aはロボットデバイスの移動ベース500の側面図を示し、図5Bは下面図を示す。移動ベース500は、図1から図4に関して図示し記載したような他のコンポーネントも含むロボットデバイスの一部とすることができる。移動ベース500は車輪526及び528を含み得る。車輪526及び528は、環境内での移動を可能とするために1つ以上の駆動輪に加えて使用されるキャスタとすればよい。これに加えて又はこの代わりに、他のタイプの移動を可能とするコンポーネントを使用してもよい。
[0075] 図5A及び図5Bに示されている移動ベース500は、移動ベース500の後側に配置された8つの1D ToFセンサ502、504、506、508、512、514、516、及び518を含む。移動ベースは更に、車輪526及び528に近接して位置決めされた2つの下向き1D ToFセンサ522及び524も含む。これらとは異なる数及び組み合わせの1D ToFセンサを使用してもよい。いくつかの例では、図示されている水平面のような共通の面に沿って1D ToFセンサを配置することができる。他の例では、格子状パターンのような異なる配置の1D ToFセンサを使用することができる。また、これに加えて又はこの代わりに、移動ロボットベースの前面のような異なる表面上に1D ToFセンサ群を配置してもよい。
[0076] 各1D ToFセンサは、センサからの光が環境内の物体に到達し、次いで反射してセンサへ戻ってくるまでに要する時間に基づいて、この物体までの距離を測定するよう構成されている。各1D ToFセンサは、物体までの距離を測定するため、別個の発光体(例えばレーザ又は発光ダイオード(LED))と検出器を含み得る。いくつかの例では、各1D ToFセンサの前方に透過材料を位置決めすることができる。各1D ToFセンサは、センサから延出する円錐形の形態の視野を有し得る。いくつかの例では、各センサの視野はほぼ15度とすることができる。他の例では、異なる視野を有する1D ToFセンサを使用すること、及び/又はそれぞれのセンサが異なる視野を有することも可能である。
[0077] 図5A及び図6Bに関して、水平方向に配置された1D ToFセンサ502、504、506、508、512、514、516、及び518は、選択された高さ(例えば20センチメートル)にある充分に大きい物体をセンサ群によって確実に検出するため、この選択された高さで共通の面に沿って間隔を空けて配置することができる。これらの1D ToFセンサは、3Dライダーセンサのようなもっと複雑なセンサに対する費用効果の高い代替案を提供する。
[0078] 図5A及び図5Bに示されているように、水平方向に配置された1D ToFセンサのうち連続した各対の1D ToFセンサは、位置オフセットに加えて、異なる向きに搭載することができる。より具体的に述べると、左から右へいくにつれて、各1D ToFセンサ502、504、506、508、512、514、516、及び518は、この群内の先行するセンサよりも右側を指し示す向きに搭載され得る。連続した1D ToFセンサの各対の間にこのように角度オフセットを設けると、対の各1D ToFセンサのカバレッジの円錐形が重複しないので、非効率的な冗長カバレッジエリアを回避することができる。
[0079] 別の例では、水平方向に配置された1D ToFセンサ502、504、506、508、512、514、516、及び518の向きは、1D ToFセンサの連続した対がそれぞれ平行な円錐形エッジを有するように設定され得る。この配置によって、連続したセンサ間に、群内のどのセンサによっても検知されない実質的に固定幅のネガティブレーンが生じる。実質的に固定幅のネガティブレーンを有するカバレッジ領域を生成することで、センサ群によって検出されない可能性のある物体のサイズの予測可能な上限を決定できる。
[0080] 1D ToFセンサが搭載されている移動ベース500の後面のエリアは、実質的に平坦であり得る。このエリアにおいて、連続した1Dセンサをそれらの視野(例えば15度)ずつ異なる角度に搭載して、平行な円錐形エッジを提供し、カバレッジエリアが重複しないことを保証することができる。移動ベース500の後面の他のエリアは、例えば表面が丸みを帯びているコーナのように平坦でないことがある。このようなエリアでは、移動ベース500の後面の曲率を考慮に入れた角度で連続した1Dセンサを搭載することで、実質的に固定幅のネガティブレーンを同様に提供できる。
[0081] 移動ベース500は更に、崖検出のための2つの下向き1D ToFセンサも含む。1D ToFセンサ522は車輪526に近接して位置決めされ、1D ToFセンサ524は車輪528に近接して位置決めされている。これらの崖センサからのデータを用いて、予想された高さの地面が検出されなくなった時を検出することにより、移動ベース500が崖から落下しかけている時を決定できる。これらとは異なる数又は配置の崖センサも可能である。様々な例では、障害物検出のための1D ToFセンサに加えて又はそれらの代わりに1D ToF崖センサを使用することができる。
[0082] 図5A及び図5Bに示されている例では、水平方向に配置された1D ToFセンサ502、504、506、508、512、514、516、及び518からのデータと、下向き1D ToF崖センサ522及び524からのデータを用いて、移動ベース500のナビゲートを制御するのを支援できる。例えば、水平方向に配置されたセンサが障害物を検出した場合、移動ベース500は、(例えば衝突を回避するため)停止するか又は方向を変えるように制御システムによって制御され得る。更に、崖センサが崖を検出した場合、移動ベース500は、(例えば崖から落下するのを回避するため)停止するか又は方向を変えるように制御システムによって制御され得る。
[0083] 移動ベース500を有するロボットのナビゲーション制御は、例示されている1D ToFセンサの各々からのセンサデータに依存し得る。従って、1D ToFセンサからどのくらい速くデータを引き出して処理できるかに基づいて、ロボットの最大速度(例えば最大逆速度)を設定することができる。いくつかの例では、1D ToFセンサを別個のストリップに分割して並列処理を可能とする。(例えば、各センサに取り付けた有線接続を用いて)ストリップ上の各センサから順次データを収集し処理することができる。従って、1つのストリップ上に含めるセンサを少なくすることによって、より迅速にデータを収集及び処理し、ロボットの最大許容速度を増大させることが可能となる。具体例として、1D ToF502、504、506、508、及び522を第1のストリップに含ませ、1D ToF512、514、516、518、及び524を第2のストリップに含ませることができる。このようないくつかの例では、2つのストリップは対称とすることができる。
[0084] 図6A及び図6Bは、一例の実施形態に従った、搭載ブラケット上に搭載された1D ToFセンサを示す。より具体的に述べると、カスタム成形ブラケット600上に、1D ToFセンサ602、604、606、608、612、614、616、及び618を搭載することができる。ブラケットは、ロボットデバイスに(例えばロボットの移動ベースの後側に)適合するような形状とすればよい。いくつかの例では、ブラケットは板金で構成され得る。他の例では、ブラケットは異なる材料で構成され得る。図6Aで示されている通り、ブラケットをロボットに取り付ける前に、ブラケット600上の選択された位置及び向きに1D ToFセンサの各々を搭載することができる。剛性の搭載ブラケットを用いることにより、センサは長期間にわたって選択された位置及び向きに搭載されて所望のカバレッジ領域を維持することができる。
[0085] 1D ToFセンサを搭載ブラケットに取り付けた後、図6Bで示されているように、ブラケットをロボットに取り付けることができる。より具体的に述べると、図6Bはロボットの移動ベース650を示す。1D ToFセンサ602、604、606、608、612、614、616、及び618を含むブラケット600を、移動ベース650の後面上に取り付ければよい。移動ベースは更に、車輪626及び628に近接して別個に搭載された1D ToF崖センサ622及び624も含み得る。
[0086] ブラケット600の形状は個々のロボットに合わせて特別に設計することができ、ロボットの形状と、1D ToFセンサが所望のカバレッジを達成するための所望の位置及び向きが考慮され得る。また、所望の剛性、角度公差、及び気流等、他の要素も考慮され得る。別の例では複数のブラケットを用いることができる。例えば、ブラケット600の代わりに2つの別個のブラケットを使用し、その各々が1D ToFセンサのうち4つを含んでもよい。この場合、2つの別個のブラケットは対称とすることができる。
[0087] 図7は、一例の実施形態に従ったセンサ群のカバレッジ領域を示す。より具体的に述べると、センサ群は、図5Aから図5B及び図6Aから図6Bに関して図示し記載したような、ロボットの移動ベースの後側に沿って水平方向に配置された8つの1D ToFセンサを含み得る。センサ群は更に、図2及び図3に関して図示し記載したような、固定マストの切り取り部分に搭載された3Dライダーセンサも含み得る。
[0088] 図7を参照すると、水平方向に配置された1D ToFセンサが搭載されている高さにおけるセンサ群の2次元カバレッジ領域の上面図が示されている。領域700は、ロボットデバイス自体を含む。領域702は、水平方向に配置された8つの1D ToFセンサの各々のカバレッジ領域を含む。図示のように、各1D ToFセンサは、センサから延出する約15.5度の視野を有する。1D ToFセンサは、所定の位置及び向きに固定されて、連続したセンサ円錐形の各対の間に実質的に固定幅のネガティブレーンを生成している。
[0089] 実質的に固定幅のネガティブレーンは、ブラインド領域706の一部を構成する。連続したセンサのカバレッジの円錐形が完璧に平行な円錐形エッジ対を共有するように位置合わせされている場合、それらの間のネガティブレーンは、完璧な固定幅でロボットから延出する。実際には、ネガティブレーンの幅はロボットから延出するにつれて図示のようにわずかに大きくなる(又はわずかに小さくなる)。それでも、センサの検出可能領域に基づいて、カバレッジ領域は重複していないと見なることができる。更に、ロボット後方の選択された距離内で、センサによって検出されない可能性のある最大障害物サイズを保証することができる。
[0090] いくつかの例では、2つのネガティブレーンは異なる幅を有し得る。例えば図7に示されているように、ロボットの後側の中心に近いネガティブレーンは、円716で表された潜在的な物体サイズを含み得るが、ロボットの後側の右側に近いネガティブレーンは、円718で表されたもっと大きい潜在的な物体サイズを含み得る。異なるネガティブレーンの異なる幅は、他のセンサによって与えられるカバレッジを含む様々なファクタに基づいて選択することができる。
[0091] 領域704で示されているように、3Dライダーセンサによって追加のカバレッジが提供される。いくつかの例では、3Dライダーセンサ及び複数の1D ToFセンサは、移動ロボットデバイス上で相互に対して固定され得る。従って、3Dライダーセンサ及び複数の1D ToFセンサは、移動ロボットデバイスの周りを複数の予め定義された固定のネガティブボリューム(negative volume)が取り囲む複合カバレッジ領域を規定できる。そのようなネガティブボリュームの寸法に所定の限度を設定することで、ロボットのごく近傍での検出を免れる物体サイズの上限を設けることができる。別の例では、この概念を一般化して、複数の1D ToFセンサを任意の検知様式と組み合わせ、任意の連続した検知領域のサイズが固定の上限を有することを可能とする。
[0092] 図7を参照すると、領域704は円718を含むネガティブレーンと重複しているので、このネガティブレーンは、円716を含むネガティブレーンよりも大きい幅を有することが許容され得る。一般に、3Dライダーセンサで提供されるような他の利用可能センサカバレッジを考慮すると、1D ToFセンサは、選択された最大サイズの物体がロボット後方のネガティブ領域内に収まるように離隔されて向きが設定され得る。一例として、そのような盲点の最大直径は7センチメートル(例えば、予測されるオペレータの脚の幅と同じくらい)に設定され得る。
[0093] いくつかの例では、ロボット後方よりもロボット側方の方がカバレッジにおいて大きい盲点が許容され得る。例えば図7に示されているように、ロボットの両側のブラインド領域は円712及び714を含み得る。ロボットで利用可能な進行方向のため、ロボット後方よりもロボット側方で大きい盲点が許容され得る。更に、異なる高さでのセンサカバレッジも考慮され得る。例えば、3Dライダーセンサは、(例えば盲点内に立っているオペレータを検出することが予想される)もっと上方の高さで追加のカバレッジを提供するので、ロボットの側方では大きい盲点が許容され得る。
[0094] 図7は、本明細書に記載されている構成及び技法のいくつかを採用するシステムの例示的なカバレッジ領域を示す。本明細書に記載されている1D ToFセンサのセットを採用する他の構成では、異なるカバレッジ領域が得られる。また、他の例では、3Dカバレッジマップを含む他のタイプのカバレッジマップが使用され得る。更に、図7に示されているロボットは、崖検出のための1つ以上の下向き1D ToFセンサ、及び/又はカバレッジ領域が例示されている1D ToFセンサ以外の1D ToFセンサを含む場合も含まない場合もある。
[0095] 図8は、一例の実施形態に従った下向き1D ToFセンサを示す。より具体的に述べると、移動ベース800は、車輪804に近接して位置決めされた下向き1D ToFセンサ802を含む。いくつかの例では、1D ToFセンサは真っすぐ下に向けることができる。他の例では、1D ToFセンサは地面に対して垂直でない下向きの角度に向けることができる。
[0096] 図8に示されているように、1D ToFセンサ802は、そのカバレッジ領域が車輪804の後方の地面の一部を含むように位置決めすることができる。従って、移動ベース800に関連付けられたロボットが後ろに進んで車輪804が崖を横断する地点に到達する前に、1D ToFセンサは、予想された高さの地面が存在しなくなった時(崖を示す)を検出できる。このような状況では、ロボットを停止するか又は方向を変えるよう制御することで、車輪804が崖から落ちる方向に駆動されてロボットが損傷したりオペレータの支援を必要としたりする可能性が回避され得る。いくつかの例において、1D ToF崖センサからのセンサデータに基づいて崖を検出することは、地面の高さが閾値量よりも大きく変化した時を検出することを含み得る。
[0097] いくつかの例では、図8に示されているような下向き1D ToFセンサを崖検出のために複数用いることができる。例えば、ロボットの各後輪に近接して別個の崖センサを配置すればよい。追加の例では、それに加えて又はその代わりに、ロボットの前部の近くに及び/又はロボット上の他の位置に下向き1D ToFセンサを配置してもよい。一般に、1D ToFセンサは、安全なロボットナビゲーションを支援するため信頼性の高い崖検出の低コストの解決策を提供できる。
[0098] 図9は、一例の実施形態に従った方法のブロック図である。いくつかの例において、図9の方法900は、ロボットシステム100の制御システム118のような制御システムによって実行され得る。別の例において、方法900は、1又は複数のプロセッサ102等の1つ以上のプロセッサが、データストレージ104等のデータストレージに記憶されたプログラム命令106等のプログラム命令を実行することによって実行され得る。方法900の実行には、図1から図4、図5Aから図5B、図6Aから図6B、図7、及び図8に関して図示及び記載されているような1つ以上のコンポーネントを有するロボットデバイスが必要であり得る。方法900の実行において、他のロボットデバイスを使用することも可能である。別の例では、方法900のブロックのうちいくつか又は全ては、ロボットデバイスから遠くにある制御システムによって実行され得る。更に別の例では、方法900の異なるブロックは、ロボットデバイス上に配置された及び/又はロボットデバイスから遠くにある異なる制御システムによって実行され得る。
[0099] ブロック902において、方法900は、複数の1D ToFセンサからセンサデータを受信することを含む。複数の1D ToFセンサの各1D ToFセンサは、移動ロボットデバイス上で固定の位置及び向きに搭載され得る。複数の1D ToFセンサのうち1D ToFセンサの各対は、1D ToFセンサの対のカバレッジの各円錐形が重複しないように相互に対してそれぞれの位置及び向きに固定され得る。いくつかの例において、複数の1D ToFセンサは、実質的に水平な面のような共通の面に沿って配置され得る。他の例では、センサの異なる配置が使用され得る。いくつかの例において、複数の1D ToFセンサは8つのセンサを含み得る。他の例では、異なる数のセンサを含むことができる。
[00100] いくつかの例において、少なくとも1対の1D ToFセンサのカバレッジの各円錐形は、1対の平行な円錐形エッジを有する。別の例において、少なくとも1対の1D ToFセンサは、1D ToFセンサの各々の視野とほぼ等しい分離角で向きが設定されている。更に別の例において、複数の1D ToFセンサは共通の面に沿って配置され、それらの総カバレッジエリアは、連続した1D ToFセンサ円錐形の各対の間に実質的に固定幅のネガティブレーンを含む。いくつかの例において、実質的に固定幅のネガティブレーンの各々は同一の所定の幅(例えば7センチメートル)を有する。別の例では、実質的に固定幅のネガティブレーンの各々は5センチメートルから10センチメートルまでの間の幅を有する。追加の例では、少なくとも3つのToFセンサから成る群を共通の面に沿って配置し、それらのセンサの各々は、群内の先行するセンサから同一の所定の分離角で向きを設定することができる。
[0101] ブロック904において、方法900は更に、センサデータを処理して移動ロボットデバイスの環境内の1つ以上の障害物を検出することを含む。いくつかの例では、センサデータの処理の高速化を可能とするため、1D ToFセンサは別個のストリップに分割され得る。具体的には、1D ToFセンサの各々を2つのストリップのうち1つに配置すればよい。移動ロボットデバイスは、2つのストリップ上の1D ToFセンサから並行してデータを引き出すよう構成された少なくとも1つのプロセッサを含み得る。2つのストリップの各々は対称とすることができる。いくつかの例において、2つのストリップの各々は、崖検出のための少なくとも1つの下向き1D ToFセンサも含み得る。崖センサからのセンサデータを用いて、移動ロボットデバイスの環境内で崖を検出することができる。
[0102] ブロック906において、方法900は更に、センサデータに基づいて移動ロボットデバイスをナビゲートすることを含む。例えば、1D ToFセンサからのセンサデータが環境における予想外の障害物を示す場合、ロボットデバイスは、予想外の障害物との衝突を回避するために停止するか又は方向を変えるよう制御され得る。別の例において、崖センサからのセンサデータが環境における予想外の崖を示す場合、ロボットデバイスは、崖からの落下を回避するために停止するか又は方向を変えるよう制御され得る。いくつかの例では、1D ToFセンサからの検出に応答してすぐにナビゲーション調整が実行され得る。追加の例では、検出された障害物及び/又は崖を用いて環境のマップの構築を支援できる。そのような例では、環境のマップを後の時点で用いて移動ロボットデバイスのナビゲーションを調整することができる。
III.結論
[0103] 本開示は、本出願に記載されている特定の実施形態に関して限定されない。それらの特定の実施形態は、様々な態様の例示であることが意図されている。当業者に認められるように、その精神及び範囲から逸脱することなく多くの変更及び変形が実施可能である。本明細書に列挙されたものに加えて、本開示の範囲内にある機能的に同等の方法及び装置も、前述の記載から当業者には明らかであろう。そのような変更及び変形は、添付の特許請求の範囲の範囲内にあることが意図されている。
[0104] 上記の詳細な説明は、添付図面を参照して、開示されているシステム、デバイス、及び方法の様々な特徴及び機能を記載している。図面では、文脈上他の意味が示される場合を除いて、通常は同様の符号は同様のコンポーネントを識別する。本明細書及び図面に示されている例示の実施形態は、限定を意図していない。本明細書に提示されている主題の精神又は範囲から逸脱することなく、他の実施形態を利用すること、及び他の変更を実施することができる。本明細書で全体的に記載され図面に示されている本開示の態様は、全てが本明細書で明示的に想定される多種多様な異なる構成において、配列、置換、結合、分離、及び設計が可能であることは容易に理解されよう。
[0105] 情報の処理を表すブロックは、本明細書に記載されている方法又は技法の特定の論理機能を実行するように構成できる回路に対応し得る。この代わりに又はこれに加えて、情報の処理を表すブロックは、プログラムコード(関連データを含む)のモジュール、セグメント、又は部分に対応し得る。プログラムコードは、本明細書の方法又は技法における特定の論理機能又は行為を実施するためプロセッサによって実行可能な1つ以上の命令を含み得る。プログラムコード又は関連データは、ディスク又はハードドライブ又は他の記憶媒体を含む記憶デバイス等、任意のタイプのコンピュータ可読媒体に記憶され得る。
[0106] また、コンピュータ可読媒体は、レジスタメモリ、プロセッサキャッシュ、及びランダムアクセスメモリ(RAM)のような短時間データを記憶するコンピュータ可読媒体等、非一時的コンピュータ可読媒体を含み得る。また、コンピュータ可読媒体は、例えばリードオンリメモリ(ROM)、光ディスク又は磁気ディスク、コンパクトディスクリードオンリメモリ(CD-ROM)のような、二次又は永続的な長期記憶装置等、長時間プログラムコード又はデータを記憶する非一時的コンピュータ可読媒体も含み得る。また、コンピュータ可読媒体は、他の任意の揮発性又は不揮発性記憶システムとしてもよい。コンピュータ可読媒体は、例えばコンピュータ可読記憶媒体、又は有形の記憶デバイスと考えることができる。
[0107] 更に、1以上の情報伝送を表すステップ又はブロックは、同一の物理デバイス内のソフトウェアモジュール及び/又はハードウェアモジュール間の情報伝送に対応し得る。しかしながら、他の情報伝送は、異なる物理デバイスにおけるソフトウェアモジュール間及び/又はハードウェアモジュール間である可能性もある。
[0108] 図面に示されている具体的な配置は、限定と見なすべきではない。他の実施形態では、所与の図に示されている各要素が更に数を増加又は減少して含まれ得ることは理解されよう。また、例示されている要素のいくつかを組み合わせること又は省略することも可能である。更に、一例の実施形態は図面に示されていない要素を含むことも可能である。
[0109] 様々な態様及び実施形態を本明細書で開示したが、他の態様及び実施形態も当業者には明らかであろう。本明細書に開示されている様々な態様及び実施形態は例示の目的のためのものであり、限定は意図されておらず、その真の範囲は後続の特許請求の範囲によって示される。

Claims (20)

  1. 移動ロボットデバイスであって、
    複数の1次元(1D)飛行時間(ToF)センサを備え、
    前記複数の1D ToFセンサの各1D ToFセンサは、前記移動ロボットデバイス上で固定の位置及び向きに搭載され、
    前記複数の1D ToFセンサのうち1D ToFセンサの各対は、前記1D ToFセンサの対のカバレッジの各円錐形が重複しないように相互に対してそれぞれの位置及び向きに固定されている、移動ロボットデバイス。
  2. 少なくとも1対の1D ToFセンサのカバレッジの各円錐形は1対の平行な円錐形エッジを有する、請求項1に記載の移動ロボットデバイス。
  3. 少なくとも1対の1D TOFセンサは、前記複数の1D ToFセンサの各々の視野とほぼ等しい分離角で向きが設定されている、請求項1に記載の移動ロボットデバイス。
  4. 前記複数の1D ToFセンサは、共通の面に沿って配置され、連続した1D ToFセンサ円錐形の各対の間に実質的に固定幅のネガティブレーンを含む総カバレッジエリアを有する、請求項1に記載の移動ロボットデバイス。
  5. 前記実質的に固定幅のネガティブレーンの各々は同一の所定の幅を有する、請求項4に記載の移動ロボットデバイス。
  6. 前記実質的に固定幅のネガティブレーンの各々は5センチメートルから10センチメートルまでの間の幅を有する、請求項4に記載の移動ロボットデバイス。
  7. 前記複数の1D ToFセンサは、共通の面に沿って配置された少なくとも3つの1D ToFセンサを含み、前記少なくとも3つの1D ToFセンサのうち連続する1D ToFセンサの各対は、それらの間に同一の所定の分離角が存在するように向きが設定されている、請求項1に記載の移動ロボットデバイス。
  8. 前記複数の1D ToFセンサの各々の前方に位置決めされた透過材料を更に備える、請求項1に記載の移動ロボットデバイス。
  9. 前記複数の1D ToFセンサは前記移動ロボットデバイスの移動ベース上に位置決めされている、請求項1に記載の移動ロボットデバイス。
  10. 前記複数の1D ToFセンサは、前記移動ロボットデバイスの後端に位置決めされ、前記移動ロボットデバイスの後方の障害物を検出するように向きが設定されている、請求項1に記載の移動ロボットデバイス。
  11. 前記移動ロボットデバイスの前記後端に位置決めされ、崖検出のため下向きに配置されている少なくとも1つの1D ToFセンサを更に備える、請求項10に記載の移動ロボットデバイス。
  12. 前記移動ロボットデバイスの前方の障害物を検出するように向きが設定された3次元(3D)ライダーセンサを更に備えており、前記3Dライダーセンサ及び前記複数の1D ToFセンサが、前記移動ロボットデバイスの周りを複数の予め定義された固定のネガティブボリュームが取り囲む複合カバレッジ領域を規定するように、前記3Dライダーセンサは前記移動ロボットデバイス上で前記複数の1D ToFセンサに対して固定されている、請求項10に記載の移動ロボットデバイス。
  13. 前記複数の1D ToFセンサのうち1つ以上は、前記移動ロボットデバイスの前記後端において移動ベースのコーナを回り込むように配置されている、請求項10に記載の移動ロボットデバイス。
  14. 前記複数の1D ToFセンサは板金ブラケット上に搭載されている、請求項1に記載の移動ロボットデバイス。
  15. 前記複数の1D ToFセンサの各々は2つのストリップのうち1つに配置され、前記移動ロボットデバイスは、前記2つのストリップ上の1D ToFセンサから並行してデータを引き出すよう構成された少なくとも1つのプロセッサを更に備える、請求項1に記載の移動ロボットデバイス。
  16. 前記2つのストリップの各々は崖検出のための少なくとも1つの下向き1D ToFセンサを更に備える、請求項15に記載の移動ロボットデバイス。
  17. 前記2つのストリップの各々は対称である、請求項15に記載の移動ロボットデバイス。
  18. 前記少なくとも1つのプロセッサは更に、前記複数の1D ToFセンサからのセンサデータに基づいて前記ロボットデバイスをナビゲートするように構成されている、請求項15に記載の移動ロボットデバイス。
  19. 複数の1次元(1D)飛行時間(ToF)センサからセンサデータを受信することを含む方法であって、
    前記複数の1D ToFセンサの各1D ToFセンサは、前記移動ロボットデバイス上で固定の位置及び向きに搭載され、
    前記複数の1D ToFセンサのうち1D ToFセンサの各対は、前記1D ToFセンサの対のカバレッジの各円錐形が重複しないように相互に対してそれぞれの位置及び向きに固定され、
    この方法は更に、前記センサデータを処理して、前記移動ロボットデバイスの環境内の1つ以上の障害物を検出することと、
    前記センサデータに基づいて前記移動ロボットデバイスをナビゲートすることと、
    を含む、方法。
  20. 移動ベースであって、
    複数の1次元(1D)飛行時間(ToF)センサを備え、
    前記複数の1D ToFセンサの各1D ToFセンサは、前記移動ベース上で固定の位置及び向きに搭載され、
    前記複数の1D ToFセンサのうち1D ToFセンサの各対は、前記1D ToFセンサの対のカバレッジの各円錐形が重複しないように相互に対してそれぞれの位置及び向きに固定されている、移動ベース。
JP2023122652A 2019-07-31 2023-07-27 移動ロボットセンサ構成 Pending JP2023159103A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US16/528,123 2019-07-31
US16/528,123 US11597104B2 (en) 2019-07-31 2019-07-31 Mobile robot sensor configuration
PCT/US2020/042189 WO2021021446A1 (en) 2019-07-31 2020-07-15 Mobile robot sensor configuration
JP2021576468A JP7323652B2 (ja) 2019-07-31 2020-07-15 移動ロボットセンサ構成

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021576468A Division JP7323652B2 (ja) 2019-07-31 2020-07-15 移動ロボットセンサ構成

Publications (1)

Publication Number Publication Date
JP2023159103A true JP2023159103A (ja) 2023-10-31

Family

ID=71995085

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021576468A Active JP7323652B2 (ja) 2019-07-31 2020-07-15 移動ロボットセンサ構成
JP2023122652A Pending JP2023159103A (ja) 2019-07-31 2023-07-27 移動ロボットセンサ構成

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021576468A Active JP7323652B2 (ja) 2019-07-31 2020-07-15 移動ロボットセンサ構成

Country Status (5)

Country Link
US (2) US11597104B2 (ja)
EP (1) EP3972785A1 (ja)
JP (2) JP7323652B2 (ja)
CN (1) CN114072255B (ja)
WO (1) WO2021021446A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11597104B2 (en) * 2019-07-31 2023-03-07 X Development Llc Mobile robot sensor configuration
US11446002B2 (en) * 2019-09-18 2022-09-20 GE Precision Healthcare LLC Methods and systems for a medical imaging device
WO2021086471A1 (en) * 2019-10-28 2021-05-06 Ambulatus Robotics LLC Autonomous robotic mobile support system for the mobility-impaired
JP7487479B2 (ja) * 2020-01-23 2024-05-21 セイコーエプソン株式会社 移動ロボットの制御方法
JP2022078741A (ja) * 2020-11-13 2022-05-25 本田技研工業株式会社 ロボット
WO2024208916A1 (en) * 2023-04-05 2024-10-10 G.D S.P.A. Module for robotic arm

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53529A (en) 1976-06-24 1978-01-06 Nissan Motor Co Ltd Apparatus for preventing coolision between vehicles
FR2920228A1 (fr) * 1991-06-11 2009-02-27 Sat Sa De Telecomm Ensemble de detection a grand champ de vision et grande dynamique de rayonnements laser et groupe de detection a grand champ de vision pour forts rayonnements
JPH05224745A (ja) 1992-02-07 1993-09-03 Matsushita Electric Ind Co Ltd 移動作業ロボット
JP3312183B2 (ja) * 1993-03-15 2002-08-05 株式会社日立製作所 車両の誘導情報装置
US5529138A (en) * 1993-01-22 1996-06-25 Shaw; David C. H. Vehicle collision avoidance system
US5319611A (en) * 1993-03-31 1994-06-07 National Research Council Of Canada Method of determining range data in a time-of-flight ranging system
DE4408329C2 (de) * 1994-03-11 1996-04-18 Siemens Ag Verfahren zum Aufbau einer zellular strukturierten Umgebungskarte von einer selbstbeweglichen mobilen Einheit, welche sich mit Hilfe von auf Wellenreflexion basierenden Sensoren orientiert
JP3448946B2 (ja) * 1994-03-11 2003-09-22 日産自動車株式会社 車両周囲モニタ装置
DE19738163A1 (de) * 1997-09-01 1999-03-11 Siemens Ag Verfahren zur Andockpositionierung einer autonomen mobilen Einheit unter Verwendung eines Leitstrahles
CA2257049A1 (en) * 1997-12-31 1999-06-30 Richard Gramm Combine header height control
JP3816404B2 (ja) 2002-01-31 2006-08-30 住友大阪セメント株式会社 監視システム
JP4058974B2 (ja) 2002-03-19 2008-03-12 松下電器産業株式会社 自走式機器
JP2004139264A (ja) 2002-10-16 2004-05-13 Toshiba Tec Corp 自律走行ロボット
JP2004258967A (ja) * 2003-02-26 2004-09-16 Matsushita Electric Ind Co Ltd 移動作業ロボット
JP3879848B2 (ja) 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
US7068815B2 (en) 2003-06-13 2006-06-27 Sarnoff Corporation Method and apparatus for ground detection and removal in vision systems
JP2005214851A (ja) 2004-01-30 2005-08-11 Sharp Corp 物体検出装置およびそれを備えた電子機器
CA2505715A1 (en) 2004-05-03 2005-11-03 Her Majesty In Right Of Canada As Represented By The Minister Of National Defence Volumetric sensor for mobile robotics
JP2006146376A (ja) 2004-11-17 2006-06-08 Mitsubishi Heavy Ind Ltd 自立移動ロボット及び移動不能領域検出方法
JP4286768B2 (ja) 2004-11-30 2009-07-01 富士通株式会社 分岐予測装置およびその制御方法
ES2522926T3 (es) * 2005-12-02 2014-11-19 Irobot Corporation Robot Autónomo de Cubrimiento
JP4576445B2 (ja) * 2007-04-12 2010-11-10 パナソニック株式会社 自律移動型装置および自律移動型装置用プログラム
US20100133424A1 (en) * 2007-05-26 2010-06-03 Norman Matheson Lindsay Electro-optical sensors
US8332134B2 (en) 2008-04-24 2012-12-11 GM Global Technology Operations LLC Three-dimensional LIDAR-based clear path detection
JP2010085284A (ja) * 2008-09-30 2010-04-15 Toshiba Corp レーダ装置
JP5213655B2 (ja) * 2008-11-19 2013-06-19 株式会社日立製作所 自律移動ロボット
US7926598B2 (en) * 2008-12-09 2011-04-19 Irobot Corporation Mobile robotic vehicle
WO2011045837A1 (ja) * 2009-10-14 2011-04-21 国立大学法人東北大学 シート状触覚センサシステム
DE102009046107A1 (de) * 2009-10-28 2011-05-05 Ifm Electronic Gmbh System und Verfahren für eine Interaktion zwischen einer Person und einer Maschine
US8918209B2 (en) 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
JP2011257350A (ja) * 2010-06-11 2011-12-22 Toshiba Corp レーダ装置
US8855812B2 (en) * 2010-07-23 2014-10-07 Chetan Kapoor System and method for robot safety and collision avoidance
JP2012068029A (ja) * 2010-09-21 2012-04-05 Seiko Epson Corp 検出装置、電子機器及びロボット
US8988508B2 (en) * 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8930019B2 (en) 2010-12-30 2015-01-06 Irobot Corporation Mobile human interface robot
JP2012173128A (ja) * 2011-02-21 2012-09-10 Fujifilm Corp 放射線画像検出装置及び放射線撮影装置
CN202141802U (zh) * 2011-02-25 2012-02-08 燕成祥 红外线距离感测装置
US9186805B2 (en) * 2011-09-08 2015-11-17 Illinois Tool Works Inc. Wire saw for cutting pipe
WO2013112842A1 (en) 2012-01-25 2013-08-01 Adept Technology, Inc. Positive and negative obstacle avoidance system for a mobile robot
US8958911B2 (en) * 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
US9463574B2 (en) * 2012-03-01 2016-10-11 Irobot Corporation Mobile inspection robot
WO2013182941A1 (en) * 2012-06-07 2013-12-12 Koninklijke Philips N.V. System and method for guiding a robot cleaner along a path
JP2014021625A (ja) 2012-07-13 2014-02-03 Sharp Corp 距離計測システム
US9939529B2 (en) 2012-08-27 2018-04-10 Aktiebolaget Electrolux Robot positioning system
US8880273B1 (en) * 2013-01-16 2014-11-04 Google Inc. System and method for determining position and distance of objects using road fiducials
JP6132659B2 (ja) 2013-02-27 2017-05-24 シャープ株式会社 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法
US20140240469A1 (en) * 2013-02-28 2014-08-28 Motorola Mobility Llc Electronic Device with Multiview Image Capture and Depth Sensing
US9110169B2 (en) 2013-03-08 2015-08-18 Advanced Scientific Concepts, Inc. LADAR enabled impact mitigation system
CN104117987B (zh) * 2013-04-26 2017-05-10 恩斯迈电子(深圳)有限公司 移动机器人
US9069080B2 (en) * 2013-05-24 2015-06-30 Advanced Scientific Concepts, Inc. Automotive auxiliary ladar sensor
DE102014104299A1 (de) * 2014-03-27 2015-10-01 Steinel Gmbh Bewegungssensorvorrichtung sowie Verwendung einer solchen
FR3022036B1 (fr) * 2014-06-05 2016-07-15 Aldebaran Robotics Dispositif de detection a plans croises d'un obstacle et procede de detection mettant en oeuvre un tel dispositif
CN104539934A (zh) * 2015-01-05 2015-04-22 京东方科技集团股份有限公司 图像采集装置和图像处理方法、系统
US9265396B1 (en) 2015-03-16 2016-02-23 Irobot Corporation Autonomous floor cleaning with removable pad
US9919425B2 (en) * 2015-07-01 2018-03-20 Irobot Corporation Robot navigational sensor system
JP2017015601A (ja) 2015-07-02 2017-01-19 シャープ株式会社 路面検知装置、移動体、路面検知方法、および路面検知プログラム
US9746852B1 (en) * 2015-08-17 2017-08-29 X Development Llc Using laser sensors to augment stereo sensor readings for robotic devices
AU2017101247A6 (en) 2016-09-16 2017-11-02 Bissell Inc. Autonomous vacuum cleaner
CN108227705B (zh) * 2016-12-15 2021-06-11 苏州宝时得电动工具有限公司 自移动设备的回归方法、自移动设备、存储介质和服务器
CN206489450U (zh) * 2016-12-31 2017-09-12 鸿奇机器人股份有限公司 清洁机器人自动导引充电系统
US10721859B2 (en) * 2017-01-08 2020-07-28 Dolly Y. Wu PLLC Monitoring and control implement for crop improvement
FR3070294B1 (fr) * 2017-08-28 2021-01-22 Fogale Nanotech Dispositif de detection multi-distances pour un robot, et robot equipe de tel(s) dispositif(s)
JP7076997B2 (ja) 2017-12-12 2022-05-30 矢崎総業株式会社 車載システム、及び、検出器ハブ
JP7000992B2 (ja) * 2018-05-25 2022-01-19 トヨタ自動車株式会社 マニピュレータおよび移動ロボット
US11199853B1 (en) * 2018-07-11 2021-12-14 AI Incorporated Versatile mobile platform
CN109031331A (zh) * 2018-08-07 2018-12-18 上海炬佑智能科技有限公司 飞行时间测距传感芯片及传感装置、电子设备
CN109541631B (zh) 2019-01-07 2024-09-10 杭州蓝芯科技有限公司 一种基于光飞行时间的大视场面阵探测雷达
US11597104B2 (en) * 2019-07-31 2023-03-07 X Development Llc Mobile robot sensor configuration

Also Published As

Publication number Publication date
US11597104B2 (en) 2023-03-07
WO2021021446A1 (en) 2021-02-04
US12030178B2 (en) 2024-07-09
CN114072255B (zh) 2024-07-09
US20230173695A1 (en) 2023-06-08
US20210031385A1 (en) 2021-02-04
JP7323652B2 (ja) 2023-08-08
JP2022542216A (ja) 2022-09-30
EP3972785A1 (en) 2022-03-30
CN114072255A (zh) 2022-02-18

Similar Documents

Publication Publication Date Title
US11607804B2 (en) Robot configuration with three-dimensional lidar
JP7323652B2 (ja) 移動ロボットセンサ構成
US11584004B2 (en) Autonomous object learning by robots triggered by remote operators
US20230247015A1 (en) Pixelwise Filterable Depth Maps for Robots
US11633848B2 (en) Independent pan of coaxial robotic arm and perception housing
US20220296754A1 (en) Folding UV Array
US11154985B1 (en) Null space jog control for robotic arm
EP3842888A1 (en) Pixelwise filterable depth maps for robots
US20220168909A1 (en) Fusing a Static Large Field of View and High Fidelity Moveable Sensors for a Robot Platform
US9994269B1 (en) Rotatable extension for robot foot
EP4053804A1 (en) Joint training of a narrow field of view sensor with a global map for broader context

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240424