JP2020534616A - 除外区域を用いたマルチ解像度スキャン・マッチング - Google Patents

除外区域を用いたマルチ解像度スキャン・マッチング Download PDF

Info

Publication number
JP2020534616A
JP2020534616A JP2020516634A JP2020516634A JP2020534616A JP 2020534616 A JP2020534616 A JP 2020534616A JP 2020516634 A JP2020516634 A JP 2020516634A JP 2020516634 A JP2020516634 A JP 2020516634A JP 2020534616 A JP2020534616 A JP 2020534616A
Authority
JP
Japan
Prior art keywords
map
robot
exclusion
pose
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020516634A
Other languages
English (en)
Other versions
JP6937898B2 (ja
Inventor
ムーア、トーマス
パワーズ、ブラッドリー
Original Assignee
ローカス ロボティクス コーポレイション
ローカス ロボティクス コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ローカス ロボティクス コーポレイション, ローカス ロボティクス コーポレイション filed Critical ローカス ロボティクス コーポレイション
Publication of JP2020534616A publication Critical patent/JP2020534616A/ja
Application granted granted Critical
Publication of JP6937898B2 publication Critical patent/JP6937898B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/0492Storage devices mechanical with cars adapted to travel in storage aisles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/137Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed
    • B65G1/1373Storage devices mechanical with arrangements or automatic control means for selecting which articles are to be removed for fulfilling orders in warehouses
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

ロボットを現在ポーズから目標ポーズにナビゲートするための方法。マップは、ロボットのナビゲーション用のエリア内の障害物及び自由空間を表す。マッチング・マップ・ピラミッド及び除外マップ・ピラミッドは、マップ、及びマップ・ピラミッドの最高解像度から順次低下する解像度への間引きに基づいて構築される。目標経路に沿って現在位置から目標ポーズにナビゲートするための現在ポーズは、検索エリアを決定すること、及び検索ヒープを作成することを含む。検索ヒープ上での検索タスクのスコア化は、最高解像度のマッチング・マップでの最良の候補ポーズを決定するか、又は次に高い解像度のマッチング・マップにおいて検索ヒープを検索タスクで拡張する。次に高い解像度のマッチング・マップにおいて検索ヒープを拡張することは、除外区域内でロボットを位置特定することになる検索タスクを回避する。

Description

本出願は、その両方が参照により本明細書に組み込まれる、2017年9月22日に出願した「DYNAMIC WINDOW APPROACH USING OPTIMAL RECEIPROCAL COLLISON AVOICANCE COST−CRITIC」という名称の米国出願第15/712,256号に関連する2017年9月27日に出願した米国出願第15/712,222号の優先日の利益を主張するものである。
本明細書に記載の本発明は、一般に、障害物を含む次元空間の空間表現を用いたロボットのターゲット位置へのナビゲーションに関する。詳細には、本発明は、注文履行倉庫を運用して製品の注文を履行する又はその履行を支援する自律型ロボット又は半自律型ロボットのポーズを決定する改善された方法である。
多くの用途において、生産性及び効率を高めるために、人間の代わりに機能を実行するための、又は人間を支援するためのロボットが使用される。そのような用途の1つは注文履行であり、これは、典型的には、宅配のためにインターネットを通じて注文した顧客に出荷される製品で満たされた大型倉庫で実行される。そのような注文を適時、正確、且つ効率的な方法で履行することは、控えめに言っても物流上の難問である。
例えば、オンラインのインターネット・ショッピングの用途では、仮想ショッピング・カート内の「清算」ボタンをクリックすると、「注文」が作成される。注文は、特定の住所に出荷される物品のリストを含む。「履行」のプロセスは、これらの物品を大型倉庫から物理的に取ること又は「ピッキング」、それらを梱包すること、及びそれらを指定された住所に出荷することを含む。
したがって、注文履行プロセスの重要な目標は、できるだけ多くの物品をできるだけ短時間で出荷することである。注文を受け、その履行を計画し、保管棚又はビンを見つけ、製品をピックし、注文中の物品ごとにこのプロセスを繰り返し、その後、注文品を出荷ステーションに配送するというプロセスは、反復的で労働集約的である。急速に在庫が変化する何千又は何万もの物品が保管されている倉庫において、ロボットは、適時で効率的な注文履行を確保する上で重要な役割を果たす。さらに、最終的に出荷されることになる製品は、最初に倉庫内に受け入れられ、出荷のために容易に取り出せるように倉庫全体にわたって規則的な方法で保管ビンに保管又は「配置」される必要がある。
ロボットを使用してピッキング及び配置の機能を実行することは、ロボット単独で、又は人間の作業者の支援と共に実施される。人間が介在して実行されるかどうかに関わりなく、ピッキング及び配置又は保管の機能は、ロボットがその現在位置からターゲットの製品保管場所又は「ビン」位置にナビゲートする必要がある。ロボットは、通常、現在位置から製品保管ビンまでのロボットの目標経路に沿って、壁、棚、支持構造、人間、及び他のロボットなどの静止障害物及び移動障害物に遭遇する。新しい製品が保管されるとき及び在庫がなくなるとき、新しい棚及びビンが追加及び撤去されるとき、並びに多種多様な物体が共有の人間とロボットの空間に導入されるとき、注文履行倉庫の動的な性質上、倉庫及びその内容に関する情報を常に更新する必要がある。
注文履行倉庫でのロボットによるナビゲーションの1つの方法は、ロボットによってローカルに格納及び更新された倉庫の空間モデル又は「マップ」を利用して、ロボットがロボットに割り当てられた注文履行タスクを実行するときに自律的又は半自律的に動作できるようにする。マップは、倉庫、その保管場所、障害物、及び他の特徴のデジタル表現である。静止障害物及び動的障害物の存在下で製品ビンに到達するために、ロボットはマップ上で処理動作を実行してその現在位置を特定し、その移動を目標経路に沿って継続的に再較正する。
このようなマップを作成及び維持するために、例えば、ロボットが倉庫の至る所をナビゲートするときに、ローカル・レーザ・スキャン又はロボット上のセンサからの撮像などを用いる様々な技法が使用され得る。通常、ロボットのマッピング・アプリケーションでのマップの更新は、同時マッピング及び位置特定(Simultaneous Mapping and Location)、すなわち「SLAM」を使用して実現される。名前が示すように、SLAMはロボットの現在位置を見出すと同時にそのマップを更新する。しかしながら、SLAMは、ロボットの障害物検知、ロボット制御及び位置検知、並びにマッピング・プロセス自体における不確実性に起因してエラーを引き起こしやすい。このようなエラーを防止するための従来の方法は、計算コストがかかる。
必要とされるのは、SLAMマップを使用してポーズを決定するための計算時間を削減し、それにより、目標経路に沿ったロボットのナビゲーションを改善するための計算効率の高い方法である。このような効率化により、製品の保管ビンへのナビゲーションがより速く、より円滑になり、注文履行倉庫の全体的なスループットが向上する。
Frese,U.、Wagner,R.、Rofer,T.、「A SLAM overview from a user’s perspective」、Kunstliche Intelligenz 24(3)、191〜198頁(2010) Berthold K.P.Horn、「Closed−form solution of absolute orientation using unit quaternions」、Journal of the Optical Society of America、4(4)、1987年4月、629〜642頁 D.Fox、W.Burgard及びS.Thrun、「The Dynamic Window Approach to Collision Avoidance」、Robotics&Automation Magazine、IEEE、vol.4、no.1.(1997年3月)、23〜33頁 Jur van den Berg、Stephen J.Guy、Ming Lin及びDinesh Manocha、「Reciprocal n−body collision avoidance」、Robotics Research:The 14th International Symposium ISRR、Cedric Pradalier、Roland Siegwart及びGerhard Hirzinger(編)、Springer Tracts in Advanced Robotics、Vol.70、Springer−Verlag、2011年5月、3〜19頁 Sebastian Thrun、「Robotic Mapping:A Survey」、Carnegie−Mellon University、CMU−CS−02−111、2002年2月 Edwin B.Olson、「Real−Time Correlative Scan Matching」、Proceedings of the 2009 IEEE international Conference on Robotics and Automation(ICRA’09)、IEEE Press、Piscataway、NJ、USA、2009年、1233〜1239頁 Edwin Olson、「M3RSM:Many−to−many multi−resolution scan matching」、Proceedings of the IEEE International Conference on Robotics and Automation(ICRA)、2015年6月
既存のシステムを超える本発明の利益及び利点は、以下の発明の概要及び発明を実施するための形態から容易に明らかになるであろう。当業者は、本教示が、以下に要約又は開示されたもの以外の実施例で実現され得ることを理解するであろう。
本発明の一態様には、ロボットを現在ポーズから目標ポーズにナビゲートするための方法がある。方法は、ロボットのナビゲーション用のエリア内の障害物及び自由空間を表すマップを受信するステップと、受信したマップに基づいて、最高解像度のマッチング・マップ及び順次低下する解像度で間引かれたマッチング・マップのセットを含むマッチング・マップ・ピラミッドを構築するステップと、受信したマップに基づいて、最高解像度の除外マップ及び順次低下する解像度で間引かれた除外マップのセットを含む除外マップ・ピラミッドを構築するステップとを含む。方法は、受信及び構築すると、ロボットを目標経路に沿ってその現在位置から目標ポーズにナビゲートするための目標ポーズを受信するステップと、ロボットの現在位置でロボットに近接する障害物を表す点群を含むレーザ・レーダ・スキャンを受信するステップと、ロボットの現在ポーズを見出すステップとをさらに含む。ロボットは、ロボットの現在ポーズを見出すと、目標ポーズの方向で目標経路上の次のポーズに移動され得る。
好ましい実施例では、ロボットの現在ポーズを見出すステップは、受信したマップ内の検索エリアを決定すること、マッチング・マップ・ピラミッドの1つ又は複数の解像度で候補ポーズを表すタスクを含む検索ヒープを作成すること、及び検索ヒープ上で検索タスクをスコア化して最良の候補ポーズを決定することを含み、その結果、最良の候補ポーズが最高解像度のマッチング・マップにある場合、ポーズは、現在ポーズとして選択され、最良の候補ポーズが最高解像度のマッチング・マップにない場合、検索ヒープは、次に最高の解像度のマッチング・マップでの最良の候補ポーズに基づいて拡張され、又はその結果、検索ヒープは、次に最高の解像度の除外マップにおいて除外マップの除外区域内でロボットを位置特定することになる候補ポーズを伴う検索タスクで拡張されない。
いくつかの実施例では、方法は、同時位置特定及びマッピング(SLAM)マップを受信することを含み得る。方法は、検索ヒープを作成することをさらに含む場合があり、検索タスクのスコア化は、多対多マルチ解像度スキャン・マッチング(M3RSM)によって実行される。方法は、2次減衰畳み込みフィルタによって障害物のサイズを増大させることによって、最高解像度のマッチング・マップを構築することを含み得る。方法は、ロボットの半径に基づいて障害物のサイズを増大させることによって、最高解像度の除外マップを構築することを含み得る。
方法のさらなる態様は、次に高い解像度のマッチング・マップ内でのスキャン・マッチのスコア化を高く見積もることによってマッチング・マップ・ピラミッドのそれぞれ順次低下する解像度を構築するために間引くことを含み得る。除外マップ・ピラミッドのそれぞれ順次低下する解像度を構築するために間引くことにより、次に高い解像度の除外マップ内の除外区域を小さく見積もることができる。有利なことに、低解像度の除外マップで除外区域を小さく見積もること、及び除外区域内で位置特定される検索タスクを拡張しないことにより、除外ピラミッドの高解像度での除外区域内の検索タスクを作成することを防止することができる。除外区域によって定義される障害物は、壁、棚、梁、ビン、及び充電ステーションを含むがこれらに限定されないグループから選択され得る。
本発明の一態様には、ロボットを現在ポーズから目標ポーズにナビゲートするためのシステムがある。システムは、レーザ・レーダ・スキャナと、トランシーバと、データ・ストレージ・デバイスと、データ・プロセッサ及びデータ・プロセッサによる実行のための記憶された命令を有するデータ・ストレージ・デバイスとを含み得る。データ・ストレージ・デバイス上に格納された命令によって、ロボットのプロセッサは、ロボットのナビゲーション用のエリア内の障害物及び自由空間を表すマップを受信し、受信したマップに基づいて、最高解像度のマッチング・マップ及び順次低下する解像度で間引かれたマッチング・マップのセットを含むマッチング・マップ・ピラミッドを構築し、受信したマップに基づいて、最高解像度の除外マップ及び順次低下する解像度で間引かれた除外マップのセットを含む除外マップ・ピラミッドを構築する。命令は、受信及び構築すると、ロボットを目標経路に沿ってその現在位置から目標ポーズにナビゲートするための目標ポーズを受信すること、ロボットの現在位置でロボットに近接する障害物を表す点群を含むレーザ・レーダ・スキャンを受信すること、ロボットの現在ポーズを見出すことをさらに含む。ロボットの現在ポーズを見出すと、命令によって、ロボットは、目標ポーズの方向で目標経路上の次のポーズに移動され得る。
好ましい実施例では、ロボットの現在ポーズを見出すステップは、受信したマップ内の検索エリアを決定すること、マッチング・マップ・ピラミッドの1つ又は複数の解像度で候補ポーズを表すタスクを含む検索ヒープを作成すること、及び検索ヒープ上で検索タスクをスコア化して最良の候補ポーズを決定することを含み、その結果、最良の候補ポーズが最高解像度のマッチング・マップにある場合、ポーズは、現在ポーズとして選択され、最良の候補ポーズが最高解像度のマッチング・マップにない場合、検索ヒープは、次に最高の解像度のマッチング・マップでの最良の候補ポーズに基づいて拡張され、又はその結果、検索ヒープは、次に最高の解像度の除外マップにおいて除外マップの除外区域内でロボットを位置特定することになる候補ポーズを伴う検索タスクで拡張されない。
いくつかの実施例では、システムは、同時位置特定及びマッピング(SLAM)マップを受信することを含み得る。システムは、検索ヒープを作成することをさらに含み、検索タスクのスコア化は、多対多マルチ解像度スキャン・マッチング(M3RSM)によって実行される。方法は、2次減衰畳み込みフィルタによって障害物のサイズを増大させることによって、最高解像度のマッチング・マップを構築することを含み得る。システムは、ロボットの半径に基づいて障害物のサイズを増大させることによって、最高解像度の除外マップを構築することを含み得る。
システムのさらなる態様は、次に高い解像度のマッチング・マップ内でのスキャン・マッチのスコア化を高く見積もることによってマッチング・マップ・ピラミッドのそれぞれ順次低下する解像度を構築するために間引くことを含み得る。除外マップ・ピラミッドのそれぞれ順次低下する解像度を構築するために間引くことにより、次に高い解像度の除外マップ内での除外区域を小さく見積もることができる。有利なことに、低解像度の除外マップでの除外区域を小さく見積もること、及び除外区域内で位置特定される検索タスクを拡張しないことにより、除外ピラミッドの高解像度での除外区域内の検索タスクを作成することを防止することができる。除外区域によって定義される障害物は、壁、棚、梁、ビン、及び充電ステーションを含むがこれらに限定されないグループから選択され得る。
本発明のこれらの特徴及び他の特徴は、以下の詳細な説明及び添付の図面から明らかになるであろう。
次に、本発明の実施例を、添付の図面を参照して例としてのみ説明する。
注文履行倉庫の上面図である。 図1に示す倉庫内で使用されるロボットのうちの1つのベースの正面図である。 図1に示す倉庫内で使用されるロボットのうちの1つのベースの斜視図である。 アーマチュアが装備され、図1に示す棚の前に駐機された、図2A及び図2Bのロボットの斜視図である。 ロボット上のレーザ・レーダを使用して作成された図1の倉庫の部分マップである。 倉庫全体にわたって分散された基準マーカの位置を特定し、基準マーカのポーズを記憶するためのプロセスを示すフローチャートである。 基準識別情報とポーズとのマッピングの表である。 ビン位置と基準識別情報とのマッピングの表である。 製品SKUとポーズとのマッピング・プロセスを示すフローチャートである。 本発明の方法及びシステムで使用するためのロボット・システムの一実施例を示す図である。 空間マップによって表される環境を通る現在位置からターゲット位置へのロボットの一般化されたナビゲーションを示す図である。 本発明の一態様による、図10の環境のSLAMマップに関連するロボットのナビゲーションを示す図である。 空間環境内の位置でロボットによって測距スキャンを取得することを示す図である。 空間環境内の位置でロボットによって測距スキャンを取得することを示す図である。 スキャン・マッチングを使用して、不整列のスキャン(13A)の整列したスキャン(13B)への並進を見出すことによってポーズを見出すことを示す図である。 スキャン・マッチングを使用して、不整列のスキャン(13A)の整列したスキャン(13B)への並進を見出すことによってポーズを見出すことを示す図である。 本発明の一態様による、ロボットを大域的な経路に沿って移動させるためにロボットによって実行されるプロセスの図である。 マッチング・ピラミッド及び除外ピラミッドの構築に用いるSLAMマップの変換を示す図である。 マッチング・ピラミッド及び除外ピラミッドの構築に用いるSLAMマップの変換を示す図である。 マッチング・ピラミッドの図である。 除外ピラミッドの図である。 マッチング・ピラミッドの高解像度のマップから2つの最低レベルの解像度までのマッチング・マップの一部分の間引きを示す図である。 マッチング・ピラミッドの高解像度のマップから2つの最低レベル解像度までのマッチング・マップの一部分の間引きを示す図である。 マッチング・ピラミッドの高解像度のマップから2つの最低レベル解像度までのマッチング・マップの一部分の間引きを示す図である。 除外ピラミッドの高解像度のマップから2つの最低レベルの解像度までの除外マップの一部分の間引きを示す図である。 除外ピラミッドの高解像度のマップから2つの最低レベルの解像度までの除外マップの一部分の間引きを示す図である。 除外ピラミッドの高解像度のマップから2つの最低レベルの解像度までの除外マップの一部分の間引きを示す図である。 除外マップ・ピラミッドを使用するM3RSMの実施例に基づいてロボットのポーズを見出すプロセスの図である。 マッチング・マップの最高解像度のマップで最良のポーズに対する候補ポーズを検索するプロセスの図である。 マッチング・マップの最高解像度のマップで最良のポーズに対する候補ポーズを検索するプロセスの図である。 不整列のスキャン(22A)の整列したスキャン(22B)への並進を見出すためのスキャン・マッチングを用いた最良のポーズの推定を示す図である。
本明細書に記載の発明は、障害物及び自由空間を含む環境内の「目標経路」に沿った現在位置からターゲット位置へのロボットの改善されたナビゲーションのための自律型又は半自律型ロボットで使用する方法及びシステムを対象とする。
具体的には、本発明の方法及びシステムは、空間環境内のロボットの現在位置及び向き又は「ポーズ」を正確に決定するために、従来技術に勝る計算効率の高い向上を提供する。ロボットのポーズを迅速且つ正確に決定すると、ロボットは、その動きを目標経路に沿ってより適切に制御して、障害物を回避し、ロボットを環境内の障害物間でより直接的且つより円滑に移動させることができる。さらに、ポーズ決定に必要とされる処理時間の短縮により、割り当てられた処理サイクル時間中にロボットによって実行される他のタスクのために計算資源が解放される。
本開示並びにその様々な特徴及び有利な詳細は、添付の図面で説明及び/又は図示され、以下の説明で詳述される非限定的な実施例及び実例を参照してさらに十分に説明される。図面に示されている特徴は必ずしも一定の縮尺で描かれているわけではなく、一実施例の特徴は、本明細書で明示的に述べられていない場合でも、当業者が認識するような他の実施例と共に使用され得ることに留意されたい。さらに、同一の参照番号は、図面のいくつかの図を通して同様の部分を表すことに留意されたい。
よく知られている構成要素及び処理技法の説明は、本開示の実施例を不必要に不明瞭にしないように省略される場合がある。本明細書で使用される実例は、単に、本開示が実現され得る方法の理解を容易にすること、及び当業者が本開示の実施例を実現することをさらに可能にすることを意図しているにすぎない。したがって、本明細書の実例及び実施例は、本開示の範囲を限定するものとして解釈されるべきではない。
当業者は、本教示が開示されたもの以外の実施例で実現され得ることを理解するであろう。本明細書で提供される説明は、顧客への出荷用に注文を履行するために倉庫内のビン位置から物品をピックすることに焦点が当てられているが、システムは、後から取り出して顧客に出荷するために、倉庫内に受け入れた物品を倉庫全体にわたるビン位置に保管又は配置する場合にも同様に適用される。本発明はまた、製品の統合、集計、検証、検査、及びクリーンアップなどの、そのような倉庫システムに関連する在庫管理タスクにも適用可能である。
本発明の方法及びシステムは、他のタイプの用途のための他のタイプの障害物を伴う他のタイプの環境にも適用され得る。静止の又は動的な、物理的物体又は構造は、本発明の適用例においては「障害物」と見なされ得る。障害物はさらに、環境内で動作する人間及び他のロボットを含む場合があり、人間及び他のロボットの位置は、協調タスクの実行における現在位置又はターゲット位置とすることができる。ターゲット位置は、1つ又は複数のロボットを配置して、タスク若しくは一連のタスクを実行するため、又はその実行において人間を支援するための環境内の、1つ又は複数の位置を含むことができる。
これら及び他の利益若しくは利点は、以下に説明する実例及び図から容易に明らかになろう。
図1を参照すると、典型的な注文履行倉庫10は、注文16に含まれる可能性のある様々な物品で満たされた棚12を含む。動作に際して、倉庫管理サーバ15からの注文16が注文サーバ14に届く。注文サーバ14は、倉庫10を動き回る複数のロボットから選択されたロボット18に、注文16を通信する。また、本発明の一態様による1つ又は複数の充電ステーションが配置され得る充電エリア19も示されている。
好ましい実施例では、図2A及び図2Bに示すロボット18は、レーザ・レーダ22を有する自律型車輪付きベース20を含む。ベース20は、ロボット18が注文サーバ14から命令を受信することを可能にするトランシーバ(図示せず)、及び一対のデジタル光学カメラ24a及び24bも特徴とする。ロボット・ベースは、自律型車輪付きベース20に電力を供給するバッテリを再充電するための充電ポート26も含む。ベース20は、レーザ・レーダ22からデータを受信するプロセッサ(図示せず)、並びにロボットの環境を表す情報を取り込むためのカメラ24a及び24bをさらに特徴とする。図3に示すように、倉庫10内のナビゲーションに関連する様々なタスクを実行するため、並びに棚12上に配置された基準マーカ30にナビゲートするためにプロセッサと共に動作するメモリ(図示せず)が存在する。基準マーカ30(例えば、2次元バーコード)は、注文を受けた物品のビン/位置に対応する。本発明のナビゲーション手法については、図4〜図8を参照して以下で詳細に説明する。基準マーカはまた、本発明の一態様により充電ステーションを識別するために使用され、そのような充電ステーションの基準マーカへのナビゲーションは、注文を受けた物品のビン/位置へのナビゲーションと同じである。ロボットが充電ステーションへナビゲートすると、より正確なナビゲーション手法を使用してロボットが充電ステーションにドッキングされ、このようなナビゲーション手法については以下で説明する。
再び図2Bを参照すると、ベース20は、物品を保持するためのトート又はビンが格納され得る上面32を含む。複数の交換可能なアーマチュア40のいずれか1つと係合するカップリング34も示され、その1つが図3に示されている。図3の特定のアーマチュア40は、物品を受け入れるトート44を保持するためのトート・ホルダ42(この場合は棚)、及びタブレット48を支持するためのタブレット・ホルダ46(又はラップトップ/他のユーザ入力デバイス)を特徴とする。いくつかの実施例では、アーマチュア40は、物品を保持するための1つ又は複数のトートを支持する。他の実施例では、ベース20は、受け入れられた物品を保持するための1つ又は複数のトートを支持する。本明細書で使用する場合、「トート」という用語には、貨物ホルダ、ビン、ケージ、棚、物品を掛けることができる竿、小箱、クレート、ラック、スタンド、架台、コンテナ、ボックス、キャニスタ、容器、収納庫が含まれるが、これらに限定されない。
ロボット18は、倉庫10を動き回ることにおいて優れているが、現在のロボット技術では、物体のロボット操作に関連する技術的な問題により、ロボット18は、棚から物品を迅速に且つ効率的にピックし、それらをトート44に配置することにおいてあまり良好ではない。物品をより効率的にピックする方法は、注文された物品を棚12から物理的に取り出し、それをロボット18上、例えばトート44内に配置するというタスクを実行するために、通常は人間である現場作業者50を使用することである。ロボット18は、現場作業者50が読み取ることができるタブレット48(若しくはラップトップ/他のユーザ入力デバイス)を介して、又は現場作業者50によって使用されるハンドヘルド・デバイスに注文を送信することによって、現場作業者50に注文を通信する。
ロボット18は、注文サーバ14から注文16を受信すると、例えば図3に示すように最初の倉庫位置に進む。ロボット18は、メモリに記憶され、プロセッサによって実行されるナビゲーション・ソフトウェアに基づいて、これを行う。ナビゲーション・ソフトウェアは、レーザ・レーダ22によって収集されるような環境に関するデータと、特定の物品を見つけることができる倉庫10内の位置に対応する基準マーカ30の基準識別情報(「ID」)を識別するメモリ中の内部表と、ナビゲートするためのカメラ24a及び24bとに依拠する。
ロボット18は、正確な位置に到達すると、物品が保管されている棚12の前にそれ自体を駐機し、現場作業者50が棚12から物品を取り出し、それをトート44内に配置するのを待つ。ロボット18が他に取り出すべき物品を有する場合、ロボット18はその位置に進む。次いで、ロボット18によって取り出された物品は、図1の梱包ステーション100に送られ、そこで物品が梱包され、出荷される。
各ロボットが1つ又は複数の注文を履行する場合があり、各注文が1つ又は複数の物品から構成され得ることは、当業者には理解されよう。通常、効率を高めるために何らかの形態のルート最適化ソフトウェアが含まれることになるが、これは本発明の範囲外であり、したがって本明細書では説明されない。
本発明の説明を簡略化するために、単一のロボット18及び作業者50が説明されている。しかしながら、図1から明らかなように、典型的な履行作業は、注文の連続的な流れに対応するために倉庫内で互いに働いている多くのロボット及び作業者を含む。
本発明のナビゲーション手法、及び取り出されるべき物品のSKUと、物品が位置する倉庫内の基準マーカに関連付けられた基準ID/ポーズとのセマンティック・マッピングが、図4〜図8に関して以下に詳細に説明される。上記のように、同じナビゲーション手法を使用して、ロボットがそのバッテリを再充電するために充電ステーションにナビゲートできるようにすることができる。
静的物体と動的物体の両方の位置、及び倉庫全体にわたって分散された様々な基準マーカの位置を決定するために、1つ又は複数のロボット18を使用して、倉庫10のマップが作成され、動的に更新されなければならない。これを行うために、ロボット18のうちの1つは、そのレーザ・レーダ22と、未知の環境のマップを構築又は更新する計算方法である同時位置特定及びマッピング(SLAM:simultaneous localization and mapping)とを使用して、倉庫をナビゲートし、図4のマップ10aを構築/更新する。SLAM近似解法は、ポーズ・グラフ、粒子フィルタ、及び拡張カルマン・フィルタ法を含む。SLAM GMapping手法は好ましい手法であるが、任意の好適なSLAM手法を使用することができる。SLAMに関する考察は、参照により本明細書に組み込まれる、Frese,U.、Wagner,R.、Rofer,T.、「A SLAM overview from a user’s perspective」、Kunstliche Intelligenz 24(3)、191〜198頁(2010)において見出すことができる。
ロボット18は、そのレーザ・レーダ22を利用して、ロボット18が空間全体にわたって移動し、レーザ・レーダが環境を走査するときに受け取る反射に基づいて空間内のオープン空間112、壁114、物体116、及び棚12aなどの他の静的障害物を識別するときに、倉庫10のマップ10aを作成/更新する。
1つ又は複数のロボット18は、マップ10aの構築しながら又はそれ以降、倉庫10内をナビゲートし、環境を走査するためのカメラ24a及び24bを使用して、物品が保管されている図3の32及び34などのビンに近接した棚の、倉庫全体にわたって分散された基準マーカ(2次元バーコード)の位置を特定する。ロボット18は、原点110などの既知の基準点又は原点を基準として使用する。ロボット18がそのカメラ24a及び24bを使用することによって、図3及び図4における基準マーカ30などの基準マーカの位置が特定されると、原点110に対する倉庫内の位置が決定される。ロボット18は、図2Aに示すようなロボット・ベースの両側にある2つのカメラを使用することによって、ロボットの両側から広がる比較的広い視野を有することができる。これにより、ロボットは、例えば、棚の通路を行き来するとき、ロボットの両側にある基準マーカを見ることができる。
ホイール・エンコーダ(図示せず)及び進行方向センサ(図示せず)を使用することによって、ベクトル120及び倉庫10内のロボットの位置が決定され得る。ロボット18は、基準マーカ/2次元バーコードの取り込まれた画像及びその知られているサイズを使用して、基準マーカ/2次元バーコードのロボットに対する向き及びそこからの距離であるベクトル130を決定することができる。ベクトル120及び130が知られている場合、原点110と基準マーカ30との間のベクトル140を決定することができる。ベクトル140及びロボット18に対する基準マーカ/2次元バーコードの決定された向きから、原点110に対するx,y,z座標によって、及び基準マーカ30の4元数(x,y,z,ω)によって定義されるポーズ(位置及び向き)が決定され得る。4元数を使用して向きを表現し導き出すことに関する考察は、参照により本明細書に組み込まれる、Berthold K.P.Horn、「Closed−form solution of absolute orientation using unit quaternions」、Journal of the Optical Society of America、4(4)、1987年4月、629〜642頁において見出される。当業者は、基準マーカの位置及び向きを決定するための他の座標系及び技法が使用され得ること、並びにポーズが任意の原点からの絶対的又は相対的な位置及び/又は向きを決定できることを認識するであろう。
基準マーカの位置特定プロセスを説明する図5のフローチャート200について説明する。これは、初期マッピング・モードで実行され、ロボット18がピッキング、配置、及び/又は他のタスクを実行している間に倉庫内で新しい基準マーカに遭遇したときに実行される。ステップ202において、ロボット18は、カメラ24a及び24bを使用して画像を取り込み、ステップ204において、取り込まれた画像内で基準マーカを検索する。ステップ206において、画像内で基準マーカが見つけられた場合(ステップ204)、その基準マーカがロボット18のメモリに位置する図6の基準表300にすでに記憶されているかどうかが判定される。その基準情報がすでにメモリに記憶されている場合、フローチャートは別の画像を取り込むためにステップ202に戻る。基準情報がメモリにない場合、上記のプロセスに従ってポーズが決定され、ステップ208において、その基準情報は、基準対ポーズのルックアップ表300に追加される。
各ロボットのメモリに記憶され得るルックアップ表300には、各基準マーカごとに、基準識別情報1、2、3などと、各基準識別情報に関連付けられた基準マーカ/バーコードのポーズとが含まれる。ポーズは、原点110に対する倉庫内のx,y,z座標、及び向き、すなわち4元数(x,y,z,ω)から構成される。
図7の別のルックアップ表400では、ルックアップ表400は、同じく各ロボットのメモリに記憶されてもよく、倉庫10内のビン位置(例えば、402a〜402f)のリストであり、ビン位置は特定の基準ID404、例えば番号「11」と相互に関連付けられている。ビン位置は、この実例では7つの英数字で構成されている。最初の6文字(L01001など)は、倉庫内の棚位置に関係し、最後の文字(例えばA〜F)は棚位置における特定のビンを識別する。この実例では、基準ID「11」に関連付けられた6つの異なるビン位置がある。各基準ID/マーカに関連付けられた1つ又は複数のビンがある場合がある。図1の充電エリア19に位置する充電ステーションは、表400に記憶され、基準IDと相互に関連付けられてもよい。基準IDから、図6の表300において、充電ステーションのポーズが判明し得る。
英数字のビン位置は、物品が保管された倉庫10内の物理的位置に対応するものとして、人間、例えば図3の作業者50にとって理解可能である。しかしながら、英数字のビン位置は、ロボット18にとって意味がない。ロボット18は、位置を基準IDにマッピングすることによって、図6の表300の情報を使用して基準IDのポーズを決定し、次いで、本明細書で説明されるようにポーズにナビゲートすることができる。
本発明による注文履行プロセスが、図8のフローチャート500に示されている。ステップ502において、図1の倉庫管理システム15は、取り出すべき1つ又は複数の物品で構成され得る注文を取得する。ステップ504において、倉庫管理システム15によって物品のSKU番号が決定され、ステップ506において、SKU番号からビン位置が決定される。次いで、注文に関するビン位置のリストがロボット18に送信される。ステップ508において、ロボット18はビン位置を基準IDと相互に関連付け、ステップ510において、基準IDから各基準IDのポーズが取得される。ステップ512において、ロボット18は図3に示されるようにそのポーズにナビゲートし、作業者は、取り出すべき物品を適切なビンからピックし、それをロボットに配置することができる。
倉庫管理システム15によって取得されたSKU番号及びビン位置などの物品固有の情報は、ロボット18上のタブレット48に送信され得、それにより、作業者50は、ロボットが各基準マーカ位置に到達したときに取り出されるべき特定の物品を通知され得る。
SLAMマップ及び基準IDのポーズが知られている場合、ロボット18は、様々なロボット・ナビゲーション技法を使用して、基準IDのうちのいずれか1つに容易にナビゲートすることができる。好ましい手法は、倉庫10内のオープン空間112及び壁114、棚(棚12など)、並びに他の障害物116の知識を与えられて、基準マーカ・ポーズへの初期ルートを設定することを含む。ロボットがそのレーザ・レーダ22を使用して倉庫を横断し始めると、ロボットは、何らかの障害物、すなわち固定の障害物、又は他のロボット18及び/若しくは作業者50などの動的障害物がその経路にあるかどうかを判定し、基準マーカのポーズへのその経路を繰り返し更新する。ロボットは、障害物を回避しながら最も効率的且つ効果的な経路を常に探索して、約50ミリ秒ごとにそのルートを再計画する。
一般に、倉庫10a内のロボットの位置特定は、SLAMマップ上で動作する多対多マルチ解像度スキャン・マッチング(M3RSM)によって実現される。総当たりの方法と比較して、M3RSMは、ロボットのポーズ及び位置を決定する2つの重要なステップであるSLAMのループ閉じ込み及びスキャン・マッチングをロボットが実行するための計算時間を大幅に削減する。本明細書に開示されている方法によりM3RSM探索空間を最小化することによって、ロボットの位置特定がさらに改善される。
共に明細書に記載の、製品SKU/基準IDと基準ポーズとのマッピング技法を、SLAMナビゲーション技法と組み合わせることで、ロボット18は、通常使用される倉庫内の位置を決定するためのグリッド線及び中間基準マーカを含むより複雑なナビゲーション手法を使用する必要なく、倉庫空間を非常に効率的且つ効果的にナビゲートすることができる。
一般的に、倉庫内に他のロボット及び移動障害物がある場合のナビゲーションは、ダイナミック・ウィンドウ・アプローチ(DWA)及び最適相互衝突回避(ORCA)を含む衝突回避方法によって実現される。ロボットのナビゲーションは通常、約50ミリ秒の更新間隔で計算された軌道に沿った一連の増分移動として進行する。DWAは、実現可能なロボットの動作軌道の中から、静止障害物との衝突を回避し、ターゲット基準マーカへの所望の経路を推奨する増分移動を計算する。DWAの考察は、参照により本明細書に組み込まれる、D.Fox、W.Burgard及びS.Thrun、「The Dynamic Window Approach to Collision Avoidance」、Robotics&Automation Magazine、IEEE、vol.4、no.1.(1997年3月)、23〜33頁において提供される。
ORCAは、他のロボットとの通信を必要とせずに、他の移動ロボットとの衝突を最適に回避する。ORCAの考察は、参照により本明細書に組み込まれる、Jur van den Berg、Stephen J.Guy、Ming Lin及びDinesh Manocha、「Reciprocal n−body collision avoidance」、Robotics Research:The 14th International Symposium ISRR、Cedric Pradalier、Roland Siegwart及びGerhard Hirzinger(編)、Springer Tracts in Advanced Robotics、Vol.70、Springer−Verlag、2011年5月、3〜19頁に記載されている。
衝突回避は、参照により本明細書に組み込まれる関連する米国出願第15/712,256号に記載された技法によってさらに改善される可能性がある。
ロボット・システム
図9は、上述の注文履行倉庫アプリケーションで使用するためのロボット18の一実施例のシステム図を示す。ロボット・システム600は、データ・プロセッサ620、データ・ストレージ630、処理モジュール640、及びセンサ・サポート・モジュール660を含む。処理モジュール640は、経路計画モジュール642、駆動制御モジュール644、マップ処理モジュール646、位置特定モジュール648、及び状態推定モジュール650を含み得る。センサ・サポート・モジュール660は、距離センサ・モジュール662、駆動トレイン/ホイール・エンコーダ・モジュール664、及び慣性センサ・モジュール668を含み得る。
データ・プロセッサ620、処理モジュール642、及びセンサ・サポート・モジュール660は、ロボット・システム600について本明細書に示され、又は説明されたコンポーネント、デバイス、又はモジュールのいずれとも通信することができる。トランシーバ・モジュール670は、データを送信及び受信するために含まれ得る。トランシーバ・モジュール670は、監視システムとの間で、又は1つ又は他のロボットとの間で、データ及び情報を送信及び受信することができる。データを送信及び受信することは、マップ・データ、経路データ、検索データ、センサ・データ、位置及び向きデータ、速度データ、並びに処理モジュールの命令又はコード、ロボット・パラメータ及び環境設定、並びにロボット・システム600の動作に必要な他のデータを含む。
いくつかの実施例では、距離センサ・モジュール662は、走査レーザ・レーダ、レーザ距離計、距離計、超音波障害物検出器、ステレオ・ビジョン・システム、単眼ビジョン・システム、カメラ、及び撮像ユニットのうちの1つ又は複数を備え得る。距離センサ・モジュール662は、ロボットの周囲の環境を走査して、ロボットに対する1つ又は複数の障害物の位置を特定することができる。好ましい実施例では、駆動トレイン/ホイール・エンコーダ664は、ホイール位置を符号化するための1つ又は複数のセンサと、1つ又は複数のホイール(例えば、地面係合ホイール)の位置を制御するためのアクチュエータとを備える。ロボット・システム600はまた、速度計又はレーダベースのセンサ若しくは回転速度センサを含む対地速度センサを含み得る。回転速度センサは、加速度計と積分器の組合せを備え得る。回転速度センサは、データ・プロセッサ620又はその任意のモジュールに、観測された回転速度を提供することができる。
いくつかの実施例では、センサ・サポート・モジュール660は、速度、並進、位置、回転、レベル、進行方向、及び慣性の瞬間的な測定値の履歴データを含む、並進データ、位置データ、回転データ、レベル・データ、慣性データ、及び進行方向データを経時的に提供してもよい。並進速度又は回転速度は、ロボット環境内の1つ又は複数の固定基準点又は静止物体を参照して検出され得る。並進速度は、方向の絶対速度として、又は時間に対するロボットの位置の1次導関数として表すことができる。回転速度は、角度単位の速度として、又は時間に対する角度位置の1次導関数として表すことができる。並進速度及び回転速度は、原点0,0(例えば、図1、110)及び絶対座標系又は相対座標系に対する0度の方角に関して表すことができる。処理モジュール640は、検出された回転速度と組み合わされた観測された並進速度(又は時間に対する位置の測定値)を使用して、ロボットの観測された回転速度を推定することができる。
いくつかの実施例では、ロボット・システム600は、GPS受信機、差分補正付きGPS受信機、又は無線信号を送信する衛星又は地上ビーコンに対するロボットの位置を決定するための別の受信機を含み得る。上記の倉庫用途などの屋内用途、又は衛星受信が信頼できない場所においては、ロボット・システム600は、大域的な又は局所的なセンサ又はシステムによって絶対位置情報が確実に提供されない場合の位置特定を改善するために、上記のGPS以外のセンサ及び本明細書に記載の技法を使用することが好ましい。
他の実施例では、図9に示されていないモジュールは、ステアリング・システム、ブレーキ・システム、及び推進システムを含み得る。ブレーキ・システムは、油圧ブレーキ・システム、電気油圧ブレーキ・システム、電気機械ブレーキ・システム、電気機械アクチュエータ、電気ブレーキ・システム、ブレーキ・バイ・ワイヤ・ブレーキ・システム、又は駆動制御644と通信する別のブレーキ・システムを含み得る。推進システムは、電気モータ、駆動モータ、交流モータ、誘導モータ、永久磁石モータ、直流モータ、又はロボットを前進させるための別の好適なモータを含み得る。推進システムは、電気モータのモータ・シャフトの回転の速度、トルク、及び方向の少なくとも1つを制御するためのモータ・コントローラ(例えば、インバータ、チョッパ、波発生器、多相コントローラ、可変周波数発振器、可変電流供給、又は可変電圧供給)を含み得る。駆動制御644及び推進システム(図示せず)は、差動駆動(DD)制御及び推進システムであることが好ましい。DD制御システムにおいて、ロボット制御は、非ホロノミック(NH)であり、所望の並進速度及び角速度が与えられた場合に達成可能な増分経路に対する制約を特徴とする。推進システムと通信する駆動制御644は、経路計画モジュール642又はデータ・プロセッサ620によって決定された1つ又は複数の瞬間速度を変換することによって、ロボットの増分移動を始動させることができる。
当業者は、本明細書に記載の本発明の適用性を失うことなく、ロボット処理、データ・ストレージ、検知、制御、及び推進のための他のシステム及び技法を採用できること理解するであろう。
マップ
自律型ロボット又は半自律型ロボットによるナビゲーションは、ロボットの環境の何らかの形態の空間モデルを必要とする。空間モデルは、ビットマップ、オブジェクト・マップ、ランドマーク・マップ、及びその他の形態の2次元及び3次元デジタル表現によって表されてもよい。例えば、図10に示すように、倉庫施設の空間モデルは、倉庫、並びに壁、天井、屋根の支柱、窓及びドア、棚及び保管ビンなどの障害物を表し得る。障害物は、例えば、倉庫内で動作する他のロボット若しくは機械などのように、静止若しくは移動しているか、又は、一時的な仕切り、パレット、棚、及びビンなどのように、比較的固定されているが、倉庫の物品が保管され、ピックされ、補充されるときに変化している場合がある。
倉庫施設の空間モデルはまた、ロボットが製品をピックするように若しくは何らかの他のタスクを実行するように指示され得る基準でマークされた棚若しくはビンなどのターゲット位置、又は、一時的な保持位置若しくは充電ステーションの位置を表し得る。例えば、図10は、開始位置702から中間位置704、706、その経路712、714、716に沿った目的地又はターゲット位置708までのロボット18のナビゲーションを示す。ここで、空間モデルは、棚若しくはビン又はロボット充電ステーションであり得る目的地718における構造物の特徴を含む、ロボットがナビゲートしなければならない環境の特徴を取り込む。
ロボットのナビゲーションに最も一般的に使用される空間モデルは、エリア又は施設のビットマップである。例えば、図11は、図10の空間モデル内に示されているエリアに対する2次元マップの一部分を示す。マップ720は、黒若しくは白を表すバイナリ範囲0、1のピクセル値を有するビットマップによって、又は例えば、黒(0)から白(255)のグレースケール範囲を表す0〜255のピクセル値の範囲によって、又はピクセル値で表される位置に特徴が存在するかどうかの不確実性を示し得る色の範囲によって表されてもよい。図11に示すように、例えば、黒(0)のピクセルは障害物を表し、白(255)のピクセルは自由空間を表し、無地の灰色(0から255の間のある値、通常は128)のエリアは不明なエリアを表す。
図11に示すマップ720の縮尺及び粒度は、環境の範囲及び詳細に適するような任意の縮尺及び寸法としてもよい。例えば、本発明のいくつかの実施例では、マップの各ピクセルは5平方センチメートル(cm)を表す場合がある。他の実施例では、各ピクセルは、1cmから5cmの範囲を表す場合がある。しかしながら、本発明で使用するためのマップの空間解像度は、その方法の適用に対する一般性又は利益を失うことなく、より大きく又はより小さくなり得る。
図11に示すように、マップ720は、障害物を回避しながら、環境内のロボットのポーズを決定し、経路712、714、716に沿ったロボットの動きを計画及び制御するために、ロボットによって使用され得る。このようなマップは、ロボット若しくはターゲット位置の直近の空間的特徴を表す「局所的マップ」、又は1つ若しくは複数のロボットの動作範囲を含むエリア又は施設の特徴を表す「大域的マップ」である場合がある。マップは、外部監視システムからロボットに提供され得るか、又はロボットが、搭載された距離計及び位置センサを使用してそのマップを構築してもよい。1つ又は複数のロボットは、共有環境を協調的にマッピングし、ロボットが環境に関する情報をナビゲート、収集、及び共有するとき、結果として生じるマップがさらに強化される。
いくつかの実施例では、監視システムは、製造倉庫若しくは他の施設内の複数のロボットの監視を実行する中央サーバを含んでもよく、又は監視システムは、本明細書に記載の方法及びシステムの適用における一般性を失うことなく、施設内若しくは施設なしで、完全に遠隔で若しくは部分的に遠隔で動作する1つ又は複数のサーバで構成される分散型監視システムを備えてもよい。監視システムは、監視システムを実行するための少なくともコンピュータ・プロセッサ及びメモリを有するサーバを含んでもよく、倉庫又は他の施設内で動作する1つ又は複数のロボットに情報を通信するための1つ又は複数のトランシーバをさらに含んでもよい。監視システムは、コンピュータ・サーバでホストされてもよく、又はクラウドでホストされてもよく、インターネット上を含む有線及び/又は無線通信メディア上で、ロボット及び監視システムとの間でメッセージを受信及び送信するように構成されたローカル・トランシーバを介して、ローカル・ロボットと通信する。
当業者は、本発明の目的のためのロボット・マッピングが、一般性を失うことなく、当技術分野で知られている方法を使用して実行され得ることを認識するであろう。ロボット・マッピングに関する方法のさらなる考察は、参照により本明細書に組み込まれる、Sebastian Thrun、「Robotic Mapping:A Survey」、Carnegie−Mellon University、CMU−CS−02−111、2002年2月において見出すことができる。
スキャン
上述のように、センサを装備したロボットは、そのセンサを使用して位置特定するだけでなく、その環境のマップの構築及び保守にも寄与することができる。マップの構築及び位置特定に使用されるセンサには、光検出及び測距(「LIDAR:light detection and ranging」又は「レーザ・スキャニング」又は「レーザ・レーダ」)センサが含まれ得る。レーザ・レーダ・スキャナは、ロボットの局所環境の一連の離散的な角度スイープを用いて、水平面内の対象物までの距離(range and distance)を測定する。測距センサは、ロボットを中心とした180度の弧若しくはそれより大きい弧若しくはそれより小さい弧、又は完全な360度の弧にわたる、好ましくは4分の1(0.25)度の増分の離散的な角度増分で取得された「スキャン」である、測定値のセットを取得する。例えば、レーザ・レーダ・スキャンは、レーザ信号の戻り時間及び強度を表す測定値のセットであり、離散的な角度増分での各測定値は、ロボットの現在位置からある距離離れた潜在的な障害物を示す。
説明のために図12A及び図12Bに示すように、位置704で取得されたレーザ・レーダ・スキャンは、2次元ビットマップ730としてグラフィックで表され得る。図示のスキャン730は、中間ポーズ704でのロボットの移動方向に面する約180度の水平弧を示している。方向のある破線で示された個々のレーザ・レーダ測定値731は、構造722、724、726、及び728で、ロボットの環境700’にある障害物を検出する。これらは、スキャン730の732、734、736、及び738でピクセルによって表される。いくつかの実施例では、直線壁724のスキャンは、スキャン730内に「埋められ」てもよく、接続された地理的構造734は他のデータから知ることができ、又は点群ピクセルの整列によって識別することができる。
本発明の範囲から逸脱することなく、測距センサの他の形態には、ソナー、レーダ、及び触覚センサが含まれる。本発明での使用に好適な市販の測距センサ並びに位置及び方位センサの例には、北陽のUST−10LX、SICKのLMS 100、及びVelodyneのVLP−16が含まれるが、これらに限定されない。ロボットは、特定のタイプの1つ又は複数の距離センサ又は位置センサを有してもよく、又は異なるタイプのセンサを有してもよく、センサのタイプの組合せは、その環境をまとめてマッピングする測定値を作成する。LIDAR及び他のスキャナによるロボット・マッピングの方法のさらなる考察については、参照により明細書に組み込まれるEdwin B.Olson、「Robust and Efficient Robotic Mapping」、PhD Dissertation、Carnegie−Mellon University、2008年において見出すことができる。
スキャン・マッチング
「スキャン・マッチング」は、異なるロボットによる測距スキャン、若しくは異なる時間に取得された単一のロボットのスキャンを比較する、又はSLAMマップなどの環境のマップと比較するプロセスである。スキャン間のマッチング・プロセスでは、ロボットによって一度に取得された第1のレーザ・レーダ・スキャンを第2の以前のスキャンと比較して、ロボットがマップ内の同じ位置に戻ったかどうかを判定することができる。同様に、スキャンを第2のロボットのスキャンとマッチングすると、2つのロボットがマップ内の共通の位置にナビゲートしたかどうかを判定することができる。マップに対するスキャン・マッチングを使用して、マッピングされた環境内でロボットのポーズを決定することができる。図13Aに示すように、スキャン730’は、マップの一部分720’に対して並進及び回転されたものとして示されている。不明なポーズ(x、y、θ)にあるロボットの場合、ロボットのレーザ・レーダ・スキャンをマップ720’にマッチングさせることによって、スキャン730’をマップ720’に最も強く相関させる並進Δx、Δy及び回転Δθを有する剛体変換Tを見出す。したがって、図13Bに示すように、マップ720の一部分に対するロボットの正しいポーズ(x+Δx、y+Δy、θ+Δθ)が決定され得る。
レーザ・レーダ・スキャンが任意の位置及び向きでマップと正確に一致することはほとんどない。センサ測定の不確実性、ポーズの正確さの要求、及び限られた計算サイクル時間には、ロボットの検知環境とその実際のポーズとの間の最適なスキャン・マッチを統計的に決定するための堅牢で効率的なアルゴリズムが必要である。しかしながら、統計的な方法は、不正確なポーズを生成しやすく、計算コストが高くなる可能性がある。これらの複雑さに対処するために、様々な方法及びアルゴリズムが開発されている。位置特定のためのスキャン・マッチングの計算の複雑さを軽減すると同時に正確さを確保するためのスキャン・マッチング技法及び2解像度方法の調査については、参照により本明細書に組み込まれる、Edwin B.Olson、「Real−Time Correlative Scan Matching」、Proceedings of the 2009 IEEE international Conference on Robotics and Automation(ICRA’09)、IEEE Press、Piscataway、NJ、USA、2009年、1233〜1239頁において見出すことができる。
M3RSM
前述のように、スキャン・マッチングを使用して位置特定するためのこのような別の手法は、多対多マルチ解像度スキャン・マッチング、すなわち「M3RSM」である。M3RSMは、2解像度の相関スキャン・マッチング手法を、計算効率を高めるためにそれぞれが間引きによって構築されたマップのピラミッドを使用する複数の解像度に拡張する。M3RSMの考察は、参照により本明細書に組み込まれるEdwin Olson、「M3RSM:Many−to−many multi−resolution scan matching」、Proceedings of the IEEE International Conference on Robotics and Automation(ICRA)、2015年6月において見出すことができる。
M3RSMは、マップの低解像度で候補ポーズを考慮対象から除外することによって、SLAMマップに対してスキャン・マッチングを実行するための処理時間を大幅に削減する。しかしながら、M3RSMは、ロボットを障害物内に配置することになるポーズのスキャン・マッチングを不必要に実行する。改良されたM3RSM手法を使用したスキャン・マッチングのさらなる改善によって、最適なポーズ推定を損なうことなく、計算時間をさらに節約することができる。
M3RSMの改善は、M3RSMスキャン・マッチングの検索プロセス内で使用するための「除外ピラミッド」構造にマルチ解像度の「除外マップ」を導入することによって実現される。本明細書で使用される除外マップは、ロボットが物理的に占有できない環境のマップ内の「除外区域」又は位置を定義する。本明細書に記載の改良されたM3RSMで使用される除外ピラミッドは、標準のM3RSMによって提供される証明可能な最適ポーズ推定値を保持する。したがって、除外マップ及び除外ピラミッドは、上記の注文履行倉庫アプリケーションの状況下でロボットの目標経路に沿ったナビゲーションのためのポーズを見出すために、M3RSMを使用して不明なポーズでレーザ・レーダ・スキャンの位置特定をする間に使用するために描写される。
位置特定
図14は、本発明の実施例を、目標経路計画のためにロボットのポーズを見出し、ロボットを目標経路に沿ってそのターゲット位置又は「目標ポーズ」に移動させるための方法として示す。
ステップ802で開始し、ロボット・システム600は、トランシーバ・モジュール670を介してSLAMマップを受信し、SLAMマップはデータ・ストレージ630に格納されてもよい。その後、マップは、データ・プロセッサ620又はマップ処理モジュール646によって、データ・ストレージ630から取得され得る。マップを受信すると、ステップ804において、マップ処理モジュール646は、以下でより詳細に説明する改良されたM3RSM技法に従ってマップ・ピラミッドを構築する。マップ・ピラミッドを構築する際、M3RSMの原理及び方法に従ってマルチ解像度の「マッチング・ピラミッド」が構築される。さらに、マッチング・ピラミッドと並行して、標準のM3RSMには存在しないマルチ解像度の除外ピラミッドが構築され、本発明の発明態様に従ってM3RSMを拡張する。
プロセス800を続けると、ステップ806において、ロボット・システム600は、目標ポーズを受信し、経路計画モジュール646を使用して、後の処理のために格納され得る目標経路を生成する。目標経路は、ロボットのポーズ推定に基づいて生成されてもよく、又は、以下でさらに説明するように目標経路の生成は、「ポーズを見出す」ステップ812の最初の反復後に決定されたロボットのポーズに基づくことが好ましい。経路計画モジュール642は、A*及びD*経路探索アルゴリズムを含む、当業者に知られている様々な技法によって、現在ポーズから目標ポーズへの目標経路を生成することができる。代替として、ロボットは、トランシーバ・モジュール670を介して目標経路を受信するか、又はデータ・ストレージ630から目標経路を検索することができる。ロボット・システム600は、マップを受信しマップ・ピラミッド及び目標経路を生成すると、プロセス800の実行を進めて、以下のようにロボットを目標経路に沿って増分的に移動させる。
ステップ810において、ロボット・システム600は、その環境(例えば、図12Aの720)のローカル・スキャン(例えば、図13Aの730)を受信する。上記のように、スキャンは、レーザ・レーダ・スキャン又は他の測距センサ・スキャンを含み得る。スキャンは、レーザ・レーダによって障害物が検出されたロボットの視野内の点を表すレーザ・レーダ「点群」で構成され得る。点群は、ロボットに対する位置及び向きでのレーザ・レーダ・スキャンの点を表す場合があり、点群の各点は、離散的な角度増分で取得され、ロボットの現在位置からある距離離れた潜在的な障害物を示す。
ステップ812において、ロボットのポーズが決定される。M3RSMを備えたマップを使用してローカル・スキャンからポーズを見出すことについては、図15を参照して以下でさらに説明される。ステップ814において、プロセスは、最初又は後続の見出したポーズの結果に基づいて目標経路を生成又は更新するために、戻ることができる。
ポーズを見出した後、ステップ816において、ロボットは、ロボットを目標経路に沿って移動させるための次の瞬間速度を計算する。他のロボット及び障害物が存在する場合の目標経路に沿った瞬間速度は、ダイナミック・ウィンドウ・アプローチ(DWA)及び最適相互衝突回避(ORCA)を含むがこれらに限定されない方法によって実現されることが好ましい。好ましい実施例では、DWAは、実現可能なロボット動作軌道の中から、障害物との衝突を回避し、ターゲット位置への所望の目標経路を推奨する増分移動を計算する。
ロボット・システム600は、次の速度を決定し、ロボットを移動させると(ステップ818)、ロボットの移動が目標ポーズに到達するまで、新しいローカル・スキャンを取得すること(ステップ810)、ポーズを見出すこと(ステップ812)、次の速度を見出すこと(ステップ816)を繰り返す(ステップ820)。したがって、ナビゲーションは、各処理サイクルでの瞬間速度によって決定される増分軌道に沿った一連の増分運動として進行する。
マッチング・ピラミッド
図14のステップ804を再び参照すると、M3RSMで使用するマップ・ピラミッドの構築は、ロボットの局所的又は大域的な環境のSLAMマップを受信したことから進行する。上述し図11に示すように、例示のみのために、SLAMマップ720は、自由空間及び障害物を含む倉庫の一部分を表す。バイナリ範囲0、1のマップ720のピクセル値は、障害物(0又は黒)及び自由空間(1又は白)を表す。代替として、マップ720は、障害物を表すゼロ(0)及び自由空間を示す255の値を用いて、0〜255の範囲のピクセル値を使用して倉庫内の障害物を表してもよい。通常は値128を有する灰色のピクセルがある場合、それは不明なエリア、マッピングされていないエリア、又はアクセスできないエリアを表す。
マッチング・ピラミッドの最高解像度のマッチング・マップの構築は、SLAMマップを反転させることから開始する。次に、反転されたマップ上で2次減衰畳み込みが実行される。図15Aのマップ900によって示されるように、ゼロ(0)又は黒のピクセル値は自由空間を表し、255又は白の値は障害物を表す。当業者は、2次減衰畳み込み又は「ファジー化」フィルタを適用すると、マップ900内の障害物のサイズをわずかに増大させる効果があり、0〜255の範囲のピクセル値が生成されることを理解するであろう。
ステップ804において引き続き、マップ・ピラミッドの構築は以下のように進行する。図16Aに示すように、マッチング・ピラミッド910は、ピラミッドの底部にある最高解像度のマッチング・マップ912から始まり、最上部にある最低解像度のマッチング・マップまでの、順次低下する解像度のマップのセットである。マッチング・ピラミッドの構築は、マップ912(倉庫の全体的なマップを表す)をゼロ(黒)でパディングして、マッチング・ピラミッド910の最高解像度のマップで正方形のビットマップを形成することから開始する。最高解像度のマッチング・マップ912は、計算効率を高めるためにN×Nピクセルの正方形マップであるが、任意の次元又はNの値とすることができる。
マッチング・ピラミッド910の構築は、続いてマップ912を、順次低下する解像度のマッチング・マップ(914、916、918、920)に間引き、各低解像度のマップは、次に最高の解像度のマップの間引きによって導出される。例えば、低解像度のマッチング・マップ914は、最高解像度のマッチング・マップ912の間引きから導出され、より低解像度でのマッチング・マップ916は、マッチング・マップ914を間引くことによって導出され、単一のピクセルのみが残るまで以下同様に行われる。
次に、マッチング・ピラミッド910を構築するための最高解像度のマッチング・マップ912の間引きについて、図17A〜図17Cを参照して説明する。概して、高解像度のマップから低解像度のマップへの各間引きでは、9ピクセル(正方形3×3)のウィンドウ940が、マップの1行おきで1ピクセルおきに渡される。次に最低の解像度で対応するピクセルに保持される値は、9ピクセルのウィンドウ内の最大ピクセル値である。マッチング・ピラミッド内の最低解像度のマップは、単一のピクセルである。したがって、各間引きは、次に低い解像度のマッチング・マップでのスキャン・マッチの尤度を高く見積もる。これにより、低解像度でのスキャン・マッチングが、次に最高の解像度でのスキャン・マッチングと少なくとも同等にスコア化され、正しいポーズを見出すというM3RSMの最適性が維持される。
図17A及び図17Bは、マッチング・ピラミッド910のマップ920の一部分920’の間引きを示す。例えば、マップ920’の間引きは、低解像度のマップ924を生成する。マップ924は、次に低い解像度でのマップの一部分とすることができる。最高解像度のマッチング・マップ内の黒(0)が最小値であり、白(255)が最大値であることを想起し、左上のピクセル941上に配置された9ピクセルのウィンドウ940は、図17Bのピクセル951の値を生成する。ピクセル951の値は、ウィンドウ940内のピクセルの最大値である。ウィンドウ940をマップ920’の2ピクセル右にスライドさせると、ピクセル値952が生成される。ウィンドウ処理のプロセスは、ウィンドウ940が行の終わりに到達するまで続き、そこでは、行を超えてウィンドウ・エリアに存在しないピクセル値は無視される。
一部分920’の2行目の間引きを継続し、ウィンドウ940を2行下に移動すると、ウィンドウ940の左上にピクセル944が配置される。最大値を取得することにより、図17Bのピクセル値954が生成され、2行目の終わりまで以下同様に行われる。このようにして、図17Bのピクセル値951〜959は、ウィンドウ940がその左上隅をピクセル941〜949上にして配置されたときのピクセルの最大値にそれぞれ対応する。したがって、例えば、図17Bの中心ピクセル955は白であり、最大値は、ウィンドウ940の左上隅を図17Aのピクセル945上にした状態のウィンドウ940で取得される。単一のピクセル926のみがマッチング・ピラミッド910の最低解像度に残るまで、引き続き間引きを繰り返し、次に低い解像度ごとに最大値を取得する。
除外ピラミッド
図14のステップ804において引き続き、除外ピラミッドの構築は以下のように進行する。マッチング・ピラミッド構築について上記のように、受信されたマップ720は、自由空間及び障害物を含む倉庫のエリアを表す。マップ720は、バイナリ範囲0、1のピクセル値を有し、ゼロ(0)又は黒は障害物を表し、イチ(1)又は白は自由空間を表す。代替として、マップ720は、障害物を表すゼロ(0)及び自由空間を示す255の値を用いた0〜255の範囲のピクセル値を使用して倉庫内の障害物を表してもよい。灰色のピクセル(通常は値128を有する)は、不明なエリアを表す。最高解像度のマッチング・マップの構築と同様に、マップ720の灰色のエリアは黒に変換される。
図15Bは、最高解像度の除外マップ910の一部分を示し、ゼロ(0)又は黒のピクセル値は障害物を表し、イチ(1)又は白の値は自由空間を表す。マッチング・ピラミッドとは異なり、マップ720は反転されず、マップ910を構築するためにファジー化は実行されない。むしろ、障害物(黒)は、ロボットの最大範囲、例えばロボットの半径によって拡大又は「膨張」される。ロボットの半径による膨張は、ロボットの半径に対応するピクセル数で障害物を表すマップ720のピクセルを全方向に拡張することによって容易に達成される。例えば、半径0.25メートルのロボットに対して、ピクセルあたり5cmのマップでは、25の黒(0)ピクセルが、各黒(障害物)ピクセルのすべての方向に隣接して「パディング」されてもよい。代替として、障害物は、ロボット上のすべての点で障害のない動きを確保するために、ロボットの半径の最大2倍でパディングされてもよい。
図16Bに示すように、除外ピラミッド950は、ピラミッドの底部にある最高解像度の除外マップ952から始まり、最上部にある最低解像度の除外マップまでの、順次低下する解像度のマップのセットを含む。除外ピラミッドの構築は、マップ952(倉庫の全体的なマップを表す)をゼロ(黒)でパディングして、除外ピラミッド950の最高解像度で正方形のビットマップを形成することから開始する。最高解像度の除外マップ952は、マッチング・ピラミッド910について図示し上述した最高解像度のマッチング・マップ912に等しいサイズ及び解像度の正方形のビットマップである。好ましい実施例では、除外マップ上でファジー化が実行されないので、除外マップ内のピクセル値はバイナリ0、1であり、障害物(黒)はロボットの半径によって膨張されていることに留意されたい。
マッチング・ピラミッドの構築と同様に、除外ピラミッド950の構築は、マップ952を、順次低下する解像度のマップ(954、956、958、960)に間引くことによって進行し、各低解像度のマップは、次に最高の解像度のマップの間引きによって導出される。例えば、低解像度の除外マップ954は、最高解像度の除外マップ952の間引きから導出され、より低解像度での除外マップ956は、除外マップ954を間引くことによって導出され、単一のピクセルの最低解像度の除外マップのみが残るまで以下同様に行われる。
図18A〜図18Cに示すように、除外ピラミッド950の間引きは、マッチング・ピラミッド910の間引きの方式と同様に継続する。このように、図18A及び図18Bは、次に低い解像度の除外マップ962を生成するための除外ピラミッド950のマップ960の一部分960’の間引きを示す。ウィンドウ940がマップ960’の1行おきで1ピクセルおきに渡されるとき、ウィンドウ内の最大ピクセル値は、次に低い解像度での対応するピクセルの値として保持される。次に低い解像度での間引きの繰返しは、単一のピクセル980のみが残るまで継続する。
除外ピラミッドのそれぞれ順次低下する解像度での間引きは、ロボットが障害物に配置されるスキャン・マッチングの尤度を低く見積もり、これにより有効なポーズ候補がピラミッドの低解像度で除外されることを防ぐ。同様に、除外マップを間引く方式は、自由空間でロボットのポーズを見出す可能性を高く見積もる。このような高く見積もることの目的及び利点は、以下でさらに説明するように、M3RSMを使用した除外マップ及び除外ピラミッドのアプリケーションで明らかになる。
ポーズを見出す
図14のステップ810を再び参照すると、ロボット・システム600は、局所環境のレーザ・レーダ・スキャンを受信し、受信したスキャンに最も良く一致するポーズを見出すことに進む。次いで、受信したマップを備え、マッチング・ピラミッド及び除外ピラミッドを構築したロボット・システム600は、ロボットのポーズを見出すことに進むことができる。
ロボットのポーズを見出すことは、図19を参照してさらに説明される。ステップ834から始まり、検索エリアは、候補ポーズの検索対象となる受信したマップの一部分として決定される。最初の反復では、検索エリアは、マップ全体を含み得る。その後の反復では、ロボット・システム600は、マップの一部分のみでそのポーズを推定してもよい。検索エリアを決定するためのポーズは、駆動トレイン/ホイール・エンコーダ及び/又は駆動制御情報などのセンサ・データと組み合わされた最新の既知のポーズから推定されてもよい。
好ましい実施例では、状態推定モジュール650は、ポーズ・データをホイール・エンコーダ・データ及び慣性センサ・データと融合して、ロボットの現在ポーズ、速度、及びそれぞれの推定誤差を決定することができる。したがって、推定されたポーズは、検索をマップの一部分に限定して検索空間を削減し、スキャン・マッチングの処理時間を短縮する。ポーズ推定の不確実性が低いほど、スキャン・マッチングが必要になる可能性がある検索エリアが小さくなる。不確実性が高いほど、スキャン・マッチングが必要になる可能性がある検索エリアが大きくなる。当業者は、ポーズの推定及び検索エリアの決定が様々な方法及びパラメータによって実行され得ることを理解するであろう。
再び図19を参照すると、ステップ836において、ロボット・システム600は、決定された検索エリアに従って候補ポーズの初期検索空間を作成する。好ましくは、初期検索空間は、検索タスクを含む検索ヒープであり、各検索タスクは、1つ又は複数の候補ポーズ、マッチング・ピラミッドの1つの解像度でのマッチング・マップ、及びマッチング・マップの解像度に間引かれた受信したスキャンで構成される。一実施例では、各検索タスクは、受信したスキャンをマッチング・マップの一部分にスキャン・マッチングするための並進及び回転における候補ポーズを定義する。代替として、各検索タスクは、並進及び回転の範囲によって候補ポーズを定義することができ、解像度でのスキャンの回転及び/又は間引きは、要求に応じて実行され、キャッシュされる。検索ヒープが最初に生成されるとき、スキャンは検索ヒープの回転ごとに回転され、キャッシュされてもよい。スキャン・マッチングに特定の解像度でのスキャンが必要なとき、すでにキャッシュされた回転後のスキャンが、その間引き後のバージョンと共にキャッシュから取得されてもよい。したがって、同じ回転及び解像度を有する検索タスクが、異なる並進に対する間引き後のスキャン及び回転後のスキャンを必要とする場合、以前の回転後のスキャン及び間引き後のスキャンをキャッシュから取得して、反復的な点群操作(point cloud operation)の計算時間を節約することができる。
図19を再び参照すると、候補ポーズの検索(ステップ838)は、マッチング・ピラミッドの最高解像度で最良のポーズが見出されるまで(ステップ840)進行する。選択された最良のポーズが最高解像度のマッチング・マップにない場合(ステップ844)、検索空間が拡張され(ステップ848)、候補ポーズの検索(ステップ838)が継続する。最良のポーズが最高解像度のマッチング・マップにある場合、処理は、前述のように図14のステップ812に戻る(ステップ842)。
検索ヒープ上の検索タスクは、候補ポーズがその検索タスクのマッチング・ピラミッド・マップの解像度でマップに一致する最大尤度の計算された上限を割り当てることによって順序付けられる。検索ヒープを効率的に作成及び拡張し、ヒープ内の検索タスクの最大尤度の上限を計算するための技法は、すでに参照により本明細書に組み込まれているEdwin Olson、「M3RSM:Many−to−many multi−resolution scan matching」において見出すことができる。
しかしながら、従来のM3RSMでは、検索ヒープの拡張は、環境内の障害物内又は部分的に障害物内でロボットを位置特定することになる候補ポーズを含む検索タスクをヒープに追加することを含む。次に示すように、M3RSMに上述の除外ピラミッドを組み込むことによって、このようなタスクで検索ヒープが拡張するのを防止し、それにより無効なポーズを評価するための計算コストを削減する。さらに、検索ヒープに追加する前に検索タスクをプルーニングすることによって、無効なポーズに関連付けられた高解像度でのすべての検索タスクも考慮対象から除外される。
図20は、障害物内でロボットを位置特定する検索ヒープ上の検索タスクを作成及び評価する前に、除外ピラミッドを使用して候補ポーズを無効化するプロセスを示す。前述のように、検索ヒープ990はタスクT1及びT2を含む可能性があり、各タスクはレーザ・レーダ・スキャンS、マッチング・ピラミッドの解像度Rでのマッチング・マップM、スキャンSの候補並進及び回転範囲を含む。タスクT1の評価は、スキャンSを回転し、回転のセットを通じてスキャンSをマップMにスキャン・マッチングすることによって最良の候補ポーズPを見出す。解像度Rがマッチング・ピラミッドの最高解像度である場合、ポーズPはロボットのポーズであり、図19のステップ812が完了する。解像度Rが最高解像度でない場合、タスクT1は次に最高の解像度R−1で拡張され得る。
解像度Rでの検索タスクからの検索ヒープの拡張は、マッチング・ピラミッドの解像度R−1でのマッチング・マップからの4つの新しい検索タスク(例えば、図20のT3〜T6)を追加する可能性がある。4つの新しい検索タスクは、解像度R−1でのマップの初期の間引きに対応する4ピクセルの正方形から、解像度Rで拡張される検索タスクのポーズまで作成される。各新しい検索タスクは、拡張された検索タスクの並進範囲の4分の1を有することになる。しかしながら、本発明の実施例では、新しい検索タスクを作成する前に、解像度R−1の除外マップが、各新しいタスクの候補ポーズPの位置で照会される。解像度R−1の候補ポーズがロボットを解像度R−1の除外マップの黒のピクセル(障害物)上に配置する場合、そのポーズに対する拡張された検索タスクは除外され、検索ヒープに挿入されない。
例えば、図20に示すように、解像度RのタスクT1を解像度R−1の新しいタスクT3〜T6に拡張する場合、アルゴリズムは、タスクT5の候補ポーズPを除外マップ960のピクセル969に配置し(その一部分960’は図21に示されている)、タスクT5が検索ヒープに追加されることはない。タスクT5を検索ヒープに追加する前にタスクT5をプルーニングすることによって、タスクT5が次に最高の解像度のマップにおいてその対応する位置で評価されない(したがって、拡張されない)ので、解像度R−2以上のピクセル969に対応するポーズPで作成された可能性のあるすべての検索タスクは、同様に除外される。
図22A及び22Bは、上記のプロセスから「最良のポーズ」を見出すことを示す。図22Aは、ローカル・スキャン730及び初期ポーズ推定740を示す。図21Bは、マッチング・ピラミッドの最高解像度のマッチング・マップでの並進Tによってポーズ推定740から最良ポーズ750に並進されたローカル・スキャン・マッチを示す。ステップ842から750を返すと、図14からのステップ812が完了し、上記のように進行してロボットを目標経路に沿って増分的に移動させる次の瞬間速度を決定する。
本発明の前述の説明により、当業者は現在その最良の方式であると考えられるものを作成及び使用することができるが、当業者は、本明細書の特定の実施例及び実例の変形、組合せ、及び均等物が存在することを理解及び認識するであろう。本発明の上記の実施例は、単なる実例であることが意図されている。当業者は、添付の特許請求の範囲によってのみ定義される本発明の範囲から逸脱することなく、特定の実施例に対して変更、修正、及び変形を行うことができる。
本発明は、ソフトウェア及び/又はハードウェアで実施され得ることを理解されたい。したがって、本発明の態様は、完全にハードウェアの実施例、完全にソフトウェアの実施例(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、又は本明細書ではすべて「回路」、「モジュール」、若しくは「システム」と総称され得るソフトウェアの態様とハードウェアの態様を組み合わせた実施例の形態を取ることができる。当業者によって理解されるように、本発明の態様は、システム、方法、又はコンピュータ・プログラム製品として具現化され得る。
本発明の態様は、方法及び装置(システム)のフローチャート、図、及び/又はブロック図を参照して説明される。フローチャート及びブロック図は、本発明の様々な実施例によるシステム・アーキテクチャ、機能、又は動作を示し得る。フローチャートにおける各ステップは、指定された機能を実施するための1つ又は複数の実行可能命令を含むモジュールを表す場合がある。いくつかの実施態様では、連続して示されるステップは、実際には実質的に同時に実行され得る。ステップは、指定された機能若しくは動作を実行する専用ハードウェアベースのシステム、又は専用ハードウェアとコンピュータ命令の組合せによって実行され得る。
本発明の動作を実行するプロセッサによる実行のためのコンピュータ命令は、C#、C++、Python、又はJava(登録商標)プログラミング言語などのオブジェクト指向プログラミング言語を含む1つ又は複数のプログラミング言語で記述され得る。コンピュータ・プログラム命令は、本明細書に記載のフローチャート及び/又はシステム・ブロック図で指定されたステップを実施する命令を実行することを含む、データ・プロセッサを介してロボット・システムに特定の方法で機能するように命令することができるコンピュータ可読媒体に記憶され得る。コンピュータ可読ストレージ媒体は、データ・プロセッサによって、又はデータ・プロセッサに関連して使用するための命令を含むか、又は記憶することができる任意の有形の媒体とすることができる。コンピュータ可読媒体は、コンピュータ可読プログラム・コードがその中に具体化された伝搬データ信号も含み得る。
したがって、本発明は、上述の実施例及び実例、実施例、並びに以下に特許請求される本発明の範囲及び精神内の用途によって限定されない。

Claims (18)

  1. 現在ポーズから目標ポーズにロボットをナビゲートするための方法であって、
    ロボットのナビゲーション用のエリア内の障害物及び自由空間を表すマップを受信するステップと、
    前記受信したマップに基づいて、最高解像度のマッチング・マップ及び順次低下する解像度で間引かれたマッチング・マップのセットを含むマッチング・マップ・ピラミッドを構築するステップと、
    前記受信したマップに基づいて、最高解像度の除外マップ及び順次低下する解像度で間引かれた除外マップのセットを含む除外マップ・ピラミッドを構築するステップと、
    ロボットを目標経路に沿ってその現在位置から目標ポーズにナビゲートするための前記目標ポーズを受信するステップと、
    前記ロボットの現在位置で前記ロボットに近接する障害物を表す点群を含むレーザ・レーダ・スキャンを受信するステップと、
    前記ロボットの前記現在ポーズを見出すステップと、
    前記ロボットを前記目標ポーズの方向で前記目標経路上の次のポーズに移動させるステップと
    を含み、
    前記ロボットの前記現在ポーズを見出すステップが、
    前記受信したマップ内の検索エリアを決定すること、
    前記マッチング・マップ・ピラミッドの1つ又は複数の解像度で候補ポーズを表すタスクを含む検索ヒープを作成すること、及び
    前記検索ヒープ上で前記検索タスクをスコア化して最良の候補ポーズを決定することを含み、前記最良の候補ポーズが前記最高解像度のマッチング・マップにある場合、前記ポーズが前記現在ポーズとして選択され、前記最良の候補ポーズが前記最高解像度のマッチング・マップにない場合、前記検索ヒープが次に最高の解像度のマッチング・マップの前記最良の候補ポーズに基づいて拡張され、前記検索ヒープが、前記次に最高の解像度の除外マップにおいて除外マップの除外区域内で前記ロボットを位置特定することになる候補ポーズを伴う検索タスクで拡張されない、方法。
  2. 前記受信したマップが、同時位置特定及びマッピング(SLAM)マップを含む、請求項1に記載の方法。
  3. 前記検索ヒープを作成すること、及び前記検索タスクをスコア化することが、多対多マルチ解像度スキャン・マッチング(M3RSM)によって実行される、請求項1に記載の方法。
  4. 前記最高解像度のマッチング・マップを構築するステップが、2次減衰畳み込みフィルタによって障害物のサイズを増大させることを含む、請求項1に記載の方法。
  5. 前記最高解像度の除外マップを構築するステップが、前記ロボットの半径に基づいて障害物のサイズを増大させることを含む、請求項1に記載の方法。
  6. 前記マッチング・マップ・ピラミッドのそれぞれ順次低下する解像度を構築するための前記間引きが、前記次に高い解像度のマッチング・マップ内での前記スキャン・マッチのスコア化を高く見積もる、請求項1に記載の方法。
  7. 前記除外マップ・ピラミッドのそれぞれ順次低下する解像度を構築するための前記間引きが、前記次に高い解像度の除外マップ内での前記除外区域を小さく見積もる、請求項1に記載の方法。
  8. 低解像度の除外マップでの除外区域を前記小さく見積もること、及び除外区域内で位置特定される検索タスクを前記拡張しないことが、前記除外ピラミッドの高解像度での除外区域内の検索タスクを作成することも防止する、請求項8に記載の方法。
  9. 前記除外区域によって定義される前記障害物が、壁、棚、梁、ビン、及び充電ステーションを含むがこれらに限定されないグループから選択される、請求項8に記載の方法。
  10. レーザ・レーダ・スキャナと、
    トランシーバと、
    データ・ストレージ・デバイスと、
    データ・プロセッサ及び前記データ・プロセッサによる実行のための記憶された命令を有するデータ・ストレージ・デバイスとを含む、ロボット・システムであって、前記命令が、
    ロボットのナビゲーション用のエリア内の障害物及び自由空間を表すマップを受信し、
    前記受信したマップに基づいて、最高解像度のマッチング・マップ及び順次低下する解像度で間引かれたマッチング・マップのセットを含むマッチング・マップ・ピラミッドを構築し、
    前記受信したマップに基づいて、最高解像度の除外マップ及び順次低下する解像度で間引かれた除外マップのセットを含む除外マップ・ピラミッドを構築し、
    ロボットを目標経路に沿ってその現在位置から目標ポーズにナビゲートするための前記目標ポーズを受信し、
    前記ロボットの現在位置で前記ロボットに近接する障害物を表す点群を含むレーザ・レーダ・スキャンを受信し、
    前記ロボットの前記現在ポーズを見出し、
    前記ロボットを前記目標ポーズの方向で前記目標経路上の次のポーズに移動させるためのものであり、
    前記ロボットの前記現在ポーズを見出すことが、
    前記受信したマップ内の検索エリアを決定すること、
    前記マッチング・マップ・ピラミッドの1つ又は複数の解像度で候補ポーズを表すタスクを含む検索ヒープを作成すること、及び
    前記検索ヒープ上で前記検索タスクをスコア化して最良の候補ポーズを決定することを含み、前記最良の候補ポーズが前記最高解像度のマッチング・マップにある場合、前記ポーズが前記現在ポーズとして選択され、前記最良の候補ポーズが前記最高解像度のマッチング・マップにない場合、前記検索ヒープが次に最高の解像度のマッチング・マップの前記最良の候補ポーズに基づいて拡張され、前記検索ヒープが、前記次に最高の解像度の除外マップにおいて除外マップの除外区域内で前記ロボットを位置特定することになる候補ポーズを伴う検索タスクで拡張されない、ロボット・システム。
  11. 前記受信したマップが、同時位置特定及びマッピング(SLAM)マップを含む、請求項10に記載のシステム。
  12. 前記検索ヒープを作成すること、及び前記検索タスクをスコア化することが、多対多マルチ解像度スキャン・マッチング(M3RSM)によって実行される、請求項10に記載のシステム。
  13. 前記最高解像度のマッチング・マップを構築することが、2次減衰畳み込みフィルタによって障害物のサイズを増大させることを含む、請求項10に記載のシステム。
  14. 前記最高解像度の除外マップを構築することが、前記ロボットの半径に基づいて障害物のサイズを増大させることを含む、請求項10に記載のシステム。
  15. 前記マッチング・マップ・ピラミッドのそれぞれ順次低下する解像度を構築するための前記間引きが、前記次に高い解像度のマッチング・マップ内での前記スキャン・マッチのスコア化を高く見積もる、請求項10に記載のシステム。
  16. 前記除外マップ・ピラミッドのそれぞれ順次低下する解像度を構築するための前記間引きが、前記次に高い解像度の除外マップ内での前記除外区域を小さく見積もる、請求項10に記載のシステム。
  17. 低解像度の除外マップでの除外区域を前記小さく見積もること、及び除外区域内で位置特定される検索タスクを前記拡張しないことが、前記除外ピラミッドの高解像度での除外区域内の検索タスクを作成することも防止する、請求項16に記載のシステム。
  18. 前記除外区域によって定義される前記障害物が、壁、棚、梁、ビン、及び充電ステーションを含むがこれらに限定されないグループから選択される、請求項17に記載のシステム。
JP2020516634A 2017-09-22 2018-09-21 除外区域を用いたマルチ解像度スキャン・マッチング Active JP6937898B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/712,222 US10386851B2 (en) 2017-09-22 2017-09-22 Multi-resolution scan matching with exclusion zones
US15/712,222 2017-09-22
PCT/US2018/052190 WO2019060700A1 (en) 2017-09-22 2018-09-21 MULTI-RESOLUTION SCAN MATCHING WITH EXCLUSION ZONES

Publications (2)

Publication Number Publication Date
JP2020534616A true JP2020534616A (ja) 2020-11-26
JP6937898B2 JP6937898B2 (ja) 2021-09-22

Family

ID=64572446

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020516634A Active JP6937898B2 (ja) 2017-09-22 2018-09-21 除外区域を用いたマルチ解像度スキャン・マッチング

Country Status (8)

Country Link
US (1) US10386851B2 (ja)
EP (1) EP3685241B1 (ja)
JP (1) JP6937898B2 (ja)
KR (1) KR102385253B1 (ja)
CN (1) CN111602096B (ja)
CA (1) CA3076533C (ja)
ES (1) ES2903525T3 (ja)
WO (1) WO2019060700A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12117850B2 (en) 2021-05-18 2024-10-15 Toyota Jidosha Kabushiki Kaisha Moving object and route decision method of moving object

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7912574B2 (en) * 2006-06-19 2011-03-22 Kiva Systems, Inc. System and method for transporting inventory items
US11042161B2 (en) 2016-11-16 2021-06-22 Symbol Technologies, Llc Navigation control method and apparatus in a mobile automation system
US11093896B2 (en) 2017-05-01 2021-08-17 Symbol Technologies, Llc Product status detection system
US11449059B2 (en) 2017-05-01 2022-09-20 Symbol Technologies, Llc Obstacle detection for a mobile automation apparatus
DE112018002314T5 (de) 2017-05-01 2020-01-23 Symbol Technologies, Llc Verfahren und vorrichtung zur erkennung eines objektstatus
WO2018201423A1 (en) 2017-05-05 2018-11-08 Symbol Technologies, Llc Method and apparatus for detecting and interpreting price label text
WO2019117844A1 (en) * 2017-12-11 2019-06-20 Daniel Theobald Autonomous device for transporting items
US11506483B2 (en) 2018-10-05 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for support structure depth determination
US11003188B2 (en) * 2018-11-13 2021-05-11 Zebra Technologies Corporation Method, system and apparatus for obstacle handling in navigational path generation
US11090811B2 (en) 2018-11-13 2021-08-17 Zebra Technologies Corporation Method and apparatus for labeling of support structures
DE102018131267A1 (de) * 2018-12-07 2020-06-10 Sick Ag Transportsystem für Waren und Verfahren zum Entfernen einer herabgefallenen Ware
US11079240B2 (en) 2018-12-07 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for adaptive particle filter localization
US11416000B2 (en) 2018-12-07 2022-08-16 Zebra Technologies Corporation Method and apparatus for navigational ray tracing
CA3028708A1 (en) 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
KR102704006B1 (ko) * 2019-02-14 2024-09-05 한화에어로스페이스 주식회사 장애물 지도 생성 방법 및 그 장치
CN109916393B (zh) * 2019-03-29 2023-03-31 电子科技大学 一种基于机器人位姿的多重栅格值导航方法及其应用
CN110286673A (zh) 2019-05-23 2019-09-27 北京京东尚科信息技术有限公司 仓储任务处理方法、装置、仓储系统以及存储介质
US11200677B2 (en) 2019-06-03 2021-12-14 Zebra Technologies Corporation Method, system and apparatus for shelf edge detection
US11960286B2 (en) 2019-06-03 2024-04-16 Zebra Technologies Corporation Method, system and apparatus for dynamic task sequencing
US11662739B2 (en) 2019-06-03 2023-05-30 Zebra Technologies Corporation Method, system and apparatus for adaptive ceiling-based localization
US11341663B2 (en) 2019-06-03 2022-05-24 Zebra Technologies Corporation Method, system and apparatus for detecting support structure obstructions
US11080566B2 (en) 2019-06-03 2021-08-03 Zebra Technologies Corporation Method, system and apparatus for gap detection in support structures with peg regions
US11402846B2 (en) 2019-06-03 2022-08-02 Zebra Technologies Corporation Method, system and apparatus for mitigating data capture light leakage
US11151743B2 (en) 2019-06-03 2021-10-19 Zebra Technologies Corporation Method, system and apparatus for end of aisle detection
CN110057370A (zh) * 2019-06-13 2019-07-26 浙江智玲机器人科技有限公司 机器人的定位方法和装置
CN110260856A (zh) * 2019-06-26 2019-09-20 北京海益同展信息科技有限公司 一种建图方法和装置
CN110319832B (zh) * 2019-07-05 2024-05-17 京东科技信息技术有限公司 机器人定位方法、装置、电子设备及介质
CN110573980B (zh) 2019-07-25 2020-11-06 灵动科技(北京)有限公司 具有rfid读取器和内置打印机的自动驾驶系统
CN110307838B (zh) * 2019-08-26 2019-12-10 深圳市优必选科技股份有限公司 机器人重定位方法、装置、计算机可读存储介质及机器人
US11507103B2 (en) 2019-12-04 2022-11-22 Zebra Technologies Corporation Method, system and apparatus for localization-based historical obstacle handling
US11107238B2 (en) 2019-12-13 2021-08-31 Zebra Technologies Corporation Method, system and apparatus for detecting item facings
US11822333B2 (en) 2020-03-30 2023-11-21 Zebra Technologies Corporation Method, system and apparatus for data capture illumination control
US11450024B2 (en) 2020-07-17 2022-09-20 Zebra Technologies Corporation Mixed depth object detection
US11479414B2 (en) * 2020-09-11 2022-10-25 Locus Robotics Corp. Dynamic item putaway management using mobile robots
US20220083062A1 (en) 2020-09-11 2022-03-17 Locus Robotics Corp. Robot navigation management between zones in an environment
US11724883B2 (en) 2020-09-11 2023-08-15 Locus Robotics Corp. Presort system for executing robot-assisted putaway tasks
US11858741B2 (en) 2020-10-19 2024-01-02 Gideon Brothers d.o.o. Safety mode toggling by autonomous robots in a facility context
US11593915B2 (en) 2020-10-21 2023-02-28 Zebra Technologies Corporation Parallax-tolerant panoramic image generation
US11392891B2 (en) 2020-11-03 2022-07-19 Zebra Technologies Corporation Item placement detection and optimization in material handling systems
US20220147385A1 (en) * 2020-11-11 2022-05-12 Invia Robotics, Inc. Parallelized and Modular Planning Systems and Methods for Orchestrated Control of Different Actors
JP2022089062A (ja) * 2020-12-03 2022-06-15 オムロン株式会社 搬送システム
US11885638B2 (en) * 2020-12-28 2024-01-30 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for generating a map for a robot
US11954882B2 (en) 2021-06-17 2024-04-09 Zebra Technologies Corporation Feature-based georegistration for mobile computing devices
WO2024015708A1 (en) * 2022-07-11 2024-01-18 Aisleworx Technology Llc Mobile apparatus with display and lens technology
KR102568651B1 (ko) * 2022-10-26 2023-08-22 주식회사 클로봇 다수 무인이동체의 이동경로 생성을 위한 위상지도 형성장치 및 방법
TWI843363B (zh) * 2022-12-28 2024-05-21 中光電智能物流股份有限公司 搬運裝置的貨架定位方法及可定位貨架的搬運裝置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126401A (ja) * 2006-11-16 2008-06-05 Samsung Electronics Co Ltd パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体
JP2013508827A (ja) * 2009-11-06 2013-03-07 ソニー株式会社 リアルタイムハンド追跡、ポーズ分類、及びインタフェース制御

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5006988A (en) 1989-04-28 1991-04-09 University Of Michigan Obstacle-avoiding navigation system
US6658145B1 (en) * 1997-12-31 2003-12-02 Cognex Corporation Fast high-accuracy multi-dimensional pattern inspection
US6259988B1 (en) * 1998-07-20 2001-07-10 Lockheed Martin Corporation Real-time mission adaptable route planner
KR100843085B1 (ko) 2006-06-20 2008-07-02 삼성전자주식회사 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치
JP5080333B2 (ja) 2007-04-06 2012-11-21 本田技研工業株式会社 自律移動体のための物体認識装置
US8060306B2 (en) 2007-10-04 2011-11-15 Deere & Company Method and system for obstacle avoidance for a vehicle
CN102576228A (zh) 2009-08-31 2012-07-11 Neato机器人技术公司 移动机器人环境的同时定位和地图绘制的方法和设备
CN101720039B (zh) * 2009-09-08 2011-08-24 广东工业大学 一种基于菱形搜索的多分辨率的快速运动估计方法
US8209143B1 (en) 2009-09-15 2012-06-26 Google Inc. Accurate alignment of multiple laser scans using a template surface
DE102010012749A1 (de) 2010-03-25 2011-09-29 Kuka Laboratories Gmbh Verfahren zum Betreiben eines autonomen Flurförderfahrzeugs
US9067320B2 (en) 2010-06-09 2015-06-30 Disney Enterprises, Inc. Robotic texture
US8723872B2 (en) 2010-06-09 2014-05-13 Disney Enterprises, Inc. Display with robotic pixels
AU2011305154B2 (en) 2010-09-24 2015-02-05 Irobot Corporation Systems and methods for VSLAM optimization
US8737723B1 (en) * 2010-12-09 2014-05-27 Google Inc. Fast randomized multi-scale energy minimization for inferring depth from stereo image pairs
WO2013112842A1 (en) 2012-01-25 2013-08-01 Adept Technology, Inc. Positive and negative obstacle avoidance system for a mobile robot
KR101747220B1 (ko) * 2012-08-30 2017-06-15 한화테크윈 주식회사 이미지 피라미드의 적응적 이미지 처리 장치 및 방법
US8971634B2 (en) * 2012-10-26 2015-03-03 Texas Instruments Incorporated Approximate pyramidal search for fast displacement matching
WO2014202258A1 (en) 2013-06-21 2014-12-24 National University Of Ireland, Maynooth A method for mapping an environment
US9216745B2 (en) 2013-09-16 2015-12-22 Disney Enterprises, Inc. Shared control of semi-autonomous vehicles including collision avoidance in multi-agent scenarios
CN103488736B (zh) * 2013-09-18 2017-01-25 中国科学技术大学 一种多源地理空间信息关联模型的构建方法及系统
KR101664582B1 (ko) 2014-11-12 2016-10-10 현대자동차주식회사 자율주행차량의 주행경로 생성장치 및 방법
CN104897161B (zh) * 2015-06-02 2018-12-14 武汉大学 基于激光测距的室内平面地图制图方法
JP2017004373A (ja) 2015-06-12 2017-01-05 株式会社リコー 情報処理装置、情報処理プログラム、および情報処理システム
US9758305B2 (en) 2015-07-31 2017-09-12 Locus Robotics Corp. Robotic navigation utilizing semantic mapping
US20170270466A1 (en) 2016-03-18 2017-09-21 Jusda International Logistics (TAIWAN) CO.,LTD Method and system using with automated guided vehicle
CN105867381B (zh) * 2016-04-25 2019-03-29 广西大学 一种基于概率地图的工业机器人路径搜索优化算法
US10108194B1 (en) * 2016-09-02 2018-10-23 X Development Llc Object placement verification
CN106940186B (zh) * 2017-02-16 2019-09-24 华中科技大学 一种机器人自主定位与导航方法及系统
CN106970648B (zh) * 2017-04-19 2019-05-14 北京航空航天大学 城市低空环境下无人机多目标路径规划联合搜索方法
US10650270B2 (en) * 2017-04-21 2020-05-12 X Development Llc Methods and systems for simultaneous localization and calibration

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126401A (ja) * 2006-11-16 2008-06-05 Samsung Electronics Co Ltd パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体
JP2013508827A (ja) * 2009-11-06 2013-03-07 ソニー株式会社 リアルタイムハンド追跡、ポーズ分類、及びインタフェース制御

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12117850B2 (en) 2021-05-18 2024-10-15 Toyota Jidosha Kabushiki Kaisha Moving object and route decision method of moving object

Also Published As

Publication number Publication date
CA3076533A1 (en) 2019-03-28
US10386851B2 (en) 2019-08-20
ES2903525T3 (es) 2022-04-04
JP6937898B2 (ja) 2021-09-22
KR20200085271A (ko) 2020-07-14
CN111602096A (zh) 2020-08-28
KR102385253B1 (ko) 2022-04-08
EP3685241B1 (en) 2021-11-24
WO2019060700A1 (en) 2019-03-28
CA3076533C (en) 2023-02-28
CN111602096B (zh) 2023-08-04
EP3685241A1 (en) 2020-07-29
US20190094876A1 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
JP6937898B2 (ja) 除外区域を用いたマルチ解像度スキャン・マッチング
JP6987226B2 (ja) 最適相互衝突回避のコスト−クリティックを用いたダイナミック・ウィンドウ・アプローチ
KR102442241B1 (ko) 로봇 충전기 도킹 로컬화
KR102497430B1 (ko) 로봇 충전기 도킹 제어
CA3019572C (en) Navigation using planned robot travel paths
US11493925B2 (en) Robot obstacle collision prediction and avoidance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210831

R150 Certificate of patent or registration of utility model

Ref document number: 6937898

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250