JP2021510433A - ロボットの自律的動作計画及びナビゲーションのためのシステム並びに方法連邦政府による資金提供を受けた研究開発の記載 - Google Patents

ロボットの自律的動作計画及びナビゲーションのためのシステム並びに方法連邦政府による資金提供を受けた研究開発の記載 Download PDF

Info

Publication number
JP2021510433A
JP2021510433A JP2020536642A JP2020536642A JP2021510433A JP 2021510433 A JP2021510433 A JP 2021510433A JP 2020536642 A JP2020536642 A JP 2020536642A JP 2020536642 A JP2020536642 A JP 2020536642A JP 2021510433 A JP2021510433 A JP 2021510433A
Authority
JP
Japan
Prior art keywords
robot
human behavior
data
environment
route
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020536642A
Other languages
English (en)
Inventor
タン,フアン
アン デローズ,リン
アン デローズ,リン
シェイ,イー
ザオ,ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2021510433A publication Critical patent/JP2021510433A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3461Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/048Monitoring; Safety
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0217Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40523Path motion planning, path in space followed by tip of robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Educational Administration (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Development Economics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本手法は、人間と共有される屋内環境におけるロボットのナビゲーション(たとえば、経路計画及び移動)に関する。本手法は、人間の動作を含むが、これに限定されない人間行動を経時的に検出するステップと、人間行動履歴を使用して、人間行動をモデル化するステップと、このモデル化された人間行動を使用して、ロボットの動作又は移動を計画するステップとを含む。【選択図】図1

Description

本発明は、契約番号VA118−12−C−0051の下、政府の支援を受けて行われた。政府は、本発明において一定の権利を有する。
本明細書に開示している主題は、居住環境におけるロボットのタスク計画及びナビゲーションに関する。
様々なエンティティが、ロボット又は他の自律的に制御された装置を、屋内環境又は人間も存在する他の環境で使用することができる。たとえば、そのような装置を使用して、当該環境内で物品を移動又は配送したり、当該環境の一部を清掃又は点検したり、或いは当該環境内で器具又は機器を操作したりすることができる。
このような現状を背景として、従来の適用例では、リアルタイムの検知を使用して、ロボット又は同様の装置が当該環境における人間の有無及び/又は位置をリアルタイムで特定し、且つ検知した人間との接触を回避するように対応することができる。しかしながら、そのようなリアルタイムの検知及び回避は計算集約的となり得、装置(たとえば、ロボット)の計算リソースに影響を及ぼす恐れがある。その上、検知してから対応する手法は、身近な周辺環境への対処には適しているが、事後対応ではなく、全体計画のコンテキストでのタスク及び/又は動作計画にはあまり適していない可能性がある。
一実施形態では、ロボットナビゲーションシステムを提供する。本実施形態によれば、本ロボットナビゲーションシステムは、ある環境における人間行動の履歴データを経時的に生成するように構成されたセンサネットワークと、この人間行動の履歴データを受信し、且つこの人間行動の履歴データに基づいて、当該環境における複数の場所間の経路データを導出するように構成された、1つ又は複数のプロセッサベースのシステムとを備える。本ロボットナビゲーションシステムは、当該環境内で1つ又は複数のタスクを実行するように構成されたロボットをさらに備え、このロボットは、1つ又は複数のセンサ、及び人間行動の履歴データから生成される経路データを受信し、この経路データを使用して、それぞれのタスクに対して複数のウェイポイントを生成し、ロボットに対し、これらのウェイポイントに沿って順次移動させて、これらのウェイポイントの一部又は全てで指定した動作を実行させ、且つロボットに搭載した1つ又は複数のセンサによって取得されるリアルタイムの検知データに応じて、これらのウェイポイントに沿ったロボットの移動を調整するように構成された、処理コンポーネントを含む。
さらなる実施形態では、人間と共有される環境でロボットをナビゲートする方法を提供する。本方法によれば、ある環境における人間行動の履歴データが経時的に取得される。当該環境における複数の場所間の経路データは、この人間行動の履歴データに基づいて導出されている。次に、ロボット側で、人間行動の履歴データから生成される経路データが受信され、実行予定のタスクに対応する複数のウェイポイントが、この経路データに基づいて生成され、これらのウェイポイントに沿ってロボットが順次移動して、これらのウェイポイントの一部又は全てで指定した動作が実行され、そしてロボットに搭載した1つ又は複数のセンサによって取得されるリアルタイムの検知データに応じて、これらのウェイポイントに沿ったロボットの移動が調整される。
別の実施形態では、ロボットを提供する。本実施形態によれば、本ロボットは、1つ又は複数のセンサと、モータを含む駆動装置と、処理コンポーネントとを備える。この処理コンポーネントは、外部ソースから経路データを受信し、この経路データは人間行動の履歴データから生成され、この経路データを使用して、それぞれのタスクに対して複数のウェイポイントを生成し、これらのウェイポイントに沿ってロボットを順次移動させるような命令をモータに伝達し、且つロボットに搭載した1つ又は複数のセンサによって取得されるリアルタイムの検知データに応じて、これらのウェイポイントに沿ったロボットの移動を調整するように構成される。
本発明のこれら並びに他の特徴、態様、及び利点は、添付の図面を参照しながら以下の詳細な説明を読むと、より良く理解され、ここでは図面全体を通して、同様の文字が同様の部分を表している。
本開示の態様による、ロボット及びネットワーク環境の概略図である。 本開示の態様による、図1のタスク計画及びナビゲーションシステムでの使用に適した、プロセッサベースのシステムのブロック図である。 本開示の態様による、人間行動を表示するヒートマップの例を示した図である。 本開示の態様による、人間行動を記述する隠れマルコフモデルの例を示した図である。 本開示の態様による、人間行動マップの例を示した図である。 本開示の態様による、コストマップの例を示した図である。 本開示の態様による、共有環境でロボットをナビゲートする際の、ステップのプロセスフローを示した図である。
以下に、1つ又は複数の特定の実施形態を記載する。これらの実施形態を簡潔に記載するために、実際の実装形態の特徴全てが本明細書には記載されないこともある。こうした実際のあらゆる実装形態の開発では、いかなるエンジニアリングプロジェクト又は設計プロジェクトにおいても、たとえばシステム関連及びビジネス関連の制約の遵守のような、実装形態ごとに異なり得る開発者固有の目標を達成するために、実装形態固有の多数の決定を行う必要があることを理解すべきである。また、そのような開発努力は複雑で時間のかかり得るものであるが、それでも、本開示の利益を享受する当業者にとっては、設計、製作、及び製造といった日常的な業務であることを理解すべきである。
本開示の様々な実施形態の要素を紹介するとき、冠詞「1つの(a)」、「1つの(an)」、「その(the)」、及び「前記(said)」は、これらの要素のうちの1つ又は複数があることを意味するものとする。「備える(comprising)」、「含む(including)」、及び「有する(having)」という用語は包括的であることを意図し、列挙した要素以外の付加的な要素が存在する可能性があることを意味する。さらに、以下の説明におけるあらゆる数値例は非限定的であることを意図し、したがって追加の数値、範囲、及びパーセンテージは、開示している実施形態の範囲内にあるものとする。
本明細書で述べているように、ロボット又はロボット装置は屋内環境で操作されて、物品の配送若しくは移動、管理タスクの実行、又はセキュリティ機能若しくは監視機能の実行などの、動作又はタスクを実行するにあたり、ある経路に沿って移動してもよい。具体的には、本手法の態様は、安全、堅牢且つ効率的な方法で、人間と共有される屋内環境においてこのようなロボットのナビゲーション(たとえば、経路計画及び移動)を容易にしている。本手法では、人間の動作を含むが、これに限定されない人間行動を検出するステップと、人間行動をモデル化し、このモデル化された人間行動をロボットの動作又は移動の計画に組み込むステップと、複数のフロア又は階を有する環境を含む、複雑な屋内環境でのロボットの動作又は移動の計画を行うステップと、大域的経路計画と局所的対応計画又は調整とを組み合わせるステップとに関連した課題を含む、いくつかの課題に対処している。
上記を念頭に置くと、人間行動のモデル化とハイブリッド動作の計画という2つの側面を有するものとして、本手法を特徴付けることができる。人間行動のモデル化に関して、一実装形態では、ネットワーク又はインターネット接続サーバ(たとえば、クラウドサーバ)は、対象の建物内など、当該の屋内環境で人間行動を検知するように配置された1つ又は複数のセンサに接続され、これにより、継続的又は定期的に人間行動データを収集している。このようなセンサネットワークは、本システム稼働中に得られたデータに基づいて、調整又は再構成されてもよい。この収集されたデータに基づいて、サーバで実行されるルーチンでは、観測した人間行動及び/又は当該人間行動で識別可能な傾向(たとえば、所定の場所で、異なる期間及び/又は日時に行われる人間行動で観測される傾向又は相関、それぞれの場所及び/又は異なる期間に行われる、人間の動作若しくは行動の指向特性又は流れ特性など)を取り入れた、当該環境のモデルを生成することができる。一実装形態では、そのようなモデルには「コスト」の概念を取り入れてもよく、またロボットの経路候補又は動作候補を、当該モデルによって決定されるそれらのコストに基づいて評価し、提案し、且つ/又は選択してもよい。たとえば、ある地域又は場所に関連付けられているコスト値が高いほど、ロボットをその地域に移動させることが望ましいとは言えないことになる。つまり、そのような実装形態では、コストの最小化に基づいて経路を選択又は提案してもよい。一実施形態では、ある建物内で対象となる全てのフロアに及ぶ当該「コスト」を示すようなグラフを作成してもよく、またこのグラフを使用して、1台又は複数台のロボットの動作計画を行ってもよい。
第2の態様に関して、ロボット又はロボットと通信しているサーバでは、このコストグラフを使用して、このグラフから決定された許容可能な動作コスト(最低動作コストなど)でロボットが1つ又は複数のタスクを実行できるような動作を、ロボット用に計画してもよい。このような状況では、ロボットは、大域的環境、並びに人間の往来及び移動に関連する確率的期待値に関する情報を、このグラフから得ることができる。グラフを使用して決定された動作計画を実行する際に、ロボット上のセンサを使用したリアルタイム検知を採用して、周辺の環境を検出又は検知してもよい。このようにして、局所的対応動作及び/又は回避が実行されてもよい。クラウドサーバに接続して、グラフの履歴データ及び最新の、すなわち直近のセンサデータの両方を取得することは、ロボットが、局所的にも大域的にもその計画を最適化するのに役立つ。
本明細書で使用する場合、ロボット又はロボット装置という用語は、これらに限定されないが、脚、車輪、軌道などを備えたものを含む、地上移動ロボットを含む。そのような装置は、タスクを実行するようにプログラム可能且つ可動であるアクチュエータ、又は他の可動コンポーネント(たとえば、グリッパ又はアームなど)をさらに含んでいてもよい。本明細書でロボットとして特徴付けられる装置が、人間の監視なしで、若しくは人による限られた監視の下でプログラム可能な移動をすることができ、又は自動化システム若しくはコントローラによってリモート制御できる、あらゆる適切な自律移動装置を包含していることを理解すべきである。そのようなプログラム可能な移動は、採用された場合、局所的に生成される経路ウェイポイント若しくは経路ガイダンス、又はリモートシステム(たとえば、サーバ又はコントローラ)によって生成され、且つロボットに伝達される経路ガイダンス若しくは経路ウェイポイントに基づいている可能性がある。したがって、本明細書で使用する場合、そのような装置は稼働段階又は稼働期間において、完全に又は主として、人による直接介入又は制御なしに、或いは人による限られた若しくは部分的な介入又は監視なしに移動する。本明細書では、主として地上ロボットについて記載しているが、本手法は、人間と共有される監視環境又は閉鎖環境などにおける、固定翼車及び回転翼車を含む無人航空機(unmanned aerial vehicle:UAV)、並びに本説明の教示内容内では当該水域の海底に沿って進むか、又は移動することができる無人潜水艇(unmanned submersible vehicle:USV)のコンテキストにおけるナビゲーション及び/又はタスク計画にも関連していてもよい。
さらに、本明細書で「経路」という用語が使用される範囲で、この用語が、一次元的(1D)(軌道に沿ってなど)、二次元的(2D)(画定された、又は画定されていない平面経路など)、三次元的(3D)(空中、又は概ね平面に沿ってであるが、階段、エレベータ、又はダクトなどを含む垂直要素が組み込まれている場所での移動など)、又は4次元的(4D)(ウェイポイントの地上局での速度、加速度、又は滞在時間を特徴付けることができる、画定された時間的側面のある場所など)側面を包含していることを理解すべきである。本明細書で使用する経路などは、自動化プロセス又は半自動化プロセスの一部としての1つ又は複数のタスクを実行する一環として、ロボットが移動することになるルートの計画又は他の移動計画に関するものである。したがって、本明細書で使用する「経路」は、ロボットなどの装置が1つ又は複数の割り当てられたタスクを実行するために移動することになる、任意の1D、2D、3D、又は4Dルート若しくは経路として特徴付けることができる。このような経路は、局所環境にあるロボットがリアルタイム又はほぼリアルタイムで取得したセンサデータに応じて動的に適応するなど、適応的であってもよく、また、ロボットが順序通りに進む1つ又は複数のウェイポイントで構成されていてもよく、これらのウェイポイントの順序及び位置が、経路又はルートを定義している。このような経路には、時間的且つ/又は空間的位置だけでなく、エレベータボタンを押す、又はドアを開けるなど、経路上で定義された地点及び/又は時間で取るべき動作命令をさらに取り入れてもよいことを理解すべきである。
説明を容易にし、且つ有用な実環境の状況を示すために、オフィス、学校、病院、又は工場など、屋内環境の様々な例について本明細書で言及されてもよい。ただし、当然理解できることであるが、本手法は、人間とロボットとが両方存在し、またセンサを使用して往来や動作のパターンを経時的に監視できる、閉鎖空間及び/又は監視空間に広く適用することができる。このため、本明細書に記載しているいずれの例も、単に説明を容易にするために示すものであり、また本手法は、本明細書に記載の屋内環境又は類似の環境での使用に適している。したがって、本手法は、本例の状況に限定されることを意図するものではない。
上記を念頭に置き、図を参照すると、図1は、人間と共有される屋内環境でタスクを実行するのに適した1台又は複数台のロボット12を使用している、ロボットナビゲーションシステム10の態様を示している。図示の例では、ネットワークインターフェースを介してアクセス可能なリモートサーバ又はサーバ群(たとえば、クラウドサーバ16)も図示されている。格納、コンピューティング、又は本明細書に記載の他の機能を実行するために、そのようなネットワーク又はクラウドベースのコンピューティングを使用して、1つ又は複数のリモートサーバ、仮想マシンなどにアクセスしてもよい。そのようなサーバ16は1台又は複数台のロボット12と通信して、人間と共有される環境をナビゲートして1つ又は複数のタスクを実行するなど、1台又は複数台のロボット12による動作を調整してもよい。
図1には単一のリモートサーバ16のみを示しているが、このリモートサーバ16によって実行される機能は、複数のリモートサーバ16によって、且つ/又はサーバ環境の仮想化インスタンスによって実行されてもよいことを理解すべきである。様々な実装形態では、リモートサーバ16は、メモリコンポーネントと、ロボット12から受信されるデータ及び/又はロボット12に伝達される命令を処理するプロセッサとを含み得る、データ処理装置を備える。以下でさらに詳述しているように、いくつかの実施形態では、ロボット12は、リモートサーバ16にセンサデータを提供して、ロボット12のナビゲーション及び/又はロボット12によるタスク実行に関連し得る、ロボット12によって現在検知されている環境に関する情報を伝達してもよい。
一実施形態では、1台又は複数台のロボット12は、オンボードのセルラー接続性又はネットワーク接続性を有し、また1つ又は複数のタスクを実行する前、その実行中、及び/又はその実行後に、リモートサーバ16と通信することができる。ある特定の実装形態では、1台又は複数台のロボット12のセルラー接続性又はネットワーク接続性により、タスク実行中の通信が可能になり、その際、それぞれのタスクの実行中に取得されたデータ(たとえば、センサデータ)をリモートサーバ16へと伝達でき、且つ/又はリモートサーバ16が命令を所定のロボット12へと伝達することができる。たとえばロボット12がリモートサーバ16との通信範囲外で動作している場合や、他の通信切断状況に応じる場合など、一部のケースでは、ロボット12の内部にあるプロセッサ、すなわちオンボードのプロセッサにより、経路に対する変更事項が決定されてもよい。
図1に戻って、タスク実行及びナビゲーションシステム10に関するある特定の詳細事項についてさらに詳述する。たとえば、図1は、ロボット12の一実施形態の概略図を示している。ただし、ロボット12の他の実施形態では、コンポーネントの追加、コンポーネントの削減、及び/又は異なるコンポーネントの組合せが生じると予想されることを理解すべきである。図示のように、ロボット12は、ロボット12を動作させるための電力を供給する電源20を備える。電源20は、交換可能又は再充電可能なバッテリ、燃焼エンジン、発電機、及び電気モータ、ソーラーパネル、化学反応式発電システムなど、又はそれらのいくつかの組合せを含んでいてもよい。
本ロボットは、ユーザがロボット12の様々な設定値を設定又は調整するのに使用できる、ユーザインターフェースを備えていてもよい。このユーザインターフェースは1つ又は複数の入力装置(たとえば、ノブ、ボタン、スイッチ、ダイヤルなど)を含んでいてもよく、場合によっては、ユーザにフィードバックを提供するディスプレイ(たとえば、スクリーン、LEDのアレイなど)を含んでいてもよい。
ネットワークインターフェース22により、(クラウドを介するなどして)リモートサーバ16又は他の装置(たとえば、ドッキングステーション、リモートコントローラ、スマートフォン、コンピューティング装置、タブレットなど)との通信を行うことができる。たとえば、ネットワークインターフェース22により、無線ネットワーク接続、有線ネットワーク接続、セルラーデータサービス、Bluetooth、近距離無線通信(Near Field Communication:NFC)、ZigBee、ANT+、又は他の何らかの通信プロトコルを介した通信を行うことができ得る。
検知装置26は、ロボット12のナビゲーション及び/又はロボット12によるタスクの実行中に、様々な品質を検知し、且つデータを収集するように構成された、1つ又は複数のセンサ28(たとえば、触覚センサ、化学センサ、メタンセンサ、温度センサ、レーザ/LIDAR、ソナー、カメラ、赤、青、緑と深度(red、blue、green、depth:RGB−D)カメラ、慣性計測装置(inertial measurement units:IMU)など)を含んでいてもよい。センサ28を使用して、ロボット12が位置している環境についての情報を伝達する、センサ種別及び観測範囲に対応する検知データを取得してもよい。
駆動装置34は、地表に沿って、又は空中を進むなど、ロボット12の移動を駆動することができる。図示のように、駆動装置34は、1つ又は複数のモータ36と、1つ又は複数のエンコーダ38とを含んでいてもよい。この1つ又は複数のモータ36は、プロペラ、脚、車輪、軌道などを駆動してもよい。この1つ又は複数のエンコーダ38は、1つ又は複数のモータ36における1つ又は複数のパラメータ(たとえば、回転速度)を検知し、データを制御装置へと提供してもよい。
この制御装置は、1つ又は複数のメモリコンポーネントと、1つ又は複数のプロセッサとを含んでいてもよい。動作制御装置は、駆動装置34の1つ又は複数のエンコーダ38から信号を受信し、ロボット12の移動を制御する制御信号を、1つ又は複数のモータ36へと出力してもよい。同様に、データ収集制御装置は、検知装置26の動作を制御し、検知装置26からデータを受信してもよい。センサ28とオンボードプロセッサとの間の通信インターフェースを、パラレルバス、シリアルバス(I2C、SPI)、及びUSBを含む標準の産業用インターフェースとすることができる。データ処理・分析装置は、検知装置26によって収集されるデータを受信し、これらの収集されたデータを処理又は分析してもよい。いくつかの実施形態では、このデータ処理・分析装置は、センサモダリティに基づいて、且つ/又はタスク若しくはナビゲーション固有の考慮事項に基づいてなど、異なる範囲でデータを処理したり、分析したりしてもよい。
上記のセンサ及び駆動コンポーネントの例では、そのような例の1つにおいて、LIDAR及び/又はエンコーダを、ロボット12の自己位置推定に使用してもよく(すなわち、当該環境内でロボット12の位置を正確に推定する)、その一方で、他のセンサ(たとえば、RGBや赤外線を含むカメラ)を当該環境に関する情報の収集に使用している。ある特定の実装形態では、RGB−Dセンサを使用して、検知装置26の動作効率を向上させて、計算コストを削減している。
図示の例では、さらにロボット12を、ロボットナビゲーション計画40、タスク計画42、自己位置推定/SLAM(自己位置推定とマッピングの同時実行(simultaneous localization and mapping))44、並びに/又は人検出及び環境分析46を行うためのサブシステムを備えるものとして、及び/又はプロセッサ実装アルゴリズムを実行するものとして示している。そのようなサブシステム及び/又はアルゴリズムは、制御装置の一部として、又は制御装置と通信するものとして設けられていてもよく、これについては以下でさらに詳述している。図1に示すように、タスク要件50、1つ若しくは複数のリモートサーバ16との間の通信などの外部要因又はパラメータも、本システム10によって包含されていてもよい。
図1に示すもので、ロボット12の他にあるロボットナビゲーションシステム10の別の態様はセンサネットワーク70であり、このセンサネットワーク70は、1つ若しくは複数のリモートサーバ16(たとえば、1つ又は複数のクラウドサーバ)によって管理され、且つ/又はそれらと通信していてもよい。一実装形態では、センサネットワーク70は、ロボット12によってナビゲートされる環境における人間行動データ(参照番号76によって表される)を収集し、そのデータをリモートサーバ16へと送信している。センサネットワーク70は、継続的又は定期的に実行且つ更新され、これによって当該環境における人間行動データ76を経時的に収集することができる。一実装形態では、センサネットワーク70内のセンサユニット74は固定されておらず、必要に応じてこれらの移動、調整、追加、又は除去などを行ってもよい。
例示として、一実施形態では、センサ74の一部又は全てを、観測した環境の点群を生成するために、RGBと深度情報との両方を取得且つ提供しているRGB深度(RGB−D)カメラとすることができる。RGBテクスチャをこの点群にマッピングして、検知された環境の3Dモデルを生成してもよい。このような状況では、共有環境における人間行動76を、RGB−Dセンサを使用して継続的に追跡することができ、その際、人間の骨格関節の位置及び方向も経時的に取得することができる。導出された骨格を使用してこのデータから特定できるジェスチャー及び/又は他の動作データに基づいて、人間の動作行動を共有環境で一定期間にわたって特定することができる。RGB−Dセンサに加えて、又はRGB−Dセンサの代わりに、他のタイプのセンサ74を使用して、人間行動76を追跡してもよい。たとえば、Lidar、ソナー、レーダ、ドップラーセンサ、又はRGBカメラなどのセンサ74を、RGB−Dカメラに加えて、又はその代わりに使用してもよいが、そのようなセンサは、導出された人間の骨格データから導出される動作データとは対照的に、経時的な人間の位置情報の形式で、人間行動データを提供することに限定されている可能性がある。
図1に示すように、センサネットワーク70によって取得されたデータは、1つ又は複数のリモートサーバ16へと転送されてもよい。本明細書で述べているように、経時的に取得されるセンサデータを使用して、監視環境(すなわち、人間と少なくとも1台のロボット12とによって共有される環境)における人間行動をモデル化してもよい。このように人間行動をモデル化することにより、位置、時間、又は他の時間的傾向パターン(たとえば、週ごとのパターン、又は月ごとのパターンなど)のうちの1つ又は複数に基づいて、人間行動を特徴付けることができ得る。
なお、上記を念頭に置くと、システム10の様々な態様は、センサデータを処理し、且つ/又はルーチン若しくはアルゴリズムを実行して、そのようなデータをモデル化するか、又は共有環境でナビゲーション機能を実行するコンポーネント又は装置に関係していてもよい。システム10の動作について付加的な詳細を示す前に、ロボット12及び/又はリモートサーバ16のうちの一方又は両方に見られるコンポーネント又は機能に対応し得る、プロセッサベースのシステム90の態様の例を簡単に示すことが有益となり得る。たとえば、図2を参照すると、そのような装置又はシステムは、リモートサーバ16、ロボット12、又はワークステーション若しくはシステム10の他の装置と通信している装置に設けることができる、コンピューティング装置90の例示的なコンポーネントのブロック図を図示している図に示されるコンポーネントを備えていてもよい。本明細書で使用する場合、コンピューティング装置90は、ロボット12として、又はラップトップコンピュータ、ノート型コンピュータ、デスクトップコンピュータ、タブレットコンピュータ、若しくはワークステーションコンピュータ、及びサーバ型装置、若しくは携帯電話などの携帯用通信型装置を含む1つ若しくは複数のコンピューティング装置、及び/又は他の適切なコンピューティング装置として実装されてもよい。
図示のように、コンピューティング装置90は、1つ若しくは複数のプロセッサ92、1つ若しくは複数のバス94、メモリ96、入力構造部98、電源100、ネットワークインターフェース102、ユーザインターフェース104などの様々なハードウェアコンポーネント、及び/又は本明細書に記載の機能を実行するのに有用な他のコンピュータコンポーネントを含んでいてもよい。
この1つ又は複数のプロセッサ92は、ある特定の実装形態では、メモリ96又は他のアクセス可能な場所に格納された命令を実行するように構成された、マイクロプロセッサ(たとえば、CPU、又はGPUなど)である。或いは、この1つ又は複数のプロセッサ92は、特定用途向け集積回路(ASIC)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、及び/又は本明細書で述べている機能を専ら実行するように設計された、他の装置として実装されてもよい。ここで理解されるように、複数のプロセッサ92又は処理コンポーネントを使用して、本明細書で述べている機能を分散方式又は並列方式で実行してもよい。
メモリ96は、揮発性メモリ、不揮発性メモリ、又はそれらの任意の組合せを含む、データ又は実行可能なルーチン(本明細書で述べている人間行動のモデル化、経路探索、及び/又はコスト最小化のステップを実行するためのルーチン及び/又はアルゴリズムを含む)を格納するための任意の有形の非一時的媒体を包含していてもよい。便宜上、図2では単一のブロックとして示しているが、メモリ96は実際には、同一の又は異なる物理的な場所にある、様々な別個の媒体又は媒体形態を包含していてもよい。1つ又は複数のプロセッサ92は、1つ又は複数のバス94を介して、メモリ96内のデータにアクセスしてもよい。
入力構造部98を使用して、ユーザが装置90にデータ及び/又はコマンドを入力できるようにしており、またこの入力構造部98としては、マウス、タッチパッド、タッチスクリーン、キーボード、VRコントローラ、モーションセンサ、光学センサ、又はマイクなどが挙げられる。電源100を、ライン電源及びバッテリ電源を含む、コンピューティング装置90の様々なコンポーネントに電力を供給するための任意の適切な電源とすることができる。図示の例では、装置90はネットワークインターフェース102を含む。そのようなネットワークインターフェース102により、1つ又は複数の通信プロトコルを使用して、ネットワーク上の他の装置との通信を行うことができる。図示の例では、装置90は、1つ又は複数のプロセッサ92によって提供される画像若しくはデータを表示するように構成されたディスプレイ、及び/又は1つ又は複数のプロセッサ92によって提供される音声データ若しくは音響データを再生するように構成されたスピーカなどの、ユーザインターフェース104を含む。
ここで理解されるように、実環境の状況では、図2のコンピューティング装置90などのプロセッサベースのシステムを使用して、図1に示すリモートサーバ16及び/若しくはロボット12、又は共有環境でナビゲートするロボット12を操作したり、監視したりする際に使用される他の処理装置の機能を実行するなど、本手法の一部又は全てを実行してもよい。
上記の説明を念頭に置き、図1に戻って、上記で紹介した様々なコンポーネントの相互関係及び動作について説明する。本明細書に記載しているように、システム10は、人間と共有される環境内の異なる作業場所間で移動ロボット12をナビゲートする際に使用される、ナビゲーションシステムである。1つ又は複数のコンピュータを使用して、ロボット12が検知データ(検知装置26からなど)を処理し、動作を計画し、決定を行い、その他、本ロボットや、ロボット12に設けた任意のマニピュレータ(たとえば、マニピュレータアーム)を制御するための、オンボードのコンピューティングリソースを供給してもよい。
そのようなナビゲーションを容易に行うために、本手法の第1の態様では、センサネットワーク70を使用して人間の動作及び行動を検出している。一実施形態では、センサネットワーク70によって取得された人間行動データを使用して、1つ又は複数のヒートマップが(リモートサーバ16などで)生成される。
このような一実装形態において、このヒートマップでは、人間の移動や通行パターンを特定できる、長期的な人間行動を記述している。次いで、そのようなパターンを使用して、ロボット12による割り当てられたタスクの実行を促進するようなナビゲーション命令を、ロボット12に提供してもよい。たとえば、これらのパターンを使用して、ロボット12がタスクを実行する際に移動する、人間の介入又は存在の可能性を制限又は最小化するような経路を決定してもよい。
このことを念頭に置き、一実施形態において、センサ74は、十分な期間(たとえば、1日、1週間、2週間、1か月、6か月、又は1年など)ナビゲートが行われる予定の環境に配置されて、人間の移動や通行パターンを特定するのに十分詳細な時間情報を使用して、人間の位置を記録する。このプロセスにかかる所要時間は、状況的環境(たとえば、交通量が少ないに対して、交通量が多い、又は24時間の利用に対して、12時間の利用など)と、ロボット12によるタスクの実行に人間の存在が許容される程度などの適用要件とによって異なる。たとえば、一実装形態では、センサ74を当該環境に1週間配置して週ベースのデータを収集することができ、これにより、その日の時間帯やその週の曜日に特有の変動を特定することができる。そのような方式は、週ごとの時間枠内で識別できる、追跡可能ないくつかのパターンを有する特に有用な人間行動であり得る。
図3を参照すると、経時的に取得されるセンサデータに基づいて生成された(1つのリモートサーバ16などの)、ヒートマップ120の例が示されている。ヒートマップ120は、色、グレースケール、又は強度によって、異なる空間的位置における人の相対的な動作を伝達している。たとえば、図3に示すようなヒートマップ120では、ある環境における人間行動を記述することができ、この人間行動データは、その環境内にある1つ又は複数のRGB−Dカメラを使用して取得された検知データから生成される、骨格データから導出されたものである。
検出された人間行動及び/又は動作に基づいて、当該環境における人間行動のモデルが、リモートサーバ16などで生成されてもよい。一実装形態では、このモデル化プロセスを簡略化するために、混合ガウス分布モデル(Gaussian Mixture Model:GMM)を使用して、人間行動に対応する場所をモデル化している。「ホット」又は活動量の多い場所は、毎日生じている人間行動のピークポイントを中心とするガウスモデルとして記述される。たとえば、そのような人間行動のピークポイントは、エレベータ、階段、入退出時の玄関口、廊下、会議室、ロビー、トイレ、又はカフェテリアなど、当該環境内の公共スペース又は共用スペースに対応している可能性がある。数学的には、それぞれのガウスモデルの場所は次のように記述される。
Figure 2021510433
ここで、kはk階を表し、jはk階のガウスモデルのインデックス番号であり、(x、y)はk階の局所座標系に対するガウスモデルの中心の位置であり、σは分散である。
一実装形態では、隠れマルコフモデル(HMM)は、時間情報(たとえば、時間又はデータ及びそれぞれの人間行動の位置データに関連する時間)に基づいて生成されている。このHMMモデルは、人間がガウスモデルを使用して記述されたエリア内にいる場合、彼/彼女が移動する予定の場所を含む場所間の関係を記述している。本手法に従って構築されたHMM140の例を、図4に示している。図4に示すように、人間行動が行われる様々な場所に対応するインデックス付きガウスモデルGk(j)(参照番号142で示している)を、場所間の人間の流れ又は移動に基づいて各モデル142間の関係を示す方向矢印144と共に、図示している。
本明細書に記載の人間行動検出プロセスに基づいて、活動量の多いエリアが特定されると、この情報に基づいて、モデル化された場所及び時間のデータごとに一定期間における当該環境に関する情報を記述するマップ又はグラフが生成されてもよい。そのような一実施形態では、このマップ又はグラフにより、たとえば現在時刻などの対象となる時間におけるモデル化された異なる場所間の移動に関連した「コスト」について伝達される。次いで、コスト関数を最小化することなどによって、そのようなコストを経路探索に使用してもよく、これにより、ロボット12のナビゲーションを行う経路を決定して、人間の移動又は存在が顕著な場所を通る移動を制限することができる。
上記の実施例の状況では、ガウスモデルを使用して、当該環境内の活動量の多い場所での人間行動を記述してもよい。ただし、大域的な最短経路探索作業では、全てのモデル(すなわち、モデル化された場所)を使用する必要はない。代わりに、コストベースの手法では、重要なパラメータは主要場所間のコストであって、全ての場所間とする必要はない。たとえば、一実装形態では、これらの主要場所として挙げられるのが(ただし、これらに限定されない)、(1)2つのフロアをつなげているエレベータ及び階段、並びに(2)本明細書に記載しているように検出される活動量の多い場所ではないが、割り当てられたタスクを実行するためにロボットが移動する必要のあるターゲット位置である。
1つの手法では、静的マップの自由空間をグリッドに分割してもよい。次いで、本明細書に記載しているように識別された活動量の多いエリアは、図5に示すように、静的なグリッドベースのマップ(すなわち、オーバーレイマップ150)上にオーバーレイされてもよいし、又は表示されてもよい。このような例の1つでは、1つのグリッドから隣接するフリーグリッドへと移動する際のコストは1であり、また1つのグリッドから隣接するインピーダンス(すなわち、活動量の多い)のグリッド(すなわち、c(i、j)へと移動する際のコストは、次の方程式を使用して定義される。
Figure 2021510433
ここで、インピーダンス現在は、その場所に存在する人々の数によって定義される。また、インピーダンス過去は、履歴データからの時間tにその場所で検出される人々の数によって定義される。
これらのコストに基づいて、たとえば対応型主要コストマップなどのコストマップが、各フロアに関して生成されてもよい。図5のオーバーレイマップ150から生成される、このようなコストマップ160の一例を、図6に示している。前述のように、各場所間の経路が必要ではない場合がある。ただし、主要場所間の経路コストを特定する必要がある。
多くの場合、ナビゲーションタスクのターゲット位置は公共スペース(たとえば、会議室、又はオフィスなど)であり、これが主要場所に近接していない場合がある。このことを念頭に置き、コストグラフを作成する前に、別の主要場所をコストマップ160に組み込んでもよい。コストマップ160が生成されると、最近傍がターゲットノードへと接続され、またガウスインピーダンス領域を使用してコストが計算される。
Figure 2021510433
ここで、xはターゲット位置であり、xはガウスインピーダンス領域の中心であり、Σは分散行列である。次いで経路探索アルゴリズムを適用して、各フロアにある全ての主要場所間の最短経路を探索する。一実装形態では、このマップが既知であり、ヒューリスティックコスト及び現在のコストが全て既知であるため、Aアルゴリズムを使用してもよい。具体的には、このA経路探索アルゴリズムは、以下を最小化する経路を選択する。
Figure 2021510433
ここで、nは経路上の最後のノードであり、g(n)は開始ノードからnに至る経路のコストであり、h(n)は、nから目的地に至る最も安価な経路コストを推定するヒューリスティックである。
このようにして決定された経路は、割り当てられたタスクを実行するために従うべきロボット12へと伝達されてもよく、又は他の実施形態では、タスクの実行を容易にするために、完全な経路ではなく、経路に沿ったステップ若しくは動作がロボット12へと伝達されてもよい。
上述の大域的経路探索プロセスに加えて、また図1に戻ると、人間と共有される環境でのタスクの実行及び/又はナビゲーションを容易にするために、ロボット12によって他の機能を提供又は実行してもよい。たとえば、当該環境内でのロボット12の自己位置推定は、ロボット12のナビゲーションの一態様でもある。一実装形態では、Lidar及びIMUによって検知された情報を使用する(参照ブロック44によって示す)自己位置推定/SLAM機能を設けてもよい。本例では、自己位置推定アルゴリズムが実行され、ロボット12の位置及び方向を含む、当該環境におけるロボット12のポーズを継続的又は定期的に位置推定している。このような実装形態の1つでは、環境モデルが同時に構築されている。状況によっては、ロボット12が移動してタスクを実行するか、又は計算コストを削減し始める前に、マッピングを行うことができる。図1の例に示すように、自己位置推定アルゴリズム(たとえば、ロボットのポーズ情報、又は環境モデルなど)の出力は、タスク計画機能及び/又はロボットのナビゲーション計画機能の一方若しくは両方に提供されてもよい。
さらに、図1に示すように、人検出及び/又は環境分析46を行うために、ロボット12に機能が設けられてもよい。時間経過データ又は履歴データ(センサネットワーク70を使用して導出できるデータなど)に基づく大域的行動マッピングに寄与する、本明細書で述べている人検出プロセスとは異なり、ロボット12で実行される人検出46プロセスを、ロボット12のごく近傍に現在いる人間(又は他の物体)を検出する、リアルタイムプロセス及び/又は局所的プロセスとすることができる。一例として、また図1に示すように、検知システム26の様々なセンサ28(たとえば、カメラ、ソナー、又はLidarなど)を使用して、設定した経路に沿ってロボット12が移動する際に、ロボット12のごく近傍にいる人間又は物体を検出してもよい。次いで補正動作(たとえば、停止、又は方向転換など)を行って、そのように局所的検知システム26によって検出された人間又は他の環境特徴との接触を回避してもよい。別の実施形態では、このようにして検知システム26によって検出される情報をリモートサーバ16に提供して、コストマップ160を更新してもよく、これにより、ロボット12が所定のタスク実行の際に使用するように命じられる経路が更新されるか、又は修正される可能性がある。
ロボット12に設けられるタスク計画42機能に関して、本態様では、割り当てられたタスクを実行する際にロボット12が実行する一連の動作を計画している。この計画は、人間のオペレータ又は本システムによって設定されるタスク要件50に基づいている。このタスク計画機能の出力は、一実装形態では、クラスインスタンスの配列であり、各インスタンスは1つの動作を表している。各動作の記述では、以下のうちの1つ又は複数が示されてもよく、これらはすなわち、ロボット12のマニピュレータ若しくはアーム又はロボット12のベース部の仕様或いは選択、ターゲット構成、ターゲット動作又は1つ若しくは複数の環境上の制約の決定或いは仕様、及び/或いは動作性能の指標である。タスク計画機能の出力は、ロボットナビゲーション計画ルーチン又はアルゴリズム40に提供されてもよい。
タスク計画42によってトリガされ得るナビゲーション計画機能40において、ある経路上のウェイポイントが、作業場所で実行される操作タスクに対応しているか、又はこれらを容易にし得る一連のウェイポイントを生成するように計画される。図1に示すように、ロボット12のナビゲーション計画は、タスク計画42、人検出及び環境分析46、自己位置推定/SLAM44、1つ若しくは複数のリモートサーバ16、又はエンコーダ38などから入力を受け取ってもよい。一例として、ソナー検知モダリティを使用して、当該環境内の障害物を検出し、且つ駆動装置34のベース部のモータ36に信号を送信して、ナビゲーション計画のコンテキスト内又はコンテキスト外の障害物を回避してもよい(たとえば、ロボット12の近傍で、人間が突然出現したことに応じて)。図1ではナビゲーション計画がロボット12で発生しているように示しているが、その一方でナビゲーション計画の一部又は全てが1つ又は複数のリモートサーバ16で発生し、次いでウェイポイントがロボット12へと伝達されてもよいことを理解すべきである。
一例では、ウェイポイントが生成され、且つ検証された後、タスク計画42は、ロボットナビゲーション計画40をトリガして、本明細書で述べているA経路選択アルゴリズムを使用するなどして、ロボット12(たとえば、ロボットベース)の動作軌道を計画する。本例では、この計画プロセスにより、ロボット12が計画された全てのウェイポイントを移動し、且つ各処理場所で、対応している望ましい操作タスクを実行するための計画がもたらされる。次いで命令又はコマンドが、動作制御装置などを介して、駆動装置34のモータ36へと伝達されてもよい。この動作制御装置は、ロボットベースの位置、速度、及び/又は加速度を制御するように構成されていてもよい。この動作制御装置へのフィードバックは、自己位置推定/SLAMサブシステム、検知装置26、人検出及び環境分析46、及び/又はエンコーダ38のうちの1つ又は複数から提供されてもよい。さらに、動作計画アルゴリズムは、駆動装置34を介するなどのロボットベースの移動だけでなく、ロボット12の1つ又は複数のマニピュレータ、アーム、若しくはグリッパの移動にも対応することができる。動作計画で使用できるアルゴリズムの例には、これらに限定されないが、ポテンシャル場アルゴリズムやRRT接続アルゴリズムが含まれる。
上記を念頭に置き、図7を参照すると、本手法における1つの例示的なフローのプロセスフローが示されている。図示のフローでは、ロボット12自体で実行されるプロセスを左側に示し、リモートサーバ16上など、ロボット12の外部で発生するプロセスを右側に示している。本例では、概してナビゲーション計画を、ロボット12で発生するように図示しているが、上述したように、その一方でナビゲーション計画の一部又は全てはロボット12の外部で発生する可能性があり、その際、上記のように計算されたウェイポイント190又は他の経路パラメータがロボット12へと伝達される。
図1〜図6に関連する説明に留意して、図示のプロセスフロー例を参照すると、ある経路に対応しているウェイポイント190及び当該経路上でロボット12によって実行されるタスクが生成され、且つロボット12の少なくとも駆動装置34に付与される命令セットの一部として使用されている(ステップ192)。本例では、ウェイポイント190がロボット12で生成される(ステップ194)。ウェイポイント190の生成を、ロボット12によって実行される1つ又は複数のタスク200、ロボット12の現在位置204、及び物体又は人々のロボット12に対するリアルタイム若しくは現在の近接度208に基づくものとすることができ、この近接度は、カメラ、ソナー、又はLidarなどのロボット12上の局所センサ28を監視することにより(ステップ212)、特定されてもよい。
ウェイポイント190の生成には、一実施形態では、上述したように各フロア上の様々な主要場所間の最短経路(コスト最小化アルゴリズムに基づいて特定される)を含む経路情報も使用されている。本例では、本プロセスは、ロボット12がナビゲートされる環境内に設けられたセンサネットワーク70を監視するステップ(ステップ220)を含む。センサネットワーク70の監視は、一定期間(たとえば、1日、7日(たとえば、週間勤務時間)、1週間、又は1か月など)にわたって行われてもよい。
そのように取得されたセンサデータ224を使用して、対象の期間にわたって観測された人間行動の指標228を導出するか、又は特定し(ステップ226)、且つ/又は時間、若しくは曜日などに対応する有用な傾向を識別している。たとえば、本明細書で述べているように、そのように導出された人間行動を示す図の1つが、ヒートマップ120又は同様の作成物であってもよい。
次いで、観測された人間行動228を使用して、ピーク活動量のエリア、又は対象のある閾値レベルを超える活動のエリアなどの、様々な場所での人間行動をモデル化(ステップ232)してもよい。そのようなモデル化された場所236は、交通流情報など、それぞれの場所間の関係性に関する情報をさらに提供してもよい。本明細書で述べているように、そのようなモデルの一例を、隠れマルコフモデル(140)とすることができる。
場所モデルを使用して、対象となる全ての場所の一部間を移動するコスト(人間行動に基づく)の指標を示す、1つ又は複数のコストマップ160を生成(ステップ240)してもよい。そのようなコストマップ160は、時間及び/又は日固有のものであってもよく、たとえば、2つの場所間を移動するコストは、時間及び/又は日に基づいて変動する可能性がある。コストマップ160を経路特定アルゴリズムと共に使用して、所定の時間及び/又は日における場所(たとえば、主要場所)間の最短又は適切な経路254を特定(ステップ250)してもよい。これらの経路254は、次いで本例では、ロボット12に提供されてもよく、図示しているウェイポイント生成プロセス194などのナビゲーションプロセスで使用されることになる。
上記の説明から理解できるように、ロボット12の移動中、たとえば予期しない人間行動を回避するために、従来のオンラインの検知・計画・実行アルゴリズムをここでも使用してよい。ただし、本手法では、ロボット側のコンピューティング作業負荷が大幅に削減されている。たとえば、ロボット12は、履歴データから構築されたモデル(たとえば、HMMモデル)に基づいて、当該環境で起こっていることに関するモデルを有する。そのような例では、現在の状況が毎日又は毎週同じ時間に起こった過去の状況に類似しているという仮定の下で、このモデルを使用して、履歴情報に基づいて最適又は好適な経路を探索してもよい。
本発明の技術的効果には、人間と共有される屋内環境でのロボットのナビゲーション(たとえば、経路計画及び移動)を容易にすることが含まれる。本手法は、人間の動作を含むが、これに限定されない人間行動を経時的に検出するステップと、人間行動履歴を使用して、人間行動をモデル化するステップと、このモデル化された人間行動を使用して、ロボットの動作又は移動を計画するステップとを含む。
本明細書では諸例を使用して、最良の形態を含む本発明を開示し、また、任意の装置又はシステムを製造且つ使用し、任意の組み込まれた方法を実行することを含めて、あらゆる当業者が本発明を実施できるようにしている。本発明の特許可能な範囲は特許請求の範囲によって定義されており、当業者が想到する他の例を含んでもよい。そのような他の例が、特許請求の範囲における字義通りの文言と異ならない構造要素を有する場合、又は特許請求の範囲における字義通りの文言と実質的な差異のない等価の構造要素を含む場合、これらが特許請求の範囲内にあることが意図される。

Claims (20)

  1. ある環境における人間行動の履歴データを経時的に生成するように構成されたセンサネットワークと、
    前記人間行動の履歴データを受信し、且つ前記人間行動の履歴データに基づいて、前記環境における複数の場所間の経路データを導出するように構成された、1つ又は複数のプロセッサベースのシステムと、
    前記環境内で1つ又は複数のタスクを実行するように構成されたロボットであって、前記ロボットは、
    1つ又は複数のセンサ、及び
    前記人間行動の履歴データから生成される前記経路データを受信し、前記経路データを使用して、それぞれのタスクに対して複数のウェイポイントを生成し、前記ロボットに対し、前記ウェイポイントに沿って順次移動させて、前記ウェイポイントの一部又は全てで指定した動作を実行させ、且つ前記ロボットに搭載した前記1つ又は複数のセンサによって取得されるリアルタイムの検知データに応じて、前記ウェイポイントに沿った前記ロボットの移動を調整するように構成された、処理コンポーネント
    を含む、ロボットと
    を備える、ロボットナビゲーションシステム。
  2. 前記センサネットワークが、前記環境における人間行動を監視するように配置された、複数のRGB−Dカメラを含む、請求項1に記載のロボットナビゲーションシステム。
  3. 前記1つ又は複数のプロセッサベースのシステムが、ネットワークを介して前記センサネットワーク及び前記ロボットと通信している1つ又は複数のサーバを含む、請求項1に記載のロボットナビゲーションシステム。
  4. 前記人間行動の履歴データが、少なくとも1週間にわたって取得された人間行動データを含み、また、人間行動における日ごとの傾向及び時間ごとの傾向の一方又は両方を包含している、請求項1に記載のロボットナビゲーションシステム。
  5. 前記複数の場所間の経路データが、前記環境内の交通量の多い場所間の経路データを含む、請求項1に記載のロボットナビゲーションシステム。
  6. 前記交通量の多い場所が、階段、エレベータ、会議室、ロビー、トイレ、又は玄関口のうちの1つ又は複数を含む、請求項5に記載のロボットナビゲーションシステム。
  7. 前記人間行動の履歴データを使用して、人間行動を示す1つ又は複数の図を作成するステップ、
    前記人間行動の図に基づいて、前記複数の場所での人間行動をモデル化するステップ、
    前記モデル化された人間行動に基づいて、1つ又は複数のコストマップを作成するステップ、及び
    前記1つ又は複数のコストマップを使用して、前記複数の場所間の前記経路データを導出するステップ
    により、前記1つ又は複数のプロセッサベースのシステムが、前記複数の場所間の前記経路データを導出するように構成されている、請求項1に記載のロボットナビゲーションシステム。
  8. 前記人間行動を示す1つ又は複数の図がヒートマップを含む、請求項7に記載のロボットナビゲーションシステム。
  9. 前記複数の場所での人間行動をモデル化する前記ステップが、隠れマルコフモデルを生成するステップを含む、請求項7に記載のロボットナビゲーションシステム。
  10. 前記1つ又は複数のコストマップが、前記環境の各フロアに関する対応型主要コストマップを含む、請求項7に記載のロボットナビゲーションシステム。
  11. 前記経路データを導出する前記ステップが、前記複数の場所の各々間の経路コストを導出するステップと、前記複数の場所の各々間の最低経路コストを識別するステップとを含む、請求項7に記載のロボットナビゲーションシステム。
  12. 人間と共有される環境でロボットをナビゲートする方法であって、
    ある環境における人間行動の履歴データを経時的に取得するステップと、
    前記人間行動の履歴データに基づいて、前記環境における複数の場所間の経路データを導出するステップと、
    ロボット側で、
    前記人間行動の履歴データから生成される前記経路データを受信するステップと、
    実行予定のタスクに対応する複数のウェイポイントを、前記経路データに基づいて生成するステップと、
    前記ウェイポイントに沿って前記ロボットを順次移動させて、前記ウェイポイントの一部又は全てで指定した動作を実行させるステップと、
    前記ロボットに搭載した1つ又は複数のセンサによって取得されるリアルタイムの検知データに応じて、前記ウェイポイントに沿った前記ロボットの移動を調整するステップと
    を含む、方法。
  13. 前記人間行動の履歴データが、前記ロボットの外部のセンサネットワークによって生成されている、請求項12に記載の方法。
  14. 前記人間行動の履歴データが、少なくとも1週間にわたって取得された人間行動データを含み、また、人間行動における日ごとの傾向及び時間ごとの傾向の一方又は両方を包含している、請求項12に記載の方法。
  15. 前記経路データが、前記環境内の交通量の多い場所間の経路データを含む、請求項12に記載の方法。
  16. 前記環境における前記複数の場所間の経路データを導出する前記ステップが、
    前記人間行動の履歴データを使用して、人間行動を示す1つ又は複数の図を作成するステップと、
    前記人間行動の図に基づいて、前記複数の場所での人間行動をモデル化するステップと、
    前記モデル化された人間行動に基づいて、1つ又は複数のコストマップを作成するステップと、
    前記1つ又は複数のコストマップを使用して、前記複数の場所間の前記経路データを導出するステップと
    を含む、請求項12に記載の方法。
  17. 前記経路データを導出する前記ステップが、前記複数の場所の各々間の経路コストを導出するステップと、前記複数の場所の各々間の最低経路コストを識別するステップとを含む、請求項12に記載の方法。
  18. ロボットであって、
    1つ又は複数のセンサと、
    モータを含む駆動装置と、
    処理コンポーネントであって、
    外部ソースから経路データを受信し、前記経路データは人間行動の履歴データから生成され、
    前記経路データを使用して、それぞれのタスクに対して複数のウェイポイントを生成し、
    前記ウェイポイントに沿って前記ロボットを順次移動させるような命令を前記モータに伝達し、且つ
    前記ロボットに搭載した前記1つ又は複数のセンサによって取得されるリアルタイムの検知データに応じて、前記ウェイポイントに沿った前記ロボットの移動を調整する
    ように構成されている、処理コンポーネントと
    を備える、ロボット。
  19. 前記人間行動の履歴データが、前記ロボットの外部にあり、且つそれぞれの前記タスクが実行される環境内に配置されているセンサネットワークによって取得されている、請求項18に記載のロボット。
  20. 前記人間行動の履歴データが、少なくとも1週間にわたって取得された人間行動データを含み、また、人間行動における日ごとの傾向及び時間ごとの傾向の一方又は両方を包含している、請求項18に記載のロボット。

JP2020536642A 2018-01-12 2018-10-22 ロボットの自律的動作計画及びナビゲーションのためのシステム並びに方法連邦政府による資金提供を受けた研究開発の記載 Pending JP2021510433A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/870,534 US10612934B2 (en) 2018-01-12 2018-01-12 System and methods for robotic autonomous motion planning and navigation
US15/870,534 2018-01-12
PCT/US2018/056827 WO2019139659A1 (en) 2018-01-12 2018-10-22 System and methods for robotic autonomous motion planning and navigation

Publications (1)

Publication Number Publication Date
JP2021510433A true JP2021510433A (ja) 2021-04-22

Family

ID=67212798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020536642A Pending JP2021510433A (ja) 2018-01-12 2018-10-22 ロボットの自律的動作計画及びナビゲーションのためのシステム並びに方法連邦政府による資金提供を受けた研究開発の記載

Country Status (7)

Country Link
US (1) US10612934B2 (ja)
EP (1) EP3738009B1 (ja)
JP (1) JP2021510433A (ja)
KR (1) KR20200099611A (ja)
CN (1) CN111656296B (ja)
BR (1) BR112020014097A2 (ja)
WO (1) WO2019139659A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11204215B2 (en) 2018-01-09 2021-12-21 V-Armed Inc. Wireless independent tracking system for use in firearm simulation training
US11099575B2 (en) * 2018-01-30 2021-08-24 Brain Corporation Systems and methods for precise navigation of autonomous devices
WO2019152263A1 (en) * 2018-01-30 2019-08-08 Fisher Controls International Llc Balanced trim regulator
WO2020146352A1 (en) * 2019-01-08 2020-07-16 R-Go Robotics Ltd. System and method for monitoring movements
US10694053B1 (en) 2019-01-22 2020-06-23 Xerox Corporation Wireless location tracking tag for monitoring real time location-tracking apparatus for an electronic device
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
US20210197377A1 (en) 2019-12-26 2021-07-01 X Development Llc Robot plan online adjustment
CN111267099B (zh) * 2020-02-24 2023-02-28 东南大学 基于虚拟现实的陪护机器控制系统
US20220136836A1 (en) * 2020-11-04 2022-05-05 Xerox Corporation System and method for indoor navigation
US11717587B2 (en) 2020-05-08 2023-08-08 Robust AI, Inc. Ultraviolet cleaning trajectory modeling
CN112101148B (zh) * 2020-08-28 2024-05-03 普联国际有限公司 一种运动目标检测方法、装置、存储介质及终端设备
US20220133114A1 (en) * 2020-11-02 2022-05-05 Shiwei Liu Autonomous Cleaning Robot
CN115123897B (zh) * 2022-08-30 2023-01-06 深圳市海清视讯科技有限公司 对象检测方法、装置及设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007229854A (ja) * 2006-02-28 2007-09-13 Toyota Motor Corp 自律移動型ロボット
JP2009175929A (ja) * 2008-01-23 2009-08-06 Toyota Central R&D Labs Inc ドライバ状態推定装置及びプログラム
JP2010072811A (ja) * 2008-09-17 2010-04-02 Olympus Corp 情報処理システム、プログラム及び情報記憶媒体
JP2011128758A (ja) * 2009-12-16 2011-06-30 Toyota Motor Corp 経路探索システム、方法、プログラム、並びに移動体
JP2012203646A (ja) * 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International 流れ状態判別装置、流れ状態判別方法、流れ状態判別プログラムおよびそれらを用いたロボット制御システム
JP2014522053A (ja) * 2011-08-02 2014-08-28 マイクロソフト コーポレーション テレプレゼンスセッションを実行するためのシステム、方法及び記憶媒体
JP2016152003A (ja) * 2015-02-19 2016-08-22 Jfeスチール株式会社 自律移動ロボットの自己位置推定方法、自律移動ロボット、及び自己位置推定用ランドマーク
WO2017161167A1 (en) * 2016-03-18 2017-09-21 President And Fellows Of Harvard College Automatically classifying animal behavior
JP2017205848A (ja) * 2016-05-20 2017-11-24 日本信号株式会社 サービス提供システム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7206753B2 (en) * 2001-05-04 2007-04-17 Axxon Robotics, Llc Methods for facilitating a retail environment
US7250907B2 (en) * 2003-06-30 2007-07-31 Microsoft Corporation System and methods for determining the location dynamics of a portable computing device
US7739040B2 (en) * 2006-06-30 2010-06-15 Microsoft Corporation Computation of travel routes, durations, and plans over multiple contexts
US20110037619A1 (en) 2009-08-11 2011-02-17 On Time Systems, Inc. Traffic Routing Using Intelligent Traffic Signals, GPS and Mobile Data Devices
JP4788722B2 (ja) 2008-02-26 2011-10-05 トヨタ自動車株式会社 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
KR101679294B1 (ko) 2009-08-21 2016-11-25 삼성전자주식회사 이동 경로의 생성, 관리 및 공유 방법과 그 장치
WO2012039280A1 (ja) * 2010-09-21 2012-03-29 トヨタ自動車株式会社 移動体
JP5690113B2 (ja) * 2010-10-22 2015-03-25 日本信号株式会社 自律移動サービス提供システム
US8364395B2 (en) * 2010-12-14 2013-01-29 International Business Machines Corporation Human emotion metrics for navigation plans and maps
US9205886B1 (en) 2011-05-06 2015-12-08 Google Inc. Systems and methods for inventorying objects
WO2013042117A1 (en) * 2011-09-19 2013-03-28 Personetics Technologies Ltd. System and method for evaluating intent of a human partner to a dialogue between human user and computerized system
US20160253740A1 (en) * 2012-12-14 2016-09-01 Wal-Mart Stores, Inc. Systems and methods for generating and using a heat map of a retail location to reduce overcrowding
US9709990B2 (en) 2012-12-21 2017-07-18 Toyota Jidosha Kabushiki Kaisha Autonomous navigation through obstacles
CN103558856A (zh) * 2013-11-21 2014-02-05 东南大学 动态环境下服务动机器人导航方法
JP2017515176A (ja) 2014-02-10 2017-06-08 サビオーク インク 出入り口における認証システム
US9911088B2 (en) * 2014-05-01 2018-03-06 Microsoft Technology Licensing, Llc Optimizing task recommendations in context-aware mobile crowdsourcing
US9452530B2 (en) 2014-09-12 2016-09-27 Toyota Jidosha Kabushiki Kaisha Robot motion replanning based on user motion
SG10201405949XA (en) 2014-09-22 2016-04-28 Ctrlworks Pte Ltd Method and apparatus for navigation of a robotic device
US10311400B2 (en) * 2014-10-24 2019-06-04 Fellow, Inc. Intelligent service robot and related systems and methods
US9796093B2 (en) * 2014-10-24 2017-10-24 Fellow, Inc. Customer service robot and related systems and methods
WO2016154551A1 (en) 2015-03-26 2016-09-29 Matternet, Inc. Route planning for unmanned aerial vehicles
CN105241461A (zh) 2015-11-16 2016-01-13 曾彦平 机器人的地图创建及定位方法和机器人系统
WO2017196822A1 (en) * 2016-05-09 2017-11-16 Grabango Co. System and method for computer vision driven applications within an environment
WO2017197170A1 (en) * 2016-05-12 2017-11-16 The Regents Of The University Of California Safely controlling an autonomous entity in presence of intelligent agents
CN106354161A (zh) 2016-09-26 2017-01-25 湖南晖龙股份有限公司 机器人运动路径规划方法
US10754351B2 (en) * 2017-02-28 2020-08-25 Toyota Jidosha Kabushiki Kaisha Observability grid-based autonomous environment search

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007229854A (ja) * 2006-02-28 2007-09-13 Toyota Motor Corp 自律移動型ロボット
JP2009175929A (ja) * 2008-01-23 2009-08-06 Toyota Central R&D Labs Inc ドライバ状態推定装置及びプログラム
JP2010072811A (ja) * 2008-09-17 2010-04-02 Olympus Corp 情報処理システム、プログラム及び情報記憶媒体
JP2011128758A (ja) * 2009-12-16 2011-06-30 Toyota Motor Corp 経路探索システム、方法、プログラム、並びに移動体
JP2012203646A (ja) * 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International 流れ状態判別装置、流れ状態判別方法、流れ状態判別プログラムおよびそれらを用いたロボット制御システム
JP2014522053A (ja) * 2011-08-02 2014-08-28 マイクロソフト コーポレーション テレプレゼンスセッションを実行するためのシステム、方法及び記憶媒体
JP2016152003A (ja) * 2015-02-19 2016-08-22 Jfeスチール株式会社 自律移動ロボットの自己位置推定方法、自律移動ロボット、及び自己位置推定用ランドマーク
WO2017161167A1 (en) * 2016-03-18 2017-09-21 President And Fellows Of Harvard College Automatically classifying animal behavior
JP2017205848A (ja) * 2016-05-20 2017-11-24 日本信号株式会社 サービス提供システム

Also Published As

Publication number Publication date
EP3738009A1 (en) 2020-11-18
EP3738009B1 (en) 2023-12-06
US20190219409A1 (en) 2019-07-18
BR112020014097A2 (pt) 2020-12-01
KR20200099611A (ko) 2020-08-24
CN111656296A (zh) 2020-09-11
WO2019139659A1 (en) 2019-07-18
EP3738009A4 (en) 2021-07-14
US10612934B2 (en) 2020-04-07
CN111656296B (zh) 2021-12-28

Similar Documents

Publication Publication Date Title
EP3738009B1 (en) System and methods for robotic autonomous motion planning and navigation
EP3612906B1 (en) Method and system for environment map generation and alignment
US11016491B1 (en) Trajectory planning for mobile robots
US10012996B1 (en) Route planning for a mobile robot using configuration-based preferences
CN1188762C (zh) 自主多平台机器人系统
CN105425795B (zh) 规划最优跟随路径的方法及装置
JP2016522089A (ja) 複雑な表面検査及び加工のための制御された自律型ロボットシステム
Huang et al. To build a smart unmanned restaurant with multi-mobile robots
Kato A remote navigation system for a simple tele-presence robot with virtual reality
Chow et al. Learning human navigational skill for smart wheelchair in a static cluttered route
Chikhalikar et al. An object-oriented navigation strategy for service robots leveraging semantic information
Oliveira et al. Integration of virtual pheromones for mapping/exploration of environments by using multiple robots
Pol et al. Autonomous Differential Drive Mobile Robot Navigation with SLAM, AMCL using ROS
CN114493164A (zh) 基于边缘计算的机器人任务解析方法和系统
Li et al. Ros based multi-sensor navigation of intelligent wheelchair
Guan et al. Intelligent obstacle avoidance algorithm for mobile robots in uncertain environment
Luo et al. A hybrid system for multi-goal navigation and map building of an autonomous vehicle in unknown environments
Haque et al. Vision based trajectory following robot and swarm
Sogo et al. Mobile robot navigation by a distributed vision system
Herman et al. Cooperative semi-autonomous robotic network for search and rescue operations
Attamimi et al. Room Mapping and Robot Localization Using RGB-D Camera and IMU Sensor
Paolini et al. A web-based user interface for a mobile robotic system
Huang et al. An Evaluation Framework of Human-Robot Teaming for Navigation among Movable Obstacles via Virtual Reality-based Interactions
León et al. Multi-robot slam and map merging
Chan et al. A Robotic System of Systems for Human-Robot Collaboration in Search and Rescue Operations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220928

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221202

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240415