JP7061337B2 - 経路に沿って操縦するためのロボットと、環境内のロボットの動的ナビゲーション及び動的経路計画のためのシステムと、ロボットの動的ナビゲーション及び動的経路計画のための方法と、その非一時的なコンピュータ媒体及びそのプログラム - Google Patents

経路に沿って操縦するためのロボットと、環境内のロボットの動的ナビゲーション及び動的経路計画のためのシステムと、ロボットの動的ナビゲーション及び動的経路計画のための方法と、その非一時的なコンピュータ媒体及びそのプログラム Download PDF

Info

Publication number
JP7061337B2
JP7061337B2 JP2019523827A JP2019523827A JP7061337B2 JP 7061337 B2 JP7061337 B2 JP 7061337B2 JP 2019523827 A JP2019523827 A JP 2019523827A JP 2019523827 A JP2019523827 A JP 2019523827A JP 7061337 B2 JP7061337 B2 JP 7061337B2
Authority
JP
Japan
Prior art keywords
robot
path
postures
points
repulsive force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019523827A
Other languages
English (en)
Other versions
JP2020502630A5 (ja
JP2020502630A (ja
Inventor
ボルハ イバルツ ガバルドス
ジャン-バティスト パッソ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brain Corp
Original Assignee
Brain Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brain Corp filed Critical Brain Corp
Publication of JP2020502630A publication Critical patent/JP2020502630A/ja
Publication of JP2020502630A5 publication Critical patent/JP2020502630A5/ja
Application granted granted Critical
Publication of JP7061337B2 publication Critical patent/JP7061337B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4061Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/343Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0217Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Description

優先権
本出願は、同一表題の2016年11月2日に出願された共同所有および同時係属中の米国特許出願第15/341,612号に対する優先権の利益を主張し、それらの内容は参照によりその全体が本明細書に組み込まれる。
著作権
本特許文書の開示の一部には、著作権保護の対象となる資料が含まれている。著作権所有者は、特許商標庁の特許ファイルまたは記録に記載されているような特許文書または特許開示のいずれかによるファクシミリ複製には異論を唱えないが、それ以外の全ての著作権を留保する。
本出願は、一般に、ロボット工学に関し、より具体的には、自律ナビゲーションにおける動的経路計画のためのシステムおよび方法に関する。
ロボットナビゲーションは複雑な問題であり得る。場合によっては、ロボットは、移動する経路を決定することができる。実例として、ロボットは、ユーザによって示された経路を学習することができる(例えば、ユーザは、経路に沿ってロボットを制御することができ、および/または経路を含む地図をアップロードすることができる)。別の例として、ロボットは、環境に関するその知識(例えば、地図)に基づいて、環境内のロボット自身の経路を計画することができる。しかしながら、生じ得る課題は、ロボットが経路を決定した後に、環境の特色が変わり得ることである。例えば、ものが経路のパスに入ることがあり、および/または環境の一部が変化することがある。現在のロボットは、これらの変化(例えば、障害物)に応じてその計画されたパスをリアルタイムで調整することができない可能性がある。そのような状況では、現在のロボットは停止し得、物体に衝突し得、および/またはその経路に次善の調整を加え得る。したがって、動的経路計画のためのシステムおよび方法を含む、自律ナビゲーションのための改善されたシステムおよび方法が必要とされている。
前述の必要性は、とりわけ、自律ナビゲーションにおける動的経路計画のための装置および方法を提供する本開示によって満たされる。本明細書に記載されている例示的な実施態様は、革新的な特色を有しており、そのうちの単一のものが、それらの望ましい属性に対して不可欠ではなく、または単独でその責を担うものでもない。特許請求の範囲の範囲を限定することなく、有利な特色のうちのいくつかをここで要約する。
第1の態様において、ロボットが開示される。1つの例示的な実施態様では、ロボットは、環境内の1つ以上の物体上の検出点を含む環境に関するデータを収集するように構成された1つ以上のセンサと、コントローラであって、収集されたデータに少なくとも部分的に基づいて環境の地図を作成し、ロボットが移動する地図内の経路を決定し、経路上の1つ以上の経路姿勢であって、各経路姿勢が、経路に沿ったロボットの姿勢を示すフットプリントを含み、各経路姿勢には、複数の点が中に配置されている、経路上の1つ以上の経路姿勢を生成し、各経路姿勢の複数の点のそれぞれにかかる力であって、その力は、1つ以上の物体上の検出点の1つ以上からの反発力と、1つ以上の経路姿勢の他の経路姿勢上の複数の点の1つ以上からの引力とを含む、各経路姿勢の複数の点のそれぞれにかかる力を決定し、1つ以上の経路姿勢の各点への力に応じて1つ以上の経路姿勢を再配置し、ロボットが移動するための1つ以上の経路姿勢間に衝突のないパスを生成するために、1つ以上の経路姿勢間の補間を実行するように構成されたコントローラと、を含む。
一変形態様では、1つ以上の経路姿勢は、ロボットが経路に沿って移動するシーケンスを形成する。補間は、1つ以上の経路姿勢のうちの連続するものの間の線形補間を含む。
別の変形態様では、補間は、各経路姿勢のフットプリントと実質的に同様のフットプリントを有する1つ以上の補間経路姿勢を生成する。別の変形態様では、1つ以上の経路姿勢の各点にかかる力の決定は、各経路姿勢の各点にかかる力を環境内の物体の1つ以上の特性に少なくとも部分的に関連付ける力関数を計算することをさらに含む。
別の変形態様では、1つ以上の特性は、距離、形状、材料、および色のうちの1つ以上を含む。別の変形態様では、力関数は、第1の経路姿勢の第1の点と第2の点との間の距離が所定の距離閾値を超える、第1の物体上の第1の検出点によって及ぼされるゼロ反発力を関連付ける。
別の変形態様では、各経路姿勢のフットプリントは、ロボットのフットプリントと実質的に同様のサイズおよび形状を有する。
別の変形態様では、ロボットは床清掃機を含む。
第2の態様では、ロボットの動的ナビゲーションのための方法が開示される。1つの例示的な実施態様では、本方法は、1つ以上のセンサからのデータを使用して環境の地図を生成することと、地図上の経路を決定することであって、経路が、1つ以上の経路姿勢を含み、各経路姿勢が、経路に沿ったロボットの姿勢および形状の少なくとも一部を示すフットプリントを含み、各経路姿勢には、複数の点が中に配置されている、決定することと、環境内の物体上の点から1つ以上の経路姿勢のうちの第1の経路姿勢の複数の点への反発力を計算することと、少なくとも反発力に応じて第1の経路姿勢を再配置することと、再配置された第1の経路姿勢と1つ以上の経路姿勢のうちの別の経路姿勢との間の補間を実行することと、を含む。
一変形態様では、1つ以上の経路姿勢のうちの別の経路姿勢上の点から第1の経路姿勢の複数の点に及ぼされる引力を決定する。別の変形では、1つ以上のセンサを用いて環境内の複数の物体を検出することであって、複数の物体のそれぞれが検出点を有する、環境内の複数の物体を検出することと、力関数を定義することであって、力関数は、第1の経路姿勢の複数の点上の複数の物体の検出点のそれぞれによって及ぼされる反発力を計算し、各反発力はベクトルである、力関数を定義することとを行う。
別の変形態様では、第1の経路姿勢を再配置することは、力関数の最小値を計算することを含む。
別の変形態様では、第1の経路姿勢を再配置することは、第1の経路姿勢を並進および回転させることを含む。
別の変形態様では、補間は、ロボットの形状と実質的に同様のフットプリントを有する補間経路姿勢を生成することと、並進および回転される第1の経路姿勢と1つ以上の経路姿勢のうちの別の経路姿勢との間の衝突のないパスに少なくとも基づいて、補間経路姿勢の並進および回転を決定することと、を含む。
別の変形態様では、方法は、物体上の点が第1の経路姿勢のフットプリントの外側にある場合、物体上の点と第1の経路姿勢の複数の点のそれぞれとの間の距離に比例するように反発力の大きさを計算することをさらに含む。
別の変形態様では、物体上の点が第1の経路姿勢のフットプリントの内側にある場合、物体上の点と第1の経路姿勢の複数の点のそれぞれとの間の距離に反比例するように反発力の大きさを計算する。
別の変形態様では、方法は、反発力による第1の経路姿勢の複数の点へのトルク力を計算することをさらに含む。
第3の態様では、非一時的なコンピュータ可読記憶装置が開示される。一実施形態では、非一時的なコンピュータ可読記憶装置には、ロボットを動作させるために処理装置によって実行可能な複数の命令が格納されている。命令は、処理装置によって実行されるとき、処理装置に以下のことを行わせるように構成される。すなわち、1つ以上のセンサからのデータを使用して環境の地図を生成することと、地図上の経路を決定することであって、経路が、1つ以上の経路姿勢を含み、各経路姿勢が、経路に沿ったロボットの姿勢および形状の少なくとも一部を示すフットプリントを含み、各経路姿勢には、複数の点が中に配置されている、前記決定することと、環境内の物体上の点から1つ以上の経路姿勢のうちの第1の経路姿勢の複数の点への反発力を計算することである。
一変形態様では、命令は、処理装置によって実行されるとき、処理装置に、1つ以上の経路姿勢のうちの別の経路姿勢上の点から第1の経路姿勢の複数の点に及ぼされる引力をさらに決定させる。
別の変形態様では、命令は、処理装置によって実行されるとき、処理装置に、1つ以上の経路姿勢のうちの別の経路姿勢上の点から第1の経路姿勢の複数の点に及ぼされるトルク力をさらに決定させる。
本開示のこれら、および他の目的、特色、および特性ならびに構造の関連要素の操作および機能の方法ならびに部品の組み合わせおよび製造の経済は、それらの全てが本明細書の一部分を形成し、同様の参照番号は様々な図における対応する部分を示す、添付の図面を参照し、次の説明および添付の特許請求の範囲を考慮することにより、より明らかになるであろう。しかしながら、図面は、例示および説明の目的のみのためであり、本開示の限界の画定を意図するものではないことは、明白に理解されるべきである。本明細書および特許請求の範囲で使用されているように、「a」、「an」および「the」の単数形は、文脈上他に明確に指示されない限り、複数の指示対象を含む。
開示された態様は、添付の図面と併せて以下で説明され、開示される態様を例示するために提供され、限定するために提供されるものではなく、同様の名称は同様の要素を示す。
本開示の原理による、ロボットの例示的な本体形態の様々な側面図を示す。 本開示のいくつかの実施態様による、パスをナビゲートするロボットを示す俯瞰図である。 ロボットが環境内で経路を自律的に移動する前の、ロボットへの経路を示すユーザの俯瞰図を示す。 本開示のいくつかの原理による、ロボットの機能ブロック図である。 本開示のいくつかの実施態様による、ロボットと障害物との間の相互作用を示す上面図である。 本開示の実施態様による、グローバル層、中間層、およびローカル層の図である。 本開示のいくつかの実施態様による、動的経路計画のための例示的な方法のプロセスフロー図である。 本開示のいくつかの実施態様による、物体によって及ぼされる反発力と共に経路姿勢の俯瞰図を示す。 本開示のいくつかの実施態様による、経路姿勢間の引力を示す俯瞰図を示す。 本開示のいくつかの実施態様による、経路姿勢間の補間を示す図の俯瞰図である。 本開示のいくつかの実施態様による、ロボットの動作についての例示的な方法のプロセスフロー図である。 本開示のいくつかの実施態様による、ロボットの動作についての例示的な方法のプロセスフロー図である。
本明細書に開示されている全ての図面は著作権により保護されている。(著作権)Copyright 2017 Brain Corporation。全著作権所有。
本明細書に開示された新規なシステム、装置、および方法の様々な態様は、添付の図面を参照して以下でより完全に記載される。しかしながら、本開示は、多くの異なる形態で具現化することができ、本開示全体を通して提示される具体的な構造または機能に限定されると解釈されるべきではない。むしろ、これらの態様は、本開示が徹底的かつ完全であるように、また、本開示の範囲を当業者に十分に伝えるように提供される。本明細書における教示に基づいて、当業者は、本開示の範囲が、本開示の任意の他の態様とは独立して実装されるか、組み合わせられて実装されるかにかかわらず、本明細書に開示される新規のシステム、装置、および方法の任意の態様を包含することを意図していることを理解するはずである。例えば、本明細書に記載の任意の数の態様を使用して、装置を実装することができ、または方法を実施することができる。その上、本開示の範囲は、本明細書に記載された開示の様々な態様に加えて、あるいはそれ以外の他の構造、機能、または構造および機能を使用して実施されるような装置または方法を包含するように意図されている。本明細書に開示される任意の態様は、特許請求項の1つ以上の要素によって実装され得ることを理解されたい。
特定の態様が本明細書に記載されているが、これらの態様の多くの変形および置換が本開示の範囲内に含まれる。好ましい態様のいくつかの利点および利益が述べられているが、本開示の範囲は、特定の利点、用途、および/または目的に限定されることを意図しない。詳細な説明および図面は、限定ではなく本開示の単なる例示であり、開示の範囲は、添付の特許請求の範囲およびその同等物によって定義される。
本開示は、自律ナビゲーションにおける動的経路計画のための改善されたシステムおよび方法を提供する。本明細書で使用されるように、ロボットは、複雑な一連の動作を自動的に成し遂げるように構成された機械的または仮想的エンティティを含むことができる。場合によっては、ロボットは、コンピュータプログラムまたは電子回路によって誘導される機械であってもよい。場合によっては、ロボットは、ロボットがある場所から別の場所に移動できるナビゲーション用に構成された電子機械コンポーネントを含むことができる。そのようなナビゲートロボットは、自律型自動車、床清掃機、ローバー(rover)、ドローン、カートなどを含むことができる。
本明細書で言及されるように、床清掃機は、手動制御(例えば、駆動制御または遠隔制御)および/または自律(例えば、ユーザ制御をほとんどまたは全く用いない)床清掃機を含むことができる。例えば、床清掃機は、管理者、管理人、または他の人が操作する床洗浄機、および/または環境を自律的にナビゲートおよび/または清掃するロボット床洗浄機を含むことができる。同様に、床清掃機はまた、掃除機、スチーマ、バッファ、モップ、ポリッシャ、スイーパ、バニッシャなどを含み得る。
本開示のシステムおよび方法の様々な実施態様および変形例の詳細な説明がここで提供される。本明細書で考察される多くの実施例は、ロボット床清掃機の文脈にあるが、本明細書に含まれる記載されたシステムおよび方法は、他のロボットにおいて使用できることが理解されよう。本明細書に記載された技術の無数の他の例示的な実施態様または使用は、本開示の内容が与えられれば、当業者によって容易に想定されるであろう。
有利なことに、本開示のシステムおよび方法は、少なくとも、(i)自律的にナビゲートするロボットにおいて動的経路計画を提供し、(ii)リソース(例えば、エネルギー、燃料、洗浄液など)の改善されたおよび/または効率的な利用を可能にすることができるナビゲーション環境における効率を高め、(iii)ロボットをナビゲートする際の処理電力、エネルギー、時間、および/または他のリソースの消費を減らすことができる計算効率を提供する。他の利点は、本開示の内容を与えられた当業者が容易に認識することができる。
例えば、自律的にナビゲートすることができる多くの現在のロボットは、目標への経路および/またはパスをナビゲートするようにプログラムされている。これらの経路をナビゲートするために、これらのロボットは、パス計画(例えば、グローバルソリューション)を作成することができる。また、これらのロボットは、その周囲の小さな範囲(例えば、数メートル程度)に局所的な計画を立てることができ、そこで、ロボットは、(典型的には、物体が検出されると方向転換する基本コマンドを用いて)ロボットのセンサによって検出された障害物の周りをどのようにナビゲートするかを決定することができる。ロボットはパターン内の空間をトラバースすることができ、例えば、停止、減速、左右への逸脱などによって、ロボットのセンサによって検出された障害物を回避することができる。しかしながら、多くの現在の適用では、そのようなトラバースおよび回避は複雑になり得、ロボットは、望ましくない結果(例えば、停止または衝突)を受け得るか、および/またはより複雑な状況によってナビゲートすることができない可能性がある。場合によっては、そのような現在の適用は、計算コストも高くなり得、および/または実行が遅くなり得、ロボットを不自然に行動させてしまう。
有利なことに、本明細書に開示されるシステムおよび方法を使用して、ロボットは、そのプログラミングから逸脱することができ、より効率的なパスに追従したり、および/または障害物を回避するためにより複雑な調整を行う。本明細書に記載のいくつかの実施態様では、そのような動きは、より効率的でより高速な手法で決定することができ、これはまた、ロボットがより複雑なパスを計画するにつれてより自然に見える。
当業者は、本明細書で言及されるように、ロボットが多くの異なる外観/形態を有し得ることを理解するであろう。図1は、本開示の原理による、ロボットの例示的な本体形態の様々な側面図を示す。これらは、様々な本体形態をさらに例示することを意味するが、本明細書に記載のロボットを任意の特定の本体形態に制限することを意味しない非限定的な例である。例えば、本体形態100は、ロボットが直立型の店舗用掃除機である例を示す。本体形態102は、ロボットが人体に実質的に同様の外観を有する人型ロボットである例を示す。本体形態104は、ロボットがプロペラを有するドローンである例を示す。本体形態106は、ロボットが車輪および客室を有する車両外形を有する例を示す。本体形態108は、ロボットがローバーである例を示す。
本体形態110は、ロボットが電動式床洗浄機である例であり得る。本体形態112は、シート、ペダル、およびステアリングホイールを有する電動式床洗浄機であり得、この場合、ユーザは、本体形態112が掃除をするときに、車のように本体形態112を運転することができるが、本体形態112はまた、自律的に動作してもよい。例えば、フォークリフト、タグボート、ボート、飛行機などのようなロボット化することができる産業用機械を含む他の本体形態がさらに企図される。
図2Aは、本開示のいくつかの実施態様による、パス206をナビゲートするロボット202の俯瞰図である。ロボット202は、様々な物体208、210、212、218を含み得る環境200を通って自律的にナビゲートすることができる。ロボット202は、初期の場所から始まり、終了の場所で終わることができる。図示のように、初期位置と終了位置は実質的に同じであり、実質的に閉ループを示している。しかしながら、他の場合では、初期の場所と終了の場所は実質的に同じではなく、開ループを形成することがある。
実例として、いくつかの実施態様では、ロボット202は、例えば、ロボット式床洗浄機、真空掃除機、スチーマ、モップ、バニッシャ、スイーパ、および同様のものなどのロボット式床清掃機であり得る。環境200は、清掃が望まれる床を有する空間とすることができる。例えば、環境200は、店舗、倉庫、オフィスビル、家、貯蔵施設などであり得る。物体208、210、212、218のうちの1つ以上は、床の上にあり得るか、そうでなければロボットが環境200を通ってナビゲートする能力を妨げ得る、棚、ディスプレイ、物体、物品、人、動物、または任意の実体もしくは物であってもよい。経路206は、自律的にロボット202によって移動される清掃パスであり得る。経路206は、経路206の例に示すように、物体208、210、212、218の間を進むパスを辿ることができる。例えば、物体208、210、212、218が店内の棚である場合、ロボット202は、店の通路に沿って動き得、通路の床を清掃することができる。しかしながら、限定はしないが、開放床領域に沿っておよび/または(例えば、ユーザが床清掃機を手動で操作している場合には)ユーザが床を清掃するために使用することができる任意の清掃パスに沿って、前後に進むことなどの他の経路もまた企図される。場合によっては、ロボット202は一部分の上を複数回通ることができる。したがって、経路は、それ自体の上に一部重なることがある。したがって、経路206は、単に例示的な例として意図されており、例示されているものとは異なって現れてもよい。また、図示のように、環境200の一例が示されているが、環境200は(例えば、部屋または建物の任意のサイズ、構成、およびレイアウトの)任意の数の形態および配置をとることができ、本開示の例示的な説明によって限定されない。
経路206において、ロボット202は、ロボット202の開始点であり得る、初期の場所から開始することができる。その後、ロボット202は、ロボットが清掃を停止することができる終了の場所に到達するまで、経路206に沿って自律的に(例えば、ユーザからの制御を殆どまたは全く伴わずに)清掃することができる。終了の場所は、ユーザによって指定されてもよく、および/またはロボット202によって決定されてもよい。場合によっては、終了の場所は、経路206内の場所であって、その後にロボット202が床の所望の範囲を清掃した経路206内の場所とすることができる。前述のように、経路206は、閉ループまたは開ループとすることができる。例示的な例として、終了の場所は、例えば、一時的な駐車場、保管室/クローゼット、および同様の場所などの、ロボット202用の保管のための場所とすることができる。場合によっては、終了の場所は、ロボット202のためのユーザトレーニングおよび/またはプログラミングタスクがトレーニングおよび/またはプログラミングを停止した点とすることができる。
床清掃機(例えば、床洗浄機、真空掃除機など)の文脈では、ロボット202は、経路206に沿ったあらゆる点で清掃してもよいし、または清掃しなくてもよい。実例として、ロボット202がロボット式床洗浄機である場合、ロボット202の清掃システム(例えば、水流、清掃ブラシなど)は、経路206の一部分でのみ動作し、他の部分では動作しないことがある。例えば、ロボット202は、特定の行動(例えば、方向転換、水のオン/オフ、水の噴霧、真空のオン/オフ、真空ホース位置の移動、アームの動き、リフトの上げ/下げ、センサの移動、センサのオン/オフ等)を示された経路に沿って(例えば、経路206に沿って一定の方向にまたは特定のシーケンスで移動しながら)特定の位置および/または軌跡と関連付けることができる。床清掃機の文脈では、そのような関連付けは、床の一部の領域だけが清掃されるが他の領域および/または一部の軌跡においては清掃されない場合、望ましいであろう。このような場合、ロボット202は、ユーザがロボット202に対して清掃をするように示した領域では清掃システムをオンにし、そうでなければ清掃システムをオフにすることができる。
図2Bは、ロボット202が環境200内で経路206を自律的に移動する前の、ロボット202への経路216を示すユーザの俯瞰図を示す。経路216を示す際に、ユーザは、初期の場所でロボット202を始動させることができる。その後、ロボット202は、物体208、210、212、218の周りを進むことができる。ロボット202は、前述したように、終了の場所で停止することができる。場合によっては(図示されているように)、自律的にナビゲートされた経路206は、示された経路216と全く同じであり得る。場合によっては、経路206は、経路216と正確に同じではないかもしれないが、実質的に同様であり得る。例えば、ロボット202が経路206をナビゲートするときに、ロボット202は、ロボットのセンサを使用して、ロボットがその周囲のものとの関係においてどこにあるかを検知する。そのような検知は、場合によっては不正確であり得、それにより、ロボット202に、示されたおよびロボット202が従うようにトレーニングされた正確な経路をナビゲートさせない可能性がある。場合によっては、例えば、棚の移動および/または棚上の物品の変化などの環境200への小さな変化によって、ロボット202が経路206を自律的にナビゲートするときにロボット202を経路216から逸脱させる可能性がある。別の例として、前述のように、ロボット202は、経路206を自律的にナビゲートするときに、物体の周りに方向転換したり、速度を落としたりすることによって、物体を回避することができる。これらの物体は、ユーザが経路216を示したときには存在しなかった(また、回避されなかった)かもしれない。例えば、物体は、一時的なおよび/または一過性のものでもよく、および/または環境200に対する一過性のおよび/または動的な変化でもよい。別の例として、ユーザは、経路216を示す手際が悪かった可能性がある。例えば、ユーザは、壁、棚、物体、障害物などに衝突させたおよび/またはぶつけた可能性がある。別の例として、ユーザが経路216を示している間に障害物が存在したが、ロボット202が経路206を自律的にナビゲートするときには存在しなかった可能性がある。これらの場合、ロボット202は、壁、棚、物体、障害物などに衝突することおよび/またはぶつかることなどの、ロボットが修正することができる1つ以上の行動をメモリ(例えば、メモリ302)に記憶することができる。次いで、ロボット202が(例えば、経路206として)示された経路216を自律的にナビゲートするとき、ロボット202は、そのような行動を修正し得、ロボットが自律的にナビゲートしているときにそれらを実行しない(例えば、壁、棚、物体、障害物などに衝突しないおよび/またはぶつからない)ことができる。このようにして、ロボット202は、例えば、示された経路などのナビゲート可能な経路の少なくとも一部を自律的にナビゲートしないことを決定することができる。いくつかの実施態様では、ナビゲート可能な経路の少なくとも一部を自律的にナビゲートしないことの決定は、いつ障害物および/または物体を回避するかの決定を含む。
前述のように、ユーザが経路216を示すとき、ユーザは、経路216に沿って清掃するために(その後、ロボット202が経路206を自律的に清掃するときに)、ロボット202をどこで(例えば、どの位置で)、および/またはどの軌道に沿ってトレーニングするために、ロボット202の清掃システムをオン/オフにするか、または他の行動を実行することができる。ロボットはこれらの行動をメモリ302に記録し、後で自律的にナビゲートするときにそれらの行動を実行することができる。これらの行動は、ロボット202が実行し得る任意の行動、例えば、方向転換、水のオン/オフ、水の噴霧、真空のオン/オフ、真空ホース位置の移動、アームの動き、リフトの上げ/下げ、センサの移動、センサのオン/オフなどを含み得る。
図3は、本開示のいくつかの原理による、ロボット202の機能ブロック図である。図3に示されるように、ロボット202は、コントローラ304、メモリ302、ユーザインターフェースユニット308、外部受容センサユニット306、固有受容センサユニット310、および通信ユニット312、ならびに他の構成要素およびサブコンポーネント(例えば、それらのうちのいくつかは図示されてない可能性がある)を含み得る。特定の実施態様が図3に示されているが、本開示の内容が与えられれば当業者には容易に明らかであるように、アーキテクチャは特定の実施態様において変更され得ることが理解される。
コントローラ304は、ロボット202によって実行される様々な動作を制御することができる。コントローラ304は、1つ以上のプロセッサ(例えば、マイクロプロセッサ)および他の周辺機器を含むことができる。本明細書で使用されるように、プロセッサ、マイクロプロセッサ、および/またはデジタルプロセッサは、限定はしないが、デジタル信号プロセッサ(「DSP」)、縮小命令セットコンピュータ(「RISC」)、汎用(「CISC」)プロセッサ、マイクロプロセッサ、ゲートアレイ(例えば、フィールドプログラマブルゲートアレイ(「FPGA」))、プログラマブルロジックデバイス(「PLD」)、再構成可能コンピュータファブリック(「RCF」)、アレイプロセッサ、セキュアマイクロプロセッサ、専用プロセッサ(例えば、ニューロモルフィック(neuromorphic)プロセッサ)、および特定用途向け集積回路(「ASIC」)などの任意の種類のデジタル処理装置を含むことができる。そのようなデジタルプロセッサは、単一の集積回路ダイに含まれてもよく、複数のコンポーネントにわたって分散されてもよい。
コントローラ304は、メモリ302に動作可能および/または通信可能に結合されてもよい。メモリ302は、読み取り専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、不揮発性ランダムアクセスメモリ(「NVRAM」)、プログラム可能な読み取り専用メモリ(「PROM」)、電気的消去可能でプログラム可能な読み取り専用メモリ(「EEPROM」)、ダイナミックランダムアクセスメモリ(「DRAM」)、モバイルDRAM、シンクロナスDRAM(「SDRAM」)、ダブルデータレートSDRAM(「DDR/2 SDRAM」)、拡張データ出力(「EDO」)RAM、高速ページモードRAM(「FPM」)、低遅延DRAM(「RLDRAM」)、スタティックRAM(「SRAM」)、「フラッシュ」メモリ(例えば、NAND/NOR)、メモリスタメモリ、擬似スタティックRAM(「PSRAM」)などを含むが、これらに限定されない、デジタルデータを格納するように構成された任意の種類の集積回路または他の記憶デバイスを含み得る。メモリ302は、コントローラ304に命令およびデータを提供することができる。例えば、メモリ302は、ロボット202を動作させるために処理装置(例えば、コントローラ304)によって実行可能な、複数の命令が格納された非一時的なコンピュータ可読記憶媒体であってもよい。場合によっては、命令は、処理装置によって実行されたときに、処理装置に本開示に記載の様々な方法、特色、および/または機能を行わせるように構成することができる。したがって、コントローラ304は、メモリ302内に格納されたプログラム命令に基づいて論理演算および算術演算を行うことができる。
いくつかの実施態様では、外部受容センサユニット306は、ロボット202内のおよび/またはロボット202の周囲の特性を検出し得るシステムおよび/または方法を含むことができる。外部受容センサユニット306は、複数のセンサおよび/またはセンサの組み合わせを含むことができる。外部受容センサユニット306は、ロボット202の内部または外部にあるセンサ、ならびに/あるいは部分的に内部にあるおよび/または部分的に外部にあるコンポーネントを有することができる。場合によっては、外部受容センサユニット306は、例えば、ソナー、LIDAR、レーダ、レーザ、カメラ(ビデオカメラ、赤外線カメラ、3Dカメラなどを含む)、飛行時間(「TOF」)カメラ、アンテナ、マイクロホン、および/または当技術分野で既知の任意の他のセンサなどの外部受容センサを含み得る。いくつかの実施態様では、外部受容センサユニット306は、生の測定値(例えば、電流、電圧、抵抗ゲートロジックなど)および/または変換された測定値(例えば、距離、角度、障害物における検出点など)を収集することができる。外部受容センサユニット306は、少なくとも部分的には測定値に基づいてデータを生成することができる。そのようなデータは、例えば、行列、アレイなどのデータ構造に格納することができる。いくつかの実施態様では、センサデータのデータ構造は、画像と呼ばれることがある。
いくつかの実施態様では、固有受容センサユニット310は、ロボット202の内部特性を測定することができるセンサを含むことができる。例えば、固有受容センサユニット310は、温度、電力レベル、状態、および/またはロボット202の任意の他の特性を測定することができる。場合によっては、固有受容センサユニット310は、ロボット202のオドメトリ(odometry)を決定するように構成することができる。例えば、固有受容センサユニット310は、例えば、加速度計、慣性測定ユニット(「IMU」)、オドメータ、ジャイロスコープ、スピードメータ、カメラ(例えば、視覚的なオドメトリを使用)、時計/タイマ、および同様のものなどのセンサを備え得る固有受容センサユニット310を含むことができる。ロボット202の自律ナビゲーションを容易にするオドメトリ。このオドメトリは、初期の場所に対するロボット202の位置を含み得る(例えば、位置がロボットの場所、変位、および/または向きを含み、時には本明細書で使用されるような姿勢という用語と交換可能であり得る場合)。いくつかの実施態様では、固有受容センサユニット310は、生の測定値(例えば、電流、電圧、抵抗ゲートロジックなど)および/または変換された測定値(例えば、距離、角度、障害物における検出点など)を収集することができる。そのようなデータは、例えば、行列、アレイなどのデータ構造に格納することができる。いくつかの実施態様では、センサデータのデータ構造は、画像と呼ばれることがある。
いくつかの実施態様において、ユーザインターフェースユニット308は、ユーザがロボット202と対話できるように構成することができる。例えば、ユーザインターフェース308は、タッチパネル、ボタン、キーパッド/キーボード、ポート(例えば、ユニバーサルシリアルバス(「USB」)、デジタルビジュアルインターフェース(「DVI」)、ディスプレイポート、イーサーター(E-Sata)、ファイアワイヤ(Firewire)、ピーエス2(PS/2)、シリアル(Serial)、ブイジーエイ(VGA)、スカジー(SCSI)、オーディオポート、高精細マルチメディアインターフェース(HDMI)、パーソナルコンピュータメモリカード国際協会(「PCMCIA」)ポート、メモリカードポート(例えば、セキュアデジタル(「SD」)およびミニSD)、および/またはコンピュータ可読媒体用のポート)、マウス、ローラーボール、コンソール、バイブレータ、オーディオトランスデューサ、および/または、ワイヤレスでもしくはワイヤを通じて結合されていようとなかろうと、ユーザがデータおよび/またはコマンドを入力および/または受信するための任意のインターフェースを含むことができる。ユーザインターフェースユニット308は、限定ではないが、液晶ディスプレイ(「LCD」)、発光ダイオード(「LED」)ディスプレイ、LED・LCDディスプレイ、面内スイッチング(「IPS」)ディスプレイ、陰極線管、プラズマディスプレイ、高精細(「HD」)パネル、4Kディスプレイ、レティナ(retina)ディスプレイ、有機LEDディスプレイ、タッチスクリーン、サーフェイス、キャンバス、ならびに/あるいは視覚的表現のための当技術分野において既知の任意のディスプレイ、テレビ、モニタ、パネル、および/またはデバイスを含むことができる。いくつかの実施態様では、ユーザインターフェースユニット308は、ロボット202の本体上に配置することができる。いくつかの実施態様において、ユーザインターフェースユニット308は、ロボット202の本体から離れて配置され得るが、(例えば、送信機、受信機、および/または送受信機を含む通信ユニットを介して)ロボット202に直接的に、または(ネットワーク、サーバ、および/またはクラウドを通じて)間接的に通信可能に結合され得る。
いくつかの実施態様では、通信ユニット312は、1つ以上の受信機、送信機、および/または送受信機を含むことができる。通信ユニット312は、例えば、ブルートゥース(BLUETOOTH(登録商標))、ジグビー(ZIGBEE(登録商標))、ワイファイ(Wi-Fi)などの伝送プロトコル、誘導無線データ伝送、無線周波数、無線伝送、無線周波数識別(「RFID」)、近距離通信(「NFC」)、赤外線、ネットワークインターフェース、例えば、3G(3GPP/3GPP2)などのセルラ技術、高速ダウンリンクパケットアクセス(「HSDPA」)、高速アップリンクパケットアクセス(「HSUPA」)、時分割多重アクセス(「TDMA」)、符号分割多元接続(「CDMA」)(例えば、IS-95A、広帯域符号分割多元接続(「WCDMA」)など)、周波数ホッピングスペクトラム拡散(「FHSS」)、直接シーケンス拡散スペクトル「DSSS」)、移動体通信のためのグローバルシステム(「GSM」)、パーソナルエリアネットワーク(「PAN」)(例えば、PAN/802.15)、マイクロ波アクセスの世界的な相互運用性(「WiMAX」)、802.20、ロングタームエボリューション(Long Term Evolution、「LTE」)(例えば、LTE/LTE-A)、時分割LTE(「TD-LTE」)、移動体通信のためのグローバルシステム(「GSM」)、狭帯域/周波数分割多元接続(「FDMA」)、直交周波数分割多重(「OFDM」)、アナログセルラ、セルラデジタルパケットデータ(「CDPD」)、衛星システム、ミリ波もしくはマイクロ波システム、音響、赤外線(例えば、赤外線データ協会規格(「IrDA」))、および/または無線データ伝送の任意の他の形式などを送信/受信するように構成され得る。
本明細書で使用される際、ネットワークインターフェースは、限定しないが、ファイアワイヤ(FireWire)(例えば、FW400、FW800、FWS800T、FWS1600、FWS3200など)、ユニバーサルシリアルバス(「USB」)(例えば、USB1.X、USB2.0、USB3.0、USB Type-Cなど)、イーサネット(例えば、10/100、10/100/1000(ギガビットイーサネット)、10-Gig-Eなど)、同軸同盟技術によるマルチメディア(「MoCA」)、コアックスシーズ(Coaxsys)(例えば、TVNET(商標)、無線周波数チューナ(例えば、帯域内(in-band)または帯域外(OOB)、ケーブルモデムなど)、Wi-Fi(802.11)、WiMAX(例えば、WiMAX(802.16))、PAN(例えば、PAN/802.15)、セルラ(例えば、3G、LTE/LTE-A/TD-LTE/TD-LTE、GSMなど)、IrDAファミリなどのものを含む、コンポーネント、ネットワーク、またはプロセスとの任意の信号、データ、またはソフトウェアインターフェースを含むことができる。本明細書で使用される際、Wi-Fiは、IEEE 802.11規格、IEEE 802.11規格の変形、IEEE 802.11規格に関連する規格(例えば、802.11a/b/g/n/ac/ad/af/ah/ai/aj/aq/ax/ay)、および/または他の無線規格のうちの1つ以上を含むことができる。
通信ユニット312はまた、例えば、信号線および接地を有する任意のケーブルなどの有線接続を介して伝送プロトコルを送受信するように構成することもできる。例えば、そのようなケーブルは、イーサネットケーブル、同軸ケーブル、ユニバーサルシリアルバス(「USB」)、ファイアワイヤ、および/または当技術分野において既知の任意の接続を含むことができる。そのようなプロトコルは、例えば、コンピュータ、スマートフォン、タブレット、データキャプチャシステム、移動体通信ネットワーク、クラウド、サーバ、および同様のものなどの外部システムと通信するために通信ユニット312によって使用され得る。通信ユニット312は、数字、文字、英数字、および/または記号を含む信号を送受信するように構成することができる。場合によっては、例えば、128ビットまたは256ビット鍵などのアルゴリズム、および/または例えば、AES(Advanced Encryption Standard)、RSA、DES(Data Encryption Standard)、トリプルDESなどの規格に準拠する他の暗号化アルゴリズムを使用して、信号を暗号化することができる。通信ユニット312は、ステータス、コマンド、および他のデータ/情報を送受信するように構成することができる。例えば、通信ユニット312は、ユーザオペレータと通信して、そのユーザがロボット202を制御することを可能にすることができる。通信ユニット312は、ロボット202がデータ、ステータス、コマンド、および他の通信をサーバに送信することを可能にするために、サーバ/ネットワークと通信することができる。サーバはまた、ロボット202を遠隔的に監視および/または制御するために使用することができるコンピュータ(複数可)および/または装置(複数可)に通信可能に結合することもできる。通信ユニット312はまた、ロボット202用のサーバから更新(例えば、ファームウェアまたはデータ更新)、データ、ステータス、コマンド、および他の通信を受信することもできる。
いくつかの実施態様では、1つもしくは複数のコンポーネントおよび/またはサブコンポーネントは、ロボット202から遠隔でインスタンス化することができる。例えば、マッピングおよび位置特定ユニット262は、クラウド内に配置されてもよく、および/または通信ユニット312を介してロボット202に接続されてもよい。接続は直接的でもよく、ならびに/あるいはサーバおよび/またはネットワークを介してもよい。したがって、本開示の機能の実施態様はまた、通信ユニット312を使用してデータを転送することができ、さらにプロセスの1つ以上の部分を遠隔で完了することができる遠隔対話を含むと理解されるべきである。
図4Aは、本開示のいくつかの実施態様による、ロボット202と障害物402との間の相互作用を示す上面図である。経路216をナビゲートする際に、ロボット202は障害物402に遭遇する可能性がある。障害物402は、経路部分404として示されているロボット202のパスを妨げる可能性がある。ロボットが経路部分404を辿り続ける場合、ロボットは障害物402と衝突する可能性がある。しかしながら、状況によっては、外部受容センサユニット306および/または固有受容センサユニット310を使用して、ロボット202は、障害物402と衝突する前に停止することができる。
障害物402とのこの相互作用は、本開示による実施態様の利点を示す。図4Bは、本開示の実施態様による、グローバル層406、中間層408、およびローカル層410の図である。グローバル層406、中間層408、およびローカル層410は、メモリ302および/またはコントローラ304のうちの1つ以上においてインスタンス化されたハードウェア層および/またはソフトウェア層とすることができる。グローバル層406は、グローバルマッピングおよびルーティングを実施するソフトウェアおよび/またはハードウェアを含むことができる。例えば、高レベルマッピングは、環境200の地図を含むことができる。地図は、経路216の表記も含むことができ、ロボット202が環境200内の空間をナビゲートすることを可能にする。
いくつかの実施態様では、グローバル層406は、グローバルプランナを含むことができる。このようにして、グローバル層406は、(例えば、二次元座標、三次元座標、四次元座標などのグローバル座標における)ロボット202の場所、ロボット202がその目標に到達するために取るべきであるパス、および/または高レベル(例えば、長距離)計画のうちの1つ以上を決定することができる。このようにして、ロボット202は、ある場所から別の場所へ移動するためのその一般的なパスおよび/または方向を決定することができる。
ローカル層410は、局所的な計画を実施するソフトウェアおよび/またはハードウェアを含む。例えば、ローカル層410は、動きの局所的な制約の中で操縦するために構成された短距離計画を含むことができる。ローカル層410は、外部受容センサユニット306から受信したデータを処理し得、ロボット202の近くの障害物および/または物体の存在ならびに/あるいは位置決めを決定し得る。例えば、物体が外部受容センサユニット306(例えば、ライダ(LIDAR)、ソナー、カメラなど)のセンサの範囲内にある場合、ロボット202は、その物体を検出することができる。ローカル層410は、回転、前進、後退等のためにアクチュエータを制御するようなことによって、物体の周りをナビゲートするためにモータ機能を計算および/または制御することができる。場合によっては、ローカル層410における処理は、計算集約的であり得る。例えば、ローカル層410は、外部受容センサユニット306および/または固有受容センサユニット310のセンサからデータを受信することができる。次いで、ローカル層410は、(例えば、ステアリングコラムを左右に回転させるためにモータを使用して、および/またはロボットを前方に押すためにモータを使用して)外部受容センサユニット306によって検出される物体を回避するためにモータ機能を決定することができる。ローカル層410とグローバル層406との相互作用により、ロボット202は、その目標への経路に概ね沿って移動しながら局所的な調整を行うことが可能になり得る。
しかしながら、状況によっては、ローカル層410の正確なモータ機能の計算集約的なレベルではなく、グローバル層406によって計算されるものよりも細かいレベルで調整を行うことが望ましい場合がある。したがって、中間層408は、ロボット202が物体の周りをナビゲートするときにロボット202の中間的な調整を決定することができるハードウェアおよび/またはソフトウェアを含むことができる。
中間層408において、ロボット202は、その環境内の物体および/または障害物をどのように回避するかを計画することができる。場合によっては、中間層408は、グローバル層406からのグローバルパスプランナからの少なくとも部分的なパスおよび/または経路を用いて初期化され得る。
物体(例えば、障害物、壁など)は、ロボット202が衝突する可能性があるものをもたらすので、物体および/または障害物は、ロボット202に反発力を及ぼし得る。場合によっては、ロボット202に反発する物体によって、ロボット202は、それらの物体および/または障害物の周りの衝突のないパスに沿ってナビゲートすることができる。
図4Cは、本開示のいくつかの実施態様による、動的経路計画のための例示的な方法450のプロセスフロー図である。いくつかの実施態様では、方法450は、中間層408によっておよび/またはコントローラ304によって実行され得る。ブロック452は、1つ以上の経路姿勢を含む経路を取得することを含み得る。場合によっては、この経路は、ロボット202によって作成されてもよく、および/またはロボット202にアップロードされてもよい。場合によっては、その経路は、グローバル層406から中間層408に渡され得る。ブロック454は、第1の経路姿勢を選択することを含み得る。ブロック456は、第1の経路姿勢について、環境内の物体からの反発力を決定することを含み得る。ブロック458は、第1の経路姿勢について、他の経路姿勢からの引力を決定することを含み得る。ブロック460は、反発力および引力による第1の経路姿勢の並進および/または回転を決定することを含み得る。ブロック462は、並進および/または回転した経路姿勢を考慮した補間を実行することを含み得る。このプロセスおよびその他は、本開示全体を通して説明される。
実例として、図4Dは、本開示のいくつかの実施態様による、物体によって及ぼされる反発力と共に経路姿勢414および416を示す。例えば、経路上の点は、例えば、経路姿勢などの、パスに沿った離散化された場所であり得、その経路全体にわたるロボット202の姿勢を示す。場合によっては、そのような離散化された場所は、例えば、粒子や気泡などの、関連する蓋然性も有し得る。経路姿勢は、ロボット202が経路上を移動するであろう位置および/または向きを識別することができる。平面的な適用では、経路姿勢は(x、y、θ)座標を含み得る。場合によっては、θは、平面におけるロボットの方位になり得る。経路姿勢は、ロボット202の経路上で規則的または不規則的に離間し得る。場合によっては、方法450のブロック452に記載されているように、中間層は、1つ以上の経路姿勢を含む経路をグローバル層406から取得することができる。いくつかの実施態様では、経路姿勢は、シーケンスを形成することができ、ロボット202は、経路上の連続する経路姿勢の間を移動する。例えば、経路姿勢414および416は、ロボット202が経路姿勢414に移動し、次いで経路姿勢416に移動する一連の経路姿勢であり得る。
例示的な例として、経路姿勢414および416は、経路部分404に沿った離散化された場所を示す。この例示的な例は、実質的に同様のフットプリントを有する、ロボット202のように形作られた経路姿勢414および416を示す。経路姿勢414および416のフットプリントは、ロボットの衝突に関してどれだけ保守的であることが望ましいかに応じてサイズを調整することができる。より小さいフットプリントは衝突のより高い可能性を示し得るが、そのようなより小さいフットプリントは、ロボット202が自律的にナビゲートするときに可能であるべきより多くの領域をクリアすることを可能にし得る。より大きなフットプリントは衝突の可能性を減少させるかもしれないが、ロボット202は、そうでなければそれが可能であるべきであるいくつかの場所を自律的に通過しないであろう。フットプリントは、経路姿勢(例えば、経路姿勢414および416)に示されるように、ロボット202のフットプリントのサイズ(例えば、スケール)を設定するフットプリントパラメータによって予め決定することができる。場合によっては、ロボット202の経路姿勢のサイズを非対称的に制御する複数のフットプリントパラメータがあり得る。
図4Dでは、経路姿勢414および416が図示され、説明されているが、経路全体を通して任意の数の経路姿勢があり得ることが当業者によって理解されるべきであり、本開示の実施態様の説明は、これらの経路姿勢に適用され得る。有利なことに、ロボット202のように形作られた経路姿勢414および416(例えば、ロボット202のフットプリント)を有することは、ロボット202が、移動中にロボット202が適合し得る場所を決定することを可能にし得る。フットプリントパラメータ(複数可)は、ロボット202がどのようにそれ自体を投影するかを調整するために使用することができる。例えば、経路姿勢414および/または416において使用されるより大きいフットプリントは、少なくとも部分的には、ロボット202を物体からさらに遠くに移動させることができるという点で、より保守的であり得る。対照的に、より小さいフットプリントは、少なくとも部分的には、ロボット202を物体の近くに移動させることができる。経路姿勢(例えば、経路姿勢414および416)は、互いに異なるサイズであってもよい。実例として、例えば、方向転換中などの特定のシナリオでは、ロボット202がより保守的であることが望ましい場合がある。したがって、この実例では、方向転換中の経路姿勢のフットプリントは、直線上の経路姿勢のフットプリントよりも大きくなり得る。経路姿勢のそのような動的再成形は、経路姿勢のサイズを他の経路姿勢に対する経路姿勢の回転、あるいは経路姿勢の並進および/または回転の変化に応じて設定することによって実行することができる。経路上の経路姿勢(例えば、経路姿勢414および/または416)のうちの1つ以上はまた、ロボット202の形状以外の異なる形状であってもよい。例えば、経路姿勢は、円形、正方形、三角形、および/または任意の他の形状であってもよい。
方法450からブロック454に記載されているように、第1の経路姿勢として経路姿勢414または416のいずれかを見ることができる。しかしながら、例示の目的のために、ならびに本開示の記載された実施態様の幅を例示するために、経路姿勢414および416は一緒に記載される。
物体に沿った点(例えば、マッピングによって決定された点、外部受容センサユニット306のセンサによって検出された点など)は、ロボット202の経路姿勢(例えば、経路姿勢414および416)に反発力を及ぼすことができる。このようにして、物体は、概念的には、ロボット202がそれらに衝突するのを防ぐことができる。場合によっては、これらの点は、少なくとも部分的には、姿勢および/または姿勢の組を表すことができる。例えば、矢印412は、物体210に沿った点からの反発力を示している。
いくつかの実施態様では、物体によって点によって及ぼされる力は、経路姿勢414および416上の各点がそれらに実質的に同様の力を及ぼし得るという点で均一であり得る。しかしながら、他の実施態様では、経路姿勢414および416上の物体の点によって及ぼされる力は均一ではなくてもよく、力関数に基づいて変化してもよい。
実例として、力関数(例えば、反発力関数)は、場合によっては、物体によって経路姿勢414または416上の点に及ぼされる反発力を少なくとも部分的に決定することができる。例えば、力関数を方法450のブロック456で使用して、第1の経路姿勢(例えば、経路姿勢414および416の第1の経路姿勢)に対する環境内の物体からの反発力を決定することができる。いくつかの実施態様では、力関数は、物体が経路姿勢414および416に対して現れる場所の特性に依存し得る。さらにまた、力関数は、経路姿勢414および416の点によって経験した力(例えば、経路姿勢414および416の表面上の1つ以上の点、経路姿勢414および416の中心、経路姿勢414および416の質量の中心、ならびに/あるいは経路姿勢414および416の任意の点および/またはその周辺)を表すことができる。力は、それらの方向および大きさに依存し得るので、反発力(および/または引力)はベクトルとすることができる。場合によっては、反発力が経路姿勢に回転力を及ぼすことがあり得、これは、トルク力に現れ得る。
例えば、反発力およびトルク力は、パスに沿うn個の異なる姿勢において計算することができる。場合によっては、これらのn個の異なる姿勢を経路姿勢と関連付けることができる。各姿勢は、フットプリント内のm個の点で構成することができる。場合によっては、これらのm個の点は、経路姿勢上の点であり得る。
場合によっては、複数の点が、経路姿勢414および416に反映されるようにロボット202の本体を画定し得、ロボット202の本体の一部および/またはロボット202の実質的に全てを代表的に網羅する。例えば、15~20個の点をロボット202の表面および/または内部の全体にわたって分布させ、経路姿勢414および416に反映させることができる。ただし、場合によっては、点が少ないことがあり得る。図4Fは、点418などの経路姿勢414上の例示的な点を示す。各点は、少なくとも部分的には、経路姿勢414の周囲における物体によってそれにかかる力(例えば、反発力)を経験し得る。
有利なことに、力を経験し得る経路姿勢414および416の本体上の複数の点を有することによって、経路姿勢414および416の点は、互いに対して並進および/または回転することができ、少なくとも部分的には、経路姿勢414および416の再配置(例えば、並進および/または回転)を引き起こす。経路姿勢414および416のこれらの並進および/または回転は、ロボット202によってナビゲートされる経路の変形を引き起こし得る。
経路姿勢上の異なる点が力の異なる大きさおよび方向を経験すると、ねじり力が発生し得る。したがって、ねじり力は、経路姿勢を回転させ得る。場合によっては、所定のパラメータは、経路姿勢414および416が経験するねじれを少なくとも部分的に定義することができる。例えば、所定のねじれパラメータは、経路姿勢414または416上の点で経験する回転力についての乗数を含むことができる。この所定のねじれパラメータは、経路姿勢414または416とパスとの不整合に起因する力を示し得る。場合によっては、所定のねじれパラメータは、力が反発的であるかまたは凝集的であるかどうかに基づいて変化し得る。
図4Dに戻ると、力関数が部分的に依存する特性は、経路姿勢414および416に対する物体上の点の位置であり得る。距離は、少なくとも部分的には、外部受容センサユニット306のセンサに基づいて決定され得る。第1の実施例として、(例えば、図示のように障害物210および212上の点などのような経路姿勢414および416のフットプリント内にはない)ロボット202の外部の物体上の点から経路姿勢414および416に及ぼされる反発力は、関数r(d)∝1/dによって少なくとも部分的に特徴付けられ得る。式中、rは物体上の点の反発力であり、dは、物体上の点と経路姿勢414または経路姿勢416上の点との間の距離である。このように、物体上の点の反発力は、物体上の点と経路姿勢414または経路姿勢416上の点との間の距離に反比例する。有利なことに、そのような関数は、経路姿勢414および416に近い物体が、より多くの反発力を及ぼすことを可能にし、それによって、遠方の物体よりもロボット202の進路に潜在的にさらに強く影響を及ぼして、衝突を回避する。
場合によっては、所定の反発距離閾値を経路姿勢414および経路姿勢416上の点と物体上の点との間の距離に設定することができる。この所定の反発距離閾値は、経路姿勢414および経路姿勢416のいずれか上の点と、物体上の点が経路姿勢414および416のいずれか上の点に反発力(および/またはねじり力)を及ぼすことができるその物体上の点との間の最大距離の少なくとも一部を示すことができる。したがって、物体上の点が、超える(または閾値の定義に応じて、等しいおよび/または超える)(例えば、経路姿勢414および経路姿勢416のいずれか上の点からの)距離である場合、反発力および/またはねじり力は、ゼロまたは実質的にゼロであり得る。有利なことに、所定の反発距離閾値を有することにより、場合によっては、物体上のいくつかの点が経路姿勢414および416上の点に力を及ぼすのを防ぐことができる。このようにして、所定の反発距離があるとき、ロボット202は特定の物体に近づくことができ、および/または遠くの物体によって影響されないことができる。
第2の実施例として、反発力が、経路姿勢414および416の内側の(例えば、経路姿勢414および416のフットプリント内の)点から経路姿勢414および416に及ぼされる。例えば、物体402は、経路姿勢416の内側に現れる部分420を有する。これらの場合では、異なる力関数が、部分420内の物体402の点によって部分420内の経路姿勢416の点に及ぼされ得る。いくつかの実施態様では、この力は、関数r(d)∝dによって少なくとも部分的に特徴付けられ得、式中、変数は上記の通りである。有利なことに、内部物体に対して異なる力関数を定義することによって、経路姿勢416は非対称的に移動することができ、回転をもたらす。
いくつかの実施態様では、力関数は、例えば、物体の形状、材料、色、および/または任意の他の特性などの物体の他の特性にも依存し得る。これらの特性は、当技術分野において既知の方法に従って、外部受容センサ306のセンサのうちの1つ以上によって決定することができる。有利なことに、特性を考慮に入れることは、ロボット202が物体の周りをどのようにナビゲートすべきかについてさらに情報を与え得る。場合によっては、コストマップを使用して、これらの特性に基づいて追加の反発値を計算することができる。
例えば、物体の形状は、衝突の関連する反動の少なくとも一部を示し得る。実例として、人型形状は、人間を示すことができる。そのように、この形状で検出された物体は、パスを人型形状からさらに遠ざけるために、経路姿勢414および416により大きな反発力を加えることができる。別の実施例として、衝突が発生した場合、物体の形状は、(例えば、物体またはロボット202に対する)損傷の増大の一部を示すことができる。実例として、尖った物体、細い物体、不規則な物体、所定の形状(例えば、瓶、ランプ、ディスプレイなど)、および/または任意の他の形状は、損傷の増大の結果物の少なくとも一部を示すことができる。サイズは、考慮に入れられ得る形状の別の特性であり得る。例えば、衝突が発生した場合、より小さい物体は、より壊れやすいかもしれないが、より大きい物体は、ロボット202により大きな損傷をもたらす可能性がある。サイズについては、力関数は、物体のサイズを考慮に入れることができるので、それらの物体上の点は、経路姿勢414および416上の点を期待通りに比例的に反発する。実例として、経路姿勢414がより大きな物体とより小さな物体との間にある場合、より大きな物体の点が力関数に少なくとも部分的に定義されるように比較的大きな反発力を有するならば、経路姿勢414は、より小さな物体の比較的近くに押されることになる。より小さな物体の点が力関数に少なくとも部分的に定義されるように比較的大きな反発力を有するならば、経路姿勢414は、より大きな物体の比較的近くに押されることになる。したがって、経路姿勢414および416に対する反発力は、形状に少なくとも部分的に基づいて調整することができる。形状は、外部受容センサユニット306のセンサによって少なくとも部分的に検出することができる。別の例示的な実施例として、壁が、コストマップにおいて識別され得、反発力は、それらのサイズおよび形状に起因して壁と関連付けられ得る。
いくつかの実施態様では、力関数はまた、物体の材料にも依存し得る。例えば、衝突が発生した場合、特定の材料が、より多くの損傷の少なくとも一部を示すことができる。実例として、ガラス、磁器、鏡、および/または他の壊れやすい材料は、衝突が発生した場合においてより損傷を受けていることを実証し得る。鏡の場合など、いくつかの場合では、材料は、外部受容センサユニット306のセンサのエラーを引き起こすことがある。したがって、場合によっては、ロボット202がそのような物体からさらに離れてナビゲートすることが望ましいことがあり、それは力関数に反映され得る(例えば、いくつかの材料の物体上の点によって及ぼされる反発力を他の材料に対して増大させる)。
いくつかの実施態様では、色が、外部受容センサユニット306のセンサによって検出され得る。力関数は、物体および/または物体上の点の色に少なくとも部分的に依存し得る。例えば、環境内の特定の物体は、ロボット202(または場合によっては人間)がそれらの物体に注意を払うべきであることを少なくとも部分的に示すための特定の色(例えば、赤、黄色など)であってもよい。したがって、場合によっては、ロボット202がそのような物体からさらに離れてナビゲートすることが望ましい場合があり、それは力関数に反映され得る。
いくつかの実施態様では、力関数は、物体の場所などの他の要因に依存し得る。例えば、(例えば、グローバル層406から渡されるような)地図の特定の領域が、特性を有し得る。実例として、地図(例えば、コストマップ)のいくつかの領域は、ロボット202が通過すべきではない領域であり得る。また、ロボット202が(例えば物体の中などに)アクセスできないために入ることができない場所もあり得る。したがって、場合によっては、力関数は、そのような場所を考慮するように調整され得る。いくつかの実施態様では、力関数は、それらの場所内の点に対して、経路姿勢414および416上の点に力を加えない(または実質的に力を加えない)ようにさせることができる。有利なことに、力は、ロボット202が行かないであろう(例えば、物体の内部などの)領域を反映することはない。対照的に、いくつかの実施態様では、そのような場所は、障害物として扱うことができ、経路姿勢414および416に反発力を及ぼす。有利なことに、そのような反発力を有することにより、ロボット202がそのような領域に進入しようと試みるのを防ぐことができる。
いくつかの実施態様では、経路姿勢414および416への全ての力が反発的とは限らない。例えば、経路姿勢(例えば、経路姿勢414および416)上の点は、引力(例えば、凝集力)を及ぼすことができ、それは、経路姿勢を互いに向かって少なくとも部分的に引き寄せることができる。図4Eは、本開示のいくつかの実施態様による、経路姿勢414と416との間の引力を示す。矢印は、経路姿勢が経路部分404に沿って互いに向かって引っ張られることを少なくとも部分的に示す。有利なことに、経路姿勢間の凝集力は、少なくとも部分的には、グローバル層406によって計画されたパスと実質的に同様のパス(例えば、物体がない場合にロボット202がその周りをナビゲートするために追従すべきである元来示された経路などの、元の経路と実質的に同様の経路)の方へとロボット202を辿らせることができる。
凝集力は、例えば、経路姿勢/粒子間の間隔距離、パスの滑らかさ、ロボット202がパスを辿るのがどれほど望ましいかなどの、経路の特性に依存し得る力関数(例えば、凝集力関数)によって設定することができる。場合によっては、凝集力関数は、少なくとも部分的には、所定の凝集乗数に基づくことができ、その所定の凝集乗数は、少なくとも部分的には、経路姿勢を共に引っ張る力を決定することができる。所定の凝集乗数がより低いと、経路部分404の凝集強さ(例えば、それに向けての経路姿勢の引き付け)を減少させ得、場合によっては、ロボット202によって移動されるパスの滑らかさを損なう可能性がある。場合によっては、連続した経路姿勢のみが、互いの点に凝集力を及ぼす。他の場合には、全ての経路姿勢が、互いに凝集力を及ぼす。さらに他の場合では、一部の経路姿勢が、他の経路姿勢に凝集力を及ぼす。どの経路姿勢が互いに凝集力を及ぼすように構成されているかの決定は、ケースバイケースで変化し得るいくつかの要因に依存し得る。例えば、経路が円形の場合、全ての経路姿勢が、その円を締めるように互いに凝集力を及ぼすことが望ましい場合がある。別の実施例として、経路が複雑である場合には、特定の複雑な経路が、連続した経路姿勢のみに互いに凝集力を及ぼさせることが望ましい場合がある。この制限により、ロボット202がより多くの方向転換をすること、および/またはより予測可能な結果を得ることが可能になり得る。なぜなら、他の位置決めされた経路姿勢が過度にそれに影響を及ぼさないからである。上記実施例の間の複雑さにおいて、経路姿勢のうちの一部が凝集力を及ぼす場合がある。別の実施例として、経路姿勢の数もまた要因となり得る。経路上に多数の経路姿勢があると、それら全てが互いに凝集力を及ぼす場合、予期しない結果をもたらす可能性がある。経路姿勢がより少ない場合、これは問題にならないかもしれず、経路姿勢のうちの全てまたは一部が力を及ぼし得る。場合によっては、所定の凝集力距離閾値が存在してもよく、その場合、第1の経路姿勢上の点が、第2の経路姿勢上の点から所定の凝集力距離閾値よりも大きい(またはそれが定義される方法に応じて、より大きいもしくはそれに等しい)距離である場合、凝集力は、ゼロまたは実質的にゼロであり得る。
いくつかの実施態様では、凝集力関数と反発力関数は同じ力関数であり得る。他の実施態様では、凝集力関数と反発力関数は別個のものである。方法450からのブロック458に従って、凝集力関数を用いて他の経路姿勢からの引力を決定することができる。いくつかの実施態様では、凝集力と反発力の両方が、経路姿勢のねじれを結果として生じる(例えば、回転を引き起こす)ことができる。
中間層408を参照して説明されるように、経路姿勢414および416は、異なる引力および反発力を経験する可能性がある。いくつかの実施態様では、力は、配列で保存され得る。例えば、反発力、ねじり力、凝集力などを示す力の配列が存在し得る。
場合によっては、ある点からの個々の力および/または力の群をオンまたはオフにできるオン/オフパラメータを使用するなどして、力を切り替えることができる。例えば、オン/オフパラメータは、1つの値が力をオンにし、別の値が力をオフにする2値とすることができる。このようにして、例えば、経路姿勢からの物体の距離、点が物体の内部にあるかまたは立ち入り禁止区域にあるかどうか、経路姿勢間の距離などに基づいて、いくつかの力をオフにすることができる。
結局、経路姿勢414および416にかかる正味の力は、経路姿勢414および416のうちの1つ以上を再配置することができる。例えば、経路姿勢414および416は変位され得る。経路姿勢414および416は、任意の方向において、それらの正味の力が実質的にゼロおよび/または最小になるまで変位(例えば、並進および/または回転)し得る。このようにして、経路姿勢414および416は、ロボット202が物体(例えば、障害物402)を回避するために移動するように調整された経路を少なくとも部分的に示す場所に変位され得る。反発力および引力に起因する経路姿勢の並進および/または回転は、方法450のブロック460に従って決定することができる。
経路姿勢414および416の変位を決定するために行われる異なる調整があり得る。例えば、場合によっては、経路姿勢414および416上の全ての力を考慮する代わりに、引力のみが考慮されてもよい。有利なことに、そのようなシステムは、ロボット202が静的パスに固執することを可能にし得る。経路姿勢414および416の変位に少なくとも部分的に基づいて、ロボット202は、経路プランナ用に新しいパスを設定することができる。新しいパスでは、ロボット202がそのパスを移動するときの軌道は、ロボット202の中心などのロボット202上の点を表すことができる。
ロボット202が経路姿勢414および416の変位を決定した後、ロボット202は、移動するパスを決定することができる。例えば、経路姿勢414および416の位置(例えば、場所および/または向き)に基づいて、ロボット202は、経路姿勢414および416におよび/または経路姿勢414および416間に、ならびに/あるいはその現在の場所から任意の他の経路姿勢にナビゲートするためのパスを決定することができる。場合によっては、ロボット202は、少なくとも部分的にパスを画定しながら、継続的な(例えば、連続した)経路姿勢の間を順番に移動する。例えば、この決定は、ロボット202がそれらの点の間を移動することができるパスを考慮に入れた経路姿勢間の補間に少なくとも部分的に基づくことができる。多くの場合、線形補間が使用され得る。補間の実行を使用することによって、ロボット202は、方法450のブロック462に従って並進および/または回転した経路姿勢を考慮に入れることができる。
図5は、本開示のいくつかの実施態様による、経路姿勢414および416間の補間を示す図の俯瞰図である。本明細書で説明されるように、経路姿勢414および416にかかる力に基づいて、経路姿勢414および416は変位している。図示のように、経路姿勢414は、並進のみならず回転もしている。並進は、例えば、インチ、フィート、メートル、または任意の他の測定単位(例えば、メートル法、米国、または他の測定系での測定値)などの標準単位、ならびに/あるいは例えば、目盛り(tick)、ピクセル、センサの範囲のパーセンテージ、および同様のものなどの相対/非絶対単位で測定され得る。回転は、度数、ラジアンなどで測定することができる。同様に、経路姿勢416も並進および/または回転されている。特に、経路姿勢414および416の両者が、障害物402を通り抜ける。経路姿勢414および416は、ロボット202によって移動されるパスに沿った離散化された場所を表すので、ロボット202は、それらの間を補間して、ロボット202が取るべきパスを決定することができる。補間された姿勢502A~502Dは、経路姿勢414と経路姿勢416との間を移動したパスを示す。特に、ロボット202はまた、経路姿勢へおよび/または経路姿勢間で移動するために他のパス(図示せず)を補間してもよい。
補間された姿勢502A~502Dは、経路姿勢414および416のうちの1つ以上のフットプリントと実質的に同様の関連するフットプリントを有することができる。場合によっては、図5に示されるように、補間された姿勢502A~502Dは、補間された経路姿勢であり得る。したがって、補間された姿勢502A~502Dは、ロボット202が、ある経路に沿うであろう位置および/または向きを表すことができる。有利なことに、これにより、補間されたパスは、ロボット202が適合するであろう場所にロボット202を誘導することを可能にし得る。さらに、補間された姿勢502A~502Dのうちのいずれか1つのフットプリントと物体(例えば、障害物402、物体210、または物体212)との間に重なりがないように、補間された姿勢502~502Dを決定することができ、それによって、衝突を回避する。
補間された姿勢502A~502Dはまた、経路姿勢414から経路姿勢416に到達するための回転および/または並進を考慮して決定され得る。例えば、ロボット202は、経路姿勢414の姿勢および経路姿勢416の姿勢を決定することができる。次いで、ロボット202は、経路姿勢414および経路姿勢416の姿勢間の差異を見つけることができ、次いで、経路姿勢414の姿勢から経路姿勢416の姿勢にどのように到達するかを決定することができる。例えば、ロボット202は、ロボット202が経路姿勢414から経路姿勢416へと回転および並進するように、補間された姿勢502A~502Dの間で回転および並進を分配することができる。場合によっては、ロボット202は、補間姿勢502A~502Dの間で回転および並進を実質的に等しく分配することができる。例えば、N個の補間位置がある場合、ロボット202は、経路姿勢414および416の姿勢の場所および回転の差異を、これらのN個の補間位置にわたって実質的に均等に分割することができる。あるいは、ロボット202は、経路姿勢414および416の姿勢の場所および/または回転の差異を、これらのN個の補間位置にわたって不均等に分割してもよい。有利なことに、均等な分割は、ロボット202が経路姿勢414から経路姿勢416へと円滑に移動することを可能し得る。しかしながら、不均等な分割は、いくつかの領域において他の領域と比較してより細かい動きを可能にすることによって、ロボット202が物体をより容易に考慮に入れて回避することを可能にし得る。例えば、補間された姿勢502A~502Dが接近する物体を回避するために、ロボット202は急な方向転換を行わなければならないであろう。したがって、その方向転換を考慮するためには、その方向転換の周りにより多く補間された姿勢が望ましいであろう。場合によっては、補間位置の数は動的にすることができ、必要に応じてN個より多いまたは少ない数の補間位置を使用することができる。
図6は、本開示のいくつかの実施態様による、ロボットの動作のための例示的な方法600のプロセスフロー図である。ブロック602は、収集されたデータに少なくとも部分的に基づいて環境の地図を作成することを含む。ブロック604は、ロボットが移動する地図内の経路を決定することを含む。ブロック606は、経路上に1つ以上の経路姿勢を生成することを含み、各経路姿勢が、経路に沿ったロボットの姿勢を示すフットプリントを含み、各経路姿勢は、その中に複数の点を有する。ブロック608は、各経路姿勢の複数の点のそれぞれにかかる力を決定することを含み、その力は、1つ以上の物体上の検出点のうちの1つ以上からの反発力、および1つ以上の経路姿勢のうちの他の経路姿勢上の複数の点のうちの1つ以上からの引力を含む。ブロック610は、各経路姿勢の各点にかかる力に応じて各経路姿勢を再配置することを含む。ブロック612は、ロボットが移動するための1つ以上の経路姿勢間に衝突のないパスを生成するために1つ以上の再配置された経路姿勢間の補間を実行することを含む。
図7は、本開示のいくつかの実施態様による、ロボットの動作のための例示的な方法700のプロセスフロー図である。ブロック702は、1つ以上のセンサからのデータを使用して環境の地図を生成することを含む。ブロック704は、地図上の経路を決定することを含み、その経路が、1つ以上の経路姿勢を含み、各経路姿勢が、経路に沿ったロボットの姿勢、サイズ、および形状の少なくとも一部を示すフットプリントを含み、各経路姿勢は、その中に複数の点を有する。ブロック706は、環境内の物体上の点から1つ以上の経路姿勢のうちの第1の経路姿勢の複数の点への反発力を計算することを含む。ブロック708は、少なくとも反発力に応じて第1の経路姿勢を再配置することを含む。ブロック710は、再配置された第1の経路姿勢と1つ以上の経路姿勢のうちの別の経路姿勢との間の補間を実行することを含む。
本明細書で使用されるように、コンピュータおよび/またはコンピューティングデバイスは、これらに限定されないが、パーソナルコンピュータ(「PC」)およびミニコンピュータか、デスクトップ、ラップトップ、もしくはそれ以外のどれか、メインフレームコンピュータ、ワークステーション、サーバ、携帯情報端末(「PDA」)、携帯型コンピュータ、埋め込み式コンピュータ、プログラマブルロジックデバイス、パーソナルコミュニケータ、タブレットコンピュータ、モバイルデバイス、ポータブルナビゲーションエイド、J2ME搭載デバイス、携帯電話、スマートフォン、パーソナル統合通信もしくはエンターテインメントデバイス、および/または一組の命令を実行し、入力してくるデータ信号を処理することが可能である任意の他のデバイスを含むことができる。
本明細書で使用されるように、コンピュータプログラムおよび/またはソフトウェアは、機能を行う任意のシーケンスまたは人間もしくは機械認識ステップを含むことができる。このようなコンピュータプログラムおよび/またはソフトウェアは、例えば、C/C++、C#、Fortran、COBOL、MATLAB(登録商標)、PASCAL、Python、アセンブリ言語、マークアップ言語(例えば、HTML、SGML、XML、VoXML)など、ならびにコモン・オブジェクト・リクエスト・ブローカ・アーキテクチャ(Common Object Request Broker Architecture:「CORBA」)、JAVA(登録商標)(J2ME、Java Beansなどを含む)、バイナリ・ランタイム環境(Binary Runtime Environment)(例えば、BREW)などを含む任意のプログラミング言語または環境でレンダリングすることができる。
本明細書で使用されるように、接続、リンク、伝送チャネル、遅延線、および/またはワイヤレスは、エンティティ間の情報交換を可能にする、任意の2つ以上のエンティティ間の(物理的または論理的/仮想的)因果関係を含むことができる。
本開示のある特定の態様は、方法の具体的な一連のステップに関して記載されているが、これらの記載は、本開示の広範な方法の単なる例示であり、特定の用途によって要求されるように変更され得ることが認識されるであろう。ある特定の状況下では、ある特定のステップが不要またはオプションになることがあり得る。さらに、ある特定のステップまたは機能が、開示された実施態様に追加されてもよく、または2つ以上のステップの実行順序が、入れ替えられてもよい。そのような変形は全て、本明細書に開示および特許請求されている開示の範囲内に包含されると見なされる。
上記の詳細な説明は、様々な実施態様に適用される本開示の新規な特色を示し、記載し、指摘したが、例示されたデバイスまたはプロセスの形態および詳細における様々な省略、置換、および変更が、本開示から逸脱することなくなされ得ることは当業者により理解される。前述の説明は、本開示を実施することについて現在企図されている最良の様式である。この説明は、決して限定することを意味するものではなく、むしろ本開示の一般原理の例示として解釈されるべきである。本開示の範囲は、特許請求の範囲を参照して判定されるべきである。
本開示を図面および前述の説明において詳細に例示および記載してきたが、そのような例示および説明は説明的または例示的であり、限定的ではないと見なされるべきである。本開示は、開示された実施形態に限定されない。開示された実施形態に対する変形は、図面、本開示および添付の特許請求の範囲の検討から、特許請求された開示を実施する際に当業者によって理解され達成され得る。
本開示のある特定の特色または態様を説明するときに特定の用語を使用することは、その用語が関連付けられている、本開示の特色または態様の任意の具体的な特徴を含むよう限定されるように、その用語が本明細書において再定義されていることを意味すると解釈されるべきではない。本出願において使用される用語および語句、ならびにその変形は、とりわけ添付の特許請求の範囲において、他に明示的に述べられていない限り、限定とは対照的に無制限として解釈されるべきである。前記の例として、用語「含む」は、「非限定的に含む」または「含むがそれに限定されない」などを意味するものとして読まれるべきであり、本明細書で使用される場合、用語「備える(comprising)」は、「含む(including、containing)」または「を特徴とする(characterized by)」と同義であり、包括的または無制限のものであり、追加の記載のない要素または方法ステップを排除するものではなく、用語「有する(having)」は、「少なくとも有する」として解釈されるべきであり、用語「などの(such as)」は、「などの、これらに限定されない」と解釈されるべきであり、用語「含む(includes)」は、「含むがそれに限定されない」として解釈されるべきであり、用語「例(example)」は、議論の中の項目の例示的な実例を提供するために使用され、その包括的または限定的なリストではなく、「例であるが、限定されない」と解釈されるべきであり、「既知の(known)」、「通常の(normal)」、「標準的な(standard)」、および同様な意味の用語などの形容詞は、記載の項目を、所与の期間に、または所与の時間において利用可能な項目に限定するものとして解釈されるべきではなく、代わりに今または将来の任意の時間に利用可能または既知となり得る既知の、通常の、または標準的な技術を包含するものとして理解されるべきであり、「好ましくは(preferably)」、「好ましい(preferred)」、「所望の(desired)」、または「望ましい(desirable)」などの用語、および同様な意味の語の使用は、本開示の構造または機能にとって特定の特徴が非常に重要である、不可欠である、またはさらには重要であることを示唆するものとして解釈されるべきではなく、代わりに特定の実施形態で使用され得るまたはされなくてもよい代替的または追加的な特徴を強調することを単に意図するに過ぎないと解釈されるべきである。同様に、接続詞「および(and)」に繋げられた項目の群は、それらの項目の各々および、1つ1つがその群内に存在することを要求するものとして読まれるべきではなく、むしろ、特に明記しない限り、「および/または」として読まれるべきである。同様に、接続詞「または(or)」に繋げられた項目の群は、そのグループ間の相互排他性を必要とするものとして読まれるべきではなく、むしろ、特に明記しない限り、「および/または」として読まれるべきである。「約(about)」または「およそ(approximate)」などの用語は同義語であり、その用語によって修飾された値がそれに関連する理解された範囲を有することを示すために使用され、その範囲は±20%、±15%、±10%、±5%、または±1%であり得る。「実質的に(substantially)」という用語は、結果(例えば、測定値)が目標値に近いことを示すために使用され、ここでは、近いとは、結果が、その値の80%以内、その値の90%以内、その値の95%以内、またはその値の99%以内であることを意味し得る。また、本明細書で使用されるとき、「定義された(defined)」または「決定された(determined)」は、「事前定義された(predefined)」もしくは「所定の(predetermined)」、および/またはさもなければ決定された値、条件、閾値、測定値などを含み得る。

Claims (20)

  1. 経路に沿って操縦するためのロボットであって、
    環境内の1つ以上の物体上の検出点を含む、前記ロボットに近接した前記環境に関するデータを収集するように構成された、前記ロボットに結合された1つ以上のセンサと、
    コントローラであって、
    前記ロボットが移動する地図上の経路を決定することであって、前記地図が前記環境に対応し、前記ロボットに結合された少なくとも1つ以上のセンサによって生成されており;前記経路が、少なくとも第1の点と第2の点とを含む複数の個別の点を含み、前記複数の点の各々が、前記ロボットのそれぞれの姿勢に対応し、前記ロボットの前記それぞれの姿勢には複数の点が中に配置されており、前記それぞれの姿勢が、前記ロボットの位置および向きの少なくとも1つに対応する、前記決定することと、
    前記地図上にある物体上の点から各前記それぞれの姿勢の前記複数の点にかかる反発力を計算することと、
    を行うようにコンピュータ可読命令を実行するように構成された、前記コントローラと、を備え
    前記それぞれの姿勢が前記ロボットのフットプリントに対応し、前記フットプリントが、小さいフットプリントと大きいフットプリントとの間で調整可能であるように構成されており、前記小さいフットプリントが前記物体との衝突の高い可能性を有し、前記大きいフットプリントが前記物体との衝突の低い可能性を有し、前記ロボットの前記フットプリントが、動的に再度形作られるように構成されていることを特徴とする、前記ロボット。
  2. 前記ロボットの前記それぞれの姿勢と後に続く前記ロボットのそれぞれの姿勢とが前記経路上で規則的または不規則的に互いに離間しており、それにより前記それぞれの姿勢及び前記後に続くそれぞれの姿勢が前記経路に沿ってシーケンスを形成する、請求項1に記載のロボット。
  3. 前記物体上の前記点からの前記反発力が、前記ロボットが前記物体に衝突するのを防ぎ、前記物体からの前記反発力が前記それぞれの姿勢に対して均一であり、前記反発力が、前記物体が前記それぞれの姿勢に相対して位置決めされた場所の特性に依存する、請求項1に記載のロボット。
  4. 前記それぞれの姿勢の前記複数の点が、前記反発力を経験するように構成されており、前記複数の点が、前記それぞれの姿勢の再配置に応じて並進および回転することができる、請求項1に記載のロボット。
  5. 前記コントローラが、
    前記それぞれの姿勢と後に続くそれぞれの経路姿勢との間で補間を実行し、前記ロボットが移動するために、前記それぞれの姿勢と前記後に続くそれぞれの経路姿勢との間で衝突のない経路を生成するように、前記コンピュータ可読命令を実行するようにさらに構成されている、請求項1に記載のロボット。
  6. 前記コントローラが、
    前記複数の点の各々の点に対する前記反発力に応じて前記それぞれの姿勢と後に続くそれぞれの姿勢とを再配置するように、前記コンピュータ可読命令を実行するようにさらに構成されている、請求項1に記載のロボット。
  7. 環境内のロボットの動的ナビゲーション及び動的経路計画のための方法であって、
    前記ロボットのために地図上の経路を決定することであって、前記経路が、1つ以上の経路姿勢を含み、各経路姿勢が、前記経路に沿った前記ロボットの姿勢および形状の少なくとも一部を示すフットプリントを含み、各経路姿勢には、複数の点が中に配置されており;前記地図が前記環境に対応し、前記ロボット上の少なくとも1つ以上のセンサによって生成されており;前記経路が、少なくとも第1の点と第2の点とを含む複数の個別の点を含み、前記複数の点の各々が、前記ロボットのそれぞれの姿勢に対応し、前記ロボットの前記それぞれの姿勢には、複数の点が中に配置されており、前記それぞれの姿勢が、前記ロボットの位置および向きの少なくとも1つに対応する、前記決定することと、
    前記環境内の物体上の点から前記1つ以上の経路姿勢のうちの第1の経路姿勢の前記複数の点への反発力を計算することと、
    を含み
    前記それぞれの姿勢が前記ロボットのフットプリントに対応し、前記フットプリントが、小さいフットプリントと大きいフットプリントとの間で調整可能であるように構成されており、前記小さいフットプリントが前記物体との衝突の高い可能性を有し、前記大きいフットプリントが前記物体との衝突の低い可能性を有し、前記ロボットの前記フットプリントが、動的に再度形作られるように構成されている、ことを特徴とする、前記方法。
  8. 前記ロボットの前記それぞれの姿勢及び後に続く前記ロボットのそれぞれの姿勢が前記経路上で規則的または不規則的に互いに離間しており、それにより前記それぞれの姿勢及び前記後に続くそれぞれの姿勢が前記経路に沿ってシーケンスを形成する、請求項に記載の方法。
  9. 前記物体上の前記点からの前記反発力が、前記ロボットが前記物体に衝突するのを防ぎ、前記物体からの前記反発力が前記それぞれの姿勢に対して均一であり、前記反発力が、前記物体が前記それぞれの姿勢に相対して位置決めされた場所の特性に依存する、請求項に記載の方法。
  10. 前記それぞれの姿勢の前記複数の点が、前記反発力を経験するように構成されており、前記複数の点が、前記それぞれの姿勢の再配置に応じて並進および回転することができる、請求項に記載の方法。
  11. 前記それぞれの姿勢と後に続くそれぞれの経路姿勢との間で補間を実行し、前記ロボットが移動するために、前記それぞれの姿勢と前記後に続くそれぞれの経路姿勢との間で衝突のない経路を生成することをさらに含む、請求項に記載の方法。
  12. 前記複数の点の各々の点に対する前記反発力に応じて前記それぞれの姿勢と後に続くそれぞれの姿勢とを再配置することをさらに含む、請求項7に記載の方法。
  13. 複数のコンピュータ可読命令が格納された非一時的なコンピュータ可読媒体であって、少なくとも1つのプロセッサによって実行されるとき、
    ロボットのために地図上の経路を決定することであって、前記経路が、1つ以上の経路姿勢を含み、各経路姿勢が、前記経路に沿った前記ロボットの姿勢および形状の少なくとも一部を示すフットプリントを含み、各経路姿勢には、複数の点が中に配置されており;前記地図が環境に対応し、前記ロボット上の少なくとも1つ以上のセンサによって生成されており;前記経路が、少なくとも第1の点と第2の点とを含む複数の個別の点を含み、前記複数の点の各々が、前記ロボットのそれぞれの姿勢に対応し、前記ロボットの前記それぞれの姿勢には、複数の点が中に配置されており、前記それぞれの姿勢が、前記ロボットの位置および向きの少なくとも1つに対応する、前記決定することと、
    前記環境内の物体上の点から前記1つ以上の経路姿勢のうちの第1の経路姿勢の前記複数の点への反発力を計算することと、を行なわせるように前記少なくとも1つのプロセッサを構成し
    前記それぞれの姿勢が前記ロボットのフットプリントに対応し、前記フットプリントが、小さいフットプリントと大きいフットプリントとの間で調整可能であるように構成されており、前記小さいフットプリントが前記物体との衝突の高い可能性を有し、前記大きいフットプリントが前記物体との衝突の低い可能性を有し、前記ロボットの前記フットプリントが、動的に再度形作られるように構成されていることを特徴とする、前記非一時的なコンピュータ可読媒体。
  14. 前記ロボットの前記それぞれの姿勢及び後に続く前記ロボットのそれぞれの姿勢が前記経路上で規則的または不規則的に互いに離間しており、それにより前記それぞれの姿勢及び前記後に続くそれぞれの姿勢が前記経路に沿ってシーケンスを形成する、請求項13に記載の非一時的なコンピュータ可読媒体。
  15. 前記物体上の前記点からの前記反発力が、前記ロボットが前記物体に衝突するのを防ぎ、前記物体からの前記反発力が前記それぞれの姿勢に対して均一であり、前記反発力が、前記物体が前記それぞれの姿勢に相対して位置決めされた場所の特性に依存する、請求項13に記載の非一時的なコンピュータ可読媒体。
  16. 前記それぞれの姿勢の前記複数の点が、前記反発力を経験するように構成されており、前記複数の点が、前記それぞれの姿勢の再配置に応じて並進および回転することができる、請求項13に記載の非一時的なコンピュータ可読媒体。
  17. 前記少なくとも1つのプロセッサが、
    前記それぞれの姿勢と後に続くそれぞれの経路姿勢との間で補間を実行し、前記ロボットが移動するために、前記それぞれの姿勢と前記後に続くそれぞれの経路姿勢との間で衝突のない経路を生成するように、前記コンピュータ可読命令を実行するようにさらに構成されている、請求項13に記載の非一時的なコンピュータ媒体。
  18. 前記少なくとも1つのプロセッサが、
    前記複数の点の各々の点に対する前記反発力に応じて前記それぞれの姿勢と後に続くそれぞれの姿勢とを再配置するように、前記コンピュータ可読命令を実行するようにさらに構成されている、請求項13に記載の非一時的なコンピュータ媒体。
  19. コンピュータ可読命令が記憶されたメモリと、
    処理装置とを含む、環境内のロボットの動的ナビゲーション及び動的経路計画のためのシステムであって、
    前記処理装置が、前記コンピュータ可読命令に、
    前記請求項7~12のいずれかに記載される方法を実行するように構成される、前記システム。
  20. 少なくとも1つのプロセッサによって環境内のロボットの動的ナビゲーション及び動的経路計画のための方法を実行させるプログラムであって、
    前記少なくとも1つのプロセッサに実行されるとき、
    前記請求項7~12のいずれかに記載される方法を実行させる、前記プログラム。
JP2019523827A 2016-11-02 2017-10-31 経路に沿って操縦するためのロボットと、環境内のロボットの動的ナビゲーション及び動的経路計画のためのシステムと、ロボットの動的ナビゲーション及び動的経路計画のための方法と、その非一時的なコンピュータ媒体及びそのプログラム Active JP7061337B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/341,612 US10001780B2 (en) 2016-11-02 2016-11-02 Systems and methods for dynamic route planning in autonomous navigation
US15/341,612 2016-11-02
PCT/US2017/059379 WO2018085294A1 (en) 2016-11-02 2017-10-31 Systems and methods for dynamic route planning in autonomous navigation

Publications (3)

Publication Number Publication Date
JP2020502630A JP2020502630A (ja) 2020-01-23
JP2020502630A5 JP2020502630A5 (ja) 2020-12-17
JP7061337B2 true JP7061337B2 (ja) 2022-04-28

Family

ID=62021299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019523827A Active JP7061337B2 (ja) 2016-11-02 2017-10-31 経路に沿って操縦するためのロボットと、環境内のロボットの動的ナビゲーション及び動的経路計画のためのシステムと、ロボットの動的ナビゲーション及び動的経路計画のための方法と、その非一時的なコンピュータ媒体及びそのプログラム

Country Status (7)

Country Link
US (3) US10001780B2 (ja)
EP (1) EP3535630A4 (ja)
JP (1) JP7061337B2 (ja)
KR (1) KR102528869B1 (ja)
CN (1) CN110023866B (ja)
CA (1) CA3042532A1 (ja)
WO (1) WO2018085294A1 (ja)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760576A (zh) * 2016-01-27 2016-07-13 首都师范大学 一种基于共形几何代数的机械臂运动规划的形式化分析方法及系统
KR102526083B1 (ko) * 2016-08-30 2023-04-27 엘지전자 주식회사 이동 단말기 및 그의 동작 방법
US10429196B2 (en) * 2017-03-08 2019-10-01 Invensense, Inc. Method and apparatus for cart navigation
US10293485B2 (en) * 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
FR3065853B1 (fr) * 2017-04-27 2019-06-07 Peugeot Citroen Automobiles Sa Procede et dispositif de controle de la transmission de donnees d’un vehicule a un equipement de communication
US10422648B2 (en) * 2017-10-17 2019-09-24 AI Incorporated Methods for finding the perimeter of a place using observed coordinates
KR102500634B1 (ko) * 2018-01-05 2023-02-16 엘지전자 주식회사 안내 로봇 및 그의 동작 방법
CN108742346A (zh) * 2018-06-27 2018-11-06 杨扬 遍历工作环境的方法及建立栅格地图的方法
KR20210066791A (ko) 2018-07-16 2021-06-07 브레인 코퍼레이션 로봇식 장치의 타이트 턴을 위한 경로 계획을 최적화하는 시스템 및 방법
US11092458B2 (en) * 2018-10-30 2021-08-17 Telenav, Inc. Navigation system with operation obstacle alert mechanism and method of operation thereof
US10809734B2 (en) 2019-03-13 2020-10-20 Mobile Industrial Robots A/S Route planning in an autonomous device
CN110101340A (zh) * 2019-05-24 2019-08-09 北京小米移动软件有限公司 清洁设备、清洁操作执行方法、装置和存储介质
US11565411B2 (en) * 2019-05-29 2023-01-31 Lg Electronics Inc. Intelligent robot cleaner for setting travel route based on video learning and managing method thereof
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
US11592299B2 (en) 2020-03-19 2023-02-28 Mobile Industrial Robots A/S Using static scores to control vehicle operations
CN113741550B (zh) * 2020-05-15 2024-02-02 北京机械设备研究所 移动机器人跟随方法和系统
CN112015183B (zh) * 2020-09-08 2022-02-08 安徽工程大学 一种能耗约束下在具有凹凸地形中移动机器人避障方法
US11927972B2 (en) * 2020-11-24 2024-03-12 Lawrence Livermore National Security, Llc Collision avoidance based on traffic management data
CN112595324B (zh) * 2020-12-10 2022-03-29 安徽工程大学 一种能耗最优下最优节点轮式移动机器人路径规划方法
WO2022140969A1 (zh) * 2020-12-28 2022-07-07 深圳市优必选科技股份有限公司 动态生成脚印集方法、存储介质及双足机器人
CN112833899B (zh) * 2020-12-31 2022-02-15 吉林大学 一种用于无人环卫车的全覆盖路径规划方法
CN112971621A (zh) * 2021-03-11 2021-06-18 河北工业大学 室内智能清洁系统及控制方法
US11940800B2 (en) * 2021-04-23 2024-03-26 Irobot Corporation Navigational control of autonomous cleaning robots
US20230071338A1 (en) * 2021-09-08 2023-03-09 Sea Machines Robotics, Inc. Navigation by mimic autonomy
CN114355925B (zh) * 2021-12-29 2024-03-19 杭州海康机器人股份有限公司 路径规划方法、装置、设备及计算机可读存储介质
CN114431122B (zh) * 2022-01-27 2023-03-24 山东交通学院 一种道路绿化洒水智能控制系统及方法
CN114947655A (zh) * 2022-05-17 2022-08-30 安克创新科技股份有限公司 机器人控制方法、装置、机器人和计算机可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061442A (ja) 2008-09-04 2010-03-18 Murata Machinery Ltd 自律移動装置
JP2011107984A (ja) 2009-11-17 2011-06-02 Toyota Motor Corp 経路探索システム、経路探索方法、経路探索プログラム、及び移動体

Family Cites Families (191)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5280179A (en) 1979-04-30 1994-01-18 Sensor Adaptive Machines Incorporated Method and apparatus utilizing an orientation code for automatically guiding a robot
US4638445A (en) 1984-06-08 1987-01-20 Mattaboni Paul J Autonomous mobile robot
US5121497A (en) 1986-03-10 1992-06-09 International Business Machines Corporation Automatic generation of executable computer code which commands another program to perform a task and operator modification of the generated executable computer code
US4763276A (en) 1986-03-21 1988-08-09 Actel Partnership Methods for refining original robot command signals
US4852018A (en) 1987-01-07 1989-07-25 Trustees Of Boston University Massively parellel real-time network architectures for robots capable of self-calibrating their operating parameters through associative learning
JPS63229503A (ja) * 1987-03-19 1988-09-26 Fujitsu Ltd ロボツトの姿勢制御方法
EP0496785B1 (en) 1989-10-17 1997-03-26 The Perkin-Elmer Corporation Robotic interface
US5640323A (en) 1990-02-05 1997-06-17 Caterpillar Inc. System and method for operating an autonomous navigation system
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5673367A (en) 1992-10-01 1997-09-30 Buckley; Theresa M. Method for neural network control of motion using real-time environmental feedback
CA2081519C (en) 1992-10-27 2000-09-05 The University Of Toronto Parametric control device
KR0161031B1 (ko) 1993-09-09 1998-12-15 김광호 로보트의 위치오차보정장치
US5602761A (en) 1993-12-30 1997-02-11 Caterpillar Inc. Machine performance monitoring and fault classification using an exponentially weighted moving average scheme
US7418346B2 (en) * 1997-10-22 2008-08-26 Intelligent Technologies International, Inc. Collision avoidance methods and systems
KR100439466B1 (ko) 1995-09-11 2004-09-18 가부시키가이샤 야스가와덴끼 로봇제어장치
AU3477397A (en) 1996-06-04 1998-01-05 Paul J. Werbos 3-brain architecture for an intelligent decision and control system
DE19745656C2 (de) * 1997-10-16 2000-06-21 Daimler Chrysler Ag Pralldämpfer für ein Kraftfahrzeug
US6366293B1 (en) 1998-09-29 2002-04-02 Rockwell Software Inc. Method and apparatus for manipulating and displaying graphical objects in a computer display device
US6243622B1 (en) 1998-10-16 2001-06-05 Xerox Corporation Touchable user interface using self movable robotic modules
EP1037134A2 (en) 1999-03-16 2000-09-20 Matsushita Electric Industrial Co., Ltd. Virtual space control data receiving apparatus and method
US6124694A (en) 1999-03-18 2000-09-26 Bancroft; Allen J. Wide area navigation for a robot scrubber
CN1161700C (zh) 1999-04-30 2004-08-11 索尼公司 网络系统
JP3537362B2 (ja) 1999-10-12 2004-06-14 ファナック株式会社 ロボットシステム用グラフィック表示装置
AU2001250802A1 (en) 2000-03-07 2001-09-17 Sarnoff Corporation Camera pose estimation
EP1195231A4 (en) 2000-03-31 2006-01-25 Sony Corp ROBOTIC DEVICE, ROBOTIC DEVICE ACTION CONTROL METHOD, EXTERNAL FORCE DETECTION DEVICE, AND EXTERNAL FORCE DETECTION METHOD
US8543519B2 (en) 2000-08-07 2013-09-24 Health Discovery Corporation System and method for remote melanoma screening
JP4765155B2 (ja) 2000-09-28 2011-09-07 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
US6678413B1 (en) 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
JP2002197437A (ja) 2000-12-27 2002-07-12 Sony Corp 歩行検出システム、歩行検出装置、デバイス、歩行検出方法
US6442451B1 (en) 2000-12-28 2002-08-27 Robotic Workspace Technologies, Inc. Versatile robot control system
JP2002239960A (ja) 2001-02-21 2002-08-28 Sony Corp ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
US20020175894A1 (en) 2001-03-06 2002-11-28 Vince Grillo Hand-supported mouse for computer input
US6917925B2 (en) 2001-03-30 2005-07-12 Intelligent Inference Systems Corporation Convergent actor critic-based fuzzy reinforcement learning apparatus and method
JP2002301674A (ja) 2001-04-03 2002-10-15 Sony Corp 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
EP1254688B1 (en) 2001-04-30 2006-03-29 Sony France S.A. autonomous robot
US6584375B2 (en) 2001-05-04 2003-06-24 Intellibot, Llc System for a retail environment
US6636781B1 (en) 2001-05-22 2003-10-21 University Of Southern California Distributed control and coordination of autonomous agents in a dynamic, reconfigurable system
JP3760186B2 (ja) 2001-06-07 2006-03-29 独立行政法人科学技術振興機構 二脚歩行式移動装置及びその歩行制御装置並びに歩行制御方法
JP4188607B2 (ja) 2001-06-27 2008-11-26 本田技研工業株式会社 二足歩行移動体の床反力推定方法及び二足歩行移動体の関節モーメント推定方法
AU2002322504A1 (en) 2001-07-13 2003-01-29 Broks Automation, Inc. Trajectory planning and motion control strategies for a planar three-degree-of-freedom robotic arm
US6710346B2 (en) 2001-08-02 2004-03-23 International Business Machines Corporation Active infrared presence sensor
US7457698B2 (en) 2001-08-31 2008-11-25 The Board Of Regents Of The University And Community College System On Behalf Of The University Of Nevada, Reno Coordinated joint motion control system
US6812846B2 (en) 2001-09-28 2004-11-02 Koninklijke Philips Electronics N.V. Spill detector based on machine-imaging
US7243334B1 (en) 2002-01-16 2007-07-10 Prelude Systems, Inc. System and method for generating user interface code
JP3790816B2 (ja) 2002-02-12 2006-06-28 国立大学法人 東京大学 人型リンク系の運動生成方法
US8010180B2 (en) 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
AUPS123702A0 (en) * 2002-03-22 2002-04-18 Nahla, Ibrahim S. Mr The train navigtion and control system (TNCS) for multiple tracks
US20040134336A1 (en) 2002-04-22 2004-07-15 Neal Solomon System, methods and apparatus for aggregating groups of mobile robotic vehicles
US7505604B2 (en) 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
EP1563348A2 (en) 2002-08-21 2005-08-17 Neal E. Solomon Systems, methods and apparatus for organizing groups of self-configurable mobile robotic agents in a multi-robotic system
AU2003900861A0 (en) 2003-02-26 2003-03-13 Silverbrook Research Pty Ltd Methods,systems and apparatus (NPS042)
JP3950805B2 (ja) 2003-02-27 2007-08-01 ファナック株式会社 教示位置修正装置
US7313279B2 (en) 2003-07-08 2007-12-25 Computer Associates Think, Inc. Hierarchical determination of feature relevancy
SE0301531L (sv) 2003-05-22 2004-11-23 Abb Ab A Control method for a robot
US7212651B2 (en) 2003-06-17 2007-05-01 Mitsubishi Electric Research Laboratories, Inc. Detecting pedestrians using patterns of motion and appearance in videos
US7769487B2 (en) 2003-07-24 2010-08-03 Northeastern University Process and architecture of robotic system to mimic animal behavior in the natural environment
KR100520049B1 (ko) * 2003-09-05 2005-10-10 학교법인 인하학원 자율이동로봇을 위한 경로계획방법
WO2005028166A1 (ja) 2003-09-22 2005-03-31 Matsushita Electric Industrial Co., Ltd. 弾性体アクチュエータの制御装置及び制御方法
US7342589B2 (en) 2003-09-25 2008-03-11 Rockwell Automation Technologies, Inc. System and method for managing graphical data
JP4592276B2 (ja) 2003-10-24 2010-12-01 ソニー株式会社 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
CN100476669C (zh) 2004-02-25 2009-04-08 学校法人立命馆 浮游移动体的控制系统
JP4661074B2 (ja) 2004-04-07 2011-03-30 ソニー株式会社 情報処理システム、情報処理方法、並びにロボット装置
DE602004028005D1 (de) 2004-07-27 2010-08-19 Sony France Sa Ein automatisiertes System zur Aktionsanwahl, sowie das Verfahren und dessen Anwendung, um Prognosemaschinen auszubilden und die Entwicklung sich selbst entwickelnder Geräte zu unterstützen
SE0402672D0 (sv) 2004-11-02 2004-11-02 Viktor Kaznov Ball robot
US7211979B2 (en) 2005-04-13 2007-05-01 The Broad Of Trustees Of The Leland Stanford Junior University Torque-position transformer for task control of position controlled robots
US7765029B2 (en) 2005-09-13 2010-07-27 Neurosciences Research Foundation, Inc. Hybrid control device
JP4876511B2 (ja) 2005-09-29 2012-02-15 株式会社日立製作所 ロジック抽出支援装置
JP5188977B2 (ja) 2005-09-30 2013-04-24 アイロボット コーポレイション 個人の相互交流のためのコンパニオンロボット
US7668605B2 (en) 2005-10-26 2010-02-23 Rockwell Automation Technologies, Inc. Wireless industrial control user interface
ATE534941T1 (de) 2005-12-02 2011-12-15 Irobot Corp Abdeckungsrobotermobilität
US7741802B2 (en) 2005-12-20 2010-06-22 Intuitive Surgical Operations, Inc. Medical robotic system with programmably controlled constraints on error dynamics
US8224018B2 (en) 2006-01-23 2012-07-17 Digimarc Corporation Sensing data from physical objects
US7576639B2 (en) 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
US8924021B2 (en) 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors
JP4320363B2 (ja) 2006-05-25 2009-08-26 豪洋 石崎 作業ロボット
KR100791382B1 (ko) 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치
WO2007143756A2 (en) * 2006-06-09 2007-12-13 Carnegie Mellon University System and method for autonomously convoying vehicles
US8843244B2 (en) * 2006-10-06 2014-09-23 Irobot Corporation Autonomous behaviors for a remove vehicle
JP4699426B2 (ja) 2006-08-08 2011-06-08 パナソニック株式会社 障害物回避方法と障害物回避移動装置
US8174568B2 (en) * 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
JP4267027B2 (ja) 2006-12-07 2009-05-27 ファナック株式会社 ロボット制御装置
EP2479627A3 (en) 2007-03-29 2013-03-06 iRobot Corporation Robot operator control unit configuration system and method
US8255092B2 (en) 2007-05-14 2012-08-28 Irobot Corporation Autonomous behaviors for a remote vehicle
JP5213023B2 (ja) 2008-01-15 2013-06-19 本田技研工業株式会社 ロボット
CN101952087B (zh) 2008-02-06 2013-01-16 松下电器产业株式会社 机器人、机器人的控制装置及控制方法
JP5181704B2 (ja) 2008-02-07 2013-04-10 日本電気株式会社 データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム
US8175992B2 (en) 2008-03-17 2012-05-08 Intelliscience Corporation Methods and systems for compound feature creation, processing, and identification in conjunction with a data analysis and feature recognition system wherein hit weights are summed
KR101261148B1 (ko) 2008-04-02 2013-05-06 아이로보트 코퍼레이션 로보틱스 시스템
JP4715863B2 (ja) 2008-05-01 2011-07-06 ソニー株式会社 アクチュエータ制御装置及びアクチュエータ制御方法、アクチュエータ、ロボット装置、並びにコンピュータ・プログラム
EP2349120B1 (en) 2008-09-04 2017-03-22 Iwalk, Inc. Hybrid terrain-adaptive lower-extremity systems
WO2010053743A1 (en) 2008-10-29 2010-05-14 The Regents Of The University Of Colorado Long term active learning from large continually changing data sets
US20100114372A1 (en) 2008-10-30 2010-05-06 Intellibot Robotics Llc Method of cleaning a surface using an automatic cleaning device
JP5242342B2 (ja) 2008-10-31 2013-07-24 株式会社東芝 ロボット制御装置
US8428781B2 (en) 2008-11-17 2013-04-23 Energid Technologies, Inc. Systems and methods of coordination control for robot manipulation
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8423182B2 (en) 2009-03-09 2013-04-16 Intuitive Surgical Operations, Inc. Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems
US8364314B2 (en) 2009-04-30 2013-01-29 GM Global Technology Operations LLC Method and apparatus for automatic control of a humanoid robot
JP4676544B2 (ja) 2009-05-29 2011-04-27 ファナック株式会社 工作機械に対してワークの供給及び取り出しを行うロボットを制御するロボット制御装置
US8694449B2 (en) 2009-05-29 2014-04-08 Board Of Trustees Of Michigan State University Neuromorphic spatiotemporal where-what machines
US8706297B2 (en) 2009-06-18 2014-04-22 Michael Todd Letsky Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same
CN102448683B (zh) 2009-07-02 2014-08-27 松下电器产业株式会社 机器人、机器人手臂的控制装置及机器人手臂的控制程序
EP2284769B1 (en) 2009-07-16 2013-01-02 European Space Agency Method and apparatus for analyzing time series data
US20110026770A1 (en) 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients
US8250901B2 (en) 2009-09-22 2012-08-28 GM Global Technology Operations LLC System and method for calibrating a rotary absolute position sensor
TW201113815A (en) 2009-10-09 2011-04-16 Primax Electronics Ltd QR code processing method and apparatus thereof
DE102009052629A1 (de) * 2009-11-10 2011-05-12 Vorwerk & Co. Interholding Gmbh Verfahren zur Steuerung eines Roboters
US8423225B2 (en) 2009-11-11 2013-04-16 Intellibot Robotics Llc Methods and systems for movement of robotic device using video signal
US8679260B2 (en) 2009-11-11 2014-03-25 Intellibot Robotics Llc Methods and systems for movement of an automatic cleaning device using video signal
US8521328B2 (en) 2009-12-10 2013-08-27 The Boeing Company Control system for robotic vehicles
TW201123031A (en) 2009-12-24 2011-07-01 Univ Nat Taiwan Science Tech Robot and method for recognizing human faces and gestures thereof
JP5506618B2 (ja) 2009-12-28 2014-05-28 本田技研工業株式会社 ロボットの制御装置
JP5506617B2 (ja) 2009-12-28 2014-05-28 本田技研工業株式会社 ロボットの制御装置
EP2533678B1 (en) 2010-02-11 2020-03-25 Intuitive Surgical Operations, Inc. System for automatically maintaining an operator selected roll orientation at a distal tip of a robotic endoscope
KR101169674B1 (ko) 2010-03-11 2012-08-06 한국과학기술연구원 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법
US8660355B2 (en) 2010-03-19 2014-02-25 Digimarc Corporation Methods and systems for determining image processing operations relevant to particular imagery
US9311593B2 (en) 2010-03-26 2016-04-12 Brain Corporation Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US8336420B2 (en) 2010-06-02 2012-12-25 Disney Enterprises, Inc. Three-axis robotic joint using four-bar linkages to drive differential side gears
FR2963132A1 (fr) 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
EP2600328B1 (en) * 2010-07-27 2017-09-06 Toyota Jidosha Kabushiki Kaisha Driving assistance device
US20120045068A1 (en) 2010-08-20 2012-02-23 Korea Institute Of Science And Technology Self-fault detection system and method for microphone array and audio-based device
KR101743926B1 (ko) * 2010-09-20 2017-06-08 삼성전자주식회사 로봇 및 그 제어방법
US8594971B2 (en) 2010-09-22 2013-11-26 Invensense, Inc. Deduced reckoning navigation without a constraint relationship between orientation of a sensor platform and a direction of travel of an object
KR101233714B1 (ko) * 2010-09-30 2013-02-18 아주대학교산학협력단 장애물 트랩을 회피하는 자율 이동 로봇 및 그 제어 방법
KR20120035519A (ko) 2010-10-05 2012-04-16 삼성전자주식회사 먼지 유입 감지 유닛 및 이를 구비하는 로봇 청소기
US20120143495A1 (en) 2010-10-14 2012-06-07 The University Of North Texas Methods and systems for indoor navigation
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8726095B2 (en) 2010-12-02 2014-05-13 Dell Products L.P. System and method for proactive management of an information handling system with in-situ measurement of end user actions
JP5185358B2 (ja) 2010-12-13 2013-04-17 株式会社東芝 行動履歴検索装置
WO2012081197A1 (ja) 2010-12-17 2012-06-21 パナソニック株式会社 弾性体アクチュエータ駆動機構の制御装置及び制御方法、並びに、制御プログラム
US8639644B1 (en) 2011-05-06 2014-01-28 Google Inc. Shared robot knowledge base for use with cloud computing system
US8380652B1 (en) 2011-05-06 2013-02-19 Google Inc. Methods and systems for autonomous robotic decision making
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
US9189891B2 (en) 2011-08-16 2015-11-17 Google Inc. Systems and methods for navigating a camera
US9015092B2 (en) 2012-06-04 2015-04-21 Brain Corporation Dynamically reconfigurable stochastic learning apparatus and methods
US20130096719A1 (en) 2011-10-13 2013-04-18 The U.S.A. As Represented By The Administrator Of The National Aeronautics And Space Administration Method for dynamic optimization of a robot control interface
JP6305673B2 (ja) 2011-11-07 2018-04-04 セイコーエプソン株式会社 ロボット制御システム、ロボットシステム及びロボット
JP5399593B2 (ja) 2011-11-10 2014-01-29 パナソニック株式会社 ロボット、ロボットの制御装置、制御方法、及び制御プログラム
US20140031980A1 (en) * 2011-11-11 2014-01-30 Jens-Steffen Gutmann Systems and methods for extending slam to multiple regions
KR101133037B1 (ko) * 2011-12-01 2012-04-04 국방과학연구소 자율이동차량용 충돌회피를 위한 경로갱신방법 및 그 장치
KR101305819B1 (ko) 2012-01-04 2013-09-06 현대자동차주식회사 착용식 로봇의 사용자 조작 의도 토크 추출방법
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
JP5895628B2 (ja) 2012-03-15 2016-03-30 株式会社ジェイテクト ロボットの制御方法及びロボット制御装置、並びにロボット制御システム
US9221177B2 (en) 2012-04-18 2015-12-29 Massachusetts Institute Of Technology Neuromuscular model-based sensing and control paradigm for a robotic leg
US9208432B2 (en) 2012-06-01 2015-12-08 Brain Corporation Neural network learning and collaboration apparatus and methods
US9092698B2 (en) 2012-06-21 2015-07-28 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US20130346347A1 (en) 2012-06-22 2013-12-26 Google Inc. Method to Predict a Communicative Action that is Most Likely to be Executed Given a Context
JP5645885B2 (ja) 2012-06-29 2014-12-24 京セラドキュメントソリューションズ株式会社 画像形成装置
MX2015000035A (es) 2012-07-04 2015-08-05 Repsol Sa Sistema integrado de deteccion temprana de hidrocarburos en un medio acuoso.
US8977582B2 (en) 2012-07-12 2015-03-10 Brain Corporation Spiking neuron network sensory processing apparatus and methods
US9367798B2 (en) 2012-09-20 2016-06-14 Brain Corporation Spiking neuron network adaptive control apparatus and methods
US8793205B1 (en) 2012-09-20 2014-07-29 Brain Corporation Robotic learning and evolution apparatus
US8972061B2 (en) 2012-11-02 2015-03-03 Irobot Corporation Autonomous coverage robot
US20140187519A1 (en) 2012-12-27 2014-07-03 The Board Of Trustees Of The Leland Stanford Junior University Biomarkers for predicting major adverse events
EP2752726B1 (de) 2013-01-08 2015-05-27 Cleanfix Reinigungssysteme AG Bodenbehandlungsmaschine und Verfahren zum Behandeln von Bodenflächen
CN109965778B (zh) 2013-01-18 2022-08-16 艾罗伯特公司 包括移动机器人的环境管理系统以及其使用方法
US8958937B2 (en) 2013-03-12 2015-02-17 Intellibot Robotics Llc Cleaning machine with collision prevention
US10561470B2 (en) 2013-03-15 2020-02-18 Intuitive Surgical Operations, Inc. Software configurable manipulator degrees of freedom
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9008840B1 (en) 2013-04-19 2015-04-14 Brain Corporation Apparatus and methods for reinforcement-guided supervised learning
US9292015B2 (en) 2013-05-23 2016-03-22 Fluor Technologies Corporation Universal construction robotics interface
US20140358828A1 (en) 2013-05-29 2014-12-04 Purepredictive, Inc. Machine learning generated action plan
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
WO2014196925A1 (en) 2013-06-03 2014-12-11 Ctrlworks Pte. Ltd. Method and apparatus for offboard navigation of a robotic device
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US20150032258A1 (en) 2013-07-29 2015-01-29 Brain Corporation Apparatus and methods for controlling of robotic devices
SG2013071808A (en) 2013-09-24 2015-04-29 Ctrlworks Pte Ltd Offboard navigation apparatus capable of being coupled to a movable platform
US9296101B2 (en) 2013-09-27 2016-03-29 Brain Corporation Robotic control arbitration apparatus and methods
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9144907B2 (en) 2013-10-24 2015-09-29 Harris Corporation Control synchronization for high-latency teleoperation
US10612939B2 (en) 2014-01-02 2020-04-07 Microsoft Technology Licensing, Llc Ground truth estimation for autonomous navigation
US10078712B2 (en) 2014-01-14 2018-09-18 Energid Technologies Corporation Digital proxy simulation of robotic hardware
US20150283703A1 (en) 2014-04-03 2015-10-08 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US10255319B2 (en) 2014-05-02 2019-04-09 Google Llc Searchable index
US20150339589A1 (en) 2014-05-21 2015-11-26 Brain Corporation Apparatus and methods for training robots utilizing gaze-based saliency maps
CN104029203B (zh) * 2014-06-18 2017-07-18 大连大学 实现空间机械臂避障的路径规划方法
GB2528953A (en) 2014-08-07 2016-02-10 Nokia Technologies Oy An apparatus, method, computer program and user device for enabling control of a vehicle
US9475195B2 (en) 2014-09-12 2016-10-25 Toyota Jidosha Kabushiki Kaisha Anticipatory robot navigation
CN104317291A (zh) * 2014-09-16 2015-01-28 哈尔滨恒誉名翔科技有限公司 一种基于人工势场法的机器人避碰路径规划方法
US9403275B2 (en) * 2014-10-17 2016-08-02 GM Global Technology Operations LLC Dynamic obstacle avoidance in a robotic system
US9628477B2 (en) 2014-12-23 2017-04-18 Intel Corporation User profile selection using contextual authentication
US10667664B2 (en) 2015-04-24 2020-06-02 Avidbots Corp. Apparatus and methods for semi-autonomous cleaning of surfaces
CN104875882B (zh) * 2015-05-21 2018-02-27 合肥学院 四轴飞行器
CN105549597B (zh) * 2016-02-04 2018-06-26 同济大学 一种基于环境不确定性的无人车动态路径规划方法
CN105739507B (zh) * 2016-04-29 2018-11-20 昆山华恒机器人有限公司 一种机器人防碰撞的最优路径规划方法
US20170329347A1 (en) * 2016-05-11 2017-11-16 Brain Corporation Systems and methods for training a robot to autonomously travel a route
US10241514B2 (en) * 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
CN105955273A (zh) * 2016-05-25 2016-09-21 速感科技(北京)有限公司 室内机器人导航系统及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010061442A (ja) 2008-09-04 2010-03-18 Murata Machinery Ltd 自律移動装置
JP2011107984A (ja) 2009-11-17 2011-06-02 Toyota Motor Corp 経路探索システム、経路探索方法、経路探索プログラム、及び移動体

Also Published As

Publication number Publication date
US20200004253A1 (en) 2020-01-02
US10379539B2 (en) 2019-08-13
US10001780B2 (en) 2018-06-19
KR102528869B1 (ko) 2023-05-04
US20180120856A1 (en) 2018-05-03
KR20190077050A (ko) 2019-07-02
CN110023866B (zh) 2022-12-06
US20180364724A1 (en) 2018-12-20
EP3535630A4 (en) 2020-07-29
JP2020502630A (ja) 2020-01-23
EP3535630A1 (en) 2019-09-11
CN110023866A (zh) 2019-07-16
CA3042532A1 (en) 2018-05-11
WO2018085294A1 (en) 2018-05-11

Similar Documents

Publication Publication Date Title
JP7061337B2 (ja) 経路に沿って操縦するためのロボットと、環境内のロボットの動的ナビゲーション及び動的経路計画のためのシステムと、ロボットの動的ナビゲーション及び動的経路計画のための方法と、その非一時的なコンピュータ媒体及びそのプログラム
US11701778B2 (en) Systems and methods for robotic path planning
US10823576B2 (en) Systems and methods for robotic mapping
US20230021778A1 (en) Systems and methods for training a robot to autonomously travel a route
US20210223779A1 (en) Systems and methods for rerouting robots to avoid no-go zones
JP2020502636A (ja) ロボットの遠隔操作および/または監視のためのシステムおよび方法
US11886198B2 (en) Systems and methods for detecting blind spots for robots
US11340630B2 (en) Systems and methods for robust robotic mapping
JP2022512438A (ja) 非ホロノミックロボットシステムの改善された制御のためのシステム及び方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201030

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211005

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220406

R150 Certificate of patent or registration of utility model

Ref document number: 7061337

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150