JP2022543193A - 移動ロボットのナビゲーション - Google Patents
移動ロボットのナビゲーション Download PDFInfo
- Publication number
- JP2022543193A JP2022543193A JP2022502295A JP2022502295A JP2022543193A JP 2022543193 A JP2022543193 A JP 2022543193A JP 2022502295 A JP2022502295 A JP 2022502295A JP 2022502295 A JP2022502295 A JP 2022502295A JP 2022543193 A JP2022543193 A JP 2022543193A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- scene
- environment
- camera
- intersection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 111
- 238000012545 processing Methods 0.000 claims description 102
- 230000015654 memory Effects 0.000 claims description 60
- 238000004891 communication Methods 0.000 claims description 28
- 230000004044 response Effects 0.000 claims description 25
- 238000010586 diagram Methods 0.000 abstract description 25
- 230000008859 change Effects 0.000 description 20
- 230000037230 mobility Effects 0.000 description 17
- 230000008447 perception Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 239000003086 colorant Substances 0.000 description 9
- 238000004040 coloring Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000009877 rendering Methods 0.000 description 7
- 230000005021 gait Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 235000019994 cava Nutrition 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 244000000626 Daucus carota Species 0.000 description 1
- 235000002767 Daucus carota Nutrition 0.000 description 1
- 206010047531 Visual acuity reduced Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000002485 combustion reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003863 physical function Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0038—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
- B25J13/089—Determining the position of the robot with reference to its environment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0044—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0055—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
- G05D1/0061—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
Description
[0001] 本開示は移動ロボットをナビゲートすることに関する。
[0002] 技術が進歩するにつれ、ユーザを支援し得る様々な機能を行うための様々な種類のロボット装置が作成されている。ロボット装置はとりわけ材料の管理、輸送、溶接、組み立て、及び供給を含む応用に使用され得る。時が経つにつれ、これらのロボットシステムが動作する方法はより知的、効率的、及び直感的になっている。現代生活の様々な側面においてロボットシステムがますます普及するにつれ、人が動作させナビゲートするのにロボットシステムが簡単であること及び直感的であることが望ましい。
[0003] 本開示の一態様は、ロボットを制御するための方法を提供する。この方法は、オペレータ装置のデータ処理ハードウェアにおいて少なくとも1つのイメージセンサから画像データを受信することを含む。画像データはロボットの周囲の環境に対応する。この方法は、オペレータ装置の画面上に表示するためのグラフィカルユーザインタフェース(GUI)をデータ処理ハードウェアによって実行することも含む。GUIは、画像データに基づいてロボットの周囲の環境のシーンを表示し、ロボットの周囲の環境のシーン内のピクセル位置の選択を示す入力指示を受信するように構成される。この方法は、ピクセル位置の選択に基づいてポインティングベクトルVをデータ処理ハードウェアによって決定することも含む。ポインティングベクトルは、環境内でロボットをナビゲートするための移動方向を表す。この方法は、ロボットにウェイポイントコマンドWをデータ処理ハードウェアによって伝送することも含む。ウェイポイントコマンドWはロボットによって受信されると、標的位置Tまでロボットをナビゲートさせる。標的位置は、ロボットのポインティングベクトルVと地形推定Gとの交点に基づく。地形推定Gは地表面推定を含み得る。簡単にするために、本開示では「地形推定」を「地表面推定」と呼ぶ。
[0058] 図1は、ロボット300をナビゲートするためのシステム100を示し、オペレータ10は携帯型装置200を使用してロボット環境内でロボット300をナビゲートする。ロボット環境は、ロボット300が通り抜けることができる何らかの種類の地形に関連する空間領域を一般に指す。例えば地形は、建物、街路、歩道、公園、路地、階段、坂道、トンネル等を有する都市地形、道路、野原、丘、山、洞窟等を有する田園地形、洞窟、トンネル等を有する地下地形、又はその任意の組み合わせを含み得る。
Claims (28)
- オペレータ装置(200)のデータ処理ハードウェア(240)において少なくとも1つのイメージセンサ(344)から画像データ(242)を受信することであって、前記画像データ(242)はロボット(300)の周囲の環境(301)に対応する、前記画像データ(242)を受信すること、
前記オペレータ装置(200)の画面(220)上に表示するためのグラフィカルユーザインタフェース(221)を前記データ処理ハードウェア(240)によって実行することであって、前記グラフィカルユーザインタフェース(221)は
前記画像データ(242)に基づいて前記ロボット(300)の周囲の前記環境(301)のシーン(222)を表示し、
前記ロボット(300)の周囲の前記環境(301)の前記シーン(222)内のピクセル位置(224)の選択を示す入力指示を受信する
ように構成される、前記グラフィカルユーザインタフェース(221)を実行すること、
前記ピクセル位置(224)の前記選択に基づいてポインティングベクトルを前記データ処理ハードウェア(240)によって決定することであって、前記ポインティングベクトルは前記環境(301)内で前記ロボット(300)をナビゲートするための移動方向を表す、前記ポインティングベクトルを決定すること、及び
前記ロボット(300)にウェイポイントコマンドを前記データ処理ハードウェア(240)によって伝送することであって、前記ウェイポイントコマンドは前記ロボット(300)によって受信されると、前記ロボット(300)の前記ポインティングベクトルと地形推定との交点に基づく標的位置まで前記ロボット(300)をナビゲートさせる、前記ウェイポイントコマンドを伝送すること
を含む、方法(1700)。 - 前記ロボット(300)の周囲の前記環境(301)の前記シーン(222)が、
前記画像データ(242)に基づく前記環境(301)の前方シーン(222)であって、前記画像データ(242)は前記ロボット(300)上に配置される左前カメラ(344)及び右前カメラ(344)によって捕捉される、前方シーン(222)、
前記画像データ(242)に基づく前記環境(301)の左側シーン(222)であって、前記画像データ(242)は前記ロボット(300)上に配置される左側カメラ(344)によって捕捉される、左側シーン(222)、
前記画像データ(242)に基づく前記環境(301)の右側シーン(222)であって、前記画像データ(242)は前記移動ロボット(300)上に配置される右側カメラ(344)によって捕捉される、右側シーン(222)、
前記画像データ(242)に基づく前記環境(301)の後方シーン(222)であって、前記後方シーン(222)は前記ロボット(300)上に配置される後方カメラ(344)によって捕捉される、後方シーン(222)、又は
前記画像データ(242)に基づく前記ロボット(300)の下向きシーン(222)であって、前記画像データ(242)はペイロードカメラ(344)、前記左前カメラ(344)、前記右前カメラ(344)、前記左側カメラ(344)、前記右側カメラ(344)、及び前記後方カメラ(344)によって捕捉される、下向きシーン(222)
のうちの何れか1つを含む、請求項1に記載の方法(1700)。 - 前記ポインティングベクトルと前記地形推定との前記交点が前記ロボット(300)の前にあるかどうかを前記データ処理ハードウェア(240)によって決定すること、及び
前記ポインティングベクトルと前記地形推定との前記交点が前記ロボット(300)の前にある場合は前記交点を前記標的位置として前記データ処理ハードウェア(240)によって識別すること
をさらに含む、請求項1又は2に記載の方法(1700)。 - 前記ポインティングベクトルと前記地形推定との前記交点が前記ロボット(300)の背後にある場合、
前記データ処理ハードウェア(240)によって前記交点を反射して前記ロボット(300)の前の反射交点を決定すること、及び
前記反射交点を前記標的位置として前記データ処理ハードウェア(240)によって識別すること
をさらに含む、請求項3に記載の方法(1700)。 - 前記標的位置として前記交点を識別する前に、
前記ロボット(300)の現在位置と前記ポインティングベクトル及び前記地形推定間の前記交点との間の第1の距離が閾値距離を満たさないことを前記データ処理ハードウェア(240)によって決定すること、及び
移動済み交点を形成するために前記データ処理ハードウェア(240)によって前記ロボット(300)により近い中間位置に前記交点を移動することであって、前記ロボット(300)の前記現在位置と前記移動済み交点との間の第2の距離は前記閾値距離を満たす、前記交点を移動すること
をさらに含む、請求項3又は4に記載の方法(1700)。 - 前記ロボット(300)は、
前記標的位置が障害物の背後にあるかどうかを決定するように構成され、及び
前記標的位置が前記障害物の背後にない場合は前記標的位置まで自律的にナビゲートするか、又は
前記標的位置が前記障害物の背後にある場合、
前記障害物を回避することが可能かどうかを決定し、
前記障害物を回避することが可能である場合は前記障害物を回避し前記標的位置まで前記ロボット(300)を自律的にナビゲートする
うちの一方であるように構成される、請求項1乃至5の何れか一項に記載の方法(1700)。 - 前記ロボット(300)は、前記標的位置が前記障害物の背後にあり前記障害物を回避することが不可能である場合、前記標的位置まで前記ロボット(300)が自律的にナビゲートされるのを妨げるようにさらに構成される、請求項6に記載の方法(1700)。
- 前記少なくとも1つのイメージセンサ(344)が1つ又は複数の魚眼カメラ(346)及び1つ又は複数の赤外線カメラ(348)を含む、請求項1乃至7の何れか一項に記載の方法(1700)。
- 前記ロボット(300)が四足ロボット(300)を含む、請求項1乃至8の何れか一項に記載の方法(1700)。
- 前記少なくとも1つのイメージセンサ(344)が前記ロボット(300)上に配置され、
前記オペレータ装置(200)がネットワーク(180)によって前記イメージセンサ(344)と通信する、
請求項1乃至9の何れか一項に記載の方法(1700)。 - 前記グラフィカルユーザインタフェース(221)が、
前記グラフィカルユーザインタフェース(221)内に表示されている現在のシーン(222C)から離れる方向に前記ロボット(300)の周囲の前記環境(301)の視野を旋回させるための旋回入力を受信し、
前記現在のシーン(222C)から離れる前記方向に前記ロボット(300)の周囲の前記環境(301)の前記視野を旋回させることによってプレビューシーン(222P)を表示する
ようにさらに構成される、請求項1乃至10の何れか一項に記載の方法(1700)。 - 前記グラフィカルユーザインタフェース(221)が、前記ロボット(300)による物理的な動きを必要とすることなしに前記プレビューシーン(222P)を表示するように構成される、請求項11に記載の方法(1700)。
- 前記グラフィカルユーザインタフェース(221)が、前記グラフィカルユーザインタフェース(221)内に表示される旋回グラフィックの選択を示す入力指示を受信することに応答して前記旋回入力を受信するように構成される、請求項11又は12に記載の方法(1700)。
- 前記現在のシーン(222C)から離れる前記方向に前記ロボット(300)の周囲の前記環境(301)の前記視野を前記旋回させることが、前記現在のシーン(222C)から離れる前記方向に及び前記プレビューシーン(222P)へ向かう前記方向に前記ロボット(300)がターン操作を行うことをシミュレートする、請求項11乃至13の何れか一項に記載の方法(1700)。
- データ処理ハードウェア(240)、及び
前記データ処理ハードウェア(240)と通信するメモリハードウェア(250)
を含むシステム(200)であって、前記メモリハードウェア(250)は、前記データ処理ハードウェア(240)上で実行されるとき、
少なくとも1つのイメージセンサ(344)から画像データ(242)を受信することであって、前記画像データ(242)はロボット(300)の周囲の環境(301)に対応する、前記画像データ(242)を受信すること、
オペレータ装置(200)の画面(220)上に表示するためのグラフィカルユーザインタフェース(221)を実行することであって、前記グラフィカルユーザインタフェース(221)は
前記画像データ(242)に基づいて前記ロボット(300)の周囲の前記環境(301)のシーン(222)を表示し、
前記ロボット(300)の周囲の前記環境(301)の前記シーン(222)内のピクセル位置(224)の選択を示す入力指示を受信する
ように構成される、前記グラフィカルユーザインタフェース(221)を実行すること、
前記ピクセル位置(224)の前記選択に基づいてポインティングベクトルを決定することであって、前記ポインティングベクトルは前記環境(301)内で前記ロボット(300)をナビゲートするための移動方向を表す、前記ポインティングベクトルを決定すること、及び
前記ロボット(300)にウェイポイントコマンドを伝送することであって、前記ウェイポイントコマンドは前記ロボット(300)によって受信されると、前記ロボット(300)の前記ポインティングベクトルと地形推定との交点に基づく標的位置まで前記ロボット(300)をナビゲートさせる、前記ウェイポイントコマンドを伝送すること
を含む操作を前記データ処理ハードウェア(240)に実行させる命令を記憶する、
システム(200)。 - 前記ロボット(300)の周囲の前記環境(301)の前記シーン(222)が、
前記画像データ(242)に基づく前記環境(301)の前方シーン(222)であって、前記画像データ(242)は前記ロボット(300)上に配置される左前カメラ(344)及び右前カメラ(344)によって捕捉される、前方シーン(222)、
前記画像データ(242)に基づく前記環境(301)の左側シーン(222)であって、前記画像データ(242)は前記ロボット(300)上に配置される左側カメラ(344)によって捕捉される、左側シーン(222)、
前記画像データ(242)に基づく前記環境(301)の右側シーン(222)であって、前記画像データ(242)は前記移動ロボット(300)上に配置される右側カメラ(344)によって捕捉される、右側シーン(222)、
前記画像データ(242)に基づく前記環境(301)の後方シーン(222)であって、前記後方シーン(222)は前記ロボット(300)上に配置される後方カメラ(344)によって捕捉される、後方シーン(222)、又は
前記画像データ(242)に基づく前記ロボット(300)の下向きシーン(222)であって、前記画像データ(242)はペイロードカメラ(344)、前記左前カメラ(344)、前記右前カメラ(344)、前記左側カメラ(344)、前記右側カメラ(344)、及び前記後方カメラ(344)によって捕捉される、下向きシーン(222)
のうちの何れか1つを含む、請求項15に記載のシステム(200)。 - 前記操作は、
前記ポインティングベクトルと前記地形推定との前記交点が前記ロボット(300)の前にあるかどうかを決定すること、及び
前記ポインティングベクトルと前記地形推定との前記交点が前記ロボット(300)の前にある場合は前記交点を前記標的位置として識別すること
をさらに含む、請求項15又は16に記載のシステム(200)。 - 前記操作は、
前記ポインティングベクトルと前記地形推定との前記交点が前記ロボット(300)の背後にある場合、
前記交点を反射して前記ロボット(300)の前の反射交点を決定すること、及び
前記反射交点を前記標的位置として識別すること
をさらに含む、請求項17に記載のシステム(200)。 - 前記操作は前記標的位置として前記交点を識別する前に、
前記ロボット(300)の現在位置と前記ポインティングベクトル及び前記地形推定間の前記交点との間の第1の距離が閾値距離を満たさないことを決定すること、及び
移動済み交点を形成するために前記ロボット(300)により近い中間位置に前記交点を移動することであって、前記ロボット(300)の前記現在位置と前記移動済み交点との間の第2の距離は前記閾値距離を満たす、前記交点を移動すること
をさらに含む、請求項17又は18に記載のシステム(200)。 - 前記ロボット(300)は、
前記標的位置が障害物の背後にあるかどうかを決定するように構成され、及び
前記標的位置が前記障害物の背後にない場合は前記標的位置まで自律的にナビゲートする、又は
前記標的位置が前記障害物の背後にある場合、
前記障害物を回避することが可能かどうかを決定し、
前記障害物を回避することが可能である場合は前記障害物を回避し前記標的位置まで前記ロボット(300)を自律的にナビゲートする
うちの一方であるように構成される、
請求項15乃至19の何れか一項に記載のシステム(200)。 - 前記ロボット(300)は、前記標的位置が前記障害物の背後にあり前記障害物を回避することが不可能である場合、前記標的位置まで前記ロボット(300)が自律的にナビゲートされるのを妨げるようにさらに構成される、請求項20に記載のシステム(200)。
- 前記少なくとも1つのイメージセンサ(344)が1つ又は複数の魚眼カメラ(346)及び1つ又は複数の赤外線カメラ(348)を含む、請求項15乃至21の何れか一項に記載のシステム(200)。
- 前記ロボット(300)が四足ロボット(300)を含む、請求項15乃至22の何れか一項に記載のシステム(200)。
- 前記少なくとも1つのイメージセンサ(344)が前記ロボット(300)上に配置され、
前記オペレータ装置(200)がネットワーク(180)によって前記イメージセンサ(344)と通信する、
請求項15乃至23の何れか一項に記載のシステム(200)。 - 前記グラフィカルユーザインタフェース(221)が、
前記グラフィカルユーザインタフェース(221)内に表示されている現在のシーン(222C)から離れる方向に前記ロボット(300)の周囲の前記環境(301)の視野を旋回させるための旋回入力を受信し、
前記現在のシーン(222C)から離れる前記方向に前記ロボット(300)の周囲の前記環境(301)の前記視野を旋回させることによってプレビューシーン(222P)を表示する
ようにさらに構成される、請求項15乃至24の何れか一項に記載のシステム(200)。 - 前記グラフィカルユーザインタフェース(221)が、前記ロボット(300)による物理的な動きを必要とすることなしに前記プレビューシーン(222P)を表示するように構成される、請求項25に記載のシステム(200)。
- 前記グラフィカルユーザインタフェース(221)が、前記グラフィカルユーザインタフェース(221)内に表示される旋回グラフィックの選択を示す入力指示を受信することに応答して前記旋回入力を受信するように構成される、請求項25又は26に記載のシステム(200)。
- 前記現在のシーン(222C)から離れる前記方向に前記ロボット(300)の周囲の前記環境(301)の前記視野を前記旋回させることが、前記現在のシーン(222C)から離れる前記方向に及び前記プレビューシーン(222P)に向かう前記方向に前記ロボット(300)がターン操作を行うことをシミュレートする、請求項25乃至27の何れか一項に記載のシステム(200)。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962883643P | 2019-08-07 | 2019-08-07 | |
US62/883,643 | 2019-08-07 | ||
PCT/US2019/057586 WO2021025715A1 (en) | 2019-08-07 | 2019-10-23 | Navigating a mobile robot |
US16/661,062 US11340620B2 (en) | 2019-08-07 | 2019-10-23 | Navigating a mobile robot |
US16/661,062 | 2019-10-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022543193A true JP2022543193A (ja) | 2022-10-11 |
JP7345042B2 JP7345042B2 (ja) | 2023-09-14 |
Family
ID=74498863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022502295A Active JP7345042B2 (ja) | 2019-08-07 | 2019-10-23 | 移動ロボットのナビゲーション |
Country Status (6)
Country | Link |
---|---|
US (2) | US11340620B2 (ja) |
EP (1) | EP4010771A1 (ja) |
JP (1) | JP7345042B2 (ja) |
KR (1) | KR20220082805A (ja) |
CN (1) | CN114503042A (ja) |
WO (1) | WO2021025715A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11835343B1 (en) * | 2004-08-06 | 2023-12-05 | AI Incorporated | Method for constructing a map while performing work |
US20210356957A1 (en) * | 2018-01-12 | 2021-11-18 | Superior Marine Products Llc | Gesturing for control input for a vehicle |
CN113211438B (zh) * | 2021-05-08 | 2023-06-16 | 东方红卫星移动通信有限公司 | 基于预瞄距离自适应的轮式机器人控制方法及控制系统 |
US20220382282A1 (en) * | 2021-05-25 | 2022-12-01 | Ubtech North America Research And Development Center Corp | Mobility aid robot navigating method and mobility aid robot using the same |
CN117769484A (zh) * | 2021-06-04 | 2024-03-26 | 波士顿动力公司 | 指向移动机器人的自主和远程操作传感器 |
CN114454162B (zh) * | 2022-01-10 | 2023-05-26 | 广东技术师范大学 | 一种移动机器人复杂路口防碰撞方法及系统 |
CN114905506A (zh) * | 2022-04-15 | 2022-08-16 | 北京航空航天大学杭州创新研究院 | 一种基于视觉感知和空间认知神经机制的机器人导航系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003136455A (ja) * | 2001-11-07 | 2003-05-14 | Sony Corp | ロボットシステム、遠隔操作装置及び遠隔操作方法並びにロボット装置及びその制御方法 |
JP2003532218A (ja) * | 2000-05-01 | 2003-10-28 | アイロボット コーポレーション | 移動ロボットを遠隔操作するための方法およびシステム |
JP2014087892A (ja) * | 2012-10-30 | 2014-05-15 | Toshiba Corp | 多脚ロボットの脚操作制御装置及び方法 |
US20150190925A1 (en) * | 2014-01-07 | 2015-07-09 | Irobot Corporation | Remotely Operating a Mobile Robot |
US20170203446A1 (en) * | 2016-01-15 | 2017-07-20 | Irobot Corporation | Autonomous monitoring robot systems |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8073564B2 (en) * | 2006-07-05 | 2011-12-06 | Battelle Energy Alliance, Llc | Multi-robot control interface |
GB2494081B (en) * | 2010-05-20 | 2015-11-11 | Irobot Corp | Mobile human interface robot |
CN107265355A (zh) * | 2017-07-06 | 2017-10-20 | 青岛海通胜行智能科技有限公司 | 一种基于智能穿戴和自然环境导航的智能拣选叉车系统 |
CN107515606A (zh) * | 2017-07-20 | 2017-12-26 | 北京格灵深瞳信息技术有限公司 | 机器人实现方法、控制方法及机器人、电子设备 |
US10816994B2 (en) * | 2018-10-10 | 2020-10-27 | Midea Group Co., Ltd. | Method and system for providing remote robotic control |
CN109682381B (zh) * | 2019-02-22 | 2020-09-25 | 山东大学 | 基于全向视觉的大视场场景感知方法、系统、介质及设备 |
-
2019
- 2019-10-23 US US16/661,062 patent/US11340620B2/en active Active
- 2019-10-23 JP JP2022502295A patent/JP7345042B2/ja active Active
- 2019-10-23 KR KR1020227003769A patent/KR20220082805A/ko not_active Application Discontinuation
- 2019-10-23 CN CN201980100845.9A patent/CN114503042A/zh active Pending
- 2019-10-23 EP EP19805431.4A patent/EP4010771A1/en active Pending
- 2019-10-23 WO PCT/US2019/057586 patent/WO2021025715A1/en unknown
-
2022
- 2022-05-02 US US17/661,685 patent/US20220260998A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003532218A (ja) * | 2000-05-01 | 2003-10-28 | アイロボット コーポレーション | 移動ロボットを遠隔操作するための方法およびシステム |
JP2003136455A (ja) * | 2001-11-07 | 2003-05-14 | Sony Corp | ロボットシステム、遠隔操作装置及び遠隔操作方法並びにロボット装置及びその制御方法 |
JP2014087892A (ja) * | 2012-10-30 | 2014-05-15 | Toshiba Corp | 多脚ロボットの脚操作制御装置及び方法 |
US20150190925A1 (en) * | 2014-01-07 | 2015-07-09 | Irobot Corporation | Remotely Operating a Mobile Robot |
US20170203446A1 (en) * | 2016-01-15 | 2017-07-20 | Irobot Corporation | Autonomous monitoring robot systems |
Also Published As
Publication number | Publication date |
---|---|
EP4010771A1 (en) | 2022-06-15 |
KR20220082805A (ko) | 2022-06-17 |
US20220260998A1 (en) | 2022-08-18 |
WO2021025715A1 (en) | 2021-02-11 |
JP7345042B2 (ja) | 2023-09-14 |
US11340620B2 (en) | 2022-05-24 |
US20210041878A1 (en) | 2021-02-11 |
CN114503042A (zh) | 2022-05-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7345042B2 (ja) | 移動ロボットのナビゲーション | |
US9789612B2 (en) | Remotely operating a mobile robot | |
JP5246672B2 (ja) | ロボットシステム | |
US8989876B2 (en) | Situational awareness for teleoperation of a remote vehicle | |
Lan et al. | XPose: Reinventing User Interaction with Flying Cameras. | |
US20230321830A1 (en) | Construction constrained motion primitives from robot maps | |
WO2022062442A1 (zh) | Ar场景下的引导方法、装置、计算机设备及存储介质 | |
EP3288828B1 (en) | Unmanned aerial vehicle system and method for controlling an unmanned aerial vehicle | |
Li et al. | StarHopper: A touch interface for remote object-centric drone navigation | |
Allspaw et al. | Implementing Virtual Reality for Teleoperation of a Humanoid Robot | |
US11797016B2 (en) | Online authoring of robot autonomy applications | |
Fournier et al. | Immersive virtual environment for mobile platform remote operation and exploration | |
CN115655261B (zh) | 地图生成方法、装置、机器人以及存储介质 | |
Niroui et al. | A graphical user interface for multi-robot control in urban search and rescue applications | |
Fiala | A robot control and augmented reality interface for multiple robots | |
US11927961B2 (en) | Constrained robot autonomy language | |
US20230297118A1 (en) | Systems and methods for recording robot missions | |
Zhang et al. | A rate-based drone control with adaptive origin update in telexistence | |
CN117191001A (zh) | 一种搜救机器人的搜救方法、上位机和下位机 | |
Rudzinska et al. | An interactive system for mobile robot navigation | |
Schwarz et al. | Supervised Autonomy for Exploration and Mobile Manipulation in Rough Terrain |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220311 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230814 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230904 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7345042 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |