JP2022543997A - 制約された移動度マッピング - Google Patents
制約された移動度マッピング Download PDFInfo
- Publication number
- JP2022543997A JP2022543997A JP2022502057A JP2022502057A JP2022543997A JP 2022543997 A JP2022543997 A JP 2022543997A JP 2022502057 A JP2022502057 A JP 2022502057A JP 2022502057 A JP2022502057 A JP 2022502057A JP 2022543997 A JP2022543997 A JP 2022543997A
- Authority
- JP
- Japan
- Prior art keywords
- map
- robot
- voxel
- obstacle
- sensor data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013507 mapping Methods 0.000 title abstract description 9
- 238000000034 method Methods 0.000 claims abstract description 146
- 238000012545 processing Methods 0.000 claims description 92
- 239000013598 vector Substances 0.000 claims description 67
- 230000033001 locomotion Effects 0.000 claims description 30
- 230000008859 change Effects 0.000 claims description 17
- 238000001914 filtration Methods 0.000 claims description 6
- 230000001174 ascending effect Effects 0.000 claims description 5
- 230000003247 decreasing effect Effects 0.000 claims description 4
- 230000008447 perception Effects 0.000 description 160
- 210000002414 leg Anatomy 0.000 description 84
- 230000015654 memory Effects 0.000 description 33
- 238000010586 diagram Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 22
- 238000009499 grossing Methods 0.000 description 19
- 230000001953 sensory effect Effects 0.000 description 19
- 238000013459 approach Methods 0.000 description 18
- 210000002683 foot Anatomy 0.000 description 16
- 238000004590 computer program Methods 0.000 description 8
- 239000000945 filler Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 5
- 230000037230 mobility Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 230000010339 dilation Effects 0.000 description 4
- 230000003628 erosive effect Effects 0.000 description 4
- 210000001503 joint Anatomy 0.000 description 4
- 210000003127 knee Anatomy 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 210000001624 hip Anatomy 0.000 description 3
- 210000004394 hip joint Anatomy 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 210000000629 knee joint Anatomy 0.000 description 3
- 210000001364 upper extremity Anatomy 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000009194 climbing Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000001066 destructive effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 206010017577 Gait disturbance Diseases 0.000 description 1
- 241000872198 Serjania polyphylla Species 0.000 description 1
- 206010047531 Visual acuity reduced Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000000544 articulatio talocruralis Anatomy 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 244000145845 chattering Species 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000414 obstructive effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
- B25J13/089—Determining the position of the robot with reference to its environment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D57/00—Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
- B62D57/02—Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
- B62D57/032—Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/242—Means based on the reflection of waves generated by the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/246—Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
- G05D1/2464—Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM] using an occupancy grid
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/246—Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
- G05D1/2465—Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM] using a 3D model of the environment
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/40—Control within particular dimensions
- G05D1/43—Control of position or course in two dimensions
- G05D1/435—Control of position or course in two dimensions resulting in a change of level, e.g. negotiating lifts or stairs
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/617—Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
- G05D1/622—Obstacle avoidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D2109/00—Types of controlled vehicles
- G05D2109/10—Land vehicles
- G05D2109/12—Land vehicles with legs
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
Description
Claims (28)
- 方法(600)であって、
データ処理ハードウェア(142)において、ロボット(100)の少なくとも1つのセンサー(132)から、少なくとも1つの元のセンサーデータ(134)のセットおよび現在のセンサーデータ(134)のセットを受信することであって、前記少なくとも1つの元のセンサーデータ(134)のセットおよび前記現在のセンサーデータ(134)のセットの各々が、前記ロボット(100)の周りの環境(10)に対応し、前記ロボット(100)がボディ(110)を備える、前記少なくとも1つの元のセンサーデータ(134)のセットおよび前記現在のセンサーデータ(134)のセットを受信することと、
前記データ処理ハードウェア(142)によって、前記少なくとも1つの元のセンサーデータ(134)のセットに基づいて、複数のボクセル(212)を含むボクセルマップ(210)を生成することであって、前記複数のボクセル(212)が、少なくとも1つの地面ボクセル(212)および少なくとも1つの障害物ボクセル(212)を含む、前記ボクセルマップ(210)を生成することと、
前記データ処理ハードウェア(142)によって、前記現在のセンサーデータ(134)のセットに基づいて球形深度マップ(218)を生成することと、
前記データ処理ハードウェア(142)によって、前記ボクセルマップ(210)と前記球形深度マップ(218)との間の比較に基づいて、前記ボクセルマップ(210)によって障害物として表される物体(14)に変化が発生したことを決定することと、
前記データ処理ハードウェア(142)によって、前記環境(10)内の前記物体(14)の前記変化を反映するために前記ボクセルマップ(210)を更新することと、を含む、方法(600)。 - 前記ロボット(100)が四足動物を画定する4つの脚(120)を備える、請求項1に記載の方法(600)。
- 前記ボクセルマップ(210)を生成することが、
前記ロボット(100)の周りの空間の3次元単位が占有されているかどうかを決定することと、
占有されている各3次元単位について、それぞれの単位を地面、障害物、または地面でも障害物でもないもののうちの1つとして分類することと、を含む、請求項1または2に記載の方法(600)。 - 前記ボクセルマップ(210)が、3次元(3D)グリッドを含み、前記方法(600)が、前記ボクセルマップ(210)の前記3Dグリッドの各セルに対して、前記データ処理ハードウェア(142)によって、それぞれの垂直方向の列の連続したボクセル(212)を統合して、セグメント(214)を形成することをさらに含み、前記セグメント(214)が、高さおよび点重みWPを含み、前記点重みWPが、前記セグメント(214)を形成する1つ以上のボクセル(212)が前記少なくとも1つの元のセンサーデータ(134)のセットに基づいて占有されていることの確実性の程度を示す、請求項1~3のいずれか一項に記載の方法(600)。
- 前記データ処理ハードウェア(142)によって、それぞれのセグメント(214)の前記点重みWPを、前記現在のセンサーデータ(134)のセットが、前記それぞれのセグメント(214)を定義するセンサーデータ(134)を含まないときには、減少させることをさらに含む、請求項4に記載の方法(600)。
- 前記データ処理ハードウェア(142)によって、前記ボクセルマップ(210)内の位置における前記セグメント(214)の前記高さを、前記球形深度マップ(218)内のそれぞれの位置における列からの高さの範囲と比較することであって、前記セグメント(214)の前記位置および前記列の前記それぞれの位置が、前記ロボット(100)に対して同じ位置に対応する、前記データ処理ハードウェア(142)によって比較することと、
前記データ処理ハードウェア(142)によって、前記セグメント(214)の前記高さと前記列からの前記高さの範囲とが一致しないことを決定することと、をさらに含む、請求項4または5に記載の方法(600)。 - 前記球形深度マップ(218)が、前記現在のセンサーデータ(134)のセットの球形表現を含み、前記球形表現が、前記現在のセンサーデータ(134)のセットを捕捉する前記少なくとも1つのセンサー(132)からの距離および高さにおける前記センサーデータ(134)の点によって画定される矩形構造体を含む、請求項1~6のいずれか一項に記載の方法(600)。
- 前記環境(10)内の前記物体(14)の前記変化を反映するために前記ボクセルマップ(210)を更新することが、前記変化に関連付けられている前記障害物に対応する前記ボクセルマップ(210)から1つ以上のボクセル(212)を削除することを含む、請求項1~7のいずれか一項に記載の方法(600)。
- 前記1つ以上のボクセル(212)を削除することが、
ヒューリスティックを使用して、前記環境(10)による前記物体(14)の前記変化に関連付けられている近くのボクセル(212)を識別することと、
前記識別された近くのボクセル(212)を削除することと、を含む、請求項8に記載の方法(600)。 - 前記環境(10)内の前記物体(14)の前記変化を反映するために前記ボクセルマップ(210)を更新することが、前記変化に関連付けられている前記障害物(214OB)に対応する前記セグメント(214)を切り取ることを含む、請求項4~6のいずれか一項に記載の方法(600)。
- 方法(700)であって、
データ処理ハードウェア(142)において、ロボット(100)の周りの環境(10)に対応するセンサーデータ(134)を、前記ロボット(100)の少なくとも1つのセンサー(132)から受信することであって、前記ロボット(100)が、ボディ(110)を備える、前記センサーデータ(134)を受信することと、
前記データ処理ハードウェア(142)によって、前記センサーデータ(134)に基づいて、複数のボクセル(212)を含むボクセルマップ(210)を生成することであって、前記複数のボクセル(212)が、少なくとも1つの地面ボクセル(212)および少なくとも1つの障害物ボクセル(212)を含む、前記ボクセルマップ(210)を生成することと、
前記ボクセルマップ(210)に基づいて、前記データ処理ハードウェア(142)によって、前記ロボット(100)の前記ボディ(110)が障害物の前記環境(10)との干渉を伴わずに移動することができる前記環境(10)内の位置を示すように構成されたボディ障害物マップ(220)を生成することであって、前記ボディ障害物マップ(220)が、セル(222)に分割され、複数の前記セル(222)が、最も近い障害物境界の指示を含み、前記最も近い障害物境界が、前記ボクセルマップ(210)の前記少なくとも1つの障害物ボクセル(212)から導出される、前記ボディ障害物マップ(220)を生成することと、
前記データ処理ハードウェア(142)によって、前記ボディ障害物マップ(220)を、制御システム(170)に通信することであって、前記制御システム(170)が、前記環境(10)の周りで前記ロボット(100)を移動させるように構成されている、前記ボディ障害物マップ(220)を通信することと、を含む、方法(700)。 - 前記指示が、前記最も近い障害物境界までの距離の推定値と、前記最も近い障害物境界への方向と、を含む、請求項11に記載の方法(700)。
- 前記ボディ障害物マップ(220)を生成することが、複数のベクトルを含むベクトルフィールド(228VF)を生成することを含み、前記複数のベクトルの各ベクトルが、障害物回避の方向を示し、各ベクトルが、前記最も近い障害物境界への前記方向とは反対のベクトル方向を含む、請求項12に記載の方法(700)。
- 前記制御システム(170)が、前記ボディ障害物マップ(220)を使用して、前記ロボット(100)の前記ボディ(110)の水平方向の運動および前記ロボット(100)の前記ボディ(110)のヨー回転を制御するように構成されている、請求項11~13のいずれか一項に記載の方法(700)。
- 前記データ処理ハードウェア(142)によって、前記複数のボクセル(212)の各ボクセル(212)に関連付けられている点重みに基づいて、前記ボクセルマップ(210)の前記複数のボクセル(212)をフィルタリングすることをさらに含み、前記点重みが、前記センサーデータ(134)に基づいて、それぞれのボクセル(212)が占有されている確実性の程度を示す、前記複数のボクセル(212)をフィルタリングすることを含み、
前記ボクセルマップ(210)に基づいて前記ボディ障害物マップ(220)を生成することが、点重み閾値を満たし、かつ障害物ボクセル(212)に対応する前記フィルタリングされた複数のボクセル(212)を前記ボディ障害物マップ(220)に変換することを含む、請求項11~14のいずれか一項に記載の方法(700)。 - 方法(800)であって、
データ処理ハードウェア(142)において、ロボット(100)の周りの環境(10)に対応するセンサーデータ(134)を、前記ロボット(100)の少なくとも1つのセンサー(132)から受信することであって、前記ロボット(100)が、ボディ(110)と、脚(120)と、を備え、各脚(120)が、遠位端(124)を備える、前記センサーデータ(134)を受信することと、
前記データ処理ハードウェア(142)によって、前記センサーデータ(134)に基づいて、複数のセグメント(214)を含むボクセルマップ(210)を生成することであって、前記複数のセグメント(214)の各セグメント(214)が、1つ以上のボクセル(212)によって画定される垂直方向の列に対応し、前記複数のセグメント(214)が、少なくとも1つの地面セグメント(214G)と、少なくとも1つの障害物セグメント(214OB)と、を含む、前記ボクセルマップ(210)を生成することと、
前記ボクセルマップ(210)に基づいて、前記データ処理ハードウェア(142)によって、前記ロボット(100)が前記環境(10)の周りで移動しているときに前記ロボット(100)のそれぞれの脚(120)の前記遠位端(124)を配置するための高さを示すように構成された地面高さマップ(230)を生成することであって、前記地面高さマップ(230)が、セルに分割され、少なくとも1つのセルが、それぞれの地面セグメント(214G)に対応し、かつ前記それぞれの地面セグメント(214G)に基づくそれぞれの高さ(232)を含む、前記地面高さマップ(230)を生成することと、
前記データ処理ハードウェア(142)によって、前記地面高さマップ(230)を制御システム(170)に通信することであって、前記制御システム(170)が、前記地面高さマップ(230)に基づいて、前記それぞれの脚(120)の前記遠位端(124)を前記環境(10)内の配置位置に移動させるように構成されている、前記地面高さマップ(230)を通信することと、を含む、方法(800)。 - 前記地面高さマップ(230)を生成することが、前記それぞれの地面セグメント(214G)の1つ以上のボクセル(212)の点重みWPが高さ精度閾値(232TH)を満たすことを決定することを含み、前記点重みWPが、センサーデータ(134)に基づいて、それぞれのボクセル(212)が占有されていることの確実性の程度を示し、前記高さ精度閾値(232TH)が、前記それぞれの地面セグメント(214G)によって表される所与の物体(14)の高さ(232)の精度のレベルを示す、請求項16に記載の方法(800)。
- 前記それぞれの地面セグメント(214G)の1つ以上のボクセル(212)の前記点重みWPが高さ精度閾値(232TH)を満たすことを決定することが、前記それぞれの地面セグメント(214G)を画定する前記1つ以上のボクセル(212)を、前記それぞれの地面セグメント(214G)の最大高さ(232)から、前記それぞれの地面セグメント(214G)の最小高さ(232)まで昇降することを含む、請求項17に記載の方法(800)。
- 前記データ処理ハードウェア(142)によって、前記地面高さマップ(230)の1つ以上のセルが欠落している地形に対応することを識別することと、
前記データ処理ハードウェア(142)によって、前記欠落している地形が前記センサーデータ(134)の妨害(234O)に対応するかどうかを決定することと、
前記欠落した地形が前記センサーデータ(134)の前記妨害(234O)に対応するとき、前記データ処理ハードウェア(142)によって、前記欠落している地形を平坦な地形(234FT)で置き換えることと、をさらに含む、請求項16~18のいずれか一項に記載の方法(800)。 - 前記欠落している地形が前記センサーデータ(134)の前記妨害(234O)に対応しないときには、前記データ処理ハードウェア(142)によって、前記欠落している地形を平滑な地形(234ST)で置き換えることをさらに含む、請求項19に記載の方法(800)。
- 新しいセンサーデータ(134)が前記平坦な地形(234FT)に対応する実際の地形を識別するまで、前記平坦な地形(234FT)が前記地面高さマップ(230)内に持続する、請求項19または20に記載の方法(800)。
- 前記平滑な地形(234ST)が、前記地面高さマップ(230)の後続の反復中に、前記地面高さマップ(230)に対して持続しない、請求項20に記載の方法(800)。
- 方法(900)であって、
データ処理ハードウェア(142)において、ロボット(100)の周りの環境(10)に対応するセンサーデータ(134)を、前記ロボット(100)の少なくとも1つのセンサー(132)から受信することであって、前記ロボット(100)が、ボディ(110)と、脚(120)と、を備え、各脚(120)が、遠位端(124)を備える、前記センサーデータ(134)を受信することと、
前記データ処理ハードウェア(142)によって、前記センサーデータ(134)に基づいて、複数のセグメント(214)を含むボクセルマップ(210)を生成することであって、前記複数のセグメント(214)の各セグメント(214)が、1つ以上のボクセル(212)によって画定される垂直方向の列に対応し、前記複数のセグメント(214)が、少なくとも1つの地面セグメント(214G)と、少なくとも1つの障害物セグメント(214OB)と、を含む、前記ボクセルマップ(210)を生成することと、
前記ボクセルマップ(210)に基づいて、前記データ処理ハードウェア(140)(142)によって、前記ロボット(100)が前記環境(10)の周りで移動しているときに前記ロボット(100)のそれぞれの脚(120)の前記遠位端(124)を配置するための高さを示すように構成された地面高さマップ(230)を生成することと、
前記地面高さマップ(230)に基づいて、前記データ処理ハードウェア(142)によって、1つ以上のステップなし領域(244)を含むステップなしマップ(240)を生成することであって、各ステップなし領域(244)が、前記ロボット(100)が前記環境(10)の周りで移動しているときに前記ロボット(100)のそれぞれの脚(120)の前記遠位端(124)を配置しない領域を示すように構成されており、前記ステップなしマップ(240)が、セル(242)に分割されており、各セル(242)が、距離値と、方向ベクトルと、を含み、前記距離値が、セル(242)に最も近い障害物(O)の境界までの距離を示し、前記方向ベクトルが、前記セル(242)に前記最も近い障害物(O)の前記境界への方向を示す、前記ステップなしマップ(240)を生成することと、
前記データ処理ハードウェア(142)によって、前記ステップなしマップ(240)を制御システム(170)に通信することであって、前記制御システム(170)が、前記ステップなしマップ(240)に基づいて、前記それぞれの脚(120)の前記遠位端(124)を前記環境(10)内の配置位置に移動させるように構成されている、前記ステップなしマップ(240)を通信することと、を含む、方法(900)。 - 前記最も近い障害物(O)の前記境界までの前記距離は、前記セル(242)が前記最も近い障害物(O)の内側にあるか、または前記最も近い障害物(O)の外側にあるかを識別する符号を含む、請求項23に記載の方法(900)。
- 前記データ処理ハードウェア(142)によって、
指令されたスピードを達成するための脚(120)の最小勾配を決定することと、
前記最小勾配に基づいて、脛衝突高さ(hC)を識別することと、
前記ステップなしマップ(240)の各セル(242)に対して、前記脛衝突高さ(hc)をそれぞれのセル(242)の地面高さ(232)と比較することであって、前記それぞれのセル(242)の前記地面高さ(232)が前記地面高さマップ(230)から受信される、前記脛衝突高さ(hc)をそれぞれのセル(242)の地面高さ(232)と比較することと、
によって潜在的な脛衝突に対応する第1のステップなし領域(244)を決定することをさらに含む、請求項23または24に記載の方法(900)。 - 前記データ処理ハードウェア(142)によって、前記脛衝突高さ(hc)と前記それぞれのセル(242)の前記地面高さ(232)との間の差が、脛衝突閾値を満たすことを決定することをさらに含む、請求項25に記載の方法(900)。
- 前記1つ以上のステップなし領域(244)のうちの少なくとも1つのステップなし領域(244)が、前記ロボット(100)の現在の姿勢に基づいて前記ロボット(100)にアクセス可能でないエリアを識別し、前記ロボット(100)にアクセス可能な前記エリアが、前記現在の姿勢とは異なる代替の姿勢である、請求項23~26のいずれか一項である方法(900)。
- 前記ステップなしマップ(240)を生成することが、前記ロボット(100)の特定の脚(120)の前記ステップなしマップ(240)を生成することを含む、請求項23~27のいずれか一項に記載の方法(900)。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962883310P | 2019-08-06 | 2019-08-06 | |
US62/883,310 | 2019-08-06 | ||
US16/573,284 US11416003B2 (en) | 2019-08-06 | 2019-09-17 | Constrained mobility mapping |
US16/573,284 | 2019-09-17 | ||
PCT/US2019/051511 WO2021025708A1 (en) | 2019-08-06 | 2019-09-17 | Constrained mobility mapping |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022543997A true JP2022543997A (ja) | 2022-10-17 |
JP7425854B2 JP7425854B2 (ja) | 2024-01-31 |
Family
ID=74498868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022502057A Active JP7425854B2 (ja) | 2019-08-06 | 2019-09-17 | 制約された移動度マッピング |
Country Status (6)
Country | Link |
---|---|
US (2) | US11416003B2 (ja) |
EP (1) | EP4010773B1 (ja) |
JP (1) | JP7425854B2 (ja) |
KR (1) | KR20220083666A (ja) |
CN (1) | CN114503043A (ja) |
WO (1) | WO2021025708A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9594377B1 (en) * | 2015-05-12 | 2017-03-14 | Google Inc. | Auto-height swing adjustment |
US11599128B2 (en) | 2020-04-22 | 2023-03-07 | Boston Dynamics, Inc. | Perception and fitting for a stair tracker |
US11548151B2 (en) * | 2019-04-12 | 2023-01-10 | Boston Dynamics, Inc. | Robotically negotiating stairs |
FR3099753B1 (fr) * | 2019-08-07 | 2021-09-03 | Safran Aircraft Engines | Procede de surveillance, produit programme d’ordinateur, systeme de surveillance et aeronef associes |
AU2020366385A1 (en) * | 2019-10-15 | 2022-05-12 | Alarm.Com Incorporated | Navigation using selected visual landmarks |
US11597089B2 (en) * | 2020-11-06 | 2023-03-07 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for controlling a destination of a robot |
KR102543745B1 (ko) * | 2021-06-09 | 2023-06-14 | 주식회사 버넥트 | 현장 운전상황 및 설비 정보 수집 방법 및 그 시스템 |
US11753045B2 (en) * | 2021-06-22 | 2023-09-12 | Waymo Llc | Modeling positional uncertainty of moving objects using precomputed polygons |
WO2023085183A1 (ja) * | 2021-11-10 | 2023-05-19 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および移動体 |
DE102021131129A1 (de) | 2021-11-26 | 2023-06-01 | Navvis Gmbh | Mobile vorrichtung und verfahren zum erfassen eines objektraums |
CN115709471B (zh) * | 2023-01-10 | 2023-05-30 | 深圳鹏行智能研究有限公司 | 机器人状态值调整方法及机器人 |
KR102524995B1 (ko) * | 2023-02-02 | 2023-04-25 | 국방과학연구소 | 전자 장치의 지도 생성 방법 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02127180A (ja) * | 1988-11-07 | 1990-05-15 | Agency Of Ind Science & Technol | 歩行機械の歩行脚制御装置 |
JP2007041656A (ja) * | 2005-07-29 | 2007-02-15 | Sony Corp | 移動体制御方法および移動体 |
JP2009271513A (ja) * | 2008-04-30 | 2009-11-19 | Samsung Electronics Co Ltd | ロボット及びその地図作成方法 |
WO2018231616A1 (en) * | 2017-06-14 | 2018-12-20 | Zoox, Inc. | Voxel based ground plane estimation and object segmentation |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0616688D0 (en) * | 2006-08-23 | 2006-10-04 | Qinetiq Ltd | Target orientation |
KR101210498B1 (ko) * | 2010-08-27 | 2012-12-10 | 한국과학기술원 | 이족보행 로봇을 위한 발걸음 계획 방법 |
CA2928262C (en) * | 2010-12-30 | 2018-06-26 | Irobot Corporation | Mobile robot system |
US10081098B1 (en) * | 2014-08-25 | 2018-09-25 | Boston Dynamics, Inc. | Generalized coordinate surrogates for integrated estimation and control |
US9704043B2 (en) * | 2014-12-16 | 2017-07-11 | Irobot Corporation | Systems and methods for capturing images and annotating the captured images with information |
US9594377B1 (en) * | 2015-05-12 | 2017-03-14 | Google Inc. | Auto-height swing adjustment |
US10269257B1 (en) | 2015-08-11 | 2019-04-23 | Gopro, Inc. | Systems and methods for vehicle guidance |
CN105652873B (zh) * | 2016-03-04 | 2018-10-09 | 中山大学 | 一种基于Kinect的移动机器人避障方法 |
GB2550347A (en) * | 2016-05-13 | 2017-11-22 | The Imp College Of Science Tech & Medicine | Real-Time Height Mapping |
US9996944B2 (en) * | 2016-07-06 | 2018-06-12 | Qualcomm Incorporated | Systems and methods for mapping an environment |
CN107515606A (zh) * | 2017-07-20 | 2017-12-26 | 北京格灵深瞳信息技术有限公司 | 机器人实现方法、控制方法及机器人、电子设备 |
CA3000134C (en) * | 2017-11-27 | 2019-07-02 | Cae Inc. | Method and system for simulating a radar image |
US10572775B2 (en) * | 2017-12-05 | 2020-02-25 | X Development Llc | Learning and applying empirical knowledge of environments by robots |
US11237572B2 (en) * | 2018-12-27 | 2022-02-01 | Intel Corporation | Collision avoidance system, depth imaging system, vehicle, map generator and methods thereof |
-
2019
- 2019-09-17 KR KR1020227006639A patent/KR20220083666A/ko not_active Application Discontinuation
- 2019-09-17 EP EP19782821.3A patent/EP4010773B1/en active Active
- 2019-09-17 CN CN201980100707.0A patent/CN114503043A/zh active Pending
- 2019-09-17 WO PCT/US2019/051511 patent/WO2021025708A1/en unknown
- 2019-09-17 JP JP2022502057A patent/JP7425854B2/ja active Active
- 2019-09-17 US US16/573,284 patent/US11416003B2/en active Active
-
2022
- 2022-07-11 US US17/811,840 patent/US20220374024A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02127180A (ja) * | 1988-11-07 | 1990-05-15 | Agency Of Ind Science & Technol | 歩行機械の歩行脚制御装置 |
JP2007041656A (ja) * | 2005-07-29 | 2007-02-15 | Sony Corp | 移動体制御方法および移動体 |
JP2009271513A (ja) * | 2008-04-30 | 2009-11-19 | Samsung Electronics Co Ltd | ロボット及びその地図作成方法 |
WO2018231616A1 (en) * | 2017-06-14 | 2018-12-20 | Zoox, Inc. | Voxel based ground plane estimation and object segmentation |
Also Published As
Publication number | Publication date |
---|---|
JP7425854B2 (ja) | 2024-01-31 |
WO2021025708A1 (en) | 2021-02-11 |
EP4010773B1 (en) | 2024-05-29 |
US11416003B2 (en) | 2022-08-16 |
CN114503043A (zh) | 2022-05-13 |
US20220374024A1 (en) | 2022-11-24 |
US20210041887A1 (en) | 2021-02-11 |
KR20220083666A (ko) | 2022-06-20 |
EP4010773A1 (en) | 2022-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7425854B2 (ja) | 制約された移動度マッピング | |
US11660752B2 (en) | Perception and fitting for a stair tracker | |
JP7219812B2 (ja) | 地形を意識したステッププランニングシステム | |
US20240174310A1 (en) | Stair Tracking for Modeled and Perceived Terrain | |
US7912583B2 (en) | Environment map building method, environment map building apparatus and mobile robot apparatus | |
JP5023186B2 (ja) | 3dワーピング手法と固有対象物運動(pom)の検出の組み合わせに基づく対象物の動き検出システム | |
US11073842B1 (en) | Perception and fitting for a stair tracker | |
EP4139193A1 (en) | Identifying stairs from footfalls | |
Castejón et al. | Compact modeling technique for outdoor navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220311 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230825 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231127 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231222 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7425854 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |