JP6691202B2 - 六角形空間マップにおけるベクトルナビゲーションのためのコンテキストベースの経路計画 - Google Patents
六角形空間マップにおけるベクトルナビゲーションのためのコンテキストベースの経路計画 Download PDFInfo
- Publication number
- JP6691202B2 JP6691202B2 JP2018241990A JP2018241990A JP6691202B2 JP 6691202 B2 JP6691202 B2 JP 6691202B2 JP 2018241990 A JP2018241990 A JP 2018241990A JP 2018241990 A JP2018241990 A JP 2018241990A JP 6691202 B2 JP6691202 B2 JP 6691202B2
- Authority
- JP
- Japan
- Prior art keywords
- objects
- hexagonal grid
- contexts
- identified
- hexagonal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 title claims description 33
- 238000000034 method Methods 0.000 claims description 47
- 230000015654 memory Effects 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 6
- 210000004027 cell Anatomy 0.000 description 52
- 210000004556 brain Anatomy 0.000 description 16
- 238000010586 diagram Methods 0.000 description 9
- 230000009466 transformation Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 210000005171 mammalian brain Anatomy 0.000 description 6
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010304 firing Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 210000004295 hippocampal neuron Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/3415—Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
- G01C21/3881—Tile-based structures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Image Analysis (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
Description
本出願は、2018年2月23日にインドで出願された出願番号201821007023の「六角形空間マップにおけるベクトルナビゲーションのためのコンテキストベースの経路計画(CONTEXT BASED PATH PLANNING FOR VECTOR NAVIGATION IN HEXAGONAL SPATIAL MAPS)」と題するインドの完全明細書に対する優先権を主張する。
本明細書の開示は、一般に経路計画およびナビゲーション技術に関し、特に、六角形空間マップにおけるベクトルナビゲーションのためのコンテキストベースの経路計画に関する。
<注釈、境界正方形の辺、テンプレート形状、色(r、g、b、rの分散、gの分散、bの分散)>
<Obj_type_1,20pi X 35pi,Round,Grey(127,127,127,10,14,18)>
でありうる。
Ck={0,0.4,0,0,0,0,0,0.9,0,0.5,0,.....mまで}→BedRoom
Cj={0,0,0,0,0.5,0,0.9,0,0.2,0,0,.....mまで}→DrawingRoom
<a,b,ObjectProbability>、ここでaおよびbは上記に定義された(a,b)座標系における六角形の中心の座標であり、ObjectProbabilityは、タイプOデータベースに定義されたものの中から任意のオブジェクトを見つける結合確率(combined probability)である。タイプSデータベースは、これら3組タプルにそれぞれ対応する複数のエントリを有する。
<a,b,ObjectAnnotation,ObjectProbability,noOfObservation>
<10,12,Chair,0.4,50>
そして、その座標に関して2つの新たなタプルが追加されて以下のように表現されうる。
<10,12,Table,0.4,20>
<10,12,none、0.2,10>
<10,12,Chair,Time1>,<10,12,Chair,Time2>....<10,12,Chair,Time50>
<10,12,Table,Time51>....<10,12,Table,Time71>
<10,12,none,Time72>....<10,12,none,Time82>
システム100は、現在または従来のロボットの経路計画システムでは不可能である、複数のコンテキストまたは環境にわたる経路を計画するために使用されうる。複数のコンテキストにわたるナビゲーションまたは経路計画は、両方のコンテキストの交差部分に含まれる共通オブジェクトを識別する必要がある。共通の交差部分にあるこれらのオブジェクトは、コンテキスト間経路計画のための接続点である。しかし、全てのオブジェクトがナビゲーションに実行できるように使用されうるわけではなく、両方のコンテキストの境界にあるオブジェクト、または両方のコンテキストにおいて隣接するオブジェクトのみがナビゲーションまたは経路計画に使用されうる。言い換えれば、システム100(または一つ以上のハードウェアプロセッサ104)は、二つ以上のコンテキスト(例えばキッチン、ダイニングおよびホール)の交差部分を示す一つ以上の共通オブジェクト(例えばドア、壁、窓など)を識別し、二つ以上のコンテキストの交差部分からの一つ以上の共通オブジェクトから識別された一つ以上のナビゲーション可能オブジェクト(例えばドア)に基づいて経路を生成する。
例えば、ロボットが音響センサを有する場合には、異なる音プロファイルが識別されることができ、タイプOオブジェクトまたはタイプS位置/コンテキストに投入する/関連付けられるために使用されうる。同様に、ロボットがハプティック(タッチ)センサを有する場合には、異なる表面または触感が識別されることができ、オブジェクトまたはコンテキストに関連付けられることができる。例えば温度、圧力などのセンサを使用しても同様の拡張が可能である。図9は、図1〜8を参照して、本開示の例示的実施形態によるシステム100の実施態様を示す例示的なブロック図を示す。
Claims (20)
- 二次元(2D)環境を取得し六角形格子マップに表現するステップであって、前記六角形格子マップは複数の六角形格子セルを含む、ステップ(202)と、
前記複数の六角形格子セルからの複数の二つ以上の隣接セルに関連する赤緑青(RGB)値の比較に基づいて一つ以上のオブジェクトを識別するステップであって、前記一つ以上のオブジェクトは、一つ以上の六角形格子セルの中心からの各六角形格子セルの中心の距離と六角形の中心の数とに基づいて識別される、ステップ(204)と、
前記識別された一つ以上のオブジェクトについて作成されたタプルに基づいて一つ以上の候補コンテキストを識別するステップ(206)と、
前記六角形格子マップと一つ以上の予め記憶された六角形格子マップとの比較を反復的に行うステップであって、前記六角形格子マップは、記述であり、空間的類似性指数(SSQ)を決定するためにマップデータベースから取得される前記一つ以上の予め記憶された六角形格子マップと反復的に比較され、前記空間的類似性指数は、前記六角形格子マップと前記一つ以上の予め記憶された六角形格子マップのうちの少なくとも一つとの重なりの程度を示す、ステップ(208)と、
前記決定された空間的類似性指数に基づいて前記一つ以上の候補コンテキストから一つ以上のコンテキストを識別するステップ(210)と、
前記一つ以上のオブジェクトと前記識別された一つ以上のコンテキストとに基づいて前記六角形格子マップ内のベクトルナビゲーションのための経路を動的に計画するステップ(212)と
を備える、プロセッサ実施方法。 - 注釈、境界正方形の辺、テンプレート形状、および前記RGB値の分散に基づいて、前記一つ以上のオブジェクトのそれぞれについてオブジェクトデータベースを生成するステップをさらに備える、請求項1に記載のプロセッサ実施方法。
- タプル内の前記識別された一つ以上のオブジェクトを有する一つ以上の推定コンテキストのそれぞれについてコンテキストデータベースを生成するステップをさらに備える、請求項1に記載のプロセッサ実施方法。
- 前記一つ以上のオブジェクトの前記RGB値が予め定義された閾値に等しいときには、前記一つ以上のオブジェクトは一つ以上の予め定義されたオブジェクトとして識別される、請求項1に記載のプロセッサ実施方法。
- 前記一つ以上のオブジェクトの前記RGB値が予め定義された閾値よりも大きいかまたは小さいときには、前記一つ以上のオブジェクトは新たなオブジェクトとして決定される、請求項1に記載のプロセッサ実施方法。
- 前記一つ以上のオブジェクトのサイズおよび形状は、前記距離に基づいて決定される、請求項1に記載のプロセッサ実施方法。
- 二つ以上のコンテキストの交差部分を示す一つ以上の共通オブジェクトを識別するステップと、
前記二つ以上のコンテキストの前記交差部分からの前記一つ以上の共通オブジェクトから識別された一つ以上のナビゲーション可能オブジェクトに基づいて経路を生成するステップと
をさらに備える、請求項1に記載のプロセッサ実施方法。 - 前記一つ以上のコンテキストおよび前記一つ以上のオブジェクトは、一つ以上のセンサから取得される情報を用いて識別される、請求項1に記載のプロセッサ実施方法。
- 後続の経路計画およびベクトルナビゲーションのために識別された前記一つ以上のオブジェクト、前記一つ以上のコンテキスト、および前記動的に計画された経路を用いてロボットを訓練するステップと、
前記後続の経路計画およびベクトルナビゲーションに関する情報を含むデータベースを生成するステップと
をさらに備える、請求項1に記載のプロセッサ実施方法。 - 最大SSQを取得するために前記六角形格子マップと前記一つ以上の候補コンテキストとの比較を行うステップと、
前記最大SSQと予め定義された閾値との比較に基づいて環境を新たな環境または予め定義された環境として識別するステップと
をさらに備える、請求項1に記載のプロセッサ実施方法。 - 命令を記憶するメモリ(102)と、
一つ以上の通信インタフェース(106)と、
前記一つ以上の通信インタフェース(106)を介して前記メモリ(102)に結合された一つ以上のハードウェアプロセッサ(104)とを備え、前記一つ以上のハードウェアプロセッサ(104)は、前記命令により、
二次元(2D)環境を取得し六角形格子マップに表現し、前記六角形格子マップは複数の六角形格子セルを含み、
前記複数の六角形格子セルからの複数の二つ以上の隣接セルに関連する赤緑青(RGB)値の比較に基づいて一つ以上のオブジェクトを識別し、前記一つ以上のオブジェクトは、一つ以上の六角形格子セルの中心からの各六角形格子セルの中心の距離と六角形の中心の数とに基づいて識別され、
前記識別された一つ以上のオブジェクトについて作成されたタプルに基づいて一つ以上の候補コンテキストを識別し、
前記六角形格子マップと一つ以上の予め記憶された六角形格子マップとの比較を反復的に行い、前記六角形格子マップは、一つ以上のバリエーションに変形され、空間的類似性指数(SSQ)を決定するためにマップデータベースから取得される前記一つ以上の予め記憶された六角形格子マップと反復的に比較され、前記空間的類似性指数は、前記六角形格子マップと前記一つ以上の予め記憶された六角形格子マップのうちの少なくとも一つとの重なりの程度を示し、
前記決定された空間的類似性指数に基づいて前記一つ以上の候補コンテキストから一つ以上のコンテキストを識別し、
前記一つ以上のオブジェクトと前記識別された一つ以上のコンテキストとに基づいて前記六角形格子マップ内のベクトルナビゲーションのための経路を動的に計画する
ように構成される、
システム(100)。 - 前記一つ以上のハードウェアプロセッサは前記命令により、注釈、境界正方形の辺、テンプレート形状、および前記RGB値の分散に基づいて、前記一つ以上のオブジェクトのそれぞれについてオブジェクトデータベースを生成するようにさらに構成される、請求項11に記載のシステム。
- 前記一つ以上のハードウェアプロセッサは前記命令により、タプル内の前記識別された一つ以上のオブジェクトを有する一つ以上の推定コンテキストのそれぞれについてコンテキストデータベースを生成するようにさらに構成される、請求項11に記載のシステム。
- 前記一つ以上のオブジェクトの前記RGB値が予め定義された閾値に等しいときには、前記一つ以上のオブジェクトは一つ以上の予め定義されたオブジェクトとして識別される、請求項11に記載のシステム。
- 前記一つ以上のオブジェクトの前記RGB値が予め定義された閾値よりも大きいかまたは小さいときには、前記一つ以上のオブジェクトは新たなオブジェクトとして決定される、請求項11に記載のシステム。
- 前記一つ以上のオブジェクトのサイズおよび形状は、前記距離に基づいて決定される、請求項11に記載のシステム。
- 前記一つ以上のハードウェアプロセッサは前記命令により、
二つ以上のコンテキストの交差部分を示す一つ以上の共通オブジェクトを識別し、
前記二つ以上のコンテキストの前記交差部分からの前記一つ以上の共通オブジェクトから識別された一つ以上のナビゲーション可能オブジェクトに基づいて経路を生成する
ようにさらに構成される、請求項11に記載のシステム。 - 前記一つ以上のコンテキストおよび前記一つ以上のオブジェクトは、一つ以上のセンサから取得される情報を用いて識別される、請求項11に記載のシステム。
- 前記一つ以上のハードウェアプロセッサは前記命令により、
後続の経路計画およびベクトルナビゲーションのために識別された前記一つ以上のオブジェクト、前記一つ以上のコンテキスト、および前記動的に計画された経路を用いてロボットを訓練し、
前記後続の経路計画およびベクトルナビゲーションに関する情報を含むデータベースを生成する
ようにさらに構成される、請求項11に記載のシステム。 - 前記一つ以上のハードウェアプロセッサは前記命令により、
最大SSQを取得するために前記六角形格子マップと前記一つ以上の候補コンテキストとの比較を行い、
前記最大SSQと予め定義された閾値との比較に基づいて環境を新たな環境または予め定義された環境として識別する
ようにさらに構成される、請求項11に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201821007023 | 2018-02-23 | ||
IN201821007023 | 2018-02-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019169125A JP2019169125A (ja) | 2019-10-03 |
JP6691202B2 true JP6691202B2 (ja) | 2020-04-28 |
Family
ID=64331706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018241990A Active JP6691202B2 (ja) | 2018-02-23 | 2018-12-26 | 六角形空間マップにおけるベクトルナビゲーションのためのコンテキストベースの経路計画 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10948918B2 (ja) |
EP (1) | EP3531069B1 (ja) |
JP (1) | JP6691202B2 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11126199B2 (en) * | 2018-04-16 | 2021-09-21 | Baidu Usa Llc | Learning based speed planner for autonomous driving vehicles |
US11586914B2 (en) * | 2019-01-11 | 2023-02-21 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems and methods for evaluating perception systems for autonomous vehicles using quality temporal logic |
CN110631601B (zh) * | 2019-11-13 | 2021-04-27 | 中国电子科技集团公司第二十八研究所 | 一种基于非显示拓扑矢量地图的路径规划方法 |
CN111028350B (zh) | 2019-11-21 | 2022-05-20 | 大连理工大学 | 一种利用双目立体相机构建栅格地图的方法 |
CN111811514B (zh) * | 2020-07-03 | 2023-06-09 | 大连海事大学 | 一种基于正六边形栅格跳点搜索算法的路径规划方法 |
CN112067011B (zh) * | 2020-08-24 | 2024-04-26 | 安庆师范大学 | 一种基于大规模多中心问题的路径规划方法 |
US11356801B1 (en) * | 2020-12-25 | 2022-06-07 | Mapsted Corp. | Method and system for targeted calibration |
CN112880663B (zh) * | 2021-01-19 | 2022-07-26 | 西北工业大学 | 一种考虑累积误差的auv强化学习路径规划方法 |
CN112985405B (zh) * | 2021-02-18 | 2023-06-09 | 湖南国科微电子股份有限公司 | 一种机器人全覆盖路径规划方法、装置、设备及介质 |
CN112807691B (zh) * | 2021-02-22 | 2022-07-29 | 腾讯科技(深圳)有限公司 | 一种寻路方法、系统及存储介质和终端设备 |
CN113203420B (zh) * | 2021-05-06 | 2022-11-18 | 浙江大学 | 一种基于变密度搜索空间的工业机器人动态路径规划方法 |
CN113607171B (zh) * | 2021-08-04 | 2023-05-26 | 清华大学建筑设计研究院有限公司 | 一种疏散路径规划方法、装置、设备及存储介质 |
CN115638803A (zh) * | 2022-10-06 | 2023-01-24 | 东南大学 | 城市兴趣点敏感的个性化路径规划方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4874936A (en) * | 1988-04-08 | 1989-10-17 | United Parcel Service Of America, Inc. | Hexagonal, information encoding article, process and system |
US4998010A (en) * | 1988-04-08 | 1991-03-05 | United Parcel Service Of America, Inc. | Polygonal information encoding article, process and system |
JP2003266349A (ja) * | 2002-03-18 | 2003-09-24 | Sony Corp | 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置 |
KR100791382B1 (ko) * | 2006-06-01 | 2008-01-07 | 삼성전자주식회사 | 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치 |
US8626443B2 (en) | 2009-09-18 | 2014-01-07 | Deutsches Zentrum für Luft—und Raumfahrt e.V. | Method for creating a map relating to location-related data on the probability of future movement of a person |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
EP2570772A1 (en) * | 2011-09-16 | 2013-03-20 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Method for localisation and mapping of pedestrians or robots using wireless access points |
JP2013186615A (ja) * | 2012-03-07 | 2013-09-19 | Brother Ind Ltd | 自動搬送体、自動搬送体制御装置、自動搬送システム、自動搬送方法、及び自動搬送プログラム |
CN103413313B (zh) | 2013-08-19 | 2016-08-10 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
US10922866B2 (en) * | 2017-10-23 | 2021-02-16 | Artificial Intelligence Foundation, Inc. | Multi-dimensional puppet with photorealistic movement |
-
2018
- 2018-11-14 US US16/190,894 patent/US10948918B2/en active Active
- 2018-11-15 EP EP18206380.0A patent/EP3531069B1/en active Active
- 2018-12-26 JP JP2018241990A patent/JP6691202B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
EP3531069A1 (en) | 2019-08-28 |
US20190265711A1 (en) | 2019-08-29 |
US10948918B2 (en) | 2021-03-16 |
JP2019169125A (ja) | 2019-10-03 |
EP3531069B1 (en) | 2021-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6691202B2 (ja) | 六角形空間マップにおけるベクトルナビゲーションのためのコンテキストベースの経路計画 | |
Brachmann et al. | Visual camera re-localization from RGB and RGB-D images using DSAC | |
Shrestha et al. | Learned map prediction for enhanced mobile robot exploration | |
Stylianou et al. | Visualizing deep similarity networks | |
Lyu et al. | Robot path planning by leveraging the graph-encoded Floyd algorithm | |
Kulhánek et al. | Visual navigation in real-world indoor environments using end-to-end deep reinforcement learning | |
JP2018537766A (ja) | ユニバーサル対応ネットワーク | |
JP2023501574A (ja) | 仮想および拡張現実のためのシステムおよび方法 | |
Zhu et al. | Continual semantic segmentation with automatic memory sample selection | |
JP2019003299A (ja) | 画像認識装置および画像認識方法 | |
Meng et al. | Exploiting points and lines in regression forests for RGB-D camera relocalization | |
CN107193923B (zh) | 一种二维地理空间快速矢量叠加的方法及系统 | |
EP4216015A1 (en) | Systems and methods for object detection using a geometric semantic map based robot navigation | |
CN114061586B (zh) | 用于生成电子设备的导航路径的方法和产品 | |
Keshavarzi et al. | Scenegen: Generative contextual scene augmentation using scene graph priors | |
WO2022031232A1 (en) | Method and device for point cloud based object recognition | |
Best et al. | Decentralised self-organising maps for the online orienteering problem with neighbourhoods | |
Li et al. | Sparse-to-local-dense matching for geometry-guided correspondence estimation | |
Howard-Jenkins et al. | LaLaLoc++: Global floor plan comprehension for layout localisation in unvisited environments | |
JP2023109570A (ja) | 情報処理装置、学習装置、画像認識装置、情報処理方法、学習方法、画像認識方法 | |
Soni et al. | Multi-robot unknown area exploration using frontier trees | |
Feng et al. | Floorplannet: Learning topometric floorplan matching for robot localization | |
CN108717302B (zh) | 机器人跟随人物方法、装置及存储介质、机器人 | |
Youngblood et al. | A framework for autonomous mobile robot exploration and map learning through the use of place-centric occupancy grids | |
US20220180548A1 (en) | Method and apparatus with object pose estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190416 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6691202 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |