JP7324248B2 - 自然言語に基づく屋内自律ナビゲーション - Google Patents
自然言語に基づく屋内自律ナビゲーション Download PDFInfo
- Publication number
- JP7324248B2 JP7324248B2 JP2021106992A JP2021106992A JP7324248B2 JP 7324248 B2 JP7324248 B2 JP 7324248B2 JP 2021106992 A JP2021106992 A JP 2021106992A JP 2021106992 A JP2021106992 A JP 2021106992A JP 7324248 B2 JP7324248 B2 JP 7324248B2
- Authority
- JP
- Japan
- Prior art keywords
- node
- coordinates
- current
- robot
- predicting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000009471 action Effects 0.000 claims description 60
- 238000000034 method Methods 0.000 claims description 47
- 230000006399 behavior Effects 0.000 claims description 31
- 230000007704 transition Effects 0.000 claims description 31
- 230000006978 adaptation Effects 0.000 claims description 22
- 230000015654 memory Effects 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 13
- 230000003044 adaptive effect Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 10
- 239000003795 chemical substances by application Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0011—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
- G05D1/0016—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1684—Tracking a line or surface by means of sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/383—Indoor data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Navigation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Traffic Control Systems (AREA)
Description
ロボットは環境に配置され、環境にわたってナビゲーションされる。ロボットがナビゲーションされる環境はタスク環境と呼ばれる。タスク環境は、GPS測位が不可能な環境、屋内空間などとしてもよい。例示的なタスク環境は図2Aに示される。
シーケンス予測モデルは、注釈されたサンプルナビゲーショングラフと対応する自然言語サンプル命令を利用して事前訓練され得るニューラルネットワークモデルである。
が与えられ、目標は以下の式の解を求めることで新しいナビゲーションクエリを考慮した命令を反映する行動シーケンスを推定することである。
式中、nt+1は常にnt-1と異なってもよい。特に、t=0の場合、ロボットが部屋ノードsにあり、1つの有効行動「離れる」だけを有すると仮定する。このようにして、ntからnt+1への有効遷移はタプル<nt、ut、nt+1>として表すことができ、ここで、utは以上の等式(2)より推定されるものである。また、特殊行動bs(即ち、「停止」)を符号化してもよく、該行動は、ナビゲーションの終了を示すために、ロボットによって任意の時間t≧Tに採用されてもよい。
と同じゼロベクトルを生成し、ここで、-∞は無効行動を代える。ある行動bが有効であるか否かを決定するために、以下の条件を満たすntの隣接ノードn’が存在するか否かをチェックする。
本開示の実施形態によれば、電子装置及び読み取り可能な記憶媒体を提供する。
Claims (15)
- タスク環境におけるロボットナビゲーション方法であって、
事前訓練されたシーケンス予測モデルによって前記タスク環境のナビゲーショングラフ、自然言語命令及び前記ロボットの前記ナビゲーショングラフ内での初期位置を受信するステップであって、前記ナビゲーショングラフは前記タスク環境における位置を示すノード、前記ノードの座標及び前記位置の間の接続性を示す辺を含むステップと、
前記事前訓練されたシーケンス予測モデルによって、前記ロボットが実行可能な一連の単一ステップ行動を順次予測することにより、前記ロボットを前記初期位置から目的地にナビゲーションするステップとを含み、
前記順次予測は、
前記予測中の各単一ステップについて、
前記単一ステップに対応する現在の予測プロセスに前記ナビゲーショングラフを適応させることによって、適応コンテキストを生成するステップであって、前記適応コンテキストは、現時点の実際ナビゲーション進捗状況に応じた、有界の先読み視野中の有効ナビゲーション移動のみを含む、前記ナビゲーショングラフのサブセットである、ステップと、
少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップとを含み、
前記予測中の各単一ステップについて、前記適応コンテキストを生成するステップは、
前記ナビゲーショングラフにおいて、前記単一ステップに対応する現在ノードと前記現在ノードの前のノード以外の隣接ノードとの間の有効ノード遷移を探索するステップと、
前記現在ノードの座標、前記現在ノードの前のノードの座標、及び前記現在ノードの前のノード以外の前記隣接ノードの座標に基づいて、有効ノード遷移の行動を予測するステップと、
前記隣接ノードを新たな現在ノードとして、前記新たな現在ノードであるノードと前記現在の単一ステップの現在ノードとの間の距離が予め設定された値以下となるまで探索と予測のステップを繰り返すステップと、
探索した有効ノード遷移及び予測した有効ノード遷移の行動を全てグラフィックスフォーマットに変換して、前記各単一ステップ用の前記適応コンテキストを生成するステップとを含む、方法。 - 前記有効ノード遷移の行動は、離れること、右折して移動すること、左折して移動すること、及び前に移動することからなる行動セットに従って予測される、請求項1に記載の方法。
- 前記現在ノードの座標、前記現在ノードの前のノードの座標、及び前記前のノード以外の前記隣接ノードの座標に基づいて、前記有効ノード遷移の行動を予測するステップは、
前記現在ノードの座標から前記前のノードの座標を減算することによって、前記ロボットの前記現在ノードでの進行方向を決定するステップと、
前記隣接ノードの座標から前記現在ノードの座標を減算することによって、前記ロボットの前記隣接ノードでの進行方向を決定するステップと、
前記ロボットの前記現在ノードでの進行方向と前記ロボットの前記隣接ノードでの進行方向との外積を計算するステップと、
計算した外積に基づいて、前記有効ノード遷移の前記単一ステップ行動を予測するステップとを含む、請求項1に記載の方法。 - 少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップは、
生成した適応コンテキスト、前記自然言語命令、及びゲート付き回帰型ユニットによって更新された現在の隠れ状態に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップであって、前記ゲート付き回帰型ユニットは前の単一ステップの前の単一ステップ行動を入力として、かつ更新して前記現在の隠れ状態を取得するステップを含む、請求項1に記載の方法。 - 前記タスク環境のトポロジーマップを作成するステップであって、前記タスク環境における位置は前記トポロジーマップのノードであり、前記位置の間の接続性は前記トポロジーマップの辺であるステップと、
作成したトポロジーマップを前記タスク環境の前記ナビゲーショングラフとして決定するステップとをさらに含む、請求項1に記載の方法。 - 電子装置であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに操作を実行させる実行可能な命令が記憶されているメモリとを含み、前記操作は、
事前訓練されたシーケンス予測モデルによってタスク環境のナビゲーショングラフ、自然言語命令及びロボットの前記ナビゲーショングラフ内での初期位置を受信することであって、前記ナビゲーショングラフは前記タスク環境における位置を示すノード、前記ノードの座標及び前記位置の間の接続性を示す辺を含むことと、
前記事前訓練されたシーケンス予測モデルによって、前記ロボットが実行可能な一連の単一ステップ行動を順次予測することにより、前記ロボットを前記初期位置から目的地にナビゲーションすることとを含み、
前記順次予測は、
前記予測中の各単一ステップについて、
前記単一ステップに対応する現在の予測プロセスに前記ナビゲーショングラフを適応させることによって、適応コンテキストを生成するステップであって、前記適応コンテキストは、現時点の実際ナビゲーション進捗状況に応じた、有界の先読み視野中の有効ナビゲーション移動のみを含む、前記ナビゲーショングラフのサブセットである、ステップと、
少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップとを含み、
前記予測中の各単一ステップについて、前記適応コンテキストを生成するステップは、
前記ナビゲーショングラフにおいて、前記単一ステップに対応する現在ノードと前記現在ノードの前のノード以外の隣接ノードとの間の有効ノード遷移を探索するステップと、
前記現在ノードの座標、前記現在ノードの前のノードの座標及び前記現在ノードの前のノード以外の前記隣接ノードの座標に基づいて、有効ノード遷移の行動を予測するステップと、
前記隣接ノードを新たな現在ノードとして、前記新たな現在ノードであるノードと前記現在の単一ステップの前記現在ノードとの間の距離が予め設定された値以下となるまで探索と予測のステップを繰り返するステップと、
探索した有効ノード遷移及び予測した有効ノード遷移の行動を全てグラフィックスフォーマットに変換して、前記各単一ステップ用の前記適応コンテキストを生成するステップとを含む、装置。 - 前記有効ノード遷移の行動は、離れること、右折して移動すること、左折して移動すること、及び前に移動することからなる行動セットに従って予測される、請求項6に記載の装置。
- 前記現在ノードの座標、前記現在ノードの前のノードの座標、及び前記前のノード以外の前記隣接ノードの座標に基づいて、前記有効ノード遷移の行動を予測するステップは、
前記現在ノードの座標から前記前のノードの座標を減算することによって、前記ロボットの前記現在ノードでの進行方向を決定するステップと、
前記隣接ノードの座標から前記現在ノードの座標を減算することによって、前記ロボットの前記隣接ノードでの進行方向を決定するステップと、
前記ロボットの前記現在ノードでの進行方向と前記ロボットの前記隣接ノードでの進行方向との外積を計算するステップと、
計算した外積に基づいて、前記有効ノード遷移の前記単一ステップ行動を予測するステップとを含む、請求項6に記載の装置。 - 少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップは、
生成した適応コンテキスト、前記自然言語命令及びゲート付き回帰型ユニットによって更新された現在の隠れ状態に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップであって、前記ゲート付き回帰型ユニットは、前の単一ステップの前の単一ステップ行動を入力として、かつ更新して前記現在の隠れ状態を取得するステップを含む、請求項6に記載の装置。 - 前記操作は、
前記タスク環境のトポロジーマップを作成することであって、前記タスク環境における位置は前記トポロジーマップのノードであり、前記位置の間の接続性は前記トポロジーマップの辺であることと、
作成したトポロジーマップを前記タスク環境の前記ナビゲーショングラフとして決定することとをさらに含む、請求項6に記載の装置。 - 一時的なコンピュータ読み取り可能な記憶媒体であって、
プロセッサに操作を実行させる実行可能なコンピュータプログラムが記憶されており、前記操作は、
事前訓練されたシーケンス予測モデルによってタスク環境のナビゲーショングラフ、自然言語命令及びロボットの前記ナビゲーショングラフ内での初期位置を受信することであって、前記ナビゲーショングラフは前記タスク環境における位置を示すノード、前記ノードの座標及び前記位置の間の接続性を示す辺を含むことと、
前記事前訓練されたシーケンス予測モデルによって、前記ロボットが実行可能な一連の単一ステップ行動を順次予測することにより、前記ロボットを前記初期位置から目的地にナビゲーションすることとを含み、
前記順次予測は、
前記予測中の各単一ステップについて、
前記単一ステップに対応する現在の予測プロセスに前記ナビゲーショングラフを適応させることによって、適応コンテキストを生成するステップであって、前記適応コンテキストは、現時点の実際ナビゲーション進捗状況に応じた、有界の先読み視野中の有効ナビゲーション移動のみを含む、前記ナビゲーショングラフのサブセットである、ステップと、
少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップとを含み、
前記予測中の各単一ステップについて、前記適応コンテキストを生成するステップは、
前記ナビゲーショングラフにおいて、前記単一ステップに対応する現在ノードと前記現在ノードの前のノード以外の隣接ノードとの間の有効ノード遷移を探索するステップと、
前記現在ノードの座標、前記現在ノードの前のノードの座標、及び前記現在ノードの前のノード以外の前記隣接ノードの座標に基づいて、有効ノード遷移の行動を予測するステップと、
前記隣接ノードを新たな現在ノードとして、前記新たな現在ノードであるノードと前記現在の単一ステップの前記現在ノードとの間の距離が予め設定された値以下となるまで探索と予測のステップを繰り返すステップと、
探索した有効ノード遷移及び予測した有効ノード遷移の行動を全てグラフィックスフォーマットに変換して、前記各単一ステップ用の前記適応コンテキストを生成するステップとを含む、一時的なコンピュータ読み取り可能な記憶媒体。 - 前記有効ノード遷移の行動は、離れること、右折して移動すること、左折して移動すること、及び前に移動することからなる行動セットに従って予測される、請求項11に記載の媒体。
- 前記現在ノードの座標、前記現在ノードの前のノードの座標、及び前記前のノード以外の前記隣接ノードの座標に基づいて、前記有効ノード遷移の行動を予測するステップは、
前記現在ノードの座標から前記前のノードの座標を減算することによって、前記ロボットの前記現在ノードでの進行方向を決定するステップと、
前記隣接ノードの座標から前記現在ノードの座標を減算することによって、前記ロボットの前記隣接ノードでの進行方向を決定するステップと、
前記ロボットの前記現在ノードでの進行方向と前記ロボットの前記隣接ノードでの進行方向との外積を計算するステップと、
計算した外積に基づいて、前記有効ノード遷移の前記単一ステップ行動を予測するステップとを含む、請求項11に記載の媒体。 - 少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップは、
生成した適応コンテキスト、前記自然言語命令及びゲート付き回帰型ユニットによって更新された現在の隠れ状態に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップであって、前記ゲート付き回帰型ユニットは、前の単一ステップの前の単一ステップ行動を入力として、かつ更新して前記現在の隠れ状態を取得するステップを含む、請求項11に記載の媒体。 - コンピュータプログラムであって、
プロセッサにより実行されると、請求項1~5の何れか一項に記載の方法を実現するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/131,359 US11720108B2 (en) | 2020-12-22 | 2020-12-22 | Natural language based indoor autonomous navigation |
US17/131,359 | 2020-12-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022023794A JP2022023794A (ja) | 2022-02-08 |
JP7324248B2 true JP7324248B2 (ja) | 2023-08-09 |
Family
ID=76522770
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021106992A Active JP7324248B2 (ja) | 2020-12-22 | 2021-06-28 | 自然言語に基づく屋内自律ナビゲーション |
Country Status (5)
Country | Link |
---|---|
US (1) | US11720108B2 (ja) |
EP (1) | EP3879371B1 (ja) |
JP (1) | JP7324248B2 (ja) |
KR (1) | KR102565438B1 (ja) |
CN (1) | CN114721366A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113485382B (zh) * | 2021-08-26 | 2022-07-12 | 苏州大学 | 面向人机自然交互的移动机器人自主导航方法及系统 |
CN115016341B (zh) * | 2022-05-27 | 2024-07-30 | 武汉理工大学 | 通信时延状态下的船舶远程驾驶容错控制方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010531461A (ja) | 2007-06-25 | 2010-09-24 | マイクロソフト コーポレーション | 目印ベースの経路指定 |
JP2015212706A (ja) | 2015-07-10 | 2015-11-26 | パイオニア株式会社 | 画像処理装置および画像処理方法 |
JP2017053683A (ja) | 2015-09-08 | 2017-03-16 | 株式会社ゼンリンデータコム | 情報処理装置、表示情報製造方法、プログラム、ユーザインタフェース |
WO2020069160A1 (en) | 2018-09-27 | 2020-04-02 | Salesforce.Com, Inc. | Self-aware visual-textual co-grounded navigation agent |
WO2020194253A1 (en) | 2019-03-27 | 2020-10-01 | Rapyuta Robotics Co., Ltd. | Generating a 2d-navigation map for collision-free navigation by multiple robots |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2696096B2 (ja) | 1988-12-26 | 1998-01-14 | 株式会社豊田中央研究所 | 最短経路探索装置 |
JP3370100B2 (ja) | 1991-06-24 | 2003-01-27 | 松下電器産業株式会社 | 推奨経路案内装置 |
CA2246974A1 (en) * | 1998-04-23 | 1999-10-23 | Litton Systems, Inc. | Improved method and apparatus for obtaining attitude updates in a strapdown inertial navigation system |
CN102271379B (zh) * | 2011-05-09 | 2013-09-18 | 陈实 | 一种基于上下文感知技术的物联网节点节能路由方法 |
WO2016050274A1 (en) * | 2014-09-30 | 2016-04-07 | Nec Europe Ltd. | Method and system for determining a path of an object for moving from a starting state to an end state set avoiding one or more obstacles |
US10488865B2 (en) * | 2014-12-16 | 2019-11-26 | Al Incorporated | Methods and systems for robotic surface coverage |
CN105955254B (zh) * | 2016-04-25 | 2019-03-29 | 广西大学 | 一种适用于机器人路径搜索的改进的a*算法 |
WO2018184108A1 (en) * | 2017-04-04 | 2018-10-11 | Appropolis Inc. | Location-based services system and method therefor |
US10606898B2 (en) * | 2017-04-19 | 2020-03-31 | Brown University | Interpreting human-robot instructions |
CN107610212B (zh) * | 2017-07-25 | 2020-05-12 | 深圳大学 | 场景重建方法、装置、计算机设备以及计算机存储介质 |
CN110297697B (zh) * | 2018-03-21 | 2022-02-18 | 北京猎户星空科技有限公司 | 机器人动作序列生成方法和装置 |
US11034019B2 (en) * | 2018-04-19 | 2021-06-15 | Brown University | Sequence-to-sequence language grounding of non-Markovian task specifications |
US11155259B2 (en) * | 2018-09-13 | 2021-10-26 | Honda Motor Co., Ltd. | System and method for egocentric-vision based future vehicle localization |
US11911908B2 (en) * | 2018-12-21 | 2024-02-27 | Intrinsic Innovation Llc | Dynamic probabilistic motion planning |
US20220092456A1 (en) * | 2019-01-23 | 2022-03-24 | Deepmind Technologies Limited | Controlling an agent to explore an environment using observation likelihoods |
US20200302250A1 (en) * | 2019-03-22 | 2020-09-24 | Nvidia Corporation | Iterative spatial graph generation |
US11131993B2 (en) * | 2019-05-29 | 2021-09-28 | Argo AI, LLC | Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout |
US20210403051A1 (en) * | 2019-06-05 | 2021-12-30 | Lg Electronics Inc. | Method for controlling autonomous vehicle |
CN114174766A (zh) * | 2019-08-06 | 2022-03-11 | 波士顿动力公司 | 中间路径点生成器 |
CN110825829B (zh) | 2019-10-16 | 2023-05-26 | 华南理工大学 | 一种基于自然语言和语义地图实现机器人自主导航的方法 |
US11767035B2 (en) * | 2020-09-04 | 2023-09-26 | Mitsubishi Electric Research Laboratories, Inc. | Autonomous parking with hybrid exploration of parking space |
-
2020
- 2020-12-22 US US17/131,359 patent/US11720108B2/en active Active
-
2021
- 2021-06-15 EP EP21179395.5A patent/EP3879371B1/en active Active
- 2021-06-22 CN CN202110691568.2A patent/CN114721366A/zh active Pending
- 2021-06-23 KR KR1020210081469A patent/KR102565438B1/ko active IP Right Grant
- 2021-06-28 JP JP2021106992A patent/JP7324248B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010531461A (ja) | 2007-06-25 | 2010-09-24 | マイクロソフト コーポレーション | 目印ベースの経路指定 |
JP2015212706A (ja) | 2015-07-10 | 2015-11-26 | パイオニア株式会社 | 画像処理装置および画像処理方法 |
JP2017053683A (ja) | 2015-09-08 | 2017-03-16 | 株式会社ゼンリンデータコム | 情報処理装置、表示情報製造方法、プログラム、ユーザインタフェース |
WO2020069160A1 (en) | 2018-09-27 | 2020-04-02 | Salesforce.Com, Inc. | Self-aware visual-textual co-grounded navigation agent |
WO2020194253A1 (en) | 2019-03-27 | 2020-10-01 | Rapyuta Robotics Co., Ltd. | Generating a 2d-navigation map for collision-free navigation by multiple robots |
Non-Patent Citations (1)
Title |
---|
ZHOU et al.,Translating Natural Language Instructions for Behavioral Robot Indoor Navigation with Attention-History Based Attention,CSAI '20,2020年12月13日,pp.261-265,<URL:https://dl.acm.org/doi/10.1145/3445815.3445857> |
Also Published As
Publication number | Publication date |
---|---|
JP2022023794A (ja) | 2022-02-08 |
KR20210087903A (ko) | 2021-07-13 |
EP3879371A2 (en) | 2021-09-15 |
EP3879371B1 (en) | 2022-11-30 |
KR102565438B1 (ko) | 2023-08-08 |
US20220197288A1 (en) | 2022-06-23 |
CN114721366A (zh) | 2022-07-08 |
US11720108B2 (en) | 2023-08-08 |
EP3879371A3 (en) | 2021-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111767379B (zh) | 图像问答方法、装置、设备以及存储介质 | |
CN110692066B (zh) | 使用多模态输入选择动作 | |
Zhu et al. | Babywalk: Going farther in vision-and-language navigation by taking baby steps | |
CN112560496B (zh) | 语义分析模型的训练方法、装置、电子设备及存储介质 | |
US10664725B2 (en) | Data-efficient reinforcement learning for continuous control tasks | |
JP7324248B2 (ja) | 自然言語に基づく屋内自律ナビゲーション | |
WO2019219969A1 (en) | Graph neural network systems for behavior prediction and reinforcement learning in multple agent environments | |
CN110114784B (zh) | 递归环境预测器及其方法 | |
CN111353009B (zh) | 建立路线耗时预估模型、预估路线耗时的方法及对应装置 | |
US11699096B2 (en) | Systems and methods for event prediction using schema networks | |
JP7133002B2 (ja) | 句読点予測方法および装置 | |
US20210232986A1 (en) | Parking lot free parking space predicting method, apparatus, electronic device and storage medium | |
CN114357105A (zh) | 地理预训练模型的预训练方法及模型微调方法 | |
KR20210088463A (ko) | 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기 | |
JP2021076605A (ja) | ビジュアルローカリゼーションとオドメトリに基づく経路追跡方法およびシステム | |
US20230080342A1 (en) | Methods and system for goal-conditioned exploration for object goal navigation | |
CN111292549B (zh) | 建立路线耗时预估模型的方法、预估路线耗时的方法及对应装置 | |
Wu et al. | Vision-language navigation: a survey and taxonomy | |
JP2022031636A (ja) | 車両進行方向を出力する方法、装置、電子機器、記憶媒体、路側機、クラウド制御プラットフォーム及びコンピュータプログラム | |
KR102683574B1 (ko) | 맵 상의 종착지를 결정하는 방법, 기기 및 저장매체 | |
Li et al. | Multi-Agent Dynamic Relational Reasoning for Social Robot Navigation | |
CN116030235A (zh) | 目标检测模型训练方法、目标检测方法、装置和电子设备 | |
Chung et al. | Robot motion planning in dynamic uncertain environments | |
JP2021143830A (ja) | 情報処理装置および情報処理方法 | |
CN111832602B (zh) | 基于地图的特征嵌入方法、装置、存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210628 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221108 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7324248 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |