JP7324248B2 - 自然言語に基づく屋内自律ナビゲーション - Google Patents

自然言語に基づく屋内自律ナビゲーション Download PDF

Info

Publication number
JP7324248B2
JP7324248B2 JP2021106992A JP2021106992A JP7324248B2 JP 7324248 B2 JP7324248 B2 JP 7324248B2 JP 2021106992 A JP2021106992 A JP 2021106992A JP 2021106992 A JP2021106992 A JP 2021106992A JP 7324248 B2 JP7324248 B2 JP 7324248B2
Authority
JP
Japan
Prior art keywords
node
coordinates
current
robot
predicting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021106992A
Other languages
English (en)
Other versions
JP2022023794A (ja
Inventor
ジンシン ハオ、
リャンジュン ツァン、
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu USA LLC
Original Assignee
Baidu USA LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu USA LLC filed Critical Baidu USA LLC
Publication of JP2022023794A publication Critical patent/JP2022023794A/ja
Application granted granted Critical
Publication of JP7324248B2 publication Critical patent/JP7324248B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/383Indoor data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0219Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、コンピュータの技術分野に関し、特に屋内自律ナビゲーションに関し、より具体的には、タスク環境におけるロボットナビゲーション方法に関する。
現在、ほとんどの移動ロボットに使用されている自律ナビゲーションシステムは走査により予め作成されているタスク環境の細粒度地図に依存する。ナビゲーション中、ロボットは、座標を受信したことに応答して、探索アルゴリズムを通じてグローバル経路を探索し、次に、局所観測値に基づいてグローバル経路を最適化して最終的な計画経路を取得する。しかしながら、新環境にある場合、目的地の座標が未知であったり、細粒度の地図が利用不能であったりする可能性があるため、従来の移動ロボットは直ちに自律ナビゲーションを実行することができない。
本開示の実施形態は、タスク環境におけるロボットナビゲーション方法、機器、及び非一時的な媒体を提供する。
第1の態様では、本開示のいくつかの実施形態は、タスク環境におけるロボットナビゲーション方法を提供する。該方法は、事前訓練されたシーケンス予測モデルによってタスク環境のナビゲーショングラフ、自然言語命令及びロボットのナビゲーショングラフ内での初期位置を受信するステップであって、ナビゲーショングラフはタスク環境における位置を示すノード、ノードの座標及び位置の間の接続性を示す辺を含むステップと、事前訓練されたシーケンス予測モデルによって、ロボットが実行可能な一連の単一ステップ行動を順次予測することにより、ロボットを初期位置から目的地にナビゲーションするステップとを含む。
第2の態様では、本開示のいくつかの実施形態は電子装置を提供し、該電子装置は、少なくとも1つのプロセッサとメモリとを含み、該メモリには、第1の態様に係る実施形態のいずれかのタスク環境におけるロボットナビゲーション方法を少なくとも1つのプロセッサに実行させる実行可能な命令が記憶されている。
第3の態様では、本開示のいくつかの実施形態は、コンピュータプログラムを記憶する一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータプログラムは、実行されて、第1の態様の実施形態のいずれかのタスク環境におけるロボットナビゲーション方法をプロセッサに実行させ得る。
第4の態様では、本開示の幾つかの実施形態は、コンピュータプログラムであって、プロセッサにより実行されると、第1の態様の実施形態の何れか一項に記載の方法を実現するコンピュータプログラムを提供する。
以下の図面を参照して非限定的な実施形態の詳細な説明を閲覧することにより、本開示の他の特徴、目的及び利点はより明らかになる。
本開示の実施形態に係るタスク環境におけるロボットナビゲーション方法のフローチャートである。 実施形態に係る例示的なタスク環境の模式図である。 図2Aに示すタスク環境の例示的なナビゲーショングラフの模式図である。 本開示の実施形態に係る一連の単一ステップ行動を予測するための方法の模式図である。 3ステップ動作伝播の模式図である。 本開示の実施形態に係るナビゲーションエージェントの模式図である。 本開示の実施形態に係る一連の単一ステップ行動を予測するための機器の模式的な構造図である。 本開示の実施形態に係る電子装置のブロック図である。
以下、図面を参照して本開示の実施形態を詳細に説明する。理解すべきものとして、本明細書で説明される特定実施形態は関連する開示内容を解釈するために過ぎず、限定的な内容ではない。また、なお、説明の便宜上、図面には関連開示に関する部材だけが示されている。
さらに、なお、本開示におけるいくつかの実施形態及び本開示のいくつかの特徴は、矛盾しない限り、互いに組み合わせることができる。以下、図面を参照して実施形態と組み合わせて、本開示の特徴を詳細に説明する。
図1は本開示の実施形態に係るタスク環境におけるロボットナビゲーション方法のフローチャートである。本開示の実施形態において開示された方法は、タスク環境におけるロボットナビゲーション機器によって実行されてもよく、該機器は、ソフトウェア及び/又はハードウェアで実現されてもよく、そして、計算能力を有する任意の電子装置(例えばサーバ又は端末)に集積されてもよい。
図1に示すように、本開示の実施形態において開示されたタスク環境におけるロボットナビゲーション方法は、ステップS101及びステップS102を含んでもよい。ステップS101では、事前訓練されたシーケンス予測モデルによってタスク環境のナビゲーショングラフ、自然言語命令及びロボットのナビゲーショングラフ内での初期位置を受信し、ステップS102では、事前訓練されたシーケンス予測モデルによって、ロボットが実行可能な一連の単一ステップ行動を順次予測することにより、ロボットを初期位置から目的地にナビゲーションする。以下、この2つのステップを参照して詳細に説明する。
ステップS101:
ロボットは環境に配置され、環境にわたってナビゲーションされる。ロボットがナビゲーションされる環境はタスク環境と呼ばれる。タスク環境は、GPS測位が不可能な環境、屋内空間などとしてもよい。例示的なタスク環境は図2Aに示される。
ロボットは、廊下に沿って走行する場合、正確なセマンティクスを有する空間に沿って移動することを知るだけでよく、該空間は何らかの幾何学的仕様(例えば経路の幅や曲率)を有する必要がない。したがって、タスク環境全体におけるロボットのナビゲーションは、タスク環境をトポロジーマップとして示すことにより実現され得る。トポロジーマップにおけるノードは、セマンティクス的に意味がある位置(例えば部屋や廊下)を示し、辺は接続性を示してもよい。トポロジー地図はタスク環境全体でロボットをナビゲーションするナビゲーショングラフとして利用可能である。図2Aのタスク環境に対応する例示的なナビゲーショングラフは図2Bに示される。
いくつかの実施形態では、ナビゲーショングラフが無向辺及びノード座標の両方を用いて符号化される。ナビゲーショングラフでは、無向辺は無方向又は双方向の辺として示されてもよい。一例として、図2Bには、無向辺が双方向辺として示される。
ナビゲーショングラフに実際の幾何学的情報を表示することにより、実際のオンラインナビゲーション進捗状況に基づいて環境知識を適応的に解釈することが可能となる。特定のナビゲーションプロセスにおける不要な情報をフィルタリングすることによって、よりコンパクトでより方向性を持つルーティング表現を生成させ得る。
例示的なシナリオでは、図2Aに示すように、ロボットが事務室-3にあり、事務室-0へナビゲーションする必要がある場合、自然言語の各種の命令シーケンスを使用して期待のパスに沿って事務室-0に移動するようにロボットをガイドすることができる。一例として、図2Aには期待のパスが示されている。各種の命令シーケンスとしては、「部屋から離れると左折する。前に移動してから、再度左折して廊下に沿って走行する。行きつくところまで行くと左折して左側の二番目の部屋に入る」、又は「部屋から離れる。左折して廊下の行きつくところまで行く。左折して終点まで行く。左折する。前に移動して左側の二番目の部屋に至る」が含まれてもよい。同じナビゲーションセマンティクス(即ち、「離れる」、「左折」、「移動」、「左折」など)が含まれるにも関わらず、この2つの命令シーケンスはパスの異なるセクション及び重要な行動の順番に依存する。事務室-3から事務室-0へロボットをナビゲーションする期待のパスも図2Bに示されている。図2Bに示すノードシーケンス4-3-5-…は図2Aに示す期待のパスに相当する。
いくつかの実施形態では、ノード、ノードの座標及びノードの間の辺を含むナビゲーショングラフ、自然言語命令、及びロボットの初期位置又は初期ノードを事前訓練されたシーケンス予測モデルに入力し、シーケンス予測モデルに基づいて一連の単一ステップ行動を生成することに用い、ロボットは一連の単一ステップ行動を実行して、初期位置(例えば、事務室-3)から目的地(例えば、事務室-0)にナビゲーションされてもよい。
ステップS102:
シーケンス予測モデルは、注釈されたサンプルナビゲーショングラフと対応する自然言語サンプル命令を利用して事前訓練され得るニューラルネットワークモデルである。
いくつかの実施形態では、シーケンス予測モデルは、ロボットが実行可能な一連の単一ステップ行動を順次予測する。
図3は本開示の実施形態に係る一連の単一ステップ行動を予測するための方法の模式図を示す。図3に示すように、一連の単一ステップ行動を予測するための方法は、(1)無向辺E、ノードN及びノード座標Xを有するナビゲーショングラフG;(2)自然ナビゲーション命令I;及び(3)初期位置S∈Nの3つの入力を採用する。シーケンス予測モデルは行動シーケンスu0:T-1:=(u,…,uT-1)を生成することができ、ロボットは行動シーケンスu0:T-1を実行して、自然ナビゲーション命令Iに記載のようにsから目標状態gにナビゲーションされ得る。
モデルの訓練中、訓練サンプル
が与えられ、目標は以下の式の解を求めることで新しいナビゲーションクエリを考慮した命令を反映する行動シーケンスを推定することである。
目標がハイレベルの行動計画であるため、命令で記述される目標状態は目標位置だけを指定し、期待の進行方向を指定しなくてもよい。したがって、ナビゲーション能力が失われない場合、本開示の実施形態は簡単な行動セットB:={b(即ち、「離れること」)、b(即ち、「右折して移動すること」)、b(即ち、「左折して移動すること」)、及びb(即ち、「前に移動すること」)}を保持する。提案されている解決手段は、様々な状況(例えば「Tジャンクションで直進する」や「廊下を直進する」)で同じ移動に個別の行動を割り当てることと異なる。このコンパクトな行動セットにより、命令を特定の環境にマッチングするのではなく、命令をナビゲーション移動にマッチングすることを学習することに集中することができ、それにより、汎用性を効果的に向上させる。
動作シーケンスu0:T-1:=(u、…、uT-1)が与えられると、ロボットは時間tに動作uを実行し、ノードnからnt+1に移転し得る。予想されたナビゲーション全体はn=sから始まり、目標状態n=gで終了する。いくつかの実施形態では、ロボットが常に移動方向に向かって走行すると仮定して、移動前後のロボットの進行方向を比較することによって、各動作uをu=b∈Bに分類することができる。時間tに、ロボットがノードnにあるとする。次に、進行方向φ x(n)-x(nt-1)とφt+1 x(nt+1)-x(n)との外積を計算することによって、動作uを次のように分類することができる。
式中、nt+1は常にnt-1と異なってもよい。特に、t=0の場合、ロボットが部屋ノードsにあり、1つの有効行動「離れる」だけを有すると仮定する。このようにして、nからnt+1への有効遷移はタプル<n、u、nt+1>として表すことができ、ここで、uは以上の等式(2)より推定されるものである。また、特殊行動b(即ち、「停止」)を符号化してもよく、該行動は、ナビゲーションの終了を示すために、ロボットによって任意の時間t≧Tに採用されてもよい。
図3に提案されているシーケンス予測モデルは、隠れ状態hの形式でナビゲーションの進捗状況を追跡するゲート付き回帰型ユニット(GRU)セルと、次の動作uを選択するナビゲーションエージェントとの2つの部分として構成されている。各ステップでは、GRUセルは、前の動作ut-1を入力として、隠れ状態hを更新する。ナビゲーションエージェントは、ナビゲーション進捗状況h、ナビゲーショングラフG及び命令Iを組み合わせて、次の動作uを選択する。次に、ロボットは、uとグラフGにより定義された遷移モデルに従って、nからnt+1に移動する。同じプロセスを繰り返して、ナビゲーションエージェントが目標に到達したことを示す動作b(即ち、「停止」)を選択する。言い換えれば、提案されているモデルは、一連の単一ステップ動作予測の問題を解決し、各単一ステップ動作予測の問題は前のステップにおける解に依存する。
いくつかの実施形態では、予測中の各単一ステップについて、単一ステップに対応する現在の予測プロセスにナビゲーショングラフを適用させることによって適応コンテキストを生成し、少なくとも生成した適応コンテキストと自然言語命令に基づいて現在の単一ステップ用の単一ステップ行動を予測する。現在の単一ステップに対応する実際予測プロセスにナビゲーショングラフを適応させることによって、ナビゲーション命令に従うときに、常に地図マップに均等に注意を払うのではなく、人間が通常ローカルホライズンで関連情報を探索するという観察に従う。現在の単一ステップに対応する実際予測プロセスにナビゲーショングラフを適応させるとともに、適応させるコンテキストに基づいて現在の単一ステップ用の単一ステップ行動を予測することによって、命令セマンティクスとナビゲーション計画の間の柔軟な対応関係が直面する課題は新しい大きな地図への限られた拡張で解決される。
いくつかの実施形態では、知識ベースの適応は、いわゆるd-ステップ動作伝播によって実現され得る。知識ベースの適用を実現するための他の方法も採用され得る。
グラフGの接続性情報G:=<E,N,X>は、1グループのタプル{<n,b,n’>}として表され、各タプルは、タイプbを有するノードnからタイプbを有するノードn’へ移動する有効ナビゲーション行動を表す。前述部分に記載のように、有向辺<n,n’>用の有効行動がタイプbであることは、nに到達する前のロボットの可能な前の位置nprevに依存する。したがって、遷移<n,b,n’>は、代替的に「前-現在-次」のフォーマット<nprev,n,n’>で表されてもよく、それにより、上記等式(2)に従ってbを推定できる。知識ベースGに適応させるために、次のd個のステップにおいて実行し得る有効行動を探索する。言い換えれば、即時履歴<nt-1,n>から続くロボットの移動をシミュレートし、任意の有効なノード遷移及びその行動タイプを記憶する。以下、このようなプロセスをd-ステップ動作伝播と呼ぶ。このようなプロセスは、<nt-1,n>を初期元素として、Gにおける有向辺に対して有界の幅優先探索を行うものとして実現される。キューから有向辺<nprev,n>がポップされるたびに、nにおけるnprevではない全ての隣接n’を収集する。n’ごとに、<n,n’>をキューに追加し、タプル<nprev,n,n’>を作成する。続いて、該タプルをグラフフォーマット<n,b,n’>に変換し、ここで、行動タイプbは、上記の等式(2)に従って座標x(nprev)、x(n)及びx(n’)より推定される。n’と現在ノードnの間の距離がd以内にある全ての有効遷移を収集できる。
図5は本開示の実施形態に係るナビゲーションエージェントの模式図である。ナビゲーションエージェントの構築には、主に、コンテキストと命令の埋め込み、特徴抽出、及びコンテキスト命令注意が含まれる。
コンテキスト命令注意:注意メカニズムを介して、ナビゲーションコンテキストと命令との間で対応関係を探す。いくつかの実施形態では、コンテキスト特徴のみが命令特徴に関わる一方向の注意が使用される。なお、適応コンテキストの設定では、注意メカニズムは、人々が地図上で経路を探索する方式だけではなく、人々が次の移動を决定するときに付近の環境に主に注意を支払うという事実にも似ている。これは、命令がグローバルなランドマークではなく、ローカル環境に基づいている場合に特に当てはまる。
行動予測:最終的に、プロセス意識コンテキストSと隠れ状態hが組み合わせられて、時間tでポリシーを生成する。Sとhとを連結して完全接続層にフィードすることにより生の動作確率特徴
いくつかの実施形態では、マスク関数への入力は、ナビゲーショングラフG全体と現在のステップtまでのナビゲーション軌跡n0:tを含む。該関数は、サイズが
と同じゼロベクトルを生成し、ここで、-∞は無効行動を代える。ある行動bが有効であるか否かを決定するために、以下の条件を満たすnの隣接ノードn’が存在するか否かをチェックする。
いくつかの実施形態では、n=nt-1(又はut-=b)の場合、ナビゲーションがすでに終了しているため、時間tで停止動作が強制的に実行される。なお、各ステップtでの有効動作空間は位置nだけでなく、履歴位置nt-1によって決定される。このような設定により、行動セマンティクスを位置にバインドするという要件が解除され、それにより、コンパクトな知識表現及び行動セマンティクスの柔軟な推定が可能になる。
さらに、図6を参照して、一連の単一ステップ行動を予測するための方法の実現形態として、本開示の実施形態は一連の単一ステップ行動を予測するための機器を提供し、該機器の実施形態は上記の各種の方法実施形態に対応し、且つ、該機器は具体的には、各種の電子装置に適用できる。
図6に示すように、本実施形態の一連の単一ステップ行動を予測するための機器600は、受信ユニット601と予測ユニット602を含む。受信ユニット601はタスク環境のナビゲーショングラフ、ロボットの自然言語命令及びナビゲーショングラフでの初期位置を受信するように構成され、ここで、ナビゲーショングラフは、タスク環境における位置を示すノード、ノードの座標及び位置の間の接続性を示す辺を含む。予測ユニット602は、ロボットが実行可能な一連の単一ステップ行動を順次予測することにより、ロボットを初期位置から目的地にナビゲーションするように構成される。
いくつかの実施形態では、予測ユニットは、適応コンテキスト生成サブユニットと予測サブユニットをさらに含む。適応コンテキスト生成サブユニットは、予測中の各単一ステップについて、単一ステップに対応する現在の予測プロセスにナビゲーショングラフを適応させることによって、適応コンテキストを生成するように構成される。予測サブユニットは、少なくとも生成した適応コンテキストと自然言語命令に基づいて、単一ステップ用の単一ステップ行動を予測するように構成される。
いくつかの実施形態では、適応コンテキスト生成サブユニットは、さらに、ナビゲーショングラフにおいて単一ステップに対応する現在ノードと現在ノードの前のノード以外の隣接ノードの間の有効ノード遷移を探索し、現在ノードの座標、現在ノードの前のノードの座標及び現在ノードの前のノード以外の隣接ノードの座標に基づいて、有効ノード遷移の行動を予測し、隣接ノードを新たな現在ノードとして、新たな現在ノードであるノードと現在の単一ステップの現在ノードとの間の距離が予め設定された値以下となるまで探索と予測ステップを繰り返し、探索した有効ノード遷移及びその予測行動を全てグラフィックスフォーマットに変換して、各単一ステップ用の適応コンテキストを生成するように構成される。
いくつかの実施形態では、有効ノード遷移の行動は、離れること、右折して移動すること、左折して移動すること、及び前に移動することからなる行動セットによって予測される。
いくつかの実施形態では、適応コンテキスト生成サブユニットは、さらに、現在ノードの座標から前のノードの座標を減算することによって、ロボットの現在ノードでの進行方向を決定し、隣接ノードの座標から現在ノードの座標を減算することによって、ロボットの隣接ノードでの進行方向を決定し、ロボットの現在ノードでの進行方向とロボットの隣接ノードでの進行方向との外積を計算し、計算した外積に基づいて、有効ノード遷移の単一ステップ行動を予測するように構成される。
いくつかの実施形態では、予測サブユニットは、さらに、生成した適応コンテキスト、自然言語命令及びゲート付き回帰型ユニット(GRU)によって更新された現在の隠れ状態に基づいて、単一ステップ用の単一ステップ行動を予測するように構成され、ここで、GRUは、前の単一ステップの前の単一ステップ行動を入力として、更新を行って現在の隠れ状態を取得する。
いくつかの実施形態では、一連の単一ステップ行動を予測する機器はナビゲーショングラフ作成ユニットをさらに含み、該ナビゲーショングラフ作成ユニットは、タスク環境のトポロジーマップを作成し、作成したトポロジーマップをタスク環境のナビゲーショングラフとして決定するように構成され、ここで、タスク環境における位置はトポロジーマップのノードとして機能し、位置の間の接続性はトポロジーマップの辺として機能する。
機器600は、前述の方法実施形態におけるステップに対応する。したがって、上記の一連の単一ステップ行動を予測するための方法において実現し得る操作、特徴及び技術的効果は機器600及びそれに含まれるユニットにおいても同様であり、これらについての詳細な説明を省略する。
本開示の実施形態によれば、電子装置及び読み取り可能な記憶媒体を提供する。
図7に示すように、本開示の実施形態に係る一連の単一ステップ行動を予測する方法の電子装置のブロック図が示されている。電子装置は、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及びその他の適切なコンピュータなど、様々な形式のデジタルコンピュータを指すことを意図している。電子装置は、例えば、パーソナルデジタルアシスタント、携帯電話、スマートフォン、ウェアラブル装置、及びその他の類似のコンピューティング装置など、様々な形式の移動機器を示してもよい。本明細書に示されている部材、それらの接続と関係、及びそれらの機能は単なる例であるが、本明細書の説明及び/又は要求される本開示の実現を制限する意図はしない。
図7に示すように、電子装置は、1つ又は複数のプロセッサ701、メモリ702及び各部材を接続するインターフェース(高速インターフェースと低速インターフェースを含む)を含む。各種の部材は異なるバスを用いて互いに接続されており、必要に応じてユニバーサルマザーボードに取り付けられたり、他の方法で取り付けられたりすることができる。プロセッサは、電子装置内で実行する命令、例えばメモリ内又はメモリ上に記憶された命令を処理することで、外部入力/出力装置(例えばインターフェースに接続される表示装置)上にGUIのグラフィカル情報を表示することができる。別の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバスは複数のメモリとともに使用され得る。同様に、複数の電子装置が接続されてもよく、且つこれらの装置は一部の必須な操作を提供し、例えば、サーバアレイ、1グループのブレードサーバ又はマルチプロセッサシステムとして機能する。図7において、一例として、1つのプロセッサ701が使用されている。
メモリ702は、本開示の実施形態による一時的なコンピュータ読み取り可能な記憶媒体である。メモリは少なくとも1つのプロセッサにより実行可能な命令を記憶し、本開示の実施形態による一連の単一ステップ行動を予測するための方法を少なくとも1つのプロセッサに実行させる。本開示の一時的なコンピュータ読み取り可能な記憶媒体は、本開示の実施形態による一連の単一ステップ行動を予測する方法をコンピュータに実行させるコンピュータ命令を記憶している。
一時的なコンピュータ読み取り可能な記憶媒体であるメモリ702は、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュール、例えば本開示の実施形態における一連の単一ステップ行動を予測するための方法に対応するプログラム命令/モジュール(例えば、図6に示す受信ユニット601及び予測ユニット602)を記憶することに用いられ得る。プロセッサ701は、メモリ702に記憶された非一時的なソフトウェアプログラム、命令及びモジュールを実行することで、サーバの各種の機能的アプリケーション及びデータ処理を実行し、即ち、前述方法実施形態における一連の単一ステップ行動を予測する方法を実現する。
メモリ702は、プログラム記憶エリアとデータ記憶エリアを含むことができ、これらのうち、プログラム記憶エリアは、オペレーティングシステムと少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データ記憶エリアは電子装置を使用して作成される一連の単一ステップ行動を予測するためのデータを記憶することができる。また、メモリ702は、高速ランダムアクセスメモリを含んでもよく、且つ非一時的なメモリ、例えば少なくとも1つの磁気ディスク記憶装置、フラッシュ装置又は他の非一時的な固体記憶装置をさらに含んでもよい。いくつかの実施形態では、メモリ702は、任意に、プロセッサ701に対して遠隔的に配置されたメモリを含み、且つこれらの遠隔メモリは電子装置に接続されてネットワークを介して一連の単一ステップ行動を予測することができる。上記ネットワークの例として、インターネット、イントラネット、ローカルエリアネットワーク、移動通信ネットワーク及びこれらの組み合わせが含まれるが、これらに制限されない。
一連の単一ステップ行動を予測するための方法の電子装置は、入力装置703と出力装置704をさらに含んでもよい。プロセッサ701、メモリ702、入力装置703、及び出力装置704は、バス705又は他の方法を通じて接続されてもよい。図7において、一例として、バス705を介する接続が使用される。
入力装置703は、入力したデジタル又は文字情報を受信し、ユーザ設定及び一連の単一ステップ行動を予測するための方法の電子装置の機能制御に関連するキー信号入力を生成することができ、入力装置703は、例えばタッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、インジケータ、1つ又は複数のマウスボタン、トラックボール、ジョイスティックや他の入力装置である。出力装置704は、表示装置、補助照明機器(例えば、LED)、触覚フィードバック機器(例えば、振動モータ)などを含んでもよい。表示装置は、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイやプラズマディスプレイを含んでもよいが、これらに制限されない。いくつかの実施形態では、表示装置はタッチスクリーンであってもよい。
本明細書に記載のシステム及び技術の各種の実施形態は、デジタル電子回路システム、集積回路システム、特定用途向け集積回路(ASIC)、コンピュータハードウェア、ファームウェア、ソフトウェア及び/又はこれらの組み合わせにおいて実現されてもよい。これらの各種の実施形態は、1つ又は複数のコンピュータプログラムで実現されてもよいことを含んでもよく、コンピュータプログラムは、少なくとも1つのプログラム可能プロセッサを含むプログラム可能システム上で実行及び/又は解釈されてもよい。プログラム可能プロセッサは、専用又は汎用プログラム可能プロセッサを含み、メモリシステム、少なくとも1つの入力装置及び少なくとも1つの出力装置からデータと命令を受信し、データと命令を記憶システム、少なくとも1つの入力装置と少なくとも1つの出力装置に伝送してもよい。
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェア開示又はコードとも呼ばれる)は、プログラム可能プロセッサの機械命令を含み、且つ高度なプロセス及び/又はオブジェクト指向プログラミング言語及び/又はアセンブリ/機械言語を使用して実現されてもよい。本明細書で使用される場合、用語「機械読み取り可能な媒体」と「コンピュータ読み取り可能な媒体」は、プログラム可能プロセッサに機械命令及び/又はデータを提供する任意のコンピュータプログラム製品、装置及び/又は機器(例えば、磁気ディスク、光ディスク、メモリ、プログラム可能ロジック機器(PLD))を示し、機械命令を機械読み取り可能な信号として受信する機械読み取り可能な媒体を含む。用語「機械読み取り可能な信号」は、プログラム可能プロセッサに機械命令及び/又はデータを提供する任意の信号を示す。
ユーザと対話するために、本明細書で記載のシステム及び技術はコンピュータ上で実現されてもよく、該コンピュータは、例えば陰極線管(CRT)又は液晶ディスプレイ(LCD)モニタなどの表示機器、及び例えばマウス又はトラックボールのキーボードやポインティング機器を含み、ここで、表示機器は、ユーザに情報を表示することに用いられ、ユーザはキーボードやポインティング機器を使用してコンピュータに入力を提供できる。他のタイプの機器もユーザとの対話を提供することに用いられ得る。例えば、ユーザに提供するフィードバックは任意の形態の感覚フィードバック、例えば視覚フィードバック、聴覚フィードバック又は触覚フィードバックであってもよく、且つ任意の形態(声音入力、ボイス入力又は触覚入力を含む)でユーザからの入力が受信されてもよい。
本明細書に記載のシステム及び技術は、バックエンド部材(例えば、データサーバとして)を含む計算システムにて実現されてもよく、又はミドルウェア部材(例えば、アプリケーションサーバ)を含む計算システムにおいて実現されてもよく、又はフロントエンド部材を含む計算システムにおいて実現されてもよく(例えば、グラフィカルユーザインターフェース又はwebブラウザを有するユーザコンピュータ、ユーザはグラフィカルユーザインターフェース又はwebブラウザを通じて本明細書に記載のシステム及び技術の実施形態によって対話可能である)、又はこのようなバックエンド部材、ミドルウェア部材又はフロントエンド部材の任意の組み合わせを含む計算システムにおいて実現されてもよい。システムの部材は、任意のデジタルデータ通信の形式又は媒体(例えば、通信ネットワーク)を介して互いに接続されてもよい。通信ネットワークの例としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネット、及びブロックチェーンネットワークが含まれる。
コンピュータシステムには、クライアントとサーバを含むことができる。クライアントとサーバは通常、互いに遠く離れており、通信ネットワークを介して会話する。クライアントとサーバの関係は、対応するコンピュータで実行され、互いにクライアント-サーバの関係を持つコンピュータプログラムによって生成される。
以上の記述は、本開示の好適な実施形態及び本明細書において使用される技術的原理に対する解釈を提供するものに過ぎない。当業者が理解できるように、本開示の発明範囲は、上記技術的特徴の特定の組み合わせによる技術案に制限されない。本開示の概念を逸脱することなく、本発明の範囲は上記技術的特徴又はそれに等価する特徴の任意の組み合わせによる他の技術案をカバーし、例えば、本開示の実施形態において開示された類似の機能を有する技術的特徴と上記特徴を交換してなる技術案が挙げられるが、それに制限されない。

Claims (15)

  1. タスク環境におけるロボットナビゲーション方法であって、
    事前訓練されたシーケンス予測モデルによって前記タスク環境のナビゲーショングラフ、自然言語命令及び前記ロボットの前記ナビゲーショングラフ内での初期位置を受信するステップであって、前記ナビゲーショングラフは前記タスク環境における位置を示すノード、前記ノードの座標及び前記位置の間の接続性を示す辺を含むステップと、
    前記事前訓練されたシーケンス予測モデルによって、前記ロボットが実行可能な一連の単一ステップ行動を順次予測することにより、前記ロボットを前記初期位置から目的地にナビゲーションするステップとを含み、
    前記順次予測は、
    前記予測中の各単一ステップについて、
    前記単一ステップに対応する現在の予測プロセスに前記ナビゲーショングラフを適応させることによって、適応コンテキストを生成するステップであって、前記適応コンテキストは、現時点の実際ナビゲーション進捗状況に応じた、有界の先読み視野中の有効ナビゲーション移動のみを含む、前記ナビゲーショングラフのサブセットである、ステップと、
    少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップとを含み、
    前記予測中の各単一ステップについて、前記適応コンテキストを生成するステップは、
    前記ナビゲーショングラフにおいて、前記単一ステップに対応する現在ノードと前記現在ノードの前のノード以外の隣接ノードとの間の有効ノード遷移を探索するステップと、
    前記現在ノードの座標、前記現在ノードの前のノードの座標、及び前記現在ノードの前のノード以外の前記隣接ノードの座標に基づいて、有効ノード遷移の行動を予測するステップと、
    前記隣接ノードを新たな現在ノードとして、前記新たな現在ノードであるノードと前記現在の単一ステップの現在ノードとの間の距離が予め設定された値以下となるまで探索と予測のステップを繰り返すステップと、
    探索した有効ノード遷移及び予測した有効ノード遷移の行動を全てグラフィックスフォーマットに変換して、前記各単一ステップ用の前記適応コンテキストを生成するステップとを含む、方法。
  2. 前記有効ノード遷移の行動は、離れること、右折して移動すること、左折して移動すること、及び前に移動することからなる行動セットに従って予測される、請求項1に記載の方法。
  3. 前記現在ノードの座標、前記現在ノードの前のノードの座標、及び前記前のノード以外の前記隣接ノードの座標に基づいて、前記有効ノード遷移の行動を予測するステップは、
    前記現在ノードの座標から前記前のノードの座標を減算することによって、前記ロボットの前記現在ノードでの進行方向を決定するステップと、
    前記隣接ノードの座標から前記現在ノードの座標を減算することによって、前記ロボットの前記隣接ノードでの進行方向を決定するステップと、
    前記ロボットの前記現在ノードでの進行方向と前記ロボットの前記隣接ノードでの進行方向との外積を計算するステップと、
    計算した外積に基づいて、前記有効ノード遷移の前記単一ステップ行動を予測するステップとを含む、請求項1に記載の方法。
  4. 少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップは、
    生成した適応コンテキスト、前記自然言語命令、及びゲート付き回帰型ユニットによって更新された現在の隠れ状態に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップであって、前記ゲート付き回帰型ユニットは前の単一ステップの前の単一ステップ行動を入力として、かつ更新して前記現在の隠れ状態を取得するステップを含む、請求項1に記載の方法。
  5. 前記タスク環境のトポロジーマップを作成するステップであって、前記タスク環境における位置は前記トポロジーマップのノードであり、前記位置の間の接続性は前記トポロジーマップの辺であるステップと、
    作成したトポロジーマップを前記タスク環境の前記ナビゲーショングラフとして決定するステップとをさらに含む、請求項1に記載の方法。
  6. 電子装置であって、
    少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに操作を実行させる実行可能な命令が記憶されているメモリとを含み、前記操作は、
    事前訓練されたシーケンス予測モデルによってタスク環境のナビゲーショングラフ、自然言語命令及びロボットの前記ナビゲーショングラフ内での初期位置を受信することであって、前記ナビゲーショングラフは前記タスク環境における位置を示すノード、前記ノードの座標及び前記位置の間の接続性を示す辺を含むことと、
    前記事前訓練されたシーケンス予測モデルによって、前記ロボットが実行可能な一連の単一ステップ行動を順次予測することにより、前記ロボットを前記初期位置から目的地にナビゲーションすることとを含み、
    前記順次予測は、
    前記予測中の各単一ステップについて、
    前記単一ステップに対応する現在の予測プロセスに前記ナビゲーショングラフを適応させることによって、適応コンテキストを生成するステップであって、前記適応コンテキストは、現時点の実際ナビゲーション進捗状況に応じた、有界の先読み視野中の有効ナビゲーション移動のみを含む、前記ナビゲーショングラフのサブセットである、ステップと、
    少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップとを含み、
    前記予測中の各単一ステップについて、前記適応コンテキストを生成するステップは、
    前記ナビゲーショングラフにおいて、前記単一ステップに対応する現在ノードと前記現在ノードの前のノード以外の隣接ノードとの間の有効ノード遷移を探索するステップと、
    前記現在ノードの座標、前記現在ノードの前のノードの座標及び前記現在ノードの前のノード以外の前記隣接ノードの座標に基づいて、有効ノード遷移の行動を予測するステップと、
    前記隣接ノードを新たな現在ノードとして、前記新たな現在ノードであるノードと前記現在の単一ステップの前記現在ノードとの間の距離が予め設定された値以下となるまで探索と予測のステップを繰り返するステップと、
    探索した有効ノード遷移及び予測した有効ノード遷移の行動を全てグラフィックスフォーマットに変換して、前記各単一ステップ用の前記適応コンテキストを生成するステップとを含む、装置。
  7. 前記有効ノード遷移の行動は、離れること、右折して移動すること、左折して移動すること、及び前に移動することからなる行動セットに従って予測される、請求項6に記載の装置。
  8. 前記現在ノードの座標、前記現在ノードの前のノードの座標、及び前記前のノード以外の前記隣接ノードの座標に基づいて、前記有効ノード遷移の行動を予測するステップは、
    前記現在ノードの座標から前記前のノードの座標を減算することによって、前記ロボットの前記現在ノードでの進行方向を決定するステップと、
    前記隣接ノードの座標から前記現在ノードの座標を減算することによって、前記ロボットの前記隣接ノードでの進行方向を決定するステップと、
    前記ロボットの前記現在ノードでの進行方向と前記ロボットの前記隣接ノードでの進行方向との外積を計算するステップと、
    計算した外積に基づいて、前記有効ノード遷移の前記単一ステップ行動を予測するステップとを含む、請求項6に記載の装置。
  9. 少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップは、
    生成した適応コンテキスト、前記自然言語命令及びゲート付き回帰型ユニットによって更新された現在の隠れ状態に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップであって、前記ゲート付き回帰型ユニットは、前の単一ステップの前の単一ステップ行動を入力として、かつ更新して前記現在の隠れ状態を取得するステップを含む、請求項6に記載の装置。
  10. 前記操作は、
    前記タスク環境のトポロジーマップを作成することであって、前記タスク環境における位置は前記トポロジーマップのノードであり、前記位置の間の接続性は前記トポロジーマップの辺であることと、
    作成したトポロジーマップを前記タスク環境の前記ナビゲーショングラフとして決定することとをさらに含む、請求項6に記載の装置。
  11. 一時的なコンピュータ読み取り可能な記憶媒体であって、
    プロセッサに操作を実行させる実行可能なコンピュータプログラムが記憶されており、前記操作は、
    事前訓練されたシーケンス予測モデルによってタスク環境のナビゲーショングラフ、自然言語命令及びロボットの前記ナビゲーショングラフ内での初期位置を受信することであって、前記ナビゲーショングラフは前記タスク環境における位置を示すノード、前記ノードの座標及び前記位置の間の接続性を示す辺を含むことと、
    前記事前訓練されたシーケンス予測モデルによって、前記ロボットが実行可能な一連の単一ステップ行動を順次予測することにより、前記ロボットを前記初期位置から目的地にナビゲーションすることとを含み、
    前記順次予測は、
    前記予測中の各単一ステップについて、
    前記単一ステップに対応する現在の予測プロセスに前記ナビゲーショングラフを適応させることによって、適応コンテキストを生成するステップであって、前記適応コンテキストは、現時点の実際ナビゲーション進捗状況に応じた、有界の先読み視野中の有効ナビゲーション移動のみを含む、前記ナビゲーショングラフのサブセットである、ステップと、
    少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップとを含み、
    前記予測中の各単一ステップについて、前記適応コンテキストを生成するステップは、
    前記ナビゲーショングラフにおいて、前記単一ステップに対応する現在ノードと前記現在ノードの前のノード以外の隣接ノードとの間の有効ノード遷移を探索するステップと、
    前記現在ノードの座標、前記現在ノードの前のノードの座標、及び前記現在ノードの前のノード以外の前記隣接ノードの座標に基づいて、有効ノード遷移の行動を予測するステップと、
    前記隣接ノードを新たな現在ノードとして、前記新たな現在ノードであるノードと前記現在の単一ステップの前記現在ノードとの間の距離が予め設定された値以下となるまで探索と予測のステップを繰り返すステップと、
    探索した有効ノード遷移及び予測した有効ノード遷移の行動を全てグラフィックスフォーマットに変換して、前記各単一ステップ用の前記適応コンテキストを生成するステップとを含む、一時的なコンピュータ読み取り可能な記憶媒体。
  12. 前記有効ノード遷移の行動は、離れること、右折して移動すること、左折して移動すること、及び前に移動することからなる行動セットに従って予測される、請求項11に記載の媒体。
  13. 前記現在ノードの座標、前記現在ノードの前のノードの座標、及び前記前のノード以外の前記隣接ノードの座標に基づいて、前記有効ノード遷移の行動を予測するステップは、
    前記現在ノードの座標から前記前のノードの座標を減算することによって、前記ロボットの前記現在ノードでの進行方向を決定するステップと、
    前記隣接ノードの座標から前記現在ノードの座標を減算することによって、前記ロボットの前記隣接ノードでの進行方向を決定するステップと、
    前記ロボットの前記現在ノードでの進行方向と前記ロボットの前記隣接ノードでの進行方向との外積を計算するステップと、
    計算した外積に基づいて、前記有効ノード遷移の前記単一ステップ行動を予測するステップとを含む、請求項11に記載の媒体。
  14. 少なくとも生成した適応コンテキストと前記自然言語命令に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップは、
    生成した適応コンテキスト、前記自然言語命令及びゲート付き回帰型ユニットによって更新された現在の隠れ状態に基づいて、前記単一ステップ用の単一ステップ行動を予測するステップであって、前記ゲート付き回帰型ユニットは、前の単一ステップの前の単一ステップ行動を入力として、かつ更新して前記現在の隠れ状態を取得するステップを含む、請求項11に記載の媒体。
  15. コンピュータプログラムであって、
    プロセッサにより実行されると、請求項1~5の何れか一項に記載の方法を実現するコンピュータプログラム。
JP2021106992A 2020-12-22 2021-06-28 自然言語に基づく屋内自律ナビゲーション Active JP7324248B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US17/131,359 US11720108B2 (en) 2020-12-22 2020-12-22 Natural language based indoor autonomous navigation
US17/131,359 2020-12-22

Publications (2)

Publication Number Publication Date
JP2022023794A JP2022023794A (ja) 2022-02-08
JP7324248B2 true JP7324248B2 (ja) 2023-08-09

Family

ID=76522770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021106992A Active JP7324248B2 (ja) 2020-12-22 2021-06-28 自然言語に基づく屋内自律ナビゲーション

Country Status (5)

Country Link
US (1) US11720108B2 (ja)
EP (1) EP3879371B1 (ja)
JP (1) JP7324248B2 (ja)
KR (1) KR102565438B1 (ja)
CN (1) CN114721366A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113485382B (zh) * 2021-08-26 2022-07-12 苏州大学 面向人机自然交互的移动机器人自主导航方法及系统
CN115016341B (zh) * 2022-05-27 2024-07-30 武汉理工大学 通信时延状态下的船舶远程驾驶容错控制方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010531461A (ja) 2007-06-25 2010-09-24 マイクロソフト コーポレーション 目印ベースの経路指定
JP2015212706A (ja) 2015-07-10 2015-11-26 パイオニア株式会社 画像処理装置および画像処理方法
JP2017053683A (ja) 2015-09-08 2017-03-16 株式会社ゼンリンデータコム 情報処理装置、表示情報製造方法、プログラム、ユーザインタフェース
WO2020069160A1 (en) 2018-09-27 2020-04-02 Salesforce.Com, Inc. Self-aware visual-textual co-grounded navigation agent
WO2020194253A1 (en) 2019-03-27 2020-10-01 Rapyuta Robotics Co., Ltd. Generating a 2d-navigation map for collision-free navigation by multiple robots

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2696096B2 (ja) 1988-12-26 1998-01-14 株式会社豊田中央研究所 最短経路探索装置
JP3370100B2 (ja) 1991-06-24 2003-01-27 松下電器産業株式会社 推奨経路案内装置
CA2246974A1 (en) * 1998-04-23 1999-10-23 Litton Systems, Inc. Improved method and apparatus for obtaining attitude updates in a strapdown inertial navigation system
CN102271379B (zh) * 2011-05-09 2013-09-18 陈实 一种基于上下文感知技术的物联网节点节能路由方法
WO2016050274A1 (en) * 2014-09-30 2016-04-07 Nec Europe Ltd. Method and system for determining a path of an object for moving from a starting state to an end state set avoiding one or more obstacles
US10488865B2 (en) * 2014-12-16 2019-11-26 Al Incorporated Methods and systems for robotic surface coverage
CN105955254B (zh) * 2016-04-25 2019-03-29 广西大学 一种适用于机器人路径搜索的改进的a*算法
WO2018184108A1 (en) * 2017-04-04 2018-10-11 Appropolis Inc. Location-based services system and method therefor
US10606898B2 (en) * 2017-04-19 2020-03-31 Brown University Interpreting human-robot instructions
CN107610212B (zh) * 2017-07-25 2020-05-12 深圳大学 场景重建方法、装置、计算机设备以及计算机存储介质
CN110297697B (zh) * 2018-03-21 2022-02-18 北京猎户星空科技有限公司 机器人动作序列生成方法和装置
US11034019B2 (en) * 2018-04-19 2021-06-15 Brown University Sequence-to-sequence language grounding of non-Markovian task specifications
US11155259B2 (en) * 2018-09-13 2021-10-26 Honda Motor Co., Ltd. System and method for egocentric-vision based future vehicle localization
US11911908B2 (en) * 2018-12-21 2024-02-27 Intrinsic Innovation Llc Dynamic probabilistic motion planning
US20220092456A1 (en) * 2019-01-23 2022-03-24 Deepmind Technologies Limited Controlling an agent to explore an environment using observation likelihoods
US20200302250A1 (en) * 2019-03-22 2020-09-24 Nvidia Corporation Iterative spatial graph generation
US11131993B2 (en) * 2019-05-29 2021-09-28 Argo AI, LLC Methods and systems for trajectory forecasting with recurrent neural networks using inertial behavioral rollout
US20210403051A1 (en) * 2019-06-05 2021-12-30 Lg Electronics Inc. Method for controlling autonomous vehicle
CN114174766A (zh) * 2019-08-06 2022-03-11 波士顿动力公司 中间路径点生成器
CN110825829B (zh) 2019-10-16 2023-05-26 华南理工大学 一种基于自然语言和语义地图实现机器人自主导航的方法
US11767035B2 (en) * 2020-09-04 2023-09-26 Mitsubishi Electric Research Laboratories, Inc. Autonomous parking with hybrid exploration of parking space

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010531461A (ja) 2007-06-25 2010-09-24 マイクロソフト コーポレーション 目印ベースの経路指定
JP2015212706A (ja) 2015-07-10 2015-11-26 パイオニア株式会社 画像処理装置および画像処理方法
JP2017053683A (ja) 2015-09-08 2017-03-16 株式会社ゼンリンデータコム 情報処理装置、表示情報製造方法、プログラム、ユーザインタフェース
WO2020069160A1 (en) 2018-09-27 2020-04-02 Salesforce.Com, Inc. Self-aware visual-textual co-grounded navigation agent
WO2020194253A1 (en) 2019-03-27 2020-10-01 Rapyuta Robotics Co., Ltd. Generating a 2d-navigation map for collision-free navigation by multiple robots

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHOU et al.,Translating Natural Language Instructions for Behavioral Robot Indoor Navigation with Attention-History Based Attention,CSAI '20,2020年12月13日,pp.261-265,<URL:https://dl.acm.org/doi/10.1145/3445815.3445857>

Also Published As

Publication number Publication date
JP2022023794A (ja) 2022-02-08
KR20210087903A (ko) 2021-07-13
EP3879371A2 (en) 2021-09-15
EP3879371B1 (en) 2022-11-30
KR102565438B1 (ko) 2023-08-08
US20220197288A1 (en) 2022-06-23
CN114721366A (zh) 2022-07-08
US11720108B2 (en) 2023-08-08
EP3879371A3 (en) 2021-11-10

Similar Documents

Publication Publication Date Title
CN111767379B (zh) 图像问答方法、装置、设备以及存储介质
CN110692066B (zh) 使用多模态输入选择动作
Zhu et al. Babywalk: Going farther in vision-and-language navigation by taking baby steps
CN112560496B (zh) 语义分析模型的训练方法、装置、电子设备及存储介质
US10664725B2 (en) Data-efficient reinforcement learning for continuous control tasks
JP7324248B2 (ja) 自然言語に基づく屋内自律ナビゲーション
WO2019219969A1 (en) Graph neural network systems for behavior prediction and reinforcement learning in multple agent environments
CN110114784B (zh) 递归环境预测器及其方法
CN111353009B (zh) 建立路线耗时预估模型、预估路线耗时的方法及对应装置
US11699096B2 (en) Systems and methods for event prediction using schema networks
JP7133002B2 (ja) 句読点予測方法および装置
US20210232986A1 (en) Parking lot free parking space predicting method, apparatus, electronic device and storage medium
CN114357105A (zh) 地理预训练模型的预训练方法及模型微调方法
KR20210088463A (ko) 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기
JP2021076605A (ja) ビジュアルローカリゼーションとオドメトリに基づく経路追跡方法およびシステム
US20230080342A1 (en) Methods and system for goal-conditioned exploration for object goal navigation
CN111292549B (zh) 建立路线耗时预估模型的方法、预估路线耗时的方法及对应装置
Wu et al. Vision-language navigation: a survey and taxonomy
JP2022031636A (ja) 車両進行方向を出力する方法、装置、電子機器、記憶媒体、路側機、クラウド制御プラットフォーム及びコンピュータプログラム
KR102683574B1 (ko) 맵 상의 종착지를 결정하는 방법, 기기 및 저장매체
Li et al. Multi-Agent Dynamic Relational Reasoning for Social Robot Navigation
CN116030235A (zh) 目标检测模型训练方法、目标检测方法、装置和电子设备
Chung et al. Robot motion planning in dynamic uncertain environments
JP2021143830A (ja) 情報処理装置および情報処理方法
CN111832602B (zh) 基于地图的特征嵌入方法、装置、存储介质和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221108

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230728

R150 Certificate of patent or registration of utility model

Ref document number: 7324248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150