JP2010244549A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2010244549A5 JP2010244549A5 JP2010087108A JP2010087108A JP2010244549A5 JP 2010244549 A5 JP2010244549 A5 JP 2010244549A5 JP 2010087108 A JP2010087108 A JP 2010087108A JP 2010087108 A JP2010087108 A JP 2010087108A JP 2010244549 A5 JP2010244549 A5 JP 2010244549A5
- Authority
- JP
- Japan
- Prior art keywords
- program
- robot
- program according
- probabilistic
- representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000694 effects Effects 0.000 claims description 22
- 238000005259 measurement Methods 0.000 claims description 14
- 238000009826 distribution Methods 0.000 claims description 13
- 239000000203 mixture Substances 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 3
- 230000002123 temporal effect Effects 0.000 claims 2
- 238000001514 detection method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- LGQLOGILCSXPEA-UHFFFAOYSA-L Nickel(II) sulfate Chemical compound [Ni+2].[O-]S([O-])(=O)=O LGQLOGILCSXPEA-UHFFFAOYSA-L 0.000 description 2
- 230000000875 corresponding Effects 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 235000014347 soups Nutrition 0.000 description 2
- 241001061260 Emmelichthys struhsakeri Species 0.000 description 1
- QWDZADMNIUIMTC-UHFFFAOYSA-N Uranyl nitrate Chemical compound [O-][N+](=O)O[U-2](=O)(=O)O[N+]([O-])=O QWDZADMNIUIMTC-UHFFFAOYSA-N 0.000 description 1
- 206010053648 Vascular occlusion Diseases 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 235000021108 sauerkraut Nutrition 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Description
現在のアクティブ型視覚システムの多くは、次善の視覚計画のための情報理論的品質測定に注目しているが、確率論的計画ストラテジーをフォローしていない。文献にはアクティブ型認識のための多くのアプローチがある。非特許文献1には、不確定性低減に基づくアクティブ型選択に注目したいくつかの研究がリストアップされている。非特許文献2における最近の研究は、3Dカメラトラッキングのためのアクティブ型フィーチャマッチングを取り扱っている。非特許文献3には、視覚的探索のための意欲的なアプローチが記載されている。このアプローチは、先行の知識に基づくコンテクスト情報を含む対象物決定のための外観計画に注目している。
アクティブ型センシングに密接に関連する公知のアプローチは、もっとも有望な活動を発見するためにセンシングコストを評価するPOMDPを使用する。非特許文献11には、分類目的に関して最適の決定を行うための枠組みが提案されている。このアイデアは、自走型ローバーによる岩石分類に適用される。付加的情報を収集するためのコストは、分類ミスのペナルティに対して釣合いが取られている。非特許文献12では、POMDPがコストに敏感なフィーチャの獲得と分類に使用される。ロボットに対して選択された活動の予期される報酬は、現在の信用状態に関する分類コストから計算される。反対に非特許文献13では、プランニングストラテジーを、情報理論的不確定性測定からの結果とコストとを結び付けることにより拡張することが提案されている。
本発明の実施形態によれば、前記少なくとも1つの情報理論的測定は確率論的表現におけるエントロピーである。エントロピーは情報理論的概念であり、システム、状況、またはシーンが存在するが、その正確な記述が正確には既知でない場合に適用される。エントロピーは、システム、状況、またはシーンを知るときにこれらの状態を正確に特定するために必要な情報の予測量として定義される。一般的にエントロピーは、(所定の状態で)失われた情報の測定量を表す。したがって情報理論測定としてエントロピーを使用することにより、ロボットが考慮すべきであり、詳細には未だ既知でないフィーチャを特定する手段が提供される。
本発明の実施形態によれば、前記前の環境状態と前記後の環境状態は、シーンに配置された少なくとも1つのオブジェクトを含む当該シーンの状態を参照し、前記状態における前記少なくとも1つのオブジェクトのフィーチャの視認性を決定する。このようしてシーンモデルが本発明により提供される。この状態モデルを使用することにより、シーンが本発明により包括的に考慮される。とりわけこの考慮は、環境状態の確率論的表現、不確定性および/または情報理論測定を使用して実行される。
本発明の実施形態によれば、前記新たな観察は、シーンの少なくとも1つのオブジェクトのフィーチャ集合を求めることであると表現される。したがってPOMDPコンセプトにより要求されるような観察モデルが提供される。とりわけこの観察は、環境状態の確率論的表現、不確定性および/または情報理論測定を使用することにより考慮される。
図2の観察モデルエンティティ211で、ロボットの真の観察または測定が管理される。ここで観察または測定Oは、この観察または測定Oの不確定性を評価することにより記述される。観察Oは、本発明の実施形態によればシーンに含まれるオブジェクトに関する確率分布、このオブジェクトの決定または認識されたフィーチャの集合、および/またはこのシーンの各オブジェクトの位置評価を表す。不確定性は、観察または測定Oの失敗値を表す。すなわち、ロボットの観察または測定Oが実際の状況から逸脱する場合の値を表す。
3)シーンモデル:本実施形態によればシーンモデルは、配置されたすべてのオブジェクトの現在の状態を含む。ここで浮かび上がる閉塞問題は、将来の視界を決定するコンピュータグラフィックスのポイント指向法によってカバーされる。本実施形態によれば、状態の信用分布における各ピークはオブジェクト仮説と見なされる。予測されるすべてのフィーチャは、閉塞に対するボックスを結び付けるすべての仮説について、広く普及したzバッファリングアルゴリズムを適用することによりチェックされる。閉塞が検知されると、このフィーチャが所属する仮説のガウス混合コンポーネントは、将来の測定アップデートステップで更新されない。しかし状態変化が本実施形態により適用される。
フィーチャが多数の場合、Ot(at)を式(10)による尤度分布P(Ot(at)|q’)に代入することは計算的にコストが掛かる。本実施形態によれば、すべてのフィーチャが条件付きで独立であると仮定される。したがって尤度分布を本実施形態により、単純なベイズの推定を適用することにより計算できる。
実験例による画像獲得のために、サービスロボットに取り付けられた立体カメラシステムが使用される。立体カメラシステムの各カメラは、グレースケール画像を1388×1038ピクセルの解像度でキャプチャするように構成されている。オブジェクト検出は、本実施形態によりSIFTフィーチャに基づく検出アルゴリズムによる実験に関連して実行される(非特許文献14参照)。オフラインプロセスでは、各オブジェクトの36の画像が10゜の縦ステップで記録された。その結果、各オブジェクトに対して約30000のフィーチャが獲得された。立体カメラシステムにより、オブジェクトの多数のフィーチャが検出されれば、非常に正確なポーズが決定される。実験に関連する本実施形態によれば、少数のフィーチャを備え、確率論的プロパティを検出アルゴリズムに加える弱オブジェクト仮説が明示的に取り扱われた。詳細には、オブジェクトクラス尤度が、シーンフィーチャと予測されるフィーチャとの関係から計算され、ポーズ共分散が、本実施形態により検出された多数のフィーチャから評価される。
上に、確率分布を表現するためにガウス混合を使用することを説明した。実験に関連する本実施形態によれば、最初の前が4つの混合コンポーネントによりモデル化され、それぞれのコンポーネントはファクタ0.25の重みを有し、1つのオブジェクトクラスに所属する。共分散は、状態分布に関する最初の知識が欠けていることを表す一様分布に粗く近似するため、大きい。変化不確定性が、実験に関連する本実施形態により線形ガウスとして定義される。
ただしガウスカーネルは、コンポーネントの数と状態分布へ平均値において等しい。Δ(a)は、状態における変化を共分散Σk(a)の活動の関数として示す。測定不確定性がフィーチャ尤度分布P(f(a)|q’)に含まれている。この尤度分布は、ガウス混合分布をフィーチャの視覚フィールドに適合することによるトレーニングプロセスで獲得される。視覚容積は、オブジェクトビューとフィーチャスケールから導出される。
本実施形態によれば、第1の実験で図4aに示すようなオブジェクト配置が使用された。ここでロボットにより探索すべき、または認識すべきシーンは、図3bのオブジェクトデータベースの3つのオブジェクト31,32,34を有する。すべての活動に対する第1の後のエントロピーは類似している。なぜなら同形の前のエントロピーに近似するからである。図4bは、図3bのオブジェクトデータベースの4つすべてのオブジェクト31〜34の確率分布の輪郭を、角度に関して積分してxy平面に示す。図4cは、他の次元にわたって積分された角度確率分布を表す。式(14)によれば、活動コストは、第1のステップでの活動選択にだけ影響する。したがって第1の観察は、現在のシーンロケーションから、すなわち図3aに示された第1の視点VP1により実行される。図5aには、左カメラの獲得画像と、それの確率分布が示されている。図5aおよび5cから分かるように、ザウワークラウト缶31と青いソルトボックス34は上手く検知されたが、スープボックス32に対しては弱い仮説しか存在しない。なぜならスープボックス32は強く閉塞されているからである。オブジェクトの曖昧さから、黄色いソルトボックス33に対する仮説は、青いソルトからの1つに近接して表明されるが、比較的小さな確率質量を含む。図8の表は、次に実行すべき活動を決定するために使用された予測報酬V1のリストを示す。とりわけ図8は、視点VP1とVP2での評価のための式(14)から報酬V1を計算するための関連するコストと値を示す。ここで列81は視点を示し、列82は視点VP1での予測されるフィーチャ報酬を示す。さらに列83は視点VP1での相応するコストを示し、列84はVP1値、列85は視点VP1での報酬V1を示す。さらに列86は視点VP2での相応するコストを示し、列87はVP2値、列88は視点VP2での報酬V1を示す。
Claims (21)
- ロボット(11)にシーンを自立的に探索させ、かつ、前記ロボット(11)の少なくとも1つの将来的活動(a)を、前記ロボット(11)の複数の活動(a)から、次のステップを用いて決定するための、コンピュータに実行させるアクティブ型認識プログラム(21)であって、
・前の環境状態(q)の前の確率論的表現を計算(212)するステップと、
・前記少なくとも1つの将来的活動(a)が適用された後に、達成すべき後の環境状態(q’)の後の確率論的表現における少なくとも1つの不確定性を低減することについての新たな観察(O)を目的として、前記前の確率論的表現を更新(212)するステップと、
ただし前記後の確率論的表現は前記更新(212)から生じた確率論的表現であり、
・前記前の確率論的表現と前記後の確率論的表現との間の情報利得を、少なくとも1つの情報理論的測定を使用して決定(214)するステップと、そして
・前記少なくとも1つの将来的活動(a)を、当該少なくとも1つの将来的活動(a)の実行コストを前記情報利得に加算することにより評価するステップと、
ただし、前記少なくとも1つの将来的活動(a)を評価するステップは、実行期間において前記少なくとも1つの将来的活動の実行コストを評価し、当該実行期間の終わりにおいて前記情報利得を評価するステップを含む、
の各ステップをコンピュータに実行させるためのアクティブ型認識プログラム(21)。 - 前記少なくとも1つの将来的活動(a)は、前記ロボット(11)のセンサの位置変更を要求するロボット操作命令である請求項1記載のプログラム。
- 前記プログラムは、前記ロボット(11)の将来的活動(a)のシーケンスを評価するように構成されている請求項1または2に記載のプログラム。
- 前記少なくとも1つの不確定性は、
・前記少なくとも1つの将来的活動(a)を適用することにより、時間的に前の環境状態(q)から前記時間的に後の環境状態(q’)に達する際に発生する状態変化不確定性、および/または
・前記時間的に後の環境状態(q’)で実行される測定を妨害する測定ノイズである請求項1から3までのいずれか1項に記載のプログラム。 - 前記プログラムは、前記更新(21)をベイズフィルタで実行するように構成されている請求項1から4までのいずれか1項に記載のプログラム。
- 前記少なくとも1つの情報理論的測定は、確率論的表現に基づくエントロピーである請求項1から5までのいずれか1項に記載のプログラム。
- 前記決定(214)は、前記前の確率論的表現の前のエントロピーと、前記後の確率論的表現の予測されるエントロピーとの間の差を決定することを含む請求項1から6までのいずれか1項に記載のプログラム。
- 前記更新(212)は、前記少なくとも1つの将来的活動を実行した後に得られる新たな観察の評価を含む請求項1から7までのいずれか1項に記載のプログラム。
- 前記更新(212)は、前記評価を使用することによって、前記少なくとも1つの将来的活動(a)に対する前記後の環境状態(q’)の前記後の確率論的表現の予測を含む請求項8記載のプログラム。
- 前記前の確率論的表現と前記後の確率論的表現は、多変量ガウス混合分布である請求項1から9までのいずれか1項に記載のプログラム。
- 前記少なくとも1つの不確定性は、前記後の確率論的表現の微分エントロピーを上限評価によって近似することにより決定される状態不確定性である請求項1から10までのいずれか1項に記載のプログラム。
- 前記プログラムは、前記少なくとも1つの将来的活動(a)の実行後に前記情報利得が最大であり、かつ前記少なくとも1つの将来的活動(a)の実行コストと前記不確定性が低減される場合に、前記少なくとも1つの将来的活動(a)を決定するように構成されている請求項1から11までのいずれか1項に記載のプログラム。
- 前記プログラムは、所望の品質基準に達した場合、前記決定を終了するように構成されている請求項1から12までのいずれか1項に記載のプログラム。
- 前記所望の品質基準は、少なくとも1つの分布エントロピーの形態で提供される請求項13記載のプログラム。
- 前記前の確率論的表現と前記後の確率論的表現は、POMDPコンセプトを使用することにより特定されるモデル(211)の使用によって計算される請求項1から14までのいずれか1項に記載のプログラム。
- 前記前の環境状態(q)と前記後の環境状態(q’)は少なくとも1つのオブジェクト(31,32,33,34)の状態を記述し、
前記少なくとも1つのオブジェクト(31,32,33,34)は、当該少なくとも1つのオブジェクト(31,32,33,34)のクラスの離散的クラス表現と、当該少なくとも1つのオブジェクト(31,32,33,34)の連続的なm次元ポーズを含む請求項1から15までのいずれか1項に記載のプログラム。 - 前記前の環境状態(q)と前記後の環境状態(q’)は、シーンに配置された少なくとも1つのオブジェクト(31,32,33,34)を含む当該シーンの状態を参照し、前記状態における前記少なくとも1つのオブジェクト(31,32,33,34)のフィーチャの視認性を決定する請求項1から16までのいずれか1項に記載のプログラム。
- 前記新たな観察は、シーンの少なくとも1つのオブジェクト(31,32,33,34)のフィーチャ集合を求めることである請求項1から17までのいずれか1項に記載のプログラム。
- 動作のために、請求項1から18までのいずれか1項に記載のプログラムが実行される、ロボット(11)。
- シーンの画像取得のための立体カメラシステムを有する、請求項19に記載のロボット(11)。
- サービスロボットである、請求項19または20に記載のロボット(11)。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP09004982.6 | 2009-04-03 | ||
EP09004982 | 2009-04-03 | ||
EP09011666A EP2249292A1 (en) | 2009-04-03 | 2009-09-11 | Decision making mechanism, method, module, and robot configured to decide on at least one prospective action of the robot |
EP09011666.6 | 2009-09-11 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010244549A JP2010244549A (ja) | 2010-10-28 |
JP2010244549A5 true JP2010244549A5 (ja) | 2012-07-26 |
JP5183665B2 JP5183665B2 (ja) | 2013-04-17 |
Family
ID=42607745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010087108A Expired - Fee Related JP5183665B2 (ja) | 2009-04-03 | 2010-04-05 | ロボットの少なくとも1つの将来的活動を決定する決定メカニズム、方法、モジュールおよび決定するように構成されたロボット |
Country Status (3)
Country | Link |
---|---|
US (1) | US8583284B2 (ja) |
EP (1) | EP2249292A1 (ja) |
JP (1) | JP5183665B2 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9015093B1 (en) * | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
KR20120047577A (ko) * | 2010-11-04 | 2012-05-14 | 주식회사 케이티 | 대화형 행동모델을 이용한 로봇 인터랙션 서비스 제공 장치 및 방법 |
US8942917B2 (en) | 2011-02-14 | 2015-01-27 | Microsoft Corporation | Change invariant scene recognition by an agent |
US8768071B2 (en) | 2011-08-02 | 2014-07-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Object category recognition methods and robots utilizing the same |
JP2013058120A (ja) * | 2011-09-09 | 2013-03-28 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
US9300531B2 (en) | 2011-12-12 | 2016-03-29 | Openet Telecom Ltd. | Systems, devices, and methods of orchestration and application of business rules for real-time control of subscribers in a telecommunications operator's network |
US9384448B2 (en) * | 2011-12-28 | 2016-07-05 | General Electric Company | Action-based models to identify learned tasks |
KR101919831B1 (ko) | 2012-01-11 | 2018-11-19 | 삼성전자주식회사 | 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법 |
US8447419B1 (en) | 2012-05-02 | 2013-05-21 | Ether Dynamics Corporation | Pseudo-genetic meta-knowledge artificial intelligence systems and methods |
US10572774B2 (en) * | 2012-12-06 | 2020-02-25 | Toyota Motor Engineering & Manufacturing North America. Inc. | Methods and robots for adjusting object detection parameters, object recognition parameters, or both object detection parameters and object recognition parameters |
CN103810700B (zh) * | 2014-01-14 | 2017-01-11 | 燕山大学 | 基于深度图像利用遮挡信息确定下一最佳观测方位的方法 |
JP2015136762A (ja) * | 2014-01-23 | 2015-07-30 | セイコーエプソン株式会社 | 処理装置、ロボット、ロボットシステム及び処理方法 |
JP6240689B2 (ja) | 2015-07-31 | 2017-11-29 | ファナック株式会社 | 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法 |
DE102016009030B4 (de) | 2015-07-31 | 2019-05-09 | Fanuc Corporation | Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs |
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
US10839302B2 (en) | 2015-11-24 | 2020-11-17 | The Research Foundation For The State University Of New York | Approximate value iteration with complex returns by bounding |
FR3044438A1 (fr) * | 2015-11-27 | 2017-06-02 | Thales Sa | Systeme et procede d'aide a la decision |
CN106446930B (zh) * | 2016-06-28 | 2019-11-22 | 沈阳工业大学 | 基于深层卷积神经网络的机器人工作场景识别方法 |
US10083369B2 (en) * | 2016-07-01 | 2018-09-25 | Ricoh Company, Ltd. | Active view planning by deep learning |
US11176473B2 (en) * | 2017-01-06 | 2021-11-16 | International Business Machines Corporation | Partially observed Markov decision process model and its use |
CN109974699B (zh) * | 2017-12-27 | 2021-08-27 | 深圳市优必选科技有限公司 | 一种机器人及其地图自主探索方法和装置 |
DE102018216561A1 (de) * | 2018-09-27 | 2020-04-02 | Robert Bosch Gmbh | Verfahren, Vorrichtung und Computerprogramm zum Ermitteln einer Strategie eines Agenten |
US20220083884A1 (en) * | 2019-01-28 | 2022-03-17 | Mayo Foundation For Medical Education And Research | Estimating latent reward functions from experiences |
JP2020149162A (ja) * | 2019-03-11 | 2020-09-17 | 富士通株式会社 | 情報処理装置、画像処理プログラム及び画像処理方法 |
JP7337611B2 (ja) * | 2019-09-06 | 2023-09-04 | 株式会社東芝 | 把持装置、荷役装置、及び制御装置 |
CN111814915B (zh) * | 2020-08-26 | 2020-12-25 | 中国科学院自动化研究所 | 多智能体时空特征提取方法及系统、行为决策方法及系统 |
CN113269315B (zh) * | 2021-06-29 | 2024-04-02 | 安徽寒武纪信息科技有限公司 | 利用深度强化学习执行任务的设备、方法及可读存储介质 |
CN116922397B (zh) * | 2023-09-13 | 2023-11-28 | 成都明途科技有限公司 | 机器人智能水平的测量方法、装置、机器人及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5179441A (en) * | 1991-12-18 | 1993-01-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Near real-time stereo vision system |
US7827011B2 (en) * | 2005-05-03 | 2010-11-02 | Aware, Inc. | Method and system for real-time signal classification |
US20060282021A1 (en) * | 2005-05-03 | 2006-12-14 | Devaul Richard W | Method and system for fall detection and motion analysis |
US20100138366A1 (en) * | 2007-07-02 | 2010-06-03 | Qin Zhang | System and method for information processing and motor control |
US8559699B2 (en) * | 2008-10-10 | 2013-10-15 | Roboticvisiontech Llc | Methods and apparatus to facilitate operations in image based systems |
-
2009
- 2009-09-11 EP EP09011666A patent/EP2249292A1/en not_active Withdrawn
-
2010
- 2010-04-02 US US12/753,560 patent/US8583284B2/en not_active Expired - Fee Related
- 2010-04-05 JP JP2010087108A patent/JP5183665B2/ja not_active Expired - Fee Related
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010244549A5 (ja) | ||
JP5183665B2 (ja) | ロボットの少なくとも1つの将来的活動を決定する決定メカニズム、方法、モジュールおよび決定するように構成されたロボット | |
CN110782483B (zh) | 基于分布式相机网络的多视图多目标跟踪方法及系统 | |
US10083512B2 (en) | Information processing apparatus, information processing method, position and orientation estimation apparatus, and robot system | |
EP1901152B1 (en) | Method, medium, and system estimating pose of mobile robots | |
JP4849464B2 (ja) | フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法 | |
JP4967062B2 (ja) | オプティカルフロー、運動学及び深さ情報を使用して、物体の適切な運動を推定する方法 | |
JP6186834B2 (ja) | 目標追尾装置及び目標追尾プログラム | |
JP6349418B2 (ja) | 高精度単眼移動によるオブジェクト位置特定 | |
JP6331785B2 (ja) | 物体追跡装置、物体追跡方法および物体追跡プログラム | |
CN111322993B (zh) | 一种视觉定位方法和装置 | |
Wenhardt et al. | An information theoretic approach for next best view planning in 3-d reconstruction | |
Sanchez-Matilla et al. | A predictor of moving objects for first-person vision | |
US20130155199A1 (en) | Multi-Part Corresponder for Multiple Cameras | |
Liu et al. | A cardinality modified product multi-sensor PHD | |
Perico et al. | Vision-based monte carlo localization without measurement: A qualitative approach during update phase | |
JP5960642B2 (ja) | 3次元情報取得方法及び3次元情報取得装置 | |
EP2275993A2 (en) | Method for estimating the visibility of features on surfaces of object instances in multi-object scenes and method for perception planning in multi-object scenes | |
Lu et al. | Object motion estimation based on hybrid vision for soccer robots in 3d space | |
Cheung et al. | Optimization-based automatic parameter tuning for stereo vision | |
JP4923000B2 (ja) | 複数対象物追跡方法、複数対象物追跡装置、複数対象物追跡プログラムおよびそのプログラムを記録した記録媒体 | |
JP2021077177A (ja) | 動作認識装置、動作認識方法及び動作認識プログラム | |
Schmidt | The EKF-based visual SLAM system with relative map orientation measurements | |
CN111586299B (zh) | 一种图像处理方法和相关设备 | |
CN109712170B (zh) | 基于视觉惯性里程计的环境对象追踪方法和装置 |