JP2010244549A5 - - Google Patents

Download PDF

Info

Publication number
JP2010244549A5
JP2010244549A5 JP2010087108A JP2010087108A JP2010244549A5 JP 2010244549 A5 JP2010244549 A5 JP 2010244549A5 JP 2010087108 A JP2010087108 A JP 2010087108A JP 2010087108 A JP2010087108 A JP 2010087108A JP 2010244549 A5 JP2010244549 A5 JP 2010244549A5
Authority
JP
Japan
Prior art keywords
program
robot
program according
probabilistic
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010087108A
Other languages
English (en)
Other versions
JP5183665B2 (ja
JP2010244549A (ja
Filing date
Publication date
Priority claimed from EP09011666A external-priority patent/EP2249292A1/en
Application filed filed Critical
Publication of JP2010244549A publication Critical patent/JP2010244549A/ja
Publication of JP2010244549A5 publication Critical patent/JP2010244549A5/ja
Application granted granted Critical
Publication of JP5183665B2 publication Critical patent/JP5183665B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

現在のアクティブ型視覚システムの多くは、次善の視覚計画のための情報理論的品質測定に注目しているが、確率論的計画ストラテジーをフォローしていない。文献にはアクティブ型認識のための多くのアプローチがある。非特許文献1には、不確定性低減に基づくアクティブ型選択に注目したいくつかの研究がリストアップされている。非特許文献2における最近の研究は、3Dカメラトラッキングのためのアクティブ型フィーチャマッチングを取り扱っている。非特許文献3には、視覚的探索のための意欲的なアプローチが記載されている。このアプローチは、先行の知識に基づくコンテクスト情報を含む対象物決定のための外観計画に注目している。
アクティブ型センシングに密接に関連する公知のアプローチは、もっとも有望な活動を発見するためにセンシングコストを評価するPOMDPを使用する。非特許文献11には、分類目的に関して最適の決定を行うための枠組みが提案されている。このアイデアは、自走型ローバーによる岩石分類に適用される。付加的情報を収集するためのコストは、分類ミスのペナルティに対して釣合いが取られている。非特許文献12では、POMDPがコストに敏感なフィーチャの獲得と分類に使用される。ロボットに対して選択された活動の予期される報酬は、現在の信用状態に関する分類コストから計算される。反対に非特許文献13では、プランニングストラテジーを、情報理論的不確定性測定からの結果とコストとを結び付けることにより拡張することが提案されている。
本発明の実施形態によれば、前記少なくとも1つの情報理論的測定は確率論的表現におけるエントロピーである。エントロピーは情報理論的概念であり、システム、状況、またはシーンが存在するが、その正確な記述が正確には既知でない場合に適用される。エントロピーは、システム、状況、またはシーンを知るときにこれらの状態を正確に特定するために必要な情報の予測量として定義される。一般的にエントロピーは、(所定の状態で)失われた情報の測定量を表す。したがって情報理論測定としてエントロピーを使用することにより、ロボットが考慮すべきであり、詳細には未だ既知でないフィーチャを特定する手段が提供される。
本発明の実施形態によれば、前記前の環境状態と前記後の環境状態は、シーンに配置された少なくとも1つのオブジェクトを含む当該シーンの状態を参照し、前記状態における前記少なくとも1つのオブジェクトのフィーチャの視認性を決定する。このようしてシーンモデルが本発明により提供される。この状態モデルを使用することにより、シーンが本発明により包括的に考慮される。とりわけこの考慮は、環境状態の確率論的表現、不確定性および/または情報理論測定を使用して実行される。
本発明の実施形態によれば、前記新たな観察は、シーンの少なくとも1つのオブジェクトのフィーチャ集合を求めることであると表現される。したがってPOMDPコンセプトにより要求されるような観察モデルが提供される。とりわけこの観察は、環境状態の確率論的表現、不確定性および/または情報理論測定を使用することにより考慮される。
図2の観察モデルエンティティ211で、ロボットの真の観察または測定が管理される。ここで観察または測定Oは、この観察または測定Oの不確定性を評価することにより記述される。観察Oは、本発明の実施形態によればシーンに含まれるオブジェクトに関する確率分布、このオブジェクトの決定または認識されたフィーチャの集合、および/またはこのシーンの各オブジェクトの位置評価を表す。不確定性は、観察または測定Oの失敗値を表す。すなわち、ロボットの観察または測定Oが実際の状況から逸脱する場合の値を表す。
3)シーンモデル:本実施形態によればシーンモデルは、配置されたすべてのオブジェクトの現在の状態を含む。ここで浮かび上がる閉塞問題は、将来の視界を決定するコンピュータグラフィックスのポイント指向法によってカバーされる。本実施形態によれば、状態の信用分布における各ピークはオブジェクト仮説と見なされる。予測されるすべてのフィーチャは、閉塞に対するボックスを結び付けるすべての仮説について、広く普及したzバッファリングアルゴリズムを適用することによりチェックされる。閉塞が検知されると、このフィーチャが所属する仮説のガウス混合コンポーネントは、将来の測定アップデートステップで更新されない。しかし状態変化が本実施形態により適用される。
4)観察モデル:興味のあるポイント探知器を使用するために、現在の観察O(a)が本実施形態により、N個のフィーチャ‘f’の集合として表現される。
Figure 2010244549
フィーチャが多数の場合、O(a)を式(10)による尤度分布P(O(a)|q’)に代入することは計算的にコストが掛かる。本実施形態によれば、すべてのフィーチャが条件付きで独立であると仮定される。したがって尤度分布を本実施形態により、単純なベイズの推定を適用することにより計算できる。
Figure 2010244549
実験例による画像獲得のために、サービスロボットに取り付けられた立体カメラシステムが使用される。立体カメラシステムの各カメラは、グレースケール画像を1388×1038ピクセルの解像度でキャプチャするように構成されている。オブジェクト検出は、本実施形態によりSIFTフィーチャに基づく検出アルゴリズムによる実験に関連して実行される(非特許文献14参照)。オフラインプロセスでは、各オブジェクトの36の画像が10゜の縦ステップで記録された。その結果、各オブジェクトに対して約30000のフィーチャが獲得された。立体カメラシステムにより、オブジェクトの多数のフィーチャが検出されれば、非常に正確なポーズが決定される。実験に関連する本実施形態によれば、少数のフィーチャを備え、確率論的プロパティを検出アルゴリズムに加える弱オブジェクト仮説が明示的に取り扱われた。詳細には、オブジェクトクラス尤度が、シーンフィーチャと予測されるフィーチャとの関係から計算され、ポーズ共分散が、本実施形態により検出された多数のフィーチャから評価される。
上に、確率分布を表現するためにガウス混合を使用することを説明した。実験に関連する本実施形態によれば、最初の前が4つの混合コンポーネントによりモデル化され、それぞれのコンポーネントはファクタ0.25の重みを有し、1つのオブジェクトクラスに所属する。共分散は、状態分布に関する最初の知識が欠けていることを表す一様分布に粗く近似するため、大きい。変化不確定性が、実験に関連する本実施形態により線形ガウスとして定義される。
Figure 2010244549
ただしガウスカーネルは、コンポーネントの数と状態分布へ平均値において等しい。Δ(a)は、状態における変化を共分散Σ(a)の活動の関数として示す。測定不確定性がフィーチャ尤度分布P(f(a)|q’)に含まれている。この尤度分布は、ガウス混合分布をフィーチャの視覚フィールドに適合することによるトレーニングプロセスで獲得される。視覚容積は、オブジェクトビューとフィーチャスケールから導出される。
本実施形態によれば、第1の実験で図4aに示すようなオブジェクト配置が使用された。ここでロボットにより探索すべき、または認識すべきシーンは、図3bのオブジェクトデータベースの3つのオブジェクト31,32,34を有する。すべての活動に対する第1の後のエントロピーは類似している。なぜなら同形の前のエントロピーに近似するからである。図4bは、図3bのオブジェクトデータベースの4つすべてのオブジェクト31〜34の確率分布の輪郭を、角度に関して積分してxy平面に示す。図4cは、他の次元にわたって積分された角度確率分布を表す。式(14)によれば、活動コストは、第1のステップでの活動選択にだけ影響する。したがって第1の観察は、現在のシーンロケーションから、すなわち図3aに示された第1の視点VP1により実行される。図5aには、左カメラの獲得画像と、それの確率分布が示されている。図5aおよび5cから分かるように、ザウワークラウト缶31と青いソルトボックス34は上手く検知されたが、スープボックス32に対しては弱い仮説しか存在しない。なぜならスープボックス32は強く閉塞されているからである。オブジェクトの曖昧さから、黄色いソルトボックス33に対する仮説は、青いソルトからの1つに近接して表明されるが、比較的小さな確率質量を含む。図8の表は、次に実行すべき活動を決定するために使用された予測報酬Vのリストを示す。とりわけ図8は、視点VP1とVP2での評価のための式(14)から報酬Vを計算するための関連するコストと値を示す。ここで列81は視点を示し、列82は視点VP1での予測されるフィーチャ報酬を示す。さらに列83は視点VP1での相応するコストを示し、列84はVP1値、列85は視点VP1での報酬Vを示す。さらに列86は視点VP2での相応するコストを示し、列87はVP2値、列88は視点VP2での報酬Vを示す。

Claims (21)

  1. ロボット(11)にシーンを自立的に探索させ、かつ、前記ロボット(11)の少なくとも1つの将来的活動(a)を、前記ロボット(11)の複数の活動(a)から、次のステップを用いて決定するための、コンピュータに実行させるアクティブ型認識プログラム(21)であって、
    ・前の環境状態(q)の前の確率論的表現を計算(212)するステップと、
    ・前記少なくとも1つの将来的活動(a)が適用された後に、達成すべき後の環境状態(q’)の後の確率論的表現における少なくとも1つの不確定性を低減することについての新たな観察(O)を目的として、前記前の確率論的表現を更新(212)するステップと、
    ただし前記後の確率論的表現は前記更新(212)から生じた確率論的表現であり、
    ・前記前の確率論的表現と前記後の確率論的表現との間の情報利得を、少なくとも1つの情報理論的測定を使用して決定(214)するステップと、そして
    ・前記少なくとも1つの将来的活動(a)を、当該少なくとも1つの将来的活動(a)の実行コストを前記情報利得に加算することにより評価するステップと、
    ただし、前記少なくとも1つの将来的活動(a)を評価するステップは、実行期間において前記少なくとも1つの将来的活動の実行コストを評価し、当該実行期間の終わりにおいて前記情報利得を評価するステップを含む、
    の各ステップをコンピュータに実行させるためのアクティブ型認識プログラム(21)。
  2. 前記少なくとも1つの将来的活動(a)は、前記ロボット(11)のセンサの位置変更を要求するロボット操作命令である請求項1載のプログラム
  3. 前記プログラムは、前記ロボット(11)の将来的活動(a)のシーケンスを評価するように構成されている請求項1または2に記載のプログラム
  4. 前記少なくとも1つの不確定性は、
    ・前記少なくとも1つの将来的活動(a)を適用することにより、時間的に前の環境状態(q)から前記時間的に後の環境状態(q’)に達する際に発生する状態変化不確定性、および/または
    ・前記時間的に後の環境状態(q’)で実行される測定を妨害する測定ノイズである請求項1からまでのいずれか1項に記載のプログラム
  5. 前記プログラムは、前記更新(21)をベイズフィルタで実行するように構成されている請求項1からまでのいずれか1項に記載のプログラム
  6. 前記少なくとも1つの情報理論的測定は、確率論的表現に基づくエントロピーである請求項1から5までのいずれか1項に記載のプログラム
  7. 前記決定(214)は、前記前の確率論的表現の前のエントロピーと、前記後の確率論的表現の予測されるエントロピーとの間の差を決定することを含む請求項1からまでのいずれか1項に記載のプログラム
  8. 前記更新(212)は、前記少なくとも1つの将来的活動を実行した後に得られる新たな観察の評価を含む請求項1からまでのいずれか1項に記載のプログラム
  9. 前記更新(212)は、前記評価を使用することによって、前記少なくとも1つの将来的活動(a)に対する前記後の環境状態(q’)の前記後の確率論的表現の予測を含む請求項記載のプログラム
  10. 前記前の確率論的表現と前記後の確率論的表現は、多変量ガウス混合分布である請求項1からまでのいずれか1項に記載のプログラム
  11. 前記少なくとも1つの不確定性は、前記後の確率論的表現の微分エントロピーを上限評価によって近似することにより決定される状態不確定性である請求項1から10までのいずれか1項に記載のプログラム
  12. 前記プログラムは、前記少なくとも1つの将来的活動(a)の実行後に前記情報利得が最大であり、かつ前記少なくとも1つの将来的活動(a)の実行コストと前記不確定性が低減される場合に、前記少なくとも1つの将来的活動(a)を決定するように構成されている請求項1から11までのいずれか1項に記載のプログラム
  13. 前記プログラムは、所望の品質基準に達した場合、前記決定を終了するように構成されている請求項1から12までのいずれか1項に記載のプログラム
  14. 前記所望の品質基準は、少なくとも1つの分布エントロピーの形態で提供される請求項13記載のプログラム
  15. 前記前の確率論的表現と前記後の確率論的表現は、POMDPコンセプトを使用することにより特定されるモデル(211)の使用によって計算される請求項1から14までのいずれか1項に記載のプログラム
  16. 前記前の環境状態(q)と前記後の環境状態(q’)は少なくとも1つのオブジェクト(31,32,33,34)の状態を記述し、
    前記少なくとも1つのオブジェクト(31,32,33,34)は、当該少なくとも1つのオブジェクト(31,32,33,34)のクラスの離散的クラス表現と、当該少なくとも1つのオブジェクト(31,32,33,34)の連続的なm次元ポーズを含む請求項1から15までのいずれか1項に記載のプログラム
  17. 前記前の環境状態(q)と前記後の環境状態(q’)は、シーンに配置された少なくとも1つのオブジェクト(31,32,33,34)を含む当該シーンの状態を参照し、前記状態における前記少なくとも1つのオブジェクト(31,32,33,34)のフィーチャの視認性を決定する請求項1から16までのいずれか1項に記載のプログラム
  18. 前記新たな観察は、シーンの少なくとも1つのオブジェクト(31,32,33,34)のフィーチャ集合を求めることである請求項1から17までのいずれか1項に記載のプログラム
  19. 動作のために、請求項1から18までのいずれか1項に記載のプログラムが実行される、ロボット(11)。
  20. シーンの画像取得のための立体カメラシステムを有する、請求項19に記載のロボット(11)。
  21. サービスロボットである、請求項19または20に記載のロボット(11)。
JP2010087108A 2009-04-03 2010-04-05 ロボットの少なくとも1つの将来的活動を決定する決定メカニズム、方法、モジュールおよび決定するように構成されたロボット Expired - Fee Related JP5183665B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP09004982.6 2009-04-03
EP09004982 2009-04-03
EP09011666A EP2249292A1 (en) 2009-04-03 2009-09-11 Decision making mechanism, method, module, and robot configured to decide on at least one prospective action of the robot
EP09011666.6 2009-09-11

Publications (3)

Publication Number Publication Date
JP2010244549A JP2010244549A (ja) 2010-10-28
JP2010244549A5 true JP2010244549A5 (ja) 2012-07-26
JP5183665B2 JP5183665B2 (ja) 2013-04-17

Family

ID=42607745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010087108A Expired - Fee Related JP5183665B2 (ja) 2009-04-03 2010-04-05 ロボットの少なくとも1つの将来的活動を決定する決定メカニズム、方法、モジュールおよび決定するように構成されたロボット

Country Status (3)

Country Link
US (1) US8583284B2 (ja)
EP (1) EP2249292A1 (ja)
JP (1) JP5183665B2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9015093B1 (en) * 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
KR20120047577A (ko) * 2010-11-04 2012-05-14 주식회사 케이티 대화형 행동모델을 이용한 로봇 인터랙션 서비스 제공 장치 및 방법
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8768071B2 (en) 2011-08-02 2014-07-01 Toyota Motor Engineering & Manufacturing North America, Inc. Object category recognition methods and robots utilizing the same
JP2013058120A (ja) * 2011-09-09 2013-03-28 Sony Corp 情報処理装置、情報処理方法、及び、プログラム
US9300531B2 (en) 2011-12-12 2016-03-29 Openet Telecom Ltd. Systems, devices, and methods of orchestration and application of business rules for real-time control of subscribers in a telecommunications operator's network
US9384448B2 (en) * 2011-12-28 2016-07-05 General Electric Company Action-based models to identify learned tasks
KR101919831B1 (ko) 2012-01-11 2018-11-19 삼성전자주식회사 오브젝트 인식 장치, 분류 트리 학습 장치 및 그 동작 방법
US8447419B1 (en) 2012-05-02 2013-05-21 Ether Dynamics Corporation Pseudo-genetic meta-knowledge artificial intelligence systems and methods
US10572774B2 (en) * 2012-12-06 2020-02-25 Toyota Motor Engineering & Manufacturing North America. Inc. Methods and robots for adjusting object detection parameters, object recognition parameters, or both object detection parameters and object recognition parameters
CN103810700B (zh) * 2014-01-14 2017-01-11 燕山大学 基于深度图像利用遮挡信息确定下一最佳观测方位的方法
JP2015136762A (ja) * 2014-01-23 2015-07-30 セイコーエプソン株式会社 処理装置、ロボット、ロボットシステム及び処理方法
JP6240689B2 (ja) 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
DE102016009030B4 (de) 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs
JP6522488B2 (ja) * 2015-07-31 2019-05-29 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
US10839302B2 (en) 2015-11-24 2020-11-17 The Research Foundation For The State University Of New York Approximate value iteration with complex returns by bounding
FR3044438A1 (fr) * 2015-11-27 2017-06-02 Thales Sa Systeme et procede d'aide a la decision
CN106446930B (zh) * 2016-06-28 2019-11-22 沈阳工业大学 基于深层卷积神经网络的机器人工作场景识别方法
US10083369B2 (en) * 2016-07-01 2018-09-25 Ricoh Company, Ltd. Active view planning by deep learning
US11176473B2 (en) * 2017-01-06 2021-11-16 International Business Machines Corporation Partially observed Markov decision process model and its use
CN109974699B (zh) * 2017-12-27 2021-08-27 深圳市优必选科技有限公司 一种机器人及其地图自主探索方法和装置
DE102018216561A1 (de) * 2018-09-27 2020-04-02 Robert Bosch Gmbh Verfahren, Vorrichtung und Computerprogramm zum Ermitteln einer Strategie eines Agenten
US20220083884A1 (en) * 2019-01-28 2022-03-17 Mayo Foundation For Medical Education And Research Estimating latent reward functions from experiences
JP2020149162A (ja) * 2019-03-11 2020-09-17 富士通株式会社 情報処理装置、画像処理プログラム及び画像処理方法
JP7337611B2 (ja) * 2019-09-06 2023-09-04 株式会社東芝 把持装置、荷役装置、及び制御装置
CN111814915B (zh) * 2020-08-26 2020-12-25 中国科学院自动化研究所 多智能体时空特征提取方法及系统、行为决策方法及系统
CN113269315B (zh) * 2021-06-29 2024-04-02 安徽寒武纪信息科技有限公司 利用深度强化学习执行任务的设备、方法及可读存储介质
CN116922397B (zh) * 2023-09-13 2023-11-28 成都明途科技有限公司 机器人智能水平的测量方法、装置、机器人及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5179441A (en) * 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
US7827011B2 (en) * 2005-05-03 2010-11-02 Aware, Inc. Method and system for real-time signal classification
US20060282021A1 (en) * 2005-05-03 2006-12-14 Devaul Richard W Method and system for fall detection and motion analysis
US20100138366A1 (en) * 2007-07-02 2010-06-03 Qin Zhang System and method for information processing and motor control
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems

Similar Documents

Publication Publication Date Title
JP2010244549A5 (ja)
JP5183665B2 (ja) ロボットの少なくとも1つの将来的活動を決定する決定メカニズム、方法、モジュールおよび決定するように構成されたロボット
CN110782483B (zh) 基于分布式相机网络的多视图多目标跟踪方法及系统
US10083512B2 (en) Information processing apparatus, information processing method, position and orientation estimation apparatus, and robot system
EP1901152B1 (en) Method, medium, and system estimating pose of mobile robots
JP4849464B2 (ja) フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法
JP4967062B2 (ja) オプティカルフロー、運動学及び深さ情報を使用して、物体の適切な運動を推定する方法
JP6186834B2 (ja) 目標追尾装置及び目標追尾プログラム
JP6349418B2 (ja) 高精度単眼移動によるオブジェクト位置特定
JP6331785B2 (ja) 物体追跡装置、物体追跡方法および物体追跡プログラム
CN111322993B (zh) 一种视觉定位方法和装置
Wenhardt et al. An information theoretic approach for next best view planning in 3-d reconstruction
Sanchez-Matilla et al. A predictor of moving objects for first-person vision
US20130155199A1 (en) Multi-Part Corresponder for Multiple Cameras
Liu et al. A cardinality modified product multi-sensor PHD
Perico et al. Vision-based monte carlo localization without measurement: A qualitative approach during update phase
JP5960642B2 (ja) 3次元情報取得方法及び3次元情報取得装置
EP2275993A2 (en) Method for estimating the visibility of features on surfaces of object instances in multi-object scenes and method for perception planning in multi-object scenes
Lu et al. Object motion estimation based on hybrid vision for soccer robots in 3d space
Cheung et al. Optimization-based automatic parameter tuning for stereo vision
JP4923000B2 (ja) 複数対象物追跡方法、複数対象物追跡装置、複数対象物追跡プログラムおよびそのプログラムを記録した記録媒体
JP2021077177A (ja) 動作認識装置、動作認識方法及び動作認識プログラム
Schmidt The EKF-based visual SLAM system with relative map orientation measurements
CN111586299B (zh) 一种图像处理方法和相关设备
CN109712170B (zh) 基于视觉惯性里程计的环境对象追踪方法和装置