JP2008000884A - ロボットの相互作用のためのビジュアル・プロト−オブジェクトの評価 - Google Patents
ロボットの相互作用のためのビジュアル・プロト−オブジェクトの評価 Download PDFInfo
- Publication number
- JP2008000884A JP2008000884A JP2007150763A JP2007150763A JP2008000884A JP 2008000884 A JP2008000884 A JP 2008000884A JP 2007150763 A JP2007150763 A JP 2007150763A JP 2007150763 A JP2007150763 A JP 2007150763A JP 2008000884 A JP2008000884 A JP 2008000884A
- Authority
- JP
- Japan
- Prior art keywords
- proto
- robot
- visual
- blob
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】相互作用するロボットは、視覚センシング手段、操作手段、及び計算手段を備える。上記計算手段は、メモリに記憶さるプロト−オブジェクトを生成するために、視覚センシング手段からの出力信号を処理し、プロト−オブジェクトは、少なくとも3次元の位置ラベルで、視覚センシング手段の入力フィールドにおいて関心のあるブロブを表すものであって、異なる挙動−特定の制約と関連し、プロト−オブジェクトの評価に基づいて物体のカテゴリーに関してオブジェクトの仮説を形成し、仮説と、動作のターゲットとしての少なくとも一つのプロト−オブジェクトに基づいて、視覚センシング手段の視覚追跡動作、ロボット胴体の動作、操作手段の動作の少なくとも一つを決めるよう構成されている。
【選択図】図1
Description
メモリに記憶さるプロト−オブジェクトを生成するために、前記視覚センシング手段からの出力信号を処理し、
前記プロト−オブジェクトは、少なくとも3次元の位置ラベルで、視覚センシング手段の入力フィールドにおいて関心のあるブロブを表すものであって、
異なる挙動−特定の制約と関連し、前記プロト−オブジェクトの評価に基づいて物体のカテゴリーに関してオブジェクトの仮説を形成し、
前記仮説と、動作のターゲットとしての少なくとも一つのプロト−オブジェクトに基づいて、前記視覚センシング手段の視覚追跡動作、前記ロボット胴体の動作、前記操作手段の動作の少なくとも一つを決める、
よう構成されている。
プロト−オブジェクトを生成するために、前記視覚センシング手段からの出力信号を処理するステップと、
前記プロト−オブジェクトは、少なくとも3次元の位置ラベルで、視覚センシング手段の入力フィールドにおいて関心のあるブロブを表すものであって、
前記プロト−オブジェクトを評価することにより、前記物体のカテゴリーに関して仮説を形成するステップと、
前記仮説と動作用ターゲットとしての少なくとも一つのプロト−オブジェクトに基づいて、前記視覚センシング手段の視覚追跡動作、前記ロボット胴体の動作、前記操作手段の動作の少なくとも一つを決めるステップと、
を含む。
図1は、相互作用する自律ロボットを制御するように設計された計算部の通信経路及び処理分布を示す。
・ロボット脚が歩行又は休息する挙動
・ロボット腕が伸ばし、把持又は突く挙動
概要
一連の処理が新しく取得されたカラーステレオ画像で始まる。これらの画像は、カラー及び階調画像を利用して2本の独立平行経路に入る。カラー処理は、コンパクト領域に区分化される、カラー類似性のピクセルのようなマスクを構成するカラー画像のカラー区分からなる。
以下、視覚的なプロト−オブジェクトデータからオブジェクトの仮説の生成について、詳しく説明される。
強度画像の対は、カラー画像の対から生成される。上記画像は、修正、つまり変形されて、その結果、同一線上の画像列を有する2つのピンホールカメラによりキャプチャされた画像に対応する(図2参照)。両画像において、対応部分が明らかに顕著であれば、対応部分の間の水平格差が計算される。
上述のように、一対のカラー画像が修正されて、例えば、HLS(色相、輝度、彩度)カラー空間に転換される。すべてのピクセルは、HLS空間において一定の容量で存在するか否かを評価され、結果として、一つのピクセルクラスの小さな領域を取り除くモルフォロジー演算が行われる。HLS容量で存在する最終ピクセルは、画像面内で隣接する領域に分類される。最小サイズを超える最大の結果グループは、他の処理のために選択される。
プロト−オブジェクトは、受信ブロブデータを受け、この受信ブロブデータを感覚メモリの内容と比較することによって、ブロブデータから導き出される。
オブジェクトの仮説は、ある基準で感覚メモリに記憶されたプロト−オブジェクトを評価することで生成される。例えば、プロト−オブジェクトの伸張は、オブジェクトの仮説の評価基準として、選ぶことができる。すなわち、楕円体の半径に基づいて伸張されたプロト−オブジェクトは、挙動ターゲットとして評価される。この場合、球状を有する多数のプロト−オブジェクトは、無視される。これらの伸張されたオブジェクトの仮説の存在は、挙動選択メカニズムにおける主な基準である。
1)物体の検索
2)物体又はブロブの注視又は追跡
「物体を把持する力を与える」のような挙動は、把持の安定のための最小伸張、
((σc1−σc2)/σc1>閾値)
及び適当な直径を要する。
(閾値<σc2<閾値)
頭、腕、及び脚に対しターゲットを利用して、システムは、2005年ヒューマノイド誌に掲載されたM.Gienger、H.Janssen、及びC.Goerick著の“Task oriented whole body motion for humanoid robots”に説明されていることに基づいて、胴体全体のコントローラを利用してモータ命令を発することができる。
運転中、ロボットの安全を保証するために、リアルタイム衝突感知アルゴリズムが用いられる。衝突感知は、ロボットのセグメント(四肢及び胴体部)間の距離を計算するために運動学的情報とともに用いられる球状及び球状が除去されたラインに関してロボット胴体の内部階層の描写を利用する。任意の距離が閾値未満になると、二足歩行の動的安定化だけが相変わらず活発であるように、高レベルな動作制限機能が無効となる。
システムの設計と実行は、人間型ロボットが、脚と腕を利用してその視覚環境と相互作用することができるように導入された。
Claims (16)
- 視覚センシング手段、操作手段、及び計算手段を備える相互作用するロボットであって、
前記計算手段は、
メモリに記憶さるプロト−オブジェクトを生成するために、前記視覚センシング手段からの出力信号を処理し、
前記プロト−オブジェクトは、少なくとも3次元の位置ラベルで、視覚センシング手段の入力フィールドにおいて関心のあるブロブを表すものであって、
異なる挙動−特定の制約と関連し、前記プロト−オブジェクトの評価に基づいて物体のカテゴリーに関してオブジェクトの仮説を形成し、
前記仮説と、動作のターゲットとしての少なくとも一つのプロト−オブジェクトに基づいて、前記視覚センシング手段の視覚追跡動作、前記ロボット胴体の動作、前記操作手段の動作の少なくとも一つを決める、
よう構成されているロボット。 - 前記ブロブは、サイズ、方位、センシング時間、及び正確なラベルの少なくとも一つによりさらに表す、請求項1に記載のロボット。
- 前記操作手段の動作は、把持及び突き動作の少なくとも一つを含む、請求項1又は2に記載のロボット。
- 前記計算手段は、最近生成されたプロト−オブジェクトのみを考慮するように設計される、請求項1〜3のいずれか一項に記載のロボット。
- 前記プロト−オブジェクトに対する少なくとも一つの評価基準は伸張である、請求項1〜4のいずれか一項に記載のロボット。
- 前記プロト−オブジェクトに対する少なくとも一つの評価基準は、挙動−特定基準点と関連した距離である、請求項1〜5のいずれか一項に記載のロボット。
- 前記プロト−オブジェクトに対する少なくとも一つの評価基準は、時間の経過による安定性である、請求項1〜6のいずれか一項に記載のロボット。
- 視覚センシング手段、把持手段、及び計算手段を備える相互作用するロボットを制御する方法であって、
プロト−オブジェクトを生成するために、前記視覚センシング手段からの出力信号を処理するステップと、
前記プロト−オブジェクトは、少なくとも3次元の位置ラベルで、視覚センシング手段の入力フィールドにおいて関心のあるブロブを表すものであって、
前記プロト−オブジェクトを評価することにより、前記物体のカテゴリーに関して仮説を形成するステップと、
前記仮説と動作用ターゲットとしての少なくとも一つのプロト−オブジェクトに基づいて、前記視覚センシング手段の視覚追跡動作、前記ロボット胴体の動作、前記操作手段の動作の少なくとも一つを決めるステップと、
を含む方法。 - 定義された期間の経過後又はロボット胴体の動作が定義された閾値に到逹すると、プロト−オブジェクトを廃棄するステップを含む、請求項7に記載の方法。
- 前記ブロブは、サイズ、方位、センシング時間、及び正確なラベルの少なくとも一つによりさらに表す、請求項8又は9に記載の方法。
- 前記操作手段の動作は、把持及び突き動作の少なくとも一つを含む、請求項8〜10のいずれか一項に記載の方法。
- 前記計算手段は、最近生成されたプロト−オブジェクトのみを考慮するように設計される、請求項8〜11のいずれか一項に記載の方法。
- 前記プロト−オブジェクトに対する少なくとも一つの評価基準は伸張である、請求項8〜12のいずれか一項に記載の方法。
- 前記プロト−オブジェクトに対する少なくとも一つの評価基準は、挙動−特定基準点と関連した距離である、請求項8〜13のいずれか一項に記載の方法。
- 前記プロト−オブジェクトに対する少なくとも一つの評価基準は、時間の経過による安定性である、請求項8〜14のいずれか一項に記載の方法。
- 相互作用するロボットの計算装置を作動する場合、請求項8〜15のいずれか一項による方法を支持するコンピュータソフトウェアプログラム製品。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP06012899A EP1870210A1 (en) | 2006-06-22 | 2006-06-22 | Evaluating visual proto-objects for robot interaction |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008000884A true JP2008000884A (ja) | 2008-01-10 |
Family
ID=37841203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007150763A Pending JP2008000884A (ja) | 2006-06-22 | 2007-06-06 | ロボットの相互作用のためのビジュアル・プロト−オブジェクトの評価 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20070299559A1 (ja) |
EP (1) | EP1870210A1 (ja) |
JP (1) | JP2008000884A (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8457682B2 (en) * | 2008-03-04 | 2013-06-04 | Dbsd Satellite Services G.P. | Method and system for integrated satellite assistance services |
EP2014425B1 (en) * | 2007-07-13 | 2013-02-20 | Honda Research Institute Europe GmbH | Method and device for controlling a robot |
US8303387B2 (en) * | 2009-05-27 | 2012-11-06 | Zambala Lllp | System and method of simulated objects and applications thereof |
US8745494B2 (en) * | 2009-05-27 | 2014-06-03 | Zambala Lllp | System and method for control of a simulated object that is associated with a physical location in the real world environment |
US20100306825A1 (en) | 2009-05-27 | 2010-12-02 | Lucid Ventures, Inc. | System and method for facilitating user interaction with a simulated object associated with a physical location |
US20110208685A1 (en) * | 2010-02-25 | 2011-08-25 | Hariraam Varun Ganapathi | Motion Capture Using Intelligent Part Identification |
US8994790B2 (en) * | 2010-02-25 | 2015-03-31 | The Board Of Trustees Of The Leland Stanford Junior University | Motion capture with low input data constraints |
JP5393531B2 (ja) * | 2010-02-25 | 2014-01-22 | キヤノン株式会社 | 位置姿勢推定装置、位置姿勢推定方法、プログラム、記憶媒体 |
US8611670B2 (en) * | 2010-02-25 | 2013-12-17 | The Board Of Trustees Of The Leland Stanford Junior University | Intelligent part identification for use with scene characterization or motion capture |
JP5465137B2 (ja) * | 2010-04-22 | 2014-04-09 | 本田技研工業株式会社 | ロボットおよび制御システム |
KR101778028B1 (ko) * | 2010-12-20 | 2017-09-13 | 삼성전자주식회사 | 로봇 및 로봇의 경로 생성 방법 |
FI20106387A (fi) * | 2010-12-30 | 2012-07-01 | Zenrobotics Oy | Menetelmä, tietokoneohjelma ja laite tartuntakohdan määrittämiseksi |
US20130293580A1 (en) | 2012-05-01 | 2013-11-07 | Zambala Lllp | System and method for selecting targets in an augmented reality environment |
DE102014204251A1 (de) * | 2014-03-07 | 2015-09-10 | Siemens Aktiengesellschaft | Verfahren zu einer Interaktion zwischen einer Assistenzvorrichtung und einem medizinischen Gerät und/oder einem Bedienpersonal und/oder einem Patienten, Assistenzvorrichtung, Assistenzsystem, Einheit und System |
JP6434834B2 (ja) * | 2015-03-19 | 2018-12-05 | 株式会社日立ソリューションズ | 検査対象物抽出装置、及び検査対象物抽出方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS642882A (en) * | 1987-06-25 | 1989-01-06 | Omron Tateisi Electron Co | Robot control method |
WO2006006624A1 (ja) * | 2004-07-13 | 2006-01-19 | Matsushita Electric Industrial Co., Ltd. | 物品保持システム、ロボット及びロボット制御方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5579444A (en) * | 1987-08-28 | 1996-11-26 | Axiom Bildverarbeitungssysteme Gmbh | Adaptive vision-based controller |
US5521843A (en) * | 1992-01-30 | 1996-05-28 | Fujitsu Limited | System for and method of recognizing and tracking target mark |
JP4231320B2 (ja) * | 2003-03-31 | 2009-02-25 | 本田技研工業株式会社 | 移動体の検出装置 |
-
2006
- 2006-06-22 EP EP06012899A patent/EP1870210A1/en not_active Withdrawn
-
2007
- 2007-06-06 JP JP2007150763A patent/JP2008000884A/ja active Pending
- 2007-06-20 US US11/765,951 patent/US20070299559A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS642882A (en) * | 1987-06-25 | 1989-01-06 | Omron Tateisi Electron Co | Robot control method |
WO2006006624A1 (ja) * | 2004-07-13 | 2006-01-19 | Matsushita Electric Industrial Co., Ltd. | 物品保持システム、ロボット及びロボット制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20070299559A1 (en) | 2007-12-27 |
EP1870210A1 (en) | 2007-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008000884A (ja) | ロボットの相互作用のためのビジュアル・プロト−オブジェクトの評価 | |
CN114080583B (zh) | 视觉教导和重复移动操纵系统 | |
Lee et al. | Camera-to-robot pose estimation from a single image | |
US10919152B1 (en) | Teleoperating of robots with tasks by mapping to human operator pose | |
JP5647155B2 (ja) | 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定 | |
JP5422735B2 (ja) | 可変姿勢を含む画像シーケンスのリアルタイム利用可能なコンピュータ支援分析方法 | |
CN103608844B (zh) | 全自动动态关节连接的模型校准 | |
US9844881B2 (en) | Robotic device including machine vision | |
Nickels et al. | Model-based tracking of complex articulated objects | |
JP6129363B2 (ja) | インタラクティブシステム、リモコン及びその操作方法 | |
Fernández et al. | A Kinect-based system to enable interaction by pointing in smart spaces | |
Bertino et al. | Experimental autonomous deep learning-based 3d path planning for a 7-dof robot manipulator | |
Bolder et al. | Visually guided whole body interaction | |
Lin et al. | The implementation of augmented reality in a robotic teleoperation system | |
JP6792230B1 (ja) | 情報処理装置、方法およびプログラム | |
Mugisha et al. | Safe collaboration between human and robot in a context of intermittent haptique interface | |
Kraft et al. | Learning objects and grasp affordances through autonomous exploration | |
Forssén | Learning saccadic gaze control via motion prediciton | |
Cintas et al. | Robust behavior and perception using hierarchical state machines: A pallet manipulation experiment | |
Müller et al. | Graspy–object manipulation with nao | |
Eitner et al. | Task and vision based online manipulator trajectory generation for a humanoid robot | |
Herrejon et al. | Position based visual servoing for catching a 3-D flying object using RLS trajectory estimation from a monocular image sequence | |
US20220415094A1 (en) | Method and system for estimating gesture of user from two-dimensional image, and non-transitory computer-readable recording medium | |
WO2023100282A1 (ja) | データ生成システム、モデル生成システム、推定システム、学習済みモデルの製造方法、ロボット制御システム、データ生成方法、およびデータ生成プログラム | |
Lizarazo et al. | Hand position tracking using a depth image from a RGB-d camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100316 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20100610 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20100615 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20100712 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100715 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20100715 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110412 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110707 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110712 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110712 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120228 |