JP5142243B2 - ロボット作業教示システムおよびロボットに対する作業教示方法 - Google Patents
ロボット作業教示システムおよびロボットに対する作業教示方法 Download PDFInfo
- Publication number
- JP5142243B2 JP5142243B2 JP2006248524A JP2006248524A JP5142243B2 JP 5142243 B2 JP5142243 B2 JP 5142243B2 JP 2006248524 A JP2006248524 A JP 2006248524A JP 2006248524 A JP2006248524 A JP 2006248524A JP 5142243 B2 JP5142243 B2 JP 5142243B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- model
- robot
- space
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
三浦, 矢野, 岩瀬, 白井: "作業モデルに基づくインタラクティブ作業教示", SI2004予稿集, pp. 585-589, 2004. 平井:"Shared Autonomyの理論", 日本ロボット学会誌, 11, 6, p. 20-25, 1993. 高瀬國克:"テレオペレーションの過去と未来," 日本ロボット学会誌, Vol.21, No.3, pp.1-4, 2003. 角保司、富田文明:"ステレオビジョンによる3次元物体の認識," 電子情報通信学会論文誌, Vol.J80-D-II, No.5(1997) pp.1105-1112. 槙原靖 他:"必要に応じてユーザと対話しながら行動するロボット-対話を利用した物体の認識と操作-," 日本機械学会 ロボティクス・メカトロニクス講演会’01講演論文集, 2P1-H8, 2001. 槙原靖 他:"ユーザとの対話を用いたサービスロボットのための物体認識," 第20回日本ロボット学会学術講演会講演論文集, (2002).
ロボットが作業を行うのに必要な知識を記述したもの。具体的には作業に必要なパラメータや動作モジュールの実行手順などが含まれる。
ロボットが作業を行うのに必要な情報は、物体の正確な幾何形状や大きさなど個々の物体の情報ではなく、作業モデルである。
我々の周りには様々な物体が存在するが、同じカテゴリーに属する物体は大きさや意匠が異なっても扱い方は共通していることが多い。例えば、様々な大きさ・意匠のコップであるが、ロボットでコップを掴む方法は、コップが置かれた状態に応じて、例えば、図7に示すような4つの掴み方に集約される。それぞれの掴み方に対して、ロボットが必要とする情報や動作手順は異なる。そこで、コップの4つの掴み方に対して、それらに対応した作業モデルをそれぞれ持つことで、ロボットはコップがどのような状態に置かれていても、コップを掴み上げることができる。
壁や床, 家具などロボットを取り巻く環境に属する物(環境要素)は、普段部屋の中に固定されていて移動することがないので、それらの情報を予め計算機内に記述しておくことができる。これら環境要素の情報のうち、特に、ロボットの動作に関連する情報を、作業空間モデルまたはタスク空間モデル(Task Space Model :TSM)とする。また、作業空間モデルを、実際の部屋の配置に合わせて計算機内の3次元空間モデルに配置したものを空間モデルとする。ステレオカメラより得られた作業空間の距離画像は、予めキャリブレーションにより作業空間の空間モデルと対応づけられている。これにより、実際の部屋の空間座標は空間モデルと対応づけられる。すなわち、部屋空間の各座標には、作業空間モデルの情報が記述されている。作業空間モデルには、床面や机の高さなどロボットの障害物回避に必要な幾何情報、机や棚へのアプローチ方向などのロボットの動作拘束を表す情報、ロボットで扉や引き出を開閉したりボタンやスイッチをオン・オフするための作業モデルなどの情報が含まれる。また、本棚には本が置かれているとか、食器棚には食器が収納されているなど、ユーザが習慣的に特定の場所に特定の物を置いている場合には、前述のオブジェクト・テンプレート・モデルを空間モデルの中の作業空間モデルに登録することができる。
システムは主に、ロボット、ステレオカメラ、モニター、座標入力装置(マウスまたは タッチパネル)、計算機から構成される。計算機の中には、作業モデルのデータベース、物体モデルのデータベースがあり、作業空間モデルのデータベース、部屋の3次元空間モデルである空間モデルが管理されている。ディスプレイ装置(モニター)には、ステレオカメラから得られる実画像が表示されている。また、ステレオカメラから得られる映像に基づいて部屋の距離画像が計算により得られているものとする。
(1)ユーザはモニターに表示された実画像上で対象物を見つけ、対象物上の一点をマウスクリックまたはタッチパネルで指定する。すると距離画像より、指定された点の三次元位置の情報が得られる。この様に、ユーザが直接対象物を指定するので、ロボットが対象物を探索する処理が省ける。
(2)選択された点には、作業空間モデルから作業空間情報が割り当てられている。
(3)作業空間モデルからクリック点に登録されている物体モデルの情報が得られ、登録されている物体モデルを示すアイコンリストが表示画面に表示される。
(4)ユーザは対象物が何であるか知っているので、対象物の物体モデルのアイコンをクリックして物体モデルを選択する。
(5)作業空間モデルに対象物の物体モデルが登録されていない場合には、物体モデルのデータベースにアクセスして物体モデルを選択する。
(6)なお、物体モデルのデータベースにアクセスするためのアイコンも、先の物体モデルを表すアイコンとともに表示画面に表示されている。
(7)物体モデルが選択されると、その物体モデルに記述されている作業モデルのリストがアイコンリストとして表示画面に表示される。
(8)ユーザは物体の置かれた状態・作業目的から適当な作業モデルを選択し、そのアイコンをクリックする。
(9)物体モデルの中に目的の作業モデルが無い場合には、作業モデルのデータベースにアクセスして作業モデルを選択する。
(10)なお、作業モデルのデータベースにアクセスするためのアイコンも作業モデルリストのアイコンとともに表示画面に表示されている。
(11)ロボットはクリックにより指示された点の位置に選択された作業モデルを適用することで作業を行う。
11 制御処理装置
12 空間モデルデータベース
13 物体モデルデータベース
14 作業モデルデータベース
15 ディスプレイ装置
16 データ入力装置
17 ロボット制御装置
18 ロボット
19 ステレオカメラ
20 テーブル(作業環境)
21 容器(作業対象物)
Claims (6)
- ロボットの作業に関する知識を作業モデルとしてモデル化した作業モデル情報を格納した作業モデルデータベースと、
ロボットが扱う物体を物体操作の観点から物体モデルに分類し、その物体モデルに適用できる前記作業モデルのリストを、物体モデル情報として格納した物体モデルデータベースと、
ロボットを取り巻く床や壁、家具などの環境要素毎に前記物体モデルを登録した空間情報を作業空間モデルとして格納した空間モデルデータベースと、
ロボットが作業を行う対象の物体およびその周囲環境の画像を取得する撮影手段と、
前記撮影手段により取得された画像から作業空間の距離画像を取得する距離画像取得手段と、
前記撮影手段により取得された画像を表示画面に表示し、表示画面に表示されたロボットに作業させる物体を指定することにより、該物体が属する前記作業空間モデルを特定し、特定された作業空間モデルに登録された前記物体モデルを表示して、該物体モデルを選択により指定するとともに、
指定された物体モデルに適用できる作業モデルを前記物体モデルデータベースに基づいて表示して、該作業モデルを選択により指定するユーザーインタフェース処理手段と、
前記ユーザーインタフェース処理手段により指定された物体モデルに対応する前記物体モデル情報および前記作業モデルに対応する前記作業モデル情報に基づき、前記距離画像取得手段により取得された作業空間の位置情報に対応して、ロボットの作業内容の制御情報を作成する制御処理手段と
を備えることを特徴とするロボット作業教示システム。 - 請求項1に記載のロボット作業教示システムにおいて、
前記作業空間モデルは前記空間モデルデータベースから取得して、計算機内に構築した部屋の3次元空間モデルに、実際の作業環境中における環境要素の配置に合わせて前記作業空間モデルを配置したものを空間モデルとし、
前記制御処理手段により作成されたロボットの作業内容の制御情報は、前記距離画像取得手段により取得された作業空間の位置情報に対応づけて、ロボットの作業空間の空間モデルに貼り付ける
ことを特徴とするロボット作業教示システム。 - 請求項1に記載のロボット作業教示システムにおいて、
前記撮影手段はステレオカメラであり、ロボットが作業を行う対象の物体およびその周囲環境の画像から距離情報を取得することを特徴とするロボット作業教示システム。 - 請求項1に記載のロボット作業教示システムにおいて、
前記撮影手段はステレオカメラであり、前記ステレオカメラより得られた作業空間の画像と距離画像は、予めキャリブレーションにより前記作業空間モデルと対応づけられていることを特徴とするロボット作業教示システム。 - 請求項1に記載のロボット作業教示システムを用いて、ロボットに物体に対する作業指示を与えるロボットに対する作業教示方法であって、
前記ユーザーインタフェース処理手段により表示画面により表示されたロボットが扱う前記物体を画像上の点として指定を受け付けるステップと、
前記制御処理手段により指定された画像上の点の前記物体の距離画像から三次元位置情報を取得し、空間モデルに貼り付けられている作業空間の情報を取得するステップと、
前記ユーザーインタフェース処理手段により指示された点の作業空間モデルに登録されている前記物体モデルを表すアイコンリストを表示画面に表示するステップと、
ユーザーインタフェース処理手段によりアイコンリストから対象物のカテゴリーを表す物体モデルのアイコンをクリックして物体モデルの選択を受け付けるステップと、
ユーザーインタフェース処理手段により選択された物体モデルに対応づけられている作業モデルを表すアイコンリストを表示画面に表示するステップと、
ロボットが扱う対象物である前記物体の置かれた状態および作業目的から前記作業モデルのアイコンをクリックして作業モデルの選択を受け付けるステップと、
前記制御処理手段により指定されたロボットが扱う対象物のある空間モデルに作業に必要な空間情報と作業モデルを対応づけるステップと、
の処理を行うことを特徴とするロボットに対する作業教示方法。 - 請求項5に記載のロボットに対する作業教示方法において、更に、
前記制御処理手段によりロボットに対して対象物上の点に対応づけられた空間情報と作業モデルを利用して前記物体に対する操作を行う指示を与えるステップ、
の処理を行うことを特徴とするロボットに対する作業教示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006248524A JP5142243B2 (ja) | 2006-09-13 | 2006-09-13 | ロボット作業教示システムおよびロボットに対する作業教示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006248524A JP5142243B2 (ja) | 2006-09-13 | 2006-09-13 | ロボット作業教示システムおよびロボットに対する作業教示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008068348A JP2008068348A (ja) | 2008-03-27 |
JP5142243B2 true JP5142243B2 (ja) | 2013-02-13 |
Family
ID=39290396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006248524A Expired - Fee Related JP5142243B2 (ja) | 2006-09-13 | 2006-09-13 | ロボット作業教示システムおよびロボットに対する作業教示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5142243B2 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100179689A1 (en) * | 2009-01-09 | 2010-07-15 | National Taiwan University Of Science And Technology | Method of teaching robotic system |
JP5326794B2 (ja) * | 2009-05-15 | 2013-10-30 | トヨタ自動車株式会社 | 遠隔操作システム及び遠隔操作方法 |
JP4649554B1 (ja) * | 2010-02-26 | 2011-03-09 | 株式会社三次元メディア | ロボット制御装置 |
JP2011201002A (ja) | 2010-03-26 | 2011-10-13 | Sony Corp | ロボット装置、ロボット装置の遠隔制御方法及びプログラム |
US8781629B2 (en) * | 2010-09-22 | 2014-07-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Human-robot interface apparatuses and methods of controlling robots |
JP5659787B2 (ja) * | 2010-12-28 | 2015-01-28 | トヨタ自動車株式会社 | 操作環境モデル構築システム、および操作環境モデル構築方法 |
JP5892361B2 (ja) * | 2011-08-02 | 2016-03-23 | ソニー株式会社 | 制御装置、制御方法、プログラム、及びロボット制御システム |
JP5892360B2 (ja) | 2011-08-02 | 2016-03-23 | ソニー株式会社 | ロボット指示装置、ロボット指示方法、プログラム、及び通信システム |
JP6019631B2 (ja) * | 2012-03-12 | 2016-11-02 | セイコーエプソン株式会社 | ワークセルの制御装置、当該制御装置の制御プログラムの構築システム |
DE102013214694B4 (de) | 2013-07-26 | 2015-02-12 | Roche Pvt Gmbh | Verfahren zum Handhaben eines Gegenstands und Vorrichtung zum Handhaben von Gegenständen |
JP6486678B2 (ja) * | 2014-12-25 | 2019-03-20 | 株式会社キーエンス | 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム |
US9975241B2 (en) * | 2015-12-03 | 2018-05-22 | Intel Corporation | Machine object determination based on human interaction |
JP6640060B2 (ja) * | 2016-09-27 | 2020-02-05 | 株式会社日立製作所 | ロボットシステム |
WO2019064751A1 (ja) * | 2017-09-28 | 2019-04-04 | 日本電産株式会社 | ロボット教示システム、ロボット教示方法、制御装置、及びコンピュータプログラム |
JP6642644B2 (ja) * | 2018-07-20 | 2020-02-05 | ソニー株式会社 | 移動体、制御方法、およびプログラム |
JP6922969B2 (ja) * | 2018-07-20 | 2021-08-18 | ソニーグループ株式会社 | 移動体、制御方法、およびプログラム |
JP7342676B2 (ja) * | 2019-12-13 | 2023-09-12 | トヨタ自動車株式会社 | 遠隔操作システム及び遠隔操作方法 |
GB2592412B8 (en) * | 2020-02-27 | 2022-08-03 | Dyson Technology Ltd | Robot |
CN114454176B (zh) * | 2022-03-11 | 2024-03-12 | 深圳鹏行智能研究有限公司 | 机器人的控制方法、控制装置、机器人和存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63124107A (ja) * | 1986-11-14 | 1988-05-27 | Toshiba Corp | 作業環境モデル作成装置 |
JPH06243236A (ja) * | 1993-02-18 | 1994-09-02 | Sharp Corp | 視覚認識装置の座標系校正パラメータ設定装置 |
JP3738256B2 (ja) * | 2003-03-05 | 2006-01-25 | 松下電器産業株式会社 | 生活空間用の物品移動システム、及びロボット操作装置 |
-
2006
- 2006-09-13 JP JP2006248524A patent/JP5142243B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008068348A (ja) | 2008-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5142243B2 (ja) | ロボット作業教示システムおよびロボットに対する作業教示方法 | |
US8781629B2 (en) | Human-robot interface apparatuses and methods of controlling robots | |
Mast et al. | User-centered design of a dynamic-autonomy remote interaction concept for manipulation-capable robots to assist elderly people in the home | |
Ciocarlie et al. | Mobile manipulation through an assistive home robot | |
Birkenkampf et al. | A knowledge-driven shared autonomy human-robot interface for tablet computers | |
Graser et al. | A supportive friend at work: Robotic workplace assistance for the disabled | |
Tölgyessy et al. | Foundations of visual linear human–robot interaction via pointing gesture navigation | |
Frank et al. | Mobile mixed-reality interfaces that enhance human–robot interaction in shared spaces | |
Quintero et al. | Sepo: Selecting by pointing as an intuitive human-robot command interface | |
Frank et al. | Toward mobile mixed-reality interaction with multi-robot systems | |
CN104942803A (zh) | 机器人控制装置、机器人、机器人系统、示教方法及程序 | |
Liu et al. | Roboshop: multi-layered sketching interface for robot housework assignment and management | |
US20210046644A1 (en) | Automated personalized feedback for interactive learning applications | |
US20170197308A1 (en) | Teaching data generating device and teaching data-generating method for work robot | |
US20220118618A1 (en) | Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential enviornments with artificial intelligence and machine learning | |
Zhang et al. | Robot programming by demonstration: A novel system for robot trajectory programming based on robot operating system | |
JP2018034241A (ja) | ロボット、ロボット制御装置およびロボットシステム | |
Leeper et al. | Constraint-based haptic rendering of point data for teleoperated robot grasping | |
Lambrecht et al. | Spatial programming for industrial robots: Efficient, effective and user-optimised through natural communication and augmented reality | |
US11908337B2 (en) | Information processing device, intermediation device, simulation system, and information processing method | |
Su et al. | Effective manipulation for industrial robot manipulators based on tablet PC | |
US20150328772A1 (en) | Method, apparatus, and medium for programming industrial robot | |
Aleotti et al. | Programming manipulation tasks by demonstration in visuo-haptic augmented reality | |
Elarbi-Boudihir et al. | Eye-in-hand/eye-to-hand configuration for a wmra control based on visual servoing | |
Blodow et al. | Inferring generalized pick-and-place tasks from pointing gestures |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110913 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111111 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121113 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121115 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151130 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5142243 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |