JP7386451B2 - 教示システム、教示方法及び教示プログラム - Google Patents
教示システム、教示方法及び教示プログラム Download PDFInfo
- Publication number
- JP7386451B2 JP7386451B2 JP2019183318A JP2019183318A JP7386451B2 JP 7386451 B2 JP7386451 B2 JP 7386451B2 JP 2019183318 A JP2019183318 A JP 2019183318A JP 2019183318 A JP2019183318 A JP 2019183318A JP 7386451 B2 JP7386451 B2 JP 7386451B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- user
- function
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 38
- 238000003384 imaging method Methods 0.000 claims description 44
- 238000001514 detection method Methods 0.000 claims description 39
- 230000033001 locomotion Effects 0.000 claims description 33
- 239000002131 composite material Substances 0.000 claims description 23
- 230000005540 biological transmission Effects 0.000 claims description 8
- 230000010365 information processing Effects 0.000 description 72
- 238000004891 communication Methods 0.000 description 47
- 230000006870 function Effects 0.000 description 32
- 210000003811 finger Anatomy 0.000 description 30
- 230000008569 process Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 15
- 239000010813 municipal solid waste Substances 0.000 description 15
- 238000004140 cleaning Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 238000013523 data management Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Numerical Control (AREA)
Description
<概要>
図1は、本発明に係る教示システム1の概要を示す概要図である。図1に示すように、教示システム1には、情報処理装置120と、情報処理装置120から提供される映像を視聴可能なヘッドマウントディスプレイ110と、ロボット200とを含む。情報処理装置120は、ヘッドマウントディスプレイ110を装着したユーザ10に、仮想空間上のロボット200と、ゴミ箱20と、ペットボトル30とを含む映像を表示する。当該映像は、AR(Augumented Reality)映像であってもよいし、VR(Virtual Reality)映像であってもよいし、MR(Mixed Reality)映像であってもよい。ヘッドマウントディスプレイ110には撮像部(カメラ)が搭載され、その撮像部から得られた映像を情報処理装置120に送信する。ユーザ10は、視界内に存在する仮想ロボットに対して自身の指で操作するようにして、AR映像としてのロボットを操作する。この操作は撮像部が撮像した映像内に、ユーザの手が含まれ、その形状が予め定めた動作をしている場合にロボットに対する操作として検出する。例えば、ユーザは仮想ロボットのハンドを操作して、ペットボトル30を把持させ、ゴミ箱20の位置にまで持ってこさせ、リリースしたとする。情報処理装置120は、一連の操作を解析し、ユーザによる指示が「ペットボトルをゴミ箱に捨てる」ことであると解釈する。そして、その解釈にしたがって、実際のロボット200に対して、「ペットボトルを探索して、指定のゴミ箱に捨てろ」という内容の教示命令を生成して、送信する。これにより、ロボットに対するティーチングを簡便かつ容易な教示システム1を提供することができる。
図2は、教示システム1に係る各装置の機能構成の一例を示すブロック図である。図2に示すように教示システム1は、ヘッドマウントディスプレイ110と、情報処理装置120と、ロボット200とを含む。ヘッドマウントディスプレイ110と情報処理装置120とは互いに通信可能に接続され、同様に情報処理装置120とロボット200も互いに通信可能に接続されている。これらの接続は、無線接続であってもよいし、有線接続であってもよい。
以上がロボット200の構成である。
図3は、情報処理装置120が保持するデータであって、各オブジェクトを管理するためのオブジェクトデータの管理表300の構成例を示すデータ概念図である。図3に示すように、オブジェクトデータの管理表300は、物体ID301と、座標302と、属性情報303とが対応付けられた情報である。
ここから、図4~図8を用いて、実際の操作の具体例を説明する。図4は、情報処理装置120から、ヘッドマウントディスプレイ110に提供される映像であって、ヘッドマウントディスプレイ110に表示される映像の一例である。図4は、図1におけるユーザ10が視認可能な映像の一例でもある。
ここから、教示システム1に係る各装置の動作について説明する。まず図9を用いて、教示システム1に係る各装置、即ち、ヘッドマウントディスプレイ110と、情報処理装置120と、ロボット200との間のやり取りについて説明する。
従来のロボットに対するティーチングは、実際のロボットを動かしたりする場合には重労働となったり、プログラムによるティーチングであれば高度な専門知識を要求されたりするなど、通常のユーザには困難を伴うものがあった。これに対して、本実施の形態に係る教示システム1によれば、仮想上のロボットに対する間隔的な操作で、実際のロボットに対して実行すべき処理を教示することができるので、従来よりも、簡易かつ感覚的にロボットのティーチングを実行できる。したがって、本実施の形態に係る情報処理装置120及び情報処理装置120を含む教示システム1は、ロボットのティーチングの利便性の向上を促すことができる。
上記実施の形態に係る各装置は、上記実施の形態に限定されるものではなく、他の手法により実現されてもよいことは言うまでもない。以下、各種変形例について説明する。
110、110a ヘッドマウントディスプレイ
111 通信部
112 記憶部
113 制御部
114 撮像部
115 表示部
120 情報処理装置
121 通信部
122 記憶部
123 制御部
200 ロボット
201 通信部
202 記憶部
203 制御部
204 駆動部
205 検出部
Claims (8)
- 画像を表示する表示部と、
ユーザの視野方向を撮像する撮像部と、
前記表示部に表示する、仮想的なロボットと、前記撮像部により撮像された撮像映像とを合成した合成映像を生成する画像生成部と、
前記画像生成部により生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出部と、
前記検出部により検出された操作に基づき実際のロボットの動作命令を生成する命令生成部と、
前記動作命令を前記実際のロボットに送信する送信部とを備え、
前記ロボットは、物品を把持する把持部を有し、
前記画像生成部は、更に、仮想的な物品を合成した前記合成映像を生成し、
前記検出部は、前記ユーザが前記仮想的なロボットの前記把持部を操作して把持させた物品を特定するとともに、前記把持部に前記物品をリリースさせた場所または対象を特定し、
前記命令生成部は、前記実際のロボットに対して、前記検出部が特定した物品を、前記場所又は対象まで運搬させる動作命令を生成する
教示システム。 - 画像を表示する表示部と、
ユーザの視野方向を撮像する撮像部と、
前記表示部に表示する、仮想的なロボットと、前記撮像部により撮像された撮像映像とを合成した合成映像を生成する画像生成部と、
前記画像生成部により生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出部と、
前記検出部により検出された操作に基づき実際のロボットの動作命令を生成する命令生成部と、
前記動作命令を前記実際のロボットに送信する送信部とを備え、
前記ロボットは、自立移動可能なロボットであり、
前記検出部は、前記ユーザが前記仮想的なロボットを前記合成映像内を移動させた移動経路を検出し、
前記命令生成部は、前記実際のロボットに対して、前記検出部が特定した前記移動経路上を移動する動作命令を生成する
教示システム。 - 前記撮像部は、前記実際のロボットを含む映像を前記撮像映像として撮像し、
前記合成映像は、前記仮想的なロボットを、前記撮像映像中の実際のロボットに対して重畳した前記合成映像を生成する
ことを特徴とする請求項1又は2に記載の教示システム。 - 前記ロボットは、7軸ロボットである
ことを特徴とする請求項1~3のいずれか一項に記載の教示システム。 - 教示システムが実行するロボットへの教示方法であって、
画像を表示する表示ステップと、
ユーザの視野方向を撮像する撮像ステップと、
前記表示ステップにおいて表示する、仮想的なロボットと、前記撮像ステップにより撮像された撮像映像とを合成した合成映像を生成する画像生成ステップと、
前記画像生成ステップにより生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出ステップと、
前記検出ステップにより検出された操作に基づき実際のロボットの動作命令を生成する命令生成ステップと、
前記動作命令を前記実際のロボットに送信する送信ステップとを含み、
前記ロボットは、物品を把持する把持部を有し、
前記画像生成ステップは、更に、仮想的な物品を合成した前記合成映像を生成し、
前記検出ステップは、前記ユーザが前記仮想的なロボットの前記把持部を操作して把持させた物品を特定するとともに、前記把持部に前記物品をリリースさせた場所または対象を特定し、
前記命令生成ステップは、前記実際のロボットに対して、前記検出ステップが特定した物品を、前記場所又は対象まで運搬させる動作命令を生成する
教示方法。 - 教示システムのコンピュータに、
画像を表示する表示機能と、
ユーザの視野方向を撮像する撮像機能と、
前記表示機能が表示する、仮想的なロボットと、前記撮像機能により撮像された撮像映像とを合成した合成映像を生成する画像生成機能と、
前記画像生成機能により生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出機能と、
前記検出機能により検出された操作に基づき実際のロボットの動作命令を生成する命令生成機能と、
前記動作命令を前記実際のロボットに送信する送信機能とを実現させ、
前記ロボットは、物品を把持する把持部を有し、
前記画像生成機能は、更に、仮想的な物品を合成した前記合成映像を生成し、
前記検出機能は、前記ユーザが前記仮想的なロボットの前記把持部を操作して把持させた物品を特定するとともに、前記把持部に前記物品をリリースさせた場所または対象を特定し、
前記命令生成機能は、前記実際のロボットに対して、前記検出機能が特定した物品を、前記場所又は対象まで運搬させる動作命令を生成する
教示プログラム。 - 教示システムが実行するロボットへの教示方法であって、
画像を表示する表示ステップと、
ユーザの視野方向を撮像する撮像ステップと、
前記表示ステップにおいて表示する、仮想的なロボットと、前記撮像ステップにより撮像された撮像映像とを合成した合成映像を生成する画像生成ステップと、
前記画像生成ステップにより生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出ステップと、
前記検出ステップにより検出された操作に基づき実際のロボットの動作命令を生成する命令生成ステップと、
前記動作命令を前記実際のロボットに送信する送信ステップとを含み、
前記ロボットは、自立移動可能なロボットであり、
前記検出ステップは、前記ユーザが前記仮想的なロボットを前記合成映像内を移動させた移動経路を検出し、
前記命令生成ステップは、前記実際のロボットに対して、前記検出ステップが特定した前記移動経路上を移動する動作命令を生成する
教示方法。 - 教示システムのコンピュータに、
画像を表示する表示機能と、
ユーザの視野方向を撮像する撮像機能と、
前記表示機能が表示する、仮想的なロボットと、前記撮像機能により撮像された撮像映像とを合成した合成映像を生成する画像生成機能と、
前記画像生成機能により生成された映像から前記ユーザの手による前記仮想的なロボットに対する操作を検出する検出機能と、
前記検出機能により検出された操作に基づき実際のロボットの動作命令を生成する命令生成機能と、
前記動作命令を前記実際のロボットに送信する送信機能とを実現させ、
前記ロボットは、自立移動可能なロボットであり、
前記検出機能は、前記ユーザが前記仮想的なロボットを前記合成映像内を移動させた移動経路を検出し、
前記命令生成機能は、前記実際のロボットに対して、前記検出機能が特定した前記移動経路上を移動する動作命令を生成する
教示プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183318A JP7386451B2 (ja) | 2019-10-03 | 2019-10-03 | 教示システム、教示方法及び教示プログラム |
JP2023188927A JP2023181513A (ja) | 2019-10-03 | 2023-11-02 | 教示システム、教示方法及び教示プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183318A JP7386451B2 (ja) | 2019-10-03 | 2019-10-03 | 教示システム、教示方法及び教示プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023188927A Division JP2023181513A (ja) | 2019-10-03 | 2023-11-02 | 教示システム、教示方法及び教示プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021058949A JP2021058949A (ja) | 2021-04-15 |
JP7386451B2 true JP7386451B2 (ja) | 2023-11-27 |
Family
ID=75379485
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019183318A Active JP7386451B2 (ja) | 2019-10-03 | 2019-10-03 | 教示システム、教示方法及び教示プログラム |
JP2023188927A Pending JP2023181513A (ja) | 2019-10-03 | 2023-11-02 | 教示システム、教示方法及び教示プログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023188927A Pending JP2023181513A (ja) | 2019-10-03 | 2023-11-02 | 教示システム、教示方法及び教示プログラム |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7386451B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2024108284A (ja) * | 2023-01-31 | 2024-08-13 | 株式会社Screenホールディングス | 作業支援方法および作業支援システム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014180707A (ja) | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | ロボット装置及び被加工物の製造方法 |
US20160257000A1 (en) | 2015-03-04 | 2016-09-08 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
JP2017047478A (ja) | 2015-08-31 | 2017-03-09 | セイコーエプソン株式会社 | 制御装置、ロボット及びロボットシステム |
JP2017534091A (ja) | 2014-08-25 | 2017-11-16 | エックス デベロップメント エルエルシー | ロボット装置の行為の仮想表現を表示する拡張現実のための方法及びシステム |
JP2018015863A (ja) | 2016-07-29 | 2018-02-01 | 川崎重工業株式会社 | ロボットシステム、教示データ生成システム及び教示データ生成方法 |
JP2019042843A (ja) | 2017-08-31 | 2019-03-22 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
JP2019063953A (ja) | 2017-10-02 | 2019-04-25 | 株式会社オカムラ | 作業システム、作業システムの制御方法及びプログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE526119C2 (sv) * | 2003-11-24 | 2005-07-05 | Abb Research Ltd | Metod och system för programmering av en industrirobot |
-
2019
- 2019-10-03 JP JP2019183318A patent/JP7386451B2/ja active Active
-
2023
- 2023-11-02 JP JP2023188927A patent/JP2023181513A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014180707A (ja) | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | ロボット装置及び被加工物の製造方法 |
JP2017534091A (ja) | 2014-08-25 | 2017-11-16 | エックス デベロップメント エルエルシー | ロボット装置の行為の仮想表現を表示する拡張現実のための方法及びシステム |
US20160257000A1 (en) | 2015-03-04 | 2016-09-08 | The Johns Hopkins University | Robot control, training and collaboration in an immersive virtual reality environment |
JP2017047478A (ja) | 2015-08-31 | 2017-03-09 | セイコーエプソン株式会社 | 制御装置、ロボット及びロボットシステム |
JP2018015863A (ja) | 2016-07-29 | 2018-02-01 | 川崎重工業株式会社 | ロボットシステム、教示データ生成システム及び教示データ生成方法 |
JP2019042843A (ja) | 2017-08-31 | 2019-03-22 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
JP2019063953A (ja) | 2017-10-02 | 2019-04-25 | 株式会社オカムラ | 作業システム、作業システムの制御方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021058949A (ja) | 2021-04-15 |
JP2023181513A (ja) | 2023-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10179407B2 (en) | Dynamic multi-sensor and multi-robot interface system | |
JP6816364B2 (ja) | 制御装置、ロボット、及びロボットシステム | |
CN110394780B (zh) | 机器人的仿真装置 | |
JP6361213B2 (ja) | ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム | |
WO2020221311A1 (zh) | 基于可穿戴设备的移动机器人控制系统及控制方法 | |
Du et al. | Markerless kinect-based hand tracking for robot teleoperation | |
US7353082B2 (en) | Method and a system for programming an industrial robot | |
CN104936748B (zh) | 徒手机器人路径教导 | |
US20050251290A1 (en) | Method and a system for programming an industrial robot | |
CN109955254A (zh) | 移动机器人控制系统及机器人末端位姿的遥操作控制方法 | |
Fang et al. | Head-mounted display augmented reality in manufacturing: A systematic review | |
JP2023181513A (ja) | 教示システム、教示方法及び教示プログラム | |
JP2018183845A (ja) | ロボットを操作するための操作装置、ロボットシステム、および操作方法 | |
WO2017145423A1 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
CN111459277B (zh) | 基于混合现实的机械臂遥操作系统及交互界面构建方法 | |
CN113183133B (zh) | 面向多自由度机器人的手势交互方法、系统、装置及介质 | |
CN106272409A (zh) | 基于手势识别的机械臂控制方法及系统 | |
WO2017145787A1 (ja) | 遠隔操作装置、および遠隔操作方法、遠隔操作システム、並びにプログラム | |
KR20190059726A (ko) | 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법 | |
JP2018153874A (ja) | 提示装置、提示方法およびプログラム、ならびに作業システム | |
JP2018144228A (ja) | ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム | |
US12019438B2 (en) | Teleoperation with a wearable sensor system | |
JP2006123153A (ja) | コミュニケーションロボット用開発支援装置および開発支援プログラム | |
Naughton et al. | Integrating Open-World Shared Control in Immersive Avatars | |
WO2023119657A1 (ja) | 接触対象推定装置、方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220727 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230612 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230919 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7386451 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |