JP7462046B2 - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP7462046B2
JP7462046B2 JP2022534073A JP2022534073A JP7462046B2 JP 7462046 B2 JP7462046 B2 JP 7462046B2 JP 2022534073 A JP2022534073 A JP 2022534073A JP 2022534073 A JP2022534073 A JP 2022534073A JP 7462046 B2 JP7462046 B2 JP 7462046B2
Authority
JP
Japan
Prior art keywords
robot
virtual
control device
camera
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022534073A
Other languages
English (en)
Other versions
JPWO2022004774A1 (ja
Inventor
雅幸 掃部
裕和 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Publication of JPWO2022004774A1 publication Critical patent/JPWO2022004774A1/ja
Application granted granted Critical
Publication of JP7462046B2 publication Critical patent/JP7462046B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

本開示は、表示システム及びロボットシステムに関する。
種々の携帯端末に、ロボットのワークセルを表す3次元画像を表示する表示システムが知られている(例えば、特許文献1参照)。特許文献1に開示されている表示システムでは、3次元ロボットモデル及びワークセルの他の構造のモデルを含むロボットワークセルデータを生成し、生成した3次元ロボットモデル等の3次元レンダリングを表示するディスプレイを有している。
また、特許文献1に開示されている、表示システムでは、ユーザ(操作者)が、操作手段を用いて、ディスプレイに表示されているロボットを操作するときに、当該ロボットが動作を実行する前に、ディスプレイ内に衝突物(例えば、セーフティウォール)を示している。そして、ユーザの操作によって、物理的なロボットと衝突物とが衝突する場合には、その衝突をディスプレイに表示するように構成されている。
特開2019-177477号公報
しかしながら、上記特許文献1に開示されている表示システムでは、プログラマが、3次元ロボットモデル、アニメ化された3次元ロボットモデル等の3次元データを作成する必要がある。このため、ロボットの作業対象となるワークの種類が多くなると、その作成するデータ数が膨大となり、データの作成費用が増加する。特に、ワークが少量である場合には、生産コストにおけるデータの作成費用の割合が大きくなる。
したがって、上記特許文献1に開示されている表示システムには、生産効率の向上の観点から未だ改善の余地があった。
本開示は、上記課題を解決するもので、従来の表示システムに比して、生産効率を向上させることができる、表示システム及びロボットシステムを提供することを目的とする。
上記課題を解決するために、本開示に係る表示システムは、作業空間内に配置される3Dカメラと、前記3Dカメラにより得られる画像情報に基づき、前記作業空間内の第1作業空間の3Dモデルを形成し、仮想的なカメラである仮想カメラが、前記仮想カメラの位置である仮想視点から、前記仮想カメラの向きである仮想視線で、前記3Dモデルを撮影したときに得られる仮想画像情報をさらに形成する第1制御装置と、前記仮想カメラへの操作指示の入力を受け付ける第1操作器と、前記仮想画像情報を表示する表示装置と、を備え、前記第1制御装置は、前記画像情報に基づき、前記3Dモデルをリアルタイムで形成し、前記操作指示の操作量に連動するように、前記仮想視点を移動し、又は前記仮想視線を変更し、前記仮想画像情報を前記表示装置に表示させる。
これにより、プログラマにより、ワークの3Dモデルを作成する必要がないため、データ作成にかかる費用を低減することができる。このため、上記特許文献1に開示されている表示システムに比して、生産効率を向上させることができる。
上記課題を解決するために、本開示に係るロボットシステムは、前記表示システムと、前記作業空間内に配置され、前記第1作業空間内に配置されるワークに対して作業を行うロボットと、前記ロボットへの操作指示の入力を受け付ける第2操作器と、前記第2操作器により受け付けた前記操作指示に基づき、前記ロボットの動作を制御する第2制御装置と、を備える。
これにより、プログラマにより、ワークの3Dモデルを作成する必要がないため、データ作成にかかる費用を低減することができる。このため、上記特許文献1に開示されている表示システムに比して、生産効率を向上させることができる。
本開示の上記目的、他の目的、特徴、及び利点は、添付図面参照の下、以下の好適な実施形態の詳細な説明から明らかにされる。
本開示の表示システム及びロボットシステムによれば、従来の表示システムに比して、生産効率を向上させることができる。
図1は、本実施の形態1に係る表示システム及びロボットシステムの概略構成を示す模式図である。 図2は、図1に示す表示システム及びロボットシステムの作業空間内に配置されている機器の概略構成を示す模式図である。 図3は、図1に示す表示システム及びロボットシステムが備える表示装置に、第1作業空間の仮想画像情報の第1例が表示されている様子を示す模式図である。 図4は、図1に示す表示システム及びロボットシステムが備える表示装置に、第1作業空間の仮想画像情報の第2例が表示されている様子を示す模式図である。 図5は、図1に示す表示システム及びロボットシステムが備える表示装置に、第1作業空間の仮想画像情報の第3例が表示されている様子を示す模式図である。 図6は、図1に示す表示システム及びロボットシステムが備える表示装置に、第1作業空間の仮想画像情報の第4例が表示されている様子を示す模式図である。 図7は、本実施の形態2に係る表示システム及びロボットシステムの概略構成を示す模式図である。
以下、本開示の実施の形態を、図面を参照しながら説明する。なお、全ての図面において、同一又は相当部分には同一符号を付し、重複する説明は省略する。また、全ての図面において、本開示を説明するための構成要素を抜粋して図示しており、その他の構成要素については図示を省略している場合がある。さらに、本開示は以下の実施の形態に限定されない。
(実施の形態1)
以下、本実施の形態1に係る表示システム及びロボットシステムの一例について、図1~図5を参照しながら説明する。
[表示システム及びロボットシステムの構成及び作用効果]
図1は、本実施の形態1に係る表示システム及びロボットシステムの概略構成を示す模式図である。
図1に示すように、本実施の形態1に係る表示システム100は、3Dカメラ102、表示装置103、第1操作器104、及び第1制御装置111を備えている。また、本実施の形態1に係るロボットシステム200は、表示システム100、ロボット101、第2操作器105、及び第2制御装置112を備える。
ロボット101、3Dカメラ102、及び第2制御装置112は、作業空間201内に配置され、表示装置103、第1操作器104、第2操作器105、及び第1制御装置111は、操作空間202内に配置される。なお、第2制御装置112は、操作空間202内に配置されてもよい。
作業空間201は、ロボット101が設置される空間であり、少なくともロボット101の動作範囲内の空間を含む。また、操作空間202は、作業空間201とは異なる空間であり、作業空間201から切り離された空間である。
なお、作業空間201と操作空間202は、隔壁部材210により、隔離されてもよい。隔壁部材210は、その一部が、ガラス板等の透明な部材であり、操作者が外部から作業空間201内を視認可能であってもよい。
図2は、図1に示す表示システム及びロボットシステムの作業空間内に配置されている機器の概略構成を示す模式図である。まず、図2を参照しながら、作業空間201内に配置されている機器について説明する。
図2に示すように、3Dカメラ102は、作業空間201内に配置される。具体的には、3Dカメラ102は、第1作業空間220を撮影できる位置に配置される。3Dカメラ102は、本実施の形態1においては、ロボット101(ワークW1~ワークW5)の前方に配置される。なお、第1作業空間220は、ロボット101の動作範囲内の空間をいう。
また、3Dカメラ102は、作業空間201内を撮影することにより得られた画像情報を第1制御装置111に出力する。3Dカメラ102は、撮影範囲を広げる観点から、画角が大きくてもよい。3Dカメラ102の画角は、例えば、100°以上125°以下であってもよい。3Dカメラ102の画角は、例えば、120°であってもよい。なお、第1制御装置111の構成については、後述する。
ロボット101は、作業空間201内に配置され、第1作業空間220内に配置されるワークW1~ワークW5に対して作業を行う。ロボット101は、移動体60上に載置される。移動体60は、左右方向に延びるレール部材301A、301B上に配置され、適宜なアクチュエータにより、左右方向に移動可能である。
また、ロボット101は、複数のリンク(ここでは、第1リンク11a~第6リンク11f)の連接体と、複数の関節(ここでは、第1関節JT1~第6関節JT6)と、これらを支持する基台15と、を備える、垂直多関節ロボットである。なお、本実施の形態1においては、ロボット101として、垂直多関節型ロボットを採用したが、これに限定されず、水平多関節型ロボットを採用してもよい。
第1関節JT1では、基台15と、第1リンク11aの基端部とが、鉛直方向に延びる軸回りに回転可能に連結される。第2関節JT2では、第1リンク11aの先端部と、第2リンク11bの基端部とが、水平方向に延びる軸回りに回転可能に連結される。第3関節JT3では、第2リンク11bの先端部と、第3リンク11cの基端部とが、水平方向に延びる軸回りに回転可能に連結される。
また、第4関節JT4では、第3リンク11cの先端部と、第4リンク11dの基端部とが、第4リンク11dの長手方向に延びる軸回りに回転可能に連結される。第5関節JT5では、第4リンク11dの先端部と、第5リンク11eの基端部とが、第4リンク11dの長手方向と直交する軸回りに回転可能に連結される。第6関節JT6では、第5リンク11eの先端部と第6リンク11fの基端部とが、捻れ回転可能に連結される。
そして、第6リンク11fの先端部には、メカニカルインターフェース12が設けられる。このメカニカルインターフェース12には、ハンド20が着脱可能に装着される。ハンド20は、一対の指部材30A、30Bを有し、ワークW1~ワークW5を保持可能であり、保持したワークW1~ワークW5を解放可能である。
また、第1関節JT1~第6関節JT6には、それぞれ、各関節が連結する2つの部材を相対的に回転させるアクチュエータの一例としての駆動モータが設けられる。駆動モータは、例えば、第2制御装置112によってサーボ制御されるサーボモータであってもよい。また、第1関節JT1~第6関節JT6には、それぞれ、駆動モータの回転位置を検出する回転センサと、駆動モータの回転を制御する電流を検出する電流センサと、が設けられる。回転センサは、例えば、エンコーダであってもよい。
第2制御装置112は、第2操作器105により受け付けた前記操作指示に基づき、ロボット101の動作を制御する。第2制御装置112は、マイクロプロセッサ、CPU等の演算処理器と、ROM、RAM等の記憶器と、を備える。記憶器は、基本プログラム、各種固定データ等の情報を記憶する。演算処理器は、記憶器に記憶された基本プログラム等のソフトウェアを読み出して実行することにより、ロボット101の各種の動作を実行する。また、第2制御装置112は、第2操作器105から入力されたロボット101に対する操作指令情報に基づいて、ロボット101を動作させる。
なお、第2制御装置112は、集中制御する単独の制御装置であってもよいし、互いに協働して分散制御する複数の制御装置であってもよい。また、第2制御装置112は、マイクロコンピュータであってもよく、MPU、PLC(Programmable Logic Controller)、論理回路等であってもよい。
次に、図1を参照しながら、操作空間202内に配置されている機器について説明する。
表示装置103は、後述する仮想画像情報を表示する。具体的には、表示装置103は、第1制御装置111から出力されたワークW1~W5及びロボット101等の第1作業空間220内に配置されている機器の3Dモデルを表示する。なお、表示装置103は、3Dカメラ102により得られるワークW1~W5及びロボット101等の後述する仮想画像情報を表示してもよい。
表示装置103は、例えば、机、床等に据え置いて使用する、据え置き型のディスプレイであってもよいし、操作者が身に着けて使用するヘッドマウントディスプレイ又はメガネであってもよい。
第1操作器104は、仮想カメラへの操作指示の入力を受け付ける。ここで、仮想カメラとは、作業空間201内に実際に配置される3Dカメラ102とは異なる仮想的なカメラであって、後述する仮想画像情報の形成に係る仮想視点および仮想視線を便宜的に説明するための概念的なモジュールのことである。前記仮想視点とは、前記仮想カメラの位置のことであり、前記仮想視線とは、前記仮想カメラの向きのことである。
具体的には、第1操作器104を操作者が操作することにより、第1操作器104から操作信号が第1制御装置111に入力される。第1操作器104としては、例えば、ジョイスティック、キーボード、テンキー、マウス等の公知の操作器を用いることができる。
第2操作器105は、ロボット101への操作指示の入力を受け付ける。第2操作器105としては、例えば、ジョイスティック、キーボード、テンキー、マウス、ティーチペンダント等の公知の操作器を用いることができる。
また、第2操作器105には、ロボット101のハンド20に設けられた力覚センサが検知した力覚情報、又は音声情報を操作者に伝達する機器を配置してもよい。当該機器としては、例えば、振動モータ、スピーカー、把持部を構成する筐体を伸縮させる機構等が挙げられる。
なお、第2操作器105は、操作者が携帯して、持ち運び可能であってもよい。また、ロボット101と第2操作器105は、マスタースレーブ方式であってもよい。
第1制御装置111は、マイクロプロセッサ、CPU等の演算処理器と、ROM、RAM等の記憶器と、を備える。記憶器は、基本プログラム、各種固定データ等の情報を記憶する。演算処理器は、記憶器に記憶された基本プログラム等のソフトウェアを読み出して実行することにより、表示システム100の各種動作を実行する。
第1制御装置111は、3Dカメラ102により得られる画像情報に基づき、作業空間201内の第1作業空間220の3Dモデルを形成し、概念的なモジュールである仮想カメラが、前記仮想カメラの位置である仮想視点から、前記仮想カメラの向きである仮想視線で、前記3Dモデルを撮影したときに得られる仮想画像情報をさらに形成する。
そして、第1制御装置111は、3Dカメラ102により得られる画像情報に基づき、前記3Dモデルをリアルタイムで形成し、第1操作器104により受け付けた操作指示の操作量に連動するように、前記仮想視点を移動し、又は前記仮想視線を変更し、前記仮想画像情報を表示装置103に表示させる。ここで、第1制御装置111が3Dモデルをリアルタイムに形成するとは、第1制御装置111が3Dモデルの形成要求を受信したとき、即座に3Dモデルの形成処理を実行することをいう。なお、第1制御装置111が、3Dモデルの形成要求を受信してから、前記仮想画像情報を表示装置103に表示させるまでをリアルタイムで行ってもよい。また、第1制御装置111が、3Dモデルの形成要求を受信してから、前記仮想画像情報を表示装置103に表示させるまでに生じるタイムラグの許容範囲を予め定めておいてもよい。そして、この許容範囲よりも大きな遅延が生じたとき、第1制御装置111は、表示装置111にエラー情報を表示させてもよい。
上記構成により、操作者は、第1操作器104を操作し、表示装置103に表示されている3Dモデルの仮想視点を移動させ、または仮想視線を変更することができる。また、プログラマにより、ワークの3Dモデルを作成する必要がないため、データ作成にかかる費用を低減することができる。このため、上記特許文献1に開示されている表示システムに比して、生産効率を向上させることができる。
図3は、図1に示す表示システム及びロボットシステムが備える表示装置に、第1作業空間の仮想画像情報の第1例が表示されている様子を示す模式図である。例えば、第1制御装置111は、作業空間201内の3Dカメラ102の位置を3Dモデル内の仮想カメラの位置とした場合に、図3に示すように、ロボット101の3Dモデルである3Dロボット101A、及びワークW1~ワークW5の3Dモデルである3DワークW1A~3DワークW5Aを、表示装置103に表示させる。
図4は、図1に示す表示システム及びロボットシステムが備える表示装置に、第1作業空間の仮想画像情報の第2例が表示されている様子を示す模式図である。操作者が、3Dモデル内の仮想カメラをズームアップするように、第1操作器104を操作した場合には、第1制御装置111は、図4に示すように、ハンド20の3Dモデルである3Dハンド20A、3DワークW1A~3DワークW5Aを拡大した3Dモデルを表示装置103に表示させる。
また、図1及び図2に示すワークW5をロボット101に保持させる場合には、図4に示すような、表示装置103に表示される仮想画像情報では、ワークW1~ワークW5(3DワークW1A~3DワークW5A)のそれぞれの位置関係(距離感、奥行感)、ワークW1~ワークW5(3DワークW1A~3DワークW5A)と、ハンド20(3Dハンド20A)と、の位置関係(距離感、奥行感)がつかみにくい場合がある。
図5は、図1に示す表示システム及びロボットシステムが備える表示装置に、第1作業空間の仮想画像情報の第3例が表示されている様子を示す模式図である。上記のように位置関係がつかみにくい場合には、操作者が、3Dモデル内の仮想カメラを3Dロボット101Aの右側へトラックさせるように、第1操作器104を操作させることで、図5に示すような仮想画像情報を第1制御装置111が表示装置103に表示させる。
また、このとき、操作者が、第2操作器105を操作して、ロボット101を動作させた場合には、第2操作器105から第2制御装置112に入力された操作指令情報を第1制御装置111が取得してもよい。そして、第1制御装置111は、取得した操作指令情報を基に、3Dロボット101Aを動作(3Dロボット101Aを移動)させてもよい。
図6は、図1に示す表示システム及びロボットシステムが備える表示装置に、第1作業空間の仮想画像情報の第4例が表示されている様子を示す模式図である。操作者が、3Dモデル内の仮想カメラを3Dロボット101Aの左側へトラックさせるように、第1操作器104を操作させると、図6に示すような仮想画像情報を第1制御装置111が表示装置103に表示させる。
これにより、操作者は、ワークW1~ワークW5(3DワークW1A~3DワークW5A)のそれぞれの位置関係(距離感、奥行感)、ワークW1~ワークW5(3DワークW1A~3DワークW5A)と、ハンド20(3Dハンド20A)と、の位置関係(距離感、奥行感)を容易に把握することができる。
このため、操作者は、表示装置103に表示されている3Dモデルの仮想画像情報を見ながら、第2操作器105によるロボット101の遠隔操作を容易に実行することができる。
例えば、ロボット101によりワークW1を保持させる場合、図4で表示装置103に表示されている仮想画像では、奥行き方向に関して3Dハンド20Aと3DワークW1Aとの位置関係を操作者が判断しにくい。そこで、操作者は、第1操作器104に操作指示を入力して、図5に示すように仮想視線を3Dロボット101Aの右側へトラックさせる。これにより、奥行き方向に関して3Dハンド20Aと3DワークW1Aとの位置関係を操作者が容易に判断できる。その結果、操作者は、第2操作器105に操作指示を入力して、ロボット101にワークW1を確実に保持させることができる。
(実施の形態2)
以下、本実施の形態2に係る表示システム及びロボットシステムの一例について、図7を参照しながら説明する。
[表示システム及びロボットシステムの構成]
図7は、本実施の形態2に係る表示システム及びロボットシステムの概略構成を示す模式図である。図7に示すように、本実施の形態2に係る表示システム100及びロボットシステム200は、実施の形態1に係る表示システム100及びロボットシステム200と基本的構成は同じであるが、3Dカメラ102が複数台、設置されている点が異なる。
具体的には、3台の3Dカメラ102A~102Cが、それぞれ、第1作業空間220を互いに異なる方向から撮影するように配置される。
また、第1制御装置111は、3Dカメラ102Aにより得られる画像情報に基づき、第1作業空間220内に配置されるワークW1~ワークW5、ロボット101等の各種機器の3Dモデルをリアルタイムで形成する。同様に、第1制御装置111は、3Dカメラ102B、102Cにより得られる画像情報に基づき、第1作業空間220内に配置されるワークW1~ワークW5、ロボット101等の各種機器の3Dモデルをリアルタイムで形成する。
第1制御装置111は、形成した3つの3Dモデルに基づき、例えば、形成した3つの3Dモデルを合成して、第1作業空間220内に配置されるワークW1~ワークW5、ロボット101等の各種機器の3Dモデルを再形成する。
これにより、1台の3Dカメラ102でロボット101の正面から第1作業空間220を撮影した場合に比して、撮影できる領域(範囲)を広げることができる。このため、第1作業空間220内に配置されるワークW1~ワークW5、ロボット101等の各種機器の3Dモデルをより正確に形成することができる。
したがって、本実施の形態2に係る表示システム100及びロボットシステム200では、第1作業空間220の3Dモデルをより正確に形成することができるため、操作者は、より正確に、かつ、より早く、ロボット101のハンド20でワークW1~ワークW5を保持、搬送する作業を実行することができる。
また、上記構成を備える、本実施の形態2に係る表示システム100及びロボットシステム200であっても、実施の形態1に係る表示システム100及びロボットシステム200と同様の作用効果を奏する。
なお、本実施の形態1及び2に係るロボットシステム200では、ロボット101がワークW1~ワークW5を保持、搬送する作業を実行する形態を採用したが、ロボット101が実行する作業は、これに限定されない。ロボット101は、例えば、ワークに塗装する作業、ワークを研磨する作業、ワークを切削する作業、ワークを溶接する作業等、種々の作業を実行することができる。
上記説明から、当業者にとっては、本発明の多くの改良又は他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明を逸脱することなく、その構造及び/又は機能の詳細を実質的に変更できる。
[まとめ]
上記課題を解決するために、本開示に係る表示システムは、作業空間内に配置される3Dカメラと、前記3Dカメラにより得られる画像情報に基づき、前記作業空間内の第1作業空間の3Dモデルを形成し、仮想的なカメラである仮想カメラが、前記仮想カメラの位置である仮想視点から、前記仮想カメラの向きである仮想視線で、前記3Dモデルを撮影したときに得られる仮想画像情報をさらに形成する第1制御装置と、前記仮想カメラへの操作指示の入力を受け付ける第1操作器と、前記仮想画像情報を表示する表示装置と、を備え、前記第1制御装置は、前記画像情報に基づき、前記3Dモデルをリアルタイムで形成し、前記操作指示の操作量に連動するように、前記仮想視点を移動し、又は前記仮想視線を変更し、前記仮想画像情報を前記表示装置に表示させる。
これにより、プログラマにより、ワークの3Dモデルを作成する必要がないため、データ作成にかかる費用を低減することができる。このため、従来の表示システムに比して、生産効率を向上させることができる。
例えば、複数の前記3Dカメラが、前記作業空間内に配置されてもよい。
例えば、複数の前記3Dカメラは、それぞれ、前記第1作業空間を互いに異なる方向から撮影するように配置されてもよい。
前記第1制御装置は、複数の前記3Dカメラごとに前記3Dモデルを形成し、形成した複数の前記3Dモデルに基づき、前記仮想カメラにより撮影される前記3Dモデルを再形成してもよい。
これにより、第1作業空間の3Dモデルをより正確に形成することができる。
上記課題を解決するために、本開示に係るロボットシステムは、上記構成のいずれかを備える表示システムと、前記作業空間内に配置され、前記第1作業空間内に配置されるワークに対して作業を行うロボットと、前記ロボットへの操作指示の入力を受け付ける第2操作器と、前記第2操作器により受け付けた前記操作指示に基づき、前記ロボットの動作を制御する第2制御装置と、を備える。
これにより、プログラマにより、ワークの3Dモデルを作成する必要がないため、データ作成にかかる費用を低減することができる。このため、従来の表示システムに比して、生産効率を向上させることができる。
本開示の表示システム及びロボットシステムによれば、従来の表示システムに比して、生産効率を向上させることができるため、ロボットの分野において有用である。
11a 第1リンク
11b 第2リンク
11c 第3リンク
11d 第4リンク
11e 第5リンク
11f 第6リンク
12 メカニカルインターフェース
15 基台
20 ハンド
30A 指部材
30B 指部材
60 移動体
100 表示システム
101 ロボット
102 3Dカメラ
102A 3Dカメラ
102B 3Dカメラ
102C 3Dカメラ
103 表示装置
104 第1操作器
105 第2操作器
106 台部材
111 第1制御装置
112 第2制御装置
200 ロボットシステム
201 作業空間
202 操作空間
210 隔壁部材
220 第1作業空間
301A レール部材
301B レール部材
JT1 第1関節
JT2 第2関節
JT3 第3関節
JT4 第4関節
JT5 第5関節
JT6 第6関節
W1 ワーク
W2 ワーク
W3 ワーク
W4 ワーク
W5 ワーク

Claims (5)

  1. 作業空間内に配置される3Dカメラと、
    前記3Dカメラにより得られる画像情報に基づき、前記作業空間内の第1作業空間の3Dモデルを形成し、仮想的なカメラである仮想カメラが、前記仮想カメラの位置である仮想視点から、前記仮想カメラの向きである仮想視線で、前記3Dモデルを撮影したときに得られる仮想画像情報をさらに形成する第1制御装置と、
    前記作業空間内に配置され、前記第1作業空間内に配置されるワークに対して作業するロボットと、
    操作空間内に配置され、前記仮想カメラへの操作指示の入力を受け付ける第1操作器と、
    前記操作空間内に配置され、前記ロボットへの操作指示の入力を受け付ける第2操作器と、
    前記操作空間内に配置され、前記仮想画像情報を表示する表示装置と、
    前記第2操作器により受け付けた前記ロボットへの操作指示に基づき、前記ロボットの動作を制御する第2制御装置と、を備え、
    前記第1制御装置は、前記画像情報に基づき、前記3Dモデルをリアルタイムで形成し、前記第1操作器により受け付けた前記仮想カメラへの操作指示の操作量に連動するように、前記仮想視点を移動し、又は前記仮想視線を変更し、前記仮想画像情報を前記表示装置に表示させる、ロボットシステム。
  2. 複数の前記3Dカメラが、前記作業空間内に配置される、請求項1に記載のロボットシステム。
  3. 複数の前記3Dカメラは、それぞれ、前記第1作業空間を互いに異なる方向から撮影するように配置される、請求項1又は2に記載のロボットシステム。
  4. 前記第1制御装置は、複数の前記3Dカメラごとに前記3Dモデルを形成し、形成した複数の前記3Dモデルに基づき、前記仮想カメラにより撮影される前記3Dモデルを再形成する、請求項2又は3に記載のロボットシステム。
  5. 前記第1制御装置は、前記第2操作器により受け付けた前記ロボットへの操作指示を取得し、取得した前記ロボットへの操作指示に基づき、前記ロボットの前記3Dモデルである3Dロボットを動作させる、請求項1~4のいずれかに記載のロボットシステム。
JP2022534073A 2020-07-02 2021-06-30 ロボットシステム Active JP7462046B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020115019 2020-07-02
JP2020115019 2020-07-02
PCT/JP2021/024703 WO2022004774A1 (ja) 2020-07-02 2021-06-30 表示システム及びロボットシステム

Publications (2)

Publication Number Publication Date
JPWO2022004774A1 JPWO2022004774A1 (ja) 2022-01-06
JP7462046B2 true JP7462046B2 (ja) 2024-04-04

Family

ID=79316575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022534073A Active JP7462046B2 (ja) 2020-07-02 2021-06-30 ロボットシステム

Country Status (3)

Country Link
JP (1) JP7462046B2 (ja)
TW (1) TW202206242A (ja)
WO (1) WO2022004774A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018001393A (ja) 2016-07-08 2018-01-11 キヤノン株式会社 ロボット装置、ロボット制御方法、プログラム及び記録媒体
JP2019042843A (ja) 2017-08-31 2019-03-22 川崎重工業株式会社 ロボットシステム及びその運転方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018001393A (ja) 2016-07-08 2018-01-11 キヤノン株式会社 ロボット装置、ロボット制御方法、プログラム及び記録媒体
JP2019042843A (ja) 2017-08-31 2019-03-22 川崎重工業株式会社 ロボットシステム及びその運転方法

Also Published As

Publication number Publication date
WO2022004774A1 (ja) 2022-01-06
JPWO2022004774A1 (ja) 2022-01-06
TW202206242A (zh) 2022-02-16

Similar Documents

Publication Publication Date Title
JP6843050B2 (ja) ロボットシステム
JP7066357B2 (ja) ロボットシステム及びその運転方法
CN109834709B (zh) 设定微动坐标系的机器人控制装置
EP2660014B1 (en) Control device and teaching method for seven-shaft multi-joint robot
CN107336228B (zh) 显示包含附加轴的状态的动作程序的机器人的控制装置
CN111093911B (zh) 机器人系统及其运行方法
WO2015137162A1 (ja) 制御装置、ロボットシステム、および制御用データ生成方法
JPS6179589A (ja) ロボツト運転装置
JP6905651B1 (ja) ロボットシステム及びワークの3次元モデルの形成方法
JP7462046B2 (ja) ロボットシステム
JP2009166172A (ja) ロボットのシミュレーション方法及びロボットのシミュレーション装置
KR102681939B1 (ko) 로봇시스템
Mihelj et al. yControl-open architecture controller for Yaskawa Motoman MH5 robot
JP7185749B2 (ja) ロボットシステム及びロボットシステムの制御方法
WO2024143194A1 (ja) ロボットシステム
KR100321497B1 (ko) 로봇의 운동지시 방법
Lee et al. Development of a control system for master-slave operation
JP2024070336A (ja) ロボット操作システムの動作方法
JP2024093392A (ja) ロボットシステム
JPH06328380A (ja) ロボットの教示装置および産業用ロボット、並びに操作装置
JPH05301180A (ja) 双腕アームの遠隔操作方式
TW202037465A (zh) 機器人系統
JP2022122728A (ja) 教示装置、教示方法および教示プログラム
JP2023180921A (ja) ロボットの移動経路生成方法、移動経路生成装置、ロボットシステム、およびプログラム
JPH0710511B2 (ja) ロボツト動作教示システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240325

R150 Certificate of patent or registration of utility model

Ref document number: 7462046

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150