JP6905651B1 - ロボットシステム及びワークの3次元モデルの形成方法 - Google Patents

ロボットシステム及びワークの3次元モデルの形成方法 Download PDF

Info

Publication number
JP6905651B1
JP6905651B1 JP2021506354A JP2021506354A JP6905651B1 JP 6905651 B1 JP6905651 B1 JP 6905651B1 JP 2021506354 A JP2021506354 A JP 2021506354A JP 2021506354 A JP2021506354 A JP 2021506354A JP 6905651 B1 JP6905651 B1 JP 6905651B1
Authority
JP
Japan
Prior art keywords
work
robot
information
control device
dimensional model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021506354A
Other languages
English (en)
Other versions
JPWO2021117868A1 (ja
Inventor
掃部 雅幸
雅幸 掃部
裕和 杉山
裕和 杉山
佑樹 田中
佑樹 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Application granted granted Critical
Publication of JP6905651B1 publication Critical patent/JP6905651B1/ja
Publication of JPWO2021117868A1 publication Critical patent/JPWO2021117868A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • B25J13/065Control stands, e.g. consoles, switchboards comprising joy-sticks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40131Virtual reality control, programming of manipulator
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40195Tele-operation, computer assisted manual operation

Abstract

本開示のロボットシステム(100)は、作業エリア(201)内に設置され、第2制御装置(112)により制御されるロボット(101)と、操作者により操作される3Dカメラ(103)と、作業エリア(201)とは異なる空間である操作エリア(202)に配置され、3Dカメラ(103)の位置情報及び姿勢情報を無線により検出するセンサ(104)と、表示装置(105)と、第1制御装置(111)と、を備え、第1制御装置(111)は、3Dカメラ(103)により撮影されたワーク(300)の画像情報を取得し、3Dカメラ(103)によりワーク(300)が撮影されたときにおける位置情報及び姿勢情報をセンサ(104)から取得し、取得された画像情報を表示装置(105)に表示させ、画像情報と、取得された位置情報及び姿勢情報と、を基に、ワーク(300)の3次元モデルを形成し、形成された3次元モデルを表示装置(105)に表示させ、形成された3次元モデルのデータである第1データを第2制御装置(112)に出力する。

Description

関連出願への相互参照
本件出願は、2019年12月13日に日本特許庁に出願された特願2019−225562号の優先権を主張するものであり、その全体を参照することにより本件出願の一部となすものとして引用する。
本開示は、ロボットシステム及びワークの3次元モデルの形成方法に関する。
種々の携帯端末に、ロボットのワークセルを表す3次元画像を表示する表示システムが知られている(例えば、特許文献1参照)。特許文献1に開示されている表示システムでは、3次元ロボットモデル及びワークセルの他の構造のモデルを含むロボットワークセルデータを生成し、生成した3次元ロボットモデル等の3次元レンダリングを表示するディスプレイを有している。
また、特許文献1に開示されている、表示システムでは、ユーザ(操作者)が、操作手段を用いて、ディスプレイに表示されているロボットを操作するときに、当該ロボットが動作を実行する前に、ディスプレイ内に衝突物(例えば、セーフティウォール)を示している。そして、ユーザの操作によって、物理的なロボットと衝突物とが衝突する場合には、その衝突をディスプレイに表示する。
特開2019−177477号公報
しかしながら、上記特許文献1に開示されている表示システムでは、プログラマが、3次元ロボットモデル、アニメ化された3次元ロボットモデル等の3次元データを作成する必要がある。このため、ロボットの作業対象となるワークの種類が多くなると、その作成するデータ数が膨大となり、データの作成費用が増加する。特に、ワークが少量である場合には、生産コストにおけるデータの作成費用の割合が大きくなる。
したがって、上記特許文献1に開示されている表示システムには、生産効率の向上の観点から未だ改善の余地があった。
本開示は、上記課題を解決するもので、従来の表示システムに比して、生産効率を向上させることができる、ロボットシステム及びワークの3次元モデルの形成方法を提供することを目的とする。
本開示に係るロボットシステムは、作業エリア内に設置され、第2制御装置により制御されるロボットと、操作者により操作される3Dカメラと、前記作業エリアとは異なる空間である操作エリアに配置され、前記3Dカメラの位置情報及び姿勢情報を無線により検出するセンサと、表示装置と、第1制御装置と、を備え、前記第1制御装置は、前記3Dカメラにより撮影されたワークの画像情報を取得し、前記3Dカメラにより前記ワークが撮影されたときにおける前記位置情報及び前記姿勢情報を前記センサから取得し、取得された前記画像情報を前記表示装置に表示させ、取得された前記画像情報と、取得された前記位置情報及び前記姿勢情報と、を基に、前記ワークの3次元モデルを形成し、形成された前記3次元モデルを前記表示装置に表示させ、形成された前記3次元モデルのデータである第1データを前記第2制御装置に出力する。
この形態のロボットシステムによれば、プログラマにより、ワークの3次元モデルデータを作成する必要がないため、データ作成にかかる費用を低減することができる。このため、従来の表示システムに比して、生産効率を向上させることができる。
本開示に係るワークの3次元モデルの形成方法は、ロボットが設置されている作業エリアとは異なる空間である操作エリアに配置されているワークが前記3Dカメラにより撮影されたときにおける、前記3Dカメラの位置情報及び姿勢情報を検出し、撮影された前記ワークの画像情報を取得し、検出された前記位置情報及び前記姿勢情報を取得し、取得された前記画像情報を前記表示装置に表示させ、取得された前記画像情報と、取得された前記位置情報及び前記姿勢情報と、を基に、前記ワークの3次元モデルを形成する。
この形態のワークの3次元モデルの形成方法によれば、プログラマにより、ワークの3次元モデルデータを作成する必要がないため、データ作成にかかる費用を低減することができる。このため、従来の表示システムに比して、生産効率を向上させることができる。
図1は、本実施の形態1に係るロボットシステムの概略構成を示す模式図である。 図2は、図1に示すロボットシステムにおけるロボットの概略構成を示す模式図である。 図3は、本実施の形態1に係るロボットシステムの動作の一例を示すフローチャートである。 図4は、図3に示すフローチャートに沿って、ロボットシステムが動作しているときの操作エリア内の状態を示す模式図である。 図5は、図3に示すフローチャートに沿って、ロボットシステムが動作しているときの操作エリア内の状態を示す模式図である。 図6は、図3に示すフローチャートに沿って、ロボットシステムが動作しているときの操作エリア内の状態を示す模式図である。 図7は、図3に示すフローチャートに沿って、ロボットシステムが動作しているときの操作エリア内の状態を示す模式図である。 図8は、図3に示すフローチャートに沿って、ロボットシステムが動作しているときの操作エリア内の状態を示す模式図である。 図9は、図3に示すフローチャートに沿って、ロボットシステムが動作しているときの操作エリア内の状態を示す模式図である。 図10は、本実施の形態1における変形例1のロボットシステムの概略構成を示す模式図である。 図11は、本実施の形態1における変形例2のロボットシステムの概略構成を示す模式図である。 図12は、本実施の形態2に係るロボットシステムの概略構成を示す模式図である。 図13は、図12に示すロボットシステムにおいて、窓から作業エリアを見た状態を示す模式図である。 図14は、本実施の形態2に係るロボットシステムの動作の一例を示すフローチャートである。 図15は、本実施の形態2における変形例1のロボットシステムの概略構成を示す模式図である。 図16は、本実施の形態2における変形例1のロボットシステムの動作の一例を示すフローチャートである。 図17は、本実施の形態2における変形例2のロボットシステムの概略構成を示す模式図である。 図18は、本実施の形態2における変形例2のロボットシステムの概略構成を示す模式図である。 図19は、本実施の形態3に係るロボットシステムの概略構成を示す模式図である。 図20Aは、本実施の形態3に係るロボットシステムの動作の一例を示すフローチャートである。 図20Bは、本実施の形態3に係るロボットシステムの動作の一例を示すフローチャートである。
以下、本開示の実施の形態を、図面を参照しながら説明する。なお、全ての図面において、同一又は相当部分には同一符号を付し、重複する説明は省略する。また、全ての図面において、本開示を説明するための構成要素を抜粋して図示しており、その他の構成要素については図示を省略している場合がある。さらに、本開示は以下の実施の形態に限定されない。
(実施の形態1)
[ロボットシステムの構成]
図1は、本実施の形態1に係るロボットシステムの概略構成を示す模式図である。ロボットシステム100は、ロボット101、第1操作器121、3Dカメラ103、センサ104、表示装置105、第1制御装置111、及び第2制御装置112を備える。ロボット101及び第2制御装置112は、作業エリア201内に設置され、センサ104、表示装置105、及び第1制御装置111は、操作エリア202に配置されている。また、第1操作器121は、操作エリア202内において操作者に把持(保持)されて操作される。第1操作器121の先端部には、3Dカメラ103が配設されている。
なお、本実施の形態1においては、3Dカメラ103は、第1操作器121の先端部に設けられているが、3Dカメラ103は、第1操作器121に設けられていなくてもよく、3Dカメラ103と第1操作器121とが、別体として構成されていてもよい。
作業エリア201は、ロボット101が設置されている空間であり、少なくともロボット101の動作範囲内の空間を含む。また、操作エリア202は、作業エリア201から切り離された空間(作業エリア201とは異なる空間)である。作業エリア201と操作エリア202は、壁部材203により、区画されていてもよい。
壁部材203には、窓204が設けられており、操作者は、作業エリア201内に配置されているロボット101を視認できる。なお、作業エリア201は、防爆仕様が施されている防爆エリアであってもよく、操作エリア202は、防爆仕様が施されていない非防爆エリアであってもよい。
センサ104は、3Dカメラ103(例えば、レンズ)の位置情報及び姿勢情報を無線で検出し、第1制御装置111に出力する。また、センサ104は、第1操作器121の先端部の位置情報及び姿勢情報を無線で検出し、第2制御装置112に出力する。なお、センサ104は、第1制御装置111及び/又は第2制御装置112への出力は無線で行ってもよく、有線で行ってもよい。
センサ104は、例えば、赤外線センサや、カメラであってもよい。なお、センサ104が、カメラである場合には、センサ104は操作エリア202内に配置されていなくてもよい。例えば、カメラは、操作者が携帯している携帯端末又はヘッドマウントディスプレイ等に設置されているカメラであってもよい。また、3Dカメラ103の位置情報等を検出するセンサ104と、第1操作器121の先端部の位置情報等を検出するセンサ104と、は、同じセンサで構成されていてもよく、異なるセンサで構成されていてもよい。
第1操作器121は、操作者が把持部121Aを把持して、ロボット101を操作する。具体的には、把持している第1操作器121における本体部121Eの先端部の軌跡を追従するように、ロボット101が動作することで、操作者は、操作エリア202内で第1操作器121により、ロボット101を直感的に操作することができる。
把持部121Aには、後述するロボット101のエンドエフェクタ20に設けられた力覚センサが検知した力覚情報、又は音声情報を操作者に伝達する機器を配置してもよい。当該機器としては、例えば、振動モータ、スピーカー、把持部を構成する筐体を伸縮させる機構等が挙げられる。
また、第1操作器121には、ワーク300に粒体、液体、又は気体を噴霧又は噴射、又はワーク300を切削又は研磨の開始/停止するスイッチ121Bが設けられていてもよい。
なお、第1操作器121は、操作者が携帯して、持ち運び可能に構成されていてもよい。また、第1操作器121の本体部121Eは、ロボット101のエンドエフェクタ20と同様の形状に形成されていてもよい。さらに、第1操作器121は、例えば、ジョイスティック、キーボード、テンキー、ティーチペンダント等の公知の操作器を用いてもよい。
3Dカメラ103は、操作エリア202内で撮影した画像情報を第1制御装置111に出力する。なお、ここでいう「画像情報」には、静止画情報、動画情報及び映像情報のうちの少なくとも一つが含まれる。また、以降の説明における「画像情報」という用語についても同様である。そして、3Dカメラ103が、操作エリア202内でワーク300等を撮影したときに、センサ104が、3Dカメラ103の位置情報及び姿勢情報を無線で検出し、第1制御装置111に出力する。
表示装置105は、第1制御装置111から出力されたワーク300及びロボット101等の3次元モデル、3Dカメラ103が撮影したワーク300等の画像情報と、を表示する。表示装置105としては、例えば、机、床等に据え置いて使用する、据え置き型のディスプレイで構成されていてもよい。また、表示装置105は、操作者が身に着けて使用するヘッドマウントディスプレイ又はメガネで構成されていてもよい。
ロボット101のエンドエフェクタ20は、ワーク300に粒体、液体、又は気体を噴霧又は噴射可能な構造であってもよいし、ワーク300を切削又は研磨可能な構造であってもよいし、ワーク300を溶接可能な構造であってもよいし、又はワーク300を洗浄可能な構造であってもよい。ここで、図2を参照しながら、ロボット101の構成について、詳細に説明する。
図2は、図1に示すロボットシステムにおけるロボットの概略構成を示す模式図である。
図2に示すように、ロボット101は、複数のリンク(ここでは、第1リンク11a、第2リンク11b、第3リンク11c、第4リンク11d、第5リンク11eおよび第6リンク11f)の連接体と、複数の関節(ここでは、第1関節JT1、第2関節JT2、第3関節JT3、第4関節JT4、第5関節JT5および第6関節JT6)と、これらを支持する基台15と、を備える、垂直多関節ロボットアームである。なお、本実施の形態1においては、ロボット101として、垂直多関節型ロボットを採用したが、これに限定されず、水平多関節型ロボットを採用してもよい。
第1関節JT1では、基台15と、第1リンク11aの基端部とが、鉛直方向に延びる軸回りに回転可能に連結されている。第2関節JT2では、第1リンク11aの先端部と、第2リンク11bの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第3関節JT3では、第2リンク11bの先端部と、第3リンク11cの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。
また、第4関節JT4では、第3リンク11cの先端部と、第4リンク11dの基端部とが、第4リンク11dの長手方向に延びる軸回りに回転可能に連結されている。第5関節JT5では、第4リンク11dの先端部と、第5リンク11eの基端部とが、第4リンク11dの長手方向と直交する軸回りに回転可能に連結されている。第6関節JT6では、第5リンク11eの先端部と第6リンク11fの基端部とが、捻れ回転可能に連結されている。
そして、第6リンク11fの先端部には、メカニカルインターフェースが設けられている。このメカニカルインターフェースには、作業内容に対応したエンドエフェクタ20が着脱可能に装着される。
エンドエフェクタ20は、ここでは、ワーク300に液体(例えば、塗料等)を噴霧又は噴射する。また、エンドエフェクタ20には、液体を当該エンドエフェクタ20に供給する配管21が接続されている。
また、第1関節JT1、第2関節JT2、第3関節JT3、第4関節JT4、第5関節JT5および第6関節JT6には、それぞれ、各関節が連結する2つの部材を相対的に回転させるアクチュエータの一例としての駆動モータが設けられている(図示せず)。駆動モータは、例えば、第2制御装置112によってサーボ制御されるサーボモータであってもよい。また、第1関節JT1、第2関節JT2、第3関節JT3、第4関節JT4、第5関節JT5および第6関節JT6には、それぞれ、駆動モータの回転位置を検出する回転センサと、駆動モータの回転を制御する電流を検出する電流センサと、が設けられている(図示せず)。回転センサは、例えば、エンコーダであってもよい。
第1制御装置111は、マイクロプロセッサ、CPU等の演算処理器111aと、ROM、RAM等の記憶器111bと、を備えている。記憶器111bには、基本プログラム、各種固定データ等の情報が記憶されている。演算処理器111aは、記憶器111bに記憶された基本プログラム等のソフトウェアを読み出して実行する。
また、演算処理器111aは、3Dカメラ103から入力された画像情報と、センサ104から入力された3Dカメラ103がワーク300を撮影したときの位置情報及び姿勢情報と、から、ワーク300の3次元モデル(3Dコンピュータグラフィックス又は3DCADデータ)を形成する。記憶器111bは、演算処理器111aが形成したワーク300の3次元モデルを記憶する。
さらに、演算処理器111aは、形成したワーク300の3次元モデルを表示装置105に出力する。表示装置105は、演算処理器111aから入力されたワーク300の3次元モデルを3Dワーク301として表示する(図6等参照)。
第2制御装置112は、第1制御装置111と同様に、マイクロプロセッサ、CPU等の演算処理器112aと、ROM、RAM等の記憶器112bと、を備えている。記憶器112bには、基本プログラム、各種固定データ等の情報が記憶されている。演算処理器112aは、記憶器112bに記憶された基本プログラム等のソフトウェアを読み出して実行することにより、ロボット101の各種の動作を実行する。
なお、第1制御装置111及び/又は第2制御装置112は、集中制御する単独の制御装置によって構成されていてもよいし、互いに協働して分散制御する複数の制御装置によって構成されていてもよい。また、第1制御装置111及び/又は第2制御装置112は、マイクロコンピュータで構成されていてもよく、MPU、PLC(Programmable Logic Controller)、論理回路等によって構成されていてもよい。
また、本実施の形態1に係るロボットシステム100においては、第1制御装置111と第2制御装置112の両方を備える形態を採用したが、これに限定されない。第1制御装置111が、第2制御装置112の機能を兼用する、すなわち、ロボットシステム100は、第1制御装置111のみを備える形態を採用してもよい。同様に、第2制御装置112が、第1制御装置111の機能を兼用する、すなわち、ロボットシステム100は、第2制御装置112のみを備える形態を採用してもよい。
[ロボットシステムの動作(ワークの3次元モデル形成方法)及び作用効果]
次に、本実施の形態1に係るロボットシステム100の動作及び作用効果について、図1から図9を参照しながら、詳細に説明する。なお、以下の動作は、第1制御装置111の演算処理器111aが、記憶器111bに格納されているプログラムを読み出すことにより実行される。
図3は、本実施の形態1に係るロボットシステムの動作の一例(ワークの3次元モデル形成方法)を示すフローチャートである。図4から図9は、図3に示すフローチャートに沿って、ロボットシステムが動作しているときの操作エリア内の状態を示す模式図である。なお、図4から図9においては、ワークにおける前後方向、左右方向、及び上下方向を図における前後方向、左右方向、及び上下方向として表している。
まず、図4に示すように、操作エリア202内には、上部が開口している箱状のワーク300が配置されているとする。そして、図5に示すように、操作者(作業者)が、当該ワーク300の3次元モデルを作成するために、3Dカメラ103が設置されている第1操作器121を把持して、ワーク300の前方から当該ワーク300を撮影したとする。
このとき、操作者は、3Dカメラ103により、1つのワーク300の画像情報を取得(撮影)してもよく、不連続で、複数のワーク300の画像情報を取得(撮影)してもよく、ワーク300の映像情報を取得(撮影)してもよい。また、操作者は、3Dカメラ103により、ワーク300の前方以外の方向から当該ワーク300を撮影してもよい。
すると、第1制御装置111は、3Dカメラ103から、当該3Dカメラ103が撮影したワーク300の画像情報を取得する(ステップS101)。ついで、第1制御装置111は、ステップS101で取得した画像情報を撮影したときの3Dカメラ103の位置情報及び姿勢情報をセンサ104から取得する(ステップS102)。
次に、第1制御装置111は、ステップS101で取得したワーク300の画像情報をワーク画像302Aとして、表示装置105に表示させる(ステップS103;図5参照)。
次に、第1制御装置111は、操作者から、ワーク300の画像情報の取得終了指示指令(ワーク300の撮影終了情報)が、図示されない入力器等から入力されたか否かを判定する(ステップS104)。
第1制御装置111は、入力器等から、ワーク300の撮影終了情報が入力されたと判定した場合(ステップS104でYes)には、ステップS101で取得したワーク300の画像情報と、ステップS102で取得した3Dカメラ103の位置情報及び姿勢情報と、を基に、ワーク300の3次元モデル(3Dコンピュータグラフィックス又は3DCAD)を形成する(ステップS105)。
次に、第1制御装置111は、ステップS105で形成したワーク300の3次元モデルを3Dワーク301Aとして、表示装置105に表示させる(ステップS106;図6参照)。
次に、第1制御装置111は、操作者から、ワーク300の3次元モデルの形成終了指示(3次元モデル形成終了情報)が、図示されない入力器等から入力されたか否かを判定する(ステップS107)。
第1制御装置111は、入力器等から、3次元モデル形成終了情報が入力されていないと判定した場合(ステップS107でNo)には、ステップS101の処理に戻る。一方、第1制御装置111は、入力器等から、3次元モデル形成終了情報が入力されたと判定した場合(ステップS107でYes)には、ステップS108の処理に進む。
ステップS108では、第1制御装置111は、ステップS105で形成したワーク300の3次元モデルを第2制御装置112に出力し、本プログラムを終了する。これにより、第2制御装置112は、ワーク300の3次元モデルデータを基に、ロボット101の動作の制御を実行することができる。
一方、ステップS104において、第1制御装置111は、例えば、ワーク画像302Aを表示装置105に表示した後に、操作者がワーク300をさらに撮影し、3Dカメラ103から撮影したワーク300の画像情報が、入力された場合には、入力器等から、ワーク300の撮影終了情報が、入力されていないと判定してもよい。
第1制御装置111は、ワーク300の撮影終了情報が入力されていないと判定した場合(ステップS104でNo)には、ステップS101の処理に戻る。
例えば、図7に示すように、操作者が、ワーク300の右側の後方から当該ワーク300をさらに撮影したとすると、撮影したワーク300の画像情報が第1制御装置111に入力される(ステップS101)。
次に、第1制御装置111は、2回目のステップS101で取得した画像情報を撮影したときの3Dカメラ103の位置情報及び姿勢情報をセンサ104から取得する(ステップS102)。
次に、第1制御装置111は、2回目のステップS101で取得したワーク300の画像情報をワーク画像302Bとして、表示装置105に表示させる(ステップS103;図7参照)。これにより、ワーク300の後面下部には、矩形の貫通孔が形成されていることがわかる。
そして、再び、第1制御装置111は、ワーク300の画像情報の取得終了指示指令が、図示されない入力器等から入力されたか否かを判定する(ステップS104)。
次に、例えば、図8に示すように、操作者が、ワーク300の上方から当該ワーク300をさらに撮影したとすると、撮影したワーク300の画像情報が第1制御装置111に入力される(ステップS101)。
次に、第1制御装置111は、3回目のステップS101で取得した画像情報を撮影したときの3Dカメラ103の位置情報及び姿勢情報をセンサ104から取得する(ステップS102)。
次に、第1制御装置111は、3回目のステップS101で取得したワーク300の画像情報をワーク画像302Cとして、表示装置105に表示させる(ステップS103;図8参照)。これにより、ワーク300の下面には、矩形の貫通孔が形成されていることがわかる。また、操作者は、ワーク300のすべての部分についての撮影が終了したことがわかる。このため、操作者は、入力器等からワーク300の撮影終了情報を第1制御装置111に出力させる。
これにより、第1制御装置111は、入力器等から、ワーク300の撮影終了情報が入力されたと判定し(ステップS104でYes)、ステップS101で取得したワーク300の画像情報と、ステップS102で取得した3Dカメラ103の位置情報及び姿勢情報と、を基に、ワーク300の3次元モデルを形成する(ステップS105)。
このとき、第1制御装置111は、例えば、各回で取得したワーク300の画像情報と、各回で取得した3Dカメラ103の位置情報及び姿勢情報と、を基に、ワーク300の3次元モデルを形成してもよい。
また、第1制御装置111は、例えば、それぞれの回において、ワーク300の画像情報と3Dカメラ103の位置情報及び姿勢情報を基に、ワーク300の3次元モデルを形成し、形成したワーク300の3次元モデル群を基に、ワーク300の3次元モデルを再形成してもよい。
また、第1制御装置111は、例えば、A回目(例えば、1回目)に取得したワーク300の画像情報と、3Dカメラ103の位置情報及び姿勢情報と、を基にワーク300の3次元モデルを形成する処理(ステップS105)と、当該3次元モデルを形成する処理(ステップS105)で形成したワーク300の3次元モデルと、B回目(B≠A;例えば、2回目と3回目)に取得したワーク300の画像情報と、3Dカメラ103の位置情報及び姿勢情報と、を基に、ワーク300の3次元モデルを再形成する処理と、を実行してもよい。
同様に、第1制御装置111は、例えば、A回目(例えば、1回目と2回目)に取得したワーク300の画像情報と、3Dカメラ103の位置情報及び姿勢情報と、を基にワーク300の3次元モデルを形成する処理(ステップS105)と、当該3次元モデルを形成する処理(ステップS105)で形成したワーク300の3次元モデルと、B回目(B≠A;例えば、3回目)に取得したワーク300の画像情報と、を基に、ワーク300の3次元モデルを再形成する処理と、を実行してもよい。
また、第1制御装置111は、例えば、C回目(例えば、1回目)に取得したワーク300の画像情報と、3Dカメラ103の位置情報及び姿勢情報と、を基に、ワーク300の3次元モデルを形成する処理(ステップS105)と、D回目(D≠C;例えば、2回目と3回目)に取得したワーク300の画像情報と、3Dカメラ103の位置情報及び姿勢情報と、を基にワーク300の3次元モデルを形成する処理(ステップS105)と、C回目に取得したワーク300の画像情報、及び3Dカメラ103の位置情報及び姿勢情報に基づきステップS105で形成したワーク300の3次元モデルと、D回目に取得したワーク300の画像情報、及び3Dカメラ103の位置情報及び姿勢情報に基づきステップS105で形成したワーク300の3次元モデルと、を基に、ワーク300の3次元モデルを再形成する処理と、を実行してもよい。
同様に、第1制御装置111は、例えば、C回目(例えば、1回目と2回目)に取得したワーク300の画像情報と、3Dカメラ103の位置情報及び姿勢情報と、を基に、ワーク300の3次元モデルを形成する処理(ステップS105)と、D回目(D≠C;例えば、3回目)に取得したワーク300の画像情報と、3Dカメラ103の位置情報及び姿勢情報と、を基にワーク300の3次元モデルを形成する処理(ステップS105)と、C回目に取得したワーク300の画像情報、及び3Dカメラ103の位置情報及び姿勢情報に基づきステップS105で形成したワーク300の3次元モデルと、D回目に取得したワーク300の画像情報、及び3Dカメラ103の位置情報及び姿勢情報に基づきステップS105で形成したワーク300の3次元モデルと、を基に、ワーク300の3次元モデルを再形成する処理と、を実行してもよい。
さらに、第1制御装置111は、上記した、A回目に取得したワーク300の画像情報と、3Dカメラ103の位置情報及び姿勢情報と、を基にワーク300の3次元モデルを形成する処理(ステップS105)と、当該3次元モデルを形成する処理(ステップS105)で形成したワーク300の3次元モデルと、B回目に取得したワーク300の画像情報と、3Dカメラ103の位置情報及び姿勢情報と、を基に、ワーク300の3次元モデルを再形成する処理で再形成したワーク300の3次元モデルと、上記した、C回目に取得したワーク300の画像情報、及び3Dカメラ103の位置情報及び姿勢情報に基づきステップS105で形成したワーク300の3次元モデルと、D回目に取得したワーク300の画像情報、及び3Dカメラ103の位置情報及び姿勢情報に基づきステップS105で形成したワーク300の3次元モデルと、を基に、ワーク300の3次元モデルを再形成する処理で再形成したワーク300の3次元モデルと、を基に、ワーク300の3次元モデルを再形成する処理を実行してもよい。
次に、第1制御装置111は、ステップS105の処理で形成したワーク300の3次元モデルを3Dワーク301Cとして、表示装置105に表示させる(ステップS106;図9参照)。これにより、ワーク300の左右の側面下部、後面下部、及び下面に矩形の貫通孔が形成された3Dワーク301Cが、表示装置105に表示される。このため、操作者は、ワーク300の3次元モデルの形成が完了したことがわかり、入力器等から3次元モデル形成終了情報を第1制御装置111に出力させる。
これにより、第1制御装置111は、入力器等から、モデル形成終了情報が入力されたと判定し(ステップS107でYes)、ステップS105で形成したワーク300の3次元モデルを第2制御装置112に出力し、本プログラムを終了する。
なお、第1制御装置111の演算処理器111aは、ステップS105で形成した形成したワーク300の3次元モデルのデータ(3Dワーク301C)を第1データとして、記憶器111bに記憶してもよい。
本実施の形態1に係るロボットシステム100では、第1制御装置111が、3Dカメラ103で撮影されたワーク300の画像情報と、3Dカメラ103がワーク300を撮影したときの3Dカメラ103の位置情報及び姿勢情報と、を基に、ワークの3次元モデルを形成するので、プログラマにより、ワークの3次元モデルデータを作成する必要がないため、データ作成にかかる費用を低減することができる。このため、従来の表示システムに比して、生産効率を向上させることができる。
また、本実施の形態1に係るロボットシステム100では、第1制御装置111が、形成されたワーク300の3次元モデルを表示装置105に表示させるので、操作者は、ワーク300に撮影されていない部分が存在するか否かを判定できる。また、操作者は、表示装置105に表示されたワーク300の3次元モデルにより、どの方向からワーク300を撮影すればワーク300の撮影を効率よく実行できるかを理解できる。
したがって、従来の表示システムに比して、ワーク300の3次元モデルの形成の効率を向上させることができる。
さらに、本実施の形態1に係るロボットシステム100では、第1制御装置111が、撮影されたワーク300(ワーク画像302A等)を表示装置105に表示させるので、操作者は、ワーク300に撮影されていない部分が存在するか否かを判定できる。また、操作者は、表示装置105に表示されたワーク300(ワーク画像302A等)により、どの方向からワーク300を撮影すればワーク300の撮影を効率よく実行できるかを理解できる。
したがって、従来の表示システムに比して、ワーク300の3次元モデルの形成の効率を向上させることができる。
ワーク300の画像情報の取得、3Dカメラ103の位置情報および姿勢情報の取得をそれぞれ一度だけ実行し得られた情報のみを用いて、ワーク300の画像を表示する場合や、ワーク300の3次元モデルを形成する場合には、ワーク300を完全な形で表示することができず、また、3次元モデルを完全な形で形成できないことがある。より完全な形でワーク300の画像を表示したり、ワーク300の3次元モデルを形成するためには、ワーク300の画像情報の取得、3Dカメラ103の位置情報および姿勢情報の取得、ワーク300の画像情報の表示を繰り返し実行し、これらの処理を繰り返し実行することにより取得されるワーク300の画像情報、3Dカメラ103の位置情報および姿勢情報を利用して3次元モデルを再形成することが好ましい。そのための種々の態様を以下に説明する。
本実施形態では、第1制御装置111は、3Dカメラ103により撮影されたワーク300の画像情報を取得する処理(ステップS101)と、3Dカメラ103によりワーク300が撮影されたときにおける位置情報及び姿勢情報をセンサ104から取得する処理(ステップS102)と、取得された画像情報を表示装置105に表示させる処理(ステップS103)とを繰り返し実行した後、取得された画像情報、取得された位置情報及び記姿勢情報とに基づいてワーク300の3次元モデルを形成する処理(ステップS105)と、形成された3次元モデルを表示装置105に表示させる処理(ステップS106)と、形成された3次元モデルのデータである第1データを第2制御装置112に出力する処理(ステップS108)とを実行してもよい。
また、本実施形態では、第1制御装置111は、画像情報を取得する処理(ステップS101)と、位置情報及び姿勢情報をセンサ104から取得する処理(ステップS102)と、取得された画像情報を表示装置105に表示させる処理(ステップS103)と、3次元モデルを形成する処理(ステップS105)と、3次元モデルを表示装置105に表示させる処理(ステップS106)とを実行した後、画像情報を取得する処理(ステップS101)と、位置情報及び姿勢情報をセンサ104から取得する処理(ステップS102)と、取得された画像情報を表示装置105に表示させる処理(ステップS103)とを1回以上繰り返し実行した後、3次元モデルを形成する処理(ステップS105)において、A回目に取得された画像情報と、取得された位置情報及び姿勢情報と、を基に、3次元モデルを形成する処理と、当該3次元モデルを形成する処理で形成された3次元モデルと、B回目(B≠A)に取得された画像情報と、を基に、3次元モデルを再形成する処理とを実行し、その後、3次元モデルを表示装置105に表示させる処理(ステップS106)と、第1データを第2制御装置112に出力する処理(ステップS108)とを実行してもよい。
さらに、本実施形態では、第1制御装置111は、画像情報を取得する処理(ステップS101)と、位置情報及び姿勢情報をセンサ104から取得する処理(ステップS102)と、取得された画像情報を表示装置105に表示させる処理(ステップS103)と、3次元モデルを形成する処理(ステップS105)と、3次元モデルを表示装置105に表示させる処理(ステップS106)と、を実行した後、画像情報を取得する処理(ステップS101)と、位置情報及び姿勢情報をセンサ104から取得する処理(ステップS102)と、取得された画像情報を表示装置105に表示させる処理(ステップS103)と、を1回以上繰り返し実行した後、3次元モデルを形成する処理(ステップS105)において、C回目に取得された画像情報と、取得された位置情報及び姿勢情報と、を基に、3次元モデルを形成する処理と、D回目(D≠C)に取得された画像情報を基に、3次元モデルを形成する処理と、C回目に取得された画像情報と、取得された位置情報及び姿勢情報とに基づき形成された3次元モデルと、D回目(D≠C)に取得された画像情報に基づき形成された3次元モデルと、を基に、3次元モデルを再形成する処理と、を実行し、その後、3次元モデルを表示装置105に表示させる処理(ステップS106)と、第1データを第2制御装置112に出力する処理(ステップS108)とを実行してもよい。
なお、本実施形態では、作業エリア201は、防爆エリアであり、操作エリア202は、非防爆エリアであってもよい。これにより、第1操作器121や3Dカメラ103を操作エリア202で使用する場合、それら装置を防爆仕様にする必要がなくなる。
なお、本実施の形態1においては、第1制御装置111が、ステップS107の処理において、3次元モデル形成終了情報が入力されたか否かを判定する形態を採用したが、これに限定されない。第1制御装置111が、ステップS107の処理を実行しない形態を採用してもよい。
[変形例1]
図10は、本実施の形態1における変形例1のロボットシステムの概略構成を示す模式図である。本変形例1のロボットシステム100は、第1操作器121に検出器12および送信器13が設けられている点において、実施の形態1に係るロボットシステム100と異なる。検出器12は、第1操作器121及び3Dカメラ103の位置情報と姿勢情報とを無線通信により検出する。検出器12は、例えば、ジャイロセンサや、カメラである。送信器13は、検出器12により検出された位置情報と姿勢情報とを第1制御装置111に送信する本変形例1においては、検出器12と送信器13とがセンサ104に相当する。なお、検出器12は、位置情報と姿勢情報とを検出しなくてもよく、検出器12は、位置情報のみを検出してもよいし、姿勢情報のみを検出してもよい。
本変形例1のロボットシステム100においても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
[変形例2]
図11は、本実施の形態1における変形例2のロボットシステムの概略構成を示す模式図である。本変形例2のロボットシステム100は、3Dカメラ103がロボットアーム102の先端部に設けられている点と、第2操作器122を追加して備える点とにおいて、実施の形態1に係るロボットシステム100と異なる。
ロボットアーム102は、垂直多関節ロボットアームであってもよく、水平多関節型ロボットであってもよい。ロボットアーム102は、第2操作器122により操作される。第2操作器122は、例えば、ジョイスティック、キーボード、テンキー、ティーチペンダント等の公知の操作器を用いてもよい。第2操作器122には、3Dカメラ103による撮影の開始及び停止を指示するためのスイッチ122Bが設けられている。
なお、第1操作器121が第2操作器122を兼ねる形態を採用してもよい。この場合、ロボット101の操作と、ロボットアーム102の操作と、を切り替える切替器(切替スイッチ)が第1操作器121に設けられていてもよい。
本変形例2のロボットシステム100においても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
本変形例2では、3Dカメラ103は、ロボットアーム102の先端部に設けられていて、ロボットアーム102を操作する第2操作器122をさらに備えているので、ロボット101近傍にあるワーク300の画像情報を取得しやすくなる。
また、本変形例2では、第1制御装置111は、第2制御装置112を兼ねている。すなわち、第1制御装置111は、第2制御装置112の機能も実現する。これにより、2種類の制御装置の機能を単一の制御装置で実行できるので、配線等の構成が簡素化される。
(実施の形態2)
[ロボットシステムの構成]
図12は、本実施の形態2に係るロボットシステムの概略構成を示す模式図である。なお、図12においては、ロボットの方向を、便宜上、図に示す、三次元直交座標系のX軸、Y軸及びZ軸の方向で表わしている。本実施の形態2に係るロボットシステム100は、搬送装置106を追加して備える点と、において、実施の形態1(変形例を含む)に係るロボットシステムと異なる。搬送装置106は、ワークを操作エリアから作業エリアの予め設定されている第1位置に搬送する。搬送装置106は、ベルトコンベア等、公知の搬送装置である。
なお、本実施の形態2に係るロボットシステム100では、ワーク300の操作エリア202から作業エリア201への移動を許可/禁止するシャッター107等を備えていてもよい。
また、本実施の形態2においては、第1操作器121はジョイスティックであり、第1操作器121と3Dカメラ103とは、別体として構成されている。
さらに、第2制御装置112の記憶器112bには、予め設定されている所定の第1範囲を示す、スケールの3次元モデル情報が記憶されていてもよい。スケールの3次元モデル情報としては、例えば、ロボット101の先端からの距離を測るための物差しの情報であってもよく、粒体、液体又は気体が噴射される範囲を示す円錐(円錐台)形状の情報であってもよい。
[ロボットシステムの動作及び作用効果]
次に、本実施の形態2に係るロボットシステム100の動作及び作用効果について、図12から図14を参照しながら、詳細に説明する。なお、以下の動作は、第2制御装置112の演算処理器112aが、記憶器112bに格納されているプログラムを読み出すことにより実行される。
図13は、図12に示すロボットシステムにおいて、窓から作業エリアを見た状態を示す模式図である。図14は、本実施の形態2に係るロボットシステムの動作の一例を示すフローチャートである。図13に示すように、操作者が、窓204から作業エリア201を見たとき、ワーク300とロボット101とが重なる場合がある。また、ロボット101(エンドエフェクタ20)の先端部とワーク300の位置関係が把握しにくい場合がある。この場合、作業エリア201内にカメラを設置し、ロボット101(エンドエフェクタ20)の先端部とワーク300とを撮影して、撮影した映像を操作者に表示することが考えられる。
しかしながら、ロボット101が、ワーク300に塗装する場合、又は溶接作業を実行する場合には、作業エリア201に設置するカメラを防爆仕様にする必要がある。防爆仕様のカメラは高額であり、設備コストが増加する。また、塗装されるワークの大きさが変わると、カメラの撮影位置を変更する必要がある場合もあり、作業者の作業負担が増加する。
このため、本実施の形態2に係るロボットシステム100では、第2制御装置112は、第1制御装置111が作成したワーク300の3次元モデルを用いて、以下のような動作(処理)を実行する。
まず、第2制御装置112に、操作者から図示されない入力器等を介して、ワーク300に対して作業(例えば、塗装作業)を実行することを示す指示情報が入力されたとする。図14に示すように、第2制御装置112の演算処理器112aは、第1制御装置111の記憶器111bから、ワーク300の3次元モデルデータである第1データを取得する(ステップS201)。なお、演算処理器112aは、記憶器112bに第1データが記憶されている場合には、記憶器112bから第1データを取得してもよい。
次に、第2制御装置112の演算処理器112aは、ワーク300の作業エリア201内の搬送位置である第1位置の位置情報を記憶器112bから取得する(ステップS202)。
次に、第2制御装置112の演算処理器112aは、ロボット101の3次元モデルデータである第2データを記憶器112bから取得する(ステップS203)。なお、第2データは、予め、プログラマがロボット101の3次元モデルを形成したデータを記憶器112bに記憶させていてもよい。また、第2データは、実施の形態1に係るロボットシステム100の動作で説明したように、第1操作器121に設置されている3Dカメラ103を用いて、第1制御装置111が、ロボット101の3次元モデルを形成し、当該3次元モデルデータを記憶器112bに記憶させてもよい。
次に、第2制御装置112の演算処理器112aは、搬送装置106に操作エリア202に配置されているワーク300を作業エリア201の第1位置に搬送させる(ステップS204)。なお、第2制御装置112は、ステップS201からステップS203の処理を入力器等から指示情報が入力される前に予め実行していてもよく、ステップS204の処理の後に実行してもよい。
次に、第2制御装置112の演算処理器112aは、操作者が第1操作器121を操作することにより、第1操作器121から出力される、ロボット101の操作情報(動作情報)を取得する(ステップS205)。ついで、第2制御装置112の演算処理器112aは、第2制御装置112の演算処理器112aは、ステップS205で取得した操作情報を基に、ロボット101を動作させる(ステップS206)。
次に、第2制御装置112の演算処理器112aは、ステップS201からステップS203の処理で取得した、第1データ、第1位置、及び第2データと、ステップS205で取得した操作情報と、を基に、ロボット101(エンドエフェクタ20)の先端部と、ワーク300と、の位置関係を、3次元モデルで表示装置105に表示させる(ステップS207)。
具体的には、第2制御装置112の演算処理器112aは、操作者が操作エリア202からロボット101を見ている方向とは異なる方向から見た場合の3Dワーク301と、3Dロボット101Aを表示装置105に表示させる。
ここで、操作者が操作エリア202からロボット101を見ている方向とは、例えば、操作者が操作エリア202の窓204からロボット101を見ている方向(ここでは、X方向)であってもよい。また、例えば、操作エリア202に人感センサを配置しておき、当該人感センサが検知した操作者の位置座標とロボット101の位置座標とを結ぶ直線方向であってもよい。
さらに、操作者が操作エリア202からロボット101を見ている方向と異なる方向とは、本実施の形態2においては、X方向以外の方向であれば、どの方向であってもよく、例えば、X方向と直交する方向(ここでは、Y方向又はZ方向)であってもよい。
このため、第2制御装置112の演算処理器112aは、例えば、操作者が操作エリア202の窓204からロボット101を見ている方向(ここでは、X方向)とは異なる方向から見た場合の3Dワーク301と、3Dロボット101Aを表示装置105に表示させてもよい。
より詳細には、第2制御装置112の演算処理器112aは、図12に示すように、Y方向から見た場合のロボット101(エンドエフェクタ20)の先端部と、ワーク300と、の位置関係を表示装置105に表示させてもよい。
なお、第2制御装置112の演算処理器112aは、ステップS207の処理において、ロボット101のエンドエフェクタ20(3Dロボット101A)の先端にスケールの3次元モデルである3Dスケール20Aを表示装置105に表示させてもよい(図12参照)。
次に、第2制御装置112の演算処理器112aは、操作者から図示されない入力器等を介して、ワーク300に対して作業の終了を示す指示情報が入力されたか否かを判定する(ステップS208)。
第2制御装置112の演算処理器112aは、ワーク300に対して作業の終了を示す指示情報が入力されていないと判定した場合(ステップS208でNo)には、ワーク300に対して作業の終了を示す指示情報が入力されたと判定するまで、ステップS205からステップS208の処理を繰り返す。
一方、第2制御装置112の演算処理器112aは、ワーク300に対して作業の終了を示す指示情報が入力されたと判定した場合(ステップS208でYes)には、本プログラムを終了する。
このように構成された、本実施の形態2に係るロボットシステム100では、第2制御装置112が、第1制御装置111が作成したワーク300の3次元モデルを用いて、ロボット101(エンドエフェクタ20)の先端部と、ワーク300と、の位置関係を、3次元モデルで表示装置105に表示させる。
これにより、プログラマにより、ワークの3次元モデルデータを作成する必要がないため、データ作成にかかる費用を低減することができる。このため、従来の表示システムに比して、生産効率を向上させることができる。
さらに、本実施の形態2に係るロボットシステム100では、第2制御装置112が、ロボット101のエンドエフェクタ20(3Dロボット101A)の先端に3Dスケール20Aを表示装置105に表示させるので、操作者の負担を軽減して、作業効率を向上させることができる。
本実施形態では、ワーク300を操作エリア202から作業エリア201の予め設定されている第1位置に搬送する、搬送装置106をさらに備える。これにより、操作エリア202において3Dカメラ103で撮影されたワーク300を作業に適した正確な位置に移動させることができる。
また、本実施形態では、ロボット101を操作し、操作エリア202に配置されている第1操作器121をさらに備え、第2制御装置112は、ロボット101の3次元モデルのデータである第2データが記憶されている記憶器112bを有する、さらに、第2制御装置112は、操作者が第1操作器121を操作して、ロボット101を動作させて、ワーク300に対して作業を実行させているときに、第2制御装置112への第1データの出力で入力された第1データと、搬送されたワークの第1位置の位置情報と、第2データと、第1操作器121から入力されたロボット101の操作情報と、に基づいて、操作者が操作エリア202からロボット101を見た方向とは異なる方向から見た場合のワーク300とロボット101の先端部の位置関係を表示装置105に表示させる。上記によれば、ロボット101やワーク300を直接視認するだけではわからないような、ワーク300とロボット101先端部との位置関係を操作者が理解できるようになる。
さらに、本実施形態では、第1操作器121には、3Dカメラ103が取り付けられる。これによれば、操作者が把持すべき装置が単一ものですむので、第1操作器121の操作や3Dカメラ103の操作が容易になる。
そして、本実施形態では、センサ104は、第1操作器121からの位置情報及び姿勢情報を無線により検出し、第2制御装置112は、センサ104により検出された第1操作器121からの位置情報及び姿勢情報を基に、第1操作器121の軌跡を算出し、算出された軌跡に基づいて、リアルタイムでロボット101を動作させる処理(ステップS206)を実行してもよい。これにより、第1操作器121を移動させやすくなるので、ロボット101の動作を正確に行わせることができる。
なお、第2制御装置112は、操作者が、第1操作器121を操作することにより生じる、操作情報に基づいて、ロボット101に実行させた作業(第1操作器121の操作情報)を記憶器112bに記憶させてもよい。また、第2制御装置112は、記憶器112bに記憶された第1操作器121の操作情報に従って、ロボット101を自動で動作させてもよい。
[変形例1]
[ロボットシステムの構成]
図15は、本実施の形態2における変形例1のロボットシステムの概略構成を示す模式図である。本変形例1のロボットシステム100は、第2制御装置112が、センサ104から入力された第1操作器121の位置情報及び姿勢情報を基に、第1操作器121の先端部の動きに追従するように、ロボット101(エンドエフェクタ20)を動作させる点において、実施の形態2に係るロボットシステム100と異なる。
すなわち、本変形例1では、第2制御装置112は、センサ104が検出した第1操作器121の位置情報及び姿勢情報を基に、第1操作器121の軌跡を算出し、リアルタイムでロボット101を動作させる。第2制御装置112は、センサ104が検出した第1操作器121の3次元空間上の位置情報及び姿勢情報を基に、第1操作器121の軌跡を算出し、算出した軌跡に基づいて、リアルタイムでワーク300に液体又は気体を噴射する噴射作業、ワーク300を切削する切削作業、ワーク300を研磨する研磨作業、ワーク300を溶接する溶接作業、ワーク300を洗浄する洗浄作業の内、いずれかの作業をロボット101に実行させるように構成されていてもよい。噴射作業、切削作業、研磨作業、溶接作業、及び洗浄作業の「作業」とは、ロボット101が、ワーク300に対して実行する一連の動作を言い、複数の動作を含む概念である。作業は、例えば、ロボット101が、ワーク300に近接する動作、ワーク300に対して、液体の噴射等を開始する動作、液体の噴射等を停止する動作、及びワーク300から離間する動作を含む。
[ロボットシステムの動作及び作用効果]
本実施の形態2における変形例1のロボットシステム100の動作及び作用効果について、図15及び図16を参照しながら、詳細に説明する。なお、以下の動作は、第2制御装置112の演算処理器112aが、記憶器112bに格納されているプログラムを読み出すことにより実行される。
図16は、本実施の形態2における変形例1のロボットシステムの動作の一例を示すフローチャートである。図16に示すように、本変形例1のロボットシステム100の動作は、ステップS205の処理に代えて、ステップS205A及びステップS205Bの処理(動作)を実行する点において、実施の形態2に係るロボットシステム100の動作と異なる。
具体的には、第2制御装置112の演算処理器112aは、センサ104から当該センサ104が検出した第1操作器121の位置情報及び姿勢情報を取得する(ステップS205A)。ついで、第2制御装置112の演算処理器112aは、ステップS205で取得した第1操作器121の位置情報及び姿勢情報を基に、第1操作器121の軌跡を算出する(ステップS205B)。
次に、第2制御装置112の演算処理器112aは、ステップS205Bで算出した第1操作器121の軌跡を基に、リアルタイムでロボット101を動作させる(ステップS206)。
次に、第2制御装置112の演算処理器112aは、ステップS201からステップS203の処理で取得した、第1データ、第1位置、及び第2データと、ステップS205Bで算出した第1操作器121の軌跡と、を基に、ロボット101(エンドエフェクタ20)の先端部と、ワーク300と、の位置関係を、3次元モデルで表示装置105に表示させる(ステップS207)。具体的には、図15に示すように、第2制御装置112は、3Dワーク301と、3Dロボット101Aを表示装置105に表示させる。
次に、第2制御装置112の演算処理器112aは、操作者から図示されない入力器等を介して、ワーク300に対して作業の終了を示す指示情報が入力されたか否かを判定する(ステップS208)。
第2制御装置112の演算処理器112aは、ワーク300に対して作業の終了を示す指示情報が入力されていないと判定した場合(ステップS208でNo)には、ワーク300に対して作業の終了を示す指示情報が入力されたと判定するまで、ステップS205AからステップS208の処理を繰り返す。
一方、第2制御装置112の演算処理器112aは、ワーク300に対して作業の終了を示す指示情報が入力されたと判定した場合(ステップS208でYes)には、本プログラムを終了する。
本変形例1のロボットシステム100では、第2制御装置112が、センサ104が検出した第1操作器121の位置情報及び姿勢情報を基に、第1操作器121の軌跡を算出し、リアルタイムでロボット101を動作させる。
これにより、操作者は、リアルタイムでロボット101を操作させることができるので、直感的にロボット101を操作することができる。また、ロボット101によるワーク300への作業動作が正確に実行されているか否かを瞬時に判断することができる。
また、本変形例1のロボットシステム100では、第2制御装置112が、第1制御装置111が作成したワーク300の3次元モデルを用いて、ロボット101(エンドエフェクタ20)の先端部と、ワーク300と、の位置関係を、3次元モデルで表示装置105に表示させる。
これにより、プログラマにより、ワークの3次元モデルデータを作成する必要がないため、データ作成にかかる費用を低減することができる。このため、従来の表示システムに比して、生産効率を向上させることができる。
本変形例1では、第2制御装置112は、ロボット101の3次元モデルのデータである第2データが記憶されている記憶器112bを有し、第2制御装置112は、第1データを第2制御装置112に出力する処理(ステップS108)で入力された第1データと、搬送されたワーク300の第1位置の位置情報と、第2データと、リアルタイムでロボット101を動作させる処理(ステップS206)で算出された軌跡と、に基づいて、操作者が操作エリア202からロボット101を見た方向とは異なる方向から見た場合のワーク300とロボット101の先端部の位置関係を表示装置105に表示させてもよい。これにより、ロボット101やワーク300を直接視認するだけではわからないような、ワーク300とロボット101先端部との位置関係を操作者が理解できるようになる。
なお、第2制御装置112は、操作者が、第1操作器121を移動させる(操作する)ことにより生じる、第1操作器121の軌跡を算出し、算出した算出した軌跡に基づいて、ロボット101に実行させた作業(第1操作器121の軌跡情報)を記憶器112bに記憶させてもよい。また、第2制御装置112は、記憶器112bに記憶された第1操作器121の軌跡情報に従って、ロボット101を動作させてもよい。
[変形例2]
図17及び図18は、本実施の形態2における変形例2のロボットシステムの概略構成を示す模式図である。なお、図17及び図18においては、ロボットの方向を、便宜上、図に示す、三次元直交座標系のX軸、Y軸及びZ軸の方向で表わしている。図17及び図18に示すように、本変形例2のロボットシステム100は、第2制御装置112が、ワーク300の3次元モデル情報に基づいて、当該ワーク300の予め設定されている所定の第1部分に対する法線方向を示すライン30を表示装置105に表示させる点において、実施の形態2に係るロボットシステム100と異なる。第1部分は、ロボット101のエンドエフェクタ20の先端と対向する部分であってもよい。
本変形例2のロボットシステム100では、報知器150をさらに備えていてもよい。報知器150としては、表示装置105に、文字データ又は画像データ等を表示させる態様であってもよく、スピーカー等により音声で知らせる態様であってもよく、光又は色で知らせるような態様であってもよい。また、通信ネットワークを介してスマートフォン、携帯電話、又はタブレット型コンピュータ等にメール又はアプリで知らせる態様であってもよい。
さらに、本変形例2のロボットシステム100では、第2制御装置112が、ライン30とロボット101のエンドエフェクタ20(3Dロボット101Aにおけるエンドエフェクタ20)の軸心方向とが一致すると、ライン30の色及び/又は線の太さを変更して、表示装置105に表示させるように構成されていてもよい(図18参照)。
また、第2制御装置112は、ライン30とロボット101のエンドエフェクタ20(3Dロボット101Aにおけるエンドエフェクタ20)の軸心方向とが一致すると、報知器150を作動させて、一致したことを報知させてもよい。
本変形例2のロボットシステム100においても、実施の形態2に係るロボットシステム100と同様の作用効果を奏する。
(実施の形態3)
[ロボットシステムの構成]
図19は、本実施の形態3に係るロボットシステムの概略構成を示す模式図である。なお、図19においては、ロボットの方向を、便宜上、図に示す、三次元直交座標系のX軸、Y軸及びZ軸の方向で表わしている。
図19に示すように、本実施の形態3に係るロボットシステム100は、操作エリア202に報知器150が配置されている点において、実施の形態2に係るロボットシステム100と異なる。報知器150としては、表示装置105に、文字データ又は画像データ等を表示させる態様であってもよく、スピーカー等により音声で知らせる態様であってもよく、光又は色で知らせるような態様であってもよい。また、通信ネットワークを介してスマートフォン、携帯電話、又はタブレット型コンピュータ等にメール又はアプリで知らせる態様であってもよい。
[ロボットシステムの動作及び作用効果]
次に、本実施の形態3に係るロボットシステム100の動作及び作用効果について、図19、図20A、及び図20Bを参照しながら、詳細に説明する。なお、以下の動作は、第2制御装置112の演算処理器112aが、記憶器112bに格納されているプログラムを読み出すことにより実行される。
図20A及び図20Bは、本実施の形態3に係るロボットシステムの動作の一例を示すフローチャートである。図20A及び図20Bに示すように、本実施の形態3に係るロボットシステム100の動作は、ステップS207とステップS208との間に、ステップS207AからステップS207Cの処理を実行する点において、実施の形態2に係るロボットシステム100の動作と異なる。
具体的には、第2制御装置112の演算処理器112aは、ステップS201からステップS203の処理で取得した第1データ、第1位置、及び第2データと、ステップS205で取得した操作指令情報と、を基に、ロボット101(エンドエフェクタ20)の先端部と、ワーク300と、の位置関係を、3次元モデルで表示装置105に表示させる(ステップS207)。
次に、第2制御装置112の演算処理器112aは、第1データ及び第2データと、ステップS205で取得した操作指令情報と、を基に、ロボット101(3Dロボット101A)とワーク300(3Dワーク301)の距離Aを算出する(ステップS207A)。
このとき、第2制御装置112の演算処理器112aは、ロボット101(3Dロボット101A)におけるワーク300(3Dワーク301)に最も近い部分と、ワーク300(3Dワーク301)と、の距離を算出してもよい。
すなわち、ロボット101のエンドエフェクタ20の先端が、ワーク300と最も近い位置に位置している場合には、第2制御装置112の演算処理器112aは、エンドエフェクタ20の先端とワーク300との距離を算出すればよい。また、ロボット101のある部分が、ワーク300と最も近い位置に位置している場合には、第2制御装置112の演算処理器1112は、ロボット101の当該部分と、ワーク300との距離を算出すればよい。
次に、第2制御装置112の演算処理器112aは、ステップS207Aで算出した距離Aが、予め設定されている所定の第1距離以下であるか否かを判定する(ステップS207B)。ここで、第1距離は、ロボット101の動作速度、及びワーク300に対する作業内容等から設定することができる。
ロボット101の動作速度が小さい場合には、第1距離を小さく設定してもよい。また、ワーク300に対する作業が、溶接、切削、洗浄、及び研磨作業である場合にも、第1距離を小さく設定してもよい。
一方、ロボット101の動作速度が大きい場合には、第1距離を大きく設定してもよい。また、ワーク300に対する作業が、液体等の噴射/噴霧作業である場合にも、第1距離を大きく設定してもよい。
第1距離としては、例えば、ワーク300との衝突を抑制する観点から0.5cm以上であってもよく、ワーク300に作業を実行する観点から30cmであってもよい。
第2制御装置112の演算処理器112aは、距離Aが、第1距離以下であると判定した場合(ステップS207BでYes)には、報知器150を動作させて、ワーク300と衝突するおそれがあるという警告を報知させる(ステップS207C)。このとき、第2制御装置112の演算処理器112aは、ロボット101の動作速度を小さくしてもよく、ロボット101を停止させてもよい。
これにより、操作者は、ロボット101が、ワーク300と衝突するおそれがあることを認識することができ、操作器102により、ワーク300と衝突しないように、ロボット101を操作させることができる。
このため、第2制御装置112の演算処理器112aは、操作器102から入力された操作指令情報を取得する。すなわち、第2制御装置112の演算処理器112aは、ステップS205の処理に戻る。
一方、第2制御装置112の演算処理器112aは、距離Aが、第1距離以下ではないと判定した場合(ステップS207BでNo)には、操作者から図示されない入力器等を介して、ワーク300に対して作業の終了を示す指示情報が入力されたか否かを判定する(ステップS208)。
第2制御装置112の演算処理器112aは、ワーク300に対して作業の終了を示す指示情報が入力されていないと判定した場合(ステップS208でNo)には、ワーク300に対して作業の終了を示す指示情報が入力されたと判定するまで、ステップS205からステップS208の処理を繰り返す。
一方、第2制御装置112の演算処理器112aは、ワーク300に対して作業の終了を示す指示情報が入力されたと判定した場合(ステップS208でYes)には、本プログラムを終了する。
本実施の形態3に係るロボットシステム100においても、実施の形態2に係るロボットシステム100と同様の作用効果を奏する。
本実施形態では、ワーク300を操作エリア202から作業エリア201の予め設定されている第1位置に搬送する、搬送装置106をさらに備える。これにより、操作エリア202において3Dカメラ103で撮影されたワーク300を作業に適した正確な位置に移動させることができる。
また、本実施形態では、ロボット101を操作し、操作エリア202に配置されている第1操作器121をさらに備え、第2制御装置112は、ロボット101の3次元モデルのデータである第2データが記憶されている記憶器112bを有する、さらに、第2制御装置112は、操作者が第1操作器121を操作して、ロボット101を動作させて、ワーク300に対して作業を実行させているときに、第2制御装置112への第1データの出力で入力された第1データと、搬送されたワークの第1位置の位置情報と、第2データと、第1操作器121から入力されたロボット101の操作情報と、に基づいて、操作者が操作エリア202からロボット101を見た方向とは異なる方向から見た場合のワーク300とロボット101の先端部の位置関係を表示装置105に表示させる。上記によれば、ロボット101やワーク300を直接視認するだけではわからないような、ワーク300とロボット101先端部との位置関係を操作者が理解できるようになる。
さらに、本実施形態では、第1操作器121には、3Dカメラ103が取り付けられる。これによれば、操作者が把持すべき装置が単一ものですむので、第1操作器121の操作や3Dカメラ103の操作が容易になる。
そして、本実施形態では、センサ104は、第1操作器121からの位置情報及び姿勢情報を無線により検出し、第2制御装置112は、センサ104により検出された第1操作器121からの位置情報及び姿勢情報を基に、第1操作器121の軌跡を算出し、算出された軌跡に基づいて、リアルタイムでロボット101を動作させる処理(ステップS206)を実行してもよい。これにより、第1操作器121を移動させやすくなるので、ロボット101の動作を正確に行わせることができる。
上記説明から、当業者にとっては、本発明の多くの改良又は他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明を逸脱することなく、その構造及び/又は機能の詳細を実質的に変更できる。
11a 第1リンク
11b 第2リンク
11c 第3リンク
11d 第4リンク
11e 第5リンク
11f 第6リンク
12 検出器
13 送信器
15 基台
20 エンドエフェクタ
21 配管
100 ロボットシステム
101 ロボット
101A 3Dロボット
102 ロボットアーム
103 3Dカメラ
104 センサ
105 表示装置
106 搬送装置
107 シャッター
111 第1制御装置
111a 演算処理器
111b 記憶器
112 第2制御装置
112a 演算処理器
112b 記憶器
121 第1操作器
121A 把持部
121B スイッチ
121E 本体部
122 第2操作器
122B スイッチ
150 報知器
201 作業エリア
202 操作エリア
203 壁部材
204 窓
300 ワーク
301 3Dワーク
301A 3Dワーク
301B 3Dワーク
301C 3Dワーク
302A ワーク画像
302B ワーク画像
302C ワーク画像
JT1 第1関節
JT2 第2関節
JT3 第3関節
JT4 第4関節
JT5 第5関節
JT6 第6関節

Claims (13)

  1. 作業エリア内に設置され、第2制御装置により制御されるロボットと、
    操作者により操作される3Dカメラと、
    前記作業エリアとは異なる空間である操作エリアに配置され、前記3Dカメラの位置情報及び姿勢情報を無線により検出するセンサと、
    表示装置と、
    第1制御装置と、を備え、
    前記第1制御装置は、
    前記3Dカメラにより撮影されたワークの画像情報を取得し、
    前記3Dカメラにより前記ワークが撮影されたときにおける前記位置情報及び前記姿勢情報を前記センサから取得し、
    取得された前記画像情報を前記表示装置に表示させ、
    前記画像情報と、取得された前記位置情報及び前記姿勢情報と、を基に、前記ワークの3次元モデルを形成し、
    形成された前記3次元モデルを前記表示装置に表示させ、
    形成された前記3次元モデルのデータである第1データを前記第2制御装置に出力する、ロボットシステム。
  2. 前記第1制御装置は、
    前記画像情報の取得と、前記センサからの前記位置情報および前記姿勢情報の取得と、前記表示装置への前記画像情報の表示とを繰り返し実行した後、前記3次元モデルの形成と、前記表示装置への形成された前記3次元モデルの表示と、前記第2制御装置への前記第1データの出力とを実行する、請求項1に記載のロボットシステム。
  3. 前記第1制御装置は、
    前記画像情報の取得と、前記センサからの前記位置情報および前記姿勢情報の取得と、前記表示装置への前記画像情報の表示と、前記3次元モデルの形成と、前記表示装置への形成された前記3次元モデルの表示とを実行した後、前記画像情報の取得と、前記センサからの前記位置情報および前記姿勢情報の取得と、前記表示装置への前記画像情報の表示とを1回以上繰り返し実行した後、
    前記3次元モデルの形成において、A回目に取得された前記画像情報と、取得された前記位置情報及び前記姿勢情報と、を基に、前記3次元モデルを形成し、
    形成された前記3次元モデルと、B回目(B≠A)に取得された前記画像情報と、を基に、前記3次元モデルを再形成し、
    その後、前記表示装置への形成された前記3次元モデルの表示と、前記第2制御装置への前記第1データの出力とを実行する、請求項1又は請求項2に記載のロボットシステム。
  4. 前記第1制御装置は、
    前記画像情報の取得と、前記センサからの前記位置情報および前記姿勢情報の取得と、前記表示装置への前記画像情報の表示と、前記3次元モデルの形成と、前記表示装置への形成された前記3次元モデルの表示と、を実行した後、前記画像情報の取得と、前記センサからの前記位置情報および前記姿勢情報の取得と、前記表示装置への前記画像情報の表示と、を1回以上繰り返し実行した後、
    前記3次元モデルの形成において、C回目に取得された前記画像情報と、取得された前記位置情報及び前記姿勢情報と、を基に、前記3次元モデルを形成し、
    D回目(D≠C)に取得された前記画像情報を基に、前記3次元モデルを形成し、
    前記C回目に取得された前記画像情報と、取得された前記位置情報及び前記姿勢情報とに基づき形成された前記3次元モデルと、前記D回目(D≠C)に取得された前記画像情報に基づき形成された前記3次元モデルと、を基に、前記3次元モデルを再形成し、
    その後、前記表示装置への形成された前記3次元モデルの表示と、前記第2制御装置への前記第1データの出力とを実行する、請求項1から請求項3までのいずれか1項に記載のロボットシステム。
  5. 前記ワークを前記操作エリアから前記作業エリアの予め設定されている第1位置に搬送する、搬送装置をさらに備える、請求項1から請求項4までのいずれか1項に記載のロボットシステム。
  6. 前記ロボットを操作し、前記操作エリアに配置されている第1操作器をさらに備え、
    前記第2制御装置は、前記ロボットの3次元モデルのデータである第2データが記憶されている記憶器を有し、
    前記第2制御装置は、
    前記操作者が前記第1操作器を操作して、前記ロボットを動作させて、前記ワークに対して作業を実行させているときに、前記第2制御装置への前記第1データの出力で入力された前記第1データと、前記搬送された前記ワークの第1位置の位置情報と、前記第2データと、前記第1操作器から入力された前記ロボットの操作情報と、に基づいて、前記操作者が前記操作エリアから前記ロボットを見た方向とは異なる方向から見た場合の前記ワークと前記ロボットの先端部の位置関係を前記表示装置に表示させる、請求項1から請求項5までのいずれか1項に記載のロボットシステム。
  7. 前記第1操作器には、前記3Dカメラが取り付けられている、請求項6に記載のロボットシステム。
  8. 前記センサは、前記第1操作器からの前記位置情報及び前記姿勢情報を無線により検出し、
    前記第2制御装置は、
    前記センサにより検出された前記第1操作器からの前記位置情報及び前記姿勢情報を基に、前記第1操作器の軌跡を算出し、算出された前記軌跡に基づいて、リアルタイムで前記ロボットを動作させる、請求項7に記載のロボットシステム。
  9. 前記第2制御装置は、前記ロボットの3次元モデルのデータである第2データが記憶されている記憶器を有し、
    前記第2制御装置は、
    前記第2制御装置への前記第1データの出力で入力された前記第1データと、前記搬送された前記ワークの第1位置の位置情報と、前記第2データと、前記リアルタイムでの前記ロボットの動作で算出された前記軌跡と、に基づいて、前記操作者が前記操作エリアから前記ロボットを見た方向とは異なる方向から見た場合の前記ワークと前記ロボットの先端部の位置関係を前記表示装置に表示させる、請求項8に記載のロボットシステム。
  10. 前記作業エリアは、防爆エリアであり、前記操作エリアは、非防爆エリアである、請求項1から請求項9までのいずれか1項に記載のロボットシステム。
  11. 前記3Dカメラは、ロボットアームの先端部に設けられていて、
    前記ロボットアームを操作する第2操作器をさらに備える、請求項1から請求項10までのいずれか1項に記載のロボットシステム。
  12. 前記第1制御装置は、前記第2制御装置を兼ねる、請求項1から請求項11までのいずれか1項に記載のロボットシステム。
  13. ロボットが設置されている作業エリアとは異なる空間である操作エリアに配置されているワークが、操作者により操作される3Dカメラにより撮影されたときにおける、前記3Dカメラの位置情報及び姿勢情報を検出し、
    撮影された前記ワークの画像情報を取得し、
    検出された前記位置情報及び前記姿勢情報を取得し、
    取得された前記画像情報を前記表示装置に表示させ、
    取得された前記画像情報と、取得された前記位置情報及び前記姿勢情報と、を基に、前記ワークの3次元モデルを形成する、ワークの3次元モデル形成方法。
JP2021506354A 2019-12-13 2020-12-11 ロボットシステム及びワークの3次元モデルの形成方法 Active JP6905651B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019225562 2019-12-13
JP2019225562 2019-12-13
PCT/JP2020/046282 WO2021117868A1 (ja) 2019-12-13 2020-12-11 ロボットシステム及びワークの3次元モデルの形成方法

Publications (2)

Publication Number Publication Date
JP6905651B1 true JP6905651B1 (ja) 2021-07-21
JPWO2021117868A1 JPWO2021117868A1 (ja) 2021-12-09

Family

ID=76330001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021506354A Active JP6905651B1 (ja) 2019-12-13 2020-12-11 ロボットシステム及びワークの3次元モデルの形成方法

Country Status (5)

Country Link
US (1) US20230028457A1 (ja)
EP (1) EP4074474A1 (ja)
JP (1) JP6905651B1 (ja)
CN (1) CN114502337B (ja)
WO (1) WO2021117868A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023047879A1 (ja) * 2021-09-24 2023-03-30 村田機械株式会社 ワーク位置判定装置、レーザ加工装置、及びワーク位置判定方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023079652A1 (ja) * 2021-11-04 2023-05-11 ファナック株式会社 制御装置、制御方法、及びクラウドシステム

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099760A (ja) * 1998-09-21 2000-04-07 Agency Of Ind Science & Technol 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2002222412A (ja) * 2000-09-27 2002-08-09 Canon Inc 画像処理装置
JP2004046542A (ja) * 2002-07-11 2004-02-12 Mitsubishi Heavy Ind Ltd モデル加工方法およびモデル加工システム
JP2011516849A (ja) * 2008-04-02 2011-05-26 エイコナ・テクノロジーズ・リミテッド 3d撮像システム
JP2012111029A (ja) * 2010-11-19 2012-06-14 Fanuc Robotics America Corp 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置
JP2012135858A (ja) * 2010-12-28 2012-07-19 Toyota Motor Corp 操作環境モデル構築システム、および操作環境モデル構築方法
JP2013206267A (ja) * 2012-03-29 2013-10-07 Jsol Corp 情報処理システム、サーバ装置、端末装置、情報処理装置、情報処理方法、およびプログラム
JP2014229057A (ja) * 2013-05-22 2014-12-08 川崎重工業株式会社 部品組立作業支援システムおよび部品組立方法
JP2016534461A (ja) * 2013-08-30 2016-11-04 クアルコム,インコーポレイテッド 物理的光景を表すための方法および装置
JP2017120515A (ja) * 2015-12-28 2017-07-06 株式会社ニイガタマシンテクノ 制御用データ生成方法および制御用データ生成装置
JP2018158391A (ja) * 2017-03-22 2018-10-11 株式会社東芝 物体ハンドリング装置およびその較正方法
JP2018192602A (ja) * 2017-05-19 2018-12-06 川崎重工業株式会社 作業方法およびロボットシステム
US20190054617A1 (en) * 2017-08-15 2019-02-21 Utechzone Co., Ltd. Robotic arm processing method and system based on 3d image

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5670397B2 (ja) * 2012-08-29 2015-02-18 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
JP6723738B2 (ja) * 2015-04-03 2020-07-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6582921B2 (ja) * 2015-11-26 2019-10-02 株式会社デンソーウェーブ ロボットモニタシステム
CN107908152A (zh) * 2017-12-26 2018-04-13 苏州瀚华智造智能技术有限公司 一种活动式机器人自动喷涂装置、控制系统及方法
JP6845180B2 (ja) * 2018-04-16 2021-03-17 ファナック株式会社 制御装置及び制御システム

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000099760A (ja) * 1998-09-21 2000-04-07 Agency Of Ind Science & Technol 3次元物体モデル生成方法及び3次元物体モデル生成プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2002222412A (ja) * 2000-09-27 2002-08-09 Canon Inc 画像処理装置
JP2004046542A (ja) * 2002-07-11 2004-02-12 Mitsubishi Heavy Ind Ltd モデル加工方法およびモデル加工システム
JP2011516849A (ja) * 2008-04-02 2011-05-26 エイコナ・テクノロジーズ・リミテッド 3d撮像システム
JP2012111029A (ja) * 2010-11-19 2012-06-14 Fanuc Robotics America Corp 3次元ロボットワークセルデータの表示システム、表示方法及び表示装置
JP2012135858A (ja) * 2010-12-28 2012-07-19 Toyota Motor Corp 操作環境モデル構築システム、および操作環境モデル構築方法
JP2013206267A (ja) * 2012-03-29 2013-10-07 Jsol Corp 情報処理システム、サーバ装置、端末装置、情報処理装置、情報処理方法、およびプログラム
JP2014229057A (ja) * 2013-05-22 2014-12-08 川崎重工業株式会社 部品組立作業支援システムおよび部品組立方法
JP2016534461A (ja) * 2013-08-30 2016-11-04 クアルコム,インコーポレイテッド 物理的光景を表すための方法および装置
JP2017120515A (ja) * 2015-12-28 2017-07-06 株式会社ニイガタマシンテクノ 制御用データ生成方法および制御用データ生成装置
JP2018158391A (ja) * 2017-03-22 2018-10-11 株式会社東芝 物体ハンドリング装置およびその較正方法
JP2018192602A (ja) * 2017-05-19 2018-12-06 川崎重工業株式会社 作業方法およびロボットシステム
US20190054617A1 (en) * 2017-08-15 2019-02-21 Utechzone Co., Ltd. Robotic arm processing method and system based on 3d image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
矢部 幸次: "高速、複数品種対応ばら積みピッキングシステム", 画像ラボ 第28巻 第11号 IMAGE LABORATORY, vol. 第28巻 第11号, JPN6021019402, 10 November 2017 (2017-11-10), JP, pages 45 - 48, ISSN: 0004512326 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023047879A1 (ja) * 2021-09-24 2023-03-30 村田機械株式会社 ワーク位置判定装置、レーザ加工装置、及びワーク位置判定方法

Also Published As

Publication number Publication date
JPWO2021117868A1 (ja) 2021-12-09
CN114502337B (zh) 2024-01-09
WO2021117868A1 (ja) 2021-06-17
US20230028457A1 (en) 2023-01-26
CN114502337A (zh) 2022-05-13
EP4074474A1 (en) 2022-10-19

Similar Documents

Publication Publication Date Title
CN110394780B (zh) 机器人的仿真装置
TWI609748B (zh) 遠端操作機器人系統
CN111093903B (zh) 机器人系统及其运行方法
US10635082B2 (en) Robot motion program generating method and robot motion program generating apparatus
US10730180B2 (en) User interface for a teleoperated robot
CN110977931A (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
JP6905651B1 (ja) ロボットシステム及びワークの3次元モデルの形成方法
JP6821374B2 (ja) ロボットシステム及びその運転方法
CN111093911B (zh) 机器人系统及其运行方法
JP5228783B2 (ja) ロボットの原点復帰装置
JP6850102B2 (ja) ロボットシステム及びその運転方法
EP3465362B1 (en) User interface for a teleoperated robot
JP6990340B2 (ja) ロボットシステム
JP7462046B2 (ja) ロボットシステム
WO2020195928A1 (ja) ロボットシステム
TW202037465A (zh) 機器人系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210305

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210204

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210625

R150 Certificate of patent or registration of utility model

Ref document number: 6905651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150