JP2019025620A - ロボットシステム及びその運転方法 - Google Patents

ロボットシステム及びその運転方法 Download PDF

Info

Publication number
JP2019025620A
JP2019025620A JP2017149757A JP2017149757A JP2019025620A JP 2019025620 A JP2019025620 A JP 2019025620A JP 2017149757 A JP2017149757 A JP 2017149757A JP 2017149757 A JP2017149757 A JP 2017149757A JP 2019025620 A JP2019025620 A JP 2019025620A
Authority
JP
Japan
Prior art keywords
robot
operator
virtual
display device
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017149757A
Other languages
English (en)
Other versions
JP7071070B2 (ja
Inventor
雅之 渡邊
Masayuki Watanabe
雅之 渡邊
高行 吉村
Takayuki Yoshimura
高行 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Heavy Industries Ltd
Original Assignee
Kawasaki Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Heavy Industries Ltd filed Critical Kawasaki Heavy Industries Ltd
Priority to JP2017149757A priority Critical patent/JP7071070B2/ja
Priority to CN201880050331.2A priority patent/CN111093911B/zh
Priority to PCT/JP2018/028251 priority patent/WO2019026790A1/ja
Priority to US16/636,139 priority patent/US11865697B2/en
Publication of JP2019025620A publication Critical patent/JP2019025620A/ja
Application granted granted Critical
Publication of JP7071070B2 publication Critical patent/JP7071070B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • B25J13/065Control stands, e.g. consoles, switchboards comprising joy-sticks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • B25J3/04Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements involving servo mechanisms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32014Augmented reality assists operator in maintenance, repair, programming, assembly, use of head mounted display with 2-D 3-D display and voice feedback, voice and gesture command

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

【課題】操作者の負担を軽減して、作業効率を向上させることができる、ロボットシステムを提供することを目的とする。【解決手段】操作者からの操作指示を受け付ける操作器と、作業空間内に設置され、複数の工程からなる一連の作業を行う実ロボット1と、操作者が実世界を視認可能に構成され、仮想ロボット3を表示するように構成されている透過型表示装置と、制御装置と、を備え、制御装置は、操作器から入力された指示情報を基に、透過型表示装置に表示されている仮想ロボット3を動作させ、その後、操作器から実ロボット1の動作を実行させる動作実行情報が入力されると、透過型表示装置に仮想ロボット3を表示させた状態で、実ロボット1を動作させるように構成されている、ロボットシステム。【選択図】図7

Description

本発明は、ロボットシステム及びその運転方法に関する。
拡張現実対応ディスプレイを用いて、実映像又は実環境にロボットの状態や操作ガイドに関する情報をロボットの使用者に提供しているロボットシステムが知られている(例えば、特許文献1参照)。特許文献1に開示されているロボットシステムでは、ディスプレイにロボットの状態又は操作ガイドを視覚的に示す不可情報を重畳して表示している。
特開2016−107379号公報
ところで、保持したワークを嵌合部に嵌合させる動作を操作者が教示・操作するような場合には、ワークを他の部分と接触させないようにする等、ロボットの位置決めを慎重に行う必要がある。
上記特許文献1に開示されているロボットシステムでは、ロボットの先端部を原点とした直交座標系が表示されているが、当該情報だけでは、位置決めを行うには不充分であり、操作者への負担が大きく、作業効率の向上の観点から未だ改善の余地があった。
本発明は、上記従来の課題を解決するもので、操作者の負担を軽減して、作業効率を向上させることができる、ロボットシステム及びその運転方法を提供することを目的とする。
上記従来の課題を解決するために、本発明に係るロボットシステムは、操作者からの操作指示を受け付ける操作器と、作業空間内に設置され、複数の工程からなる一連の作業を行う実ロボットと、前記操作者が実世界を視認可能に構成され、仮想ロボットを表示するように構成されている透過型表示装置と、制御装置と、を備え、前記制御装置は、前記操作器から入力された指示情報を基に、前記透過型表示装置に表示されている前記仮想ロボットを動作させ、その後、前記操作器から前記実ロボットの動作を開始させる開始情報が入力されると、前記透過型表示装置に前記仮想ロボットを表示させた状態を維持しながら、前記実ロボットを動作させるように構成されている。
これにより、仮想ロボットが実ロボットの動作前に、指示情報を基に動作するので、動作後の位置を視覚的に把握することができる。このため、例えば、実ロボット本体及び/又は実ロボットが把持しているワークが、作業空間内に配置されている機器等と接触等するか否かを容易に判断することができ、実ロボットの先端部の位置決めを容易に行うことができる。したがって、操作者の負担を軽減して、作業効率を向上させることができる。
また、本発明に係るロボットシステムの運転方法は、前記ロボットシステムが、操作者からの操作指示を受け付ける操作器と、作業空間内に設置され、複数の工程からなる一連の作業を行う実ロボットと、前記操作者が実世界を視認可能に構成され、仮想ロボットを表示するように構成されている透過型表示装置と、を備え、前記透過型表示装置が、前記操作器から入力された指示情報を基に、前記仮想ロボットを動作させる(A)と、前記(A)の後に、前記操作器から前記実ロボットの動作を開始させる開始情報が入力されると、前記透過型表示装置は前記仮想ロボットを表示させた状態を維持し、前記実ロボットが、前記操作器から入力された指示情報を基に動作する(B)と、を備える。
これにより、仮想ロボットが実ロボットの動作前に、指示情報を基に動作するので、動作後の位置を視覚的に把握することができる。このため、例えば、実ロボット本体及び/又は実ロボットが把持しているワークが、作業空間内に配置されている機器等と接触等するか否かを容易に判断することができ、実ロボットの先端部の位置決めを容易に行うことができる。したがって、操作者の負担を軽減して、作業効率を向上させることができる。
本発明のロボットシステム及びその運転方法によれば、操作者の負担を軽減して、作業効率を向上させることができる。
図1は、本実施の形態1に係るロボットシステムの概略構成を示すブロック図である。 図2は、図1に示すロボットシステムの透過型表示装置の一例を示す模式図である。 図3は、図1に示すロボットシステムにおける、実ロボットの概略構成を示す模式図である。 図4は、本実施の形態1に係るロボットシステムの動作の一例を示すフローチャートである。 図5は、本実施の形態1に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。 図6は、本実施の形態1に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。 図7は、本実施の形態1に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。 図8は、本実施の形態1に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。 図9は、本実施の形態2に係るロボットシステムの概略構成を示すブロック図である。 図10は、本実施の形態2に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。
以下、本発明の実施の形態を、図面を参照しながら説明する。なお、全ての図面において、同一又は相当部分には同一符号を付し、重複する説明は省略する。また、全ての図面において、本発明を説明するための構成要素を抜粋して図示しており、その他の構成要素については図示を省略している場合がある。さらに、本発明は以下の実施の形態に限定されない。
(実施の形態1)
本実施の形態1に係るロボットシステムは、操作者からの操作指示を受け付ける操作器と、作業空間内に設置され、複数の工程からなる一連の作業を行う実ロボットと、操作者が物理的な実世界を視認可能に構成され、仮想ロボットを表示するように構成されている透過型表示装置と、制御装置と、を備え、制御装置は、操作器から入力された指示情報を基に、透過型表示装置に表示されている仮想ロボットを動作させ、その後、操作器から実ロボットの動作を実行させる動作実行情報が入力されると、透過型表示装置に仮想ロボットを表示させた状態で、実ロボットを動作させるように構成されている。
また、本実施の形態1に係るロボットシステムでは、制御装置は、透過型表示装置に仮想ロボットを実ロボットと重なるように表示させていて、操作器から指示情報が入力されると、当該指示情報を基に、仮想ロボットを動作させるように構成されていてもよい。
また、本実施の形態1に係るロボットシステムでは、操作器は、携帯端末、マスターアーム、ティーチングペンダント、ジョイスティック、及び音声入力器のうち、少なくともいずれか1つの機器で構成されていてもよい。
さらに、本実施の形態1に係るロボットシステムでは、透過型表示装置は、操作者に装着可能に構成されていてもよい。
以下、本実施の形態1に係るロボットシステムの一例について、図1〜図8を参照しながら説明する。
[ロボットシステムの構成]
図1は、本実施の形態1に係るロボットシステムの概略構成を示すブロック図である。図2は、図1に示すロボットシステムの透過型表示装置の一例を示す模式図である。
図1に示すように、本実施の形態1に係るロボットシステム100は、実ロボット1、操作器2、制御装置4、記憶装置5、及び透過型表示装置6を備えていて、操作者が操作器2を操作することにより、実ロボット1が動作するように構成されている。また、本実施の形態1に係るロボットシステム100は、操作者が操作器2を操作すると、制御装置4は、透過型表示装置6に表示されている仮想ロボット3(図5参照)を動作させ、その後、操作器2から実ロボット1の動作を実行させる動作実行情報が入力されると、透過型表示装置6に仮想ロボット3を表示させた状態で、実ロボット1の動作を実行させるように構成されている。以下、本実施の形態1に係るロボットシステム100が備える、各機器について、説明する。
実ロボット1は、作業空間内に設置され、複数の工程からなる一連の作業を行うように構成されている。なお、複数の工程からなる一連の作業としては、製品に対する部品の組付、塗装等の作業が例示できる。
本実施の形態1に係る実ロボット1は、ライン生産方式又はセル生産方式で、電気・電子部品等を組み立てて製品を生産する生産工場で利用され、この生産工場に設けられた作業台に沿って配置され、作業台上のワークに対して、移送、パーツの組み付け又は配置換え、姿勢変換等の作業のうち少なくとも1つを行うことができる多関節ロボットである。但し、実ロボット1の実施態様は上記に限定されず、水平多関節型・垂直多関節型を問わず多関節ロボットに広く適用することができる。
ここで、図3を参照しながら、実ロボット1の具体的な構成について説明する。
図3は、図1に示すロボットシステムにおける、実ロボットの概略構成を示す模式図である。
図3に示すように、実ロボット1は、複数のリンク(ここでは、第1リンク11a〜第6リンク11f)の連接体と、複数の関節(ここでは、第1関節JT1〜第6関節JT6)と、これらを支持する基台15と、を有する多関節ロボットアームである。
第1関節JT1では、基台15と、第1リンク11aの基端部とが、鉛直方向に延びる軸回りに回転可能に連結されている。第2関節JT2では、第1リンク11aの先端部と、第2リンク11bの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第3関節JT3では、第2リンク11bの先端部と、第3リンク11cの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。
また、第4関節JT4では、第3リンク11cの先端部と、第4リンク11dの基端部とが、第4リンク11dの長手方向に延びる軸回りに回転可能に連結されている。第5関節JT5では、第4リンク11dの先端部と、第5リンク11eの基端部とが、第4リンク11dの長手方向と直交する軸回りに回転可能に連結されている。第6関節JT6では、第5リンク11eの先端部と第6リンク11fの基端部とが、捻れ回転可能に連結されている。
そして、第6リンク11fの先端部には、メカニカルインターフェースが設けられている。このメカニカルインターフェースには、作業内容に対応したエンドエフェクタ12が着脱可能に装着される。
また、第1関節JT1〜第6関節JT6には、それぞれ、各関節が連結する2つの部材を相対的に回転させるアクチュエータの一例としての駆動モータが設けられている(図示せず)。駆動モータは、例えば、制御装置4によってサーボ制御されるサーボモータであってもよい。また、第1関節JT1〜第6関節JT6には、それぞれ、駆動モータの回転位置を検出する回転センサと、駆動モータの回転を制御する電流を検出する電流センサと、が設けられている(それぞれ、図示せず)。回転センサは、例えば、エンコーダであってもよい。
操作器2は、作業空間外に設置され、操作者からの操作指示を受け付ける装置である。操作器2としては、例えば、携帯端末、マスターアーム、ティーチングペンダント、ジョイスティック、又は音声入力器等が挙げられる。携帯端末としては、例えば、タブレット、スマートフォン、ノートパソコン等が挙げられる。また、操作器2は、透過型表示装置6に仮想ロボット3の表示/非表示を切り替えるための切替器(例えば、ボタン等)を備えていてもよい。
記憶装置5は、読み書き可能な記録媒体であり、タスクプログラム51とロボットシステム100の動作シーケンス情報52が記憶されている。なお、本実施の形態1に係るロボットシステム100では、記憶装置5は、制御装置4と別体に設けられているが、制御装置4と一体として設けられていてもよい。
タスクプログラム51は、例えば、操作者がティーチングペンダント等から構成されている操作器2を用いて、ティーチングすることにより作成され、実ロボット1の識別情報とタスクとに対応付けられて、記憶装置5に格納されている。なお、タスクプログラム51は、作業ごとの動作フローとして作成されてもよい。
動作シーケンス情報52とは、作業空間内で実ロボット1によって実施される一連の作業工程を規定した動作シーケンスに関する情報である。動作シーケンス情報52では、作業工程の動作順と、実ロボット1の制御モードと、が対応付けられている。また、動作シーケンス情報52では、各作業工程に対し、実ロボット1にその作業を自動的に実行させるためのタスクプログラムが対応付けられている。なお、動作シーケンス情報52は、各作業工程に対し、実ロボット1にその作業を自動的に実行させるためのプログラムを含んでいてもよい。
制御装置4は、実ロボット1の動作を制御するものである。制御装置4は、例えば、マイクロコントローラ、MPU、PLC(Programmable Logic Controller)、論理回路等からなる演算部(図示せず)と、ROM又はRAM等からなるメモリ部(図示せず)と、により構成することができる。また、制御装置4が備える各機能ブロックは、制御装置4の演算部が、メモリ部(記憶器)又は記憶装置5に格納されているプログラムを読み出し実行することにより実現できる。
なお、制御装置4は、単独の制御装置で構成される形態だけでなく、複数の制御装置が協働して、実ロボット1(ロボットシステム100)の制御を実行する制御装置群で構成される形態であっても構わない。
また、制御装置4は、予め3次元CADにより作成された、実ロボット1の3次元モデルを示すデータを用いて、透過型表示装置6に仮想ロボット3を表示させてもよい。また、制御装置4は、実ロボット1を3次元スキャナ等によりスキャンした画像データを用いて、透過型表示装置6に仮想ロボット3を表示させてもよい。
透過型表示装置6は、操作者が物理的な実世界を視認可能に構成され、制御装置4から出力された映像情報(例えば、仮想ロボット3)を表示するように構成されている。具体的には、透過型表示装置6は、図2に示すように、制御装置4から出力された映像情報を映すための表示部6aを有し、操作者が身に着けて使用するヘッドマウントディスプレイ又はメガネで構成されていてもよい。また、透過型表示装置6は、机、床等に据え置いて使用する、据え置き型の透過ディスプレイで構成されていてもよい。
なお、図2に示すように、透過型表示装置6には、操作者が視認している実世界の情報を取得するカメラ6bが設けられていてもよい。
[ロボットシステムの動作及び作用効果]
次に、本実施の形態1に係るロボットシステム100の動作及び作用効果について、図1〜図8を参照しながら説明する。
なお、以下の動作は、制御装置4の演算部が、メモリ部又は記憶装置5に格納されているプログラムを読み出すことにより実行される。また、以下においては、図5〜図8に示すように、本実施の形態1に係るロボットシステム100の動作の具体例として、実ロボット1が保持している筒状ワーク20を基台21に設けられている突起部21aに嵌挿させる動作について、説明する。
図4は、本実施の形態1に係るロボットシステムの動作の一例を示すフローチャートである。図5〜図8は、本実施の形態1に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。なお、図5、8においては、仮想ロボット3及び仮想ワークを一点鎖線で示し、実ロボット1と仮想ロボット3とを見やすくするために、仮想ロボット3を実ロボット1とずれるように表示している。
図4に示すように、制御装置4は、操作器2から実ロボット1の操作を開始することを示す操作開始情報(操作開始信号)が入力されたか否かを判定する(ステップS101)。
制御装置4は、操作器2から操作開始情報が入力されていないと判定した場合(ステップS101でNo)には、本プログラムを終了する。なお、制御装置4は、本プログラムを終了した場合には、例えば、50msec後に再び、本プログラムを実行する。一方、制御装置4は、操作器2から操作開始情報が入力されたと判定した場合(ステップS101でYes)には、ステップS102の処理を実行する。
ステップS102において、制御装置4は、透過型表示装置6に仮想ロボット3を表示させる。このとき、制御装置4は、実ロボット1が保持しているワーク20に対応する仮想ワークを透過型表示装置6に表示させてもよい。また、制御装置4は、操作者が視認している実ロボット1に仮想ロボット3が重なるように、透過型表示装置6に仮想ロボット3を表示させてもよい。
なお、制御装置4は、仮想ロボット3が実ロボット1に完全に重なるように、透過型表示装置6に仮想ロボット3を表示させてもよく、仮想ロボット3と実ロボット1がわずかにずれるように、透過型表示装置6に仮想ロボット3を表示させてもよく、仮想ロボット3が実ロボット1と全く重ならないように、透過型表示装置6に仮想ロボット3を表示させてもよい。
次に、制御装置4は、操作器2から実ロボット1への指示情報が入力されたか否かを判定する(ステップS103)。ここで、指示情報としては、例えば、実ロボット1の先端部の位置座標、実ロボット1を構成する各軸の回転角度等が挙げられる。
制御装置4は、操作器2から指示情報が入力されたと判定した場合(ステップS103でYes)には、ステップS103で入力された指示情報を基に、透過型表示装置6に表示されている仮想ロボット3を動作させる(ステップS104)。ついで、制御装置4は、実ロボット1を動作させるか否かを操作者に問い合わせるための問い合わせ情報を透過型表示装置6に表示させる(ステップS105)。問い合わせ情報としては、例えば、「実ロボット1を動作させますか?」等の文字情報が挙げられる。
次に、制御装置4は、操作器2から実ロボット1の動作を実行することを示す動作実行情報、又は実ロボット1の動作を実行させないことを示す動作不実行情報が入力されたかを判定する(ステップS106)。
ここで、図6に示すように、ステップS103で入力された指示情報を基に、透過型表示装置6に表示されている仮想ロボット3を動作させた結果、筒状ワーク20が突起部21aと衝突したとする。このような場合、作業者は、ステップS103で入力された指示情報に従って、実ロボット1を実際に動作させると、筒状ワーク20が突起部21aと衝突することを容易に理解することができる。
このため、操作者は、ステップS103で入力された指示情報を基に、実ロボット1が動作しないように、操作器2を操作する。これにより、制御装置4には、操作器2から動作不実行情報が入力され(ステップS106で動作不実行)、制御装置4は、ステップS103に戻り、操作器2から再度指示情報が入力される(ステップS103)と、仮想ロボット3を動作させる(ステップS104)といった、ステップS103〜ステップS106の処理を繰り返す。
一方、図7に示すように、ステップS103で入力された指示情報を基に、透過型表示装置6に表示されている仮想ロボット3を動作させた結果、筒状ワーク20が突起部21aの上方(真上)に位置したとする。このような場合には、操作者は、ステップS103で入力された指示情報に従って、実ロボット1を実際に動作させても、問題が発生しないことを容易に理解することができる。
このため、操作者は、ステップS103で入力された指示情報を基に、実ロボット1が動作するように、操作器2を操作する。これにより、制御装置4には、操作器2から動作実行情報が入力され(ステップS106で動作実行)、制御装置4は、実ロボット1をステップS103で入力された指示情報を基に、実ロボット1を動作させる(ステップS107)。この結果、図8に示すように、実ロボット1は、筒状ワーク20が突起部21aの上方(真上)に位置するように、動作する。
次に、制御装置4は、操作器2から、実ロボット1の操作を続行することを示す操作続行情報が入力されたか、又は実ロボット1の操作を終了することを示す操作終了情報が入力されたかを判定する(ステップS108)。
制御装置4は、操作器2から、操作続行情報が入力されたと判定した場合(ステップS108で操作続行情報入力)には、操作終了情報が入力されたと判定するまで、ステップS103〜ステップS108の各処理を実行する。一方、制御装置4は、操作器2から、操作終了情報が入力されたと判定した場合(ステップS108で操作終了情報入力)には、本プログラムを終了する。
このように構成された、本実施の形態1に係るロボットシステム100では、制御装置4が、操作器2から指示情報が入力されると、実ロボット1を動作させる前に、透過型表示装置6に表示されている仮想ロボット3を動作させる。これにより、操作者は、入力した指示情報を基に実ロボット1が動作した場合に、実ロボット1の動作後の状態を容易に理解することができ、実ロボット1が、作業空間内に配置されている機器等と接触等するか否かを容易に理解することができる。
このため、操作者は、作業空間内に配置されている機器等と接触等しないように、実ロボット1を少しずつ動作させる(操作する)必要がなくなり、操作者の作業負担を軽減することができ、作業効率を向上させることができる。
なお、本実施の形態1においては、制御装置4は、操作者が視認している実ロボット1に対して、透過型表示装置6に仮想ロボット3を重ねて表示させる形態を採用したが、これに限定されない。
(実施の形態2)
本実施の形態2に係るロボットシステムは、実施の形態1に係るロボットシステムにおいて、操作器は、操作者の手の動きを計測する計測器で構成されていて、制御装置は、計測器により計測された操作者の手の動きに対応するように、仮想ハンドを透過型表示装置に表示させるように構成されている。
以下、本実施の形態2に係るロボットシステムの一例について、図9及び図10を参照しながら説明する。
[ロボットシステムの構成]
図9は、本実施の形態2に係るロボットシステムの概略構成を示すブロック図である。図10は、本実施の形態2に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。
図9に示すように、本実施の形態2に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、操作器2が、操作者の手の動きを計測する計測器で構成されている点が異なる。操作者の手の動きを計測する計測器としては、各種のセンサ(例えば、加速度センサ、ジャイロセンサ)が設けられているグローブ(データグローブ)であってもよく、操作者に赤外線センサ等のセンサを取り付けて、当該センサが操作者の手の動きを計測する、Leap Mortion等の機器であってもよい。
また、図10に示すように、本実施の形態2に係るロボットシステム100では、制御装置4が、計測器により計測された操作者の手の動きに対応するように、仮想ハンド7を透過型表示装置6に表示させるように構成されている。これにより、操作者は、仮想ハンド7により、仮想ロボット3を保持して、動かす(ダイレクトティーチする)ことができる。
このように構成された、本実施の形態2に係るロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
上記説明から、当業者にとっては、本発明の多くの改良又は他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明の精神を逸脱することなく、その構造及び/又は機能の詳細を実質的に変更できる。
本発明のロボットシステム及びその運転方法によれば、操作者の負担を軽減して、作業効率を向上させることができるため、ロボットの分野において有用である。
1 実ロボット
2 操作器
3 仮想ロボット
4 制御装置
5 記憶装置
6 透過型表示装置
6a 表示部
6b カメラ
7 仮想ハンド
11a 第1リンク
11b 第2リンク
11c 第3リンク
11d 第4リンク
11e 第5リンク
11f 第6リンク
15 基台
20 筒状ワーク
21 基台
21a 突起部
51 タスクプログラム
52 動作シーケンス情報
100 ロボットシステム
JT1 第1関節
JT2 第2関節
JT3 第3関節
JT4 第4関節
JT5 第5関節
JT6 第6関節

Claims (10)

  1. 操作者からの操作指示を受け付ける操作器と、
    作業空間内に設置され、複数の工程からなる一連の作業を行う実ロボットと、
    前記操作者が実世界を視認可能に構成され、仮想ロボットを表示するように構成されている透過型表示装置と、
    制御装置と、を備え、
    前記制御装置は、前記操作器から入力された指示情報を基に、前記透過型表示装置に表示されている前記仮想ロボットを動作させ、その後、前記操作器から前記実ロボットの動作を実行させる動作実行情報が入力されると、前記透過型表示装置に前記仮想ロボットを表示させた状態を維持しながら、前記実ロボットを動作させるように構成されている、ロボットシステム。
  2. 前記制御装置は、前記透過型表示装置に前記仮想ロボットを前記実ロボットと重なるように表示させていて、前記操作器から前記指示情報が入力されると、当該指示情報を基に、前記仮想ロボットを動作させるように構成されている、請求項1に記載のロボットシステム。
  3. 前記操作器は、携帯端末、マスターアーム、ティーチングペンダント、ジョイスティック、及び音声入力器のうち、少なくともいずれか1つの機器で構成されている、請求項1又は2に記載のロボットシステム。
  4. 前記操作器は、前記操作者の手の動きを計測する計測器で構成されていて、
    前記制御装置は、前記計測器により計測された前記操作者の手の動きに対応するように、仮想ハンドを前記透過型表示装置に表示させるように構成されている、請求項1〜3のいずれか1項に記載のロボットシステム。
  5. 前記透過型表示装置は、前記操作者に装着可能に構成されている、請求項1〜4のいずれか1項に記載のロボットシステム。
  6. ロボットシステムの運転方法であって、
    前記ロボットシステムは、
    操作者からの操作指示を受け付ける操作器と、
    作業空間内に設置され、複数の工程からなる一連の作業を行う実ロボットと、
    前記操作者が実世界を視認可能に構成され、仮想ロボットを表示するように構成されている透過型表示装置と、を備え、
    前記透過型表示装置が、前記操作器から入力された指示情報を基に、前記仮想ロボットの動作を表示する(A)と、
    前記(A)の後に、前記操作器から前記実ロボットの動作を実行させる動作実行情報が入力されると、前記透過型表示装置が、前記仮想ロボットを表示した状態で、前記実ロボットが、前記操作器から入力された指示情報を基に動作する(B)と、を備える、ロボットシステムの運転方法。
  7. 前記(A)において、前記透過型表示装置は、前記仮想ロボットを前記実ロボットと重なるように表示していて、前記操作器から前記指示情報が入力されると、当該指示情報を基に、前記仮想ロボットの動作を表示する、請求項6に記載のロボットシステムの運転方法。
  8. 前記操作器は、携帯端末、マスターアーム、ティーチングペンダント、ジョイスティック、及び音声入力器のうち、少なくともいずれか1つの機器で構成されている、請求項6又は7に記載のロボットシステムの運転方法。
  9. 前記操作器は、前記操作者の手の動きを計測する計測器で構成されていて、
    前記(A)において、前記透過型表示装置は、前記計測器で計測された前記操作者の手の動きに対応するように、仮想ハンドを表示する、請求項6〜8のいずれか1項に記載のロボットシステムの運転方法。
  10. 前記透過型表示装置は、前記操作者に装着可能に構成されている、請求項6〜9のいずれか1項に記載のロボットシステムの運転方法。

JP2017149757A 2017-08-02 2017-08-02 ロボットシステム及びその運転方法 Active JP7071070B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017149757A JP7071070B2 (ja) 2017-08-02 2017-08-02 ロボットシステム及びその運転方法
CN201880050331.2A CN111093911B (zh) 2017-08-02 2018-07-27 机器人系统及其运行方法
PCT/JP2018/028251 WO2019026790A1 (ja) 2017-08-02 2018-07-27 ロボットシステム及びその運転方法
US16/636,139 US11865697B2 (en) 2017-08-02 2018-07-27 Robot system and method for operating same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017149757A JP7071070B2 (ja) 2017-08-02 2017-08-02 ロボットシステム及びその運転方法

Publications (2)

Publication Number Publication Date
JP2019025620A true JP2019025620A (ja) 2019-02-21
JP7071070B2 JP7071070B2 (ja) 2022-05-18

Family

ID=65233963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017149757A Active JP7071070B2 (ja) 2017-08-02 2017-08-02 ロボットシステム及びその運転方法

Country Status (4)

Country Link
US (1) US11865697B2 (ja)
JP (1) JP7071070B2 (ja)
CN (1) CN111093911B (ja)
WO (1) WO2019026790A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11904478B2 (en) 2019-11-22 2024-02-20 Fanuc Corporation Simulation device and robot system using augmented reality

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7066357B2 (ja) * 2017-08-31 2022-05-13 川崎重工業株式会社 ロボットシステム及びその運転方法
JP7187985B2 (ja) * 2018-10-30 2022-12-13 セイコーエプソン株式会社 制御装置およびロボットシステム
DE102020201375B3 (de) * 2020-02-05 2021-06-24 Magna Steyr Fahrzeugtechnik Ag & Co Kg Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002361581A (ja) * 2001-06-08 2002-12-18 Ricoh Co Ltd 作業自動化装置、作業自動化方法およびその方法を記憶した記憶媒体
JP2009119579A (ja) * 2007-11-16 2009-06-04 Canon Inc 情報処理装置、情報処理方法
JP2011118924A (ja) * 2011-02-17 2011-06-16 Kyokko Denki Kk 多関節構造体、それを用いた装着具、システムおよびヒューマンマシンインターフェース
JP2012218120A (ja) * 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
US20130073092A1 (en) * 2011-09-15 2013-03-21 Persimmon Technologies Corporation System and method for operation of a robot
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
JP2016197393A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8095239B2 (en) * 2008-09-29 2012-01-10 North End Technologies, Inc Method and apparatus for controlling the motion of a robotic device
US9643314B2 (en) * 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
US9916506B1 (en) * 2015-07-25 2018-03-13 X Development Llc Invisible fiducial markers on a robot to visualize the robot in augmented reality

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002361581A (ja) * 2001-06-08 2002-12-18 Ricoh Co Ltd 作業自動化装置、作業自動化方法およびその方法を記憶した記憶媒体
JP2009119579A (ja) * 2007-11-16 2009-06-04 Canon Inc 情報処理装置、情報処理方法
JP2011118924A (ja) * 2011-02-17 2011-06-16 Kyokko Denki Kk 多関節構造体、それを用いた装着具、システムおよびヒューマンマシンインターフェース
JP2012218120A (ja) * 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
US20130073092A1 (en) * 2011-09-15 2013-03-21 Persimmon Technologies Corporation System and method for operation of a robot
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
JP2016197393A (ja) * 2015-04-03 2016-11-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11904478B2 (en) 2019-11-22 2024-02-20 Fanuc Corporation Simulation device and robot system using augmented reality

Also Published As

Publication number Publication date
CN111093911A (zh) 2020-05-01
JP7071070B2 (ja) 2022-05-18
CN111093911B (zh) 2024-02-09
US20200156258A1 (en) 2020-05-21
US11865697B2 (en) 2024-01-09
WO2019026790A1 (ja) 2019-02-07

Similar Documents

Publication Publication Date Title
US11370105B2 (en) Robot system and method for operating same
US10635082B2 (en) Robot motion program generating method and robot motion program generating apparatus
EP3342561B1 (en) Remote control robot system
US11865697B2 (en) Robot system and method for operating same
US20140236565A1 (en) Robot simulator, robot teaching apparatus and robot teaching method
EP2923806A1 (en) Robot control device, robot, robotic system, teaching method, and program
CN110505947B (zh) 机器人系统及其运行方法
JPWO2014013605A1 (ja) ロボットシミュレータ、ロボット教示装置およびロボット教示方法
US10315305B2 (en) Robot control apparatus which displays operation program including state of additional axis
CN108687758B (zh) 机器人的移动速度控制装置及方法
JPH1158276A (ja) ロボットのオフラインシミュレーションシステム
WO2024134902A1 (ja) ロボットの姿勢を調整する装置、方法、及びコンピュータプログラム
JP7462046B2 (ja) ロボットシステム
JP7185749B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP2003127078A (ja) 作業ロボットの教示装置および教示方法。
JP2023157089A (ja) ロボットの動作プログラムの作成を支援するシステム、方法、及び、コンピュータープログラム
JP2024004614A (ja) タイムチャート表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220202

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220202

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220214

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220506

R150 Certificate of patent or registration of utility model

Ref document number: 7071070

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150