JP7066357B2 - ロボットシステム及びその運転方法 - Google Patents

ロボットシステム及びその運転方法 Download PDF

Info

Publication number
JP7066357B2
JP7066357B2 JP2017167120A JP2017167120A JP7066357B2 JP 7066357 B2 JP7066357 B2 JP 7066357B2 JP 2017167120 A JP2017167120 A JP 2017167120A JP 2017167120 A JP2017167120 A JP 2017167120A JP 7066357 B2 JP7066357 B2 JP 7066357B2
Authority
JP
Japan
Prior art keywords
robot
display device
operator
virtual
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017167120A
Other languages
English (en)
Other versions
JP2019042843A (ja
Inventor
雅之 渡邊
高行 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Priority to JP2017167120A priority Critical patent/JP7066357B2/ja
Priority to PCT/JP2018/031570 priority patent/WO2019044766A1/ja
Priority to CN201880056401.5A priority patent/CN111093903B/zh
Priority to US16/643,767 priority patent/US11370105B2/en
Publication of JP2019042843A publication Critical patent/JP2019042843A/ja
Application granted granted Critical
Publication of JP7066357B2 publication Critical patent/JP7066357B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • B25J13/065Control stands, e.g. consoles, switchboards comprising joy-sticks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details, by setting parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39046Compare image of plate on robot with reference, move till coincidence, camera

Description

本発明は、ロボットシステム及びその運転方法に関する。
拡張現実対応ディスプレイを用いて、実映像又は実環境にロボットの状態や操作ガイドに関する情報をロボットの使用者に提供しているロボットシステムが知られている(例えば、特許文献1参照)。特許文献1に開示されているロボットシステムでは、ディスプレイにロボットの状態又は操作ガイドを視覚的に示す付加情報を重畳して表示している。
特開2016-107379号公報
ところで、保持したワークを嵌合部に嵌合させる動作を操作者が教示・操作するような場合には、ワークを他の部分と接触させないようにする等、ロボットの位置決めを慎重に行う必要がある。
上記特許文献1に開示されているロボットシステムでは、ロボットの先端部を原点とした直交座標系が表示されているが、当該情報だけでは、位置決めを行うには不充分であり、操作者への負担が大きく、作業効率の向上の観点から未だ改善の余地があった。
本発明は、上記従来の課題を解決するもので、操作者の負担を軽減して、作業効率を向上させることができる、ロボットシステム及びその運転方法を提供することを目的とする。
上記従来の課題を解決するために、本発明に係るロボットシステムは、操作者からの操作指示を受け付ける操作器と、作業空間内に設置され、複数の工程からなる一連の作業を行う実ロボットと、前記実ロボットを撮影するように構成されているカメラと、前記カメラが撮影した前記実ロボットの映像情報と仮想ロボットを表示するように構成されている表示装置と、制御装置と、を備え、前記制御装置は、前記カメラが撮影した前記実ロボットの映像情報と前記仮想ロボットを前記表示装置に表示させた状態で、前記操作器から入力された指示情報を基に、前記表示装置に表示されている前記仮想ロボットを動作させ、その後、前記操作器から前記実ロボットの動作を実行させる動作実行情報が入力されると、前記表示装置に前記仮想ロボットを表示させた状態で、前記実ロボットを動作させるように構成されている。
これにより、仮想ロボットが実ロボットの動作前に、指示情報を基に動作するので、動作後の位置を視覚的に把握することができる。このため、例えば、実ロボット本体及び/又は実ロボットが把持しているワークが、作業空間内に配置されている機器等と接触等するか否かを容易に判断することができ、実ロボット先端部の位置決めを容易に行うことができる。したがって、操作者の負担を軽減して、作業効率を向上させることができる。
また、本発明に係るロボットシステムの運転方法は、前記ロボットシステムが、操作者からの操作指示を受け付ける操作器と、作業空間内に設置され、複数の工程からなる一連の作業を行う実ロボットと、前記作業空間内に設置され、前記実ロボットを撮影するように構成されているカメラと、前記カメラが撮影した前記実ロボットの映像情報と仮想ロボットを表示するように構成されている表示装置と、を備え、前記表示装置が、前記カメラが撮影した前記実ロボットの映像情報と前記仮想ロボットを表示する(A)と、前記表示装置が、前記(A)の後に、前記操作器から入力された指示情報を基に、前記仮想ロボットの動作を表示する(B)と、前記(B)の後に、前記操作器から前記実ロボットの動作を実行させる動作実行情報が入力されると、前記表示装置が、前記仮想ロボットを表示した状態で、前記実ロボットが、前記操作器から入力された指示情報を基に動作する(C)と、を備える。
これにより、仮想ロボットが実ロボットの動作前に、指示情報を基に動作するので、動作後の位置を視覚的に把握することができる。このため、例えば、実ロボット本体及び/又は実ロボットが把持しているワークが、作業空間内に配置されている機器等と接触等するか否かを容易に判断することができ、実ロボット先端部の位置決めを容易に行うことができる。したがって、操作者の負担を軽減して、作業効率を向上させることができる。
本発明のロボットシステム及びその運転方法によれば、操作者の負担を軽減して、作業効率を向上させることができる。
図1は、本実施の形態1に係るロボットシステムの概略構成を示すブロック図である。 図2は、図1に示すロボットシステムにおける、実ロボットの概略構成を示す模式図である。 図3は、本実施の形態1に係るロボットシステムの動作の一例を示すフローチャートである。 図4は、本実施の形態1に係るロボットシステムにおける表示装置に表示されている映像情報を示す模式図である。 図5は、本実施の形態1に係るロボットシステムにおける表示装置に表示されている映像情報を示す模式図である。 図6は、本実施の形態1に係るロボットシステムにおける表示装置に表示されている映像情報を示す模式図である。 図7は、本実施の形態1に係るロボットシステムにおける表示装置に表示されている映像情報を示す模式図である。 図8は、本実施の形態2に係るロボットシステムの概略構成を示すブロック図である。 図9は、図8に示すロボットシステムの透過型表示装置の一例を示す模式図である。 図10は、本実施の形態2に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。 図11は、本実施の形態2に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。 図12は、本実施の形態3に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。 図13は、本実施の形態3に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。 図14は、本実施の形態3に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。 図15は、本実施の形態4に係るロボットシステムの概略構成を示すブロック図である。 図16は、本実施の形態4に係るロボットシステムにおける表示装置に表示されている映像情報を示す模式図である。
以下、本発明の実施の形態を、図面を参照しながら説明する。なお、全ての図面において、同一又は相当部分には同一符号を付し、重複する説明は省略する。また、全ての図面において、本発明を説明するための構成要素を抜粋して図示しており、その他の構成要素については図示を省略している場合がある。さらに、本発明は以下の実施の形態に限定されない。
(実施の形態1)
本実施の形態1に係るロボットシステムは、操作者からの操作指示を受け付ける操作器と、作業空間内に設置され、複数の工程からなる一連の作業を行う実ロボットと、実ロボットを撮影するように構成されているカメラと、カメラが撮影した実ロボットの映像情報と仮想ロボットを表示するように構成されている表示装置と、制御装置と、を備え、制御装置は、カメラが撮影した実ロボットの映像情報と仮想ロボットを表示装置に表示させた状態で、操作器から入力された指示情報を基に、表示装置に表示されている仮想ロボットを動作させ、その後、操作器から実ロボットの動作を実行させる動作実行情報が入力されると、表示装置に仮想ロボットを表示させた状態で、実ロボットを動作させるように構成されている。
また、本実施の形態1に係るロボットシステムでは、制御装置は、仮想ロボットとカメラで撮影した実ロボットの映像情報とが重なるように、表示装置に表示させ、操作器から指示情報が入力されると、当該指示情報を基に、仮想ロボットを動作させるように構成されていてもよい。
さらに、本実施の形態1に係るロボットシステムでは、操作器は、携帯端末、タッチパネル、マスターアーム、ティーチングペンダント、ジョイスティック、及び音声入力器のうち、少なくともいずれか1つの機器で構成されていてもよい。
以下、本実施の形態1に係るロボットシステムの一例について、図1~図7を参照しながら説明する。
[ロボットシステムの構成]
図1は、本実施の形態1に係るロボットシステムの概略構成を示すブロック図である。
図1に示すように、本実施の形態1に係るロボットシステム100は、実ロボット1、操作器2、制御装置4、記憶装置5、表示装置6、及びカメラ8を備えていて、操作者が操作器2を操作することにより、実ロボット1が動作するように構成されている。また、本実施の形態1に係るロボットシステム100は、操作者が操作器2を操作すると、制御装置4は、表示装置6に表示されている仮想ロボット3(図5参照)を動作させ、その後、操作器2から実ロボット1の動作を実行させる動作実行情報が入力されると、表示装置6に仮想ロボット3を表示させた状態で、実ロボット1の動作を実行させるように構成されている。
以下、本実施の形態1に係るロボットシステム100が備える、各機器について、説明する。
実ロボット1は、作業空間内に設置され、複数の工程からなる一連の作業を行うように構成されている。なお、複数の工程からなる一連の作業としては、製品に対する部品の組付、塗装等の作業が例示できる。
本実施の形態1に係る実ロボット1は、ライン生産方式又はセル生産方式で、電気・電子部品等を組み立てて製品を生産する生産工場で利用され、この生産工場に設けられた作業台に沿って配置され、作業台上のワークに対して、移送、パーツの組み付け又は配置換え、姿勢変換等の作業のうち少なくとも1つを行うことができる多関節ロボットである。但し、実ロボット1の実施態様は上記に限定されず、水平多関節型・垂直多関節型を問わず多関節ロボットに広く適用することができる。
ここで、図2を参照しながら、実ロボット1の具体的な構成について説明する。
図2は、図1に示すロボットシステムにおける、実ロボットの概略構成を示す模式図である。
図2に示すように、実ロボット1は、複数のリンク(ここでは、第1リンク11a~第6リンク11f)の連接体と、複数の関節(ここでは、第1関節JT1~第6関節JT6)と、これらを支持する基台15と、を有する多関節ロボットアームである。
第1関節JT1では、基台15と、第1リンク11aの基端部とが、鉛直方向に延びる軸回りに回転可能に連結されている。第2関節JT2では、第1リンク11aの先端部と、第2リンク11bの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。第3関節JT3では、第2リンク11bの先端部と、第3リンク11cの基端部とが、水平方向に延びる軸回りに回転可能に連結されている。
また、第4関節JT4では、第3リンク11cの先端部と、第4リンク11dの基端部とが、第4リンク11dの長手方向に延びる軸回りに回転可能に連結されている。第5関節JT5では、第4リンク11dの先端部と、第5リンク11eの基端部とが、第4リンク11dの長手方向と直交する軸回りに回転可能に連結されている。第6関節JT6では、第5リンク11eの先端部と第6リンク11fの基端部とが、捻れ回転可能に連結されている。
そして、第6リンク11fの先端部には、メカニカルインターフェースが設けられている。このメカニカルインターフェースには、作業内容に対応したエンドエフェクタ12が着脱可能に装着される。
また、第1関節JT1~第6関節JT6には、それぞれ、各関節が連結する2つの部材を相対的に回転させるアクチュエータの一例としての駆動モータが設けられている(図示せず)。駆動モータは、例えば、制御装置4によってサーボ制御されるサーボモータであってもよい。また、第1関節JT1~第6関節JT6には、それぞれ、駆動モータの回転位置を検出する回転センサと、駆動モータの回転を制御する電流を検出する電流センサと、が設けられている(それぞれ、図示せず)。回転センサは、例えば、エンコーダであってもよい。
操作器2は、操作者からの操作指示を受け付ける装置である。操作器2としては、例えば、携帯端末、タッチパネル、マスターアーム、ティーチングペンダント、ジョイスティック、又は音声入力器等が挙げられる。携帯端末としては、例えば、タブレット、スマートフォン、ノートパソコン等が挙げられる。また、操作器2は、表示装置6に仮想ロボット3の表示/非表示を切り替えるための切替器(例えば、ボタン等)を備えていてもよい。
記憶装置5は、読み書き可能な記録媒体であり、タスクプログラム51とロボットシステム100の動作シーケンス情報52が記憶されている。なお、本実施の形態1に係るロボットシステム100では、記憶装置5は、制御装置4と別体に設けられているが、制御装置4と一体として設けられていてもよい。
タスクプログラム51は、例えば、操作者がティーチングペンダント等から構成されている操作器2を用いて、ティーチングすることにより作成され、実ロボット1の識別情報とタスクとに対応付けられて、記憶装置5に格納されている。なお、タスクプログラム51は、作業ごとの動作フローとして作成されてもよい。
動作シーケンス情報52とは、作業空間内で実ロボット1によって実施される一連の作業工程を規定した動作シーケンスに関する情報である。動作シーケンス情報52では、作業工程の動作順と、実ロボット1の制御モードと、が対応付けられている。また、動作シーケンス情報52では、各作業工程に対し、実ロボット1にその作業を自動的に実行させるためのタスクプログラムが対応付けられている。なお、動作シーケンス情報52は、各作業工程に対し、実ロボット1にその作業を自動的に実行させるためのプログラムを含んでいてもよい。
また、本実施の形態1においては、作業空間内には、カメラ8が配設されている。具体的には、カメラ8は、作業空間を構成する壁面(側壁面)に配設されている。カメラ8は、撮影した実ロボット1を含む映像情報を制御装置4に出力するように構成されている。なお、カメラ8は、作業空間内に配設されていなくてもよい。例えば、カメラ8は、操作者が携帯している携帯端末又はヘッドマウントディスプレイ等に設置されているカメラであってもよい。
制御装置4は、実ロボット1の動作を制御するものである。制御装置4は、例えば、マイクロコントローラ、MPU、PLC(Programmable Logic Controller)、論理回路等からなる演算部(図示せず)と、ROM又はRAM等からなるメモリ部(図示せず)と、により構成することができる。また、制御装置4が備える各機能ブロックは、制御装置4の演算部が、メモリ部(記憶器)又は記憶装置5に格納されているプログラムを読み出し実行することにより実現できる。
なお、制御装置4は、単独の制御装置で構成される形態だけでなく、複数の制御装置が協働して、実ロボット1(ロボットシステム100)の制御を実行する制御装置群で構成される形態であっても構わない。
また、制御装置4は、予め3次元CADにより作成された、実ロボット1の3次元モデルを示すデータを用いて、表示装置6に仮想ロボット3を表示させてもよい。また、制御装置4は、実ロボット1を3次元スキャナ等によりスキャンした画像データを用いて、表示装置6に仮想ロボット3を表示させてもよい。
表示装置6は、作業空間内(例えば、天井、側壁面、実ロボット1の先端部等)に設置されているカメラ8で撮影した映像(映像情報)と、制御装置4から出力された映像情報(例えば、仮想ロボット3)と、を表示するように構成されている。表示装置6は、机、床等に据え置いて使用する、据え置き型のディスプレイで構成されていてもよい。また、表示装置6は、操作者が物理的な実世界を視認可能に構成されている、透過型表示装置であってもよい。なお、本実施の形態1においては、表示装置6は、据え置き型のディスプレイで構成されている。
[ロボットシステムの動作及び作用効果]
次に、本実施の形態1に係るロボットシステム100の動作及び作用効果について、図1~図7を参照しながら説明する。なお、以下の動作は、制御装置4の演算部が、メモリ部又は記憶装置5に格納されているプログラムを読み出すことにより実行される。また、以下においては、図4~図7に示すように、本実施の形態1に係るロボットシステム100の動作の具体例として、実ロボット1が保持している筒状ワーク20を基台21に設けられている突起部21aに嵌挿させる動作について、説明する。
図3は、本実施の形態1に係るロボットシステムの動作の一例を示すフローチャートである。図4~図7は、本実施の形態1に係るロボットシステムにおける表示装置に表示されている映像情報を示す模式図である。
なお、図4、7においては、仮想ロボット3及び仮想ワークを一点鎖線で示し、実ロボット1の映像情報1Aと仮想ロボット3とを見やすくするために、仮想ロボット3を実ロボット1の映像情報1Aとずれるように表示している。
図3に示すように、制御装置4は、操作器2から実ロボット1の操作を開始することを示す操作開始情報(操作開始信号)が入力されたか否かを判定する(ステップS101)。
制御装置4は、操作器2から操作開始情報が入力されていないと判定した場合(ステップS101でNo)には、本プログラムを終了する。なお、制御装置4は、本プログラムを終了した場合には、例えば、50msec後に再び、本プログラムを実行する。一方、制御装置4は、操作器2から操作開始情報が入力されたと判定した場合(ステップS101でYes)には、ステップS102の処理を実行する。
ステップS102において、制御装置4は、表示装置6に仮想ロボット3、仮想ワーク、及びカメラ8が撮影した実ロボット1を含む映像情報1Aを表示させる。このとき、制御装置4は、実ロボット1が保持しているワーク20に対応する仮想ワークを表示装置6に表示させてもよい。また、制御装置4は、操作者が視認している実ロボット1に仮想ロボット3が重なるように、表示装置6に仮想ロボット3を表示させてもよい。
なお、制御装置4は、仮想ロボット3が実ロボット1に完全に重なるように、表示装置6に仮想ロボット3を表示させてもよく、仮想ロボット3と実ロボット1がわずかにずれるように、表示装置6に仮想ロボット3を表示させてもよく、仮想ロボット3が実ロボット1と全く重ならないように、表示装置6に仮想ロボット3を表示させてもよい。
次に、制御装置4は、操作器2から実ロボット1への指示情報が入力されたか否かを判定する(ステップS103)。ここで、指示情報としては、例えば、実ロボット1の先端部の位置座標、実ロボット1を構成する各軸の回転角度等が挙げられる。
制御装置4は、操作器2から指示情報が入力されたと判定した場合(ステップS103でYes)には、ステップS103で入力された指示情報を基に、表示装置6に表示されている仮想ロボット3を動作させる(ステップS104)。ついで、制御装置4は、実ロボット1を動作させるか否かを操作者に問い合わせるための問い合わせ情報を表示装置6に表示させる(ステップS105)。問い合わせ情報としては、例えば、「実ロボット1を動作させますか?」等の文字情報が挙げられる。
次に、制御装置4は、操作器2から実ロボット1の動作を実行することを示す動作実行情報、又は実ロボット1の動作を実行させないことを示す動作不実行情報が入力されたかを判定する(ステップS106)。
ここで、図5に示すように、ステップS103で入力された指示情報を基に、表示装置6に表示されている仮想ロボット3を動作させた結果、筒状ワーク20が突起部21aと衝突したとする。このような場合、作業者は、ステップS103で入力された指示情報に従って、実ロボット1を実際に動作させると、筒状ワーク20が突起部21aと衝突することを容易に理解することができる。
このため、操作者は、ステップS103で入力された指示情報を基に、実ロボット1が動作しないように、操作器2を操作する。これにより、制御装置4には、操作器2から動作不実行情報が入力され(ステップS106で動作不実行)、制御装置4は、ステップS103に戻り、操作器2から再度指示情報が入力される(ステップS103)と、仮想ロボット3を動作させる(ステップS104)といった、ステップS103~ステップS106の処理を繰り返す。
一方、図6に示すように、ステップS103で入力された指示情報を基に、表示装置6に表示されている仮想ロボット3を動作させた結果、筒状ワーク20が突起部21aの上方(真上)に位置したとする。このような場合には、操作者は、ステップS103で入力された指示情報に従って、実ロボット1を実際に動作させても、問題が発生しないことを容易に理解することができる。
このため、操作者は、ステップS103で入力された指示情報を基に、実ロボット1が動作するように、操作器2を操作する。これにより、制御装置4には、操作器2から動作実行情報が入力され(ステップS106で動作実行)、制御装置4は、実ロボット1をステップS103で入力された指示情報を基に、実ロボット1を動作させる(ステップS107)。この結果、図7に示すように、実ロボット1は、筒状ワーク20が突起部21aの上方(真上)に位置するように、動作する。
次に、制御装置4は、操作器2から、実ロボット1の操作を続行することを示す操作続行情報が入力されたか、又は実ロボット1の操作を終了することを示す操作終了情報が入力されたかを判定する(ステップS108)。
制御装置4は、操作器2から、操作続行情報が入力されたと判定した場合(ステップS108で操作続行情報入力)には、操作終了情報が入力されたと判定するまで、ステップS103~ステップS108の各処理を実行する。一方、制御装置4は、操作器2から、操作終了情報が入力されたと判定した場合(ステップS108で操作終了情報入力)には、本プログラムを終了する。
なお、本実施の形態1においては、制御装置4は、ステップS102において、仮想ロボット3とカメラ8で撮影した実ロボット1を含む映像情報1Aを表示装置6に表示させる形態を採用したが、これに限定されない。制御装置4は、本プログラムを開始する前、又は本プログラムを開始した直後に、カメラ8で撮影した実ロボット1を含む映像情報1Aを表示装置6に表示させる形態を採用してもよい。
このように構成された、本実施の形態1に係るロボットシステム100では、制御装置4が、操作器2から指示情報が入力されると、実ロボット1を動作させる前に、表示装置6に表示されている仮想ロボット3を動作させる。これにより、操作者は、入力した指示情報を基に実ロボット1が動作した場合に、実ロボット1の動作後の状態を容易に理解することができ、実ロボット1が、作業空間内に配置されている機器等と接触等するか否かを容易に理解することができる。
このため、操作者は、作業空間内に配置されている機器等と接触等しないように、実ロボット1を少しずつ動作させる(操作する)必要がなくなり、操作者の作業負担を軽減することができ、作業効率を向上させることができる。
(実施の形態2)
本実施の形態2に係るロボットシステムは、実施の形態1に係るロボットシステムにおいて、表示装置が、操作者が実世界を視認可能に構成されている、透過型表示装置で構成されている。
また、本実施の形態2に係るロボットシステムでは、表示装置は、操作者に装着可能に構成されていてもよい。
以下、本実施の形態2に係るロボットシステムの一例について、図8~図11を参照しながら説明する。
[ロボットシステムの構成]
図8は、本実施の形態2に係るロボットシステムの概略構成を示すブロック図である。図9は、図8に示すロボットシステムの透過型表示装置の一例を示す模式図である。図10及び図11は、本実施の形態2に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。
図8に示すように、本実施の形態2に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、表示装置6が、操作者が物理的な実世界を視認可能に構成されている、透過型表示装置6Aで構成されている点が異なる。
透過型表示装置6Aは、図9に示すように、制御装置4から出力された映像情報を映すための表示部61を有し、操作者が身に着けて使用するヘッドマウントディスプレイ又はメガネで構成されていてもよい。また、図9に示すように、透過型表示装置6Aには、操作者が視認している実世界の情報を取得するカメラ62が設けられていてもよい。なお、透過型表示装置6Aに設けられているカメラ62が、カメラ8として機能してもよい。
また、図10及び図11に示すように、透過型表示装置6Aの表示部61には、カメラ8が撮影した実ロボット1を含む映像情報1Aと仮想ロボット3が、映像画面30として、表示される。
[ロボットシステムの動作及び作用効果]
まず、図10及び図11に示すように、実ロボット1が配置されている作業空間内には、前方が開放されている容器40が、実ロボット1の基台15の奥に配置されている。また、カメラ8は、作業空間を構成する天井に配設されている。
このような状態において、以下では、本実施の形態2に係るロボットシステム100の動作の具体例として、実ロボット1が保持している板状のワーク20を筐体40内に搬送する動作について、説明する。
なお、以下の動作は、制御装置4の演算部が、メモリ部又は記憶装置5に格納されているプログラムを読み出すことにより実行され、また、制御装置4の演算部が読み出すプログラムの内容は、実施の形態1に係るロボットシステム100と同じであるので、そのフローの説明は省略する。
まず、操作者が、操作器2を操作して、第1関節JT1をその軸心回りに回動させる指示情報(以下、第1指示情報ということもある)を入力したとする。すると、制御装置4は、入力された第1指示情報に従って、仮想ロボット3を動作させるが、図10に示すように、実ロボット1が把持しているワーク20が容器40と衝突してしまう。
このため、操作者は、上記第1指示情報を基に、実ロボット1を実際に動作させると、ワーク20が容器40と衝突することを容易に理解することができる。また、操作者は、ワーク20の容器40との衝突を避けるには、基台15とワーク20の間の(水平方向における)距離が、基台15と容器40との間の(水平方向における)距離よりも、小さくする必要があることを容易に理解することができる。そして、操作者は、基台15とワーク20との距離を小さくするためには、第2関節JT2をその軸心周りに回動させて、第2リンク11bを鉛直方向に略平行となるように動作させる必要があることを容易に理解することができる。
これにより、操作者は、操作器2を操作して、第1関節JT1をその軸心回りに回動させるとともに、第2関節JT2をその軸心周りに回動させる指示情報(以下、第2指示情報ということもある)を制御装置4に入力する。そして、制御装置4が、入力された第2指示情報に従って、仮想ロボット3を動作させると、図11に示すように、実ロボット1が把持しているワーク20が容器40と衝突することなく、容器40の前方に位置することとなる。
この結果により、操作者は、操作器2を操作して、第2指示情報を基に、実ロボット1が動作するように、動作実行情報を制御装置4に入力する。制御装置4は、映像画面30に仮想ロボット3を表示させた状態で、第2指示情報を基に、実ロボット1を動作させる。
このように構成された、本実施の形態2に係るロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
(実施の形態3)
本実施の形態3に係るロボットシステムは、実施の形態1又は2に係るロボットシステムにおいて、カメラが、実ロボットの先端部に配設されている。
以下、本実施の形態3に係るロボットシステムの一例について、図12~図14を参照しながら説明する。
[ロボットシステムの構成]
図12~14は、本実施の形態3に係るロボットシステムにおける透過型表示装置を介して、操作者が視認している視界を示す模式図である。なお、図12~図14においては、仮想ロボット3及び仮想ワーク20を一点鎖線で示し、実ロボット1と仮想ロボット3を見やすくするために、仮想ロボット3を実ロボット1とずれるように表示している。
図12~14に示すように、本実施の形態3に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、カメラ8が実ロボット1の先端部(第6リンク11f)に配設されている点が異なる。
また、本実施の形態3においては、表示装置6として、透過型表示装置6Aを用いている。透過型表示装置6Aとしては、操作者が身に着けて使用するヘッドマウントディスプレイ又はメガネで構成されていてもよく、据え置き型のディスプレイであってもよい。なお、表示装置6として、透過型ではない据え置き型のディスプレイを用いてもよい。
[ロボットシステムの動作及び作用効果]
次に、本実施の形態3に係るロボットシステム100の動作及び作用効果について、図12~図14を参照しながら説明する。
なお、以下の動作は、制御装置4の演算部が、メモリ部又は記憶装置5に格納されているプログラムを読み出すことにより実行されるが、制御装置4の演算部が読み出すプログラムの内容は、実施の形態1に係るロボットシステム100と同じであるので、そのフローの説明は省略する。
また、以下においては、図12~図14に示すように、本実施の形態3に係るロボットシステム100の動作の具体例として、実施の形態1に係るロボットシステム100の動作と同様に、実ロボット1が保持している筒状ワーク20を基台21に設けられている突起部21aに嵌挿させる動作について、説明する。
まず、図12に示すように、透過型表示装置6Aの表示部61には、カメラ8が撮影した実ロボット1のエンドエフェクタ12、ワーク20を含む映像情報1Aと、仮想ロボット3及び仮想ロボット3が把持している仮想ワーク20Aが、映像画面30内に表示されている。なお、図12では、ワーク20が突起部21aの上方に位置していない状態となっている。
操作者は、ワーク20が突起部21aの上方に位置するように、操作器2を操作して、第1関節JT1~JT5をその軸心回りに回動させる指示情報(以下、第3指示情報ということもある)を制御装置4に入力する。そして、制御装置4は、第3指示情報を基に、映像画面30に表示されている仮想ロボット3を動作させる。その結果を示したのが、図13である。
図13に示すように、操作者は、第3指示情報を基に、仮想ロボット3を動作させた結果、仮想ワーク20Aが、仮想突起部210aの上方に位置していることが容易に理解することができる。
このため、操作者は、操作器2を操作して、第3指示情報を基に、実ロボット1が動作するように、動作実行情報を制御装置4に入力する。そして、制御装置4は、図14に示すように、映像画面30に仮想ロボット3を表示させた状態で、第3指示情報を基に、実ロボット1を動作させる。
このように構成された、本実施の形態3に係るロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
(実施の形態4)
本実施の形態4に係るロボットシステムは、実施の形態1~3のいずれかに係るロボットシステムにおいて、操作器は、操作者の手の動きを計測する計測器で構成されていて、制御装置は、計測器により計測された操作者の手の動きに対応するように、仮想ハンドを表示装置に表示させるように構成されている。
以下、本実施の形態4に係るロボットシステムの一例について、図15及び図16を参照しながら説明する。
[ロボットシステムの構成]
図15は、本実施の形態4に係るロボットシステムの概略構成を示すブロック図である。図16は、本実施の形態4に係るロボットシステムにおける表示装置に表示されている映像情報を示す模式図である。
図15に示すように、本実施の形態4に係るロボットシステム100は、実施の形態1に係るロボットシステム100と基本的構成は同じであるが、操作器2が、操作者の手の動きを計測する計測器で構成されている点が異なる。操作者の手の動きを計測する計測器としては、各種のセンサ(例えば、加速度センサ、ジャイロセンサ)が設けられているグローブ(データグローブ)であってもよく、操作者に赤外線センサ等のセンサを取り付けて、当該センサが操作者の手の動きを計測する、Leap Mortion等の機器であってもよい。
また、図16に示すように、本実施の形態4に係るロボットシステム100では、制御装置4が、計測器により計測された操作者の手の動きに対応するように、仮想ハンド7を表示装置6に表示させるように構成されている。これにより、操作者は、仮想ハンド7により、仮想ロボット3を保持して、動かす(ダイレクトティーチする)ことができる。
このように構成された、本実施の形態4に係るロボットシステム100であっても、実施の形態1に係るロボットシステム100と同様の作用効果を奏する。
上記説明から、当業者にとっては、本発明の多くの改良又は他の実施形態が明らかである。従って、上記説明は、例示としてのみ解釈されるべきであり、本発明を実行する最良の態様を当業者に教示する目的で提供されたものである。本発明の精神を逸脱することなく、その構造及び/又は機能の詳細を実質的に変更できる。
本発明のロボットシステム及びその運転方法によれば、操作者の負担を軽減して、作業効率を向上させることができるため、ロボットの分野において有用である。
1 実ロボット
1A 映像情報
2 操作器
3 仮想ロボット
4 制御装置
5 記憶装置
6 表示装置
6A 透過型表示装置
8 カメラ
11a 第1リンク
11b 第2リンク
11c 第3リンク
11d 第4リンク
11e 第5リンク
11f 第6リンク
12 エンドエフェクタ
15 基台
20 ワーク
20A 仮想ワーク
21 基台
21a 突起部
30 映像画面
40 容器
51 タスクプログラム
52 動作シーケンス情報
61 表示部
62 カメラ
100 ロボットシステム
210a 仮想突起部
JT1 第1関節
JT2 第2関節
JT3 第3関節
JT4 第4関節
JT5 第5関節
JT6 第6関節

Claims (12)

  1. 操作者からの操作指示を受け付け、前記操作者の手の動きを計測する計測器で構成されている操作器と、
    作業空間内に設置され、複数の工程からなる一連の作業を行う実ロボットと、
    前記実ロボットを撮影するように構成されているカメラと、
    前記カメラが撮影した前記実ロボットの映像情報と仮想ロボットを表示するように構成されている表示装置と、
    制御装置と、を備え、
    前記制御装置は、前記カメラが撮影した前記実ロボットの映像情報と前記仮想ロボットを前記表示装置に表示させた状態で、前記操作器から入力された指示情報を基に、前記表示装置に表示されている前記仮想ロボットを動作させ、前記計測器により計測された前記操作者の手の動きに対応するように、仮想ハンドを前記表示装置に表示させ、その後、前記操作器から前記実ロボットの動作を実行させる動作実行情報が入力されると、前記表示装置に前記仮想ロボットを表示させた状態で、前記実ロボットを動作させるように構成されている、ロボットシステム。
  2. 前記制御装置は、前記仮想ロボットと前記カメラで撮影した前記実ロボットの映像情報とが重なるように、前記表示装置に表示させ、前記操作器から前記指示情報が入力されると、当該指示情報を基に、前記仮想ロボットを動作させるように構成されている、請求項1に記載のロボットシステム。
  3. 前記カメラは、前記実ロボットの先端部に配設されている、請求項1又は2に記載のロボットシステム。
  4. 前記操作器は、携帯端末、タッチパネル、マスターアーム、ティーチングペンダント、ジョイスティック、及び音声入力器のうち、少なくともいずれか1つの機器で構成されている、請求項1~3のいずれか1項に記載のロボットシステム。
  5. 前記表示装置は、前記操作者が実世界を視認可能に構成されている、透過型表示装置で構成されている、請求項1~4のいずれか1項に記載のロボットシステム。
  6. 前記表示装置は、前記操作者に装着可能に構成されている、請求項5に記載のロボットシステム。
  7. ロボットシステムの運転方法であって、
    前記ロボットシステムは、
    操作者からの操作指示を受け付け、前記操作者の手の動きを計測する計測器で構成されている操作器と、
    作業空間内に設置され、複数の工程からなる一連の作業を行う実ロボットと、
    前記実ロボットを撮影するように構成されているカメラと、
    前記カメラが撮影した前記実ロボットの映像情報と仮想ロボットを表示するように構成されている表示装置と、を備え、
    前記表示装置が、前記カメラが撮影した前記実ロボットの映像情報と前記仮想ロボットを表示する(A)と、
    前記表示装置が、前記(A)の後に、前記操作器から入力された指示情報を基に、前記仮想ロボットの動作を表示する(B)と、
    前記(B)の後に、前記操作器から前記実ロボットの動作を実行させる動作実行情報が入力されると、前記表示装置が、前記仮想ロボットを表示した状態で、前記実ロボットが、前記操作器から入力された指示情報を基に動作する(C)と、を備え
    前記(B)において、前記表示装置は、前記計測器により計測された前記操作者の手の動きに対応するように、仮想ハンドを表示して、前記仮想ロボットの動作を表示する、ロボットシステムの運転方法。
  8. 前記(A)において、前記表示装置は、前記仮想ロボットを前記実ロボットの映像情報と重なるように表示している、請求項7に記載のロボットシステムの運転方法。
  9. 前記カメラは、前記実ロボットの先端部に配設されている、請求項7又は8に記載のロボットシステムの運転方法。
  10. 前記操作器は、携帯端末、タッチパネル、マスターアーム、ティーチングペンダント、ジョイスティック、及び音声入力器のうち、少なくともいずれか1つの機器で構成されている、請求項7~9のいずれか1項に記載のロボットシステムの運転方法。
  11. 前記表示装置は、前記操作者が実世界を視認可能に構成されている、透過型表示装置で構成されている、請求項7~10のいずれか1項に記載のロボットシステムの運転方法。
  12. 前記表示装置は、前記操作者に装着可能に構成されている、請求項11に記載のロボットシステムの運転方法。
JP2017167120A 2017-08-31 2017-08-31 ロボットシステム及びその運転方法 Active JP7066357B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017167120A JP7066357B2 (ja) 2017-08-31 2017-08-31 ロボットシステム及びその運転方法
PCT/JP2018/031570 WO2019044766A1 (ja) 2017-08-31 2018-08-27 ロボットシステム及びその運転方法
CN201880056401.5A CN111093903B (zh) 2017-08-31 2018-08-27 机器人系统及其运行方法
US16/643,767 US11370105B2 (en) 2017-08-31 2018-08-27 Robot system and method for operating same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017167120A JP7066357B2 (ja) 2017-08-31 2017-08-31 ロボットシステム及びその運転方法

Publications (2)

Publication Number Publication Date
JP2019042843A JP2019042843A (ja) 2019-03-22
JP7066357B2 true JP7066357B2 (ja) 2022-05-13

Family

ID=65524987

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017167120A Active JP7066357B2 (ja) 2017-08-31 2017-08-31 ロボットシステム及びその運転方法

Country Status (4)

Country Link
US (1) US11370105B2 (ja)
JP (1) JP7066357B2 (ja)
CN (1) CN111093903B (ja)
WO (1) WO2019044766A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6787966B2 (ja) * 2018-10-02 2020-11-18 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置及び表示装置
US11762369B2 (en) * 2019-02-06 2023-09-19 Sensory Robotics, Inc. Robotic control via a virtual world simulation
JP7333197B2 (ja) * 2019-05-28 2023-08-24 川崎重工業株式会社 制御システム、機械装置システム及び制御方法
JP7339776B2 (ja) * 2019-05-28 2023-09-06 川崎重工業株式会社 制御システム、機械装置システム及び制御方法
JP7339806B2 (ja) * 2019-08-05 2023-09-06 川崎重工業株式会社 制御システム、ロボットシステム及び制御方法
JP7386451B2 (ja) 2019-10-03 2023-11-27 株式会社豆蔵 教示システム、教示方法及び教示プログラム
JP7396872B2 (ja) 2019-11-22 2023-12-12 ファナック株式会社 拡張現実を用いたシミュレーション装置及びロボットシステム
DE102020201375B3 (de) * 2020-02-05 2021-06-24 Magna Steyr Fahrzeugtechnik Ag & Co Kg Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters
JP7462046B2 (ja) 2020-07-02 2024-04-04 川崎重工業株式会社 ロボットシステム
CN116922387B (zh) * 2023-07-31 2024-02-20 重庆越千创新科技有限公司 一种摄影机器人的实时控制方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016140958A (ja) 2015-02-03 2016-08-08 キヤノン株式会社 オフライン教示装置、オフライン教示方法及びロボットシステム
US20160257000A1 (en) 2015-03-04 2016-09-08 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
JP2016218534A (ja) 2015-05-15 2016-12-22 国立大学法人九州大学 画像表示システムおよび画像表示方法
JP2016221659A (ja) 2015-06-03 2016-12-28 キヤノン株式会社 ロボットシステム、ロボットシステムの制御方法、プログラム、記録媒体及び物品の製造方法
WO2017098713A1 (ja) 2015-12-07 2017-06-15 川崎重工業株式会社 ロボットシステム及びその運転方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3990262B2 (ja) * 2002-12-02 2007-10-10 ファナック株式会社 産業用ロボット
JP3805302B2 (ja) * 2002-12-13 2006-08-02 ファナック株式会社 ワーク取出し装置
CN101587329A (zh) * 2009-06-18 2009-11-25 北京理工大学 机器人预测的方法和系统
JP5218524B2 (ja) * 2010-03-15 2013-06-26 株式会社安川電機 ロボットシステムおよびロボット動作規制方法
JP2012218120A (ja) * 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
JP2016107379A (ja) 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
GB201504787D0 (en) * 2015-03-20 2015-05-06 Cambridge Medical Robotics Ltd User interface for a robot
US10076840B2 (en) * 2015-04-03 2018-09-18 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
US10932874B2 (en) * 2015-08-25 2021-03-02 Kawasaki Jukogyo Kabushiki Kaisha Remote control robot system
JP6420229B2 (ja) * 2015-12-10 2018-11-07 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
CN106060058A (zh) * 2016-06-16 2016-10-26 华南理工大学 基于互联网的工业机器人远程控制方法
EP3338969A3 (en) * 2016-12-22 2018-07-25 Seiko Epson Corporation Control apparatus, robot and robot system
CN108214486A (zh) * 2016-12-22 2018-06-29 精工爱普生株式会社 控制装置、机器人及机器人系统
JP6880982B2 (ja) * 2017-04-21 2021-06-02 セイコーエプソン株式会社 制御装置およびロボットシステム
US10933533B2 (en) * 2017-06-23 2021-03-02 Kindred Systems Inc. Systems, devices, articles, and methods for stow verification
JP7071070B2 (ja) * 2017-08-02 2022-05-18 川崎重工業株式会社 ロボットシステム及びその運転方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016140958A (ja) 2015-02-03 2016-08-08 キヤノン株式会社 オフライン教示装置、オフライン教示方法及びロボットシステム
US20160257000A1 (en) 2015-03-04 2016-09-08 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
JP2016218534A (ja) 2015-05-15 2016-12-22 国立大学法人九州大学 画像表示システムおよび画像表示方法
JP2016221659A (ja) 2015-06-03 2016-12-28 キヤノン株式会社 ロボットシステム、ロボットシステムの制御方法、プログラム、記録媒体及び物品の製造方法
WO2017098713A1 (ja) 2015-12-07 2017-06-15 川崎重工業株式会社 ロボットシステム及びその運転方法

Also Published As

Publication number Publication date
WO2019044766A1 (ja) 2019-03-07
CN111093903A (zh) 2020-05-01
JP2019042843A (ja) 2019-03-22
CN111093903B (zh) 2023-06-13
US20210154826A1 (en) 2021-05-27
US11370105B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
JP7066357B2 (ja) ロボットシステム及びその運転方法
EP3342561B1 (en) Remote control robot system
EP3239793B1 (en) Method for generating robot operation program, and device for generating robot operation program
US20150151431A1 (en) Robot simulator, robot teaching device, and robot teaching method
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
JP7071070B2 (ja) ロボットシステム及びその運転方法
US9958862B2 (en) Intuitive motion coordinate system for controlling an industrial robot
US20160346921A1 (en) Portable apparatus for controlling robot and method thereof
CN110505947B (zh) 机器人系统及其运行方法
CN114905487B (zh) 示教装置、示教方法以及记录介质
US10315305B2 (en) Robot control apparatus which displays operation program including state of additional axis
JP2018144228A (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
JP6905651B1 (ja) ロボットシステム及びワークの3次元モデルの形成方法
CN114683288B (zh) 机器人展示和控制方法、装置及电子设备
KR101474778B1 (ko) 다관절 로봇의 동작인식을 통한 제어장치 및 그 방법
JP7462046B2 (ja) ロボットシステム
JP7395990B2 (ja) 教示装置、制御方法および教示プログラム
JP2022122728A (ja) 教示装置、教示方法および教示プログラム
JP2023017440A (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210729

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220202

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220202

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220214

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220427

R150 Certificate of patent or registration of utility model

Ref document number: 7066357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150