JP5664629B2 - ロボットシステムおよび加工品の製造方法 - Google Patents

ロボットシステムおよび加工品の製造方法 Download PDF

Info

Publication number
JP5664629B2
JP5664629B2 JP2012232332A JP2012232332A JP5664629B2 JP 5664629 B2 JP5664629 B2 JP 5664629B2 JP 2012232332 A JP2012232332 A JP 2012232332A JP 2012232332 A JP2012232332 A JP 2012232332A JP 5664629 B2 JP5664629 B2 JP 5664629B2
Authority
JP
Japan
Prior art keywords
workpiece
input
processing
processing position
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012232332A
Other languages
English (en)
Other versions
JP2014083610A (ja
Inventor
義光 中原
義光 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2012232332A priority Critical patent/JP5664629B2/ja
Priority to EP13188699.6A priority patent/EP2722138A2/en
Priority to US14/054,827 priority patent/US20140114459A1/en
Priority to CN201310489327.5A priority patent/CN103770112A/zh
Publication of JP2014083610A publication Critical patent/JP2014083610A/ja
Application granted granted Critical
Publication of JP5664629B2 publication Critical patent/JP5664629B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller

Description

この発明は、ロボットシステムおよび加工品の製造方法に関する。
従来、エンドエフェクタ(ツール)が取り付けられるロボットアームを備えるロボットシステムが知られている(たとえば、特許文献1参照)。上記特許文献1には、ロボットアームと、ロボットアームに取り付けられるエンドエフェクタと、エンドエフェクタに取り付けられる把持部とを備えるロボットシステムが開示されている。このロボットシステムは、ユーザがエンドエフェクタに取り付けられた把持部を把持してエンドエフェクタ(ロボットアーム)を移動させることにより、ロボットシステムに所望の動作を直接教示するように構成されている。
特開2009−214257号公報
しかしながら、上記特許文献1に記載のロボットシステムでは、ユーザがロボットシステムの近傍に移動し、エンドエフェクタの把持部を把持してエンドエフェクタ(ロボットアーム)を移動させる必要があるため、ロボットシステムに対する所望の動作の教示が煩雑(複雑)であるという問題点がある。
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、所望の動作の教示を容易に行うことが可能なロボットシステムおよび加工品の製造方法を提供することである。
上記目的を達成するために、第1の局面によるロボットシステムは、ワークに対して処理を行うためのツールが取り付けられるロボットアームと、ロボットアームを操作するためのコントローラと、ワークを撮像するための撮像部と、撮像部によって撮像されたワークの画像を表示する表示部と、表示部に表示されたワークの画像に基づいてワークへ処理を行なう位置である加工処理位置とワークの輪郭とを特定して入力する際の入力を受け付けるとともに、入力されたワークの加工処理位置を通過して、入力されたワークの輪郭から特定されるワークの端部までワークを加工処理する場合を受け付け可能に構成されている入力受付部とを備え、ワークには、予め加工処理位置を表す加工処理位置標識が設けられており、コントローラは、表示部の画面に表示されているワークの加工処理位置標識の画像に沿って画面上で点状または線状にユーザにより入力されたワークの加工処理位置とワークの輪郭とに基づいてロボットアームを操作することにより、ワークを加工処理する制御を行うように構成されている。
この第1の局面によるロボットシステムでは、上記のように、ワークの画像に基づいてワークへ処理を行なう位置である加工処理位置を特定して入力する際の入力を受け付ける入力受付部を設けるとともに、コントローラを、入力受付部によって受け付けられたワークの加工処理位置に基づいてロボットアームを操作することによりワークを加工処理する制御を行うように構成する。これにより、ユーザがロボットシステムの近傍に移動しロボットアームを把持して移動させることにより所望の動作を直接教示する場合と異なり、ユーザは、所望の動作の教示のためにロボットアームを移動させる必要がなく、ワークの加工処理位置を入力受付部に入力するだけで所望の動作の教示を容易に行うことができる。
第2の局面による加工品の製造方法は、撮像部によりワークを撮像する工程と、撮像部によって撮像されたワークの画像に基づいて、表示部の画面に表示されている予めワークに設けられたワークの加工処理位置標識の画像に沿って画面上で点状または線状にユーザにより入力されるワークへ処理を行なう位置である加工処理位置とワークの輪郭との入力を受け付けるとともに、入力されたワークの加工処理位置を通過して、入力されたワークの輪郭から特定されるワークの端部までワークを加工処理する場合を受け付け可能にする工程と、受け付けられたワークの加工処理位置に基づいてロボットアームを操作することにより、ワークを加工処理する工程とを備える。
この第2の局面による加工品の製造方法では、撮像部によって撮像されたワークの画像に基づいてワークへ処理を行なう位置である加工処理位置の入力を受け付ける工程と、受け付けられたワークの加工処理位置に基づいてロボットアームを操作することにより、ワークを加工処理する工程とを備える。これにより、ユーザがロボットシステムの近傍に移動しロボットアームを把持して移動させることにより所望の動作を直接教示する場合と異なり、所望の動作の教示のためにロボットアームを移動させる必要がなく、ワークの加工処理位置を入力受付部に入力するだけで所望の動作の教示を容易に行うことが可能な加工品の製造方法を提供することができる。
上記のように構成することによって、所望の動作の教示を容易に行うことができる。
第1実施形態によるロボットシステムの全体図である。 第1実施形態によるロボットシステムのロボットの全体図である。 第1実施形態によるロボットシステムのハンドブラケットに取り付けられるツールを一方側から見た図である。 図3のハンドブラケットに取り付けられるツールを他方側から見た図である。 第1実施形態によるロボットシステムの距離測定部を示す図である。 第1実施形態によるロボットシステムのブロック図である。 第1実施形態によるロボットシステムのPC(パーソナルコンピュータ)の表示部を示す図である。 図7のPCの表示部の画面上においてワークの輪郭が入力されている状態を示す図である。 図7のPCの表示部の画面上においてワークの加工処理位置が入力されている状態を示す図である。 第1実施形態によるロボットシステムの距離測定部によって測定されたワークまでの距離に基づいてツールの姿勢を調整する動作を説明するための図である。 図10のツールを上方から見た図である。 第1実施形態によるロボットシステムのツールによってワークが加工処理されている状態を示す図である。 第1実施形態によるロボットシステムのコントローラの動作を説明するためのフロー図である。 第1実施形態によるロボットシステムの撮像部の取り付け動作を説明するための図である。 第1実施形態によるロボットシステムの撮像部によるワークの撮像動作を説明するための図である。 本発明の第2実施形態によるロボットシステムの撮像部によるワークの撮像動作を側方から見た図である。 本発明の第2実施形態によるロボットシステムの撮像部によるワークの撮像動作を上方から見た図である。
以下、本実施形態を図面に基づいて説明する。
(第1実施形態)
まず、図1および図2を参照して、第1実施形態によるロボットシステム100の構成について説明する。
図1に示すように、ロボットシステム100は、ロボット1と、ロボットコントローラ2と、パーソナルコンピュータ(PC)3とを備えている。また、ロボット1の近傍には、後述する撮像部15を載置するための台部4が設けられている。また、ロボット1の近傍には、ワークベット200上に載置されたワーク201が配置されている。また、ワーク201は、たとえば金属板からなり、上方(矢印Z1方向)に反るように、曲面状に形成されている。また、ワーク201には、予め加工処理位置(研磨位置)を表す複数の白線202が設けられている。なお、ロボットコントローラ2は、「コントローラ」の一例である。また、PC3は、「入力受付部」の一例である。また、白線202は、「加工処理位置標識」の一例である。
図2に示すように、ロボット1は、垂直多関節ロボットからなる。このロボット1は、ロボット本体11と、ロボット本体11の先端に取り付けられワーク201を加工するためのツール18とを含む。また、ロボット本体11は、基台12およびロボットアーム13(アーム部13a〜13f)を有している。基台12は、設置面に固定されておりアーム部13aが基台12に対して回転軸A1まわりに回転可能に連結されている。アーム部13bは、回転軸A1と略直交する回転軸A2まわりに回転可能に連結されている。アーム部13cは、回転軸A2と略平行な回転軸A3まわりに回転可能に連結されている。アーム部13dは、回転軸A3と略直交する回転軸A4まわりに回転可能に連結されている。アーム部13eは、回転軸A4と略直交する回転軸A5まわりに回転可能に連結されている。アーム部13fは、回転軸A5と略直交する回転軸A6まわりに回転可能に連結されている。アーム部13a〜13fには、各回転軸A1〜A6のそれぞれに対応してサーボモータおよび減速機を有するアクチュエータ(図示せず)が内蔵されている。各サーボモータは、ロボットコントローラ2に接続されており、ロボットコントローラ2からの動作指令に基づいて動作制御されるよう構成されている。
また、図3および図4に示すように、最も先端側のアーム部13fには、ハンドブラケット14が取り付けられている。ハンドブラケット14の先端には、ツール18が取り付けられている。ツール18は、円柱形状を有するとともに、ハンドブラケット14に挿入された状態でハンドブラケット14の先端側に取り付けられている。なお、ツール18は、たとえば、ワーク201の表面のバリ(余分な部分)を取り除く研磨装置からなる。
また、ハンドブラケット14には、撮像部15が取り付けられている。撮像部15は、たとえば、CCD(CMOS)カメラなどの2次元画像を撮像するカメラからなる。なお、撮像部15は、PC3に接続されており(図6参照)、撮像部15によって撮像された画像のデータは、PC3に取り込まれるように構成されている。ここで、第1実施形態では、撮像部15は、ハンドブラケット14(ロボットアーム13)に着脱可能に取り付けられている。そして、撮像部15によりワーク201を撮像した後、ツール18によりワーク201を加工処理(研磨)する前に、撮像部15をハンドブラケット14から取り外す動作を行うようにロボットコントローラ2によりロボットアーム13が操作されるように構成されている。撮像部15は、たとえば、図示しない自動工具交換装置(Auto Tool Changer:A.T.C.)によってハンドブラケット14に着脱可能に取り付けられている。また、ハンドブラケット14には、ワーク201に光を照射するための照明部16が取り付けられている。
また、第1実施形態では、ハンドブラケット14には、平面視において、ツール18を取り囲むように(図11参照)、ワーク201までの距離を測定するための複数(第1実施形態では3つ)の距離測定部17(距離測定部17a、17bおよび17c)が設けられている。3つの距離測定部17は、平面視において、ハンドブラケット14の先端側に取り付けられるツール18の外側の位置に、略等角度間隔(120度間隔)で配置されている。また、距離測定部17は、たとえば下方(矢印Z2方向)に向かってレーザ光を出射することによりワーク201までの距離を測定するセンサからなる。また、図5に示すように、距離測定部17は、本体部171と、本体部171を覆うように設けられ外部から空気が供給されるカバー部172とを含むように構成されている。外部から供給される空気によって距離測定部17の本体部171の近傍のチリ等の異物が除去されることにより、ワーク201までの距離を正確に測定することが可能となる。
また、図6に示すように、ロボットコントローラ2には、制御部21と記憶部22とが設けられている。また、ロボット1、PC3、照明部16および3つの距離測定部17は、ロボットコントローラ2に接続されている。また、PC3は、表示部31およびマウス32を有する。なお、マウス32は、「入力部」の一例である。
ここで、第1実施形態では、図7に示すように、PC3の表示部31は、撮像部15によって撮像されたワーク201の画像が表示されるように構成されている。PC3は、ワーク201の画像が表示された表示部31の画面上において、ワーク201の輪郭の入力を受け付け可能に構成されている。なお、ワーク201の輪郭の入力は、ユーザ(作業者)300により行われる。具体的には、図8に示すように、表示部31の画面に表示された曲面状のワーク201の2次元の画像上にポインタ33を合わせた状態で、マウス32をクリックすることにより、ワーク201の輪郭が入力されるように構成されている。また、表示部31の画面に表示されているワーク201の輪郭に沿ってマウス32をクリックすることにより、ワーク201の輪郭が画面上で点状(点A)に入力される。
また、第1実施形態では、PC3は、ワーク201の画像に基づいて(ワーク201の画像が表示された表示部31の画面上において)、ワーク201へ処理を行なう位置である加工処理位置(研磨位置)を特定して入力する際の入力を受け付けるように構成されている。なお、ワーク201の加工処理位置の入力は、ユーザ(作業者)300により行われる。具体的には、図9に示すように、表示部31の画面に表示された曲面状のワーク201の2次元の画像上にポインタ33を合わせた状態で、マウス32(図6参照)をクリックすることにより、ワーク201の加工処理位置(研磨位置)が入力されるように構成されている。なお、ワーク201には、予め加工処理位置(研磨位置)を表す複数の白線202が設けられており、表示部31の画面に表示されているワーク201の加工処理位置を表す白線202の画像に沿ってマウス32をクリックすることにより、ワーク201の加工処理位置が画面上で点状(点B)に入力される。なお、後述するように、点状に入力された加工処理位置を通過するようにロボットアーム13が操作されることにより、ワーク201が加工処理される。すなわち、加工処理線L1〜L4に沿ってロボットアーム13が移動するように操作される。
また、第1実施形態では、PC3は、点状に入力されたワーク201の加工処理位置(研磨位置)を通過して、入力されたワーク201の輪郭から特定されるワーク201の端部までワーク201を加工処理する場合(図9の加工処理線L1)と、ワーク201の端部までは加工処理せずに、点状に入力されたワーク201の加工処理位置の間を加工処理する場合(図9の加工処理線L2、L3)との選択を、たとえばアイコン34をマウス32(ポインタ33)によって操作することにより受け付け可能に構成されている。すなわち、加工処理線L1では、入力された加工処理位置(点B)は、加工処理線L1の実線上のみである一方、加工処理線L1の全て(実線部分と点線部分との両方)において、加工処理が行われる。また、加工処理線L2およびL3では、入力された加工処理位置(点B)の間のみ加工処理が行われる。なお、点状に入力されたワーク201の加工処理位置が、ワーク201の輪郭(端部)からはみ出している場合(図9の加工処理線L4)は、ワーク201の加工処理はワーク201の輪郭(端部)まで行われるようにロボットコントローラ2により操作されるように構成されている。
また、ワーク201の加工処理がワーク201の端部から行われるように設定された場合(たとえば図9の加工処理線L2)、図9の点線で示されるツール18のように、ツール18の端部がワーク201の輪郭(端部)に接する位置(つまり、ツール18がワーク201からはみ出さない位置)から加工処理が行われるようにロボットコントローラ2により操作されるように構成されている。また、PC3は、点状に入力されたワーク201の加工処理位置の間(点Bと点Bとの間)の加工処理速度(ツール18の移動速度)の入力も受け付け可能に構成されている。また、PC3は、ワーク201の加工処理位置(点B)の上でツール18を所定時間停止する動作の入力も受け付け可能に構成されている。
ここで、第1実施形態では、ロボットコントローラ2は、PC3によって受け付けられたワーク201の加工処理位置(研磨位置)に基づいてロボットアーム13を操作することにより、ワーク201を加工処理(研磨)する制御を行うように構成されている。具体的には、ロボットコントローラ2は、点状に入力された加工処理位置を通過するように(加工処理線L1〜L4に沿って移動するように)ロボットアーム13を操作することにより、ワーク201を加工処理する制御を行うように構成されている。
また、第1実施形態では、ロボットコントローラ2は、表示部31の画面に表示された曲面状のワーク201の2次元の画像上においてPC3によって受け付けられたワーク201の加工処理位置、および、3つの距離測定部17により測定されたワーク201までの距離に基づいて、ロボットアーム13を3次元的に操作することにより、ワーク201を加工処理する制御を行うように構成されている。また、ロボットコントローラ2は、3つの距離測定部17により測定された曲面状のワーク201までの距離がそれぞれ略等しくなるようにロボットアーム13を操作することにより、ワーク201に対するツール18の姿勢を3次元的に調整するように構成されている。
次に、図10および図11を参照して、ワーク201に対するツール18の姿勢の3次元的な調整について説明する。
図10および図11に示すように、3つの距離測定部17のうちの1つの距離測定部17aにより測定されたワーク201までの距離(Z方向の距離)が、所望の距離に略等しくなるようにロボットアーム13を操作することにより、ツール18のZ方向の位置(高さ)が調整される。また、距離測定部17aおよび距離測定部17bにより測定されたワーク201までの距離が略等しくなるように、ワーク201に対するツール18の姿勢が調整されることにより、ツール18のRx軸に対する姿勢が調整される。また、距離測定部17bおよび距離測定部17cにより測定されたワーク201までの距離が略等しくなるように、ワーク201に対するツール18の姿勢が調整されることにより、ツール18のRy軸に対する姿勢が調整される。これにより、図12に示すように、ツール18のワーク201側の面と、ワーク201のツール18側の面とが、略平行な状態で対向する。
次に、図7〜図15を参照して、加工処理位置の入力、および、ツール18による加工処理を行う際のロボットシステム100のロボットコントローラ2(PC3)の制御動作について説明する。
まず、図13に示すように、ステップS1において、ロボットアーム13が、撮像部15が載置されている台部4(図14参照)の近傍まで移動されるとともに、ロボットアーム13のハンドブラケット14に撮像部15が取り付けられるように操作される。次に、ステップS2において、図15に示すように、ロボットアーム13がワーク201の上方の予め定められた1つの撮像位置に移動されるとともに、この1つの撮像位置において撮像部15によりワーク201の全体が撮像される。なお、ワーク201は、曲面状に形成されている一方、撮像されたワーク201の画像は、2次元の画像であり、2次元のワーク201の画像が、PC3の表示部31(図7参照)に表示される。次に、ステップS3において、ロボットアーム13のハンドブラケット14に取り付けられた撮像部15が取り外されて台部4に載置される。
次に、ステップS4において、図8に示すように、PC3の表示部31の画面に表示された曲面状のワーク201の2次元の画像上にポインタ33を合わせた状態で、マウス32がクリックされることにより、点状のワーク201の輪郭の入力が受け付けられる。
次に、ステップS5において、図9に示すように、表示部31の画面に表示された曲面状のワーク201の2次元の画像上にポインタ33を合わせた状態で、マウス32(図6参照)がクリックされることにより、点状のワーク201の加工処理位置(研磨位置)の入力が受け付けられる。また、ワーク201の加工処理位置の入力は、表示部31の画面に表示されているワーク201の加工処理位置を表す白線202の画像に沿ってマウス32をクリックすることにより行われる。また、点状に入力されたワーク201の加工処理位置を通過して、入力されたワーク201の輪郭から特定されるワーク201の端部までワーク201を加工処理する場合(たとえば図9の加工処理線L1)と、ワーク201の端部までは加工処理せずに、点状に入力されたワーク201の加工処理位置の間を加工処理する場合(図9の加工処理線L2、L3)との選択が、たとえば画面上のアイコン34をマウス32(ポインタ33)によって選択することにより受け付けられる。また、点状に入力されたワーク201の加工処理位置の間の加工処理速度(ツール18の移動速度)や、ワーク201の加工処理位置の上でツール18を所定時間停止させる動作の入力が、必要に応じて受け付けられる。
次に、ステップS6において、受け付けられたワーク201の加工処理位置(研磨位置)に基づいて、ロボットアーム13がワーク201の近傍に移動される。この際、図10および図11に示すように、3つの距離測定部17により測定された曲面状のワーク201までの距離がそれぞれ略等しくなるようにロボットアーム13を操作することにより、ワーク201に対するツール18の姿勢が3次元的に調整される。そして、ステップS7において、点状に入力された加工処理位置(加工処理線L1〜L4)を通過するようにロボットアーム13を操作することにより、ツール18によるワーク201の加工処理(研磨)が行われる。これにより、ワーク201の加工処理(研磨)が終了される。
第1実施形態では、上記のように、ワーク201の画像が表示された表示部31の画面上において、ワーク201の加工処理位置を特定して入力する際の入力を受け付けるPC3を設けるとともに、ロボットコントローラ2を、PC3によって受け付けられたワーク201の加工処理位置に基づいてロボットアーム13を操作することによりワーク201を加工処理する制御を行うように構成する。これにより、ユーザ300がロボットシステム100の近傍に移動しロボットアーム13を把持して移動させることにより所望の動作を直接教示する場合と異なり、ユーザ300は、所望の動作の教示のためにロボットアーム13を移動させる必要がなく、ワーク201の加工処理位置をPC3に入力するだけで所望の動作の教示を容易に行うことができる。
また、第1実施形態では、上記のように、PC3は、表示部31の画面に表示されたワーク201の画像上において、点状にワーク201の加工処理位置の入力を受け付けるように構成されており、ロボットコントローラ2を、点状に入力された加工処理位置を通過するようにロボットアーム13を操作することにより、ワーク201を加工処理する制御を行うように構成する。これにより、ワーク201の加工処理位置を線状になぞるように入力する場合と異なり、容易に、ワーク201の加工処理位置の入力を行うことができる。
また、第1実施形態では、上記のように、ワーク201には、予め加工処理位置を表す白線202が設けられており、ロボットコントローラ2を、表示部31の画面に表示されているワーク201の白線202の画像に沿って画面上で点状に入力されたワーク201の加工処理位置に基づいて、ロボットアーム13を操作することにより、ワーク201を加工処理する制御を行うように構成する。これにより、ワーク201の加工処理位置が白線202により容易に認識されるので、より容易にワーク201の加工処理位置の入力を行うことができる。
また、第1実施形態では、上記のように、PC3を、表示部31の画面に表示された曲面状のワーク201の2次元の画像上において、ワーク201の加工処理位置の入力を受け付けるように構成する。また、ロボットコントローラ2を、PC3によって受け付けられたワーク201の加工処理位置、および、複数の距離測定部17により測定されたワーク201までの距離に基づいて、ロボットアーム13を3次元的に操作することにより、ワーク201を加工処理する制御を行うように構成する。これにより、2次元の画像上において受け付けられた加工処理位置(2次元の加工処理位置)に基づいて、3次元的にロボットアーム13を操作することができるので、ユーザ300が3次元的に加工処理位置を入力する場合と異なり、ワーク201の加工処理位置の入力をさらに容易に行うことができる。
また、第1実施形態では、上記のように、ロボットコントローラ2を、複数の距離測定部17により測定された曲面状のワーク201までの距離がそれぞれ略等しくなるようにロボットアーム13を操作することにより、曲面状のワーク201に対するツール18の姿勢を3次元的に調整するように構成する。これにより、ロボットアーム13が移動している間、曲面状のワーク201のツール18側の面と、ツール18のワーク201側の面とを所定の距離に維持した状態(略平行な状態)で対向させることができるので、ツール18によるワーク201の加工処理(研磨)を効果的に行うことができる。
また、第1実施形態では、上記のように、ワーク201の加工処理位置を、表示部31の画面に表示されたワーク201の画像上にポインタ33を合わせた状態でマウス32をクリックすることにより入力するようにPC3を構成する。これにより、ユーザ300が表示部31の画面を見ながら、容易にワーク201の加工処理位置の入力を行うことができる。
また、第1実施形態では、上記のように、PC3を、ワーク201の画像が表示された表示部31の画面上において、ワーク201の輪郭の入力を受け付け可能に構成する。これにより、ワーク201の端部が認識されるので、ワーク201の端部を超えてツール18が加工処理を行うのを抑制することができる。
また、第1実施形態では、上記のように、PC3を、点状に入力されたワーク201の加工処理位置を通過して、入力されたワーク201の輪郭から特定されるワーク201の端部までワーク201を加工処理する場合と、ワーク201の端部までは加工処理せずに、点状に入力されたワーク201の加工処理位置の間を加工処理する場合との選択を受け付け可能に構成する。これにより、ワーク201の端部までワーク201を加工処理する場合でも、ワーク201の端部までワーク201の加工処理位置を特定する必要がないので、ワーク201の加工処理位置の入力の手間を省くことができる。また、PC3を、ワーク201の端部までは加工処理せずに、点状に入力されたワーク201の加工処理位置の間を加工処理する場合の選択を受け付け可能に構成することにより、ワーク201の加工処理位置を超えて加工処理が行われるのを確実に抑制することができる。
また、第1実施形態では、上記のように、撮像部15を、ロボットアーム13に着脱可能に取り付けて、ロボットコントローラ2を、撮像部15によりワーク201を撮像した後、ツール18によりワーク201を加工処理する前に、撮像部15をロボットアーム13から取り外す動作を行うようにロボットアーム13を操作するように構成する。これにより、ワーク201を加工処理する際には、撮像部15がロボットアーム13から取り外されているので、ワーク201の加工処理を行う際に生じるチリなどによって撮像部15が汚れることに起因して、ワーク201の撮像の精度が悪くなるのを抑制することができる。
(第2実施形態)
次に、図16および図17を参照して、第2実施形態について説明する。この第2実施形態では、1つの撮像位置において撮像部15によりワーク201の全体が撮像された上記第1実施形態と異なり、ワーク201が複数の撮像位置において撮像部15により撮像される場合について説明する。
図16および図17に示すように、第2実施形態では、ロボットコントローラ2は、ロボットアーム13を操作することにより、ワーク201を複数の撮像位置において撮像部15により撮像するとともに、複数の撮像位置において撮像された複数の分割画像を1つの画像に結合するように構成されている。たとえば、第2実施形態では、X方向に沿ってワーク201を10個所の撮像位置において撮像部15により撮像するとともに、Y方向に沿ってワーク201を10個所の撮像位置において撮像部15により撮像する。図16および図17では、第1の位置で撮像部15によりワーク201を撮像(点線)した後、ロボットアーム13を矢印X1方向に移動させて、第2の位置で撮像部15によりワーク201を撮像(実線)している様子を示している。すなわち、10行10列のマトリクス状にワーク201が撮像される。これにより、100枚(=10×10)の分割画像が撮像されて、ロボットコントローラ2は、100枚の分割画像を1つの画像に結合する。
また、ワーク201は、所定の高さ位置(たとえば、ワークベット200の表面から高さhの位置)において、複数(100個所)の撮像位置で撮像部15により撮像される。そして、上記第1実施形態と同様に、PC3は、表示部31に表示された結合された1つのワーク201の画像(図7参照)に基づいて、ワーク201へ処理を行なう位置である加工処理位置を特定して入力する際の入力を受け付けるように構成されている。なお、第2実施形態のその他の構成および動作は、上記第1実施形態と同様である。
第2実施形態では、上記のように、ロボットアーム13を操作することにより、ワーク201を複数の撮像位置において撮像部15により撮像するとともに、複数の撮像位置において撮像された複数の分割画像を1つの画像に結合するようにロボットコントローラ2を構成する。ここで、1つの撮像位置(たとえばワーク201の中心の上方の位置)において撮像部15によりワーク201の全体を撮像した場合、撮像部15の直下近傍では、撮像された画像上の加工処理位置(研磨位置)を表す白線202の位置と、実際の白線202の位置(座標)とは略同じになる。一方、撮像部15の直下から離れた位置(ワーク201の端部近傍)では、撮像された画像上の白線202の位置と、実際の白線202の位置(座標)とがずれる場合がある。そこで、ワーク201を複数の撮像位置において撮像部15により撮像するとともに、複数の撮像位置において撮像された複数の分割画像を1つの画像に結合するようにロボットコントローラ2を構成することにより、ワーク201の全ての部分が撮像部15の直下近傍において撮像されるので、撮像された画像上の白線202の位置と、実際の白線202の位置(座標)とがずれるのを抑制することができる。これにより、ワーク201に対するツール18の加工処理を精度よく行うことができる。
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれる。
たとえば、上記第1および第2実施形態では、ワークに対して処理を行うためのツールがワークに研磨処理する研磨装置からなる例を示したが、ワークに対する処理は研磨に限られない。例えば、ツールをワークの加工処置位置を加熱処理するための加熱装置としてもよい。ワークに対しての局所的な加熱を行う処理では、通常、ワークを加熱する位置などがワークの状態や作業時の環境に応じて人間の作業者による経験的な調整が必要となるため、ロボットの動作教示を頻繁に行う必要があり、本発明が有効である。また、ツールを、予め定められた軌跡に沿って処理を行う溶接(溶接トーチ)や切断等を行うツールとしてもよい。
また、上記第1および第2実施形態では、ワークの加工処理位置が点状に入力される例を示したが、たとえば、ユーザが、PCの表示部に表示されたワークの画像の画面上をなぞるように入力操作を行うことにより、ワークの加工処理位置が線状に入力されるように構成してもよい。
また、上記第1および第2実施形態では、ワークに加工処理位置を表す白線(加工処理位置標識)が設けられる例を示したが、ワークに加工処理位置を表すための白線以外の色の線や点、一定の範囲を表す円などを設けてもよい。
また、上記第1および第2実施形態では、ワークの表面に予め加工処理位置を表す白線が設けられている例を示したが、加工処理位置を表す白線が設けられていないワークの画像の画面上において、ユーザがワークの加工処理位置を特定して入力してもよい。
また、上記第1および第2実施形態では、3つの距離測定部が設けられている例を示したが、2つの距離測定部を設けてもよいし、4つ以上の距離測定部を設けてもよい。
また、上記第1および第2実施形態では、ユーザが、PCの表示部に表示されたワークの画像の画面上にポインタを合わせてマウスをクリックすることにより、ワークの加工処理位置が入力される例を示したが、タッチパネル式の表示部にワークの画像を表示して、ユーザがタッチパネル式の表示部の画面をタッチすることにより、ワークの加工処理位置が入力されるように構成してもよい。
また、上記第1および第2実施形態では、ワークが上方に反るように、曲面状に形成されている例を示したが、ワークが凹凸状に形成されていてもよい。
また、上記第2実施形態では、X方向に沿ってワークを10個所の撮像位置において撮像部により撮像するとともに、Y方向に沿ってワークを10個所の撮像位置において撮像部により撮像する例を示したが、たとえばX方向およびY方向に沿って10個所以外の複数の撮像位置において撮像部によりワークを撮像してもよい。
2 ロボットコントローラ(コントローラ)
3 パーソナルコンピュータ(PC)(入力受付部)
13 ロボットアーム
15 撮像部
17、17a、17b、17c 距離測定部
18 ツール
31 表示部
32 マウス(入力部)
33 ポインタ
100 ロボットシステム
201 ワーク
202 白線(加工処理位置標識)

Claims (9)

  1. ワークに対して処理を行うためのツールが取り付けられるロボットアームと、
    前記ロボットアームを操作するためのコントローラと、
    前記ワークを撮像するための撮像部と、
    前記撮像部によって撮像された前記ワークの画像を表示する表示部と、
    前記表示部に表示された前記ワークの画像に基づいて前記ワークへ処理を行なう位置である加工処理位置とワークの輪郭とを特定して入力する際の入力を受け付けるとともに、入力された前記ワークの加工処理位置を通過して、前記入力されたワークの輪郭から特定される前記ワークの端部まで前記ワークを加工処理する場合を受け付け可能に構成されている入力受付部とを備え、
    前記ワークには、予め加工処理位置を表す加工処理位置標識が設けられており、
    前記コントローラは、前記表示部の画面に表示されている前記ワークの加工処理位置標識の画像に沿って画面上で点状または線状にユーザにより入力された前記ワークの加工処理位置と前記ワークの輪郭とに基づいて前記ロボットアームを操作することにより、前記ワークを加工処理する制御を行うように構成されている、ロボットシステム。
  2. 前記入力受付部は、前記表示部の画面に表示された前記ワークの画像上において、点状または線状に前記ワークの加工処理位置の入力を受け付けるように構成されており、
    前記コントローラは、点状または線状に入力された加工処理位置を通過するように前記ロボットアームを操作することにより、前記ワークを加工処理する制御を行うように構成されている、請求項1に記載のロボットシステム。
  3. 前記ワークまでの距離を測定するための複数の距離測定部をさらに備え、
    前記ワークは、曲面状または凹凸状に形成されており、
    前記入力受付部は、前記表示部の画面に表示された前記曲面状または凹凸状のワークの2次元の画像上において、前記ワークの加工処理位置の入力を受け付けるとともに、
    前記コントローラは、前記入力受付部によって受け付けられた前記ワークの加工処理位置、および、前記複数の距離測定部により測定された前記ワークまでの距離に基づいて、前記ロボットアームを3次元的に操作することにより、前記ワークを加工処理する制御を行うように構成されている、請求項1または2に記載のロボットシステム。
  4. 前記コントローラは、前記複数の距離測定部により測定された前記曲面状または凹凸状のワークまでの距離がそれぞれ略等しくなるように前記ロボットアームを操作することにより、前記ワークに対する前記ツールの姿勢を3次元的に調整するように構成されている、請求項3に記載のロボットシステム。
  5. 前記入力受付部は、前記表示部とは別個に設けられ、前記ワークの加工処理位置を特定して入力するための入力部を含み、
    前記ワークの加工処理位置は、前記入力部を用いて、前記表示部の画面に表示された前記ワークの画像上にポインタを合わせた状態で入力操作を行うことにより入力されるように構成されている、請求項1〜4のいずれか1項に記載のロボットシステム。
  6. 前記入力受付部は、点状に入力された前記ワークの加工処理位置を通過して、前記入力されたワークの輪郭から特定される前記ワークの端部まで前記ワークを加工処理する場合と、前記ワークの端部までは加工処理せずに、前記点状に入力された前記ワークの加工処理位置の間を加工処理する場合との選択を受け付け可能に構成されている、請求項1〜5のいずれか1項に記載のロボットシステム。
  7. 前記撮像部は、前記ロボットアームに着脱可能に取り付けられており、
    前記コントローラは、前記撮像部により前記ワークを撮像した後、前記ツールにより前記ワークを加工処理する前に、前記撮像部を前記ロボットアームから取り外す動作を行うように前記ロボットアームを操作するように構成されている、請求項1〜のいずれか1項に記載のロボットシステム。
  8. 前記コントローラは、前記ロボットアームを操作することにより、前記ワークを複数の撮像位置において前記撮像部により撮像するとともに、前記複数の撮像位置において撮像された複数の分割画像を1つの画像に結合するように構成されており、
    前記入力受付部は、前記表示部に表示された前記結合された1つのワークの画像に基づいて前記ワークへ処理を行なう位置である加工処理位置を特定して入力する際の入力を受け付けるように構成されている、請求項1〜のいずれか1項に記載のロボットシステム。
  9. 撮像部によりワークを撮像する工程と、
    前記撮像部によって撮像された前記ワークの画像に基づいて、表示部の画面に表示されている予め前記ワークに設けられた前記ワークの加工処理位置標識の画像に沿って画面上で点状または線状にユーザにより入力される前記ワークへ処理を行なう位置である加工処理位置とワークの輪郭との入力を受け付けるとともに、入力された前記ワークの加工処理位置を通過して、前記入力されたワークの輪郭から特定される前記ワークの端部まで前記ワークを加工処理する場合を受け付け可能にする工程と、
    受け付けられた前記ワークの加工処理位置に基づいて前記ロボットアームを操作することにより、前記ワークを加工処理する工程とを備える、加工品の製造方法。
JP2012232332A 2012-10-19 2012-10-19 ロボットシステムおよび加工品の製造方法 Active JP5664629B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012232332A JP5664629B2 (ja) 2012-10-19 2012-10-19 ロボットシステムおよび加工品の製造方法
EP13188699.6A EP2722138A2 (en) 2012-10-19 2013-10-15 Robot system and processed product producing method
US14/054,827 US20140114459A1 (en) 2012-10-19 2013-10-16 Robot system and processed product producing method
CN201310489327.5A CN103770112A (zh) 2012-10-19 2013-10-18 机器人系统及加工件的制造方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012232332A JP5664629B2 (ja) 2012-10-19 2012-10-19 ロボットシステムおよび加工品の製造方法

Publications (2)

Publication Number Publication Date
JP2014083610A JP2014083610A (ja) 2014-05-12
JP5664629B2 true JP5664629B2 (ja) 2015-02-04

Family

ID=49354562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012232332A Active JP5664629B2 (ja) 2012-10-19 2012-10-19 ロボットシステムおよび加工品の製造方法

Country Status (4)

Country Link
US (1) US20140114459A1 (ja)
EP (1) EP2722138A2 (ja)
JP (1) JP5664629B2 (ja)
CN (1) CN103770112A (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5382053B2 (ja) * 2011-04-15 2014-01-08 株式会社安川電機 ロボットシステムおよびロボットシステムを用いた検査方法
JP5778311B1 (ja) 2014-05-08 2015-09-16 東芝機械株式会社 ピッキング装置およびピッキング方法
JP6292092B2 (ja) * 2014-09-09 2018-03-14 株式会社安川電機 塗布装置、塗布ロボットおよび塗布方法
CN105290926A (zh) * 2014-12-16 2016-02-03 电子科技大学 叶片智能磨削柔性制造系统
CN104858712B (zh) * 2015-04-10 2017-09-22 深圳市圆梦精密技术研究院 曲面零件的加工方法及曲面零件的加工设备
JP6657600B2 (ja) * 2015-06-01 2020-03-04 セイコーエプソン株式会社 ロボットシステム、及び非常停止処理装置
CN105058205B (zh) * 2015-08-31 2017-11-28 温州金石机器人科技有限公司 用于安装研磨带的自动研磨装置
WO2017037931A1 (ja) * 2015-09-03 2017-03-09 株式会社安川電機 処理軌跡編集装置、ロボット、物品処理システム、及び物品製造方法
JP6333795B2 (ja) * 2015-11-24 2018-05-30 ファナック株式会社 学習による教示作業の簡易化及び動作性能向上機能を備えたロボットシステム
CN105599241B (zh) * 2016-01-13 2017-12-08 重庆世纪精信实业(集团)有限公司 基于图像识别技术的机械手自动对准方法及装置
CN106041948B (zh) * 2016-06-13 2018-08-21 哈尔滨工大智慧工厂有限公司 一种运用视觉检测的机器人去毛刺系统及去毛刺方法
CN106181699A (zh) * 2016-07-21 2016-12-07 广东意戈力智能装备有限公司 一种柔性抛光打磨系统
DE102016221734A1 (de) * 2016-11-07 2018-05-09 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Verfahren zur Feinausrichtung von Roboterwerkzeugen
EP3338969A3 (en) * 2016-12-22 2018-07-25 Seiko Epson Corporation Control apparatus, robot and robot system
JP6472472B2 (ja) * 2017-03-08 2019-02-20 本田技研工業株式会社 位置姿勢調整方法
US10307908B2 (en) 2017-04-07 2019-06-04 X Development Llc Methods and systems for establishing and maintaining a pre-build relationship
JP6637928B2 (ja) * 2017-06-21 2020-01-29 株式会社大気社 自動研磨システム
CN107866717A (zh) * 2017-11-09 2018-04-03 四川工程职业技术学院 一种水轮机叶片自动打磨系统
JP6713015B2 (ja) * 2018-04-13 2020-06-24 株式会社大気社 自動研磨システム
DE102018113122A1 (de) * 2018-06-01 2019-12-05 Mack Rides Gmbh & Co Kg Verfahren zum Facettieren sowie Vorrichtung für ein solches Verfahren
JP7237482B2 (ja) * 2018-07-18 2023-03-13 藤森工業株式会社 エンドエフェクタ取付冶具
GB2589418A (en) * 2019-08-09 2021-06-02 Quantum Leap Tech Limited Fabric maintenance system and method of use
JP6903777B1 (ja) * 2020-01-24 2021-07-14 株式会社大気社 自動ティーチングシステム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6311290A (ja) * 1986-06-30 1988-01-18 株式会社東芝 三次元位置設定装置
JP2708032B2 (ja) * 1995-12-26 1998-02-04 日本電気株式会社 ロボット教示装置
JPH09222913A (ja) * 1996-02-20 1997-08-26 Komatsu Ltd ロボットの教示位置補正装置
JPH10264060A (ja) * 1997-03-27 1998-10-06 Trinity Ind Corp 塗装ロボットのティーチング装置
US5959425A (en) * 1998-10-15 1999-09-28 Fanuc Robotics North America, Inc. Vision guided automatic robotic path teaching method
JP3515023B2 (ja) * 1999-08-25 2004-04-05 太 森山 測定方法および測定装置
JP2002172575A (ja) * 2000-12-07 2002-06-18 Fanuc Ltd 教示装置
JP2003203216A (ja) * 2002-01-08 2003-07-18 Mitsutoyo Corp 画像測定装置用パートプログラム生成装置及び画像測定装置用パートプログラム生成用プログラム
JP4578056B2 (ja) * 2003-02-06 2010-11-10 株式会社ダイヘン 作業ロボットを用いた制御システムによるワーク加工方法
JP4167954B2 (ja) * 2003-09-02 2008-10-22 ファナック株式会社 ロボット及びロボット移動方法
JP2006247677A (ja) * 2005-03-09 2006-09-21 Fanuc Ltd レーザ溶接教示装置及び方法
JP2006255826A (ja) * 2005-03-16 2006-09-28 Toguchi Seisakusho:Kk 計測ヘッド及び工作機械
US20070075048A1 (en) * 2005-09-30 2007-04-05 Nachi-Fujikoshi Corp. Welding teaching point correction system and calibration method
JP2009214257A (ja) 2008-03-12 2009-09-24 Toyota Motor Corp ロボット教示方法
WO2010091086A1 (en) * 2009-02-03 2010-08-12 Fanuc Robotics America, Inc. Method of controlling a robotic tool
JP2011140077A (ja) * 2010-01-06 2011-07-21 Honda Motor Co Ltd 加工システム及び加工方法
JP4837116B2 (ja) * 2010-03-05 2011-12-14 ファナック株式会社 視覚センサを備えたロボットシステム
JP2011255473A (ja) * 2010-06-10 2011-12-22 Kobe Steel Ltd 溶接マニピュレータ教示装置
JP5382053B2 (ja) * 2011-04-15 2014-01-08 株式会社安川電機 ロボットシステムおよびロボットシステムを用いた検査方法
JP2012223839A (ja) * 2011-04-15 2012-11-15 Yaskawa Electric Corp ロボットシステムおよびロボットシステムの駆動方法
JP5561260B2 (ja) * 2011-09-15 2014-07-30 株式会社安川電機 ロボットシステム及び撮像方法
JP5854815B2 (ja) * 2011-12-20 2016-02-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5975685B2 (ja) * 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法

Also Published As

Publication number Publication date
US20140114459A1 (en) 2014-04-24
EP2722138A2 (en) 2014-04-23
CN103770112A (zh) 2014-05-07
JP2014083610A (ja) 2014-05-12

Similar Documents

Publication Publication Date Title
JP5664629B2 (ja) ロボットシステムおよび加工品の製造方法
JP5815761B2 (ja) 視覚センサのデータ作成システム及び検出シミュレーションシステム
JP4347386B2 (ja) 加工用ロボットプラグラムの作成装置
JP4763074B2 (ja) ロボットのツール先端点の位置の計測装置および計測方法
JP3946711B2 (ja) ロボットシステム
US8310539B2 (en) Calibration method and calibration device
WO2014020739A1 (ja) 多関節型ロボットを備えた作業機および電気部品装着機
JP6869159B2 (ja) ロボットシステム
WO2012057280A1 (ja) 工具寸法の測定方法及び測定装置、並びに工作機械
KR101013749B1 (ko) 비젼시스템을 구비한 씨엔씨 공작기계
JP2016187846A (ja) ロボット、ロボット制御装置およびロボットシステム
CN113056351A (zh) 外部输入设备、机器人系统、机器人系统的控制方法、控制程序及记录介质
JP2006048244A (ja) 加工プログラム作成装置
JP2020078833A (ja) 撮影装置及び工作機械
JPWO2018092236A1 (ja) 作業ロボットおよび作業位置補正方法
JP2018001332A (ja) ロボット、制御装置、及びロボットシステム
JP2008105119A (ja) 研削盤による研削加工方法及び研削盤
JP7057841B2 (ja) ロボット制御システム及びロボット制御方法
JP2015100874A (ja) ロボットシステム
JP2017164829A (ja) ワーク加工装置及び加工位置補正方法
JP2009214289A (ja) 倣い研削方法及びその装置
WO2018100620A1 (ja) 情報処理装置及び情報処理方法
WO2022181500A1 (ja) 視覚センサの出力から得られる3次元位置情報を用いるシミュレーション装置
JP4460119B2 (ja) 曲げ加工方法及び曲げ加工システム
JP2017074637A (ja) ツールセンターポイント推定方法、ツールセンターポイント推定装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141124

R150 Certificate of patent or registration of utility model

Ref document number: 5664629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150