JP2018202569A - ワークの動画に基づいて教示点を設定するロボットの教示装置 - Google Patents

ワークの動画に基づいて教示点を設定するロボットの教示装置 Download PDF

Info

Publication number
JP2018202569A
JP2018202569A JP2017112707A JP2017112707A JP2018202569A JP 2018202569 A JP2018202569 A JP 2018202569A JP 2017112707 A JP2017112707 A JP 2017112707A JP 2017112707 A JP2017112707 A JP 2017112707A JP 2018202569 A JP2018202569 A JP 2018202569A
Authority
JP
Japan
Prior art keywords
teaching
workpiece
robot
moving image
door
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017112707A
Other languages
English (en)
Other versions
JP6457587B2 (ja
Inventor
達也 近江
Tatsuya Omi
達也 近江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2017112707A priority Critical patent/JP6457587B2/ja
Priority to DE102018004326.7A priority patent/DE102018004326B4/de
Priority to US15/993,779 priority patent/US10532460B2/en
Priority to CN201810577061.2A priority patent/CN108994819B/zh
Publication of JP2018202569A publication Critical patent/JP2018202569A/ja
Application granted granted Critical
Publication of JP6457587B2 publication Critical patent/JP6457587B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/425Teaching successive positions by numerical control, i.e. commands being entered to control the positioning servo of the tool head or end effector
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36494Record position and inclination of tool, wrist
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/03Teaching system
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/31Gripping jaw
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】ワークを把持して動かすロボットにおいて、教示点を容易に設定できるロボットの教示装置を提供する。【解決手段】教示装置10は、ワークが動く動画を作成する動画生成部11と、動画に表示されるワークにおいて、ハンド2が把持する把持位置を検出する位置検出部12と、教示点を設定する教示点設定部13とを備える。位置検出部12は、動画生成部11がワークの動画を動かした時に、ワークにおける把持位置を検出する。教示点設定部13は、ワークにおける把持位置に基づいて教示点を設定する。【選択図】図1

Description

本発明は、ワークの動画に基づいて教示点を設定するロボットの教示装置に関する。
ロボットは、予め作成された動作プログラムに従って駆動するように制御される。動作プログラムは、作業者が指定した教示点に基づいて生成することができる。作業者は、実際のロボットを手動で動かして教示点を設定することができる。たとえば、作業者は、教示操作盤を操作してロボットを所望の位置および姿勢にする。このときのロボットのツール先端点の位置を教示点として制御装置に記憶させることができる。
または、計算機にワークおよびロボットのモデルを入力して、画面上にてロボットの教示点を設定する方法が知られている(例えば、特開平6−134684号公報および特開2004−265041号公報)。このようなオフラインによる教示点の設定方法では、実際のロボットを動かさなくても教示点を設定することができる。そして、計算機は、教示点が設定された後に、ツール中心点が教示点または教示点の近傍を通るようにロボットの動作プログラムを作成することができる。
また、ロボットのオフラインによる教示においては、作成したロボットの動作プログラムにてロボットを動かした時に異常が発生しないか否かをアニメーションにて確認することが知られている(例えば、特開2001−105359号公報および特開昭62−274404号公報)。
特開平6−134684号公報 特開2004−265041号公報 特開2001−105359号公報 特開昭62−274404号公報
従来の技術によるオフラインの教示方法では、ロボットの動作に応じてロボットの教示点を1個ずつ設定する必要がある。このために、ロボットの教示点の設定には時間がかかるという問題があった。また、ワークを把持するハンドが変更になった場合には、ワークにおけるハンドの把持位置が変更になる。このために、ハンドを変更した場合には、始めから教示点の設定を行う必要がある。
本開示の一態様のロボットの教示装置は、ワークを把持して動かすロボットの教示点を設定する。ロボットの教示装置は、ワークが動く3次元の動画を作成する動画生成部を備える。ロボットの教示装置は、動画に表示されるワークにおいて、ロボットに取り付けられるハンドが把持する把持位置を検出する位置検出部と、教示点を設定する教示点設定部とを備える。ワークにおける把持位置と教示点との関係が予め定められている。位置検出部は、動画生成部がワークの動画を動かした時に、ワークにおける把持位置を検出する。教示点設定部は、把持位置に基づいて教示点を設定する。
本開示の一態様のロボットの教示装置は、ワークを把持して動かすロボットにおいて、教示点を容易に設定することができる。
実施の形態におけるロボットシステムのブロック図である。 教示装置の表示部に表示される第1の画像である。 実施の形態における教示点を設定する制御のフローチャートである。 教示装置の表示部に表示される車体の動画を説明する第2の画像である。 把持位置の移動を説明するドアの拡大斜視図である。 教示装置の表示部に表示される第3の画像である。 教示装置の表示部に表示される他のロボット装置の画像である。
図1から図7を参照して、実施の形態におけるロボットの教示装置について説明する。本実施の形態のロボット装置は、ワークを把持してワークを動かすように形成されている。また、本実施の形態の教示装置は、オフラインにてロボットの教示点を設定する。
図1に、本実施の形態におけるロボットシステムのブロック図を示す。本実施の形態のロボット装置は、ワークを把持するハンド2と、ハンド2を移動するロボット1とを備える。本実施の形態のロボット1は、複数の関節部を有する多関節ロボットである。ロボット1は、アームおよび手首部を駆動するモータを有するロボット駆動装置1aを含む。ロボット1としては、この形態に限られず、ハンド2を移動可能な任意のロボットを採用することができる。
ハンド2は、ワークを把持するように形成されている。本実施の形態のハンド2は、吸着によりワークを把持する。ハンド2は、ハンド2を駆動するポンプ等を有するハンド駆動装置2aを含む。ハンド2としては、ワークを把持できる任意の作業ツールを採用することができる。たとえば、ハンド2としては、複数の指部を含み、複数の指部にてワークを挟持するハンド、または、ワークに形成された穴部に係合するフックを含むハンド等を採用することができる。
ロボット装置は、ロボット制御装置3を備える。ロボット制御装置3は、CPU(Central Processing Unit)と、バスを介してCPUに接続されたRAM(Random Access Memory)およびROM(Read Only Memory)とを有する演算処理装置(計算機)を含む。ロボット制御装置3には、ロボット1の動作を行うための動作プログラムが入力される。ロボット制御装置3は、動作プログラム等を記憶する記憶部3bを有する。ロボット制御装置3は、動作プログラムに基づいてロボット1およびハンド2を駆動するための動作指令を送出する動作制御部3aを有する。動作制御部3aは、ロボット駆動装置1aおよびハンド駆動装置2aを駆動する動作指令を送出する。ロボット駆動装置1aおよびハンド駆動装置2aは、動作指令に従って駆動する。
本実施の形態のロボットシステムは、ロボット1の教示点を設定する教示装置10を備える。本実施の形態の教示装置10は、教示点を設定する機能と、作成された教示点に基づいてロボット1の動作プログラムを生成する機能とを有する。
教示装置10は、CPU、RAM、およびROM等を含む演算処理装置(計算機)を含む。教示装置10は、教示点の設定および動作プログラムに関する情報を記憶する記憶部17を備える。教示装置10は、作業者が任意の情報を入力する入力部15を備える。入力部15は、キーボードまたはマウス等を含むことができる。入力部15は、作業者のキーボード等の操作により情報を取得可能に形成されている。また、入力部15は、外部の装置から通信装置を介して情報を取得可能に形成されていても構わない。教示装置10は、教示点の設定に関する情報または動作プログラム等を表示する表示部16を含む。表示部16は、例えば、液晶表示パネルなどの任意の表示パネルを含むことができる。
本実施の形態の教示装置10は、ワークおよびロボット1が動く動画を作成する動画生成部11を備える。教示装置10は、動画に表示されるワークにおいて、ハンド2が把持する把持位置を検出する位置検出部12を備える。位置検出部12は、動画生成部11がワークの動画を動かした時に、ワークにおける把持位置を検出する。また、教示装置10は、ワークにおける把持位置に基づいて教示点を設定する教示点設定部13を備える。
図2に、教示装置の表示部に表示される第1の画像を示す。ここでは、ワークとして自動車の車体8を例示する。図1および図2を参照して、表示部16の画面には、画像31が表示されている。画像31には、補助線33に加えて、車体8、ロボット1、およびハンド2が含まれる。ロボット装置は、車体8のドア9を開く作業を実施する。ドア9は、回転軸8aの周りに回動可能である。本実施の形態のドア9は、動作が予め定められている。すなわち、ドア9上の予め定められた点の移動軌道が決まっている。
本実施の形態のハンド2は、吸着によりドア9の端部を把持する。ロボット1が位置および姿勢を変更することにより、ハンド2が矢印91に示す方向に移動して、ドア9を開くことができる。本実施の形態の教示装置10は、このようなドア9を開く時のロボット1の教示点を設定する。
図3に、教示装置が教示点を設定する制御のフローチャートを示す。図1から図3を参照して、作業者は、予め教示装置10にドア9を含む車体8の3次元モデル21を入力する。また、作業者は、予めロボット1およびハンド2の3次元モデル21を入力する。3次元モデルとしては、例えば、CAD(Computer Aided Design)装置にて生成される形状の3次元データを用いることができる。または、教示装置10は、3次元カメラにて実際の車体8等を撮像することにより、立体的な3次元モデルを取得しても構わない。または、教示装置10は、CAD装置等で形成された複数の2次元の図面データを用いて、教示装置10の内部で3次元モデルを形成していても構わない。記憶部17は、入力された3次元モデル21を記憶する。
図4に、車体のドアが動作する時の動画を説明する第2の画像を示す。動画生成部11は、車体8の画像34を表示する。この時には、ロボット1の画像は表示されていない状態である。作業者は、ドア9が閉まっている状態の位置71とドア9が開いている状態の位置72とを指定する。位置71は、ワークの動作が開始する位置である。位置72は、ワークの動作が終了する位置である。この時に、作業者は、ドア9が開く速度に関する情報を入力することができる。例えば、作業者は、ドア9が閉まった状態から開いた状態までの時間を設定することができる。
図3および図4を参照して、ステップ81において、教示装置10の動画生成部11は、ワークが動作する3次元の動画を作成する。動画生成部11は、車体8の3次元モデル21に基づいて、車体8のドア9が動く動画(アニメーション)を作成する。動画生成部11は、任意の3次元アニメーションを作成する方法にて動作を生成することができる。動画生成部11は、例えば、毎秒5コマの動画を生成する。動画生成部11は、位置71から位置72までドア9が開くときの動画を作成する。画像34では、ドア9が閉まった状態から矢印91に示すようにドアが開いた状態まで連続的な状態を動画にて表示することができる。
次に、ステップ82において、作業者は、ドア9におけるハンド2の把持位置を指定する。ドア9が閉じた状態において、作業者がマウスの操作等により把持位置42を画像34において指定する。また、作業者は、ハンド2がドア9を把持する領域である把持領域41を指定する。把持領域41の向きは、ハンド2の姿勢に対応する。把持位置42は、把持領域41の内部に設定することができる。
なお、ワークにおける把持位置42および把持領域41は、教示装置10において作業者により指定される形態に限られず、3次元モデル21に把持位置42の情報および把持領域41の情報が含まれていても構わない。
図5に、位置検出部が把持位置を検出する時のドアの状態を説明する拡大斜視図を示す。図3および図5を参照して、次に、ステップ83において、教示装置10は、教示点の設定を開始する。始めに、ドア9が閉じた初期状態において、位置検出部12は、把持位置42aを検出する。例えば、位置検出部12は、予め定められた座標系において把持位置42aの座標値を検出する。また、把持位置42aの検出には、ワークの向きの検出が含まれる。位置検出部12は、把持位置42aにおけるワークの向きを検出する。ワークの向きとしては、例えば把持領域41の表面の方向を採用することができる。特に、ワークの向きは、把持位置42aにおける把持領域41に垂直な方向を例示することができる。
ドア9における把持位置42aとロボット1の教示点との関係は予め定められている。把持位置42aは、ハンド2のツール中心点の位置に対応する。例えば、把持領域41に垂直な方向に把持位置42aから予め定められた距離にて離れた点を教示点の位置に設定することができる。例えば、教示点設定部13は、予め定められた座標系においてツール中心点の座標値を算出する。また、教示点の設定には、ハンド2の姿勢の設定が含まれる。教示点設定部13は、位置検出部12が検出したワークの向きに基づいてハンド2の姿勢を設定することができる。教示点設定部13は、把持位置42aおよび把持領域41の向きに基づいて、ドア9が閉じた初期状態の教示点を設定することができる。
次に、ステップ84において、動画生成部11は、矢印91に示す方向に向かって、ドア9を動かす。本実施の形態のドア9の動作量は、予め定められた時間間隔にて定められている。動画生成部11は、所定の時間をかけてドア9を開く方向に動かす。
ステップ85において、位置検出部12は、動いた後のドア9の状態に基づいて把持位置42bを検出する。把持位置は、ドア9の動作に基づく移動経路に沿って移動する。教示点設定部13は、把持位置42bに対応する教示点を設定する。
次に、ステップ86において、教示点設定部13は、動画が終了したか否かを判別する。動画が終了していない場合には、制御はステップ84に移行する。そして、ステップ84において、動画生成部11は、予め定められた時間にてドア9を開く。位置検出部12は、動いた後のドア9の状態に基づいて把持位置42cを検出する。ステップ85において、教示点設定部13は、把持位置42cに基づいて、教示点を設定する。
このように、教示装置10は、アニメーションにて所定の区間ごとにドア9を動かしながら、その時の把持位置42に基づいて、把持位置42に対応する教示点を設定することができる。教示点の設定は、動画が終了するまで繰り返される。すなわち、教示点の設定は、ドア9の動作が終了するまで繰り返される。図5においては、ドア9の動作の終了時の把持位置42dに対応する教示点が設定されるまで、教示点の設定が繰り返される。ステップ86において、動画が終了した場合には、この制御を終了する。
このように、本実施の形態の教示装置は、ワークの動画を用いて、複数の教示点を設定することができる。設定された複数の教示点は、記憶部17に記憶される。また、教示点の情報には、ハンド2の姿勢の情報が含まれている。
上記の実施の形態においては、ドア9を動かした時に予め定められた時間幅にて教示点を設定しているが、この形態に限られない。教示点は、任意の間隔にて設定することができる。例えば、ワークが予め定められた距離を動くごとに、教示点を設定しても構わない。
また、上記の実施の形態では、予め定められた間隔ごとに教示点を設定しているが、この形態に限られない。動画生成部11がワークを動かすと共に、位置検出部12は予め定められた間隔ごとにワークにおける把持位置を検出して、記憶部17に記憶させることができる。動画におけるワークの動作が終了した後に、教示点設定部13は、記憶部17に記憶された複数の把持位置の情報に基づいて、複数の教示点を設定しても構わない。
次に、教示装置10の動作プログラム生成部14は、設定された教示点に基づいて動作プログラムを生成する。教示点の情報には、教示点の位置とハンド2の姿勢とが含まれている。動作プログラム生成部14は、教示点の情報に基づいて、ハンド2の位置および姿勢を設定することができる。動作プログラム生成部14は、ハンド2の位置および姿勢に基づいて、ロボット1の位置および姿勢を設定することができる。例えば、動作プログラム生成部14は、逆運動学により、ロボット1の位置および姿勢を算出することができる。動作プログラム生成部14は、ロボットの位置および姿勢に基づいて、動作プログラムを生成することができる。このように、動作プログラム生成部14は、ドア9の動作に応じた動作プログラムを生成することができる。
図6に、教示装置の表示部に表示される第3の画像を示す。図6は、ドアが開いたときのロボットとワークの状態を示す画像32である。教示装置10の動画生成部11は、ドア9の動作に加えて、ロボット1の動作も動画にて表示するように形成されている。ロボット1、ハンド2および車体8が含まれる動画では、図2の画像31から図6の画像32に連続的に変化するように表示される。そして、作業者は、ロボット1の動作およびドア9の開らく動作が正常であるか否かを確認することができる。
このときのロボット1の駆動速度は、始めに作業者が指定したドア9の開く速度に従って定められる。なお、ロボット1の駆動速度が速すぎたり遅すぎたりする場合には、ロボット1の駆動速度を修正しても構わない。
このように、教示装置10は、動作プログラムを生成することができる。教示装置10にて生成された動作プログラムは、ロボット制御装置3に送信される。ロボット制御装置3は、動作プログラムに基づいて、ロボット1およびハンド2を駆動することができる。
本実施の形態における教示装置10では、ドア9に対するハンド2の位置の関係が予め定められている。教示装置10では、画面上でロボット1を動かすのではなく、ワークとしてのドア9を動かす。そして、動画にてドア9が動く時に、教示点を自動的に設定することができる。本実施の形態の教示装置10では、ドア9を開けるという作業者が直感的に分かりやすいワークの動作を設定すれば良い。教示装置10は、ワークの動作に基づいて自動的に教示点を設定する。このために、作業者は、ロボットの複雑な動作を考える必要がなく、容易に教示点を設定することができる。
また、ロボット1のハンド2の種類や大きさを変更した場合には、動作プログラムを変更する必要がある。このような場合において、作業者は、予め入力されたワークの3次元モデルを用いて、ハンドの把持位置および把持領域の設定をすれば、教示装置10が教示点を設定する。作業者が始めから1個ずつ教示点を設定する必要はないために、容易に教示点の設定を行うことができる。
本実施の形態のドア9は、動作が予め定められている。すなわち、車体8のドア9は、回転軸8aの周りに回動する方向に移動することが決まっている。動画生成部11は、動画にて予め定められた方向にワークを動かすとともに、教示点設定部13は、予め定められた間隔ごとに教示点を設定することができる。作業者がワークの動作が開始する状態とワークの動作が終了する状態とを指定すれば、教示装置10がロボットの教示点を生成することができる。作業者は、容易に教示点を定めることができる。
上記の実施の形態においては、ワークは1つの定められた動作を行うが、この形態に限られない。ワークの動作は、予め定められていなくても構わない。本実施の形態の教示装置は、ワークを動かす任意のロボットシステムに採用することができる。
図7に、教示装置の表示部に表示される他のロボット装置の画像を示す。画像35には、ワークを移動するロボット装置が表示いる。ロボット1には、複数の指部4aを有するハンド4が取り付けられている。ロボット1は、ワークとしての箱6を架台7aから架台7bに搬送する。このロボット装置においては、ワークの動作は予め定められておらずに、任意の経路でワークを移動することができる。ここでの例では、ロボット1は、箱6を矢印92に示す移動経路にて搬送する。
作業者は、始めにロボット1の位置および姿勢を気にせずに、画面上で箱6の移動経路および箱6の向きを任意に設定することができる。箱6の移動方法は、作業者が画面上で指定することができる。例えば、作業者は、マウスを使って画面上で箱6を移動することにより、架台7a上の移動開始時の位置から架台7b上の移動終了時の位置まで箱6が移動するときの状態を設定することができる。または、作業者は、座標等により箱6が移動する経路および箱6の向きを指定しても構わない。教示装置10は、箱6の移動経路および箱6の向きに基づいて、箱6が移動する動画を生成する。そして、教示装置10は、箱6の動画に基づいて自動的に教示点を設定することができる。
他の例としては、棚からトレイをロボット装置にて取り出して、所定の場所に移動するロボットシステムに本実施の形態の教示装置を適用することができる。作業者は、ロボットの位置および姿勢を気にせずに、棚からトレイを取り出す時のトレイの移動経路およびトレイの向きを指定すれば良い。この場合も、教示装置は、トレイの移動経路および向きに基づいてトレイが移動する動画を生成する。教示装置は、動画に基づいて教示点を設定することができる。
また、本実施の形態の教示装置は、装置を組み立てる作業を行うロボットシステムに適用することができる。例えば、コンベヤにて搬送された基板に、電子部品を差し込む作業を行うロボットシステムに、本実施の形態の教示装置を適用することができる。作業者は、電子部品の移動経路および電子部品の向きを画面上にて設定する。教示装置は、電子部品が移動する動画を生成し、動画に基づいて教示点を設定することができる。
上記の実施の形態において、位置検出部は、ワークの動画に基づいて予め定められた間隔ごとにワークにおける把持位置を検出しているが、この形態に限られない。例えば、作業者は、ハンドの把持位置を検出する時刻をワークの動画を見ながら画面上で設定しても構わない。
上述のそれぞれの制御においては、機能および作用が変更されない範囲において適宜ステップの順序を変更することができる。
上記の実施の形態は、適宜組み合わせることができる。上述のそれぞれの図において、同一または相等する部分には同一の符号を付している。なお、上記の実施の形態は例示であり発明を限定するものではない。また、実施の形態においては、特許請求の範囲に示される実施の形態の変更が含まれている。
1 ロボット
2,4 ハンド
6 箱
8 車体
9 ドア
10 教示装置
11 動画生成部
12 位置検出部
13 教示点設定部
16 表示部
21 3次元モデル
31,32,34,35 画像
41 把持領域
42,42a,42b,42c,42d 把持位置
71,72 位置

Claims (3)

  1. ワークを把持して動かすロボットの教示点を設定する教示装置であって、
    ワークが動く3次元の動画を作成する動画生成部と、
    動画に表示されるワークにおいて、ロボットに取り付けられるハンドが把持する把持位置を検出する位置検出部と、
    教示点を設定する教示点設定部とを備え、
    ワークにおける前記把持位置と教示点との関係が予め定められており、
    前記位置検出部は、前記動画生成部がワークの動画を動かした時に、ワークにおける前記把持位置を検出し、
    前記教示点設定部は、前記把持位置に基づいて教示点を設定する、ロボットの教示装置。
  2. 前記位置検出部は、ワークの動画に基づいて予め定められた間隔ごとに前記把持位置を検出する、請求項1に記載のロボットの教示装置。
  3. ワークの動作が予め定められており、
    前記動画生成部は、作業者にて設定された動作が開始するワークの位置および動作が終了するワークの位置に基づいてワークの動画を作成する、請求項1または2に記載のロボットの教示装置。
JP2017112707A 2017-06-07 2017-06-07 ワークの動画に基づいて教示点を設定するロボットの教示装置 Active JP6457587B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017112707A JP6457587B2 (ja) 2017-06-07 2017-06-07 ワークの動画に基づいて教示点を設定するロボットの教示装置
DE102018004326.7A DE102018004326B4 (de) 2017-06-07 2018-05-30 Robotereinlernvorrichtung zum Einstellen von Einlernpunkten basierend auf einem Bewegtbild eines Werkstücks
US15/993,779 US10532460B2 (en) 2017-06-07 2018-05-31 Robot teaching device that sets teaching point based on motion image of workpiece
CN201810577061.2A CN108994819B (zh) 2017-06-07 2018-06-01 根据工件的动画设定示教点的机器人的示教装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017112707A JP6457587B2 (ja) 2017-06-07 2017-06-07 ワークの動画に基づいて教示点を設定するロボットの教示装置

Publications (2)

Publication Number Publication Date
JP2018202569A true JP2018202569A (ja) 2018-12-27
JP6457587B2 JP6457587B2 (ja) 2019-01-23

Family

ID=64333401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017112707A Active JP6457587B2 (ja) 2017-06-07 2017-06-07 ワークの動画に基づいて教示点を設定するロボットの教示装置

Country Status (4)

Country Link
US (1) US10532460B2 (ja)
JP (1) JP6457587B2 (ja)
CN (1) CN108994819B (ja)
DE (1) DE102018004326B4 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022224449A1 (ja) * 2021-04-23 2022-10-27 日本電気株式会社 制御装置、制御方法及び記憶媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112018007729B4 (de) * 2018-06-14 2022-09-08 Yamaha Hatsudoki Kabushiki Kaisha Maschinelle Lernvorrichtung und mit dieser ausgestattetes Robotersystem

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05131385A (ja) * 1991-11-08 1993-05-28 Toyota Motor Corp 組立作業用教示点作成装置
JPH09198121A (ja) * 1996-01-19 1997-07-31 Nippon Telegr & Teleph Corp <Ntt> ロボット教示方法
JP2005111618A (ja) * 2003-10-08 2005-04-28 Fanuc Ltd ロボットの手動送り装置

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6134684A (ja) 1984-07-27 1986-02-18 Matsushita Electric Ind Co Ltd 2値情報計数装置
JPS62274404A (ja) * 1986-05-23 1987-11-28 Kobe Steel Ltd ロボツトのオフライン教示システム
JPH06134684A (ja) * 1992-09-22 1994-05-17 Nippon Telegr & Teleph Corp <Ntt> ロボット軌道を教示するための方法
JP3418456B2 (ja) * 1994-06-23 2003-06-23 ファナック株式会社 ロボット位置教示具及びロボット位置教示方法
DE69736348T2 (de) * 1996-10-24 2006-11-30 Fanuc Ltd. Roboterkraftsteuersystem mit visuellem sensor für zusammenfügungsarbeiten
JP3537362B2 (ja) * 1999-10-12 2004-06-14 ファナック株式会社 ロボットシステム用グラフィック表示装置
ATE325394T1 (de) * 2002-09-23 2006-06-15 Hermann Dr-Ing Tropf Erfassen und greifen von gegenst nden
JP3708083B2 (ja) * 2003-02-28 2005-10-19 ファナック株式会社 ロボット教示装置
JP3733364B2 (ja) * 2003-11-18 2006-01-11 ファナック株式会社 教示位置修正方法
JP4041837B2 (ja) * 2004-07-13 2008-02-06 松下電器産業株式会社 物品保持システム、ロボット及びロボット制御方法
JP2006099474A (ja) * 2004-09-29 2006-04-13 Fanuc Ltd ロボットの軌跡制御方法
JP2007061983A (ja) 2005-09-01 2007-03-15 Fanuc Ltd ロボット監視システム
US8054289B2 (en) * 2006-12-01 2011-11-08 Mimic Technologies, Inc. Methods, apparatus, and article for force feedback based on tension control and tracking through cables
JP2008296330A (ja) * 2007-05-31 2008-12-11 Fanuc Ltd ロボットシミュレーション装置
JP4835616B2 (ja) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
JP5436460B2 (ja) * 2009-02-12 2014-03-05 三菱電機株式会社 産業用ロボットシステム
CN102414696A (zh) * 2009-04-23 2012-04-11 皇家飞利浦电子股份有限公司 物体学习机器人和方法
US8843236B2 (en) * 2012-03-15 2014-09-23 GM Global Technology Operations LLC Method and system for training a robot using human-assisted task demonstration
US9098913B2 (en) * 2012-05-11 2015-08-04 Cornell University Prediction of successful grasps by end of arm tooling
JP5426719B2 (ja) * 2012-05-18 2014-02-26 ファナック株式会社 ロボットシステムの動作シミュレーション装置
US9393686B1 (en) * 2013-03-15 2016-07-19 Industrial Perception, Inc. Moveable apparatuses having robotic manipulators and conveyors to facilitate object movement
US9962835B2 (en) * 2013-12-17 2018-05-08 Syddansk Universitet Device for dynamic switching of robot control points
US9815191B2 (en) * 2014-02-20 2017-11-14 Mbl Limited Methods and systems for food preparation in a robotic cooking kitchen
JP5860081B2 (ja) 2014-02-27 2016-02-16 ファナック株式会社 ロボットの動作経路を生成するロボットシミュレーション装置
WO2015153739A1 (en) * 2014-04-01 2015-10-08 University Of South Florida Systems and methods for planning a robot grasp based upon a demonstrated grasp
WO2015164421A1 (en) * 2014-04-21 2015-10-29 The Trustees Of Columbia University In The City Of New York Human movement research, therapeutic, and diagnostic devices, methods, and systems
US9727161B2 (en) * 2014-06-12 2017-08-08 Microsoft Technology Licensing, Llc Sensor correlation for pen and touch-sensitive computing device interaction
US9870083B2 (en) * 2014-06-12 2018-01-16 Microsoft Technology Licensing, Llc Multi-device multi-user sensor correlation for pen and computing device interaction
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US10334158B2 (en) * 2014-11-03 2019-06-25 Robert John Gove Autonomous media capturing
JP6088583B2 (ja) 2015-06-08 2017-03-01 ファナック株式会社 ロボットと力の表示機能を備えたロボット制御装置
US10899001B2 (en) * 2015-12-03 2021-01-26 Abb Schweiz Ag Method for teaching an industrial robot to pick parts
US20170252002A1 (en) * 2016-03-07 2017-09-07 Toshiba Medical Systems Corporation Ultrasonic diagnostic apparatus and ultrasonic diagnosis support apparatus
US9990685B2 (en) * 2016-03-21 2018-06-05 Recognition Robotics, Inc. Automated guidance system and method for a coordinated movement machine
CN106182020A (zh) 2016-07-13 2016-12-07 上海航天控制技术研究所 一种基于同步机器人的机器人操作示教系统及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05131385A (ja) * 1991-11-08 1993-05-28 Toyota Motor Corp 組立作業用教示点作成装置
JPH09198121A (ja) * 1996-01-19 1997-07-31 Nippon Telegr & Teleph Corp <Ntt> ロボット教示方法
JP2005111618A (ja) * 2003-10-08 2005-04-28 Fanuc Ltd ロボットの手動送り装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022224449A1 (ja) * 2021-04-23 2022-10-27 日本電気株式会社 制御装置、制御方法及び記憶媒体

Also Published As

Publication number Publication date
DE102018004326B4 (de) 2020-10-01
DE102018004326A1 (de) 2018-12-13
US10532460B2 (en) 2020-01-14
JP6457587B2 (ja) 2019-01-23
CN108994819B (zh) 2019-11-15
CN108994819A (zh) 2018-12-14
US20180354124A1 (en) 2018-12-13

Similar Documents

Publication Publication Date Title
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP6683671B2 (ja) ジョグ座標系を設定するロボットの制御装置
JP6788593B2 (ja) マニピュレータシステム
JP7490349B2 (ja) 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体
JP4759660B2 (ja) ロボットアーム制御用の装置、方法、プログラム及び集積電子回路、並びに、組立ロボット
JP5426719B2 (ja) ロボットシステムの動作シミュレーション装置
US9311608B2 (en) Teaching system and teaching method
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
JP6506348B2 (ja) ロボットの軌道を修正するロボットの教示装置
US20170336776A1 (en) Robot motion program generating method and robot motion program generating apparatus
JP5458769B2 (ja) ロボットの制御装置
JP6457587B2 (ja) ワークの動画に基づいて教示点を設定するロボットの教示装置
JP5729226B2 (ja) ロボットの位置姿勢補間方法及びロボットの制御装置
JP3940998B2 (ja) ロボット装置
CN112118940B (zh) 机械手的直接教示装置以及直接教示方法
JP2011083883A (ja) ロボット装置
JP2015100874A (ja) ロボットシステム
JP2018069441A (ja) 制御装置、ロボットおよびロボットシステム
CN112654469A (zh) 机器人的直接示教装置及直接示教方法
WO2023162225A1 (ja) ロボット制御装置および多関節ロボット
JP7313868B2 (ja) ロボットハンド、ロボットシステム、生産システム、物品の製造方法、制御方法、端末装置、制御プログラム、および記録媒体
TW202235232A (zh) 利用教示工具或作業者的手來設定教示點之教示裝置
JP2020163499A (ja) 物体検出方法、物体検出装置およびロボットシステム
JP2015182210A (ja) ロボット制御装置、ロボット、ロボットシステム、ロボット制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180718

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180920

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181220

R150 Certificate of patent or registration of utility model

Ref document number: 6457587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150