WO2024009484A1 - 制御装置及び制御方法 - Google Patents

制御装置及び制御方法 Download PDF

Info

Publication number
WO2024009484A1
WO2024009484A1 PCT/JP2022/027033 JP2022027033W WO2024009484A1 WO 2024009484 A1 WO2024009484 A1 WO 2024009484A1 JP 2022027033 W JP2022027033 W JP 2022027033W WO 2024009484 A1 WO2024009484 A1 WO 2024009484A1
Authority
WO
WIPO (PCT)
Prior art keywords
search
program
work
robot
teaching
Prior art date
Application number
PCT/JP2022/027033
Other languages
English (en)
French (fr)
Inventor
貴一 寺本
茂夫 吉田
Original Assignee
ファナック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ファナック株式会社 filed Critical ファナック株式会社
Priority to PCT/JP2022/027033 priority Critical patent/WO2024009484A1/ja
Priority to TW112121434A priority patent/TW202402486A/zh
Publication of WO2024009484A1 publication Critical patent/WO2024009484A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators

Definitions

  • the present disclosure relates to a control device and a control method.
  • a robot system that includes a robot, a work tool such as a welding torch attached to the robot, and a control device that controls the robot is well known.
  • the control device drives the robot and the work tool based on the work program, and the user of the robot can teach teaching points in advance to determine the position and posture of the robot during work.
  • a work program is created based on the positions of teaching points.
  • the location of the teaching point can have a significant impact on the quality of work performed by the robot.
  • the robot moves a welding torch attached to a robot arm or the like along a work path determined based on teaching points. If the working path deviates from the desired path, the welding line also deviates from the desired path, resulting in a decrease in processing accuracy.
  • a control method in which a sensor is provided in a working tool such as a welding torch, and the working path is corrected while performing work such as welding.
  • a working tool such as a welding torch
  • the working path is corrected while performing work such as welding.
  • a work path is generated in advance by specifying a start point and an end point, and the position of the robot detected by a laser sensor is set as a teaching point while moving the robot along the work path.
  • Patent Document 2 a teaching device that simplifies the teaching of the operation of a laser scanner and aims to shorten the welding time of a robot is well known (see, for example, Patent Document 2).
  • the technology is designed to optimize the movement path of the robot's end effector by tracking the position of the welding line using a laser sensor, while at the same time moving the work tool along the detected line while welding.
  • Robots that perform such tasks are also well known (for example, see Patent Document 3).
  • the teaching point can be set by a worker manually moving the robot to a desired position and posture, but the teaching point often requires high accuracy of 1 mm or less, and the worker This requires a high level of skill and can take a lot of time even for experienced workers.
  • One way to generate teaching points is to set a search point to determine the next teaching point along the work route based on a certain teaching point.In this method, an accurate work program can be created for a certain workpiece. It is possible to generate However, if you try to execute the same work program on different workpieces on a production line, etc., it will not be possible to deal with dimensional errors or misalignment of each workpiece, and it will be difficult to perform specified work such as welding with high precision. It becomes difficult.
  • One aspect of the present disclosure is a control device for controlling a robot having a sensor capable of detecting a work line of a workpiece, comprising: a teaching unit that uses the sensor to teach a search start position and a search end position of the work line; Generate a search program for determining teaching points according to the position of the work line based on the search start position and the search end position, and generate a work program including the teaching points based on the execution result of the search program.
  • the robot is configured to be able to specify, at the time of generating the search program, whether or not to execute tracking using the sensor for correcting the position of the robot during the execution of the work program.
  • a control device comprising: a designating section;
  • Another aspect of the present disclosure is a method for controlling a robot having a sensor capable of detecting a work line of a workpiece, the method comprising: teaching a search start position and a search end position of the work line by the sensor; generating a search program for determining teaching points according to the position of the work line based on the position and the search end position; and generating a work program including the teaching points based on the execution result of the search program. and specifying at the time of generating the search program whether or not to perform tracking using the sensor for correcting the position of the robot during execution of the work program. It's a method.
  • FIG. 1 is a schematic configuration diagram of a robot system according to an embodiment.
  • FIG. 2 is a schematic diagram illustrating teaching of a search start point and a search end point using a sensor.
  • FIG. 7 is a diagram illustrating an example of teaching a search starting point using a user interface.
  • FIG. 7 is a diagram illustrating an example of teaching a search end point using a user interface.
  • FIG. 3 is a schematic diagram illustrating program correction by tracking.
  • FIG. 6 is a schematic diagram illustrating an example of setting an offset amount in teaching a search start point and a search end point.
  • FIG. 3 is a diagram showing an example of a user interface for setting various conditions in creating a search program.
  • FIG. 3 is a diagram illustrating an example of automatically generating a work program using a user interface.
  • 3 is a flowchart illustrating an example of processing related to program generation.
  • FIG. 1 is a schematic configuration diagram of a robot system according to a preferred embodiment.
  • the robot system 10 includes at least one robot 12, a robot control device 14 that controls the robot 12, and a teaching pendant 16 that is communicably connected to the robot control device 14 by wireless or wire.
  • the robot 12 is, for example, an industrial articulated robot, and is configured to have a movable part (robot arm) 18 and a movable part 18 attached to the tip thereof so as to be able to perform a predetermined work on a workpiece (work) 20.
  • the sensor 24 includes a work tool 22 that has been moved, and a sensor 24 that can detect the position of a work site (for example, a work line) on the workpiece 20 by the work tool 22.
  • the work tool 22 is a welding torch
  • the robot system 10 includes a welding power source 26 that supplies current to the welding torch 22 based on a command from the robot controller 14.
  • the work line includes the welding part of the workpiece, but the present disclosure is not limited to this.
  • the work line includes the sealing part of the workpiece.
  • the working tool 22 can also be a nozzle or the like for discharging adhesive.
  • the senor 24 includes an emitting section that emits light (e.g., laser light) based on a command from the robot control device 14, and an image sensor (CCD, CMOS) that receives light reflected by the workpiece and converts it photoelectrically.
  • It is a laser scanner type three-dimensional sensor (laser sensor) having a three-dimensional sensor (laser sensor), which is attached to the tip of the movable part 18 or the welding torch 22 using an appropriate fixture (not shown), and moves the workpiece along the work line. The work line can be searched by scanning continuously.
  • the sensor is not limited to a laser sensor, and any sensor capable of detecting a work line can be used.
  • a three-dimensional sensor can also be used. Examples of 3D sensors include TOF (Time of Flight) cameras that capture distance images using the optical time-of-flight method, or stereo cameras that detect 3D positions using parallax captured by two 2D cameras. Available for use.
  • TOF Time of Flight
  • the robot 12 is configured to be able to perform various processing and operations such as welding based on commands sent from the robot control device 14.
  • the robot control device 14 includes a processor and a storage unit (memory, etc.), and can control the robot 12 based on a work program to be described later.
  • the robot control device 14 can generate and save a search program, which will be described later, and execute it to control the sensor 24. That is, in this embodiment, the teaching pendant 16 has a function as a teaching section, the processor of the robot control device 14 has a function as a program generation section, and the user interface described later has a function as a specifying section.
  • a computer such as a personal computer (PC) 28 connected to the control device 14 by wire or wirelessly and having a processor and a storage unit (memory, etc.) generates each program, The generated program may be sent from the PC 28 to the control device 14.
  • PC personal computer
  • storage unit memory, etc.
  • the teaching pendant 16 includes a reception section such as a keyboard or touch panel that can receive various inputs from the user, and a display section such as a display, and the reception section and the display section may constitute a user interface.
  • a reception section such as a keyboard or touch panel that can receive various inputs from the user
  • a display section such as a display
  • the reception section and the display section may constitute a user interface.
  • FIG. 2 is a diagram schematically explaining welding as an example of work performed by the robot 12.
  • the shapes of two plate-shaped workpieces 20a and 20b having a predetermined shape are measured using a laser sensor 24 attached to a welding torch 22, and a teaching point is determined based on the information obtained from the sensor 24. It is assumed that the welding line 30 is automatically generated and arc welding is performed along the welding line 30.
  • the UI 17 has the functions of a display section that allows the user to visually recognize various information, and a reception section that receives various inputs from the user.
  • the UI 17 includes a robot display area 32 that can display a robot image corresponding to the position and orientation of the actual robot 12, a timeline display area 34 that can display icons (described later) arranged in chronological order, and a timeline display area 34 that allows the user to select desired icons.
  • the menu display area 36 includes a menu display area 36 in which each icon can be displayed for selection.
  • step S1 the user of the robot 12 instructs the robot 12 about the search start position (search start point). Specifically, the user moves the robot 12 so that it is located at a search starting point A (see FIG. 2) where the sensor 24 can detect the welding start position or its vicinity. As shown in FIG. 3, the robot display area 32 can display an image corresponding to the position and orientation of the actual robot 12 moved by the user. After confirming that the robot 12 is located at the search starting point A, the user selects the icon 38 (L) representing the search point from the menu display area 36 and moves it to the timeline display area 34 by drag and drop or other operations. move it to Then, an icon "L" is placed at the left end of the timeline display area 34, which means that the search start position has been taught.
  • the icon 38 (L) representing the search point from the menu display area 36 and moves it to the timeline display area 34 by drag and drop or other operations. move it to Then, an icon "L" is placed at the left end of the timeline display area 34, which means that the search start position has been taught.
  • the search start position is different from the welding start position (work start position).
  • the search start position and the welding start position may end up being the same position.
  • the search end position is different from the welding end position (work end position), but may end up being the same position.
  • the user selects an icon 40 (Start) representing a search start command from the menu display area 36 and moves it to the timeline display area 34 by an operation such as drag and drop. Then, the icon “Start” is placed to the right of the icon “L” in the timeline display area 34.
  • the search start command allows the user to set various parameters in the search program (step S2).
  • the search program may include at least one of information regarding the search range of the sensor 24, information regarding the output of the sensor 24, information regarding the route of the sensor 24, and information regarding the automatically generated work program.
  • the user can input information about posture changes between teaching points as information about the path of the sensor 24.
  • the user can also input information regarding the automatically generated work program, for example, specify the welding speed in the work program.
  • the user instructs the robot 12 about the search end position (search end point) (step S3). Specifically, the user moves the robot 12 so that the sensor 24 is located at a search starting point B (see FIG. 2) where the sensor 24 can detect the welding end position or its vicinity.
  • the robot display area 32 displays the state of the actual robot 12 moved by the user.
  • the user selects the icon 38 (L) representing the teaching point from the menu display area 36 and moves it to the timeline display area 34 by drag and drop or other operations. move it to Then, an icon "L” is placed to the right of the icon “Start” in the timeline display area 34, and this means that the search end position has been taught.
  • an icon 42 representing the end of the search from the menu display area 36 and moves it to the timeline display area 34 by drag and drop or other operations. Then, an icon “Stop” is placed at the right end of the timeline display area 34.
  • the user can set whether or not to execute a predetermined process when executing a work program to be described later (step S4). For example, as shown in FIG. 7, when the user switches the menu display area 36 from "Programming" to "Details," a search program setting screen is displayed, and the user can specify (input) whether various conditions are valid or invalid. Can be done. Examples of the above-mentioned predetermined processing include tracking, setting of an offset amount, and posture change between teaching points. These processes will be explained below.
  • the user can set whether or not to perform tracking by the sensor 24 during execution of a work program for workpieces (for example, workpieces 20c and 20d) other than when the search program is executed. can. If the setting is set to "valid" here, the sensor 24 tracks the workpiece while the work program is being executed, and the motion correction unit corrects the motion of the robot based on the tracking result.
  • a work program for workpieces for example, workpieces 20c and 20d
  • FIG. 5 is a diagram illustrating the operation of the tool 22 when tracking is set to be performed when a work program is executed.
  • a work program is generated by executing a search program on the workpieces 20a and 20b
  • tracking is performed when this work program is used for work (welding, etc.) on the workpieces 20a and 20b.
  • this work program is used for work (welding, etc.) on the workpieces 20a and 20b.
  • the workpieces 20c and 20d even if the workpieces 20c and 20d have the same specifications as the workpieces 20a and 20b, they may not be accurate due to dimensional errors, installation errors, thermal deformation, etc. You may not be able to work.
  • the user can set conditions regarding the offset during tracking from the work line 30. For example, the user can set the offset amount during tracking in which direction with respect to the tool 22 (the traveling direction, the direction perpendicular to the traveling direction, the direction in which the tool itself extends, etc.). If offset settings have been made, when a work program is executed for the works 20a and 20b as illustrated in FIG. The tool 22 moves. For example, in arc welding, sometimes a higher quality weld can be achieved by having the tool follow a line that is somewhat offset from the work line rather than following the work line itself; The work line offset function is very convenient.
  • the user can select and specify the purpose of the generated work program. For example, when the user selects "arc”, the "welding start command” and “welding end command” are automatically taught to the work program, improving convenience for the user. On the other hand, if nothing is specified, the work program will contain only the robot's motion statements.
  • the user can set conditions regarding the change in the posture of the tool. For example, when the above-mentioned tracking corrects only the position of the tool (that is, does not correct the posture of the tool), it may be difficult to ensure the accuracy of the posture. In such a case, it is effective to use a work program that reduces the distance between taught points in sections where the change in tool posture is relatively large, and increases the interval between taught points in sections where the change in posture is relatively small. Therefore, as shown in FIG. 7, the user can easily create the above-mentioned work program by setting the upper limit of posture change between teaching points.
  • the search program can be displayed as a series of icons arranged and displayed in chronological order within the timeline display area 34.
  • the user can create a search program through visually and intuitively easy-to-understand operations via the teaching operation panel (UI). Therefore, even if the user is not an expert, he or she can create the desired search program. can be created in a short time with simple operations.
  • the user taught the search start point and the search end point by directly moving the robot with his or her hand (so-called direct teaching); however, the present disclosure is not limited to this, and the user may move the robot by jogging, for example. You can also do it.
  • various conditions are set in step S4 before the search program is executed.
  • the user can add any point in addition to the search start point and search end point.
  • at least one intermediate point can be taught between the search start point and the search end point, and furthermore, the operation mode of the torch can also be set in a straight line.
  • the movement is not limited to this, and the movement can also be performed along an arc, for example. Information regarding these intermediate points can also be displayed as icons.
  • step S6 the search program generated in step S5 is executed.
  • the scanning laser is irradiated from the sensor 24 toward the work in the section from the search start position to the search end position, and at least one teaching point is generated in the same section.
  • a work program including teaching points is automatically generated (step S7).
  • the search program can also be executed by the user through the UI 17.
  • a work program including the generated teaching points is automatically generated.
  • the work program is displayed in the timeline display area 34 as a combination of icons 48.
  • the work program 48 includes an icon 54a representing the start of welding, an icon 54d representing the end of welding, and icons 54b and 54c between them representing each teaching point in the welding work, and these icons are arranged on a timeline. They are displayed in chronological order within the display area 34.
  • icons 54a representing the start of welding
  • icons 54d representing the end of welding
  • icons 54b and 54c between them representing each teaching point in the welding work
  • the user can check and edit the automatically generated work program via the UI 17 of the teaching pendant 16. For example, by clicking on any of the icons 54a to 54d in the timeline display area 34, various icons containing work information etc. are displayed in the menu display area 36, and the user can perform work such as correcting the position of the teaching point. You will be able to set and change various parameters within the program.
  • the UI 17 also reflects settings such as whether or not to perform the above-mentioned tracking.
  • the tracking start command and tracking end command are displayed as icons 51 and 52, respectively. These icons can also be displayed in a timeline format along with the above-mentioned icons 54a-54d, making it very easy for the user to understand.
  • step S8 the robot is controlled based on the work program.
  • step S9 the tracking and other processes set as valid in step S4 are included as commands in the work program, those processes are also executed (step S9). This allows the robot to perform predetermined work such as welding based on the automatically generated work program.
  • the user's teaching work in creating a search program for generating teaching points is greatly simplified by visual operation/input via the UI. Therefore, even an inexperienced user can create a desired search program in a short time with simple operations, and furthermore, by executing the search program, appropriate teaching points (work programs) can be automatically generated.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

教示点を生成するための探索プログラムの作成におけるユーザの作業を大幅に簡素化できる制御装置及び制御方法を提供する。制御装置は、センサによって作業線の探索開始位置及び探索終了位置を教示する教示部と、探索開始位置及び探索終了位置に基づいて、作業線の位置に応じた教示点を定めるための探索プログラムを生成し、探索プログラムの実行結果に基づいて、教示点を含む作業プログラムを生成するプログラム生成部と、作業プログラムの実行中にロボットの位置を補正するための、センサを用いたトラッキングを実行するか否かを、探索プログラムの生成時に指定できるように構成された指定部とを備える。

Description

制御装置及び制御方法
 本開示は、制御装置及び制御方法に関する。
 ロボットと、ロボットに取り付けられた溶接トーチ等の作業ツールと、ロボットを制御する制御装置とを備えるロボットシステムが周知である。制御装置は、作業プログラムに基づいてロボット及び作業ツールを駆動させ、ロボットのユーザは、作業中のロボットの位置及び姿勢を定めるために、予め教示点を教示することができる。作業プログラムは、教示点の位置に基づいて作成される。
 教示点の位置は、ロボットによる作業の品質に大きな影響を与え得る。例えば、アーク溶接を行うロボットシステムでは、ロボットは、ロボットアーム等に取り付けた溶接トーチを、教示点に基づいて定められる作業経路に沿って移動させる。作業経路が所望の経路からずれている場合には、溶接線も所望の経路から乖離し、加工精度が低下する。
 このような作業経路のずれを修正するために、溶接トーチ等の作業ツールにセンサを設け、溶接等の作業を行いながら作業経路を補正する制御が知られている。例えば、始点及び終点を指定することにより予め作業経路を生成し、ロボットの位置を作業経路に沿って進行させながら、レーザセンサにて検出した溶接を行う位置を教示点に設定する制御が知られている(例えば、特許文献1を参照)。
 また、レーザスキャナの動作の教示を簡単にし、ロボットの溶接時間の短縮を企図した教示装置が周知である(例えば特許文献2を参照)。
 さらに、ロボットのエンドエフェクタの移動経路をトラッキングによって適正化することを企図した技術レーザセンサを使用して溶接線の位置を検出すると同時に、作業ツールを検出された線に沿って移動させながら、溶接等の作業を行うロボットも周知である(例えば特許文献3を参照)。
特開平07-104831号公報 特開2006-247677号公報 特開2004-160578号公報
 ロボットの作業経路の位置ずれを効果的に抑制するには、教示点を正確に生成・設定することが望まれる。教示点は例えば、作業者がロボットを所望の位置及び姿勢となるように手動で動かすことで設定可能であるが、教示点には1mm以下等の高い精度が要求される場合が多く、作業者には高い技量が求められるとともに、熟練者であっても多くの作業時間を要することがある。
 教示点の生成方法として、ある教示点に基づいて作業経路に沿った次の教示点を定めるための探索点を設定するやり方が考えられ、このやり方では、あるワークに対しては正確な作業プログラムを生成することが可能である。しかし生産ライン等で別のワークに対して同じ作業プログラムを実行しようとすると、各ワークの寸法誤差や設置位置のズレ等には対応できず、溶接等の所定の作業を高精度に行うことが困難となる。
 上記課題の対策の一つとして、ワーク毎に作業プログラムを生成することが挙げられるが、このやり方では各ワークに対してロボットを2回動作させる必要があり、サイクルタイムの延長、ひいては生産性の低下につながる。
 本開示の一態様は、ワークの作業線を検出可能なセンサを有するロボットを制御する制御装置であって、前記センサによって前記作業線の探索開始位置及び探索終了位置を教示する教示部と、前記探索開始位置及び前記探索終了位置に基づいて、前記作業線の位置に応じた教示点を定めるための探索プログラムを生成し、前記探索プログラムの実行結果に基づいて、前記教示点を含む作業プログラムを生成するプログラム生成部と、前記作業プログラムの実行中に前記ロボットの位置を補正するための、前記センサを用いたトラッキングを実行するか否かを、前記探索プログラムの生成時に指定できるように構成された指定部と、を備える制御装置である。
 本開示の他の態様は、ワークの作業線を検出可能なセンサを有するロボットの制御方法であって、前記センサによって前記作業線の探索開始位置及び探索終了位置を教示することと、前記探索開始位置及び前記探索終了位置に基づいて、前記作業線の位置に応じた教示点を定めるための探索プログラムを生成することと、前記探索プログラムの実行結果に基づいて、前記教示点を含む作業プログラムを生成することと、前記作業プログラムの実行中に前記ロボットの位置を補正するための、前記センサを用いたトラッキングを実行するか否かを、前記探索プログラムの生成時に指定することと、を含む制御方法である。
実施形態に係るロボットシステムの概略構成図である。 センサを用いた探索開始点及び探索終了点の教示を説明する概略図である。 ユーザインタフェースを利用して探索開始点を教示する例を示す図である。 ユーザインタフェースを利用して探索終了点を教示する例を示す図である。 トラッキングによるプログラム補正を説明する概略図である。 探索開始点及び探索終了点の教示においてオフセット量を設定する例を説明する概略図である。 探索プログラムの作成において各種条件の設定を行うためのユーザインタフェースの例を示す図である。 ユーザインタフェースを利用して作業プログラムを自動生成する例を示す図である。 プログラム生成に関する処理の一例を示すフローチャートである。
 図1は、好適な実施形態に係るロボットシステムの概略構成図である。ロボットシステム10は、少なくとも1台のロボット12と、ロボット12を制御するロボット制御装置14と、ロボット制御装置14と無線又は有線で通信可能に接続された教示操作盤16とを有する。
 ロボット12は、例えば産業用の多関節ロボットであり、可動部(ロボットアーム)18と、可動部18の先端に取り付けられ、作業対象物(ワーク)20に対して所定の作業を行えるように構成された作業ツール22と、作業ツール22によるワーク20の作業部位(例えば作業線)の位置を検出可能なセンサ24とを有する。本実施形態では、作業ツール22は溶接トーチであり、これに伴ってロボットシステム10は、ロボット制御装置14からの指令に基づいて溶接トーチ22に電流供給する溶接電源26を有する。このように本実施例では、作業線はワークの溶接個所を含むものであるが、本開示はこれに限られず、例えば、ロボットが行うべき所定の作業をシーリングとし、作業線はワークのシール箇所を含むものとし、作業ツール22を接着剤を吐出するノズル等にすることもできる。
 本実施形態では、センサ24は、ロボット制御装置14からの指令に基づいて光(例えばレーザ光)を出射する出射部と、ワークで反射した光を受光して光電変換する撮像センサ(CCD、CMOS等)とを有するレーザスキャナ式の3次元センサ(レーザセンサ)であり、適当な取付具(図示せず)を用いて可動部18の先端又は溶接トーチ22に取り付けられ、ワークを作業線に沿って連続的にスキャンすることで作業線を探索することができる。但しセンサとしては、レーザセンサに限られず、作業線を検出可能な任意のセンサを用いることができ、例えば、3次元センサを使用することもできる。3次元センサとしては、光飛行時間方式により距離画像を撮像するTOF(Time of Flight)カメラ、又は2台の2次元カメラにて撮像される視差により、3次元の位置を検出するステレオカメラ等が使用可能である。
 ロボット12は、ロボット制御装置14から送信される指令に基づいて、溶接等の種々の加工や作業を実行できるように構成されている。ロボット制御装置14は、プロセッサ及び記憶部(メモリ等)を備え、後述する作業プログラムに基づいてロボット12を制御することができる。またロボット制御装置14は、ロボット12を制御するための作業プログラムに加え、後述する探索プログラムを生成・保存してこれを実行し、センサ24を制御することができる。すなわち本実施形態では、教示操作盤16が教示部としての機能を有し、ロボット制御装置14のプロセッサがプログラム生成部としての機能を有し、後述するユーザインタフェースが指定部としての機能を有する。但し本開示はこれに限られず、例えば、制御装置14に有線又は無線で接続された、プロセッサ及び記憶部(メモリ等)を有するパーソナルコンピュータ(PC)28のような計算機が各プログラムを生成し、生成したプログラムをPC28から制御装置14に送信するようにしてもよい。
 教示操作盤16は、ユーザによる種々の入力を受け付け可能なキーボード又はタッチパネル等の受付部と、ディスプレイ等の表示部とを備え、該受付部及び表示部は、ユーザインタフェースを構成してもよい。
 図2は、ロボット12による作業の一例として溶接を概略的に説明する図である。ここでは、所定の形状を有する板状の2枚のワーク20a及び20bの形状を、溶接トーチ22に取り付けたレーザセンサ24を用いて測定し、センサ24から得られた情報に基づいて教示点を自動生成して、溶接線30に沿ってアーク溶接を行うものとする。
 以下、図3-図9を参照して、探索プログラム及び作業プログラムを生成する手段及び手順について説明する。図3に例示するように、ロボット12のユーザ又はオペレータ(以下、単にユーザと称する)は、教示操作盤16のディスプレイ等に表示されたユーザインタフェース(UI)17を介して、後述する探索プログラム及び作業プログラムを生成するための種々の情報を入力することができる。換言すればUI17は、ユーザに種々の情報を視覚的に認識させる表示部と、ユーザからの種々の入力を受け付ける受付部としての機能を有する。UI17は、現実のロボット12の位置及び姿勢に対応したロボット画像を表示可能なロボット表示領域32と、後述するアイコンを時系列に並べて表示可能なタイムライン表示領域34と、ユーザが所望のアイコンを選択できるように各アイコンを表示可能なメニュー表示領域36とを含む。
 先ずステップS1(図9)において、ロボット12のユーザが、ロボット12の探索開始位置(探索開始点)を教示する。具体的には、ユーザが、センサ24が溶接開始位置又はその近傍を検出できる探索開始点A(図2参照)に位置するようにロボット12を動かす。ここで図3に示すように、ロボット表示領域32には、ユーザが動かした現実のロボット12の位置及び姿勢に対応した画像を表示することができる。ユーザは、ロボット12が探索開始点Aに位置していることを確認したら、メニュー表示領域36から探索点を表すアイコン38(L)を選択し、ドラッグ&ドロップ等の操作によってタイムライン表示領域34に移動させる。するとタイムライン表示領域34の左端にアイコン「L」が配置され、これにより探索開始位置が教示されたことになる。
 ここで探索開始位置とは、溶接開始位置(作業開始位置)とは異なるものである。例えば、ダイレクトティーチではロボットとワークとの干渉等が原因となって溶接開始位置を教示することが難しい場合があり、その場合は溶接開始位置からいくらか離れた探索開始位置を利用することにより、教示が容易になる。但し、干渉等の制約がなければ、探索開始位置と溶接開始位置は結果的に同じ位置となることもある。探索終了位置も同様に、溶接終了位置(作業終了位置)とは異なるものであるが、結果的に同じ位置となることもある。
 次にユーザは、メニュー表示領域36から探索開始命令を表すアイコン40(Start)を選択し、ドラッグ&ドロップ等の操作によってタイムライン表示領域34に移動させる。するとタイムライン表示領域34においてアイコン「L」の右隣にアイコン「Start」が配置される。
 探索開始命令では、探索プログラムにおける種々のパラメータをユーザが設定することができる(ステップS2)。例えば、探索プログラムはセンサ24の探索範囲に関する情報、センサ24の出力に関する情報、センサ24の経路に関する情報、及び自動生成された作業プログラムに関する情報のうちの少なくとも1つを含むことができる。例えばユーザは、センサ24の経路に関する情報として、各教示点間の姿勢変化の情報を入力することができる。またユーザは、自動生成された作業プログラムに関する情報を入力することもでき、例えば、作業プログラムにおける溶接速度を指定することができる。
 次に図4に示すように、ユーザは、ロボット12の探索終了位置(探索終了点)を教示する(ステップS3)。具体的には、ユーザが、センサ24が溶接終了位置又はその近傍を検出できる探索開始点B(図2参照)に位置するようにロボット12を動かす。ここでロボット表示領域32には、ユーザが動かした現実のロボット12の状態が表示される。ユーザは、ロボット12が探索終了点Bに位置していることを確認したら、メニュー表示領域36から教示点を表すアイコン38(L)を選択し、ドラッグ&ドロップ等の操作によってタイムライン表示領域34に移動させる。するとタイムライン表示領域34においてアイコン「Start」の右隣にアイコン「L」が配置され、これにより探索終了位置が教示されたことになる。
 次にユーザは、メニュー表示領域36から探索終了を表すアイコン42(Stop)を選択し、ドラッグ&ドロップ等の操作によってタイムライン表示領域34に移動させる。するとタイムライン表示領域34の右端にアイコン「Stop」が配置される。
 ここでユーザは、後述する作業プログラム実行時に、所定の処理を実行するか否かの設定を行うことができる(ステップS4)。例えば図7に示すように、ユーザがメニュー表示領域36を「Programming」から「Details」に切り替えると、探索プログラムの設定画面が表示され、ユーザは各種条件の有効/無効を指定(入力)することができる。上述の所定の処理とは例えば、トラッキング、オフセット量の設定、教示点間の姿勢変化等が挙げられる。以下、これらの処理について説明する。
 図7において参照符号39で示すように、ユーザは、探索プログラム実行時とは別のワーク(例えばワーク20c、20d)に対する作業プログラム実行中にセンサ24によるトラッキングを行うか否かを設定することができる。ここで設定を「有効」にしておくと、作業プログラム実行中にセンサ24によるワークのトラッキングが実行され、このトラッキング結果に基づいて動作補正部がロボットの動作を補正する。
 図5は、作業プログラム実行時にトラッキングを行うと設定した場合のツール22の動作を例示する図である。図2に示すように、ワーク20a、20bに対して探索プログラムを実行して作業プログラムを生成した場合、この作業プログラムをワーク20a、20bの作業(溶接等)に使用する際は、トラッキングを行う必要は基本的にない。しかし、同じ作業プログラムを異なるワーク20c、20dに対して行う場合は、仮にワーク20c、20dがワーク20a、20bと仕様上は同一であっても、寸法誤差、設置誤差及び熱変形等によって正確な作業が行えない可能性がある。しかし作業プログラム実行時にトラッキングを行うように設定しておけば、ワークの位置や寸法誤差等に応じてトラッキングによるロボットの動作経路の補正が行われるので、高精度の作業を行うことが可能になる。またトラッキングは、作業プログラムを補正するだけなので、作業プログラム自体は生産開始時等に一度生成すれば足りる。よってトラッキングは、ロボットを含むシステム全体としての生産性には殆ど影響しない。
 図7において参照符号43で示すように、ユーザは、作業線30からのトラッキング時のオフセットに関する条件を設定することができる。例えば、ユーザはトラッキング時のオフセット量をツール22に関するどの方向(進行方向、進行方向に垂直な方向、ツール自体が延びる方向のいずれか、等)について設定するかを設定することができる。オフセットに関する設定がされている場合は、図6に例示するように、ワーク20a、20bに対して作業プログラムを実行すると、作業線30から設定されたオフセット量だけオフセットされたオフセット作業線33に沿ってツール22が移動する。例えばアーク溶接では、作業線そのものにツールを追従させるよりも、作業線からいくらかオフセットした線に沿ってツールを追従させた方が高品質の溶接が行える場合があり、そのような場合にこのような作業線のオフセット機能は非常に便利である。
 図7において参照符号45で示すように、ユーザは、生成される作業プログラムの用途を選択・指定することができる。例えば、ユーザが「アーク」を選択した場合、「溶接開始命令」及び「溶接終了命令」が作業プログラムに自動で教示されるので、ユーザにとって利便性が向上する。一方、何も指定しなければ作業プログラムはロボットの動作文のみを含むものとなる。
 図7において参照符号46で示すように、ユーザは、ツールの姿勢変化に関する条件を設定することができる。例えば、上述のトラッキングがツールの位置のみを補正する(つまり、ツールの姿勢は補正しない)ものであるときは、姿勢の正確性を確保することが困難となる場合がある。このような場合では、ツールの姿勢変化が比較的大きい区間では教示点間の距離を小さくし、姿勢変化が比較的小さい区間では教示点間隔を大きくするような作業プログラムが有効である。そこで図7に示すように、ユーザが教示点間での姿勢変化の上限を設定することにより、上述のような作業プログラムを容易に作成することが可能になる。
 S1-S4の処理が完了すると、プログラム生成部に相当するロボット制御装置14又はPC28が、センサ24による探索を行うための探索プログラムの作成を完了する(ステップS5)。つまり探索プログラムは、タイムライン表示領域34内に時系列で配置・表示された一連のアイコンとして表示可能である。このようにユーザは、教示操作盤(UI)を介した視覚的及び直感的に分かりやすい操作によって探索プログラムを作成することができ、故にユーザが熟練者でない場合であっても、所望の探索プログラムを簡単な操作で短時間に作成することができる。なお本実施例では、ユーザは手等でロボットを直接動かすこと(いわゆるダイレクトティーチ)によって探索開始点及び探索終了点を教示したが、本開示はこれに限られず、例えばジョグ操作によってロボットを動かすこともできる。なおステップS4における各種条件の設定は、探索プログラムの実行前に行われる。
 また探索プログラムでは、探索開始点及び探索終了点だけでなく、ユーザが任意の点を追加することができる。例えば、レーザ照射中にトーチの移動方向を変更する等の目的で、探索開始点と探索終了点との間に少なくとも1つの中間点を教示することができ、さらに、トーチの動作形態も直線に限られず、例えば円弧に沿って動作させることもできる。これらの中間点に関する情報も、アイコンとして表示可能である。
 次に、ステップS5で生成された探索プログラムを実行する(ステップS6)。ここでは、探索開始位置から探索終了位置までの区間でセンサ24からスキャン用のレーザがワークに向けて照射され、同区間において少なくとも1つの教示点が生成される。これにより、教示点を含む作業プログラムが自動的に生成される(ステップS7)。探索プログラムの実行も、ユーザがUI17を介した操作によって行うことができる。
 探索動作では、図2に示すように、センサ24が探索開始位置Aから探索終了位置Bまで移動する間に、ワーク20a、20bの形状を検出し、この結果に基づいてロボット12の教示点を自動的に生成する。本実施例では、ワークが中央付近に屈曲部を有することから、溶接線30の始端に相当するレーザ照射開始点54aと、溶接線30の終端に相当するレーザ照射終了点54dと、中央近傍の教示点54b及び54cとが生成される。
 探索が終了して教示点が生成されたら、生成された教示点を含む作業プログラムが自動的に生成される。例えば図8に示すように、作業プログラムはタイムライン表示領域34内にアイコンの組み合わせ48として表示される。ここでは作業プログラム48は、溶接開始を表すアイコン54aと、溶接終了を表すアイコン54dと、それらの中間の、溶接作業における各教示点を表すアイコン54b及び54cとを含み、これらのアイコンはタイムライン表示領域34内に時系列で表示される。なお図8の例ではアイコン54a-54dの全てが表示されているが、探索開始位置に関する情報を含むアイコン54a、探索終了位置に関する情報を含むアイコン54d、及び探索開始位置と探索終了位置との間の中間点に関する情報を含むアイコン54b、54cのうちの少なくとも1つを表示するようにしてもよい。
 ユーザは、教示操作盤16のUI17を介して、自動生成された作業プログラムを確認・編集することができる。例えば、タイムライン表示領域34内のアイコン54a-54dのいずれかをクリックすれば、メニュー表示領域36内に作業情報等を含む種々のアイコンが表示され、ユーザは教示点の位置の修正等、作業プログラム内の種々のパラメータの設定や変更を行うことができるようになる。
 またUI17には、上述のトラッキングを行うか否かの設定等も反映される。図8の例では、トラッキングの開始命令及び終了命令がそれぞれアイコン51及び52として表示される。これらのアイコンも、上述のアイコン54a-54dとともにタイムライン形式で表示可能であり、ユーザにとって非常に分かりやすい。
 作業プログラムの作成(及び必要に応じた編集)が完了したら、作業プログラムに基づいてロボットを制御する(ステップS8)。ここで、ステップS4で有効と設定されたトラッキング等の処理は作業プログラム内に指令として含まれているので、それらの処理も実行される(ステップS9)。これによりロボットは、自動生成された作業プログラムに基づいて、溶接等の所定の作業を行うことができる。
 上述の実施例によれば、UIを介した視覚的な操作・入力によって、教示点を生成するための探索プログラムの作成におけるユーザの教示等の作業が大幅に簡単化される。よって不慣れなユーザでも、所望の探索プログラムを簡単な操作で短時間に作成することができ、さらに探索プログラムの実行によって適切な教示点(作業プログラム)の生成も自動で行うことができる。
 10  ロボットシステム
 12  ロボット
 14  ロボット制御装置
 16  教示操作盤
 17  ユーザインタフェース
 18  ロボットアーム
 20  ワーク
 22  溶接トーチ
 24  センサ
 26  溶接電源
 28  PC
 30  作業線
 32  ロボット表示領域
 33  オフセット作業線
 34  タイムライン表示領域
 36  メニュー表示領域
 38、40、42、51、52  アイコン
 48  作業プログラム
 54a-54d  教示点

Claims (5)

  1.  ワークの作業線を検出可能なセンサを有するロボットを制御する制御装置であって、
     前記センサによって前記作業線の探索開始位置及び探索終了位置を教示する教示部と、
     前記探索開始位置及び前記探索終了位置に基づいて、前記作業線の位置に応じた教示点を定めるための探索プログラムを生成し、前記探索プログラムの実行結果に基づいて、前記教示点を含む作業プログラムを生成するプログラム生成部と、
     前記作業プログラムの実行中に前記ロボットの位置を補正するための、前記センサを用いたトラッキングを実行するか否かを、前記探索プログラムの生成時に指定できるように構成された指定部と、
    を備える制御装置。
  2.  前記指定部は、前記作業プログラムの生成において前記作業線をオフセットさせるためのオフセット量を指定できるように構成されている、請求項1に記載の制御装置。
  3.  前記指定部は、前記作業プログラムの生成において前記作業プログラムの用途を指定できるように構成されている、請求項1に記載の制御装置。
  4.  前記指定部は、前記作業プログラムの生成において、前記ロボットの姿勢変化に関する条件を指定できるように構成されている、請求項1に記載の制御装置。
  5.  ワークの作業線を検出可能なセンサを有するロボットの制御方法であって、
     前記センサによって前記作業線の探索開始位置及び探索終了位置を教示することと、
     前記探索開始位置及び前記探索終了位置に基づいて、前記作業線の位置に応じた教示点を定めるための探索プログラムを生成することと、
     前記探索プログラムの実行結果に基づいて、前記教示点を含む作業プログラムを生成することと、
     前記作業プログラムの実行中に前記ロボットの位置を補正するための、前記センサを用いたトラッキングを実行するか否かを、前記探索プログラムの生成時に指定することと、
    を含む制御方法。
PCT/JP2022/027033 2022-07-07 2022-07-07 制御装置及び制御方法 WO2024009484A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2022/027033 WO2024009484A1 (ja) 2022-07-07 2022-07-07 制御装置及び制御方法
TW112121434A TW202402486A (zh) 2022-07-07 2023-06-08 控制裝置及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/027033 WO2024009484A1 (ja) 2022-07-07 2022-07-07 制御装置及び制御方法

Publications (1)

Publication Number Publication Date
WO2024009484A1 true WO2024009484A1 (ja) 2024-01-11

Family

ID=89453110

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/027033 WO2024009484A1 (ja) 2022-07-07 2022-07-07 制御装置及び制御方法

Country Status (2)

Country Link
TW (1) TW202402486A (ja)
WO (1) WO2024009484A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104831A (ja) * 1993-10-08 1995-04-21 Fanuc Ltd レーザセンサを用いたロボットの自動位置教示方法
JPH11207671A (ja) * 1998-01-28 1999-08-03 Hitachi Ltd 産業用ロボットの教示装置
JP2021058988A (ja) * 2019-10-09 2021-04-15 川崎重工業株式会社 補正システム、補正方法、ロボットシステム及び制御装置
WO2022114016A1 (ja) * 2020-11-30 2022-06-02 ファナック株式会社 直接教示操作にて教示点を教示する教示装置、ロボット制御装置、および教示装置のコンピュータプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104831A (ja) * 1993-10-08 1995-04-21 Fanuc Ltd レーザセンサを用いたロボットの自動位置教示方法
JPH11207671A (ja) * 1998-01-28 1999-08-03 Hitachi Ltd 産業用ロボットの教示装置
JP2021058988A (ja) * 2019-10-09 2021-04-15 川崎重工業株式会社 補正システム、補正方法、ロボットシステム及び制御装置
WO2022114016A1 (ja) * 2020-11-30 2022-06-02 ファナック株式会社 直接教示操作にて教示点を教示する教示装置、ロボット制御装置、および教示装置のコンピュータプログラム

Also Published As

Publication number Publication date
TW202402486A (zh) 2024-01-16

Similar Documents

Publication Publication Date Title
US9110466B2 (en) Programming method for a robot, programming apparatus for a robot, and robot control system
CN106994684B (zh) 控制机器人工具的方法
JP6314324B2 (ja) オフラインティーチング装置
JP4167940B2 (ja) ロボットシステム
US11241759B2 (en) Teaching device, teaching method, and storage medium storing teaching program for laser machining
JP5459256B2 (ja) ロボットシステム
JP2005108144A (ja) ロボットの補正データ確認装置
JP2004261878A (ja) 作業ロボットを用いた制御システムおよびこの制御システムによるワーク加工方法
JP5577157B2 (ja) ロボット制御システム
CN110871432A (zh) 用于激光加工的示教装置
JP2008020993A (ja) 作業用ロボットの教示データ作成装置
JP5502462B2 (ja) アーク溶接ロボットの制御装置及びプログラム
JP2013035054A (ja) 溶接ロボット制御装置
WO2024009484A1 (ja) 制御装置及び制御方法
JP5670147B2 (ja) アーク溶接ロボット制御装置
WO2023170764A1 (ja) ロボットの探索プログラムの生成装置
JP2008080360A (ja) 自動溶接機の位置検出システム
JP2010149225A (ja) ロボットシステム、ロボットシステムの制御装置および制御方法
JP2011083883A (ja) ロボット装置
JP7414851B2 (ja) ロボットの制御装置、ロボットシステム、制御方法、及びコンピュータプログラム
JP2016078142A (ja) ロボット装置の制御方法、およびロボット装置
JP2011067895A (ja) ロボットのツールの位置の微調整方法及びロボット制御システム
JP6405168B2 (ja) 倣い制御装置、溶接ロボットシステムおよび倣い制御方法
JP4441367B2 (ja) 溶接ロボットを用いたワークの溶接方法
WO2022186054A1 (ja) センサの出力に基づいて教示点を生成する教示点生成装置および教示点生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22950278

Country of ref document: EP

Kind code of ref document: A1