WO2022270580A1 - オフライン教示装置およびオフライン教示方法 - Google Patents

オフライン教示装置およびオフライン教示方法 Download PDF

Info

Publication number
WO2022270580A1
WO2022270580A1 PCT/JP2022/025097 JP2022025097W WO2022270580A1 WO 2022270580 A1 WO2022270580 A1 WO 2022270580A1 JP 2022025097 W JP2022025097 W JP 2022025097W WO 2022270580 A1 WO2022270580 A1 WO 2022270580A1
Authority
WO
WIPO (PCT)
Prior art keywords
welding
scan
teaching
dimensional
scanning
Prior art date
Application number
PCT/JP2022/025097
Other languages
English (en)
French (fr)
Inventor
正弥 平山
嘉幸 岡崎
克明 大熊
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to EP22828496.4A priority Critical patent/EP4360826A4/en
Priority to CN202280044292.1A priority patent/CN117580688A/zh
Priority to JP2023530117A priority patent/JPWO2022270580A1/ja
Publication of WO2022270580A1 publication Critical patent/WO2022270580A1/ja
Priority to US18/394,121 priority patent/US20240123625A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/12Automatic feeding or moving of electrodes or work for spot or seam welding or cutting
    • B23K9/127Means for tracking lines during arc welding or cutting
    • B23K9/1272Geometry oriented, e.g. beam optical trading
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/005Manipulators for mechanical processing tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/022Optical sensing devices using lasers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37449Inspection path planner
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45066Inspection robot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45104Lasrobot, welding robot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45135Welding

Definitions

  • the present disclosure relates to an offline teaching device and an offline teaching method.
  • Patent Document 1 discloses an off-line teaching device that displays a motion trajectory of a robot when a teaching program is executed in a model diagram, and displays some of a plurality of position detection commands and a portion of a plurality of welding commands.
  • the off-line teaching device includes a display unit that displays a teaching program and model diagrams, a storage unit that stores instructions constituting the teaching program and model data of the model diagrams, and a control unit that controls the display unit and the storage unit.
  • the teaching program includes a position detection program composed of a plurality of position detection instructions and a welding program composed of a plurality of welding instructions.
  • each of the instructions, position detection program, and welding program that constitute the teaching program is created by the operator.
  • the present disclosure provides an offline teaching device and an offline teaching method for more efficiently creating a teaching program for a sensor scanning operation executed by a welding robot.
  • the present disclosure includes an input unit capable of accepting operator operations, a scan range of a sensor that scans three-dimensional shape data of a work produced by welding, the operation trajectory of the welding, and the external shape of the work. Acquisition a generator that generates a three-dimensional area scanned by the sensor based on the acquired scan range and scan section; and a generator that generates the workpiece based on the operator operation input to the input unit arranging at least one of the three-dimensional regions on the three-dimensional shape data of the above, and based on the arranged three-dimensional region and the operation trajectory of the welding, a welding robot that performs the welding is provided with the three-dimensional region.
  • an off-line teaching device comprising a control unit that creates and outputs a teaching program for scanning.
  • an offline teaching method performed by an offline teaching device configured to include one or more computers communicably connected to an input device capable of accepting operator operations, wherein Acquiring the three-dimensional shape data of the work to be produced, the welding operation trajectory, and the scan range of a sensor that scans the external shape of the work, and based on the acquired scan range and scan section, the sensor generating a three-dimensional area to be scanned, arranging at least one of the three-dimensional areas on the three-dimensional shape data of the workpiece based on the operator's operation obtained from the input device, and Provided is an off-line teaching method for creating and outputting a teaching program for causing a welding robot that performs the welding to scan the three-dimensional region based on the dimensional region and the motion trajectory of the welding.
  • an offline teaching method performed by an offline teaching device configured to include one or more computers communicably connected to an input device by a worker operating an input device.
  • an offline teaching device configured to include one or more computers communicably connected to an input device by a worker operating an input device.
  • Inputting three-dimensional shape data of a workpiece produced by welding into the computer inputting a scanning section for scanning the external shape of the workpiece into the computer, and corresponding to the scanning section in the three-dimensional shape data
  • an off-line teaching method for creating a teaching program for causing a welding robot that performs welding to scan a three-dimensional area based on a scan point.
  • FIG. 1 shows an internal configuration example of an inspection control device, a robot control device, a host device, and an offline teaching device according to Embodiment 1;
  • Diagram explaining an example of the effective scanning range of the sensor A diagram explaining an example of the scan effective area of the sensor
  • a diagram showing an example of a 3D model 4A and 4B are diagrams for explaining an example of copy processing of the scan effective area according to the first embodiment;
  • FIG. 11 is a diagram for explaining example 1 of processing for deleting a scan valid area according to the first embodiment;
  • FIG. 10 is a diagram for explaining example 2 of processing for deleting a scan valid area according to the first embodiment;
  • FIG. 11 is a diagram for explaining an example of a scanning effective area dividing process according to the first embodiment;
  • FIG. 5 is a diagram for explaining an example of various operations associated with scan effective areas according to Embodiment 1;
  • FIG. 11 is a diagram for explaining an example of processing for changing the scan effective area and an example of processing for rotating the scan effective area according to the second embodiment;
  • FIG. 11 is a diagram for explaining each of scan effective area change processing example 1, change processing example 2, and change processing example 3; Diagram showing an example of model work
  • FIG. 11 is a diagram for explaining an example of copy processing of the scan effective area in the second embodiment;
  • FIG. 11 is a diagram for explaining an example of rotation processing of the scan effective area according to the second embodiment;
  • FIG. 11 is a diagram for explaining an example of various operations associated with scan effective areas according to the second embodiment;
  • Patent Document 1 A device configuration capable of constructing a virtual production facility using an off-line teaching device is conventionally known, as in Patent Document 1.
  • Such an off-line teaching device simultaneously displays some position detection instructions corresponding to the operation trajectory of the welding robot and some welding instructions, making it easy for the operator to identify the edit points when creating the teaching program. It can help improve the efficiency and accuracy of the created program.
  • an offline teaching device that teaches scan locations in virtual space. By visualizing the scannable range at a predetermined position in the horizontal direction (on the XY plane), the offline teaching device visualizes the scanning location taught by the operator and the scannable range by the sensor, and the operator performs Support teaching work for executing visual inspection.
  • the operator must use the created teaching program to perform the visual inspection, and correct the teaching points based on the sensor scan results (visual inspection results) in the visual inspection. No, it was a lot of work.
  • the object to be welded (for example, metal) is defined as the "original work”, and the object produced (manufactured) by the main welding is defined as the “work”.
  • the "work” is not limited to a work produced by one time of final welding, but may be a composite work produced by two or more times of final welding.
  • the process of producing a work by joining an original work and another original work by a welding robot is defined as "final welding”.
  • FIG. 1 is a schematic diagram showing a system configuration example of a welding system 100 according to Embodiment 1.
  • the welding system 100 includes a host device 1 connected to an external storage ST, an input interface UI1, and a monitor MN1, a robot control device 2, an inspection control device 3, a sensor 4, an offline teaching device 5, and a monitor MN3. , an input device UI3, a welding robot MC1, and a monitor MN2.
  • the sensor 4 is illustrated as a separate body from the welding robot MC1, but may be integrated with the welding robot MC1 (see FIG. 2).
  • the monitor MN2 is not an essential component and may be omitted.
  • the host device 1 comprehensively controls the start and completion of the main welding executed by the welding robot MC1 via the robot control device 2. For example, the host device 1 reads welding-related information previously input or set by a user (for example, a welding operator or a system administrator; the same shall apply hereinafter) from the external storage ST, and uses the welding-related information to read the welding-related information is generated and transmitted to the corresponding robot controller 2. When the main welding by the welding robot MC1 is completed, the host device 1 receives a main welding completion report indicating that the main welding by the welding robot MC1 has been completed from the robot control device 2, and reports the completion of the corresponding main welding. The status is updated and recorded in the external storage ST.
  • a user for example, a welding operator or a system administrator; the same shall apply hereinafter
  • the execution command for the main welding described above is not limited to being generated by the host device 1.
  • the operation panel of the equipment in the factory where the main welding is performed for example, PLC: Programmable Logic Controller
  • the robot control device 2 operation panel for example, a teach pendant
  • the teach pendant is a device for operating the welding robot MC1 connected to the robot control device 2 .
  • the host device 1 comprehensively controls the start and completion of the bead visual inspection using the robot control device 2, the inspection control device 3, and the sensor 4. For example, when the host device 1 receives a main welding completion report from the robot control device 2, it generates a bead visual inspection execution command for the workpiece produced by the welding robot MC1, and the robot control device 2 and the inspection control device 3 Send to When the bead visual inspection is completed, the host device 1 receives a visual inspection report to the effect that the bead visual inspection is completed from the inspection control device 3, updates the status to the effect that the corresponding bead visual inspection is completed, and sends it to the external device. Record in storage ST.
  • the welding-related information is information indicating the details of the final welding performed by the welding robot MC1, and is created in advance for each process of the final welding and registered in the external storage ST.
  • the welding-related information includes, for example, the number of original works used in the main welding, the ID of the original work used in the main welding, the lot information of the original work, the name and the welding location (for example, the information of the welding line, the welding line work information including position information, etc.), the scheduled execution date of the main welding, the number of original works to be produced, and various welding conditions at the time of the main welding.
  • the welding-related information is not limited to the data of the items described above, and includes teaching programs for welding operations and scanning operations that have already been created (see below), welding operation setting information used to create these teaching programs, Information such as scan operation setting information may be further included.
  • the welding conditions include, for example, the material and thickness of the original workpiece, the material and wire diameter of the welding wire 301, the type of shielding gas, the flow rate of the shielding gas, the set average value of the welding current, the set average value of the welding voltage, and the welding wire 301. These include the feed speed and feed amount, the number of welding times, the welding time, and the like. In addition to these, for example, information indicating the type of main welding (for example, TIG welding, MAG welding, pulse welding), moving speed and moving time of manipulator 200 may be included.
  • the robot control device 2 Based on the execution command for final welding transmitted from the host device 1, the robot control device 2 causes the welding robot MC1 to start execution of final welding using the original workpiece specified by the execution command.
  • the welding-related information described above is not limited to being managed by the host device 1 with reference to the external storage ST, and may be managed by the robot control device 2, for example. In this case, since the robot control device 2 can grasp the state that the main welding is completed, the actual execution date of the welding process may be managed instead of the scheduled execution date of the welding-related information.
  • the type of main welding does not matter, in order to make the explanation easier to understand, a process of joining a plurality of original works to produce one work will be described as an example.
  • the host device 1 is connected to the monitor MN1, the input interface UI1, and the external storage ST so as to be able to input and output data, and is also capable of data communication with the robot controller 2. connected so that The host device 1 may be a terminal device P1 that integrally includes the monitor MN1 and the input interface UI1, and may also integrally include the external storage ST.
  • the terminal device P1 is a PC (Personal Computer) used by the user prior to execution of the main welding.
  • the terminal device P1 is not limited to the PC described above, and may be a computer device having a communication function such as a smart phone or a tablet terminal.
  • the monitor MN1 may be configured using a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence).
  • the monitor MN1 may display a screen output from the host device 1, for example, showing a notification that the main welding is completed or a notification that the bead visual inspection is completed.
  • a speaker (not shown) may be connected to the host device 1 in place of the monitor MN1 or together with the monitor MN1. may be output via a speaker.
  • the input interface UI1 is a user interface that detects a user's input operation and outputs it to the host device 1, and may be configured using a mouse, keyboard, touch panel, or the like, for example.
  • the input interface UI1 receives, for example, an input operation when the user creates welding-related information, or receives an input operation when transmitting a command to execute the main welding to the robot control device 2 .
  • the external storage ST is configured using, for example, a hard disk drive or a solid state drive.
  • the external storage ST stores, for example, welding-related information data created for each main welding, the status (production status) of the work Wk produced by the main welding, and work information of the work Wk (see above).
  • the external storage ST may store the welding operation teaching program created by the offline teaching device 5 and the scanning operation teaching program for each welding line. Each of the teaching programs for the welding operation and the scanning operation will be described later.
  • the robot control device 2 is connected to enable data communication with the host device 1, the inspection control device 3, and the offline teaching device 5, respectively, and is connected to enable data communication with the welding robot MC1. be done.
  • the robot control device 2 receives the main welding execution command transmitted from the host device 1, the robot control device 2 creates a main welding program based on the welding operation teaching program corresponding to this execution command, and controls the welding robot MC1. to perform main welding.
  • the robot control device 2 When detecting the completion of the main welding, the robot control device 2 generates a main welding completion report to the effect that the main welding is completed, and notifies it to the host device 1 . Thereby, the host device 1 can properly detect the completion of the main welding by the robot control device 2 .
  • the robot control device 2 may detect the completion of main welding by, for example, a method of determining based on a signal indicating the completion of main welding from a sensor (not shown) provided in the wire feeding device 300, or a known method. It may be a method, and the content of the method for detecting the completion of the main welding need not be limited.
  • the welding robot MC1 is connected to the robot control device 2 so that data communication is possible.
  • Welding robot MC ⁇ b>1 performs main welding commanded from host device 1 under the control of corresponding robot control device 2 .
  • the welding robot MC1 moves the sensor 4 based on the scanning operation teaching program, thereby executing the bead appearance inspection commanded by the host device 1 .
  • the inspection control device 3 is connected to enable data communication with each of the host device 1, the robot control device 2, the sensor 4, and the offline teaching device 5.
  • the inspection control device 3 receives a bead visual inspection execution command transmitted from the host device 1, the inspection control device 3 follows the teaching program for the scanning operation of the corresponding work Wk to weld the work Wk produced by the welding robot MC1 (i.e., A bead appearance inspection (for example, an inspection of whether or not a weld bead formed on a workpiece satisfies a predetermined welding standard) is performed with the sensor 4 .
  • a bead appearance inspection for example, an inspection of whether or not a weld bead formed on a workpiece satisfies a predetermined welding standard
  • the inspection control device 3 uses the input data (for example, point cloud data that can specify the three-dimensional shape of the weld bead) regarding the shape of the weld bead acquired by the sensor 4 as a result of the scanning operation, and predetermines for each work.
  • a bead appearance inspection is performed based on comparison with the master data of non-defective works.
  • the bead visual inspection performed by the welding robot MC1 in the first embodiment is not limited to the visual inspection of the weld bead, and the visual inspection of the weld bead and other visual inspections (for example, the inspection of parts mounting on the workpiece Wk). Presence or absence, etc.) may be included in the inspection.
  • the operator can more efficiently utilize the scanning effective area of the sensor 4 and simultaneously perform appearance inspections having different purposes based on the appearance inspection results.
  • the scan effective area referred to here indicates a three-dimensional area in which the sensor 4 can read the external shape by scanning.
  • the inspection control device 3 performs a bead visual inspection, generates a visual inspection report including the inspection judgment result of this bead visual inspection and a notice that the bead visual inspection is completed, and transmits it to the host device 1, and monitors MN2. output to When the inspection control device 3 determines that a defect has been detected in the bead visual inspection of the workpiece, it generates a visual inspection report including visual inspection results including information on the defective section for repair welding of the defect. , to the host device 1 and the robot control device 2 . In addition, when the inspection control device 3 determines that a defect has been detected by the bead visual inspection of the workpiece, the repair welding for performing correction such as repairing the defective portion using the visual inspection result including information on the defective section. create a program The inspection control device 3 associates this repair welding program with the visual inspection result and transmits them to the host device 1 or the robot control device 2 .
  • the sensor 4 is connected to enable data communication with the inspection control device 3 .
  • the sensor 4 is attached to the welding robot MC1, and three-dimensionally scans the workpiece Wk or the stage STG (see FIG. 2) on which the workpiece Wk is placed according to the driving of the manipulator 200 under the control of the robot controller 2. Run.
  • the sensor 4 detects the three-dimensional shape data of the workpiece Wk placed on the stage STG or the shape, size, and Three-dimensional shape data (for example, point cloud data) that can specify a position or the like is acquired and transmitted to the inspection control device 3 .
  • the monitor MN2 may be configured using a display device such as LCD or organic EL.
  • the monitor MN2 displays a screen output from the inspection control device 3, for example, a notification that the bead visual inspection has been completed, or a screen showing the notification and the result of the bead visual inspection.
  • a speaker (not shown) may be connected to the inspection control device 3 instead of the monitor MN2 or together with the monitor MN2. You may output the audio
  • the offline teaching device 5 is connected to the robot control device 2, the inspection control device 3, the monitor MN3, and the input device UI3 so that they can communicate with each other.
  • the offline teaching device 5 stores, as setting information, welding line position information for each workpiece Wk for which a teaching program is to be created or which has already been created.
  • the offline teaching device 5 constructs virtual production equipment (for example, a virtual welding robot, a virtual work, a virtual stage, etc.), and controls commands and various data transmitted from the input device UI 3, or the robot control device 2 or A teaching program for the welding operation of the work Wk based on various data output from the inspection control device 3 (for example, welding bead or input data related to the shape of the work Wk, 3D model data, position information of the welding line, etc.) and a scanning operation teaching program.
  • the offline teaching device 5 transmits the created teaching program for the welding operation and the created teaching program for the scanning operation to the robot control device 2 .
  • the created scanning operation teaching program may be sent to the inspection control device 3 as well as the robot control device 2 .
  • the offline teaching device 5 also stores the created teaching program for the welding operation and the created teaching program for the scanning operation for each workpiece Wk.
  • the weld line position information here is information indicating the position of the weld line formed on the workpiece Wk.
  • the welding operation teaching program referred to here is a program created based on the welding line and for causing the welding robot MC1 to perform the main welding.
  • the teaching program for welding operation includes the position, distance, angle ( posture) information and information such as welding conditions.
  • the scanning operation teaching program referred to here is a program that is created based on the weld line and causes the welding robot MC1 to perform an appearance inspection of at least one weld bead created by the final welding or the workpiece Wk. .
  • the scan operation teaching program uses the sensor 4 to perform various operations (for example, approach, retract, avoidance, scan, etc.) for performing visual inspection of the created weld bead, workpiece Wk, etc. 4 position, distance, and angle (orientation) information.
  • the monitor MN3 may be configured using a display device such as LCD or organic EL.
  • the monitor MN3 displays images of virtual production equipment (for example, a virtual welding robot, a virtual workpiece, a virtual stage, etc.) transmitted from the offline teaching device 5, and monitors the operation of the welding torch 400 based on the welding operation teaching program.
  • the trajectory, the motion trajectory of the sensor 4 based on the scanning motion teaching program, and the like are displayed.
  • the monitor MN3 also displays an image in which the motion trajectory of the sensor 4, the motion trajectory of the welding torch 400, or the like is superimposed on the image of the virtual production facility transmitted from the offline teaching device 5.
  • the input device UI3 is a user interface that detects a user's input operation and outputs it to the host device 1, and may be configured using a mouse, keyboard, touch panel, or the like, for example.
  • the input device UI 3 is used for inputting position information of the welding line of the workpiece Wk, welding setting information, scan setting information, 3D model, etc. used for creating teaching programs for scan motions and welding motions, or for inputting operations such as scan motions and welding motions that have already been created.
  • Each input operation of the motion teaching program is received.
  • the monitor MN3 and the input device UI3 may be a terminal device P3 (for example, a PC, a notebook PC, a tablet terminal, etc.) configured integrally.
  • FIG. 2 is a diagram showing an internal configuration example of the inspection control device 3, the robot control device 2, the host device 1, and the offline teaching device 5 according to the first embodiment.
  • the monitors MN1 and MN2 and the input interface UI1 are omitted from FIG.
  • a work Wk shown in FIG. 2 is a work to be subjected to the bead appearance inspection. This work Wk may be a work produced by main welding, or a so-called repair work that has been repaired one or more times by repair welding.
  • the welding robot MC1 shown in FIG. 2 is configured to include a sensor 4, but the sensor 4 may be used by other robots (for example, an inspection robot for performing visual inspection and a repair welding robot for performing repair welding). etc.).
  • the welding robot MC1 Under the control of the robot control device 2, the welding robot MC1 performs a main welding process based on a teaching program for welding operations using the welding torch 400, a bead visual inspection process based on a teaching program for scanning operations using the sensor 4, and the like. to run.
  • the welding robot MC1 also uses the sensor 4 to acquire the external shape of the workpiece Wk and the position information of the weld bead formed on the workpiece Wk, which are used to create teaching programs for the welding operation and the scanning operation. You may scan the external appearance of the workpiece
  • the welding robot MC1 performs arc welding, for example, in the main welding process. However, the welding robot MC1 may perform welding other than arc welding (for example, laser welding and gas welding).
  • Welding robot MC ⁇ b>1 includes at least a manipulator 200 , a wire feeder 300 , a welding wire 301 and a welding torch 400 .
  • the manipulator 200 has articulated arms, and moves each arm based on control signals from the robot controller 24 of the robot controller 2 .
  • manipulator 200 can change the positional relationship between work Wk and welding torch 400 (for example, the angle of welding torch 400 with respect to work Wk) and the positional relationship between work Wk and sensor 4 by driving the arm.
  • the wire feeding device 300 controls the feeding speed of the welding wire 301 based on the control signal from the robot control device 2.
  • Wire feeding device 300 may include a sensor (not shown) capable of detecting the remaining amount of welding wire 301 .
  • the robot control device 2 can detect completion of the main welding process based on the output of this sensor.
  • Welding wire 301 is held by welding torch 400 .
  • Electric power is supplied to welding torch 400 from power supply device 500, whereby an arc is generated between the tip of welding wire 301 and work Wk, and arc welding is performed.
  • illustration and explanation of the configuration for supplying the shielding gas to the welding torch 400 are omitted.
  • the host device 1 uses the welding-related information input or set in advance by the user to generate execution commands for various processes such as final welding or bead visual inspection and transmit them to the robot control device 2 .
  • execution commands for various processes such as final welding or bead visual inspection and transmit them to the robot control device 2 .
  • the sensor 4 is integrally attached to the welding robot MC ⁇ b>1
  • the bead visual inspection execution command is sent to both the robot control device 2 and the inspection control device 3 .
  • the host device 1 has a configuration including at least a communication unit 10 , a processor 11 and a memory 12 .
  • the communication unit 10 is connected to enable data communication with each of the robot control device 2 and the external storage ST.
  • the communication unit 10 transmits to the robot control device 2 an execution command for various processes of final welding or bead visual inspection generated by the processor 11 .
  • the communication unit 10 receives a main welding completion report and a visual inspection report transmitted from the robot control device 2 and outputs them to the processor 11 .
  • the main welding execution command may include, for example, a control signal for controlling each of the manipulator 200, the wire feeding device 300, and the power supply device 500 provided in the welding robot MC1.
  • the processor 11 is configured using, for example, a CPU (Central Processing Unit) or FPGA (Field Programmable Gate Array), and cooperates with the memory 12 to perform various types of processing and control. Specifically, the processor 11 functionally implements the cell control unit 13 by referring to the program held in the memory 12 and executing the program.
  • a CPU Central Processing Unit
  • FPGA Field Programmable Gate Array
  • the memory 12 has, for example, a RAM (Random Access Memory) as a work memory that is used when executing the processing of the processor 11, and a ROM (Read Only Memory) that stores a program that defines the processing of the processor 11. Data generated or acquired by the processor 11 is temporarily stored in the RAM. A program that defines the processing of the processor 11 is written in the ROM.
  • the memory 12 also stores welding-related information data read from the external storage ST, status of the work Wk, and work information (see later) data of the work Wk transmitted from the robot control device 2 .
  • the cell control unit 13 Based on the welding-related information stored in the external storage ST, the cell control unit 13 generates an execution command for performing main welding, bead visual inspection of the work Wk, visual scan of the work Wk, or repair welding. .
  • the cell control unit 13 is based on the welding-related information stored in the external storage ST and the teaching programs for the welding operation and the scanning operation that are created in the offline teaching device 5 and transmitted from the robot control device 2. Then, a main welding program for main welding, a visual inspection program for driving the welding robot MC1 for bead visual inspection of the workpiece Wk, or a visual scanning program for driving the welding robot MC1 for visual scanning are created. Further, the cell control unit 13 creates execution commands for these created programs.
  • the appearance inspection program or the appearance scanning program may be created in advance for each workpiece Wk and stored in the external storage ST. Read and get the program.
  • the cell control unit 13 may generate a different execution command for each of various processes of final welding performed by the welding robot MC1.
  • the main welding appearance inspection and appearance scanning execution commands generated by the cell control unit 13 are transmitted to the corresponding robot control device 2 or to each of the robot control device 2 and the inspection control device 3 via the communication unit 10. .
  • the robot control device 2 refers to the corresponding program based on the execution command for final welding, bead visual inspection, or visual scanning sent from the host device 1.
  • the robot controller 2 controls the welding robot MC1 (eg, sensor 4, manipulator 200, wire feeder 300, power supply 500) based on the referenced program.
  • the robot control device 2 has a configuration including at least a communication unit 20 , a processor 21 and a memory 22 .
  • the communication unit 20 is connected to enable data communication with the host device 1, the inspection control device 3, the welding robot MC1, and the offline teaching device 5, respectively. Although the illustration is simplified in FIG. 2 , there are connections between the robot control unit 24 and the manipulator 200 , between the robot control unit 24 and the wire feeding device 300 , and between the power control unit 25 and the power supply device 500 . Data is transmitted and received between them via the communication unit 20 .
  • the communication unit 20 receives an execution command for final welding or bead visual inspection transmitted from the host device 1 .
  • the communication unit 20 receives the welding line position information, the welding operation teaching program, and the scanning operation teaching program transmitted from the offline teaching device 5 .
  • the communication unit 20 transmits work information of the work Wk produced by the final welding to the host device 1 .
  • the work information includes not only the ID of the work Wk, but also the ID, name, welding location, and welding conditions of the original work used for final welding.
  • the processor 21 is configured using, for example, a CPU or FPGA, and cooperates with the memory 22 to perform various types of processing and control. Specifically, the processor 21 refers to the program held in the memory 22 and executes the program, thereby functionally realizing the main welding program creation unit 23, the robot control unit 24, and the power supply control unit 25. . Further, the processor 21 controls the welding robot MC1 (specifically, the manipulator 200, the wire feeder 300 and the power Calculation of parameters for controlling each of the devices 500 is performed.
  • the welding robot MC1 specifically, the manipulator 200, the wire feeder 300 and the power Calculation of parameters for controlling each of the devices 500 is performed.
  • the memory 22 has, for example, a RAM as a work memory that is used when executing the processing of the processor 21, and a ROM that stores a program that defines the processing of the processor 21. Data generated or acquired by the processor 21 is temporarily stored in the RAM. A program that defines the processing of the processor 21 is written in the ROM.
  • the memory 22 stores welding-related data in which the main welding or bead visual inspection execution command data transmitted from the host device 1, the work information of the work Wk produced by the main welding, and the position information of the weld line are associated with each other. Each store information.
  • the welding-related information including the work information of the work Wk to which the teaching programs for the welding operation and the scanning operation have been transmitted from the offline teaching device 5 includes the teaching programs for the welding operation and the scanning operation, the welding operation and the scanning operation. may include welding line position information, welding operation setting information, and scanning operation setting information used to create each teaching program.
  • the main welding program creation unit 23 Based on the main welding execution command transmitted from the host device 1 via the communication unit 20, the main welding program creation unit 23 generates work information (for example, work ID, name, work coordinate system, original work information, welding line position information, etc.) and a welding operation teaching program associated with these work information, the main welding of the main welding performed by the welding robot MC1 create a program
  • the main welding program includes welding current, welding voltage, offset amount, welding speed, welding torch 400 for controlling the power supply 500, manipulator 200, wire feeder 300, welding torch 400, etc. during execution of main welding. may include various parameters such as the attitude of the Note that this welding program may be stored in the processor 21 or may be stored in the RAM in the memory 22 .
  • the robot control unit 24 controls the welding robot MC1 (specifically, each of the sensor 4, the manipulator 200, the wire feeder 300, and the power supply device 500) based on the main welding program generated by the main welding program creation unit 23. to generate a control signal for driving the The robot control unit 24 transmits this generated control signal to the welding robot MC1.
  • the robot control unit 24 drives the manipulator 200 and the sensor 4 of the welding robot MC1 based on an appearance inspection program created using a scan operation teaching program).
  • the sensor 4 attached to the welding robot MC1 moves along with the operation of the welding robot MC1, and scans the weld bead of the workpiece Wk to obtain input data (for example, three-dimensional shape of the weld bead) regarding the shape of the weld bead. can be specified), or by partially scanning the work Wk, input data related to the partial shape of the work Wk corresponding to another appearance inspection location (for example, Point cloud data that can specify the three-dimensional shape of the work Wk) can be acquired.
  • input data for example, three-dimensional shape of the weld bead
  • another appearance inspection location for example, Point cloud data that can specify the three-dimensional shape of the work Wk
  • the power control unit 25 drives the power supply device 500 based on the calculation result of the main welding program generated by the main welding program creation unit 23 .
  • the inspection control device 3 based on the execution command of the bead visual inspection transmitted from the host device 1, the work Wk produced by the main welding by the welding robot MC1 or the work Wk repaired by one or more repair welding. Controls the bead visual inspection process.
  • the bead appearance inspection is, for example, an inspection of whether or not the weld bead formed on the workpiece Wk satisfies a predetermined welding standard (for example, a welding quality standard required by each user). Configured.
  • the inspection control device 3 detects the appearance of the weld bead formed on the workpiece Wk based on input data (for example, point cloud data that can specify the three-dimensional shape of the weld bead) regarding the shape of the weld bead acquired by the sensor 4.
  • the inspection control device 3 transmits input data relating to the weld bead acquired by the sensor 4 or the shape of the workpiece Wk to the offline teaching device 5 .
  • the inspection control device 3 includes at least a communication unit 30 , a processor 31 , a memory 32 and an inspection result storage unit 33 .
  • the communication unit 30 is connected to each of the host device 1, the robot control device 2, the sensor 4, and the offline teaching device 5 so that data communication is possible. Although the illustration is simplified in FIG. 2, data is transmitted and received between the shape detection control section 35 and the sensor 4 via the communication section 30, respectively.
  • the communication unit 30 receives a bead visual inspection execution command transmitted from the host device 1 .
  • the communication unit 30 transmits the inspection determination result of the bead appearance inspection using the sensor 4 to the host device 1, and transmits the three-dimensional shape data of the weld bead acquired by the sensor 4 to the offline teaching device 5. .
  • the processor 31 is configured using, for example, a CPU or FPGA, and cooperates with the memory 32 to perform various types of processing and control. Specifically, the processor 31 refers to the program held in the memory 32 and executes the program to perform the determination threshold value storage unit 34, the shape detection control unit 35, the data processing unit 36, and the inspection result determination unit 37. , and a repair welding program creation unit 38 are functionally realized.
  • the memory 32 has, for example, a RAM as a work memory that is used when executing the processing of the processor 31, and a ROM that stores a program that defines the processing of the processor 31. Data generated or acquired by the processor 31 is temporarily stored in the RAM. A program that defines the processing of the processor 31 is written in the ROM. Further, the memory 32 may store the scan operation teaching program transmitted from the offline teaching device 5 and the work information in association with each other.
  • the inspection result storage unit 33 is configured using, for example, a hard disk or solid state drive.
  • the inspection result storage unit 33 stores, as an example of the data generated or acquired by the processor 31, data indicating the result of the bead visual inspection of the welded portion of the work Wk (for example, work or repair work).
  • the data indicating the result of this bead appearance inspection is, for example, the inspection result determination unit 37 (specifically, the first inspection determination unit 371, the second inspection determination unit 372 to the Nth inspection determination unit included in the inspection result determination unit 37). 37N).
  • the determination threshold storage unit 34 is configured by, for example, a cache memory provided in the processor 31, is set in advance by a user operation, and stores the weld location and the first inspection determination units 371, . . . Information of each threshold value (for example, each threshold value set for each type of welding failure) corresponding to each bead appearance inspection process of the N inspection determination unit 37N is stored.
  • the respective thresholds are, for example, the allowable range of positional deviation of the weld bead, the thresholds for the length, height, and width of the weld bead, and the thresholds for perforations, pits, undercuts, and spatter.
  • the determination threshold value storage unit 34 stores, as each threshold value at the time of bead visual inspection after repair welding, an allowable range (for example, a minimum allowable value, a maximum allowable value, etc.) that satisfies the minimum welding standard (quality) required by a customer or the like. can be stored. Note that these threshold values are set so that the inspection results generated by the first inspection determination unit 371 and the second inspection determination unit 372 to the N-th inspection determination unit 37N included in the inspection result determination unit 37 pass the bead visual inspection. It is used for the process of determining whether or not there is. Furthermore, the determination threshold storage unit 34 may store an upper limit of the number of bead appearance inspections for each welding location.
  • an allowable range for example, a minimum allowable value, a maximum allowable value, etc.
  • the inspection control device 3 determines that it is difficult or impossible to repair the defective portion by automatic repair welding by the welding robot MC1 when the predetermined upper limit is exceeded when the defective portion is repaired by repair welding. , the decrease in the operating rate of the welding system 100 can be suppressed.
  • the shape detection control unit 35 detects the shape of the weld bead acquired and transmitted by the sensor 4 based on a bead visual inspection execution command of the welded portion of the work Wk (for example, work or repair work) transmitted from the host device 1.
  • Acquire input data for example, point cloud data that can specify the three-dimensional shape of the weld bead.
  • the shape detection control unit 35 is acquired by the sensor 4 and transmitted input data related to the shape of the work Wk (for example, 3 point cloud data that can identify the dimensional shape).
  • the shape detection control unit 35 enables the sensor 4 to image the welding bead or the workpiece Wk in accordance with the driving of the manipulator 200 by the robot control device 2 described above (in other words, the three-dimensional shape of the welding location or the workpiece Wk).
  • a laser beam is emitted from the sensor 4 to acquire input data regarding the shape of the weld bead or workpiece Wk.
  • the shape detection control section 35 passes the input data to the data processing section 36 .
  • the data processing unit 36 When the data processing unit 36 acquires the input data (see above) regarding the shape of the weld bead from the shape detection control unit 35, the data processing unit 36 converts it into a data format suitable for the first inspection determination in the inspection result determination unit 37, . . , N-th inspection determination in the inspection result determination unit 37.
  • the conversion of the data format may include, as a so-called preprocessing, correction processing in which unnecessary point cloud data (for example, noise) contained in the input data (that is, point cloud data) is removed, and may omit the pretreatment described above.
  • the data processing unit 36 generates image data representing the three-dimensional shape of the weld bead by using a data format suitable for the first inspection determination, and performing statistical processing on the input shape data, for example.
  • the data processing unit 36 may perform edge enhancement correction that emphasizes the peripheral portion of the weld bead in order to emphasize the position and shape of the weld bead as the data for the first inspection determination.
  • the data processing unit 36 counts the number of times the bead appearance inspection is performed for each location of defective welding, and if the number of bead appearance inspections exceeds the number of times previously stored in the memory 32, the welding inspection result does not improve. , it may be determined that it is difficult or impossible to correct the defective welding portion by automatic repair welding.
  • the inspection result determination unit 37 generates an alert screen including the position of the defective welding location and the type of the defective welding (for example, hole, pit, undercut, spatter, protrusion), and displays the generated alert screen. , to the host device 1 via the communication unit 30 .
  • the alert screen sent to the host device 1 is displayed on the monitor MN1. This alert screen may be displayed on the monitor MN2.
  • the data processing unit 36 uses the threshold value for the bead appearance inspection stored in the judgment threshold storage unit 34 to obtain the input data regarding the shape of the weld bead acquired by the sensor 4 and the master of non-defective workpieces predetermined for each workpiece. Perform bead visual inspection based on comparison with data.
  • the data processing unit 36 creates and inspects a visual inspection report including defect determination results as inspection determination results (that is, information indicating the presence or absence of defects that require repair welding) and information on defect sections for each defect location.
  • the results are stored in the result storage unit 33 and transmitted to the host device 1 or the robot control device 2 via the communication unit 30 .
  • the data processing unit 36 determines that there is no defective portion requiring repair welding in the workpiece Wk to be inspected, the data processing unit 36 creates a visual inspection report including the inspection determination result indicating that the bead has passed the visual inspection. It is stored in the inspection result storage unit 33 and transmitted to the host device 1 via the communication unit 30 .
  • the data processing unit 36 acquires the input data (see above) regarding the shape of the workpiece Wk from the shape detection control unit 35, it converts it into a data format suitable for the arithmetic processing executed by the offline teaching device 5.
  • the conversion of the data format may include, as a so-called preprocessing, correction processing in which unnecessary point cloud data (for example, noise) included in the input data (that is, point cloud data) is removed. It may be a process of generating a model.
  • the data processing unit 36 may perform edge enhancement correction that emphasizes the position and shape of the work Wk and emphasizes the peripheral portion of the work Wk.
  • the data processing unit 36 transmits the input data regarding the shape of the workpiece Wk after conversion to the offline teaching device 5 via the communication unit 30 .
  • the first inspection determination unit 371 performs a first inspection determination (that is, a bead appearance inspection based on comparison between input data regarding the shape of the weld bead acquired by the sensor 4 and master data of a non-defective work predetermined for each work). to inspect weld bead shape reliability (for example, whether it is along a straight or curved weld line), bead chipping, and bead misalignment.
  • the first inspection determination unit 371 compares the data converted by the data processing unit 36 for the first inspection determination (for example, image data generated based on the point cloud data) with the master data of the non-defective workpiece (so-called image data). process).
  • the first inspection determination unit 371 can inspect the weld bead shape reliability, bead chipping, and bead positional deviation with high accuracy.
  • the first inspection determination unit 371 calculates an inspection score indicating the shape reliability of the weld bead, bead chipping, and bead misalignment, and creates the calculated value of the inspection score as the first inspection result. Further, the first inspection determination unit 371 compares the created first inspection result with the threshold value for the first inspection result stored in the memory 32 .
  • the first inspection determination unit 371 sends the first inspection result including the information of the comparison result (that is, whether the acquired first inspection result passes or fails the bead appearance inspection) to the comprehensive determination unit 370, or It outputs to the second inspection determination section 372 to the N-th inspection determination section 37N.
  • Bead appearance inspection for determining the presence or absence of welding defects based on AI targeting input data related to shape or input data after the input data has been preprocessed by the data processing unit 36), perforation of the weld bead, Inspect for pits, undercuts, spatters, and protrusions. Weld bead perforations, pits, undercuts, spatters, and protrusions are listed as examples only, and the defect types inspected by the N-th inspection determination unit 37N are not limited to these.
  • each of the second inspection determination unit 372 to the Nth inspection determination unit 37N determines that the corresponding type of welding defect is detected, it specifies the position of the weld bead where the welding defect is detected.
  • Each of the second inspection determination unit 372 to the Nth inspection determination unit 37N uses a learning model (AI) obtained in advance by learning processing for each type of defective welding or for each group of defective welding types, Determine the presence or absence of welding defects.
  • AI learning model
  • second inspection determining section 372 to N-th inspection determining section 37N do not perform the inspections of weld bead shape reliability, bead chipping, and bead position deviation that are performed by first inspection determining section 371, respectively.
  • the second inspection determination unit 372 to the Nth inspection determination unit 37N calculate the inspection results (in other words, inspection scores indicating the probability of occurrence) of perforations, pits, undercuts, spatters, and protrusions in the weld bead, and calculate the inspection scores. is created as the second inspection determination result.
  • the inspection result determination unit 37 determines whether repair welding by the welding robot MC1 is possible based on the inspection result (inspection score) included in the first inspection result or the second inspection result (in other words, It may be determined whether repair welding by the welding robot MC1 is better or manual repair welding is better), and the result of the determination may be included in the visual inspection report described above and output.
  • the repair welding program creation unit 38 creates a repair welding program for the work Wk to be executed by the welding robot MC1, using the appearance inspection report of the work Wk by the data processing unit 36.
  • the repair welding program includes welding current, welding voltage, offset amount, welding speed, welding torch 400 for controlling power supply 500, manipulator 200, wire feeder 300, welding torch 400, etc. during execution of repair welding. may include various parameters such as the attitude of the Note that the generated repair welding program may be stored in the processor 31, may be stored in the RAM in the memory 32, or may be associated with the visual inspection report and sent to the host device via the communication unit 30. 1 or the robot controller 2 .
  • the repair welding program creation unit 38 receives the visual inspection report of the work Wk (for example, work or repair work) by the inspection result determination unit 37 and work information (for example, information such as coordinates indicating the position of the detection point of the defective welding of the work or repair work) ) to create a repair welding program for the work Wk (for example, work or repair work) to be executed by the welding robot MC1.
  • the repair welding program includes welding current, welding voltage, offset amount, welding speed, welding torch 400 for controlling power supply 500, manipulator 200, wire feeder 300, welding torch 400, etc. during execution of repair welding. may include various parameters such as the attitude of the
  • the generated repair welding program may be stored in processor 31 or may be stored in RAM in memory 32 .
  • the sensor 4 is, for example, a three-dimensional shape sensor, is attached to the tip of the welding robot MC1, and acquires a plurality of point cloud data that can identify the shape of the workpiece Wk or the welding location on the workpiece Wk. Based on the obtained point cloud data, the sensor 4 generates point cloud data that can identify the three-dimensional shape of the welded portion, and transmits the generated point cloud data to the inspection control device 3 .
  • the sensor 4 is not attached to the tip of the welding robot MC1 and is arranged separately from the welding robot MC1, the position information of the workpiece Wk or the welding point transmitted from the inspection control device 3 is used.
  • a laser light source (not shown) configured to be able to scan the work Wk or the welding point on the work Wk (for example, work or repair work) and an imaging area including the work Wk or the periphery of the welding point can be imaged.
  • a camera (not shown) that is arranged and captures the reflected trajectory of the reflected laser beam (that is, the shape line of the welded portion) of the laser beam irradiated to the workpiece Wk or the welded portion.
  • the sensor 4 transmits to the inspection control device 3 shape data of the work Wk or the welded portion (in other words, image data of the work Wk or the weld bead) based on the laser light imaged by the camera.
  • the camera described above includes at least a lens (not shown) and an image sensor (not shown).
  • the image sensor is a solid-state imaging device such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semi-conductor), and converts an optical image formed on an imaging surface into an electrical signal.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semi-conductor
  • the offline teaching device 5 is connected to the robot control device 2, the inspection control device 3, the monitor MN3, and the input device UI3 so that they can communicate with each other.
  • the off-line teaching device 5 creates a teaching program for the welding operation of the workpiece Wk based on various data such as welding line position information, welding operation setting information, scan operation setting information, etc., and welding line position information transmitted from the input device UI 3. and a scanning operation teaching program.
  • the offline teaching device 5 includes a communication section 50 , a processor 51 , a memory 52 and an input/output section 53 .
  • the offline teaching device 5 in Embodiment 1 will explain an example in which teaching programs for welding operations and scanning operations are created, but the creation of teaching programs for welding operations is not essential and may be omitted.
  • the off-line teaching device 5 is provided with a sensor 4, and it is sufficient that a scanning motion teaching program for a robot capable of executing a scanning motion (that is, a bead visual inspection) can be created by the sensor 4.
  • FIG. 1 A scanning motion teaching program for a robot capable of executing a scanning motion (that is, a bead visual inspection) can be created by the sensor 4.
  • the communication unit 50 is connected to enable data communication with the robot control device 2, the inspection control device 3, the input device UI3, and the monitor MN3.
  • the communication unit 50 transmits the created teaching programs for the welding operation and the scanning operation, and various data (for example, welding line position information, welding operation settings, etc.) used to create the teaching programs for the welding operation and the scanning operation. information, scan operation setting information, work information of the work Wk, etc.) are associated with each other and transmitted to the robot control device 2 .
  • the processor 51 is configured using, for example, a CPU or FPGA, and cooperates with the memory 52 to perform various types of processing and control. Specifically, the processor 51 functionally implements the 3D calculation unit 54 and the program creation unit 55 by referring to the program held in the memory 52 and executing the program.
  • the memory 52 has, for example, a RAM as a work memory that is used when executing the processing of the processor 51, and a ROM that stores a program that defines the processing of the processor 51. Data generated or acquired by the processor 51 is temporarily stored in the RAM. A program that defines the processing of the processor 51 is written in the ROM. In addition, the memory 52 stores the welding operation teaching program created by the program creating unit 55, the scanning operation teaching program, and the workpiece information in association with each other.
  • An input/output unit 53 which is an example of an input unit and an acquisition unit, includes an execution command transmitted from the input device UI 3, a 3D model of the workpiece Wk, welding operation setting information, and scanning operation setting information, the robot control device 2, an inspection It acquires the position information of the weld line transmitted from the control device 3 or the input device UI 3 and outputs it to the processor 51 .
  • the input/output unit 53 also receives images of virtual production equipment (for example, virtual welding robots, virtual workpieces, virtual stages, etc.) generated by the 3D computing unit 54, virtual production equipment transmitted from the offline teaching device 5, An image obtained by superimposing the motion locus of the sensor 4 or the motion locus of the welding torch 400 on the image of the equipment is transmitted to the monitor MN3.
  • virtual production equipment for example, virtual welding robots, virtual workpieces, virtual stages, etc.
  • the 3D calculation unit 54 as an example of a generation unit includes, for example, input data (that is, three-dimensional shape data) regarding the shape of the work Wk or the weld bead, data of the 3D model of the work Wk, work information of the work Wk, production equipment (for example, positional information of the stage STG, robot information or positional information of the welding robot MC1), etc., virtual configured to
  • the 3D computing unit 54 converts the data of the virtually configured production equipment into image data, outputs the image data to the input/output unit 53, and displays it on the monitor MN3.
  • the 3D computing unit 54 also calculates one or more teaching points included in the teaching program for the welding operation created by the program creation unit, and the operation trajectory of the welding torch 400 (specifically, idle running section, welding section, etc.). etc. are virtually superimposed on the production equipment to generate image data.
  • the 3D computing unit 54 acquires one or more teaching points included in the scanning motion teaching program created by the program creating unit, the motion trajectory of the sensor 4 (specifically, various Image data is generated by virtually superimposing an operation trajectory indicating an operation, an idle running section, a scanning section, etc., on the production equipment.
  • the 3D computing unit 54 converts the data of the virtual production facility on which data included in various teaching programs are superimposed into image data, outputs the image data to the input/output unit 53, and displays it on the monitor MN3. Note that the 3D computing unit 54, based on teaching programs for the welding operation and the scanning operation, respectively, teaches points for the welding operation and the scanning operation, and the operation trajectories of the welding torch 400 and the sensor 4 (specifically, idle running). section, welding section, scanning section, etc.) may be collectively superimposed on virtual production equipment to generate image data.
  • a program creation unit 55 as an example of a control unit generates welding line position information (e.g., 3D model data of the workpiece Wk, input data related to the shape of the workpiece Wk or the weld bead, starting points and ending points of the welding lines). coordinate information), the welding operation setting information, and the scanning operation setting information, a teaching program for the welding operation and a teaching program for the scanning operation are created.
  • the program generator 55 includes a welding motion generator 551 and a scan motion generator 552 .
  • the welding operation creation unit 551 creates a welding operation teaching program for performing the main welding process on the workpiece Wk based on the input welding line position information and welding operation setting information.
  • the welding operation setting information referred to here may be a group of various parameters necessary for the welding operation, such as various welding conditions for the main welding and retracted positions of the welding torch 400 before the start of welding and after the end of welding.
  • the scan motion creation unit 552 generates motion trajectories of welding motions, weld line position information, a 3D model, one or more scan effective areas arranged on the 3D model, scan motion setting information, and the like.
  • a scanning operation teaching program for executing a visual inspection process for a weld bead or other visual inspection portion generated on the workpiece Wk.
  • the scan operation setting information here means the distance between the sensor 4 and the workpiece Wk, the information of the sensor 4 (for example, the effective scan range AR0 (see FIG. 4), the effective scan area AR1 (see FIG. 5), etc.).
  • any parameter group may be used as long as it is necessary for the scanning operation of the object to be inspected.
  • approach information for example, approach start position and approach end position information, instruction information for instructing approach, etc.
  • scan run-up section scan section
  • retract information for example, retract start position and retract end position information , instruction information for instructing retraction, etc.
  • avoidance information for example, information on the avoidance start position and avoidance end position, position information of the original work that is an obstacle to be avoided, jigs, etc.
  • avoidance information for example, information on the avoidance start position and avoidance end position, position information of the original work that is an obstacle to be avoided, jigs, etc.
  • the off-line teaching device 5 teaches a new scanning motion based on the operator's operation obtained via the input device UI 3 and a teaching program for a welding motion or scanning motion that has already been created for the same or another work. Create a teaching program.
  • FIG. 3 is a diagram showing an example of the 3D model MD1. Note that the work Wk indicated by the 3D model MD1 in FIG. 3 is an example and is not limited to this.
  • the off-line teaching device 5 instructs the robot controller 2, the inspection controller 3, or the input device UI 3, based on the operator's operation, to perform welding operation and scanning operation of the workpiece Wk for which a teaching program for a new scanning operation is to be created. and the 3D model data. Specifically, first, the off-line teaching device 5 determines the operation trajectory of the welding operation of the work Wk for which the scan operation teaching program is to be created (that is, the operation trajectory of the welding torch 400 during the main welding), and the bead appearance inspection.
  • Data of the 3D model of the workpiece Wk, which is the object that is, data of the three-dimensional shape of the workpiece Wk
  • information of the effective scanning range AR0 of the sensor 4 for example, distance information between the sensor 4 and the effective scanning range AR0, three-dimensional information such as range information of the scan effective range AR0.
  • the offline teaching device 5 superimposes the operation trajectory RT1 of the welding operation on the acquired data of the 3D model MD1 of the work Wk.
  • the off-line teaching device 5 superimposes an image (that is, , FIG. 3) are generated and transmitted to the monitor MN3 for display.
  • the offline teaching device 5 based on the 3D model MD1 on which the operation trajectory RT1 of the welding operation is superimposed, scans the idling operation sections RT11 and RT12 and the scanning sections WL11 and WL12 during the bead visual inspection of the workpiece Wk.
  • the welded section or the like indicated by each, or each of the weld lines WLM11 and WLM12, can be presented to the operator so as to be visually recognizable.
  • the offline teaching device 5 may omit the acquisition of the position information of the welding line when creating the scanning operation teaching program.
  • the offline teaching device 5 only needs to be able to acquire at least the data of the 3D model MD1 of the workpiece Wk and the motion trajectory RT1 of the welding motion.
  • the offline teaching device 5 can acquire various motion information (for example, approach motion, retract motion, avoidance motion, etc.) related to the welding motion associated with the motion trajectory RT1 of the welding motion. It should be noted that if the avoidance action is unnecessary, the information regarding the avoidance action may be omitted.
  • the offline teaching device 5 executes processing for generating a scan effective area of the sensor 4, which will be described later, based on the operator's operation. Further, the offline teaching device 5 may execute processing for generating a new scan effective area based on the operator's operation.
  • the scan effective area generation processing will be described with reference to FIGS. 4 and 5, respectively.
  • FIG. 4 is a diagram illustrating an example of the scanning effective range AR0 of the sensor 4.
  • FIG. FIG. 5 is a diagram illustrating an example of the scan effective area AR1 of the sensor 4. As shown in FIG. It goes without saying that the effective scan range AR0 shown in FIG. 4 and the effective scan area AR1 shown in FIG. 5 are examples, and are not limited to these.
  • a scan effective range AR0 shown in FIG. 4 is a range in which the sensor 4 can scan the three-dimensional shape of an object (for example, a weld bead to be inspected for bead appearance) on the YZ plane.
  • the sensor 4 is moved in the traveling direction by driving the manipulator 200 of the welding robot MC1 to scan and obtain the three-dimensional shape of the object located within the scan effective area AR1 shown in FIG.
  • the offline teaching device 5 receives an operator's operation for the scan effective range AR0 of the sensor 4 and generates a scan effective area AR1. Specifically, the offline teaching device 5 accepts operator's operation to move the scanning effective range AR0 on the YZ plane in any one direction that can be read by the sensor 4 of the welding robot MC1. The offline teaching device 5 generates the scan effective area AR1 based on the direction of the movement operation performed by the operator and the section of this movement operation (that is, the distance between the movement start position and the movement end position).
  • the offline teaching device 5 determines the distance of the scan section SR1 from the effective scan range AR0.
  • a scan effective area AR1 is generated up to the scan effective area AR01 located at .
  • the offline teaching device 5 supplies the acquired 3D model MD1 or the teaching program for scan teaching with one or more pieces of scan effective area information (for example, the position, three-dimensional shape, size, angle, etc. of the scan effective area). etc.), an editing operation such as copying (duplicating), deleting, or dividing any one of the one or more scan valid areas may be accepted.
  • scan effective area information for example, the position, three-dimensional shape, size, angle, etc. of the scan effective area. etc.
  • an editing operation such as copying (duplicating), deleting, or dividing any one of the one or more scan valid areas may be accepted.
  • the offline teaching device 5 accepts the operator's operation via the input device UI 3 and generates one scan effective area having an arbitrary size and angle. good too.
  • the offline teaching device 5 accepts an operation such as copying (replicating) or deleting one generated scan effective area.
  • the offline teaching device 5 stores one or more scan effective area information (for example, scan effective area position, three-dimensional shape, size , angle, etc.) are not linked, a teaching program for a new scanning operation can be created by generating a scan effective area based on the operator's operation.
  • the offline teaching device 5 includes the scan effective area generated based on the operator's operation, or the scan effective area edited, the motion trajectory of the welding motion, and the 3D model of the workpiece Wk.
  • a teaching program for a new scan operation is created based on MD1.
  • FIG. 6 is a diagram illustrating an example of copy processing of the scan effective areas AR11 and AR12 according to the first embodiment.
  • the scan effective area AR11 shown in FIG. 6 is a scan effective area corresponding to the scan section WL11 of the welding line WLM11 shown in FIG.
  • a scan effective area AR11 indicates a scannable area of the sensor 4 when scanning a weld bead formed based on the weld line WLM11.
  • the scan effective area AR12 shown in FIG. 6 is the scan effective area corresponding to the scan section WL12 of the weld line WLM12 shown in FIG.
  • a scan effective area AR12 indicates a scannable area of the sensor 4 when scanning a weld bead formed based on the weld line WLM12.
  • each of the two scan effective areas AR11 and AR12 is an example and need not be limited to this.
  • Copy processing of the scan effective area is useful, for example, for teaching the scanning operation of a workpiece that includes two or more workpieces having the same shape.
  • the copy processing of the scan effective area is the scan operation used for executing external appearance inspections other than the welding points (for example, inspections for determining the presence or absence of parts (screws, etc.) already attached to the workpiece). Useful for teaching.
  • the offline teaching device 5 acquires 3D model data (for example, , in the example shown in FIG. 6, one 3D model data in which the relative positions of the 3D model MD1 and the 3D model MD2 are defined).
  • the off-line teaching device 5 copies (duplicates) the 3D model MD1 and accepts a definition operation for defining the relative positions of the 3D model MD1 and the 3D model MD2.
  • 3D model data may be acquired.
  • the offline teaching device 5 copies one or more scan effective areas (here, two scan effective areas) specified by the operator's operation. AR11 and AR12) are copied (duplicated). The offline teaching device 5 arranges each of the plurality of copied (duplicated) scan effective areas AR13 and AR14 at each of the designated positions based on the operator's operation acquired via the input device UI3.
  • the offline teaching device 5 acquires a specified position based on the operator's operation via the input device UI3, it identifies the position of the welding robot MC1 corresponding to this specified position from the motion trajectory of the welding robot MC1.
  • the offline teaching device 5 calculates the position and orientation of the sensor 4 included in the welding robot MC1 at the specified position of the welding robot MC1, and based on the calculated position and orientation of the sensor 4, the sensor 4 at the specified position. Calculate the position and angle (orientation) of the scan effective area.
  • the offline teaching device 5 generates an image in which the scan effective area is superimposed on the 3D model MD1 based on the calculated position and angle (orientation) of the scan effective area.
  • the offline teaching device 5 transmits the generated image to the monitor MN3 for display.
  • the offline teaching device 5 displays each scan effective area based on the motion trajectory of the welding robot MC1 (for example, the four scan effective areas AR11 to AR11 superimposed on each of the 3D models MD1 and MD2 after copy processing shown in FIG. 6). AR14 respectively) can be visualized to the operator.
  • the offline teaching device 5 creates a scan effective area corresponding to the position and orientation of the sensor 4 at the specified position on the 3D model MD1 based on the position of the welding robot MC1 associated with the motion trajectory of the welding robot MC1.
  • Superimposition is possible. Therefore, the offline teaching device 5 in Embodiment 1 can detect the difference between the scan effective area of the sensor 4 when the actual welding robot MC1 is operated and the virtual scan effective area constructed by the offline teaching device 5. can be made smaller. As a result, the off-line teaching device 5 can present to the worker the scan effective area that can be scanned by the sensor 4 during operation, so that the teaching work by the worker can be efficiently supported.
  • the offline teaching device 5 presents the operator with a scan effective area that can be scanned by the sensor 4 during operation, thereby further improving the scanning accuracy of the teaching point (that is, the scan effective area) during operation, It is possible to more efficiently reduce the load required for the teaching work such as correction of the teaching location (scan effective area).
  • FIG. 7 is a diagram illustrating example 1 of deletion processing of the scan effective area AR12 according to the first embodiment.
  • FIG. 8 is a diagram illustrating example 2 of processing for deleting the scan effective area AR17 according to the first embodiment. It goes without saying that the scanning effective area deletion processing example shown in FIGS. 7 and 8 is an example, and the present invention is not limited to this.
  • the 3D model MD1 of the workpiece Wk shown in FIG. 7 is the same as the 3D model MD1 shown in FIG. 6, so the description is omitted.
  • the processing for deleting the scan effective area is such that although the welding torch 400 can be welded at the time of main welding due to the shape of the workpiece Wk, the sensor 4 cannot approach the position where the sensor 4 can scan during the visual inspection, and obstacles (such as the workpiece Wk, This is useful for teaching the scanning operation when interference occurs with a jig of the work Wk, or when the scan effective area of the sensor 4 does not reach the target portion of the visual inspection.
  • the offline teaching device 5 can acquire data of a 3D model of a production facility or an obstacle as information about the production facility of the workpiece Wk, the virtual 3D model of the production facility or the obstacle, An image including the virtual 3D model MD1 of the workpiece Wk and one or more scan effective areas may be generated and transmitted to the monitor MN3 for display. Accordingly, the worker visually confirms whether or not each of the scan effective areas arranged on the 3D model MD1 of the work Wk interferes with production equipment or obstacles, and selects the scan effective area to be deleted. Easy to find.
  • the offline teaching device 5 deletes the scan effective area AR12 specified by the operator's operation obtained via the input device UI3.
  • each of the plurality of visual inspection locations referred to here is not limited to only the weld bead, and may be, for example, the presence or absence of a component included in the workpiece.
  • the 3D model MD21 of the workpiece shown in FIG. 8 is data of a 3D model of a work produced by welding three original works Wk1, Wk2, Wk3 with two welding lines WLM21, WLM22, respectively. is a top view of (viewed from the Z direction).
  • illustration of the motion trajectory of the welding motion is omitted.
  • the original work Wk1 and the original work Wk2 are each welded by a welding line WLM21.
  • a bead visual inspection of the weld bead formed corresponding to the weld line WLM21 is performed by scanning the scan effective area AR16 with the sensor 4.
  • FIG. Further, the original work Wk2 and the original work Wk3 are each welded by a welding line WLM22.
  • a bead visual inspection of the weld bead formed corresponding to the weld line WLM22 is performed by the sensor 4 scanning the scan effective area AR17.
  • the scan effective area AR16 is an area including the two welding lines WLM21 and WLM22, and partially overlaps the scan effective area AR17. In such a case, the offline teaching device 5 deletes the scan effective area AR17 when receiving a control command to delete the scan effective area AR17 transmitted from the input device UI3.
  • the operator can perform unnecessary scanning based on the virtual 3D model MD21 of the work created by the offline teaching device 5 and displayed on the monitor MN3 and each of the scan effective areas superimposed on the work.
  • a teaching point (for example, the scan effective area AR17 shown in FIG. 8) can be found or deleted.
  • the offline teaching device 5 can support the teaching work performed by the operator so that it can be executed more efficiently, and can create a more efficient teaching program for the scanning operation based on the operator's operation.
  • FIG. 9 is a diagram for explaining an example of dividing the scan effective area AR15 according to the first embodiment. It goes without saying that the scanning effective area deletion processing example shown in FIG. 9 is merely an example, and the present invention is not limited to this.
  • the 3D model MD1 of the workpiece Wk shown in FIG. 9 shows an example in which one scan effective area AR15 including the respective positions of the two welding lines WLM11 and WLM12 shown in FIG. 3 is arranged.
  • one scan effective area AR15 is arranged at a position including the obstacle OB1 (original workpiece).
  • the scanning effective area division processing is such that although the welding torch 400 can be welded at the time of main welding due to the shape of the workpiece Wk, the sensor 4 cannot approach the position where the sensor 4 can scan during the visual inspection, and obstacles (workpiece Wk, It is useful for teaching the scanning operation in the case of interference with the jig of the work Wk.
  • the offline teaching device 5 converts one scan effective area AR15 into two scan effective areas based on a control command for instructing division of the scan effective area AR15 and a control command for designating the division position transmitted from the input device UI3. It is divided into AR151 and AR152. Note that here, the offline teaching device 5 is operated by the operator for each scan section of the two scan effective areas AR151 and AR152 after the division process as in the scan effective area change process described later in Embodiment 2. It may be possible to accept designation by
  • the operator can teach points (for example, , the scan effective area AR15 shown in FIG. 9) can be divided.
  • the offline teaching device 5 can support the teaching work performed by the operator so that it can be executed more efficiently, and can create a more efficient teaching program for the scanning operation based on the operator's operation.
  • FIG. 10 is a diagram illustrating an example of various operations associated with the scan effective areas AR11 and AR12 according to the first embodiment.
  • FIG. 11 is a flow chart showing an operation procedure example of the offline teaching device 5 according to the first embodiment. It goes without saying that the various operations shown in FIG. 10 are examples and the present invention is not limited to these.
  • the 3D model MD1 of the workpiece shown in FIG. 10 shows an example in which the two scan effective areas AR11 and AR12 shown in FIG. 6 are arranged.
  • illustration of the two scan effective areas AR11 and AR12 is omitted in order to facilitate understanding of various operations.
  • the offline teaching device 5 Based on the data of the 3D model MD1 and the teaching program of the welding operation, the offline teaching device 5 acquires the operation trajectory RT1 of the welding operation and various pieces of operation information (specifically, Approach information, retraction information, avoidance information, etc.) and two scan effective areas AR11 and AR12 arranged on the 3D model MD1, a teaching program for a new scan operation is created.
  • various pieces of operation information specifically, Approach information, retraction information, avoidance information, etc.
  • the offline teaching device 5 determines whether or not there is a scan effective area for which a scan operation for causing the sensor 4 to scan the scan effective area has not yet been created among each of the one or more scan effective areas (St10).
  • the off-line teaching device 5 determines in the process of step St10 that there is a scan effective area for which no scan operation has been created (St10, YES), the sensor 4 detects this scan effective area based on the welding operation teaching program. It is determined whether or not there is approach information necessary for scanning (St11).
  • step St10 determines in the process of step St10 that there is no scan effective area for which the scan operation has not yet been created (St10, NO)
  • each of all the scan effective areas arranged on the 3D model MD1 A new teaching program for scanning motions corresponding to the 3D model MD1 is created by linking each of the teaching programs for scanning motions corresponding to .
  • the offline teaching device 5 determines that there is approach information in the process of step St11 (St11, YES), it creates an approach motion corresponding to the scan effective area (St13).
  • the offline teaching device 5, as shown in FIG. is linked, an approach operation is created in which the sensor 4 approaches the workpiece Wk in the section APR11 from the approach start position PT1 to the approach end position PT2.
  • the approach information linked to the scan effective area AR11 may be at least one of the approach end positions PT2.
  • the offline teaching device 5 determines in the process of step St11 that there is no approach information (St11, NO), or after the process of step St13, it creates a scan operation corresponding to the scan effective area (St14). .
  • the offline teaching device 5 uses the section from the scan start position PT3 to the scan end position PT4 (here, A scanning operation is created to cause the sensor 4 to scan the section corresponding to the weld line WLM11.
  • the off-line teaching device 5 creates a teaching program for the scanning operation of the scan effective area AR12. , a section corresponding to the weld line WLM12), a scanning operation is created to cause the sensor 4 to scan.
  • the start position and the end position of the weld line WLM11 are located at substantially the same positions as the scan start position PT3 and the scan end position PT4 of the scan effective area AR11, respectively, and the start position of the weld line WLM12.
  • An example in which the position and the end position are located at substantially the same positions as the start position PT7 and the end position PT8 of the scan effective area AR12 is shown, but the present invention is not limited to this.
  • the start position of the weld line and the start position of the scan effective area may be different.
  • the end position of the weld line and the end position of the scan effective area may be different.
  • the offline teaching device 5 determines whether or not there is retraction information for the sensor 4 to leave the workpiece based on the welding operation teaching program (St15).
  • the offline teaching device 5 determines that there is retraction information in the process of step St15 (St15, YES), it creates a retraction motion corresponding to the scan effective area (St16).
  • the offline teaching device 5 stores the retract information of the retract start position PT9 and the retract end position PT10 in the 3D model MD1 or the motion trajectory RT1 as shown in FIG. is linked, a retract operation is created to separate the sensor 4 from the workpiece Wk in the section RTR11 from the retract start position PT9 to the retract end position PT10.
  • the retraction information associated with the scan effective area AR12 may be at least one of the retraction start positions PT9.
  • step St15 determines that there is no retraction information in the process of step St15 (St15, NO), or after the process of step St16, the sensor 4 is detected as an obstacle based on the welding operation teaching program. (St17).
  • step St17 When the offline teaching device 5 determines in the process of step St17 that there is avoidance information (St17, YES), it creates an avoidance action corresponding to the scan effective area (St18).
  • the offline teaching device 5 places an avoidance start position PT5 and an avoidance end position PT6 on the 3D model MD1 or the motion trajectory RT1 as shown in FIG. are associated with each other, an avoidance motion for avoiding the sensor 4 from the obstacle OB1 is created in the section ESC11 from the avoidance start position PT5 to the avoidance end position PT6.
  • step St17 determines that there is no avoidance information in the process of step St17 (St17, NO), or after the process of step St18, the next (that is, other) scan effective area
  • the scan operation creation process that is, the process of step St10
  • the offline teaching device 5 creates scanning motions corresponding to each of one or more teaching locations (scanning effective regions) generated based on the operator's operation via the input device UI 3, and all these teachings are performed.
  • a teaching program for a new scanning motion can be automatically created.
  • the offline teaching device 5 can create a teaching program for a new scanning motion based on the motion trajectory of the welding motion, the scanning accuracy of the teaching point (that is, the scan effective area) during operation can be improved, and the teaching It is possible to more efficiently reduce the load required for teaching work such as correction of a portion (scanning valid area).
  • the offline teaching device 5 includes the input/output unit 53 (an example of the input unit) capable of receiving operator operations, and the data of the 3D model MD1 of the workpiece Wk produced by welding (three-dimensional shape
  • An input/output unit 53 or a communication unit 50 (an example of an acquisition unit) that acquires an example of data) and a scan effective range AR0 (an example of a scan range) of the sensor 4 that scans the welding operation trajectory and the external shape of the workpiece Wk; , the scan effective area (for example, the scan effective area AR11 shown in FIG. 6) to be scanned by the sensor 4 based on the acquired scan effective area AR0 and the scan section (for example, the scan section SR1 shown in FIG. 5).
  • the welding robot MC1 that performs the welding scan effective area and a scan motion creation unit 552 (an example of a control unit) that creates and outputs a teaching program for scanning.
  • the offline teaching device 5 can scan the valid scan area corresponding to the position and orientation of the sensor 4 at the specified position based on the position of the welding robot MC1 associated with the motion trajectory RT1 of the welding robot MC1. can be placed on the 3D model MD1 to create a scan motion for each of the placed scan effective areas. Therefore, the off-line teaching device 5 can more efficiently create a teaching program for the scanning motion to be executed by the welding robot MC1 using the created scanning motion, and can scan during operation based on the teaching program for the scanning motion. It is possible to further improve the accuracy of the positions of the scan location and the teaching location (that is, the scan effective area). Therefore, the offline teaching device 5 can more efficiently create a scanning operation teaching program that can more efficiently reduce the load required for teaching work such as correction of a teaching point (scan effective area).
  • the scan motion creation unit 552 of the offline teaching device 5 can create the arranged scan effective areas (for example, the scan effective areas AR11 and AR12 shown in FIG. 10), the welding motion trajectory RT1, and the , and operation information (for example, approach information, retraction information, avoidance information, etc.) of the welding robot MC1 that performs welding linked to the data of the 3D model MD1, a teaching program is created.
  • the offline teaching device 5 in the first embodiment can create scan motions for the arranged scan effective areas based on the welding motion trajectory RT1 and the motion information of the welding robot MC1. Therefore, the off-line teaching device 5 can more efficiently create a teaching program for the scanning motion to be executed by the welding robot MC1 using the created scanning motion.
  • the scan motion creation unit 552 of the offline teaching device 5 in the first embodiment can perform various motions (for example, an approach motion, a retract motion, an avoidance motion, etc.) of the welding robot MC1 with respect to the workpiece Wk based on the motion information. and a scan operation for each scan effective area to be executed by the welding robot MC1.
  • the scan motion creation unit 552 creates a teaching program by associating scan motions corresponding to each of the created scan effective areas with various motions.
  • the offline teaching device 5 according to the first embodiment performs the scanning motions for the workpiece Wk based on the created various motions of the welding robot MC1 and the scanning motions created for each scan effective area. You can create a teaching program for
  • the scan motion creation unit 552 of the offline teaching device 5 creates welding lines of welding (for example, welding lines WLM11 and WLM12 shown in FIG. 10) linked to the data of the 3D model MD1. Then, a teaching program is created and output in which the welding line included in the scan effective area is used as the scan point (that is, the taught point) of the sensor 4 .
  • the offline teaching device 5 in the first embodiment can create a scanning operation teaching program capable of performing bead visual inspection of the weld bead formed on the produced workpiece Wk.
  • the 3D calculation unit 54 of the offline teaching device 5 in Embodiment 1 duplicates (copies) and arranges the scan effective area based on the operator's operation.
  • the scan motion creation unit 552 generates all scan effective areas (for example, the scan effective areas AR11 to AR14 shown in FIG. 6) including the duplicated scan effective areas (for example, each of the scan effective areas AR13 and AR14 shown in FIG. 6). respectively) and the welding operation locus RT1, a teaching program for scanning the scan effective area is created.
  • the offline teaching device 5 according to the first embodiment can copy each of the scan effective areas indicating the teaching points, thereby virtually generating the scan effective area and superimposing it on the 3D model MD1 and displaying the scan effective area.
  • the offline teaching device 5 can more efficiently create a scanning operation teaching program that further improves the positional accuracy between the scanning location scanned during operation and the teaching location (that is, the scan effective area).
  • the 3D calculation unit 54 of the offline teaching device 5 selects one of the generated two or more scan effective areas (for example, the 7) is deleted.
  • the scan motion creation unit 552 creates at least one scan effective region among all the scan valid regions after excluding the deleted scan valid region (for example, the scan valid region AR11 shown in FIG. 7) and the welding motion trajectory RT1. and create a teaching program for scanning the scan effective area.
  • the off-line teaching device 5 according to the first embodiment can create a teaching program for scanning motions that does not include unnecessary scanning motions by making it possible to delete each of the scan effective areas indicating teaching locations.
  • the 3D calculation unit 54 of the offline teaching device 5 in Embodiment 1 divides the scan effective area (for example, the scan effective area AR13 shown in FIG. 9) based on the operator's operation.
  • the scan motion creation unit 552 arranges a plurality of divided scan effective areas (for example, the scan effective areas AR131 and AR132 shown in FIG. 9), and selects the Based on at least one scan effective area and the welding operation trajectory RT1, a teaching program for scanning the scan effective area is created.
  • the offline teaching device 5 according to the first embodiment can divide each of the scan effective areas indicating the teaching points, so that the sensor 4 can be prevented from becoming an obstacle (production equipment or the original work constituting the work Wk).
  • a teaching program for scanning operations that do not interfere can be created more efficiently.
  • the offline teaching device 5 in Embodiment 1 includes one or more computers communicably connected to the input device UI3 by the operator operating the input device UI3.
  • the worker inputs the data (an example of three-dimensional shape data) of the 3D model MD1 of the work Wk produced by welding into the computer, and scans the external shape of the work Wk (for example, the scan section shown in FIG. 5).
  • SR1 is entered into the computer.
  • the offline teaching device 5 scans the data of the 3D model MD1 based on the scan points corresponding to the scan section (for example, the welding lines WLM11 and WLM12 shown in FIG. 10).
  • a teaching program is created for scanning a three-dimensional area by a welding robot MC1 that performs welding.
  • the offline teaching device 5 can automatically create a teaching program for the scanning operation by acquiring the data of the 3D model MD1 of the work Wk and the scanning section for scanning the external shape of the work Wk. .
  • Embodiment 2 The offline teaching device 5 according to Embodiment 1 accepts an operator's operation via the input device UI 3, and duplicates (copys) or deletes the scan effective area having the same scan section based on the accepted operator's operation.
  • an example of creating a teaching program for a new scan operation for executing editing such as division and causing the sensor 4 to scan each of one or more edited scan effective areas is shown.
  • the offline teaching device 5 according to the second embodiment accepts an operator's operation via the input device UI 3, and based on the accepted operator's operation, determines the scan section, rotation angle, and position (arrangement) of each scan effective area.
  • An example of creating a new scan operation teaching program for executing editing and causing the sensor 4 to scan each of one or more edited scan effective areas will be described.
  • the welding system 100 according to the second embodiment has substantially the same internal configuration as the welding system 100 according to the first embodiment. Further, the offline teaching device 5 according to the second embodiment has substantially the same internal configuration as the welding system 100 according to the first embodiment.
  • the same reference numerals are used for the same components as in the first embodiment, and the description thereof is omitted.
  • the offline teaching device 5 accepts an operator's operation via the input device UI 3, and based on the scan section, rotation angle, and position (arrangement) specified by the accepted operator's operation, one Generation of each of the above scan effective areas is executed. That is, each of the scan effective areas in Embodiment 2 may be generated with different scan sections, rotation angles, and positions (arrangements).
  • the offline teaching device 5 stores one or more pieces of information on the scan effective area (for example, the scan section, rotation angle, position (arrangement), etc. of the scan effective area) in the acquired 3D model MD1 or the teaching program for scan teaching.
  • an operator's editing operation may be accepted for the scan section, rotation angle, and position (arrangement) of one of the linked scan valid areas.
  • FIGS. 12 and 13 are diagrams illustrating an example of the movement processing and the rotation processing of the scan effective area AR2 according to the second embodiment.
  • 13A and 13B are diagrams for explaining each of scan effective area change processing example 1, change processing example 2, and change processing example 3 according to the second embodiment. Note that the scan effective area AR2 shown in FIGS. 12 and 13 is an example, and needless to say, the present invention is not limited to this.
  • a scan effective area AR2 shown in FIG. 12 has a scan section SR2 along the traveling direction (X direction).
  • the offline teaching device 5 accepts an operator's operation to move the scan section of the scan effective area AR2 in the X direction, the Y direction, or the Z direction with respect to the scan effective area AR2.
  • the offline teaching device 5 accepts the operator's operation via the input device UI3, and based on the accepted operator's operation (specifically, the amount of movement in any direction), determines the position of the scan effective area AR2. change.
  • the offline teaching device 5 cannot scan at least part of the scan effective area AR2 after the movement processing based on the operator's operation based on the operation trajectory of the welding operation and the scan effective range (see FIG. 4). If it is determined that the scan valid area AR2 after the movement process is not scannable, or only the area determined as not scannable in the scan valid area AR2 after the move process is displayed in a color such as red. may be generated and transmitted to the monitor MN3 for display. Accordingly, the operator can confirm at a glance whether or not the scan effective area AR2 after the movement processing is an area that can be scanned by the sensor 4.
  • FIG. 4
  • the offline teaching device 5 generates an image in which each of the plurality of rotation reference points RP is superimposed on the 3D model of the scan effective area AR2, and transmits the image to the monitor MN3 for display. Note that in FIG. 12, the reference numerals for all the rotation reference points RP are omitted. In the example shown in FIG. 12, 16 rotation reference points RP are shown, but the positions and number of rotation reference points for rotating the scan effective area AR2 are not limited to this.
  • the off-line teaching device 5 is operated by an operator to specify a rotation reference point RP, and to rotate in a rotation direction RRX about the X axis, a rotation direction RRY about the Y axis, or a rotation direction RRZ about the Z axis. , respectively.
  • the offline teaching device 5 performs a rotation process for rotating the scan effective area AR2 in the rotation direction RRX, the rotation direction RRY, or the rotation direction RRZ with the specified rotation reference point RP as the origin based on the operator's operation.
  • the offline teaching device 5 determines that at least a part of the scan effective area AR2 after the rotation processing based on the operator's operation is the 3D model MD1 of the workpiece Wk, the operation trajectory of the welding operation, and the scan effective range (see FIG. 4). ), a notification to the effect that the scan effective area AR2 after the rotation process is unscannable, or it is determined that the scan is impossible in the scan effective area AR2 after the rotation process.
  • a screen may be generated in which only the selected area is highlighted in a color such as red, and transmitted to the monitor MN3 for display. Accordingly, the operator can confirm at a glance whether or not the scan effective area AR2 after the rotation processing is an area that can be scanned by the sensor 4.
  • a scan effective area AR2 shown in FIG. 13 has a scan section SR2 along the traveling direction (X direction).
  • the offline teaching device 5 accepts an operator's operation for changing the scan effective area AR2 by extending the scan section of the scan effective area AR2 in the X direction, Y direction, or Z direction. .
  • the offline teaching device 5 accepts the operator's operation via the input device UI3, and based on the accepted operator's operation (specifically, extension in the X direction), the length of the scan effective area AR2 (scan section ).
  • the offline teaching device 5 accepts an operator's operation to extend the scan section of the scan effective area AR2 in the X direction, Y direction, or Z direction with respect to the scan effective area AR2.
  • the offline teaching device 5 accepts the operator's operation via the input device UI3, and based on the accepted operator's operation (specifically, extension in the X direction), the size of the scan effective area AR2 (scan section ).
  • the scan effective area AR21 shown in modification processing example 1 is a scan effective area generated by execution of modification processing in which the scan effective area AR2 is extended by a distance SR211 in the X direction and by a distance SR212 in the -X direction. It has a scan section SR213.
  • the scan effective area AR22 shown in modification processing example 2 is a scan effective area generated by execution of modification processing that extends the scan effective area AR2 by a distance SR221 in the X direction, and has a scan section SR222.
  • the scan effective area AR23 shown in modification processing example 3 is a scan effective area generated by performing modification processing to extend the scan effective area AR2 in the -X direction by a distance SR231, and has a scan section SR232. It goes without saying that each of the scan effective areas AR21, AR22, and AR23 after the change processing shown in FIG. 13 is an example and is not limited to this.
  • the offline teaching device 5 scans at least part of the scan section of the scan effective area AR2 changed based on the operator's operation based on the operation trajectory of the welding operation and the scan effective range (see FIG. 4). If it is determined that it is not possible, a notification is sent to the effect that the scan valid area AR2 after the change processing is outside the scan valid range, or an area outside the scan valid range of the scan valid area AR2 after the change process is displayed in red, for example. A color-highlighted screen may be generated and sent to monitor MN3 for display. Accordingly, the operator can confirm at a glance whether or not the scan effective area AR2 after the change processing is an area that can be scanned by the sensor 4 .
  • FIGS. 14, 15, and 16 a specific description will be given of the scanning effective area editing process and the new scanning operation teaching program creation process of the offline teaching device 5 according to the second embodiment.
  • the 3D model MD3 shown in FIGS. 14 to 16 is merely an example, and the present invention is not limited to this.
  • the 3D model MD3 shown in each of FIGS. 14 to 16 omits illustration of the operation trajectory RT3 of the welding operation in order to facilitate the explanation of the scan effective area editing process.
  • the taught location WLM3 shown in FIG. 14 is shown to facilitate understanding of the taught locations (scanning locations) taught by the arrangement of each of the plurality of scan effective areas AR31, AR32, AR33, AR34, and AR35, which will be described later. , may be omitted on the screen displayed on the monitor MN3.
  • the off-line teaching device 5 instructs the robot controller 2, the inspection control device 3, or the input device UI 3, based on the operator's operation, to create a teaching program for a new scanning motion of the workpiece Wk.
  • the teaching programs for the welding operation and scanning operation and the data of the 3D model MD3 are obtained.
  • the offline teaching device 5 superimposes the operation trajectory RT3 of the welding operation on the acquired data of the 3D model MD3 of the work Wk.
  • the operator may be able to select display or non-display of the motion trajectory RT3 of the welding motion superimposed on the data of the 3D model MD3.
  • the offline teaching device 5 generates an image in which the motion trajectory RT3 of the acquired welding motion is superimposed on the 3D model MD3 of the work Wk, and transmits the image to the monitor MN3 for display.
  • the offline teaching device 5 also superimposes the acquired 3D model MD3 of the workpiece Wk or the scanning effective area AR31 linked to the scanning operation teaching program on the data of the 3D model MD3. If there is no scan effective area linked to the 3D model MD3 of the workpiece Wk or the scan operation teaching program, the offline teaching device 5 executes a new scan effective area generation process based on the operator's operation. do.
  • the offline teaching device 5 shown in FIG. 15 generates two scan effective areas AR32 and AR33 by copying (replicating) the scan effective area AR31 based on the operator's operation via the input device UI3.
  • the offline teaching device 5 moves the two scan effective areas AR32 and AR33 to positions specified by the operator and places them on the 3D model MD3.
  • the offline teaching device 5 shown in FIG. 16 generates two scan effective areas AR34 and AR35 by copying (replicating) the scan effective area AR31 based on the operator's operation via the input device UI3, and generates a 3D model. Place on MD3.
  • the illustration of the scan effective area AR35 is omitted in order to make the explanation easier to understand.
  • the offline teaching device 5 moves each of the two scan effective areas AR34 and AR35 to positions specified by the operator.
  • the offline teaching device 5 performs a designation operation of a rotation reference point (not shown) designated by the operator in each of the two scan effective areas AR34 and AR35, and selects a direction with this rotation reference point as the origin. Receives the operation of specifying the amount of rotation to.
  • the offline teaching device 5 rotates each of the scan effective areas AR34 and AR35 based on each of the accepted designation operations and arranges them on the 3D model MD3.
  • the offline teaching device 5 may further receive a designation operation regarding the shape of the teaching location corresponding to each of the five scan effective areas AR31 to AR35. Specifically, the off-line teaching device 5 performs a designation operation for designating whether a teaching point (that is, a scanning point) is a linear shape, a curved shape, or a shape including a straight line and a curved line for each scan effective area. may be accepted.
  • a teaching point that is, a scanning point
  • the offline teaching device 5 in the example of the 3D model MD3 shown in FIG. A designation operation is accepted to the effect that the taught location is a line including a straight line and a curved line, and that the taught location corresponding to the scan effective area AR33 is a curved line.
  • the offline teaching device 5 provides information on the shape of the teaching point corresponding to each designated scan effective area, and the three-dimensional shape of the 3D model MD3 (specifically, one or more shapes constituting the workpiece Wk). (surface shape of the original work, intersection or contact point between the original work and the original work, etc.), or the operation trajectory of the welding operation, teaching taught by each of the five scan effective areas AR31 to AR35 generated based on Get location WLM3.
  • the offline teaching device 5 may acquire the taught points included in each of the plurality of continuous scan effective areas as one continuous taught point.
  • the offline teaching device 5 in the second embodiment acquires the taught point WLM3 taught by each of the five generated scan effective areas AR31 to AR35 even when there is no weld line position information.
  • a teaching program for a new scanning operation for causing the sensor 4 to scan the five scan effective areas AR31 to AR35 is created using the acquired teaching point WLM3.
  • a procedure for creating a teaching program for a new scan operation by the offline teaching device 5 is the same as the flow chart showing an example of the operation procedure of the offline teaching device 5 according to the first embodiment shown in FIG.
  • FIG. 17 is a diagram illustrating an example of various operations associated with the scan effective areas AR31 to AR35 according to the second embodiment. Note that the specific examples of various operations shown in FIG. 17 are merely examples, and needless to say, the present invention is not limited to these.
  • the offline teaching device 5 executes creation and linking processing of various actions of the 3D model MD3 based on each of the five scan effective areas AR31 to AR35, based on the action procedure shown in the flowchart of FIG.
  • the offline teaching device 5 based on the information of various motions linked to the 3D model MD3 or the motion trajectory RT3 of the welding motion, in the section APR31 from the approach start position PT11 to the approach end position PT12 , to create an approach motion for bringing the sensor 4 closer to the workpiece Wk.
  • the offline teaching device 5 based on the information of various motions linked to the 3D model MD3 or the motion trajectory RT3 of the welding motion, in the section RTR31 from the retraction start position PT15 to the retraction end position PT16, from the work Wk to the sensor Create a retract motion that moves 4 apart.
  • the offline teaching device 5 associates each motion of all created scan effective areas. Specifically, the offline teaching device 5 associates the approach motion, the retract motion, and the scan motion (that is, the motion for causing the sensor 4 to scan the taught location WLM3). Note that FIG. 17 illustrates an example in which avoidance information is not associated with the 3D model MD3 or the welding operation trajectory RT3.
  • the offline teaching device 5 creates a scanning operation corresponding to each of one or more teaching locations (scanning effective regions) generated based on the operator's operation via the input device UI3. , by linking the scan operations corresponding to all of these teaching locations (scanning effective areas), a teaching program for new scan operations can be automatically created.
  • the offline teaching device 5 can create a teaching program for a new scanning motion based on the motion trajectory of the welding motion, the scanning accuracy of the teaching point (that is, the scan effective area) during operation can be improved, and the teaching It is possible to more efficiently reduce the load required for teaching work such as correction of a portion (scanning valid area).
  • the offline teaching device 5 can perform the following operations based on each of the generated one or more scan effective areas, even when there is no data on the weld line (position information of the weld line). , a new scanning operation teaching program can be created.
  • the offline teaching device 5 preliminarily stores welding lines in the data of the 3D model MD3. , or if a teaching point (scanning point) or the like is tied, the position information of the tied welding line, intersection, contact point, or teaching point (scanning point) is acquired.
  • the offline teaching device 5 generates one or more scan effective areas based on the operation trajectory RT3 of the welding operation and the acquired welding line, intersection, contact point, or teaching point (scanning point). Execute copy (replication) processing, rotation processing, movement processing, etc. for the scan effective area, and automatically generate each of multiple scan effective areas including acquired weld lines, intersections, contact points, or taught points (scan points). and placed on the 3D model MD3.
  • the off-line teaching device 5 can more efficiently create a scanning operation teaching program for scanning the acquired welding line, intersection, contact point, or teaching point (scanning point) with the sensor 4 .
  • the offline teaching device 5 provides information on the surface shape of the original work that constitutes the work Wk linked to the 3D model MD3, or a plurality of points (intersections) at which the original works intersect or touch each other. Based on the information of multiple points (contact) and the shape information of the teaching points (scanning points) corresponding to each scanning effective area, the length of the straight line, the curvature of the curve, etc. of the teaching points (scanning points) are automatically calculated. You may As a result, the off-line teaching device 5 can automatically calculate acquired welding lines, intersections, contact points, or teaching points (for example, teaching points WLM3, etc.). can be created efficiently.
  • the offline teaching device 5 includes the input/output unit 53 (an example of the input unit) capable of receiving operator operations, and the data of the 3D model MD3 of the workpiece Wk produced by welding (three-dimensional shape an example of data), a welding operation trajectory RT3, and a scanning effective range AR0 (an example of a scanning range) of the sensor 4 that scans the external shape of the workpiece Wk. Then, the sensor 4 scans based on the acquired scan effective range AR0 (an example of a three-dimensional area) and the scan section specified by the operator's operation (for example, the scan sections SR213, SR222, and SR232 shown in FIG.
  • the 3D calculation unit 54 (an example of the generation unit) that generates the scan effective areas (for example, the scan effective areas AR21, AR22, and AR23 shown in FIG. 13) arranging at least one scan effective area on the data of the 3D model MD3 of the workpiece, and scanning the scan effective area with the welding robot MC1 that performs welding based on the arranged scan effective area and the welding operation trajectory RT3. and a scanning motion creation unit 552 (an example of a control unit) that creates and outputs a teaching program for scanning.
  • the scan effective areas for example, the scan effective areas AR21, AR22, and AR23 shown in FIG. 13
  • arranging at least one scan effective area on the data of the 3D model MD3 of the workpiece and scanning the scan effective area with the welding robot MC1 that performs welding based on the arranged scan effective area and the welding operation trajectory RT3.
  • a scanning motion creation unit 552 (an example of a control unit) that creates and outputs a teaching program for scanning.
  • the offline teaching device 5 can scan effective regions corresponding to the position and orientation of the sensor 4 at the specified position, based on the position of the welding robot MC1 associated with the motion trajectory RT3 of the welding robot MC1. can be placed on the 3D model MD3 to create a scan motion for each of the placed scan effective areas. Therefore, the off-line teaching device 5 can more efficiently create a teaching program for the scanning motion to be executed by the welding robot MC1 using the created scanning motion, and can scan during operation based on the teaching program for the scanning motion. It is possible to further improve the accuracy of the positions of the scan location and the teaching location (that is, the scan effective area). Therefore, the offline teaching device 5 can more efficiently create a scanning operation teaching program that can more efficiently reduce the load required for teaching work such as correction of a teaching point (scan effective area).
  • the scan motion creation unit 552 of the offline teaching device 5 performs welding linked to the data of the arranged scan effective area, the welding motion trajectory RT3, and the 3D model MD1.
  • a teaching program is created based on operation information (for example, approach information, retraction information, avoidance information, etc.) of the welding robot MC1.
  • the offline teaching device 5 in the second embodiment can create scan motions for the arranged scan effective areas based on the welding motion trajectory RT3 and the motion information of the welding robot MC1. Therefore, the off-line teaching device 5 can more efficiently create a teaching program for the scanning motion to be executed by the welding robot MC1 using the created scanning motion.
  • the scanning motion creation unit 552 of the offline teaching device 5 according to the second embodiment can perform various motions (for example, an approach motion, a retraction motion, an avoidance motion, etc.) for the workpiece of the welding robot MC1 based on the motion information.
  • a scanning operation for each scan effective area to be executed by the welding robot MC1 is created, and a teaching program is created by associating the scanning operation corresponding to each of the created scan effective areas with various operations.
  • the off-line teaching device 5 according to the second embodiment performs the scanning motions for the workpiece Wk based on the created various motions of the welding robot MC1 and the scan motions created for each scan effective area. You can create a teaching program for
  • the scan motion creation unit 552 of the offline teaching device 5 can determine the shape (for example, the linear shape) of the scan location (that is, the teaching location) to be scanned in each of the scan effective areas by the operator's operation. , a curved shape, or a shape including straight lines and curves) is accepted, and welding is performed based on the shape of each scan location in the specified scan effective area, the arranged scan effective area, and the operation trajectory RT3 A teaching program for causing the robot MC1 to scan the scan effective area is created and output.
  • the shape for example, the linear shape
  • the off-line teaching device 5 provides a teaching program for scanning operations suitable for the shape of the scanning location (teaching location) specified in each scan effective area based on the shape of the scanning location (teaching location). can be automatically created.
  • the 3D calculation unit 54 of the offline teaching device 5 in Embodiment 2 duplicates and arranges the scan effective area (for example, the scan effective area AR31 shown in FIG. 15) based on the operator's operation.
  • the scan operation creation unit 552 creates at least one scan effective area among all the scan effective areas including the duplicated scan effective areas (for example, the scan effective areas AR32 to AR35 shown in FIGS. 15 to 17) and the welding operation. Based on the trajectory RT3, a teaching program is created for scanning the scan effective area (for example, the scan effective areas AR31 to AR35 shown in FIG. 17).
  • the offline teaching device 5 enables each of the scan effective areas indicating the teaching points to be duplicated, thereby virtually generating the scan effective area and displaying the scan effective area superimposed on the 3D model MD3. Positional deviation between the area and the scan effective area that can be scanned by the actual sensor 4 can be suppressed. Therefore, the offline teaching device 5 can more efficiently create a scanning operation teaching program that further improves the positional accuracy between the scanning location scanned during operation and the teaching location (that is, the scan effective area).
  • the 3D calculation unit 54 of the offline teaching device 5 can set one point (one of the plurality of rotation reference points RP shown in FIG. 12) on the scan effective area specified by the operator's operation.
  • the scan effective area is rotated based on one rotation reference point) and the amount of rotation about one point as the rotation center.
  • the scan motion creation unit 552 selects at least one of all the scan effective areas (for example, the scan effective areas AR31 to AR35 shown in FIG. 17) including the rotated scan effective area (for example, the scan effective area AR34 shown in FIG. 16).
  • a teaching program for scanning the scan effective area is created based on the two scan effective areas and the welding operation trajectory RT3.
  • the offline teaching device 5 according to the second embodiment can generate a scan effective area more suitable for the taught point by making each of the scan effective areas indicating the taught point rotatable. Therefore, the offline teaching device 5 according to the second embodiment can more efficiently create a teaching program for scanning operations more suitable for the workpiece Wk scanned by the sensor 4 based on the generated scan effective area.
  • the 3D calculation unit 54 of the offline teaching device 5 determines the scan effective area (for example, the scan effective area shown in FIG. 16) based on the movement amount of the scan effective area designated by the operator's operation. Move the position of the area AR34).
  • the scan motion creation unit 552 selects at least one of all scan effective areas (for example, the scan effective areas AR31 to AR35 shown in FIG. 17) including the moved scan effective area (for example, the scan effective area AR34 shown in FIG. 16).
  • a teaching program for scanning the scan effective area is created based on the two scan effective areas and the welding operation trajectory RT3.
  • the offline teaching device 5 according to the second embodiment can generate the scan effective area at a position more suitable for the teaching point by enabling each of the scan effective areas indicating the teaching point to be moved. Therefore, the offline teaching device 5 according to the second embodiment can more efficiently create a teaching program for scanning operations more suitable for the workpiece Wk scanned by the sensor 4 based on the generated scan effective area.
  • the offline teaching device 5 in the second embodiment includes one or more computers communicatively connected to the input device UI3 by the operator operating the input device UI3.
  • the worker inputs the data of the 3D model MD3 (an example of three-dimensional shape data) of the work Wk produced by welding into the computer, and scans the external shape of the work Wk (for example, the scan section shown in FIG. 13).
  • SR 213, SR 222, SR 232) are input to the computer, and the shape (for example, a straight line shape, a curved line shape, or a shape including a straight line and a curved line) of the scanning portion to be scanned in the scanning section is input to the computer.
  • the offline teaching device 5 creates a teaching program for causing the welding robot MC1 that performs welding to scan a scan effective area (an example of a three-dimensional area) based on the shape of the scan location.
  • the offline teaching device 5 in the second embodiment acquires the data of the 3D model MD3 of the work Wk, the scan section for scanning the external shape of the work Wk, and the shape of the scan location scanned in the scan section. This makes it possible to automatically create a teaching program for scanning operations.
  • the present disclosure is useful as an offline teaching device and offline teaching method for more efficiently creating a teaching program for sensor scanning operations executed by a welding robot.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Plasma & Fusion (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

オフライン教示装置は、作業者操作を受け付け可能な入力部と、ワークの3次元形状データと溶接の動作軌跡とセンサのスキャン範囲とを取得する取得部と、スキャン範囲とスキャン区間とに基づいて、スキャンされる3次元領域を生成する生成部と、ワークの3次元形状データ上に少なくとも1つの3次元領域を配置し、配置された3次元領域と、溶接の動作軌跡とに基づいて、溶接を行う溶接ロボットに3次元領域をスキャンさせるための教示プログラムを作成して出力する制御部と、を備える。

Description

オフライン教示装置およびオフライン教示方法
 本開示は、オフライン教示装置およびオフライン教示方法に関する。
 特許文献1には、モデル図に、ティーチングプログラムを実行したときのロボットの動作軌跡を表示し、複数の位置検出命令の一部および複数の溶接命令の一部を表示するオフラインティーチング装置が開示されている。オフラインティーチング装置は、ティーチングプログラムとモデル図とを表示する表示部と、ティーチングプログラムを構成する命令と、モデル図のモデルデータとを記憶する記憶部と、表示部および記憶部を制御する制御部と、を備える。ティーチングプログラムは、複数の位置検出命令で構成される位置検出プログラム、および、複数の溶接命令で構成される溶接プログラムを含む。ここで、ティーチングプログラムを構成する命令、位置検出プログラムおよび溶接プログラムのそれぞれは、作業者により作成される。
国際公開第2016/021130号
 本開示は、溶接ロボットにより実行されるセンサのスキャン動作の教示プログラムをより効率的に作成するオフライン教示装置およびオフライン教示方法を提供する。
 本開示は、作業者操作を受け付け可能な入力部と、溶接により生産されるワークの3次元形状データと前記溶接の動作軌跡と前記ワークの外観形状をスキャンするセンサのスキャン範囲とを取得する取得部と、取得された前記スキャン範囲とスキャン区間とに基づいて、前記センサによりスキャンされる3次元領域を生成する生成部と、前記入力部に入力された前記作業者操作に基づいて、前記ワークの3次元形状データ上に少なくとも1つの前記3次元領域を配置し、配置された前記3次元領域と、前記溶接の前記動作軌跡とに基づいて、前記溶接を行う溶接ロボットに前記3次元領域をスキャンさせるための教示プログラムを作成して出力する制御部と、を備える、オフライン教示装置を提供する。
 また、本開示は、作業者操作を受け付け可能な入力装置との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置が行うオフライン教示方法であって、溶接により生産されるワークの3次元形状データと前記溶接の動作軌跡と前記ワークの外観形状をスキャンするセンサのスキャン範囲とを取得し、取得された前記スキャン範囲とスキャン区間とに基づいて、前記センサによりスキャンされる3次元領域を生成し、前記入力装置から取得された前記作業者操作に基づいて、前記ワークの3次元形状データ上に少なくとも1つの前記3次元領域を配置し、配置された前記3次元領域と、前記溶接の前記動作軌跡とに基づいて、前記溶接を行う溶接ロボットに前記3次元領域をスキャンさせるための教示プログラムを作成して出力する、オフライン教示方法を提供する。
 また、本開示は、作業者が入力装置を操作して、入力装置との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置を用いて行うオフライン教示方法であって、溶接により生産されるワークの3次元形状データを前記コンピュータに入力し、前記ワークの外観形状をスキャンするスキャン区間を前記コンピュータに入力し、前記3次元形状データにおいて前記スキャン区間に対応するスキャン箇所に基づく3次元領域を、前記溶接を行う溶接ロボットにスキャンさせるための教示プログラムを作成する、オフライン教示方法を提供する。
 本開示によれば、溶接ロボットにより実行されるセンサのスキャン動作の教示プログラムをより効率的に作成できる。
実施の形態1に係る溶接システムのシステム構成例を示す概略図 実施の形態1に係る検査制御装置、ロボット制御装置、上位装置およびオフライン教示装置の内部構成例を示す図 センサのスキャン有効範囲の一例を説明する図 センサのスキャン有効領域の一例を説明する図 3Dモデルの一例を示す図 実施の形態1におけるスキャン有効領域のコピー処理例を説明する図 実施の形態1におけるスキャン有効領域の削除処理例1を説明する図 実施の形態1におけるスキャン有効領域の削除処理例2を説明する図 実施の形態1におけるスキャン有効領域の分割処理例を説明する図 実施の形態1におけるスキャン有効領域に紐付けられた各種動作の一例を説明する図 実施の形態1におけるオフライン教示装置の動作手順例を示すフローチャート 実施の形態2におけるスキャン有効領域の変更処理例および回転処理例のそれぞれを説明する図 スキャン有効領域変更処理例1、変更処理例2および変更処理例3のそれぞれを説明する図 モデルワークの一例を示す図 実施の形態2におけるスキャン有効領域のコピー処理例を説明する図 実施の形態2におけるスキャン有効領域の回転処理例を説明する図 実施の形態2におけるスキャン有効領域に紐付けられた各種動作の一例を説明する図
(本開示に至る経緯)
 特許文献1のように、オフライン教示装置を用いて仮想的な生産設備を構築可能な装置構成は従来から知られている。このようなオフライン教示装置は、溶接ロボットの動作軌跡に対応する一部の位置検出命令、および一部の溶接命令を同時に表示することで、作業者に教示プログラム作成時の編集箇所の特定を容易にし、作成されたプログラムの作成効率と正確性との向上を支援できる。
 また、近年、溶接箇所(つまり、溶接ビード)の品質確認方法である外観検査の自動化が行われている。外観検査は、レーザ光によりワーク上をスキャンして溶接ビードの3次元形状を計測可能なセンサを備える溶接ロボットあるいは検査ロボットにより実行される。このような外観検査の自動化において、センサを用いた外観検査を実行するための教示作業は、レーザポインタ等の出力が弱く、作業者が目視可能な装置を用いてスキャン範囲を教示することで行われる。しかし、作業者は、教示作業中にセンサのスキャン可能範囲が可視化されていないため、教示されたスキャン範囲が実際のセンサのスキャン可能範囲内に位置しているか否かが分からなかった。したがって、上述した教示作業に基づいて作成された教示プログラムを用いた場合、センサは、教示されたスキャン範囲を読み取れないことがあった。
 また、仮想空間でスキャン箇所を教示するオフライン教示装置がある。オフライン教示装置は、水平方向(XY平面上)の所定位置におけるスキャン可能範囲を可視化することで、作業者により教示されるスキャン箇所と、センサによるスキャン可能範囲とを可視化し、作業者により行われる外観検査を実行するための教示作業を支援する。しかし、オフライン教示装置は、センサを備える溶接ロボットあるいは検査ロボットの動作と連動した3次元のスキャン可能範囲(領域)を可視化することが困難であり、このようなオフライン教示装置を用いて作成された教示プログラムを使用して外観検査を実行した場合、教示されたスキャン範囲で外観検査対象をスキャンできない可能性があった。したがって、作業者は、作成された教示プログラムを使用して外観検査を実行したり、外観検査におけるセンサのスキャン結果(外観検査結果)に基づいて、教示箇所の修正等をしたりしなければならず、たいへん手間だった。
 そこで、以下の各実施の形態では、溶接ロボットにより実行される溶接動作またはスキャン動作の教示プログラムの更新をより効率的に行うオフライン教示装置およびオフライン教示方法の例を説明する。
 以下、適宜図面を参照しながら、本開示に係るオフライン教示装置およびオフライン教示方法を具体的に開示した各実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
 以下、本溶接される対象物(例えば金属)を「元ワーク」、本溶接により生産(製造)された対象物を「ワーク」とそれぞれ定義する。「ワーク」は、1回の本溶接により生産されたワークに限らず、2回以上の本溶接により生産された複合的なワークであってもよい。また、元ワークと他の元ワークとが溶接ロボットにより接合等されてワークを生産する工程を「本溶接」と定義する。
(溶接システムの構成)
 図1は、実施の形態1に係る溶接システム100のシステム構成例を示す概略図である。溶接システム100は、外部ストレージST、入力インターフェースUI1およびモニタMN1のそれぞれと接続された上位装置1と、ロボット制御装置2と、検査制御装置3と、センサ4と、オフライン教示装置5と、モニタMN3と、入力装置UI3と、溶接ロボットMC1と、モニタMN2とを含む構成である。また、図1では、センサ4は、溶接ロボットMC1と別体として図示されているが、溶接ロボットMC1と一体化されて設けられてもよい(図2参照)。モニタMN2は必須の構成でなく、省略されてもよい。
 上位装置1は、ロボット制御装置2を介して溶接ロボットMC1により実行される本溶接の開始および完了を統括して制御する。例えば、上位装置1は、ユーザ(例えば、溶接作業者あるいはシステム管理者。以下同様。)により予め入力あるいは設定された溶接関連情報を外部ストレージSTから読み出し、溶接関連情報を用いて、溶接関連情報の内容を含めた本溶接の実行指令を生成して対応するロボット制御装置2に送信する。上位装置1は、溶接ロボットMC1による本溶接が完了した場合に、溶接ロボットMC1による本溶接が完了した旨の本溶接完了報告をロボット制御装置2から受信し、対応する本溶接が完了した旨のステータスに更新して外部ストレージSTに記録する。
 なお、上述した本溶接の実行指令は上位装置1により生成されることに限定されず、例えば本溶接が行われる工場等内の設備の操作盤(例えばPLC:Programmable Logic Controller)、あるいはロボット制御装置2の操作盤(例えばティーチペンダントにより生成されてもよい。なお、ティーチペンダントは、ロボット制御装置2に接続された溶接ロボットMC1を操作するための装置である。
 また、上位装置1は、ロボット制御装置2、検査制御装置3およびセンサ4を用いたビード外観検査の開始および完了を統括して制御する。例えば、上位装置1は、ロボット制御装置2から本溶接完了報告を受信すると、溶接ロボットMC1により生産されたワークのビード外観検査の実行指令を生成してロボット制御装置2および検査制御装置3のそれぞれに送信する。上位装置1は、ビード外観検査が完了した場合に、ビード外観検査が完了した旨の外観検査報告を検査制御装置3から受信し、対応するビード外観検査が完了した旨のステータスに更新して外部ストレージSTに記録する。
 ここで、溶接関連情報とは、溶接ロボットMC1により実行される本溶接の内容を示す情報であり、本溶接の工程ごとに予め作成されて外部ストレージSTに登録されている。溶接関連情報は、例えば本溶接に使用される元ワークの数と、本溶接に使用される元ワークのID、元ワークのロット情報、名前および溶接箇所(例えば、溶接線の情報、溶接線の位置情報等)を含むワーク情報と、本溶接が実行される実行予定日と、元ワークの生産台数と、本溶接時の各種の溶接条件と、を含む。なお、溶接関連情報は、上述した項目のデータに限定されず、作成済みの溶接動作およびスキャン動作の教示プログラムのそれぞれ(後述参照)、これらの教示プログラムの作成に用いられた溶接動作設定情報、スキャン動作設定情報等の情報をさらに含んでもよい。
 また、溶接条件は、例えば元ワークの材質および厚み、溶接ワイヤ301の材質およびワイヤ径、シールドガス種、シールドガスの流量、溶接電流の設定平均値、溶接電圧の設定平均値、溶接ワイヤ301の送給速度および送給量、溶接回数、溶接時間等である。また、これらの他に、例えば本溶接の種別(例えばTIG溶接、MAG溶接、パルス溶接)を示す情報、マニピュレータ200の移動速度および移動時間が含まれても構わない。
 ロボット制御装置2は、上位装置1から送信された本溶接の実行指令に基づいて、その実行指令で指定される元ワークを用いた本溶接の実行を溶接ロボットMC1に開始させる。なお、上述した溶接関連情報は、上位装置1が外部ストレージSTを参照して管理することに限定されず、例えばロボット制御装置2において管理されてもよい。この場合、ロボット制御装置2は本溶接が完了した状態を把握できるので、溶接関連情報のうち溶接工程が実行される予定の実行予定日の代わりに実際の実行日が管理されてよい。なお、本明細書において、本溶接の種類は問わないが、説明を分かり易くするために、複数の元ワークを接合して1つのワークを生産する工程を例示して説明する。
 上位装置1は、モニタMN1、入力インターフェースUI1および外部ストレージSTのそれぞれとの間でデータの入出力が可能となるように接続され、さらに、ロボット制御装置2との間でデータの通信が可能となるように接続される。上位装置1は、モニタMN1および入力インターフェースUI1を一体に含む端末装置P1でもよく、さらに、外部ストレージSTを一体に含んでもよい。この場合、端末装置P1は、本溶接の実行に先立ってユーザにより使用されるPC(Personal Computer)である。なお、端末装置P1は、上述したPCに限らず、例えばスマートフォン、タブレット端末等の通信機能を有するコンピュータ装置でよい。
 モニタMN1は、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)等の表示用デバイスを用いて構成されてよい。モニタMN1は、例えば上位装置1から出力された、本溶接が完了した旨の通知、あるいはビード外観検査が完了した旨の通知を示す画面を表示してよい。また、モニタMN1の代わりに、あるいはモニタMN1とともにスピーカ(図示略)が上位装置1に接続されてもよく、上位装置1は、本溶接が完了した旨の内容、あるいはビード外観検査が完了した旨の内容の音声を、スピーカを介して出力してもよい。
 入力インターフェースUI1は、ユーザの入力操作を検出して上位装置1に出力するユーザインターフェースであり、例えば、マウス、キーボードまたはタッチパネル等を用いて構成されてよい。入力インターフェースUI1は、例えばユーザが溶接関連情報を作成する時の入力操作を受け付けたり、ロボット制御装置2への本溶接の実行指令を送信する時の入力操作を受け付けたりする。
 外部ストレージSTは、例えばハードディスクドライブ(Hard Disk Drive)またはソリッドステートドライブ(Solid State Drive)を用いて構成される。外部ストレージSTは、例えば本溶接ごとに作成された溶接関連情報のデータ、本溶接により生産されたワークWkのステータス(生産状況)、ワークWkのワーク情報(上述参照)を記憶する。なお、外部ストレージSTは、オフライン教示装置5によって作成された溶接動作の教示プログラムと、スキャン動作の教示プログラムとを溶接線ごとに記憶していてもよい。溶接動作およびスキャン動作の教示プログラムのそれぞれについては、後述する。
 ロボット制御装置2は、上位装置1、検査制御装置3、およびオフライン教示装置5との間でそれぞれデータの通信が可能に接続されるとともに、溶接ロボットMC1との間でデータの通信が可能に接続される。ロボット制御装置2は、上位装置1から送信された本溶接の実行指令を受信すると、この実行指令に対応する溶接動作の教示プログラムに基づいて、本溶接プログラムを作成し、溶接ロボットMC1を制御して本溶接を実行させる。ロボット制御装置2は、本溶接の完了を検出すると本溶接が完了した旨の本溶接完了報告を生成して上位装置1に通知する。これにより、上位装置1は、ロボット制御装置2による本溶接の完了を適正に検出できる。なお、ロボット制御装置2による本溶接の完了の検出方法は、例えばワイヤ送給装置300が備えるセンサ(図示略)からの本溶接の完了を示す信号に基づいて判別する方法でよく、あるいは公知の方法でもよく、本溶接の完了の検出方法の内容は限定されなくてよい。
 溶接ロボットMC1は、ロボット制御装置2との間でデータの通信が可能に接続される。溶接ロボットMC1は、対応するロボット制御装置2の制御の下で、上位装置1から指令された本溶接を実行する。また、溶接ロボットMC1は、スキャン動作の教示プログラムに基づいてセンサ4を移動することで、上位装置1から指令されたビード外観検査を実行する。
 検査制御装置3は、上位装置1、ロボット制御装置2、センサ4およびオフライン教示装置5のそれぞれとの間でデータの通信が可能に接続される。検査制御装置3は、上位装置1から送信されたビード外観検査の実行指令を受信すると、対応するワークWkのスキャン動作の教示プログラムに従い、溶接ロボットMC1により生産されたワークWkの溶接箇所(つまり、溶接ビード)のビード外観検査(例えば、ワークに形成された溶接ビードが予め既定された溶接基準を満たすか否かの検査)をセンサ4とともに実行する。検査制御装置3は、スキャン動作の結果、センサ4により取得された溶接ビードの形状に関する入力データ(例えば、溶接ビードの3次元形状を特定可能な点群データ)を用いて、ワークごとに予め既定された良品ワークのマスタデータとの比較に基づいてビード外観検査を行う。なお、本実施の形態1で溶接ロボットMC1により実行されるビード外観検査は、溶接ビードの外観検査に限定されず、溶接ビードの外観検査と他の外観検査(例えば、ワークWkへの部品装着の有無等)等とを含む検査であってもよい。これにより、作業者は、センサ4のスキャン有効領域をより効率的に活用して、外観検査結果に基づいて、異なる目的を有する外観検査をそれぞれ同時に実行できる。また、ここでいうスキャン有効領域は、センサ4がスキャンにより外観形状を読み取り可能な3次元領域を示す。
 検査制御装置3は、ビード外観検査を行い、このビード外観検査の検査判定結果とビード外観検査が完了した旨の通知とを含む外観検査報告を生成して上位装置1に送信するとともに、モニタMN2に出力する。なお、検査制御装置3は、ワークのビード外観検査において欠陥を検知したと判定した場合に、その欠陥をリペア溶接するための欠陥区間の情報を含む外観検査結果を含む外観検査報告を生成して、上位装置1およびロボット制御装置2に送信する。また、検査制御装置3は、ワークのビード外観検査によって欠陥を検知したと判定した場合に、欠陥区間の情報を含む外観検査結果を用いて、欠陥箇所の補修等の修正を行う旨のリペア溶接プログラムを作成する。検査制御装置3は、このリペア溶接プログラムと外観検査結果とを対応付けて上位装置1あるいはロボット制御装置2に送信する。
 センサ4は、検査制御装置3との間でデータの通信が可能に接続される。センサ4は、溶接ロボットMC1に取り付けられ、ロボット制御装置2の制御に基づくマニピュレータ200の駆動に応じて、ワークWk、またはワークWkが載置されたステージSTG(図2参照)の3次元スキャンを実行する。センサ4は、ロボット制御装置2の制御に基づくマニピュレータ200の駆動に応じて、ステージSTGに置かれたワークWkの3次元形状のデータまたはワークWkが載置されたステージSTGの形状、大きさ、位置等を特定可能な3次元形状のデータ(例えば、点群データ)を取得して検査制御装置3に送信する。
 モニタMN2は、例えばLCDまたは有機EL等の表示用デバイスを用いて構成されてよい。モニタMN2は、例えば検査制御装置3から出力された、ビード外観検査が完了した旨の通知、あるいはその通知とビード外観検査の結果とを示す画面を表示する。また、モニタMN2の代わりに、あるいはモニタMN2とともにスピーカ(図示略)が検査制御装置3に接続されてもよく、検査制御装置3は、外観検査が完了した旨の通知、あるいはその通知とビード外観検査結果との内容を示す音声を、スピーカを介して出力してもよい。
 オフライン教示装置5は、ロボット制御装置2、検査制御装置3、モニタMN3、および入力装置UI3との間でそれぞれデータ通信可能に接続される。オフライン教示装置5は、教示プログラムの作成対象あるいは作成済みのワークWkごとの溶接線の位置情報を設定情報として記憶する。また、オフライン教示装置5は、仮想的な生産設備(例えば、仮想溶接ロボット、仮想ワーク、仮想ステージ等)を構築し、入力装置UI3から送信された制御指令および各種データ、あるいはロボット制御装置2または検査制御装置3から出力された各種データ(例えば、溶接ビード、あるいはワークWkの形状に関する入力データ、3Dモデルのデータ、溶接線の位置情報等)等に基づいて、ワークWkの溶接動作の教示プログラムとスキャン動作の教示プログラムとをそれぞれ作成する。オフライン教示装置5は、作成された溶接動作の教示プログラムおよびスキャン動作の教示プログラムのそれぞれをロボット制御装置2に送信する。なお、作成されたスキャン動作の教示プログラムは、ロボット制御装置2だけでなく、検査制御装置3に送信されてもよい。また、オフライン教示装置5は、作成された溶接動作の教示プログラムおよびスキャン動作の教示プログラムのそれぞれをワークWkごとに記憶する。
 ここでいう溶接線の位置情報は、ワークWkに形成される溶接線の位置を示す情報である。
 また、ここでいう溶接動作の教示プログラムは、溶接線に基づいて作成され、溶接ロボットMC1に本溶接を実行させるためのプログラムである。溶接動作の教示プログラムは、溶接トーチ400を用いてワークWkを本溶接するための各種動作(例えば、アプローチ、リトラクト、回避、溶接等)を実行するための溶接トーチ400の位置、距離、角度(姿勢)の情報と、溶接条件等の情報と、を含んで作成される。
 また、ここでいうスキャン動作の教示プログラムは、溶接線に基づいて作成され、溶接ロボットMC1に本溶接により作成された少なくとも1つの溶接ビード、あるいはワークWkの外観検査を実行させるためのプログラムである。スキャン動作の教示プログラムは、センサ4を用いて、作成された溶接ビード、ワークWk等の外観検査を実行するための各種動作(例えば、アプローチ、リトラクト、回避、スキャン等)を実行するためのセンサ4の位置、距離、角度(姿勢)の情報を含んで作成される。
 モニタMN3は、例えばLCDまたは有機EL等の表示用デバイスを用いて構成されてよい。モニタMN3は、オフライン教示装置5から送信された仮想的な生産設備(例えば、仮想溶接ロボット、仮想ワーク、仮想ステージ等)の画像を表示したり、溶接動作の教示プログラムに基づく溶接トーチ400の動作軌跡、スキャン動作の教示プログラムに基づくセンサ4の動作軌跡等を表示したりする。また、モニタMN3は、オフライン教示装置5から送信された仮想的な生産設備の画像上にセンサ4の動作軌跡あるいは溶接トーチ400の動作軌跡等を重畳した画像を表示する。
 入力装置UI3は、ユーザの入力操作を検出して上位装置1に出力するユーザインターフェースであり、例えば、マウス、キーボードまたはタッチパネル等を用いて構成されてよい。入力装置UI3は、スキャン動作および溶接動作の教示プログラムの作成に用いられるワークWkの溶接線の位置情報、溶接設定情報、スキャン設定情報、3Dモデル等の入力操作、あるいは作成済みのスキャン動作および溶接動作の教示プログラムのそれぞれの入力操作等を受け付ける。なお、ここでモニタMN3および入力装置UI3は、一体に構成された端末装置P3(例えば、PC、ノートPC、タブレット端末等)であってもよい。
 図2は、実施の形態1に係る検査制御装置3、ロボット制御装置2、上位装置1およびオフライン教示装置5の内部構成例を示す図である。説明を分かり易くするために、図2ではモニタMN1,MN2および入力インターフェースUI1の図示を省略する。なお、図2に示されるワークWkは、ビード外観検査の対象となるワークである。このワークWkは、本溶接により生産されたワークであってもよいし、リペア溶接により1回以上リペアされた所謂リペアワークであってもよい。また、図2に示す溶接ロボットMC1は、センサ4を備える構成であるが、センサ4は、他のロボット(例えば、外観検査を実行するための検査ロボット、リペア溶接を実行するためのリペア溶接ロボット等)に備えられてもよい。
 溶接ロボットMC1は、ロボット制御装置2の制御の下で、溶接トーチ400を用いた溶接動作の教示プログラムに基づく本溶接工程と、センサ4を用いたスキャン動作の教示プログラムに基づくビード外観検査工程等を実行する。また、溶接ロボットMC1は、溶接動作およびスキャン動作の教示プログラムの作成に使用されるワークWkの外観形状、およびこのワークWkに形成された溶接ビードの位置情報を取得するために、センサ4を用いたワークWkの外観をスキャンしてもよい。溶接ロボットMC1は、本溶接の工程において、例えばアーク溶接を行う。しかし、溶接ロボットMC1は、アーク溶接以外の他の溶接(例えば、レーザ溶接、ガス溶接)等を行ってもよい。この場合、図示は省略するが、溶接トーチ400に代わって、レーザヘッドを、光ファイバを介してレーザ発振器に接続してよい。溶接ロボットMC1は、マニピュレータ200と、ワイヤ送給装置300と、溶接ワイヤ301と、溶接トーチ400とを少なくとも含む構成である。
 マニピュレータ200は、多関節のアームを備え、ロボット制御装置2のロボット制御部24からの制御信号に基づいて、それぞれのアームを可動させる。これにより、マニピュレータ200は、ワークWkと溶接トーチ400との位置関係(例えば、ワークWkに対する溶接トーチ400の角度)、およびワークWkとセンサ4との位置関係をそれぞれアームの駆動によって変更できる。
 ワイヤ送給装置300は、ロボット制御装置2からの制御信号に基づいて、溶接ワイヤ301の送給速度を制御する。なお、ワイヤ送給装置300は、溶接ワイヤ301の残量を検出可能なセンサ(図示略)を備えてよい。ロボット制御装置2は、このセンサの出力に基づいて、本溶接の工程が完了したことを検出できる。
 溶接ワイヤ301は、溶接トーチ400に保持されている。溶接トーチ400に電源装置500から電力が供給されることで、溶接ワイヤ301の先端とワークWkとの間にアークが発生し、アーク溶接が行われる。なお、溶接トーチ400にシールドガスを供給するための構成等は、説明の便宜上、これらの図示および説明を省略する。
 上位装置1は、ユーザにより予め入力あるいは設定された溶接関連情報を用いて、本溶接、またはビード外観検査の各種の工程の実行指令を生成してロボット制御装置2に送信する。なお、上述したように、センサ4が溶接ロボットMC1に一体的に取り付けられている場合には、ビード外観検査の実行指令は、ロボット制御装置2および検査制御装置3の両方に送られる。上位装置1は、通信部10と、プロセッサ11と、メモリ12とを少なくとも含む構成である。
 通信部10は、ロボット制御装置2および外部ストレージSTのそれぞれとの間でデータの通信が可能に接続される。通信部10は、プロセッサ11により生成される本溶接、またはビード外観検査の各種の工程の実行指令をロボット制御装置2に送信する。通信部10は、ロボット制御装置2から送信される本溶接完了報告、外観検査報告を受信してプロセッサ11に出力する。なお、本溶接の実行指令には、例えば溶接ロボットMC1が備えるマニピュレータ200、ワイヤ送給装置300および電源装置500のそれぞれを制御するための制御信号が含まれてもよい。
 プロセッサ11は、例えばCPU(Central Processing Unit)またはFPGA(Field Programmable Gate Array)を用いて構成され、メモリ12と協働して、各種の処理および制御を行う。具体的には、プロセッサ11は、メモリ12に保持されたプログラムを参照し、そのプログラムを実行することにより、セル制御部13を機能的に実現する。
 メモリ12は、例えばプロセッサ11の処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ11の処理を規定したプログラムを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ11により生成あるいは取得されたデータが一時的に保存される。ROMには、プロセッサ11の処理を規定するプログラムが書き込まれている。また、メモリ12は、外部ストレージSTから読み出された溶接関連情報のデータ、ワークWkのステータス、ロボット制御装置2から送信されたワークWkのワーク情報(後述参照)のデータをそれぞれ記憶する。
 セル制御部13は、外部ストレージSTに記憶されている溶接関連情報に基づいて、本溶接、ワークWkのビード外観検査、ワークWkの外観スキャン、あるいはリペア溶接を実行するための実行指令を生成する。また、セル制御部13は、外部ストレージSTに記憶されている溶接関連情報と、オフライン教示装置5に作成され、ロボット制御装置2から送信された溶接動作およびスキャン動作の教示プログラムのそれぞれとに基づいて、本溶接時の本溶接プログラム、ワークWkのビード外観検査時の溶接ロボットMC1の駆動に関する外観検査用プログラム、または外観スキャン時の溶接ロボットMC1の駆動に関する外観スキャン用プログラム等を作成する。さらに、セル制御部13は、作成されたこれらのプログラムの実行指令を作成する。なお、外観検査用プログラムあるいは外観スキャン用プログラムのそれぞれは、予めワークWkごとに作成されて外部ストレージSTに保存されていてもよく、この場合には、セル制御部13は、外部ストレージSTから各種プログラムを読み出して取得する。セル制御部13は、溶接ロボットMC1で実行される本溶接の各種の工程ごとに異なる実行指令を生成してよい。セル制御部13によって生成された本溶接外観検査、外観スキャンの実行指令は、通信部10を介して、対応するロボット制御装置2、あるいはロボット制御装置2および検査制御装置3のそれぞれに送信される。
 ロボット制御装置2は、上位装置1から送信された本溶接、ビード外観検査、あるいは外観スキャンの実行指令に基づいて、対応するプログラムを参照する。ロボット制御装置2は、参照されたプログラムに基づいて、溶接ロボットMC1(例えば、センサ4、マニピュレータ200、ワイヤ送給装置300、電源装置500)を制御する。ロボット制御装置2は、通信部20と、プロセッサ21と、メモリ22とを少なくとも含む構成である。
 通信部20は、上位装置1、検査制御装置3、溶接ロボットMC1、およびオフライン教示装置5との間でそれぞれデータの通信が可能に接続される。なお、図2では図示を簡略化しているが、ロボット制御部24とマニピュレータ200との間、ロボット制御部24とワイヤ送給装置300との間、ならびに、電源制御部25と電源装置500との間で、それぞれ通信部20を介してデータの送受信が行われる。通信部20は、上位装置1から送信された本溶接、あるいはビード外観検査の実行指令を受信する。通信部20は、オフライン教示装置5から送信された溶接線の位置情報と、溶接動作の教示プログラムと、スキャン動作の教示プログラムとを受信する。通信部20は、本溶接により生産されたワークWkのワーク情報を上位装置1に送信する。
 ここで、ワーク情報には、ワークWkのIDだけでなく、本溶接に使用される元ワークのID、名前、溶接箇所、本溶接の実行時の溶接条件が少なくとも含まれる。
 プロセッサ21は、例えばCPUまたはFPGAを用いて構成され、メモリ22と協働して、各種の処理および制御を行う。具体的には、プロセッサ21は、メモリ22に保持されたプログラムを参照し、そのプログラムを実行することにより、本溶接プログラム作成部23、ロボット制御部24および電源制御部25を機能的に実現する。また、プロセッサ21は、本溶接プログラム作成部23により生成された本溶接プログラムに基づいて、ロボット制御部24により制御される溶接ロボットMC1(具体的には、マニピュレータ200、ワイヤ送給装置300および電源装置500のそれぞれ)を制御するためのパラメータの演算等を行う。
 メモリ22は、例えばプロセッサ21の処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ21の処理を規定したプログラムを格納するROMとを有する。RAMには、プロセッサ21により生成あるいは取得されたデータが一時的に保存される。ROMには、プロセッサ21の処理を規定するプログラムが書き込まれている。また、メモリ22は、上位装置1から送信された本溶接、あるいはビード外観検査の実行指令のデータ、本溶接により生産されるワークWkのワーク情報と溶接線の位置情報とを対応付けた溶接関連情報をそれぞれ記憶する。なお、オフライン教示装置5から溶接動作およびスキャン動作のそれぞれの教示プログラムが送信されたワークWkのワーク情報を含む溶接関連情報は、溶接動作およびスキャン動作のそれぞれの教示プログラムと、溶接動作およびスキャン動作のそれぞれの教示プログラムの作成に用いられた溶接線の位置情報と、溶接動作設定情報と、スキャン動作設定情報と、を含んでいてよい。
 本溶接プログラム作成部23は、通信部20を介して上位装置1から送信された本溶接の実行指令に基づいて、実行指令に含まれる複数の元ワークのそれぞれのワーク情報(例えばワークのID、名前、ワーク座標系、元ワークの情報、溶接線の位置情報等)と、これらのワーク情報に関連付けられた溶接動作の教示プログラムとを用いて、溶接ロボットMC1により実行される本溶接の本溶接プログラムを作成する。本溶接プログラムには、本溶接の実行中に電源装置500、マニピュレータ200、ワイヤ送給装置300、溶接トーチ400等を制御するための、溶接電流、溶接電圧、オフセット量、溶接速度、溶接トーチ400の姿勢等の各種のパラメータが含まれてよい。なお、本溶接プログラムは、プロセッサ21内に記憶されてもよいし、メモリ22内のRAMに記憶されてもよい。
 ロボット制御部24は、本溶接プログラム作成部23により生成された本溶接プログラムに基づいて、溶接ロボットMC1(具体的には、センサ4、マニピュレータ200、ワイヤ送給装置300および電源装置500のそれぞれ)を駆動させるための制御信号を生成する。ロボット制御部24は、この生成された制御信号を溶接ロボットMC1に送信する。
 また、ロボット制御部24は、スキャン動作の教示プログラムを用いて作成された外観検査用プログラム)に基づいて、溶接ロボットMC1のマニピュレータ200およびセンサ4のそれぞれを駆動させる。これにより、溶接ロボットMC1に取り付けられたセンサ4は、溶接ロボットMC1の動作に伴って移動し、ワークWkの溶接ビードをスキャンすることで溶接ビードの形状に関する入力データ(例えば溶接ビードの3次元形状を特定可能な点群データ)を取得したり、ワークWkを部分的にスキャンすることで他の外観検査箇所に対応するワークWkの部分的形状に関する入力データ(例えば他の外観検査箇所に対応するワークWkの3次元形状を特定可能な点群データ)を取得したりできる。
 電源制御部25は、本溶接プログラム作成部23により生成された本溶接プログラムの演算結果に基づいて、電源装置500を駆動させる。
 検査制御装置3は、上位装置1から送信されたビード外観検査の実行指令に基づいて、溶接ロボットMC1による本溶接により生産されたワークWk、あるいは1回以上のリペア溶接によりリペアされたワークWkのビード外観検査の処理を制御する。ビード外観検査は、例えば、ワークWkに形成された溶接ビードが既定の溶接基準(例えば、ユーザのそれぞれにより要求される溶接の品質基準)を満たすか否かの検査であり、上述した検査判定により構成される。検査制御装置3は、センサ4により取得された溶接ビードの形状に関する入力データ(例えば、溶接ビードの3次元形状を特定可能な点群データ)に基づいて、ワークWkに形成された溶接ビードの外観形状が所定の溶接基準を満たすか否かを判定(検査)する。また、検査制御装置3は、センサ4により取得された溶接ビード、あるいはワークWkの形状に関する入力データをオフライン教示装置5に送信する。検査制御装置3は、通信部30と、プロセッサ31と、メモリ32と、検査結果記憶部33と、を少なくとも含む構成である。
 通信部30は、上位装置1、ロボット制御装置2、センサ4、およびオフライン教示装置5との間でそれぞれデータの通信が可能に接続される。なお、図2では図示を簡略化しているが、形状検出制御部35とセンサ4との間は、それぞれ通信部30を介してデータの送受信が行われる。通信部30は、上位装置1から送信されたビード外観検査の実行指令を受信する。通信部30は、センサ4を用いたビード外観検査の検査判定結果を上位装置1に送信したり、センサ4により取得された溶接ビードの3次元形状のデータをオフライン教示装置5に送信したりする。
 プロセッサ31は、例えばCPUまたはFPGAを用いて構成され、メモリ32と協働して、各種の処理および制御を行う。具体的には、プロセッサ31は、メモリ32に保持されたプログラムを参照し、そのプログラムを実行することにより、判定閾値記憶部34、形状検出制御部35、データ処理部36、検査結果判定部37、およびリペア溶接プログラム作成部38を機能的に実現する。
 メモリ32は、例えばプロセッサ31の処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ31の処理を規定したプログラムを格納するROMとを有する。RAMには、プロセッサ31により生成あるいは取得されたデータが一時的に保存される。ROMには、プロセッサ31の処理を規定するプログラムが書き込まれている。また、メモリ32は、オフライン教示装置5から送信されたスキャン動作の教示プログラムと、ワーク情報とを関連付けて記憶してもよい。
 検査結果記憶部33は、例えばハードディスクあるいはソリッドステートドライブを用いて構成される。検査結果記憶部33は、プロセッサ31により生成あるいは取得されるデータの一例として、ワークWk(例えばワークあるいはリペアワーク)における溶接箇所のビード外観検査の結果を示すデータを記憶する。このビード外観検査の結果を示すデータは、例えば検査結果判定部37(具体的には、検査結果判定部37に含まれる第1検査判定部371、第2検査判定部372~第N検査判定部37Nのいずれか)により生成される。
 判定閾値記憶部34は、例えばプロセッサ31内に設けられたキャッシュメモリにより構成され、ユーザ操作によって予め設定され、溶接箇所と、検査結果判定部37に含まれる第1検査判定部371,…,第N検査判定部37Nのそれぞれのビード外観検査の処理とに対応するそれぞれの閾値(例えば、溶接不良の種別ごとに設定されたそれぞれの閾値)の情報を記憶する。それぞれの閾値は、例えば溶接ビードの位置ずれの許容範囲、溶接ビードの長さ、高さ、幅のそれぞれの閾値、穴あき、ピット、アンダーカット、スパッタのそれぞれの閾値である。判定閾値記憶部34は、リペア溶接後のビード外観検査時の各閾値として、顧客等から要求される最低限の溶接基準(品質)を満たす許容範囲(例えば、最小許容値、最大許容値等)を記憶してよい。なお、これらの閾値は、検査結果判定部37に含まれる第1検査判定部371、第2検査判定部372~第N検査判定部37Nのそれぞれによって作成された検査結果がビード外観検査に合格であるか否かを判定する処理に用いられる。さらに、判定閾値記憶部34は、溶接箇所ごとにビード外観検査の回数上限値を記憶してもよい。これにより、検査制御装置3は、リペア溶接によって不良箇所を修正する際に所定の回数上限値を上回る場合に、溶接ロボットMC1による自動リペア溶接による不良箇所の修正が困難あるいは不可能と判定して、溶接システム100の稼動率の低下を抑制できる。
 形状検出制御部35は、上位装置1から送信されたワークWk(例えばワークあるいはリペアワーク)の溶接箇所のビード外観検査の実行指令に基づいて、センサ4により取得され、送信された溶接ビードの形状に関する入力データ(例えば溶接ビードの3次元形状を特定可能な点群データ)を取得する。また、形状検出制御部35は、上位装置1から送信されたワークWkの外観スキャンの実行指令に基づいて、センサ4により取得され、送信されたワークWkの形状に関する入力データ(例えばワークWkの3次元形状を特定可能な点群データ)を取得する。具体的に、形状検出制御部35は、上述したロボット制御装置2によるマニピュレータ200の駆動に応じてセンサ4が溶接ビードあるいはワークWkを撮像可能(言い換えると、溶接箇所あるいはワークWkの3次元形状を検出可能)な位置に到達すると、例えばレーザ光線をセンサ4から照射させて溶接ビードあるいはワークWkの形状に関する入力データを取得させる。形状検出制御部35は、センサ4により取得された入力データ(上述参照)を受信すると、この入力データをデータ処理部36に渡す。
 データ処理部36は、形状検出制御部35からの溶接ビードの形状に関する入力データ(上述参照)を取得すると、検査結果判定部37での第1検査判定用に適したデータ形式に変換するとともに、検査結果判定部37での第2検査判定用,…,第N検査判定用のそれぞれに適したデータ形式に変換する。データ形式の変換には、いわゆる前処理として、入力データ(つまり点群データ)に含まれる不要な点群データ(例えばノイズ)が除去される補正処理が含まれて構わないし、第1検査判定用には上述した前処理は省略されてもよい。データ処理部36は、第1検査判定用に適したデータ形式とし、例えば入力された形状データに対して統計処理を実行することで、溶接ビードの3次元形状を示す画像データを生成する。なお、データ処理部36は、第1検査判定用のデータとして、溶接ビードの位置および形状を強調するために溶接ビードの周縁部分を強調したエッジ強調補正を行ってもよい。なお、データ処理部36は、溶接不良の箇所ごとにビード外観検査の実行回数をカウントし、ビード外観検査の回数がメモリ32に予め記憶された回数を超えても溶接検査結果が良好にならない場合、自動リペア溶接による溶接不良の箇所の修正が困難あるいは不可能と判定してよい。この場合、検査結果判定部37は、溶接不良の箇所の位置および溶接不良の種別(例えば、穴あき、ピット、アンダーカット、スパッタ、突起)を含むアラート画面を生成し、生成されたアラート画面を、通信部30を介して上位装置1に送信する。上位装置1に送信されたアラート画面は、モニタMN1に表示される。なお、このアラート画面は、モニタMN2に表示されてもよい。
 データ処理部36は、判定閾値記憶部34に記憶されたビード外観検査用の閾値を用いて、センサ4により取得された溶接ビードの形状に関する入力データとワークごとに予め既定された良品ワークのマスタデータとの比較に基づくビード外観検査を行う。データ処理部36は、検査判定結果としての欠陥判定結果(つまり、リペア溶接が必要な欠陥の有無を示す情報)と、欠陥箇所ごとの欠陥区間の情報とを含む外観検査報告を作成して検査結果記憶部33に記憶するとともに、通信部30を介して上位装置1あるいはロボット制御装置2に送信する。また、データ処理部36は、検査対象であるワークWkにリペア溶接が必要な欠陥箇所がないと判定した場合、ビード外観検査に合格である旨の検査判定結果を含む外観検査報告を作成して検査結果記憶部33に記憶するとともに、通信部30を介して上位装置1に送信する。
 また、データ処理部36は、形状検出制御部35からワークWkの形状に関する入力データ(上述参照)を取得すると、オフライン教示装置5により実行される演算処理に適したデータ形式に変換する。データ形式の変換には、いわゆる前処理として、入力データ(つまり点群データ)に含まれる不要な点群データ(例えばノイズ)が除去される補正処理が含まれてもよいし、ワークWkの3Dモデルを生成する処理であってもよい。また、データ処理部36は、ワークWkの位置および形状を強調、ワークWkの周縁部分を強調したエッジ強調補正を行ってもよい。データ処理部36は、変換後のワークWkの形状に関する入力データを、通信部30を介して、オフライン教示装置5に送信する。
 検査結果判定部37は、合計N(N:2以上の整数)種類のビード外観検査(例えば、上述した第1検査判定および第2検査判定のそれぞれ)を実行可能である。具体的には、検査結果判定部37は、第1検査判定部371、第2検査判定部372~第N検査判定部37Nを有する。図2の説明を分かり易く簡易化するため、N=2として説明するが、N=3以上の整数であっても同様である。
 第1検査判定部371は、第1検査判定(つまり、センサ4により取得された溶接ビードの形状に関する入力データとワークごとに予め既定された良品ワークのマスタデータとの比較に基づくビード外観検査)を行い、溶接ビードの形状信頼性(例えば直線状あるいは曲線状の溶接線に沿っているか否か)、ビード欠け、およびビード位置ずれを検査する。第1検査判定部371は、第1検査判定用にデータ処理部36によってデータ変換されたデータ(例えば点群データに基づいて生成された画像データ)と良品ワークのマスタデータとの比較(いわゆる画像処理)を行う。このため、第1検査判定部371は、溶接ビードの形状信頼性、ビード欠け、およびビード位置ずれを高精度に検査することができる。第1検査判定部371は、溶接ビードの形状信頼性、ビード欠けおよびビード位置ずれの検査結果を示す検査スコアを算出し、この検査スコアの算出値を第1検査結果として作成する。さらに、第1検査判定部371は、作成された第1検査結果とメモリ32に記憶された第1検査結果用の閾値とを比較する。第1検査判定部371は、比較した比較結果の情報(つまり、取得された第1検査結果がビード外観検査に合格あるいは不合格であるか)を含む第1検査結果を総合判定部370、あるいは第2検査判定部372~第N検査判定部37Nに出力する。
 第2検査判定部372~第N検査判定部37Nは、第2検査判定(つまり、k=(N-1)種類の人工知能によるニューラルネットワークをそれぞれ形成し、センサ4により取得された溶接ビードの形状に関する入力データ、あるいはその入力データがデータ処理部36によって前処理された後の入力データを対象としたAIに基づく溶接不良の有無を判別するビード外観検査)を行い、溶接ビードの穴あき、ピット、アンダーカット、スパッタ、突起の有無を検査する。溶接ビードの穴あき、ピット、アンダーカット、スパッタ、突起はあくまで例示的に列挙されたものであり、第N検査判定部37Nにより検査される不良種別はこれらに限定されない。第2検査判定部372~第N検査判定部37Nのそれぞれは、該当する種別の溶接不良を検知したと判定した場合には、その溶接不良が検知された溶接ビードの位置を特定する。第2検査判定部372~第N検査判定部37Nのそれぞれは、事前に溶接不良の種別ごとあるいは溶接不良の種別のグループごとに学習処理によって得られた学習モデル(AI)を用いて、それぞれの溶接不良の有無を判別する。これにより、第2検査判定部372~第N検査判定部37Nのそれぞれは、例えば溶接ビードの穴あき、ピット、アンダーカット、スパッタ、突起の有無を高精度に検査することができる。なお、第2検査判定部372~第N検査判定部37Nのそれぞれは、第1検査判定部371で実行される溶接ビードの形状信頼性、ビード欠け、およびビード位置ずれの検査は実行しない。第2検査判定部372~第N検査判定部37Nは、溶接ビードの穴あき、ピット、アンダーカット、スパッタ、突起の検査結果(言い換えると、発生確率を示す検査スコア)を算出し、この検査スコアの算出値を第2検査判定結果として作成する。
 なお、検査結果判定部37は、上述した第1検査結果あるいは第2検査結果に含まれる検査結果(検査スコア)に基づいて、溶接ロボットMC1によるリペア溶接が可能であるか否か(言い換えると、溶接ロボットMC1によるリペア溶接がよいか、あるいは人手によるリペア溶接がよいか)を判定し、その判定結果を上述した外観検査報告に含めて出力してよい。
 リペア溶接プログラム作成部38は、データ処理部36によるワークWkの外観検査報告を用いて、溶接ロボットMC1により実行されるべきワークWkのリペア溶接プログラムを作成する。リペア溶接プログラムには、リペア溶接の実行中に電源装置500、マニピュレータ200、ワイヤ送給装置300、溶接トーチ400等を制御するための、溶接電流、溶接電圧、オフセット量、溶接速度、溶接トーチ400の姿勢等の各種のパラメータが含まれてよい。なお、生成されたリペア溶接プログラムは、プロセッサ31内に記憶されてもよいし、メモリ32内のRAMに記憶されてもよいし、外観検査報告と対応付けられて通信部30を介して上位装置1あるいはロボット制御装置2に送られてもよい。
 リペア溶接プログラム作成部38は、検査結果判定部37によるワークWk(例えばワークあるいはリペアワーク)の外観検査報告とワーク情報(例えばワークあるいはリペアワークの溶接不良の検出点の位置を示す座標等の情報)とを用いて、溶接ロボットMC1により実行されるべきワークWk(例えばワークあるいはリペアワーク)のリペア溶接プログラムを作成する。リペア溶接プログラムには、リペア溶接の実行中に電源装置500、マニピュレータ200、ワイヤ送給装置300、溶接トーチ400等を制御するための、溶接電流、溶接電圧、オフセット量、溶接速度、溶接トーチ400の姿勢等の各種のパラメータが含まれてよい。なお、生成されたリペア溶接プログラムは、プロセッサ31内に記憶されてもよいし、メモリ32内のRAMに記憶されてもよい。
 センサ4は、例えば3次元形状センサであり、溶接ロボットMC1の先端に取り付けられ、ワークWkあるいはワークWk上の溶接箇所の形状を特定可能な複数の点群データを取得する。センサ4は、取得された点群データに基づいて、溶接箇所の3次元形状を特定可能な点群データを生成して検査制御装置3に送信する。なお、センサ4は、溶接ロボットMC1の先端に取り付けられておらず、溶接ロボットMC1とは別個に配置されている場合には、検査制御装置3から送信されたワークWkあるいは溶接箇所の位置情報に基づいて、ワークWkあるいはワークWk(例えば、ワークあるいはリペアワーク)上の溶接箇所を走査可能に構成されたレーザ光源(図示略)と、ワークWkあるいは溶接箇所の周辺を含む撮像領域を撮像可能に配置され、ワークWkあるいは溶接箇所に照射されたレーザ光のうち反射されたレーザ光の反射軌跡(つまり、溶接箇所の形状線)を撮像するカメラ(図示略)と、により構成されてよい。この場合、センサ4は、カメラにより撮像されたレーザ光に基づくワークWkあるいは溶接箇所の形状データ(言い換えると、ワークWkあるいは溶接ビードの画像データ)を検査制御装置3に送信する。なお、上述したカメラは、少なくともレンズ(図示略)とイメージセンサ(図示略)とを有して構成される。イメージセンサは、例えばCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semi-conductor)等の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。
 オフライン教示装置5は、ロボット制御装置2、検査制御装置3、モニタMN3、および入力装置UI3との間でそれぞれデータ通信可能に接続される。オフライン教示装置5は、入力装置UI3から送信された溶接線の位置情報、溶接動作設定情報、スキャン動作設定情報等の各種データ、溶接線の位置情報に基づいて、ワークWkの溶接動作の教示プログラムとスキャン動作の教示プログラムとを作成する。オフライン教示装置5は、通信部50と、プロセッサ51と、メモリ52と、入出力部53と、を含んで構成される。
 なお、実施の形態1におけるオフライン教示装置5は、溶接動作およびスキャン動作の教示プログラムのそれぞれを作成する例について説明するが、溶接動作の教示プログラムの作成は必須でなく、省略されてもよい。オフライン教示装置5は、センサ4を備え、このセンサ4によりスキャン動作(つまり、ビード外観検査)を実行可能なロボット用のスキャン動作の教示プログラムを作成可能であればよい。
 通信部50は、ロボット制御装置2、検査制御装置3、入力装置UI3、およびモニタMN3との間でそれぞれデータの通信が可能に接続される。通信部50は、作成された溶接動作およびスキャン動作のそれぞれの教示プログラムと、溶接動作およびスキャン動作の教示プログラムのそれぞれの作成に用いられた各種データ(例えば、溶接線の位置情報、溶接動作設定情報、スキャン動作設定情報、ワークWkのワーク情報等)とを関連付けて、ロボット制御装置2に送信する。
 プロセッサ51は、例えばCPUまたはFPGAを用いて構成され、メモリ52と協働して、各種の処理および制御を行う。具体的には、プロセッサ51は、メモリ52に保持されたプログラムを参照し、そのプログラムを実行することにより、3D演算部54およびプログラム作成部55を機能的に実現する。
 メモリ52は、例えばプロセッサ51の処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ51の処理を規定したプログラムを格納するROMとを有する。RAMには、プロセッサ51により生成あるいは取得されたデータが一時的に保存される。ROMには、プロセッサ51の処理を規定するプログラムが書き込まれている。また、メモリ52は、プログラム作成部55により作成された溶接動作の教示プログラムと、スキャン動作の教示プログラムと、ワーク情報とを関連付けて記憶する。
 入力部および取得部の一例としての入出力部53は、入力装置UI3から送信された実行指令、ワークWkの3Dモデル、溶接動作設定情報およびスキャン動作設定情報のそれぞれと、ロボット制御装置2、検査制御装置3、あるいは入力装置UI3から送信された溶接線の位置情報とを取得して、プロセッサ51に出力する。また、入出力部53は、3D演算部54により生成された仮想的な生産設備(例えば、仮想溶接ロボット、仮想ワーク、仮想ステージ等)の画像、オフライン教示装置5から送信された仮想的な生産設備の画像上にセンサ4の動作軌跡あるいは溶接トーチ400の動作軌跡等を重畳した画像をモニタMN3に送信する。
 生成部の一例としての3D演算部54は、例えば、ワークWkあるいは溶接ビードの形状に関する入力データ(つまり、3次元形状のデータ)、ワークWkの3Dモデルのデータ、ワークWkのワーク情報、生産設備に関するデータ(例えば、ステージSTGの位置情報、溶接ロボットMC1のロボット情報あるいは位置情報)等に基づいて、ワークWkの本溶接工程および外観検査工程のそれぞれを実行するために必要な生産設備を仮想的に構成する。3D演算部54は、仮想的に構成された生産設備のデータを画像データに変換して入出力部53に出力し、モニタMN3に表示させる。
 また、3D演算部54は、プログラム作成部により作成された溶接動作の教示プログラムに含まれる1つ以上の教示点、溶接トーチ400の動作軌跡(具体的には、空走区間、溶接区間等)等を仮想的に生産設備上に重畳した画像データを生成する。3D演算部54は、プログラム作成部により作成されたスキャン動作の教示プログラムに含まれる1つ以上の教示点、センサ4の動作軌跡(具体的には、アプローチ動作、リトラクト動作、回避動作等の各種動作を示す動作軌跡、空走区間、スキャン区間等)等を仮想的に生産設備上に重畳した画像データを生成する。3D演算部54は、各種教示プログラムに含まれるデータが重畳された仮想的な生産設備のデータを画像データに変換して入出力部53に出力し、モニタMN3に表示させる。なお、3D演算部54は、溶接動作およびスキャン動作の教示プログラムのそれぞれに基づいて、溶接動作およびスキャン動作のそれぞれの教示点、溶接トーチ400およびセンサ4の動作軌跡(具体的には、空走区間、溶接区間、スキャン区間等)等をまとめて仮想的な生産設備上に重畳した画像データを生成してもよい。
 制御部の一例としてのプログラム作成部55は、溶接線の位置情報(例えば、ワークWkの3Dモデルのデータ、ワークWkあるいは溶接ビードの形状に関する入力データ、溶接線の開始点および終了点のそれぞれの座標情報)と、溶接動作設定情報と、スキャン動作設定情報と、に基づいて、溶接動作の教示プログラムおよびスキャン動作のそれぞれの教示プログラムを作成する。プログラム作成部55は、溶接動作作成部551と、スキャン動作作成部552とを含んで構成される。
 溶接動作作成部551は、入力された溶接線の位置情報と、溶接動作設定情報とに基づいて、ワークWkに本溶接工程を実行するための溶接動作の教示プログラムを作成する。また、ここでいう溶接動作設定情報は、本溶接の各種溶接条件、溶接開始前および溶接終了後のそれぞれの溶接トーチ400の退避位置等の溶接動作に必要な各種パラメータ群であればよい。
 スキャン動作作成部552は、入力された溶接動作の動作軌跡、溶接線の位置情報、3Dモデル、3Dモデル上に配置された1つ以上のスキャン有効領域のそれぞれ、スキャン動作設定情報等に基づいて、ワークWk上に生成された溶接ビードあるいは他の外観検査箇所の外観検査工程を実行するためのスキャン動作の教示プログラムを作成する。また、ここでいうスキャン動作設定情報は、センサ4とワークWkとの間の距離、センサ4の情報(例えば、スキャン有効範囲AR0(図4参照)、スキャン有効領域AR1(図5参照)等)、測定レンジ、アプローチ情報(例えば、アプローチ開始位置およびアプローチ終了位置の情報、アプローチを指示する指示情報等)、スキャンの助走区間、スキャン区間、リトラクト情報(例えば、リトラクト開始位置およびリトラクト終了位置の情報、リトラクトを指示する指示情報等)、回避情報(例えば、回避開始位置および回避終了位置の情報、回避すべき障害物である元ワーク、治具等の位置情報)等の溶接ビード、あるいは他の外観検査対象のスキャン動作に必要な各種パラメータ群であればよい。
 以降、スキャン動作の教示プログラムの作成処理において、センサ4によりスキャンされるスキャン区間の各種作成方法について説明する。オフライン教示装置5は、入力装置UI3を介して取得された作業者操作と、同一または他のワークに対して作成済みの溶接動作あるいはスキャン動作の教示プログラムと、に基づいて、新たなスキャン動作の教示プログラムを作成する。
 まず、図3を参照して、3DモデルMD1について説明する。図3は、3DモデルMD1の一例を示す図である。なお、図3の3DモデルMD1が示すワークWkは、一例であってこれに限定されない。
 オフライン教示装置5は、作業者操作に基づいてロボット制御装置2、検査制御装置3、あるいは入力装置UI3のそれぞれから、新たなスキャン動作の教示プログラムの作成対象であるワークWkの溶接動作およびスキャン動作の教示プログラムのそれぞれと、3Dモデルのデータとを取得する。具体的に、まず、オフライン教示装置5は、スキャン動作の教示プログラムの作成対象であるワークWkの溶接動作の動作軌跡(つまり、本溶接時の溶接トーチ400の動作軌跡)と、ビード外観検査の対象物であるワークWkの3Dモデルのデータ(つまり、ワークWkの3次元形状のデータ)と、センサ4のスキャン有効範囲AR0の情報(例えば、センサ4とスキャン有効範囲AR0と間の距離情報、スキャン有効範囲AR0の範囲情報等の3次元の情報)と、を取得する。
 オフライン教示装置5は、取得されたワークWkの3DモデルMD1のデータ上に、溶接動作の動作軌跡RT1を重畳する。オフライン教示装置5は、ワークWkの3DモデルMD1上に、取得された溶接動作の動作軌跡RT1と、スキャン区間WL11,WL12のそれぞれ、あるいは溶接線WLM11,WLM12のそれぞれと、を重畳した画像(つまり、図3)を生成してモニタMN3に送信し、表示させる。これにより、オフライン教示装置5は、溶接動作の動作軌跡RT1が重畳された3DモデルMD1に基づいて、ワークWkのビード外観検査時における空走動作区間RT11、RT12のそれぞれ、スキャン区間WL11,WL12のそれぞれ、あるいは溶接線WLM11,WLM12のそれぞれが示す溶接区間等を作業者に目視確認可能に提示できる。
 なお、スキャン動作の教示プログラムの作成にあたって、オフライン教示装置5は、溶接線の位置情報の取得を省略してもよい。オフライン教示装置5は、少なくともワークWkの3DモデルMD1のデータと、溶接動作の動作軌跡RT1と、を取得可能であればよい。これにより、オフライン教示装置5は、溶接動作の動作軌跡RT1に対応付けられた溶接動作に関する各種動作情報(例えば、アプローチ動作、リトラクト動作、あるいは回避動作等の情報)を取得できる。なお、回避動作が不要である場合、回避動作に関する情報は省略されてよい。
 なお、スキャン動作の教示プログラムの取得は、必須でなく省略されてもよい。このような場合、オフライン教示装置5は、作業者操作に基づいて、後述するセンサ4のスキャン有効領域の生成処理を実行する。また、オフライン教示装置5は、作業者操作に基づいて、新たなスキャン有効領域の生成処理を実行してもよい。スキャン有効領域の生成処理について、図4および図5のそれぞれを参照して説明する。
 図4は、センサ4のスキャン有効範囲AR0の一例を説明する図である。図5は、センサ4のスキャン有効領域AR1の一例を説明する図である。なお、図4に示すスキャン有効範囲AR0、および図5に示すスキャン有効領域AR1のそれぞれは、一例であってこれに限定されないことは言うまでもない。
 図4に示すスキャン有効範囲AR0は、センサ4がYZ平面上で対象物(例えば、ビード外観検査対象である溶接ビード等)の3次元形状をスキャン可能な範囲である。センサ4は、溶接ロボットMC1のマニピュレータ200の駆動により進行方向に移動されることで、図4に示すスキャン有効領域AR1内に位置する対象物の3次元形状をスキャンして取得する。
 オフライン教示装置5は、センサ4のスキャン有効範囲AR0に対して作業者操作を受け付けてスキャン有効領域AR1を生成する。具体的に、オフライン教示装置5は、YZ平面上のスキャン有効範囲AR0を、溶接ロボットMC1が備えるセンサ4が読み取り可能な任意の一方向に移動させる作業者操作を受け付ける。オフライン教示装置5は、作業者により移動操作された方向と、この移動操作の区間(つまり、移動開始位置と移動終了位置との間の距離)とに基づいて、スキャン有効領域AR1を生成する。
 例えば、スキャン有効範囲AR0が進行方向(つまり、YZ平面に略垂直な方向)にスキャン区間SR1だけ動かす作業者操作を受け付けた場合、オフライン教示装置5は、スキャン有効範囲AR0からスキャン区間SR1の距離に位置するスキャン有効範囲AR01までのスキャン有効領域AR1を生成する。
 実施の形態1におけるオフライン教示装置5は、取得された3DモデルMD1あるいはスキャン教示の教示プログラムに1つ以上のスキャン有効領域の情報(例えば、スキャン有効領域の位置、3次元形状、大きさ、角度等)が紐付けられている場合、1つ以上のスキャン有効領域のそれぞれのうちいずれかのスキャン有効領域のコピー(複製)、削除、あるいは分割等の編集操作を受け付けてよい。
 また、実施の形態1におけるオフライン教示装置5は、上述のように、入力装置UI3を介した作業者操作を受け付けて、任意の大きさ、角度を有する1つのスキャン有効領域の生成を実行してもよい。このような場合、オフライン教示装置5は、生成された1つのスキャン有効領域のコピー(複製)、あるいは削除等操作を受け付ける。また、このような場合、オフライン教示装置5は、取得された3DモデルMD1あるいはスキャン教示の教示プログラムに1つ以上のスキャン有効領域の情報(例えば、スキャン有効領域の位置、3次元形状、大きさ、角度等)が紐付けられていない場合であっても、作業者操作に基づいてスキャン有効領域を生成することで、新たなスキャン動作の教示プログラムを作成できる。
 以上により、実施の形態1におけるオフライン教示装置5は、作業者操作に基づいて生成されたスキャン有効領域、あるいは編集されたスキャン有効領域のそれぞれと、溶接動作の動作軌跡と、ワークWkの3DモデルMD1と、に基づいて、新たなスキャン動作の教示プログラムを作成する。
<スキャン有効領域のコピー処理>
 図6を参照して、実施の形態1におけるスキャン有効領域のコピー処理について説明する。図6は、実施の形態1におけるスキャン有効領域AR11,AR12のコピー処理例を説明する図である。
 ここで、図6に示すスキャン有効領域AR11は、図3に示す溶接線WLM11のスキャン区間WL11に対応するスキャン有効領域である。スキャン有効領域AR11は、溶接線WLM11に基づいて形成される溶接ビードをスキャンする時のセンサ4のスキャン可能な領域を示す。同様に、図6に示すスキャン有効領域AR12は、図3に示す溶接線WLM12のスキャン区間WL12に対応するスキャン有効領域である。スキャン有効領域AR12は、溶接線WLM12に基づいて形成される溶接ビードをスキャンする時のセンサ4のスキャン可能な領域を示す。なお、2つのスキャン有効領域AR11,AR12のそれぞれは一例であってこれに限定されなくてよいことは言うまでもない。
 スキャン有効領域のコピー処理は、例えば、同一形状を有する2つ以上のワークのそれぞれを含んで構成されるワークのスキャン動作の教示に有用である。また、スキャン有効領域のコピー処理は、溶接箇所以外の他の外観検査(例えば、ワークに取付済みの部品(ネジ等)の有無を判定するための検査等)を実行に使用されるスキャン動作の教示に有用である。
 オフライン教示装置5は、スキャン動作の教示プログラムの作成対象であるワークが、同一形状を有する2つ以上のワークのそれぞれを含んで構成されるワークである場合、このワークの3Dモデルのデータ(例えば、図6に示す例では、3DモデルMD1と3DモデルMD2との相対位置が定義された1つの3Dモデルのデータ)の入力を受け付ける。なお、オフライン教示装置5は、3DモデルMD1をコピー(複製)し、かつ、3DモデルMD1と3DモデルMD2との相対位置が定義操作を受け付けることにより、スキャン動作の教示プログラムの作成対象であるワークの3Dモデルのデータを取得してもよい。
 オフライン教示装置5は、入力装置UI3からスキャン有効領域のコピー処理を要求する制御指令が送信された場合、作業者操作により指定された1つ以上のスキャン有効領域(ここでは、2つのスキャン有効領域AR11,AR12のそれぞれ)をコピー(複製)する。オフライン教示装置5は、入力装置UI3を介して取得された作業者操作に基づく指定位置のそれぞれに、コピー(複製)された複数のスキャン有効領域AR13,AR14のそれぞれを配置する。
 ここで、オフライン教示装置5は、入力装置UI3を介して作業者操作に基づく指定位置を取得した場合、溶接ロボットMC1の動作軌跡からこの指定位置に対応する溶接ロボットMC1の位置を特定する。オフライン教示装置5は、特定された溶接ロボットMC1の位置で、溶接ロボットMC1が備えるセンサ4の位置および姿勢を算出し、算出されたセンサ4の位置および姿勢に基づいて、指定位置におけるセンサ4のスキャン有効領域の位置、角度(向き)を算出する。オフライン教示装置5は、算出されたスキャン有効領域の位置、角度(向き)に基づいて、3DモデルMD1上にスキャン有効領域を重畳表示した画像を生成する。オフライン教示装置5は、生成された画像をモニタMN3に送信して、表示させる。これにより、オフライン教示装置5は、溶接ロボットMC1の動作軌跡に基づく各スキャン有効領域(例えば、図6に示すコピー処理後の3DモデルMD1,MD2のそれぞれに重畳された4つのスキャン有効領域AR11~AR14のそれぞれ)を作業者に可視化できる。
 以上により、オフライン教示装置5は、溶接ロボットMC1の動作軌跡に対応付けらえた溶接ロボットMC1の位置に基づいて、指定位置におけるセンサ4の位置および姿勢に対応するスキャン有効領域を3DモデルMD1上に重畳可能となる。したがって、実施の形態1におけるオフライン教示装置5は、実際の溶接ロボットMC1を動作させた時のセンサ4のスキャン有効領域と、オフライン教示装置5により構築される仮想のスキャン有効領域との間のずれをより小さくできる。これにより、オフライン教示装置5は、運用時のセンサ4によりスキャン可能なスキャン有効領域を作業者に提示可能となるため、作業者による教示作業を効率的に支援できる。また、オフライン教示装置5は、運用時のセンサ4によりスキャン可能なスキャン有効領域を作業者に提示することにより、運用時の教示箇所(つまり、スキャン有効領域)のスキャン精度をより向上させたり、教示箇所(スキャン有効領域)の修正等の教示作業に要する負荷をより効率的に削減したりできる。
<スキャン有効領域の削除処理>
 次に、図7および図8を参照して、実施の形態1におけるスキャン有効領域の削除処理について説明する。図7は、実施の形態1におけるスキャン有効領域AR12の削除処理例1を説明する図である。図8は、実施の形態1におけるスキャン有効領域AR17の削除処理例2を説明する図である。なお、図7および図8に示すスキャン有効領域の削除処理例は一例であってこれに限定されないことは言うまでもない。
 ここで、図7に示すワークWkの3DモデルMD1は、図6に示す3DモデルMD1と同様であるため、説明を省略する。
 スキャン有効領域の削除処理は、例えば、ワークWkの形状により、本溶接時に溶接トーチ400が溶接可能であるが、外観検査時にセンサ4がスキャン可能な位置まで接近できずに障害物(ワークWk、ワークWkの治具等)に干渉する場合、センサ4のスキャン有効領域が外観検査の対象箇所に届かない場合等のスキャン動作の教示に有用である。
 ここで、オフライン教示装置5は、ワークWkの生産設備に関する情報として、生産設備あるいは障害物の3Dモデルのデータを取得可能である場合には、仮想的な生産設備あるいは障害物の3Dモデルと、仮想的なワークWkの3DモデルMD1と、1つ以上のスキャン有効領域と、を含む画像を生成して、モニタMN3に送信して表示させてもよい。これにより、作業者は、ワークWkの3DモデルMD1上に配置されている各スキャン有効領域のそれぞれが生産設備あるいは障害物に干渉しているか否かを目視確認し、削除すべきスキャン有効領域を容易に発見できる。
 このような場合のスキャン有効領域の削除操作について、図7を参照して説明する。オフライン教示装置5は、入力装置UI3を介して取得された作業者操作により指定されたスキャン有効領域AR12を削除する。
 また、スキャン有効領域の削除処理は、例えば、複数の外観検査箇所が接近して配置されており、1回のスキャンで複数の外観検査箇所のスキャン動作を実行可能な場合(つまり、1つのスキャン有効領域に複数の外観検査箇所が含まれる場合)のスキャン動作の教示に有用である。なお、ここでいう複数の外観検査箇所のそれぞれは、溶接ビードのみに限定されず、例えば、ワークが備える部品の有無であってもよい。
 ここで、図8に示すワークの3DモデルMD21について説明する。図8に示す3DモデルMD21は、3つの元ワークWk1,Wk2,Wk3のそれぞれを2か所の溶接線WLM21,WLM22のそれぞれで溶接して生産されるワークの3Dモデルのデータであって、ワークの上面図(Z方向からみた図)を示す。なお、図8に示す3DモデルMD21の例において、溶接動作の動作軌跡の図示は省略している。
 元ワークWk1と元ワークWk2のそれぞれは、溶接線WLM21により溶接される。溶接線WLM21に対応して形成される溶接ビードのビード外観検査は、スキャン有効領域AR16をセンサ4がスキャンすることで実行される。また、元ワークWk2と元ワークWk3のそれぞれは、溶接線WLM22により溶接される。溶接線WLM22に対応して形成される溶接ビードのビード外観検査は、スキャン有効領域AR17をセンサ4がスキャンすることで実行される。ここで、スキャン有効領域AR16は、2つの溶接線WLM21,WLM22のそれぞれを含む領域であって、スキャン有効領域AR17と一部の領域が重複する。このような場合、オフライン教示装置5は、入力装置UI3から送信されたスキャン有効領域AR17の削除を指示する制御指令を取得した場合、スキャン有効領域AR17を削除する。
 以上により、作業者は、オフライン教示装置5により作成され、モニタMN3に表示された仮想的なワークの3DモデルMD21と、ワーク上に重畳された各スキャン有効領域のそれぞれとに基づいて、不要な教示箇所(例えば、図8に示すスキャン有効領域AR17)を見つけたり、削除したりできる。これにより、オフライン教示装置5は、作業者により行われる教示作業がより効率的に実行可能に支援するとともに、作業者操作に基づいて、より効率的なスキャン動作の教示プログラムの作成を実行できる。
<スキャン有効領域の分割処理>
 次に、図9を参照して、実施の形態1におけるスキャン有効領域の分割処理について説明する。図9は、実施の形態1におけるスキャン有効領域AR15の分割処理例を説明する図である。なお、図9に示すスキャン有効領域の削除処理例は一例であってこれに限定されないことは言うまでもない。
 ここで、図9に示すワークWkの3DモデルMD1は、図3に示す2本の溶接線WLM11,WLM12のそれぞれの位置を含む1つのスキャン有効領域AR15が配置されている例を示す。ここで、1つのスキャン有効領域AR15は、障害物OB1(元ワーク)を含む位置に配置されている。
 スキャン有効領域の分割処理は、例えば、ワークWkの形状により、本溶接時に溶接トーチ400が溶接可能であるが、外観検査時にセンサ4がスキャン可能な位置まで接近できずに障害物(ワークWk、ワークWkの治具等)に干渉する場合のスキャン動作の教示に有用である。
 オフライン教示装置5は、入力装置UI3から送信されたスキャン有効領域AR15の分割を指示する制御指令と、分割位置を指定する制御指令とに基づいて、1つのスキャン有効領域AR15を2つのスキャン有効領域AR151,AR152のそれぞれに分割する。なお、ここで、オフライン教示装置5は、後述する実施の形態2で説明するスキャン有効領域の変更処理のように分割処理後の2つのスキャン有効領域AR151,AR152のそれぞれのスキャン区間について作業者操作による指定を受け付け可能であってよい。
 以上により、作業者は、オフライン教示装置5により作成され、モニタMN3に表示された仮想的なワークの3DモデルMD1と、ワーク上に重畳されたスキャン有効領域AR15とに基づいて、教示箇所(例えば、図9に示すスキャン有効領域AR15)を分割できる。これにより、オフライン教示装置5は、作業者により行われる教示作業がより効率的に実行可能に支援するとともに、作業者操作に基づいて、より効率的なスキャン動作の教示プログラムの作成を実行できる。
 次に、図10および図11を参照して、実施の形態1におけるオフライン教示装置の動作手順について具体例を用いて詳細に説明する。図10は、実施の形態1におけるスキャン有効領域AR11,AR12に紐付けられた各種動作の一例を説明する図である。図11は、実施の形態1におけるオフライン教示装置5の動作手順例を示すフローチャートである。なお、図10に示す各種動作は一例であってこれに限定されないことは言うまでもない。
 図10に示すワークの3DモデルMD1は、図6に示す2つのスキャン有効領域AR11,AR12のそれぞれが配置されている例を示す。なお、図10に示す3DモデルMD1は、各種動作を分かり易くするために、2つのスキャン有効領域AR11,AR12のそれぞれの図示を省略している。
 オフライン教示装置5は、3DモデルMD1のデータと、溶接動作の教示プログラムに基づいて、溶接動作の動作軌跡RT1と、3DモデルMD1あるいは動作軌跡RT1に紐付けられた各種動作情報(具体的に、アプローチ情報、リトラクト情報、回避情報等)と、3DモデルMD1上に配置された2つのスキャン有効領域AR11,AR12のそれぞれとに基づいて、新たなスキャン動作の教示プログラムを作成する。
 オフライン教示装置5は、1つ以上のスキャン有効領域のそれぞれのうちスキャン有効領域をセンサ4にスキャンさせるためのスキャン動作が未作成のスキャン有効領域があるか否かを判定する(St10)。
 オフライン教示装置5は、ステップSt10の処理において、スキャン動作が未作成のスキャン有効領域があると判定した場合(St10,YES)、溶接動作の教示プログラムに基づいて、センサ4がこのスキャン有効領域をスキャンさせるにあたって必要なアプローチ情報があるか否かを判定する(St11)。
 一方、オフライン教示装置5は、ステップSt10の処理において、スキャン動作が未作成のスキャン有効領域がないと判定した場合(St10,NO)、3DモデルMD1上に配置されたすべてのスキャン有効領域のそれぞれに対応する複数のスキャン動作の教示プログラムのそれぞれを紐付けて、3DモデルMD1に対応する新たなスキャン動作の教示プログラムを作成する(St12)。
 オフライン教示装置5は、ステップSt11の処理において、アプローチ情報があると判定した場合(St11,YES)、スキャン有効領域に対応するアプローチ動作を作成する(St13)。
 例えば、オフライン教示装置5は、スキャン有効領域AR11のスキャン動作の教示プログラムの作成において、図10に示すように3DモデルMD1あるいは動作軌跡RT1にアプローチ開始位置PT1およびアプローチ終了位置PT2のそれぞれのアプローチ情報が紐付けられている場合、アプローチ開始位置PT1からアプローチ終了位置PT2までの区間APR11においてワークWkにセンサ4を接近させるアプローチ動作を作成する。なお、ここでスキャン有効領域AR11に紐付けられたアプローチ情報は、少なくともアプローチ終了位置PT2の一方のみでよい。
 一方、オフライン教示装置5は、ステップSt11の処理において、アプローチ情報がないと判定した場合(St11,NO)、またはステップSt13の処理の後、スキャン有効領域に対応するスキャン動作を作成する(St14)。
 例えば、オフライン教示装置5は、スキャン有効領域AR11のスキャン動作の教示プログラムの作成において、作業者操作により配置されたスキャン有効領域AR11におけるスキャン開始位置PT3からスキャン終了位置PT4までの区間(ここでは、溶接線WLM11に対応する区間)を、センサ4にスキャンさせるスキャン動作を作成する。同様に、オフライン教示装置5は、スキャン有効領域AR12のスキャン動作の教示プログラムの作成において、作業者操作により配置されたスキャン有効領域AR12におけるスキャン開始位置PT3からスキャン終了位置PT4までの区間(ここでは、溶接線WLM12に対応する区間)を、センサ4にスキャンさせるスキャン動作を作成する。
 なお、図10に示す例では、一例として溶接線WLM11の開始位置および終了位置がスキャン有効領域AR11のスキャン開始位置PT3およびスキャン終了位置PT4のそれぞれと略同じ位置に位置し、溶接線WLM12の開始位置および終了位置がスキャン有効領域AR12の開始位置PT7および終了位置PT8のそれぞれと略同じ位置に位置する例を示すが、これに限定されない。溶接線の開始位置とスキャン有効領域の開始位置とは異なっていてもよい。同様に、溶接線の終了位置とスキャン有効領域の終了位置とは異なっていてもよい。
 オフライン教示装置5は、溶接動作の教示プログラムに基づいて、センサ4がこのワークから離れるためのリトラクト情報があるか否かを判定する(St15)。
 オフライン教示装置5は、ステップSt15の処理において、リトラクト情報があると判定した場合(St15,YES)、スキャン有効領域に対応するリトラクト動作を作成する(St16)。
 例えば、オフライン教示装置5は、スキャン有効領域AR12のスキャン動作の教示プログラムの作成において、図10に示すように3DモデルMD1あるいは動作軌跡RT1にリトラクト開始位置PT9およびリトラクト終了位置PT10のそれぞれのリトラクト情報が紐付けられている場合、リトラクト開始位置PT9からリトラクト終了位置PT10までの区間RTR11において、ワークWkからセンサ4を離間させるリトラクト動作を作成する。なお、ここでスキャン有効領域AR12に紐付けられたリトラクト情報は、少なくともリトラクト開始位置PT9の一方のみでよい。
 一方、オフライン教示装置5は、ステップSt15の処理において、リトラクト情報がないと判定した場合(St15,NO)、またはステップSt16の処理の後、溶接動作の教示プログラムに基づいて、センサ4が障害物を回避するための回避情報があるか否かを判定する(St17)。
 オフライン教示装置5は、ステップSt17の処理において、回避情報があると判定した場合(St17,YES)、スキャン有効領域に対応する回避動作を作成する(St18)。
 例えば、オフライン教示装置5は、スキャン有効領域AR11あるいはスキャン有効領域AR12のスキャン動作の教示プログラムの作成において、図10に示すように3DモデルMD1あるいは動作軌跡RT1に回避開始位置PT5および回避終了位置PT6のそれぞれの回避情報が紐付けられている場合、回避開始位置PT5から回避終了位置PT6までの区間ESC11において、障害物OB1からセンサ4を回避させる回避動作を作成する。
 一方、オフライン教示装置5は、ステップSt17の処理において、回避情報がないと判定した場合(St17,NO)、またはステップSt18の処理の後、次の(つまり、他の)スキャン有効領域に対応するスキャン動作の作成処理(つまり、ステップSt10の処理)に移行する。
 以上により、オフライン教示装置5は、入力装置UI3を介した作業者操作に基づいて生成された1つ以上の教示箇所(スキャン有効領域)のそれぞれに対応するスキャン動作を作成し、これらすべての教示箇所(スキャン有効領域)のそれぞれに対応するスキャン動作を紐付けることで新たなスキャン動作の教示プログラムを自動作成できる。また、オフライン教示装置5は、溶接動作の動作軌跡に基づいて、新たなスキャン動作の教示プログラム作成できるため、運用時の教示箇所(つまり、スキャン有効領域)のスキャン精度をより向上させたり、教示箇所(スキャン有効領域)の修正等の教示作業に要する負荷をより効率的に削減したりできる。
 以上により、実施の形態1におけるオフライン教示装置5は、作業者操作を受け付け可能な入出力部53(入力部の一例)と、溶接により生産されるワークWkの3DモデルMD1のデータ(3次元形状データの一例)と溶接の動作軌跡とワークWkの外観形状をスキャンするセンサ4のスキャン有効範囲AR0(スキャン範囲の一例)とを取得する入出力部53または通信部50(取得部の一例)と、取得されたスキャン有効範囲AR0とスキャン区間(例えば、図5に示すスキャン区間SR1)とに基づいて、センサ4によりスキャンされるスキャン有効領域(例えば、図6に示すスキャン有効領域AR11等であって、3次元領域の一例)を生成する3D演算部54(生成部の一例)と、入出力部53に入力された作業者操作に基づいて、ワークWkの3DモデルMD1のデータ上に少なくとも1つのスキャン有効領域を配置し、配置されたスキャン有効領域(例えば、図10に示すスキャン有効領域AR11,AR12)と、溶接の動作軌跡RT1とに基づいて、溶接を行う溶接ロボットMC1にスキャン有効領域をスキャンさせるための教示プログラムを作成して出力するスキャン動作作成部552(制御部の一例)と、を備える。
 これにより、実施の形態1におけるオフライン教示装置5は、溶接ロボットMC1の動作軌跡RT1に対応付けらえた溶接ロボットMC1の位置に基づいて、指定位置におけるセンサ4の位置および姿勢に対応するスキャン有効領域を3DモデルMD1上に配置し、配置されたスキャン有効領域のそれぞれのスキャン動作を作成できる。したがって、オフライン教示装置5は、作成されたスキャン動作を用いて、溶接ロボットMC1により実行されるスキャン動作の教示プログラムをより効率的に作成できるとともに、スキャン動作の教示プログラムに基づいて運用時にスキャンされるスキャン箇所と教示箇所(つまり、スキャン有効領域)との位置の精度をより向上させることができる。したがって、オフライン教示装置5は、教示箇所(スキャン有効領域)の修正等の教示作業に要する負荷をより効率的に削減可能なスキャン動作の教示プログラムをより効率的に作成できる。
 また、以上により、実施の形態1におけるオフライン教示装置5のスキャン動作作成部552は、配置されたスキャン有効領域(例えば、図10に示すスキャン有効領域AR11,AR12)と、溶接の動作軌跡RT1と、3DモデルMD1のデータに紐付けられた溶接を行う溶接ロボットMC1の動作情報(例えば、アプローチ情報、リトラクト情報、回避情報等)とに基づいて、教示プログラムを作成する。これにより、実施の形態1におけるオフライン教示装置5は、溶接の動作軌跡RT1および溶接ロボットMC1の動作情報のそれぞれに基づいて、配置されたスキャン有効領域のそれぞれのスキャン動作を作成できる。したがって、オフライン教示装置5は、作成されたスキャン動作を用いて、溶接ロボットMC1により実行されるスキャン動作の教示プログラムをより効率的に作成できる。
 また、以上により、実施の形態1におけるオフライン教示装置5のスキャン動作作成部552は、動作情報に基づいて、溶接ロボットMC1のワークWkに対する各種動作(例えば、アプローチ動作、リトラクト動作、回避動作等)と溶接ロボットMC1により実行されるスキャン有効領域ごとのスキャン動作とをそれぞれ作成する。スキャン動作作成部552は、作成されたスキャン有効領域のそれぞれに対応するスキャン動作と各種動作とを紐付けて教示プログラムを作成する。これにより、実施の形態1におけるオフライン教示装置5は、作成された溶接ロボットMC1の各種動作と、スキャン有効領域ごとに作成されたスキャン動作とに基づいて、ワークWkに対して実行されるスキャン動作の教示プログラムを作成できる。
 また、以上により、実施の形態1におけるオフライン教示装置5のスキャン動作作成部552は、3DモデルMD1のデータに紐付けられた溶接の溶接線(例えば、図10に示す溶接線WLM11,WLM12)を抽出し、スキャン有効領域に含まれる溶接線をセンサ4のスキャン箇所(つまり、教示箇所)とする教示プログラムを作成して出力する。これにより、実施の形態1におけるオフライン教示装置5は、生産されたワークWkに形成された溶接ビードのビード外観検査を実行可能なスキャン動作の教示プログラムを作成できる。
 また、以上により、実施の形態1におけるオフライン教示装置5の3D演算部54は、作業者操作に基づいて、スキャン有効領域を複製(コピー)して配置する。スキャン動作作成部552は、複製されたスキャン有効領域(例えば、図6に示すスキャン有効領域AR13,AR14のそれぞれ)を含むすべてのスキャン有効領域(例えば、図6に示すスキャン有効領域AR11~AR14のそれぞれ)のうち少なくとも1つのスキャン有効領域と、溶接の動作軌跡RT1とに基づいて、スキャン有効領域をスキャンさせるための教示プログラムを作成する。これにより、実施の形態1におけるオフライン教示装置5は、教示箇所を示すスキャン有効領域のそれぞれを複製可能にすることで、仮想的に生成され、3DモデルMD1上に重畳して表示されるスキャン有効領域と、実際のセンサ4によりスキャン可能なスキャン有効領域との位置ずれを抑制できる。したがって、オフライン教示装置5は、運用時にスキャンされるスキャン箇所と教示箇所(つまり、スキャン有効領域)との位置の精度をより向上させるスキャン動作の教示プログラムをより効率的に作成できる。
 また、以上により、実施の形態1におけるオフライン教示装置5の3D演算部54は、作業者操作に基づいて、生成された2つ以上のスキャン有効領域のうちいずれかのスキャン有効領域(例えば、図7に示すスキャン有効領域AR12)を削除する。スキャン動作作成部552は、削除されたスキャン有効領域を除外した後のすべてのスキャン有効領域(例えば、図7に示すスキャン有効領域AR11)のうち少なくとも1つのスキャン有効領域と、溶接の動作軌跡RT1とに基づいて、スキャン有効領域をスキャンさせるための教示プログラムを作成する。これにより、実施の形態1におけるオフライン教示装置5は、教示箇所を示すスキャン有効領域のそれぞれを削除可能にすることで、不要なスキャン動作を含まないスキャン動作の教示プログラムを作成できる。
 また、以上により、実施の形態1におけるオフライン教示装置5の3D演算部54は、作業者操作に基づいて、スキャン有効領域(例えば、図9に示すスキャン有効領域AR13)を分割する。スキャン動作作成部552は、分割された複数のスキャン有効領域(例えば、図9に示すスキャン有効領域AR131,AR132)を配置し、分割された複数のスキャン有効領域を含むすべてのスキャン有効領域のうち少なくとも1つのスキャン有効領域と、溶接の動作軌跡RT1とに基づいて、スキャン有効領域をスキャンさせるための教示プログラムを作成する。これにより、実施の形態1におけるオフライン教示装置5は、教示箇所を示すスキャン有効領域のそれぞれを分割可能にすることで、センサ4が障害物(生産設備、あるいはワークWkを構成する元ワーク)に干渉しないスキャン動作の教示プログラムをより効率的に作成できる。
 以上により、実施の形態1におけるオフライン教示装置5は、作業者が入力装置UI3を操作して、入力装置UI3との間で通信可能に接続された1つ以上のコンピュータを含んで構成される。作業者は、溶接により生産されるワークWkの3DモデルMD1のデータ(3次元形状データの一例)をコンピュータに入力し、ワークWkの外観形状をスキャンするスキャン区間(例えば、図5に示すスキャン区間SR1)をコンピュータに入力する。オフライン教示装置5は、3DモデルMD1のデータにおいてスキャン区間に対応するスキャン箇所(例えば、図10に示す溶接線WLM11,WLM12)に基づくスキャン有効領域(例えば、図6に示すスキャン有効領域AR11等であって、3次元領域の一例)を、溶接を行う溶接ロボットMC1にスキャンさせるための教示プログラムを作成する。
 これにより、実施の形態2におけるオフライン教示装置5は、ワークWkの3DモデルMD1のデータと、ワークWkの外観形状をスキャンするスキャン区間とを取得することで、スキャン動作の教示プログラムを自動作成できる。
(実施の形態2)
 実施の形態1におけるオフライン教示装置5は、入力装置UI3を介した作業者操作を受け付けて、受け付けられた作業者操作に基づいて、同一のスキャン区間を有するスキャン有効領域の複製(コピー)、削除、あるいは分割等の編集を実行し、編集された1つ以上のスキャン有効領域のそれぞれをセンサ4にスキャンさせるための新たなスキャン動作の教示プログラムを作成する例を示した。実施の形態2におけるオフライン教示装置5は、入力装置UI3を介した作業者操作を受け付けて、受け付けられた作業者操作に基づいて、スキャン有効領域ごとのスキャン区間、回転角度、位置(配置)の編集を実行し、編集された1つ以上のスキャン有効領域のそれぞれをセンサ4にスキャンさせるための新たなスキャン動作の教示プログラムを作成する例について説明する。
 実施の形態2に係る溶接システム100は、実施の形態1に係る溶接システム100の内部構成とほぼ同一の構成を有する。また、実施の形態2におけるオフライン教示装置5は、実施の形態1に係る溶接システム100の内部構成とほぼ同一の構成を有する。実施の形態1と同一の構成要素については同一の符号を用いることで、その説明を省略する。
 実施の形態2におけるオフライン教示装置5は、入力装置UI3を介した作業者操作を受け付けて、受け付けられた作業者操作により指定されたスキャン区間、回転角度、位置(配置)に基づいて、1つ以上のスキャン有効領域のそれぞれの生成を実行する。つまり、実施の形態2におけるスキャン有効領域のそれぞれは、異なるスキャン区間、回転角度、位置(配置)を有して生成されてよい。また、オフライン教示装置5は、取得された3DモデルMD1あるいはスキャン教示の教示プログラムに1つ以上のスキャン有効領域の情報(例えば、スキャン有効領域のスキャン区間、回転角度、位置(配置)等)が紐付けられている場合、紐付けられたスキャン有効領域のそれぞれのうちいずれかのスキャン有効領域のスキャン区間、回転角度、位置(配置)について作業者による編集操作を受け付けてよい。
 図12および図13のそれぞれを参照して、実施の形態2におけるオフライン教示装置5のスキャン有効領域AR2の移動処理、回転処理、および変更処理のそれぞれについて説明する。図12は、実施の形態2におけるスキャン有効領域AR2の移動処理例および回転処理例のそれぞれを説明する図である。図13は、実施の形態2におけるスキャン有効領域変更処理例1、変更処理例2および変更処理例3のそれぞれを説明する図である。なお、図12および図13に示すスキャン有効領域AR2は一例であって、これに限定されないことは言うまでもない。
<スキャン有効領域の移動処理>
 図12に示すスキャン有効領域AR2は、進行方向(X方向)に沿ってスキャン区間SR2を有する。オフライン教示装置5は、このスキャン有効領域AR2に対して、スキャン有効領域AR2のスキャン区間をX方向、Y方向、あるいはZ方向に移動させる作業者操作を受け付ける。オフライン教示装置5は、入力装置UI3を介した作業者操作を受け付け、受け付けられた作業者操作(具体的には、いずれかの方向への移動量)に基づいて、スキャン有効領域AR2の位置を変更する。
 ここで、オフライン教示装置5は、作業者操作に基づく移動処理後のスキャン有効領域AR2の少なくとも一部が、溶接動作の動作軌跡とスキャン有効範囲(図4参照)とに基づいてスキャン不可であると判定した場合、移動処理後のスキャン有効領域AR2がスキャン不可である旨の通知、あるいは、移動処理後のスキャン有効領域AR2のうちスキャン不可であると判定された領域のみを例えば赤色等の色で強調表示した画面を生成してモニタMN3に送信し、表示させてよい。これにより、作業者は、移動処理後のスキャン有効領域AR2がセンサ4によりスキャン可能な領域であるか否かを一目で確認することができる。
<スキャン有効領域の回転処理>
 オフライン教示装置5は、スキャン有効領域AR2の3Dモデル上に複数の回転基準点RPのそれぞれを重畳した画像を生成して、モニタMN3に送信して表示させる。なお、図12では、すべての回転基準点RPのそれぞれへの符号の付与を省略している。また、図12に示す例では、16点の回転基準点RPのそれぞれを示すが、スキャン有効領域AR2を回転操作するための回転基準点の位置および数は、これに限定されない。
 オフライン教示装置5は、作業者操作による回転基準点RPの指定操作と、X軸を中心する回転方向RRX、Y軸を中心とする回転方向RRYあるいはZ軸を中心とする回転方向RRZへの回転操作とをそれぞれ受け付ける。オフライン教示装置5は、作業者操作に基づいて、指定された回転基準点RPを原点として、回転方向RRX、回転方向RRYあるいは回転方向RRZへスキャン有効領域AR2を回転させる回転処理を実行する。
 ここで、オフライン教示装置5は、作業者操作に基づく回転処理後のスキャン有効領域AR2の少なくとも一部が、ワークWkの3DモデルMD1と、溶接動作の動作軌跡と、スキャン有効範囲(図4参照)とに基づいてスキャン不可であると判定した場合、回転処理後のスキャン有効領域AR2がスキャン不可である旨の通知、あるいは、回転処理後のスキャン有効領域AR2のうちスキャン不可であると判定された領域のみを例えば赤色等の色で強調表示した画面を生成してモニタMN3に送信し、表示させてよい。これにより、作業者は、回転処理後のスキャン有効領域AR2がセンサ4によりスキャン可能な領域であるか否かを一目で確認することができる。
<スキャン有効領域の変更処理>
 図13に示すスキャン有効領域AR2は、進行方向(X方向)に沿ってスキャン区間SR2を有する。オフライン教示装置5は、このスキャン有効領域AR2に対して、スキャン有効領域AR2のスキャン区間をX方向、Y方向、あるいはZ方向に延長させてスキャン有効領域AR2を変更するための作業者操作を受け付ける。オフライン教示装置5は、入力装置UI3を介した作業者操作を受け付け、受け付けられた作業者操作(具体的には、X方向への延長)に基づいて、スキャン有効領域AR2の長さ(スキャン区間)を変更する。
 オフライン教示装置5は、このスキャン有効領域AR2に対して、スキャン有効領域AR2のスキャン区間をX方向、Y方向、あるいはZ方向に延長させる作業者操作を受け付ける。オフライン教示装置5は、入力装置UI3を介した作業者操作を受け付け、受け付けられた作業者操作(具体的には、X方向への延長)に基づいて、スキャン有効領域AR2の大きさ(スキャン区間)を変更する。
 ここで、作業者操作に基づいて変更されたスキャン有効領域AR2の変更処理例について説明する。変更処理例1に示すスキャン有効領域AR21は、スキャン有効領域AR2がX方向に距離SR211、-X方向に距離SR212だけそれぞれ延長される変更処理が実行されて生成されたスキャン有効領域であって、スキャン区間SR213を有する。変更処理例2に示すスキャン有効領域AR22は、スキャン有効領域AR2がX方向に距離SR221だけ延長される変更処理が実行されて生成されたスキャン有効領域であって、スキャン区間SR222を有する。変更処理例3に示すスキャン有効領域AR23は、スキャン有効領域AR2が-X方向に距離SR231だけ延長される変更処理が実行されて生成されたスキャン有効領域であって、スキャン区間SR232を有する。なお、図13に示す変更処理後のスキャン有効領域AR21,AR22,AR23のそれぞれは、一例であってこれに限定されないことは言うまでもない。
 ここで、オフライン教示装置5は、作業者操作に基づいて変更されたスキャン有効領域AR2のスキャン区間の少なくとも一部が、溶接動作の動作軌跡とスキャン有効範囲(図4参照)とに基づいてスキャン不可であると判定した場合、変更処理後のスキャン有効領域AR2がスキャン有効範囲外である旨の通知、あるいは、変更処理後のスキャン有効領域AR2のうちスキャン有効範囲外の領域を例えば赤色等の色で強調表示した画面を生成してモニタMN3に送信し、表示させてよい。これにより、作業者は、変更処理後のスキャン有効領域AR2がセンサ4によりスキャン可能な領域であるか否かを一目で確認することができる。
 図14、図15および図16のそれぞれを参照して、実施の形態2におけるオフライン教示装置5のスキャン有効領域の編集処理、および新たなスキャン動作の教示プログラムの作成処理について具体的に説明する。なお、図14~図16に示す3DモデルMD3は一例であって、これに限定されないことは言うまでもない。さらに、図14~図16のそれぞれに示す3DモデルMD3は、スキャン有効領域の編集処理の説明を分かり易くするために、溶接動作の動作軌跡RT3の図示を省略している。
 また、以降の説明において、オフライン教示装置5は、溶接線に関する情報(溶接線の位置情報等)を取得していない場合のスキャン動作の教示プログラムを作成例について説明する。なお、図14に示す教示箇所WLM3は、以降で説明する複数のスキャン有効領域AR31,AR32,AR33,AR34,AR35のそれぞれの配置により教示される教示箇所(スキャン箇所)を分かり易くするために示し、モニタMN3に表示された画面上では省略されてよい。
 実施の形態2におけるオフライン教示装置5は、作業者操作に基づいてロボット制御装置2、検査制御装置3、あるいは入力装置UI3のそれぞれから、新たなスキャン動作の教示プログラムの作成対象であるワークWkの溶接動作およびスキャン動作の教示プログラムのそれぞれと、3DモデルMD3のデータとを取得する。
 オフライン教示装置5は、取得されたワークWkの3DモデルMD3のデータ上に、溶接動作の動作軌跡RT3を重畳する。なお、ここで、3DモデルMD3のデータ上に重畳された溶接動作の動作軌跡RT3は、表示または非表示が作業者により選択可能であってよい。オフライン教示装置5は、ワークWkの3DモデルMD3上に、取得された溶接動作の動作軌跡RT3を重畳した画像を生成してモニタMN3に送信し、表示させる。
 また、オフライン教示装置5は、取得されたワークWkの3DモデルMD3、あるいはスキャン動作の教示プログラムに紐付けられたスキャン有効領域AR31を3DモデルMD3のデータ上に重畳する。なお、オフライン教示装置5は、ワークWkの3DモデルMD3、あるいはスキャン動作の教示プログラムに紐付けられたスキャン有効領域がない場合、作業者操作に基づいて、新たなスキャン有効領域の生成処理を実行する。
 図15に示すオフライン教示装置5は、入力装置UI3を介した作業者操作に基づいて、スキャン有効領域AR31をコピー(複製)した2つのスキャン有効領域AR32,AR33のそれぞれを生成する。オフライン教示装置5は、作業者より指定された位置に2つのスキャン有効領域AR32,AR33のそれぞれを移動させて、3DモデルMD3上に配置する。
 図16に示すオフライン教示装置5は、入力装置UI3を介した作業者操作に基づいて、スキャン有効領域AR31をコピー(複製)した2つのスキャン有効領域AR34,AR35のそれぞれを生成して、3DモデルMD3上に配置する。なお、図16では説明を分かり易くするために、スキャン有効領域AR35の図示を省略する。オフライン教示装置5は、作業者より指定された位置に2つのスキャン有効領域AR34,AR35のそれぞれを移動させる。また、オフライン教示装置5は、2つのスキャン有効領域AR34,AR35のそれぞれに、作業者より指定された回転基準点(不図示)の指定操作と、この回転基準点を原点とするいずれかの方向への回転量の指定操作とを受け付ける。オフライン教示装置5は、受け付けられた各指定操作に基づいて、スキャン有効領域AR34,AR35のそれぞれを回転させて、3DモデルMD3上に配置する。
 ここで、オフライン教示装置5は、5つのスキャン有効領域AR31~AR35のそれぞれに対応する教示箇所の形状に関する指定操作をさらに受け付けてもよい。具体的に、オフライン教示装置5は、教示箇所(つまり、スキャン箇所)が直線形状、曲線形状、あるいは直線と曲線とを含む形状のいずれの形状であるかを指定する指定操作をスキャン有効領域ごとに受け付けてもよい。
 例えば、図17に示す3DモデルMD3の例におけるオフライン教示装置5は、作業者操作により、スキャン有効領域AR31、AR33のそれぞれに対応する教示箇所が直線、スキャン有効領域AR34,AR35のそれぞれに対応する教示箇所が直線と曲線とを含む線、スキャン有効領域AR33に対応する教示箇所が曲線である旨の指定操作を受け付ける。このような場合、オフライン教示装置5は、指定された各スキャン有効領域に対応する教示箇所の形状の情報と、3DモデルMD3の3次元形状(具体的には、ワークWkを構成する1つ以上の元ワークの面形状、元ワークと元ワークとの交差点あるいは接触点等)、あるいは溶接動作の動作軌跡とに基づいて、生成された5つのスキャン有効領域AR31~AR35のそれぞれにより教示される教示箇所WLM3を取得する。
 ここで、オフライン教示装置5は、複数のスキャン有効領域のそれぞれが連続する場合、連続する複数のスキャン有効領域のそれぞれに含まれる教示箇所を連続する1本の教示箇所として取得してよい。
 以上により、実施の形態2におけるオフライン教示装置5は、溶接線の位置情報がない場合であっても、生成された5つのスキャン有効領域AR31~AR35のそれぞれにより教示される教示箇所WLM3を取得し、取得された教示箇所WLM3を用いて、5つのスキャン有効領域AR31~AR35をセンサ4にスキャンさせるための新たなスキャン動作の教示プログラムを作成する。なお、オフライン教示装置5による新たなスキャン動作の教示プログラムの作成手順は、図11に示す実施の形態1におけるオフライン教示装置5の動作手順例を示すフローチャートと同様であるため、説明を省略する。
 次に、図17を参照して、5つのスキャン有効領域AR31~AR35に基づいて作成される各種動作の具体例について説明する。図17は、実施の形態2におけるスキャン有効領域AR31~AR35に紐付けられた各種動作の一例を説明する図である。なお、図17に示す各種動作の具体例は一例であって、これに限定されないことは言うまでもない。
 オフライン教示装置5は、図11のフローチャートに示す動作手順に基づいて、5つのスキャン有効領域AR31~AR35のそれぞれに基づいて、3DモデルMD3の各種動作の作成および紐付け処理を実行する。
 図17に示す例において、オフライン教示装置5は、3DモデルMD3あるいは溶接動作の動作軌跡RT3に紐付けられた各種動作の情報に基づいて、アプローチ開始位置PT11からアプローチ終了位置PT12までの区間APR31において、ワークWkにセンサ4を接近させるアプローチ動作を作成する。また、オフライン教示装置5は、3DモデルMD3あるいは溶接動作の動作軌跡RT3に紐付けられた各種動作の情報に基づいて、リトラクト開始位置PT15からリトラクト終了位置PT16までの区間RTR31において、ワークWkからセンサ4を離間させるリトラクト動作を作成する。
 オフライン教示装置5は、作成されたすべてのスキャン有効領域のそれぞれの動作を紐付ける。具体的に、オフライン教示装置5は、アプローチ動作と、リトラクト動作と、スキャン動作(つまり、センサ4に教示箇所WLM3をスキャンさせるための動作)とを紐付ける。なお、図17では3DモデルMD3あるいは溶接動作の動作軌跡RT3は、回避情報が紐付けられていない例について説明している。
 以上により、実施の形態2におけるオフライン教示装置5は、入力装置UI3を介した作業者操作に基づいて生成された1つ以上の教示箇所(スキャン有効領域)のそれぞれに対応するスキャン動作を作成し、これらすべての教示箇所(スキャン有効領域)のそれぞれに対応するスキャン動作を紐付けることで新たなスキャン動作の教示プログラムを自動作成できる。また、オフライン教示装置5は、溶接動作の動作軌跡に基づいて、新たなスキャン動作の教示プログラム作成できるため、運用時の教示箇所(つまり、スキャン有効領域)のスキャン精度をより向上させたり、教示箇所(スキャン有効領域)の修正等の教示作業に要する負荷をより効率的に削減したりできる。
 また、以上により、実施の形態2におけるオフライン教示装置5は、溶接線に関するデータ(溶接線の位置情報)がない場合であっても、生成された1つ以上のスキャン有効領域のそれぞれに基づいて、新たなスキャン動作の教示プログラムを作成できる。
 なお、実施の形態2におけるオフライン教示装置5は、事前に3DモデルMD3のデータに溶接線、ワークWkを構成する元ワーク同士が交差する複数の点(交差点)あるいは接触する複数の点(接触)の情報、あるいは教示箇所(スキャン箇所)等が紐付けられている場合、紐付けられた溶接線、交差点、接触点あるいは教示箇所(スキャン箇所)の位置情報を取得する。オフライン教示装置5は、溶接動作の動作軌跡RT3と、取得された溶接線、交差点、接触点あるいは教示箇所(スキャン箇所)とに基づいて、1つ以上のスキャン有効領域の生成処理、生成されたスキャン有効領域に対するコピー(複製)処理、回転処理、移動処理等を実行して、取得された溶接線、交差点、接触点あるいは教示箇所(スキャン箇所)を含む複数のスキャン有効領域のそれぞれを自動生成し、3DモデルMD3上に配置してもよい。これにより、オフライン教示装置5は、取得された溶接線、交差点、接触点あるいは教示箇所(スキャン箇所)をセンサ4でスキャンするためのスキャン動作の教示プログラムをより効率的に作成できる。
 また、実施の形態2におけるオフライン教示装置5は、3DモデルMD3に紐付けられたワークWkを構成する元ワークの面形状の情報、または元ワーク同士が交差する複数の点(交差点)あるいは接触する複数の点(接触)の情報と、各スキャン有効領域に対応する教示箇所(スキャン箇所)の形状情報とに基づいて、教示箇所(スキャン箇所)の直線の長さ、曲線の曲率等を自動算出してもよい。これにより、オフライン教示装置5は、取得された溶接線、交差点、接触点あるいは教示箇所(例えば、教示箇所WLM3等)を自動算出できるため、センサ4でスキャンするためのスキャン動作の教示プログラムをより効率的に作成できる。
 以上により、実施の形態2におけるオフライン教示装置5は、作業者操作を受け付け可能な入出力部53(入力部の一例)と、溶接により生産されるワークWkの3DモデルMD3のデータ(3次元形状データの一例)と溶接の動作軌跡RT3とワークWkの外観形状をスキャンするセンサ4のスキャン有効範囲AR0(スキャン範囲の一例)とを取得する入出力部53または通信部50(取得部の一例)と、取得されたスキャン有効範囲AR0(3次元領域の一例)と作業者操作により指定されたスキャン区間(例えば、図13に示すスキャン区間SR213,SR222,SR232)とに基づいて、センサ4によりスキャンされるスキャン有効領域(例えば、図13に示すスキャン有効領域AR21,AR22,AR23)を生成する3D演算部54(生成部の一例)と、入出力部53に入力された作業者操作に基づいて、ワークの3DモデルMD3のデータ上に少なくとも1つのスキャン有効領域を配置し、配置されたスキャン有効領域と、溶接の動作軌跡RT3とに基づいて、溶接を行う溶接ロボットMC1にスキャン有効領域をスキャンさせるための教示プログラムを作成して出力するスキャン動作作成部552(制御部の一例)と、を備える。
 これにより、実施の形態2におけるオフライン教示装置5は、溶接ロボットMC1の動作軌跡RT3に対応付けらえた溶接ロボットMC1の位置に基づいて、指定位置におけるセンサ4の位置および姿勢に対応するスキャン有効領域を3DモデルMD3上に配置し、配置されたスキャン有効領域のそれぞれのスキャン動作を作成できる。したがって、オフライン教示装置5は、作成されたスキャン動作を用いて、溶接ロボットMC1により実行されるスキャン動作の教示プログラムをより効率的に作成できるとともに、スキャン動作の教示プログラムに基づいて運用時にスキャンされるスキャン箇所と教示箇所(つまり、スキャン有効領域)との位置の精度をより向上させることができる。したがって、オフライン教示装置5は、教示箇所(スキャン有効領域)の修正等の教示作業に要する負荷をより効率的に削減可能なスキャン動作の教示プログラムをより効率的に作成できる。
 また、以上により、実施の形態2におけるオフライン教示装置5のスキャン動作作成部552は、配置されたスキャン有効領域と、溶接の動作軌跡RT3と、3DモデルMD1のデータに紐付けられた溶接を行う溶接ロボットMC1の動作情報(例えば、アプローチ情報、リトラクト情報、回避情報等)とに基づいて、教示プログラムを作成する。これにより、実施の形態2におけるオフライン教示装置5は、溶接の動作軌跡RT3および溶接ロボットMC1の動作情報のそれぞれに基づいて、配置されたスキャン有効領域のそれぞれのスキャン動作を作成できる。したがって、オフライン教示装置5は、作成されたスキャン動作を用いて、溶接ロボットMC1により実行されるスキャン動作の教示プログラムをより効率的に作成できる。
 また、以上により、実施の形態2におけるオフライン教示装置5のスキャン動作作成部552は、動作情報に基づいて、溶接ロボットMC1のワークに対する各種動作(例えば、アプローチ動作、リトラクト動作、回避動作等)と溶接ロボットMC1により実行されるスキャン有効領域ごとのスキャン動作とをそれぞれ作成し、作成されたスキャン有効領域のそれぞれに対応するスキャン動作と各種動作とを紐付けて教示プログラムを作成する。これにより、実施の形態2におけるオフライン教示装置5は、作成された溶接ロボットMC1の各種動作と、スキャン有効領域ごとに作成されたスキャン動作とに基づいて、ワークWkに対して実行されるスキャン動作の教示プログラムを作成できる。
 また、以上により、実施の形態2におけるオフライン教示装置5のスキャン動作作成部552は、作業者操作によりスキャン有効領域のそれぞれでスキャンされるスキャン箇所(つまり、教示箇所)の形状(例えば、直線形状、曲線形状、あるいは直線と曲線とを含む形状)の指定を受け付け、指定されたスキャン有効領域のそれぞれのスキャン箇所の形状と、配置されたスキャン有効領域と、動作軌跡RT3とに基づいて、溶接ロボットMC1にスキャン有効領域をスキャンさせるための教示プログラムを作成して出力する。これにより、実施の形態2におけるオフライン教示装置5は、スキャン箇所(教示箇所)の形状に基づいて、各スキャン有効領域で指定されたスキャン箇所(教示箇所)の形状に適したスキャン動作の教示プログラムを自動作成できる。
 また、以上により、実施の形態2におけるオフライン教示装置5の3D演算部54は、作業者操作に基づいて、スキャン有効領域(例えば、図15に示すスキャン有効領域AR31)を複製して配置する。スキャン動作作成部552は、複製されたスキャン有効領域(例えば、図15~図17に示すスキャン有効領域AR32~AR35)を含むすべてのスキャン有効領域のうち少なくとも1つのスキャン有効領域と、溶接の動作軌跡RT3とに基づいて、スキャン有効領域(例えば、図17に示すスキャン有効領域AR31~AR35)をスキャンさせるための教示プログラムを作成する。これにより、実施の形態2におけるオフライン教示装置5は、教示箇所を示すスキャン有効領域のそれぞれを複製可能にすることで、仮想的に生成され、3DモデルMD3上に重畳して表示されるスキャン有効領域と、実際のセンサ4によりスキャン可能なスキャン有効領域との位置ずれを抑制できる。したがって、オフライン教示装置5は、運用時にスキャンされるスキャン箇所と教示箇所(つまり、スキャン有効領域)との位置の精度をより向上させるスキャン動作の教示プログラムをより効率的に作成できる。
 また、以上により、実施の形態2におけるオフライン教示装置5の3D演算部54は、作業者操作により指定されたスキャン有効領域上の1点(図12に示す複数の回転基準点RPのいずれか1つの回転基準点)と、1点を回転中心とする回転量と基づいて、スキャン有効領域を回転する。スキャン動作作成部552は、回転されたスキャン有効領域(例えば、図16に示すスキャン有効領域AR34)を含むすべてのスキャン有効領域(例えば、図17に示すスキャン有効領域AR31~AR35)のうち少なくとも1つのスキャン有効領域と、溶接の動作軌跡RT3とに基づいて、スキャン有効領域をスキャンさせるための教示プログラムを作成する。これにより、実施の形態2におけるオフライン教示装置5は、教示箇所を示すスキャン有効領域のそれぞれを回転可能にすることで、教示箇所により適したスキャン有効領域を生成できる。したがって、実施の形態2におけるオフライン教示装置5は、生成されたスキャン有効領域に基づいて、センサ4によりスキャンされるワークWkにより適したスキャン動作の教示プログラムをより効率的に作成できる。
 また、以上により、実施の形態2におけるオフライン教示装置5の3D演算部54は、作業者操作により指定されたスキャン有効領域の移動量に基づいて、スキャン有効領域(例えば、図16に示すスキャン有効領域AR34)の位置を移動する。スキャン動作作成部552は、移動されたスキャン有効領域(例えば、図16に示すスキャン有効領域AR34)を含むすべてのスキャン有効領域(例えば、図17に示すスキャン有効領域AR31~AR35)のうち少なくとも1つのスキャン有効領域と、溶接の動作軌跡RT3とに基づいて、スキャン有効領域をスキャンさせるための教示プログラムを作成する。これにより、実施の形態2におけるオフライン教示装置5は、教示箇所を示すスキャン有効領域のそれぞれを移動可能にすることで、教示箇所により適した位置にスキャン有効領域を生成できる。したがって、実施の形態2におけるオフライン教示装置5は、生成されたスキャン有効領域に基づいて、センサ4によりスキャンされるワークWkにより適したスキャン動作の教示プログラムをより効率的に作成できる。
 以上により、実施の形態2におけるオフライン教示装置5は、作業者が入力装置UI3を操作して、入力装置UI3との間で通信可能に接続された1つ以上のコンピュータを含んで構成される。作業者は、溶接により生産されるワークWkの3DモデルMD3のデータ(3次元形状データの一例)をコンピュータに入力し、ワークWkの外観形状をスキャンするスキャン区間(例えば、図13に示すスキャン区間SR213,SR222,SR232)をコンピュータに入力し、スキャン区間でスキャンされるスキャン箇所の形状(例えば、直線形状、曲線形状、あるいは直線と曲線とを含む形状)をコンピュータに入力する。オフライン教示装置5は、スキャン箇所の形状に基づくスキャン有効領域(3次元領域の一例)を、溶接を行う溶接ロボットMC1にスキャンさせるための教示プログラムを作成する。
 これにより、実施の形態2におけるオフライン教示装置5は、ワークWkの3DモデルMD3のデータと、ワークWkの外観形状をスキャンするスキャン区間と、スキャン区間でスキャンされるスキャン箇所の形状とを取得することで、スキャン動作の教示プログラムを自動作成できる。
 以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2021年6月23日出願の日本特許出願(特願2021-104354)に基づくものであり、その内容は本出願の中に参照として援用される。
 本開示は、溶接ロボットにより実行されるセンサのスキャン動作の教示プログラムをより効率的に作成するオフライン教示装置およびオフライン教示方法として有用である。
1 上位装置
2 ロボット制御装置
3 検査制御装置
4 センサ
5 オフライン教示装置
10,20,30,50 通信部
11,21,31,51 プロセッサ
12,22,32,52 メモリ
53 入出力部
54 3D演算部
55 プログラム作成部
551 溶接動作作成部
552 スキャン動作作成部
100 溶接システム
200 マニピュレータ
300 ワイヤ送給装置
301 溶接ワイヤ
400 溶接トーチ
500 電源装置
AR0 スキャン有効範囲
AR11,AR12,AR13,AR14,AR15,AR151,AR152,AR21,AR22,AR23,AR31,AR32,AR33,AR34,AR35 スキャン有効領域
MC1 溶接ロボット
MD1,MD2,MD3 3Dモデル
MN1,MN2,MN3 モニタ
RP 回転基準点
SR1,SR2,SR213,SR222,SR232 スキャン区間
UI3 入力装置
WLM11,WLM12,WLM21,WLM22 溶接線
Wk ワーク

Claims (9)

  1.  作業者操作を受け付け可能な入力部と、
     溶接により生産されるワークの3次元形状データと前記溶接の動作軌跡と前記ワークの外観形状をスキャンするセンサのスキャン範囲とを取得する取得部と、
     取得された前記スキャン範囲とスキャン区間とに基づいて、前記センサによりスキャンされる3次元領域を生成する生成部と、
     前記入力部に入力された前記作業者操作に基づいて、前記ワークの3次元形状データ上に少なくとも1つの前記3次元領域を配置し、配置された前記3次元領域と、前記溶接の前記動作軌跡とに基づいて、前記溶接を行う溶接ロボットに前記3次元領域をスキャンさせるための教示プログラムを作成して出力する制御部と、を備える、
     オフライン教示装置。
  2.  前記制御部は、配置された前記3次元領域と、前記溶接の前記動作軌跡と、前記3次元形状データに紐付けられた前記溶接を行う溶接ロボットの動作情報とに基づいて、前記教示プログラムを作成する、
     請求項1に記載のオフライン教示装置。
  3.  前記制御部は、前記動作情報に基づいて、前記溶接ロボットの前記ワークに対する各種動作と前記溶接ロボットにより実行される前記3次元領域ごとのスキャン動作とをそれぞれ作成し、作成された前記3次元領域のそれぞれに対応する前記スキャン動作と前記各種動作とを紐付けて前記教示プログラムを作成する、
     請求項2に記載のオフライン教示装置。
  4.  前記制御部は、前記3次元形状データに紐付けられた前記溶接の溶接線を抽出し、前記3次元領域に含まれる前記溶接線を前記センサのスキャン箇所とする前記教示プログラムを作成して出力する、
     請求項1に記載のオフライン教示装置。
  5.  前記生成部は、前記作業者操作に基づいて、前記3次元領域を複製して配置し、
     前記制御部は、複製された3次元領域を含むすべての3次元領域のうち少なくとも1つの3次元領域と、前記溶接の前記動作軌跡とに基づいて、前記3次元領域をスキャンさせるための教示プログラムを作成する、
     請求項1に記載のオフライン教示装置。
  6.  前記生成部は、前記作業者操作に基づいて、生成された2つ以上の前記3次元領域のうちいずれかの3次元領域を削除し、
     前記制御部は、削除された3次元領域を除外した後のすべての3次元領域のうち少なくとも1つの3次元領域と、前記溶接の前記動作軌跡とに基づいて、前記3次元領域をスキャンさせるための教示プログラムを作成する、
     請求項1に記載のオフライン教示装置。
  7.  前記生成部は、前記作業者操作に基づいて、前記3次元領域を分割し、分割された複数の3次元領域を配置し、
     前記制御部は、分割された前記複数の3次元領域を含むすべての3次元領域のうち少なくとも1つの3次元領域と、前記溶接の前記動作軌跡とに基づいて、前記3次元領域をスキャンさせるための教示プログラムを作成する、
     請求項1に記載のオフライン教示装置。
  8.  作業者操作を受け付け可能な入力装置との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置が行うオフライン教示方法であって、
     溶接により生産されるワークの3次元形状データと前記溶接の動作軌跡と前記ワークの外観形状をスキャンするセンサのスキャン範囲とを取得し、
     取得された前記スキャン範囲とスキャン区間とに基づいて、前記センサによりスキャンされる3次元領域を生成し、
     前記入力装置から取得された前記作業者操作に基づいて、前記ワークの3次元形状データ上に少なくとも1つの前記3次元領域を配置し、
     配置された前記3次元領域と、前記溶接の前記動作軌跡とに基づいて、前記溶接を行う溶接ロボットに前記3次元領域をスキャンさせるための教示プログラムを作成して出力する、
     オフライン教示方法。
  9.  作業者が入力装置を操作して、入力装置との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置を用いて行うオフライン教示方法であって、
     溶接により生産されるワークの3次元形状データを前記コンピュータに入力し、
     前記ワークの外観形状をスキャンするスキャン区間を前記コンピュータに入力し、
     前記3次元形状データにおいて前記スキャン区間に対応するスキャン箇所に基づく3次元領域を、前記溶接を行う溶接ロボットにスキャンさせるための教示プログラムを作成する、
     オフライン教示方法。
PCT/JP2022/025097 2021-06-23 2022-06-23 オフライン教示装置およびオフライン教示方法 WO2022270580A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP22828496.4A EP4360826A4 (en) 2021-06-23 2022-06-23 OFFLINE LEARNING DEVICE AND OFFLINE LEARNING METHOD
CN202280044292.1A CN117580688A (zh) 2021-06-23 2022-06-23 离线示教装置和离线示教方法
JP2023530117A JPWO2022270580A1 (ja) 2021-06-23 2022-06-23
US18/394,121 US20240123625A1 (en) 2021-06-23 2023-12-22 Offline teaching device and offline teaching method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021104354 2021-06-23
JP2021-104354 2021-06-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/394,121 Continuation US20240123625A1 (en) 2021-06-23 2023-12-22 Offline teaching device and offline teaching method

Publications (1)

Publication Number Publication Date
WO2022270580A1 true WO2022270580A1 (ja) 2022-12-29

Family

ID=84544418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/025097 WO2022270580A1 (ja) 2021-06-23 2022-06-23 オフライン教示装置およびオフライン教示方法

Country Status (5)

Country Link
US (1) US20240123625A1 (ja)
EP (1) EP4360826A4 (ja)
JP (1) JPWO2022270580A1 (ja)
CN (1) CN117580688A (ja)
WO (1) WO2022270580A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024156002A1 (en) * 2023-01-20 2024-07-25 Path Robotics, Inc. Scan planning and scan operations for welding an object
WO2024162338A1 (ja) * 2023-01-31 2024-08-08 リンクウィズ株式会社 システム、プログラム、及び製造方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006247677A (ja) * 2005-03-09 2006-09-21 Fanuc Ltd レーザ溶接教示装置及び方法
JP2007098464A (ja) * 2005-10-07 2007-04-19 Nissan Motor Co Ltd レーザー加工ロボット制御装置、レーザー加工ロボット制御方法およびレーザー加工ロボット制御プログラム
WO2016021130A1 (ja) 2014-08-05 2016-02-11 パナソニックIpマネジメント株式会社 オフラインティーチング装置
JP2021104354A (ja) 2017-09-15 2021-07-26 株式会社三洋物産 遊技機

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10065318B2 (en) * 2014-09-15 2018-09-04 The Boeing Company Methods and systems of repairing a structure
KR20180103467A (ko) * 2017-03-10 2018-09-19 아진산업(주) 3차원 카메라를 이용한 용접 로봇 끝단의 위치 추정 시스템 및 방법
JP7245603B2 (ja) * 2017-11-10 2023-03-24 株式会社安川電機 教示装置、ロボットシステムおよび教示方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006247677A (ja) * 2005-03-09 2006-09-21 Fanuc Ltd レーザ溶接教示装置及び方法
JP2007098464A (ja) * 2005-10-07 2007-04-19 Nissan Motor Co Ltd レーザー加工ロボット制御装置、レーザー加工ロボット制御方法およびレーザー加工ロボット制御プログラム
WO2016021130A1 (ja) 2014-08-05 2016-02-11 パナソニックIpマネジメント株式会社 オフラインティーチング装置
JP2021104354A (ja) 2017-09-15 2021-07-26 株式会社三洋物産 遊技機

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024156002A1 (en) * 2023-01-20 2024-07-25 Path Robotics, Inc. Scan planning and scan operations for welding an object
WO2024162338A1 (ja) * 2023-01-31 2024-08-08 リンクウィズ株式会社 システム、プログラム、及び製造方法

Also Published As

Publication number Publication date
EP4360826A1 (en) 2024-05-01
EP4360826A4 (en) 2024-10-23
JPWO2022270580A1 (ja) 2022-12-29
US20240123625A1 (en) 2024-04-18
CN117580688A (zh) 2024-02-20

Similar Documents

Publication Publication Date Title
WO2022270580A1 (ja) オフライン教示装置およびオフライン教示方法
JP7369982B2 (ja) リペア溶接装置およびリペア溶接方法
JP7422337B2 (ja) リペア溶接制御装置およびリペア溶接制御方法
WO2020262049A1 (ja) リペア溶接制御装置およびリペア溶接制御方法
JP7289087B2 (ja) リペア溶接装置およびリペア溶接方法
WO2022270579A1 (ja) オフライン教示装置およびオフライン教示方法
US20220410323A1 (en) Bead appearance inspection device, bead appearance inspection method, program, and bead appearance inspection system
JP6990869B1 (ja) 外観検査方法および外観検査装置
JP7555041B2 (ja) ビード外観検査装置、ビード外観検査方法、プログラムおよびビード外観検査システム
WO2023105980A1 (ja) オフライン教示装置およびオフライン教示方法
WO2023105977A1 (ja) オフライン教示装置およびオフライン教示方法
WO2023105978A1 (ja) オフライン教示装置
WO2022270578A1 (ja) オフライン教示装置およびオフライン教示方法
WO2023105979A1 (ja) オフライン教示装置およびオフライン教示方法
JP2021139771A (ja) 制御装置、表示装置の制御方法およびプログラム
WO2023199620A1 (ja) ロボット制御装置およびオフライン教示システム
JP7365623B1 (ja) オフライン教示装置およびオフライン教示システム
JP2021062441A (ja) リペア溶接装置およびリペア溶接方法
CN118541236A (zh) 离线示教装置
WO2021177361A1 (ja) ビード外観検査装置およびビード外観検査システム
WO2022091543A1 (ja) リペア溶接区間検出方法およびリペア溶接区間検出装置
JP2021137848A (ja) ビード外観検査装置およびビード外観検査システム
JP2021137849A (ja) ビード外観検査装置、ビード外観検査方法、ビード外観検査プログラムおよびビード外観検査システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22828496

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023530117

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280044292.1

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 202347087978

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2022828496

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022828496

Country of ref document: EP

Effective date: 20240123