WO2023105980A1 - オフライン教示装置およびオフライン教示方法 - Google Patents

オフライン教示装置およびオフライン教示方法 Download PDF

Info

Publication number
WO2023105980A1
WO2023105980A1 PCT/JP2022/040276 JP2022040276W WO2023105980A1 WO 2023105980 A1 WO2023105980 A1 WO 2023105980A1 JP 2022040276 W JP2022040276 W JP 2022040276W WO 2023105980 A1 WO2023105980 A1 WO 2023105980A1
Authority
WO
WIPO (PCT)
Prior art keywords
scan
welding
effective area
scanning
teaching
Prior art date
Application number
PCT/JP2022/040276
Other languages
English (en)
French (fr)
Inventor
正弥 平山
嘉幸 岡崎
克明 大熊
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2023105980A1 publication Critical patent/WO2023105980A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the present disclosure relates to an offline teaching device and an offline teaching method.
  • Patent Document 1 discloses an off-line teaching device that displays a motion trajectory of a robot when a teaching program is executed on a model diagram, and displays some of a plurality of position detection commands and a portion of a plurality of welding commands.
  • the off-line teaching device includes a display unit that displays a teaching program and model diagrams, a storage unit that stores instructions constituting the teaching program and model data of the model diagrams, and a control unit that controls the display unit and the storage unit.
  • the teaching program includes a position detection program composed of a plurality of position detection instructions and a welding program composed of a plurality of welding instructions.
  • each of the instructions, position detection program, and welding program that constitute the teaching program is created by the operator.
  • the present disclosure provides an offline teaching device and an offline teaching method that support creation of a teaching program for scanning operations performed by an operator.
  • the present disclosure includes an input unit that can acquire operator operation, position information of a plurality of weld lines of a work produced by welding, and a scan range of a sensor that scans the appearance shape of a weld bead formed on the work.
  • an acquisition unit that acquires; a generation unit that generates a plurality of three-dimensional regions scanned by the sensor based on the acquired position information of the plurality of weld lines and the scan range; a control unit that arranges the welding line and the plurality of three-dimensional regions, and generates and outputs an auxiliary screen that highlights overlapping regions of each of the plurality of three-dimensional regions, wherein the generation unit, Based on the operator's operation, the overlapping area is deleted, and the control unit arranges the plurality of welding lines and at least one three-dimensional area after deleting the overlapping area in the virtual space.
  • An offline teaching device that generates and outputs a new auxiliary screen, and creates and outputs a teaching program for causing a robot that drives the sensor to scan
  • an offline teaching method performed by an offline teaching device configured to include one or more computers communicably connected to an input device capable of accepting operator operations, wherein Acquiring positional information of a plurality of welding lines of a work to be produced and a scanning range of a sensor that scans the appearance shape of a weld bead formed on the work, and acquiring the acquired positional information of the plurality of welding lines; generating a plurality of three-dimensional regions to be scanned by the sensor based on the scan range, arranging the plurality of welding lines and the plurality of three-dimensional regions in a virtual space; generating and outputting an auxiliary screen highlighting each overlapping area, deleting the overlapping area based on the operator's operation, and deleting the plurality of welding lines and the overlapping area in the virtual space; to generate and output a new auxiliary screen on which at least one three-dimensional area is arranged, and to cause the robot that drives the sensor to scan the at least one three-dimensional area based on the operator's operation.
  • an offline teaching method performed by an offline teaching device configured to include one or more computers communicably connected to an input device by a worker operating an input device.
  • Position information of a plurality of weld lines of a workpiece produced by welding and a scanning range of a sensor that scans the appearance shape of a weld bead formed on the workpiece are input to the computer, and the plurality of welding lines are displayed in virtual space.
  • the at least one three-dimensional area indicated by a new auxiliary screen on which the plurality of welding lines and at least one three-dimensional area after deleting the input overlapping area are arranged in the virtual space To provide an off-line teaching method for creating a teaching program for scanning a robot that drives a sensor.
  • FIG. 1 shows an internal configuration example of an inspection control device, a robot control device, a host device, and an offline teaching device according to Embodiment 1; Diagram explaining an example of the effective scanning range of the sensor A diagram explaining an example of the scan effective area of the sensor Flowchart showing an example of an operation procedure of the offline teaching device according to Embodiment 1 A diagram explaining a display example of production equipment and welding lines on the teaching assistance screen Diagram explaining a display example of welding lines and scan sections on the teaching assistance screen Diagram explaining an example of statistical information and scan effective area on the teaching assistance screen Diagram for explaining Scan Effective Area Division Processing Example 1 Diagram for explaining an example of stereoscopic display of the scan effective area Diagram for explaining an example of stereoscopic display of the scan effective area Diagram for explaining an example of stereoscopic display of the scan effective area Diagram for explaining an example of stereoscopic display of the scan effective area Diagram for explaining Scan Effective Area Division Processing Example 2 Diagram for explaining Scan Effective Area Combining Processing Example
  • Patent Document 1 A device configuration capable of constructing a virtual production facility using an off-line teaching device is conventionally known, as in Patent Document 1.
  • Such an off-line teaching device simultaneously displays some position detection instructions corresponding to the operation trajectory of the welding robot and some welding instructions, making it easy for the operator to identify the edit points when creating the teaching program. It can help improve the efficiency and accuracy of the created program.
  • the visual inspection teaching program is different from the welding operation teaching program, which is created so that one welding point can be welded to one weld line that requires welding processing.
  • the appearance shape of each of multiple welding locations (that is, one welding line) can be collectively scanned at one scanning location, or the appearance shape of one welding location (welding line) can be scanned at each of multiple scanning locations. It may be divided and created to be scannable. Also, when each of two or more welded points is scanned in the visual inspection, the teaching program for the visual inspection may be created in an order in which the order of scanning the welded points is different from the welding order in which each weld is performed.
  • the sensor scans a plurality of welding points collectively at one scanning point, for example, or divides the appearance shape of one welding point (weld line) at each of the plurality of scanning points.
  • the welding location may be scanned at a sensor angle different from the welding torch angle during the welding operation. Therefore, when creating a teaching program for visual inspection using an off-line teaching device, the operator who creates the teaching program for visual inspection may need to create a welding robot or an inspection robot that operates differently. Programming skills are required.
  • an offline teaching device that teaches scan locations in virtual space. By visualizing the scannable range at a predetermined position in the horizontal direction (on the XY plane), the offline teaching device visualizes the scanning location taught by the operator and the scannable range by the sensor, and the operator performs Support teaching work for executing visual inspection.
  • the offline teaching device visualizes the scanning location taught by the operator and the scannable range by the sensor, and the operator performs Support teaching work for executing visual inspection.
  • the object to be welded (for example, metal) is defined as the "original work”, and the object produced (manufactured) by the main welding is defined as the “work”.
  • the "work” is not limited to a work produced by one time of final welding, but may be a composite work produced by two or more times of final welding.
  • the process of producing a work by joining an original work and another original work by a welding robot is defined as "final welding”.
  • FIG. 1 is a schematic diagram showing a system configuration example of a welding system 100 according to Embodiment 1.
  • the welding system 100 includes a host device 1 connected to an external storage ST, an input interface UI1, and a monitor MN1, a robot control device 2, an inspection control device 3, a sensor 4, an offline teaching device 5, and a monitor MN3. , an input device UI3, a welding robot MC1, and a monitor MN2.
  • the sensor 4 is illustrated as a separate body from the welding robot MC1, but may be integrated with the welding robot MC1 (see FIG. 2).
  • the monitor MN2 is not an essential component and may be omitted.
  • the host device 1 comprehensively controls the start and completion of the main welding executed by the welding robot MC1 via the robot control device 2. For example, the host device 1 reads welding-related information previously input or set by an operator (for example, a welding operator or system administrator; the same shall apply hereinafter) from the external storage ST, and uses the welding-related information to perform welding-related A final welding execution command including information content is generated and transmitted to the corresponding robot control device 2 .
  • the host device 1 receives a main welding completion report indicating that the main welding by the welding robot MC1 has been completed from the robot control device 2, and reports the completion of the corresponding main welding. The status is updated and recorded in the external storage ST.
  • the execution command for the main welding described above is not limited to being generated by the host device 1.
  • the control panel of the equipment in the factory where the main welding is performed for example, PLC: Programmable Logic Controller
  • the robot control device 2 operation panel for example, a teach pendant
  • the teach pendant is a device for operating the welding robot MC1 connected to the robot control device 2 .
  • the host device 1 comprehensively controls the start and completion of the bead visual inspection using the robot control device 2, the inspection control device 3, and the sensor 4. For example, when host device 1 receives a main welding completion report from robot control device 2, host device 1 generates an execution command for bead visual inspection of a workpiece produced by welding robot MC1, or transmits the generated execution command to robot control device 2 and robot control device 2. It is transmitted to each of the inspection control devices 3 . When the bead visual inspection is completed, the host device 1 receives a visual inspection report to the effect that the bead visual inspection is completed from the inspection control device 3, updates the status to the effect that the corresponding bead visual inspection is completed, and sends it to the external device. Record in storage ST.
  • the welding-related information is information indicating the details of the final welding performed by the welding robot MC1, and is created in advance for each process of the final welding and registered in the external storage ST.
  • the welding-related information includes, for example, the number of original works used in the main welding, the ID of the original work used in the main welding, the lot information of the original work, the name and the welding location (for example, the information of the welding line, the welding line work information including position information, etc.), the scheduled execution date of the main welding, the number of original works to be produced, and various welding conditions at the time of the main welding.
  • the welding-related information is not limited to the data of the items described above, and includes teaching programs for welding operations and scanning operations that have already been created (see below), welding operation setting information used to create these teaching programs, Information such as scan operation setting information may be further included.
  • the welding conditions include, for example, the material and thickness of the original workpiece, the material and wire diameter of the welding wire 301, the type of shielding gas, the flow rate of the shielding gas, the set average value of the welding current, the set average value of the welding voltage, and the welding wire 301. These include the feed speed and feed amount, the number of welding times, the welding time, and the like. In addition to these, for example, information indicating the type of main welding (for example, TIG welding, MAG welding, pulse welding), moving speed and moving time of manipulator 200 may be included.
  • the robot control device 2 Based on the execution command for final welding transmitted from the host device 1, the robot control device 2 causes the welding robot MC1 to start execution of final welding using the original workpiece specified by the execution command.
  • the welding-related information described above is not limited to being managed by the host device 1 with reference to the external storage ST, and may be managed by the robot control device 2, for example. In this case, since the robot control device 2 can grasp the state that the main welding is completed, the actual execution date of the welding process may be managed instead of the scheduled execution date of the welding-related information.
  • the type of main welding does not matter, in order to make the explanation easier to understand, a process of joining a plurality of original works to produce one work will be described as an example.
  • the host device 1 is connected to the monitor MN1, the input interface UI1, and the external storage ST so as to be able to input and output data, and is also capable of data communication with the robot controller 2. connected so that The host device 1 may be a terminal device P1 that integrally includes the monitor MN1 and the input interface UI1, and may also integrally include the external storage ST.
  • the terminal device P1 is a PC (Personal Computer) used by the worker prior to execution of the main welding.
  • the terminal device P1 is not limited to the PC described above, and may be a computer device having a communication function such as a smart phone or a tablet terminal.
  • the monitor MN1 may be configured using a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence).
  • the monitor MN1 may display a screen output from the host device 1, for example, showing a notification that the main welding has been completed or a notification that the bead visual inspection has been completed.
  • a speaker (not shown) may be connected to the host device 1 in place of the monitor MN1 or together with the monitor MN1. may be output via a speaker.
  • the input interface UI1 is an operator interface that detects an operator's input operation and outputs it to the host device 1, and may be configured using a mouse, keyboard, touch panel, or the like, for example.
  • the input interface UI ⁇ b>1 receives an input operation when a worker creates welding-related information, or receives an input operation when transmitting a command to execute the main welding to the robot control device 2 , for example.
  • the external storage ST is configured using, for example, a hard disk drive or a solid state drive.
  • the external storage ST stores, for example, welding-related information data created for each main welding, the status (production status) of the work Wk produced by the main welding, and work information of the work Wk (see above).
  • the external storage ST may store the welding operation teaching program created by the offline teaching device 5 and the scanning operation teaching program for each welding line. Each of the teaching programs for the welding operation and the scanning operation will be described later.
  • the robot control device 2 is connected to enable data communication with the host device 1, the inspection control device 3, and the offline teaching device 5, respectively, and is connected to enable data communication with the welding robot MC1. be done.
  • the robot control device 2 receives the main welding execution command transmitted from the host device 1, the robot control device 2 creates a main welding program based on the welding operation teaching program corresponding to this execution command, and controls the welding robot MC1. to perform main welding.
  • the robot control device 2 When detecting the completion of the main welding, the robot control device 2 generates a main welding completion report to the effect that the main welding is completed, and notifies it to the host device 1 . Thereby, the host device 1 can properly detect the completion of the main welding by the robot control device 2 .
  • the robot control device 2 may detect the completion of main welding by, for example, a method of determining based on a signal indicating the completion of main welding from a sensor (not shown) provided in the wire feeding device 300, or a known method. It may be a method, and the content of the method for detecting completion of main welding may not be limited.
  • the welding robot MC1 is connected to the robot control device 2 so that data communication is possible.
  • Welding robot MC ⁇ b>1 performs main welding commanded from host device 1 under the control of corresponding robot control device 2 .
  • the welding robot MC1 moves the sensor 4 based on the scan operation teaching program, thereby executing the bead appearance inspection commanded by the host device 1 .
  • the inspection control device 3 is connected to enable data communication with each of the host device 1, the robot control device 2, the sensor 4, and the offline teaching device 5.
  • the inspection control device 3 receives a bead visual inspection execution command transmitted from the host device 1, the inspection control device 3 follows the teaching program for the scanning operation of the corresponding work Wk to weld the work Wk produced by the welding robot MC1 (that is, A bead appearance inspection (for example, an inspection of whether or not a weld bead formed on a workpiece satisfies a predetermined welding standard) is performed with the sensor 4 .
  • the inspection control device 3 uses the input data (for example, point cloud data that can specify the three-dimensional shape of the weld bead) regarding the shape of the weld bead acquired by the sensor 4 as a result of the scanning operation, and predetermines for each work.
  • a bead appearance inspection is performed based on comparison with the master data of non-defective works.
  • the bead visual inspection performed by the welding robot MC1 in the first embodiment is not limited to the visual inspection of the weld bead. Presence or absence, etc.) may be included in the inspection.
  • the operator can more efficiently utilize the scanning effective area of the sensor 4 and simultaneously perform appearance inspections having different purposes based on the appearance inspection results.
  • the scan effective area referred to here indicates a three-dimensional area in which the sensor 4 can read the external shape by scanning.
  • the inspection control device 3 performs a bead visual inspection, generates a visual inspection report including the inspection judgment result of this bead visual inspection and a notice that the bead visual inspection is completed, and transmits it to the host device 1, and monitors MN2. output to When the inspection control device 3 determines that a defect has been detected in the bead visual inspection of the workpiece, it generates a visual inspection report including visual inspection results including information on the defective section for repair welding of the defect. , to the host device 1 and the robot control device 2 . In addition, when the inspection control device 3 determines that a defect has been detected by the bead visual inspection of the workpiece, the repair welding for performing correction such as repairing the defective portion using the visual inspection result including information on the defective section. create a program The inspection control device 3 associates this repair welding program with the visual inspection result and transmits them to the host device 1 or the robot control device 2 .
  • the sensor 4 is connected to enable data communication with the inspection control device 3 .
  • the sensor 4 is attached to the welding robot MC1, and according to the drive of the manipulator 200 based on the control of the robot control device 2, the workpiece Wk or a stage (not shown) on which the workpiece Wk is placed, a three-dimensional sensor such as a jig. Run a scan.
  • the sensor 4 provides three-dimensional shape data (for example, point cloud data) that can identify the three-dimensional shape data of the workpiece Wk placed on the stage in accordance with the driving of the manipulator 200 based on the control of the robot control device 2. is obtained and transmitted to the inspection control device 3.
  • the monitor MN2 may be configured using a display device such as LCD or organic EL.
  • the monitor MN2 displays a screen output from the inspection control device 3, for example, a notification that the bead visual inspection has been completed, or a screen showing the notification and the result of the bead visual inspection.
  • a speaker (not shown) may be connected to the inspection control device 3 instead of the monitor MN2 or together with the monitor MN2. You may output the audio
  • the offline teaching device 5 is connected to the robot control device 2, the inspection control device 3, the monitor MN3, and the input device UI3 so that they can communicate with each other.
  • the offline teaching device 5 stores, as setting information, welding line position information for each workpiece Wk for which a teaching program is to be created or which has already been created.
  • the offline teaching device 5 constructs virtual production equipment (for example, a virtual welding robot, a virtual work, a virtual stage, a virtual jig, etc.) in a three-dimensional space (virtual space), and transmits from the input device UI 3 Control commands and various data (for example, welding bead or input data on the shape of the workpiece Wk, 3D model data, welding line position information, etc.), or various data output from the robot control device 2 or the inspection control device 3 (For example, welding bead or input data on the shape of the work Wk, 3D model data, position information of the welding line, etc.), etc., create a teaching program for the welding operation of the work Wk and a teaching program for the scanning operation. do.
  • virtual production equipment for example, a virtual welding robot, a virtual work, a virtual stage, a virtual jig, etc.
  • various data for example, welding bead or input data on the shape of the workpiece Wk, 3D model data, welding line position information, etc.
  • the off-line teaching device 5 transmits the created teaching program for the welding operation and the created teaching program for the scanning operation to the robot control device 2 .
  • the created scanning operation teaching program may be sent to the inspection control device 3 as well as the robot control device 2 .
  • the offline teaching device 5 also stores the created teaching program for the welding operation and the created teaching program for the scanning operation for each workpiece Wk.
  • the offline teaching device 5 constructs a virtual production facility (in the example shown in FIG. 3, a virtual welding robot VMC1) in a three-dimensional space (virtual space) based on the position information of the weld line. , welding lines WS11 and WS12, the scan effective area scanned by the sensor 4, etc. are superimposed (see FIGS. 6 to 8) and transmitted to the monitor MN3 for display.
  • a virtual production facility in the example shown in FIG. 3, a virtual welding robot VMC1
  • a three-dimensional space virtual space
  • the weld line position information here is information indicating the position of the weld line formed on the workpiece Wk.
  • the position information of the weld line includes at least the position information of the two end points corresponding to the start position or the end position of the main welding indicated by the weld line.
  • the welding operation teaching program referred to here is a program created based on the welding line and for causing the welding robot MC1 to perform the final welding.
  • the teaching program for welding operation includes the position, distance, angle ( posture) information and information such as welding conditions.
  • the scanning operation teaching program referred to here is a program that is created based on the weld line and causes the welding robot MC1 to perform an appearance inspection of at least one weld bead created by the final welding or the workpiece Wk. .
  • the scan operation teaching program uses the sensor 4 to perform various operations (for example, approach, retract, avoidance, scan, etc.) for performing visual inspection of the created weld bead, workpiece Wk, etc. 4 position, distance, and angle (orientation) information.
  • the monitor MN3 may be configured using a display device such as LCD or organic EL.
  • the monitor MN3 displays the teaching assistance screen transmitted from the offline teaching device 5.
  • FIG. The monitor MN3 also displays an image in which the motion trajectory of the sensor 4, the motion trajectory of the welding torch 400, or the like is superimposed on the image of the virtual production facility transmitted from the offline teaching device 5.
  • the input device UI3 is an operator interface that detects an operator's input operation and outputs it to the host device 1, and may be configured using a mouse, keyboard, touch panel, or the like, for example.
  • the input device UI 3 is used for inputting position information of the welding line of the workpiece Wk, welding setting information, scan setting information, 3D model, etc. used for creating teaching programs for scan motions and welding motions, or for inputting operations such as scan motions and welding motions that have already been created.
  • Each input operation of the motion teaching program is accepted.
  • the monitor MN3 and the input device UI3 may be a terminal device P3 (for example, a PC, a notebook PC, a tablet terminal, etc.) configured integrally.
  • FIG. 2 is a diagram showing an internal configuration example of the inspection control device 3, the robot control device 2, the host device 1, and the offline teaching device 5 according to the first embodiment.
  • the monitors MN1 and MN2 and the input interface UI1 are omitted from FIG.
  • a work Wk shown in FIG. 2 is a work to be subjected to the bead appearance inspection. This work Wk may be a work produced by main welding, or a so-called repair work that has been repaired one or more times by repair welding.
  • the welding robot MC1 shown in FIG. 2 is configured to include a sensor 4, but the sensor 4 may be used by other robots (for example, an inspection robot for performing visual inspection and a repair welding robot for performing repair welding). etc.).
  • the welding robot MC1 Under the control of the robot control device 2, the welding robot MC1 performs a main welding process based on a teaching program for welding operations using the welding torch 400, a bead visual inspection process based on a teaching program for scanning operations using the sensor 4, and the like. to run.
  • the welding robot MC1 also uses the sensor 4 to acquire the external shape of the workpiece Wk and the position information of the weld bead formed on the workpiece Wk, which are used to create teaching programs for the welding operation and the scanning operation. You may scan the external appearance of the workpiece
  • the welding robot MC1 performs arc welding, for example, in the main welding process. However, the welding robot MC1 may perform welding other than arc welding (for example, laser welding and gas welding).
  • Welding robot MC ⁇ b>1 includes at least a manipulator 200 , a wire feeder 300 , a welding wire 301 and a welding torch 400 .
  • the manipulator 200 has articulated arms, and moves each arm based on control signals from the robot controller 25 of the robot controller 2 . Thereby, manipulator 200 can change the positional relationship between work Wk and welding torch 400 (for example, the angle of welding torch 400 with respect to work Wk) and the positional relationship between work Wk and sensor 4 by driving the arm.
  • the wire feeding device 300 controls the feeding speed of the welding wire 301 based on the control signal from the robot control device 2.
  • Wire feeding device 300 may include a sensor (not shown) capable of detecting the remaining amount of welding wire 301 .
  • the robot control device 2 can detect completion of the main welding process based on the output of this sensor.
  • Welding wire 301 is held by welding torch 400 .
  • Electric power is supplied to welding torch 400 from power supply device 500, whereby an arc is generated between the tip of welding wire 301 and work Wk, and arc welding is performed.
  • illustration and explanation of the configuration for supplying the shielding gas to the welding torch 400 are omitted.
  • the host device 1 uses the welding-related information input or set in advance by the operator to generate execution commands for various processes such as final welding or bead visual inspection, and transmits them to the robot control device 2 .
  • execution commands for various processes such as final welding or bead visual inspection, and transmits them to the robot control device 2 .
  • the sensor 4 is integrally attached to the welding robot MC ⁇ b>1
  • the bead visual inspection execution command is sent to both the robot control device 2 and the inspection control device 3 .
  • the host device 1 has a configuration including at least a communication unit 10 , a processor 11 and a memory 12 .
  • the communication unit 10 is connected to enable data communication with each of the robot control device 2 and the external storage ST.
  • the communication unit 10 transmits to the robot control device 2 execution commands for various processes such as final welding or bead visual inspection generated by the processor 11 .
  • the communication unit 10 receives a main welding completion report and a visual inspection report transmitted from the robot control device 2 and outputs them to the processor 11 .
  • the main welding execution command may include, for example, a control signal for controlling each of the manipulator 200, the wire feeding device 300, and the power supply device 500 provided in the welding robot MC1.
  • the processor 11 is configured using, for example, a CPU (Central Processing Unit) or FPGA (Field Programmable Gate Array), and cooperates with the memory 12 to perform various types of processing and control. Specifically, the processor 11 functionally implements the cell control unit 13 by referring to the program held in the memory 12 and executing the program.
  • a CPU Central Processing Unit
  • FPGA Field Programmable Gate Array
  • the memory 12 has, for example, a RAM (Random Access Memory) as a work memory used when executing the processing of the processor 11, and a ROM (Read Only Memory) that stores a program that defines the processing of the processor 11. Data generated or acquired by the processor 11 is temporarily stored in the RAM. A program that defines the processing of the processor 11 is written in the ROM.
  • the memory 12 also stores welding-related information data read from the external storage ST, status of the work Wk, and work information (see later) data of the work Wk transmitted from the robot control device 2 .
  • the cell control unit 13 Based on the welding-related information stored in the external storage ST, the cell control unit 13 generates an execution command for performing main welding, bead visual inspection of the work Wk, visual scan of the work Wk, or repair welding. .
  • the cell control unit 13 is based on the welding-related information stored in the external storage ST and the teaching programs for the welding operation and the scanning operation that are created in the off-line teaching device 5 and transmitted from the robot control device 2. Then, a main welding program for main welding, a visual inspection program for driving the welding robot MC1 for bead visual inspection of the workpiece Wk, or a visual scanning program for driving the welding robot MC1 for visual scanning are created. Further, the cell control unit 13 creates execution commands for these created programs.
  • each of the appearance inspection program and the appearance scanning program may be created in advance for each work Wk and stored in the external storage ST. Read and get the program.
  • the cell control unit 13 may generate a different execution command for each of various processes of final welding performed by the welding robot MC1.
  • the main welding appearance inspection and appearance scan execution commands generated by the cell control unit 13 are transmitted to the corresponding robot control device 2 or to each of the robot control device 2 and the inspection control device 3 via the communication unit 10. .
  • the robot control device 2 refers to the corresponding program based on the execution command for final welding, bead visual inspection, or visual scanning sent from the host device 1.
  • the robot controller 2 controls the welding robot MC1 (eg, sensor 4, manipulator 200, wire feeder 300, power supply 500) based on the referenced program.
  • the robot control device 2 has a configuration including at least a communication unit 20 , a processor 21 and a memory 22 .
  • the communication unit 20 is connected to enable data communication with the host device 1, the inspection control device 3, the welding robot MC1, and the offline teaching device 5, respectively. Although the illustration is simplified in FIG. 2, there are connections between the robot control unit 25 and the manipulator 200, between the robot control unit 25 and the wire feeding device 300, and between the power control unit 26 and the power supply device 500. Data is transmitted and received between them via the communication unit 20 .
  • the communication unit 20 receives an execution command for final welding or bead visual inspection transmitted from the host device 1 .
  • the communication unit 20 receives the welding line position information, the welding operation teaching program, and the scanning operation teaching program transmitted from the offline teaching device 5 .
  • the communication unit 20 transmits work information of the work Wk produced by the final welding to the host device 1 .
  • the work information includes not only the ID of the work Wk, but also the ID, name, welding location, and welding conditions of the original work used for final welding.
  • the processor 21 is configured using, for example, a CPU or FPGA, and cooperates with the memory 22 to perform various types of processing and control. Specifically, the processor 21 refers to the program held in the memory 22 and executes the program, thereby functionally realizing the main welding program creation unit 23, the robot control unit 25, and the power supply control unit 26. . Further, the processor 21 controls the welding robot MC1 (specifically, the manipulator 200, the wire feeder 300 and the power Calculation of parameters for controlling each of the devices 500 is performed.
  • the welding robot MC1 specifically, the manipulator 200, the wire feeder 300 and the power Calculation of parameters for controlling each of the devices 500 is performed.
  • the memory 22 has, for example, a RAM as a work memory that is used when executing the processing of the processor 21, and a ROM that stores a program that defines the processing of the processor 21. Data generated or acquired by the processor 21 is temporarily stored in the RAM. A program that defines the processing of the processor 21 is written in the ROM.
  • the memory 22 stores welding-related data in which the main welding or bead visual inspection execution command data transmitted from the host device 1, the work information of the work Wk produced by the main welding, and the position information of the weld line are associated with each other. Each store information.
  • the welding-related information including the work information of the work Wk to which the teaching programs for the welding operation and the scanning operation have been transmitted from the offline teaching device 5 includes the teaching programs for the welding operation and the scanning operation, the welding operation and the scanning operation. may include welding line position information, welding operation setting information, and scanning operation setting information used to create each teaching program.
  • the main welding program creation unit 23 Based on the main welding execution command transmitted from the host device 1 via the communication unit 20, the main welding program creation unit 23 generates work information (for example, work ID, name, work coordinate system, original work information, welding line position information, etc.) and a welding operation teaching program associated with these work information, the main welding of the main welding performed by the welding robot MC1 create a program
  • the main welding program includes welding current, welding voltage, offset amount, welding speed, welding torch 400 for controlling the power supply 500, manipulator 200, wire feeder 300, welding torch 400, etc. during execution of main welding. may include various parameters such as the attitude of the Note that this welding program may be stored in the processor 21 or may be stored in the RAM in the memory 22 .
  • the calculation unit 24 performs various calculations.
  • the computing unit 24 controls the welding robot MC1 (specifically, the manipulator 200, the wire feeder 300 and the power Calculation of parameters and the like for controlling each of the devices 500 is performed.
  • the robot control unit 25 controls the welding robot MC1 (specifically, each of the sensor 4, the manipulator 200, the wire feeder 300, and the power supply device 500) based on the main welding program generated by the main welding program creation unit 23. to generate a control signal for driving the The robot control unit 25 transmits this generated control signal to the welding robot MC1.
  • the robot control unit 25 drives the manipulator 200 and the sensor 4 of the welding robot MC1 based on the appearance inspection program created using the scan operation teaching program.
  • the sensor 4 attached to the welding robot MC1 moves along with the operation of the welding robot MC1, and scans the weld bead of the workpiece Wk to obtain input data (for example, three-dimensional shape of the weld bead) regarding the shape of the weld bead. can be specified), or by partially scanning the work Wk, input data related to the partial shape of the work Wk corresponding to another appearance inspection location (for example, Point cloud data that can specify the three-dimensional shape of the work Wk) can be obtained.
  • input data for example, three-dimensional shape of the weld bead
  • another appearance inspection location for example, Point cloud data that can specify the three-dimensional shape of the work Wk
  • the power supply control unit 26 drives the power supply device 500 based on the calculation result of the main welding program generated by the main welding program creation unit 23 .
  • the inspection control device 3 based on the execution command of the bead visual inspection transmitted from the host device 1, the work Wk produced by the main welding by the welding robot MC1 or the work Wk repaired by one or more repair welding. Controls the bead visual inspection process.
  • the bead appearance inspection is, for example, an inspection of whether or not the weld bead formed on the workpiece Wk satisfies a predetermined welding standard (for example, a welding quality standard required by each worker). Consists of The inspection control device 3 detects the appearance of the weld bead formed on the workpiece Wk based on input data (for example, point cloud data that can specify the three-dimensional shape of the weld bead) regarding the shape of the weld bead acquired by the sensor 4.
  • input data for example, point cloud data that can specify the three-dimensional shape of the weld bead
  • the inspection control device 3 transmits input data relating to the weld bead acquired by the sensor 4 or the shape of the workpiece Wk to the offline teaching device 5 .
  • the inspection control device 3 includes at least a communication unit 30 , a processor 31 , a memory 32 and an inspection result storage unit 33 .
  • the communication unit 30 is connected to each of the host device 1, the robot control device 2, the sensor 4, and the offline teaching device 5 so that data communication is possible. Although the illustration is simplified in FIG. 2, data is transmitted and received between the shape detection control section 35 and the sensor 4 via the communication section 30, respectively.
  • the communication unit 30 receives a bead visual inspection execution command transmitted from the host device 1 .
  • the communication unit 30 transmits the inspection determination result of the bead appearance inspection using the sensor 4 to the host device 1, and transmits the three-dimensional shape data of the weld bead acquired by the sensor 4 to the offline teaching device 5. .
  • the processor 31 is configured using, for example, a CPU or FPGA, and cooperates with the memory 32 to perform various types of processing and control. Specifically, the processor 31 refers to the program held in the memory 32 and executes the program to perform the determination threshold value storage unit 34, the shape detection control unit 35, the data processing unit 36, and the inspection result determination unit 37. , and a repair welding program creation unit 38 are functionally realized.
  • the memory 32 has, for example, a RAM as a work memory that is used when executing the processing of the processor 31, and a ROM that stores a program that defines the processing of the processor 31. Data generated or acquired by the processor 31 is temporarily stored in the RAM. A program that defines the processing of the processor 31 is written in the ROM. Further, the memory 32 may store the scan operation teaching program transmitted from the offline teaching device 5 and the work information in association with each other.
  • the inspection result storage unit 33 is configured using, for example, a hard disk or solid state drive.
  • the inspection result storage unit 33 stores, as an example of the data generated or acquired by the processor 31, data indicating the result of the bead visual inspection of the welded portion of the work Wk (for example, work or repair work).
  • the data indicating the result of this bead appearance inspection is, for example, the inspection result determination unit 37 (specifically, the first inspection determination unit 371, the second inspection determination unit 372 to the Nth inspection determination unit included in the inspection result determination unit 37). 37N).
  • the determination threshold value storage unit 34 is configured by, for example, a cache memory provided in the processor 31, is set in advance by the operator's operation, and stores the weld location and the first inspection determination unit 371 included in the inspection result determination unit 37. Information of each threshold value (for example, each threshold value set for each type of welding failure) corresponding to each bead appearance inspection process of the Nth inspection determination unit 37N is stored.
  • the respective thresholds are, for example, the allowable range of positional deviation of the weld bead, the thresholds for the length, height, and width of the weld bead, and the thresholds for perforations, pits, undercuts, and spatter.
  • the determination threshold value storage unit 34 stores, as each threshold value at the time of bead visual inspection after repair welding, an allowable range (for example, a minimum allowable value, a maximum allowable value, etc.) that satisfies the minimum welding standard (quality) required by a customer or the like. can be stored. Note that these threshold values are set so that the inspection results generated by the first inspection determination unit 371 and the second inspection determination unit 372 to the N-th inspection determination unit 37N included in the inspection result determination unit 37 pass the bead visual inspection. It is used for the process of determining whether or not there is. Furthermore, the determination threshold value storage unit 34 may store an upper limit of the number of bead appearance inspections for each welding location.
  • an allowable range for example, a minimum allowable value, a maximum allowable value, etc.
  • the inspection control device 3 determines that it is difficult or impossible to repair the defective portion by automatic repair welding by the welding robot MC1 when the predetermined upper limit is exceeded when the defective portion is repaired by repair welding. , the decrease in the operating rate of the welding system 100 can be suppressed.
  • the shape detection control unit 35 detects the shape of the weld bead acquired and transmitted by the sensor 4 based on a bead visual inspection execution command of the welded portion of the work Wk (for example, work or repair work) transmitted from the host device 1.
  • Acquire input data for example, point cloud data that can specify the three-dimensional shape of the weld bead.
  • the shape detection control unit 35 is acquired by the sensor 4 and transmitted input data related to the shape of the work Wk (for example, 3 point cloud data that can identify the dimensional shape).
  • the shape detection control unit 35 enables the sensor 4 to image the welding bead or the workpiece Wk in accordance with the driving of the manipulator 200 by the robot control device 2 described above (in other words, the three-dimensional shape of the welding point or the workpiece Wk).
  • a laser beam is emitted from the sensor 4 to acquire input data regarding the shape of the weld bead or workpiece Wk.
  • the shape detection control section 35 passes the input data to the data processing section 36 .
  • the data processing unit 36 When the data processing unit 36 acquires the input data (see above) regarding the shape of the weld bead from the shape detection control unit 35, the data processing unit 36 converts it into a data format suitable for the first inspection determination in the inspection result determination unit 37, . . , N-th inspection determination in the inspection result determination unit 37.
  • the conversion of the data format may include, as a so-called preprocessing, correction processing in which unnecessary point cloud data (for example, noise) contained in the input data (that is, point cloud data) is removed, and may omit the pretreatment described above.
  • the data processing unit 36 generates image data representing the three-dimensional shape of the weld bead by using a data format suitable for the first inspection determination, and performing statistical processing on the input shape data, for example.
  • the data processing unit 36 may perform edge enhancement correction that emphasizes the peripheral portion of the weld bead in order to emphasize the position and shape of the weld bead as the data for the first inspection determination.
  • the data processing unit 36 counts the number of times the bead appearance inspection is performed for each location of defective welding, and if the number of bead appearance inspections exceeds the number of times previously stored in the memory 32, the welding inspection result does not improve. , it may be determined that it is difficult or impossible to correct the defective welding portion by automatic repair welding.
  • the inspection result determination unit 37 generates an alert screen including the position of the defective welding location and the type of the defective welding (for example, hole, pit, undercut, spatter, protrusion), and displays the generated alert screen. , to the host device 1 via the communication unit 30 .
  • the alert screen sent to the host device 1 is displayed on the monitor MN1. This alert screen may be displayed on the monitor MN2.
  • the data processing unit 36 uses the threshold value for the bead appearance inspection stored in the judgment threshold storage unit 34 to obtain the input data regarding the shape of the weld bead acquired by the sensor 4 and the master of non-defective workpieces predetermined for each workpiece. Perform bead visual inspection based on comparison with data.
  • the data processing unit 36 creates and inspects a visual inspection report including defect determination results as inspection determination results (that is, information indicating the presence or absence of defects requiring repair welding) and information on defect sections for each defect location.
  • the results are stored in the result storage unit 33 and transmitted to the host device 1 or the robot control device 2 via the communication unit 30 .
  • the data processing unit 36 determines that there is no defective portion requiring repair welding in the workpiece Wk to be inspected, the data processing unit 36 creates a visual inspection report including the inspection determination result indicating that the bead has passed the visual inspection. It is stored in the inspection result storage unit 33 and transmitted to the host device 1 via the communication unit 30 .
  • the data processing unit 36 acquires the input data (see above) regarding the shape of the workpiece Wk from the shape detection control unit 35, it converts it into a data format suitable for the arithmetic processing executed by the offline teaching device 5.
  • the conversion of the data format may include, as a so-called preprocessing, correction processing in which unnecessary point cloud data (for example, noise) included in the input data (that is, point cloud data) is removed. It may be a process of generating a model.
  • the data processing unit 36 may perform edge enhancement correction that emphasizes the position and shape of the work Wk and emphasizes the peripheral portion of the work Wk.
  • the data processing unit 36 transmits the input data regarding the shape of the workpiece Wk after conversion to the offline teaching device 5 via the communication unit 30 .
  • the first inspection determination unit 371 performs a first inspection determination (that is, a bead appearance inspection based on comparison between input data regarding the shape of the weld bead acquired by the sensor 4 and master data of a non-defective work predetermined for each work). to inspect weld bead shape reliability (for example, whether it is along a straight or curved weld line), bead chipping, and bead misalignment.
  • the first inspection determination unit 371 compares the data converted by the data processing unit 36 for the first inspection determination (for example, image data generated based on the point cloud data) with the master data of the non-defective workpiece (so-called image data). process).
  • the first inspection determination unit 371 can inspect the weld bead shape reliability, bead chipping, and bead positional deviation with high accuracy.
  • the first inspection determination unit 371 calculates an inspection score indicating the shape reliability of the weld bead, bead chipping, and bead misalignment, and creates the calculated value of the inspection score as the first inspection result. Further, the first inspection determination unit 371 compares the created first inspection result with the threshold value for the first inspection result stored in the memory 32 .
  • the first inspection determination unit 371 transmits the first inspection result including the information of the comparison result (that is, whether the acquired first inspection result passed or failed the bead appearance inspection) to the second inspection determination unit 372. to the N-th inspection determination unit 37N.
  • the second inspection determination unit 372 to the Nth inspection determination unit 37N form the second inspection determination (that is, (N-1) types of artificial intelligence-based neural networks, respectively), and relate to the shape of the weld bead acquired by the sensor 4.
  • a bead appearance inspection for determining the presence or absence of welding defects based on AI targeting input data or input data after the input data has been preprocessed by the data processing unit 36
  • Weld bead holes, pits, Inspect for undercuts, spatter, and protrusions Weld bead perforations, pits, undercuts, spatters, and protrusions are listed as examples only, and the defect types inspected by the N-th inspection determination unit 37N are not limited to these.
  • each of the second inspection determination unit 372 to the Nth inspection determination unit 37N determines that the corresponding type of welding defect is detected, it specifies the position of the weld bead where the welding defect is detected.
  • Each of the second inspection determination unit 372 to the Nth inspection determination unit 37N uses a learning model (AI) obtained in advance by learning processing for each type of defective welding or for each group of defective welding types, Determine the presence or absence of welding defects.
  • AI learning model
  • second inspection determining section 372 to N-th inspection determining section 37N do not perform the inspections of weld bead shape reliability, bead chipping, and bead position deviation that are performed by first inspection determining section 371, respectively.
  • the second inspection determination unit 372 to the Nth inspection determination unit 37N calculate the inspection results (in other words, inspection scores indicating the probability of occurrence) of perforations, pits, undercuts, spatters, and protrusions in the weld bead, and calculate the inspection scores. is created as the second inspection determination result.
  • the inspection result determination unit 37 determines whether repair welding by the welding robot MC1 is possible based on the inspection result (inspection score) included in the first inspection result or the second inspection result (in other words, It may be determined whether repair welding by the welding robot MC1 is better or manual repair welding is better), and the result of the determination may be included in the visual inspection report described above and output.
  • the repair welding program creation unit 38 creates a repair welding program for the work Wk to be executed by the welding robot MC1, using the appearance inspection report of the work Wk by the data processing unit 36.
  • the repair welding program includes welding current, welding voltage, offset amount, welding speed, welding torch 400 for controlling power supply 500, manipulator 200, wire feeder 300, welding torch 400, etc. during execution of repair welding. may include various parameters such as the attitude of the Note that the generated repair welding program may be stored in the processor 31, may be stored in the RAM in the memory 32, may be associated with the visual inspection report, and may be sent to the host device via the communication unit 30. 1 or the robot controller 2 .
  • the repair welding program creation unit 38 receives the visual inspection report of the work Wk (for example, work or repair work) by the inspection result determination unit 37 and work information (for example, information such as coordinates indicating the position of the detection point of the defective welding of the work or repair work) ) to create a repair welding program for the work Wk (for example, work or repair work) to be executed by the welding robot MC1.
  • the repair welding program includes welding current, welding voltage, offset amount, welding speed, welding torch 400 for controlling power supply 500, manipulator 200, wire feeder 300, welding torch 400, etc. during execution of repair welding. may include various parameters such as the attitude of the
  • the generated repair welding program may be stored in processor 31 or may be stored in RAM in memory 32 .
  • the sensor 4 is, for example, a three-dimensional shape sensor, is attached to the tip of the welding robot MC1, and acquires a plurality of point cloud data that can identify the shape of the workpiece Wk or the welding location on the workpiece Wk. Based on the acquired point cloud data, the sensor 4 generates point cloud data that can specify the three-dimensional shape of the welded portion, and transmits the generated point cloud data to the inspection control device 3 . If the sensor 4 is not attached to the tip of the welding robot MC1 and is arranged separately from the welding robot MC1, the position information of the workpiece Wk or the welding point transmitted from the inspection control device 3 may be used.
  • a laser light source (not shown) configured to be able to scan the work Wk or the welding point on the work Wk (for example, work or repair work) and an imaging area including the work Wk or the periphery of the welding point can be imaged.
  • a camera (not shown) that is arranged and captures the reflected trajectory of the reflected laser beam (that is, the shape line of the welded portion) of the laser beam irradiated to the workpiece Wk or the welded portion.
  • the sensor 4 transmits to the inspection control device 3 shape data of the work Wk or the welded portion (in other words, image data of the work Wk or the weld bead) based on the laser light imaged by the camera.
  • the camera described above includes at least a lens (not shown) and an image sensor (not shown).
  • the image sensor is a solid-state imaging device such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semi-conductor), and converts an optical image formed on an imaging surface into an electrical signal.
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semi-conductor
  • the offline teaching device 5 is connected to the robot control device 2, the inspection control device 3, the monitor MN3, and the input device UI3 so that they can communicate with each other.
  • the offline teaching device 5 creates a teaching program for scanning operation of the workpiece Wk based on the position information of the welding line transmitted from the input device UI3.
  • the offline teaching device 5 may create a teaching program for the workpiece Wk based on the welding line position information transmitted from the input device UI 3 and various data such as welding operation setting information and scanning operation setting information. good.
  • the offline teaching device 5 includes a communication section 50 , a processor 51 , a memory 52 and an input/output section 53 .
  • the offline teaching device 5 in the first embodiment will explain an example of creating teaching programs for the welding operation and the scanning operation, but the creation of the teaching program for the welding operation is not essential and may be omitted.
  • the off-line teaching device 5 is provided with a sensor 4, and it is sufficient that a scanning motion teaching program for a robot capable of executing a scanning motion (that is, a bead visual inspection) can be created by the sensor 4.
  • FIG. 1 A scanning motion teaching program for a robot capable of executing a scanning motion (that is, a bead visual inspection) can be created by the sensor 4.
  • the communication unit 50 is connected to enable data communication with the robot control device 2, the inspection control device 3, the input device UI3, and the monitor MN3.
  • the communication unit 50 transmits the created teaching programs for the welding operation and the scanning operation, and various data (for example, welding line position information, welding operation settings, etc.) used to create the teaching programs for the welding operation and the scanning operation. information, scan operation setting information, work information of the work Wk, etc.) are associated with each other and transmitted to the robot control device 2 .
  • the processor 51 is configured using, for example, a CPU or FPGA, and cooperates with the memory 52 to perform various types of processing and control. Specifically, the processor 51 refers to the programs, learning models, and the like held in the memory 52 and executes the programs, thereby functionally realizing the 3D calculation unit 54 and the program creation unit 55 .
  • the memory 52 has, for example, a RAM as a work memory that is used when executing the processing of the processor 51, and a ROM that stores a program that defines the processing of the processor 51. Data generated or acquired by the processor 51 is temporarily stored in the RAM. A program that defines the processing of the processor 51 is written in the ROM.
  • the memory 52 stores the welding operation teaching program created by the program creating unit 55, the scanning operation teaching program, and the workpiece information in association with each other. Note that the memory 52 may store a learning model and learning data for creating the teaching program for the welding operation and the teaching program for the scanning operation.
  • the learning model has a storage device including semiconductor memory such as RAM and ROM, and storage devices such as SSD (Solid State Drive) or HDD (Hard Disk Drive).
  • semiconductor memory such as RAM and ROM
  • storage devices such as SSD (Solid State Drive) or HDD (Hard Disk Drive).
  • the learning model is, for example, learning data for generating a welding operation teaching program and a scanning operation teaching program to be executed by the processor 51, a previously created welding operation teaching program, and a scanning operation teaching program. It stores editing information, setting information, etc. based on the operator's operation at the time of creation.
  • the learning model automatically generates a welding operation or a scanning operation (that is, the operation trajectory of the sensor 4, the scanning interval, the scanning effective area, etc.) based on the welding operation setting information.
  • the learning model is based on the editing information, setting information, etc. based on the operator's operation at the time of creating each of the welding operation teaching program and the scanning operation teaching program created in the past. and teaching data (learning data) for generating each of the scanning operation teaching program.
  • the learning for generating training data may be performed using one or more statistical classification techniques.
  • Statistical classification techniques include, for example, Linear Classifiers, Support Vector Machines, Quadratic Classifiers, Kernel Estimation, Decision Trees, Artificial Neural Networks, Bayesian Techniques and/or Networks, Hidden Markov Models, Binary Classifiers, Multi- Class Classifiers ), Clustering Technique, Random Forest Technique, Logistic Regression Technique, Linear Regression Technique, Gradient Boosting Technique nique) and the like.
  • the statistical classification techniques used are not limited to these.
  • An input/output unit 53 which is an example of an input unit and an acquisition unit, includes an execution command transmitted from the input device UI 3, a 3D model of the workpiece Wk, welding operation setting information, and scanning operation setting information, the robot control device 2, an inspection It acquires the position information of the weld line transmitted from the control device 3 or the input device UI 3 and outputs it to the processor 51 .
  • the input/output unit 53 also receives images of virtual production equipment (for example, virtual welding robots, virtual workpieces, virtual stages, etc.) generated by the 3D computing unit 54, virtual production equipment transmitted from the offline teaching device 5, An image obtained by superimposing the motion locus of the sensor 4 or the motion locus of the welding torch 400 on the image of the equipment is transmitted to the monitor MN3.
  • virtual production equipment for example, virtual welding robots, virtual workpieces, virtual stages, etc.
  • the 3D calculation unit 54 as an example of a generation unit includes, for example, input data (that is, three-dimensional shape data) regarding the shape of the work Wk or the weld bead, data of the 3D model of the work Wk, work information of the work Wk, production equipment (for example, position information of the stage, position information of the jig, robot information or position information of the welding robot MC1), etc. necessary for executing the main welding process or the visual inspection process of the work Wk.
  • the 3D computing unit 54 converts the data of the virtually constructed production facility into image data, outputs the image data to the input/output unit 53, and displays it on the monitor MN3.
  • the 3D computing unit 54 superimposes the positional information of at least one welding line and the scanning effective area of the sensor 4 for scanning this welding line on the virtual production equipment on a teaching assistance screen. (image data) is generated. Note that, when the 3D operation unit 54 can acquire the welding operation teaching program created by the program creation unit 55, one or more teaching points included in the welding operation teaching program, the welding torch 400 A teaching assistance screen (image data) may be generated in which an operation trajectory (specifically, an auxiliary scanning section, a welding section, etc.) is virtually superimposed on the production equipment.
  • the 3D computing unit 54 calculates one or more teaching points included in the teaching program for the scanning motion created by the program creating unit 55, the motion trajectory of the sensor 4 (specifically, approach motion, retraction motion, avoidance motion, etc.).
  • a teaching assistance screen (image data) is generated by superimposing an operation trajectory indicating various operations, an auxiliary scanning interval, a scanning interval, etc., on a virtual production facility.
  • the 3D computing unit 54 converts the data of the virtual production facility on which data included in various teaching programs are superimposed into image data, outputs the image data to the input/output unit 53, and displays it on the monitor MN3.
  • the 3D operation unit 54 is based on teaching programs for the welding operation and the scanning operation, or various data related to the production equipment and the position information of the welding line, etc., for each teaching point of the welding operation or the scanning operation, and the welding torch. 400 or the motion trajectory of the sensor 4 (specifically, the auxiliary scanning section, the welding section, the scanning section, etc.) may be collectively superimposed on the virtual production equipment to generate a teaching assistance screen (image data). .
  • a program creation unit 55 which is an example of a control unit and a calculation unit, generates welding line position information (e.g., 3D model data of the workpiece Wk, input data related to the shape of the workpiece Wk or the weld bead, starting and ending points of the welding line). coordinate information), welding operation setting information, scanning operation setting information, etc., a teaching program for the welding operation and a teaching program for the scanning operation are created.
  • the program creation unit 55 uses the input various information, the learning model stored in the memory 52, and algorithms such as mathematical programming to create a teaching program for the welding operation and a teaching program for the scanning operation. may be created.
  • the program generator 55 includes a welding motion generator 551 and a scan motion generator 552 .
  • the welding operation creation unit 551 creates a welding operation teaching program for performing the main welding process on the workpiece Wk based on the input welding line position information and welding operation setting information.
  • the welding operation setting information referred to here may be a group of various parameters necessary for the welding operation, such as various welding conditions for the main welding and retracted positions of the welding torch 400 before the start of welding and after the end of welding.
  • the scan motion creation unit 552 creates a scan motion teaching program for executing a visual inspection process for a weld bead generated on the workpiece Wk or other visual inspection locations based on at least the input position information of the weld line. create. Note that the scan motion creation unit 552 creates a welding motion on the workpiece Wk based on the input motion trajectory of the welding motion, the 3D model, one or more scan effective areas arranged on the 3D model, scan motion setting information, and the like. A scanning operation teaching program may be created for executing the visual inspection process of the weld bead or other visual inspection points generated in the first step.
  • the scan operation setting information here means the distance between the sensor 4 and the workpiece Wk, the information of the sensor 4 (for example, the effective scan range AR0 (see FIG. 3), the effective scan area AR1 (see FIG. 4), etc.). , measurement range, approach information (e.g., approach start position and approach end position information, instruction information for instructing approach, etc.), scan run-up (idle run) section, scan section, retract information (e.g., retract start position and retract end position information, instruction information for instructing retraction, etc.), avoidance information (for example, avoidance start position and avoidance end position information, position information of original workpieces that are obstacles to be avoided, jigs, etc.), etc. , or a group of various parameters necessary for the scanning operation of another appearance inspection target.
  • approach information e.g., approach start position and approach end position information, instruction information for instructing approach, etc.
  • scan run-up (idle run) section scan section
  • retract information e.g., retract start position and retract
  • the offline teaching device 5 acquires the teaching program for the welding operation of the workpiece Wk, the main welding program, information on the operation trajectory of the welding operation, etc., which are transmitted from the robot control device 2 or the terminal device P3. The position information of the welding line of the workpiece Wk included in these programs or information is acquired.
  • the offline teaching device 5 may acquire the position information of the weld line from the weld line data linked to this 3D model. Further, when the welding line data is not linked to the 3D model of the work Wk transmitted from the terminal device P3, the offline teaching device 5 acquires the position information of the welding line based on the three-dimensional shape of the 3D model. may For example, based on the surface shapes of two or more original works that make up the work Wk, the offline teaching device 5 acquires the intersection point where the surfaces of these original works intersect or the contact point where the surfaces of these original works come into contact as the position information of the welding line. do.
  • the offline teaching device 5 may acquire the position information of the weld line based on scan data (for example, mesh data) acquired by scanning the work Wk or the weld bead formed on the work Wk with the sensor 4. . Further, the offline teaching device 5 may acquire the position information of the weld line by teaching using a teach pendant (not shown).
  • scan data for example, mesh data
  • the offline teaching device 5 may acquire the position information of the weld line by teaching using a teach pendant (not shown).
  • FIG. 3 is a diagram illustrating an example of the scanning effective range AR0 of the sensor.
  • FIG. 4 is a diagram illustrating an example of the scan effective area AR1 of the sensor 4. As shown in FIG. It goes without saying that the effective scan range AR0 shown in FIG. 3 and the effective scan area AR1 shown in FIG. 4 are examples, and are not limited to these.
  • a scan effective range AR0 shown in FIG. 3 is a range in which the sensor 4 can scan the three-dimensional shape of an object (for example, a weld bead to be inspected for bead appearance) on the YZ plane.
  • the sensor 4 is moved in the traveling direction by driving the manipulator 200 of the welding robot MC1 to scan and obtain the three-dimensional shape of the object located within the scan effective area AR1 shown in FIG.
  • the offline teaching device 5 provides positional information on the welding line of the workpiece Wk for which the scan operation teaching program is to be created, information on the production equipment, and information on the effective scan range AR0 of the sensor 4 (for example, the sensor 4 and the scan effective range 3D information such as distance information from AR0 and range information of the scan effective range AR0).
  • the offline teaching device 5 generates a scan effective area AR1 for scanning the weld line based on the acquired position information of the weld line and the scan effective range AR0 of the sensor 4 .
  • the off-line teaching device 5 extends the scan effective range AR0 in an arbitrary position direction, and includes part of the position information of at least one weld line, and is a scanned scan effective area readable by the sensor 4. Generate AR1.
  • the effective scan range AR0 indicates that the sensor 4 can read the area from the effective scan range AR0 to the effective scan range AR01 extended by the scan section SR1 in the -X direction.
  • the process of generating the scan effective area AR1 may be executed based on the operator's operation. Further, the offline teaching device 5 may accept editing operations such as copying, deletion, partial deletion, movement, and rotation of the generated scan effective area AR1, and adjustment of the length of the scan section SR1 of the scan effective area AR1. You may receive editing operations, such as. Editing processing for the scan effective area AR1 will be described later.
  • the off-line teaching device 5 acquires the welding motion, 3D model data, etc. of the workpiece Wk for which a new scan motion teaching program is to be created, from each of the robot control device 2, the inspection control device 3, or the input device UI 3. may
  • FIG. 5 is a flow chart showing an operation procedure example of the offline teaching device 5 according to the first embodiment.
  • the offline teaching device 5 acquires and reads the position information of the welding line of the work Wk transmitted from the operator's operation or the robot control device 2 (St1).
  • the offline teaching device 5 may acquire the position information of the weld line from the weld line data linked to the 3D model of the workpiece Wk transmitted from the terminal device P3. Further, when the welding line data is not linked to the 3D model of the work Wk transmitted from the terminal device P3, the offline teaching device 5 acquires the position information of the welding line based on the three-dimensional shape of the 3D model. may For example, based on the surface shapes of two or more original works that make up the work Wk, the offline teaching device 5 acquires the intersection point where the surfaces of these original works intersect or the contact point where the surfaces of these original works come into contact as the position information of the welding line. You may Further, the information acquired in step St1 may be any information including the position information of the weld line, and may be information such as welding operation setting information and scanning operation setting information.
  • the off-line teaching device 5 acquires information (for example, position information of the production equipment, coordinate system information, etc.) regarding the production equipment transmitted from the operator or the robot control device 2, and performs visual inspection of the workpiece Wk in the virtual space.
  • a production facility for example, a welding robot, an inspection robot, a jig, a workpiece Wk, a stage, etc.
  • a welding line is displayed on the constructed production facility (St2).
  • the off-line teaching device 5 enables the operator to change the positional relationship between the production equipment (for example, a welding robot, an inspection robot, a stage, a jig, etc.) or the work Wk and the welding line two-dimensionally (planar) or three-dimensionally ( 3D) to allow visual confirmation.
  • the production equipment for example, a welding robot, an inspection robot, a stage, a jig, etc.
  • the work Wk and the welding line two-dimensionally (planar) or three-dimensionally ( 3D) to allow visual confirmation.
  • the off-line teaching device 5 uses the position information of the welding line or the teaching program of the welding operation to perform the scanning operation (for example, the scanning section, the movement trajectory of the sensor 4 corresponding to the scanning section, various types of welding bead scanning).
  • a model of motion for example, idle run, approach, retract, avoidance, scan, etc. is automatically generated (St3).
  • the offline teaching device 5 creates a scan section connecting the start point (end point) and end point (end point) of the weld section based on the position information of one weld line.
  • the offline teaching device 5 sets the angle of the sensor 4 that scans the created scan section to the same angle as the welding torch 400, or sets the position of the production equipment and the position of the work Wk based on the welding operation teaching program.
  • the weld bead formed corresponding to each weld line is set to an angle that can be scanned, or based on preset information (for example, minimum free running distance etc.) information of the position, distance, and angle (posture) of the sensor 4 for executing various operations (for example, approach, retract, avoidance, scan, etc.) when scanning is set.
  • preset information for example, minimum free running distance etc.
  • the offline teaching device 5 sets the operation trajectory of the welding torch 400 or the welding order of the weld lines, the scan order and scan direction ( The motion locus of the sensor 4) is set to be the same.
  • the off-line teaching device 5 Based on the generated template of the scan operation, the off-line teaching device 5 teaches the scan effective area, the scan area, and the auxiliary scan area of the sensor 4 taught by the scan operation teaching program created using this template of the scan operation. Teaching assistance that visualizes scan areas, overlapping areas where scan areas overlap each other, motion trajectory of sensor 4, etc., and updates visual elements and statistical information for assisting scan teaching work using offline teaching device 5 by the operator.
  • a screen is generated (St4).
  • the offline teaching device 5 outputs the generated teaching assistance screen to the monitor MN3 for display.
  • the visual elements here are images of virtual production equipment (for example, welding robots, inspection robots, stages, jigs, etc.), workpieces Wk, welding lines, scan effective areas, etc. It is an image that visualizes the Wk or the positional relationship between the weld line and the scan effective area in a virtual space (three-dimensional space).
  • the off-line teaching device 5 displays the positional relationship between the welding lines WS11 and WS12 and the scanning sections SS11 and SS12 shown in FIG.
  • a teaching assistance screen that visualizes in a virtual space (three-dimensional space) the positional relationship between the lines WS11 and WS12 and the scan effective areas AR11 and AR12, and the positional relationship between the weld line WS12 and the scan effective area AR12 displayed in three dimensions.
  • the statistical information referred to here is information related to various operations (for example, free running, approach, retract, avoidance, scanning, etc.) of the sensor 4 when the scan operation is executed according to the scan operation teaching program. It is the scanning time when scanning the welding bead of 1, or the idle running time such as approach, retract, avoidance, etc. Note that the idling time referred to here is the time other than when scanning is executed, and may include non-scanning time such as standby time.
  • the offline teaching device 5 sets, for example, a scan time of 4.35 seconds for scanning the scan section SS11 and the scan section SS12 shown in FIG.
  • Teaching assistance screens SC3 and SC4 including statistical information STA1 (see FIG. 8) including idle running time "2.06 seconds", which is the moving time, are generated.
  • STA1 see FIG. 8
  • idle running time "2.06 seconds" which is the moving time
  • the offline teaching device 5 determines whether or not the current scanning operation visualized on the teaching assistance screen (that is, the setting of the scanning section, the effective scanning area, etc.) is the scanning operation that satisfies the operator's request (St5). .
  • step St5 when the offline teaching device 5 acquires the control command indicating the selection (pressing) operation of the scan motion teaching program creation button transmitted from the input device UI 3, the scan motion that satisfies the operator's request is performed. (St5, YES), and a teaching program for the scanning operation is created to cause the sensor 4 to scan the scanning effective area and the scanning area indicated by the teaching assistance screen currently displayed on the monitor MN3 (St6).
  • the off-line teaching device 5 associates the created teaching program for the scan operation with the workpiece ID and transmits them to the robot control device 2 (St6).
  • step St5 when the offline teaching device 5 acquires the control command indicating the operation of selecting (pressing) the edit button of the teaching program for the scanning operation transmitted from the input device UI 3, the operator's request It is determined that the scan operation does not satisfy (St5, NO), and the operator operation related to the scan operation (for example, an operation to edit the scan effective area, which includes duplication, deletion, partial deletion, movement, rotation, division, connection, etc.) is accepted (St7). Note that the scan operation generation processing based on the operator's operation performed here will be described later.
  • the offline teaching device 5 After the process of step St7, the offline teaching device 5, based on the scan motion edited by the operator's operation, scans the effective scan area and the scan section scanned by the scan motion teaching program created using this scan motion. etc. are visualized, and a teaching assistance screen with updated visual elements and statistical information for assisting the operator in scanning teaching work using the offline teaching device 5 is generated again and displayed on the monitor MN3 (St4).
  • the offline teaching device 5 teaches the operator the scan motion and creates the scan motion teaching program by visualizing the scan motion with respect to the weld line in a virtual space (three-dimensional space). more efficiently. Further, the offline teaching device 5 visualizes the welding lines and the scan effective area, thereby making it possible to confirm whether or not all the welding lines are included in the scan effective area. Further, the off-line teaching device 5 visualizes the work Wk and the scanning operation in the virtual space of the production equipment, so that it can be seen at a glance whether or not there is interference or collision between the production equipment, the work Wk and the sensor 4 during the scanning operation. make it verifiable with
  • FIG. 6 is a diagram for explaining a display example of the production equipment and welding lines WS11 and WS12 on the teaching assistance screen SC1.
  • the teaching assistance screen SC1 shown in FIG. 6 shows an example in which illustration of other production equipment such as the workpiece Wk, jig, stage, etc. is omitted, and needless to say, the present invention is not limited to this.
  • the teaching assistance screen SC1 is a screen for visualizing, in a virtual space (three-dimensional space), the positional relationship between the welding robot MC1, which is production equipment, the work Wk, which is an object of visual inspection, and the welding line. It is generated by the 3D computing unit 54 and output to and displayed on the monitor MN2.
  • the teaching assistance screen SC1 shown in FIG. 6 constructs a virtual welding robot VMC1, which is a production facility corresponding to the welding robot MC1, in a virtual space, and based on the position information of the weld line, the virtual welding robot VMC1 (that is, the welding robot MC1 ) are displayed, respectively.
  • the virtual welding robot VMC1 has a virtual sensor V4 corresponding to the sensor 4 at the tip of the robot arm.
  • the virtual robot coordinate system ⁇ VMC1 is the coordinate system of the virtual welding robot VMC1 and is based on the welding robot MC1.
  • a virtual sensor coordinate system ⁇ V4 is a coordinate system of the virtual sensor V4 and a coordinate system based on the sensor 4 .
  • FIG. 7 is a diagram illustrating a display example of the welding lines WS11 and WS12 and the scan sections SS11 and SS12 on the teaching assistance screen SC2.
  • the teaching assistance screen SC2 provides an explanation of each of the two welding lines WS11 and WS12 and each of the scan sections SS11 and SS12 automatically generated corresponding to each of the two welding lines WS11 and WS12.
  • the teaching assistance screen SC2 shown in FIG. 7 is an example, and needless to say, the present invention is not limited to this.
  • the welding line WS11 is a welding line that welds from the start point ST11 to the end point ED11.
  • the weld line WS12 is a weld line that welds from the start point ST12 to the end point ED12.
  • the scan section SS11 is a scan section for scanning the weld line WS11, and is generated by the scan motion creation unit 552 based on the position information of the weld line WS11.
  • the scan section SS11 shown in FIG. 7 is a section including the end point (start point ST11) of the weld line WS11 and the end point (end point ED11) of the weld line WS11.
  • the arrow indicated by the scan section SS1 indicates the motion trajectory of the sensor 4, and the sensor 4 moves from the end point (start point ST11) of the weld line WS11 to the end point (end point ED11) of the weld line WS11 to scan the weld bead.
  • the scan section SS12 is a scan section for scanning the weld line WS12, and is generated by the scan motion creation unit 552 based on the position information of the weld line WS12.
  • the scan section SS12 shown in FIG. 7 is a section in which the end point (start point ST12) of the weld line WS12 and the end point (end point ED12) of the weld line WS12 are included in the scan effective area. from the end point (start point ST12) of the weld line WS12 to the end point (end point ED12) of the weld line WS12 to scan the weld bead.
  • FIG. 8 is a diagram for explaining an example of the statistical information STA1 and the scan effective area on the teaching assistance screens SC3 and SC4.
  • the teaching assistance screen in the following description shows the welding line and the scanning effective area of the sensor 4, and omits illustration of the production equipment and the like for the sake of easy understanding of the explanation.
  • the teaching assistance screens SC3 and SC4 shown in FIG. 8 are examples, and needless to say, the present invention is not limited to these.
  • the offline teaching device 5 measures the scan time, free running time, etc. in each scan effective area based on the template of the current scan operation, and generates statistical information STA1.
  • the offline teaching device 5 constructs a virtual space (three-dimensional space) as visual elements including virtual production equipment, workpieces Wk, welding lines, scan effective areas, etc., based on the template of the current scanning operation. do.
  • the offline teaching device 5 uses the statistical information STA1 and a virtual space (three-dimensional space) to generate teaching assistance screens SC3 and SC4 that three-dimensionally display the production equipment, the workpiece Wk, the welding line, and the scan effective area. .
  • the off-line teaching device 5 can accept operator's operations via the input device UI 3, and based on the operator's operations, creates a virtual space (3
  • the teaching assistance screens SC3 and SC4 are generated by rotating the dimensional space).
  • the offline teaching device 5 rotates the virtual space based on the operator's operation to generate the teaching assistance screen SC3 in which the welding line and the scan effective area are two-dimensionally visualized, and the welding line and the scan effective area. is visualized three-dimensionally, thereby making it possible to visually confirm the positional relationship between the welding line and the scan effective area from any angle. Thereby, the operator can confirm the positional relationship among the production equipment, the work Wk, the welding line, or the scan effective area at a glance.
  • FIG. 9 is a diagram for explaining Example 1 of the scanning effective area division processing.
  • a weld line WS21 indicates a welded section from a start point ST21 to an end point ED21.
  • the offline teaching device 5 provides a scan section SS21 passing through the start point ST21 and the end point ED21 of the weld line WS21, and a scan section from the start point ST21 to the end point ED21 as a model of the scan operation.
  • a scanning motion trajectory toward the target and a scanning effective area AR21 are generated.
  • the offline teaching device 5 When the offline teaching device 5 receives a control command requesting editing of the current scanning operation template via the input device UI3, it edits the scanning operation template based on the operator's operation.
  • the offline teaching device 5 divides the scan effective area AR21 into two at the division point PT21 to form two scan effective areas AR22 and AR23. to generate Specifically, the offline teaching device 5 creates a scan effective area AR22 including the start point ST21 and the division point PT21 of the weld line WS21, and a scan effective area AR23 including the end point ED21 and the division point PT21 of the weld line WS21. Generate each. The offline teaching device 5 also generates a scan section SS22 corresponding to the scan effective area AR22 and a scan section SS23 corresponding to the scan effective area AR23.
  • the offline teaching device 5 displays the welding line WS21 in the virtual space, the two scan effective areas AR22 and AR23 generated by the division process, and the scan sections SS22 and SS23 corresponding to the scan effective areas AR22 and AR23, respectively. is constructed, and a teaching assistance screen for these constructed 3D models is generated and output.
  • the offline teaching device 5 can divide the scan section based on the operator's operation. As a result, even if the scan section (scan effective area) does not include the entire weld line (that is, the entire weld line cannot be scanned), the operator can specify the dividing points to You can create (teach) a scan segment that includes the entire weld line. In addition, the offline teaching device 5 accepts only a division point designation operation by the operator. each of the two scan intervals can be generated.
  • FIG. 10 is a diagram illustrating a stereoscopic display example of the scan effective areas AR22 and AR23.
  • FIG. 11 is a diagram for explaining a stereoscopic display example of the scan effective areas AR22 and AR23.
  • FIG. 12 is a diagram illustrating a stereoscopic display example of the scan effective areas AR22 and AR23.
  • FIG. 13 is a diagram for explaining a stereoscopic display example of the scan effective areas AR22 and AR23.
  • Each of the teaching assistance screens SC51, SC52, SC53, and SC54 includes scan effective areas AR22 and AR23 corresponding to the two scan sections SS22 and SS23 generated by the division processing shown in FIG. is viewed from a predetermined direction based on the operator's operation.
  • the offline teaching device 5 rotates the constructed virtual space (three-dimensional space) based on the operator's operation.
  • the offline teaching device 5 constructs a virtual space (three-dimensional space) after rotation, reduction, and enlargement processing, and displays a teaching assistance screen in which the virtual space (three-dimensional space) is viewed from a predetermined direction based on the operator's operation. Generate and output.
  • the offline teaching device 5 creates an auxiliary scan area, which is the scan allowance of the end points (start point and end point) of the weld line, which is before and after the scan area in the generated scan effective area, and the sensor 4 scans.
  • the scan area to be performed may be constructed so as to be identifiable.
  • the scan effective area AR21 in FIG. 9 is constructed and displayed such that the scan area AR220 shown in FIGS. be.
  • the offline teaching device 5 constructs the scan area AR220 and the auxiliary scan areas AR221 and AR222 as different parts, or constructs them with parts of different colors so as to be identifiable.
  • the scan effective area AR23 is constructed and displayed such that the scan area AR230 and the two auxiliary scan areas AR231 and AR232 corresponding to the scan area AR230 can be identified.
  • the operator can more easily confirm whether or not the weld line is included in the scan area of the sensor 4 or the auxiliary scan area.
  • the operator can confirm the positional relationship between the welding line WS21 constructed in the virtual space and each of the scan effective areas AR22 and AR23 from all angles based on the scan operation template. can. Therefore, the operator determines whether or not the scan effective areas AR22 and AR23 corresponding to the two scan sections SS22 and SS23 after division include the entire weld line WS21 (that is, whether or not the sensor 4 detects the weld line WS21). position can be scanned) can be easily checked.
  • FIG. 14 is a diagram illustrating example 2 of the scan effective area division processing.
  • the scan effective area AR11 includes the start point ST11 and the end point ED11 of the weld line WS11.
  • the offline teaching device 5 edits the scanning operation template based on the operator's operation.
  • the offline teaching device 5 divides the scan effective area AR11 into two at the division point PT11, and divides the scan effective area AR11 into two scan effective areas AR13 and AR14. to generate Specifically, the offline teaching device 5 creates a scan effective area AR13 including the starting point ST11 and the dividing point PT11 of the welding line WS11, and a scanning effective area AR14 including the ending point ED11 and the dividing point PT11 of the welding line WS11. Generate each.
  • the offline teaching device 5 constructs the welding line WS11 and the two scan effective areas AR13 and AR14 generated by the division processing in the virtual space, and generates and outputs a teaching assistance screen.
  • the offline teaching device 5 divides the scan effective area AR14 into two at the division point PT12. to generate Specifically, the offline teaching device 5 sets the scan effective area AR15 including the dividing point PT11 and the dividing point PT12 included in the scan effective area AR14, and the scanning effective area AR15 including the dividing point PT12 and the end point ED11 of the welding line WS11. and AR16, respectively.
  • the offline teaching device 5 constructs the welding line WS11 and each of the three scan effective areas AR13, AR15, and AR16 generated by the division processing in the virtual space, and generates and outputs a teaching assistance screen.
  • the offline teaching device 5 divides the scan effective area AR16 into two at the division point PT13 to divide the scan effective area AR16 into two scan effective areas AR17 and AR18. generate each. Specifically, the offline teaching device 5 sets the scan effective area AR17 including the dividing point PT12 and the dividing point PT13 included in the scan effective area AR16, and the scanning effective area AR17 including the dividing point PT13 and the end point ED11 of the welding line WS11. and AR18, respectively.
  • the offline teaching device 5 constructs the welding line WS11 in the virtual space and the three scan effective areas AR13, AR15, AR17, and AR18 generated by the division process, and generates and outputs a teaching assistance screen.
  • the offline teaching device 5 can generate a scan operation including the entire weld line by dividing the scan effective area multiple times based on the operator's operation.
  • the operator can more easily determine whether or not the entire weld line is included in each of the plurality of scan effective areas (that is, whether or not the entire weld line can be scanned). I can confirm.
  • the offline teaching device 5 can generate each of the plurality of scan effective areas by accepting only the operator's designation operation of the dividing points.
  • FIG. 15 is a diagram illustrating example 1 of combining processing of scan effective areas. Note that the scan effective area combining process described below is an example and is not limited to this.
  • the welding line WS31 indicates the welding section from the start point ST31 to the end point ED31.
  • a welding line WS32 indicates a welding section from a start point ST32 to an end point ED32.
  • the offline teaching device 5 provides a scanning effective area AR31 including the starting point ST31 and the ending point ED31 of the welding line WS31, and the starting point ST32 and the end point of the welding line WS32.
  • a scanning effective area AR32 including a point ED32 is generated.
  • the scan effective area AR31 corresponds to the scan area AR310 corresponding to the scan section SS310 connecting the start point ST31 and the end point ED31 of the welding line WS31, the auxiliary scan area AR311 corresponding to the auxiliary scan section SS311, and the auxiliary scan section SS312. and an auxiliary scanning area AR312 for scanning.
  • the auxiliary scan section SS311 is an auxiliary scan section before the scan operation performed in the scan section SS310, and is a section from the auxiliary scan start position PT311 to the start point ST31 of the welding line WS31.
  • the auxiliary scan section SS312 is an auxiliary scan section after the scan operation performed in the scan section SS310, and is a section from the end point ED31 of the weld line WS31 to the auxiliary scan start position PT312.
  • the scan effective area AR32 corresponds to the scan area AR320 corresponding to the scan section SS320 connecting the start point ST32 and the end point ED32 of the welding line WS32, the auxiliary scan area AR321 corresponding to the auxiliary scan section SS321, and the auxiliary scan section SS322. and an auxiliary scanning area AR322 for scanning.
  • the auxiliary scan section SS321 is an auxiliary scan section before the scan operation performed in the scan section SS320, and is a section from the auxiliary scan start position PT321 to the start point ST32 of the welding line WS32.
  • the auxiliary scan section SS322 is an auxiliary scan section after the scan operation performed in the scan section SS320, and is a section from the end point ED32 of the weld line WS32 to the auxiliary scan start position PT322.
  • the offline teaching device 5 When it is determined that each of the two welding lines WS31 and WS32 can be scanned in one scan effective area, the offline teaching device 5 according to the first embodiment combines the two scan effective areas AR31 and AR32.
  • a scanning effective area AR33 is automatically generated, and a template for scanning operation is generated.
  • the scan effective area AR33 includes a scan area AR330 corresponding to a scan section SS330 connecting the start point ST31 of the weld line WS31 and the end point ED32 of the weld line WS32, an auxiliary scan area AR331 corresponding to the auxiliary scan section SS331, and an auxiliary scan area AR331 corresponding to the auxiliary scan section SS331. and an auxiliary scan area AR332 corresponding to the scan section SS332.
  • the auxiliary scan section SS331 is an auxiliary scan section before the scan operation performed in the scan section SS330, and is a section from the auxiliary scan start position PT331 to the start point ST31 of the welding line WS31.
  • the auxiliary scan section SS332 is an auxiliary scan section after the scan operation performed in the scan section SS330, and is a section from the end point ED32 of the weld line WS32 to the auxiliary scan start position PT332.
  • the off-line teaching device 5 constructs welding lines WS31 and WS32, a combined scan area AR330, and auxiliary scan areas AR331 and AR332 in the virtual space, and assists in teaching these constructed 3D models. Generate and output a screen.
  • the offline teaching device 5 can generate a scan effective area that can further reduce the time required for the scan operation.
  • FIG. 16 is a diagram for explaining example 2 of combining processing of scan effective areas. Note that the scan effective area combining process described below is an example and is not limited to this.
  • a weld line WS41 indicates a welded section from a start point ST41 to an end point ED41.
  • a welding line WS42 indicates a welding section from a start point ST42 to an end point ED42.
  • the offline teaching device 5 generates a scan effective area AR41 including the start point ST41 and the end point ED41 of the weld line WS41 for these two weld lines WS41 and WS42. Further, after generating the scan effective area AR42A including the starting point ST42 and the ending point ED42 of the welding line WS42, the offline teaching device 5 generates the scanning effective area including the starting point ST42 and the ending point ED42 of the welding line WS42 (Fig. ) is moved in a predetermined direction MV41 to generate a scan effective area AR42.
  • the scan effective area AR41 has a scan section SS410 connecting the start point ST41 and the end point ED41 of the weld line WS41.
  • the scan effective area AR41 includes a scan area AR410 corresponding to the scan section SS410, an auxiliary scan area AR411 corresponding to the auxiliary scan section SS411, and an auxiliary scan area AR412 corresponding to the auxiliary scan section SS412.
  • the auxiliary scan section SS411 is an auxiliary scan section before the scan operation performed in the scan section SS410, and is a section from the auxiliary scan start position PT411 of the scan section SS410 to the start point ST41 of the welding line WS41.
  • the auxiliary scan section SS412 is an auxiliary scan section after the scan operation performed in the scan section SS410, and is a section from the end point ED41 of the weld line WS41 to the auxiliary scan end position PT412 of the scan section SS410.
  • the scan effective area AR42A includes the weld line WS42 and has a scan section connecting the start point ST42 and the end point ED42 of the weld line WS42.
  • the scan effective area AR42A includes a scan area corresponding to a scan section and auxiliary scan areas respectively corresponding to two auxiliary scan sections.
  • one auxiliary scan section is an auxiliary scan section before the scan operation performed in the scan section, and is generated in a section including from the auxiliary scan start position of scan section SS420 to the start point ST42 of weld line WS42.
  • the other auxiliary scan section is an auxiliary scan section after the scan operation performed in the scan section, and is generated in a section including the end point ED42 of the weld line WS42 to the free running end position.
  • the offline teaching device 5 generates a scan effective area AR42 by translating the above-described scan effective area AR42A in a predetermined direction MV41.
  • the scan effective area AR42 has a scan section SS420 obtained by moving the scan section (not shown) of the scan effective area AR42A connecting the start point ST42 and the end point ED42 of the weld line WS42 in a predetermined direction MV41.
  • the scan effective area AR42 further includes a scan area AR420 corresponding to the scan section SS420, an auxiliary scan area AR421 corresponding to the auxiliary scan section SS421, and an auxiliary scan area AR422 corresponding to the auxiliary scan section SS422. be done.
  • the auxiliary scan section SS421 is an auxiliary scan section before the scan operation performed in the scan section SS420, and is a section from the auxiliary scan start position PT421 to the auxiliary scan end position PT422 of the scan section SS420.
  • the auxiliary scan end position PT422 is a position moved in a predetermined direction MV41 from the position of the start point ST42 of the weld line WS42.
  • the auxiliary scan section SS422 is an auxiliary scan section after the scan operation performed in the scan section SS420, and is a section from the auxiliary scan start position PT423 to the auxiliary scan end position PT424.
  • the auxiliary scan start position PT423 is a position moved in a predetermined direction MV41 from the position of the end point ED42 of the weld line WS42.
  • the offline teaching device 5 When it is determined that each of the two welding lines WS41 and WS42 can be scanned in one scan effective area, the offline teaching device 5 according to the first embodiment combines the two scan effective areas AR41 and AR42. A scanning effective area AR43 is automatically generated, and a template for scanning operation is generated. Specifically, the offline teaching device 5 generates a scan section SS430 connecting the start point ST41 of the weld line WS41 corresponding to the start point of the scan section SS410 and the auxiliary scan start position PT423 corresponding to the end point of the scan section SS420. do.
  • the offline teaching device 5 determines the movement trajectory of the sensor 4 in the scan effective area AR43 as the direction from the start point ST41 to the auxiliary scan start position PT423, and sets the scan effective area AR43 capable of scanning the welding lines WS41 and WS42. Generate.
  • the scan effective area AR43 corresponds to the scan area AR430 corresponding to the scan section SS430 from the auxiliary scan end position PT432 to the auxiliary scan start position PT433, the auxiliary scan area AR431 corresponding to the auxiliary scan section SS431, and the auxiliary scan section SS432. and an auxiliary scan area AR432.
  • the auxiliary scan section SS431 is an auxiliary scan section before the scan operation performed in the scan section SS430, and is a section from the auxiliary scan start position PT431 to the auxiliary scan end position PT432.
  • the auxiliary scan section SS432 is an auxiliary scan section after the scan operation performed in the scan section SS430, and is a section from the auxiliary scan start position PT433 to the auxiliary scan start position PT434.
  • the offline teaching device 5 constructs the welding lines WS41 and WS42, the combined scan area AR430, and the auxiliary scan areas AR431 and AR432 in the virtual space, and generates and outputs a teaching auxiliary screen.
  • the offline teaching device 5 can generate a scan effective area that can further reduce the time required for the scan operation.
  • FIG. 17 is a diagram for explaining an example of processing for deleting the scan valid area. It should be noted that the scanning effective area deletion process described below is an example, and the present invention is not limited to this. Also, in the following description, the illustration of the scanning section and the motion trajectory of the sensor 4 is omitted in order to make the description of the edit processing of the scan effective area easier to understand.
  • a welding line WS51 indicates a welding section for welding from a start point ST51 to an end point ED51.
  • a welding line WS52 indicates a welding section from a start point ST52 to an end point ED52.
  • the offline teaching device 5 provides a scanning effective area AR51 including the starting point ST51 and the ending point ED51 of the welding line WS51, and the starting point ST52 and the end point of the welding line WS52.
  • a scanning effective area AR52 including a point ED52 is generated.
  • the scan effective area AR51 includes a scan area AR510 for scanning the weld line WS51, an auxiliary scan area AR511, and an auxiliary scan area AR512.
  • the scan effective area AR52 includes a scan area AR520 for scanning the weld line WS52, an auxiliary scan area AR521, and an auxiliary scan area AR522.
  • the offline teaching device 5 in the first embodiment deletes the scan effective area AR51 and performs two welding lines.
  • a scanning effective area AR52 for scanning each of the lines WS51 and WS52 is automatically generated to generate a model of scanning operation.
  • the offline teaching device 5 constructs the welding lines WS51 and WS52, the combined scan area AR520, and the auxiliary scan areas AR521 and AR522 in the virtual space, and generates and outputs a teaching auxiliary screen.
  • the offline teaching device 5 can generate a scan effective area that can further reduce the time required for the scan operation.
  • FIG. 18 is a diagram illustrating an example of partial deletion processing of the scan valid area. Note that the partial deletion processing of the scan effective area described below is an example and is not limited to this.
  • a weld line WS53 indicates a welded section from a start point ST53 to an end point ED53.
  • a welding line WS54 indicates a welding section from a start point ST54 to an end point ED54.
  • a welding line WS55 indicates a welding section for welding from a start point ST55 to an end point ED55.
  • the offline teaching device 5 designates a scan effective area AR53 including the start point ST53 and the end point ED53 of the welding line WS53, and the start point of the welding line WS54.
  • a scan effective area AR54 including the point ST54 and the end point ED54, and a scan effective area AR55 including the start point ST55 and the end point ED55 of the welding line WS55 are generated.
  • the scan effective area AR53 includes a scan area AR530 for scanning the weld line WS53, and auxiliary scan areas AR531 and AR532.
  • the scan effective area AR54 includes a scan area AR540 for scanning the weld line WS54, and auxiliary scan areas AR541 and AR542.
  • the scan effective area AR55 includes a scan area AR550 for scanning the weld line WS55, and auxiliary scan areas AR551 and AR552.
  • the offline teaching device 5 detects overlapping areas DB56 and DB57 in which the two scan effective areas AR53 and AR54 and the scan effective area AR55 overlap each other.
  • the offline teaching device 5 generates a teaching assistance screen highlighting each of the detected overlapping areas DB56 and DB57, and outputs it to the monitor MN3.
  • the highlighting is a process of displaying the overlapping area in a different color, or displaying the overlapping area by enclosing it with a frame line, dashed line, or the like.
  • the offline teaching device 5 When the offline teaching device 5 receives the operator's operation to delete the overlapping area from the input device UI3, the scanning effective area AR56 that deletes the overlapping area DB56 from the scanning effective area AR53 and the overlapping area DB57 from the scanning effective area AR4 are deleted. Then, a scan effective area AR57 is generated.
  • the scan effective area AR56 includes a scan area AR560 and auxiliary scan areas AR561 and AR562.
  • the scan effective area AR57 includes a scan area AR570 and auxiliary scan areas AR571 and AR572.
  • the offline teaching device 5 determines whether all three welding lines WS53, WS54, and WS55 can be scanned from the scan effective area AR56 and the scan effective area AR57.
  • offline teaching device 5 determines that all three welding lines WS53, WS54, and WS55 can be scanned from scan effective area AR55, scan effective area AR56, and scan effective area AR57, A scan effective area AR56 obtained by partially deleting the overlapped area DB56 and a scan effective area AR57 obtained by partially deleting the overlapped area DB57, which is an overlapped scan valid area from the scan valid area AR54, are generated.
  • the offline teaching device 5 automatically generates scan effective areas AR55, AR56, and AR57 for scanning the three welding lines WS53, WS54, and WS55, respectively, and generates a model of scanning operation.
  • the offline teaching device 5 displays welding lines WS53 to WS55, three scan areas AR550, AR560, and AR570 after partial deletion processing, auxiliary scan areas AR551, AR552, and corresponding scan areas AR551, AR552, and AR561, AR562, AR571, and AR572 are constructed, and a teaching assistance screen is generated and output.
  • the program creation unit 55 in the offline teaching device 5 can visualize and present the scan area or the overlapping area of the scan effective area to the operator. This allows the operator to consider whether or not to reduce the time required for the scanning operation, or the scanning time, non-scanning time, etc. by deleting the overlapping area.
  • the offline teaching device 5 provides statistical information (for example, scanning time, non-scanning time, etc.) when overlapping areas are deleted, and statistical information when overlapping areas are not deleted. may be generated and displayed to assist the operator in determining whether or not to delete the overlapping region.
  • the offline teaching device 5 in FIG. 18 has explained an example in which the overlapping area is deleted by the operator's operation. Only when the total time of scanning time or non-scanning time that can be reduced by deleting overlapping areas is equal to or greater than a predetermined time (eg, 10 seconds, 20 seconds, etc.) using statistical information when areas are not deleted, Duplicate areas can be automatically deleted. As a result, when the scanning time can be shortened by a predetermined time or longer, the offline teaching device 5 can create a more efficient scanning operation without the operator's operation.
  • a predetermined time eg, 10 seconds, 20 seconds, etc.
  • FIG. 19 is a diagram for explaining an example of omitting the division processing and the partial deletion processing of the scan effective area.
  • the omitted editing processing is not limited to this, and other processing may be omitted.
  • the scan effective area AR61 includes a scan area AR610 for scanning the weld line WS61, and auxiliary scan areas AR611 and AR612.
  • the scan effective area AR62 includes a scan area AR620 for scanning the weld line WS62, and auxiliary scan areas AR621 and AR622.
  • the offline teaching device 5 detects an overlapping area DB61 in which the scan effective area AR61 and the scan effective area AR62 overlap.
  • the offline teaching device 5 divides the scan area AR610 or the scan area AR620 into the total time required for the scanning operation when each of the two welding lines WS61 and WS62 is scanned by the scan effective areas AR61 and AR62, and the overlap area DB61.
  • the total time required for the scanning operation when each of the two welding lines WS61 and WS62 is scanned by each scanning effective area is calculated and compared.
  • the offline teaching device 5 has determined that the total time required for the scanning operation when the scan area AR610 or the scan area AR620 is divided in the overlapping area DB 61 is longer than the total time required for the scanning operation when the overlapping area DB 61 is not divided. In this case, the division processing of the overlapping area DB 61 is omitted.
  • the offline teaching device 5 detects an overlapping area DB61 between the scan effective area AR61 and the scan effective area AR62.
  • the offline teaching device 5 calculates the total time required for the scanning operation when each of the two welding lines WS61 and WS62 is scanned by the scan effective areas AR61 and AR62, and the scan effective area obtained by partially deleting the overlapping area DB61.
  • the total time required for the scanning operation when each of the two welding lines WS61 and WS62 is scanned is calculated and compared.
  • the offline teaching device 5 determines that the total time required for the scanning operation when the overlapping area DB 61 is deleted is longer than the total time required for the scanning operation when the overlapping area DB 61 is not deleted, the offline teaching device 5 performs deletion processing of the overlapping area DB 61. omitted.
  • the offline teaching device 5 performs various operations (for example, an approach operation, a retraction operation, an avoidance operation, etc.) in each scanning operation of a new scan effective area generated by dividing or partially deleting the scan effective area. ) increases and the total time required for the scanning operation of all the weld beads increases, the scanning effective area division processing and partial deletion processing are omitted.
  • the offline teaching device 5 determines that the scanning is valid when the total time required for the scanning operation of all the weld beads when the division processing or the partial deletion processing of the overlapping region DB 61 is omitted is within a predetermined time set in advance. Region division processing or partial deletion processing may be omitted. As a result, the offline teaching device 5 can prevent the content of the scan teaching from becoming complicated.
  • FIG. 20 is a diagram illustrating an abbreviated example of the scan effective area division processing and partial deletion processing.
  • the omitted editing processing is not limited to this, and other processing may be omitted.
  • FIG. 20 shows an example of scanning the welding line WS63 by two scanning operations.
  • the scan effective area AR63 includes a scan area AR630 that scans a portion of the weld line WS63, and auxiliary scan areas AR631 and AR632.
  • the scan effective area AR64 includes a scan area AR640 that scans a portion of the weld line WS63, and auxiliary scan areas AR641 and AR642.
  • the offline teaching device 5 detects an overlapping area DB61 in which the scan effective area AR63 and the scan effective area AR64 overlap.
  • the offline teaching device 5 calculates the total time required for the scanning operation when the welding line WS63 is scanned by the scan effective areas AR63 and AR64, and the scan effective areas obtained by dividing the scan area AR630 or the scan area AR640 in the overlapping area DB62.
  • the total time required for the scanning operation when the welding line WS63 is scanned is calculated and compared.
  • the offline teaching device 5 has determined that the total time required for the scanning operation when the scan area AR630 or the scan area AR640 is divided in the overlapping area DB62 is longer than the total time required for the scanning operation when the overlapping area DB62 is not divided. In this case, the division processing of the overlapping area DB 62 is omitted.
  • the offline teaching device 5 detects an overlapping area DB62 between the scan effective area AR63 and the scan effective area AR64.
  • the offline teaching device 5 scans the welding line WS63 with the total time required for the scanning operation when the welding line WS63 is scanned by each of the scanning effective areas AR63 and AR64, and the scanning effective areas obtained by partially deleting the overlapping area DB62.
  • the total time required for the scanning operation in each case is calculated and compared.
  • the offline teaching device 5 determines that the total time required for the scanning operation when the overlapping area DB 62 is deleted is longer than the total time required for the scanning operation when the overlapping area DB 62 is not deleted, the offline teaching device 5 performs deletion processing of the overlapping area DB 62. omitted.
  • the offline teaching device 5 performs various operations (for example, an approach operation, a retraction operation, an avoidance operation, etc.) in each scanning operation of a new scan effective area generated by dividing or partially deleting the scan effective area. ) increases and the total time required for the scanning operation of all the weld beads increases, the scanning effective area division processing and partial deletion processing are omitted.
  • the offline teaching device 5 determines that the scanning is valid when the total time required for the scanning operation of all the weld beads when the overlapping area DB 62 is omitted is within a preset predetermined time. Region division processing or partial deletion processing may be omitted. As a result, the offline teaching device 5 can prevent the content of the scan teaching from becoming complicated.
  • the offline teaching device 5 in FIGS. 19 and 20 has been described as an example of automatically dividing or partially deleting an overlapping area without operator operation, but the overlapping area is highlighted as in the example shown in FIG.
  • a teaching assistance screen may be generated, and division or partial deletion of the overlapping area may be executed based on the operator's operation.
  • FIG. 21 is a diagram illustrating an example of processing for moving the scan effective area AR1.
  • FIG. 22 is a diagram illustrating an example of rotation processing of the scan effective area AR1.
  • a scan effective area AR1 shown in FIGS. 21 and 22 corresponds to the scan section SR1.
  • the offline teaching device 5 moves the position of the scan effective area AR1 in each of the X direction, Y direction, and Z direction based on the operator's operation. As a result, the offline teaching device 5 moves the position of the scan effective area based on the operator's operation, thereby supporting the scan teaching performed by the operator's operation.
  • the offline teaching device 5 can be operated by the operator to designate a rotation reference point RP, a rotation direction RRX centered on the X axis, a rotation direction RRY centered on the Y axis, or a rotation direction RRZ centered on the Z axis. , respectively.
  • the offline teaching device 5 performs a rotation process of rotating the scan effective area AR2 in the rotation direction RRX, the rotation direction RRY, or the rotation direction RRZ with the specified rotation reference point RP as the origin based on the operator's operation.
  • the offline teaching device 5 rotates the position of the scan effective area based on the operator's operation, thereby supporting the scan teaching performed by the operator's operation.
  • FIG. 23 is a diagram for explaining an example of rotation processing and movement processing of the scan effective area.
  • FIG. 23 is a diagram illustrating an example of rotation processing and movement processing of the scan effective area. It should be noted that the rotation processing and movement processing of the scan effective area shown in FIG. 23 are merely examples, and needless to say, the present invention is not limited to this.
  • the scan effective area rotation process described in FIG. 23 is a process of rotating the scan effective area with an arbitrary point specified on the weld line as the origin.
  • the offline teaching device 5 rotates the scan effective area with an arbitrary point on the weld line specified by the operator's operation as the origin (rotation reference point).
  • the scan effective area AR71A includes a scan effective area AR710A for scanning a part of the weld line WS71 and the entire weld line WS72, and auxiliary scan areas AR711A and AR712A. be done.
  • the offline teaching device 5 accepts the operator's operation of designating a point RT71 on the weld line WS72 as the rotation reference point of the scan effective area.
  • the offline teaching device 5 rotates the scan effective area AR71A in a predetermined rotation direction RT72 around a point RT71 on the weld line WS72 as the rotation center based on the operator's operation.
  • the offline teaching device 5 creates a scan effective area AR71B including a scan effective area AR71B for scanning a part of the weld line WS71 and the entire weld line WS72 in virtual space, and auxiliary scan areas AR711B and AR712B. , generate and output the teaching aid screen.
  • the offline teaching device 5 accepts the operator's operation to move the scan effective area AR71B after rotation processing in a predetermined direction MV71. After the movement processing, offline teaching device 5 constructs scan effective area AR71C including scan effective area AR71C for scanning the entirety of weld line WS71 and weld line WS72 in virtual space, and auxiliary scan areas AR711C and AR712C. , generates and outputs a teaching assistance screen.
  • the offline teaching device 5 can rotate the scan effective area with an arbitrary position on the weld line specified by the operator's operation as the rotation reference.
  • the offline teaching device 5 makes it possible to edit the scan effective area with reference to an arbitrary point on the weld line in the scan effective area editing work performed by the operator in the virtual space. It is possible to limit the degree of freedom of the rotation operation of the scan effective area so that the scan target welding line is included in the scan target area. Therefore, the operator can create the scan effective area including the welding line without finely adjusting the scan effective area in the virtual space, and can perform the scan teaching work.
  • FIG. 24 is a diagram for explaining an example of copy processing of the scan effective area.
  • FIG. 24 is a diagram illustrating an example of copy processing, rotation processing, and movement processing of the scan effective area. Note that the copy processing, rotation processing, and movement processing of the scan effective area shown in FIG. 24 are examples, and needless to say, the present invention is not limited to these.
  • the scan effective area rotation process described in FIG. 24 is a process of rotating the scan effective area with an arbitrary point on the weld line as the origin.
  • the offline teaching device 5 rotates the scan effective area with an arbitrary point on the weld line specified by the operator's operation as the origin (rotation reference point).
  • the offline teaching device 5 generates two scan effective areas AR73A and AR73B by copying (replicating) the scan effective area AR73 based on the operator's operation via the input device UI3. do.
  • the offline teaching device 5 Based on the operator's operation, the offline teaching device 5 translates the scan effective area AR73A in the direction MV72 with respect to the welding line WS731 to generate a scan effective area AR73A including the welding line WS732.
  • the offline teaching device 5 rotates the weld line WS731 in the direction RT74 with the point RT73 on the weld line WS731 as the central axis, and then rotates the welding line WS731 radially outward (in the direction MV73) around the point RT73.
  • a scan effective area AR73B including the welding line WS733 is generated.
  • the offline teaching device 5 further copies the scan effective area AR73A and rotates the scan effective area AR73A on the weld line WS731 in the direction MV74 around the point RT73 on the weld line WS731 as the central axis. It may be possible to generate an effective area AR73B.
  • the offline teaching device 5 constructs three scan effective areas AR73 to AR73B for scanning the entire three welding lines WS731 to WS733 in the virtual space, and generates and outputs a teaching assistance screen.
  • the offline teaching device 5 can assist the operator in teaching the scanning effective area for scanning a plurality of welding lines formed on the same plane.
  • FIG. 25 it is a diagram for explaining an example of copy processing of the scan effective area.
  • FIG. 25 is a diagram for explaining an example of copy processing and movement processing of the scan effective area.
  • the copy processing and movement processing rotation of the scan effective area shown in FIG. 25 are examples, and needless to say, the present invention is not limited to this.
  • the extension direction LN71 of the weld line WS741 shown in FIG. 25 and the movement direction LN72 of the scan effective areas AR75B and AR75C are parallel (LN71//LN72).
  • the offline teaching device 5 generates two scan effective areas AR75B and AR75C by copying (replicating) the scan effective area AR75A based on the operator's operation via the input device UI3. do.
  • the offline teaching device 5 Based on the operator's operation, the offline teaching device 5 translates each of the two scan effective areas AR75B and AR75C in a direction MV74 along the weld line WS741 to form a scan effective area AR75B including the weld line WS743 and a weld line A scan effective area AR75C including WS744 is generated.
  • the offline teaching device 5 rotates the welding line WS731 in the direction MV74 with the point RT73 on the weld line WS731 as the central axis, and then rotates the welding line WS731 radially outward (in the direction MV73) about the point RT73.
  • a scan effective area AR73B including the welding line WS733 is generated.
  • the offline teaching device 5 constructs four scan effective areas AR74, AR75A to AR75C for teaching scanning operations of the three welding lines WS741 to WS744 in the virtual space, and generates and outputs a teaching assistance screen.
  • the offline teaching device 5 can assist the operator in teaching the scanning effective area for scanning a plurality of welding lines formed on the same plane.
  • the offline teaching device 5 includes the input/output unit 53 (an example of an input unit) capable of receiving operator's operation, the position information of the welding line of the work Wk produced by welding, and the work Wk.
  • An input/output unit 53 (an example of an acquisition unit) that acquires a scan effective range AR0 (an example of a scan range) of the sensor 4 that scans the appearance shape of the weld bead to be formed, position information of the acquired weld line,
  • a 3D computing unit 54 (an example of a generating unit) that generates a three-dimensional area scanned by the sensor 4 based on the effective scanning range AR0, and a welding line and a scanning effective area (an example of a three-dimensional area) in virtual space.
  • to generate and output a teaching assistance screen (an example of an assistance screen) on which the and a program creation unit 55 (an example of a control unit) that creates and outputs a teaching program for scanning the scan effective area shown on the screen.
  • the offline teaching device 5 uses the teaching assistance screen that visualizes the positional relationship between the welding line and the scanning effective area (scanning area), and the scanning effective area constructed as a template for the scanning operation. It is possible to assist the operator in determining whether or not the entire weld line can be scanned (inspected). In addition, when the operator determines that the entire weld line can be scanned (inspected) using the scan effective area shown on the teaching assistance screen and constructed as a template for the scan operation, the operator uses the input device UI3 to A teaching program for the scanning operation can be easily created simply by performing an operation requesting creation of the teaching program for the scanning operation. Therefore, the offline teaching device 5 can more effectively assist a worker who does not have advanced teaching program creation skills to create a scanning operation teaching program.
  • the scan effective area (for example, the scan effective area AR22 shown in FIGS. 10 to 13) corresponds to each of the two auxiliary scan areas of the sensor (for example, the auxiliary scan areas shown in FIGS. 10 to 13). AR221, AR222, etc.).
  • the offline teaching device 5 can visualize each of the two auxiliary scan areas corresponding to each scan effective area. Therefore, the operator can visually confirm whether or not the welding line is included in the auxiliary scan area using the teaching assistance screen.
  • the 3D calculation unit 54 in Embodiment 1 is a scan effective area (for example, , to generate the scan effective area AR12 shown in FIG.
  • the offline teaching device 5 according to the first embodiment can generate the scan effective area even when only the position information of the start point and the end point of the weld line is acquired.
  • the 3D computing unit 54 in Embodiment 1 calculates the motion trajectory of the sensor 4 for each scan effective area (for example, the direction indicated by the arrow in the scan section SS11 shown in FIG. 7) based on the start position and end position of the weld line. ) is further generated.
  • the program creation unit 55 generates and outputs a teaching assistance screen in which the welding line, the scan effective area, and the movement trajectory of the sensor 4 are arranged in virtual space.
  • the offline teaching device 5 according to Embodiment 1 can generate the scan effective area based on the start position (start point) and the end position (end point) of the weld line, and can also generate the start position (end point) of the weld line.
  • the motion trajectory of the sensor 4 can be determined (set) based on each of the start point) and the end position (end point).
  • the input/output unit 53 in Embodiment 1 further acquires position information of production equipment (for example, welding robots, inspection robots, workpieces Wk, stages, jigs, etc.) that performs welding.
  • the program creation unit 55 generates and outputs a teaching assistance screen in which the welding line, the scan effective area, and the production equipment are arranged in the virtual space.
  • the offline teaching device 5 according to Embodiment 1 enables the worker to perform the scanning effective area using the teaching assistance screen that visualizes the positional relationship between the production equipment, the welding line, and the scanning effective area (scanning area).
  • the offline teaching device 5 can more effectively assist a worker who does not have advanced teaching program creation skills to create a scanning operation teaching program.
  • the program creation unit 55 in Embodiment 1 determines the time required for the scanning operation of the workpiece Wk by the sensor 4 (for example, the scanning time, idle running time, etc. shown in FIG. 8) based on the acquired scan effective area. Calculate and output.
  • the offline teaching device 5 according to the first embodiment can present to the operator the time required for the scan operation when the scan operation teaching program corresponding to the scan operation indicated by the teaching assistance screen is executed. Therefore, the offline teaching device 5 makes it possible to use the time required for this scanning operation as an indicator of productivity, and can assist in determining whether or not the scanning operation indicated by the teaching assistance screen is the scanning operation desired by the operator. .
  • the operator operates the input device UI3 to use the offline teaching device 5 including one or more computers communicably connected to the input device UI3.
  • the position information of the weld line of the work Wk produced by welding and the scan effective range AR0 (an example of the scan range) of the sensor 4 that scans the appearance shape of the weld bead formed on the work Wk A teaching for causing the welding robot MC1 that drives the sensor 4 to scan the scan effective area indicated by the teaching assistance screen on which the welding line and the scan effective area to be scanned by the sensor 4 are arranged in a virtual space by inputting the instruction into the computer. create a program
  • the offline teaching device 5 visualizes the positional relationship between the welding line and the scanning effective area (scanning area) based on the input of the welding line position information and the scanning effective range AR0 of the sensor 4. Generates a teaching assistance screen to The off-line teaching device 5 creates a teaching program for the scanning motion that causes the sensor 4 to scan the scanning effective area as the scanning motion indicated by the generated teaching assistance screen based on the operator's operation. Therefore, the offline teaching device 5 can more effectively assist a worker who does not have advanced teaching program creation skills to create a scanning operation teaching program.
  • the offline teaching device 5 includes the input/output unit 53 (an example of an input unit) capable of acquiring the operator's operation, the position information of the welding line of the work Wk produced by welding, and the work Wk.
  • An input/output unit 53 (an example of an acquisition unit) that acquires the scan effective range AR0 of the sensor 4 that scans the appearance shape of the weld bead to be formed, and the acquired position information of the weld line and the scan effective range AR0 (scan range 3D calculation unit 54 (an example of a generation unit) that generates a scan effective area (an example of a three-dimensional area) scanned by the sensor 4 based on ) and a welding line and a scan effective area in virtual space
  • the arranged teaching assistance screen (an example of an assistance screen) is generated and output, and based on the operator's operation, the welding robot MC1 (an example of the robot) that drives the sensor scans the scan effective area shown on the teaching assistance screen.
  • a program creation unit 55 (an example of a control unit) that creates and outputs a teaching program for The 3D calculation unit 54 divides the scan effective area based on the operator's operation input to the input/output unit 53 .
  • the program creation unit 55 generates and outputs a new teaching assistance screen in which the welding line and a plurality of scan effective areas including the divided scan effective area are arranged in the virtual space, and outputs a new instruction screen based on the operator's operation. Create and output a teaching program for scanning a plurality of scan effective areas shown on a teaching assistance screen.
  • the offline teaching device 5 uses the teaching assistance screen that visualizes the positional relationship between the welding line and the scanning effective area (scanning area), and the scanning effective area constructed as a template for the scanning operation. It is possible to assist the operator in determining whether or not the entire weld line can be scanned (inspected). Further, the offline teaching device 5 divides the scan effective area based on the operator's operation requesting division of any of the scan effective areas shown on the teaching assistance screen and constructed as a model of the scan operation.
  • the off-line teaching device 5 can perform the scan valid area without complicated operator operations such as adjustment of the scan section of the scan valid area, placement processing of the scan valid area in the virtual space (that is, rotation and movement processing), and re-creation processing. Region division can be realized. Therefore, the offline teaching device 5 can more effectively assist a worker who does not have advanced teaching program creation skills to create a scanning operation teaching program.
  • the scan effective area (for example, the scan effective area AR22 shown in FIGS. 10 to 13, etc.) corresponds to each of the two auxiliary scan areas of the sensor (for example, FIGS. 10 to 13). , including auxiliary scan areas AR221, AR222, etc.) shown in FIG.
  • the offline teaching device 5 according to the first embodiment can visualize each of the two auxiliary scan areas corresponding to each scan effective area. Therefore, the operator can visually confirm whether or not the welding line is included in the auxiliary scan area using the teaching assistance screen.
  • the 3D computing unit 54 in Embodiment 1 is configured such that the scan effective area (for example, , scan effective area AR21 shown in FIG. 9), and a first scan effective area (first 1, for example, the scan effective area AR22 shown in FIG. 9) and the second scan effective area (an example of the second three-dimensional area and, for example, the scan effective area AR23 shown in FIG. 9) is generated.
  • the off-line teaching device 5 in the first embodiment includes the start point and the end point of the weld line in the virtual space only by the operator's operation of specifying the division point, and the operator's operation specifies Two scan active areas each containing a segmentation point can be generated.
  • the off-line teaching device 5 can be used without complicated operator operations such as adjustment of the scan section of the divided scan effective area, arrangement processing of the scan effective area in the virtual space (that is, rotation and movement processing), and re-creation processing. , the division of the scan effective area can be realized.
  • M (M: an integer equal to or greater than 2) division points (for example, each of division points PT11, PT12, and PT13 shown in FIG. 14) are designated by the operator's operation.
  • (M+1) scan effective areas are generated by dividing the scan effective area at M division points, and the first scan effective area (for example, scan effective area AR13) is one end of the weld line ( For example, a start point ST11) and a first division point (for example, division point PT11) are generated, and k (k is an integer equal to or greater than 2) scan effective area (for example, scan effective area AR15 ) is generated including the (k ⁇ 1)th division point (eg, division point PT11) and the kth division point (eg, division point PT12), and the (M+1)th scan valid An area (for example, scan effective area AR18) is generated including the Mth division point (for example, division point PT13) and the other end of the we
  • the off-line teaching device 5 can detect the start and end points of the weld line even if the weld line is not straight but complicated and one scan effective area is divided a plurality of times. It is possible to generate each of a plurality of scan effective areas that contain points and that contain division points designated by an operator's operation.
  • the operator operates the input device UI3 to use the offline teaching device 5 including one or more computers communicably connected to the input device UI3.
  • the position information of the weld line of the work Wk produced by welding and the scan effective range AR0 (an example of the scan range) of the sensor 4 that scans the external shape of the weld bead formed on the work Wk are set.
  • a dividing point PT21 of the area AR21 is inputted into the computer, and a plurality of scan effective areas (for example, shown in A teaching program is created for causing the welding robot MC1 (an example of a robot) that drives the sensor 4 to scan the two scan effective areas AR22 and AR23, respectively.
  • a plurality of scan effective areas for example, shown in A teaching program is created for causing the welding robot MC1 (an example of a robot) that drives the sensor 4 to scan the two scan effective areas AR22 and AR23, respectively.
  • the offline teaching device 5 visualizes the positional relationship between the welding line and the scanning effective area (scanning area) based on the input of the welding line position information and the scanning effective range AR0 of the sensor 4. Generates a teaching assistance screen to The offline teaching device 5 divides the scan effective area to be scanned by the sensor 4 on the generated teaching assistance screen based on the input of the dividing point for dividing any of the scan effective areas.
  • the off-line teaching device 5 creates a teaching program for the scanning operation that causes the sensor 4 to scan the scanning effective area as the scanning operation indicated by the teaching assistance screen on which each of the divided scanning effective areas is arranged (constructed). . Therefore, the offline teaching device 5 can more effectively assist a worker who does not have advanced teaching program creation skills to create a scanning operation teaching program.
  • the offline teaching device 5 includes the input/output unit 53 (an example of an input unit) capable of acquiring the operator's operation, the position information of the plurality of welding lines of the work Wk produced by welding, and the work
  • An input/output unit 53 (an example of an acquisition unit) that acquires a scan effective range AR0 (an example of a scan range) of a sensor 4 that scans the appearance shape of a weld bead formed in Wk, and a plurality of acquired weld lines.
  • a 3D computing unit 54 (an example of a generating unit) that generates a plurality of scan effective areas (an example of a three-dimensional area) to be scanned by the sensor 4 based on the position information and the scan effective range AR0; generates and outputs a teaching assistance screen in which the welding line and a plurality of scan effective areas are arranged, and is shown on the teaching assistance screen to the welding robot MC1 (an example of the robot) that drives the sensor 4 based on the operator's operation. and a program creation unit 55 that creates and outputs a teaching program for scanning the scan effective area.
  • the 3D computing unit 54 combines two scan effective areas selected by the operator's operation.
  • the program creation unit 55 generates and outputs a new teaching assistance screen in which a plurality of welding lines and at least one scan effective area including the combined scan effective area are arranged in the virtual space, and outputs it to the operator's operation. Based on this, a teaching program for scanning at least one scan effective area shown on a new teaching assistance screen is created and output.
  • the offline teaching device 5 uses the teaching assistance screen that visualizes the positional relationship between the welding line and the scanning effective area (scanning area), and the scanning effective area constructed as a template for the scanning operation. It is possible to assist the operator in determining whether or not the entire weld line can be scanned (inspected).
  • the offline teaching device 5 based on the operator's operation requesting the combination of a plurality of scan effective areas shown on the teaching assistance screen and constructed as a model of the scan operation, selects a plurality of scan effective areas. Join each.
  • the off-line teaching device 5 can perform a plurality of operations without complicated operator operations such as adjustment of the scan section of the scan effective area, arrangement processing of the scan effective area in the virtual space (that is, rotation and movement processing), and re-creation processing. Combining scan effective areas can be realized. Therefore, the offline teaching device 5 can more effectively assist a worker who does not have advanced teaching program creation skills to create a scanning operation teaching program.
  • the scan effective areas are each of the two auxiliary scan areas of the sensor 4 (for example, FIGS. 10 to 13). 13).
  • the offline teaching device 5 according to the first embodiment can visualize each of the two auxiliary scan areas corresponding to each scan effective area. Therefore, the operator can visually confirm whether or not the welding line is included in the auxiliary scan area using the teaching assistance screen.
  • the 3D calculation unit 54 in Embodiment 1 selects the scan starting point (for example, the 15) to the scan end point (for example, the end point ED32 shown in FIG. 15) of the other scan valid area (for example, the scan effective area AR32 shown in FIG. 15).
  • the offline teaching device 5 according to Embodiment 1 includes the start point and end point of the weld line in the virtual space only by the operator's operation of selecting two or more scan effective areas to be combined, Moreover, it is possible to generate two scan effective areas each including the division point specified by the operator's operation.
  • the 3D calculation unit 54 in the first embodiment is based on the welding line position information (for example, the starting point and the ending point of each of the welding lines WS41 and WS42 shown in FIG. 16), the scan direction of the sensor 4 (for example, , arrow directions indicated by scan sections SS410 and SS420 shown in FIG. generate a scan effective area.
  • the offline teaching device 5 according to the first embodiment can add the total of the plurality of scan effective areas to the scan direction obtained by synthesizing the scan directions of the plurality of scan effective areas selected by the operator operation. By generating a scan effective area for scanning only the scan section, it is possible to generate a scan effective area that can efficiently scan a plurality of weld lines.
  • the offline teaching device 5 in the example shown in FIG. A direction obtained by synthesizing a vector as an end point and a direction obtained by synthesizing is determined as an operation trajectory (scan direction) of the sensor 4 in the scan effective area AR43.
  • the offline teaching device 5 determines the total scan section of each of the two selected scan effective areas AR41, AR to be the motion locus (scan direction) of the sensor 4 in the scan effective area AR43.
  • WS42 are generated.
  • the operator operates the input device UI3 to use the offline teaching device 5 including one or more computers communicably connected to the input device UI3.
  • the effective scan range AR0 an example of the scan range
  • the computer selects at least two scan effective areas to be combined. , and at least one scan effective area indicated by a new teaching assistance screen in which a plurality of welding lines and at least one scan effective area after combining the input at least two scan effective areas are arranged in the virtual space.
  • a teaching program for scanning the welding robot that drives the sensor 4 is created.
  • the offline teaching device 5 uses the teaching assistance screen that visualizes the positional relationship between the welding line and the scanning effective area (scanning area) to determine the welding line using the scanning effective area constructed as a scanning operation. It is possible to support the operator's judgment as to whether or not the whole can be scanned (inspected).
  • the offline teaching device 5 combines each of the plurality of scan effective areas based on the operator's operation requesting the combination of the plurality of scan effective areas constructed as the scanning operation, which is shown on the teaching assistance screen. do.
  • the off-line teaching device 5 can perform a plurality of operations without complicated operator operations such as adjustment of the scan section of the scan effective area, arrangement processing of the scan effective area in the virtual space (that is, rotation and movement processing), and re-creation processing. Combining scan effective areas can be realized. Therefore, the offline teaching device 5 can more effectively assist a worker who does not have advanced teaching program creation skills to create a scanning operation teaching program.
  • the offline teaching device 5 includes the input/output unit 53 (an example of an input unit) capable of acquiring the operator's operation, the position information of the plurality of welding lines of the work Wk produced by welding, and the work
  • An input/output unit 53 (an example of an acquisition unit) that acquires a scan effective range AR0 (an example of a scan range) of a sensor 4 that scans the appearance shape of a weld bead formed in Wk, and a plurality of acquired weld lines.
  • a 3D computing unit 54 (an example of a generating unit) that generates a plurality of scan effective areas (an example of a three-dimensional area) to be scanned by the sensor 4 based on the position information and the scan effective range AR0;
  • the 3D computing unit 54 deletes the overlapping area based on the operator's operation.
  • the program creation unit 55 generates and outputs a new teaching assistance screen in which a plurality of welding lines and at least one scan effective area after deleting the overlapping area are arranged in the virtual space, and outputs it based on the operator's operation. Then, a teaching program for scanning at least one scan effective area by the welding robot MC1 (an example of the robot) that drives the sensor is created and output.
  • the off-line teaching device 5 enables the scanning effective areas constructed as a model of the scanning operation to By highlighting the overlapping area of , it is possible to assist the operator in determining whether or not to delete the overlapping area.
  • the offline teaching device 5 deletes overlapping areas from a plurality of scan effective areas constructed as a template for scanning operations based on the operator's operation requesting deletion of overlapping areas shown on the teaching assistance screen. . Therefore, the operator can confirm overlapping areas at a glance without having to rotate the three-dimensional space (virtual space) indicated by the teaching assistance screen and confirm whether or not each scan effective area overlaps. be able to.
  • the offline teaching device 5 can more effectively assist a worker who does not have advanced teaching program creation skills to create a scanning operation teaching program.
  • the scan effective area (for example, the scan effective area AR22 shown in FIGS. 10 to 13) is divided into two auxiliary scan areas of the sensor 4 (for example, the auxiliary scan area AR221 shown in FIGS. 10 to 13). , AR222, etc.).
  • the offline teaching device 5 can visualize each of the two auxiliary scan areas corresponding to each scan effective area. Therefore, the operator can visually confirm whether or not the welding line is included in the auxiliary scan area using the teaching assistance screen.
  • the 3D computing unit 54 deletes overlapping areas (for example, overlapping area DB 61 shown in FIG. 19) from at least one scan effective area based on the operator's operation.
  • overlapping areas for example, overlapping area DB 61 shown in FIG. 19
  • the offline teaching device 5 can delete the overlapping area from the scanning operation based on the operator's operation of specifying the overlapping area to be deleted.
  • the offline teaching device 5 has a first scanning time for scanning a plurality of scan valid areas before deleting the overlapping area, and a second scanning time for scanning a plurality of scan valid areas after deleting the overlapping area. It further includes a program creation unit 55 (an example of a calculation unit) that calculates the scan time of the . When the program creation unit 55 determines that the time difference between the first scan time and the second scan time is less than the predetermined time, the highlighting of the overlapping area is omitted.
  • the off-line teaching device 5 increases the time required for the scanning operation performed by the sensor 4 by deleting the overlapping area, and if it determines that the time that can be reduced is small, the overlapping area By omitting the highlighting process, it is possible to eliminate the need for the operator to determine whether to delete the overlapped area.
  • the program creation unit 55 in Embodiment 1 determines that the time difference is not less than the predetermined time, it highlights the overlapping area.
  • the offline teaching device 5 according to the first embodiment performs the overlapping area highlighting process when it is determined that the time required for the scanning operation performed by the sensor 4 due to the deletion of the overlapping area is equal to or longer than the predetermined time. By doing so, it is possible to support the operator's decision to delete the overlapping area.
  • the program creation unit 55 in the first embodiment creates a first scan effective area (for example, the scan effective area AR51 shown in FIG. 17) including the first weld line (for example, the weld line WS51 shown in FIG. 17), and , and a second scan effective area (for example, the scan effective area AR52 shown in FIG. 17) including at least part of the first weld line and the second weld line (for example, the weld line WS52 shown in FIG. 17). If it is determined that there is, the first scan effective area is deleted. As a result, when the welding line included in the first scan effective area is also included in the second scan effective area, the offline teaching device 5 according to the first embodiment can delete the first scan effective area.
  • a first scan effective area for example, the scan effective area AR51 shown in FIG. 17
  • the offline teaching device 5 can delete the first scan effective area.
  • the offline teaching device 5 preferentially leaves only the scan effective area including the welding line of more or longer sections, thereby creating a teaching program for the scan operation that makes the scan operation of the sensor 4 more efficient. I can help.
  • the operator operates the input device UI3 to use the offline teaching device 5 including one or more computers communicably connected to the input device UI3.
  • the effective scan range AR0 an example of the scan range
  • the computer receives the effective scan range AR0 from the computer
  • a plurality of welding lines and a scan effective area scanned by the sensor 4 are arranged in a virtual space
  • the teaching assistance screen that highlights the overlapping area of each of the plurality of scan effective areas
  • An overlapping area to be deleted is input into a computer, and a plurality of welding lines and at least one new teaching assistance screen on which at least one scan effective area after deleting the input overlapping area is arranged in a virtual space.
  • a teaching program is created to cause the robot that drives the sensor 4 to scan the two scan effective areas.
  • the offline teaching device 5 can display the overlapping area between the scan effective areas constructed as the scan operation on the teaching assistance screen that visualizes the positional relationship between the welding line and the scan effective area (scan area).
  • the offline teaching device 5 deletes overlapping areas from a plurality of scan effective areas constructed as scanning operations based on the operator's operation requesting deletion of overlapping areas shown on the teaching assistance screen. Therefore, the operator can confirm overlapping areas at a glance without having to rotate the three-dimensional space (virtual space) indicated by the teaching assistance screen and confirm whether or not each scan effective area overlaps. be able to.
  • the offline teaching device 5 can more effectively assist a worker who does not have advanced teaching program creation skills to create a scanning operation teaching program.
  • the offline teaching device 5 includes the input/output unit 53 (an example of an input unit) capable of acquiring the operator's operation, the position information of the welding line of the work Wk produced by welding, and the work Wk.
  • a 3D computing unit 54 (an example of a generating unit) that generates a scan effective area (an example of a three-dimensional area) to be scanned by the sensor 4 based on the above, and a teaching assistance screen that arranges the welding line and the scan effective area in virtual space.
  • the 3D computing unit 54 moves or rotates the scan effective area based on the operator's operation.
  • the program creation unit 55 generates and outputs a new teaching assistance screen in which the welding line and at least one scan effective area including the moved or rotated scan effective area are arranged in the virtual space, and outputs it to the operator's operation. Based on this, a teaching program for causing the welding robot MC1 (an example of a robot) that drives the sensor 4 to scan at least one scan effective area is created and output.
  • the offline teaching device 5 can display the scan effective area constructed as a template for the scan operation on the teaching assistance screen that visualizes the positional relationship between the welding line and the scan effective area (scan area).
  • the off-line teaching device 5 can visualize the positional relationship between each scan effective area moved and rotated by the operator's operation and the welding line in a three-dimensional space (virtual space), each scan effective area after movement and rotation can be visualized. It is possible to confirm at a glance whether or not the is includes a weld line. Therefore, the offline teaching device 5 can more effectively assist a worker who does not have advanced teaching program creation skills to create a scanning operation teaching program.
  • the scan effective area in the first embodiment corresponds to each of the two auxiliary scan areas of the sensor (for example, the auxiliary scan areas shown in FIGS. 10 to 13). AR221, AR222, etc.).
  • the offline teaching device 5 according to the first embodiment can visualize each of the two auxiliary scan areas corresponding to each scan effective area. Therefore, the operator can visually confirm whether or not the welding line is included in the auxiliary scan area using the teaching assistance screen.
  • the 3D calculation unit 54 in Embodiment 1 uses the welding line selected by the operator operation (for example, the welding line WS741 shown in FIG. 25) as a reference, and the scanning effective area selected by the operator operation (for example, The scan effective areas AR75B and AR75C) are moved.
  • the off-line teaching device 5 according to the first embodiment can set the welding line to be scanned as the reference for moving and rotating the scanning effective area in the three-dimensional space (virtual space). Therefore, since the offline teaching device 5 can limit the degree of freedom of movement and rotation of the scan effective area on the three-dimensional space (virtual space) based on the welding line, the scan operation indicated by the scan effective area after movement and rotation can be performed.
  • the operator can move and rotate each scan effective area without finely adjusting the scan effective area in the virtual space, and can perform the scan teaching work.
  • the 3D computing unit 54 in the first embodiment is configured, based on the operator's operation, in the extension direction of the weld line selected by the operator's operation (that is, the direction from the start point to the end point of the weld line, The scan effective area is moved along the direction indicated by the corresponding welding motion trajectory, etc.).
  • the offline teaching device 5 according to the first embodiment can limit the moving direction of the scan effective area based on the operator's operation to the direction parallel to the welding line.
  • the 3D computing unit 54 in the first embodiment rotates a predetermined position (for example, a point RT73 shown in FIG. 24) on the weld line specified by the operator's operation, and rotates the scan effective area. to rotate.
  • a predetermined position for example, a point RT73 shown in FIG. 24
  • the offline teaching device 5 according to the first embodiment can limit the rotation reference point of the scan effective area based on the operator's operation to a point on the predetermined welding line designated by the operator's operation.
  • the operator can rotate the scan effective area in the virtual space around a predetermined position designated by the operator's operation as the center of rotation.
  • the 3D computing unit 54 in Embodiment 1 scans in the radial direction centering on a predetermined position (for example, point RT73 shown in FIG. 24) on the weld line specified by the operator's operation based on the operator's operation. Move the effective area.
  • the offline teaching device 5 according to Embodiment 1 can limit the movement of the scan effective area based on the operator's operation to a direction based on a predetermined position on the weld line. Specifically, the operator can move the scan effective area closer to a predetermined position on the designated weld line, or move the scan effective area away from the predetermined position on the designated weld line.
  • the 3D calculation unit 54 in the first embodiment duplicates the scan effective area based on the operator's operation, and reproduces the duplicated scan effective area (for example, the scan effective area shown in FIG. 24) based on the operator's operation.
  • AR73B, scan effective areas AR75B and AR75C shown in FIG. 25) are moved or rotated.
  • the offline teaching device 5 according to the first embodiment can copy the generated scan effective area, or copy the scan effective area based on the movement reference and rotation reference of the scan effective area in the virtual space specified by the operator's operation. You can move and rotate the scanned effective area.
  • the operator operates the input device UI3 to use the offline teaching device 5 including one or more computers communicably connected to the input device UI3.
  • the scan effective range AR0 scan range of One example
  • the teaching assistance screen where multiple welding lines and multiple scan effective areas scanned by the sensor 4 are arranged in virtual space, one of the scan effective areas is moved or rotated.
  • An operation is input to the computer, and at least one scan effective area indicated by a new teaching aid screen on which at least one scan effective area including a plurality of weld lines and a scanned or rotated scan effective area are arranged in virtual space.
  • a teaching program for scanning by the welding robot MC1 an example of a robot that drives the sensor 4 is created.
  • the offline teaching device 5 moves, rotates, and rotates the scanning effective area constructed as a scanning operation on the teaching assistance screen that visualizes the positional relationship between the welding line and the scanning effective area (scanning area).
  • the operator's operation such as, it is possible to support the teaching work of the scanning operation desired by the operator.
  • the off-line teaching device 5 can visualize the positional relationship between each scan effective area moved and rotated by the operator's operation and the welding line in a three-dimensional space (virtual space), each scan effective area after movement and rotation can be visualized. It is possible to confirm at a glance whether or not the is includes a weld line. Therefore, the offline teaching device 5 can more effectively assist a worker who does not have advanced teaching program creation skills to create a scanning operation teaching program.
  • the present disclosure is useful as an offline teaching device and an offline teaching method that support creation of a teaching program for scanning operations performed by an operator.

Abstract

オフライン教示装置は、ワークの複数の溶接線の位置情報とセンサのスキャン範囲とを取得する取得部と、スキャンされる複数の3次元領域を生成する生成部と、仮想空間に複数の溶接線と複数の3次元領域とを配置し、複数の3次元領域のそれぞれの重複領域を強調表示する制御部と、を備え、重複領域を削除し、仮想空間に、複数の溶接線と、重複領域を削除した後の少なくとも1つの3次元領域とを配置した新たな補助画面を生成し、少なくとも1つの3次元領域をスキャンさせるための教示プログラムを作成して出力する。

Description

オフライン教示装置およびオフライン教示方法
 本開示は、オフライン教示装置およびオフライン教示方法に関する。
 特許文献1には、モデル図に、ティーチングプログラムを実行したときのロボットの動作軌跡を表示し、複数の位置検出命令の一部および複数の溶接命令の一部を表示するオフラインティーチング装置が開示されている。オフラインティーチング装置は、ティーチングプログラムとモデル図とを表示する表示部と、ティーチングプログラムを構成する命令と、モデル図のモデルデータとを記憶する記憶部と、表示部および記憶部を制御する制御部と、を備える。ティーチングプログラムは、複数の位置検出命令で構成される位置検出プログラム、および、複数の溶接命令で構成される溶接プログラムを含む。ここで、ティーチングプログラムを構成する命令、位置検出プログラムおよび溶接プログラムのそれぞれは、作業者により作成される。
国際公開第2016/021130号
 本開示は、作業者により行われるスキャン動作の教示プログラムの作成を支援するオフライン教示装置およびオフライン教示方法を提供する。
 本開示は、作業者操作を取得可能な入力部と、溶接により生産されるワークの複数の溶接線の位置情報と前記ワークに形成される溶接ビードの外観形状をスキャンするセンサのスキャン範囲とを取得する取得部と、取得された前記複数の溶接線の位置情報と、前記スキャン範囲とに基づいて、前記センサによりスキャンされる複数の3次元領域を生成する生成部と、仮想空間に前記複数の溶接線と前記複数の3次元領域とを配置し、前記複数の3次元領域のそれぞれの重複領域を強調表示した補助画面を生成して出力する制御部と、を備え、前記生成部は、前記作業者操作に基づいて、前記重複領域を削除し、前記制御部は、前記仮想空間に、前記複数の溶接線と、前記重複領域を削除した後の少なくとも1つの3次元領域とを配置した新たな補助画面を生成して出力し、前記作業者操作に基づいて、前記センサを駆動させるロボットに前記少なくとも1つの3次元領域をスキャンさせるための教示プログラムを作成して出力する、オフライン教示装置を提供する。
 また、本開示は、作業者操作を受け付け可能な入力装置との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置が行うオフライン教示方法であって、溶接により生産されるワークの複数の溶接線の位置情報と前記ワークに形成される溶接ビードの外観形状をスキャンするセンサのスキャン範囲とを取得し、取得された前記複数の溶接線の位置情報と、前記スキャン範囲とに基づいて、前記センサによりスキャンされる複数の3次元領域を生成し、仮想空間に、前記複数の溶接線と前記複数の3次元領域とを配置し、前記複数の3次元領域のそれぞれの重複領域を強調表示した補助画面を生成して出力し、前記作業者操作に基づいて、前記重複領域を削除し、前記仮想空間に、前記複数の溶接線と、前記重複領域を削除した後の少なくとも1つの3次元領域とを配置した新たな補助画面を生成して出力し、前記作業者操作に基づいて、前記センサを駆動させるロボットに前記少なくとも1つの3次元領域をスキャンさせるための教示プログラムを作成して出力する、オフライン教示方法を提供する。
 また、本開示は、作業者が入力装置を操作して、入力装置との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置を用いて行うオフライン教示方法であって、溶接により生産されるワークの複数の溶接線の位置情報と、前記ワークに形成される溶接ビードの外観形状をスキャンするセンサのスキャン範囲を前記コンピュータに入力し、仮想空間に前記複数の溶接線と、前記センサによりスキャンされる3次元領域とが配置され、前記複数の3次元領域のそれぞれの重複領域を強調表示した補助画面上において、削除対象である前記重複領域を前記コンピュータに入力し、前記仮想空間に前記複数の溶接線と、入力された前記重複領域を削除した後の少なくとも1つの3次元領域が配置された新たな補助画面が示す前記少なくとも1つの3次元領域を、前記センサを駆動させるロボットにスキャンさせるための教示プログラムを作成する、オフライン教示方法を提供する。
 本開示によれば、作業者により行われるスキャン動作の教示プログラムの作成を支援できる。
実施の形態1に係る溶接システムのシステム構成例を示す概略図 実施の形態1に係る検査制御装置、ロボット制御装置、上位装置およびオフライン教示装置の内部構成例を示す図 センサのスキャン有効範囲の一例を説明する図 センサのスキャン有効領域の一例を説明する図 実施の形態1におけるオフライン教示装置の動作手順例を示すフローチャート 教示補助画面における生産設備および溶接線の表示例を説明する図 教示補助画面における溶接線およびスキャン区間の表示例を説明する図 教示補助画面における統計情報およびスキャン有効領域の一例を説明する図 スキャン有効領域の分割処理例1を説明する図 スキャン有効領域の立体表示例を説明する図 スキャン有効領域の立体表示例を説明する図 スキャン有効領域の立体表示例を説明する図 スキャン有効領域の立体表示例を説明する図 スキャン有効領域の分割処理例2を説明する図 スキャン有効領域の結合処理例1を説明する図 スキャン有効領域の結合処理例2を説明する図 スキャン有効領域の削除処理例を説明する図 スキャン有効領域の部分削除処理例を説明する図 スキャン有効領域の分割処理および削除処理の省略例を説明する図 スキャン有効領域の分割処理および削除処理の省略例を説明する図 スキャン有効領域の移動処理例を説明する図 スキャン有効領域の回転処理例を説明する図 スキャン有効領域の回転処理および移動処理例を説明する図 スキャン有効領域のコピー処理、回転処理、および移動処理例を説明する図 スキャン有効領域のコピー処理および移動処理例を説明する図
(本開示に至る経緯)
 特許文献1のように、オフライン教示装置を用いて仮想的な生産設備を構築可能な装置構成は従来から知られている。このようなオフライン教示装置は、溶接ロボットの動作軌跡に対応する一部の位置検出命令、および一部の溶接命令を同時に表示することで、作業者に教示プログラム作成時の編集箇所の特定を容易にし、作成されたプログラムの作成効率と正確性との向上を支援できる。
 また、近年、溶接箇所(つまり、溶接ビード)の品質確認方法である外観検査の自動化が行われている。外観検査は、レーザ光によりワーク上をスキャンして溶接ビードの3次元形状を計測可能なセンサを備える溶接ロボットあるいは検査ロボットにより実行される。このような外観検査の自動化において、センサを用いた外観検査を実行するための教示作業は、レーザポインタ等の出力が弱く、作業者が目視可能な装置を用いてスキャン範囲を教示することで行われる。しかし、作業者は、教示作業中にセンサのスキャン可能範囲が可視化されていないため、教示されたスキャン範囲が実際のセンサのスキャン可能範囲内に位置しているか否かが分からなかった。したがって、上述した教示作業に基づいて作成された教示プログラムを用いた場合、センサは、教示されたスキャン範囲を読み取れないことがあった。
 外観検査の教示プログラムは、溶接加工が必要となる1本の溶接線に対して1つの溶接箇所を溶接可能に作成される溶接動作の教示プログラムと異なり、外観検査時間の短縮等を目的として、1つのスキャン箇所で複数の溶接箇所(つまり、1つの溶接線)のそれぞれの外観形状をまとめてスキャン可能に作成されたり、1つの溶接箇所(溶接線)の外観形状を複数のスキャン箇所のそれぞれで分割してスキャン可能に作成されたりすることがある。また、外観検査において2以上の溶接箇所のそれぞれをスキャンする場合、外観検査の教示プログラムは、溶接箇所のスキャン順序が、各溶接が実行された溶接順序と異なる順序で作成されることがある。さらに、外観検査の教示プログラムにおいてセンサは、例えば1つのスキャン箇所で複数の溶接箇所をまとめてスキャンしたり、1つの溶接箇所(溶接線)の外観形状を複数のスキャン箇所のそれぞれで分割してスキャンしたりする場合、溶接動作時の溶接トーチ角度と異なるセンサ角度で溶接箇所をスキャンすることがある。したがって、外観検査の教示プログラムを作成する作業者は、オフライン教示装置を用いて外観検査の教示プログラムを作成するにあたって、作成すべき溶接ロボットあるいは検査ロボットの動作が異なることがあり、より高度な教示プログラムの作成技能が要求される。
 また、仮想空間でスキャン箇所を教示するオフライン教示装置がある。オフライン教示装置は、水平方向(XY平面上)の所定位置におけるスキャン可能範囲を可視化することで、作業者により教示されるスキャン箇所と、センサによるスキャン可能範囲とを可視化し、作業者により行われる外観検査を実行するための教示作業を支援する。しかし、3次元のスキャン可能範囲(領域)を可視化することが困難であり、このようなオフライン教示装置を用いて作成された教示プログラムを使用して外観検査を実行した場合、教示されたスキャン範囲で外観検査対象をスキャンできない可能性があった。
 したがって、スキャン箇所の3次元形状、検査ロボットのスキャン動作時の姿勢等を可視化したり、外観検査をより効率的に実行可能な外観検査の教示プログラムを作成したりする技術が望まれている。
 そこで、以下の各実施の形態では、作業者により行われるスキャン動作の教示プログラムの作成を支援するオフライン教示装置およびオフライン教示方法の例を説明する。
 以下、適宜図面を参照しながら、本開示に係るオフライン教示装置およびオフライン教示方法を具体的に開示した各実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。
 以下、本溶接される対象物(例えば金属)を「元ワーク」、本溶接により生産(製造)された対象物を「ワーク」とそれぞれ定義する。「ワーク」は、1回の本溶接により生産されたワークに限らず、2回以上の本溶接により生産された複合的なワークであってもよい。また、元ワークと他の元ワークとが溶接ロボットにより接合等されてワークを生産する工程を「本溶接」と定義する。
(溶接システムの構成)
 図1は、実施の形態1に係る溶接システム100のシステム構成例を示す概略図である。溶接システム100は、外部ストレージST、入力インターフェースUI1およびモニタMN1のそれぞれと接続された上位装置1と、ロボット制御装置2と、検査制御装置3と、センサ4と、オフライン教示装置5と、モニタMN3と、入力装置UI3と、溶接ロボットMC1と、モニタMN2とを含む構成である。また、図1では、センサ4は、溶接ロボットMC1と別体として図示されているが、溶接ロボットMC1と一体化されて設けられてもよい(図2参照)。モニタMN2は必須の構成でなく、省略されてもよい。
 上位装置1は、ロボット制御装置2を介して溶接ロボットMC1により実行される本溶接の開始および完了を統括して制御する。例えば、上位装置1は、作業者(例えば、溶接作業者あるいはシステム管理者。以下同様。)により予め入力あるいは設定された溶接関連情報を外部ストレージSTから読み出し、溶接関連情報を用いて、溶接関連情報の内容を含めた本溶接の実行指令を生成して対応するロボット制御装置2に送信する。上位装置1は、溶接ロボットMC1による本溶接が完了した場合に、溶接ロボットMC1による本溶接が完了した旨の本溶接完了報告をロボット制御装置2から受信し、対応する本溶接が完了した旨のステータスに更新して外部ストレージSTに記録する。
 なお、上述した本溶接の実行指令は上位装置1により生成されることに限定されず、例えば本溶接が行われる工場等内の設備の操作盤(例えばPLC:Programmable Logic Controller)、あるいはロボット制御装置2の操作盤(例えばティーチペンダントにより生成されてもよい。なお、ティーチペンダントは、ロボット制御装置2に接続された溶接ロボットMC1を操作するための装置である。
 また、上位装置1は、ロボット制御装置2、検査制御装置3およびセンサ4を用いたビード外観検査の開始および完了を統括して制御する。例えば、上位装置1は、ロボット制御装置2から本溶接完了報告を受信すると、溶接ロボットMC1により生産されたワークのビード外観検査の実行指令を生成、あるいは生成済みの実行指令をロボット制御装置2および検査制御装置3のそれぞれに送信する。上位装置1は、ビード外観検査が完了した場合に、ビード外観検査が完了した旨の外観検査報告を検査制御装置3から受信し、対応するビード外観検査が完了した旨のステータスに更新して外部ストレージSTに記録する。
 ここで、溶接関連情報とは、溶接ロボットMC1により実行される本溶接の内容を示す情報であり、本溶接の工程ごとに予め作成されて外部ストレージSTに登録されている。溶接関連情報は、例えば本溶接に使用される元ワークの数と、本溶接に使用される元ワークのID、元ワークのロット情報、名前および溶接箇所(例えば、溶接線の情報、溶接線の位置情報等)を含むワーク情報と、本溶接が実行される実行予定日と、元ワークの生産台数と、本溶接時の各種の溶接条件と、を含む。なお、溶接関連情報は、上述した項目のデータに限定されず、作成済みの溶接動作およびスキャン動作の教示プログラムのそれぞれ(後述参照)、これらの教示プログラムの作成に用いられた溶接動作設定情報、スキャン動作設定情報等の情報をさらに含んでもよい。
 また、溶接条件は、例えば元ワークの材質および厚み、溶接ワイヤ301の材質およびワイヤ径、シールドガス種、シールドガスの流量、溶接電流の設定平均値、溶接電圧の設定平均値、溶接ワイヤ301の送給速度および送給量、溶接回数、溶接時間等である。また、これらの他に、例えば本溶接の種別(例えばTIG溶接、MAG溶接、パルス溶接)を示す情報、マニピュレータ200の移動速度および移動時間が含まれてもよい。
 ロボット制御装置2は、上位装置1から送信された本溶接の実行指令に基づいて、その実行指令で指定される元ワークを用いた本溶接の実行を溶接ロボットMC1に開始させる。なお、上述した溶接関連情報は、上位装置1が外部ストレージSTを参照して管理することに限定されず、例えばロボット制御装置2において管理されてもよい。この場合、ロボット制御装置2は本溶接が完了した状態を把握できるので、溶接関連情報のうち溶接工程が実行される予定の実行予定日の代わりに実際の実行日が管理されてよい。なお、本明細書において、本溶接の種類は問わないが、説明を分かり易くするために、複数の元ワークを接合して1つのワークを生産する工程を例示して説明する。
 上位装置1は、モニタMN1、入力インターフェースUI1および外部ストレージSTのそれぞれとの間でデータの入出力が可能となるように接続され、さらに、ロボット制御装置2との間でデータの通信が可能となるように接続される。上位装置1は、モニタMN1および入力インターフェースUI1を一体に含む端末装置P1でもよく、さらに、外部ストレージSTを一体に含んでもよい。この場合、端末装置P1は、本溶接の実行に先立って作業者により使用されるPC(Personal Computer)である。なお、端末装置P1は、上述したPCに限らず、例えばスマートフォン、タブレット端末等の通信機能を有するコンピュータ装置でよい。
 モニタMN1は、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)等の表示用デバイスを用いて構成されてよい。モニタMN1は、例えば上位装置1から出力された、本溶接が完了した旨の通知、あるいはビード外観検査が完了した旨の通知を示す画面を表示してよい。また、モニタMN1の代わりに、あるいはモニタMN1とともにスピーカ(図示略)が上位装置1に接続されてもよく、上位装置1は、本溶接が完了した旨の内容、あるいはビード外観検査が完了した旨の内容の音声を、スピーカを介して出力してもよい。
 入力インターフェースUI1は、作業者の入力操作を検出して上位装置1に出力する作業者インターフェースであり、例えば、マウス、キーボードまたはタッチパネル等を用いて構成されてよい。入力インターフェースUI1は、例えば作業者が溶接関連情報を作成する時の入力操作を受け付けたり、ロボット制御装置2への本溶接の実行指令を送信する時の入力操作を受け付けたりする。
 外部ストレージSTは、例えばハードディスクドライブ(Hard Disk Drive)またはソリッドステートドライブ(Solid State Drive)を用いて構成される。外部ストレージSTは、例えば本溶接ごとに作成された溶接関連情報のデータ、本溶接により生産されたワークWkのステータス(生産状況)、ワークWkのワーク情報(上述参照)を記憶する。なお、外部ストレージSTは、オフライン教示装置5によって作成された溶接動作の教示プログラムと、スキャン動作の教示プログラムとを溶接線ごとに記憶していてもよい。溶接動作およびスキャン動作の教示プログラムのそれぞれについては、後述する。
 ロボット制御装置2は、上位装置1、検査制御装置3、およびオフライン教示装置5との間でそれぞれデータの通信が可能に接続されるとともに、溶接ロボットMC1との間でデータの通信が可能に接続される。ロボット制御装置2は、上位装置1から送信された本溶接の実行指令を受信すると、この実行指令に対応する溶接動作の教示プログラムに基づいて、本溶接プログラムを作成し、溶接ロボットMC1を制御して本溶接を実行させる。ロボット制御装置2は、本溶接の完了を検出すると本溶接が完了した旨の本溶接完了報告を生成して上位装置1に通知する。これにより、上位装置1は、ロボット制御装置2による本溶接の完了を適正に検出できる。なお、ロボット制御装置2による本溶接の完了の検出方法は、例えばワイヤ送給装置300が備えるセンサ(図示略)からの本溶接の完了を示す信号に基づいて判別する方法でよく、あるいは公知の方法でもよく、本溶接の完了の検出方法の内容は限定されなくてよい。
 溶接ロボットMC1は、ロボット制御装置2との間でデータの通信が可能に接続される。溶接ロボットMC1は、対応するロボット制御装置2の制御の下で、上位装置1から指令された本溶接を実行する。また、溶接ロボットMC1は、スキャン動作の教示プログラムに基づいて、センサ4を移動させることで、上位装置1から指令されたビード外観検査を実行する。
 検査制御装置3は、上位装置1、ロボット制御装置2、センサ4およびオフライン教示装置5のそれぞれとの間でデータの通信が可能に接続される。検査制御装置3は、上位装置1から送信されたビード外観検査の実行指令を受信すると、対応するワークWkのスキャン動作の教示プログラムに従い、溶接ロボットMC1により生産されたワークWkの溶接箇所(つまり、溶接ビード)のビード外観検査(例えば、ワークに形成された溶接ビードが予め既定された溶接基準を満たすか否かの検査)をセンサ4とともに実行する。検査制御装置3は、スキャン動作の結果、センサ4により取得された溶接ビードの形状に関する入力データ(例えば、溶接ビードの3次元形状を特定可能な点群データ)を用いて、ワークごとに予め既定された良品ワークのマスタデータとの比較に基づいてビード外観検査を行う。なお、本実施の形態1で溶接ロボットMC1により実行されるビード外観検査は、溶接ビードの外観検査に限定されず、溶接ビードの外観検査と他の外観検査(例えば、ワークWkへの部品装着の有無等)等とを含む検査であってもよい。これにより、作業者は、センサ4のスキャン有効領域をより効率的に活用して、外観検査結果に基づいて、異なる目的を有する外観検査をそれぞれ同時に実行できる。また、ここでいうスキャン有効領域は、センサ4がスキャンにより外観形状を読み取り可能な3次元領域を示す。
 検査制御装置3は、ビード外観検査を行い、このビード外観検査の検査判定結果とビード外観検査が完了した旨の通知とを含む外観検査報告を生成して上位装置1に送信するとともに、モニタMN2に出力する。なお、検査制御装置3は、ワークのビード外観検査において欠陥を検知したと判定した場合に、その欠陥をリペア溶接するための欠陥区間の情報を含む外観検査結果を含む外観検査報告を生成して、上位装置1およびロボット制御装置2に送信する。また、検査制御装置3は、ワークのビード外観検査によって欠陥を検知したと判定した場合に、欠陥区間の情報を含む外観検査結果を用いて、欠陥箇所の補修等の修正を行う旨のリペア溶接プログラムを作成する。検査制御装置3は、このリペア溶接プログラムと外観検査結果とを対応付けて上位装置1あるいはロボット制御装置2に送信する。
 センサ4は、検査制御装置3との間でデータの通信が可能に接続される。センサ4は、溶接ロボットMC1に取り付けられ、ロボット制御装置2の制御に基づくマニピュレータ200の駆動に応じて、ワークWk、またはワークWkが載置されたステージ(不図示)、治具等の3次元スキャンを実行する。センサ4は、ロボット制御装置2の制御に基づくマニピュレータ200の駆動に応じて、ステージに置かれたワークWkの3次元形状のデータ等を特定可能な3次元形状のデータ(例えば、点群データ)を取得して検査制御装置3に送信する。
 モニタMN2は、例えばLCDまたは有機EL等の表示用デバイスを用いて構成されてよい。モニタMN2は、例えば検査制御装置3から出力された、ビード外観検査が完了した旨の通知、あるいはその通知とビード外観検査の結果とを示す画面を表示する。また、モニタMN2の代わりに、あるいはモニタMN2とともにスピーカ(図示略)が検査制御装置3に接続されてもよく、検査制御装置3は、外観検査が完了した旨の通知、あるいはその通知とビード外観検査結果との内容を示す音声を、スピーカを介して出力してもよい。
 オフライン教示装置5は、ロボット制御装置2、検査制御装置3、モニタMN3、および入力装置UI3との間でそれぞれデータ通信可能に接続される。オフライン教示装置5は、教示プログラムの作成対象あるいは作成済みのワークWkごとの溶接線の位置情報を設定情報として記憶する。また、オフライン教示装置5は、3次元空間(仮想空間)上に仮想的な生産設備(例えば、仮想溶接ロボット、仮想ワーク、仮想ステージ、仮想治具等)を構築し、入力装置UI3から送信された制御指令および各種データ(例えば、溶接ビード、あるいはワークWkの形状に関する入力データ、3Dモデルのデータ、溶接線の位置情報等)、あるいはロボット制御装置2または検査制御装置3から出力された各種データ(例えば、溶接ビード、あるいはワークWkの形状に関する入力データ、3Dモデルのデータ、溶接線の位置情報等)等に基づいて、ワークWkの溶接動作の教示プログラムとスキャン動作の教示プログラムとをそれぞれ作成する。オフライン教示装置5は、作成された溶接動作の教示プログラムおよびスキャン動作の教示プログラムのそれぞれをロボット制御装置2に送信する。なお、作成されたスキャン動作の教示プログラムは、ロボット制御装置2だけでなく、検査制御装置3に送信されてもよい。また、オフライン教示装置5は、作成された溶接動作の教示プログラムおよびスキャン動作の教示プログラムのそれぞれをワークWkごとに記憶する。
 また、オフライン教示装置5は、溶接線の位置情報に基づいて、3次元空間(仮想空間)上に、仮想的な生産設備(なお、図3に示す例では、仮想溶接ロボットVMC1)を構築し、溶接線WS11,WS12、センサ4によりスキャンされるスキャン有効領域等を重畳した教示補助画像(図6~図8参照)を生成してモニタMN3に送信し、表示させる。
 ここでいう溶接線の位置情報は、ワークWkに形成される溶接線の位置を示す情報である。なお、溶接線の位置情報は、少なくとも溶接線が示す本溶接の開始位置あるいは終了位置のそれぞれに対応する2つの端点の位置情報を含む。
 また、ここでいう溶接動作の教示プログラムは、溶接線に基づいて作成され、溶接ロボットMC1に本溶接を実行させるためのプログラムである。溶接動作の教示プログラムは、溶接トーチ400を用いてワークWkを本溶接するための各種動作(例えば、アプローチ、リトラクト、回避、溶接等)を実行するための溶接トーチ400の位置、距離、角度(姿勢)の情報と、溶接条件等の情報と、を含んで作成される。
 また、ここでいうスキャン動作の教示プログラムは、溶接線に基づいて作成され、溶接ロボットMC1に本溶接により作成された少なくとも1つの溶接ビード、あるいはワークWkの外観検査を実行させるためのプログラムである。スキャン動作の教示プログラムは、センサ4を用いて、作成された溶接ビード、ワークWk等の外観検査を実行するための各種動作(例えば、アプローチ、リトラクト、回避、スキャン等)を実行するためのセンサ4の位置、距離、角度(姿勢)の情報を含んで作成される。
 モニタMN3は、例えばLCDまたは有機EL等の表示用デバイスを用いて構成されてよい。モニタMN3は、オフライン教示装置5から送信された教示補助画面を表示する。また、モニタMN3は、オフライン教示装置5から送信された仮想的な生産設備の画像上にセンサ4の動作軌跡あるいは溶接トーチ400の動作軌跡等を重畳した画像を表示する。
 入力装置UI3は、作業者の入力操作を検出して上位装置1に出力する作業者インターフェースであり、例えば、マウス、キーボードまたはタッチパネル等を用いて構成されてよい。入力装置UI3は、スキャン動作および溶接動作の教示プログラムの作成に用いられるワークWkの溶接線の位置情報、溶接設定情報、スキャン設定情報、3Dモデル等の入力操作、あるいは作成済みのスキャン動作および溶接動作の教示プログラムのそれぞれの入力操作等を受け付ける。なお、ここでモニタMN3および入力装置UI3は、一体に構成された端末装置P3(例えば、PC、ノートPC、タブレット端末等)であってもよい。
 図2は、実施の形態1に係る検査制御装置3、ロボット制御装置2、上位装置1およびオフライン教示装置5の内部構成例を示す図である。説明を分かり易くするために、図2ではモニタMN1,MN2および入力インターフェースUI1の図示を省略する。なお、図2に示されるワークWkは、ビード外観検査の対象となるワークである。このワークWkは、本溶接により生産されたワークであってもよいし、リペア溶接により1回以上リペアされた所謂リペアワークであってもよい。また、図2に示す溶接ロボットMC1は、センサ4を備える構成であるが、センサ4は、他のロボット(例えば、外観検査を実行するための検査ロボット、リペア溶接を実行するためのリペア溶接ロボット等)に備えられてもよい。
 溶接ロボットMC1は、ロボット制御装置2の制御の下で、溶接トーチ400を用いた溶接動作の教示プログラムに基づく本溶接工程と、センサ4を用いたスキャン動作の教示プログラムに基づくビード外観検査工程等を実行する。また、溶接ロボットMC1は、溶接動作およびスキャン動作の教示プログラムの作成に使用されるワークWkの外観形状、およびこのワークWkに形成された溶接ビードの位置情報を取得するために、センサ4を用いたワークWkの外観をスキャンしてもよい。溶接ロボットMC1は、本溶接の工程において、例えばアーク溶接を行う。しかし、溶接ロボットMC1は、アーク溶接以外の他の溶接(例えば、レーザ溶接、ガス溶接)等を行ってもよい。この場合、図示は省略するが、溶接トーチ400に代わって、レーザヘッドを、光ファイバを介してレーザ発振器に接続してよい。溶接ロボットMC1は、マニピュレータ200と、ワイヤ送給装置300と、溶接ワイヤ301と、溶接トーチ400とを少なくとも含む構成である。
 マニピュレータ200は、多関節のアームを備え、ロボット制御装置2のロボット制御部25からの制御信号に基づいて、それぞれのアームを可動させる。これにより、マニピュレータ200は、ワークWkと溶接トーチ400との位置関係(例えば、ワークWkに対する溶接トーチ400の角度)、およびワークWkとセンサ4との位置関係をそれぞれアームの駆動によって変更できる。
 ワイヤ送給装置300は、ロボット制御装置2からの制御信号に基づいて、溶接ワイヤ301の送給速度を制御する。なお、ワイヤ送給装置300は、溶接ワイヤ301の残量を検出可能なセンサ(図示略)を備えてよい。ロボット制御装置2は、このセンサの出力に基づいて、本溶接の工程が完了したことを検出できる。
 溶接ワイヤ301は、溶接トーチ400に保持されている。溶接トーチ400に電源装置500から電力が供給されることで、溶接ワイヤ301の先端とワークWkとの間にアークが発生し、アーク溶接が行われる。なお、溶接トーチ400にシールドガスを供給するための構成等は、説明の便宜上、これらの図示および説明を省略する。
 上位装置1は、作業者により予め入力あるいは設定された溶接関連情報を用いて、本溶接、またはビード外観検査の各種の工程の実行指令を生成してロボット制御装置2に送信する。なお、上述したように、センサ4が溶接ロボットMC1に一体的に取り付けられている場合には、ビード外観検査の実行指令は、ロボット制御装置2および検査制御装置3の両方に送られる。上位装置1は、通信部10と、プロセッサ11と、メモリ12とを少なくとも含む構成である。
 通信部10は、ロボット制御装置2および外部ストレージSTのそれぞれとの間でデータの通信が可能に接続される。通信部10は、プロセッサ11により生成される本溶接、またはビード外観検査の各種の工程の実行指令をロボット制御装置2に送信する。通信部10は、ロボット制御装置2から送信される本溶接完了報告、外観検査報告を受信してプロセッサ11に出力する。なお、本溶接の実行指令には、例えば溶接ロボットMC1が備えるマニピュレータ200、ワイヤ送給装置300および電源装置500のそれぞれを制御するための制御信号が含まれてもよい。
 プロセッサ11は、例えばCPU(Central Processing Unit)またはFPGA(Field Programmable Gate Array)を用いて構成され、メモリ12と協働して、各種の処理および制御を行う。具体的には、プロセッサ11は、メモリ12に保持されたプログラムを参照し、そのプログラムを実行することにより、セル制御部13を機能的に実現する。
 メモリ12は、例えばプロセッサ11の処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、プロセッサ11の処理を規定したプログラムを格納するROM(Read Only Memory)とを有する。RAMには、プロセッサ11により生成あるいは取得されたデータが一時的に保存される。ROMには、プロセッサ11の処理を規定するプログラムが書き込まれている。また、メモリ12は、外部ストレージSTから読み出された溶接関連情報のデータ、ワークWkのステータス、ロボット制御装置2から送信されたワークWkのワーク情報(後述参照)のデータをそれぞれ記憶する。
 セル制御部13は、外部ストレージSTに記憶されている溶接関連情報に基づいて、本溶接、ワークWkのビード外観検査、ワークWkの外観スキャン、あるいはリペア溶接を実行するための実行指令を生成する。また、セル制御部13は、外部ストレージSTに記憶されている溶接関連情報と、オフライン教示装置5に作成され、ロボット制御装置2から送信された溶接動作およびスキャン動作の教示プログラムのそれぞれとに基づいて、本溶接時の本溶接プログラム、ワークWkのビード外観検査時の溶接ロボットMC1の駆動に関する外観検査用プログラム、または外観スキャン時の溶接ロボットMC1の駆動に関する外観スキャン用プログラム等を作成する。さらに、セル制御部13は、作成されたこれらのプログラムの実行指令を作成する。なお、外観検査用プログラムあるいは外観スキャン用プログラムのそれぞれは、予めワークWkごとに作成されて外部ストレージSTに保存されていてもよく、この場合には、セル制御部13は、外部ストレージSTから各種プログラムを読み出して取得する。セル制御部13は、溶接ロボットMC1で実行される本溶接の各種の工程ごとに異なる実行指令を生成してよい。セル制御部13によって生成された本溶接外観検査、外観スキャンの実行指令は、通信部10を介して、対応するロボット制御装置2、あるいはロボット制御装置2および検査制御装置3のそれぞれに送信される。
 ロボット制御装置2は、上位装置1から送信された本溶接、ビード外観検査、あるいは外観スキャンの実行指令に基づいて、対応するプログラムを参照する。ロボット制御装置2は、参照されたプログラムに基づいて、溶接ロボットMC1(例えば、センサ4、マニピュレータ200、ワイヤ送給装置300、電源装置500)を制御する。ロボット制御装置2は、通信部20と、プロセッサ21と、メモリ22とを少なくとも含む構成である。
 通信部20は、上位装置1、検査制御装置3、溶接ロボットMC1、およびオフライン教示装置5との間でそれぞれデータの通信が可能に接続される。なお、図2では図示を簡略化しているが、ロボット制御部25とマニピュレータ200との間、ロボット制御部25とワイヤ送給装置300との間、ならびに、電源制御部26と電源装置500との間で、それぞれ通信部20を介してデータの送受信が行われる。通信部20は、上位装置1から送信された本溶接、あるいはビード外観検査の実行指令を受信する。通信部20は、オフライン教示装置5から送信された溶接線の位置情報と、溶接動作の教示プログラムと、スキャン動作の教示プログラムとを受信する。通信部20は、本溶接により生産されたワークWkのワーク情報を上位装置1に送信する。
 ここで、ワーク情報には、ワークWkのIDだけでなく、本溶接に使用される元ワークのID、名前、溶接箇所、本溶接の実行時の溶接条件が少なくとも含まれる。
 プロセッサ21は、例えばCPUまたはFPGAを用いて構成され、メモリ22と協働して、各種の処理および制御を行う。具体的には、プロセッサ21は、メモリ22に保持されたプログラムを参照し、そのプログラムを実行することにより、本溶接プログラム作成部23、ロボット制御部25および電源制御部26を機能的に実現する。また、プロセッサ21は、本溶接プログラム作成部23により生成された本溶接プログラムに基づいて、ロボット制御部25により制御される溶接ロボットMC1(具体的には、マニピュレータ200、ワイヤ送給装置300および電源装置500のそれぞれ)を制御するためのパラメータの演算等を行う。
 メモリ22は、例えばプロセッサ21の処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ21の処理を規定したプログラムを格納するROMとを有する。RAMには、プロセッサ21により生成あるいは取得されたデータが一時的に保存される。ROMには、プロセッサ21の処理を規定するプログラムが書き込まれている。また、メモリ22は、上位装置1から送信された本溶接、あるいはビード外観検査の実行指令のデータ、本溶接により生産されるワークWkのワーク情報と溶接線の位置情報とを対応付けた溶接関連情報をそれぞれ記憶する。なお、オフライン教示装置5から溶接動作およびスキャン動作のそれぞれの教示プログラムが送信されたワークWkのワーク情報を含む溶接関連情報は、溶接動作およびスキャン動作のそれぞれの教示プログラムと、溶接動作およびスキャン動作のそれぞれの教示プログラムの作成に用いられた溶接線の位置情報と、溶接動作設定情報と、スキャン動作設定情報と、を含んでいてよい。
 本溶接プログラム作成部23は、通信部20を介して上位装置1から送信された本溶接の実行指令に基づいて、実行指令に含まれる複数の元ワークのそれぞれのワーク情報(例えばワークのID、名前、ワーク座標系、元ワークの情報、溶接線の位置情報等)と、これらのワーク情報に関連付けられた溶接動作の教示プログラムとを用いて、溶接ロボットMC1により実行される本溶接の本溶接プログラムを作成する。本溶接プログラムには、本溶接の実行中に電源装置500、マニピュレータ200、ワイヤ送給装置300、溶接トーチ400等を制御するための、溶接電流、溶接電圧、オフセット量、溶接速度、溶接トーチ400の姿勢等の各種のパラメータが含まれてよい。なお、本溶接プログラムは、プロセッサ21内に記憶されてもよいし、メモリ22内のRAMに記憶されてもよい。
 演算部24は、各種の演算を行う。例えば、演算部24は、本溶接プログラム作成部23により生成された溶接プログラムに基づいて、ロボット制御部25により制御される溶接ロボットMC1(具体的には、マニピュレータ200、ワイヤ送給装置300および電源装置500のそれぞれ)を制御するためのパラメータ等の演算を行う。
 ロボット制御部25は、本溶接プログラム作成部23により生成された本溶接プログラムに基づいて、溶接ロボットMC1(具体的には、センサ4、マニピュレータ200、ワイヤ送給装置300および電源装置500のそれぞれ)を駆動させるための制御信号を生成する。ロボット制御部25は、この生成された制御信号を溶接ロボットMC1に送信する。
 また、ロボット制御部25は、スキャン動作の教示プログラムを用いて作成された外観検査用プログラムに基づいて、溶接ロボットMC1のマニピュレータ200およびセンサ4のそれぞれを駆動させる。これにより、溶接ロボットMC1に取り付けられたセンサ4は、溶接ロボットMC1の動作に伴って移動し、ワークWkの溶接ビードをスキャンすることで溶接ビードの形状に関する入力データ(例えば溶接ビードの3次元形状を特定可能な点群データ)を取得したり、ワークWkを部分的にスキャンすることで他の外観検査箇所に対応するワークWkの部分的形状に関する入力データ(例えば他の外観検査箇所に対応するワークWkの3次元形状を特定可能な点群データ)を取得したりできる。
 電源制御部26は、本溶接プログラム作成部23により生成された本溶接プログラムの演算結果に基づいて、電源装置500を駆動させる。
 検査制御装置3は、上位装置1から送信されたビード外観検査の実行指令に基づいて、溶接ロボットMC1による本溶接により生産されたワークWk、あるいは1回以上のリペア溶接によりリペアされたワークWkのビード外観検査の処理を制御する。ビード外観検査は、例えば、ワークWkに形成された溶接ビードが既定の溶接基準(例えば、作業者のそれぞれにより要求される溶接の品質基準)を満たすか否かの検査であり、上述した検査判定により構成される。検査制御装置3は、センサ4により取得された溶接ビードの形状に関する入力データ(例えば、溶接ビードの3次元形状を特定可能な点群データ)に基づいて、ワークWkに形成された溶接ビードの外観形状が所定の溶接基準を満たすか否かを判定(検査)する。また、検査制御装置3は、センサ4により取得された溶接ビード、あるいはワークWkの形状に関する入力データをオフライン教示装置5に送信する。検査制御装置3は、通信部30と、プロセッサ31と、メモリ32と、検査結果記憶部33と、を少なくとも含む構成である。
 通信部30は、上位装置1、ロボット制御装置2、センサ4、およびオフライン教示装置5との間でそれぞれデータの通信が可能に接続される。なお、図2では図示を簡略化しているが、形状検出制御部35とセンサ4との間は、それぞれ通信部30を介してデータの送受信が行われる。通信部30は、上位装置1から送信されたビード外観検査の実行指令を受信する。通信部30は、センサ4を用いたビード外観検査の検査判定結果を上位装置1に送信したり、センサ4により取得された溶接ビードの3次元形状のデータをオフライン教示装置5に送信したりする。
 プロセッサ31は、例えばCPUまたはFPGAを用いて構成され、メモリ32と協働して、各種の処理および制御を行う。具体的には、プロセッサ31は、メモリ32に保持されたプログラムを参照し、そのプログラムを実行することにより、判定閾値記憶部34、形状検出制御部35、データ処理部36、検査結果判定部37、およびリペア溶接プログラム作成部38を機能的に実現する。
 メモリ32は、例えばプロセッサ31の処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ31の処理を規定したプログラムを格納するROMとを有する。RAMには、プロセッサ31により生成あるいは取得されたデータが一時的に保存される。ROMには、プロセッサ31の処理を規定するプログラムが書き込まれている。また、メモリ32は、オフライン教示装置5から送信されたスキャン動作の教示プログラムと、ワーク情報とを関連付けて記憶してもよい。
 検査結果記憶部33は、例えばハードディスクあるいはソリッドステートドライブを用いて構成される。検査結果記憶部33は、プロセッサ31により生成あるいは取得されるデータの一例として、ワークWk(例えばワークあるいはリペアワーク)における溶接箇所のビード外観検査の結果を示すデータを記憶する。このビード外観検査の結果を示すデータは、例えば検査結果判定部37(具体的には、検査結果判定部37に含まれる第1検査判定部371、第2検査判定部372~第N検査判定部37Nのいずれか)により生成される。
 判定閾値記憶部34は、例えばプロセッサ31内に設けられたキャッシュメモリにより構成され、作業者操作によって予め設定され、溶接箇所と、検査結果判定部37に含まれる第1検査判定部371,…,第N検査判定部37Nのそれぞれのビード外観検査の処理とに対応するそれぞれの閾値(例えば、溶接不良の種別ごとに設定されたそれぞれの閾値)の情報を記憶する。それぞれの閾値は、例えば溶接ビードの位置ずれの許容範囲、溶接ビードの長さ、高さ、幅のそれぞれの閾値、穴あき、ピット、アンダーカット、スパッタのそれぞれの閾値である。判定閾値記憶部34は、リペア溶接後のビード外観検査時の各閾値として、顧客等から要求される最低限の溶接基準(品質)を満たす許容範囲(例えば、最小許容値、最大許容値等)を記憶してよい。なお、これらの閾値は、検査結果判定部37に含まれる第1検査判定部371、第2検査判定部372~第N検査判定部37Nのそれぞれによって作成された検査結果がビード外観検査に合格であるか否かを判定する処理に用いられる。さらに、判定閾値記憶部34は、溶接箇所ごとにビード外観検査の回数上限値を記憶してもよい。これにより、検査制御装置3は、リペア溶接によって不良箇所を修正する際に所定の回数上限値を上回る場合に、溶接ロボットMC1による自動リペア溶接による不良箇所の修正が困難あるいは不可能と判定して、溶接システム100の稼動率の低下を抑制できる。
 形状検出制御部35は、上位装置1から送信されたワークWk(例えばワークあるいはリペアワーク)の溶接箇所のビード外観検査の実行指令に基づいて、センサ4により取得され、送信された溶接ビードの形状に関する入力データ(例えば溶接ビードの3次元形状を特定可能な点群データ)を取得する。また、形状検出制御部35は、上位装置1から送信されたワークWkの外観スキャンの実行指令に基づいて、センサ4により取得され、送信されたワークWkの形状に関する入力データ(例えばワークWkの3次元形状を特定可能な点群データ)を取得する。具体的に、形状検出制御部35は、上述したロボット制御装置2によるマニピュレータ200の駆動に応じてセンサ4が溶接ビードあるいはワークWkを撮像可能(言い換えると、溶接箇所あるいはワークWkの3次元形状を検出可能)な位置に到達すると、例えばレーザ光線をセンサ4から照射させて溶接ビードあるいはワークWkの形状に関する入力データを取得させる。形状検出制御部35は、センサ4により取得された入力データ(上述参照)を受信すると、この入力データをデータ処理部36に渡す。
 データ処理部36は、形状検出制御部35からの溶接ビードの形状に関する入力データ(上述参照)を取得すると、検査結果判定部37での第1検査判定用に適したデータ形式に変換するとともに、検査結果判定部37での第2検査判定用,…,第N検査判定用のそれぞれに適したデータ形式に変換する。データ形式の変換には、いわゆる前処理として、入力データ(つまり点群データ)に含まれる不要な点群データ(例えばノイズ)が除去される補正処理が含まれて構わないし、第1検査判定用には上述した前処理は省略されてもよい。データ処理部36は、第1検査判定用に適したデータ形式とし、例えば入力された形状データに対して統計処理を実行することで、溶接ビードの3次元形状を示す画像データを生成する。なお、データ処理部36は、第1検査判定用のデータとして、溶接ビードの位置および形状を強調するために溶接ビードの周縁部分を強調したエッジ強調補正を行ってもよい。なお、データ処理部36は、溶接不良の箇所ごとにビード外観検査の実行回数をカウントし、ビード外観検査の回数がメモリ32に予め記憶された回数を超えても溶接検査結果が良好にならない場合、自動リペア溶接による溶接不良の箇所の修正が困難あるいは不可能と判定してよい。この場合、検査結果判定部37は、溶接不良の箇所の位置および溶接不良の種別(例えば、穴あき、ピット、アンダーカット、スパッタ、突起)を含むアラート画面を生成し、生成されたアラート画面を、通信部30を介して上位装置1に送信する。上位装置1に送信されたアラート画面は、モニタMN1に表示される。なお、このアラート画面は、モニタMN2に表示されてもよい。
 データ処理部36は、判定閾値記憶部34に記憶されたビード外観検査用の閾値を用いて、センサ4により取得された溶接ビードの形状に関する入力データとワークごとに予め既定された良品ワークのマスタデータとの比較に基づくビード外観検査を行う。データ処理部36は、検査判定結果としての欠陥判定結果(つまり、リペア溶接が必要な欠陥の有無を示す情報)と、欠陥箇所ごとの欠陥区間の情報とを含む外観検査報告を作成して検査結果記憶部33に記憶するとともに、通信部30を介して上位装置1あるいはロボット制御装置2に送信する。また、データ処理部36は、検査対象であるワークWkにリペア溶接が必要な欠陥箇所がないと判定した場合、ビード外観検査に合格である旨の検査判定結果を含む外観検査報告を作成して検査結果記憶部33に記憶するとともに、通信部30を介して上位装置1に送信する。
 また、データ処理部36は、形状検出制御部35からワークWkの形状に関する入力データ(上述参照)を取得すると、オフライン教示装置5により実行される演算処理に適したデータ形式に変換する。データ形式の変換には、いわゆる前処理として、入力データ(つまり点群データ)に含まれる不要な点群データ(例えばノイズ)が除去される補正処理が含まれてもよいし、ワークWkの3Dモデルを生成する処理であってもよい。また、データ処理部36は、ワークWkの位置および形状を強調、ワークWkの周縁部分を強調したエッジ強調補正を行ってもよい。データ処理部36は、変換後のワークWkの形状に関する入力データを、通信部30を介して、オフライン教示装置5に送信する。
 検査結果判定部37は、合計N(N:2以上の整数)種類のビード外観検査(例えば、上述した第1検査判定および第2検査判定のそれぞれ)を実行可能である。具体的には、検査結果判定部37は、第1検査判定部371、第2検査判定部372~第N検査判定部37Nを有する。図2の説明を分かり易く簡易化するため、N=2として説明するが、N=3以上の整数であっても同様である。
 第1検査判定部371は、第1検査判定(つまり、センサ4により取得された溶接ビードの形状に関する入力データとワークごとに予め既定された良品ワークのマスタデータとの比較に基づくビード外観検査)を行い、溶接ビードの形状信頼性(例えば直線状あるいは曲線状の溶接線に沿っているか否か)、ビード欠け、およびビード位置ずれを検査する。第1検査判定部371は、第1検査判定用にデータ処理部36によってデータ変換されたデータ(例えば点群データに基づいて生成された画像データ)と良品ワークのマスタデータとの比較(いわゆる画像処理)を行う。このため、第1検査判定部371は、溶接ビードの形状信頼性、ビード欠け、およびビード位置ずれを高精度に検査することができる。第1検査判定部371は、溶接ビードの形状信頼性、ビード欠けおよびビード位置ずれの検査結果を示す検査スコアを算出し、この検査スコアの算出値を第1検査結果として作成する。さらに、第1検査判定部371は、作成された第1検査結果とメモリ32に記憶された第1検査結果用の閾値とを比較する。第1検査判定部371は、比較した比較結果の情報(つまり、取得された第1検査結果がビード外観検査に合格あるいは不合格であるか)を含む第1検査結果を第2検査判定部372~第N検査判定部37Nに出力する。
 第2検査判定部372~第N検査判定部37Nは、第2検査判定(つまり、(N-1)種類の人工知能によるニューラルネットワークをそれぞれ形成し、センサ4により取得された溶接ビードの形状に関する入力データ、あるいはその入力データがデータ処理部36によって前処理された後の入力データを対象としたAIに基づく溶接不良の有無を判別するビード外観検査)を行い、溶接ビードの穴あき、ピット、アンダーカット、スパッタ、突起の有無を検査する。溶接ビードの穴あき、ピット、アンダーカット、スパッタ、突起はあくまで例示的に列挙されたものであり、第N検査判定部37Nにより検査される不良種別はこれらに限定されない。第2検査判定部372~第N検査判定部37Nのそれぞれは、該当する種別の溶接不良を検知したと判定した場合には、その溶接不良が検知された溶接ビードの位置を特定する。第2検査判定部372~第N検査判定部37Nのそれぞれは、事前に溶接不良の種別ごとあるいは溶接不良の種別のグループごとに学習処理によって得られた学習モデル(AI)を用いて、それぞれの溶接不良の有無を判別する。これにより、第2検査判定部372~第N検査判定部37Nのそれぞれは、例えば溶接ビードの穴あき、ピット、アンダーカット、スパッタ、突起の有無を高精度に検査することができる。なお、第2検査判定部372~第N検査判定部37Nのそれぞれは、第1検査判定部371で実行される溶接ビードの形状信頼性、ビード欠け、およびビード位置ずれの検査は実行しない。第2検査判定部372~第N検査判定部37Nは、溶接ビードの穴あき、ピット、アンダーカット、スパッタ、突起の検査結果(言い換えると、発生確率を示す検査スコア)を算出し、この検査スコアの算出値を第2検査判定結果として作成する。
 なお、検査結果判定部37は、上述した第1検査結果あるいは第2検査結果に含まれる検査結果(検査スコア)に基づいて、溶接ロボットMC1によるリペア溶接が可能であるか否か(言い換えると、溶接ロボットMC1によるリペア溶接がよいか、あるいは人手によるリペア溶接がよいか)を判定し、その判定結果を上述した外観検査報告に含めて出力してよい。
 リペア溶接プログラム作成部38は、データ処理部36によるワークWkの外観検査報告を用いて、溶接ロボットMC1により実行されるべきワークWkのリペア溶接プログラムを作成する。リペア溶接プログラムには、リペア溶接の実行中に電源装置500、マニピュレータ200、ワイヤ送給装置300、溶接トーチ400等を制御するための、溶接電流、溶接電圧、オフセット量、溶接速度、溶接トーチ400の姿勢等の各種のパラメータが含まれてよい。なお、生成されたリペア溶接プログラムは、プロセッサ31内に記憶されてもよいし、メモリ32内のRAMに記憶されてもよいし、外観検査報告と対応付けられて通信部30を介して上位装置1あるいはロボット制御装置2に送られてもよい。
 リペア溶接プログラム作成部38は、検査結果判定部37によるワークWk(例えばワークあるいはリペアワーク)の外観検査報告とワーク情報(例えばワークあるいはリペアワークの溶接不良の検出点の位置を示す座標等の情報)とを用いて、溶接ロボットMC1により実行されるべきワークWk(例えばワークあるいはリペアワーク)のリペア溶接プログラムを作成する。リペア溶接プログラムには、リペア溶接の実行中に電源装置500、マニピュレータ200、ワイヤ送給装置300、溶接トーチ400等を制御するための、溶接電流、溶接電圧、オフセット量、溶接速度、溶接トーチ400の姿勢等の各種のパラメータが含まれてよい。なお、生成されたリペア溶接プログラムは、プロセッサ31内に記憶されてもよいし、メモリ32内のRAMに記憶されてもよい。
 センサ4は、例えば3次元形状センサであり、溶接ロボットMC1の先端に取り付けられ、ワークWkあるいはワークWk上の溶接箇所の形状を特定可能な複数の点群データを取得する。センサ4は、取得された点群データに基づいて、溶接箇所の3次元形状を特定可能な点群データを生成して検査制御装置3に送信する。なお、センサ4は、溶接ロボットMC1の先端に取り付けられておらず、溶接ロボットMC1とは別個に配置されている場合には、検査制御装置3から送信されたワークWkあるいは溶接箇所の位置情報に基づいて、ワークWkあるいはワークWk(例えば、ワークあるいはリペアワーク)上の溶接箇所を走査可能に構成されたレーザ光源(図示略)と、ワークWkあるいは溶接箇所の周辺を含む撮像領域を撮像可能に配置され、ワークWkあるいは溶接箇所に照射されたレーザ光のうち反射されたレーザ光の反射軌跡(つまり、溶接箇所の形状線)を撮像するカメラ(図示略)と、により構成されてよい。この場合、センサ4は、カメラにより撮像されたレーザ光に基づくワークWkあるいは溶接箇所の形状データ(言い換えると、ワークWkあるいは溶接ビードの画像データ)を検査制御装置3に送信する。なお、上述したカメラは、少なくともレンズ(図示略)とイメージセンサ(図示略)とを有して構成される。イメージセンサは、例えばCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semi-conductor)等の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。
 オフライン教示装置5は、ロボット制御装置2、検査制御装置3、モニタMN3、および入力装置UI3との間でそれぞれデータ通信可能に接続される。オフライン教示装置5は、入力装置UI3から送信された溶接線の位置情報に基づいて、ワークWkのスキャン動作の教示プログラムを作成する。なお、オフライン教示装置5は、入力装置UI3から送信された溶接線の位置情報と、溶接動作設定情報、スキャン動作設定情報等の各種データとに基づいて、ワークWkの教示プログラムを作成してもよい。オフライン教示装置5は、通信部50と、プロセッサ51と、メモリ52と、入出力部53と、を含んで構成される。
 なお、実施の形態1におけるオフライン教示装置5は、溶接動作およびスキャン動作の教示プログラムのそれぞれを作成する例について説明するが、溶接動作の教示プログラムの作成は必須でなく、省略されてもよい。オフライン教示装置5は、センサ4を備え、このセンサ4によりスキャン動作(つまり、ビード外観検査)を実行可能なロボット用のスキャン動作の教示プログラムを作成可能であればよい。
 通信部50は、ロボット制御装置2、検査制御装置3、入力装置UI3、およびモニタMN3との間でそれぞれデータの通信が可能に接続される。通信部50は、作成された溶接動作およびスキャン動作のそれぞれの教示プログラムと、溶接動作およびスキャン動作の教示プログラムのそれぞれの作成に用いられた各種データ(例えば、溶接線の位置情報、溶接動作設定情報、スキャン動作設定情報、ワークWkのワーク情報等)とを関連付けて、ロボット制御装置2に送信する。
 プロセッサ51は、例えばCPUまたはFPGAを用いて構成され、メモリ52と協働して、各種の処理および制御を行う。具体的には、プロセッサ51は、メモリ52に保持されたプログラム,学習モデル等を参照し、そのプログラムを実行することにより、3D演算部54およびプログラム作成部55を機能的に実現する。
 メモリ52は、例えばプロセッサ51の処理を実行する際に用いられるワークメモリとしてのRAMと、プロセッサ51の処理を規定したプログラムを格納するROMとを有する。RAMには、プロセッサ51により生成あるいは取得されたデータが一時的に保存される。ROMには、プロセッサ51の処理を規定するプログラムが書き込まれている。また、メモリ52は、プログラム作成部55により作成された溶接動作の教示プログラムと、スキャン動作の教示プログラムと、ワーク情報とを関連付けて記憶する。なお、メモリ52は、溶接動作の教示プログラム、およびスキャン動作の教示プログラムのそれぞれを作成するための学習モデル,学習データを記憶していてもよい。
 学習モデルは、RAMおよびROMなどによる半導体メモリと、SSD(Solid State Drive)あるいはHDD(Hard Disk Drive)等のストレージデバイスのうちいずれかを含む記憶デバイスを有する。
 学習モデルは、例えばプロセッサ51が実行する溶接動作の教示プログラム、およびスキャン動作の教示プログラムのそれぞれを生成するための学習データ、過去に作成された溶接動作の教示プログラム、およびスキャン動作の教示プログラムのそれぞれの作成時の作業者操作に基づく編集情報,設定情報等を記憶する。
 学習モデルは、溶接動作設定情報に基づいて、溶接動作あるいはスキャン動作(つまり、センサ4の動作軌跡,スキャン区間,スキャン有効領域等)を自動生成する。なお、学習モデルは、過去に作成された溶接動作の教示プログラム、およびスキャン動作の教示プログラムのそれぞれの作成時の作業者操作に基づく編集情報,設定情報等に基づいて、溶接動作の教示プログラム、およびスキャン動作の教示プログラムのそれぞれを生成するための教師データ(学習データ)を生成してもよい。
 なお、教師データを生成するための学習は、1つ以上の統計的分類技術を用いて行っても良い。統計的分類技術としては、例えば、線形分類器(Linear Classifiers)、サポートベクターマシン(Support Vector Machines)、二次分類器(Quadratic Classifiers)、カーネル密度推測(Kernel Estimation)、決定木(Decision Trees)、人工ニューラルネットワーク(Artificial Neural Networks)、ベイジアン技術および/またはネットワーク(Bayesian Techniques and/or Networks)、隠れマルコフモデル(Hidden Markov Models)、バイナリ分類子(Binary Classifiers)、マルチクラス分類器(Multi-Class Classifiers)、クラスタリング(Clustering Technique)、ランダムフォレスト(Random Forest Technique)、ロジスティック回帰(Logistic Regression Technique)、線形回帰(Linear Regression Technique)、勾配ブースティング(Gradient Boosting Technique)等が挙げられる。但し、使用される統計的分類技術はこれらに限定されない。
 入力部および取得部の一例としての入出力部53は、入力装置UI3から送信された実行指令、ワークWkの3Dモデル、溶接動作設定情報およびスキャン動作設定情報のそれぞれと、ロボット制御装置2、検査制御装置3、あるいは入力装置UI3から送信された溶接線の位置情報とを取得して、プロセッサ51に出力する。また、入出力部53は、3D演算部54により生成された仮想的な生産設備(例えば、仮想溶接ロボット、仮想ワーク、仮想ステージ等)の画像、オフライン教示装置5から送信された仮想的な生産設備の画像上にセンサ4の動作軌跡あるいは溶接トーチ400の動作軌跡等を重畳した画像をモニタMN3に送信する。
 生成部の一例としての3D演算部54は、例えば、ワークWkあるいは溶接ビードの形状に関する入力データ(つまり、3次元形状のデータ)、ワークWkの3Dモデルのデータ、ワークWkのワーク情報、生産設備に関するデータ(例えば、ステージの位置情報、治具の位置情報、溶接ロボットMC1のロボット情報あるいは位置情報)等に基づいて、ワークWkの本溶接工程あるいは外観検査工程のそれぞれを実行するために必要な生産設備を仮想的に構築する。3D演算部54は、仮想的に構築された生産設備のデータを画像データに変換して入出力部53に出力し、モニタMN3に表示させる。
 また、3D演算部54は、仮想空間上に、少なくとも1つの溶接線の位置情報と、この溶接線をスキャンするセンサ4のスキャン有効領域とを、仮想的な生産設備上に重畳した教示補助画面(画像データ)を生成する。なお、3D演算部54は、プログラム作成部55により作成された溶接動作の教示プログラムを取得可能である場合には、この溶接動作の教示プログラムに含まれる1つ以上の教示点、溶接トーチ400の動作軌跡(具体的には、補助スキャン区間、溶接区間等)等を仮想的に生産設備上に重畳した教示補助画面(画像データ)を生成してもよい。
 3D演算部54は、プログラム作成部55により作成されたスキャン動作の教示プログラムに含まれる1つ以上の教示点、センサ4の動作軌跡(具体的には、アプローチ動作、リトラクト動作、回避動作等の各種動作を示す動作軌跡、補助スキャン区間、スキャン区間等)等を仮想的な生産設備上に重畳した教示補助画面(画像データ)を生成する。3D演算部54は、各種教示プログラムに含まれるデータが重畳された仮想的な生産設備のデータを画像データに変換して入出力部53に出力し、モニタMN3に表示させる。なお、3D演算部54は、溶接動作およびスキャン動作の教示プログラムのそれぞれ、あるいは、生産設備に関する各種データおよび溶接線の位置情報等に基づいて、溶接動作あるいはスキャン動作のそれぞれの教示点、溶接トーチ400あるいはセンサ4の動作軌跡(具体的には、補助スキャン区間、溶接区間、スキャン区間等)等をまとめて仮想的な生産設備上に重畳した教示補助画面(画像データ)を生成してもよい。
 制御部および算出部の一例としてのプログラム作成部55は、溶接線の位置情報(例えば、ワークWkの3Dモデルのデータ、ワークWkあるいは溶接ビードの形状に関する入力データ、溶接線の開始点および終了点のそれぞれの座標情報)、溶接動作設定情報、スキャン動作設定情報等に基づいて、溶接動作の教示プログラムおよびスキャン動作のそれぞれの教示プログラムを作成する。また、プログラム作成部55は、入力された各種情報と、メモリ52に記憶された学習モデル,数理計画法等のアルゴリズム等とを用いて、溶接動作の教示プログラムおよびスキャン動作のそれぞれの教示プログラムを作成してもよい。プログラム作成部55は、溶接動作作成部551と、スキャン動作作成部552とを含んで構成される。
 溶接動作作成部551は、入力された溶接線の位置情報と、溶接動作設定情報とに基づいて、ワークWkに本溶接工程を実行するための溶接動作の教示プログラムを作成する。また、ここでいう溶接動作設定情報は、本溶接の各種溶接条件、溶接開始前および溶接終了後のそれぞれの溶接トーチ400の退避位置等の溶接動作に必要な各種パラメータ群であればよい。
 スキャン動作作成部552は、入力された少なくとも溶接線の位置情報に基づいて、ワークWk上に生成された溶接ビードあるいは他の外観検査箇所の外観検査工程を実行するためのスキャン動作の教示プログラムを作成する。なお、スキャン動作作成部552は、入力された溶接動作の動作軌跡、3Dモデル、3Dモデル上に配置された1つ以上のスキャン有効領域のそれぞれ、スキャン動作設定情報等に基づいて、ワークWk上に生成された溶接ビードあるいは他の外観検査箇所の外観検査工程を実行するためのスキャン動作の教示プログラムを作成してもよい。
 なお、ここでいうスキャン動作設定情報は、センサ4とワークWkとの間の距離、センサ4の情報(例えば、スキャン有効範囲AR0(図3参照)、スキャン有効領域AR1(図4参照)等)、測定レンジ、アプローチ情報(例えば、アプローチ開始位置およびアプローチ終了位置の情報、アプローチを指示する指示情報等)、スキャンの助走(空走)区間、スキャン区間、リトラクト情報(例えば、リトラクト開始位置およびリトラクト終了位置の情報、リトラクトを指示する指示情報等)、回避情報(例えば、回避開始位置および回避終了位置の情報、回避すべき障害物である元ワーク、治具等の位置情報)等の溶接ビード、あるいは他の外観検査対象のスキャン動作に必要な各種パラメータ群であればよい。
 ここで、溶接線の位置情報の取得例について説明する。なお、以下で説明する溶接線の位置情報の取得例は一例であって、これに限定されないことは言うまでもない。
 オフライン教示装置5は、ロボット制御装置2、あるいは端末装置P3から送信されたワークWkの溶接動作の教示プログラム、本溶接プログラム、溶接動作の動作軌跡の情報等を取得し。これらのプログラムあるいは情報に含まれるワークWkの溶接線の位置情報を取得する。
 オフライン教示装置5は、端末装置P3から送信されたワークWkの3Dモデルに基づいて、この3Dモデルに紐付けられた溶接線データから溶接線の位置情報を取得してもよい。また、オフライン教示装置5は、端末装置P3から送信されたワークWkの3Dモデルに溶接線データが紐付けられていない場合、3Dモデルの3次元形状に基づいて、溶接線の位置情報を取得してもよい。例えば、オフライン教示装置5は、ワークWkを構成する2つ以上の元ワークの面形状に基づいて、これらの元ワークの面同士が交差する交差点あるいは接触する接触点を溶接線の位置情報として取得する。
 オフライン教示装置5は、センサ4によりワークWkあるいはワークWkに形成された溶接ビードをスキャンして取得されたスキャンデータ(例えば、メッシュデータ)に基づいて、溶接線の位置情報を取得してもよい。また、オフライン教示装置5は、ティーチペンダント(不図示)を用いた教示により溶接線の位置情報を取得してもよい。
 ここで、図3および図4のそれぞれを参照して、センサ4のスキャン有効領域について説明する。図3は、センサのスキャン有効範囲AR0の一例を説明する図である。図4は、センサ4のスキャン有効領域AR1の一例を説明する図である。なお、図3に示すスキャン有効範囲AR0、および図4に示すスキャン有効領域AR1のそれぞれは、一例であってこれに限定されないことは言うまでもない。
 図3に示すスキャン有効範囲AR0は、センサ4がYZ平面上で対象物(例えば、ビード外観検査対象である溶接ビード等)の3次元形状をスキャン可能な範囲である。センサ4は、溶接ロボットMC1のマニピュレータ200の駆動により進行方向に移動されることで、図4に示すスキャン有効領域AR1内に位置する対象物の3次元形状をスキャンして取得する。
 オフライン教示装置5は、スキャン動作の教示プログラムの作成対象であるワークWkの溶接線の位置情報と、生産設備に関する情報と、センサ4のスキャン有効範囲AR0の情報(例えば、センサ4とスキャン有効範囲AR0と間の距離情報、スキャン有効範囲AR0の範囲情報等の3次元の情報)と、を取得する。オフライン教示装置5は、取得された溶接線の位置情報と、センサ4のスキャン有効範囲AR0とに基づいて、溶接線をスキャンするスキャン有効領域AR1を生成する。具体的に、オフライン教示装置5は、スキャン有効範囲AR0を任意の位置方向に延伸させて、少なくとも1本の溶接線の位置情報を一部含み、センサ4が読み取り可能なスキャンされるスキャン有効領域AR1を生成する。図4に示す例では、スキャン有効範囲AR0は、センサ4によりスキャン有効範囲AR0から-X方向にスキャン区間SR1だけ延伸させたスキャン有効範囲AR01までの領域が読み取り可能であることを示す。
 なお、スキャン有効領域AR1の生成処理は、作業者操作に基づいて、実行されてもよい。また、オフライン教示装置5は、生成されたスキャン有効領域AR1にコピー,削除,部分削除,移動,回転等の編集操作を受け付けてもよいし、スキャン有効領域AR1のスキャン区間SR1の長さの調整等の編集操作を受け付けてもよい。なお、スキャン有効領域AR1の編集処理については、後述する。
 オフライン教示装置5は、ロボット制御装置2、検査制御装置3、あるいは入力装置UI3のそれぞれから、新たなスキャン動作の教示プログラムの作成対象であるワークWkの溶接動作、3Dモデルのデータ等を取得してもよい。
 次に、図5を参照して、実施の形態1におけるオフライン教示装置5の動作手順について説明する。図5は、実施の形態1におけるオフライン教示装置5の動作手順例を示すフローチャートである。
 オフライン教示装置5は、作業者操作あるいはロボット制御装置2から送信されたワークWkの溶接線の位置情報を取得し、読み込む(St1)。
 なお、オフライン教示装置5は、端末装置P3から送信されたワークWkの3Dモデルに基づいて、この3Dモデルに紐付けられた溶接線データから溶接線の位置情報を取得してもよい。また、オフライン教示装置5は、端末装置P3から送信されたワークWkの3Dモデルに溶接線データが紐付けられていない場合、3Dモデルの3次元形状に基づいて、溶接線の位置情報を取得してもよい。例えば、オフライン教示装置5は、ワークWkを構成する2つ以上の元ワークの面形状に基づいて、これらの元ワークの面同士が交差する交差点あるいは接触する接触点を溶接線の位置情報として取得してもよい。また、ステップSt1で取得される情報は、溶接線の位置情報を含む情報であればよく、例えば溶接動作設定情報、スキャン動作設定情報等の情報であってもよい。
 オフライン教示装置5は、作業者操作あるいはロボット制御装置2から送信された生産設備に関する情報(例えば、生産設備の位置情報,座標系の情報等)を取得し、仮想空間にワークWkの外観検査を行う生産設備(例えば、溶接ロボット,検査ロボット,治具,ワークWk,ステージ等)を仮想空間(3次元空間)に構築し、構築された生産設備上に溶接線を表示する(St2)。これにより、オフライン教示装置5は、作業者が生産設備(例えば、溶接ロボット,検査ロボット,ステージ,治具等)あるいはワークWkと溶接線との位置関係を、2次元(平面)あるいは3次元(立体)で視覚的に確認可能にする。
 オフライン教示装置5は、溶接線の位置情報、あるいは溶接動作の教示プログラム等を用いて、スキャン動作(例えば、スキャン区間,スキャン区間に対応するセンサ4の動作軌跡,溶接ビードをスキャンする際の各種動作(例えば、空走、アプローチ、リトラクト、回避、スキャン等)等)のひな形を自動的に生成する(St3)。
 例えば、オフライン教示装置5は、1本の溶接線の位置情報に基づいて、溶接区間の開始点(端点)と終了点(端点)とを結ぶスキャン区間を作成する。また、オフライン教示装置5は、溶接動作の教示プログラムに基づいて、作成されたスキャン区間をスキャンするセンサ4の角度を溶接トーチ400と同じ角度に設定したり、生産設備の位置,ワークWkの位置および形状等に基づいて、各溶接線に対応して形成された溶接ビードをスキャン可能な角度に設定したり、事前に設定された情報(例えば、最小空走距離等)に基づいて、溶接ビードをスキャンする際の各種動作(例えば、アプローチ、リトラクト、回避、スキャン等)を実行するためのセンサ4の位置、距離、角度(姿勢)の情報を設定したりする。また、オフライン教示装置5は、2つ以上のスキャン区間が作成された場合、溶接トーチ400の動作軌跡、あるいは溶接線の溶接順序と、これらのスキャン区間のそれぞれをスキャンするスキャン順序,スキャン方向(センサ4の動作軌跡)とが同じになるように設定したりする。なお、上述した設定例は、一例であってこれに限定されないことは言うまでもない。
 オフライン教示装置5は、生成されたスキャン動作のひな形に基づいて、このスキャン動作のひな形を用いて作成されるスキャン動作の教示プログラムで教示されるセンサ4のスキャン有効領域,スキャン領域,補助スキャン領域,スキャン領域が互いに重複する重複領域,センサ4の動作軌跡等を可視化し、作業者によるオフライン教示装置5を用いたスキャン教示作業を補助するための視覚要素,統計情報を更新した教示補助画面を生成する(St4)。オフライン教示装置5は、生成された教示補助画面をモニタMN3に出力して表示させる。
 なお、ここでいう視覚要素は、仮想的な生産設備(例えば、溶接ロボット,検査ロボット,ステージ,治具等),ワークWk,溶接線,スキャン有効領域等の画像であって、生産設備,ワークWk,あるいは溶接線とスキャン有効領域との位置関係を仮想空間(3次元空間)上に可視化した画像である。
 オフライン教示装置5は、図7に示す溶接線WS11,WS12とスキャン区間SS11,SS12のそれぞれとの位置関係、およびスキャン動作軌跡(スキャン動作方向)を示す矢印、図8に示す平面表示された溶接線WS11,WS12とスキャン有効領域AR11,AR12のそれぞれとの位置関係、および立体表示された溶接線WS12とスキャン有効領域AR12の位置関係等を仮想空間(3次元空間)上で可視化した教示補助画面を生成する。これにより、作業者は、生成されたスキャン動作のひな形を用いてスキャン動作の教示プログラムが作成された場合、各スキャン有効領域により溶接線に対応して形成される溶接ビードを外観検査可能であるか否か、生産設備あるいはワークWkとセンサ4との衝突,干渉があるか否か等を確認することができる。
 また、ここでいう統計情報は、スキャン動作の教示プログラムに従ってスキャン動作を実行した場合のセンサ4の各種動作(例えば、空走、アプローチ、リトラクト、回避、スキャン等)に関する情報であって、例えばすべての溶接ビードをスキャンした場合のスキャン時間、あるいはアプローチ,リトラクト,回避等の空走時間等である。なお、ここでいう空走時間は、スキャン実行時以外の時間であって、待機時間等の非スキャン時間を含んでよい。
 オフライン教示装置5は、例えば図7に示すスキャン区間SS11とスキャン区間SS12とをスキャンするスキャン時間「4.35秒」と、これらのスキャン区間SS11,SS12のそれぞれの空走区間(不図示)を移動する移動時間である空走時間「2.06秒」とを含む統計情報STA1(図8参照)を含む教示補助画面SC3,SC4を生成する。これにより、作業者は、生成されたスキャン動作のひな形を用いてスキャン動作の教示プログラムが作成された場合に、統計情報を生産性の指標として利用できる。
 オフライン教示装置5は、教示補助画面により可視化された現在のスキャン動作(つまり、スキャン区間,スキャン有効領域等の設定)が作業者の要求を満たすスキャン動作であるか否かを判定する(St5)。
 オフライン教示装置5は、ステップSt5の処理において、入力装置UI3から送信されたスキャン動作の教示プログラムの作成ボタンの選択(押下)操作を示す制御指令を取得した場合、作業者の要求を満たすスキャン動作であると判定し(St5,YES)、現在モニタMN3に表示されている教示補助画面が示すスキャン有効領域,スキャン領域をセンサ4にスキャンさせるスキャン動作の教示プログラムを作成する(St6)。オフライン教示装置5は、作成されたスキャン動作の教示プログラムと、ワークIDとを対応付けてロボット制御装置2に送信する(St6)。
 一方、オフライン教示装置5は、ステップSt5の処理において、入力装置UI3から送信されたスキャン動作の教示プログラムの編集,修正ボタンの選択(押下)操作を示す制御指令を取得した場合、作業者の要求を満たすスキャン動作でないと判定し(St5,NO)、スキャン動作に関する作業者操作(例えば、スキャン有効領域の編集操作であって、スキャン有効領域の複製,削除,部分削除,移動,回転,分割,結合等)を受け付ける(St7)。なお、ここで行われる作業者操作に基づくスキャン動作の生成処理については、後述する。
 オフライン教示装置5は、ステップSt7の処理の後、作業者操作により編集されたスキャン動作に基づいて、このスキャン動作を用いて作成されるスキャン動作の教示プログラムでスキャンされるスキャン有効領域,スキャン区間等を可視化し、作業者によるオフライン教示装置5を用いたスキャン教示作業を補助するための視覚要素,統計情報を更新した教示補助画面を再度生成し、モニタMN3に表示させる(St4)。
 以上により、実施の形態1におけるオフライン教示装置5は、溶接線に対するスキャン動作を仮想空間(3次元空間)上で可視化することにより、作業者によるスキャン動作の教示、およびスキャン動作の教示プログラムの作成をより効率的に支援できる。また、オフライン教示装置5は、溶接線とスキャン有効領域とを可視化することで、すべての溶接線がスキャン有効領域内に含まれているか否かを確認可能にする。また、オフライン教示装置5は、生産設備,仮想空間でワークWkとスキャン動作とを可視化することにより、スキャン動作時に生産設備、ワークWkとセンサ4との間で干渉,衝突するか否かを一目で確認可能にする。
 次に、図6を参照して、ステップSt2の処理で生成される教示補助画面SC1について説明する。図6は、教示補助画面SC1における生産設備および溶接線WS11,WS12の表示例を説明する図である。なお、図6に示す教示補助画面SC1は、ワークWk,治具,ステージ等の他の生産設備の図示を省略している例を示しており、これに限定されないことは言うまでもない。
 教示補助画面SC1は、生産設備である溶接ロボットMC1,外観検査対象であるワークWkと溶接線との位置関係を仮想空間(3次元空間)上で可視化する画面であって、オフライン教示装置5における3D演算部54により生成され、モニタMN2に出力されて表示される。図6に示す教示補助画面SC1は、仮想空間に溶接ロボットMC1に対応する生産設備である仮想溶接ロボットVMC1を構築し、溶接線の位置情報に基づいて、仮想溶接ロボットVMC1(つまり、溶接ロボットMC1)により溶接される2本の溶接線WS11,WS12のそれぞれを表示する。
 仮想溶接ロボットVMC1は、ロボットアームの先端にセンサ4に対応する仮想センサV4が構築される。仮想ロボット座標系ΣVMC1は、仮想溶接ロボットVMC1の座標系であって、溶接ロボットMC1に基づく座標系である。また、仮想センサ座標系ΣV4は、仮想センサV4の座標系であって、センサ4に基づく座標系である。
 次に、図7を参照して、ステップSt3の処理で生成される教示補助画面SC2について説明する。図7は、教示補助画面SC2における溶接線WS11,WS12およびスキャン区間SS11,SS12の表示例を説明する図である。なお、教示補助画面SC2は、2本の溶接線WS11,WS12のそれぞれと、2本の溶接線WS11,WS12のそれぞれに対応して自動生成されたスキャン区間SS11,SS12のそれぞれとの説明を分かりやすくするために要部のみを切り出し、仮想溶接ロボットVMC1の図示を省略している。また、図7に示す教示補助画面SC2は、一例であって、これに限定されないことは言うまでもない。
 溶接線WS11は、開始点ST11から終了点ED11までを溶接する溶接線である。溶接線WS12は、開始点ST12から終了点ED12までを溶接する溶接線である。
 スキャン区間SS11は、溶接線WS11をスキャンするためのスキャン区間であって、溶接線WS11の位置情報に基づいて、スキャン動作作成部552により生成される。図7に示すスキャン区間SS11は、溶接線WS11の端点(開始点ST11)と、溶接線WS11の端点(終了点ED11)とを含む区間である。スキャン区間SS1が示す矢印は、センサ4の動作軌跡を示し、センサ4が溶接線WS11の端点(開始点ST11)から溶接線WS11の端点(終了点ED11)に移動して溶接ビードをスキャンすることを示す。
 スキャン区間SS12は、溶接線WS12をスキャンするためのスキャン区間であって、溶接線WS12の位置情報に基づいて、スキャン動作作成部552により生成される。図7に示すスキャン区間SS12は、溶接線WS12の端点(開始点ST12)と、溶接線WS12の端点(終了点ED12)とがスキャン有効領域に含まれる区間であって、センサ4が溶接線WS12の端点(開始点ST12)から溶接線WS12の端点(終了点ED12)に移動して溶接ビードをスキャンする区間である。
 次に、図8を参照して、ステップSt4の処理で生成される教示補助画面SC3について説明する。図8は、教示補助画面SC3,SC4における統計情報STA1およびスキャン有効領域の一例を説明する図である。なお、以降の説明における教示補助画面は、説明を分かりやすくするために、溶接線と、センサ4のスキャン有効領域とを図示し、生産設備等の図示を省略する。また、図8に示す教示補助画面SC3,SC4は、一例であって、これに限定されないことは言うまでもない。
 オフライン教示装置5は、現在のスキャン動作のひな形に基づいて、各スキャン有効領域でのスキャン時間,空走時間等をそれぞれ計測して統計情報STA1を生成する。また、オフライン教示装置5は、現在のスキャン動作のひな形に基づいて、仮想の生産設備,ワークWk,溶接線,およびスキャン有効領域等を含む視覚要素としての仮想空間(3次元空間)を構築する。オフライン教示装置5は、統計情報STA1と仮想空間(3次元空間)とを用いて、生産設備,ワークWk,溶接線,およびスキャン有効領域を立体的に表示する教示補助画面SC3,SC4を生成する。
 オフライン教示装置5は、入力装置UI3を介して作業者操作を受け付け可能であって、作業者操作に基づいて、生産設備,ワークWk,溶接線およびスキャン有効領域等が構築された仮想空間(3次元空間)を回転させた教示補助画面SC3,SC4を生成する。つまり、オフライン教示装置5は、作業者操作に基づく仮想空間を回転させることで、溶接線とスキャン有効領域とを2次元で可視化した教示補助画面SC3を生成したり、溶接線とスキャン有効領域とを3次元で可視化した教示補助画面SC4を生成したりすることで、あらゆる角度から溶接線とスキャン有効領域との位置関係を目視で確認可能にする。これにより、作業者は、生産設備,ワークWk,溶接線あるいはスキャン有効領域の位置関係を一目で確認することができる。
<スキャン有効領域の分割処理>
 次に、図9を参照して、ステップSt7の処理で実行されるスキャン動作の編集処理の一例について説明する。図9は、スキャン有効領域の分割処理例1を説明する図である。
 例えば、図9に示す例において、溶接線WS21は、開始点ST21から終了点ED21までを溶接する溶接区間を示す。このような溶接線WS21に対して、オフライン教示装置5は、溶接線WS21の開始点ST21と終了点ED21とを通るスキャン区間SS21と、スキャン動作のひな形として、開始点ST21から終了点ED21に向かうスキャン動作軌跡と、スキャン有効領域AR21とを生成する。
 オフライン教示装置5は、入力装置UI3を介して、現在のスキャン動作のひな形の編集を要求する制御指令を受け付けた場合、作業者操作に基づくスキャン動作のひな形の編集を実行する。
 オフライン教示装置5は、作業者操作により、スキャン有効領域AR21を分割する分割点PT21が入力された場合、この分割点PT21でスキャン有効領域AR21を2分割した2つのスキャン有効領域AR22,AR23のそれぞれを生成する。具体的に、オフライン教示装置5は、溶接線WS21の開始点ST21と分割点PT21とを含むスキャン有効領域AR22と、溶接線WS21の終了点ED21と分割点PT21とを含むスキャン有効領域AR23とをそれぞれ生成する。また、オフライン教示装置5は、スキャン有効領域AR22に対応するスキャン区間SS22と、スキャン有効領域AR23に対応するスキャン区間SS23とをそれぞれ生成する。
 オフライン教示装置5は、仮想空間上に溶接線WS21と、分割処理により生成された2つのスキャン有効領域AR22,AR23のそれぞれと、スキャン有効領域AR22,AR23のそれぞれに対応するスキャン区間SS22,SS23とを構築し、構築されたこれらの3Dモデルの教示補助画面を生成して出力する。
 以上により、オフライン教示装置5は、作業者操作に基づいて、スキャン区間を分割することができる。これにより、作業者は、スキャン区間(スキャン有効領域)が溶接線全体を含んでいない(つまり、溶接線全体をスキャン可能でない)場合であっても、分割点を指定する操作を行うことで、溶接線全体を含むスキャン区間を作成(教示)できる。また、オフライン教示装置5は、作業者による分割点の指定操作のみを受け付けることで、スキャン区間の開始点または終了点を指定する作業者操作なしに、溶接線の開始点または終了点を含む2つのスキャン区間のそれぞれを生成できる。
 次に、図10~図13のそれぞれを参照して、教示補助画面上における2つのスキャン区間SS22,SS23のそれぞれの表示例について説明する。図10は、スキャン有効領域AR22,AR23の立体表示例を説明する図である。図11は、スキャン有効領域AR22,AR23の立体表示例を説明する図である。図12は、スキャン有効領域AR22,AR23の立体表示例を説明する図である。図13は、スキャン有効領域AR22,AR23の立体表示例を説明する図である。
 教示補助画面SC51,SC52,SC53,SC54のそれぞれは、図9に示す分割処理で生成された2つのスキャン区間SS22,SS23のそれぞれに対応するスキャン有効領域AR22,AR23のそれぞれと、溶接線WS21とを含む仮想空間(3次元空間)を、作業者操作に基づく所定の方向から見た画面である。
 オフライン教示装置5は、作業者操作に基づいて、構築された仮想空間(3次元空間)を回転する。オフライン教示装置5は、回転,縮小,拡大処理された後の仮想空間(3次元空間)を構築し、作業者操作に基づく所定の方向から仮想空間(3次元空間)を見た教示補助画面を生成して出力する。
 また、オフライン教示装置5は、生成されたスキャン有効領域のうちスキャン領域の前後であって、溶接線の端点(開始点および終了点)のスキャン代である補助スキャン領域と、センサ4がスキャンを行うスキャン領域とをそれぞれ識別可能に構築してもよい。例えば、図9スキャン有効領域AR21は、図10~図13のそれぞれに示すスキャン領域AR220と、スキャン領域AR220に対応する2つの補助スキャン領域AR221,AR222のそれぞれとを識別可能に構築され、表示される。例えば、オフライン教示装置5は、スキャン領域AR220と補助スキャン領域AR221,AR222とを異なるパーツとして構築したり、それぞれ異なる色のパーツで構築することで識別可能に表示したりする。
 また、同様に、スキャン有効領域AR23は、スキャン領域AR230と、スキャン領域AR230に対応する2つの補助スキャン領域AR231,AR232のそれぞれとを識別可能に構築され、表示される。
 これにより、作業者は、溶接線がセンサ4のスキャン領域または補助スキャン領域に含まれているか否かをより容易に確認できる。
 これにより、作業者は、スキャン動作のひな形に基づいて、仮想空間上に構築された溶接線WS21と、各スキャン有効領域AR22,AR23のそれぞれとの位置関係を、あらゆる角度から確認することができる。したがって、作業者は、分割後の2つのスキャン区間SS22,SS23のそれぞれに対応するスキャン有効領域AR22,AR23が溶接線WS21の全体を包含しているか否か(つまり、センサ4が溶接線WS21の位置をスキャン可能であるか否か)を容易に確認することができる。
 次に、図14を参照して、ステップSt7の処理で実行されるスキャン動作の編集処理の一例について説明する。図14は、スキャン有効領域の分割処理例2を説明する図である。
 例えば、図14に示す例において、スキャン有効領域AR11は、溶接線WS11の開始点ST11と終了点ED11とを包含する。オフライン教示装置5は、入力装置UI3を介して、現在のスキャン動作のひな形の編集を要望する制御指令を受け付けた場合、作業者操作に基づくスキャン動作のひな形の編集を実行する。
 オフライン教示装置5は、作業者操作により、スキャン有効領域AR11を分割する分割点PT11が入力された場合、この分割点PT11でスキャン有効領域AR11を2分割した2つのスキャン有効領域AR13,AR14のそれぞれを生成する。具体的に、オフライン教示装置5は、溶接線WS11の開始点ST11と分割点PT11とを含むスキャン有効領域AR13と、溶接線WS11の終了点ED11と分割点PT11とを含むスキャン有効領域AR14とをそれぞれ生成する。
 オフライン教示装置5は、仮想空間上に溶接線WS11と、分割処理により生成された2つのスキャン有効領域AR13,AR14のそれぞれとを構築し、教示補助画面を生成して出力する。
 オフライン教示装置5は、作業者操作により、スキャン有効領域AR14さらに分割する分割点PT12が入力された場合、この分割点PT12でスキャン有効領域AR14を2分割した2つのスキャン有効領域AR15,AR16のそれぞれを生成する。具体的に、オフライン教示装置5は、スキャン有効領域AR14に含まれる分割点PT11と分割点PT12とを含むスキャン有効領域AR15と、分割点PT12と溶接線WS11の終了点ED11とを含むスキャン有効領域AR16とをそれぞれ生成する。
 オフライン教示装置5は、仮想空間上に溶接線WS11と、分割処理により生成された3つのスキャン有効領域AR13,AR15,AR16のそれぞれとを構築し、教示補助画面を生成して出力する。
 オフライン教示装置5は、作業者操作により、スキャン有効領域AR16をさらに分割する分割点PT13が入力された場合、この分割点PT13でスキャン有効領域AR16を2分割した2つのスキャン有効領域AR17,AR18のそれぞれを生成する。具体的に、オフライン教示装置5は、スキャン有効領域AR16に含まれる分割点PT12と分割点PT13とを含むスキャン有効領域AR17と、分割点PT13と溶接線WS11の終了点ED11とを含むスキャン有効領域AR18とをそれぞれ生成する。
 オフライン教示装置5は、仮想空間上に溶接線WS11と、分割処理により生成された3つのスキャン有効領域AR13,AR15,AR17,AR18のそれぞれとを構築し、教示補助画面を生成して出力する。
 以上により、オフライン教示装置5は、作業者操作に基づいて、スキャン有効領域を複数回分割することで、溶接線全体を含むスキャン動作を生成できる。また、作業者は、教示補助画面に基づいて、複数のスキャン有効領域のそれぞれにより溶接線全体が含まれているか否か(つまり、溶接線全体をスキャン可能であるか否か)をより容易に確認できる。また、オフライン教示装置5は、作業者による分割点の指定操作のみを受け付けることで、複数のスキャン有効領域のそれぞれを生成できる。
 次に、図15を参照して、ステップSt7の処理で実行されるスキャン動作の編集処理の一例について説明する。図15は、スキャン有効領域の結合処理例1を説明する図である。なお、以下で説明するスキャン有効領域の結合処理は、一例であってこれに限定されない。
 例えば、図15に示す例において、溶接線WS31は、開始点ST31から終了点ED31までを溶接する溶接区間を示す。溶接線WS32は、開始点ST32から終了点ED32までを溶接する溶接区間を示す。
 オフライン教示装置5は、このような2本の溶接線WS31,WS32に対して、溶接線WS31の開始点ST31と終了点ED31とを含むスキャン有効領域AR31と、溶接線WS32の開始点ST32と終了点ED32とを含むスキャン有効領域AR32とをそれぞれ生成する。
 スキャン有効領域AR31は、溶接線WS31の開始点ST31と終了点ED31とを結ぶスキャン区間SS310に対応するスキャン領域AR310と、補助スキャン区間SS311に対応する補助スキャン領域AR311と、補助スキャン区間SS312に対応する補助スキャン領域AR312と、を含んで構成される。
 補助スキャン区間SS311は、スキャン区間SS310で実行されるスキャン動作前の補助スキャン区間であって、補助スキャン開始位置PT311から溶接線WS31の開始点ST31までの区間である。補助スキャン区間SS312は、スキャン区間SS310で実行されるスキャン動作後の補助スキャン区間であって、溶接線WS31の終了点ED31から補助スキャン開始位置PT312までの区間である。
 スキャン有効領域AR32は、溶接線WS32の開始点ST32と終了点ED32とを結ぶスキャン区間SS320に対応するスキャン領域AR320と、補助スキャン区間SS321に対応する補助スキャン領域AR321と、補助スキャン区間SS322に対応する補助スキャン領域AR322と、を含んで構成される。
 補助スキャン区間SS321は、スキャン区間SS320で実行されるスキャン動作前の補助スキャン区間であって、補助スキャン開始位置PT321から溶接線WS32の開始点ST32までの区間である。補助スキャン区間SS322は、スキャン区間SS320で実行されるスキャン動作後の補助スキャン区間であって、溶接線WS32の終了点ED32から補助スキャン開始位置PT322までの区間である。
 本実施の形態1におけるオフライン教示装置5は、2つの溶接線WS31,WS32のそれぞれを1つのスキャン有効領域でスキャン可能であると判定した場合、2つのスキャン有効領域AR31,AR32のそれぞれを結合したスキャン有効領域AR33を自動生成し、スキャン動作のひな形を生成する。
 スキャン有効領域AR33は、溶接線WS31の開始点ST31と、溶接線WS32の終了点ED32とを結ぶスキャン区間SS330に対応するスキャン領域AR330と、補助スキャン区間SS331に対応する補助スキャン領域AR331と、補助スキャン区間SS332に対応する補助スキャン領域AR332と、を含んで構成される。
 補助スキャン区間SS331は、スキャン区間SS330で実行されるスキャン動作前の補助スキャン区間であって、補助スキャン開始位置PT331から溶接線WS31の開始点ST31までの区間である。補助スキャン区間SS332は、スキャン区間SS330で実行されるスキャン動作後の補助スキャン区間であって、溶接線WS32の終了点ED32から補助スキャン開始位置PT332までの区間である。
 オフライン教示装置5は、仮想空間上に溶接線WS31,WS32のそれぞれと、結合されたスキャン領域AR330と、補助スキャン領域AR331,AR332のそれぞれとを構築し、構築されたこれらの3Dモデルの教示補助画面を生成して出力する。
 以上により、オフライン教示装置5は、スキャン動作に要する時間をより短縮可能なスキャン有効領域を生成できる。
 次に、図16を参照して、ステップSt7の処理で実行されるスキャン動作の編集処理の一例について説明する。図16は、スキャン有効領域の結合処理例2を説明する図である。なお、以下で説明するスキャン有効領域の結合処理は、一例であってこれに限定されない。
 例えば、図16に示す例において、溶接線WS41は、開始点ST41から終了点ED41までを溶接する溶接区間を示す。溶接線WS42は、開始点ST42から終了点ED42までを溶接する溶接区間を示す。
 オフライン教示装置5は、このような2本の溶接線WS41,WS42に対して、溶接線WS41の開始点ST41と終了点ED41とを含むスキャン有効領域AR41を生成する。また、オフライン教示装置5は、溶接線WS42の開始点ST42と終了点ED42とを含むスキャン有効領域AR42Aを生成した後、溶接線WS42の開始点ST42と終了点ED42とを含むスキャン有効領域(図示略)を、所定の方向MV41に移動させたスキャン有効領域AR42を生成する。
 スキャン有効領域AR41は、溶接線WS41の開始点ST41と終了点ED41とを結ぶスキャン区間SS410を有する。スキャン有効領域AR41は、スキャン区間SS410に対応するスキャン領域AR410と、補助スキャン区間SS411に対応する補助スキャン領域AR411と、補助スキャン区間SS412に対応する補助スキャン領域AR412と、を含んで構成される。
 補助スキャン区間SS411は、スキャン区間SS410で実行されるスキャン動作前の補助スキャン区間であって、スキャン区間SS410の補助スキャン開始位置PT411から溶接線WS41の開始点ST41までの区間である。また、補助スキャン区間SS412は、スキャン区間SS410で実行されるスキャン動作後の補助スキャン区間であって、溶接線WS41の終了点ED41からスキャン区間SS410の補助スキャン終了位置PT412までの区間である。
 スキャン有効領域AR42Aは、溶接線WS42を含み、溶接線WS42の開始点ST42と終了点ED42とを結んだスキャン区間を有する。スキャン有効領域AR42Aは、スキャン区間に対応するスキャン領域と、2つの補助スキャン区間にそれぞれ対応する補助スキャン領域と、を含んで構成される。
 ここで、一方の補助スキャン区間は、スキャン区間で実行されるスキャン動作前の補助スキャン区間であって、スキャン区間SS420の補助スキャン開始位置から溶接線WS42の開始点ST42までを含む区間で生成される。もう一方の補助スキャン区間は、スキャン区間で実行されるスキャン動作後の補助スキャン区間であって、溶接線WS42の終了点ED42から空走終了位置までを含む区間で生成される。
 オフライン教示装置5は、上述したスキャン有効領域AR42Aを所定の方向MV41に平行移動させたスキャン有効領域AR42を生成する。スキャン有効領域AR42は、溶接線WS42の開始点ST42と終了点ED42とを結んだスキャン有効領域AR42Aのスキャン区間(不図示)を所定の方向MV41に移動させたスキャン区間SS420を有する。スキャン有効領域AR42は、さらに、このスキャン区間SS420に対応するスキャン領域AR420と、補助スキャン区間SS421に対応する補助スキャン領域AR421と、補助スキャン区間SS422に対応する補助スキャン領域AR422と、を含んで構成される。
 補助スキャン区間SS421は、スキャン区間SS420で実行されるスキャン動作前の補助スキャン区間であって、スキャン区間SS420の補助スキャン開始位置PT421から補助スキャン終了位置PT422までの区間である。ここで、補助スキャン終了位置PT422は、溶接線WS42の開始点ST42の位置から所定の方向MV41に移動した位置である。
 同様に、補助スキャン区間SS422は、スキャン区間SS420で実行されるスキャン動作後の補助スキャン区間であって、補助スキャン開始位置PT423から補助スキャン終了位置PT424までの区間である。ここで、補助スキャン開始位置PT423は、溶接線WS42の終了点ED42の位置から所定の方向MV41に移動した位置である。
 本実施の形態1におけるオフライン教示装置5は、2つの溶接線WS41,WS42のそれぞれを1つのスキャン有効領域でスキャン可能であると判定した場合、2つのスキャン有効領域AR41,AR42のそれぞれを結合したスキャン有効領域AR43を自動生成し、スキャン動作のひな形を生成する。具体的に、オフライン教示装置5は、スキャン区間SS410の開始点に対応する溶接線WS41の開始点ST41と、スキャン区間SS420の終了点に対応する補助スキャン開始位置PT423とを結ぶスキャン区間SS430を生成する。オフライン教示装置5は、開始点ST41から補助スキャン開始位置PT423に向かう方向を、スキャン有効領域AR43におけるセンサ4の動作軌跡に決定し、溶接線WS41,WS42のそれぞれをスキャン可能なスキャン有効領域AR43を生成する。
 スキャン有効領域AR43は、補助スキャン終了位置PT432から補助スキャン開始位置PT433までのスキャン区間SS430に対応するスキャン領域AR430と、補助スキャン区間SS431に対応する補助スキャン領域AR431と、補助スキャン区間SS432に対応する補助スキャン領域AR432と、を含んで構成される。
 補助スキャン区間SS431は、スキャン区間SS430で実行されるスキャン動作前の補助スキャン区間であって、補助スキャン開始位置PT431から補助スキャン終了位置PT432までの区間である。補助スキャン区間SS432は、スキャン区間SS430で実行されるスキャン動作後の補助スキャン区間であって、補助スキャン開始位置PT433から補助スキャン開始位置PT434までの区間である。
 オフライン教示装置5は、仮想空間上に溶接線WS41,WS42のそれぞれと、結合されたスキャン領域AR430と、補助スキャン領域AR431,AR432のそれぞれとを構築し、教示補助画面を生成して出力する。
 以上により、オフライン教示装置5は、スキャン動作に要する時間をより短縮可能なスキャン有効領域を生成できる。
<スキャン有効領域の削除処理>
 次に、図17を参照して、ステップSt7の処理で実行されるスキャン動作の編集処理の一例について説明する。図17は、スキャン有効領域の削除処理例を説明する図である。なお、以下で説明するスキャン有効領域の削除処理は、一例であってこれに限定されない。また、以降の説明では、スキャン有効領域の編集処理の説明を分かりやすくするために、スキャン区間およびセンサ4の動作軌跡の図示を省略する。
 例えば、図17に示す例において、溶接線WS51は、開始点ST51から終了点ED51までを溶接する溶接区間を示す。溶接線WS52は、開始点ST52から終了点ED52までを溶接する溶接区間を示す。
 オフライン教示装置5は、このような2本の溶接線WS51,WS52に対して、溶接線WS51の開始点ST51と終了点ED51とを含むスキャン有効領域AR51と、溶接線WS52の開始点ST52と終了点ED52とを含むスキャン有効領域AR52とをそれぞれ生成する。
 スキャン有効領域AR51は、溶接線WS51をスキャンするスキャン領域AR510と、補助スキャン領域AR511と、補助スキャン領域AR512と、を含んで構成される。スキャン有効領域AR52は、溶接線WS52をスキャンするスキャン領域AR520と、補助スキャン領域AR521と、補助スキャン領域AR522と、を含んで構成される。
 本実施の形態1におけるオフライン教示装置5は、2つの溶接線WS51,WS52のそれぞれを1つのスキャン有効領域AR52でスキャン可能であると判定した場合、スキャン有効領域AR51を削除して、2つの溶接線WS51,WS52のそれぞれをスキャンするスキャン有効領域AR52を自動生成し、スキャン動作のひな形を生成する。
 オフライン教示装置5は、仮想空間上に溶接線WS51,WS52のそれぞれと、結合されたスキャン領域AR520と、補助スキャン領域AR521,AR522のそれぞれとを構築し、教示補助画面を生成して出力する。
 以上により、オフライン教示装置5は、スキャン動作に要する時間をより短縮可能なスキャン有効領域を生成できる。
<スキャン有効領域の部分削除処理>
 次に、図18を参照して、ステップSt7の処理で実行されるスキャン動作の編集処理の一例について説明する。図18は、スキャン有効領域の部分削除処理例を説明する図である。なお、以下で説明するスキャン有効領域の部分削除処理は、一例であってこれに限定されない。
 例えば、図18に示す例において、溶接線WS53は、開始点ST53から終了点ED53までを溶接する溶接区間を示す。溶接線WS54は、開始点ST54から終了点ED54までを溶接する溶接区間を示す。溶接線WS55は、開始点ST55から終了点ED55までを溶接する溶接区間を示す。
 オフライン教示装置5は、このような3本の溶接線WS53,WS54,WS55のそれぞれに対して、溶接線WS53の開始点ST53と終了点ED53とを含むスキャン有効領域AR53と、溶接線WS54の開始点ST54と終了点ED54とを含むスキャン有効領域AR54と、溶接線WS55の開始点ST55と終了点ED55とを含むスキャン有効領域AR55とをそれぞれ生成する。
 スキャン有効領域AR53は、溶接線WS53をスキャンするスキャン領域AR530と、補助スキャン領域AR531,AR532と、を含んで構成される。スキャン有効領域AR54は、溶接線WS54をスキャンするスキャン領域AR540と、補助スキャン領域AR541,AR542と、を含んで構成される。スキャン有効領域AR55は、溶接線WS55をスキャンするスキャン領域AR550と、補助スキャン領域AR551,AR552と、を含んで構成される。
 本実施の形態1におけるオフライン教示装置5は、2つのスキャン有効領域AR53,AR54のそれぞれと、スキャン有効領域AR55とが重複した重複領域DB56,DB57のそれぞれを検出する。オフライン教示装置5は、検出された重複領域DB56,DB57のそれぞれを強調表示した教示補助画面を生成して、モニタMN3に出力する。なお、ここでいう強調表示は、重複領域を異なる色で表示したり、重複領域を枠線あるいは破線等で囲って表示したりする処理である。
 オフライン教示装置5は、入力装置UI3から重複領域を削除する作業者操作を受け付けた場合、スキャン有効領域AR53から重複領域DB56を削除したスキャン有効領域AR56と、スキャン有効領域AR4から重複領域DB57を削除したスキャン有効領域AR57とを生成する。
 スキャン有効領域AR56は、スキャン領域AR560と、補助スキャン領域AR561,AR562と、を含んで構成される。スキャン有効領域AR57は、スキャン領域AR570と、補助スキャン領域AR571,AR572と、を含んで構成される。
 オフライン教示装置5は、スキャン有効領域AR56と、スキャン有効領域AR57とにより、3つの溶接線WS53,WS54,WS55をすべてスキャン可能であるか否かを判定する。
 オフライン教示装置5は、スキャン有効領域AR55と、スキャン有効領域AR56と、スキャン有効領域AR57とにより、3つの溶接線WS53,WS54,WS55をすべてスキャン可能であると判定した場合、スキャン有効領域AR53から重複領域DB56を部分的に削除したスキャン有効領域AR56と、スキャン有効領域AR54から重複したスキャン有効領域である重複領域DB57を部分的に削除したスキャン有効領域AR57とを生成する。オフライン教示装置5は、3つの溶接線WS53,WS54,WS55のそれぞれをスキャンするスキャン有効領域AR55,AR56,AR57を自動生成し、スキャン動作のひな形を生成する。
 オフライン教示装置5は、仮想空間上に溶接線WS53~WS55のそれぞれと、部分削除処理後の3つのスキャン領域AR550,AR560,AR570のそれぞれと、各スキャン領域に対応する補助スキャン領域AR551,AR552,AR561,AR562,AR571,AR572のそれぞれとを構築し、教示補助画面を生成して出力する。
 以上により、オフライン教示装置5におけるプログラム作成部55は、スキャン領域あるいはスキャン有効領域の重複領域を作業者に可視化して提示できる。これにより、作業者は、重複領域を削除して、スキャン動作に要する時間、あるいはスキャン時間,非スキャン時間等を短縮するか否かを検討できる。なお、図18では図示を省略しているが、オフライン教示装置5は、重複領域を削除した場合の統計情報(例えば、スキャン時間,非スキャン時間等)と、重複領域を削除しない場合の統計情報とを生成して、表示することで、作業者が重複領域を削除するか否かの判断を支援してもよい。
 また、図18におけるオフライン教示装置5は、作業者操作により、重複領域を削除する例について説明したが、重複領域を削除した場合の統計情報(例えば、スキャン時間,非スキャン時間等)と、重複領域を削除しない場合の統計情報とを用いて、重複領域の削除により削減可能なスキャン時間あるいは非スキャン時間の合計時間が所定時間(例えば、10秒,20秒等)以上である場合にのみ、自動で重複領域を削除してもよい。これにより、オフライン教示装置5は、所定時間以上スキャン時間を短縮可能な場合には、作業者操作なしにスキャン動作をより効率化させたスキャン動作を作成できる。
<スキャン有効領域の編集省略処理>
 次に、図19を参照して、ステップSt7の処理で実行されるスキャン動作の編集処理の一例について説明する。図19は、スキャン有効領域の分割処理および部分削除処理の省略例を説明する図である。なお、以下で説明する例において、有効領域の分割処理と部分削除処理とを省略する例を示すが、省略される編集処理はこれに限定されず、他の処理が省略されてよい。
 例えば、図19に示す例において、スキャン有効領域AR61は、溶接線WS61をスキャンするスキャン領域AR610と、補助スキャン領域AR611,AR612と、を含んで構成される。スキャン有効領域AR62は、溶接線WS62をスキャンするスキャン領域AR620と、補助スキャン領域AR621,AR622と、を含んで構成される。
 このような場合、オフライン教示装置5は、スキャン有効領域AR61とスキャン有効領域AR62とが重複している重複領域DB61を検出する。オフライン教示装置5は、各スキャン有効領域AR61,AR62により2つの溶接線WS61,WS62のそれぞれをスキャンした場合のスキャン動作に要する合計時間と、重複領域DB61内でスキャン領域AR610またはスキャン領域AR620を分割した各スキャン有効領域により2つの溶接線WS61,WS62のそれぞれをスキャンした場合のスキャン動作に要する合計時間とをそれぞれ算出して、比較する。
 オフライン教示装置5は、重複領域DB61でスキャン領域AR610またはスキャン領域AR620を分割した場合のスキャン動作に要する合計時間が、重複領域DB61を分割しない場合のスキャン動作に要する合計時間よりも長いと判定した場合、重複領域DB61の分割処理を省略する。
 また、このような場合、オフライン教示装置5は、スキャン有効領域AR61とスキャン有効領域AR62との重複領域DB61を検出する。オフライン教示装置5は、各スキャン有効領域AR61,AR62により2つの溶接線WS61,WS62のそれぞれをスキャンした場合のスキャン動作に要する合計時間と、重複領域DB61を部分的に削除した各スキャン有効領域により2つの溶接線WS61,WS62のそれぞれをスキャンした場合のスキャン動作に要する合計時間とをそれぞれ算出して、比較する。
 オフライン教示装置5は、重複領域DB61を削除した場合のスキャン動作に要する合計時間が、重複領域DB61を削除しない場合のスキャン動作に要する合計時間よりも長いと判定した場合、重複領域DB61の削除処理を省略する。
 以上により、オフライン教示装置5は、スキャン有効領域の分割処理あるいは部分削除処理をして生成される新たなスキャン有効領域のそれぞれのスキャン動作における各種動作(例えば、アプローチ動作、リトラクト動作、回避動作等)が増加し、すべての溶接ビードのスキャン動作に要する合計時間が増加すると判定した場合、スキャン有効領域の分割処理,部分削除処理を省略する。
 また、オフライン教示装置5は、重複領域DB61の分割処理あるいは部分削除処理を省略した場合のすべての溶接ビードのスキャン動作に要する合計時間が、事前に設定された所定時間内である場合、スキャン有効領域の分割処理あるいは部分削除処理を省略してよい。これにより、オフライン教示装置5は、スキャン教示内容が複雑化することを抑制できる。
 次に、図20を参照して、ステップSt7の処理で実行されるスキャン動作の編集処理の一例について説明する。図20は、スキャン有効領域の分割処理および部分削除処理の省略例を説明する図である。なお、以下で説明する例において、有効領域の分割処理と部分削除処理とを省略する例を示すが、省略される編集処理はこれに限定されず、他の処理が省略されてよい。
 例えば、図20に、2回のスキャン動作により溶接線WS63をスキャンする例を示す。スキャン有効領域AR63は、溶接線WS63の一部をスキャンするスキャン領域AR630と、補助スキャン領域AR631,AR632と、を含んで構成される。スキャン有効領域AR64は、溶接線WS63の一部をスキャンするスキャン領域AR640と、補助スキャン領域AR641,AR642と、を含んで構成される。
 このような場合、オフライン教示装置5は、スキャン有効領域AR63とスキャン有効領域AR64とが重複している重複領域DB61を検出する。オフライン教示装置5は、各スキャン有効領域AR63,AR64により溶接線WS63をスキャンした場合のスキャン動作に要する合計時間と、重複領域DB62内でスキャン領域AR630またはスキャン領域AR640を分割した各スキャン有効領域により溶接線WS63をスキャンした場合のスキャン動作に要する合計時間とをそれぞれ算出して、比較する。
 オフライン教示装置5は、重複領域DB62でスキャン領域AR630またはスキャン領域AR640を分割した場合のスキャン動作に要する合計時間が、重複領域DB62を分割しない場合のスキャン動作に要する合計時間よりも長いと判定した場合、重複領域DB62の分割処理を省略する。
 また、このような場合、オフライン教示装置5は、スキャン有効領域AR63とスキャン有効領域AR64との重複領域DB62を検出する。オフライン教示装置5は、各スキャン有効領域AR63,AR64により溶接線WS63をスキャンした場合のスキャン動作に要する合計時間と、重複領域DB62を部分的に削除した各スキャン有効領域により溶接線WS63をスキャンした場合のスキャン動作に要する合計時間とをそれぞれ算出して、比較する。
 オフライン教示装置5は、重複領域DB62を削除した場合のスキャン動作に要する合計時間が、重複領域DB62を削除しない場合のスキャン動作に要する合計時間よりも長いと判定した場合、重複領域DB62の削除処理を省略する。
 以上により、オフライン教示装置5は、スキャン有効領域の分割処理あるいは部分削除処理をして生成される新たなスキャン有効領域のそれぞれのスキャン動作における各種動作(例えば、アプローチ動作、リトラクト動作、回避動作等)が増加し、すべての溶接ビードのスキャン動作に要する合計時間が増加すると判定した場合、スキャン有効領域の分割処理,部分削除処理を省略する。
 また、オフライン教示装置5は、重複領域DB62の分割処理あるいは部分削除処理を省略した場合のすべての溶接ビードのスキャン動作に要する合計時間が、事前に設定された所定時間内である場合、スキャン有効領域の分割処理あるいは部分削除処理を省略してよい。これにより、オフライン教示装置5は、スキャン教示内容が複雑化することを抑制できる。
 なお、図19および図20におけるオフライン教示装置5は、作業者操作なしに自動で重複領域の分割あるいは部分削除する例について説明したが、図18に示す例と同様に、重複領域を強調表示した教示補助画面を生成し、作業者操作に基づいて、重複領域の分割あるいは部分削除を実行してもよい。
<スキャン有効領域の移動処理,回転処理>
 次に、図21および図22のそれぞれを参照して、実施の形態1におけるオフライン教示装置5のスキャン有効領域AR1の移動処理および回転処理のそれぞれについて説明する。図21は、スキャン有効領域AR1の移動処理例を説明する図である。図22は、スキャン有効領域AR1の回転処理例を説明する図である。
 図21および図22に示すスキャン有効領域AR1は、スキャン区間SR1に対応する。オフライン教示装置5は、作業者操作に基づいて、スキャン有効領域AR1の位置をX方向,Y方向,あるいはZ方向のそれぞれに移動させる。これにより、オフライン教示装置5は、作業者操作に基づいて、スキャン有効領域の位置を移動させることで、作業者操作より行われるスキャン教示を支援できる。
 また、オフライン教示装置5は、作業者操作による回転基準点RPの指定操作と、X軸を中心する回転方向RRX、Y軸を中心とする回転方向RRY、あるいはZ軸を中心とする回転方向RRZへの回転操作とをそれぞれ受け付ける。オフライン教示装置5は、作業者操作に基づいて、指定された回転基準点RPを原点として、回転方向RRX、回転方向RRY、あるいは回転方向RRZへスキャン有効領域AR2を回転させる回転処理を実行する。これにより、オフライン教示装置5は、作業者操作に基づいて、スキャン有効領域の位置を回転させることで、作業者操作より行われるスキャン教示を支援できる。
 なお、図22では、すべての回転基準点RPのそれぞれへの符号の付与を省略している。また、図22に示す例では、16点の回転基準点RPのそれぞれを示すが、スキャン有効領域AR2を回転操作するための回転基準点の位置および数は、これに限定されない。
 次に、図23を参照して、スキャン有効領域の回転処理および移動処理例を説明する図である。図23は、スキャン有効領域の回転処理および移動処理例を説明する図である。なお、図23に示すスキャン有効領域の回転処理および移動処理は一例であって、これに限定されないことは言うまでもない。
 図23で説明するスキャン有効領域の回転処理は、溶接線上で指定された任意の点を原点として、スキャン有効領域を回転させる処理である。オフライン教示装置5は、作業者操作により指定された溶接線上の任意の点を原点(回転基準点)として、スキャン有効領域を回転させる。
 例えば、図23に示す例において、スキャン有効領域AR71Aは、溶接線WS71の一部と、溶接線WS72の全体とをスキャンするスキャン有効領域AR710Aと、補助スキャン領域AR711A,AR712Aと、を含んで構成される。
 図23に示す例において、オフライン教示装置5は、溶接線WS72上の点RT71をスキャン有効領域の回転基準点に指定する作業者操作を受け付ける。オフライン教示装置5は、作業者操作に基づいて、溶接線WS72上の点RT71を回転中心としてスキャン有効領域AR71Aを所定の回転方向RT72に回転させる。オフライン教示装置5は、回転処理後、仮想空間に溶接線WS71の一部と、溶接線WS72の全体とをスキャンするスキャン有効領域AR71Bと、補助スキャン領域AR711B,AR712Bと、を含むスキャン有効領域AR71Bを構築し、教示補助画面を生成して出力する。
 オフライン教示装置5は、回転処理後のスキャン有効領域AR71Bを、所定の方向MV71に移動させる作業者操作を受け付ける。オフライン教示装置5は、移動処理後、仮想空間に溶接線WS71および溶接線WS72のそれぞれの全体をスキャンするスキャン有効領域AR71Cと、補助スキャン領域AR711C,AR712Cと、を含むスキャン有効領域AR71Cを構築し、教示補助画面を生成して出力する。
 これにより、オフライン教示装置5は、作業者操作により指定された溶接線上の任意の位置を回転基準として、スキャン有効領域を回転させることができる。オフライン教示装置5は、作業者により行われる仮想空間におけるスキャン有効領域の編集作業において、溶接線上の任意の点を基準にしてスキャン有効領域を編集可能にすることで、回転操作後のスキャン有効領域がスキャン対象である溶接線を含むようにスキャン有効領域の回転操作の自由度に制限を設けることができる。したがって、作業者は、仮想空間でスキャン有効領域を微調整することなく、溶接線を含むスキャン有効領域を作成でき、スキャン教示作業を行うことができる。
<スキャン有効領域のコピー処理>
 次に、図24を参照して、スキャン有効領域のコピー処理例を説明する図である。図24は、スキャン有効領域のコピー処理、回転処理、および移動処理例を説明する図である。なお、図24に示すスキャン有効領域のコピー処理、回転処理、および移動処理は一例であって、これに限定されないことは言うまでもない。
 図24で説明するスキャン有効領域の回転処理は、溶接線上の任意の点を原点として、スキャン有効領域を回転させる処理である。オフライン教示装置5は、作業者操作により指定された溶接線上の任意の点を原点(回転基準点)として、スキャン有効領域を回転させる。
 例えば、図24に示す例において、オフライン教示装置5は、入力装置UI3を介した作業者操作に基づいて、スキャン有効領域AR73をコピー(複製)した2つのスキャン有効領域AR73A,AR73Bのそれぞれを生成する。
 オフライン教示装置5は、作業者操作に基づいて、溶接線WS731に対して、方向MV72にスキャン有効領域AR73Aを平行移動させて、溶接線WS732を含むスキャン有効領域AR73Aを生成する。
 また、オフライン教示装置5は、作業者操作に基づいて、溶接線WS731上の点RT73を中心軸として方向RT74に回転させた後、点RT73を中心とする半径方向外側(方向MV73)に向かってスキャン有効領域AR73Bを移動させて、溶接線WS733を含むスキャン有効領域AR73Bを生成する。
 なお、オフライン教示装置5は、作業者操作に基づいて、スキャン有効領域AR73Aをさらにコピーして、溶接線WS731上の点RT73を中心軸として方向MV74に回転させることで、溶接線WS733を含むスキャン有効領域AR73Bを生成可能であってもよい。
 オフライン教示装置5は、仮想空間に3つの溶接線WS731~WS733のそれぞれの全体をスキャンする3つのスキャン有効領域AR73~AR73Bを構築し、教示補助画面を生成して出力する。
 これにより、オフライン教示装置5は、作業者により行われる同一平面上に形成される複数の溶接線をスキャンするスキャン有効領域の教示を支援できる。
 次に、図25を参照して、スキャン有効領域のコピー処理例を説明する図である。図25は、スキャン有効領域のコピー処理および移動処理例を説明する図である。なお、図25に示すスキャン有効領域のコピー処理および移動処理回転は一例であって、これに限定されないことは言うまでもない。なお、図25に示す溶接線WS741の延伸方向LN71と、スキャン有効領域AR75B,AR75Cの移動方向LN72とは、平行である(LN71//LN72)。
 例えば、図25に示す例において、オフライン教示装置5は、入力装置UI3を介した作業者操作に基づいて、スキャン有効領域AR75Aをコピー(複製)した2つのスキャン有効領域AR75B,AR75Cのそれぞれを生成する。
 オフライン教示装置5は、作業者操作に基づいて、2つのスキャン有効領域AR75B,AR75Cのそれぞれを溶接線WS741に沿う方向MV74に平行移動させて、溶接線WS743を含むスキャン有効領域AR75Bと、溶接線WS744を含むスキャン有効領域AR75Cとを生成する。
 また、オフライン教示装置5は、作業者操作に基づいて、溶接線WS731上の点RT73を中心軸として方向MV74に回転させた後、点RT73を中心とする半径方向外側(方向MV73)に向かってスキャン有効領域AR73Bを移動させて、溶接線WS733を含むスキャン有効領域AR73Bを生成する。
 オフライン教示装置5は、仮想空間に3つの溶接線WS741~WS744のそれぞれのスキャン動作を教示する4つのスキャン有効領域AR74,AR75A~AR75Cのそれぞれを構築し、教示補助画面を生成して出力する。
 これにより、オフライン教示装置5は、作業者により行われる同一平面上に形成される複数の溶接線をスキャンするスキャン有効領域の教示を支援できる。
 以上により、実施の形態1におけるオフライン教示装置5は、作業者操作を受け付け可能な入出力部53(入力部の一例)と、溶接により生産されるワークWkの溶接線の位置情報とワークWkに形成される溶接ビードの外観形状をスキャンするセンサ4のスキャン有効範囲AR0(スキャン範囲の一例)とを取得する入出力部53(取得部の一例)と、取得された溶接線の位置情報と、スキャン有効範囲AR0とに基づいて、センサ4によりスキャンされる3次元領域を生成する3D演算部54(生成部の一例)と、仮想空間に溶接線とスキャン有効領域(3次元領域の一例)とを配置した教示補助画面(補助画面の一例)を生成して出力し、入出力部53に入力された作業者操作に基づいて、センサ4を駆動させる溶接ロボットMC1(ロボットの一例)に教示補助画面に示すスキャン有効領域をスキャンさせるための教示プログラムを作成して出力するプログラム作成部55(制御部の一例)と、を備える。
 これにより、実施の形態1におけるオフライン教示装置5は、溶接線とスキャン有効領域(スキャン領域)との位置関係を可視化する教示補助画面により、スキャン動作のひな形として構築されているスキャン有効領域によって溶接線の全体がスキャン(検査)可能であるか否かの作業者判断を支援できる。また、作業者は、教示補助画面に示され、スキャン動作のひな形として構築されているスキャン有効領域によって溶接線の全体がスキャン(検査)可能であると判断した場合、入力装置UI3を用いて、スキャン動作の教示プログラムの作成を要求する操作を行うだけで、スキャン動作の教示プログラムを容易に作成することができる。したがって、オフライン教示装置5は、より高度な教示プログラムの作成技能を有していない作業者によるスキャン動作の教示プログラムの作成をより効果的に支援できる。
 また、実施の形態1においてスキャン有効領域(例えば、図10~図13に示すスキャン有効領域AR22等)は、センサの2つの補助スキャン領域のそれぞれ(例えば、図10~図13に示す補助スキャン領域AR221,AR222等)を含む。これにより、実施の形態1におけるオフライン教示装置5は、各スキャン有効領域に対応する2つの補助スキャン領域のそれぞれを可視化できる。したがって、作業者は、教示補助画面を用いて、溶接線が補助スキャン領域に含まれているか否かを目視で確認することができる。
 また、実施の形態1における3D演算部54は、溶接線の一端(例えば、図8に示す開始点ST12)と他端(例えば、図8に示す終了点ED12)とを含むスキャン有効領域(例えば、図8に示すスキャン有効領域AR12)を生成する。これにより、実施の形態1におけるオフライン教示装置5は、溶接線の開始点および終了点のそれぞれの位置情報のみを取得した場合であっても、スキャン有効領域を生成できる。
 また、実施の形態1における3D演算部54は、溶接線の開始位置および終了位置に基づいて、スキャン有効領域ごとにセンサ4の動作軌跡(例えば、図7に示すスキャン区間SS11の矢印が示す方向)をさらに生成する。プログラム作成部55は、仮想空間に溶接線とスキャン有効領域とセンサ4の動作軌跡とを配置した教示補助画面を生成して出力する。これにより、実施の形態1におけるオフライン教示装置5は、溶接線の開始位置(開始点)および終了位置(終了点)のそれぞれに基づいて、スキャン有効領域を生成できるとともに、溶接線の開始位置(開始点)および終了位置(終了点)のそれぞれに基づいて、センサ4の動作軌跡を決定(設定)できる。
 また、実施の形態1における入出力部53は、溶接を実行する生産設備(例えば、溶接ロボット,検査ロボット,ワークWk,ステージ,治具等)の位置情報をさらに取得する。プログラム作成部55は、仮想空間に溶接線とスキャン有効領域と生産設備とを配置した教示補助画面を生成して出力する。これにより、実施の形態1におけるオフライン教示装置5は、生産設備と、溶接線と、スキャン有効領域(スキャン領域)との位置関係を可視化する教示補助画面により、作業者により行われる、スキャン有効領域によって溶接線の全体がスキャン(検査)可能であるか否か、スキャン動作中に生産設備とセンサ4とが干渉(衝突)しないか否か、スキャン有効領域が生産設備あるいはワークWkにより遮蔽されるか否か等のスキャン動作に必要な各種判断を支援できる。したがって、オフライン教示装置5は、より高度な教示プログラムの作成技能を有していない作業者によるスキャン動作の教示プログラムの作成をより効果的に支援できる。
 また、実施の形態1におけるプログラム作成部55は、取得されたスキャン有効領域に基づいて、センサ4によるワークWkのスキャン動作に要する時間(例えば、図8に示すスキャン時間,空走時間等)を算出して出力する。これにより、実施の形態1におけるオフライン教示装置5は、教示補助画面が示すスキャン動作に対応するスキャン動作の教示プログラムを実行した場合のスキャン動作に要する時間を作業者に提示できる。したがって、オフライン教示装置5は、このスキャン動作に要する時間を生産性の指標として利用可能にし、教示補助画面が示すスキャン動作が、作業者が要望するスキャン動作であるか否かの判断を支援できる。
 以上により、実施の形態1において、作業者が入力装置UI3を操作して、入力装置UI3との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置5を用いて行うオフライン教示方法は、溶接により生産されるワークWkの溶接線の位置情報とワークWkに形成される溶接ビードの外観形状をスキャンするセンサ4のスキャン有効範囲AR0(スキャン範囲の一例)とをコンピュータに入力し、仮想空間に溶接線と、センサ4によりスキャンされるスキャン有効領域とが配置された教示補助画面が示すスキャン有効領域を、センサ4を駆動させる溶接ロボットMC1にスキャンさせるための教示プログラムを作成する。
 これにより、実施の形態1におけるオフライン教示装置5は、溶接線の位置情報とセンサ4のスキャン有効範囲AR0との入力に基づいて、溶接線とスキャン有効領域(スキャン領域)との位置関係を可視化する教示補助画面を生成する。オフライン教示装置5は、作業者操作に基づいて、生成された教示補助画面が示すスキャン動作としてのスキャン有効領域をセンサ4にスキャンさせるスキャン動作の教示プログラムの作成を実行する。したがって、オフライン教示装置5は、より高度な教示プログラムの作成技能を有していない作業者によるスキャン動作の教示プログラムの作成をより効果的に支援できる。
 以上により、実施の形態1におけるオフライン教示装置5は、作業者操作を取得可能な入出力部53(入力部の一例)と、溶接により生産されるワークWkの溶接線の位置情報とワークWkに形成される溶接ビードの外観形状をスキャンするセンサ4のスキャン有効範囲AR0とを取得する入出力部53(取得部の一例)と、取得された溶接線の位置情報とスキャン有効範囲AR0(スキャン範囲の一例)とに基づいて、センサ4によりスキャンされるスキャン有効領域(3次元領域の一例)を生成する3D演算部54(生成部の一例)と、仮想空間に溶接線とスキャン有効領域とを配置した教示補助画面(補助画面の一例)を生成して出力し、作業者操作に基づいて、センサを駆動させる溶接ロボットMC1(ロボットの一例)に教示補助画面で示されるスキャン有効領域をスキャンさせるための教示プログラムを作成して出力するプログラム作成部55(制御部の一例)と、を備える。3D演算部54は、入出力部53に入力された作業者操作に基づいて、スキャン有効領域を分割する。プログラム作成部55は、仮想空間に溶接線と、分割されたスキャン有効領域を含む複数のスキャン有効領域とを配置した新たな教示補助画面を生成して出力し、作業者操作に基づいて、新たな教示補助画面で示す複数のスキャン有効領域をスキャンさせるための教示プログラムを作成して出力する。
 これにより、実施の形態1におけるオフライン教示装置5は、溶接線とスキャン有効領域(スキャン領域)との位置関係を可視化する教示補助画面により、スキャン動作のひな形として構築されているスキャン有効領域によって溶接線の全体がスキャン(検査)可能であるか否かの作業者判断を支援できる。また、オフライン教示装置5は、教示補助画面に示され、スキャン動作のひな形として構築されているいずれかのスキャン有効領域の分割を要求する作業者操作に基づいて、スキャン有効領域を分割する。つまり、オフライン教示装置5は、スキャン有効領域のスキャン区間の調整,仮想空間におけるスキャン有効領域の配置処理(つまり、回転,移動処理),再作成処理等の複雑な作業者操作なしに、スキャン有効領域の分割を実現できる。したがって、オフライン教示装置5は、より高度な教示プログラムの作成技能を有していない作業者によるスキャン動作の教示プログラムの作成をより効果的に支援できる。
 また、実施の形態1におけるオフライン教示装置5においてスキャン有効領域(例えば、図10~図13に示すスキャン有効領域AR22等)は、センサの2つの補助スキャン領域のそれぞれ(例えば、図10~図13に示す補助スキャン領域AR221,AR222等)を含む。これにより、実施の形態1におけるオフライン教示装置5は、各スキャン有効領域に対応する2つの補助スキャン領域のそれぞれを可視化できる。したがって、作業者は、教示補助画面を用いて、溶接線が補助スキャン領域に含まれているか否かを目視で確認することができる。
 また、実施の形態1における3D演算部54は、溶接線の一端(例えば、図9に示す開始点ST21)と他端(例えば、図9に示す終了点ED21)とを含むスキャン有効領域(例えば、図9に示すスキャン有効領域AR21)を生成し、作業者操作により指定された分割点(例えば、図9に示す分割点PT21)と溶接線の一端とを含む第1のスキャン有効領域(第1の3次元領域の一例であって、例えば、図9に示すスキャン有効領域AR22)と、分割点と溶接線の他端とを含む第2のスキャン有効領域(第2の3次元領域の一例であって、例えば、図9に示すスキャン有効領域AR23)とを生成する。これにより、実施の形態1におけるオフライン教示装置5は、分割点を指定する作業者操作のみで、仮想空間上に、溶接線の開始点および終了点を含み、かつ、作業者操作により指定された分割点を含む2つのスキャン有効領域のそれぞれを生成できる。つまり、オフライン教示装置5は、分割されたスキャン有効領域のスキャン区間の調整,仮想空間におけるスキャン有効領域の配置処理(つまり、回転,移動処理),再作成処理等の複雑な作業者操作なしに、スキャン有効領域の分割を実現できる。
 また、実施の形態1における3D演算部54は、作業者操作によりM(M:2以上の整数)個の分割点(例えば、図14に示す分割点PT11,PT12,PT13のそれぞれ)が指定された場合、スキャン有効領域をM個の分割点でそれぞれ分割した(M+1)個のスキャン有効領域を生成し、1個目のスキャン有効領域(例えば、スキャン有効領域AR13)は、溶接線の一端(例えば、開始点ST11)と、1個目の分割点(例えば、分割点PT11)とを含んで生成され、k(k:2以上の整数)個目のスキャン有効領域(例えば、スキャン有効領域AR15)は、(k-1)個目の分割点(例えば、分割点PT11)と、k個目の分割点(例えば、分割点PT12)とを含んで生成され、(M+1)個目のスキャン有効領域(例えば、スキャン有効領域AR18)は、M個目の分割点(例えば、分割点PT13)と、溶接線の他端(例えば、終了点ED11)とを含んで生成される。これにより、実施の形態1におけるオフライン教示装置5は、溶接線が直線でなく複雑であって、1つのスキャン有効領域を複数回分割操作された場合であっても、溶接線の開始点および終了点を含み、かつ、作業者操作により指定された分割点を含む複数のスキャン有効領域のそれぞれを生成できる。
 以上により、実施の形態1において、作業者が入力装置UI3を操作して、入力装置UI3との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置5を用いて行うオフライン教示方法は、溶接により生産されるワークWkの溶接線の位置情報と、ワークWkに形成される溶接ビードの外観形状をスキャンするセンサ4のスキャン有効範囲AR0(スキャン範囲の一例)をコンピュータに入力し、仮想空間に溶接線と、センサ4によりスキャンされるスキャン有効領域とが配置された教示補助画面上において、少なくとも1つのスキャン有効領域の分割点(例えば、図9に示すスキャン有効領域AR21の分割点PT21)をコンピュータに入力し、仮想空間に溶接線と、分割された複数のスキャン有効領域とが配置された教示補助画面が示す複数のスキャン有効領域(例えば、図9に示す2つのスキャン有効領域AR22,AR23のそれぞれ)を、センサ4を駆動させる溶接ロボットMC1(ロボットの一例)にスキャンさせるための教示プログラムを作成する。
 これにより、実施の形態1におけるオフライン教示装置5は、溶接線の位置情報とセンサ4のスキャン有効範囲AR0との入力に基づいて、溶接線とスキャン有効領域(スキャン領域)との位置関係を可視化する教示補助画面を生成する。オフライン教示装置5は、生成された教示補助画面上において、いずれかのスキャン有効領域を分割する分割点の入力に基づいて、センサ4がスキャンするスキャン有効領域を分割する。オフライン教示装置5は、分割後のスキャン有効領域のそれぞれが配置(構築)された教示補助画面が示すスキャン動作としてのスキャン有効領域を、センサ4にスキャンさせるスキャン動作の教示プログラムの作成を実行する。したがって、オフライン教示装置5は、より高度な教示プログラムの作成技能を有していない作業者によるスキャン動作の教示プログラムの作成をより効果的に支援できる。
 以上により、実施の形態1におけるオフライン教示装置5は、作業者操作を取得可能な入出力部53(入力部の一例)と、溶接により生産されるワークWkの複数の溶接線の位置情報とワークWkに形成される溶接ビードの外観形状をスキャンするセンサ4のスキャン有効範囲AR0(スキャン範囲の一例)とを取得する入出力部53(取得部の一例)と、取得された複数の溶接線の位置情報と、スキャン有効範囲AR0とに基づいて、センサ4によりスキャンされる複数のスキャン有効領域(3次元領域の一例)を生成する3D演算部54(生成部の一例)と、仮想空間に複数の溶接線と複数のスキャン有効領域とを配置した教示補助画面を生成して出力し、作業者操作に基づいて、センサ4を駆動させる溶接ロボットMC1(ロボットの一例)に教示補助画面で示されるスキャン有効領域をスキャンさせるための教示プログラムを作成して出力するプログラム作成部55と、を備える。3D演算部54は、作業者操作により選択された2つのスキャン有効領域を結合する。プログラム作成部55は、仮想空間に、複数の溶接線と、結合されたスキャン有効領域を含む少なくとも1つのスキャン有効領域とを配置した新たな教示補助画面を生成して出力し、作業者操作に基づいて、新たな教示補助画面で示す少なくとも1つのスキャン有効領域をスキャンさせるための教示プログラムを作成して出力する。
 これにより、実施の形態1におけるオフライン教示装置5は、溶接線とスキャン有効領域(スキャン領域)との位置関係を可視化する教示補助画面により、スキャン動作のひな形として構築されているスキャン有効領域によって溶接線の全体がスキャン(検査)可能であるか否かの作業者判断を支援できる。また、オフライン教示装置5は、教示補助画面に示され、スキャン動作のひな形として構築されている複数のスキャン有効領域の結合を要求する作業者操作に基づいて、これらの複数のスキャン有効領域のそれぞれを結合する。つまり、オフライン教示装置5は、スキャン有効領域のスキャン区間の調整,仮想空間におけるスキャン有効領域の配置処理(つまり、回転,移動処理),再作成処理等の複雑な作業者操作なしに、複数のスキャン有効領域の結合を実現できる。したがって、オフライン教示装置5は、より高度な教示プログラムの作成技能を有していない作業者によるスキャン動作の教示プログラムの作成をより効果的に支援できる。
 また、実施の形態1におけるオフライン教示装置5においてスキャン有効領域(例えば、図10~図13に示すスキャン有効領域AR22等)は、センサ4の2つの補助スキャン領域のそれぞれ(例えば、図10~図13に示す補助スキャン領域AR221,AR222等)を含む。これにより、実施の形態1におけるオフライン教示装置5は、各スキャン有効領域に対応する2つの補助スキャン領域のそれぞれを可視化できる。したがって、作業者は、教示補助画面を用いて、溶接線が補助スキャン領域に含まれているか否かを目視で確認することができる。
 また、実施の形態1における3D演算部54は、選択された2つのスキャン有効領域のうち一方のスキャン有効領域(例えば、図15に示すスキャン有効領域AR31)のスキャン開始点(例えば、図15に示す開始点ST31)から他方のスキャン有効領域(例えば、図15に示すスキャン有効領域AR32)のスキャン終了点(例えば、図15に示す終了点ED32)までをスキャンするスキャン有効領域を生成する。これにより、実施の形態1におけるオフライン教示装置5は、結合対象である2つ以上のスキャン有効領域を選択する作業者操作のみで、仮想空間上に、溶接線の開始点および終了点を含み、かつ、作業者操作により指定された分割点を含む2つのスキャン有効領域のそれぞれを生成できる。
 また、実施の形態1における3D演算部54は、溶接線の位置情報(例えば、図16に示す溶接線WS41,WS42のそれぞれの開始点および終了点)に基づいて、センサ4のスキャン方向(例えば、図16に示すスキャン区間SS410,SS420が示す矢印の方向)をスキャン有効領域ごとに決定し、選択された2つ以上のスキャン有効領域のそれぞれのスキャン区間とスキャン方向とに基づいて、結合されたスキャン有効領域を生成する。これにより、実施の形態1におけるオフライン教示装置5は、作業者操作により選択された複数のスキャン有効領域のそれぞれのスキャン方向を合成して得られるスキャン方向に、複数のスキャン有効領域のそれぞれの合計スキャン区間だけスキャンするスキャン有効領域を生成することで、複数の溶接線を効率的にスキャン可能なスキャン有効領域を生成できる。
 具体的に、図16に示す例におけるオフライン教示装置5は、溶接線WS41の開始点ST41を始点、終了点ED41を終点とするベクトルと、溶接線WS42の開始点ST42を始点、終了点ED42を終点とするベクトルと、を合成して得られる方向を、スキャン有効領域AR43におけるセンサ4の動作軌跡(スキャン方向)に決定する。また、オフライン教示装置5は、選択された2つのスキャン有効領域AR41,ARのそれぞれの合計スキャン区間を、スキャン有効領域AR43におけるセンサ4の動作軌跡(スキャン方向)に決定することで、溶接線WS41,WS42のそれぞれをスキャン可能なスキャン有効領域AR43を生成する。
 以上により、実施の形態1において、作業者が入力装置UI3を操作して、入力装置UI3との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置5を用いて行うオフライン教示方法は、溶接により生産されるワークWkの複数の溶接線の位置情報と、ワークWkに形成される溶接ビードの外観形状をスキャンするセンサ4のスキャン有効範囲AR0(スキャン範囲の一例)をコンピュータに入力し、仮想空間に複数の溶接線と、センサ4によりスキャンされる複数のスキャン有効領域とが配置された教示補助画面上において、結合対象である少なくとも2つのスキャン有効領域をコンピュータに入力し、仮想空間に複数の溶接線と、入力された少なくとも2つのスキャン有効領域を結合した後の少なくとも1つのスキャン有効領域が配置された新たな教示補助画面が示す少なくとも1つのスキャン有効領域を、センサ4を駆動させる溶接ロボットにスキャンさせるための教示プログラムを作成する。
 これにより、実施の形態1におけるオフライン教示装置5は、溶接線とスキャン有効領域(スキャン領域)との位置関係を可視化する教示補助画面により、スキャン動作として構築されているスキャン有効領域によって溶接線の全体がスキャン(検査)可能であるか否かの作業者判断を支援できる。また、オフライン教示装置5は、教示補助画面に示され、スキャン動作として構築されている複数のスキャン有効領域の結合を要求する作業者操作に基づいて、これらの複数のスキャン有効領域のそれぞれを結合する。つまり、オフライン教示装置5は、スキャン有効領域のスキャン区間の調整,仮想空間におけるスキャン有効領域の配置処理(つまり、回転,移動処理),再作成処理等の複雑な作業者操作なしに、複数のスキャン有効領域の結合を実現できる。したがって、オフライン教示装置5は、より高度な教示プログラムの作成技能を有していない作業者によるスキャン動作の教示プログラムの作成をより効果的に支援できる。
 以上により、実施の形態1におけるオフライン教示装置5は、作業者操作を取得可能な入出力部53(入力部の一例)と、溶接により生産されるワークWkの複数の溶接線の位置情報とワークWkに形成される溶接ビードの外観形状をスキャンするセンサ4のスキャン有効範囲AR0(スキャン範囲の一例)とを取得する入出力部53(取得部の一例)と、取得された複数の溶接線の位置情報と、スキャン有効範囲AR0とに基づいて、センサ4によりスキャンされる複数のスキャン有効領域(3次元領域の一例)を生成する3D演算部54(生成部の一例)と、仮想空間に複数の溶接線と複数のスキャン有効領域とを配置し、複数のスキャン有効領域のそれぞれの重複領域(例えば、図19に示す重複領域DB61)を強調表示した教示補助画面を生成して出力するプログラム作成部55と、を備える。3D演算部54は、作業者操作に基づいて、重複領域を削除する。プログラム作成部55は、仮想空間に、複数の溶接線と、重複領域を削除した後の少なくとも1つのスキャン有効領域とを配置した新たな教示補助画面を生成して出力し、作業者操作に基づいて、センサを駆動させる溶接ロボットMC1(ロボットの一例)に少なくとも1つのスキャン有効領域をスキャンさせるための教示プログラムを作成して出力する。
 これにより、実施の形態1におけるオフライン教示装置5は、溶接線とスキャン有効領域(スキャン領域)との位置関係を可視化する教示補助画面において、スキャン動作のひな形として構築されているスキャン有効領域同士の重複領域を強調表示することで、重複領域を削除するか否かの作業者判断を支援できる。また、オフライン教示装置5は、教示補助画面に示された重複領域の削除を要求する作業者操作に基づいて、スキャン動作のひな形として構築されている複数のスキャン有効領域から重複領域を削除する。したがって、作業者は、教示補助画面が示す3次元空間(仮想空間)を回転させて、各スキャン有効領域のそれぞれが重複しているか否かを確認しなくても、一目で重複領域を確認することができる。また、作業者は、教示補助画面により、溶接線と、各スキャン有効領域と、重複領域とのそれぞれの位置関係を確認できるため、重複領域がどの溶接線に対応しているかを一目で確認できる。したがって、オフライン教示装置5は、より高度な教示プログラムの作成技能を有していない作業者によるスキャン動作の教示プログラムの作成をより効果的に支援できる。
 また、実施の形態1においてスキャン有効領域(例えば、図10~図13に示すスキャン有効領域AR22等)は、センサ4の2つの補助スキャン領域(例えば、図10~図13に示す補助スキャン領域AR221,AR222等)のそれぞれを含む。これにより、実施の形態1におけるオフライン教示装置5は、各スキャン有効領域に対応する2つの補助スキャン領域のそれぞれを可視化できる。したがって、作業者は、教示補助画面を用いて、溶接線が補助スキャン領域に含まれているか否かを目視で確認することができる。
 また、実施の形態1において3D演算部54は、作業者操作に基づいて、少なくとも1つのスキャン有効領域から重複領域(例えば、図19に示す重複領域DB61)を削除する。これにより、実施の形態1におけるオフライン教示装置5は、作業者により削除対象である重複領域を指定する作業者操作に基づいて、スキャン動作から重複領域を削除できる。
 また、実施の形態1におけるオフライン教示装置5は、重複領域の削除前の複数のスキャン有効領域をスキャンする第1のスキャン時間と、重複領域の削除後の複数のスキャン有効領域をスキャンする第2のスキャン時間とを算出するプログラム作成部55(算出部の一例)、をさらに備える。プログラム作成部55は、第1のスキャン時間と第2のスキャン時間との時間差が所定時間未満であると判定した場合、重複領域の強調表示を省略する。これにより、実施の形態1におけるオフライン教示装置5は、重複領域の削除によりセンサ4により実行されるスキャン動作に要する時間が増大、削減可能な時間がわずかであると判定した場合には、重複領域の強調表示処理を省略することで、作業者による重複領域の削除判断を不要にできる。
 また、実施の形態1におけるプログラム作成部55は、時間差が所定時間未満でないと判定した場合、重複領域を強調表示する。これにより、実施の形態1におけるオフライン教示装置5は、重複領域の削除によりセンサ4により実行されるスキャン動作に要する時間が所定時間以上であると判定した場合に、重複領域の強調表示処理を行うことで、作業者により行われる重複領域の削除判断を支援できる。
 また、実施の形態1におけるプログラム作成部55は、第1の溶接線(例えば、図17に示す溶接線WS51)を含む第1のスキャン有効領域(例えば、図17に示すスキャン有効領域AR51)と、第1の溶接線と第2の溶接線(例えば、図17に示す溶接線WS52)の少なくとも一部とを含む第2のスキャン有効領域(例えば、図17に示すスキャン有効領域AR52)とがあると判定した場合、第1のスキャン有効領域を削除する。これにより、実施の形態1におけるオフライン教示装置5は、第1のスキャン有効領域に含まれる溶接線が第2のスキャン有効領域でも同様に含まれる場合、第1のスキャン有効領域を削除することで、無駄なスキャン動作の発生を抑制できる。また、オフライン教示装置5は、より多く、あるいはより長い区間の溶接線を含むスキャン有効領域のみを優先的に残すことで、センサ4のスキャン動作をより効率化したスキャン動作の教示プログラムの作成を支援できる。
 以上により、実施の形態1において、作業者が入力装置UI3を操作して、入力装置UI3との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置5を用いて行うオフライン教示方法は、溶接により生産されるワークWkの複数の溶接線の位置情報と、ワークWkに形成される溶接ビードの外観形状をスキャンするセンサ4のスキャン有効範囲AR0(スキャン範囲の一例)をコンピュータに入力し、仮想空間に複数の溶接線と、センサ4によりスキャンされるスキャン有効領域とが配置され、複数のスキャン有効領域のそれぞれの重複領域を強調表示した教示補助画面上において、削除対象である重複領域をコンピュータに入力し、仮想空間に複数の溶接線と、入力された重複領域を削除した後の少なくとも1つのスキャン有効領域が配置された新たな教示補助画面が示す少なくとも1つのスキャン有効領域を、センサ4を駆動させるロボットにスキャンさせるための教示プログラムを作成する。
 これにより、実施の形態1におけるオフライン教示装置5は、溶接線とスキャン有効領域(スキャン領域)との位置関係を可視化する教示補助画面において、スキャン動作として構築されているスキャン有効領域同士の重複領域を強調表示することで、重複領域を削除するか否かの作業者判断を支援できる。また、オフライン教示装置5は、教示補助画面に示された重複領域の削除を要求する作業者操作に基づいて、スキャン動作として構築されている複数のスキャン有効領域から重複領域を削除する。したがって、作業者は、教示補助画面が示す3次元空間(仮想空間)を回転させて、各スキャン有効領域のそれぞれが重複しているか否かを確認しなくても、一目で重複領域を確認することができる。また、作業者は、教示補助画面により、溶接線と、各スキャン有効領域と、重複領域とのそれぞれの位置関係を確認できるため、重複領域がどの溶接線に対応しているかを一目で確認できる。したがって、オフライン教示装置5は、より高度な教示プログラムの作成技能を有していない作業者によるスキャン動作の教示プログラムの作成をより効果的に支援できる。
 以上により、実施の形態1におけるオフライン教示装置5は、作業者操作を取得可能な入出力部53(入力部の一例)と、溶接により生産されるワークWkの溶接線の位置情報とワークWkに形成される溶接ビードの外観形状をスキャンするセンサ4のスキャン有効範囲AR0(スキャン範囲の一例)とを取得する入出力部53と、取得された溶接線の位置情報と、スキャン有効範囲AR0とに基づいて、センサ4によりスキャンされるスキャン有効領域(3次元領域の一例)を生成する3D演算部54(生成部の一例)と、仮想空間に溶接線とスキャン有効領域とを配置した教示補助画面を生成して出力するプログラム作成部55(制御部の一例)と、を備える。3D演算部54は、作業者操作に基づいて、スキャン有効領域を移動または回転する。プログラム作成部55は、仮想空間に、溶接線と、移動または回転されたスキャン有効領域を含む少なくとも1つのスキャン有効領域とを配置した新たな教示補助画面を生成して出力し、作業者操作に基づいて、センサ4を駆動させる溶接ロボットMC1(ロボットの一例)に少なくとも1つのスキャン有効領域をスキャンさせるための教示プログラムを作成して出力する。
 これにより、実施の形態1におけるオフライン教示装置5は、溶接線とスキャン有効領域(スキャン領域)との位置関係を可視化する教示補助画面において、スキャン動作のひな形として構築されているスキャン有効領域の移動,回転等の作業者操作を受け付けることで、作業者が要望するスキャン動作の教示作業を支援できる。また、オフライン教示装置5は、作業者操作により移動,回転された各スキャン有効領域と溶接線との位置関係を3次元空間(仮想空間)で可視化できるため、移動,回転後の各スキャン有効領域が溶接線を含んでいるか否かを一目で確認可能にできる。したがって、オフライン教示装置5は、より高度な教示プログラムの作成技能を有していない作業者によるスキャン動作の教示プログラムの作成をより効果的に支援できる。
 また、実施の形態1におけるスキャン有効領域(例えば、図10~図13に示すスキャン有効領域AR22等)は、センサの2つの補助スキャン領域のそれぞれ(例えば、図10~図13に示す補助スキャン領域AR221,AR222等)を含む。これにより、実施の形態1におけるオフライン教示装置5は、各スキャン有効領域に対応する2つの補助スキャン領域のそれぞれを可視化できる。したがって、作業者は、教示補助画面を用いて、溶接線が補助スキャン領域に含まれているか否かを目視で確認することができる。
 また、実施の形態1における3D演算部54は、作業者操作により選択された溶接線(例えば、図25に示す溶接線WS741)を基準に、作業者操作により選択されたスキャン有効領域(例えば、スキャン有効領域AR75B,AR75Cのそれぞれ)を移動させる。これにより、実施の形態1におけるオフライン教示装置5は、3次元空間(仮想空間)上におけるスキャン有効領域の移動,回転操作の基準を、スキャン対象である溶接線に設定できる。したがって、オフライン教示装置5は、3次元空間(仮想空間)上におけるスキャン有効領域の移動,回転操作の自由度が溶接線に基づいて限定できるため、移動,回転後のスキャン有効領域が示すスキャン動作のスキャン方向と、溶接線の溶接方向(例えば、溶接線の開始点から終了点に向かう方向等)とのずれが発生することをより効果的に抑制できる。したがって、作業者は、仮想空間でスキャン有効領域を微調整することなく、各スキャン有効領域を移動,回転でき、スキャン教示作業を行うことができる。
 また、実施の形態1における3D演算部54は、作業者操作に基づいて、作業者操作により選択された溶接線の延伸方向(つまり、溶接線の開始点から終了点に向かう方向,溶接線に対応する溶接の動作軌跡が示す方向等)に沿って、スキャン有効領域を移動させる。これにより、実施の形態1におけるオフライン教示装置5は、作業者操作に基づくスキャン有効領域の移動方向を、溶接線に対して平行方向に限定できる。
 また、実施の形態1における3D演算部54は、作業者操作に基づいて、作業者操作により指定された溶接線上の所定位置(例えば、図24に示す点RT73)を回転中心として、スキャン有効領域を回転させる。これにより、実施の形態1におけるオフライン教示装置5は、作業者操作に基づくスキャン有効領域の回転基準点を、作業者操作により指定された所定の溶接線上の点に限定できる。具体的に、作業者は、作業者操作により指定された所定位置を回転中心として、仮想空間上でスキャン有効領域を回転できる。
 また、実施の形態1における3D演算部54は、作業者操作に基づいて、作業者操作により指定された溶接線上の所定位置(例えば、図24に示す点RT73)を中心とする半径方向にスキャン有効領域を移動させる。これにより、実施の形態1におけるオフライン教示装置5は、作業者操作に基づくスキャン有効領域の移動を、溶接線上の所定位置を基準とする方向に限定できる。具体的に、作業者は、指定した溶接線上の所定位置に向かってスキャン有効領域を接近させたり、指定した溶接線上の所定位置からスキャン有効領域を離間させたりできる。
 また、実施の形態1における3D演算部54は、作業者操作に基づいて、スキャン有効領域を複製し、作業者操作に基づいて、複製されたスキャン有効領域(例えば、図24に示すスキャン有効領域AR73B、図25に示すスキャン有効領域AR75B,AR75C等)を移動または回転させる。これにより、実施の形態1におけるオフライン教示装置5は、生成済みのスキャン有効領域を複製したり、作業者操作により指定された仮想空間上におけるスキャン有効領域の移動基準,回転基準に基づいて、複製されたスキャン有効領域を移動,回転したりできる。
 以上により、実施の形態1において、作業者が入力装置UI3を操作して、入力装置UI3との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置5を用いて行うオフライン教示方法であって、溶接により生産されるワークWkの複数の溶接線の位置情報と、ワークWkに形成される溶接ビードの外観形状をスキャンするセンサのスキャン有効範囲AR0(スキャン範囲の一例)をコンピュータに入力し、仮想空間に複数の溶接線と、センサ4によりスキャンされる複数のスキャン有効領域とが配置された教示補助画面上において、いずれかのスキャン有効領域を移動または回転させる操作をコンピュータに入力し、仮想空間に複数の溶接線と、移動または回転されたスキャン有効領域を含む少なくとも1つのスキャン有効領域が配置された新たな教示補助画面が示す少なくとも1つのスキャン有効領域を、センサ4を駆動させる溶接ロボットMC1(ロボットの一例)にスキャンさせるための教示プログラムを作成する。
 これにより、実施の形態1におけるオフライン教示装置5は、溶接線とスキャン有効領域(スキャン領域)との位置関係を可視化する教示補助画面において、スキャン動作として構築されているスキャン有効領域の移動,回転等の作業者操作を受け付けることで、作業者が要望するスキャン動作の教示作業を支援できる。また、オフライン教示装置5は、作業者操作により移動,回転された各スキャン有効領域と溶接線との位置関係を3次元空間(仮想空間)で可視化できるため、移動,回転後の各スキャン有効領域が溶接線を含んでいるか否かを一目で確認可能にできる。したがって、オフライン教示装置5は、より高度な教示プログラムの作成技能を有していない作業者によるスキャン動作の教示プログラムの作成をより効果的に支援できる。
 以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。
 なお、本出願は、2021年12月8日出願の日本特許出願(特願2021-199683)に基づくものであり、その内容は本出願の中に参照として援用される。
 本開示は、作業者により行われるスキャン動作の教示プログラムの作成を支援するオフライン教示装置およびオフライン教示方法として有用である。
1 上位装置
2 ロボット制御装置
3 検査制御装置
4 センサ
5 オフライン教示装置
10,20,30,50 通信部
11,21,31,51 プロセッサ
12,22,32,52 メモリ
53 入出力部
54 3D演算部
55 プログラム作成部
552 スキャン動作作成部
100 溶接システム
200 マニピュレータ
300 ワイヤ送給装置
301 溶接ワイヤ
400 溶接トーチ
500 電源装置
AR0 スキャン有効範囲
AR1,AR21,AR22 スキャン有効領域
AR220,AR230 スキャン領域
AR221,AR222,AR231,AR232 補助スキャン領域
DB56,DB57,DB61,DB62 重複領域
ED11,ED21 終了点
MC1 溶接ロボット
MN1,MN2,MN3 モニタ
PT11,PT12,PT13,PT21 分割点
SC1,SC2,SC3,SC4,SC51,SC52,SC53,SC54 教示補助画面
SS22,SS23 スキャン区間
STA1 統計情報
ST11,ST21 開始点
UI3 入力装置
Wk ワーク
WS21 溶接線

Claims (8)

  1.  作業者操作を取得可能な入力部と、
     溶接により生産されるワークの複数の溶接線の位置情報と前記ワークに形成される溶接ビードの外観形状をスキャンするセンサのスキャン範囲とを取得する取得部と、
     取得された前記複数の溶接線の位置情報と、前記スキャン範囲とに基づいて、前記センサによりスキャンされる複数の3次元領域を生成する生成部と、
     仮想空間に前記複数の溶接線と前記複数の3次元領域とを配置し、前記複数の3次元領域のそれぞれの重複領域を強調表示した補助画面を生成して出力する制御部と、を備え、
     前記生成部は、前記作業者操作に基づいて、前記重複領域を削除し、
     前記制御部は、前記仮想空間に、前記複数の溶接線と、前記重複領域を削除した後の少なくとも1つの3次元領域とを配置した新たな補助画面を生成して出力し、前記作業者操作に基づいて、前記センサを駆動させるロボットに前記少なくとも1つの3次元領域をスキャンさせるための教示プログラムを作成して出力する、
     オフライン教示装置。
  2.  前記3次元領域は、前記センサの2つの補助スキャン領域のそれぞれを含む、
     請求項1に記載のオフライン教示装置。
  3.  前記生成部は、前記作業者操作に基づいて、少なくとも1つの3次元領域から前記重複領域を削除する、
     請求項1に記載のオフライン教示装置。
  4.  前記重複領域の削除前の前記複数の3次元領域をスキャンする第1のスキャン時間と、前記重複領域の削除後の前記複数の3次元領域をスキャンする第2のスキャン時間とを算出する算出部、をさらに備え、
     前記制御部は、前記第1のスキャン時間と前記第2のスキャン時間との時間差が所定時間未満であると判定した場合、前記重複領域の強調表示を省略する、
     請求項1に記載のオフライン教示装置。
  5.  前記制御部は、前記時間差が前記所定時間未満でないと判定した場合、前記重複領域を強調表示する、
     請求項4に記載のオフライン教示装置。
  6.  前記生成部は、第1の溶接線を含む第1の3次元領域と、前記第1の溶接線と第2の溶接線の少なくとも一部とを含む第2の3次元領域とがあると判定した場合、前記第1の3次元領域を削除する、
     請求項1に記載のオフライン教示装置。
  7.  作業者操作を受け付け可能な入力装置との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置が行うオフライン教示方法であって、
     溶接により生産されるワークの複数の溶接線の位置情報と前記ワークに形成される溶接ビードの外観形状をスキャンするセンサのスキャン範囲とを取得し、
     取得された前記複数の溶接線の位置情報と、前記スキャン範囲とに基づいて、前記センサによりスキャンされる複数の3次元領域を生成し、
     仮想空間に、前記複数の溶接線と前記複数の3次元領域とを配置し、前記複数の3次元領域のそれぞれの重複領域を強調表示した補助画面を生成して出力し、
     前記作業者操作に基づいて、前記重複領域を削除し、
     前記仮想空間に、前記複数の溶接線と、前記重複領域を削除した後の少なくとも1つの3次元領域とを配置した新たな補助画面を生成して出力し、
     前記作業者操作に基づいて、前記センサを駆動させるロボットに前記少なくとも1つの3次元領域をスキャンさせるための教示プログラムを作成して出力する、
     オフライン教示方法。
  8.  作業者が入力装置を操作して、入力装置との間で通信可能に接続された1つ以上のコンピュータを含んで構成されたオフライン教示装置を用いて行うオフライン教示方法であって、
     溶接により生産されるワークの複数の溶接線の位置情報と、前記ワークに形成される溶接ビードの外観形状をスキャンするセンサのスキャン範囲を前記コンピュータに入力し、
     仮想空間に前記複数の溶接線と、前記センサによりスキャンされる3次元領域とが配置され、前記複数の3次元領域のそれぞれの重複領域を強調表示した補助画面上において、削除対象である前記重複領域を前記コンピュータに入力し、
     前記仮想空間に前記複数の溶接線と、入力された前記重複領域を削除した後の少なくとも1つの3次元領域が配置された新たな補助画面が示す前記少なくとも1つの3次元領域を、前記センサを駆動させるロボットにスキャンさせるための教示プログラムを作成する、
     オフライン教示方法。
PCT/JP2022/040276 2021-12-08 2022-10-27 オフライン教示装置およびオフライン教示方法 WO2023105980A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021199683 2021-12-08
JP2021-199683 2021-12-08

Publications (1)

Publication Number Publication Date
WO2023105980A1 true WO2023105980A1 (ja) 2023-06-15

Family

ID=86730065

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/040276 WO2023105980A1 (ja) 2021-12-08 2022-10-27 オフライン教示装置およびオフライン教示方法

Country Status (1)

Country Link
WO (1) WO2023105980A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104831A (ja) * 1993-10-08 1995-04-21 Fanuc Ltd レーザセンサを用いたロボットの自動位置教示方法
US5552575A (en) * 1994-07-15 1996-09-03 Tufts University Scan welding method and apparatus
JP2006247677A (ja) * 2005-03-09 2006-09-21 Fanuc Ltd レーザ溶接教示装置及び方法
JP2008020993A (ja) * 2006-07-11 2008-01-31 Tookin:Kk 作業用ロボットの教示データ作成装置
JP2021059012A (ja) * 2019-03-12 2021-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びロボットシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104831A (ja) * 1993-10-08 1995-04-21 Fanuc Ltd レーザセンサを用いたロボットの自動位置教示方法
US5552575A (en) * 1994-07-15 1996-09-03 Tufts University Scan welding method and apparatus
JP2006247677A (ja) * 2005-03-09 2006-09-21 Fanuc Ltd レーザ溶接教示装置及び方法
JP2008020993A (ja) * 2006-07-11 2008-01-31 Tookin:Kk 作業用ロボットの教示データ作成装置
JP2021059012A (ja) * 2019-03-12 2021-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びロボットシステム

Similar Documents

Publication Publication Date Title
CN103231162A (zh) 机器人焊接质量视觉检测装置及其检测方法
US20220410402A1 (en) Autonomous welding robots
US20220297246A1 (en) Repair welding device and repair welding method
Shen et al. Measurement and evaluation of laser-scanned 3D profiles in wire arc hybrid manufacturing processes
WO2023105980A1 (ja) オフライン教示装置およびオフライン教示方法
WO2023105977A1 (ja) オフライン教示装置およびオフライン教示方法
WO2023105978A1 (ja) オフライン教示装置
WO2022270579A1 (ja) オフライン教示装置およびオフライン教示方法
JP7369982B2 (ja) リペア溶接装置およびリペア溶接方法
WO2022270580A1 (ja) オフライン教示装置およびオフライン教示方法
US20220412728A1 (en) Bead appearance inspection device, bead appearance inspection method, program, and bead appearance inspection system
WO2020251036A1 (ja) リペア溶接システム
WO2023199620A1 (ja) ロボット制御装置およびオフライン教示システム
WO2023105979A1 (ja) オフライン教示装置およびオフライン教示方法
JP7365623B1 (ja) オフライン教示装置およびオフライン教示システム
EP4360794A1 (en) Offline teaching device and offline teaching method
JP6990869B1 (ja) 外観検査方法および外観検査装置
JP2021062441A (ja) リペア溶接装置およびリペア溶接方法
WO2021177435A1 (ja) ビード外観検査装置、ビード外観検査方法、プログラムおよびビード外観検査システム
WO2021177361A1 (ja) ビード外観検査装置およびビード外観検査システム
JP2021062442A (ja) リペア溶接装置およびリペア溶接方法
WO2021177436A1 (ja) ビード外観検査装置、ビード外観検査方法、プログラムおよびビード外観検査システム
WO2023074183A1 (ja) 学習支援システム、外観検査装置、外観検査用ソフトの更新装置及び外観検査用モデルの更新方法
WO2022091543A1 (ja) リペア溶接区間検出方法およびリペア溶接区間検出装置
JP7203686B2 (ja) 造形物の製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22903912

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023566155

Country of ref document: JP