WO2020246416A1 - 溶接条件設定支援装置 - Google Patents

溶接条件設定支援装置 Download PDF

Info

Publication number
WO2020246416A1
WO2020246416A1 PCT/JP2020/021553 JP2020021553W WO2020246416A1 WO 2020246416 A1 WO2020246416 A1 WO 2020246416A1 JP 2020021553 W JP2020021553 W JP 2020021553W WO 2020246416 A1 WO2020246416 A1 WO 2020246416A1
Authority
WO
WIPO (PCT)
Prior art keywords
sputtering
detected
image
spatter
bright spot
Prior art date
Application number
PCT/JP2020/021553
Other languages
English (en)
French (fr)
Inventor
暁靖 近藤
靖啓 衣笠
楓 國丸
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN202080041479.7A priority Critical patent/CN113950386B/zh
Priority to JP2021524831A priority patent/JP7394290B2/ja
Publication of WO2020246416A1 publication Critical patent/WO2020246416A1/ja
Priority to US17/532,841 priority patent/US11922614B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/095Monitoring or automatic control of welding parameters
    • B23K9/0956Monitoring or automatic control of welding parameters using sensing means, e.g. optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/095Monitoring or automatic control of welding parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K31/00Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups
    • B23K31/12Processes relevant to this subclass, specially adapted for particular articles or purposes, but not covered by only one of the preceding main groups relating to investigating the properties, e.g. the weldability, of materials
    • B23K31/125Weld quality monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K9/00Arc welding or cutting
    • B23K9/32Accessories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Definitions

  • the present invention relates to a device that assists in setting welding conditions when performing arc welding by generating an arc between the work and the electrode by applying a voltage between the work and the electrode.
  • Patent Document 1 discloses a technique for specifying the number of spatters generated during arc welding using a video camera. Specifically, this technique captures an arc with a video camera during arc welding to acquire a plurality of input images, captures the brightness distribution on a predetermined detection line in the image for each input image, and is based on the brightness distribution. Detects spatter that has passed on the detection line.
  • Patent Document 1 since spatter that has passed on the detection line is detected based on a plurality of input images, if the shooting speed of the video camera is slow, the accuracy of the number of spatters specified deteriorates. Therefore, a video camera having a high shooting speed is required, and the equipment cost increases.
  • the present invention has been made in view of this point, and an object of the present invention is to reduce equipment costs.
  • One aspect of the present invention relates to an apparatus that assists in setting welding conditions when performing arc welding by generating an arc between the work and the electrode by applying a voltage between the work and the electrode.
  • Spatter detection in which this device detects a region in which a plurality of consecutive pixels whose brightness pixel values exceed a predetermined threshold are continuously detected for each of a plurality of input images constituting a moving image of a workpiece during arc welding.
  • a sputtering detection step for performing processing about one of a plurality of input images, a sputtering detection step for performing processing, a background bright spot specifying step for specifying a position on a moving image in which the number of sputterings detected in the sputtering detection step is equal to or more than a predetermined reference number as a background bright spot.
  • An image processing unit that executes a sputtering number specifying step of specifying the number of sputterings excluding the sputtering detected at the background bright spot specified by the background bright spot specifying step among the sputtering detected by the sputtering detection processing. Is equipped with.
  • the sputtering detection process for each input image can be performed using only one input image, a video camera having a high shooting speed becomes unnecessary, and the equipment cost can be reduced.
  • the welding conditions are set so that the number of spatters larger than the predetermined size is reduced by referring to the specified number of spatters. Easy to set. Therefore, it becomes easy to reduce spatter larger than a predetermined size.
  • the number of sputterings excluding the sputtering detected at the position where the reflected light is reflected can be specified. Allows for more accurate identification of the number of spatters.
  • the spatter detection process for each input image can be performed using only one input image, a video camera having a high shooting speed becomes unnecessary, and the equipment cost can be reduced.
  • the welding conditions are set so that the number of spatters larger than the predetermined size is reduced by referring to the specified number of spatters. Easy to set. Therefore, it becomes easy to reduce spatter larger than a predetermined size.
  • the number of sputterings excluding the sputtering detected at the position where the reflected light is reflected can be specified. Allows for more accurate identification of the number of spatters.
  • FIG. 1 is a diagram showing a schematic configuration of a welding system including a computer as a welding condition setting support device according to an embodiment of the present invention.
  • FIG. 2 is an explanatory diagram showing spatter generated during arc welding.
  • FIG. 3 is a flowchart showing a procedure for counting the number of spatters using a computer as a welding condition setting support device according to the embodiment of the present invention.
  • FIG. 4 is a flowchart showing the procedure of the list correction process.
  • FIG. 5 is a flowchart showing the procedure of the spatter removal process.
  • FIG. 6 is an explanatory diagram illustrating the detected sputtering.
  • FIG. 7 is an explanatory diagram illustrating a processed image.
  • FIG. 1 shows the welding system 100.
  • the welding system 100 is connected to a welding robot 110, a video camera 120, a memory card 130 housed in the video camera 120, a computer 140 as a welding condition setting support device according to an embodiment of the present invention, and a computer 140. It is equipped with a card reader 150.
  • the welding robot 110 includes a welding torch 111 capable of holding the welding wire 160.
  • the work 170 is held by a welding jig (clamp).
  • the welding wire 160 acts as an electrode held by the welding torch 111.
  • the welding robot 110 applies a voltage between the work 170 and the welding wire 160 to generate an arc A between the work 170 and the welding wire 160 to perform arc welding.
  • the portion to be welded of the work 170 is melted to form a molten pool 171, and spatter SP is scattered from the molten pool 171.
  • the tip of the welding torch 111 is provided with an ejection hole (not shown) for ejecting the shield gas.
  • the video camera 120 is installed at a position where the entire scattering region of the sputtering SP including the entire work 170 can be photographed via an ND (Neutral Density) filter (not shown).
  • the video camera 120 stores the captured moving image in the memory card 130.
  • the frame rate (shooting speed) of the video camera 120 is set to, for example, 60 fps. Further, the focus, aperture, and shutter speed of the electronic shutter of the video camera 120 are fixed.
  • the computer 140 includes a computer main body 141 and a display 142.
  • the computer main body 141 includes a storage unit 141a and an image processing unit 141b.
  • the storage unit 141a stores a trained model generated by supervised learning using a plurality of images in which the sputtering SP is shown and a plurality of images in which the sputtering SP is not captured as teacher data.
  • a supervised learning method for generating a trained model for example, deep learning is used.
  • the storage unit 141a further stores the moving image taken by the video camera 120 and a plurality of still images obtained by dividing the moving image.
  • the image processing unit 141b reads the moving image stored in the memory card 130 inserted in the card reader 150 from the memory card 130 and stores it in the storage unit 141a. Further, the image processing unit 141b divides the moving image stored in the storage unit 141a into a plurality of still images (frames), and stores these plurality of still images as a plurality of input images in the storage unit 141a. Further, the image processing unit 141b performs a sputtering detection process for detecting the sputtering SP on each of the plurality of input images stored in the storage unit 141a, and the number of times the sputtering SP is detected is equal to or more than a predetermined reference number.
  • the position of is specified as a background bright spot, and the number of sputtering SPs excluding the sputtering SP detected at the background bright spot is specified (sputter detection step, background bright spot specifying step, sputtering number specifying step).
  • the image processing unit 141b detects the sputtering SP using the trained model stored in the storage unit 141a. Further, the image processing unit 141b selects one input image from the plurality of input images and generates a processed image I (see FIG. 7) in which the selected input image is subjected to predetermined processing (image generation step). ). Details of the method for detecting the spatter SP, the method for specifying the background bright spot, the method for specifying the number of sputter SPs, and the method for generating the processed image I will be described later.
  • the display 142 displays the processed image I generated by the image processing unit 141b of the computer main body 141.
  • the user causes the video camera 120 to perform shooting with the welding robot 110 performing arc welding, and saves the shot moving image in the memory card 130.
  • a moving image of the entire scattering region of the sputtering SP including the entire work 170 at the time of arc welding is stored in the memory card 130.
  • the user takes out the memory card 130 from the video camera 120, inserts it into the card reader 150, and transfers the moving image stored in the memory card 130 from the card reader 150 to the computer main body 141. Then, the image processing unit 141b of the computer main body 141 receives the moving image transferred from the card reader 150 and stores it in the storage unit 141a.
  • the user causes the image processing unit 141b of the computer main body 141 to divide the moving image at the time of arc welding stored in the storage unit 141a into a plurality of still images (frames), and these plurality of still images (frames).
  • the image is stored in the storage unit 141a as a plurality of input images.
  • the image processing unit 141b grayscales one of the plurality of input images stored in the storage unit 141a, which has not yet been processed in (S104) to (S110). Convert to.
  • the grayscale image contains a plurality of pixels. Each pixel has a pixel value indicating brightness.
  • the image processing unit 141b generates a sputter detection target image IM from the grayscale image obtained in (S104). Specifically, the image processing unit 141b performs a process of converting the pixel value of a pixel having a pixel value equal to or less than a predetermined threshold value Gs (first threshold value) in the grayscale image into a value (0) indicating black. Give. On the other hand, the image processing unit 141b maintains the pixel value of the pixel having the pixel value exceeding a predetermined threshold value Gs in the grayscale image as it is. As a result, pixels having a pixel value exceeding a predetermined threshold value Gs are specified as pixels other than black (hereinafter, referred to as gray pixels).
  • the image processing unit 141b detects a region in which a plurality of gray pixels in the sputter detection target image IM are continuous (hereinafter, referred to as a gray region) as a sputtering SP (sputter detection processing).
  • a gray region a region in which a plurality of gray pixels in the sputter detection target image IM are continuous
  • PB indicates a black pixel
  • PW indicates a gray pixel.
  • the image processing unit 141b detects the sputtering SP using the trained model stored in the storage unit 141a.
  • the image processing unit 141b creates a first sputter list ListGs that identifies all the detected spatter SPs.
  • the pixel value of a pixel having a pixel value exceeding the threshold value Gs may be converted into a specific value other than black (for example, white).
  • the image processing unit 141b executes the same processing as in (S105) except for the threshold value. That is, the image processing unit 141b sets the pixel value of the pixel having a pixel value equal to or less than a predetermined threshold value Gm (second threshold value) with respect to the grayscale image obtained in (S104) to a value (0) indicating black. The process of converting to is performed, and the gray region in the processed image is detected as a spatter SP.
  • the image processing unit 141b detects the sputtering SP using the trained model stored in the storage unit 141a.
  • the threshold value Gm is set to a value larger than the threshold value Gs.
  • the image processing unit 141b creates a second sputter list ListGm that identifies all the detected spatter SPs.
  • the image processing unit 141b executes the same processing as in (S105) except for the threshold value. That is, the image processing unit 141b performs a process of converting the pixel value of the pixel having a pixel value equal to or less than a predetermined threshold Gl into a value (0) indicating black on the grayscale image obtained in (S104). , The gray area in the processed image is detected as a spatter SP. Here, too, the image processing unit 141b detects the sputtering SP using the trained model stored in the storage unit 141a.
  • the threshold value Gl is set to a value larger than the threshold value Gm.
  • the image processing unit 141b creates a third sputtering list, ListGl, which identifies all the detected sputtering SPs.
  • the sputtering SP is specified by the coordinates of the upper left of the sputtering SP and the lengths in the vertical and horizontal directions.
  • the thresholds Gs, Gm, and Gl correspond to small size, medium size, and large size, respectively.
  • S105 detects small size, medium size and large size spatter SPs.
  • S106 detects medium-sized and large-sized sputter SPs.
  • S107 detects a large-sized sputter SP.
  • the image processing unit 141b specifies a sputter SP excluding the sputter SP specified by the second sputter list ListGm from the sputter SP specified by the first sputter list ListGs. Create the list SmallS.
  • the image processing unit 141b specifies a sputter SP excluding the sputter SP specified by the third sputter list ListGl from the sputter SP specified by the second sputter list ListGm. Create a list MiddleS.
  • the image processing unit 141b uses the third sputtering list ListGl as the large sputtering list LargeS as it is.
  • the image processing unit 141b determines whether or not the input image (frame) that has not yet been processed in (S104) to (S110) remains in the storage unit 141a. Then, if it remains, the process returns to (S104), while if it does not remain, the process proceeds to (S112).
  • the image processing unit 141b performs the following list correction processing.
  • the image processing unit 141b detects the gray region in the input image as the sputtering SP.
  • the gray region may be due to a light source (eg, arc A) that is different from the true sputtering.
  • the list correction process removes such spatter SPs from the list.
  • FIG. 4 shows the procedure of the list correction process performed in (S112).
  • the image processing unit 141b is specified by all the sputtering SPs detected in all the input images stored in the storage unit 141a, that is, the first sputtering list ListGs of all the input images.
  • the center coordinates of all the sputter SPs to be processed are calculated.
  • the relationship between the position in the actual scattering region and the position (coordinates) in the input image is common to all the input images.
  • the moving image includes the first and second input images.
  • the image processing unit 141b calculates the number of times (sputter detection number) calculated as the center coordinates of the sputtering SP in (S201) for each position (coordinates) on the moving image.
  • the image processing unit 141b stores a plurality of positions on the moving image and the number of times of sputtering detected corresponding to each position as a distribution of the number of times of sputtering detection.
  • the image processing unit 141b determines the number of spatter detections calculated in (S202), that is, the coordinates on the moving image in which the number of sputter SP detections in the process of (S105) is equal to or greater than a predetermined reference number (S203). Position) is specified as the background bright spot. Then, a background bright spot coordinate list that specifies the coordinates of the background bright spot is created.
  • the image processing unit 141b was created in (S203) with respect to the small sputter list SmallS, the medium sputter list MiddleS, and the large sputter list LargeS of all the input images stored in the storage unit 141a.
  • a sputter removal process is performed excluding the sputter SP whose center coordinate exists in the background bright spot coordinate list. That is, the sputter SP removed by the sputter removal process is a sputter SP having the background bright spot specified in (S203) as the center coordinate.
  • (S305) it is determined whether or not the determination of (S303) has been performed for all the sputtering SPs of the small sputtering list SmallS, and if not, the process returns to (S302), and if it is performed, the sputtering is performed. The removal process ends.
  • the image processing unit 141b specifies the number of spatter SPs specified in the small spatter list SmallS after the correction process as the sputter number S of the small spatter SP. Further, the number of sputters SP specified by the medium spatter list SmallM after the correction process is specified as the number of spatters M of the medium-sized sputter SPs. Further, the number of sputters SP specified by the large sputter list LargeS after the correction process is specified as the number of spatters L of the large sputter SP.
  • the light from the arc A may be reflected from peripheral devices such as the welding jig (clamp), the welding torch 111, and the main body of the welding robot 110, and may enter the video camera 120. Even when such reflected light is detected as the sputter SP in (S105) to (S107), the image processing unit 141b can specify the number of sputter SPs excluding the sputter SP. Therefore, the spatter numbers S, M, and L can be specified more accurately.
  • the image processing unit 141b specifies the total of the sputtering numbers S, M, and L as the total sputtering number T. Further, the image processing unit 141b selects one input image from the plurality of input images, and as shown in FIG. 7, performs quantity display processing and size display processing on the selected input image to obtain the processed image I. Generate. The image processing unit 141b may generate processed images corresponding to each of the plurality of input images.
  • the quantity display process is a process in which the spatter numbers S, M, L and the total spatter number T are displayed in the upper left corner of the input image.
  • the sputter SP specified by the small spatter list SmallS after the correction process in (S112) is surrounded by a blue rectangular frame F1 and specified by the medium spatter list MiddleS after the correction process in (S112).
  • the sputter SP to be formed is surrounded by a yellow rectangular frame F2
  • the sputter SP specified by the large sputter list LargeS after the correction process in (S112) is surrounded by a red rectangular frame F3.
  • the blue frame F1 is indicated by a broken line
  • the yellow frame F2 is indicated by a solid line
  • the red frame F3 is indicated by a dotted line.
  • the display 142 displays the processed image I generated in (S113).
  • the user determines the suitability of welding conditions such as the voltage value applied between the work 170 and the welding wire 160 by referring to the spatter numbers S, M, L and the total spatter number T displayed on the display 142. To do.
  • the user determines that the welding conditions are inappropriate, the user changes the welding conditions so as to reduce the number of large sputtering SPs, and executes the processes (S101) to (S114) again. Further, at this time, since the sputtering SP is displayed on the display 142 with the frames F1, F2, F3 of colors corresponding to the sizes thereof, the user can refer to these frames F1, F2, F3 to display the display.
  • the reliability of the spatter numbers S, M, L, and T displayed on 142 can be determined.
  • the image processing unit 141b detects the sputtering SP using only one input image, so that a plurality of input images can be used as in Patent Document 1.
  • the process can be simplified as compared to the case where the number of spatter SPs is specified by use.
  • the equipment cost can be reduced.
  • the spatter SP can be easily removed with a metal brush or the like, while if a large spatter SP adheres to the work 170, the spatter SP can be removed without polishing with a grinder or the like.
  • the man-hours required for removal increase.
  • the number of spatter SPs of a plurality of sizes that is, the sputter numbers S, M, and L are displayed on the display 142. The user can refer to these spatter numbers S, M, and L, allow the generation of small spatter SP, and set the welding conditions so as to suppress the generation of large spatter SP. Therefore, the man-hours required for removing the sputter SP can be reduced.
  • the reflected light from the peripheral device is detected from a plurality of input images as a spatter SP
  • the brightness (size of the reflected area) of the reflected light from the peripheral device in each input image is the situation around the reflected light. It may differ depending on. Even in such a case, in the present embodiment, since the coordinates in (S201) to (S203) in which the number of times the center coordinates of the detected spatter SP is equal to or greater than the reference number of times are specified as the background bright spot, the detected spatter is specified.
  • the reflected light from the peripheral device of the light of the arc A can be more reliably specified as the background bright spot, as compared with the case where the coordinates of the end of the SP are more than the reference number of times are specified as the background bright spot.
  • the image processing unit 141b once converted the input image into a grayscale image in (S104), but the input image is not converted into a grayscale image, and the pixel value indicating the brightness directly from the input image. May identify pixels that exceed a predetermined threshold.
  • the sputter SP is detected using the trained model, but the entire gray region may be detected as the sputter SP. Further, the entire region in which the number of gray pixels is continuous by the number of the first number or more and the number of the second number (> the first number) or less may be detected as the sputtering SP. In this case, since the region where the gray pixels exceed the second number and are continuous is not detected as the sputtering SP, it is possible to prevent erroneous detection of a non-sputtering SP as the sputtering SP.
  • the coordinates on the input image in which the number of times corresponding to the center coordinates of the detected sputter SP is equal to or more than the predetermined reference number are specified as the background bright spot.
  • the coordinates on the input image in which the number of times corresponding to the predetermined position other than the center of the detected sputter SP is equal to or more than the predetermined reference number may be specified as the background bright spot.
  • the coordinates on the input image in which the number of times corresponding to the upper left coordinates of the detected sputter SP is equal to or greater than the predetermined reference number are specified as the background bright spots, and the upper left coordinates for each list SmallS, MiddleS, and LargeS.
  • the correction process may be performed except for the spatter SP in which the background bright spot is formed.
  • a background bright spot coordinate list is created based on the first sputtering list ListGs of all input images, and the background bright spot coordinate list is obtained in (S204). It was also used for the correction processing of the small spatter list SmallS, the medium spatter list MiddleS, and the large spatter list LargeS.
  • the background bright spot coordinate list created based on the small spatter list SmallS of all input images is used for the correction processing of the small sputter list SmallS
  • the background bright spot coordinate list created based on the medium spatter list MiddleS of all input images May be used for the correction process of the medium spatter list MiddleS
  • the background bright spot coordinate list created based on the large sputter list LargeS of all input images may be used for the correction process of the large sputter list LargeS.
  • the detected sputter SP is processed to attach the frames F1, F2, F3 to the processed image I, but the input image is processed to add a mark other than the frames F1, F2, F3.
  • the processed image I may be used.
  • the image processing unit 141b of the computer main body 141 receives the moving image including the input image from the card reader 150, it may be received from another information transmission device.
  • the present invention is applied to arc welding using the welding robot 110, but the present invention can also be applied to the case where the welding torch is manually operated.
  • the present invention is applied when the voltage applied between the work 170 and the welding wire 160 is not a pulse voltage, but the present invention is applied between the work 170 and the welding wire 160. It can also be applied when the voltage is a pulse voltage.
  • the welding condition setting support device of the present invention can reduce the equipment cost, facilitate the reduction of spatters larger than a predetermined size, and enable more accurate identification of the number of spatters, so that the workpiece and the electrode can be separated from each other. It is useful as a device that supports the setting of welding conditions when performing arc welding by generating an arc between the work and the electrode by applying a voltage between them.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Plasma & Fusion (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

コンピュータ(140)に、アーク溶接時にワークを撮影した動画を構成する複数の入力画像のそれぞれに対し、明るさを示す画素値が所定の閾値を超える画素が複数個連続する領域をスパッタとして検出するスパッタ検出処理を行うスパッタ検出ステップと、スパッタ検出ステップにおけるスパッタの検出回数が所定の基準回数以上となる動画上の位置を背景輝点として特定する背景輝点特定ステップと、1つの入力画像について、スパッタ検出処理によって検出されたスパッタのうち、背景輝点特定ステップによって特定された背景輝点で検出されたスパッタを除いたスパッタの数の特定を行うスパッタ数特定ステップとを実行する画像処理部(141b)を設ける。

Description

溶接条件設定支援装置
 本発明は、ワークと電極との間に電圧を印加することでワークと電極との間にアークを発生させてアーク溶接を行う際に溶接条件の設定を支援する装置に関するものである。
 特許文献1には、ビデオカメラを利用してアーク溶接時に発生するスパッタの数を特定する技術が開示されている。具体的には、この技術は、アーク溶接時にビデオカメラでアークを撮影して複数の入力画像を取得し、画像内の所定の検出線上の輝度分布を入力画像毎に取り込み、当該輝度分布に基づいて検出線上を通過したスパッタを検出する。
特開2009-28775号公報
 しかし、上記特許文献1では、複数の入力画像に基づいて、検出線上を通過したスパッタを検出するので、ビデオカメラの撮影速度が遅いと、特定されるスパッタの数の精度が悪化する。したがって、撮影速度の速いビデオカメラが必要となり、設備コストが増大する。
 本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、設備コストを削減することにある。
 本発明の一態様は、ワークと電極との間に電圧を印加することでワークと電極との間にアークを発生させてアーク溶接を行う際に溶接条件の設定を支援する装置に関する。この装置が、アーク溶接時にワークを撮影した動画を構成する複数の入力画像のそれぞれに対し、明るさを示す画素値が所定の閾値を超える画素が複数個連続する領域をスパッタとして検出するスパッタ検出処理を行うスパッタ検出ステップと、スパッタ検出ステップにおけるスパッタの検出回数が所定の基準回数以上となる動画上の位置を背景輝点として特定する背景輝点特定ステップと、複数の入力画像の1つについて、スパッタ検出処理によって検出されたスパッタのうち、背景輝点特定ステップによって特定された背景輝点で検出されたスパッタを除いたスパッタの数の特定を行うスパッタ数特定ステップとを実行する画像処理部を備えている。
 この態様によると、各入力画像に対するスパッタ検出処理を、1つの入力画像だけを使用して行えるので、撮影速度の速いビデオカメラが不要となり、設備コストを削減できる。
 また、閾値に対応する所定の大きさよりも大きいスパッタの数が特定されるので、特定されたスパッタの数を参照することにより、所定の大きさよりも大きいスパッタの数が少なくなるように溶接条件を設定しやすい。したがって、所定の大きさよりも大きいスパッタを減らすことが容易になる。
 また、アークの光の周辺機器からの反射光がスパッタ検出処理によりスパッタとして検出された場合でも、当該反射光の写り込んだ位置で検出されたスパッタを省いたスパッタの数が特定されるので、スパッタの数のより正確な特定が可能になる。
 本発明に係る溶接条件設定支援装置によれば、各入力画像に対するスパッタ検出処理を、1つの入力画像だけを使用して行えるので、撮影速度の速いビデオカメラが不要となり、設備コストを削減できる。
 また、閾値に対応する所定の大きさよりも大きいスパッタの数が特定されるので、特定されたスパッタの数を参照することにより、所定の大きさよりも大きいスパッタの数が少なくなるように溶接条件を設定しやすい。したがって、所定の大きさよりも大きいスパッタを減らすことが容易になる。
 また、アークの光の周辺機器からの反射光がスパッタ検出処理によりスパッタとして検出された場合でも、当該反射光の写り込んだ位置で検出されたスパッタを省いたスパッタの数が特定されるので、スパッタの数のより正確な特定が可能になる。
図1は、本発明の実施形態に係る溶接条件設定支援装置としてのコンピュータを備えた溶接システムの概略構成を示す図である。 図2は、アーク溶接時に発生するスパッタを示す説明図である。 図3は、本発明の実施形態に係る溶接条件設定支援装置としてのコンピュータを用いてスパッタ数を数える手順を示すフローチャートである。 図4は、リスト修正処理の手順を示すフローチャートである。 図5は、スパッタ除去処理の手順を示すフローチャートである。 図6は、検出されるスパッタを例示する説明図である。 図7は、加工画像を例示する説明図である。
 以下、本発明の実施形態について図面に基づいて説明する。以下の好ましい実施形態の説明は、本質的に例示に過ぎず、本発明、その適用物或いはその用途を制限することを意図するものでは全くない。
 図1は、溶接システム100を示す。溶接システム100は、溶接ロボット110と、ビデオカメラ120と、ビデオカメラ120に収容されるメモリカード130と、本発明の実施形態に係る溶接条件設定支援装置としてのコンピュータ140と、コンピュータ140に接続されたカードリーダ150とを備えている。
 溶接ロボット110は、図2にも示すように、溶接ワイヤ160を保持可能な溶接トーチ111を備える。ワーク170は、溶接治具(クランプ)に保持されている。溶接ワイヤ160は、溶接トーチ111に保持された電極として働く。溶接ロボット110は、ワーク170と溶接ワイヤ160との間に電圧を印加することで、ワーク170と溶接ワイヤ160との間にアークAを発生させてアーク溶接を行う。アーク溶接時には、ワーク170の被溶接部分が溶融して溶融池171が形成され、溶融池171からスパッタSPが飛散する。なお、溶接トーチ111の先端には、シールドガスを噴出するための噴出穴(図示せず)が設けられている。
 ビデオカメラ120は、ワーク170全体を含むスパッタSPの飛散領域全体をND(Neutral Density)フィルタ(図示せず)を介して撮影可能な位置に設置されている。ビデオカメラ120は、撮影した動画をメモリカード130に保存する。なお、ビデオカメラ120のフレームレート(撮影速度)は、例えば、60fpsに設定されている。また、ビデオカメラ120のピント、絞り、及び電子シャッターのシャッタースピードは固定されている。
 コンピュータ140は、コンピュータ本体141と、ディスプレイ142とを備えている。コンピュータ本体141は、記憶部141aと画像処理部141bとを備えている。
 記憶部141aは、スパッタSPが写っている複数枚の画像と、スパッタSPが写っていない複数枚の画像とを教師データとした教師あり学習によって生成された学習済みモデルを記憶する。学習済みモデルを生成するための教師あり学習の手法としては、例えば、ディープラーニングが用いられる。また、記憶部141aは、ビデオカメラ120により撮影された動画と、当該動画を分割して得られる複数の静止画像とをさらに記憶する。
 画像処理部141bは、カードリーダ150に挿入されたメモリカード130に保存された動画をメモリカード130から読み出し、記憶部141aに保存する。また、画像処理部141bは、記憶部141aに保存された動画を複数の静止画像(フレーム)に分割して、これらの複数の静止画像を複数の入力画像として記憶部141aに保存する。さらに、画像処理部141bは、記憶部141aに保存された複数の入力画像のそれぞれに対し、スパッタSPを検出するスパッタ検出処理を行い、スパッタSPの検出回数が所定の基準回数以上となる動画上の位置を背景輝点として特定し、背景輝点で検出されたスパッタSPを除いたスパッタSPの数を特定する(スパッタ検出ステップ、背景輝点特定ステップ、スパッタ数特定ステップ)。画像処理部141bは、記憶部141aに記憶された学習済みモデルを用いてスパッタSPを検出する。また、画像処理部141bは、複数の入力画像から1つの入力画像を選択し、選択された入力画像に対して所定の加工を施した加工画像I(図7参照)を生成する(画像生成ステップ)。スパッタSPの検出方法、背景輝点の特定方法、スパッタSPの数の特定方法、及び加工画像Iの生成方法の詳細については後述する。
 ディスプレイ142は、コンピュータ本体141の画像処理部141bにより生成された加工画像Iを表示する。
 以下、溶接システム100の溶接条件を設定する手順について、図3を参照して説明する。
 まず、(S101)で、ユーザが、溶接ロボット110にアーク溶接を行わせた状態で、ビデオカメラ120に撮影を実行させ、撮影した動画をメモリカード130に保存させる。これにより、アーク溶接時におけるワーク170全体を含むスパッタSPの飛散領域全体の動画がメモリカード130に保存される。
 次に、(S102)で、ユーザが、メモリカード130をビデオカメラ120から取り出してカードリーダ150に挿入し、メモリカード130に保存された動画をカードリーダ150からコンピュータ本体141に転送させる。そして、コンピュータ本体141の画像処理部141bが、カードリーダ150から転送された動画を受信し、記憶部141aに保存する。
 次に、(S103)で、ユーザが、コンピュータ本体141の画像処理部141bに、記憶部141aに保存されたアーク溶接時の動画を複数の静止画像(フレーム)に分割させ、これらの複数の静止画像を複数の入力画像として記憶部141aに保存させる。
 次に、(S104)で、画像処理部141bが、記憶部141aに保存された複数の入力画像のうち、まだ(S104)~(S110)の処理を行っていない1つの入力画像をグレースケール画像に変換する。グレースケール画像は、複数の画素を含む。各画素は、明るさを示す画素値を有する。
 次に、(S105)で、画像処理部141bは、(S104)で得られたグレースケール画像からスパッタ検出対象画像IMを生成する。画像処理部141bは、具体的には、グレースケール画像中の所定の閾値Gs(第1の閾値)以下の画素値を有する画素の画素値を、黒を示す値(0)に変換する処理を施す。一方、画像処理部141bは、グレースケール画像中の所定の閾値Gsを超える画素値を有する画素の画素値をそのまま維持する。これにより、所定の閾値Gsを超える画素値を有する画素が、黒以外の画素(以下、グレー画素という)として特定される。そして、例えば図6に示すように、画像処理部141bは、スパッタ検出対象画像IMにおけるグレー画素が複数個連続する領域(以下、グレー領域という)をスパッタSPとして検出する(スパッタ検出処理)。図6中、PBは黒の画素、PWはグレー画素を示す。ここで、画像処理部141bは、記憶部141aに記憶された学習済みモデルを用いてスパッタSPを検出する。そして、画像処理部141bは、検出した全てのスパッタSPを特定する第1のスパッタリストListGsを作成する。なお、閾値Gsを超える画素値を有する画素の画素値は、黒以外の特定の値(例えば、白)に変換されてもよい。
 次に、(S106)で、画像処理部141bは、閾値を除き、(S105)と同じ処理を実行する。すなわち、画像処理部141bは、(S104)で得られたグレースケール画像に対し、所定の閾値Gm(第2の閾値)以下の画素値を有する画素の画素値を、黒を示す値(0)に変換する処理を施し、処理後の画像におけるグレー領域をスパッタSPとして検出する。ここでも、画像処理部141bは、記憶部141aに記憶された学習済みモデルを用いてスパッタSPを検出する。なお、閾値Gmは、閾値Gsよりも大きい値に設定される。そして、画像処理部141bは、検出した全てのスパッタSPを特定する第2のスパッタリストListGmを作成する。
 次に、(S107)で、画像処理部141bは、閾値を除き、(S105)と同じ処理を実行する。すなわち、画像処理部141bは、(S104)で得られたグレースケール画像に対し、所定の閾値Gl以下の画素値を有する画素の画素値を、黒を示す値(0)に変換する処理を施し、処理後の画像におけるグレー領域をスパッタSPとして検出する。ここでも、画像処理部141bは、記憶部141aに記憶された学習済みモデルを用いてスパッタSPを検出する。なお、閾値Glは、閾値Gmよりも大きい値に設定される。そして、画像処理部141bは、検出した全てのスパッタSPを特定する第3のスパッタリストListGlを作成する。なお、第1~第3のスパッタリストListGs,ListGm,ListGlでは、スパッタSPの左上の座標と、縦方向及び横方向の長さとによりスパッタSPが特定されている。
 ここで、スパッタSPのサイズが大きくなる程、スパッタSPの明るさも大きくなる。閾値Gs,Gm,Glは、それぞれ小サイズ、中サイズ、大サイズに対応する。(S105)は、小サイズ、中サイズおよび大サイズのスパッタSPを検出する。(S106)は、中サイズおよび大サイズのスパッタSPを検出する。(S107)は、大サイズのスパッタSPを検出する。
 次に、(S108)で、画像処理部141bは、第1のスパッタリストListGsで特定されるスパッタSPから、第2のスパッタリストListGmで特定されるスパッタSPを除いたスパッタSPを特定する小スパッタリストSmallSを作成する。
 続いて、(S109)で、画像処理部141bは、第2のスパッタリストListGmで特定されるスパッタSPから、第3のスパッタリストListGlで特定されるスパッタSPを除いたスパッタSPを特定する中スパッタリストMiddleSを作成する。
 続いて、(S110)で、画像処理部141bは、第3のスパッタリストListGlを、そのまま大スパッタリストLargeSとする。
 次に、(S111)で、画像処理部141bが、(S104)~(S110)の処理をまだ行っていない入力画像(フレーム)が記憶部141aに残っているか否かを判定する。そして、残っている場合には、(S104)に戻る一方、残っていない場合には、(S112)に進む。
 そして、(S112)では、画像処理部141bが、以下のリスト修正処理を行う。本実施形態では、上述の通り、画像処理部141bは、入力画像中のグレー領域をスパッタSPとして検出する。しかし、グレー領域は、本当のスパッタとは異なる光源(例えば、アークA)に起因することがある。リスト修正処理は、そのようなスパッタSPをリストから排除する。
 図4は、(S112)で行うリスト修正処理の手順を示す。
 (S112)では、まず、(S201)において、画像処理部141bが、記憶部141aに保存された全入力画像で検出された全てのスパッタSP、すなわち全入力画像の第1のスパッタリストListGsで特定される全てのスパッタSPの中心座標を算出する。本実施形態では、現実の飛散領域内の位置と入力画像内の位置(座標)との関係は全入力画像で共通である。例えば、動画は、第1および第2の入力画像を含む。第1の入力画像内の特定の座標(例えば、x=100,y=100)は、現実の飛散領域内の特定の位置(例えば、ワーク170の左上角)を指す。第2の入力画像内の同じ座標(x=100,y=100)は、現実の飛散領域内の同じ特定の位置(ワーク170の左上角)を指す。
 次に、(S202)において、画像処理部141bが、動画上の各位置(座標)について、(S201)でスパッタSPの中心座標として算出される回数(スパッタ検出回数)を算出する。画像処理部141bは、動画上の複数の位置と、それぞれの位置に対応するスパッタ検出回数とをスパッタ検出回数の分布として記憶する。
 次に、(S203)において、画像処理部141bが、(S202)で算出されたスパッタ検出回数、すなわち(S105)の処理におけるスパッタSPの検出回数が所定の基準回数以上となる動画上の座標(位置)を背景輝点として特定する。そして、背景輝点の座標を特定する背景輝点座標リストを作成する。
 次に、(S204)において、画像処理部141bが、記憶部141aに保存された全入力画像の小スパッタリストSmallS、中スパッタリストMiddleS、及び大スパッタリストLargeSに対し、(S203)で作成された背景輝点座標リストにその中心座標が存在するスパッタSPを除くスパッタ除去処理を行う。つまり、当該スパッタ除去処理によって除かれるスパッタSPは、(S203)で特定された背景輝点を中心座標とするスパッタSPとなる。
 ここで、小スパッタリストSmallSに対するスパッタ除去処理の具体的な手順を、図5を参照して説明する。中スパッタリストMiddleS、及び大スパッタリストLargeSに対するスパッタ除去処理も同様の手順によって行われる。
 まず、(S301)において、k=0と設定する。
 次に、(S302)において、k=k+1と設定する。
 次に、(S303)において、小スパッタリストSmallSのk番目のスパッタSPの中心座標が背景輝点座標リストに存在するか否かを判定する。k番目のスパッタSPの中心座標が背景輝点座標リストに存在しない場合には、(S305)に進み、存在する場合には、(S304)に進む。
 (S304)では、k番目のスパッタSPを小スパッタリストSmallSから削除する。
 (S305)では、(S303)の判定を小スパッタリストSmallSのすべてのスパッタSPに対して行ったか否かを判定し、行っていない場合には(S302)に戻り、行った場合には、スパッタ除去処理を終了する。
 次に、(S205)において、画像処理部141bが、修正処理後の小スパッタリストSmallSで特定されるスパッタSPの数を、小さいスパッタSPのスパッタ数Sとして特定する。また、修正処理後の中スパッタリストSmallMで特定されるスパッタSPの数を、中程度の大きさのスパッタSPのスパッタ数Mとして特定する。さらに、修正処理後の大スパッタリストLargeSで特定されるスパッタSPの数を、大きいスパッタSPのスパッタ数Lとして特定する。アークAからの光が、溶接治具(クランプ)、溶接トーチ111、溶接ロボット110の本体等の周辺機器から反射し、ビデオカメラ120に入射することがある。このような反射光が(S105)~(S107)でスパッタSPとして検出された場合でも、画像処理部141bは、このスパッタSPを省いたスパッタSPの数を特定できる。したがって、スパッタ数S,M,Lのより正確な特定が可能になる。
 (S113)では、画像処理部141bが、スパッタ数S,M,Lの合計を合計スパッタ数Tとして特定する。さらに、画像処理部141bは、複数の入力画像から1つの入力画像を選択し、図7に示すように、選択された入力画像に対し数量表示加工とサイズ表示加工を施して、加工画像Iを生成する。画像処理部141bは、複数の入力画像にそれぞれ対応する加工画像を生成してもよい。数量表示加工は、入力画像の左上の隅にスパッタ数S,M,L及び合計スパッタ数Tの表示を付与する加工である。サイズ表示加工は、(S112)での修正処理後の小スパッタリストSmallSで特定されるスパッタSPを青色の矩形状の枠F1で囲み、(S112)での修正処理後の中スパッタリストMiddleSで特定されるスパッタSPを黄色の矩形状の枠F2で囲み、かつ(S112)での修正処理後の大スパッタリストLargeSで特定されるスパッタSPを赤色の矩形状の枠F3で囲む加工である。なお、図7中、青色の枠F1を破線、黄色の枠F2を実線、赤色の枠F3を点線で示す。また、図7中、A’は、アークAの光及びヒュームから反射するアークAの光を示す。
 (S114)では、ディスプレイ142が、(S113)で生成された加工画像Iを表示する。ユーザは、ディスプレイ142に表示されたスパッタ数S,M,L、及び合計スパッタ数Tを参照することにより、ワーク170と溶接ワイヤ160との間に印加する電圧値等の溶接条件の適否を判定する。ユーザは、溶接条件を不適切と判定した場合には、大きいスパッタSPの数を減らすように溶接条件を変更し、(S101)~(S114)の処理を再度実行する。また、このときディスプレイ142にスパッタSPがその大きさに応じた色の枠F1,F2,F3を付して表示されるので、ユーザは、これら枠F1,F2,F3を参照することにより、ディスプレイ142に表示されるスパッタ数S,M,L,Tの信頼性を判断できる。
 したがって、本実施形態によると、(S105)~(S107)において、画像処理部141bが、1つの入力画像だけを使用してスパッタSPの検出を行うので、特許文献1の如く複数の入力画像を使用してスパッタSPの数を特定する場合に比べ、処理を簡素化できる。また、撮影速度の速いビデオカメラが不要となるので、設備コストを削減できる。
 また、一般に、ワーク170に小さいスパッタSPが固着しても、スパッタSPは金属ブラシ等で容易に除去できる一方、ワーク170に大きいスパッタSPが固着すると、スパッタSPはグラインダー等で研磨しないと除去できず、除去に要する工数が増大する。本実施形態によると、(S114)において、複数種類の大きさのスパッタSPの数、すなわちスパッタ数S,M,Lがディスプレイ142に表示される。ユーザは、これらスパッタ数S,M,Lを参照し、小さなスパッタSPの発生を容認し、大きなスパッタSPの発生を抑制するように溶接条件を設定できる。したがって、スパッタSPの除去に要する工数を削減できる。
 また、(S105)~(S107)において、画像処理部141bが、学習済みモデルを用いてスパッタSPを検出するので、グレー領域を全てスパッタSPとして検出する場合に比べ、シールドガスや装置の一部等、スパッタSPではないものをスパッタSPとして検出しにくい。したがって、誤検出の可能性を低減できる。
 また、周辺機器からの反射光がスパッタSPとして複数の入力画像から検出される場合に、各入力画像における周辺機器からの反射光の輝度(写り込む領域のサイズ)が、反射光の周囲の状況によって異なってくる場合がある。このような場合でも、本実施形態では、(S201)~(S203)において、検出されたスパッタSPの中心座標となる回数が基準回数以上の座標を背景輝点として特定するので、検出されたスパッタSPの端の座標となる回数が基準回数以上の座標を背景輝点として特定する場合に比べ、アークAの光の周辺機器からの反射光をより確実に背景輝点として特定できる。
 また、一般に、スパッタSPは大きい程重くなり、移動速度が低くなるので、1つの入力画像に写るスパッタSPの軌跡は、スパッタSPが大きい程短くなる。したがって、撮影範囲を狭くする場合でも、大きいスパッタSPが、小さいスパッタSPに比べて撮影範囲内に納まりやすく、大きいスパッタSPの検出漏れが発生しにくい。
 なお、本実施形態では、(S104)で画像処理部141bが入力画像を一旦グレースケール画像に変換したが、入力画像をグレースケール画像に変換せず、入力画像から直接、明るさを示す画素値が所定の閾値を超える画素を特定するようにしてもよい。
 また、本実施形態では、(S105)~(S107)において、学習済みモデルを用いてスパッタSPの検出を行ったが、グレー領域を全てスパッタSPとして検出するようにしてもよい。また、グレー画素が第1の個数以上第2の個数(>第1の個数)以下だけ連続する領域を全てスパッタSPとして検出するようにしてもよい。このようにした場合、グレー画素が第2の個数を超えて連続する領域をスパッタSPとして検出しないので、スパッタSPではないものがスパッタSPとして誤検出されるのを防止できる。
 また、本実施形態では、(S201)~(S203)において、検出されたスパッタSPの中心座標に該当する回数が所定の基準回数以上となる入力画像上の座標を背景輝点として特定した。しかし、検出されたスパッタSPの中心以外の所定位置に該当する回数が所定の基準回数以上となる入力画像上の座標を背景輝点として特定するようにしてもよい。例えば、検出されたスパッタSPの左上の座標に該当する回数が所定の基準回数以上となる入力画像上の座標を背景輝点として特定し、各リストSmallS,MiddleS,LargeSに対し、その左上の座標が背景輝点となるスパッタSPを除く修正処理を行うようにしてもよい。
 また、本実施形態では、(S201)~(S203)において、全入力画像の第1のスパッタリストListGsに基づいて背景輝点座標リストを作成し、当該背景輝点座標リストを、(S204)における小スパッタリストSmallS、中スパッタリストMiddleS、及び大スパッタリストLargeSの修正処理に兼用した。しかし、全入力画像の小スパッタリストSmallSに基づいて作成した背景輝点座標リストを、小スパッタリストSmallSの修正処理に用い、全入力画像の中スパッタリストMiddleSに基づいて作成した背景輝点座標リストを、中スパッタリストMiddleSの修正処理に用い、全入力画像の大スパッタリストLargeSに基づいて作成した背景輝点座標リストを、大スパッタリストLargeSの修正処理に用いるようにしてもよい。
 また、本実施形態では、入力画像に対し、検出したスパッタSPに枠F1,F2,F3付ける加工を施して加工画像Iとしたが、枠F1,F2,F3以外の目印を付ける加工を施して加工画像Iとするようにしてもよい。
 また、本実施形態では、コンピュータ本体141の画像処理部141bが、入力画像を含む動画をカードリーダ150から受信したが、他の情報伝達装置から受信するようにしてもよい。
 また、本実施形態では、溶接ロボット110を使用するアーク溶接に本発明を適用したが、本発明は、溶接トーチの操作を手作業で行う場合にも適用できる。
 また、本実施形態では、ワーク170と溶接ワイヤ160との間に印加される電圧がパルス電圧でない場合に本発明を適用したが、本発明は、ワーク170と溶接ワイヤ160との間に印加される電圧がパルス電圧である場合にも適用できる。
 本発明の溶接条件設定支援装置は、設備コストを削減でき、所定の大きさよりも大きいスパッタを減らすことが容易になり、かつスパッタの数のより正確な特定が可能になり、ワークと電極との間に電圧を印加することでワークと電極との間にアークを発生させてアーク溶接を行う際に溶接条件の設定を支援する装置として有用である。
140   コンピュータ(溶接条件設定支援装置)
141a  記憶部
141b  画像処理部
142   ディスプレイ
160   溶接ワイヤ(電極)
170   ワーク
A     アーク
SP    スパッタ
I     加工画像
F1,F2,F3     枠(目印)

Claims (7)

  1.  ワークと電極との間に電圧を印加することでワークと電極との間にアークを発生させてアーク溶接を行う際に前記アーク溶接の溶接条件の設定を支援する装置であって、
     前記アーク溶接時に前記ワークを撮影した動画を構成する複数の入力画像のそれぞれに対し、明るさを示す画素値が所定の閾値を超える画素が複数個連続する領域をスパッタとして検出するスパッタ検出処理を行うスパッタ検出ステップと、前記スパッタ検出ステップにおけるスパッタの検出回数が所定の基準回数以上となる前記動画上の位置を背景輝点として特定する背景輝点特定ステップと、前記複数の入力画像の1つについて、前記スパッタ検出処理によって検出されたスパッタのうち、前記背景輝点特定ステップによって特定された背景輝点で検出されたスパッタを除いたスパッタの数の特定を行うスパッタ数特定ステップとを実行する画像処理部を備えていることを特徴とする溶接条件設定支援装置。
  2.  請求項1に記載の溶接条件設定支援装置において、
     前記背景輝点特定ステップは、前記スパッタ検出ステップにおいて検出されたスパッタの中心座標を算出し、中心座標として算出される回数が前記所定の基準回数以上となる前記動画上の座標を背景輝点として特定するものであり、
     前記スパッタ数特定ステップは、前記複数の入力画像の前記1つについて、前記スパッタ検出処理によって検出されたスパッタのうち、前記背景輝点特定ステップによって特定された背景輝点を中心座標とするスパッタを除いたスパッタの数の特定を行うものであることを特徴とする溶接条件設定支援装置。
  3.  請求項1又は2に記載の溶接条件設定支援装置において、
     前記画像処理部は、前記所定の閾値を、第1の閾値と当該第1の閾値よりも大きい第2の閾値とに設定して前記スパッタ検出ステップを実行し、
     前記背景輝点特定ステップは、前記所定の閾値を前記第1の閾値に設定した前記スパッタ検出ステップにおけるスパッタの検出回数が前記所定の基準回数以上となる前記動画上の位置を背景輝点として特定するものであり、
     前記スパッタ数特定ステップは、前記複数の入力画像の前記1つについて、前記所定の閾値を前記第1の閾値に設定したスパッタ検出処理によって検出されたスパッタのうち、前記所定の閾値を前記第2の閾値に設定したスパッタ検出処理によって検出されたスパッタと、前記背景輝点特定ステップによって特定された背景輝点で検出されたスパッタとを除いたスパッタの数の特定を行うものであることを特徴とする溶接条件設定支援装置。
  4.  請求項1~3のいずれか1項に記載の溶接条件設定支援装置において、
     前記スパッタ検出処理は、スパッタが写っている複数枚の画像と、スパッタが写っていない複数枚の画像とを教師データとした教師あり学習によって生成された学習済みモデルを用いてスパッタを検出するものであることを特徴とする溶接条件設定支援装置。
  5.  請求項1~4のいずれか1項に記載の溶接条件設定支援装置において、
     前記画像処理部のスパッタ数特定ステップにより特定されたスパッタの数を表示するディスプレイをさらに備えたことを特徴とする溶接条件設定支援装置。
  6.  請求項5に記載の溶接条件設定支援装置において、
     前記画像処理部は、前記複数の入力画像の前記1つに基づいて、前記スパッタ検出処理により検出したスパッタに目印を付ける加工を施した加工画像を生成する画像生成ステップをさらに実行し、
     前記ディスプレイは、前記画像生成ステップにより生成された加工画像を表示することを特徴とする溶接条件設定支援装置。
  7.  請求項1に記載の溶接条件設定支援装置において、
     前記スパッタ検出処理は、
     前記複数の入力画像から1つの入力画像を選択すること、
     前記選択された入力画像に含まれる画素ごとに、前記画素の画素値と前記所定の閾値とを比較すること、
     前記選択された入力画像中の前記所定の閾値以下の画素値を有する画素の画素値を第1の固定値に変更し、前記選択された入力画像中の前記所定の閾値を超える画素値を有する画素の画素値をそのまま維持または前記第1の固定値とは異なる第2の固定値に変更することにより、前記選択された入力画像からスパッタ検出対象画像を生成すること、
     前記スパッタ検出対象画像中の前記所定の閾値を超える画素値を有する画素が複数個連続した領域を前記スパッタとして検出すること
     を含むことを特徴とする溶接条件設定支援装置。
PCT/JP2020/021553 2019-06-06 2020-06-01 溶接条件設定支援装置 WO2020246416A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080041479.7A CN113950386B (zh) 2019-06-06 2020-06-01 焊接条件设定辅助装置
JP2021524831A JP7394290B2 (ja) 2019-06-06 2020-06-01 溶接条件設定支援装置
US17/532,841 US11922614B2 (en) 2019-06-06 2021-11-22 Welding condition setting assistance device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-106355 2019-06-06
JP2019106355 2019-06-06

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/532,841 Continuation US11922614B2 (en) 2019-06-06 2021-11-22 Welding condition setting assistance device

Publications (1)

Publication Number Publication Date
WO2020246416A1 true WO2020246416A1 (ja) 2020-12-10

Family

ID=73652551

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/021553 WO2020246416A1 (ja) 2019-06-06 2020-06-01 溶接条件設定支援装置

Country Status (4)

Country Link
US (1) US11922614B2 (ja)
JP (1) JP7394290B2 (ja)
CN (1) CN113950386B (ja)
WO (1) WO2020246416A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205929B (zh) * 2022-06-23 2023-07-28 池州市安安新材科技有限公司 避免电火花切割机床工作台误控制的认证方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126274A (ja) * 2006-11-21 2008-06-05 Kobe Steel Ltd アーク溶接におけるスパッタ認識方法及びスパッタ認識装置
JP2012174083A (ja) * 2011-02-23 2012-09-10 Fuji Xerox Co Ltd プログラム及び情報処理システム
JP2014014857A (ja) * 2012-07-11 2014-01-30 Suzuki Motor Corp 画像処理方法及び画像処理システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000167671A (ja) * 1998-12-08 2000-06-20 Hitachi Constr Mach Co Ltd 溶接スパッタの測定方法
KR100646437B1 (ko) * 1999-03-18 2006-11-14 가부시키가이샤 야스카와덴키 소모전극식 아크용접방법 및 장치
WO2007053973A1 (de) * 2005-11-14 2007-05-18 Precitec Vision Gmbh & Co. Kg, Eschborn (De), Zweigniederlassung Neftenbach Verfahren und vorrichtung zur bewertung von fügestellen von werkstücken
JP2009028775A (ja) * 2007-07-30 2009-02-12 Daido Steel Co Ltd パルスアーク溶接方法及びパルスアーク溶接装置
JP2009066612A (ja) * 2007-09-11 2009-04-02 Fanuc Ltd スパッタ検出手段を備えたスポット溶接装置
US9174294B2 (en) * 2012-03-30 2015-11-03 Illinois Tool Works Inc. Devices and methods for analyzing spatter generating events
JP5974984B2 (ja) * 2013-06-07 2016-08-23 株式会社安川電機 アーク溶接装置、アーク溶接システム及びアーク溶接方法
US20160193681A1 (en) * 2015-01-07 2016-07-07 Illinois Tool Works Inc. Synchronized image capture for welding machine vision
US10850343B2 (en) * 2015-03-06 2020-12-01 Honda Motor Co., Ltd. Spatter analysis method and device
CN107206528B (zh) * 2015-04-07 2019-07-05 松下知识产权经营株式会社 电弧焊接控制方法
JP6757892B2 (ja) * 2015-08-17 2020-09-23 パナソニックIpマネジメント株式会社 アーク溶接制御方法
JP6626675B2 (ja) * 2015-09-25 2019-12-25 株式会社Nishihara 画像処理装置と画像処理方法及びレーザまたはtig溶接装置とレーザまたはtig溶接装置の制御方法
JP6568766B2 (ja) * 2015-10-21 2019-08-28 株式会社神戸製鋼所 設定支援装置、設定支援方法及びプログラム
JP7021728B2 (ja) * 2017-05-12 2022-02-17 株式会社神戸製鋼所 自動溶接システム、溶接制御方法、及び機械学習モデル
WO2019239644A1 (ja) 2018-06-11 2019-12-19 パナソニックIpマネジメント株式会社 溶接条件設定支援装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008126274A (ja) * 2006-11-21 2008-06-05 Kobe Steel Ltd アーク溶接におけるスパッタ認識方法及びスパッタ認識装置
JP2012174083A (ja) * 2011-02-23 2012-09-10 Fuji Xerox Co Ltd プログラム及び情報処理システム
JP2014014857A (ja) * 2012-07-11 2014-01-30 Suzuki Motor Corp 画像処理方法及び画像処理システム

Also Published As

Publication number Publication date
US11922614B2 (en) 2024-03-05
CN113950386B (zh) 2023-06-16
JPWO2020246416A1 (ja) 2020-12-10
CN113950386A (zh) 2022-01-18
JP7394290B2 (ja) 2023-12-08
US20220084192A1 (en) 2022-03-17

Similar Documents

Publication Publication Date Title
US11524368B2 (en) Augmented vision system with active welder guidance
CN112001876A (zh) 判定装置、判定系统、焊接系统、判定方法以及存储介质
US20080152210A1 (en) Inspection apparatus method and apparatus comprising motion responsive control
EP3247522B1 (en) User configuration of image capture and display in a welding vision system
JP2007172397A (ja) エッジ勾配検出方法、シミ欠陥検出方法、エッジ勾配検出装置、シミ欠陥検出装置
JP2008126274A (ja) アーク溶接におけるスパッタ認識方法及びスパッタ認識装置
WO2020246416A1 (ja) 溶接条件設定支援装置
WO2019239644A1 (ja) 溶接条件設定支援装置
US11446755B2 (en) Apparatus and method for object tracking in welding process
JP2020086409A (ja) ムラ補正データ生成方法及びムラ補正データ生成システム
JP7165924B2 (ja) 溶接条件設定支援装置
WO2021230078A1 (ja) 溶接条件設定支援装置
WO2023002753A1 (ja) 溶接現象の挙動の計測方法、計測装置、溶接システム、およびプログラム
CN113744243A (zh) 焊缝跟踪检测的图像处理方法、装置、设备与介质
JP2002205166A (ja) 溶接状態表示装置
JP7491876B2 (ja) 溶接現象の挙動の計測方法、計測装置、溶接システム、およびプログラム
JP2010002534A (ja) 顕微鏡装置
JP5047104B2 (ja) アーク溶接の監視装置及びアーク溶接の監視方法
JP4699883B2 (ja) 外観検査装置
JP7075248B2 (ja) 顕微鏡システム、注意喚起方法、及び、プログラム
JP2003294639A (ja) 非金属介在物の自動検査方法及び装置
KR20180050967A (ko) 영상에서 배경을 지우기 위한 장치
JP2003346165A (ja) ワーク境界の検出方法
KR20220126936A (ko) 색 분리 영상 및 밝기 구간별 선체 용접용 화상의 모니터링 카메라의 화질 보상 시스템
JP2021039032A (ja) 非接触計測装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20818467

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021524831

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20818467

Country of ref document: EP

Kind code of ref document: A1