WO2023228929A1 - 工具診断システム、工具診断装置、工具診断方法及びプログラム - Google Patents

工具診断システム、工具診断装置、工具診断方法及びプログラム Download PDF

Info

Publication number
WO2023228929A1
WO2023228929A1 PCT/JP2023/019070 JP2023019070W WO2023228929A1 WO 2023228929 A1 WO2023228929 A1 WO 2023228929A1 JP 2023019070 W JP2023019070 W JP 2023019070W WO 2023228929 A1 WO2023228929 A1 WO 2023228929A1
Authority
WO
WIPO (PCT)
Prior art keywords
tool
image
blade
machine
workpiece
Prior art date
Application number
PCT/JP2023/019070
Other languages
English (en)
French (fr)
Inventor
朝和 坂本
良輔 原田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Publication of WO2023228929A1 publication Critical patent/WO2023228929A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q11/00Accessories fitted to machine tools for keeping tools or parts of the machine in good working condition or for cooling work; Safety devices specially combined with or arranged in, or specially adapted for use in connection with, machine tools
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/09Arrangements for observing, indicating or measuring on machine tools for indicating or measuring cutting pressure or for determining cutting-tool condition, e.g. cutting ability, load on tool
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme

Definitions

  • the present disclosure relates to a tool diagnosis system, a tool diagnosis device, a tool diagnosis method, and a program.
  • Patent Document 1 Conventional tool diagnosis devices use machine learning to create a trained model using an image of the tool blade, machining conditions, and specifications of the tool and workpiece, and then generate a new tool blade image and perform machining. It is known that tool wear prediction can be obtained as an output by inputting conditions and specifications of tools and workpieces into a trained model (Patent Document 1).
  • the present disclosure has been made in view of the above-mentioned circumstances, and aims to generate a learned model with sufficient predictive accuracy in tool diagnosis without requiring much effort.
  • the tool diagnosis system of the present disclosure includes a machine tool that processes a workpiece, an imaging device that images the blade of a tool attached to the machine tool, and an image of the blade of the tool.
  • a trained model is created by machine learning that learns the remaining tool life.
  • a model generation section that generates a model, and an inference section that outputs the remaining tool life by inputting the image of the tool blade after image processing, the machining conditions of the machine tool, and the specifications of the tool and workpiece to the trained model.
  • the image processing unit identifies wear marks by comparing an image of the tool blade taken immediately after machining with an image of the tool blade taken after the tool is rotated at high speed after the image is taken.
  • a diagram showing the configuration of a tool diagnosis system according to a first embodiment of the present disclosure A diagram showing the configuration of a tool diagnosis device according to a first embodiment of the present disclosure Diagram showing the process in which the tool blade scrapes a workpiece
  • Graph showing the relationship between wear scar size and remaining tool life according to the first embodiment of the present disclosure Diagram of the tool after machining, observed from the direction of the tool's rotation axis
  • FIG. 1 Flowchart showing the operation of imaging processing according to the first embodiment of the present disclosure Flowchart showing the operation of image processing according to the first embodiment of the present disclosure A diagram showing the configuration of a learning section according to the first embodiment of the present disclosure A diagram showing a neural network according to the first embodiment of the present disclosure Flowchart showing the operation of learning processing according to the first embodiment of the present disclosure A diagram showing the configuration of an inference unit according to the first embodiment of the present disclosure Flowchart showing operation of tool exchange determination processing according to the first embodiment of the present disclosure A diagram showing a hardware configuration of a tool diagnosis device according to a first embodiment of the present disclosure.
  • a diagram showing the configuration of a tool diagnosis system according to a second embodiment of the present disclosure A diagram showing the configuration of a tool diagnosis system according to a third embodiment of the present disclosure
  • a diagram of the tool after machining is observed from a direction perpendicular to the rotation axis direction of the tool.
  • a diagram of the tool after machining is observed from the direction of the rotation axis of the tool.
  • a diagram of a tool after high-speed rotation observed from the direction of the rotation axis of the tool in the fifth embodiment of the present disclosure A diagram showing the configuration of a tool diagnosis system according to a fifth embodiment of the present disclosure
  • FIG. 1 is a configuration diagram showing a tool diagnosis system 100 according to a first embodiment of the present disclosure.
  • the tool diagnosis system 100 includes a machine tool 1 that cuts a workpiece, a control device 2 that is connected to the machine tool 1 and controls the operation of the machine tool, and diagnoses the wear state of tools used in the machine tool 1.
  • a camera 4 which is an imaging device that is connected to the tool diagnostic device 3 and captures an image of the state of the tool; and a sensor 5 that is connected to the tool diagnostic device 3 and which detects the state of the machine tool 1 during machining. and.
  • the machine tool 1 includes a tool 12 for cutting a workpiece 11 that is a workpiece, a spindle motor 13 for rotating the tool 12, a cutting fluid discharge port 14 for spraying cutting fluid onto the tool 12 during machining, and a cutting fluid outlet 14 for spraying cutting fluid onto the tool 12 during machining.
  • An auto tool changer 15 for automatic tool exchange is provided.
  • the tool 12 is a tool for machining, such as a milling cutter or a drill, and is removably attached and fixed to the spindle motor 13.
  • the tool 12 rotates as the main shaft motor 13 rotates.
  • the tool 12 is moved closer to the workpiece 11 while rotating the spindle motor 13, and by bringing the blade into contact with the workpiece 11, the workpiece 11 is machined into a desired shape while being scraped off.
  • the auto tool changer 15 is a device that automatically changes tools when performing machining, and is equipped with a tool magazine that stores a plurality of tools.
  • the auto tool changer 15 is a device that automatically changes tools during machining. do.
  • the next tool 12 to be used is selected from a plurality of tools installed in the tool magazine according to the tool exchange instructions of the machining program executed by the control device 2 that controls the machine tool 1, and the tool is exchanged. This is done by rotating and moving the tool magazine to a position close to the main spindle and replacing it with the tool 12 mounted on the main spindle.
  • a camera 4 is installed outside the machine tool 1 at a position where it can image the blade of the tool 12, with the tool 12 being replaced by the auto tool changer 15 fixed.
  • the camera 4 is a CMOS (Complementary Metal Oxide Semiconductor) camera, a CCD (Charge Coupled Device) camera, a hyperspectral camera, a TOF (Time of Flight) camera, or the like.
  • the camera 4 is connected to the tool diagnosis device 3 via a communication cable, and the image taken by the camera 4 is A/D (Analog/Digital) converted and sent to the tool diagnosis device 3.
  • a sensor 5 is installed in the machine tool 1.
  • the sensor 5 collects machining status data such as motor specification data during machining (motor speed, motor torque, acceleration waveform, current waveform, voltage waveform, etc.) and machining-related information (cutting fluid discharge pressure, cutting fluid temperature, etc.).
  • machining status data such as motor specification data during machining (motor speed, motor torque, acceleration waveform, current waveform, voltage waveform, etc.) and machining-related information (cutting fluid discharge pressure, cutting fluid temperature, etc.).
  • an acceleration sensor, a current detection sensor, a voltage detection sensor installed on the spindle motor 13, a pressure sensor, a temperature sensor, etc. installed on the cutting fluid discharge port 14 are used.
  • the sensor 5 is connected to the tool diagnosis device 3 by a communication cable, and the machining state data detected by the sensor 5 is sent to the tool diagnosis device 3.
  • the control device 2 is a numerical control device that controls the machine tool 1.
  • the control device 2 controls the machining conditions of the machine tool 1, such as spindle speed, feed rate, and depth of cut, the type and material of the tool 12 to be used, and the workpiece.
  • the machine tool 1 is controlled by setting the specifications of the tool 12 and the workpiece 11, such as the material of the tool 11, in a machining program stored in advance. Further, the control device 2 sends data on the set machining conditions of the machine tool 1 and specifications of the tool 12 and workpiece 11 to the tool diagnosis device 3.
  • the tool diagnosis device 3 includes an image processing unit 31 that processes image data captured by the camera 4, and the image data processed by the image processing unit 31 and the workpiece sent from the control device 2.
  • a learning section 32 receives input of machining conditions of the machine 1, specification data of the tool 12 and workpiece 11, and machining state detection data detected by the sensor 5, and learns the remaining tool life until the usable limit due to wear of the tool 12.
  • a learned model storage unit 33 that stores the learned model generated by learning, image data processed by the image processing unit 31 similarly to the learning unit 32, and image data of the machine tool 1 sent from the control device 2.
  • the tool includes an inference section 34 that infers the tool life, and an alarm issuing section 35 that issues a warning that the tool 12 needs to be replaced based on the inferred remaining tool life of the tool 12.
  • the image processing unit 31 performs image processing on the image data of the blade portion of the tool 12 captured by the camera 4, extracts color areas that have been discolored due to wear, performs edge detection on the labeled color areas, and detects wear marks. Extract the contour shape and find the edge information of the wear scar. Since the wear marks become larger as the wear of the tool increases, the remaining tool life of the tool 12 is determined by measuring the size of the wear marks, and it is determined whether or not the tool needs to be replaced based on the presence or absence of the remaining tool life. Is possible.
  • FIG. 3A is a schematic diagram showing a process in which the blade portion 121 of the tool 12 scrapes off the workpiece 11.
  • FIG. 3B is a schematic diagram illustrating a process in which the blade portion 121 of the tool 12 in FIG. 3A wears out due to the process in which the blade portion 121 of the tool 12 scrapes the workpiece 11.
  • the blade portion 121 of the tool 12 is composed of a rake surface 122 and a flank surface 123, and when the blade portion 121 scrapes off the workpiece 11, the chips 111 slide on the flank surface 123. Therefore, wear marks 124 are generated on the side of the flank 123 due to friction with the chips 111.
  • the wear marks 124 grow larger in proportion to the number of machining operations and the machining distance of the tool 12, and when the wear marks 124 reach a certain size, the resistance when scraping the workpiece 11 increases, and the workpiece 11 becomes smaller. The roughness of the machined surface increases.
  • the tool 12 is in the shape of a drill
  • the wear mark 124 generated on the drill blade reaches a certain size, the resistance when drilling a hole in the workpiece 11 increases, and the diameter of the hole to be formed becomes smaller than the designed diameter. Become bigger.
  • the number of machining operations and machining distance required for the tool 12 to reach its usable limit from its new state, or the number of machining operations and machining distance it can last until it reaches its usable limit, are called tool life.
  • the number of machining cycles and machining distance required to reach the limit, or the number of machining cycles and machining distance required to reach the service limit are called the remaining tool life.
  • the wear marks 124 on the blade part 121 of the tool 12 reach a certain size, it can be determined that the tool 12 has reached its tool life. 12 can be used.
  • FIG. 4 shows an example of the relationship between the size of the wear scar 124 and the remaining tool life of the tool 12, where the vertical axis represents the remaining tool life and the horizontal axis represents the size of the wear scar 124.
  • FIG. 5A shows a view of the tool 12 after machining, as viewed from the direction of the rotation axis of the tool.
  • Cutting fluid 125 and chips 111 are attached to the flank surface 123 of the blade portion 121 of the tool after machining.
  • the image captured by the camera 4 is two-dimensional data, and there is no data in the depth direction. Therefore, it is difficult to determine whether the pattern existing in the image is a wear mark 124 or a cutting fluid 125 and chips 111. It is not possible to determine whether there is one.
  • the cutting fluid 125 and chips 111 are measured as the wear marks 124, and the size of the wear marks 124 on the blade portion 121 of the tool may be different from the actual size. If this data is used to calculate the remaining tool life of the tool 12, it will not be possible to determine whether or not the correct tool 12 needs to be replaced, and the tool 12 will reach the end of its tool life during machining, resulting in the workpiece 11 not being machined correctly, resulting in a defective product. A problem such as this occurs.
  • FIG. 5B shows a view of the tool 12 after high-speed rotation from the state shown in FIG. 5A, as viewed from the direction of the rotation axis of the tool 12. Due to the high-speed rotation of the tool 12, the cutting fluid 125 and chips 111 adhering to the tool 12 are not completely removed, but are moved in a direction away from the center of rotation. That is, the positions of the cutting fluid 125 and the chips 111 change before and after the tool 12 rotates at high speed. On the other hand, the position of the wear marks 124 does not change before and after the tool 12 rotates at high speed.
  • FIG. 6 shows a flowchart of the imaging processing operation of the tool 12 by the camera 4 before and after high-speed rotation.
  • the control device 2 moves the tool 12 to a position where the camera 4 can take an image of the tool 12 while the tool 12 is fixed to the auto tool changer 15, and the camera 4 captures the blade part 121 of the tool 12.
  • An image is captured (step S101).
  • the control device 2 attaches the tool 12 to the spindle motor 13 and rotates the tool 12 at high speed (step S102).
  • step S103 the control device 2 moves the tool 12 to a position where the camera 4 can take an image, and the camera 4 takes an image of the blade part 121 of the tool 12 again (step S103).
  • step S103 the imaging process ends.
  • the high-speed rotation of the tool 12 and the subsequent imaging with the camera 4 may be performed not only once but multiple times. Further, the rotation speed may be changed each time the rotation is performed, or the rotation speed may be changed during the rotation.
  • the imaging process is completed, the captured image is sent to the tool diagnosis device 3.
  • the image processing section 31 performs image processing on the sent image.
  • FIG. 7 shows the image processing operation performed by the image processing section 31.
  • the image processing unit 31 compares the sent images before and after the high-speed rotation and checks whether there is any pattern of position change (step S201). As a result of the comparison, if a pattern in which the position has changed is detected, that area is identified as cutting fluid 125 or chips 111 that are deposits other than the wear marks 124 that have moved due to high-speed rotation (step S202). When the cutting fluid 125 and the chips 111 are identified, image processing is performed to remove the identified patterns from the image (step S203), and the image processing is ended. As a result, only the wear marks 124 are extracted from the image, and only the size of the wear marks 124 can be measured from the image of the blade portion 121 of the tool 12. In addition. Although the image processing section 31 performs the above image processing, the camera 4 may perform the above image processing.
  • the tool diagnosis device 3 receives the image data subjected to the image processing as one input, and includes a learning section 32 that learns the remaining tool life until the usable limit due to wear of the tool 12, and a learned model.
  • An inference unit 34 is provided for inferring the remaining tool life of the tool 12 using the inference unit 34.
  • the learning unit 32 receives image data of the blade portion 121 of the tool 12 transmitted from the camera 4, processing conditions of the machine tool 1, and specification data of the tool and workpiece transmitted from the control device 2.
  • a data acquisition unit 321 that acquires learning data such as machining state detection data detected by the sensor 5; and a model generation unit that uses the learning data acquired by the data acquisition unit 321 as input data and generates a learned model by machine learning.
  • a trained model storage unit 33 that stores the trained model generated by the model generation unit 322 is provided. Image data of the blade portion 121 of the tool 12 captured by the camera 4, machining condition data of the machine tool 1 acquired by the data acquisition unit 321, specification data of the tool 12 and workpiece 11, and machining state detection data are The remaining tool life of the tool 12 is learned using the learning data.
  • the trained system infers the remaining tool life of the tool 12 from image data of the blade portion 121 of the tool 12, machining condition data of the machine tool 1, specification data of the tool 12 and workpiece 11, and machining state detection data.
  • the learning data includes image data of the blade portion 121 of the tool, machining condition data of the machine tool 1, specification data of the tool 12 and workpiece 11, machining state detection data, and remaining tools of the tool 12. This is data that correlates lifespans.
  • the learning unit 32 and the inference unit 34 are used to learn the remaining tool life of the tool 12 of the machine tool 1, but are connected to the machine tool 1 via a network, for example, and are not connected to the machine tool 1.
  • the learning device and the reasoning device may exist as separate devices. Further, the learning device and the inference device may be built into the machine tool 1 or may be built into the control device 2. Furthermore, the learning device and the inference device may reside on a cloud server.
  • the learning algorithm used by the model generation unit 322 can be a known algorithm such as supervised learning, unsupervised learning, or reinforcement learning. As an example, a case where a neural network is applied will be described.
  • the model generation unit 322 learns the number of machining cycles and machining distance of the tool 12 up to its usable limit, for example, by so-called supervised learning according to a neural network model.
  • supervised learning refers to a method in which a set of input and result (label) data is given to the learning unit 32 to learn features in the learning data and infer a result from the input.
  • a neural network consists of an input layer made up of multiple neurons, an intermediate layer (hidden layer) made up of multiple neurons, and an output layer made up of multiple neurons.
  • the intermediate layer may be one layer or two or more layers.
  • W1 weights W1 (w11-w16) and Y1-Y2)
  • W2 weights W2 (w21-w26) and output from the output layer (Z1-Z3). This output result changes depending on the values of weights W1 and W2.
  • the neural network includes image data of the blade portion 121 of the tool 12 acquired by the data acquisition unit 321, machining condition data of the machine tool 1, specification data of the tool 12 and the workpiece 11,
  • the remaining tool life of the tool 12 is learned by so-called supervised learning according to learning data created based on a combination of the machining state data and the remaining tool life of the tool 12. That is, the neural network inputs image data of the blade portion 121 of the tool 12, machining condition data of the machine tool 1, specification data of the tool 12 and workpiece 11, and machining state data to the input layer.
  • the results output from the output layer are learned by adjusting the weights W1 and W2 to approach the remaining tool life of the tool 12.
  • the model generation unit 322 generates a learned model by performing the above learning.
  • the generated trained model is output to the trained model storage section 33.
  • the trained model storage unit 33 stores the trained model output from the model generation unit 322.
  • step S301 the data acquisition unit 321 acquires image data of the blade portion 121 of the tool 12, machining condition data of the machine tool 1, specification data of the tool 12 and workpiece 11, machining state data, and the remainder of the tool 12. Get tool life. Although the image data of the blade portion 121 of the tool 12 and the remaining tool life of the tool 12 are acquired at the same time, it is sufficient if the image data of the blade portion 121 of the tool 12 and the remaining tool life of the tool 12 can be input in association with each other. The image data of the blade portion 121 of the tool 12 and the data of the remaining tool life of the tool 12 may be acquired at different timings.
  • step S302 the model generation unit 322 generates image data of the blade portion 121 of the tool 12 acquired by the data acquisition unit 321, machining condition data of the machine tool 1, specification data of the tool 12 and the workpiece 11, According to the learning data created based on the combination of the machining state data and the remaining tool life of the tool 12, the remaining tool life of the tool 12 is learned by so-called supervised learning, and a learning process is performed to generate a learned model.
  • the trained model storage unit 33 stores the trained model generated by the model generation unit 322. When step S303 is executed, the learning process ends.
  • the inference unit 34 infers the remaining tool life of the tool 12 using the learned model.
  • the inference section 34 includes a data acquisition section 341 and a remaining tool life inference section 342, and reads out the learned model from the learned model storage section 33 and uses it for inference.
  • the data acquisition unit 341 acquires image data of the blade portion 121 of the tool 12, machining condition data of the machine tool 1, specification data of the tool 12 and workpiece 11, and machining state data.
  • the remaining tool life inference unit 342 infers the remaining tool life of the tool 12 obtained using the learned model.
  • image data of the blade portion 121 of the tool 12 acquired by the data acquisition unit 341, machining condition data of the machine tool 1, specification data of the tool 12 and workpiece 11, and machining state data are added to this learned model.
  • the remaining tool life of the tool 12 inferred from the image data of the blade portion 121 of the tool 12, the machining condition data of the machine tool 1, and the specification data of the tool 12 and the workpiece 11 is output. be able to.
  • the remaining tool life of the tool 12 is output using the learned model learned by the model generating section 322 of the learning section 32 using the data of the machine tool 1 as input, but other methods may be used.
  • a learned model may be acquired from an external source such as a machine tool or another learning device, and the remaining tool life of the tool 12 may be output based on this learned model.
  • step S401 the data acquisition unit 341 acquires image data of the blade portion 121 of the tool 12, machining condition data of the machine tool 1, specification data of the tool 12 and workpiece 11, and machining state data.
  • the camera 4 images the blade part 121 of the tool 12 immediately after processing and after high-speed rotation, and compares the two images.
  • the pattern whose position changes in the direction is identified as cutting fluid 125 and chips 111.
  • the identified cutting fluid 125 and chips 111 are removed from the image by image processing by the image processing unit 31, and only the wear marks 124 are extracted from the image of the blade part 121 of the tool 12, and the size of the wear marks 124 is measure.
  • the inference unit 34 adds the image data of the blade portion 121 of the tool 12, the machining condition data of the machine tool 1, and various items of the tool 12 and the workpiece 11 to the learned model stored in the learned model storage unit 33.
  • the remaining tool life of the tool 12 is obtained by inputting the original data and machining state data.
  • the inference unit 34 outputs the remaining tool life of the tool 12 obtained by the learned model to the alarm issuing unit 35.
  • step S404 the alarm issuing unit 35 compares the output remaining tool life of the tool 12 with the number of machining operations and machining distance required to machine the workpiece 11, and calculates the machining distance required to machine the workpiece 11. If the remaining tool life of the tool 12 is insufficient for the number of machining operations and the machining distance, an alarm is issued to prompt the user to replace the tool 12. The warning may be visual or audio. Further, the alarm issuing unit 35 notifies the control device 2 that the remaining tool life of the tool 12 is insufficient. Upon receiving this notification, the control device 2 may perform control to automatically replace the tool 12. Thereby, the tool life of the tool 12 can be fully utilized.
  • model generation unit 322 may learn the number of machining cycles and machining distance up to the usage limit of the tool 12 according to learning data created for a plurality of machine tools 1. Note that the model generation unit 322 may acquire learning data from a plurality of machine tools 1 used in the same area, or may acquire learning data collected from a plurality of machine tools 1 that operate independently in different areas.
  • the number of machining cycles and machining distance up to the limit of use of the tool 12 may be learned using the data. Furthermore, it is also possible to add or remove the machine tool 1 that collects learning data from the target during the process. Furthermore, a learning device that has learned the number of machining cycles and machining distance up to the usage limit of the tool 12 for a certain machine tool 1 is applied to another machine tool 1, and the use of the tool 12 for the other machine tool 1 is applied. The number of machining cycles and machining distance up to the limit may be re-learned and updated. Further, as the learning algorithm used in the model generation unit 322, deep learning, which learns the extraction of the feature values themselves, can be used, and other known methods such as genetic programming, functional logic programming, Machine learning may be performed according to a support vector machine or the like.
  • the tool diagnosis device 3 is a computer, and in terms of hardware, as shown in FIG.
  • An auxiliary storage section 43 for long-term storage an input section 44 that accepts data input, an output section 45 that outputs data, a communication section 46 that communicates with other devices, a display section 47, and these elements. and a bus interconnecting the.
  • the auxiliary storage unit 43 stores a control program for data collection processing executed by the processor.
  • the input unit 44 receives image data transmitted from the camera 4, machining conditions transmitted from the control device 2, specification data of the tool 12 and workpiece 11, and machining state data transmitted from the sensor 5. , to the processor 41.
  • the processor 41 functions as the image processing unit 31, learning unit 32, inference unit 34, and alarm issuing unit 35 shown in FIG. do.
  • the auxiliary storage section 43 functions as the learned model storage section 33.
  • FIG. 14 is a configuration diagram showing a tool diagnosis system 100 according to a second embodiment of the present disclosure. Since the machine tool 1 is not equipped with an automatic tool changer 15, the camera 4 for observing the blade portion 121 of the tool 12 is installed inside the machine tool 1 in order to directly image the tool 12 attached to the spindle motor 13. be done.
  • the camera 4 is installed inside the camera protection cover 6 and the camera protection shutter 7.
  • the camera protection cover 6 is a box-shaped body that covers the periphery of the camera 4 except for the top surface.
  • a camera protection shutter 7 is provided on the top surface of the camera protection cover 6 to cover the lens of the camera 4 disposed inside the camera protection cover 6.
  • the camera protection shutter 7 can be opened and closed, and is automatically opened and closed under the control of the control device 2.
  • the camera protection cover 6 is provided so as to be movable in the horizontal direction, and can be moved between a lower position facing the tool 12 attached to the spindle motor 13 and a position not facing the tool 12. The camera protection cover 6 moves automatically under the control of the control device 2.
  • the main shaft motor 13 and the discharge of the cutting fluid 125 are stopped, and the camera 4 protected by the camera protection cover 6 and the camera protection shutter 7 is moved. At the same time, it moves directly below the tool 12. Thereafter, the camera protection shutter 7 is opened, and the camera 4 images the blade part 121 of the tool 12 with the camera 4 exposed.
  • the camera protection shutter 7 is closed, and the camera protection cover 6 is moved from the position directly below the tool 12, so that the camera 4 is retracted from the position directly below the tool 12.
  • the position of the camera 4 may be fixed and the tool 12 may be moved to the position of the camera 4.
  • the tool diagnosis system of the present disclosure can be applied to the machine tool 1 that is not equipped with the automatic tool changer 15. Further, since the work of transferring the tool 12 to the auto tool changer 15 is not necessary, the time for tool diagnosis can be shortened.
  • FIG. 15 is a configuration diagram showing a tool diagnosis system 100 according to the third embodiment.
  • an ultrasonic cleaner 8 for cleaning the tool 12 is installed inside the machine tool 1 .
  • the ultrasonic cleaner 8 is installed inside an ultrasonic cleaner protection cover 9 and an ultrasonic cleaner protection shutter 10, and is protected from cutting fluid 125 and chips 111. After the processing is completed, before transferring the tool 12 to the auto tool changer 15, the tool 12 is moved directly above the ultrasonic cleaner 8, and the blade part 121 of the tool 12 is stored in the cleaning container of the ultrasonic cleaner 8. Perform ultrasonic cleaning while immersed in a cleaning solution such as acetone or ethanol. After the ultrasonic cleaning, the tool 12 is transferred to the automatic tool changer 15, and the tool diagnosis device 3 determines whether or not the tool 12 needs to be replaced.
  • a cleaning solution such as acetone or ethanol
  • FIG. 16 is a configuration diagram showing a tool diagnosis system 100 according to the fourth embodiment.
  • a camera 4 for observing the blade portion 121 of the tool 12 and an ultrasonic cleaner 8 are installed inside the machine tool 1.
  • the camera 4 is installed inside the camera protection cover 6 and the camera protection shutter 7, and is protected from the cutting fluid 125 and chips 111.
  • the ultrasonic cleaner 8 is installed inside an ultrasonic cleaner protection cover 9 and an ultrasonic cleaner protection shutter 10, and is protected from the cutting fluid 125 and chips 111.
  • the tool 12 After processing, the tool 12 is moved directly above the ultrasonic cleaner 8, and the blade part 121 of the tool 12 is immersed in a cleaning liquid such as acetone or ethanol stored in the cleaning container of the ultrasonic cleaner 8, and then subjected to ultrasonic waves. Wash.
  • a cleaning liquid such as acetone or ethanol stored in the cleaning container of the ultrasonic cleaner 8, and then subjected to ultrasonic waves. Wash.
  • the camera protection shutter 7 is opened and the camera 4 is exposed. When the camera 4 is exposed, the camera 4 images the blade portion 121 of the tool 12.
  • the tool 12 may be moved to a fixed position of the camera 4.
  • the tool diagnosis system of the present disclosure can be applied to the machine tool 1 that is not equipped with the automatic tool changer 15. Further, since the work of transferring the tool 12 to the auto tool changer 15 is not necessary, the time for tool diagnosis can be shortened. Furthermore, it is possible to remove the cutting fluid 125 and chips 111 that are firmly attached to the tool 12 and whose position does not change even when the tool 12 rotates at high speed, or to reduce the strength of the attachment to the tool 12. Since the positions of the cutting fluid 125 and the chips 111 change with the high-speed rotation, the cutting fluid 125 and the chips 111 can be removed from the captured image more reliably than in the first embodiment.
  • the camera was placed in the direction of the rotation axis of the tool.
  • the fifth embodiment discloses a case where a camera is added in a direction perpendicular to the rotation axis of the tool.
  • the tool 12 has a flank surface 123 of the blade portion 121 and cutting fluid 125 and chips 111 attached on the flank surface 123, as viewed from the direction of its rotation axis.
  • FIG. 17 and 18 show a tool 16 as an example of a tool having the above shape.
  • FIG. 17 is a diagram showing the state of the tool 16 after machining is completed
  • FIG. 18 is a diagram showing the state of the tool 16 after high-speed rotation.
  • 17A and 18A show the tool 16 observed from the direction (side) perpendicular to the direction of the rotation axis of the tool 16
  • FIGS. 17B and 18B show the tool 16 observed from the direction of the rotation axis of the tool 16 (bottom ) is shown.
  • the arrow indicates the direction of rotation of the tool 16.
  • the tool 16 is provided with a blade portion 161 parallel to the rotation axis, and cutting fluid 165 and chips 151 adhere to the flank surface 163 of the blade portion 161 of the tool after machining.
  • the cutting fluid 165 and chips 151 adhering to the flank surface 163 move in a direction away from the center of the rotation axis.
  • the tool 16 is provided with the blade portion 161 parallel to the rotation axis, in FIG. cannot be observed sufficiently. Therefore, by additionally arranging a camera that images the tool 16 from a direction perpendicular to the rotation axis of the tool 16, it is possible to sufficiently observe the cutting fluid 165 and chips 151 adhering to the flank surface 163. Then, as in the first embodiment, a pattern whose position has changed due to high-speed rotation is identified as a foreign object and removed by image processing.
  • FIG. 19 is a configuration diagram showing a tool diagnosis system 100 according to the fifth embodiment of the present disclosure.
  • a tool 16 is provided instead of the tool 12, and a camera 24, a camera protection cover 26 and a camera protection shutter 27 that protect the camera 24 are provided, which are arranged in a direction perpendicular to the direction of the rotation axis of the tool 16. 16, except that a brush 17 and an air discharge port 18 are provided.
  • the camera 24 is connected to the tool diagnosis device 3 via a communication cable, and the image taken by the camera 24 is A/D converted and sent to the tool diagnosis device 3.
  • Tool 16 is replaceable with tool 12. When the tool 16 is attached, the camera 24 images the tool 16 to observe the state of the tool 16.
  • the state of the tool 12 is observed by capturing an image of the tool 12 with the camera 4.
  • the state of the tool can be sufficiently observed regardless of the shape of the tool.
  • the state of the tool may be observed by taking images with both the camera 4 and the camera 24.
  • the camera 4 is moved from the direction of the rotation axis of the tool to the direction perpendicular to the rotation axis direction depending on the type of tool.
  • the position and attitude of the camera 4 may be changed, or the position and attitude of the camera 4 may be changed from a direction perpendicular to the rotation axis direction of the tool to a direction of the rotation axis.
  • the camera 4 is fixed, and the positions and postures of the tools 12 and 16 may be changed.
  • a brush 17 (such as a nylon brush) whose hardness is sufficiently lower than that of the tools 12 and 16 is brought into contact with the tool 12 and the tool 16, or air discharged from the air outlet 18 is applied to the blade parts 121 and 161.
  • the blade parts 121 and 161 may be cleaned and the cutting fluid 125, 165 and the chips 111, 151 may be removed.
  • the cutting fluid 125, 165 and the chips 111, 151 may be removed by the ultrasonic cleaner 8 before and after the above operation.
  • the fifth embodiment it becomes possible to perform tool diagnosis not only for the tool 12 having the blade in the direction perpendicular to the rotation axis but also for the tool 16 having the blade in the direction parallel to the rotation axis. . Furthermore, since the blade portion 121 and the blade portion 161 come into contact with the air discharged from the brush 17 and the air discharge port 18, the possibility that the cutting fluid 125, 165 and the chips 111, 151 can be removed increases. Compared to the first embodiment, the cutting fluids 125 and 165 and the chips 111 and 151 can be more reliably removed from the captured image. Furthermore, if the ultrasonic cleaner 8 is used in combination, the cutting fluids 125 and 165 and the chips 111 and 151 can be removed from the captured image more reliably than in the fourth embodiment.
  • image data, machining condition data, specification data of tools and workpieces, and machining state data detected from the sensor 5 are input to the learning unit 32 and the inference unit 34, but these data are not necessarily input. It is not necessary to input all data; for example, machining state data can be omitted. Additionally, other relevant data may be added as input.
  • a machine tool that processes the workpiece, an imaging device that captures an image of a blade of a tool attached to the machine tool; an image processing unit that performs image processing on an image of the blade portion of the tool; A model trained by machine learning that uses an image of the blade portion of the tool after the image processing, processing conditions of the machine tool, specifications of the tool and the workpiece as learning data, and learns the remaining tool life of the tool.
  • a model generation unit that generates Inference that outputs the remaining tool life of the tool by inputting the image of the blade of the tool after the image processing, the machining conditions of the machine tool, and the specifications of the tool and the workpiece to the learned model.
  • the image processing unit compares an image of the blade of the tool taken immediately after processing with an image of the blade of the tool taken after rotating the tool at high speed after the imaging, and identifies wear marks.
  • Tool diagnosis system includes: Through the comparison, a pattern whose position in the image has changed is identified as a deposit adhering to the blade of the tool, and the deposit is removed from the image by image processing.
  • the tool diagnosis system described in Appendix 1. Compare the remaining tool life of the tool with the number of machining times and machining distance required to machine the workpiece, and determine whether the remaining tool life of the tool is relative to the number of machining times and machining distance required to machine the workpiece.
  • Tool diagnosis system according to appendix 1 or 2.
  • the imaging device is provided inside the machine tool;
  • An ultrasonic cleaner for cleaning the blade portion of the tool is provided inside the machine tool;
  • a brush or air outlet for cleaning the blade portion of the tool is provided inside the machine tool.
  • a tool diagnosis device that diagnoses the wear state of the tool of a machine tool that processes a workpiece from images
  • an image processing unit that performs image processing on an image of the blade portion of the tool
  • a model trained by machine learning that uses an image of the blade portion of the tool after the image processing, processing conditions of the machine tool, specifications of the tool and the workpiece as learning data, and learns the remaining tool life of the tool.
  • a model generation unit that generates Inference that outputs the remaining tool life of the tool by inputting the image of the blade of the tool after the image processing, the machining conditions of the machine tool, and the specifications of the tool and the workpiece to the learned model.
  • Tool diagnosis device In a tool diagnosis method that diagnoses the wear state of the tool of a machine tool that processes a workpiece from images, an image processing step of processing an image of the blade of the tool; A model trained by machine learning that uses an image of the blade portion of the tool after the image processing, processing conditions of the machine tool, specifications of the tool and the workpiece as learning data, and learns the remaining tool life of the tool.
  • a model generation step that generates Inference that outputs the remaining tool life of the tool by inputting the image of the blade of the tool after the image processing, the machining conditions of the machine tool, and the specifications of the tool and the workpiece to the learned model. step and Equipped with In the image processing step, an image of the blade of the tool taken immediately after processing is compared with an image of the blade of the tool taken after the tool is rotated at high speed after the image is taken, and wear marks are identified. Tool diagnosis method.
  • a program for a tool diagnosis device that diagnoses the wear state of a tool of a machine tool that processes a workpiece from an image, computer, an image processing unit that performs image processing on an image of the blade portion of the tool; A model trained by machine learning that uses an image of the blade portion of the tool after the image processing, processing conditions of the machine tool, specifications of the tool and the workpiece as learning data, and learns the remaining tool life of the tool.
  • a model generation unit that generates Inference that outputs the remaining tool life of the tool by inputting the image of the blade of the tool after the image processing, the machining conditions of the machine tool, and the specifications of the tool and the workpiece to the learned model.
  • Department function as The image processing unit compares an image of the blade of the tool taken immediately after processing with an image of the blade of the tool taken after rotating the tool at high speed after the imaging, and identifies wear marks. program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Machine Tool Sensing Apparatuses (AREA)

Abstract

工具診断システム(100)は、工作物(11)を加工する工作機械(1)と、工作機械(1)に取り付けられた工具(12)の刃部を撮像する撮像装置と、工具(12)の刃部の画像を画像処理する画像処理部と、画像処理後の工具(12)の刃部の画像、工作機械(1)の加工条件、工具(12)及び工作物(11)の諸元を学習用データとし、工具(12)の残り工具寿命を学習する機械学習によって学習済モデルを生成するモデル生成部と、学習済モデルに画像処理後の工具(12)の刃部の画像、工作機械(1)の加工条件、工具(12)及び工作物(11)の諸元を入力することで、工具(12)の残り工具寿命を出力する推論部と、を備え、画像処理部は、加工直後に撮像した工具(12)の刃部の画像と、撮像後に工具(12)を高速回転した後に撮像した工具(12)の刃部の画像を比較し、摩耗痕を特定する。

Description

工具診断システム、工具診断装置、工具診断方法及びプログラム
 本開示は、工具診断システム、工具診断装置、工具診断方法及びプログラムに関するものである。
 従来の工具診断装置では、工具の刃部の画像と、加工条件と、工具及び工作物の諸元を用いて機械学習により学習済モデルを作成し、新たな工具の刃部の画像と、加工条件と、工具及び工作物の諸元を学習済モデルに入力することで、工具の摩耗予測を出力として得ることが知られている(特許文献1)。
特開2021-70114号公報
 しかしながら、このような工具診断装置にあっては、工具の刃部の画像に摩耗による模様以外のもの、例えば切粉、切削液などの異物が付着していた場合、それらを摩耗による模様と誤認識してしまい、学習済モデルの予測精度が低下するという問題点があった。さらに、手動により異物を除去することも可能ではあるが、機械学習には数十から数百枚の画像を用いる必要があるため、実際に行うには手間がかかり過ぎるという問題がある。
 本開示は、上述の事情に鑑みてなされたものであり、工具診断において手間をかけずに十分な予測精度を持つ学習済モデルを生成することを目的とする。
 上記目的を達成するために、本開示の工具診断システムは、工作物を加工する工作機械と、工作機械に取り付けられた工具の刃部を撮像する撮像装置と、工具の刃部の画像を画像処理する画像処理部と、画像処理後の工具の刃部の画像、工作機械の加工条件、工具及び工作物の諸元を学習用データとし、残り工具寿命を学習する機械学習によって学習済モデルを生成するモデル生成部と、学習済モデルに画像処理後の工具の刃部の画像、工作機械の加工条件、工具及び工作物の諸元を入力することで、残り工具寿命を出力する推論部と、を備え、画像処理部は、加工直後に撮像した工具の刃部の画像と、撮像後に工具を高速回転した後に撮像した工具の刃部の画像を比較し、摩耗痕を特定する。
 本開示によれば、工具を高速回転させて、その前後の画像を撮像するだけで工具の摩耗痕を特定することにより、工具診断において手間をかけずに十分な予測精度を持つ学習済モデルを生成できる。
本開示の第1の実施の形態に係る工具診断システムの構成を示す図 本開示の第1の実施の形態に係る工具診断装置の構成を示す図 工具の刃部が工作物を削り取る過程を示す図 工具の刃部が工作物を削り取る過程により工具の刃部が摩耗していく過程を示す図 本開示の第1の実施の形態に係る摩耗痕の大きさと残り工具寿命の関係を示すグラフ 加工終了後の工具を、工具の回転軸方向から観察した図 図5Aの状態から、高速回転を行った後の工具を、工具の回転軸方向から観察した図 本開示の第1の実施の形態に係る撮像処理の動作を示すフローチャート 本開示の第1の実施の形態に係る画像処理の動作を示すフローチャート 本開示の第1の実施の形態に係る学習部の構成を示す図 本開示の第1の実施の形態に係るニューラルネットワークを示す図 本開示の第1の実施の形態に係る学習処理の動作を示すフローチャート 本開示の第1の実施の形態に係る推論部の構成を示す図 本開示の第1の実施の形態に係る工具交換の判断処理の動作を示すフローチャート 本開示の第1の実施の形態に係る工具診断装置のハードウェア構成を示す図 本開示の第2の実施の形態に係る工具診断システムの構成を示す図 本開示の第3の実施の形態に係る工具診断システムの構成を示す図 本開示の第4の実施の形態に係る工具診断システムの構成を示す図 本開示の第5の実施の形態において、加工終了後の工具を、工具の回転軸方向と垂直の方向から観察した図 本開示の第5の実施の形態において、加工終了後の工具を、工具の回転軸方向から観察した図 本開示の第5の実施の形態において、高速回転を行った後の工具を、工具の回転軸方向と垂直の方向から観察した図 本開示の第5の実施の形態において、高速回転を行った後の工具を、工具の回転軸方向から観察した図 本開示の第5の実施の形態に係る工具診断システムの構成を示す図
 以下、図面を参照しながら、本開示の実施の形態に係る工具診断システム100を説明する。各図面においては、同一又は同等の部分に同一の符号を付す。
(第1の実施の形態)
 図1は、本開示の第1の実施の形態に係る工具診断システム100を示す構成図である。工具診断システム100は、被加工物を切削加工する工作機械1と、工作機械1に接続され、工作機械の動作を制御する制御装置2と、工作機械1で使用される工具の摩耗状態を診断する工具診断装置3と、工具診断装置3に接続され、工具の状態を撮像する撮像装置であるカメラ4と、工具診断装置3に接続され、工作機械1の加工時の状態を検出するセンサ5と、を備える。
 工作機械1は、被加工物である工作物11を切削加工する工具12と、工具12を回転する主軸モータ13と、加工時に工具12に切削液を吹きかける切削液吐出口14と、工具12を自動で交換するオートツールチェンジャ15と、を備える。工具12は、例えばフライス、ドリル等の機械加工を行う工具であり、主軸モータ13に取り外しが可能な状態で取付固定されている。主軸モータ13が回転駆動することによって工具12が回転する。主軸モータ13を回転させながら工具12を工作物11に近づけていき、工作物11に刃を接触させることで、工作物11を削り取りながら工作物11を所望の形状に加工する。その際、工具12は工作物11との摩擦により熱が発生する。そこで、工具12の近傍には、工具12を冷却するために切削液を工具12に吐出する切削液吐出口14が設けられている。切削加工時において切削液吐出口14から切削液を工具12に吹きかけることにより、摩擦熱が発生した工具12を冷却する。オートツールチェンジャ15は、加工を行う際に工具の自動交換を行う装置であり、複数の工具を収納するツールマガジンを備え、主軸モータ13に装着されている工具12とツールマガジン内の工具を交換する。自動工具交換は、工作機械1を制御する制御装置2で実行される加工プログラムの工具交換指示に従い、ツールマガジンに装着された複数の工具の中から次に使用する工具12を選択し、工具交換位置である主軸に近い位置までツールマガジンを旋回して移動させ、主軸に装着された工具12と交換することによって行われる。
 工作機械1の外部には、オートツールチェンジャ15に交換される工具12が固定される状態で、工具12の刃部を撮像できる位置にカメラ4が設置されている。カメラ4は、CMOS(Complementary Metal Oxide Semiconductor)カメラ、CCD(Charge Coupled Device)カメラ、ハイパースペクトルカメラ、TOF(Time of Flight)カメラ等である。カメラ4は通信ケーブルによって工具診断装置3に接続されており、カメラ4で撮像された画像はA/D(Analog/Digital)変換されて工具診断装置3に送られる。
 また、工作機械1には、センサ5が設置されている。センサ5は、例えば、加工時のモータ諸元データ(モータ速度、モータトルク、加速度波形、電流波形、電圧波形など)、加工関係情報(切削液吐出圧、切削液温度など)等の加工状態データを検出するために、主軸モータ13に設置された加速度センサ、電流検出センサ、電圧検出センサ、切削液吐出口14に設置された圧力センサ、温度センサ等である。センサ5は通信ケーブルによって工具診断装置3に接続されており、センサ5で検出された加工状態データは工具診断装置3に送られる。
 制御装置2は、工作機械1を制御する数値制御装置である。制御装置2は、工作機械1で工作物11の切削加工を行う場合、例えば主軸回転数、送り速度、切込み量等の工作機械1の加工条件、使用する工具12の種類・材質、及び工作物11の材質等の工具12及び工作物11の諸元を予め記憶された加工プログラムに設定することにより、工作機械1を制御する。また、制御装置2は、設定された工作機械1の加工条件、工具12及び工作物11の諸元のデータを工具診断装置3に送出する。
 工具診断装置3は、図2に示すように、カメラ4が撮像した画像データを画像処理する画像処理部31と、画像処理部31で画像処理された画像データ、制御装置2から送出される工作機械1の加工条件、工具12及び工作物11の諸元のデータ、センサ5で検出された加工状態検出データが入力され、工具12の摩耗による使用限界までの残り工具寿命を学習する学習部32と、学習により生成された学習済モデルを記憶する学習済モデル記憶部33と、学習部32と同様に画像処理部31で画像処理された画像データ、制御装置2から送出される工作機械1の加工条件、工具12及び工作物11の諸元のデータ、センサ5で検出された加工状態検出データが入力され、学習済モデル記憶部33に記憶された学習済モデルを利用して工具12の残り工具寿命を推論する推論部34と、推論された工具12の残り工具寿命に基づいて工具12の交換の必要を警報する警報発令部35と、を備える。画像処理部31は、カメラ4が撮像した工具12の刃部の画像データを画像処理して、摩耗により変色した色領域を抽出し、ラベリング処理された色領域についてエッジ検出を行い、摩耗痕の輪郭形状を抽出して摩耗痕のエッジ情報を求める。摩耗痕は、工具の摩耗が増大すると、大きくなることから、摩耗痕の大きさを測定することによって工具12の残り工具寿命を求め、残り工具寿命の有無から、工具交換要否の判断を行うことが可能である。
 図3Aは、工具12の刃部121が工作物11を削り取る過程を示す模式図を示しており、工具12の刃部121が工作物11を削り取る際に、切粉111が発生する。図3Bは、図3Aの工具12の刃部121が工作物11を削り取る過程により工具12の刃部121が摩耗していく過程を示す模式図を示している。工具12の刃部121はすくい面122と逃げ面123で構成されており、刃部121が工作物11を削り取ることにより、切粉111が逃げ面123上を摺接する。このため、逃げ面123側に切粉111との摩擦による摩耗痕124が生じる。摩耗痕124は、工具12の加工回数及び加工距離に比例して大きくなっていき、摩耗痕124がある程度の大きさに達すると、工作物11を削り取る際の抵抗が増大し、工作物11の加工面の荒さが増大する。また、工具12がドリル形状である場合、ドリルの刃に生じる摩耗痕124がある程度の大きさに達すると、工作物11に穴をあける際の抵抗が増大し、形成される穴の直径が設計より大きくなる。上述した段階に達すると、工具12は使用の限界に達したと判断され、工具12は交換される。ここで、工具12が新品の状態から使用の限界に達するまでに要する加工回数及び加工距離、又は使用限界までの耐用加工回数及び加工距離を工具寿命と呼び、工具12が現在の状態から使用の限界に達するまでに要する加工回数及び加工距離、又は使用限界までの耐用加工回数及び加工距離を残り工具寿命と呼ぶ。工具12の刃部121の摩耗痕124がある程度の大きさに達すると、工具12は工具寿命に達したと判断できるため、工具の刃部121の摩耗痕124の大きさを観察すれば、工具12の使用可否を判断することができる。図4は、摩耗痕124の大きさと工具12の残り工具寿命の関係の例を示し、縦軸が残り工具寿命であり、横軸が摩耗痕124の大きさである。図4において、摩耗痕124の大きさが拡大すると、残り工具寿命は急激に短くなる。図4に示すように、摩耗痕124の大きさと工具12の残り工具寿命の関係が判明していれば、摩耗痕124から工具12の残り工具寿命を算出することができ、工具12の交換要否を判断することができる。
 したがって、工具12の残り工具寿命を的確に算出するためには、摩耗痕124を正しく検出することが必要である。しかしながら、加工時に発生する切粉111、工具の冷却に必要な切削液の存在により、摩耗痕124が正しく検出されない場合が生じ得る。図5Aは加工終了後の工具12を工具の回転軸方向から観察した図を示している。加工後の工具の刃部121の逃げ面123には切削液125及び切粉111が付着している。カメラ4で撮像する画像は2次元データであり、深さ方向のデータが無いため、画像内に存在する模様に対して、それが摩耗痕124であるのか、それとも切削液125及び切粉111であるのかを判別することができない。その結果、切削液125及び切粉111を摩耗痕124として計測してしまい、工具の刃部121の摩耗痕124の大きさが実際と異なることが生じ得る。このデータを用いて工具12の残り工具寿命を算出した場合、正しい工具12の交換要否を判断できず、加工中に工具12が工具寿命に達して工作物11が正しく加工されず、不良品となるといった問題が発生する。
 そこで、切削液125及び切粉111を誤って摩耗痕124と認識しないために、加工終了後の工具12を高速回転することによって、工具12に付着した切削液125及び切粉111を遠心力で逃げ面123上から除去する。高速回転終了後に工具12をカメラ4で撮像することによって、切削液125及び切粉111が除去された状態の工具12の画像を得ることが可能となり、切削液125及び切粉111を誤って摩耗痕124と認識する可能性が低くなる。
 ただし、高速回転により、必ずしも切削液125及び切粉111が除去されない場合もある。この場合を以下に説明する。図5Bは、図5Aの状態から、高速回転を行った後の工具12を工具12の回転軸方向から観察した図を示す。工具12の高速回転により、工具12に付着している切削液125及び切粉111は、完全には除去されないが、回転中心から離れる方向に移動する。すなわち、工具12の高速回転前後で、切削液125及び切粉111の位置は変化している。これに対して摩耗痕124は、工具12の高速回転前後で、位置の変化はない。したがって、工具12の高速回転前後で、それぞれ工具12の画像を撮像しておけば、両画像を比較することによって、回転中心から離れる方向に位置が変化している模様を切削液125及び切粉111と特定することができる。図6に、高速回転前後のカメラ4による工具12の撮像処理動作のフローチャートを示す。制御装置2は、加工処理終了後、オートツールチェンジャ15に工具12が固定される状態で、工具12をカメラ4が撮像できる位置に工具12を移動し、カメラ4は工具12の刃部121を撮像する(ステップS101)。撮像後、制御装置2は、工具12を主軸モータ13に取り付け、工具12を高速で回転させる(ステップS102)。高速回転後、制御装置2は、工具12をカメラ4が撮像できる位置に移動させて、カメラ4は工具12の刃部121を再度撮像する(ステップS103)。ステップS103の処理が実行されると、撮像処理を終了する。なお、工具12の高速回転とその後のカメラ4での撮像は、1回だけでなく複数回行ってもよい。また、回転の度に回転速度を変化させてもよく、回転中に回転速度を変化させてもよい。撮像処理が終了すると、撮像された画像は、工具診断装置3に送出される。工具診断装置3では、送られてきた画像を画像処理部31で画像処理を行う。次に、図7に画像処理部31で行われる画像処理動作を示す。画像処理部31は、送られてきた高速回転前後の画像を比較して、位置が変化している模様がないかを確認する(ステップS201)。比較の結果、位置が変化している模様が検出されるとその領域を高速回転により移動した摩耗痕124以外の付着物である切削液125又は切粉111であると特定する(ステップS202)。切削液125及び切粉111が特定されると、特定された模様を画像から除去する画像処理を行い(ステップS203)、画像処理を終了する。これによって、画像から摩耗痕124のみが抽出され、工具12の刃部121の画像からは摩耗痕124の大きさのみ計測することができる。なお。上記画像処理は画像処理部31が実行したが、カメラ4において上記画像処理を実行してもよい。
 工具診断装置3は、前述したように、上記画像処理がなされた画像データを入力の1つとし、工具12の摩耗による使用限界までの残り工具寿命を学習する学習部32と、学習済モデルを利用して工具12の残り工具寿命を推論する推論部34を備える。学習部32は、図8に示すように、カメラ4から送信される工具12の刃部121の画像データ、制御装置2から送信される工作機械1の加工条件、工具及び工作物の諸元データ、センサ5で検出された加工状態検出データといった学習用データを取得するデータ取得部321と、データ取得部321で取得した学習用データを入力データとし、機械学習によって学習済モデルを生成するモデル生成部322と、を備え、モデル生成部322で生成された学習済モデルを記憶する学習済モデル記憶部33が設けられている。カメラ4で撮像される工具12の刃部121の画像データと、データ取得部321で取得する工作機械1の加工条件データと、工具12及び工作物11の諸元データと、加工状態検出データを学習用データとし、工具12の残り工具寿命を学習する。すなわち、工具12の刃部121の画像データと、工作機械1の加工条件データと、工具12及び工作物11の諸元データ、加工状態検出データから、工具12の残り工具寿命を推論する学習済モデルを作成する。ここで学習用データとは、工具の刃部121の画像データと、工作機械1の加工条件データと、工具12及び工作物11の諸元データと、加工状態検出データと、工具12の残り工具寿命を互いに関連付けたデータである。
 なお、学習部32及び推論部34は、工作機械1の工具12の残り工具寿命を学習するために使用されるが、例えば、ネットワークを介して工作機械1に接続され、この工作機械1とは別個の装置である学習装置、推論装置として存在してもよい。また、学習装置及び推論装置は、工作機械1に内蔵されていてもよいし、制御装置2に内蔵されていてもよい。さらに、学習装置及び推論装置は、クラウドサーバ上に存在していてもよい。
 モデル生成部322が用いる学習アルゴリズムは教師あり学習、教師なし学習、強化学習等の公知のアルゴリズムを用いることができる。一例として、ニューラルネットワークを適用した場合について説明する。モデル生成部322は、例えば、ニューラルネットワークモデルに従って、いわゆる教師あり学習により、工具12の使用限界までの耐用加工回数及び加工距離を学習する。ここで、教師あり学習とは、入力と結果(ラベル)のデータの組を学習部32に与えることで、それらの学習用データにある特徴を学習し、入力から結果を推論する手法をいう。
 ニューラルネットワークは、複数のニューロンによって構成される入力層、複数のニューロンによって構成される中間層(隠れ層)、及び複数のニューロンによって構成される出力層で構成される。中間層は、1層、又は2層以上でもよい。例えば、図9に示すような3層のニューラルネットワークであれば、複数の入力が入力層(X1‐X3)に入力されると、その値に重みW1(w11‐w16)を掛けて中間層(Y1‐Y2)に入力され、その結果にさらに重みW2(w21‐w26)を掛けて出力層(Z1‐Z3)から出力される。この出力結果は、重みW1とW2の値によって変わる。
 本実施の形態において、ニューラルネットワークは、データ取得部321によって取得される工具12の刃部121の画像データと、工作機械1の加工条件データと、工具12及び工作物11の諸元データと、加工状態データと、工具12の残り工具寿命の組合せに基づいて作成される学習用データに従って、いわゆる教師あり学習により、工具12の残り工具寿命を学習する。すなわち、ニューラルネットワークは、入力層に工具12の刃部121の画像データと、工作機械1の加工条件データと、工具12及び工作物11の諸元データと、加工状態データと、を入力して出力層から出力された結果が、工具12の残り工具寿命に近づくために重みW1とW2を調整することで学習する。モデル生成部322は、以上の学習を実行することで学習済モデルを生成する。生成された学習済モデルは、学習済モデル記憶部33に出力される。学習済モデル記憶部33は、モデル生成部322から出力された学習済モデルを記憶する。
 次に、図10を用いて、学習部32が学習する処理について説明する。ステップS301において、データ取得部321は工具12の刃部121の画像データと、工作機械1の加工条件データと、工具12及び工作物11の諸元データと、加工状態データと、工具12の残り工具寿命を取得する。なお、工具12の刃部121の画像データ、工具12の残り工具寿命を同時に取得するものとしたが、工具12の刃部121の画像データ、工具12の残り工具寿命を関連づけて入力できれば良く、工具12の刃部121の画像データ、工具12の残り工具寿命のデータをそれぞれ別のタイミングで取得しても良い。ステップS302において、モデル生成部322は、データ取得部321によって取得される工具12の刃部121の画像データと、工作機械1の加工条件データと、工具12及び工作物11の諸元データと、加工状態データと、工具12の残り工具寿命の組合せに基づいて作成される学習用データに従って、いわゆる教師あり学習により、工具12の残り工具寿命を学習し、学習済モデルを生成する学習処理を行う。ステップS303において、学習済モデル記憶部33は、モデル生成部322が生成した学習済モデルを記憶する。ステップS303が実行されると学習処理を終了する。
 学習済モデルが生成されると、学習済モデルを用いて推論部34が工具12の残り工具寿命を推論する。推論部34は、図11に示すように、データ取得部341と、残り工具寿命推論部342と、を備え、学習済モデル記憶部33から学習済モデルを読み出して推論に利用する。データ取得部341は工具12の刃部121の画像データと、工作機械1の加工条件データと、工具12及び工作物11の諸元データと、加工状態データと、を取得する。残り工具寿命推論部342は、学習済モデルを利用して得られる工具12の残り工具寿命を推論する。すなわち、この学習済モデルにデータ取得部341で取得した工具12の刃部121の画像データと、工作機械1の加工条件データと、工具12及び工作物11の諸元データと、加工状態データと、を入力することで、工具12の刃部121の画像データと、工作機械1の加工条件データと、工具12及び工作物11の諸元データから推論される工具12の残り工具寿命を出力することができる。なお、本実施の形態では、工作機械1のデータを入力として学習部32のモデル生成部322で学習した学習済モデルを用いて工具12の残り工具寿命を出力するものとして説明したが、他の工作機械、他の学習装置等の外部から学習済モデルを取得し、この学習済モデルに基づいて工具12の残り工具寿命を出力してもよい。
 次に、図12を用いて、推論部34と警報発令部35による工具交換の判断処理の動作について説明する。ステップS401において、データ取得部341は 工具12の刃部121の画像データと、工作機械1の加工条件データと、工具12及び工作物11の諸元データと、加工状態データと、を取得する。なお、工具12の刃部121の画像データを取得する際は、加工直後と高速回転後の工具12の刃部121をそれぞれカメラ4で撮像し、2枚の画像を比較し、回転中心から離れる方向に位置が変化している模様を切削液125及び切粉111と特定する。特定された切削液125及び切粉111は、画像処理部31の画像処理によって画像から除去され、工具12の刃部121の画像からは摩耗痕124のみが抽出され、摩耗痕124の大きさを計測する。ステップS402において、推論部34は学習済モデル記憶部33に記憶された学習済モデルに工具12の刃部121の画像データと、工作機械1の加工条件データと、工具12及び工作物11の諸元データと、加工状態データを入力し、工具12の残り工具寿命を得る。ステップS403において、推論部34は、学習済モデルにより得られた工具12の残り工具寿命を警報発令部35に出力する。ステップS404において、警報発令部35は、出力された工具12の残り工具寿命と工作物11を加工するのに必要な加工回数及び加工距離を比較し、工作物11を加工するのに必要な加工回数及び加工距離に対して工具12の残り工具寿命が不足していた場合、警報を発令し、ユーザに工具12の交換を促す。警報は、映像によるものであっても音声であるものであってもよい。また、警報発令部35は、制御装置2に工具12の残り工具寿命が不足している旨を通知する。制御装置2は、この通知を受けて、工具12を自動的に交換する制御を行ってもよい。これにより、工具12の工具寿命を余すところなく使い切ることができる。
 なお、本実施の形態では、学習部32のモデル生成部322が用いる学習アルゴリズムに教師あり学習を適用した場合について説明したが、これに限られるものではない。学習アルゴリズムについては、教師あり学習以外にも、強化学習、教師なし学習、又は半教師あり学習等を適用することも可能である。また、モデル生成部322は、複数の工作機械1に対して作成される学習用データに従って、工具12の使用限界までの耐用加工回数及び加工距離を学習してもよい。なお、モデル生成部322は、同一のエリアで使用される複数の工作機械1から学習用データを取得してもよいし、異なるエリアで独立して動作する複数の工作機械1から収集される学習用データを利用して工具12の使用限界までの耐用加工回数及び加工距離を学習してもよい。また、学習用データを収集する工作機械1を途中で対象に追加、または対象から除去することも可能である。さらに、ある工作機械1に関して工具12の使用限界までの耐用加工回数及び加工距離を学習した学習装置を、これとは別の工作機械1に適用し、当該別の工作機械1に関して工具12の使用限界までの耐用加工回数及び加工距離を再学習して更新してもよい。また、モデル生成部322に用いられる学習アルゴリズムとしては、特徴量そのものの抽出を学習する、深層学習(Deep Learning)を用いることもでき、他の公知の方法、例えば遺伝的プログラミング、機能論理プログラミング、サポートベクターマシンなどに従って機械学習を実行してもよい。
 工具診断装置3は、コンピュータであり、ハードウェア的には、図13に示すように、制御プログラムにしたがってデータを処理するプロセッサ41と、プロセッサのワークエリアとして機能する主記憶部42と、データを長期間にわたって記憶するための補助記憶部43と、データ入力を受け付ける入力部44と、データを出力する出力部45と、他の装置と通信する通信部46と、表示部47と、これらの要素を相互に接続するバスと、を備える。補助記憶部43には、プロセッサが実行するデータ収集処理の制御プログラムが記憶されている。入力部44は、カメラ4から送信されてくる画像データ、制御装置2から送信されてくる加工条件、工具12及び工作物11の諸元データ、センサ5から送信されてくる加工状態データを受信し、プロセッサ41に提供する。プロセッサ41は、補助記憶部43に記憶されたプログラムを主記憶部42に読み出して実行することにより、図2に示した画像処理部31、学習部32、推論部34、警報発令部35として機能する。また、補助記憶部43は、学習済モデル記憶部33として機能する。
(第2の実施の形態)
 第1の実施の形態においては、工作機械1内にオートツールチェンジャ15が設けられており、カメラ4は、オートツールチェンジャ15に交換される工具12が固定される状態で、工具12の刃部121を撮像できる工作機械1の外部の位置に設置されていた。これに対して第2の実施の形態では、オートツールチェンジャ15が設けられていない工作機械1の場合におけるカメラ4の配置について開示する。図14は本開示の第2の実施の形態に係る工具診断システム100を示す構成図である。工作機械1はオートツールチェンジャ15を設けていないことから、工具12の刃部121を観察するカメラ4は、主軸モータ13に取り付けられた工具12を直接撮像するため、工作機械1の内部に設置される。この場合、切削液125及び切粉111からカメラ4を保護するため、カメラ4は、カメラ保護カバー6とカメラ保護シャッタ7の内部に設置される。カメラ保護カバー6は、上面を除くカメラ4の周囲を覆う箱状体である。カメラ保護カバー6の上面には、カメラ保護カバー6内に配置されたカメラ4のレンズを覆うカメラ保護シャッタ7が設けられている。カメラ保護シャッタ7は、開閉可能であり、制御装置2の制御により自動開閉される。また、カメラ保護カバー6は、水平方向に移動可能に設けられており、主軸モータ13に取り付けられた工具12に対向する下方位置と工具12に対向しない位置の間で移動できる。カメラ保護カバー6は、制御装置2の制御により自動的に移動する。
 工具12の刃部121を撮像する際は、主軸モータ13と切削液125の吐出が停止し、カメラ保護カバー6とカメラ保護シャッタ7に保護されたカメラ4がカメラ保護カバー6とカメラ保護シャッタ7とともに工具12の直下に移動する。その後、カメラ保護シャッタ7が開き、カメラ4が露出された状態でカメラ4は工具12の刃部121を撮像する。撮像が終了すると、カメラ保護シャッタ7は閉じられ、カメラ保護カバー6が工具12の直下の位置から移動することにより、カメラ4は工具12の直下の位置から待避する。
 なお、本実施の形態ではカメラ4が移動するとしたが、カメラ4の位置は固定され、工具12がカメラ4の位置に移動してもよい。この構成によれば、オートツールチェンジャ15を装備していない工作機械1にも本開示の工具診断システムを適用することができる。また、工具12をオートツールチェンジャ15に移し替える作業が不要となるので、工具診断の時間を短縮することができる。
(第3の実施の形態)
 第1の実施の形態においては、加工処理終了後に工具12を高速回転して刃部121に付着した切削液125及び切粉111を除去あるいは移動させることにより切削液125及び切粉111を摩耗痕124と誤認することなく正しく摩耗痕124を抽出できることを開示した。これに対して第3の実施の形態では、工具12の高速回転では除去あるいは移動できない工具12に強固に付着した切削液125及び切粉111を除去あるいは移動可能とする。図15は、第3の実施の形態に係る工具診断システム100を示す構成図である。本実施の形態では、工作機械1の内部に工具12を洗浄する超音波洗浄機8が設置されている。超音波洗浄機8は、超音波洗浄機保護カバー9と超音波洗浄機保護シャッタ10の内部に設置され、切削液125及び切粉111から保護されている。加工終了後、工具12をオートツールチェンジャ15に移し替える前に、工具12を超音波洗浄機8の直上に移動し、工具12の刃部121を超音波洗浄機8の洗浄容器に蓄えられたアセトン、エタノール等の洗浄液に浸漬した状態で超音波洗浄する。超音波洗浄後、工具12をオートツールチェンジャ15に移し替え、工具診断装置3にて工具12の交換要否を判断する。この構成によれば、工具12に強固に付着しており、工具12の高速回転でも位置が変化しない切削液125及び切粉111を除去、あるいは工具12への付着の強度を低減することができ、工具12の高速回転で切削液125及び切粉111の位置が変化可能となるので、第1の実施の形態に比べて確実に切削液125と切粉111を撮像画像から除去することができる。
(第4の実施の形態)
 第4の実施の形態では、第2の実施の形態における工作機械1に第3の実施の形態における超音波洗浄機8を設けた構成を開示する。図16は第4の実施の形態に係る工具診断システム100を示す構成図である。本実施の形態では、工作機械1の内部に、工具12の刃部121を観察するカメラ4と、超音波洗浄機8を設置している。カメラ4はカメラ保護カバー6とカメラ保護シャッタ7の内部に設置され、切削液125及び切粉111から保護されている。また、超音波洗浄機8は、超音波洗浄機保護カバー9と超音波洗浄機保護シャッタ10の内部に設置され、切削液125及び切粉111から保護されている。
 加工終了後、工具12を超音波洗浄機8の直上に移動し、工具12の刃部121を超音波洗浄機8の洗浄容器に蓄えられたアセトン、エタノール等の洗浄液に浸漬した状態で超音波洗浄する。超音波洗浄後、工具12の刃部121を撮像する際は、カメラ保護カバー6とカメラ保護シャッタ7に保護されたカメラ4が工具12の直下に移動する。その後、カメラ保護シャッタ7が開き、カメラ4が露出された状態となる。カメラ4が露出されると、カメラ4は工具12の刃部121を撮像する。
 なお、本実施の形態ではカメラ4が移動するとしたが、工具12が、固定されたカメラ4の位置に移動してもよい。この構成によれば、オートツールチェンジャ15を装備していない工作機械1にも本開示の工具診断システムを適用することができる。また、工具12をオートツールチェンジャ15に移し替える作業が不要となるので、工具診断の時間を短縮することができる。更には、工具12に強固に付着しており、工具12の高速回転でも位置が変化しない切削液125及び切粉111を除去、あるいは工具12への付着の強度を低減することができ、工具12の高速回転で切削液125及び切粉111の位置が変化するので、第1の実施の形態に比べて確実に切削液125と切粉111を撮像画像から除去することができる。
(第5の実施の形態)
 第1~4の実施の形態においては、カメラは、工具の回転軸方向に配置されていた。これに対して第5の実施の形態では、工具の回転軸と垂直の方向にカメラが追加される場合について開示する。第1~4の実施の形態において、工具12は、図5A、Bのように、その回転軸方向から、刃部121の逃げ面123と逃げ面123上に付着した切削液125及び切粉111を観察できる形状を有している。これに対して、回転軸方向から、刃部121の逃げ面123が十分に見えない形状を有した工具の場合、逃げ面123上に付着した切削液125及び切粉111の移動を十分に観察することができない。
 図17及び図18は、上記形状を有した工具の例として工具16を示す。図17は、加工完了後の工具16の状態を示す図であり、図18は、高速回転を行った後の工具16の状態を示す図である。図17A及び図18Aは、工具16を、工具16の回転軸方向と垂直の方向(側面)から観察した図を示し、図17B及び図18Bは、工具16を、工具16の回転軸方向(底面)から観察した図を示している。矢印は、工具16の回転方向を示している。工具16は、回転軸と平行に刃部161が設けられており、加工後の工具の刃部161の逃げ面163には、切削液165及び切粉151が付着している。高速回転により、逃げ面163に付着した切削液165及び切粉151は、回転軸の中心から離れる方向に移動する。しかしながら、工具16は、回転軸と平行に刃部161が設けられていることから、工具16の回転軸方向から観察した図17Bでは、逃げ面163上に付着した切削液165及び切粉151を十分に観察することができない。したがって、工具16の回転軸と垂直の方向から工具16を撮像するカメラを追加配置することによって、逃げ面163上に付着した切削液165及び切粉151の十分な観察を可能とした。そして、実施の形態1と同様に、高速回転により位置が変化した模様を異物として特定し、画像処理により除去する。
 図19は、本開示の第5の実施の形態に係る工具診断システム100を示す構成図である。工具12の代わりに工具16が設けられている点、工具16の回転軸方向と垂直の方向に配置されているカメラ24とカメラ24を保護するカメラ保護カバー26及びカメラ保護シャッタ27が設けられている点、ブラシ17及びエアー吐出口18が設けられている点を除き、図16と同様である。カメラ24は、カメラ4と同様に、通信ケーブルによって工具診断装置3に接続されており、カメラ24で撮像された画像はA/D変換されて工具診断装置3に送られる。工具16は工具12に取り替え可能となっている。工具16が取り付けられた場合、カメラ24が工具16を撮像することにより、工具16の状態を観察する。また、工具12が取り付けられた場合、カメラ4が工具12を撮像することにより工具12の状態を観察する。これにより、工具の形状にかかわらず、工具の状態を十分に観察することができる。また、カメラ4とカメラ24の両方で撮像して工具の状態を観察してもよい。
 なお、カメラ4とカメラ24を設けることに代えて、カメラ4を、工具の種類に応じて、カメラ4を移動して、工具の回転軸方向から、回転軸方向と垂直の方向にカメラ4の位置と姿勢を変更、または、工具の回転軸方向と垂直の方向から、回転軸方向にカメラ4の位置と姿勢を変更してもよい。カメラ4を移動することにより、カメラ24を追加配置する必要がなく、カメラの必要台数を2台から1台に削減することができる。また、カメラ4は固定されており、工具12及び工具16が位置と姿勢を変更してもよい。
 工具12及び工具16が回転する際、工具12及び工具16より十分に硬度が低いブラシ17(ナイロンブラシ等)を接触させる、もしくは、エアー吐出口18から吐出されるエアーを刃部121及び161に吹き付けることにより、刃部121及び161を清掃し、切削液125、165及び切粉111、151を除去してもよい。また、前記の動作の前後で、超音波洗浄機8により、切削液125、165及び切粉111、151を除去してもよい。
 第5の実施の形態を採用することにより、回転軸と垂直の方向に刃を持つ工具12のみならず、回転軸と平行の方向に刃を持つ工具16についても工具診断することが可能となる。また、刃部121及び刃部161が、ブラシ17及びエアー吐出口18より吐出されるエアーに接触することにより、切削液125、165と、切粉111、151を除去できる可能性が高まるため、第1の実施の形態に比べて確実に切削液125、165と、切粉111、151を撮像画像から除去することができる。さらに、超音波洗浄機8を併用すれば、第4の実施の形態に比べて確実に切削液125、165と、切粉111、151を撮像画像から除去することができる。
 上記の実施の形態では、学習部32及び推論部34への入力として画像データ、加工条件データ、工具及び工作物の諸元データ、センサ5から検出される加工状態データとしたが、必ずしもこれらの全てのデータを入力とする必要はなく、例えば、加工状態データを省略することができる。また、他に関連性のあるデータを入力として加えてもよい。
 本開示は、本開示の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、本開示を説明するためのものであり、本開示の範囲を限定するものではない。つまり、本開示の範囲は、実施の形態ではなく、請求の範囲によって示される。そして、請求の範囲内及びそれと同等の開示の意義の範囲内で施される様々な変形が、本開示の範囲内とみなされる。
 本出願は、2022年5月24日に出願された日本国特許出願特願2022-084248号に基づく。本明細書中に日本国特許出願特願2022-084248号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
(付記1)
 工作物を加工する工作機械と、
 前記工作機械に取り付けられた工具の刃部を撮像する撮像装置と、
 前記工具の刃部の画像を画像処理する画像処理部と、
 前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を学習用データとし、前記工具の残り工具寿命を学習する機械学習によって学習済モデルを生成するモデル生成部と、
 前記学習済モデルに前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を入力することで、前記工具の残り工具寿命を出力する推論部と、
 を備え、
 前記画像処理部は、加工直後に撮像した前記工具の刃部の画像と、前記撮像後に前記工具を高速回転した後に撮像した前記工具の刃部の画像を比較し、摩耗痕を特定する、
 工具診断システム。
(付記2)
 前記画像処理部は、
 前記比較により、画像内の模様の位置が変化しているものを前記工具の刃部に付着する付着物として特定し、前記付着物を画像処理によって画像内から除去する、
 付記1に記載の工具診断システム。
(付記3)
 前記工具の残り工具寿命と工作物を加工するのに必要な加工回数及び加工距離を比較し、前記工具の残り工具寿命が前記工作物を加工するのに必要な加工回数及び加工距離に対して不足していた場合、工具の交換を促す警報を発令する警報発令部を備える、
 付記1又は2に記載の工具診断システム。
(付記4)
 前記撮像装置を前記工作機械の内部に設けた、
 付記1から3のいずれか1つに記載の工具診断システム。
(付記5)
 前記工具の刃部を洗浄する超音波洗浄機を前記工作機械の内部に設けた、
 付記1から4のいずれか1つに記載の工具診断システム。
(付記6)
 前記工具の刃部を清掃するブラシ又はエアー吐出口を前記工作機械の内部に設けた、
 付記1から5のいずれか1つに記載の工具診断システム。
(付記7)
 工作物を加工する工作機械の工具の摩耗状態を画像から診断する工具診断装置において、
 前記工具の刃部の画像を画像処理する画像処理部と、
 前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を学習用データとし、前記工具の残り工具寿命を学習する機械学習によって学習済モデルを生成するモデル生成部と、
 前記学習済モデルに前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を入力することで、前記工具の残り工具寿命を出力する推論部と、
 を備え、
 前記画像処理部は、加工直後に撮像した前記工具の刃部の画像と、前記撮像後に前記工具を高速回転した後に撮像した前記工具の刃部の画像を比較し、摩耗痕を特定する、
 工具診断装置。
(付記8)
 工作物を加工する工作機械の工具の摩耗状態を画像から診断する工具診断方法において、
 前記工具の刃部の画像を画像処理する画像処理ステップと、
 前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を学習用データとし、前記工具の残り工具寿命を学習する機械学習によって学習済モデルを生成するモデル生成ステップと、
 前記学習済モデルに前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を入力することで、前記工具の残り工具寿命を出力する推論ステップと、
 を備え、
 前記画像処理ステップでは、加工直後に撮像した前記工具の刃部の画像と、前記撮像後に前記工具を高速回転した後に撮像した前記工具の刃部の画像を比較し、摩耗痕を特定する、
 工具診断方法。
(付記9)
 工作物を加工する工作機械の工具の摩耗状態を画像から診断する工具診断装置におけるプログラムであって、
 コンピュータを、
 前記工具の刃部の画像を画像処理する画像処理部、
 前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を学習用データとし、前記工具の残り工具寿命を学習する機械学習によって学習済モデルを生成するモデル生成部、
 前記学習済モデルに前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を入力することで、前記工具の残り工具寿命を出力する推論部、
 として機能させ、
 前記画像処理部は、加工直後に撮像した前記工具の刃部の画像と、前記撮像後に前記工具を高速回転した後に撮像した前記工具の刃部の画像を比較し、摩耗痕を特定する、
 プログラム。
 1 工作機械、2 制御装置、3 工具診断装置、4,24 カメラ、5 センサ、6,26 カメラ保護カバー、7,27 カメラ保護シャッタ、8 超音波洗浄機、9 超音波洗浄機保護カバー、10 超音波洗浄機保護シャッタ、11 工作物、12,16 工具、13 主軸モータ、14 切削液吐出口、15 オートツールチェンジャ、17 ブラシ、18 エアー吐出口、31 画像処理部、32 学習部、33 学習済モデル記憶部、34 推論部、35 警報発令部、41 プロセッサ、42 主記憶部、43 補助記憶部、44 入力部、45 出力部、46 通信部、47 表示部、100 工具診断システム、111,151 切粉、121,161 刃部、122 すくい面、123,163 逃げ面、124 摩耗痕、125,165 切削液、321,341 データ取得部、322 モデル生成部、342 残り工具寿命推論部。

Claims (9)

  1.  工作物を加工する工作機械と、
     前記工作機械に取り付けられた工具の刃部を撮像する撮像装置と、
     前記工具の刃部の画像を画像処理する画像処理部と、
     前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を学習用データとし、前記工具の残り工具寿命を学習する機械学習によって学習済モデルを生成するモデル生成部と、
     前記学習済モデルに前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を入力することで、前記工具の残り工具寿命を出力する推論部と、
     を備え、
     前記画像処理部は、加工直後に撮像した前記工具の刃部の画像と、前記撮像後に前記工具を高速回転した後に撮像した前記工具の刃部の画像を比較し、摩耗痕を特定する、
     工具診断システム。
  2.  前記画像処理部は、
     前記比較により、画像内の模様の位置が変化しているものを前記工具の刃部に付着する付着物として特定し、前記付着物を画像処理によって画像内から除去する、
     請求項1に記載の工具診断システム。
  3.  前記工具の残り工具寿命と工作物を加工するのに必要な加工回数及び加工距離を比較し、前記工具の残り工具寿命が前記工作物を加工するのに必要な加工回数及び加工距離に対して不足していた場合、工具の交換を促す警報を発令する警報発令部を備える、
     請求項1又は2に記載の工具診断システム。
  4.  前記撮像装置を前記工作機械の内部に設けた、
     請求項1から3のいずれか1項に記載の工具診断システム。
  5.  前記工具の刃部を洗浄する超音波洗浄機を前記工作機械の内部に設けた、
     請求項1から4のいずれか1項に記載の工具診断システム。
  6.  前記工具の刃部を清掃するブラシ又はエアー吐出口を前記工作機械の内部に設けた、
     請求項1から5のいずれか1項に記載の工具診断システム。
  7.  工作物を加工する工作機械の工具の摩耗状態を画像から診断する工具診断装置において、
     前記工具の刃部の画像を画像処理する画像処理部と、
     前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を学習用データとし、前記工具の残り工具寿命を学習する機械学習によって学習済モデルを生成するモデル生成部と、
     前記学習済モデルに前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を入力することで、前記工具の残り工具寿命を出力する推論部と、
     を備え、
     前記画像処理部は、加工直後に撮像した前記工具の刃部の画像と、前記撮像後に前記工具を高速回転した後に撮像した前記工具の刃部の画像を比較し、摩耗痕を特定する、
     工具診断装置。
  8.  工作物を加工する工作機械の工具の摩耗状態を画像から診断する工具診断方法において、
     前記工具の刃部の画像を画像処理する画像処理ステップと、
     前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を学習用データとし、前記工具の残り工具寿命を学習する機械学習によって学習済モデルを生成するモデル生成ステップと、
     前記学習済モデルに前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を入力することで、前記工具の残り工具寿命を出力する推論ステップと、
     を備え、
     前記画像処理ステップでは、加工直後に撮像した前記工具の刃部の画像と、前記撮像後に前記工具を高速回転した後に撮像した前記工具の刃部の画像を比較し、摩耗痕を特定する、
     工具診断方法。
  9.  工作物を加工する工作機械の工具の摩耗状態を画像から診断する工具診断装置におけるプログラムであって、
     コンピュータを、
     前記工具の刃部の画像を画像処理する画像処理部、
     前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を学習用データとし、前記工具の残り工具寿命を学習する機械学習によって学習済モデルを生成するモデル生成部、
     前記学習済モデルに前記画像処理後の前記工具の刃部の画像、前記工作機械の加工条件、前記工具及び前記工作物の諸元を入力することで、前記工具の残り工具寿命を出力する推論部、
     として機能させ、
     前記画像処理部は、加工直後に撮像した前記工具の刃部の画像と、前記撮像後に前記工具を高速回転した後に撮像した前記工具の刃部の画像を比較し、摩耗痕を特定する、
     プログラム。
PCT/JP2023/019070 2022-05-24 2023-05-23 工具診断システム、工具診断装置、工具診断方法及びプログラム WO2023228929A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-084248 2022-05-24
JP2022084248 2022-05-24

Publications (1)

Publication Number Publication Date
WO2023228929A1 true WO2023228929A1 (ja) 2023-11-30

Family

ID=88919333

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/019070 WO2023228929A1 (ja) 2022-05-24 2023-05-23 工具診断システム、工具診断装置、工具診断方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2023228929A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117549313A (zh) * 2024-01-03 2024-02-13 百工汇智(苏州)智能科技有限公司 基于视觉分析的换刀机器人工作站控制方法与系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050222705A1 (en) * 2004-04-03 2005-10-06 Budd Gerald W Automatic detection system for broken tools in CNC machining centers using advanced machine vision techniques
JP2010158726A (ja) * 2009-01-06 2010-07-22 Mitsubishi Heavy Ind Ltd 工作機械の工具洗浄装置
JP2017104943A (ja) * 2015-12-10 2017-06-15 ファナック株式会社 加工屑を除去する機能を有する除去システムおよび加工システム
JP2021070114A (ja) * 2019-10-31 2021-05-06 株式会社ジェイテクト 工具摩耗予測システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050222705A1 (en) * 2004-04-03 2005-10-06 Budd Gerald W Automatic detection system for broken tools in CNC machining centers using advanced machine vision techniques
JP2010158726A (ja) * 2009-01-06 2010-07-22 Mitsubishi Heavy Ind Ltd 工作機械の工具洗浄装置
JP2017104943A (ja) * 2015-12-10 2017-06-15 ファナック株式会社 加工屑を除去する機能を有する除去システムおよび加工システム
JP2021070114A (ja) * 2019-10-31 2021-05-06 株式会社ジェイテクト 工具摩耗予測システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117549313A (zh) * 2024-01-03 2024-02-13 百工汇智(苏州)智能科技有限公司 基于视觉分析的换刀机器人工作站控制方法与系统
CN117549313B (zh) * 2024-01-03 2024-03-29 百工汇智(苏州)智能科技有限公司 基于视觉分析的换刀机器人工作站控制方法与系统

Similar Documents

Publication Publication Date Title
CN108500736B (zh) 工具状态推定装置以及机床
Zhou et al. Review of tool condition monitoring methods in milling processes
WO2023228929A1 (ja) 工具診断システム、工具診断装置、工具診断方法及びプログラム
CN108115232B (zh) 用于工件的机械加工和检查的方法
CN109799784A (zh) 刀具磨耗检测装置、其检测方法及刀具磨耗补偿方法
Martins et al. Tool condition monitoring of single-point dresser using acoustic emission and neural networks models
Zhou et al. Tool wear condition monitoring in milling process based on current sensors
Roth et al. Quality and inspection of machining operations: tool condition monitoring
JP6404893B2 (ja) 工具寿命推定装置
JP6660636B2 (ja) 研削工具砥面評価装置とその学習器、評価プログラムおよび評価方法
JP7060535B2 (ja) 工作機械の加工不良発生予測システム
Lutz et al. Evaluation of deep learning for semantic image segmentation in tool condition monitoring
Tiwari et al. Tool wear prediction in end milling of Ti-6Al-4V through Kalman filter based fusion of texture features and cutting forces
CN114202715A (zh) 训练神经网络来识别工具状态的方法和相关方法以及设备
García-Pérez et al. CNN-based in situ tool wear detection: A study on model training and data augmentation in turning inserts
JP7316498B2 (ja) 診断システム、診断方法、プログラム及び記録媒体
JP2015530269A (ja) 工作物加工機械内に収容された工具を測定する方法及び装置
Dhobale et al. Supervision of Milling Tool Inserts Using Conventional and Artificial Intelligence Approach: A Review.
Botsaris et al. State-of-the-art in methods applied to tool condition monitoring (TCM) in unmanned machining operations: a review
JP2019132773A (ja) 回転軸装置の診断装置
KARABACAK Deep learning-based CNC milling tool wear stage estimation with multi-signal analysis
Pimenov et al. State-of-the-art review of applications of image processing techniques for tool condition monitoring on conventional machining processes
JP2001269844A (ja) 工具観察方法とその装置および切削加工システム
Sause et al. Hard-and Software fusion for process monitoring during machining of fiber reinforced materials
JP2023009980A (ja) 工具摩耗モニタリング装置、工具摩耗モニタリングシステム、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23811801

Country of ref document: EP

Kind code of ref document: A1