WO2021193663A1 - 切削装置及び学習済みモデル生成方法 - Google Patents

切削装置及び学習済みモデル生成方法 Download PDF

Info

Publication number
WO2021193663A1
WO2021193663A1 PCT/JP2021/012060 JP2021012060W WO2021193663A1 WO 2021193663 A1 WO2021193663 A1 WO 2021193663A1 JP 2021012060 W JP2021012060 W JP 2021012060W WO 2021193663 A1 WO2021193663 A1 WO 2021193663A1
Authority
WO
WIPO (PCT)
Prior art keywords
machining
level
cutting
processing
unit
Prior art date
Application number
PCT/JP2021/012060
Other languages
English (en)
French (fr)
Inventor
洋輔 ▲高▼橋
正 三ツ橋
Original Assignee
シチズン時計株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シチズン時計株式会社 filed Critical シチズン時計株式会社
Priority to JP2022510564A priority Critical patent/JPWO2021193663A1/ja
Publication of WO2021193663A1 publication Critical patent/WO2021193663A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23QDETAILS, COMPONENTS, OR ACCESSORIES FOR MACHINE TOOLS, e.g. ARRANGEMENTS FOR COPYING OR CONTROLLING; MACHINE TOOLS IN GENERAL CHARACTERISED BY THE CONSTRUCTION OF PARTICULAR DETAILS OR COMPONENTS; COMBINATIONS OR ASSOCIATIONS OF METAL-WORKING MACHINES, NOT DIRECTED TO A PARTICULAR RESULT
    • B23Q17/00Arrangements for observing, indicating or measuring on machine tools
    • B23Q17/24Arrangements for observing, indicating or measuring on machine tools using optics or electromagnetic waves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4093Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by part programming, e.g. entry of geometrical information as taken from a technical drawing, combining this with machining and material information to obtain control information, named part programme, for the NC machine
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/4155Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme

Definitions

  • the present invention relates to a cutting device and a learned model generation method.
  • a cutting device for cutting the surface of a metal work piece such as a steel material a cutting part such as a scraper equipped with a blade is driven by a driving part, and the surface of the work piece is cut by the cutting part.
  • the composition is known.
  • a cutting device as described above, a cutting device has been developed in which control is performed using a trained model by machine learning in order to finish the surface of the workpiece with high accuracy.
  • Patent Document 1 a trained model showing the correlation between the accuracy of each part of the machine to which the part to be finished is attached and the finishing amount of each part of the part is generated by machine learning. By predicting the finishing amount of each part of the part before finishing from the measured accuracy of each part of the machine using the trained model, the finishing of each part of the part can be performed accurately.
  • the technology that was used is described.
  • Patent Document 1 is a configuration in which the part is cut with the predicted finishing amount regardless of the state of the finished surface of the part to be finished, and therefore the state of the finished surface. There is a problem that the cutting process cannot be performed under the processing conditions suitable for the above, and the cutting process may not be performed efficiently.
  • the present invention has been made in view of the above problems, and an object of the present invention is to provide a cutting apparatus and a learned model generation method capable of efficiently cutting a workpiece under appropriate machining conditions. There is.
  • the cutting device of the present invention has a cutting portion provided with a blade, a driving portion for driving the cutting portion, and a control unit for controlling the operation of the driving portion, and cuts a metal workpiece.
  • a control unit for controlling the operation of the driving portion, and cuts a metal workpiece.
  • the control unit has a machining level acquisition unit to be acquired, and the control unit is a drive unit so as to perform cutting of the workpiece based on the machining level of the workpiece acquired by the machining level acquisition unit. It is characterized in that it is configured to control the operation of.
  • the cutting apparatus of the present invention is based on the surface information of the work piece acquired by the surface information acquisition unit and the processing level of the work piece acquired by the processing level acquisition unit. Further has a cutting area determination unit that determines a region to be cut in the above, and the control unit cuts a region to be cut in the workpiece determined by the cutting area determination unit. It is preferable that the operation of the drive unit is controlled so as to perform the above.
  • the cutting apparatus of the present invention further includes a machining condition determination unit that determines machining conditions corresponding to the machining level based on the machining level of the workpiece acquired by the machining level acquisition section.
  • the control unit is configured to control the operation of the drive unit so that the cutting process is performed under the processing conditions determined by the processing condition determining unit.
  • the control unit performs cutting of the workpiece under the machining conditions determined by the machining condition determining unit, and then the machining level acquisition unit acquires the workpiece.
  • the drive is performed so that the cutting is performed under the adjusted machining conditions in which the machining conditions are adjusted. It is preferably configured to control the operation of the unit.
  • the cutting apparatus of the present invention drives the control unit so that the processing level of the workpiece is raised one by one by performing cutting under the processing conditions determined by the processing condition determining unit. It is preferably configured to control the operation of the unit.
  • the processing level of the teacher data represents the progress of metal cutting manually performed by a human
  • the metal surface information of the teacher data is manually performed by a human. It is preferable that the information is the surface information of the metal that has been machined.
  • the trained model generation method of the present invention uses a teacher data acquisition step of acquiring teacher data including surface information of metal associated with a machining level indicating the progress of cutting, and machine learning using the teacher data. It is characterized by having a trained model generation step of generating a trained model in which the surface information of the metal is input and the machining level is output.
  • the processing level of the teacher data represents the progress of metal cutting manually performed by a human
  • the metal surface information of the teacher data is obtained by a human. It is preferable to use the surface information of the metal that has been manually cut.
  • the cutting device 1 cuts a metal work (workpiece) 2 such as a steel material.
  • the cutting device 1 includes a cutting portion (cutting tool) 10, and the cutting portion 10 can cut the surface to be machined 2a, which is the surface of the work 2.
  • the cutting device 1 uses a scraper having a blade 12 at the tip of the main body 11 as the cutting portion 10, and the cutting portion 10 uses the cutting portion 10 to form a convex portion having minute irregularities on the work surface 2a of the work 2.
  • the cutting process is performed so as to leave an appropriate concave portion, and the cutting process is performed on the entire convex portion of the work surface 2a to cut the work surface 2a.
  • the cutting device 1 is a scraping device that performs scraping as cutting on the work surface 2a of the work 2.
  • the work 2 to be scraped by the cutting device 1 is, for example, a metal (steel) member having a sliding surface such as a guide rail and a slider used in a machine tool, but other members may also be used. good.
  • the feed direction of the cutting portion 10 with respect to the work 2 is set to the Y-axis direction, and the work surface 2a of the work 2 is processed.
  • the direction perpendicular to (vertical direction) is the Z-axis direction
  • the direction perpendicular to the Y-axis direction and the Z-axis direction is the X-axis direction.
  • the cutting device 1 includes a robot arm 20 mounted on a base 3 as a driving unit for driving the cutting unit 10.
  • the robot arm 20 holds the cutting portion 10 by a holder 30 provided at the tip thereof.
  • the robot arm 20 moves the cutting portion 10 held by the holder 30 in the Y-axis direction, the Z-axis direction, and the Y-axis direction to cut the cutting portion 10 at an arbitrary position on the work surface 2a. Can be done.
  • the robot arm 20 has a main body 21 fixed to the base 3, a first arm 23 rotatably connected to the main body 21 by a first rotating portion 22, and a first arm.
  • An articulated robot having a second arm portion 25 rotatably connected to the arm portion 23 by a second rotating portion 24 and a third rotating portion 26 provided at the tip of the second arm portion 25.
  • the holder 30 is fixed to the third rotating portion 26 and is rotatable about the third rotating portion 26 with respect to the tip of the second arm portion 25.
  • the robot arm 20 rotates the first rotating portion 22, the second rotating portion 24, and the third rotating portion 26 by a drive source such as a servomotor, and has the main body portion 21 as an axis perpendicular to the base 3.
  • a drive source such as a servomotor
  • the cutting device 1 can be configured to include a force sensor 40.
  • the force sensor 40 can detect the machining force (load in the Z-axis direction) applied to the work 2 by the cutting portion 10 during scraping.
  • the cutting device 1 includes a camera 50 as a surface information acquisition unit.
  • a camera 50 for example, a CCD camera can be used.
  • the camera 50 can photograph the entire surface 2a to be processed of the work 2 and acquire image data of the photographed image. That is, the camera 50 can acquire information on the work surface 2a of the work 2 (surface information on the work 2).
  • the camera 50 may be configured to capture the entire surface to be processed 2a as one image to acquire the surface information of the entire surface to be processed 2a, and the surface to be processed 2a is divided into a plurality of regions and each of them is divided into a plurality of regions.
  • the configuration may be such that the entire surface information of the surface to be processed 2a is acquired based on a plurality of images obtained by photographing the region.
  • the cutting device 1 includes a control device 60.
  • the control device 60 has a function as a microcomputer provided with a central processing unit (CPU) and storage means such as a memory.
  • the control device 60 is connected to the robot arm 20, the force sensor 40, and the camera 50.
  • the storage means includes data input from the force sensor 40, the camera 50, etc., a program for controlling the operation of the robot arm 20 so as to cut the cutting unit 10, and processing of the kisage processing input from the input unit, etc. Conditions etc. can be memorized.
  • the control device 60 has a control unit 60a as its function.
  • the control unit 60a can control the operation of the robot arm 20 to perform scraping of the work 2 by the cutting unit 10.
  • the control unit 60a is configured such that the central processing unit executes a program stored in the storage means to realize its function.
  • control unit 60a When the control unit 60a is configured to provide the force sensor 40, the control unit 60a acquires information on the actual machining force of the cutting unit 10 with respect to the work 2 based on the data input from the force sensor 40, and uses the information as the information. Based on this, the operation of the robot arm 20 may be controlled so as to adjust the machining force of the cutting portion 10 in the kisage machining to the control target.
  • the cutting device 1 of the present embodiment is a machining level acquisition unit that acquires the machining level of the work 2 as a function of the control device 60 in order to enable efficient scraping of the work 2 under appropriate machining conditions.
  • the control unit 60a has 60b, and the control unit 60a controls the operation of the robot arm 20 so as to perform scraping of the work 2 based on the processing level of the work 2 acquired by the processing level acquisition unit 60b. ing.
  • the storage means of the control device 60 is input to the surface information of the metal obtained by machine learning using the teacher data including the surface information of the metal associated with the processing level indicating the progress of the kisage processing, and the processing level is set.
  • the trained model to be output is stored.
  • the machining level acquisition unit 60b inputs the image of the work surface 2a of the work 2 acquired by the camera 50 (surface information of the work 2) into the trained model, so that the current work 2 to be scraped is present. It is possible to obtain the machining level at the stage.
  • the machining level acquisition unit 60b is configured so that its function is realized by executing the machining level acquisition program stored in the storage means by the central processing unit.
  • the control unit 60a operates the robot arm 20 so as to perform scraping of the work 2 based on the processing level of the work 2 acquired by the processing level acquisition unit 60b. Since the structure is controlled, the work 2 can be scraped efficiently by the machining conditions or the cutting portion 10 suitable for the machining level or the progress of scraping.
  • the above-mentioned trained model used in the processing level acquisition unit 60b can be generated by the trained model generation method according to the embodiment of the present invention.
  • the trained model can be generated by the trained model generation method according to the embodiment of the present invention by using the control device 60 or a computer device other than the control device 60.
  • the procedure for generating the trained model by the trained model generation method according to the embodiment of the present invention using the control device 60 will be described below.
  • the control device 60 acquires teacher data including surface information of the metal associated with the processing level indicating the progress of the Kisage processing (teacher). Data acquisition step).
  • the surface information of the metal associated with the processing level indicating the progress of scraping is the surface information of the metal that has been manually scraped by a person who is skilled in scraping, that is, a skilled worker. ..
  • the metal surface information is an image or image data of the metal surface taken by a camera such as a CCD camera.
  • the control device 60 is a step of specifying a portion to be scraped to be scraped a plurality of times.
  • the surface of scraped metal is photographed with a camera to acquire an image of the surface of the metal, and by setting the processing level for each image, the metal associated with the processing level indicating the progress of scraping is performed. I am trying to get the surface information of.
  • the control device 60 is subjected to the step of first specifying the portion to be scraped.
  • the surface 70a of the metal 70 is photographed by a camera to acquire an image of the surface 70a, and the image is set as the first processing level.
  • the surface 70a of the metal 70 at the first processing level is in a state of having a relatively small number of large convex portions 70b spreading over a relatively wide range because the progress of scraping is low.
  • the control device 60 receives the scraping.
  • the surface 70a of the metal 70 is photographed by a camera to acquire an image of the surface 70a, and the image is set as the second processing level.
  • the control device 60 captures the surface 70a of the metal 70 with a camera. An image of the surface 70a is acquired, and a processing level is set for the image according to the progress of scraping. For example, the surface 70a of the metal 70 at the fifth processing level, in which the progress of scraping is intermediate, is in a state where the area of the convex portion 70b becomes smaller and the number increases with respect to the first processing level.
  • the control device 60 photographs the surface 70a of the metal 70 with a camera and captures the surface 70a of the surface 70a.
  • the image is acquired and the image is set as the final tenth processing level corresponding to the completion of scraping.
  • the surface 70a of the metal 70 at the 10th processing level corresponding to the completion of scraping is in a state in which the convex portions 70b having a smaller area and an increased number than the 5th processing level are evenly arranged on the entire surface 70a.
  • the convex portion 70b to be determined for the processing level is schematically shown, but the surface 70a may include other convex portions.
  • the control device 60 can acquire a plurality of images of the surface 70a of the metal 70 associated with each of the first processing level to the tenth processing level showing the progress of scraping.
  • the first processing level to the ninth processing level are the stages at which scraping is incomplete, and the tenth processing level corresponds to the completion of scraping.
  • the step of specifying the part to be scraped is performed 10 times from the start to the completion, and the control device corresponds to this.
  • 60 sets the machining level indicating the progress of scraping from the 1st machining level to the 10th machining level, but the number of machining levels set is the number of times of performing the process of specifying the part to be scraped. It can be set to an arbitrary number according to the above.
  • the control device 60 obtains an image of a size (for example, 1 inch square) that shows the characteristics of the scraper surface at the scraping level from the image of the surface 70a of the metal 70 at each machining level, and the progress of scraping. It is acquired as teacher data including information on the surface 70a of the metal 70 associated with the scraping level representing. For example, as shown in FIG. 3, the control device 60 acquires an image including a part of the plurality of convex portions 70b as the teacher data 71 from the image of the surface 70a of the metal 70 at the fifth processing level.
  • a size for example, 1 inch square
  • the control device 60 acquires a large number of teacher data 71 from the image of the surface 70a of the metal 70 at each processing level. At this time, the control device 60 divides the image of the surface 70a of the metal 70 of each processing level into a large number of images, and each of these a large number of images is associated with a processing level indicating the progress of the kisage processing. It may be acquired as teacher data including information on the surface 70a of the metal 70, and a large number of different regions of the surface 70a of the metal 70 at each processing level are photographed by a camera to acquire a large number of images. These images may be used as they are as teacher data.
  • the control device 60 can acquire a large number of teacher data including an image of the surface 70a of the metal 70 associated with each of the first processing level to the tenth processing level showing the progress of scraping. can.
  • the processing level of these teacher data represents the progress of the manual processing of the metal 70 by the expert
  • the image of the surface 70a of the metal 70 in the teacher data is the expert. Is an image of the surface 70a of the metal 70 that has been manually squeezed.
  • control device 60 When the control device 60 acquires a large number of teacher data in the teacher data acquisition step, the control device 60 then inputs an image of the surface 70a of the metal 70 by machine learning using the large number of teacher data, and sets the processing level. Generate a trained model to be output (trained model generation step).
  • the number of teacher data used for machine learning in the trained model generation step is preferably several hundred sheets for each processing level, but the number is not particularly limited.
  • Machine learning to generate the trained model can be performed by using an artificial neural network method such as a convolutional neural network or a deep neural network (deep learning).
  • an artificial neural network method such as a convolutional neural network or a deep neural network (deep learning).
  • the control device 60 learns by performing supervised machine learning using a large amount of supervised data including image information of the surface 70a of the metal 70 associated with the processing level indicating the progress of the kisage processing.
  • the finished model shows the correlation between the shape or pattern of the surface 70a of the metal 70 and the processing level. Therefore, when an image of the surface of a metal such as the work surface 2a of the work 2 is input, the trained model estimates the processing level of the surface of the metal at the current stage and outputs the estimated processing level. Can be done.
  • the control device 60 has acquired and learned the teacher data including the image of the surface 70a of the metal 70 associated with the processing level indicating the progress of the kisage processing in the teacher data acquisition step.
  • the model generation step machine learning using the teacher data was performed to generate a trained model in which the image of the metal surface is input and the processing level is output. Therefore, the trained model is used as the surface 70a of the metal 70. It is possible to make it possible to more accurately determine the correlation between the shape or pattern of the product and the processing level.
  • the machining level acquisition unit 60b of the control device 60 can see from the image of the machined surface 2a of the work 2 that the machined surface 2a of the work 2 is processed.
  • the machining level at the current stage can be obtained with high accuracy.
  • the processing level of the teacher data is defined as the progress of the metal 70 kisage processing manually performed by the expert, and the metal surface information of the teacher data is manually input by the expert. Since the image of the surface 70a of the metal 70 that has been subjected to the Kisage processing is used, the trained model can be made able to more accurately determine the correlation between the shape or pattern of the surface 70a of the metal 70 and the processing level.
  • the control device 60 Based on the image of the work surface 2a of the work 2 acquired by the camera 50 and the work 2 processing level acquired by the processing level acquisition unit 60b, the control device 60 sets the object to be cut by scraping on the work surface 2a of the work 2.
  • the cutting area determination unit 60c which determines the region to be used, and the processing condition determination unit 60d, which determines the processing conditions corresponding to the processing level based on the processing level of the work 2 acquired by the processing level acquisition unit 60b, are further added. It can be configured to have.
  • the control unit 60a cuts the area to be cut on the work surface 2a of the work 2 determined by the cutting area determination unit 60c under the processing conditions determined by the processing condition determination unit 60d.
  • the operation of the robot arm 20 can be controlled.
  • the cutting area determination unit 60c and the machining condition determination unit 60d are each configured so that their functions are realized by executing the program stored in the storage means by the central processing unit. be able to.
  • the cutting area determining unit 60c performs image analysis processing on the image of the work surface 2a of the work 2 acquired by the camera 50, recognizes the position of the convex portion to be processed by the machined surface 2a, and recognizes the position of the convex portion to be processed.
  • the area of the convex portion on the image may be calculated, and only the convex portion whose area is equal to or higher than the preset threshold value corresponding to each machining level may be determined as the region to be cut. can.
  • the image analysis process for the image of the surface to be processed 2a methods such as binarization based on color information and edge detection can be used.
  • the threshold value for the area of the convex portion when the threshold value for the area of the convex portion is low (in the case of the initial stage of scraping), only a region that is large to some extent is the target of scraping, and the processing level.
  • the configuration is set so that a small area is also subject to scraping so that it gradually decreases as the processing level increases. ing.
  • the region having a relatively large convex portion of the surface to be processed 2a is scraped, and as the processing level increases and the scraping approaches the final stage, the surface to be processed 2a
  • the region having the smaller convex portion of the work 2 can be scraped so that an appropriate region of the work surface 2a of the work 2 can be scraped efficiently.
  • the machining condition determination unit 60d is configured to set the first machining conditions to the ninth machining conditions corresponding to the first machining level to the ninth machining level so that the machining force becomes weaker as the machining level increases, for example. Can be.
  • the machining condition determination unit 60d when the machining level of the work 2 acquired by the machining level acquisition section 60b is the first machining level, the machining condition determination unit 60d performs the first machining in the scraping machining performed on the work 2.
  • the machining force is smaller than that of the first machining level as the second machining condition in scraping for the work 2.
  • the third machining condition to the ninth scraping condition are set so that the scraping force becomes weaker as the scraping level increases with respect to the third scraping level to the ninth scraping level.
  • the machining condition determination unit 60d sets the first machining conditions to the ninth machining conditions corresponding to the first machining level to the ninth machining level so that the machining force becomes weaker as the machining level increases.
  • a region having a relatively large convex portion of the surface to be machined 2a is formed by using a cutting portion 10 having a relatively wide blade 12 with a relatively large machining force.
  • a holder 30 at the tip of the robot arm 20 that allows the cutting portion 10 to be automatically attached and detached is used, and the cutting portion 10 is automatically exchanged with the magazine holding the replacement cutting portion 10.
  • the cutting portion 10 may be manually replaced by the operator in response to a replacement command or the like issued by the control device 60.
  • the machining condition determination unit 60d has the first machining conditions to the ninth machining corresponding to the first machining level to the ninth machining level so that the machining force becomes weaker as the machining level increases.
  • the conditions are set. For example, the same first machining conditions are set for the first machining level to the third machining level, and the same second machining conditions are set for the fourth machining level to the sixth machining level.
  • the conditions may be set, and the same machining conditions may be set for a plurality of consecutive machining levels, such as setting the same third machining conditions for the seventh machining level to the ninth machining level.
  • step S1 the control unit 60a controls the robot arm 20 to perform scraping on the work surface 2a of the work 2, and the entire work surface 2a becomes one.
  • the camera 50 takes an image of the surface to be machined 2a in step S2.
  • the image of the surface to be machined 2a taken by the camera 50 is input to the machining level acquisition unit 60b of the control device 60, and in step S3, the machining level acquisition unit 60b determines the image by the trained model.
  • step S3 when the machining level acquisition unit 60b determines that the machining level of the work surface 2a of the work 2 is any of the first machining level to the ninth machining level, then the first machining level to the ninth machining level to the ninth machining level.
  • the cutting area determination unit 60c determines the area to be cut on the work surface 2a of the work 2 by image processing according to the processing level, and the processing condition determination unit 60d sets the processing conditions.
  • step S3 when the machining level acquisition unit 60b determines that the machining level of the work surface 2a of the work 2 is the first machining level, in step S4, the cutting area determination section 60c is subjected to image processing.
  • the cutting target on the work surface 2a of the work 2 is determined in the first region, and in step S5, the machining condition determination unit 60d sets the machining conditions to the first machining conditions corresponding to the first machining level, and in step S3, the machining conditions are set.
  • step S6 determines the processing surface 2a of the work 2 by image processing.
  • step S7 the machining condition determination unit 60d sets the machining condition to the second machining condition corresponding to the second machining level, and in step S3, the machining level acquisition section 60b determines the cutting target in the second region.
  • the cutting area determination unit 60c sets the cutting target on the machined surface 2a of the work 2 by image processing as the third region.
  • the machining condition determination unit 60d sets the machining conditions to the 3rd machining conditions to the 8th machining conditions corresponding to the 3rd machining level to the 8th machining level, and in step S3, the machining level acquisition section
  • the cutting area determination unit 60c is the object to be cut on the work surface 2a of the work 2 by image processing.
  • the machining condition determination unit 60d sets the machining condition to the ninth machining condition corresponding to the ninth machining level.
  • step S1 the routine is returned to step S1, and in steps S5, S7 to S9, the area to be cut on the work surface 2a of the work 2 determined by the cutting area determining unit 60c in steps S4, S6 to S8.
  • Scraping is performed by controlling the robot arm 20 by the control unit 60a under the processing conditions set by the processing condition determining unit 60d.
  • the camera 50 takes an image of the surface to be machined 2a in step S2, and the processing level acquisition unit 60b is an image of the trained model in step S3. Make a judgment.
  • step S3 the same routine as above is repeated until the scraping level acquisition unit 60b determines that the scraping level is the 10th scraping level, so that the surface 2a to be scraped of the work 2 is efficiently and It is scraped with high accuracy.
  • step S3 the machining level acquisition unit 60b determines that the machining level is the 10th scraping level, and scraping is completed.
  • the above-mentioned cutting device 1 does not perform machining on the work surface 2a of the work 2 in the state before machining (set to the 0th machining level) aiming at the final scraping level (10th scraping level) at once. It is preferable that scraping is performed a plurality of times under the processing conditions corresponding to the processing level in the middle so that the processing level of the surface to be processed 2a is gradually increased.
  • the cutting device 1 performs scraping a plurality of times under machining conditions corresponding to each of the 0th to 10th machining levels so that the machining level of the workpiece 2a of the work 2 is raised one by one. It is preferably configured in.
  • the machining conditions such as tools and machining force can be made more appropriate according to the machining level when scraping.
  • This makes it possible to reach the tenth scraping level efficiently.
  • the machining conditions such as tools and machining force can be made more appropriate according to the machining level when scraping.
  • a wide tool is used to increase the machining force to perform cutting.
  • the 10th machining level which is the finished machining level
  • the unevenness of the work surface 2a of the work 2 becomes smaller as shown in FIG. Since the purpose is to attach a tool, it is possible to perform machining with a desired system while increasing the machining speed by machining shallowly with a small machining force using a narrow tool.
  • the control unit 60a performs scraping of the work 2 under the machining conditions determined by the machining condition determination unit 60d. If the machining level of the work 2 acquired by the machining level acquisition unit 60b is not higher than the machining level of the work 2 before the cutting, the machining conditions are adjusted and the machining is adjusted. It is also possible to control the operation of the robot arm 20 so that the cutting process is performed under the conditions.
  • the conditions are set, and then in step S2, the control unit 60a controls the robot arm 20, so that the machined surface 2a of the work 2 is machined under the machining conditions for machining level 0.
  • the control unit 60a controls the robot arm 20, so that the machined surface 2a of the work 2 is machined under the machining conditions for machining level 0.
  • the number of times N is processed is counted up.
  • step S3 the camera 50 takes an image of the surface 2a to be scraped under the processing conditions for processing level 0.
  • the image of the surface to be machined 2a taken by the camera 50 is input to the machining level acquisition unit 60b of the control device 60, and in step S4, the machining level acquisition unit 60b is based on the trained model obtained by machine learning. Image determination is performed to acquire the machining level of the surface to be machined 2a that has been machined under the machining conditions for machining level 0.
  • step S4 if it is determined that the machining level of the work surface 2a of the work 2 acquired by the machining level acquisition unit 60b is any of the first machining level to the ninth machining level, then step S5 In step S4, it is determined whether or not the machining level of the work 2 acquired by the machining level acquisition unit 60b is higher than the machining level of the work 2 before the cutting.
  • step S5 if it is determined that the machining level of the work 2 acquired by the machining level acquisition unit 60b in step S4 is higher than the machining level of the work 2 before the cutting is performed, in step S6.
  • the control unit 60a is set to a mode in which the machining conditions for machining level 0 are not adjusted, and in step S7, the machined surface of the work 2 according to the machining level acquired in step S4 by the cutting area determining section 60c by image processing.
  • the region to be cut in 2a is determined, and in step S8, the machining condition determination unit 60d sets the machining conditions according to the machining level acquired in step S4.
  • the routine returns to step S2, and the control unit 60a controls the operation of the robot arm 20, so that the area set in step S7 is scraped under the machining conditions set in step S8. Scraping is performed on the surface 2a.
  • scraping is repeated a plurality of times under the machining conditions corresponding to the machining level of the work 2 acquired by the machining level acquisition unit 60b so that the machining level A is gradually increased by the same routine, and in step S4, When it is determined that the machining level of the work surface 2a of the work 2 acquired by the machining level acquisition unit 60b is the 10th machining level, which is the finished machining level, scraping is completed.
  • step S5 when it is determined that the machining level of the work 2 acquired by the machining level acquisition unit 60b in step S4 is not higher than the machining level of the work 2 before the cutting.
  • step S9 the control unit 60a is set to a mode for adjusting the machining conditions for the machining level A (N-1).
  • step S7 the region determined by the cutting region determination unit 60c as the cutting target by the image processing is determined by the control unit 60a.
  • the machining conditions set by the machining condition determination unit 60d in step S8 are also adjusted by the control unit 60a.
  • the machined surface 2a of the work 2 is more likely to have a shape having large irregularities as the machining level A is lower.
  • the region acquired by the image processing is adjusted so that one mountain-shaped portion is a divided region, and the machining conditions acquired by the machining condition determination unit 60d in step S8 are reduced in machining force and the tool. Adjust to use a narrower one.
  • the adjustment range of the machining force by the control unit 60a can be arbitrarily selected by the user.
  • the machining force adjustment range by the control unit 60a is preferably within the range of the machining force set by the machining condition determination unit 60d at the machining levels before and after the machining level.
  • step S5 when it is determined that the machining level of the work 2 acquired by the machining level acquisition unit 60b in step S4 is not higher than the machining level of the work 2 before the scraping.
  • the machining conditions and the area to be machined in the next scraping in which the routine is returned to step S2 are adjusted by the control unit 60a to set the machining conditions and the machining area when the machining level A is further increased.
  • the trained model generated by the trained model generation method according to the embodiment of the present invention is not limited to the case of scraping using the cutting device 1, but also when the worker manually scrapes.
  • it can also be used to judge the progress or quality of scraping.
  • the worker inputs the image of the work surface 2a of the work 2 taken by the camera 50 into the trained model to know the current processing level of the work 2 or the quality of the processing. Can be done.
  • even a beginner who is not skilled in scraping can accurately recognize the progress of scraping, and the manual scraping by the worker can be performed efficiently and efficiently. It is possible to perform it with high accuracy.
  • a camera 50 and a device having a function as a machining level acquisition unit 60b of the control device 60 are used as a machining level determination device, and the machining level or machining of the work 2 at the current stage is performed by using this machining level determination device. It can be configured to know the quality of.
  • the image of the metal surface taken by the camera 50 is used as the metal surface information associated with the processing level indicating the progress of the cutting process, but the present invention is not limited to this.
  • 3D data of the metal surface measured by a 3D shape measuring machine or the like may be used as the metal surface information associated with the processing level indicating the progress of the cutting process.
  • the learned data by machine learning is input to the three-dimensional data of the metal surface and output to the machining level.
  • the cutting device 1 is configured to perform scraping as cutting, but the present invention is not limited to this, and scraping is performed as long as the surface 2a to be machined of the work 2 is scraped. Not limited to what you do.
  • the cutting portion various cutting tools and the like suitable for the cutting process can be used instead of the cutting portion 10 as a scraper.
  • the robot arm 20 is exemplified as the drive unit, but the robot arm 20 is not limited to these, and various types other than the robot arm 20 can be used as long as the cutting unit 10 can be driven to perform cutting. It is possible to adopt the one having the above configuration.
  • Cutting device Work (workpiece) 2a Surface to be machined 3 Base 10 Cutting part 11 Main body part 12 Blade 20 Robot arm 21 Main body part 22 First rotation part 23 First arm part 24 Second rotation part 25 Second arm part 26 Third rotation part 30 Holder 40 Force sensor 50 Camera (Surface information acquisition unit) 60 Control device 60a Control unit 60b Machining level acquisition unit 60c Cutting area determination unit 60d Machining condition determination unit 70 Metal 70a Surface 70b Convex part 71 Teacher data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Numerical Control (AREA)
  • Automatic Control Of Machine Tools (AREA)

Abstract

学習済みモデルに表面情報取得部(50)によって取得した被加工物(2)の表面情報を入力して、被加工物(2)の加工レベルを取得する加工レベル取得部(60b)を有し、制御部(60a)が加工レベル取得部(60b)によって取得した加工レベルに基づいて被加工物(2)の切削加工を行うように、駆動部(20)の作動を制御することを特徴とする切削装置(1)及び切削加工の進捗度を表す加工レベルに関連付けられた金属の表面情報を含む教師データを取得する、教師データ取得ステップと、教師データを用いた機械学習により、金属の表面情報を入力とし、加工レベルを出力とする学習済みモデルを生成する、学習済みモデル生成ステップと、を有することを特徴とする学習済みモデル生成方法。

Description

切削装置及び学習済みモデル生成方法
 本発明は、切削装置及び学習済みモデル生成方法に関する。
 従来、鋼材等の金属製の被加工物の表面を切削加工する切削装置として、刃を備えたスクレイパー等の切削部を駆動部により駆動して、被加工物の表面を切削部により切削加工する構成のものが知られている。
 また、上記のような切削装置として、被加工物の表面を高い精度で仕上げるために、機械学習による学習済みモデルを用いた制御を行うようにした切削装置が開発されている。
 例えば特許文献1には、仕上げ加工の対象となる部品が取り付けられた機械の各部分の精度と、当該部品の各部分の仕上げ加工量との相関を示す学習済みモデルを機械学習により生成し、当該学習済みモデルを用いて、測定した機械の各部分の精度から仕上げ加工前の部品の各部分の仕上げ加工量を予測することで、部品の各部分の仕上げ加工を精度よく行うことができるようにした技術が記載されている。
特開2018-144207号公報
 しかし、上記特許文献1の記載された技術は、仕上げ加工の対象となる部品の仕上げ面の状態に係わらず、予測した仕上げ加工量で部品の切削加工を行う構成であるので、仕上げ面の状態に適した加工条件で切削加工を行うことができず、当該切削加工を効率よく行うことができない場合がある、という問題点があった。
 本発明は、上記課題を鑑みて成されたものであり、その目的は、被加工物を適切な加工条件で効率よく切削加工することを可能とする切削装置及び学習済みモデル生成方法を提供することにある。
 本発明の切削装置は、刃を備えた切削部と、前記切削部を駆動する駆動部と、前記駆動部の作動を制御する制御部と、を有し、金属製の被加工物を切削加工する切削装置であって、前記被加工物の表面情報を取得する表面情報取得部と、切削加工の進捗度を表す加工レベルに関連付けられた金属の表面情報を含む教師データを用いた機械学習により得た、金属の表面情報を入力とし、加工レベルを出力とする学習済みモデルに、前記表面情報取得部によって取得した前記被加工物の表面情報を入力して、前記被加工物の加工レベルを取得する加工レベル取得部と、を有し、前記制御部は、前記加工レベル取得部によって取得した前記被加工物の加工レベルに基づいて前記被加工物の切削加工を行うように、前記駆動部の作動を制御する、ように構成されている、ことを特徴とする。
 本発明の切削装置は、上記構成において、前記表面情報取得部によって取得した前記被加工物の表面情報及び前記加工レベル取得部によって取得した前記被加工物の加工レベルに基づいて、前記被加工物における切削対象となる領域を決定する、切削領域決定部、をさらに有し、前記制御部は、前記切削領域決定部によって決定された前記被加工物における切削対象となる領域を対象にして切削加工を行うように、前記駆動部の作動を制御する、ように構成されているのが好ましい。
 本発明の切削装置は、上記構成において、前記加工レベル取得部によって取得した前記被加工物の加工レベルに基づいて、前記加工レベルに対応した加工条件を決定する、加工条件決定部、をさらに有し、前記制御部は、前記加工条件決定部によって決定された加工条件で切削加工を行うように、前記駆動部の作動を制御する、ように構成されているのが好ましい。
 本発明の切削装置は、上記構成において、前記制御部は、前記加工条件決定部が決定した加工条件で前記被加工物の切削加工を行った後に、前記加工レベル取得部が取得する前記被加工物の加工レベルが、当該切削加工を行う前の前記被加工物の加工レベルよりも高くなっていない場合に、前記加工条件を調整した調整後の加工条件で切削加工を行うように、前記駆動部の作動を制御する、ように構成されているのが好ましい。
 本発明の切削装置は、上記構成において、前記制御部は、前記加工条件決定部が決定した加工条件で切削加工を行ことにより前記被加工物の加工レベルが1つずつ上がるように、前記駆動部の作動を制御する、ように構成されているのが好ましい。
 本発明の切削装置は、上記構成において、前記教師データの加工レベルは、人間が手作業で行う金属の切削加工の進捗度を表し、前記教師データの金属の表面情報は、人間が手作業で切削加工を行った金属の表面情報であるのが好ましい。
 本発明の学習済みモデル生成方法は、切削加工の進捗度を表す加工レベルに関連付けられた金属の表面情報を含む教師データを取得する、教師データ取得ステップと、前記教師データを用いた機械学習により、金属の表面情報を入力とし、加工レベルを出力とする学習済みモデルを生成する、学習済みモデル生成ステップと、を有することを特徴とする。
 本発明の学習済みモデル生成方法は、上記構成において、前記教師データの加工レベルは、人間が手作業で行う金属の切削加工の進捗度を表し、前記教師データの金属の表面情報は、人間が手作業で切削加工を行った金属の表面情報であるのが好ましい。
 本発明によれば、被加工物を適切な加工条件で効率よく切削加工することを可能とする切削装置及び学習済みモデル生成方法を提供することができる。
本発明の一実施の形態に係る切削装置の構成を概略で示す説明図である。 金属の表面情報と加工レベルとの関連を示す説明図である。 教師データの一例を示す説明図である。 図1に示す切削装置の制御方法を示すフローチャート図である。 各加工レベルにおけるワークに被加工面の状態を示す説明図である。 変形例の切削装置の制御方法を示すフローチャート図である。
 図1に示す本発明の一実施の形態に係る切削装置1は、例えば鋼材等の金属製のワーク(被加工物)2を切削加工するものである。切削装置1は、切削部(切削工具)10を備えており、切削部10により、ワーク2の表面である被加工面2aを切削加工することができる。
 本実施の形態では、切削装置1は、本体部11の先端に刃12を備えたスクレイパーを切削部10として用い、切削部10によりワーク2の被加工面2aにある微小な凹凸の凸部を、適度に凹部を残すように切削加工するとともに、当該切削加工を被加工面2aの全体の凸部に対して行って、被加工面2aを切削加工するように構成されている。すなわち、本実施の形態では、切削装置1は、ワーク2の被加工面2aに対する切削加工としてキサゲ加工を行うキサゲ加工装置となっている。
 切削装置1によりキサゲ加工されるワーク2は、例えば、工作機械に用いられるガイドレール、スライダなどの、摺動面を有する金属(鋼材)製の部材であるが、他の部材等であってもよい。
 本実施の形態においては、切削部10がワーク2の被加工面2aの凸部をキサゲ加工する際の、ワーク2に対する切削部10の送り方向をY軸方向とし、ワーク2の被加工面2aに垂直な方向(上下方向)をZ軸方向とし、Y軸方向及びZ軸方向に垂直な方向をX軸方向とする。
 切削装置1は、切削部10を駆動する駆動部として、基台3に搭載されたロボットアーム20を備えている。
 ロボットアーム20は、その先端に設けられたホルダー30で切削部10を保持している。ロボットアーム20は、ホルダー30に保持された切削部10を、Y軸方向、Z軸方向、Y軸方向に移動させることで、被加工面2aの任意の位置において切削部10を切削動作させることができる。
 本実施の形態では、ロボットアーム20は、基台3に固定された本体部21と、本体部21に第1回動部22により回動可能に連結された第1アーム部23と、第1アーム部23に第2回動部24により回動可能に連結された第2アーム部25と、第2アーム部25の先端に設けられた第3回動部26と、を有する多関節ロボットである。ホルダー30は第3回動部26に固定され、第2アーム部25の先端に対して第3回動部26を中心として回動自在となっている。
 ロボットアーム20は、第1回動部22、第2回動部24及び第3回動部26をサーボモータ等の駆動源によって回動させるとともに、本体部21を基台3に対して垂直軸を中心として回動させることで、切削部10をY軸方向、Z軸方向及びX軸方向に移動させることができる。
 切削装置1は、力覚センサー40を備えた構成とすることができる。力覚センサー40は、キサゲ加工の際に切削部10がワーク2に対して加える加工力(Z軸方向の荷重)を検出することができる。
 切削装置1は、表面情報取得部としてのカメラ50を備えている。カメラ50としては、例えばCCDカメラを用いることができる。カメラ50は、ワーク2の被加工面2aの全体を撮影し、撮影した画像の画像データを取得することができる。すなわち、カメラ50は、ワーク2の被加工面2aの情報(ワーク2の表面情報)を取得することができる。
 なお、カメラ50は、被加工面2aの全体を1つの画像として撮影して被加工面2aの全体の表面情報を取得する構成としてもよく、被加工面2aを複数の領域に分け、それぞれの領域を撮影した複数の画像に基づいて被加工面2aの全体の表面情報を取得する構成としてもよい。
 切削装置1は制御装置60を備えている。制御装置60は、中央演算処理装置(CPU)とメモリ等の記憶手段とを備えたマイクロコンピュータとしての機能を有している。制御装置60は、ロボットアーム20、力覚センサー40及びカメラ50に接続されている。
 記憶手段は、力覚センサー40、カメラ50などから入力されるデータ、切削部10を切削動作させるようにロボットアーム20の作動を制御するためのプログラム、入力部等から入力されたキサゲ加工の加工条件などを記憶することができる。
 制御装置60は、その機能として制御部60aを有している。制御部60aは、ロボットアーム20の作動を制御して、切削部10によるワーク2のキサゲ加工を実行することができる。制御部60aは、中央演算処理装置が記憶手段に記憶されたプログラムを実行することで、その機能が実現されるように構成されている。
 制御部60aは、力覚センサー40を設けた構成とした場合、力覚センサー40から入力されるデータに基づいて、ワーク2に対する切削部10の実際の加工力の情報を取得し、当該情報に基づいて、キサゲ加工における切削部10の加工力を制御目標に調整するようにロボットアーム20の作動を制御する構成とすることもできる。
 本実施の形態の切削装置1は、ワーク2を適切な加工条件で効率よくキサゲ加工することを可能とするために、制御装置60の機能として、ワーク2の加工レベルを取得する加工レベル取得部60bを有しており、制御部60aは、加工レベル取得部60bによって取得されたワーク2の加工レベルに基づいて、ワーク2のキサゲ加工を行うようにロボットアーム20の作動を制御するようになっている。
 制御装置60の記憶手段には、キサゲ加工の進捗度を表す加工レベルに関連付けられた金属の表面情報を含む教師データを用いた機械学習により得た、金属の表面情報を入力とし、加工レベルを出力とする学習済みモデルが記憶されている。加工レベル取得部60bは、この学習済みモデルに、カメラ50によって取得したワーク2の被加工面2aの画像(ワーク2の表面情報)を入力することで、キサゲ加工の対象となるワーク2の現段階での加工レベルを取得することができる。
 なお、加工レベル取得部60bは、中央演算処理装置が記憶手段に記憶された加工レベル取得用のプログラムを実行することで、その機能が実現されるように構成されている。
 このように、本実施の形態の切削装置1では、制御部60aは、加工レベル取得部60bによって取得したワーク2の加工レベルに基づいてワーク2のキサゲ加工を行うようにロボットアーム20の作動を制御する構成とされているので、ワーク2を、その加工レベルないしキサゲ加工の進捗度に適した加工条件ないし切削部10によって、効率よくキサゲ加工することができる。
 加工レベル取得部60bで用いられる上記の学習済みモデルは、本発明の一実施の形態に係る学習済みモデル生成方法により生成することができる。本発明の一実施の形態に係る学習済みモデル生成方法による学習済みモデルの生成は、制御装置60又は制御装置60以外のコンピュータ装置を用いて行うことができる。以下に、制御装置60を用いて、本発明の一実施の形態に係る学習済みモデル生成方法により、上記の学習済みモデルを生成する手順について説明する。
 本発明の一実施の形態に係る学習済みモデル生成方法においては、まず、制御装置60は、キサゲ加工の進捗度を表す加工レベルに関連付けられた金属の表面情報を含む教師データを取得する(教師データ取得ステップ)。
 本実施の形態においては、キサゲ加工の進捗度を表す加工レベルに関連付けられた金属の表面情報は、キサゲ加工に熟練した人間すなわち熟練者が手作業でキサゲ加工を行った金属の表面情報である。また、本実施の形態においては、金属の表面情報は、CCDカメラ等のカメラで撮影した金属の表面の画像ないし画像データである。
 すなわち、熟練者が、金属の表面を手作業でキサゲ加工する場合、キサゲ加工を行う工程と、ある程度キサゲ加工が進んだ段階でキサゲ加工した表面を定盤に摺り合わせてキサゲ加工をする箇所を特定する工程とが、所望のキサゲ面が得られるまで複数回繰り返し行われることになるが、本実施の形態では、制御装置60は、複数回行われるキサゲ加工をする箇所を特定する工程のそれぞれにおいて、キサゲ加工された金属の表面をカメラで撮影して金属の表面の画像を取得し、それぞれの画像に加工レベルを設定することで、キサゲ加工の進捗度を表す加工レベルに関連付けられた金属の表面情報を取得するようにしている。
 例えば、図2に示すように、熟練者の手作業による金属70の表面70aのキサゲ加工を開始した後、最初にキサゲ加工をする箇所を特定する工程を行ったときに、制御装置60は、当該金属70の表面70aをカメラにより撮影して表面70aの画像を取得するとともに、当該画像を第1加工レベルとして設定する。第1加工レベルの金属70の表面70aは、キサゲ加工の進捗度が低いため、比較的広い範囲に広がる大きな凸部70bを比較的少ない数だけ有する状態である。
 次に、第1加工レベルの金属70の表面70aに対し、熟練者の手作業によるキサゲ加工をさらに進め、再度、キサゲ加工をする箇所を特定する工程を行ったときに、制御装置60は、当該金属70の表面70aをカメラにより撮影して表面70aの画像を取得するとともに、当該画像を第2加工レベルとして設定する。
 同様に、金属70の表面70aに対して熟練者の手作業によるキサゲ加工をさらに進め、キサゲ加工をする箇所を特定する工程を行う度に、制御装置60は、当該金属70の表面70aをカメラにより撮影して表面70aの画像を取得するとともに、当該画像にキサゲ加工の進捗度に応じた加工レベルを設定する。例えば、キサゲ加工の進捗度が中間となる第5加工レベルの金属70の表面70aは、第1加工レベルに対して凸部70bの面積が小さくなるとともにその数が増加した状態となる。
 そして、熟練者が、金属70の表面70aが所望のキサゲ面となったと判断し、キサゲ加工を完了したときに、制御装置60は、当該金属70の表面70aをカメラにより撮影して表面70aの画像を取得するとともに、当該画像をキサゲ加工の完了に対応した最終の第10加工レベルとして設定する。キサゲ加工の完了に対応した第10加工レベルの金属70の表面70aは、第5加工レベルよりもさらに面積が小さく数が増加した凸部70bが表面70aの全体に満遍なく配置された状態となっている。なお、図2においては、便宜上、加工レベルの判断対象となる凸部70bのみを模式的に示しているが、表面70aに他の凸部が含まれていてもよい。
 このような手順により、制御装置60は、キサゲ加工の進捗度を表す第1加工レベル~第10加工レベルのそれぞれに関連付けられた、金属70の表面70aの複数の画像を取得することができる。この場合、第1加工レベル~第9加工レベルは、キサゲ加工が未完成の段階であり、第10加工レベルがキサゲ加工の完了に対応する。
 なお、本実施の形態では、熟練者による手作業でのキサゲ加工において、その開始から完了までの間に、キサゲ加工をする箇所を特定する工程を10回行い、これに対応して、制御装置60が、キサゲ加工の進捗度を表す加工レベルを第1加工レベル~第10加工レベルにまで設定するようにしたが、加工レベルの設定数は、キサゲ加工をする箇所を特定する工程を行う回数等に応じて任意の数に設定することができる。
 次に、制御装置60は、それぞれの加工レベルの金属70の表面70aの画像から、当該加工レベルにおけるキサゲ面の特徴が表れる大きさ(例えば、1インチ角)の画像を、キサゲ加工の進捗度を表す加工レベルに関連付けられた金属70の表面70aの情報を含む教師データとして取得する。例えば、図3に示すように、制御装置60は、第5加工レベルの金属70の表面70aの画像から、複数の凸部70bの一部を含む画像を教師データ71として取得する。
 制御装置60は、それぞれの加工レベルの金属70の表面70aの画像から、多数の教師データ71を取得する。このとき、制御装置60は、それぞれの加工レベルの金属70の表面70aの画像を多数の画像に分割し、これらの多数の画像のそれぞれを、キサゲ加工の進捗度を表す加工レベルに関連付けられた金属70の表面70aの情報を含む教師データとして取得するようにしてもよく、それぞれの加工レベルの金属70の表面70aの互いに相違する多数の領域をカメラにより撮影して多数の画像を取得し、これらの画像をそのまま教師データとして用いるようにしてもよい。
 上記の手順により、制御装置60は、キサゲ加工の進捗度を表す第1加工レベル~第10加工レベルのそれぞれに関連付けられた金属70の表面70aの画像を含む多数の教師データを取得することができる。これらの教師データの加工レベルは、上記の通り、熟練者が手作業で行う金属70のキサゲ加工の進捗度を表すものであり、また、教師データにおける金属70の表面70aの画像は、熟練者が手作業でキサゲ加工を行った金属70の表面70aの画像である。
 制御装置60は、教師データ取得ステップにおいて多数の教師データを取得したならば、次に、これらの多数の教師データを用いた機械学習により、金属70の表面70aの画像を入力とし、加工レベルを出力とする学習済みモデルを生成する(学習済みモデル生成ステップ)。学習済みモデル生成ステップにおいて機械学習に用いる教師データの数は、例えば、それぞれの加工レベル毎に数百枚程度とするなど、多いほど好ましいが、その数は特に限定されない。
 当該学習済みモデルを生成する機械学習は、例えば、畳み込みニューラルネットワーク、ディープニューラルネットワーク(深層学習)などの、人工ニューラルネットワークの手法を用いて行うことができる。
 制御装置60が、それぞれキサゲ加工の進捗度を表す加工レベルに関連付けられた金属70の表面70aの画像の情報を含んだ多数の教師データを用いて、教師ありの機械学習を行うことで、学習済みモデルは、金属70の表面70aの形状ないし模様と加工レベルとの相関を示すものとなる。したがって、学習済みモデルは、例えばワーク2の被加工面2aなどの金属の表面の画像が入力されると、当該金属の表面の現段階における加工レベルを推定し、推定した加工レベルを出力することができる。
 このように、本実施の形態では、制御装置60が、教師データ取得ステップにおいてキサゲ加工の進捗度を表す加工レベルに関連付けられた金属70の表面70aの画像を含む教師データを取得し、学習済みモデル生成ステップにおいて当該教師データを用いた機械学習により、金属の表面の画像を入力とし、加工レベルを出力とする学習済みモデルを生成するようにしたので、学習済みモデルを、金属70の表面70aの形状ないし模様と加工レベルとの相関をより正確に判断可能なものとすることができる。したがって、上記学習済みモデル生成方法で生成した学習済みモデルを用いることで、制御装置60の加工レベル取得部60bは、ワーク2の被加工面2aの画像から、当該ワーク2の被加工面2aの現段階における加工レベルを高い精度で取得することができる。
 また、本実施の形態では、教師データの加工レベルを、熟練者が手作業で行う金属70のキサゲ加工の進捗度を表すものとし、教師データの金属の表面情報を、熟練者が手作業でキサゲ加工を行った金属70の表面70aの画像としたので、学習済みモデルを、金属70の表面70aの形状ないし模様と加工レベルとの相関をより正確に判断可能なものとすることができる。
 制御装置60は、カメラ50によって取得したワーク2の被加工面2aの画像及び加工レベル取得部60bによって取得したワーク2加工レベルに基づいて、ワーク2の被加工面2aにおけるキサゲ加工による切削対象となる領域を決定する、切削領域決定部60cと、加工レベル取得部60bによって取得したワーク2の加工レベルに基づいて、加工レベルに対応した加工条件を決定する、加工条件決定部60dと、をさらに有する構成とすることができる。この場合、制御部60aは、切削領域決定部60cによって決定されたワーク2の被加工面2aにおける切削対象となる領域を、加工条件決定部60dによって決定された加工条件で切削加工を行うように、ロボットアーム20の作動を制御する構成とすることができる。
 この場合、切削領域決定部60c及び加工条件決定部60dは、それぞれ、その機能が、中央演算処理装置が記憶手段に記憶されたプログラムを実行することで実現されるように構成されたものとすることができる。
 切削領域決定部60cは、例えば、カメラ50によって取得したワーク2の被加工面2aの画像を画像解析処理して、被加工面2aにおけるキサゲ加工の対象となる凸部の位置を認識するとともに、当該凸部の画像上における面積を算出し、当該面積が、それぞれの加工レベルに対応して予め設定された閾値以上となる凸部のみを、切削対象となる領域に決定する構成とすることができる。この場合、被加工面2aの画像に対する画像解析処理としては、色情報による2値化、エッジ検出などの手法を用いることができる。
 本実施の形態では、切削領域決定部60cは、凸部の面積に対する閾値が、加工レベルが低い場合(キサゲ加工の初期段階の場合)にはある程度大きな領域のみがキサゲ加工の対象となり、加工レベルが高い場合(キサゲ加工が終了に近い段階の場合)には、ある程度小さな領域もキサゲ加工の対象となるように、加工レベルの増加に伴って段階的に小さくなるように設定された構成とされている。これにより、加工レベルが低いキサゲ加工の初期段階においては被加工面2aの比較的大きな凸部を有する領域がキサゲ加工され、加工レベルが高まってキサゲ加工が最終段階に近づくに従って、被加工面2aのより小さな凸部を有する領域がキサゲ加工されるようにして、ワーク2の被加工面2aの適切な領域を効率よくキサゲ加工することができる。
 一方、加工条件決定部60dは、例えば、加工レベルが高くなるに従って加工力が弱くなるように、第1加工レベル~第9加工レベルに対応した第1加工条件~第9加工条件を設定する構成とすることができる。
 本実施の形態では、加工条件決定部60dは、加工レベル取得部60bによって取得したワーク2の加工レベルが第1加工レベルである場合には、当該ワーク2に対して行うキサゲ加工における第1加工条件として比較的高い加工力を設定し、加工レベルが第2加工レベルである場合には、当該ワーク2に対して行うキサゲ加工における第2加工条件として第1加工レベルの場合よりも小さな加工力を設定し、以下同様に、第3加工レベル~第9加工レベルに対して加工レベルが高くなるに従って加工力が弱くなるように第3加工条件~第9加工条件を設定するようにしている。これにより、加工レベルが低いキサゲ加工の初期段階においては、比較的大きな加工力で被加工面2aの比較的大きな凸部を有する領域を効率よくキサゲ加工することができるとともに、加工レベルが高まってキサゲ加工が最終段階に近づくに従って、被加工面2aのより小さな凸部を有する領域を比較的小さな加工力で精度よくキサゲ加工することができるようにして、ワーク2の被加工面2aを効率よく且つ精度よくキサゲ加工することができる。
 また、加工条件決定部60dは、上記のように、加工レベルが高くなるに従って加工力が弱くなるように、第1加工レベル~第9加工レベルに対応した第1加工条件~第9加工条件を設定する構成に加えて、加工レベルが高くなるに従って、切削部10として刃12の幅がより小さいものを選択する構成とすることもできる。これにより、加工レベルが低いキサゲ加工の初期段階においては、比較的幅の広い刃12を有する切削部10を用いて比較的大きな加工力で被加工面2aの比較的大きな凸部を有する領域を効率よくキサゲ加工することができ、加工レベルが高まってキサゲ加工が最終段階に近づくに従って、比較的幅の狭い刃12を有する切削部10を用いて被加工面2aのより小さな凸部を有する領域を比較的小さな加工力で精度よくキサゲ加工することができるようにして、ワーク2の被加工面2aを、より効率よく且つ精度よくキサゲ加工することができる。
 加工レベルに応じた切削部10の交換は、ロボットアーム20の先端のホルダー30として切削部10を自動着脱可能なものを用い、交換用の切削部10を保持したマガジンとの間で、自動的に行う構成とするのが好ましいが、制御装置60が発する交換指令等に応じて作業者が手作業で切削部10を交換する構成としてもよい。
 なお、本実施の形態においては、加工条件決定部60dは、加工レベルが高くなるに従って加工力が弱くなるように、第1加工レベル~第9加工レベルに対応した第1加工条件~第9加工条件を設定する構成としているが、例えば、第1加工レベル~第3加工レベルに対して同一の第1加工条件を設定し、第4加工レベル~第6加工レベルに対して同一の第2加工条件を設定し、第7加工レベル~第9加工レベルに対して同一の第3加工条件を設定するなど、連続する複数の加工レベルに対して同一の加工条件を設定するようにしてもよい。
 次に、図4に示すフローチャート図を参照しつつ、上記構成を有する切削装置1の制御方法について説明する。
 切削装置1が作動を開始すると、まず、ステップS1において、制御部60aがロボットアーム20を制御することで、ワーク2の被加工面2aに対するキサゲ加工が行われ、被加工面2aの全体が一通りキサゲ加工されると、ステップS2において、カメラ50が被加工面2aの画像を撮影する。
 次に、カメラ50により撮影された被加工面2aの画像は制御装置60の加工レベル取得部60bに入力され、ステップS3において、加工レベル取得部60bが、学習済みモデルによる画像判定を行う。
 ステップS3において、加工レベル取得部60bが、ワーク2の被加工面2aの加工レベルが、第1加工レベル~第9加工レベルの何れかであると判断すると、次に、第1加工レベル~第9加工レベルに応じて、切削領域決定部60cが画像処理によるワーク2の被加工面2aにおける切削対象となる領域を決定し、加工条件決定部60dが加工条件を設定する。
 例えば、ステップS3において、加工レベル取得部60bが、ワーク2の被加工面2aの加工レベルが第1加工レベルであると判断した場合には、ステップS4において、切削領域決定部60cが画像処理によるワーク2の被加工面2aにおける切削対象を第1領域に決定するとともにステップS5において加工条件決定部60dが加工条件を第1加工レベルに対応した第1加工条件に設定し、ステップS3において、加工レベル取得部60bが、ワーク2の被加工面2aの加工レベルが第2加工レベルであると判断した場合には、ステップS6において、切削領域決定部60cが画像処理によるワーク2の被加工面2aにおける切削対象を第2領域に決定するとともにステップS7において加工条件決定部60dが加工条件を第2加工レベルに対応した第2加工条件に設定し、ステップS3において、加工レベル取得部60bが、ワーク2の被加工面2aの加工レベルが第3加工レベル~第8加工レベルと判断した場合には、切削領域決定部60cがそれぞれ画像処理によるワーク2の被加工面2aにおける切削対象を第3領域~第8領域に決定するとともに加工条件決定部60dが加工条件を第3加工レベル~第8加工レベルに対応した第3加工条件~第8加工条件に設定し、ステップS3において、加工レベル取得部60bが、ワーク2の被加工面2aの加工レベルが第9加工レベルであると判断した場合には、ステップS8において、切削領域決定部60cが画像処理によるワーク2の被加工面2aにおける切削対象を第9領域に決定するとともにステップS9において加工条件決定部60dが加工条件を第9加工レベルに対応した第9加工条件に設定する。
 次に、ルーチンはステップS1に戻され、ステップS4、S6乃至S8で切削領域決定部60cが決定したワーク2の被加工面2aにおける切削対象となる領域に対して、ステップS5、S7乃至S9で加工条件決定部60dが設定した加工条件で、制御部60aがロボットアーム20を制御することで、キサゲ加工が行われる。
 そして、被加工面2aの全体が再度一通りキサゲ加工されると、ステップS2において、カメラ50が被加工面2aの画像を撮影し、ステップS3において、加工レベル取得部60bは学習済みモデルによる画像判定を行う。
 以下、ステップS3において、加工レベル取得部60bが、加工レベルが第10加工レベルであると判断するまで、上記と同様のルーチンが繰り返し行われることで、ワーク2の被加工面2aが効率よく且つ精度よくキサゲ加工される。
 そして、ワーク2の被加工面2aがキサゲ加工により所望のキサゲ面になると、ステップS3において、加工レベル取得部60bが、加工レベルが第10加工レベルであると判断し、キサゲ加工が完了する。
 上記した切削装置1は、加工前の状態(第0加工レベルとする)のワーク2の被加工面2aに対し、一気に最終の加工レベル(第10加工レベル)を目指した加工を行うのではなく、被加工面2aの加工レベルが段階的に高まるように、途中の加工レベルに対応した加工条件で複数回のキサゲ加工を行うように構成されるのが好ましい。特に、切削装置1は、ワーク2の被加工面2aの加工レベルが1つずつ上がるように、第0加工レベルから第10加工レベルのそれぞれに対応した加工条件で複数回のキサゲ加工を行うように構成されるのが好ましい。
 このように、段階的に加工レベルを上げるように加工条件を設定する構成とすることにより、キサゲ加工を行う際に、工具や加工力等の加工条件を加工レベルに応じたより適切なものとすることを可能として、効率よく第10加工レベルに到達することが可能となる。例えば、図5に示すように、初期の低い加工レベルのワーク2の被加工面2aは比較的大きく深いうねりがある形状であるので、幅の広い工具で、加工力を強くして切削加工を行う一方、完成加工レベルである第10加工レベルに近づいた場合には、図5に示すように、ワーク2の被加工面2aの凹凸は小さくなるので、全体的な平面は崩さずに細かい凹凸をつけることが目的になるため、幅の狭い工具を用いて小さい加工力で浅く加工することで、加工スピードを速くしつつ所望の制度で加工をすることができる。
 上記のように、切削装置1を、段階的に加工レベルを上げるように加工条件を設定する構成とする場合、制御部60aは、加工条件決定部60dが決定した加工条件でワーク2のキサゲ加工を行った後に、加工レベル取得部60bが取得するワーク2の加工レベルが、当該切削加工を行う前のワーク2の加工レベルよりも高くなっていない場合に、加工条件を調整した調整後の加工条件で切削加工を行うように、ロボットアーム20の作動を制御する構成とすることもできる。
 図6に示すフローチャート図を参照しつつ、当該構成を有する変形例の切削装置1の制御方法について説明する。
 変形例の切削装置1では、キサゲ加工を行う前(加工回数N=0、加工レベルA=0(第0加工レベル))のワーク2に対し、まず、ステップS1において、加工レベル0用の加工条件が設定され、次に、ステップS2において、制御部60aがロボットアーム20を制御することで、加工レベル0用の加工条件でワーク2の被加工面2aに対するキサゲ加工が行われる。被加工面2aの全体が一通りキサゲ加工されると、加工回数Nがカウントアップされる。
 次に、ステップS3において、カメラ50が、加工レベル0用の加工条件でキサゲ加工が行われた被加工面2aの画像を撮影する。
 次に、カメラ50により撮影された被加工面2aの画像は制御装置60の加工レベル取得部60bに入力され、ステップS4において、加工レベル取得部60bが、機械学習により得られた学習済みモデルによる画像判定を行って加工レベル0用の加工条件でキサゲ加工が行われた被加工面2aの加工レベルを取得する。
 ステップS4において、加工レベル取得部60bにより取得されたワーク2の被加工面2aの加工レベルが、第1加工レベル~第9加工レベルの何れかであると判断されると、次に、ステップS5において、ステップS4で加工レベル取得部60bにより取得されたワーク2の加工レベルが、当該切削加工を行う前のワーク2の加工レベルよりも高くなっているか否かが判断される。
 ステップS5において、ステップS4で加工レベル取得部60bにより取得されたワーク2の加工レベルが、当該切削加工を行う前のワーク2の加工レベルよりも高くなっていると判断されると、ステップS6において、制御部60aは、加工レベル0用の加工条件を調整しないモードとされ、ステップS7において、切削領域決定部60cが画像処理によりステップS4で取得された加工レベルに応じたワーク2の被加工面2aにおける切削対象となる領域を決定し、ステップS8において、加工条件決定部60dがステップS4で取得された加工レベルに応じた加工条件を設定する。そして、ルーチンはステップS2に戻り、制御部60aがロボットアーム20の作動を制御することで、ステップS7において設定された領域に対して、ステップS8において設定された加工条件で、ワーク2の被加工面2aに対するキサゲ加工が行われる。
 以下同様のルーチンで段階的に加工レベルAが高まるように、加工レベル取得部60bにより取得されたワーク2の加工レベルに対応した加工条件で複数回のキサゲ加工が繰り返し行われ、ステップS4において、加工レベル取得部60bにより取得されたワーク2の被加工面2aの加工レベルが、完成加工レベルである第10加工レベルであると判断されると、キサゲ加工が完了する。
 一方、ステップS5において、ステップS4で加工レベル取得部60bにより取得されたワーク2の加工レベルが、当該切削加工を行う前のワーク2の加工レベルよりも高くなっていないと判断された場合には、ステップS9において、制御部60aは、加工レベルA(N-1)用の加工条件を調整するモードとされる。制御部60aが、加工レベルA(N-1)用の加工条件を調整するモードとされると、ステップS7において、切削領域決定部60cが画像処理により切削対象として決定した領域が制御部60aによって調整されるとともに、ステップS8において、加工条件決定部60dにより設定された加工条件も制御部60aによって調整される。
 図5に示すように、ワーク2の被加工面2aは、加工レベルAが低いほど大きな凹凸を有する形状である可能性が高いので、制御部60aは、ステップS7において、切削領域決定部60cが画像処理により取得した領域を、1つの山状の部分が分割された領域となるように調整するとともに、ステップS8において、加工条件決定部60dが取得した加工条件を、加工力を低下させるとともに工具としてより幅が狭いものを用いるように調整する。このとき、制御部60aによる加工力の調整範囲を、ユーザが任意に選択することができる構成とすることができる。なお、制御部60aによる加工力の調整範囲は、当該加工レベルの前後の加工レベルにおいて加工条件決定部60dにより設定される加工力の範囲内とするのが好ましい。
 このように、ステップS5において、ステップS4で加工レベル取得部60bにより取得されたワーク2の加工レベルが、当該切削加工を行う前のワーク2の加工レベルよりも高くなっていないと判断された場合には、ルーチンがステップS2に戻って行われる次のキサゲ加工における加工条件及び加工対象の領域は、制御部60aにより調整されて、加工レベルAが一段高められた場合における加工条件及び加工領域に対して、より加工レベルが低い場合に対応したものとされる。したがって、ステップS2において、ワーク2の被加工面2aに対して、当該被加工面2aの加工レベルにより適した加工条件で効率よくキサゲ加工を行うことができる。
 本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。
 例えば、本発明の一実施の形態に係る学習済みモデル生成方法により生成した学習済みモデルは、切削装置1を用いてキサゲ加工を行う場合に限らず、作業者が手作業でキサゲ加工を行う際に、キサゲ加工の進捗度ないし良否を判断するために用いることもできる。作業者は、キサゲ加工の途中において、カメラ50によって撮影したワーク2の被加工面2aの画像を学習済みモデルに入力することで、ワーク2の現段階での加工レベルないし加工の良否を知ることができる。これにより、作業者がキサゲ加工に熟練していない初心者等であっても、キサゲ加工の進捗度を正確に認識することができるようにして、作業者の手作業によるキサゲ加工を、効率よく且つ精度よく行うことを可能とすることができる。この場合、カメラ50と、制御装置60の加工レベル取得部60bとしての機能とを有するものを加工レベル判定装置とし、この加工レベル判定装置を用いて、ワーク2の現段階での加工レベルないし加工の良否を知る構成とすることができる。
 また、前記実施の形態では、切削加工の進捗度を表す加工レベルに関連付けられた金属の表面情報として、カメラ50により撮影された金属の表面の画像を用いるようにしているが、これに限らず、切削加工の進捗度を表す加工レベルに関連付けられた金属の表面情報として、3次元形状測定機等により測定した金属の表面の3次元データを用いるようにしてもよい。この場合、機械学習による学習済みデータは、金属の表面の3次元データを入力とし、加工レベルを出力とするものとされる。
 さらに、前記実施の形態では、切削装置1を、切削加工としてキサゲ加工を行う構成のものとしたが、これ限らず、ワーク2の被加工面2aを切削加工するものであれば、キサゲ加工を行うものに限られない。この場合、切削部として、スクレイパーとされた切削部10に替えて、当該切削加工に適した種々の切削工具等を用いることができる。
 さらに、前記実施の形態では、駆動部として、ロボットアーム20を例示したが、これらに限らず、切削部10を駆動して切削加工を行うことができるものであれば、ロボットアーム20以外の種々の構成のものを採用することができる。
 1  切削装置
 2  ワーク(被加工物)
 2a 被加工面
 3  基台
10  切削部
11  本体部
12  刃
20  ロボットアーム
21  本体部
22  第1回動部
23  第1アーム部
24  第2回動部
25  第2アーム部
26  第3回動部
30  ホルダー
40  力覚センサー
50  カメラ(表面情報取得部)
60  制御装置
60a 制御部
60b 加工レベル取得部
60c 切削領域決定部
60d 加工条件決定部
70  金属
70a 表面
70b 凸部
71  教師データ

Claims (8)

  1.  刃を備えた切削部と、前記切削部を駆動する駆動部と、前記駆動部の作動を制御する制御部と、を有し、金属製の被加工物を切削加工する切削装置であって、
     前記被加工物の表面情報を取得する表面情報取得部と、
     切削加工の進捗度を表す加工レベルに関連付けられた金属の表面情報を含む教師データを用いた機械学習により得た、金属の表面情報を入力とし、加工レベルを出力とする学習済みモデルに、前記表面情報取得部によって取得した前記被加工物の表面情報を入力して、前記被加工物の加工レベルを取得する加工レベル取得部と、を有し、
     前記制御部は、前記加工レベル取得部によって取得した前記被加工物の加工レベルに基づいて前記被加工物の切削加工を行うように、前記駆動部の作動を制御する、ように構成されている、ことを特徴とする切削装置。
  2.  前記表面情報取得部によって取得した前記被加工物の表面情報及び前記加工レベル取得部によって取得した前記被加工物の加工レベルに基づいて、前記被加工物における切削対象となる領域を決定する、切削領域決定部をさらに有し、
     前記制御部は、前記切削領域決定部によって決定された前記被加工物における切削対象となる領域を対象にして切削加工を行うように、前記駆動部の作動を制御する、ように構成されている、請求項1に記載の切削装置。
  3.  前記加工レベル取得部によって取得した前記被加工物の加工レベルに基づいて、前記加工レベルに対応した加工条件を決定する、加工条件決定部、をさらに有し、
     前記制御部は、前記加工条件決定部によって決定された加工条件で切削加工を行うように、前記駆動部の作動を制御する、ように構成されている、請求項1又は2に記載の切削装置。
  4.  前記制御部は、前記加工条件決定部が決定した加工条件で前記被加工物の切削加工を行った後に、前記加工レベル取得部が取得する前記被加工物の加工レベルが、当該切削加工を行う前の前記被加工物の加工レベルよりも高くなっていない場合に、前記加工条件を調整した調整後の加工条件で切削加工を行うように、前記駆動部の作動を制御する、ように構成されている、請求項3に記載の切削装置。
  5.  前記制御部は、前記加工条件決定部が決定した加工条件で切削加工を行ことにより前記被加工物の加工レベルが1つずつ上がるように、前記駆動部の作動を制御する、ように構成されている、請求項3または4に記載の切削装置。
  6.  前記教師データの加工レベルは、人間が手作業で行う金属の切削加工の進捗度を表し、
     前記教師データの金属の表面情報は、人間が手作業で切削加工を行った金属の表面情報である、請求項1~5の何れか1項に記載の切削装置。
  7.  切削加工の進捗度を表す加工レベルに関連付けられた金属の表面情報を含む教師データを取得する、教師データ取得ステップと、
     前記教師データを用いた機械学習により、金属の表面情報を入力とし、加工レベルを出力とする学習済みモデルを生成する、学習済みモデル生成ステップと、を有することを特徴とする学習済みモデル生成方法。
  8.  前記教師データの加工レベルは、人間が手作業で行う金属の切削加工の進捗度を表し、
     前記教師データの金属の表面情報は、人間が手作業で切削加工を行った金属の表面情報である、請求項7に記載の学習済みモデル生成方法。
PCT/JP2021/012060 2020-03-25 2021-03-23 切削装置及び学習済みモデル生成方法 WO2021193663A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022510564A JPWO2021193663A1 (ja) 2020-03-25 2021-03-23

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020054534 2020-03-25
JP2020-054534 2020-03-25

Publications (1)

Publication Number Publication Date
WO2021193663A1 true WO2021193663A1 (ja) 2021-09-30

Family

ID=77890415

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/012060 WO2021193663A1 (ja) 2020-03-25 2021-03-23 切削装置及び学習済みモデル生成方法

Country Status (3)

Country Link
JP (1) JPWO2021193663A1 (ja)
TW (1) TW202204086A (ja)
WO (1) WO2021193663A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05123921A (ja) * 1991-02-20 1993-05-21 Nippon Spindle Mfg Co Ltd キサゲ加工方法及びその装置
JPH1058285A (ja) * 1996-08-09 1998-03-03 Okuma Mach Works Ltd 自動キサゲ装置
JP2016137551A (ja) * 2015-01-28 2016-08-04 ファナック株式会社 ロボットを用いたキサゲ加工装置及びキサゲ加工方法
JP2018144207A (ja) * 2017-03-08 2018-09-20 ファナック株式会社 仕上げ加工量予測装置及び機械学習装置
JP2020023040A (ja) * 2018-07-25 2020-02-13 株式会社ジェイテクト 研削品質推定モデル生成装置、研削品質推定装置、不良品質発生要因推定装置、研削盤の動作指令データ調整モデル生成装置および研削盤の動作指令データ更新装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05123921A (ja) * 1991-02-20 1993-05-21 Nippon Spindle Mfg Co Ltd キサゲ加工方法及びその装置
JPH1058285A (ja) * 1996-08-09 1998-03-03 Okuma Mach Works Ltd 自動キサゲ装置
JP2016137551A (ja) * 2015-01-28 2016-08-04 ファナック株式会社 ロボットを用いたキサゲ加工装置及びキサゲ加工方法
JP2018144207A (ja) * 2017-03-08 2018-09-20 ファナック株式会社 仕上げ加工量予測装置及び機械学習装置
JP2020023040A (ja) * 2018-07-25 2020-02-13 株式会社ジェイテクト 研削品質推定モデル生成装置、研削品質推定装置、不良品質発生要因推定装置、研削盤の動作指令データ調整モデル生成装置および研削盤の動作指令データ更新装置

Also Published As

Publication number Publication date
TW202204086A (zh) 2022-02-01
JPWO2021193663A1 (ja) 2021-09-30

Similar Documents

Publication Publication Date Title
CN105817712B (zh) 刮研加工装置和刮研加工方法
JP7368170B2 (ja) 表面仕上げ装置
JP6637928B2 (ja) 自動研磨システム
US5077941A (en) Automatic grinding method and system
US20190299406A1 (en) Controller and machine learning device
JP6499710B2 (ja) 加減速制御装置
JP2019162712A (ja) 制御装置、機械学習装置及びシステム
DE102017128757A1 (de) Schleifvorrichtung
JP2018041208A (ja) 数値制御装置
JP2021070114A (ja) 工具摩耗予測システム
DE102020106239A1 (de) Greifkrafteinstellvorrichtung und greifkrafteinstellsystem
JP7424777B2 (ja) 機械学習装置、制御装置、生成方法および制御方法
EP3453486A1 (de) Vorrichtung zum bearbeiten eines werkstücks mit einem werkzeug
WO2014068667A1 (ja) 加工プログラム作成方法および装置
DE102019001177B4 (de) Steuergerät, maschinelle Lernvorrichtung und System
TWI819227B (zh) 加工裝置、用於此裝置的控制裝置以及加工裝置的控制方法
JP2021003788A (ja) 制御装置、及び制御方法
JP3427389B2 (ja) バリ取り方法及びその装置
WO2021193663A1 (ja) 切削装置及び学習済みモデル生成方法
JPH05123921A (ja) キサゲ加工方法及びその装置
CN110893515B (zh) 加工条件调整装置以及机器学习装置
DE102005040714B4 (de) Verfahren und System zur Erstellung eines Bewegungsablaufes für einen Roboter
JP6517879B2 (ja) 数値制御装置
JP7536673B2 (ja) 切削装置
JP2022161277A (ja) 砥面判定装置、学習器、判定プログラム、および砥面判定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21776769

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022510564

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21776769

Country of ref document: EP

Kind code of ref document: A1