WO2021181035A1 - Procédé de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé - Google Patents

Procédé de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé Download PDF

Info

Publication number
WO2021181035A1
WO2021181035A1 PCT/FR2021/050380 FR2021050380W WO2021181035A1 WO 2021181035 A1 WO2021181035 A1 WO 2021181035A1 FR 2021050380 W FR2021050380 W FR 2021050380W WO 2021181035 A1 WO2021181035 A1 WO 2021181035A1
Authority
WO
WIPO (PCT)
Prior art keywords
tool
polyarticulated system
polyarticulated
working
sensor
Prior art date
Application number
PCT/FR2021/050380
Other languages
English (en)
Inventor
Jean-Louis DEPARIS
Hervé Henry
Jean-François THRO
Original Assignee
Orano Ds - Démantèlement Et Services
Siléane
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=72266362&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2021181035(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Orano Ds - Démantèlement Et Services, Siléane filed Critical Orano Ds - Démantèlement Et Services
Priority to CN202180029322.7A priority Critical patent/CN115916476A/zh
Priority to KR1020227034950A priority patent/KR20220154716A/ko
Priority to US17/906,142 priority patent/US20230106854A1/en
Priority to EP21714659.6A priority patent/EP4117867A1/fr
Priority to JP2022555706A priority patent/JP2023530209A/ja
Publication of WO2021181035A1 publication Critical patent/WO2021181035A1/fr

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0096Programme-controlled manipulators co-operating with a working support, e.g. work-table
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/1605Simulation of manipulator lay-out, design, modelling of manipulator
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40442Voxel map, 3-D grid map
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40475In presence of moving obstacles, dynamic environment
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E30/00Energy generation of nuclear origin
    • Y02E30/30Nuclear fission reactors

Definitions

  • the present invention relates to the technical field of performing all operations, for example cutting, welding, marking, stripping, painting, surfacing, positioning a sensor or any type of tool. analysis, etc., on an object present in a working environment, the positions and geometries of the object and of the working environment possibly being scalable and / or insufficiently defined to be able to carry out said operations.
  • the invention applies to the technical dismantling sector, in which measuring, cutting and gripping operations are carried out on objects possibly presenting risks associated with radioactivity, without this being limiting.
  • the invention relates more precisely to a method and an installation for automatically performing an operation on an object with a tool carried by a polyarticulated system and movable in a working environment, the positions and geometries of the object and of the working environment being scalable and / or insufficiently defined to be able to perform said operation in automatic mode.
  • the operation can be of any nature whatsoever in any type of environment, with any type of tool and carried out especially type of object.
  • the operations cannot be carried out on contact by an operator, the tool (measuring, cutting, gripping) must then be carried by a polyarticulated system to carry out this operation.
  • the operator controls the system remotely using a control reference, in indirect vision using cameras and screens.
  • the drawbacks of such a system are on the one hand its high cost, on the other hand the imprecision of its control in terms of speed, effort and positioning, leading to a long implementation time and premature wear of the consumables of the tools ( blades, discs).
  • the invention aims to remedy the drawbacks of the prior art by providing a method and an installation for performing an operation on an object in a working environment, making it possible to ensure optimum conditions of safety, precision and speed. .
  • the method comprises at least:
  • 3D sensor is understood to mean any means for digitizing an object or part of an object in the form of a three-dimensional image, and includes in particular 3D cameras, laser scanners, video means, webcams. ..
  • the anti-collision parameters are for example threshold distances from which safety actions are carried out automatically such as the total stopping of any movement or the reduction in the speed of movement of the polyarticulated system and of the tool. , for example up to a threshold speed which then constitutes an anticollision parameter.
  • the invention makes it possible to carry out operations in automatic and remote mode in an environment that is initially uncertain or unknown or inaccessible while guaranteeing their correct execution.
  • the operator views the working environment and the object in a cloud of points on the display, and defines a tool movement path to perform the desired operation, for example a cutting operation.
  • the invention is also advantageous in that the method makes it possible to carry out a simulation, in particular in CAD, of the corresponding displacement of the polyarticulated system and of its tool in order to ensure that the displacement is achievable without collision.
  • the simulation of the displacement confirms its feasibility
  • the actual displacement of the polyarticulated system carrying the tool can be executed to perform the operation as such on the object.
  • the method is thus carried out in at least three steps, namely: a step A of securing the environment and the object by digitization in the form of an overall point cloud, a step B of definition and simulation trajectories, and an execution step C.
  • the method also comprises a step A ', between step A and step B, consisting in controlling the movement of the polyarticulated system to capture detailed images of areas of the object with a 3D sensor carried by the polyarticulated system, in the form of a point cloud denser and more precise than the overall point cloud and to integrate into the working image the captured images of the corresponding area of the object, replacing the part corresponding value from the aggregate point cloud.
  • a step A ' between step A and step B, consisting in controlling the movement of the polyarticulated system to capture detailed images of areas of the object with a 3D sensor carried by the polyarticulated system, in the form of a point cloud denser and more precise than the overall point cloud and to integrate into the working image the captured images of the corresponding area of the object, replacing the part corresponding value from the aggregate point cloud.
  • This additional step makes it possible to provide an improved working image, with increased precision in order to define the different trajectories of the operation to be carried out. Moreover, this additional step also makes it possible to capture images of the areas not visible by the sensor used for step A, thanks to the displacement of the polyarticulated system, and thus to complete the working image.
  • the 3D sensor carried by the polyarticulated system can be permanently attached to it, or else be stored nearby.
  • the method comprises a step A ", between step A is step A ', consisting in automatically moving the polyarticulated system to grip and connect to the 3D sensor stored nearby.
  • the method comprises a step C ', between step B and step C, consisting in automatically moving the polyarticulated system in order, optionally to disconnect and remove a 3D sensor, and to connect to the tool. stored nearby.
  • This characteristic makes it possible to have a plurality of tools available stored nearby, intended to be connected to the polyarticulated system.
  • the method also comprises, prior to step B, a step B ′ consisting in selecting, in and for the simulation of step B, in a database of tools , the tool to perform the operation.
  • the method is also remarkable in that, during step C, the speed of movement of the polyarticulated system carrying the tool in direct contact with the object perhaps, according to need, regulated in real time according to a direct or indirect measurement of the force undergone by the tool.
  • the displacement speed of the polyarticulated system is automatically reduced when the 3D sensor or a part of the polyarticulated system approaches the object or a part of the working environment, and movement is automatically stopped when the 3D sensor or part of the polyarticulate system is at a safe distance from the object or part of the working environment, depending on the parameters collision avoidance defined in step A.
  • the definition of the tool path on the part of the working image representing the object according to step B consists of positioning on the working image either at least one starting point - end point pair, or at least one predefined geometric figure chosen from a library composed for example of at least one line, planes, masks, etc.
  • the invention also relates to an installation for implementing the method described above, characterized in that it comprises a polyarticulated system and at least one 3D sensor, connected to a computer processing system and to a display, designed for : represent on the display an overall point cloud of the object and all or part of the working environment from images captured by at least one 3D sensor; represent a working image resulting from the fusion of the overall point cloud, a pre-existing CAD model of the polyarticulated system and a possible pre-existing CAD model of all or part of the environment as built, the processing system computer system being also designed to make it possible to define a trajectory of the tool on the part of the working image representing the object, and to perform a simulation of the corresponding displacement of the polyarticulated system and of the tool in the working image to ensure that the operation is feasible, and if the operation is feasible, to perform the actual displacement of the polyarticulated system carrying the tool along the path defined to perform the operation as such on the object.
  • the installation comprises a means for regulating, during step C and in real time, the speed of movement of the polyarticulated system carrying a tool in direct contact with the object, as a function of a direct or indirect measurement of the force undergone by the tool.
  • Figure 1 is a schematic perspective representation of the installation according to the invention, illustrating the polyarticulated system carrying the tool, in its working environment and to perform an operation on an object.
  • FIG. 2 is a schematic representation similar to that of FIG. 1, the polyarticulated system carrying a 3D camera.
  • FIG. 3 illustrates in perspective the representation on the display, of the merger, in a working image, of an overall point cloud of the object and of a part of the working environment, obtained from images captured by a 3D camera on the one hand and the CAD model of the polyarticulated system.
  • FIG. 4 is a view similar to that of FIG. 3, the polyarticulated system carrying a 3D camera to capture images of details of the object, which come to be integrated into the working image, replacing the corresponding part of the ensemble point cloud.
  • Figure 5 is a view similar to that of Figure 4, a tool path being defined on the part of the working image representing the object.
  • FIG. 6 is a schematic representation similar to that of FIG. 5 illustrating the simulation of the displacement of the polyarticulated system and of the tool in the working image.
  • FIG. 7 illustrates in detail the positioning of a plane in intersection with the part of the working image representing an object.
  • FIG. 8 is a representation similar to that of FIG. 7, the trajectory resulting from the intersection between the positioned plane and the part of the working image representing the object being automatically calculated, making it possible to automatically calculate the trajectories displacement of the polyarticulated system.
  • FIG. 9 illustrates the phase of simulation of the displacement of the polyarticulated system.
  • FIG. 10 represents a simplified flowchart of the method according to the invention.
  • the invention relates to a method and an installation (1) for automatically performing an operation on an object (2) positioned in a working environment (3).
  • the invention is not limited to a particular operation, and may relate to an operation of measuring, cutting, gripping, welding, writing, marking, stripping, painting, surfacing, positioning of a sensor or any type of analysis tool, etc.
  • the operation as such is carried out by means of a tool (4) carried by a polyarticulated system (5) movable in the working environment (3).
  • the object (2) on which the operation according to the method of the invention is to be carried out may be of any nature, such as for example a radioactive object or any other object to be dismantled, or else an object to be repaired, to solder, etc.
  • the work environment (3) linked to the object (2) can be of any kind, such as for example a work environment at risk, confined, inaccessible to an operator or in which an operator operates with difficulty, such as '' a radioactive environment for example, or even work at height.
  • the installation (1) comprises a polyarticulated system (5), in particular in the form of a robotic arm movable in all directions and in the working environment (3).
  • the installation (1) comprises at least one 3D sensor, for example a 3D camera (6A, 6B, 6C) intended to capture an image of the object (2) and of all or part of the working environment (3 ) to digitize it and represent, by means of a known computer processing system, and a display, a three-dimensional representation of a cloud (7) of overall points of the object (2) and of all or part of the working environment (3).
  • a 3D sensor for example a 3D camera (6A, 6B, 6C) intended to capture an image of the object (2) and of all or part of the working environment (3 ) to digitize it and represent, by means of a known computer processing system, and a display, a three-dimensional representation of a cloud (7) of overall points of the object (2) and of all or part of the working environment (3).
  • the installation (1) comprises three 3D cameras (6A, 6B, 6C) positioned in a fixed manner on an arch (8) around and above the polyarticulated system (5).
  • the installation (1) implements a method comprising at least one step A consisting in capturing, in the form of a cloud of points assembly (7), an image of the object (2) and all or part of the working environment (3) with the 3D camera (s) (6A, 6B, 6C) attached to the arch (8 ), to merge this overall point cloud (7) with a pre-existing CAD model of the polyarticulated system (5) and a pre-existing CAD model of the environment as built, such as that of the arch (8) and to represent on a display the resulting working image (17) (assembly of FIG. 3).
  • the installation (1) preferably comprises a plurality of tools (4) of different types, and a 3D sensor, such as a 3D camera (16) stored at proximity, for example in a dedicated bin.
  • a 3D sensor such as a 3D camera (16) stored at proximity, for example in a dedicated bin.
  • This 3D camera (16) can be of the same type as the 3D cameras (6A, 6B, 6C) or be different therefrom and, in the latter case, it will advantageously be more precise than the 3D cameras (6A, 6B, 6C).
  • the method according to the invention advantageously comprises a step A ", after step A, consisting in automatically moving, and therefore in a secure manner, the polyarticulated system (5) in order to enter and connect to the 3D camera (16 ) stored nearby.
  • the method comprises a step A ', see figure 2, consisting in controlling the movement of the polyarticulated system (5) to capture detail images of different zones of object (2) with the 3D camera (16) more precise than the 3D cameras (6A, 6B, 6C), in the form of a point cloud which is denser and more precise than the overall point cloud (7) and to be integrated into the 'working image (17), see FIG. 4, the captured images (9) of the corresponding areas of the object (2) replacing the corresponding part from the overall point cloud (7).
  • the movement of the polyarticulated system (5) to capture the different images is controlled, automatically or by an operator remote from the working environment (3), for example by means of a control lever and makes it possible to capture images of areas inaccessible, or for example by directly selecting specific areas from the overall point cloud (7), said selection causing the automatic displacement of the polyarticulated system.
  • the operator selects in practice an area for which he wishes to improve the precision of modeling of the object.
  • the software calculates the positions of the polyarticulated system (5) necessary to capture the images with the best points of view.
  • the displacement of the polyarticulated system (5) takes place without collision between the polyarticulated system (5), the 3D camera (16), the object (2) and the elements of the working environment (3) since everything is modeled through the working image (17), either in CAD, or by the overall point cloud (7), or by the images (9) of details.
  • step A ' the displacement speed of the polyarticulated system (5) is automatically reduced when the tool (4) or a part of the polyarticulated system (5), whose CAD models are known, approaches the object (2) or an element in the working environment (3), and the movement is stopped when the tool (4) or part of the polyarticulated system (5) is at a safe distance from an obstacle.
  • the method comprises a step B 'consisting in selecting, in and for the simulation, in a database of tools, the tool (4) in front of perform the operation.
  • the method comprises a step B consisting in defining a path (10) of the tool (4) on the part of the working image (17) representing the object (2) ,, and to perform a simulation of the corresponding displacement of the polyarticulated system (5) and of the tool (4) in the working image (17) to ensure that the operation is feasible, in particular in terms of orientation , accessibility, and absence of collision, see figure 6.
  • the operator can position on the working image (17) displayed on the display, a starting point - ending point pair or a geometric figure chosen from a library made up of lines, planes or masks ... and the computer processing system is designed to automatically calculate the trajectories (10) on the object (2). If necessary, the processing system allows manual adjustment of the trajectory (10), or allows the operator to directly trace the trajectories (10) on the representation of the object (2).
  • a plane (11) has been positioned on the representation of the surface of the object (2) to be cut, and the computer processing system has defined the trajectory (10) by the intersection between the plane (11) and said surface.
  • This technique is also illustrated in Figure 7, where we see the positioning of a plane (11), and in Figure 8 where we see the trajectories (10) calculated and plotted from the intersection between the plan (11) and the representation of the object (2).
  • the computer processing system After having calculated the trajectories (10), the computer processing system makes it possible to simulate the corresponding displacement of the polyarticulated system (5) and of the tool (4) in the working image (17) to ensure that the operation is possible, depending on of course of the path (10) tested, of the tool (4) and of the accessibility and displacement possibilities of the polyarticulated system (5).
  • the displacement test steps are for example illustrated in Figures 6 and 9. If the simulation shows that the displacement is possible, that is to say that it is possible in terms of orientation and accessibility, and that 'it does not cause any collision between the various elements of the installation (1) and of the working environment (3), the actual displacement can be carried out. Step B is carried out as many times as necessary to end up with an executable movement.
  • the method then advantageously comprises a step C 'consisting in automatically moving the polyarticulated system (5) to disconnect and deposit the 3D camera (16), for example in the dedicated tank, and to connect to the tool (4) which had previously been selected, also stored nearby.
  • the method comprises a step C consisting, if the simulation has shown that the operation is feasible, in carrying out the actual displacement of the polyarticulated system (5) carrying the tool (4) according to the trajectory (10) defined and validated to perform the operation as such on the object (2).
  • next cutting path (10) is defined, in masked time, during the operation. previous cutting, or several trajectories (10) are simulated and recorded to be then performed one after the other in an order that can be changed by the operator.
  • the invention is also particularly advantageous in an evolving environment, due to new elements or potential obstacles by adding objects or by freeing up space, for example linked to the cutting of the object (2), steps A to C of the method of the invention then being repeated in order to have the most up-to-date images and simulations possible for continuing operations on the object (2), in a facilitated manner and without risk of collision.
  • the display illustrates, in CAD mode, the installation (1), the object (2) and the various elements of the environment.
  • the polyarticulated system (5) is shown in interactive colors.
  • the polyarticulated system (5) is for example represented in green and as one of its parts approaches an obstacle, the color of the part concerned successively changes to orange when the polyarticulated system (5) and / or the tool (4) enters the collision risk zone defined by the collision management parameters and red when movement is stopped because the polyarticulated system (5) and / or the tool (4) has reached the threshold distance defined in the collision management parameters.
  • the invention provides a method and an installation (1) making it possible to perform, in an automatic and secure manner, an operation on an object (2) present in a working environment (3), positions and geometries of the object and of the working environment being scalable and / or insufficiently defined to be able to carry out the operation.
  • the process adapts to any type of geometry or nature of the object (2).
  • the first step of securing the environment and the object (2) by digitizing in the form of an overall point cloud is carried out with 3D cameras, which allows adaptation to any type of position and geometry.
  • Processing time is fast, including 500,000 measurement points in one second.
  • the details obtained from the environment are important, the information is continuous. This allows for realistic rendering and modeling in real time, the operator can optionally easily visually check whether the point cloud reconstruction (7) is correct.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Abstract

L'invention concerne un procédé et une installation de réalisation automatique d'une opération sur un objet (2) avec un outil (4) porté par un système polyarticulé (5) déplaçable dans un environnement de travail (3), l'objet (2) et l'environnement de travail (3) étant évolutifs ou insuffisamment définis pour réaliser l'opération. Selon l'invention, le procédé comprend au moins : - une étape A consistant à capturer, sous forme d'un nuage de points, une image de l'objet (2) et de l'environnement de travail (3) avec au moins un capteur 3D (6), à fusionner dans une image de travail, cette image avec le modèle CAO du système polyarticulé et avec l'éventuel modèle CAO de l'environnement, et à définir des paramètres d'anticollision; - une étape B consistant à définir une trajectoire de l'outil (4) sur la partie de l'image de travail représentant l'objet (2), et à exécuter une simulation du déplacement correspondant du système polyarticulé (5) et de l'outil dans l'image de travail pour s'assurer que l'opération est réalisable; - une étape C consistant, si l'opération est réalisable selon l'étape B, à exécuter le déplacement réel du système polyarticulé (5) portant l'outil (4) selon la trajectoire (10) définie pour réaliser l'opération sur l'objet (2).

Description

DESCRIPTION
TITRE :PROCÉDÉ DE RÉALISATION AUTOMATIQUE D'UNE OPÉRATION SUR UN OBJET AVEC UN OUTIL PORTÉ
PAR UN SYSTÈME POLYARTICULÉ
DOMAINE TECHNIQUE
La présente invention se rapporte au domaine technique de la réalisation de toutes opérations, par exemple de coupe, de soudure, de marquage, de décapage, de peinture, de surfaçage, de positionnement d'un capteur ou de tout type d'outil d'analyse, etc., sur un objet présent dans un environnement de travail, les positions et les géométries de l'objet et de l'environnement de travail étant éventuellement évolutives et/ou insuffisamment définies pour pouvoir réaliser lesdites opérations.
Par exemple, l'invention s'applique au secteur technique du démantèlement, dans lequel sont effectuées des opérations de mesure, de découpe, de préhension d'objets présentant éventuellement des risques liés à la radioactivité, sans que cela soit limitatif. L'invention concerne plus précisément un procédé et une installation de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé et déplaçable dans un environnement de travail, les positions et les géométries de l'objet et de l'environnement de travail étant évolutives et/ou insuffisamment définies pour pouvoir réaliser ladite opération en mode automatique. L'opération peut être de toute nature que ce soit dans tout type d'environnement, avec tout type d'outil et réalisée surtout type d'objet.
La présente invention trouve par exemple une application avantageuse pour réaliser une opération sur un objet dans un environnement à risque et confiné, inaccessible à un opérateur ou dans lequel un opérateur évolue avec difficulté.
ART ANTÉRIEUR
Dans le domaine de l'invention, et par exemple celui du démantèlement d'objets radioactifs, les opérations de démantèlement peuvent être réalisées manuellement par un opérateur dans un environnement confiné. Les opérations de démantèlement comprennent des opérations de mesure, de découpe, de préhension de l'objet. Notamment, l'opération de découpe a pour finalité de générer des éléments de dimensions plus petites dans un objectif d'optimiser le remplissage des conteneurs de déchets dans lesquels ils sont introduits par exemple.
Ces pièces plus petites doivent donc être prises par le système pour être introduites dans le conteneur.
Ces différentes opérations sont réalisées par un opérateur équipé d'une disqueuse par exemple, ou de tout type d'outil lui permettant de réaliser les opérations concernées, et d'équipements de protection contraignants (par exemple, tenue ventilée, gants anti coupure, etc.) eu égard notamment à l'environnement radioactif de l'atelier dans lequel il opère, et de la nature de l'opération à effectuer.
La réalisation de ces opérations n'est donc pas optimale, aussi bien en matière de sécurité pour l'opérateur, que de difficulté et de durée de réalisation.
Dans d'autres cas, les opérations ne peuvent pas être réalisées au contact par un opérateur, l'outil (de mesure, découpe, préhension) doit alors être porté par un système polyarticulé pour réaliser cette opération. L'opérateur pilote le système à distance à l'aide d'un renvoi de commande, en vision indirecte grâce à des caméras et des écrans. Les inconvénients d'un tel système sont d'une part son coût élevé, d'autre part l'imprécision de son pilotage en matière de vitesse, effort et positionnement, entraînant un temps de réalisation important et une usure prématurée des consommables des outils (lames, disques).
EXPOSÉ DE L'INVENTION
L'invention vise à remédier aux inconvénients de l'art antérieur en fournissant un procédé et une installation de réalisation d'une opération sur un objet dans un environnement de travail, permettant d'assurer des conditions de sécurité, de précision et de vitesse optimales.
À cet effet, il a été mis au point un procédé de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé déplaçable dans un environnement de travail. Selon l'invention, le procédé comprend au moins :
- une étape A consistant : o à capturer une image de l'objet et de tout ou partie de l'environnement de travail, avec au moins un capteur 3D, sous forme d'un nuage de points d'ensemble, o à fusionner cette image avec un modèle CAO préexistant du système polyarticulé et un éventuel modèle CAO préexistant de tout ou partie de l'environnement tel que construit, résultant en une image de travail et o à définir des paramètres d'anticollision ;
- une étape B consistant à définir, de préférence par l'opérateur, une trajectoire de l'outil sur la partie de l'image de travail représentant l'objet, et à exécuter une simulation du déplacement correspondant du système polyarticulé et de l'outil dans l'image de travail pour s'assurer que l'opération est réalisable ;
- une étape C consistant, si l'opération est réalisable selon l'étape B, à exécuter le déplacement réel du système polyarticulé portant l'outil selon la trajectoire définie pour réaliser l'opération sur l'objet.
Par capteur 3D, on entend au sens de l'invention, tout moyen de numérisation d'un objet ou partie d'objet sous forme d'image en trois dimensions, et comprend notamment les caméras 3D, scanners laser, moyens vidéo, webcams...
Les paramètres d'anticollision sont par exemple des distances seuils à partir desquelles des actions de mises en sécurité sont réalisées de façon automatique telles que l'arrêt total de tout mouvement ou la réduction de la vitesse de déplacement du système polyarticulé et de l'outil, par exemple jusqu'à une vitesse seuil qui constitue alors un paramètre d'anticollision.
De cette manière, l'invention permet de réaliser en mode automatique et à distance des opérations dans un environnement initialement incertain ou inconnu ou inaccessible tout en garantissant leur bonne exécution.
L'invention est avantageuse en ce que, avant tout déplacement du système polyarticulé, l'environnement de travail est numérisé sous forme d'un nuage de points d'ensemble. De cette manière, la position des différents obstacles vis-à-vis du déplacement du système polyarticulé, à savoir les éléments présents dans l'environnement de travail et l'objet sur lequel doivent être effectuées les opérations, est connue. Ainsi, toute collision entre le système polyarticulé ou son outil et les éléments de l'environnement peut être évitée, grâce aux paramètres d'anticollision.
Ceci est particulièrement avantageux lorsque l'environnement de travail n'est pas directement visible par l'opérateur qui contrôle le déroulement du procédé. L'opérateur visualise en nuage de points l'environnement de travail et l'objet sur l'afficheur, et vient définir une trajectoire de déplacement de l'outil pour réaliser l'opération désirée, par exemple une opération de découpe.
L'invention est aussi avantageuse en ce que le procédé permet d'exécuter une simulation, notamment en CAO, du déplacement correspondant du système polyarticulé et de son outil pour s'assurer que le déplacement est réalisable sans collision.
Ensuite, si la simulation du déplacement confirme sa faisabilité, le déplacement réel du système polyarticulé portant l'outil peut être exécuté pour réaliser l'opération en tant que telle sur l'objet.
Le procédé est réalisé ainsi en au moins trois étapes, à savoir : une étape A de sécurisation de l'environnement et de l'objet par numérisation sous forme d'un nuage de points d'ensemble, une étape B de définition et de simulation des trajectoires, et une étape C d'exécution.
De préférence, le procédé comprend également une étape A', entre l'étape A et l'étape B, consistant à commander le déplacement du système polyarticulé pour capturer des images de détail de zones de l'objet avec un capteur 3D porté par le système polyarticulé, sous forme d'un nuage de points plus dense et plus précis que le nuage de points d'ensemble et à intégrer dans l'image de travail les images capturées de la zone correspondante de l'objet, en remplacement de la partie correspondante issue du nuage de points d'ensemble.
Cette étape supplémentaire permet de fournir une image de travail améliorée, d'une précision augmentée pour définir les différentes trajectoires de l'opération à réaliser. Par ailleurs, cette étape supplémentaire permet également de capturer des images des zones non visibles par le capteur utilisé pour l'étape A, grâce au déplacement du système polyarticulé, et de compléter ainsi l'image de travail.
Le capteur 3D porté par le système polyarticulé peut être fixé à demeure sur celui-ci, ou bien être entreposé à proximité. Dans cette dernière configuration, le procédé comprend une étape A", entre l'étape A est l'étape A', consistant à déplacer automatiquement le système polyarticulé pour saisir et se connecter au capteur 3D entreposé à proximité.
Selon une forme de réalisation particulière, le procédé comprend une étape C', entre l'étape B et l'étape C, consistant à déplacer automatiquement le système polyarticulé pour, éventuellement déconnecter et déposer un capteur 3D, et se connecter à l'outil entreposé à proximité.
Cette caractéristique permet d'avoir une pluralité d'outils à disposition entreposés à proximité, destinés à être connectés au système polyarticulé.
Dans l'hypothèse où plusieurs outils différents sont disponibles, le procédé comprend également, préalablement à l'étape B, une étape B' consistant à sélectionner, dans et pour la simulation de l'étape B, dans une base de données d'outils, l'outil devant réaliser l'opération.
D'une manière avantageuse et afin d'éviter de détériorer l'outil, le procédé est également remarquable en ce que, lors de l'étape C, la vitesse de déplacement du système polyarticulé portant l'outil en contact direct avec l'objet peut-être, selon le besoin, régulée en temps réel en fonction d'une mesure directe ou indirecte de l'effort subi par l'outil.
Afin de sécuriser les déplacements du système polyarticulé portant le capteur 3D lors de l'étape A', la vitesse de déplacement du système polyarticulé est automatiquement diminuée lorsque le capteur 3D ou une partie du système polyarticulé se rapproche de l'objet ou d'un élément de l'environnement de travail, et le déplacement est automatiquement arrêté lorsque le capteur 3D ou une partie du système polyarticulé se trouve à une distance de sécurité de l'objet ou d'un élément de l'environnement de travail, selon les paramètres d'anticollision définis à l'étape A. La définition de la trajectoire de l'outil sur la partie de l'image de travail représentant l'objet selon l'étape B consiste à positionner sur l'image de travail soit au moins un couple point de départ - point d'arrivée, soit au moins une figure géométrique prédéfinie choisie dans une bibliothèque composée par exemple d'au moins une ligne, plans, masques...
L'invention concerne aussi une installation pour la mise en œuvre du procédé décrit ci- avant, caractérisée en ce qu'elle comprend un système polyarticulé et au moins un capteur 3D, reliés à un système de traitement informatique et à un afficheur, conçu pour : représenter sur l'afficheur un nuage de points d'ensemble de l'objet et de tout ou partie de l'environnement de travail à partir d'images capturées par au moins un capteur 3D ; représenter une image de travail résultant de la fusion du nuage de points d'ensemble, d'un modèle CAO préexistant du système polyarticulé et d'un éventuel modèle CAO préexistant de tout ou partie de l'environnement tel que construit, le système de traitement informatique étant également conçu pour permettre de définir une trajectoire de l'outil sur la partie de l'image de travail représentant l'objet, et pour exécuter une simulation du déplacement correspondant du système polyarticulé et de l'outil dans l'image de travail pour s'assurer que l'opération est réalisable, et si l'opération est réalisable, pour exécuter le déplacement réel du système polyarticulé portant l'outil selon la trajectoire définie pour réaliser l'opération en tant que telle sur l'objet.
Avantageusement, l'installation comprend un moyen pour réguler, lors de l'étape C et en temps réel, la vitesse de déplacement du système polyarticulé portant un outil en contact direct avec l'objet, en fonction d'une mesure directe ou indirecte de l'effort subi par l'outil.
BRÈVE DESCRIPTION DES DESSINS D'autres caractéristiques et avantages de l'invention ressortiront clairement de la description qui en est faite ci-après, à titre indicatif et nullement limitatif, en référence aux figures annexées, dans lesquelles :
[Fig. 1] la figure 1 est une représentation schématique en perspective de l'installation selon l'invention, illustrant le système polyarticulé portant l'outil, dans son environnement de travail et pour réaliser une opération sur un objet.
[Fig. 2] la figure 2 est une représentation schématique similaire à celle de la figure 1, le système polyarticulé portant une caméra 3D.
[Fig. 3] la figure 3 illustre en perspective la représentation sur l'afficheur, de la fusion, en une image de travail, d'un nuage de points d'ensemble de l'objet et d'une partie de l'environnement de travail, obtenu à partir d'images capturées par une caméra 3D d'une part et du modèle CAO du système polyarticulé.
[Fig. 4] la figure 4 est une vue similaire à celle de la figure 3, le système polyarticulé portant une caméra 3D pour capturer des images de détails de l'objet, qui viennent s'intégrer dans l'image de travail, en remplacement de la partie correspondante du nuage de points d'ensemble.
[Fig. 5] la figure 5 est une vue similaire à celle de la figure 4, une trajectoire de l'outil étant définie sur la partie de l'image de travail représentant l'objet.
[Fig. 6] la figure 6 est une représentation schématique similaire à celle de la figure 5 illustrant la simulation du déplacement du système polyarticulé et de l'outil dans l'image de travail.
[Fig. 7] la figure 7 illustre en détail le positionnement d'un plan en intersection avec la partie de l'image de travail représentant un objet.
[Fig. 8] la figure 8 est une représentation similaire à celle de la figure 7, la trajectoire résultant de l'intersection entre le plan positionné et la partie de l'image de travail représentant l'objet étant automatiquement calculée, permettant de calculer automatiquement les trajectoires de déplacement du système polyarticulé.
[Fig. 9] la figure 9 illustre la phase de simulation du déplacement du système polyarticulé. [Fig. 10] la figure 10 représente un ordinogramme simplifié du procédé selon l'invention.
EXPOSÉ DÉTAILLÉ DE L'INVENTION
L'invention concerne un procédé et une installation (1) de réalisation automatique d'une opération sur un objet (2) positionné dans un environnement de travail (3). L'invention ne se limite pas à une opération en particulier, et peut concerner une opération de mesure, de découpe, de préhension, de soudure, d'écriture, de marquage, de décapage, de peinture, de surfaçage, de positionnement d'un capteur ou de tout type d'outil d'analyse, etc. L'opération en tant que telle est effectuée par l'intermédiaire d'un outil (4) porté par un système polyarticulé (5) déplaçable dans l'environnement de travail (3).
L'objet (2) sur lequel doit être réalisée l'opération selon le procédé de l'invention peut- être de toute nature, tel que par exemple un objet radioactif ou tout autre objet à démanteler, ou bien un objet à réparer, à souder, etc.
L'environnement de travail (3) lié à l'objet (2) peut être de toute nature, tel que par exemple un environnement de travail à risque, confiné, inaccessible à un opérateur ou dans lequel un opérateur évolue avec difficulté, tel qu'un environnement radioactif par exemple, ou encore un travail en hauteur.
En référence à la figure 1, l'installation (1) comprend un système polyarticulé (5), notamment sous la forme d'un bras robotisé déplaçable dans toutes les directions et dans l'environnement de travail (3). L'installation (1) comprend au moins un capteur 3D, par exemple une caméra 3D (6A, 6B, 6C) destinée à capturer une image de l'objet (2) et de tout ou partie de l'environnement de travail (3) pour le numériser et représenter, au moyen d'un système de traitement informatique connu, et d'un afficheur, une représentation tridimensionnelle d'un nuage (7) de points d'ensemble de l'objet (2) et de tout ou partie de l'environnement de travail (3).
Dans l'exemple illustré, l'installation (1) comprend trois caméras 3D (6A, 6B, 6C) positionnées de manière fixe sur une arche (8) autour et au-dessus du système polyarticulé (5). Pour réaliser des opérations sur un objet (2) de manière sécurisée et en référence à la figure 3, l'installation (1) met en œuvre un procédé comprenant au moins une étape A consistant à capturer, sous forme d'un nuage de points d'ensemble (7), une image de l'objet (2) et de tout ou partie de l'environnement de travail (3) avec la ou les caméras 3D (6A, 6B, 6C) fixées sur l'arche (8), à fusionner ce nuage de point d'ensemble (7) avec un modèle CAO préexistant du système polyarticulé (5) et un modèle CAO préexistant de l'environnement tel que construit, tel que celui de l'arche (8) et à représenter sur un afficheur l'image de travail en résultant (17) (ensemble de la figure 3).
Ceci permet de connaître les éventuels obstacles de l'environnement de travail (3) pour sécuriser les déplacements du système polyarticulé (5). À noter que, tout ou partie des éléments standards de l'environnement de travail (3), tels que l'arche (8), les caméras 3D (6A, 6B, 6C), le système polyarticulé (5) lui-même et son outil (4), peuvent être déjà connus, modélisés en CAO.
De cette manière, il est possible de connaître les déplacements du système polyarticulé (5) et de son outil (4) par rapport aux différents éléments de l'environnement de travail (3) et d'éviter automatiquement les collisions, grâce aux paramètres d'anticollision qui ont été préalablement définis.
Pour réaliser les opérations désirées sur l'objet (2), l'installation (1) comprend de préférence une pluralité d'outils (4) de types différents, et un capteur 3D, tel qu'une caméra 3D (16) entreposée à proximité, par exemple dans un bac dédié.
Cette caméra 3D (16) peut être du même type que les caméras 3D (6A, 6B, 6C) ou en être différente et, dans ce dernier cas, elle sera avantageusement plus précise que les caméras 3D (6A, 6B, 6C).
Ainsi, le procédé selon l'invention comprend avantageusement une étape A", après l'étape A, consistant à déplacer automatiquement, et donc de manière sécurisée, le système polyarticulé (5) pour aller saisir et se connecter à la caméra 3D (16) entreposée à proximité.
Après que le système polyarticulé (5) a saisi cette caméra 3D (16), le procédé comprend une étape A', voir figure 2, consistant à commander le déplacement du système polyarticulé (5) pour capturer des images de détail de différentes zones de l'objet (2) avec la caméra 3D (16) plus précise que les caméras 3D (6A, 6B, 6C), sous forme d'un nuage de points plus dense et plus précis que le nuage de points d'ensemble (7) et à intégrer dans l'image de travail (17), voir figure 4, les images capturées (9) des zones correspondantes de l'objet (2) en remplacement de la partie correspondante issue du nuage de points d'ensemble (7) .
Le déplacement du système polyarticulé (5) pour capturer les différentes images est commandé, automatiquement ou par un opérateur distant de l'environnement de travail (3), par exemple au moyen d'un levier de commande et permet de capturer des images de zones inaccessibles, ou par exemple en sélectionnant directement sur le nuage de points d'ensemble (7) des zones spécifiques, ladite sélection entraînant le déplacement automatique du système polyarticulé. Dans cette configuration, l'opérateur sélectionne en pratique une zone pour laquelle il souhaite améliorer la précision de modélisation de l'objet. Le logiciel calcule ensuite les positions du système polyarticulé (5) nécessaires pour capturer les images avec les meilleurs points de vue. Pour rappel, le déplacement du système polyarticulé (5) s'effectue sans collision entre le système polyarticulé (5), la caméra 3D (16), l'objet (2) et les éléments de l'environnement de travail (3) puisque tout est modélisé au travers de l'image de travail (17), soit en CAO, soit par le nuage de points d'ensemble (7), soit par les images (9) de détails.
Par ailleurs, et afin d'améliorer la sécurité de fonctionnement de l'installation (1), lors de l'étape A', la vitesse de déplacement du système polyarticulé (5) est automatiquement diminuée lorsque l'outil (4) ou une partie du système polyarticulé (5), dont les modélisations CAO sont connues, se rapproche de l'objet (2) ou d'un élément l'environnement de travail (3), et le déplacement est arrêté lorsque l'outil (4) ou une partie du système polyarticulé (5) se trouve à une distance de sécurité d'un obstacle.
De ce qui précède, l'opérateur qui commande le déplacement du système polyarticulé (5), et notamment de la caméra 3D (16) portée, vient capturer des images (9) de détails des zones sur lesquels il désire effectuer une opération. Ces images (9) de détails de l'objet (2) sont automatiquement intégrées dans l'image de travail (17), ce qui permet de reconstruire partiellement et plus précisément l'objet (2) et de connaître le détail de sa géométrie à l'endroit où l'opération doit être effectuée.
Dans l'hypothèse formulée où plusieurs outils (4) de types différents sont disponibles, le procédé comprend une étape B' consistant à sélectionner, dans et pour la simulation, dans une base de données d'outils, l'outil (4) devant réaliser l'opération.
Ensuite, en référence à la figure 5, le procédé comprend une étape B consistant à définir une trajectoire (10) de l'outil (4) sur la partie de l'image de travail (17) représentant de l'objet (2), , et à exécuter une simulation du déplacement correspondant du système polyarticulé (5) et de l'outil (4) dans l'image de travail (17) pour s'assurer que l'opération est réalisable, notamment en termes d'orientation, d'accessibilité, et d'absence de collision, voir figure 6.
Le fait d'avoir capturé des images (9) de détails de l'objet (2) et de les avoir intégrées à l'image de travail (17) permet de fournir à l'opérateur un support d'une précision augmentée pour pouvoir définir et positionner les trajectoires (10) de l'outil (4).
Pour définir les trajectoires (10), l'opérateur peut positionner sur l'image de travail (17) visualisée sur l'afficheur, un couple point de départ - point d'arrivée ou une figure géométrique choisie dans une bibliothèque composée de lignes, plans ou masques... et le système de traitement informatique est conçu pour calculer automatiquement les trajectoires (10) sur l'objet (2). Si besoin, le système de traitement permet un ajustement manuel de la trajectoire (10), ou permet à l'opérateur de tracer directement les trajectoires (10) sur la représentation de l'objet (2).
Par exemple, en référence à la figure 5, un plan (11) a été positionné sur la représentation de la surface de l'objet (2) à découper, et le système de traitement informatique a défini la trajectoire (10) par l'intersection entre le plan (11) et ladite surface. Cette technique est également illustrée à la figure 7, où l'on voit le positionnement d'un plan (11), et à la figure 8 où l'on voit les trajectoires (10) calculées et tracées issues de l'intersection entre le plan (11) et la représentation de l'objet (2). Après avoir calculé les trajectoires (10), le système de traitement informatique permet de simuler le déplacement correspondant du système polyarticulé (5) et de l'outil (4) dans l'image de travail (17) pour s'assurer que l'opération est réalisable, ceci dépendant bien entendu de la trajectoire (10) testée, de l'outil (4) et des possibilités d'accessibilité et de déplacement du système polyarticulé (5). Les étapes de test du déplacement sont par exemple illustrées aux figures 6 et 9. Si la simulation montre que le déplacement est possible, c'est-à-dire qu'il est possible en matière d'orientation et d'accessibilité, et qu'il n'engendre aucune collision entre les différents éléments de l'installation (1) et de l'environnement de travail (3), le déplacement réel peut être effectué. L'étape B est réalisée autant de fois que nécessaire pour aboutir à un déplacement exécutable.
Le procédé comprend alors avantageusement une étape C' consistant à déplacer automatiquement le système polyarticulé (5) pour déconnecter et déposer la caméra 3D (16), par exemple dans le bac dédié, et se connecter à l'outil (4) qui avait préalablement été sélectionné, entreposé aussi à proximité.
Après connexion de l'outil (4), le procédé comprend une étape C consistant, si la simulation a montré que l'opération est réalisable, à exécuter le déplacement réel du système polyarticulé (5) portant l'outil (4) selon la trajectoire (10) définie et validée pour réaliser l'opération en tant que telle sur l'objet (2).
De préférence, lors de l'étape C et pour éviter de détériorer l'outil (4), l'installation comprend un moyen pour réguler, lors de l'étape C et en temps réel, la vitesse de déplacement du système polyarticulé (5) portant l'outil (4) en contact direct avec l'objet (2), en fonction d'une mesure directe ou indirecte de l'effort subi par l'outil. Par exemple, cette mesure est obtenue par une mesure de courant consommé par l'outil (4) ou par des moteurs permettant le déplacement du système polyarticulé (5) ou est obtenue par un capteur d'effort positionné entre le système polyarticulé (5) et l'outil (4).
Dans un but de simplification de la compréhension, la succession des étapes du procédé apparaissent dans un organigramme simplifié illustré la figure 10.
D'une manière avantageuse, lorsqu'il est nécessaire de réaliser plusieurs opérations successives sur l'objet (2), par exemple plusieurs opérations de découpe, la trajectoire (10) de coupe suivante est définie, en temps masqué, pendant l'opération de découpe précédente, ou plusieurs trajectoires (10) sont simulées et enregistrées pour être ensuite réalisées les unes après les autres dans un ordre qui peut être modifié par l'opérateur.
L'invention est également particulièrement avantageuse dans un environnement évolutif, du fait de nouveaux éléments ou obstacles potentiels par ajout d'objets ou de la libération d'espace par exemple lié à la découpe de l'objet (2), les étapes A à C du procédé de l'invention étant alors répétées pour disposer des images et simulations les plus actualisées possible pour la poursuite des opérations sur l'objet (2), de manière facilitée et sans risque de collision.
L'afficheur illustre, en mode CAO, l'installation (1), l'objet (2) et les différents éléments de l'environnement. De préférence, le système polyarticulé (5) est représenté en couleurs interactives. En d'autres termes, le système polyarticulé (5) est par exemple représenté en vert et au fur et à mesure que l'une de ses parties se rapproche d'un obstacle, la couleur de la partie concernée passe successivement au orange lorsque le système polyarticulé (5)et / ou l'outil (4) entre dans la zone de risque de collision définie par les paramètres de gestion des collisions et au rouge lorsque le déplacement est arrêté car le système polyarticulé (5) et/ou l'outil (4) a atteint la distance seuil définie dans les paramètres de gestion des collisions.
Il ressort de ce qui précède que l'invention fournit un procédé et une installation (1) permettant de réaliser, d'une manière automatique et sécurisée, une opération sur un objet (2) présent dans un environnement de travail (3), les positions et géométries de l'objet et de l'environnement de travail étant évolutives et/ou insuffisamment définies pour pouvoir réaliser l'opération.
Le procédé s'adapte à tout type de géométrie ou de nature de l'objet (2). La première étape de sécurisation de l'environnement et de l'objet (2) par numérisation sous forme d'un nuage de points d'ensemble est réalisée avec des caméras 3D, ce qui permet une adaptation à tout type de position et de géométrie de l'objet (2) et d'éléments de l'environnement. Le temps de traitement est rapide, avec notamment 500000 points de mesure en une seconde. Les détails obtenus de l'environnement sont importants, l'information est continue. Cela permet d'avoir un rendu et une modélisation réaliste en temps réel, l'opérateur peut éventuellement facilement vérifier visuellement si la reconstruction en nuage de points (7) est correcte.

Claims

REVENDICATIONS
1. Procédé de réalisation automatique d'une opération sur un objet (2) avec un outil (4) porté par un système polyarticulé (5) déplaçable dans un environnement de travail (3), caractérisé en ce qu'il comprend au moins :
- une étape A consistant à capturer, sous forme d'un nuage de points d'ensemble (7), une image de l'objet (2) et de tout ou partie de l'environnement de travail (3) avec au moins un capteur 3D (6A, 6B, 6C) ; à fusionner ladite image (7) avec un modèle CAO préexistant du système polyarticulé (5) et un éventuel modèle CAO préexistant de tout ou partie de l'environnement de travail (3) tel que construit, cette fusion résultant en une image de travail (17); et à définir des paramètres d'anticollision ;
- une étape B consistant à définir une trajectoire de l'outil (4) sur la partie de l'image de travail représentant l'objet (2), et à exécuter une simulation du déplacement correspondant du système polyarticulé (5) et de l'outil dans l'image de travail (17) pour s'assurer que l'opération est réalisable ;
- une étape C consistant, si l'opération est réalisable selon l'étape B, à exécuter le déplacement réel du système polyarticulé (5) portant l'outil (4) selon la trajectoire (10) définie pour réaliser l'opération sur l'objet (2).
2. Procédé selon la revendication 1, caractérisé en ce qu'il comprend une étape A', entre l'étape A et l'étape B, consistant à commander le déplacement du système polyarticulé (5) pour capturer des images (9) de détail de zones de l'objet (2) avec un capteur 3D (16) porté par le système polyarticulé (5), sous forme d'un nuage de points plus dense et plus précis que le nuage de points d'ensemble, et à intégrer dans l'image de travail (17) les images (9) capturées de la zone correspondante de l'objet (2), en remplacement de la partie correspondante issue du nuage de points d'ensemble (7).
3. Procédé selon la revendication 2, caractérisé en ce qu'il comprend une étape A'', entre l'étape A et l'étape A', consistant à déplacer automatiquement le système polyarticulé (5) pour saisir et se connecter au capteur 3D (16) entreposé à proximité.
4. Procédé selon l'une des revendications précédentes, caractérisé en ce qu'il comprend une étape C', entre l'étape B et l'étape C, consistant à déplacer automatiquement le système polyarticulé (5) pour, éventuellement déconnecter et déposer un capteur 3D (16) et, se connecter à l'outil (4) entreposé à proximité.
5. Procédé selon la revendication 1, caractérisé en ce que, préalablement à l'étape B, le procédé comprend une étape B' consistant à sélectionner, dans et pour la simulation de l'étape B, dans une base de données d'outils, l'outil (4) devant réaliser l'opération.
6. Procédé selon la revendication 1, caractérisé en ce que, lors de l'étape C, la vitesse de déplacement du système polyarticulé (5) portant l'outil (4) en contact direct avec l'objet (2) est régulée en temps réel en fonction d'une mesure directe ou indirecte de l'effort subi par l'outil (4).
7. Procédé selon la revendication 1, caractérisé en ce que, lors de l'étape A', la vitesse de déplacement du système polyarticulé (5) est automatiquement diminuée lorsque le capteur 3D (16) ou une partie du système polyarticulé (5) se rapproche de l'objet (2) ou d'un élément de l'environnement de travail (3), et le déplacement est automatiquement arrêté lorsque le capteur 3D (16) ou une partie du système polyarticulé (5) se trouve à une distance de sécurité de l'objet (2) ou d'un élément de l'environnement de travail (3), selon les paramètres d'anticollision définis à l'étape A.
8. Procédé selon la revendication 1, caractérisé en ce que la trajectoire de l'outil (4) sur la partie de l'image de travail représentant l'objet (2) selon l'étape B est définie par le positionnement sur l'image de travail (17) soit d'au moins un couple point de départ - point d'arrivée soit au moins une figure géométrique prédéfinie, notamment un plan (11), au moins une ligne, ou un masque.
9. Installation (1) pour la mise en œuvre du procédé de la revendication 1, caractérisée en ce qu'elle comprend un système polyarticulé (5), et au moins un capteur 3D (6, 16), reliés à un système de traitement informatique et à un afficheur, le système de traitement informatique étant conçu pour :
- représenter sur l'afficheur un nuage de points d'ensemble (7) de l'objet (2) et de tout ou partie de l'environnement de travail (3) à partir d'images capturées par au moins un capteur 3D (6,16), et
- représenter une image de travail (17) résultant de la fusion du nuage de points d'ensemble (7), d'un modèle CAO préexistant du système polyarticulé (5) et d'un éventuel modèle CAO préexistant de tout ou partie de l'environnement de travail (3), et
-permettre de définir une trajectoire (10) de l'outil (4) sur la partie de l'image de travail (17) représentant l'objet (2), et
- exécuter une simulation du déplacement correspondant du système polyarticulé (5) et de l'outil (4) dans l'image de travail (17) pour s'assurer que l'opération est réalisable, et,
- si l'opération est réalisable, exécuter le déplacement réel du système polyarticulé (5) portant l'outil (4) selon la trajectoire (10) définie pour réaliser l'opération en tant que telle sur l'objet (2).
10. Installation (1) selon la revendication 9, caractérisée en ce qu'elle comprend un moyen pour réguler, lors de l'étape C et en temps réel, la vitesse de déplacement du système polyarticulé (5) portant l'outil (4) en contact direct avec l'objet (2), en fonction d'une mesure directe ou indirecte de l'effort subi par l'outil (4).
PCT/FR2021/050380 2020-03-13 2021-03-05 Procédé de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé WO2021181035A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202180029322.7A CN115916476A (zh) 2020-03-13 2021-03-05 利用由多关节系统承载的工具对物体自动执行操作的方法
KR1020227034950A KR20220154716A (ko) 2020-03-13 2021-03-05 다관절 시스템에 의해 운반되는 도구를 사용하여 물체에 대한 작업을 자동으로 수행하는 방법
US17/906,142 US20230106854A1 (en) 2020-03-13 2021-03-05 Method for automatically performing an operation on an object with a tool carried by a polyarticulated system
EP21714659.6A EP4117867A1 (fr) 2020-03-13 2021-03-05 Procédé de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé
JP2022555706A JP2023530209A (ja) 2020-03-13 2021-03-05 多関節システムによって保持されたツールを用いて対象物に対する操作を自動で行うための方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FRFR2002515 2020-03-13
FR2002515A FR3108183B1 (fr) 2020-03-13 2020-03-13 Procédé de réalisation automatique d’une opération sur un objet avec un outil porté par un système polyarticulé

Publications (1)

Publication Number Publication Date
WO2021181035A1 true WO2021181035A1 (fr) 2021-09-16

Family

ID=72266362

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2021/050380 WO2021181035A1 (fr) 2020-03-13 2021-03-05 Procédé de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé

Country Status (7)

Country Link
US (1) US20230106854A1 (fr)
EP (1) EP4117867A1 (fr)
JP (1) JP2023530209A (fr)
KR (1) KR20220154716A (fr)
CN (1) CN115916476A (fr)
FR (1) FR3108183B1 (fr)
WO (1) WO2021181035A1 (fr)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113848803B (zh) * 2021-10-14 2023-09-12 成都永峰科技有限公司 一种深腔曲面加工刀路生成方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2896441A1 (fr) * 2006-01-23 2007-07-27 Jerome Grosbois Procede et systeme permettant la prehension automatisee de piece(s)
US9669543B1 (en) * 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2896441A1 (fr) * 2006-01-23 2007-07-27 Jerome Grosbois Procede et systeme permettant la prehension automatisee de piece(s)
US9669543B1 (en) * 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping

Also Published As

Publication number Publication date
JP2023530209A (ja) 2023-07-14
FR3108183B1 (fr) 2022-02-25
EP4117867A1 (fr) 2023-01-18
US20230106854A1 (en) 2023-04-06
FR3108183A1 (fr) 2021-09-17
CN115916476A (zh) 2023-04-04
KR20220154716A (ko) 2022-11-22

Similar Documents

Publication Publication Date Title
CA2674317C (fr) Procede et systeme permettant la prehension automatisee de piece(s)
CA2002513C (fr) Methode et dispositif de detection automatique du profil d'une surface et en vue d'effectuer un travail
US20190080446A1 (en) System and method for automated defect detection
EP2242621A2 (fr) Procede pour l'apprentissage d'un robot ou similaire et dispositif pour la mise en oeuvre de ce procede
EP4182126B1 (fr) Contrôle automatique d'un système d'ébavurage de pièces
CA2923490C (fr) Procede de generation d'un programme d'usinage interpretable par un controleur physique d'une machine-outil a commande numerique
EP3523504B1 (fr) Dispositif et procédé de prise et de pose automatisée d'un voussoir pour former un revêtement d'un tunnel
EP0034967B1 (fr) Procédé automatique et auto-adaptatif de soudage par fusion et dispositif pour la mise en oeuvre de ce procédé
WO2007017597A2 (fr) Procede et dispositif pour determiner la pose d'un moyen de capture video dans le repere de numerisation d'au moins un objet virtuel en trois dimensions modelisant au moins un objet reel
EP4117867A1 (fr) Procédé de réalisation automatique d'une opération sur un objet avec un outil porté par un système polyarticulé
EP0724149A1 (fr) Procédé de contrÔle non destructif d'une surface, en particulier en milieu hostile
CA3138919A1 (fr) Dispositif et procede pour le controle d'une piece en cours de fabrication
EP1671192B1 (fr) Procede d' etalonnage d' une machine de percage de verres ophtalmiques, dispositif pour la mise en oeuvre d' un tel procede, et appareil d' usinage de verres ophtalmiques equipe d' un tel dispositif
WO2022040819A2 (fr) Surveillance mise en oeuvre par ordinateur d'une opération de soudage
EP3092533B1 (fr) Systemes d`usinage comportant une machine d`usinage et des procedes de commande
FR2741438A1 (fr) Dispositif et procede de controle dimensionnel d'un cordon de matiere depose sur un support
FR3096599A1 (fr) Collaboration d'un robot et d'un opérateur en vue de modifier une pièce
FR2720026A1 (fr) Procédé de génération d'une trajectoire d'outil sur une surface d'une pièce.
FR3123680A1 (fr) Procédé de saisie automatique d’un voussoir de revêtement d'un tunnel
WO2023214063A1 (fr) Procédé et système de réparation d'un objet
WO2019020924A1 (fr) Procédé de contrôle d'une surface
FR2562685A1 (fr) Procede et installation pour l'execution repetee d'une operation ou suite d'operations enregistree
EP0453433A2 (fr) Procédé pour le contrôle automatique de la qualité d'un composant de carrosserie automobile
WO2015177283A1 (fr) Procédé de personnalisation d'un objet personnalisable pour un système client/serveur; support d'enregistrement d'informations et système client/serveur associés
FR3028615A1 (fr) Procede d’inspection d’un produit tel qu’un composant d’une nacelle de turboreacteur

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21714659

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022555706

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20227034950

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2021714659

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2021714659

Country of ref document: EP

Effective date: 20221013

NENP Non-entry into the national phase

Ref country code: DE