EP2512756A1 - Systeme anticollision pour le deplacement d'un objet dans un environnement encombre - Google Patents

Systeme anticollision pour le deplacement d'un objet dans un environnement encombre

Info

Publication number
EP2512756A1
EP2512756A1 EP10807627A EP10807627A EP2512756A1 EP 2512756 A1 EP2512756 A1 EP 2512756A1 EP 10807627 A EP10807627 A EP 10807627A EP 10807627 A EP10807627 A EP 10807627A EP 2512756 A1 EP2512756 A1 EP 2512756A1
Authority
EP
European Patent Office
Prior art keywords
virtual
environment
modeling
robot
collision
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP10807627A
Other languages
German (de)
English (en)
Inventor
Jérôme CHEMOUNY
Stéphane CLERAMBAULT
Samuel Pinault
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bureau Francais d'Ingenierie
Original Assignee
Bureau Francais d'Ingenierie
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bureau Francais d'Ingenierie filed Critical Bureau Francais d'Ingenierie
Publication of EP2512756A1 publication Critical patent/EP2512756A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39082Collision, real time collision avoidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49137Store working envelop, limit, allowed zone

Definitions

  • Anti-collision system for moving an object in a crowded environment.
  • the present invention relates to a system for moving an object in an environment. It finds a particularly interesting application in robotic applications where a robot is used for handling, machining and / or welding operations where an electromechanical device evolves in a congested environment.
  • Robots are machines that move in space at sometimes high speeds and accelerations. This results in a permanent danger in its environment.
  • the most important spatial danger is collision.
  • a robot can hurt a person by striking or breaking it by hitting a rigid obstacle.
  • the poly-articulation of robots involves a wide range of possibilities of movement, which increases the risk of collision.
  • the present invention aims at a system for preventing any collision during the movement of a robot.
  • Another object of the invention is to propose a system in which the movements of a positioning robot are effected efficiently and safely.
  • a collision avoidance system for moving an object in an environment comprising a processing unit connected to sensors making it possible to know in real time the position of the object in the environment, this processing unit being provided with software and hardware means for controlling the object and for implementing:
  • a real collision avoidance system which makes it possible to move the object which may be a robot or any other complex electromechanical system in a congested environment without any risk for the operator. and the load on board.
  • the invention enables an operator to use a complex electromechanical system intuitively.
  • the invention is notably remarkable by the interaction of a 3D engine and a video game physics engine with industrial machines. These motors are connected to real electromechanical systems allowing a link between the virtual world and the real world.
  • This connection is advantageous because it uses the computing power of 3D engines to have a real-time virtual rendering of a robotic cell (or virtual world), we can predict an optimal frequency of at least 60 Hz.
  • 3D modeling is useful for the visual rendering of the scene and the high connection frequency allows a very good fluidity to the evolution of the robot.
  • the scene (the environment) and the objects that compose it can be formally described beforehand and designed object-by-object using computer-assisted design (CAD) methods. It can be expected that the virtual 3D modeling of the environment also comprises a virtual 3D modeling of fixed and mobile elements using sensors arranged on these mobile elements or in the environment.
  • CAD design of all the components of the scene has another advantage, that of knowing each of the masses and centers of inertia to be transmitted to the physical engine so that it can not only detect a collision on virtual volumes but also anticipate the trajectories of moving objects.
  • the physical engine software package and 3D rendering of the scene is managed by a processing unit, parameterized so as to trigger, in response to a collision detection on one of the virtual volumes of the scene, an anticollision process to stop or reorient the movement of the object.
  • the collision avoidance device is capable of performing at least 60 tests per second. This is sufficient sampling for the whole of the invention to be considered as a real-time system.
  • an operator having the possibility of working near a robot or an electromechanical device will be able to intuitively use such a device to help him carry out difficult tasks with a security level. Student.
  • the invention by adding surveillance sensors in the real scene and improving the virtual modeling techniques, allows the operator to work with the robot in a complex environment to interact with a painful and complex task to be programmed.
  • this invention can be applied to sectors of activity requiring the positioning accuracy of a tool, regularly changing the operation to be performed.
  • the virtual modeling system of the environment and the collision avoidance device can be used for any automatic application of a robot in a complex scene. Indeed, even if there is no man to work in cooperation with the robot, the objects of an industrial production, are always mobile and inevitably cause a predictable change in the work scene. Previously described and coupled with the real world by sensors, the scene, thanks to the invention, can be secured a priori to avoid any degradation of production and the production tool itself.
  • the anti-collision system according to the invention can be applied in a nonlimiting manner to an industrial robot or to a device for positioning a patient in a treatment room.
  • an industrial robot is generally used for automatic and repetitive operations such as handling, welding and machining.
  • the invention allows an operator to interact with a robot to perform tasks of the same nature but much more technically advanced safely. These tasks were previously difficult to program and required a highly qualified staff in robotics. Now the present invention allows the use of these robots by qualified personnel in the task at hand (welding for example) but not expert in robotics. The invention therefore makes it possible to make the use of a robot with 6 degrees of freedom transparent.
  • the system comprises at least one force sensor, 6 degrees of freedom for example, attached to this poly-articulated robot. This force sensor is connected to a processing unit controlling the poly-articulated robot so as to perform a co-manipulation accompanying any effort detected (caused by the user).
  • the force sensor may comprise six strain gages.
  • the detected efforts are transmitted to the processing unit (a computer for example) which processes them and sends back to the robot the movement control in the direction of the effort.
  • This control loop allows a user to manipulate the tool without any mass constraints.
  • the inertia, and the weight are compensated by the robot.
  • the possibilities of movements are multiple and linked to those of the robot.
  • the objective is to move an object or a tool using the robot in co-manipulation to intuitively align it in front of an ad-hoc system.
  • This method is intuitive because the effort that a user exerts on the robot is relayed by a servocontrolled displacement of the processing unit which controls an electromechanical system.
  • This method also makes it possible to reduce the setting times and a quick learning of work positions in the case of a production start.
  • the force sensor can also be used as an on-board load measurement (mass and center of inertia). This measurement is used to adjust the servocontrol parameters to the co-manipulation, but also to have an idea of the deformations undergone by the robot and thus to compensate them.
  • this direct measurement of the sensor is automated and allows the invention to recover the inertial information of the load embedded on the robot.
  • the present invention receives as parameter the information of the real world using the force sensor and the poly-articulated robot and transmits them into the virtual world.
  • the anti-collision process allows a slow sliding of the tool handled on a set of volumes (walls of the robotic cell, support of implementation ...) which are potential obstacles.
  • a computer processing medium comprising algorithms executed by a microprocessor of a processing unit connected to a moving object, these algorithms implementing the following functionalities :
  • a collision vector is generated by the processing unit (in which one has information on the direction of the collision and the direction of optimal clearance). This vector is then transmitted by the application to the robot so that the latter deviates its trajectory to avoid the collision (case of an automatic mode of use) or transmits, by return of effort to the user, the optimal direction so that it follows another path (case of co-manipulation). This method avoids unwanted jerks in the trajectory of the robot.
  • the user has a feeling of slipping which is a real assistance to the manipulation and manual guidance of the robot.
  • FIG. 1 is a flowchart illustrating schematically the progress of certain processes of the system according to the invention
  • FIG. 2 is a schematic view of an anti-collision system applied to a positioning robot according to the invention
  • Figure 3 is a schematic side view of the positioning robot of Figure 2 without the patient support.
  • FIG. 4 is a virtual representation of a patient support of the positioning robot of FIG. 2.
  • a robot may be adapted to position a patient with respect to ionizing radiation during external radiation therapy.
  • a positioning robot is arranged in a room sized for such therapeutic treatments.
  • This room is equipped with a particle accelerator which is able to generate focused radiation on the tumor to be treated in the body of the patient.
  • the positioning robot is an articulated arm that carries a table or chair or other support means on which a patient is installed. The positioning robot must be able to move the patient avoiding collision with fixed and moving elements present in the treatment room.
  • FIG 1 there is shown a flowchart schematically illustrating the progress of certain processes of the system according to the invention. These processes are implemented in a processing unit as shown in Figure 2 in particular. It can also be seen that the processing unit comprises in particular:
  • a robot control tool able to collect a set of information (positioning, operating state, ...) from the robot and to control the movements of the robot;
  • virtual 3D modeling of the robot in real time is a software application that determines the 3D positioning of the robot in space, is able to display a representation in the form of an animated virtual image of this robot and is able to anticipate the theoretical displacement that the robot will perform, thus predicting possible collisions of the robot with its environment;
  • a virtual 3D modeling of the environment, in particular elements present in the treatment room is a software application that knows the layout of the fixed elements in the room, which determines in real time the 3D positioning of the moving elements (other than the positioning robot) in the space and which is able to display a representation in the form of an animated virtual image of these elements,
  • This volume is a dynamic representation of the aggregation of the expanded volume of each of the axes of the poly-articulated robot.
  • step 1 of FIG. 1 the 3D modeling of the positioning robot receives in real time positioning data from the positioning robot and determines its dynamics, that is to say its evolution in real time.
  • step 2 a virtual envelope is developed on all or part of the patient support.
  • the 3D modeling of the elements of the treatment room receives in real time positioning data of the moving elements (such as the focused radiation source for example) in the treatment room and determines its dynamic .
  • an optional virtual envelope is developed on all or part of each of the mobile and / or fixed elements. Mobile elements are identified in real time from data from sensors on these moving parts or in the environment.
  • the two virtual 3D models are advantageously integrated into a single 3D rendering that takes into account the interaction between the different elements of the treatment room and the positioning robot.
  • step 4 we apply an algorithm for detecting collisions between several virtual objects of which at least one is in motion.
  • collision detection is performed between the virtual envelope made on the patient support and the elements of the treatment room or the virtual envelope of each of these elements if these elements have one.
  • step 5 a control strategy is developed in step 5 which will be applied by the control tool of the virtual envelope.
  • robot in step 6.
  • This control strategy can consist of stopping the robot or determining a new trajectory to avoid the real obstacle.
  • the positioning robot of FIG. 2 comprising a junction piece 50 sliding on a linear rail 56 and carrying a robotic arm 53 having a wrist 54 having concurrent axes of rotation is used.
  • the linear rail 56 is advantageously fixed to the ground and consists of several modular elements 57a, ..., 57d connected to each other. These modular elements can be identical so that their implementation in the treatment room is facilitated. With such an arrangement, it is thus easy to produce linear rails of different lengths.
  • FIG. 3 shows a side view of the positioning robot of FIG. 2 without the patient support
  • each modular element 57a,..., 57d comprises a metal plate (or other solid material such as wood, plastic , ...) upper 67a, 67b, 67c grooved and parallel.
  • the grooves of an upper metal plate are aligned with grooves of the next metal plate.
  • the user can move safely on this floor consisting of the upper metal plates of the modular elements 57a, ..., 57d.
  • the base 52 is associated with a part 51 adapted to pivot along a vertical axis of rotation.
  • the robotic arm 53 is rotatably connected to an upper portion of the junction piece 50 along an axis of rotation at an angle of between 45 ° and 60 ° to the horizontal.
  • the wrist 54 carries a patient support 71 which can be positioned very precisely in the repository of the treatment room.
  • a processing unit 60 can electromechanically control the positioning device or robot.
  • Several motors arranged on and in the robot so as to control any articulation of the robot automatically.
  • a set of conventional sensors are arranged on the robot such as for example an inclinometer 65 disposed on the terminal member 54. From the sensors as well as including the motors, the processing unit retrieves a set of information to know exactly in real time the positioning of the robot. That is to say that at every moment we know the position and orientation of the positioning support in the repository of the room.
  • the manipulation of the robot is improved by a co-manipulation process which consists of detecting a force applied to the terminal part of the robot and then electromechanically controlling the latter so as to promote the movement induced by this force.
  • the force is generally applied by a user manually pushing for example the patient support.
  • the sensor 65a may be a force sensor used to detect any force applied to the terminal 54.
  • This type of force sensor may consist of six strain gages.
  • the processing unit includes a computer-like hardware portion having conventional elements for the acquisition of digital and analog data and the processing of such data.
  • Said unit integrates a 3D visualization module which then determines and displays on a screen 62 a 3D representation of the movement of the robot relative to the environment which is the treatment room.
  • a 3D visualization module which then determines and displays on a screen 62 a 3D representation of the movement of the robot relative to the environment which is the treatment room.
  • it also includes a modeling of a virtual envelope around the support 71 robot and a real-time collision detection algorithm between the virtual envelope and the modeled environment.
  • the processing unit is connected to the robot and the radiation device 64 wired 63 or wireless, so that the 3D viewing module can represent any mobile device in the treatment room.
  • the modelizations are obtained from data acquired in real time and predetermined data. These are derived from a description of the objects using computer-aided design (CAD) tools and planned processing positions.
  • CAD computer-aided design
  • a virtual representation of a dynamic envelope from the inertia data of the modeled objects or from the measurement of a sensor (for example a force sensor), predictive of the displacements of a moving object allows to anticipate the choice of trajectories.
  • FIG. 4 is a virtual 3D representation visible on the screen 62. Only the support 71 is shown for reasons of simplification.
  • the virtual envelope 72 is of the same shape as the virtual representation of the support 71 but of greater dimensions. Consequently, when the support 71 is in motion, the envelope 72 follows the same movement and any probable collision of the support 71 with one of the elements of the treatment room is preceded by a virtual collision of the envelope 72 in the module.
  • 3D visualization In fact, the 3D representation makes it possible to propose to the system a strategy for avoiding the support 71 when the virtual envelope 72 potentially comes into virtual collision.
  • the envelope 72 includes the 3D representation of the support 71, but this envelope 72 may be of a different shape from that of the support and of smaller size, in particular for monitoring only a portion of the support.
  • the visualization module can be implemented from including a 3D software engine and techniques from the world of video games (physics engine collisions) for the calculation of collisions optimally. Collision detection is derived from powerful optimized algorithms known to those skilled in the art:
  • An anti-collision system makes it possible to increase the capacity of the use of a mobile system in space.
  • a medical robot for example, is easily maneuverable by the operator safely without the need to worry about a possible contact.
  • the machines are therefore more autonomous, they themselves ensure their own safety and that of those around them.
  • the invention aims to reduce the risk of using a robot with 6 degrees of freedom by an operator without the prior installation of physical security barriers.
  • the system according to the invention aims to improve the safety of the user and all the tools connected to the robot or in its environment and to simplify the daily use by humans of a robot with 6 degrees of freedom.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

L'invention concerne un système anticollision pour le déplacement d'un objet dans un environnement; ce système comprenant une unité de traitement relié à des capteurs permettant de connaître en temps réel la position de l'objet dans l'environnement, cette unité de traitement étant dotée de moyens logiciels et matériels pour contrôler l'objet et pour mettre en œuvre : une modélisation 3D virtuelle de l'environnement, une modélisation 3D virtuelle temps réel de l'objet se déplaçant dans l'environnement, une modélisation 3D virtuelle d'une enveloppe virtuelle autour de l'objet, et un algorithme de détection de collisions temps réel entre l'enveloppe virtuelle et l'environnement modélisé, en cas de collision virtuelle un signal d'alerte et une estimation de cette collision étant générés.

Description

" Système anticollision pour le déplacement d'un objet dans un environnement encombré."
La présente invention se rapporte à un système pour le déplacement d'un objet dans un environnement. Elle trouve une application particulièrement intéressante dans des applications robotiques où l'on utilise un robot pour des opérations de manutention, d'usinage et/ou de soudure où un dispositif électromécanique évolue dans un environnement encombré.
Le monde de la robotique n'est pas sans danger. Les robots sont des machines qui se meuvent dans l'espace à des vitesses et des accélérations parfois élevées. Il en résulte un danger permanent dans son environnement. Le danger spatial le plus important est la collision. Un robot peut blesser une personne en la percutant ou se détériorer en frappant un obstacle rigide. De plus la poly-articulation des robots implique un large panel de possibilités de mouvements, ce qui augmente le risque de collision.
La présente invention a pour but un système permettant de prévenir toute collision lors du déplacement d'un robot.
Un autre but de l'invention est de proposer un système dans lequel les déplacements d'un robot de positionnement se font de manière efficace, en toute sécurité. On atteint au moins l'un des buts précités avec un système d'évitement de collisions pour le déplacement d'un objet dans un environnement; ce système comprenant une unité de traitement relié à des capteurs permettant de connaître en temps réel la position de l'objet dans l'environnement, cette unité de traitement étant dotée de moyens logiciels et matériels pour contrôler l'objet et pour mettre en œuvre :
- une modélisation 3D virtuelle précise de l'environnement,
- une modélisation 3D virtuelle temps réel du déplacement d'un objet dans l'environnement, - une modélisation 3D d'une enveloppe virtuelle autour de l'objet, cette enveloppe virtuelle formant un volume dit « volume fantôme » prédisant les déplacements de l'objet et
- un algorithme de détection de collisions temps réel entre l'enveloppe virtuelle et l'environnement modélisé, un signal d'alerte étant généré en cas de collision et une estimation quantitative et qualitative de cette dernière.
Avec le système selon l'invention, on réalise un système d'évitement de collisions réelles permettant le déplacement de l'objet qui peut être un robot ou tout autre système électromécanique complexe dans un environnement encombré sans risques pour l'opérateur, le robot lui-même et la charge embarquée. L'invention permet à un opérateur d'utiliser un système électromécanique complexe de manière intuitive.
L'invention est notamment remarquable par l'interaction d'un moteur 3D et d'un moteur physique de jeux vidéo avec des machines industrielles. Ces moteurs sont connectés à des systèmes électromécaniques réels permettant un lien entre le monde virtuel et le monde réel. Cette connexion est avantageuse car elle utilise la puissance de calcul des moteurs 3D pour avoir un rendu virtuel en temps réel d'une cellule robotique (ou monde virtuel), on peut prévoir une fréquence optimale d'au moins 60 Hz. La modélisation 3D est utile pour le rendu visuel de la scène et la fréquence de connexion élevée autorise une très bonne fluidité à l'évolution du robot. La scène (l'environnement) et les objets la composant, peuvent être préalablement décrits formellement et conçus objet par objet grâce aux méthodes de conception assistée par ordinateur (CAO). On peut prévoir que la modélisation 3D virtuelle de l'environnement comporte en outre une modélisation 3D virtuelle d'éléments fixes et mobiles à l'aide de capteurs disposés sur ces éléments mobiles ou dans l'environnement.
Une expansion homothétique est pratiquée sur chaque composant CAO généré. Cette expansion volumique ne sera pas matérialisée dans le monde réel et permettra de détecter la collision entre volumes virtuels avant qu'elle ne se réalise en réel . La conception CAO de l'ensemble des composants de la scène a un autre avantage, celui de connaître chacune des masses et centres d'inertie à transmettre au moteur physique afin qu'il puisse non seulement détecter une collision sur des volumes virtuels mais aussi anticiper les trajectoires des objets mobiles.
Cette connexion est rendue réalisable et fiable en raison de l'ajout dans l'environnement réel d'une série de capteurs sensoriels. Ces capteurs de mesure peuvent être placés sur le robot ou fixés dans l'environnement d'évolution de ce dernier. Ils permettent de connaître la position, la vitesse et l'accélération en temps réel du robot.
Avantageusement, l'ensemble logiciel moteur physique et rendu 3D de la scène, est géré par une unité de traitement, paramétrée de façon à déclencher, en réponse à une détection de collision sur un des volumes virtuels de la scène, un processus d'anticollision consistant à arrêter ou à réorienter le mouvement de l'objet.
A titre d'exemple, en raison de la rapidité de l'unité de traitement et de l'optimisation des algorithmes de haut niveau utilisés, le dispositif d'évitement de collision est capable de réaliser au moins 60 tests par seconde. Cela constitue un échantillonnage suffisant pour que l'ensemble de l'invention soit considérée comme étant un système temps réel.
Auparavant, dans une application utilisant ce genre de matériel, il était obligatoire de mettre des barrières matérielles autour de ces machines considérées comme très dangereuses. Désormais avec l'essor des barrières immatérielles et autres capteurs de sécurité, il est possible de retirer les protections matérielles et d'opérer à proximité d'un robot voir même d'interagir avec la machine.
Selon une caractéristique avantageuse de l'invention, un opérateur ayant la possibilité de travailler à proximité d'un robot ou d'un dispositif électromécanique va pouvoir utiliser intuitivement un tel dispositif pour l'aider à la réalisation de tâches pénibles avec un niveau de sécurité élevé.
L'invention, par l'ajout de capteurs de surveillance dans la scène réelle et l'amélioration des techniques de modélisation virtuelle permet à l'opérateur de travailler avec le robot dans un environnement complexe pour réaliser en interaction une tâche pénible et complexe à programmer. Ainsi, cette invention peut s'appliquer à des secteurs d'activité demandant de la précision de positionnement d'un outil, changeant régulièrement l'opération à réaliser
(petite production, applications médicales ...) et bien sûr de la sécurité pour l'opérateur, la machine et les biens transportés. Selon une autre caractéristique avantageuse de l'invention, afin de diversifier l'utilisation d'un seul robot, on est capable de procéder à un changement automatique d'un outil fixé au robot par l'intermédiaire d'un coupleur pneumatique lorsqu'un outil amovible du robot est détecté dans un volume virtuel prédéfini de l'environnement. Lorsque cet outil mobile (transporté par exemple sur un chariot) est détecté d'une part par des capteurs (caméras de surveillance ou capteurs de proximité) et se situe d'autre part dans un volume virtuel défini de la scène 3D, une procédure automatique de changement d'outil est démarrée afin d'équiper le robot de ce nouvel appareillage.
Selon une caractéristique avantageuse de l'invention, le système de modélisation virtuel de l'environnement et du dispositif d'évitement de collisions peut être utilisé pour n'importe quelle application automatique d'un robot dans une scène complexe. En effet, même s'il n'y a pas d'homme pour travailler en coopération avec le robot, les objets d'une production industrielle, sont toujours mobiles et entraînent immanquablement une modification prévisible de la scène de travail. Préalablement décrite et couplée avec le monde réel par des capteurs, la scène, grâce à l'invention, peut être sécurisée a priori afin d'éviter toute dégradation de la production et de l'outil de production lui-même.
Le système anticollision selon l'invention peut s'appliquer de façon non limitative à un robot industriel ou à un dispositif de positionnement d'un patient dans une salle de traitement.
Selon un premier exemple de mise en œuvre, on utilise un robot industriel généralement destiné à des opérations automatiques et répétitives telles que la manutention, la soudure et l'usinage. Selon un mode de réalisation avantageux, l'invention permet à un opérateur d'interagir avec un robot pour réaliser des tâches de même nature mais beaucoup plus évoluées techniquement en toute sécurité. Ces tâches étaient auparavant difficilement programmables et nécessitaient un personnel très qualifié en robotique. Désormais la présente invention, autorise une utilisation de ces robots par un personnel qualifié dans la tâche à accomplir (la soudure par exemple) mais non expert en robotique. L'invention permet donc de rendre transparent l'utilisation d'un robot à 6 degrés de liberté. En complément notamment de ce qui précède, lorsque l'objet est un robot poly-articulé, le système comprend au moins un capteur d'effort, à 6 degrés de liberté par exemple, fixé à ce robot poly-articulé. Ce capteur d'effort est relié à une unité de traitement contrôlant le robot poly-articulé de façon à réaliser une co-manipulation en accompagnant tout effort détecté (provoqué par l'utilisateur).
Plus précisément, le capteur d'effort peut comprendre six jauges de contraintes. Les efforts détectés sont transmis à l'unité de traitement (un ordinateur par exemple) qui les traite et renvoie au robot la commande de déplacement dans le sens de l'effort. Cette boucle de commande permet à un utilisateur de manipuler l'outil sans aucune contrainte de masse. Les inerties, et le poids sont compensés par le robot. Les possibilités de mouvements sont multiples et liées à celles du robot. L'objectif est notamment de déplacer un objet ou un outil à l'aide du robot en co-manipulation pour l'aligner intuitivement devant un système ad-hoc. Cette méthode est intuitive car l'effort qu'un utilisateur exerce sur le robot est relayé par un déplacement sous asservissement de l'unité de traitement qui commande un système électromécanique. Cette méthode permet en outre de diminuer les temps de mise en position et un apprentissage rapide de positions de travail dans le cas d'une mise en production.
Ainsi, l'opérateur, expert dans son domaine d'application peut apprendre au robot de manière simple un geste « humain » difficile à mettre en application avec les méthodes standards d'apprentissage point à point.
Le capteur d'effort peut également être utilisé comme mesure de charge embarquée (masse et centre d'inertie). Cette mesure est utilisée pour régler les paramètres d'asservissement à la co-manipulation, mais également pour avoir une idée des déformations subies par le robot et ainsi les compenser.
Avantageusement, cette mesure directe du capteur est automatisée et permet à l'invention de récupérer l'information inertielle de la charge embarquée sur le robot. La présente invention reçoit en paramètre les informations du monde réel à l'aide du capteur d'effort et du robot poly- articulé et les transmet dans le monde virtuel. Ainsi, selon un mode d'utilisation avantageux, lorsqu'on décide de réorienter le mouvement du robot, le processus anticollision permet un glissement lent de l'outil manipulé sur un ensemble de volumes (parois de la cellule robotique, support de mise en œuvre...) qui sont des obstacles potentiels.
Plus précisément, il est proposé dans la présente mise en œuvre de l'invention, un support de traitement informatique comprenant des algorithmes exécutés par un microprocesseur d'une unité de traitement reliée à un objet en mouvement, ces algorithmes mettant en œuvre les fonctionnalités suivantes:
- modélisation 3D virtuelle de l'environnement,
- modélisation 3D virtuelle temps réel de l'objet se déplaçant dans l'environnement,
- modélisation 3D virtuelle d'une enveloppe autour de l'objet,
- modélisation 3D d'une enveloppe virtuelle autour de l'objet, cette enveloppe virtuelle formant un volume dit «volume fantôme » prédisant les déplacements de l'objet et,
- détection temps réel de collisions entre l'enveloppe virtuelle et l'environnement modélisé, un signal d'alerte et une estimation de collision étant générés en cas de collision virtuelle.
Dans le cas d'une détection de collision virtuelle, c'est-à-dire un contact entre deux enveloppes virtuelles de protection autour d'objets 3D statiques ou mobiles, un vecteur collision est généré par l'unité de traitement (dans lequel on a une information sur la direction de la collision et la direction de dégagement optimale). Ce vecteur est ensuite, transmis par l'application au robot afin que ce dernier dévie sa trajectoire pour éviter la collision (cas d'un mode d'utilisation automatique) ou transmette, par retour d'effort à l'utilisateur, la direction optimale pour que celui-ci suive un autre chemin (cas d'une utilisation en co-manipulation). Cette méthode évite les à-coups intempestifs dans la trajectoire du robot. L'utilisateur a une impression de glissement qui est une réelle assistance à la manipulation et au guidage manuel du robot.
D'autres avantages et caractéristiques de l'invention apparaîtront à l'examen de la description détaillée d'un mode de mise en œuvre nullement limitatif, et des dessins annexés, sur lesquels :
La figure 1 est un organigramme illustrant de façon schématique le déroulement de certains processus du système selon l'invention, La figure 2 est une vue schématique d'un système anticollision appliqué à un robot de positionnement selon l'invention,
La figure 3 est une vue schématique de côté du robot de positionnement de la figure 2 sans le support de patient ; et
La figure 4 est une représentation virtuelle d'un support de patient du robot de positionnement de la figure 2.
Bien que l'invention n'y soit pas limitée, on va maintenant décrire un système anticollision selon l'invention appliqué à un robot ou dispositif de positionnement d'un patient dans une salle de traitement.
Un robot peut être destiné à positionner un patient par rapport à un rayonnement ionisant lors d'une radiothérapie externe. Un tel robot de positionnement est disposé dans une salle dimensionnée pour de tels traitements thérapeutiques. Cette salle est équipée d'un accélérateur de particules qui est apte à générer un rayonnement focalisé sur la tumeur à traiter dans le corps du patient. On comprendra aisément que le positionnement du patient doit être le plus précis possible, stable tout au long du traitement et le plus sécurisant possible pour le patient. Le robot de positionnement est un bras articulé qui porte une table ou une chaise ou tout autre moyen de support sur lequel un patient est installé. Le robot de positionnement doit pouvoir déplacer le patient en évitant toute collision avec des éléments fixes et mobiles présents dans la salle de traitement.
Sur la figure 1, on voit un organigramme illustrant de façon schématique le déroulement de certains processus du système selon l'invention. Ces processus sont mis en œuvre dans une unité de traitement telle que représentée sur la figure 2 notamment. On peut aussi voir que l'unité de traitement comporte en particulier :
un outil de contrôle du robot apte à recueillir un ensemble d'informations (positionnement, état de fonctionnement,...) provenant du robot et à commander les mouvements du robot ;
une modélisation 3D virtuelle du robot en temps réel ; il s'agit d'une application logicielle qui détermine le positionnement 3D du robot dans l'espace, est apte à afficher une représentation sous forme d'une image virtuelle animée de ce robot et est capable d'anticiper le déplacement théorique que le robot va effectuer, prédisant ainsi les collisions possibles du robot avec son environnement;
une modélisation 3D virtuelle de l'environnement, en particulier des éléments présents dans la salle de traitement ; il s'agit d'une application logicielle qui connaît la disposition des éléments fixes dans la salle, qui détermine en temps réel le positionnement 3D des éléments mobiles (autre que le robot de positionnement) dans l'espace et qui est apte à afficher une représentation sous forme d'une image virtuelle animée de ces éléments,
- une prédiction du déplacement d'un objet mobile (robot ou système électromécanique complexe) selon le principe d'un « fantôme » virtuel d'anticipation de collisions se déplaçant virtuellement avec le corps physique réel en mouvement. Ce volume étant une représentation dynamique de l'agrégation du volume expansé de chacun des axes du robot poly-articulé.
En fonctionnement, sur l'étape 1 de la figure 1, la modélisation 3D du robot de positionnement reçoit en temps réel des données de positionnement du robot de positionnement et détermine sa dynamique, c'est-à-dire son évolution en temps réel. A l'étape 2, on élabore une enveloppe virtuelle sur tout ou partie du support de patient.
En parallèle, à l'étape 3, la modélisation 3D des éléments de la salle de traitement reçoit en temps réel des données de positionnement des éléments mobiles (tels que la source de rayonnement focalisé par exemple) dans la salle de traitement et détermine sa dynamique. A l'étape 3a, on élabore optionnellement une enveloppe virtuelle sur tout ou partie de chacun des éléments mobiles et/ou fixes. Les éléments mobiles sont repérés en temps réel à partir de données provenant de capteurs disposés sur ces éléments mobiles ou dans l'environnement. En pratique, les deux modélisations 3D virtuelles sont avantageusement intégrées en un seul rendu 3D qui prend en compte l'interaction entre les différents éléments de la salle de traitement et le robot de positionnement.
A l'étape 4 on applique un algorithme de détection de collisions entre plusieurs objets virtuels dont au moins l'un est en mouvement. En particulier, on réalise la détection de collisions entre l'enveloppe virtuelle réalisée sur le support de patient et les éléments de la salle de traitement ou l'enveloppe virtuelle de chacun de ces éléments si ces éléments en possèdent une.
En cas de détection de collisions entre enveloppes virtuelles, c'est-à- dire que la collision réelle n'a pas encore eu lieu, on élabore à l'étape 5 une stratégie de commande qui sera appliquée par l'outil de contrôle du robot à l'étape 6. Cette stratégie de commande peut consister à l'arrêt du robot ou à la détermination d'une nouvelle trajectoire permettant d'éviter l'obstacle réel . Sur la figure 2, on voit un mode de réalisation du système selon l'invention dans une salle de traitement équipé du robot de positionnement selon l'invention ainsi que d'éléments fixes et mobiles.
De préférence, on utilise le robot de positionnement de la figure 2 comprenant une pièce de jonction 50 coulissant sur un rail linéaire 56 et portant un bras robotique 53 doté d'un poignet 54 à axes de rotation concourants.
Le rail linéaire 56 est avantageusement fixé au sol et est constitué de plusieurs éléments modulaires 57a,..., 57d reliés les uns aux autres. Ces éléments modulaires peuvent être identiques de sorte que leur mise en place dans la salle de traitement soit facilitée. Avec un tel arrangement, il est ainsi aisé de réaliser des rails linéaires de longueurs différentes.
Sur la figure 3 on voit une vue de côté du robot de positionnement de la figure 2 sans le support de patient, chaque élément modulaire 57a,..., 57d, comporte une plaque métallique (ou autre matériau solide tel que le bois, plastique,...) supérieure 67a, 67b, 67c rainées et parallèles. Les rainures d'une plaque métallique supérieure sont alignées avec des rainures de la plaque métallique suivante.
L'utilisateur peut se déplacer en toute sécurité sur ce plancher constitué par les plaques métalliques supérieures des éléments modulaires 57a,..., 57d . Il y a également deux éléments modulaires de butée 57e et 57f qui sont respectivement disposés aux deux extrémités du rail linéaire 56.
L'embase 52 est associée à une pièce 51 apte à pivoter selon un axe de rotation vertical. Le bras robotique 53 est relié de façon rotative à une partie supérieure de la pièce de jonction 50 selon un axe de rotation faisant un angle compris entre 45° et 60° par rapport à l'horizontal. Le poignet 54 porte un support de patient 71 qui peut être positionné de manière très précise dans le référentiel de la salle de traitement.
Selon l'invention, une unité de traitement 60 permet de piloter de façon électromécanique le dispositif de positionnement ou robot. Plusieurs moteurs disposés sur et dans le robot de façon à contrôler toute articulation du robot de façon automatique. Un ensemble de capteurs conventionnels sont disposés sur le robot tel que par exemple un inclinomètre 65 disposé sur l'organe terminal 54. A partir des capteurs ainsi que notamment des moteurs, l'unité de traitement récupère un ensemble d'information permettant de connaître exactement en temps réel le positionnement du robot. C'est-à-dire qu'à chaque instant on connaît la position et l'orientation du support de positionnement dans le référentiel de la salle.
Selon cette mise en œuvre, on améliore la manipulation du robot par un processus de co-manipulation qui consiste à détecter une force appliquée sur la partie terminale du robot puis à commander électro-mécaniquement ce dernier de façon à favoriser le mouvement induit par cette force. La force est généralement appliquée par un utilisateur poussant manuellement par exemple le support de patient. Sur la figure 3 par exemple, le capteur 65a peut être un capteur d'effort utilisé pour détecter une quelconque force appliquée sur le terminal 54. Ce type de capteur d'effort peut être constitué de six jauges de contraintes. On peut prévoir plusieurs capteurs d'effort répartis sur plusieurs éléments du robot de façon à appréhender toute force appliquée sur ce robot. Ce dernier principe est basé sur le contrôle temps réel de la consommation de courant de chaque moteur du dispositif électromécanique (robot) lorsque ce dernier est sous asservissement.
L'unité de traitement comprend une partie matérielle de type ordinateur doté d'éléments conventionnels pour l'acquisition de données numériques et analogiques et le traitement de ces données. Ladite unité intègre un module de visualisation 3D qui détermine puis affiche sur un écran 62 une représentation 3D du déplacement du robot par rapport à l'environnement qui est la salle de traitement. Avantageusement, il comporte également une modélisation d'une enveloppe virtuelle autour du support 71 du robot ainsi qu'un algorithme de détection de collisions temps réel entre l'enveloppe virtuelle et l'environnement modélisé.
Avantageusement, l'unité de traitement est reliée au robot et au dispositif de rayonnement 64 de façon filaire 63 ou sans fil, de sorte que le module de visualisation 3D peut représenter tout appareil mobile dans la salle de traitement.
Les modélisations sont obtenues à partir de données acquises en temps réel et de données prédéterminées. Ces dernières sont issues d'une description des objets à l'aide d'outils de conception assistée par ordinateur (CAO) et des positions de traitement prévues par le planning.
De plus, une représentation virtuelle d'une enveloppe dynamique, à partir des données d'inerties des objets modélisés ou de la mesure d'un capteur (par exemple un capteur d'effort), prédictive des déplacements d'un objet en mouvement permet d'anticiper sur les choix de trajectoires.
Pour ce faire, on prévoit que l'enveloppe virtuelle suive le mouvement du support 71. La figure 4 est une représentation 3D virtuelle visible sur l'écran 62. Seul le support 71 est représenté pour des raisons de simplification. L'enveloppe virtuelle 72 est de la même forme que la représentation virtuelle du support 71 mais de dimensions supérieures. Par conséquent, lorsque le support 71 est en mouvement, l'enveloppe 72 suit le même mouvement et toute collision probable du support 71 avec un des éléments de la salle de traitement est précédée par une collision virtuelle de l'enveloppe 72 dans le module de visualisation 3D. En fait, la représentation 3D permet de proposer au système une stratégie d'évitement du support 71 lorsque l'enveloppe virtuelle 72 entre potentiellement en collision virtuelle.
Sur la figure 4 l'enveloppe 72 englobe la représentation 3D du support 71, mais cette enveloppe 72 peut être de forme différente de celle du support et de taille inférieure, notamment pour ne surveiller qu'une partie du support.
En pratique, le module de visualisation peut être mis en œuvre à partir notamment d'un moteur logiciel 3D et de techniques provenant du monde des jeux vidéo (moteur physique de collisions) pour le calcul des collisions de manière optimale. La détection de collision est issue de puissants algorithmes optimisés connus de l'homme du métier :
- algorithme de type « n-body pruning », - algorithme de la cohérence temporelle,
- algorithme de distance de type Gilbert-Johnson-Keerthi,
Ces algorithmes permettent d'augmenter la vitesse de détection de collision. On peut ainsi envisager au moins 60 tests de collision par seconde.
Un tel système anticollision présente de nombreux avantages:
- Sécurisation du patient transporté pas le robot dans le cas d'un dispositif de positionnement médical.
- Sécurisation et protection des personnes circulant dans l'environnement proche du robot.
- Système de protection extérieur à la chaîne de fonctionnement normale pour le matériel concerné.
- Augmentation des possibilités de mouvement, les éléments mobiles étant protégés de la collision, et donc augmentation du confort des opérateurs quant à la manœuvrabilité de ces éléments.
Un système anticollision permet d'augmenter la capacité de l'usage d'un système mobile dans l'espace. Un robot médical par exemple, est ainsi manœuvrable facilement par l'opérateur en toute sécurité sans qu'il n'ait besoin de se soucier d'un éventuel contact. Les machines sont donc plus autonomes, elles assurent elles mêmes leur propre sécurité et celle de leur entourage.
Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention. On peut facilement envisager une utilisation d'un tel dispositif dans toute application de manutention industrielle. L'invention a pour objectif la réduction des risques d'utilisation d'un robot à 6 degrés de liberté par un opérateur sans l'installation préalable de barrières matérielles de sécurité. Le système selon l'invention a pour objectif d'améliorer la sécurité de l'utilisateur et l'ensemble des outils connectés au robot ou dans son environnement et de simplifier l'utilisation quotidienne par l'homme d'un robot à 6 degrés de liberté.

Claims

REVENDICATIONS
1. Système anticollision pour le déplacement d'un objet (50, 53, 54, 71) dans un environnement; ce système comprenant une unité de traitement (60) relié à des capteurs (65) permettant de connaître en temps réel la position de l'objet dans l'environnement, cette unité de traitement étant dotée de moyens logiciels et matériels pour contrôler l'objet et pour mettre en œuvre :
- une modélisation 3D virtuelle de l'environnement (3),
- une modélisation 3D virtuelle temps réel de l'objet se déplaçant dans l'environnement (1),
- une modélisation 3D (2) d'une enveloppe virtuelle (72) autour de l'objet, cette enveloppe virtuelle formant un volume dit volume « fantôme » prédisant les déplacements de l'objet et
- un algorithme de détection de collisions (4) temps réel entre l'enveloppe virtuelle et l'environnement modélisé ; en cas de collision virtuelle un signal d'alerte et une estimation de cette collision étant générés.
2. Système selon la revendicationl, caractérisé en ce que la modélisation 3D virtuelle de l'environnement comprend en outre une modélisation 3D virtuelle d'éléments fixes et une modélisation 3D virtuelle temps réel d'éléments mobiles à l'aide de capteurs disposés sur ces éléments mobiles ou dans l'environnement.
3. Système selon la revendication 2, caractérisé en ce que les moyens logiciels et matériels sont également configurés pour mettre en œuvre une modélisation 3D virtuelle d'une enveloppe virtuelle sur au moins un des éléments fixes ou mobiles modélisés, la détection de collisions étant réalisée entre enveloppes virtuelles.
4. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que le volume d'une enveloppe virtuelle est supérieur au volume de l'objet ou d'éléments autour duquel cet enveloppe virtuelle est réalisée.
5. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que l'unité de traitement est paramétrée de façon à déclencher, en réponse au signal d'alerte et à l'estimation de collision, un processus anticollision consistant à arrêter ou à réorienter le mouvement de l'objet.
6. Système selon l'une quelconque des revendications précédentes, caractérisé par l'utilisation d'un moteur 3D et d'un moteur physique de jeux vidéo connectés à des systèmes électromécaniques réels permettant,
- d'avoir une fréquence optimale d'au moins 60 Hz et,
- d'avoir un système avec un rafraîchissement temps réel.
7. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que l'objet est un robot poly-articulé (50, 53, 54, 71), et le système comprend au moins un capteur d'effort (65a) fixé à ce robot poly- articulé et relié à une unité de traitement (60) contrôlant le robot poly- articulé de façon à réaliser une co-manipulation en accompagnant tout effort détecté par ledit au moins un capteur d'effort.
8. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que l'objet est un robot poly-articulé (50, 53, 54, 71), et en ce que le volume dit «volume fantôme » est une représentation dynamique de l'agrégation du volume expansé de chacun des axes du robot poly- articulé.
9. Système selon l'une quelconque des revendications précédentes, caractérisé en ce que l'objet est un robot et l'unité de traitement est configurée pour lancer une procédure automatique de changement d'un outil fixé au robot par l'intermédiaire d'un coupleur pneumatique lorsqu'un outil amovible du robot est détecté dans un volume virtuel prédéfini de l'environnement.
10. Support de traitement informatique comprenant des algorithmes exécutés par un microprocesseur d'une unité de traitement reliée à un objet en mouvement, ces algorithmes informatiques mettant en œuvre les fonctionnalités suivantes:
- modélisation 3D virtuelle de l'environnement,
- modélisation 3D virtuelle temps réel de l'objet se déplaçant dans l'environnement,
- modélisation 3D d'une enveloppe virtuelle autour de l'objet, cette enveloppe virtuelle formant un volume dit «volume fantôme » prédisant les déplacements de l'objet et,
- détection temps réel de collisions entre l'enveloppe virtuelle et l'environnement modélisé, un signal d'alerte et une estimation de collision étant générés en cas de collision virtuelle.
11. Support mémoire selon la revendication 10, caractérisé en ce que la modélisation 3D virtuelle de l'environnement comprend en outre une modélisation 3D virtuelle d'éléments fixes et une modélisation 3D virtuelle temps réel d'éléments mobiles à partir de données provenant de capteurs disposés sur ces éléments mobiles ou dans l'environnement.
12. Support mémoire selon la revendication 11, caractérisé en ce que l'exécution des codes informatiques met également en œuvre une modélisation 3D virtuelle d'une enveloppe virtuelle sur au moins un des éléments fixes ou mobiles modélisés de l'environnement, la détection de collisions étant réalisée entre enveloppes virtuelles.
EP10807627A 2009-12-18 2010-12-17 Systeme anticollision pour le deplacement d'un objet dans un environnement encombre Withdrawn EP2512756A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0959224A FR2954518B1 (fr) 2009-12-18 2009-12-18 " systeme anticollision pour le deplacement d'un objet dans un environnement encombre."
PCT/FR2010/052805 WO2011073599A1 (fr) 2009-12-18 2010-12-17 Systeme anticollision pour le deplacement d'un objet dans un environnement encombre

Publications (1)

Publication Number Publication Date
EP2512756A1 true EP2512756A1 (fr) 2012-10-24

Family

ID=42236500

Family Applications (1)

Application Number Title Priority Date Filing Date
EP10807627A Withdrawn EP2512756A1 (fr) 2009-12-18 2010-12-17 Systeme anticollision pour le deplacement d'un objet dans un environnement encombre

Country Status (4)

Country Link
US (1) US20130178980A1 (fr)
EP (1) EP2512756A1 (fr)
FR (1) FR2954518B1 (fr)
WO (1) WO2011073599A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11407111B2 (en) 2018-06-27 2022-08-09 Abb Schweiz Ag Method and system to generate a 3D model for a robot scene

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011056633A1 (fr) 2009-10-27 2011-05-12 Battelle Memorial Institute Système robotisé polyvalent semi-autonome et procédé de fonctionnement
CN102514010A (zh) * 2011-12-31 2012-06-27 长春大正博凯汽车设备有限公司 一种搬运机器人及其搬运方法
US9486647B2 (en) * 2012-04-27 2016-11-08 Elekta Ab (Publ) Vision system for radiotherapy machine control
DE102013012446A1 (de) * 2013-07-26 2015-01-29 Kuka Laboratories Gmbh Verfahren zum Überwachen einer nutzlastführenden Roboteranordnung
WO2015017639A1 (fr) 2013-07-31 2015-02-05 The Uab Research Foundation Évaluation de trajectoires de machine pour un évitement de collision
US9421461B2 (en) 2013-12-26 2016-08-23 Microsoft Technology Licensing, Llc Player avatar movement assistance in a virtual environment
US9592608B1 (en) * 2014-12-15 2017-03-14 X Development Llc Methods and systems for providing feedback during teach mode
DE102014019209A1 (de) * 2014-12-19 2016-06-23 Daimler Ag Verfahren zum Betreiben eines Roboters
US9895803B1 (en) * 2015-06-19 2018-02-20 X Development Llc Calculating trajectory corridor for robot end effector
EP3112965A1 (fr) * 2015-07-02 2017-01-04 Accenture Global Services Limited Automatisation de processus robotique
US10973587B2 (en) * 2015-08-19 2021-04-13 Brainlab Ag Reference array holder
US11141859B2 (en) 2015-11-02 2021-10-12 Brainlab Ag Determining a configuration of a medical robotic arm
TWI564128B (zh) * 2015-11-17 2017-01-01 和碩聯合科技股份有限公司 防撞偵測裝置、相應之控制方法及適用其之機械手臂
JP6328599B2 (ja) * 2015-11-20 2018-05-23 ファナック株式会社 ロボットの動作可能範囲を算出するロボットの手動送り装置
US9919422B1 (en) 2016-01-06 2018-03-20 X Development Llc Methods and systems to provide mechanical feedback during movement of a robotic system
CN106945034B (zh) * 2016-01-07 2021-09-03 鸿富锦精密电子(郑州)有限公司 机器人点位调节方法与系统
JP7009051B2 (ja) * 2016-08-04 2022-01-25 キヤノン株式会社 レイアウト設定方法、制御プログラム、記録媒体、制御装置、部品の製造方法、ロボットシステム、ロボット制御装置、情報処理方法、情報処理装置
EP3287243A1 (fr) 2016-08-24 2018-02-28 Siemens Aktiengesellschaft Procédé de détection de collision et système autonome
US9805306B1 (en) 2016-11-23 2017-10-31 Accenture Global Solutions Limited Cognitive robotics analyzer
US11471702B2 (en) 2016-12-23 2022-10-18 Koninklijke Philips N.V. Ray tracing for a detection and avoidance of collisions between radiotherapy devices and patient
CN106625669A (zh) * 2016-12-23 2017-05-10 广州市科腾智能装备股份有限公司 全方位移动视觉机器人系统
US10766140B2 (en) 2017-04-13 2020-09-08 Battelle Memorial Institute Teach mode collision avoidance system and method for industrial robotic manipulators
US10235192B2 (en) 2017-06-23 2019-03-19 Accenture Global Solutions Limited Self-learning robotic process automation
US10627828B2 (en) * 2017-06-30 2020-04-21 Casio Computer Co., Ltd. Autonomous movement device, autonomous movement method and program recording medium
US10672243B2 (en) * 2018-04-03 2020-06-02 Chengfu Yu Smart tracker IP camera device and method
CN109003329A (zh) * 2018-08-15 2018-12-14 深圳市烽焌信息科技有限公司 一种目标货物堆监控设备及存储介质
CN109118580A (zh) * 2018-08-15 2019-01-01 深圳市烽焌信息科技有限公司 目标货物堆监控方法及相关装置
JP6508691B1 (ja) 2018-10-15 2019-05-08 株式会社Mujin 制御装置、作業ロボット、プログラム、及び、制御方法
DE102018133472B3 (de) * 2018-12-21 2020-03-12 Franka Emika Gmbh Bewegungsüberwachung eines Robotermanipulators
DE102019103349B3 (de) * 2019-02-11 2020-06-18 Beckhoff Automation Gmbh Industrierobotersystem und Verfahren zur Steuerung eines Industrieroboters
CN111251305B (zh) * 2020-03-13 2023-02-07 南方科技大学 机器人力控制方法、装置、系统、机器人及存储介质
CN112828886A (zh) * 2020-12-31 2021-05-25 天津职业技术师范大学(中国职业培训指导教师进修中心) 一种基于数字孪生的工业机器人碰撞预测的控制方法
US20220388171A1 (en) * 2021-06-03 2022-12-08 Intrinsic Innovation Llc Robotic workspace introspection via force feedback
US11953908B2 (en) 2021-10-12 2024-04-09 Google Llc Deployable safety fence for mobile robots
US11999520B2 (en) * 2022-02-11 2024-06-04 Cp Packaging, Llc System for automatic calibration of an initial position of a moveable machine component
US20230310995A1 (en) * 2022-03-31 2023-10-05 Advanced Micro Devices, Inc. Detecting personal-space violations in artificial intelligence based non-player characters

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5150452A (en) * 1989-07-28 1992-09-22 Megamation Incorporated Method and apparatus for anti-collision and collision protection for multiple robot system
US5347459A (en) * 1993-03-17 1994-09-13 National Research Council Of Canada Real time collision detection
US5495410A (en) * 1994-08-12 1996-02-27 Minnesota Mining And Manufacturing Company Lead-through robot programming system
US5548694A (en) * 1995-01-31 1996-08-20 Mitsubishi Electric Information Technology Center America, Inc. Collision avoidance system for voxel-based object representation
US6393362B1 (en) * 2000-03-07 2002-05-21 Modular Mining Systems, Inc. Dynamic safety envelope for autonomous-vehicle collision avoidance system
US6873944B1 (en) * 2000-10-11 2005-03-29 Ford Global Technologies, Llc Method of real time collision detection between geometric models
US6678582B2 (en) * 2002-05-30 2004-01-13 Kuka Roboter Gmbh Method and control device for avoiding collisions between cooperating robots
JP4544145B2 (ja) * 2005-11-24 2010-09-15 株式会社デンソーウェーブ ロボットの干渉回避方法およびロボット
DE102006036490A1 (de) * 2006-08-04 2008-02-07 Daimler Ag Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts
DE102007045835B4 (de) * 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
US8315738B2 (en) * 2008-05-21 2012-11-20 Fanuc Robotics America, Inc. Multi-arm robot system interference check via three dimensional automatic zones
US20100251185A1 (en) * 2009-03-31 2010-09-30 Codemasters Software Company Ltd. Virtual object appearance control

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2011073599A1 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11407111B2 (en) 2018-06-27 2022-08-09 Abb Schweiz Ag Method and system to generate a 3D model for a robot scene

Also Published As

Publication number Publication date
US20130178980A1 (en) 2013-07-11
FR2954518B1 (fr) 2012-03-23
WO2011073599A1 (fr) 2011-06-23
FR2954518A1 (fr) 2011-06-24

Similar Documents

Publication Publication Date Title
WO2011073599A1 (fr) Systeme anticollision pour le deplacement d'un objet dans un environnement encombre
US10994419B2 (en) Controlling a robot in the presence of a moving object
US10166676B1 (en) Kinesthetic teaching of grasp parameters for grasping of objects by a grasping end effector of a robot
EP2376012B1 (fr) Dispositif pour positionner un patient par rapport à un rayonnement
EP4039422B1 (fr) Dispositif de préhension robotique à capteur
JP6436604B2 (ja) 演算システムによって実施される方法及びシステム
EP2608997B1 (fr) Robot humanoide dote de capacites de gestion de chutes et methode de gestion desdites chutes
KR102003216B1 (ko) 로봇을 위한 모터 제어 및/또는 조정
US20150228078A1 (en) Manufacturing line monitoring
FR2916152A1 (fr) Robot polyvalent
US9375853B1 (en) Methods and systems to provide feedback based on a motion per path metric indicative of an effect of motion associated with components of a robotic device
CN105899112A (zh) 自主移动机器人
FR3014348A1 (fr) Dispositif de commande a retour d'effort multidirectionnel
CN101479082A (zh) 机器人装置和机器人装置的控制方法
US20150231784A1 (en) Robot controller learning system
US11097414B1 (en) Monitoring of surface touch points for precision cleaning
US10105847B1 (en) Detecting and responding to geometric changes to robots
Pereira et al. Autonomous golf ball picking robot design and development
Tunstel et al. Recent enhancements to mobile bimanual robotic teleoperation with insight toward improving operator control
Huang et al. Visionless tele-exploration of 3d moving objects
Wang et al. Towards assistive robotic pick and place in open world environments
Siravuru et al. Deep visual perception for dynamic walking on discrete terrain
WO2020169380A1 (fr) Procede et dispositif de surveillance de l'environnement d'un robot
Alabbas et al. ArUcoGlide: a novel wearable robot for position tracking and haptic feedback to increase safety during human-robot interaction
Luo et al. Descending stairs locomotion and somatosensory control for an erect wheel-legged service robot

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20120709

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAX Request for extension of the european patent (deleted)
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20170701