FR3067957A1 - Dispositif de gestion des deplacements d'un robot et robot de soin associe - Google Patents
Dispositif de gestion des deplacements d'un robot et robot de soin associe Download PDFInfo
- Publication number
- FR3067957A1 FR3067957A1 FR1755812A FR1755812A FR3067957A1 FR 3067957 A1 FR3067957 A1 FR 3067957A1 FR 1755812 A FR1755812 A FR 1755812A FR 1755812 A FR1755812 A FR 1755812A FR 3067957 A1 FR3067957 A1 FR 3067957A1
- Authority
- FR
- France
- Prior art keywords
- generic model
- point
- dimensional representation
- robot
- treated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000006073 displacement reaction Methods 0.000 title claims abstract description 23
- 230000006978 adaptation Effects 0.000 claims abstract description 18
- 230000009466 transformation Effects 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 239000012636 effector Substances 0.000 claims description 4
- 238000011160 research Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 12
- 238000000034 method Methods 0.000 description 8
- 229910052573 porcelain Inorganic materials 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000010422 painting Methods 0.000 description 5
- 230000000877 morphologic effect Effects 0.000 description 4
- 210000003625 skull Anatomy 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 102000005717 Myeloma Proteins Human genes 0.000 description 1
- 108010045503 Myeloma Proteins Proteins 0.000 description 1
- 101100324954 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) oli gene Proteins 0.000 description 1
- 241000405217 Viola <butterfly> Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 210000002758 humerus Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000012916 structural analysis Methods 0.000 description 1
- 238000004381 surface treatment Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 210000000623 ulna Anatomy 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0062—Arrangements for scanning
- A61B5/0064—Body surface scanning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1077—Measuring of profiles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F7/00—Heating or cooling appliances for medical or therapeutic treatment of the human body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H23/00—Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms
- A61H23/02—Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms with electric or magnetic drive
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H9/00—Pneumatic or hydraulic massage
- A61H9/005—Pneumatic massage
- A61H9/0057—Suction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/401—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2201/00—Characteristics of apparatus not provided for in the preceding codes
- A61H2201/16—Physical interface with patient
- A61H2201/1657—Movement of interface, i.e. force application means
- A61H2201/1659—Free spatial automatic movement of interface within a working area, e.g. Robot
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61H—PHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
- A61H2230/00—Measuring physical parameters of the user
- A61H2230/85—Contour of the body
- A61H2230/855—Contour of the body used as a control parameter for the apparatus
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37205—Compare measured, vision data with computer model, cad data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37208—Vision, visual inspection of workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/45—Nc applications
- G05B2219/45084—Service robot
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Heart & Thoracic Surgery (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Pathology (AREA)
- Pain & Pain Management (AREA)
- Physical Education & Sports Medicine (AREA)
- Rehabilitation Therapy (AREA)
- Epidemiology (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Dentistry (AREA)
- Radiology & Medical Imaging (AREA)
- Vascular Medicine (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Percussion Or Vibration Massage (AREA)
- Massaging Devices (AREA)
Abstract
L'invention concerne un dispositif de gestion des déplacements d'un robot, ledit dispositif comportant : - des moyens d'acquisition (14) d'une représentation en trois dimensions (Re) d'une surface à traiter ; et - des moyens de détermination d'une séquence de déplacements (Tx) en fonction de ladite représentation en trois dimensions (Re) de ladite surface à traiter ; - lesdits moyens de détermination intégrant au moins un modèle générique (m1-m3) en trois dimensions pour lequel au moins une séquence de déplacements (Tx) est connue ; - ledit dispositif comportant des moyens d'adaptation (18, 23) dudit modèle générique (m1-m3) avec ladite représentation en trois dimensions (Re) de ladite surface à traiter aptes à déformer ledit modèle générique (m1-m3) et ladite au moins une séquence de déplacements (Tx) connues pour correspondre à ladite représentation en trois dimensions (Re) de ladite surface à traiter.
Description
DISPOSITIF DE GESTION DES DEPLACEMENTS D’UN ROBOT ET
ROBOT DE SOIN ASSOCIE
Domaine Technique
L’invention concerne le domaine de la gestion des déplacements d’un robot opérant sur des surfaces de géométries très diverses.
L’invention peut être appliquée dans de nombreux domaines techniques dans lesquelles la surface de travail du robot n’est pas connue a priori. Par exemple, l’invention peut être mise en œuvre pour un robot de peinture de porcelaines artisanales dans lequel le robot doit s’adapter aux différentes formes de la porcelaine réalisées par un artisan.
L’invention trouve une application particulièrement avantageuse pour déplacer un bras motorisé d’un robot de soin, tel qu’un robot de massage.
Art ANTERIEUR
Contrairement aux robots industriels programmés pour suivre une trajectoire prédéterminée, un robot opérant sur une surface inconnue doit comporter des moyens de gestion des déplacements aptes à analyser la surface à traiter pour déterminer une trajectoire.
Les robots de reconnaissance intègrent généralement au moins une caméra et des moyens de traitement d’image pour analyser, au cours du temps, la surface d’exploration et déterminer la trajectoire à suivre pour le robot.
Cette méthode d’analyse d’une surface inconnue nécessite une grande puissance de calcul pour guider précisément les déplacements du robot au cours du temps. Il s’ensuit que les robots d’exploration se déplacent lentement de sorte à permettre au dispositif de gestion des déplacements d’optimiser les déplacements du robot en fonction des informations acquises par la caméra et traitées par les moyens de traitement d’image.
En outre, pour un robot de massage ou pour un robot de peinture de porcelaines artisanales, les déplacements du robot doivent être extrêmement précis pour masser les zones recherchées sur le corps d’un individu ou pour appliquer les couches de peinture aux endroits recherchés.
Pour ce faire, il est connu de scanner une surface en trois dimensions afin de permettre à un opérateur de programmer les déplacements d’un robot en utilisant une modélisation numérique en trois dimensions de la surface à traiter par le robot.
Par exemple, la demande de brevet internationale N° WO 2015/187092 décrit un robot de massage intégrant un scanner en trois dimensions pour scanner le corps d’un patient et permettre à un praticien de déterminer la trajectoire de massage du robot en utilisant une projection d’un modèle en trois dimensions du corps d’un patient sur une tablette tactile.
Cependant, ce robot de massage n’est pas autonome car un praticien doit être présent pour mettre à profit son savoir-faire et programmer une trajectoire du robot de massage sur un modèle numérique.
Le problème technique consiste donc à automatiser la gestion des déplacements d’un robot opérant sur une surface inconnue avec une grande précision de mouvement.
Expose de l’invention
La présente invention vise à répondre à ce problème technique au moyen d’au moins une séquence de déplacements connue pour un modèle générique associée à des moyens d’adaptation d’une surface à traiter avec le modèle générique de sorte à adapter la séquence de déplacements connue pour un modèle générique et les appliquer à la surface à traiter.
Ce faisant, bien que la géométrie de la surface à traiter ne soit pas connue lors la programmation de la séquence de déplacements sur le modèle générique, le robot est capable d’adapter automatiquement la séquence de déplacements en adaptant la forme du modèle générique sur la forme de la surface à traiter.
A cet effet, selon un premier aspect, l’invention concerne un dispositif de gestion des déplacements d’un robot, ledit dispositif comportant :
- des moyens d’acquisition d’une représentation en trois dimensions d’une surface à traiter ; et
- des moyens de détermination d’une séquence de déplacements en fonction de ladite représentation en trois dimensions de ladite surface à traiter.
L’invention se caractérise en ce que lesdits moyens de détermination intègrent au moins un modèle générique en trois dimensions pour lequel au moins une séquence de déplacements est connue ; ledit dispositif comportant des moyens d’adaptation dudit modèle générique avec ladite représentation en trois dimensions de ladite surface à traiter aptes à déformer ledit modèle générique et ladite au moins une séquence de déplacements connues pour correspondre à ladite représentation en trois dimensions de ladite surface à traiter.
L’invention permet ainsi d’utiliser une séquence de déplacements connue sur un modèle générique pour l’appliquer sur une surface à traiter dont la géométrie n’est pas connue lors de l’apprentissage de la séquence de déplacements.
Dans l’exemple du robot de peinture de porcelaines artisanales, un peintre peut définir des motifs standards à peindre sur des tasses en enregistrant ces motifs par rapport à un modèle générique d’une tasse standard. Un robot peut alors scanner la surface d’une tasse nouvellement créée et appliquer l’un des motifs standards en déformant le modèle générique en fonction de la surface de la tasse nouvellement créée.
Dans l’exemple d’un robot de massage, un modèle générique d’un corps humain est réalisé à partir de mesures sur des personnes réelles. Ce modèle générique est ensuite représenté en trois dimensions de manière à ce qu’un praticien puisse définir une trajectoire de massage en passant par différents points sensibles du modèle générique de sorte à obtenir un effet massant efficace.
Lorsque le robot est utilisé pour masser un nouveau patient, le corps du patient est scanné et la forme du modèle générique est adaptée sur la forme du patient de sorte que la déformation du modèle générique permette d’obtenir une déformation de la trajectoire de massage afin d’adapter les déplacements du robot avec la forme du corps du patient tout en respectant la précision de massage enregistrée par le praticien. Il s’ensuit que l’invention permet de reproduire une qualité de massage de très haut niveau avec une sensation de massage très proche, voire identique, à celle d’un praticien.
En variante, plusieurs trajectoires de massage peuvent être numérisées pour effectuer plusieurs types de massage distincts. Plusieurs modèles génériques peuvent également être réalisés pour améliorer l’adaptation du modèle générique avec le corps du patient, par exemple en utilisant trois types de modèles génériques pour chaque genre : une personne de grande, de petite et de taille moyenne et pour différentes classes d’âges : enfants, adolescents et adultes.
Selon un mode de réalisation, ladite au moins une séquence de déplacements connue intègre des positions pour lesquelles des actions sont préprogrammées pour ledit robot.
Ce mode de réalisation permet de commander le fonctionnement d’actionneurs lors des déplacements du robot. Dans l’exemple du robot de peinture de porcelaines artisanales, le robot peut effectuer des traitements de surface spécifiques à certains endroits. Dans l’exemple du robot de massage, certaines positions du robot peuvent commander le déclenchement de moyens de chauffage pour améliorer le confort et/ou l’effet du massage. De plus, la séquence de déplacements connue peut comporter plusieurs trajectoires réalisées avec un mouvement de palper-rouler alors que d’autres déplacements sont effectués avec un autre type de mouvement.
Selon un mode de réalisation, ledit modèle générique et ladite représentation en trois dimensions de ladite surface à traiter étant formalisés sous la forme de nuages de points, lesdits moyens d’adaptation comportent :
- des moyens de calcul d’une direction normale à chaque point de ladite représentation en trois dimensions de ladite surface à traiter ; et
- des moyens de recherche, pour chaque point du nuage de points de ladite représentation en trois dimensions, du point du modèle générique dans un voisinage proche pour lequel la différence entre la direction normale du point du modèle générique et la direction normale du point d’intérêt est la plus faible ;
- des moyens de détermination d’une distance entre ledit point détecté du modèle générique et ledit point d’intérêt ; et
- des moyens de recherche d’une transformation globale du modèle en fonction des distances déterminées pour l’ensemble des points du nuage de points de ladite représentation en trois dimensions.
Les directions normales permettent d’obtenir une information relative à l’orientation des faces du modèle générique et de la représentation en trois dimensions de la surface à traiter. Contrairement à une simple comparaison de coordonnées point à point, une comparaison des faces permet d’obtenir une reconnaissance plus efficace.
En outre, l’adaptation du modèle générique est réalisée pas à pas en modifiant petit à petit le modèle générique en fonction de la moyenne des distances. Il s’ensuit que ce mode de réalisation permet d’adapter efficacement le modèle générique en comparant les directions normales de chaque point du modèle générique et les directions normales de la représentation en trois dimensions de la surface à traiter.
Selon un mode de réalisation, lesdits moyens de recherche sont configurés pour rechercher les points du modèle générique dans une sphère prédéfinie autour du point d’intérêt.
Ce mode de réalisation vise à limiter la zone de recherche des points du modèle générique de sorte à limiter le temps de calcul. En outre, la limitation de la zone de recherche permet également de limiter l’amplitude de la modification du modèle générique entre deux comparaisons de sorte à augmenter la précision de la modification du modèle générique.
Selon un mode de réalisation, les directions normales sont déterminées par construction d’une face au moyen des coordonnées des trois ou quatre points les plus proches du point d’intérêt.
Ce mode de réalisation permet de construire efficacement les faces du modèle générique et de la représentation en trois dimensions de la surface à traiter.
Selon un mode de réalisation, lesdits moyens d’adaptation comportent :
- des moyens de détection de points caractéristiques sur ladite représentation en trois dimensions ; et
- des moyens de déformation du modèle générique en rotation et/ou en translation de sorte que ladite position desdits points caractéristiques corresponde à une position de points caractéristiques du modèle générique. Ce mode de réalisation permet de réaliser une première adaptation grossière du modèle générique afin d’améliorer la rapidité de l’adaptation précise réalisée par l’intermédiaire des normales. Dans l’exemple du robot de peinture de porcelaines artisanales, les points caractéristiques peuvent correspondre aux extrémités supérieures et inférieures de la porcelaine. Dans l’exemple du robot de massage, les points caractéristiques peuvent correspondre à l’extrémité supérieure du crâne, à la position des aisselles et à la position de l’entrejambe.
Selon un mode de réalisation, lesdits moyens d’acquisition comportent des moyens de pré-traitement de ladite représentation en trois dimensions au moyen de la capture de plusieurs représentations en trois dimensions et de la réalisation d’une moyenne des coordonnées des points entre les différentes représentations en trois dimensions. Ce mode de réalisation permet d’améliorer la précision de la représentation en trois dimensions et donc de l’adaptation du modèle générique.
Selon un mode de réalisation, lesdits moyens de pré-traitement réalisent un filtrage de ladite moyenne des coordonnées des points entre les différentes représentations en trois dimensions. Ce mode de réalisation permet également d’améliorer la précision de la représentation en trois dimensions et, donc, de l’adaptation du modèle générique.
Selon un second aspect, l’invention concerne un robot de soin comportant :
- un bras articulé ;
- un effecteur disposé à une extrémité du bras articulé ;
- un dispositif de capture d’images en trois dimensions ; et
- un dispositif de gestion des déplacements selon le premier aspect de l’invention.
Ce second aspect de l’invention concerne un robot de soin pour lequel la précision des déplacements du robot est un critère essentiel pour éviter de blesser le patient.
Selon un mode de réalisation, lesdits moyens d’acquisition sont disposés sur ledit bras articulé ou sur ledit effecteur. Ce mode de réalisation permet de déplacer les moyens d’acquisition pour acquérir précisément la représentation en trois dimensions.
Description sommaire des figures
La manière de réaliser l’invention ainsi que les avantages qui en découlent, ressortiront bien du mode de réalisation qui suit, donné à titre indicatif mais non limitatif, à l’appui de la figure 1 qui constitue un ordinogramme des étapes de fonctionnement d’un dispositif de gestion des déplacements d’un robot de massage selon un mode de réalisation de l’invention.
L’invention est décrite en référence à un robot de massage de sorte à montrer la capacité d’adaptation du robot car il est évident que les surfaces des corps humains présentent de grandes disparités.
Cependant, l’invention n’est pas limitée à cette application spécifique et elle peut être utilisée pour plusieurs robots travaillant sur une surface dont la géométrie n’est pas prédéterminée et pour lesquels des déplacements précis du robot doivent être réalisés.
Description detaillee de l’invention
Tel qu’illustré sur la figure 1, l’analyse de la surface à traiter est réalisée par des moyens d’acquisition 14 aptes à fournir une représentation en trois dimensions Re de la surface à traiter.
La représentation en trois dimensions Re prend la forme d’un nuage de points dans lequel chaque point présente trois coordonnés d’un système orthonormée : x, y et z.
Ces moyens d’acquisition 14 peuvent correspondre à un ensemble de capteurs photographiques, un ensemble de capteurs infrarouges, un capteur tomographique, un capteur stéréoscopique ou tout autre capteur connu permettant d’acquérir une représentation en trois dimensions d’une surface.
Par exemple, la caméra Kinect® de la société Microsoft® peut être utilisée pour obtenir cette représentation en trois dimensions Re.
Pour obtenir cette représentation en trois dimensions Re sans capter l’environnement, il est possible de capter un premier nuage de points correspondant à l’environnement et un second nuage de points correspondant à la surface à traiter dans son environnement. Seuls les points différents entre les deux nuages de points sont conservés de sorte à extraire de l’environnement les points correspondant à la surface à traiter. Cette méthode permet de s’abstraire d’un environnement standardisé pour l’enregistrement et de s’adapter à n’importe quel environnement.
Tel qu’illustré sur la figure 1, ces capteurs 14 sont souvent mis en œuvre avec des moyens de pré-traitement 15 afin de fournir une représentation en trois dimensions Re avec une qualité ou une précision améliorée. Par exemple, les moyens de pré-traitement 15 peuvent correspondre à un algorithme d’égalisation d’histogrammes, de filtrage, de moyennage de la représentation sur plusieurs représentations successives...
Par exemple, il est possible d’utiliser l’approche décrite dans la publication scientifique « KinectFusion: Real-time 3D Reconstruction and Interaction Using a Moving Depth Caméra* » publiée le 16 octobre 2011 dans UIST’ 11.
Le dispositif met ensuite en œuvre des traitements informatiques afin d’adapter un modèle générique ml, m2, m3 avec la représentation en trois dimensions Re de sorte à reporter sur la représentation en trois dimensions Re des séquences de déplacements Tx préprogrammées sur chaque modèle générique ml, m2, m3. En outre, ces séquences de déplacements Tx peuvent comporter des positions pour lesquelles des actions sont préprogrammées pour ledit robot.
Les modèles génériques ml, m2, m3 sont également formalisés sous la forme d’un nuage de points dans lequel chaque point présente trois coordonnées d’un système orthonormé : x, y et z. De préférence, le modèle générique est composé par un modèle moyen ModMoy de N vertex de trois coordonnées et d'une matrice de déformation ModSigma de M composantes morphologiques par 3N coordonnées, c’est-à-dire trois coordonnées pour N vertex.
Un grand nombre de personnes différentes sont nécessaires pour enrichir chaque modèle générique ml, m2, m3, par exemple milles personnes.
Une analyse en composantes principales est appliquée pour réduire la dimension des données. En appliquant une analyse en composantes principales sur ces données, il est possible de déterminer la variance dans les données et associer la variance commune sur une composante. Ainsi, au lieu de conserver une composante par personne, chaque modèle générique ml, m2, m3 stocke une vingtaine de composantes qui vont expliquer la majorité de la variance pour les mille personnes. Cette méthode est décrite plus longuement dans la publication scientifique « Building Statistical Shape Spaces for 3D Human Modeling, Pishchulin & ail » publiée le 19 mars 2015 dans la revue « Published in Pattern Récognition 2017 ».
De préférence, les modèles génériques ml, m2, m3 sont stockés dans une mémoire accessible par les moyens de traitement d’image du dispositif aptes à réaliser l’adaptation d’un modèle générique ml, m2, m3 avec la représentation en trois dimensions Re.
Pour ce faire, lorsque la représentation en trois dimensions Re est obtenue, le dispositif met en œuvre une détection des points caractéristiques Pref de cette représentation en trois dimensions Re par des moyens de traitement numérique 16. Sur l’exemple de la figure 1, les points caractéristiques Pref correspondent à l’extrémité supérieure du crâne, à la position des aisselles et à la position de l’entrejambe. Ces moyens de traitement numérique 16 peuvent mettre en œuvre toutes les méthodes connues pour détecter des éléments sur une image, telles que la méthode de Viola et Jones par exemple.
De préférence, pour détecter les points caractéristiques Pref, le nuage de points est transformé en une image de profondeur c’est-à-dire une image en niveaux de gris, par exemple codée sur 12 bits permettant de coder des profondeurs allant de 0 à 4095 mm. Cette image de profondeur est ensuite seuillée et binarisée pour ne faire ressortir avec une valeur 1 les pixels correspondants à l’objet/corps d’intérêt et avec une valeur 0 les pixels correspondants à l’environnement. Ensuite, une détection de contour est appliquée sur cette image binarisée en utilisant, par exemple, la méthode décrite dans Suzuki, S. and Abe, K., Topological Structural Analysis of Digitized Binary Images by Border Following, CVGIP 30 1, pp 32-46 (1985). Les points saillants du contour et ses défauts de convexité (déterminés en utilisant, par exemple, la méthode Sklansky, J., Finding the Convex Hull of a Simple Polygon. PRL 1 Snumber, pp 79-83 (1982)) sont utilisés comme points caractéristiques Pref.
Des moyens de sélection 17 du modèle générique ml, m2, m3 sont ensuite mis en œuvre pour sélectionner le modèle générique ml, m2, m3 le plus proche de la représentation en trois dimensions Re.
Par exemple, cette sélection peut être réalisée en calculant la distance entre le point caractéristique Pref du sommet du crâne et le point caractéristique de l’entrejambe de sorte à estimer grossièrement la taille en hauteur de la représentation en trois dimensions Re et en sélectionnant le modèle générique ml, m2, m3 pour lequel la taille en hauteur est la plus proche. De même ou en complément, la sélection du modèle générique ml, m2, m3 peut être réalisée en utilisant la largeur de la représentation en trois dimensions Re en calculant la distance entre les points caractéristique Pref des aisselles.
En outre, le modèle générique ml, m2, m3 peut être articulé grâce à des os virtuels représentant les os les plus importants du squelette humain. Par exemple, quinze os virtuels peuvent être modélisés sur le modèle générique ml, m2, m3 pour définir la position et la forme de la colonne vertébrale, des fémurs, des tibias, des cubitus, des humérus et du crâne. L’orientation de ces os virtuels permet de définir la pose du modèle générique, c’est-à-dire si le modèle générique ml, m2, m3 à un bras en l’air, les jambes écartées...
Cette pose du modèle générique ml, m2, m3 peut également être déterminée par les moyens de sélection 17 en comparant la distance (calculée, par exemple, en utilisant la méthode Hu. Visual Pattern Récognition by Moment Invariants, IRE Transactions on Information Theory, 8:2, pp. 179-187, 1962.)) entre le contour de l’image de profondeur de Tobjet/corps d’intérêt avec une base de données de contours d’images de profondeur du modèle générique dans plusieurs milliers de postures. L’image de profondeur du modèle générique ml, m2, m3 articulé la plus proche de l’image de profondeur de Tobjet/corps d’intérêt est sélectionnée et les valeurs de rotations des os virtuels sauvegardées.
Une première adaptation est ensuite réalisée par des moyens d’adaptation 18 en déformant le modèle générique sélectionné pour s’approcher de la représentation en trois dimensions Re. Par exemple, cette première adaptation peut simplement déformer en largeur et en hauteur le modèle générique sélectionné pour que l’écartement des points caractéristiques Pref du modèle générique sélectionné corresponde à l’écartement des points caractéristiques Pref de la représentation en trois dimensions Re. Cette première adaptation peut également définir la pose des os virtuels du modèle générique ml, m2, ni3
Lorsque le modèle générique est adapté, c’est-à-dire que la position des vertex est modifiée, la position des points de la séquence de déplacements Tx préprogrammée sur le modèle générique est adaptée de la même manière.
Suite à cette première adaptation assez grossière, il est possible d’utiliser une seconde adaptation plus précise en utilisant les directions normales formées par chaque surface définie entre les points de la représentation en trois dimensions Re. Pour ce faire, le dispositif intègre des moyens de calcul des normales 19 de chaque surface de la représentation en trois dimensions Re et du le modèle générique sélectionné. Par exemple, les directions normales peuvent être déterminées par construction de chaque face de la représentation en trois dimensions Re au moyen des coordonnées des trois ou quatre points les plus proches du point d’intérêt. En variante, les directions normales du modèle générique peuvent être calculées lors de l’étape de définition du modèle générique.
Le dispositif utilise ensuite des moyens de recherche 20 aptes à détecter, pour chaque point du nuage de points de la représentation en trois dimensions Re, le point du modèle générique sélectionné dans un voisinage proche pour lequel la différence entre la direction normale du point du modèle générique et la direction normale du point d’intérêt est la plus faible. Lorsque les os virtuels sont une composante du modèle générique sélectionné, les moyens de recherche 20 adaptent la position et la taille des os virtuels en faisant varier les caractéristiques de chaque os virtuel pour adapter les os virtuels avec la position des éléments du corps présent sur la représentation en trois dimensions Re.
Par exemple, les moyens de recherche 20 peuvent être configurés pour rechercher les points du modèle générique dans une sphère prédéfinie autour du point d’intérêt. De préférence, le rayon de cette sphère est déterminé en fonction du nombre de vertex du modèle générique et de la taille de l’objet/corps d’intérêt de telle façon qu’une dizaine des points soit inclus dans cette sphère.
A l’aide de l’ensemble de ces directions normales, le dispositif peut ensuite calculer la différence du modèle générique sélectionné avec la représentation en trois dimensions Re en utilisant des moyens de détermination 21 aptes à calculer la distance entre les points d’intérêts et les points détectés par les moyens de recherche sur le modèle générique sélectionné. L’ensemble de ces distances forme des vecteurs de transformations qu’il faudrait appliquer au point d’intérêt pour qu’il corresponde avec le point détecté. Des moyens de recherche 22 visent à déterminer une moyenne de ces vecteurs de transformation de sorte à obtenir une transformation globale du modèle générique sélectionné.
En d’autres termes, en considérant un nouveau vecteur de transformation CompVec de M composantes, il est possible de connaître la configuration en trois dimensions des vertex Pts3D en appliquant la formule suivante:
Pts3D = ModMoy + CompVec * ModSigma
Pour une configuration Pts3D inconnue, pour un nouveau patient par exemple, le but est de chercher les valeurs des composantes morphologiques DiffMod qui correspondent à cette personne connaissant le modèle moyen ModMoyen et la matrice de déformation ModSigma.
Pour ce faire, les moyens de recherche 22 calculent la différence entre la configuration en trois dimensions des vertex Pts3D et le modèle moyen ModMoyen ainsi que la matrice pseudo inverse ModSigmalnv de ModSigma. Par exemple, la matrice pseudo inverse ModSigmalnv peut être calculée en décomposant en valeurs singulières la matrice ModSigma en utilisant les relations suivantes :
ModSigma = U E V* ;
ModSigmalnv = V E* U* ;
avec E* correspondant à la matrice transposée de E ;
V* étant la matrice transconjuguée de V ; et
U* étant la matrice transconjuguée de U.
A l’aide de ces données, les moyens de recherche 22 calculent les composantes morphologiques DiffMod avec la formule suivante :
DiffMod * ModSigmalnv = CompVec * ModSigma * ModSigmalnv
Soit, CompVec = DiffMod * ModSigmalnv qui permet également d’obtenir les composantes morphologiques DiffMod pour un patient spécifique.
Le vecteur de transformation CompVec est ensuite appliqué au modèle générique sélectionné, la pose est de nouveau estimée comme précédemment et le modèle générique ajusté si nécessaire et une nouvelle recherche est effectuée jusqu’à ce que le modèle générique soit assez proche de la représentation en trois dimensions Re. La boucle s’arrête lorsque la distance euclidienne moyenne entre tous les vertex du modèle générique et leurs correspondants sur le nuage de points est inférieure à un seuil défini en fonction du nombre de vertex du modèle générique et de la taille de l’objet/corps d’intérêt, 2 mm par exemple, ou lorsqu’un nombre d’itérations maximum, 100 itérations par exemple, est atteint alors que la distance moyenne inférieure au seuil n’est pas atteinte.
De la même manière que précédement, lorsque le modèle générique est adapté, c’est-à-dire que la position des vertex est modifiée, la position des points de la séquence de déplacements Tx préprogrammée sur le modèle générique est adaptée de la même manière.
Une phase de calibration entre le capteur 14 et le robot doit souvent être effectuée. En effet, les séquences de déplacements Tx sont définies sur le modèle générique ml, m2, m3 dans le repère orthonormé du capteur 14 et le robot reçoit des commandes dans son repère orthonormé qui diffère de celui du capteur 14. Pour calibrer le capteur de vision 14 et le robot, il est possible d’enregistrer les coordonnées d’au moins trois points communs dans les deux repères. En pratique, un nombre de points N supérieur à trois est préférentiellement utilisés. Le robot est déplacé sur la zone de travail et s’arrête N fois. A chaque arrêt, la position du robot est enregistrée en calculant les déplacements effectués par la consigne de déplacement du robot et une détection permet de connaître la position en trois dimensions de cet arrêt au moyen du capteur de vision 14.
A la fin de ces N arrêt, les coordonnées des N points sont connues dans les deux repères. Le barycentre de la distribution des N points dans les deux repères est déterminé en utilisant les relations suivantes :
BarycentreA = 1/N somme(PA(i)) pour i=l à N avec PA(i) un point dans le repère du capteur 14 ; et
BarycentreB = 1/N somme(PB(i)) pour i=l à N avec PB(i) un point dans le repère du robot.
La matrice de covariance C est ensuite déterminée par la relation suivante :
C = somme((PA(i)-BarycentreA)(PB(i)-barycentreB)t) pour i=l à N
Cette matrice de covariance C est ensuite décomposée en valeurs singulières :
C = U E V*
La matrice de rotation R entre les deux repères est alors obtenue par la relation suivante :
R = V U* ; si le déterminant de R est négatif, il est possible de multiplier la troisième colonne de la matrice de rotation R par -1.
La translation à appliquer entre les deux repères est déterminée par la relation suivante :
T = - R * BarycentreA +BarycentreB
Il est ainsi possible de convertir n’importe quel point du repère du capteur 14 Pa dans le repère du robot Pb en appliquant la relation suivante :
Pb = R * Pa + T
L’invention permet ainsi de programmer une ou plusieurs séquences de déplacements Tx sur un ou plusieurs modèle génériques ml-m3 et d’adapter efficacement ces modèles génériques ml-m3 pour reproduire précisément les séquences de déplacements Tx sur une surface dont la géométrie n’est pas connue lors de l’apprentissage des séquences de déplacements Tx.
Claims (10)
- REVENDICATIONS1. Dispositif de gestion des déplacements d’un robot, ledit dispositif comportant :- des moyens d’acquisition (14) d’une représentation en trois dimensions (Re) d’une surface à traiter ; et- des moyens de détermination d’une séquence de déplacements (Tx) en fonction de ladite représentation en trois dimensions (Re) de ladite surface à traiter ;caractérisé en ce que lesdits moyens de détermination intègrent au moins un modèle générique (ml-m3) en trois dimensions pour lequel au moins une séquence de déplacements (Tx) est connue ; ledit dispositif comportant des moyens d’adaptation (18, 23) dudit modèle générique (ml-m3) avec ladite représentation en trois dimensions (Re) de ladite surface à traiter aptes à déformer ledit modèle générique (ml-m3) et ladite au moins une séquence de déplacements (Tx) connues pour correspondre à ladite représentation en trois dimensions (Re) de ladite surface à traiter .
- 2. Dispositif selon la revendication 1, dans lequel ladite au moins une séquence de déplacements (Tx) connue intègre des positions pour lesquelles des actions sont préprogrammées pour ledit robot.
- 3. Dispositif selon la revendication 1 ou 2, dans lequel ledit modèle générique (mlm3) et ladite représentation en trois dimensions (Re) de ladite surface à traiter étant formalisés sous la forme de nuages de points, lesdits moyens d’adaptation (23) comportent :- des moyens de calcul (19) d’une direction normale à chaque point de ladite représentation en trois dimensions (Re) de ladite surface à traiter ; et- des moyens de recherche (20), pour chaque point du nuage de points de ladite représentation en trois dimensions (Re), du point du modèle générique (ml-m3) dans un voisinage proche pour lequel la différence entre la direction normale du point du modèle générique (ml-m3) et la direction normale du point d’intérêt est la plus faible ;- des moyens de détermination (21) d’une distance entre ledit point détecté du modèle générique (ml-m3) et ledit point d’intérêt ; et- des moyens de recherche (22) d’une transformation globale du modèle générique (ml-m3) en fonction des distances déterminées pour l’ensemble des points du nuage de points de ladite représentation en trois dimensions (Re).
- 4. Dispositif selon la revendication 3, dans lequel lesdits moyens de recherche (20) sont configurés pour rechercher les points du modèle générique dans une sphère prédéfinie autour du point d’intérêt.
- 5. Dispositif selon la revendication 3 ou 4, dans lequel les directions normales sont déterminées par construction d’une face au moyen des coordonnées des trois ou quatre points les plus proches du point d’intérêt.
- 6. Dispositif selon l’une des revendications 1 à 5, dans lequel lesdits moyens d’adaptation (18) comportent :- des moyens de détection (16) de points caractéristiques (Pref) sur ladite représentation en trois dimensions (Re) ; et- des moyens de déformation (18) du modèle générique (ml-m3) en rotation et/ou en translation de sorte que ladite position desdits points caractéristiques corresponde à une position de points caractéristiques du modèle générique.
- 7. Dispositif selon l’une des revendications 1 à 6, dans lequel lesdits moyens d’acquisition (14) comportent des moyens de pré-traitement (15) de ladite représentation en trois dimensions (Re) au moyen de la capture de plusieurs représentations en trois dimensions (Re) et de la réalisation d’une moyenne des coordonnées des points entre les différentes représentations en trois dimensions (Re).
- 8. Dispositif selon la revendication 7, dans lequel lesdits moyens de prétraitement (15) réalisent un filtrage de ladite moyenne des coordonnées des points entre les différentes représentations en trois dimensions (Re).
- 9. Robot de soin comportant :- un bras articulé ;- un effecteur disposé à une extrémité du bras articulé ;- un dispositif de capture d’images en trois dimension (Re) ; et- un dispositif de gestion des déplacements (10) selon l’une des revendications 1 à
- 10. Robot de soin selon la revendication 9, dans lequel lesdits moyens d’acquisition (14) sont disposés sur ledit bras articulé (12) ou sur ledit effecteur.
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1755812A FR3067957B1 (fr) | 2017-06-26 | 2017-06-26 | Dispositif de gestion des deplacements d'un robot et robot de soin associe |
PCT/EP2018/066672 WO2019002104A1 (fr) | 2017-06-26 | 2018-06-21 | Dispositif de gestion des deplacements d'un robot et robot de soin associe |
EP18731147.7A EP3645218A1 (fr) | 2017-06-26 | 2018-06-21 | Dispositif de gestion des deplacements d'un robot et robot de soin associe |
SG11201912547UA SG11201912547UA (en) | 2017-06-26 | 2018-06-21 | Device for managing the movements of a robot, and associated treatment robot |
KR1020207002557A KR102500626B1 (ko) | 2017-06-26 | 2018-06-21 | 로봇의 움직임을 제어하기 위한 장치 및 이에 관련된 치료 로봇 |
US16/625,704 US11338443B2 (en) | 2017-06-26 | 2018-06-21 | Device for managing the movements of a robot, and associated treatment robot |
CN201880042150.5A CN110785269B (zh) | 2017-06-26 | 2018-06-21 | 用于管理机器人和相关治疗机器人的运动的设备 |
JP2020520716A JP7097956B2 (ja) | 2017-06-26 | 2018-06-21 | ロボットの移動を管理するための装置、及び関連する処理ロボット |
CA3067555A CA3067555A1 (fr) | 2017-06-26 | 2018-06-21 | Dispositif de gestion des deplacements d'un robot et robot de soin associe |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1755812A FR3067957B1 (fr) | 2017-06-26 | 2017-06-26 | Dispositif de gestion des deplacements d'un robot et robot de soin associe |
FR1755812 | 2017-06-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3067957A1 true FR3067957A1 (fr) | 2018-12-28 |
FR3067957B1 FR3067957B1 (fr) | 2020-10-23 |
Family
ID=59521126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1755812A Active FR3067957B1 (fr) | 2017-06-26 | 2017-06-26 | Dispositif de gestion des deplacements d'un robot et robot de soin associe |
Country Status (9)
Country | Link |
---|---|
US (1) | US11338443B2 (fr) |
EP (1) | EP3645218A1 (fr) |
JP (1) | JP7097956B2 (fr) |
KR (1) | KR102500626B1 (fr) |
CN (1) | CN110785269B (fr) |
CA (1) | CA3067555A1 (fr) |
FR (1) | FR3067957B1 (fr) |
SG (1) | SG11201912547UA (fr) |
WO (1) | WO2019002104A1 (fr) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111571611A (zh) * | 2020-05-26 | 2020-08-25 | 广州纳丽生物科技有限公司 | 一种基于面部及皮肤特征的面部作业机器人轨迹规划方法 |
FR3104054A1 (fr) * | 2019-12-10 | 2021-06-11 | Capsix | Dispositif de definition d’une sequence de deplacements sur un modele generique |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
USD1009283S1 (en) | 2020-04-22 | 2023-12-26 | Aescape, Inc. | Therapy end effector |
US11999061B2 (en) | 2020-05-12 | 2024-06-04 | Aescape, Inc. | Method and system for autonomous object manipulation |
WO2021231663A2 (fr) | 2020-05-12 | 2021-11-18 | Aescape, Inc. | Procédé et système d'interaction d'objet autonome |
US11858144B2 (en) | 2020-05-12 | 2024-01-02 | Aescape, Inc. | Method and system for autonomous body interaction |
FR3127428A1 (fr) * | 2021-09-30 | 2023-03-31 | Exel Industries | Procede de peinture d’une piece comprenant la generation d’une trajectoire adaptee a la piece reelle |
FR3141853A1 (fr) | 2022-11-14 | 2024-05-17 | Capsix | Effecteur de massage |
US12083050B1 (en) | 2023-09-06 | 2024-09-10 | Aescape, Inc. | Adjustable table system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010014781A1 (en) * | 1999-12-16 | 2001-08-16 | Elias Nissim | Human touch massager |
US20140257543A1 (en) * | 2013-03-05 | 2014-09-11 | Rolls-Royce Corporation | Adaptively machining component surfaces and hole drilling |
WO2015187092A1 (fr) * | 2014-06-02 | 2015-12-10 | Yizhong Zhang | Appareil de massage automatique mobile |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02148307A (ja) | 1988-11-30 | 1990-06-07 | Kobe Steel Ltd | 工業用ロボットの教示データ作成装置 |
US5083552A (en) * | 1990-06-05 | 1992-01-28 | Harvey Lipowitz | Computer controlled massage device |
JP3670700B2 (ja) * | 1994-04-27 | 2005-07-13 | 株式会社日立製作所 | ロボット機構制御方法 |
JPH10128684A (ja) * | 1996-10-30 | 1998-05-19 | Asahi Sanac Kk | ロボットの動作プログラム作成方法及びその作成装置 |
US6267737B1 (en) * | 1997-05-15 | 2001-07-31 | Algis A. Meilus | Robotic system for lengthening muscles and method of use |
JP2001246582A (ja) | 2000-02-29 | 2001-09-11 | Mitsubishi Heavy Ind Ltd | 作業用ロボット装置 |
SE524818C2 (sv) | 2003-02-13 | 2004-10-05 | Abb Ab | En metod och ett system för att programmera en industrirobot att förflytta sig relativt definierade positioner på ett objekt |
US20050089213A1 (en) * | 2003-10-23 | 2005-04-28 | Geng Z. J. | Method and apparatus for three-dimensional modeling via an image mosaic system |
JP2005138223A (ja) | 2003-11-06 | 2005-06-02 | Fanuc Ltd | ロボット用位置データ修正装置 |
FR2875043B1 (fr) * | 2004-09-06 | 2007-02-09 | Innothera Sa Lab | Dispositif pour etablir une representation tridimensionnelle complete d'un membre d'un patient a partir d'un nombre reduit de mesures prises sur ce membre |
DE102006005958A1 (de) * | 2006-02-08 | 2007-08-16 | Kuka Roboter Gmbh | Verfahren zum Erzeugen eines Umgebungsbildes |
CN100517060C (zh) * | 2006-06-01 | 2009-07-22 | 高宏 | 一种三维人像摄影方法 |
US8578579B2 (en) * | 2007-12-11 | 2013-11-12 | General Electric Company | System and method for adaptive machining |
US8918211B2 (en) * | 2010-02-12 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument |
CN101751689B (zh) * | 2009-09-28 | 2012-02-22 | 中国科学院自动化研究所 | 一种三维人脸重建方法 |
KR20160033325A (ko) * | 2014-09-17 | 2016-03-28 | 전자부품연구원 | 로봇암으로 제어되는 의료용 레이저 장치 |
US20170360578A1 (en) * | 2014-12-04 | 2017-12-21 | James Shin | System and method for producing clinical models and prostheses |
JP6497953B2 (ja) | 2015-02-03 | 2019-04-10 | キヤノン株式会社 | オフライン教示装置、オフライン教示方法及びロボットシステム |
US20170266077A1 (en) | 2016-03-21 | 2017-09-21 | Christian Campbell Mackin | Robotic massage machine and method of use |
CN106407930A (zh) * | 2016-09-18 | 2017-02-15 | 长沙军鸽软件有限公司 | 一种按摩机器人的服务方法 |
-
2017
- 2017-06-26 FR FR1755812A patent/FR3067957B1/fr active Active
-
2018
- 2018-06-21 KR KR1020207002557A patent/KR102500626B1/ko active IP Right Grant
- 2018-06-21 SG SG11201912547UA patent/SG11201912547UA/en unknown
- 2018-06-21 US US16/625,704 patent/US11338443B2/en active Active
- 2018-06-21 WO PCT/EP2018/066672 patent/WO2019002104A1/fr unknown
- 2018-06-21 CN CN201880042150.5A patent/CN110785269B/zh active Active
- 2018-06-21 CA CA3067555A patent/CA3067555A1/fr active Pending
- 2018-06-21 JP JP2020520716A patent/JP7097956B2/ja active Active
- 2018-06-21 EP EP18731147.7A patent/EP3645218A1/fr active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010014781A1 (en) * | 1999-12-16 | 2001-08-16 | Elias Nissim | Human touch massager |
US20140257543A1 (en) * | 2013-03-05 | 2014-09-11 | Rolls-Royce Corporation | Adaptively machining component surfaces and hole drilling |
WO2015187092A1 (fr) * | 2014-06-02 | 2015-12-10 | Yizhong Zhang | Appareil de massage automatique mobile |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3104054A1 (fr) * | 2019-12-10 | 2021-06-11 | Capsix | Dispositif de definition d’une sequence de deplacements sur un modele generique |
WO2021116554A1 (fr) * | 2019-12-10 | 2021-06-17 | Capsix | Dispositif de definition d'une sequence de deplacements sur un modele generique |
CN111571611A (zh) * | 2020-05-26 | 2020-08-25 | 广州纳丽生物科技有限公司 | 一种基于面部及皮肤特征的面部作业机器人轨迹规划方法 |
CN111571611B (zh) * | 2020-05-26 | 2021-09-21 | 广州纳丽生物科技有限公司 | 一种基于面部及皮肤特征的面部作业机器人轨迹规划方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7097956B2 (ja) | 2022-07-08 |
KR20200023646A (ko) | 2020-03-05 |
EP3645218A1 (fr) | 2020-05-06 |
US11338443B2 (en) | 2022-05-24 |
CA3067555A1 (fr) | 2019-01-03 |
CN110785269B (zh) | 2023-04-07 |
CN110785269A (zh) | 2020-02-11 |
US20210154852A1 (en) | 2021-05-27 |
SG11201912547UA (en) | 2020-01-30 |
FR3067957B1 (fr) | 2020-10-23 |
WO2019002104A1 (fr) | 2019-01-03 |
JP2020525306A (ja) | 2020-08-27 |
KR102500626B1 (ko) | 2023-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR3067957A1 (fr) | Dispositif de gestion des deplacements d'un robot et robot de soin associe | |
EP4072794B1 (fr) | Dispositif de definition d'une sequence de deplacements sur un modele generique | |
US10048749B2 (en) | Gaze detection offset for gaze tracking models | |
CN102663820B (zh) | 三维头部模型重建方法 | |
CN115330958B (zh) | 基于激光雷达的实时三维重建方法及装置 | |
WO2015006224A1 (fr) | Moteur de traitement de vision artificielle tridimensionnelle (3d) en temps réel pour une reconnaissance, une reconstruction et une analyse d'objet | |
WO2017017371A1 (fr) | Procédé optimise d'analyse de la conformité de la surface d'un pneumatique | |
JP2007249280A (ja) | 特徴点検出装置、特徴点検出方法および特徴点検出プログラム | |
JP2009020761A (ja) | 画像処理装置及びその方法 | |
WO2020188064A1 (fr) | Procede de guidage d'un bras robot, systeme de guidage | |
Chen et al. | Fast capture of personalized avatar using two Kinects | |
Aydogdu et al. | Comparison of three different CNN architectures for age classification | |
FR2999325A1 (fr) | Procede iteratif de determination d'une image en deux dimensions ou trois dimensions a partir de signaux issus de tomographie par rayons x | |
WO2019149697A1 (fr) | Procede d'enrichissement d'un modele numerique dentaire | |
Manfredi et al. | Skin surface reconstruction and 3D vessels segmentation in speckle variance optical coherence tomography | |
EP3942532A1 (fr) | Procede de generation d'une surface tridimensionnelle de travail d'un corps humain, systeme | |
FR3098332A1 (fr) | Procédé et dispositif de détermination de l’amplitude d’un mouvement effectué par un membre d’un corps articulé | |
US11816806B2 (en) | System and method for foot scanning via a mobile computing device | |
WO2020260635A1 (fr) | Procédé d'analyse de la démarche d'un individu | |
Nguyen et al. | 3D TECHNOLOGIES FOR INTANGIBLE CULTURAL HERITAGE PRESERVATION: CREATING 3D MODELS OF LACQUER ART THROUGH PHOTOGRAMMETRY. | |
Win | Curve and Circle Fitting of 3D Data Acquired by RGB-D Sensor | |
Font Calafell et al. | A proposal for automatic fruit harvesting by combining a low cost stereovision camera and a robotic arm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLSC | Publication of the preliminary search report |
Effective date: 20181228 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |
|
PLFP | Fee payment |
Year of fee payment: 7 |
|
PLFP | Fee payment |
Year of fee payment: 8 |