FR3067957A1 - Dispositif de gestion des deplacements d'un robot et robot de soin associe - Google Patents

Dispositif de gestion des deplacements d'un robot et robot de soin associe Download PDF

Info

Publication number
FR3067957A1
FR3067957A1 FR1755812A FR1755812A FR3067957A1 FR 3067957 A1 FR3067957 A1 FR 3067957A1 FR 1755812 A FR1755812 A FR 1755812A FR 1755812 A FR1755812 A FR 1755812A FR 3067957 A1 FR3067957 A1 FR 3067957A1
Authority
FR
France
Prior art keywords
generic model
point
dimensional representation
robot
treated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1755812A
Other languages
English (en)
Other versions
FR3067957B1 (fr
Inventor
Francois Eyssautier
Guillaume Gibert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capsix
Original Assignee
Capsix
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to FR1755812A priority Critical patent/FR3067957B1/fr
Application filed by Capsix filed Critical Capsix
Priority to KR1020207002557A priority patent/KR102500626B1/ko
Priority to PCT/EP2018/066672 priority patent/WO2019002104A1/fr
Priority to EP18731147.7A priority patent/EP3645218A1/fr
Priority to SG11201912547UA priority patent/SG11201912547UA/en
Priority to US16/625,704 priority patent/US11338443B2/en
Priority to CN201880042150.5A priority patent/CN110785269B/zh
Priority to JP2020520716A priority patent/JP7097956B2/ja
Priority to CA3067555A priority patent/CA3067555A1/fr
Publication of FR3067957A1 publication Critical patent/FR3067957A1/fr
Application granted granted Critical
Publication of FR3067957B1 publication Critical patent/FR3067957B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0064Body surface scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F7/00Heating or cooling appliances for medical or therapeutic treatment of the human body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H23/00Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms
    • A61H23/02Percussion or vibration massage, e.g. using supersonic vibration; Suction-vibration massage; Massage with moving diaphragms with electric or magnetic drive
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H9/00Pneumatic or hydraulic massage
    • A61H9/005Pneumatic massage
    • A61H9/0057Suction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/401Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2201/00Characteristics of apparatus not provided for in the preceding codes
    • A61H2201/16Physical interface with patient
    • A61H2201/1657Movement of interface, i.e. force application means
    • A61H2201/1659Free spatial automatic movement of interface within a working area, e.g. Robot
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H2230/00Measuring physical parameters of the user
    • A61H2230/85Contour of the body
    • A61H2230/855Contour of the body used as a control parameter for the apparatus
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37205Compare measured, vision data with computer model, cad data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37208Vision, visual inspection of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45084Service robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Pain & Pain Management (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Rehabilitation Therapy (AREA)
  • Epidemiology (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Vascular Medicine (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Percussion Or Vibration Massage (AREA)
  • Massaging Devices (AREA)

Abstract

L'invention concerne un dispositif de gestion des déplacements d'un robot, ledit dispositif comportant : - des moyens d'acquisition (14) d'une représentation en trois dimensions (Re) d'une surface à traiter ; et - des moyens de détermination d'une séquence de déplacements (Tx) en fonction de ladite représentation en trois dimensions (Re) de ladite surface à traiter ; - lesdits moyens de détermination intégrant au moins un modèle générique (m1-m3) en trois dimensions pour lequel au moins une séquence de déplacements (Tx) est connue ; - ledit dispositif comportant des moyens d'adaptation (18, 23) dudit modèle générique (m1-m3) avec ladite représentation en trois dimensions (Re) de ladite surface à traiter aptes à déformer ledit modèle générique (m1-m3) et ladite au moins une séquence de déplacements (Tx) connues pour correspondre à ladite représentation en trois dimensions (Re) de ladite surface à traiter.

Description

DISPOSITIF DE GESTION DES DEPLACEMENTS D’UN ROBOT ET
ROBOT DE SOIN ASSOCIE
Domaine Technique
L’invention concerne le domaine de la gestion des déplacements d’un robot opérant sur des surfaces de géométries très diverses.
L’invention peut être appliquée dans de nombreux domaines techniques dans lesquelles la surface de travail du robot n’est pas connue a priori. Par exemple, l’invention peut être mise en œuvre pour un robot de peinture de porcelaines artisanales dans lequel le robot doit s’adapter aux différentes formes de la porcelaine réalisées par un artisan.
L’invention trouve une application particulièrement avantageuse pour déplacer un bras motorisé d’un robot de soin, tel qu’un robot de massage.
Art ANTERIEUR
Contrairement aux robots industriels programmés pour suivre une trajectoire prédéterminée, un robot opérant sur une surface inconnue doit comporter des moyens de gestion des déplacements aptes à analyser la surface à traiter pour déterminer une trajectoire.
Les robots de reconnaissance intègrent généralement au moins une caméra et des moyens de traitement d’image pour analyser, au cours du temps, la surface d’exploration et déterminer la trajectoire à suivre pour le robot.
Cette méthode d’analyse d’une surface inconnue nécessite une grande puissance de calcul pour guider précisément les déplacements du robot au cours du temps. Il s’ensuit que les robots d’exploration se déplacent lentement de sorte à permettre au dispositif de gestion des déplacements d’optimiser les déplacements du robot en fonction des informations acquises par la caméra et traitées par les moyens de traitement d’image.
En outre, pour un robot de massage ou pour un robot de peinture de porcelaines artisanales, les déplacements du robot doivent être extrêmement précis pour masser les zones recherchées sur le corps d’un individu ou pour appliquer les couches de peinture aux endroits recherchés.
Pour ce faire, il est connu de scanner une surface en trois dimensions afin de permettre à un opérateur de programmer les déplacements d’un robot en utilisant une modélisation numérique en trois dimensions de la surface à traiter par le robot.
Par exemple, la demande de brevet internationale N° WO 2015/187092 décrit un robot de massage intégrant un scanner en trois dimensions pour scanner le corps d’un patient et permettre à un praticien de déterminer la trajectoire de massage du robot en utilisant une projection d’un modèle en trois dimensions du corps d’un patient sur une tablette tactile.
Cependant, ce robot de massage n’est pas autonome car un praticien doit être présent pour mettre à profit son savoir-faire et programmer une trajectoire du robot de massage sur un modèle numérique.
Le problème technique consiste donc à automatiser la gestion des déplacements d’un robot opérant sur une surface inconnue avec une grande précision de mouvement.
Expose de l’invention
La présente invention vise à répondre à ce problème technique au moyen d’au moins une séquence de déplacements connue pour un modèle générique associée à des moyens d’adaptation d’une surface à traiter avec le modèle générique de sorte à adapter la séquence de déplacements connue pour un modèle générique et les appliquer à la surface à traiter.
Ce faisant, bien que la géométrie de la surface à traiter ne soit pas connue lors la programmation de la séquence de déplacements sur le modèle générique, le robot est capable d’adapter automatiquement la séquence de déplacements en adaptant la forme du modèle générique sur la forme de la surface à traiter.
A cet effet, selon un premier aspect, l’invention concerne un dispositif de gestion des déplacements d’un robot, ledit dispositif comportant :
- des moyens d’acquisition d’une représentation en trois dimensions d’une surface à traiter ; et
- des moyens de détermination d’une séquence de déplacements en fonction de ladite représentation en trois dimensions de ladite surface à traiter.
L’invention se caractérise en ce que lesdits moyens de détermination intègrent au moins un modèle générique en trois dimensions pour lequel au moins une séquence de déplacements est connue ; ledit dispositif comportant des moyens d’adaptation dudit modèle générique avec ladite représentation en trois dimensions de ladite surface à traiter aptes à déformer ledit modèle générique et ladite au moins une séquence de déplacements connues pour correspondre à ladite représentation en trois dimensions de ladite surface à traiter.
L’invention permet ainsi d’utiliser une séquence de déplacements connue sur un modèle générique pour l’appliquer sur une surface à traiter dont la géométrie n’est pas connue lors de l’apprentissage de la séquence de déplacements.
Dans l’exemple du robot de peinture de porcelaines artisanales, un peintre peut définir des motifs standards à peindre sur des tasses en enregistrant ces motifs par rapport à un modèle générique d’une tasse standard. Un robot peut alors scanner la surface d’une tasse nouvellement créée et appliquer l’un des motifs standards en déformant le modèle générique en fonction de la surface de la tasse nouvellement créée.
Dans l’exemple d’un robot de massage, un modèle générique d’un corps humain est réalisé à partir de mesures sur des personnes réelles. Ce modèle générique est ensuite représenté en trois dimensions de manière à ce qu’un praticien puisse définir une trajectoire de massage en passant par différents points sensibles du modèle générique de sorte à obtenir un effet massant efficace.
Lorsque le robot est utilisé pour masser un nouveau patient, le corps du patient est scanné et la forme du modèle générique est adaptée sur la forme du patient de sorte que la déformation du modèle générique permette d’obtenir une déformation de la trajectoire de massage afin d’adapter les déplacements du robot avec la forme du corps du patient tout en respectant la précision de massage enregistrée par le praticien. Il s’ensuit que l’invention permet de reproduire une qualité de massage de très haut niveau avec une sensation de massage très proche, voire identique, à celle d’un praticien.
En variante, plusieurs trajectoires de massage peuvent être numérisées pour effectuer plusieurs types de massage distincts. Plusieurs modèles génériques peuvent également être réalisés pour améliorer l’adaptation du modèle générique avec le corps du patient, par exemple en utilisant trois types de modèles génériques pour chaque genre : une personne de grande, de petite et de taille moyenne et pour différentes classes d’âges : enfants, adolescents et adultes.
Selon un mode de réalisation, ladite au moins une séquence de déplacements connue intègre des positions pour lesquelles des actions sont préprogrammées pour ledit robot.
Ce mode de réalisation permet de commander le fonctionnement d’actionneurs lors des déplacements du robot. Dans l’exemple du robot de peinture de porcelaines artisanales, le robot peut effectuer des traitements de surface spécifiques à certains endroits. Dans l’exemple du robot de massage, certaines positions du robot peuvent commander le déclenchement de moyens de chauffage pour améliorer le confort et/ou l’effet du massage. De plus, la séquence de déplacements connue peut comporter plusieurs trajectoires réalisées avec un mouvement de palper-rouler alors que d’autres déplacements sont effectués avec un autre type de mouvement.
Selon un mode de réalisation, ledit modèle générique et ladite représentation en trois dimensions de ladite surface à traiter étant formalisés sous la forme de nuages de points, lesdits moyens d’adaptation comportent :
- des moyens de calcul d’une direction normale à chaque point de ladite représentation en trois dimensions de ladite surface à traiter ; et
- des moyens de recherche, pour chaque point du nuage de points de ladite représentation en trois dimensions, du point du modèle générique dans un voisinage proche pour lequel la différence entre la direction normale du point du modèle générique et la direction normale du point d’intérêt est la plus faible ;
- des moyens de détermination d’une distance entre ledit point détecté du modèle générique et ledit point d’intérêt ; et
- des moyens de recherche d’une transformation globale du modèle en fonction des distances déterminées pour l’ensemble des points du nuage de points de ladite représentation en trois dimensions.
Les directions normales permettent d’obtenir une information relative à l’orientation des faces du modèle générique et de la représentation en trois dimensions de la surface à traiter. Contrairement à une simple comparaison de coordonnées point à point, une comparaison des faces permet d’obtenir une reconnaissance plus efficace.
En outre, l’adaptation du modèle générique est réalisée pas à pas en modifiant petit à petit le modèle générique en fonction de la moyenne des distances. Il s’ensuit que ce mode de réalisation permet d’adapter efficacement le modèle générique en comparant les directions normales de chaque point du modèle générique et les directions normales de la représentation en trois dimensions de la surface à traiter.
Selon un mode de réalisation, lesdits moyens de recherche sont configurés pour rechercher les points du modèle générique dans une sphère prédéfinie autour du point d’intérêt.
Ce mode de réalisation vise à limiter la zone de recherche des points du modèle générique de sorte à limiter le temps de calcul. En outre, la limitation de la zone de recherche permet également de limiter l’amplitude de la modification du modèle générique entre deux comparaisons de sorte à augmenter la précision de la modification du modèle générique.
Selon un mode de réalisation, les directions normales sont déterminées par construction d’une face au moyen des coordonnées des trois ou quatre points les plus proches du point d’intérêt.
Ce mode de réalisation permet de construire efficacement les faces du modèle générique et de la représentation en trois dimensions de la surface à traiter.
Selon un mode de réalisation, lesdits moyens d’adaptation comportent :
- des moyens de détection de points caractéristiques sur ladite représentation en trois dimensions ; et
- des moyens de déformation du modèle générique en rotation et/ou en translation de sorte que ladite position desdits points caractéristiques corresponde à une position de points caractéristiques du modèle générique. Ce mode de réalisation permet de réaliser une première adaptation grossière du modèle générique afin d’améliorer la rapidité de l’adaptation précise réalisée par l’intermédiaire des normales. Dans l’exemple du robot de peinture de porcelaines artisanales, les points caractéristiques peuvent correspondre aux extrémités supérieures et inférieures de la porcelaine. Dans l’exemple du robot de massage, les points caractéristiques peuvent correspondre à l’extrémité supérieure du crâne, à la position des aisselles et à la position de l’entrejambe.
Selon un mode de réalisation, lesdits moyens d’acquisition comportent des moyens de pré-traitement de ladite représentation en trois dimensions au moyen de la capture de plusieurs représentations en trois dimensions et de la réalisation d’une moyenne des coordonnées des points entre les différentes représentations en trois dimensions. Ce mode de réalisation permet d’améliorer la précision de la représentation en trois dimensions et donc de l’adaptation du modèle générique.
Selon un mode de réalisation, lesdits moyens de pré-traitement réalisent un filtrage de ladite moyenne des coordonnées des points entre les différentes représentations en trois dimensions. Ce mode de réalisation permet également d’améliorer la précision de la représentation en trois dimensions et, donc, de l’adaptation du modèle générique.
Selon un second aspect, l’invention concerne un robot de soin comportant :
- un bras articulé ;
- un effecteur disposé à une extrémité du bras articulé ;
- un dispositif de capture d’images en trois dimensions ; et
- un dispositif de gestion des déplacements selon le premier aspect de l’invention.
Ce second aspect de l’invention concerne un robot de soin pour lequel la précision des déplacements du robot est un critère essentiel pour éviter de blesser le patient.
Selon un mode de réalisation, lesdits moyens d’acquisition sont disposés sur ledit bras articulé ou sur ledit effecteur. Ce mode de réalisation permet de déplacer les moyens d’acquisition pour acquérir précisément la représentation en trois dimensions.
Description sommaire des figures
La manière de réaliser l’invention ainsi que les avantages qui en découlent, ressortiront bien du mode de réalisation qui suit, donné à titre indicatif mais non limitatif, à l’appui de la figure 1 qui constitue un ordinogramme des étapes de fonctionnement d’un dispositif de gestion des déplacements d’un robot de massage selon un mode de réalisation de l’invention.
L’invention est décrite en référence à un robot de massage de sorte à montrer la capacité d’adaptation du robot car il est évident que les surfaces des corps humains présentent de grandes disparités.
Cependant, l’invention n’est pas limitée à cette application spécifique et elle peut être utilisée pour plusieurs robots travaillant sur une surface dont la géométrie n’est pas prédéterminée et pour lesquels des déplacements précis du robot doivent être réalisés.
Description detaillee de l’invention
Tel qu’illustré sur la figure 1, l’analyse de la surface à traiter est réalisée par des moyens d’acquisition 14 aptes à fournir une représentation en trois dimensions Re de la surface à traiter.
La représentation en trois dimensions Re prend la forme d’un nuage de points dans lequel chaque point présente trois coordonnés d’un système orthonormée : x, y et z.
Ces moyens d’acquisition 14 peuvent correspondre à un ensemble de capteurs photographiques, un ensemble de capteurs infrarouges, un capteur tomographique, un capteur stéréoscopique ou tout autre capteur connu permettant d’acquérir une représentation en trois dimensions d’une surface.
Par exemple, la caméra Kinect® de la société Microsoft® peut être utilisée pour obtenir cette représentation en trois dimensions Re.
Pour obtenir cette représentation en trois dimensions Re sans capter l’environnement, il est possible de capter un premier nuage de points correspondant à l’environnement et un second nuage de points correspondant à la surface à traiter dans son environnement. Seuls les points différents entre les deux nuages de points sont conservés de sorte à extraire de l’environnement les points correspondant à la surface à traiter. Cette méthode permet de s’abstraire d’un environnement standardisé pour l’enregistrement et de s’adapter à n’importe quel environnement.
Tel qu’illustré sur la figure 1, ces capteurs 14 sont souvent mis en œuvre avec des moyens de pré-traitement 15 afin de fournir une représentation en trois dimensions Re avec une qualité ou une précision améliorée. Par exemple, les moyens de pré-traitement 15 peuvent correspondre à un algorithme d’égalisation d’histogrammes, de filtrage, de moyennage de la représentation sur plusieurs représentations successives...
Par exemple, il est possible d’utiliser l’approche décrite dans la publication scientifique « KinectFusion: Real-time 3D Reconstruction and Interaction Using a Moving Depth Caméra* » publiée le 16 octobre 2011 dans UIST’ 11.
Le dispositif met ensuite en œuvre des traitements informatiques afin d’adapter un modèle générique ml, m2, m3 avec la représentation en trois dimensions Re de sorte à reporter sur la représentation en trois dimensions Re des séquences de déplacements Tx préprogrammées sur chaque modèle générique ml, m2, m3. En outre, ces séquences de déplacements Tx peuvent comporter des positions pour lesquelles des actions sont préprogrammées pour ledit robot.
Les modèles génériques ml, m2, m3 sont également formalisés sous la forme d’un nuage de points dans lequel chaque point présente trois coordonnées d’un système orthonormé : x, y et z. De préférence, le modèle générique est composé par un modèle moyen ModMoy de N vertex de trois coordonnées et d'une matrice de déformation ModSigma de M composantes morphologiques par 3N coordonnées, c’est-à-dire trois coordonnées pour N vertex.
Un grand nombre de personnes différentes sont nécessaires pour enrichir chaque modèle générique ml, m2, m3, par exemple milles personnes.
Une analyse en composantes principales est appliquée pour réduire la dimension des données. En appliquant une analyse en composantes principales sur ces données, il est possible de déterminer la variance dans les données et associer la variance commune sur une composante. Ainsi, au lieu de conserver une composante par personne, chaque modèle générique ml, m2, m3 stocke une vingtaine de composantes qui vont expliquer la majorité de la variance pour les mille personnes. Cette méthode est décrite plus longuement dans la publication scientifique « Building Statistical Shape Spaces for 3D Human Modeling, Pishchulin & ail » publiée le 19 mars 2015 dans la revue « Published in Pattern Récognition 2017 ».
De préférence, les modèles génériques ml, m2, m3 sont stockés dans une mémoire accessible par les moyens de traitement d’image du dispositif aptes à réaliser l’adaptation d’un modèle générique ml, m2, m3 avec la représentation en trois dimensions Re.
Pour ce faire, lorsque la représentation en trois dimensions Re est obtenue, le dispositif met en œuvre une détection des points caractéristiques Pref de cette représentation en trois dimensions Re par des moyens de traitement numérique 16. Sur l’exemple de la figure 1, les points caractéristiques Pref correspondent à l’extrémité supérieure du crâne, à la position des aisselles et à la position de l’entrejambe. Ces moyens de traitement numérique 16 peuvent mettre en œuvre toutes les méthodes connues pour détecter des éléments sur une image, telles que la méthode de Viola et Jones par exemple.
De préférence, pour détecter les points caractéristiques Pref, le nuage de points est transformé en une image de profondeur c’est-à-dire une image en niveaux de gris, par exemple codée sur 12 bits permettant de coder des profondeurs allant de 0 à 4095 mm. Cette image de profondeur est ensuite seuillée et binarisée pour ne faire ressortir avec une valeur 1 les pixels correspondants à l’objet/corps d’intérêt et avec une valeur 0 les pixels correspondants à l’environnement. Ensuite, une détection de contour est appliquée sur cette image binarisée en utilisant, par exemple, la méthode décrite dans Suzuki, S. and Abe, K., Topological Structural Analysis of Digitized Binary Images by Border Following, CVGIP 30 1, pp 32-46 (1985). Les points saillants du contour et ses défauts de convexité (déterminés en utilisant, par exemple, la méthode Sklansky, J., Finding the Convex Hull of a Simple Polygon. PRL 1 Snumber, pp 79-83 (1982)) sont utilisés comme points caractéristiques Pref.
Des moyens de sélection 17 du modèle générique ml, m2, m3 sont ensuite mis en œuvre pour sélectionner le modèle générique ml, m2, m3 le plus proche de la représentation en trois dimensions Re.
Par exemple, cette sélection peut être réalisée en calculant la distance entre le point caractéristique Pref du sommet du crâne et le point caractéristique de l’entrejambe de sorte à estimer grossièrement la taille en hauteur de la représentation en trois dimensions Re et en sélectionnant le modèle générique ml, m2, m3 pour lequel la taille en hauteur est la plus proche. De même ou en complément, la sélection du modèle générique ml, m2, m3 peut être réalisée en utilisant la largeur de la représentation en trois dimensions Re en calculant la distance entre les points caractéristique Pref des aisselles.
En outre, le modèle générique ml, m2, m3 peut être articulé grâce à des os virtuels représentant les os les plus importants du squelette humain. Par exemple, quinze os virtuels peuvent être modélisés sur le modèle générique ml, m2, m3 pour définir la position et la forme de la colonne vertébrale, des fémurs, des tibias, des cubitus, des humérus et du crâne. L’orientation de ces os virtuels permet de définir la pose du modèle générique, c’est-à-dire si le modèle générique ml, m2, m3 à un bras en l’air, les jambes écartées...
Cette pose du modèle générique ml, m2, m3 peut également être déterminée par les moyens de sélection 17 en comparant la distance (calculée, par exemple, en utilisant la méthode Hu. Visual Pattern Récognition by Moment Invariants, IRE Transactions on Information Theory, 8:2, pp. 179-187, 1962.)) entre le contour de l’image de profondeur de Tobjet/corps d’intérêt avec une base de données de contours d’images de profondeur du modèle générique dans plusieurs milliers de postures. L’image de profondeur du modèle générique ml, m2, m3 articulé la plus proche de l’image de profondeur de Tobjet/corps d’intérêt est sélectionnée et les valeurs de rotations des os virtuels sauvegardées.
Une première adaptation est ensuite réalisée par des moyens d’adaptation 18 en déformant le modèle générique sélectionné pour s’approcher de la représentation en trois dimensions Re. Par exemple, cette première adaptation peut simplement déformer en largeur et en hauteur le modèle générique sélectionné pour que l’écartement des points caractéristiques Pref du modèle générique sélectionné corresponde à l’écartement des points caractéristiques Pref de la représentation en trois dimensions Re. Cette première adaptation peut également définir la pose des os virtuels du modèle générique ml, m2, ni3
Lorsque le modèle générique est adapté, c’est-à-dire que la position des vertex est modifiée, la position des points de la séquence de déplacements Tx préprogrammée sur le modèle générique est adaptée de la même manière.
Suite à cette première adaptation assez grossière, il est possible d’utiliser une seconde adaptation plus précise en utilisant les directions normales formées par chaque surface définie entre les points de la représentation en trois dimensions Re. Pour ce faire, le dispositif intègre des moyens de calcul des normales 19 de chaque surface de la représentation en trois dimensions Re et du le modèle générique sélectionné. Par exemple, les directions normales peuvent être déterminées par construction de chaque face de la représentation en trois dimensions Re au moyen des coordonnées des trois ou quatre points les plus proches du point d’intérêt. En variante, les directions normales du modèle générique peuvent être calculées lors de l’étape de définition du modèle générique.
Le dispositif utilise ensuite des moyens de recherche 20 aptes à détecter, pour chaque point du nuage de points de la représentation en trois dimensions Re, le point du modèle générique sélectionné dans un voisinage proche pour lequel la différence entre la direction normale du point du modèle générique et la direction normale du point d’intérêt est la plus faible. Lorsque les os virtuels sont une composante du modèle générique sélectionné, les moyens de recherche 20 adaptent la position et la taille des os virtuels en faisant varier les caractéristiques de chaque os virtuel pour adapter les os virtuels avec la position des éléments du corps présent sur la représentation en trois dimensions Re.
Par exemple, les moyens de recherche 20 peuvent être configurés pour rechercher les points du modèle générique dans une sphère prédéfinie autour du point d’intérêt. De préférence, le rayon de cette sphère est déterminé en fonction du nombre de vertex du modèle générique et de la taille de l’objet/corps d’intérêt de telle façon qu’une dizaine des points soit inclus dans cette sphère.
A l’aide de l’ensemble de ces directions normales, le dispositif peut ensuite calculer la différence du modèle générique sélectionné avec la représentation en trois dimensions Re en utilisant des moyens de détermination 21 aptes à calculer la distance entre les points d’intérêts et les points détectés par les moyens de recherche sur le modèle générique sélectionné. L’ensemble de ces distances forme des vecteurs de transformations qu’il faudrait appliquer au point d’intérêt pour qu’il corresponde avec le point détecté. Des moyens de recherche 22 visent à déterminer une moyenne de ces vecteurs de transformation de sorte à obtenir une transformation globale du modèle générique sélectionné.
En d’autres termes, en considérant un nouveau vecteur de transformation CompVec de M composantes, il est possible de connaître la configuration en trois dimensions des vertex Pts3D en appliquant la formule suivante:
Pts3D = ModMoy + CompVec * ModSigma
Pour une configuration Pts3D inconnue, pour un nouveau patient par exemple, le but est de chercher les valeurs des composantes morphologiques DiffMod qui correspondent à cette personne connaissant le modèle moyen ModMoyen et la matrice de déformation ModSigma.
Pour ce faire, les moyens de recherche 22 calculent la différence entre la configuration en trois dimensions des vertex Pts3D et le modèle moyen ModMoyen ainsi que la matrice pseudo inverse ModSigmalnv de ModSigma. Par exemple, la matrice pseudo inverse ModSigmalnv peut être calculée en décomposant en valeurs singulières la matrice ModSigma en utilisant les relations suivantes :
ModSigma = U E V* ;
ModSigmalnv = V E* U* ;
avec E* correspondant à la matrice transposée de E ;
V* étant la matrice transconjuguée de V ; et
U* étant la matrice transconjuguée de U.
A l’aide de ces données, les moyens de recherche 22 calculent les composantes morphologiques DiffMod avec la formule suivante :
DiffMod * ModSigmalnv = CompVec * ModSigma * ModSigmalnv
Soit, CompVec = DiffMod * ModSigmalnv qui permet également d’obtenir les composantes morphologiques DiffMod pour un patient spécifique.
Le vecteur de transformation CompVec est ensuite appliqué au modèle générique sélectionné, la pose est de nouveau estimée comme précédemment et le modèle générique ajusté si nécessaire et une nouvelle recherche est effectuée jusqu’à ce que le modèle générique soit assez proche de la représentation en trois dimensions Re. La boucle s’arrête lorsque la distance euclidienne moyenne entre tous les vertex du modèle générique et leurs correspondants sur le nuage de points est inférieure à un seuil défini en fonction du nombre de vertex du modèle générique et de la taille de l’objet/corps d’intérêt, 2 mm par exemple, ou lorsqu’un nombre d’itérations maximum, 100 itérations par exemple, est atteint alors que la distance moyenne inférieure au seuil n’est pas atteinte.
De la même manière que précédement, lorsque le modèle générique est adapté, c’est-à-dire que la position des vertex est modifiée, la position des points de la séquence de déplacements Tx préprogrammée sur le modèle générique est adaptée de la même manière.
Une phase de calibration entre le capteur 14 et le robot doit souvent être effectuée. En effet, les séquences de déplacements Tx sont définies sur le modèle générique ml, m2, m3 dans le repère orthonormé du capteur 14 et le robot reçoit des commandes dans son repère orthonormé qui diffère de celui du capteur 14. Pour calibrer le capteur de vision 14 et le robot, il est possible d’enregistrer les coordonnées d’au moins trois points communs dans les deux repères. En pratique, un nombre de points N supérieur à trois est préférentiellement utilisés. Le robot est déplacé sur la zone de travail et s’arrête N fois. A chaque arrêt, la position du robot est enregistrée en calculant les déplacements effectués par la consigne de déplacement du robot et une détection permet de connaître la position en trois dimensions de cet arrêt au moyen du capteur de vision 14.
A la fin de ces N arrêt, les coordonnées des N points sont connues dans les deux repères. Le barycentre de la distribution des N points dans les deux repères est déterminé en utilisant les relations suivantes :
BarycentreA = 1/N somme(PA(i)) pour i=l à N avec PA(i) un point dans le repère du capteur 14 ; et
BarycentreB = 1/N somme(PB(i)) pour i=l à N avec PB(i) un point dans le repère du robot.
La matrice de covariance C est ensuite déterminée par la relation suivante :
C = somme((PA(i)-BarycentreA)(PB(i)-barycentreB)t) pour i=l à N
Cette matrice de covariance C est ensuite décomposée en valeurs singulières :
C = U E V*
La matrice de rotation R entre les deux repères est alors obtenue par la relation suivante :
R = V U* ; si le déterminant de R est négatif, il est possible de multiplier la troisième colonne de la matrice de rotation R par -1.
La translation à appliquer entre les deux repères est déterminée par la relation suivante :
T = - R * BarycentreA +BarycentreB
Il est ainsi possible de convertir n’importe quel point du repère du capteur 14 Pa dans le repère du robot Pb en appliquant la relation suivante :
Pb = R * Pa + T
L’invention permet ainsi de programmer une ou plusieurs séquences de déplacements Tx sur un ou plusieurs modèle génériques ml-m3 et d’adapter efficacement ces modèles génériques ml-m3 pour reproduire précisément les séquences de déplacements Tx sur une surface dont la géométrie n’est pas connue lors de l’apprentissage des séquences de déplacements Tx.

Claims (10)

  1. REVENDICATIONS
    1. Dispositif de gestion des déplacements d’un robot, ledit dispositif comportant :
    - des moyens d’acquisition (14) d’une représentation en trois dimensions (Re) d’une surface à traiter ; et
    - des moyens de détermination d’une séquence de déplacements (Tx) en fonction de ladite représentation en trois dimensions (Re) de ladite surface à traiter ;
    caractérisé en ce que lesdits moyens de détermination intègrent au moins un modèle générique (ml-m3) en trois dimensions pour lequel au moins une séquence de déplacements (Tx) est connue ; ledit dispositif comportant des moyens d’adaptation (18, 23) dudit modèle générique (ml-m3) avec ladite représentation en trois dimensions (Re) de ladite surface à traiter aptes à déformer ledit modèle générique (ml-m3) et ladite au moins une séquence de déplacements (Tx) connues pour correspondre à ladite représentation en trois dimensions (Re) de ladite surface à traiter .
  2. 2. Dispositif selon la revendication 1, dans lequel ladite au moins une séquence de déplacements (Tx) connue intègre des positions pour lesquelles des actions sont préprogrammées pour ledit robot.
  3. 3. Dispositif selon la revendication 1 ou 2, dans lequel ledit modèle générique (mlm3) et ladite représentation en trois dimensions (Re) de ladite surface à traiter étant formalisés sous la forme de nuages de points, lesdits moyens d’adaptation (23) comportent :
    - des moyens de calcul (19) d’une direction normale à chaque point de ladite représentation en trois dimensions (Re) de ladite surface à traiter ; et
    - des moyens de recherche (20), pour chaque point du nuage de points de ladite représentation en trois dimensions (Re), du point du modèle générique (ml-m3) dans un voisinage proche pour lequel la différence entre la direction normale du point du modèle générique (ml-m3) et la direction normale du point d’intérêt est la plus faible ;
    - des moyens de détermination (21) d’une distance entre ledit point détecté du modèle générique (ml-m3) et ledit point d’intérêt ; et
    - des moyens de recherche (22) d’une transformation globale du modèle générique (ml-m3) en fonction des distances déterminées pour l’ensemble des points du nuage de points de ladite représentation en trois dimensions (Re).
  4. 4. Dispositif selon la revendication 3, dans lequel lesdits moyens de recherche (20) sont configurés pour rechercher les points du modèle générique dans une sphère prédéfinie autour du point d’intérêt.
  5. 5. Dispositif selon la revendication 3 ou 4, dans lequel les directions normales sont déterminées par construction d’une face au moyen des coordonnées des trois ou quatre points les plus proches du point d’intérêt.
  6. 6. Dispositif selon l’une des revendications 1 à 5, dans lequel lesdits moyens d’adaptation (18) comportent :
    - des moyens de détection (16) de points caractéristiques (Pref) sur ladite représentation en trois dimensions (Re) ; et
    - des moyens de déformation (18) du modèle générique (ml-m3) en rotation et/ou en translation de sorte que ladite position desdits points caractéristiques corresponde à une position de points caractéristiques du modèle générique.
  7. 7. Dispositif selon l’une des revendications 1 à 6, dans lequel lesdits moyens d’acquisition (14) comportent des moyens de pré-traitement (15) de ladite représentation en trois dimensions (Re) au moyen de la capture de plusieurs représentations en trois dimensions (Re) et de la réalisation d’une moyenne des coordonnées des points entre les différentes représentations en trois dimensions (Re).
  8. 8. Dispositif selon la revendication 7, dans lequel lesdits moyens de prétraitement (15) réalisent un filtrage de ladite moyenne des coordonnées des points entre les différentes représentations en trois dimensions (Re).
  9. 9. Robot de soin comportant :
    - un bras articulé ;
    - un effecteur disposé à une extrémité du bras articulé ;
    - un dispositif de capture d’images en trois dimension (Re) ; et
    - un dispositif de gestion des déplacements (10) selon l’une des revendications 1 à
  10. 10. Robot de soin selon la revendication 9, dans lequel lesdits moyens d’acquisition (14) sont disposés sur ledit bras articulé (12) ou sur ledit effecteur.
FR1755812A 2017-06-26 2017-06-26 Dispositif de gestion des deplacements d'un robot et robot de soin associe Active FR3067957B1 (fr)

Priority Applications (9)

Application Number Priority Date Filing Date Title
FR1755812A FR3067957B1 (fr) 2017-06-26 2017-06-26 Dispositif de gestion des deplacements d'un robot et robot de soin associe
PCT/EP2018/066672 WO2019002104A1 (fr) 2017-06-26 2018-06-21 Dispositif de gestion des deplacements d'un robot et robot de soin associe
EP18731147.7A EP3645218A1 (fr) 2017-06-26 2018-06-21 Dispositif de gestion des deplacements d'un robot et robot de soin associe
SG11201912547UA SG11201912547UA (en) 2017-06-26 2018-06-21 Device for managing the movements of a robot, and associated treatment robot
KR1020207002557A KR102500626B1 (ko) 2017-06-26 2018-06-21 로봇의 움직임을 제어하기 위한 장치 및 이에 관련된 치료 로봇
US16/625,704 US11338443B2 (en) 2017-06-26 2018-06-21 Device for managing the movements of a robot, and associated treatment robot
CN201880042150.5A CN110785269B (zh) 2017-06-26 2018-06-21 用于管理机器人和相关治疗机器人的运动的设备
JP2020520716A JP7097956B2 (ja) 2017-06-26 2018-06-21 ロボットの移動を管理するための装置、及び関連する処理ロボット
CA3067555A CA3067555A1 (fr) 2017-06-26 2018-06-21 Dispositif de gestion des deplacements d'un robot et robot de soin associe

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1755812A FR3067957B1 (fr) 2017-06-26 2017-06-26 Dispositif de gestion des deplacements d'un robot et robot de soin associe
FR1755812 2017-06-26

Publications (2)

Publication Number Publication Date
FR3067957A1 true FR3067957A1 (fr) 2018-12-28
FR3067957B1 FR3067957B1 (fr) 2020-10-23

Family

ID=59521126

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1755812A Active FR3067957B1 (fr) 2017-06-26 2017-06-26 Dispositif de gestion des deplacements d'un robot et robot de soin associe

Country Status (9)

Country Link
US (1) US11338443B2 (fr)
EP (1) EP3645218A1 (fr)
JP (1) JP7097956B2 (fr)
KR (1) KR102500626B1 (fr)
CN (1) CN110785269B (fr)
CA (1) CA3067555A1 (fr)
FR (1) FR3067957B1 (fr)
SG (1) SG11201912547UA (fr)
WO (1) WO2019002104A1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111571611A (zh) * 2020-05-26 2020-08-25 广州纳丽生物科技有限公司 一种基于面部及皮肤特征的面部作业机器人轨迹规划方法
FR3104054A1 (fr) * 2019-12-10 2021-06-11 Capsix Dispositif de definition d’une sequence de deplacements sur un modele generique

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD1009283S1 (en) 2020-04-22 2023-12-26 Aescape, Inc. Therapy end effector
US11999061B2 (en) 2020-05-12 2024-06-04 Aescape, Inc. Method and system for autonomous object manipulation
WO2021231663A2 (fr) 2020-05-12 2021-11-18 Aescape, Inc. Procédé et système d'interaction d'objet autonome
US11858144B2 (en) 2020-05-12 2024-01-02 Aescape, Inc. Method and system for autonomous body interaction
FR3127428A1 (fr) * 2021-09-30 2023-03-31 Exel Industries Procede de peinture d’une piece comprenant la generation d’une trajectoire adaptee a la piece reelle
FR3141853A1 (fr) 2022-11-14 2024-05-17 Capsix Effecteur de massage
US12083050B1 (en) 2023-09-06 2024-09-10 Aescape, Inc. Adjustable table system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010014781A1 (en) * 1999-12-16 2001-08-16 Elias Nissim Human touch massager
US20140257543A1 (en) * 2013-03-05 2014-09-11 Rolls-Royce Corporation Adaptively machining component surfaces and hole drilling
WO2015187092A1 (fr) * 2014-06-02 2015-12-10 Yizhong Zhang Appareil de massage automatique mobile

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02148307A (ja) 1988-11-30 1990-06-07 Kobe Steel Ltd 工業用ロボットの教示データ作成装置
US5083552A (en) * 1990-06-05 1992-01-28 Harvey Lipowitz Computer controlled massage device
JP3670700B2 (ja) * 1994-04-27 2005-07-13 株式会社日立製作所 ロボット機構制御方法
JPH10128684A (ja) * 1996-10-30 1998-05-19 Asahi Sanac Kk ロボットの動作プログラム作成方法及びその作成装置
US6267737B1 (en) * 1997-05-15 2001-07-31 Algis A. Meilus Robotic system for lengthening muscles and method of use
JP2001246582A (ja) 2000-02-29 2001-09-11 Mitsubishi Heavy Ind Ltd 作業用ロボット装置
SE524818C2 (sv) 2003-02-13 2004-10-05 Abb Ab En metod och ett system för att programmera en industrirobot att förflytta sig relativt definierade positioner på ett objekt
US20050089213A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Method and apparatus for three-dimensional modeling via an image mosaic system
JP2005138223A (ja) 2003-11-06 2005-06-02 Fanuc Ltd ロボット用位置データ修正装置
FR2875043B1 (fr) * 2004-09-06 2007-02-09 Innothera Sa Lab Dispositif pour etablir une representation tridimensionnelle complete d'un membre d'un patient a partir d'un nombre reduit de mesures prises sur ce membre
DE102006005958A1 (de) * 2006-02-08 2007-08-16 Kuka Roboter Gmbh Verfahren zum Erzeugen eines Umgebungsbildes
CN100517060C (zh) * 2006-06-01 2009-07-22 高宏 一种三维人像摄影方法
US8578579B2 (en) * 2007-12-11 2013-11-12 General Electric Company System and method for adaptive machining
US8918211B2 (en) * 2010-02-12 2014-12-23 Intuitive Surgical Operations, Inc. Medical robotic system providing sensory feedback indicating a difference between a commanded state and a preferred pose of an articulated instrument
CN101751689B (zh) * 2009-09-28 2012-02-22 中国科学院自动化研究所 一种三维人脸重建方法
KR20160033325A (ko) * 2014-09-17 2016-03-28 전자부품연구원 로봇암으로 제어되는 의료용 레이저 장치
US20170360578A1 (en) * 2014-12-04 2017-12-21 James Shin System and method for producing clinical models and prostheses
JP6497953B2 (ja) 2015-02-03 2019-04-10 キヤノン株式会社 オフライン教示装置、オフライン教示方法及びロボットシステム
US20170266077A1 (en) 2016-03-21 2017-09-21 Christian Campbell Mackin Robotic massage machine and method of use
CN106407930A (zh) * 2016-09-18 2017-02-15 长沙军鸽软件有限公司 一种按摩机器人的服务方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010014781A1 (en) * 1999-12-16 2001-08-16 Elias Nissim Human touch massager
US20140257543A1 (en) * 2013-03-05 2014-09-11 Rolls-Royce Corporation Adaptively machining component surfaces and hole drilling
WO2015187092A1 (fr) * 2014-06-02 2015-12-10 Yizhong Zhang Appareil de massage automatique mobile

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3104054A1 (fr) * 2019-12-10 2021-06-11 Capsix Dispositif de definition d’une sequence de deplacements sur un modele generique
WO2021116554A1 (fr) * 2019-12-10 2021-06-17 Capsix Dispositif de definition d'une sequence de deplacements sur un modele generique
CN111571611A (zh) * 2020-05-26 2020-08-25 广州纳丽生物科技有限公司 一种基于面部及皮肤特征的面部作业机器人轨迹规划方法
CN111571611B (zh) * 2020-05-26 2021-09-21 广州纳丽生物科技有限公司 一种基于面部及皮肤特征的面部作业机器人轨迹规划方法

Also Published As

Publication number Publication date
JP7097956B2 (ja) 2022-07-08
KR20200023646A (ko) 2020-03-05
EP3645218A1 (fr) 2020-05-06
US11338443B2 (en) 2022-05-24
CA3067555A1 (fr) 2019-01-03
CN110785269B (zh) 2023-04-07
CN110785269A (zh) 2020-02-11
US20210154852A1 (en) 2021-05-27
SG11201912547UA (en) 2020-01-30
FR3067957B1 (fr) 2020-10-23
WO2019002104A1 (fr) 2019-01-03
JP2020525306A (ja) 2020-08-27
KR102500626B1 (ko) 2023-02-15

Similar Documents

Publication Publication Date Title
FR3067957A1 (fr) Dispositif de gestion des deplacements d'un robot et robot de soin associe
EP4072794B1 (fr) Dispositif de definition d'une sequence de deplacements sur un modele generique
US10048749B2 (en) Gaze detection offset for gaze tracking models
CN102663820B (zh) 三维头部模型重建方法
CN115330958B (zh) 基于激光雷达的实时三维重建方法及装置
WO2015006224A1 (fr) Moteur de traitement de vision artificielle tridimensionnelle (3d) en temps réel pour une reconnaissance, une reconstruction et une analyse d'objet
WO2017017371A1 (fr) Procédé optimise d'analyse de la conformité de la surface d'un pneumatique
JP2007249280A (ja) 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
JP2009020761A (ja) 画像処理装置及びその方法
WO2020188064A1 (fr) Procede de guidage d'un bras robot, systeme de guidage
Chen et al. Fast capture of personalized avatar using two Kinects
Aydogdu et al. Comparison of three different CNN architectures for age classification
FR2999325A1 (fr) Procede iteratif de determination d'une image en deux dimensions ou trois dimensions a partir de signaux issus de tomographie par rayons x
WO2019149697A1 (fr) Procede d'enrichissement d'un modele numerique dentaire
Manfredi et al. Skin surface reconstruction and 3D vessels segmentation in speckle variance optical coherence tomography
EP3942532A1 (fr) Procede de generation d'une surface tridimensionnelle de travail d'un corps humain, systeme
FR3098332A1 (fr) Procédé et dispositif de détermination de l’amplitude d’un mouvement effectué par un membre d’un corps articulé
US11816806B2 (en) System and method for foot scanning via a mobile computing device
WO2020260635A1 (fr) Procédé d'analyse de la démarche d'un individu
Nguyen et al. 3D TECHNOLOGIES FOR INTANGIBLE CULTURAL HERITAGE PRESERVATION: CREATING 3D MODELS OF LACQUER ART THROUGH PHOTOGRAMMETRY.
Win Curve and Circle Fitting of 3D Data Acquired by RGB-D Sensor
Font Calafell et al. A proposal for automatic fruit harvesting by combining a low cost stereovision camera and a robotic arm

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20181228

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8