FR3141609A1 - Méthode pour la génération d’un point de penetration du corps d’un sujet et dispositif associé - Google Patents

Méthode pour la génération d’un point de penetration du corps d’un sujet et dispositif associé Download PDF

Info

Publication number
FR3141609A1
FR3141609A1 FR2211496A FR2211496A FR3141609A1 FR 3141609 A1 FR3141609 A1 FR 3141609A1 FR 2211496 A FR2211496 A FR 2211496A FR 2211496 A FR2211496 A FR 2211496A FR 3141609 A1 FR3141609 A1 FR 3141609A1
Authority
FR
France
Prior art keywords
interest
image
area
subject
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2211496A
Other languages
English (en)
Inventor
Al Hassan KARKAZAN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Karkazan Joseph Ahmad Bihes
Original Assignee
Karkazan Joseph Ahmad Bihes
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Karkazan Joseph Ahmad Bihes filed Critical Karkazan Joseph Ahmad Bihes
Priority to FR2211496A priority Critical patent/FR3141609A1/fr
Priority to PCT/EP2023/080882 priority patent/WO2024094895A1/fr
Publication of FR3141609A1 publication Critical patent/FR3141609A1/fr
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M19/00Local anaesthesia; Hypothermia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M5/00Devices for bringing media into the body in a subcutaneous, intra-vascular or intramuscular way; Accessories therefor, e.g. filling or cleaning devices, arm-rests
    • A61M5/42Devices for bringing media into the body in a subcutaneous, intra-vascular or intramuscular way; Accessories therefor, e.g. filling or cleaning devices, arm-rests having means for desensitising skin, for protruding skin to facilitate piercing, or for locating point where body is to be pierced
    • A61M5/427Locating point where body is to be pierced, e.g. vein location means using ultrasonic waves, injection site templates
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/10General characteristics of the apparatus with powered movement mechanisms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/13General characteristics of the apparatus with means for the detection of operative contact with patient, e.g. lip sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/33Controlling, regulating or measuring
    • A61M2205/332Force measuring means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/35Communication
    • A61M2205/3546Range
    • A61M2205/3553Range remote, e.g. between patient's home and doctor's office
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/58Means for facilitating use, e.g. by people with impaired vision
    • A61M2205/583Means for facilitating use, e.g. by people with impaired vision by visual feedback

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Anesthesiology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Vascular Medicine (AREA)
  • Hematology (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Robotics (AREA)
  • Dermatology (AREA)
  • Infusion, Injection, And Reservoir Apparatuses (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

MÉTHODE POUR LA GÉNÉRATION D’UN POINT DE PENETRATION DU CORPS D’UN SUJET ET DISPOSITIF ASSOCIÉ L’invention concerne une méthode mise en œuvre par ordinateur de génération d’un point de pénétration à la surface du corps d’un sujet comprenant les étapes suivantes : La réception d’une image optique (10) d’une portion prédéterminée de la surface de corps d’un sujet acquise par un module d’acquisition comprenant au moins une optique ; la sélection (SEL), sur l’image acquise (10), d’au moins une zone d’intérêt (24) sur la surface du corps ;la génération (GEN) d’un point de pénétration (21) sur la surface du corps à partir de la position de la au moins une zone d’intérêt (24) détectée sur la portion de surface de corps de l’utilisateur. Figure pour l’abrégé : Fig.6

Description

MÉTHODE POUR LA GÉNÉRATION D’UN POINT DE PENETRATION DU CORPS D’UN SUJET ET DISPOSITIF ASSOCIÉ Domaine de l’invention
L’invention concerne une méthode mise en œuvre par ordinateur pour déterminer, à partir d’une image d’une portion de corps, un point de pénétration, notamment pour l’injection d’un produit anesthésiant. L’invention concerne également un dispositif et un produit programme d’ordinateur associé ainsi qu’une mémoire comprenant un tel programme d’ordinateur.
État de la technique
Lors de certaines amputations ou chirurgies de la main sur des zones localisées de la main d’un patient, il est nécessaire d’appliquer des anesthésies locales de la zone de la main à traiter du patient.
Dans l’exemple de la main, les points d’injection de l’agent anesthésiant sont déterminants pour la réalisation d’une anesthésie efficace et localisée. En effet, en fonction de la zone que l’on veut anesthésier, les points dans lesquels l’injection d’agent anesthésiant doit être réalisée et souvent déportée de la zone à traiter, suivant généralement le chemin nerveux de la main.
On connait le document « Wide Awake Hand Surgery » de Donald Lalonde aux éditions Thieme décrivant les différents points d’injection en fonction des zones de la main lésées. Le chirurgien peut ainsi s’y référer pour déterminer les points d’injections.
Cependant, ce travail de comparaison pour déterminer les points d’injection peut être long et doit être réalisé par un personnel de santé expérimenté pour identifier sur la main du patient les zones lésées et celles qui ne le sont pas.
Il existe donc un besoin permettant au chirurgien de générer de manière automatique une indication sur la localisation du ou des points sur la surface de la main du patient où injecter l’agent anesthésiant.
Selon un aspect, l’invention concerne une méthode mise en œuvre par ordinateur de génération d’un point de pénétration à la surface du corps d’un sujet comprenant les étapes suivantes :
  • la réception d’une image optique d’une portion prédéterminée de la surface de corps d’un sujet acquise par un module d’acquisition optique ;
  • la sélection, sur l’image acquise, d’au moins une zone d’intérêt sur la surface du corps ;
  • la génération de coordonnées d’un point de pénétration sur la surface du corps à partir de la position de la au moins une zone d’intérêt détectée sur la portion de surface de corps de l’utilisateur.
L’invention permet ainsi la génération automatique d’un point de pénétration sur la surface de corps d’un sujet à partir d’une image optique. Un avantage est de donner des indications au chirurgien sur la localisation sur la main où l’injection doit être réalisée de manière plus fiable et plus rapide. Les point de pénétration comprennent préférentiellement des coordonnées spatiales en deux dimensions sur l’image acquise. Dans un mode de réalisation, ces coordonnées peuvent comprendre des coordonnées spatiales sur un nuage de points acquis à partir de l’image optique acquise.
Dans un mode d’exécution, ladite étape de sélection comprend la sélection sur l’image acquise d’au moins une zone d’intérêt par l’intermédiaire d’une interface utilisateur.
Un avantage est de permettre au chirurgien de donner en input au programme d’ordinateur des indications sur une zone de la portion de corps prédéterminée sur laquelle un acte chirurgical est prévu. La méthode, à partir de l’image acquise et de la sélection, peut alors générer le point de pénétration adéquat pour anesthésier ladite zone sélectionnée par l’intermédiaire de l’interface utilisateur.
Dans un mode d’exécution, l’étape de sélection est mise en œuvre par une fonction apprenante configurée pour :
  • recevoir en entrée une image d’une portion de surface de corps prédéterminée comprenant une zone lésée et
  • générer en sortie au moins une zone d’intérêt comprenant la zone lésée sur la portion de surface de corps.
Un avantage est de permettre la génération automatique, d’un point de pénétration à partir d’image optique en identifiant une zone lésée sur ladite portion et en générant le point de pénétration de manière à anesthésier la zone lésée identifiée en injectant un agent anesthésiant au point de pénétration. Préférentiellement, le point de pénétration est généré sur l’image optique acquise.
Dans un mode d’exécution, la fonction apprenante a été entrainée à partir d’une pluralité d’images de la portion prédéterminée de surface de corps de sujets labélisées, chaque label comprenant des informations relatives à la zone d’intérêt présente sur ladite surface de corps telles que des informations de taille et/ou de position.
Dans un mode d’exécution, le point de pénétration est généré en fonction de la position et des dimensions de ladite zone d’intérêt sur la portion de surface de corps.
Dans un mode d’exécution, la méthode comprend, en outre, l’affichage sur un afficheur d’une image comprenant la superposition de la portion prédéterminée de la surface de corps et le point de pénétration généré sur ladite portion et optionnellement un indicateur de visualisation de la zone d’intérêt superposée sur ladite portion de surface de corps.
Cette étape permet avantageusement au chirurgien de prendre connaissance du point de pénétration généré par la méthode. Il peut ainsi confirmer ce point et/ou injecter le produit anesthésiant dans le corps du sujet aux coordonnées indiquées. L’indicateur visuel peut comprendre en outre des instructions d’orientation de l’aiguille pour favoriser l’anesthésie de la zone d’intérêt du sujet.
Dans un mode d’exécution, la méthode comprend la génération d’une consigne de guidage pour guider une tête d’aiguille agencée en partie distale d’un élément déplaçable de manière à atteindre ledit point de pénétration. La génération des consignes de guidage permet ainsi de guider de donner à un bras robotique la trajectoire à réaliser pour introduire un dispositif d’injection dans le corps du sujet aux coordonnées du point de pénétration précédemment généré.
Dans un mode d’exécution, ladite étape de sélection est mise en œuvre par une fonction apprenante configurée pour :
  • recevoir en entrée des images d’une portion de surface de corps prédéterminée et
  • générer en sortie les coordonnées d’au moins un point de pénétration sur la surface de corps.
Dans un mode d’exécution, ladite fonction apprenante est entrainée à partir d’images de la portion de surface de corps prédéterminée ; lesdites images étant chacune labélisées par des informations comprenant les zones de la portion de surface de corps lésées et au moins un point de pénétration associé auxdites zones sur la portion de surface de corps.
Dans un mode d’exécution, la quantité d’une substance médicamenteuse ou anesthésiante est générée en fonction de ladite image acquise et/ou de la localisation des zones lésées sur la portion de surface de corps.
Un avantage est de permettre la génération d’une quantité de substance à injecter associée au point de pénétration généré. Ainsi, le chirurgien sait directement quelle quantité doit être injectée à chaque point de pénétration généré.
Selon un autre aspect, l’invention concerne un dispositif médical comprenant des moyens logiciels et/ou matériels pour la mise en œuvre de la méthode selon l’invention.
Dans un mode de réalisation, les moyens matériels comprennent un dispositif d’acquisition optique, un module informatique comprenant un calculateur/processeur et une mémoire, un afficheur et/ou un dispositif d’injection.
Selon un autre aspect, l’invention concerne un dispositif médical comprenant des moyens logiciels et/ou matériels pour la mise en œuvre des étapes de la méthode selon l’invention et un module d’actionnement comprenant un support porte-aiguille et un élément déplaçable tel qu’un bras robotique articulé pour déplacer ledit support porte-aiguille.
Ces moyens sont configurés pour générer la mise en mouvement automatique de l’élément déplaçable jusqu’à ce que le support porte-aiguille atteigne les coordonnées générées du point de pénétration. Un avantage est d’injecter automatiquement le produit anesthésiant à un sujet à partir d’image d’une portion de corps de ce dernier. Le nombre de patients opérable par un chirurgien en est donc amélioré.
Dans un mode de réalisation, le support porte-aiguille comprend une surface de butée et au moins une aiguille rétractable mobile entre deux positions, une première position rétractée dans lequel la pointe de l’aiguille est protégée derrière la surface de butée et une position d’injection dans lequel la pointe de l’aiguille fait saillie par rapport à la surface de butée. Un avantage est de permettre de vérifier que l’aiguille est bien positionnée pour injecter au niveau du point de pénétration avant de piquer le sujet. Un autre avantage est de réduire la douleur du patient.
Dans un mode de réalisation, la surface de butée comprend un capteur de pression et des moyens de commande pour déplacer l’aiguille de la position rétractée à la position d’injection lorsqu’une pression est détectée par ledit capteur de pression.
Dans un mode de réalisation, les moyens matériels comprennent un module informatique, comprenant optionnellement au moins un calculateur et au moins une mémoire ; au moins un module d’acquisition optique, et/ou un équipement porte-aiguille et un élément déplaçable tel qu’un bras robotique articulé pour déplacer ledit équipement porte-aiguille ; et/ou un écran d’affichage.
L’invention concerne également un produit-programme d’ordinateur, comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent le dispositif à mettre en œuvre la méthode selon l’invention. L’invention concerne également un support lisible par ordinateur (par exemple une mémoire non transitoire) sur laquelle est enregistré ledit produit-programme d’ordinateur.
Brève description des figures
D’autres caractéristiques et avantages de l’invention ressortiront à la lecture de la description détaillée qui suit, en référence aux figures annexées, qui illustrent :
: une vue schématique d’un dispositif selon un mode de réalisation de l’invention.
: une vue schématique d’une image d’une main d’un sujet sur un support comprenant une zone lésée.
: une vue schématique d’une image d’une main d’un sujet sur un support comprenant une zone d’intérêt générée sur ladite image.
: une vue schématique d’une image d’une main d’un sujet sur un support comprenant une zone d’intérêt et deux points de pénétration générée sur ladite image.
: une vue en coupe schématique d’un support porte-aiguille d’un dispositif selon un mode de réalisation de l’invention dans lequel l’aiguille est en position rétractée.
: une vue en coupe schématique d’un support porte-aiguille d’un dispositif la dans lequel l’aiguille est en position d’injection.
: une vue de dessous d’un dispositif porte-aiguille selon la .
: un logigramme représentant les étapes de la méthode selon un mode d’exécution de l’invention.
: une image schématique d’une image d’entrainement comprenant une pluralité de points de repère correspondant chacun à un point prédéterminé d’une main.
Description de l’invention
La description qui va suivre porte essentiellement sur un exemple pour la génération de points de pénétration de la main d’un sujet en vue d’injecter un agent anesthésiant. Le dispositif décrit et la méthode décrite peuvent également être appliqués à d’autres portions du corps humain ou animal (coude, bras, membres inférieurs …) et pour d’autres applications.
Le système et la méthode proposée peuvent s’adapter par exemple à d’autres types de chirurgie nécessitant de déterminer avec précision des points de pénétrations pour l’injection d’agent médicamenteux ou pour le traitement chirurgical (suture, incision, réparation osseuse, réparation tendineuse, nerveuse ou vasculaire …).
Dans l’exemple décrit, on dispose d’un dispositif 1 qui permet de générer sur une image de la main, des points d’injections d’agent anesthésiant en fonction des zones lésées de la main. Ce résultat est obtenu par la mise en œuvre de deux algorithmes successifs, un premier permettant d’identifier des zones lésées de la main, le second permettant de déterminer la position des points d’injection sur la main en fonction de la position des zones lésées sur la main.
Le dispositif fait, dans cet exemple, partie d’un système chirurgical 2 qui permet de pratiquer sur la main d’un patient une injection automatique d’un agent anesthésiant.
Module d’acquisition et support
Le dispositif comprend au moins un module d’acquisition d’une image optique. Le module d’acquisition optique est conçu pour acquérir des images optiques d’une portion de surface du sujet. Le module d’acquisition optique est conçu pour acquérir des images au moins dans les longueurs d’ondes du visible. Dans un exemple alternatif, le module d’acquisition optique est conçu pour acquérir des images dans le domaine des infrarouges.
L’optique comprend préférentiellement un appareil photographique ou une caméra.
Dans un mode de réalisation alternatif ou cumulatif, le dispositif comprend un module d’acquisition d’une carte de profondeur tel qu’une caméra stéréoscopique.
Le dispositif 1 peut comprendre en outre un support 25 destiné à recevoir la main 20 du sujet.
Préférentiellement, le module d’acquisition optique OPT est agencé de manière à capturer une image 10 d’une portion de corps 20 de sujet fixée sur le support.
L’acquisition de l’image 10 de la main 20 peut comprendre le placement d’une main dans un support 25. Le support 25 comprend une surface sensiblement plane destinée à recevoir la main 20 d’un sujet.
Le support 25 comprend préférentiellement des moyens 29 pour fixer la main du sujet dans une position prédéterminée. À ce titre, le support 25 peut comprendre des indications visuelles destinées à indiquer au sujet comment et où placer sa main sur le support. Dans un autre exemple, le support 25 comprend des parois de butée 29’ ou des moyens d’attache réversibles 29 conçus et agencés sur le support 25 pour fixer la main sur le support 25 en une position prédéterminée.
Un avantage est de permettre reproductibilité de la position de la main 20 sur l’image acquise 10, facilitant ainsi l’apprentissage d’un modèle d’apprentissage automatique.
Un second avantage est de permettre de sécuriser la position de la main lors de l’injection du produit anesthésiant.
Afficheur et interface utilisateur
Dans un mode de réalisation, le dispositif 1 comprend une interface utilisateur INT. L’interface utilisateur INT est conçue pour permettre à un utilisateur de transmettre des informations ou des commandes 15. L’interface utilisateur INT, aussi appelé « interface homme-machine » peut comprendre un clavier, une souris, une surface tactile ou tout autre moyen permettant à l’utilisateur de communiquer avec une machine ou un module informatique CALC.
Dans un mode de réalisation, le dispositif 1 ou le système médical 2 comprend en outre un afficheur AFF tel qu’un écran d’affichage. L’écran d’affichage est destiné à afficher les images acquises 10 et des informations visuelles telles que les zones d’intérêts générées 24 et/ou les points de pénétration 21 générée par la méthode selon l’invention et décrite ci-après.
Bras robotique
Le système chirurgical comprend un équipement porte aiguille IFG (désigné par « équipement » dans le reste de la description). Cet équipement IFG sert de préhenseur pour l’aiguille 103 d’injection.
Dans l’exemple illustré, l’équipement IFG est monté sur un élément déplaçable. L’élément déplaçable comprend préférentiellement un robot ROB de guidage multidirectionnel (désigné « robot » dans le reste de la description).
Le robot ROB peut comprendre un bras articulé qui permet le guidage de l’aiguille 103 en fonction d’instructions de guidage 13 reçues d’un module informatique CALC. Le robot ROB peut comprendre un robot 6 axes, offrant 6 degrés de liberté. Le bras robotique permet le déplacement de l’aiguille 103 dans les trois directions de l’espace et le changement de l’inclinaison et l’orientation de l’aiguille 103 grâce aux trois rotations autour de ces trois axes. Le bras robotisé peut encore être redondant à 7 axes afin d’avoir une redondance sur la posture du robot suivant la position de la main du sujet.
Dans un autre exemple, le robot de guidage multidirectionnel ROB comprend un robot monté sur rail dans deux directions de l’espace et mobile en translation selon la troisième direction de l’espace.
Le robot ROB comprend un ou une pluralité de moteurs permettant de générer la mobilité l’aiguille selon un ou plusieurs degrés de liberté en fonction des instructions de guidage. Le ou les moteurs sont asservis à un contrôleur de mouvement capable d’activer et de contrôler chaque moteur de manière indépendante.
Les instructions de guidage 13 comprennent des informations relatives aux déplacements ainsi qu’à l’inclinaison et l’orientation de l’aiguille par rapport à la main du patient dans le référentiel du robot ROB ou dans le référentiel du support 25 fixe.
Les consignes de guidage 13 sont générées par le module informatique CALC et transmises au contrôleur de mouvement du robot.
Équipement porte-aiguille
L’équipement porte-aiguille IFG est préférentiellement agencé sur la partie distale du bras robotisé. Un exemple d’équipement porte-aiguille IFG équipé d’une aiguille 103 est maintenant décrit en référence aux figures 3 à 5.
L’équipement IFG comprend des moyens pour coopérer solidairement avec l’aiguille 103. Le mode de réalisation décrit et illustré représente une unique aiguille 103. Cependant, il est entendu que l’équipement IFG peut être équipé d’au moins deux aiguilles. Les aiguilles peuvent avoir une taille sensiblement similaire ou des tailles différentes.
L’aiguille 103 est fixée à l’équipement IFG de manière amovible de manière à pouvoir remplacer l’aiguille 103 et à réutiliser l’équipement IFG indéfiniment en remplaçant l’ancienne aiguille par une aiguille neuve. L’équipement IFG comprend des moyens pour coopérer solidairement avec l’aiguille.
Dans cet exemple, l’aiguille 103 est une aiguille d’injection connectée à un réservoir 101 destiné à contenir un agent médicamenteux ou anesthésiant à injection dans la main 20 du sujet. L’aiguille 103 est connectée fluidiquement au réservoir 101 par un tuyau fluidique 102. Préférentiellement, l’équipement IFG comprend un moyen de contrôle du flux à travers l’aiguille 103. Dans un exemple, l’équipement comprend une pompe fluidique pour commander le passage d’une quantité prédéterminée de liquide du réservoir dans la main du sujet à travers l’aiguille. Dans un autre exemple, le réservoir comprend une seringue et l’équipement IFG comprend un système de piston 107 commandé à distance pour commander le passage d’une quantité prédéterminée de liquide du réservoir 101 dans la main 20 du sujet à travers l’aiguille 103.
Dans un mode réalisation, l’aiguille 103 est mobile dans l’équipement IFG entre deux positions : une première position rétractée et une seconde position d’injection.
Dans la première position rétractée illustrée sur la , l’extrémité distale de l’aiguille 103 est localisée du côté proximal de la paroi 100 de l’équipement IFG destinée à être en contact direct avec la peau du sujet. De cette manière, lorsque la paroi 100 de l’équipement IFG est en contact direct avec la peau du sujet, l’extrémité distale de l’aiguille 103 n’est pas en contact direct avec la peau du sujet.
Dans la seconde position d’injection illustrée sur la , l’extrémité distale de l’aiguille 103 fait saillie de la paroi 100 de l’équipement IFG. De cette manière, l’aiguille 103 pénètre dans la peau du sujet lorsque ladite paroi 100 est en contact direct avec la peau du sujet.
La paroi 100 peut comprendre un orifice 105 pour le passage de l’aiguille 103 de la position rétractée à la position d’injection.
L’équipement IFG peut comprendre un moteur ou un moyen d’actionnement pour provoquer le déplacement de l’aiguille 103 entre la première et la seconde position.
Dans l’exemple illustré, ladite paroi 100 comprend au moins un détecteur 104 permettant de détecter un contact entre la paroi 100 et la peau du sujet. Le détecteur 104 comprend préférentiellement un capteur de pression agencé de manière à émettre un signal lorsque la paroi est en contact avec la peau du sujet. Le détecteur 104 peut également comprendre un détecteur d’impédance ou tout autre moyen pour détecter un contact entre la peau du sujet et la paroi 100.
Dans un autre exemple non représenté, l’équipement IFG comprend des moyens pour mesurer la distance entre la paroi 100 de l’équipement IFG et la surface de peau du sujet. Ces moyens peuvent comprendre un couple d’émission / détection laser permettant de mesurer une distance sur la base du temps de vol du laser réfléchi sur la surface de peau du sujet.
Dans un premier exemple, le détecteur 104 est connecté au module informatique CALC ou à une autre unité de calcul. Dans un second exemple, le détecteur 104 est connecté au moteur ou au moyen d’actionnement pour provoquer le déplacement de l’aiguille 103 depuis la position rétractée à la position d’injection de manière automatique lorsqu’un contact est détecté.
Acquisition
Un exemple d’exécution de la méthode selon l’invention est maintenant décrit, notamment en référence à la .
Une image 10 de la main 25 est acquise CAPT par le module d’acquisition d’image OPT.
Préférentiellement, l’image 10 de la main est obtenue lorsque cette dernière est agencée à une position prédéterminée, par exemple posée à plat sur le support. Préférentiellement, le support 25 comprend une surface de couleur unie.
L’image optique acquise 10 est ensuite transmise REC à un module informatique CALC décrit plus loin qui reçoit ladite image acquise.
L’image optique acquise 10 peut être ensuite traitée préalablement à son utilisation. Par exemple, la méthode peut comprendre l’application d’un filtre de débruitage sur l’image.
Dans un autre exemple, l’image optique acquise 10 est traitée de manière à unifier l’arrière-plan de l’image, c’est-à-dire que les portions de l’image ne comprenant pas la main sont homogénéisées de manière à obtenir un fond uni.
Ces traitements permettent avantageusement de faciliter les étapes suivantes en fournissant au module informatique CALC des images 10 comprenant le moins de variations possible.
Sélection automatique des zones d’intérêts.
La méthode comprend une étape de détermination ou de sélection SEL d’au moins une zone d’intérêt 24 de la main 25 du sujet.
À partir de l’image acquise 10, un set d’information est généré comprenant les dimensions d’une zone d’intérêt 24 et les coordonnées de ladite zone d’intérêt 42. Dans un exemple illustré sur la , la zone d’intérêt 24 est caractérisée par une forme géométrique rectangulaire est générée sur l’image 10 encadrant une zone lésée 22 détectée sur l’image acquise 10 de la main 25.
Dans un premier exemple, cette étape SEL est mise en œuvre par un algorithme configuré pour recevoir en entrée une image de la main du sujet et pour générer en sortie une zone d’intérêt comprenant une zone lésée 22. Une zone lésée 22 désigne une portion de la surface du corps du sujet comprenant des plais ou autres lésions visibles sur la surface de corps.
La au moins une zone d’intérêt 24 comprend alors préférentiellement une zone de la surface de corps lésée dont les lésions sont visibles sur ladite surface de corps. La zone d’intérêt 24 générée comprend préférentiellement des informations relatives aux coordonnées de position de ladite zone d’intérêt et des informations relatives aux dimensions et/ou à la forme de la zone d’intérêt. Les coordonnées de la zone d’intérêt peuvent être relatives à la position de la main. Dans un exemple, un point d’intérêt de l’image acquise 10 est identifié et les coordonnées de la zone d’intérêt 24 générées sont relatives à la position dudit point d’intérêt qui sert de repère spatial.
Le point d’intérêt peut comprendre un point spécifique de la main du sujet reconnu par l’algorithme. Dans un autre exemple, le point d’intérêt reconnu comprend un élément du support sur lequel la main est positionnée lors de l’acquisition d’image, par exemple, un point d’une butée 29’.
Les dimensions et/ou la position de la zone d’intérêt 24 sont déterminées automatiquement de manière à encadrer partiellement ou totalement la zone lésée 22 visible sur l’image acquise.
Dans un mode de réalisation, la sélection d’une zone d’intérêt 24 est mise en œuvre par un premier algorithme de reconnaissance d’image.
L’algorithme de reconnaissance d’image comprend préférentiellement un premier module d’apprentissage automatique entrainé configuré pour générer une position et les dimensions d’au moins une zone d’intérêt 24 à partir d’une image acquise de la main d’un sujet.
L’algorithme de reconnaissance d’image peut être configuré pour générer une zone d’intérêt 24 de forme rectangulaire ou de n’importe quelle autre forme prédéterminée.
Dans un exemple, le premier module d’apprentissage automatique est mis en œuvre au moyen d’une fonction apprenante entrainée à partir d’un apprentissage supervisé et/ou automatique. La fonction apprenante comprend préférentiellement un réseau de neurones. La fonction apprenante est préférentiellement entrainée par une série d’images de la main labélisées.
La fonction apprenante du premier module d’apprentissage automatique a été entrainée à partir d’une série d’images de mains comprenant au moins une zone lésée 22 et labélisées avec les dimensions et les positions de zones d’intérêt encadrant totalement ou partiellement au moins une zone lésée 22 visible sur l’image associée.
Sélection assistée des zones d’intérêts.
Dans un exemple alternatif, la au moins une zone d’intérêt 24 est sélectionnée à partir d’une commande d’un utilisateur. Cette alternative est particulièrement avantageuse lorsque l’opération de chirurgie envisagée ne vise pas à réparer des lésions visibles sur la main du sujet. Par exemple, lors d’une fracture d’un os carpien, il arrive qu’aucune lésion ne soit visible sur l’image optique acquise 10.
Dans cet exemple, la au moins une zone d’intérêt est générée à partir d’une commande 15 générée par l’interface homme-machine INT. À ce titre, plusieurs modes alternatifs ou cumulatifs sont envisageables.
Dans un premier mode, la zone d’intérêt 24 peut être directement générée par l’utilisateur en renseignant à l’aide de l’interface homme-machine INT les dimensions et/ou la position sur l’image acquise de la zone d’intérêt. L’utilisateur peut renseigner à l’aide de l’interface homme-machine INT les coordonnées et/ou les dimensions de la zone d’intérêt 24. L’utilisateur peut également dessiner directement sur une surface tactile affichant sur l’image acquise 10 la ou les zones d’intérêt 24.
Dans un second mode, la consigne 15 renseignée par l’utilisateur par l’interface homme-machine INT comprend des informations préopératoires. La méthode comprend alors une étape mise en œuvre par ordinateur de sélection d’une zone d’intérêt 24 prédéterminée à partir des informations renseignées par l’intermédiaire de l’interface homme-machine INT.
Les informations préopératoires peuvent comprendre une pathologie ou une blessure. Les informations préopératoires peuvent comprendre en outre une portion de la main à opérer.
Dans ce mode, au moins une zone d’intérêt 24 est sélectionnée dans une bibliothèque enregistrée dans une mémoire MEM à partir desdites informations préopératoire. Préférentiellement, la bibliothèque comprend une pluralité de zones d’intérêt 24 ou de groupes de zones d’intérêt 24 et chaque zone ou groupe de zones est associé à une ou plusieurs informations préopératoires prédéterminées.
Génération des points d’injection
La méthode comprend en outre la génération GEN d’au moins un point de pénétration 21 sur la main 25 du sujet à partir de la au moins une zone d’intérêt 24 précédemment sélectionnée.
L’étape de génération GEN des points de pénétration 21 est préférentiellement mise en œuvre par ordinateur par un second module d’apprentissage automatique entrainé.
Le second module d’apprentissage automatique entrainé est configuré pour générer au moins un point de pénétration 21 à partir de l’image acquise 10 et à partir de la au moins une zone d’intérêt 24 générée.
Le point de pénétration 21 correspond au point sur la main 25 du sujet où le produit anesthésiant doit être injecté pour l’anesthésie de la zone lésée 22 ou de la zone sur laquelle l’acte chirurgical va être effectué.
Le point de pénétration 21 comprend préférentiellement des coordonnées sur l’image acquise 10. Préférentiellement, le point de pénétration 21 comprend des coordonnées relatives au point d’intérêt sur l’image acquise 10 tel que décrit précédemment.
Dans un exemple, le second module d’apprentissage automatique est mis en œuvre au moyen d’une seconde fonction apprenante entrainée à partir d’un apprentissage supervisé et/ou automatique. La seconde fonction apprenante comprend préférentiellement un réseau de neurones. La seconde fonction apprenante est préférentiellement entrainée par une série de données d’entrainement labélisée.
La série de données d’entrainement comprend une pluralité d’images (préférentiellement d’images optiques) de la main.
La série de données comprend une série d’images acquises de la main d’une pluralité de sujets, chacune associée à au moins une zone d’intérêt 24. Les zones d’intérêts 24 sont préférentiellement générées selon l’une des méthodes décrites ci-avant. Chacune des images est également associée à un label. Le label correspond aux coordonnées d’au moins un point de pénétration sur l’image de la main associée.
Dans un mode de réalisation, les images d’entrainements sont également labélisées avec des points de repère 26, 28. Un exemple d’une image d’entrainement comprenant de tels points de repère est illustré sur la .
Les points de repère peuvent comprendre des centres de masse 28 de la main ou d’une portion de la main. Les centres de masses peuvent être générés aux coordonnées correspondant sensiblement au centre d’une zone prédéterminée de la main. Par exemple, un point de repère peut correspondre au centre de masse de la paume de la main, d’une phalange, d’un doigt.
Les points de repère peuvent comprendre des points de déflexion 26. Les points de déflexion 26 sont générés à la frontière entre deux portions adjacentes de la main. Par exemple, un point de repère peut être généré entre les portions de la main correspondant à deux phalanges adjacentes du même doigt. La localisation d’un tel point de repère peut correspondre alors à la localisation d’une articulation, par exemple entre deux phalanges.
Les points de repère peuvent comprendre l’extrémité ou le bout d’un doigt. Un tel point d’intérêt peut être généré à l’extrémité distale de la région d’intérêt correspondant à la dernière phalange d’un doigt, ou correspondant à un centre de masse de la région d’intérêt correspondant à la dernière phalange d’un doigt. Les différents points de repère peuvent être reliés entre eux par des segments 27.
Dans un mode de réalisation, l’étape de génération des points d’intérêt sur les images d’entrainement est réalisée manuellement à l’aide d’une interface homme-machine.
Dans un mode de réalisation, l’étape de génération des points d’intérêt comprend la génération des coordonnées en deux dimensions de chaque point de repère sur l’image d’entrainement.
Chaque point de repère peut être associé à un label comprenant un identifiant de la région de la main associé audit point.
Un avantage de ces points de repère sur l’image d’entrainement est de permettre au second module d’apprentissage automatique d’apprendre plus rapidement et avec plus de précision les différentes régions de la main. La seconde fonction apprenante apprend plus facilement la position relative des zones d’intérêt et des points de pénétration en les comparant aux positions des points de repère correspondant à des points spécifiques de la main comme les articulations.
Les points de repère comprennent des coordonnées d’un point ou d’une zone sur l’image acquise et une information de labellisation correspondant à une information d’identification. Par exemple, l’information d’identification permet de retrouver, d’une image à l’autre, une articulation prédéterminée.
Un second module d’apprentissage automatique entrainé avec de telles données d’entrées est avantageusement plus performant pour déterminer, à partir d’une image optique 10 et des zones d’intérêt 24, des points de pénétration 21.
Dans un mode de réalisation, les points de pénétration 21 sont associés à une quantité d’agents anesthésiants à injecter. Dans ce mode, le point de pénétration 21 générée par la fonction apprenante comprend une quantité ou un volume d’agent anesthésiant à injecter. Pour générer cette quantité associée au point de pénétration 21, les points de pénétration associée aux images d’entrainement sont chacun associés à une quantité prédéterminée.
Dans un mode d’exécution alternatif ou cumulatif, la méthode comprend l’acquisition d’une image infrarouge de la main du sujet. Une telle acquisition peut être réalisée par un dispositif d’acquisition d’une image infrarouge tel qu’une caméra infrarouge.
Un avantage d’une telle image infrarouge est de permettre la mise en évidence sur cette image de la cartographie veineuse de la main ou de la portion de corps du sujet.
Dans un mode d’exécution, l’image infrarouge acquise est transmise et réceptionnée par le module informatique. La méthode comprend alors une étape d’identification des canaux veineux de la main du sujet. Cette identification peut être mise en œuvre par un algorithme de reconnaissance d’image ou par un algorithme de détection d’intensité lumineuse de l’image infrarouge acquise.
Dans un mode d’acquisition, la méthode comprend une étape d’ajustement du point de pénétration généré si ledit point de pénétration généré est situé sur ou à proximité d’un canal veineux de la main du sujet. Un avantage est d’éviter l’injection d’agents thérapeutiques ou anesthésiants dans le réseau veineux du sujet.
Cette étape peut comprendre une comparaison du point de pénétration avec les coordonnées des différents canaux veineux identifiées sur l’image infrarouge. Si la différence entre le point de pénétration généré et un canal veineux identifié est en dessous d’un seuil prédéterminé, la méthode comprend une étape de génération d’un nouveau point de pénétration. Dans un mode d’exécution, les coordonnées du nouveau point de pénétration sont générées de manière que la distance le nouveau point de pénétration et le canal veineux soit supérieur à une valeur seuil prédéterminée.
Augmentation des données d’entrainement
Préférentiellement, le dispositif 1 comprend des moyens de traitement d’image pour traiter les images reçues avant de les fournir au premier ou deuxième module d’apprentissage automatique. Ces moyens de traitement peuvent comprendre des filtres d’images ou des fonctions de contraste.
Dans un mode, les images de la pluralité d’images de mains pour l’entrainement du premier module d’apprentissage automatique et/ou du second module d’apprentissage automatique ont été générées à partir d’images acquises prétraitées par des traitements de débruitage et/ou d’unification de l’arrière-plan.
Dans un mode, les images de la pluralité d’images de mains pour l’entrainement du premier module d’apprentissage automatique ont été générées à partir d’images acquises sur lesquelles différentes opérations ont été mises en œuvre.
Cela permet avantageusement, à partir d’une image acquise, de générer une pluralité d’images de la main afin d’augmenter les données d’entrainement du premier module d’apprentissage automatique.
Lesdites opérations peuvent comprendre des opérations de zoom aléatoires, de flou gaussien et/ou de variation de teinte ou de luminosité de l’image acquise.
Lesdites opérations peuvent aussi comprendre l’application d’une inversion d’image par rapport à un axe de symétrie. Cette opération permet avantageusement de doubler le nombre d’images d’entrainement puisqu’avec une image d’entrainement de main droite, on génère une image d’entrainement de main gauche et inversement.
Dans un mode d’exécution particulier, la méthode comprend l’acquisition d’un nuage de point de la main du sujet. L’acquisition du nuage de points peut être mise en œuvre de manière cumulative ou en alternative de l’acquisition d’image optique de la main du sujet. Le nuage de point peut alors être acquis à partir d’une caméra stéréoscopique ou d’une caméra de profondeur.
Module informatique
Le dispositif médical comprend en outre module informatique CALC.
Dans un premier exemple illustré sur la , un module informatique comprend au moins un processeur PRO configuré pour mettre en œuvre la méthode selon l’invention et au moins une mémoire MEM, préférentiellement une mémoire non transitoire, pour stocker des données et/ou pour stocker un produit-programme d’ordinateur.
Préférentiellement, le premier module d’apprentissage automatique entrainé et/ou le second module d’apprentissage automatique entrainé sont enregistrés dans la mémoire. Le processeur est configuré pour mettre en œuvre, le premier module d’apprentissage automatique entrainé et/ou le second module d’apprentissage automatique entrainé.
Dans un second exemple non illustré, le module informatique CALC comprend des moyens de communication pour transmettre et recevoir des données depuis un serveur distant. Le serveur distant est alors configuré pour mettre en œuvre l’étape de sélection d’une zone d’intérêt 24 et/ou l’étape de génération d’au moins un point de pénétration décrite ci-avant.
Le module informatique CALC est connecté au dispositif d’acquisition optique OPT de manière à recevoir les images acquises 10 par le dispositif d’acquisition optique.
À ce titre, le module informatique CALC comprend des moyens de réception d’information pour la réception d’images optiques 10, notamment des images optiques acquises par le dispositif d’acquisition OPT.
Le module informatique CALC peut être connecté à un afficheur AFF. Dans un exemple, le module informatique est configuré pour transmettre l’image acquise 10 à l’afficheur.
Dans un autre exemple, le module informatique est configuré pour afficher sur l’afficheur l’image acquise ainsi que les points de pénétration générée. Préférentiellement, les points de pénétration 21 sont affichés en superposition de l’image acquise sur l’afficheur à la position correspondant aux coordonnées générées dudit point de pénétration.
Dans un mode de réalisation, le module informatique CALC est connecté à l’interface homme-machine INT et est configuré pour recevoir des commandes 15 générées par l’interface homme-machine INT.
Guidage du bras robotique
Dans un mode d’exécution, la méthode comprend en outre, à partir des coordonnées du au moins un point de pénétration 21 généré, la génération GUI d’une consigne de guidage 13. La consigne de guidage 13 permet avantageusement de guider l’aiguille 103 depuis une position de départ jusqu’ au point de pénétration 21 sur la surface de la main précédemment généré.
La consigne de guidage 13 est préférentiellement transmise au contrôleur de mouvement du robot.
Le robot ROB est ainsi un mouvement à partir des consignes de guidage 15 reçues jusqu’à ce que l’aiguille 103 soit en position d’atteindre le point de pénétration 21 générée sur la main 20 du sujet. Préférentiellement, la main 20 du sujet est attachée sur le support 25 selon une position prédéterminée, ce qui permet avantageusement au robot d’atteindre un point de pénétration 21 sur la main puisque la position de ce dernier est localisable dans le référentiel du support 25.
Dans un autre mode, le robot ROB comprend un capteur pour détecter la position de la main et la consigne de guidage est adaptée en fonction de la position de la main dans le référentiel du robot et en fonction des coordonnées sur la main du point de pénétration.
Préférentiellement, les consignes de guidages 13 comprennent des instructions de trajectoire et d’inclinaison et d’orientation de l’équipement de manière à apposer l’orifice 105 de l’équipement au contact de la peau du sujet sur le point de pénétration. Il est entendu que la trajectoire de guidage permet de déplacer l’équipement jusqu’à ce que la paroi 100 de ce dernier soit en contact avec la peau du sujet de telle manière à ce que le point de pénétration 21 générée soit au moins partiellement recouvert par l’orifice 105 de la paroi 100 dudit équipement.
Injection du produit anesthésiant
Dans un mode d’exécution, l’équipement est configuré pour, lorsque le détecteur 104 détecte le contact avec la peau du sujet, mettre en œuvre une étape de pénétration INJ comprenant le déplacement de l’aiguille en position d’injection. L’aiguille 103 pénètre ainsi dans la peau du sujet au niveau du point d’injection 21.
Une commande d’injection de l’agent médicamenteux est alors transmise à l’équipement IFG qui, en réponse, provoque l’injection du l’agent médicamenteux depuis le réservoir dans la peau du patient à travers l’aiguille.
Préférentiellement, la commande d’injection comprend une quantité ou un volume prédéterminé d’agent anesthésiant à injecter. Dans un mode de réalisation, le module informatique CALC est connecté au moyen de contrôle du flux (tel que le moyen de contrôle du piston 107 décrit précédemment). Le module informatique CALC est alors configuré pour activer la délivrance de la quantité prédéterminée d’agents du réservoir à travers l’aiguille 103. Cette quantité ou ce volume prédéterminé est préférentiellement fonction de la quantité générée par le module informatique CALC à partir de l’image optique 10 et de la au moins une zone d’intérêt 24 comme décrit précédemment.
Contrôle de l’opérateur
Dans un mode d’exécution, le module informatique CALC est configuré pour faire afficher sur l’afficheur AFF le au moins un point de pénétration 21 généré et l’opérateur peut alors lancer la commande de guidage par une action sur l’interface homme-machine. De la même manière, une fois l’orifice de l’équipement au contact de la peau du sujet au niveau du point de pénétration, l’opérateur peut lancer manuellement l’injection par une action de confirmation sur l’interface homme-machine.
Dans un mode de réalisation alternatif, l’opérateur peut déplacer manuellement un équipement IFG tel que décrit ci-avant sur la peau du sujet de manière que l’orifice 105 de l’équipement IFG recouvre au moins partiellement le point de pénétration 21 généré.
Il est entendu que l’exemple décrit en référence aux figures ne limite pas l’invention à une la génération de points de pénétration 21 de la main, mais peut être appliqué à n’importe quel membre, notamment les membres inférieurs et supérieurs. De même, l’invention ne se limite pas à la génération de point de pénétration pour l’injection d’un produit anesthésiant.

Claims (10)

  1. Méthode mise en œuvre par ordinateur de génération d’un point de pénétration à la surface du corps d’un sujet comprenant les étapes suivantes :
    • la réception d’une image optique (10) d’une portion prédéterminée (20) de la surface de corps d’un sujet acquise par un module d’acquisition optique (OPT) ;
    • la sélection (SEL), sur l’image acquise (10), d’au moins une zone d’intérêt (24) sur la surface du corps ;
    • la génération (GEN) de coordonnées d’un point de pénétration (21) sur la surface du corps à partir de la position de la au moins une zone d’intérêt (24) sélectionnée sur la portion de surface de corps de l’utilisateur (20).
  2. Méthode selon la revendication 1 dans laquelle ladite étape de sélection (SEL) comprend la sélection sur l’image acquise (10) d’au moins une zone d’intérêt (24) par l’intermédiaire d’une interface utilisateur (INT).
  3. Méthode selon la revendication 1 dans laquelle l’étape de sélection (SEL) est mise en œuvre par une fonction apprenante configurée pour :
    • recevoir en entrée une image (10) d’une portion de surface de corps (20) prédéterminée comprenant une zone lésée (22), et
    • générer en sortie au moins une zone d’intérêt (24) comprenant l’image de la zone lésée (22) sur la portion de surface de corps.
  4. Méthode selon la revendication 3, dans laquelle la fonction apprenante a été entrainée à partir d’une pluralité d’images de la portion prédéterminée de surface de corps de sujets labélisées, chaque label comprenant des informations relatives à la zone d’intérêt (24) présente sur ladite surface de corps telles que des informations de taille et/ou de position.
  5. Méthode selon l’une des revendications 1 à 4, dans laquelle les coordonnées du point de pénétration (21) sont générées en fonction de la position et des dimensions de ladite zone d’intérêt (24) sur la portion de surface de corps (20).
  6. Méthode selon l’une des revendications précédentes comprenant, en outre, l’affichage sur un afficheur (AFF) d’une image comprenant la superposition de la portion prédéterminée de la surface de corps et le point de pénétration (21) généré sur ladite portion et, optionnellement, un indicateur de visualisation de la zone d’intérêt (24) superposée sur ladite portion de surface de corps (20).
  7. Méthode selon l’une des revendications précédentes comprenant la génération d’une consigne de guidage (13) pour guider une tête d’aiguille agencée en partie distale d’un élément déplaçable de manière à atteindre ledit point de pénétration.
  8. Dispositif médical (1) comprenant des moyens logiciels et/ou matériels pour la mise en œuvre de la méthode selon l’une des revendications précédentes.
  9. Produit programme d’ordinateur, comprenant des instructions qui, lorsque le programme est exécuté par un ordinateur, conduisent le dispositif selon la revendication 8 à mettre en œuvre la méthode selon l’une des revendications 1 à 7.
  10. Support lisible par ordinateur (MEM) sur lequel est enregistré le produit-programme d’ordinateur selon la revendication 9.
FR2211496A 2022-11-04 2022-11-04 Méthode pour la génération d’un point de penetration du corps d’un sujet et dispositif associé Pending FR3141609A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2211496A FR3141609A1 (fr) 2022-11-04 2022-11-04 Méthode pour la génération d’un point de penetration du corps d’un sujet et dispositif associé
PCT/EP2023/080882 WO2024094895A1 (fr) 2022-11-04 2023-11-06 Methode pour la generation d'un point de penetration du corps d'un sujet et dispositif associe

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2211496 2022-11-04
FR2211496A FR3141609A1 (fr) 2022-11-04 2022-11-04 Méthode pour la génération d’un point de penetration du corps d’un sujet et dispositif associé

Publications (1)

Publication Number Publication Date
FR3141609A1 true FR3141609A1 (fr) 2024-05-10

Family

ID=85937243

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2211496A Pending FR3141609A1 (fr) 2022-11-04 2022-11-04 Méthode pour la génération d’un point de penetration du corps d’un sujet et dispositif associé

Country Status (2)

Country Link
FR (1) FR3141609A1 (fr)
WO (1) WO2024094895A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016069936A1 (fr) * 2014-10-29 2016-05-06 Cedars-Sinai Medical Center Appareils, systèmes et procédés pour l'administration contrôlée d'agents thérapeutiques et de substances apparentées
US20170259013A1 (en) * 2012-10-30 2017-09-14 Elwha Llc Systems and Methods for Generating an Injection Guide
US20190365475A1 (en) * 2011-02-17 2019-12-05 The Trustees Of Dartmouth College Systems and methods for guiding tissue resection
FR3104934A1 (fr) * 2019-12-18 2021-06-25 Quantum Surgical Méthode de planification automatique d’une trajectoire pour une intervention médicale

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190365475A1 (en) * 2011-02-17 2019-12-05 The Trustees Of Dartmouth College Systems and methods for guiding tissue resection
US20170259013A1 (en) * 2012-10-30 2017-09-14 Elwha Llc Systems and Methods for Generating an Injection Guide
WO2016069936A1 (fr) * 2014-10-29 2016-05-06 Cedars-Sinai Medical Center Appareils, systèmes et procédés pour l'administration contrôlée d'agents thérapeutiques et de substances apparentées
FR3104934A1 (fr) * 2019-12-18 2021-06-25 Quantum Surgical Méthode de planification automatique d’une trajectoire pour une intervention médicale

Also Published As

Publication number Publication date
WO2024094895A1 (fr) 2024-05-10

Similar Documents

Publication Publication Date Title
KR101483501B1 (ko) 안과장치 및 그 제어 방법
US7458685B2 (en) Automated fundus imaging system
CN103096785B (zh) 眼科设备及其控制方法
US20150198797A1 (en) Perfusion assessment multi-modality optical medical device
KR101660157B1 (ko) 시선 추적 기반 재활 시스템
CN107249497A (zh) 手术室和手术部位感知
US20130307935A1 (en) Imaging system and method
US20230351708A1 (en) Methods and systems for alignment of a subject for medical imaging
CN106456148A (zh) 使用眼球凝视跟踪的医疗装置、系统和方法
CN106659541A (zh) 集成眼球凝视跟踪用于立体观看器的医疗装置、系统和方法
CN107041729A (zh) 双目近红外成像系统及血管识别方法
US10820793B2 (en) Biological object observation system and non-transitory computer-readable medium
US8512323B2 (en) Devices and methods for computer-assisted surgery
KR101284865B1 (ko) 혈관 인식 장치, 그 방법 및 기록 매체
WO2017151904A1 (fr) Procédés et systèmes de calage d'images anatomiques
AU718942B2 (en) Medical laser guidance apparatus
FR3141609A1 (fr) Méthode pour la génération d’un point de penetration du corps d’un sujet et dispositif associé
JP6556466B2 (ja) レーザ治療装置
US20200305696A1 (en) Tissue detection system and methods for use thereof
CN110638524B (zh) 一种基于vr眼镜的肿瘤穿刺实时模拟系统
KR101635735B1 (ko) 코 또는 그 주변의 혈관을 가시화하는 혈관 가시화 장치 및 방법
US11224329B2 (en) Medical observation apparatus
KR20180100831A (ko) 수술로봇 카메라의 시점 제어 방법 및 이를 위한 장치
JP7024240B2 (ja) 眼科システムおよび眼科システム制御プログラム
US20220361952A1 (en) Physical medical element placement systems

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240510