FR3130551A1 - Procédé et système pour guider un utilisateur tenant dans une main une sonde d’observation échographique vers une fenêtre acoustique préenregistrée. - Google Patents

Procédé et système pour guider un utilisateur tenant dans une main une sonde d’observation échographique vers une fenêtre acoustique préenregistrée. Download PDF

Info

Publication number
FR3130551A1
FR3130551A1 FR2114051A FR2114051A FR3130551A1 FR 3130551 A1 FR3130551 A1 FR 3130551A1 FR 2114051 A FR2114051 A FR 2114051A FR 2114051 A FR2114051 A FR 2114051A FR 3130551 A1 FR3130551 A1 FR 3130551A1
Authority
FR
France
Prior art keywords
probe
point
recorded
polygon
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2114051A
Other languages
English (en)
Inventor
Philippe Arbeille
Didier CHAPUT
François DERACHE
Orphée FAUCOZ
Aristée THEVENON
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medes Inst Medecine Physiologie Spatiale
Centre National dEtudes Spatiales CNES
Original Assignee
Medes Inst Medecine Physiologie Spatiale
Centre National dEtudes Spatiales CNES
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medes Inst Medecine Physiologie Spatiale, Centre National dEtudes Spatiales CNES filed Critical Medes Inst Medecine Physiologie Spatiale
Priority to FR2114051A priority Critical patent/FR3130551A1/fr
Priority to PCT/FR2022/052359 priority patent/WO2023118702A1/fr
Publication of FR3130551A1 publication Critical patent/FR3130551A1/fr
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Procédé (100) comprenant les étapes suivantes: poser (101) un support, pour maintenir un objet (3) comprenant des marqueurs dans une position et une orientation prédéterminée dans un repère de référence; acquérir (102) une image; déterminer (103) le repère de référence, à partir des marqueurs par un traitement d’image; déterminer (104) des coordonnées d’un sommet d’un polygone (P) placé dans un plan transverse à la direction enregistrée (DE) de la sonde ; afficher (105) l’image; projeter (106) sur l’image, le sommet d’un polygone (P) ; déterminer (107) la position actuelle (PA) et la direction actuelle (DA) de la sonde (1) dans le repère de référence; déterminer (108) des coordonnées dans le repère de référence du sommet du polygone (P) placé dans un deuxième plan transverse à la direction actuelle de la sonde ; projeter (109) sur l’image le sommet; amener (110) la sonde dans une nouvelle position actuelle et un nouvelle direction actuelle. Figure 1

Description

Procédé et système pour guider un utilisateur tenant dans une main une sonde d’observation échographique vers une fenêtre acoustique préenregistrée.
La présente invention concerne le domaine de l’utilisation de sonde configurée pour l’observation échographique d’un patient.
Il est important, pour poser un diagnostic correct, que la sonde d’observation soit correctement positionnée. Or si un expert en échographie sait manipuler la sonde pour trouver la fenêtre acoustique appropriée, i.e. la position et la direction de la sonde qui permettront d’observer l’organe considéré dans des conditions satisfaisantes, il n’en est pas de même pour un utilisateur novice qui aura du mal à trouver la position et la direction correcte de la sonde afin d’obtenir une image exploitable pour un diagnostic médical.
L’utilisateur novice a besoin d’être aidé pour trouver la bonne position et la bonne orientation de la sonde qu’un utilisateur expert a préalablement sauvegardé.
L’invention a donc pour but de proposer une solution à tout ou partie de ces problèmes.
A cet effet, la présente invention concerne un procédé pour guider un utilisateur tenant dans une main une sonde configurée pour l’observation échographique d’un corps d’un patient, la sonde étant munie d’un premier objet solidaire de la sonde, le premier objet comprenant des premiers marqueurs sur la surface du premier objet, la sonde étant tenue dans une position actuelle et selon une direction actuelle, un dispositif d’affichage configuré pour recevoir au moins une image acquise par une caméra configurée pour observer dans son champ la sonde, le premier objet, et un deuxième objet comprenant des deuxièmes marqueurs sur la surface du deuxième objet, l’utilisateur étant guidé vers une position enregistrée et une direction enregistrée de la sonde, le procédé comprenant les étapes suivantes:
- poser un support en un point prédéterminé de la surface du corps du patient observé avec la sonde, le support étant configuré pour recevoir sur une surface du support le deuxième objet en maintenant le deuxième objet dans une position et une orientation prédéterminée du deuxième objet par rapport à un repère de référence fixe par rapport au corps du patient;
- poser le deuxième objet sur la surface du support, de sorte que le deuxième objet est maintenu dans une position et une orientation prédéterminée par rapport au repère de référence fixe par rapport au corps du patient.
- acquérir au moins une image avec la caméra ;
- déterminer le repère de référence, à partir des deuxièmes marqueurs identifiables par un traitement de l’au moins une image, la position enregistrée et la direction enregistrée de la sonde étant définie dans ledit repère de référence;
- dans le repère de référence, déterminer des coordonnées d’au moins un premier point correspondant à un sommet d’un polygone placé dans un premier plan transverse à la direction enregistrée de la sonde, de sorte qu’une zone centrale du polygone est traversée par une droite parallèle à la direction enregistrée de la sonde et passant par la position enregistrée de la sonde;
- afficher l’au moins une image sur le dispositif d’affichage;
- projeter, en réalité augmentée sur l’au moins une image affichée, l’au moins un premier point;
- déterminer la position actuelle et la direction actuelle de la sonde dans le repère de référence, à partir des premiers marqueurs identifiables par un autre traitement de l’au moins une image;
- déterminer des coordonnées dans le repère de référence d’au moins un deuxième point, l’au moins un deuxième point correspondant au sommet du polygone placé dans un deuxième plan transverse à la direction actuelle de la sonde, de sorte qu’une zone centrale du polygone est traversée par une droite parallèle à la direction actuelle de la sonde et passant par la position actuelle de la sonde;
- projeter, en réalité augmentée sur l’au moins une image affichée, l’au moins un deuxième point;
- amener la sonde dans une nouvelle position actuelle et une nouvelle direction actuelle de sorte qu’une nouvelle projection en réalité augmentée de l’au moins un deuxième point correspondant au sommet du polygone placé dans un nouveau deuxième plan transverse à la nouvelle direction actuelle de la sonde, une zone centrale du polygone étant traversée par une droite parallèle à la nouvelle direction actuelle de la sonde et passant par la nouvelle position actuelle de la sonde, la nouvelle projection étant plus proche de la projection de l’au moins un premier point, que la projection de l’au moins un deuxième point, jusqu’à ce que l’au moins un deuxième point et l’au moins un premier point coïncident, et qu’ainsi la nouvelle position actuelle et la nouvelle direction actuelle coïncident avec la position enregistrée et la direction enregistrée, les étapes de projection et de nouvelle projection en réalité augmentée de l’au moins un deuxième point étant réalisées en temps-réel au fur et à mesure d’un déplacement de la sonde.
Selon ces dispositions, le deuxième utilisateur est guidé par l’affichage des projections en réalité augmentée pour faire progressivement coïncider la nouvelle position actuelle et la nouvelle direction actuelle avec la position enregistrée et la direction enregistrée, la position enregistrée et la direction enregistrée correspondant à une position et une orientation idéales de la sonde pour obtenir une bonne vue d’un organe spécifique.
Selon un mode de mise en œuvre, l’invention comprend une ou plusieurs des caractéristiques suivantes, seules ou en combinaison techniquement acceptable.
Selon un mode de mise en œuvre, le premier objet est un premier cube comprenant les premiers marqueurs sur les faces du cube.
Selon un mode de mise en œuvre, le premier cube est un premier QR cube.
Selon un mode de mise en œuvre, le deuxième objet est un deuxième cube comprenant les deuxièmes marqueurs sur les faces du deuxième cube.
Selon un mode de mise en œuvre, le deuxième cube est un deuxième QR cube.
Selon un mode de mise en œuvre :
- l’au moins un premier point comprend quatre premiers points correspondants chacun à quatre sommets du polygone placé dans le premier plan transverse à la direction enregistrée de la sonde, de sorte que la zone centrale du polygone est traversée par la droite parallèle à la direction enregistrée de la sonde et passant par la position enregistrée de la sonde,
et
- l’au moins un deuxième point comprend quatre deuxièmes points correspondants chacun aux quatre sommets du polygone placé dans le deuxième plan transverse à la direction actuelle de la sonde, de sorte que la zone centrale du polygone est traversée par la droite parallèle à la direction actuelle de la sonde et passant par la position actuelle de la sonde.
Selon un mode de mise en œuvre, le polygone est un carré.
Selon un mode de mise en œuvre :
- une première forme géométrique est associée à l’au moins un premier point, la première forme géométrique étant projeté en réalité augmentée au cours de l’étape de projection, en réalité augmentée sur l’au moins une image affichée, de l’au moins un premier point, et
- une deuxième forme géométrique est associée à l’au moins un deuxième point, la deuxième forme géométrique étant projeté en réalité augmentée au cours de l’étape de projection, en réalité augmentée sur l’au moins une image affichée, de l’au moins un deuxième point.
Selon ces dispositions le deuxième utilisateur est guidée plus efficacement par l’affichage des projections en réalité augmentée des premières et deuxièmes formes géométriques mieux visibles.
Selon un mode de mise en œuvre la première forme géométrique est un cube ou une sphère, centré autour de l’au moins un premier point, la deuxième forme géométrique est respectivement une sphère ou un cube, centré autour de l’au moins un deuxième point.
Selon un mode de mise en œuvre, un segment de droite reliant l’au moins un premier point à l’au moins un deuxième point est affiché en fonction d’une distance entre l’au moins un premier point et l’au moins un deuxième point.
Selon un mode mise en œuvre, le segment de droite est affiché dans une couleur représentative de la distance mesurée dans le repère de référence.
Selon un mode de mise en œuvre, le point prédéterminé de la surface du corps est prédéterminé de sorte qu’une position et une orientation, dans le repère de référence fixe par rapport au corps du patient, de la surface du support placé au point prédéterminé soit stable dans le temps, et répétable, i.e. lorsque l’étape poser le support au point prédéterminé de la surface du corps du patient est répétée plusieurs fois de suite, un écart-type de la position de la surface du support est inférieur à un écart en position et un écart-type de l’orientation de la surface du support est inférieur à un écart en orientation.
Selon un mode de mise en œuvre, l’écart en position est égal à 10 mm, de préférence égal 5 mm, de préférence égal à 0mm.
Selon un mode de mise en œuvre, l’écart en orientation est égal à 2°, de préférence égal 1°, de préférence égal à 0°.
Selon un mode de mise en œuvre, le point prédéterminé de la surface du corps est un point du sternum, situé à proximité du Procelus Xifoidan, i.e. d’une extrémité basse du sternum. Ainsi, le placement du support à cet endroit particulier permet d’obtenir une position et une orientation particulièrement stable et répétable de la surface du support et, par conséquent, du deuxième objet maintenu sur la surface du support.
Selon un mode de mise en œuvre, le support est flexible de manière à épouser la forme du thorax en venant se placer sur le sternum de haut en bas, avec à sa base en bas une surface configurée pour recevoir et maintenir le deuxième objet dans une position et une orientation stable et répétable, définie par la position et l’orientation stable et répétable de la surface du support. Lorsque le deuxième objet est un QR cube, la surface du support a une forme carrée correspondante à l’une des faces du QR cube.
Selon un mode de mise en œuvre une distance entre le point prédéterminé et l’extrémité basse du sternum est inférieure à 10 mm, de préférence inférieure à 5 mm, de préférence inférieure à 2 mm.
Selon un mode de mise en œuvre, la position enregistrée et la direction enregistrée de la sonde étant définie par un premier utilisateur lorsque la sonde est tenue dans la main du premier utilisateur dans une position actuelle et selon une direction actuelle, l’étape de détermination de la position actuelle et de la direction actuelle de la sonde dans le repère de référence, à partir des deuxièmes marqueurs identifiables sur l’au moins une image comprenant une étape d’enregistrement de la position actuelle de la sonde et de l’orientation actuelle.
L’invention concerne également un système pour guider un utilisateur tenant dans une main une sonde configurée pour une observation échographique d’un corps d’un patient, le système comprenant la sonde munie d’un premier objet solidaire de la sonde, le premier objet comprenant des premiers marqueurs sur la surface du premier objet, le système comprenant également un deuxième objet comprenant des deuxièmes marqueurs sur la surface du deuxième objet, le système comprenant un support posé en un point prédéterminé de la surface du corps du patient observé avec la sonde, le deuxième objet étant posé sur une surface du support configuré pour maintenir le deuxième objet dans une position et une orientation prédéterminée du deuxième objet par rapport à un repère de référence fixe par rapport au corps du patient, le système comprenant en outre une caméra configurée pour observer dans son champ la sonde, le premier objet, et le deuxième objet, le système comprenant un dispositif d’affichage configuré pour recevoir au moins une image acquise par la caméra, le dispositif d’affichage étant configuré pour afficher l’au moins une image acquise par la caméra, et pour afficher dans l’au moins une image en réalité augmentée au moins un premier point correspondant à un sommet d’un polygone placé dans un premier plan transverse à une direction enregistrée de la sonde, de sorte qu’une zone centrale du polygone est traversée par une droite parallèle à la direction enregistrée de la sonde et passant par la position enregistrée de la sonde, et pour afficher dans l’au moins une image en réalité augmentée au moins un deuxième point correspondant au sommet du polygone placé dans un deuxième plan transverse à la direction actuelle de la sonde, de sorte qu’une zone centrale du polygone est traversée par une droite parallèle à la direction actuelle de la sonde et passant par la position actuelle de la sonde, l’utilisateur tenant la sonde dans une main étant guidé par l’affichage pour faire coïncider l’au moins un premier point avec l’au moins un deuxième point dans l’au moins une image affichée, en déplaçant la sonde vers une nouvelle position actuelle et une nouvelle direction actuelle de sorte à faire progressivement coïncider la nouvelle position actuelle et la nouvelle direction actuelle de la sonde avec la position enregistrée et la direction enregistrée de la sonde.
Selon un mode de réalisation, le premier objet est un QR cube, le deuxième objet est un QRcube, le polygone est un carré, l’au moins un premier point comprend quatre points, et l’au moins un deuxième point comprend quatre points.
Pour sa bonne compréhension, un mode de réalisation et/ou de mise en oeuvre de l’invention est décrit en référence aux dessins ci-annexés représentant, à titre d’exemple non limitatif, une forme de réalisation ou de mise en œuvre respectivement d’un dispositif et/ou d’un procédé selon l’invention. Les mêmes références sur les dessins désignent des éléments similaires ou des éléments dont les fonctions sont similaires.
est une vue en perspective d’une sonde dans une position et une direction actuelle, la position et la direction actuelle de la sonde étant affichée en temps-réel sur un dispositif d’affichage d’une image de la sonde, avec quatre sphères, incrustés dans l’image, aux sommets d’un carré situé dans un plan transverse à la direction actuelle de la sonde et quatre cubes aux sommets du carré dans un plan transverse à une direction enregistrée correspondant à une position et une orientation idéales de la sonde (cf. fig. 1a); sur la fig. 1b, l’utilisateur, guidé par l’affichage des quatre cubes selon la fig. 1a, a rallié la position et l’orientation enregistrée en déplaçant la sonde et les quatre sphères de manière à amener les quatre sphères à l’intérieur des quatre cubes dans l’image affichée.
est une représentation schématique du séquencement des étapes du procédé selon l’invention.
est une image de la sonde tenue dans la main de l’utilisateur, la sonde étant munie d’un premier QR cube, solidaire de la sonde, le premier QR cube comprenant des premiers marqueurs sur sa surface, un deuxième QR cube comprenant des deuxièmes marqueurs sur sa surface, étant posé sur la surface d’un support posé sur un point du sternum qui permet une bonne calibration.
est une vue de dessus (cf. Fig. 4a) et une vue de côté (cf. Fig. 4b) d’un support selon l’invention.
Le procédé 100 a pour but de guider un utilisateur novice pour rallier une bonne position et une bonne orientation d’une sonde 1 pour l’observation par échographie d’un organe d’un patient. La bonne position et la bonne orientation de la sonde a au préalable été déterminée par un utilisateur expérimenté, i.e. un expert, et a été sauvegardée, par exemple au cours d’une étape d’enregistrement 107bis, sous la forme de coordonnées d’une position PE de la sonde et de coordonnées angulaires d’une direction DE de la sonde dans un repère de référence.
Pour cela, comme cela est illustrée sur la , la sonde 1 tenue dans la main de l’utilisateur est munie d’un premier objet 2 solidaire de la sonde 1, le premier objet 2 comprenant des premiers marqueurs sur la surface du premier objet 2. Par exemple, le premier objet 2 est un QR cube, i.e. un cube comprenant des repères représentés sur les différentes faces du cube.
Une caméra est configurée pour observer dans son champ d’observation la sonde 1, le premier objet 2 comprenant des premiers marqueurs, par exemple un premier QR cube 2, et un deuxième objet 3 comprenant des deuxièmes marqueurs, par exemple un deuxième QR cube 3. Le deuxième QR cube 3 est maintenu dans une position et un orientation prédéterminée relativement à un repère de référence en étant posé 101bis sur un support qui a été posé 101 en un point prédéterminé 5’ de la surface 5 du corps du patient observé avec la sonde, le repère de référence étant fixe par rapport au corps du patient.
La caméra est configurée pour acquérir 102 une ou plusieurs images de la sonde 1, du premier objet 2 comprenant des premiers marqueurs, par exemple du premier QR cube 2, et du deuxième objet 3 comprenant des deuxièmes marqueurs, par exemple du deuxième QR cube 3. Un dispositif d’affichage est associé à la caméra pour afficher 105 la ou les images acquises par la caméra.
A partir des deuxièmes marqueurs du deuxième objet 3, par exemple du deuxième QR cube 3, observés et identifiés par un traitement de la ou des images acquises par la caméra, le repère de référence est déterminé 103. La position enregistrée PE et la direction enregistrée DE de la sonde 1 pour une bonne observation échographique de l’organe du patient, enregistrées par exemple au cours de l’étape d’enregistrement 107bis, sont définies dans le repère de référence ; la position enregistrée PE et la direction enregistrée DE de la sonde 1sonde 1 peuvent ainsi être projetée en réalité augmentée, i.e. en incrustation sur la ou les images acquises.
Pour cela, comme cela est illustré sur la , dans un premier plan transverse à la direction enregistrée DE de la sonde 1, un polygone P, par exemple un carré, est déterminé par ses sommets P1, P1’, P1’’, P1’’’; les coordonnées des sommets P1, P1’, P1’’, P1’’’ sont déterminées 104 dans le repère de référence, de sorte que les sommets P1, P1’, P1’’, P1’’’ sont projetés 106, en réalité augmenté sur la ou les images affichées.
Le polygone P, dans l’exemple de mise en œuvre présenté ici est un carré, mais l’homme du métier comprendra que le polygone peut prendre d’autres formes, régulières ou irrégulières, notamment à plus de quatre sommets, par exemple hexagone, octogone, etc….
En particulier, dans l’étape de projection 106 en réalité augmentée des sommets P1, P1’, P1’’, P1’’’ du polygone P, une forme géométrique peut être associée à chacun des sommets P1, P1’, P1’’, P1’’’ du polygone P et projetée 106 en réalité augmentée sur la ou les images acquises et affichées sur dispositif d’affichage à la disposition de l’utilisateur. Ladite forme géométrique est par exemple un cube ou une sphère, centrée autour de chacun des sommets P1, P1’, P1’’, P1’’’ du polygone P. Selon ces dispositions, la position enregistrée et la direction enregistrée de la sonde 1 est affichée de manière plus visible sur la ou les images de la sonde 1 présentées à l’utilisateur sur le dispositif d’affichage.
A partir des premiers marqueurs présents sur le premier objet 2 solidaire de la sonde 1, et identifiables par un autre traitement de la ou des images, la position actuelle PA et la direction actuelle DA de la sonde 1 tenue dans la main 4 de l’utilisateur est déterminée 107 dans le repère de référence. Dans un deuxième plan transverse à la direction actuelle DA de la sonde 1, le polygone P, un carré selon l’exemple illustré, est déterminé par ses sommets P2, P2’, P2’’, P2’’’; les coordonnées des sommets P2, P2’, P2’’, P2’’’ du polygone P dans ledit deuxième plan transverse, sont déterminées 108 dans le repère de référence, de sorte que les sommets P2, P2’, P2’’, P2’’’ sont ensuite projetés 109, en réalité augmentée, sur la ou les images affichées.
Comme précédemment pour la projection 106 des sommets P1, P1’, P1’’, P1’’’ du polygone P représentatif de la position PE et de la direction DE enregistrées de la sonde 1, une forme géométrique peut être associée à chacun des sommets P2, P2’, P2’’, P2’’’ du polygone P dans ledit deuxième plan transverse, représentatif de la position actuelle PA et de la direction actuelle DA de la sonde 1, afin d’être projetée 109 en réalité augmentée sur la ou les images acquises et affichées sur dispositif d’affichage à la disposition de l’utilisateur. Ladite forme géométrique est par exemple une sphère ou un cube, centrée autour de chacun des sommets P2, P2’, P2’’, P2’’’ du polygone P dans ledit deuxième plan transverse. Selon ces dispositions, la position actuel PA et la direction actuelle DA de la sonde 1 est affichée de manière plus visible sur la ou les images de la sonde 1 présentées à l’utilisateur sur le dispositif d’affichage, en même temps que la position PE et de la direction DE enregistrées de la sonde 1.
En particulier, par exemple, un segment de droite reliant chaque sommet P1, P1’, P1’’, P1’’’ du polygone P dans le premier plan transverse, au sommet correspondant P2, P2’, P2’’, P2’’’ du polygone P dans le deuxième plan transverse est affiché de manière à représenter, par exemple selon un code couleur, une distance entre chaque sommet P1, P1’, P1’’, P1’’’ et le sommet correspondant P2, P2’, P2’’, P2’’’. Selon ces dispositions, l’utilisateur peut en déduire plus facilement de quelle manière il peut déplacer la sonde 1 pour l’amener 110 dans une nouvelle position actuelle et un nouvelle direction actuelle de sorte qu’une nouvelle projection en réalité augmentée des sommets P2, P2’, P2’’, P2’’’ du polygone P placé dans un nouveau deuxième plan transverse à la nouvelle direction actuelle de la sonde se trouve plus proche de la projection actuelle des sommets P2, P2’, P2’’, P2’’’, que la projection des sommets correspondants P2, P2’, P2’’, P2’’’ du polygone P dans le deuxième plan transverse, jusqu’à ce que les sommets correspondants P2, P2’, P2’’, P2’’’ du polygone P dans le deuxième plan transverse et les sommets P1, P1’,P1’’,P1’’’ du polygone P dans le premier plan transverse coïncident, et qu’ainsi la nouvelle position actuelle et la nouvelle direction actuelle coïncident avec la position enregistrée PE et la direction enregistrée DE. Les étapes de projection 109 et de nouvelle projection en réalité augmentée de l’au moins un deuxième point (P2, P2’, P2’’, P2’’’) étant réalisées en temps-réel au fur et à mesure d’un déplacement de la sonde (1)
Selon un mode de mise en œuvre du procédé 100, le point prédéterminé 5’ pour poser 101 le support 6, sur la surface 5 du corps, est défini de sorte que, dans un repère de référence fixe par rapport au corps du patient, une position et une orientation de la surface du support, placé audit point prédéterminé, soit stable dans le temps, et répétable, i.e. lorsque l’étape poser 101 le support 6 au point prédéterminé 5’ de la surface 5 du corps du patient est répétée plusieurs fois de suite, un écart-type de la position de la surface 6’ du support 6 est inférieur à un écart en position et un écart-type de l’orientation de la surface 6’ du support 6 est inférieur à un écart en orientation.
De préférence, l’écart en position est égal à 10 mm, par exemple égal 5 mm, en particulier égal à 0mm.
De préférence, l’écart en orientation est égal à 2°, par exemple égal à 1°, en particulier égal à 0°.
Plus particulièrement, le point prédéterminé 5’ de la surface du corps est un point du sternum, situé à proximité du Procelus Xifoidan, i.e. d’une extrémité basse du sternum. Ainsi, le placement du support 6 à cet endroit particulier permet d’obtenir une position et une orientation particulièrement stable et répétable de la surface 6’ du support et, par conséquent, du deuxième objet 3 maintenu sur la surface 6’ dudit support.
En particulier, comme cela est illustré sur la , le support 6 est flexible de manière à épouser la forme du thorax en venant se placer sur le sternum de haut en bas, avec à sa base en bas une surface 6’ configurée pour recevoir et maintenir le deuxième objet 3 dans une position et une orientation particulièrement stable et répétable, définie par la position et l’orientation particulièrement stable et répétable de la surface 6’ du support 6. Plus particulièrement, lorsque le deuxième objet 3 est un QR cube 3, la surface 6’ a une forme carrée correspondante à l’une des faces du QR cube 3.
Selon un mode de mise en œuvre une distance entre le point prédéterminé 6’et l’extrémité basse du sternum est inférieure à 10 mm, de préférence inférieure à 5 mm, de préférence inférieure à 2 mm.
Selon un aspect, l’invention concerne un système pour guider un utilisateur tenant dans une main 4 une sonde 1 configurée pour une observation échographique d’un corps d’un patient, le système comprenant la sonde 1 munie d’un premier objet 2 solidaire de la sonde 1, le premier objet 2 comprenant des premiers marqueurs sur la surface du premier objet 2. Ledit système comprend également un deuxième objet 3 comprenant des deuxièmes marqueurs sur la surface du deuxième objet. Ledit système comprend un support 6 posé en un point prédéterminé 5’ de la surface 5 du corps du patient observé avec la sonde 1, le deuxième objet 3 étant posé sur une surface 6’ du support 6 configuré pour maintenir le deuxième objet 3 dans une position et une orientation prédéterminée du deuxième objet 3 par rapport à un repère de référence fixe par rapport au corps du patient. Ledit système comprend en outre une caméra configurée pour observer dans son champ la sonde 1, le premier objet 2, et le deuxième objet 3. Ledit système comprend un dispositif d’affichage configuré pour recevoir au moins une image acquise par la caméra, le dispositif d’affichage étant configuré pour afficher l’au moins une image acquise par la caméra, et pour afficher dans l’au moins une image, en réalité augmentée, au moins un premier point P1, P1’, P1’’, P1’’’ correspondant à un sommet d’un polygone P placé dans un premier plan transverse à une direction enregistrée DE de la sonde, de sorte qu’une zone centrale du polygone est traversée par une droite parallèle à la direction enregistrée de la sonde et passant par la position enregistrée de la sonde 1. Le dispositif d’affichage est en outre configuré pour afficher dans l’au moins une image, en réalité augmentée, au moins un deuxième point P2, P2’, P2’’, P2’’’ correspondant au sommet du polygone P placé dans un deuxième plan transverse à la direction actuelle de la sonde, de sorte qu’une zone centrale du polygone est traversée par une droite parallèle à la direction actuelle de la sonde et passant par la position actuelle de la sonde. De sorte que l’utilisateur tenant la sonde dans une main 4 est guidé par l’affichage pour faire coïncider l’au moins un premier point P1, P1’, P1’’, P1’’’ avec l’au moins un deuxième point P2, P2’, P2’’, P2’’’ dans l’au moins une image affichée, en déplaçant la sonde vers une nouvelle position actuelle et une nouvelle direction actuelle en faisant progressivement coïncider la nouvelle position actuelle et la nouvelle direction actuelle de la sonde 1 avec la position enregistrée PE et la direction enregistrée DE de la sonde 1.
Par exemple, le premier objet 2 dudit système est un premier QR cube, le deuxième objet 3 dudit système est un deuxième QR cube, le polygone P est un carré, l’au moins un premier point comprend quatre sommets du carré, et l’au moins un deuxième point comprend quatre sommets du carré.

Claims (9)

  1. Procédé (100) pour guider un utilisateur tenant dans une main (4) une sonde (1) configurée pour l’observation échographique d’un corps (5) d’un patient, la sonde (1) étant munie d’un premier objet (2) solidaire de la sonde (1), le premier objet (2) comprenant des premiers marqueurs sur la surface du premier objet (2), la sonde (1) étant tenue dans une position actuelle (PA) et selon une direction actuelle (DA), un dispositif d’affichage configuré pour recevoir au moins une image acquise par une caméra configurée pour observer dans son champ la sonde (1), le premier objet (2), et un deuxième objet (3) comprenant des deuxièmes marqueurs sur la surface du deuxième objet, l’utilisateur étant guidé vers une position enregistrée (PE) et une direction enregistrée (DE) de la sonde (1), le procédé comprenant les étapes suivantes:
    - poser (101) un support (6) en un point prédéterminé (5’)d’une surface (5) du corps du patient observé avec la sonde, le support (6) étant configuré pour recevoir sur une surface (6’) du support (6) le deuxième objet (3) en maintenant le deuxième objet (3) dans une position et une orientation prédéterminée du deuxième objet (3) par rapport à un repère de référence fixe par rapport au corps du patient;
    - poser (101bis) le deuxième objet (3) sur la surface (6’) du support (6), de sorte que le deuxième objet (3) est maintenu dans une position et une orientation prédéterminée par rapport au repère de référence fixe par rapport au corps du patient.
    - acquérir (102) au moins une image avec la caméra ;
    - déterminer (103) le repère de référence, à partir des deuxièmes marqueurs identifiables par un traitement de l’au moins une image, la position enregistrée (PE) et la direction enregistrée (DE) de la sonde (1) étant définie dans ledit repère de référence;
    - dans le repère de référence, déterminer (104) des coordonnées d’au moins un premier point (P1, P1’,P1’’,P1’’’) correspondant à un sommet d’un polygone (P) placé dans un premier plan transverse à la direction enregistrée (DE) de la sonde, de sorte qu’une zone centrale du polygone est traversée par une droite parallèle à la direction enregistrée de la sonde et passant par la position enregistrée de la sonde;
    - afficher (105) l’au moins une image sur le dispositif d’affichage;
    - projeter (106), en réalité augmentée sur l’au moins une image affichée, l’au moins un premier point (P1, P1’, P1’’, P1’’’) ;
    - déterminer (107) la position actuelle (PA) et la direction actuelle (DA) de la sonde (1) dans le repère de référence, à partir des premiers marqueurs identifiables par un autre traitement de l’au moins une image;
    - déterminer (108) des coordonnées dans le repère de référence d’au moins un deuxième point (P2), l’au moins un deuxième point (P2, P2’, P2’’, P2’’’) correspondant au sommet du polygone (P) placé dans un deuxième plan transverse à la direction actuelle de la sonde, de sorte qu’une zone centrale du polygone est traversée par une droite parallèle à la direction actuelle de la sonde et passant par la position actuelle de la sonde;
    - projeter (109), en réalité augmentée sur l’au moins une image affichée, l’au moins un deuxième point (P2, P2’,P2’’,P2’’’) ;
    - amener (110) la sonde dans une nouvelle position actuelle et une nouvelle direction actuelle de sorte qu’une nouvelle projection en réalité augmentée de l’au moins un deuxième point correspondant au sommet du polygone placé dans un nouveau deuxième plan transverse à la nouvelle direction actuelle de la sonde, une zone centrale du polygone étant traversée par une droite parallèle à la nouvelle direction actuelle de la sonde et passant par la nouvelle position actuelle de la sonde, la nouvelle projection étant plus proche de la projection de l’au moins un premier point, que la projection de l’au moins un deuxième point, jusqu’à ce que l’au moins un deuxième point (P2, P2’,P2’’,P2’’’) et l’au moins un premier point (P1, P1’,P1’’,P1’’’) coïncident, et qu’ainsi la nouvelle position actuelle et la nouvelle direction actuelle coïncident avec la position enregistrée (PE) et la direction enregistrée (DE), les étapes de projection (109) et de nouvelle projection en réalité augmentée de l’au moins un deuxième point (P2, P2’, P2’’, P2’’’) étant réalisées en temps-réel au fur et à mesure d’un déplacement de la sonde (1).
  2. Procédé (100) selon la revendication 1, dans lequel le premier objet (2) est un premier cube comprenant les premiers marqueurs sur les faces du cube.
  3. Procédé (100) selon l’une des revendications 1 ou 2, dans lequel le deuxième objet (3) est un deuxième cube comprenant les deuxièmes marqueurs sur les faces du deuxième cube.
  4. Procédé (100) selon l’une des revendications 1 à 3, dans lequel :
    - l’au moins un premier point comprend quatre premiers points (P1, P1’, P1’’, P1’’’) correspondants chacun à quatre sommets du polygone placé dans le premier plan transverse à la direction enregistrée de la sonde, de sorte que la zone centrale du polygone est traversée par la droite parallèle à la direction enregistrée de la sonde et passant par la position enregistrée de la sonde,
    et
    - l’au moins un deuxième point comprend quatre deuxièmes points (P2, P2’,P2’’,P2’’’) correspondants chacun aux quatre sommets du polygone placé dans le deuxième plan transverse à la direction actuelle de la sonde, de sorte que la zone centrale du polygone est traversée par la droite parallèle à la direction actuelle de la sonde et passant par la position actuelle de la sonde.
  5. Procédé (100) selon l’une des revendications 1 à 4, dans lequel :
    - une première forme géométrique est associée à l’au moins un premier point (P1, P1’,P1’’,P1’’’), la première forme géométrique étant projeté en réalité augmentée au cours de l’étape de projection (106), en réalité augmentée sur l’au moins une image affichée, de l’au moins un premier point (P1, P1’,P1’’,P1’’’), et
    - une deuxième forme géométrique est associée à l’au moins un deuxième point (P2, P2’,P2’’,P2’’’), la deuxième forme géométrique étant projeté en réalité augmentée au cours de l’étape de projection (109), en réalité augmentée sur l’au moins une image affichée, de l’au moins un deuxième point (P2, P2’,P2’’,P2’’’).
  6. Procédé (100) selon l’une des revendications 1 à 5, dans lequel un segment de droite reliant l’au moins un premier point (P1, P1’, P1’’, P1’’’) à l’au moins un deuxième point (P2, P2’, P2’’, P2’’’) est affiché en fonction d’une distance entre l’au moins un premier point (P1, P1’, P1’’, P1’’’) et l’au moins un deuxième point (P2, P2’, P2’’, P2’’’).
  7. Procédé (100) selon l’une des revendications 1 à 6, dans lequel le point prédéterminé (5’) de la surface (5) du corps est prédéterminé de sorte qu’une position et une orientation, dans le repère de référence fixe par rapport au corps du patient, de la surface (6’) du support placé au point prédéterminé soit stable dans le temps, et répétable, i.e. lorsque l’étape poser le support au point prédéterminé (5’) de la surface (5) du corps du patient est répétée plusieurs fois de suite, un écart-type de la position de la surface (6’) du support (6) est inférieur à un écart en position et un écart-type de l’orientation de la surface (6’) du support (6) est inférieur à un écart en orientation.
  8. Procédé (100) selon l’une des revendications 1 à 7, la position enregistrée et la direction enregistrée de la sonde étant définie par un premier utilisateur lorsque la sonde est tenue dans la main du premier utilisateur dans une position actuelle et selon une direction actuelle, l’étape de détermination de la position actuelle et de la direction actuelle de la sonde dans le repère de référence, à partir des deuxièmes marqueurs identifiables sur l’au moins une image comprenant une étape d’enregistrement (107bis) de la position actuelle de la sonde et de l’orientation actuelle.
  9. Système pour guider un utilisateur tenant dans une main (4) une sonde (1) configurée pour une observation échographique d’un corps (5) d’un patient, le système comprenant la sonde (1) munie d’un premier objet (2) solidaire de la sonde (1), le premier objet (2) comprenant des premiers marqueurs sur la surface du premier objet (2), le système comprenant également un deuxième objet (3) comprenant des deuxièmes marqueurs sur la surface du deuxième objet, le système comprenant un support (6) posé en un point prédéterminé (5’) de la surface (5) du corps du patient observé avec la sonde (1), le deuxième objet (3) étant posé sur une surface (6’) du support (6) configuré pour maintenir le deuxième objet (3) dans une position et une orientation prédéterminée du deuxième objet (3) par rapport à un repère de référence fixe par rapport au corps du patient, le système comprenant en outre une caméra configurée pour observer dans son champ la sonde (1), le premier objet (2), et le deuxième objet (3), le système comprenant un dispositif d’affichage configuré pour recevoir au moins une image acquise par la caméra, le dispositif d’affichage étant configuré pour afficher l’au moins une image acquise par la caméra, et pour afficher dans l’au moins une image en réalité augmentée au moins un premier point (P1, P1’, P1’’, P1’’’) correspondant à un sommet d’un polygone (P) placé dans un premier plan transverse à une direction enregistrée (DE) de la sonde, de sorte qu’une zone centrale du polygone est traversée par une droite parallèle à la direction enregistrée de la sonde et passant par la position enregistrée de la sonde (1), et pour afficher dans l’au moins une image en réalité augmentée au moins un deuxième point (P2, P2’, P2’’, P2’’’) correspondant au sommet du polygone (P) placé dans un deuxième plan transverse à la direction actuelle de la sonde, de sorte qu’une zone centrale du polygone est traversée par une droite parallèle à la direction actuelle de la sonde et passant par la position actuelle de la sonde, l’utilisateur tenant la sonde dans une main (4) étant guidé par l’affichage pour faire coïncider l’au moins un premier point (P1, P1’,P1’’,P1’’’) avec l’au moins un deuxième point (P2,P2’,P2’’,P2’’’) dans l’au moins une image affichée, en déplaçant la sonde vers une nouvelle position actuelle et une nouvelle direction actuelle de sorte à faire progressivement coïncider la nouvelle position actuelle et la nouvelle direction actuelle de la sonde (1) avec la position enregistrée (PE) et la direction enregistrée (DE) de la sonde (1)
FR2114051A 2021-12-20 2021-12-20 Procédé et système pour guider un utilisateur tenant dans une main une sonde d’observation échographique vers une fenêtre acoustique préenregistrée. Pending FR3130551A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR2114051A FR3130551A1 (fr) 2021-12-20 2021-12-20 Procédé et système pour guider un utilisateur tenant dans une main une sonde d’observation échographique vers une fenêtre acoustique préenregistrée.
PCT/FR2022/052359 WO2023118702A1 (fr) 2021-12-20 2022-12-14 Procédé et système pour guider un utilisateur tenant dans une main une sonde d'observation échographique vers une fenêtre acoustique préenregistrée

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2114051A FR3130551A1 (fr) 2021-12-20 2021-12-20 Procédé et système pour guider un utilisateur tenant dans une main une sonde d’observation échographique vers une fenêtre acoustique préenregistrée.
FR2114051 2021-12-20

Publications (1)

Publication Number Publication Date
FR3130551A1 true FR3130551A1 (fr) 2023-06-23

Family

ID=81327469

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2114051A Pending FR3130551A1 (fr) 2021-12-20 2021-12-20 Procédé et système pour guider un utilisateur tenant dans une main une sonde d’observation échographique vers une fenêtre acoustique préenregistrée.

Country Status (2)

Country Link
FR (1) FR3130551A1 (fr)
WO (1) WO2023118702A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130237811A1 (en) * 2012-03-07 2013-09-12 Speir Technologies Inc. Methods and systems for tracking and guiding sensors and instruments
US20130296707A1 (en) * 2010-12-18 2013-11-07 Massachusetts Institute Of Technology User interface for ultrasound scanning system
US20160166333A1 (en) * 2013-09-18 2016-06-16 iMIRGE Medical INC. Optical targeting and visualization of trajectories
US20180153505A1 (en) * 2016-12-07 2018-06-07 Bay Labs, Inc. Guided navigation of an ultrasound probe

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130296707A1 (en) * 2010-12-18 2013-11-07 Massachusetts Institute Of Technology User interface for ultrasound scanning system
US20130237811A1 (en) * 2012-03-07 2013-09-12 Speir Technologies Inc. Methods and systems for tracking and guiding sensors and instruments
US20160166333A1 (en) * 2013-09-18 2016-06-16 iMIRGE Medical INC. Optical targeting and visualization of trajectories
US20180153505A1 (en) * 2016-12-07 2018-06-07 Bay Labs, Inc. Guided navigation of an ultrasound probe

Also Published As

Publication number Publication date
WO2023118702A1 (fr) 2023-06-29

Similar Documents

Publication Publication Date Title
EP0373077B1 (fr) Procédé de corrélation des saisies tridimensionnelles d'organes humains et dispositif pour sa mise en oeuvre
US9519961B2 (en) Methods and systems of imaging cut stones
CA2523717C (fr) Procede et programme de reconstruction de plan de fracture
EP2268192B1 (fr) Appareil pour une analyse de forme de cornée et procédé pour déterminer une épaisseur de cornée
EP2139642B1 (fr) Dispositif et procédé de préparation d'une lentille ophtalmique en vue de son usinage
JPH10507953A (ja) 複合カメラの角膜分析装置
FR3048872A1 (fr) Procede et dispositif de recalage automatise pour un robot chirurgical
US9122080B2 (en) Ophthalmic lens holder for a centering device
FR2954903A1 (fr) Procede et appareil de localisation et de visualisation d'une cible par rapport a un point focal d'un systeme de traitement
ES2226480T3 (es) Inspeccion de la topologia de superficie utilizando sombra de moire con muestras de calibracion.
TW200837872A (en) Method of determining geometric parameters of a wafer
EP2901209A1 (fr) Procédé d'aide à la détermination de paramètres de vision d'un sujet
Belin et al. PAR Corneal Topography System (PAR CTS): the clinical application of close-range photogrammetry
FR3130551A1 (fr) Procédé et système pour guider un utilisateur tenant dans une main une sonde d’observation échographique vers une fenêtre acoustique préenregistrée.
JP3042851B2 (ja) 角膜形状測定装置
KR20130023143A (ko) 안과 분석 기구 및 방법
EP1088525B1 (fr) Procédé de recalage d'images médicales sur un patient et dispositif associé
FR2835603A1 (fr) Procede et dispositif de mesure optique du deplacement et/ou de la deformation d'un objet dans au moins une direction
EP0474776B1 (fr) Procede de documentation et de mesure en dentisterie et dispositif de mise en oeuvre du procede
CA2198022C (fr) Procede de correlation des mesures tridimensionnelles realisees par des systemes d'acquisition d'images et installation pour sa mise en oeuvre
US20200046454A1 (en) Registration and identification tool and method for a dental and/or cranio-maxillofacial surgical instrument and/or general surgical instrument
FR2763707A1 (fr) Centrale de mesure en optique
CN110715927B (zh) 象牙制品的类别鉴定方法
Coghill et al. Stereo vision based optic nerve head 3D reconstruction using a slit lamp fitted with cameras: performance trial with an eye phantom
US20220113555A1 (en) Spectacle lens edge simulation tool and method for defining a lens shape with said tool

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230623

PLFP Fee payment

Year of fee payment: 3