FR3048870A1 - Assistance d'alerte pour une imagerie par ultrasons en mode diagnostic - Google Patents

Assistance d'alerte pour une imagerie par ultrasons en mode diagnostic Download PDF

Info

Publication number
FR3048870A1
FR3048870A1 FR1752177A FR1752177A FR3048870A1 FR 3048870 A1 FR3048870 A1 FR 3048870A1 FR 1752177 A FR1752177 A FR 1752177A FR 1752177 A FR1752177 A FR 1752177A FR 3048870 A1 FR3048870 A1 FR 3048870A1
Authority
FR
France
Prior art keywords
transducer
scanning
detection
location
ultrasound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1752177A
Other languages
English (en)
Inventor
Andrzej Milkowski
Lei Sui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Medical Solutions USA Inc
Original Assignee
Siemens Medical Solutions USA Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Medical Solutions USA Inc filed Critical Siemens Medical Solutions USA Inc
Publication of FR3048870A1 publication Critical patent/FR3048870A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4411Device being modular
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4461Features of the scanning mechanism, e.g. for moving the transducer within the housing of the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/481Diagnostic techniques involving the use of contrast agent, e.g. microbubbles introduced into the bloodstream
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/485Diagnostic techniques involving measuring strain or elastic properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/486Diagnostic techniques involving arbitrary m-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Hematology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Physiology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Un procédé d'assistance d'alerte pour un dispositif de balayage à ultrasons comprend: le balayage d'un patient avec un transducteur à ultrasons du dispositif de balayage à ultrasons dans un mode de diagnostic dans lequel le transducteur à ultrasons se déplace par rapport au patient ; l'application d'une détection assistée par ordinateur par le dispositif de balayage à ultrasons à chacune d'une séquence de trames acquises par le balayage ; l'identification d'un objet dans une première des trames avec la détection assistée par ordinateur du dispositif de balayage à ultrasons ; la mesure, en réponse à l'identification de l'objet dans la première trame, d'une propriété mécanique de l'objet ; et la génération d'une image avec une alerte identifiant la première trame et la propriété mécanique mesurée.

Description

ARRIERE-PLAN
Les présents modes de réalisation se rapportent à une imagerie par ultrasons. Dans une imagerie par ultrasons, des utilisateurs « examinent » des organes pour des zones suspectes. Un examen est typiquement effectué en déplaçant le transducteur pour balayer différents plans à travers un organe. Le but est d’identifier de quelconques objets suspects en visionnant la séquence d’images créée lors de l’examen. Occasionnellement, l’utilisateur déplace le transducteur ou regarde les images plus rapidement, augmentant la probabilité de rater un objet. Une rémanence d’image et/ou un flou de mouvement associé peut/peuvent contribuer à ce que l’utilisateur rate une zone suspecte. Des utilisateurs peuvent réduire la vitesse d’examen ou balayer de façon répétée une région si l’utilisateur est soupçonneux afin d’augmenter la sensibilité, mais cela requiert du temps qui peut ne pas être disponible. Soit une zone suspecte n’est pas identifiée (abaissement de la sensibilité), soit un temps de balayage est augmenté pour confirmer les résultats d’imagerie.
Pour des examens automatisés, tels que par un dispositif de balayage grand volume, le système balaye le patient une fois pour générer une séquence d’images. La recherche d’objets suspects peut se faire lorsque l’examen du patient est terminé. En résultat, le patient peut devoir revenir pour un autre examen pour un balayage plus détaillé de quelconques régions suspectes. Cette approche « de rappel » peut être inefficace et coûteuse.
BREF RESUME À titre d’introduction, les modes de réalisation préférés décrits ci-dessous incluent des procédés, des instructions, et des systèmes pour une assistance d’alerte pour un dispositif de balayage à ultrasons (en anglais « ultrasound scanner »). Une détection assistée par ordinateur est appliquée alors que le patient est balayé. L’utilisateur peut être notifié de quelconques objets détectés, de sorte que l’utilisateur réunit plus d’informations lorsque tel est approprié. Un système automatisé peut être configuré pour revenir en arrière afin de balayer de quelconques objets détectés. Des informations sont réunies dans le cadre du déroulement des opérations pour cet examen donné du patient sur la base de la détection. Une propriété mécanique de l’objet est dérivée des informations supplémentaires, résultant en d’autres informations qui peuvent être utilisées pour éviter une visite de rappel et/ou augmenter la sensibilité dans des balayage en mode diagnostic.
Sous un premier aspect, un procédé est proposé pour une assistance d’alerte pour un dispositif de balayage à ultrasons. Un patient est balayé avec un transducteur à ultrasons du dispositif de balayage à ultrasons en mode diagnostic dans lequel le transducteur à ultrasons se déplace par rapport au patient. Une détection assistée par ordinateur est appliquée par le dispositif de balayage à ultrasons à chacune d’une séquence de trames acquises par le balayage. La détection assistée par ordinateur du dispositif de balayage à ultrasons identifie un objet dans une première des trames. En réponse à l’identification de l’objet dans la première trame, une propriété mécanique de l’objet est mesurée. Une image est générée avec une alerte identifiant la première trame et la propriété mécanique mesurée.
Selon les variantes, le procédé peut comprendre une ou plusieurs des étapes ou caractéristiques suivantes : - le balayage comprend le balayage avec le mouvement du transducteur à ultrasons commandé par un moteur ; - le balayage comprend le balayage avec le mouvement du transducteur à ultrasons effectué manuellement par un utilisateur ; - le balayage comprend le balayage robotisé et la mesure comprend la mesure robotisée ; - l’application comprend l’application de la détection assistée par ordinateur comme un détecteur à apprentissage machine de l’objet utilisable pour traiter les trames de la séquence tandis que le balayage est effectué ; - l’identification comprend l’identification d’une tumeur dans la première trame et l’identification d’aucune tumeur dans une pluralité d’autres trames de la séquence ; - le balayage comprend le balayage selon un motif prédéterminé pour la séquence, et la mesure comprend la commande d’un moteur connecté avec le transducteur à ultrasons pour ramener le transducteur à ultrasons jusqu’à une position pour la première trame lorsque le motif prédéterminé est terminé et le balayage pour la propriété mécanique avec le dispositif de balayage à ultrasons ; - la mesure comprend la dérivation de la propriété mécanique à partir, au moins en partie, de la première trame ; - la mesure comprend la mesure d’une déformation, d’un taux de déformation, d’une vitesse de cisaillement, d’une élasticité, ou d’un module de Young ; - la mesure comprend la dérivation d’une caractéristique de l’objet autre qu’une réponse à une énergie provenant de l’imagerie ; - la génération comprend la génération de l’image avec l’alerte étant un fanion d’un emplacement du transducteur à ultrasons pour balayer l’objet ; - l’identification d’objets dans d’autres trames de la séquence ; et le stockage de la première trame et des autres trames ; - la génération comprend la génération de l’image à partir de la première trame avec l’alerte comprenant une indication que l’objet est détecté dans l’image.
Sous un deuxième aspect, un support de stockage non transitoire lisible par ordinateur a, stockées dans celui-ci, des données représentant des instructions exécutables par un processeur programmé pour une assistance d’alerte dans une imagerie par ultrasons. Le support de stockage inclut des instructions pour : générer des images par ultrasons d’un patient avec un transducteur à ultrasons tandis que le transducteur à ultrasons se déplace le long du patient ; appliquer une détection d’une cible aux images par ultrasons pendant l’acquisition des images par ultrasons ; enregistrer un emplacement du transducteur à ultrasons en réponse à la détection de la cible dans une des images ; notifier la détection ; acquérir des données représentant l’objet en réponse à la détection et en utilisant l’emplacement ; dériver une valeur d’une caractéristique de la cible à partir des données ; et présenter la valeur.
Selon les variantes, le support de stockage peut comprendre une ou plusieurs des caractéristiques suivantes : - l’application de la détection comprend l’application d’une détection assistée par ordinateur spécifique à un type d’examen pour lequel le balayage est effectué ; - la présentation de la valeur comprend la génération d’un affichage de l’image avec la cible mise en lumière et incluant la valeur de la caractéristique ; - l’acquisition des données comprend l’utilisation de l’image, le rebalayage du patient à l’emplacement, ou les deux, et la dérivation de la valeur comprend la dérivation d’une propriété mécanique comme la caractéristique ; - l’enregistrement de l’emplacement comprend l’enregistrement d’une position du transducteur à ultrasons électroniquement ou physiquement ; - la notification comprend l’indication de l’emplacement à un utilisateur.
Sous un troisième aspect, un système est proposé pour une assistance d’alerte dans une imagerie par ultrasons. Un robot se connecte avec un transducteur et est configuré pour déplacer le transducteur selon un motif de balayage prédéterminé. Un formeur de faisceaux de transmission et un formeur de faisceaux de réception sont configurés pour balayer, avec le transducteur, un patient avec des ultrasons tandis que le robot déplace le transducteur. Un processeur est configuré pour appliquer une détection assistée par ordinateur à des résultats du balayage, pour faire en sorte que le robot ramène le transducteur à un emplacement de détection par la détection assistée par ordinateur après la fin du motif de balayage prédéterminé, et pour dériver une propriété mécanique de tissu sur la base d’informations acquises avec le transducteur ramené jusqu’à l’emplacement. Un afficheur est utilisable pour afficher la propriété mécanique du tissu avec un fanion pour les résultats pour l’emplacement. D’autres aspects et avantages de l’invention sont discutés ci-dessous en conjonction avec les modes de réalisation préférés.
BREVE DESCRIPTION DES DESSINS
Les composants et les figures ne sont pas nécessairement à l’échelle, l’accent étant plutôt mis sur l’illustration des principes de l’invention. De plus, sur les figures, des numéros de référence semblables désignent des parties correspondantes sur les différentes vues.
La Figure 1 est un ordinogramme d’un mode de réalisation d’un procédé pour une assistance d’alerte pour un dispositif de balayage à ultrasons ; la Figure 2 illustre un exemple d’un mode de diagnostic avec un objet identifié sur une image pour mesurer une propriété mécanique ; et la Figure 3 est un mode de réalisation d’un système pour une assistance d’alerte dans une imagerie par ultrasons.
DESCRIPTION DETAILLEE DES DESSINS ET DES MODES DE REALISATION AUJOURD’HUI PREFERES
Le déroulement des opérations en mode diagnostic est amélioré dans une imagerie médicale par ultrasons. Pendant le mode diagnostic, l’échographiste ou un robot déplace le transducteur pour examiner un organe et/ou localiser une région d’intérêt. En mode diagnostic, le mouvement du transducteur permet le balayage de différentes régions du patient pour examiner cet organe ou une plage de régions du patient pour de quelconques objets suspects. Par exemple, un transducteur est déplacé le long des seins d’une patiente afin d’examiner les seins pour de quelconques tumeurs ou kystes. Le patient peut être examiné pour trouver une région d’intérêt. Le transducteur est déplacé pour trouver un organe ou un emplacement d’intérêt. Une partie du patient est examinée afin de trouver l’emplacement d’intérêt.
Une alerte est proposée en mode diagnostic pour aider l’utilisateur à trouver des objets dans le patient. L’alerte est une notification à l’utilisateur de détection de l’objet, un fanion ou un enregistrement des données ou de l’image représentant l’objet, une indication de l’emplacement du transducteur pour balayer l’objet, une mise en lumière sur une image pendant l’observation, ou autre alerte en temps réel ou post-procédure. L’utilisateur est aidé par l’alerte, tel que l’alerte aidant à éviter de rater l’objet et/ou indiquant où balayer ou mesurer.
Dans un mode de réalisation de balayage robotisé, des données d’images sont complétées avec des propriétés acoustiques et/ou mécaniques en temps réel. Un robot balaye selon un standard prédéfini. Un algorithme tourne en arrière-plan pour reconnaître des caractéristiques, telles que des zones denses dans un examen des seins. Pour toutes caractéristiques reconnues, la posture d’imagerie (par exemple la position et l’angle de transducteur) est enregistrée et un utilisateur est notifié. Des alertes, telles que des étiquettes pour des images avec des objets suspects et/ou une sauvegarde des images suspectes en plus de la boucle CINE classique, sont fournies à l’utilisateur. Des propriétés acoustiques et/ou mécaniques de la cible sont ensuite examinées par retour à la zone cible, automatiquement ou manuellement, après balayage avec le standard prédéfini. À titre d’alternative, la propriété est dérivée des données sauvegardées du balayage de diagnostic. La recherche de propriétés acoustiques et/ou mécaniques peut être effectuée avec un dispositif différent (à savoir autre que le dispositif de balayage à ultrasons) opéré par le robot ou une personne ou effectuée avec le même système à ultrasons. Des objets suspects étiquetés avec des propriétés mécaniques associées sont mis en lumière dans une ou plusieurs image(s) et/ou rendu(s) en volume.
La Figure 1 montre un procédé d’assistance d’alerte pour un dispositif de balayage à ultrasons. En mode de fonctionnement de diagnostic, où le transducteur se déplace pour examiner le patient, une détection assistée par ordinateur indique des emplacements auxquels une propriété mécanique devrait être mesurée. Cela alerte l’utilisateur sur une région suspecte et permet la réunion de données nécessaires du déroulement des opérations tout en limitant la probabilité qu’un patient ne sorte et ne doive revenir pour un autre examen et en augmentant la sensibilité. Le procédé améliore l’imagerie médicale et le balayage pour réunir des informations utilisables par un médecin pour un diagnostic médical.
Le procédé est mis en oeuvre par le système de la Figure 3 ou un système différent. Par exemple, le système d’imagerie par ultrasons génère des images par ultrasons en utilisant des formeurs de faisceaux et un transducteur. Un processeur, un contrôleur ou un processeur d’images d’un système d’imagerie par ultrasons applique une détection assistée par ordinateur pour identifier un objet, enregistrer l’emplacement du transducteur et/ou de l’objet, et notifier la détection. Le système d’imagerie par ultrasons ou autre dispositif acquiert des données pour l’objet, dérive une propriété mécanique de l’objet, et présente la valeur comme une alerte pour aider l’utilisateur. Des formeurs de faisceaux, une mémoire, des détecteurs et/ou autres dispositifs peuvent être utilisés pour acquérir les données, mettre en oeuvre une ou plusieurs des actions et/ou délivrer les données en sortie. Le processeur peut commander les dispositifs pour mettre en oeuvre le procédé de la Figure 1.
Des actions additionnelles, différentes, ou en nombre moindre peuvent être prévues. Par exemple, le procédé est mis en oeuvre sans enregistrer l’emplacement à l’action 32 ou la notification à l’action 34. Comme un autre exemple, le procédé est mis en oeuvre sans présenter la valeur à l’action 40. Les actions 34 et 40 peuvent être une même action, telle que la présentation de la valeur de l’action 40 étant la notification de la détection de l’action 34.
Les actions sont mises en oeuvre dans l’ordre décrit ou montré (par exemple de haut en bas), mais peuvent être mises en oeuvre dans d’autres ordres. Les actions 32 et/ou 34 peuvent survenir avant, après ou simultanément avec l’une quelconque des actions 36, 38 et/ou 40. À l’action 26, le dispositif de balayage à ultrasons génère des images par ultrasons du patient. Les images sont générées en balayant le patient. À titre d’alternative, les images sont générées en chargeant des trames de données dans une mémoire. Les images ont été générées à partir d’un balayage précédent du patient, stocké en mémoire.
Un type quelconque d’images par ultrasons peut être généré, tel qu’en mode B, en mode flux (par exemple vitesse ou puissance Doppler), agent de contraste, harmonique, Doppler à ondes pulsées (à savoir Doppler spectral), mode M, Doppler de tissu (à savoir mouvement de tissu) ou autre mode d’imagerie par ultrasons représentant une interaction acoustique avec le patient. Les différents modes détectent différents types d’informations, tels qu’une intensité de retour acoustique (par exemple mode B et mode M) ou une vitesse (par exemple mode flux ou Doppler de tissu).
Pour acquérir les images, le transducteur à ultrasons est déplacé le long du patient. Le mouvement se fait le long d’une peau du patient, mais peut se faire le long d’un vaisseau ou d’un organe à l’intérieur du patient (par exemple balayage avec une sonde ou un cathéter). Le processus général pour le balayage et l’imagerie inclut le placement du transducteur sur le patient, la rotation et/ou la translation du transducteur pour examiner le patient, le balayage tandis que le transducteur se déplace, et la génération d’images dans le cadre de l’examen. Dans ce processus, le transducteur peut être ou ne pas être soulevé du patient. Les images sont générées tandis que le transducteur est déplacé le long du patient et/ou pendant le balayage avec le transducteur. À titre d’alternative, des trames de données sont acquises pendant l’examen ou le déplacement du transducteur et des images sont générées ultérieurement.
En mode diagnostic, le balayage est effectué tandis que le transducteur est déplacé par rapport au patient. Le mouvement est celui du transducteur plutôt que de parties internes du patient qui se déplacent. Le transducteur se déplace par rapport au tissu du patient au contact du transducteur. Le mouvement du transducteur fait que le dispositif de balayage à ultrasons balaye différents plans ou volumes du patient à différents moments. De cette manière, le patient est examiné dans le temps. La séquence de balayage acquiert des données représentant différentes parties du patient.
Dans un mode de réalisation, le transducteur est déplacé manuellement par l’utilisateur ou échographiste. L’utilisateur tient le transducteur et fait glisser et/ou tourner le transducteur pour examiner le patient, tel que par une translation du transducteur pour balayer différents plans à travers un organe (par exemple un sein).
Dans un autre mode de réalisation, le transducteur est déplacé automatiquement. Un robot balaye le patient. Le robot commande la position et/ou le mouvement du transducteur. Par exemple, un bras robotisé déplace une ou plusieurs articulation(s) pour une translation et/ou une rotation du transducteur. Dans un autre exemple, le robot inclut une transmission par chaîne, une transmission par vis, un engrenage, un mécanisme à pignon et crémaillère ou autre transmission pour déplacer le transducteur le long d’une plaque ou d’une surface plate ou incurvée. Tout système robotisé connu aujourd’hui ou développé ultérieurement avec un moteur peut être utilisé pour déplacer le transducteur sans qu’une force d’utilisateur ne soit appliquée pour le déplacement pendant le balayage. Un balayage en volume automatisé du sein ou autre balayage peut utiliser un robot.
Le robot et/ou l’utilisateur déplace(nt) le transducteur sur une région prédéfinie. Un motif prédéterminé est utilisé pour le balayage. Par exemple, le robot déplace le transducteur jusqu’à différents points, sur une plage de rotation et/ou sur une plage de translation pour balayer. Le motif prédéterminé définit l’espacement, la vitesse, les plages et/ou les étapes utilisés dans le mouvement du transducteur. Le moment et/ou la position auquel/à laquelle chaque balayage a lieu peut/peuvent être fixé(s). A titre d’alternative, le balayage est continu ou périodique sans tenir compte de la position tandis que le transducteur est déplacé. Dans d’autres modes de réalisation, l’examen est effectué sur une quelconque région sans prédétermination, tel que pendant un examen manuel.
La Figure 2 montre un exemple d’acquisition en mode diagnostic 40. Le transducteur 14 est déplacé, résultant en des trames 44 de données étant acquises. Les différentes trames 44 représentent différents plans parallèles dans cet exemple.
En mode d’imagerie de diagnostic, une grande quantité de données est recueillie. Chaque balayage d’un plan ou d’un volume fournit une trame de données. Des trames de données sont fournies pour les diverses positions du transducteur. Une image peut être générée à partir de chaque trame. Avec une rémanence ou autre composition, des images peuvent être générées à partir de trames multiples. Des dizaines, des centaines ou des milliers de trames et/ou d’images sont créées pour examiner le patient en un examen (par exemple une mise en oeuvre du motif prédéterminé et/ou lors d’une visite donnée d’un patient à l’échographiste). Le grand nombre de trames ou d’images pose un problème et un défi pour analyser les données et identifier des cibles suspectes. À l’action 28, le dispositif de balayage à ultrasons ou un processeur d’images applique une détection assistée par ordinateur à chacune des trames ou images de la séquence acquise par le balayage. Les images peuvent être des valeurs d’affichage (RVB) ou des données scalaires utilisées pour générer des valeurs d’affichage. Les trames sont des images ou des données à d’autres stades de traitement. Le balayage fournit une séquence de trames et/ou d’images. La détection assistée par ordinateur et autres traitements décrits ici sont appliqués aux trames et/ou aux images.
Une quelconque détection assistée par ordinateur connue aujourd’hui ou développée ultérieurement peut être appliquée. Par exemple, une mise en correspondance de motif est utilisée pour déterminer si un motif indicateur d’une tumeur ou d’un kyste est localisé dans la trame ou l’image. Comme un autre exemple, un seuillage, une segmentation ou autre traitement d’images est appliqué(e). Pour une détection plus rapide, un détecteur à apprentissage machine peut être appliqué. La détection à apprentissage machine est un réseau bayésien, une machine à vecteurs support, un réseau neuronal, ou autre détecteur mettant en relation des caractéristiques d’entrée de la trame ou de l’image (par exemple caractéristiques pilotables ou ondelettes de Haar) avec des objets suspects.
Lorsque la détection assistée par ordinateur est basée sur un apprentissage machine, un auto-apprentissage ou un apprentissage par rétroaction peut être utilisé. Lorsqu’un médecin analyse des objets détectés et indique si l’objet est suspect ou d’intérêt, cette information peut être utilisée comme des données d’apprentissage supplémentaires pour un nouvel apprentissage ou une mise à jour du détecteur avec une réalité de terrain additionnelle.
La détection assistée par ordinateur est appliquée à la totalité des trames. Dans d’autres modes de réalisation, la détection est appliquée à moins que la totalité des trames. Lorsque le dispositif de balayage à ultrasons peut être configuré pour un mode diagnostic, la détection peut être appliquée à toutes les trames. Dans d’autres approches, la détection est appliquée à des trames associées avec le mouvement de transducteur. En utilisant un capteur sur le transducteur, une connaissance du fonctionnement du robot et/ou une corrélation de données pour détecter un mouvement du transducteur, le dispositif de balayage à ultrasons peut appliquer la détection à des trames associées avec un mouvement et non à des trames où le transducteur est stationnaire.
La détection assistée par ordinateur est appliquée lors de l’acquisition des trames ou des images. L’application est en temps réel. La période pour traiter une trame est égale ou inférieure à la période pour acquérir une nouvelle trame, permettant que l’application se fasse en temps réel, tel que la réalisation de l’application de la détection dans la seconde de la création du balayage. Dans d’autres modes de réalisation, l’application se fait dans un processus ultérieur lorsque le balayage est terminé. Des combinaisons d’application de détection lors du balayage et comme un processus ultérieur peuvent être utilisées.
Différents détecteurs assistés par ordinateur peuvent détecter différents types d’objets et/ou des objets dans différentes situations. Des détecteurs multiples peuvent être appliqués à chaque trame. Dans un mode de réalisation, les détecteurs à appliquer sont choisis sur la base du type d’examen. Par exemple, l’utilisateur configure le dispositif de balayage à ultrasons pour un examen des seins. Un détecteur ou des détecteurs pour détecter des objets suspects (par exemple des tumeurs et/ou des kystes) dans les seins est/sont choisi(s) et appiiqué(s). Comme un autre exemple, l’utilisateur configure le dispositif de balayage à ultrasons pour un examen des seins pour détecter un cancer. Un détecteur ou des détecteurs pour détecter des objets cancéreux dans les seins est/sont choisi(s). La sélection est automatique par le processeur, ou bien l’utilisateur sélectionne les détecteurs. À l’action 30, un ou plusieurs objet(s) est/sont identifié(s) par le processeur d’images ou le dispositif de balayage à ultrasons. Un ou plusieurs objet(s) est/sont identifié(s) dans un nombre quelconque de trames ou d’images. Certaines trames peuvent être déterminées ne pas inclure l’un quelconque des objets cible. Pour chacune ou certaines des images acquises, des cibles sont reconnues. Par exemple, la détection assistée par ordinateur localise des objets suspects dans cinq parmi mille images. Une tumeur ou autre objet est identifié(e). Il est possible de ne pas détecter d’objets.
La Figure 2 montre un exemple. Dans l’opération de détection 42, l’objet 46 est détecté dans une des trames 44. Le transducteur 14 est positionné en un emplacement donné par rapport au patient pour acquérir cette trame 44 avec l’objet 46.
Lorsque la caractérisation assistée par ordinateur tourne en temps réel, les zones suspectes sont mises en lumière pendant un balayage en temps réel tout en examinant le patient. Les objets sont identifiés pendant le balayage. Pour un traitement ultérieur, les zones suspectes sont localisées lorsque le balayage est terminé.
Lorsqu’une rémanence, une composition spatiale pilotée ou autre composition est utilisée, l’identification peut être dans des images ou des trames non affichées comme une partie de la rémanence ou de l’imagerie composite. Par exemple, le détecteur est appliqué à des trames composantes utilisées pour la rémanence ou la composition spatiale. Pour l’imagerie de diagnostic, les images avec rémanence (par exemple temporellement filtrées) ou composition spatiale (par exemple combinaison de trames avec différentes directions de pilotage) sont affichées sans afficher les trames ou images composantes. La détection est appliquée aux trames ou images composantes et/ou aux trames ou images telles que composées. Lorsque la détection est positive, la trame ou image composante peut être affichée sans la composition ou la rémanence. À titre d’alternative ou en outre, une détection ou non dans un multiple des trames composantes peut être utilisée pour indiquer une confiance dans la détection. À l’action 32, le dispositif de balayage à ultrasons ou le processeur d’images enregistre un emplacement du transducteur à ultrasons en réponse à une détection de la cible dans une des images. Le détecteur détecte un objet dans une trame. Cette trame correspond à une position donnée du transducteur. La position du transducteur pour la trame détectée est enregistrée. L’enregistrement peut être effectué pour toutes les trames de telle sorte que remplacement peut être recherché pour des trames quelconques avec un objet détecté en réponse à la détection. À titre d’alternative, l’enregistrement n’est effectué que pour des trames où l’objet est détecté. L’enregistrement est électronique ou physique. L’emplacement de transducteur peut être suivi, tel que par un système optique, un système magnétique, ou autre suivi de transducteur. La position et l’orientation latérales du transducteur sont suivies. Ces systèmes enregistrent électroniquement l’emplacement sur la base de la trame de référence étalonnée. Un suivi inertiel peut être utilisé. Pour un enregistrement physique, la position du transducteur est marquée physiquement. Par exemple, le transducteur excrète une encre colorée ou un colorant à la détection, de telle sorte que l’emplacement est marqué sur le patient et/ou dans le gel de couplage acoustique. Comme un autre exemple, un marquage est indiqué sur une trame ou un guide pour le transducteur.
La trame ou l’image peut de la même manière être enregistrée avec ou sans l’objet identifié. Un ensemble de trames ou d’images avec des objets détectés est créé pour référence par un utilisateur. À titre d’alternative, l’identité de la trame ou de l’image dans la séquence d’images ou de trames est enregistrée. La trame ou l’image peut être rappelée depuis la séquence. À l’action 34, le processeur d’images ou le dispositif de balayage à ultrasons notifie la détection. La notification est une sortie pour l’utilisateur. Une sortie quelconque peut être utilisée. Dans un mode de réalisation, la sortie est visuelle sur un afficheur. Un texte ou un symbole indiquant qu’un objet a été détecté est sorti. L’image avec l’objet détecté peut être sortie avec ou sans mise en lumière de l’objet détecté dans l’image comme notification. Un autre exemple de sortie est la coloration ou le marquage du patient ou du gel acoustique.
Dans un mode de réalisation, la notification inclut l’emplacement. L’emplacement est fourni comme des coordonnées, une position spatiale sur le patient (par exemple montrée sur un graphique ou marquée sur le patient), une rétroaction indiquant si le transducteur se déplace vers ou au niveau de l’emplacement, ou autre indicateur d’emplacement.
Dans des modes de réalisation additionnels ou différents, la notification est fournie par audio. Un bruit est émis à la détection. Le bruit indique que le transducteur est à l’emplacement dans une mise en œuvre en temps réel. À titre d’alternative, le bruit est fourni comme une rétroaction pour guider l’utilisateur pour positionner le transducteur à l’emplacement (par exemple une tonalité périodique avec une fréquence supérieure plus il est proche de l’emplacement). D’autres notifications peuvent être utilisées, telles qu’une combinaison d’audio et de vidéo. Une notification tactile (par exemple une vibration du transducteur) et/ou une odeur peut/peuvent être utilisée(s). la notification est celle de la survenue, de l’emplacement du transducteur et/ou du plan de balayage, de l’emplacement de l’objet dans l’image, d’autres informations relatives à la détection, et/ou des combinaisons de ceux-ci.
La notification est fournie à la survenue de la détection. Une fois détecté, la notification est délivrée en sortie de telle manière que le transducteur peut être maintenu à la position pour réunir des informations additionnelles à l’action 36. Pour une mise en œuvre robotisée, la notification peut être utilisée de manière à ce que le patient puisse être informé que l’examen peut être plus long que prévu. Dans des modes de réalisation différents ou additionnels, la notification est fournie après quelques secondes, minutes, heures ou autre période quelconque après la survenue de la détection. Par exemple, lorsque le balayage au format prédéterminé est terminé, le système robotisé notifie qu’un autre balayage doit avoir lieu du fait de la détection d’un ou plusieurs objet(s). Comme un autre exemple, un médecin charge les résultats de l’examen pour analyse ultérieure. Le médecin est notifié que la détection est survenue. Cette notification peut être un ensemble d’images avec fanions avec des objets détectés, les fanions, ou autre information.
Dans un mode de réalisation, le dispositif de balayage à ultrasons ou le processeur d’images fournit des informations relatives à la détection supplémentaires à ou autres que l’emplacement du transducteur, la survenue, et/ou l’emplacement de l’objet dans l’image. Par exemple, une confiance dans la détection est fournie. Des classifieurs à apprentissage machine peuvent fournir des informations de confiance. D’autres sources de confiance peuvent être utilisées, telles qu'un degré de corrélation de l’image avec un modèle ou une confiance basée sur une logique floue. Lorsque des images ou trames multiples représentant un même champ de vision ou des champs de vision se chevauchant sont fournies (par exemple transducteur à mouvement lent et/ou type de composition d’imagerie), les confiances dans les trames ou images multiples peuvent être combinées (par exemple moyennées) pour fournir une confiance pour l’objet particulier.
Cette confiance est délivrée en sortie pour l’utilisateur comme un pourcentage, un codage couleur ou autre indicateur. Dans un mode de réalisation, différentes couleurs et/ou intensités de la mise en lumière de l’objet dans l’image représentent différentes plages ou niveaux de confiance. D’autres indicateurs de confiance peuvent être fournis, tels que l’ordre de présentation des images. Les images stockées sont fournies avec les détections les plus de confiance en premier, en dernier ou dans un ordre classé par confiance.
Dans d’autres modes de réalisation, l’utilisateur n’est pas notifié. À la place, les actions 36, 38 et 40 sont mises en œuvre sans notification séparée. L’action 40 peut être une forme de notification dans le sens où la fourniture d’une valeur d’une propriété mécanique indique qu’un objet a été détecté. À l’action 36, le dispositif de balayage à ultrasons, un autre dispositif de balayage (par exemple à rayons X), et/ou un équipement de test de laboratoire (par exemple une biopsie robotisée) acquiert des données représentant l’objet en réponse à la détection. Des outils de mesure identiques ou différents (par exemple résonance magnétique, ultrasons, frappe manuelle ou autre outil) sont utilisés pour acquérir les données pour une propriété mécanique. Les données sont acquises par une mesure effectuée sur l’objet dans le patient. Par exemple, le dispositif de balayage à ultrasons balaye à nouveau l’objet pour réunir des données différentes ou additionnelles. À titre d’alternative, les données sont acquises dans une mémoire, tel qu’en utilisant les données de trame ou d’image à l’emplacement (à savoir des données utilisées pour détecter l’objet) pour dériver d’autres informations.
Les données acquises sont pour une propriété mécanique. Plutôt que de simplement balayer pour une imagerie (par exemple intensité de retour acoustique (mode B) et/ou vitesse ou puissance de flux (mode flux)), des données représentant une propriété mécanique ou une caractéristique de l’objet lui-même sont acquises. Par exemple, l’élasticité, la vitesse de cisaillement, le module de Young, la déformation, le taux de déformation ou autre paramétrage de l’objet est mesuré(e). La mesure utilise plus que simplement une trame de données ou d’image pour dériver les caractéristiques de l’objet. La mesure peut être focalisée sur l’objet et/ou avoir un champ de vision plus petit que pour la génération des images pour l’examen.
Le processeur d’images, le dispositif de balayage à ultrasons ou autre contrôleur cause l’acquisition des données pour l’objet détecté. L’acquisition est automatisée, semi-automatique ou manuelle. Le contrôleur peut afficher des instructions pour l’utilisateur de telle sorte que l’utilisateur acquiert les données lors de l’examen ou d’une visite donnée du patient. L’utilisateur déplace le dispositif pour la mesure. Le contrôleur peut exécuter certaines opérations automatiquement, telles que la mesure et/ou le positionnement pour la mesure une fois que l’utilisateur active et/ou positionne. Le contrôleur peut localiser pour la mesure (par exemple déplace le transducteur de manière robotisée) et exécuter la mesure (par exemple un balayage pour une propriété mécanique de l’objet) sans entrée de l’emplacement, balayage et/ou activation par l’utilisateur. Les données sont acquises en temps réel (par exemple lors d’un même examen) ou effectuées ultérieurement (par exemple manuellement hors ligne).
Pour acquérir les données pour la propriété mécanique, l’emplacement de l’objet est utilisé. Le dispositif de balayage à ultrasons, le contrôleur ou le processeur d’images utilise l’emplacement auquel était le transducteur lorsqu’il avait balayé l’objet. Cet emplacement du transducteur et l’emplacement de l’objet par rapport au transducteur sur la base du format de balayage sont utilisés pour acquérir les données. Les données sont acquises à partir de l’objet et l’emplacement du transducteur est utilisé pour indiquer où l’objet peut être trouvé. En utilisant un marquage et/ou une détection de position, l’information d’emplacement est utilisée pour positionner un dispositif pour la mesure. Comme représenté par la flèche en pointillés entre les actions 32 et 36, l’emplacement enregistré de l’action 32 peut être ou non utilisé pour guider l’acquisition d’autres informations relatives à l’objet à l’action 36. L’enregistrement de l’emplacement des images suspectes peut provenir d’une posture robotique, d’un capteur électromagnétique, d’un localisateur inertiel, d’un marqueur lâché par une sonde, des images acoustiques elles-mêmes, et/ou d’un balayage enregistré en vidéo.
Par exemple, le robot positionne le transducteur pour acquérir des données utilisées pour mesurer la caractéristique. Un moteur connecté avec le transducteur à ultrasons fait que le transducteur revient à une position pour balayer l’objet. La position est une même position utilisée lors de l’examen à partir duquel l’objet a été détecté. Le transducteur est ramené à l’emplacement auquel était le transducteur pour balayer le patient pour acquérir la trame dans laquelle l’objet est détecté. À la fin du motif de balayage prédéterminé pour l’examen ou en interrompant le motif, le transducteur est maintenu ou repositionné pour balayer à nouveau l’objet. La propriété mécanique est ensuite mesurée.
Dans le mode de réalisation d’examen manuel, l’utilisateur stoppe l’examen, ralentit l’examen et/ou revient en arrière après l’examen pour acquérir les données. Par exemple, le transducteur est stoppé ou ramené à l’emplacement pour acquérir les données (par exemple exécuter des mesures d’onde de cisaillement). Comme un autre exemple, l’utilisateur suspend temporellement l’examen à la notification, maintenant le transducteur en place. Le transducteur est ensuite utilisé pour acquérir d’autres données.
Dans le mode de réalisation d’examen automatisé ou robotique, le robot stoppe l’examen ou ramène le transducteur à l’emplacement après la fin de l’examen. Une interrogation additionnelle, telle qu’une imagerie d’élasticité, est effectuée par le dispositif de balayage à ultrasons une fois que le transducteur est revenu à l’emplacement correspondant à l’objet détecté. L’acquisition des données, sur la base de la détection en temps réel de l’objet, a lieu comme une partie de l’examen et/ou sans que le patient ne quitte l’examen. L’examen inclut le recueil d’informations relatives à l’objet ou aux objets suspect(s), se fait automatiquement, fournissant plus d’informations ou des informations complètes à la fin du rendez-vous ou de l’examen donné du patient. Les informations d’examen et d’autres informations pour un diagnostic sont acquises sans que le patient ne doive prendre des rendez-vous multiples ou être examiné un nombre multiple de fois. La détection et l’acquisition de données peuvent également fournir un rapport plus compact, tel qu’en envoyant les trames ou les images avec des objets détectés et les données acquises avec ou sans l’examen de façon à ce que le radiologue puisse se focaliser sur les informations d’intérêt. À l’action 38, le processeur d’images, le dispositif de balayage à ultrasons et/ou autre dispositif acquérant les données à l’action 36 dérive une valeur d’une caractéristique de la cible à partir des données acquises. Les données acquises sont utilisées pour dériver la propriété mécanique. Le caractère de l’objet est mesuré comme une propriété mécanique, mais d’autres caractéristiques de l’objet peuvent être calculées.
En réponse à l’identification ou la détection de l’objet, la propriété mécanique est mesurée. Une quelconque propriété mécanique ou autre caractéristique peut être dérivée. Par exemple, le dispositif de balayage à ultrasons mesure une déformation, un taux de déformation, une vitesse de cisaillement, une élasticité ou un module de Young. Ces propriétés mécaniques représentent plus qu’une réponse à une énergie de l’imagerie. Pour une déformation et un taux de déformation, des balayages multiples sont prévus pour dériver la déformation due au mouvement du tissu. Pour une vitesse de cisaillement, une élasticité ou un module de Young, un tissu est déplacé par une force acoustique ou autre et la réponse de tissu au déplacement ou à l’onde générée est mesurée. La caractéristique de l’objet est dérivée de plus que la simple imagerie. Des balayages multiples peuvent être utilisés pour ensuite calculer le déplacement dans le temps, qui est utilisé pour dériver une vitesse de cisaillement ou une élasticité. Tandis qu’une trame provenant de l’examen peut être utilisée, comme une référence pour calculer un déplacement, d’autres trames de données sont acquises à l’action 36 pour dériver la caractéristique de l’objet. À l’action 40, le dispositif de balayage à ultrasons, le processeur d’images ou autre dispositif présente la valeur ou les valeurs dérivée(s). La valeur peut être utile en termes de diagnostic et donne des informations en plus de l’imagerie. La valeur est délivrée en sortie pour l’utilisateur, tel qu’une délivrance en sortie sur un afficheur. Dans un mode de réalisation, un affichage de l’image avec l’objet détecté mis en lumière est généré. La valeur de la caractéristique est fournie comme une annotation, une étiquette, et/ou dans l’image comme un texte, un graphique, une barre, un codage couleur et/ou un codage luminosité. En visualisant l’affichage, l’image du patient et l’objet sont fournis ainsi qu’une indication de la propriété mécanique ou des propriétés de l’objet.
Dans un mode de réalisation, la valeur est fournie comme ou avec la notification de l’action 34. Dans d’autres modes de réalisation, la valeur est fournie séparément de la notification, tel que la fourniture de la valeur après notification et lors d’une analyse ultérieure pour un diagnostic et/ou pour confirmer l’acquisition des données additionnelles à l’action 36. Dans l’un ou l’autre cas, l’utilisateur est alerté sur la caractéristique de l’objet, ce qui aide à l’examen.
Des sorties autres que sur l’afficheur peuvent être utilisées. La valeur peut être stockée dans le dossier du patient, avec l’examen, et/ou avec des enregistrements de l’emplacement, de l’objet et/ou de trames avec les objets détectés. La valeur est ensuite affichée pour l’utilisateur lors de l’analyse. L’action 28 est appliquée à toutes les ou à des trames ou images multiples de la séquence générée par le balayage en mode diagnostic. Lorsque des objets sont détectés dans des trames multiples à l’action 30, l’emplacement et/ou les trames est/sont stocké(es) à l’action 32 et des notifications séparées sont fournies à l’action 34. Dans d’autres modes de réalisation, une notification avec une liste d’emplacements, de trames, d’images ou autres informations relatives à des objets détectés est fournie à la fin de l’examen ou ultérieurement. Puisque l’action 32 est répétée pour chaque objet, un groupe de trames avec des objets détectés est identifié ou réuni. Ce groupe peut être délivré séparément de l’examen pour revue ou analyse ultérieure. Les actions 36, 38 et 40 sont exécutées pour chaque objet.
Puisque l’utilisateur analyse des images des objets détectés avec les valeurs dérivées, l’utilisateur peut indiquer que la détection de l’objet est précise ou non. Par exemple, la valeur et/ou l’image peut/peuvent montrer à l’utilisateur si l’objet est ou n’est pas une tumeur, un kyste ou autre objet d’intérêt. L’utilisateur entre si la détection est précise ou non. Cette rétroaction est utilisée comme information de réalité de terrain. L’image et la rétroaction sont fournies pour un apprentissage machine pour mettre à jour le détecteur appliqué à l’action 28.
La Figure 3 montre un mode de réalisation d’un système pour une assistance d’alerte en imagerie par ultrasons. Le système alerte en appliquant une détection d’objet, fournissant une assistance. À titre d’alternative ou en outre, le système alerte l’utilisateur de la détection d’objet. Le système à ultrasons est configuré pour examiner un patient. Lors de l’examen, les données acquises sont analysées par le système pour des objets d’intérêt. Si de tels objets sont détectés, alors le système acquiert des informations de propriétés mécaniques relatives à l’objet. Plutôt que de simplement fournir des images à partir d’un examen, les images et les informations de propriétés mécaniques pour les objets d’intérêt sont fournies.
Le système 10 est un système d’imagerie par ultrasons pour diagnostic médical. Dans d’autres modes de réalisation, le système 10 est un ordinateur personnel, une station de travail, une station PACS, ou autre agencement en un même emplacement ou distribué sur un réseau pour une imagerie en temps réel ou post-acquisition par l’intermédiaire d’une connexion avec des formeurs de faisceaux 12, 16 et un transducteur 14.
Le système 10 met en oeuvre le procédé de la Figure 1, l’approche de la Figure 2 ou d’autres procédés. Le système 10 inclut un robot 11, un formeur de faisceaux de transmission 12, un transducteur 14, un formeur de faisceaux de réception 16, un processeur d’images 18, un afficheur 20, une mémoire 22 et un processeur 24. Des composants additionnels, différents ou en nombre moindre peuvent être prévus. Par exemple, une entrée d’utilisateur est prévue pour une désignation manuelle ou assistée d’une région d’intérêt à l’intérieur d’un champ de vision pour une imagerie en mode mixte et/ou pour configurer le système 10 à ultrasons pour une imagerie en mode mixte. Comme un autre exemple, le robot 11 n’est pas présent.
Le robot 11 est un moteur et un dispositif pour déplacer le transducteur 14 avec une force provenant du moteur, le robot 11 peut avoir un nombre quelconque de bras et d’articulations. Dans d’autres modes de réalisation, le robot 11 est un plateau supportant un transducteur 14 le long de rails, où le moteur déplace le transducteur 14 le long des rails. Des engrenages, des chaînes, un entraînement à vis ou autres dispositifs peuvent être prévus pour une translation de la force de moteur (par exemple rotation) en un mouvement du transducteur 14.
Sous le contrôle du processeur 24 ou autre contrôleur, le robot 11 est configuré pour déplacer le transducteur selon un motif prédéterminé. Le mouvement est constant ou par pas. Un motif quelconque peut être utilisé, tel que le déplacement du transducteur 14 le long d’une ligne d’un point de départ à un point d’arrêt. Un autre motif déplace le transducteur 14 de point en point dans une grille régulière sur le patient. Le motif peut inclure ou non un basculement ou une rotation du transducteur 14. Le robot 11 peut être configuré pour déplacer le transducteur 14 jusqu’à des emplacements particuliers sur la base d’une détection d’objets. Cet autre mouvement est effectué à la fin du mouvement pour le motif prédéterminé.
Le robot 11 se connecte au transducteur 14. La connexion est fixe ou libérable. Par exemple, un organe de préhension du robot 11 tient le transducteur 14, mais peut libérer le transducteur 14. Comme un autre exemple, le transducteur 14 est fixé par des vis, des boulons, des verrous ou un encliquetage à un système de maintien du robot 11.
Le formeur de faisceaux de transmission 12 est un émetteur d’ultrasons, une mémoire, un pulseur, un circuit analogique, un circuit numérique, ou des combinaisons de ceux-ci. Le formeur de faisceaux de transmission 12 est configuré pour générer des formes d’ondes pour une pluralité de canaux avec des amplitudes, des retards, et/ou un phasage différents ou relatifs. Les formes d’ondes sont générées et appliquées à une matrice de transducteur avec un(e) quelconque rythme ou fréquence de répétition d’impulsions. Par exemple, le formeur de faisceaux de transmission 12 génère une séquence d’impulsions pour un balayage en mode B dans un format linéaire, sectoriel ou Vector®. Comme un autre exemple, le formeur de faisceaux de transmission 12 génère une séquence d’impulsions pour un balayage en flux de couleurs, telles que des impulsions pour former 2-12 faisceaux dans un compte d’échantillons en flux constant par ligne de balayage pour une région d’intérêt à l’intérieur d’un champ de vision en mode B. Dans encore un autre exemple, le formeur de faisceaux de transmission 12 génère une séquence d’impulsions pour une imagerie d’élasticité ou de cisaillement. Le formeur de faisceaux de transmission 12 peut générer un faisceau pour une impulsion de force de rayonnement acoustique. L’intensité du faisceau cause une onde de cisaillement ou une onde longitudinale devant être générée depuis le point focal. Le formeur de faisceaux de transmission 12 génère ensuite des faisceaux pour suivre la réponse de tissu à l’onde générée.
Le formeur de faisceaux de transmission 12 se connecte avec le transducteur 14, tel que par l’intermédiaire d’un commutateur de transmission/réception. À la transmission d’ondes acoustiques depuis le transducteur 14 en réponse aux ondes générées, un ou plusieurs faisceau(x) est/sont formé(s) pendant un événement de transmission donné. Les faisceaux sont pour des modes d’imagerie en mode B, en mode de flux de couleurs, d’élasticité, d’onde de cisaillement et/ou autres modes. Une séquence de faisceaux de transmission sont générés pour balayer une région uni, bi ou tridimensionnelle. Les formats sectoriel, Vector®, linéaire ou autres formats de balayage peuvent être utilisés. Pour chaque position du transducteur 14 ou lorsque le transducteur 14 se déplace, un balayage complet de la région est effectué. De tels balayages complets multiples sont effectués avec le transducteur 14 en différents emplacements ou différentes plages d’emplacements.
Le transducteur 14 est un réseau à 1, 1,25, 1,5, 1,75 ou 2 dimension(s) d’éléments de membranes piézoélectriques ou capacitifs. Le transducteur 14 inclut une pluralité d’éléments pour une transduction entre énergies acoustique et électrique. Par exemple, le transducteur 14 est une matrice PZT unidimensionnelle avec environ 64-256 éléments.
Le transducteur 14 se connecte avec le formeur de faisceaux de transmission 12 pour convertir des formes d’ondes électriques en formes d’ondes acoustiques, et se connecte avec le formeur de faisceaux de réception 16 pour convertir des échos acoustiques en signaux électriques. Le transducteur 14 transmet des faisceaux. Pour former les faisceaux, les formes d’ondes sont focalisées au niveau d’une région de tissu ou d’un emplacement d’intérêt dans le patient. Les formes d’ondes acoustiques sont générées en réponse à l’application des formes d’ondes électriques aux éléments de transducteur. Pour balayer avec des ultrasons, le transducteur 14 transmet une énergie acoustique et reçoit des échos. Des signaux de réception sont générés en réponse à une énergie ultrasonore (échos) venant frapper les éléments du transducteur 14.
Le formeur de faisceaux de réception 16 inclut une pluralité de canaux avec des amplificateurs, des retards, et/ou des rotateurs de phase, et un ou plusieurs sommateurs. Chaque canal se connecte avec un ou plusieurs élément(s) de transducteur. Le formeur de faisceaux de réception 16 applique des retards relatifs, des phases, et/ou une apodisation pour former un ou plusieurs faisceau(x) de réception en réponse à chaque transmission pour imagerie. Une focalisation dynamique à la réception peut être prévue. Des retards relatifs et/ou un phasage et une sommation de signaux provenant de différents éléments donnent une formation de faisceaux. Le formeur de faisceaux de réception 16 délivre en sortie des données représentant des emplacements spatiaux en utilisant les signaux acoustiques reçus. Dans d’autres modes de réalisation, le formeur de faisceaux de réception 16 est un processeur pour générer des échantillons en utilisant une transformée de Fourier ou autre.
Le formeur de faisceaux de réception 16 peut inclure un filtre, tel qu’un filtre pour isoler des informations à une deuxième harmonique, une bande de fréquences de transmission (à savoir fondamentale) ou autre bande de fréquences par rapport à la bande de fréquences de transmission. De telles informations peuvent plus probablement inclure un tissu désiré, un agent de contraste, et/ou des informations de flux. Dans un autre mode de réalisation, le formeur de faisceaux de réception 16 inclut une mémoire ou tampon et un filtre ou additionneur. Deux faisceaux de réception ou plus sont combinés pour isoler des informations à une bande de fréquences désirée, telles qu’une deuxième harmonique, une cubique fondamentale ou autre bande.
Le formeur de faisceaux de réception 16 délivre en sortie des données sommées en faisceaux représentant des emplacements spatiaux. Des données pour un emplacement unique, des emplacements le long d’une ligne, des emplacements pour une zone, ou des emplacements pour un volume sont délivrées en sortie. Les données formées en faisceaux en réponse à un balayage complet d’une région sont une trame de données. Lorsque le transducteur se déplace, tel que par le robot 11, le balayage complet de chaque région est effectué, donnant des trames de données représentant des champs de vision spatialement différents.
Le processeur d’images 18 est un détecteur en mode B, un détecteur Doppler, un détecteur Doppler à ondes pulsées, un processeur de corrélations, un processeur de transformées de Fourier, un filtre, un autre processeur connu aujourd’hui ou développé ultérieurement pour mettre en œuvre un mode d’imagerie, ou des combinaisons de ceux-ci. Le processeur d’images 18 offre une détection pour les modes d’imagerie, tel qu’incluant un détecteur Doppler (par exemple un estimateur), et un détecteur en mode B. Un filtre spatial, un filtre temporel et/ou un convertisseur de balayage peut/peuvent être inclus dans ou mis en œuvre par le processeur d’images 18. Le processeur d’images 18 délivre en sortie des valeurs d’affichage, telles qu’une détection, un mappage des valeurs détectées sur des valeurs d’affichage, et un formatage des valeurs d’affichage ou des valeurs détectées à un format d’affichage. Le processeur d’images 18 reçoit des informations formées en faisceaux et délivre en sortie des données d’images pour affichage.
Le processeur 24 est un processeur de commande, un processeur général, un processeur de signaux numériques, une unité de traitement graphique, un circuit intégré spécifique, une matrice prédiffusée programmable par l’utilisateur, un réseau, un serveur, un groupe de processeurs, un chemin de données, des combinaisons de ceux-ci ou autre dispositif connu aujourd’hui ou développé ultérieurement pour détecter des objets dans des images et commander le système 10 à ultrasons en conséquence. Le processeur 24 est séparé ou fait partie du processeur d’images 18. Comme un dispositif séparé, le processeur 24 demande, reçoit, accède à ou charge des données à un stade quelconque de traitement (par exemple formées en faisceaux, détectées, converties par balayage, mappées sur un affichage ou autre stade) pour détecter et commander. Le processeur 24 est configuré par logiciel et/ou matériel pour mettre en œuvre les ou causer la mise en œuvre des actions de la Figure 1.
Le processeur 24 est configuré pour appliquer une détection assistée par ordinateur aux résultats du balayage. Les trames de données du formeur de faisceaux de réception 16 et/ou d’un stade quelconque de traitement du processeur d’images 18 sont entrées dans la détection assistée par ordinateur. Par exemple, des ondelettes de Haar, des gradients, des caractéristiques pilotables et/ou autres sont calculés à partir de chaque trame de données. Ces caractéristiques sont entrées comme un vecteur de caractéristiques dans un détecteur à apprentissage machine. Sur la base de ces caractéristiques, le détecteur indique si l’objet est ou non dans l’image, un emplacement d’un objet quelconque d’intérêt dans l’image et/ou une confiance dans une quelconque détection. Dans un autre exemple, un modèle ou motif représentant l’objet d’intérêt est corrélé par le processeur 24 avec la trame de données dans diverses positions relatives. Si une corrélation suffisante est trouvée, un objet d’intérêt est détecté. Une quelconque détection assistée par ordinateur connue aujourd’hui ou développée ultérieurement peut être utilisée.
Le processeur 24 est configuré pour commander le robot 11. Le robot 11 maintient ou ramène le transducteur 14 à une position semblable ou similaire (par exemple avec un champ de vision en chevauchement) à celle om un objet a été balayé. Sur la base d’une détection d’un objet d’intérêt, le processeur 24 détermine l’emplacement du transducteur 14 au moment du balayage pour la trame avec l’objet. Le transducteur 14 est stoppé à cette position pour acquérir des données pour mesurer une propriété mécanique. À titre d’alternative, le motif de balayage prédéterminé ou le motif de mouvement du transducteur 14 par le robot 11 est terminé, et ensuite le processeur 24 fait que le robot 11 ramène le transducteur 14 à l’emplacement.
Dans d’autres modes de réalisation, le processeur 24 génère une notification pour l’utilisateur. Par exemple, une notification est présentée sur l’afficheur 20. Comme un autre exemple, le transducteur 14 est commandé pour marquer (par exemple colorer) l’emplacement sur le patient. Le processeur 24 peut être configuré pour fournir une rétroaction à l’utilisateur pour positionner manuellement le transducteur 14, tel qu’en indiquant une quantité et une direction de mouvement, une proximité à l’emplacement ou autre communication permettant à l’utilisateur de pouvoir positionner le transducteur 14 en un même emplacement ou maintenir le transducteur 14 à un emplacement courant pour acquérir des données additionnelles.
Le processeur 24 est configuré pour enregistrer l’emplacement, la trame avec l’objet, la détection de l’objet, la confiance de détection et/ou autres informations. Les informations sont enregistrées avec les ou séparées des résultats d’images de l’examen.
Le processeur 24 est configuré pour dériver une propriété mécanique de tissu. Les formeurs de faisceaux 12, 16 sont commandés pour acquérir des données additionnelles relatives à l’objet une fois que le transducteur 14 est à l’emplacement correct. Par exemple, un suivi d’élasticité ou d’onde de cisaillement est effectué. Le processeur 24 utilise les données acquises pour calculer une propriété mécanique de l’objet détecté.
Le processeur 24 ou le processeur d’images 18 génère et délivre en sortie des images ou des valeurs vers l’afficheur 20. Par exemple, des images en mode B ou en mode mixte (par exemple mode B et mode flux) sont délivrées en sortie. Un texte, une indication numérique ou un graphique peut être ajouté(e) et affiché(e) pour l’utilisateur. Un graphique peut être affiché. Par exemple, une annotation marquant un objet détecté, un fanion indiquant l’image comme incluant un objet détecté, la valeur dérivée de la propriété mécanique de l’objet, la confiance de détection ou autres informations se rapportant à l’objet est délivré en sortie. Les images associées avec les objets détectés sont marquées avec un fanion, tel qu’en fournissant les images sur l’afficheur 20 séparées d’une présentation CINE de l’examen. La sortie de la valeur et/ou la mise en lumière de l’objet peut/peuvent de la même manière marquer une image comme incluant un objet détecté. Une information d’emplacement, telle que du transducteur 14, peut être délivrée en sortie.
Pendant l’examen, l’afficheur 20 affiche des images représentant différents champs de vision ou différentes régions dans le patient. Des fanions, des alertes, une notification, des valeurs ou autres informations peuvent être affichés à ce moment ou pendant une analyse ultérieure. L’afficheur 20 est un afficheur à tube cathodique, un afficheur LCD, un moniteur, un afficheur à plasma, un projecteur, une imprimante ou autre dispositif pour afficher une image ou une séquence d’images. Un quelconque afficheur 20 connu aujourd’hui ou développé ultérieurement peut être utilisé. L’afficheur 20 est utilisable pour afficher une image ou une séquence d’images. L’afficheur 20 affiche des images bidimensionnelles ou des représentations tridimensionnelles.
Le processeur d’images 18, le processeur 24, le formeur de faisceaux de réception 16 et le formeur de faisceaux de transmission 12 fonctionnent conformément à des instructions stockées dans la mémoire 22 ou une autre mémoire. Les instructions configurent le système pour la mise en œuvre des actions de la Figure 1. Les instructions configurent le processeur d’images 18, le processeur 24, le formeur de faisceaux de réception 16 et/ou le formeur de faisceaux de transmission 12 pour une opération en étant chargées dans un contrôleur, en causant le chargement d’une table de valeurs (par exemple une séquence d’imagerie d’élasticité) et/ou en étant exécutées.
La mémoire 22 est un support de stockage non transitoire lisible par ordinateur. Les instructions pour mettre en œuvre les processus, les procédés et/ou les techniques discutés ici sont prévues sur le support de stockage lisible par ordinateur ou des mémoires, telles qu’un cache, un tampon, une RAM, un support amovible, un disque dur ou autre support de stockage lisible par ordinateur. Les supports de stockage lisibles par ordinateur incluent divers types de support de stockage volatiles et non volatiles. Les fonctions, actions ou tâches illustrées sur les figures ou décrites ici sont exécutées en réponse à un ou plusieurs ensemble(s) d’instructions stocké(s) dans ou sur un support de stockage lisible par ordinateur. Les fonctions, actions ou tâches sont indépendantes du type particulier d’ensemble d’instructions, de support de stockage, de processeur ou de stratégie de traitement et peuvent être mises en œuvre par un logiciel, un matériel, des circuits intégrés, un micrologiciel, un microcode et similaire, fonctionnant seul ou en combinaison. De la même manière, des stratégies de traitement peuvent inclure un multitraitement, un traitement multitâches ou parallèle, et similaire. Dans un mode de réalisation, les instructions sont stockées sur un dispositif de support amovible pour lecture par des systèmes locaux ou distants. Dans d’autres modes de réalisation, les instructions sont stockées en un emplacement distant pour transfert par l’intermédiaire d’un réseau informatique ou sur des lignes téléphoniques. Dans encore d’autres modes de réalisation, les instructions sont stockées dans un ordinateur, une UC, une unité de traitement graphique ou un système donné(e).
Si l’invention a été décrite ci-dessus en référence à divers modes de réalisation, il doit être entendu que de nombreux changements et de nombreuses modifications peuvent être apportés sans se départir de la portée de l’invention. Il est donc prévu que la description détaillée qui précède soit considérée comme illustrative plutôt que comme limitative.

Claims (18)

  1. Revendications
    1. Procédé d’assistance d’alerte pour un dispositif de balayage à ultrasons, le procédé comprenant : le balayage d’un patient avec un transducteur à ultrasons du dispositif de balayage à ultrasons dans un mode de diagnostic dans lequel le transducteur à ultrasons se déplace par rapport au patient ; l’application d’une détection assistée par ordinateur par le dispositif de balayage à ultrasons à chacune d’une séquence de trames acquises par le balayage ; l’identification d’un objet dans une première des trames avec la détection assistée par ordinateur du dispositif de balayage à ultrasons ; la mesure, en réponse à l’identification de l’objet dans la première trame, d’une propriété mécanique de l’objet ; et la génération d’une image avec une alerte identifiant la première trame et la propriété mécanique mesurée.
  2. 2. Procédé selon la revendication 1 dans lequel le balayage comprend le balayage avec le mouvement du transducteur à ultrasons commandé par un moteur.
  3. 3. Procédé selon la revendication 1 dans lequel le balayage comprend le balayage avec le mouvement du transducteur à ultrasons effectué manuellement par un utilisateur.
  4. 4. Procédé selon la revendication 1 dans lequel le balayage comprend le balayage robotisé et dans lequel la mesure comprend la mesure robotisée.
  5. 5. Procédé selon la revendication 1 dans lequel l’application comprend l’application de la détection assistée par ordinateur comme un détecteur à apprentissage machine de l’objet utilisable pour traiter les trames de la séquence tandis que le balayage est effectué.
  6. 6. Procédé selon la revendication 1 dans lequel l’identification comprend l’identification d’une tumeur dans la première trame et l’identification d’aucune tumeur dans une pluralité d’autres trames de la séquence.
  7. 7. Procédé selon la revendication 1 dans lequel le balayage comprend le balayage selon un motif prédéterminé pour la séquence, et dans lequel la mesure comprend la commande d’un moteur connecté avec le transducteur à ultrasons pour ramener le transducteur à ultrasons jusqu’à une position pour la première trame lorsque le motif prédéterminé est terminé et le balayage pour la propriété mécanique avec le dispositif de balayage à ultrasons.
  8. 8. Procédé selon la revendication 1 dans lequel la mesure comprend la dérivation de la propriété mécanique à partir, au moins en partie, de la première trame.
  9. 9. Procédé selon la revendication 1 dans lequel la mesure comprend la mesure d’une déformation, d’un taux de déformation, d’une vitesse de cisaillement, d’une élasticité, ou d’un module de Young.
  10. 10. Procédé selon la revendication 1 dans lequel la mesure comprend la dérivation d’une caractéristique de l’objet autre qu’une réponse à une énergie provenant de l’imagerie.
  11. 11. Procédé selon la revendication 1 dans lequel ladite alerte générée avec l’image est un fanion d’un emplacement du transducteur à ultrasons pour balayer l’objet.
  12. 12. Procédé selon la revendication 1 comprenant en outre l’identification d’objets dans d’autres trames de la séquence^ et le stockage de la première trame et des autres trames.
  13. 13. Procédé selon la revendication 1 dans lequel la génération comprend la génération de l’image à partir de la première trame avec l’alerte comprenant une indication que l’objet est détecté dans l’image.
  14. 14. Support de stockage non transitoire lisible par ordinateur ayant, stockées dans celui-ci, des données représentant des instructions exécutables par un processeur programmé pour une assistance d’alerte dans une imagerie par ultrasons, le support de stockage comprenant des instructions pour : générer des images par ultrasons d’un patient avec un transducteur à ultrasons tandis que le transducteur à ultrasons se déplace le long du patient ; appliquer une détection d’une cible aux images par ultrasons pendant l’acquisition des images par ultrasons, l’application de la détection comprenant l’application d’une détection assistée par ordinateur spécifique à un type d’examen pour lequel le balayage est effectué ; enregistrer un emplacement du transducteur à ultrasons en réponse à la détection de la cible dans une des images ; notifier la détection ; acquérir des données représentant l’objet en réponse à la détection et en utilisant l’emplacement, l’acquisition des données comprenant l’utilisation de l’image, le rebalayage du patient à l’emplacement, ou les deux ; dériver une valeur d’une caractéristique de la cible à partir des données, la dérivation de la valeur comprenant la dérivation d’une propriété mécanique comme la caractéristique ; et présenter la valeur.
  15. 15. Support de stockage non transitoire lisible par ordinateur selon la revendication 14 dans lequel la présentation de la valeur comprend la génération d’un affichage de l’image avec la cible mise en lumière et incluant la valeur de la caractéristique.
  16. 16. Support de stockage non transitoire lisible par ordinateur selon la revendication 14 dans lequel l’enregistrement de l’emplacement comprend l’enregistrement d’une position du transducteur à ultrasons électroniquement ou physiquement.
  17. 17. Support de stockage non transitoire lisible par ordinateur selon la revendication 14 dans lequel la notification comprend l’indication de l’emplacement à un utilisateur.
  18. 18. Système pour une assistance d’alerte dans une imagerie par ultrasons, le système comprenant : un transducteur ; un robot connecté avec le transducteur et configuré pour déplacer le transducteur selon un motif de balayage prédéterminé ; un formeur de faisceaux de transmission et un formeur de faisceaux de réception configurés pour balayer, avec le transducteur, un patient avec des ultrasons tandis que le robot déplace le transducteur ; un processeur configuré pour appliquer une détection assistée par ordinateur à des résultats du balayage, pour faire en sorte que le robot ramène le transducteur à un emplacement de détection par la détection assistée par ordinateur après la fin du motif de balayage prédéterminé, et pour dériver une propriété mécanique de tissu sur la base d’informations acquises avec le transducteur ramené jusqu’à l’emplacement ; et un afficheur utilisable pour afficher la propriété mécanique du tissu avec un fanion pour les résultats pour l’emplacement.
FR1752177A 2016-03-18 2017-03-17 Assistance d'alerte pour une imagerie par ultrasons en mode diagnostic Withdrawn FR3048870A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US15/075,013 US20170265846A1 (en) 2016-03-18 2016-03-18 Alert assistance for survey mode ultrasound imaging

Publications (1)

Publication Number Publication Date
FR3048870A1 true FR3048870A1 (fr) 2017-09-22

Family

ID=59751619

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1752177A Withdrawn FR3048870A1 (fr) 2016-03-18 2017-03-17 Assistance d'alerte pour une imagerie par ultrasons en mode diagnostic

Country Status (5)

Country Link
US (1) US20170265846A1 (fr)
KR (2) KR20170108884A (fr)
CN (1) CN107198542A (fr)
DE (1) DE102017204471A1 (fr)
FR (1) FR3048870A1 (fr)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11264135B2 (en) * 2017-11-10 2022-03-01 Siemens Medical Solutions Usa, Inc. Machine-aided workflow in ultrasound imaging
JP6782747B2 (ja) * 2018-10-24 2020-11-11 ゼネラル・エレクトリック・カンパニイ 超音波装置及びその制御プログラム
US11630083B2 (en) * 2018-12-21 2023-04-18 The Boeing Company Location-based scanner repositioning using non-destructive inspection
US11844654B2 (en) 2019-08-19 2023-12-19 Caption Health, Inc. Mid-procedure view change for ultrasound diagnostics
FR3099984A1 (fr) * 2019-08-19 2021-02-26 Bay Labs, Inc. Changement de dynamique de mode de guidage d'imagerie par ultrasons
FR3099985A1 (fr) * 2019-08-19 2021-02-26 Bay Labs, Inc. Changement de vue à mi-procédure pour diagnostic par ultrasons
US11710229B2 (en) * 2020-03-23 2023-07-25 GE Precision Healthcare LLC Methods and systems for shear wave elastography
US20230017173A1 (en) * 2021-07-15 2023-01-19 Sonocine, Inc. Breast ultrasound screening and diagnostics system and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009225904A (ja) * 2008-03-21 2009-10-08 Gifu Univ 超音波乳房診断支援システム
US20130310690A1 (en) * 2012-05-18 2013-11-21 National Taiwan University Breast ultrasound scanning and diagnosis aid system
EP2823766A1 (fr) * 2013-07-04 2015-01-14 Samsung Medison Co., Ltd. Système à ultrasons et procédé pour fournir des informations d'objet

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005010711A2 (fr) * 2003-07-21 2005-02-03 Johns Hopkins University Systeme et procede a ultrasons robotises en 5 dimensions
EP1815796A4 (fr) * 2004-11-17 2009-10-28 Hitachi Medical Corp Ultrasonographe et méthode d'affichage d'image par ultrason
US20120095322A1 (en) * 2010-09-08 2012-04-19 Tsekos Nikolaos V Devices, systems and methods for multimodal biosensing and imaging
US8831708B2 (en) * 2011-03-15 2014-09-09 Siemens Aktiengesellschaft Multi-modal medical imaging
TWI476403B (zh) * 2011-04-22 2015-03-11 Pai Chi Li 超音波自動掃描系統及其掃描方法
CN102599938B (zh) * 2012-02-01 2015-11-25 无锡海斯凯尔医学技术有限公司 一种用于弹性测量的复合探头
CN102908168A (zh) * 2012-10-24 2013-02-06 华南理工大学 一种基于机械扫描的a超弹性成像系统及其方法
KR20140091177A (ko) * 2013-01-10 2014-07-21 삼성전자주식회사 병변 진단 장치 및 방법
US20150141821A1 (en) * 2013-04-03 2015-05-21 Hitachi Aloka Medical, Ltd. Ultrasonic diagnostic apparatus and elastic evaluation method
CN103300891B (zh) * 2013-05-29 2015-05-06 北京索瑞特医学技术有限公司 对组织的定量弹性信息和结构信息组合显示的方法和系统
EP3013243B1 (fr) * 2013-06-26 2018-09-19 Koninklijke Philips N.V. Système et procédé de mesure par élastographie
WO2015080522A1 (fr) * 2013-11-28 2015-06-04 Samsung Electronics Co., Ltd. Méthode et appareil ultrasonore pour le marquage de tumeur sur une image élastographique ultrasonore
KR102251245B1 (ko) * 2014-04-30 2021-05-12 삼성전자주식회사 관심 영역별 추가 정보 제공 장치 및 방법
KR20160014470A (ko) * 2014-07-29 2016-02-11 삼성전자주식회사 비시각 정보 제공 기반의 컴퓨터 보조 진단 지원 장치 및 방법과, 컴퓨터 보조 진단 시스템
CN104224233B (zh) * 2014-09-16 2017-05-24 无锡海斯凯尔医学技术有限公司 影像引导型弹性检测系统及其检测方法
CN104398272B (zh) * 2014-10-21 2017-09-19 无锡海斯凯尔医学技术有限公司 选择检测区域的方法及装置及弹性检测系统
KR101623431B1 (ko) * 2015-08-06 2016-05-23 주식회사 루닛 의료 영상의 병리 진단 분류 장치 및 이를 이용한 병리 진단 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009225904A (ja) * 2008-03-21 2009-10-08 Gifu Univ 超音波乳房診断支援システム
US20130310690A1 (en) * 2012-05-18 2013-11-21 National Taiwan University Breast ultrasound scanning and diagnosis aid system
EP2823766A1 (fr) * 2013-07-04 2015-01-14 Samsung Medison Co., Ltd. Système à ultrasons et procédé pour fournir des informations d'objet

Also Published As

Publication number Publication date
KR20170108884A (ko) 2017-09-27
US20170265846A1 (en) 2017-09-21
KR20190011794A (ko) 2019-02-07
CN107198542A (zh) 2017-09-26
DE102017204471A1 (de) 2017-09-21

Similar Documents

Publication Publication Date Title
FR3048870A1 (fr) Assistance d'alerte pour une imagerie par ultrasons en mode diagnostic
KR102191467B1 (ko) 초음파 이미징에서의 기계-보조 작업흐름
US11266380B2 (en) Medical ultrasound image processing device
US20170215841A1 (en) Position correlated ultrasonic imaging
US11559279B2 (en) Methods and apparatuses for guiding collection of ultrasound data using motion and/or orientation data
FR2934054A1 (fr) Imagerie d'onde de cisaillement
EP3908190A1 (fr) Procédés et appareils pour la collecte de données ultrasonores
KR20150024167A (ko) 바디 마커 생성 방법 및 초음파 진단 장치
WO2020028746A1 (fr) Procédés et appareils de guidage de collecte de données ultrasonores à l'aide de données de mouvement et/ou d'orientation
US20230355211A1 (en) Systems and methods for obtaining medical ultrasound images
CA3054483A1 (fr) Commutation de mode dynamique aux fins de guidage d'imagerie ultrasonore
CN109414254A (zh) 控制设备、控制方法、控制系统及程序
JP2016087020A (ja) 超音波診断装置
JP2019103932A (ja) 医用画像処理装置、超音波診断装置及び医用画像取込方法
JP2016136323A (ja) 超音波診断装置及び病院情報システム
JP7261870B2 (ja) 超音波画像内のツールを追跡するためのシステム及び方法
JP2023531982A (ja) 超音波データから血管を識別するためのシステム及び方法
US11844654B2 (en) Mid-procedure view change for ultrasound diagnostics
Shu et al. Super-resolution ultrasound imaging with Gaussian fitting method and plane wave transmission
EP4270411A1 (fr) Analyse d'un flux d'image ultrasonore
KR101553042B1 (ko) 볼륨 데이터를 이용한 초음파 진단 방법 및 장치
WO2023208877A1 (fr) Analyse d'un flux d'images ultrasonores

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLFP Fee payment

Year of fee payment: 4

ST Notification of lapse

Effective date: 20211105