RU2677055C2 - Автоматическая сегментация трехплоскостных изображений для ультразвуковой визуализации в реальном времени - Google Patents

Автоматическая сегментация трехплоскостных изображений для ультразвуковой визуализации в реальном времени Download PDF

Info

Publication number
RU2677055C2
RU2677055C2 RU2016122066A RU2016122066A RU2677055C2 RU 2677055 C2 RU2677055 C2 RU 2677055C2 RU 2016122066 A RU2016122066 A RU 2016122066A RU 2016122066 A RU2016122066 A RU 2016122066A RU 2677055 C2 RU2677055 C2 RU 2677055C2
Authority
RU
Russia
Prior art keywords
heart
planes
model
segmentation
image data
Prior art date
Application number
RU2016122066A
Other languages
English (en)
Other versions
RU2016122066A3 (ru
RU2016122066A (ru
Inventor
Роберт Джозеф ШНЕЙДЕР
Мэри Кэй БЬЯНКИ
Робин С. БРУКС
Майкл Дэниел КАРДИНЕЙЛ
Давид ПРАТЕР
Лидия РИВЕРА
Иван САЛГО
Скотт Холланд СЕТТЛМАЙЕР
Жан Маргарет УИЛЛЬЯМС
Original Assignee
Конинклейке Филипс Н.В.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Конинклейке Филипс Н.В. filed Critical Конинклейке Филипс Н.В.
Publication of RU2016122066A publication Critical patent/RU2016122066A/ru
Publication of RU2016122066A3 publication Critical patent/RU2016122066A3/ru
Application granted granted Critical
Publication of RU2677055C2 publication Critical patent/RU2677055C2/ru

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/14Devices for taking samples of blood ; Measuring characteristics of blood in vivo, e.g. gas concentration within the blood, pH-value of blood
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • A61B8/145Echo-tomography characterised by scanning multiple planes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4494Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer characterised by the arrangement of the transducer elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/486Diagnostic techniques involving arbitrary m-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • A61B8/5276Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/66Sonar tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8915Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array
    • G01S15/8925Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array the array being a two-dimensional transducer configuration, i.e. matrix or orthogonal linear arrays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • G01S7/52063Sector scan display
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20128Atlas-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Cardiology (AREA)
  • Hematology (AREA)
  • Quality & Reliability (AREA)
  • Gynecology & Obstetrics (AREA)
  • Software Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

Группа изобретений относится к медицинской технике, а именно к средствам медицинской ультразвуковой визуализации. Ультразвуковая диагностическая система визуализации, которая получает стандартные плоскости видов сердца, содержит матричный зонд, выполненный с возможностью получать данные 3D объемного изображения сердца, память, содержащую данные геометрической модели сердца, процессор сегментации и отслеживания, выполненный с возможностью автоматически регистрировать данные изображения сердца и модель сердца, определять начальную ориентацию модели сердца на основании данных изображения сердца, генерировать приведенную к соответствию модель сердца, преобразовывая модель сердца, чтобы соответствовать данным изображения сердца на основании определенной начальной ориентации, сегментировать из данных модели сердца заранее заданные плоскости видов, которые определены на основании ключевых опознавательных точек в модели сердца, причем ориентацию каждой из заранее заданных плоскостей видов определяют относительно приведенной к соответствию модели сердца, и устройство отображения изображений, которое реагирует на процессор сегментации и отслеживания и выполнено с возможностью отображать изображения плоскостей видов, при этом процессор сегментации и отслеживания дополнительно выполнен с возможностью отслеживать получение последовательных изображений плоскостей отображения для обновления отображаемых изображений. Способ получения стандартных плоскостей отображения сердца осуществляется с использованием диагностической системы визуализации. Использование изобретений позволяет улучшить пространственное разрешение отображений. 2 н. и 13 з.п. ф-лы, 5 ил.

Description

Данное изобретение относится к системам медицинской ультразвуковой визуализации и, в частности, к 3D ультразвуковым системам для визуализации сердца.
В ультразвуковой визуализации сердца существует набор стандартных планарных видов сердца, которые часто должны быть получены для того, чтобы провести стандартизированные измерения или диагностику сердечной деятельности. Три из этих стандартных видов это апикальный четырехкамерный вид, апикальный трехкамерный вид и апикальный двухкамерный вид, называемые, как правило, как виды AP4, AP3 и AP2. Как следует из названий, все эти планарные виды сердца получены удержанием ультразвукового зонда под левой частью грудной клетки, где он увидит сердце от его верхушки. Апикальный четырехкамерный вид визуализирует все четыре камеры сердца, левое и правое предсердие и левый и правый желудочек. Этот вид предпочтителен, когда клиницист хочет рассчитать фракции выброса, визуализировать левый желудочек или оценить диастолическую функцию или митральный стеноз. Апикальный трехкамерный вид позволяет клиницисту визуализировать аортальный клапан и корень аорты. Этот вид предпочтителен для оценки сократимости переднелатеральной и задней стенок сердца. Совмещая Доплеровский луч с выносящим трактом левого желудочка, клиницист может количественно оценить тяжесть аортального стеноза. Апикальный двухкамерный вид позволяет визуализацию и оценку передней и нижней стенок левого желудочка.
Существуют знакомые и хорошо понятные техники для манипулирования двумерным ультразвуковым зондом для того, чтобы получить эти стандартные планарные виды сердца.
Четырехкамерный вид обычно берется как первый вид и опорный для остальных. Чтобы получить апикальный четырехкамерный вид клиницист держит зонд с левой стороны по отношению к пациенту, и зонд направлен к верхушке сердца и вверх по направлению к правому плечу. Метка на стороне зонда, которая позволяет клиницисту поддерживать желаемую лево-правую ориентацию между анатомией пациента и изображением на устройстве отображения ультразвуковой системы, расположена на 2 или 3 часа. При правильном расположении, четыре камеры сердца четко отображаются с верхушкой в верхней части экрана и правыми камерами на левой стороне экрана. Правый желудочек должен быть не больше, чем две трети ширины левого желудочка.
Из четырехкамерного вида, получение апикального трехкамерного вида требует лишь простых манипуляций с зондом. Зонд вращают против часовой стрелки по отношению к пациенту, пока метка на зонде не окажется приблизительно в положении 11-ти часов. Трехкамерный вид теперь должен быть виден на экране. Это вращение означает, что приблизительно 90° составляет соотношение между плоскостями изображений четырех- и трехкамерных видов. Чтобы получить двухкамерный вид, зонд вращают далее до положения, приблизительно, на 9 часов. Апикальный двухкамерный вид теперь должен быть виден на экране. Это означает, что двухкамерный вид располагается во вращении приблизительно на 135° относительно опорного четырехкамерного вида.
Как можно заключить из вышесказанного, клиницист может потратить значительное количество времени, чтобы получить эти виды и манипулировать зондом от одного вида к другому. Было бы желательно иметь возможность получать эти стандартные виды сердца без тщательных и кропотливых манипуляций зондом, описанных выше. Кроме того, было бы желательно для видов, получаемых автоматически с помощью ультразвуковой системы, не применять специальных манипуляций зондом вообще.
В соответствии с принципами настоящего изобретения, описаны система ультразвуковой визуализации и способ, которые позволяют 3D получение сердца из апикальной позиции. Причем к большей части объема сердца, полученного в 3D получении, применяется математическая модель сердца с помощью ультразвуковой системы к 3D объему, чтобы идентифицировать и сегментировать три плоскости апикальных видов сердца, AP4, AP3 и AP2 плоскости изображения. После сегментации три плоскости изображения затем управляются как трехплоскостная система, чтобы отслеживать трехплоскостную систему в последовательности получений 3D объема в качестве строгого преобразования. Таким образом, трехплоскостная система может быть визуализирована в реальном времени либо с помощью извлечения MPR срезов из реальных объемных изображений, или просто сканированием трех плоскостей матричным зондом преобразователя.
На чертежах:
Фигура 1 показывает в форме блок-схемы медицинскую ультразвуковую систему, сконструированную в соответствии с принципами настоящего изобретения.
Фигуры 2a, 2b и 2c представляют собой графические иллюстрации видов AP4, AP3 и AP2 сердца.
Фигура 3 показывает относительные ориентации плоскостей видов AP4, AP3 и AP2, когда они организованы в трехплоскостную систему.
Фигура 4 представляет собой блок-схему получения, сегментирования и отслеживания апикальной системы трехплоскостного изображения в соответствии с принципами настоящего изобретения.
Фигуры 5a, 5b и 5c показывают три ультразвуковых изображения апикальной трехплоскостной системы, как они появляются, когда показываются одновременно как реальное изображение на экране ультразвукового устройства отображения и когда перекрывается графикой, представляющей собой плоскости видов модели сердца.
Обращаясь сначала к Фигуре 1, увидим, что система ультразвуковой визуализации согласно настоящему изобретению показана в виде блок-схемы. Ультразвуковая система образована двумя подсистемами, подсистемой 10А фронтального получения и подсистемой 10B отображения. Ультразвуковой зонд соединен с подсистемой получения, которая содержит преобразователь 70 двумерной матрицы и микро-формирователь луча 72. Микро-формирователь луча содержит схемы, которые управляют сигналами, приложенными к группе элементов ("патчей") решетки 70 преобразователя и выполняет некоторую обработку эхо-сигналов, полученных элементами каждой группы. Микро-формирование луча в зонде эффективно уменьшает количество проводников в кабеле между зондом и ультразвуковой системой, что описано в патенте US 5,997,479 (Savord et al.) и в патенте US 6,436,048 (Pesque).
Зонд соединен с подсистемой 10А получения ультразвуковой системы. Подсистема получения содержит контроллер 74 формирователя луча, который реагирует на управление 36 пользователем и подает управляющие сигналы на микро-формирователь 72 луча, инструктируя зонд относительно времени, частоты, направления и фокусировки лучей передачи. Контроллер формирователя луча также управляет формированием лучей эхо-сигналов, полученных подсистемой получения с помощью его управления аналого-цифрового (A/D) преобразователей 18 и системы 20 формирователя луча. Эхо-сигналы, полученный зондом, усиливаются предусилителем и схемой 16 TGC (дифференциальной регулировки усиления) в подсистеме получения, затем оцифровываются с помощью A/D преобразователей 18. Оцифрованные эхо-сигналы затем формируются в полностью управляемые и сфокусированные лучи с помощью системы формирователя 20 луча. Эхо-сигналы затем обрабатываются сигнальным процессором 22, который выполняет цифровую фильтрацию, B режим и M режим обнаружения, Доплеровскую обработку, и может также выполнять другие сигнальные обработки, такие как разделение гармоник, уменьшение спеклов, и другие желаемые сигнальные обработки изображений.
Эхо-сигналы, генерируемые подсистемой 10А получения, связаны и подсистемой 10В отображения, которая обрабатывает эхо-сигналы для отображения в желательном формате изображения. Эхо-сигналы обрабатываются процессором 24 строк изображения, который способен объединять сегменты лучей в полные линейные сигналы и усреднять линейные сигналы для улучшения отношения сигнал-шум или непрерывности потока. Строки изображения для 2D изображения сканируются и преобразуются в желаемый формат с помощью сканирующего преобразователя 26, который выполняет R-тетта преобразование, как это известно в данной области техники. Затем изображение сохраняется в буфер изображений или память 28, из которой оно может быть отображено на устройство отображения 38. Изображение в памяти 28 также перекрывается с графикой для отображения с изображением, которые генерируются генератором графики (не показан), который реагирует на управление 36 пользователем. Отдельные изображения или последовательности изображений могут быть сохранены в кино-память (не показана) в течение получения зацикленных изображений или последовательностей.
Для объемной визуализации в реальном времени подсистема 10B отображения также содержит процессор 32 3D-воспроизведения, который получает строки изображения из процессора 24 строк изображения для отображения трехмерных изображений в реальном времени. 3D изображения могут отображаться как реальные (в реальном времени) 3D изображения на устройстве отображения 38 или быть связанными с памятью 28 изображений для хранения 3D наборов данных для более позднего анализа и диагностики.
В соответствии с принципами настоящего изобретения подсистема отображения также содержит аналитическую геометрическую модель сердца, сохраненную в памяти 40. Данные модели сердца, сохраненные в памяти, являются концептуально 3D поверхностью сетки, которая очерчивает формы основных элементов сердца, таких как жидкостные камеры, сердечные клапаны и тому подобное. В конструктивном воплощении сетка состоит из соединенных между собой треугольных элементов, хотя возможны и другие виды сеток, такие как прямоугольные или квадратные элементы сетки или сетки, состоящие из неоднородных рациональных b-сплайнов, также могут быть использованы. В соответствии с этим, модель сердца может быть полностью детализированной геометрической моделью или просто моделью анатомических опознавательных точек, таких как стенки камеры, верхушка сердца, сердечные клапаны или плоские контуры клапанов и тому подобное. Модель сердца, которая сочетает в себе обе, также может быть использована. Модель сердца, которая определяет ключевые опознавательные точки стандартных видов, может быть использована, например, чтобы определять такие стандартные виды в данных ультразвуковых изображений. Назначение модели сердца - это определять или сегментировать 3D ультразвуковое изображение сердца пациента. Данная функция выполняется процессором 42 сегментации плоскостей APn и отслеживания, который использует данные модели сердца чтобы извлекать определенные плоскости изображения 3D ультразвукового изображения, в данном случае плоскости изображения AP2, AP3 и AP4. Эти плоскости изображения схематично показаны на Фигурах 2a, 2b и 2c. Модель четырехкамерного вида AP4 сердца показана на Фигуре 2а. На данном виде клиницист может видеть все 4 камеры, правое предсердие и правый желудочек, отделенные друг от друга трехстворчатым клапаном, и левое предсердие и левый желудочек, разделенные митральным клапаном. Верхушка сердца находится наверху в этой ориентации модели AP4. Фигура 2b показывает модель AP3 трехкамерной плоскости изображения. Вид AP3 позволяет визуализировать левые камеры сердца, а также корень аорты и аортальный клапан. Фигура 2с изображает AP2 модель. Этот вид позволяет визуализировать левое предсердие, митральный клапан и левый желудочек. Фигура 3 является видом в перспективе ориентации этих трех плоскостей видов относительно друг друга. При обычном осмотре клиницист расположит ультразвуковой зонт ниже левой стороны грудной клетки, направленным вверх по направлению к правому плечу. Зондом манипулируют пока не получат апикальный четырехкамерный вид. Затем зонд наклоняют вверх, чтобы получить LV выводной тракт и аортальный клапан в апикальном трехкамерном виде или в апикальном пятикамерном виде. Зонд снова манипулируется вращением его на 90o против часовой стрелки, чтобы получить двухкамерный вид. Следует понимать, что это кропотливая и трудоемка задача, требующая значительного мастерства клинициста. Виды AP2, AP3 и AP4 - это стандартные плоскости видов для многих кардиологических исследований.
Эта сложная задача и ее сложность устраняется с помощью ультразвуковой системы настоящего изобретения, с помощью которого желаемые плоскости апикальных видов извлекаются из 3D ультразвукового изображения и отображаются с помощью аналитического использования модели сердца. Это извлечение выполняется с помощью процессора 42 сегментации плоскостей APn и отслеживания, которое начинается с поиска приблизительного местоположения модели сердца в объеме 3D ультразвукового изображения. Искатель формы, реализованный в виде преобразования Хaфа, ищет приблизительное положение модели сердца в 3D изображении. Локализованное афинное преобразование лучше находит большие структуры, такие как жидкостные камеры сердца в объемном изображении. Локализованная тонкая настройка более точно совмещает модель с анатомией в объеме изображения. С помощью 3D модели сердца, совмещенной теперь с анатомической структурой сердца в объемном изображении, опознавательные точки трех апикальных плоскостей, взятые из модели сердца, используются чтобы определить три плоскости в объемном изображении и три плоскости изображения, AP4, AP3 и AP2, извлекаются из объемного изображения.
В реализации этой обработки, процессор 42 сегментации плоскостей APn и отслеживания оперирует с вокселями 3D объемного изображения сердца как изложено ниже. Процессор сегментации плоскостей и отслеживания содержит препроцессор, который служит в качестве инициализатора для сегментора. Препроцессор автоматически анализирует данные изображения и функционирует, чтобы классифицировать текущий вид, то есть вид, в котором текущая 3D модель сердца была получена. Другими словами, препроцессор способен обнаруживать положение органа для сегментирования в соответствии с опорным положением. "Положение" - это позиция объекта и его ориентация по отношению к модели в качестве опорной ориентации. Обнаруженное положение выражается "параметрами положения". Параметры описывают преобразование, то есть как геометрическая модель сердца должна быть смещена и повернута, чтобы эта трансформированная модель соответствовала положению сердца на изображении. На основании этих параметрах положения, точки геометрической модели сердца затем преобразуются в оценочное ("текущее") положение. В предпочтительной реализации геометрическая модель сердца определяется как 3D поверхность сетки, состоящая из треугольных элементов, сетка грубо очерчивает стандартную форму сердца в заданном опорном положении. Преобразованная таким образом (то есть смещенная и повернутая) модель затем подается в качестве отправной точки для модели сегментации объема изображения, которая зависит от предварительного знания позиции и ориентации объекта для сегментации, в данном случае, сегментации трех желаемых плоскостей апикальных видов.
Препроцессор использует обобщенное преобразование Хафа (GHT) со множеством накопителей, по одному для каждой ориентации сердца. Чтобы справиться с многообразием действительно разных возможных положений сердца, часто повторно возникающие положения ориентаций сохранены в процессоре из подготовительных 3D изображений и, после кластеризации, набор преобразований вычисляется из этих ориентаций. Преобразования затем применяются в фазу выполнения в течение GHT процесса выборки по заполнению множества накопителей Хафа. Множество накопителей Хафа затем исследуется для поиска максимальной записи выборки среди всех накопителей Хафа, чтобы найти текущее положение сердца. Этот поиск может выполняться одновременно по всем накопителям Хафа или поиск может проходить последовательно. Запись накопителя Хафа с наибольшим числом выборки берется, чтобы представить наиболее вероятное положение объекта для данной ориентации положения β. В предпочтительной реализации, извлечение опознавательных точек из данных изображения используется, чтобы определить из множества афинных (или иных) преобразований оптимальное преобразование, которое наилучшим образом соотносится со структурами в данном изображении. Препроцессор содержит входной порт для приема 3D изображений и классификатор. Также существует выходной порт для вывода параметров положения (β[=ориентация], x[= положение]) для положения, определенного классификатором. Эта информация о положении (β, x) может быть затем применена к геометрической модели сердца. Преобразованная модель формирует "инициализированную модель" для сегментации. Сегментор, как только положение сердца в изображении для сегментирования становится известным (т.е. доступна инициализированная модель) применяет параметризованные и деформируемые этапы по адаптации к геометрической модели сердца. Модель, таким образом, адаптирована к структуре сердца в данном объеме изображения. В частности, адаптация содержит один или более этапов, на которых координаты модели адаптируются к данным объемного изображения с помощью применения последовательно глобального строгого, глобального афинного, мульти-строгого и деформируемого преобразования. После деформирования инициализированной модели, оцениваются интенсивности значения серого вдоль нормалей к треугольникам сетки модели для определения границ сегментации.
Когда идентификация анатомической опознавательной точки используется для регистрации модели сердца и извлечения плоскостей изображения, идентификатор опознавательной точки работает, чтобы обнаруживать/идентифицировать одну или несколько анатомических опознавательных точек в 3D модели сердца. Обнаруживание опознавательной точки в изображении может быть основано на RANSAC (консенсус случайных выборок) алгоритме, как описано в M. Fischler et al’s “Random Sample Consensus …”, Communications of the ACM, Volume 24(6), (1981). Набор совместно обнаруженных опознавательных точек может быть затем взят, чтобы представить каркас базовой геометрической модели сердца, когда предполагается в определенном положении. Модель сердца содержит целевые опознавательные точки, представляющие в этом отношении опознавательные точки. В данной реализации, работа классификатора основана на сборе афинных преобразований Ti. Преобразования Ti применяются одно за одним к обнаруженным опознавательным точкам, чтобы осуществить координатное преобразование обнаруженных опознавательных точек. Совместно преобразованные опознавательные точки могут быть затем быть сравнены с опорной геометрической моделью. В частности, преобразованные опознавательные точки в изображении могут быть сравнены с целевыми опознавательными точками модели сердца. Модель предполагается быть представленной в соответствии с опорной ориентацией. Для каждого преобразования, координаты преобразованных опознавательных точек затем сравниваются с координатами целевых опознавательных точек модели. Затем определяются координаты преобразованных опознавательных точек, которые лучше всего подходят (например, ближе всего к подходящей норме) целевым опознавательным точкам модели. Соответствующее преобразование, которое дает наилучшее соответствие или согласование между преобразованными опознавательными точками или целевыми опознавательными точками, затем рассматривается, чтобы обозначать положение как записанное в базовое объемное изображение сердца. "Наилучшее" соответствие устанавливается относительно меры соответствия. "Наилучшее" - это означает содержащееся в пределах определенного пользователем допуска, предпочтительно находящееся ближе в арифметическом смысле, хотя конкретная реализация может действительно предусматривать "наилучший", означающее проксимально в арифметическом смысле. Вычисление наилучшего соответствия в отношении заранее установленного допуска позволяет эффективную обработку, так как процессору не нужно перебирать все заранее определенные преобразования, чтобы оценить меру соответствия. Как только значение соответствия, которое лежит в пределах допуска, установлено, выходной блок возвращает соответствующее преобразование как "наилучшее соответствие".
Каждое из заранее определенных афинных преобразований можно рассматривать для кодирования определенного положения. В частности, каждое афинное преобразование содержит среди других компонентов (таких как, сдвиговые) смещающую и вращающую компоненту, которая описывает соответствующее одно положение. Описание смещающей и вращающей компонент идентифицированного преобразования наилучшего соответствия направляется в сегментор для инициализации. В ином случае, преобразование наилучшего соответствия непосредственно применяется сначала к модели, и это является совместно преобразованной моделью, которая затем направляется, чтобы инициализировать сегментор. Сегментор выполняет в настоящий момент простую задачу определения опознавательных целевых точек трех желаемых апикальных плоскостей и извлекает из объема изображения три плоскости, которые наиболее полно содержат эти анатомические опознавательные точки.
Три плоскости апикальных видов, извлеченные из данных изображения 3D модели с помощью процессора 42 сегментации плоскостей APn и отслеживания, как описано выше, по отдельности или одновременно отображаются на устройстве отображения 38 ультразвуковой системы, как показано на Фигуре 5а (четырехкамерного вида), 5b (трехкамерного вида) и Фигуре 5c (двухкамерного вида). В описанной реализации, камеры и структуры сердца каждой плоскости изображения сегментированы с помощью наложения графически очерченных анатомических границ 62, 64, 66, предоставляемых моделью сердца. Как только это было сделано для одного объемного изображения APn, плоскости могут быть отслежены через последующие объемы изображений, либо в режиме реального времени или в режиме пост-обработки. Для отслеживания, три плоскости не рассматриваются как несвязанные плоскости изображения, но рассматриваются как три плоскости трехплоскостной системы, как изображено на Фигуре 3. По мере того как последующие объемные изображения сердца становятся доступными, три APn плоскости модели сердца используются для извлечения трех плоскостей изображения из каждого последующего объемного изображения. Эти плоскости отслеживаются в новом объеме с помощью анализа грубого перемещения анатомических опознавательных точек из предыдущей трехплоскостной системы в заново идентифицированную трехплоскостную систему. Это выполняется с помощью оптического потока или регистрации изображения, например с помощью взаимной информации, поблочного сравнения или сопоставления объектов, например. Перемещение опознавательных точек из одной плоскости в следующие используется, чтобы найти вектор перемещения для каждой плоскости, и три вектора перемещения трех плоскостей используются, чтобы определить составной вектор перемещения (преобразования) трехплоскостной системы. По существу, три вектора перемещения в плоскости используются, чтобы определить составное перемещение трехплоскостной системы. Это преобразование используется для моделирования перемещения трехплоскостной системы как строгое преобразование относительно зонда. Строгое преобразование идентифицирует смещение и поворот трехплоскостной системы из одного объемного изображения в следующее и этот сдвиг используется, чтобы вычислить новое положение трехплоскостной системы в новом объемном изображении. Так как это является строгим преобразованием, не существует масштабирования или деформации модели или данных изображения, которые ослабляют вычислительные требования. Это отслеживание и обновление трехплоскостной системы повторяется для каждого получения нового объемного изображения. Иногда, для защиты от чрезмерных передвижений сердца или зонда, обработка может быть заново инициализирована, как описано выше.
Фигура 4 показывает типичную последовательность сегментации опорной плоскости и отслеживание в соответствии с принципами настоящего изобретения. На первом этапе 50, 3D объемное изображение сердца получается с помощью апикального сканирования. Так как сердце сканируется апикально, процессор 42 сегментации плоскостей APn и отслеживания может быть предопределен, чтобы ожидать найти верхушку сердца наверху объемного изображения. На этапе 52 процессор 42 сегментации плоскостей APn и отслеживания сегментирует плоскости видов AP4, AP3 и AP2, используя модель сердца, чтобы определять положение сердца и наилучшее соответствие модели сердца данным 3D изображения сердца, как описано выше. На этапе 54 процессор использует желательные положения плоскости, соответствующие модели сердца, для извлечения и отображения трехплоскостных изображений. На этапе 56а получают новое объемное 3D изображение и на этапе 58 трехплоскостная система в новом объемном изображении отслеживается с помощью строгого преобразования. На этапе 60 изображения отслеживаемой трехплоскостной системы извлекаются из новых данных изображения и отображенные трехплоскостные изображения обновляются на устройстве отображения.
Другие варианты осуществления изобретения будут очевидны специалистам в данной области техники. Вместо извлечения и отображения видов AP4, AP3 и AP2, другой вид может альтернативно или дополнительно быть получен и отображен. Ультразвуковая система может быть использована для отображения, например, видов AP4, AP5 и AP3, или четырех других плоскостей видов. Для более высоких частот кадров отображения, информация отслеживания может быть использована, чтобы обновлять плоскости трехплоскостного отображения, которое сканирует только три желаемые плоскости видов, а не весь объем каждый раз. Например, после того как модели сердца было найдено соответствие анатомии сердца в объемном изображении, только три плоскости могут быть сканированы для следующего обновления. Три заново отсканированных плоскости изображения могут быть сравнены с предыдущими тремя плоскостями и вычисленные данные составного перемещения (данные отслеживания) используются для сканирования трех плоскостей в положении обновленного вида для отображения. Данные отслеживания, таким образом, используются, чтобы контролировать направление плоскости сканирования следующего трехплоскостного получения с помощью управления контроллером формирования луча, как показано на Фигуре 1. При сканировании только трех плоскостей вместо целого объема сердца частота кадров и пространственное разрешение отображения значительно улучшаются. Если грубое движение сердца или зонда становятся чрезмерными, процесс может быть обновлен и повторно инициализирован получением и обработкой нового объемного изображения, и сканирование начинается заново. В качестве другой альтернативы, 3D данные изображения могут быть трансформированы, чтобы соответствовать модели сердца, а не наоборот, сегментации.

Claims (31)

1. Ультразвуковая диагностическая система визуализации, которая получает стандартные плоскости видов сердца, содержащая:
матричный зонд, выполненный с возможностью получать данные 3D объемного изображения сердца;
память, содержащую данные геометрической модели сердца;
процессор сегментации и отслеживания, выполненный с возможностью:
автоматически регистрировать данные изображения сердца и модель сердца;
определять начальную ориентацию модели сердца на основании данных изображения сердца;
генерировать приведенную к соответствию модель сердца, преобразовывая модель сердца, чтобы соответствовать данным изображения сердца на основании определенной начальной ориентации;
сегментировать из данных модели сердца заранее заданные плоскости видов, которые определены на основании ключевых опознавательных точек в модели сердца, причем ориентацию каждой из заранее заданных плоскостей видов определяют относительно приведенной к соответствию модели сердца; и
устройство отображения изображений, которое реагирует на процессор сегментации и отслеживания и выполнено с возможностью отображать изображения плоскостей видов,
при этом процессор сегментации и отслеживания дополнительно выполнен с возможностью отслеживать получение последовательных изображений плоскостей отображения для обновления отображаемых изображений.
2. Ультразвуковая диагностическая система визуализации по п.1, в которой процессор сегментации и отслеживания выполнен с возможностью отслеживать плоскости отображения в качестве многоплоскостной системы.
3. Ультразвуковая диагностическая система визуализации по п.2, в которой заранее заданные плоскости видов дополнительно содержат три плоскости изображения; и в которой процессор сегментации и отслеживания выполнен с возможностью отслеживать три плоскости изображения в качестве трехплоскостной системы.
4. Ультразвуковая диагностическая система визуализации по п.3, в которой три плоскости изображения дополнительно содержат плоскость вида AP4, плоскость вида AP3 и плоскость вида AP2.
5. Ультразвуковая диагностическая система визуализации по п.2, в которой процессор сегментации и отслеживания выполнен с возможностью отслеживать плоскости видов с помощью строгого преобразования.
6. Ультразвуковая диагностическая система визуализации по п.5, в которой заранее заданные плоскости видов дополнительно содержат три плоскости изображения; и в которой процессор сегментации и отслеживания выполнен с возможностью отслеживать три плоскости изображения в качестве трехплоскостной системы.
7. Ультразвуковая диагностическая система визуализации по п.1, в которой процессор сегментации и отслеживания выполнен с возможностью отслеживать заранее заданные плоскости видов при помощи последовательно получаемых 3D изображений сердца.
8. Ультразвуковая диагностическая система визуализации по п.1, в которой процессор сегментации и отслеживания выполнен с возможностью отслеживать заранее заданные плоскости видов с помощью управления направлением сканирования последовательно получаемых плоскостей изображения.
9. Ультразвуковая диагностическая система визуализации по п.1, в которой процессор сегментации и отслеживания дополнительно выполнен с возможностью периодически обновлять регистрацию данных изображения сердца и данные модели сердца.
10. Способ получения стандартных плоскостей отображения сердца, содержащий:
получение данных 3D объемного изображения сердца матричным зондом;
регистрацию данных изображения сердца вместе с данными геометрической модели сердца, сохраненной в памяти;
определение начальной ориентации модели сердца на основании данных изображения сердца;
генерирование приведенной к соответствию модели сердца, преобразовывая модель сердца, чтобы соответствовать данным изображения сердца на основании определенной начальной ориентации;
сегментирование из данных модели сердца заранее заданных плоскостей видов, которые определены на основании ключевых опознавательных точек в модели сердца, причем ориентацию каждой из заранее заданных плоскостей видов определяют относительно приведенной к соответствию модели сердца;
отображение изображений плоскостей видов на устройстве отображения изображений; и
отслеживание получения последовательных изображений плоскостей видов для обновления отображенных изображений.
11. Способ по п.10, в котором отслеживание дополнительно содержит отслеживание плоскостей видов в качестве многоплоскостной системы.
12. Способ по п.11, в котором многоплоскостная система отслеживается с помощью строгого преобразования.
13. Способ по п.10, дополнительно содержащий: последовательное получение данных 3D объемных изображений; и отслеживание плоскостей отображения в последовательно получаемых данных 3D объемного изображения.
14. Способ по п.10, дополнительно содержащий контроль направления плоскостей сканирования в последовательных интервалах получения.
15. Способ по п.14, дополнительно содержащий периодическое обновление регистрации данных изображения сердца вместе с данными геометрической модели сердца.
RU2016122066A 2013-11-05 2014-11-04 Автоматическая сегментация трехплоскостных изображений для ультразвуковой визуализации в реальном времени RU2677055C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361899895P 2013-11-05 2013-11-05
US61/899,895 2013-11-05
PCT/IB2014/065779 WO2015068099A1 (en) 2013-11-05 2014-11-04 Automated segmentation of tri-plane images for real time ultrasonic imaging

Publications (3)

Publication Number Publication Date
RU2016122066A RU2016122066A (ru) 2017-12-11
RU2016122066A3 RU2016122066A3 (ru) 2018-06-26
RU2677055C2 true RU2677055C2 (ru) 2019-01-15

Family

ID=51900925

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016122066A RU2677055C2 (ru) 2013-11-05 2014-11-04 Автоматическая сегментация трехплоскостных изображений для ультразвуковой визуализации в реальном времени

Country Status (7)

Country Link
US (2) US10123781B2 (ru)
EP (1) EP3066643B1 (ru)
JP (2) JP6441335B2 (ru)
CN (1) CN105900140B (ru)
BR (1) BR112016009829B1 (ru)
RU (1) RU2677055C2 (ru)
WO (1) WO2015068099A1 (ru)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3066643B1 (en) * 2013-11-05 2020-05-27 Koninklijke Philips N.V. Automated segmentation of tri-plane images for real time ultrasonic imaging
KR102255831B1 (ko) * 2014-03-26 2021-05-25 삼성전자주식회사 초음파 장치 및 초음파 장치의 영상 인식 방법
KR101619802B1 (ko) * 2014-06-18 2016-05-11 기초과학연구원 심장 좌심실의 3차원 영상 생성 방법 및 그 장치
EP2989988B1 (en) * 2014-08-29 2017-10-04 Samsung Medison Co., Ltd. Ultrasound image display apparatus and method of displaying ultrasound image
JP6914845B2 (ja) * 2015-03-31 2021-08-04 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波イメージング装置
US11413006B2 (en) * 2016-04-26 2022-08-16 Koninklijke Philips N.V. 3D image compounding for ultrasound fetal imaging
US10362950B2 (en) 2016-06-24 2019-07-30 Analytics For Life Inc. Non-invasive method and system for measuring myocardial ischemia, stenosis identification, localization and fractional flow reserve estimation
CA3184536A1 (en) * 2016-09-21 2018-03-29 Analytics For Life Inc. Method and system for visualization of heart tissue at risk
DE102016117889B3 (de) * 2016-09-22 2018-03-15 Tomtec Imaging Systems Gmbh Verfahren und Vorrichtung zur Korrektur von durch Tracking-Verfahren ermittelten dynamischen Modellen
US11628014B2 (en) * 2016-12-20 2023-04-18 Koninklijke Philips N.V. Navigation platform for a medical device, particularly an intracardiac catheter
EP3590116A1 (en) * 2017-03-01 2020-01-08 Koninklijke Philips N.V. Echocardiogram context measurement tool
EP3381512A1 (en) 2017-03-30 2018-10-03 Koninklijke Philips N.V. Determining at least one final two-dimensional image for visualizing an object of interest in a three-dimensional ultrasound volume
CN110087551A (zh) 2017-04-27 2019-08-02 深圳迈瑞生物医疗电子股份有限公司 一种胎心超声检测方法及超声成像系统
US10299764B2 (en) * 2017-05-10 2019-05-28 General Electric Company Method and system for enhanced visualization of moving structures with cross-plane ultrasound images
EP3668408A1 (en) * 2017-08-17 2020-06-24 Koninklijke Philips N.V. Ultrasound system with extraction of image planes from volume data using touch interaction with an image
JP7237079B2 (ja) * 2018-02-09 2023-03-10 コーニンクレッカ フィリップス エヌ ヴェ マルチパラメトリック組織の剛性の定量化
CN109087357B (zh) * 2018-07-26 2021-06-29 上海联影智能医疗科技有限公司 扫描定位方法、装置、计算机设备及计算机可读存储介质
EP3711673A1 (en) * 2019-03-18 2020-09-23 Koninklijke Philips N.V. Methods and systems for adjusting the field of view of an ultrasound probe
CN114269255A (zh) * 2019-08-15 2022-04-01 皇家飞利浦有限公司 可转向多平面超声成像系统
US20230419602A1 (en) * 2020-11-05 2023-12-28 Koninklijke Philips N.V. Rendering and displaying a 3d representation of an anatomical structure
US20220301240A1 (en) * 2021-03-22 2022-09-22 GE Precision Healthcare LLC Automatic Model-Based Navigation System And Method For Ultrasound Images
US11922647B2 (en) * 2021-09-08 2024-03-05 Canon Medical Systems Corporation Image rendering method and apparatus
EP4389016A1 (en) * 2022-12-21 2024-06-26 Koninklijke Philips N.V. Image acquisition method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2173480C2 (ru) * 1999-11-03 2001-09-10 Терпиловский Алексей Анатольевич Способ создания виртуальной модели биологического объекта
US20100195881A1 (en) * 2009-02-04 2010-08-05 Fredrik Orderud Method and apparatus for automatically identifying image views in a 3d dataset
DE102010015973A1 (de) * 2009-03-25 2010-09-30 General Electric Co. System und Verfahren zur funktionellen Ultraschallbildgebung
RU2451335C2 (ru) * 2006-08-11 2012-05-20 Конинклейке Филипс Электроникс Н.В. Приложения для эффективной диагностики, зависимые от изображения и контекста, относящиеся к анатомии

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6106466A (en) * 1997-04-24 2000-08-22 University Of Washington Automated delineation of heart contours from images using reconstruction-based modeling
US5997479A (en) 1998-05-28 1999-12-07 Hewlett-Packard Company Phased array acoustic systems with intra-group processors
US6468216B1 (en) 2000-08-24 2002-10-22 Kininklijke Philips Electronics N.V. Ultrasonic diagnostic imaging of the coronary arteries
JP3802508B2 (ja) * 2003-04-21 2006-07-26 アロカ株式会社 超音波診断装置
US7555151B2 (en) * 2004-09-02 2009-06-30 Siemens Medical Solutions Usa, Inc. System and method for tracking anatomical structures in three dimensional images
US7327872B2 (en) * 2004-10-13 2008-02-05 General Electric Company Method and system for registering 3D models of anatomical regions with projection images of the same
JP5122743B2 (ja) 2004-12-20 2013-01-16 ゼネラル・エレクトリック・カンパニイ インターベンショナルシステム内で3d画像を位置合わせするシステム
JP5481069B2 (ja) * 2005-12-20 2014-04-23 コーニンクレッカ フィリップス エヌ ヴェ 対象物の少なくとも一部を細かく再現したものを再構成する再構成ユニット
US7889912B2 (en) * 2006-09-15 2011-02-15 The General Electric Company Method for real-time tracking of cardiac structures in 3D echocardiography
CN102197316A (zh) * 2008-10-22 2011-09-21 皇家飞利浦电子股份有限公司 3-d超声成像
GB201117804D0 (en) * 2011-10-14 2011-11-30 Siemens Medical Solutions Automatic local contrast quantification tool
US9277970B2 (en) * 2012-07-19 2016-03-08 Siemens Aktiengesellschaft System and method for patient specific planning and guidance of ablative procedures for cardiac arrhythmias
WO2014080319A1 (en) * 2012-11-20 2014-05-30 Koninklijke Philips N.V. Automatic positioning of standard planes for real-time fetal heart evaluation
EP3066643B1 (en) * 2013-11-05 2020-05-27 Koninklijke Philips N.V. Automated segmentation of tri-plane images for real time ultrasonic imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2173480C2 (ru) * 1999-11-03 2001-09-10 Терпиловский Алексей Анатольевич Способ создания виртуальной модели биологического объекта
RU2451335C2 (ru) * 2006-08-11 2012-05-20 Конинклейке Филипс Электроникс Н.В. Приложения для эффективной диагностики, зависимые от изображения и контекста, относящиеся к анатомии
US20100195881A1 (en) * 2009-02-04 2010-08-05 Fredrik Orderud Method and apparatus for automatically identifying image views in a 3d dataset
DE102010015973A1 (de) * 2009-03-25 2010-09-30 General Electric Co. System und Verfahren zur funktionellen Ultraschallbildgebung

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Orderud et al. Automatic Alignment of Standard Views in 3D Echocardiograms Using Real-time Tracking, Medical Imaging 2009: Ultrasonic Imaging and Signal Processing, edited by Stephen A. McAleavey, Proc. of SPIE. Vol. 7265, 72650D1-7. *

Also Published As

Publication number Publication date
US20190059858A1 (en) 2019-02-28
JP6441335B2 (ja) 2018-12-19
US10799218B2 (en) 2020-10-13
WO2015068099A1 (en) 2015-05-14
JP2016534803A (ja) 2016-11-10
RU2016122066A3 (ru) 2018-06-26
JP2019022824A (ja) 2019-02-14
US20160249885A1 (en) 2016-09-01
CN105900140B (zh) 2019-02-05
BR112016009829B1 (pt) 2022-02-22
CN105900140A (zh) 2016-08-24
US10123781B2 (en) 2018-11-13
JP6745861B2 (ja) 2020-08-26
BR112016009829A2 (ru) 2017-08-01
EP3066643A1 (en) 2016-09-14
EP3066643B1 (en) 2020-05-27
RU2016122066A (ru) 2017-12-11

Similar Documents

Publication Publication Date Title
RU2677055C2 (ru) Автоматическая сегментация трехплоскостных изображений для ультразвуковой визуализации в реальном времени
US10410409B2 (en) Automatic positioning of standard planes for real-time fetal heart evaluation
JP6581605B2 (ja) 医療用画像処理デバイス及び方法
JP2009540911A (ja) 三次元超音波イメージングのための方法、装置及びコンピュータプログラム
JP7240405B2 (ja) 超音波画像から解剖学的測定値を取得するための装置及び方法
EP4061231B1 (en) Intelligent measurement assistance for ultrasound imaging and associated devices, systems, and methods
CN107427279A (zh) 使用具有用户控制的心脏模型腔室的心脏功能的超声诊断
US10398411B2 (en) Automatic alignment of ultrasound volumes
CN110719755A (zh) 超声成像方法
JP2023133452A (ja) 超音波撮像方法及びシステム
CN112867444A (zh) 用于引导对超声图像的采集的系统和方法
JP2021529035A (ja) 経弁圧の定量化を行うための方法及びシステム
US11484286B2 (en) Ultrasound evaluation of anatomical features
US20220061809A1 (en) Method and system for providing an anatomic orientation indicator with a patient-specific model of an anatomical structure of interest extracted from a three-dimensional ultrasound volume
CN111727459B (zh) 拼接多幅图像的成像系统和方法
US20220287686A1 (en) System and method for real-time fusion of acoustic image with reference image
US20220207743A1 (en) System and method for two dimensional acoustic image compounding via deep learning