CN105359191A - 超声成像设备及其控制方法 - Google Patents

超声成像设备及其控制方法 Download PDF

Info

Publication number
CN105359191A
CN105359191A CN201480038568.0A CN201480038568A CN105359191A CN 105359191 A CN105359191 A CN 105359191A CN 201480038568 A CN201480038568 A CN 201480038568A CN 105359191 A CN105359191 A CN 105359191A
Authority
CN
China
Prior art keywords
sample
texel
volume data
imaging apparatus
texture image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480038568.0A
Other languages
English (en)
Other versions
CN105359191B (zh
Inventor
高永仁
李喜世
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN105359191A publication Critical patent/CN105359191A/zh
Application granted granted Critical
Publication of CN105359191B publication Critical patent/CN105359191B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4405Device being mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Architecture (AREA)
  • Image Generation (AREA)

Abstract

在此公开的是一种超声成像设备及其控制方法。所述超声成像设备包括:超声采集器,被配置为采集来自对象的超声波;体数据产生器,被配置为基于所述超声波来产生体数据;图像处理器,被配置为参照纹理图像对体数据执行体绘制,其中,对象的半透明特性和多层组织被反映给所述纹理图像的每个像素。

Description

超声成像设备及其控制方法
技术领域
本发明的实施例涉及一种超声成像设备及其控制方法。
背景技术
超声成像设备从对象(例如,人体)的皮肤表面向对象的特定部位发射超声信号,并接收从对象的特定部位反射的超声信号(即,超声回声信号),从而基于与超声回声信号有关的信息来非侵入式地获取关于软组织的断层图像或关于血管的图像。
与包括X射线成像设备、计算机断层(CT)扫描仪、磁共振成像(MRI)设备和射线照相诊断系统的其它的成像设备相比,超声成像设备是一种具有较小尺寸的廉价的设备,能够实时显示图像,并且由于不存在使患者被暴露于辐射(诸如,X射线)下的风险,所以具有较高的安全性。由于这些优点,超声成像设备广泛地用于诊断心脏、胸部、腹部、泌尿器官、子宫等。
一般而言,超声成像设备包括用于容纳超声成像设备的主要组件的主体、用于发送并接收超声波的超声采集器、通过其用于操作超声成像设备的命令被输入的包括各种开关和按键的控制面板以及用于将超声诊断的结果显示为图像的显示器。
超声成像设备对对象执行超声波造影术的方法如下。首先,操作者用他/她的一只手握住超声波采集器,在使超声波采集器与对象的皮肤表面保持接触的同时移动超声采集器,并用另一只手对控制面板进行操作以执行超声波造影术。通过显示器实时显示通过超声波造影术获得的超声图像,使得操作者能够诊断对象的状态。
然而,由于通过超声波造影术获得的超声图像由于超声成像设备的物理特性的原因而成为单色图像,所以在真实地表示对象的内部结构方面存在限制。为了克服所述限制,已经开发了基于任意地选择的颜色来产生三维(3D)彩色超声图像的方法。然而,由于图像不是基于对象的真实的颜色,所以所述方法仍具有图像的真实性低的问题。具体而言,在产生胎儿的3D超声图像时,所述方法导致比在产生心脏、胸部等的图像时的真实性更低。
发明内容
技术问题
因此,本发明一方面提供了一种用于通过参照对象的半透明特性或对象的多层组织已被反映给的纹理图像来执行渲染而产生真实的三维(3D)图像的超声成像设备,以及所述超声成像设备的控制方法。
本发明的额外的方面部分地将在随后的描述中被阐述,部分地将从所述描述中变得清楚,或者可通过本公开的实践而被获知。
技术方案
根据本发明的一方面,一种超声成像设备,包括:超声采集器,被配置为采集来自对象的超声波;体数据产生器,被配置为基于所述超声波来产生体数据;图像处理器,被配置为参照纹理图像对体数据执行体绘制,其中,对象的半透明特性和多层组织被反映给所述纹理图像的每个纹素。
根据本发明的另一方面,一种超声成像设备,包括:超声采集器,被配置为采集来自对象的超声波;体数据产生器,被配置为基于所述超声波来产生体数据;图像处理器,被配置为参照纹理图像对体数据执行体绘制,其中,对象的半透明特性被反映给所述纹理图像的每个纹素。
根据本发明的另一方面,一种超声成像设备,包括:超声采集器,被配置为采集来自对象的超声波;体数据产生器,被配置为基于所述超声波来产生体数据;图像处理器,被配置为参照纹理图像对体数据执行体绘制,其中,对象的多层组织被反映给所述纹理图像的每个纹素。
根据本发明的另一方面,一种超声成像设备的控制方法,包括:采集来自对象的超声波;基于所述超声波来产生体数据;参照纹理图像对体数据执行体绘制,其中,对象的半透明特性和多层组织被反映给所述纹理图像的每个纹素。
根据本发明的另一方面,一种超声成像设备的控制方法,包括:采集来自对象的超声波;基于所述超声波来产生体数据;参照纹理图像对体数据执行体绘制,其中,对象的半透明特性被反映给所述纹理图像的每个纹素。
根据本发明的另一方面,一种超声成像设备的控制方法,包括:采集来自对象的超声波;基于所述超声波来产生体数据;参照纹理图像对体数据执行体绘制,其中,对象的多层组织被反映给所述纹理图像的每个纹素。
有利效果
根据如上所述的超声成像设备及其控制方法,能够获得以下的效果。
通过在将对象的半透明特性和多层组织反映给体数据之后对体数据进行渲染,可以控制并产生真实图像,使得该图像看起来接近于对象的真实结构。
具体而言,在妇科诊断中使用超声成像设备时,超声成像设备可真实地显示胎儿的图像,这导致孕妇和她的家人的情绪稳定性和精神满足感的提高。
附图说明
从以下结合附图对实施例的描述中,本发明的这些和/或其它的方面将变得清楚和更容易被理解,其中:
图1是根据本发明的实施例的超声成像设备的透视图;
图2是根据本发明的实施例的超声成像设备的控制配置的框图;
图3是根据本发明的实施例的图像处理器的控制配置的框图;
图4示出在对象位于光源和视点之间的情况下光源被定位为面向视点时的光路;
图5示出包括关于对象的半透明特性和多层组织的信息的纹理图像的示例;
图6是用于描述根据本发明的实施例的在采样时对对象相对于视点的位置重新排列的处理的示图;
图7是用于描述根据本发明的实施例的计算与每个样本相应地纹理图像的像素的位置的方法的示图;
图8A、图8B和图8C是用于描述根据本发明的实施例的计算相对于视点的从表面到每个样本的深度的方法的示图;
图9是根据本发明的实施例的计算相对于视点的从对象的表面到每个样本的深度的方法的流程图;
图10A、图10B和图10C是用于描述根据本发明的实施例的计算相对于光源的从表面到每个样本的深度的方法的示图;
图11是根据本发明的实施例的计算相对于光源的从对象的表面到每个样本的深度的方法的流程图;
图12是根据本发明的实施例的针对体绘制方法的渲染算法的流程图。
具体实施方式
现在将详细参照示例在附图中被示出的本发明的实施例,其中,同样的附图标号始终指示同样的元件。
图1是根据本发明的实施例的超声成像设备的透视图。参照图1,超声成像设备可包括主体100、超声采集器110、输入单元150、主显示单元160和子显示单元170。
在主体100的一侧,可设置一个或更多个插孔145。连接到线缆130的插头可与插孔144中的一个插孔在物理上耦合。
在主体100的底部,可设置用于使超声成像设备移动的多个脚轮(未示出)。多个脚轮可用于将超声成像设备固定在特定位置处并用于使超声成像设备沿着特定方向移动。
超声采集器110接触对象的皮肤表面,并可发送或接收超声波。更具体而言,超声采集器110用于将从主体100接收的发送信号(即,超声信号)辐射到对象的内部,接收从对象的特定的部位反射的超声回声信号,并将超声回声信号传送到主体100。超声采集器110可被连接到线缆130的一端,电缆130的另一端可被连接到插头140。被连接到线缆130的另一端的插头140可与主体145的插孔145中的一个插孔在物理上耦合。
输入单元150用于接收用于指示超声成像设备的操作的命令。例如,可通过输入单元150输入模式选择命令(诸如,幅度模式(A模式)、亮度模式(B模式)或运动模式(M模式))或超声波造影术开始命令。可通过有线/无线通信将通过输入单元输入的命令传送到主体100。
输入单元150可包括键盘、脚踏开关和脚踏板中的至少一项。键盘可通过硬件来实施,并可被布置在主体100的上部。键盘可包括开关、按键、操纵杆和轨迹球中的至少一项。如另一示例,键盘可在软件上被实施为图形用户界面(GUI)。在这种情况下,可通过子显示单元170或主显示单元160来显示键盘。脚踏开关或脚踏板可被设置在主体100的下部,操作者可使用脚踏板来控制超声成像设备的操作。
用于容纳超声采集器110的超声采集器保持器120可被设置为与输入单元150相邻。可设置一个或更多个超声采集器保持器。操作者可将超声采集器110放入超声采集器保持器120以便在他/她不使用超声成像设备时安全地保存超声采集器110。
子显示单元170可被安装在主体100中。图1示出子显示单元170被设置在输入单元150的上部的情况。子显示单元170可显示与超声成像设备的操作相关的应用。例如,子显示单元170可显示针对超声波造影术的菜单或指南。子显示单元170可被实施为阴极射线管(CRT)或液晶显示器(LCD)。
主显示单元160也可被安装在主体100中。图1示出主显示单元160位于子显示单元170的上方的情况。主显示单元160可显示通过超声波造影术获取的超声图像。主显示器160可与子显示器170同样地被实施为CRT或LCD。在图1中,主显示单元160可与主体100被集成,然而,主显示单元160可与主体100分离。
在图1的实施例中,超声成像设备包括主显示单元160和子显示单元170两者,然而,子显示单元170可被省略。在这种情况下,通过子显示单元170显示的应用、菜单等可通过主显示单元160来显示。
图2是根据本发明的实施例的超声成像设备的控制配置的框图。参照图1和图2,超声采集器110包括多个超声换能器114,其中,所述多个超声换能器114根据从电源112施加的交流电而产生超声波,将超声波辐射到对象,接收从对象的目标部位反射的超声回波并将接收到的超声回波转换为电信号。电源112可以是外部电源或超声成像设备中所包括的储能单元。
每个超声换能器114可以是使用磁材料的磁致伸缩效应的磁致伸缩超声换能器、使用压电材料的压电效应的压电超声换能器或使用几百或几千个微机械薄膜的振动来发送和接收超声波的电容式微机械超声换能器(CMUT)。
在来自电源112的交流电被施加到每个超声换能器114时,超声换能器114的压电振动器或薄膜振动,因此产生超声波。产生的超声波被辐射到对象,例如,被辐射到人体的内部。被辐射的超声波被可位于距离对象的表面的不同深度处的一个或更多个目标区域反射。超声换能器114接收从目标区域反射的超声回声信号,并将接收到的超声回声信号转换成电信号以获得多个接收到的信号。
接收到的信号通过有线/无线通信网络被传送到主体100。由于超声收集器110通过多个信道接收超声回声信号,所以多个接收到的信号也通过多个信道被传送到主体100。
主体100可包括波束形成器210、体数据产生器220和图像处理器230。在另一实施例中,以上提到的组件中的一个或更多个组件可被省略。
波束形成器210可基于多个接收到的信号执行波束形成。波束形成是对通过多个信道接收到的多个接收到的信号进行聚焦以获取关于对象的内部的适合的超声图像的操作。
波束形成器210对由各个换能器114和对象的目标区域之间的距离差造成的多个接收到的信号的时间差进行校正。然后,波束形成器210使与特定信道相应的多个接收到的信号增强,或使与其它的信道相应的多个接收到的信号相对衰减,从而对多个接收到的信号进行聚焦。此时,波束形成器210可通过选择性地将预定的权重分配给通过单独的信道接收到的多个接收到的信号使特定的接收到的信号增强或衰减。
波束形成器210可考虑到超声采集器110的换能器114的位置和聚焦点而针对每个帧对由超声采集器110采集的多个接收到的信号进行聚焦。
由波束形成器210执行的波束形成可以是独立于数据的波束形成和适应的波束形成中的一种。
体数据产生器220基于由波束形成器210聚焦的信号来产生超声图像数据。如果波束形成器210针对多个帧中的每个帧对多个接收到的信号进行聚焦,则体数据产生器220基于多个被聚焦的信号来产生与各个帧分别相应的多条超声图像数据。超声图像数据可以是针对对象的3D超声图像数据(即,针对对象的体数据)。
图像处理器230可从体数据产生器230接收针对对象的体数据。然后,图像处理器230对体数据执行渲染,并将体绘制的结果传送到主显示单元160,使得主显示单元160能够将体绘制的结果输出为图像。
图像处理器230可使用本领域公知的体绘制方法中的一种对3D体数据进行体绘制。具体而言,体绘制可被分为表面渲染和直接体绘制。
表面渲染是:基于预定的标量值和空间改变的量从体数据提取表面信息,将表面信息转换为几何因子(诸如,多边形或面片(surfacepatch)),然后将传统的渲染技术应用到几何因子。表面渲染的示例是移动立方体算法和分割立方体算法。
直接体绘制是直接对体数据进行渲染而无需将体数据转换为几何因子。直接体绘制由于其在实际上能够使对象的内部可视化所以可用于表示半透明的结构。直接体绘制根据接近体数据的方式可分为物序方法和图序方法。
图序方法是顺序地决定图像的像素值。图序方法的示例是体射线投射。根据体射线投射,如图6中所示,从特定的视点向显示屏的预定像素辐射虚拟射线,然后,体素被检测到,其中,在多个体数据的体素之中虚拟射线穿过体素而被发送。然后,被检测到的体素的亮度值被累积以确定显示屏的相应像素的亮度值。可选地,被检测到的体素的平均值可被确定为显示屏的相应像素的亮度值。此外,被检测到的体素的加权平均值可被确定为显示屏的相应像素的亮度值。
物序方法是直接将体数据投射到图像。物序方法的示例是溅射。根据溅射,通过使体素被投射到的平面上的点对准重新配置的核然后使外围像素将值分配给体素而确定相应的像素的亮度值。
如果体绘制完成,则可产生3D超声图像。3D超声图像的每个像素可具有亮度值和颜色值。在使用上述体绘制方法的体射线投射的假设下给出以下描述。
再次参照图2,存储单元240可存储超声成像设备200的操作所需要的数据或算法。例如,存储单元240可存储用于渲染体数据的算法,用于计算相对于视点的样本的位置的算法和用于计算从表面到每个样本的深度的算法。
存储单元240可以是只读存储器(ROM)、随机存取存储器(RAM)、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、非易失性存储装置(诸如,闪存)、易失性存储装置(诸如,随机存取存储器(RAM))或光盘。然而,存储单元280不限于此,并且可以是在本领域中被公知的任何其它的存储装置。
已经在上文中参照图1和图2描述了超声成像设备的主体100包括波束形成器210、体数据产生器220、图像处理器230和存储单元240的实施例。然而,主体100不需要包括所有的上述组件。换言之,一些组件可被包括在另一组件中(例如,被包括在超声采集器110中)。
例如,超声采集器110可包括波束形成器210以基于电信号产生超声图像并校正产生出的超声图像。
上述描述涉及根据本发明的实施例的超声成像设备的外观和控制配置。在下文中,将参照图3至图12更详细地描述超声成像设备的图像处理器230的控制配置和超声成像设备的单独的组件的功能。
图3是根据本发明的实施例的图像处理器230的控制配置的框图。参照图3,图像处理器230可包括纹理图像存储单元232、采样单元234、计算器235和数据累积单元238。
纹理图像存储单元232可存储在体绘制时参考的纹理图像。因为纹理图像存储单元232也用于存储数据,所以纹理图像存储单元232可被实施为与存储单元240的类型相同的装置。
纹理图像存储单元232可存储一个或更多个纹理图像。纹理图像存储单元232中将被存储的纹理图像可反映对象的半透明特性或多层组织。在下文中,将描述对象的半透明特性或多层组织。
光透过特定对象而不在该对象中被吸收或不被该对象反射的现象被称为透射。光透射的程度极大程度上取决于透过光的对象的特性。例如,透明材料(诸如,玻璃)虽然反射少量入射光并吸收少量入射光,但是使大部分的入射光透射。光透过材料的程度被确定为材料的透明性,光被100%透过的材料会被视为具有透明性。同时,没有光透过的材料被视为不透明材料。如果特定的材料根据材料的表面结构和使透明性降低的特性而透射少量的光并散射光,则材料被视为具有半透明特性。
具有软组织的对象(诸如胎儿)由于恒定量的光会透过所述对象所以会被视为具有半透明特性。相应地,由于从光源照射的一部分光被强烈地透射到组织,所以这种对象强烈地依靠归因于半透明特性的效果。在具有半透明特性的对象的情况下,归因于光透过对象的效果甚至在光源位于对象后方时以及在光源位于对象的前方时必须被考虑。可通过假设在入射光的一部分透过对象的内部而入射光的剩余部分被对象的表面反射的同时进行计算来表示半透明特性。
图4示出在对象位于光源和视点之间的情况下光源被定位为面向视点时的光路。在图4中,由于被反射的光对在视点处观测对象不具有影响,所以没有示出从对象反射的光的路径。首先,在下文中描述通过点df1和点do1的光路,其中,来自光源的光在点df1处进入对象的内部,穿过对象的内部光在点do1处从对象中脱离。光透过了对象的内部S1距离。同时,在从光源产生的光透过具有不均匀厚度的对象时,光透过对象的内部的距离取决于光路。
参照图4,光透过对象的下部的距离S1比光透过对象的上部的距离S2长(S1>S2)。在光透过对象的内部时只要对象不是完全透明的材料,入射到对象的一部分光就在对象中被吸收。相应地,在光透过对象的内部的距离越长,则在对象中被吸收的光量越多。因此,在图4的情况下,在从视点看到对象时,观测到点do1比点do2暗。也就是说,具有距离光源面向的对象表面的较深深度的区域必须被表示为比具有距离光源面向的对象表面的较浅深度的区域暗,以便提高对象的真实性。鉴于此,将纹理图像存储单元232中所存储的纹理图像的一个轴可被配置为表示距离光源面向的对象表面的深度。
随着对象的半透明特性,对象的多层组织必须被考虑。透过介质的光受介质的种类的影响。具体而言,由于不同种类的介质吸收光的不同的波长,所以从视点处显示的对象的颜色取决于光已经透过对象的深度。相应地,在从视点处显示对象时,光透过对象的不同的材料层的效果(即,光透过对象的不同的材料层的颜色)被混合且直观地显示。
例如,如果对象是人体,则会考虑人体的多层组织。原因是因为人体的皮肤不是单一的材料并且包括多个不同类型的层。如果人体的皮肤被分成角质层、表皮层、真皮层和膜层,则由于各个层具有不同的特性,所以对象可按照与具有单一层的对象不同的方式来表示。相应地,在对象具有与人体的皮肤同样的多层组织时,对象的多层组织在渲染时被考虑以便提高真实性。具体而言,在体绘制的情况下,由于对象的内部以及对象的表面必须被渲染,所以考虑对象的多层组织来决定颜色值的方法能够提高渲染的真实性。
为了考虑对象的多层组织,样本位于对象的什么层需要被确定。为了确定样本所属的层,样本所处的相对于视点距离表面的深度可被计算。通过在渲染时考虑样本的深度来决定颜色值,能够提高真实性。为了将样本的深度反映给纹理图像,纹理图像的一个轴可被配置为表示相对于视点距离表面的深度。
图5示出包括关于对象(例如,胎儿)的半透明特性和多层组织的信息的纹理图像的示例。在以下描述中,由于使用彩色纹理图像实施本公开,所以假设在图5中被显示为黑色和白色的纹理图像是带颜色的。
纹理图像存储单元232(见图3)可存储二维(2D)纹理图像。每幅2D纹理图像可用每一个均具有亮度值或颜色值的一组纹素来配置。在渲染被执行时,纹素的亮度值或颜色值可被参考以便提高真实性。纹素是构造纹理图像数据的最小单元。
参照图5,纹理图像可被配置为横轴表示样本相对于视点距离表面的深度,纵轴表示样本相对于光源距离表面的深度。如上所述,样本相对于视点距离表面的深度(纹理图像的横轴)被用于确定样本位于相应对象的什么层中,相应地,纹理图像的横轴可成为决定纹素的颜色值的标准。此外,样本相对于光源距离表面的深度(纹理图像的纵轴)被用于确定光透过相应对象的深度,相应地,纹理图像的纵轴可成为决定纹素的亮度值的标准。
再次参照图3,采样单元234从体数据产生器220(见图2)接收对象的体数据。采样单元234对接收到的体数据执行针对体绘制的采样。
在采样时,对象的位置可相对于视点被重新设置,以便便于针对体绘制的计算。具体而言,显示屏的轴可被设置为正交坐标系统的轴,样本的位置可被表示为向量。由此,样本与表面之间的距离可通过简单的数学运算而获得。
图6是用于描述根据本发明的实施例的在采样时相对于视点对对象的位置重新排列的处理的示图。图6示出具有立方体形状的体数据样本的设置的示例,其中,在立方体形状中,每一边具有N个体素的标量值。每个体素按照的形式来表示,向量的体素值是其中,f是表示与体素相应的体素值的函数。首先,假设从观测者向体数据投射光束。在这种情况下,显示屏用M×N个像素来配置,其中,M是在显示屏的横轴上排列的像素的数量,N是在显示屏的纵轴上排列的像素的数量。每条光束被投射到像素。每个像素或通过每个像素投射的光束被表示为向量U其中,u和v是x轴和y轴上的坐标,在光束上采样到的点被表示为其中,w是z轴上的坐标。向量的z轴坐标w与采样距离和采样的次数成比例地增加。通过获得向量能够获取样本的位置。通过将样本的位置表示为向量,能够通过数学运算简单地获取样本到表面的距离。
可由用户通过输入单元150输入针对由采样单元234执行的采样的设置值。例如,可由用户将采样距离、采样的次数和采样结束的点设置为期望的值。
再次参照图3,计算器236可从采样单元234接收通过采样获取的每个样本的位置。计算器236用于使用接收到的样本的位置来计算样本到表面的距离。为了增加计算的速度和准确性,计算器236可在硬件上被实施为使用多条管线来实现并行处理。
计算器236可执行用于沿着光束穿过显示屏的方向检测与每个样本相应的纹素的计算。参照图6,纹理图像的横轴可被设置为相对于视点距离表面的深度,纹理图像的纵轴可被设置为相对于光源距离表面的深度。通过使用从采样单元234接收到的采样位置计算样本在纹理图像的横轴或纵轴上的值,可检测到相应纹素。计算器236可将被检测到的纹素的亮度值或颜色值传送到数据累积单元238。
图7是用于描述根据本发明的实施例的计算与每个样本相应的纹素的位置的方法的示图。为了获得对象的多层组织已经被反映到的对象的每个样本的颜色值,相应样本相对于视点距离表面的深度X被计算。此外,为了获得对象的半透明特性已经被反映到的对象的每个样本的亮度值,相应样本相对于光源距离表面的深度Y被计算。基于结果坐标值(x,y),可从图6的纹理图像检测到与该样本相应的纹素。计算器236可将被检测到的纹素的颜色值和亮度值传送到数据累积单元238。在下文中,将参照图8至图11详细地描述计算深度X和深度Y的方法。
图8A、图8B和图8C是用于描述根据本发明的实施例的计算相对于视点的从表面到每个样本的深度X的方法的示图。参照图8A,在虚拟光束从视点被投射到对象时,沿着光束的方向对体数据采样。为了查找光束的路径上的表面,继续执行从视点起的采样,如果查找到非空白空间的第一个样本,则被查找到的位置被估计为表面的位置。如果在连续的采样期间查找到空白空间,则作为非空白空间并且首先被查找到的样本的位置被再次估计为表面的位置。
参照图8B,估计出的表面的梯度向量被计算。表面的梯度向量使用x轴、y轴和z轴上的外围样本的纹素值来计算。以下的等式(1)被用于计算表面的梯度向量的x分量。在等式(1)中,向量表示样本的位置,f表示样本的纹素值,h表示样本之间的单位距离,其中,u、v和w是x轴坐标、y轴坐标和z轴坐标。
等式(1)
g x ( U → ( u , v , w ) ) = f ( U → ( u + 1 , v , w ) ) - f ( U → ( u - 1 , v , w ) ) 2 h
参照图8C,获得这样的平面:在所述平面中,法向量是表面的梯度向量。所述平面是对象在与表面相应的点处的的切平面。计算从所述平面到深度必须被计算的样本的距离,所述距离成为相对于视点的从表面到样本的深度X。
图9是根据本发明的实施例的计算相对于视点的从对象的表面到每个样本的深度X的方法的流程图。深度X能够通过获得在与表面相应的点处的切平面并计算从切平面到样本的距离而被计算。
首先,从视点起沿着光束执行采样(300)。此时,采样的次数与体绘制的真实性的程度成比例地增加。原因是因为在采样的次数越多,则越能够查找到表面的更准确的位置。可将采样的次数设置为由用户通过输入单元150(见图2)输入的值。采样可与以下的处理同时执行或独立于以下的处理而执行,并且在以下的描述中,假设采样与以下的处理同时执行。
相继地,按照从视点起的顺序检查样本的体素值(310)。然后,基于体素值来确定每个样本是否为空白空间(320)。每个样本是否为空白空间可使用限定体素值中的密度值与透光度之间的关系的阻光度传递函数(OTF)来确定。由于使用OTF确定空白空间的方法在本领域中是公知的,因此将省略进一步的描述。
如果样本是空白空间,则检查下一样本(325)。如果不是空白空间的样本被查找到,则获取样本的位置值(330)。位置值已经被获取的样本被估计为表面。原因是因为不是空白空间并且首先被查找到的样本是沿着光束的方向存在于对象的内部的第一个样本。
然后,计算样本的深度X的操作被执行。样本的深度X使用样本的位置值来计算。为此,执行计算样本的位置处的梯度向量的操作(340)。梯度向量使用样本的x轴、y轴和z轴上的外围值来计算。由于在上文中已经参照图8B描述了计算梯度向量的方法,所以将省略进一步的描述。
在梯度向量被计算之后,获得这样的平面:在所述平面上存在被估计为表面的样本的位置并且在所述屏幕中法向量是表面的梯度向量(350)。由于所述平面仅在表面的与表面相应的点处与对象相交并与所述对象垂直,所以所述平面是对象在与表面相应的点处的切平面。通过使用垂直于对象的切平面,能够沿着光束的方向容易地计算样本的深度。
最后,通过计算切平面与深度X必须被计算的样本之间的距离,可获取样本相对于视点距离表面的深度X(360)。深度X可被用于检测图6的纹理图像的横轴上的纹素。
图10A、图10B和图10C是用于描述根据本发明的实施例的计算相对于光源的从表面到每个样本的深度Y的方法的示图。参照图10A,从深度必须被计算的样本向光源前进的光束被产生。这旨在计算从光源照射的光透过介质直到光到达相应的样本为止的距离,以反映相应的对象的半透明特性。由于从对象的表面反射的光对决定样本的亮度值不具有影响,所以仅仅考虑直线前进的光。
参照图10B,沿着产生的光束按照固定的时间间隔对体数据采样。此时,从深度必须被计算的样本开始沿着光束的行进方向执行采样,使得样本的体素值中的亮度值被检查。由于亮度值随着从光源照射的光透过介质到达更深的深度而变大,所以亮度值被检查以检测介质的表面上的样本。按照采样的顺序获取的亮度值与预定的阈值进行比较。由于在亮度值上有较大改变的点会被视为光开始透过介质的点,所以如果特定的样本的亮度值下降到预定的阈值之下,则前一样本可被估计为表面。然后,所述表面与深度必须被计算的样本之间的距离被计算,使得从表面到样本的深度Y能够被计算。
图11是根据本发明的实施例的计算相对于光源的从对象的表面到每个样本的深度Y的方法的流程图。能够基于光的强度根据光透过介质直到光到达样本为止的距离而变化的事实来计算深度Y。
为了计算深度Y,首先,产生从深度必须被计算的样本向光源前进的光束(400)。这旨在设置从实际光源起到达相应样本的光的路径,并容易地计算沿着该路径前进的光透过介质的距离。
在光束被产生之后,按照固定的时间间隔沿着产生出的光束的行进方向执行采样(410)。此时,采样的次数与体绘制的真实性的程度成比例地增加。原因是因为在采样的次数越多,越能够被查找到表面的更准确的位置。可将采样的次数可设置为由用户通过输入单元150(见图2)输入的值,采样可与以下的处理同时执行或独立于以下的处理而执行,在以下的描述中,假设采样与以下的处理同时执行。
如果采样被执行,则从位于距离光源最远处的样本开始按照顺序获取样本的体素值中的亮度值(420),将亮度值与预定的阈值进行比较(430)。通过将亮度值与预定的阈值进行比较,能够确定样本是否被包括在对象的内部。预定的阈值可被设置为在光未透过任何介质时亮度值的误差范围内的恰当的值。
在将样本的亮度值与预定的阈值进行比较时,如果样本的亮度值大于预定的阈值,则相应样本被确定为位于对象的内部的样本,然后,将下一样本与预定的阈值进行比较。同时,如果样本的亮度值小于预定的阈值,则样本被确定为位于对象的外部的样本。
如果样本被确定为位于对象的外部的样本,则前一样本被估计为对象的表面。然后,获取样本的位置值(440)。原因是因为如果位于对象的外部的样本在位于对象的内部的连续样本被查找到之后被查找到,则位于对象的外部的样本的前一样本是沿着光束的行进方向位于对象的内部的最后一个样本。
然后,计算从表面到深度必须被计算的样本的距离,使得能够计算从表面到样本的深度Y(450)。深度Y可被用于检测图6的纹理图像的纵轴上的纹素。
参照图3至图11,计算器236可基于结果深度值(x,y),从纹理图像存储单元232中所存储的纹理图像检测与样本相应的纹素。然后,从相应纹素检测亮度值或颜色值。
数据累积单元238接收由计算器236检测的纹素的亮度值或颜色值。与相对于视点沿着穿过显示像素的光束的路径获取的样本相应的纹素的亮度值或颜色值在数据累积单元238中被全部累积,其中,基于在累积单元238中累积的值,决定光束穿过的显示像素的亮度或颜色。
图12是根据本发明的是实施例的针对体绘制方法的渲染算法的流程图。
首先,从视点起沿着光束的方向按照固定的时间间隔执行采样(500)。此时,在执行采样所按照的时间间隔越短,则经过计算以决定每个显示像素的亮度值和颜色值样本越多。相应地,由于获取了纹素的更多的亮度值和颜色值,所以将更大的量的数据累积以获得具有高真实性的渲染的结果。可将采样间隔设置为由用户通过输入单元150输入的值。
然后,从位于最靠近视点处的样本开始按照顺序检查样本的纹素值(510)。然后,确定每个样本是否是空白空间(520)。可使用本领域中公知的OTF来确定样本是否是空白空间。如果基于样本的纹素值确定样本是空白空间,则确定下一样本是否为空白空间(525)。原因是因为与空白空间相应的样本不具有关于对象的信息。
如果不是空白空间的样本被查找到,则获取样本的位置(530),并执行用于从纹理图像检测与样本相应的纹素的计算。为了进行所述计算,计算样本相对于光源距离对象的表面的深度(540),并计算样本相对于视点距离对象的表面的深度(550)。
通过计算从样本产生的光束穿过介质直到光束到达光源经过的距离来计算样本相对于光源距离对象的表面的深度。通过将不是空白空间并首先被查找到的样本估计为表面并且计算对象在与表面相应的点处的切平面与深度必须被获得的样本之间的距离来计算样本相对于视点距离对象的表面的深度。计算样本相对于光源距离对象的表面的深度的操作可与计算样本相对于视点距离对象的表面的深度的操作同时执行或独立于计算样本相对于视点距离对象的表面的深度的操作而执行。
基于所述计算的结果,从纹理图像存储单元232中所存储的纹理图像检测相应的纹素。纹理图像能够具有亮度值和颜色值,其中,对象的半透明特性和多层组织已经被反映给所述亮度值和颜色值。亮度值能够通过计算相对于光源的从对象的表面到深度必须被获得的样本的深度而获得,其中,半透明特性已经被反映给所述亮度值。颜色值能够通过计算相对于视点的从对象的表面到深度必须被获得的样本的深度而获得,其中,多层组织已经被反映给所述颜色值。在这种方式下,获得纹素的亮度值和颜色值(560)。
所获得的亮度值和颜色值被累积到现有的值中,从而执行渲染(570)。相应地,通过将与沿着穿过相应的显示像素的光束采样出的样本相应的纹素的亮度值和颜色值进行累积来决定显示像素的亮度值和颜色值。在亮度值和颜色值被累积之后,确定采样是否需要继续被执行(580)。如果采样需要继续被执行,则获取下一样本的位置,并且上述操作在下一样本上执行。如果采样不再需要继续被执行,则处理结束。

Claims (15)

1.一种超声成像设备,包括:
超声采集器,被配置为采集来自对象的超声波;
体数据产生器,被配置为基于所述超声波来产生体数据;
图像处理器,被配置为参照纹理图像对体数据执行体绘制,
其中,对象的半透明特性和多层组织被反映到纹理图像的每个纹素。
2.如权利要求1所述的超声成像设备,其中,图像处理器包括:计算器,被配置为从纹理图像检测与通过对体数据进行采样而获得的样本相应的纹素。
3.如权利要求2所述的超声成像设备,其中,每个已反映了对象的半透明特性的纹素具有根据相对于光源距离对象的表面的深度而变化的亮度值。
4.如权利要求3所述的超声成像设备,其中,计算器通过计算相对于光源的从对象的表面到样本的距离来检测已反映了对象的半透明特性的纹素。
5.如权利要求2所述的超声成像设备,其中,每个已反映了对象的多层组织的纹素具有根据相对于视点距离对象的表面的深度而变化的颜色值。
6.如权利要求5所述的超声成像设备,其中,计算器通过计算相对于视点的从对象的表面到样本的距离来检测已反映了对象的多层组织的纹素。
7.一种超声成像设备,包括:
超声采集器,被配置为采集来自对象的超声波;
体数据产生器,被配置为基于所述超声波来产生体数据;
图像处理器,被配置为参照纹理图像对体数据执行体绘制;
其中,对象的半透明特性被反映到纹理图像的每个纹素。
8.一种超声成像设备,包括:
超声采集器,被配置为采集来自对象的超声波;
体数据产生器,被配置为基于所述超声波来产生体数据;
图像处理器,被配置为参照纹理图像对体数据执行体绘制;
其中,对象的多层组织被反映到纹理图像的每个纹素。
9.一种超声成像设备的控制方法,包括:
采集来自对象的超声波;
基于所述超声波来产生体数据;
参照纹理图像对体数据执行体绘制,
其中,对象的半透明特性和多层组织被反映到纹理图像的每个纹素。
10.如权利要求9所述的控制方法,其中,执行体绘制的步骤包括:从纹理图像检测与通过对体数据进行采样而获得的样本相应的纹素。
11.如权利要求10所述的控制方法,其中,每个已反映了对象的半透明特性的纹素具有根据相对于光源距离对象的表面的深度而变化的亮度值。
12.如权利要求11所述的控制方法,其中,检测纹素的步骤包括:通过计算相对于光源的从对象的表面到样本的距离来检测已反映了对象的半透明特性的纹素。
13.如权利要求10所述的控制方法,其中,每个已反映了对象的多层组织的纹素具有根据相对于视点距离对象的表面的深度而变化的颜色值。
14.如权利要求13所述的控制方法,其中,检测纹素的步骤包括:通过计算相对于视点的从对象的表面到样本的距离来检测已反映了对象的多层组织的纹素。
15.一种超声成像设备的控制方法,包括:
采集来自对象的超声波;
基于所述超声波来产生体数据;
参照纹理图像对体数据执行体绘制,
其中,对象的半透明特性或对象的多层组织被反映到纹理图像的每个纹素。
CN201480038568.0A 2013-07-05 2014-07-04 超声成像设备及其控制方法 Expired - Fee Related CN105359191B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020130078794A KR101851221B1 (ko) 2013-07-05 2013-07-05 초음파 영상 장치 및 그 제어 방법
KR10-2013-0078794 2013-07-05
PCT/KR2014/006007 WO2015002498A1 (en) 2013-07-05 2014-07-04 Ultrasonic imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
CN105359191A true CN105359191A (zh) 2016-02-24
CN105359191B CN105359191B (zh) 2018-11-06

Family

ID=52144009

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480038568.0A Expired - Fee Related CN105359191B (zh) 2013-07-05 2014-07-04 超声成像设备及其控制方法

Country Status (5)

Country Link
US (1) US10535184B2 (zh)
EP (1) EP3017428B1 (zh)
KR (1) KR101851221B1 (zh)
CN (1) CN105359191B (zh)
WO (1) WO2015002498A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11100138B2 (en) * 2015-09-11 2021-08-24 Ayasdi Ai Llc Network representation for evolution of clusters and groups
KR102651126B1 (ko) 2016-11-28 2024-03-26 삼성전자주식회사 그래픽 프로세싱 장치 및 그래픽스 파이프라인에서 텍스처를 처리하는 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101357077A (zh) * 2007-08-03 2009-02-04 美国西门子医疗解决公司 医学诊断成像中单模式数据的多体积绘制
EP2441389A1 (en) * 2009-06-10 2012-04-18 Hitachi Medical Corporation Ultrasonic diagnosis device, ultrasonic image processing device, ultrasonic image processing program, and ultrasonic image generation method
CN102695458A (zh) * 2010-01-15 2012-09-26 株式会社日立医疗器械 超声波诊断装置及超声波图像显示方法
CN103156638A (zh) * 2011-12-08 2013-06-19 通用电气公司 超声成像系统及方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7194117B2 (en) 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6331116B1 (en) 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US6343936B1 (en) 1996-09-16 2002-02-05 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination, navigation and visualization
US6450962B1 (en) 2001-09-18 2002-09-17 Kretztechnik Ag Ultrasonic diagnostic methods and apparatus for generating images from multiple 2D slices
US6825838B2 (en) 2002-10-11 2004-11-30 Sonocine, Inc. 3D modeling system
US7426734B2 (en) 2003-10-24 2008-09-16 Microsoft Corporation Facilitating presentation functionality through a programming interface media namespace
EP1542167A1 (en) * 2003-12-09 2005-06-15 Koninklijke Philips Electronics N.V. Computer graphics processor and method for rendering 3D scenes on a 3D image display screen
US7460117B2 (en) * 2004-05-25 2008-12-02 Siemens Medical Solutions Usa, Inc. Sliding texture volume rendering
WO2006030731A1 (ja) 2004-09-13 2006-03-23 Hitachi Medical Corporation 超音波撮像装置及び投影像生成方法
US7764818B2 (en) 2005-06-20 2010-07-27 Siemens Medical Solutions Usa, Inc. Surface parameter adaptive ultrasound image processing
KR100738107B1 (ko) 2006-02-15 2007-07-12 삼성전자주식회사 3차원 포인트 기반 모델링 장치 및 방법
US8049752B2 (en) * 2006-07-25 2011-11-01 Siemens Medical Solutions Usa, Inc. Systems and methods of determining sampling rates for volume rendering
JP4588736B2 (ja) 2007-04-12 2010-12-01 富士フイルム株式会社 画像処理方法および装置並びにプログラム
US7940268B2 (en) * 2007-06-29 2011-05-10 Microsoft Corporation Real-time rendering of light-scattering media
JP5253893B2 (ja) 2008-06-03 2013-07-31 株式会社東芝 医用画像処理装置、超音波診断装置、及び超音波画像取得プログラム
US8224053B2 (en) 2009-03-31 2012-07-17 General Electric Company Methods and systems for displaying quantitative segmental data in 4D rendering
US20120095341A1 (en) * 2010-10-19 2012-04-19 Toshiba Medical Systems Corporation Ultrasonic image processing apparatus and ultrasonic image processing method
CN103338707B (zh) 2011-01-26 2015-09-30 株式会社日立医疗器械 超声波诊断装置以及图像处理方法
JP5818531B2 (ja) 2011-06-22 2015-11-18 株式会社東芝 画像処理システム、装置及び方法
JP5981281B2 (ja) * 2012-09-12 2016-08-31 東芝メディカルシステムズ株式会社 超音波診断装置、画像処理装置及びプログラム
CN104812312B (zh) * 2012-09-26 2016-11-16 株式会社日立制作所 超声波诊断装置以及超声波三维图像创建方法
US11134921B2 (en) * 2013-04-12 2021-10-05 Hitachi, Ltd. Ultrasonic diagnostic device and ultrasonic three-dimensional image generation method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101357077A (zh) * 2007-08-03 2009-02-04 美国西门子医疗解决公司 医学诊断成像中单模式数据的多体积绘制
EP2441389A1 (en) * 2009-06-10 2012-04-18 Hitachi Medical Corporation Ultrasonic diagnosis device, ultrasonic image processing device, ultrasonic image processing program, and ultrasonic image generation method
CN102695458A (zh) * 2010-01-15 2012-09-26 株式会社日立医疗器械 超声波诊断装置及超声波图像显示方法
CN103156638A (zh) * 2011-12-08 2013-06-19 通用电气公司 超声成像系统及方法

Also Published As

Publication number Publication date
US20170249777A1 (en) 2017-08-31
KR20150005799A (ko) 2015-01-15
KR101851221B1 (ko) 2018-04-25
EP3017428A1 (en) 2016-05-11
CN105359191B (zh) 2018-11-06
US10535184B2 (en) 2020-01-14
EP3017428A4 (en) 2017-02-22
WO2015002498A1 (en) 2015-01-08
EP3017428B1 (en) 2020-09-02

Similar Documents

Publication Publication Date Title
CN102300505B (zh) 超声波诊断装置以及图像数据显示用控制程序
KR102693899B1 (ko) 초음파 탐침 조준 중 표적의 표현
CN104114102B (zh) 超声波诊断装置、图像处理装置以及图像处理方法
CN103908299B (zh) 用于超声图像渲染的系统和方法
CN106875372B (zh) 用于在医学图像中将结构分割的方法和系统
US20120245465A1 (en) Method and system for displaying intersection information on a volumetric ultrasound image
CN104053403A (zh) 活检期间针路径的超声引导
EP2016905A2 (en) Ultrasound diagnostic apparatus
JPWO2007043310A1 (ja) 画像表示方法及び医用画像診断システム
CN109601018A (zh) 用于根据3d超声数据生成B-模式图像的系统和方法
CN111093518B (zh) 使用与图像的触摸交互而从体积数据中提取图像平面的超声系统
CN105611878B (zh) 解剖学智能心回波描记术中的肋骨阻挡描绘
CN101681516A (zh) 标记超声成像系统的2d显示器上的3d体积图像的系统和方法
CN102415902A (zh) 超声波诊断装置以及超声波图像处理装置
CN114073548A (zh) 用于在混合现实/虚拟现实中生成脉管表示的系统和方法
CN107209924A (zh) 利用经渲染的体积成像中的平面投影的测量工具
CN107106128A (zh) 用于分割解剖目标的超声成像装置和方法
JP7286025B2 (ja) 胎盤を評価するためのシステム及び方法
CN110300548A (zh) 超声评价解剖特征
CN105359191A (zh) 超声成像设备及其控制方法
CN115619941A (zh) 一种超声成像方法及超声设备
CN115444452A (zh) 三维剪切波弹性成像方法和超声成像系统
JP5354885B2 (ja) 超音波診断システム
CN112689478B (zh) 一种超声图像获取方法、系统和计算机存储介质
JP2012040207A (ja) 超音波診断装置、超音波診断装置の制御プログラム、及び画像処理装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181106

Termination date: 20210704