CN109937435A - 用于在绘制的图像中进行模拟光源定位的系统和方法 - Google Patents
用于在绘制的图像中进行模拟光源定位的系统和方法 Download PDFInfo
- Publication number
- CN109937435A CN109937435A CN201780068213.XA CN201780068213A CN109937435A CN 109937435 A CN109937435 A CN 109937435A CN 201780068213 A CN201780068213 A CN 201780068213A CN 109937435 A CN109937435 A CN 109937435A
- Authority
- CN
- China
- Prior art keywords
- light source
- data set
- user
- image
- analog light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 49
- 238000009877 rendering Methods 0.000 claims abstract description 72
- 238000003384 imaging method Methods 0.000 claims description 51
- 230000000007 visual effect Effects 0.000 claims description 22
- 239000000523 sample Substances 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 9
- 239000000463 material Substances 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 abstract description 27
- 238000010586 diagram Methods 0.000 description 19
- 210000003754 fetus Anatomy 0.000 description 12
- 210000004291 uterus Anatomy 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 238000002604 ultrasonography Methods 0.000 description 8
- 238000002059 diagnostic imaging Methods 0.000 description 7
- 238000005286 illumination Methods 0.000 description 7
- 210000003484 anatomy Anatomy 0.000 description 6
- 230000008901 benefit Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 238000002834 transmittance Methods 0.000 description 5
- 210000003709 heart valve Anatomy 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 206010028980 Neoplasm Diseases 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 3
- 238000013480 data collection Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 3
- 238000013442 quality metrics Methods 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000002792 vascular Effects 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 239000002609 medium Substances 0.000 description 2
- 210000003205 muscle Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000011800 void material Substances 0.000 description 2
- 206010009269 Cleft palate Diseases 0.000 description 1
- 208000032170 Congenital Abnormalities Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 210000001367 artery Anatomy 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 210000005075 mammary gland Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000465 moulding Methods 0.000 description 1
- 210000001672 ovary Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000013630 prepared media Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 210000002356 skeleton Anatomy 0.000 description 1
- 210000000952 spleen Anatomy 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000001550 testis Anatomy 0.000 description 1
- 210000001685 thyroid gland Anatomy 0.000 description 1
- 230000002463 transducing effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/506—Illumination models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0866—Detecting organic movements or changes, e.g. tumours, cysts, swellings involving foetal diagnosis; pre-natal or peri-natal diagnosis of the baby
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/44—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
- A61B8/4416—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to combined acquisition of different diagnostic modalities, e.g. combination of ultrasound and X-ray acquisitions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/44—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
- A61B8/4483—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/461—Displaying means of special interest
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
- A61B6/02—Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computerised tomographs
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/44—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
- A61B8/4483—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
- A61B8/4488—Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer the transducer being a phased array
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/483—Diagnostic techniques involving the acquisition of a 3D volume of data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/523—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
Abstract
本公开描述了一种图像绘制技术,其提供被定位在三维(3D)数据集内用于绘制所述3D数据集的二维投影图像的模拟光源。所述模拟光源可以被定位在所述3D数据集内部或外部的任何地方,包括被定位在感兴趣区域内。所述模拟光源可以是多方向光源。用户可以经由用户接口来选择所述模拟光源的位置。用户可以选择所述模拟光源的平面内位置,并且图像处理器和/或体积绘制器可以自动计算用于维持所述模拟光源与所述3D数据集中的感兴趣区域的表面之间的距离的深度位置。
Description
背景技术
在医学成像中,可以实时绘制图像或者在数据集采集后绘制图像。图像可以是在体积内采集的二维(2D)切片或平面,或者图像可以是三维(3D)体积。3D体绘制技术可以涉及将虚拟光线投射到3D成像体积中以获得可以在最终的绘制的图像中显示的数据的2D投影。该数据可以包括被成像的体积内的解剖结构。当光线从虚拟观察者的位置朝向被成像的体积内的感兴趣区域投射时,可以沿着视线插入各种解剖结构。入射光方向驱动在解剖结构的表面上出现阴影和反射。在绘制图像中使用模拟光源可以向用户提供对深度的感测以及各种解剖结构被如何布置在3D体积中。一个或多个解剖结构可以阻挡或以其他方式干扰获得感兴趣区域的清晰图像。用户可以旋转3D体积,这可以改变虚拟观察者和/或模拟光源相对于3D体积的位置。可以绘制数据的新的2D投影。因模拟光源产生的阴影和其他照明效应可以基于3D体积的旋转而变化,从而向用户提供关于解剖特征的深度和布置的额外信息。
对于给定的3D图像数据集,通过对在预定义的颜色和强度的光源下成像的组织的光学性质做出假设,使用图像绘制技术从给定视点产生2D图像。目前,用于超声成像系统的图像绘制技术依赖于被定位在固定距离处或无限远处的定向光源。可以通过跟踪球控制的专用球形小部件上的箭头向用户呈现入射光的方向。除了旋转3D体积之外,用户还可以改变来自模拟光源的入射光的方向。
图1是现有图像绘制技术100的示例的示意图。3D数据集130可能已经通过超声探头或其他成像技术而采集。3D数据集130可以包括与身体中的3D体积相对应的数据。3D数据集130可以包括感兴趣区域135。感兴趣区域135可以是对象的部分(例如,血管壁、心脏瓣膜)或者可以是整个对象(例如,肿瘤、胎儿)。当绘制包括感兴趣区域135的3D数据集130的图像时,可以使用模拟光源在3D数据集130内的一个或多个表面(例如,感兴趣区域135的表面136)上提供阴影和反射,这可以向用户提供深度感知。模拟光源可以是定向光源105。定向光源105可以仅在由箭头115指示的方向上发射光。可以允许用户选择在距3D数据集130固定距离110处的定向光源105的位置。基于虚拟观察者从由箭头125指示的视点观察3D数据集130,可以相对于显示图像平面120来绘制3D数据集130的2D投影。显示图像平面120可以与3D数据集130的X-Y平面对齐。箭头125可以垂直于图像平面120。也就是说,可以认为虚拟观察者通过图像平面120,穿过由Z轴指示的3D数据集130的深度而“观看”3D数据集130。可以在显示器上将3D数据集130在显示图像平面120处的2D投影作为图像提供给用户。
虽然用户可以绕3D数据集130移动定向光源105,但是将定向光源105定位在绘制的体积外部可能引起对象自阴影并且使得难以照亮感兴趣区域135的结构。可能遮蔽感兴趣体积和/或区域135的细节。在没有裁剪3D数据集130或其他重要调节的情况下,凹腔内部的解剖细节可能不可见。
图2是使用外部定向光源根据3D数据集绘制的图像200的示例。图像200显示子宫210内的胎儿205。基于使用被定位在子宫210外部的定向光源的图像绘制技术,由子宫210投射的阴影遮蔽胎儿205的许多解剖结构。这可能阻止用户(其可以是超声科医生、产科医生或其他临床医生)进行诊断或者使其不能在由3D数据集定义的体积内进行导航。
JP2014150957公开了一种具有光源设置部、绘制控制部和显示控制部的超声诊断装置。光源设置部基于由超声探头收集的三维图像数据中包括的感兴趣区域的形状来设置感兴趣区域被描绘的方向。绘制控制部进行控制以生成绘制图像,在绘制图像中,在由光源设置部设置的方向上描绘感兴趣区域。显示控制部进行控制以在显示部上显示绘制图像。
WO2016/032717公开了一种方法、系统和医学成像设备,其包括访问3D医学成像数据集并根据3D医学成像数据集来生成体积绘制的图像。生成体积绘制的图像包括基于第一光源、第二光源和第三光源来计算针对体绘制的图像的阴影。第二光源和第三光源都与第一光源不同地被定位。该方法、系统和医学成像设备还包括显示体积绘制的图像。
发明内容
根据本公开的至少一个实施例的一种成像系统可以包括:超声探头,其可以被配置为从对象接收超声回波以对所述对象的体积进行成像;扫描转换器,其可以被配置为根据所述超声回波来生成三维(3D)数据集;体积绘制器,其可以被配置为至少部分地基于模拟光源的位置来计算所述3D数据集的第一表面的表面阴影信息并绘制所述3D数据集的包括所述阴影信息的二维(2D)投影图像;以及用户接口,其可以包括:显示器,其可以被配置为显示所述2D投影图像;以及输入设备,其可以包括用户接口元件,所述用户接口元件可以被配置为接收指示所述模拟光源所述在2D投影图像的投影平面内的平面内位置的第一用户输入,并且所述体积绘制器还可以被配置为响应于所述用户输入而在与所述平面内位置和由所述体积绘制器确定的深度位置相对应的位置处自动绘制所述模拟光源。
根据本公开的至少一个实施例的一种方法可以包括:接收对用于绘制3D数据集的2D投影图像的模拟光源的选择,其中,所述3D数据集可以根据从对象的体积接收的超声回波来构建;响应于用户输入而接收对所述模拟光源在与所述2D投影图像的投影平面相对应的平面内的平面内位置的指示;自动确定所述模拟光源在垂直于所述投影平面的轴上的深度位置;至少部分地基于所述平面内位置和所述深度位置来计算所述3D数据集的表面的表面阴影信息;并且在显示器上绘制包括所述阴影信息的所述2D投影图像。
附图说明
图1是使用外部定向光源的图像绘制技术的示意图。
图2是使用图1所示的图像绘制技术的绘制的图像的示例。
图3是根据本公开的实施例的成像系统的框图。
图4是根据本公开的实施例的使用模拟光源的图像绘制技术的示意图。
图5是使用图4所示的图像绘制技术的绘制的图像的示例。
图6是图4所示的图像绘制技术的示意图。
图7是根据本公开的实施例的用户接口的图示。
图8是根据本公开的实施例的用户接口的显示的示意图。
图9是根据本公开的实施例的用户接口的显示的示意图。
图10是根据本公开的实施例的图像绘制技术的示意图。
图11A-11B是根据本公开的实施例的用户定位光源的示意图。
图12是根据本公开的实施例的方法的流程图。
图13A-13C是根据本公开的实施例的绘制的脊柱图像的示例。
具体实施方式
某些示例性实施例的以下描述本质上仅是示例性的,并且决不旨在限制本发明或其应用或用途。在本系统和方法的实施例的以下详细描述中,参考形成其部分的附图,并且在附图中通过图示的方式示出了可以实践所描述的系统和方法的特定实施例。充分详细地描述这些实施例以使得本领域技术人员能够实践当前公开的系统和方法,并且应当理解,可以利用其他实施例,并且可以在不脱离本系统的精神和范围的情况下进行结构和逻辑上的改变。此外,为了清楚起见,某些特征的详细描述在它们对本领域技术人员将显而易见时将不进行讨论,以免模糊对本系统的描述。因此,以下详细描述不应在限制性意义上来理解,并且本系统的范围仅由随附权利要求来限定。
在一些应用中,可能期望使用被定位在3D数据集内的模拟光源根据3D数据集来绘制图像。在一些应用中,可能期望使用3D数据集内的感兴趣区域内的模拟光源根据3D数据集来绘制图像。在一些应用中,可能期望模拟光源是多方向光源。例如,模拟光源可以被建模为球体,该球体在所有方向上投射来自球体的整个表面的光。在另一示例中,模拟光源可以被建模为在所有方向上投射光的点源。允许用户将模拟光源放置在3D数据集内可以提供不会被在利用被定位在3D数据集外部的模拟定向光源绘制图像时生成的阴影和/或其他伪影遮蔽的绘制的图像。与具有外部光源的照明相比,近距离照明可以提供对对象的形状和曲率的更好的局部深度感知。利用3D数据集内的模拟光源绘制的图像可以提供更易于临床医生或其他用户解读的图像。这可以改善临床医生或其他用户在3D数据集内进行诊断和/或导航的能力。
在说明性示例中,临床医生可以对患者进行超声检查并从患者(例如,子宫内的胎儿)采集3D数据集。成像系统可以利用模拟多方向光源来绘制3D数据集的2D投影的图像。临床医生可以在3D数据集内移动光源,并且成像系统可以部分地基于光源的新位置来调节绘制的图像。例如,临床医生可以触摸显示绘制的图像以及光源的视觉提示(例如,球体、方形物、X等)的触摸屏并将光源“拖拽”到图像内的不同位置。临床医生可以移动光源以研究不同的感兴趣区。继续该示例,临床医生可以移动光源以突出显示胎儿的面部的轮廓以检查腭裂。然后,临床医生可以移动光源以照亮脊柱以检查畸形。临床医生可以选择控制光源在图像平面中的位置(例如,平面内位置、X-Y平面位置)以及光源在3D数据集中(例如沿着垂直于平面内位置的平面的轴,沿着Z轴)的深度,或者成像系统可以自动设置3D数据集中的光源的深度位置。临床医生可以在超声检查期间或在检查之后审查存储的图像期间控制光源。
图3示出了根据本公开的原理构造的超声成像系统10的框图。虽然在本发明的实施例的说明性示例中示出了超声成像系统,但是本发明的实施例也可以利用其他医学成像模态来实践。其他模态可以包括但不限于磁共振成像和计算机断层摄影。图3中的超声成像系统10包括超声探头12,该超声探头包括用于发射超声波和接收回波信息的换能器阵列14。各种换能器阵列在本领域中是公知的,例如,线性阵列、凸阵列或相控阵列。换能器阵列14例如能够包括能够在高度维度和方位维度两者上进行扫描以用于2D和/或3D成像的换能器元件的二维阵列(如图所示)。换能器阵列14被耦合到超声探头12中的微波束形成器16,该微波束形成器控制由阵列中的换能器元件对信号的发射和接收。在该示例中,微波束形成器16通过探头线缆耦合到发射/接收(T/R)开关18,该开关在发射与接收之间切换并保护主波束形成器22免受高能量发射信号影响。在一些实施例中,例如在便携式超声系统中,T/R开关18和系统中的其他元件能够被包括在超声探头中而不是被包括在单独的超声系统基座中。在微波束形成器16的控制下从换能器阵列14对超声波束的发射由耦合到T/R开关18和波束形成器22的发射控制器20引导,该发射控制器接收来自用户接口或控制面板24的用户操作的输入。用户接口24可以包括一个或多个输入设备,包括一个或多个用户接口元件(例如,按钮、跟踪球、旋转编码器或在触摸屏上提供的软控制)。在一些实施例中,用户接口元件中的一个或多个可以包括可以提供在触摸屏上的一个或多个图形用户接口(GUI)元件。由发射控制器20控制的功能之一是波束被操纵的方向。波束可以被操纵为从换能器阵列直线向前(正交于换能器阵列),或者以不同的角度被操纵以获得更宽的视场。由微波束形成器16产生的部分波束形成的信号耦合到主波束形成器22,其中,来自换能器元件的各个片块的部分波束形成的信号被组合成完全波束形成的信号。
波束形成的信号耦合到信号处理器26。信号处理器26可以以各种方式处理接收的回波信号,例如带通滤波、抽样、I与Q分量分离以及谐波信号分离。信号处理器26还可以执行额外的信号增强,例如,散斑减少、信号复合和噪声消除。处理后的信号耦合到B模式处理器28,该处理器可以采用幅度检测用于对身体中的结构进行成像。由B模式处理器28产生的信号耦合到扫描转换器30和多平面重新格式化器32。扫描转换器30以期望的图像格式将回波信号布置成它们被接收的空间关系。例如,扫描转换器30可以将回波信号布置为二维(2D)扇形形状格式或锥形三维(3D)图像。在一些实施例中,扫描转换器30可以根据回波信号来生成3D数据集。多平面重新格式化器32可以将从身体的体积区域中的公共平面内的点接收的回波转换成该平面的超声图像,如美国专利No.6443896(Detmer)中所描述的。当从给定参考点观察时,体积绘制器34将3D数据集的回波信号转换成投影的3D图像,例如如美国专利No.6530885(Entrekin等人)中所描述的。在一些实施例中,体积绘制器34可以从用户接口24接收输入。输入可以包括给定参考点(例如,虚拟观察者的视点)、模拟光源的位置和/或用于绘制的投影图像的模拟光源的属性。在一些实施例中,体积绘制器34可以自动确定模拟光源的平面内位置和/或深度位置。在一些实施例中,体积绘制器34可以至少部分地基于模拟光源的位置和/或属性来计算针对3D数据集中的一个或多个表面的表面阴影信息。2D或3D图像从扫描转换器30、多平面重新格式化器32和体积绘制器34耦合到图像处理器36以用于进一步增强、缓冲和临时存储以供在图像显示器38上显示。在一些实施例中,图像处理器36可以绘制模拟光源的视觉提示(例如,球体、光环)。在一些实施例中,视觉提示可以由体积绘制器34来绘制。图形处理器40可以生成用于与超声图像一起显示的图形叠加物。这些图形叠加物可以包含例如标准识别信息,例如,患者姓名、图像的日期和时间、成像参数等。出于这些目的,图形处理器接收来自用户接口24的输入,例如,键入的患者姓名。用户接口还可以耦合到多平面重新格式化器32,以用于选择和控制多个多平面重新格式化(MPR)图像的显示。
根据本公开的实施例,超声探头12可以被配置为从对象接收超声回波以对对象的体积进行成像。扫描转换器30可以接收超声回波并生成3D数据集。如上所述,超声回波可以在被扫描转换器30接收之前由波束形成器22、信号处理器26和/或B模式处理器进行预处理。3D数据集可以包括被成像的体积中的每个点(例如,体素)的值。这些值可以对应于回波强度、组织密度、流速和/或材料成分。基于3D数据集中的这些值,扫描转换器30和/或体积绘制器34可以定义被成像的体积内的一个或多个表面。这些表面可以表示被成像的体积内的两个不同的对象(例如,胎儿和子宫)或材料(例如,骨骼和肌肉)或区域(例如,血管中的不同流速)之间的边界。在一些实施例中,这些表面可以是等表面。
当绘制3D数据集的2D投影图像时,体积绘制器34可以接收模拟光源相对于3D数据集的位置。在一些实施例中,模拟光源的位置可以由成像系统10预编程。例如在启用体积绘制模式时,模拟光源可以默认到预编程位置,并且在一些情况下,光源可以在处于体积绘制模式的同时可由用户移动。在一些实施例中,可以经由用户接口24来接收模拟光源的位置,该用户接口可以包括具有被配置为接收用户输入的一个或多个输入元件的输入设备。例如,用户接口24可以包括具有允许用户将模拟光源的位置设置在3D数据集内和/或附近的任何地方的图形用户接口(GUI)的触摸屏。作为示例,图形用户接口(GUI)可以提供使得用户能够设置模拟光源的位置的一个或多个GUI元件。在一些示例中,GUI元件(例如,光球)可以额外地提供关于光源相对于体积的位置的视觉提示。在其他示例中,GUI元件可以是输入小部件,由此用户能够指定光源的位置(例如,指定X坐标、Y坐标、Z坐标)。可以使用GUI元件的其他示例。在另外的示例中,可以经由机械控制(例如,控制面板上的跟踪球或旋转编码器)来接收用户输入,该机械控制在体积绘制模式中可以具体地与用于移动光源的操纵命令相关联并被配置为生成用于移动光源的操纵命令。在一些实施例中,可以经由用户接口24仅接收平面内位置(例如,X坐标和Y坐标),并且体积绘制器34可以自动确定模拟光源的深度位置(例如,Z坐标)。可以至少部分地基于距3D数据集中的表面的预设距离来确定深度位置。预设距离可以是预编程的和/或用户可配置的。例如,预设距离可以被存储在存储器中,并且体积绘制器可以被编程为在确定深度维度默认值时使用预设距离作为默认值,除非用户修改了默认值。在一些实施例中,用户接口可以提供用户接口元件,该用户接口元件被配置为接收用于指定预设距离的用户输入。
体积绘制器34可以至少部分地基于模拟光源相对于3D数据集的位置来计算针对3D数据集内的一个或多个表面的表面阴影信息。表面阴影信息可以包括关于表示绘制的2D投影图像中的3D数据集的表面的任何给定像素的亮度的信息,该信息可以向原本2D绘制的图像提供三维性。除了光源相对于表面的位置之外,表面阴影信息可以基于与表面相邻的体积的属性(例如,插入在光源与表面之间的体素的值)。例如,当计算针对给定表面的阴影信息时,体积绘制器34可以考虑插入在模拟光源与绘制的外表面之间的组织的密度。当模拟光源被定位在被成像的体积的表面前面时,在光源与表面之间可以仅插入零值体素,并且与模拟光源被定位在表面后面并且因此通过非零值体素与表面隔开的情况相比,表面上的照射区域可以具有高明度或亮度。通过已知的光模拟技术,可以将通过绘制的3D数据集周围的区域的零值体素的透光率近似为与通过空气的透光率相似,因此可以减小通过非零值体素的透光率以近似通过比空气密度更大的组织的透光率。因此,当模拟光源被定位在包围具有高于周围体积的密度的3D数据集的体积的表面后面时,由体积绘制器34计算的表面阴影信息可以与当模拟光源被定位在表面前面时不同。例如,当模拟光源被定位在表面后面时表面阴影信息可以包括更少的反射并且看起来从内部“发光”,而当模拟光源被定位在表面前面时表面阴影信息可以使得表面看起来更不透明。如将认识到的,被定位在光源前面的对象的密度和其他性质将影响通过对象的透光率,因此体积绘制器34被配置为考虑被设置在光源与被绘制的表面之间的材料的密度。
虽然参考了表面阴影,但是体积绘制器34可以从或可以不从3D数据集中明确地提取表面以用于计算表面阴影信息。例如,体积绘制器34可以计算针对3D数据集内的每个体素的阴影信息(例如,体积阴影)。如前所述,针对每个体素的阴影信息可以至少部分地基于体素距模拟光源的距离、体素的密度和/或周围体素的密度。得到的针对3D数据集的阴影信息可以向用户提供3D数据集内的3D表面的外观。为简单起见,3D数据集内的感兴趣对象和/或区域的表面的阴影信息将被称为表面阴影信息,而不考虑由体积绘制器34计算该表面阴影信息的方式。
表面阴影信息可以由体积绘制器34用来绘制2D投影图像。在一些实施例中,绘制的2D投影图像可以由体积绘制器34提供给图像处理器36。绘制的2D投影图像可以被提供给显示器38以供诸如临床医生的用户观看。在一些示例中,由体积绘制器34进行的绘制和在显示器38上提供的得到的2D投影图像可以响应于经由用户接口24的用户输入而被更新以例如指示体积的移动(例如,平移或旋转)、模拟光源相对于体积的移动和/或与绘制中的各种绘制构造相关联的参数的其他变化。例如,响应于经由用户输入对模拟光源的移动,体积绘制器被配置为在与平面内位置和由体积绘制器确定的深度位置相对应的位置处自动绘制模拟光源。在一些实施例中,深度位置是至少部分地基于第一表面的轮廓来设置的。
图4是根据本公开的实施例的图像绘制技术400的示意图。在一些实施例中,图像绘制技术400可以由诸如超声成像系统10的成像系统来执行。3D数据集430可能已经通过超声探头(例如,图3所示的超声探头12)采集。在其他示例中,3D数据集430可能已经使用不同的医学成像模态(例如,CT、MRI等)采集。3D数据集430可以包括与身体中的3D体积相对应的数据。3D数据集430可以包括感兴趣区域435。感兴趣区域435可以是对象的部分(例如,血管壁、心脏瓣膜)或者可以是整个对象(例如,肿瘤、胎儿)。在一些实施例中,3D数据集430可以包括多个感兴趣区域435。基于虚拟观察者从由箭头425指示的视点观察3D数据集430,可以相对于显示图像平面420来绘制3D数据集430的2D投影图像。显示图像平面420可以与X-Y平面对齐。由箭头425指示的向量可以穿过图像平面420。也就是说,可以认为虚拟观察者通过图像平面420,穿过由与X-Y平面正交的Z轴指示的3D数据集430的深度而“观看”3D数据集430。虽然被示出为垂直于图像平面420,但是箭头425也可以处于相对于图像平面420的某个其他角度(例如,10度、30度、45度)。可以在显示器(例如,图3所示的显示器38)上将3D数据集430在显示图像平面420处的2D投影图像作为图像提供给用户。
当绘制包括感兴趣区域435的3D数据集430的图像时,模拟光源405可以用于计算表面阴影信息以在3D数据集430内的一个或多个表面(例如,感兴趣区域435的表面436)上绘制阴影和反射,这可以向用户提供深度感知。表面阴影信息可以至少部分地基于模拟光源405相对于3D数据集430和/或感兴趣区域435的位置。在一些实施例中,模拟光源405可以是多方向光源。光源405可以如箭头415所示的在所有方向上发射光。与图1所示的光源105不同,可以允许用户在3D数据集430的外部或该3D数据集内的任何地方选择光源405的位置。如图4所示的实施例所示,光源405在3D数据集430内在小于感兴趣区域435的深度的深度处。也就是说,光源405在沿着Z轴在感兴趣区域435与从由箭头425指示的方向观看的虚拟观察者之间的一定深度处。在一些实施例中,用户可以在图像平面420中选择模拟光源405的位置,并且成像系统可以自动确定模拟光源405的深度位置。
图5是使用图4所示的图像绘制技术400绘制的示例图像500。根据与图2所示的图像200相同的3D数据集来绘制图像500(子宫510内的胎儿505)。在一些实施例中,模拟光源可以被绘制为图像中的发光材料。在图像500所示的示例中,模拟光源被绘制为发光球515。发光球515被绘制在子宫510内的3D数据集内。因此,子宫510不会投射遮蔽胎儿505的阴影。与图2中的胎儿205相反,可以辨认出胎儿505的左臂、右肩和躯干。在图2所示的图像200中,这些相同的特征都被子宫阴影所遮蔽。
如前所述,光源405不限于距3D数据集430的设置距离。图6是根据本公开的实施例的光源405a-405e的各种示例性可能位置的示意图。如图6所示,光源405可以被绘制在图像平面420中的变化位置(例如,X-Y平面上的不同位置)处和3D数据集430内的(例如沿着Z轴的)不同深度处。例如,光源405a处于图4所示的位置中,并且光源405b与光源405a处于相同的深度,但是处于3D数据集430中的图像平面420中的不同点处。将光源405定位在感兴趣区域435前面可以允许用户辨认出感兴趣区域435和/或周围区的表面436上的特征。光源405c在图像平面420上的不同点处并且在3D数据集430中的不同深度处。如图6所示,光源405c相对于图像平面420处于比感兴趣区域435更深的深度处。将光源405定位在感兴趣区域435后面可以允许用户做出对感兴趣区域435的厚度和/或密度的至少定性确定。光源405甚至可以被放置在感兴趣区域435内,如光源405d所示。将光源405定位在感兴趣区域435内可以允许用户观察感兴趣区域435内的不同部件的更细微的轮廓和深度。光源405的位置不限于3D数据集430。光源405e示出了3D数据集430外部的位置的示例。示例位置仅出于说明目的而被示出,并且光源405不限于图6所示的位置。对于光源405的不同位置可能存在除了上述优点之外的备选优点和/或额外优点。例如,用户可以定位光源405以避免从其他解剖结构和/或感兴趣区域435的部分投射阴影。
虽然未在图6中示出,但是模拟光源405可以是定向光源而不是多方向光源。在一些实施例中,用户可能能够在多方向模式与定向模式之间切换。在一些应用中,可能期望3D数据集430内的定向光源。例如,用户可能想要突出显示3D数据集内的特定区,同时最小化对其他区的照明,这可以减少干扰(例如,“聚光灯”效果)。
图7是可以用于实施本公开的实施例的超声系统700的部分的图示。超声系统700可以包括用户接口705和显示器710。在一些实施例中,用户接口705可以用于实施图3所示的用户接口24。在一些实施例中,显示器710可以用于实施图3所示的显示器38。用户接口705可以包括一个或多个输入设备,所述一个或多个输入设备包括一个或多个用户接口元件。例如,用户接口705可以包括触摸屏715、一个或多个旋转控件720、跟踪球725以及按钮730。在一些实施例中,按钮730可以包括箭头按键和/或QWERTY键盘。在一些实施例中,显示器710还可以是用户接口705的部分。例如,可以使用触摸屏来实施显示器710。用户可以具有使用显示器810、触摸屏715和/或用户接口705中包括的其他控件来将模拟光源定位在绘制的图像中并且/或者控制模拟光源的其他属性(例如,定向对比多方向、强度、颜色)的选项。在另外的其他示例中,输入设备可以包括非接触式接口,其被配置为接收用户输入而无需用户物理地接触系统700的触摸屏或机械控制。
用户可以经由诸如图7所示的用户接口705的用户接口来控制模拟光源在绘制的图像中的位置。在一些实施例中,用户可以使用跟踪球725和旋转控件720。用户可以利用跟踪球725来选择图像平面上的平面内位置(例如,X-Y坐标),并且利用旋转控件720来选择深度位置(例如,Z轴上的坐标)以设置模拟光源的位置。在一些实施例中,可以为每个自由度提供单独的旋转控件(例如,X轴控件、Y轴控件和Z轴控件),以设置模拟光源的位置。在一些实施例中,用户可以使用诸如箭头按键的按钮730来选择模拟光源的位置(例如,X-Y-Z坐标)。在一些实施例中,用户可以选择模拟光源的平面内位置,并且成像系统可以针对所选择的平面内位置自动确定模拟光源的深度位置。
在一些实施例中,用户接口705或用户接口的输入元件包括图形用户接口(GUI)。例如,显示器710和/或触摸屏715可以包括GUI。在一些实施例中,用户可以使用触摸屏715来定位模拟光源。触摸屏715上的各种手势可以用于选择模拟光源的位置。例如,用户可以在一个位置处轻叩触摸屏715以设置平面内位置并且/或者触摸在触摸屏715上显示的图像中的绘制的光球并通过沿着触摸屏715移动他们的手指将绘制的光球“拖拽”到平面内位置。触摸屏715上的每个点都可以与绘制的2D投影图像的图像平面的每个点相重合。这些手势仅作为示例提供,并且可以使用其他手势(例如在触摸屏上提供的控制按钮)来设置模拟光源在3D数据集中的位置。在一些实施例中,用户可以使用用户输入方法中的一个或组合来定位模拟光源。例如,用户可以使用触摸屏来设置模拟光源的位置,并且然后使用跟踪球和/或旋转控件来“微调”该位置。在一些实施例中,用户接口705可以包括用于定位模拟光源的额外和/或备选的用户输入控件(例如,滑动控件、运动传感器、触笔)。在一些实施例中,用户可以使用用户接口710来控制模拟光源的属性。例如,用户可以设置光源的强度和/或颜色。
图8是根据本公开的实施例的显示器805上的绘制的图像810的图示。在一些实施例中,图3的显示器38或图7的显示器710可以用于实施显示器805。在一些实施例中,显示器805可以包括GUI,并且可以利用视觉提示来绘制模拟光源815,以帮助用户解读光源在3D数据集中的位置。如图8所示,可以在图像810中将模拟光源815绘制为当光源被定位为更远离3D数据集中的图像平面时在尺寸上更小。在一些实施例中,图像平面与显示器805对齐。如图8所示,光源815看起来将进一步移动到页面中。在该示例中,光源815a最靠近图像平面,并且光源815c离图像平面最远。改变图像810中的光源815的尺寸可以提供指示光源815沿着Z轴在3D数据集中的深度的视觉提示,并且可以帮助用户解读光源在3D数据集内的位置。
图9是根据本公开的实施例的显示器905上的绘制图像910的图示。在一些实施例中,图3的显示器38或图7的显示器710可以用于实施显示器905。在一些实施例中,显示器905可以包括GUI,并且模拟光源915可以在图像910中被绘制具有光环920。光环920可以允许用户在图像910中视觉地定位光源915。在一些实施例中,当光源915被定位在图像910的视场的外部时,光环920可以允许用户定位光源915。在一些实施例中,用户可以启用或停用光环920。也就是说,用户可以控制是否在图像910中围绕光源915绘制光环920。在一些实施例中,在光源915已经静止一段时间(例如,半秒、两秒、十秒)之后,光环920可以自动消失。在一些实施例中,用户可以停用光源915的视觉提示。通过停用,并不意味着用户选择从图像910中移除从光源915绘制的照明,而是用户关闭在图像910中对光源915的视觉提示(例如,球体)的绘制。在一些实施例中,在光源915已经静止一段时间(例如,半秒、两秒、十秒)之后,对光源915的视觉提示的绘制可以自动消失。启用和停用光环920和/或对光源915的绘制可以允许用户观察图像910而不会受到来自用于定位光源915的视觉提示的干扰。诸如球体和/或光环的视觉提示可以由成像系统的体积绘制器和/或图像处理器来绘制。例如,图1所示的超声成像系统10的体积绘制器34和图像处理器36可以用于实施本公开的实施例。
可以被放置在3D数据集内和/或周围的任何地方的模拟光源可以提供针对根据3D数据集绘制的图像的额外照明选项。在一些实施例中,模拟光源可以是多方向光源。这些额外选项可以允许绘制不易引起其他解剖特征的自阴影的图像并且更好地定义组织的表面和/或厚度。然而,在一些应用中,用户可能不想选择模拟光源的平面内位置和/或深度位置。用户可以导航通过整个3D数据集以选择深度位置,这是耗时和/或令人迷惑的。在一些实施例中,用户可以选择将模拟光源定位到距感兴趣区域和/或感兴趣区域的表面的设置距离的选项。也就是说,当用户将模拟光源移动通过图像平面时,模拟光源的深度位置可以基于感兴趣区域的表面的轮廓来自动调节,使得模拟光源与感兴趣区域和/或表面之间的距离得以维持。例如,当用户沿着脊柱的图像移动光源时,光源可以看起来“漂浮”在椎骨上,沿循脊柱的轮廓,保持远离脊柱设置距离。当用户正在进行对图像的粗略审查和/或用户对成像系统不太有经验时,该自动深度选择模式可能是优选的。
图10是根据本公开的实施例的图像绘制技术1000的示意图。在一些实施例中,图像绘制技术1000可以是图像绘制技术400的实施例,其中,模拟光源的深度位置由成像系统自动确定。图像绘制技术1000可以由诸如图3所示的超声成像系统10的成像系统来执行。3D数据集1030可能已经通过超声探头(例如,图3所示的超声探头12)或其他输入设备来采集。3D数据集1030可以包括与对象的身体内的3D体积相对应的数据。3D数据集1030可以包括感兴趣区域1035。感兴趣区域1035可以是对象的部分(例如,血管壁、心脏瓣膜)或者可以是整个对象(例如,肿瘤、胎儿)。基于虚拟观察者从由箭头1025指示的视点观察3D数据集1030,可以相对于显示图像平面1020绘制3D数据集1030的2D投影。显示图像平面1020可以与X-Y平面对齐。由箭头1025指示的向量可以穿过图像平面1020。也就是说,可以认为虚拟观察者通过图像平面1020,穿过由Z轴指示的3D数据集1030的深度而“观看”3D数据集1030。虽然被示出为垂直于图像平面1020,但是箭头1025也可以处于相对于图像平面1020的某个其他角度(例如,10度、30度、45度)处。可以在显示器(例如,图3所示的显示器38或图7所示的显示器710)上将3D数据集1030在显示图像平面1020处的2D投影作为图像提供给用户。
在一些实施例中,对于模拟光源1005在显示图像平面1020中的给定位置(例如,X-Y坐标),可以沿着箭头1025将光线1026投射到3D数据集1030中。在一些实施例中,箭头1025可以沿着与图像平面1020正交的轴(例如沿着Z轴)。可以将光线投射到3D数据集1030中,直到其找到可以是3D数据集1030中的被成像的对象的部分(例如,解剖特征的表面)(例如,感兴趣区域1035的表面1036)的非零密度点(例如,体素)。在一些实施例中,可以通过插值找到最接近的非零密度点。可以计算沿着光线1026远离非零密度点向后回到虚拟观察者的距离1015。然后,成像系统可以将模拟光源1005定位在距感兴趣区域1035的表面1036的距离1015的深度位置处。在一些实施例中,距离1015可以由图像处理器和/或体积绘制器来计算。例如,图3所示的超声成像系统10的图像处理器36和/或体积绘制器34可以用于实施本公开的实施例。在一些实施例中,可以使用另一处理器来计算距离1015。
距离1015可以是预编程的或者其可以由用户设置。距离1015可以处于从其采集3D数据集1030的体积中的1-10毫米的等价物的范围内。部分地基于应用,可以将更大或更小的距离用于光源1005距对象的距离1015。例如,当观察整个胎儿时可以使用光源与对象之间的较大距离,而当观察心脏瓣膜时可以使用较小的距离。在一些实施例中,光源1005距感兴趣区域1035的表面1036的距离1015可以至少部分地基于质量标准。例如,可以选择最小化感兴趣区域1035的表面1036上的光线1026的目标附近的阴影量的距离1015。在另一质量度量示例中,可以选择最大化2D投影图像中的照明强度的动态范围的距离1015。
当在图像平面1020中改变光源1005的平面内位置时,可以维持光源1005与感兴趣区域1035之间的距离1015。也就是说,可以自动调节光源1005的深度位置。成像系统可以沿着感兴趣区域1035的表面自动“扫描”光源1005并且/或者用户可以经由用户接口控制光源1005在图像平面1020中的位置(例如经由触摸屏“拖拽”在图像中绘制的球体,在触摸屏上轻叩光源的期望位置,操纵跟踪球,等等)。在一些实施例中,可以维持距离1015,同时感兴趣区域1035相对于图像平面1020旋转并且/或者感兴趣区域1035移动。例如,当3D数据集1030包括对应于不同时间段的多个3D数据集(例如,四维图像、实时成像、时间流逝循环)时,感兴趣区域1035可以随时间移动。在另一示例中,当3D数据集1030相对于用户和/或虚拟观察者旋转时,光源1005可以相对于用户和/或虚拟观察者保持静止。
在一些实施例中,体积绘制器和/或图像处理器可以确定模拟光源1005的深度位置。在一些实施例中,体积绘制器和/或图像处理器可以确定针对在图像平面1020处绘制2D投影图像的表面1036的阴影信息。在一些实施例中,体积绘制器和/或图像处理器可以动态地确定模拟光源1005的深度位置、阴影信息,并在模拟光源1005的平面内位置被改变时绘制2D投影图像。
图11a-11b是根据本公开的实施例的用户定位模拟光源的示意图。在一些实施例中,3D数据集可以包括多个感兴趣区域(例如,沿着血管壁的病变)和/或对象(例如,椎骨、介入设备)。用户可以将模拟光源移动到不同位置,以便照亮感兴趣区域中的每个。当采用图像绘制技术1000时,可以自动维持每个感兴趣区域与模拟光源之间的设置距离。如图11a所示,用户1101可以将模拟光源1105定位在平面1120内的3D数据集1130内。在一些实施例中,平面1120可以对应于2D投影图像的图像平面。图11a示出了用户通过将手指放置在显示根据3D数据集1130绘制的投影图像的触摸屏上来将模拟光源1105定位在平面1120中。然而,也可以使用其他定位光源1105的方法,例如参考图7所讨论的那些方法。可以基于距第一感兴趣区域1135的表面1136的距离来自动确定光源1105在3D数据集1130内的深度位置。可以根据上面参考图10描述的方法之一或其组合来计算距离。当用户将光源1105“拖拽”到平面1120中的新位置并且/或者在感兴趣区域1135上或附近的平面1120中选择新位置时,光源1105可以沿着路径1116移动,该路径定义距离感兴趣区域1135的表面1136的设置距离。
如图11b所示,当用户将光源1105定位在第二感兴趣区域1137上或附近的平面1120中时,光源1105的深度位置可以自动调节,使得光源1105距第二感兴趣区域1137的表面1138的距离与其距第一感兴趣区域1135的表面1136的距离相同。在一些实施例中,距感兴趣区域1135的表面1136的设置距离可以不同于距感兴趣区域1137的表面1138的设置距离。例如,如果至少部分地基于质量度量来确定模拟光源1105之间的距离,则针对感兴趣区域1135计算的质量度量的值可以不同于针对感兴趣区域1137计算的质量度量的值。当用户将光源1105“拖拽”到平面1120中的新位置并且/或者在感兴趣区域1137上或附近的平面1120中选择新位置时,光源1105可以沿着路径1117移动,该路径定义距感兴趣区域1137的表面1138的设置距离。图10和图11a-11b所示的技术1000可以允许用户连续照射图像的多个区,而无需手动调节光源1105的深度。在一些应用中,这可以节省用户时间,因为用户仅需要选择光源1105的平面内位置。
参考图4中的图像绘制技术400描述的特征可以应用于图10和图11a-11b中的图像绘制技术1000。例如,光源1005、1105可以在图像中被绘制为发光对象(例如,发光球体)。可以自动地和/或通过用户选择来启用和/或停用在图像中对光源1005、1105的绘制。光源1005、1105可以被绘制有光环,该光环可以自动地和/或通过用户选择来启用和/或停用。在一些实施例中,用户可以在图像绘制技术400与图像绘制技术1000之间切换。例如,临床医生可以使用图像绘制技术1000来调查绘制的图像,并且连续地跨若干感兴趣区扫描光源。当临床医生点出特定感兴趣区(例如,病变)时,临床医生可以切换到图像绘制技术400以“微调”光源的位置从而更详细地检查该区。
图12是根据本公开的实施例的用于将模拟光源定位在3D数据集内以用于从3D数据集的虚拟观察者的视角绘制2D投影的方法1200的流程图。在一些实施例中,可以使用图10所示的图像绘制技术1000和图3所示的超声成像系统来实施方法1200。在一些实施例中,用户可以在绘制3D数据集的2D投影图像之前选择模拟光源在3D数据集中的位置。在一些实施例中,成像系统可以利用在默认位置中的初始默认光源根据3D数据集来绘制2D投影图像。默认光源和位置可以被预编程到成像系统中并且/或者可以由用户设置。在一些实施例中,默认光源可以是在距数据集的固定距离处的外部定向光源。在一些实施例中,默认光源可以是被定位在3D数据集内或附近的多方向光源。在步骤1205处,成像系统可以接收对用于绘制3D数据集的2D投影图像的模拟光源的选择。在一些实施例中,用户可以选择模拟光源。用户可以经由诸如图1中的用户接口24或图7中的用户接口710的用户接口来选择光源。在一些实施例中,用户可以通过用户接口进行导航以进入成像系统的照明控制模式。在一些实施例中,用户可以轻叩按钮或触摸屏以选择光源。任选地,在步骤1210处,用户和/或成像系统可以启用光源的视觉提示。也就是说,用户可以选择将光源在图像中绘制为对象(例如,球体)。在一些实施例中,可以默认在图像中绘制光源。任选地,在步骤1215处,用户和/或成像系统可以启用围绕光源的光环。在一些实施例中,光源可以默认被绘制有光环。在一些实施例中,用户可能更喜欢在没有光环的情况下绘制图像。
在步骤1220处,成像系统可以响应于用户输入而接收模拟光源在与2D投影图像的投影平面相对应的平面(例如,图10的图像平面1020)内的平面内位置的指示。用户可以选择光源的平面内位置。在一些实施例中,平面内位置可以对应于图像平面中的位置。在步骤1225处,可以由成像系统自动确定模拟光源在垂直于投影平面的轴(例如,Z轴)上的深度位置。在一些实施例中,深度位置可以基于模拟光源与感兴趣区域中的表面之间的设置距离。深度位置可以对应于3D数据集内相对于图像平面的深度。在一些实施例中,可以以相反的顺序执行步骤1225和步骤1220。在一些实施例中,可以同时执行步骤1220和1225。用户可以通过使用跟踪球、触摸屏和/或诸如以上参考图8描述的那些方法和/或用户接口的其他方法和/或用户接口来选择平面内位置和深度位置。然后,在步骤1230处,成像系统可以基于平面内位置和深度位置来计算针对3D数据集中的一个或多个表面的表面阴影信息。在步骤1235处,成像系统可以在显示器上绘制包括阴影信息的2D投影图像。在一些实施例中,当由用户移动光源的平面内位置时,成像系统可以重新绘制图像。也就是说,图像的光和阴影可以当光源的位置被改变时动态地变化(例如,可以重新计算深度位置和表面阴影信息)。这可以允许用户通过依次照射图像的部分来快速比较光源的潜在位置和/或调查图像的特征。例如,用户可以沿着脊柱移动光源以检查每个椎骨。
一旦光源就位,就可以在步骤1240处停用光环(如果绘制的话)。在一些实施例中,用户可以选择(例如经由用户接口)停用光环。在一些实施例中,当光源静止一段时间时,成像系统可以自动停止绘制光环。或者,可以继续绘制光环。当用户已经选择了在视野外部的光源的位置时,这种情况可能是期望的。任选地,在步骤1245处,可以停用光源的视觉提示。也就是说,可以从图像中移除被绘制为图像中的光源的对象。成像系统可以自动停用光源的视觉提示,或者用户可以选择停用光源的视觉提示。当用户希望观察在光源附近的图像中照射的细微特征时,停用光源的视觉提示可能是有利的。
在一些实施例中,可以在图像采集期间执行方法1200。例如,成像系统可以根据在超声检查期间从矩阵阵列超声换能器采集的3D数据集来绘制图像。可以对存储在成像系统或其他计算设备(例如,计算机、医院主机、云服务)上的3D数据集执行方法1200。例如,放射科医生可以审查根据在先前检查期间采集的3D数据集绘制的图像。
虽然参考单个光源描述了方法1200,但是也可以针对多个光源执行和/或重复方法1200的全部或部分。例如,用户可以将第一光源设置在第一感兴趣区域处,并且将第二光源在第二感兴趣区域处。这可以允许用户快速地突出显示3D数据集的特征。
图13a-13c是根据本公开的实施例的绘制的脊柱图像1300a-1300c的示例。图13a示出了具有被绘制为发光球体的模拟光源1305的脊柱图像1300a。脊柱图像1300a可能已经在默认位置中被绘制有模拟光源1305。在已经绘制了脊柱图像1300a之后,用户和/或成像系统可以调节模拟光源1305的位置。图13b示出了在椎骨1310上具有模拟光源1305的脊柱图像1300b。模拟光源1305可以与椎骨1310的表面相距设置距离。用户可能已经将模拟光源1305的平面内位置从图像1300a所示的默认位置调节到图像1300b所示的椎骨1310上的当前位置。用户可能已经使用先前参考图7描述的方法中的一种或多种调节了模拟光源1305的平面内位置。成像系统可以自动调节模拟光源1305的深度位置,使得模拟光源1305与椎骨1310的表面相距设置距离。图13c示出了在椎骨1320上具有模拟光源1305的脊柱图像1300c。模拟光源1305可以与椎骨1320的表面相距设置距离。用户可能已经将模拟光源1305的平面内位置从图像1300b中示出的椎骨1310上的位置调节到图像1300c中示出的椎骨1320上的当前位置。用户可能已经使用先前参考图7描述的方法中的一种或多种调节了模拟光源1305的平面内位置。例如,用户可能已经使用触摸屏沿着由箭头1315指示的方向拖拽了光源1305。成像系统可能已经自动调节了模拟光源1305的深度位置,使得模拟光源1305与椎骨1320的表面相距设置距离。当用户沿着脊柱图像1300c在椎骨1310与椎骨1320之间拖拽光源1305时,成像系统可能已经自动调节了模拟光源1305的深度位置,使得光源1305与表面之间的设置距离被示出在脊柱图像1300c中。成像系统可能已经使用参考图10-12描述的一种或多种技术调节了光源1305的深度位置。这可以允许临床医生快速扫描脊柱并检查每个椎骨。
在使用可编程设备(例如基于计算机的系统或可编程逻辑)实施部件、系统和/或方法的各种实施例中,应当认识到,上述系统和方法可以使用各种已知的或后来开发的编程语言,例如,“C”、“C++”、“FORTRAN”、“Pascal”、“VHDL”等来实施。因此,可以制备各种存储介质,例如,计算机磁盘、光盘、电子存储器等,其可以包含可以指导设备(例如,计算机)以实施上述系统和/或方法的信息。一旦适当的设备能够访问存储介质上包含的信息和程序,存储介质就可以向设备提供信息和程序,因此使得设备能够执行本文描述的系统和/或方法的功能。例如,如果向计算机提供包含适当材料(例如,源文件、目标文件、可执行文件等)的计算机磁盘,则计算机可以接收该信息,适当配置其自身并执行在上面的图示和流程图中概述的各种系统和方法的功能以实施各种功能。也就是说,计算机可以从盘接收与上述系统和/或方法的不同元件有关的各种信息部分,实施各个系统和/或方法并协调上述各个系统和/或方法的功能。
鉴于本公开,应当注意,本文描述的各种方法和设备可以用硬件、软件和固件来实施。此外,各种方法和参数仅通过示例的方式而不是以任何限制意义被包括。鉴于本公开,本领域普通技术人员可以在确定他们自己的技术和影响这些技术所需的仪器时实施本教导,同时保持在本发明的范围内。
虽然可能已经具体参考超声成像系统描述了本系统,但是还设想到本系统可以扩展到以系统方式获得一幅或多幅图像的其他医学成像系统。因此,本系统可以用于获得和/或记录与肾脏、睾丸、乳腺、卵巢、子宫、甲状腺、肝脏、肺、肌肉骨骼、脾脏、心脏、动脉和血管系统有关但不限于上述项的图像信息,以及与超声引导介入有关的其他成像应用。此外,本系统还可以包括可以与传统成像系统一起使用的一个或多个程序,使得所述一个或多个程序可以提供本系统的特征和优点。在研究了本公开后,本公开的某些额外优点和特征对于本领域技术人员可以变得显而易见,或者可以由采用本公开的新颖系统和方法的人员体验。本系统和方法的另一优点可以是可以容易地升级传统医学图像系统以并入本系统、设备和方法的特征和优点。
当然,应认识到,本文描述的示例、实施例或过程中的任一个都可以与一个或多个其他示例、实施例和/或过程相组合,或者与根据本系统、设备和方法的单独的设备或设备部分相分离并且/或者在根据本系统、设备和方法的单独的设备或设备部分之中执行。
最后,以上讨论仅旨在说明本系统,而不应被解释为将权利要求限制于任何特定实施例或实施例的组。因此,虽然已经参考示例性实施例特别详细地描述了本系统,但是还应当认识到,本领域普通技术人员可以在不脱离如随附权利要求所述的本系统的更广泛和预期的精神和范围的情况下设计出许多修改和备选实施例。因此,说明书和附图应以说明性方式来看待,并且不旨在限制随附权利要求的范围。
Claims (15)
1.一种超声成像系统,包括:
扫描转换器,其被配置为在对对象的体积进行成像时根据从所述对象接收的超声回波来生成三维(3D)数据集;
体积绘制器,其被配置为:至少部分地基于模拟光源的位置来计算所述3D数据集的第一表面的表面阴影信息,并且绘制所述3D数据集的包括所述阴影信息的二维(2D)投影图像;以及
用户接口,其包括:
显示器,其被配置为显示所述2D投影图像;以及
输入设备,其包括用户接口元件,所述用户接口元件被配置为接收指示所述模拟光源在所述2D投影图像的投影平面内的平面内位置的第一用户输入,其中,所述体积绘制器还被配置为响应于经由所述用户输入对所述模拟光源的移动而在与所述平面内位置和由所述体积绘制器确定的深度位置相对应的位置处自动绘制所述模拟光源,并且其中,所述深度位置是至少部分地基于所述第一表面的轮廓来设置的。
2.根据权利要求1所述的成像系统,其中,所述深度位置与沿着与所述投影平面垂直的轴在距所述3D数据集的所述第一表面的设置距离处的位置相对应,其中,所述设置距离是距所述第一表面上的不同位置的恒定距离。
3.根据权利要求2所述的成像系统,其中,距所述3D数据集的所述第一表面的所述设置距离是响应于在所述第一用户输入之前接收到的用户输入而确定的。
4.根据权利要求2所述的成像系统,其中,距所述3D数据集的所述第一表面的所述设置距离被预编程在所述超声成像系统的存储器中。
5.根据权利要求1所述的成像系统,其中,用户输入元件包括在所述超声系统的触摸屏上显示的GUI,并且其中,所述GUI包括在所述2D投影图像中显示的所述模拟光源的视觉提示以及所绘制的3D数据集,并且其中,所述视觉提示能响应于用户输入而移动,以允许所述用户动态地改变所述模拟光源相对于所绘制的3D数据集的所述平面内位置。
6.根据权利要求5所述的成像系统,其中,所述视觉提示包括球体。
7.根据权利要求6所述的成像系统,其中,所述视觉提示还包括围绕所述球体的光环。
8.根据权利要求1所述的成像系统,其中,所述模拟光源是多方向光源。
9.根据权利要求1所述的成像系统,其中,所述第一表面表示被成像的体积的两种不同材料之间的边界,并且其中,偏移距离与距所述边界的1-10毫米偏移相对应。
10.根据权利要求1所述的成像系统,其中,所述体积绘制器还被配置为响应于指示所述模拟光源向所述3D数据集的第二表面前面的平面内位置的移动的用户输入而将所述模拟光源定位在距所述第二表面的第二偏移距离处。
11.根据权利要求1所述的成像系统,包括超声探头,所述超声探头被配置为从所述对象接收所述超声回波以对所述对象的所述体积进行成像。
12.根据权利要求10所述的成像系统,其中,所述体积绘制器被配置为当至少部分地基于是所述第一表面还是所述第二表面与所述模拟光源的所述平面内位置相对应来调节所述模拟光源的所述平面内位置时动态地调节所述模拟光源的所述深度位置。
13.一种方法,包括:
接收对用于绘制3D数据集的2D投影图像的模拟光源的选择,其中,所述3D数据集是根据从对象的体积接收的超声回波来构建的;
响应于用户输入而接收对所述模拟光源在与所述2D投影图像的投影平面相对应的平面内的平面内位置的指示;
自动确定所述模拟光源在垂直于所述投影平面的轴上的深度位置,其中,所述深度位置是基于所述第一表面的轮廓来设置的;
至少部分地基于所述平面内位置和所述深度位置来计算所述3D数据集的表面的表面阴影信息;并且
在显示器上绘制包括所述阴影信息的所述2D投影图像。
14.根据权利要求13所述的方法,其中,所述模拟光源的所述深度位置至少部分地基于所述模拟光源与所述表面之间的设置距离。
15.根据权利要求14所述的方法,其中,所述设置距离至少部分地基于经由所述用户接口接收的用户输入。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16306455 | 2016-11-07 | ||
EP16306455.3 | 2016-11-07 | ||
PCT/EP2017/077535 WO2018083011A1 (en) | 2016-11-07 | 2017-10-27 | Systems and methods for simulated light source positioning in rendered images |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109937435A true CN109937435A (zh) | 2019-06-25 |
CN109937435B CN109937435B (zh) | 2023-12-08 |
Family
ID=57345848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780068213.XA Active CN109937435B (zh) | 2016-11-07 | 2017-10-27 | 用于在绘制的图像中进行模拟光源定位的系统和方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10896538B2 (zh) |
EP (1) | EP3535732A1 (zh) |
JP (1) | JP7132916B2 (zh) |
CN (1) | CN109937435B (zh) |
WO (1) | WO2018083011A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024002086A1 (zh) * | 2022-06-29 | 2024-01-04 | 维沃移动通信(杭州)有限公司 | 图像处理方法、装置、电子设备和可读存储介质 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7079247B2 (ja) * | 2017-07-12 | 2022-06-01 | テルモ株式会社 | 画像処理装置、画像処理方法およびプログラム |
WO2019013071A1 (ja) * | 2017-07-12 | 2019-01-17 | テルモ株式会社 | 画像処理装置、画像処理方法およびプログラム |
WO2019045144A1 (ko) * | 2017-08-31 | 2019-03-07 | (주)레벨소프트 | 의료용 항법 장치를 위한 의료 영상 처리 장치 및 의료 영상 처리 방법 |
JP7213616B2 (ja) * | 2017-12-26 | 2023-01-27 | 株式会社Preferred Networks | 情報処理装置、情報処理プログラム及び情報処理方法。 |
US20210097776A1 (en) * | 2019-09-28 | 2021-04-01 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments |
EP3838162A1 (en) * | 2019-12-16 | 2021-06-23 | Koninklijke Philips N.V. | Systems and methods for assessing a placenta |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101357077A (zh) * | 2007-08-03 | 2009-02-04 | 美国西门子医疗解决公司 | 医学诊断成像中单模式数据的多体积绘制 |
US20130169641A1 (en) * | 2011-12-28 | 2013-07-04 | General Electric Company | Method and system for indicating light direction for a volume-rendered image |
JP2014150957A (ja) * | 2013-02-07 | 2014-08-25 | Toshiba Corp | 超音波診断装置、画像処理装置及び画像処理プログラム |
US20160063758A1 (en) * | 2014-08-26 | 2016-03-03 | General Electric Company | Method, system, and medical imaging device for shading volume-rendered images with multiple light sources |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6530885B1 (en) | 2000-03-17 | 2003-03-11 | Atl Ultrasound, Inc. | Spatially compounded three dimensional ultrasonic images |
US6443896B1 (en) | 2000-08-17 | 2002-09-03 | Koninklijke Philips Electronics N.V. | Method for creating multiplanar ultrasonic images of a three dimensional object |
US6450962B1 (en) * | 2001-09-18 | 2002-09-17 | Kretztechnik Ag | Ultrasonic diagnostic methods and apparatus for generating images from multiple 2D slices |
US7477763B2 (en) * | 2002-06-18 | 2009-01-13 | Boston Scientific Scimed, Inc. | Computer generated representation of the imaging pattern of an imaging device |
JP2007512042A (ja) * | 2003-11-17 | 2007-05-17 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 診断画像形成における特徴検出のためにユーザ入力を利用する方法 |
US8858425B2 (en) | 2004-09-24 | 2014-10-14 | Vivid Medical, Inc. | Disposable endoscope and portable display |
US20120069020A1 (en) | 2010-09-21 | 2012-03-22 | Siemens Medical Solutions Usa, Inc. | Lighting Control for Occlusion-based Volume Illumination of Medical Data |
US9113817B2 (en) | 2010-10-20 | 2015-08-25 | Siemens Medical Solutions Usa, Inc. | System for locating anatomical objects in ultrasound imaging |
US8633913B1 (en) * | 2011-09-02 | 2014-01-21 | Rockwell Collins, Inc. | Touch interfaces and controls for aviation displays |
US9746989B2 (en) * | 2011-10-13 | 2017-08-29 | Toshiba Medical Systems Corporation | Three-dimensional image processing apparatus |
KR101524085B1 (ko) * | 2013-01-04 | 2015-05-29 | 삼성메디슨 주식회사 | 의료 영상 제공 장치 및 방법 |
WO2014168249A1 (ja) | 2013-04-12 | 2014-10-16 | 日立アロカメディカル株式会社 | 超音波診断装置及び超音波三次元画像作成方法 |
-
2017
- 2017-10-27 EP EP17787938.4A patent/EP3535732A1/en active Pending
- 2017-10-27 JP JP2019522740A patent/JP7132916B2/ja active Active
- 2017-10-27 CN CN201780068213.XA patent/CN109937435B/zh active Active
- 2017-10-27 US US16/347,739 patent/US10896538B2/en active Active
- 2017-10-27 WO PCT/EP2017/077535 patent/WO2018083011A1/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101357077A (zh) * | 2007-08-03 | 2009-02-04 | 美国西门子医疗解决公司 | 医学诊断成像中单模式数据的多体积绘制 |
US20130169641A1 (en) * | 2011-12-28 | 2013-07-04 | General Electric Company | Method and system for indicating light direction for a volume-rendered image |
JP2014150957A (ja) * | 2013-02-07 | 2014-08-25 | Toshiba Corp | 超音波診断装置、画像処理装置及び画像処理プログラム |
US20160063758A1 (en) * | 2014-08-26 | 2016-03-03 | General Electric Company | Method, system, and medical imaging device for shading volume-rendered images with multiple light sources |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024002086A1 (zh) * | 2022-06-29 | 2024-01-04 | 维沃移动通信(杭州)有限公司 | 图像处理方法、装置、电子设备和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US10896538B2 (en) | 2021-01-19 |
EP3535732A1 (en) | 2019-09-11 |
WO2018083011A1 (en) | 2018-05-11 |
US20190318534A1 (en) | 2019-10-17 |
CN109937435B (zh) | 2023-12-08 |
JP7132916B2 (ja) | 2022-09-07 |
JP2019532760A (ja) | 2019-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109937435A (zh) | 用于在绘制的图像中进行模拟光源定位的系统和方法 | |
CN109601018B (zh) | 用于根据3d超声数据生成b模式图像的系统和方法 | |
US10231704B2 (en) | Method for acquiring ultrasonic data | |
US8819591B2 (en) | Treatment planning in a virtual environment | |
Mohamed et al. | A survey on 3D ultrasound reconstruction techniques | |
KR101524085B1 (ko) | 의료 영상 제공 장치 및 방법 | |
JP6887449B2 (ja) | レンダリングされた画像を照明するシステム及び方法 | |
US7567701B2 (en) | Input system for orientation in a three-dimensional visualization and method for visualization of three-dimensional data sets | |
KR20160086714A (ko) | 의료 영상 표시 방법 및 장치 | |
JP4350226B2 (ja) | 三次元画像処理装置 | |
WO2013021440A1 (ja) | 画像処理装置、画像表示装置、画像処理方法およびプログラム | |
JPH05123327A (ja) | 手術シミユレーシヨンシステム | |
US20160299565A1 (en) | Eye tracking for registration of a haptic device with a holograph | |
WO2020205714A1 (en) | Surgical planning, surgical navigation and imaging system | |
CN109313818B (zh) | 用于在绘制图像中的照明的系统和方法 | |
WO2018011105A1 (en) | Systems and methods for three dimensional touchless manipulation of medical images | |
US20210019932A1 (en) | Methods and systems for shading a volume-rendered image | |
US11941765B2 (en) | Representation apparatus for displaying a graphical representation of an augmented reality | |
Shukla et al. | Integrating images from a moveable tracked display of three-dimensional data | |
Gaurav et al. | Integrating images from a moveable tracked display of three-dimensional data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |