CN103988230B - 3d医学灌注图像的可视化 - Google Patents

3d医学灌注图像的可视化 Download PDF

Info

Publication number
CN103988230B
CN103988230B CN201280059921.4A CN201280059921A CN103988230B CN 103988230 B CN103988230 B CN 103988230B CN 201280059921 A CN201280059921 A CN 201280059921A CN 103988230 B CN103988230 B CN 103988230B
Authority
CN
China
Prior art keywords
rendering
time series
image
coding function
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201280059921.4A
Other languages
English (en)
Other versions
CN103988230A (zh
Inventor
R·维姆科
T·比洛
M·贝格特尔特
K·梅茨
I-C·卡尔森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of CN103988230A publication Critical patent/CN103988230A/zh
Application granted granted Critical
Publication of CN103988230B publication Critical patent/CN103988230B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • G06T2207/10096Dynamic contrast-enhanced magnetic resonance imaging [DCE-MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • G06T2207/30104Vascular flow; Blood flow; Perfusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Architecture (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Processing Or Creating Images (AREA)

Abstract

图像处理装置110包括:处理器120,其使得用编码函数将三维[3D]图像的时间序列组合为单个3D图像,所述编码函数被布置为在单个3D图像的体素中对3D图像的时间序列的相应的同处的体素的随时间的改变进行编码;输入部130,其用于获得第一和第二3D图像的时间序列132以使得用处理器生成相应的第一和第二3D图像122;以及绘制器140,其用于从共同视点154将第一和第二3D图像122绘制到输出图像162中,以使得能够对第一3D图像和第二3D图像的时间序列的随时间的改变进行比较显示。

Description

3D医学灌注图像的可视化
技术领域
本发明涉及图像处理装置和将一系列图像组合为单个图像的方法。本发明还涉及包括所述图像处理装置的工作站或成像装置,以及使得处理器系统执行所述方法的计算机程序产品。
在图像观看和图像显示领域中,可能期望将几个图像组合成单个输出图像以使得包括在几个图像内的相关信息能够方便地显示给用户。其原因在于,用户否则可能需要滚动或者视觉地比较几个图像来获得所述信息。通过将几个图像组合在单个输出图像中,用户可以仅通过观看单个输出图像来获得几个图像的信息。
背景技术
用户可能需要获得来自三维[3D]图像的时间序列的视觉信息。具体而言,用户可能需要将第一3D图像的时间序列与第二3D图像的时间序列进行比较以获得所述信息。
例如,在乳腺癌处置领域中,患者可能经受化疗或者放疗以处理乳腺组织中的恶性生长。在开始处理之前,可以例如使用磁共振成像(MRI)来获得第一3D图像的时间序列作为所谓的基线检查的一部分。在处理期间或之后,然后可以获得第二3D图像的时间序列作为所谓的随诊检查的一部分以建立该患者是否对化疗或放疗响应。
3D图像的每个时间序列可以是所谓的动态增强(DCE)时间序列,其中,在对患者施予造影剂之前和之后,获得3D图像以使得临床医生能够评价乳腺组织中或其附近的灌注。每个时间序列可以例如跨越数分钟。通过比较处理之前和之后的所述灌注,临床医生可以获得允许建立该患者是否对化疗或放疗响应的相关信息。
将3D图像的时间序列组合为单个3D图像是己知的。例如,W.Wee等人的题为“Methodology for visualization and perfusion analysis of4D dynamic contrast-enhanced CT Imaging”,Proceeding of the XVIth ICCR,的出版物描述了分割来自包含其它解剖结构的四维(4D)灌注计算机断层摄影(pCT)扫描的血管和灌注组织的方法。该方法涉及针对4D pCT数据集内的给定体素观察随时间的强度改变以便创建灌注组织的3D功能参数图。在这些图中,指示以下项的幅值:时间强度曲线的最佳适配、最大强度与最小强度之间的差以及到达最大强度的时间。
前述方法的问题在于,它并不足够适合于将第一和第二3D图像的时间序列直观地显示给用户。
发明内容
具有用于将第一和第二3D图像的时间序列直观地显示给用户的经改进的装置或方法将是有利的。
为了更好地解决这一问题,本发明的第一方面提供一种图像处理装置,其包括:处理器,其使用编码函数将三维[3D]图像的时间序列组合为单个3D图像,所述编码函数被布置为在单个3D图像的体素中对所述3D图像的时间序列的相应的同处的体素的随时间的改变进行编码;输入部,其用于获得第一3D图像和第二3D图像以使用处理器生成相应的第一和第二3D图像的时间序列;以及绘制器,其用于从共同视点将第一和第二3D图像绘制到输出图像中,以使得能够对第一3D图像的时间序列和第二3D图像的时间序列随时间的改变进行比较显示。
在本发明的又一方面中,提供了一种包括所阐述的图像处理装置的工作站和成像装置。
在本发明的又一方面中,提供了一种方法,所述方法包括:使用处理器来使用编码函数将3D图像的时间序列组合为单个3D图像,所述编码函数被布置为在单个3D图像的体素中对该3D图像的时间序列的相应的同处的体素的随时间的改变进行编码;获得第一和第二3D图像的时间序列以使用处理器生成相应的第一和第二3D图像;并且从共同视点将第一和第二3D图像绘制到输出图像中,以使得能够对第一和第二3D图像的时间序列随时间的改变进行比较显示。
在本发明的又一方面中,提供了一种计算机程序产品,其包括使得处理器系统执行所阐述的方法的指令。
所述处理器被设置为将3D图像的时间序列组合为单个3D图像。在此,术语3D图像是指例如包括体积图像元素(即,所谓的体素)的体积图像,或者指可以被解析为体积图像的3D图像,例如包括一起构成体积图像或者可以解析为体积图像的包括像素的2D图像的堆叠。为了将所述3D图像的时间序列组合为单个3D图像,使用了编码函数。所述编码函数表达针对3D图像的时间序列中的每一个中的给定体素发生的随时间的改变如何在单个3D图像中的同处的体素中被表达。因此,3D图像的时间序列中的给定空间位置处的随时间的值的改变被表达为单个3D图像中的相同空间位置处的值。
所述输入部获得第一3D图像的时间序列和第二3D图像的时间序列。所述处理器然后被用于从第一3D图像的时间序列生成第一3D图像。因此,处理器将第一3D图像的时间序列组合为第一3D图像。此外,处理器被用于将第二3D图像的时间序列组合为第二3D图像。绘制器然后执行第一3D图像和第二3D图像的体积绘制。结果,获得包括这两个3D图像的体积绘制的输出图像。这两个3D图像的体积绘制来自相同视点,即涉及虚拟照相机被定位在相同位置处。因此,在输出图像中示出第一和第二3D图像的相同部分。
结果,获得了输出图像,其由于它包括来自相同视点的这两个3D图像的体积绘制,提供对第一和第二3D图像的时间序列的随时间的改变的改变的比较显示。因此,用户可以通过观看输出图像来直接确定第一3D图像的时间序列的随时间的改变与第二3D图像的时间序列的随时间的改变之间的差异。
本发明部分地基于以下认识:由于由所述3D图像的时间序列构成的巨大数量的视觉信息,因而从几个3D图像的时间序列获得相关信息对于用户而言是混淆的。然而,发明人已认识到,与用户相关的信息典型地涉及3D图像的时间序列中的每一个中的“随时间的改变之间的差异”,而不是例如所述3D图像的时间序列中的每一个中的“它自身随时间的改变”。
通过将第一3D图像的时间序列组合为第一3D图像并且将第二3D图像的时间序列组合为第二3D图像,每个时间序列的随时间的改变在两个相应的单个3D图像中被可视化。通过将这两个单个3D图像绘制为输出图像,并且通过在绘制中使用共同视点,获得了单个输出图像,其同时并且从共同视点示出了每个时间序列的随时间的改变。所述用户因此可以通过观看单个输出图像而容易地获得随时间的改变之间的差异。
有利地,用户可以更容易地辨别包含在第一和第二3D图像的时间序列中的相关信息。有利地,视觉检验或者比较第一和第二3D图像的时间序列花费较少时间。
任选地,所述处理器被布置为使用另一编码函数,所述另一编码函数不同于所述编码函数,用于不同地对3D图像的时间序列的相应的同处的体素中的所述随时间的改变进行编码,并且所述处理器被布置为使用编码函数从第一3D图像的时间序列生成第一中间3D图像并且从第二3D图像的时间序列生成第二中间3D图像,并且被布置为使用另一编码函数来从第一3D图像的时间序列生成第三中间3D图像并且从第二3D图像的时间序列生成第四中间3D图像,并且被布置为根据第一中间3D图像、第二中间3D图像、第三中间3D图像和第四中间3D图像而生成第一和第二3D图像。
所述处理器使用另一编码函数来对3D图像的时间序列的相应的同处的体素的随时间的改变的不同方面进行编码。例如,编码函数可以对随时间的改变的“速率”进行编码,并且另一编码函数可以对随时间的改变的“幅值”进行编码。编码函数和另一编码函数被用于从第一3D图像的时间序列生成相应的第一和第三中间3D图像,并且从第二3D图像的时间序列生成相应的第二和第四中间3D图像。因此,对于3D图像的时间序列中的每一个而言,获得了两个中间3D图像,其表示3D图像的时间序列中的每一个中的随时间的改变的不同编码。所有四个中间3D图像然后被使用来生成第一和第二3D图像,所述第一和第二3D图像随后在输出图像中从共同视点来绘制。
结果,获得了输出图像,其使得能够对第一和第二3D图像的时间序列随时间的改变的两个不同方面进行比较显示。例如,用户可以通过观看单个输出图像来获得随时间的改变的速率和幅值之间的差异。有利地,通过使用除编码函数之外的另一编码函数,在输出图像中获得第一和第二3D图像的时间序列中的随时间的改变之间的差异的更好的表示。有利地,所述编码函数和所述另一编码函数一起更可靠地对所述随时间的改变进行编码。
任选地,所述处理器被布置为(i)将第一3D图像生成为第一中间3D图像与第二中间3D图像之间的差异,并且(ii)将第二3D图像生成为第三中间3D图像与第四中间3D图像之间的差异。所述第一3D图像因此直接示出了第一和第二3D图像的时间序列的随时间的改变的第一方面之间的差异,并且所述第二3D图像直接示出了随时间的改变的第二方面之间的差异。通过对上述第一和第二3D图像绘制到输出图像中,用户可以直接观看所述差异而不需要中间视觉解析步骤。有利地,用户可以更容易地辨别包含在第一和第二3D图像的时间序列中的相关信息。有利地,视觉检验所述3D图像的时间序列花费较少时间。
任选地,所述绘制器被布置为(i)使用图像融合过程来将第一和第二3D图像组合为融合3D图像,并且(ii)将融合3D图像绘制到输出图像中。通过使用图像融合过程来将第一和第二3D图像组合为融合3D图像,所述第一和第二3D图像被合并为然后在输出图像中被绘制的单个3D图像。所述相关信息因此可以由用户从单个体积绘制来获得。有利地,由于省略了用于比较两个体积绘制所需要的中间视觉解析步骤,因而用户可以更容易地辨别第一和第二3D图像的时间序列的随时间的改变之间的差异。
任选地,所述图像融合过程包括:(i)将所述第一3D图像的体素值映射到以下组中的至少一项:融合3D图像的体素值的色度、饱和度、不透明度,以及(ii)将所述第二3D图像的体素值映射到来自所述组的至少另一个。通过将所述第一3D图像的体素值映射到融合3D图像的体素值的一部分或方面,并且通过将所述第二3D图像的体素值映射到融合3D图像的体素值的不同部分或方面,所述第一和第二3D图像在所述融合3D图像中是清楚地可区分的。有利地,用户可以在输出图像中在由第一3D图像所提供的信息与由第二3D图像所提供的信息之间清楚地进行区分。
任选地,所述处理器被布置为使用用于获得第一和第二3D图像作为互相配准的3D图像的配准过程。通过使用配准过程,由于由所述第一3D图像所提供的信息与由所述第二3D图像所提供的信息之间的空间位置中的差异被减小或消除,因而获得了改进的融合3D图像。有利地,由于省略了用于补偿空间位置中的差异所需要的中间视觉解析步骤,因而用户可以更容易地感知到输出图像中的第一和第二3D图像的时间序列的随时间的改变之间的差异。
任选地,所述处理器被布置为评价配准过程的结果用于,如果配准过程失败,则不是将融合3D图像绘制到输出图像中,而是将第一和第二3D图像绘制到输出图像中分开的视口(viewport)中,以用于获得第一和第二3D图像的并排绘制。
如果配准过程产出不满意的结果,例如归因于配准过程其自身的失败或者归因于第一与第二3D图像的时间序列之间的显著差异,那么由于不满意的配准结果可能产出不满意的融合3D图像以及因此不满意的输出图像,因而省略了融合3D图像的绘制。作为替代,第一和第二3D图像各自单独地进行绘制,并且所得的两个体积绘制在输出图像中并排显示。在此,术语“视口”是指被用于显示体积绘制的输出图像的一部分。有利地,假如配准过程产出不满意的结果,那么用户不太可能从输出图像得出错误的结论。有利地,用户可以更容易地辨别不满意的结果的原因。
任选地,处理器被布置为(i)将第一3D图像生成为第一中间3D图像和第三中间3D图像的组合,并且(ii)将第二3D图像生成为第二中间3D图像和第四中间3D图像的组合。第一3D图像因此将第一3D图像的时间序列的随时间的改变的这两个方面组合,并且第二3D图像将第二3D图像的时间序列的随时间的改变的这两个方面组合。通过对输出图像中的上述第一和第二3D图像进行绘制,用户可以获得与第二3D图像的时间序列的信息分开的第一3D图像的时间序列的相关信息。有利地,如果第一和第二3D图像的时间序列在性质方面是不同的(例如,属于不同的受检者),那么用户较少地被输出图像所混淆。
任选地,处理器被布置为针对第一3D图像的所述生成和/或第二3D图像的所述生成而使用图像融合过程。图像处理过程很适于将第一中间3D图像和第三中间3D图像组合为第一3D图像,并且将第二中间3D图像和第四中间3D图像组合为第二3D图像。
任选地,绘制器被布置为(i)将第一视点中的第一3D图像绘制到输出图像中,并且(ii)将第二视点中的第二3D图像绘制到输出图像中,以获得第一和第二3D图像的并排绘制。第一3D图像被绘制为输出图像中的第一视口中(即,在针对观看第一3D图像所提供的输出图像的第一部分中)的第一体积绘制,并且第二3D图像被绘制为输出图像中的第二视口中(例如,在输出图像的第二并且因此分开的部分中)第二体积绘制。因此,在输出图像中分开地将第一3D图像和第二3D图像可视化。有利地,如果这两个3D图像的时间序列例如在性质方面是不同的(具有不同的受检者或者易受错误的选择),那么用户可以容易地在由输出图像中的第一和第二3D图像的时间序列所提供的信息之间进行区分,这导致较少的混淆。
任选地,图像处理装置还包括用于使得用户能够修改绘制的共同视点的用户输入部。用户因此可以通过修改在绘制中使用的视点来交互地观看第一和第二3D图像。有利地,用户可以同时导航通过这两个3D图像,同时在导航期间,仍获得输出图像中的第一和第二3D图像的时间序列的随时间的改变的比较显示。
任选地,第一3D图像的时间序列构成示出基线日期时的患者的器官和/或组织的灌注的患者的基线检查,并且第二3D图像的时间序列构成示出随诊日期时的患者的器官和/或组织的灌注的患者的随诊检查,以用于使得能够对对该基线日期和随诊日期时的灌注进行比较显示。术语“灌注”是指相对短时段(例如,几秒、几分钟、几小时)期间内图像的时间序列中的每一个内(即,在患者的单个检查内)的血液流动或其他流体流动随时间的改变。该成像处理装置使得能够对基线日期和随诊日期时的所述灌注进行比较显示。实际上,所述比较显示提供“随时间”的灌注的改变(即,基线日期与随诊日期之间的改变)。出于清晰的原因,然而,注意到,术语“随时间的改变”另外被用作是指3D图像的时间序列中的每一个内的改变,例如指灌注而非灌注的改变。
本领域的技术人员将认识到,可以以被认为有用的任何方式来组合两个或两个以上的上文所提到的本发明的实施例、实现方案和/或方面。
本领域的技术人员根据本描述可以执行对应于所描述的图像处理装置的修改和变型的工作站、成像装置、方法和/或计算机程序产品的修改和变型。
本领域的技术人员将认识到,该方法可以被应用到通过各种采集模态获得的多维图像数据,所述采集模态例如但不限于标准X射线成像、计算机断层摄影(CT)、磁共振成像(MRI)、超声(US)、正电子发射断层摄影(PET)、单光子发射计算机断层摄影(SPECT)以及核医学(NM)。多维图像数据的维度可能涉及时间。例如,三维图像可以包括二维图像的时域序列。
在独立权利要求中限定了本发明。在从属权利要求中限定了有利的实施例。
附图说明
参照下文中所描述的实施例,本发明的这些和其它方面将变得显而易见的,并且将参照下文中所描述的实施例对本发明的这些和其它方面进行阐述。在附图中,
图1示出了根据本发明的图像处理装置和连接到所述图像处理装置的显示器;
图2a示出了来自第一3D图像的时间序列的3D图像;
图2b示出了来自第二3D图像的时间序列的又一3D图像;
图3示出了第一3D图像的时间序列,并且从所述3D图像的时间序列获得第一中间3D图像和第三中间3D图像;
图4示出了被组合并且被绘制到输出图像中的第一中间3D图像和第三中间3D图像以及第二中间3D图像和第四中间3D图像;
图5a示出了被融合到融合图像中的第一中间3D图像与第二中间3D图像之间的差异以及第三中间3D图像与第四中间3D图像之间的差异,并且融合图像被绘制到输出图像中;
图5b示出了被绘制在输出图像中的分开的视口中的第一中间3D图像和第三中间3D图像的组合以及第二中间3D图像和第四中间3D图像的组合;
图6a示出了包括对融合图像的绘制的输出图像;
图6b示出了包括绘制到分开的视口中的输出图像;
图7示出了根据本发明的方法;并且
图8示出了根据本发明的计算机程序产品。
具体实施方式
图1示出了图像处理装置110,此后被称为装置110。装置110包括使得用编码函数来将3D图像的时间序列组合为单个3D图像的处理器120。该装置还包括输入部130,其用于获得第一和第二3D图像的时间序列132以便使用处理器120来生成相应的第一和第二3D图像122。为了向处理器120提供第一和第二3D图像的时间序列132,输入部130被示为连接到处理器120。装置110还包括绘制器140,其用于从共同视点将第一和第二3D图像122绘制到输出图像162中。为了将输出图像162显示给用户,装置110可以连接到显示器160以用于将包括或者指示输出图像162的显示数据142提供给显示器160。显示器160可以是装置110的一部分或者外部显示器(即,不是装置110的一部分)。
装置110还可以包括用户输入部150,其用于使得用户能够修改绘制的共同视点154。出于该目的,用户输入部150可以连接到用户接口器件(图1中未示出),例如鼠标、键盘、触敏装置等,并且从所述用户接口器件收用户输入数据152。
在装置110的操作期间,输入部130获得第一和第二3D图像的时间序列132并且将所述3D图像的时间序列132提供给处理器120。所述处理器120使用编码函数来生成第一和第二3D图像122,所述编码函数被布置为在单个3D图像的体素中编码3D图像的时间序列的相应的同处的体素的随时间的改变。所述处理器120将第一和第二3D图像122提供给绘制器140。所述绘制器140从共同视点154将第一和第二3D图像122绘制到输出图像162中,以使得能够对显示器160上的第一和第二3D图像的时间序列的随时间的改变进行比较显示。
注意到,术语“图像”是指多维图像,例如二维(2D)图像或者三维(3D)图像。在此,术语“3D图像”是指体积图像,即具有三个空间维度。图像由图像元素组成。当图像是2D图像时,图像元素可以是所谓的图片元素,即,像素。当图像是体积图像时,图像元素也可以是所谓的体积图片元素,即,体素。关于图像元素的术语“值”是指被指派到图像元素的可显示属性。例如,体素的值可以表示体素的亮度和/或色度,或者可以指示体积图像内的体素的不透明度或半透明度。
关于3D图像的术语“绘制”是指使用体积绘制技术来从体积图像获得输出图像。该输出图像可以是2D图像。该输出图像还可以是向用户提供立体视觉的图像。该立体绘制技术可以是来自体积绘制领域的任何合适的技术。例如,可以使用所谓的直接体积绘制技术,典型地涉及穿过3D图像的体素的光线的投向。可以使用的技术的其它范例是最大强度投影或者表面绘制。
图2a示出了来自第一3D图像的时间序列200的3D图像203。该3D图像203以范例的方式被示出为已由磁共振(MR)成像技术获得的医学3D图像。然而,在一般而言的所有3D图像中,3D图像203可能由另一成像技术来获得,或者相反来自不同的(即,非医学)领域。3D图像203被示出为部分地半透明的,以用于示出3D图像203的内容206。图2b示出了来自第二3D图像的时间序列的另一3D图像。该另一3D图像303也被示出为部分地半透明的,以用于示出该另一3D图像303的内容306。当比较图2a和2b时,这两个3D图像203、303的内容之间的差异是可见的。该差异可能归因于第一3D图像的时间序列构成用于可视化患者的医学属性的患者的基线检查,以及第二3D图像的时间序列构成用于可视化所述医学属性的改变的患者的随诊检查。该医学属性可以涉及恶性生长(例如它的尺寸或位置)。该改变可以是尺寸方面的改变,例如归因于随时间的进一步生长,更确切地说是归因于患者对治疗的响应的尺寸方面的减小。
图3以范例的方式示出了包括5个3D图像201-205的第一3D图像的时间序列200。该第一3D图像的时间序列200可以是所谓的动态增强(DCE)MRI扫描,其可以在开始患者的处置之前获得。虽然在图3中未示出,但是在某个处理间隔之后可能已获得又一DCE MRI扫描以便建立患者是否对治疗作出响应。该又一DCE MRI扫描可以构成第二3D图像的时间序列,其除了其内容之外可以类似于第一3D图像的时间序列200。当然,第一和第二3D图像的时间序列还可以来自不同的领域,例如构成两个时间序列的地震3D图像以用于区域的地震监测。
图3还示出了被布置为使用编码函数来从第一3D图像的时间序列200生成422第一中间3D图像210的处理器120的结果。此外,图3示出了被布置为使用另一编码函数的处理器120的结果,其中,所述另一编码函数与所述编码函数不同,用于不同地对3D图像的时间序列200的相应的同处的体素的所述随时间的改变进行编码,并且所述处理器被被布置为使用另一编码函数来从第一3D图像的时间序列200生成424第三中间3D图像212。为了视觉地在使用编码函数和另一编码函数所生成的3D图像之间进行区分,已使用另一编码函数生成的3D图像以关于已使用编码函数生成的3D图像的反向灰度来示出。然而,应认识到,这两个类型的3D图像还可能看起来相似。
编码函数和另一编码函数可以是用于将针对每个体素的时间曲线转译为针对每个体素的参数或值的任何合适的函数。从各种成像域知悉这样的编码函数。一般而言,这样的编码函数可以涉及确定时间曲线的最大值、最小值或导数。在医学成像领域中,这样的编码函数可以特别涉及灌注,即血液流进或者流出血管、组织等。灌注相关的编码函数的范例是针对MRI采集的3D图像的所谓的百分比增强(PE)和信号增强比率(SER)函数,以及达峰时间(TTP)、平均传输时间(MTT)、针对CT采集的3D图像的曲线下面积(AUC)函数。在以下中,编码函数以范例的方式被选取为PE编码函数以用于提供中间PE3D图像作为第一中间3D图像210。此外,另一编码函数被选取为SRE编码函数以用于提供中间SRE3D图像作为第三中间3D图像212。
图4示出了处理器120的结果,处理器120被布置为使用编码函数来从第二3D图像的时间序列生成第二中间3D图像310,并且使得用另一编码函数从第二3D图像的时间序列生成第四中间3D图像312。因此,针对两个3D图像的时间序列中的每个获得中间PE3D图像和中间SRE。这两个中间PE3D图像之间的差异以及这两个中间SRE3D图像之间的差异可能对用户有用。出于该原因,如图4中示意性地所示,处理器120被布置为根据第一中间3D图像210、第二中间3D图像310、第三中间3D图像212和第四中间3D图像312而生成426第一3D图像和第二3D图像。因此,绘制器140然后可以将第一和第二3D图像绘制到输出图像162中,以使得能够在显示器160上对第一和第二3D图像的时间序列的随时间的改变进行比较显示。
可能存在用于根据所述中间3D图像而生成第一和第二3D图像以及用于随后从共同视点将第一和第二3D图像绘制到输出图像中的各种方式。
图5a示出了第一范例,其中,处理器120被布置为(i)将第一3D图像生成为第一中间3D图像210与第二中间3D图像310之间的差异428,并且用于将第二3D图像生成为第三中间3D图像212与第四中间3D图像312之间的差异428。在图5a中用减号示意性地指示该差异428。生成第一3D图像可以包括简单地从第一中间3D图像210减去第二中间3D图像310。结果,第一3D图像的体素包括有符号值,即正值和负值二者。生成第二3D图像还可以涉及所述相减。备选地,确定差异428可以涉及非线性函数的使用,例如以用于强调这两个中间3D图像之间的大差异,并且用于不强调小差异。当然,还可以用各种其它合适的方式来确定该差异428。
处理器120可以被布置为使用配准过程来获得第一和第二3D图像122作为互相配准的3D图像。所述配准过程的使用可以包括使用第一3D图像的时间序列与第二3D图像的时间序列之间的空间配准。然后,使用配准的结果,针对中间PE3D图像之间的每个相对应的体素对,计算PE值的改变(即,差),并且针对中间SRE3D图像之间的每个相对应的体素对,计算SRE值的改变。
在图5a的范例中,绘制器140可以被布置为使用图像融合过程430来将第一和第二3D图像组合为融合3D图像,并且用于对输出图像162中的融合3D图像进行绘制。因此,图像融合过程430使用第一和第二3D图像生成融合3D图像。图像融合过程430可以是例如以下的单个过程或组合。
第一图像融合过程包括对融合3D图像的体素中的PE值的改变进行颜色编码,例如,其中,针对PE增加的红色和针对PE减少的绿色,并且通过PE增加来对融合3D图像的体素的不透明度进行调制。第二图像融合过程包括通过这两个中间PE3D图像中的体素的最大PE值对融合3D图像中的体素的不透明度进行调制并且对融合3D图像的体素中的SER值的改变进行颜色编码,例如,其中,针对SER增加的红色色度并且针对PE减少的绿色色度,以及由SER值中的SER的幅值给定的颜色饱和度,例如,产出对于具有高PE值但是SER值的改变不显著的区域的白色。第三图像融合过程包括使用2D查找表(LUT)来将颜色和不透明度指派到融合3D图像的体素作为PE和SER值中的正改变和负改变的函数。可以这样手动地设计2DLUT以便最直觉地反映用户的医学知识。
一般而言,图像融合过程可以包括将第一3D图像的体素值映射到以下组中的至少一项:融合3D图像的体素值的色度、饱和度、不透明度,并且将第二3D图像的体素值映射到来自所述组的至少另一个。当然,前述图像融合过程还可以适用于将第一中间3D图像和第三中间3D图像之间的差异与第三中间3D图像和第四中间3D图像之间的差异融合,即,所述中间3D图像不需要是中间PE或SRE3D图像。
图5a中所示的范例被称为直接变化可视化,因为在空间配准之后,针对每个体素计算灌注参数之一的改变。然后,通过投向观看光线通过所有体素并且导出作为改变符号的函数颜色(即,选择的灌注参数的改变是正的还是负的)以及来自改变量的不透明度,来计算单个3D绘制。虽然在图5a中未示出,但是处理器120可以被布置为评价配准过程的结果,用于,如果配准过程失败,则不是将融合3D图像绘制到输出图像162中,而是将第一和第二3D图像绘制到输出图像中分开的视口中,以用于获得第一和第二3D图像的并排绘制。并排绘制构成根据中间3D图像而生成第一和第二3D图像并且随后从共同视点将第一和第二3D图像绘制到输出图像中的另一种方式,即又一范例。将参考图5b进一步解释所述并排绘制。
图5b示出了处理器120的结果,该处理器120被布置为将第一3D图像生成为第一中间3D图像210和第三中间3D图像212的组合432,并且用于将第二3D图像生成为第二中间3D图像310和第四中间3D图像312的组合432。此外,绘制器140被布置为将第一3D图像绘制到输出图像164中的第一视口165中,并且将第二3D图像绘制到输出图像中的第二视口166中,以用于获得第一3D图像和第二3D图像的并排绘制,提供了对第一3D图像的时间序列和第二3D图像的时间序列的随时间的改变的比较显示。
如图5b示意性地所示,处理器120还可以被布置为使用图像融合过程434来从第一210中间3D图像和第三212中间3D图像的组合432生成第一3D图像,并且用于从第二310中间3D图像和第四312中间3D图像生成第二3D图像。图像融合过程434可以是关于图5a先前所讨论的任何图像融合过程。具体而言,在组合中的中间3D图像中的一个是中间PE3D图像并且另一个是中间SRE3D图像时,PE值可以被用于对融合3D图像中的体素的不透明度进行调制,并且SER值可以被用于对颜色进行调制。结果,第一和第二3D图像被获得为第一和第二融合3D图像。
第一和第二3D图像可以被称为动力学3D图像,因为它们表示第一和第二3D图像的时间序列的随时间的改变。这两个动力学3D图像还可以在相应的3D图像的时间序列中的3D图像之一之上被融合或者覆盖以用于改进用户观看输出图像164的空间取向。例如,第一融合3D图像可以覆盖在第一3D图像的时间序列的3D图像之一之上。结果,第一融合3D图像中的体素的亮度可以主导地由第一3D图像的时间序列的3D图像之一来提供,颜色可以由SER值来调制,并且体素的不透明度可以由PE值来调制。备选地,动力学3D图像可以覆盖在从例如医学图库获得的标准或者参考3D图像之上。
可以在第一和第二3D图像的时间序列之间计算空间配准。如参考图5a所讨论,绘制器可以被布置为如果配准过程失败,则将第一和第二3D图像绘制到输出图像164中分开的视口165、166中,以用于获得第一和第二3D图像的并排绘制,并且否则用于生成如参考图5a所讨论的输出图像(即借助于前述直接改变可视化)。备选地,即使配准过程成功,处理器120和绘制器140也可以被布置为将输出图像164生成为并排绘制。
图5a中所示的范例被称为并排可视化。与直接改变可视化相反,第一和第二3D图像的时间序列各自在它们的随时间的改变的输出图像160中产出分开的体积绘制。然而,与在直接改变可视化中相同,分开的体积绘制示出了来自共同视点的第一和第二3D图像。用户可以例如使用连接到用户输入部150的用户接口器件来交互地修改绘制的共同视点。结果,体积绘制中的一个的旋转、移位等导致另一个体积绘制的相同旋转、移位等。因此,维持了对第一和第二3D图像的时间序列的随时间的改变的比较显示。
图6a示出了包括主视口322的输出图像320的范例,所述主视口322包括第一和第二3D图像的时间序列的直接改变可视化,即,主视口322示出了如关于图5a所讨论的融合3D图像的体积绘制。用户输入部150可以被布置为接收来自用户的选择命令,其指示用户点击或者选择融合3D图像的体积绘制中(即,在主视口322中)的位置。结果,绘制器140可以分别在第一辅助视口324和第二辅助视口326中显示第一和第二3D图像的时间序列中的相对应的位置的逐片视图。此外,绘制器可以响应于选择命令而显示针对输出图像320中的第一和第二3D图像的时间序列中的每一个的相对应位置的动力学曲线。所述显示可以在动力学视口328中。在此,术语“动力学曲线”是指遍及相应3D图像的时间序列针对特定体素的随时间的值的改变的曲线图。最后,绘制器140可以被布置为显示可视化图例330,其示出第一和第二3D图像的时间序列的随时间的改变如何在主视口322中被可视化。假如图像融合过程使用2D LUT,那么可视化图例330可以将2D LUT的内容可视化为变化的颜色、强度、不透明度等的2D图像。
图6b示出了包括第一主视口342和第二主视口344的输出图像340的范例,所述第一主视口342包括第一3D图像的体积绘制,并且所述第二主视口344包括第二3D图像的体积绘制。第一主视口342和第二主视口344一起提供第一和第二3D图像的时间序列的并排可视化,即,第一主视口342和第二主视口344示出了如关于图5b所讨论的第一和第二3D图像的分开的体积绘制。此外,输出图像340包括第一辅助视口324、第二辅助视口326、动力学视口328和可视化图例330,如先前关于图6a所讨论。
第一主视口342和第二主视口344以及第一辅助视口324和第二辅助视口326可以被耦合为使得第二辅助视口326中的第二3D图像的时间序列的逐片视图被翘曲为曲线重定格式以匹配第一辅助视口324中的第一3D图像的时间序列的逐片视图。此外,第二辅助视口326中的第二3D图像的时间序列的曲线重定格式被计算为反映第一辅助视口324中的第一3D图像的时间序列的薄片厚度,并且第二主视口344中的第二3D图像的时间序列的动力学体积绘制被翘曲为匹配第一主视口342中的第一3D图像的时间序列的动力学体积绘制。此外,可以借助于处理器120和绘制器140来将主视口342、主视口344和辅助视口324、辅助视口326耦合,所述处理器120和绘制器140被布置为使得动力学体积绘制中的一个的交互旋转导致另一个动力学体积绘制的相同旋转,对逐片视图中的一个中的不同薄片的交互选择选择另一个逐片视图中的相同薄片,并且用户到两个动力学体积绘制中的任何一个中的点击或选择对相对应位置的适当的逐片视图进行选择并且显示在辅助视图324、326这二者中,并且将适当的动力学曲线显示在动力学视口328中。此外,主视口324、344中的一个中的颜色和/或不透明度调制的交互改变以相同的方式改变了另一个主视口324、344中的颜色和/或不透明度调制。
备选地,前述视口可以如先前所讨论地进行耦合,但是第二主视口344中的第二3D图像的时间序列的动力学体积绘制可能不被翘曲。作为替代,点击或者选择到动力学体积绘制可以选择针对第二辅助视口326和动力学视口328中的相对应逐片视图的相对应位置,而无需逐片视图和动力学体积绘制如先前所讨论地被翘曲。
注意到,一般而言,单个3D图像可以简单地被称为3D图像,而3D图像的时间序列(例如,灌注体积数据集)可以被称为4D图像。因此,图6b的第一主视口342和第二主视口344中的体积绘制可以被称为4D图像的体积绘制。此外,两个或两个以上的3D图像的时间序列的组合(例如,灌注体积的基线检查和随诊检查)可以被称为5D图像。因此,图6a中的主视口322中的体积绘制可以被称为5D图像的体积绘制。此外,图6b的第一辅助视口324和第二辅助视口326中的体积绘制可以被称为3D图像的体积绘制,因为它们包括逐片视图(即,2D图像薄片)以及附加地相对应的3D图像的时间序列中的每一个中的随时间的改变的颜色编码的信息(即,动力学信息)。
图7示出了根据本发明的方法400,其包括在题为“使用处理器”的第一步骤中,使用410用于使用编码函数将三维[3D]图像的时间序列组合为单个3D图像的处理器,所述编码函数被布置为在单个3D图像的体素中对3D图像的时间序列的相应的同处的体素的随时间的改变进行编码。方法400还包括,在题为“生成第一和第二3D图像”的第二步骤中,获得420第一和第二3D图像的时间序列以使用处理器生成相应的第一和第二3D图像。方法400还包括,在题为“绘制输出图像”的第三步骤中,从共同视点将第一和第二3D图像绘制440到对输出图像中,以使得能够对第一和第二3D图像的时间序列的随时间的改变进行比较显示。方法400可以对应于装置100的操作。然而,还可以与装置110分开地执行方法400。
图8示出了包括用于令处理器系统执行根据本发明的方法的指令的计算机程序产品452。该计算机程序产品452可以被包括在计算机可读介质450上,例如作为一系列机器可读物理标志和/或一系列具有例如不同的电、磁或光属性或值的元件。
应注意到,一般而言,装置110可能不需要使用另一编码函数。而是,处理器120可以直接将第一3D图像的时间序列组合为第一3D图像并且将第二3D图像的时间序列组合为第二3D图像。因此,处理器可能不需要生成中间3D图像。绘制器140然后也可以对第一3D图像与第二3D图像之间的差异进行绘制,即,在主视口中绘制的基于单个差异的3D图像。在对基于差异的3D图像进行绘制之前,映射可以被应用到基于差异的3D图像,例如,将红色色度指派到正值并且绿色色度指派到负值。要理解,除了省略所述过程中的另一3D图像的使用之外,映射可以类似于先前所讨论的图像融合过程。备选地,绘制器140可以分开地对第一和第二3D图像进行绘制(即,在分开的第一和第二主视口中)。
将认识到,本发明还适用于计算机程序,尤其适于将本发明付诸实践的载体上或载体内的计算机程序。该程序可以采取源代码、目标代码的形式,源代码和目标代码的中间代码的形式(例如以部分编译的形式),或者以适合于在根据本发明的方法的实现方式中使用的任何其它形式。还将认识到,这样的程序可以具有许多不同的架构设计。例如,实现根据本发明的方法或系统的功能的程序代码可以被划分为一个或多个子例程。将功能分布在这些子例程之间的许多不同的方式对于技术人员而言将是显而易见的。子例程可以一起存储于一个可执行文件中以形成自含程序。这样的可执行文件可以包括计算机可执行指令,例如处理器指令和/或解释器指令(例如,Java解释器指令)。备选地,子例程中的一个或多个或者全部可以存储在至少一个外部库文件中并且要么静态要么动态地(例如,在运行时)与主程序链接。所述主程序包含对子例程中的至少一个的至少一个调用。所述子例程还可以包括对彼此的函数调用。涉及计算机程序产品的实施例包括对应于本文所阐述的方法中的至少一个的每个处理步骤的计算机可执行指令。这些指令可以被划分为子例程和/或存储在可以静态或者动态地链接的一个或多个文件中。涉及计算机程序产品的另一实施例包括对应于本文所阐述的系统和/或产品中的至少一个的每个装置的计算机可执行指令。这些指令可以被划分为子例程和/或存储在可以静态或者动态地链接的一个或多个文件中。
计算机程序的载体可以是能够承载程序的任何实体或设备。例如,载体可以包括存储介质,诸如ROM(例如,CD ROM或者半导体ROM)或者磁记录介质(例如,硬盘)。此外,载体可以是可传输载体,例如可以经由电缆或光缆或者通过无线电或其它方式传达的电信号或光信号。在程序被实现在这样的信号中时,可以通过这样的线缆或其它器件或方式来构成载体。备选地,载体可以是其中嵌入了程序的集成电路,所述集成电路适于执行相关方法或者在相关方法的执行中使用。
应注意到,上文所提到的实施例示出而不是限制本发明,并且本领域的技术人员将能够在不脱离权利要求书的范围的情况下设计许多备选的实施例。在权利要求书中,置于括号之间的任何附图标记都不应解释为对权利要求的限制。动词“包含”或其词形变化不排除存在除权利要求中所列出的那些元件或步骤之外的元件或步骤。元件之前的词语“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括若干分立元件的硬件并且借助于适当地编程的计算机来实现。尽管在相互不同的从属权利要求中记载了特定措施,但是这并不指示不能有利地组合使用这些措施。

Claims (15)

1.一种图像处理装置(110),包括:
输入部(130),其用于获得第一三维3D图像的时间序列和第二三维3D图像的时间序列(132);
处理器(120),其用于使用第一编码函数和第二编码函数将所述第一3D图像的时间序列和第二3D图像的时间序列(132)中的每个分别组合为第一单个3D图像和第二单个3D图像(122),其中,所述第一编码函数和所述第二编码函数被布置为在所述第一和第二单个3D图像的体素中对所述第一和第二3D图像的时间序列中的相应的同处的体素的随时间的改变进行编码,所述第一编码函数对所述随时间的改变进行与所述第二编码函数不同的编码;以及
绘制器(140),其用于从共同视点(154)将所述第一单个3D图像和所述第二单个3D图像(122)绘制到单个输出图像(162,164,320,340)中,以使得能够对所述第一3D图像的时间序列和所述第二3D图像的时间序列的所述随时间的改变进行比较显示,
其中,所述处理器被配置用于:
(i)使用所述第一编码函数,从所述第一3D图像的时间序列(200)生成第一中间3D图像(210)并从所述第二3D图像的时间序列生成第二中间3D图像(310);
(ii)使用所述第二编码函数,从所述第一3D图像的时间序列(200)生成第三中间3D图像(212)并从所述第二3D图像的时间序列生成第四中间3D图像(312);并且
(iii)使用图像融合过程(434)将所述第一和第三中间3D图像组合成所述第一单个3D图像并将所述第二和第四中间3D图像组合成所述第二单个3D图像。
2.根据权利要求1所述的图像处理装置(110),其中,所述处理器(120)被布置为(i)将所述第一单个3D图像生成为所述第一中间3D图像(210)与所述第二中间3D图像(310)之间的差异,并且(ii)将所述第二单个3D图像生成为所述第三中间3D图像(212)与所述第四中间3D图像(312)之间的差异。
3.根据权利要求2所述的图像处理装置(110),其中,所述绘制器(140)被布置为(i)使用图像融合过程来将所述第一单个3D图像和所述第二单个3D图像(122)组合为融合3D图像,并且(ii)将所述融合3D图像绘制到所述输出图像(162,320)中。
4.根据权利要求3所述的图像处理装置(110),其中,所述图像融合过程包括(i)将所述第一单个3D图像的体素值映射到以下组中的至少一项:所述融合3D图像的体素值的色度、饱和度、不透明度,并且(ii)将所述第二单个3D图像的体素值映射到来自所述组的至少另一项。
5.根据权利要求2所述的图像处理装置(110),其中,所述处理器(120)被布置为使用配准过程来获得所述第一单个3D图像和所述第二单个3D图像(122)作为互相配准的3D图像。
6.根据权利要求5所述的图像处理装置(110),其中,所述处理器(120)被布置为评价所述配准过程的结果用于,如果所述配准过程失败,则不是将所述融合3D图像绘制到所述输出图像(162)中,而是将所述第一单个3D图像和所述第二单个3D图像(122)绘制到所述输出图像(164)中的分开的视口(165,166)中,以获得所述第一单个3D图像和所述第二单个3D图像的并排绘制。
7.根据权利要求1所述的图像处理装置(110),其中,所述处理器(120)被布置为(i)将所述第一单个3D图像生成为所述第一中间3D图像(210)与所述第三中间3D图像(212)的组合,并且(ii)将所述第二单个3D图像生成为所述第二中间3D图像(310)与所述第四中间3D图像(312)的组合。
8.根据权利要求7所述的图像处理装置(110),其中,所述处理器(120)被布置为针对所述第一单个3D图像的所述生成和/或所述第二单个3D图像的所述生成而使用图像融合过程。
9.根据权利要求7所述的图像处理装置(110),其中,所述绘制器(140)被布置为(i)将所述第一单个3D图像绘制到所述输出图像(164)中的第一视口(165)中,并且(ii)将所述第二单个3D图像绘制到所述输出图像中的第二视口(166)中,以获得所述第一单个3D图像和所述第二单个3D图像的并排绘制。
10.根据权利要求1所述的图像处理装置(110),还包括使得用户能够修改所述绘制的所述共同视点(154)的用户输入部(150)。
11.根据权利要求1所述的图像处理装置(110),其中,所述第一3D图像的时间序列(120)构成示出基线日期时的患者的器官和/或组织的灌注的所述患者的基线检查,并且所述第二3D图像的时间序列构成示出随诊日期时的所述患者的器官和/或组织的灌注的所述患者的随诊检查,以使得能够对所述基线日期和所述随诊日期时的所述灌注进行比较显示。
12.一种包括根据权利要求1所述的图像处理装置的工作站或成像装置。
13.一种图像处理方法(400),包括:
获得第一三维3D图像的时间序列和第二三维3D图像的时间序列(132);
使用处理器(120)来使用第一编码函数和第二编码函数将所述第一3D图像的时间序列和第二3D图像的时间序列(132)中的每个分别组合为第一单个3D图像和第二单个3D图像(122),其中,所述第一编码函数和所述第二编码函数被布置为在所述第一和第二单个3D图像的体素中对所述第一和第二3D图像的时间序列中的相应的同处的体素的随时间的改变进行编码,所述第一编码函数对所述随时间的改变进行与所述第二编码函数不同的编码;
使用所述处理器(120)来使用所述第一编码函数,从所述第一3D图像的时间序列(200)生成第一中间3D图像(210)并从所述第二3D图像的时间序列生成第二中间3D图像(310);
使用所述处理器(120)来使用所述第二编码函数,从所述第一3D图像的时间序列(200)生成第三中间3D图像(212)并从所述第二3D图像的时间序列生成第四中间3D图像(312);
使用所述处理器(120)来使用图像融合过程(434)将所述第一和第三中间3D图像组合成所述第一单个3D图像并将所述第二和第四中间3D图像组合成所述第二单个3D图像;并且
从共同视点将所述第一单个3D图像和第二单个3D图像绘制到单个输出图像中,以使得能够对所述第一3D图像的时间序列和所述第二3D图像的时间序列的所述随时间的改变进行比较显示。
14.一种图像处理设备,包括:
用于获得第一三维3D图像的时间序列和第二三维3D图像的时间序列(132)的模块;
用于经由处理器(120)使用第一编码函数和第二编码函数将所述第一3D图像的时间序列和第二3D图像的时间序列(132)中的每个分别组合为第一单个3D图像和第二单个3D图像(122)的模块,其中,所述第一编码函数和所述第二编码函数被布置为在所述第一和第二单个3D图像的体素中对所述第一和第二3D图像的时间序列中的相应的同处的体素的随时间的改变进行编码,所述第一编码函数对所述随时间的改变进行与所述第二编码函数不同的编码;
用于使用所述第一编码函数,从所述第一3D图像的时间序列(200)生成第一中间3D图像(210)并从所述第二3D图像的时间序列生成第二中间3D图像(310)的模块;
用于使用所述第二编码函数,从所述第一3D图像的时间序列(200)生成第三中间3D图像(212)并从所述第二3D图像的时间序列生成第四中间3D图像(312)的模块;
用于使用图像融合过程(434)将所述第一和第三中间3D图像组合成所述第一单个3D图像并将所述第二和第四中间3D图像组合成所述第二单个3D图像的模块;以及
用于从共同视点将所述第一单个3D图像和第二单个3D图像绘制到单个输出图像中,以使得能够对所述第一3D图像的时间序列和所述第二3D图像的时间序列的所述随时间的改变进行比较显示的模块。
15.一种存储有计算机程序产品(452)的计算机可读介质(450),所述计算机程序产品包括使得处理器系统执行根据权利要求13所述的方法的指令。
CN201280059921.4A 2011-12-07 2012-11-15 3d医学灌注图像的可视化 Active CN103988230B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161567696P 2011-12-07 2011-12-07
US61/567,696 2011-12-07
PCT/IB2012/056448 WO2013084095A1 (en) 2011-12-07 2012-11-15 Visualization of 3d medical perfusion images

Publications (2)

Publication Number Publication Date
CN103988230A CN103988230A (zh) 2014-08-13
CN103988230B true CN103988230B (zh) 2019-04-05

Family

ID=47358507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280059921.4A Active CN103988230B (zh) 2011-12-07 2012-11-15 3d医学灌注图像的可视化

Country Status (6)

Country Link
US (1) US20140354642A1 (zh)
EP (1) EP2788954A1 (zh)
JP (1) JP6248044B2 (zh)
CN (1) CN103988230B (zh)
BR (1) BR112014013445A8 (zh)
WO (1) WO2013084095A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103544688B (zh) * 2012-07-11 2018-06-29 东芝医疗系统株式会社 医用图像融合装置和方法
US20150164450A1 (en) * 2013-12-18 2015-06-18 Siemens Medical Solutions Usa, Inc. System and Method for Real Time 4D Quantification
JP6411072B2 (ja) * 2014-06-02 2018-10-24 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法およびプログラム
KR102294194B1 (ko) * 2014-08-05 2021-08-26 삼성전자주식회사 관심영역의 시각화 장치 및 방법
WO2017001551A1 (en) 2015-06-30 2017-01-05 Koninklijke Philips N.V. Device and method for processing computer tomography imaging data
US11353533B2 (en) 2016-02-24 2022-06-07 Ohio State Innovation Foundation Methods and devices for contrast agent magnetic resonance imaging
CN106023123A (zh) * 2016-05-01 2016-10-12 中国人民解放军空军航空大学 一种新型的多窗口同视的图像融合框架
JP2022168405A (ja) * 2021-04-26 2022-11-08 株式会社Kompath 情報処理システム、情報処理方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004089218A1 (ja) * 2003-04-04 2004-10-21 Hitachi Medical Corporation 機能画像の表示方法及び装置
JP2007151881A (ja) * 2005-12-06 2007-06-21 Hitachi Medical Corp 血流動態解析装置
JP2011512963A (ja) * 2008-02-29 2011-04-28 ザ リージェンツ オブ ザ ユニバーシティ オブ ミシガン 組織における変化を撮像するためのシステムおよび方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0877329A (ja) * 1994-09-02 1996-03-22 Konica Corp 時系列処理画像の表示装置
JP2006053102A (ja) * 2004-08-13 2006-02-23 Daiichi Radioisotope Labs Ltd 脳画像データ処理プログラム、記録媒体および脳画像データ処理方法
JP4801892B2 (ja) * 2004-09-10 2011-10-26 株式会社東芝 医用画像表示装置
US20060116583A1 (en) * 2004-11-26 2006-06-01 Yoichi Ogasawara Ultrasonic diagnostic apparatus and control method thereof
JP2006198060A (ja) * 2005-01-19 2006-08-03 Ziosoft Inc 画像処理方法および画像処理プログラム
WO2008001264A2 (en) * 2006-06-28 2008-01-03 Koninklijke Philips Electronics N. V. Spatially varying 2d image processing based on 3d image data
WO2008059417A1 (en) * 2006-11-13 2008-05-22 Koninklijke Philips Electronics N. V. Fused perfusion and functional 3d rotational angiography rendering
CN101188019A (zh) * 2006-11-20 2008-05-28 爱克发医疗保健公司 融合数字图像的方法
JP5591440B2 (ja) * 2007-01-17 2014-09-17 株式会社東芝 医用画像表示装置
DE102007014133B4 (de) * 2007-03-23 2015-10-29 Siemens Aktiengesellschaft Verfahren zur Visualisierung einer Sequenz tomographischer Volumendatensätze der medizinischen Bildgebung
US7983460B2 (en) * 2007-06-08 2011-07-19 General Electric Company Method and system for performing high temporal resolution bolus detection using CT image projection data
US9295442B2 (en) * 2010-03-17 2016-03-29 FUJIFILM Corporation ko Medical image conversion apparatus, method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004089218A1 (ja) * 2003-04-04 2004-10-21 Hitachi Medical Corporation 機能画像の表示方法及び装置
JP2007151881A (ja) * 2005-12-06 2007-06-21 Hitachi Medical Corp 血流動態解析装置
JP2011512963A (ja) * 2008-02-29 2011-04-28 ザ リージェンツ オブ ザ ユニバーシティ オブ ミシガン 組織における変化を撮像するためのシステムおよび方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Fusion Viewer: A New Tool for Fusion and Visualization of Multimodal Medical Data Sets;Karl G. Baum 等;《Journal of Digital Imaging》;20071025;第21卷;S59-S68
Methodology for visualization and perfusion analysis of 4D dynamic contrast-enhanced CT imaging;W Wee 等;《Proceedings of the XVIth ICCR》;20101231;1-4

Also Published As

Publication number Publication date
WO2013084095A1 (en) 2013-06-13
BR112014013445A2 (pt) 2017-06-13
JP2015505690A (ja) 2015-02-26
EP2788954A1 (en) 2014-10-15
CN103988230A (zh) 2014-08-13
JP6248044B2 (ja) 2017-12-13
BR112014013445A8 (pt) 2021-03-09
US20140354642A1 (en) 2014-12-04

Similar Documents

Publication Publication Date Title
CN103988230B (zh) 3d医学灌注图像的可视化
CN105122301B (zh) 对来自不同成像模态的医学图像的同时显示
Bruckner et al. Illustrative context-preserving exploration of volume data
US10354438B2 (en) Illumination in rendering of anatomy with functional information
JP5808146B2 (ja) 画像処理システム、装置及び方法
US9767594B2 (en) Image processing apparatus
JP2013066241A (ja) 画像処理システム及び方法
US8705821B2 (en) Method and apparatus for multimodal visualization of volume data sets
US9445082B2 (en) System, apparatus, and method for image processing
JP7470770B2 (ja) デジタル胸部トモシンセシスおよび匿名化表示データ・エクスポートを可視化するための装置および方法
EP2084667A1 (en) Fused perfusion and functional 3d rotational angiography rendering
US9220438B2 (en) Method for combining multiple image data sets into one multi-fused image
JP6060173B2 (ja) 画像処理装置
Wilson et al. Interactive multi-volume visualization
Wang et al. Augmented depth perception visualization in 2D/3D image fusion
US20080278490A1 (en) Anatomical context presentation
Turlington et al. New techniques for efficient sliding thin-slab volume visualization
US8873817B2 (en) Processing an image dataset based on clinically categorized populations
Jainek et al. Illustrative hybrid visualization and exploration of anatomical and functional brain data
Lawonn et al. Illustrative Multi-volume Rendering for PET/CT Scans.
CN103282942B (zh) 基于距离的体积可视化
US20140085305A1 (en) Slice Representation of Volume Data
Tory et al. Visualization of time-varying MRI data for MS lesion analysis
Abellán et al. Multimodal volume rendering with 3D textures
Nystrom et al. Segmentation and visualization of 3D medical images through haptic rendering

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant