CN104658034B - Ct图像数据的融合绘制方法 - Google Patents

Ct图像数据的融合绘制方法 Download PDF

Info

Publication number
CN104658034B
CN104658034B CN201310574486.5A CN201310574486A CN104658034B CN 104658034 B CN104658034 B CN 104658034B CN 201310574486 A CN201310574486 A CN 201310574486A CN 104658034 B CN104658034 B CN 104658034B
Authority
CN
China
Prior art keywords
image
image data
light
dimensional image
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310574486.5A
Other languages
English (en)
Other versions
CN104658034A (zh
Inventor
赵自然
张丽
陈志强
王朔
顾建平
孙运达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Nuctech Co Ltd
Original Assignee
Tsinghua University
Nuctech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University, Nuctech Co Ltd filed Critical Tsinghua University
Priority to CN201310574486.5A priority Critical patent/CN104658034B/zh
Priority to US14/540,413 priority patent/US9324125B2/en
Priority to EP14193139.4A priority patent/EP2874123A3/en
Publication of CN104658034A publication Critical patent/CN104658034A/zh
Application granted granted Critical
Publication of CN104658034B publication Critical patent/CN104658034B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/40Hidden part removal
    • G06T15/405Hidden part removal using Z-buffer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/04Architectural design, interior design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/12Shadow map, environment map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2008Assembling, disassembling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Image Generation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明涉及一种CT图像数据的融合绘制的方法。该方法包括步骤:获得背景的二维图像数据和目标物的二维图像数据;基于目标物的形状对所述目标物的二维图像数据进行插值;利用插值后的所述目标物的二维图像数据绘制所述目标物的三维图像以获得光线初始射入点位置;利用背景的二维图像数据绘制背景的三维图像;基于所述光线初始射入点位置修改背景的三维图像;以及融合绘制背景的三维图像与所述目标物的三维图像。本发明还涉及用于执行该方法的装置。

Description

CT图像数据的融合绘制方法
技术领域
本发明涉及三维图像绘制领域,具体地说涉及一种用于对CT(ComputedTomography,计算机断层扫描成像)图像数据进行融合绘制的方法。
背景技术
CT成像系统广泛地用于医学成像和目标物检测,例如在安全检查中。相比透视成像系统,CT成像系统不仅可以提供被检查物体的断层图像,还可以提供三维图像,从而使目标物的检测精度大大提高,因此成为机场和车站等重要场所的主流安全检查设备。采用单排或少数几排探测器的CT成像系统虽然具有成本低,体积小等优点,但由于其扫描方式是单层大螺距扫描,导致重建后的三维图像数据的层间距较大,三维图像的清晰度差。这给安检员从重建后的三维图像中判断目标物带来困难。
光线投射(Ray casting)技术是目前使用最为广泛的体绘制方法[1]。但是光线投射最终获得的是二维图像,并不记录数据中不同物体的相对位置关系。
双层次体绘制(Two-Level Volume Rendering)技术[2,3]起源于医学图像中分割后数据和原始数据的融合显示,其要求体绘制采用纹理映射(Texture Mapping)的方式。但纹理映射的成像质量相比采用三线性插值(Trilinear Interpolation)的光线投射技术差,而且视角改变时会产生明显的过渡现象。
对于安全检查领域中的三维图像绘制,期望实现一种使得目标物具有更高视觉优先级的显示效果的方法。在此基础上,还期望能够保留目标物在原始数据中的空间位置关系,以帮助安检员进一步判别目标物。
发明内容
本发明通过一种CT图像数据的融合绘制的方法来实现了上述期望。该方法包括步骤:获得背景的二维图像数据和目标物的二维图像数据;基于目标物的形状对所述目标物的二维图像数据进行插值;利用插值后的所述目标物的二维图像数据绘制所述目标物的三维图像以获得光线初始射入点位置;利用背景的二维图像数据绘制背景的三维图像;基于所述光线初始射入点位置修改背景的三维图像;以及融合绘制背景的三维图像与所述目标物的三维图像。
根据本发明的另一方面,该方法还包括在融合绘制后的三维图像中检测和提取目标物的边缘。
根据本发明的一实施方式,使用光线投射法来进行所述绘制。
根据本发明的另一实施方式,基于所述光线初始射入点位置修改背景的三维图像包括修改背景的正面深度三维图像和背面深度三维图像。
根据本发明的另一实施方式,在绘制目标物的三维图像时使用多渲染目标技术来获得所述光线初始射入点位置。
通过本发明的绘制方法,可以改善目标物的三维图像绘制质量,提高目标物在背景图像中的视觉优先级别,同时保留目标物在背景图像中的空间位置关系,从而有助于安检员进一步识别目标物。
附图说明
下面借助实施例结合附图描述本发明。
图1a示出双层次体绘制的原理示意图;
图1b示出双层次体绘制中光线射入和射出位置调整的原理示意图;
图2示出本发明用于对CT图像数据进行融合绘制的方法的实施例的流程图;
图3示出使用本发明的方法的实施例绘制目标物的三维图像的结果示意图;
图4示出目标物三维图像的多渲染目标结果示意图;
图5示出修改前后的背景三维图像对比示意图;
图6示出背景三维图像与目标物三维图像的融合绘制结果示意图;
图7示出背景三维图像与目标物三维图像的直接融合与按照本发明方法的实施例融合的对比示意图;
图8示出在融合后的三维图像中提取目标物轮廓的结果示意图。
具体实施方式
图1a示出融合绘制的原理性示意图,这种融合绘制也称为双层次体绘制。将投射光线射入二维图像数据,根据当前光线位置检索的体素所属的数据类型,采用不同的绘制方法,此为绘制层次一;然后将不同类型的绘制结果进行融合,此为绘制层次二。图1b示出该双层次体绘制中光线射入和射出位置调整的原理示意图,下面将结合本发明方法的实施例详细说明。
图2示出本发明用于对CT图像数据进行融合绘制的方法的一个实施例的流程图。
首先在图2的方法的步骤S100中,获得背景的二维图像数据和目标物的二维图像数据。这可以通过双能安检CT成像系统来获得,该CT成像系统能够通过扫描获得物体的灰度数据和材质数据。由此才能利用背景的二维图像数据和目标物的二维图像数据分别绘制背景的三维图像和目标物的三维图像。
在三维图像的绘制中,目标物的绘制质量对于安检员读取图像非常重要。由于目标物的自动识别是在重建后的三维断层数据上、即在所绘制的三维图像上进行,所以绘制的目标物的三维图像数据间的层间距值很大,直接造成了目标物的绘制效果较差。
因此在本发明方法的该实施例中,在融合绘制之前对目标物的二维图像数据进行处理,以增加数据层数,从而提高目标物的三维绘制质量。在图2所示方法的步骤S200中,采用基于形状的插值方法来处理该目标物的二维图像数据。
在该步骤中,首先对每一个切片都生成距离图(Distance Map)。在针对每个切片的距离图中,每一个元素表示该切片中当前像素到该切片边界的最短欧式距离,其中如果使用切片所在平面截取体数据,则平面和体数据的截交线被定义为切片边界。在目标物内部该距离为负,在目标物外部该距离为正。然后对距离图在z方向进行插值。最后设定阈值,只保留灰度值为0的部分。图3示出了在通过本发明基于形状的插值之后所绘制的目标物三维图像的结果。如图3所示,右上角的图为未经处理的目标物绘制结果;左上角的图为插值后的目标物绘制结果。可以看出,经过本发明的插值后,目标物的绘制质量有了明显的改善。
对于目标物,不同范围的灰度值可表示不同种类的危险物;而对于同一种危险物,可以使用固定的颜色进行绘制。此外为了更好地表现目标物的形状,对目标物的体绘制采用phong光照模型。图3的左下角和右下角的图分别为未加载光照的绘制结果,而左上角和右上角的图分别为加载了phong光照的绘制结果。
接着在图2的方法的步骤S300中绘制目标物的三维图像。在对目标物绘制三维图像时,采用多渲染目标(Multiple Render Targets,MRT)技术分别获得光线的初始射入点位置(First Hit Position,FHP)和直接体绘制(Direct Volume Rendering,DVR)结果。MRT可以使片段着色程序将每像素的数据保存到不同的缓冲区中。FHP结果记录的是光线投射过程中,光线第一次击中体数据非透明区域的位置。此位置在光线积分的同时进行记录,将在体纹理坐标系下的击中位置(hit position)存储在输出像素颜色的RGB通道中。FHP结果在图4左侧的图中示出。DVR结果记录的是对目标物二维图像数据的体绘制结果,其在图4右侧的图中示出。
然后绘制背景的三维图像,如图2的方法的步骤S400所示。在该步骤中,背景的三维图像绘制是通过光线投射方法来进行的。在光线投射过程中使用CT原始数据的实际包围盒作为体纹理的载体,体纹理通过纹理坐标和包围盒进行对应,然后从视点向模型上的点引射线,该射线穿越包围盒空间就等价于射线穿越了体纹理。在当前视角下,绘制数据包围盒,剔除深度值较大的片段,渲染场景深度图获得正面深度图。另一方面剔除深度值较小的片段,渲染场景深度图获得背面深度图。背景的正面和背面的深度图渲染结果分别在图5的左上角和右上角的示意图中示出。
在绘制了背景的三维图像和目标物的三维图像之后,就可以对背景的三维图像和目标物的三维图像进行融合绘制了。但在融合绘制之前,首先在图2的方法的步骤S500中根据上述FHP结果,修改所获得的背景的正面、背面深度图像数据,从而对此时的光线的射入和射出位置进行调整。所述光线射入和射出位置调整的原理已在图1b中示出。
从图1b可以看出,四方形的整个边a1和a2为调整后的光线射入位置,而边a3和a4中的加粗部分以及中间曲线a5的加粗部分为调整后的光线射出位置。光线的光线投射的起始位置不变;而光线的射出位置由于目标物的遮挡,在目标物对应的FHP位置截止。在光线的射入和射出位置调整后背景的正面和背面深度图像渲染结果分别在图5的左下角和右下角的示意图中示出。
接着根据所获得的新的正、背面深度图像重新绘制背景的三维图像,并且还重新绘制目标物的三维图像,如图2的方法的步骤S600所示。在该步骤中,从观察点发射出若干条光线,光线要通过成像平面上的每一个像素。分别检索正、背面深度图,获得当前光线的射入和射出位置。对任意一条穿过物体的光线,根据光线经过体素的不透明度,将该体素位置的颜色值经过累加获得成像平面上对应像素的值,从而获得如图6左上角所示的背景三维图像。同理对目标物的二维图像数据进行光线投射,获得图6右上角所示的目标物的三维图像绘制结果。
在步骤S600中接着对重新绘制的背景三维图像和目标物三维图像进行本领域公知的Alpha融合,获得图6左下角所示的绘制结果。
在本发明方法的该实施例中,使用目标物的绘制数据的FHP结果修改背景的正面和背面深度图像,从而对此时的光线射入和射出位置进行调整。这种融合绘制保留了目标物在背景中的空间位置关系。图7示出未采用本发明的方法而对背景三维图像与目标物三维图像直接融合绘制的结果与采用本发明的方法融合绘制的结果的比较。在图7左侧的图中是首先将背景二维图像数据和目标物二维图像数据分别进行光线投射,然后将光线投射的结果进行融合绘制的结果。这种常规的做法无法体现目标物在空间中的位置和遮挡关系。而在图7右侧的图中示出采用本发明的方法获得的融合结果,其保留了目标物在原背景中的空间位置关系。
最后,在获得了融合绘制的三维图像之后,还可以在该三维图像中提取目标物的轮廓,以突出显示该目标物,如图2的方法的步骤S700所示。
对于一个观察视角,目标物的最终体绘制结果是一幅图像。该图像被存储在帧缓存对象(Frame Buffer Object,FBO)中,以便于进行纹理烘焙(Texture Baking)。为突出目标物的显示效果,可以如图2的方法的步骤S700那样在图像空间中对该最终体绘制结果使用sobel算子进行目标物边缘的检测和提取,其结果如图8左侧的图所示。每次旋转视角,都在新生成的FBO中重复进行目标物边缘的提取,从而避免了三维轮廓提取的高昂运算代价,同时获得相似的视觉效果。图8右侧的图示出最终的绘制效果。
通过这种方式,安检员可以通过在最终的体绘制图像中点击目标物而使该目标物突出显示,或者也可以自动将已经识别出的目标物通过该边缘检测和提取突出显示,从而能够使安检员将目标物与其它物体快速区分开,同时也表明目标物的范围。
本发明所公开的方法可以通过计算机软件或硬件或其组合来实施。
在此公开的实施例仅仅以示例方式描述了用于对CT图像数据进行融合绘制的方法。本领域技术人员可以理解,在不脱离所附权利要求所限定的精神和范围的情况下,可以对所公开的实施例进行各种变化和修改。
参考文献:
[1] Max N. Optical models for direct volume rendering. IEEETransactions on Visualization and Computer Graphics, 1995, 1(2): 99-108.
[2] M. Hadwiger, C. Berger, and H. Hauser. High-quality two-levelvolume rendering of segmented data sets on consumer graphics hardware. InProceedings of IEEE Visualization 2003, pp. 301-308. Los Alamitos, CA:IEEEPress, 2003.
[3] Helwig Hauser, Lukas Mroz, Gian-Italo Bischi, and Eduard Groller.Two-level volume rendering – fusing MIP and DVR. In proceedings of IEEEVisualization, pp. 211-218. Los Alamitos, CA: IEEE Press, 2000.

Claims (6)

1.一种CT图像数据的融合绘制的方法,包括步骤:
获得背景的二维图像数据和目标物的二维图像数据;
基于所述目标物的形状对所述目标物的二维图像数据进行插值;
利用插值后的所述目标物的二维图像数据绘制所述目标物的三维图像以获得光线初始射入点位置,其中所述光线初始射入点位置是光线第一次击中所述目标物的位置;
利用背景的二维图像数据绘制背景的三维图像;
基于所述光线初始射入点位置调整修改背景的三维图像,以对光线的射入和射出位置进行调整;以及
融合绘制背景的三维图像与所述目标物的三维图像。
2.根据权利要求1所述的方法,还包括:
在融合绘制后的三维图像中检测和提取目标物的边缘。
3.根据权利要求1所述的方法,其中,使用光线投射法来进行所述绘制。
4.根据权利要求1所述的方法,其中,基于所述光线初始射入点位置修改背景的三维图像包括修改背景的正面深度三维图像和背面深度三维图像。
5.根据权利要求1所述的方法,其中,在绘制目标物的三维图像时使用多渲染目标技术来获得所述光线初始射入点位置。
6.一种CT图像数据的融合绘制的装置,包括:
用于获得背景的二维图像数据和目标物的二维图像数据的装置;
用于基于所述目标物的形状对所述目标物的二维图像数据进行插值的装置;
用于利用插值后的所述目标物的二维图像数据绘制所述目标物的三维图像以获得光线初始射入点位置的装置,其中所述光线初始射入点位置是光线第一次击中所述目标物的位置;
用于利用背景的二维图像数据绘制背景的三维图像的装置;
用于基于所述光线初始射入点位置修改背景的三维图像的装置,以对光线的射入和射出位置进行调整;以及
用于融合绘制背景的三维图像与所述目标物的三维图像的装置。
CN201310574486.5A 2013-11-18 2013-11-18 Ct图像数据的融合绘制方法 Active CN104658034B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201310574486.5A CN104658034B (zh) 2013-11-18 2013-11-18 Ct图像数据的融合绘制方法
US14/540,413 US9324125B2 (en) 2013-11-18 2014-11-13 Methods and apparatuses for rendering CT image data
EP14193139.4A EP2874123A3 (en) 2013-11-18 2014-11-14 Method and apparatus for rendering CT image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310574486.5A CN104658034B (zh) 2013-11-18 2013-11-18 Ct图像数据的融合绘制方法

Publications (2)

Publication Number Publication Date
CN104658034A CN104658034A (zh) 2015-05-27
CN104658034B true CN104658034B (zh) 2019-03-01

Family

ID=52394815

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310574486.5A Active CN104658034B (zh) 2013-11-18 2013-11-18 Ct图像数据的融合绘制方法

Country Status (3)

Country Link
US (1) US9324125B2 (zh)
EP (1) EP2874123A3 (zh)
CN (1) CN104658034B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488761B (zh) * 2015-12-29 2019-03-26 北京金山安全软件有限公司 一种拼接图片的处理方法及装置
CN111768496B (zh) * 2017-08-24 2024-02-09 Oppo广东移动通信有限公司 图像处理方法、装置、服务器及计算机可读存储介质
CN109697688B (zh) * 2017-10-20 2023-08-04 虹软科技股份有限公司 一种用于图像处理的方法和装置
CN109872395B (zh) * 2019-01-24 2023-06-02 中国医学科学院北京协和医院 一种基于面片模型的x射线图像模拟方法
CN109920040B (zh) * 2019-03-01 2023-10-27 京东方科技集团股份有限公司 显示场景处理方法和装置、存储介质
US11398072B1 (en) * 2019-12-16 2022-07-26 Siemens Healthcare Gmbh Method of obtaining a set of values for a respective set of parameters for use in a physically based path tracing process and a method of rendering using a physically based path tracing process

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381518A (en) * 1986-04-14 1995-01-10 Pixar Method and apparatus for imaging volume data using voxel values
CN102034265A (zh) * 2010-11-24 2011-04-27 清华大学 一种三维视图获取方法
WO2012138324A1 (en) * 2011-04-04 2012-10-11 Pixar Super light-field lens with focus control and non- spherical lenslet arrays
CN103077557A (zh) * 2013-02-07 2013-05-01 河北大学 一种自适应分层次胸部大数据显示的实现方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5898793A (en) * 1993-04-13 1999-04-27 Karron; Daniel System and method for surface rendering of internal structures within the interior of a solid object
EP1638459A2 (en) * 2003-06-11 2006-03-29 Case Western Reserve University Computer-aided-design of skeletal implants
US7839404B2 (en) * 2006-07-25 2010-11-23 Siemens Medical Solutions Usa, Inc. Systems and methods of direct volume rendering
US8320659B2 (en) 2007-08-01 2012-11-27 Telesecurity Sciences, Inc. Method for customs inspection of baggage and cargo
DK2828830T3 (en) * 2012-03-20 2018-03-05 Siemens Corp Luggage visualization and virtual unpacking
US9390548B2 (en) * 2014-06-16 2016-07-12 Sap Se Three-dimensional volume rendering using an in-memory database

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381518A (en) * 1986-04-14 1995-01-10 Pixar Method and apparatus for imaging volume data using voxel values
CN102034265A (zh) * 2010-11-24 2011-04-27 清华大学 一种三维视图获取方法
WO2012138324A1 (en) * 2011-04-04 2012-10-11 Pixar Super light-field lens with focus control and non- spherical lenslet arrays
CN103077557A (zh) * 2013-02-07 2013-05-01 河北大学 一种自适应分层次胸部大数据显示的实现方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Two-level Volume Rendering;Helwig Hauser etc.;《 IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS》;20010731;第7卷(第3期);第245页左栏3.2节第1-3段、右栏第1-2段,第245页右栏3.3节第1段,第246页左栏3.3节第1段,第250页左栏3.2节第1段,附图6

Also Published As

Publication number Publication date
CN104658034A (zh) 2015-05-27
EP2874123A2 (en) 2015-05-20
US20150206326A1 (en) 2015-07-23
US9324125B2 (en) 2016-04-26
EP2874123A3 (en) 2016-02-17

Similar Documents

Publication Publication Date Title
CN104658034B (zh) Ct图像数据的融合绘制方法
Koch et al. Evaluation of cnn-based single-image depth estimation methods
CN105761308B (zh) 一种地面LiDAR和影像数据融合的遮挡区域建筑物立面重建方法
Yang Dealing with textureless regions and specular highlights-a progressive space carving scheme using a novel photo-consistency measure
Qin et al. 3D change detection at street level using mobile laser scanning point clouds and terrestrial images
JP5651909B2 (ja) エッジの検出およびシェーダの再利用による多視点光線追跡
Hu et al. Efficient tree modeling from airborne LiDAR point clouds
CN104574393B (zh) 一种三维路面裂缝图像生成系统和方法
CN104091324B (zh) 一种基于连通域分割的棋盘格图像快速特征匹配算法
CN103247045B (zh) 一种从多视图中得到人造场景主方向及图像边缘的方法
WO2015196992A1 (zh) 安检ct系统及其方法
CN104567758B (zh) 立体成像系统及其方法
Chen et al. Dynamic occlusion detection and inpainting of in situ captured terrestrial laser scanning point clouds sequence
KR102265248B1 (ko) 3-d 이미징에 의해 장면의 오브젝트들의 구별 및 식별을 위한 방법
CN112734908A (zh) 一种面向行驶车辆的汽车底盘三维重建系统及其工作方法
JP4082718B2 (ja) 画像認識方法および画像表示方法および画像認識装置
Kang et al. Automatic texture reconstruction of 3d city model from oblique images
CN116188385A (zh) 三维ct图像中目标对象剥离方法、装置和安检ct系统
Slabaugh et al. Image-based photo hulls for fast and photo-realistic new view synthesis
Guo et al. Fast Defogging and Restoration Assessment Approach to Road Scene Images*.
KR20130117668A (ko) 3차원 볼륨 데이터 생성 방법
Wei et al. Dense and occlusion-robust multi-view stereo for unstructured videos
EP4099270A1 (en) Depth segmentation in multi-view videos
Yilmaz et al. Appearance reconstruction of three dimensional models from real images
Ozun et al. Comparison of photoconsistency measures used in voxel coloring

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant