CN104658034A - Ct图像数据的融合绘制方法 - Google Patents
Ct图像数据的融合绘制方法 Download PDFInfo
- Publication number
- CN104658034A CN104658034A CN201310574486.5A CN201310574486A CN104658034A CN 104658034 A CN104658034 A CN 104658034A CN 201310574486 A CN201310574486 A CN 201310574486A CN 104658034 A CN104658034 A CN 104658034A
- Authority
- CN
- China
- Prior art keywords
- view
- dimensional image
- image data
- background
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000009877 rendering Methods 0.000 title claims abstract description 21
- 230000004927 fusion Effects 0.000 title claims abstract description 16
- 238000002591 computed tomography Methods 0.000 title abstract description 6
- 238000005516 engineering process Methods 0.000 claims description 7
- 238000012805 post-processing Methods 0.000 claims description 4
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 230000005610 quantum mechanics Effects 0.000 claims description 2
- 238000002347 injection Methods 0.000 abstract description 5
- 239000007924 injection Substances 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 11
- 238000013170 computed tomography imaging Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 239000012634 fragment Substances 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 230000000149 penetrating effect Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- RKTYLMNFRDHKIL-UHFFFAOYSA-N copper;5,10,15,20-tetraphenylporphyrin-22,24-diide Chemical compound [Cu+2].C1=CC(C(=C2C=CC([N-]2)=C(C=2C=CC=CC=2)C=2C=CC(N=2)=C(C=2C=CC=CC=2)C2=CC=C3[N-]2)C=2C=CC=CC=2)=NC1=C3C1=CC=CC=C1 RKTYLMNFRDHKIL-UHFFFAOYSA-N 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000002594 fluoroscopy Methods 0.000 description 1
- 238000003286 fusion draw glass process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/008—Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/40—Hidden part removal
- G06T15/405—Hidden part removal using Z-buffer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/60—Shadow generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/50—Lighting effects
- G06T15/80—Shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/403—Edge-driven scaling; Edge-based scaling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/04—Architectural design, interior design
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/12—Shadow map, environment map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2008—Assembling, disassembling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Image Generation (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明涉及一种CT图像数据的融合绘制的方法。该方法包括步骤:获得背景的二维图像数据和目标物的二维图像数据;基于目标物的形状对所述目标物的二维图像数据进行插值;利用插值后的所述目标物的二维图像数据绘制所述目标物的三维图像以获得光线初始射入点位置;利用背景的二维图像数据绘制背景的三维图像;基于所述光线初始射入点位置修改背景的三维图像;以及融合绘制背景的三维图像与所述目标物的三维图像。本发明还涉及用于执行该方法的装置。
Description
技术领域
本发明涉及三维图像绘制领域,具体地说涉及一种用于对CT(Computed Tomography,计算机断层扫描成像)图像数据进行融合绘制的方法。
背景技术
CT成像系统广泛地用于医学成像和目标物检测,例如在安全检查中。相比透视成像系统,CT成像系统不仅可以提供被检查物体的断层图像,还可以提供三维图像,从而使目标物的检测精度大大提高,因此成为机场和车站等重要场所的主流安全检查设备。采用单排或少数几排探测器的CT成像系统虽然具有成本低,体积小等优点,但由于其扫描方式是单层大螺距扫描,导致重建后的三维图像数据的层间距较大,三维图像的清晰度差。这给安检员从重建后的三维图像中判断目标物带来困难。
光线投射(Ray casting)技术是目前使用最为广泛的体绘制方法[1]。但是光线投射最终获得的是二维图像,并不记录数据中不同物体的相对位置关系。
双层次体绘制(Two-Level Volume Rendering)技术[2,3]起源于医学图像中分割后数据和原始数据的融合显示,其要求体绘制采用纹理映射(Texture Mapping)的方式。但纹理映射的成像质量相比采用三线性插值(Trilinear Interpolation)的光线投射技术差,而且视角改变时会产生明显的过渡现象。
对于安全检查领域中的三维图像绘制,期望实现一种使得目标物具有更高视觉优先级的显示效果的方法。在此基础上,还期望能够保留目标物在原始数据中的空间位置关系,以帮助安检员进一步判别目标物。
发明内容
本发明通过一种CT图像数据的融合绘制的方法来实现了上述期望。该方法包括步骤:获得背景的二维图像数据和目标物的二维图像数据;基于目标物的形状对所述目标物的二维图像数据进行插值;利用插值后的所述目标物的二维图像数据绘制所述目标物的三维图像以获得光线初始射入点位置;利用背景的二维图像数据绘制背景的三维图像;基于所述光线初始射入点位置修改背景的三维图像;以及融合绘制背景的三维图像与所述目标物的三维图像。
根据本发明的另一方面,该方法还包括在融合绘制后的三维图像中检测和提取目标物的边缘。
根据本发明的一实施方式,使用光线投射法来进行所述绘制。
根据本发明的另一实施方式,基于所述光线初始射入点位置修改背景的三维图像包括修改背景的正面深度三维图像和背面深度三维图像。
根据本发明的另一实施方式,在绘制目标物的三维图像时使用多渲染目标技术来获得所述光线初始射入点位置。
通过本发明的绘制方法,可以改善目标物的三维图像绘制质量,提高目标物在背景图像中的视觉优先级别,同时保留目标物在背景图像中的空间位置关系,从而有助于安检员进一步识别目标物。
附图说明
下面借助实施例结合附图描述本发明。
图1a示出双层次体绘制的原理示意图;
图1b示出双层次体绘制中光线射入和射出位置调整的原理示意图;
图2示出本发明用于对CT图像数据进行融合绘制的方法的实施例的流程图;
图3示出使用本发明的方法的实施例绘制目标物的三维图像的结果示意图;
图4示出目标物三维图像的多渲染目标结果示意图;
图5示出修改前后的背景三维图像对比示意图;
图6示出背景三维图像与目标物三维图像的融合绘制结果示意图;
图7示出背景三维图像与目标物三维图像的直接融合与按照本发明方法的实施例融合的对比示意图;
图8示出在融合后的三维图像中提取目标物轮廓的结果示意图。
具体实施方式
图1a示出融合绘制的原理性示意图,这种融合绘制也称为双层次体绘制。将投射光线射入二维图像数据,根据当前光线位置检索的体素所属的数据类型,采用不同的绘制方法,此为绘制层次一;然后将不同类型的绘制结果进行融合,此为绘制层次二。图1b示出该双层次体绘制中光线射入和射出位置调整的原理示意图,下面将结合本发明方法的实施例详细说明。
图2示出本发明用于对CT图像数据进行融合绘制的方法的一个实施例的流程图。
首先在图2的方法的步骤S100中,获得背景的二维图像数据和目标物的二维图像数据。这可以通过双能安检CT成像系统来获得,该CT成像系统能够通过扫描获得物体的灰度数据和材质数据。由此才能利用背景的二维图像数据和目标物的二维图像数据分别绘制背景的三维图像和目标物的三维图像。
在三维图像的绘制中,目标物的绘制质量对于安检员读取图像非常重要。由于目标物的自动识别是在重建后的三维断层数据上、即在所绘制的三维图像上进行,所以绘制的目标物的三维图像数据间的层间距值很大,直接造成了目标物的绘制效果较差。
因此在本发明方法的该实施例中,在融合绘制之前对目标物的二维图像数据进行处理,以增加数据层数,从而提高目标物的三维绘制质量。在图2所示方法的步骤S200中,采用基于形状的插值方法来处理该目标物的二维图像数据。
在该步骤中,首先对每一个切片都生成距离图(Distance Map)。在针对每个切片的距离图中,每一个元素表示该切片中当前像素到该切片边界的最短欧式距离,其中如果使用切片所在平面截取体数据,则平面和体数据的截交线被定义为切片边界。在目标物内部该距离为负,在目标物外部该距离为正。然后对距离图在z方向进行插值。最后设定阈值,只保留灰度值为0的部分。图3示出了在通过本发明基于形状的插值之后所绘制的目标物三维图像的结果。如图3所示,右上角的图为未经处理的目标物绘制结果;左上角的图为插值后的目标物绘制结果。可以看出,经过本发明的插值后,目标物的绘制质量有了明显的改善。
对于目标物,不同范围的灰度值可表示不同种类的危险物;而对于同一种危险物,可以使用固定的颜色进行绘制。此外为了更好地表现目标物的形状,对目标物的体绘制采用phong光照模型。图3的左下角和右下角的图分别为未加载光照的绘制结果,而左上角和右上角的图分别为加载了phong光照的绘制结果。
接着在图2的方法的步骤S300中绘制目标物的三维图像。在对目标物绘制三维图像时,采用多渲染目标(Multiple Render Targets,MRT)技术分别获得光线的初始射入点位置(First Hit Position,FHP)和直接体绘制(Direct Volume Rendering,DVR)结果。MRT可以使片段着色程序将每像素的数据保存到不同的缓冲区中。FHP结果记录的是光线投射过程中,光线第一次击中体数据非透明区域的位置。此位置在光线积分的同时进行记录,将在体纹理坐标系下的击中位置(hit position)存储在输出像素颜色的RGB通道中。FHP结果在图4左侧的图中示出。DVR结果记录的是对目标物二维图像数据的体绘制结果,其在图4右侧的图中示出。
然后绘制背景的三维图像,如图2的方法的步骤S400所示。在该步骤中,背景的三维图像绘制是通过光线投射方法来进行的。在光线投射过程中使用CT原始数据的实际包围盒作为体纹理的载体,体纹理通过纹理坐标和包围盒进行对应,然后从视点向模型上的点引射线,该射线穿越包围盒空间就等价于射线穿越了体纹理。在当前视角下,绘制数据包围盒,剔除深度值较大的片段,渲染场景深度图获得正面深度图。另一方面剔除深度值较小的片段,渲染场景深度图获得背面深度图。背景的正面和背面的深度图渲染结果分别在图5的左上角和右上角的示意图中示出。
在绘制了背景的三维图像和目标物的三维图像之后,就可以对背景的三维图像和目标物的三维图像进行融合绘制了。但在融合绘制之前,首先在图2的方法的步骤S500中根据上述FHP结果,修改所获得的背景的正面、背面深度图像数据,从而对此时的光线的射入和射出位置进行调整。所述光线射入和射出位置调整的原理已在图1b中示出。
从图1b可以看出,四方形的整个边a1和a2为调整后的光线射入位置,而边a3和a4中的加粗部分以及中间曲线a5的加粗部分为调整后的光线射出位置。光线 ,的光线投射的起始位置不变;而光线的射出位置由于目标物的遮挡,在目标物对应的FHP位置截止。在光线的射入和射出位置调整后背景的正面和背面深度图像渲染结果分别在图5的左下角和右下角的示意图中示出。
接着根据所获得的新的正、背面深度图像重新绘制背景的三维图像,并且还重新绘制目标物的三维图像,如图2的方法的步骤S600所示。在该步骤中,从观察点发射出若干条光线,光线要通过成像平面上的每一个像素。分别检索正、背面深度图,获得当前光线的射入和射出位置。对任意一条穿过物体的光线,根据光线经过体素的不透明度,将该体素位置的颜色值经过累加获得成像平面上对应像素的值,从而获得如图6左上角所示的背景三维图像。同理对目标物的二维图像数据进行光线投射,获得图6右上角所示的目标物的三维图像绘制结果。
在步骤S600中接着对重新绘制的背景三维图像和目标物三维图像进行本领域公知的Alpha融合,获得图6左下角所示的绘制结果。
在本发明方法的该实施例中,使用目标物的绘制数据的FHP结果修改背景的正面和背面深度图像,从而对此时的光线射入和射出位置进行调整。这种融合绘制保留了目标物在背景中的空间位置关系。图7示出未采用本发明的方法而对背景三维图像与目标物三维图像直接融合绘制的结果与采用本发明的方法融合绘制的结果的比较。在图7左侧的图中是首先将背景二维图像数据和目标物二维图像数据分别进行光线投射,然后将光线投射的结果进行融合绘制的结果。这种常规的做法无法体现目标物在空间中的位置和遮挡关系。而在图7右侧的图中示出采用本发明的方法获得的融合结果,其保留了目标物在原背景中的空间位置关系。
最后,在获得了融合绘制的三维图像之后,还可以在该三维图像中提取目标物的轮廓,以突出显示该目标物,如图2的方法的步骤S700所示。
对于一个观察视角,目标物的最终体绘制结果是一幅图像。该图像被存储在帧缓存对象(Frame Buffer Object,FBO)中,以便于进行纹理烘焙(Texture Baking)。为突出目标物的显示效果,可以如图2的方法的步骤S700那样在图像空间中对该最终体绘制结果使用sobel算子进行目标物边缘的检测和提取,其结果如图8左侧的图所示。每次旋转视角,都在新生成的FBO中重复进行目标物边缘的提取,从而避免了三维轮廓提取的高昂运算代价,同时获得相似的视觉效果。图8右侧的图示出最终的绘制效果。
通过这种方式,安检员可以通过在最终的体绘制图像中点击目标物而使该目标物突出显示,或者也可以自动将已经识别出的目标物通过该边缘检测和提取突出显示,从而能够使安检员将目标物与其它物体快速区分开,同时也表明目标物的范围。
本发明所公开的方法可以通过计算机软件或硬件或其组合来实施。
在此公开的实施例仅仅以示例方式描述了用于对CT图像数据进行融合绘制的方法。本领域技术人员可以理解,在不脱离所附权利要求所限定的精神和范围的情况下,可以对所公开的实施例进行各种变化和修改。
参考文献:
[1] Max N. Optical models for direct volume rendering. IEEE Transactions on Visualization and Computer Graphics, 1995, 1(2): 99-108.
[2] M. Hadwiger, C. Berger, and H. Hauser. High-quality two-level volume rendering of segmented data sets on consumer graphics hardware. In Proceedings of IEEE Visualization 2003, pp. 301-308. Los Alamitos, CA:IEEE Press, 2003.
[3] Helwig Hauser, Lukas Mroz, Gian-Italo Bischi, and Eduard Groller. Two-level volume rendering – fusing MIP and DVR. In proceedings of IEEE Visualization, pp. 211-218. Los Alamitos, CA: IEEE Press, 2000。
Claims (6)
1. 一种CT图像数据的融合绘制的方法,包括步骤:
获得背景的二维图像数据和目标物的二维图像数据;
基于目标物的形状对所述目标物的二维图像数据进行插值;
利用插值后的所述目标物的二维图像数据绘制所述目标物的三维图像以获得光线初始射入点位置;
利用背景的二维图像数据绘制背景的三维图像;
基于所述光线初始射入点位置调整修改背景的三维图像;以及
融合绘制背景的三维图像与所述目标物的三维图像。
2. 根据权利要求1所述的方法,还包括:
在融合绘制后的三维图像中检测和提取目标物的边缘。
3. 根据权利要求1所述的方法,其中,使用光线投射法来进行所述绘制。
4. 根据权利要求1所述的方法,其中,基于所述光线初始射入点位置修改背景的三维图像包括修改背景的正面深度三维图像和背面深度三维图像。
5. 根据权利要求1所述的方法,其中,在绘制目标物的三维图像时使用多渲染目标技术来获得所述光线初始射入点位置。
6. 一种CT图像数据的融合绘制的装置,包括:
用于获得背景的二维图像数据和目标物的二维图像数据的装置;
用于基于目标物的形状对所述目标物的二维图像数据进行插值的装置;
用于利用插值后的所述目标物的二维图像数据绘制所述目标物的三维图像以获得光线初始射入点位置的装置;
用于利用背景的二维图像数据绘制背景的三维图像的装置;
用于基于所述光线初始射入点位置修改背景的三维图像的装置;以及
用于融合绘制背景的三维图像与所述目标物的三维图像的装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310574486.5A CN104658034B (zh) | 2013-11-18 | 2013-11-18 | Ct图像数据的融合绘制方法 |
US14/540,413 US9324125B2 (en) | 2013-11-18 | 2014-11-13 | Methods and apparatuses for rendering CT image data |
EP14193139.4A EP2874123A3 (en) | 2013-11-18 | 2014-11-14 | Method and apparatus for rendering CT image data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310574486.5A CN104658034B (zh) | 2013-11-18 | 2013-11-18 | Ct图像数据的融合绘制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104658034A true CN104658034A (zh) | 2015-05-27 |
CN104658034B CN104658034B (zh) | 2019-03-01 |
Family
ID=52394815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310574486.5A Active CN104658034B (zh) | 2013-11-18 | 2013-11-18 | Ct图像数据的融合绘制方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9324125B2 (zh) |
EP (1) | EP2874123A3 (zh) |
CN (1) | CN104658034B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107393000A (zh) * | 2017-08-24 | 2017-11-24 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、服务器及计算机可读存储介质 |
CN109872395A (zh) * | 2019-01-24 | 2019-06-11 | 中国医学科学院北京协和医院 | 一种基于面片模型的x射线图像模拟方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488761B (zh) * | 2015-12-29 | 2019-03-26 | 北京金山安全软件有限公司 | 一种拼接图片的处理方法及装置 |
CN109697688B (zh) | 2017-10-20 | 2023-08-04 | 虹软科技股份有限公司 | 一种用于图像处理的方法和装置 |
CN109920040B (zh) * | 2019-03-01 | 2023-10-27 | 京东方科技集团股份有限公司 | 显示场景处理方法和装置、存储介质 |
US11398072B1 (en) * | 2019-12-16 | 2022-07-26 | Siemens Healthcare Gmbh | Method of obtaining a set of values for a respective set of parameters for use in a physically based path tracing process and a method of rendering using a physically based path tracing process |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5381518A (en) * | 1986-04-14 | 1995-01-10 | Pixar | Method and apparatus for imaging volume data using voxel values |
CN102034265A (zh) * | 2010-11-24 | 2011-04-27 | 清华大学 | 一种三维视图获取方法 |
WO2012138324A1 (en) * | 2011-04-04 | 2012-10-11 | Pixar | Super light-field lens with focus control and non- spherical lenslet arrays |
CN103077557A (zh) * | 2013-02-07 | 2013-05-01 | 河北大学 | 一种自适应分层次胸部大数据显示的实现方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5898793A (en) * | 1993-04-13 | 1999-04-27 | Karron; Daniel | System and method for surface rendering of internal structures within the interior of a solid object |
WO2004110309A2 (en) * | 2003-06-11 | 2004-12-23 | Case Western Reserve University | Computer-aided-design of skeletal implants |
US7839404B2 (en) * | 2006-07-25 | 2010-11-23 | Siemens Medical Solutions Usa, Inc. | Systems and methods of direct volume rendering |
US8320659B2 (en) | 2007-08-01 | 2012-11-27 | Telesecurity Sciences, Inc. | Method for customs inspection of baggage and cargo |
US10019833B2 (en) * | 2012-03-20 | 2018-07-10 | Siemens Corporation | Luggage visualization and virtual unpacking |
US9390548B2 (en) * | 2014-06-16 | 2016-07-12 | Sap Se | Three-dimensional volume rendering using an in-memory database |
-
2013
- 2013-11-18 CN CN201310574486.5A patent/CN104658034B/zh active Active
-
2014
- 2014-11-13 US US14/540,413 patent/US9324125B2/en active Active
- 2014-11-14 EP EP14193139.4A patent/EP2874123A3/en not_active Ceased
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5381518A (en) * | 1986-04-14 | 1995-01-10 | Pixar | Method and apparatus for imaging volume data using voxel values |
CN102034265A (zh) * | 2010-11-24 | 2011-04-27 | 清华大学 | 一种三维视图获取方法 |
WO2012138324A1 (en) * | 2011-04-04 | 2012-10-11 | Pixar | Super light-field lens with focus control and non- spherical lenslet arrays |
CN103077557A (zh) * | 2013-02-07 | 2013-05-01 | 河北大学 | 一种自适应分层次胸部大数据显示的实现方法 |
Non-Patent Citations (1)
Title |
---|
HELWIG HAUSER ETC.: "Two-level Volume Rendering", 《 IEEE TRANSACTIONS ON VISUALIZATION AND COMPUTER GRAPHICS》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107393000A (zh) * | 2017-08-24 | 2017-11-24 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、服务器及计算机可读存储介质 |
CN109872395A (zh) * | 2019-01-24 | 2019-06-11 | 中国医学科学院北京协和医院 | 一种基于面片模型的x射线图像模拟方法 |
CN109872395B (zh) * | 2019-01-24 | 2023-06-02 | 中国医学科学院北京协和医院 | 一种基于面片模型的x射线图像模拟方法 |
Also Published As
Publication number | Publication date |
---|---|
EP2874123A2 (en) | 2015-05-20 |
EP2874123A3 (en) | 2016-02-17 |
CN104658034B (zh) | 2019-03-01 |
US20150206326A1 (en) | 2015-07-23 |
US9324125B2 (en) | 2016-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang | Dealing with textureless regions and specular highlights-a progressive space carving scheme using a novel photo-consistency measure | |
CN104658034A (zh) | Ct图像数据的融合绘制方法 | |
Yoon et al. | Adaptive support-weight approach for correspondence search | |
Waechter et al. | Let there be color! Large-scale texturing of 3D reconstructions | |
CN104574393B (zh) | 一种三维路面裂缝图像生成系统和方法 | |
JP5651909B2 (ja) | エッジの検出およびシェーダの再利用による多視点光線追跡 | |
CN108269266A (zh) | 使用马尔可夫随机场优化来产生分割图像 | |
CN104567758B (zh) | 立体成像系统及其方法 | |
CN105223212A (zh) | 安检ct系统及其方法 | |
Wang et al. | Edge extraction by merging 3D point cloud and 2D image data | |
Bulatov et al. | Multi-view dense matching supported by triangular meshes | |
CN109141384A (zh) | 对地铁隧道完工后的检测前数据的采集和预处理方法 | |
JP6753853B2 (ja) | 3d撮像によりシーンの物体を識別および同定する方法 | |
US20090297055A1 (en) | Supervised edge detection using fractal signatures | |
Biasutti et al. | Range-Image: Incorporating sensor topology for LiDAR point cloud processing | |
Li et al. | Laplacian fusion approach of multi-source point clouds for detail enhancement | |
Ruiters et al. | Heightfield and spatially varying BRDF reconstruction for materials with interreflections | |
CN116188385A (zh) | 三维ct图像中目标对象剥离方法、装置和安检ct系统 | |
JP4082718B2 (ja) | 画像認識方法および画像表示方法および画像認識装置 | |
US20200258233A1 (en) | Landmark visualization for medical image segmentation | |
Shen | Depth-map merging for multi-view stereo with high resolution images | |
Slabaugh et al. | Image-based photo hulls for fast and photo-realistic new view synthesis | |
Wong et al. | 3D object model reconstruction from image sequence based on photometric consistency in volume space | |
US20220405936A1 (en) | Computer-implemented method for segmenting measurement data from a measurement of an object | |
Wei et al. | Dense and occlusion-robust multi-view stereo for unstructured videos |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |