CN112085846A - 用于在成像系统中生成对象3d点云的方法和系统 - Google Patents

用于在成像系统中生成对象3d点云的方法和系统 Download PDF

Info

Publication number
CN112085846A
CN112085846A CN201910514150.7A CN201910514150A CN112085846A CN 112085846 A CN112085846 A CN 112085846A CN 201910514150 A CN201910514150 A CN 201910514150A CN 112085846 A CN112085846 A CN 112085846A
Authority
CN
China
Prior art keywords
machine
point cloud
scanning
height
scanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910514150.7A
Other languages
English (en)
Inventor
徐嫣然
黄煜
孟凡波
R·普拉萨德
A·帕乌许
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Precision Healthcare LLC
Original Assignee
GE Precision Healthcare LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Precision Healthcare LLC filed Critical GE Precision Healthcare LLC
Priority to CN201910514150.7A priority Critical patent/CN112085846A/zh
Priority to US16/890,304 priority patent/US20200390406A1/en
Priority to JP2020102248A priority patent/JP6983482B2/ja
Publication of CN112085846A publication Critical patent/CN112085846A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0407Supports, e.g. tables or beds, for the body or parts of the body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/10Application or adaptation of safety means
    • A61B6/102Protection against mechanical damage, e.g. anti-collision devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0487Motor-assisted positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/465Displaying means of special interest adapted to display user selection data, e.g. graphical user interface, icons or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering

Abstract

用于在包括机台和扫查装置的成像系统中生成对象3D点云的方法包括:基于机台的当前高度和机台的边界信息,从全局3D点云中提取机台所在的有效区域内的有效3D点云,其中,全局3D点云包含对象及其周围环境的3D点云,并且对象3D点云包含在有效3D点云内;以及从有效3D点云中去除周围环境的环境3D点云来获得对象3D点云,其中,周围环境包括机台的至少一部分。在一些实施例中,利用对象3D点云规划机台在成像系统中的移动路径。在一些实施例中,利用对象3D点云在成像系统中进行对象的碰撞预测。

Description

用于在成像系统中生成对象3D点云的方法和系统
技术领域
本公开涉及成像技术,尤其涉及用于在成像系统中生成对象3D点云的方法和系统,还涉及用于规划机台在成像系统中的移动路径的方法和系统,还涉及用于在成像系统中进行对象的碰撞预测的方法和系统。
背景技术
计算机断层扫描(CT)是主要用于医学诊断的成像方法。在CT中,X射线源以及与X射线源共同作用的X射线探测器围绕承载患者的机台旋转,在X射线源和X射线探测器的不同角度位置处进行拍摄。机台可以沿着也被称为系统轴的旋转轴进退移动,并且可以在高度方向上升降移动,以便将患者移动到执行扫查所需的位置。在扫查结束后处理扫查信息,从而产生空间三维(3D)的断层成像的X射线图像。
在传统的CT扫查中,在扫查开始前,操作员利用投射在患者身体上的激光来进行辅助定位。然而,在此之前,需要操作员手动操作机台来将患者移动到可以执行扫查的位置。机台的定位精度依赖于操作员的经验,可能引入操作员的主观误差。
公开内容
发明人认识到,如果能在开始扫查前获得表示对象的三维轮廓的3D点云,则能利用该3D点云辅助操作员将机台移动到可以执行扫查的位置,以便减少或消除操作员的手动操作以及主观误差的引入。因此希望提供一种能够在成像系统中生成对象3D点云的方法和系统。
本公开的一个方面提供一种用于在成像系统中生成对象3D点云的方法,其中成像系统包括:机台,用于承载待扫查对象;和扫查装置,该扫查装置具有允许机台进入其内部的扫查空间,方法包括:基于机台的当前高度和机台的边界信息,从全局3D点云中提取机台所在的有效区域内的有效3D点云,其中,全局3D点云包含对象及其周围环境的3D点云,并且对象3D点云包含在有效3D点云内;以及从有效3D点云中去除周围环境的环境3D点云来获得对象3D点云,其中,周围环境包括机台的至少一部分。
本公开的另一方面提供一种用于规划机台在成像系统中的移动路径的方法,其中成像系统包括:机台,用于承载待扫查对象;和扫查装置,该扫查装置具有允许机台进入其内部的扫查空间,方法包括:基于扫查计划确定对象的对象3D点云中的待扫查区域;定待扫查区域的重心以及重心的高度;基于重心的高度以及扫查空间的中心高度,来确定机台将被定位的目标高度,使得当机台被定位到目标高度时,该重心的高度与扫查空间的中心高度大致相等;以及基于所确定的目标高度,规划机台的移动路径,其中,扫查计划包括待扫查区域相对于对象的定位信息。
本公开的又一方面提供一种用于在成像系统中进行对象的碰撞预测的方法,其中成像系统包括:机台,用于承载待扫查对象;和扫查装置,该扫查装置具有允许机台进入其内部的扫查空间,方法包括:通过判断对象的对象3D点云在机台以规划高度沿着机台的进退方向移动的移动过程中是否会与其周围环境的3D点云产生重叠,来预测对象在移动过程中是否会与周围环境发生碰撞。
附图说明
图1是根据实施例的示例成像系统、例如CT系统100的示意图。
图2是根据实施例的用于生成对象3D点云的方法200的流程图。
图3示出根据实施例的示例全局3D点云以及示例有效区域。
图4示出根据实施例的对象3D点云的示例。
图5示出根据实施例的对象3D点云与利用扫查设备拍摄到的DICOM图像的对比。
图6是根据另一实施例的用于生成对象3D点云的方法600的流程图。
图7是根据实施例的用于规划机台2在本文描述的成像系统中的移动路径的方法700的流程图。
图8是根据实施例的用于在本文描述的成像系统中进行对象22的碰撞预测的方法800的流程图。
图9示出根据实施例的包含安全指示的示例界面。
图10示出根据实施例的包含碰撞警报的示例界面。
图11示出根据实施例的表示预测碰撞发生部位的示例界面。
图12是根据实施例的示例计算设备的框图。
附图一般通过示例的方式而不是限制的方式来图示在本文档中所讨论的各实施例。在附图中(这些附图不一定是按比例绘制的),相同的数字可以描述不同视图中的类似的组件。
具体实施方式
在以下描述中,陈述了众多特定细节。然而,应当理解,可在没有这些特定细节的情况下实践本公开的实施例。在其他实例中,未详细示出公知的电路、结构和技术,以免使对本描述的理解模糊。
说明书中对“一个实施例”、“实施例”、“示例实施例”等的引用表明所描述的实施例可以包括特定的特征、结构或特性,但是每个实施例不一定都包括该特定的特征、结构或特性。此外,此类短语不一定是指同一个实施例。此外,当结合实施例描述特定的特征、结构或特性时,认为结合无论是否被明确描述的其他实施例而影响此类特征、结构或特性是在本领域技术人员的知识范围之内的。
本公开的实施例利用了深度图像数据,通过计算得到对象3D点云,不仅能应用于人体,也能应用于任何其他对象,诸如人类以外的生命体、非生命体等,因此本文将其称为“对象”。此外,本公开的实施例还利用对象3D点云规划机台的移动路径并预测对象在随机台移动的过程中是否会与周围环境(诸如扫查装置)发生碰撞。
本文所描述的深度图像数据可以由深度相机拍摄得到,深度相机可以是基于结构光的相机、立体照相机或飞行时间相机。从深度相机获得的图像数据通常称为RGB-D(RGB+深度)数据,其通常包括RGB图像(其中每个像素具有RGB值)以及深度图像(其中每个像素的值对应于深度或像素离照相机的距离)。本公开主要利用深度图像。
示例性CT系统
图1是根据实施例的示例成像系统、例如CT系统100的示意图,该CT系统100包括扫查装置1与机台2。扫查装置1包括具备系统轴10的扫查空间12、相对地布置于扫查空间12两侧的X射线源14和X射线探测器16,X射线探测器16能够探测X射线源14发出的X射线。机台2用于安置对象22,即,由机台2承载对象22。机台2能够沿着系统轴10进退移动来进入扫查装置1的扫查空间12。机台2能够在高度方向,即,与地面垂直的方向上升高和降低以方便扫查对象上下机台2。在拍摄X射线图像(下文称为“扫查”)的情况下,机台2载着对象22进入扫查空间12,X射线探测器16以及X射线源14可以围绕系统轴10旋转或处于静止状态,X射线探测器16接收X射线源14发射的穿过位于扫查空间12内的对象22的X射线以进行成像。
在一些实施例中,CT系统包括至少一个深度相机3,其被设计为用于无接触地拍摄对象22的表面的至少一个部分并输出深度图像数据。在一些实施例中,深度相机3安装在房间(扫描室)的顶部,以便减少视场(FOV)盲区。在一些实施例中,深度相机3可以中央地定位在对象22上方或者中央地定位在机台2上方。这样使得关于对象22的深度信息的质量和由此生成的对象22的3D点云的质量尽可能均匀。在一些实施例中,深度相机3可以安装或者集成在扫查装置1中或其上。在一些实施例中,深度相机3可以集成在扫查装置1的可旋转部分中,从而能与X射线源14和X射线探测器16一起旋转,由此能以不同的角度拍摄对象22。在一些实施例中,深度相机3可以安装在诸如三脚架的定位装置上。
在一些实施例中,CT系统包括计算设备4,其包括处理器41,该处理器41被配置用于执行本公开的实施例所描述的方法。在一些实施例中,计算设备4被设计为将计算机程序加载到其内部存储器。计算机程序包括由计算设备4可读的命令并且是计算程序产品的本身部分。计算机程序产品例如可以被存储在计算机可读的介质。计算机程序的由计算设备4可读的指令被设计为,当由计算设备4的处理器41执行指令时实施按照本公开的方法。
计算机可读的介质可以包括但不限于通过机器或设备制造或形成的物品的非暂态的有形安排,其包括存储介质,诸如:硬盘;任何其他类型的盘,包括软盘、光盘、只读光盘存储器(CD-ROM)、可读写光盘存储器(CD-RW)以及磁光盘;半导体器件,诸如只读存储器(ROM)、诸如动态随机存取存储器(DRAM)和静态随机存取存储器(SRAM)之类的随机存取存储器(RAM)、可擦除可编程只读存储器(EPROM)、闪存、电可擦除可编程只读存储器(EEPROM);相变存储器(PCM);磁卡或光卡;或适于存储电子指令的任何其他类型的介质。
计算设备4与例如用于显示各种信息的输出单元5连接。输出单元5例如是(多个)LCD、等离子或OLED显示器。在一些实施例中,输出单元5可以安装或集成在扫查装置1上。此外,计算设备4与输入单元6连接。输入单元6例如用于通过用户交互来输入控制指令、扫查计划之类的信息。输入单元6例如是键盘、鼠标、触摸屏或者用于语音输入的麦克风等。在一些实施例中,该扫查装置1包括控制面板,该控制面板可以包括平板显示作为输出单元5及按键作为输入单元6,该控制面板也可以是具有触摸屏的平板显示器。
计算设备4与深度相机3以及扫查装置1相连,使得由深度相机3获得的对象22的深度图像数据、扫查装置1的扫查数据以及CT系统100的实时位置信息能够传送到计算设备4,其中CT系统100的实时位置信息包括系统各部分的当前位置信息,诸如机台2的当前高度、机台2的边界信息。此外,计算设备4能够向扫查装置1和机台2发出指令以便控制机台2的移动以及扫查装置1的扫描。
以上描述了CT系统的示例,但应理解,本公开的方法也适用于其他成像系统,诸如XR(X射线摄影)系统、PET(正电子发射型计算机断层显像)系统或MR(磁共振成像)系统。
示例性对象3D点云的生成方法
图2是根据实施例的用于生成对象3D点云的方法200的流程图。
本实施例的方法总体上从包含对象22及其周围环境的3D点云的全局3D点云中提取机台2所在有效区域的有效3D点云,然后从有效3D点云中去除周围环境的环境3D点云来获得对象3D点云。因此,能够从包含对象22及其周围环境的3D点云的全局3D点云中生成对象3D点云。
具体而言,本实施例的方法开始于步骤202,其中,基于机台2的当前高度和机台2的边界信息,从全局3D点云中提取机台2所在的有效区域内的有效3D点云,其中,全局3D点云包含对象22及其周围环境的3D点云,并且对象3D点云包含在该有效3D点云中。
机台2的当前高度可以从CT系统100的实时位置信息中获得。机台2的边界信息用于确定机台2的大致轮廓。在一些实施例中,机台2的边界信息可以是机台2的四个角部的位置信息,诸如坐标。需要注意的是,该情况并不要求机台2为严格的矩形,角部可以是机台2的外接四边形的角部。
在一些实施例中,全局3D点云可以通过以下方式获得:对利用深度相机3拍摄得到的包含对象22及其周围环境的深度图像数据进行转换,从而得到包含对象22及其周围环境的3D点云的全局3D点云。如上文所述,深度相机3能够输出RGB图像数据以及深度图像数据,这里使用该深度图像数据。在其他实施例中,深度图像数据可以由独立的拍摄系统获得,并通过有线或无线方式传送到计算设备4。
深度图像数据可以通过公知的方法来转换为点云信息,即全局3D点云。在一些实施例中,可以将全局3D点云从其自身的坐标系(例如相机坐标系)转换到CT系统100的坐标系。由于机台2的边界信息获自CT系统100的实时位置信息,因此也以CT系统100的坐标系为参考。因此,能够在同一坐标系中对全局3D点云和机台2的边界信息进行处理来提取有效3D点云。在其他实施例中,可以将机台2的边界信息从CT系统100的坐标系转换到全局3D点云的坐标系,诸如相机坐标系,然后在同一坐标系中对全局3D点云和机台2的边界信息进行处理来提取有效3D点云。当然,也可以将机台2的边界信息和全局3D点云转换到其他坐标系中进行处理,只要两者的参考坐标系相同即可。
本文描述的有效区域可以是包含机台2的至少一部分及其承载的对象22在内的三维区域。在一些实施例中,有效区域可以是以机台2的承载面为底面的三维区域。有效区域的高度尺寸可以是不小于对象22的厚度的任意高度尺寸,以便将整个对象22包含在内。在一些实施例中,可以将机台2的承载面上方的整个区域作为有效区域。在一些实施例中,有效区域可以是长方体。
有效区域的(机台2的长度方向上的)长度和(机台2的宽度方向上的)宽度可以基于机台2或其外接四边形的长度和宽度来确定。在一些实施例中,有效区域的长度和宽度可以分别与机台2或其外接四边形的长度和宽度大致相等。在一些实施例中,有效区域的长度和宽度可以分别大于机台2或其外接四边形的长度和宽度。
图3示出根据实施例的示例全局3D点云以及示例有效区域。如图3所示,从深度图像数据转换得到的全局3D点云包含了深度相机3的视场范围内的所有信息,即,对象22及其周围环境的3D点云。周围环境例如包括扫查装置1、机台2、地面和/或其他设备的至少一部分,如图3所示。通过执行步骤202,能够从全局3D点云中提取出例如图3中用虚线表示的有效区域的有效3D点云。应理解,图3中的有效区域仅仅是一个示例,可以在本公开的范围内任意变更。
虽然通过执行步骤202提取出的有效3D点云去除了大部分的环境3D点云(诸如地面的3D点云、扫查装置1和其他设备的大部分3D点云),但仍然包含一部分环境3D点云,诸如机台2的3D点云、扫查装置1的一部分3D点云等。
为此,在步骤204中,从有效3D点云中进一步去除这些环境3D点云来获得对象3D点云。
周围环境的信息(诸如形状、位置、状态)是已知的,因此周围环境的3D点云也是已知的。在一些实施例中,环境3D点云可以预先存储在计算设备4中。在一些实施例中,可以利用深度相机3在同一位置并以相同的取向对未承载对象22的周围环境进行拍摄来获得这些周围环境的环境3D点云。此处,应理解,该拍摄周围环境的步骤并不要求每一次生成对象3D点云时都执行,可以在例如CT系统100和深度相机3安装完成后执行一次并将得到的环境3D点云进行保存,之后在每次生成对象3D点云时调用该环境3D点云。此外,也可以在每当环境有变化(例如设备位置移动、增加了其他设备)时执行该拍摄。在一些实施例中,环境3D点云也可以根据CT系统100的实时位置信息通过计算和采样来生成。
图4示出通过步骤204生成的对象3D点云的示例,图5示出该对象3D点云与利用扫查设备(X射线源14和X射线探测器16)拍摄到的DICOM(Digital Imaging andCommunications in Medicine:医学数字成像和通信)图像的对比。如图4所示,对象3D点云几乎不包含环境3D点云,能够清晰反映对象22的结构特征。图5中,点状图案表示的是本文描述的对象3D点云,白色实线表示的是如上所述的DICOM图像。从图5可以看到,利用本实施例的方法生成的对象3D点云与实际拍摄到的对象的DICOM图像高度匹配,该对象3D点云反映了对象22的结构信息。而且,本实施例的方法200无需生成对象的模型来与预设的模型进行匹配,因此能够应用于各种对象而不限于人体。
在一些情况下,例如由于对象22相对于机台2的位置、姿态等原因,对象22的某一(些)部分可能超出机台2的边界。为了保留完整的对象3D点云,有效区域(图3虚线所示部分)的长度和宽度可以被进一步扩大,以防止该部分被去除。在一些实施例中,有效区域的宽度可以从机台2(或其外接四边形)的宽度扩大到扫描空间12的最大宽度。此外,在一些情况下,可能对机台2设置附加机构并且对象22的至少一部分承载在该附加机构上。若以机台2的长度设定有效区域,则会将该附加机构上的对象3D点云去除。为此,在一些实施例中,有效区域的长度可以在机台2的长度的基础上进一步扩大。
在一些实施例中,可以对对象3D点云进行降噪处理。降噪处理可以包括执行滤波和聚类算法。滤波例如可以是高斯滤波或者移动平均滤波,用于平滑对象3D点云。聚类例如可以使用PCL(Point Cloud Library:点云库)中的函数来实现。所有点都将被聚集成几个类,然后将噪音类别(例如扫查装置1、机台2)的点删除。
在一些实施例中,可以对对象3D点云进行降采样体素化来获得更好的计算性能。
在一些实施例中,可以进一步基于对象3D点云生成对象的结构模型(例如网格(mesh)模型)来与系统中预设的模型进行匹配。
图6是根据另一实施例的用于生成对象3D点云的方法600的流程图。本实施例的方法600与图2所示的方法200的不同之处在于,首先获取不包含对象22的环境3D点云,然后从全局3D点云中去除环境3D点云,而不提取有效3D点云。
具体而言,本实施例的方法开始于步骤601,其中,在机台2上承载对象22之前,首先由计算设备4接收不包含对象22的周围环境的深度图像数据。深度图像数据可以如上文所述那样获得,例如由深度相机3拍摄得到。接着,在步骤602中,将步骤601中接收到的深度图像数据转换为环境3D点云。
接着,在步骤603中,使对象22承载在机台2上以后,通过深度相机3以与在步骤601中拍摄周围环境的深度图像时相同的位置和取向拍摄包含对象22及其周围环境的深度图像,然后将深度图像数据传送给计算设备4。接着,在步骤604中,将步骤603中接收到的深度图像数据转换为全局3D点云。
由于步骤601和步骤603中拍摄深度图像的相机位置和取向相同,因此全局3D点云中包含的环境3D点云与步骤601中获得的环境3D点云可以视为相同。
因此,在步骤605中,可以直接从全局3D点云中去除通过步骤602获得的环境3D点云来生成对象3D点云。
通过本公开实施例描述的方法200和600生成的对象3D点云能够使操作员直观且准确地掌握对象22的轮廓信息,并且能进一步利用该对象3D点云对之后进行的扫查进行辅助。
示例性机台移动路径的规划方法
图7是根据实施例的用于规划机台在本文描述的成像系统中的移动路径的方法700的流程图。
机台2的移动主要包括升降床和挪床两部分。升降床是指机台从最初高度调整到某一高度,挪床是指机台沿着系统轴10前进或后退到某一位置。本文所述的机台移动路径的规划是指确定机台执行扫描需要定位到的目标高度并据此规划机台的移动路径。
具体而言,本实施例的方法开始于步骤702,其中,根据扫查计划确定对象3D点云中的待扫查区域。
对象3D点云可以利用本公开的实施例所描述的方法生成,也可以以其它方式获得,诸如将利用激光扫描获得的对象轮廓模型转换为对象3D点云。
待扫查区域可以是对象的全部也可以是一部分,诸如人类的胸腔、头部、或者利用定位信息指示的其他部分。在一些实施例中,扫查计划可以由操作员输入至计算设备4,例如包括待扫查部分相对于对象的定位信息以及执行扫查所需的精确流程的拍摄参数。在一些实施例中,定位信息表示待扫查区域相对于对象的位置。在另一实施例中,定位信息是表示待扫查区域的边界的边界标志。在对象是有生命的生命体的情况下,边界标志可以是该对象的解剖标志,诸如关节标志,包括左和右眼、左和右膝、左和右腰、腹股沟、左和右手腕、左和右肘、左和右膀尖、胸部中心、头部底部以及头部顶部等。
在步骤704中,确定待扫查区域的重心以及该重心的高度。
接着,在步骤706中,基于待扫查区域的重心高度以及扫查装置1的扫查空间12的中心高度,来确定机台将被定位到的目标高度,使得当机台2被定位到该目标高度时,待扫查区域的重心高度与扫查空间12的中心高度大致相等。这里,重心高度与中心高度可以以机台2为参照,也可以以地面为参照。所确定的目标高度将确保待扫查区域的重心大致处于扫查空间12的中心。
最后,在步骤708中,基于通过步骤706确定的目标高度来规划机台2的移动路径。具体地,可以使机台2从初始高度升高或降低到目标高度,其中,初始高度例如是使对象22承载于机台2时的高度。
通过采用本实施例描述的方法700,能够根据对象3D点云和扫查计划自动规划机台2执行该扫查计划所需的移动路径,能够避免手动操作。
在一些实施例中,可以进一步基于待扫查区域的边界在所述机台的进退方向(系统轴10)上的位置、扫查装置1的扫查范围来确定机台2为执行扫查计划将进入扫查装置1的最大深度。待扫查区域的边界位置可以基于扫查计划中包含的待扫查部分的定位信息来确定。由此,可以基于该最大深度来进一步规划机台2在其进退方向(系统轴10)上的移动路径。
示例性碰撞预测方法
图8是根据实施例的用于在本文描述的成像系统中进行对象22的碰撞预测的方法800的流程图。本实施例的方法根据机台2的规划高度来预测对象22在机台2以规划高度进退移动的过程中是否将与其周围环境发生碰撞。机台的规划高度可以基于本文描述的示例性机台移动路径的规划方法获得。
本实施例的方法800开始于步骤801,其中,根据扫查计划确定对象3D中的待扫查区域。
对象3D点云可以利用本公开的实施例所描述的方法生成,也可以以其它方式获得,诸如将利用激光扫描获得的对象轮廓模型转换为对象3D点云。
待扫查区域可以是对象的全部也可以是一部分,诸如人类的胸腔、头部、或者利用定位信息指示的其他部分。在一些实施例中,扫查计划包括表示待扫查部分的定位信息。在一些实施例中,定位信息表示待扫查区域相对于对象的位置。在另一实施例中,定位信息是表示待扫查区域的边界的边界标志。在对象是有生命的生命体的情况下,边界标志可以是该对象的解剖标志,诸如关节标志,包括左和右眼、左和右膝、左和右腰、腹股沟、左和右手腕、左和右肘、左和右膀尖、胸部中心、头部底部以及头部顶部等。
在步骤802中,确定待扫查区域的重心以及该重心的高度。
接着,在步骤803中,基于待扫查区域的重心高度以及扫查装置1的扫查空间12的中心高度,来确定机台将被定位到的目标高度作为规划高度,使得当机台2被定位到该目标高度时,待扫查区域的重心高度与扫查空间12的中心高度大致相等。这里,重心高度与中心高度可以以机台2为参照,也可以以地面为参照。所确定的目标高度将确保待扫查区域的重心大致处于扫查空间12的中心。
接着,在步骤804中,通过判断对象22的对象3D点云在通过步骤803确定的机台2以规划高度沿着机台2的进退方向(系统轴10)移动的移动过程中是否会与环境3D点云产生重叠,来预测对象22在该移动过程中是否会与周围环境发生碰撞。
环境3D点云如上文所述是已知的,或者可以通过深度相机拍摄得到。
当在步骤804中预测对象22在随着机台2的移动时不会与周围环境发生碰撞的情况下,进入步骤805。在步骤805中,可以向操作员呈现表示对象能够安全地移动到扫描位置并且在扫描过程中不会与周围环境发生碰撞的指示,即安全指示。安全指示例如可以以文字、图像、动画等方式显示,本公开不做限定。
图9示出根据实施例的包含安全指示的示例界面。该安全指示例如可以呈现在输出单元5的人机交互界面中。如图9所示,外侧的粗实线表示扫查空间12,内侧的细实线表示不会发生碰撞的安全区域的边界,细实线内的图形为对象22的模拟图像。因此,不言而喻,在预测碰撞、即判断对象3D点云在移动过程中是否会与环境3D点云发生重叠时可以加入安全余量。此外,对象22的模拟图像例如可以根据对象3D点云实时生成,例如是沿系统轴10观察对象3D点云得到的图像。
由于预测对象22在随着机台2的移动时不会与周围环境发生碰撞,因此在图9所示的界面中可以观察到对象的所有部分都位于用细实线所表示的圈内并且在界面上呈现了安全指示。操作员可据此判断不会发生碰撞并且能够利用CT系统100的自动移动功能使机台2按照扫查计划自动移动来执行扫描。在图9所示的界面中,用于确认进行机台的自动移动的按钮处于激活状态,以便允许操作员启用该自动移动功能。应当理解,图9所示的界面只是一个示例,可以根据需要来设计各个显示组件。此外,图9所示的界面可以显示在输出设备5中,也可以显示在扫查装置1的控制面板上,或者以上两者。
当操作员确认进行自动移动并且在步骤807中以规划高度执行扫描后,结束流程。
当在步骤804中预测对象22在随着机台2的移动时将与周围环境发生碰撞的情况下,进入步骤805。在步骤805中,向操作员呈现表示有碰撞风险的碰撞警报。碰撞警报例如可以以文字、图像、动画等方式显示,本公开不做限定。图10示出根据实施例的包含碰撞警报的示例界面。由于预测对象22将与周围环境发生碰撞,因此如图10所示,对象的一部分被呈现为超出了由细实线表示的安全边界,并且显示了“危险”警报。该情况下,机台2的自动移动被禁止,需要改变对象22的位置来消除碰撞风险或者需要操作员手动控制机台2的移动。因此,图10所示的界面上的用于确认机台2的自动移动的按钮变为禁用状态。
在一些实施例中,图9和图10所示的界面根据步骤804的预测结果实时改变,从而能够使操作员实时且直观地得知碰撞预测的结果。
在一些实施例中,可以进一步在人机交互界面中呈现预测将发生碰撞的部位。图11示出根据实施例的表示预测碰撞发生部位的示例界面,其进一步示出了对象将与例如扫查装置1发生碰撞的部位,图中为用虚线表示的右手。这样能帮助操作员迅速识别有碰撞风险的部位以便于调整对象的位置、姿态等来消除碰撞风险。碰撞部位即为对象3D点云在步骤804中被判断为在移动过程中将与环境3D点云发生重叠的部分所对应的部位。在一些实施例中,在该界面中显示信息以用于提示操作员有碰撞风险并建议调整对象位置或手动控制。在一些实施例中,该界面与步骤804的预测结果实时对应。在一些实施例中,以不同于其它部分的方式突出显示预测会发生碰撞的部分,本文不对该方式作任何限定。在一些实施例中,根据对象3D点云在移动过程中与环境3D点云的重叠程度进一步判断碰撞的程度,从而以与该碰撞程度相对应的方式在人机交互界面中呈现预测将发生碰撞的部位。例如,碰撞程度越严重,则以更醒目的方式呈现预测将发生碰撞的部位。
需要注意的是,步骤804所示的碰撞预测是周期性进行的。一旦通过调整对象的位置、姿态等消除了碰撞风险,则进入步骤806。相反,即使已经判定没有碰撞风险,但由于对象的位置、姿态等在开始扫描前发生变化而导致重新产生碰撞风险的情况下,将重新经由步骤804进入步骤805,并发出碰撞警报。
另外,在图8所示的方法800中,通过执行步骤802和步骤803获得机台2的规划高度。在其他实施例中,也可以在不执行机台2的移动路径规划的情况下,将机台2的当前高度作为规划高度。
另外,在图8所示的方法800中,基于机台2的规划高度来进行碰撞预测。然而,可能存在如下情况:在假设对象22的位置和姿态不变的情况下,对整个对象22执行扫查可能导致有碰撞风险,但仅对对象22的一部分执行扫查则可能没有碰撞风险。这是因为根据扫查计划确定的待扫查区域不同所致。因此,一些实施例中,可以进一步基于待扫查区域的边界在机台2的进退方向(系统轴10)上的位置以及扫查装置1的扫查范围来确定机台2在该移动过程中沿在进退方向(系统轴10)上的移动范围。这样,在进行碰撞预测时,机台2沿进退方向(系统轴10)的移动范围能够基于扫查计划来确定,从而能够得到更准确的碰撞预测结果。
示例性计算设备
图12是根据实施例的示例计算设备1200的框图。该计算设备1200例如可以是个人计算机(PC)、便携式计算机、平板设备、工作站、或者能够执行指定该机器要采取的行动的(顺序的或者以其他方式的)指令的任何机器。在一些实施例中,计算设备1200例如包括:一个或多个处理器1220;存储装置1210,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器1220执行时,使得所述一个或多个处理器1220实现本公开的实施例所描述的方法。处理器诸如例如,数字信号处理器(DSP)、微控制器、专用集成电路(ASIC)或微处理器。
图12所示的计算设备1200仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图12所示,计算设备1200的组件还可以连接不同系统组件(包括存储装置1210和处理器1220)的总线1250。
总线1250表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算设备1200典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算设备1200访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置1210可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)1211和/或高速缓存存储器1212。计算设备1200可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统1213可以用于读写不可移动的、非易失性磁介质(图12未显示,通常称为“硬盘驱动器”)。尽管图12中未示出,可以提供用于对可移动非易失性磁盘(例如"软盘")读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线1250相连。存储装置1210可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本公开各实施例的功能。
具有一组(至少一个)程序模块1215的程序/实用工具1214,可以存储在例如存储装置1210中,这样的程序模块1215包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块1215通常执行本公开所描述的任意实施例中的功能和/或方法。
计算设备1200也可以与一个或多个输入设备1260(例如键盘、指向设备等)以及输出设备1270(例如显示器)通信,还可与一个或者多个使得用户能与该计算设备1200交互的设备通信,和/或与使得该计算设备1200能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1230进行。并且,计算设备1200还可以通过网络适配器1240与一个或者多个网络(例如局域网(LAN)、广域网(WAN)和/或公共网络,例如因特网)通信。如图12所示,网络适配器1240通过总线1250与计算设备1200的其它模块通信。应当明白,尽管图中未示出,可以结合计算设备1200使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器1220通过运行存储在存储装置1210中的程序,从而执行各种功能应用以及数据处理,例如实现本公开的实施例所描述的对象3D点云生成方法、机台移动路径规划方法以及/或者碰撞预测方法。
程序代码可以用高级过程编程语言或面向对象的编程语言来实现,以便与处理系统通信。如果需要,也可用汇编语言或机器语言来实现程序代码。事实上,本文中所描述的机制不限于任何特定的编程语言的范围。在任何情况下,该语言可以是编译语言或解释语言。
示例
以下示例涉及特定发明实施例,并指出可在实现这些实施例中使用或以其他方式组合的特定特征,要素或步骤。
本公开的一个示例提供一种用于在成像系统中生成对象3D点云的方法,其中所述成像系统包括:机台,用于承载待扫查对象;和扫查装置,该扫查装置具有允许所述机台进入其内部的扫查空间,所述方法包括:基于所述机台的当前高度和所述机台的边界信息,从全局3D点云中提取所述机台所在的有效区域内的有效3D点云,其中,所述全局3D点云包含所述对象及其周围环境的3D点云,并且所述对象3D点云包含在所述有效3D点云内;以及从所述有效3D点云中去除所述周围环境的环境3D点云来获得所述对象3D点云,其中,所述周围环境包括所述机台的至少一部分。
在该方法的一个示例中,所述成像系统是计算机断层扫描CT系统。
在该方法的一个示例中,所述机台的边界信息包括所述机台的四个角部的位置信息,并且所述有效区域呈长方体。
在该方法的一个示例中,在所述机台的宽度方向上,所述有效区域的宽度大于所述扫查空间的最大宽度。
在该方法的一个示例中,所述有效区域在所述机台的长度方向上的长度大于所述机台的长度。
在该方法的一个示例中,所述有效区域的底表面高度不高于所述机台的当前高度。
在该方法的一个示例中,所述周围环境还包括所述扫查装置的至少一部分。
在该方法的一个示例中,还包括:通过对所述全局3D点云和所述机台的边界信息中的至少一个进行坐标转换,来将两者转换到同一坐标系下。
在该方法的一个示例中,所述同一坐标系为所述全局3D点云自身的坐标系或者所述成像系统的坐标系。
在该方法的一个示例中,还包括:接收所述对象及其周围环境的深度图像数据;以及通过坐标变换将所述深度图像数据转换为所述全局3D点云。
在该方法的一个示例中,还包括:对所述对象3D点云进行体素化;以及对经体素化的对象3D点云进行聚类,以便去除噪声点。
在该方法的一个示例中,所述环境3D点云预先存储在所述成像系统中、或者在将所述对象承载于所述机台前利用深度相机拍摄所述周围环境来获得。
本公开的一个示例提供一种用于规划机台在成像系统中的移动路径的方法,其中所述成像系统包括:所述机台,用于承载待扫查对象;和扫查装置,该扫查装置具有允许所述机台进入其内部的扫查空间,所述方法包括:基于扫查计划确定所述对象的对象3D点云中的待扫查区域;确定所述待扫查区域的重心以及所述重心的高度;基于所述重心的高度以及所述扫查空间的中心高度,来确定所述机台将被定位的目标高度,使得当所述机台被定位到所述目标高度时,所述重心的高度与所述扫查空间的中心高度大致相等;以及基于所确定的所述目标高度,规划所述机台的移动路径,其中,所述扫查计划包括所述待扫查区域相对于所述对象的定位信息。
在该方法的一个示例中,所述对象3D点云是利用如以上示例所述的方法获得的对象3D点云。
在该方法的一个示例中,还包括:基于所述待扫查区域的边界在所述机台的进退方向上的位置、所述扫查装置的扫查范围来确定所述机台将进入所述扫查装置的最大深度,规划所述机台的移动路径的步骤基于所确定的所述目标高度和所述最大深度规划所述机台的移动路径。
本公开的一个示例提供一种用于在成像系统中进行对象的碰撞预测的方法,其中所述成像系统包括:机台,用于承载待扫查对象;和扫查装置,该扫查装置具有允许所述机台进入其内部的扫查空间,所述方法包括:通过判断所述对象的对象3D点云在所述机台以规划高度沿着所述机台的进退方向移动的移动过程中是否会与其周围环境的3D点云产生重叠,来预测所述对象在所述移动过程中是否会与所述周围环境发生碰撞。
在该方法的一个示例中,所述对象3D点云是利用如以上示例所述的方法获得的对象3D点云。
在该方法的一个示例中,所述规划高度通过以下步骤来确定:基于扫查计划确定所述对象3D点云中的待扫查区域;确定所述待扫查区域的重心以及所述重心的高度;以及基于所述重心的高度以及所述扫查空间的中心高度,来确定所述机台将被定位的目标高度作为所述规划高度,使得当所述机台被定位到所述目标高度时,所述重心的高度与所述扫查空间的中心高度大致相等,其中,所述扫查计划包括所述待扫查区域相对于所述对象的定位信息。
在该方法的一个示例中,所述规划高度是所述机台的当前高度。
在该方法的一个示例中,还包括:基于所述待扫查区域的边界在所述进退方向上的位置以及所述扫查装置的扫查范围来确定所述机台在所述移动过程中沿所述进退方向的移动范围。
在该方法的一个示例中,还包括:当预测结果为所述对象在所述移动过程中不会与所述周围环境碰撞时,提供表示不会碰撞的安全指示,并且允许所述机台基于所述扫查计划自动移入所述扫查装置来进行扫描,并且当预测结果为所述对象在所述移动过程中将与所述周围环境碰撞时,提供表示将要发生碰撞的碰撞警报以及被预测将要发生碰撞的部位的预测碰撞部位指示。
在该方法的一个示例中,当预测结果为所述对象在所述移动过程中将与所述周围环境碰撞时,禁止所述机台自动移动。
在该方法的一个示例中,当预测结果为所述对象在所述移动过程中将与所述周围环境碰撞时,允许手动控制所述机台的移动。
在该方法的一个示例中,在人机交互界面中呈现所述对象3D点云、所述安全指示以及所述碰撞警报。
在该方法的一个示例中,所述预测碰撞部位指示在所述人机交互界面中呈现在所述对象3D点云中被预测将发生碰撞的部分上。
在该方法的一个示例中,还包括:当预测结果为所述对象在所述移动过程中将与所述周围环境碰撞时,根据所述对象3D点云在所述移动过程中与所述环境3D点云的重叠程度来确定所述碰撞的程度。
在该方法的一个示例中,以与所述碰撞的程度相对应的方式在所述人机交互界面中呈现所述被预测将发生碰撞的部分。
在该方法的一个示例中,所述人机交互界面的显示根据所述预测结果实时变化。
本公开的一个示例提供一种成像系统,包括:机台,用于承载待扫查对象;扫查装置,所述扫查装置具有允许所述机台进入其内部的扫查空间;深度相机,用于获取所述对象及其周围环境的深度图像数据;以及计算设备,所述计算设备与所述扫查装置和所述深度相机耦合,用于接收来自所述扫查装置的扫查信息以及来自所述深度相机的所述深度图像数据,并且所述计算设备包括处理器,所述处理器被配置成用于执行如以上示例中任一项所述的方法。
在该成像系统的一个示例中,所述深度相机安装于房间顶部。
本公开的一个示例提供一种在成像系统中使用的设备,包括用于执行如以上示例中任一项所述方法中的步骤的装置。
本公开的一个示例提供一种非瞬态计算机可读介质,存储有多条指令,当由处理器执行所述指令时,使得所述处理器执行如以上示例中任一项所述的方法。
以上详细描述了本公开的优选实施方式。但应当理解为本公开在不脱离其广义精神和范围的情况下可以采用各种实施方式及变形。本领域的普通技术人员无需创造性劳动就可以根据本公开的构思做出诸多修改和变化。因此,凡本领域技术人员依本公开的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应属于由本公开的权利要求书所确定的保护范围内。

Claims (10)

1.一种用于在成像系统中生成对象3D点云的方法,其中所述成像系统包括:
机台,用于承载待扫查对象;和
扫查装置,该扫查装置具有允许所述机台进入其内部的扫查空间,
所述方法包括:
基于所述机台的当前高度和所述机台的边界信息,从全局3D点云中提取所述机台所在的有效区域内的有效3D点云,其中,所述全局3D点云包含所述对象及其周围环境的3D点云,并且所述对象3D点云包含在所述有效3D点云内;以及
从所述有效3D点云中去除所述周围环境的环境3D点云来获得所述对象3D点云,
其中,所述周围环境包括所述机台的至少一部分。
2.如权利要求1所述的方法,其特征在于,所述成像系统是计算机断层扫描CT系统。
3.如权利要求1所述的方法,其特征在于,所述机台的边界信息包括所述机台的四个角部的位置信息,并且所述有效区域呈长方体。
4.如权利要求1所述的方法,其特征在于,在所述机台的宽度方向上,所述有效区域的宽度大于所述扫查空间的最大宽度。
5.如权利要求1所述的方法,其特征在于,所述有效区域在所述机台的长度方向上的长度大于所述机台的长度。
6.一种用于规划机台在成像系统中的移动路径的方法,其中所述成像系统包括:
所述机台,用于承载待扫查对象;和
扫查装置,该扫查装置具有允许所述机台进入其内部的扫查空间,
所述方法包括:
基于扫查计划确定所述对象的对象3D点云中的待扫查区域;
确定所述待扫查区域的重心以及所述重心的高度;
基于所述重心的高度以及所述扫查空间的中心高度,来确定所述机台将被定位的目标高度,使得当所述机台被定位到所述目标高度时,所述重心的高度与所述扫查空间的中心高度大致相等;以及
基于所确定的所述目标高度,规划所述机台的移动路径,
其中,所述扫查计划包括所述待扫查区域相对于所述对象的定位信息。
7.一种用于在成像系统中进行对象的碰撞预测的方法,其中所述成像系统包括:
机台,用于承载待扫查对象;和
扫查装置,该扫查装置具有允许所述机台进入其内部的扫查空间,
所述方法包括:
通过判断所述对象的对象3D点云在所述机台以规划高度沿着所述机台的进退方向移动的移动过程中是否会与其周围环境的3D点云产生重叠,来预测所述对象在所述移动过程中是否会与所述周围环境发生碰撞。
8.一种成像系统,包括:
机台,用于承载待扫查对象;
扫查装置,所述扫查装置具有允许所述机台进入其内部的扫查空间;
深度相机,用于获取所述对象及其周围环境的深度图像数据;以及
计算设备,所述计算设备与所述扫查装置和所述深度相机耦合,用于接收来自所述扫查装置的扫查信息以及来自所述深度相机的所述深度图像数据,并且所述计算设备包括处理器,所述处理器被配置成用于执行如权利要求1至7中任一项所述的方法。
9.一种在成像系统中使用的设备,包括用于执行如权利要求1至7中任一项所述方法中的步骤的装置。
10.一种非瞬态计算机可读介质,存储有多条指令,当由处理器执行所述指令时,使得所述处理器执行如权利要求1至7中任一项所述的方法。
CN201910514150.7A 2019-06-14 2019-06-14 用于在成像系统中生成对象3d点云的方法和系统 Pending CN112085846A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910514150.7A CN112085846A (zh) 2019-06-14 2019-06-14 用于在成像系统中生成对象3d点云的方法和系统
US16/890,304 US20200390406A1 (en) 2019-06-14 2020-06-02 Method and system for generating object 3d point cloud in medical imaging system
JP2020102248A JP6983482B2 (ja) 2019-06-14 2020-06-12 医用イメージングシステムにおいて対象3dポイントクラウドを生成するための方法及びシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910514150.7A CN112085846A (zh) 2019-06-14 2019-06-14 用于在成像系统中生成对象3d点云的方法和系统

Publications (1)

Publication Number Publication Date
CN112085846A true CN112085846A (zh) 2020-12-15

Family

ID=73733907

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910514150.7A Pending CN112085846A (zh) 2019-06-14 2019-06-14 用于在成像系统中生成对象3d点云的方法和系统

Country Status (3)

Country Link
US (1) US20200390406A1 (zh)
JP (1) JP6983482B2 (zh)
CN (1) CN112085846A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113647967A (zh) * 2021-09-08 2021-11-16 上海联影医疗科技股份有限公司 一种医学扫描设备的控制方法、装置及系统

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7313998B2 (ja) * 2019-09-18 2023-07-25 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
DE102020207753A1 (de) * 2020-06-23 2021-12-23 Siemens Healthcare Gmbh Optimierung der Lagerung eines Patienten auf einer Patientenliege für die medizinische Bildgebung
US20220379140A1 (en) * 2021-05-27 2022-12-01 Varian Medical Systems, Inc. Patient marking and positioning in a radiation therapy system
CN115590541A (zh) * 2021-06-28 2023-01-13 上海西门子医疗器械有限公司(Cn) 受检者垂直定位方法、受检者垂直定位装置及ct系统
CN113975661B (zh) * 2021-11-16 2024-03-01 神州医疗科技股份有限公司 一种监控治疗设备的质控方法、装置、系统及存储介质
WO2024067629A1 (en) * 2022-09-26 2024-04-04 Shanghai United Imaging Healthcare Co., Ltd. Methods, systems, and mediums for scanning
CN116115252B (zh) * 2023-04-14 2023-12-22 赛诺威盛科技(北京)股份有限公司 立位扫描ct安全防护系统及方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8035637B2 (en) * 2006-01-20 2011-10-11 3M Innovative Properties Company Three-dimensional scan recovery
EP2668008A4 (en) * 2011-01-28 2018-01-24 Intouch Technologies, Inc. Interfacing with a mobile telepresence robot
US8958911B2 (en) * 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
EP2811460A3 (en) * 2013-06-04 2015-11-11 Technion Research & Development Foundation Limited Creating a synthetic model with organic veracity
WO2015017691A1 (en) * 2013-08-02 2015-02-05 Irobot Corporation Time-dependent navigation of telepresence robots
CN105873517B (zh) * 2013-11-27 2018-10-26 皇家飞利浦有限公司 具有自动等中心的介入x射线系统
US10331850B2 (en) * 2014-01-28 2019-06-25 Siemens Healthcare Gmbh Estimating body surface models of patients
US10182771B2 (en) * 2017-02-10 2019-01-22 Siemens Healthcare Gmbh Method and system for dose-optimized computed tomography scanning of a target organ
US20180330496A1 (en) * 2017-05-11 2018-11-15 Siemens Healthcare Gmbh Generation Of Personalized Surface Data
SG10201706752XA (en) * 2017-08-17 2019-03-28 Iko Pte Ltd Systems and methods for analyzing cutaneous conditions
JP6514756B1 (ja) * 2017-11-30 2019-05-15 ゼネラル・エレクトリック・カンパニイ 接触回避装置、医用装置、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113647967A (zh) * 2021-09-08 2021-11-16 上海联影医疗科技股份有限公司 一种医学扫描设备的控制方法、装置及系统

Also Published As

Publication number Publication date
US20200390406A1 (en) 2020-12-17
JP6983482B2 (ja) 2021-12-17
JP2021007739A (ja) 2021-01-28

Similar Documents

Publication Publication Date Title
CN112085846A (zh) 用于在成像系统中生成对象3d点云的方法和系统
US20210065411A1 (en) System and method for generating partial surface from volumetric data for registration to surface topology image data
US20160199147A1 (en) Method and apparatus for coordinating position of surgery region and surgical tool during image guided surgery
KR102175394B1 (ko) 의용 장치, 및 의용 장치의 제어 방법
US9648297B1 (en) Systems and methods for assisting a user in capturing images for three-dimensional reconstruction
US10925564B2 (en) Medical imaging system with range imaging-based control
JP5335280B2 (ja) 位置合わせ処理装置、位置合わせ方法、プログラム、及び記憶媒体
EP2854646B1 (en) Methods and apparatus for estimating the position and orientation of an implant using a mobile device
US10911645B2 (en) Image processing device, image processing method, and recording medium
US20170091939A1 (en) Systems and Methods for See-Through Views of Patients
JP5996092B2 (ja) 患者のモニタリングおよび方法
KR20210020958A (ko) 의용 장치 및 의용 장치의 제어 방법
JP2008275341A (ja) 情報処理装置、情報処理方法
US11822340B2 (en) Method and system for obstacle avoidance in robot path planning using depth sensors
JP2016006589A (ja) 表示装置、制御プログラム、および制御方法
US20030230724A1 (en) Gamma camera collision avoidance
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
CN113362446B (zh) 基于点云数据重建对象的方法及装置
KR101330531B1 (ko) 3차원 카메라를 이용한 가상 터치 방법 및 장치
WO2019028021A1 (en) SYSTEM AND METHOD OF LOCATION BASED ON ARTIFICIAL VISION AND HYBRID EQUIPMENT
US20220054862A1 (en) Medical image processing device, storage medium, medical device, and treatment system
US10070049B2 (en) Method and system for capturing an image for wound assessment
CN112043359B (zh) 乳腺穿刺方法、装置、设备及存储介质
US20200188206A1 (en) Medical apparatus and method for operating the medical apparatus
JP7328861B2 (ja) 医用情報処理装置、医用情報処理システム、医用情報処理プログラム、および医用画像撮像装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination