CN114795260A - 一种基于3d摄像头的x射线控制方法、装置和dr设备 - Google Patents
一种基于3d摄像头的x射线控制方法、装置和dr设备 Download PDFInfo
- Publication number
- CN114795260A CN114795260A CN202210485870.7A CN202210485870A CN114795260A CN 114795260 A CN114795260 A CN 114795260A CN 202210485870 A CN202210485870 A CN 202210485870A CN 114795260 A CN114795260 A CN 114795260A
- Authority
- CN
- China
- Prior art keywords
- ray
- organism
- image
- camera
- volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 22
- 230000009466 transformation Effects 0.000 claims abstract description 21
- 238000010801 machine learning Methods 0.000 claims abstract description 10
- 238000012545 processing Methods 0.000 claims description 22
- 238000004364 calculation method Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000007689 inspection Methods 0.000 abstract description 10
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000000115 thoracic cavity Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/542—Control of apparatus or devices for radiation diagnosis involving control of exposure
- A61B6/544—Control of apparatus or devices for radiation diagnosis involving control of exposure dependent on patient size
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/40—Arrangements for generating radiation specially adapted for radiation diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/42—Arrangements for detecting radiation specially adapted for radiation diagnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4429—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/488—Diagnostic techniques involving pre-scan acquisition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10116—X-ray image
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Optics & Photonics (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- High Energy & Nuclear Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Geometry (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明公开了一种基于3D摄像头的X射线控制方法、装置和DR设备。方法包括:实时捕获3D图像;提取3D图像中的生物体3D点云数据,并对每个点进行坐标变换;使用机器学习算法计算出生物体表面坐标,并生成相应的生物体表面模型;计算得到生物体的厚度数据;基于在生物体表面模型上选定的目标区域,计算出目标区域的平均厚度或体积;根据平均厚度或体积,计算出平均厚度或体积相应的X射线剂量;根据计算出的X射线剂量,对目标区域发射相应的X射线光束,并输出目标区域的X射线图像。该方法能够实现根据不同生物体的不同厚度或体积,输出相应不同剂量的X射线光束,能在一定程度上减少病患吸收的X射线光束,进而减少DR检查对人体可能造成的危害。
Description
技术领域
本申请涉及医学影像技术领域,特别是涉及一种基于3D摄像头的X射线控制方法、装置和DR设备。
背景技术
DR检查是影像科常用的一种检查方法,是利用X射线的穿透性原理,在X射线穿越人体时根据人体组织密度的差异来形成影像。但是,由于X射线的辐射性,当人体吸入过多的X射线时,人体的细胞可能会被破坏甚至坏死,从而导致人体发生不同程度的生理、病理和生化等方面的变化。因此,在进行DR检查时,应当重视X射线剂量的控制。
在目前的DR检查过程中,为了尽可能降低病患吸入的X射线量,往往只是根据病患成年与否以及检查部位来控制和调整X射线剂量。
但是发明人认识到,现有的这样一种X射线剂量控制方法,忽略了病患个体间的差异,因为相同年龄的病患的同一个检查部位的形态和尺寸参数也是不一样的,因此所需要的X射线剂量是不能一概而论的。
发明内容
基于此,针对上述技术问题,提供一种基于3D摄像头的X射线控制方法、装置和DR设备,以能够结合生物体的个体差异输出相应的X射线光束。
第一方面,一种基于3D摄像头的X射线控制方法,包括:
步骤一,基于3D摄像头模组实时捕获3D图像;
步骤二,提取3D图像中的生物体3D点云数据,并对所述生物体3D点云数据中的每个点进行坐标变换;
步骤三,基于进行坐标变换后的生物体3D点云数据,使用机器学习算法计算出生物体表面坐标,并生成相应的生物体表面模型;
步骤四,根据所述生物体表面坐标和生物体表面模型,计算得到生物体的厚度数据;
步骤五,基于在生物体表面模型上选定的目标区域,根据所述生物体的厚度数据,计算出所述目标区域的平均厚度或体积;
步骤六,根据所述平均厚度或体积,计算出所述平均厚度或体积相应的X射线剂量;
步骤七,根据计算出的X射线剂量,对所述目标区域发射相应的X射线光束,并输出目标区域的X射线图像。
上述方案中,可选地,所述3D摄像头模组与生物体和球管探测器均对齐,所述3D图像中包含RGB图像、深度图像和红外图像。
上述方案中,可选地,步骤二所述对所述生物体3D点云数据中的每个点进行坐标变换,是将生物体3D点云数据中的每个点坐标由相机坐标系变换为世界坐标系
上述方案中,可选地,所述机器学习算法为贪婪投影三角化算法。
上述方案中,可选地,步骤六所述计算出所述平均厚度或体积相应的X射线剂量,是将得到的平均厚度或体积代入预先建立好的X射线剂量与平均厚度或体积的函数关系式中,来计算得到X射线剂量的。
上述方案中,可选地,在所述步骤三之后还包括:
根据生物体表面模型判断生物体的移动幅度是否超过预设阈值;
当判定生物体的移动幅度超过预设阈值时,输出相应的告警提示。
第二方面,一种基于3D摄像头的X射线控制装置,包括:
3D图像获取模块,用于基于3D摄像头模组实时捕获3D图像;
坐标变换模块,用于提取3D图像中的生物体3D点云数据,并对所述生物体3D点云数据中的每个点进行坐标变换;
生物体表面模型生成模块,用于基于进行坐标变换后的生物体3D点云数据,使用机器学习算法计算出生物体表面坐标,并生成相应的生物体表面模型;
厚度计算模块,用于根据所述生物体表面坐标和生物体表面模型,计算得到生物体的厚度数据;
目标区域参数计算模块,用于基于在生物体表面模型上选定的目标区域,根据所述生物体的厚度数据,计算出所述目标区域的平均厚度或体积;
X射线剂量计算模块,用于根据所述平均厚度或体积,计算出所述平均厚度或体积相应的X射线剂量;
X射线图像输出模块,用于根据计算出的X射线剂量,对所述目标区域发射相应的X射线光束,并输出目标区域的X射线图像。
第三方面,一种DR设备,包括射线球管、3D摄像头模组、束光器、探测器、图像输出单元和数据处理单元,所述射线球管的输入端与数据处理单元的第一输出端电性连接,所述束光器的输入端与数据处理单元的第二输出端电性连接,所述图像输出单元的输入端与数据处理单元的第三输出端电性连接;所述3D摄像头模组的输出端与数据处理单元的第一输入端电性连接,所述探测器的输出端与数据处理单元的第二输入端电性连接;
所述数据处理单元包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现第一方面所述的方法的步骤。
上述方案中,可选地,所述3D摄像头模组包括两个型号相同的3D摄像头,两个3D摄像头的型号均为英特尔RealSense D400系列的摄像头或微软Kinect系列的摄像头。
上述方案中,进一步可选地,所述两个3D摄像头固定于射线球管上,两个3D摄像头的基线与两个3D摄像头的成像面平行,并且两个3D摄像头对应的像素行对齐。
本发明至少具有以下有益效果:
本发明基于对现有技术问题的进一步分析和研究,认识到在目前的DR检查中X射线光束的剂量不会根据生物体的个体差异进行相应调整;在本发明实施例中,在检查过程中通过3D摄像头来实时捕获3D图像并提取生物体3D点云数据,进而基于坐标变换后的生物体3D点云数据生成生物体表面模型,并计算出生物体目标区域的平均厚度或体积,以此计算得到目标区域所需的X射线剂量并控制设备输出相应剂量的X射线光束,从而实现根据不同生物体的不同厚度或体积,输出相应不同剂量的X射线光束,避免了对于厚度或体积较小的生物体输出了较高剂量的X射线光束,使生物体摄入了过多不必要的X射线光束的情况发生;同时也能避免对于厚度或体积较大的生物体输出了较低剂量的X射线光束,使得输出的X射线光束不足以穿透生物体,进而重复进行DR检查导致额外吸收X射线光束的情况发生;因此,本发明所提供的X射线控制方法,能在一定程度上减少病患所吸收的X射线光束,符合“绿色剂量扫描”,进一步能够减少DR检查对人体可能造成的危害。
附图说明
图1为本发明一个实施例提供的一种基于3D摄像头的X射线控制方法的流程示意图;
图2为本发明一个实施例中双目立体视觉原理的示意图;
图3为本发明一个实施例提供的一种基于3D摄像头的X射线控制装置的模块架构框图;
图4为本发明一个实施例提供的一种DR设备的结构示意图;
图5为本发明一个实施例中3D摄像头的安装位置示意图;
图6为本发明一个实施例中悬吊DR设备和普通立柱DR设备的示意图;
图7为本发明一个实施例中悬吊DR设备的另一种角度示意图;
图8为本发明一个实施例中悬吊DR设备的使用场景示意图;
图9为本发明一个实施例中车载双立柱DR设备的使用场景示意图;
图10为本发明一个实施例中DR设备的生成结果示意图;
图11为本发明一个实施例提供的一种个性化扫描方法的流程示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
3D视觉是在2D视觉的基础上加入深度信息,突破了2D视觉的技术瓶颈。3D视觉主要是以3D点云数据作为输入,提取出人体图像感兴趣区的立体特征,从而实现3D视觉的算法。相较于2D识别算法它的区分度更强、误识率更低,3D算法往往会搭配定制的3D摄像头,实现硬件的摄像头模组和算法的配对,所以它在精度和可重复性方面做的比较好。
采用3D点云数据作为输入,提取立体人特征,能够实现3D识别算法,比如在本地做图像抓取来进行深度计算、3D特征提取、特征匹配等工作。3D识别算法可以测量与形状相关的物体属性,包括物体表面的深度、平面度、厚度、表面角度、体积等方面的属性,还可以测量出物体的对比度。
基于此,提出本发明。
在一个实施例中,如图1所示,提供了一种基于3D摄像头的X射线控制方法,以该方法应用于DR设备为例进行说明,该方法包括以下步骤:
步骤S101,基于3D摄像头模组实时捕获3D图像。
其中,3D摄像头模组包括两个型号相同的3D摄像头(也称为深度摄像头),两个3D摄像头的型号均为英特尔RealSense D400系列的摄像头或微软Kinect系列的摄像头。深度摄像头可以抓取3D图像/影像,也能提供深度/厚度数据和比较合适的帧率进行常规录像数据。3D摄像头模组要预先固定于DR设备的射线球管上,在捕获图像时与生物体和球管探测器均对齐。通过3D摄像头模组捕获的3D图像中包含有RGB图像、深度图像和红外图像。
3D摄像头能测量深度可以是利用双目立体视觉原理,如图2所示,双目立体视觉原理是:通过不同的角度获得被测物体的两幅图像,计算两幅图上对应点之间的位置偏差,从而获取物体的三维信息。双目立体视觉仅仅依靠图像进行特征点匹配,因此对附加设备的要求低,但是要求对两个摄像头间的位置做到精确的标定。当然,3D摄像头能测量深度也可以是利用结构光算法。深度摄像头位置、定标校准是相对于特定的DR系统几何体,映射DR系统几何体实时图像。
步骤S102,提取3D图像中的生物体3D点云数据,并对所述生物体3D点云数据中的每个点进行坐标变换。
具体来说,生物体可以是人体,也可以是动物体。步骤S102中对提取出的生物体3D点云数据中的每个点进行坐标变换,是将生物体3D点云数据中的每个点坐标由相机坐标系变换为世界坐标系,该方法应用于DR设备时,世界坐标系指DR系统坐标系,坐标系的具体变换方法是本领域人员所掌握的基础知识,因此在此不作赘述。
步骤S103,基于进行坐标变换后的生物体3D点云数据,使用机器学习算法计算出生物体表面坐标,并生成相应的生物体表面模型。
具体来说,所使用的机器学习算法可以但不限于是贪婪投影三角化算法。生成的生物体表面模型会以虚拟现实的形式展现在医生的面前,医生可以直接在生物体表面模型上选定感兴趣区域(目标区域),感兴趣区域(目标区域)也就是需要通过DR设备检查的病灶区域,例如,目标区域可以是胸腔。
另外,实时所展现的生物体表面模型,能够反映病患的动作姿态,通过生物体表面模型判断生物体的移动幅度是否超过预设阈值,能够判断出病患是否有较大幅度的动作,从而是否会影响检查准确性;因此当判定生物体的移动幅度超过预设阈值时,可以判断出病患有较大幅度动作,可以输出相应的告警提示来提醒病患和医生。输出的告警提示可以是发出语音提示,也可以是通过LED灯闪烁提示。
步骤S104,根据所述生物体表面坐标和生物体表面模型,网格化计算得到生物体的厚度数据。
具体来说,根据生物体表面模型的表面坐标,能够计算出生物体每层水平面延矢状轴方向的坐标数据差,该坐标数据差能够反映每层水平面的厚度分布情况,进而能够得到生物体整体的厚度数据。
步骤S105,基于在生物体表面模型上选定的目标区域,根据所述生物体的厚度数据,计算出所述目标区域的平均厚度或体积。
具体来说,在生物体表面模型上选定目标区域后,根据目标区域的厚度数据,也就是根据目标区域每层水平面的厚度分布情况,能够得到目标区域的平均厚度,当然也能够计算出目标区域的体积。计算平均厚度是适用于生物体是处于站立姿态进行检测的,计算体积是适用于生物体是处于躺着的姿态进行检测的。
步骤S106,根据所述平均厚度或体积,计算出所述平均厚度或体积相应的X射线剂量。
其中,计算出平均厚度或体积相应的X射线剂量,是将得到的平均厚度或体积代入预先建立好的X射线剂量与平均厚度或体积的函数关系式中,来计算得到X射线剂量的,预先建立的函数关系式还可以结合病患的年龄等因素,使得确定的X射线剂量更能与个体差异相匹配。
步骤S107,根据计算出的X射线剂量,控制球管对生物体目标区域发射相应的X射线光束,发射的X射线光束的X射线剂量就是上面计算出的X射线剂量,并输出生物体目标区域的X射线图像。
在上述一种基于3D摄像头的X射线控制方法中,在检查过程中通过3D摄像头来实时获取生物体的3D图像,进而根据采集到的3D图像中的3D点云数据生成生物体表面模型,并计算出生物体目标区域的平均厚度或体积,以此计算得到所需的X射线剂量并控制设备输出相应剂量的X射线光束,从而实现根据不同生物体的不同厚度或体积,输出相应不同剂量的X射线光束,避免了对于厚度或体积较小的生物体输出了较高剂量的X射线光束,使生物体摄入了过多不必要的X射线光束的情况发生;同时也能避免对于厚度或体积较大的生物体输出了较低剂量的X射线光束,使得输出的X射线光束不足以穿透生物体,进而重复进行DR检查导致额外吸收X射线光束的情况发生。因此,本发明所提供的X射线控制方法,能在一定程度上减少病患所吸收的X射线光束,符合“绿色剂量扫描”,进一步能够减少DR检查对人体可能造成的危害。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图3所示,提供了一种基于3D摄像头的X射线控制装置,包括以下程序模块:
3D图像获取模块301,用于基于3D摄像头模组实时捕获3D图像;
坐标变换模块302,用于提取3D图像中的生物体3D点云数据,并对所述生物体3D点云数据中的每个点进行坐标变换;
生物体表面模型生成模块303,用于基于进行坐标变换后的生物体3D点云数据,使用机器学习算法计算出生物体表面坐标,并生成相应的生物体表面模型;
厚度计算模块304,用于根据所述生物体表面坐标和生物体表面模型,计算得到生物体的厚度数据;
目标区域参数计算模块305,用于基于在生物体表面模型上选定的目标区域,根据所述生物体的厚度数据,计算出所述目标区域的平均厚度或体积;
X射线剂量计算模块306,用于根据所述平均厚度或体积,计算出所述平均厚度或体积相应的X射线剂量;
X射线图像输出模块307,用于根据计算出的X射线剂量,对所述目标区域发射相应的X射线光束,并输出目标区域的X射线图像。
关于一种基于3D摄像头的X射线控制装置的具体限定可以参见上文中对于一种基于3D摄像头的X射线控制方法的限定,在此不再赘述。上述一种基于3D摄像头的X射线控制装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
上述一种基于3D摄像头的X射线控制装置中,在检查过程中通过3D摄像头来实时捕获3D图像并提取生物体3D点云数据,进而基于坐标变换后的生物体3D点云数据生成生物体表面模型,并计算出生物体目标区域的平均厚度或体积,以此计算得到目标区域所需的X射线剂量并控制设备输出相应剂量的X射线光束,从而实现根据不同生物体的不同厚度或体积,输出相应不同剂量的X射线光束,避免了对于厚度或体积较小的生物体输出了较高剂量的X射线光束,使生物体摄入了过多不必要的X射线光束的情况发生;同时也能避免对于厚度或体积较大的生物体输出了较低剂量的X射线光束,使得输出的X射线光束不足以穿透生物体,进而重复进行DR检查导致额外吸收X射线光束的情况发生。因此,本发明所提供的X射线控制装置,能在一定程度上减少病患所吸收的X射线光束,符合“绿色剂量扫描”,进一步能够减少DR检查对人体可能造成的危害。
在一个实施例中,如图4所示,提供一种DR设备,包括射线球管1、3D摄像头模组11、束光器2、平板探测器3、图像输出单元4和数据处理单元5,所述射线球管1的输入端与数据处理单元5的第一输出端电性连接,所述束光器2的输入端与数据处理单元5的第二输出端电性连接,所述图像输出单元4的输入端与数据处理单元5的第三输出端电性连接;所述3D摄像头模组11的输出端与数据处理单元5的第一输入端电性连接,所述探测器3的输出端与数据处理单元5的第二输入端电性连接。
具体来说,3D摄像头模组11包括两个型号相同的3D摄像头,3D摄像头模组11无论是利用双目算法还是结构光算法,其基本物理原理都是双目三角法。因此两个摄像头参数需要完全一致,两个3D摄像头的型号可以都为英特尔RealSense D400系列的摄像头或微软Kinect系列的摄像头,这两种型号的摄像头非常适合深度感知开发,它提供了简单的现成集成,支持全新一代智能视觉安装,并将其封装到易于集成的产品中。
进一步地,如图5所示,两个3D摄像头固定安装在射线球管1的特定位置上,并且,安装时两个3D摄像头的基线(两个光心的连线)与两个3D摄像头的成像面平行,并且两个3D摄像头对应的像素行对齐。这样的一种双目系统为正面平行系统,理想的正面平行双目系统,需要通过相机标定得到相机内外参才能计算深度;实际的双目成像系统在使用时还会进行补偿和矫正。
通过该DR设备对人体进行检查时,3D摄像头不断采集图像并产生中断传递图像信息,数据处理单元5(单片机/计算机)对图像进行综合处理,来提取有效信息;数据处理单元5包括存储器和处理器,所述存储器存储有计算机程序,在接收到3D图像后,处理器基于3D图像执行计算机程序实现上述实施例提供的一种基于3D摄像头的X射线控制方法中的全部或部分流程。
进一步地,所述图像输出单元可以是显示器,用于显示3D图像以及X射线图像。
如图6所示,该DR设备形态可以是悬吊DR设备(图6中右图),也可以是普通立柱DR设备(图6中左图);悬吊DR设备的另一种角度的示意图如图7所示,悬吊DR设备的使用场景如图8所示;该DR设备形态还可以是车载双立柱DR设备,车载双立柱DR设备的使用场景如图9所示。
当利用该DR设备对人体进行检查时,该DR设备产生的结果如图10所示。在图10中,6是病患,7是束光器成像区;图10中最左边的图形显示的是3D摄像头获取的图像,中间的图形显示3D摄像头映射叠加曝光及束光的透视图像,最右边的图形是是校正的图像(即X射线图像)。
采用上述一种DR设备,在检查过程中通过3D摄像头来实时捕获3D图像并提取生物体3D点云数据,进而基于坐标变换后的生物体3D点云数据生成生物体表面模型,并计算出生物体目标区域的平均厚度或体积,以此计算得到目标区域所需的X射线剂量并控制设备输出相应剂量的X射线光束,从而实现根据不同生物体的不同厚度或体积,输出相应不同剂量的X射线光束,避免了对于厚度或体积较小的生物体输出了较高剂量的X射线光束,使生物体摄入了过多不必要的X射线光束的情况发生;同时也能避免对于厚度或体积较大的生物体输出了较低剂量的X射线光束,使得输出的X射线光束不足以穿透生物体,进而重复进行DR检查导致额外吸收X射线光束的情况发生。因此,本发明所提供的DR设备,能在一定程度上减少病患所吸收的X射线光束,符合“绿色剂量扫描”,进一步能够减少DR检查对人体可能造成的危害。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,涉及上述实施例提供的一种基于3D摄像头的X射线控制方法中的全部或部分流程。
在一个实施例中,提供了一种个性化扫描方法,该方法可利用本发明所提供的DR设备实现,该方法包括如下步骤:
步骤S111,接收病患RGB图像数据;
步骤S112,转换RGB图像数据为3D点云;
步骤S113,探测解剖标志点为3D点云;
步骤S114,3D点云网格化;
步骤S115,使用PDM数据库生成个性化网格;
步骤S116,病患个性化网格应用到扫描计划。
基于本发明实施例所提供的方法,能够针对所需要观察的病患病灶部位,相应地生成该部位的人体表面模型,为对病患的检查提供可靠的模型参考。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种基于3D摄像头的X射线控制方法,其特征在于,包括:
步骤一,基于3D摄像头模组实时捕获3D图像;
步骤二,提取3D图像中的生物体3D点云数据,并对所述生物体3D点云数据中的每个点进行坐标变换;
步骤三,基于进行坐标变换后的生物体3D点云数据,使用机器学习算法计算出生物体表面坐标,并生成相应的生物体表面模型;
步骤四,根据所述生物体表面坐标和生物体表面模型,计算得到生物体的厚度数据;
步骤五,基于在生物体表面模型上选定的目标区域,根据所述生物体的厚度数据,计算出所述目标区域的平均厚度或体积;
步骤六,根据所述平均厚度或体积,计算出所述平均厚度或体积相应的X射线剂量;
步骤七,根据计算出的X射线剂量,对所述目标区域发射相应的X射线光束,并输出目标区域的X射线图像。
2.根据权利要求1所述的基于3D摄像头的X射线控制方法,其特征在于,所述3D摄像头模组与生物体和球管探测器均对齐,所述3D图像中包含RGB图像、深度图像和红外图像。
3.根据权利要求1所述的基于3D摄像头的X射线控制方法,其特征在于,步骤二所述对所述生物体3D点云数据中的每个点进行坐标变换,是将生物体3D点云数据中的每个点坐标由相机坐标系变换为世界坐标系。
4.根据权利要求1所述的基于3D摄像头的X射线控制方法,其特征在于,所述机器学习算法为贪婪投影三角化算法。
5.根据权利要求1所述的基于3D摄像头的X射线控制方法,其特征在于,步骤六所述计算出所述平均厚度或体积相应的X射线剂量,是将得到的平均厚度或体积代入预先建立好的X射线剂量与平均厚度或体积的函数关系式中,来计算得到X射线剂量的。
6.根据权利要求1所述的基于3D摄像头的X射线控制方法,其特征在于,在所述步骤三之后还包括:
根据生物体表面模型判断生物体的移动幅度是否超过预设阈值;
当判定生物体的移动幅度超过预设阈值时,输出相应的告警提示。
7.一种基于3D摄像头的X射线控制装置,其特征在于,包括:
3D图像获取模块,用于基于3D摄像头模组实时捕获3D图像;
坐标变换模块,用于提取3D图像中的生物体3D点云数据,并对所述生物体3D点云数据中的每个点进行坐标变换;
生物体表面模型生成模块,用于基于进行坐标变换后的生物体3D点云数据,使用机器学习算法计算出生物体表面坐标,并生成相应的生物体表面模型;
厚度计算模块,用于根据所述生物体表面坐标和生物体表面模型,计算得到生物体的厚度数据;
目标区域参数计算模块,用于基于在生物体表面模型上选定的目标区域,根据所述生物体的厚度数据,计算出所述目标区域的平均厚度或体积;
X射线剂量计算模块,用于根据所述平均厚度或体积,计算出所述平均厚度或体积相应的X射线剂量;
X射线图像输出模块,用于根据计算出的X射线剂量,对所述目标区域发射相应的X射线光束,并输出目标区域的X射线图像。
8.一种DR设备,其特征在于,包括射线球管、3D摄像头模组、束光器、探测器、图像输出单元和数据处理单元,所述射线球管的输入端与数据处理单元的第一输出端电性连接,所述束光器的输入端与数据处理单元的第二输出端电性连接,所述图像输出单元的输入端与数据处理单元的第三输出端电性连接;所述3D摄像头模组的输出端与数据处理单元的第一输入端电性连接,所述探测器的输出端与数据处理单元的第二输入端电性连接;
所述数据处理单元包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1至6中任一项所述的方法的步骤。
9.根据权利要求8所述的DR设备,其特征在于,所述3D摄像头模组包括两个型号相同的3D摄像头,两个3D摄像头的型号均为英特尔RealSense D400系列的摄像头或微软Kinect系列的摄像头。
10.根据权利要求9所述的DR设备,其特征在于,所述两个3D摄像头固定于射线球管上,两个3D摄像头的基线与两个3D摄像头的成像面平行,并且两个3D摄像头对应的像素行对齐。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210485870.7A CN114795260A (zh) | 2022-05-06 | 2022-05-06 | 一种基于3d摄像头的x射线控制方法、装置和dr设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210485870.7A CN114795260A (zh) | 2022-05-06 | 2022-05-06 | 一种基于3d摄像头的x射线控制方法、装置和dr设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114795260A true CN114795260A (zh) | 2022-07-29 |
Family
ID=82512202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210485870.7A Pending CN114795260A (zh) | 2022-05-06 | 2022-05-06 | 一种基于3d摄像头的x射线控制方法、装置和dr设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114795260A (zh) |
-
2022
- 2022-05-06 CN CN202210485870.7A patent/CN114795260A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110392247B (zh) | 用于在基于孔的医疗系统中监测患者的摄像机监测系统及其校准方法 | |
US11576645B2 (en) | Systems and methods for scanning a patient in an imaging system | |
US10821301B2 (en) | Treatment assistance system and operation method therefor, and storage medium for storing treatment assistance program | |
US10737118B2 (en) | Systems and methods for patient position monitoring | |
US11576578B2 (en) | Systems and methods for scanning a patient in an imaging system | |
US11107270B2 (en) | Medical scene model | |
CN111627521B (zh) | 增强现实在放疗中的应用 | |
JP6304970B2 (ja) | 画像処理装置、画像処理方法 | |
CN110740687B (zh) | X射线照相装置 | |
US10742956B2 (en) | System and method for determining position and orientation of depth cameras | |
GB2538274A (en) | A monitoring system | |
KR20160057024A (ko) | 마커리스 3차원 객체추적 장치 및 그 방법 | |
KR102313801B1 (ko) | 의료 영상 시스템의 자세 교정 가이드 장치 및 그 방법 | |
CN116807452A (zh) | 一种脊柱侧弯3d检测方法、系统、设备及介质 | |
Hussien et al. | Stereo photogrammetry vs computed tomography for 3D medical measurements | |
KR20180119361A (ko) | 엑스선 장치의 캘리브레이션 방법 및 장치 | |
CN114795260A (zh) | 一种基于3d摄像头的x射线控制方法、装置和dr设备 | |
CN113975661B (zh) | 一种监控治疗设备的质控方法、装置、系统及存储介质 | |
EP3628230A1 (en) | X-ray imaging system with foreign object reduction | |
KR102289327B1 (ko) | 엑스선 장치의 캘리브레이션 방법 및 이를 위한 캘리브레이션 장치 | |
EP3777686B1 (en) | Medical image processing device, medical image processing method, and program | |
KR20210150633A (ko) | 임플란트 수술 도구의 진입각도 및 깊이 측정 시스템 및 그 방법 | |
Galantucci et al. | New 3D digitizer for human faces based on digital close range photogrammetry: Application to face symmetry analysis | |
EP4295775A1 (en) | Patient monitoring during a scan | |
EP4295774A1 (en) | Patient monitoring during a scan |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |