CN113116367A - 用于医学成像期间的患者结构估计的系统和方法 - Google Patents
用于医学成像期间的患者结构估计的系统和方法 Download PDFInfo
- Publication number
- CN113116367A CN113116367A CN202011347867.6A CN202011347867A CN113116367A CN 113116367 A CN113116367 A CN 113116367A CN 202011347867 A CN202011347867 A CN 202011347867A CN 113116367 A CN113116367 A CN 113116367A
- Authority
- CN
- China
- Prior art keywords
- patient
- image
- depth
- histogram data
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 132
- 238000002059 diagnostic imaging Methods 0.000 title claims abstract description 21
- 238000003384 imaging method Methods 0.000 claims description 62
- 238000005286 illumination Methods 0.000 claims description 35
- 230000004044 response Effects 0.000 claims description 19
- 238000012937 correction Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 9
- 238000009826 distribution Methods 0.000 claims description 7
- 230000037237 body shape Effects 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 230000036544 posture Effects 0.000 description 40
- 238000013170 computed tomography imaging Methods 0.000 description 20
- 230000005855 radiation Effects 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 10
- 238000002591 computed tomography Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 210000003414 extremity Anatomy 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 210000003484 anatomy Anatomy 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 238000005259 measurement Methods 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 238000002600 positron emission tomography Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 206010073306 Exposure to radiation Diseases 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000000746 body region Anatomy 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000002310 reflectometry Methods 0.000 description 2
- 238000002603 single-photon emission computed tomography Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000002583 angiography Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 244000309466 calf Species 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002872 contrast media Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000009659 non-destructive testing Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 210000004061 pubic symphysis Anatomy 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 210000005010 torso Anatomy 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 210000001835 viscera Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/04—Positioning of patients; Tiltable beds or the like
- A61B6/0407—Supports, e.g. tables or beds, for the body or parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/04—Positioning of patients; Tiltable beds or the like
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/488—Diagnostic techniques involving pre-scan acquisition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5258—Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/542—Control of apparatus or devices for radiation diagnosis involving control of exposure
- A61B6/544—Control of apparatus or devices for radiation diagnosis involving control of exposure dependent on patient size
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/545—Control of apparatus or devices for radiation diagnosis involving automatic set-up of acquisition parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/44—Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10144—Varying exposure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- High Energy & Nuclear Physics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Biophysics (AREA)
- Heart & Thoracic Surgery (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Quality & Reliability (AREA)
- Probability & Statistics with Applications (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了用于在医学成像系统扫描之前估计患者结构的方法和系统。作为一个示例,方法可包括获取定位在该医学成像系统的工作台上的患者的深度图像,基于来自该深度图像的直方图数据来校正该深度图像,以及基于所校正的深度图像来提取该患者的三维结构。
Description
技术领域
本文所公开的主题的实施方案涉及医学成像系统,并且更具体地涉及医学成像之前的准确的患者结构估计。
背景技术
非侵入式放射成像技术允许获得患者或对象的内部结构的图像,而无需对该患者或对象执行侵入式程序。具体地,诸如计算机断层摄影(CT)之类的技术使用各种物理原理(诸如通过靶体积的X射线的差分传输)来获取图像数据和构建断层摄影图像(例如,人体或其他成像结构的内部的三维表示)。在现代CT成像系统中,机架—在一侧上具有x射线管并且在另一侧上具有检测器的圆形框架—围绕定位在工作台上的患者旋转,从而在一次旋转中产生该患者的数千个剖视图。为了有效地使用这些成像技术,患者或对象必须在成像系统内适当地定位和取向。
发明内容
在一个实施方案中,一种用于医学成像系统的方法包括:获取定位在医学成像系统的工作台上的患者的深度图像,基于来自深度图像的直方图数据来校正深度图像,以及基于所校正的深度图像来提取患者的三维结构。因此,可消除由于有关已提取的三维患者结构/化身/网格/点云的不均匀曝光和孔洞而引起的深度信息丢失。这样,可在成像之前实现患者结构和取向的准确估计。
应当理解,提供上面的简要描述来以简化的形式介绍在具体实施方式中进一步描述的精选概念。这并不意味着识别所要求保护的主题的关键或必要特征,该主题的范围由具体实施方式后的权利要求书唯一地限定。此外,所要求保护的主题不限于解决上文或本公开的任何部分中提到的任何缺点的实施方式。
附图说明
通过参考附图阅读以下对非限制性实施方案的描述将更好地理解本发明,其中以下:
图1示出了根据一个实施方案的成像系统的绘画视图。
图2示出了根据一个实施方案的示例性成像系统的方框示意图。
图3示出了根据一个实施方案的用于成像之前的患者结构估计的示例性算法的框图。
图4A至图4D示出了流程图,该流程图示出了用于识别并抵消可变照明和反射对患者结构估计的影响的方法。
图5示出了各种条件,其中图4A至图4D的方法可生成患者结构的经滤波的点云而不会因可变照明和反射产生伪影。
图6示出了如在图4A至图4D的方法中所述的点云分割的示例。
图7示出了使用图4A至图4D的方法在昏暗光照条件下的三维患者结构估计的示例。
图8A至图8C示出了可在执行图4A至图4D的方法时生成的一系列图像。
图9示出了流程图,该流程图示出了用于确定患者是否被定位为达到所需的检查结果的方法。
具体实施方式
以下描述涉及医学成像系统的各种实施方案。具体地讲,提供了用于在放射成像之前确定没有照明、反射和曝光伪影的患者结构的准确三维(3D)深度估计的系统和方法。患者结构、位置和取向都会影响放射成像结果。扫描期间或之前的患者的不适当的位置和/或取向均可显著影响图像噪声和患者表面剂量两者。作为一个示例,将患者置于偏离中心的位置可导致成像伪影以及对身体的更敏感区域的不必要的辐射暴露。
放射检查的所需患者位置和取向(例如,姿势)基于待成像的身体部位、疑似缺损或疾病以及患者状况,其中用于定位的方案由放射科医师确定。然后由操作成像系统的技师执行规定的方案,以便获得准确的诊断信息并且减小患者的x射线暴露。另外,技师可以手动调整患者定位在其上的扫描工作台的高度和侧向位置以便对准患者进行放射检查。然而,技师可能由于例如手动定位的高工作负荷和低效率而产生技术误差。例如,该技术误差可导致在放射检查期间获得的图像具有对患者的曝光过度、曝光不足或错误定位。因此,放射科医师可决定拒绝和重复该扫描以进行准确的诊断。在此类示例中,可能会在患者有空时要求紧接的第二次放射照片。另选地,患者可能必须返回以进行额外预约来重新扫描。这两种选择都增加了患者不适、患者对辐射的暴露、对扫描操作者的认知压力以及直到诊断的时间量。
因此,已采用各种技术来加快放射检查工作流。其中包括将飞行时间(ToF)或深度相机集成到放射检查室中。在放射成像之前,ToF或深度相机可用于生成患者的3D深度图像。3D深度图像可用于确定患者结构,包括解剖关键点、身体轮廓、身体体积/厚度,以及患者相对于工作台的位置/取向。然后可将患者结构与放射科医师所提出的定位参数进行比较。如果所确定的患者结构未与定位参数对准,则技师可在扫描之前重新定位患者,从而减少拒绝和重复该扫描的发生率。
然而,深度相机仍会受到若干噪声源的影响,诸如检查室内存在的可变照明和/或反射区域。此类噪声可导致3D深度图像的区域缺乏深度信息或导致深度孔洞。这些深度孔洞可导致不准确的患者结构确定,并且最终导致技师不准确地确定由放射科医师规定的定位参数是否被准确地遵循。因此,尽管在扫描之前使用患者结构估计,但仍可继续发生拒绝和重复该扫描。
因此,根据本文所公开的实施方案,提供了一种用于识别并抵消可变照明和反射对基于深度相机的患者结构估计的影响的方法和系统。在一个实施方案中,可以捕获定位在医学成像系统的工作台上的患者的深度图像,并且可以将包围曝光深度成像(BEDI)和/或基于照明变化系数(CoIV)的校正应用于所捕获的深度图像,使得可估计准确的3D患者结构。
在图1和图2中提供了可用于根据本发明技术获取图像的计算机断层摄影(CT)成像系统的示例。图1至图2的CT成像系统包括工作台,该工作台可定位在CT成像系统的机架内,其中机架包括x射线投影仪和检测器,该x射线投影仪和检测器用于对定位在工作台上的受检者进行成像。可调整工作台的位置,以便将受检者放置在机架内的成像所需位置。此外,受检者可以多种姿势和取向(诸如示例性姿势)定位在工作台上,以便获得所需的放射图像。图3中示出了可用于成像之前的患者体形估计的示例性算法的高级概览。例如,图3的算法可包括用于识别并抵消可变照明和反射对患者结构估计的影响的方法,诸如图4A至图4D所示的方法,以便准确地产生患者结构的3D模型以用于扫描结果预测和患者姿势解释,如可使用图9的示例性方法执行的。图5提供了可变照明和曝光条件的示例,其中图4A至图4D中提出的方法可生成患者结构的准确3D点云。图6示出了对围绕患者的对象的智能分割的示例,该智能分割可在图4A至图4D所示的方法期间发生以便实现准确3D患者结构估计。图7提供了图4A至图4D所示的方法可在具有昏暗光照的条件下生成准确3D患者结构估计的示例。图8A至图8C以一系列连续图像的方式示出了图4A至图4D中呈现的方法。
虽然以举例的方式描述了计算机断层摄影(CT)系统,但应当理解,当应用于利用钻孔和工作台的其他医学成像系统和/或医学成像设备时,本技术也可以是有用的,该医学成像系统和/或医学成像设备诸如x射线成像系统、磁共振成像(MRI)系统、正电子发射断层摄影(PET)成像系统、单光子发射计算机断层摄影(SPECT)成像系统,以及它们的组合(例如,多模成像系统,诸如PET/CT、PET/MR或SPECT/CT成像系统)。对CT成像模态的本发明论述仅提供作为一种合适的成像模态的示例。
图1示出了示例性CT成像系统100。具体地,CT成像系统100被配置为对受检者112(诸如患者、无生命对象、一个或多个制造部件、工业部件)和/或外来对象(诸如存在于身体内的植入物、支架和/或造影剂)进行成像。在整个本公开中,术语“受检者”和“患者”可以互换使用,并且应当理解,至少在一些中示例中,患者是可以由CT成像系统进行成像的一种类型的受检者,并且受检者可以包括患者。在一个实施方案中,CT成像系统100包括机架102,该机架继而还可以包括至少一个x射线辐射源104,该至少一个x射线辐射源被配置为投射x射线辐射束(或x射线)106(参见图2)以用于对患者进行成像。具体地,x射线辐射源104被配置为将x射线106朝向定位在机架102的相对侧上的检测器阵列108投射。虽然图1仅描绘了单一x射线辐射源104,但是在某些实施方案中,可以采用多个辐射源来朝向多个检测器投射多个x射线106,以获取不同能级下与患者对应的投影数据。
在一些实施方案中,x射线辐射源104投射x射线扇形或锥形束106,该x射线扇形或锥形束被准直以位于笛卡尔坐标系的x-y平面内并且一般被称为“成像平面”或“扫描平面”。x射线束106穿过受检者112。x射线束106在被受检者112衰减之后入射到检测器阵列108上。在检测器阵列108处接收的衰减辐射束的强度取决于受检者112对x射线106的衰减。检测器阵列108的每个检测器元件产生单独的电信号,该单独的电信号是检测器位置处的射束强度的量度。单独地获取来自所有检测器的强度测量值,以产生传输分布。
在第三代CT成像系统中,使用机架102使x射线辐射源104和检测器阵列108在成像平面内围绕受检者112旋转,使得x射线束106与受检者112相交的角度不断变化。当机架102完成一次完整的360度旋转时,发生完全的机架旋转。在一个机架角度下来自检测器阵列108的一组x射线衰减测量值(例如,投影数据)被称为“视图”。因此,视图是机架102的每个增量位置。受检者112的“扫描”包括在x射线辐射源104和检测器阵列108的一次旋转期间在不同的机架角度或视角下制得的一组视图。
在轴向扫描中,对投影数据进行处理以构建对应于穿过受检者112拍摄的二维切片的图像。一种用于由一组投影数据重建图像的方法在本领域中称为滤波反投影技术。该方法将来自扫描的衰减测量值转换成称为“CT数”或“亨氏单位”(HU)的整数,该整数用于控制例如阴极射线管显示器上的对应像素的亮度。
在一些示例中,CT成像系统100可包括深度相机114,该深度相机定位在机架102上或外部。如图所示,深度相机114安装在定位于受检者112上方的天花板116上并取向为在受检者112至少部分地在机架102外部时对该受检者成像。深度相机114可包括一个或多个光传感器,包括一个或多个可见光传感器和/或一个或多个红外(IR)光传感器。在一些实施方案中,一个或多个IR传感器可包括近IR范围和远IR范围两者内的一个或多个传感器,从而实现热成像。在一些实施方案中,深度相机114还可包括IR光源。光传感器可为任何3D深度传感器,诸如飞行时间(ToF)传感器、立体传感器或结构化光深度传感器,该3D深度传感器可操作以生成3D深度图像,而在其他实施方案中,光传感器可为二维(2D)传感器,该2D传感器可操作以生成2D图像。在一些此类实施方案中,2D光传感器可用于根据对光反射现象的了解来推断深度,以估计3D深度。无论光传感器是3D深度传感器还是2D传感器,深度相机114都可被配置为将编码图像的信号输出到合适的接口,该接口可被配置为从深度相机114接收编码该图像的信号。在其他示例中,深度相机114还可包括其他部件,诸如麦克风,以使得能够接收和分析来自所观察受检者和/或其他来源的定向和/或非定向声音。
在某些实施方案中,CT成像系统100还包括图像处理单元110,该图像处理单元被配置为使用合适的重建方法(诸如迭代或分析图像重建方法)来重建患者靶体积的图像。例如,图像处理单元110可使用分析图像重建方法诸如滤波反投射(FBP)来重建患者的靶体积的图像。作为另一示例,图像处理单元110可以使用迭代图像重建方法(诸如自适应统计迭代重建(ASIR)、共轭梯度(CG)、最大似然期望最大化(MLEM)、基于模型的迭代重建(MBIR)等等)来重建患者靶体积的图像。
如本文所用,短语“重建图像”并非旨在排除其中生成表示图像的数据而非可视图像的本发明的实施方案。因此,如本文所用,术语“图像”广义地是指可视图像和表示可视图像的数据两者。然而,许多实施方案生成(或被配置为生成)至少一个可视图像。
CT成像系统100还包括工作台115,受检者112定位在该工作台上以便进行成像。工作台115可以是电动的,使得可以调整工作台的竖直位置和/或侧向位置。因此,工作台115可包括马达和马达控制器,如下文将相对于图2阐述的。工作台马达控制器通过调整马达来移动工作台115,以便将受检者适当地定位在机架102中,以获取对应于受检者的靶体积的投影数据。工作台马达控制器可以调整工作台115的高度(例如,相对于工作台所位于的地面的竖直位置)和工作台115的侧向位置(例如,沿着平行于机架102的旋转轴线的轴线的工作台的水平位置)。
图2示出了类似于图1的CT成像系统100的示例性成像系统200。在一个实施方案中,成像系统200包括检测器阵列108(参见图1)。检测器阵列108还包括多个检测器元件202,该多个检测器元件一起收集穿过受检者112的x射线束106(参见图1)以获取对应的投射数据。因此,在一个实施方案中,以包括多行单元或检测器元件202的多切片配置来制造检测器阵列108。在此类配置中,一个或多个附加行的检测器元件202以并行配置布置,以用于采集投影数据。在一些示例中,检测器阵列108的单独检测器或检测器元件202可包括光子计数检测器,该光子计数检测器将单独光子的交互寄存到一个或多个能量区间(energybin)中。应当理解,本文所述的方法还可使用能量积分检测器来实现。
在某些实施方案中,成像系统200被配置为遍历受检者112周围的不同角位置以获取所需的投影数据。因此,机架102和安装在其上的部件可以被配置为围绕旋转中心206旋转,以获取例如不同能级下的投射数据。另选地,在相对于受检者112的投影角度随时间变化的实施方案中,所安装的部件可被配置为沿着大致弧形而不是沿着一段圆周移动。
在一个实施方案中,成像系统200包括控制机构208以控制部件的运动,诸如机架102的旋转和x射线辐射源104的操作。在某些实施方案中,控制机构208还包括x射线控制器210,该x射线控制器被配置为向x射线辐射源104提供功率和定时信号。另外,控制机构208包括机架马达控制器212,该机架马达控制器被配置为基于成像要求来控制机架102的旋转速度和/或位置。
在某些实施方案中,控制机构208还包括数据采集系统(DAS)214,该DAS被配置为对从检测器元件202接收的模拟数据进行采样,并将模拟数据转换为数字信号以用于后续处理。将由DAS 214采样和数字化的数据传输到计算机或计算设备216。在一个示例中,计算设备216将数据存储在存储设备218中。例如,存储设备218可以包括硬盘驱动器、软盘驱动器、光盘-读/写(CD-R/W)驱动器、数字通用光碟(DVD)驱动器、闪存驱动器,以及/或者固态存储驱动器。
另外,计算设备216向DAS 214、x射线控制器210和机架马达控制器212中的一者或多者提供命令和参数,以控制系统操作,诸如数据采集和/或处理。在某些实施方案中,计算设备216基于操作员输入来控制系统操作。计算设备216经由可操作地耦接到计算设备216的操作员控制台220来接收操作员输入,该操作员输入例如包括命令和/或扫描参数。操作员控制台220可以包括键盘(未示出)或触摸屏,以允许操作员指定命令和/或扫描参数。
虽然图2仅示出了一个操作员控制台220,但是多于一个操作员控制台可以耦接到成像系统200,例如以用于输入或输出系统参数、请求检查和/或查看图像。此外,在某些实施方案中,成像系统200可以经由一个或多个可配置的有线和/或无线网络(诸如互联网和/或虚拟专用网络)而耦接到例如在机构或医院内或者处于完全不同位置的本地或远程地定位的多个显示器、打印机、工作站和/或类似设备。
在一个实施方案中,例如,成像系统200包括图片存档和通信系统(PACS)224或者耦接到PACS。在一个示例性实施方案中,PACS 224进一步耦接到远程系统(诸如放射科信息系统、医院信息系统)和/或耦接到内部或外部网络(未示出),以允许处于不同位置的操作员提供命令和参数和/或获得对图像数据的访问。
计算设备216使用操作员提供的和/或系统定义的命令和参数来操作工作台马达控制器226,该工作台马达控制器又可控制工作台马达228,该工作台马达可调整图1所示的工作台115的位置。具体地,工作台马达控制器226经由工作台马达228来移动工作台115,以便将受检者112适当地定位在机架102中,以获取对应于受检者112的靶体积的投影数据。例如,计算设备216可以向工作台马达控制器226发送命令,从而指示工作台马达控制器226经由马达228调整工作台115的竖直位置和/或侧向位置。
如前所述,DAS 214对由检测器元件202采集的投影数据进行采样和数字化。随后,图像重建器230使用所采样和数字化的x射线数据来执行高速重建。虽然图2将图像重建器230示出为单独的实体,但是在某些实施方案中,图像重建器230可以形成计算设备216的一部分。另选地,图像重建器230可以不存在于成像系统200中,并且替代地计算设备216可以执行图像重建器230的一种或多种功能。此外,图像重建器230可以本地或远程地定位,并且可以使用有线或无线网络来可操作地连接到成像系统200。具体地,一个示例性实施方案可以使用“云”网络集群中的计算资源来用于图像重建器230。
在一个实施方案中,图像重建器230将重建的图像存储在存储设备218中。或者,图像重建器230将重建的图像传输到计算设备216,以生成用于诊断和评估的可用患者信息。在某些实施方案中,计算设备216将重建的图像和/或患者信息传输到显示器232,该显示器通信地耦接到计算设备216和/或图像重建器230。在一个实施方案中,显示器232允许操作员评估成像的解剖结构。显示器232还可以允许操作员例如经由图形用户界面(GUI)来选择感兴趣的体积(VOI)和/或请求患者信息,以用于进行后续扫描或处理。
如本文进一步描述的,计算设备216可包括计算机可读指令,该计算机可读指令可执行以根据检查成像方案来向DAS 214、x射线控制器210、机架马达控制器212和工作台马达控制器226中的一者或多者发送命令和/或控制参数,该检查成像方案包括临床任务/意图,临床任务/意图在本文中也被称为检查的临床意图标识符(CID)。例如,CID可以基于临床指征来通知该程序的目标(例如,一般扫描或病变检测、感兴趣的解剖结构、质量参数或其他目标),并且可以进一步定义扫描期间所需的受检者位置和取向(例如,姿势)(例如,仰卧和足先进)。然后,系统200的操作员可以根据由成像方案指定的受检者位置和取向而将受检者在工作台上定位。此外,计算设备216可以根据成像方案来设置和/或调整各种扫描参数(例如,剂量、机架旋转角度、kV、mA、衰减滤波器)。例如,成像方案可以由操作员从存储在计算设备216和/或远程计算设备上的存储器中的多个成像方案中选择,或者成像方案可以由计算设备216根据接收的患者信息而自动选择。
在检查/扫描阶段期间,可能希望将受检者暴露于尽可能低的辐射剂量,同时仍保持所需的图像质量。另外,可能需要各检查之间和各受检者之间、以及不同的成像系统操作员之间可再现且一致的成像质量。因此,成像系统操作员可以对工作台位置和/或受检者位置执行手动调整,以例如将所需的患者解剖结构居中在机架孔的中心。然而,此类手动调整可易出错。因此,可以将与所选成像方案相关联的CID映射到各种受检者定位参数,该受检者定位参数包括受检者姿势和取向、工作台高度、用于扫描的解剖参考,以及开始和/或结束扫描位置。
因此,深度相机114可以可操作地和/或可通信地耦接到计算设备216以提供图像数据来确定受检者的结构,包括姿势和取向。此外,本文进一步描述的用于基于深度相机114所生成的图像数据来确定患者结构的各种方法和过程可作为可执行指令存储在计算设备216的非暂态存储器中。
另外,在一些示例中,计算设备216可包括相机图像数据处理器215,该相机图像数据处理器包括用于处理从深度相机114接收的信息的指令。可以处理从深度相机114接收的信息(其可以包括深度信息和/或可见光信息)以确定各种受检者参数,诸如受检者身份、受检者体格(例如,身高、体重、患者厚度),以及相对于工作台和深度相机114的当前受检者位置。例如,在成像之前,可以使用由点云数据重建的图像来估计受检者112的身体轮廓或结构,该点云数据是由相机图像数据处理器215根据从深度相机114接收的图像生成的。计算设备216可以使用这些受检者参数来例如执行患者-扫描仪接触预测、扫描范围叠加和扫描关键点标定,如本文将更详细描述的。此外,可经由显示器232显示来自深度相机114的数据。
在一个实施方案中,来自深度相机114的信息可以由相机图像数据处理器215使用,以执行对深度相机114视野中的一个或多个受检者的跟踪。在一些示例中,可以使用图像信息(例如,深度信息)来执行骨骼跟踪,其中识别和分析受检者的多个关节以确定受检者的运动、姿势、位置等。骨骼跟踪期间关节的位置可用于确定上述受检者参数。在其他示例中,图像信息可直接用于确定上述受检者参数而无需骨骼跟踪。
基于这些受检者定位参数,计算设备216可向操作员输出与患者姿势/取向和检查(例如,扫描)结果预测有关的一个或多个警示,从而降低受检者将暴露于高于期望的辐射剂量的可能性并且提高由该扫描生成的图像的质量和再现性。作为一个示例,可使用估计的身体结构来确定受检者是否处于放射科医师所规定的成像位置,从而减少因定位不当而重复该扫描的发生率。此外,可以减少成像系统操作员定位受检者所耗费的时间量,从而允许在一天中执行更多扫描和/或允许额外的受检者相互作用。
可基于从深度相机(诸如图1和图2中介绍的深度相机114)接收的数据来确定多个示例性患者取向。例如,控制器(例如,图2的计算设备216)可基于从深度相机接收的图像来提取患者结构和姿势估计,从而使不同患者取向彼此能够区分开。
第一示例性患者取向可包括儿科患者,并且第二示例性患者取向可包括成年患者。第一示例性患者取向和第二示例性患者取向均可包括以仰卧位躺着的患者,在该仰卧位中他/她仰面躺着,但手臂定位不同。例如,第一示例性患者取向可包括交叉定位在儿科患者的头部上方的两只手臂,而第二示例性患者取向可包括交叉定位在成年患者的腹部上方的两只手臂。仰卧位、患者体格和手臂定位都可以基于从深度相机接收的数据来区分,并且由将在本文中进一步描述的方法和算法(诸如相对于图3和图4A至图4D描述的)分析。
作为其他示例,第三示例性患者取向可包括盖着毯子的患者,并且第四示例性患者取向可包括穿着医用罩衣的患者。另外,第五示例性患者取向可包括操作员遮掩。如本文将阐述的,第三示例性患者取向中的毯子、第四示例性患者取向中的医用罩衣以及第五示例性患者取向中的操作员遮掩的包含不会影响基于从深度相机接收的数据来确定的患者结构和姿势估计。
作为进一步示例,可将待成像的患者置于一系列位置中。例如,第六示例性患者取向可包括处于仰卧位的患者,第七示例性患者取向可包括处于俯卧位的患者,在该俯卧位中他/她面朝下躺着,并且第八示例性患者取向可包括处于侧卧位的患者,在该侧卧位中患者在他/她的身体一侧上躺着。基于从深度相机接收的数据可将仰卧位、俯卧位和侧卧位(包括侧面)彼此全都区分开。因此,存在多种姿势、取向、患者体形/体格和潜在遮掩(例如,毯子、医用罩衣、操作员),可在成像之前由这些姿势、取向、患者体形/体格和潜在遮掩确定3D患者结构估计。
图3示出了示例性算法400,该算法可由控制器(诸如图2的计算设备216)实现,以便在放射成像之前基于从深度相机(例如,图1和图2的深度相机114)接收的数据来估计患者结构(包括姿势和位置)。在所示的实施方案中,在CT成像之前利用算法400;然而,可以理解,本文所阐述的实施方案可使用其他类型的医学成像模态(例如,MRI、x射线、PET、介入性血管造影系统)来实现。此外,在一些实施方案中,可在医学成像之前和期间经由算法400和从深度相机接收的数据来连续地监测患者。
在所示的实施方案中,在402处,算法400包括将患者定位在CT成像系统的工作台(诸如图1的工作台115)上。技师可根据放射科医师所提出的规定方案(诸如基于放射科医师所选择的检查的临床意图标识符(CID))来定位患者。作为一个示例,算法400可通过显示(例如,在图2的显示器232上)和/或以其他方式传送基于所选择的CID的规定方案来在定位患者的过程中指导技师。例如,患者可以以仰卧位、俯卧位或侧卧位定位,且相对于CT成像系统的机架而言头先进或足先进。还可如规定方案所概述的那样细化患者的定位,诸如通过调整肢体位置以实现所需姿势。可使用各种系带和/或枕头来帮助患者保持正确位置并保持静止。
此外,患者在CT成像系统内的适当定位意指患者中线(在患者眼睛至其耻骨联合之间绘制的假想线)处于工作台的中心,并且工作台高度被调整为使得待扫描的区域的质心可与机架的旋转中心重合。因此,可调整工作台参数。调整工作台参数可包括调整相对于机架的工作台高度以便避免任何的患者与机架碰撞。此外,可调整工作台参数以确保一旦扫描开始,患者就将在机架内居中。
一旦在402处将患者适当定位在扫描工作台上,就在404处确定工作台的空间参数。例如,可确定工作台的四个拐角在笛卡尔世界空间坐标系的x-y-z平面内的位置。作为一个示例性示例,第一个拐角可定位在[x1,y1,z1]处,第二个拐角可定位在[x2,y2,z2]处,第三个拐角可定位在[x3,y3,z3]处,并且第四个拐角可定位在[x4,y4,z4]处。在一个实施方案中,这些拐角可被限定为工作台左上拐角点(例如,离机架最近的工作台的左侧拐角)、工作台右上拐角点(例如,离机架最近的工作台的右侧拐角)、工作台左下拐角点(例如,离机架最远的工作台的左侧拐角)和工作台右下拐角点(例如,离机架最远的工作台的右侧拐角)。然后可确定每个拐角的x、y和z值。例如,工作台左下拐角点可位于[-400,-78,-2469]处,工作台左上拐角点可位于[-400,-78,-469]处,工作台右下拐角点可位于[400,-78,-2469]处,并且工作台右上拐角点可位于[400,-78,-469]处。可将所确定的工作台空间参数输入到414处的点云算法,如下文将进一步描述的。
在406处,启动深度相机,该深度相机可竖直地位于扫描工作台上方。启动深度相机可包括从“关闭”状态或从低功耗模式对深度相机“加电”。启动该相机还可包括选择初步成像设置,诸如曝光、聚焦深度、帧速率等。可基于扫描室条件(例如,光照条件、存在的反射表面等)来选择曝光设置,诸如光圈、快门速度和ISO。在一些示例中,当获取图像时,可反复地调整曝光设置。
在408处,深度相机获取深度帧。作为一个示例,深度相机可使用调制的光源来照明扫描工作台上的患者(统称为场景),并且使用位于深度相机内的ToF传感器来观察反射的光。测量照明与反射之间经过的持续时间并将其转换为距离。光源可包括在例如人眼不可见的近红外范围(约850nm)内操作的固态激光器或发光二极管(LED)阵列。被设计为对光源所发出的相同波长的光作出响应的成像传感器可接收该光并且将光子能量转换为电流。进入传感器的光可具有环境分量和反射分量,其中距离(深度)信息仅嵌入在反射分量中。在ToF传感器中,对2D可寻址阵列中的每一个像素测量距离,从而得到深度图或深度帧(例如,3D点的集合,其中每个点也被称为体素)。作为另一个示例,深度相机可获取立体图像(例如,经由间隔开的两个或更多个图像传感器),从而每次图像获取时都得到3D深度帧。在414处,如下所述,可将深度帧输入到点云算法中。
在410处,执行深度相机114的相机校准。相机校准此处是指使用2D图案(诸如棋盘格)提取相机的内在和外在参数,以使得所有数据点位于一个平面内并且这些数据点的z分量在世界空间坐标中为零。外在参数是指相机在世界中的位置和取向,而内在参数是指像素坐标与相机坐标之间的关系。一旦提取内在和外在参数,就将这些矩阵与原始点云矩阵相乘以获得相机与机架坐标变换。该矩阵相乘可为如下:
其中第一矩阵表示外在相机参数,第二矩阵表示场景坐标,并且第三矩阵表示内在相机参数。第三或内在矩阵可包含两个内在参数,这些内在参数涵盖焦距(例如,Fc和Cc)。
一旦相机被成功校准,算法400就可继续到412,在此处基于410处的校准来配置相机。例如,可基于相机校准来确定x方向和y方向各自的尺度因子、旋转因子和平移因子,以使得相机所获取的图像被适当缩放到世界空间。例如,相机配置可补偿倾斜或旋转的深度相机安装。也可将相机校准(包括上述的一个或多个尺度因子、旋转因子和平移因子)输入到414处的点云算法中。
在414处,点云算法可利用从404、408和412输入的数据来生成机架坐标中经滤波的点云阵列,作为416处的输出。作为一个示例,点云算法可以将在408处获取的深度帧渲染到3D空间中作为点的集合或点云。作为另一个示例,另外地或另选地,414处的点云算法可将体素噪声和离群值从408处生成的深度帧数据滤波掉,然后可将经滤波的数据渲染成点云,该点云与基于412处确定的相机配置来在404处确定的工作台参数对准。由点云算法生成的机架坐标中的经滤波的点云阵列可以在416处输出,并且然后可用于3D患者结构估计以在放射成像之前确定适当的患者定位。
虽然与单独的手动患者定位相比在放射成像之前使用3D患者结构估计已减少了拒绝和重复扫描的数量,但使用3D深度相机准确地产生患者结构的3D模型并不完全稳健。在实践中,由于硬件的限制和场景的结构(诸如深度阴影和/或材料对反射、折射或IR吸收的影响),从深度帧获得的3D信息可不足以提供准确的患者结构估计。例如,放射扫描室内的差分光照和表面反射率可在所获取的深度帧中引起孔洞或深度信息缺乏,如下文将相对于图5阐述的。在3D患者结构估计的生成中使用包含孔洞的深度帧数据可导致患者位置和取向的不准确或不完全表示,技师可将该不准确或不完全表示错误解释为在放射科医师所提出的参数内。因此,即便使用3D深度相机来帮助适当的患者定位,与基于所选择的CID的规定方案相比,患者可能仍未对准,这是由于在技师所解释的3D患者结构估计的生成中使用了不足的深度信息。
因此,图4A至图4D描绘了流程图,该流程图示出了用于识别并抵消可变照明和反射对患者结构估计的影响的方法500。方法500和本文包括的其余方法可由存储在成像系统的计算设备(诸如图2的成像系统200的计算设备216)的非暂态存储器中的计算机可读指令执行,该计算设备可通信地耦接到深度相机,诸如图1和图2的深度相机114。
方法500可以在502处开始。在502处,方法500可包括定位患者以便扫描,如此前相对于图3所述。例如,可由技师基于放射科医师所选择的检查的CID将患者定位在CT成像系统或另一个放射成像系统的工作台上。患者可以以仰卧位、俯卧位或侧卧位定位,相对于成像系统的机架而言头先进或足先进,且肢体位置被调整到所需姿势。此外,可调整工作台高度(例如,竖直位置)和位置以使患者的质心与机架的中心对准以便实现扫描期间的剂量优化。作为一个示例,技师可通过以下方式手动地调整工作台高度和位置:将命令输入到工作台马达控制器,该工作台马达控制器继而可相应地致动工作台马达。作为另一个示例,计算设备可通过以下方式调整工作台高度和位置:向工作台马达控制器发送命令以由马达基于与所选择的CID相对应的预编程指令来调整工作台的竖直位置和/或侧向位置。在还其他示例中,技师和计算设备两者都可调整工作台高度和位置。例如,技师可对工作台高度和位置进行更粗略的调整,然后计算设备对工作台高度和位置进行细化以使患者的质心与机架的中心对准。
在504处,可使用深度相机捕获患者位置的3D深度、IR、热和/或红、绿和蓝(RGB)图像。例如,根据深度相机的配置和所包括的传感器的一种或多种类型,可捕获3D深度、IR、热和RGB图像中的仅一者,或可捕获3D深度、IR、热和RGB图像中的不止一者。通过捕获3D深度图像、IR图像、热图像和/或RGB(例如,彩色)图像,可确定与场景内的患者和工作台定位/取向有关的分布信息。然后可以以图形方式总结所捕获的图像内的分布信息并且经由直方图显示该分布信息。作为一个示例,深度图像的直方图数据可用于识别孔洞、深度图像内的曝光不足和曝光过度区域,以及深度图像内的反射。另外地或另选地,彩色图像的直方图数据可用于识别不良照明的区域(例如,图像内的暗/亮区域或斑点)。彩色图像和深度图像两者的直方图数据可单独使用或组合使用以确定相机曝光的最佳值。捕获场景的深度图像的示例在图5中示出,如下文将描述的。捕获场景的热图像的示例在图6中示出,也在下文描述。
在506处,可经由直方图数据来监测504处捕获的图像中的光照和照明散布以便确定感兴趣区域(ROI)。ROI至少包含患者的身体和患者定位在其上的工作台。直方图数据可仅仅基于每个图像内的每个像素的亮度或发光度的强度(例如,色相未考虑在内)来为504处捕获的图像提供色调范围的图形表示。直方图内的色调范围可从左到右表示,其中左边是黑色色调/色度,逐步经过中间的中间色调,到达右边的高光。图像的色调范围内的每个色调的量级或体积可由与所捕获的图像内存在的每个色调或色调集相对应的单独线的高度表示。例如,直方图的较低的区域(例如,谷)指示该图像内的这些色调的低体积,而直方图的较高的区域(例如,峰)指示这些色调的高体积。因此,直方图中的峰的平衡和高度是色调范围和色调平衡的指示。因此,可基于色调分布来监测直方图数据以确定504处捕获的图像中的照明散布(例如,曝光过度或曝光不足)。
在508处,可分析506处生成并监测的直方图数据以识别不良照明区域、高反射区域和/或不良或半曝光相机区域。例如,如果直方图的主体向右偏斜,则其可指示504处捕获的图像被曝光过度。另选地,如果直方图的主体向左偏斜,则其可指示504处捕获的图像被曝光不足、半曝光或不良照明。所捕获的图像内的高反射区域可由直方图内的右边缘上的一个或多个极值峰表示。这样,分析直方图数据可识别不良照明区域、高反射区域和/或不良或半曝光相机区域。
在510处,基于所捕获的图像来执行患者体格的初步计算。患者体格可包括患者厚度和/或患者体形的指示。在一个实施方案中,可使用深度相机图像通过应用算法来确定患者厚度估计,该算法仅提取躺在扫描工作台上的患者的体积并将其与密度的固定值相乘,其中颜色和深度梯度用于患者分割(例如,将患者与扫描工作台区分开以估计患者厚度和体格)。
在512处,确定患者体格是否大于阈值。该阈值可以是预定尺寸阈值,其用于区分执行最小化并校正所捕获的图像中的照明和反射变化的两种不同技术:包围曝光深度成像(BEDI)和基于照明变化系数(CoIV)的校正。如果患者体格不大于该阈值(例如,患者体格小于该阈值),则方法500进行到513(参见图4B),并且可确定深度和颜色两者的直方图标准偏差(SD)和CoIV。因此,可在患者体格较小时使用基于CoIV的校正。CoIV可以是基于从场景的图像生成的直方图数据来测量场景内的照明均匀度的尺度。可基于数据均值来确定直方图数据的SD。CoIV可被定义为所有实测照明值的SD与均值的比率,或相对照明变化性的量度。CoIV越高,均值周围的分散水平越大。另选地,直方图SD测量与直方图数据集的均值或平均值成比例的照明变化性。在一个实施方案中,可使用考虑照明场景的光的方向和患者的离散姿势的算法来确定CoIV,诸如:
其中α是表面的反照率;I是方向上的照明强度;s是患者表面法线;3D患者位置表示患者的x轴、y轴和z轴;并且姿势可表示八种不同类别,包括后前(PA)、前后(AP)、左侧、右侧、俯卧、仰卧、头先进和足先进。
作为一个示例,可以在计算CoIV和SD之前组合来自深度图像的直方图数据和来自彩色图像的直方图数据。作为另一个示例,可以根据深度直方图数据和颜色直方图数据计算单独的CoIV和SD值。例如,可以根据深度图像的直方图数据确定第一CoIV和第一SD,并且可以根据彩色图像的直方图数据确定第二CoIV和第二SD。在一些示例中,第一CoIV可与第二CoIV组合,并且第一SD可与第二SD组合(例如,求平均)。
在513处,方法500确定所计算的CoIV是否大于彩色图像和深度图像两者的直方图数据的SD。如果对于彩色图像和深度图像两者而言,CoIV小于直方图数据的SD,则其指示直方图内的数据点分布在较大的值范围内,这可表明场景内存在具有高反射率的区域,这些区域可在3D深度帧内引起孔洞。相比之下,如果对于彩色图像和深度图像两者而言,CoIV大于直方图数据的SD,则照明的分散发生在更大的范围内,从而表明图像可被不良照明。
如果对于深度图像和彩色图像两者而言,CoIV不大于直方图数据的SD,则方法500继续到517并且包括关闭自动曝光。例如,可关闭深度相机的自动曝光设置以减少或消除场景内的高反射区域所引起的图像伪影。一旦关闭自动曝光,就可使用深度相机捕获患者位置的新3D深度图像、IR图像、热图像或RGB图像。然后方法500可进行到531(参见图4C),如下文将描述的。
如果CoIV大于直方图的SD,则方法500可继续到519,并且可打开深度相机的自动曝光,以及确定曝光设置并将其应用于捕获新图像。具体地讲,可打开自动曝光设置并且可基于CoIV和直方图数据来设定自动曝光设置,如521处所指示。在一个实施方案中,可通过将直方图的SD乘以CoIV和尺度因子来确定自动曝光的曝光设置以有助于从场景提取噪声。尺度因子是指机架的物理尺寸向相机图像中的对应尺寸的换算。可将深度相机的增益(其控制来自相机传感器的信号的放大)设定为1/CoIV。一旦打开自动曝光并且基于513处确定的CoIV和直方图SD来设定该自动曝光,就可使用深度相机捕获患者位置的新3D深度图像、IR图像、热图像或RGB图像,并且方法500可继续到531。然而,在其他实施方案中,基于CoIV的校正可与将在下文描述的BEDI结合使用。
返回到512(图4A),如果患者体格大于该阈值,则方法500进行到513并且包括组合来自包围曝光设置的深度图像信息。因此,当患者体格大于该阈值时或任选地与基于CoIV的校正相结合,可应用BEDI。BEDI试图使用从曝光不足到曝光过度的范围内的曝光设置(例如,包围图像的原始曝光的曝光设置)来填补所捕获的图像的深度区域内所含的任何孔洞。例如,可基于当前光照条件使用最合适的曝光来获得场景的深度图像(例如,深度图像N)。接下来,可捕获一个曝光过度的深度图像(例如,相对于深度图像N的曝光设置;深度图像N+1)和一个曝光不足的深度图像(例如,相对于深度图像N的曝光设置;深度图像N-1)。然后可通过将原始深度图像与曝光过度和曝光不足的深度图像进行比较来识别缺失深度信息的区域(例如,将深度图像N与深度图像N+1和深度图像N-1进行比较)。然后可以使用来自曝光不足和/或曝光过度的图像(例如,深度图像N+1和深度图像N-1)的数据来填充原始深度图像(例如,深度图像N)中的缺失深度信息。
在514处,方法500包括确定直方图是否具有RGB上的不良照明。可分析直方图的各个方面,包括RGB直方图上的照明(例如,来自彩色图像的直方图数据),以确定要应用的校正。如果RGB直方图没有不良照明,则方法500可继续到520,如下文将描述的。
如果RGB直方图被确定为具有不良照明,则方法500进行到516,并且可执行直方图均衡化。直方图均衡化可通过以下方式增加所捕获的图像的对比度:在该图像的强度直方图的指引下改变像素值,由此有效地修改每个图像的动态范围。如此前在506处所述,直方图是图像的强度分布的图形表示,从而表示所考虑的每个强度值的像素数量。对于RGB图像而言,R、G和B分量每一者存在单独的表条目。直方图均衡化不能单独地应用于R、G和B分量,因为其可引起图像颜色平衡的巨大变化。因此,在一个实施方案中,可通过非线性映射来执行直方图均衡化,该非线性映射重新分配输入图像中的强度值,使得所得图像包含强度的均匀分布,从而产生平坦(或近平坦)直方图。可使用存储在计算设备的非暂态存储器中的查找表来执行该映射操作。在另一个实施方案中,可应用RGB直方图均衡化的方法,该方法利用颜色分量之间的相关性并且由从统计语言工程中借用的多层平滑技术来增强。在其他实施方案中,可在执行直方图均衡化之前首先将RGB图像转换为另一个颜色空间(例如,色相、饱和度和值(HSV)颜色空间或色相、饱和度和亮度(HSL)颜色空间)。
在518处,可分析经由516处的直方图均衡化处理的RGB直方图以确保直方图中的均匀强度和对比度级别。在一个实施方案中,存储在计算设备的非暂态存储器中的算法可确定所处理的直方图是否平坦(例如,像素是否均匀分布在整个强度范围内)。均衡化后,由于图像内可存在的一些强度值的特性,直方图可能并不完全平坦,但这些值可更均匀分布。如果确定所处理的直方图没有均匀强度和对比度级别,则可调整相机曝光设置,捕获新RGB图像,并且使后续直方图数据均衡化以确保直方图平坦。一旦已生成具有均匀强度和对比度级别的所处理的RGB直方图,方法500就可继续到520。
在520处,方法500确定深度相机所捕获的图像的直方图数据是否包括反射噪声(例如,曲线图的右边缘上的一个或多个极值峰)。如果直方图没有反射噪声,则方法500可继续到526,如下文将描述的。如果直方图数据的确反映了反射噪声,则方法500继续到522,并且可计算空间区域中的反射噪声的反射强度值。在一个实施方案中,可使用存储在计算设备的非暂态存储器中的算法来计算与所捕获的图像的空间区域内的反射噪声(经由直方图识别)相对应的像素的强度值。空间区域可包括患者、患者正在使用的医院罩衣或毯子、扫描工作台、围绕扫描工作台的地板、围绕扫描工作台的医学设备、支撑扫描工作台上的患者位置的支柱、和/或所捕获的场景内的任何其他对象。在另一个示例中,另外地或另选地,空间区域可由网格系统限定并且不基于区域的组成。一旦已确定图像内的噪声/反射区域的强度值,就可在524处调整这些反射区域的容差水平。在一个实施方案中,可通过欧几里德距离来确定容差水平。例如,可在具有高反射噪声的图像点与周围图像点之间确定欧几里德距离以确定并设定周围图像点未因反射噪声而偏斜的反射容差水平,并且确保不发生反射饱和(其可在后续3D深度帧获取中引起孔洞)。
在526处,方法500包括确定深度相机所捕获的图像的直方图数据是否具有半曝光或不良曝光区域。半曝光或不良曝光区域可由扫描室内的昏暗光照条件和/或相机曝光设置(例如,曝光不足)引起。例如,在没有光照的扫描室中并且在深度相机的自动曝光关闭的情况下捕获的图像(如相对于图7进一步示出)可由于曝光期间缺乏光而导致场景的不良曝光的图像。在其他示例中,由于相机的自动曝光设置,可能出现半曝光或不良曝光区域。在其他示例中,半曝光或不良曝光区域可能是相对于场景的相机定位结合扫描室内的曝光设置和/或光照条件的结果。
如果直方图数据没有半曝光或不良曝光区域,则方法500可继续到530,如下文将描述的。如果直方图数据的确反映了半曝光或不良曝光区域(例如,曲线图的左侧上的一个或多个极值峰),则方法500进行到528,并且可计算3D深度数据中的半曝光或不良曝光区域的强度范围。例如,计算设备可基于直方图数据内的谷的位置来识别半曝光或不良曝光区域,并且还可确定那些谷的强度范围。
在530处,可自动调整相机曝光设置。在一个实施方案中,可使用存储在计算设备的非暂态存储器中的查找表来自动调整曝光设置,该查找表被编程为具有根据直方图数据中识别的强度范围来索引的曝光设置(例如,诸如在518、522和/或528处)。在一些示例中,响应于在直方图上没有不良照明、没有反射噪声以及没有半曝光或不良曝光区域被识别,输入强度范围可导致查找表输出相同的曝光设置,因为曝光设置可能已经适合于给定的光照条件。作为另一个示例,响应于在514处识别到不良照明(诸如由于昏暗光照条件),可调整曝光设置以增加曝光。作为又一个示例,响应于在520处识别到直方图上的反射噪声(诸如由于明亮光照条件),可调整曝光设置以减少曝光。另外,在一些示例中,曝光设置可以另外地或另选地包括曝光包围,其中所选择的曝光设置导致在相同采集时以较低曝光设置和较高曝光设置自动捕获附加图像。
在531处,可执行相机与世界坐标转换,以使得场景内的对象的位置可独立于相机位置来描述(例如,基于世界坐标系中的点位置[x,y,z])。在一个实施方案中,从相机到世界坐标的变换可由下式给出:
其中第一矩阵是对象在世界坐标中的坐标点,第二矩阵表示相同对象在相机坐标中的坐标点,R是旋转矩阵,并且T是变换矩阵。可在相机校准期间获得外在参数R和T。
在532处,可使用从深度相机捕获的图像来生成原始3D点云。原始3D点云是指由3D世界坐标系限定的数据点集合。在一个实施方案中,深度相机可使用调制的光源来照明场景(例如,扫描工作台上的患者),并且使用位于相机内的ToF传感器来观察反射的光以生成原始3D点云。在另一个实施方案中,计算设备可从立体相机图像提取原始3D点云数据。例如,算法可应用于一对已捕获的立体图像,以基于右图像和左图像中的匹配特征之间的差异来生成原始3D点云。
在534处,可对532处生成的原始3D点云执行等值面体积提取以检测患者的体形/取向/姿势。等值面是表示空间体积内的恒定值点的表面,因此允许从原始3D点云提取3D患者结构。执行这一点以识别由于深度帧/图像中的曝光不足而引起的孔洞或深度信息丢失。另外,通过在滤波操作之前提取患者的原始体形,可以检测与患者周边和可能的患者运动有关的数据并且将其用于536处的后续滤波。可使用作为可执行指令存储在计算设备中的算法来确定等值面。在一个实施方案中,算法可使用体积的体素表示,从而将每个数据点考虑为某个几何图元(诸如立方体或四面体)的顶点。这些图元或单元对体积进行细分并且提供有用的抽象以便计算等值面。例如,可通过将深度帧或深度值转换为3D点云或网格模型来提取等值面体积。可使用顶点着色器和移动立方体算法将帧转换为具有在x方向、y方向和z方向上的尺寸的3D体积等值面表示,以使多边形适应到3D点云数据中。该渲染技术将在3D世界坐标中拟合和重建患者的体形。在另一个实施方案中,可使用将几何分解技术和跨空间算法两者的方面结合起来的算法来提取等值面。
在536处,可执行体素滤波以减小3D点云的密度并且加速后续计算过程(例如,3D患者结构估计的生成可在小于100ms内发生)。在一个实施方案中,可使用体素格滤波器来返回所处理的点云,该所处理的点云具有作为一个整体准确地表示输入点云的更少数量的点。体素格滤波器通过以下方式对该数据进行下采样:获取云中的点的空间平均值,且通过沿着每个维度设定体素尺寸来调整欠采样率。位于每个体素的界限内的任何点被分配到该体素并且将被组合成一个输出点(例如,点聚类)。在另一个实施方案中,可应用直通滤波器来产生所处理的点云。直通滤波器使输入点通过约束条件,该约束条件去除无限点以及位于指定字段之外的任何点。
在538处,可分割所处理的3D点云,以使得场景内仅保留感兴趣点。感兴趣点在本文中包括工作台以及定位在工作台上的患者身体。分割是将点云分组成具有类似特性的多个同质区域的过程(例如,标记点云中的每个测量值,以使得为属于相同表面或区域的点给予相同标签)。对象识别和分类的过程是标记这些区域的步骤。一旦对这些对象进行提取和分类,就可能去除噪声和非期望的对象。例如,分割可与对象识别和分类结合用于去除所处理的3D点云中的点,这些点与工作台周围的设备(诸如救生装置)有关联,如相对于图6进一步描述。可从场景分割的扫描室中的其他对象可包括椅子、长凳、架子、推车和/或其他各种医学设备。
在一个实施方案中,可使用基于边缘的分割算法来从所处理的3D点云去除噪声和非期望的对象。基于边缘的分割算法具有两个主要阶段:勾勒不同区域的边界的边缘检测,之后对界限内的点分组,从而给出最终片段。边缘由局部表面特性的变化超过给定阈值的点限定。在另一个实施方案中,可通过基于人造对象向几何图元(例如,平面、柱体、球体)的分解的模型拟合算法来执行分割。例如,模型拟合算法可通过随机抽取最少数据点构建候选形状图元来提取形状。根据数据集中的所有点来检查候选形状以确定表示最佳拟合的点数量的值。
在540处,可执行所处理的3D点云的后处理以进一步细化可对3D患者结构估计产生负面影响的非期望的点和噪声。可基于524(参见图4A)处确定的反射和非反射区域来设定用于后处理的参数。在一个实施方案中,可通过超体素化来执行后处理,该超体素化通过将这些点按照各种属性(例如,法线、颜色、强度、形状)分组成称为超体素的同质片段来对点云进行过分割。该超体素化可从将这些点分组成3D网格的正常(规则间隔的)体素化开始,然后对于每个体素,对具有类似属性的邻近点进行迭代地聚类,使得形成具有不规则形状的超体素。在另一个实施方案中,可通过使用具有固定宽度框的空间的3D网格细分或更一般地八叉树数据结构,将超体素化与欧几里德聚类结合起来执行。
在542处,可将经后处理的3D点云叠加在原始3D点云上,并且使用豪斯多夫距离来确定这两个点云之间的偏移。豪斯多夫距离测量模型集的每个点邻近图像集的某个点的程度,反之亦然。因此,该距离可用于确定彼此叠加的两个对象之间的相似程度。例如,经后处理的点云可被视为模型集,并且532处生成的原始3D点云可被视为图像集,其中使用存储在计算设备的非暂态存储器中的算法基于豪斯多夫距离来确定这两者之间的偏移。
在544(参见图4D)处,方法500确定542处确定的豪斯多夫距离的最大值在x方向、y方向和z方向(例如,由患者的x轴、y轴和z轴限定)中的任一方向上是否大于一。所确定的豪斯多夫距离离零越近,这两个点云彼此越相似。另选地,如果最大确定值在x方向、y方向和z方向中的任一方向上大于1,则其可指示与深度相机校准相关的深度误差。
如果豪斯多夫距离不大于一,则方法500可继续到556,并且可使用经后处理的点云来执行扫描结果预测、扫描范围叠加和扫描关键点标定,如下文将相对于图9进一步描述的。然后方法500可结束。
如果豪斯多夫距离大于1,则方法500可继续到548,在此处可执行内在相机校准以解决深度误差。一旦已重新校准深度相机,方法500就可在550处继续,在此处可通过重复504处开始的工作流来捕获新的深度帧并且使用该新的深度帧生成新的原始3D点云和经后处理的3D点云。
在552处,方法500可通过确定新的经后处理的3D点云与先前深度帧的原始3D点云之间的偏移来检查患者运动。该偏移是指在获取先前深度帧与新的(例如,当前获取的)深度帧之间发生的患者位置的变化。如此前在542处所述的那样,可通过将新的经后处理的3D点云叠加在原始3D点云(在532处由方法500中获取的第一深度帧生成)上并且使用豪斯多夫距离来确定该偏移。
在554处,方法500可确定552处确定的偏移在x方向、y方向和z方向中的任一方向上是否大于1。如果该偏移不大于一,则其可指示患者没有移动,并且方法500可继续到556,在此处可使用经后处理的点云来执行扫描结果预测、扫描范围叠加和扫描关键点标定,然后方法500可结束。
如果该偏移大于1,则其可指示已发生患者运动,并且方法500可继续到558,在此处可警示技术人员对患者进行重新定位和重新取向。该警示可以是计算设备响应于554处确定的偏移大于1而发出的通知。然后方法500可结束。例如,一旦技术人员已对患者进行重新定位和重新取向而解决了与患者运动/移动有关的差异,就可重复方法500。
方法500的实现可允许提取包含深度信息全范围的患者结构的3D点云,而不依赖于深度相机曝光设置和扫描室内的光照条件。图5示出了可变扫描室条件的若干示例性表示600,可从这些可变扫描室条件捕获深度帧,随后使用该深度帧来生成患者结构的3D点云。第一列602中示出了患者的2D图像,第二列604中示出了由该2D图像确定的色调深度图像,并且第三列606中示出了由该色调深度图像确定的患者的3D点云。每行表示在不同光照条件期间获取的数据。例如,第一行608中示出了来自第一光照条件的2D图像、色调深度图像和3D点云;第二行610中示出了第二光照条件的2D图像、色调深度图像和3D点云;第三行622中示出了第三光照条件的2D图像、色调深度图像和3D点云;并且第四行624中示出了第四光照条件的2D图像、色调深度图像和3D点云。
第一行608中所示的第一光照条件包括扫描室中的所有灯都开启(例如,明亮光照条件)并且打开深度相机的自动曝光的条件。这会在扫描工作台上的患者的任一侧上产生高反射区域612,如2D图像(第一列602)中所示。这些高反射区域导致色调深度图像中的深度信息丢失,如第一行608的第二列604中所示。可在整个帧中看见呈黑色区域的该深度信息丢失或深度孔洞。如果未加校正,这些深度孔洞可导致不准确的患者3D结果估计。例如,可沿着第一行608的色调深度图像(第二行604)中的患者小腿的左外侧看到深度孔洞616。可使用方法500填补深度孔洞616以生成包含与患者结构有关的深度信息全范围的3D点云,如第一行608的3D点云(第三列606)中所示。
类似地,第二光照条件(第二行610)包括部分地照亮扫描室并且关闭深度相机的自动曝光的条件,从而在扫描工作台上的患者左侧的地板上产生高反射区域618(参见第一列602的2D图像)。高反射区域618可引起深度信息丢失,诸如第二行610的色调深度图像(第二行604)中的患者膝盖的左外边缘的深度孔洞620。使用如相对于图4A至图4D所述的方法500,仍可生成第二光照条件(第二行610)的完整3D点云(第三列606)。
第三光照条件(第三行622)包括扫描室中的昏暗光照并且打开深度相机的自动曝光。由于该昏暗光照,2D图像(第一行602)中不存在高反射区域。此外,所得色调深度图像(第二行604)中没有明显孔洞。因此,与第一光照条件和第二光照条件相比,色调深度图像在生成第三光照条件(第三行622)的3D点云(第三列606)过程中可经历减少的校正和处理。
第四光照条件(第四行624)包括扫描室中无光照,并且关闭深度相机的自动曝光。然而,即使光照不良,所得色调深度图像(第二列604)也没有缺少深度信息的孔洞。例如,可调整色调深度图像的直方图以便生成第三行606中所示的3D点云。因此,可使用图4A至图4D的方法500通过根据所捕获的图像自身的特征(诸如不良光照、高反射等)处理所捕获的图像,而在变化光照条件和不同深度相机设置下准确地生成患者结构的3D点云。
图6示出了可如何分割方法500中生成的所处理的3D点云以使得场景内仅保留感兴趣点的示例700。作为一个非限制性示例,场景的视图702示出了患者定位的工作台周围的医学设备708。当捕获场景的热图像704时,可使用对象识别和分类来识别热图像704内的医学设备708。一旦已识别医学设备708并对其进行分类,就可如此前相对于图4C所述的那样对其进行分割,以使得随后生成的3D点云706仅包含与扫描工作台上的患者取向、姿势和位置有关的信息。例如,3D点云706未示出医学设备708的结构。
图7示出了使用图4A至图4D中呈现的方法在昏暗光照条件下的3D患者结构确定的示例800。当部分地照亮和/或使用具有较低强度的灯照亮患者检查场景时,可出现昏暗光照条件。此外,患者盖着毯子,如2D图像802中所示。使用如相对于图4A至图4D所述的方法500,由2D图像802生成盖着毯子的患者的色调深度图像804(例如,在昏暗光照条件下),然后使用该色调深度图像生成原始3D点云806,可从该原始3D点云提取经准确滤波和处理的3D点云808。然后可将经滤波和处理的3D点云808叠加到原始3D点云806上,如叠加810所示。之后可使用叠加810来执行患者与扫描仪碰撞预测、扫描范围叠加和扫描关键点标定,因为叠加810可将患者结构与其余患者检查场景(包括毯子、定位患者的工作台和机架孔)区分开。
图8A至图8C以一系列连续图像900的方式示出了如相对于图4A至图4D所述的方法500的各个方面。图8A的图像902是可在方法500的504处获取的定位在扫描工作台上的患者的2D图像。图8A的图像904是可在方法500的532处使用深度相机捕获的图像902中所示患者的深度图像。图8A的图像906是可生成并用于在方法500的531处对深度相机执行相机与世界坐标转换的原始3D点云。图8A的图像908是在深度相机与世界坐标转换之后可在方法500的532处捕获的患者位置的原始3D点云。图8B的图像910可在方法500的534处对图像908执行等值面体积提取之后生成。图8B的图像912示出了在方法500的536处执行体素滤波以降低3D点云的密度之后的图像910。图8B的图像914示出了在方法500的538处分割了非期望的区域之后的图像912。图8B的图像916是原始3D点云,其可在方法500的542处与图像914中所示的经分割、处理的3D点云叠加以基于患者移动或相机校准来确定潜在偏移。图8C的图像918、920和922示出了使用方法500生成的经后处理的3D点云的不同角度,这些角度可用于在医学成像之前确定3D患者结构估计。
如上所提及,3D患者结构估计可用于扫描结果预测、扫描范围叠加和扫描关键点标定,该扫描关键点标定也可用于确定患者是否处于所需的扫描姿势。因此,图9提供了用于分析3D患者结构估计以便进行姿势预测的示例性方法1000。作为一个示例,可由计算设备(例如,图2的计算设备216)作为图4A至图4D的方法500(例如,556处)一部分在医学成像之前和/或期间执行方法1000。以举例的方式使用CT成像系统,其中患者定位在能够相对于机架孔移动的工作台上。
在1002处,方法1000包括接收经后处理的3D点云与原始3D点云的叠加。例如,计算设备可使用图4A至图4D的方法500来迭代地调整深度相机的设置和/或校正由深度相机所捕获的图像确定的深度帧,直到获得深度信息中不包括孔洞的经后处理的3D点云。
在1004处,方法1000包括由经后处理的3D点云确定患者体形和患者姿势。在该示例中,患者姿势包括患者在工作台上的位置和取向两者。例如,经后处理的3D点云可用于确定患者相对于机架取向为其头先进还是足先进,以及患者处于仰卧位、俯卧位还是侧卧位。另外,可确定患者的肢体的定位(例如,双臂交叉在胸部上、右腿朝向胸部弯曲、左臂伸直且抬高等)。在一个实施方案中,可使用存储在计算设备的非暂态存储器中的经训练分类器来对患者体形和患者姿势进行分类,以基于解剖关键点和身体区域来分析经后处理的3D点云。例如,第一分类器可识别患者取向(例如,足先进还是头先进),第二分类器可识别患者位置(例如,仰卧、俯卧、侧卧),第三分类器可识别肢体姿势(例如,两条腿均伸直、左臂交叉在胸部上),第四分类器可估计内部器官相对于机架和扫描工作台的位置(例如,心脏相对于机架/扫描工作台居中)等。在另一个实施方案中,经后处理的3D点云可由身体区域(例如,头部、躯干)使用全局约束(例如,患者的身高、体重、宽度)进行解析或分割,并且每个区域内的解剖特征结构基于身体边界进一步限定。
在1006处,方法1000包括将所确定的患者姿势与所需的患者姿势进行比较。可基于例如所接收的检查CID来确定所需的患者姿势,该检查CID规定了待使用的扫描方案以及用于执行该检查的所需患者姿势。作为一个示例,可使用如前所述的经训练分类器来对所确定的患者姿势进行分类,并且随后将其直接与概述所需患者姿势的类别信息进行比较。在这种示例中,可将所确定的患者姿势的每个类别与所需患者姿势的对应类别进行比较,并且可确定匹配或不匹配。作为另一个示例,另外地或另选地,模型拟合可用于执行所确定的患者姿势和所需的患者姿势之间的粗略对准。例如,使用经训练分类器来确定的概述身体区段(例如,头部、躯干、骨盆、大腿、小腿)内的重要解剖关键点可以与所需患者姿势的分割绘画结构模型粗略对准。
在1008处,方法1000包括确定所确定的患者姿势是否匹配所需的患者姿势。作为一个示例,如果所确定的患者姿势的任何类别都不匹配所需的患者姿势的对应类别(例如,存在至少一个不匹配),则可以推断所确定的患者姿势不匹配所需的患者姿势。另选地,如果不存在不匹配(例如,所确定的姿势和所需的姿势之间的所有类别匹配),则可以推断所确定的患者姿势匹配所需的患者姿势。作为另一个示例,另外地或另选地,算法可分析所确定的患者姿势和所需的患者姿势的粗略对准以确定两个姿势是否匹配。
如果所确定的患者姿势不匹配所需的患者姿势,则方法1000进行到1014并且包括警示技术人员对患者进行重新定位和重新取向。可经由由计算设备(诸如图2的计算设备216)或通信地耦接到计算设备的用户显示器(例如,图2的显示器232)发出的通知来警示技术人员对患者进行重新定位和重新取向。例如,计算设备可输出听觉或视觉警示。至少在一些示例中,警示可包括患者姿势不匹配所需姿势的指示以及用于重新定位患者的指令。然后方法1000可结束。
返回到1008,如果所确定的患者姿势的确匹配所需的患者姿势,则方法1000进行到1010并且包括基于相对于工作台坐标的患者体形来执行扫描结果预测。扫描结果预测可包括确定当患者和扫描工作台移动到孔中时是否可能发生任何潜在的患者与机架接触,以及一旦扫描开始就预测潜在接触。在一些示例中,扫描结果预测还可以包括通过患者体形上的扫描叠加来识别扫描的开始和结束范围。在一个实施方案中,可以使用算法来执行扫描结果预测,以使用所确定的患者结构估计(例如,患者体形和姿势)作为输入来确定所确定的患者位置的多少个点超过孔的边界以及多少个点在孔的边界内。
在1012处确定是否预测到扫描问题。扫描问题可包括一旦扫描开始就将导致患者与机架孔之间的物理接触的患者位置。另外地或另选地,扫描问题可以包括扫描叠加上的扫描的开始和结束范围不与检查的CID对准。例如,即使患者被定位在正确的姿势,对肢体位置的小调整例如也可导致感兴趣的解剖结构的更清晰图像。如果预测到扫描问题,则方法1000进行到1014并且包括警示技术人员对患者进行重新定位和重新取向,如上所述。如果未预测到扫描问题,则方法1000进行到1016并且包括开始患者扫描方案。然后方法1000可结束。
这样,一旦患者结构的分析断定患者已适当定位,就可开始患者扫描。可使用来自深度相机的数据来确定患者结构,其中通过校正深度图像和/或调整深度相机设置来补偿深度孔洞。因此,可提高患者成像的准确性,同时可减少拒绝和重复扫描的发生率,从而减少可作出诊断之前的时间量。另外,可在可变光照条件下通过相同增加的准确性来确定患者结构。
向定位在医学成像系统的工作台上的患者的深度图像应用动态校正的技术效果是增加患者姿势估计的准确性,由此通过确保患者处于扫描的所需姿势来增加由医学成像系统进行的扫描的准确性。
如本文所用,以单数形式列举并且以单词“一个”或“一种”开头的元件或步骤应当被理解为不排除多个所述元件或步骤,除非明确说明此类排除。此外,对本发明的“一个实施方案”的引用不旨在被解释为排除也包含所引用特征的附加实施方案的存在。此外,除非明确地相反说明,否则“包含”、“包括”或“具有”具有特定特性的元件或多个元件的实施方案可包括不具有该特性的附加此类元件。术语“包括”和“在...中”用作相应的术语“包含”和“其中”的简明语言等同形式。此外,术语“第一”、“第二”和“第三”等仅用作标记,而不旨在对其对象施加数字要求或特定位置次序。
该书面描述使用示例来公开本发明,包括最佳模式,并且还使相关领域中的普通技术人员能够实践本发明,包括制造和使用任何设备或系统以及执行任何包含的方法。虽然本文所提供的示例涉及医学应用,但本公开的范围覆盖工业、生物医学和其他领域的非破坏性测试。本发明可取得专利权的范围由权利要求书限定,并且可包括本领域普通技术人员想到的其他示例。如果此类其它示例具有与权利要求书的字面语言没有区别的结构元件,或者如果它们包括与权利要求书的字面语言具有微小差别的等效结构元件,则此类其它示例旨在落入权利要求书的范围内。
Claims (20)
1.一种用于医疗成像系统的方法,所述方法包括:
经由深度相机获取定位在所述医学成像系统的工作台上的患者的深度图像;
基于来自所述深度图像的直方图数据来校正所述深度图像;以及
基于所校正的深度图像来提取所述患者的三维结构。
2.根据权利要求1所述的方法,还包括:
从所述患者的所提取的三维结构来确定所述患者的姿势;
将所述患者的所确定的姿势与所需的患者姿势进行比较;以及
响应于所述患者的所确定的姿势不匹配所需的患者姿势来输出警示。
3.根据权利要求1所述的方法,其中所述工作台能够相对于机架孔移动,并且所述方法还包括:
从所述患者的所提取的三维结构来确定所述患者的体形;
相对于所述工作台的坐标基于所述患者的所确定的体形来执行扫描预测;以及
响应于所述扫描预测指示所述患者与所述机架孔之间的接触来输出警示。
4.根据权利要求1所述的方法,其中基于来自所述深度图像的所述直方图数据校正所述深度图像包括执行基于照明系数(CoIV)的校正,并且进一步基于来自所述患者的彩色图像的直方图数据。
5.根据权利要求4所述的方法,其中执行所述基于CoIV的校正包括:
确定来自所述深度图像和所述彩色图像两者的组合直方图数据的标准偏差以及所述组合直方图数据的CoIV;
响应于所述组合直方图数据的所述CoIV大于所述组合直方图数据的所述标准偏差而关闭所述深度相机的自动曝光设置;以及
响应于所述组合直方图数据的所述CoIV不大于所述组合直方图数据的所述标准偏差而打开所述深度相机的所述自动曝光设置,其中基于所述组合直方图数据的所述CoIV、所述组合直方图数据的所述标准偏差以及将所述深度图像的坐标与所述工作台的坐标相关联的尺度因子来调整所述自动曝光设置。
6.根据权利要求1所述的方法,其中基于来自所述深度图像的所述直方图数据校正所述深度图像包括执行包围曝光深度成像(BEDI)校正。
7.根据权利要求6所述的方法,其中执行所述BEDI校正包括以下中的至少一者:执行所述直方图数据的均衡,确定所述深度图像中的反射区域的容差水平,以及调整所述深度相机的曝光设置。
8.根据权利要求7所述的方法,其中执行所述直方图数据的所述均衡响应于基于所述直方图数据来识别所述深度图像中的不良照明,确定所述深度图像中的所述反射区域的所述容差水平响应于基于所述直方图数据来识别所述深度图像中的反射噪声,并且调整所述深度相机的所述曝光设置基于所述直方图数据的当前强度值和当前曝光设置。
9.根据权利要求1所述的方法,其中基于所校正的深度图像来提取所述患者的所述三维结构包括:
根据所校正的深度图像生成三维点云;以及
执行所述三维点云的等值面体积提取以提取所述患者的所述三维结构。
10.根据权利要求9所述的方法,其中所述三维点云是原始三维点云,并且所述方法还包括:
经由体素滤波和分割来处理所述原始三维点云,以将所述患者的所述三维结构与所获取的深度图像中的其他对象隔离;
将所处理的三维点云叠加在所述原始三维点云上;
使用豪斯多夫距离来确定所处理的三维点云与所述原始三维点云之间的偏移;以及
响应于所述豪斯多夫距离大于一,指示深度误差并且在获取所述患者的新深度图像之前调整所述深度相机的校准。
11.一种用于医疗成像系统的方法,所述方法包括:
基于来自所获取的图像的直方图数据,调整被定位用于获取患者检查场景的图像的深度相机的曝光模式和增益;以及
基于所获取的图像来确定所述患者检查场景中的患者的三维结构。
12.根据权利要求11所述的方法,还包括:
根据所述患者的所确定的三维结构来确定所述患者的姿势和体形;
将所述患者的所确定的姿势与所需的患者姿势进行比较;
相对于所述患者检查场景基于所述患者的所确定的体形来预测是否将发生检查问题;以及
响应于所述患者的所确定的姿势不匹配所需的患者姿势以及预测到所述检查问题中的至少一者来输出警示。
13.根据权利要求11所述的方法,其中调整所述深度相机的所述曝光模式和所述增益包括基于所述直方图数据中的峰分布来在具有自动曝光打开的第一模式与具有自动曝光关闭的第二模式之间调整所述曝光模式。
14.根据权利要求13所述的方法,其中基于所述直方图数据中的所述峰分布来在所述第一模式和所述第二模式之间调整所述曝光模式包括:
确定所述直方图数据中的所述峰分布的照明变化系数(CoIV)和标准偏差;
响应于所述CoIV大于所述标准偏差,将所述曝光模式调整为所述第一模式并基于所述CoIV设置所述增益;以及
响应于所述CoIV不大于所述标准偏差,将所述曝光模式调整为所述第二模式。
15.根据权利要求11所述的方法,其中基于来自所获取的图像的所述直方图数据来调整所述深度相机的所述曝光模式和所述增益包括:
基于所述直方图数据来确定所获取的图像中的每个图像的色调范围和色调平衡;
基于所述色调范围和所述色调平衡的强度值来识别所获取的图像中的曝光过度和曝光不足的区域;以及
基于所述强度值调整所述曝光模式和所述增益以补偿所述所述曝光过度和曝光不足的区域。
16.一种系统,包括
可旋转的机架,所述可旋转的机架具有在其中居中设置的孔;
工作台,所述工作台能够在所述孔内移动并且被配置为将用于图像数据获取的受检者定位在所述孔内;
相机,所述相机被定位为获取所述工作台上的所述受检者在进入所述孔之前的图像;以及
计算设备,所述计算设备将可执行指令存储在非暂态存储器中,所述可执行指令在被执行时使所述计算设备:
从所述相机接收所述工作台上的所述受检者的图像;
基于来自所接收的图像的直方图数据来识别所接收的图像中的光照条件;
基于所识别的光照条件来校正所接收的图像;
基于所校正的图像来识别所述工作台上的所述受检者的姿势;以及
响应于所述受检者的所述姿势偏离用于所述图像数据获取的所需姿势来输出警示。
17.根据权利要求16所述的系统,其中所述光照条件包括昏暗光照和明亮光照中的至少一者,并且使所述计算设备基于所识别的光照条件来校正所接收的图像的所述指令包括存储在非暂态存储器中的另外指令,所述另外指令在被执行时使所述计算设备:
响应于识别到昏暗光照而在所接收的图像中识别曝光不足的区域;以及
响应于识别到明亮光照而在所接收的图像中识别反射区域。
18.根据权利要求17所述的系统,其中所述计算设备包括存储在非暂态存储器中的另外指令,所述另外指令在被执行时使所述计算设备:
响应于识别到昏暗光照而增加所述相机的曝光设置;以及
在以所增加的曝光设置来操作时,基于从所述相机接收的新图像来校正所接收的图像中的所述曝光不足的区域。
19.根据权利要求17所述的系统,其中所述计算设备包括存储在非暂态存储器中的另外指令,所述另外指令在被执行时使所述计算设备:
响应于识别到明亮光照来减少所述相机的曝光设置;以及
在以所减少的曝光设置来操作时,基于从所述相机接收的新图像来校正所接收的图像中的所述反射区域。
20.根据权利要求16所述的系统,其中使所述计算设备基于所校正的图像来识别所述工作台上的所述受检者的所述姿势的所述指令包括存储在非暂态存储器中的另外指令,所述另外指令在被执行时使所述计算设备:
根据所校正的图像生成所述工作台上的所述受检者的三维点云;
从所述三维点云提取所述工作台上的所述受检者的结构;以及
将所述工作台上的所述受检者的所述结构与姿势分类器进行比较以识别所述工作台上的所述受检者的所述姿势。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/730,694 US11276166B2 (en) | 2019-12-30 | 2019-12-30 | Systems and methods for patient structure estimation during medical imaging |
US16/730,694 | 2019-12-30 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113116367A true CN113116367A (zh) | 2021-07-16 |
Family
ID=76546414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011347867.6A Pending CN113116367A (zh) | 2019-12-30 | 2020-11-26 | 用于医学成像期间的患者结构估计的系统和方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11276166B2 (zh) |
JP (1) | JP7135064B2 (zh) |
CN (1) | CN113116367A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023036729A1 (en) * | 2021-09-09 | 2023-03-16 | Koninklijke Philips N.V. | Camera based detection of subject position |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085797A (zh) * | 2019-06-12 | 2020-12-15 | 通用电气精准医疗有限责任公司 | 3d相机-医疗成像设备坐标系校准系统和方法及其应用 |
JP7410619B2 (ja) * | 2019-10-31 | 2024-01-10 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
US11694333B1 (en) * | 2020-02-05 | 2023-07-04 | State Farm Mutual Automobile Insurance Company | Performing semantic segmentation of 3D data using deep learning |
US11418719B2 (en) | 2020-09-04 | 2022-08-16 | Altek Semiconductor Corp. | Dual sensor imaging system and calibration method which includes a color sensor and an infrared ray sensor to perform image alignment and brightness matching |
US11496660B2 (en) * | 2020-09-04 | 2022-11-08 | Altek Semiconductor Corp. | Dual sensor imaging system and depth map calculation method thereof |
US11689822B2 (en) | 2020-09-04 | 2023-06-27 | Altek Semiconductor Corp. | Dual sensor imaging system and privacy protection imaging method thereof |
US11496694B2 (en) | 2020-09-04 | 2022-11-08 | Altek Semiconductor Corp. | Dual sensor imaging system and imaging method thereof |
US11568526B2 (en) | 2020-09-04 | 2023-01-31 | Altek Semiconductor Corp. | Dual sensor imaging system and imaging method thereof |
US11540801B2 (en) * | 2020-10-27 | 2023-01-03 | Shanghai United Imaging Intelligence Co., Ltd. | Automating a medical environment |
TWI802827B (zh) * | 2020-12-01 | 2023-05-21 | 財團法人國家實驗研究院 | 校正異常點雲資料之方法 |
CN113975661B (zh) * | 2021-11-16 | 2024-03-01 | 神州医疗科技股份有限公司 | 一种监控治疗设备的质控方法、装置、系统及存储介质 |
JP2023098344A (ja) * | 2021-12-28 | 2023-07-10 | キヤノンメディカルシステムズ株式会社 | 医用画像診断装置、医用画像診断システム及びスキャン範囲の設定方法 |
WO2023190510A1 (ja) * | 2022-03-30 | 2023-10-05 | 京セラ株式会社 | データ処理装置、ロボット制御システム及びプログラム |
US11937970B2 (en) * | 2022-05-05 | 2024-03-26 | GE Precision Healthcare LLC | System and method for calibrating a camera feature detection system of an x-ray system |
WO2024120991A1 (en) * | 2022-12-09 | 2024-06-13 | Koninklijke Philips N.V. | X-ray dose determination apparatus |
US11887230B1 (en) * | 2023-06-02 | 2024-01-30 | Dell Products L.P. | Method, device, and computer program product for generating data |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7612805B2 (en) * | 2006-07-11 | 2009-11-03 | Neal Solomon | Digital imaging system and methods for selective image filtration |
US7869562B2 (en) | 2008-05-19 | 2011-01-11 | Siemens Aktiengesellschaft | Automatic patient positioning system |
KR101291071B1 (ko) * | 2010-06-08 | 2013-08-01 | 주식회사 에스칩스 | 입체 영상 오류 개선 방법 및 장치 |
DE102013220665A1 (de) | 2013-10-14 | 2015-04-16 | Siemens Aktiengesellschaft | Bestimmung eines Werts eines Aufnahmeparameters mittels einer anatomischen Landmarke |
US10331850B2 (en) | 2014-01-28 | 2019-06-25 | Siemens Healthcare Gmbh | Estimating body surface models of patients |
US9524582B2 (en) | 2014-01-28 | 2016-12-20 | Siemens Healthcare Gmbh | Method and system for constructing personalized avatars using a parameterized deformable mesh |
US20170112460A1 (en) * | 2014-06-30 | 2017-04-27 | Agfa Healthcare Nv | Method and system for configuring an x-ray imaging system |
US9782152B2 (en) * | 2014-08-18 | 2017-10-10 | Vanderbilt University | Method and system for real-time compression correction for tracked ultrasound and applications of same |
US10163195B2 (en) | 2014-12-12 | 2018-12-25 | Andrew Berlin | Spatio-temporal differential synthesis ofdetail images for high dynamic range imaging |
US10154239B2 (en) * | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
JP6570296B2 (ja) | 2015-04-09 | 2019-09-04 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN108024832A (zh) | 2015-09-28 | 2018-05-11 | 富士胶片株式会社 | 投影映射装置 |
JP6278483B2 (ja) | 2016-03-18 | 2018-02-14 | 国立大学法人広島大学 | 治療支援システム、治療支援システムの動作方法及び治療支援プログラム |
US9900584B2 (en) | 2016-04-27 | 2018-02-20 | Semyon Nisenzon | Depth map generation based on cluster hierarchy and multiple multiresolution camera clusters |
US10097793B2 (en) | 2016-07-14 | 2018-10-09 | Intel Corporation | Method and system of depth data filling of shadows for image processing |
CN109741405B (zh) | 2019-01-21 | 2021-02-02 | 同济大学 | 一种基于对偶结构光rgb-d相机的深度信息采集系统 |
-
2019
- 2019-12-30 US US16/730,694 patent/US11276166B2/en active Active
-
2020
- 2020-11-26 CN CN202011347867.6A patent/CN113116367A/zh active Pending
- 2020-12-24 JP JP2020215653A patent/JP7135064B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023036729A1 (en) * | 2021-09-09 | 2023-03-16 | Koninklijke Philips N.V. | Camera based detection of subject position |
Also Published As
Publication number | Publication date |
---|---|
JP2021121092A (ja) | 2021-08-19 |
US20210201476A1 (en) | 2021-07-01 |
JP7135064B2 (ja) | 2022-09-12 |
US11276166B2 (en) | 2022-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11276166B2 (en) | Systems and methods for patient structure estimation during medical imaging | |
CN110139607B (zh) | 用于患者扫描设置的方法和系统 | |
CN107789001B (zh) | 一种用于成像扫描的摆位方法和系统 | |
CN105796052B (zh) | 3d重构相片和内部医学扫描的联合可视化 | |
US10568602B2 (en) | Virtual positioning image for use in imaging | |
CN105339986B (zh) | 用于从断层合成数据生成边缘保留合成乳房摄影的方法 | |
US11576578B2 (en) | Systems and methods for scanning a patient in an imaging system | |
US9098935B2 (en) | Image displaying apparatus, image displaying method, and computer readable medium for displaying an image of a mammary gland structure without overlaps thereof | |
US9401019B2 (en) | Imaging tomosynthesis system, in particular mammography system | |
CN104545969A (zh) | 借助解剖学标志来确定拍摄参数的值 | |
CN105030266A (zh) | X射线计算机断层摄影装置以及扫描计划设定支援装置 | |
US10918346B2 (en) | Virtual positioning image for use in imaging | |
US20110293200A9 (en) | Quantitative image reconstruction method and system | |
JPWO2006057304A1 (ja) | X線ct装置及び画像処理装置 | |
JP6489800B2 (ja) | 画像処理装置、画像診断システム、画像処理方法およびプログラム | |
CN112258593A (zh) | 单目相机下ct或pet-ct智能定位扫描方法 | |
CN113940691A (zh) | 用于图像采集的患者定位的系统和方法 | |
JP7451460B2 (ja) | マンモグラフィにおけるユーザおよび/または患者の経験の改善のための方法およびシステム | |
CN114529502A (zh) | 用于进行自动化受检者解剖结构和取向识别的基于深度学习的方法和系统 | |
US20220036609A1 (en) | X-ray imaging system with foreign object reduction | |
Schwaab et al. | Image quality in automated breast ultrasound images: a preliminary study for the development of automated image quality assessment | |
US12004893B2 (en) | Systems and methods for artifact detection for images | |
US20240029256A1 (en) | Determining target object type and position | |
US20240148351A1 (en) | Image-based planning of tomographic scan | |
CN115689909A (zh) | 用于去除x射线成像中的防散射栅格伪影的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |