CN111566705B - 一种确定医学成像中的感兴趣区域的系统和方法 - Google Patents
一种确定医学成像中的感兴趣区域的系统和方法 Download PDFInfo
- Publication number
- CN111566705B CN111566705B CN201780098073.0A CN201780098073A CN111566705B CN 111566705 B CN111566705 B CN 111566705B CN 201780098073 A CN201780098073 A CN 201780098073A CN 111566705 B CN111566705 B CN 111566705B
- Authority
- CN
- China
- Prior art keywords
- subject
- information
- support
- region
- dimensional model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002059 diagnostic imaging Methods 0.000 title claims abstract description 12
- 238000000034 method Methods 0.000 title abstract description 66
- 238000003384 imaging method Methods 0.000 claims description 146
- 238000003860 storage Methods 0.000 claims description 57
- 238000004891 communication Methods 0.000 claims description 26
- 238000009826 distribution Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 description 83
- 238000012986 modification Methods 0.000 description 21
- 230000004048 modification Effects 0.000 description 21
- 239000010410 layer Substances 0.000 description 20
- 230000008569 process Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 18
- 230000005855 radiation Effects 0.000 description 18
- 238000005259 measurement Methods 0.000 description 14
- 230000005540 biological transmission Effects 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 11
- 210000000056 organ Anatomy 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 9
- 238000002591 computed tomography Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000001931 thermography Methods 0.000 description 6
- 239000000835 fiber Substances 0.000 description 5
- 238000002595 magnetic resonance imaging Methods 0.000 description 5
- 230000002285 radioactive effect Effects 0.000 description 5
- 210000001519 tissue Anatomy 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 230000010363 phase shift Effects 0.000 description 3
- 239000002243 precursor Substances 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 239000013558 reference substance Substances 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 210000000621 bronchi Anatomy 0.000 description 2
- 210000001072 colon Anatomy 0.000 description 2
- 210000003238 esophagus Anatomy 0.000 description 2
- 210000000232 gallbladder Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 210000004072 lung Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000003101 oviduct Anatomy 0.000 description 2
- 239000013074 reference sample Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000000813 small intestine Anatomy 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 210000003437 trachea Anatomy 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 210000000626 ureter Anatomy 0.000 description 2
- 210000003932 urinary bladder Anatomy 0.000 description 2
- 210000004291 uterus Anatomy 0.000 description 2
- 241000579895 Chlorostilbon Species 0.000 description 1
- 229920000297 Rayon Polymers 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 210000000577 adipose tissue Anatomy 0.000 description 1
- 210000000709 aorta Anatomy 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 239000011176 biofiber Substances 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000037396 body weight Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- XQPRBTXUXXVTKB-UHFFFAOYSA-M caesium iodide Chemical compound [I-].[Cs+] XQPRBTXUXXVTKB-UHFFFAOYSA-M 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 239000010976 emerald Substances 0.000 description 1
- 229910052876 emerald Inorganic materials 0.000 description 1
- 239000013305 flexible fiber Substances 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 150000002500 ions Chemical class 0.000 description 1
- 239000010977 jade Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000002600 positron emission tomography Methods 0.000 description 1
- 239000011241 protective layer Substances 0.000 description 1
- ZLIBICFPKPWGIZ-UHFFFAOYSA-N pyrimethanil Chemical compound CC1=CC(C)=NC(NC=2C=CC=CC=2)=N1 ZLIBICFPKPWGIZ-UHFFFAOYSA-N 0.000 description 1
- 239000002964 rayon Substances 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 239000012209 synthetic fiber Substances 0.000 description 1
- 229920002994 synthetic fiber Polymers 0.000 description 1
- 238000001757 thermogravimetry curve Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/0037—Performing a preliminary scan, e.g. a prescan for identifying a region of interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0083—Apparatus for testing the eyes; Instruments for examining the eyes provided with means for patient positioning
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
- A61B5/015—By temperature mapping of body part
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/1036—Measuring load distribution, e.g. podologic studies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1072—Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1077—Measuring of profiles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1115—Monitoring leaving of a patient support, e.g. a bed or a wheelchair
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1127—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6802—Sensor mounted on worn items
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0247—Pressure sensors
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0271—Thermal or temperature sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10104—Positron emission tomography [PET]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Abstract
一种用于确定医学成像中的感兴趣区域的方法可以包括从配置有至少两个位置传感器的柔性设备接收与对象的身体轮廓相对于支撑物的相关的第一位置信息。所述柔性设备可以被配置为适应所述对象的所述身体轮廓。所述支撑物可以被配置为支撑所述对象。所述方法还可以包括基于所述第一位置信息,生成所述对象的三维模型。所述方法可以进一步包括基于所述对象的所述三维模型,确定所述对象的感兴趣区域。
Description
技术领域
本申请涉及医学成像,特别涉及用于确定医学成像中的感兴趣区域(ROI)位置的系统和方法。
背景技术
近年来,医学成像技术已广泛用于临床检查和医学诊断。当使用医学成像设备进行扫描时,操作员(例如,医生、技术人员等)需要确定待扫描的患者的ROI的位置。ROI的位置可以由操作员借助于患者的预扫描图像来确定。对患者进行预扫描需要操作员花费额外的时间和精力。医学成像流程的效率可能会降低。此外,对患者进行预扫描可能对患者造成额外和不必要的辐射。因此,期望开发一种可以高效确定医学成像扫描的患者的ROI的系统和方法。
发明内容
根据本申请的一方面,提供了一种用于确定医学成像中的ROI的系统。所述系统可以包括存储一组指令的存储设备,以及与所述存储设备通信的至少一个处理器。当执行一个指令时,至少一个处理器可以被配置为使系统从配置有至少两个位置传感器的柔性设备,接收与对象的身体轮廓相对于支撑物的相关的第一位置信息。所述柔性设备可以被配置为适应所述对象的所述身体轮廓。所述支撑物可以被配置为支撑所述对象。至少一个处理器可以使系统基于所述第一位置信息,生成所述对象的三维(3D)模型。至少一个处理器还可以使系统基于所述对象的所述三维模型,确定所述对象的ROI。
在一些实施例中,所述柔性设备可以包括以阵列形式排列的至少两个单元。所述至少两个单元中的每个单元可以包括所述至少两个位置传感器中的一个或以上位置传感器。所述至少两个单元中的每对相邻单元可以通过柔性接头相互连接。
在一些实施例中,所述至少两个单元中的一个单元可以包括覆盖所述单元的所述一个或以上位置传感器的第一层。
在一些实施例中,所述至少两个单元中的所述单元还可以包括第二层。所述单元的所述一个或以上位置传感器可以被夹在所述第一层和所述第二层之间。
在一些实施例中,第一层或第二层中的至少一层可以由人造纤维和植物纤维的混合物制成。
在一些实施例中,为了确定对象的ROI,可以进一步配置至少一个处理器,以使系统基于所述对象的所述三维模型确定所述ROI在所述对象内部的位置。所述至少一个处理器还可以使所述系统获取所述对象相对于成像设备的相关的第二位置信息。至少一个处理器可以基于所述ROI在所述对象内部的所述位置和所述第二位置信息,确定所述对象的所述ROI。
在一些实施例中,第二信息的至少一部分可以从图像获取设备或配置在所述支撑物中的至少两个压力传感器获取的。
在一些实施例中,为了确定ROI在对象内部的位置,至少一个处理器可以被配置为使系统获取与所述对象的热分布相关的信息。所述至少一个处理器还可以基于所述对象的所述三维模型和与所述对象的热分布相关的所述信息确定所述ROI在所述对象内部的位置。
在一些实施例中,所述柔性设备或所述支撑物中的至少一个可以包括一个或以上热传感器,以及与所述对象热分布相关的所述信息的至少一部分可以是从所述一个或以上热传感器获取的。
在一些实施例中,为了确定ROI在对象内部的位置,可以配置至少一个处理器,以使系统获取与所述对象相关的生理数据,并且获取与所述对象相关的解剖信息。所述至少一个处理器还可以基于所述对象的所述三维模型、与所述对象相关的所述生理数据和所述解剖信息,确定所述ROI在所述对象内部的位置。
在一些实施例中,与所述对象相关的所述解剖信息可以包括所述对象的历史解剖信息或与所述对象相关的一个或以上参考样本中的解剖信息中的至少一种。
在一些实施例中,所述生理数据的至少一部分可以是从所述支撑物获取的或基于所述对象的所述三维模型确定的。
在一些实施例中,柔性设备可以是穿戴式设备。
根据本申请的另一方面,提供了一种用于确定医学成像中的ROI的系统。所述系统可以包括存储一组指令的存储设备,以及与所述存储设备通信的至少一个处理器。当执行该指令时,至少一个处理器可以被配置为使所述系统接收由投影仪投射到对象上的结构光的一个或以上图像。至少一个处理器可以基于投射到所述对象上的所述结构光的所述一个或以上图像生成所述对象的三维模型。至少一个处理器还可以基于所述对象的所述三维模型,确定所述对象的ROI。
在一些实施例中,所述结构光可以是结构光斑、结构光带或结构光网格中的至少一种。
在一些实施例中,所述结构光的所述一个或以上图像可以是从图像采集设备接收的。所述成像设备还可以包括可延长杆。所述可延长杆可以被配置为控制所述图像采集设备或所述投影仪中的至少一个的位置。
在一些实施例中,投影仪还可以包括排列成弧形的至少两个子投影仪。所述至少两个子投影仪中的每个子投影仪可以被配置为将所述结构光的至少一部分投影至所述对象上。
在一些实施例中,所述结构光的所述一个或以上图像可以是从图像采集设备接收的。所述图像采集设备还可以包括至少两个呈弧形排列的子图像采集设备。所述至少两个子图像采集设备中的每个子图像采集设备可以被配置为采集所述结构光的所述一个或以上图像之一。
根据本申请的又一方面,提供了一种用于确定ROI的系统。所述系统可以包括存储一组指令的存储设备,以及与所述存储设备通信的至少一个处理器。当执行一个指令时,至少一个处理器可能被配置为使系统接收从对象的身体轮廓到光脉冲生成器的距离信息。所述距离信息可以是基于与所述光脉冲生成器向所述对象发射的光脉冲相关的飞行时间(TOF)信息确定的。至少一个处理器可以使系统基于所述TOF信息,生成所述对象的三维模型。至少一个处理器可以使系统基于所述对象的所述三维模型确定所述对象的ROI。
在一些实施例中,所述光脉冲发生器可以向所述对象发射所述光脉冲时,所述光脉冲发生器可以在运动。所述光脉冲发生器的所述运动可以由所述成像设备中的可延长杆控制。
在一些实施例中,光脉冲发生器可以进一步包括排列成弧形的至少两个子光脉冲发生器。至少两个子光脉冲发生器中的每个子光脉冲发生器可以被配置为向对象发射光脉冲的至少一部分。
本申请的一部分附加特性可以在下面的描述中进行说明。通过对以下描述和对应附图的研究或者对实施例的生产或操作的了解,本申请的一部分附加特性对于本领域技术人员是明显的。本申请的特征可以通过对以下描述的具体实施例的各种方面的方法、手段和组合的实践或使用得以实现和达到。
附图说明
本申请将通过示例性实施例进行进一步描述。这些示例性实施例将通过附图进行详细描述。这些实施例是非限制性的示例性实施例,在这些实施例中,各图中相同的编号表示相似的结构,其中:
图1是根据本申请的一些实施例所示的示例性成像系统的示意图;
图2是根据本申请的一些实施例所示的示例性计算设备的示例性硬件和/或软件组件的示意图;
图3是根据本申请的一些实施例所示的示例性移动设备的示例性硬件和/或软件组件的示意图;
图4是根据本申请的一些实施例所示的示例性处理引擎的框图;
图5是根据本申请的一些实施例所示的用于以成像设备扫描对象的示例性流程的流程图;
图6是根据本申请的一些实施例所示的用于确定对象的ROI的示例性流程的流程图;
图7A是根据本申请的一些实施例所示的用于基于热分布信息确定ROI在对象内部的位置的示例性流程的流程图;
图7B是根据本申请的一些实施例所示的基于生理数据和解剖信息确定ROI在对象内部的位置的示例性流程的流程图;
图8A至图8C是根据本申请的一些实施例所示的示例性成像系统的示意图;
图9是根据本申请的一些实施例所示的示例性柔性设备的示意图;
图10是根据本申请的一些实施例所示的用于以成像设备扫描对象的示例性流程的流程图;
图11是根据本申请的一些实施例所示的用于以成像设备扫描对象的示例性流程的流程图;
图12是根据本申请的一些实施例所示的示例性成像系统的示意图;
图13A至图13E是根据本申请的一些实施例所示的示例性成像设备的示意图;
图14A至图14B是根据本申请的一些实施例所示的示例性成像设备的示意图;以及
图14C是根据本申请的一些实施例所述的基于成像设备的信息获取组件生成的对象的示例性图像。
具体实施方式
为了更清楚地说明本申请的实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单的介绍。然而,本领域技术人员应所述理解,可以在没有这些细节的情况下实施本申请。在其他情况下,为了避免不必要地模糊本申请的一些方面,本申请已经以相对高级别概略地描述了公知的方法、程序、系统、组件和/或电路。对于本领域的普通技术人员来讲,显然可以对所公开的实施例作出各种改变,并且在不偏离本申请的原则和范围的情况下,本申请中所定义的普遍原则可以适用于其他实施例和应用场景。因此,本申请不限于所示的实施例,而是符合与申请专利范围一致的最广泛范围。
本申请中所使用的术语仅用于描述特定的示例性实施例,并不限制本申请的范围。如本申请使用的单数形式“一”、“一个”及“所述”可以同样包括复数形式,除非上下文明确提示例外情形。还应当理解,如在本申请说明书中,术语“包括”、“包含”仅提示存在所述特征、整体、步骤、操作、组件和/或部件,但并不排除存在或添加一个或以上其他特征、整体、步骤、操作、组件、部件和/或其组合的情况。
应当理解,这里使用的术语“系统”、“引擎”、“模块”、“单元”和/或“块”是在升序中区分不同级别的不同组件、元件、部件、部分或组件的一种方法。但是,如果能达到相同的目的,这些术语可能会被另一个表达式所取代。
通常,这里使用的词语“模块”、“单元”或“块”是指体现在硬件或固件中的逻辑,或者是软件指令的集合。这里描述的模块、单元或块可以实现为软件和/或硬件,并且可以存储在任何类型的非暂时性计算机可读介质或其他存储设备中。在一些实施例中,可以编译软件模块/单元/块并将其链接到可执行程序中。应当理解,软件模块可以从其他模块/单元/块或从它们自身调用,和/或可以响应检测到的事件或中断来调用。用于在计算设备上执行的软件模块/单元/块可以配置在计算机可读介质上,例如光盘、数字视频盘、闪存驱动器、磁盘或任何其他有形介质,或者配置为数字下载(最初可以以压缩或可安装的格式存储,在执行之前需要安装、解压缩或解密)。这里的软件代码可以被部分的或全部的储存在执行操作的计算设备的存储设备中,并应用在计算设备的操作之中。软件指令可以嵌入固件中,例如可擦除可编程只读存储器(EPROM)。还应当理解,硬件模块/单元/块可以包括在连接的逻辑组件中,例如门和触发器,和/或可以包括可编程单元,例如可编程门阵列或处理器。这里描述的模块/单元/块或计算设备功能可以实现为软件模块/单元/块,但是可以用硬件或固件表示。通常,这里描述的模块/单元/块指的是逻辑模块/单元/块,可以与其他模块/单元/块组合或者分成子模块/子单元/子块,不考虑它们的物理组织或存储。所述描述可适用于系统、引擎或其中的一部分。
应当理解,当单元、引擎、模块或块被称为“位于”、“连接到”或“耦合到”另一个单元、引擎、模块或块时,它可以直接位于、连接或耦合到或与另一单元、引擎、模块或块通信,或者可以存在其他中间单元、引擎、模块或块,除非上下文有另外的明确说明。在本申请中,术语“和/或”可包括任何一个或以上相关所列条目或其组合。
根据以下对附图的描述,本申请的这些和其他的特征、特点以及相关结构元件的功能和操作方法,以及部件组合和制造经济性,可以变得更加显而易见,这些附图都构成本申请说明书的一部分。然而,应当理解的是,附图仅仅是为了说明和描述的目的,并不旨在限制本申请的范围。应当理解的是,附图并不是按比例绘制的。
本文提供了用于成像系统的系统和组件。在一些实施例中,成像系统可以包括单模态成像系统和/或多模态成像系统。单模态成像系统可以包括例如,X射线成像系统、计算机断层摄影(CT)系统、磁共振成像(MRI)系统、超声检查系统、正电子发射断层摄影(PET)系统等,或其任意组合。多模态成像系统可以包括例如,X射线成像-磁共振成像(X-ray-MRI)系统、正电子发射断层扫描-X射线成像(PET-X-ray)系统、单个光子发射计算机断层扫描-磁共振成像(SPECT-MRI)系统、正电子发射计算机断层扫描(PET-CT)系统、C臂系统、数字减影血管造影-磁共振成像(DSA-MRI)系统等。以下说明的成像系统仅用于说明目的,并不旨在限制本申请的范围。
本申请提供了用于确定医学检查的对象的感兴趣区域(ROI)的机制(可以包括方法、系统、计算机可读介质等)。例如,本申请中提供的系统和/或方法可以确定对象的三维(3D)模型,并基于三维模型和/或相对于成像设备的对象的空间位置确定ROI。所述对象的三维模型可以通过本申请中公开的各种方式确定。例如,可以基于配置有至少两个位置传感器的柔性设备、投射到对象上的结构光、与向对象发射的光脉冲相关的飞行时间(TOF)信息等,或其任意组合,确定三维模型。
图1是根据本申请的一些实施例所示的示例性成像系统100的示意图。如图所示,所述成像系统100可以包括成像设备110、网络120、一个或以上终端130、处理引擎140和存储设备150。在一些实施例中,成像设备110、终端130、处理引擎140和/或存储设备150可以通过无线连接(例如,网络120)、有线连接或其任意组合相互连接和/或通信。成像系统100的组件之间的连接可以是可变的。仅作为示例,如图1所示,成像设备110可以通过网络120连接到处理引擎140。又例如,成像设备110可以直接连接到处理引擎140。再例如,存储设备150可以如图1所示通过网络120连接到处理引擎140,或者直接连接到处理引擎140。作为又一示例,终端130可以如图1所示通过网络120连接到处理引擎140,或者直接连接到处理引擎140。
成像设备110可以通过扫描放置在成像设备110的扫描台上的对象(例如,患者)生成或提供图像数据。在一些实施例中,成像设备110可以包括单模态扫描仪和/或多模态扫描仪。单模态扫描仪可以包括例如计算机断层摄影(CT)扫描仪。多模态扫描仪可以包括单光子发射计算机断层扫描-计算机断层扫描(SPECT-CT)扫描仪、正电子发射计算机断层扫描-计算机断层扫描(PET-CT)扫描仪、计算机断层扫描-超音波(CT-US)扫描仪、数字减影血管造影-计算机断层扫描(DSA-CT)扫描仪等,或其任意组合。在一些实施例中,图像数据可以包括投影数据、与对象相关的图像等。投影数据可以是由成像设备110通过扫描对象生成的原始数据,或者是由在与对象相关的图像上的正向投影生成的数据。在一些实施例中,对象可以包括身体、物质、物体等,或其任意组合。在一些实施例中,对象可以包括身体的特定部分,例如头部、胸部、腹部等,或其任意组合。在一些实施例中,对象可能包括特定器官或ROI,例如食道、气管、支气管、胃、胆囊、小肠、结肠、膀胱、输尿管、子宫、输卵管等。
在一些实施例中,成像设备110可以包括机架111、检测器112、检测区域113、扫描台114和放射性扫描源115。机架111可以支撑检测器112和放射性扫描源115。可以将对象放置在扫描台114上以进行扫描。放射性扫描源115可以向对象发射放射性射线。辐射可以包括粒子射线、光子射线等,或它们的组合。在一些实施例中,辐射可能包括至少两个辐射粒子(例如,中子、质子、电子、μ介子、重离子)、至少两个辐射光子(例如,X射线、γ射线、紫外线、激光等),或其任意组合。检测器112可以检测从检测区域113发出的辐射和/或辐射粒子(例如,伽马光子)。在一些实施例中,探测器112可以包括至少两个探测器单元。探测器单元可以包括闪烁探测器(例如,碘化铯探测器)或气体探测器。探测器单元可以是单行探测器或多行探测器。
在一些实施例中,成像设备110可以与一个或以上可以促进对象的扫描的其他设备集成,例如图像记录设备。图像记录设备可以被配置为拍摄与对象相关的各种类型的图像。例如,图像记录设备可以是拍摄对象的外部或轮廓的二维(2D)相机。又例如,图像记录设备可以是记录对象的空间表示的三维扫描仪(例如,激光扫描仪、红外扫描仪、三维CMOS传感器)。
网络120可以包括可以促进成像系统100的信息和/或数据的交换的任何合适的网络。在一些实施例中,成像系统100的一个或以上组件(例如,成像设备110、处理引擎140、存储设备150、一个或以上终端130)可以经由网络120与成像系统100的一个或以上其他组件交流信息和/或数据。例如,处理引擎140可以经由网络120从成像设备110获取图像数据。又例如,处理引擎140可以经由网络120从终端130获取用户指令。网络120可以是或包括公共网络(例如,因特网)、专用网络(例如,局部区域网络(LAN))、有线网络、无线网络(例如,802.11网络、Wi-Fi、网络)、帧中继网络、虚拟专用网(VPN)、卫星网络、电话网络、路由器、集线器、交换机、服务器计算机和/或其任意组合。例如,网络120可以包括电缆网络、有线网络、光纤网络、电信网络、内联网、无线局部区域网络(WLAN)、城域网(MAN)、公共电话交换网络(PSTN)、蓝牙TM网络、ZigBeeTM网络、近场通信(NFC)网络等,或其任意组合。在一些实施例中,网络120可以包括一个或以上网络接入点。例如,网络120可以包括例如基站和/或互联网交换点之类的有线和/或无线网络接入点。成像系统100的一个或以上组件可以通过所述有线和/或无线接入点连接到网络120以交换数据和/或信息。
终端130可以连接到成像设备110、处理引擎140和/或存储设备150和/或与之通信。例如,终端130可以从处理引擎140获取处理后的图像。又例如,终端130可以获取经由成像设备110获取的图像数据,并且将所述图像数据发送至处理引擎140进行处理。在一些实施例中,终端130可以包括移动设备131、平板计算机132、膝上型计算机133等,或其任意组合。例如,移动设备131可以包括移动电话、个人数字助理(PDA)、游戏设备、导航设备、销售点(POS)设备、膝上型计算机、平板计算机、台式计算机等,或其任意组合。在一些实施例中,终端130可以包括输入设备、输出设备等。输入设备可以包括字母数字和其它按键,可以通过键盘、触摸屏(例如,带有触觉输入或触觉反馈)、语音输入、眼睛跟踪输入、大脑监控系统或任意其它类似的输入机制进行输入。通过输入设备接收到的输入信息可以经由例如总线传输到处理引擎140,以进行进一步处理。其他类型的输入设备可能包括光标控制设备,例如鼠标、轨迹球或光标方向键等。输出设备可以包括显示器、扬声器、打印机等,或其任意组合。在一些实施例中,终端130可以是处理引擎140的一部分。
处理引擎140可以处理从成像设备110、存储设备150、终端130或成像系统100的其他组件获取的数据和/或信息。例如,处理引擎140可以基于由成像设备110生成的投影数据重建图像。又例如,处理引擎140可以确定要由成像设备110扫描的目标区域(例如,患者体内的区域)的位置。在一些实施例中,处理引擎140可以是单个服务器或服务器组。服务器组可以是集中式或分布式的。在一些实施例中,处理引擎140可以位于成像系统100本地或远离成像系统100。例如,处理引擎140可以经由网络120从成像设备110、存储设备150和/或终端130访问信息和/或数据。又例如,处理引擎140可以直接连接到成像设备110、终端130和/或存储设备150以访问信息和/或数据。在一些实施例中,处理引擎140可以在云平台上实现。例如,云平台可以包括私有云、公共云、混合云、社区间云、分布云、内部云、多层云等,或其组合。在一些实施例中,处理引擎140可以如图2所示由具有一个或以上组件的计算设备200来实现。
存储设备150可以存储数据、指令和/或任何其他信息。在一些实施例中,存储设备150可以存储从处理引擎140、终端130和/或交互设备150获取的数据。在一些实施例中,存储设备150可以存储处理引擎140可以执行或用来执行本申请中描述的示例性方法的数据和/或指令。在一些实施例中,存储设备150可以包括大容量存储器、可移动存储器、易失性读写内存、只读内存(ROM)等,或其任意组合。示例性大容量存储器可以包括磁盘、光盘、固态驱动器等。示例性可移动存储设备可以包括闪存驱动器、软盘、光盘、存储卡、压缩盘、磁带等。示例性易失性读写内存可以包括随机存取内存(RAM)。示例性RAM可以包括动态随机存取内存(DRAM)、双倍数据速率同步动态随机存取内存(DDR SDRAM)、静态随机存取内存(SRAM)、晶闸管随机存取内存(T-RAM)和零电容随机存取内存(Z-RAM)等。示例性ROM可以包括掩膜型只读内存(MROM)、可编程只读内存(PROM)、可擦除可编程只读内存(EPROM)、电可擦除可编程只读内存(EEPROM)、光盘只读内存(CD-ROM)和数字多功能磁盘只读内存等。在一些实施例中,所述存储设备150可以在本申请中其他地方描述的云平台上实现。
在一些实施例中,存储设备150可以连接到网络120以与成像系统100的一个或以上其他组件(例如,处理引擎140、一个或以上终端130)通信。成像系统100的一个或以上组件可以经由网络120访问存储在存储设备150中的数据或指令。在一些实施例中,存储设备150可以是处理引擎140的一部分。
在一些实施例中,如图1所示,可以在成像系统100中使用三维坐标系。第一轴可以平行于扫描台114的横向方向(例如,如图1所示垂直于纸并指向纸的X方向)。第二轴可以平行于扫描台114的纵向方向(例如,如图1所示的Z方向)。第三轴可以沿着扫描台114的垂直方向(例如,如图1所示的Y方向)。三维坐标系的原点可以是空间中的任何点。三维坐标系的原点可以由操作员确定。三维坐标系的原点可以由成像系统100确定。
所述描述旨在是说明性的,而不是限制本申请的范围。许多替代、修改和变化对本领域普通技术人员将是显而易见的。本文描述的示例性实施方式的特征、结构、方法和其它特征可以以各种方式组合以获得另外的和/或替代的示例性实施例。例如,存储设备150可以是包括云计算平台的数据存储,诸如公共云、私有云、社区间云和混合云等。然而,这些变化和修改不会背离本申请的范围。
图2是根据本申请的一些实施例所示的示例性计算设备200的示例性硬件和/或软件组件的示意图,在所述示例性计算设备200上可以实现处理引擎140。如图2所示,计算设备200可以包括处理器210,存储器220,输入/输出(I/O)230和通信端口240。
处理器210可以执行计算机指令(例如,程序代码),并根据本申请描述的技术执行处理引擎140的功能。所述计算机指令可以包括例如执行在此描述的特定功能的常规、程序、对象、组件、数据结构、流程、模块和功能。例如,处理器210可以处理从成像设备110、终端130、存储设备150和/或成像系统100的任何其他组件获取的图像数据。在一些实施例中,处理器210可以包括一个或以上硬件处理器,诸如微控制器、微处理器、精简指令集计算机(RISC)、专用集成电路(ASIC)、专用指令集处理器(ASIP)、中央处理单元(CPU)、图像处理单元(GPU)、物理运算处理单元(PPU)、微控制器单元、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、高级RISC机(ARM)、可编程逻辑器件(PLD)以及能够执行一个或以上功能的任何电路和处理器等,或其任意组合。
仅仅为了说明,在计算设备200中仅描述了一个处理器。然而,应该注意的是,本申请中的计算设备200还可以包括多个处理器。因此,由本申请中描述的一个处理器执行的操作和/或方法步骤也可以由多个处理器联合地或单独地执行。例如,如果在本申请中计算设备200的处理器执行操作A和操作B,则应该理解,操作A和操作B也可以由计算设备200中的两个或以上不同的处理器共同地或单独地执行(例如,第一处理器执行操作A且第二处理器执行操作B,或者第一处理器和第二处理器共同执行操作A和B)。
存储器220可以存储从成像设备110、终端130、存储设备150和/或成像系统100的任何其他组件获取的数据/信息。在一些实施例中,存储器220可以包括大容量存储器、可移动存储器、易失性读写内存、只读内存(ROM)等,或其任意组合。例如,大容量存储器可以包括磁盘、光盘、固态硬盘等。可移动存储器可以包括闪存驱动器、软盘、光盘、内存卡、压缩盘和磁带等。易失性读写内存可以包括随机存取内存(RAM)。RAM可以包括动态RAM(DRAM)、双倍速率同步动态RAM(DDR SDRAM)、静态RAM(SRAM)、晶闸管RAM(T-RAM)和零电容RAM(Z-RAM)等。ROM可以包括掩模型只读内存(MROM)、可编程只读内存(PROM)、可擦除可编程只读内存(EPROM)、电可擦除可编程只读内存(EEPROM)、光盘只读内存(CD-ROM)和数字多功能磁盘只读内存等。在一些实施例中,存储器220可以存储一个或以上程序和/或指令以执行本申请中描述的示例性方法。例如,存储器220可以存储用于处理引擎140的程序,所述程序用于确定对象的目标区域(例如,患者的目标部分)的位置。
I/O 230可以输入和/或输出信号、数据、信息等。在一些实施例中,I/O 230可以使用户与处理引擎140交互。在一些实施例中,I/O 230可以包括输入设备和输出设备。示例性的输入设备可以包括键盘、鼠标、触控屏幕、麦克风等,或其任意组合。示例性的输出设备可以包括显示设备、扬声器、打印机、投影机等,或其任意组合。显示设备的示例可以包括液晶显示器(LCD)、基于发光二极管(LED)的显示器、平板显示器、曲面屏幕、电视设备、阴极射线管(CRT)、触摸屏屏幕等,或其任意组合。
通信端口240可以连接到网络(例如,网络120)以促进数据通信。通信端口240可以在处理引擎140和成像设备110、终端130和/或存储设备150之间建立连接。连接可以是有线连接、无线连接、可以实现数据传输和/或接收的任何其它通信连接和/或这些连接的组合。有线连接可以包括例如电缆、光缆、电话线等或其任意组合。无线连接可以包括例如蓝牙TM链路、Wi-FiTM链路、WiMaxTM链路、WLAN链路、ZigBee链路、移动网络链路(例如,3G、4G、5G)等,或其任意组合。在一些实施例中,通信端口240可以是和/或包括标准化的通信端口,例如,RS232、RS485等。在一些实施例中,通信端口240可以是专门设计的通信端口。例如,通信端口240可以根据医学数字成像和通信(DICOM)协议来设计。
图3是根据本申请的一些实施例所示的示例性移动设备300的示例性硬件和/或软件组件的示意图,在所述示例性移动设备300上可以实现终端130。如图3所示,移动设备300可以包括通信平台310、显示器320、图形处理单元(GPU)330、中央处理单元(CPU)340、,I/O350、内存360以及储存库390。在一些实施例中,任意其它合适的组件,包括但不限于系统总线或控制器(未示出),也可以被包括于移动设备300中。在一些实施例中,移动操作系统370(例如,iOSTM、AndroidTM、Windows PhoneTM等)和一个或以上应用程序380可从存储器390下载到内存360以及由CPU 340执行。应用程序380可以包括浏览器或任何其他合适的移动应用程序,用于从处理引擎140接收及呈现与成像处理或其他信息相关的信息。用户与信息流的交互可以通过I/O 350实现,并且通过网络120提供给处理引擎140和/或成像系统100的其他组件。
为了实施本申请描述的各种模块、单元及其功能,计算机硬件平台可用作本文中描述的一个或以上组件的硬件平台。具有用户接口元素的计算机可用于实施个人计算机(PC)或任何其它类型的工作站或终端设备。若计算机被适当的程序化,计算机亦可用作服务器。
图4是根据本申请的一些实施例所示的示例性处理引擎140的框图。如图4所示,处理引擎140可以包括获取模块410、模型生成模块420、感兴趣区域确定模块430和传输模块440。处理引擎140可以在各种组件(例如,如图2所示的计算设备200的处理器210)上实现。例如,处理引擎140的至少一部分可以在如图2所示的计算设备或如图3所示的移动设备上实现。
获取模块410可以获取与成像系统100相关的数据。例如,获取模块410可以获取与对象(例如,患者)相关的信息,以促进对对象的后续扫描。与对象相关的示例性信息可以包括与对象的身体轮廓相关的位置信息、指示对象在扫描台114上位置的对象图像、与对象的热分布相关的信息、与对象的生理数据相关的信息、与对象的解剖信息相关的信息、投射到对象上的结构光的图像、与向对象发射的光脉冲相关的TOF信息等,或其任意组合。在一些实施例中,获取模块410可以从成像系统100的一个或以上组件中获取与成像系统100相关的信息,例如,成像设备110、存储设备150。附加地或替代地,获取模块410可以经由网络120从外源获取信息。
模型生成模块420可以基于从获取模块410获取的信息生成对象的三维模型。例如,模型生成模块420可以基于由柔性设备测量的与对象的身体轮廓相关的位置信息生成三维模型。又例如,模型生成模块420可以基于投射在对象上的结构光的图像或与向对象发射的光脉冲相关的TOF信息生成三维模型。在一些实施例中,模型生成模块420可以根据三维重建技术、表面拟合技术或可用于生成三维模型的任何其他合适的技术生成三维模型。示例性三维重建技术可以包括基于边界位置轮廓的算法、基于非均匀有理样条(NURBS)的算法、基于三角剖分模型的算法等。示例性的表面拟合技术可以包括最小二乘(LS)算法、移动最小二乘算法(MLS)等。
感兴趣区域确定模块430可以确定与成像设备110相关的对象的ROI的位置。可以基于ROI相对于三维模型的位置和对象相对于成像设备110的位置确定ROI的位置。在一些实施例中,可以基于例如生理数据、解剖信息、与对象相关的热分布信息和/或对象的预扫描图像等,或其任何组合,确定ROI相对于三维模型的位置。例如,可以根据指示对象与扫描台114之间的空间相关性、ROI和位于对象外部的参考对象之间的空间相关性的对象图像,确定对象相对于成像设备110的位置。
传输模块440可以将信息和/或指令发送到成像设备110的一个或以上组件。在一些实施例中,信息和/或指令可能与对对象的扫描操作有关。例如,所述信息可以包括ROI相对于成像设备110的位置。传输模块440可以发送指令操作成像设备110以将扫描台114的位置调整到合适的位置,使得可以仅扫描包括对象的ROI的目标部分。
应当注意以上描述是出于说明的目的而提供的,并不旨在限制本申请的范围。对于本领域普通技术人员来说,在不背离本申请原则的前提下,可以对上述方法及系统的应用进行各种形式和细节的改进和改变。然而,这些变化和修改亦落于本申请的范围内。仅作为示例,处理设备140可以包括一个或以上其他模块。例如,处理引擎140还可以包括存储模块。所述存储模块可以被配置为存储由上述模块在处理引擎140中生成的数据。在一些实施例中,上述描述的处理引擎140的一个或以上模块可以省略。例如,可以省略传输模块440。
图5是根据本申请的一些实施例所示的用于以成像设备扫描对象的示例性流程的流程图。在一些实施例中,流程500的一个或以上如图5所示的操作可以在图1所示的成像系统100中实现。例如,图5所示的流程500的至少一部分可以以指令的形式存储在存储设备150中,并且由处理引擎140(例如,如图2所示的计算设备200的处理器210、如图3所示的移动设备300的GPU 330或CPU 340)调用和/或执行。
在502中,获取模块410可以从配置有至少两个位置传感器的柔性设备接收与对象的身体轮廓相对于支撑物的相关的第一位置信息。柔性设备可以指能够弯曲或变形以产生所需形状的设备。例如,柔性设备可以是对象可以穿的穿戴式设备,也可以是可以覆盖对象的毯子。当放在对象上或由对象穿戴上时,柔性设备可被配置为与对象的身体轮廓一致。所述支撑物可以被配置为对所述对象提供支持。在一些实施例中,支撑物可以是木板、垫子等。
所述对象可以是生物学的或非生物学的。仅作为示例,对象可以包括患者、人造物体等。又例如,对象可以包括人或动物的特定部分、细胞、组织、器官或整个身体。为了说明的目的,以患者为例。患者可以穿着柔性设备躺在支撑物上,或者患者被柔性设备覆盖的身体可以占据支撑物上的特定区域。
在一些实施例中,柔性设备可以被穿戴在或放置在对象的身体或对象的一部分(在本文中统称为对象)上。在一些实施例中,柔性设备可以被穿戴在对象上,或放置在对象上并覆盖对象的整个身体。另外地或可替代地,柔性设备可以由对象穿戴或放置在对象上并覆盖对象的一部分。例如,当对象躺在支撑物上时,柔性设备可以覆盖对象的身体前表面(即,身体表面未与支撑物接触的部分)。又例如,柔性设备可以覆盖对象下部的身体表面(例如,患者的腿)。在一些实施例中,柔性设备可以包括至少两个子柔性设备。所述子柔性设备被配置为适应对象的不同部位。仅作为示例,柔性设备可以包括至少两个子柔性设备,用于患者身体的不同部位(例如,头、臂、腿)。子柔性设备可以根据不同情况具有相同或不同的大小和配置。
当柔性设备被穿戴在对象上或放置在对象上时,柔性设备可以变形以适应对象的身体轮廓。柔性设备可以包括至少两个位置传感器。位置传感器可以被配置为收集与对象的身体轮廓相对于支撑物的相关的第一位置信息。在一些实施例中,第一位置信息可以包括柔性设备的至少两个位置传感器中的每个传感器与支撑物之间的距离测量值。例如,第一位置信息可以包括至少两个距离测量值,每个测量值指示至少两个位置传感器中的每个传感器与支撑物之间沿如图1所示的Y轴的距离。当柔性设备被穿戴在对象上或放置在对象上时,位置传感器可以靠近对象的身体表面。因此,对象的身体轮廓上的点与支撑物之间的距离可以由与对象的身体轮廓上的点对应的位置传感器与支撑物之间的距离表示。然后,至少两个位置传感器与支撑物之间的距离测量值可以被认为是对象的身体轮廓对应点与支撑物之间的距离测量值。
在一些实施例中,柔性设备的位置传感器可以是任何可以测量距离的传感器。示例性的位置传感器可以包括激光测距仪、红外测距仪、超声测距仪、雷达测距仪、微波测距仪、电磁测距仪等,或其任意组合。在一些实施例中,位置传感器可以传输和/或接收在测距流程中穿过对象的信号(例如,微波信号、电磁信号)。例如,位置传感器可以向支撑物传送信号,并且支撑物上安装的信号接收器可以接收信号。又例如,信号发生器可以安装在支撑物上,并向柔性设备的位置传感器发射信号。成像系统100的位置传感器和/或其他组件(例如,处理引擎140或处理器210)可以基于信号的TOF信息确定位置传感器与支撑物之间的距离测量值。在一些实施例中,支撑物可以包括至少两个位置传感器,并且信号发生器和/或信号接收器可以集成到支撑物的位置传感器中。
在一些实施例中,位置传感器可以确定对象和参考物质之间沿Y轴的至少两个距离测量值。参考物质可以是例如平行于支撑物并位于对象相对于支撑物的相反侧的平面。基于对象上的点与参考物质之间的距离测量,可以确定对象上的不同点之间的相对位置以及这些点与支撑物之间的距离测量值。
在一些实施例中,柔性设备的位置传感器可以以阵列形式排列。每对相邻的位置传感器可以通过柔性接头彼此连接。在一些实施例中,柔性设备可以包括以阵列形式排列的至少两个单元。所述至少两个单元中的每个单元可以包括一个或以上位置传感器。每对相邻的单元可以通过柔性接头相互连接。柔性接头可以指连接两个相邻的位置传感器和/或单元的连接器。所述连接器可以弯曲或变形而不会断裂。有关柔性设备配置的详细信息,可以在本申请的其他地方找到(例如,图8A至9及其相关说明)。
对象可以由支撑物支撑。所述支撑物可以为对象提供结构性支撑。在一些实施例中,支撑物可以是成像设备110的扫描台114。在一些实施例中,支撑物可以配置有至少两个检测单元以获取与对象相关的信息。示例性检测单元可以包括压力传感器、热传感器、位置传感器等,或其任意组合。在一些实施例中,支撑物可以包括被配置为收集对象的身体轮廓相对于支撑物的相关的第一位置信息的至少两个位置传感器。支撑物的位置传感器可以与柔性设备的位置传感器相似,因此不再重复描述。
在504中,模型生成模块420可以基于第一位置信息生成对象的三维模型。第一位置信息可以包括如结合操作502所描述的对象的身体轮廓上的点与支撑物之间的至少两个距离测量值。模型生成模块420可以基于身体轮廓上的点与支撑物之间的距离测量值生成所述对象的三维模型。在一些实施例中,可以基于三维重建技术、表面拟合技术或可用于生成三维模型的任何其他合适的技术生成三维模型。示例性三维重建技术可以包括基于边界位置轮廓的算法、基于非均匀有理样条(NURBS)的算法、基于三角剖分模型的算法等。示例性的表面拟合技术可以包括最小二乘(LS)算法、移动最小二乘算法(MLS)等。在一些实施例中,可以基于立体光刻(STL)模型生成三维模型。至少两个位置传感器在对象穿戴的柔性设备中收集的位置信息可以表示为三维空间中的分布式云点。每三个分布的云点可以形成一个微三角形网格或一个微三角形平面。基于STL模型生成的三维模型可以包括形成对象的身体轮廓的至少两个微三角形平面。在一些实施例中,模型生成模块420还可以通过网络120将三维模型发送到终端130以进行显示。
在一些实施例中,模型生成模块420可以生成与对象的前体表面(即,当对象位于支撑物上时,身体表面的不与对象接触的部分)相对应的三维曲面。三维曲面可以直接用作对象的三维模型。在一些实施例中,可以使用平面或曲面表示所述表面的后部,并且与重建的三维曲面拟合以生成对象的三维模型。在一些实施例中,可以生成对象在支撑物上的平面身体轮廓图像,并且将所述平面身体轮廓图像与重建的三维曲面组合以生成三维模型。关于平面身体轮廓图像的细节可以在本申请的其他地方找到(例如,图8A及其相关描述)。
在506中,感兴趣区域确定模块430可以基于对象的三维模型确定对象的ROI。
其中,“确定ROI”可以是指确定ROI在对象中相对于成像设备110的位置。取决于诊断需求,ROI可以是对象的整个身体或对象的一部分(例如,一个或以上器官)。例如,ROI可以是食道、气管、支气管、胃、胆囊、小肠、结肠、膀胱、输尿管、子宫、输卵管等,或其任意组合。
在一些实施例中,可以根据ROI在对象内部的相对位置和对象相对于成像设备110的第二位置信息确定对象中ROI相对于成像设备110的位置。可以基于三维模型确定ROI在对象内部的相对位置。可以基于指示对象在支撑物上的位置的对象的图像、ROI与位于对象外部的参考对象(例如,安装在扫描台114上的标记)之间的空间相关性等,或其任意组合,确定对象相对于成像设备110的第二位置信息。在一些实施例中,可以基于支撑物确定第二位置信息的至少一部分。关于ROI的确定的细节可以在本申请的其他地方找到(例如,图6及其相关描述)。
在508中,传输模块440可以将指令发送到成像设备110以扫描包括对象ROI的所述对象的目标部分。
对象的目标部分可以是包括ROI的区域。例如,如果ROI对应于对象的心脏,则目标部分可以是对象的胸部,包括整个心脏、肺以及靠近心脏的其他组织或血管的一部分。在一些实施例中,待扫描的目标部分可以由操作员手动确定或由处理引擎140自动确定。例如,操作员可以在显示在图形用户界面(GUI)上的对象的图像和/或三维模型上手动设置目标部分。又例如,处理引擎140可以基于ROI相对于成像设备110的位置和与对象的扫描协议相关的信息自动设置目标部分。
在一些实施例中,传输模块440可以发送指令操作成像设备110以将扫描台114的位置调整到合适的位置,使得可以对对象的目标部分进行扫描。指令可以包括与扫描台114的移动相关的各种参数。与扫描台114的移动相关的示例性参数可以包括移动的距离、移动的方向、移动的速度等,或其任意组合。又例如,传输模块440可以发送指令操作成像设备110以调整成像设备110的其他部件的位置,例如,放射性扫描源115或连接到扫描台114的其他机械部件。
应当注意的是,上述有关流程500的描述仅仅是为了示例和说明,而不限定本申请的适用范围。对于本领域的普通技术人员来说,可以根据本申请的描述,做出各种各样的变化和修改。然而,这些变化和修改亦落于本申请的范围内。在一些实施例中,可以增加或省略一个或以上操作。例如,操作506可以分为多个操作,包括确定ROI在对象内部的位置和对象相对于成像设备110的位置。在一些实施例中,可以省略操作508。在一些实施例中,可以由用户(例如,医生)通过终端(例如,终端130)输入扫描目标部分的指令。
图6是根据本申请的一些实施例所示的用于确定对象的ROI的示例性流程的流程图。在一些实施例中,流程600的一个或以上如图6所示的操作可以在图1所示的成像系统100中实现。例如,图6所示的流程600的至少一部分可以以指令的形式存储在存储设备150中,并且由处理引擎140(例如,如图2所示的计算设备200的处理器210、如图3所示的移动设备300的GPU 330或CPU 340)调用和/或执行。
在602中,感兴趣区域确定模块430可以基于对象的三维模型确定ROI在对象内部的位置。在一些实施例中,可以由成像系统100的用户手动设置ROI在对象内部的位置。仅作为示例,可以在终端130上显示三维模型。用户可以在三维模型中选择一个区域,并且感兴趣区域确定模块430可以响应于用户的选择将所选区域指定为ROI。在一些实施例中,在用户选择区域之后,可以在所选区域上执行预扫描,以生成所选区域的预扫描图像。感兴趣区域确定模块430还可以基于预扫描的图像确定ROI在对象内部的位置。
在一些实施例中,感兴趣区域确定模块430可以基于与对象的热分布相关的信息确定ROI在对象内部的位置。对象中不同器官的温度可以不同,并且导致不同水平的热辐射。可以基于与对象的热分布相关的信息确定ROI的位置。关于基于与对象的热分布相关的信息确定ROI的细节可以在本申请的其他地方找到(例如,图7A及其相关描述)。在一些实施例中,感兴趣区域确定模块430可以基于与对象相关的生理数据和解剖信息确定ROI在对象内部的位置。关于基于与对象相关的生理数据和解剖信息确定ROI的细节可以在本申请的其他地方找到(例如,图7B及其相关描述)。
在604中,感兴趣区域确定模块430可以获取对象相对于成像设备110的第二位置信息。
在一些实施例中,可以根据指示对象与扫描台114之间的空间相关性的对象图像确定对象相对于成像设备110的第二位置信息。例如,可以在成像设备110的机架111上安装图像获取设备(例如,相机),以记录对象相对于扫描台114的位置。又例如,支撑物可以是扫描台114,或者可以放置在扫描台114上的特定位置。支撑物可以包括至少两个压力传感器。压力传感器可以被配置为测量对象在支撑物的不同部分上产生的压力值。处理引擎140还可以基于压力值生成支撑物上的对象的身体轮廓的平面图像,其可以进一步指示对象与扫描台114之间的空间相关性。在一些实施例中,可以根据ROI与位于对象外部的参考对象(例如,安装在扫描台114上的标记)之间的空间相关性确定对象中ROI相对于成像设备110的位置。用于确定对象相对于成像设备110的位置的示例性技术可以在例如在本申请的同一天提交的标题为“患者定位的系统和方法”的国际申请No.PCT/CN2017/119896,其内容通过引用合并于此。
在606中,感兴趣区域确定模块430可以基于ROI在对象内部的位置和对象相对于成像设备110的第二位置信息确定对象的ROI。在确定ROI在对象内部的位置和对象相对于成像设备110的位置之后,感兴趣区域确定模块430可以相应地确定ROI相对于成像设备110的位置。
图7A是根据本申请的一些实施例所示的基于热分布信息确定ROI在对象内部的位置的示例性流程的流程图。在一些实施例中,流程700A的一个或以上如图7A所示的操作可以在图1所示的成像系统100中实现。例如,图7A所示的流程700A的至少一部分可以以指令的形式存储在存储设备150中,并且由处理引擎140(例如,如图2所示的计算设备200的处理器210、如图3所示的移动设备300的GPU 330或CPU340)调用和/或执行。
在702中,感兴趣区域确定模块430可以获取与对象的热分布相关的信息。
在一些实施例中,可以通过使用红外热成像技术获取与对象的热分布相关的信息。温度高于绝对零度的物体可以发出红外辐射。物体发射的红外辐射量可以随物体的温度而增加。人体/动物体的不同器官或区域可以具有不同的温度,因此可以发出不同量的红外辐射。在一些实施例中,柔性设备和/或支撑物可以包括至少两个热传感器。至少两个热传感器可以测量从对象的不同部位发出的红外辐射。处理引擎140还可以基于由热传感器测量的红外辐射生成热分布红外图像(也称为红外热谱图)。热分布的图像可以通过使用不同的颜色表示不同温度的区域说明对象的热分布。
在一些实施例中,与对象的热分布相关的信息可以通过热成像设备(例如,红外成像设备)获取。热成像设备可以检测来自对象的热辐射,并且基于热辐射确定对象表面上的热分布。热成像设备可以进一步基于对象表面上的热分布,采用热电类比技术确定对象的一个或以上热源(例如,一个或以上器官)。例如,热成像设备可以确定对象表面下的一个或以上热源(例如,一个或以上器官)中的每个的热辐射水平、深度、位置和/或形状。在一些实施例中,热成像设备可以基于检测到的热辐射生成对象的红外热分布图像。
在704中,感兴趣区域确定模块430可以基于对象的三维模型和与对象的热分布相关的信息确定ROI在对象内部的位置。例如,对象的红外热分布图像可以指示具有不同温度的不同器官或组织的位置。感兴趣区域确定模块430可以基于红外热分布图像确定ROI相对于对象的三维模型的位置。
图7B是根据本申请的一些实施例所示的基于生理数据和解剖信息确定ROI在对象内部的位置的示例性流程的流程图。在一些实施例中,流程700B的一个或以上如图7B所示的操作可以在图1所示的成像系统100中实现。例如,图7B所示的流程700B的至少一部分可以以指令的形式存储在存储设备150中,并且由处理引擎140(例如,如图2所示的计算设备200的处理器210、如图3所示的移动设备300的GPU 330或CPU 340)调用和/或执行。
在706,感兴趣区域确定模块430可以获取与对象相关的生理数据。
生理数据可以包括体重、身高、体重指数(BMI)、体脂百分比等,或其任意组合。在一些实施例中,生理数据可以是从存储设备(例如,存储设备150)中检索到的历史数据。另外地或可替代地,可以在医学检查之前或期间使用生理数据的测量仪器测量生理数据。
在一些实施例中,可以从支撑物获取生理数据的至少一部分。仅作为示例,所示支撑物可以包括至少两个被配置为测量对象的压力值的压力传感器。可以基于由压力传感器检测到的压力值的总量确定对象的体重。又例如,当压力传感器以点阵列排列时,可以基于压力传感器在支撑物上的位置确定对象的高度。可以通过将体重除以身高的平方计算体重指数。
在一些实施例中,可以基于三维模型确定生理数据的至少一部分。例如,感兴趣区域确定模块430可以基于三维模型确定与对象相关的生理数据。基于三维模型确定的示例性生理数据可以包括对象或其一部分(例如,腿)的高度、体积、厚度、宽度。
在708中,感兴趣区域确定模块430可以获取与对象相关的解剖信息。
与对象相关的解剖信息可以包括指示对象的生理结构的任何信息。例如,“解剖信息”可以指示对象的一个或以上器官和/或组织的位置、形状、体积、大小。在一些实施例中,可以根据与对象相关的历史数据获取解剖信息。例如,解剖信息可以是包括解剖信息的对象的历史医学图像(例如,CT图像、MRI图像)。另外地或可替代地,可以从与对象相关的参考样品的解剖信息中获取解剖信息。不同器官(例如,心脏、肺等)和组织(例如,骨骼、主动脉等)的位置在人与人之间可以相似,并且可以受体重、身高、身体类型等生理数据的影响。与对象相关的参考样品可以指具有与对象相似的特征(例如,相似的身高或体重)的样品(例如,人)。例如,感兴趣区域确定模块430可以根据具有与对象相似的特征(例如,相似的身高或体重)的其他人的解剖信息(例如,医学图像)获取与对象相关的解剖信息。
在一些实施例中,与对象相关的解剖信息可以存储在存储设备(例如,存储设备150)中。感兴趣区域确定模块430可以访问存储设备并检索与对象相关的解剖信息。附加地或替代地,感兴趣区域确定模块430可以通过网络120从外源(例如,医院或医疗机构的数据库)获取与对象相关的解剖信息。
在710中,感兴趣区域确定模块430可以基于对象的三维模型、与对象相关的生理数据和解剖信息确定ROI在对象内部的位置。在一些实施例中,感兴趣区域确定模块430可以根据形态学方法基于生理数据和解剖信息确定ROI相对于对象的三维模型的位置。
应当注意的是,上述有关流程700A和流程700B的描述仅仅是为了示例和说明,而不限定本申请的适用范围。对于本领域的普通技术人员来说,可以根据本申请的描述,做出各种各样的变化和修改。然而,这些变化和修改亦落于本申请的范围内。在一些实施例中,可以增加或省略一个或以上操作。例如,可以省略操作706。感兴趣区域确定模块430可以基于三维模型和与对象相关的解剖信息确定ROI在对象内部的位置。仅作为示例,可以基于三维模型和对象的历史医学图像或其他样本的历史医学图像确定ROI在对象内部的位置。在一些实施例中,感兴趣区域确定模块430可以基于热分布信息和/或解剖信息而无需三维模型确定ROI在对象内部的位置。例如,感兴趣区域确定模块430可以直接基于对象的热分布图像确定ROI在对象内部的位置。
图8A至图8C是根据本申请的一些实施例所示的示例性成像系统800的示意图。如图所示,成像系统800可以包括成像设备110、柔性设备820和支撑物830。成像设备110可以包括台架111和扫描台114。在一些实施例中,成像系统800可以进一步包括与成像系统100相同或相似的组件。
如图8A所示,对象810可以穿戴柔性设备820或被柔性设备820覆盖,并且躺在支撑物830上。支撑物830可以放置在扫描台114上。在一些实施例中,扫描台114可以进一步包括台面和滑轨。在扫描期间,成像设备110可以通过滑轨将台面移动调整对象810的位置。
柔性设备820可以适应对象810的身体轮廓,并且可以用于确定对象810的身体轮廓。柔性设备820可以包括至少两个位置传感器。位置传感器可以被配置为收集与对象830的身体轮廓相对于支撑物830的相关的第一位置信息。在一些实施例中,可以在医学扫描之前从对象上去除柔性设备820。
支撑物830可以为对象810提供结构支撑。在一些实施例中,支撑物830可以配置有至少两个传感器以收集与对象810相关的信息。示例性传感器可以包括压力传感器、热传感器、位置传感器等,或其任意组合。由支撑物830收集的示例性信息可以包括重量、高度、对象810的身体轮廓和支撑物830之间的至少两个距离测量、对象810相对于支撑物830的位置信息等,或其任意组合。
在一些实施例中,可以在支撑物830上设置至少两个压力传感器以检测由对象810产生的压力值。处理引擎140可以基于压力值生成在支撑物830上的对象810的平面身体轮廓图像。支撑物830上的对象810的平面身体轮廓图像可以指示对象810相对于支撑物830的位置信息。在一些实施例中,支撑物830可以是扫描台114或被放置在扫描台114上的特定位置。然后,可以基于对象810相对于支撑物830的位置信息确定对象810相对于扫描台114的位置信息。
在一些实施例中,支撑物830上的对象810的平面身体轮廓图像可以与第一位置信息结合。所述第一位置信息包括身体轮廓和支撑物830之间的至少两个距离测量,以生成对象810的三维模型。例如,可以基于第一位置信息生成与对象的前体表面(即,当对象位于扫描台上时,不与对象接触的身体表面部分)相对应的三维曲面。平面身体轮廓图像可以用于表示对象的背部,并且与三维曲面拟合以生成对象的三维模型。
在一些实施例中,如图8B所示,柔性设备820可以包括至少两个单元840。例如,至少两个单元840可以以阵列形式排列。至少两个单元840中的每一个单元可以包括一个或以上传感器,例如,位置传感器、热传感器等。单元840可以经由一个或以上柔性接头连接到一个或以上单元840。因此,柔性设备820可以变形以适应对象810的身体形状。在一些实施例中,单元840可以包括覆盖单元840的一个或以上传感器的一个或以上保护层。关于柔性设备820的结构的详细信息可以在图9及其描述中找到。
在一些实施例中,成像系统800可以包括一个或以上与成像系统100相同或相似的组件,例如一个或以上终端130和处理引擎140。柔性设备820可以经由有线连接、无线连接(例如,网络)或其组合连接到成像系统800的一个或以上其他部件和/或与之通信。例如,如图8C所示,可以将柔性设备820连接到终端130和处理引擎140和/或与终端130和处理引擎140通信。柔性设备820可以将检测到的与对象相关的信息(例如,对象810的身体轮廓与支撑物830之间的距离信息、对象810所发射的红外辐射等)发送到处理引擎140。处理引擎140可以处理从柔性设备820接收的信息。例如,处理引擎140可以生成对象810的三维模型和/或红外热分布图像。
在一些实施例中,柔性设备820和/或处理引擎140可以进一步将信息或处理后的信息发送给终端130进行显示。操作员可以通过终端130的界面查看信息和/或处理后的信息。附加地或替代地,操作员还可以经由终端130将数据和/或指令输入到处理引擎140和/或柔性设备820。例如,操作员可以指示柔性设备820收集与对象810相关的信息。又例如,操作员可以基于由柔性设备820收集的信息,指示处理引擎140生成对象810的三维模型。
在一些实施例中,支撑物830还可以连接到成像系统800的一个或以上其他部件和/或与之通信。支撑物830与其他部件之间的连接可以类似于柔性设备820的连接,此处不重复其描述。
图9是根据本申请的一些实施例所示的示例性柔性设备820的示意图。
柔性设备820可以包括设置成点阵列的至少两个单元。每个单位可以包含一个或以上位置传感器。至少两个单元中的每对相邻单元可以通过柔性接头相互连接。在一些实施例中,柔性设备820的不同单元可以具有相同或不同的配置。例如,柔性设备820的每个单元可以具有相同的大小。又例如,相对于对象的不同部分,不同的单元可以具有不同的大小和不同数量的位置传感器。在一些实施例中,柔性设备820可以是可拆卸和/或折叠的。例如,可以打开或移除柔性设备820的一个或以上柔性接头,并且柔性设备820可以分解为至少两个子部件。
如图9所示,柔性设备820可以包括至少两个单元。为了说明的目的,以单元840A和单元840B的配置和设置为例进行描述。单元840A和单元840B可以通过柔性接头930彼此连接。柔性接头930可以弯曲或变形而不会断裂。单元840A和单元840B之间的相对位置可以经由柔性接头930改变以适应对象的身体轮廓。例如,单元840A和单元840B之间的角度可以改变,使得柔性设备820可以更好地适应对象的身体轮廓。在一些实施例中,单元840A和单元840B可以通过例如打开或移除柔性接头930拆卸。在一些实施例中,柔性接头930可以包括至少两个柔性纤维。柔性接头930可以由任何柔性材料制成,例如,纤维和软橡胶的复合材料、生物纤维材料等,或其任意组合。
单元840A可以包括一个或以上传感器940、第一层910和第二层920。单元840A还可以包括一个或以上热传感器(未示出)。如图9所示,位置传感器940可以被夹在第一层910和第二层920之间。第一层910和第二层920可以为传感器940提供结构支撑和保护,并且使得柔性设备820对对象810更舒适。在一些实施例中,第一层910和第二层920可以由例如人造纤维、植物纤维等的材料制成。第一层910和第二层920的构造可以相同或可以不相同。单元840B可以具有与单元840A相同或相似的配置,此处不重复其描述。
应当注意的是,图8A至图9所示的示例及其上面的描述仅仅是为了示例和说明,而不限定本申请的适用范围。对于本领域的普通技术人员来说,可以根据本申请的描述,做出各种各样的变化和修改。然而,这些变化和修改亦落于本申请的范围内。例如,柔性设备820可以被配置为任何形状和尺寸。又例如,单元840A的位置传感器940可以被第一层910和第二层920之一覆盖。作为又一个示例,位置传感器940可以在上侧、下侧或两侧被多于两层覆盖。
图10是根据本申请的一些实施例所示的用于以成像设备扫描对象的示例性流程的流程图。在一些实施例中,流程1000的一个或以上如图10所示的操作可以在图1所示的成像系统100中实现。例如,图10所示的流程1000的至少一部分可以以指令的形式存储在存储设备150中,并且由处理引擎140(例如,如图2所示的计算设备200的处理器210、如图3所示的移动设备300的GPU 330或CPU 340)调用和/或执行。
在1002中,获取模块410可以接收由投影仪投射在对象上的结构光的图像。
结构光可以指具有投射到对象的特定图案的光。结构光可以包括结构光斑、结构光带结构光网格等。结构光可以是可见的或不可见的。可见结构光可以具有视觉上可区分的颜色,例如红色、绿色等。示例性不可见结构光可以包括红外光。
结构光可以由投影仪投射在对象上。图像采集设备可以从投影仪以外的其他角度采集对象上的结构光的图像。图像采集设备可以是和/或包括能够在结构光下采集图像数据的任何合适的设备。示例性图像采集设备可以包括数码相机、录像机、移动电话、红外相机等。当结构光投射在具有成形的身体表面的对象上时,结构光可以由于成形的身体表面而失真。投射在对象上的结构光的图像可以用于对象的身体表面形状的几何重建。
在一些实施例中,投影仪可以从不同的角度将结构光投射到对象上。例如,投影仪可以在至少两个位置上将结构光投射到对象上。当投影仪在不同位置将结构光投射到对象上时,图像采集设备可以采集投射在对象上的结构光的至少两个图像。附加地或替代地,图像采集设备可以从不同的视角采集投射在对象上的结构光的至少两个图像,或者可以将至少两个图像采集设备相对于对象配置在不同的位置以采集至少两个来自不同角度的图像。
在一些实施例中,由投影仪投射的结构光可以覆盖对象的整个身体。投影仪可以被配置在固定位置以将结构光投射在对象上。替代地,结构光可以覆盖对象的身体的一部分。可以将投影仪移动到不同位置以投影物体。关于可移动投影仪的细节可以在本申请的其他地方找到(例如,图12及其相关描述)。
在1004中,模型生成模块420可以基于投射在对象上的结构光的图像生成对象的三维模型。
在一些实施例中,投射在对象上的结构光可以被视为至少两个光斑。模型生成模块420可以基于投射在对象上的结构光的图像以及投影仪、图像采集设备和光斑之间的几何关系确定光斑的坐标。具有确定坐标的光斑可以被认为是对象的身体轮廓上的一个点。模型生成模块420可以根据三维重建算法基于具有确定坐标的至少两个点生成对象的身体轮廓的三维曲面。示例性三维重建算法可以包括基于边界位置轮廓的算法、基于非均匀有理B样条(NURBS)的算法、基于三角剖分模型的算法等。
在一些实施例中,模型生成模块420可以基于相位方法生成三维模型。例如,模型生成模块420可以基于投射在对象上的结构光的图像确定与相位移动相关的信息。然后,模型确定模块420可以基于与相位移动相关的信息确定与对象的身体轮廓相关的深度信息,并且使用表面拟合算法基于深度信息生成三维曲面。示例性表面拟合算法可以包括最小二乘算法(LS)算法、移动最小二乘算法(MLS)等。需要注意的是,以上描述仅出于说明目的。模型生成模块420可以采用任何其他合适的技术以基于结构光的图像生成三维模型。
在一些实施例中,模型生成模块420可以生成与对象的前体表面(即,当对象位于扫描台上时,身体表面的不与对象接触的部分)相对应的三维曲面。三维曲面可以直接用作对象的三维模型。在一些实施例中,可以使用平面或曲面表示所述表面的后部,并且与重建的三维曲面拟合以生成对象的三维模型。在一些实施例中,可以生成对象在支撑物(例如,支撑物830)或扫描台114上的平面身体轮廓图像,并且将其与重建的三维曲线表面组合以生成三维模型。关于平面身体轮廓图像的细节可以在本申请的其他地方找到(例如,图8A及其相关描述)。
在1006中,感兴趣区域确定模块430可以基于对象的三维模型确定对象的ROI。在一些实施例中,感兴趣区域确定模块430可以基于ROI在对象内部的位置和与相对于成像设备110的对象相关的第二位置信息确定ROI相对于成像设备110的位置。
在1008中,传输模块440可以将指令发送到成像设备以扫描包括对象的ROI的对象的目标部分。在一些实施例中,对象的目标部位可以是包括ROI在内的区域。传输模块440可以发送指令操作成像设备110以将扫描台114的位置调整到合适的位置,使得可以仅扫描对象的目标部分。
可以分别以类似于操作506和508的方式执行操作1006和1008,这里不再重复对其的描述。在一些实施例中,可以省略操作1008。在一些实施例中,可以由用户(例如,医生)通过终端(例如,终端130)输入扫描目标部分的指令。
图11是根据本申请的一些实施例所示的用于以成像设备扫描对象的示例性流程的流程图。在一些实施例中,流程1100的一个或以上如图10所示的操作可以在图1所示的成像系统100中实现。例如,图11所示的流程1100的至少一部分可以以指令的形式存储在存储设备150中,并且由处理引擎140(例如,如图2所示的计算设备200的处理器210、如图3所示的移动设备300的GPU 330或CPU 340)调用和/或执行。
在1102中,获取模块410可以接收从对象的身体轮廓到光脉冲发生器的距离信息。可以基于与由光脉冲发生器向对象发射的光脉冲相关的飞行时间(TOF)信息确定距离信息。
在一些实施例中,光脉冲发生器可以被配置为连续在对象的身体表面上发射光脉冲。光脉冲发生器可以是激光管、发光二极管(LED)、激光二极管等。在一些实施例中,由光脉冲发生器发出的光脉冲可以具有特定的特性(例如,波长、脉冲重复率(频率)、脉冲宽度)。例如,由光脉冲发生器发出的光脉冲频率可以等于或大于100MHz。由光脉冲发生器发出的光脉冲的特性可以是成像系统100的默认设置,也可以由用户通过终端130手动设置。在一些实施例中,光脉冲发生器可以移动,以便在对象的身体表面的期望区域上发射光脉冲,例如,向对象的整个身体表面发射光脉冲。
光脉冲可以被对象的身体表面反射并由光脉冲传感器检测到。光脉冲传感器可以检测到具有与光脉冲发生器发出的特征相同或基本相同的特征的光脉冲。在一些实施例中,可以配置至少两个光脉冲传感器检测反射的光脉冲。可以收集与每个光脉冲相关的TOF信息,并且用于确定身体轮廓和光脉冲之间的距离。与光脉冲相关的TOF信息可以指从光脉冲发生器发射光脉冲的时间点与通过光脉冲传感器检测到的光脉冲的反射光脉冲之间的时间段之间的时间段。在一些实施例中,TOF信息可以由计时器记录,或者可以由例如处理引擎140或处理器210基于相移技术确定。
然后,可以基于TOF信息和光速确定从身体轮廓到光脉冲发生器的距离信息。距离信息可以包括对象的身体轮廓的点和光脉冲发生器之间的距离测量值。在一些实施例中,从对象的身体轮廓到光脉冲发生器的距离信息可以由成像系统100中的一个或以上组件确定,例如处理引擎140,并且被传输到存储设备(例如,存储设备150)进行存储。获取模块410可以访问并从存储设备检索距离信息。
在1104中,模型生成模块420可以基于距离信息生成对象的三维模型。在一些实施例中,模型生成模块420可以获取光脉冲发生器和检测光脉冲的光脉冲传感器的位置信息(例如,坐标)。可以基于距离信息以及光脉冲发生器和光脉冲传感器的相应坐标确定一个或以上反射光脉冲的点在身体表面的位置信息(例如,坐标)。可以使用操作1004中描述的类似方法生成对象的三维模型。
在1106中,感兴趣区域确定模块430可以基于对象的三维模型确定对象的ROI。
在1108中,传输模块440可以将指令发送到成像设备以扫描包括对象的ROI的对象的目标部分。
可以分别以与操作506和508相似的方式来执行操作1106和1108,在此不再重复其描述。在一些实施例中,可以省略操作1108。在一些实施例中,可以由用户(例如,医生)通过终端(例如,终端130)输入扫描目标部分的指令。
图12是根据本申请的一些实施例所示的示例性成像系统1200的示意图。在一些实施例中,可以在成像系统1200上实现流程500的至少一部分、流程1000的至少一部分和/或流程1100的至少一部分。
如图12所示,成像系统1200可以包括一个或以上与成像系统100相同或相似的组件,例如成像设备110、终端130和处理引擎140。成像设备110可以包括信息获取组件1210。信息获取组件1210可以被配置为获取对象的信息。例如,信息获取组件1210可以包括被配置为在对象上投射结构光的投影仪。如结合图10所述,可以将相机配置为采集投射在对象上的结构光的图像,并且所述图像可以用于生成对象的三维模型。
又例如,信息获取组件1210可以包括光脉冲发生器和/或光脉冲传感器。如结合图11所述,与由光脉冲发生器在对象上发射的光脉冲相关的TOF信息可以用于生成对象的三维模型。作为又一个示例,信息获取组件1210可以包括或者可以是图像采集设备(例如,照相机)。图像采集设备可以被配置为获取对象的一个或以上图像。在一些实施例中,信息获取组件1210可以是照相机,其采集包括对象相对于成像设备110的位置信息的图像和/或投射在对象上的结构光的图像。在一些实施例中,信息获取组件1210可以是红外相机,其被配置为收集与对象的热分布相关的信息。
在一些实施例中,信息获取组件1210可以移动到不同的位置以从不同的角度获取关于对象的信息。例如,信息获取组件1210可以如图12所示从起始位置移动到终点位置。在一些实施例中,信息获取组件1210可以沿不同的方向移动,例如,沿如图1所示X轴、Y轴或Z轴。信息获取组件1210的移动可以由用户手动控制或由处理引擎140自动控制。
信息获取组件1210可以经由有线连接、无线连接(例如,网络)或其组合连接到成像系统1200的一个或以上其他组件和/或与之通信。例如,如图12所示,信息获取组件1210可以连接到终端130和处理引擎140和/或与终端130和处理引擎140通信。信息获取组件1210、终端130和/或处理引擎140之间的连接和/或通信可以类似于柔性设备820、终端130和/或处理引擎140之间的连接和/或通信,在此不再重复其描述。
图13A至图13E是根据本申请的一些实施例所示的示例性成像设备1300的示意图。在一些实施例中,成像设备1300可以是成像设备110的示例性实施例。
成像设备1300可以包括如结合图12所述的信息获取组件1210。信息获取组件1210可以被配置为收集关于待扫描对象的信息。信息获取组件1210可以包括例如,投影仪、图像获取装置(例如,数码相机、红外相机)、光脉冲发生器、光脉冲传感器等,或其任意组合。
信息获取组件1210可以安装在机架111上。信息获取组件1210的位置和/或配置可以根据不同情况通过例如用户、处理引擎140等,或其任意组合调整。例如,如图13A所示,信息获取组件1210可以在不使用时缩回机架111或安装在机架111上的容器中。这可以为信息获取组件1210提供防尘保护,并且为成像设备1300提供简洁的外观。当使用时,信息获取组件1210可以从机架111或容器延伸以获取与对象的一部分或整个对象相关的信息。
在一些实施例中,如图13B所示,可以通过可延长杆1310控制信息获取组件1210的位置。可以调整可延长杆1310的长度,使得信息获取组件1210可以从不同的角度获取与对象相关的信息。例如,当可延长杆1310处于不同的延伸长度时,信息获取组件1210可以在不同的位置1311、1312、1313和1314收集信息。可延长杆1310在位置1311处从机架111延伸,并且在位置1314处完全延伸。在一些实施例中,在由可延长杆1310驱动的运动中,信息获取组件1210可以连续或周期性地获取与对象相关的信息。例如,信息获取组件1210可以在从位置1311移动到位置1314时连续采集对象的图像。
图13C示出了在位置1311处的信息获取组件1210的放大图。在一些实施例中,成像设备1300还可以包括盖1320。如图13A所示,当信息获取组件1210处于机架111内或安装在机架111上的容器中的完全缩回位置时,盖1320可以被配置为覆盖信息获取组件1210。当可延长杆1310和信息获取组件1210将要从机架111延伸时,如图13C所示,可以抬起盖子1320以允许可延长杆1310延伸。
图13D和图13E示出了在使用信息获取组件1210时成像设备1300的正视图和俯视图。如图13E所示,信息获取组件1210可以包括至少两个子组件,例如1210-1、1210-2和1210-3。每个子组件都可以被配置为从子组件的角度获取与对象相关的信息。不同的子组件可以是相同种类或不同种类的设备。不同的子组件可以收集与对象相关的相同种类或不同种类的信息。在一些实施例中,子组件可以如图13D所示以弧形设置,以便更好地收集与对象的侧身相关的信息。
例如,信息获取组件1210可以包括至少两个照相机。所述照相机可以被配置为采集投射在对象上的结构光的图像。使用一个以上照相机可以消除图像失真,从而提高采集图像的质量并提高生成对象三维模型的速度。又例如,信息获取组件1210可以包括至少两个光脉冲生成器。所述光脉冲生成器可以被配置为向对象发射光脉冲。如图13D中,子组件1210-1、1210-2和1210-3可以设置成弧形,使得光脉冲可以覆盖对象的侧身。
应当注意的是,图13A至13E所示的示例及其上面的描述仅仅是为了示例和说明,而不限定本申请的适用范围。对于本领域的普通技术人员来说,可以根据本申请的描述,做出各种各样的变化和修改。然而,这些变化和修改亦落于本申请的范围内。例如,信息获取组件1210可以安装在机架111上的任何位置和/或由可延长杆1310以外的任何合适的设备控制。又例如,信息获取组件1210可以包括任意数量的子组件。信息获取组件1210的子组件可以以任何合适的方式布置以提供不同的应用。
图14A至图14B是根据本申请的一些实施例所示的示例性成像设备1400的示意图。图14C示出了根据本申请的一些实施例基于成像设备1400的信息获取组件生成的对象的示例性图像。成像设备1400可以类似于图13A至13E所述的成像设备1300,除了某些组件或功能部件。
如图所示如图14A和14B所示,成像设备1400可以包括至少两个信息获取组件1210,即1210-4、1210-5、1210-6、1210-7和1210-8。至少两个信息获取组件1210可以被配置在机架111处的不同位置处,以从不同的角度获取与对象相关的信息。仅作为示例,如图14C所示,信息获取组件1210可以从不同的倾斜角度捕获对象的图像(例如,图像1401至1405)。模型生成模块420可以通过例如使用矩阵变换技术基于至少两个图像1401至1405生成对象的顶视图图像1410。附加地或可替代地,模型生成模块420还可以基于对象的身体厚度信息生成对象的侧视图图像1420。
在一些实施例中,通过执行流程1000和/或流程1100,信息获取组件1210收集的信息可以进一步用于生成对象的三维模型。在一些实施例中,在成像流程中,扫描台114可以沿图1所示的X、Y和Z方向移动以定位对象。信息获取组件1210可以在扫描台114的移动期间连续地或周期性地获取与对象相关的信息。可以连续地或周期性地生成和/或更新对象的三维模型,并且可以相应地确定ROI的位置。
应当注意的是,图14A至图14C所示的示例及其上面的描述仅仅是为了示例和说明,而不限定本申请的适用范围。对于本领域的普通技术人员来说,可以根据本申请的描述,做出各种各样的变化和修改。然而,这些变化和修改亦落于本申请的范围内。例如,成像设备1400可以包括任何数量的信息获取组件1210。信息获取组件1210可以以任何合适的方式布置以提供不同的应用。在一些实施例中,类似于成像设备1300的信息获取组件1210,成像设备1400的一个或以上信息获取组件1210可以在机架111或安装在机架111上的容器中缩回和/或延伸。
对于本领域普通技术人员显而易见的是,在不脱离本申请的精神和范围的情况下,可以对本申请进行各种改变和修改。以这种方式,如果本申请的修改和变型在所附权利要求及其等同物的范围内,则本申请可以意图包括这样的修改和变型。
上文已对基本概念做了描述,显然,对于阅读此申请后的本领域的普通技术人员来说,上述发明披露仅作为示例,并不构成对本申请的限制。虽然此处并未明确说明,但本领域的普通技术人员可能会对本申请进行各种修改、改进和修正。该类修改、改进和修正在本申请中被建议,所以该类修改、改进、修正仍属于本申请示范实施例的精神和范围。
同时,本申请使用了特定词语来描述本申请的实施例。例如“一个实施例”、“一实施例”、和/或“一些实施例”意指与本申请至少一个实施例相关的某一特征、结构或特性。因此,应强调并注意的是,本说明书中在不同位置两次或以上提及的“一实施例”或“一个实施例”或“一替代性实施例”并不一定是指同一实施例。此外,本申请的一个或以上实施例中的某些特征、结构或特点可以进行适当的组合。
此外,本领域的普通技术人员可以理解,本申请的各方面可以通过若干具有可专利性的种类或情况进行说明和描述,包括任何新的和有用的过程、机器、产品或物质的组合,或对其任何新的和有用的改进。对应地,本申请的各个方面可以完全由硬件执行、可以完全由软件(包括固件、常驻软件、微码等)执行、也可以由硬件和软件组合执行。以上硬件或软件均可被称为“块”、“模块”、“设备”、“单元”、“组件”或“系统”。此外,本申请的各方面可以采取体现在一个或以上计算机可读介质中的计算机程序产品的形式,其中计算机可读程序代码包含在其中。
计算机可读信号介质可能包含一个内含有计算机程序代码的传播数据信号,例如在基带上或作为载波的一部分。此类传播信号可以有多种形式,包括电磁形式、光形式等或任何合适的组合。计算机可读信号介质可以是除计算机可读存储介质之外的任何计算机可读介质,该介质可以通过连接至一个指令执行系统、装置或设备以实现通信、传播或传输供使用的程序。位于计算机可读信号介质上的程序代码可以通过任何合适的介质进行传播,包括无线电、电缆、光纤电缆、RF等,或任何上述介质的组合。
本申请各部分操作所需的计算机程序代码可以用任意一种或以上程序设计语言编写,包括面向对象程序设计语言如Java、Scala、Smalltalk、Eiffel、JADE、Emerald、C++、C#、VB.NET、Python等,常规程序化程序设计语言如C程序设计语言、Visual Basic、Fortran2003、Perl、COBOL 2002、PHP、ABAP,动态程序设计语言如Python、Ruby和Groovy,或其他程序设计语言等。该程序代码可以完全在用户计算机上运行、或作为独立的软件包在用户计算机上运行、或部分在用户计算机上运行部分在远程计算机运行、或完全在远程计算机或服务器上运行。在后种情况下,远程计算机可以通过任何网络形式与用户计算机连接,比如局域网络(LAN)或广域网路(WAN),或连接至外部计算机(例如通过因特网),或在云计算环境中,或作为服务使用如软件即服务(SaaS)。
此外,除非权利要求中明确说明,本申请所述处理元素和序列的顺序、数字字母的使用、或其他名称的使用,并非用于限定本申请流程和方法的顺序。尽管上述披露中通过各种示例讨论了一些目前认为有用的发明实施例,但应当理解的是,该类细节仅起到说明的目的,附加的权利要求并不仅限于披露的实施例,相反,权利要求旨在覆盖所有符合本申请实施例实质和范围的修正和等价组合。例如,虽然以上所描述的系统组件可以通过硬件设备实现,但是也可以只通过软件的解决方案得以实现,如在现有的服务器或移动设备上安装所描述的系统。
同理,应当注意的是,为了简化本申请披露的表述,从而帮助对一个或以上发明实施例的理解,前文对本申请实施例的描述中,有时会将多种特征归并至一个实施例、附图或对其的描述中。然而,本申请的该方法不应被解释为反映所声称的待扫描对象物质需要比每个权利要求中明确记载的更多特征的意图。实际上,实施例的特征要少于上述披露的单个实施例的全部特征。
Claims (12)
1.一种用于确定医学成像中的感兴趣区域(ROI)的系统,包括:
存储设备,存储一组指令;以及
至少一个处理器,与所述至少一个存储介质通信,其中,当执行所述指令时,所述至少一个处理器被配置为使所述系统:
从配置有至少两个位置传感器的柔性设备,接收对象的身体轮廓相对于支撑物的相关的第一位置信息,所述柔性设备被配置为适应所述对象的所述身体轮廓,以及所述支撑物被配置为支撑所述对象,所述对象被放置于所述柔性设备和所述支撑物之间,所述第一位置信息包括多个距离信息,其中每个距离信息表示所述对象的身体轮廓上的点对应的一个所述位置传感器与所述支撑物之间的距离;
基于所述第一位置信息,生成所述对象的三维(3D)模型;以及
基于所述对象的所述三维模型,确定所述对象的感兴趣区域。
2.根据权利要求1所述的系统,其特征在于:
所述柔性设备包括以阵列形式排列的至少两个单元,所述至少两个单元中的每个单元包括所述至少两个位置传感器中的一个或以上位置传感器,并且
所述至少两个单元中的每对相邻单元通过柔性接头相互连接。
3.根据权利要求2所述的系统,其特征在于,所述至少两个单元中的一个单元包括覆盖所述单元的所述一个或以上位置传感器的第一层。
4.根据权利要求3所述的系统,其特征在于:
所述至少两个单元中的所述单元还包括第二层,
所述单元的所述一个或以上位置传感器被夹在所述第一层和所述第二层之间。
5.根据权利要求1所述的系统,其特征在于所述柔性设备是穿戴式设备。
6.根据权利要求1所述的系统,其特征在于,为了确定所述对象的所述感兴趣区域,所述至少一个处理器进一步被配置为使所述系统:
基于所述对象的所述三维模型,确定所述感兴趣区域在所述对象内部的位置;
获取所述对象相对于成像设备的第二位置信息;以及
基于所述感兴趣区域在所述对象内部的所述位置和所述第二位置信息,确定所述对象的所述感兴趣区域。
7.根据权利要求6所述的系统,其特征在于,所述第二位置信息的至少一部分是从图像获取设备或配置在所述支撑物中的至少两个压力传感器获取的。
8.根据权利要求6所述的系统,其特征在于,为了基于所述对象的所述三维模型,确定所述感兴趣区域在所述对象内部的位置,所述至少一个处理器被配置为使所述系统:
获取与所述对象的热分布相关的信息;以及
基于所述对象的所述三维模型和与所述对象的热分布相关的所述信息,确定所述感兴趣区域在所述对象内部的位置。
9.根据权利要求8所述的系统,其特征在于所述柔性设备或所述支撑物中的至少一个包括一个或以上热传感器,以及与所述对象热分布相关的所述信息的至少一部分是从所述一个或以上热传感器获取的。
10.根据权利要求6所述的系统,其特征在于,为了基于所述对象的所述三维模型,确定所述感兴趣区域在所述对象内部的位置,所述至少一个处理器被配置为使所述系统:
获取与所述对象相关的生理数据;
获取与所述对象相关的解剖信息;以及
基于所述对象的所述三维模型、与所述对象相关的所述生理数据和所述解剖信息,确定所述感兴趣区域在所述对象内部的位置。
11.根据权利要求10所述的系统,其特征在于,与所述对象相关的所述解剖信息包括所述对象的历史解剖信息或与所述对象相关的一个或以上参考样本中的解剖信息中的至少一种。
12.根据权利要求10所述的系统,其特征在于,所述生理数据的至少一部分是从所述支撑物获取的或基于所述对象的所述三维模型确定的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310957019.4A CN116777901A (zh) | 2017-12-29 | 2017-12-29 | 一种用于医学成像中的生成对象的三维模型的系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2017/120280 WO2019127539A1 (en) | 2017-12-29 | 2017-12-29 | Systems and methods for determining region of interest in medical imaging |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310957019.4A Division CN116777901A (zh) | 2017-12-29 | 2017-12-29 | 一种用于医学成像中的生成对象的三维模型的系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111566705A CN111566705A (zh) | 2020-08-21 |
CN111566705B true CN111566705B (zh) | 2023-07-21 |
Family
ID=67058964
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780098073.0A Active CN111566705B (zh) | 2017-12-29 | 2017-12-29 | 一种确定医学成像中的感兴趣区域的系统和方法 |
CN202310957019.4A Pending CN116777901A (zh) | 2017-12-29 | 2017-12-29 | 一种用于医学成像中的生成对象的三维模型的系统 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310957019.4A Pending CN116777901A (zh) | 2017-12-29 | 2017-12-29 | 一种用于医学成像中的生成对象的三维模型的系统 |
Country Status (3)
Country | Link |
---|---|
US (3) | US10825170B2 (zh) |
CN (2) | CN111566705B (zh) |
WO (1) | WO2019127539A1 (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111542827B (zh) | 2017-12-29 | 2021-09-28 | 上海联影医疗科技股份有限公司 | 一种患者定位的系统和方法 |
CN110059522B (zh) * | 2018-01-19 | 2021-06-25 | 北京市商汤科技开发有限公司 | 人体轮廓关键点检测方法、图像处理方法、装置及设备 |
US11547323B2 (en) * | 2020-02-14 | 2023-01-10 | Siemens Healthcare Gmbh | Patient model estimation from camera stream in medicine |
US11688071B2 (en) * | 2020-03-19 | 2023-06-27 | Shanghai United Imaging Healthcare Co., Ltd. | Systems and methods for image reconstruction and processing |
US11464464B2 (en) | 2020-07-24 | 2022-10-11 | International Business Machines Corporation | Internal and external proximate scanning |
WO2022032455A1 (en) * | 2020-08-10 | 2022-02-17 | Shanghai United Imaging Healthcare Co., Ltd. | Imaging systems and methods |
CN114820591B (zh) * | 2022-06-06 | 2023-02-21 | 北京医准智能科技有限公司 | 图像处理方法、装置、电子设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1853573A (zh) * | 2005-04-26 | 2006-11-01 | 韦伯斯特生物官能公司 | 使用超声以预获取图像配准电解剖图 |
FR2932591A1 (fr) * | 2008-06-11 | 2009-12-18 | Univ Rennes | Procede de generation d'un modele modifiable d'un dispositif flexible de navigation, modele, procede et dispositf de gestion de la navigation d'un modele, produit programme d'ordinateur et moyen de stockage |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6546813B2 (en) * | 1997-01-08 | 2003-04-15 | The Trustees Of Boston University | Patient monitoring system employing array of force sensors on a bedsheet or similar substrate |
US6323942B1 (en) * | 1999-04-30 | 2001-11-27 | Canesta, Inc. | CMOS-compatible three-dimensional image sensor IC |
DE10232676B4 (de) | 2002-07-18 | 2006-01-19 | Siemens Ag | Verfahren und Vorrichtung zur Positionierung eines Patienten in einem medizinischen Diagnose- oder Therapiegerät |
WO2006109308A1 (en) * | 2005-04-12 | 2006-10-19 | Sharon Ehrlich | Real-time imaging method and system using structured light |
US7903849B2 (en) | 2005-04-15 | 2011-03-08 | Kabushiki Kaisha Toshiba | Medical image processing apparatus |
JP4942024B2 (ja) * | 2006-08-09 | 2012-05-30 | 富士フイルム株式会社 | 医用画像撮影方法及び医用画像撮影装置 |
US8144148B2 (en) * | 2007-02-08 | 2012-03-27 | Edge 3 Technologies Llc | Method and system for vision-based interaction in a virtual environment |
US10631732B2 (en) * | 2009-03-24 | 2020-04-28 | Leaf Healthcare, Inc. | Systems and methods for displaying sensor-based user orientation information |
WO2011134083A1 (en) | 2010-04-28 | 2011-11-03 | Ryerson University | System and methods for intraoperative guidance feedback |
EP2680744B1 (en) * | 2011-03-04 | 2021-05-05 | PatienTech LLC | Sensing system and method for patient supports |
US8942455B2 (en) * | 2011-08-30 | 2015-01-27 | Siemens Aktiengesellschaft | 2D/3D image registration method |
DE102011083876B4 (de) | 2011-09-30 | 2018-12-27 | Siemens Healthcare Gmbh | Verfahren zur Bewegungssteuerung einer Röntgenvorrichtung und Röntgensystem |
US9788792B2 (en) * | 2011-10-26 | 2017-10-17 | The United States of America, as represented by Department of Veterans Affairs, Office of General Counsel, Professional Staff Group IV(024) | System for screening skin condition for tissue damage |
US9129372B2 (en) | 2012-07-30 | 2015-09-08 | General Electric Company | Methods and systems for determining a transformation function to automatically register different modality medical images |
KR20140042461A (ko) | 2012-09-28 | 2014-04-07 | 삼성전자주식회사 | 영상을 생성하는 방법 및 장치 |
WO2014080833A1 (ja) * | 2012-11-21 | 2014-05-30 | 株式会社東芝 | 超音波診断装置、画像処理装置及び画像処理方法 |
CN102997866A (zh) | 2012-11-29 | 2013-03-27 | 清华大学 | 一种物体表面三维轮廓重建方法及成像装置 |
DE102013215516B4 (de) | 2013-08-07 | 2021-11-11 | Siemens Healthcare Gmbh | Röntgengerät und Verfahren zum Steuern eines Röntgengeräts |
WO2015103388A1 (en) * | 2014-01-02 | 2015-07-09 | Metritrack, Inc. | System and method for tracking completeness of co-registered medical image data |
KR102397254B1 (ko) * | 2014-03-28 | 2022-05-12 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 수술 장면의 정량적인 3차원 영상 |
EP3122232B1 (en) * | 2014-03-28 | 2020-10-21 | Intuitive Surgical Operations Inc. | Alignment of q3d models with 3d images |
US9814410B2 (en) * | 2014-05-06 | 2017-11-14 | Stryker Corporation | Person support apparatus with position monitoring |
CN107205706B (zh) * | 2015-01-29 | 2021-03-05 | 皇家飞利浦有限公司 | 用于自动测量患者生物计量学和生理参数的相机系统 |
CN104644205A (zh) | 2015-03-02 | 2015-05-27 | 上海联影医疗科技有限公司 | 用于影像诊断的患者定位方法及系统 |
US9842282B2 (en) * | 2015-05-22 | 2017-12-12 | Here Global B.V. | Method and apparatus for classifying objects and clutter removal of some three-dimensional images of the objects in a presentation |
CN204863247U (zh) | 2015-07-29 | 2015-12-16 | 孙传金 | 智能ct扫描床 |
US10299740B2 (en) | 2015-09-29 | 2019-05-28 | General Electric Company | Methods and systems for cone-beam computed tomography |
US9895131B2 (en) * | 2015-10-13 | 2018-02-20 | Siemens Healthcare Gmbh | Method and system of scanner automation for X-ray tube with 3D camera |
US10765402B2 (en) | 2015-11-23 | 2020-09-08 | QT Ultrasound LLC | Automatic laterality identification for ultrasound tomography systems |
US10055948B2 (en) * | 2015-11-30 | 2018-08-21 | Nike, Inc. | Apparel with ultrasonic position sensing and haptic feedback for activities |
EP3423784B1 (en) * | 2016-03-01 | 2021-07-28 | Magic Leap, Inc. | Depth sensing systems and methods |
CN205849464U (zh) | 2016-04-18 | 2017-01-04 | 深圳先进技术研究院 | 一种扫描床 |
US10561482B2 (en) * | 2016-04-28 | 2020-02-18 | Visionx, Llc | Determining jaw movement |
DE102016210131B4 (de) | 2016-06-08 | 2023-03-09 | Siemens Healthcare Gmbh | Positionieren eines Untersuchungsobjekts für ein Bildgebungsverfahren |
US10445893B2 (en) * | 2017-03-10 | 2019-10-15 | Microsoft Technology Licensing, Llc | Dot-based time of flight |
CN107358607A (zh) * | 2017-08-13 | 2017-11-17 | 强深智能医疗科技(昆山)有限公司 | 肿瘤放射治疗视觉监测与视觉伺服智能控制方法 |
CN111542827B (zh) | 2017-12-29 | 2021-09-28 | 上海联影医疗科技股份有限公司 | 一种患者定位的系统和方法 |
WO2019127365A1 (zh) | 2017-12-29 | 2019-07-04 | 深圳前海达闼云端智能科技有限公司 | 人脸活体检测方法、电子设备和计算机程序产品 |
-
2017
- 2017-12-29 CN CN201780098073.0A patent/CN111566705B/zh active Active
- 2017-12-29 WO PCT/CN2017/120280 patent/WO2019127539A1/en active Application Filing
- 2017-12-29 CN CN202310957019.4A patent/CN116777901A/zh active Pending
-
2018
- 2018-06-08 US US16/003,609 patent/US10825170B2/en active Active
-
2020
- 2020-11-02 US US17/087,592 patent/US11532083B2/en active Active
-
2022
- 2022-12-19 US US18/068,485 patent/US20230117780A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1853573A (zh) * | 2005-04-26 | 2006-11-01 | 韦伯斯特生物官能公司 | 使用超声以预获取图像配准电解剖图 |
FR2932591A1 (fr) * | 2008-06-11 | 2009-12-18 | Univ Rennes | Procede de generation d'un modele modifiable d'un dispositif flexible de navigation, modele, procede et dispositf de gestion de la navigation d'un modele, produit programme d'ordinateur et moyen de stockage |
Also Published As
Publication number | Publication date |
---|---|
US20210049765A1 (en) | 2021-02-18 |
CN111566705A (zh) | 2020-08-21 |
US20190206051A1 (en) | 2019-07-04 |
CN116777901A (zh) | 2023-09-19 |
US20230117780A1 (en) | 2023-04-20 |
US11532083B2 (en) | 2022-12-20 |
WO2019127539A1 (en) | 2019-07-04 |
US10825170B2 (en) | 2020-11-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111566705B (zh) | 一种确定医学成像中的感兴趣区域的系统和方法 | |
CN111789607B (zh) | 一种成像系统和方法 | |
KR102522539B1 (ko) | 의료영상 표시장치 및 의료영상 처리방법 | |
JP2018047291A (ja) | トモシンセシス性能を備えた移動型放射線撮影装置/方法 | |
CN108883294A (zh) | 用于在整个放射治疗中监视结构运动的系统和方法 | |
US11730396B2 (en) | Systems and methods for patient positioning | |
CN104545968A (zh) | 借助轮廓数据来重建图像数据 | |
KR101664432B1 (ko) | 단층 영상 장치 및 그에 따른 단층 영상 디스플레이 방법 | |
US20150281564A1 (en) | Medical imaging apparatus and method of displaying user interface image | |
KR20170060698A (ko) | 컴퓨터 단층 촬영장치 및 그 제어방법 | |
US9508154B2 (en) | Medical imaging apparatus and method of operating the same | |
US9836861B2 (en) | Tomography apparatus and method of reconstructing tomography image | |
US11937964B2 (en) | Systems and methods for controlling an X-ray imaging device | |
KR101686635B1 (ko) | 의료 영상 처리 장치 및 그에 따른 의료 영상 처리 방법 | |
US10987073B2 (en) | Medical imaging system and method for automated medical imaging assistance | |
JP2015163186A (ja) | 画像撮像装置、画像撮像方法及びプログラム | |
US20210128082A1 (en) | Methods and systems for body contour profiles | |
US10176568B2 (en) | Tomographic apparatus and method | |
US11839777B2 (en) | Medical systems including a positioning lamp and a projection device and control methods of the medical systems | |
WO2024067629A1 (en) | Methods, systems, and mediums for scanning | |
KR20160072004A (ko) | 단층 촬영 장치 및 그에 따른 단층 영상 복원 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 201807 Shanghai City, north of the city of Jiading District Road No. 2258 Applicant after: Shanghai Lianying Medical Technology Co.,Ltd. Address before: 201807 Shanghai City, north of the city of Jiading District Road No. 2258 Applicant before: SHANGHAI UNITED IMAGING HEALTHCARE Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |