CN114240839A - 基于深度学习的膀胱肿瘤肌层侵犯预测方法及相关装置 - Google Patents
基于深度学习的膀胱肿瘤肌层侵犯预测方法及相关装置 Download PDFInfo
- Publication number
- CN114240839A CN114240839A CN202111365078.XA CN202111365078A CN114240839A CN 114240839 A CN114240839 A CN 114240839A CN 202111365078 A CN202111365078 A CN 202111365078A CN 114240839 A CN114240839 A CN 114240839A
- Authority
- CN
- China
- Prior art keywords
- training
- image
- images
- parameter
- muscle layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Software Systems (AREA)
- Veterinary Medicine (AREA)
- Computational Linguistics (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Computing Systems (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- High Energy & Nuclear Physics (AREA)
- Quality & Reliability (AREA)
- Fuzzy Systems (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种基于深度学习的膀胱肿瘤肌层侵犯预测方法及相关装置,所述方法包括获取膀胱癌患者的多参数MR图像;将所述多参数MR图像输入经过训练的预测网络模型,通过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别,其中,所述膀胱肿瘤基肌层侵犯类别包括非肌层浸润性膀胱癌或肌层浸润性膀胱癌。本申请通过预设网络模型学习多参数MR图像所携带的图像特征,并基于学习到的图像特征来预测膀胱肿瘤基肌层侵犯类别,这样可以通过多参数MR图像携带的丰富影像信息来对膀胱肿瘤基肌层侵犯类别进行预测,在不对患者身体产生损害的前提下,提高了膀胱肿瘤基肌层侵犯类别的准确性。
Description
技术领域
本申请涉及生物医学技术领域,特别涉及一种基于深度学习的膀胱肿瘤肌层侵犯预测方法及相关装置。
背景技术
膀胱癌(Bladder Cancer,BC)是泌尿系统最常见的恶性肿瘤之一,全球恶性肿瘤第十位。固有肌层是膀胱癌分期、治疗的一个特殊标志,临床上根据肿瘤是否侵犯膀胱壁固有肌层,将膀胱癌分为非肌层浸润性膀胱癌(Non-muscle Invasive Bladder Cancer,NMIBC)和肌层浸润性膀胱癌 (Muscle Invasive Bladder Cancer,MIBC),其中,NMIBC的治疗方法为经尿道膀胱肿瘤电切术(TURBT)辅以或不辅以膀胱灌注化疗,MIBC的治疗方法则为膀胱部分或全切并辅助化疗、放疗。因此,准确预测膀胱肿瘤基肌层侵犯类别具有非常重要的临床意义。
目前临床常用膀胱肿瘤基肌层侵犯类别的检测方法为经尿道膀胱肿瘤电切术TURBT。然而,TURBT依赖于外科医生的操作水平,其中采样误差、肿瘤基底部灼烧等误差会导致膀胱肿瘤基肌层侵犯类别的检测不足,需要二次进行TURBT,并且多次TURBT会增加膀胱穿孔和癌症栓塞的风险。
因而现有技术还有待改进和提高。
发明内容
本申请要解决的技术问题在于,针对现有技术的不足,提供一种基于深度学习的膀胱肿瘤肌层侵犯预测方法及相关装置。
为了解决上述技术问题,本申请实施例第一方面提供了一种基于深度学习的膀胱肿瘤肌层侵犯预测方法,所述的方法包括:
获取膀胱癌患者的多参数MR图像;
将所述多参数MR图像输入经过训练的预测网络模型,通过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别,其中,所述膀胱肿瘤基肌层侵犯类别包括非肌层浸润性膀胱癌或肌层浸润性膀胱癌。
所述基于深度学习的膀胱肿瘤肌层侵犯预测方法,其中,所述预测网络模型包括特征提取模块以及预测模块,所述将所述多参数MR图像输入经过训练的预测网络模型,通过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别具体包括:
将所述多参数MR图像输入所述特征提取模块,通过所述特征提取模块确定所述多参数MR图像中的各切片图像各自对应的切片特征;
将各切片特征输入所述预测模块,通过所述预测模块确定所述多参数 MR图像者对应的膀胱肿瘤基肌层侵犯类别。
所述基于深度学习的膀胱肿瘤肌层侵犯预测方法,其中,所述特征提取模块包括特征提取单元以及特征映射单元,所述将所述多参数MR图像输入所述特征提取模块,通过所述特征提取模块确定所述多参数MR图像中的各切片图像各自对应的切片特征具体包括:
将所述多参数MR图像输入所述特征提取单元,通过特征提取单元确定所述多参数MR图像中的各切片图像各自对应的候选切片特征图;
将各候选切片特征图输入特征映射单元,通过所述特征映射单元对各候选切片特征进行特征降维以得到各切片图像各自对应的切片特征,其中,切片特征的特征维度小于候选切片特征的特征维度。
所述基于深度学习的膀胱肿瘤肌层侵犯预测方法,其中,所述预测网络模型的训练过程具体包括:
获取训练样本集,其中,所述训练样本集包括若干训练MR图像,若干训练MR图像中的各训练MR图像均配置有样本检测难度;
将所述训练样本集中的训练MR图像输入预设网络模型,基于预设网络模型确定所述训练MR图像对应的预测类别;
获取所述训练MR图像的样本检测难度,基于所述样本检测难度确定所述训练MR图像对应的损失函数调节权重;
基于所述损失函数调节权重、预测类别以及所述训练MR图像对应的类别标签,采用交叉熵损失函数确定所述训练MR图像对应的损失项;
基于所述损失项对所述预设网络模型进行训练,以得到所述预测网络模型。
所述基于深度学习的膀胱肿瘤肌层侵犯预测方法,其中,所述基于所述样本检测难度确定所述训练MR图像对应的损失函数调节权重具体包括:
当所述样本检测难度为困难样本时,获取所述训练样本集中样本检测难度为简单样本的训练MR图像的第一数量;
获取所述训练样本集所包括的训练MR图像的第二数量,将所述第一数量与所述第二数量的比值作为所述训练MR图像的损失函数调节权重。
所述基于深度学习的膀胱肿瘤肌层侵犯预测方法,其中,所述基于所述样本检测难度确定所述训练样本对应的损失函数调节权重具体包括:
当所述样本检测难度为简单样本时,获取所述训练样本集中样本检测难度为困难样本的训练MR图像的第三数量;
获取所述训练样本集所包括的训练MR图像的第二数量,将所述第三数量与所述第二数量的比值作为所述训练MR图像的损失函数调节权重。
所述基于深度学习的膀胱肿瘤肌层侵犯预测方法,其中,所述损失项的计算公式为:
其中,α表示损失函数调节权重,y′表示预测类别,y表示标签类别。
本申请实施例第二方面提供了一种基于深度学习的膀胱肿瘤基肌层侵犯预测装置,所述的预测装置包括:
获取模块,用于获取膀胱癌患者的多参数MR图像;
控制模块,用于将所述多参数MR图像输入经过训练的预测网络模型,并控制过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别,其中,所述膀胱肿瘤基肌层侵犯类别包括非肌层浸润性膀胱癌或肌层浸润性膀胱癌。
本申请实施例第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上任一所述的基于深度学习的膀胱肿瘤肌层侵犯预测方法中的步骤。
本申请实施例第四方面提供了一种终端设备,其包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如上任一所述的基于深度学习的膀胱肿瘤肌层侵犯预测方法中的步骤。
有益效果:与现有技术相比,本申请提供了一种基于深度学习的膀胱肿瘤肌层侵犯预测方法及相关装置,所述方法包括获取膀胱癌患者的多参数MR图像;将所述多参数MR图像输入经过训练的预测网络模型,通过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别,其中,所述膀胱肿瘤基肌层侵犯类别包括非肌层浸润性膀胱癌或肌层浸润性膀胱癌。本申请通过预设网络模型学习多参数MR图像所携带的图像特征,并基于学习到的图像特征来预测膀胱肿瘤基肌层侵犯类别,这样可以通过多参数MR图像携带的丰富影像信息来对膀胱肿瘤基肌层侵犯类别进行预测,在不对患者身体产生损害的前提下,提高了膀胱肿瘤基肌层侵犯类别的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员而言,在不符创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请提供的基于深度学习的膀胱肿瘤肌层侵犯预测方法的流程图。
图2为本申请提供的基于深度学习的膀胱肿瘤肌层侵犯预测方法中的预测网络模型的模型结构原理图。
图3为本申请提供的基于深度学习的膀胱肿瘤基肌层侵犯预测装置的结构原理图。
图4为本申请提供的终端设备的结构原理图。
具体实施方式
本申请提供一种基于深度学习的膀胱肿瘤肌层侵犯预测方法及相关装置,为使本申请的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施例对本申请进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语 (包括技术术语和科学术语),具有与本申请所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
应理解,本实施例中各步骤的序号和大小并不意味着执行顺序的先后,各过程的执行顺序以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
发明人经过研究发现,膀胱癌(Bladder Cancer,BC)是泌尿系统最常见的恶性肿瘤之一,全球恶性肿瘤第十位。固有肌层是膀胱癌分期、治疗的一个特殊标志,临床上根据肿瘤是否侵犯膀胱壁固有肌层,将膀胱癌分为非肌层浸润性膀胱癌(Non-muscle InvasiveBladder Cancer,NMIBC) 和肌层浸润性膀胱癌(Muscle Invasive Bladder Cancer,MIBC)。根据膀胱癌的TNM分期系统,NMIBC包括Ta(非侵袭性乳头状癌)、Tis(侵袭性原位癌)、T1(侵袭黏膜层或黏膜下层);MIBC包括T2a(侵犯固有肌层浅层)、T2b(侵犯固有肌层深层)、T3(局部侵犯周围脂肪)、T4[肿瘤侵犯周围结构(盆腔器官或盆壁或腹壁)],其中,NMIBC约占膀胱癌的80-85%,单发或多发,恶性程度低,可进展为MIBC;MIBC包括所有高级别的尿路上皮肿瘤,T2期肿瘤根治性手术后5年生存率约为68%,约25-30%肿瘤侵犯周围结构。此外,在临床治疗过程中,NMIBC的治疗方法为经尿道膀胱肿瘤电切术(TURBT)辅以或不辅以膀胱灌注化疗,MIBC的治疗方法则为膀胱部分或全切并辅助化疗、放疗。因此,准确预测膀胱肿瘤基肌层侵犯类别具有非常重要的临床意义。
目前临床常用膀胱肿瘤基肌层侵犯类别的检测方法为经尿道膀胱肿瘤电切术TURBT。然而,TURBT依赖于外科医生的操作水平,其中采样误差、肿瘤基底部灼烧等误差会导致膀胱肿瘤基肌层侵犯类别的检测不足,需要二次进行TURBT,并且多次TURBT会增加膀胱穿孔和癌症栓塞的风险。
为了解决上述问题,在本申请实施例中,获取膀胱癌患者的多参数MR 图像;将所述多参数MR图像输入经过训练的预测网络模型,通过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别,其中,所述膀胱肿瘤基肌层侵犯类别包括非肌层浸润性膀胱癌或肌层浸润性膀胱癌。本申请通过预设网络模型学习多参数MR图像所携带的图像特征,并基于学习到的图像特征来预测膀胱肿瘤基肌层侵犯类别,这样可以通过多参数MR图像携带的丰富影像信息来对膀胱肿瘤基肌层侵犯类别进行预测,在不对患者身体产生损害的前提下,提高了膀胱肿瘤基肌层侵犯类别的准确性。
下面结合附图,通过对实施例的描述,对申请内容作进一步说明。
本实施例提供了一种基于深度学习的膀胱肿瘤肌层侵犯预测方法,如图1所示,所述方法包括:
S10、获取膀胱癌患者的多参数MR图像。
具体地,多参数MR图像为基于MR获取/图像生成技术获取的患者的膀胱的多参数MR(mpMRI)图像,其中,多参数MR图像可以是3DMR图像,也可以是使用2D mpMR图像或者4D(3D+t)mpMR图像等。在一个实现方式中,多参数MR图像可以直接从获取多参数MR图像的MR扫描器接收在患者的膀胱的多参数MR图像,或者是,可以通过计算机的存储设备或者存储器加载 /取回预先获取的多参数MR图像,或者是,从远程计算机系统经由电子传输接收预先获取的多参数MR图像。此外,多参数MR图像可以为T2加权MR 图像,扩散加权MR图像,表观扩散系数MR图像,或者动态对比增强MR图像等。
S20、将所述多参数MR图像输入经过训练的预测网络模型,通过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别。
具体地,所述膀胱肿瘤基肌层侵犯类别为用于反映基于肿瘤是否侵犯膀胱壁固有肌层,其中,所述膀胱肿瘤基肌层侵犯类别包括非肌层浸润性膀胱癌或肌层浸润性膀胱癌,所述非肌层浸润性膀胱癌用于反映肿瘤未侵犯膀胱壁固有肌层,肌层浸润性膀胱癌用于反映肿瘤侵犯膀胱壁固有肌层。本实施例通过预测网络模型直接基于多参数MR图像来预测膀胱肿瘤基肌层侵犯类别,不需要预先提取多参数MR图像中的病症区域,从而可以提高膀胱肿瘤基肌层侵犯类别的预测速度。同时,本实施例通过预测网络模型来学习多参数MR图像中的图像特征,并基于学习搭配的图像特征来预测膀胱肿瘤基肌层侵犯类别,避免了现有技术中需要医生人工关注多参数MR图像的VI-RADS评分,与现有技术中的由影像科医生通过观察T2WI、DWI、ADC 或者DCE-MRI影像中膀胱壁的信号表现等视觉二维特征,并结合临床症状 VI-RADS评分确定膀胱肿瘤基肌层侵犯类别相对,本实施例中的预测网络模型可以直接从多参数MR图像中提取高维特征,相对于医生同观察来获取视觉二维特征来说,可以获取到更加丰富的图像特征,从而可以提高膀胱肿瘤基肌层侵犯类别预测的准确性;同时,本申请医生人工获取视觉二维特征,从而可以避免医生资历对预测结果的影响。此外,本实施例采用基于深度学习的预测网络模型,不需要手工设计特征,能有监督的对多参数MR 图像进行特征提取以及基于提取到的特征进行膀胱肿瘤基肌层侵犯类别预测。
在本实施例的一个实现方式中,所述预测网络模型为基于深度学习的神经网络模型,其中,所述预测网络模型包括特征提取模块和预测模块,特征提取模块的输入项为多参数MR图像,预测模块的输入项为特提取模块输出的特征图,预测模块的输出项为膀胱肿瘤基肌层侵犯类别。基于此,所述预测网络模型包括特征提取模块以及预测模块,所述将所述多参数MR 图像输入经过训练的预测网络模型,通过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别具体包括:
将所述多参数MR图像输入所述特征提取模块,通过所述特征提取模块确定所述多参数MR图像中的各切片图像各自对应的切片特征;
将各切片特征输入所述预测模块,通过所述预测模块确定所述多参数 MR图像者对应的膀胱肿瘤基肌层侵犯类别。
具体地,所述多参数MR图像包括若干切片图像,若干切片图像中的每个切片图像均输入所述特征提取模块,通过所述特征提取模块确定各切片图像对应的切片特征,其中,各切片图像各自对应的切片特征的特征维度均相同。所述预测模块的输入为各切片特征,并基于各切片特征确定多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别,其中,所述预测模块可以包括全连接层以及激活层,所述全连接层与所述激活层相连接,所述全连接层的输入项为特征提取模块的输出项,激活层的输出项为多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别。在一个具体实现方式中,所述激活层可以配置有Relu激活函数。
在本实施例的一个实现方式中,所述特征提取模块包括特征提取单元以及特征映射单元,所述特征提取单元用于提取多参数MR图像的高维特征,所述特征映射单元用于去除高维特征中的冗余特征,降低高维特征的特征维度以达到高效建模的目的以及提高预测网络模型的预测性能。基于此,所述将所述多参数MR图像输入所述特征提取模块,通过所述特征提取模块确定所述多参数MR图像中的各切片图像各自对应的切片特征具体包括:
将所述多参数MR图像输入所述特征提取单元,通过特征提取单元确定所述多参数MR图像中的各切片图像各自对应的候选切片特征图;
将各候选切片特征图输入特征映射单元,通过所述特征映射单元对各候选切片特征进行特征降维以得到各切片图像各自对应的切片特征,其中,切片特征的特征维度小于候选切片特征的特征维度。
具体地,所述特征提取单元用于提取各切片图像各自对应的候选切片特征图,其中,候选切片特征图为特征提取单元提取搭配的维度最高的特征图。在一个实现方式中,如图2所示,特征提取单元可以包括卷积块,两个第一特征提取块,第二特征提取块以及第三特征提取块,其中,卷积块,两个第一特征提取块,第二特征提取块以及第三特征提取块按照卷积块、第一特征提取模块、第二特征提取模块、第三特征提取块以及第一特征提取块的顺序级联。第一特征提取块包括一瓶颈块Boottleneck block 和两个基础块,两个基础块依次级联于瓶颈块之后,第二特征提取块包括一瓶颈块Boottleneck block和三个基础块,三个基础块依次级联于瓶颈块,第三特征提取块包括一瓶颈块Boottleneck block和五个基础块,五个基础块依次级联于瓶颈块,其中,候选切片特征为位于最后的第一特征提取块中的位于最后的基础块的输出项。
如图2所示,所述卷积块可以包括卷积层、归一化层、激活层以及最大池化层,所述卷积层与所述归一化层相连接,所述归一化层与所述激活层相连接,所述激活层与所述最大池化层相连接,其中,所述归一化层可以采用批量归一化层BN,激活层可以配置Relu激活函数。
如图2所示,所述瓶颈块包括两个第一卷积块、第二卷积块、融合块、第三卷积块以及第四卷积块,两个第一卷积块级联和第二卷积块依次级联,第三卷积块与两个第一卷积块级联和第二卷积块级联所形成的支路并行,并且第三卷积块与第二卷积块均与融合块相连接,融合块与第四卷积块相连接,第三卷积块与两个第一卷积块中位于前面的第一卷积块的输入项均为瓶颈块的输入项。所述基础块包括两个第一卷积块、第二卷积块、融合块以及第四卷积块,两个第一卷积块、第二卷积块、融合块以及第四卷积块依次级联,融合块的输入项包括第二卷积块的输出项和两个第一卷积块中位于前的第一卷积块的输入项。在一个实现方式中,第一卷积块包括卷积层、归一化层以及激活层,第二卷积块和第第三卷积块均包括卷积层和归一化层,融合块包括加法器,第四卷积块包括归一化层和激活层,其中,归一化层采用批量归一化层BN,激活层可以配置Relu激活函数,所述批量归一化层BN的权重为1,变差为0。本实施例通过采用具有跳跃连接的瓶颈块和基础块来构成特征提取单元中的特征提取块,这样可以防止预测网络模型出现梯度消失的现象。此外,预测网络模型在训练开始之前,预测网络模型中的每层网络均随机设置初始权值,并各层网络的初始权值满足正态分布,这样可以加快预设网络模型的收敛速度,从而提高预设网络模型的训练速度。
在本实施例的一个实现方式中,所述预测网络模型的训练过程具体包括:
获取训练样本集;
将所述训练样本集中的训练MR图像输入预设网络模型,基于预设网络模型确定所述训练MR图像对应的预测类别;
获取所述训练MR图像的样本检测难度,基于所述样本检测难度确定所述训练MR图像对应的损失函数调节权重;
基于所述损失函数调节权重、预测类别以及所述训练MR图像对应的类别标签,采用交叉熵损失函数确定所述训练MR图像对应的损失项;
基于所述损失项对所述预设网络模型进行训练,以得到所述预测网络模型。
具体地,所述训练样本集包括若干训练MR图像,若干训练MR图像中的各训练MR图像均为多参数MR图像,并且若干训练MR图像中可以存在采用不同扫描序列采集的多参数MR图像。例如,若干训练MR图像中包括T2 加权MR图像,扩散加权MR图像,表观扩散系数MR图像,或者动态对比增强MR图像扩散加权MR图像,表观扩散系数MR图像,或者动态对比增强MR图像中的一种或者多种。这样可以提高训练样本集的多样性,从而可以使得基于训练样本集训练得到的预测网络模型可以适用于基于不同扫描序列所得到的MR图像,从而提高预测网络模型的适用性。
在本实施例的一个实现方式中,若干训练MR图像中的各训练MR图像均配置有样本检测难度,其中,所述样本检测难度可以是在为训练MR图像配置标签类别时形成,用于反映基于训练MR图像预测膀胱肿瘤基肌层侵犯类别的准确率。样本检测难度越高,说明基于训练MR图像预测膀胱肿瘤基肌层侵犯类别的准确率越低,反之,样本检测难度越低,说明基于训练MR 图像预测膀胱肿瘤基肌层侵犯类别的准确率越高。其中,所述样本检测难度可以基于膀胱影像报告和数据系统(VI-RADS)所描述的膀胱多参数MR 图像的标准影像学扫描方案和诊断报告标准而确定的VI-RADS评分。
所述损失函数调节权重用于调节基于预测类别以及所述训练MR图像对应的类别标签确定的损失项,以调整样本检测难度高的训练MR图像的损失权重,从而使得预测网络模型在训练过程中更加关注样本检测难度高的训练MR图像,从而提高训练得到的预测网络模型的模型性能。在一个具体实现方式中,以肌层浸润性膀胱癌为正样本,以非肌层浸润性膀胱癌为负样本,采用损失项可以采用交叉熵损失函数确定的,其中,肌层浸润性膀胱癌对应的类别标签为1,非肌层浸润性膀胱癌对应的类别标签为0。由此,所述损失项的计算公式可以为:
其中,a表示损失函数调节权重,y′表示预测类别,y表示标签类别。
在本实施例的一个实现方式中,所述基于所述样本检测难度确定所述训练MR图像对应的损失函数调节权重具体包括:
当所述样本检测难度为困难样本时,获取所述训练样本集中样本检测难度为简单样本的训练MR图像的第一数量;
获取所述训练样本集所包括的训练MR图像的第二数量,将所述第一数量与所述第二数量的比值作为所述训练MR图像的损失函数调节权重。
具体地,所述困难样本指的是样本检测难度满足第一预设条件的,例如,预先设置困难样本对应的样本检测难度集,当获取到样本检测难度后,在样本检测难度集中查找所述样本检测难度,若查找到该样本检测难度,那么该样本检测难度为困难样本;反之,未查找到该样本检测难度,则该样本检测难度不为困难样本,或者是,样本检测难度阈值,当样本检测难度大于样本检测难度阈值,则该样本检测难度为困难样本,反之,该样本检测难度不为困难样本等。
所述第一数量为训练样本集中样本检测难度为简单样本的数量,其中,简单样本的数量可以为训练样本集中除困难样本外的所有训练MR图像的数量,也可以是,训练样本集中除困难样本外的部分训练MR图像的数量。也就是说,训练样本集中除了困难样本外的训练MR图像的样本检测难度均为简单样本,也可以是,训练样本集中除了困难样本外的部分训练MR图像的样本检测难度均为简单样本,部分为正常难度样本等。此外,当训练样本集中除了困难样本外的部分训练MR图像的样本检测难度均为简单样本,部分为正常难度样本时,正常难度样本对应的损失函数调节权重可以为预先设定的默认值等。
所述第二数量为训练样本集所有训练样本的数量,所述损失函数调节权重等于第一数量和第二数量的百分比。也就是说,样本检测难度为困难样本的训练MR图像的损失函数调节权重等于训练样本集中样本检测难度为简单样本的所有训练MR图像占训练样本集中所有训练MR图像的百分比。在本实施例的一个实现方式中,简单样本的数量可以为训练样本集中除困难样本外的所有训练MR图像的数量。
此外,对于样本检测难度为简单样本的训练MR图像,该训练MR图像对应的损失函数调节权重可以为默认值,也可以是基于训练样本集中样本检测难度为困难样本的训练MR图像的数量确定的。在一个实现方式中,所述基于所述样本检测难度确定所述训练MR图像对应的损失函数调节权重具体包括:
当所述样本检测难度为简单样本时,获取所述训练样本集中样本检测难度为困难样本的训练MR图像的第三数量;
获取所述训练样本集所包括的训练MR图像的第二数量,将所述第三数量与所述第二数量的比值作为所述训练MR图像的损失函数调节权重。
具体地,所述简单样本的确定方式可以与上述困难样本的确定方式相同,例如,预先摄像简单样本对应的样本检测难度集,或者是,预先设定样本检测难度阈值等。这里就不在赘述。所述第三数量为训练样本集中样本检测难度为困难样本的数量,其中,困难样本的数量可以为训练样本集中除简单样本外的所有训练MR图像的数量,也可以是,训练样本集中除简单样本外的部分训练MR图像的数量。也就是说,训练样本集中除了简单样本外的训练MR图像的样本检测难度均为困难样本,也可以是,训练样本集中除了简单样本外的部分训练MR图像的样本检测难度均为困难样本,部分为正常难度样本等。
第二数量与上述实施例中的第二数量相同,当样本检测难度为简单样本时,所述损失函数调节权重等于第三数量和第二数量的百分比。也就是说,样本检测难度为简单样本的训练MR图像的损失函数调节权重等于训练样本集中样本检测难度为困难样本的所有训练MR图像占训练样本集中所有训练MR图像的百分比。此外,所述第三数量小于所述第一数量,从而使得第一数量与第二数量的比值对于第三数量与第二数量的比值,从而使得困难样本对应的损失函数调节权重大于简单样本对应的损失函数调节权重,使得预测网络模型更加关注样本检测难度为困难样本的训练MR图像,从而可以提高预测网络模型对于样本检测难度高的MR图像的准确率,从而可以提高预测网络模型的模型性能。
综上所述,本实施例提供了一种基于深度学习的膀胱肿瘤肌层侵犯预测方法,所述方法包括获取膀胱癌患者的多参数MR图像;将所述多参数MR 图像输入经过训练的预测网络模型,通过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别,其中,所述膀胱肿瘤基肌层侵犯类别包括非肌层浸润性膀胱癌或肌层浸润性膀胱癌。本申请通过预设网络模型学习多参数MR图像所携带的图像特征,并基于学习到的图像特征来预测膀胱肿瘤基肌层侵犯类别,这样可以通过多参数MR图像携带的丰富影像信息来对膀胱肿瘤基肌层侵犯类别进行预测,在不对患者身体产生损害的前提下,提高了膀胱肿瘤基肌层侵犯类别的准确性。
基于上述基于深度学习的膀胱肿瘤肌层侵犯预测方法,本实施例提供了一种基于深度学习的膀胱肿瘤基肌层侵犯预测装置,如图3所示,所述的预测装置包括:
获取模块100,用于获取膀胱癌患者的多参数MR图像;
控制模块200,用于将所述多参数MR图像输入经过训练的预测网络模型,并控制过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别,其中,所述膀胱肿瘤基肌层侵犯类别包括非肌层浸润性膀胱癌或肌层浸润性膀胱癌。
基于上述基于深度学习的膀胱肿瘤肌层侵犯预测方法,本实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如上述实施例所述的基于深度学习的膀胱肿瘤肌层侵犯预测方法中的步骤。
基于上述基于深度学习的膀胱肿瘤肌层侵犯预测方法,本申请还提供了一种终端设备,如图4所示,其包括至少一个处理器(processor)20;显示屏21;以及存储器(memory)22,还可以包括通信接口(Communications Interface)23和总线24。其中,处理器20、显示屏21、存储器22和通信接口23可以通过总线24完成相互间的通信。显示屏21设置为显示初始设置模式中预设的用户引导界面。通信接口23可以传输信息。处理器20 可以调用存储器22中的逻辑指令,以执行上述实施例中的方法。
此外,上述的存储器22中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。
存储器22作为一种计算机可读存储介质,可设置为存储软件程序、计算机可执行程序,如本公开实施例中的方法对应的程序指令或模块。处理器20通过运行存储在存储器22中的软件程序、指令或模块,从而执行功能应用以及数据处理,即实现上述实施例中的方法。
存储器22可包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端设备的使用所创建的数据等。此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器。例如,U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等多种可以存储程序代码的介质,也可以是暂态存储介质。
此外,上述存储介质以及终端设备中的多条指令处理器加载并执行的具体过程在上述方法中已经详细说明,在这里就不再一一陈述。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种基于深度学习的膀胱肿瘤肌层侵犯预测方法,其特征在于,所述的方法包括:
获取膀胱癌患者的多参数MR图像;
将所述多参数MR图像输入经过训练的预测网络模型,通过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别,其中,所述膀胱肿瘤基肌层侵犯类别包括非肌层浸润性膀胱癌或肌层浸润性膀胱癌。
2.根据权利要求1所述基于深度学习的膀胱肿瘤肌层侵犯预测方法,其特征在于,所述预测网络模型包括特征提取模块以及预测模块,所述将所述多参数MR图像输入经过训练的预测网络模型,通过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别具体包括:
将所述多参数MR图像输入所述特征提取模块,通过所述特征提取模块确定所述多参数MR图像中的各切片图像各自对应的切片特征;
将各切片特征输入所述预测模块,通过所述预测模块确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别。
3.根据权利要求2所述基于深度学习的膀胱肿瘤肌层侵犯预测方法,其特征在于,所述特征提取模块包括特征提取单元以及特征映射单元,所述将所述多参数MR图像输入所述特征提取模块,通过所述特征提取模块确定所述多参数MR图像中的各切片图像各自对应的切片特征具体包括:
将所述多参数MR图像输入所述特征提取单元,通过特征提取单元确定所述多参数MR图像中的各切片图像各自对应的候选切片特征图;
将各候选切片特征图输入特征映射单元,通过所述特征映射单元对各候选切片特征进行特征降维以得到各切片图像各自对应的切片特征,其中,切片特征的特征维度小于候选切片特征的特征维度。
4.根据权利要求1所述基于深度学习的膀胱肿瘤肌层侵犯预测方法,其特征在于,所述预测网络模型的训练过程具体包括:
所述预测网络模型的训练过程具体包括:
获取训练样本集,其中,所述训练样本集包括若干训练MR图像,若干训练MR图像中的各训练MR图像均配置有样本检测难度;
将所述训练样本集中的训练MR图像输入预设网络模型,基于预设网络模型确定所述训练MR图像对应的预测类别;
获取所述训练MR图像的样本检测难度,基于所述样本检测难度确定所述训练MR图像对应的损失函数调节权重;
基于所述损失函数调节权重、预测类别以及所述训练MR图像对应的类别标签,采用交叉熵损失函数确定所述训练MR图像对应的损失项;
基于所述损失项对所述预设网络模型进行训练,以得到所述预测网络模型。
5.根据权利要求4所述基于深度学习的膀胱肿瘤肌层侵犯预测方法,其特征在于,所述基于所述样本检测难度确定所述训练MR图像对应的损失函数调节权重具体包括:
当所述样本检测难度为困难样本时,获取所述训练样本集中样本检测难度为简单样本的训练MR图像的第一数量;
获取所述训练样本集所包括的训练MR图像的第二数量,将所述第一数量与所述第二数量的比值作为所述训练MR图像的损失函数调节权重。
6.根据权利要求4所述基于深度学习的膀胱肿瘤肌层侵犯预测方法,其特征在于,所述基于所述样本检测难度确定所述训练样本对应的损失函数调节权重具体包括:
当所述样本检测难度为简单样本时,获取所述训练样本集中样本检测难度为困难样本的训练MR图像的第三数量;
获取所述训练样本集所包括的训练MR图像的第二数量,将所述第三数量与所述第二数量的比值作为所述训练MR图像的损失函数调节权重。
8.一种基于深度学习的膀胱肿瘤基肌层侵犯预测装置,其特征在于,所述的预测装置包括:
获取模块,用于获取膀胱癌患者的多参数MR图像;
控制模块,用于将所述多参数MR图像输入经过训练的预测网络模型,并控制过所述预测网络模型确定所述多参数MR图像者对应的膀胱肿瘤基肌层侵犯类别,其中,所述膀胱肿瘤基肌层侵犯类别包括非肌层浸润性膀胱癌或肌层浸润性膀胱癌。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现如权利要求1-7任意一项所述的基于深度学习的膀胱肿瘤肌层侵犯预测方法中的步骤。
10.一种终端设备,其特征在于,包括:处理器、存储器及通信总线;所述存储器上存储有可被所述处理器执行的计算机可读程序;
所述通信总线实现处理器和存储器之间的连接通信;
所述处理器执行所述计算机可读程序时实现如权利要求1-7任意一项所述的基于深度学习的膀胱肿瘤肌层侵犯预测方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111365078.XA CN114240839B (zh) | 2021-11-17 | 2021-11-17 | 基于深度学习的膀胱肿瘤肌层侵犯预测方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111365078.XA CN114240839B (zh) | 2021-11-17 | 2021-11-17 | 基于深度学习的膀胱肿瘤肌层侵犯预测方法及相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114240839A true CN114240839A (zh) | 2022-03-25 |
CN114240839B CN114240839B (zh) | 2023-04-07 |
Family
ID=80749864
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111365078.XA Active CN114240839B (zh) | 2021-11-17 | 2021-11-17 | 基于深度学习的膀胱肿瘤肌层侵犯预测方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114240839B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116051467A (zh) * | 2022-12-14 | 2023-05-02 | 东莞市人民医院 | 基于多任务学习的膀胱癌肌层侵犯预测方法及相关装置 |
CN117694839A (zh) * | 2024-02-05 | 2024-03-15 | 四川省肿瘤医院 | 基于图像的非肌层浸润性膀胱癌复发率预测方法和系统 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6463438B1 (en) * | 1994-06-03 | 2002-10-08 | Urocor, Inc. | Neural network for cell image analysis for identification of abnormal cells |
US20160017433A1 (en) * | 2013-01-31 | 2016-01-21 | Fina Biotech, S.L | Non-invasive diagnostic method for diagnosing bladder cancer |
US20180240233A1 (en) * | 2017-02-22 | 2018-08-23 | Siemens Healthcare Gmbh | Deep Convolutional Encoder-Decoder for Prostate Cancer Detection and Classification |
US20180263568A1 (en) * | 2017-03-09 | 2018-09-20 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Clinical Image Classification |
US20200074637A1 (en) * | 2018-08-28 | 2020-03-05 | International Business Machines Corporation | 3d segmentation with exponential logarithmic loss for highly unbalanced object sizes |
CN111209887A (zh) * | 2020-01-15 | 2020-05-29 | 西安电子科技大学 | 针对小目标检测的ssd模型优化方法 |
CN111585997A (zh) * | 2020-04-27 | 2020-08-25 | 国家计算机网络与信息安全管理中心 | 一种基于少量标注数据的网络流量异常检测方法 |
CN111950723A (zh) * | 2019-05-16 | 2020-11-17 | 武汉Tcl集团工业研究院有限公司 | 神经网络模型训练方法、图像处理方法、装置及终端设备 |
CN112270676A (zh) * | 2020-11-13 | 2021-01-26 | 上海理工大学 | 一种mri图像子宫内膜癌肌层浸润深度计算机辅助判断方法 |
CN112545476A (zh) * | 2019-09-26 | 2021-03-26 | 北京赛迈特锐医疗科技有限公司 | 在mpMRI上检出前列腺癌包膜外侵犯的系统及方法 |
CN112669283A (zh) * | 2020-12-29 | 2021-04-16 | 杭州优视泰信息技术有限公司 | 一种基于深度学习的肠镜图像息肉误检测抑制装置 |
CN112926506A (zh) * | 2021-03-24 | 2021-06-08 | 重庆邮电大学 | 一种基于卷积神经网络的非受控人脸检测方法及系统 |
CN113505768A (zh) * | 2021-09-10 | 2021-10-15 | 北京的卢深视科技有限公司 | 模型训练、人脸识别方法、电子设备及存储介质 |
-
2021
- 2021-11-17 CN CN202111365078.XA patent/CN114240839B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6463438B1 (en) * | 1994-06-03 | 2002-10-08 | Urocor, Inc. | Neural network for cell image analysis for identification of abnormal cells |
US20160017433A1 (en) * | 2013-01-31 | 2016-01-21 | Fina Biotech, S.L | Non-invasive diagnostic method for diagnosing bladder cancer |
US20180240233A1 (en) * | 2017-02-22 | 2018-08-23 | Siemens Healthcare Gmbh | Deep Convolutional Encoder-Decoder for Prostate Cancer Detection and Classification |
US20180263568A1 (en) * | 2017-03-09 | 2018-09-20 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and Methods for Clinical Image Classification |
US20200074637A1 (en) * | 2018-08-28 | 2020-03-05 | International Business Machines Corporation | 3d segmentation with exponential logarithmic loss for highly unbalanced object sizes |
CN111950723A (zh) * | 2019-05-16 | 2020-11-17 | 武汉Tcl集团工业研究院有限公司 | 神经网络模型训练方法、图像处理方法、装置及终端设备 |
CN112545476A (zh) * | 2019-09-26 | 2021-03-26 | 北京赛迈特锐医疗科技有限公司 | 在mpMRI上检出前列腺癌包膜外侵犯的系统及方法 |
CN111209887A (zh) * | 2020-01-15 | 2020-05-29 | 西安电子科技大学 | 针对小目标检测的ssd模型优化方法 |
CN111585997A (zh) * | 2020-04-27 | 2020-08-25 | 国家计算机网络与信息安全管理中心 | 一种基于少量标注数据的网络流量异常检测方法 |
CN112270676A (zh) * | 2020-11-13 | 2021-01-26 | 上海理工大学 | 一种mri图像子宫内膜癌肌层浸润深度计算机辅助判断方法 |
CN112669283A (zh) * | 2020-12-29 | 2021-04-16 | 杭州优视泰信息技术有限公司 | 一种基于深度学习的肠镜图像息肉误检测抑制装置 |
CN112926506A (zh) * | 2021-03-24 | 2021-06-08 | 重庆邮电大学 | 一种基于卷积神经网络的非受控人脸检测方法及系统 |
CN113505768A (zh) * | 2021-09-10 | 2021-10-15 | 北京的卢深视科技有限公司 | 模型训练、人脸识别方法、电子设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
YUHAN YANG 等: ""Application of deep learning as a noninvasive tool to differentiate muscle-invasive bladder cancer and non–muscle-invasive bladder cancer with CT"", 《EUROPEAN JOURNAL OF RADIOLOGY》 * |
孙锋 等: ""探究膀胱影像报告与数据系统对肌层浸润性膀胱癌的诊断效能及观察者间一致性的研究"", 《临床放射学杂志》 * |
董洪义: "《深度学习之pytorch物体检测实战》", 31 January 2020, 北京:机械工业出版社 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116051467A (zh) * | 2022-12-14 | 2023-05-02 | 东莞市人民医院 | 基于多任务学习的膀胱癌肌层侵犯预测方法及相关装置 |
CN116051467B (zh) * | 2022-12-14 | 2023-11-03 | 东莞市人民医院 | 基于多任务学习的膀胱癌肌层侵犯预测方法及相关装置 |
CN117694839A (zh) * | 2024-02-05 | 2024-03-15 | 四川省肿瘤医院 | 基于图像的非肌层浸润性膀胱癌复发率预测方法和系统 |
CN117694839B (zh) * | 2024-02-05 | 2024-04-16 | 四川省肿瘤医院 | 基于图像的非肌层浸润性膀胱癌复发率预测方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114240839B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10939874B2 (en) | Deep-learning-based cancer classification using a hierarchical classification framework | |
CN114240839B (zh) | 基于深度学习的膀胱肿瘤肌层侵犯预测方法及相关装置 | |
Hua et al. | Segmenting brain tumor using cascaded V-Nets in multimodal MR images | |
CN111179237B (zh) | 一种肝脏以及肝脏肿瘤的图像分割方法和装置 | |
CN109410167A (zh) | 一种3d乳腺图像的分析方法及相关产品 | |
Wang et al. | AWSnet: An auto-weighted supervision attention network for myocardial scar and edema segmentation in multi-sequence cardiac magnetic resonance images | |
CN110910335B (zh) | 一种图像处理方法、图像处理设备及计算机可读存储介质 | |
CN111476793A (zh) | 动态增强磁共振成像处理方法、系统、存储介质、终端 | |
CN114171197B (zh) | 一种乳腺癌her2状态的预测方法及相关设备 | |
Liu et al. | Bladder cancer multi-class segmentation in MRI with Pyramid-In-Pyramid network | |
Huang et al. | A liver fibrosis staging method using cross-contrast network | |
CN115311193A (zh) | 一种基于双重注意力机制的异常脑图像分割方法及系统 | |
CN112233112B (zh) | 一种基于深度学习分析的肝细胞癌的ck19的预测方法 | |
KR102431173B1 (ko) | 진단 영상에서 심층신경망을 이용한 국소종양진행을 진단하기 위한 장치 및 국소종양진행 진단에 필요한 정보를 제공하는 방법 | |
CN113012164A (zh) | 基于聚合层间信息的U-Net肾脏肿瘤图像分割方法、设备及存储介质 | |
CN113379770B (zh) | 鼻咽癌mr图像分割网络的构建方法、图像分割方法及装置 | |
CN113191413B (zh) | 基于中央凹残差网络的前列腺多模mr图像分类方法和系统 | |
US20220101998A1 (en) | Tumor recurrence prediction device and method | |
Wang et al. | FSOU-Net: Feature supplement and optimization U-Net for 2D medical image segmentation | |
Shanmugalingam et al. | Attention guided deep supervision model for prostate segmentation in multisite heterogeneous MRI data | |
Niaf et al. | Computer-aided diagnosis for prostate cancer detection in the peripheral zone via multisequence MRI | |
CN114648509A (zh) | 一种基于多分类任务的甲状腺癌检出系统 | |
Han et al. | Explainable prediction of renal cell carcinoma from contrast-enhanced ct images using deep convolutional transfer learning and the shapley additive explanations approach | |
CN113192099A (zh) | 一种组织提取方法、装置、设备和介质 | |
Zhao et al. | Preprocessing and grading of glioma data acquired from multicenter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |