CN116402775B - 一种基于多任务感知网络的细胞形变控制方法 - Google Patents

一种基于多任务感知网络的细胞形变控制方法 Download PDF

Info

Publication number
CN116402775B
CN116402775B CN202310319226.7A CN202310319226A CN116402775B CN 116402775 B CN116402775 B CN 116402775B CN 202310319226 A CN202310319226 A CN 202310319226A CN 116402775 B CN116402775 B CN 116402775B
Authority
CN
China
Prior art keywords
cell
deformation
puncture
cells
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310319226.7A
Other languages
English (en)
Other versions
CN116402775A (zh
Inventor
周鸣川
郭祥雨
张友超
王芳豪
蒋焕煜
应义斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202310319226.7A priority Critical patent/CN116402775B/zh
Publication of CN116402775A publication Critical patent/CN116402775A/zh
Application granted granted Critical
Publication of CN116402775B publication Critical patent/CN116402775B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

本发明公开了一种基于多任务感知网络的细胞形变控制方法。本发明将显微相机采集获得的多张细胞‑微针图像输入多任务感知网络模型中进行训练,获得训练好的多任务感知网络模型;接着显微相机采集待预测的细胞‑微针图像后再输入到训练好的多任务感知网络模型中,输出获得对应的细胞分割图和针尖位置;再根据细胞分割图和针尖位置计算计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整细胞穿刺速度;不断调整细胞穿刺速度,直至细胞穿刺成功。本发明基于网络提取信息,通过点接触模型估计穿刺力,可以根据细胞变形状态自动调整穿刺速度,实现智能穿刺。

Description

一种基于多任务感知网络的细胞形变控制方法
技术领域
本发明涉及细胞操作技术领域的一种细胞形变控制方法,尤其是指一种基于多任务感知网络(AMP-Net)的细胞形变控制方法。
背景技术
在细胞显微自动化操作中,尽管深度学习网络已经被广泛应用于细胞分割和微针检测,并取得不错的效果。但是单一的深度学习网络不能够同时实现分割和检测任务,如果将两种不同功能的网络串联在一起,则会增加运行时间,不利于整个系统性能提升。
发明内容
为了解决背景技术中存在的问题和需求,本发明提供了一种基于多任务感知网络的细胞形变控制方法。本发明同时实现微针检测与细胞分割,并计算细胞形变和穿刺力,指导机器人在线调整穿刺速度。
本发明的技术方案如下:
S1:将显微相机采集获得的多张细胞-微针图像输入多任务感知网络模型中进行训练,获得训练好的多任务感知网络模型;
S2:显微相机采集待预测的细胞-微针图像后再输入到训练好的多任务感知网络模型中,输出获得对应的细胞分割图和针尖位置;
S3:根据细胞分割图和针尖位置计算计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整玻璃针的穿刺速度;
S4:重复S2-S3,不断调整细胞穿刺速度,直至细胞穿刺成功。
所述多任务感知网络模型包括编码器和解码器,编码器和解码器相连,解码器包括细胞检测头和细胞分割头,细胞检测头和细胞分割头均与编码器相连,细胞检测头输出针尖位置,细胞分割头输出细胞分割图。
所述多任务感知网络模型的总损失函数的公式如下:
Ltotal=αLdet+βLseg
1=α+β
其中,Ltotal为多任务感知网络模型的总损失函数值,Ldet为微针检测头的损失函数值,α为微针检测头的损失函数的系数,β为细胞分割的损失函数的系数,Lseg为细胞分割的损失函数的值。
所述多任务感知网络模型的训练策略如下:
首先仅冻结细胞分割头,训练多任务感知网络模型N1次,再仅冻结微针检测头,训练多任务感知网络模型N2次,最后不冻结任何网络,训练整个网络N3次。
所述S3具体为:
根据细胞分割图计算细胞的形变,结合针尖位置和点接触模型计算细胞穿刺力,如果细胞的形变不在形变安全阈值内,则将玻璃针复位,并调高玻璃针的穿刺速度;如果细胞的形变在形变安全阈值内,并且细胞穿刺力大于细胞膜承载力,则细胞被穿破,反之,则将玻璃针复位,并调高玻璃针的穿刺速度。
所述细胞的形变为细胞总形变TCD、细胞横向形变为ACD和细胞轴向形变为LCD中的一种,计算公式如下:
其中,S0表示细胞未产生形变的面积,S1表示细胞形变后的面积,a表示细胞轴向长度,b表示细胞横向长度。
所述细胞穿刺力的计算公式如下:
其中,F表示细胞穿刺力E为杨氏模量,Wd为玻璃针进入细胞的凹陷深度,h为膜厚度,c为玻璃针末端的半径,d是细胞凹陷半径,v是泊松比,ζ为比值系数。
本发明的有益效果是:
本发明同时实现细胞分割、微针检测和针尖定位三种任务。针头注射精度为98.9%,细胞分割精度为98.4%,针尖定位平均误差为0.65μm,优于其他主流网络算法。基于网络提取的信息,定义了三个参数来描述细胞变形,并通过点接触模型估计穿刺力。机器人可以根据细胞变形状态自动调整穿刺速度,实现智能穿刺。实验结果表明,基于所提方法细胞存活率为60%,与手动注射方法相比提高了50%。
附图说明
图1是本发明显微视觉下感知任务示意图;
图2是本发明算法网络结构图;
图3是本发明图像处理结果实例示意图;
图4是本发明算法消融实验结果;
图5是本发明算法与其他算法对比结果;
图6是本发明细胞形变参数定义示意图;
图7是本发明细胞受力计算示意图;
图8是本发明不同速度对细胞形变的影响示意图;
图9是本发明细胞实验结果示意图。
图10是本发明的方法流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图10所示,本发明包括以下步骤:
S1:将显微相机采集获得的多张细胞-微针图像输入多任务网络模型中进行训练,获得训练好的多任务网络模型,细胞-微针图像中有且仅有一个细胞与一个微针,多张细胞-微针图像对应的显微镜放大倍数相同,多张细胞-微针图像分为三类图像,分别为细胞与微针未接触图像,细胞与微针刚接触但细胞未产生形变图像,细胞与微针接触并使细胞产生形变图像,并且每类图像中包含不同光照、不同尺寸细胞,如图1所示。基于张正友标定法对显微相机标定,本实施例收集1000张显微视野下的图像,并已进行标注,细胞采用掩膜标注,微针采用检测方框标注,构建训练数据集,图像的统一尺寸调整到640×400。
多任务感知网络模型包括编码器和解码器,编码器和解码器相连,解码器包括细胞检测头和细胞分割头,细胞检测头和细胞分割头均与编码器相连,细胞检测头输出针尖位置,细胞分割头输出细胞分割图。
具体实施中,如图2所示,编码器由主干网络Efficient和特征融合网络BiFPN相连组成,主干网络由七层网络层组成,依次记为网络层P1-P7,每个网络层由卷积层、归一化层和激活层依次相连组成,主干网络Efficient的P3-P7与特征融合网络BiFPN之间采用串行的跳层结构连接,特征融合网络BiFPN的输出经过上采样后再分别输入到细胞检测头和细胞分割头中,细胞检测头包括网络层P5-P7和3个卷积注意力机制模块CBAM,网络层P5、第一卷积注意力机制模块CBAM、网络层P6、第二卷积注意力机制模块CBAM、网络层P7和第三卷积注意力机制模块CBAM依次连接,从而提高了感兴趣区域的检测敏感度。每个卷积注意力机制模块CBAM由三层卷积层依次相连组成。微针检测头与细胞分割头之间没有多余的共享网络层,减少了参数量,提高了运行参数。
多任务网络模型的总损失函数的公式如下:
Ltotal=αLdet+βLseg
1=α+β
其中,Ltotal为多任务感知网络模型的总损失函数值,Ldet为微针检测头的损失函数值,α为微针检测头的损失函数的系数,β为细胞分割的损失函数的系数,Lseg为细胞分割的损失函数的值,通过调节α和β实现Ltotal最优。
多任务网络模型的训练策略如下:
首先仅冻结细胞分割头,即不训练细胞分割头,训练多任务感知网络模型N1次,再仅冻结微针检测头,即不训练微针检测头,训练多任务感知网络模型N2次,最后不冻结任何网络,训练整个网络N3次。
S2:显微相机采集待预测的细胞-微针图像后再输入到训练好的多任务网络模型中,输出获得对应的细胞分割图和针尖位置;
S3:根据细胞分割图和针尖位置计算计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整细胞穿刺速度;
S3具体为:
根据细胞分割图计算细胞的形变,结合针尖位置和点接触模型计算细胞穿刺力,如果细胞的形变不在形变安全阈值内,则将玻璃针复位,并调高玻璃针的穿刺速度;如果细胞的形变在形变安全阈值内,并且细胞穿刺力大于细胞膜承载力,则细胞被穿破,反之,则将玻璃针复位,并调高玻璃针的穿刺速度。
如图6所示,图6的(a)为细胞未发生形变时参数示意图,图6的(b)为细胞发生形变时参数示意图,细胞的形变为细胞总形变TCD、细胞横向形变为ACD和细胞轴向形变为LCD中的一种,计算公式如下:
其中,S0表示细胞未产生形变的面积,S1表示细胞形变后的面积,a表示细胞轴向长度,b表示细胞横向长度。
如图7所示,所述细胞穿刺力的计算公式如下:
其中,F表示细胞穿刺力,E为杨氏模量,Wd为玻璃针进入细胞的凹陷深度,h为膜厚度,c为玻璃针末端的半径,d是细胞凹陷半径,v是泊松比,ζ为比值系数。
S4:重复S2-S3,不断调整细胞穿刺速度,直至细胞穿刺成功,如图3所示。
具体实施中,训练多任务感知网络模型,先冻结分细胞割头训练50次,再冻结微针检测头训练50次,最后同时训练整个网络80次。按着这个训练策略,通过消融实验确定损失函数的α、β最优组合,获得最优的训练模型。如图4所示,α为0.6,β为0.4,此时模型性能最优。如图5所示,与其他网络算法进行对比,图5的(a)为本发明与检测算法对比图,图5的(b)为本发明与分割算法对比图;可以该模型性能优于其他算法。针尖定位误差为0.65μm。
不同速度对细胞形变的影响如图8所示,图8的(a)中穿刺速度为10μm/s,图8的(b)中穿刺速度为30μm/s,图8的(c)中穿刺速度为50μm/s,图8的(d)中穿刺速度为70μm/s,图8的(e)为不同穿刺速度下细胞的形变。将模型部署到显微操作实验平台上,设定细胞形变阈值为0.2,计算细胞形变,判断细胞形变是否超过设定阈值,如果超过细胞形变阈值细胞还未穿破,则调整细胞速度,重新穿刺,指导细胞在细胞阈值内穿破细胞。机器人可以根据细胞变形状态自动调整穿刺速度,实现智能穿刺。如图9所示,使用台盼蓝作为活性染料,统计细胞成活率。实验结果表明,基于所提方法细胞存活率为60%,与手动注射方法相比提高了50%。

Claims (1)

1.一种基于多任务感知网络的细胞形变控制方法,其特征在于,包括以下步骤:
S1:将显微相机采集获得的多张细胞-微针图像输入多任务感知网络模型中进行训练,获得训练好的多任务感知网络模型;
S2:显微相机采集待预测的细胞-微针图像后再输入到训练好的多任务感知网络模型中,输出获得对应的细胞分割图和针尖位置;
S3:根据细胞分割图和针尖位置计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整玻璃针的穿刺速度;
S4:重复S2-S3,不断调整细胞穿刺速度,直至细胞穿刺成功;
所述多任务感知网络模型包括编码器和解码器,编码器和解码器相连,解码器包括微针检测头和细胞分割头,微针检测头和细胞分割头均与编码器相连,微针检测头输出针尖位置,细胞分割头输出细胞分割图;
所述多任务感知网络模型的总损失函数的公式如下:
Ltotal=αLdet+βLseg
1=α+β
其中,Ltotal为多任务感知网络模型的总损失函数值,Ldet为微针检测头的损失函数值,α为微针检测头的损失函数的系数,β为细胞分割头的损失函数的系数,Lseg为细胞分割头的损失函数的值;
所述多任务感知网络模型的训练策略如下:
首先仅冻结细胞分割头,训练多任务感知网络模型N1次,再仅冻结微针检测头,训练多任务感知网络模型N2次,最后不冻结任何网络,训练整个网络N3次;
所述S3具体为:
根据细胞分割图计算细胞的形变,结合针尖位置和点接触模型计算细胞穿刺力,如果细胞的形变不在形变安全阈值内,则将玻璃针复位,并调高玻璃针的穿刺速度;如果细胞的形变在形变安全阈值内,并且细胞穿刺力大于细胞膜承载力,则细胞被穿破,反之,则将玻璃针复位,并调高玻璃针的穿刺速度;
所述细胞的形变为细胞总形变TCD、细胞横向形变为ACD和细胞轴向形变为LCD中的一种,计算公式如下:
其中,S0表示细胞未产生形变的面积,S1表示细胞形变后的面积,a表示细胞轴向长度,b表示细胞横向长度;
所述细胞穿刺力的计算公式如下:
其中,F表示细胞穿刺力,E为杨氏模量,Wd为玻璃针进入细胞的凹陷深度,h为膜厚度,c为玻璃针末端的半径,d是细胞凹陷半径,v是泊松比,ζ为比值系数。
CN202310319226.7A 2023-03-29 2023-03-29 一种基于多任务感知网络的细胞形变控制方法 Active CN116402775B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310319226.7A CN116402775B (zh) 2023-03-29 2023-03-29 一种基于多任务感知网络的细胞形变控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310319226.7A CN116402775B (zh) 2023-03-29 2023-03-29 一种基于多任务感知网络的细胞形变控制方法

Publications (2)

Publication Number Publication Date
CN116402775A CN116402775A (zh) 2023-07-07
CN116402775B true CN116402775B (zh) 2023-12-22

Family

ID=87011701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310319226.7A Active CN116402775B (zh) 2023-03-29 2023-03-29 一种基于多任务感知网络的细胞形变控制方法

Country Status (1)

Country Link
CN (1) CN116402775B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104008545A (zh) * 2014-05-20 2014-08-27 华南理工大学 一种在光学显微注射过程中人类卵细胞分割实现方法
CN111369615A (zh) * 2020-02-21 2020-07-03 苏州优纳医疗器械有限公司 一种基于多任务卷积神经网络的细胞核中心点检测方法
CN111524138A (zh) * 2020-07-06 2020-08-11 湖南国科智瞳科技有限公司 一种基于多任务学习的显微图像细胞识别方法及装置
CN111652848A (zh) * 2020-05-07 2020-09-11 南开大学 一种机器人化的贴壁细胞三维定位方法
CN112595655A (zh) * 2020-10-28 2021-04-02 宁夏医科大学总医院 基于人工智能的脑脊液细胞自动分析系统
CN113610760A (zh) * 2021-07-05 2021-11-05 河海大学 一种基于u型残差神经网络的细胞图像分割示踪方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014197455A1 (en) * 2013-06-03 2014-12-11 University Of Florida Research Foundation, Incorporated Devices and methods for isolating cells
US11443426B2 (en) * 2018-01-18 2022-09-13 Nantomics, Llc Real-time whole slide pathology image cell counting
JP2021064115A (ja) * 2019-10-11 2021-04-22 株式会社島津製作所 細胞画像解析方法及び細胞解析装置
EP3812765A1 (en) * 2019-10-23 2021-04-28 Deutsches Krebsforschungszentrum, Stiftung des öffentlichen Rechts Method and system for closed-loop live-cell imaging
US11790528B2 (en) * 2021-02-02 2023-10-17 Ping An Technology (Shenzhen) Co., Ltd. Preoperative survival prediction method based on enhanced medical images and computing device using thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104008545A (zh) * 2014-05-20 2014-08-27 华南理工大学 一种在光学显微注射过程中人类卵细胞分割实现方法
CN111369615A (zh) * 2020-02-21 2020-07-03 苏州优纳医疗器械有限公司 一种基于多任务卷积神经网络的细胞核中心点检测方法
CN111652848A (zh) * 2020-05-07 2020-09-11 南开大学 一种机器人化的贴壁细胞三维定位方法
CN111524138A (zh) * 2020-07-06 2020-08-11 湖南国科智瞳科技有限公司 一种基于多任务学习的显微图像细胞识别方法及装置
CN112595655A (zh) * 2020-10-28 2021-04-02 宁夏医科大学总医院 基于人工智能的脑脊液细胞自动分析系统
CN113610760A (zh) * 2021-07-05 2021-11-05 河海大学 一种基于u型残差神经网络的细胞图像分割示踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ClusterSeg: A crowd cluster pinpointed nucleus segmentation framework with cross-modality datasets;Jing Ke 等;《Medical Image Analysis》;1-14 *
Spotlight-Based 3D Instrument Guidance for Autonomous Task in Robot-Assisted Retinal Surgery;Mingchuan Zhou等;《IEEE Robotics and Automation Letters》;7750-7757 *
电磁定位引导体模穿刺的实验研究;梁亮亮;李景武;候国青;苏铁柱;白惠;么文博;王顺意;李宾;蔡旺;胡万宁;;中国煤炭工业医学杂志(01);33-36 *

Also Published As

Publication number Publication date
CN116402775A (zh) 2023-07-07

Similar Documents

Publication Publication Date Title
CN112634276B (zh) 一种基于多尺度视觉特征提取的轻量级语义分割方法
US11557029B2 (en) Method for detecting and recognizing surface defects of automated fiber placement composite based on image converted from point cloud
CN111507335A (zh) 自动标注利用于深度学习网络的训练图像的方法和装置
CN112084974B (zh) 一种基于元学习的多标签滚动轴承故障诊断方法
CN111091130A (zh) 基于轻量级卷积神经网络的实时图像语义分割方法及系统
CN108288035A (zh) 基于深度学习的多通道图像特征融合的人体动作识别方法
CN110415230B (zh) 一种基于深度学习的ct切片图像语义分割系统及方法
CN110009648B (zh) 基于深浅特征融合卷积神经网络的路侧图像车辆分割方法
CN116402775B (zh) 一种基于多任务感知网络的细胞形变控制方法
CN101286227A (zh) 一种无监督马尔可夫随机场图像分割方法
CN109902609A (zh) 一种基于YOLOv3的交通标志检测与识别方法
CN112446891A (zh) 基于U-Net网络脑胶质瘤的医学图像分割方法
CN110096202B (zh) 一种基于深度强化学习的轻量级图像自动裁剪系统及方法
US20240161531A1 (en) Transformer-based multi-scale pedestrian re-identification method
CN116030044A (zh) 一种边界感知的半监督医学图像分割方法
CN110992309B (zh) 基于深层信息传递网络的眼底图像分割方法
CN112634308B (zh) 基于不同感受野的鼻咽癌靶区和危及器官的勾画方法
CN114463721A (zh) 一种基于空间特征交互的车道线检测方法
CN113538363A (zh) 一种基于改进U-Net的肺部医学影像分割方法及装置
CN112270682A (zh) 基于深度神经网络的超声图像桥本氏甲状腺炎识别方法
CN117095012A (zh) 一种眼底视网膜血管图像分割方法、系统及设备
CN117011728A (zh) 基于改进YOLOv7的无人机航拍目标检测方法
CN115661657A (zh) 一种轻量化的无人艇目标检测方法
CN114066920B (zh) 一种基于改进Segnet图像分割的收割机视觉导航方法与系统
CN116012639A (zh) 一种基于元学习的早产儿视网膜眼底图像定量化指标及分期方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant