CN116402775B - 一种基于多任务感知网络的细胞形变控制方法 - Google Patents
一种基于多任务感知网络的细胞形变控制方法 Download PDFInfo
- Publication number
- CN116402775B CN116402775B CN202310319226.7A CN202310319226A CN116402775B CN 116402775 B CN116402775 B CN 116402775B CN 202310319226 A CN202310319226 A CN 202310319226A CN 116402775 B CN116402775 B CN 116402775B
- Authority
- CN
- China
- Prior art keywords
- cell
- deformation
- puncture
- cells
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 230000011218 segmentation Effects 0.000 claims abstract description 37
- 230000008447 perception Effects 0.000 claims abstract description 19
- 210000004027 cell Anatomy 0.000 claims description 151
- 238000001514 detection method Methods 0.000 claims description 30
- 230000006870 function Effects 0.000 claims description 20
- 239000011521 glass Substances 0.000 claims description 20
- 230000008014 freezing Effects 0.000 claims description 9
- 238000007710 freezing Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000032823 cell division Effects 0.000 claims description 4
- 230000004323 axial length Effects 0.000 claims description 3
- 210000000170 cell membrane Anatomy 0.000 claims description 3
- 239000000284 extract Substances 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000002347 injection Methods 0.000 description 3
- 239000007924 injection Substances 0.000 description 3
- 238000002679 ablation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000004083 survival effect Effects 0.000 description 2
- GLNADSQYFUSGOU-GPTZEZBUSA-J Trypan blue Chemical compound [Na+].[Na+].[Na+].[Na+].C1=C(S([O-])(=O)=O)C=C2C=C(S([O-])(=O)=O)C(/N=N/C3=CC=C(C=C3C)C=3C=C(C(=CC=3)\N=N\C=3C(=CC4=CC(=CC(N)=C4C=3O)S([O-])(=O)=O)S([O-])(=O)=O)C)=C(O)C2=C1N GLNADSQYFUSGOU-GPTZEZBUSA-J 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000003833 cell viability Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 239000000985 reactive dye Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T90/00—Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Investigating Or Analysing Biological Materials (AREA)
Abstract
本发明公开了一种基于多任务感知网络的细胞形变控制方法。本发明将显微相机采集获得的多张细胞‑微针图像输入多任务感知网络模型中进行训练,获得训练好的多任务感知网络模型;接着显微相机采集待预测的细胞‑微针图像后再输入到训练好的多任务感知网络模型中,输出获得对应的细胞分割图和针尖位置;再根据细胞分割图和针尖位置计算计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整细胞穿刺速度;不断调整细胞穿刺速度,直至细胞穿刺成功。本发明基于网络提取信息,通过点接触模型估计穿刺力,可以根据细胞变形状态自动调整穿刺速度,实现智能穿刺。
Description
技术领域
本发明涉及细胞操作技术领域的一种细胞形变控制方法,尤其是指一种基于多任务感知网络(AMP-Net)的细胞形变控制方法。
背景技术
在细胞显微自动化操作中,尽管深度学习网络已经被广泛应用于细胞分割和微针检测,并取得不错的效果。但是单一的深度学习网络不能够同时实现分割和检测任务,如果将两种不同功能的网络串联在一起,则会增加运行时间,不利于整个系统性能提升。
发明内容
为了解决背景技术中存在的问题和需求,本发明提供了一种基于多任务感知网络的细胞形变控制方法。本发明同时实现微针检测与细胞分割,并计算细胞形变和穿刺力,指导机器人在线调整穿刺速度。
本发明的技术方案如下:
S1:将显微相机采集获得的多张细胞-微针图像输入多任务感知网络模型中进行训练,获得训练好的多任务感知网络模型;
S2:显微相机采集待预测的细胞-微针图像后再输入到训练好的多任务感知网络模型中,输出获得对应的细胞分割图和针尖位置;
S3:根据细胞分割图和针尖位置计算计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整玻璃针的穿刺速度;
S4:重复S2-S3,不断调整细胞穿刺速度,直至细胞穿刺成功。
所述多任务感知网络模型包括编码器和解码器,编码器和解码器相连,解码器包括细胞检测头和细胞分割头,细胞检测头和细胞分割头均与编码器相连,细胞检测头输出针尖位置,细胞分割头输出细胞分割图。
所述多任务感知网络模型的总损失函数的公式如下:
Ltotal=αLdet+βLseg
1=α+β
其中,Ltotal为多任务感知网络模型的总损失函数值,Ldet为微针检测头的损失函数值,α为微针检测头的损失函数的系数,β为细胞分割的损失函数的系数,Lseg为细胞分割的损失函数的值。
所述多任务感知网络模型的训练策略如下:
首先仅冻结细胞分割头,训练多任务感知网络模型N1次,再仅冻结微针检测头,训练多任务感知网络模型N2次,最后不冻结任何网络,训练整个网络N3次。
所述S3具体为:
根据细胞分割图计算细胞的形变,结合针尖位置和点接触模型计算细胞穿刺力,如果细胞的形变不在形变安全阈值内,则将玻璃针复位,并调高玻璃针的穿刺速度;如果细胞的形变在形变安全阈值内,并且细胞穿刺力大于细胞膜承载力,则细胞被穿破,反之,则将玻璃针复位,并调高玻璃针的穿刺速度。
所述细胞的形变为细胞总形变TCD、细胞横向形变为ACD和细胞轴向形变为LCD中的一种,计算公式如下:
其中,S0表示细胞未产生形变的面积,S1表示细胞形变后的面积,a表示细胞轴向长度,b表示细胞横向长度。
所述细胞穿刺力的计算公式如下:
其中,F表示细胞穿刺力E为杨氏模量,Wd为玻璃针进入细胞的凹陷深度,h为膜厚度,c为玻璃针末端的半径,d是细胞凹陷半径,v是泊松比,ζ为比值系数。
本发明的有益效果是:
本发明同时实现细胞分割、微针检测和针尖定位三种任务。针头注射精度为98.9%,细胞分割精度为98.4%,针尖定位平均误差为0.65μm,优于其他主流网络算法。基于网络提取的信息,定义了三个参数来描述细胞变形,并通过点接触模型估计穿刺力。机器人可以根据细胞变形状态自动调整穿刺速度,实现智能穿刺。实验结果表明,基于所提方法细胞存活率为60%,与手动注射方法相比提高了50%。
附图说明
图1是本发明显微视觉下感知任务示意图;
图2是本发明算法网络结构图;
图3是本发明图像处理结果实例示意图;
图4是本发明算法消融实验结果;
图5是本发明算法与其他算法对比结果;
图6是本发明细胞形变参数定义示意图;
图7是本发明细胞受力计算示意图;
图8是本发明不同速度对细胞形变的影响示意图;
图9是本发明细胞实验结果示意图。
图10是本发明的方法流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图10所示,本发明包括以下步骤:
S1:将显微相机采集获得的多张细胞-微针图像输入多任务网络模型中进行训练,获得训练好的多任务网络模型,细胞-微针图像中有且仅有一个细胞与一个微针,多张细胞-微针图像对应的显微镜放大倍数相同,多张细胞-微针图像分为三类图像,分别为细胞与微针未接触图像,细胞与微针刚接触但细胞未产生形变图像,细胞与微针接触并使细胞产生形变图像,并且每类图像中包含不同光照、不同尺寸细胞,如图1所示。基于张正友标定法对显微相机标定,本实施例收集1000张显微视野下的图像,并已进行标注,细胞采用掩膜标注,微针采用检测方框标注,构建训练数据集,图像的统一尺寸调整到640×400。
多任务感知网络模型包括编码器和解码器,编码器和解码器相连,解码器包括细胞检测头和细胞分割头,细胞检测头和细胞分割头均与编码器相连,细胞检测头输出针尖位置,细胞分割头输出细胞分割图。
具体实施中,如图2所示,编码器由主干网络Efficient和特征融合网络BiFPN相连组成,主干网络由七层网络层组成,依次记为网络层P1-P7,每个网络层由卷积层、归一化层和激活层依次相连组成,主干网络Efficient的P3-P7与特征融合网络BiFPN之间采用串行的跳层结构连接,特征融合网络BiFPN的输出经过上采样后再分别输入到细胞检测头和细胞分割头中,细胞检测头包括网络层P5-P7和3个卷积注意力机制模块CBAM,网络层P5、第一卷积注意力机制模块CBAM、网络层P6、第二卷积注意力机制模块CBAM、网络层P7和第三卷积注意力机制模块CBAM依次连接,从而提高了感兴趣区域的检测敏感度。每个卷积注意力机制模块CBAM由三层卷积层依次相连组成。微针检测头与细胞分割头之间没有多余的共享网络层,减少了参数量,提高了运行参数。
多任务网络模型的总损失函数的公式如下:
Ltotal=αLdet+βLseg
1=α+β
其中,Ltotal为多任务感知网络模型的总损失函数值,Ldet为微针检测头的损失函数值,α为微针检测头的损失函数的系数,β为细胞分割的损失函数的系数,Lseg为细胞分割的损失函数的值,通过调节α和β实现Ltotal最优。
多任务网络模型的训练策略如下:
首先仅冻结细胞分割头,即不训练细胞分割头,训练多任务感知网络模型N1次,再仅冻结微针检测头,即不训练微针检测头,训练多任务感知网络模型N2次,最后不冻结任何网络,训练整个网络N3次。
S2:显微相机采集待预测的细胞-微针图像后再输入到训练好的多任务网络模型中,输出获得对应的细胞分割图和针尖位置;
S3:根据细胞分割图和针尖位置计算计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整细胞穿刺速度;
S3具体为:
根据细胞分割图计算细胞的形变,结合针尖位置和点接触模型计算细胞穿刺力,如果细胞的形变不在形变安全阈值内,则将玻璃针复位,并调高玻璃针的穿刺速度;如果细胞的形变在形变安全阈值内,并且细胞穿刺力大于细胞膜承载力,则细胞被穿破,反之,则将玻璃针复位,并调高玻璃针的穿刺速度。
如图6所示,图6的(a)为细胞未发生形变时参数示意图,图6的(b)为细胞发生形变时参数示意图,细胞的形变为细胞总形变TCD、细胞横向形变为ACD和细胞轴向形变为LCD中的一种,计算公式如下:
其中,S0表示细胞未产生形变的面积,S1表示细胞形变后的面积,a表示细胞轴向长度,b表示细胞横向长度。
如图7所示,所述细胞穿刺力的计算公式如下:
其中,F表示细胞穿刺力,E为杨氏模量,Wd为玻璃针进入细胞的凹陷深度,h为膜厚度,c为玻璃针末端的半径,d是细胞凹陷半径,v是泊松比,ζ为比值系数。
S4:重复S2-S3,不断调整细胞穿刺速度,直至细胞穿刺成功,如图3所示。
具体实施中,训练多任务感知网络模型,先冻结分细胞割头训练50次,再冻结微针检测头训练50次,最后同时训练整个网络80次。按着这个训练策略,通过消融实验确定损失函数的α、β最优组合,获得最优的训练模型。如图4所示,α为0.6,β为0.4,此时模型性能最优。如图5所示,与其他网络算法进行对比,图5的(a)为本发明与检测算法对比图,图5的(b)为本发明与分割算法对比图;可以该模型性能优于其他算法。针尖定位误差为0.65μm。
不同速度对细胞形变的影响如图8所示,图8的(a)中穿刺速度为10μm/s,图8的(b)中穿刺速度为30μm/s,图8的(c)中穿刺速度为50μm/s,图8的(d)中穿刺速度为70μm/s,图8的(e)为不同穿刺速度下细胞的形变。将模型部署到显微操作实验平台上,设定细胞形变阈值为0.2,计算细胞形变,判断细胞形变是否超过设定阈值,如果超过细胞形变阈值细胞还未穿破,则调整细胞速度,重新穿刺,指导细胞在细胞阈值内穿破细胞。机器人可以根据细胞变形状态自动调整穿刺速度,实现智能穿刺。如图9所示,使用台盼蓝作为活性染料,统计细胞成活率。实验结果表明,基于所提方法细胞存活率为60%,与手动注射方法相比提高了50%。
Claims (1)
1.一种基于多任务感知网络的细胞形变控制方法,其特征在于,包括以下步骤:
S1:将显微相机采集获得的多张细胞-微针图像输入多任务感知网络模型中进行训练,获得训练好的多任务感知网络模型;
S2:显微相机采集待预测的细胞-微针图像后再输入到训练好的多任务感知网络模型中,输出获得对应的细胞分割图和针尖位置;
S3:根据细胞分割图和针尖位置计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整玻璃针的穿刺速度;
S4:重复S2-S3,不断调整细胞穿刺速度,直至细胞穿刺成功;
所述多任务感知网络模型包括编码器和解码器,编码器和解码器相连,解码器包括微针检测头和细胞分割头,微针检测头和细胞分割头均与编码器相连,微针检测头输出针尖位置,细胞分割头输出细胞分割图;
所述多任务感知网络模型的总损失函数的公式如下:
Ltotal=αLdet+βLseg
1=α+β
其中,Ltotal为多任务感知网络模型的总损失函数值,Ldet为微针检测头的损失函数值,α为微针检测头的损失函数的系数,β为细胞分割头的损失函数的系数,Lseg为细胞分割头的损失函数的值;
所述多任务感知网络模型的训练策略如下:
首先仅冻结细胞分割头,训练多任务感知网络模型N1次,再仅冻结微针检测头,训练多任务感知网络模型N2次,最后不冻结任何网络,训练整个网络N3次;
所述S3具体为:
根据细胞分割图计算细胞的形变,结合针尖位置和点接触模型计算细胞穿刺力,如果细胞的形变不在形变安全阈值内,则将玻璃针复位,并调高玻璃针的穿刺速度;如果细胞的形变在形变安全阈值内,并且细胞穿刺力大于细胞膜承载力,则细胞被穿破,反之,则将玻璃针复位,并调高玻璃针的穿刺速度;
所述细胞的形变为细胞总形变TCD、细胞横向形变为ACD和细胞轴向形变为LCD中的一种,计算公式如下:
其中,S0表示细胞未产生形变的面积,S1表示细胞形变后的面积,a表示细胞轴向长度,b表示细胞横向长度;
所述细胞穿刺力的计算公式如下:
其中,F表示细胞穿刺力,E为杨氏模量,Wd为玻璃针进入细胞的凹陷深度,h为膜厚度,c为玻璃针末端的半径,d是细胞凹陷半径,v是泊松比,ζ为比值系数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310319226.7A CN116402775B (zh) | 2023-03-29 | 2023-03-29 | 一种基于多任务感知网络的细胞形变控制方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310319226.7A CN116402775B (zh) | 2023-03-29 | 2023-03-29 | 一种基于多任务感知网络的细胞形变控制方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116402775A CN116402775A (zh) | 2023-07-07 |
CN116402775B true CN116402775B (zh) | 2023-12-22 |
Family
ID=87011701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310319226.7A Active CN116402775B (zh) | 2023-03-29 | 2023-03-29 | 一种基于多任务感知网络的细胞形变控制方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116402775B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104008545A (zh) * | 2014-05-20 | 2014-08-27 | 华南理工大学 | 一种在光学显微注射过程中人类卵细胞分割实现方法 |
CN111369615A (zh) * | 2020-02-21 | 2020-07-03 | 苏州优纳医疗器械有限公司 | 一种基于多任务卷积神经网络的细胞核中心点检测方法 |
CN111524138A (zh) * | 2020-07-06 | 2020-08-11 | 湖南国科智瞳科技有限公司 | 一种基于多任务学习的显微图像细胞识别方法及装置 |
CN111652848A (zh) * | 2020-05-07 | 2020-09-11 | 南开大学 | 一种机器人化的贴壁细胞三维定位方法 |
CN112595655A (zh) * | 2020-10-28 | 2021-04-02 | 宁夏医科大学总医院 | 基于人工智能的脑脊液细胞自动分析系统 |
CN113610760A (zh) * | 2021-07-05 | 2021-11-05 | 河海大学 | 一种基于u型残差神经网络的细胞图像分割示踪方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014197455A1 (en) * | 2013-06-03 | 2014-12-11 | University Of Florida Research Foundation, Incorporated | Devices and methods for isolating cells |
US11443426B2 (en) * | 2018-01-18 | 2022-09-13 | Nantomics, Llc | Real-time whole slide pathology image cell counting |
JP2021064115A (ja) * | 2019-10-11 | 2021-04-22 | 株式会社島津製作所 | 細胞画像解析方法及び細胞解析装置 |
EP3812765A1 (en) * | 2019-10-23 | 2021-04-28 | Deutsches Krebsforschungszentrum, Stiftung des öffentlichen Rechts | Method and system for closed-loop live-cell imaging |
US11790528B2 (en) * | 2021-02-02 | 2023-10-17 | Ping An Technology (Shenzhen) Co., Ltd. | Preoperative survival prediction method based on enhanced medical images and computing device using thereof |
-
2023
- 2023-03-29 CN CN202310319226.7A patent/CN116402775B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104008545A (zh) * | 2014-05-20 | 2014-08-27 | 华南理工大学 | 一种在光学显微注射过程中人类卵细胞分割实现方法 |
CN111369615A (zh) * | 2020-02-21 | 2020-07-03 | 苏州优纳医疗器械有限公司 | 一种基于多任务卷积神经网络的细胞核中心点检测方法 |
CN111652848A (zh) * | 2020-05-07 | 2020-09-11 | 南开大学 | 一种机器人化的贴壁细胞三维定位方法 |
CN111524138A (zh) * | 2020-07-06 | 2020-08-11 | 湖南国科智瞳科技有限公司 | 一种基于多任务学习的显微图像细胞识别方法及装置 |
CN112595655A (zh) * | 2020-10-28 | 2021-04-02 | 宁夏医科大学总医院 | 基于人工智能的脑脊液细胞自动分析系统 |
CN113610760A (zh) * | 2021-07-05 | 2021-11-05 | 河海大学 | 一种基于u型残差神经网络的细胞图像分割示踪方法 |
Non-Patent Citations (3)
Title |
---|
ClusterSeg: A crowd cluster pinpointed nucleus segmentation framework with cross-modality datasets;Jing Ke 等;《Medical Image Analysis》;1-14 * |
Spotlight-Based 3D Instrument Guidance for Autonomous Task in Robot-Assisted Retinal Surgery;Mingchuan Zhou等;《IEEE Robotics and Automation Letters》;7750-7757 * |
电磁定位引导体模穿刺的实验研究;梁亮亮;李景武;候国青;苏铁柱;白惠;么文博;王顺意;李宾;蔡旺;胡万宁;;中国煤炭工业医学杂志(01);33-36 * |
Also Published As
Publication number | Publication date |
---|---|
CN116402775A (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112634276B (zh) | 一种基于多尺度视觉特征提取的轻量级语义分割方法 | |
US11557029B2 (en) | Method for detecting and recognizing surface defects of automated fiber placement composite based on image converted from point cloud | |
CN111507335A (zh) | 自动标注利用于深度学习网络的训练图像的方法和装置 | |
CN112084974B (zh) | 一种基于元学习的多标签滚动轴承故障诊断方法 | |
CN111091130A (zh) | 基于轻量级卷积神经网络的实时图像语义分割方法及系统 | |
CN108288035A (zh) | 基于深度学习的多通道图像特征融合的人体动作识别方法 | |
CN110415230B (zh) | 一种基于深度学习的ct切片图像语义分割系统及方法 | |
CN110009648B (zh) | 基于深浅特征融合卷积神经网络的路侧图像车辆分割方法 | |
CN116402775B (zh) | 一种基于多任务感知网络的细胞形变控制方法 | |
CN101286227A (zh) | 一种无监督马尔可夫随机场图像分割方法 | |
CN109902609A (zh) | 一种基于YOLOv3的交通标志检测与识别方法 | |
CN112446891A (zh) | 基于U-Net网络脑胶质瘤的医学图像分割方法 | |
CN110096202B (zh) | 一种基于深度强化学习的轻量级图像自动裁剪系统及方法 | |
US20240161531A1 (en) | Transformer-based multi-scale pedestrian re-identification method | |
CN116030044A (zh) | 一种边界感知的半监督医学图像分割方法 | |
CN110992309B (zh) | 基于深层信息传递网络的眼底图像分割方法 | |
CN112634308B (zh) | 基于不同感受野的鼻咽癌靶区和危及器官的勾画方法 | |
CN114463721A (zh) | 一种基于空间特征交互的车道线检测方法 | |
CN113538363A (zh) | 一种基于改进U-Net的肺部医学影像分割方法及装置 | |
CN112270682A (zh) | 基于深度神经网络的超声图像桥本氏甲状腺炎识别方法 | |
CN117095012A (zh) | 一种眼底视网膜血管图像分割方法、系统及设备 | |
CN117011728A (zh) | 基于改进YOLOv7的无人机航拍目标检测方法 | |
CN115661657A (zh) | 一种轻量化的无人艇目标检测方法 | |
CN114066920B (zh) | 一种基于改进Segnet图像分割的收割机视觉导航方法与系统 | |
CN116012639A (zh) | 一种基于元学习的早产儿视网膜眼底图像定量化指标及分期方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |