CN116402775A - 一种基于多任务感知网络的细胞形变控制方法 - Google Patents

一种基于多任务感知网络的细胞形变控制方法 Download PDF

Info

Publication number
CN116402775A
CN116402775A CN202310319226.7A CN202310319226A CN116402775A CN 116402775 A CN116402775 A CN 116402775A CN 202310319226 A CN202310319226 A CN 202310319226A CN 116402775 A CN116402775 A CN 116402775A
Authority
CN
China
Prior art keywords
cell
deformation
puncture
cells
task
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310319226.7A
Other languages
English (en)
Other versions
CN116402775B (zh
Inventor
周鸣川
郭祥雨
张友超
王芳豪
蒋焕煜
应义斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202310319226.7A priority Critical patent/CN116402775B/zh
Publication of CN116402775A publication Critical patent/CN116402775A/zh
Application granted granted Critical
Publication of CN116402775B publication Critical patent/CN116402775B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation

Abstract

本发明公开了一种基于多任务感知网络的细胞形变控制方法。本发明将显微相机采集获得的多张细胞‑微针图像输入多任务感知网络模型中进行训练,获得训练好的多任务感知网络模型;接着显微相机采集待预测的细胞‑微针图像后再输入到训练好的多任务感知网络模型中,输出获得对应的细胞分割图和针尖位置;再根据细胞分割图和针尖位置计算计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整细胞穿刺速度;不断调整细胞穿刺速度,直至细胞穿刺成功。本发明基于网络提取信息,通过点接触模型估计穿刺力,可以根据细胞变形状态自动调整穿刺速度,实现智能穿刺。

Description

一种基于多任务感知网络的细胞形变控制方法
技术领域
本发明涉及细胞操作技术领域的一种细胞形变控制方法,尤其是指一种基于多任务感知网络(AMP-Net)的细胞形变控制方法。
背景技术
在细胞显微自动化操作中,尽管深度学习网络已经被广泛应用于细胞分割和微针检测,并取得不错的效果。但是单一的深度学习网络不能够同时实现分割和检测任务,如果将两种不同功能的网络串联在一起,则会增加运行时间,不利于整个系统性能提升。
发明内容
为了解决背景技术中存在的问题和需求,本发明提供了一种基于多任务感知网络的细胞形变控制方法。本发明同时实现微针检测与细胞分割,并计算细胞形变和穿刺力,指导机器人在线调整穿刺速度。
本发明的技术方案如下:
S1:将显微相机采集获得的多张细胞-微针图像输入多任务感知网络模型中进行训练,获得训练好的多任务感知网络模型;
S2:显微相机采集待预测的细胞-微针图像后再输入到训练好的多任务感知网络模型中,输出获得对应的细胞分割图和针尖位置;
S3:根据细胞分割图和针尖位置计算计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整玻璃针的穿刺速度;
S4:重复S2-S3,不断调整细胞穿刺速度,直至细胞穿刺成功。
所述多任务感知网络模型包括编码器和解码器,编码器和解码器相连,解码器包括细胞检测头和细胞分割头,细胞检测头和细胞分割头均与编码器相连,细胞检测头输出针尖位置,细胞分割头输出细胞分割图。
所述多任务感知网络模型的总损失函数的公式如下:
Ltotal=αLdet+βLseg
1=α+β
其中,Ltotal为多任务感知网络模型的总损失函数值,Ldet为微针检测头的损失函数值,α为微针检测头的损失函数的系数,β为细胞分割的损失函数的系数,Lseg为细胞分割的损失函数的值。
所述多任务感知网络模型的训练策略如下:
首先仅冻结细胞分割头,训练多任务感知网络模型N1次,再仅冻结微针检测头,训练多任务感知网络模型N2次,最后不冻结任何网络,训练整个网络N3次。
所述S3具体为:
根据细胞分割图计算细胞的形变,结合针尖位置和点接触模型计算细胞穿刺力,如果细胞的形变不在形变安全阈值内,则将玻璃针复位,并调高玻璃针的穿刺速度;如果细胞的形变在形变安全阈值内,并且细胞穿刺力大于细胞膜承载力,则细胞被穿破,反之,则将玻璃针复位,并调高玻璃针的穿刺速度。
所述细胞的形变为细胞总形变TCD、细胞横向形变为ACD和细胞轴向形变为LCD中的一种,计算公式如下:
Figure BDA0004151045170000021
Figure BDA0004151045170000022
Figure BDA0004151045170000023
其中,S0表示细胞未产生形变的面积,S1表示细胞形变后的面积,a表示细胞轴向长度,b表示细胞横向长度。
所述细胞穿刺力的计算公式如下:
Figure BDA0004151045170000024
Figure BDA0004151045170000025
其中,F表示细胞穿刺力E为杨氏模量,Wd为玻璃针进入细胞的凹陷深度,h为膜厚度,c为玻璃针末端的半径,d是细胞凹陷半径,v是泊松比,ζ为比值系数。
本发明的有益效果是:
本发明同时实现细胞分割、微针检测和针尖定位三种任务。针头注射精度为98.9%,细胞分割精度为98.4%,针尖定位平均误差为0.65μm,优于其他主流网络算法。基于网络提取的信息,定义了三个参数来描述细胞变形,并通过点接触模型估计穿刺力。机器人可以根据细胞变形状态自动调整穿刺速度,实现智能穿刺。实验结果表明,基于所提方法细胞存活率为60%,与手动注射方法相比提高了50%。
附图说明
图1是本发明显微视觉下感知任务示意图;
图2是本发明算法网络结构图;
图3是本发明图像处理结果实例示意图;
图4是本发明算法消融实验结果;
图5是本发明算法与其他算法对比结果;
图6是本发明细胞形变参数定义示意图;
图7是本发明细胞受力计算示意图;
图8是本发明不同速度对细胞形变的影响示意图;
图9是本发明细胞实验结果示意图。
图10是本发明的方法流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图10所示,本发明包括以下步骤:
S1:将显微相机采集获得的多张细胞-微针图像输入多任务网络模型中进行训练,获得训练好的多任务网络模型,细胞-微针图像中有且仅有一个细胞与一个微针,多张细胞-微针图像对应的显微镜放大倍数相同,多张细胞-微针图像分为三类图像,分别为细胞与微针未接触图像,细胞与微针刚接触但细胞未产生形变图像,细胞与微针接触并使细胞产生形变图像,并且每类图像中包含不同光照、不同尺寸细胞,如图1所示。基于张正友标定法对显微相机标定,本实施例收集1000张显微视野下的图像,并已进行标注,细胞采用掩膜标注,微针采用检测方框标注,构建训练数据集,图像的统一尺寸调整到640×400。
多任务感知网络模型包括编码器和解码器,编码器和解码器相连,解码器包括细胞检测头和细胞分割头,细胞检测头和细胞分割头均与编码器相连,细胞检测头输出针尖位置,细胞分割头输出细胞分割图。
具体实施中,如图2所示,编码器由主干网络Efficient和特征融合网络BiFPN相连组成,主干网络由七层网络层组成,依次记为网络层P1-P7,每个网络层由卷积层、归一化层和激活层依次相连组成,主干网络Efficient的P3-P7与特征融合网络BiFPN之间采用串行的跳层结构连接,特征融合网络BiFPN的输出经过上采样后再分别输入到细胞检测头和细胞分割头中,细胞检测头包括网络层P5-P7和3个卷积注意力机制模块CBAM,网络层P5、第一卷积注意力机制模块CBAM、网络层P6、第二卷积注意力机制模块CBAM、网络层P7和第三卷积注意力机制模块CBAM依次连接,从而提高了感兴趣区域的检测敏感度。每个卷积注意力机制模块CBAM由三层卷积层依次相连组成。微针检测头与细胞分割头之间没有多余的共享网络层,减少了参数量,提高了运行参数。
多任务网络模型的总损失函数的公式如下:
Ltotal=αLdet+βLseg
1=α+β
其中,Ltotal为多任务感知网络模型的总损失函数值,Ldet为微针检测头的损失函数值,α为微针检测头的损失函数的系数,β为细胞分割的损失函数的系数,Lseg为细胞分割的损失函数的值,通过调节α和β实现Ltotal最优。
多任务网络模型的训练策略如下:
首先仅冻结细胞分割头,即不训练细胞分割头,训练多任务感知网络模型N1次,再仅冻结微针检测头,即不训练微针检测头,训练多任务感知网络模型N2次,最后不冻结任何网络,训练整个网络N3次。
S2:显微相机采集待预测的细胞-微针图像后再输入到训练好的多任务网络模型中,输出获得对应的细胞分割图和针尖位置;
S3:根据细胞分割图和针尖位置计算计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整细胞穿刺速度;
S3具体为:
根据细胞分割图计算细胞的形变,结合针尖位置和点接触模型计算细胞穿刺力,如果细胞的形变不在形变安全阈值内,则将玻璃针复位,并调高玻璃针的穿刺速度;如果细胞的形变在形变安全阈值内,并且细胞穿刺力大于细胞膜承载力,则细胞被穿破,反之,则将玻璃针复位,并调高玻璃针的穿刺速度。
如图6所示,图6的(a)为细胞未发生形变时参数示意图,图6的(b)为细胞发生形变时参数示意图,细胞的形变为细胞总形变TCD、细胞横向形变为ACD和细胞轴向形变为LCD中的一种,计算公式如下:
Figure BDA0004151045170000041
Figure BDA0004151045170000042
Figure BDA0004151045170000043
其中,S0表示细胞未产生形变的面积,S1表示细胞形变后的面积,a表示细胞轴向长度,b表示细胞横向长度。
如图7所示,所述细胞穿刺力的计算公式如下:
Figure BDA0004151045170000051
Figure BDA0004151045170000052
其中,F表示细胞穿刺力,E为杨氏模量,Wd为玻璃针进入细胞的凹陷深度,h为膜厚度,c为玻璃针末端的半径,d是细胞凹陷半径,v是泊松比,ζ为比值系数。
S4:重复S2-S3,不断调整细胞穿刺速度,直至细胞穿刺成功,如图3所示。
具体实施中,训练多任务感知网络模型,先冻结分细胞割头训练50次,再冻结微针检测头训练50次,最后同时训练整个网络80次。按着这个训练策略,通过消融实验确定损失函数的α、β最优组合,获得最优的训练模型。如图4所示,α为0.6,β为0.4,此时模型性能最优。如图5所示,与其他网络算法进行对比,图5的(a)为本发明与检测算法对比图,图5的(b)为本发明与分割算法对比图;可以该模型性能优于其他算法。针尖定位误差为0.65μm。
不同速度对细胞形变的影响如图8所示,图8的(a)中穿刺速度为10μm/s,图8的(b)中穿刺速度为30μm/s,图8的(c)中穿刺速度为50μm/s,图8的(d)中穿刺速度为70μm/s,图8的(e)为不同穿刺速度下细胞的形变。将模型部署到显微操作实验平台上,设定细胞形变阈值为0.2,计算细胞形变,判断细胞形变是否超过设定阈值,如果超过细胞形变阈值细胞还未穿破,则调整细胞速度,重新穿刺,指导细胞在细胞阈值内穿破细胞。机器人可以根据细胞变形状态自动调整穿刺速度,实现智能穿刺。如图9所示,使用台盼蓝作为活性染料,统计细胞成活率。实验结果表明,基于所提方法细胞存活率为60%,与手动注射方法相比提高了50%。

Claims (7)

1.一种基于多任务感知网络的细胞形变控制方法,其特征在于,包括以下步骤:
S1:将显微相机采集获得的多张细胞-微针图像输入多任务感知网络模型中进行训练,获得训练好的多任务感知网络模型;
S2:显微相机采集待预测的细胞-微针图像后再输入到训练好的多任务感知网络模型中,输出获得对应的细胞分割图和针尖位置;
S3:根据细胞分割图和针尖位置计算计算细胞的形变与细胞穿刺力,基于细胞的形变与细胞穿刺力调整玻璃针的穿刺速度;
S4:重复S2-S3,不断调整细胞穿刺速度,直至细胞穿刺成功。
2.根据权利要求1所述的一种基于多任务感知网络的细胞形变控制方法,其特征在于,所述多任务感知网络模型包括编码器和解码器,编码器和解码器相连,解码器包括细胞检测头和细胞分割头,细胞检测头和细胞分割头均与编码器相连,细胞检测头输出针尖位置,细胞分割头输出细胞分割图。
3.根据权利要求1所述的一种基于多任务感知网络的细胞形变控制方法,其特征在于,所述多任务感知网络模型的总损失函数的公式如下:
Ltotal=αLdet+βLseg
1=α+β
其中,Ltotal为多任务感知网络模型的总损失函数值,Ldet为微针检测头的损失函数值,α为微针检测头的损失函数的系数,β为细胞分割的损失函数的系数,Lseg为细胞分割的损失函数的值。
4.根据权利要求1所述的一种基于多任务感知网络的细胞形变控制方法,其特征在于,所述多任务感知网络模型的训练策略如下:
首先仅冻结细胞分割头,训练多任务感知网络模型N1次,再仅冻结微针检测头,训练多任务感知网络模型N2次,最后不冻结任何网络,训练整个网络N3次。
5.根据权利要求1所述的一种基于多任务感知网络的细胞形变控制方法,其特征在于,所述S3具体为:
根据细胞分割图计算细胞的形变,结合针尖位置和点接触模型计算细胞穿刺力,如果细胞的形变不在形变安全阈值内,则将玻璃针复位,并调高玻璃针的穿刺速度;如果细胞的形变在形变安全阈值内,并且细胞穿刺力大于细胞膜承载力,则细胞被穿破,反之,则将玻璃针复位,并调高玻璃针的穿刺速度。
6.根据权利要求5所述的一种基于多任务感知网络的细胞形变控制方法,其特征在于,所述细胞的形变为细胞总形变TCD、细胞横向形变为ACD和细胞轴向形变为LCD中的一种,计算公式如下:
Figure FDA0004151045160000021
Figure FDA0004151045160000022
Figure FDA0004151045160000023
其中,S0表示细胞未产生形变的面积,S1表示细胞形变后的面积,a表示细胞轴向长度,b表示细胞横向长度。
7.根据权利要求5所述的一种基于多任务感知网络的细胞形变控制方法,其特征在于,所述细胞穿刺力的计算公式如下:
Figure FDA0004151045160000024
Figure FDA0004151045160000025
其中,F表示细胞穿刺力E为杨氏模量,Wd为玻璃针进入细胞的凹陷深度,h为膜厚度,c为玻璃针末端的半径,d是细胞凹陷半径,v是泊松比,ζ为比值系数。
CN202310319226.7A 2023-03-29 2023-03-29 一种基于多任务感知网络的细胞形变控制方法 Active CN116402775B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310319226.7A CN116402775B (zh) 2023-03-29 2023-03-29 一种基于多任务感知网络的细胞形变控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310319226.7A CN116402775B (zh) 2023-03-29 2023-03-29 一种基于多任务感知网络的细胞形变控制方法

Publications (2)

Publication Number Publication Date
CN116402775A true CN116402775A (zh) 2023-07-07
CN116402775B CN116402775B (zh) 2023-12-22

Family

ID=87011701

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310319226.7A Active CN116402775B (zh) 2023-03-29 2023-03-29 一种基于多任务感知网络的细胞形变控制方法

Country Status (1)

Country Link
CN (1) CN116402775B (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104008545A (zh) * 2014-05-20 2014-08-27 华南理工大学 一种在光学显微注射过程中人类卵细胞分割实现方法
US20160091489A1 (en) * 2013-06-03 2016-03-31 University Of Florida Research Foundation, Incorporated Devices and methods for isolating cells
CN111369615A (zh) * 2020-02-21 2020-07-03 苏州优纳医疗器械有限公司 一种基于多任务卷积神经网络的细胞核中心点检测方法
CN111524138A (zh) * 2020-07-06 2020-08-11 湖南国科智瞳科技有限公司 一种基于多任务学习的显微图像细胞识别方法及装置
CN111652848A (zh) * 2020-05-07 2020-09-11 南开大学 一种机器人化的贴壁细胞三维定位方法
US20200394796A1 (en) * 2018-01-18 2020-12-17 Nantomics, Llc Real-time whole slide pathology image cell counting
CN112595655A (zh) * 2020-10-28 2021-04-02 宁夏医科大学总医院 基于人工智能的脑脊液细胞自动分析系统
US20210110536A1 (en) * 2019-10-11 2021-04-15 Shimadzu Corporation Cell image analysis method and cell image analysis device
CN113610760A (zh) * 2021-07-05 2021-11-05 河海大学 一种基于u型残差神经网络的细胞图像分割示踪方法
US20220245810A1 (en) * 2021-02-02 2022-08-04 Ping An Technology (Shenzhen) Co., Ltd. Preoperative survival prediction method based on enhanced medical images and computing device using thereof
US20220406434A1 (en) * 2019-10-23 2022-12-22 Deutsches Krebsforschungszentrum Stiftung Des Oeffentlichen Rechts Method and system for evaluating optimized concentration trajectories for drug administration

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160091489A1 (en) * 2013-06-03 2016-03-31 University Of Florida Research Foundation, Incorporated Devices and methods for isolating cells
CN104008545A (zh) * 2014-05-20 2014-08-27 华南理工大学 一种在光学显微注射过程中人类卵细胞分割实现方法
US20200394796A1 (en) * 2018-01-18 2020-12-17 Nantomics, Llc Real-time whole slide pathology image cell counting
US20210110536A1 (en) * 2019-10-11 2021-04-15 Shimadzu Corporation Cell image analysis method and cell image analysis device
US20220406434A1 (en) * 2019-10-23 2022-12-22 Deutsches Krebsforschungszentrum Stiftung Des Oeffentlichen Rechts Method and system for evaluating optimized concentration trajectories for drug administration
CN111369615A (zh) * 2020-02-21 2020-07-03 苏州优纳医疗器械有限公司 一种基于多任务卷积神经网络的细胞核中心点检测方法
CN111652848A (zh) * 2020-05-07 2020-09-11 南开大学 一种机器人化的贴壁细胞三维定位方法
CN111524138A (zh) * 2020-07-06 2020-08-11 湖南国科智瞳科技有限公司 一种基于多任务学习的显微图像细胞识别方法及装置
CN112595655A (zh) * 2020-10-28 2021-04-02 宁夏医科大学总医院 基于人工智能的脑脊液细胞自动分析系统
US20220245810A1 (en) * 2021-02-02 2022-08-04 Ping An Technology (Shenzhen) Co., Ltd. Preoperative survival prediction method based on enhanced medical images and computing device using thereof
CN113610760A (zh) * 2021-07-05 2021-11-05 河海大学 一种基于u型残差神经网络的细胞图像分割示踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JING KE 等: "ClusterSeg: A crowd cluster pinpointed nucleus segmentation framework with cross-modality datasets", 《MEDICAL IMAGE ANALYSIS》, pages 1 - 14 *
MINGCHUAN ZHOU等: "Spotlight-Based 3D Instrument Guidance for Autonomous Task in Robot-Assisted Retinal Surgery", 《IEEE ROBOTICS AND AUTOMATION LETTERS》, pages 7750 - 7757 *
梁亮亮;李景武;候国青;苏铁柱;白惠;么文博;王顺意;李宾;蔡旺;胡万宁;: "电磁定位引导体模穿刺的实验研究", 中国煤炭工业医学杂志, no. 01, pages 33 - 36 *

Also Published As

Publication number Publication date
CN116402775B (zh) 2023-12-22

Similar Documents

Publication Publication Date Title
US20230229920A1 (en) Method and device for student training networks with teacher networks
CN109543559B (zh) 基于孪生网络和动作选择机制的目标跟踪方法及系统
CN112634276B (zh) 一种基于多尺度视觉特征提取的轻量级语义分割方法
US11557029B2 (en) Method for detecting and recognizing surface defects of automated fiber placement composite based on image converted from point cloud
CN108446689B (zh) 一种人脸识别方法
Bisong et al. Logistic regression
CN108717869B (zh) 基于卷积神经网络的糖尿病视网膜并发症诊断辅助系统
CN108288035A (zh) 基于深度学习的多通道图像特征融合的人体动作识别方法
CN100580703C (zh) 一种无监督马尔可夫随机场图像分割方法
CN110009648B (zh) 基于深浅特征融合卷积神经网络的路侧图像车辆分割方法
CN110717527A (zh) 结合空洞空间金字塔结构的目标检测模型确定方法
CN116402775B (zh) 一种基于多任务感知网络的细胞形变控制方法
CN109902609A (zh) 一种基于YOLOv3的交通标志检测与识别方法
CN110096202B (zh) 一种基于深度强化学习的轻量级图像自动裁剪系统及方法
CN115862045B (zh) 基于图文识别技术的病例自动识别方法、系统、设备及存储介质
CN114463721A (zh) 一种基于空间特征交互的车道线检测方法
CN111862049A (zh) 基于深度学习的脑胶质瘤分割网络系统及分割方法
CN115661657A (zh) 一种轻量化的无人艇目标检测方法
CN115953386A (zh) 一种基于MSTA-YOLOv5的轻量化齿轮表面缺陷检测方法
CN109800409A (zh) 一种中文分词方法及系统
CN114155523A (zh) 一种端到端的高效精确车牌检测和识别方法
CN113269734A (zh) 一种基于元学习特征融合策略的肿瘤图像检测方法及装置
CN112270682A (zh) 基于深度神经网络的超声图像桥本氏甲状腺炎识别方法
KR102092629B1 (ko) 비지도 학습 특징 선택 방법 및 장치
CN112465861B (zh) 一种基于自适应掩膜的相关滤波视觉目标跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant