CN116128923A - 腔内组织跟踪方法、电子设备及计算机可读介质 - Google Patents
腔内组织跟踪方法、电子设备及计算机可读介质 Download PDFInfo
- Publication number
- CN116128923A CN116128923A CN202310063689.1A CN202310063689A CN116128923A CN 116128923 A CN116128923 A CN 116128923A CN 202310063689 A CN202310063689 A CN 202310063689A CN 116128923 A CN116128923 A CN 116128923A
- Authority
- CN
- China
- Prior art keywords
- image
- intra
- foreground image
- foreground
- tissue tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012549 training Methods 0.000 claims abstract description 55
- 238000004590 computer program Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000012216 screening Methods 0.000 claims description 3
- 230000004927 fusion Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002980 postoperative effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种腔内组织跟踪方法、电子设备及计算机可读介质,通过从腹腔内手术视频中随机选取一帧图像,并从被选取图像中随机截取一个目标区域作为前景图像,然后将前景图像融合到随机选取的另一张图像中,由此获得包含前景图像及前景图像位置信息的训练图像。以此方式,无需在从腹腔内手术视频获取的每一张图像标注出目标区域,能够避免组织之间无明显边界的困扰,从而较易的获得训练腔内组织跟踪模型的图像数据集。
Description
技术领域
本申请涉及图像数据标注技术领域,特别是涉及一种腔内组织跟踪方法、电子设备及计算机可读介质。
背景技术
单目标跟踪任务的一般流程是,在视频流的第一帧图像中人为框选出待跟踪目标,在后续帧中,跟踪算法能够自动找到目标并框选标出。
目前,基于深度学习的单目标跟踪算法中,其训练用的图像数据集的标注,主要通过人工标注。对于腔内组织的数据标注,所选取的跟踪目标可以是任意组织和大小的,因此经常出现所选取的目标组织区域与其他组织无明显边界,人工标注困难,很难在下一帧图像中准确标注出前一帧所选取的目标所在区域,从而很难获得用于单目标跟踪算法训练的图像数据集。
发明内容
基于此,有必要针对经常出现所选取的目标组织区域与其他组织无明显边界,人工标注困难,很难在下一帧图像中准确标注出前一帧所选取的目标所在区域,从而很难获得用于单目标跟踪算法训练的图像数据集的问题,提供一种腔内组织跟踪方法、电子设备及计算机可读介质。
本申请提供一种腔内组织跟踪方法,包括:
获取腹腔内手术视频;
从腹腔内手术视频中随机选取一帧图像,从被选取图像中随机截取一个目标区域作为前景图像;
对前景图像进行图像增强处理;
从腹腔内手术视频中随机选取一帧图像作为背景图像;
将所述前景图像融合到选取的背景图像中,记录前景图像在背景图像中的位置,形成训练图像;
返回所述从腹腔内手术视频中随机选取一帧图像作为背景图像,直至获取预设数量的训练图像;
返回所述从腹腔内手术视频中随机选取一帧图像,从被选取图像中随机截取一个目标区域作为前景图像,直至选取的次数达到预设选取次数;
创建一个图像数据集,将所有训练图像纳入所述图像数据集;
创建腔内组织跟踪模型,将所述图像数据集作为训练数据输入至所述腔内组织跟踪模型中并对所述腔内组织跟踪模型进行训练;
选定一个待检测区域,获取所述待检测区域的图像作为待检测区域图像;
获取当前视频帧,将待检测区域图像和当前视频帧输入至所述腔内组织跟踪模型中,运行所述腔内组织跟踪模型,获取所述腔内组织跟踪模型输出的腔内组织跟踪结果。
本申请还提供一种电子设备,包括存储器和处理器,所述处理器用于执行所述存储器中存储的可执行的计算机程序,以实现如上述内容所述的腔内组织跟踪方法。
本申请还提供一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如上述内容所述的腔内组织跟踪方法。
本申请涉及一种腔内组织跟踪方法、电子设备及计算机可读介质,通过从腹腔内手术视频中随机选取一帧图像,并从被选取图像中随机截取一个目标区域作为前景图像,然后将前景图像融合到随机选取的另一张图像中,由此获得包含前景图像及前景图像位置信息的训练图像。以此方式,无需在从腹腔内手术视频获取的每一张图像标注出目标区域,能够避免组织之间无明显边界的困扰,从而较易的获得训练腔内组织跟踪模型的图像数据集。
附图说明
图1为本申请一实施例提供的腔内组织跟踪方法的流程示意图。
图2为本申请一实施例提供的腔内组织跟踪方法中目标区域截取的示意图。
图3为本申请一实施例提供的腔内组织跟踪方法中前景图像覆盖背景图像的示意图。
图4为本申请一实施例提供的电子设备的结构图。
附图标记:
100-电子设别;110-存储器;120-处理器。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供一种腔内组织跟踪方法。
如图1所示,在本申请的一实施例中,所述腔内组织跟踪方法包括如下S100至S930:
S100,获取腹腔内手术视频;
S210,从腹腔内手术视频中随机选取一帧图像,从被选取图像中随机截取一个目标区域作为前景图像;
具体的,截取的目标区域可以是图像中的任意位置,任意面积,也可以是任意形状的区域。
S300,对前景图像进行图像增强处理;
具体的,图像增强处理包括对前景图像旋转、对前景图像缩放、对前景图像进行亮度调整和对前景图像进行对比度调整中的一种或多种,进而将前景图像调整至合适的尺寸和角度。
S400,从腹腔内手术视频中随机选取一帧图像作为背景图像;
S500,将所述前景图像融合到选取的背景图像中,记录前景图像在背景图像中的位置,形成训练图像;
具体的,若前景图像和背景图像的尺寸比例不符,可对背景图像进行适当的缩放。
S600,返回所述S400,直至获取预设数量的训练图像;
S700,返回所述S210,直至选取的次数达到预设选取次数;
S800,创建一个图像数据集,将所有训练图像纳入所述图像数据集;
具体的,定义预设数量为S,预设选取次数为N,则图像数据集中训练图像的总数为S乘N。
S910,创建腔内组织跟踪模型,将所述图像数据集作为训练数据输入至所述腔内组织跟踪模型中并对所述腔内组织跟踪模型进行训练;
S920,选定一个待检测区域,获取所述待检测区域的图像作为待检测区域图像;
S930,获取当前视频帧,将待检测区域图像和当前视频帧输入至所述腔内组织跟踪模型中,运行所述腔内组织跟踪模型,获取所述腔内组织跟踪模型输出的腔内组织跟踪结果。
具体的,所述腔内组织跟踪结果可以是输出附带有待检测区域图像的当前视频帧,或者是输出未找到的消息,或者其他报警信息。
本申请所训练完成的腔内组织跟踪模型,可应用至手术过程中内窥镜实时获取的当前视频帧,以自动找到目标区域并标出。也可以应用至术后视频的当前视频帧,以自动找到目标区域并标出。
在本实施例中,通过从腹腔内手术视频中随机选取一帧图像,并从被选取图像中随机截取一个目标区域作为前景图像,然后将前景图像融合到随机选取的另一张图像中,由此获得包含前景图像及前景图像位置信息的训练图像。以此方式,无需在从腹腔内手术视频获取的每一张图像标注出目标区域,能够避免组织之间无明显边界的困扰,从而较易的获得训练腔内组织跟踪模型的图像数据集。
另外,本申请的图像数据集获取方式,无需耗费大量的人力资源,大幅降低图像数据集的创建难度和效率。
考虑到目标区域采用随机截取的方式,若截取的目标区域靠近图像边界,可能出现腔内组织的一部分位于目标区域,而另一部分位于图像边界外的情况,导致截取的目标区域所包含的组织特征不完整,以此目标区域作为前景图像而形成的训练图像并不能对组织跟踪模型进行有效的训练。
在本申请的一实施例中,在所述S300之前,所述腔内组织跟踪方法还包括如下S221至S224。
S221,计算目标区域的轮廓边界与所述被选取图像的图像边界之间的边界最短距离;
例如,下面介绍一种实施例,如图2所示,被选取图像为M0,目标区域为M1,而目标区域的轮廓边界与被选取图像的图像边界之间的边界最短距离为L。
S222,判断所述边界最短距离是否小于预设距离阈值;
S223,若所述边界最短距离小于预设距离阈值,则返回所述S210;
具体的,若边界最短距离小于预设距离阈值,则本次截取的目标区域不作为前景图像,通过S210重新截取。
S224,若所述边界最短距离大于或等于预设距离阈值,则执行所述S300。
在本实施例中,根据边界最短距离对随机选取的目标区域进行筛选,放弃目标区域截取位置过度靠近图像边界的前景图像,保证所获取的前景图像能够包含较完整的组织特征,提高后续组织跟踪模型训练的收敛效率。
在本申请的一实施例中,所述S500包括如下S510至S540。
S510,基于二维像素坐标系,采用若干沿所述二维像素坐标系的第一方向轴间隔布置的经线,及若干沿所述二维像素坐标系的第二方向轴间隔布置的纬线,对背景图像进行划分,得到多个交汇点;所述交汇点为经线与纬线的交点;
S520,获取每个交汇点在所述像素坐标系中的坐标;
S531,将前景图像覆盖至背景图像之上,以使所述前景图像的中心点随机与一个交汇点重合,形成训练图像;
S540,将与前景图像的中心点重合的交汇点的坐标作为前景图像在背景图像中的位置信息并存储。
例如,下面介绍一种实施例,如图3所示,背景图像为Q0,以背景图像Q0的左上角为坐标系建立二维像素坐标系,向右为x轴正方向,向下为y轴正方向。沿所述二维像素坐标系的x轴方向布置有多个平行的经线y1至y6,沿所述二维像素坐标系的y轴方向布置有多个平行的纬线x1至x8。图中相邻经线之间的间距,相邻纬线之间的间距仅为示意,实际划分时不作具体限定。经线y1和纬线x1的交汇点为P1,则P1在二维像素坐标系中的坐标为(x1,y1)。前景图像为Q1,前景图像为Q1的中心点与交汇点P1重合,则前景图像Q1在背景图像Q0中的位置信息(即坐标)为(x1,y1)。
在本实施例中,采用经线与纬线对背景图像进行划分的方式,在前景图像中获得多个交汇点,并在前景图像覆盖至背景图像时,使得前景图像的中心点随机与一个交汇点重合,从而容易获取前景图像在背景图像中的位置。另外,采用前景图像的中心点随机与一个交汇点重合的融合方式,保证前景图像的中心点均在背景图像的边界之内,使得融合获得的训练图像能够包含足够由前景图像所截取的组织特征。
在本申请的一实施例中,在所述S540之前,所述S500还包括如下S532至S533。
S532,依据前景图像和背景图像的覆盖情况,筛选出信息度完整的训练图像;
具体的,信息度完整指训练图像包含预设百分比的前景图像所展示的组织特征,比如50%或60%。
S533,对所有信息度完整的训练图像执行所述S540。
在本实施例中,通过前景图像和背景图像的覆盖情况,对融合获得的训练图像进行筛选,保证训练图像中组织特征信息的完整性,提高后续组织跟踪模型训练的收敛效率。
基于以上前景图像的中心点随机与一个交汇点重合的融合方式,能够使得所获得的大部分训练图像中,前景图像的至少一半面积位于背景图像中。然而,对于少数情况,如前景图像的中心点位于边角处或靠近边角时,前景图像可能出现超过一半面积位于背景图像边界外的情况,此种融合形成的训练图像的信息度完整过低。
在本申请的一实施例中,所述S532还包括如下S532a至S532c。
S532a,获取前景图像面积,并获取前景图像和背景图像的覆盖区域面积;
S532b,判断覆盖区域面积与前景图像面积的面积比值是否大于或等于预设面积比值;
具体的,预设面积比值的取值范围可为50%至85%。
S532c,若覆盖区域面积与前景图像面积的面积比值大于或等于预设面积比值,则将所述训练图像定义为信息度完整的训练图像。
在本实施例中,以覆盖区域面积与前景图像面积的面积比值衡量训练图像的信息度完整,处理方式简单。
考虑到从同一腹腔内手术视频中获取前景图像和背景图像,在融合获得的训练图像中,可能出现与前景图像中组织特征相同的区域,若以此训练图像来训练组织跟踪模型,则组织跟踪模型会输出两组位置信息,与存储的位置信息不一致,从而对组织跟踪模型的训练造成不利影响。
在本申请的一实施例中,在所述S500之后,所述腔内组织跟踪方法还包括如下如下S601至S604。
S601,将训练图像划分为多个相同的比对区域;
具体的,多个相同的比对区域指,这多个比对区域的性状相同且面积相等。
S602,遍历所有比对区域,对每两个比对区域进行一次相似度计算;
当然,可将每两个比对区域的其中一个取包含前景图像的中心点的比对区域,另一个取其他划分而成的比对区域,可以大量减少比对次数。
S603,依据相似度计算结果,判断是否存在两个比对区域的相似度大于预设相似度阈值;
S604,若存在两个比对区域的相似度大于预设相似度阈值,则将两个比对区域中没有包含前景图像的中心点的比对区域作模糊处理。
具体的,模糊处理采用高斯模糊,方框模糊或Kawase模糊等常用的方式。
在本实施例中,采用划分区域比对的方式,检测训练图像中是否包含两个具有相同组织特征的区域,并对没有包含前景图像的中心点的区域作模糊处理,保证训练过程中,组织跟踪模型只会输出一组位置信息,提高组织跟踪模型训练的有效性。
在本申请的一实施例中,所述S602包括如下S602a至S602e。
S602a,选取两个比对区域;
S602b,对两个比对区域进行颜色相似度计算,生成两个比对区域之间的颜色相似度分数;
S602c,对两个比对区域进行纹理相似度计算,生成两个比对区域之间的纹理相似度分数;
S602d,对颜色相似度分数和纹理相似度分数求和,生成两个比对区域的相似度分数;
具体的,例如两个的比对区域的颜色相似度分数为0.65,纹理相似度分数为0.25,则该两个比对区域的相似度分数为0.65+0.25=0.9。
S602e,反复执行所述S602a,直至遍历所有比对区域。
本实施例中,通过训练图像划分为多个比对区域,并通过颜色相似度和纹理相似度的比较,实现了训练图像中的每两个比对区域的相似度比较,为后续的比对区域的模糊处理提供数据支撑。
本申请还提供了一种电子设备。
在本申请的一实施例中,如图4所示,电子设备100包括:存储器110和处理器120。存储器110用于存储由电子设备的一个或多个处理器执行的计算机程序;处理器120用于执行所述存储器中存储的可执行的计算机程序,以实现如前述内容所述的腔内组织跟踪方法。这里,电子设备可以实现为台式计算机设备、笔记本式计算机设备、平板型计算设备、移动终端、网络服务器等。
本申请还提供了一种计算机可读介质。
在本申请的一实施例中,计算机可读介质上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如前述内容提及到的腔内组织跟踪方法。
以上所述实施例的各技术特征可以进行任意的组合,各方法步骤也并不做执行顺序的限制,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。
Claims (10)
1.一种腔内组织跟踪方法,其特征在于,所述腔内组织跟踪方法包括:
获取腹腔内手术视频;
从腹腔内手术视频中随机选取一帧图像,从被选取图像中随机截取一个目标区域作为前景图像;
对前景图像进行图像增强处理;
从腹腔内手术视频中随机选取一帧图像作为背景图像;
将所述前景图像融合到选取的背景图像中,记录前景图像在背景图像中的位置,形成训练图像;
返回所述从腹腔内手术视频中随机选取一帧图像作为背景图像,直至获取预设数量的训练图像;
返回所述从腹腔内手术视频中随机选取一帧图像,从被选取图像中随机截取一个目标区域作为前景图像,直至选取的次数达到预设选取次数;
创建一个图像数据集,将所有训练图像纳入所述图像数据集;
创建腔内组织跟踪模型,将所述图像数据集作为训练数据输入至所述腔内组织跟踪模型中并对所述腔内组织跟踪模型进行训练;
选定一个待检测区域,获取所述待检测区域的图像作为待检测区域图像;
获取当前视频帧,将待检测区域图像和当前视频帧输入至所述腔内组织跟踪模型中,运行所述腔内组织跟踪模型,获取所述腔内组织跟踪模型输出的腔内组织跟踪结果。
2.根据权利要求1所述的腔内组织跟踪方法,其特征在于,在所述对前景图像进行图像增强处理之前,所述方法还包括:
计算目标区域的轮廓边界与所述被选取图像的图像边界之间的边界最短距离;
判断所述边界最短距离是否小于预设距离阈值;
若所述边界最短距离小于预设距离阈值,则返回所述从腹腔内手术视频中随机选取一帧图像,从该被选取图像中随机截取一个目标区域作为前景图像;
若所述边界最短距离大于或等于预设距离阈值,则执行所述对前景图像进行图像增强处理。
3.根据权利要求1所述的腔内组织跟踪方法,其特征在于,所述图像增强处理包括对前景图像旋转、对前景图像缩放、对前景图像进行亮度调整和对前景图像进行对比度调整中的一种或多种。
4.根据权利要求1所述的腔内组织跟踪方法,其特征在于,所述将所述前景图像融合到选取的背景图像中,记录前景图像在背景图像中的位置,形成训练图像,包括:
基于二维像素坐标系,采用若干沿所述二维像素坐标系的第一方向轴间隔布置的经线,及若干沿所述二维像素坐标系的第二方向轴间隔布置的纬线,对背景图像进行划分,得到多个交汇点;所述交汇点为经线与纬线的交点;
获取每个交汇点在所述像素坐标系中的坐标;
将前景图像覆盖至背景图像之上,以使所述前景图像的中心点随机与一个交汇点重合,形成训练图像;
将与前景图像的中心点重合的交汇点的坐标作为前景图像在背景图像中的位置信息并存储。
5.根据权利要求4所述的腔内组织跟踪方法,其特征在于,在所述将与前景图像的中心点重合的交汇点的坐标作为前景图像在背景图像中的位置信息并存储之前,所述将所述前景图像融合到选取的背景图像中,记录前景图像在背景图像中的位置,形成训练图像,还包括:
依据前景图像和背景图像的覆盖情况,筛选出信息度完整的训练图像;
对所有信息度完整的训练图像执行所述将与前景图像的中心点重合的交汇点的坐标作为前景图像在背景图像中的位置信息并存储。
6.根据权利要求5所述的腔内组织跟踪方法,其特征在于,所述依据前景图像和背景图像的覆盖情况,筛选出信息度完整的训练图像,包括:
获取前景图像面积,并获取前景图像和背景图像的覆盖区域面积;
判断覆盖区域面积与前景图像面积的面积比值是否大于或等于预设面积比值;
若覆盖区域面积与前景图像面积的面积比值大于或等于预设面积比值,则将所述前景图像定义为信息度完整的训练图像。
7.根据权利要求6所述的腔内组织跟踪方法,其特征在于,在所述将所述前景图像融合到选取的背景图像中,记录前景图像在背景图像中的位置,形成训练图像之后,所述方法还包括:
将训练图像划分为多个相同的比对区域;
遍历所有比对区域,对每两个比对区域进行一次相似度计算;
依据相似度计算结果,判断是否存在两个比对区域的相似度大于预设相似度阈值;
若存在两个比对区域的相似度大于预设相似度阈值,则将两个比对区域中没有包含前景图像的中心点的比对区域作模糊处理。
8.根据权利要求7所述的腔内组织跟踪方法,其特征在于,所述遍历所有比对区域,对每两个比对区域进行一次相似度计算,包括:
选取两个比对区域;
对两个比对区域进行颜色相似度计算,生成两个比对区域之间的颜色相似度分数;
对两个比对区域进行纹理相似度计算,生成两个比对区域之间的纹理相似度分数;
对颜色相似度分数和纹理相似度分数求和,生成两个比对区域的相似度分数;
反复执行所述选取两个比对区域,直至遍历所有比对区域。
9.一种电子设备,其特征在于,包括存储器和处理器,所述处理器用于执行所述存储器中存储的可执行的计算机程序,以实现如权利要求1至8中任意一项所述的腔内组织跟踪方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1至8中任意一项所述的腔内组织跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310063689.1A CN116128923A (zh) | 2023-01-13 | 2023-01-13 | 腔内组织跟踪方法、电子设备及计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310063689.1A CN116128923A (zh) | 2023-01-13 | 2023-01-13 | 腔内组织跟踪方法、电子设备及计算机可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116128923A true CN116128923A (zh) | 2023-05-16 |
Family
ID=86296953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310063689.1A Pending CN116128923A (zh) | 2023-01-13 | 2023-01-13 | 腔内组织跟踪方法、电子设备及计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116128923A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315032A (zh) * | 2023-11-28 | 2023-12-29 | 北京智愈医疗科技有限公司 | 一种组织偏移的监测方法 |
-
2023
- 2023-01-13 CN CN202310063689.1A patent/CN116128923A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117315032A (zh) * | 2023-11-28 | 2023-12-29 | 北京智愈医疗科技有限公司 | 一种组织偏移的监测方法 |
CN117315032B (zh) * | 2023-11-28 | 2024-03-08 | 北京智愈医疗科技有限公司 | 一种组织偏移的监测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108960229B (zh) | 一种面向多方向的文字检测方法和装置 | |
CN107507216B (zh) | 图像中局部区域的替换方法、装置及存储介质 | |
EP0593028B1 (en) | Color image processing method and apparatus for same | |
CN116128923A (zh) | 腔内组织跟踪方法、电子设备及计算机可读介质 | |
CN111368638A (zh) | 电子表格的创建方法、装置、计算机设备和存储介质 | |
US20230237777A1 (en) | Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium | |
US11704807B2 (en) | Image processing apparatus and non-transitory computer readable medium storing program | |
CN111461070B (zh) | 文本识别方法、装置、电子设备及存储介质 | |
CN111382745A (zh) | 一种指甲图像分割方法、装置、设备和存储介质 | |
JP5254250B2 (ja) | ベクトルグラフィックをラスター化するプロセスにおいて境界を発生させるための方法およびシステム、ならびに、システムを製造するための方法 | |
CN113362345B (zh) | 图像分割方法、装置、计算机设备和存储介质 | |
CN114674826A (zh) | 基于布匹的视觉检测方法及检测系统 | |
CN111862001B (zh) | Ct影像的半自动标注方法及装置、电子设备、存储介质 | |
JP2010244251A (ja) | 顔の特徴部位の座標位置を検出する画像処理装置 | |
JP2010028429A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP4825888B2 (ja) | 文書画像処理装置および文書画像処理方法 | |
JP2005222138A (ja) | k−means法を用いるクラスタ分析装置、クラスタ分析方法、クラスタ分析プログラム、及びそのプログラムを記録した記録媒体 | |
US11557056B2 (en) | Image-capturing control apparatus, image-capturing control method, and storage medium for evaluating appearance of object | |
CN112767472B (zh) | 定位显示屏图像中灯珠的方法、计算设备及存储介质 | |
CN113781507B (zh) | 图形重建方法、装置、计算设备和计算机存储介质 | |
CN111161242B (zh) | 肺结节hu值确定方法、装置、存储介质及计算机设备 | |
JP2006031690A (ja) | 特定画像領域区画装置および方法,ならびに特定画像領域区画処理をコンピュータに実行させるプログラム | |
CN117455859A (zh) | 图像处理方法、计算机设备和存储介质 | |
WO2022184740A1 (en) | Methods for generating an image of a graphical representation | |
CN117496292A (zh) | 一种细胞核分割的弱监督标签的生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |