CN107146221A - 基于视觉感知的颜色纹理描述子的wce彩色视频中主要地形边界的定位方法 - Google Patents
基于视觉感知的颜色纹理描述子的wce彩色视频中主要地形边界的定位方法 Download PDFInfo
- Publication number
- CN107146221A CN107146221A CN201710251807.6A CN201710251807A CN107146221A CN 107146221 A CN107146221 A CN 107146221A CN 201710251807 A CN201710251807 A CN 201710251807A CN 107146221 A CN107146221 A CN 107146221A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- mfrac
- mtd
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Acyclic And Carbocyclic Compounds In Medicinal Compositions (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,包括如下步骤:S1,在WCE视频图像帧中获取原始图像I(x)转换到Lab颜色空间的图像;S2,提取有效图像区域,通过监听器算法对图像进行处理,如果找到异常图像窗口对则执行S3,如果未找到异常图像窗口对则重新执行S2;S3,构造结合纹理和颜色的融合特征‑CTVP描述子;S4,提取训练集的CTVP特征,用来训练SVM分类器;S5,提取测试集的WLD直方图特征,并用训练完成的SVM分类器为测试集分类;根据分类结果进行精确定位胃肠特征点信息。
Description
技术领域
本发明涉及计算及人工智能领域,尤其涉及一种基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法。
背景技术
目前,无线胶囊内镜(WCE:Wireless Capsule Endoscopy)作为一种重要的新型技术被广泛应用于人类胃肠道疾病的诊断。尤其是克服了传统内镜无法到达到小肠的缺陷,它可以到达消化道的任何位置,具有无创伤、耐受性好的特点。但是,由于胶囊内镜的运动主要是依靠消化道内胃肠道的蠕动,运动过程缓慢,故其在消化道内平均大致逗留8个小时左右,然而WCE拍摄系统的拍摄时间间隔却很短,平均2帧/s,所以,每个人将会采集到50000~60000幅彩色的消化道时序图像数据。这些图像数据是海量,对医生浏览某个消化道器官的图像,想要快速定位到此器官起始图像带来不小的负担。因而,设计一种可靠的高效的计算机辅助程序来定位WCE视频中各个相邻器官图像的边界位置是临床医生所需要的。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,特别创新地提出了一种基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法。
为了实现本发明的上述目的,本发明提供了一种基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,其特征在于,包括如下步骤:
S1,在WCE视频图像帧中获取原始图像I(x)转换到Lab颜色空间的图像;
S2,提取有效图像区域,通过监听器算法对图像进行处理,如果找到异常图像窗口对则执行S3,如果未找到异常图像窗口对则重新执行S2;
S3,构造结合纹理和颜色的融合特征-CTVP描述子;
S4,提取训练集的CTVP特征,用来训练SVM分类器;
S5,提取测试集的WLD直方图特征,并用训练完成的SVM分类器为测试集分类;根据分类结果进行精确定位胃肠特征点信息。
所述的基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,优选的,所述S1包括:
RGB转XYZ其中,XYZ为目标颜色空间的3个分量:
其中r,g,b分别为RGB图像R、G、B的通道值。
XYZ转Lab:
其中Yn=100.0
故获得Lab各通道图像为a(x),如下式所示:
所述的基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,优选的,所述S2包括:
S2-1,将整个WCE视频图像数据划分为连续的窗口,每个窗口包含L张图片;获得窗口化图像数据W1,W2,...,Wn和监听器输入的窗口序列对 (W1,W2),(W2,W3),...,(Wn-1,Wn);定位胃/小肠边界,从视频头部开始;定位小肠/大肠边界,从视频尾部开始;
S2-2,计算当前窗口对(Wk,Wk+1)里的Lab颜色空间各通道的平均值Mc,k和 Mc,k+1;
S2-3,计算出当前窗口对的颜色变化度DCk并存储结果;
S2-4,,将当前的DCk与先前窗口对里获得平均颜色变化度MDC比较,当变化大于一个阈值T时,则被监听为包含边界的疑似窗口对,进入具体判定阶段;否则,移动到下一个窗口对;
公式如下:
公式中,avgc、Mc,k分别表示一幅图和一个图像窗口在Lab颜色空间下各通道的平均值,c表示Lab颜色空间的任意通道即L、a、b,Nvalid表示窗口内有效图片的数量;DCk表示当前窗口对(Wk,Wk+1)的颜色变化度;
MDC表示平均颜色变化度。
所述的基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,优选的,所述S3包括:
转化成灰度图Grey,公式如下:
其中,R,G,B分别是RBG色彩空间的三个通道。
GLCM的概率测量可以定义为:
其中,Pi,j(δ,θ)表示给定(δ,θ)对的窗口内的灰度级i和j的出现次数;Gi,j表示灰度级的量化数。为了好的效率,本发明将灰度级降到64和128;δ选取1、3、5这几个距离;θ选取0度、45度、90度、135度这四个方向。矩阵的行和列的平均值和标准偏差为
选取其对比度、相关性、能量和均匀性四个属性作为纹理特征的特征因子,
Energy=∑Ci,j 2
根据公式选用a通道和b通道的平均值作为颜色特征{avga,avgb}。
所述的基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,优选的,所述S4包括:
最优超平面定义为:
其中,β叫做权重向量,β0叫做偏置(bias),x表示离超平面最近的那些点。点x到超平面(β,β0)的距离为:
最大化M转化为在附加限制条件下最小化函数L(β)。限制条件隐含超平面将所有训练样本xi正确分类的条件,
yi(β0+βTxi)
其中,yi表示样本的类别标记,xi表示训练数据。
训练SVM分类器:本发明的训练样本X(xi的集合)即是训练样本的 CTVP描述子,选择合适的核函数训练SVM分类器。
所述的基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,优选的,所述S5包括:
S5-1,提取监听器命中的窗口对内图像的有效区域(去除杂质和黑边角),用监听器算法依次监听窗口序列对直到监听到包含疑似边界的窗口对时为止。
S5-2,提取图像的CTVP描述子;
S5-3,用训练好的SVM分类器识别测试窗口对的CTVP特征,获得图像分类结果。如果窗口对中图像分类结果,前部是胃+后部是小肠或者前部是小肠+后部是大肠,那么就输出边界位置(胃/小肠边界或者小肠/大肠边界位置),并且程序结束;否则,跳回S5-2。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
使用训练好的SVM分类器识别测试窗口对的CTVP特征,获得图像分类结果。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明总体流程图;
图2A-2C是本发明WCE图像示意图;
图3是本发明WCE视频图像数据划分为连续的窗口示意图;
图4是本发明结合纹理和颜色的融合特征-CTVP描述子示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明的描述中,除非另有规定和限定,需要说明的是,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是机械连接或电连接,也可以是两个元件内部的连通,可以是直接相连,也可以通过中间媒介间接相连,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
本发明提出了一种基于视觉感知的颜色纹理描述子(CTVP)的WCE视频中主要“地形”边界的定位技术。不同消化道器官即食道、胃、小肠、大肠(包含结肠)在WCE视频中,可以看成不同的“地形”;获取相邻器官图像的分界位置即为“地形”边界(文中简称边界)。在本发明的方法中,本发明主要定位胃/小肠和小肠/大肠的分界点。首先通过本发明设计的基于窗口对的监听器算法检测疑似包含边界点,然后在命中的窗口对中,本发明提取窗口对中图像的 CTVP描述子作为特征,然后通过支持向量机(SVM)分类器识别特征并对图像进行分类,并通过分类结果判定是否包含边界点;如果没有,监听下一个窗口对;如果有,输出边界位置并结束程序。流程如图1所示。
(1)监听器算法
WCE视频中,当胶囊从一个器官进入另一个器官时,基于人类视觉感知,图像颜色会有显著的;而在同一器官中,正常拍摄状况下,图像颜色并不会变化很大。结合WCE图像的实际情况,WCE图像主要呈现出粉红的胃部(图 2A,橙红的小肠(图2B)和淡粉红的大肠(图2C)。基于这样的事实,本发明提出了根据感知颜色空间的颜色平均变化度来监听可疑窗口的监听器算法。其中,本发明选择了一种基于人对颜色的感觉的彩色模型——Lab色彩模型。 Lab中的数值描述正常视力的人能够看到的所有的颜色,其描述的是颜色的显示方式,而不是设备生成颜色所需的特定色料的数量,所以Lab被视为与设备无关的基于感知的颜色模型。其中,L是代表图像的明度,A描述从洋红色至绿色的范围,B表示的是从黄色到蓝色的范围。此算法能够高效、快速的监听出包含疑似边界的图像窗口。
1)获取原始图像I(x)转换到Lab颜色空间
由于WCE原始图像是按RGB颜色空间进行存储的,所以本发明首先需要将RGB颜色空间图像I(x)转化为Lab颜色空间的图像,但是RGB和Lab 之间没有直接的转换公式,必须进行一次中间转化,先将RGB颜色空间图像转换为XYZ空间,如下式所示:
RGB转XYZ为目标颜色空间的3个分量:
其中r,g,b分别为RGB图像R、G、B的通道值。
XYZ转Lab:
其中Yn=100.0
故获得Lab各通道图像为a(x),如下式所示:
2)监听器算法步骤
步骤1,如图3所示,将整个WCE视频图像数据划分为连续的窗口,每个窗口包含L张图片;获得窗口化图像数据W1,W2,...,Wn和监听器输入的窗口序列对(W1,W2),(W2,W3),...,(Wn-1,Wn);定位胃/小肠边界,从视频头部开始;定位小肠/大肠边界,从视频尾部开始;
步骤2,计算当前窗口对(Wk,Wk+1)里的Lab颜色空间各通道的平均值Mc,k和Mc,k+1;
步骤3,计算出当前窗口对的颜色变化度DCk并存储结果;
步骤4,,将当前的DCk与先前窗口对里获得平均颜色变化度MDC比较,当变化大于一个阈值T时,则被监听为包含边界的疑似,进入具体判定阶段;否则,移动到下一个窗口对,根据实际观察和统计,当T=1.5时效果较好。公式如下:
公式中,avgc、Mc,k分别表示一幅图和一个图像窗口在Lab颜色空间下各通道的平均值,c表示Lab颜色空间的任意通道即L、a、b,Nvalid表示窗口内有效图片的数量;DCk表示当前窗口对YWk,Wk+1Y的颜色变化度; MDC表示平均颜色变化度。
基于CTVP描述子的SVM分类器训练、识别、边界判定(Color-texture of visualperception(CTVP):可视感知的纹理颜色)
(2)基于CTVP描述子的SVM分类器训练、识别、边界判定
基于定位胃/小肠、小肠/大肠的边界,本发明需要训练两个SVM分类器。针对胃/小肠,本发明在胃部、小肠部靠近幽门选择合适的足够的图片作为正反样本;针对小肠/大肠,本发明在边界周围选择小肠、大肠的合适的足够的图片作为正反样本。然后提取样本的CTVP描述子作为特征放入SVM分类器中训练获得训练后的SVM分类器。
1)CTVP描述子
结合WCE图像的实际情况,WCE图像主要呈现出颜色粉红且纹理光滑的胃部(图2A),颜色橙红且线性纹理丰富的小肠(图2B)和颜色淡粉红且纹理光滑的大肠(图2C)。基于这样的视觉感知,本发明设计出结合纹理和颜色的融合特征-CTVP描述子。其构造方式如图4所示。
灰度共生矩阵(GLCM)是像素距离和角度的矩阵函数,它通过计算图像中一定距离和一定方向的两点灰度之间的相关性,来反映图像在方向、间隔、变化幅度及快慢上的综合信息。
由于原图是RGB彩色图像,需要转化成灰度图Grey,公式如下:
其中,R,G,B分别是RBG色彩空间的三个通道。
GLCM的概率测量可以定义为:
其中,Pi,j(δ,θ)表示给定(δ,θ)对的窗口内的灰度级i和j的出现次数;Gi,j表示灰度级的量化数。为了好的效率,本发明将灰度级降到64和128;δ选取1、3、5这几个距离;θ选取0度、45度、90度、135度这四个方向。矩阵的行和列的平均值和标准偏差为
文中选取其对比度、相关性、能量和均匀性四个属性作为纹理特征的特征因子,如下所示:
Energy=∑Ci,j 2
根据公式(7),本发明选用a通道和b通道的平均值作为颜色特征 {avga,avgb}。
2)训练SVM分类器
支持向量机(SVM)是一个类分类器,正式的定义是一个能够将不同类样本在样本空间分隔的超平面。SVM算法的实质是找出一个能够将某个值最大化的超平面,这个值就是超平面离所有训练样本的最小距离即间隔(margin),用M表示。
最优超平面定义为:
其中,β叫做权重向量,β0叫做偏置(bias),x表示离超平面最近的那些点。点x到超平面(β,β0)的距离为:
最大化M转化为在附加限制条件下最小化函数L(β)。限制条件隐含超平面将所有训练样本xi正确分类的条件,
yi(β0+βTxi)
其中,yi表示样本的类别标记,xi表示训练数据。
训练SVM分类器:本发明的训练样本X(xi的集合)即是训练样本的CTVP描述子,选择合适的核函数训练SVM分类器(根据实际观察和统计,选择RBF非线性核函数效果最好)。
3)WCE视频中胃/小肠、小肠/大肠边界定位
步骤1,提取监听器命中的窗口对内图像的有效区域(去除杂质和黑边角),并。
步骤2,提取图像的CTVP描述子;
步骤3,用训练好的SVM分类器识别测试窗口对的CTVP特征,获得图像分类结果。如果窗口对中图像分类结果,前部是胃+后部是小肠或者前部是小肠+后部是大肠,那么就输出边界位置(胃/小肠边界或者小肠/大肠边界位置),并且程序结束;否则,回到监听器。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
Claims (6)
1.一种基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,其特征在于,包括如下步骤:
S1,在WCE视频图像帧中获取原始图像I(x)转换到Lab颜色空间的图像;
S2,提取有效图像区域,通过监听器算法对图像进行处理,如果找到异常图像窗口对则执行S3,如果未找到异常图像窗口对则重新执行S2;
S3,构造结合纹理和颜色的融合特征-CTVP描述子;
S4,提取训练集的CTVP特征,用来训练SVM分类器;
S5,提取测试集的WLD直方图特征,并用训练完成的SVM分类器为测试集分类;根据分类结果进行精确定位胃肠特征点信息。
2.根据权利要求1所述的基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,其特征在于,所述S1包括:
RGB转XYZ其中,XYZ为目标颜色空间的3个分量:
<mrow>
<mo>{</mo>
<mrow>
<mo>(</mo>
<mi>R</mi>
<mo>=</mo>
<mi>g</mi>
<mi>a</mi>
<mi>m</mi>
<mi>m</mi>
<mi>a</mi>
<mo>(</mo>
<mfrac>
<mi>r</mi>
<mn>255.0</mn>
</mfrac>
<mo>)</mo>
</mrow>
<mo>@</mo>
<mi>G</mi>
<mo>=</mo>
<mi>g</mi>
<mi>a</mi>
<mi>m</mi>
<mi>m</mi>
<mi>a</mi>
<mo>(</mo>
<mrow>
<mfrac>
<mi>g</mi>
<mn>255.0</mn>
</mfrac>
<mo>@</mo>
<mi>B</mi>
<mo>=</mo>
<mi>g</mi>
<mi>a</mi>
<mi>m</mi>
<mi>m</mi>
<mi>a</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mi>b</mi>
<mn>255.0</mn>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
<mo>)</mo>
<mo>)</mo>
<mo>}</mo>
</mrow>
<mrow>
<mi>g</mi>
<mi>a</mi>
<mi>m</mi>
<mi>m</mi>
<mi>a</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>x</mi>
<mo>+</mo>
<mn>0.055</mn>
</mrow>
<mn>1</mn>
</mfrac>
<mn>.055</mn>
<mo>)</mo>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
<mi> </mi>
<mi>x</mi>
<mo>></mo>
<mn>0.4045</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mfrac>
<mi>x</mi>
<mn>12.92</mn>
</mfrac>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>w</mi>
<mi>i</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>X</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Y</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>Z</mi>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<mi>M</mi>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>R</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>G</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>B</mi>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>,</mo>
<mi>M</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>0.4124</mn>
<mo>,</mo>
<mn>0.3576</mn>
<mo>,</mo>
<mn>0.1805</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>0.2126</mn>
<mo>,</mo>
<mn>0.7152</mn>
<mo>,</mo>
<mn>0.0722</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mn>0.0193</mn>
<mo>,</mo>
<mn>0.1192</mn>
<mo>,</mo>
<mn>0.9505</mn>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中r,g,b分别为RGB图像R、G、B的通道值。
XYZ转Lab:
<mrow>
<mi>a</mi>
<mo>=</mo>
<mn>500</mn>
<mo>&lsqb;</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mi>X</mi>
<msub>
<mi>Y</mi>
<mi>n</mi>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
<mo>&times;</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mi>Y</mi>
<msub>
<mi>Y</mi>
<mi>n</mi>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
<mrow>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mi>t</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msup>
<mi>t</mi>
<mfrac>
<mn>1</mn>
<mn>3</mn>
</mfrac>
</msup>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
<mi> </mi>
<mi>t</mi>
<mo>></mo>
<msup>
<mrow>
<mo>(</mo>
<mfrac>
<mn>6</mn>
<mn>29</mn>
</mfrac>
<mo>)</mo>
</mrow>
<mn>3</mn>
</msup>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mfrac>
<mn>1</mn>
<mn>3</mn>
</mfrac>
<msup>
<mrow>
<mo>(</mo>
<mfrac>
<mn>29</mn>
<mn>6</mn>
</mfrac>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mi>t</mi>
<mo>+</mo>
<mfrac>
<mn>4</mn>
<mn>29</mn>
</mfrac>
<mo>,</mo>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>w</mi>
<mi>i</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
其中Yn=100.0
故获得Lab各通道图像为a(x),如下式所示:
<mrow>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>116</mn>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>Y</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
</mrow>
<msub>
<mi>Y</mi>
<mi>n</mi>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mn>16</mn>
</mrow>
1
<mrow>
<mi>a</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>500</mn>
<mo>&lsqb;</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>X</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
</mrow>
<msub>
<mi>X</mi>
<mi>n</mi>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>Y</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
</mrow>
<msub>
<mi>Y</mi>
<mi>n</mi>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
<mrow>
<mi>b</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>200</mn>
<mo>&lsqb;</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>Y</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
</mrow>
<msub>
<mi>Y</mi>
<mi>n</mi>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>f</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mrow>
<mi>Z</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>)</mo>
</mrow>
</mrow>
<msub>
<mi>Z</mi>
<mi>n</mi>
</msub>
</mfrac>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
<mo>.</mo>
</mrow>
3.根据权利要求1所述的基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,其特征在于,所述S2包括:
S2-1,将整个WCE视频图像数据划分为连续的窗口,每个窗口包含L张图片;获得窗口化图像数据W1,W2,...,Wn和监听器输入的窗口序列对(W1,W2),(W2,W3),...,(Wn-1,Wn);定位胃/小肠边界,从视频头部开始;定位小肠/大肠边界,从视频尾部开始;
S2-2,计算当前窗口对(Wk,Wk+1)里的Lab颜色空间各通道的平均值Mc,k和Mc,k+1;
S2-3,计算出当前窗口对的颜色变化度DCk并存储结果;
S2-4,,将当前的DCk与先前窗口对里获得平均颜色变化度MDC比较,当变化大于一个阈值T时,则被监听为包含边界的疑似窗口对,进入具体判定阶段;否则,移动到下一个窗口对;
公式如下:
<mrow>
<msub>
<mi>avg</mi>
<mi>c</mi>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mi>c</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
</mrow>
<msub>
<mi>N</mi>
<mrow>
<mi>v</mi>
<mi>a</mi>
<mi>l</mi>
<mi>i</mi>
<mi>d</mi>
</mrow>
</msub>
</mfrac>
</mrow>
<mrow>
<msub>
<mi>M</mi>
<mrow>
<mi>c</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mn>1</mn>
<mi>m</mi>
</msubsup>
<msub>
<mi>avg</mi>
<mi>c</mi>
</msub>
</mrow>
<mi>m</mi>
</mfrac>
</mrow>
<mrow>
<msub>
<mi>DC</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<msqrt>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>M</mi>
<mrow>
<mi>a</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>M</mi>
<mrow>
<mi>c</mi>
<mo>,</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>M</mi>
<mrow>
<mi>b</mi>
<mo>,</mo>
<mi>k</mi>
</mrow>
</msub>
<mo>+</mo>
<msub>
<mi>M</mi>
<mrow>
<mi>b</mi>
<mo>,</mo>
<mi>k</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
</msqrt>
</mrow>
<mrow>
<mi>M</mi>
<mi>D</mi>
<mi>C</mi>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mi>t</mi>
<mo>=</mo>
<mi>k</mi>
</mrow>
</msubsup>
<mmultiscripts>
<mi>D</mi>
<mn>2</mn>
</mmultiscripts>
<msub>
<mi>L</mi>
<mi>t</mi>
</msub>
</mrow>
<mrow>
<mi>k</mi>
<mo>&CircleTimes;</mo>
<mn>2</mn>
</mrow>
</mfrac>
</mrow>
公式中,avgc、Mc,k分别表示一幅图和一个图像窗口在Lab颜色空间下各通道的平均值,c表示Lab颜色空间的任意通道即L、a、b,Nvalid表示窗口内有效图片的数量;DCk表示当前窗口对(Wk,Wk+1)的颜色变化度;
MDC表示平均颜色变化度。
4.根据权利要求1所述的基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,其特征在于,所述S3包括:
转化成灰度图Grey,公式如下:
<mrow>
<mi>G</mi>
<mi>r</mi>
<mi>e</mi>
<mi>y</mi>
<mo>=</mo>
<mrow>
<mo>(</mo>
<mi>R</mi>
<mo>&CircleTimes;</mo>
<mn>39</mn>
<mo>+</mo>
<mi>G</mi>
<mo>&CircleTimes;</mo>
<mn>75</mn>
<mo>+</mo>
<mi>B</mi>
<mo>&CircleTimes;</mo>
<mn>15</mn>
<mo>)</mo>
</mrow>
<mo>></mo>
<mo>></mo>
<mn>7</mn>
</mrow>
其中,R,G,B分别是RBG色彩空间的三个通道。
GLCM的概率测量可以定义为:
<mrow>
<msub>
<mi>C</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>P</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>&delta;</mi>
<mo>,</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>G</mi>
</msubsup>
<msub>
<mi>P</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>&delta;</mi>
<mo>,</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
其中,Pi,j(δ,θ)表示给定(δ,θ)对的窗口内的灰度级i和j的出现次数;Gi,j表示灰度级的量化数。为了好的效率,本发明将灰度级降到64和128;δ选取1、3、5这几个距离;θ选取0度、45度、90度、135度这四个方向。矩阵的行和列的平均值和标准偏差为
<mrow>
<msub>
<mi>u</mi>
<mi>x</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>G</mi>
</munderover>
<mi>i</mi>
<mo>&CircleTimes;</mo>
<msub>
<mi>P</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>&delta;</mi>
<mo>,</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>u</mi>
<mi>y</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>G</mi>
</munderover>
<mi>j</mi>
<mo>&CircleTimes;</mo>
<msub>
<mi>P</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>&delta;</mi>
<mo>,</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&sigma;</mi>
<mi>x</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>G</mi>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>&CircleTimes;</mo>
<msub>
<mi>u</mi>
<mi>x</mi>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>&CircleTimes;</mo>
<msub>
<mi>P</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>&delta;</mi>
<mo>,</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&sigma;</mi>
<mi>y</mi>
</msub>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
<mi>G</mi>
</munderover>
<msup>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>&CircleTimes;</mo>
<msub>
<mi>u</mi>
<mi>y</mi>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>&CircleTimes;</mo>
<msub>
<mi>P</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>&delta;</mi>
<mo>,</mo>
<mi>&theta;</mi>
<mo>)</mo>
</mrow>
</mrow>
选取其对比度、相关性、能量和均匀性四个属性作为纹理特征的特征因子,
<mrow>
<mi>C</mi>
<mi>o</mi>
<mi>n</mi>
<mi>t</mi>
<mi>r</mi>
<mi>a</mi>
<mi>s</mi>
<mi>t</mi>
<mo>=</mo>
<msub>
<mi>&Sigma;C</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
<msup>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>&CircleTimes;</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mi>c</mi>
<mi>o</mi>
<mi>r</mi>
<mi>r</mi>
<mi>e</mi>
<mi>l</mi>
<mi>a</mi>
<mi>t</mi>
<mi>i</mi>
<mi>o</mi>
<mi>n</mi>
<mo>=</mo>
<mi>&Sigma;</mi>
<mfrac>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>&CircleTimes;</mo>
<msub>
<mi>u</mi>
<mi>x</mi>
</msub>
<mo>)</mo>
<mo>(</mo>
<mi>j</mi>
<mo>&CircleTimes;</mo>
<msub>
<mi>u</mi>
<mi>y</mi>
</msub>
<mo>)</mo>
<msub>
<mi>C</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</mrow>
<mrow>
<msub>
<mi>&sigma;</mi>
<mi>x</mi>
</msub>
<msub>
<mi>&sigma;</mi>
<mi>y</mi>
</msub>
</mrow>
</mfrac>
</mrow>
Energy=∑Ci,j 2
<mrow>
<mi>H</mi>
<mi>o</mi>
<mi>m</mi>
<mi>o</mi>
<mi>g</mi>
<mi>e</mi>
<mi>n</mi>
<mi>e</mi>
<mi>i</mi>
<mi>t</mi>
<mi>y</mi>
<mo>=</mo>
<mi>&Sigma;</mi>
<mfrac>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>&CircleTimes;</mo>
<msub>
<mi>u</mi>
<mi>x</mi>
</msub>
<mo>)</mo>
<mo>(</mo>
<mi>j</mi>
<mo>&CircleTimes;</mo>
<msub>
<mi>u</mi>
<mi>y</mi>
</msub>
<mo>)</mo>
<msub>
<mi>C</mi>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</msub>
</mrow>
<mrow>
<mn>1</mn>
<mo>+</mo>
<mo>|</mo>
<mi>i</mi>
<mo>&CircleTimes;</mo>
<mi>j</mi>
<mo>|</mo>
</mrow>
</mfrac>
</mrow>
根据公式选用a通道和b通道的平均值作为颜色特征{avga,avgb}。
5.根据权利要求1所述的基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,其特征在于,所述S4包括:
最优超平面定义为:
<mrow>
<mo>|</mo>
<msub>
<mi>&beta;</mi>
<mn>0</mn>
</msub>
<mo>&CircleTimes;</mo>
<msup>
<mi>&beta;</mi>
<mi>T</mi>
</msup>
<mi>x</mi>
<mo>|</mo>
<mo>=</mo>
<mn>1</mn>
</mrow>
其中,β叫做权重向量,β0叫做偏置(bias),x表示离超平面最近的那些点。点x到超平面(β,β0)的距离为:
<mrow>
<mi>d</mi>
<mi>i</mi>
<mi>s</mi>
<mi>tan</mi>
<mi>c</mi>
<mi>e</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mo>|</mo>
<msub>
<mi>&beta;</mi>
<mn>0</mn>
</msub>
<mo>&CircleTimes;</mo>
<msup>
<mi>&beta;</mi>
<mi>T</mi>
</msup>
<mi>x</mi>
<mo>|</mo>
</mrow>
<mrow>
<mo>|</mo>
<mo>|</mo>
<mi>&beta;</mi>
<mo>|</mo>
<mo>|</mo>
</mrow>
</mfrac>
</mrow>
最大化M转化为在附加限制条件下最小化函数L(β)。限制条件隐含超平面将所有训练样本xi正确分类的条件,
<mrow>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>&beta;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mn>2</mn>
</mfrac>
<mo>|</mo>
<mo>|</mo>
<mi>&beta;</mi>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>,</mo>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>&beta;</mi>
<mn>0</mn>
</msub>
<mo>+</mo>
<msup>
<mi>&beta;</mi>
<mi>T</mi>
</msup>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
</mrow>
其中,yi表示样本的类别标记,xi表示训练数据;
训练SVM分类器:本发明的训练样本X即是训练样本的CTVP描述子,选择合适的核函数训练SVM分类器。
6.根据权利要求1所述的基于视觉感知的颜色纹理描述子的WCE彩色视频中主要地形边界的定位方法,其特征在于,所述S5包括:
S5-1,提取监听器命中的窗口对内图像的有效区域,用监听器算法依次监听窗口序列对直到监听到包含疑似边界的窗口对时为止。
S5-2,提取图像的CTVP描述子;
S5-3,用训练好的SVM分类器识别测试窗口对的CTVP特征,获得图像分类结果。如果窗口对中图像分类结果,前部是胃+后部是小肠或者前部是小肠+后部是大肠,那么就输出边界位置,并且程序结束;否则,跳回S5-2。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710251807.6A CN107146221B (zh) | 2017-04-18 | 2017-04-18 | 基于视觉感知的颜色纹理描述子的wce彩色视频中主要地形边界的定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710251807.6A CN107146221B (zh) | 2017-04-18 | 2017-04-18 | 基于视觉感知的颜色纹理描述子的wce彩色视频中主要地形边界的定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107146221A true CN107146221A (zh) | 2017-09-08 |
CN107146221B CN107146221B (zh) | 2020-04-21 |
Family
ID=59774246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710251807.6A Active CN107146221B (zh) | 2017-04-18 | 2017-04-18 | 基于视觉感知的颜色纹理描述子的wce彩色视频中主要地形边界的定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107146221B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097082A (zh) * | 2019-03-29 | 2019-08-06 | 广州思德医疗科技有限公司 | 一种训练集的拆分方法及装置 |
CN110367913A (zh) * | 2019-07-29 | 2019-10-25 | 杭州电子科技大学 | 无线胶囊内窥镜图像幽门和回盲瓣定位方法 |
CN111084711A (zh) * | 2019-12-25 | 2020-05-01 | 清华大学 | 一种基于主动视觉引导的导盲杖地形探测方法 |
CN111728613A (zh) * | 2020-08-18 | 2020-10-02 | 安翰科技(武汉)股份有限公司 | 基于图像的位置探测方法、电子设备及可读存储介质 |
CN114758246A (zh) * | 2022-05-09 | 2022-07-15 | 北京航空航天大学 | 一种基于多特征融合的地形识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105118070A (zh) * | 2015-10-12 | 2015-12-02 | 西南交通大学 | 基于时间序列的无线胶囊内窥镜视频中的出血段定位方法 |
CN105657580A (zh) * | 2015-12-30 | 2016-06-08 | 北京工业大学 | 一种胶囊内镜视频摘要生成方法 |
CN106204599A (zh) * | 2016-07-14 | 2016-12-07 | 安翰光电技术(武汉)有限公司 | 用于消化道内图像的自动分段系统和方法 |
-
2017
- 2017-04-18 CN CN201710251807.6A patent/CN107146221B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105118070A (zh) * | 2015-10-12 | 2015-12-02 | 西南交通大学 | 基于时间序列的无线胶囊内窥镜视频中的出血段定位方法 |
CN105657580A (zh) * | 2015-12-30 | 2016-06-08 | 北京工业大学 | 一种胶囊内镜视频摘要生成方法 |
CN106204599A (zh) * | 2016-07-14 | 2016-12-07 | 安翰光电技术(武汉)有限公司 | 用于消化道内图像的自动分段系统和方法 |
Non-Patent Citations (1)
Title |
---|
BAOPU LI 等: "Capsule Endoscopy Video Boundary Detection", 《PROCEEDING OF THE IEEE INTERNATIONAL CONFERENCE ON INFORMATION AND AUTOMATION》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110097082A (zh) * | 2019-03-29 | 2019-08-06 | 广州思德医疗科技有限公司 | 一种训练集的拆分方法及装置 |
CN110367913A (zh) * | 2019-07-29 | 2019-10-25 | 杭州电子科技大学 | 无线胶囊内窥镜图像幽门和回盲瓣定位方法 |
CN110367913B (zh) * | 2019-07-29 | 2021-09-28 | 杭州电子科技大学 | 无线胶囊内窥镜图像幽门和回盲瓣定位方法 |
CN111084711A (zh) * | 2019-12-25 | 2020-05-01 | 清华大学 | 一种基于主动视觉引导的导盲杖地形探测方法 |
CN111728613A (zh) * | 2020-08-18 | 2020-10-02 | 安翰科技(武汉)股份有限公司 | 基于图像的位置探测方法、电子设备及可读存储介质 |
CN114758246A (zh) * | 2022-05-09 | 2022-07-15 | 北京航空航天大学 | 一种基于多特征融合的地形识别方法 |
CN114758246B (zh) * | 2022-05-09 | 2024-08-20 | 北京航空航天大学 | 一种基于多特征融合的地形识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107146221B (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107146221A (zh) | 基于视觉感知的颜色纹理描述子的wce彩色视频中主要地形边界的定位方法 | |
CN107920722B (zh) | 针对自胶囊相机所撷取的图像通过对象检测进行重建 | |
CN106651883B (zh) | 基于机器视觉的粪便形态识别方法 | |
KR20210030351A (ko) | 의료영상 장치로부터의 실시간 비디오 처리 및 그 비디오로부터 오브젝트를 검출하기 위한 시스템 및 방법 | |
JP2024075635A (ja) | 敵対的生成ネットワークをトレーニングするシステム及び方法、並びに、トレーニング済みの敵対的生成ネットワークの使用 | |
CN107145840B (zh) | 内镜专家诊断知识嵌入的计算机辅助wce序列图像数据识别方法 | |
CN109091098A (zh) | 磁控胶囊式内窥镜诊查系统 | |
CN102697446B (zh) | 图像处理装置和图像处理方法 | |
CN104658014A (zh) | 一种检测活体内色度异常的方法 | |
CN109934276A (zh) | 基于迁移学习的胶囊内窥镜图像分类系统及方法 | |
CN104918534B (zh) | 内窥镜系统 | |
CN106102556A (zh) | 图像处理装置 | |
CN110338763A (zh) | 一种智能中医诊测的图像处理方法及装置 | |
CN115018767A (zh) | 基于本征表示学习的跨模态内镜图像转换及病灶分割方法 | |
CN113610847A (zh) | 一种白光模式下胃部标志物评估方法及系统 | |
CN110390657A (zh) | 一种图像融合方法 | |
Mackiewicz | Capsule endoscopy-state of the technology and computer vision tools after the first decade | |
US20050228293A1 (en) | System and method for classifying in vivo images according to anatomical structure | |
Ibrahim et al. | Empirical study of brain segmentation using particle swarm optimization | |
Mackiewicz et al. | Colour and texture based gastrointestinal tissue discrimination | |
CN113012041A (zh) | 一种ct/mri模拟超声的新方法、系统 | |
CN110728660B (zh) | 基于缺血性脑卒中mri检测标记进行病灶分割的方法及装置 | |
CN110430400A (zh) | 一种双目可运动摄像机的地平面区域检测方法 | |
CN113160050B (zh) | 基于时空神经网络的小目标识别方法及系统 | |
CN112862754B (zh) | 一种基于智能识别的留图漏检提示系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210922 Address after: 401120 1-1, 2-1, 3-1, building 5, No. 18, Cuiping Lane 2, Huixing street, Yubei District, Chongqing Patentee after: Chongqing Jinshan Medical Technology Research Institute Co.,Ltd. Address before: 401121 An office building in Jinshan International Industrial City, 18 Neixuan Avenue, Huixing Street, Yubei District, Chongqing Patentee before: CHONGQING JINSHAN MEDICAL APPLIANCE Co.,Ltd. |
|
TR01 | Transfer of patent right |