CN112348940B - 基于光流获得组织腔体三维图像的处理方法 - Google Patents

基于光流获得组织腔体三维图像的处理方法 Download PDF

Info

Publication number
CN112348940B
CN112348940B CN202011120581.4A CN202011120581A CN112348940B CN 112348940 B CN112348940 B CN 112348940B CN 202011120581 A CN202011120581 A CN 202011120581A CN 112348940 B CN112348940 B CN 112348940B
Authority
CN
China
Prior art keywords
image
optical flow
neural network
tissue cavity
examples
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011120581.4A
Other languages
English (en)
Other versions
CN112348940A (zh
Inventor
黄培海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Siji Intelligent Control Technology Co ltd
Original Assignee
Shenzhen Siji Intelligent Control Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Siji Intelligent Control Technology Co ltd filed Critical Shenzhen Siji Intelligent Control Technology Co ltd
Priority to CN202011120581.4A priority Critical patent/CN112348940B/zh
Priority to CN202211501869.5A priority patent/CN115841537A/zh
Priority to CN202211502504.4A priority patent/CN115761101A/zh
Publication of CN112348940A publication Critical patent/CN112348940A/zh
Application granted granted Critical
Publication of CN112348940B publication Critical patent/CN112348940B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/06Ray-tracing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Endoscopes (AREA)
  • Image Processing (AREA)

Abstract

本公开描述了一种基于光流获得组织腔体三维图像的处理方法,其包括以下步骤:具有褶皱内壁的组织腔体内沿着第一方向针对组织腔体内的重建区域采集第一图像,并使胶囊内窥镜在组织腔体内沿着第二方向针对重建区域采集第二图像,第一方向与第二方向形成有夹角;计算重建区域在第一图像内的第一像素区域与重建区域在第二图像内与第一像素区域对应的第二像素区域的光流;在第一像素区域中提取包括多个特征点的第一特征点集,并基于第一特征点集和光流获得在第二像素区域中与第一特征点集对应的第二特征点集,特征点为组织腔体的内壁的像素点;基于第一特征点集和第二特征点集计算胶囊内窥镜的本质矩阵;并且基于本质矩阵进行三维图像重建。

Description

基于光流获得组织腔体三维图像的处理方法
技术领域
本公开涉及一种基于光流获得组织腔体三维图像的处理方法。
背景技术
目前,在对腔体进行病理诊断的过程中,常常通过观察腔体的内部结构来获取病理信息。然而对于例如胃部等封闭腔体,人们难以在腔体外侧进行观察,因此一般通过导入拍摄装置收集信息,并通过特征点法进行三维重建。
现有的特征点三维重建方法中,首先是分别提取两幅图像的特征点,然后对两幅图像的特征点进行一一配对,通过配对好的特征点对可以计算出两幅图像之间的相对位姿,从而计算出摄影装置的位置和姿态并根据摄影装置的位置和姿态进一步计算出腔体内壁的三维图像。
但是,现有的特征点三维重建方法,在纹理缺乏且相似度高的场景内效果并不令人满意。对于例如胃部等纹理少且纹理之间相似度高的腔体而言,所获得的图像容易受腔体内的光照影响,无法获取足够的特征点和准确的匹配关系。因此,使用传统特征点法进行的三维重建不适用于胃部等纹理少且纹理之间相似度高的腔体。
发明内容
本公开是鉴于上述现有技术的状况而提出的,其目的在于提供一种能够对纹理少且纹理之间相似度高的组织腔体(例如胃腔)的图像进行三维重建且提高该图像的特征点识别准确性的基于光流获得组织腔体三维图像的处理方法。
为此,本公开提供了一种基于光流获得组织腔体三维图像的处理方法,利用胶囊内窥镜在具有褶皱内壁的组织腔体内沿着第一方向针对所述组织腔体内的重建区域采集第一图像,并使所述胶囊内窥镜在组织腔体内沿着第二方向针对所述重建区域采集第二图像,所述第一方向与所述第二方向形成有夹角;计算所述重建区域在所述第一图像内的第一像素区域与所述重建区域在第二图像内与所述第一像素区域对应的第二像素区域的光流;在所述第一像素区域中提取包括多个特征点的第一特征点集,并基于所述第一特征点集和所述光流获得在所述第二像素区域中与所述第一特征点集对应的第二特征点集;基于所述第一特征点集和所述第二特征点集计算所述胶囊内窥镜的本质矩阵;并且基于所述本质矩阵计算所述第一像素区域和所述第二像素区域的各个像素点的空间坐标,获得点云并利用所述点云进行三维图像重建。
在这种情况下,能够准确地获取第一图像和第二图像之间的光流,并且能够根据光流在第一图像和第二图像中提取相对应的特征点,从而能够实现在纹理少、纹理之间相似度高且受光照影响严重的组织腔体内壁图像中提取足够的特征点以及准确的匹配关系,由此能够利用准确匹配的特征点完成组织腔体内壁的三维重建。
另外,在本公开所涉及的基于光流获得组织腔体三维图像的处理方法中,可选地,所述第一图像和所述第二图像由所述胶囊内窥镜连续采集获得,所述胶囊内窥镜为单目胶囊内窥镜,所述光流由所述胶囊内窥镜的运动而产生。在这种情况下,能够利用单目胶囊内窥镜的运动获得光流。
另外,在本公开所涉及的基于光流获得组织腔体三维图像的处理方法中,可选地,所述第一图像和所述第二图像为相邻帧的两幅图像,所述第一图像为当前帧的图像,所述第二图像为下一帧的图像。在这种情况下,能够减少胃腔蠕动对光流的影响。
另外,在本公开所涉及的基于光流获得组织腔体三维图像的处理方法中,可选地,所述多个特征点包括至少8个特征点。由此,能够提高本质矩阵的精确度。
另外,在本公开所涉及的基于光流获得组织腔体三维图像的处理方法中,可选地,通过基于深度学习的神经网络计算所述光流。在这种情况下,能够通过基于深度学习的神经网络准确地得到组织腔体内壁图像中各像素点的运动信息。
另外,在本公开所涉及的基于光流获得组织腔体三维图像的处理方法中,可选地,所述基于深度学习的神经网络的训练步骤包括:准备多组的组织腔体内壁图像对,所述组织腔体内壁图像对为对具有褶皱内壁的组织腔体内的同一区域以不同的方向进行采集获得的两幅图像,且分别为第一训练图像和第二训练图像;将每组组织腔体内壁图像对的第一训练图像和第二训练图像依次输入所述神经网络以获取所述第一训练图像内的第一像素点的前向光流;交换第一训练图像和第二训练图像的输入顺序以获取所述第二训练图像内与所述第一像素点对应的第二像素点的后向光流;基于所述前向光流和所述后向光流计算损失函数;并且基于所述损失函数对所述神经网络进行评估并优化。在这种情况下,能够以无监督的方式训练神经网络,并且能够利用未进行标注的组织腔体内壁图像进行训练。
另外,在本公开所涉及的基于光流获得组织腔体三维图像的处理方法中,可选地,所述损失函数包括结构相似性损失项、几何前后一致性损失项以及光流平滑度损失项。在这种情况下,能够通过损失函数对神经网络进行训练。
另外,在本公开所涉及的基于光流获得组织腔体三维图像的处理方法中,可选地,所述结构相似性损失项包括第一预测图像与所述第一训练图像的第一结构相似性损失项和第二预测图像与所述第二训练图像的第二结构相似性损失项,所述第一预测图像通过所述前向光流作用于所述第二训练图像生成,所述第二预测图像通过所述后向光流作用于所述第一训练图像生成。在这种情况下,能够评估计算出的前向光流和后向光流的准确度,从而通过训练神经网络提高神经网络所计算的光流的准确度。
另外,在本公开所涉及的基于光流获得组织腔体三维图像的处理方法中,可选地,所述光流平滑度损失项包括所述前向光流的全变分损失与所述后向光流的全变分损失。在这种情况下,能够提高光流的平滑度,从而能够保持光流图像的光滑性并降低噪声对光流图像影响。
另外,在本公开所涉及的基于光流获得组织腔体三维图像的处理方法中,可选地,所述几何前后一致性损失项为所述第一训练图像内的第一像素点的前向光流与所述第二训练图像内与第一像素点对应的第二像素点的后向光流的差值。在这种情况下,能够使训练后的神经网络所计算出的前向光流和后向光流保持前后一致性。
根据本公开,能够提供一种能够对纹理少且纹理之间相似度高的组织腔体(例如胃腔)的图像进行三维重建且提高该图像的特征点识别准确性的基于光流获得组织腔体三维图像的处理方法。
附图说明
现在将通过参考附图的例子进一步详细地解释本公开的实施例,其中:
图1示出了本公开的示例所涉及的基于光流获得组织腔体三维图像的实施流程的示意图。
图2示出了本公开的示例所涉及的获取第一图像和第二图像的场景示意图。
图3示出了本公开的示例所涉及的基于深度学习的神经网络的示意图。
图4示出了本公开的示例所涉及的基于深度学习的神经网络中的第一预处理模块的示意图。
图5示出了本公开的示例所涉及的基于深度学习的神经网络中第一神经网络的示意图。
图6示出了本公开的示例所涉及的基于深度学习的神经网络的变形例的示意图。
图7示出了本公开的示例所涉及的基于深度学习的神经网络的训练步骤的示意图。
图8示出了本公开的示例所涉及的基于深度学习的神经网络进行特征点匹配的示意图。
附图标记说明:
10…基于深度学习的神经网络;11…第一预处理模块;12…第一神经网络;13…特征组合模块;14…第三神经网络;21…第二预处理模块;22…第二神经网络;111…调整单元;112…归一化单元;20…胶囊内窥镜;31…第一图像;32…第二图像;311…第一特征点;321…第二特征点。
具体实施方式
本公开引用的所有参考文献全文引入作为参考,如同完全阐述的那样。除非另有定义,本公开所使用的技术和科学术语具有与本公开所属领域的普通技术人员通常理解相同的含义。为本领域技术人员提供了本申请中所使用的许多术语的一般指南。本领域技术人员将认识到可以用于本公开的实践中的与本公开所描述的那些相似或等同的许多方法和材料。实际上,本公开决不限于所描述的方法和材料。
以下,参考附图,详细地说明本公开的优选实施方式。在下面的说明中,对于相同部件赋予相同的符号,省略重复说明。另外,附图只是示意图,部件相互之间尺寸的比例或者部件形状等可与实际不同。
需要说明的是,本公开中的术语“包括”和“具有”以及它们的任何变形,例如所包括或所具有的一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可以包括或具有没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
另外,在本公开的以下描述中涉及的小标题等并不是为了限制本公开的内容或范围,其仅仅是作为阅读的提示作用。这样的小标题既不能理解为用于分割文章的内容,也不应将小标题下的内容仅仅限制在小标题的范围内。
本公开涉及一种基于光流获得组织腔体三维图像的处理方法。基于光流获得组织腔体三维图像的处理方法可以简称为处理方法。在本公开涉及的处理方法中可以通过光流法计算组织腔体三维图像中个各像素的运动信息。其中,组织腔体可以是但不限于胃部、腹腔、胸腔、大肠腔等腔体。作为一种示例,本公开所涉及的基于光流获得组织腔体三维图像的处理方法可以是用于胶囊内窥镜20在胃部运动时拍摄的胃腔内壁图像的处理。在一些示例中,胶囊内窥镜20在胃部内进行运动时,具有拍摄装置的胶囊内窥镜20可以对胃壁进行拍摄以获得胃部三维图像,进而基于胃部三维图像构建完整的或部分的胃部模型。
图1示出了本公开的示例所涉及的基于光流获得组织腔体三维图像的实施流程的示意图。图2示出了本公开的示例所涉及的获取第一图像31和第二图像32的场景示意图。
在一些示例中,如图1所示,本公开所涉及的基于光流获得组织腔体三维图像的处理方法可以包括以下步骤:利用胶囊内窥镜在具有褶皱内壁的组织腔体针对重建区域(后续描述)获取第一图像31和第二图像32(步骤S100);计算重建区域在第一图像31内的第一像素区域与重建区域在第二图像32内与第一像素区域对应的第二像素区域的光流(步骤S200);在第一像素区域中提取包括多个特征点的第一特征点集,并基于第一特征点集和光流获得在第二像素区域中与第一特征点集对应的第二特征点集(步骤S300);基于第一特征点集和第二特征点集计算胶囊内窥镜20的本质矩阵(步骤S400)和基于本质矩阵计算第一像素区域和第二像素区域的各个像素点的空间坐标,获得点云并利用点云进行三维图像重建(步骤S500)。
在这种情况下,能够准确地获取第一图像31和第二图像32之间的光流,并且能够根据光流在第一图像31和第二图像32中提取相对应的特征点,从而能够实现在纹理少、纹理之间相似度高且受光照影响严重的组织腔体内壁图像中提取足够的特征点以及准确的匹配关系,由此能够利用准确匹配的特征点完成组织腔体内壁的三维重建。
在一些实例中,如图1和图2所示,本公开所涉及的基于光流获得组织腔体三维图像的处理方法在步骤S100中,可以利用胶囊内窥镜在具有褶皱内壁的组织腔体针对重建区域(后续描述)获取第一图像31和第二图像32,具体而言,可以利用胶囊内窥镜20在具有褶皱内壁的组织腔体内沿着第一方向针对组织腔体内的重建区域采集第一图像31,并使胶囊内窥镜20在组织腔体内沿着第二方向针对重建区域采集第二图像32,并且第一方向与第二方向形成有夹角。
在一些示例中,如图2所示,可以利用胶囊内窥镜20在具有褶皱内壁的组织腔体内沿着第一方向L1针对组织腔体内的重建区域采集第一图像31。利用胶囊内窥镜20在组织腔体内沿着第二方向L2针对重建区域采集第二图像32。第一方向与第二方向形成有夹角。在这种情况下,能够获取针对重建区域的以不同的角度拍摄的第一图像31和第二图像32,进而获取第一图像31和第二图像32间的光流。
在一些示例中,重建区域可以是需要进行三维重建从而获取其三维图像的组织腔体的褶皱内壁的部分区域或全部区域。
在一些示例中,图2所示的组织腔体的褶皱内壁可以是但不限于胃部、腹腔、胸腔、大肠腔等腔体的褶皱内壁。
在一些示例中,步骤S100中的胶囊内窥镜20可以具有采集装置。采集装置可以采集胃腔的病理信息。在一些示例中,病理信息可以包括胃腔内壁图像。在这种情况下,胶囊内窥镜20能够采集胃腔的内壁图像,从而进行胃腔内壁的三维重建。
在一些示例中,第一图像31和第二图像32可以由同一个胶囊内窥镜20拍摄得到。在这种情况下,第一图像31的拍摄时间和第二图像32的拍摄时间具有先后顺序。
在另一些示例中,第一图像31和第二图像32可以由不同的胶囊内窥镜20拍摄得到。在这种情况下,第一图像31和第二图像32能够同时拍摄或依次拍摄。例如,第一图像31和第二图像32可以为两个胶囊内窥镜20同时拍摄的两幅图像。在这种情况下,能够减少胃腔蠕动对光流的影响。
在一些示例中,胶囊内窥镜20可以在胃腔内连续拍摄。在这种情况下,能够获取胃腔内壁的多张图像。
在一些示例中,胶囊内窥镜20可以是单目胶囊内窥镜、双目胶囊内窥镜或多目胶囊内窥镜。在这种情况下,能够基于不同的需求和场景选择相应的胶囊内窥镜20进行拍摄。
在一些示例中,胶囊内窥镜20的采集装置可以为单目拍摄装置。在这种情况下,能够以单一的摄像头获取胃腔内壁的图像。
在一些示例中,胶囊内窥镜20的采集装置可以为多目拍摄装置(例如,双目拍摄装置、三目拍摄装置、四目拍摄装置等)。在这种情况下,能够同时利用多个摄像头获取胃腔内壁的多张图像,从而能够在相同的光强度下获得相同的位置的胃腔内壁的多幅图像。
在一些示例中,第一图像31和第二图像32可以分别为双目拍摄装置的两个镜头拍摄的图像。在这种情况下,第一图像31和第二图像32能够具有相同的拍摄时间。
在一些示例中,第一图像31可以先于第二图像32拍摄。但本公开的示例不限于此,第一图像31可以晚于第二图像32拍摄,或者第一图像31可以与第二图像32同时拍摄。
在一些示例中,第一图像31和第二图像32可以为相邻帧的两幅图像。其中,第一图像31可以是当前帧图像。第二图像32可以是与当前帧相邻的下一帧图像。在这种情况下,能够使第一图像31的拍摄区域和第二图像32拍摄区域具有更多的重合部分,并且能够减少胃腔蠕动对光流的影响。
在另一些示例中,第一图像31和第二图像32可以不是相邻帧的两幅图像。具体而言,第一图像31和第二图像32可以相差多个帧。例如,第一图像31和第二图像32可以相差2帧、3帧、4帧等。在这种情况下,可以根据实际的需求设定第一图像31和第二图像32之间相差的帧数。
在一些示例中,胶囊内窥镜20可以在磁场的作用下,沿设定路径进行拍摄。在这种情况下,胶囊内窥镜20能够以设定路径完成胃腔内壁的扫描和拍摄。在一些示例中,胶囊内窥镜20可以拍摄多张图像以使拍摄的区域遍布整个胃腔,在这种情况下,能够重建完整的胃腔内壁。在另外一些示例中,胶囊内窥镜20的拍摄区域可以限制在目标区域,在这种情况下,能够重建胃腔内的目标区域。
如图1所示,在步骤S200中,可以计算重建区域在第一图像31内的第一像素区域与重建区域在第二图像32内与第一像素区域对应的第二像素区域的光流,为方便描述,第一图像31可以设定为先于第二图像32拍摄。
在一些示例中,重建区域可以是需要进行三维重建的组织腔体的内壁。
在一些示例中,通过计算重建区域在第一图像31内的第一像素区域与重建区域在第二图像32内与第一像素区域对应的第二像素区域的光流来获取物体的运动信息的处理方法可以称为光流法。
在本公开中,光流法可以是指可以利用第一图像31和第二图像32中的像素在时间域上的变化以及相关性来找到第一图像31和第二图像32之间存在的对应关系,从而可以计算出第一图像31和第二图像32之间物体的运动信息。在这种情况下,能够通过光流描述物体的运动信息。
在一些示例中,光流法可以有两个基本假设:光强度恒定,即同一目标在运动时,其光强度不会发生剧烈改变;时间连续或运动是“小运动”,即时间的变化不会引起目标位置的剧烈变化。在这种情况下,能够利用光流法计算出第一图像31和第二图像32之间的物体的光流,并根据光流获取物体的运动信息。
在本公开涉及的实施例中,可以通过光流法利用利用第一图像31和第二图像32中像素在时间域上的变化以及相关性来找到第一图像31和第二图像32之间存在的对应关系,计算出胶囊内窥镜20的运动信息。
在一些示例中,光流(Optical flow)可以由胶囊内窥镜20的运动而产生。在这种情况下,能够把光流与胶囊内窥镜20的运动相联系,也即能够利用胶囊内窥镜20的运动信息获得光流。在一些示例中,光流可以是指空间物体在观察成像平面的像素运动的瞬时速度。在一些示例中,可以将图像平面特定坐标点上的光强度值瞬时变化率定义为光流。在这种情况下,能够将图像平面特定坐标点上的光强度值与光流相结合,进而获取胶囊内窥镜20的运动信息。
在一些示例中,多个像素点的光流可以组成为光流场。在这种情况下,能够通过光流场描述图像中各个像素点的光流。
在一些示例中,可以通过光流图像表示光流场。具体而言,光流是矢量,光流图像中每一个像素点的颜色可以对应一个光流,并且光流的与HSV颜色空间内的颜色可以一一对应。在这种情况下,能够利用颜色表示光流,进而能够用光流图像直观地表示光流场。
在一些示例中,第一图像31或第二图像32中一个像素点的光强度可以假设为I(x,y,t)。其中,x,y分别表示像素点的位置在该图像的宽度方向和长度方向上分量,t表示其所在的时间维度。对于组织腔体的褶皱内壁上的预设点,该预设点在第二图像32中的像素点的位置与该预设点在第一图像31中的像素点的位置的移动的距离可以用(dx,dy)表示,该移动的时间可以用dt表示。根据光流法的基本假设,该像素点在移动前后的光强度可以通过公式(1)表达:
I(x,y,t)=I(x+dx,y+dy,t+dt) (1)
将公式(1)右端进行泰勒展开得:
Figure BDA0002731883460000101
ε代表二阶无穷小项,可以忽略不计,将公式(2)带入公式(1)两边同时对时间求导得:
Figure BDA0002731883460000102
设u,v为光流分别沿该图像的宽度方向和长度方向的分量,则有:
Figure BDA0002731883460000103
另外,
Figure BDA0002731883460000104
可以分别表示该图像中像素点的光强度对x,y,t的偏导数,综上,公式(3)可以转化为公式(5):
Ixu+Iyv+It=0 (5)
其中,Ix,Iy,It均可以由第一图像31或第二图像32求出。根据上述的光流的计算方法可知,约束方程只有一个,而光流有两个分量。在一些示例中,可以引入另外的约束条件来计算光流,在这种情况下,能够利用另外的约束条件求解出光流。
在一些示例中,根据引入的约束条件,可以把光流法分类为基于梯度的方法、基于匹配的方法、基于能量的方法、基于相位的方法或神经动力学方法。在这种情况下,能够通过多种计算方法计算光流,从而选出准确度更高的光流计算方法。在另一些示例中,上述的多种光流法可以配合使用,在这种情况下,能够根据实际应用场景选择合适的方法配合使用。
在一些示例中,基于梯度的光流法可以包括Lucas-Kanade算法或Horn-Schunck算法。在这种情况下,能过根据实际需求对光流进行求解。
在一些示例中,可以应用Lucas-Kanade算法(LK算法)来计算光流。具体而言,LK光流法在原先的光流法两个基本假设的基础上,增加了一个“空间一致”的假设,即在目标区域内所有的相邻像素点有相似的运动。也即在目标像素周围m×m的区域内,每个像素点均拥有相同的光流。优选地,m可以设置为2,在这种情况下,能够通过简单的约束条件求出光流。
在m×m的区域内,LK光流法可以通过对下式的加权平方和最小化来估计光流:
Figure BDA0002731883460000111
式(6)中W2(x)是一个窗口权重函数,该函数使得该区域中心的加权比周围的大。I(x,y,t)表示像素点的光强度函数,Ia表示I对a的偏导数(a可以为x,y,t),x,y为对应像素点的位置,t为时间。Ω表示该区域范围,对于Ω内的i个像素点X1、X2…Xi,设
Figure BDA0002731883460000112
Figure BDA0002731883460000113
Figure BDA0002731883460000114
Figure BDA0002731883460000115
故上述解可由最小二乘法得到:
ATW2AV=ATW2b (11),
最后得:
V=(ATW2A)-1ATW2b (12),
由此,可解得沿该图像长度和宽度方向的光流分量u和光流分量v。
在一些示例中,通过上述方法可以求出第一图像31到第二图像32中的第i个像素点的后向光流分量ui和vi(i=1,2,……n)。
在一些示例中,可以利用Horn-Schunck算法(HS算法)来计算光流。具体而言,可以在光流基本约束方程的基础上附加全局平滑假设,假设在整幅图像上光流的变化是光滑的,即图像运动矢量是平滑的或只是缓慢变化的。在这种情况下,能够使求出的光流在图像的中的变化更加平滑,更加符合实际的光流分布情况,从而能够提高匹配准确度。
在一些示例中,Horn-Schunck算法加入的约束条件可以表示为能量函数ζ2取最小值,其中,能量函数可以表示为式(13):
ζ2=∫∫Ldxdy (13),
其中,
Figure BDA0002731883460000121
Figure BDA0002731883460000122
其中,u,v分别为该图像中沿该图像长度和宽度方向的光流分量,x,y为对应像素点的位置,L光流光滑项,α为光滑权重系数,其表示光流光滑项的权重。
利用欧拉-拉格朗日方程并化简后得到迭代式:
Figure BDA0002731883460000123
Figure BDA0002731883460000124
其中,k表示第k次迭代,uk、vk表示第k次迭代后的光流分量,uk+1、vk+1表示第k+1次迭代后的光流分量,
Figure BDA0002731883460000125
分别表示第k次迭代后的光流分量u和v的均值。在一些示例中,u和v的均值可以通过九点差分格式进行计算。
在一些示例中,可以对光流进行多次迭代直到超过允许的迭代次数或两次迭代的光流差值小于给定的误差阈值。在这种情况下,能够通过迭代获得收敛的光流。
在另一些示例中,可以对Horn-Schunck算法进行改进。具体而言,可以引入具有条件的平滑约束,即通过加权矩阵对梯度进行不同平滑处理,或者可以引入分段平滑的方法。在这种情况下,能过根据实际情况选择改进的方式。
在另一些示例中,可以利用稠密光流法或稀疏光流法来计算光流。在一些示例中,可以基于稠密光流法来计算光流。具体而言,稠密光流法可以针对第一图像31或第二图像32中的某片区域进行逐点的匹配,并计算第一图像31或第二图像32上所有点的光流。在这种情况下,能够计算出稠密的光流,从而能够通过稠密的光流进行像素级别的特征点匹配。在一些示例中,可以基于稀疏光流法来计算光流,具体而言,稠密光流法设定某一点附近的光流相同,并且不需要计算第一图像31或第二图像32上所有点的光流。在这种情况下,能够计算出稀疏的光流,从而减少计算量并提高计算速度。
在一些示例中,步骤S200中,可以通过基于深度学习的神经网络10计算光流。具体而言,可以向神经网络输入成对的训练图像(包括第一训练图像和第二训练图像,后续描述)来训练神经网络,并且利用训练后的神经网络获得第一图像31和第二图像32之间的光流。在这种情况下,能够通过基于深度学习的神经网络10准确地得到第一图像31或第二图像32中各像素点的运动信息。
在一些示例中,基于深度学习的神经网络10在本发明中有时也可以简称为“神经网络”。
在一些示例中,成对的训练图像为相邻帧的两幅图像。在一些示例中,成对的训练图像为当前帧图像和下一帧图像。在另一些示例中,成对的训练图像为相差固定帧数的图像对,其中相差的帧数可以为1帧、2帧、3帧、4帧、或5帧等,在这种情况下,能够根据实际情况调整输入的成对的训练图像间相差的帧数。
在一些示例中,基于深度学习的神经网络10可以是基于卷积运算的神经网络系统(本公开中有时也可以称为“卷积神经网络”)、基于多层神经元的自编码神经网络、或者以多层自编码神经网络的方式进行预训练的神经网络。在这种情况下,能够根据实际情况选择合适的方法构建基于深度学习的神经网络10。
以下,以基于卷积运算的神经网络系统为示例以介绍如何通过基于深度学习的神经网络10计算光流,但计算光流的方法不限于此,同时,以下的关于卷积神经网络的各个部分也可以单独地或组合地运用到其它神经网络中以计算光流。
在一些示例中,将任意图像作为输入时,可以将该图像转换成RGB颜色矩阵,在这种情况下,能够把任意图像转换成计算机能够识别的3通道矩阵。
图3示出了本公开的示例所涉及的基于深度学习的神经网络的示意图。
在一些示例中,如图3所示,基于卷积运算的神经网络系统可以包括第一神经网络12、第二神经网络22、特征组合模块13、以及第三神经网络14。
在一些示例中,基于卷积运算的神经网络系统还可以包括预处理模块。预处理模块可以设置在第一神经网络12和第二神经网络22之前。在这种情况下,输入的组织腔体内壁图像能够在进入第一神经网络12或第二神经网络22之前进行预处理。
在一些示例中,预处理模块可以包括第一预处理模块11和第二预处理模块21。具体而言,如图3所示,第一预处理模块11和第二预处理模块21可以分别设置在第一神经网络12和第二神经网络22之前,第一预处理模块11的输出端可以连接第一神经网络12的输入端,第二预处理模块21的输出端可以连接第二神经网络22的输入端。但是本实施方式不限于此,在另外一些示例中,第一预处理模块11的输出端可以连接第二神经网络22的输入端,第二预处理模块21的输出端可以连接第一神经网络12的输入端。
在一些示例中,第一预处理模块11可以接收并处理来自第一输入的图像。在一些示例中,第二预处理模块21可以接收并处理来自第二输入的图像。在一些示例中,第一输入的图像可以是第一图像31(或第一训练图像),第二输入的图像可以是第二图像32(或第二训练图像)。在一些示例中,第一输入的图像可以是第二图像32(或第二训练图像),第二输入的图像可以是第一图像31(或第一训练图像)。
在一些示例中,预处理模块(第一预处理模块11和第二预处理模块21)可以用于对具有褶皱内壁的组织腔体内的同一区域以不同的方向进行采集获得的第一图像31和第二图像32分别进行预处理。也即,第一预处理模块11可以对第一图像31进行预处理,第二预处理模块21可以对第二图像32进行预处理。在一些示例中,第一预处理模块11和第二预处理模块21可以在形成在同一模块中,也可以独立形成为模块。以下以第一预处理模块11对第一图像31进行预处理,第二预处理模块21对第二图像32进行预处理的情况为示例,对卷积神经网络模型的结构和处理过程进行描述,但是,本发明不限于此。
图4示出了本公开的示例所涉及的基于深度学习的神经网络中的第一预处理模块的示意图。
在一些示例中,预处理模块可以包括输入端。在这种情况下,神经网络能够接收组织腔体内壁图像进行训练或计算光流。
如上,预处理模块(第一预处理模块11和第二预处理模块21)可以用于对具有褶皱内壁的组织腔体内的同一区域以不同的方向进行采集获得的第一图像31和第二图像32分别进行预处理。具体而言,第一图像31和第二图像32的可以被依次输入,并且可以分别进入第一预处理模块11和第二预处理模块21。第一预处理模块11和第二预处理模块21可以对输入的图像进行尺寸调整和归一化等预处理。也即,第一预处理模块11可以对第一图像31进行尺寸调整和归一化等预处理;第二预处理模块21可以对第二图像32进行尺寸调整和归一化等预处理。在一些示例中,可以交换第一图像31和第二图像32的输入次序,在这种情况下,能够使第一预处理模块11可以对第二图像32进行尺寸调整和归一化等预处理;第二预处理模块21可以对第一图像31进行尺寸调整和归一化等预处理。
在一些示例中,第一预处理模块11和第二预处理模块21可以设置成相同的模块,因此,以下针对第一预处理模块11进行详细描述,第二预处理模块21的结构可以与第一预处理模块11完全相同。
如图4所示,神经网络的第一预处理模块11主要包括区域调整单元111和归一化单元112。
在一些示例中,调整单元111可以用于对组织腔体内壁图像(例如第一图像31、第二图像32、第一训练图像和第二训练图像)进行尺寸调整。由于组织腔体大小的不同、或所使用的镜头的不同,所获得的组织腔体内壁图像在分辨率、内壁区域尺寸等方面上均可能存在差异。在这种情况下,能够利用调整单元111对获得的组织腔体内壁图像进行调整。
在一些示例中,通过调整单元111,能够将组织腔体内壁图像的尺寸调整至规定的尺寸(例如像素尺寸)例如256×256、512×512、1024×1024等。然而,本实施方式不限于此,根据特定需要,组织腔体内壁图像的尺寸也可以是任意其他规格的大小(像素大小)例如128×128、768×768、2048×2048等。在这种情况下,能够根据实际需求把图像的尺寸调整至合适的大小。
在一些示例中,第一预处理模块11中的归一化单元112可以用于对组织腔体内壁图像(例如第一图像31或第一训练图像)进行归一化。在这种情况下,能够对组织腔体内壁图像进行归一化处理,从而能够避免因不同种类组织腔体内壁的差异、图像的采集装置不同或采集条件不同而造成的差异。
在一些示例中,归一化单元112的归一化方式没有特别限定,例如可以采用零均值(zero mean)、单位标准方差(unit standard deviation)等进行。另外,在一些示例中,也可以归一化在[0,1]的范围内。在这种情况下,能够可以克服不同种类组织腔体内壁图像的差异性,从而能够提高人工神经网络的性能。
在一些示例中,第一预处理模块11还可以具有扩增单元(未图示)。扩增单元可以设置在调整单元111之前,但本实施方式不限于此。
在一些示例中,扩增单元可以用于在神经网络的训练阶段对组织腔体内壁图像进行数据扩增。通过扩增单元,可以对所获得的组织腔体内壁图像进行数据扩增以扩大组织腔体内壁图像的样本量,从而有助于克服过拟合问题,提高人工神经网络的性能。另外,需要说明的是,扩增单元一般限于在稍后描述的神经网络的训练阶段时对数据样本进行扩增,在神经网络的测试阶段时可以不使用扩增单元。
另外,扩增单元所采用的扩增方式没有特别限制,在一些示例中,可以通过对组织腔体内壁图像进行各种图像变换来进行样本扩增。在一些示例中,图像变换方式可以包括对称变换、倒立变换、旋转变换、像素平移等,还可以包括对图像的对比度、亮度、颜色、锐度等进行调整。
以上,已经描述了第一预处理模块11的构成和功能,同样地,第二预处理模块21也可以具有与第一预处理模块11完全相同的构成和功能。在这种情况下,组织腔体内壁图像(例如第二图像32或第二训练图像)可以作为第二输入经过第二预处理模块21也能够得到有效的预处理,以满足后续人工神经网络(第二神经网络22和第三神经网络14)对组织腔体内壁图像的处理。在这种情况下,通过第一预处理模块11和第二预处理模块21,能够分别对组织腔体内壁图像进行有效的预处理,从而有助于后续各个神经网络对组织腔体内壁图像中的进一步处理。
在一些示例中,第一图像31或第二图像32经过预处理模块可以获得目标第一图像31或目标第二图像32。目标第一图像31或目标第二图像32可以作为第一神经网络12和第二神经网络22的输入。
在本实施方式中,第一神经网络12可以用于从经过第一预处理模块11预处理后的图像(例如目标第一图像31),并产生第一特征集。同样地,第二神经网络22可以用于从经过第二预处理模块21预处理后的图像(例如目标第二图像32)产生第二特征集。其中,第一神经网络12和第二神经网络22可以通过例如组合多层低级特征(像素级特征),实现了对目标第一图像31和目标第二图像32的抽象描述。这里,高级特征仅指示经过人工神经网络的处理后相对于原始图像的初级特征(例如像素级的特征)而言,并非为了精确描述特征的高级性,但一般而言,经过神经网络处理,随着神经网络越往深层次会呈现出越高层次和越抽象的趋势。另外,特征集一般是指包括了两个或两个以上的特征的集合,在本发明中有时也可以称为“特征矩阵”和“特征图像”。另外,在一些特殊的情况下,特征集也可以仅有1个特征例如中间结果,这时“特征集”可以仅特指单个“特征”。
图5示出了本公开的示例所涉及的基于深度学习的神经网络中第一神经网络的示意图。
在一些示例中,第一神经网络12和第二神经网络22可以具有相同的网络结构。以下针对第一神经网络12进行详细描述,第二神经网络22的结构可以与第一预处理模块11完全相同。
在一些示例中,第一神经网络12可以对输入图像进行卷积处理,在这种情况下,能够提取该图像的特征,从而得到输入图像的特征图像。在一些示例中,卷积处理可以是利用卷积核对目标图像进行卷积运算。
在一些示例中,可以将两个输入图像(例如目标第一图像31和目标第二图像32)作为输入并输入到卷积神经网络,在这种情况下,能够利用卷积神经网络提取特征并形成特征集(例如:运动信息),从而能够从特征集中获取光流图像。
在一些示例中,第一神经网络12可以包括池化层(下采样层)和卷积层。在这种情况下,能够通过池化在空间上缩小特征图像的尺寸。
在一些示例中,第一神经网络12可以不包括池化层,在这种情况下,能够保留输入图像(例如目标第一图像31和目标第二图像32)的信息。
在一些示例中,池化(pooling)的方式可以使用最大池化(max-pooling)、平均池化(mean-pooling)、随机池化(stochastic-pooling)等。通过池化操作,一方面可以降低特征维度,提高运算效率,另外,也可以使神经网络提取更加抽象的高层特征,以提高对组织腔体内壁图像的判断准确度。
在一些示例中,也可以根据情况对应地增加卷积层和池化层的层数。在这种情况下,能够使神经网络提取更加抽象的高层特征,以进一步提高对组织腔体内壁图像的判断准确度。
在一些示例中,如图5所示,卷积层和池化层可以交替组合。在一些示例中,处理流可以依次通过第一卷积层、第一池化层、第二卷积层、第二池化层、第三卷积层、第三池化层、第四卷积层、第四池化层。在这种情况下,能够交替地对输入图像(例如目标第一图像31和目标第二图像32)进行卷积处理和池化处理。
在一些示例中,第一神经网络12与第二神经网络22可以完全相同。具体而言,第一神经网络12的网络结构与第二神经网络22的网络结构可以完全相同。在这种情况下,能够减少人工神经网络的参数数目,有利于抑制神经网络的过拟合。
另外,第一神经网络12和第二神经网络22所采用的神经网络结构不限于此,也可以采用其他卷积神经网络结构,只要能够确保从组织腔体内壁图像(例如第一图像31、第二图像32、第一训练图像或第二训练图像)提取出高级特征即可。此外,注意到,本实施方式所涉及的第一神经网络12和第二神经网络22主要用于特征提取,并非直接输出光流。
在本实施方式中,如图3所示,特征组合模块13可以用于将由第一神经网络12产生的第一特征集与由第二神经网络22产生的第二特征集进行融合而形成特征组合集。这里,本实施方式的“特征集”可以指“特征序列”、“特征矢量”、“特征值的集合”、“特征图像”等,其意义应该以最广泛的方式理解。
在一些示例中,特征组合模块13可以将第一特征集和第二特征集组合成一维特征矢量(特征组合集)。在另一些示例中,特征组合模块13也可以计算第一特征集与第二特征集的差异来获得特征组合集。在另一些示例中,特征组合模块13还可以计算第一特征集和第二特征集的均值来获得特征组合集。在另一些示例中,特征组合模块13可以对第一特征集和第二特征集进行线性或非线性变换来获得特征组合集等。此外,在另一些示例中,特征组合模块13可以计算第一特征集和第二特征集间的卷积。
在一些示例中,在特征组合模块13可以包括卷积层和池化层,具体而言,将由第一神经网络12产生的第一特征集与由第二神经网络22产生的第二特征集进行融合而形成特征组合集后,可以对特征组合集再次进行一次或多次的卷积处理和池化处理。可以进入第三卷积层,并再次进行卷积处理。在这种情况下,能够提取特征图像更高层次的特征。
在一些示例中,通过特征组合模块13,能够使从第一神经网络12产生的特征与从第二神经网络22产生的特征进行融合,便于后续第三神经网络14的处理。
在本实施方式中,第三神经网络14可以用于根据特征融合的结果(特征组合集)获取光流。如图3所示,第三神经网络14可以基于特征组合模块13所获得的结果,根据所输入的组织腔体内壁图像对计算光流。也即,第三神经网络14根据特征组合集获取光流。
在一些示例中,第三神经网络14的输出可以是各个像素点的光流。
另外,第三神经网络14的网络结构没有特别限制。在一些示例中,第三神经网络14可以使用反卷积层、反池化层(上采样层)、全连接层和其他辅助层(例如批归一化层(batchnormalization)、池化层(pooling)、卷积层等)的各种组合来实现。例如,在一些情况下,第三神经网络14的输出层可以使用四层的反卷积层、四层反池化层、两层全连接层和输出层(softmax层)。另外,在另一些情况下,第三神经网络14的输出层也可以使用两层反卷积层、两层反池化层、三层全连接层和输出层(例如softmax层)。在这种情况下,能够获得与组织腔体内壁图像(例如第一图像31、第二图像32)相同或相近的尺寸大小的光流图像。
在一些示例中,基于深度学习的神经网络10可以包括一个或多个反池化层。在这种情况下,能够通过反池化在空间上放大光流图像的尺寸。
在一些示例中,可以以图像的形式显示特征,该图像可以被称为特征图像。在这种情况下,能够以直观的图像显示特征。在一些示例中,特征图像可以是上文所述的光流图像。在这种情况下,能够以直观的光流图像显示图像的特征。
如上所述,在本实施方式中,由于采用了第一图像31和第二图像32(或第一训练图像和第二训练图像)分别独立作为输入信息,因此,能够有利于第一神经网络12从第一图像31(或第一训练图像)像提取出特征,有利于第二神经网络22从第二图像32(或第二训练图像)提取出特征。而且,通过将从第一神经网络12和第二神经网络22分别获得的特征组合后,继续通过第三神经网络14来获取光流,由此能够显著地提高光流的准确性。
图6示出了本公开的示例所涉及的基于深度学习的神经网络的变形例的示意图。
在另一些示例中,如图6所示,基于卷积运算的神经网络系统的预处理模块可以包括第一预处理模块11a、第一神经网络12a、以及第三神经网络14a。在这种情况下,预处理模块11a的输入图像可以是两幅组织腔体内壁图像的叠加图像。具体而言,两幅组织腔体内壁图像输入到神经网络后,可以分别被转换成3通道的矩阵,把两个3通道的矩阵叠加后形成6通道的矩阵,并依次通过第一预处理模块11a、第一神经网络12a、以及第三神经网络14a。其中,第一预处理模块11a、第一神经网络12a、以及第三神经网络14a的功能可以参照上述第一预处理模块11、第一神经网络12、以及第三神经网络14的相关描述。在这种情况下,能够同时对两幅图像进行预处理,并且能够降低神经网络复杂度。
在一些示例中,如图7所示,基于深度学习的神经网络10的训练步骤可以包括:准备多组的组织腔体内壁图像对,组织腔体内壁图像对可以为对具有褶皱内壁的组织腔体内的同一区域以不同的方向进行采集获得的两幅图像,且分别为第一训练图像和第二训练图像(步骤S210);将每组组织腔体内壁图像对的第一训练图像和第二训练图像依次输入神经网络以获取第一训练图像内的第一像素点的前向光流(步骤S220);交换第一训练图像和第二训练图像的输入顺序以获取第二训练图像内与第一像素点对应的第二像素点的后向光流(步骤S230);基于前向光流和后向光流计算损失函数(步骤S240);并且基于损失函数对神经网络进行评估并优化(步骤S250)。在这种情况下,能够以无监督的方式训练神经网络,并且能够利用未进行标注的组织腔体内壁图像进行训练。
在一些示例中,第一训练图像和第二训练可以作为训练图像训练神经网络。
在一些示例中,前向光流可以是指从第一训练图像到第二训练图像的光流。在一些示例中,后向光流可以是指从第二训练图像到第一训练图像的光流。
在一些示例中,在步骤S210中,准备多组的组织腔体内壁图像对,组织腔体内壁图像对可以为对具有褶皱内壁的组织腔体内的同一区域以不同的方向进行采集获得的两幅图像,且分别为第一训练图像和第二训练图像。
在一些示例中,组织腔体内壁图像对可以是没有真值的胃腔内壁图像。第一训练图像和第二训练图像可以是相邻帧的图像。在一些示例中,第一训练图像和第二训练图像的获取方式可以与上文所述的第一图像31和第二图像32获取方式相同。
在一些示例中,在步骤S220,可以将每组组织腔体内壁图像对的第一训练图像和第二训练图像依次输入神经网络以获取前向光流。在这种情况下,能够通过前向光流作用于所述第二训练图像生成第一预测图像。
在一些示例中,在步骤S230,可以交换第一训练图像和第二训练图像的输入顺序以获取后向光流。在这种情况下,能够通过后向光流作用于所述第一训练图像生成第二预测图像。
在一些示例中,在步骤S240中,可以基于前向光流和后向光流计算损失函数,在一些示例中,损失函数可以包括结构相似性损失项、几何前后一致性损失项和光流平滑度损失项。在这种情况下,能够通过多种损失函数对神经网络进行训练。
在一些示例中,神经网络的损失函数可以包括结构相似性损失项,结构相似性损失项可以表示图像间的相似性。具体而言,对于图像F和图像S,结构相似性SSIM的计算公式为:
Figure BDA0002731883460000221
其中,c1=(k1L)2,c2=(k2L)2,k1=0.01,k2=0.03,SSIM表示图像F和图像S之间的结构相似性,μF、μS、σF、σS分别为图像F和图像S中像素点的平均值和方差,σFS是图像F和图像S中像素点之间的协方差、L是像素值的动态范围。
在一些示例中,结构相似性损失项可以包括第一预测图像与第一训练图像的第一结构相似性损失项和第二预测图像与第二训练图像的第二结构相似性损失项。第一预测图像可以通过前向光流作用于第二训练图像生成,第二预测图像可以通过后向光流作用于第一训练图像生成。在这种情况下,能够评估计算出的前向光流和后向光流的准确度,从而通过训练神经网络提高神经网络所计算的光流的准确度。
在一些示例中,损失函数可以包括光流平滑度损失项。光流平滑度损失项为前向光流的全变分损失(total variation loss)与后向光流的全变分损失的和,在这种情况下,能够提高光流的平滑度,从而能够保持图像的光滑性并降低噪声影响。
在一些示例中,图像的全变分损失为:
Figure BDA0002731883460000222
其中,x,y分别表示像素点的位置在图像的宽度方向和长度方向上分量,TV表示图像的全变分损失。
在一些示例中,光流平滑度损失项可以包括前向光流的全变分损失与后向光流的全变分损失。在这种情况下,能够使训练后的神经网络所计算出的前向光流和后向光流在空间上保持平滑。
在一些示例中,几何前后一致性可以是前向光流和后向光流的差值。具体而言,可以通过把第一训练图像和第二训练图像输入基于卷积运算的神经网络系统并且交换第一训练图像和第二训练图像的输入次序后,可以获得第一训练图像内的第一像素点的前向光流和第二训练图像内与第一像素点对应的第二像素点的后向光流,从而可以计算第一训练图像和第二训练图像中相对应(即相匹配)的像素点间的前向光流和后向光流,并计算各个像素点间的前向光流和后向光流的差值,把对应于各个像素点的前向光流和后向光流的差值求和后作为几何前后一致性损失项。在这种情况下,能够使训练后的神经网络系统所计算出的前向光流和后向光流保持前后一致性。
在一些示例中,在步骤S250中,可以基于损失函数对神经网络进行评估并优化。在一些示例中,第一神经网络12、第二神经网络22和第三神经网络14可以一起训练,以获得最优的神经网络结构。此外,本实施方式所涉及的第一神经网络12、第二神经网络22和第三神经网络14可以同时一起训练,在另一些示例中,可以通过训练自编码(auto-encoder)网络的方式先训练第一神经网络12和第二神经网络22,然后再与第三神经网络14一起训练。由此,能够利用训练图像对基于深度学习的神经网络10进行训练。
在一些示例中,利用训练图像对基于深度学习的神经网络10进行训练后,可以利用测试图像对训练后的神经网络进行测试,测试图像可以是多组的组织腔体内壁图像对,该组织腔体内壁图像对可以为对具有褶皱内壁的组织腔体内的同一区域以不同的方向进行采集获得的两幅图像,当测试出的损失函数小于设定值,可以认为该神经网络已经训练完成。
在一些示例中,测试图像可以包括第一测试图像和第二测试图像。在一些示例中,第一测试图像和第二测试图像的获取方式可以与上文所述的第一图像31和第二图像32获取方式相同。
如图1所示,本公开所涉及的基于光流获得组织腔体三维图像的处理方法在步骤S300中,可以在第一像素区域中提取包括多个特征点的第一特征点集,并基于第一特征点集和光流获得在第二像素区域中与第一特征点集对应的第二特征点集。
图8示出了本公开的示例所涉及的基于深度学习的神经网络进行特征点匹配的示意图。
在一些示例中,如图8所示,第一特征点集可以包括多个第一特征点311,第二特征点集可以包括多个第二特征点321。在一些示例中,第一特征点311和第二特征点321可以具有相同的个数。在一些示例中,单个第一特征点311和与其相匹配的第二特征点321可以成为一组特征点对。
在一些示例中,利用基于卷积运算的神经网络系统获得第一图像31到第二图像32的光流分量ui和光流分量vi,可以在第一图像31随机提取若干角点xj(j=1,2,…,n)作为第一特征点311,接着通过第一特征点311所在位置的光流找到第一特征点311在第二图像32对应的第二特征点321xj',即完成特征匹配。在这种情况下,能够获得第一图像31到第二图像32之间更准确的特征点匹配关系。
在一些示例中,角点可以拥有以下特征:一般为轮廓之间的交点;对于同一场景,即使视角发生变化,通常具备稳定性质;该点附近区域的像素点无论在梯度方向上还是其梯度幅值上有着较大变化;在这种情况下,提取角点为特征点能够提高特征点匹配的准确性。
在一些示例中,为了计算拍摄第一图像31与第二图像32的过程中的胶囊内窥镜的位置变化,需要提取8对以上特征点,具体而言,可以先在第一图像31提取具有至少8个特征点的第一特征点集,并通过第一特征点集中的特征点对应的光流得到第二图像32中与第一特征点集相匹配的第二特征点集。在一些示例中,可以通过上述方法获取8对,10对,12对,14对,16对匹配的特征点。由此,能够提高本质矩阵(后续描述)的精确度。
在一些示例中,可以通过对极几何约束求解相机运动。在这种情况下,能够通过对极几何准确地求解相机运动和具体位置。
如图1所示,本公开所涉及的基于光流获得组织腔体三维图像的处理方法在步骤S400中,可以基于第一特征点集和第二特征点集计算胶囊内窥镜20的本质矩阵。
在一些示例中,可以通过对极几何准确地求解胶囊内窥镜20的运动并获得胶囊内窥镜20的本质矩阵。具体而言,可以通过多对特征点的像素位置求出本质矩阵,然后分解本质矩阵并得到旋转矩阵和平移矩阵。其中旋转矩阵和平移矩阵分别对应胶囊内窥镜20在拍摄第一图像31和第二图像32的过程中的旋转变量和平移变量。
如图1所示,本公开所涉及的基于光流获得组织腔体三维图像的处理方法在步骤S500中,可以基于本质矩阵计算第一像素区域和第二像素区域的各个像素点的空间坐标,获得点云并利用点云进行三维图像重建。
在一些示例中可通过三角测量计算每个像素点的空间坐标,生成三维点,将三维点存入点云结构,即完成点云(即离散点)的生成。
在一些示例中,可以通过点云采集设备采集上述得出的离散点,并可以通过点云滤波等滤除离散点中存在的噪声。进一步的,可以通过三维重建技术获得由离散点组成的组织腔体(例如胃腔)的模型。
在一些示例中,点云滤波可以包括直通滤波器、体素滤波器、统计滤波器、条件滤波器或半径滤波器。由此,能够根据实际情况选择一种或多种的滤波器,优化除噪效果。
在一些示例中,三维重建可以为泊松重建、实时重建或表面重建等。由此,能够令点云转变成直观的三维图像,从而提高视觉效果。
虽然以上结合附图和实施方式对本公开进行了具体说明,但是可以理解,上述说明不以任何形式限制本公开。本领域技术人员在不偏离本公开的实质精神和范围的情况下可以根据需要对本公开进行变形和变化,这些变形和变化均落入本公开的范围内。

Claims (9)

1.一种基于光流获得组织腔体三维图像的处理方法,其特征在于,包括以下步骤:利用胶囊内窥镜在具有褶皱内壁的组织腔体内沿着第一方向针对所述组织腔体内的重建区域采集第一图像,并使所述胶囊内窥镜在组织腔体内沿着第二方向针对所述重建区域采集第二图像,所述第一方向与所述第二方向形成有夹角;通过基于卷积运算的神经网络计算所述重建区域在所述第一图像内的第一像素区域与所述重建区域在第二图像内与所述第一像素区域对应的第二像素区域的光流;在所述第一像素区域中提取包括多个特征点的第一特征点集,并基于所述第一特征点集和所述光流获得在所述第二像素区域中与所述第一特征点集对应的第二特征点集;基于所述第一特征点集和所述第二特征点集计算所述胶囊内窥镜的本质矩阵;并且基于所述本质矩阵计算所述第一像素区域和所述第二像素区域的各个像素点的空间坐标,获得点云并利用所述点云进行三维图像重建。
2.根据权利要求1所述的图像处理方法,其特征在于,
所述第一图像和所述第二图像由所述胶囊内窥镜连续采集获得,所述胶囊内窥镜为单目胶囊内窥镜,所述光流由所述胶囊内窥镜的运动而产生。
3.根据权利要求2所述的图像处理方法,其特征在于,
所述第一图像和所述第二图像为相邻帧的两幅图像,所述第一图像为当前帧的图像,所述第二图像为下一帧的图像。
4.根据权利要求1所述的图像处理方法,其特征在于,
所述多个特征点包括至少8个特征点。
5.根据权利要求1所述的图像处理方法,其特征在于,
所述基于卷积运算的神经网络的训练步骤包括:准备多组的组织腔体内壁图像对,所述组织腔体内壁图像对为对具有褶皱内壁的组织腔体内的同一区域以不同的方向进行采集获得的两幅图像,且分别为第一训练图像和第二训练图像;将每组组织腔体内壁图像对的第一训练图像和第二训练图像依次输入所述神经网络以获取所述第一训练图像内的第一像素点的前向光流;交换第一训练图像和第二训练图像的输入顺序以获取所述第二训练图像内与所述第一像素点对应的第二像素点的后向光流;基于所述前向光流和所述后向光流计算损失函数;并且基于所述损失函数对所述神经网络进行评估并优化。
6.根据权利要求5所述的图像处理方法,其特征在于,
所述损失函数包括结构相似性损失项、几何前后一致性损失项以及光流平滑度损失项。
7.根据权利要求6所述的图像处理方法,其特征在于,
所述结构相似性损失项包括第一预测图像与所述第一训练图像的第一结构相似性损失项和第二预测图像与所述第二训练图像的第二结构相似性损失项,所述第一预测图像通过所述前向光流作用于所述第二训练图像生成,所述第二预测图像通过所述后向光流作用于所述第一训练图像生成。
8.根据权利要求6所述的图像处理方法,其特征在于,
所述光流平滑度损失项包括所述前向光流的全变分损失与所述后向光流的全变分损失。
9.根据权利要求6所述的图像处理方法,其特征在于,
所述几何前后一致性损失项为所述第一训练图像内的第一像素点的前向光流与所述第二训练图像内与第一像素点对应的第二像素点的后向光流的差值。
CN202011120581.4A 2020-10-19 2020-10-19 基于光流获得组织腔体三维图像的处理方法 Active CN112348940B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202011120581.4A CN112348940B (zh) 2020-10-19 2020-10-19 基于光流获得组织腔体三维图像的处理方法
CN202211501869.5A CN115841537A (zh) 2020-10-19 2020-10-19 组织腔体的三维图像的重建方法
CN202211502504.4A CN115761101A (zh) 2020-10-19 2020-10-19 组织腔体内的胶囊内窥镜的本质矩阵的计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011120581.4A CN112348940B (zh) 2020-10-19 2020-10-19 基于光流获得组织腔体三维图像的处理方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
CN202211501869.5A Division CN115841537A (zh) 2020-10-19 2020-10-19 组织腔体的三维图像的重建方法
CN202211502504.4A Division CN115761101A (zh) 2020-10-19 2020-10-19 组织腔体内的胶囊内窥镜的本质矩阵的计算方法

Publications (2)

Publication Number Publication Date
CN112348940A CN112348940A (zh) 2021-02-09
CN112348940B true CN112348940B (zh) 2022-11-01

Family

ID=74362226

Family Applications (3)

Application Number Title Priority Date Filing Date
CN202011120581.4A Active CN112348940B (zh) 2020-10-19 2020-10-19 基于光流获得组织腔体三维图像的处理方法
CN202211501869.5A Pending CN115841537A (zh) 2020-10-19 2020-10-19 组织腔体的三维图像的重建方法
CN202211502504.4A Pending CN115761101A (zh) 2020-10-19 2020-10-19 组织腔体内的胶囊内窥镜的本质矩阵的计算方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
CN202211501869.5A Pending CN115841537A (zh) 2020-10-19 2020-10-19 组织腔体的三维图像的重建方法
CN202211502504.4A Pending CN115761101A (zh) 2020-10-19 2020-10-19 组织腔体内的胶囊内窥镜的本质矩阵的计算方法

Country Status (1)

Country Link
CN (3) CN112348940B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109801360A (zh) * 2018-12-24 2019-05-24 北京理工大学 基于图像的胃肠三维重构和可视化方法
CN111080778A (zh) * 2019-12-23 2020-04-28 电子科技大学 一种双目内窥镜软组织图像的在线三维重建方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014193670A2 (en) * 2013-05-29 2014-12-04 Capso Vision, Inc. Reconstruction of images from an in vivo multi-camera capsule
US20190392591A1 (en) * 2018-06-25 2019-12-26 Electronics And Telecommunications Research Institute Apparatus and method for detecting moving object using optical flow prediction
US11288818B2 (en) * 2019-02-19 2022-03-29 The Trustees Of The University Of Pennsylvania Methods, systems, and computer readable media for estimation of optical flow, depth, and egomotion using neural network trained using event-based learning
CN110599501B (zh) * 2019-09-05 2022-02-11 北京理工大学 一种胃肠结构的真实尺度三维重建及可视化方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109801360A (zh) * 2018-12-24 2019-05-24 北京理工大学 基于图像的胃肠三维重构和可视化方法
CN111080778A (zh) * 2019-12-23 2020-04-28 电子科技大学 一种双目内窥镜软组织图像的在线三维重建方法

Also Published As

Publication number Publication date
CN115841537A (zh) 2023-03-24
CN115761101A (zh) 2023-03-07
CN112348940A (zh) 2021-02-09

Similar Documents

Publication Publication Date Title
CN111325794B (zh) 一种基于深度卷积自编码器的视觉同时定位与地图构建方法
Engin et al. Cycle-dehaze: Enhanced cyclegan for single image dehazing
CN111402146B (zh) 图像处理方法以及图像处理装置
CN105245841B (zh) 一种基于cuda的全景视频监控系统
Zhang et al. A categorization of multiscale-decomposition-based image fusion schemes with a performance study for a digital camera application
US6819318B1 (en) Method and apparatus for modeling via a three-dimensional image mosaic system
CN112733950A (zh) 一种基于图像融合与目标检测结合的电力设备故障诊断方法
CN112184604B (zh) 一种基于图像融合的彩色图像增强方法
CN114049434B (zh) 一种基于全卷积神经网络的3d建模方法及系统
CN113221665A (zh) 一种基于动态最佳缝合线和改进渐入渐出法的视频融合算法
CN111553841B (zh) 一种基于最佳缝合线更新的实时视频拼接方法
CN112307826A (zh) 行人检测方法、装置、计算机可读存储介质和芯片
CN113436130B (zh) 一种非结构光场智能感知系统与装置
CN107767339A (zh) 一种双目立体图像拼接方法
CN114429555A (zh) 由粗到细的图像稠密匹配方法、系统、设备及存储介质
CN112446835A (zh) 图像恢复方法、图像恢复网络训练方法、装置和存储介质
Li et al. Real-world deep local motion deblurring
CN115063562A (zh) 一种基于多视图三维重建的虚实融合增强现实呈现方法
CN114996814A (zh) 一种基于深度学习与三维重建的家具设计系统
Li et al. Learning single image defocus deblurring with misaligned training pairs
Luo et al. Video super-resolution using multi-scale pyramid 3d convolutional networks
Nouduri et al. Deep realistic novel view generation for city-scale aerial images
Zhang et al. Structure-preserving stereoscopic view synthesis with multi-scale adversarial correlation matching
CN112348940B (zh) 基于光流获得组织腔体三维图像的处理方法
Khan et al. Towards monocular neural facial depth estimation: Past, present, and future

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Hu Juan

Inventor after: Huang Peihai

Inventor before: Huang Peihai