CN114049337A - 一种基于人工智能的隧道变形检测方法及系统 - Google Patents
一种基于人工智能的隧道变形检测方法及系统 Download PDFInfo
- Publication number
- CN114049337A CN114049337A CN202111373714.3A CN202111373714A CN114049337A CN 114049337 A CN114049337 A CN 114049337A CN 202111373714 A CN202111373714 A CN 202111373714A CN 114049337 A CN114049337 A CN 114049337A
- Authority
- CN
- China
- Prior art keywords
- displacement
- image
- pixel point
- deformation
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/44—Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/46—Analysis of texture based on statistical description of texture using random fields
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30132—Masonry; Concrete
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及人工智能技术领域,具体涉及一种基于人工智能的隧道变形检测方法及系统。该方法根据相邻两帧的隧道图像中像素点的相似情况获得位移分布图。结合图像的特点通过重构损失函数、视角位移约束损失函数和变形位移约束损失函数共同约束深度神经网络。利用深度神经网络处理位移分布图,输出变形位移分布图和视角位移分布图。根据变形位移分布图分析像素点的位移信息。本发明利用深度神经网络去除图像中因为相机视角产生位移,准确的检测了隧道变形信息。
Description
技术领域
本发明涉及人工智能技术领域,具体涉及一种基于人工智能的隧道变形检测方法及系统。
背景技术
隧道在开挖时改变了围岩的受力分布,会导致隧道发生变形,例如拱顶的沉降变形、偏压引起的拱脚变形、偏压引起的侧墙变形。在隧道施工时需要对隧道形变进行及时有效的检测,避免施工事故发生。
在现有技术中,通常会在隧道上多个位置设置传感器,通过传感器感受当前位置处的位移变化。利用传感器检测隧道形变需要在隧道多处位置都设置传感器进行检测,不仅成本耗费较大且检测的范围有限,为了提高检测范围需要继续设置多个传感器,加大了成本的投入。
为了减少成本的投入,会通过图像处理的方法通过不同时间段隧道图像的差异检测隧道变形的特征。但是在图像分析过程中会因为相机参数和设置位置的问题导致图像本身发生视角上的位移,形成误差,对检测结果的准确程度造成影响。
发明内容
为了解决上述技术问题,本发明的目的在于提供一种基于人工智能的隧道变形检测方法及系统,所采用的技术方案具体如下:
本发明提出了一种基于人工智能的隧道变形检测方法,所述方法包括:
根据预设采样时间获取连续多帧的隧道图像;以目标时刻对应的一帧所述隧道图像作为目标图像;以所述目标图像前一帧所述隧道图像作为对比图像;
获得所述对比图像和所述目标图像上每个像素点的预设邻域范围内的颜色分布特征和纹理分布特征;根据每个所述对比图像的像素点与所述目标图像内所有像素点的像素值差异、所述颜色分布特征的相似度和所述纹理分布特征的相似度获得所述对比图像中每个像素点在其他位置上的位移概率,根据所述位移概率获得位移分布图;
将所述对比图像中所有像素点的所述位移分布图输入预先训练好的深度神经网络中,输出多个变形位移分布图和多个视角位移分布图;所述深度神经网络的损失函数包括重构损失函数、视角位移约束损失函数和变形位移约束损失函数;根据所述变形位移分布图和所述视角位移分布图与所述位移分布图的差异获得所述重构损失函数;将所有所述视角位移分布图叠加求平均,获得平均视角位移分布图,根据每个所述视角位移分布图和所述平均视角位移分布图的差异获得视角位移约束损失函数;以所述对比图像中的像素点的所述邻域范围内其他像素点位置处的所述颜色分布特征和所述纹理分布特征的复杂度作为变形位移权重,根据所述变形位移分布图和对应所述对比图像中像素点的所述邻域范围其他像素点的所述变形位移分布图的差异和所述变形位移权重获得所述变形位移约束损失函数;
根据每个所述变形位移分布图获得所述目标时刻下产生的位移信息。
进一步地,所述获得所述对比图像和所述目标图像上每个像素点的预设邻域范围内的颜色分布特征包括:
将所述邻域范围内的图像转换为灰度图;将所述灰度图进行滤波,获得低频滤波图像;根据所述低频滤波图像的灰度直方图获得每个灰度值的第一出现概率;以所述第一出现概率构成的向量作为所述颜色分布特征。
进一步地,所述获得所述对比图像和所述目标图像上每个像素点的预设邻域范围内的纹理分布特征包括:
将所述灰度图与所述低频滤波图像做差,获得高频滤波图像;获得所述高频滤波图像中每个像素点的梯度方向,获得梯度直方图;根据所述梯度直方图获得每个所述梯度方向的第二出现概率;以所述第二出现概率构成的向量作为所述纹理分布特征。
进一步地,所述根据每个所述对比图像的像素点与所述目标图像内所有像素点的像素值差异、所述颜色分布特征的相似度和所述纹理分布特征的相似度获得所述对比图像中每个像素点在其他位置上的位移概率包括:
根据位移概率公式获得所述位移概率;所述位移概率公式包括:
其中,D(p,q)为所述对比图像中第p个像素点到所述目标图像中第q个像素点位置的所述位移概率,sim()为余弦相似度函数,v1p为所述对比图像中第p个像素点的所述颜色分布特征,v1q为所述目标图像中第q个像素点的所述颜色分布特征,v2p为所述对比图像中第p个像素点的所述纹理分布特征,v2q为所述目标图像中第q个像素点的所述纹理分布特征,f2(q)为所述目标图像中第q个像素点的像素值信息,f1(p)为所述对比图像中第p个像素点的像素值信息。
进一步地,所述根据所述变形位移分布图和所述视角位移分布图与所述位移分布图的差异获得所述重构损失函数包括:
其中,Loss1为所述重构损失函数,N为所述位移分布图的像素点个数,为所述对比图像中第i个像素点对应的所述视角位移分布图上第h个像素点的像素值,为所述对比图像中第i个像素点对应的所述变形位移分布图上第h个像素点的像素值,Ii(h)为所述对比图像中第i个像素点对应的所述位移分布图上第h个像素点的像素值。
进一步地,所述根据每个所述视角位移分布图和所述平均视角位移分布图的差异获得视角位移约束损失函数包括:
获得所述视角位移分布图的第一熵和所述变形位移分布图的第二熵,结合每个所述视角位移分布图和所述平均视角位移分布图的差异获得所述视角位移约束损失函数;所述视角位移约束损失函数包括:
其中,Loss2为所述视角位移约束损失函数,为所述对比图像中第i个像素点对应的所述视角位移分布图,K为所述对比图像的像素点数量,为所述对比图像中第k个像素点对应的所述视角位移分布图,为所述对比图像中第i个像素点对应的所述变形位移分布图的熵,为所述对比图像中第i个像素点对应的所述视角位移分布图的熵。
进一步地,所述以所述变形位移分布图对应的像素点的所述邻域范围内其他像素点位置处的所述颜色分布特征和所述纹理分布特征的复杂度作为变形位移权重包括:
以所述所述颜色分布特征和所述纹理分布特征的熵作为复杂度,根据所述变形位移权重公式获得所述变形位移权重;所述变形位移权重公式包括:
wi,m=exp(H(v2m)+H(v1m))
其中,wi,m为所述对比图像中第i个像素点的所述邻域范围内第m个其他像素点的所述变形位移权重,H()为熵计算公式,v2m为所述对比图像中第i个像素点的所述邻域范围内第m个其他像素点的所述纹理分布特征,v1m为所述对比图像中第i个像素点的所述邻域范围内第m个其他像素点的所述颜色分布特征。
进一步地,所述根据所述变形位移分布图和对应像素点的所述邻域范围其他像素点的所述变形位移分布图的差异和所述变形位移权重获得所述变形位移约束损失函数包括:
其中,Loss3为所述变形位移约束损失函数,V为所述邻域范围内的像素点数量,wi,m为所述对比图像中第i个像素点的所述邻域范围内第m个其他像素点的所述变形位移权重,为所述对比图像中第i个像素点对应的所述变形位移分布图,为所述对比图像中第i个像素点的所述邻域范围内第m个其他像素点对应的所述变形位移分布图。
进一步地,所述根据每个所述变形位移分布图获得所述目标时刻下产生的位移信息包括:
以所述变形位移分布图上像素值最大的像素点的坐标信息作为对应所述对比图像上像素点的位移坐标;所述对比图像上像素点的坐标和对应的所述位移坐标构成位移向量;根据所述位移向量获得所述位移信息。
本发明还提出了一种基于人工智能的隧道变形检测系统,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现任意一项所述一种基于人工智能的隧道变形检测方法的步骤。
本发明具有如下有益效果:
1、本发明实施例通过不同时间段的两张隧道图像上每个像素点位置处的像素值信息、颜色分布特征和纹理分布特征构建位移分布图。通过深度神经网络将位移分布图拆分为变形位移分布图和视角位移分布图,仅分析变形位移分布图中的信息,在节约检测成本的同时获得了准确的位移信息。
2、本发明实施例中的深度神经网络通过三个部分的损失函数对变形位移分布图和视角位移分布图进行准确的求取。重构损失函数能够保证获得的变形位移分布图和视角位移分布图相对于位移分布图的准确性。因为相机位置固定,所以图像中所有像素点位置的位移偏差都相同,视角位移约束损失函数利用该特点将视角位移分布图进行约束,保证了视角位移分布图的准确性。变形位移约束损失函数利用变形位移权重使得网络更关注纹理复杂的区域,抑制了在颜色和纹理均匀分布区域上产生的误差。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案和优点,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它附图。
图1为本发明一个实施例所提供的一种基于人工智能的隧道变形检测方法流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种基于人工智能的隧道变形检测方法及系统,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构、或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的一种基于人工智能的隧道变形检测方法及系统的具体方案。
请参阅图1,其示出了本发明一个实施例提供的一种基于人工智能的隧道变形检测方法流程图,该方法包括:
步骤S1:根据预设采样时间获取连续多帧的隧道图像;以目标时刻对应的一帧隧道图像作为目标图像;以目标图像前一帧隧道图像作为对比图像。
在隧道内部需要检测变形的区域部署相机,根据预设采样时间获取连续多帧的隧道图像。在本发明实施例中,相机采集的图像数据为RGB图像数据,采样时间设置为两个小时,即每两个小时采集一帧隧道图像。
如果待检测区域发生了变形产生了位移,则可以通过图像差异获得隧道的变形情况,以要获取位移信息的目标时刻对应的一帧隧道图像作为目标图像,目标图像前一帧图像作为对比图像。在变形过程中,对比图像中会存在像素点移动至目标图像中的某个位置。
在本发明实施例中,获得隧道图像后对隧道图像利用大小为3*3的高斯核进行低通滤波,保证图像质量。
步骤S2:获得对比图像和目标图像上每个像素点的预设邻域范围内的颜色分布特征和纹理分布特征;根据每个对比图像的像素点与目标图像内所有像素点的像素值差异、颜色分布特征的相似度和纹理分布特征的相似度获得对比图像中每个像素点在其他位置上的位移概率,根据位移概率获得位移分布图。
如果隧道内在一定时间段内发生了变形,则在对比图像中会体现出一个像素点p移动到目标图像中一个像素点q的位置处。因此可根据像素点之间的特征信息判断两个像素点的相似程度,越相似意味着像素点p移动到像素点q位置处的概率越大。
为了避免概率误差较大,在分析两个像素点的相似程度时不仅需要考虑像素值信息,还需要考虑该像素点周围的信息,即获得对比图像和目标图像上每个像素点在预设邻域范围内的颜色分布特征和纹理分布特征,具体包括:
将邻域范围内的图像转换为灰度图。将灰度图进行滤波,获得低频滤波图像。根据低频滤波图像的灰度直方图获得每个灰度值的第一出现概率。灰度直方图可视为一个一维向量,即第一出现概率构成该一维向量,向量中每个元素的位置对应一个灰度值,元素的大小为第一出现概率。因为低频滤波图像中仅保留了低频的颜色信息,属于高频的纹理信息被去除,因此以该第一出现概率构成的向量作为颜色分布特征。
在本发明实施例中,邻域范围大小为17*17。滤波采用高斯滤波法,高斯核大小为11*11。
将灰度图与低频滤波图像做差,获得高频滤波图像。高频滤波图像中仅保留复杂的纹理信息。获得高频滤波图像中每个像素点的梯度方向,经过统计后获得梯度直方图。根据梯度直方图获得每个梯度方向的第二出现概率。与颜色分布特征相似的,以第二出现概率构成的向量作为纹理分布特征。
根据每个对比图像的像素点与目标图像内所有像素点的像素值差异、颜色分布特征的相似度和纹理分布特征的相似度获得对比图像中每个像素点在其他位置上的位移概率,具体包括:
根据位移概率公式获得位移概率;位移概率公式包括:
其中,D(p,q)为对比图像中第p个像素点到目标图像中第q个像素点位置的位移概率,sim()为余弦相似度函数,v1p为对比图像中第p个像素点的颜色分布特征,v1q为目标图像中第q个像素点的颜色分布特征,v2p为对比图像中第p个像素点的纹理分布特征,v2q为目标图像中第q个像素点的纹理分布特征,f2(q)为目标图像中第q个像素点的像素值信息,f1(p)为对比图像中第p个像素点的像素值信息。
位移概率公式,利用exp(-‖f2(q)-f1(p)‖2)表示两个像素点像素值信息的相似程度,‖‖2为二范数计算符号。利用余弦相似度sim()计算颜色分布特征和纹理分布特征的相似度,sim(v1p,v1q)越大说明两个像素点周围的颜色分布越相似,sim(v2p,v2q)越大说明两个像素点周围的纹理分布越相似。像素值信息越相似,颜色分布特征和纹理分布特征越相似,则对应的位移概率越大。
需要说明的是,在本发明实施例中,隧道图像为RGB图像数据,因此像素值信息f2(q)和f1(p)为一个三维向量,向量的每个维度分别对应图像的R、G、B的通道。
获得对比图像中每个像素点到目标图像中所有像素点位置的位移概率,获得位移分布图。位移分布图中像素点的像素值大小表示对应的对比图像中的像素点移动到该位移分布图中某一位置处的概率。
步骤S3:将对比图像中所有像素点的位移分布图输入预先训练好的深度神经网络中,输出多个变形位移分布图和多个视角位移分布图。
因为在图像中产生的位移效果有两方面产生,一种是隧道本身产生的变形在图像上体现的形变,一种是因为相机参数和相机视角造成的形变。在位移分析过程中视角影响的产生的形变为误差信息,需要准确的将位移分布图拆分为变形位移分布图和视角位移分布图。
获得对比图像中所有像素点的位移分布图,利用深度神经网络处理位移分布图,输出多个变形位移分布图和多个视角位移分布图。深度神经网络的任务是将位移分布图拆分为变形位移分布图和视角位移分布图,因此该网络为无监督训练网络,需要通过多个约束条件形成损失函数对网络进行拟合。深度神经网络的损失函数Loss包括重构损失函数Loss1、视角位移约束损失函数loss2和变形位移约束损失函数Loss3,即:Loss=Loss1+loss2+Loss3。
重构损失函数的目的在于对输出的变形位移分布和视角位移分布图进行整体约束,达到重构效果。图像中隧道的位移是由本身变形和相机视角构成的,即变形位移分布图和视角位移分布图共同构成了位移分布图,因此根据变形位移分布图和视角位移分布图与位移分布图的差异获得重构损失函数,重构损失函数Loss1的具体形式为:
其中,Loss1为所述重构损失函数,N为所述位移分布图的像素点个数,为所述对比图像中第i个像素点对应的所述视角位移分布图上第h个像素点的像素值,为所述对比图像中第i个像素点对应的所述变形位移分布图上第h个像素点的像素值,Ii(h)为所述对比图像中第i个像素点对应的所述位移分布图上第h个像素点的像素值。
视角位移是因为相机造成的,所以相机对图像中每个像素点的误差都是相同的,根据此特点将所有视角位移分布图叠加求平均,获得平均视角位移分布图,根据每个视角位移分布图和平均视角位移分布图的差异获得视角位移约束损失函数,视角位移约束损失函数Loss2的具体形式为:
其中,Loss2为视角位移约束损失函数,为对比图像中第i个像素点对应的视角位移分布图,K为对比图像的像素点数量,为对比图像中第k个像素点对应的视角位移分布图,为对比图像中第i个像素点对应的变形位移分布图的熵,为对比图像中第i个像素点对应的视角位移分布图的熵。
视角位移约束损失函数期望第i个像素点对应的视角位移分布图与平均视角分布图的差异尽可能的小,即每个视角位移分布图尽可能的一致。进一步为了保证每个像素点具有明确的由隧道本身变形产生的位移和相机视角产生的位移,引入变形位移分布图和视角位移分布图的熵,通过让熵的和尽可能的小,来明确变形位移分布图和视角位移分布图的特征。
在隧道图像中存在一些像素值分布均匀且颜色纹理也均匀的区域,当对比图像上的像素点属于这种区域时,为了避免在变形位移分布中像素点在该区域的位移概率大,产生误差,变形位移分布图需要更关注周围区域颜色和纹理复杂的位置,因此以对比图像中的像素点的邻域范围内其他像素点位置处的颜色分布特征和纹理分布特征的复杂度作为变形位移权重,具体包括:
以颜色分布特征和纹理分布特征的熵作为复杂度,根据变形位移权重公式获得变形位移权重。变形位移权重公式包括:
wi,m=exp(H(v2m)+H(v1m))
其中,wi,m为对比图像中第i个像素点的邻域范围内第m个其他像素点的变形位移权重,H()为熵计算公式,v2m为对比图像中第i个像素点的邻域范围内第m个其他像素点的纹理分布特征,v1m为对比图像中第i个像素点的邻域范围内第m个其他像素点的颜色分布特征。
变形位移权重越大表示对应的周围邻域范围内的纹理复杂度越大,则越需要关注此处的信息,此处的信息参考意义更大;相反,对于颜色纹理不复杂的区域误识别的可能性较大,因此参考意义较小。
根据变形位移分布图和对应对比图像中像素点的邻域范围其他像素点的变形位移分布图的差异和变形位移权重获得变形位移约束损失函数,变形位移约束损失函数的具体形式为:
其中,Loss3为变形位移约束损失函数,V为邻域范围内的像素点数量,wi,m为对比图像中第i个像素点的邻域范围内第m个其他像素点的变形位移权重,为对比图像中第i个像素点对应的变形位移分布图,为对比图像中第i个像素点的邻域范围内第m个其他像素点对应的变形位移分布图。
因为隧道真实的变形过程中为一块区域移动到另一块区域,因此逐像素点分析过程中需要保证相邻像素点的变形位移分布图一致,因此变形位移约束损失函数期望尽可能的小,且以变形位移权重作为权重,更关注复杂纹理位置处的在网络拟合过程中,变形位移权重越大的则对应的需要更小才能满足约束条件。
通过深度神经网络的损失函数对网络输出进行约束,经过训练数据的训练及验证后完成网络的训练。在本发明实施例中深度神经网络选用编码-解码结构,具体训练方法为常规技术手段,在此不再赘述。
步骤S4:根据每个变形位移分布图获得目标时刻下产生的位移信息。
仅保留网络输出的变形位移分布图对变形进行分析。每个变形位移分布图对应对比图像中一个像素点的位移概率分布,以变形位移分布图上像素值最大的像素点的坐标信息作为对应对比图像上像素点的位移坐标。对比图像上像素点的坐标和对应的位移坐标构成位移向量。根据位移向量获得位移信息。位移向量可分析出像素点的位移距离、位移方向等多种位移信息,可根据具体任务需要具体获得,在此不做约束。
通过获得每个像素点的位移信息,可用于帮助后续隧道施工项目的安全预警或者建设维修等工作。
综上所述,本发明实施例根据相邻两帧的隧道图像中像素点的相似情况获得位移分布图。结合图像的特点通过重构损失函数、视角位移约束损失函数和变形位移约束损失函数共同约束深度神经网络。利用深度神经网络处理位移分布图,输出变形位移分布图和视角位移分布图。根据变形位移分布图分析像素点的位移信息。本发明实施例利用深度神经网络去除图像中因为相机视角产生位移,准确的检测了隧道变形信息。
本发明还提出了一种基于人工智能的隧道变形检测系统,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现任意一项一种基于人工智能的隧道变形检测方法的步骤。
需要说明的是:上述本发明实施例先后顺序仅仅为了描述,不代表实施例的优劣。且上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于人工智能的隧道变形检测方法,其特征在于,所述方法包括:
根据预设采样时间获取连续多帧的隧道图像;以目标时刻对应的一帧所述隧道图像作为目标图像;以所述目标图像前一帧所述隧道图像作为对比图像;
获得所述对比图像和所述目标图像上每个像素点的预设邻域范围内的颜色分布特征和纹理分布特征;根据每个所述对比图像的像素点与所述目标图像内所有像素点的像素值差异、所述颜色分布特征的相似度和所述纹理分布特征的相似度获得所述对比图像中每个像素点在其他位置上的位移概率,根据所述位移概率获得位移分布图;
将所述对比图像中所有像素点的所述位移分布图输入预先训练好的深度神经网络中,输出多个变形位移分布图和多个视角位移分布图;所述深度神经网络的损失函数包括重构损失函数、视角位移约束损失函数和变形位移约束损失函数;根据所述变形位移分布图和所述视角位移分布图与所述位移分布图的差异获得所述重构损失函数;将所有所述视角位移分布图叠加求平均,获得平均视角位移分布图,根据每个所述视角位移分布图和所述平均视角位移分布图的差异获得视角位移约束损失函数;以所述对比图像中的像素点的所述邻域范围内其他像素点位置处的所述颜色分布特征和所述纹理分布特征的复杂度作为变形位移权重,根据所述变形位移分布图和对应所述对比图像中像素点的所述邻域范围其他像素点的所述变形位移分布图的差异和所述变形位移权重获得所述变形位移约束损失函数;
根据每个所述变形位移分布图获得所述目标时刻下产生的位移信息。
2.根据权利要求1所述的一种基于人工智能的隧道变形检测方法,其特征在于,所述获得所述对比图像和所述目标图像上每个像素点的预设邻域范围内的颜色分布特征包括:
将所述邻域范围内的图像转换为灰度图;将所述灰度图进行滤波,获得低频滤波图像;根据所述低频滤波图像的灰度直方图获得每个灰度值的第一出现概率;以所述第一出现概率构成的向量作为所述颜色分布特征。
3.根据权利要求2所述的一种基于人工智能的隧道变形检测方法,其特征在于,所述获得所述对比图像和所述目标图像上每个像素点的预设邻域范围内的纹理分布特征包括:
将所述灰度图与所述低频滤波图像做差,获得高频滤波图像;获得所述高频滤波图像中每个像素点的梯度方向,获得梯度直方图;根据所述梯度直方图获得每个所述梯度方向的第二出现概率;以所述第二出现概率构成的向量作为所述纹理分布特征。
4.根据权利要求1所述的一种基于人工智能的隧道变形检测方法,其特征在于,所述根据每个所述对比图像的像素点与所述目标图像内所有像素点的像素值差异、所述颜色分布特征的相似度和所述纹理分布特征的相似度获得所述对比图像中每个像素点在其他位置上的位移概率包括:
根据位移概率公式获得所述位移概率;所述位移概率公式包括:
其中,D(p,q)为所述对比图像中第p个像素点到所述目标图像中第q个像素点位置的所述位移概率,sim()为余弦相似度函数,v1p为所述对比图像中第p个像素点的所述颜色分布特征,v1q为所述目标图像中第q个像素点的所述颜色分布特征,v2p为所述对比图像中第p个像素点的所述纹理分布特征,v2q为所述目标图像中第q个像素点的所述纹理分布特征,f2(q)为所述目标图像中第q个像素点的像素值信息,f1(p)为所述对比图像中第p个像素点的像素值信息。
6.根据权利要求1所述的一种基于人工智能的隧道变形检测方法,其特征在于,所述根据每个所述视角位移分布图和所述平均视角位移分布图的差异获得视角位移约束损失函数包括:
获得所述视角位移分布图的第一熵和所述变形位移分布图的第二熵,结合每个所述视角位移分布图和所述平均视角位移分布图的差异获得所述视角位移约束损失函数;所述视角位移约束损失函数包括:
7.根据权利要求1所述的一种基于人工智能的隧道变形检测方法,其特征在于,所述以所述变形位移分布图对应的像素点的所述邻域范围内其他像素点位置处的所述颜色分布特征和所述纹理分布特征的复杂度作为变形位移权重包括:
以所述所述颜色分布特征和所述纹理分布特征的熵作为复杂度,根据所述变形位移权重公式获得所述变形位移权重;所述变形位移权重公式包括:
wi,m=exp(H(v2m)+H(v1m))
其中,wi,m为所述对比图像中第i个像素点的所述邻域范围内第m个其他像素点的所述变形位移权重,H()为熵计算公式,v2m为所述对比图像中第i个像素点的所述邻域范围内第m个其他像素点的所述纹理分布特征,v1m为所述对比图像中第i个像素点的所述邻域范围内第m个其他像素点的所述颜色分布特征。
9.根据权利要求1所述的一种基于人工智能的隧道变形检测方法,其特征在于,所述根据每个所述变形位移分布图获得所述目标时刻下产生的位移信息包括:
以所述变形位移分布图上像素值最大的像素点的坐标信息作为对应所述对比图像上像素点的位移坐标;所述对比图像上像素点的坐标和对应的所述位移坐标构成位移向量;根据所述位移向量获得所述位移信息。
10.一种基于人工智能的隧道变形检测系统,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1~9任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111373714.3A CN114049337A (zh) | 2021-11-19 | 2021-11-19 | 一种基于人工智能的隧道变形检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111373714.3A CN114049337A (zh) | 2021-11-19 | 2021-11-19 | 一种基于人工智能的隧道变形检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114049337A true CN114049337A (zh) | 2022-02-15 |
Family
ID=80210039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111373714.3A Pending CN114049337A (zh) | 2021-11-19 | 2021-11-19 | 一种基于人工智能的隧道变形检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114049337A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116152106A (zh) * | 2023-02-23 | 2023-05-23 | 朱林清 | 基于深度神经网络的数据鉴定系统 |
-
2021
- 2021-11-19 CN CN202111373714.3A patent/CN114049337A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116152106A (zh) * | 2023-02-23 | 2023-05-23 | 朱林清 | 基于深度神经网络的数据鉴定系统 |
CN116152106B (zh) * | 2023-02-23 | 2024-06-04 | 山东创恩信息科技股份有限公司 | 基于深度神经网络的数据鉴定系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9536147B2 (en) | Optical flow tracking method and apparatus | |
JP6088792B2 (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
US20180286052A1 (en) | Object motion mapping using panchromatic and multispectral imagery from single pass electro-optical satellite imaging sensors | |
US7881531B2 (en) | Error propogation and variable-bandwidth mean shift for feature space analysis | |
US20080232707A1 (en) | Motion blurred image restoring method | |
CN103903278A (zh) | 运动目标检测与跟踪系统 | |
CN112307901B (zh) | 一种面向滑坡检测的sar与光学影像融合方法及系统 | |
CN110378924B (zh) | 基于局部熵的水平集图像分割方法 | |
CN105335965B (zh) | 一种高分辨率遥感图像多尺度自适应决策融合分割方法 | |
US10249046B2 (en) | Method and apparatus for object tracking and segmentation via background tracking | |
CN109919053A (zh) | 一种基于监控视频的深度学习车辆停车检测方法 | |
CN108830808B (zh) | 基于相似线窗口均值补偿的星上红外图像条纹噪声去除方法 | |
CN105405138B (zh) | 基于显著性检测的水面目标跟踪方法 | |
CN111967466B (zh) | 一种利用多方向稀疏低秩分解的红外弱小目标检测方法 | |
US7110023B2 (en) | Method and apparatus for target object extraction from an image | |
CN111178193A (zh) | 一种车道线的检测方法、检测装置及计算机可读存储介质 | |
CN113822352A (zh) | 基于多特征融合的红外弱小目标检测方法 | |
CN114049337A (zh) | 一种基于人工智能的隧道变形检测方法及系统 | |
CN108986083B (zh) | 基于阈值优化的sar图像变化检测方法 | |
CN109241981B (zh) | 一种基于稀疏编码的特征检测方法 | |
CN116342891B (zh) | 一种适用于自闭症儿童结构化教学监控数据管理系统 | |
CN117456376A (zh) | 一种基于深度学习的遥感卫星影像目标检测方法 | |
CN114155425B (zh) | 基于高斯马尔可夫随机场运动方向估计的弱小目标检测方法 | |
CN115294035B (zh) | 亮点定位方法、亮点定位装置、电子设备及存储介质 | |
CN100371944C (zh) | 基于反射或透射光强分布特性的灰度图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |