CN116383770B - 环境质量检测方法 - Google Patents
环境质量检测方法 Download PDFInfo
- Publication number
- CN116383770B CN116383770B CN202310652781.1A CN202310652781A CN116383770B CN 116383770 B CN116383770 B CN 116383770B CN 202310652781 A CN202310652781 A CN 202310652781A CN 116383770 B CN116383770 B CN 116383770B
- Authority
- CN
- China
- Prior art keywords
- text
- pixel
- sequence
- time step
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 30
- 230000004927 fusion Effects 0.000 claims abstract description 47
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 35
- 230000007613 environmental effect Effects 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 28
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 18
- 230000007246 mechanism Effects 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 15
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 230000003044 adaptive effect Effects 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims 1
- 238000013441 quality evaluation Methods 0.000 abstract description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 24
- 230000006870 function Effects 0.000 description 11
- 238000001303 quality assessment method Methods 0.000 description 7
- 238000012549 training Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 239000000306 component Substances 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000008358 core component Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Library & Information Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种环境质量检测方法,涉及数据处理技术领域,可应用于环境质量评估技术领域,用于解决现有方法检测的准确性和可信度等偏低的问题,方法包括:获取多源的环境数据,其中,环境数据包括文本数据和图像数据;对文本数据进行向量化处理,得到由多个词条按时序组成的文本序列;对图像数据进行预处理,得到增强图像;利用双向注意力机制和自编码器捕捉文本序列各个词条的上下文相关信息来提取文本特征;基于动态感受野的卷积神经网络提取增强图像的局部信息和全局信息;对文本序列、局部信息和全局信息进行融合,得到融合特征;根据融合特征确定环境质量检测结果。
Description
技术领域
本发明涉及数据处理技术领域,可应用于环境质量评估技术领域,尤其涉及一种环境质量检测方法。
背景技术
生态环境问题是关系到国计民生的大问题。传统的环境质量评估方法主要依赖于人工采样和测试,受限于时间和空间,难以全面、准确地评估环境质量。随着技术的发展,基于传感器、遥感和大数据分析的环境监测技术逐渐兴起,为环境质量评估提供了新的思路和方法。然而,这些技术本身存在一些局限性,比如传感器采集到的数据可能存在噪声和误差,遥感数据覆盖范围和分辨率有限,大数据分析需要处理海量的数据和复杂的关联性。因此,如何综合利用多源数据,充分挖掘环境信息,提高评估的准确性和可信度,成为了环境质量评估的重要研究方向。
发明内容
针对上述技术问题,本发明提供一种环境质量检测方法,用于至少部分解决上述技术问题。
基于此,本发明提供一种环境质量检测方法,包括:获取多源的环境数据,其中,环境数据包括文本数据和图像数据;对文本数据进行向量化处理,得到由多个词条按时序组成的文本序列;对图像数据进行预处理,得到增强图像;利用双向注意力机制和自编码器捕捉文本序列各个词条的上下文相关信息来提取文本特征;基于动态感受野的卷积神经网络提取增强图像的局部信息和全局信息;对文本序列、局部信息和全局信息进行融合,得到融合特征;根据融合特征确定环境质量检测结果。
根据本发明实的施例,利用双向注意力机制和自编码器捕捉文本序列各个词条的上下文相关信息来提取文本特征包括:利用正向注意力机制计算每个时间步的词条的第一上下文向量,其中,第一上下文向量表征当前时间步的词条与当前时间步之前的时间步的词条之间的第一关联信息;利用反向注意力机制计算每个时间步的词条的第二上下文向量,其中,第二上下文向量表征当前时间步的词条与当前时间步之后的时间步的词条之间的第二关联信息;利用自编码器将文本序列进行处理,得到隐藏状态序列,其中,隐藏状态序列包括每个时间步的词条对应的隐藏状态;将与相同时间步的词条对应的第一上下文向量、第二上下文向量和隐藏状态进行拼接,得到该时间步的词条对应的文本特征。
根据本发明实的施例,自编码器包括正向双向长短时记忆网络和反向双向长短时记忆网络,利用自编码器将文本序列进行处理,得到隐藏状态序列包括:将文本序列输入正向双向长短时记忆网络进行编码,生成正向隐藏状态序列;将文本序列输入反向双向长短时记忆网络进行编码,生成反向隐藏状态序列;将正向隐藏状态序列和反向隐藏状态序列中相同时间步的隐藏状态进行拼接,得到隐藏状态序列。
根据本发明实的施例,基于动态感受野的卷积神经网络提取增强图像的局部信息和全局信息包括:通过动态调整感受野的大小和形状,使得卷积神经网络自适应地提取增强图像的局部信息和全局信息。
根据本发明实的施例,通过动态调整感受野的大小和形状,使得卷积神经网络自适应地提取增强图像的局部信息和全局信息包括:计算增强图像位于感受野内的每个像素的权重;计算增强图像中的每个像素在卷积神经网络中的各个通道的值;根据每个像素的权重和每个像素在卷积神经网络中的各个通道的值确定增强图像的局部信息和全局信息。
根据本发明实的施例,计算增强图像位于感受野内的每个像素的权重包括:根据
计算感受野内位置为(i,j)的像素的权重W i,j (m,n),R为感受野的尺寸阈值,(i+m,j+n)为位置为(i,j)的像素的邻域像素,(m,n)为位置为(i,j)的像素与位置为(i+m,j+n)的邻域像素之间的位置差值,d i,j (m,n)为位置为(i,j)的像素与位置为(i+m,j+n)的邻域像素之间的欧氏距离,σ为可调参数。
根据本发明实的施例,根据每个像素的权重和每个像素在卷积神经网络中的各个通道的值确定增强图像的局部信息和全局信息包括:
根据
计算增强图像的局部信息和全局信息,其中,C为卷积神经网络的通道数,Y i,j,k 为感受野内位置为(i,j)的像素在卷积神经网络中的第k个输出通道的输出值,X i+m,j+n,p 为感受野内位置为(i+m,j+n)的像素在卷积神经网络中的第p个输入通道的输入值,K p,k 为卷积神经网络中的第p个输入通道到第k个输出通道的卷积核权重。
根据本发明实的施例,采用自适应特征融合神经网络对文本序列、局部信息和全局信息进行融合,自适应特征融合神经网络包括至少一个特征提取层和自适应特征融合层;通过至少一个特征提取从文本序列、局部信息和全局信息提取不同层次的特征;通过自适应特征融合层计算不同层次的特征的权重以及根据权重对不同层次的特征进行加权求和,得到融合特征。
根据本发明实的施例,根据融合特征确定环境质量检测结果包括:将融合特征输入分类器进行分类,得到环境质量检测结果。
根据本发明实的施例,对文本数据进行向量化处理包括:基于TF-IDF的文本向量转化方法对文本数据进行向量化处理;对图像数据进行预处理包括:采用非线性低通滤波方法对图像数据进行滤波。
根据本发明实施例提供的环境质量检测方法,至少包括以下有益效果:
通过采集文本数据和图像数据,充分利用不同数据源的信息,从而提高质量检测结果的可靠性。
针对文本数据,基于双向注意力机制和自编码器结合的方式进行文本特征提取,与传统方法相比,该方法能够更有效地捕捉文本数据中的上下文相关信息,提高特征提取的准确性和泛化能力,进而提高质量检测结果的可靠性及准确性。
针对图像数据,基于动态感受野的卷积神经网络进行特征提取,与传统方法相比,该方法能够自适应地捕捉图像中的局部和全局信息,提高特征提取的准确性和泛化能力,进而提高质量检测结果的可靠性及准确性。
在特征融合过程中,基于自适应特征融合神经网络,通过自动学习多个特征的权重,再基于权重进行特征融合,提高特征融合的泛化能力,进而提高质量检测结果的可靠性及准确性。
附图说明
通过以下参照附图对本发明实施例的描述,本发明的上述以及其他目的、特征图像和优点将更为清楚,在附图中:
图1示意性示出了本发明实施例提供的环境质量检测方法流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本发明。在此使用的术语“包括”、“包含”等表明了所述特征图像、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征图像、步骤、操作或部件。
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接或可以互相通讯;可以是直接连接,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
在本发明的描述中,需要理解的是,术语“纵向”、“长度”、“周向”、“前”、“后”、“左”、“右”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的子系统或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
贯穿附图,相同的元素由相同或相近的附图标记来表示。可能导致本发明的理解造成混淆时,将省略常规结构或构造。并且图中各部件的形状、尺寸、位置关系不反映真实大小、比例和实际位置关系。另外,在本发明中,不应将位于括号之间的任何参考符号构造成对本发明的限制。
类似地,为了精简本发明并帮助理解各个公开方面中的一个或多个,在上面对本发明示例性实施例的描述中,本发明的各个特征图像有时被一起分到单个实施例、图或者对其描述中。参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征图像、结构、材料或者特点包含于本发明的至少一个实施例或示例中。本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征图像、结构、材料或者特点可以在任何的一个或者多个实施例或示例中以合适的方式结合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征图像的数量。因此,限定有“第一”、“第二”的特征图像可以明示或者隐含地包括一个或者更多个该特征图像。在本发明的描述中,“多个”的含义是至少两个,例如两个、三个等,除非另有明确具体的限定。
图1示意性示出了本发明实施例提供的环境质量检测方法流程图。
如图1所示,该环境质量检测方法包括操作S110~操作S160。
在操作S110,获取多源的环境数据。
在本发明的实施例中,环境质量检测所需的多源数据可以包括文本数据和图像数据,可以来自气象、水质、土壤、空气质量、噪声等方面,涵盖了环境质量的不同方面,为环境质量检测提供全面的信息支持。数据采集可以采用多种方式,如传感器、卫星遥感、人工监测等。
在操作S120,对文本数据进行向量化处理,得到由多个词条按时序组成的文本序列,对图像数据进行预处理,得到增强图像。
在本发明的实施例中,可以基于TF-IDF的文本向量转化方法对文本数据进行向量化处理。
示例性地,TF-IDF(term frequency–inverse document frequency)是一种统计方法,用以评估一个字词对于一个数据集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在数据集中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。TF即词频,表示词条在数据中出现的频率,这个数字通常会被归一化,以防止它偏向长语句的数据。TF用公式表示如下:
其中,w a,b 表示词条t a 在数据集d a 中出现的次数,w q,b 表示第q个词条在数据集d a 中出现的次数,k的取值范围为[1,Ku],Ku为为需要统计的词语的总数,TF a,b 表示词条t a 在数据集d a 中出现的频率。
在通常情况下,一些通用的词语对于质量评估并没有太大的作用,反倒是一些出现频率较少的词才能够表达文章的主题,所以只考虑不合适。通过设计权重,如果一个词的分类能力越强,权重则越大,反之,权重则越小。IDF表示关键词的普遍程度。如果包含词a的数据越少,IDF越大,则说明该词条具有很好的类别区分能力。某一特定词语IDF a 的计算公式如下:
其中,|n+m|表示所有数据的数量,|b:t a ∈d b |表示包含词条t a 的数据量。
某一特定高词语频率,以及该词语在整个数据集中的低频率,可以产生出高权重的TF-IDF。因此,TF-IDF倾向于过滤掉常见的词语,保留重要的词语,表达为:
其中,TF_IDF a 为用于评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度系数。
因此,词袋模型只考虑每种词汇在该训练文本中出现的频率,而TF-IDF除了考量某一词汇在当前训练文本中出现的频率之外,同时关注包含这个词汇的其他训练文本数目的倒数。相比之下,训练文本的数量越多,TF-IDF这种特征量化方式就更有优势。
通过计算TF-IDF系数,将文本转化为向量,公式如下:
其中,Xvec为向量化后的数据,TI为TF-IDF计算。
对于图像数据,进行降噪、去冗余等预处理。图像在其采集或传递过程中常会受到各种噪声的影响,导致其中包含的重要信息很难被读取和识别。因此,在对图像进行分析之前需要对图像进行增强,图像质量的改进是图像中有用信息提取的前提,图像质量的好坏在很大程度上影响最终图像信息提取的准确性,从而使其更适合进行下一步分析。为了保证一定的图像清晰度,需要对原始图像进行处理。
在本发明的实施例中,采用非线性低通滤波方法对图像进行滤波,非线性低通滤波器进行滤波时,均值滤波保持像素值不变,当像素P与均值的差值落在一个标准差之外时,将像素的新值设置为均值,公式如下:
其中,P i,j 是像素(i,j)的像素值,μ是像素(i,j)周围某一邻域内像素值的平均值,σ是该邻域内像素值的标准差。H×W为像素的大小。例如,可以采用3×3的尺寸对样本图像进行非线性低通滤波。
在操作S130,利用双向注意力机制和自编码器捕捉文本序列各个词条的上下文相关信息来提取文本特征。
对于文本数据,基于改进的自编码器的文本特征提取方法,该方法利用了双向注意力机制和自编码器的结合,通过捕捉文本数据中的上下文相关信息来提取文本特征。与传统的特征提取方法相比,基于改进的自编码器算法具有更高的准确性和更强的泛化能力。具体过程可以为:
利用正向注意力机制计算每个时间步的词条的第一上下文向量,其中,第一上下文向量表征当前时间步的词条与上一时间步的词条之间的第一关联信息。利用反向注意力机制计算每个时间步的词条的第二上下文向量,其中,第二上下文向量表征当前时间步的词条与下一时间步的词条之间的第二关联信息。利用自编码器将文本序列进行处理,得到隐藏状态序列,其中,隐藏状态序列包括每个时间步的词条对应的隐藏状态。将与相同时间步的词条对应的第一上下文向量、第二上下文向量和隐藏状态进行拼接,得到该时间步的词条对应的文本特征。
其中,自编码器包括正向双向长短时记忆网络和反向双向长短时记忆网络,将文本序列输入正向双向长短时记忆网络进行编码,生成正向隐藏状态序列。将文本序列输入反向双向长短时记忆网络进行编码,生成反向隐藏状态序列。将正向隐藏状态序列和反向隐藏状态序列中相同时间步的隐藏状态进行拼接,得到隐藏状态序列。
示例性地,双向注意力机制可以从两个方向捕捉文本数据的上下文信息。对于一个输入文本序列X=(x1,x2,...,xT),T为文本序列的长度,双向注意力机制计算如下:
正向注意力:对于当前时间步t,计算一个第一上下文向量,表示当前时间步的信息与前面时间步的信息之间的关系,如下:
其中,是正向注意力权重,/>是正向隐藏状态。
的计算公式如下:
反向注意力:对于当前时间步t,计算一个第二上下文向量,表示当前时间步的信息与后面时间步的信息之间的关系,如下:
其中,是反向注意力权重,/>是反向隐藏状态。
的计算公式如下:
自编码器包括编码器和解码器两部分。编码器将文本数据编码成一个连续的向量,解码器将这个向量解码成原始文本数据。在本发明实施例中,编码器和解码器分别采用双向长短时记忆网络结构。
编码器:编码器接输入文本序列X=(x1,x2,...,xT),通过正向双向长短时记忆网络生成正向隐藏状态序列:
通过反向双向长短时记忆网络生成反向隐藏状态序列:
然后,将正向隐藏状态和反向隐藏状态拼接起来,得到最终的隐藏状态序列:
解码器:解码器接收编码器输出的隐藏状态序列,通过双向长短时记忆网络层生成解码器的隐藏状态序列:
接着,将解码器的隐藏状态通过全连接层映射到词汇表大小的向量,然后使用Softmax 激活函数计算每个词的概率,计算公式如下:
自编码器采用的损失函数可以为交叉熵损失,计算公式如下:
其中,V为词汇表大小,y t,l 为时间步t处的真实标签,p t,l 是模型预测的概率。
可以采用随机梯度下降算法更新自编码器参数,训练好的双向注意力自编码器模型可以用来提取文本特征。给定一个输入文本序列X=(x1,x2,...,xT),通过编码器得到隐藏状态序列,然后,然后,将隐藏状态序列的每个元素与对应的第一上下文向量和第二上下文向量进行拼接,得到最终的文本特征表示,例如:
其中,F t 为时间步t处的词条的特征表示。
在操作S140,基于动态感受野的卷积神经网络提取增强图像的局部信息和全局信息。
在本发明的实施例中,可以基于改进的卷积神经网络的图像特征提取算法,通过动态调整感受野的大小和形状,使得卷积神经网络自适应地提取增强图像的局部信息和全局信息。与传统的卷积神经网络相比,改进的卷积神经网络具有更高的准确性和更强的泛化能力。
其中,通过动态调整感受野的大小和形状,使得卷积神经网络自适应地提取所述增强图像的局部信息和全局信息包括:计算增强图像位于感受野内的每个像素的权重。计算增强图像中的每个像素在卷积神经网络中的各个通道的值。根据每个像素的权重和每个像素在卷积神经网络中的各个通道的值确定增强图像的局部信息和全局信息。
动态感受野卷积层是改进的卷积神经网络的核心组件,改进的卷积神经网络由若干个动态感受野卷积层和其他标准卷积层、池化层、全连接层等组成。动态感受野卷积层用于提取局部和全局特征,而其他层用于进一步抽象和降维,其中,改进的卷积神经网可以采用交叉熵损失训练。给定改进的卷积神经网一个输入特征图(增强图像),其中,H为特征图的高度,W为特征图的宽度,C为动态感受野卷积层的通道数(输入通道数或输出通道数),动态感受野卷积层首先计算每个像素的权重/>,其中,R为感受野尺寸阈值,也即最大感受野的大小。然后,根据权重W i,j 对输入特征图进行加权卷积操作,生成输出特征图/>。
基于此,计算增强图像位于感受野内的每个像素的权重包括:
根据
计算感受野内位置为(i,j)的像素的权重W i,j (m,n),R为感受野的尺寸阈值,(i+m,j+n)为位置为(i,j)的像素的邻域像素,(m,n)为位置为(i,j)的像素与位置为(i+m,j+n)的邻域像素之间的位置差值,d i,j (m,n)为位置为(i,j)的像素与位置为(i+m,j+n)的邻域像素之间的欧氏距离,σ为可调参数,用于控制权重的衰减速度。动态感受野可以理解为在设定感受野尺寸阈值R的情况下,通过不断调整感受野的大小获取增强图像中的信息。在感受野较小的情况下,获取的信息可以为局部信息,在感受野较大的情况下,获取的信息可以为全局信息。
为了计算权重W i,j (m,n),需要预先计算输入增强图像X的局部距离图,得到欧氏距离。局部距离图的计算公式如下:
其中,D i,j (m,n)表示局部距离图中位置为(i,j)的像素与位置为(i+m,j+n)的邻域像素的通道值,X i,j,:表示输入的增强图像在在位置(i,j)的所有通道的值,X i+m,j+n,:表示输入的增强图像在在位置(i+m,j+n)的所有通道的值,||·||2表示二范数。
在计算得到权重之后,根据每个像素的权重和每个像素在卷积神经网络中的各个通道的值确定增强图像的局部信息和全局信息包括:
根据
计算增强图像的局部信息和全局信息,其中,C为卷积神经网络的通道数,所述Y i,j,k 为感受野内位置为(i,j)的像素在卷积神经网络中的第k个输出通道的输出值,X i+m,j+n,p 为感受野内位置为(i+m,j+n)的像素在卷积神经网络中的第p个输入通道的输入值,K p,k 为卷积神经网络中的第p个输入通道到第k个输出通道的卷积核权重。
在操作S150,对文本序列、局部信息和全局信息进行融合,得到融合特征。
在本发明的实施例中,特征融合采用自适应特征融合神经网络。该自适应特征融合神经网络能够自动学习多个特征的权重并将它们融合在一起,从而提高模型的泛化能力。为了实现自适应特征融合,本发明对损失函数进行了改进,引入了特征权重的正则化项。
具体地,自适应特征融合神经网络包括至少一个特征提取层和自适应特征融合层,通过至少一个特征提取从文本序列、局部信息和全局信息提取不同层次的特征,通过自适应特征融合层计算不同层次的特征的权重以及根据权重对不同层次的特征进行加权求和,得到融合特征。
自适应特征融合层是自适应特征融合神经网络的核心组件。给定n个输入特征F1,F2,...,F U ,其中每个特征,自适应特征融合层首先计算每个特征的权重w u 。然后,根据权重w u 对输入特征进行加权求和,生成融合特征F fusion :
其中,w u 是特征F u 的权重,满足0≤w u ≤1。
为了计算权重w u ,首先,需要将每个特征F u 通过一个全局池化层,得到全局特征向量:
然后,将全局全局特征向量g u 输入到一个全连接层,得到权重w u :
其中,和/>分别是全连接层的权重和偏置,Softmax是Softmax激活函数,用于将权重归一化到(0,1)区间,并保证它们的和为1。
为了实现自适应特征融合,本发明对损失函数进行了改进。在交叉熵损失的基础上,引入了特征权重的正则化项,使得模型在训练过程中自动学习每个特征的权重:
其中,L total 是改进后的总损失函数,L base 是交叉熵损失函数。λ是一个可调参数,用于平衡交叉熵损失和特征权重正则化项的比重。||·||2表示L1范数。
特征权重正则化项的目的是使每个特征的权重尽可能接近平均权重1/U,从而鼓励模型充分利用所有特征,提高泛化能力。
自适应特征融合神经网络由若干个特征提取层(卷积层、池化层等)和自适应特征融合层组成。特征提取层用于从输入数据中提取不同层次的特征,自适应特征融合层则将这些特征融合在一起,生成融合特征。最后,通过全连接层或其他输出层进行分类或回归任务。自适应特征融合神经网络的优化方法采用随机梯度下降(SGD)或者其他优化方法。在训练过程中,需要最小化改进后的总损失函数L total ,从而实现自适应特征融合。
在操作S160,根据融合特征确定环境质量检测结果。
在本发明的实施例中,可以将融合特征输入分类器进行分类,得到环境质量检测结果。
例如,采用Softmax分类函数对特征融合后的样本进行分类。Softmax函数为:
其中,Y v 为特征向量中的第v个元素,Softmax函数S Yv 将输入向量中的元素映射到(0,1)区间内,得到输入向量的概率向量,则输出类别为Softmax函数映射得到的概率向量中最大概率值所对应的类别。
最后,利用训练好的分类模型进行环境质量评估,得到评估分类结果。
根据本发明实施例提供的环境质量检测方法,能够更全面、准确地评估环境质量,为用户提供有价值的决策依据。通过对环境质量的全面评估,可以发现潜在的环境问题,为环境保护政策制定提供数据支持,同时引导企业和个人采取更环保的生产和生活方式,促进可持续发展。该方法具有较高的实用性和扩展性。多源数据采集和特征提取算法可以根据实际应用场景进行调整和优化,以满足不同环境质量评估任务的需求。此外,本发明的方法可以与其他现有技术进行整合,实现更加强大的环境质量评估能力。
应当理解,该方法中提出的改进的自编码器和卷积神经网络算法具有广泛的应用前景,可以应用于其他领域的特征提取任务,如文本分类、目标检测、图像分割等。该方法中提出的自适应特征融合方法可以推广到其他需要特征融合的场景,如多模态数据分析、跨领域知识迁移等。通过自适应特征融合,可以提高模型的准确性和泛化能力,从而为各种应用场景提供更优秀的预测和分类性能。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (4)
1.一种环境质量检测方法,其特征在于,包括:
获取多源的环境数据,其中,所述环境数据包括文本数据和图像数据;
对所述文本数据进行向量化处理,得到由多个词条按时序组成的文本序列;
对所述图像数据进行预处理,得到增强图像;
利用双向注意力机制和自编码器捕捉所述文本序列各个词条的上下文相关信息来提取文本特征,包括:利用正向注意力机制计算每个时间步的词条的第一上下文向量,其中,所述第一上下文向量表征当前时间步的词条与当前时间步之前的时间步的词条之间的第一关联信息;利用反向注意力机制计算每个时间步的词条的第二上下文向量,其中,所述第二上下文向量表征当前时间步的词条与当前时间步之后的时间步的词条之间的第二关联信息;利用所述自编码器将所述文本序列进行处理,得到隐藏状态序列,其中,所述隐藏状态序列包括每个时间步的词条对应的隐藏状态;将与相同时间步的词条对应的所述第一上下文向量、所述第二上下文向量和所述隐藏状态进行拼接,得到该时间步的词条对应的文本特征;其中,所述自编码器包括正向双向长短时记忆网络和反向双向长短时记忆网络,所述利用所述自编码器将所述文本序列进行处理,得到隐藏状态序列包括:将所述文本序列输入所述正向双向长短时记忆网络进行编码,生成正向隐藏状态序列;将所述文本序列输入所述反向双向长短时记忆网络进行编码,生成反向隐藏状态序列;将所述正向隐藏状态序列和所述反向隐藏状态序列中相同时间步的隐藏状态进行拼接,得到所述隐藏状态序列;
通过动态调整感受野的大小和形状,使得卷积神经网络自适应地提取所述增强图像的局部信息和全局信息,包括:计算所述增强图像位于所述感受野内的每个像素的权重;计算所述增强图像中的每个像素在所述卷积神经网络中的各个通道的值;根据每个像素的权重和每个像素在所述卷积神经网络中的各个通道的值确定所述增强图像的局部信息和全局信息;其中:
根据计算感受野内位置为(i,j)的像素的权重W i,j (m,n),R为所述感受野的尺寸阈值,(i+m,j+n)为位置为(i,j)的像素的邻域像素,(m,n)为位置为(i,j)的像素与位置为(i+m,j+n)的邻域像素之间的位置差值,d i,j (m,n)为位置为(i,j)的像素与位置为(i+m,j+n)的邻域像素之间的欧氏距离,σ为可调参数;根据计算所述增强图像的局部信息和全局信息,其中,C为所述卷积神经网络的通道数, Y i,j,k 为所述感受野内位置为(i,j)的像素在所述卷积神经网络中的第k个输出通道的输出值,X i+m,j+n,p 为所述感受野内位置为(i+m,j+n)的像素在所述卷积神经网络中的第p个输入通道的输入值,K p,k 为所述卷积神经网络中的第p个输入通道到第k个输出通道的卷积核权重;
对所述文本序列、所述局部信息和所述全局信息进行融合,得到融合特征;
根据所述融合特征确定环境质量检测结果。
2.根据权利要求1所述的环境质量检测方法,其特征在于,采用自适应特征融合神经网络对所述文本序列、所述局部信息和所述全局信息进行融合,所述自适应特征融合神经网络包括至少一个特征提取层和自适应特征融合层;
通过所述至少一个特征提取从所述文本序列、所述局部信息和所述全局信息提取不同层次的特征;
通过自适应特征融合层计算不同层次的特征的权重以及根据所述权重对不同层次的特征进行加权求和,得到所述融合特征。
3.根据权利要求1所述的环境质量检测方法,其特征在于,所述根据所述融合特征确定环境质量检测结果包括:
将所述融合特征输入分类器进行分类,得到所述环境质量检测结果。
4.根据权利要求1所述的环境质量检测方法,其特征在于,所述对所述文本数据进行向量化处理包括:基于TF-IDF的文本向量转化方法对所述文本数据进行向量化处理;
所述对所述图像数据进行预处理包括:采用非线性低通滤波方法对所述图像数据进行滤波。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310652781.1A CN116383770B (zh) | 2023-06-05 | 2023-06-05 | 环境质量检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310652781.1A CN116383770B (zh) | 2023-06-05 | 2023-06-05 | 环境质量检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116383770A CN116383770A (zh) | 2023-07-04 |
CN116383770B true CN116383770B (zh) | 2023-09-15 |
Family
ID=86971561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310652781.1A Active CN116383770B (zh) | 2023-06-05 | 2023-06-05 | 环境质量检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116383770B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110852368A (zh) * | 2019-11-05 | 2020-02-28 | 南京邮电大学 | 全局与局部特征嵌入及图文融合的情感分析方法与系统 |
CN114385813A (zh) * | 2022-01-11 | 2022-04-22 | 北京工业大学 | 基于多特征融合的水环境文本方面级观点挖掘方法 |
CN115047421A (zh) * | 2022-04-14 | 2022-09-13 | 杭州电子科技大学 | 一种基于Transformer的雷达目标识别方法 |
CN115240425A (zh) * | 2022-07-26 | 2022-10-25 | 西北师范大学 | 一种基于多尺度时空融合图网络的交通预测方法 |
-
2023
- 2023-06-05 CN CN202310652781.1A patent/CN116383770B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110852368A (zh) * | 2019-11-05 | 2020-02-28 | 南京邮电大学 | 全局与局部特征嵌入及图文融合的情感分析方法与系统 |
CN114385813A (zh) * | 2022-01-11 | 2022-04-22 | 北京工业大学 | 基于多特征融合的水环境文本方面级观点挖掘方法 |
CN115047421A (zh) * | 2022-04-14 | 2022-09-13 | 杭州电子科技大学 | 一种基于Transformer的雷达目标识别方法 |
CN115240425A (zh) * | 2022-07-26 | 2022-10-25 | 西北师范大学 | 一种基于多尺度时空融合图网络的交通预测方法 |
Non-Patent Citations (1)
Title |
---|
Umar Javed et al..A novel short receptive field based dilated causal convolutional network integrated with Bidirectional LSTM for short-term load forecasting.《Expert Systems With Applications》.2022,全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN116383770A (zh) | 2023-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287927B (zh) | 基于深度多尺度和上下文学习的遥感影像目标检测方法 | |
CN111199233B (zh) | 一种改进的深度学习色情图像识别方法 | |
CN110443143B (zh) | 多分支卷积神经网络融合的遥感图像场景分类方法 | |
CN110427836B (zh) | 一种基于多尺度优化的高分辨率遥感影像水体提取方法 | |
CN113505792B (zh) | 面向非均衡遥感图像的多尺度语义分割方法及模型 | |
CN109741340B (zh) | 基于fcn-aspp网络的冰盖雷达图像冰层精细化分割方法 | |
Yang et al. | Magnetic flux leakage image classification method for pipeline weld based on optimized convolution kernel | |
CN115564766B (zh) | 水轮机蜗壳座环的制备方法及其系统 | |
CN110796199A (zh) | 一种图像处理方法、装置以及电子医疗设备 | |
CN114266977B (zh) | 基于超分辨可选择网络的多auv的水下目标识别方法 | |
CN115294038A (zh) | 一种基于联合优化与混合注意力特征融合的缺陷检测方法 | |
CN104700100A (zh) | 面向高空间分辨率遥感大数据的特征提取方法 | |
CN116910752B (zh) | 一种基于大数据的恶意代码检测方法 | |
CN116012722A (zh) | 一种遥感影像场景分类方法 | |
CN114612664A (zh) | 一种基于双边分割网络的细胞核分割方法 | |
CN114898173A (zh) | 一种改善伪标签质量和类别不平衡的半监督目标检测方法 | |
CN113537322B (zh) | 一种跨模态语义增强生成对抗网络的零样本视觉分类方法 | |
CN115311508A (zh) | 一种基于深度u型网络的单帧图像红外弱小目标检测方法 | |
Zhou et al. | MSAR‐DefogNet: Lightweight cloud removal network for high resolution remote sensing images based on multi scale convolution | |
CN116383770B (zh) | 环境质量检测方法 | |
CN116206227B (zh) | 5g富媒体信息的图片审查系统、方法、电子设备及介质 | |
CN116310851B (zh) | 遥感图像变化检测方法 | |
CN117216265A (zh) | 一种基于改进的图注意力网络新闻主题分类方法 | |
CN111368843A (zh) | 一种基于语义分割的冰上湖提取的方法 | |
CN114821434A (zh) | 一种基于光流约束的时空增强视频异常检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |