CN110414571A - 一种基于特征融合的网站报错截图分类方法 - Google Patents
一种基于特征融合的网站报错截图分类方法 Download PDFInfo
- Publication number
- CN110414571A CN110414571A CN201910604775.2A CN201910604775A CN110414571A CN 110414571 A CN110414571 A CN 110414571A CN 201910604775 A CN201910604775 A CN 201910604775A CN 110414571 A CN110414571 A CN 110414571A
- Authority
- CN
- China
- Prior art keywords
- image
- feature
- screenshot
- error
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于特征融合的网站报错截图分类方法,首先对报错截图的图像数据集进行数据增强;缩放图像数据到统一大小,随机分为训练集,验证集和测试集;利用VGG16卷积神经网络的部分网络层对图像进行特征提取;利用尺度不变特征变换算子对图像提取特征;对两种特征通过特征拼接进行融合作为图像的最终特征;将图像的最终特征经过全连接层,Dropout层,Softmax层实现报错截图的正确分类。本发明使用机器学习来训练神经网络进行图像分类,减轻了客服人员的工作量,提高了企业运行效率;通过对数据集图像进行数据增强扩充了数据集,使得训练更充分;将两种图像特征进行融合取得了更好的分类正确率。
Description
技术领域
本发明涉及机器学习和图像分类的领域,具体涉及一种基于特征融合的网站报错截图分类方法。
背景技术
近年来,随着互联网技术不断发展与智能设备爆发性的增长,人们的日常生活与互联网的结合越来越紧密。在实际网络操作中,由于操作失误或是所需条件不满足,网站会将报错信息反馈给用户,而用户可能会直接将报错截图发送给网站客服人员咨询情况,当网站访问量很大时,就需要更多的人工客服来处理,对于企业来说则意味着更多的投入。同时,伴随着计算机视觉技术和机器学习算法的兴起,将机器学习技术结合实际需求来解决问题已经成为一种潮流,利用图像分类技术对网站报错截图进行自动分类可以大大地节省人力成本。
VGG卷积神经网络是牛津大学与谷歌公司在2014年提出来的模型,由于其简洁性和实用性,马上成为了当时最流行的卷积神经网络模型,在图像分类和目标检测任务中都表现出非常好的结果,将VGG16网络的卷积部分作为图像特征提取器能够准确获取图像的特征
尺度不变特征变换(SIFT)是一种局部特征描述子,其对旋转,尺度缩放,亮度变化保持不变性,对视角变化,仿射变换,噪声也保持一定程度的稳定性,常用于提取图像中的局部特征。
发明内容
本发明的目的在于克服现有技术存在的不足,而提供一种基于特征融合的网站报错截图分类方法。
本发明的目的是通过如下技术方案来完成的:这种基于特征融合的网站报错截图分类方法,主要包括以下步骤:
1)首先对报错截图的图像数据集进行数据增强以扩充数据集;
2)缩放图像数据到统一(M,M)大小,按照a:b:c的比例随机分为训练集,验证集和测试集;
3)利用VGG16卷积神经网络的部分网络层对图像进行特征提取;
4)利用尺度不变特征变换(SIFT)算子对图像提取特征;
5)对VGG16卷积神经网络和尺度不变特征变换(SIFT)算子提取的两种特征通过特征拼接进行融合作为图像的最终特征;
6)将图像的最终特征经过全连接层,Dropout层,Softmax层实现报错截图的正确分类,Dropout层通过随机舍弃网络层中的部分参数来防止模型过拟合,Softmax层对最后的输出进行归一化处理,得到一张图片的分类概率,Softmax计算公式如下:
所述数据增强主要包括随机旋转、裁剪、变换亮度,图像旋转公式为:
其中,x,y代表原始图片中像素点的坐标,x’,y’代表旋转后像素点的坐标,θ表示旋转的角度。
所述VGG16的卷积部分主要包括:输入一张(M,M,3)大小的图像,经过卷积神经网络后提取出(M/32,M/32,512)的向量用来表征图像,使用到的神经网络层包括卷积层和池化层。
所述池化层采用最大池化层。
所述尺度不变特征变换(SIFT)算子对图像中的每一个关键点生成一个128维的SIFI特征描述子,对每一张图像生成20个特征描述子,总计2048维的特征向量,对于不足20个特征描述子的图像,进行补0操作,具体操作如下:
1)生成高斯差分金字塔(DoG金字塔):
首先对原始图像进行降采样生成多组不同尺度的图像,对每组图像采用高斯函数进行模糊化处理,二维空间的高斯函数公式为:
其中σ是高斯模糊系数,每组生成6层尺寸相同但高斯模糊系数不同的图像得到图像的高斯金字塔。在图像高斯金字塔的基础上,组内相邻两层相减生成高斯差分金字塔,其中高斯差分金字塔算子(DoG算子)为:
2)空间关键点(极值点)检测:关键点由高斯差分金字塔空间中的局部极值点组成,为了寻找关键点,将每一个像素点和它所有的相邻点进行比较,检测点与它同尺度的8个相邻点以及上下两层(如果存在)对应的9*2个点,共26个点进行比较,以确保在尺度空间和图像空间都能检测到极值点;
3)空间关键点定位:通过拟合三维二次函数来精确确定关键点的位置和尺度,同时去除低对比度的关键点和不稳定的边缘响应点,以增强匹配稳定性,提高抗噪声能力,对DoG算子进行如下泰勒展开:
其中X=(x,y,σ)T,对上式进行求导并令其等于0,可得到极值点的偏移量 通过反复迭代获得极值点的精确位置;
4)为每个关键点指定方向参数:通过关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数,梯度的模值以及方向的求解如下:
θ(x,y)=tan-1((L(x,y+1)-L(x,y-1))/L(x+1,y)-L(x-1,y)))
5)生成特征描述子:以关键点为中心取8x8的邻域作为采样窗口,将采样点与特征点的相对方向通过高斯加权后归入包含8个方向的方向直方图,最后得到128维的特征描述子。
所述特征拼接主要将VGG16网络提取到的(M/32,M/32,512)特征展开为M/32*M/32*512维的特征,并通过一个全连接层生成4096维的向量,将VGG16网络生成的4096维特征与SIFT算子生成的2048维特征拼接在一起生成一个6144维的特征作为图像的最终特征。
本发明的有益效果为:本发明使用机器学习来训练神经网络进行图像分类,减轻了客服人员的工作量,提高了企业运行效率;通过对数据集图像进行数据增强扩充了数据集,使得训练更充分;将两种图像特征进行融合取得了更好的分类正确率,大大提高了网络报错截图的分类准确率,降低了工作人员劳动强度。
附图说明
图1为VGG16卷积神经网络的结构示意图。
图2为VGG16卷积神经网络中的卷积层示意图。
图3为VGG16卷积神经网络中的最大池化层示意图。
图4为高斯差分金字塔生成示意图。
图5为最终特征产生示意图。
图6为最终特征处理过程示意图。
图7为本发明的整体结构示意图。
具体实施方式
下面将结合附图对本发明做详细的介绍:
实施例:如附图所示,这种基于特征融合的网站报错截图分类方法,主要包括以下步骤:
1)首先对报错截图的图像数据集进行数据增强以扩充数据集;数据增强主要包括随机旋转、裁剪、变换亮度,图像旋转公式为:
其中,x,y代表原始图片中像素点的坐标,x’,y’代表旋转后像素点的坐标,θ表示旋转的角度。
2)缩放图像数据到统一(M,M)大小,按照a:b:c的比例随机分为训练集,验证集和测试集;
3)利用VGG16卷积神经网络的部分网络层对图像进行特征提取;
4)利用尺度不变特征变换(SIFT)算子对图像提取特征;
5)对VGG16卷积神经网络和尺度不变特征变换(SIFT)算子提取的两种特征通过特征拼接进行融合作为图像的最终特征;特征拼接主要将VGG16网络提取到的(M/32,M/32,512)特征展开为M/32*M/32*512维的特征,并通过一个全连接层生成4096维的向量,将VGG16网络生成的4096维特征与SIFT算子生成的2048维特征拼接在一起生成一个6144维的特征作为图像的最终特征。
6)将图像的最终特征经过全连接层,Dropout层,Softmax层实现报错截图的正确分类,Dropout层通过随机舍弃网络层中的部分参数来防止模型过拟合,Softmax层对最后的输出进行归一化处理,得到一张图片的分类概率,Softmax计算公式如下:
VGG16的卷积部分主要包括:输入一张(M,M,3)大小的图像,经过卷积神经网络后提取出(M/32,M/32,512)的向量用来表征图像,使用到的神经网络层包括卷积层和池化层。卷积层由若干卷积单元组成,每个卷积单元的参数在模型训练开始时随机初始化,在训练过程中参数通过反向传播算法更新,卷积层主要用于提取图像的特征,不同深度的卷积层可能会提取不同的特征,比如浅层的卷积层提取一些低级的特征比如边缘,线条等,深层的卷积层提取更为复杂,抽象的特征;池化层用于对特征进行过滤,既能减少模型的参数量,又能防止模型的过拟合,池化层主要有平均池化和最大池化。池化层采用最大池化层。
尺度不变特征变换(SIFT)算子对图像中的每一个关键点生成一个128维的SIFI特征描述子,对每一张图像生成20个特征描述子,总计2048维的特征向量,对于不足20个特征描述子的图像,进行补0操作,具体操作如下:
1)生成高斯差分金字塔(DoG金字塔):
首先对原始图像进行降采样生成多组不同尺度的图像,对每组图像采用高斯函数进行模糊化处理,二维空间的高斯函数公式为:
其中σ是高斯模糊系数,每组生成6层尺寸相同但高斯模糊系数不同的图像得到图像的高斯金字塔。在图像高斯金字塔的基础上,组内相邻两层相减生成高斯差分金字塔,其中高斯差分金字塔算子(DoG算子)为:
2)空间关键点(极值点)检测:关键点由高斯差分金字塔空间中的局部极值点组成,为了寻找关键点,将每一个像素点和它所有的相邻点进行比较,检测点与它同尺度的8个相邻点以及上下两层(如果存在)对应的9*2个点,共26个点进行比较,以确保在尺度空间和图像空间都能检测到极值点;
3)空间关键点定位:通过上一步骤检测到的是离散空间的极值点,这并不是真正的极值点,需要利用已知的离散空间的极值点通过插值操作得到连续空间的极值点;通过拟合三维二次函数来精确确定关键点的位置和尺度,同时去除低对比度的关键点和不稳定的边缘响应点,以增强匹配稳定性,提高抗噪声能力,对DoG算子进行如下泰勒展开:
其中X=(x,y,σ)T,对上式进行求导并令其等于0,可得到极值点的偏移量 通过反复迭代获得极值点的精确位置;
4)为每个关键点指定方向参数:为了使得SIFT算子具有旋转不变的特性,需要利用图像的局部特征为每一个关键点分配一个基准方向;通过关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数,梯度的模值以及方向的求解如下:
5)生成特征描述子:以关键点为中心取8x8的邻域作为采样窗口,将采样点与特征点的相对方向通过高斯加权后归入包含8个方向的方向直方图,最后得到128维的特征描述子。
可以理解的是,对本领域技术人员来说,对本发明的技术方案及发明构思加以等同替换或改变都应属于本发明所附的权利要求的保护范围。
Claims (6)
1.一种基于特征融合的网站报错截图分类方法,其特征在于:主要包括以下步骤:
1)首先对报错截图的图像数据集进行数据增强以扩充数据集;
2)缩放图像数据到统一(M,M)大小,按照a:b:c的比例随机分为训练集,验证集和测试集;
3)利用VGG16卷积神经网络的部分网络层对图像进行特征提取;
4)利用尺度不变特征变换SIFT算子对图像提取特征;
5)对VGG16卷积神经网络和尺度不变特征变换SIFT算子提取的两种特征通过特征拼接进行融合作为图像的最终特征;
6)将图像的最终特征经过全连接层,Dropout层,Softmax层实现报错截图的正确分类,Dropout层通过随机舍弃网络层中的部分参数来防止模型过拟合,Softmax层对最后的输出进行归一化处理,得到一张图片的分类概率,Softmax计算公式如下:
2.根据权利要求1所述的基于特征融合的网站报错截图分类方法,其特征在于:所述数据增强主要包括随机旋转、裁剪、变换亮度,图像旋转公式为:
其中,x,y代表原始图片中像素点的坐标,x’,y’代表旋转后像素点的坐标,θ表示旋转的角度。
3.根据权利要求1所述的基于特征融合的网站报错截图分类方法,其特征在于:所述VGG16的卷积部分主要包括:输入一张(M,M,3)大小的图像,经过卷积神经网络后提取出(M/32,M/32,512)的向量用来表征图像,使用到的神经网络层包括卷积层和池化层。
4.根据权利要求3所述的基于特征融合的网站报错截图分类方法,其特征在于:所述池化层采用最大池化层。
5.根据权利要求1所述的基于特征融合的网站报错截图分类方法,其特征在于:所述尺度不变特征变换SIFT算子对图像中的每一个关键点生成一个128维的SIFI特征描述子,对每一张图像生成20个特征描述子,总计2048维的特征向量,对于不足20个特征描述子的图像,进行补0操作,具体操作如下:
1)生成高斯差分金字塔:
首先对原始图像进行降采样生成多组不同尺度的图像,对每组图像采用高斯函数进行模糊化处理,二维空间的高斯函数公式为:
其中σ是高斯模糊系数,每组生成6层尺寸相同但高斯模糊系数不同的图像得到图像的高斯金字塔,在图像高斯金字塔的基础上,组内相邻两层相减生成高斯差分金字塔,其中高斯差分金字塔算子为:
2)空间关键点检测:关键点由高斯差分金字塔空间中的局部极值点组成,为了寻找关键点,将每一个像素点和它所有的相邻点进行比较,检测点与它同尺度的8个相邻点以及上下两层对应的9*2个点,共26个点进行比较,以确保在尺度空间和图像空间都能检测到极值点;
3)空间关键点定位:通过拟合三维二次函数来精确确定关键点的位置和尺度,同时去除低对比度的关键点和不稳定的边缘响应点,以增强匹配稳定性,提高抗噪声能力,对DoG算子进行如下泰勒展开:
其中X=(x,y,σ)T,对上式进行求导并令其等于0,可得到极值点的偏移量 通过反复迭代获得极值点的精确位置;
4)为每个关键点指定方向参数:通过关键点邻域像素的梯度方向分布特性为每个关键点指定方向参数,梯度的模值以及方向的求解如下:
5)生成特征描述子:以关键点为中心取8x8的邻域作为采样窗口,将采样点与特征点的相对方向通过高斯加权后归入包含8个方向的方向直方图,最后得到128维的特征描述子。
6.根据权利要求1所述的基于特征融合的网站报错截图分类方法,其特征在于:所述特征拼接主要将VGG16网络提取到的(M/32,M/32,512)特征展开为M/32*M/32*512维的特征,并通过一个全连接层生成4096维的向量,将VGG16网络生成的4096维特征与SIFT算子生成的2048维特征拼接在一起生成一个6144维的特征作为图像的最终特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910604775.2A CN110414571A (zh) | 2019-07-05 | 2019-07-05 | 一种基于特征融合的网站报错截图分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910604775.2A CN110414571A (zh) | 2019-07-05 | 2019-07-05 | 一种基于特征融合的网站报错截图分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110414571A true CN110414571A (zh) | 2019-11-05 |
Family
ID=68360449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910604775.2A Pending CN110414571A (zh) | 2019-07-05 | 2019-07-05 | 一种基于特征融合的网站报错截图分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110414571A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160418A (zh) * | 2019-12-13 | 2020-05-15 | 江苏艾佳家居用品有限公司 | 一种模型45度主视图自动分类的方法 |
CN111950568A (zh) * | 2020-08-20 | 2020-11-17 | 西南科技大学 | 一种刺绣针法图样特征点提取及匹配方法 |
CN112734673A (zh) * | 2021-01-13 | 2021-04-30 | 山东大学 | 一种基于多表达式融合的低照度图像增强方法及系统 |
CN112818451A (zh) * | 2021-02-02 | 2021-05-18 | 盈嘉互联(北京)科技有限公司 | 一种基于vgg的bim模型最佳视觉角度构建方法 |
CN113052116A (zh) * | 2021-04-06 | 2021-06-29 | 深圳华声医疗技术股份有限公司 | 超声视频数据处理方法、装置、超声设备及存储介质 |
CN113469224A (zh) * | 2021-06-16 | 2021-10-01 | 浙江大学 | 一种基于卷积神经网络与特征描述算子相融合的大米分类方法 |
CN117633675A (zh) * | 2024-01-25 | 2024-03-01 | 成都无糖信息技术有限公司 | 一种基于模型级联的网络公害网站发现方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106408037A (zh) * | 2015-07-30 | 2017-02-15 | 阿里巴巴集团控股有限公司 | 图像识别方法及装置 |
CN107256221A (zh) * | 2017-04-26 | 2017-10-17 | 苏州大学 | 基于多特征融合的视频描述方法 |
US20180096224A1 (en) * | 2016-10-05 | 2018-04-05 | Ecole Polytechnique Federale De Lausanne (Epfl) | Method, System, and Device for Learned Invariant Feature Transform for Computer Images |
US20180144248A1 (en) * | 2016-11-18 | 2018-05-24 | Salesforce.Com, Inc. | SENTINEL LONG SHORT-TERM MEMORY (Sn-LSTM) |
CN109035315A (zh) * | 2018-08-28 | 2018-12-18 | 武汉大学 | 融合sift特征和cnn特征的遥感图像配准方法及系统 |
CN109325521A (zh) * | 2018-08-24 | 2019-02-12 | 北京陌上花科技有限公司 | 用于虚拟人物的检测方法及装置 |
CN109815923A (zh) * | 2019-01-30 | 2019-05-28 | 华侨大学 | 基于lbp特征与深度学习的金针菇菇头分选识别方法 |
CN109934283A (zh) * | 2019-03-08 | 2019-06-25 | 西南石油大学 | 一种融合cnn和sift光流的自适应运动目标检测方法 |
-
2019
- 2019-07-05 CN CN201910604775.2A patent/CN110414571A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106408037A (zh) * | 2015-07-30 | 2017-02-15 | 阿里巴巴集团控股有限公司 | 图像识别方法及装置 |
US20180096224A1 (en) * | 2016-10-05 | 2018-04-05 | Ecole Polytechnique Federale De Lausanne (Epfl) | Method, System, and Device for Learned Invariant Feature Transform for Computer Images |
US20180144248A1 (en) * | 2016-11-18 | 2018-05-24 | Salesforce.Com, Inc. | SENTINEL LONG SHORT-TERM MEMORY (Sn-LSTM) |
CN107256221A (zh) * | 2017-04-26 | 2017-10-17 | 苏州大学 | 基于多特征融合的视频描述方法 |
CN109325521A (zh) * | 2018-08-24 | 2019-02-12 | 北京陌上花科技有限公司 | 用于虚拟人物的检测方法及装置 |
CN109035315A (zh) * | 2018-08-28 | 2018-12-18 | 武汉大学 | 融合sift特征和cnn特征的遥感图像配准方法及系统 |
CN109815923A (zh) * | 2019-01-30 | 2019-05-28 | 华侨大学 | 基于lbp特征与深度学习的金针菇菇头分选识别方法 |
CN109934283A (zh) * | 2019-03-08 | 2019-06-25 | 西南石油大学 | 一种融合cnn和sift光流的自适应运动目标检测方法 |
Non-Patent Citations (3)
Title |
---|
WANG FENGJIAO等: "Visual Sentiment Prediction by Merging Hand-Craft and CNN Features", 《2018 5TH INTERNATIONAL CONFERENCE ON ADVANCED INFORMATICS: CONCEPT THEORY AND APPLICATIONS》 * |
文常保 等: "《人工神经网络理论及应用》", 31 March 2019, 西安电子科技大学出版社 * |
王佩军 等: "《摄影测量学》", 31 May 2016, 武汉大学出版社 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160418A (zh) * | 2019-12-13 | 2020-05-15 | 江苏艾佳家居用品有限公司 | 一种模型45度主视图自动分类的方法 |
CN111950568A (zh) * | 2020-08-20 | 2020-11-17 | 西南科技大学 | 一种刺绣针法图样特征点提取及匹配方法 |
CN112734673A (zh) * | 2021-01-13 | 2021-04-30 | 山东大学 | 一种基于多表达式融合的低照度图像增强方法及系统 |
CN112734673B (zh) * | 2021-01-13 | 2022-06-21 | 山东大学 | 一种基于多表达式融合的低照度图像增强方法及系统 |
CN112818451A (zh) * | 2021-02-02 | 2021-05-18 | 盈嘉互联(北京)科技有限公司 | 一种基于vgg的bim模型最佳视觉角度构建方法 |
CN113052116A (zh) * | 2021-04-06 | 2021-06-29 | 深圳华声医疗技术股份有限公司 | 超声视频数据处理方法、装置、超声设备及存储介质 |
CN113052116B (zh) * | 2021-04-06 | 2022-02-22 | 深圳华声医疗技术股份有限公司 | 超声视频数据处理方法、装置、超声设备及存储介质 |
CN113469224A (zh) * | 2021-06-16 | 2021-10-01 | 浙江大学 | 一种基于卷积神经网络与特征描述算子相融合的大米分类方法 |
CN117633675A (zh) * | 2024-01-25 | 2024-03-01 | 成都无糖信息技术有限公司 | 一种基于模型级联的网络公害网站发现方法及系统 |
CN117633675B (zh) * | 2024-01-25 | 2024-04-30 | 成都无糖信息技术有限公司 | 一种基于模型级联的网络公害网站发现方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110414571A (zh) | 一种基于特征融合的网站报错截图分类方法 | |
Wang et al. | Tire defect detection using fully convolutional network | |
Zhang et al. | Ensnet: Ensconce text in the wild | |
Uittenbogaard et al. | Privacy protection in street-view panoramas using depth and multi-view imagery | |
El Amin et al. | Zoom out CNNs features for optical remote sensing change detection | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
CN108875542B (zh) | 一种人脸识别方法、装置、系统及计算机存储介质 | |
CN112967341B (zh) | 基于实景图像的室内视觉定位方法、系统、设备及存储介质 | |
CN108573231B (zh) | 基于运动历史点云生成的深度运动图的人体行为识别方法 | |
CN110751097B (zh) | 一种半监督的三维点云手势关键点检测方法 | |
CN113392856B (zh) | 图像伪造检测装置和方法 | |
CN111553422A (zh) | 手术器械自动识别回收方法及系统 | |
Feng et al. | Research on human target detection and tracking based on artificial intelligence vision | |
CN109740607B (zh) | 字符图像的残缺区域检测和残缺字符图像恢复方法 | |
Agarwal et al. | The advent of deep learning-based image forgery detection techniques | |
Sreelakshmy et al. | An improved method for copy-move forgery detection in digital forensic | |
Seo et al. | ViT-P3DE∗: Vision Transformer Based Multi-Camera Instance Association with Pseudo 3D Position Embeddings. | |
CN111160255B (zh) | 一种基于三维卷积网络的捕鱼行为识别方法及系统 | |
Wang et al. | Single image deraining using deep convolutional networks | |
Amrutha et al. | Bharatanatyam hand gesture recognition using normalized chain codes and oriented distances | |
Tian et al. | A novel approach for change detection in remote sensing image based on saliency map | |
Wang et al. | RBC image segmentation based on shape reconstruction and multi-scale surface fitting | |
Tao et al. | Measurement algorithm of notch length of plastic parts based on video | |
CN118314162B (zh) | 一种面向时序性稀疏重建的动态视觉slam方法及装置 | |
Kiaee et al. | A survey on object detection and classification methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191105 |
|
RJ01 | Rejection of invention patent application after publication |