CN105741316B - 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法 - Google Patents

基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法 Download PDF

Info

Publication number
CN105741316B
CN105741316B CN201610037060.XA CN201610037060A CN105741316B CN 105741316 B CN105741316 B CN 105741316B CN 201610037060 A CN201610037060 A CN 201610037060A CN 105741316 B CN105741316 B CN 105741316B
Authority
CN
China
Prior art keywords
scale
target
region
search
characteristic pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610037060.XA
Other languages
English (en)
Other versions
CN105741316A (zh
Inventor
李映
杭涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Anmeng Intelligent Technology Co., Ltd.
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN201610037060.XA priority Critical patent/CN105741316B/zh
Publication of CN105741316A publication Critical patent/CN105741316A/zh
Application granted granted Critical
Publication of CN105741316B publication Critical patent/CN105741316B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明涉及一种基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法,将跟踪过程分成了目标定位和尺度选择两部分,第一部分目标定位,利用卷积神经网络和相关滤波进行目标的位置定位;第二部分尺度选择,利用一个尺度金字塔,通过尺度滤波对目标进行不同尺度的匹配选择。选用卷积神经网络里的多层特征作为目标的表示模型,从而能够鲁棒地描述目标的结构和语义信息;利用相关滤波的特性,不再需要在线训练分类器,从而极大加快了算法的运行速度;在尺度上采用了尺度金字塔的思想,对不同尺度的目标进行相关滤波匹配,选取最优尺度,对于目标的形变、遮挡、尺度变化具有很强的鲁棒性。

Description

基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
技术领域
本发明属于图像处理领域,具体涉及一种基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法。
背景技术
目标跟踪算法,通常可以分为生成型和判别型两大类。生成型的跟踪算法通常需要对被跟踪目标生成一个外观模型,通过对外观模型的匹配,寻找到相似度最高的那个候选目标作为跟踪结果。而判别型的跟踪算法则是将跟踪看成一个二分分类问题,通过正负样本训练一个分类器,将目标和背景区分开来。
近年来,基于深度学习的图像处理和机器视觉方法得到了极大的重视,特别在语音图像分类和识别方面应用成果较多,但在目标跟踪方面才刚刚起步。文献“Hierarchicalconvolutional features for visual tracking,2015International Conference onComputer Vision”公开了一种基于深度卷积神经网络(Convolutional Neural Network,CNN)的视觉目标跟踪方法,其利用CNN训练得到的图像特征具有丰富的语义信息,对于遮挡、形变、光照等跟踪难题具有很强的鲁棒性,取得了较好的跟踪效果。然而,现存的基于深度学习的跟踪方法一般都是在目标周围提取正负样本,通过CNN得到这些正负样本的特征,利用这些特征在线训练一个分类器,从而进行目标跟踪。
发明内容
要解决的技术问题
本发明解决了现有技术中的以下两个问题:1)现有技术只利用CNN中的最后一层结果来表示目标,但跟踪任务不仅需要目标的语义信息,还需要空间结构信息,才能准确地定位目标;2)现有技术在线训练一个分类器需要大量的正负样本,这对于目标跟踪而言非常耗时。
技术方案
针对目前基于深度学习的跟踪方法的弊端,本发明在进行目标跟踪时采用以下相应的解决措施来进行目标定位:1)采用CNN中的多层而不仅仅是最后一层的输出结果来构建目标的表示模型,从而保留了目标的空间结构信息;2)在每一层结果上学习自适应的相关滤波,从而避免了提取大量样本的过程。
本发明将跟踪过程分成了目标定位和尺度选择两部分,第一部分目标定位,利用卷积神经网络和相关滤波进行目标的位置定位;第二部分尺度选择,利用一个尺度金字塔,通过尺度滤波对目标进行不同尺度的匹配选择。
一种基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法,其特征在于步骤如下:
步骤1:读取第一帧图像数据以及目标块在第一帧图像中的位置信息[x,y,w,h],其中x,y表示目标中心的横纵坐标,w,h表示目标的宽和高;
步骤2:以(x,y)为中心提取搜索区域R,利用卷积神经网络CNN提取搜索区域R的卷积特征图,通过双边插值的方法对特征图进行上采样到搜索区域R得到卷积特征图所述的R的宽和高分别为M,N,所述的大小为M×N×D,D为通道数,l为CNN中的层数;
步骤3:采用分层的方式构建目标模型对于每一层的目标模型,其构建方法如下:
其中,d∈{1,....,D};变量上面的一横代表复数的共轭;大写变量名为相应的小写变量名在频域的表示;(m,n)∈{0,1,...,M-1}×{0,1,...,N-1},σtarget为核的宽度;⊙代表元素相乘运算;λ为调整参数;
步骤4:以当前帧中目标位置为中心提取不同尺度的目标块,计算每个目标块的HOG特征得到尺度特征zscale,利用这些不同尺度的HOG特征构建尺度模型Wscale,其构建方法如下:
其中,S为尺度个数;变量上面一横代表复数的共轭;大写变量名为相应的小写变量名在频域的表示;s∈{1,2,...,S},σscale为核的宽度;⊙代表元素相乘运算;λ为调整参数;
步骤5:读取下一帧图像,以前一帧目标位置为中心,提取大小为R*scale的尺度缩放后的搜索区域,其中,R为上述大小为M×N的区域,scale为尺度因素;利用CNN提取尺度缩放后的搜索区域的卷积特征图,并且通过双边插值的方法对卷积特征图进行上采样到尺度缩放后的搜索区域R的大小得到卷积特征图利用目标模型计算目标置信图对于每一层l,其目标置信图计算方法如下:
其中,F-1为傅里叶逆变换;
步骤6:利用步骤5得到的置信图集逐层递进的定位目标位置(x,y):
其中,γ为每层的权重参数;
步骤7:以步骤6得到的目标位置(x,y)为中心提取不同尺度的目标块,计算每个目标块的HOG特征得到尺度特征zscale,利用尺度模板Wscale,计算尺度置信图通过如下公式选择最优尺度因素:
步骤8:利用步骤7得到的尺度因素scale,再次提取大小为R*scale的尺度缩放后的搜索区域,利用CNN提取卷积特征图,并且通过双边插值的方法对特征图进行上采样到搜索区域R的大小得到卷积特征图以搜索区域R*scale的大小为基准、(x,y)为中心提取不同尺度的目标块,并且计算每个目标块的HOG特征得到尺度特征zscale,更新目标模型和尺度模型Wscale
其中,Atarget,Btarget分别为公式1的分子分母;Ascale,Bscale分别为公式2的分子分母;η为学习速率;
步骤9:判断是否处理完所有图像的所有帧,若没有,则转到步骤5继续;若处理完,则结束。
M=2w,N=2h。
有益效果
本发明提出的一种基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法,选用卷积神经网络里的多层特征作为目标的表示模型,从而能够鲁棒地描述目标的结构和语义信息;利用相关滤波的特性,不再需要在线训练分类器,从而极大加快了算法的运行速度;在尺度上采用了尺度金字塔的思想,对不同尺度的目标进行相关滤波匹配,选取最优尺度,对于目标的形变、遮挡、尺度变化具有很强的鲁棒性。
附图说明
图1本发明的流程图
具体实施方式
现结合实施例、附图对本发明作进一步描述:
步骤一:读取第一帧图像数据以及目标块在第一帧图像中的位置信息[x,y,w,h],其中x,y表示目标中心的横纵坐标,w,h表示目标的宽和高。
步骤二:在当前帧图像目标确定的基础上,提取以(x,y)为中心的搜索区域R,利用CNN提取卷积特征图,并且通过双边插值的方法对特征图进行上采样到搜索区域R的大小得到卷积特征图其中R大小为M×N,M,N分别为宽和高,M=2w,N=2h,大小为M×N×D,D为通道数,l为CNN中的层数,其值为{37,28,19,}本发明具体采用VGGNet-19作为CNN模型。
步骤三:对于步骤二中得到的卷积特征图采用分层的方式构建目标模型对于每一层的目标模型,其构建方法如下:
其中,d∈{1,....,D};变量上面的一横代表复数的共轭;λ为调整参数,其优化值为0.0001;(m,n)∈{0,1,...,M-1}×{0,1,...,N-1},σtarget为核的宽度,⊙代表元素相乘运算;大写变量名为相应的小写变量名在频域的表示。
步骤四:以当前帧中目标位置为中心提取不同尺度的目标块,尺度范围为[0.7,1.4],并且计算每个目标块的HOG特征得到尺度特征zscale,利用这些不同尺度的HOG特征构建尺度模型Wscale,其构建方法如下:
其中,S为尺度个数,其优化值为33;变量上面一横代表复数的共轭;
s∈{1,2,...,S},σscale为核的宽度,其优化值为1.4361;⊙代表元素相乘运算;大写变量名为相应的小写变量名在频域的表示。
步骤五:读取下一帧图像,以前一帧目标位置为中心,提取大小为R*scale的尺度缩放后的搜索区域,其中,R为上述大小为M×N的区域,scale为尺度因素,其初始值为1;得到尺度缩放后的搜索区域后,利用CNN提取卷积特征图,并且通过双边插值的方法对特征图进行上采样到搜索区域R的大小得到卷积特征图利用目标模型计算置信图对于每一层l,其置信图计算方法如下:
其中,F-1为傅里叶逆变换,其余变量同上所述。
步骤六:利用步骤五得到的置信图集逐层递进的定位目标位置(x,y):
其中,γ为每层的权重参数,其优化值为{1,0.5,0.02},与上述l相对应。
步骤七:利用步骤六中估计得到的目标位置(x,y)为中心,选取不同尺度的目标块,计算每个目标块的HOG特征得到尺度特征zscale,利用尺度模型Wscale,计算置信图通过如下公式选择最优尺度因素:
步骤八:利用步骤七得到的尺度因素scale,再次提取大小为R*scale的尺度缩放后的搜索区域,利用CNN提取卷积特征图,并且通过双边插值的方法对特征图进行上采样到搜索区域R的大小得到卷积特征图以搜索区域R*scale的大小为基准、(x,y)为中心提取不同尺度的目标块,并且计算每个目标块的HOG特征得到尺度特征zscale,更新目标模型和尺度模型Wscale
其中,Atarget,Btarget分别为公式(1)的分子分母;Ascale,Bscale分别为公式(2)的分子分母;η为学习速率,其优化值为0.01。
步骤十:判断是否处理完所有图像序列的所有帧,若没有,则转到步骤五继续;若处理完,则算法结束。

Claims (2)

1.一种基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法,其特征在于步骤如下:
步骤1:读取第一帧图像数据以及目标块在第一帧图像中的位置信息[x,y,w,h],其中x,y表示目标中心的横纵坐标,w,h表示目标的宽和高;
步骤2:以(x,y)为中心提取搜索区域R,利用卷积神经网络CNN提取搜索区域R的卷积特征图,通过双边插值的方法对特征图进行上采样到搜索区域R得到卷积特征图所述的R的宽和高分别为M,N,所述的大小为M×N×D,D为通道数,l为CNN中的层数;
步骤3:采用分层的方式构建目标模型对于每一层的目标模型,其构建方法如下:
其中,d∈{1,....,D};变量上面的一横代表复数的共轭;大写变量名为相应的小写变量名在频域的表示;(m,n)∈{0,1,...,M-1}×{0,1,...,N-1},σtarget为核的宽度;⊙代表元素相乘运算;λ为调整参数;
步骤4:以当前帧中目标位置为中心提取不同尺度的目标块,计算每个目标块的HOG特征得到尺度特征Zscale,利用这些不同尺度的HOG特征构建尺度模型Wscale,其构建方法如下:
其中,S为尺度个数;变量上面一横代表复数的共轭;大写变量名为相应的小写变量名在频域的表示;s∈{1,2,...,S},σscale为核的宽度;⊙代表元素相乘运算;λ为调整参数;
步骤5:读取下一帧图像,以前一帧目标位置为中心,提取大小为R*scale的尺度缩放后的搜索区域,其中,R为上述大小为M×N的区域,scale为尺度因素;利用CNN提取尺度缩放后的搜索区域的卷积特征图,并且通过双边插值的方法对卷积特征图进行上采样到尺度缩放后的搜索区域R的大小得到卷积特征图利用目标模型计算目标置信图对于每一层,其目标置信图计算方法如下:
其中,为傅里叶逆变换;
步骤6:利用步骤5得到的置信图集逐层递进地定位目标位置(x,y):
其中,γ为每层的权重参数;
步骤7:以步骤6得到的目标位置(x,y)为中心提取不同尺度的目标块,计算每个目标块的HOG特征得到尺度特征Zscale,利用尺度模型Wscale,计算尺度置信图通过如下公式选择最优尺度因素:
步骤8:利用步骤7得到的尺度因素scale,再次提取大小为R*scale的尺度缩放后的搜索区域,利用CNN提取卷积特征图,并且通过双边插值的方法对特征图进行上采样到搜索区域R*scale的大小得到卷积特征图以搜索区域R*scale的大小为基准、(x,y)为中心提取不同尺度的目标块,并且计算每个目标块的HOG特征得到尺度特征Zscale,更新目标模型和尺度模型Wscale
其中,Atarget,Btarget分别为公式1的分子分母;Ascale,Bscale分别为公式2的分子分母;η为学习速率;
步骤9:判断是否处理完所有图像的所有帧,若没有,则转到步骤5继续;若处理完,则结束。
2.根据权利要求1所述基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法,其特征在于:M=2w,N=2h。
CN201610037060.XA 2016-01-20 2016-01-20 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法 Active CN105741316B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610037060.XA CN105741316B (zh) 2016-01-20 2016-01-20 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610037060.XA CN105741316B (zh) 2016-01-20 2016-01-20 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法

Publications (2)

Publication Number Publication Date
CN105741316A CN105741316A (zh) 2016-07-06
CN105741316B true CN105741316B (zh) 2018-10-16

Family

ID=56246376

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610037060.XA Active CN105741316B (zh) 2016-01-20 2016-01-20 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法

Country Status (1)

Country Link
CN (1) CN105741316B (zh)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106530340B (zh) * 2016-10-24 2019-04-26 深圳市商汤科技有限公司 一种指定物体跟踪方法
CN106570893A (zh) * 2016-11-02 2017-04-19 中国人民解放军国防科学技术大学 一种基于相关滤波的快速稳健视觉跟踪方法
CN106651915B (zh) * 2016-12-23 2019-08-09 大连理工大学 基于卷积神经网络的多尺度表达的目标跟踪方法
US11157764B2 (en) 2017-03-27 2021-10-26 Intel Corporation Semantic image segmentation using gated dense pyramid blocks
US11704894B2 (en) 2017-03-27 2023-07-18 Intel Corporation Semantic image segmentation using gated dense pyramid blocks
CN106952288B (zh) * 2017-03-31 2019-09-24 西北工业大学 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法
CN107146240B (zh) * 2017-05-05 2019-08-13 西北工业大学 基于相关滤波和显著性检测的航拍视频目标跟踪方法
CN107292912B (zh) * 2017-05-26 2020-08-18 浙江大学 一种基于多尺度对应结构化学习的光流估计方法
CN107240122A (zh) * 2017-06-15 2017-10-10 国家新闻出版广电总局广播科学研究院 基于时空连续相关滤波的视频目标跟踪方法
CN107274433B (zh) * 2017-06-21 2020-04-03 吉林大学 基于深度学习的目标跟踪方法、装置及存储介质
CN107369166B (zh) * 2017-07-13 2020-05-08 深圳大学 一种基于多分辨率神经网络的目标跟踪方法及系统
CN107424177B (zh) * 2017-08-11 2021-10-26 哈尔滨工业大学(威海) 基于连续相关滤波器的定位修正长程跟踪方法
CN107563313B (zh) * 2017-08-18 2020-07-07 北京航空航天大学 基于深度学习的多目标行人检测与跟踪方法
CN107679455A (zh) * 2017-08-29 2018-02-09 平安科技(深圳)有限公司 目标跟踪装置、方法及计算机可读存储介质
CN107730536B (zh) * 2017-09-15 2020-05-12 苏州飞搜科技有限公司 一种基于深度特征的高速相关滤波物体追踪方法
CN108288282B (zh) * 2017-12-26 2022-04-08 浙江工业大学 一种基于卷积神经网络的自适应特征选择目标跟踪方法
CN108090468B (zh) * 2018-01-05 2019-05-03 百度在线网络技术(北京)有限公司 用于检测人脸的方法和装置
US10695911B2 (en) * 2018-01-12 2020-06-30 Futurewei Technologies, Inc. Robot navigation and object tracking
CN108470355B (zh) * 2018-04-04 2022-08-09 中山大学 融合卷积网络特征和判别式相关滤波器的目标跟踪方法
CN108596221B (zh) * 2018-04-10 2020-12-01 江河瑞通(北京)技术有限公司 标尺读数的图像识别方法及设备
CN108830878B (zh) * 2018-04-13 2021-02-23 上海大学 一种基于fpn神经网络的目标跟踪方法
CN108717522A (zh) * 2018-04-18 2018-10-30 上海交通大学 一种基于深度学习和相关滤波的人体目标跟踪方法
CN108898619B (zh) * 2018-06-08 2021-02-23 上海大学 一种基于pvanet神经网络的目标跟踪方法
CN109146921B (zh) * 2018-07-02 2021-07-27 华中科技大学 一种基于深度学习的行人目标跟踪方法
CN109584271B (zh) * 2018-11-15 2021-10-08 西北工业大学 基于高置信度更新策略的高速相关滤波跟踪方法
CN109741366B (zh) * 2018-11-27 2022-10-18 昆明理工大学 一种融合多层卷积特征的相关滤波目标跟踪方法
CN109858326A (zh) * 2018-12-11 2019-06-07 中国科学院自动化研究所 基于类别语义弱监督的在线视觉跟踪方法及系统
CN109740448B (zh) * 2018-12-17 2022-05-10 西北工业大学 基于相关滤波和图像分割的航拍视频目标鲁棒跟踪方法
CN109886994B (zh) * 2019-01-11 2021-07-20 上海交通大学 视频跟踪中自适应遮挡检测系统及方法
CN109801311B (zh) * 2019-01-31 2021-07-16 长安大学 一种基于深度残差网络特征的视觉目标跟踪方法
CN110647836B (zh) * 2019-09-18 2022-09-20 中国科学院光电技术研究所 一种鲁棒的基于深度学习的单目标跟踪方法
CN111210461B (zh) * 2019-12-30 2023-06-02 成都慧视光电技术有限公司 一种自适应尺度变化的实时相关滤波跟踪算法
CN111627046A (zh) * 2020-05-15 2020-09-04 北京百度网讯科技有限公司 目标部位跟踪方法、装置、电子设备和可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101794382A (zh) * 2010-03-12 2010-08-04 华中科技大学 一种实时公交车客流量统计的方法
CN102831618A (zh) * 2012-07-20 2012-12-19 西安电子科技大学 基于霍夫森林的视频目标跟踪方法
CN103714554A (zh) * 2013-12-12 2014-04-09 华中科技大学 一种基于传播融合的视频跟踪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101794382A (zh) * 2010-03-12 2010-08-04 华中科技大学 一种实时公交车客流量统计的方法
CN102831618A (zh) * 2012-07-20 2012-12-19 西安电子科技大学 基于霍夫森林的视频目标跟踪方法
CN103714554A (zh) * 2013-12-12 2014-04-09 华中科技大学 一种基于传播融合的视频跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Hierarchical Convolutional Features for Visual Tracking;Chao Ma, et al.;《2015 IEEE International Conference on Computer Vision》;20151213;第3074-3082页 *
Human Tracking Using Convolutional Neural Networks;Jialue Fan, et al.;《IEEE TRANSACTIONS ON NEURAL NETWORKS》;20101031;第21卷(第10期);第1610-1623页 *

Also Published As

Publication number Publication date
CN105741316A (zh) 2016-07-06

Similar Documents

Publication Publication Date Title
CN105741316B (zh) 基于深度学习和多尺度相关滤波的鲁棒目标跟踪方法
CN106447658B (zh) 基于全局和局部卷积网络的显著性目标检测方法
CN111062973B (zh) 基于目标特征敏感性和深度学习的车辆跟踪方法
CN108665481B (zh) 多层深度特征融合的自适应抗遮挡红外目标跟踪方法
CN106127684B (zh) 基于双向递归卷积神经网络的图像超分辨率增强方法
CN108416266B (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN112184752A (zh) 一种基于金字塔卷积的视频目标跟踪方法
CN107680119A (zh) 一种基于时空上下文融合多特征及尺度滤波的跟踪算法
CN107154024A (zh) 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN103824272B (zh) 基于k近邻重识别的人脸超分辨率重建方法
CN107341517A (zh) 一种基于深度学习层级间特征融合的多尺度小物体检测方法
CN107229757A (zh) 基于深度学习和哈希编码的视频检索方法
CN110175613A (zh) 基于多尺度特征和编解码器模型的街景图像语义分割方法
CN110826389B (zh) 基于注意力3d频率卷积神经网络的步态识别方法
CN106682569A (zh) 一种基于卷积神经网络的快速交通标识牌识别方法
CN106952288A (zh) 基于卷积特征和全局搜索检测的长时遮挡鲁棒跟踪方法
CN110110646A (zh) 一种基于深度学习的手势图像关键帧提取方法
CN107452022A (zh) 一种视频目标跟踪方法
CN109410251B (zh) 基于稠密连接卷积网络的目标跟踪方法
CN113240691A (zh) 一种基于u型网络的医学图像分割方法
CN108647682A (zh) 一种基于区域卷积神经网络模型的品牌Logo检测与识别方法
CN109461177B (zh) 一种基于神经网络的单目图像深度预测方法
CN103578107B (zh) 一种交互式图像分割方法
CN112861970B (zh) 一种基于特征融合的细粒度图像分类方法
CN104077742A (zh) 基于Gabor特征的人脸素描合成方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20190225

Address after: 710000 Oak Constellation 1 Building 2 Unit 20301, North of Science and Technology Fifth Road, Xi'an High-tech Zone, Shaanxi Province

Patentee after: Xi'an Xu Yao Network Technology Co., Ltd.

Address before: 710072 No. 127 Youyi West Road, Shaanxi, Xi'an

Patentee before: Northwestern Polytechnical University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20190423

Address after: 710000 Unit 2, Unit 3, Building 5, No. 2, Hongpu South Road, Yanta District, Xi'an City, Shaanxi Province

Patentee after: Zhao Feng

Address before: 710000 Oak Constellation 1 Building 2 Unit 20301, North of Science and Technology Fifth Road, Xi'an High-tech Zone, Shaanxi Province

Patentee before: Xi'an Xu Yao Network Technology Co., Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20190920

Address after: 710075 Room 1005, Tongda International Building, 41 Tangyan Road, Xi'an High-tech Zone, Shaanxi Province

Patentee after: Xi'an Anmeng Intelligent Technology Co., Ltd.

Address before: 710000 Unit 2, Unit 3, Building 5, No. 2, Hongpu South Road, Yanta District, Xi'an City, Shaanxi Province

Patentee before: Zhao Feng

TR01 Transfer of patent right