CN111461161A - 基于cnn且抗波动性强的客体检测方法及装置 - Google Patents

基于cnn且抗波动性强的客体检测方法及装置 Download PDF

Info

Publication number
CN111461161A
CN111461161A CN201911294522.6A CN201911294522A CN111461161A CN 111461161 A CN111461161 A CN 111461161A CN 201911294522 A CN201911294522 A CN 201911294522A CN 111461161 A CN111461161 A CN 111461161A
Authority
CN
China
Prior art keywords
test
learning
kth
image
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911294522.6A
Other languages
English (en)
Other versions
CN111461161B (zh
Inventor
金桂贤
金镕重
金寅洙
金鹤京
南云铉
夫硕焄
成明哲
吕东勋
柳宇宙
张泰雄
郑景中
诸泓模
赵浩辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of CN111461161A publication Critical patent/CN111461161A/zh
Application granted granted Critical
Publication of CN111461161B publication Critical patent/CN111461161B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种学习基于CNN且抗波动性强的客体检测器的方法及装置,该客体检测器可根据诸如KPI等使用者的要求事项而适应地利用目标客体预测网络。如果由所述KPI决定的分辨率或焦距发生改变,则客体的大小也改变。利用面向使用者优化设计的所述方法,能够更准确地检测到诸如正在落下或已落下客体的不确实的客体,而且能够感知所述客体的波动。因此,所述方法对于军事目的或位于远处的客体检测非常有用。所述方法包括如下步骤:在使k从1增加到n的同时,学习装置使RPN,输出与图像上的第(k‑1)目标区域对应的第k加工图像上的第k客体推选,使FC层输出与第k客体对应的客体检测信息,使FC损失层获得FC损失。

Description

基于CNN且抗波动性强的客体检测方法及装置
技术领域
本发明涉及一种客体检测器的学习方法和学习装置以及利用其的测试方法和测试装置,该客体检测器可根据诸如关键绩效指标(Key Performa nce Index,KPI)等使用者要求而适应地利用目标客体预测网络,而且抗波动性强。
背景技术
在机器学习(machine learning)中,卷积神经网络(Convolutional NeuralNetwork,CNN或ConvNet)是成功应用于视觉图像分析的深度前馈人工神经网络(Deepfeedforward artificial neural network)。
基于CNN的客体检测器(i)使卷积层,对输入图像应用卷积运算,从而输出与所述输入图像对应的特征图,(ii)使区域推选网络(Region P roposal Network,RPN),利用所述特征图,确认与所述输入图像内的客体对应的推选,(iii)使池化层,在与所述确认的推选对应的所述特征图上的区域应用至少一个池化运算,获得池化后特征图,(iv)使FC(Fully C onnected,全连接)层,将至少一个FC运算应用于与所述获得的池化后特征图乃至与所述客体相关的输出种类信息和回归信息,从而检测所述输入图像上的所述客体。
但是,基于所述CNN的客体检测器由于利用了借助于所述卷积层而缩小了所述输入图像尺寸的尺寸的所述特征图,因而容易检测位于所述输入图像的大尺寸的客体,但难以检测位于所述输入图像的小尺寸的客体。
作为另一示例,虽然可以利用放大所述输入图像而获得的调整了尺寸的图像来检测小尺寸的客体,但在这种情况下,所述客体检测器所需的运算量增加,因而所述客体检测器的性能低下。
因此,本发明的发明人希望提出一种缩短运算时间并高效检测位于输入图像上的多样尺寸的客体的学习方法和学习装置,及利用其的测试方法和测试装置。
发明内容
本发明的目的在于解决上述所有问题。
本发明另一目的在于提供一种基于CNN的客体检测器,使得能够与尺寸无关地高效检测图像上的客体。
本发明又一目的在于提供一种基于CNN的客体检测器,使得能够在不追加增加运算量的同时检测所述图像上的小尺寸客体。
本发明的目的是通过以下技术方案实现的:
根据本发明的一个方面,公开了一种利用目标客体预测网络的客体检测器的参数的学习方法,其特征在于,包括:(a)步骤,输入至少一个训练图像后,学习装置(i)使一个以上的卷积层,对与所述训练图像对应的至少一个第1加工图像应用一个以上的卷积运算,使得输出至少一个第1特征图,(ii)使区域推选网络RPN,利用所述第1特征图,输出与位于所述第1加工图像内的一个以上第1客体分别对应的一个以上的第1客体推选,(iii)使池化层,在所述第1特征图上,对与所述各个第1客体推选分别对应的各个区域,应用一个以上的池化运算,输出至少一个第1池化后特征图,(iv)使全连接FC层,对所述第1池化后特征图应用至少一个FC运算,输出与所述第1客体对应的第1客体检测信息,(v)使FC损失层,参照所述第1客体检测信息和与其对应的地面真值GT,获得一个以上的第1FC损失,进而通过利用所述第1FC损失的反向传播,学习所述FC层与所述卷积层的参数中至少一部分;及(b)步骤,在使k从2增加到n的同时,所述学习装置(i)使所述目标客体预测网络,参照第(k-1)加工图像上的一个以上的第(k-1)客体推选,在所述第(k-1)加工图像上,查找与预测为至少一个目标客体所在的区域对应的第(k-1)目标区域,(ii)在所述训练图像或调整了大小的训练图像上,获得与所述第(k-1)目标区域对应的第k加工图像后,使所述卷积层,对所述第k加工图像应用所述卷积运算,输出第k特征图,(iii)使所述RPN,参照所述第k特征图,输出与位于所述第k加工图像内的一个以上第k客体分别对应的一个以上的第k客体推选,(iv)使所述池化层,在所述第k特征图上,对与所述各个第k客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k池化后特征图,(v)使所述FC层,对所述第k池化后特征图应用所述FC运算,输出与所述第k客体对应的第k客体检测信息,(vi)使所述FC损失层,参照所述第k客体检测信息和与其对应的GT,获得一个以上的第kFC损失,进而通过利用所述第kFC损失的反向传播,学习所述FC层及所述卷积层的参数中至少一部分。
一个实施例,其特征在于,在所述(a)步骤中,所述学习装置使RPN损失层,参照所述第1客体推选的信息和与其对应的GT,获得一个以上的第1RPN损失,进而通过利用所述第1RPN损失的反向传播而调整所述RPN的参数中至少一部分,在所述(b)步骤中,所述学习装置使所述RPN损失层,参照所述第k客体推选的信息和与其对应的GT,获得一个以上的第kRPN损失,进而通过利用所述第kRPN损失的反向传播而调整所述RPN的参数中至少一部分。
一个实施例,其特征在于,在所述(b)步骤中,所述学习装置使所述目标客体预测网络,(i)将所述第(k-1)加工图像区分为MxN栅格,(ii)生成显示出所述第(k-1)客体推选中的与所述栅格每个单元分别对应的推选个数的至少一个以上直方图,且在所述栅格的各单元内,存在与其对应的所述各个推选的全体区域或分割区域,(iii)使用移动窗中至少一个区域,决定所述第(k-1)目标区域,所述至少一个区域是指变更所述移动窗位置时所占有的所有区域中、所述直方图之和具有最大的值的区域。
一个实施例,其特征在于,在所述(b)步骤中,所述学习装置将所述训练图像的尺寸扩大为大于所述第1加工图像的尺寸,生成所述调整了大小的训练图像后,在所述调整了大小的训练图像上,裁剪与所述第(k-1)目标区域对应的至少一个区域,生成所述第k加工图像。
一个实施例,其特征在于,在所述(b)步骤中,所述学习装置在所述训练图像上,裁剪与所述第(k-1)目标区域对应的至少一个区域,对所述裁剪区域调整大小,生成所述第k加工图像。
一个实施例,其特征在于,对所述第k加工图像调整大小,使得所述第k加工图像的尺寸大于所述第(k-1)目标区域的尺寸。
一个实施例,其特征在于,
所述第1加工图像至第n加工图像的尺寸具有相同的大小。
根据本发明的另一个方面,公开了一种利用目标客体预测网络的客体检测器的测试方法,其特征在于,包括:(a)步骤,学习装置(1-1)使一个以上的卷积层,对与至少一个训练图像对应的至少一个第1学习用加工图像应用一个以上的卷积运算,输出至少一个第1学习用特征图,(1-2)使RPN,利用所述第1学习用特征图,输出与位于所述第1学习用加工图像内的一个以上第1学习用客体分别对应的一个以上第1学习用客体推选,(1-3)使池化层,在所述第1学习用特征图上,对与所述各个第1学习用客体推选分别对应的各个区域应用一个以上的池化运算,输出至少一个第1学习用池化后特征图,(1-4)使FC层,对所述第1学习用池化后特征图应用至少一个FC运算,输出与所述第1学习用客体对应的第1学习用客体检测信息,(1-5)使FC损失层,参照所述第1学习用客体检测信息和与其对应的GT,获得一个以上的第1FC损失,从而通过利用所述第1FC损失的反向传播,学习所述FC层及所述卷积层的参数中至少一部分,在使k从2增加到n的同时,(2-1)使所述目标客体预测网络,参照第(k-1)学习用加工图像上的一个以上的第(k-1)学习用客体推选,在所述第(k-1)学习用加工图像上,查找与预测为至少一个学习用目标客体所在的区域对应的第(k-1)学习用目标区域,(2-2)在所述训练图像或调整了大小的训练图像上,获得与所述第(k-1)学习用目标区域对应的第k学习用加工图像后,使所述卷积层,对所述第k学习用加工图像应用所述卷积运算,输出第k学习用特征图,(2-3)使所述RPN,参照所述第k学习用特征图,输出与位于所述第k学习用加工图像内的一个以上第k学习用客体分别对应的一个以上第k学习用客体推选,(2-4)使所述池化层,在所述第k学习用特征图上,对与所述各个第k学习用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k学习用池化后特征图,(2-5)使所述FC层,对所述第k学习用池化后特征图应用所述FC运算,输出与所述第k学习用客体对应的第k学习用客体检测信息,(2-6)使所述FC损失层,参照所述第k学习用客体检测信息和与其对应的GT,输出一个以上的第kFC损失,进而通过利用所述第kFC损失的反向传播,学习所述FC层及所述卷积层的所述参数中至少一部分,在这种状态下,获得至少一个测试图像后,测试装置(i)使所述卷积层,对与所述测试图像对应的至少一个第1测试用加工图像应用所述卷积运算,输出至少一个第1测试用特征图,(ii)使所述RPN,利用所述第1测试用特征图,输出与位于所述第1测试用加工图像内的一个以上第1测试用客体分别对应的一个以上第1测试用客体推选,(iii)使所述池化层,在所述第1测试用特征图上,对与所述各个第1测试用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第1测试用池化后特征图,(iv)使所述FC层,对所述第1测试用池化后特征图应用所述FC运算,输出与所述第1测试用客体对应的第1测试用客体检测信息;及(b)步骤,在使k从2增加到n的同时,所述测试装置(i)使所述目标客体预测网络,参照第(k-1)测试用加工图像上的一个以上的第(k-1)测试用客体推选,在所述第(k-1)测试用加工图像上,查找与预测为至少一个测试用目标客体所在的区域对应的第(k-1)测试用目标区域,(ii)在所述测试图像或调整了大小的测试图像上,获得与所述第(k-1)测试用目标区域对应的第k测试用加工图像后,使所述卷积层,对所述第k测试用加工图像应用所述卷积运算,输出第k测试用特征图,(iii)使所述RPN,参照所述第k测试用特征图,输出与位于所述第k测试用加工图像内的一个以上的第k测试用客体分别对应的一个以上第k测试用客体推选,(iv)使所述池化层,在所述第k测试用特征图上,对与所述各个第k测试用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k测试用池化后特征图,(v)使所述FC层,对所述第k测试用池化后特征图应用所述FC运算,输出与所述第k测试用客体对应的第k测试用客体检测信息。
一个实施例,其特征在于,所述学习装置使RPN损失层,参照所述第1学习用客体推选的信息和与其对应的GT,获得一个以上的第1RPN损失,进而通过利用所述第1RPN损失的反向传播而调整所述RPN的参数中至少一部分,所述学习装置使所述RPN损失层,参照所述第k学习用客体推选的信息和与其对应的GT,获得一个以上的第kRPN损失,进而通过利用所述第kRPN损失的反向传播而调整所述RPN的参数中至少一部分。
一个实施例,其特征在于,在所述(b)步骤中,所述测试装置使所述目标客体预测网络,(i)将所述第(k-1)测试用加工图像区分为MxN栅格,(ii)生成显示出所述第(k-1)客体推选中的与所述栅格每个单元分别对应的测试用推选个数的至少一个以上测试用直方图,且在所述栅格的各单元内,存在与其对应的所述各个测试用推选的全体区域或分割区域,(iii)使用移动窗中至少一个区域,决定所述第(k-1)测试用目标区域,所述至少一个区域是指变更所述移动窗位置时所占有的所有区域中、所述测试用直方图之和具有最大的值的区域。
一个实施例,其特征在于,在所述(b)步骤中,所述测试装置将所述测试图像的尺寸扩大为大于所述第1测试用加工图像的尺寸,生成所述调整了大小的训测试像后,在所述调整了大小的测试图像上,裁剪与所述第(k-1)测试用目标区域对应的至少一个区域,生成所述第k测试用加工图像。
一个实施例,其特征在于,在所述(b)步骤中,所述测试装置在所述测试图像上,裁剪与所述第(k-1)测试用目标区域对应的至少一个区域,对所述裁剪区域调整大小,生成所述第k测试用加工图像。
一个实施例,其特征在于,对所述第k测试用加工图像调整大小,使得所述第k测试用加工图像的尺寸大于所述第(k-1)测试用目标区域的尺寸。
一个实施例,其特征在于,所述第1测试用加工图像至第n测试用加工图像的尺寸具有相同的大小。
根据本发明的又另一个方面,公开了一种学习装置,所述学习装置用于学习利用目标客体预测网络的客体检测器的参数,其特征在于,包括:存储指令的至少一个存储器;及至少一个处理器,所述至少一个处理器构成为运行所述指令,所述指令用于执行:(I)流程,(i)使一个以上的卷积层,对与至少一个训练图像对应的至少一个第1加工图像应用一个以上的卷积运算,输出至少一个第1特征图,(ii)使RPN,利用所述第1特征图,输出与位于所述第1加工图像内的一个以上第1客体分别对应的一个以上的第1客体推选,(iii)使池化层,在所述第1特征图上,对与所述各个第1客体推选分别对应的各个区域,应用一个以上的池化运算,输出至少一个第1池化后特征图,(iv)使FC层,对所述第1池化后特征图应用至少一个FC运算,输出与所述第1客体对应的第1客体检测信息,(v)使FC损失层,参照所述第1客体检测信息和与其对应的GT,获得一个以上的第1FC损失,进而通过利用所述第1FC损失的反向传播,学习所述FC层和所述卷积层的参数中至少一部分;及(II)流程,在使k从2增加到n的同时,(i)使所述目标客体预测网络,参照第(k-1)加工图像上的一个以上的第(k-1)客体推选,在所述第(k-1)加工图像上,查找与预测为至少一个目标客体所在的区域对应的第(k-1)目标区域,(ii)在所述训练图像或调整了大小的训练图像上,获得与所述第(k-1)目标区域对应的第k加工图像后,使所述卷积层,对所述第k加工图像应用所述卷积运算,输出第k特征图,(iii)使所述RPN,参照所述第k特征图,输出与位于所述第k加工图像内的一个以上第k客体分别对应的一个以上的第k客体推选,(iv)使所述池化层,在所述第k特征图上,对与所述各个第k客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k池化后特征图,(v)使所述FC层,对所述第k池化后特征图应用所述FC运算,输出与所述第k客体对应的第k客体检测信息,(vi)使所述FC损失层,参照所述第k客体检测信息和与其对应的GT,获得一个以上的第kFC损失,进而通过利用所述第kFC损失的反向传播,学习所述FC层及所述卷积层的参数中至少一部分。
一个实施例,其特征在于,在所述(I)流程中,所述处理器使RPN损失层,参照所述第1客体推选的信息和与其对应的GT,获得一个以上的第1RPN损失,进而使得通过利用所述第1RPN损失的反向传播而调整所述RPN的参数中至少一部分;在所述(II)流程中,所述处理器使所述RPN损失层,参照所述第k客体推选的信息和与其对应的GT,获得一个以上的第kRPN损失,进而通过利用所述第kRPN损失的反向传播而调整所述RPN的参数中至少一部分。
一个实施例,其特征在于,在所述(II)流程中,所述处理器使所述目标客体预测网络,(i)将所述第(k-1)加工图像区分为MxN栅格,(ii)生成显示出所述第(k-1)客体推选中的与所述栅格每个单元分别对应的推选个数的至少一个以上直方图,且在所述栅格的各单元内,存在与其对应的所述各个推选的全体区域或分割区域,(iii)使用移动窗中至少一个区域来决定所述(k-1)目标区域,所述至少一个区域是指变更所述移动窗的位置时所占有的所有区域中、所述直方图之和具有最大的值的区域。
一个实施例,其特征在于,在所述(II)流程中,所述处理器将所述训练图像的尺寸扩大为大于所述第1加工图像的尺寸,生成所述调整了大小的训练图像后,在所述调整了大小的训练图像上,裁剪与所述第(k-1)目标区域对应的至少一个区域,生成所述第k加工图像。
一个实施例,其特征在于,在所述(II)流程中,所述处理器在所述训练图像上,裁剪与所述第(k-1)目标区域对应的至少一个区域,对所述裁剪区域调整大小,生成所述第k加工图像。
一个实施例,其特征在于,对所述第k加工图像调整大小,使得所述第k加工图像的尺寸大于所述第(k-1)目标区域的尺寸。
一个实施例,其特征在于,所述第1加工图像至第n加工图像的尺寸具有相同的大小。
根据本发明的又另一个方面,公开了一种测试装置,所述测试装置用于测试利用目标客体预测网络的客体检测器,其特征在于,包括:存储指令的至少一个存储器;及至少一个处理器,所述至少一个处理器构成为运行所述指令,所述指令用于在如下状态下,即,学习装置(1-1)使一个以上的卷积层,对与至少一个训练图像对应的至少一个第1学习用加工图像应用一个以上的卷积运算,输出至少一个第1学习用特征图,(1-2)使RPN,利用所述第1学习用特征图,输出与位于所述第1学习用加工图像内的一个以上第1学习用客体分别对应的一个以上第1学习用客体推选,(1-3)使池化层,在所述第1学习用特征图上,对与所述各个第1学习用客体推选分别对应的各个区域应用一个以上的池化运算,输出至少一个第1学习用池化后特征图,(1-4)使FC层,对所述第1学习用池化后特征图应用至少一个FC运算,输出与所述第1学习用客体对应的第1学习用客体检测信息,(1-5)使FC损失层,参照所述第1学习用客体检测信息和与其对应的GT,获得一个以上的第1FC损失,从而通过利用所述第1FC损失的反向传播,学习所述FC层及所述卷积层的参数中至少一部分;在使k从2增加到n的同时,(2-1)使所述目标客体预测网络,参照第(k-1)学习用加工图像上的一个以上的第(k-1)学习用客体推选,在所述第(k-1)学习用加工图像上,查找与预测为至少一个学习用目标客体所在的区域对应的第(k-1)学习用目标区域,(2-2)在所述训练图像或调整了大小的训练图像上,获得与所述第(k-1)学习用目标区域对应的第k学习用加工图像后,使所述卷积层,对所述第k学习用加工图像应用所述卷积运算,输出第k学习用特征图,(2-3)使所述RPN,参照所述第k学习用特征图,输出与位于所述第k学习用加工图像内的一个以上第k学习用客体分别对应的一个以上第k学习用客体推选,(2-4)使所述池化层,在所述第k学习用特征图上,对与所述各个第k学习用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k学习用池化后特征图,(2-5)使所述FC层,对所述第k学习用池化后特征图应用所述FC运算,输出与所述第k学习用客体对应的第k学习用客体检测信息,(2-6)使所述FC损失层,参照所述第k学习用客体检测信息和与其对应的GT,输出一个以上的第kFC损失,进而通过利用所述第kFC损失的反向传播,学习所述FC层及所述卷积层的所述参数中至少一部分,在这种状态下,所述指令用于执行:(I)流程,(i)使所述卷积层,对与测试图像对应的至少一个第1测试用加工图像应用所述卷积运算,输出至少一个第1测试用特征图,(ii)使所述RPN,利用所述第1测试用特征图,输出与位于所述第1测试用加工图像内的一个以上第1测试用客体分别对应的一个以上第1测试用客体推选,(iii)使所述池化层,在所述第1测试用特征图上,对与所述各个第1测试用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第1测试用池化后特征图,(iv)使所述FC层,对所述第1测试用池化后特征图应用所述FC运算,输出与所述第1测试用客体对应的第1测试用客体检测信息;及(II)流程,在使k从2增加到n的同时,(i)使所述目标客体预测网络,参照第(k-1)测试用加工图像上的一个以上的第(k-1)测试用客体推选,在所述第(k-1)测试用加工图像上,查找与预测为至少一个测试用目标客体所在的区域对应的第(k-1)测试用目标区域,(ii)在所述测试图像或调整了大小的测试图像上,获得与所述第(k-1)测试用目标区域对应的第k测试用加工图像后,使所述卷积层,对所述第k测试用加工图像应用所述卷积运算,输出第k测试用特征图,(iii)使所述RPN,参照所述第k测试用特征图,输出与位于所述第k测试用加工图像内的一个以上的第k测试用客体分别对应的一个以上第k测试用客体推选,(iv)使所述池化层,在所述第k测试用特征图上,对与所述各个第k测试用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k测试用池化后特征图,(v)使所述FC层,对所述第k测试用池化后特征图应用所述FC运算,输出与所述第k测试用客体对应的第k测试用客体检测信息。
一个实施例,其特征在于,所述学习装置使RPN损失层,参照所述第1学习用客体推选的信息和与其对应的GT,获得一个以上的第1RPN损失,进而通过利用所述第1RPN损失的反向传播而调整所述RPN的参数中至少一部分,所述学习装置使所述RPN损失层,参照所述第k学习用客体推选的信息和与其对应的GT,获得一个以上的第kRPN损失,进而通过利用所述第kRPN损失的反向传播而调整所述RPN的参数中至少一部分。
一个实施例,其特征在于,在所述(II)流程中,所述处理器使所述目标客体预测网络,(i)将所述第(k-1)测试用加工图像区分为MxN栅格,(ii)生成显示出所述第(k-1)客体推选中的与所述栅格每个单元分别对应的测试用推选个数的至少一个以上测试用直方图,且在所述栅格的各单元内,存在与其对应的所述各个测试用推选的全体区域或分割区域,(iii)使用移动窗中至少一个区域,决定所述第(k-1)测试用目标区域,所述至少一个区域是指变更所述移动窗的位置时所占有的所有区域中、所述测试用直方图之和具有最大的值的区域。
一个实施例,其特征在于,在所述(II)流程中,所述处理器将所述测试图像的尺寸扩大为大于所述第1测试用加工图像的尺寸,生成所述调整了大小的测试图像后,在所述调整了大小的测试图像上,裁剪与所述第(k-1)测试用目标区域对应的至少一个区域,生成所述第k测试用加工图像。
一个实施例,其特征在于,在所述(II)流程中,所述处理器在所述测试图像上,裁剪与所述第(k-1)测试用目标区域对应的至少一个区域,对所述裁剪区域调整大小,生成所述第k测试用加工图像。
一个实施例,其特征在于,对所述第k测试用加工图像调整大小,使得所述第k测试用加工图像的尺寸大于所述第(k-1)测试用目标区域的尺寸。
一个实施例,其特征在于,所述第1测试用加工图像至第n测试用加工图像的尺寸具有相同的大小。
与现有技术相比,本发明的优点在于:
根据本发明,具有的效果是,将输入图像加工成具有互不相同的尺寸的图像后,能够利用在各个加工图像上推定为客体所在的目标区域(Target Area,TR),轻松检测图像内的较小客体。
另外,根据本发明,具有的效果是,将所述输入图像加工成互不相同的尺寸的图像后,裁剪(crop)在各个所述加工图像上推定为客体所在的目标区域,进而利用其经过加工的图像,检测图像内小尺寸的客体,从而能够实现运算量和运算时间的最小化。
附图说明
为了用于说明本发明实施例而附带的下面的图,只是本发明实施例中的一部分,本发明所属技术领域的普通技术人员(以下称为“普通技术人员”)可以不进行发明性作业,基于这些图获得其他图。
图1是概略地显示本发明一个实施例的利用目标客体预测网络的、学习基于CNN的客体检测器的学习装置的图。
图2是概略地显示本发明一个实施例的利用所述目标客体预测网络的、学习基于所述CNN的客体检测器的学习方法的图。
图3是概略地显示本发明一个实施例的利用所述目标客体预测网络的、基于所述CNN的客体检测器的学习方法中要考虑的、从RPN输出的客体推选的图。
图4是概略地显示本发明一个实施例的利用“利用所述目标客体预测网络的、基于所述CNN的客体检测器的学习方法要考虑的、从所述RPN输出的所述客体推选”来查找目标区域的流程的图。
图5是概略地显示本发明一个实施例的利用加工图像来检测至少一个目标客体的流程的图。
图6是概略地显示本发明一个实施例的利用所述目标客体预测网络的、基于所述CNN的客体检测器的测试装置的图。
图7是概略地显示本发明一个实施例的利用所述目标客体预测网络的、基于所述CNN的客体检测器的测试方法的图。
具体实施方式
后述有关本发明的详细说明,为了使本发明的目的、技术方案及优点更分明,参照作为示例而图示本发明可实施的特定实施例的附图,对这些实施例进行了详细说明,以便普通技术人员足以能够实施本发明。
另外,在本发明通篇内容及权利要求中,“包括”字样的术语及其变形,并非要将其他技术特征、附加物、构成要素或步骤排除在外。对于普通技术人员而言,本发明的其他目的、优点及特性,一部分来自本说明书,而一部分来自本发明的实施。以下的示例及附图是作为实例而提供的,并非意图限定本发明。
进一步地,本发明涵盖本说明书中显示的实施例的所有可能组合。本发明的多样实施例虽然互不相同,但应理解为不需要相互排他。例如,在此记载的特定形状、结构及特性,可以与一个实施例相关联,在不超出本发明的精神及范围的前提下体现为其他实施例。另外,各个公开的实施例内的个别构成要素的位置及配置,应理解为在不超出本发明的精神及范围的前提下可以进行变更。因此,后述的详细说明并非出于限定之意,本发明的范围,如能适当说明,则仅由与其权利要求所主张的内容等同的所有范围和所附权利要求所限定。在附图中,类似的附图标记指称在多个方面相同或类似的功能。
本发明中提及的各种图像可以包括铺装或非铺装道路相关图像,是可以推断此时会在道路环境中出现的物体(例如汽车、人、动物、植物、物品、建筑物、诸如飞机或无人机的飞行体、其他障碍物)的图像,但并非必须限定于此,本发明中提及的各种图像也可以是与道路无关的图像(例如与非铺设道路、小胡同、空地、海、湖、河、山、树林、沙漠、天空、室内相关的图像),是可以推断此时会在非铺设道路、小胡同、空地、海、湖、河、山、树林、沙漠、天空、室内环境中出现的物体(例如汽车、人、动物、植物、物品、建筑物、诸如飞机或无人机的飞行体、其他障碍物)的图像,但并非必须限定于此。
下面为了让本发明所属技术领域的普通技术人员能够容易地实施本发明,参照附图,就本发明优选实施例进行详细说明。
图1是概略地显示本发明一个实施例的利用目标客体预测网络的、学习基于CNN的客体检测器的学习装置的图。
参照图1,所述学习装置100可以包括通信部110和处理器120。
首先,所述通信部110获得支持其他装置获得至少一个训练图像。
此时,所述训练图像存储于数据库130,所述数据库130存储有针对与位于所述训练图像的一个以上客体分别对应的类信息及位置信息的至少一个GT(ground truth,地面真值)。
另外,所述学习装置还包括存储器115,所述存储器115能够存储执行后述的流程的计算机可读指令(computer readable instruction)。作为一个示例,所述处理器、所述存储器及介质等可以统合为一个处理器而发挥功能。
然后,所述处理器120执行或支持其他装置执行如下流程:(i)使一个以上的卷积层,对与所述训练图像对应的至少一个第1加工图像应用一个以上的卷积运算,输出至少一个第1特征图,(ii)使RPN,利用所述第1特征图,输出与位于所述第1加工图像内的一个以上第1客体分别对应的一个以上的第1客体推选,(iii)使池化层,在所述第1特征图上,对与所述各个第1客体推选分别对应的各个区域,应用一个以上的池化运算,输出至少一个第1池化后特征图,(iv)使FC层,对所述第1池化后特征图应用至少一个FC运算,输出与所述第1客体对应的第1客体检测信息,(v)使FC损失层,参照所述第1客体检测信息和与其对应的GT,获得一个以上的第1FC损失,从而通过利用所述第1FC损失的反向传播,学习所述FC层和所述卷积层的参数中至少一部分。
另外,所述处理器120可以执行或支持使得其他装置执行如下流程:在使k从2增加到n的同时,(i)使所述目标客体预测网络,参照第k-1加工图像上的一个以上的第k-1客体推选,在所述第k-1加工图像上,查找与预测为至少一个目标客体所在的区域对应的第k-1目标区域,(ii)在所述训练图像或调整了大小的训练图像上,如果获得与所述第k-1目标区域对应的第k加工图像,则使所述卷积层,对所述第k加工图像应用所述卷积运算,输出第k特征图,(iii)使所述RPN,参照所述第k特征图,输出与位于所述第k加工图像内的一个以上第k客体分别对应的一个以上的第k客体推选,(iv)使所述池化层,在所述第k特征图上,对与所述各个第k客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k池化后特征图,(v)使所述FC层,对所述第k池化后特征图应用所述FC运算,输出与所述第k客体对应的第k客体检测信息,(vi)使所述FC损失层,参照所述第k客体检测信息和与其对应的GT,获得一个以上的第kFC损失,从而通过利用所述第kFC损失的反向传播,学习所述FC层及所述卷积层的参数中至少一部分。
另外,所述处理器120可以使RPN损失层,参照所述第1客体推选的信息和与其对应的GT,获得一个以上的第1RPN损失,从而通过利用所述第1RPN损失的反向传播而调整所述RPN的参数中至少一部分,使所述RPN损失层,参照所述第k客体推选的信息和与其对应的GT,获得一个以上的第kRPN损失,从而通过利用所述第kRPN损失的反向传播而调整所述RPN的参数中至少一部分。
此时,本发明一个实施例的所述学习装置100作为计算装置,只要是搭载处理器并具有运算能力的装置,则均可用作本发明的学习装置100。作为参考,在图1中,只显示了一个学习装置100,但不限定于此,所述学习装置也可以分成多个装置并执行功能。
下面参照图2,说明通过如上所述构成的本发明一个实施例的所述学习装置100,利用所述目标客体预测网络来学习基于CNN的客体检测器的参数的方法。
首先,输入了所述训练图像后,所述学习装置100使卷积层121,对与所述训练图像对应的所述第1加工图像应用所述卷积运算,输出所述第1特征图。其中,所述卷积层121可以为单一卷积层或多个卷积层。
此时,所述学习装置100可以使图像加工网络111,加工所述训练图像并生成包含尺寸互不相同的多个图像的图像金字塔,可以将所述图像金字塔中的一个图像作为所述第1加工图像而输入到所述卷积层121。
然后,所述学习装置100可以使RPN122,利用所述第1特征图,输出与位于所述第1加工图像内的所述第1客体对应的一个以上第1客体推选。
作为一个示例,参照图3,从所述RPN122输出的所述第1客体推选可以与所述第1加工图像内所述第1客体分别对应,所述各个第1客体推选可以包括关于所述各个第1客体的各推选框的信息,所述关于各推选框的信息具有与标记区域对应的位置信息和关于所述各个标记区域是否为客体的信息。此时,关于是否为客体的信息可以包括所述各个客体推选被预测为客体的几率信息,所述关于推选框的信息可以包括所述推选框被预测为与所述客体位置一致的几率信息。
然后,所述学习装置100可以使池化层123,在所述第1特征图上,对与所述第1客体推选对应的至少一个区域应用所述池化运算,输出所述第1池化后特征图,使FC层124,对所述第1池化后特征图应用所述FC运算,输出与所述第1客体对应的第1客体检测信息。
此时,所述第1客体检测信息可以包括关于边界框的信息(即,关于所述各个第1客体的位置信息)及关于与所述第1客体推选对应的所述各个第1客体的类信息。另外,所述类信息可以包括所述各个第1客体被预测为相应类的几率信息,关于所述边界框的信息可以包括所述各个边界框被预测为与所述客体的位置一致的几率信息。
然后,所述学习装置100可以使至少一个FC损失层125,参照所述第1客体检测信息和与其对应的GT,获得一个以上的第1FC损失,从而通过利用所述第1FC损失的反向传播,调整所述FC层124与所述卷积层121的参数中至少一部分。
另外,所述学习装置100可以使至少一个RPN损失层126,参照所述第1客体推选和与其对应的GT,获得一个以上的第1RPN损失,从而通过利用所述第1RPN损失的反向传播,调整所述RPN122的参数中至少一部分。
然后,所述学习装置100可以使目标客体预测网络127,参照第1加工图像上的所述第1客体推选,在所述第1加工图像上,查找与预测为所述目标客体所在的区域对应的第1目标区域。
作为一个示例,参照图4,所述目标客体预测网络127(i)将所述第1加工图像区分为MxN栅格,(ii)生成显示出所述第k-1客体推选中的与所述栅格每个单元分别对应的推选个数的至少一个以上直方图,且在所述栅格的各单元内,存在与其对应的所述各个推选的全体区域或分割区域,优选地,可以使得所述对应的推选的尺寸,比从所述RPN122输出的所述客体推选中与所述目标客体的尺寸对应的预先设置的尺寸小,(iii)使用具有与所述第1目标区域的尺寸对应的P×Q尺寸的移动窗的至少一个区域,决定所述第1目标区域,这里所述至少一个区域可以具有在变更所述移动窗的位置时所占有的所有区域中的所述直方图之和最大的值。
然后,所述学习装置100可以获得或支持其他装置获得所述训练图像或对其调整了大小的图像,即,与所述调整了大小的训练图像上的所述第1目标区域对应的第2加工图像。
此时,所述学习装置100可以使所述图像加工网络111,将所述训练图像的尺寸扩大为大于所述第1加工图像的尺寸的尺寸,生成所述调整了大小的训练图像后,在所述调整了大小的训练图像上,裁剪与所述第1目标区域TR对应的至少一个区域而生成所述第2加工图像,或对与所述训练图像上的所述第1目标区域TR对应的至少一个区域进行裁剪及调整大小,生成所述第2加工图像。
作为一个示例,所述图像加工网络111可以在与所述训练图像对应的所述图像金字塔中的大小大于第1加工图像的图像上,裁剪与第1目标区域TR对应的至少一个区域,生成所述第2加工图像。另外,所述图像加工网络111可以在所述训练图像中,裁剪与所述第1目标区域TR对应的至少一个区域,对所述裁剪的图像调整大小,从而生成所述第2加工图像。此时,所述第2加工图像可以被调整大小,使得尺寸大于所述第1目标区域的尺寸。为此,所述图像加工网络111可以对所述裁剪所得图像调整大小,使得与所述训练图像的所述图像金字塔中所述第1加工图像的下一个图像的尺寸对应,生成所述第2加工图像。
然后,所述学习装置100可以利用所述生成的第2加工图像,反复如上所述的过程,高效地检测所述训练图像上的小尺寸的客体,即,位于远处的客体。
即,所述学习装置100可以执行或支持其他装置执行如下流程:在使k从2增加到n的同时,(i)使所述目标客体预测网络127,参照第k-1加工图像上的一个以上的第k-1客体推选,在所述第k-1加工图像上,查找与预测为所述目标客体所在的区域对应的第k-1目标区域,(ii)在所述训练图像或调整了大小的训练图像上,获得与所述第k-1目标区域对应的第k加工图像之后,使所述卷积层,对所述第k加工图像应用所述卷积运算,输出第k特征图。而且,所述学习装置100使所述RPN122,利用所述第k特征图,输出与位于所述第k加工图像内的各个第k客体对应的所述第k客体推选,使所述池化层123,在所述第k特征图上,对与所述各个第k客体推选分别对应的各个区域应用所述池化运算,输出所述至少一个第k池化后特征图。然后,所述学习装置100使所述FC层124,对所述第k池化后特征图应用所述FC运算,输出与所述第k客体对应的第k客体检测信息。而且,所述学习装置100使所述FC损失层125,参照所述第k客体检测信息和与其对应的GT而获得一个以上的第kFC损失,从而可以通过利用所述第kFC损失的反向传播,调整所述FC层及所述卷积层的参数中至少一部分。另外,所述学习装置100可以使所述RPN损失层126,参照所述第k客体推选和与其对应的GT,获得一个以上的第kRPN损失,从而通过利用所述第kRPN损失的反向传播,调整所述RPN122的所述参数中至少一部分。
作为一个示例,参照图5,在与作为所述图像金字塔中最小尺寸图像的第1图像P1对应的所述第1加工图像MI1上,执行客体检测,预测所述第1目标区域TR1,在作为所述图像金字塔中下一个最小尺寸图像的第2图像P2中,在与所述第1目标区域TR1对应的所述第2加工图像MI2上,执行客体检测,确认第2目标区域TR2,在作为所述图像金字塔中第2图像P2的下一个最小尺寸图像的第三图像P3中,在与所述第2目标区域TR2对应的第三加工图像MI3上,执行客体检测,从而可以在较短运算时间内,容易地检测到具有特定尺寸的第k客体,优选地,检测到位于远处的小尺寸的客体。
此时,在所述第1加工图像至第n-1加工图像中,可以使得第1目标区域至第n-1目标区域的尺寸相同,或者在与各个加工图像的尺寸对应地使纵横比(aspect ratio)相同的状态下,其尺寸可以不同。另外,也可以使得所述第1加工图像至所述第n加工图像具有相同的大小。
根据如上所述的方法,高效检测位于所述训练图像内的尺寸多样的客体,特别是尺寸小、位于远处的所述第k客体,另外,由于只使用与所述预测的目标区域对应的区域,因而能够减小运算量,因此,能够缩短基于所述CNN的所述客体检测的运算时间。
另外,以上对于假定在所述训练图像上的目标客体为一个的情形进行了说明,但在所述训练图像内的目标客体为多个的情况下,也可以根据如上所述的方法,利用所述训练图像内的与所述各个目标客体对应的各个目标区域,实现所述各个目标客体的检测。
图6概略地图示了本发明一个实施例的利用所述目标客体预测网络的、测试基于所述CNN的客体检测器的测试装置,参照图6,所述测试装置200可以包括通信部210和处理器220。
首先,所述通信部210获得或支持其他装置获得至少一个测试图像。
另外,所述测试装置还包括存储器215,所述存储器115能够存储执行后述的流程的计算机可读指令(computer readable instruction)。作为一个示例,所述处理器、所述存储器及介质(medium)等可以统合为一个处理器而发挥功能。
此时,利用所述目标客体预测网络的、基于所述CNN的所述客体检测器,可以利用参照图1至图5所说明的所述学习方法进行学习。
作为参考,在以下说明中为了防止混同,在与学习流程相关的术语中添加了“学习用”字样的语句,在与测试流程相关的术语中添加了“测试用”字样的语句。
即,获得训练图像后,则所述学习装置可以执行:(a)流程,(i)使所述卷积层,对与所述训练图像对应的至少一个第1学习用加工图像应用所述卷积运算,输出至少一个第1学习用特征图,(ii)使所述RPN,利用所述第1学习用特征图,输出与位于所述第1学习用加工图像内的一个以上第1学习用客体分别对应的一个以上第1学习用客体推选,(iii)使所述池化层,在所述第1学习用特征图上,对与所述各个第1学习用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第1学习用池化后特征图,(iv)使所述FC层,对所述第1学习用池化后特征图应用所述FC运算,输出与所述第1学习用客体对应的第1学习用客体检测信息,(v)使所述FC损失层,参照所述第1学习用客体检测信息和与其对应的GT,获得所述第1FC损失,从而通过利用所述第1FC损失的反向传播,学习所述FC层与所述卷积层的所述参数中至少一部分;(b)流程,在使k从2增加到n的同时,(i)使所述目标客体预测网络,参照第k-1学习用加工图像上的一个以上的第k-1学习用客体推选,在所述第k-1学习用加工图像上,查找与预测为至少一个学习用目标客体所在的区域对应的第k-1学习用目标区域,(ii)在所述训练图像或调整了大小的训练图像上,如果获得与所述第k-1学习用目标区域对应的第k学习用加工图像,则使所述卷积层,对所述第k学习用加工图像应用所述卷积运算,输出第k学习用特征图,(iii)使所述RPN,参照所述第k学习用特征图,输出与位于所述第k学习用加工图像内的一个以上第k学习用客体分别对应的一个以上第k学习用客体推选,(iv)使所述池化层,在所述第k学习用特征图上,对与所述各个第k学习用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k学习用池化后特征图,(v)使所述FC层,对所述第k学习用池化后特征图应用所述FC运算,输出与所述第k学习用客体对应的第k学习用客体检测信息,(vi)使所述FC损失层,参照所述第k学习用客体检测信息和与其对应的GT,输出一个以上的第kFC损失,从而通过利用所述第kFC损失的反向传播,学习所述FC层及所述卷积层的所述参数中至少一部分。
另外,所述学习装置可以使所述RPN损失层,参照所述第1学习用客体推选的信息和与其对应的GT,获得一个以上的第1RPN损失,从而通过利用所述第1RPN损失的反向传播而调整所述RPN的参数中至少一部分,使所述RPN损失层,参照所述第k学习用客体推选的信息和与其对应的GT,获得一个以上的第kRPN损失,从而通过利用所述第kRPN损失的反向传播而调整所述RPN的参数中至少一部分。
然后,所述处理器220可以执行或支持其他装置执行如下流程:(i)使所述卷积层,对与所述测试图像对应的至少一个第1测试用加工图像应用所述卷积运算,输出至少一个第1测试用特征图,(ii)使所述RPN,利用所述第1测试用特征图,输出与位于所述第1测试用加工图像内的一个以上第1测试用客体分别对应的一个以上第1测试用客体推选,(iii)使所述池化层,在所述第1测试用特征图上,对与所述各个第1测试用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第1测试用池化后特征图,(iv)使所述FC层,对所述第1测试用池化后特征图应用所述FC运算,输出与所述第1测试用客体对应的第1测试用客体检测信息。然后,所述处理器220可以执行或支持其他装置执行如下流程:在使k从2增加到n的同时,(i)使所述目标客体预测网络,参照第k-1测试用加工图像上的一个以上的第k-1测试用客体推选,在所述第k-1测试用加工图像上,查找与预测为至少一个测试用目标客体所在的区域对应的第k-1测试用目标区域,(ii)在所述测试图像或调整了大小的测试图像上,如果获得与所述第k-1测试用目标区域对应的第k测试用加工图像,则使所述卷积层,对所述第k测试用加工图像应用所述卷积运算,输出第k测试用特征图,(iii)使所述RPN,参照所述第k测试用特征图,输出与位于所述第k测试用加工图像内的一个以上的第k测试用客体分别对应的一个以上第k测试用客体推选,(iv)使所述池化层,在所述第k测试用特征图上,对与所述各个第k测试用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k测试用池化后特征图,(v)使所述FC层,对所述第k测试用池化后特征图应用所述FC运算,输出与所述第k测试用客体对应的第k测试用客体检测信息。
此时,本发明一个实施例的测试装置200作为计算装置,只要是搭载处理器并具有运算能力的装置,则均可用作本发明的测试装置200。作为参考,在图6中,只显示了一个测试装置200,但不限定于此,测试装置也可以分成多个装置并执行功能。
下面参照图7,说明本发明一个实施例的利用所述测试装置200来测试利用所述目标客体预测网络的、基于所述CNN的所述客体检测器。在以下说明中,对于通过参照图1至图5说明的所述学习方法而能够容易地理解的部分,省略详细说明。
首先,在根据参照图1至图5说明的学习方法,学习了FC层224、卷积层221及RPN222的参数中至少一部分的状态下,输入了所述测试图像后,所述测试装置200可以使所述卷积层221,对与所述测试图像对应的所述第1加工图像应用所述卷积运算,输出所述第1测试用特征图。此时,所述卷积层221既可以为单一卷积层,也可以为多个卷积层。
此时,所述测试装置200可以使图像加工网络211,加工所述测试图像,生成包括尺寸互不相同的图像的图像金字塔,可以将所述图像金字塔中的一个图像作为所述第1测试用加工图像而输入到所述卷积层221。
然后,所述测试装置200可以使所述RPN222,利用所述第1测试用特征图,输出与位于所述第1测试用加工图像内的所述各个第1测试用客体对应的一个以上第1测试用客体推选。
此时,所述各个第1测试用客体推选可以包括关于所述各个第1测试用客体的各推选的信息,所述关于推选的信息具有与标记区域对应的位置信息和关于所述各个标记区域是否为客体的信息。
然后,所述测试装置200可以使池化层223,在所述第1测试用特征图上,对与所述第1客体推选对应的至少一个区域应用所述池化运算,输出至少一个第1测试用池化后特征图,使所述FC层224,对所述第1测试用池化后特征图应用所述FC运算,输出与所述第1测试用客体对应的第1测试用客体检测信息。
此时,所述第1测试用客体检测信息可以包括关于测试用边界框的信息(即,关于所述各个第1测试用客体的位置信息)及关于与所述第1测试用客体推选对应的所述各个第1测试用客体的类信息。
然后,所述测试装置200可以使目标客体预测网络227,参照第1测试用加工图像上的所述第1测试用客体推选,在所述第1测试用加工图像上,查找与预测为至少一个测试用目标客体所在的区域对应的第1测试用目标区域。
然后,所述测试装置200可以获得或支持其他装置获得所述调整了大小的测试图像或与所述测试图像上的所述第1测试用目标区域对应的第2测试用加工图像。
此时,所述测试装置200可以使所述图像加工网络211,将所述测试图像的尺寸扩大为大于所述第1测试用加工图像的尺寸,生成所述调整了大小的测试图像后,在所述调整了大小的测试图像上,裁剪与所述第1测试用目标区域对应的至少一个区域,生成所述第2测试用加工图像,或对与所述测试图像上的所述第1测试用目标区域对应的至少一个区域进行裁剪及调整大小,生成所述第2测试用加工图像。
作为一个示例,所述图像加工网络211可以在与所述测试图像对应的所述图像金字塔中尺寸比所述第1测试用加工图像大的图像上,裁剪与所述第1测试用目标区域对应的至少一个区域,生成所述第2测试用加工图像。另外,所述图像加工网络211可以在所述测试图像中,裁剪与所述第1测试用目标区域对应的至少一个区域,对所述裁剪而得的图像调整大小,从而生成所述第2测试用加工图像。此时,可以调整大小而使得第2测试用加工图像的尺寸大于所述第1测试用目标区域的尺寸。为此,所述图像加工网络211可以针对所述裁剪而得的图像调整大小,使得与所述测试图像的所述图像金字塔中所述第1测试用加工图像的下一个图像的尺寸对应,生成所述第2测试用加工图像。
然后,所述测试装置200利用所述生成的第2测试用加工图像,反复如上所述的过程,高效检测所述测试图像上的小尺寸的客体,即,位于远处的客体。
换言之,所述测试装置200可以执行或支持其他装置执行如下流程:在使k从2增加到n的同时,(i)使所述目标客体预测网络227,参照第k-1测试用加工图像上的一个以上的第k-1测试用客体推选,在所述第k-1测试用加工图像上,查找与预测为至少一个测试用目标客体所在的区域对应的第k-1测试用目标区域,(ii)在所述测试图像或调整了大小的测试图像上,获得与所述第k-1测试用目标区域对应的第k测试用加工图像之后,使所述卷积层221,对所述第k测试用加工图像应用所述卷积运算,输出第k测试用特征图。而且,所述测试装置200可以使所述RPN222,利用所述第k测试用特征图,输出与位于所述第k测试用加工图像内的所述各个第k测试用客体对应的所述第k测试用客体推选,使所述池化层223,在所述第k测试用特征图上,对与所述各个第k测试用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k测试用池化后特征图。然后,所述测试装置200可以使所述FC层224,对所述第k测试用池化后特征图应用所述FC运算,输出与所述第k测试用客体对应的第k测试用客体检测信息。
根据如上所述的方法,能够高效检测位于所述测试图像内的尺寸多样的客体,特别是尺寸小、位于远处的所述第k客体,另外,由于只使用与所述预测的目标区域对应的区域,因而能够减小运算量,因此,能够缩短基于所述CNN的所述客体检测的运算时间。
另外,以上对于假定在所述测试图像上的目标客体为一个的情形进行了说明,但在所述测试图像内的目标客体为多个的情况下,也可以根据如上所述的方法,利用所述测试图像内的与所述各个目标客体对应的各个目标区域,实现所述各个目标客体的检测。
可以提供一种能够学习客体检测器的参数并应用于诸如关键绩效指标(KPI)的使用者要求事项的目标客体预测网络。如果由所述KPI决定的分辨率(resolution)或焦距(focal length)发生改变,则客体的大小也改变。利用面向使用者优化设计所需的所述方法,能够更准确地检测诸如正在落下或已落下客体的不确实的客体,另外,还能够感知所述客体的波动(fluctuation)。因此,所述方法对于军事目的或位于远处的客体检测非常有用。
以上说明的本发明的实施例可以体现为可通过多样计算机构成要素而执行的程序命令的形态,记录于计算机可读记录介质。所述计算机可读记录介质可以单独或组合包括程序命令、数据文件、数据结构等。所述计算机可读记录介质中记录的程序命令可以是为本发明而特别设计、构成的,或者也可以是计算机软件领域从业人员公知并可使用的。在计算机可读记录介质的示例中,包括诸如硬盘、软盘及磁带的磁介质,诸如CD-ROM(只读光盘驱动器)、DVD(数字化视频光盘)的光记录介质,诸如软式光盘(floptical disk)的磁-光介质(magneto-optical media),及诸如只读存储器(ROM)、随机存储器(RAM)、快闪存储器等的为了存储及执行程序命令而特殊构成的硬件装置。在程序命令的示例中,不仅有借助于编译程序而制成的机器语言代码,还包括使用解释器等而能够借助于计算机运行的高级语言代码。所述硬件装置为了执行本发明的处理,可以构成为一个以上的软件模块而运转,反之亦然。
以上根据诸如具体构成要素等的特定事项和限定的实施例及附图,对本发明进行了说明,但这只是为了帮助更全面理解本发明而提供的,并非本发明限定于所述实施例,只要是本发明所属技术领域的技术人员,便可以从这种记载导出多样的修订及变形。
因此,本发明的思想不局限于所述说明的实施例确定,后述权利要求书以及与该权利要求书等同地或等效地变形的所有内容均属于本发明的思想范畴。

Claims (28)

1.一种利用目标客体预测网络的客体检测器的参数的学习方法,其特征在于,包括:
(a)步骤,输入至少一个训练图像后,学习装置(i)使一个以上的卷积层,对与所述训练图像对应的至少一个第1加工图像应用一个以上的卷积运算,使得输出至少一个第1特征图,(ii)使区域推选网络RPN,利用所述第1特征图,输出与位于所述第1加工图像内的一个以上第1客体分别对应的一个以上的第1客体推选,(iii)使池化层,在所述第1特征图上,对与所述各个第1客体推选分别对应的各个区域,应用一个以上的池化运算,输出至少一个第1池化后特征图,(iv)使全连接FC层,对所述第1池化后特征图应用至少一个FC运算,输出与所述第1客体对应的第1客体检测信息,(v)使FC损失层,参照所述第1客体检测信息和与其对应的地面真值GT,获得一个以上的第1FC损失,进而通过利用所述第1FC损失的反向传播,学习所述FC层与所述卷积层的参数中至少一部分;及
(b)步骤,在使k从2增加到n的同时,所述学习装置(i)使所述目标客体预测网络,参照第(k-1)加工图像上的一个以上的第(k-1)客体推选,在所述第(k-1)加工图像上,查找与预测为至少一个目标客体所在的区域对应的第(k-1)目标区域,(ii)在所述训练图像或调整了大小的训练图像上,获得与所述第(k-1)目标区域对应的第k加工图像后,使所述卷积层,对所述第k加工图像应用所述卷积运算,输出第k特征图,(iii)使所述RPN,参照所述第k特征图,输出与位于所述第k加工图像内的一个以上第k客体分别对应的一个以上的第k客体推选,(iv)使所述池化层,在所述第k特征图上,对与所述各个第k客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k池化后特征图,(v)使所述FC层,对所述第k池化后特征图应用所述FC运算,输出与所述第k客体对应的第k客体检测信息,(vi)使所述FC损失层,参照所述第k客体检测信息和与其对应的GT,获得一个以上的第kFC损失,进而通过利用所述第kFC损失的反向传播,学习所述FC层及所述卷积层的参数中至少一部分。
2.根据权利要求1所述的方法,其特征在于,
在所述(a)步骤中,
所述学习装置使RPN损失层,参照所述第1客体推选的信息和与其对应的GT,获得一个以上的第1RPN损失,进而通过利用所述第1RPN损失的反向传播而调整所述RPN的参数中至少一部分,
在所述(b)步骤中,
所述学习装置使所述RPN损失层,参照所述第k客体推选的信息和与其对应的GT,获得一个以上的第kRPN损失,进而通过利用所述第kRPN损失的反向传播而调整所述RPN的参数中至少一部分。
3.根据权利要求1所述的方法,其特征在于,
在所述(b)步骤中,
所述学习装置使所述目标客体预测网络,(i)将所述第(k-1)加工图像区分为MxN栅格,(ii)生成显示出所述第(k-1)客体推选中的与所述栅格每个单元分别对应的推选个数的至少一个以上直方图,且在所述栅格的各单元内,存在与其对应的所述各个推选的全体区域或分割区域,(iii)使用移动窗中至少一个区域,决定所述第(k-1)目标区域,所述至少一个区域是指变更所述移动窗位置时所占有的所有区域中、所述直方图之和具有最大的值的区域。
4.根据权利要求1所述的方法,其特征在于,
在所述(b)步骤中,
所述学习装置将所述训练图像的尺寸扩大为大于所述第1加工图像的尺寸,生成所述调整了大小的训练图像后,在所述调整了大小的训练图像上,裁剪与所述第(k-1)目标区域对应的至少一个区域,生成所述第k加工图像。
5.根据权利要求1所述的方法,其特征在于,
在所述(b)步骤中,
所述学习装置在所述训练图像上,裁剪与所述第(k-1)目标区域对应的至少一个区域,对所述裁剪区域调整大小,生成所述第k加工图像。
6.根据权利要求5所述的方法,其特征在于,
对所述第k加工图像调整大小,使得所述第k加工图像的尺寸大于所述第(k-1)目标区域的尺寸。
7.根据权利要求1所述的方法,其特征在于,
所述第1加工图像至第n加工图像的尺寸具有相同的大小。
8.一种利用目标客体预测网络的客体检测器的测试方法,其特征在于,包括:
(a)步骤,学习装置(1-1)使一个以上的卷积层,对与至少一个训练图像对应的至少一个第1学习用加工图像应用一个以上的卷积运算,输出至少一个第1学习用特征图,(1-2)使RPN,利用所述第1学习用特征图,输出与位于所述第1学习用加工图像内的一个以上第1学习用客体分别对应的一个以上第1学习用客体推选,(1-3)使池化层,在所述第1学习用特征图上,对与所述各个第1学习用客体推选分别对应的各个区域应用一个以上的池化运算,输出至少一个第1学习用池化后特征图,(1-4)使FC层,对所述第1学习用池化后特征图应用至少一个FC运算,输出与所述第1学习用客体对应的第1学习用客体检测信息,(1-5)使FC损失层,参照所述第1学习用客体检测信息和与其对应的GT,获得一个以上的第1FC损失,从而通过利用所述第1FC损失的反向传播,学习所述FC层及所述卷积层的参数中至少一部分,在使k从2增加到n的同时,(2-1)使所述目标客体预测网络,参照第(k-1)学习用加工图像上的一个以上的第(k-1)学习用客体推选,在所述第(k-1)学习用加工图像上,查找与预测为至少一个学习用目标客体所在的区域对应的第(k-1)学习用目标区域,(2-2)在所述训练图像或调整了大小的训练图像上,获得与所述第(k-1)学习用目标区域对应的第k学习用加工图像后,使所述卷积层,对所述第k学习用加工图像应用所述卷积运算,输出第k学习用特征图,(2-3)使所述RPN,参照所述第k学习用特征图,输出与位于所述第k学习用加工图像内的一个以上第k学习用客体分别对应的一个以上第k学习用客体推选,(2-4)使所述池化层,在所述第k学习用特征图上,对与所述各个第k学习用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k学习用池化后特征图,(2-5)使所述FC层,对所述第k学习用池化后特征图应用所述FC运算,输出与所述第k学习用客体对应的第k学习用客体检测信息,(2-6)使所述FC损失层,参照所述第k学习用客体检测信息和与其对应的GT,输出一个以上的第kFC损失,进而通过利用所述第kFC损失的反向传播,学习所述FC层及所述卷积层的所述参数中至少一部分,在这种状态下,获得至少一个测试图像后,测试装置(i)使所述卷积层,对与所述测试图像对应的至少一个第1测试用加工图像应用所述卷积运算,输出至少一个第1测试用特征图,(ii)使所述RPN,利用所述第1测试用特征图,输出与位于所述第1测试用加工图像内的一个以上第1测试用客体分别对应的一个以上第1测试用客体推选,(iii)使所述池化层,在所述第1测试用特征图上,对与所述各个第1测试用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第1测试用池化后特征图,(iv)使所述FC层,对所述第1测试用池化后特征图应用所述FC运算,输出与所述第1测试用客体对应的第1测试用客体检测信息;及
(b)步骤,在使k从2增加到n的同时,所述测试装置(i)使所述目标客体预测网络,参照第(k-1)测试用加工图像上的一个以上的第(k-1)测试用客体推选,在所述第(k-1)测试用加工图像上,查找与预测为至少一个测试用目标客体所在的区域对应的第(k-1)测试用目标区域,(ii)在所述测试图像或调整了大小的测试图像上,获得与所述第(k-1)测试用目标区域对应的第k测试用加工图像后,使所述卷积层,对所述第k测试用加工图像应用所述卷积运算,输出第k测试用特征图,(iii)使所述RPN,参照所述第k测试用特征图,输出与位于所述第k测试用加工图像内的一个以上的第k测试用客体分别对应的一个以上第k测试用客体推选,(iv)使所述池化层,在所述第k测试用特征图上,对与所述各个第k测试用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k测试用池化后特征图,(v)使所述FC层,对所述第k测试用池化后特征图应用所述FC运算,输出与所述第k测试用客体对应的第k测试用客体检测信息。
9.根据权利要求8所述的方法,其特征在于,
所述学习装置使RPN损失层,参照所述第1学习用客体推选的信息和与其对应的GT,获得一个以上的第1RPN损失,进而通过利用所述第1RPN损失的反向传播而调整所述RPN的参数中至少一部分,
所述学习装置使所述RPN损失层,参照所述第k学习用客体推选的信息和与其对应的GT,获得一个以上的第kRPN损失,进而通过利用所述第kRPN损失的反向传播而调整所述RPN的参数中至少一部分。
10.根据权利要求8所述的方法,其特征在于,
在所述(b)步骤中,
所述测试装置使所述目标客体预测网络,(i)将所述第(k-1)测试用加工图像区分为MxN栅格,(ii)生成显示出所述第(k-1)客体推选中的与所述栅格每个单元分别对应的测试用推选个数的至少一个以上测试用直方图,且在所述栅格的各单元内,存在与其对应的所述各个测试用推选的全体区域或分割区域,(iii)使用移动窗中至少一个区域,决定所述第(k-1)测试用目标区域,所述至少一个区域是指变更所述移动窗位置时所占有的所有区域中、所述测试用直方图之和具有最大的值的区域。
11.根据权利要求8所述的方法,其特征在于,
在所述(b)步骤中,
所述测试装置将所述测试图像的尺寸扩大为大于所述第1测试用加工图像的尺寸,生成所述调整了大小的训测试像后,在所述调整了大小的测试图像上,裁剪与所述第(k-1)测试用目标区域对应的至少一个区域,生成所述第k测试用加工图像。
12.根据权利要求8所述的方法,其特征在于,
在所述(b)步骤中,
所述测试装置在所述测试图像上,裁剪与所述第(k-1)测试用目标区域对应的至少一个区域,对所述裁剪区域调整大小,生成所述第k测试用加工图像。
13.根据权利要求12所述的方法,其特征在于,
对所述第k测试用加工图像调整大小,使得所述第k测试用加工图像的尺寸大于所述第(k-1)测试用目标区域的尺寸。
14.根据权利要求8所述的方法,其特征在于,
所述第1测试用加工图像至第n测试用加工图像的尺寸具有相同的大小。
15.一种学习装置,所述学习装置用于学习利用目标客体预测网络的客体检测器的参数,其特征在于,包括:
存储指令的至少一个存储器;及
至少一个处理器,所述至少一个处理器构成为运行所述指令,所述指令用于执行:(I)流程,(i)使一个以上的卷积层,对与至少一个训练图像对应的至少一个第1加工图像应用一个以上的卷积运算,输出至少一个第1特征图,(ii)使RPN,利用所述第1特征图,输出与位于所述第1加工图像内的一个以上第1客体分别对应的一个以上的第1客体推选,(iii)使池化层,在所述第1特征图上,对与所述各个第1客体推选分别对应的各个区域,应用一个以上的池化运算,输出至少一个第1池化后特征图,(iv)使FC层,对所述第1池化后特征图应用至少一个FC运算,输出与所述第1客体对应的第1客体检测信息,(v)使FC损失层,参照所述第1客体检测信息和与其对应的GT,获得一个以上的第1FC损失,进而通过利用所述第1FC损失的反向传播,学习所述FC层和所述卷积层的参数中至少一部分;及(II)流程,在使k从2增加到n的同时,(i)使所述目标客体预测网络,参照第(k-1)加工图像上的一个以上的第(k-1)客体推选,在所述第(k-1)加工图像上,查找与预测为至少一个目标客体所在的区域对应的第(k-1)目标区域,(ii)在所述训练图像或调整了大小的训练图像上,获得与所述第(k-1)目标区域对应的第k加工图像后,使所述卷积层,对所述第k加工图像应用所述卷积运算,输出第k特征图,(iii)使所述RPN,参照所述第k特征图,输出与位于所述第k加工图像内的一个以上第k客体分别对应的一个以上的第k客体推选,(iv)使所述池化层,在所述第k特征图上,对与所述各个第k客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k池化后特征图,(v)使所述FC层,对所述第k池化后特征图应用所述FC运算,输出与所述第k客体对应的第k客体检测信息,(vi)使所述FC损失层,参照所述第k客体检测信息和与其对应的GT,获得一个以上的第kFC损失,进而通过利用所述第kFC损失的反向传播,学习所述FC层及所述卷积层的参数中至少一部分。
16.根据权利要求15所述的学习装置,其特征在于,
在所述(I)流程中,
所述处理器使RPN损失层,参照所述第1客体推选的信息和与其对应的GT,获得一个以上的第1RPN损失,进而使得通过利用所述第1RPN损失的反向传播而调整所述RPN的参数中至少一部分;
在所述(II)流程中,
所述处理器使所述RPN损失层,参照所述第k客体推选的信息和与其对应的GT,获得一个以上的第kRPN损失,进而通过利用所述第kRPN损失的反向传播而调整所述RPN的参数中至少一部分。
17.根据权利要求15所述的学习装置,其特征在于,
在所述(II)流程中,
所述处理器使所述目标客体预测网络,(i)将所述第(k-1)加工图像区分为MxN栅格,(ii)生成显示出所述第(k-1)客体推选中的与所述栅格每个单元分别对应的推选个数的至少一个以上直方图,且在所述栅格的各单元内,存在与其对应的所述各个推选的全体区域或分割区域,(iii)使用移动窗中至少一个区域来决定所述(k-1)目标区域,所述至少一个区域是指变更所述移动窗的位置时所占有的所有区域中、所述直方图之和具有最大的值的区域。
18.根据权利要求15所述的学习装置,其特征在于,
在所述(II)流程中,
所述处理器将所述训练图像的尺寸扩大为大于所述第1加工图像的尺寸,生成所述调整了大小的训练图像后,在所述调整了大小的训练图像上,裁剪与所述第(k-1)目标区域对应的至少一个区域,生成所述第k加工图像。
19.根据权利要求15所述的学习装置,其特征在于,
在所述(II)流程中,
所述处理器在所述训练图像上,裁剪与所述第(k-1)目标区域对应的至少一个区域,对所述裁剪区域调整大小,生成所述第k加工图像。
20.根据权利要求19所述的学习装置,其特征在于,
对所述第k加工图像调整大小,使得所述第k加工图像的尺寸大于所述第(k-1)目标区域的尺寸。
21.根据权利要求15所述的学习装置,其特征在于,
所述第1加工图像至第n加工图像的尺寸具有相同的大小。
22.一种测试装置,所述测试装置用于测试利用目标客体预测网络的客体检测器,其特征在于,包括:
存储指令的至少一个存储器;及
至少一个处理器,所述至少一个处理器构成为运行所述指令,所述指令用于在如下状态下,即,学习装置(1-1)使一个以上的卷积层,对与至少一个训练图像对应的至少一个第1学习用加工图像应用一个以上的卷积运算,输出至少一个第1学习用特征图,(1-2)使RPN,利用所述第1学习用特征图,输出与位于所述第1学习用加工图像内的一个以上第1学习用客体分别对应的一个以上第1学习用客体推选,(1-3)使池化层,在所述第1学习用特征图上,对与所述各个第1学习用客体推选分别对应的各个区域应用一个以上的池化运算,输出至少一个第1学习用池化后特征图,(1-4)使FC层,对所述第1学习用池化后特征图应用至少一个FC运算,输出与所述第1学习用客体对应的第1学习用客体检测信息,(1-5)使FC损失层,参照所述第1学习用客体检测信息和与其对应的GT,获得一个以上的第1FC损失,从而通过利用所述第1FC损失的反向传播,学习所述FC层及所述卷积层的参数中至少一部分;在使k从2增加到n的同时,(2-1)使所述目标客体预测网络,参照第(k-1)学习用加工图像上的一个以上的第(k-1)学习用客体推选,在所述第(k-1)学习用加工图像上,查找与预测为至少一个学习用目标客体所在的区域对应的第(k-1)学习用目标区域,(2-2)在所述训练图像或调整了大小的训练图像上,获得与所述第(k-1)学习用目标区域对应的第k学习用加工图像后,使所述卷积层,对所述第k学习用加工图像应用所述卷积运算,输出第k学习用特征图,(2-3)使所述RPN,参照所述第k学习用特征图,输出与位于所述第k学习用加工图像内的一个以上第k学习用客体分别对应的一个以上第k学习用客体推选,(2-4)使所述池化层,在所述第k学习用特征图上,对与所述各个第k学习用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k学习用池化后特征图,(2-5)使所述FC层,对所述第k学习用池化后特征图应用所述FC运算,输出与所述第k学习用客体对应的第k学习用客体检测信息,(2-6)使所述FC损失层,参照所述第k学习用客体检测信息和与其对应的GT,输出一个以上的第kFC损失,进而通过利用所述第kFC损失的反向传播,学习所述FC层及所述卷积层的所述参数中至少一部分,在这种状态下,所述指令用于执行:(I)流程,(i)使所述卷积层,对与测试图像对应的至少一个第1测试用加工图像应用所述卷积运算,输出至少一个第1测试用特征图,(ii)使所述RPN,利用所述第1测试用特征图,输出与位于所述第1测试用加工图像内的一个以上第1测试用客体分别对应的一个以上第1测试用客体推选,(iii)使所述池化层,在所述第1测试用特征图上,对与所述各个第1测试用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第1测试用池化后特征图,(iv)使所述FC层,对所述第1测试用池化后特征图应用所述FC运算,输出与所述第1测试用客体对应的第1测试用客体检测信息;及(II)流程,在使k从2增加到n的同时,(i)使所述目标客体预测网络,参照第(k-1)测试用加工图像上的一个以上的第(k-1)测试用客体推选,在所述第(k-1)测试用加工图像上,查找与预测为至少一个测试用目标客体所在的区域对应的第(k-1)测试用目标区域,(ii)在所述测试图像或调整了大小的测试图像上,获得与所述第(k-1)测试用目标区域对应的第k测试用加工图像后,使所述卷积层,对所述第k测试用加工图像应用所述卷积运算,输出第k测试用特征图,(iii)使所述RPN,参照所述第k测试用特征图,输出与位于所述第k测试用加工图像内的一个以上的第k测试用客体分别对应的一个以上第k测试用客体推选,(iv)使所述池化层,在所述第k测试用特征图上,对与所述各个第k测试用客体推选分别对应的各个区域应用所述池化运算,输出至少一个第k测试用池化后特征图,(v)使所述FC层,对所述第k测试用池化后特征图应用所述FC运算,输出与所述第k测试用客体对应的第k测试用客体检测信息。
23.根据权利要求22所述的测试装置,其特征在于,
所述学习装置使RPN损失层,参照所述第1学习用客体推选的信息和与其对应的GT,获得一个以上的第1RPN损失,进而通过利用所述第1RPN损失的反向传播而调整所述RPN的参数中至少一部分,
所述学习装置使所述RPN损失层,参照所述第k学习用客体推选的信息和与其对应的GT,获得一个以上的第kRPN损失,进而通过利用所述第kRPN损失的反向传播而调整所述RPN的参数中至少一部分。
24.根据权利要求22所述的测试装置,其特征在于,
在所述(II)流程中,
所述处理器使所述目标客体预测网络,(i)将所述第(k-1)测试用加工图像区分为MxN栅格,(ii)生成显示出所述第(k-1)客体推选中的与所述栅格每个单元分别对应的测试用推选个数的至少一个以上测试用直方图,且在所述栅格的各单元内,存在与其对应的所述各个测试用推选的全体区域或分割区域,(iii)使用移动窗中至少一个区域,决定所述第(k-1)测试用目标区域,所述至少一个区域是指变更所述移动窗的位置时所占有的所有区域中、所述测试用直方图之和具有最大的值的区域。
25.根据权利要求22所述的测试装置,其特征在于,
在所述(II)流程中,
所述处理器将所述测试图像的尺寸扩大为大于所述第1测试用加工图像的尺寸,生成所述调整了大小的测试图像后,在所述调整了大小的测试图像上,裁剪与所述第(k-1)测试用目标区域对应的至少一个区域,生成所述第k测试用加工图像。
26.根据权利要求22所述的测试装置,其特征在于,
在所述(II)流程中,
所述处理器在所述测试图像上,裁剪与所述第(k-1)测试用目标区域对应的至少一个区域,对所述裁剪区域调整大小,生成所述第k测试用加工图像。
27.根据权利要求26所述的测试装置,其特征在于,
对所述第k测试用加工图像调整大小,使得所述第k测试用加工图像的尺寸大于所述第(k-1)测试用目标区域的尺寸。
28.根据权利要求22所述的测试装置,其特征在于,
所述第1测试用加工图像至第n测试用加工图像的尺寸具有相同的大小。
CN201911294522.6A 2019-01-22 2019-12-16 基于cnn且抗波动性强的客体检测方法及装置 Active CN111461161B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/254,162 US10402692B1 (en) 2019-01-22 2019-01-22 Learning method and learning device for fluctuation-robust object detector based on CNN using target object estimating network adaptable to customers' requirements such as key performance index, and testing device using the same
US16/254162 2019-01-22

Publications (2)

Publication Number Publication Date
CN111461161A true CN111461161A (zh) 2020-07-28
CN111461161B CN111461161B (zh) 2024-03-15

Family

ID=67770001

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911294522.6A Active CN111461161B (zh) 2019-01-22 2019-12-16 基于cnn且抗波动性强的客体检测方法及装置

Country Status (5)

Country Link
US (1) US10402692B1 (zh)
EP (1) EP3686785A1 (zh)
JP (1) JP6850046B2 (zh)
KR (1) KR102246368B1 (zh)
CN (1) CN111461161B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10572770B2 (en) * 2018-06-15 2020-02-25 Intel Corporation Tangent convolution for 3D data
CN110910415A (zh) * 2019-11-28 2020-03-24 重庆中星微人工智能芯片技术有限公司 抛物检测方法、装置、服务器和计算机可读介质
CN111488711A (zh) * 2020-04-08 2020-08-04 暨南大学 一种网络鲁棒性评估方法及系统
CN111509810A (zh) * 2020-05-18 2020-08-07 广东电网有限责任公司东莞供电局 一种锂电池充电状态检测方法、装置及存储介质
CN112346056B (zh) * 2021-01-11 2021-03-26 长沙理工大学 多脉冲雷达信号的分辨性特征融合提取方法及识别方法
CN112801706B (zh) * 2021-02-04 2024-02-02 北京云上曲率科技有限公司 一种游戏用户行为数据挖掘方法及系统
US11961314B2 (en) 2021-02-16 2024-04-16 Nxp B.V. Method for analyzing an output of an object detector
US11688112B2 (en) 2021-05-07 2023-06-27 Nxp B.V. Method for generating detailed visualization of machine learning model behavior

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180039853A1 (en) * 2016-08-02 2018-02-08 Mitsubishi Electric Research Laboratories, Inc. Object Detection System and Object Detection Method
US20180157938A1 (en) * 2016-12-07 2018-06-07 Samsung Electronics Co., Ltd. Target detection method and apparatus
JP2018147431A (ja) * 2017-03-09 2018-09-20 コニカミノルタ株式会社 画像認識装置及び画像認識方法
WO2018170671A1 (en) * 2017-03-20 2018-09-27 Intel Corporation Topic-guided model for image captioning system
US10169679B1 (en) * 2017-10-13 2019-01-01 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same
CN109241982A (zh) * 2018-09-06 2019-01-18 广西师范大学 基于深浅层卷积神经网络的目标检测方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9418319B2 (en) * 2014-11-21 2016-08-16 Adobe Systems Incorporated Object detection using cascaded convolutional neural networks
US10410096B2 (en) * 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
US20170124409A1 (en) * 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Cascaded neural network with scale dependent pooling for object detection
US10002313B2 (en) * 2015-12-15 2018-06-19 Sighthound, Inc. Deeply learned convolutional neural networks (CNNS) for object localization and classification
US9858496B2 (en) * 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
WO2017139927A1 (en) * 2016-02-17 2017-08-24 Intel Corporation Region proposal for image regions that include objects of interest using feature maps from multiple layers of a convolutional neural network model
US10354362B2 (en) * 2016-09-08 2019-07-16 Carnegie Mellon University Methods and software for detecting objects in images using a multiscale fast region-based convolutional neural network
US10387740B2 (en) * 2016-10-10 2019-08-20 Gyrfalcon Technology Inc. Object detection and recognition apparatus based on CNN based integrated circuits
US10198671B1 (en) * 2016-11-10 2019-02-05 Snap Inc. Dense captioning with joint interference and visual context
WO2018093796A1 (en) * 2016-11-15 2018-05-24 Magic Leap, Inc. Deep learning system for cuboid detection
US20180211403A1 (en) * 2017-01-20 2018-07-26 Ford Global Technologies, Llc Recurrent Deep Convolutional Neural Network For Object Detection
US10474908B2 (en) * 2017-07-06 2019-11-12 GM Global Technology Operations LLC Unified deep convolutional neural net for free-space estimation, object detection and object pose estimation
JP7149692B2 (ja) * 2017-08-09 2022-10-07 キヤノン株式会社 画像処理装置、画像処理方法
US10007865B1 (en) * 2017-10-16 2018-06-26 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same
US10223614B1 (en) * 2018-09-04 2019-03-05 StradVision, Inc. Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same
US10229346B1 (en) * 2018-09-04 2019-03-12 StradVision, Inc. Learning method, learning device for detecting object using edge image and testing method, testing device using the same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180039853A1 (en) * 2016-08-02 2018-02-08 Mitsubishi Electric Research Laboratories, Inc. Object Detection System and Object Detection Method
US20180157938A1 (en) * 2016-12-07 2018-06-07 Samsung Electronics Co., Ltd. Target detection method and apparatus
JP2018147431A (ja) * 2017-03-09 2018-09-20 コニカミノルタ株式会社 画像認識装置及び画像認識方法
WO2018170671A1 (en) * 2017-03-20 2018-09-27 Intel Corporation Topic-guided model for image captioning system
US10169679B1 (en) * 2017-10-13 2019-01-01 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using loss augmentation and testing method and testing device using the same
CN109241982A (zh) * 2018-09-06 2019-01-18 广西师范大学 基于深浅层卷积神经网络的目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
XIA FANGTING 等: "Zoom Better to See Clearer:Human and Object Parsing with Hierarchical Auto-Zoom Net", pages 648 - 663 *

Also Published As

Publication number Publication date
KR102246368B1 (ko) 2021-04-29
JP2020119530A (ja) 2020-08-06
EP3686785A1 (en) 2020-07-29
CN111461161B (zh) 2024-03-15
KR20200091323A (ko) 2020-07-30
US10402692B1 (en) 2019-09-03
JP6850046B2 (ja) 2021-03-31

Similar Documents

Publication Publication Date Title
CN111461161A (zh) 基于cnn且抗波动性强的客体检测方法及装置
KR102338744B1 (ko) 타겟 객체 예측 네트워크 및 타겟 객체 통합 네트워크를 이용하여 핵심성과지표와 같은 사용자 요구 사항에 따른 최적화를 위해 재구성 가능한 네트워크 기반의 객체 검출기를 학습하는 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
KR102280414B1 (ko) 고 정밀도로 이미지를 분석하기 위한 딥 러닝 네트워크를 사용하기 위해 트레이닝 이미지를 오토 라벨링하는 오토 라벨링 장치의 하이퍼파라미터를 최적화하는 방법 및 이를 이용한 최적화 장치
CN111507888B (zh) 利用生成性对抗神经网络生成合成图像的方法及装置
KR102328731B1 (ko) 다중 카메라 혹은 서라운드 뷰 모니터링에 이용되기 위해, 타겟 객체 통합 네트워크 및 타겟 영역 예측 네트워크를 이용하여 핵심성과지표와 같은 사용자 요구 사항에 적응 가능한 cnn 기반 객체 검출기를 학습하는 방법 및 학습 장치, 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
KR102337367B1 (ko) 원거리 검출 또는 군사 목적을 위해, 이미지 컨캐터네이션을 이용한, cnn 기반의 하드웨어 최적화가 가능한 객체 검출기를 학습하는 방법 및 학습 장치, 이를 이용한 테스팅 방법 및 테스팅 장치
CN111462193B (zh) 用于多摄像机或环绕视图监控的对象检测方法及装置
KR102263397B1 (ko) 뉴럴 네트워크 학습에 이용될 오토 라벨링된 이미지 중에서 라벨 검수를 위한 샘플 이미지를 획득하는 방법 및 이를 이용한 샘플 이미지 획득 장치
KR102328734B1 (ko) 이미지를 분석하기 위해, 딥러닝 네트워크에 이용하기 위한 트레이닝 이미지에 대한 라벨링 신뢰도를 자동으로 평가하기 위한 방법 및 이를 이용한 신뢰도 평가 장치
KR20200047307A (ko) 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
EP3910532B1 (en) Learning method and learning device for training an object detection network by using attention maps and testing method and testing device using the same
US10387754B1 (en) Learning method and learning device for object detector based on CNN using 1×H convolution to be used for hardware optimization, and testing method and testing device using the same
KR102337358B1 (ko) 모바일 장치 또는 소형 네트워크에 적용 가능한 하드웨어를 최적화하는데 사용될 수 있는 roi를 풀링하기 위하여, 마스킹 파라미터를 이용하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
EP3686801B1 (en) Learning method and learning device for convolutional neural network using 1xh convolution for image recognition to be used for hardware optimization, and testing method and testing device using the same
EP3686790A1 (en) Learning method and learning device for convolutional neural network using 1×1 convolution for image recognition to be used for hardware optimization, and testing method and testing device using the same
US20200234135A1 (en) LEARNING METHOD AND LEARNING DEVICE FOR CNN USING 1xK OR Kx1 CONVOLUTION TO BE USED FOR HARDWARE OPTIMIZATION, AND TESTING METHOD AND TESTING DEVICE USING THE SAME
US10474543B1 (en) Method and device for economizing computing resources to be used during a process of verification of convolutional parameters using test pattern to enhance fault tolerance and fluctuation robustness in extreme situations
CN116912290A (zh) 一种记忆增强的难易视频运动小目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant