CN111489297A - 用于检测危险要素的学习用图像数据集的生成方法和装置 - Google Patents
用于检测危险要素的学习用图像数据集的生成方法和装置 Download PDFInfo
- Publication number
- CN111489297A CN111489297A CN201911011833.7A CN201911011833A CN111489297A CN 111489297 A CN111489297 A CN 111489297A CN 201911011833 A CN201911011833 A CN 201911011833A CN 111489297 A CN111489297 A CN 111489297A
- Authority
- CN
- China
- Prior art keywords
- image
- edge
- label
- generate
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000004364 calculation method Methods 0.000 claims abstract description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 34
- 230000011218 segmentation Effects 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 8
- 238000012549 training Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 2
- 230000001902 propagating effect Effects 0.000 claims description 2
- 238000001514 detection method Methods 0.000 abstract description 2
- 238000003709 image segmentation Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Abstract
本发明是用于检测危险要素的学习用图像数据集的生成方法和装置。本发明提供一种为了提高行驶时检测危险要素而在至少一个输入图像中生成用于能够检测客体的CNN的学习用图像数据集的方法,包括以下步骤:计算装置(a)获得针对所述客体与背景之间的边界设置有边缘部分,并针对各个所述背景及所述客体分别分配有互不相同的标签值的第1标签图像;(b)提取所述边缘部分,从所述第1标签图像中生成边缘图像;(c)所述第1标签图像与针对所述提取的边缘部分赋予加权值而生成的边缘加强图像合并,生成第2标签图像;及(d)将所述输入图像与所述第2标签图像作为所述学习用图像数据集进行存储。
Description
技术领域
本发明涉及一种生成学习用图像数据集的方法和装置,该学习用图像数据集用于在至少一个输入图像中检测一个以上客体的CNN(Convolutional Neural Network,卷积神经网络)来提高危险要素检测能力;具体而言,涉及一种生成用于能够在所述输入图像中检测所述客体的所述CNN的学习用图像数据集的方法,及利用其的学习方法及计算装置。
背景技术
深度学习是用于将事物或数据聚类或分类的技术。例如,计算机无法单凭照片区分狗和猫。但人可以很容易地区分。为此研发了称之为“机器学习(Machine Learning)”的方法。这是一种将很多数据输入到计算机并将类似数据进行分类的技术。如果输入与储存的狗照片相似的照片,则计算机就会将其分类为狗照片。
有关如何分类数据,已出现了很多机器学习算法。代表性的有“决策树”或“贝页斯网络”、“支持向量机(Support Vector Machine,SVM)”、“人工神经网络”等。其中,深度学习是人工神经网络的后裔。
深层卷积神经网络(Deep Convolutional Neural Network;Deep CNN)是在深度学习领域飞速发展的核心。为了解决文字识别问题,CNN早在90年代就已经被使用了,而像现在如此广泛应用,得益于最近的研究成果。这样的深度CNN在2012年ImageNet图像分类大赛中战胜其他竞争者而赢得了冠军。之后,卷积神经网络成为了机器学习(MachineLearning)领域中非常有用的工具。
图像分割(Image segmentation)是一种通过输入来接收图像后通过输出来生成被标签了的图像的方法。随着最近深度学习技术受到瞩目,分割也走向大量使用深度学习的趋势。初期尝试了仅使用编码器的分割,例如利用卷积运算生成标签图像的方法等。之后,出现了通过设计编码器-解码器构造,来利用编码器提取图像的特征,并利用解码器复原为标签图像的方法。但是仅凭编码器-解码器构造很难获得精密图像。即,在图像的编码及解码过程中很多的边缘部分会消失。为了解决这些问题,提出了在图像或对应其的特征图中加强边缘的方法。
发明内容
发明所要解决的课题
本发明的目的在于,解决前面提及的所有问题点。
本发明的另一目的在于,提供一种用于学习CNN的至少一个学习用图像数据集,所述CNN利用包括一个以上的加强的语义(semantic)边缘部分的至少一个标签图像来检测一个以上的边缘部分。
另外,本发明的又另一目的在于,提供一种学习CNN的方法,其能够在图像分割(Image segmentation)过程中搜寻出精密的边缘部分。
用于解决课题的技术方案
根据本发明的一个方面,提供一种生成用于在至少一个输入图像中检测一个以上客体的卷积神经网络CNN的学习用图像数据集的方法,其特征在于,包括:
步骤(a),计算装置,获得或支持其他装置获得输入图像所对应的至少一个第1标签图像,其中,所述输入图像针对所述客体与背景之间的一个以上的边界设置有一个以上的边缘部分,并针对对应于所述背景及各个所述客体的各个类分配有互不相同的标签值;
步骤(b),所述计算装置,提取所述背景的类与所述客体的各个类之间的所述边缘部分,从所述第1标签图像中生成或支持其他装置生成至少一个边缘图像,;
步骤(c),所述计算装置,针对所述提取的边缘部分赋予一个以上的加权值而生成或支持其他装置生成至少一个边缘加强图像,向所述第1标签图像合并所述边缘加强图像而生成或支持其他装置生成至少一个第2标签图像;及
步骤(d),所述计算装置,将所述输入图像及用作对应其的地面实况GT图像的所述第2标签图像作为所述学习用图像数据集进行存储,或支持其他装置进行存储。
一个实施例,其中,
在所述边缘加强图像中分配到所述边缘部分的标签值,大于在所述第1标签图像中分配到各个所述客体的各个标签值。
一个实施例,其中,
在所述步骤(c),通过增加所述提取的边缘部分的幅度,生成一个以上扩大的边缘部分,通过针对所述扩大的边缘部分赋予所述加权值,生成所述边缘加强图像。
一个实施例,其中,
在所述步骤(c),所述边缘加强图像生成为,使得赋予到所述扩大的边缘部分的所述加权值具备均一形态。
一个实施例,其中,
在所述步骤(c),所述边缘加强图像生成为,使得赋予到所述扩大的边缘部分的所述加权值具备高斯形态。
根据本发明的另一个方面,提供一种用于从至少一个输入图像中检测一个以上的客体的CNN的学习方法,其包括:
步骤(a),第1计算装置,(i)获得或支持其他装置获得输入图像所对应的至少一个第1标签图像,其中,所述输入图像针对所述客体与背景之间的一个以上的边界设置有一个以上边缘部分,并针对对应于所述背景及各个所述客体的各个类分配有互不相同的标签值,(ii)提取所述背景的类与所述客体的各个类之间的所述边缘部分,从所述第1标签图像中生成或支持其他装置生成至少一个边缘图像,(iii)针对所述提取的边缘部分赋予一个以上加权值而生成或支持其他装置生成至少一个边缘加强图像,向所述第1标签图像合并所述边缘加强图像而生成或支持其他装置生成至少一个第2标签图像,(iv)将所述输入图像及用作对应其的GT图像的所述第2标签图像,作为所述学习用图像数据集进行存储,或支持其他装置进行存储,在通过以上过程生成了所述学习用图像数据集的情况下,第2计算装置获得或支持其他装置获得所述输入图像作为训练图像;
步骤(b),所述第2计算装置,从所述CNN获得或支持其他装置获得所述训练图像的至少一个分割结果;及
步骤(c),所述第2计算装置,利用所述分割结果及所述第2标签图像算出至少一个损失,并反向传播所述算出的损失,从而最优化或支持其他装置最优化所述CNN的一个以上的参数。
根据本发明的又另一个方面,提供一种生成用于在至少一个输入图像中检测一个以上客体的CNN的学习用图像数据集的计算装置,其特征在于,包括:
至少一个存储器,用于存储指令;及
至少一个处理器,构成为用于执行所述指令,所述指令执行:
过程(I),获得或支持其他装置获得输入图像所对应的至少一个第1标签图像,其中,所述输入图像针对所述客体与背景之间的一个以上的边界设置有一个以上的边缘部分,并针对对应于所述背景及各个所述客体的各个类分配有互不相同的标签值;过程(II),提取所述背景的类与所述客体的各个类之间的所述边缘部分,从所述第1标签图像中生成或支持其他装置生成至少一个边缘图像;过程(III),针对所述提取的边缘部分赋予一个以上的加权值而生成或支持其他装置生成至少一个边缘加强图像,向所述第1标签图像合并所述边缘加强图像而生成或支持其他装置生成至少一个第2标签图像;及过程(IV),将所述输入图像及用作对应其的GT图像的所述第2标签图像,作为所述学习用图像数据集进行存储,或支持其他装置进行存储。
一个实施例,其中,
在所述边缘加强图像中分配到所述边缘部分的标签值,大于在所述第1标签图像中分配到所述各个客体的各个标签值。
一个实施例,其中,
在所述过程(III),通过增加所述提取的边缘部分的幅度,生成一个以上扩大的边缘部分,通过针对所述扩大的边缘部分赋予所述加权值,生成所述边缘加强图像。
一个实施例,其中,
在所述过程(III),所述边缘加强图像生成为,使得赋予到所述扩大的边缘部分的所述加权值具备均一形态。
一个实施例,其中,
在所述过程(III),所述边缘加强图像生成为,使得赋予到所述扩大的边缘部分的所述加权值具备高斯形态。
根据本发明的又另一个方面,提供一种用于从至少一个输入图像中检测一个以上的客体的CNN的计算装置,其特征在于,包括:
至少一个存储器,用于存储指令;及
至少一个处理器,构成为用于执行所述指令,所述指令执行以下过程:
第1计算装置,(i)获得或支持其他装置获得输入图像所对应的至少一个第1标签图像,其中,所述输入图像针对所述客体与背景之间的一个以上的边界设置有一个以上的边缘部分,并针对对应于所述背景及各个所述客体的各个类分配有互不相同的标签值,(ii)提取所述背景的类与所述客体的各个类之间的所述边缘部分,从所述第1标签图像中生成或支持其他装置生成至少一个边缘图像,(iii)针对所述提取的边缘部分赋予一个以上的加权值而生成或支持其他装置生成至少一个边缘加强图像,向所述第1标签图像合并所述边缘加强图像而生成或支持其他装置生成至少一个第2标签图像,(iv)将所述输入图像及用作对应其的GT图像的所述第2标签图像,作为所述学习用图像数据集进行存储,或支持其他装置进行存储;
通过以上过程生成了所述学习用图像数据集的情况下,(I)所述第2计算装置,从所述CNN获得或支持其他装置获得所述训练图像的至少一个分割结果,(II)所述第2计算装置,利用所述分割结果及所述第2标签图像算出至少一个损失,并反向传播所述算出的损失,从而最优化或支持其他装置最优化所述CNN的一个以上的参数。
发明效果
根据本发明,使用加强了边缘的标签图像,能够通过CNN有效搜寻出边缘。
另外,根据本发明,通过基于边缘加强图像的学习,过后能够在图像分割测试过程中搜寻出精细的边缘部分。
附图说明
为了说明本实施例而附加的以下附图仅仅是本发明一些实施例的一部分,本技术领域所属领域的技术人员(以下称“普通技术人员”),可以基于这些附图获得其他附图而无需进行创造性工作。
图1是本发明提供的学习用图像数据集生成过程的概略图。
图2是本发明提供的至少一个边缘加强图像与至少一个初期标签图像合并而生成至少一个新标签图像的过程中的各个图像的示例性示意图。
图3是本发明提供的所述边缘加强图像、所述初期标签图像及所述边缘加强图像与初期标签图像合并而生成的所述新标签图像和对应其的标签值分布的示例性示意图。
具体实施方式
以下所描述的有关本发明的详细说明,为了明确本发明的目的、技术性方案及优点,参照作为示例而图示本发明可实施的特定实施例的附图。对这些实施例进行了详细说明,以便从业人员能够实施本发明。
另外,在本发明的详细说明及权利要求中,“包括”字样的术语及其变形,并非要将其他技术特征、附加物、构成要素或步骤排除在外。对于普通技术人员而言,本发明的其他目的、优点及特性,有些通过本说明书来体现,有些则通过本发明的实施来体现。以下的示例及附图是作为实例而提供的,并非意图限定本发明。
尤其,本发明囊括了本说明书所示的实施例所有可能的组合。本发明的多种实施例虽然互不相同,但应理解为不需要是相互排他的。例如,在此记载的特定形状、结构及特性,可以与一个实施例相关联,在不超出本发明的精神及范围的前提下体现为其他实施例。另外,各个公开的实施例内的个别构成要素的位置及配置,应理解为在不超出本发明的精神及范围的前提下可以变更。因此,后述的详细说明并非出于限定之意,本发明的范围,如能适当说明,仅由与其权利要求所主张的范围等同的所有范围和所附权利要求所限定。在附图中,类似的附图标记指称在多个方面相同或类似的功能。
本发明中提及的各种图像可以包括铺装或非铺装道路相关图像,该情况下,可以设想可能出现在道路环境中的客体(例如汽车、人、动物、植物、物品、建筑物、诸如飞机或无人机等飞行体、其他障碍物),但并非必须限定于此,本发明中提及的各种图像也可以是与道路无关的图像(例如与非铺设道路、小胡同、空地、海、湖、河、山、树林、沙漠、天空、室内相关的图像),该情况下,可以设想可能出现在非铺设道路、小胡同、空地、海、湖、河、山、树林、沙漠、天空、室内环境中的客体(例如汽车、人、动物、植物、物品、建筑物、诸如飞机或无人机等飞行体、其他障碍物),但并非必须限定于此。
下面为了让本发明所属技术领域的普通技术人员能够容易地实施本发明,参照附图,就本发明优选实施例进行详细说明。
图1是本发明提供的学习用图像数据集的生成过程的流程概略图。图2是本发明提供的至少一个边缘加强图像与至少一个初期标签图像合并生成至少一个新标签图像的过程中的各个图像的示例性示意图。
如图1及图2所示,有关本发明提供的用于检测一个以上客体的CNN(卷积神经网络;Convolutional Neural Network)所使用的所述学习用图像数据集的生成过程,说明如下。
首先,计算装置获得或支持其他装置获得对应所述输入图像的所述初期标签图像,即至少一个第1标签图像,在输入图像中,针对所述客体与背景之间的一个以上的边界设置有一个以上的边缘部分,并针对对应于所述背景及各个所述客体的各个类分配有互不相同的标签(label)值(S01)。如图2所示,示出了在所述输入图像10针对对应于所述背景与各个所述客体的各个类分配了互不相同的标签值时,获得或支持其他装置获得对应所述输入图像的所述第1标签图像20的过程。此时,在所述第1标签图像20中,可以分配为对应所述背景的类的标签值为0,对应两枚硬币的类的标签值为1,也可以分配为对应所述背景的类的标签值为0,对应左边硬币的类的标签值为1,对应右边硬币的类的标签值为2。
之后,所述计算装置,提取所述背景的类与所述客体的各个类之间的所述边缘部分,从所述第1标签图像中生成或支持其他装置生成至少一个边缘图像30(S02)。然后,所述计算装置,针对所述提取的边缘部分赋予一个以上的加权值(weight)而生成或支持其他装置生成边缘加强图像40(S03)。举一例,所述计算装置通过增加所述边缘部分的幅度,并针对所述扩大的边缘部分赋予所述加权值,而生成或支持其他装置生成所述边缘加强图像。此时,在所述边缘加强图像40中分配到所述边缘部分(或所述扩大的边缘部分)的标签值可设置为大于分配到所述第1标签图像20内的各个所述客体的各个标签值。例如,在所述第1标签图像20中,如果分配到对应背景的类的标签值为0,对应所述两枚硬币的类的标签值为1,则所述边缘部分的标签值可以分配为2。然而,因为所述第1标签图像20中的对应所述两枚硬币的类的区域与所述边缘加强图像40中的对应所述边缘部分的类的区域相互重叠,因此,所述边缘部分的标签值无需大于对应所述两枚硬币的类的标签值。这种情况以后会说明,其理由在于所述边缘部分的标签值将会具有大于对应所述两枚硬币的类的标签值。
图3是本发明提供的(i)所述边缘加强图像、所述初期标签图像及所述边缘加强图像与初期标签图像合并而生成的所述新标签图像,以及(ii)分别对应这些的标签值分布的示例性示意图。
如图3所示,针对所述边缘图像30的所述边缘部分赋予一个以上的加权值而加强所述边缘部分,从而生成所述边缘加强图像40。举另一例,通过增加所述边缘部分的幅度,生成一个以上的扩大的边缘部分,并针对所述扩大的边缘部分赋予所述加权值而生成所述边缘加强图像40。此时,所述边缘部分(或所述扩大的边缘部分)的标签值也可以与其他部分,即与所述背景的标签值不同。在图3所示的例子中,一实施例所涉及的所述边缘加强图像40形成为使得所述边缘加强图像40内的所述边缘部分(或所述扩大的边缘部分)的标签值41具备均一(uniform)形态。此时,如果是通过针对所述边缘部分(或所述扩大的边缘部分)赋予所述加权值的方式生成所述边缘加强图像40,那么,所述边缘加强图像40形成为使得针对所述边缘部分(或所述扩大的边缘部分)赋予的所述加权值具备均一形态。另外,根据另一实施例的所述边缘加强图像40,是为使所述边缘加强图像40内的所述边缘部分(或所述扩大的边缘部分)的标签值42具备高斯(Gaussian)形态而生成了所述边缘加强图像40。此时,如果是通过针对所述边缘部分(或所述扩大的边缘部分)赋予所述加权值的方式生成所述边缘加强图像40,那么,所述边缘加强图像40形成为使得针对所述扩大的边缘部分赋予的所述加权值具备高斯形态。
接着,再次参考如图1及图2,所述计算装置向所述初期标签图像,即向所述第1标签图像20合并所述边缘加强图像40而生成或支持其他装置生成所述新的标签图像,即第2标签图像50(S04)。向所述第1标签图像20合并所述边缘加强图像40的过程,可以是通过将各个图像的标签值按元素求和(element-wise sum)而得以执行,也可以是通过向所述第1标签图像20的标签值按元素相乘(element-wise product)所述边缘加强图像40的所述加权值后执行所述按元素求和。
如图3所示,一实施例所涉及的所述边缘加强图像40内的所述边缘部分(或所述扩大的边缘部分)的标签值41具备均一形态时,所述标签值41与所述第1标签图像20的标签值21相加,即可获得所述第2标签图像50的标签值51,根据另一实施例,所述加强图像40内的所述边缘部分(或所述扩大的边缘部分)的标签值42具备高斯形态时,所述标签值42与所述第1标签图像20的标签值22相加,即可获得所述第2标签图像50的标签值52。在所述第2标签图像50中,所述边缘部分不仅幅度宽,两个实施例51及52的所述边缘部分(或所述扩大的边缘部分)的所述加权值或标签值将被设置为大于其他类。
进一步,所述计算装置将(i)所述输入图像10与(ii)用作对应所述输入图像10的GT(Ground Truth,地面实况)图像的所述第2标签图像50,作为学习用图像数据集存储,或支持其他装置存储(S05)。
进一步,利用所述学习用图像数据集,可以学习所述CNN的一个以上参数(S06)。此时,所述第2标签图像50可用作与自所述输入图像10求得的分割(segmentation)结果相比较的所述GT图像。例如,将所述输入图像10输入到所述CNN,生成分割结果后,利用所述分割结果与所述第2标签图像50算出至少一个损失,并反向传播(backpropagation)所述算出的损失,以便学习所述CNN的所述参数。
利用通过这种方式生成的所述学习用图像数据集学习所述CNN的所述参数,则所述第2标签图像50内的所述边缘部分如同所述GT图像般得到加强,因此,可更有效地学习用于检测所述边缘部分的所述CNN。尤其,如果所述边缘部分的标签值大于其他类的标签值,则算出的所述边缘部分的损失值将大于其他部分的损失值,从而可更好地进行学习。因此,可以向更好地搜寻所述边缘部分的方向进行学习,其结果通过学习能够获得具有更精密的边缘部分的分割结果。
所述的方法可用于提高行驶时检测危险要素的能力,提高检测交通信号、标志牌、道路标志等的水平。
本发明技术领域的普通技术人员能够理解,上面说明的图像,例如所述训练图像、所述测试图像及所述输入图像等图像数据的发送和接收,可通过所述学习装置及所述测试装置的通信部实现,特征图和用于执行运算的数据可借由所述学习装置及所述测试装置的处理器(和/或存储器)保存/维护,而卷积运算、反卷积运算、损失值运算过程,可主要由所述学习装置及所述测试装置的所述处理器执行,但本发明不限于此。
另外,以上说明的本发明提供的实施例,是以通过多种计算机构成要素执行的程序指令的形式体现,从而可载入计算机可读存储介质中。所述计算机可读存储介质可单独或组合包含程序指令、数据文件、数据结构等。记录在所述计算机可读存储介质上的程序指令,可以是为了本发明特别设计和构成的,或者也可以是计算机软件领域的从业者公知使用的。计算机可读存储介质的示例包括硬盘、软盘及磁带等磁媒体,CD-ROM(只读光盘驱动器)、DVD(数字化视频光盘)等光盘,光磁盘(floptical disk)等磁-光介质(magneto-optical media),以及只读存储器(ROM)、随机存储器(RAM)、闪存存储器等为了储存程序指令并执行而特别构成的硬件设备。程序指令的示例不仅包括由编译器生成的机器语言代码,还包括可通过解释器由计算机执行的高级语言代码。为执行本发明提供的处理,上述硬件设备可由一个或多个软件模块来运行,反之亦然。
以上用具体构成要素等特定事项和限定的实施例及附图来说明了本发明,但这只是为了帮助对本发明更全面的理解而提供的,本发明并不仅限于上述实施例,在本发明所属的技术领域中拥有一般知识的人,可以基于这些描述进行多样的修改和变换。
因此,本发明的思想不应局限于所述说明的实施例而定,不仅是后述的权利要求范围,与本权利要求范围均等或等价的任何变换都属于本发明的思想范筹。
Claims (12)
1.一种生成用于在至少一个输入图像中检测一个以上客体的卷积神经网络CNN的学习用图像数据集的方法,其特征在于,包括:
步骤(a),计算装置,获得或支持其他装置获得输入图像所对应的至少一个第1标签图像,其中,所述输入图像针对所述客体与背景之间的一个以上的边界设置有一个以上的边缘部分,并针对对应于所述背景及各个所述客体的各个类分配有互不相同的标签值;
步骤(b),所述计算装置,提取所述背景的类与所述客体的各个类之间的所述边缘部分,从所述第1标签图像中生成或支持其他装置生成至少一个边缘图像;
步骤(c),所述计算装置,针对所述提取的边缘部分赋予一个以上的加权值而生成或支持其他装置生成至少一个边缘加强图像,向所述第1标签图像合并所述边缘加强图像而生成或支持其他装置生成至少一个第2标签图像;及
步骤(d),所述计算装置,将所述输入图像及用作对应其的地面实况GT图像的所述第2标签图像作为所述学习用图像数据集进行存储,或支持其他装置进行存储。
2.根据权利要求1所述的方法,其特征在于,
在所述边缘加强图像中分配到所述边缘部分的标签值,大于在所述第1标签图像中分配到各个所述客体的各个标签值。
3.根据权利要求1所述的方法,其特征在于,
在所述步骤(c),通过增加所述提取的边缘部分的幅度,生成一个以上扩大的边缘部分,通过针对所述扩大的边缘部分赋予所述加权值,生成所述边缘加强图像。
4.根据权利要求3所述的方法,其特征在于,
在所述步骤(c),所述边缘加强图像生成为,使得赋予到所述扩大的边缘部分的所述加权值具备均一形态。
5.根据权利要求3所述的方法,其特征在于,
在所述步骤(c),所述边缘加强图像生成为,使得赋予到所述扩大的边缘部分的所述加权值具备高斯形态。
6.一种用于从至少一个输入图像中检测一个以上的客体的CNN的学习方法,其特征在于,包括:
步骤(a),第1计算装置,(i)获得或支持其他装置获得输入图像所对应的至少一个第1标签图像,其中,所述输入图像针对所述客体与背景之间的一个以上的边界设置有一个以上边缘部分,并针对对应于所述背景及各个所述客体的各个类分配有互不相同的标签值,(ii)提取所述背景的类与所述客体的各个类之间的所述边缘部分,从所述第1标签图像中生成或支持其他装置生成至少一个边缘图像,(iii)针对所述提取的边缘部分赋予一个以上加权值而生成或支持其他装置生成至少一个边缘加强图像,向所述第1标签图像合并所述边缘加强图像而生成或支持其他装置生成至少一个第2标签图像,(iv)将所述输入图像及用作对应其的GT图像的所述第2标签图像,作为所述学习用图像数据集进行存储,或支持其他装置进行存储,在通过以上过程生成了所述学习用图像数据集的情况下,第2计算装置获得或支持其他装置获得所述输入图像作为训练图像;
步骤(b),所述第2计算装置,从所述CNN获得或支持其他装置获得所述训练图像的至少一个分割结果;及
步骤(c),所述第2计算装置,利用所述分割结果及所述第2标签图像算出至少一个损失,并反向传播所述算出的损失,从而最优化或支持其他装置最优化所述CNN的一个以上的参数。
7.一种生成用于在至少一个输入图像中检测一个以上客体的CNN的学习用图像数据集的计算装置,其特征在于,包括:
至少一个存储器,用于存储指令;及
至少一个处理器,构成为用于执行所述指令,所述指令执行:
过程(I),获得或支持其他装置获得输入图像所对应的至少一个第1标签图像,其中,所述输入图像针对所述客体与背景之间的一个以上的边界设置有一个以上的边缘部分,并针对对应于所述背景及各个所述客体的各个类分配有互不相同的标签值;过程(II),提取所述背景的类与所述客体的各个类之间的所述边缘部分,从所述第1标签图像中生成或支持其他装置生成至少一个边缘图像;过程(III),针对所述提取的边缘部分赋予一个以上的加权值而生成或支持其他装置生成至少一个边缘加强图像,向所述第1标签图像合并所述边缘加强图像而生成或支持其他装置生成至少一个第2标签图像;及过程(IV),将所述输入图像及用作对应其的GT图像的所述第2标签图像,作为所述学习用图像数据集进行存储,或支持其他装置进行存储。
8.根据权利要求7所述的计算装置,其特征在于,
在所述边缘加强图像中分配到所述边缘部分的标签值,大于在所述第1标签图像中分配到所述各个客体的各个标签值。
9.根据权利要求7所述的计算装置,其特征在于,
在所述过程(III),通过增加所述提取的边缘部分的幅度,生成一个以上扩大的边缘部分,通过针对所述扩大的边缘部分赋予所述加权值,生成所述边缘加强图像。
10.根据权利要求9所述的计算装置,其特征在于,
在所述过程(III),所述边缘加强图像生成为,使得赋予到所述扩大的边缘部分的所述加权值具备均一形态。
11.根据权利要求9所述的计算装置,其特征在于,
在所述过程(III),所述边缘加强图像生成为,使得赋予到所述扩大的边缘部分的所述加权值具备高斯形态。
12.一种用于从至少一个输入图像中检测一个以上的客体的CNN的计算装置,其特征在于,包括:
至少一个存储器,用于存储指令;及
至少一个处理器,构成为用于执行所述指令,所述指令执行以下过程:
第1计算装置,(i)获得或支持其他装置获得输入图像所对应的至少一个第1标签图像,其中,所述输入图像针对所述客体与背景之间的一个以上的边界设置有一个以上的边缘部分,并针对对应于所述背景及各个所述客体的各个类分配有互不相同的标签值,(ii)提取所述背景的类与所述客体的各个类之间的所述边缘部分,从所述第1标签图像中生成或支持其他装置生成至少一个边缘图像,(iii)针对所述提取的边缘部分赋予一个以上的加权值而生成或支持其他装置生成至少一个边缘加强图像,向所述第1标签图像合并所述边缘加强图像而生成或支持其他装置生成至少一个第2标签图像,(iv)将所述输入图像及用作对应其的GT图像的第2标签图像,作为所述学习用图像数据集进行存储,或支持其他装置进行存储;
通过以上过程生成了所述学习用图像数据集的情况下,(I)第2计算装置,从所述CNN获得或支持其他装置获得所述训练图像的至少一个分割结果,(II)所述第2计算装置,利用所述分割结果及所述第2标签图像算出至少一个损失,并反向传播所述算出的损失,从而最优化或支持其他装置最优化所述CNN的一个以上的参数。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/257,940 US10551845B1 (en) | 2019-01-25 | 2019-01-25 | Method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same |
US16/257940 | 2019-01-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111489297A true CN111489297A (zh) | 2020-08-04 |
CN111489297B CN111489297B (zh) | 2023-08-22 |
Family
ID=68424612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911011833.7A Active CN111489297B (zh) | 2019-01-25 | 2019-10-23 | 用于检测危险要素的学习用图像数据集的生成方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10551845B1 (zh) |
EP (1) | EP3686796A1 (zh) |
JP (1) | JP6869565B2 (zh) |
KR (1) | KR102313607B1 (zh) |
CN (1) | CN111489297B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085001A (zh) * | 2020-09-23 | 2020-12-15 | 清华大学苏州汽车研究院(相城) | 一种基于多尺度边缘特征检测的隧道识别模型及方法 |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102073873B1 (ko) * | 2019-03-22 | 2020-02-05 | 주식회사 루닛 | 시맨틱 세그먼테이션 방법 및 그 장치 |
CN110163153B (zh) * | 2019-05-23 | 2022-01-04 | 阿波罗智能技术(北京)有限公司 | 用于识别交通标志牌边界的方法及装置 |
CN111859131B (zh) * | 2020-07-21 | 2021-06-15 | 山东省科院易达科技咨询有限公司 | 一种多约束条件下的个性化信息推荐方法及信息推荐系统 |
CN113077624A (zh) * | 2021-03-23 | 2021-07-06 | 广东粤高智慧交通科技有限公司 | 一种交通事件智慧检测系统 |
CN113012087B (zh) * | 2021-03-31 | 2022-11-04 | 中南大学 | 基于卷积神经网络的图像融合方法 |
CN114359676B (zh) * | 2022-03-08 | 2022-07-19 | 人民中科(济南)智能技术有限公司 | 训练目标检测模型和构建样本集的方法、装置及存储介质 |
US20230386163A1 (en) * | 2022-05-28 | 2023-11-30 | Orbital Insight, Inc. | Object Level Data Augmentation Scheme for Training Object Detectors |
CN115063639B (zh) * | 2022-08-11 | 2022-12-09 | 小米汽车科技有限公司 | 生成模型的方法、图像语义分割方法、装置、车辆及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004529713A (ja) * | 2001-05-17 | 2004-09-30 | シーメンス コーポレイト リサーチ インコーポレイテツド | Mr心臓画像における左心室のセグメンテーションに対する様々なアプローチ |
US20140003723A1 (en) * | 2012-06-27 | 2014-01-02 | Agency For Science, Technology And Research | Text Detection Devices and Text Detection Methods |
US20140169666A1 (en) * | 2011-08-18 | 2014-06-19 | Hewlett-Packard Development Company, L.P. | Creating a blended image |
CN108876804A (zh) * | 2017-10-12 | 2018-11-23 | 北京旷视科技有限公司 | 抠像模型训练和图像抠像方法、装置和系统及存储介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5767857A (en) * | 1996-08-30 | 1998-06-16 | Pacific Data Images, Inc. | Method, apparatus, and software product for generating outlines for raster-based rendered images |
JP3699873B2 (ja) * | 1999-10-27 | 2005-09-28 | オリンパス株式会社 | 画像処理装置 |
TWI239209B (en) * | 2004-04-08 | 2005-09-01 | Benq Corp | A specific image extraction method, storage medium and image pickup device using the same |
EP1922999B1 (en) | 2005-09-05 | 2011-08-03 | Konica Minolta Medical & Graphic, Inc. | Image processing method and image processing device |
JP5308391B2 (ja) * | 2010-03-31 | 2013-10-09 | 富士フイルム株式会社 | 画像符号化装置および方法並びにプログラム |
US9710892B2 (en) * | 2015-10-21 | 2017-07-18 | Chunghwa Picture Tubes, Ltd. | Image enhancement method and image processing apparatus thereof |
AU2017361061B2 (en) * | 2016-11-15 | 2022-02-03 | Magic Leap, Inc. | Deep learning system for cuboid detection |
CN111095296B (zh) * | 2017-09-14 | 2024-07-02 | 雪佛龙美国公司 | 使用机器学习对字符串进行分类 |
US10852419B2 (en) * | 2017-10-20 | 2020-12-01 | Texas Instruments Incorporated | System and method for camera radar fusion |
-
2019
- 2019-01-25 US US16/257,940 patent/US10551845B1/en active Active
- 2019-09-27 KR KR1020190119501A patent/KR102313607B1/ko active IP Right Grant
- 2019-10-23 CN CN201911011833.7A patent/CN111489297B/zh active Active
- 2019-10-24 JP JP2019193145A patent/JP6869565B2/ja active Active
- 2019-10-30 EP EP19206216.4A patent/EP3686796A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004529713A (ja) * | 2001-05-17 | 2004-09-30 | シーメンス コーポレイト リサーチ インコーポレイテツド | Mr心臓画像における左心室のセグメンテーションに対する様々なアプローチ |
US20140169666A1 (en) * | 2011-08-18 | 2014-06-19 | Hewlett-Packard Development Company, L.P. | Creating a blended image |
US20140003723A1 (en) * | 2012-06-27 | 2014-01-02 | Agency For Science, Technology And Research | Text Detection Devices and Text Detection Methods |
CN108876804A (zh) * | 2017-10-12 | 2018-11-23 | 北京旷视科技有限公司 | 抠像模型训练和图像抠像方法、装置和系统及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112085001A (zh) * | 2020-09-23 | 2020-12-15 | 清华大学苏州汽车研究院(相城) | 一种基于多尺度边缘特征检测的隧道识别模型及方法 |
CN112085001B (zh) * | 2020-09-23 | 2024-04-23 | 清华大学苏州汽车研究院(相城) | 一种基于多尺度边缘特征检测的隧道识别模型及方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20200092841A (ko) | 2020-08-04 |
EP3686796A1 (en) | 2020-07-29 |
US10551845B1 (en) | 2020-02-04 |
JP6869565B2 (ja) | 2021-05-12 |
JP2020119496A (ja) | 2020-08-06 |
KR102313607B1 (ko) | 2021-10-19 |
CN111489297B (zh) | 2023-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111489297A (zh) | 用于检测危险要素的学习用图像数据集的生成方法和装置 | |
EP3620979B1 (en) | Learning method, learning device for detecting object using edge image and testing method, testing device using the same | |
CN110874564B (zh) | 分类车线后补像素检测车线的方法及装置 | |
US20220261659A1 (en) | Method and Apparatus for Determining Neural Network | |
CN110879960B (zh) | 生成卷积神经网络学习用图像数据集的方法及计算装置 | |
US20140270489A1 (en) | Learned mid-level representation for contour and object detection | |
CN109118504B (zh) | 一种基于神经网络的图像边缘检测方法、装置及其设备 | |
CN111476343B (zh) | 利用掩蔽参数的方法和装置 | |
CN111488782A (zh) | 利用拉普拉斯金字塔网络检测道路障碍物的方法和装置 | |
CN114419381B (zh) | 一种语义分割方法及应用其的道路积水检测方法和装置 | |
Chen et al. | Vectorization of historical maps using deep edge filtering and closed shape extraction | |
CN111583276A (zh) | 基于cgan的空间目标isar图像部件分割方法 | |
US10956598B1 (en) | Method for preventing breach of original data for deep learning and data breach preventing device using them | |
CN114581710A (zh) | 图像识别方法、装置、设备、可读存储介质及程序产品 | |
CN116861262B (zh) | 一种感知模型训练方法、装置及电子设备和存储介质 | |
Wang et al. | Cross-domain learning using optimized pseudo labels: toward adaptive car detection in different weather conditions and urban cities | |
Feng et al. | Improved deep fully convolutional network with superpixel-based conditional random fields for building extraction | |
Shao et al. | An Adversarial sample defense method based on multi-scale GAN | |
Dong et al. | SiameseDenseU‐Net‐based Semantic Segmentation of Urban Remote Sensing Images | |
CN117423116B (zh) | 一种文本检测模型的训练方法、文本检测方法及装置 | |
CN116821699B (zh) | 一种感知模型训练方法、装置及电子设备和存储介质 | |
WO2023088176A1 (en) | Data augmentation for machine learning | |
Rayate | Synthetic Aperture Radar (SAR) Automatic Target Recognition (ATR) of Ships using Data Augmentation and Deep Learning | |
CN116778312A (zh) | 图像处理方法、装置、计算机设备、存储介质及程序产品 | |
CN116563530A (zh) | 基于改进的互信息损失函数的车道线语义分割方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |