JP6869565B2 - 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} - Google Patents
危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} Download PDFInfo
- Publication number
- JP6869565B2 JP6869565B2 JP2019193145A JP2019193145A JP6869565B2 JP 6869565 B2 JP6869565 B2 JP 6869565B2 JP 2019193145 A JP2019193145 A JP 2019193145A JP 2019193145 A JP2019193145 A JP 2019193145A JP 6869565 B2 JP6869565 B2 JP 6869565B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- label
- edge
- computing device
- edge portion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 72
- 238000001514 detection method Methods 0.000 title description 2
- 238000013527 convolutional neural network Methods 0.000 claims description 34
- 238000005728 strengthening Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 16
- 230000011218 segmentation Effects 0.000 claims description 14
- 238000009826 distribution Methods 0.000 claims description 10
- 238000009827 uniform distribution Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 241000282472 Canis lupus familiaris Species 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/181—Segmentation; Edge detection involving edge growing; involving edge linking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Description
以下、本発明が属する技術分野で通常の知識を有する者が本発明を容易に実施することができるようにするために、本発明の好ましい実施例について添付の図面に基づいて詳細に説明する。
図3を参照すれば、一例に係る前記エッジ強化イメージ40内の前記エッジ部分(又は前記拡大されたエッジ部分)のラベル値41が均一な分布を有する場合に、前記ラベル値41が前記第1ラベルイメージ20のラベル値21と合算されれば、前記第2ラベルイメージ50のラベル値51を得ることができ、他の実施例に係る前記エッジ強化のイメージ40内の前記エッジ部分(又は前記拡大されたエッジ部分)のラベル値42がカウシアン分布を有する場合、前記ラベル値42が前記第1ラベルイメージ20のラベル値22と合算されれば、前記第2ラベルイメージ50のラベル値52を得ることができる。前記第2ラベルのイメージ50では、前記エッジ部分の幅が広いだけでなく、二つの実施例(51及び52)の前記エッジ部分(又は前記拡大されたエッジ部分)の前記重み付け値またはラベル値が他のクラスより大きく設定される。
Claims (12)
- 少なくとも一つの入力イメージから一つ以上の物体検出をするためのCNN(Convolutional Neural Network)に利用される学習用イメージデータセットを生成する方法において、
(a)コンピューティング装置が、前記入力イメージにおいて、前記物体とバックグラウンドとの間の一つ以上の境界に一つ以上のエッジ部分が設定され、前記バックグラウンド及び前記物体のそれぞれに対応するクラスにそれぞれの互いに異なるラベル値が割り当てられた、前記入力イメージに対応する、少なくとも一つの第1ラベルイメージを取得するか、他の装置をもって取得するよう支援する段階;
(b)前記コンピューティング装置が、前記バックグラウンドのクラスと、前記物体の各クラスとの間の前記エッジ部分を抽出して、前記第1ラベルイメージから少なくとも一つのエッジイメージを生成するか、他の装置をもって生成するように支援する段階;
(c)前記コンピューティング装置が、前記エッジ部分に一つ以上の重み付け値を付与して少なくとも一つのエッジ強化イメージを生成するか、他の装置をもって生成するように支援し、前記第1ラベルイメージに前記エッジ強化イメージを併合して、少なくとも一つの第2ラベルイメージを生成するか、他の装置をもって生成するように支援する段階;及び
(d)前記コンピューティング装置が、前記入力イメージと、これに対応するGT(Ground Truth)イメージとしての前記第2ラベルイメージとを前記学習用イメージデータセットとして格納するか、他の装置をもって格納するように支援する段階;
を含むことを特徴とする方法。 - 前記エッジ強化イメージにおいて、前記エッジ部分に割り当てられたラベル値は、前記第1ラベルイメージにおいて前記物体それぞれに割り当てられたそれぞれのラベル値より大きいことを特徴とする請求項1に記載の方法。
- 前記(c)段階において、
前記エッジ部分の幅を増加させることにより、一つ以上の拡大されたエッジ部分が生成され、前記拡大されたエッジ部分に前記重み付け値を付与して、前記エッジ強化イメージが生成されることを特徴とする請求項1に記載の方法。 - 前記(c)段階において、
前記拡大されたエッジ部分に付与された前記重み付け値が均一な(uniform)分布を有するように前記エッジ強化イメージが生成されることを特徴とする請求項3に記載の方法。 - 前記(c)段階において、
前記拡大されたエッジ部分に付与された前記重み付け値が、ガウシアン(Gaussian)分布を有するように前記エッジ強化イメージが生成されることを特徴とする請求項3に記載の方法。 - 少なくとも一つの入力イメージから一つ以上の物体を検出するためのCNNの学習方法において、
(a)第1コンピューティング装置が、(i)前記入力イメージにおいて、前記物体とバックグラウンドとの間の一つ以上の境界に一つ以上のエッジ部分が設定され、前記バックグラウンド及び前記物体のそれぞれに対応するクラスにそれぞれの互いに異なるラベル値が割り当てられた、前記入力イメージに対応する、少なくとも一つの第1ラベルイメージを取得するか、他の装置をもって取得するよう支援するプロセス、(ii)前記バックグラウンドのクラスと、前記物体の各クラスとの間のエッジ部分を抽出して、前記第1ラベルイメージから少なくとも一つのエッジイメージを生成するか、他の装置をもって生成するように支援するプロセス、(iii)前記エッジ部分に一つ以上の重み付け値を付与して少なくとも一つのエッジ強化イメージを生成するか、他の装置をもって生成するように支援し、前記第1ラベルイメージに前記エッジ強化イメージを併合して、少なくとも一つの第2ラベルイメージを生成するか、他の装置をもって生成するように支援するプロセス、及び(iv)前記入力イメージと、これに対応するGT(Ground Truth)イメージの前記第2ラベルイメージとを少なくとも一つの学習用イメージデータセットとして格納するか、他の装置をもって格納するように支援するプロセスによって、前記学習用イメージデータセットを生成した状態で、第2コンピューティング装置は、前記入力イメージをトレーニングイメージとして取得するか、他の装置をもって獲得するように支援する段階;
(b)前記第2コンピューティング装置が、前記CNNから前記トレーニングイメージの少なくとも一つのセグメンテーション(segmentation)の結果を取得するか、他の装置をもって取得できるよう支援する段階;及び
(c)前記第2コンピューティング装置が、前記セグメンテーション結果及び前記第2ラベルイメージを利用して少なくとも一つのロスを算出し、前記算出されたロスをバックプロパゲーション(backpropagation)して、前記CNNの一つ以上のパラメータを最適化するか、他の装置をもって最適化するように支援する段階;
を含むことを特徴とする方法。 - 少なくとも一つの入力イメージから一つ以上の物体検出のためのCNNに利用される学習用イメージデータセットを生成するコンピューティング装置において、
各インストラクションを格納する少なくとも一つのメモリ;及び
(I)前記入力イメージにおいて、前記物体とバックグラウンドとの間の一つ以上の境界に一つ以上のエッジ部分が設定され、前記バックグラウンド及び前記物体のそれぞれに対応するクラスにそれぞれの互いに異なるラベル値が割り当てられた、前記入力イメージに対応する、少なくとも一つの第1ラベルイメージを取得するか、他の装置をもって取得するよう支援するプロセス、(II)前記バックグラウンドのクラスと、前記物体の各クラスとの間のエッジ部分を抽出して、前記第1ラベルイメージから少なくとも一つのエッジイメージを生成するか、他の装置をもって生成するように支援するプロセス、(III)前記エッジ部分に一つ以上の重み付け値を付与して少なくとも一つのエッジ強化イメージを生成するか、他の装置をもって生成するように支援し、前記第1ラベルイメージに前記エッジ強化イメージを併合して少なくとも一つの第2ラベルイメージを生成するか、他の装置をもって生成するように支援するプロセス、及び(IV)前記入力イメージと、これに対応するGT(Ground Truth)イメージとしての前記第2ラベルイメージとを前記学習用イメージデータセットとして格納するか、他の装置をもって格納するように支援するプロセスを遂行するための前記インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするコンピューティング装置。 - 前記エッジ強化イメージにおいて、前記エッジ部分に割り当てられたラベル値は、前記第1ラベルイメージにおいて前記物体それぞれに割り当てられたそれぞれのラベル値より大きいことを特徴とする請求項7に記載のコンピューティング装置。
- 前記(III)プロセスにおいて、
前記エッジ部分の幅を増加させることにより一つ以上の拡大されたエッジ部分が生成され、前記拡大されたエッジ部分に前記重み付け値を付与して、前記エッジ強化イメージが生成されることを特徴とする請求項7に記載のコンピューティング装置。 - 前記(III)プロセスにおいて、
前記拡大されたエッジ部分に付与された前記重み付け値が均一な(uniform)分布を有するように前記エッジ強化イメージが生成されることを特徴とする請求項9に記載のコンピューティング装置。 - 前記(III)プロセスにおいて、
前記拡大されたエッジ部分に付与された前記重み付け値が、ガウシアン(Gaussian)分布を有するように前記エッジ強化イメージが生成されることを特徴とする請求項9に記載のコンピューティング装置。 - 少なくとも一つの入力イメージから少なくとも一つの物体検出するためのCNNのコンピューティング装置において、
各インストラクションを格納する少なくとも一つのメモリ;及び
第1コンピューティング装置が、(i)前記入力イメージにおいて、前記物体とバックグラウンドとの間の一つ以上の境界に一つ以上のエッジ部分が設定され、前記バックグラウンド及び前記物体のそれぞれに対応するクラスにそれぞれの互いに異なるラベル値が割り当てられた、前記入力イメージに対応する、少なくとも一つの第1ラベルイメージを取得するか、他の装置をもって取得するよう支援するプロセス、(ii)前記バックグラウンドのクラスと、前記物体の各クラスとの間のエッジ部分を抽出して、前記第1ラベルイメージから少なくとも一つのエッジイメージを生成するか、他の装置をもって生成するように支援するプロセス、(iii)前記エッジ部分に一つ以上の重み付け値を付与して少なくとも一つのエッジ強化イメージを生成するか、他の装置をもって生成するように支援し、前記第1ラベルイメージに前記エッジ強化イメージを併合して少なくとも一つの第2ラベルイメージを生成するか、他の装置をもって生成するように支援するプロセス、及び(iv)前記入力イメージと、これに対応するGT(Ground Truth)イメージとしての前記第2ラベルイメージとを少なくとも一つの学習用イメージデータセットとして格納するか、他の装置をもって格納するように支援するプロセスによって、前記学習用イメージデータセットを生成した状態で;(I)前記CNNからトレーニングイメージの少なくとも一つのセグメンテーションの結果を取得するか、他の装置をもって取得するように支援するプロセス及び(II)前記セグメンテーション結果及び前記第2ラベルイメージを利用して少なくとも一つのロスを算出し、前記算出されたロスをバックプロパゲーションして前記CNNの一つ以上のパラメータを最適化するか、他の装置をもって最適化するように支援するプロセスを遂行するための、前記各インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするコンピューティング装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/257,940 | 2019-01-25 | ||
US16/257,940 US10551845B1 (en) | 2019-01-25 | 2019-01-25 | Method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119496A JP2020119496A (ja) | 2020-08-06 |
JP6869565B2 true JP6869565B2 (ja) | 2021-05-12 |
Family
ID=68424612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019193145A Active JP6869565B2 (ja) | 2019-01-25 | 2019-10-24 | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} |
Country Status (5)
Country | Link |
---|---|
US (1) | US10551845B1 (ja) |
EP (1) | EP3686796A1 (ja) |
JP (1) | JP6869565B2 (ja) |
KR (1) | KR102313607B1 (ja) |
CN (1) | CN111489297B (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102073873B1 (ko) * | 2019-03-22 | 2020-02-05 | 주식회사 루닛 | 시맨틱 세그먼테이션 방법 및 그 장치 |
CN110163153B (zh) * | 2019-05-23 | 2022-01-04 | 阿波罗智能技术(北京)有限公司 | 用于识别交通标志牌边界的方法及装置 |
CN111859131B (zh) * | 2020-07-21 | 2021-06-15 | 山东省科院易达科技咨询有限公司 | 一种多约束条件下的个性化信息推荐方法及信息推荐系统 |
CN112085001B (zh) * | 2020-09-23 | 2024-04-23 | 清华大学苏州汽车研究院(相城) | 一种基于多尺度边缘特征检测的隧道识别模型及方法 |
CN113077624A (zh) * | 2021-03-23 | 2021-07-06 | 广东粤高智慧交通科技有限公司 | 一种交通事件智慧检测系统 |
CN113012087B (zh) * | 2021-03-31 | 2022-11-04 | 中南大学 | 基于卷积神经网络的图像融合方法 |
CN114359676B (zh) * | 2022-03-08 | 2022-07-19 | 人民中科(济南)智能技术有限公司 | 训练目标检测模型和构建样本集的方法、装置及存储介质 |
US20230386163A1 (en) * | 2022-05-28 | 2023-11-30 | Orbital Insight, Inc. | Object Level Data Augmentation Scheme for Training Object Detectors |
CN115063639B (zh) * | 2022-08-11 | 2022-12-09 | 小米汽车科技有限公司 | 生成模型的方法、图像语义分割方法、装置、车辆及介质 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5767857A (en) * | 1996-08-30 | 1998-06-16 | Pacific Data Images, Inc. | Method, apparatus, and software product for generating outlines for raster-based rendered images |
JP3699873B2 (ja) * | 1999-10-27 | 2005-09-28 | オリンパス株式会社 | 画像処理装置 |
WO2002093188A2 (en) * | 2001-05-17 | 2002-11-21 | Siemens Corporate Research, Inc. | A variational approach for the segmentation of the left ventricle in mr cardiac images |
TWI239209B (en) * | 2004-04-08 | 2005-09-01 | Benq Corp | A specific image extraction method, storage medium and image pickup device using the same |
WO2007029467A1 (ja) | 2005-09-05 | 2007-03-15 | Konica Minolta Medical & Graphic, Inc. | 画像処理方法及び画像処理装置 |
JP5308391B2 (ja) * | 2010-03-31 | 2013-10-09 | 富士フイルム株式会社 | 画像符号化装置および方法並びにプログラム |
WO2013025219A1 (en) * | 2011-08-18 | 2013-02-21 | Hewlett-Packard Development Company, L.P. | Creating a blended image |
SG10201510667SA (en) * | 2012-06-27 | 2016-01-28 | Agency Science Tech & Res | Text detection devices and text detection methods |
US9710892B2 (en) * | 2015-10-21 | 2017-07-18 | Chunghwa Picture Tubes, Ltd. | Image enhancement method and image processing apparatus thereof |
CN110168477B (zh) * | 2016-11-15 | 2022-07-08 | 奇跃公司 | 用于长方体检测的深度学习系统 |
US11295123B2 (en) * | 2017-09-14 | 2022-04-05 | Chevron U.S.A. Inc. | Classification of character strings using machine-learning |
CN108876804B (zh) * | 2017-10-12 | 2021-07-09 | 北京旷视科技有限公司 | 抠像模型训练和图像抠像方法、装置和系统及存储介质 |
US10852419B2 (en) * | 2017-10-20 | 2020-12-01 | Texas Instruments Incorporated | System and method for camera radar fusion |
-
2019
- 2019-01-25 US US16/257,940 patent/US10551845B1/en active Active
- 2019-09-27 KR KR1020190119501A patent/KR102313607B1/ko active IP Right Grant
- 2019-10-23 CN CN201911011833.7A patent/CN111489297B/zh active Active
- 2019-10-24 JP JP2019193145A patent/JP6869565B2/ja active Active
- 2019-10-30 EP EP19206216.4A patent/EP3686796A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3686796A1 (en) | 2020-07-29 |
KR102313607B1 (ko) | 2021-10-19 |
CN111489297B (zh) | 2023-08-22 |
KR20200092841A (ko) | 2020-08-04 |
US10551845B1 (en) | 2020-02-04 |
CN111489297A (zh) | 2020-08-04 |
JP2020119496A (ja) | 2020-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6869565B2 (ja) | 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same} | |
JP6847464B2 (ja) | 車線候補ピクセルを分類して車線を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane through classifying lane candidate pixels and test method, test device using the same} | |
CN110874841B (zh) | 参照边缘图像的客体检测方法及装置 | |
JP6820030B2 (ja) | 異なるラベルセットを有する複数のラベリングされたデータベースを用いて学習する方法及び装置、そしてこれを利用したテスト方法及び装置{learning method and learning device using multiple labeled databases with different label sets and testing method and testing device using the same} | |
US10692002B1 (en) | Learning method and learning device of pedestrian detector for robust surveillance based on image analysis by using GAN and testing method and testing device using the same | |
EP3686779B1 (en) | Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same | |
JP6855082B2 (ja) | 自律走行状況での障害物検出のためのcnn学習用イメージデータセットの生成方法及び装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6865363B2 (ja) | ラプラシアンピラミッドネットワークを利用して自律走行自動車レベル4及びレベル5を満足させるために要求される道路障害物検出におけるセグメンテーション性能向上のための学習方法及び学習装置、並びにこれを利用したテスト方法及びテスト装置 | |
JP6875021B2 (ja) | 有用な学習データを取捨選別するためのcnn基盤の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6847463B2 (ja) | CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME} | |
EP3686795B1 (en) | Learning method and learning device for improving segmentation performance to be used for detecting events including pedestrian event, vehicle event, falling event and fallen event using edge loss and test method and test device using the same | |
JP6856851B2 (ja) | イメージエンコーディングのための方法及び装置そしてこれを利用したテスト方法及びテスト装置 | |
US10740593B1 (en) | Method for recognizing face using multiple patch combination based on deep neural network with fault tolerance and fluctuation robustness in extreme situation | |
JP6908939B2 (ja) | 障害物の下段ラインを基準にroiを検出する学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting roi on the basis of bottom lines of obstacles and testing method,testing device using the same} | |
JP6980289B2 (ja) | 車線モデルを利用して車線を検出し得る学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting lane using lane model and test method, test device using the same} | |
JP6869559B2 (ja) | 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same} | |
JP6910081B2 (ja) | 協調走行を遂行する各車両から取得された各走行イメージを統合する方法及びこれを利用した走行イメージ統合装置 | |
CN110879960A (zh) | 生成卷积神经网络学习用图像数据集的方法及计算装置 | |
JP6865342B2 (ja) | Cnn基盤車線検出のための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191024 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20200706 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20200709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201022 |
|
RD13 | Notification of appointment of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7433 Effective date: 20201022 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210212 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210329 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210407 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6869565 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |