JP2020038658A - エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 - Google Patents

エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 Download PDF

Info

Publication number
JP2020038658A
JP2020038658A JP2019159829A JP2019159829A JP2020038658A JP 2020038658 A JP2020038658 A JP 2020038658A JP 2019159829 A JP2019159829 A JP 2019159829A JP 2019159829 A JP2019159829 A JP 2019159829A JP 2020038658 A JP2020038658 A JP 2020038658A
Authority
JP
Japan
Prior art keywords
test
specific
image
learning
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019159829A
Other languages
English (en)
Inventor
桂賢 金
Kye-Hyeon Kim
桂賢 金
鎔重 金
Yongjoong Kim
鎔重 金
寅洙 金
Insu Kim
寅洙 金
鶴京 金
Hak-Kyoung Kim
鶴京 金
雲鉉 南
Woonhyun Nam
雲鉉 南
碩▲ふん▼ 夫
Sukhoon Boo
碩▲ふん▼ 夫
明哲 成
Myungchul Sung
明哲 成
東勳 呂
Donghun Yeo
東勳 呂
宇宙 柳
Wooju Ryu
宇宙 柳
泰雄 張
Taiyu Cho
泰雄 張
景中 鄭
Kyungjoong Jeong
景中 鄭
泓模 諸
Hongmo Je
泓模 諸
浩辰 趙
Hojin Cho
浩辰 趙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020038658A publication Critical patent/JP2020038658A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

【課題】特定の物体を検出するCNN装置において、背景部分の同一クラス内の検出値のバリエーションが大きくても、特定の物体を正確に検出する物体検出の学習方法、テスト方法を提供する。【解決手段】CNN装置の学習方法は、入力イメージが取得されると、入力イメージに対してコンボリューション演算を適用して特定の特徴マップを取得するプロセス及び入力イメージからエッジ部分を抽出してエッジイメージを取得し、取得されたエッジイメージから特定の物体と類似した特定の形態を有する特定のエッジ部分に関する情報を含むガイドマップを取得するプロセスを遂行する段階S01と、特定の特徴マップにガイドマップを反映して、入力イメージ内の特定の物体を検出するためのセグメンテーション結果を取得する段階S04を含む。【選択図】図4

Description

本発明は、CNN基盤の特定の物体検出のための方法に関し、具体的には、前記CNN基盤の前記特定の物体検出のための方法において、(a)入力イメージが取得されると、学習装置が、(i)前記入力イメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定の特徴マップを取得するプロセス、及び(ii)前記入力イメージから少なくとも一つのエッジ部分を抽出してエッジイメージを取得し、前記取得されたエッジイメージにおいて、前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のエッジ部分に関する情報を含む、少なくとも一つのガイドマップを取得するプロセスを遂行する段階;及び(b)前記学習装置が,前記特定の特徴マップに前記ガイドマップを反映して、前記入力イメージ内の前記特定の物体を検出するためのセグメンテーション結果を取得する段階を含むことを特徴とする学習方法及び学習装置、並びにそれに基づいたテスト方法及びテスト装置に関する。
ディープラーニングは、事物やデータを群集化したり分類するのに使用する技術である。例えば、コンピュータは写真だけで犬と猫を区分することができない。しかし、人はとても容易に区分することができる。このため、「機械学習(Machine Learning)」という方法が考案された。これは多くのデータをコンピュータに入力し、類似したもの同士分類するようにする技術である。格納された犬の写真と類似した写真が入力されると、これを犬の写真であると分類するのである。
データをどのように分類するかをめぐり、すでに多くの機械学習アルゴリズムが登場した。「意思決定木」や「ベイジアンネットワーク」「サポートベクターマシン(SVM)」「人工神経網」などが代表的である。このうち、ディープラーニングは人工神経網の後裔である。
ディープコンボリューションニューラルネットワーク(Deep Convolution Neural Networks;DeepCNN)は、ディープラーニング分野で起きた驚くべき発展の核心である。CNNは、文字の認識問題を解決するために90年代にすでに使われていたが、現在のように広く使われるようになったのは最近の研究結果の賜物である。このようなディープCNNは、2012年ImageNetイメージ分類コンテストで他の競争相手に勝って優勝を収めた。そして、コンボリューションニューラルネットワークは機械学習分野で非常に有用なツールとなった。
図1は、従来技術によってディープCNNを利用して写真において取得しようとする様々な出力の例を示す。
分類(Classification)は、写真で識別しようとするクラス(class)の種類、例えば、図1に示されたように、取得された物体が人であるのか、羊であるのか、犬であるのか、種類を識別する方法であり、検出(Detection)は、すべての物体を探し出して、探し出した物体をパウンディンボックス(Bounding Box)に囲まれた形態で表示する方法であり、セグメンテーション(segmentation)は、写真において特定の物体の領域を他の物体と区別する方法である。最近、ディープラーニング(Deep learning)技術が脚光を浴びるようになり、分類、検出及びセグメンテーション技術もディープラーニングを数多く使用する。
図2は、CNNを利用した既存の車線検出方法を簡略に示した図であり、図3は、一般的なCNNセグメンテーションプロセスを簡略に示した図である。
まず、図3を参照すると、既存の車線検出方法では、学習装置に入力イメージが入力されて、複数のコンボリューションレイヤでコンボリューション演算とReLUなどの非線形演算を数回遂行して特徴マップを取得し、複数のデコンボリューションレイヤでデコンボリューション演算を数回遂行して、最後の特徴マップでソフトマックス(SoftMax)演算を遂行してセグメンテーション結果を得る。
また、図2を参照すると、既存の車線(Lane)検出方法のセグメンテーション結果は、図2の中間に示されたように2種類(例えば、車線と背景)で構成される。このようなセグメンテーション結果は、確率予測値として現れる。このように選択された車線上の候補ピクセルの中から車線である確率の高いピクセルのみをサンプリングして車線を探した後、探し出した車線上のピクセルから得た車線モデル関数を利用して最終的に車線を決定する。
しかし、このように車線を含んだ少なくとも一つの特定の物体を検出する従来のCNN装置は、様々な背景を一つのクラス(つまり、ラベル=0であるクラス)に分類しなければならないが、背景部分内のインクラスバリエーション(In−Class Variation)(同一クラス内の検出値のバリエーション)が大きくて特定の物体を正確に検出するのが難しいという問題点が存在する。例えば、少なくとも一つの車線を検出する場合、入力イメージにおいて車線を除いた残りの背景部分は、表示板や建物など様々な形態を含む。しかし、このうち車線とほぼ同じ形態を有する背景が多いため、背景クラス内でもラベル値がいずれも0に近いように算出されず、ラベルの背景クラス内の値のバリエーションが大きくなる。つまり、背景部分に属する物体であるものの、車線とほぼ同じ形態を有する場合、ラベル値が車線(ラベル=1)と背景(ラベル=0)のいずれにも近接した値が算出されないため、車線の検出に困難がある問題点がある。
本発明は、上述した全ての問題点を解決しようとすることを目的とする。
本発明は、背景のうち一つに属し、特定の物体と類似した他の物体を検出対象から除外して、容易に特定の物体を検出することができる方法を提供することを他の目的とする。
本発明は、CNNを通じて得られた少なくとも一つの特徴マップだけでなく、少なくとも一つのエッジイメージを利用してイメージ内で特定の物体を正確に検出する方法を提供することをまた他の目的とする。
本発明の一態様によると、CNN基盤の特定の物体検出のための方法において、(a)入力イメージが取得されると、学習装置が、(i)前記入力イメージに対して少なくとも一回コンボリューション演算を適用して少なくとも一つの特定の特徴マップを取得するプロセス、及び(ii)前記入力イメージから少なくとも一つのエッジ部分を抽出してエッジイメージを取得し、前記取得されたエッジイメージにおいて前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のエッジ部分に関する情報を含む少なくとも一つのガイドマップを取得するプロセスを遂行する段階;及び(b)前記学習装置が、前記特定の特徴マップに前記ガイドマップを反映して前記入力イメージ内の前記特定の物体を検出するためのセグメンテーション結果を取得する段階;を含むことを特徴とする。
一実施例において、前記エッジイメージは、前記入力イメージから特定の閾値以下の周波数成分を除去して取得されることを特徴とする。
一実施例において、前記エッジイメージは、前記入力イメージピクセルのグラディエント(Gradient)を算出した後、前記入力イメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジ(Canny Edge)イメージであることを特徴とする。
一実施例で、前記ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を与え、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、前記第1重み付け値が前記第2重み付け値より大きいことを特徴とする。
一実施例で、前記ガイドマップは、前記エッジイメージに対して膨張(Dilation)演算又はモルフォロジー(Morphology)演算を少なくとも一回適用して、前記特定のエッジ部分を広くして生成されることを特徴とする。
一実施例において、前記(b)段階で、前記学習装置は前記ガイドマップと前記特定の特徴マップとをピクセルごとに掛け合わせて、少なくとも一つのエッジ強化された特徴マップを生成することを特徴とする。
一実施例で、前記(b)段階は、(b1)前記特定の特徴マップが複数個ある状態で、前記学習装置が、前記特定の特徴マップそれぞれのサイズがリサイズされたガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたガイドマップを生成するために、前記ガイドマップの大きさを調整する段階;及び(b2)前記学習装置が、前記ガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせて、複数のエッジ強化された特徴マップを生成する段階;を含むことを特徴とする。
一実施例において、前記(b)段階で、前記ガイドマップが反映された前記特定の特徴マップは、前記学習装置のエンコードレイヤから取得した少なくとも一つの特徴マップ、及び前記学習装置のデコードレイヤから取得された少なくとも一つの特徴マップのうちいずれか一つに選択
されることを特徴とする。
一実施例において、前記特定の物体は道路の少なくとも一つの車線であることを特徴とする。
一実施例において、(c)前記学習装置が、前記セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出する段階及び(d)前記学習装置が、前記セグメンテーションロスを利用してバックプロパゲーションを遂行して前記学習装置の少なくとも一つのパラメータを最適化する段階;をさらに含むことを特徴とする。
本発明の他の態様によると、CNN基盤イメージに含まれている、少なくとも一つの特定の物体を検出するためのテスト方法において、(a)(i)学習装置が、トレーニングイメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定の学習用特徴マップを取得するプロセス、(ii)前記学習装置が、前記トレーニングイメージから少なくとも一つのエッジ部分を抽出して学習用エッジイメージを取得し、前記取得された学習用エッジにおいて前記特定の物体と類似した特定の形態を有する特定の学習用エッジ部分に関する情報を含む少なくとも一つの学習用ガイドマップを取得するプロセス、(iii)前記学習装置が、前記特定の学習用特徴マップに前記学習用ガイドマップを反映して、前記トレーニングイメージ内の前記特定の物体を検出するための学習用セグメンテーション結果を取得するプロセス、(iv)前記学習装置が、前記検出された学習用セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出するプロセス、及び(v)前記学習装置が、前記セグメンテーションロスを利用してバックプロパゲーションを遂行して前記学習装置の少なくとも一つのパラメータを最適化した状態で、テスト装置がテストイメージを取得する段階(b)前記テスト装置が、(i)前記テストイメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定のテスト用特徴マップを取得するプロセス、及び(ii)前記テストイメージから少なくとも一つのエッジ部分を抽出してテスト用エッジイメージを取得し、前記取得されたテスト用エッジイメージにおいて前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のテスト用エッジ部分に関する情報を含む、少なくとも一つのテスト用ガイドマップを取得するプロセスを遂行する段階;及び(c)前記テスト装置が、前記特定のテスト用特徴マップに前記テスト用ガイドマップを反映して、テストイメージ内の前記特定の物体を検出するためのテスト用セグメンテーション結果を取得する段階を含むことを特徴とする。
一実施例において、前記テスト用エッジイメージは、前記テストイメージから特定の閾値以下の周波数成分を除去して取得されることを特徴とする。
一実施例において、前記テスト用エッジイメージは、前記テストイメージピクセルのグラディエントを算出した後、前記テストイメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジイメージであることを特徴とする。
一実施例で、前記テスト用ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を与え、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、前記第1重み付け値が前記第2重み付け値よりも大きく、前記テスト用ガイドマップは前記テスト用エッジイメージに対して膨張演算またはモルフォロジー演算を少なくとも一回適用して、前記特定のテスト用エッジ部分を広くして生成されることを特徴とする。
一実施例で、前記(c)段階は、(c1)前記特定のテスト用特徴マップが複数個ある状態で、前記テスト装置が、前記特定のテスト用特徴マップそれぞれのサイズがリサイズされたテスト用ガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたテスト用ガイドマップを生成するために前記テスト用ガイドマップの大きさを調整する段階;及び(c2)前記テスト装置が、前記テスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたテスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせて、複数のテスト用エッジ強化された特徴マップを生成する段階;を含むことを特徴とする。
本発明のまた他の態様によると、CNN基盤の特定の物体検出のための学習装置において、トレーニングイメージとしての入力イメージを取得するための通信部;及び(I)前記入力イメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定の特徴マップを取得するプロセス、(II)前記入力イメージから少なくとも一つのエッジ部分を抽出してエッジイメージを取得し、前記取得されたエッジイメージで前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のエッジ部分に関する情報を含む少なくとも一つのガイドマップを取得するプロセスを遂行するプロセス、及び(III)前記特定の特徴マップに前記ガイドマップを反映して前記入力イメージ内の前記特定の物体を検出するためのセグメンテーション結果を取得するプロセスを遂行するプロセッサ;を含むことを特徴とする。
一実施例において、前記エッジイメージは、前記入力イメージにおいて特定の閾値以下の周波数成分を除去して取得されることを特徴とする。
一実施例において、前記エッジイメージは、前記入力イメージピクセルのグラディエントを算出した後、前記入力イメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジイメージであることを特徴とする。
一実施例で、前記ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を与え、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、前記第1重み付け値が前記第2重み付け値より大きいことを特徴とする。
一実施例で、前記ガイドマップは、前記エッジイメージに対して膨張演算又はモルフォロジー演算を少なくとも一回適用して、前記特定のエッジ部分を広くして生成されることを特徴とする。
一実施例において、前記(III)プロセスにおいて、前記プロセッサは、前記ガイドマップと前記特定の特徴マップとをピクセルごとに掛け合わせて、少なくとも一つのエッジ強化された特徴マップを生成することを特徴とする。
一実施例で、前記(III)プロセスで、(III−1)前記特定の特徴マップが複数個ある状態で、前記特定の特徴マップそれぞれのサイズがリサイズされたガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたガイドマップを生成するために、前記ガイドマップの大きさを調整するプロセス;及び(III−2)前記ガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせて、複数のエッジ強化された特徴マップを生成するプロセス;を含むことを特徴とする。
一実施例において、前記(III)プロセスで、前記ガイドマップが反映された前記特定の特徴マップは、そのエンコードレイヤから取得した少なくとも一つの特徴マップ、及び前記学習装置のデコードレイヤから取得された少なくとも一つの特徴マップのうちいずれか一つに選択
されることを特徴とする。
一実施例において、前記特定の物体は道路の少なくとも一つの車線であることを特徴とする。
一実施例において、前記プロセッサは、(IV)前記セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出するプロセス;及び(V)前記セグメンテーションロスを利用してバックプロパゲーションを遂行してその少なくとも一つのパラメータを最適化するプロセス;をさらに遂行することを特徴とする。
本発明のまた他の態様によると、CNN基盤のイメージに含まれた少なくとも一つの特定の物体を検出するためのテスト装置において、(i)学習装置が、トレーニングイメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定の学習用特徴マップを取得するプロセス、(ii)前記学習装置が、前記トレーニングイメージから少なくとも一つのエッジ部分を抽出して学習用エッジイメージを取得し、前記取得された学習用エッジイメージにおいて前記特定の物体に類似した特定の形態を有する特定の学習用エッジ部分に関する情報を含む少なくとも一つの学習用ガイドマップを取得するプロセス、(iii)前記学習装置が、前記特定の学習用特徴マップに前記学習用ガイドマップを反映して、前記トレーニングイメージ内の前記特定の物体を検出するための学習用セグメンテーション結果を取得するプロセス、(iv)前記学習装置が、前記検出された学習用セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出するプロセス、及び(v)前記学習装置が、前記セグメンテーションロスを利用してバックプロパゲーションを遂行して前記学習装置の少なくとも一つのパラメータを最適化した状態で、テストイメージを取得する通信部;及び(I)前記テストイメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定のテスト用特徴マップを取得し、前記テストイメージにおいて少なくとも一つのエッジ部分を抽出してテスト用エッジイメージを取得し、前記取得されたテスト用エッジイメージにおいて前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のテスト用エッジ部分に関する情報を含む、少なくとも一つのテスト用ガイドマップを取得するプロセス、及び(II)前記特定のテスト用特徴マップに前記テスト用ガイドマップを反映して、前記テストイメージ内の前記特定の物体を検出するためのテスト用セグメンテーション結果を取得するプロセスを遂行するプロセス;を含むことを特徴とする。
一実施例において、前記テスト用エッジイメージは、前記テストイメージから特定の閾値以下の周波数成分を除去して取得されることを特徴とする。
一実施例において、前記テスト用エッジイメージは、前記テストイメージピクセルのグラディエントを算出した後、前記テストイメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジイメージであることを特徴とする。
一実施例で、前記テスト用ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を付与し、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、前記第1重み付け値が前記第2重み付け値よりも大きく、前記テスト用ガイドマップは前記テスト用エッジイメージに対して膨張演算またはモルフォロジー演算を少なくとも一回適用して、前記特定のテスト用エッジ部分を広くして生成されることを特徴とする。
一実施例で、前記(II)プロセスは、(II−1)前記特定のテスト用特徴マップが複数個ある状態で、前記特定のテスト用特徴マップそれぞれのサイズがリサイズされたテスト用ガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたテスト用ガイドマップを生成するために前記テスト用ガイドマップの大きさを調整するプロセス;及び(II−2)前記テスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたテスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせて、複数のテスト用エッジ強化された特徴マップを生成するプロセス;を含むことを特徴とする。
本発明によると、エッジイメージを抽出した後、車線や特定の物体に対応する部分のみを残したり、この部分に大きな重みを付与してエッジイメージを加工することにより生成されたガイドマップを通じて特定の物体を容易に検出することができる効果がある。すなわち、エッジ強化されたガイドマップを特定の特徴マップに反映することにより、特定の特徴マップの演算量が相当に減り、背景部分を事前に除去して効果的に特定の物体や車線を検出することができる。
本発明によると、車線検出の場合、ガイドマップを通じて背景部分を特定の特徴マップから除外して、車線のみ明確に検出することができる他の効果がある。
本発明の実施例の説明に利用されるために添付された以下の図面は、本発明の実施例のうち単に一部であるにすぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
既存のCNNを利用した写真において検出しようとする様々な出力の例を示す。 既存のCNNを利用した従来の車線検出方法を簡略に示した図である。 従来のCNNを利用した一般的なセグメンテーションの従来のプロセスを簡略に示した図である。 本発明によるCNN基盤の物体検出方法を示したチャート図である。 本発明の一実施例によるCNN基盤の物体検出プロセスを示す。 本発明によるガイドマップを生成するプロセスの例を示す。 本発明によるガイドマップを生成するプロセスの他の例を示す。 本発明の他の実施例によるCNN基盤の物体検出プロセスを示す。
後述する本発明に関する詳細な説明は、本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施することができるように十分詳細に説明される。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は、実例として提供され、本発明を限定することを意図したものではない。
さらに、本発明は本明細書に表示された実施例のすべての可能な組合せを網羅している。本発明の様々な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、その実施例に関連して、本発明の精神及び範囲を逸脱せず、他の実施例として具現される。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、又は類似の機能を指す。
本発明で言及している各種イメージは、舗装または非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明の属する技術分野において、通常の知識を有する者が本発明を容易に実施することができるようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することとする。
図4は、本発明によるCNN基盤の車線検出方法を示したチャート図である。
図4を参照すると、本発明によるCNN基盤の特定の物体検出方法は、入力イメージ(つまり、トレーニングイメージ)にコンボリューション演算を少なくとも一回適用して、少なくとも一つの特定の特徴マップを取得し、入力イメージから少なくとも一つのエッジ部分を抽出してエッジガイドマップを取得し、取得されたエッジイメージにおいて特定の物体と類似した特定の形態を有する少なくとも一つの特定のエッジ部分に関する情報を含む少なくとも一つのガイドマップを取得する段階(S01)、特定の特徴マップそれぞれのサイズがリサイズされたガイドマップそれぞれのサイズと同じであるように少なくとも一つのリサイズされたガイドマップを生成するためにガイドマップの大きさを調整する段階(S02)、ガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせて、複数のエッジ強化された特徴マップを生成する段階(S03)、エッジの強化特徴マップを利用して特定の物体を検出するためのセグメンテーション結果を取得する段階(S04)、検出されたセグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出する段階(S05)、セグメンテーションのロスを利用してバックプロパゲーション(Backpropagation)して学習装置の少なくとも一つのパラメータを最適化する段階(S06)、及び学習された学習装置の少なくとも一つのパラメータを利用することにより、テスト装置に特定の物体検出プロセスを遂行する段階(S07)を含む。先に説明したS01ないしS07段階に関するさらに詳しい説明は図8で確認することができるが、それに限定されるわけではない。
つまり、S01段階で特定の特徴マップを一つだけ取得すると、S01段階でガイドマップを一つだけ取得するようになる。この場合、本発明によるCNN基盤の特定の物体検出のための方法は、入力イメージに対して少なくとも一回コンボリューション演算を適用して特定の特徴マップを取得するプロセスと入力イメージにおいて少なくとも一つのエッジ部分を抽出してエッジイメージを取得するプロセス(S10);取得されたエッジイメージにおいて特定の物体と類似した特定の形態を有する少なくとも一つの特定のエッジ部分に関する情報を含むガイドマップを取得するプロセス(S20);及び特定の特徴マップにガイドマップを反映して入力イメージ内の特定の物体を検出するためのセグメンテーション結果を取得するプロセス(S30)を含む。先に説明したS10ないしS30段階に関するさらに詳しい説明は、図5で確認することができる。
図5は、本発明によるCNN基盤の特定の物体検出のためのプロセスを示し、図6は、本発明によるガイドマップを生成するプロセスの例を示し、図7は、ガイドマップを生成するプロセスの他の例を示し、図8は、本発明の他の実施例によるCNN基盤の物体検出プロセスを示す。
以下、図4ないし図8を参照してCNN基盤の特定の物体検出のための学習プロセス及びテストプロセスが説明される。
まず、学習装置を通じて入力イメージを取得すると、学習装置が入力イメージにコンボリューション演算及びReLUなどの非線形演算を少なくとも一回適用して、少なくとも一つの特定の特徴マップを取得する。学習装置は、入力イメージから少なくとも一つのエッジ部分を抽出してエッジイメージを取得し、取得されたエッジイメージから前記特定の物体と類似した形態を有する特定のエッジ部分に関する情報を含む少なくとも一つのガイドマップを取得する。この際、エッジイメージを学習装置内のエンコードレイヤを通じて入力イメージから生成することもできるが、学習装置とは別の装置で入力イメージからエッジイメージを生成することもできる。
この際、エッジイメージは入力イメージにおいて所定の閾値以下の周波数成分を除去して取得され得る。また、エッジイメージは、グラディエントが相対的に大きなピクセルを利用して検出されたエッジ部分を含むことができる。例えば、入力イメージピクセルのグラディエントを算出した後、入力イメージのピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出してエッジイメージを生成することができる。このように生成されたエッジイメージは、「キャニーエッジ」イメージとなる。
そうした上で、検出しようとする物体部分が十分に表示されるよう、エッジイメージを加工して改善されたエッジイメージ(以下、「ガイドマップ」という)を生成する。一実施例において、ガイドマップはエッジイメージにおいてエッジ部分を広くして生成される。そして、他の実施例において、ガイドマップはエッジイメージにおいて特定の物体と類似した形態を有する部分以外の部分を除去して作ることもできる。
図6を参照すると、ガイドマップは、エッジイメージに対して膨張演算またはモルフォロジー演算(Morphology Operator)を適用して、エッジ部分を広くして生成され得る。
図7を参照すると、他の実施例において、少なくとも一つの車線を検出する場合、ガイドマップはエッジイメージで木の形態であるエッジ部分を除去し、エッジイメージで車線と類似した形態を有するエッジ部分は維持して生成される。この場合、車線と類似した特定の形態には相対的にさらに大きな重み付け値が与えられ、特定の物体と類似した特定の形態以外の少なくとも一つの形態には相対的にさらに小さい重み付け値が付与される。他の実施例において、車線を検出した場合、エッジイメージに対して直線アルゴリズムや曲線アルゴリズムを適用し、車線と類似した形態には大きな重み付け値を付与してガイドマップを生成する。この際、車線と類似した特定の形態以外の形態を有するエッジ部分には、0を掛け合わせて全て除去し、車線と類似した特定の形態を有するエッジ部分にのみ1を掛け合わせて前記エッジ部分を維持することができる。しかし、車線であっても削除される危険があるため、場合によって1と0との間の値を有する重み付け値を付与するのがより適切である。
その後、図5のように特定の特徴マップとガイドマップとをピクセルごとに掛け合わせてエッジ強化された特徴マップを生成する。
本発明の他の実施例による図8におけるように、エンコードレイヤとデコードレイヤにおいて様々な大きさの複数の特定の特徴マップが生成され得る。この場合、ガイドマップは、エンコードレイヤから取得された特定の特徴マップ及びデコードレイヤから取得された特定の特徴マップのうち少なくとも一つに反映され得る。このために、特定の特徴マップそれぞれのサイズがリサイズされたガイドマップそれぞれのサイズと同じになるようにリサイズされたガイドマップを生成するために、ガイドマップの大きさを調整する段階を遂行する。
そして、図8に示されたように、ガイドマップとそれに対応する特定の特徴マップとをピクセルごとに掛け合わせ、リサイズされたガイドマップとそれに対応する特定の特徴マップとをピクセルごとに掛け合わせて、複数のエッジ強化された特徴マップを生成する。
このように生成されたエッジ強化された特徴マップにおいて検出しようとする特定の物体と類似した特定の形態を有するエッジ部分にのみ重み付け値が大きく付与されて、エッジ部分が浮き上がり得る。他の実施例において、エッジ強化された特徴マップにおいて検出しようとする特定の物体と類似した特定の形態を有するエッジ部分だけが残り、他のエッジ部分はエッジ強化された特徴マップから除去される。
つまり、ガイドマップ(つまり、改善されたエッジイメージ)が車線と一部の背景のみ含んだり、ガイドマップが車線と一部背景についてのみ高いピクセル値を有するために、これをマスク(Mask)またはアテンション(Attention)の形態でガイドマップと特定の特徴マップとをピクセルごとに掛け合わせると、図6や図7の黒で表現された部分を除いてインファレンス(Inference)が遂行される。すなわち、高い重み付け値が付与される車線に近い形態を有する部分と低い重み付け値が付与される背景部分を含むガイドマップを通じて、容易に車線を検出することが可能となるのである。
その上で、エッジ強化された特徴マップに対してさらなる演算(例えば、デコンボリューション演算やFCレイヤ演算、ソフトマックス演算など)を適用して、入力イメージで車線に関するクラスを背景に関するクラスから区分したセグメンテーション結果を取得する。そして、セグメンテーション結果に基づいて多項式フィッテング(Polynomial Fitting)アルゴリズムまたはスプラインフィッティング(Spline Fitting)アルゴリズムを利用して車線を検出する。すなわち、多項式フィッテングアルゴリズムまたはスプライラインフィッティングアルゴリズムをセグメンテーション結果の車線候補ピクセルに適用して車線を検出する。
その上で、セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出し、セグメンテーションロスを利用してバックプロパゲーションして学習装置の少なくとも一つのパラメータを最適化する。
そうした上で、テスト装置を利用して特定の物体を検出するプロセスが、学習装置の少なくとも一つのパラメータを利用して遂行される。
すなわち、(i)学習装置が、トレーニングイメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定の学習用特徴マップを取得するプロセス、(ii)学習装置が、トレーニングイメージから少なくとも一つのエッジ部分を抽出して学習用エッジイメージを取得し、取得された学習用エッジイメージで特定の物体と類似した特定のエッジ部分に関する情報を含む、少なくとも一つの学習用ガイドマップを取得するプロセス、(iii)学習装置が、特定の学習用特徴マップに学習用ガイドマップを反映してトレーニングイメージ内の特定の物体を検出するための学習用セグメンテーション結果を取得するプロセス、(iv)学習装置が、検出された学習用セグメンテーション結果とそれに対応する原本正解を参照して、セグメンテーションロスを算出するプロセス、及び(v)学習装置が、セグメンテーションロスを利用してバックプロパゲーションを遂行して学習装置の少なくとも一つのパラメータを最適化した状態で、テスト装置がテストイメージを取得する。
その次に、テスト装置が(i)テストイメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定のテスト用特徴マップを取得するプロセス、及び(ii)テストイメージから少なくとも一つのエッジ部分を抽出して、テスト用エッジイメージを取得し、取得されたテスト用エッジイメージから特定の物体と類似した特定の形態を有する少なくとも一つの特定のエッジ部分に関する情報を含む、少なくとも一つのテスト用ガイドマップを取得するプロセスを遂行する。
その後、テスト装置が特定のテスト用特徴マップにテスト用ガイドマップを反映して、テストイメージ内の特定の物体を検出するためのテスト用セグメンテーション結果を取得する。
本発明の技術分野における通常の技術者に理解され得るところとして、上記で説明されたイメージ、例えば、トレーニングイメージ及びテストイメージのようなイメージデータの送受信が学習装置及びテスト装置の各通信部により行われ得、特徴マップと演算を遂行するためのデータが学習装置及びテスト装置のプロセッサ(及び/又はメモリー)によって保有/維持され得、コンボリューション演算、デコンボリューション演算、ロス値演算の過程が主に学習装置及びテスト装置のプロセッサによって遂行され得るが、本発明がこれに限定されはしないであろう。
以上にて説明された本発明による実施例は、多様なコンピュータの構成要素を通じて遂行することができるプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカル・ディスク(floptical disk)のような磁気−光メディア(magneto−optical media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行される高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限定されるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、係る記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等または等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (30)

  1. CNN基盤の特定の物体検出のための方法において、
    (a)入力イメージが取得されると、学習装置が、(i)前記入力イメージに対して少なくとも一回コンボリューション演算を適用して少なくとも一つの特定の特徴マップを取得するプロセス、及び(ii)前記入力イメージから少なくとも一つのエッジ部分を抽出してエッジイメージを取得し、前記取得されたエッジイメージにおいて前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のエッジ部分に関する情報を含む、少なくとも一つのガイドマップを取得するプロセスを遂行する段階;及び
    (b)前記学習装置が、前記特定の特徴マップに前記ガイドマップを反映して前記入力イメージ内の前記特定の物体を検出するためのセグメンテーション結果を取得する段階;
    を含むことを特徴とする学習方法。
  2. 前記エッジイメージは、前記入力イメージから特定の閾値以下の周波数成分を除去して取得されることを特徴とする請求項1に記載の学習方法。
  3. 前記エッジイメージは、前記入力イメージピクセルのグラディエントを算出した後、前記入力イメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジイメージであることを特徴とする請求項1に記載の学習方法。
  4. 前記ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を与え、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、
    前記第1重み付け値が前記第2重み付け値より大きいことを特徴とする請求項1に記載の学習方法。
  5. 前記ガイドマップは、前記エッジイメージに対して膨張演算またはモルフォロジー演算を少なくとも一回適用して、前記特定のエッジ部分を広くして生成されることを特徴とする請求項1に記載の方法。
  6. 前記(b)段階で、
    前記学習装置は、前記ガイドマップと前記特定の特徴マップとをピクセルごとに掛け合わせて少なくとも一つのエッジ強化された特徴マップを生成することを特徴とする請求項1に記載の方法。
  7. 前記(b)段階は、
    (b1)前記特定の特徴マップが複数個ある状態で、前記学習装置が、前記特定の特徴マップそれぞれのサイズがリサイズされたガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたガイドマップを生成するために前記ガイドマップの大きさを調整する段階;及び(b2)前記学習装置が、前記ガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせて、複数のエッジ強化された特徴マップを生成する段階;
    を含むことを特徴とする請求項1に記載の方法。
  8. 前記(b)段階で、
    前記ガイドマップが反映された前記特定の特徴マップは、前記学習装置のエンコードレイヤから取得した少なくとも一つの特徴マップ、及び前記学習装置のデコードレイヤから取得された少なくとも一つの特徴マップのうちいずれか一つに選択されることを特徴とする請求項1に記載の方法。
  9. 前記特定の物体は、道路の少なくとも一つの車線であることを特徴とする請求項1に記載の学習方法。
  10. (c)前記学習装置が、前記セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出する段階及び、
    (d)前記学習装置が、前記セグメンテーションロスを利用してバックプロパゲーションを遂行して前記学習装置の少なくとも一つのパラメータを最適化する段階;
    をさらに含むことを特徴とする請求項1に記載の学習方法。
  11. CNN基盤イメージに含まれた少なくとも一つの特定の物体を検出するためのテスト方法において、
    (a)(i)学習装置が、トレーニングイメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定の学習用特徴マップを取得するプロセス、(ii)前記学習装置が、前記トレーニングイメージから少なくとも一つのエッジ部分を抽出して学習用エッジイメージを取得し、前記取得された学習用エッジイメージで前記特定の物体と類似した特定の形態を有する特定の学習用エッジ部分に関する情報を含む少なくとも一つの学習用ガイドマップを取得するプロセス、(iii)前記学習装置が、前記特定の学習用特徴マップに前記学習用ガイドマップを反映して、前記トレーニングイメージ内の前記特定の物体を検出するための学習用セグメンテーション結果を取得するプロセス、(iv)前記学習装置が、前記検出された学習用セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出するプロセス、及び(v)前記学習装置が、前記セグメンテーションロスを利用してバックプロパゲーションを遂行して前記学習装置の少なくとも一つのパラメータを最適化した状態で、テスト装置がテストイメージを取得する段階;
    (b)前記テスト装置が、(i)前記テストイメージに対して、少なくとも一回コンボリューション演算を適用して少なくとも一つの特定のテスト用特徴マップを取得するプロセス、及び(ii)前記テストイメージから少なくとも一つのエッジ部分を抽出してテスト用エッジイメージを取得し、前記取得されたテスト用エッジイメージにおいて前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のテスト用エッジ部分に関する情報を含む、少なくとも一つのテスト用ガイドマップを取得するプロセスを遂行する段階;及び
    (c)前記テスト装置が、前記特定のテスト用特徴マップに前記テスト用ガイドマップを反映して、前記テストイメージ内の前記特定の物体を検出するためのテスト用セグメンテーション結果を取得する段階;
    を含むことを特徴とするテスト方法。
  12. 前記テスト用エッジイメージは、前記テストイメージから特定の閾値以下の周波数成分を除去して取得されることを特徴とする請求項11に記載のテスト方法。
  13. 前記テスト用エッジイメージは、前記テストイメージピクセルのグラディエントを算出した後、前記テストイメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジイメージであることを特徴とする請求項11に記載のテスト方法。
  14. 前記テスト用ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を与え、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、
    前記第1重み付け値が前記第2重み付け値よりも大きく、
    前記テスト用ガイドマップは、前記テスト用エッジイメージに対して膨張演算またはモルフォロジー演算を少なくとも一回適用して、前記特定のテスト用エッジ部分を広くして生成されることを特徴とする請求項11に記載の方法。
  15. 前記(c)段階は、
    (c1)前記特定のテスト用特徴マップが複数個ある状態で、前記テスト装置が、前記特定のテスト用特徴マップそれぞれのサイズがリサイズされたテスト用ガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたテスト用ガイドマップを生成するために前記テスト用ガイドマップの大きさを調整する段階;及び
    (c2)前記テスト装置が、前記テスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたテスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせて、複数のテスト用エッジ強化された特徴マップを生成する段階;
    を含むことを特徴とする請求項11に記載の方法。
  16. CNN基盤の特定の物体検出のための学習装置において、
    トレーニングイメージとしての入力イメージを取得するための通信部;及び
    (I)前記入力イメージに対して、少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定の特徴マップを取得するプロセス、(II)前記入力イメージから少なくとも一つのエッジ部分を抽出してエッジイメージを取得し、前記取得されたエッジイメージにおいて前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のエッジ部分に関する情報を含む、少なくとも一つのガイドマップを取得するプロセスを遂行するプロセス、及び(III)前記特定の特徴マップに前記ガイドマップを反映して、前記入力イメージ内の前記特定の物体を検出するためのセグメンテーション結果を取得するプロセスを遂行するプロセッサ;
    を含むことを特徴とする学習装置。
  17. 前記エッジイメージは、前記入力イメージにおいて特定の閾値以下の周波数成分を除去して取得されることを特徴とする請求項16に記載の学習装置。
  18. 前記エッジイメージは、前記入力イメージピクセルのグラディエントを算出した後、前記入力イメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジイメージであることを特徴とする請求項16に記載の学習装置。
  19. 前記ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を与え、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、
    前記第1重み付け値が、前記第2重み付け値より大きいことを特徴とする請求項16に記載の学習装置。
  20. 前記ガイドマップは、前記エッジイメージに対して膨張演算またはモルフォロジー演算を少なくとも一回適用して、前記特定のエッジ部分を広くして生成されることを特徴とする請求項16に記載の学習装置。
  21. 前記(III)プロセスで、
    前記プロセッサは、前記ガイドマップと前記特定の特徴マップとをピクセルごとに掛け合わせて少なくとも一つのエッジ強化された特徴マップを生成することを特徴とする請求項16に記載の装置。
  22. 前記(III)プロセスで、
    (III−1)前記特定の特徴マップが複数個ある状態で、前記特定の特徴マップそれぞれのサイズがリサイズされたガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたガイドマップを生成するために、前記ガイドマップの大きさを調整するプロセス;及び
    (III−2)前記ガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたガイドマップと、これに対応する特定の特徴マップとをピクセルごとに掛け合わせて、複数のエッジ強化された特徴マップを生成するプロセス;
    を含むことを特徴とする請求項21に記載の装置。
  23. 前記(III)プロセスで、
    前記ガイドマップが反映された前記特定の特徴マップは、そのエンコードレイヤから取得した少なくとも一つの特徴マップ、及び前記学習装置のデコードレイヤから取得された少なくとも一つの特徴マップのうちいずれか一つに選択されることを特徴とする請求項16に記載の装置。
  24. 前記特定の物体は、道路の少なくとも一つの車線であることを特徴とする請求項16に記載の学習装置。
  25. 前記プロセッサは、
    (IV)前記セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出するプロセス;及び
    (V)前記セグメンテーションロスを利用してバックプロパゲーションを遂行して、その少なくとも一つのパラメータを最適化するプロセス;
    をさらに遂行することを特徴とする請求項16に記載の学習装置。
  26. CNN基盤イメージに含まれた少なくとも一つの特定の物体を検出するためのテスト装置において、
    (i)学習装置が、トレーニングイメージに対して少なくとも一回コンボリューション演算を適用して、少なくとも一つの特定の学習用特徴マップを取得するプロセス、(ii)前記学習装置が、前記トレーニングイメージから少なくとも一つのエッジ部分を抽出して学習用エッジイメージを取得し、前記取得された学習用エッジイメージにおいて前記特定の物体と類似した特定の形態を有する特定の学習用エッジ部分に関する情報を含む、少なくとも一つの学習用ガイドマップを取得するプロセス、(iii)前記学習装置が、前記特定の学習用特徴マップに前記学習用ガイドマップを反映して前記トレーニングイメージ内の前記特定の物体を検出するための学習用セグメンテーション結果を取得するプロセス、(iv)前記学習装置が、前記検出された学習用セグメンテーション結果とそれに対応する原本正解を参照してセグメンテーションロスを算出するプロセス、及び(v)前記学習装置が、前記セグメンテーションロスを利用してバックプロパゲーションを遂行して前記学習装置の少なくとも一つのパラメータを最適化した状態で、テストイメージを取得する通信部;及び
    (I)前記テストイメージに対して少なくとも一回コンボリューション演算を適用して少なくとも一つの特定のテスト用特徴マップを取得し、前記テストイメージから少なくとも一つのエッジ部分を抽出してテスト用エッジイメージを取得し、前記取得されたテスト用エッジイメージで前記特定の物体と類似した特定の形態を有する少なくとも一つの特定のテスト用エッジ部分に関する情報を含む、少なくとも一つのテスト用ガイドマップを取得するプロセス、及び(II)前記特定のテスト用特徴マップに前記テスト用ガイドマップを反映して前記テストイメージ内の前記特定の物体を検出するためのテスト用セグメンテーション結果を取得するプロセスを遂行するプロセッサ;
    を含むことを特徴とするテスト装置。
  27. 前記テスト用エッジイメージは、前記テストイメージから特定の閾値以下の周波数成分を除去して取得されることを特徴とする請求項26に記載のテスト装置。
  28. 前記テスト用エッジイメージは、前記テストイメージピクセルのグラディエントを算出した後、前記テストイメージの前記ピクセルのうち設定済み閾値以上のグラディエントを有する少なくとも一つのピクセルを抽出して生成されたキャニーエッジイメージであることを特徴とする請求項26に記載のテスト装置。
  29. 前記テスト用ガイドマップは、前記特定の物体と類似した前記特定の形態に第1重み付け値を付与し、前記特定の物体と類似した前記特定の形態以外の少なくとも一つの形態には第2重み付け値を付与して取得され、
    前記第1重み付け値が前記第2重み付け値よりも大きく、
    前記テスト用ガイドマップは、前記テスト用エッジイメージに対して膨張演算またはモルフォロジー演算を少なくとも一回適用して、前記特定のテスト用エッジ部分を広くして生成されることを特徴とする請求項26に記載の装置。
  30. 前記(II)プロセスは、
    (II−1)前記特定のテスト用特徴マップが複数個ある状態で、前記特定のテスト用特徴マップそれぞれのサイズがリサイズされたテスト用ガイドマップそれぞれのサイズと同じであるように少なくとも一つの前記リサイズされたテスト用ガイドマップを生成するために前記テスト用ガイドマップの大きさを調整するプロセス;及び
    (II−2)前記テスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせ、前記リサイズされたテスト用ガイドマップと、これに対応する特定のテスト用特徴マップとをピクセルごとに掛け合わせて、複数のテスト用エッジ強化された特徴マップを生成するプロセス;
    を含むことを特徴とする請求項26に記載の装置。
JP2019159829A 2018-09-04 2019-09-02 エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置 Pending JP2020038658A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/120,664 2018-09-04
US16/120,664 US10229346B1 (en) 2018-09-04 2018-09-04 Learning method, learning device for detecting object using edge image and testing method, testing device using the same

Publications (1)

Publication Number Publication Date
JP2020038658A true JP2020038658A (ja) 2020-03-12

Family

ID=65633215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019159829A Pending JP2020038658A (ja) 2018-09-04 2019-09-02 エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置

Country Status (5)

Country Link
US (1) US10229346B1 (ja)
EP (1) EP3620979B1 (ja)
JP (1) JP2020038658A (ja)
KR (1) KR102325033B1 (ja)
CN (1) CN110874841B (ja)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110096933B (zh) * 2018-01-30 2023-07-18 华为技术有限公司 目标检测的方法、装置及系统
EP3762865A1 (en) * 2018-03-05 2021-01-13 Omron Corporation Method, apparatus, system and program for determining feature data of image data, and storage medium
KR102666072B1 (ko) * 2018-06-05 2024-05-17 삼성전자주식회사 기계 학습 장치 및 기계 학습 장치의 학습 방법
US10311321B1 (en) * 2018-10-26 2019-06-04 StradVision, Inc. Learning method, learning device using regression loss and testing method, testing device using the same
US11195053B2 (en) * 2018-11-27 2021-12-07 Raytheon Company Computer architecture for artificial image generation
WO2020112189A1 (en) * 2018-11-27 2020-06-04 Raytheon Company Computer architecture for artificial image generation using auto-encoder
US10373317B1 (en) * 2019-01-22 2019-08-06 StradVision, Inc. Learning method and learning device for attention-driven image segmentation by using at least one adaptive loss weight map to be used for updating HD maps required to satisfy level 4 of autonomous vehicles and testing method and testing device using the same
US10402692B1 (en) * 2019-01-22 2019-09-03 StradVision, Inc. Learning method and learning device for fluctuation-robust object detector based on CNN using target object estimating network adaptable to customers' requirements such as key performance index, and testing device using the same
US10346693B1 (en) * 2019-01-22 2019-07-09 StradVision, Inc. Method and device for attention-based lane detection without post-processing by using lane mask and testing method and testing device using the same
US10387753B1 (en) * 2019-01-23 2019-08-20 StradVision, Inc. Learning method and learning device for convolutional neural network using 1×1 convolution for image recognition to be used for hardware optimization, and testing method and testing device using the same
US10395140B1 (en) * 2019-01-23 2019-08-27 StradVision, Inc. Learning method and learning device for object detector based on CNN using 1×1 convolution to be used for hardware optimization, and testing method and testing device using the same
US10496899B1 (en) * 2019-01-25 2019-12-03 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN in which residual networks are provided for meta learning, and testing method and testing device using the same
US10410352B1 (en) * 2019-01-25 2019-09-10 StradVision, Inc. Learning method and learning device for improving segmentation performance to be used for detecting events including pedestrian event, vehicle event, falling event and fallen event using edge loss and test method and test device using the same
US10373323B1 (en) * 2019-01-29 2019-08-06 StradVision, Inc. Method and device for merging object detection information detected by each of object detectors corresponding to each camera nearby for the purpose of collaborative driving by using V2X-enabled applications, sensor fusion via multiple vehicles
US10373027B1 (en) * 2019-01-30 2019-08-06 StradVision, Inc. Method for acquiring sample images for inspecting label among auto-labeled images to be used for learning of neural network and sample image acquiring device using the same
US10373004B1 (en) * 2019-01-31 2019-08-06 StradVision, Inc. Method and device for detecting lane elements to plan the drive path of autonomous vehicle by using a horizontal filter mask, wherein the lane elements are unit regions including pixels of lanes in an input image
US10423840B1 (en) * 2019-01-31 2019-09-24 StradVision, Inc. Post-processing method and device for detecting lanes to plan the drive path of autonomous vehicle by using segmentation score map and clustering map
CN112116083B (zh) * 2019-06-20 2024-03-08 地平线(上海)人工智能技术有限公司 神经网络加速器及其检测方法和装置
CN110298321B (zh) * 2019-07-02 2021-03-23 中国科学院空天信息创新研究院 基于深度学习图像分类的道路阻断信息提取方法
CN110490082B (zh) * 2019-07-23 2022-04-05 浙江科技学院 一种有效融合神经网络特征的道路场景语义分割方法
US11688155B2 (en) * 2020-01-06 2023-06-27 Luminar, Llc Lane detection and tracking techniques for imaging systems
KR102144706B1 (ko) * 2020-03-11 2020-08-14 아주대학교산학협력단 합성곱 신경망 기반의 도로 검출 장치 및 방법
CN111583229B (zh) * 2020-05-09 2024-01-05 江苏野马软件科技有限公司 一种基于卷积神经网络路面故障检测方法
CN111738295B (zh) * 2020-05-22 2024-03-22 南通大学 图像的分割方法及存储介质
CN111932545B (zh) * 2020-07-14 2024-08-02 浙江大华技术股份有限公司 图像处理方法、目标计数方法及其相关装置
CN112069958A (zh) * 2020-08-27 2020-12-11 广西柳工机械股份有限公司 物料识别方法、装置、设备及存储介质
US12136250B2 (en) * 2021-05-27 2024-11-05 Adobe Inc. Extracting attributes from arbitrary digital images utilizing a multi-attribute contrastive classification neural network
KR102333642B1 (ko) * 2021-06-04 2021-12-01 셀렉트스타 주식회사 크라우드소싱에서 이미지에 포함된 객체의 윤곽정보에 대한 가이드정보를 제공하는 방법, 컴퓨팅장치 및 컴퓨터-판독가능 매체
CN113298837B (zh) * 2021-07-27 2021-11-26 南昌工程学院 一种图像边缘提取方法、装置、存储介质及设备
KR20230057117A (ko) 2021-10-21 2023-04-28 동의대학교 산학협력단 인공 신경망 적용 객체 감지 과정에서의 효과적인 하드웨어 사용을 위한 시스템 및 방법
CN115588024B (zh) * 2022-11-25 2023-06-20 东莞市兆丰精密仪器有限公司 一种基于人工智能的复杂工业影像边缘提取方法及装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259994A (ja) * 2001-01-31 2002-09-13 Gretag Imaging Trading Ag 自動イメージパターン検出方法及びイメージ処理装置
JP2004000706A (ja) * 2003-07-14 2004-01-08 Toshiba Corp 画像処理装置及び画像処理方法
JP2007219765A (ja) * 2006-02-15 2007-08-30 Toyota Motor Corp 画像処理装置、その方法、および画像処理用プログラム
JP2008181422A (ja) * 2007-01-25 2008-08-07 Fujitsu Ten Ltd 画像認識装置、画像認識方法、車両制御装置および車両制御方法
JP2010165204A (ja) * 2009-01-16 2010-07-29 Nissan Motor Co Ltd 車線認識装置および車線認識方法
US20170287137A1 (en) * 2016-03-31 2017-10-05 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation
WO2017187516A1 (ja) * 2016-04-26 2017-11-02 株式会社日立製作所 情報処理システムおよびその運用方法
WO2017208367A1 (ja) * 2016-05-31 2017-12-07 株式会社Pfu 画像処理装置、画像処理方法、および、プログラム
WO2018063451A1 (en) * 2016-09-29 2018-04-05 Magic Leap, Inc. Neural network for eye image segmentation and image quality estimation
JP2018132855A (ja) * 2017-02-14 2018-08-23 国立大学法人電気通信大学 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160239706A1 (en) * 2015-02-13 2016-08-18 Qualcomm Incorporated Convolution matrix multiply with callback for deep tiling for deep convolutional neural networks
WO2018076212A1 (zh) * 2016-10-26 2018-05-03 中国科学院自动化研究所 基于反卷积神经网络的场景语义分割方法
CN106651886A (zh) * 2017-01-03 2017-05-10 北京工业大学 一种基于超像素聚类优化cnn的云图分割方法
US10373002B2 (en) * 2017-03-31 2019-08-06 Here Global B.V. Method, apparatus, and system for a parametric representation of lane lines
CN107680090A (zh) * 2017-10-11 2018-02-09 电子科技大学 基于改进全卷积神经网络的输电线路绝缘子状态识别方法
CN107680113A (zh) * 2017-10-27 2018-02-09 武汉大学 基于贝叶斯框架边缘先验的多层分割网络的图像分割方法
CN108062756B (zh) * 2018-01-29 2020-04-14 重庆理工大学 基于深度全卷积网络和条件随机场的图像语义分割方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002259994A (ja) * 2001-01-31 2002-09-13 Gretag Imaging Trading Ag 自動イメージパターン検出方法及びイメージ処理装置
JP2004000706A (ja) * 2003-07-14 2004-01-08 Toshiba Corp 画像処理装置及び画像処理方法
JP2007219765A (ja) * 2006-02-15 2007-08-30 Toyota Motor Corp 画像処理装置、その方法、および画像処理用プログラム
JP2008181422A (ja) * 2007-01-25 2008-08-07 Fujitsu Ten Ltd 画像認識装置、画像認識方法、車両制御装置および車両制御方法
JP2010165204A (ja) * 2009-01-16 2010-07-29 Nissan Motor Co Ltd 車線認識装置および車線認識方法
US20170287137A1 (en) * 2016-03-31 2017-10-05 Adobe Systems Incorporated Utilizing deep learning for boundary-aware image segmentation
WO2017187516A1 (ja) * 2016-04-26 2017-11-02 株式会社日立製作所 情報処理システムおよびその運用方法
WO2017208367A1 (ja) * 2016-05-31 2017-12-07 株式会社Pfu 画像処理装置、画像処理方法、および、プログラム
WO2018063451A1 (en) * 2016-09-29 2018-04-05 Magic Leap, Inc. Neural network for eye image segmentation and image quality estimation
JP2018132855A (ja) * 2017-02-14 2018-08-23 国立大学法人電気通信大学 画像スタイル変換装置、画像スタイル変換方法および画像スタイル変換プログラム

Also Published As

Publication number Publication date
CN110874841A (zh) 2020-03-10
EP3620979A1 (en) 2020-03-11
EP3620979B1 (en) 2023-08-09
KR20200027428A (ko) 2020-03-12
EP3620979C0 (en) 2023-08-09
CN110874841B (zh) 2023-08-29
US10229346B1 (en) 2019-03-12
KR102325033B1 (ko) 2021-11-12

Similar Documents

Publication Publication Date Title
JP2020038658A (ja) エッジイメージを利用して物体を検出する学習方法及び学習装置、並びにそれを利用したテスト方法及びテスト装置
EP3620956B1 (en) Learning method, learning device for detecting lane through classification of lane candidate pixels and testing method, testing device using the same
KR102114357B1 (ko) 풀링 타입에 대한 정보를 포함하는 테이블을 작성하기 위한 방법, 장치 및 이를 이용한 테스팅 방법, 테스팅 장치
JP6847463B2 (ja) CNN(Convolutional Neural Network)を利用して車線を検出するための学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{LEARNING METHOD, LEARNING DEVICE FOR DETECTING LANE USING CNN AND TEST METHOD, TEST DEVICE USING THE SAME}
JP6869565B2 (ja) 危険要素検出に利用される学習用イメージデータセットの生成方法及びコンピューティング装置、そしてこれを利用した学習方法及び学習装置{method and computing device for generating image data set to be used for hazard detection and learning method and learning device using the same}
US20200250402A1 (en) Method for recognizing face using multiple patch combination based on deep neural network with fault tolerance and fluctuation robustness in extreme situation
CN111488782B (zh) 利用拉普拉斯金字塔网络检测道路障碍物的方法和装置
JP4905931B2 (ja) 人体領域抽出方法および装置並びにプログラム
KR102279388B1 (ko) 차선 모델을 이용하여 차선을 검출할 수 있는 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
KR20200047307A (ko) 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치
KR102320985B1 (ko) 멀티 카메라 시스템 내의 더블 임베딩 구성을 이용하여 도로 이용자 이벤트를 검출하기 위해 이용될 세그먼테이션 성능 향상을 위한 학습 방법 및 학습 장치 그리고 이를 이용한 테스팅 방법 및 테스팅 장치
CN111476343B (zh) 利用掩蔽参数的方法和装置
JP2020038669A (ja) 複数のビデオフレームを利用してcnnのパラメータを最適化するための学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置
CN111476811B (zh) 分割图像的学习方法和装置及利用它们的测试方法和装置
EP3623991B1 (en) Learning method, learning device for detecting lanes on the basis of cnn and testing method, testing device using the same
Ali et al. Asphalt Pavement Potholes Localization and Segmentation using Deep Retina Net and Conditional Random Fields
WO2022222087A1 (en) Method and apparatus for generating adversarial patch
KR102340354B1 (ko) 멀티 스케일 컨볼루션 필터를 이용한 객체 검출 방법
Jalba et al. Automatic segmentation of diatom images
KR20240016866A (ko) 객체 추적 방법 및 장치
KR20230075695A (ko) 기계 학습을 통해 영상에서 객체를 검출하는 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210524

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210629