JP6864891B2 - 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 - Google Patents

自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 Download PDF

Info

Publication number
JP6864891B2
JP6864891B2 JP2020002045A JP2020002045A JP6864891B2 JP 6864891 B2 JP6864891 B2 JP 6864891B2 JP 2020002045 A JP2020002045 A JP 2020002045A JP 2020002045 A JP2020002045 A JP 2020002045A JP 6864891 B2 JP6864891 B2 JP 6864891B2
Authority
JP
Japan
Prior art keywords
test
neural network
learning
information
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020002045A
Other languages
English (en)
Other versions
JP2020119538A (ja
Inventor
− ヒョン キム、ケイ
− ヒョン キム、ケイ
キム、ヨンジュン
キム、インスー
− キョン キム、ハク
− キョン キム、ハク
ナム、ウヒョン
ブー、ソッフン
ソン、ミュンチュル
ヨー、ドンフン
リュー、ウジュ
チャン、テウン
ジョン、キュンチョン
チェ、ホンモ
チョウ、ホジン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stradvision Inc
Original Assignee
Stradvision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Stradvision Inc filed Critical Stradvision Inc
Publication of JP2020119538A publication Critical patent/JP2020119538A/ja
Application granted granted Critical
Publication of JP6864891B2 publication Critical patent/JP6864891B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)

Description

本発明は、自律走行車両レベル4を満たすために、テストイメージ内の領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法に関し、より詳細には、前記グリッド生成器を利用した前記ニューラルネットワーク演算方法において、(a)前記テストイメージが取得されると、非物体(non−object)検出器をもって、前記テストイメージ上に存在するテスト用非物体を検出して、前記テスト用イメージ上に前記テスト用非物体がどこにあるのかに関する情報を含むテスト用非物体位置情報と、前記テスト用非物体のクラスに関する情報を含む前記テスト用非物体クラス情報とを取得させる段階;(b)前記グリッド生成器をもって、前記テスト用非物体位置情報を参照して前記テストイメージ内の複数個のサブセクションに関する情報を含むセクション情報を生成させる段階;(c)ニューラルネットワークをもって、前記ニューラルネットワーク演算を(i)それぞれのテスト用物体とそれに対応する前記テスト用非物体とを含む前記サブセクションのうち少なくとも一部に、又は(ii)前記サブセクションのうち前記少なくとも一部内で前記それぞれのテスト用非物体が位置するそれぞれのサブ領域に適用するのに使用されるテスト用パラメータを決定し、前記それぞれのテスト用非物体の前記クラス情報と同一又は類似するクラス情報を有するそれぞれの学習用非物体に関する情報を使用して学習された学習用パラメータを参照して決定するようにする段階;及び(d)前記ニューラルネットワークをもって、前記サブセクションのうち前記少なくとも一部それぞれに対応する前記それぞれのテスト用パラメータを利用して、前記ニューラルネットワーク演算を前記テストイメージに適用することにより、一つ以上のニューラルネットワーク結果を出力させる段階;を含むことを特徴とする方法、及びこれを利用した装置に関する。
ディープコンボリューションニューラルネットワーク(Deep Convolution Neural Networks;DeepCNN)は、ディープラーニング分野で起きた驚くべき発展の核心である。CNNは、文字の識別問題を解決するために90年代にも使われていたが、近年になっては機械学習(Machine Learning)分野で広く使用されるようになった。例えば、CNNは、2012年にImageNetイメージ分類コンテスト(ImageNet Large Scale Visual Recognition Challenge)で他の競争相手に勝って優勝を収めた。その後、CNNは機械学習分野で非常に有用なツールとして使用されるようになった。
一方、CNNは、自律走行分野でも広く使用される。自律走行環境で大部分の入力イメージは主に入力イメージの中央に車道を含み、左右側に歩道を含むなどの典型的かつ類似した配列を有する。したがって、自律走行用CNNは、入力イメージの構成要素のように典型的な配列、例えば、典型的な構成要素を備えたトレーニングイメージを利用してパラメータを学習するようになる。
しかし、前記にて言及した学習プロセスには大きな欠点がある。まさに入力イメージの配列が、トレーニングイメージの典型的な配列と異なる場合、CNN演算が非効率的であるという点である。例えば、コーナーを回る場合、典型的な配列が備えたトレーニングイメージとは異なり、テストイメージの中央に車道がないであろうし、CNNパラメータは、イメージの中央に車道のある入力イメージに最適化されているので、前記言及されたパラメータではテストイメージを正しく演算することができない。
本発明は、上述の問題点を解決することを目的とする。
本発明は、サブセクションのうち少なくとも一部それぞれに含まれる一つ以上のテスト用非物体に関するクラス情報を参照して、テスト用パラメータを決定することにより、最適化されたニューラルネットワーク結果を出力する方法を提供することを他の目的とする。
このような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下の通りである。
本発明の一態様によると、グリッド生成器を利用したニューラルネットワーク演算方法において、(a)コンピュータ装置が、テストイメージが取得されると、非物体(non−object)検出器をもって前記テストイメージ上に存在するテスト用非物体を検出して、前記テストイメージ上に前記テスト用非物体がどこにあるのかに関する情報を含むテスト用非物体位置情報と、前記テスト用非物体のクラスに関する情報を含む前記テスト用非物体クラス情報とを取得させる段階;(b)前記コンピュータ装置が、グリッド生成器をもって、前記テスト用非物体位置情報を参照して、前記テストイメージ内の複数個のサブセクションに関する情報を含むセクション情報を生成させる段階;(c)前記コンピュータ装置が、ニューラルネットワークをもって、前記ニューラルネットワーク演算を(i)それぞれの前記テスト用物体と、それに対応する前記テスト用非物体とを含む前記サブセクションのうち少なくとも一部に、又は(ii)前記サブセクションのうち前記少なくとも一部内で前記それぞれのテスト用非物体が位置するそれぞれのサブ領域に適用するのに使用されるテスト用パラメータを決定し、前記それぞれのテスト用非物体の前記クラス情報と同一又は類似するクラス情報を有するそれぞれの学習用非物体に関する情報を使用して学習された学習用パラメータを参照して決定するようにする段階;及び(d)前記コンピュータ装置が、前記ニューラルネットワークをもって、前記サブセクションのうち前記少なくとも一部それぞれに対応する前記それぞれのテスト用パラメータを利用して、前記ニューラルネットワーク演算を前記テストイメージに適用することにより、一つ以上のニューラルネットワーク結果を出力させる段階;を含むことを特徴とする方法が開示される。
一実施例において、前記(b)段階で、前記グリッド生成器が可変テンプレート(dynamic template)を利用して前記テストイメージを分け、前記可変テンプレートの前記サブセクションの前記少なくとも一部それぞれに前記テスト用非物体のうち少なくとも一つが含まれるように一つ以上の境界線が調整された前記可変テンプレートが提供されることを特徴とする。
一実施例において、前記グリッド生成器が、前記可変テンプレートに関する情報を管理し、前記可変テンプレートは(i)第1方向の少なくとも一つの第1境界線及び(ii)第2方向の少なくとも一つの第2境界線のうち少なくとも一部を含み、このうち一部は調整可能であることを特徴とする。
一実施例において、前記可変テンプレートは、行グループ(row group)と一つ以上の列グループ(column group)とを含み、前記行グループは(i)上段行グループ、(ii)前記列グループのうち少なくとも一部を含む中段行グループ、及び(iii)下段行グループを含み、少なくとも一つの前記テスト用非物体は、前記行グループと前記列グループとにより形成される前記サブセクションのうち前記少なくとも一部それぞれに含まれることを特徴とする。
一実施例において、前記(a)段階以前に、(a0)前記コンピュータ装置が、前記ニューラルネットワークをもって、一つ以上のトレーニングイメージに含まれるそれぞれの前記学習用非物体に関する情報を利用して、前記学習用パラメータを学習させる段階;をさらに含むことを特徴とする。
一実施例において、前記(a0)段階で、前記ニューラルネットワークは、前記トレーニングイメージ内に含まれた第1分割領域ないし第k分割領域までの分割領域のうち少なくとも一部それぞれに含まれるそれぞれの前記学習用非物体に関する情報を利用して、前記学習用パラメータを学習し、前記学習用非物体に関するクラス情報を、前記学習用非物体に対応する学習用パラメータと連動して格納することを特徴とする。
一実施例において、前記それぞれのトレーニングイメージ上で前記第1分割領域ないし前記第k分割領域の位置情報を第1位置情報ないし第k位置情報とするとき、前記トレーニングイメージそれぞれの第1位置情報の相対的な偏差ないし前記第k位置情報の相対的な偏差のうち少なくとも一部それぞれが設定済み閾値以下に該当すれば、それを前記トレーニングイメージとして選定することを特徴とする。
一実施例において、前記(c)段階で、(i)特定のテスト用物体を含む特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が設定済み閾値未満である場合、前記コンピュータ装置は、前記ニューラルネットワークをもって、前記学習用パラメータのうち少なくとも一つの特定の学習用パラメータを参照して、前記特定のサブセクションに前記ニューラルネットワーク演算を適用するのに使用される、前記テスト用パラメータのうち少なくとも一つの特定のテスト用パラメータを決定するようにし、(ii)前記特定のテスト用物体を含む前記特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が前記設定済み閾値以上である場合、前記コンピュータ装置は前記ニューラルネットワークをもって(ii−1)前記学習用パラメータのうち、前記特定の学習用パラメータを参照して、前記特定のサブセクションで特定のテスト用非物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される、前記特定のテスト用パラメータの第1部分を決定するようにし、(ii−2)前記特定のテスト用物体のクラス情報と同一又は類似するクラス情報を有する追加学習用物体を利用して、個別的に学習された少なくとも一つの追加学習用パラメータを参照して、前記特定のサブセクションで前記特定のテスト用物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される前記特定のテスト用パラメータの第2部分を決定するようにすることを特徴とする。
一実施例において、前記(d)段階で、前記コンピュータ装置が前記ニューラルネットワークをもって、前記テスト用パラメータを利用して前記テストイメージに一つ以上のコンボリューション演算と一つ以上のデコンボリューション演算とを適用して、前記ニューラルネットワーク結果を出力させることを特徴とする。
一実施例において、前記テストイメージは道路走行状況を示し、前記テスト用物体は道路上で現れ得る物体であり、前記ニューラルネットワーク結果は自律走行のために使用されることを特徴とする。
本発明の他の態様によると、グリッド生成器を利用してニューラルネットワーク演算するためのコンピュータ装置において、各インストラクションを格納する少なくとも一つのメモリ;及び(I)非物体検出器をもって、テストイメージ上に存在するテスト用非物体を検出して、前記テストイメージ上に前記テスト用非物体がどこにあるのかに関する情報を含むテスト用非物体位置情報と、前記テスト用非物体のクラスに関する情報を含む前記テスト用非物体クラス情報とを取得させるプロセス、(II)前記グリッド生成器をもって、前記テスト用非物体位置情報を参照して前記テストイメージ内の複数個のサブセクションに関する情報を含むセクション情報を生成させるプロセス、(III)ニューラルネットワークをもって、前記ニューラルネットワーク演算を(i)それぞれのテスト用物体とそれに対応する前記テスト用非物体とを含む前記サブセクションのうち少なくとも一部に、又は(ii)前記サブセクションのうち、前記少なくとも一部内で前記それぞれのテスト用非物体が位置するそれぞれのサブ領域に適用するのに使用されるテスト用パラメータを決定し、前記それぞれのテスト用非物体の前記クラス情報と同一又は類似するクラス情報を有するそれぞれの学習用非物体に関する情報を使用して学習された学習用パラメータを参照して決定するようにするプロセス、及び(IV)前記ニューラルネットワークをもって、前記サブセクションのうち前記少なくとも一部それぞれに対応する前記それぞれのテスト用パラメータを利用して、前記ニューラルネットワーク演算を前記テストイメージに適用することにより、一つ以上のニューラルネットワーク結果を出力させるプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサ;を含むことを特徴とするコンピュータ装置が開示される。
一実施例において、前記(II)プロセスで、前記グリッド生成器が可変テンプレートを利用して前記テストイメージを分け、前記可変テンプレートの前記サブセクションの前記少なくとも一部それぞれに前記テスト用非物体のうち少なくとも一つが含まれるように一つ以上の境界線が調整された前記可変テンプレートが提供されることを特徴とする。
一実施例において、前記グリッド生成器が、前記可変テンプレートに関する情報を管理し、前記可変テンプレートは(i)第1方向の少なくとも一つの第1境界線及び(ii)第2方向の少なくとも一つの第2境界線のうち少なくとも一部を含み、このうち一部は調整可能であることを特徴とする。
一実施例において、前記可変テンプレートは、行グループと一つ以上の列グループを含み、前記行グループは(i)上段行グループ、(ii)前記列グループのうち少なくとも一部を含む中段行グループ、及び(iii)下段行グループを含み、少なくとも一つの前記テスト用非物体は前記行グループと前記列グループとによって形成される前記サブセクションのうち前記少なくとも一部それぞれに含まれることを特徴とする。
一実施例において、前記(I)プロセス以前に、前記プロセッサは、(0)前記ニューラルネットワークをもって、一つ以上のトレーニングイメージに含まれるそれぞれの前記学習用非物体に関する情報を利用して、前記学習用パラメータを学習させるプロセスをさらに遂行することを特徴とする。
一実施例において、前記(0)プロセスで、前記ニューラルネットワークは、前記トレーニングイメージ内に含まれた第1分割領域ないし第k分割領域までの分割領域のうち少なくとも一部それぞれに含まれるそれぞれの前記学習用非物体に関する情報を利用して前記学習用パラメータを学習し、前記学習用非物体に関するクラス情報を、前記学習用非物体に対応する学習用パラメータと連動して格納することを特徴とする。
一実施例において、前記それぞれのトレーニングイメージ上で前記第1分割領域ないし前記第k分割領域の位置情報を第1位置情報ないし第k位置情報とするとき、前記トレーニングイメージそれぞれの第1位置情報の相対的な偏差ないし前記第k位置情報の相対的な偏差のうち少なくとも一部それぞれが設定済み閾値以下に該当すれば、それを前記トレーニングイメージとして選定することを特徴とする。
一実施例において、前記(III)プロセスで、(i)特定のテスト用物体を含む特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が設定済み閾値未満である場合、前記プロセッサは前記ニューラルネットワークをもって、前記学習用パラメータのうち少なくとも一つの特定の学習用パラメータを参照して、前記特定のサブセクションに前記ニューラルネットワーク演算を適用するのに使用される、前記テスト用パラメータのうち少なくとも一つの特定のテスト用パラメータを決定するようにし、(ii)前記特定のテスト用物体を含む前記特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が前記設定済み閾値以上である場合、前記プロセッサは前記ニューラルネットワークをもって(ii−1)前記学習用パラメータのうち、前記特定の学習用パラメータを参照して、前記特定のサブセクションで特定のテスト用非物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される、前記特定のテスト用パラメータの第1部分を決定するようにし、(ii−2)前記特定のテスト用物体のクラス情報と同一又は類似するクラス情報を有する追加学習用物体を利用して、個別的に学習された少なくとも一つの追加学習用パラメータを参照して、前記特定のサブセクションにおいて、前記特定のテスト用物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される前記特定のテスト用パラメータの第2部分を決定するようにすることを特徴とする。
一実施例において、前記(IV)プロセスにおいて、前記プロセスが前記ニューラルネットワークをもって、前記テスト用パラメータを利用して前記テストイメージに一つ以上のコンボリューション演算と一つ以上のデコンボリューション演算とを適用して、前記ニューラルネットワーク結果を出力させることを特徴とする。
一実施例において、前記テストイメージは道路走行状況を示し、前記テスト用物体は道路上で現れ得る物体であり、前記ニューラルネットワーク結果は自律走行のために使用されることを特徴とする。
本発明によると、テスト用非物体クラス情報と同一、又は類似したクラス情報を有するサブセクションに含まれた学習用非物体に関する情報を利用してテスト用パラメータを決定する方法を提供することにより、最適化されたニューラルネットワーク結果を出力することができる効果がある。
本発明の実施例の説明に利用されるために添付された以下の図面は、本発明の実施例のうち単に一部であるにすぎず、本発明の属する技術分野において通常の知識を有する者(以下「通常の技術者」)にとっては、発明的作業が行われずにこれらの図面に基づいて他の各図面が得られ得る。
図1は、本発明によってグリッド生成器を利用してニューラルネットワーク演算方法を遂行するためのコンピュータ装置の構成を示した図面である。 図2は、本発明によってニューラルネットワーク結果を出力するためのプロセスを示した図面である。 図3は、本発明によって前記ニューラルネットワークのパラメータを学習するのに使用される典型的な配列を有するトレーニングイメージを示した図面である。 図4aは、本発明によって前記グリッド生成器を利用したニューラルネットワーク演算方法を効率的に適用することができるテストイメージを示した図面である。 図4bは、本発明によってサブセクションが可変テンプレートによって生成されたテストイメージを示した図面である。
後述する本発明に関する詳細な説明は、本発明が実施され得る特定の実施例を例示として示す添付図面を参照する。これらの実施例は、当業者が本発明を実施することができるように十分詳細に説明される。本発明の多様な実施例は互いに異なるが、相互に排他的である必要はないことが理解されるべきである。例えば、ここに記載されている特定の形状、構造及び特性は、一実施例に関連して本発明の精神及び範囲を逸脱せず、かつ他の実施例で具現される得る。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の精神及び範囲を逸脱せず、かつ変更され得ることが理解されるべきである。したがって、後述の詳細な説明は、限定的な意味として受け取ろうとするものではなく、本発明の範囲は適切に説明されるのであれば、その請求項が主張することと均等な全ての範囲とともに添付された請求項によってのみ限定される。図面において類似の参照符号は、様々な側面にわたって同一であるか、又は類似の機能を指す。
また、本発明の詳細な説明及び各請求項にわたって、「含む」という単語及びそれらの変形は、他の技術的各特徴、各付加物、構成要素又は段階を除外することを意図したものではない。通常の技術者にとって本発明の他の各目的、長所及び各特性が、一部は本説明書から、また一部は本発明の実施から明らかになるであろう。以下の例示及び図面は実例として提供され、本発明を限定することを意図したものではない。
本発明で言及している各種イメージは、舗装又は非舗装道路関連のイメージを含み得、この場合、道路環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではなく、本発明で言及している各種イメージは、道路と関係のないイメージ(例えば、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内と関連したイメージ)でもあり得、この場合、非舗装道路、路地、空き地、海、湖、川、山、森、砂漠、空、室内環境で登場し得る物体(例えば、自動車、人、動物、植物、物、建物、飛行機やドローンのような飛行体、その他の障害物)を想定し得るが、必ずしもこれに限定されるものではない。
以下、本発明の属する技術分野において通常の知識を有する者が本発明を容易に実施するようにするために、本発明の好ましい実施例について、添付された図面を参照して詳細に説明することとする。
参考までに、後述する説明で混同を防止するために、学習プロセスに関する用語には「学習用」という文言が追加されており、テストプロセスに関する用語には「テスト用」という文言が追加された。
図1は、本発明によってグリッド生成器を利用したニューラルネットワーク演算方法を遂行するためのコンピュータ装置の構成を示した図面である。
図1を参照すると、前記コンピュータ装置(100)は、非物体(non−object)検出器(130)、グリッド生成器(140)及びニューラルネットワーク(150)を含むことができる。前記非物体検出器(130)、前記グリッド生成器(140)及び前記ニューラルネットワーク(150)の様々なデータ入出力過程及び演算過程は、通信部(110)及びプロセッサ(120)によってそれぞれ遂行され得る。ただし、図1では前記通信部(110)及び前記プロセッサ(120)の連結関係に関する詳細な説明を省略した。また、前記コンピュータ装置(100)は、後述するプロセスを遂行するためのコンピュータ読取り可能な各インストラクション(computer readable instruction)を格納し得るメモリー(115)をさらに含むことができる。一例として、前記プロセッサ、前記メモリ、媒体(medium)等は一つのプロセッサとして統合されて機能することもできる。
以上にて前記コンピュータ装置(100)の構成を検討したところ、本発明によって前記グリッド生成器(140)を利用してニューラルネットワーク結果を導き出すプロセスについて検討することとする。
図2は、本発明によって前記ニューラルネットワーク結果を出力するためのプロセスを示した図面である。
図2を参照すると、テストイメージが取得されると、前記非物体検出器(130)、前記グリッド生成器(140)及び前記ニューラルネットワーク(150)の順でプロセスが遂行されることが分かる。前記テストイメージは、前記非物体検出器(130)に入力され、前記非物体検出器(130)によって生成されたテスト用非物体位置情報と前記テストイメージは、前記グリッド生成器(140)に入力され得る。最終的に、前記非物体検出器(130)によって生成される、テスト用非物体のクラスに関する情報を含む前記テスト用非物体クラス情報と、前記グリッド生成器(140)によって生成されるセクション情報と前記テストイメージが前記ニューラルネットワーク(150)に入力され得る。その後、前記ニューラルネットワーク(150)は、前記テスト用非物体クラス情報と前記セクション情報とを参照して決定されたテスト用パラメータとテスト用イメージを参照して前記ニューラルネットワーク結果を出力することができる。
具体的に、道路走行状況を示す前記テストイメージが前記通信部(110)によって取得されると、前記コンピュータ装置(100)は、前記非物体検出器(130)をもって、前記テストイメージ上に存在する前記テスト用非物体とを検出して、前記テストイメージ上に前記テスト用非物体がどこにあるのかに関する情報を含む前記テスト用非物体位置情報と前記テスト用非物体クラス情報とを取得するようにする。
前記テスト用非物体位置情報と前記テスト用非物体クラス情報とが前記非物体検出器(130)によって取得された後、前記コンピュータ装置(100)は、前記グリッド生成器(140)をもって前記テスト用非物体位置情報を参照して、前記テストイメージを複数個のサブセクションに分け、前記テストイメージ内の前記サブセクションに関する情報を含む前記セクション情報を生成させることができる。前記サブセクションのうち一部では、例えば、自動車(テスト用物体)及び車道(テスト用非物体)のように、テスト用物体がそれに対応するテスト用非物体と共に存在することができる。
前記グリッド生成器(140)は、可変テンプレート(dynamic template)を使用して前記テストイメージを前記サブセクションに分けることができる。
具体的に、前記グリッド生成器(140)は、前記可変テンプレートに関する情報を管理することができ、前記可変テンプレートは(i)第1方向の少なくとも一つの第1境界線及び(ii)第2方向の少なくとも一つの第2境界線のうち少なくとも一部を含むことができ、このうち一部は調整可能である。
一例示として、第1方向は前記テストイメージの横軸と平行な方向であり、第2方向は前記テストイメージの縦軸と平行な方向であり得るが、これに限定されるわけではなく、各方向は斜線方向でもあり得、さらには特定の関数によって決定される曲線の方向であり得る。
または、前記可変テンプレートは、行グループと一つ以上の列グループを含むことができる。一例示として、前記行グループは(i)上段行グループ、(ii)前記列グループのうち少なくとも一部を含む中段行グループ及び(iii)下段行グループを含むことができる。前記中段行グループが前記列グループのうち少なくとも一部を含む理由は、一般的に重要な物体及び非物体の多数が前記テストイメージの中心に存在するためである。
このように、前記可変テンプレートの構成はすでに設定されており、前記グリッド生成器(140)が前記可変テンプレートを使用して前記テストイメージを分ける際に、一つ以上の境界線が調整された前記可変テンプレートが提供され得る。一例示として、前記サブセクションの少なくとも一部それぞれに前記テスト用非物体のうち少なくとも一つが含まれるように前記可変テンプレートが提供され得る。前記セクション情報は、前記調整された境界線位置に関する情報を含むことができる。
このように前記セクション情報が生成されると、前記コンピュータ装置(100)は、前記ニューラルネットワーク(150)をもって前記テスト用非物体に関するクラス情報と前記セクション情報とを利用して前記テスト用パラメータを決定させることができる。
前記テスト用パラメータを決定するプロセスを記述するために、前記ニューラルネットワークの学習用パラメータを学習するプロセスを説明することとする。
前記テストイメージが前記通信部(110)によって取得される前に、前記コンピュータ装置(100)は、前記ニューラルネットワーク(150)をもって、一つ以上のトレーニングイメージに含まれた学習用非物体それぞれに関する情報を利用して、学習用パラメータを学習させることができる。前記それぞれのトレーニングイメージは、道路走行状況で現れ得る典型的な配列を含むことができる。前記典型的な配列を説明するために、図3を参照するようにする。
図3は、本発明によって前記ニューラルネットワークの学習用パラメータを学習するのに使用される典型的な配列を有する例示トレーニングイメージを示した図面である。
図3を参照すると、前記例示トレーニングイメージ(300)の中央に車道部分が位置し、左右両側に歩道部分が位置し、上段に空の部分が位置することが分かる。前記ニューラルネットワーク(150)のパラメータを学習するのに使用された前記トレーニングイメージは、前記例示トレーニングイメージ(300)と類似し得る。
前記例示トレーニングイメージ(300)の構成を説明するために、学習用位置情報と分割領域用語を検討することとする。
前記分割領域は、前記学習用非物体が位置する領域をいうのであって、車道、歩道部分及び空の部分がそれぞれ位置するそれぞれの領域をいう。前記学習用位置情報は、前記分割領域の中心座標を含むことができる。
この際、前記それぞれのトレーニングイメージ内で前記第1分割領域ないし前記第k分割領域の位置情報を第1位置情報ないし第k位置情報とすると、前記トレーニングイメージそれぞれの第1位置情報の相対的な偏差ないし前記第k位置情報の相対的な偏差のうち少なくとも一部それぞれが設定済み閾値以下に該当すれば、それを前記トレーニングイメージとして前記学習プロセスに使用するために選定することができる。
学習プロセスにおいて、前記ニューラルネットワーク(150)は、前記それぞれのトレーニングイメージに含まれた全体領域を使用して、前記学習用パラメータを学習するのではなく、前記トレーニングイメージ内に含まれた第1分割領域ないし第k分割領域までの分割領域のうち少なくとも一部それぞれに含まれるそれぞれの前記学習用非物体に関する情報を利用して、前記学習用パラメータを学習し、前記学習用非物体に対応する学習用パラメータと連動して前記学習用非物体に関するクラス情報を格納することができる。
例えば、前記ニューラルネットワーク(150)が、図3の前記例示トレーニングイメージのようなトレーニングイメージを複数個使用して前記学習用パラメータを学習する場合を想定することができる。この場合、第1分割領域(310)は空の部分、第2分割領域(320)は左側の歩道部分、第3分割領域(330)は車道部分、そして第4分割領域(340)は右側の歩道部分である。前記ニューラルネットワーク(150)は、前記第1分割領域(310)を利用して前記空の部分に対応する学習用パラメータを学習し、前記空の部分の前記パラメータと連動して前記空の部分に関するクラス情報を格納することができる。これとほぼ同様に、前記歩道部分に対応する前記学習用パラメータの一部分を決定する場合、第2分割領域(320)と第4分割領域(340)が使用され得、前記歩道部分のクラス情報が格納され得る。
以上、前記ニューラルネットワーク(150)の学習プロセスについて検討してみたところ、前記テスト用パラメータを決定するプロセスについて説明することとする。
前記ニューラルネットワーク(150)の学習プロセスが完了すると、前記学習用パラメータとそれに対応する非物体に関する前記クラス情報は格納され得る。その後、前記テストイメージが前記通信部(110)によって取得され、前記非物体検出器(130)と、前記グリッド生成器(140)とが遂行するプロセスが完了すると、前記コンピュータ装置(100)は前記ニューラルネットワーク(150)をもって、前記テスト用非物体のクラス情報と同一又は類似するクラス情報とを有する前記学習用非物体に関する情報を使用して学習された学習用パラメータを参照して、前記テスト用パラメータを決定するようにする。
前記テスト用パラメータは、前記ニューラルネットワーク演算を(i)それぞれの前記テスト用物体とそれに対応する前記テスト用非物体とを含む前記サブセクションのうち少なくとも一部、又は(ii)前記サブセクションのうち前記少なくとも一部に位置するそれぞれのサブ領域として、前記それぞれのテスト用非物体が位置するそれぞれのサブ領域に適用するのに使用され得る。前記テスト用パラメータが前記サブ領域にのみ適用されるのであれば、前記それぞれのテスト用物体が位置するそれぞれの領域に適用される少なくとも一つの追加テスト用パラメータは、前記テスト用物体のクラス情報と同一又は類似するクラス情報を有する追加学習用物体を使用して、別途に学習された追加学習用パラメータを参照して決定され得る。
このようなプロセスのために、前記ニューラルネットワーク(150)は、前記非物体検出器(130)によって取得された、前記サブセクションのうち前記少なくとも一部それぞれに含まれた前記テスト用非物体それぞれに関するクラス情報を使用することができる。
例えば、前記車道部分に対応する特定の学習用パラメータと前記車道部分に関するクラス情報が共に格納される場合を想定することができる。この場合、前記車道が前記テストイメージ内の特定のサブセクションに存在するものと判断されれば、特定のテスト用パラメータは、前記特定のサブセクションに対応する特定の学習用パラメータを使用して決定される。
従来の方法と比較してみたとき、こうした方法が効果的である理由は、前記テストイメージに含まれる構成要素の相対的位置が前記トレーニングイメージに含まれる構成要素の位置と異なる場合にも、適切なテスト用パラメータを適用するからである。
具体的に、前記トレーニングイメージでの第1分割領域ないし第k分割領域に対応する第1位置情報ないし第k位置情報それぞれと前記テストイメージでの第1位置情報ないし第k位置情報それぞれを比較した偏差のうち少なくとも一部が第2閾値を超過する場合、本発明がより効果的に適用され得るが、これに限定されるわけではない。
図4aは、本発明によって前記グリッド生成器を利用した前記ニューラルネットワーク演算を効果的に適用することができる例示テストイメージを示した図面である。
図4aを参照すると、図3とは異なって車道部分が左側に位置し、歩道部分は右側に位置することを確認することができる。この場合、従来の方法により生成された前記ニューラルネットワーク演算の結果は最適化され得ないが、その理由は、前記テストイメージに含まれている車道部分の位置と前記トレーニングイメージに含まれた車道部分の位置とが異なるからである。したがって、前記テスト用パラメータが最適化されていない状態になるところ、結果が好ましくない短所がある。ところが、本発明の方法がこのような場合に対応する前記テストイメージに適用されるのであれば、最適化されたパラメータが前記サブセクションのうち少なくとも一部それぞれに適用されて、前記ニューラルネットワーク演算の結果が最適に生成されるであろう。これは、図4bを参照すると分かる。
図4bは、本発明により可変テンプレートによって生成されたサブセクションを含む例示テストイメージを示した図面である。
図4bを参照すると、前記中段行左側の車道部分を含むサブセクション(520)、前記中段行中心の車道部分を含むサブセクション(530)、及び前記下段行の車道部分を含むサブセクション(550)と前記中段行右側にある歩道部分を含むサブセクション(540)が表示されたことが分かる。前記サブセクションによって、前記トレーニングイメージに含まれる前記車道部分を使用して学習された前記学習用パラメータをサブセクション(520、530及び550)に適用することができ、前記トレーニングイメージに含まれた前記歩道部分を使用して学習された前記学習用パラメータは、前記サブセクション(540)に適用することができる。
一方、前記テスト用パラメータは、特定のテスト用物体を含む特定のサブセクションに比べて特定のテスト用物体が占める面積の割合をさらに参照して決定される。
具体的に、前記特定のテスト用物体を含む前記特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が設定済み閾値未満である場合、前記コンピュータ装置(100)は、前記ニューラルネットワーク(150)をもって、前記テスト用パラメータのうち少なくとも一つの特定の学習用パラメータを参照して、前記特定のサブセクションに前記ニューラルネットワーク演算を適用するのに使用される前記テスト用パラメータのうち少なくとも一つの特定のテスト用パラメータを決定させることができる。
それとは異なって、前記特定のテスト用物体を含む前記特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が前記設定済み閾値以上である場合、前記コンピュータ装置(100)は、前記ニューラルネットワーク(150)をもって前記学習用パラメータのうち前記特定の学習用パラメータを参照して、前記特定のサブセクションで前記特定のテスト用非物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される前記特定のテスト用パラメータの第1部分を決定するようにし、前記特定のテスト用物体のクラス情報と同一又は類似するクラス情報を有する追加学習用物体を利用して、個別的に学習された少なくとも一つの追加学習用パラメータを参照して、前記特定のサブセクションにおいて、前記特定のテスト用物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される前記特定のテスト用パラメータの第2部分を決定させることができる。
前記学習用パラメータは、前記学習用非物体を参照して学習されたので、前記特定のサブセクションに比べて前記特定の非物体が占める面積の割合が高い場合、前記学習用パラメータを利用して前記テスト用パラメータを効率的に決定することができる。その逆の場合には、すなわち、前記特定のサブセクションに比べて前記特定の非物体が占める面積の割合が低い場合、前記特定の非物体は前記特定のサブセクションを代表するとみなすことができないので、前記学習用パラメータを利用して前記テスト用パラメータを決定することが効率的でないことがあり得る。したがって、前記特定のテスト用パラメータの第1部分は、前記特定のテスト用非物体が位置する前記サブ領域に適用され、前記特定のテスト用パラメータの第2部分は、前記特定のテスト用物体が位置するサブ領域に適用される。
このように、前記テスト用パラメータが決定されると、前記ニューラルネットワーク演算は前記テストイメージに適用され得るが、前記ニューラルネットワーク演算は、コンボリューション演算及びデコンボリューション演算であり得る。すなわち、前記コンピュータ装置(100)は、前記ニューラルネットワーク(150)をもって、前記テスト用パラメータを利用して前記テストイメージに一つ以上のコンボリューション演算と一つ以上のデコンボリューション演算とを適用して、前記ニューラルネットワーク演算結果を出力させることができる。
本発明の方法によって、自律走行車両レベル4を満たすために、領域のクラスに応じてモードが切り換えられ得る。
以上にて説明された本発明による実施例は、多様なコンピュータの構成要素を通じて遂行され得るプログラム命令語の形態で具現されて、コンピュータ読取り可能な記録媒体に格納され得る。前記コンピュータ読取り可能な記録媒体はプログラム命令語、データファイル、データ構造などを単独で又は組み合わせて含むことができる。前記コンピュータ読取り可能な記録媒体に格納されるプログラム命令語は、本発明のために特別に設計され、構成されたものであるか、コンピュータソフトウェア分野の当業者に公知にされて使用可能なものであり得る。コンピュータ読取り可能な記録媒体の例には、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、フロプティカル・ディスク(floptical disk)のような磁気−光メディア(magneto−optical media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を格納して遂行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、コンパイラによって作られるもののような機械語コードだけでなく、インタープリターなどを使用してコンピュータによって実行され得る高級言語コードも含まれる。前記ハードウェア装置は、本発明による処理を実行するために一つ以上のソフトウェアモジュールとして作動するように構成され得、その反対も同様である。
以上にて本発明が具体的な構成要素などのような特定事項と限定された実施例及び図面によって説明されたが、これは本発明のより全般的な理解の一助とするために提供されたものであるに過ぎず、本発明が前記実施例に限られるものではなく、本発明が属する技術分野において通常の知識を有する者であれば、係る記載から多様な修正及び変形が行われ得る。
従って、本発明の思想は、前記説明された実施例に局限されて定められてはならず、後述する特許請求の範囲だけでなく、本特許請求の範囲と均等又は等価的に変形されたものすべては、本発明の思想の範囲に属するといえる。

Claims (20)

  1. グリッド生成器を利用したニューラルネットワーク演算方法において、
    (a)コンピュータ装置が、テストイメージが取得されると、非物体(non−object)検出器をもって前記テストイメージ上に存在するテスト用非物体を検出して、前記テストイメージ上に前記テスト用非物体がどこにあるのかに関する情報を含むテスト用非物体位置情報と、前記テスト用非物体のクラスに関する情報を含む前記テスト用非物体クラス情報とを取得させる段階;
    (b)前記コンピュータ装置が、前記グリッド生成器をもって、前記テスト用非物体位置情報を参照して、前記テストイメージ内の複数個のサブセクションに関する情報を含むセクション情報を生成させる段階;
    (c)前記コンピュータ装置が、ニューラルネットワークをもって、前記ニューラルネットワーク演算を(i)それぞれのテスト用物体と、それに対応する前記テスト用非物体とを含む前記サブセクションのうち少なくとも一部に、又は(ii)前記サブセクションのうち前記少なくとも一部内で前記それぞれのテスト用非物体が位置するそれぞれのサブ領域に適用するのに使用されるテスト用パラメータを決定し、前記それぞれのテスト用非物体の前記クラス情報と同一又は類似するクラス情報を有するそれぞれの学習用非物体に関する情報を使用して学習された学習用パラメータを参照して決定するようにする段階;及び
    (d)前記コンピュータ装置が、前記ニューラルネットワークをもって、前記サブセクションのうち前記少なくとも一部それぞれに対応する前記それぞれのテスト用パラメータを利用して、前記ニューラルネットワーク演算を前記テストイメージに適用することにより、一つ以上のニューラルネットワーク結果を出力させる段階;
    を含むことを特徴とする方法。
  2. 前記(b)段階で、
    前記グリッド生成器が、可変テンプレート(dynamic template)を利用して前記テストイメージを分け、前記可変テンプレートの前記サブセクションの前記少なくとも一部それぞれに前記テスト用非物体のうち少なくとも一つが含まれるように一つ以上の境界線が調整された前記可変テンプレートが提供されることを特徴とする請求項1に記載の方法。
  3. 前記グリッド生成器が、前記可変テンプレートに関する情報を管理し、前記可変テンプレートは、(i)第1方向の少なくとも一つの第1境界線及び(ii)第2方向の少なくとも一つの第2境界線のうち少なくとも一部を含み、このうち一部は調整可能であることを特徴とする請求項2に記載の方法。
  4. 前記可変テンプレートは、行グループ(row group)と一つ以上の列グループ(column group)とを含み、前記行グループは(i)上段行グループ、(ii)前記列グループのうち少なくとも一部を含む中段行グループ、及び(iii)下段行グループを含み、少なくとも一つの前記テスト用非物体は、前記行グループと前記列グループとによって形成される前記サブセクションのうち、前記少なくとも一部それぞれに含まれることを特徴とする請求項2に記載の方法。
  5. 前記(a)段階以前に、
    (a0)前記コンピュータ装置が、前記ニューラルネットワークをもって、一つ以上のトレーニングイメージに含まれるそれぞれの前記学習用非物体に関する情報を利用して、前記学習用パラメータを学習させる段階;
    をさらに含むことを特徴とする請求項1に記載の方法。
  6. 前記(a0)段階で、
    前記ニューラルネットワークは、前記トレーニングイメージ内に含まれた第1分割領域ないし第k分割領域までの分割領域のうち、少なくとも一部それぞれに含まれるそれぞれの前記学習用非物体に関する情報を利用して前記学習用パラメータを学習し、前記学習用非物体に関するクラス情報を、前記学習用非物体に対応する学習用パラメータと連動して格納することを特徴とする請求項5に記載の方法。
  7. 前記それぞれのトレーニングイメージ上で前記第1分割領域ないし前記第k分割領域の位置情報を第1位置情報ないし第k位置情報とする場合、前記トレーニングイメージそれぞれの第1位置情報の相対的な偏差ないし前記第k位置情報の相対的な偏差のうち少なくとも一部それぞれが設定済み閾値以下に該当すれば、それを前記トレーニングイメージとして選定することを特徴とする請求項6に記載の方法。
  8. 前記(c)段階で、
    (i)特定のテスト用物体を含む特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が設定済み閾値未満である場合、前記コンピュータ装置は前記ニューラルネットワークをもって、前記学習用パラメータのうち少なくとも一つの特定の学習用パラメータを参照して、前記特定のサブセクションに前記ニューラルネットワーク演算を適用するのに使用される、前記テスト用パラメータのうち少なくとも一つの特定のテスト用パラメータを決定するようにし、(ii)前記特定のテスト用物体を含む前記特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が前記設定済み閾値以上である場合、前記コンピュータ装置は前記ニューラルネットワークをもって、(ii−1)前記学習用パラメータのうち、前記特定の学習用パラメータを参照して、前記特定のサブセクションで特定のテスト用非物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される、前記特定のテスト用パラメータの第1部分を決定するようにし、(ii−2)前記特定のテスト用物体のクラス情報と同一又は類似するクラス情報を有する追加学習用物体を利用して個別的に学習された少なくとも一つの追加学習用パラメータを参照して、前記特定のサブセクションにおいて、前記特定のテスト用物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される前記特定のテスト用パラメータの第2部分を決定するようにすることを特徴とする請求項1に記載の方法。
  9. 前記(d)段階で、
    前記コンピュータ装置が、前記ニューラルネットワークをもって、前記テスト用パラメータを利用して前記テストイメージに一つ以上のコンボリューション演算と一つ以上のデコンボリューション演算とを適用して、前記ニューラルネットワーク結果を出力させることを特徴とする請求項1に記載の方法。
  10. 前記テストイメージは道路走行状況を示し、前記テスト用物体は道路上で現れ得る物体であり、前記ニューラルネットワーク結果は自律走行のために使用されることを特徴とする請求項9に記載の方法。
  11. グリッド生成器を利用してニューラルネットワーク演算するためのコンピュータ装置において、
    各インストラクションを格納する少なくとも一つのメモリ;及び
    (I)非物体検出器をもって、テストイメージ上に存在するテスト用非物体を検出して、前記テストイメージ上に前記テスト用非物体がどこにあるのかに関する情報を含むテスト用非物体位置情報と、前記テスト用非物体のクラスに関する情報を含む前記テスト用非物体クラス情報とを取得させるプロセス、(II)前記グリッド生成器をもって、前記テスト用非物体位置情報を参照して前記テストイメージ内の複数個のサブセクションに関する情報を含むセクション情報を生成させるプロセス、(III)ニューラルネットワークをもって、前記ニューラルネットワーク演算を(i)それぞれのテスト用物体とそれに対応する前記テスト用非物体とを含む前記サブセクションのうち少なくとも一部に、又は(ii)前記サブセクションのうち、前記少なくとも一部内で前記それぞれのテスト用非物体が位置するそれぞれのサブ領域に適用するのに使用されるテスト用パラメータを決定し、前記それぞれのテスト用非物体の前記クラス情報と同一又は類似するクラス情報を有するそれぞれの学習用非物体に関する情報を使用して学習された学習用パラメータを参照して決定するようにするプロセス、及び(IV)前記ニューラルネットワークをもって、前記サブセクションのうち、前記少なくとも一部それぞれに対応する前記それぞれのテスト用パラメータを利用して、前記ニューラルネットワーク演算を前記テストイメージに適用することにより、一つ以上のニューラルネットワーク結果を出力させるプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサ;
    を含むことを特徴とするコンピュータ装置。
  12. 前記(II)プロセスで、
    前記グリッド生成器が、可変テンプレートを利用して前記テストイメージを分け、前記可変テンプレートの前記サブセクションの前記少なくとも一部それぞれに前記テスト用非物体のうち少なくとも一つが含まれるように一つ以上の境界線が調整された前記可変テンプレートが提供されることを特徴とする請求項11に記載のコンピュータ装置。
  13. 前記グリッド生成器が、前記可変テンプレートに関する情報を管理し、前記可変テンプレートは(i)第1方向の少なくとも一つの第1境界線及び(ii)第2方向の少なくとも一つの第2境界線のうち少なくとも一部を含み、このうち一部は調整可能であることを特徴とする請求項12に記載のコンピュータ装置。
  14. 前記可変テンプレートは、行グループと一つ以上の列グループを含み、前記行グループは(i)上段行グループ、(ii)前記列グループのうち少なくとも一部を含む中段行グループ、及び(iii)下段行グループを含み、少なくとも一つの前記テスト用非物体は前記行グループと前記列グループとによって形成される前記サブセクションのうち前記少なくとも一部それぞれに含まれることを特徴とする請求項12に記載のコンピュータ装置。
  15. 前記(I)プロセス以前に、
    前記プロセッサは、(0)前記ニューラルネットワークをもって、一つ以上のトレーニングイメージに含まれるそれぞれの前記学習用非物体に関する情報を利用して、前記学習用パラメータを学習させるプロセスをさらに遂行することを特徴とする請求項11に記載のコンピュータ装置。
  16. 前記(0)プロセスで、
    前記ニューラルネットワークは、前記トレーニングイメージ内に含まれた第1分割領域ないし第k分割領域までの分割領域のうち少なくとも一部それぞれに含まれるそれぞれの前記学習用非物体に関する情報を利用して、前記学習用パラメータを学習し、前記学習用非物体に関するクラス情報を、前記学習用非物体に対応する学習用パラメータと連動して格納することを特徴とする請求項15に記載のコンピュータ装置。
  17. 前記それぞれのトレーニングイメージ上で前記第1分割領域ないし前記第k分割領域の位置情報を第1位置情報ないし第k位置情報とするとき、前記トレーニングイメージそれぞれの第1位置情報の相対的な偏差ないし前記第k位置情報の相対的な偏差のうち少なくとも一部それぞれが設定済み閾値以下に該当すれば、それを前記トレーニングイメージとして選定することを特徴とする請求項16に記載のコンピュータ装置。
  18. 前記(III)プロセスで、
    (i)特定のテスト用物体を含む特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が設定済み閾値未満である場合、前記プロセッサは前記ニューラルネットワークをもって、前記学習用パラメータのうち少なくとも一つの特定の学習用パラメータを参照して、前記特定のサブセクションに前記ニューラルネットワーク演算を適用するのに使用される、前記テスト用パラメータのうち少なくとも一つの特定のテスト用パラメータを決定するようにし、(ii)前記特定のテスト用物体を含む前記特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が前記設定済み閾値以上である場合、前記プロセッサは前記ニューラルネットワークをもって(ii−1)前記学習用パラメータのうち前記特定の学習用パラメータを参照して、前記特定のサブセクションで特定のテスト用非物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される、前記特定のテスト用パラメータの第1部分を決定するようにし、(ii−2)前記特定のテスト用物体のクラス情報と同一又は類似するクラス情報を有する追加学習用物体を利用して、個別的に学習された少なくとも一つの追加学習用パラメータを参照して、前記特定のサブセクションにおいて、前記特定のテスト用物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される前記特定のテスト用パラメータの第2部分を決定するようにすることを特徴とする請求項11に記載のコンピュータ装置。
  19. 前記(IV)プロセスで、
    前記プロセッサが前記ニューラルネットワークをもって、前記テスト用パラメータを利用して前記テストイメージに一つ以上のコンボリューション演算と一つ以上のデコンボリューション演算とを適用して、前記ニューラルネットワーク結果を出力させることを特徴とする請求項11に記載のコンピュータ装置。
  20. 前記テストイメージは道路走行状況を示し、前記テスト用物体は道路上で現れ得る物体であり、前記ニューラルネットワーク結果は自律走行のために使用されることを特徴とする請求項19に記載のコンピュータ装置。
JP2020002045A 2019-01-22 2020-01-09 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 Active JP6864891B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/253,996 US10460210B1 (en) 2019-01-22 2019-01-22 Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles
US16/253,996 2019-01-22

Publications (2)

Publication Number Publication Date
JP2020119538A JP2020119538A (ja) 2020-08-06
JP6864891B2 true JP6864891B2 (ja) 2021-04-28

Family

ID=68314898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020002045A Active JP6864891B2 (ja) 2019-01-22 2020-01-09 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置

Country Status (5)

Country Link
US (1) US10460210B1 (ja)
EP (1) EP3686784B1 (ja)
JP (1) JP6864891B2 (ja)
KR (1) KR102313605B1 (ja)
CN (1) CN111461318B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12078509B1 (en) 2023-04-25 2024-09-03 T-Mobile Usa, Inc. Location clustering and routing for 5G drive testing

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5640468A (en) * 1994-04-28 1997-06-17 Hsu; Shin-Yi Method for identifying objects and features in an image
US7398259B2 (en) * 2002-03-12 2008-07-08 Knowmtech, Llc Training of a physical neural network
JP4340842B2 (ja) * 2003-01-31 2009-10-07 富士ゼロックス株式会社 画像処理方法および画像処理装置、画像処理プログラム、記憶媒体
EP2313863A1 (en) * 2008-07-14 2011-04-27 National ICT Australia Limited Detection of vehicles in images of a night time scene
US8111923B2 (en) * 2008-08-14 2012-02-07 Xerox Corporation System and method for object class localization and semantic class based image segmentation
DE112010006014T5 (de) * 2010-11-19 2013-08-14 Mitsubishi Electric Corp. Umweltschätzungsvorrichtung und Fahrzeugsteuerungssystem
US9600745B2 (en) * 2011-03-17 2017-03-21 Nec Corporation Image recognition system, image recognition method, and non-transitory computer readable medium storing image recognition program
US9275308B2 (en) * 2013-05-31 2016-03-01 Google Inc. Object detection using deep neural networks
CN104346620B (zh) * 2013-07-25 2017-12-29 佳能株式会社 对输入图像中的像素分类的方法和装置及图像处理系统
KR102592076B1 (ko) * 2015-12-14 2023-10-19 삼성전자주식회사 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치
JP6798854B2 (ja) * 2016-10-25 2020-12-09 株式会社パスコ 目的物個数推定装置、目的物個数推定方法及びプログラム
US11308350B2 (en) * 2016-11-07 2022-04-19 Qualcomm Incorporated Deep cross-correlation learning for object tracking
CN106803071B (zh) * 2016-12-29 2020-02-14 浙江大华技术股份有限公司 一种图像中的物体检测方法及装置
JP6678605B2 (ja) * 2017-01-11 2020-04-08 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
US10607319B2 (en) * 2017-04-06 2020-03-31 Pixar Denoising monte carlo renderings using progressive neural networks
US10089556B1 (en) * 2017-06-12 2018-10-02 Konica Minolta Laboratory U.S.A., Inc. Self-attention deep neural network for action recognition in surveillance videos
US10019654B1 (en) * 2017-06-28 2018-07-10 Accenture Global Solutions Limited Image object recognition
US10007865B1 (en) * 2017-10-16 2018-06-26 StradVision, Inc. Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same
CN108182484A (zh) * 2017-12-04 2018-06-19 国网吉林省电力有限公司长春供电公司 基于网格化技术和bp神经网络的空间负荷预测方法
CN109242136A (zh) * 2018-07-17 2019-01-18 广东工业大学 一种微电网风电功率混沌遗传-bp神经网络预测方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12078509B1 (en) 2023-04-25 2024-09-03 T-Mobile Usa, Inc. Location clustering and routing for 5G drive testing

Also Published As

Publication number Publication date
KR20200091322A (ko) 2020-07-30
EP3686784B1 (en) 2024-07-31
US10460210B1 (en) 2019-10-29
CN111461318B (zh) 2023-10-17
KR102313605B1 (ko) 2021-10-19
JP2020119538A (ja) 2020-08-06
EP3686784C0 (en) 2024-07-31
CN111461318A (zh) 2020-07-28
EP3686784A1 (en) 2020-07-29

Similar Documents

Publication Publication Date Title
JP6856906B2 (ja) 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置
JP6923960B2 (ja) 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置
JP6810415B2 (ja) 自律走行自動車のレベル4を満たすために領域のクラスに応じてモードを切り換えてグリッドセルごとに重み付けコンボリューションフィルタを利用した監視用イメージセグメンテーション方法及び装置、並びにそれを利用したテスト方法及びテスト装置
KR102337376B1 (ko) 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치
JP6935946B2 (ja) セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置
JP6957050B2 (ja) モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same}
JP6869559B2 (ja) 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same}
JP6858382B2 (ja) ハードウェア最適化に使用される1xHコンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置
JP6856904B2 (ja) 物体のスケールに応じてモード転換が可能なcnn基盤の監視用物体検出器の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置
JP6908945B2 (ja) 機能的安全性のために極限状況でフォールトトレランス及びフラクチュエーションロバスト性を向上させるようにテストパターンを利用してcnnのパラメータの無欠性を検証するための方法及び装置
JP6857369B2 (ja) Cnnを学習する方法及び学習装置、それを利用したテスト方法及びテスト装置
JP6903352B2 (ja) 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression}
CN111507152A (zh) 基于内置独立型预测来转换自动驾驶模式的方法及装置
JP6864891B2 (ja) 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置
JP6856905B2 (ja) 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置
JP6856852B2 (ja) 横フィルタマスクを利用して自律走行車の走行経路を計画するために車線要素を検出する方法及び装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210326

R150 Certificate of patent or registration of utility model

Ref document number: 6864891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250