JP6864891B2 - 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 - Google Patents
自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 Download PDFInfo
- Publication number
- JP6864891B2 JP6864891B2 JP2020002045A JP2020002045A JP6864891B2 JP 6864891 B2 JP6864891 B2 JP 6864891B2 JP 2020002045 A JP2020002045 A JP 2020002045A JP 2020002045 A JP2020002045 A JP 2020002045A JP 6864891 B2 JP6864891 B2 JP 6864891B2
- Authority
- JP
- Japan
- Prior art keywords
- test
- neural network
- learning
- information
- specific
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 111
- 238000004364 calculation method Methods 0.000 title claims description 11
- 238000012360 testing method Methods 0.000 claims description 249
- 238000000034 method Methods 0.000 claims description 57
- 238000012549 training Methods 0.000 claims description 56
- 238000013527 convolutional neural network Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/10—Interfaces, programming languages or software development kits, e.g. for simulating neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/2163—Partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
Description
Claims (20)
- グリッド生成器を利用したニューラルネットワーク演算方法において、
(a)コンピュータ装置が、テストイメージが取得されると、非物体(non−object)検出器をもって前記テストイメージ上に存在するテスト用非物体を検出して、前記テストイメージ上に前記テスト用非物体がどこにあるのかに関する情報を含むテスト用非物体位置情報と、前記テスト用非物体のクラスに関する情報を含む前記テスト用非物体クラス情報とを取得させる段階;
(b)前記コンピュータ装置が、前記グリッド生成器をもって、前記テスト用非物体位置情報を参照して、前記テストイメージ内の複数個のサブセクションに関する情報を含むセクション情報を生成させる段階;
(c)前記コンピュータ装置が、ニューラルネットワークをもって、前記ニューラルネットワーク演算を(i)それぞれのテスト用物体と、それに対応する前記テスト用非物体とを含む前記サブセクションのうち少なくとも一部に、又は(ii)前記サブセクションのうち前記少なくとも一部内で前記それぞれのテスト用非物体が位置するそれぞれのサブ領域に適用するのに使用されるテスト用パラメータを決定し、前記それぞれのテスト用非物体の前記クラス情報と同一又は類似するクラス情報を有するそれぞれの学習用非物体に関する情報を使用して学習された学習用パラメータを参照して決定するようにする段階;及び
(d)前記コンピュータ装置が、前記ニューラルネットワークをもって、前記サブセクションのうち前記少なくとも一部それぞれに対応する前記それぞれのテスト用パラメータを利用して、前記ニューラルネットワーク演算を前記テストイメージに適用することにより、一つ以上のニューラルネットワーク結果を出力させる段階;
を含むことを特徴とする方法。 - 前記(b)段階で、
前記グリッド生成器が、可変テンプレート(dynamic template)を利用して前記テストイメージを分け、前記可変テンプレートの前記サブセクションの前記少なくとも一部それぞれに前記テスト用非物体のうち少なくとも一つが含まれるように一つ以上の境界線が調整された前記可変テンプレートが提供されることを特徴とする請求項1に記載の方法。 - 前記グリッド生成器が、前記可変テンプレートに関する情報を管理し、前記可変テンプレートは、(i)第1方向の少なくとも一つの第1境界線及び(ii)第2方向の少なくとも一つの第2境界線のうち少なくとも一部を含み、このうち一部は調整可能であることを特徴とする請求項2に記載の方法。
- 前記可変テンプレートは、行グループ(row group)と一つ以上の列グループ(column group)とを含み、前記行グループは(i)上段行グループ、(ii)前記列グループのうち少なくとも一部を含む中段行グループ、及び(iii)下段行グループを含み、少なくとも一つの前記テスト用非物体は、前記行グループと前記列グループとによって形成される前記サブセクションのうち、前記少なくとも一部それぞれに含まれることを特徴とする請求項2に記載の方法。
- 前記(a)段階以前に、
(a0)前記コンピュータ装置が、前記ニューラルネットワークをもって、一つ以上のトレーニングイメージに含まれるそれぞれの前記学習用非物体に関する情報を利用して、前記学習用パラメータを学習させる段階;
をさらに含むことを特徴とする請求項1に記載の方法。 - 前記(a0)段階で、
前記ニューラルネットワークは、前記トレーニングイメージ内に含まれた第1分割領域ないし第k分割領域までの分割領域のうち、少なくとも一部それぞれに含まれるそれぞれの前記学習用非物体に関する情報を利用して前記学習用パラメータを学習し、前記学習用非物体に関するクラス情報を、前記学習用非物体に対応する学習用パラメータと連動して格納することを特徴とする請求項5に記載の方法。 - 前記それぞれのトレーニングイメージ上で前記第1分割領域ないし前記第k分割領域の位置情報を第1位置情報ないし第k位置情報とする場合、前記トレーニングイメージそれぞれの第1位置情報の相対的な偏差ないし前記第k位置情報の相対的な偏差のうち少なくとも一部それぞれが設定済み閾値以下に該当すれば、それを前記トレーニングイメージとして選定することを特徴とする請求項6に記載の方法。
- 前記(c)段階で、
(i)特定のテスト用物体を含む特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が設定済み閾値未満である場合、前記コンピュータ装置は前記ニューラルネットワークをもって、前記学習用パラメータのうち少なくとも一つの特定の学習用パラメータを参照して、前記特定のサブセクションに前記ニューラルネットワーク演算を適用するのに使用される、前記テスト用パラメータのうち少なくとも一つの特定のテスト用パラメータを決定するようにし、(ii)前記特定のテスト用物体を含む前記特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が前記設定済み閾値以上である場合、前記コンピュータ装置は前記ニューラルネットワークをもって、(ii−1)前記学習用パラメータのうち、前記特定の学習用パラメータを参照して、前記特定のサブセクションで特定のテスト用非物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される、前記特定のテスト用パラメータの第1部分を決定するようにし、(ii−2)前記特定のテスト用物体のクラス情報と同一又は類似するクラス情報を有する追加学習用物体を利用して個別的に学習された少なくとも一つの追加学習用パラメータを参照して、前記特定のサブセクションにおいて、前記特定のテスト用物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される前記特定のテスト用パラメータの第2部分を決定するようにすることを特徴とする請求項1に記載の方法。 - 前記(d)段階で、
前記コンピュータ装置が、前記ニューラルネットワークをもって、前記テスト用パラメータを利用して前記テストイメージに一つ以上のコンボリューション演算と一つ以上のデコンボリューション演算とを適用して、前記ニューラルネットワーク結果を出力させることを特徴とする請求項1に記載の方法。 - 前記テストイメージは道路走行状況を示し、前記テスト用物体は道路上で現れ得る物体であり、前記ニューラルネットワーク結果は自律走行のために使用されることを特徴とする請求項9に記載の方法。
- グリッド生成器を利用してニューラルネットワーク演算するためのコンピュータ装置において、
各インストラクションを格納する少なくとも一つのメモリ;及び
(I)非物体検出器をもって、テストイメージ上に存在するテスト用非物体を検出して、前記テストイメージ上に前記テスト用非物体がどこにあるのかに関する情報を含むテスト用非物体位置情報と、前記テスト用非物体のクラスに関する情報を含む前記テスト用非物体クラス情報とを取得させるプロセス、(II)前記グリッド生成器をもって、前記テスト用非物体位置情報を参照して前記テストイメージ内の複数個のサブセクションに関する情報を含むセクション情報を生成させるプロセス、(III)ニューラルネットワークをもって、前記ニューラルネットワーク演算を(i)それぞれのテスト用物体とそれに対応する前記テスト用非物体とを含む前記サブセクションのうち少なくとも一部に、又は(ii)前記サブセクションのうち、前記少なくとも一部内で前記それぞれのテスト用非物体が位置するそれぞれのサブ領域に適用するのに使用されるテスト用パラメータを決定し、前記それぞれのテスト用非物体の前記クラス情報と同一又は類似するクラス情報を有するそれぞれの学習用非物体に関する情報を使用して学習された学習用パラメータを参照して決定するようにするプロセス、及び(IV)前記ニューラルネットワークをもって、前記サブセクションのうち、前記少なくとも一部それぞれに対応する前記それぞれのテスト用パラメータを利用して、前記ニューラルネットワーク演算を前記テストイメージに適用することにより、一つ以上のニューラルネットワーク結果を出力させるプロセスを遂行するための前記各インストラクションを実行するように構成された少なくとも一つのプロセッサ;
を含むことを特徴とするコンピュータ装置。 - 前記(II)プロセスで、
前記グリッド生成器が、可変テンプレートを利用して前記テストイメージを分け、前記可変テンプレートの前記サブセクションの前記少なくとも一部それぞれに前記テスト用非物体のうち少なくとも一つが含まれるように一つ以上の境界線が調整された前記可変テンプレートが提供されることを特徴とする請求項11に記載のコンピュータ装置。 - 前記グリッド生成器が、前記可変テンプレートに関する情報を管理し、前記可変テンプレートは(i)第1方向の少なくとも一つの第1境界線及び(ii)第2方向の少なくとも一つの第2境界線のうち少なくとも一部を含み、このうち一部は調整可能であることを特徴とする請求項12に記載のコンピュータ装置。
- 前記可変テンプレートは、行グループと一つ以上の列グループを含み、前記行グループは(i)上段行グループ、(ii)前記列グループのうち少なくとも一部を含む中段行グループ、及び(iii)下段行グループを含み、少なくとも一つの前記テスト用非物体は前記行グループと前記列グループとによって形成される前記サブセクションのうち前記少なくとも一部それぞれに含まれることを特徴とする請求項12に記載のコンピュータ装置。
- 前記(I)プロセス以前に、
前記プロセッサは、(0)前記ニューラルネットワークをもって、一つ以上のトレーニングイメージに含まれるそれぞれの前記学習用非物体に関する情報を利用して、前記学習用パラメータを学習させるプロセスをさらに遂行することを特徴とする請求項11に記載のコンピュータ装置。 - 前記(0)プロセスで、
前記ニューラルネットワークは、前記トレーニングイメージ内に含まれた第1分割領域ないし第k分割領域までの分割領域のうち少なくとも一部それぞれに含まれるそれぞれの前記学習用非物体に関する情報を利用して、前記学習用パラメータを学習し、前記学習用非物体に関するクラス情報を、前記学習用非物体に対応する学習用パラメータと連動して格納することを特徴とする請求項15に記載のコンピュータ装置。 - 前記それぞれのトレーニングイメージ上で前記第1分割領域ないし前記第k分割領域の位置情報を第1位置情報ないし第k位置情報とするとき、前記トレーニングイメージそれぞれの第1位置情報の相対的な偏差ないし前記第k位置情報の相対的な偏差のうち少なくとも一部それぞれが設定済み閾値以下に該当すれば、それを前記トレーニングイメージとして選定することを特徴とする請求項16に記載のコンピュータ装置。
- 前記(III)プロセスで、
(i)特定のテスト用物体を含む特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が設定済み閾値未満である場合、前記プロセッサは前記ニューラルネットワークをもって、前記学習用パラメータのうち少なくとも一つの特定の学習用パラメータを参照して、前記特定のサブセクションに前記ニューラルネットワーク演算を適用するのに使用される、前記テスト用パラメータのうち少なくとも一つの特定のテスト用パラメータを決定するようにし、(ii)前記特定のテスト用物体を含む前記特定のサブセクションに比べて前記特定のテスト用物体が占める面積の割合が前記設定済み閾値以上である場合、前記プロセッサは前記ニューラルネットワークをもって(ii−1)前記学習用パラメータのうち前記特定の学習用パラメータを参照して、前記特定のサブセクションで特定のテスト用非物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される、前記特定のテスト用パラメータの第1部分を決定するようにし、(ii−2)前記特定のテスト用物体のクラス情報と同一又は類似するクラス情報を有する追加学習用物体を利用して、個別的に学習された少なくとも一つの追加学習用パラメータを参照して、前記特定のサブセクションにおいて、前記特定のテスト用物体が位置するサブ領域に前記ニューラルネットワーク演算を適用するのに使用される前記特定のテスト用パラメータの第2部分を決定するようにすることを特徴とする請求項11に記載のコンピュータ装置。 - 前記(IV)プロセスで、
前記プロセッサが前記ニューラルネットワークをもって、前記テスト用パラメータを利用して前記テストイメージに一つ以上のコンボリューション演算と一つ以上のデコンボリューション演算とを適用して、前記ニューラルネットワーク結果を出力させることを特徴とする請求項11に記載のコンピュータ装置。 - 前記テストイメージは道路走行状況を示し、前記テスト用物体は道路上で現れ得る物体であり、前記ニューラルネットワーク結果は自律走行のために使用されることを特徴とする請求項19に記載のコンピュータ装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/253,996 US10460210B1 (en) | 2019-01-22 | 2019-01-22 | Method and device of neural network operations using a grid generator for converting modes according to classes of areas to satisfy level 4 of autonomous vehicles |
US16/253,996 | 2019-01-22 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020119538A JP2020119538A (ja) | 2020-08-06 |
JP6864891B2 true JP6864891B2 (ja) | 2021-04-28 |
Family
ID=68314898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020002045A Active JP6864891B2 (ja) | 2019-01-22 | 2020-01-09 | 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10460210B1 (ja) |
EP (1) | EP3686784B1 (ja) |
JP (1) | JP6864891B2 (ja) |
KR (1) | KR102313605B1 (ja) |
CN (1) | CN111461318B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12078509B1 (en) | 2023-04-25 | 2024-09-03 | T-Mobile Usa, Inc. | Location clustering and routing for 5G drive testing |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5640468A (en) * | 1994-04-28 | 1997-06-17 | Hsu; Shin-Yi | Method for identifying objects and features in an image |
US7398259B2 (en) * | 2002-03-12 | 2008-07-08 | Knowmtech, Llc | Training of a physical neural network |
JP4340842B2 (ja) * | 2003-01-31 | 2009-10-07 | 富士ゼロックス株式会社 | 画像処理方法および画像処理装置、画像処理プログラム、記憶媒体 |
EP2313863A1 (en) * | 2008-07-14 | 2011-04-27 | National ICT Australia Limited | Detection of vehicles in images of a night time scene |
US8111923B2 (en) * | 2008-08-14 | 2012-02-07 | Xerox Corporation | System and method for object class localization and semantic class based image segmentation |
DE112010006014T5 (de) * | 2010-11-19 | 2013-08-14 | Mitsubishi Electric Corp. | Umweltschätzungsvorrichtung und Fahrzeugsteuerungssystem |
US9600745B2 (en) * | 2011-03-17 | 2017-03-21 | Nec Corporation | Image recognition system, image recognition method, and non-transitory computer readable medium storing image recognition program |
US9275308B2 (en) * | 2013-05-31 | 2016-03-01 | Google Inc. | Object detection using deep neural networks |
CN104346620B (zh) * | 2013-07-25 | 2017-12-29 | 佳能株式会社 | 对输入图像中的像素分类的方法和装置及图像处理系统 |
KR102592076B1 (ko) * | 2015-12-14 | 2023-10-19 | 삼성전자주식회사 | 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치 |
JP6798854B2 (ja) * | 2016-10-25 | 2020-12-09 | 株式会社パスコ | 目的物個数推定装置、目的物個数推定方法及びプログラム |
US11308350B2 (en) * | 2016-11-07 | 2022-04-19 | Qualcomm Incorporated | Deep cross-correlation learning for object tracking |
CN106803071B (zh) * | 2016-12-29 | 2020-02-14 | 浙江大华技术股份有限公司 | 一种图像中的物体检测方法及装置 |
JP6678605B2 (ja) * | 2017-01-11 | 2020-04-08 | 株式会社東芝 | 情報処理装置、情報処理方法、および情報処理プログラム |
US10607319B2 (en) * | 2017-04-06 | 2020-03-31 | Pixar | Denoising monte carlo renderings using progressive neural networks |
US10089556B1 (en) * | 2017-06-12 | 2018-10-02 | Konica Minolta Laboratory U.S.A., Inc. | Self-attention deep neural network for action recognition in surveillance videos |
US10019654B1 (en) * | 2017-06-28 | 2018-07-10 | Accenture Global Solutions Limited | Image object recognition |
US10007865B1 (en) * | 2017-10-16 | 2018-06-26 | StradVision, Inc. | Learning method and learning device for adjusting parameters of CNN by using multi-scale feature maps and testing method and testing device using the same |
CN108182484A (zh) * | 2017-12-04 | 2018-06-19 | 国网吉林省电力有限公司长春供电公司 | 基于网格化技术和bp神经网络的空间负荷预测方法 |
CN109242136A (zh) * | 2018-07-17 | 2019-01-18 | 广东工业大学 | 一种微电网风电功率混沌遗传-bp神经网络预测方法 |
-
2019
- 2019-01-22 US US16/253,996 patent/US10460210B1/en active Active
- 2019-09-27 KR KR1020190119529A patent/KR102313605B1/ko active IP Right Grant
- 2019-12-18 CN CN201911310030.1A patent/CN111461318B/zh active Active
- 2019-12-31 EP EP19220210.9A patent/EP3686784B1/en active Active
-
2020
- 2020-01-09 JP JP2020002045A patent/JP6864891B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12078509B1 (en) | 2023-04-25 | 2024-09-03 | T-Mobile Usa, Inc. | Location clustering and routing for 5G drive testing |
Also Published As
Publication number | Publication date |
---|---|
KR20200091322A (ko) | 2020-07-30 |
EP3686784B1 (en) | 2024-07-31 |
US10460210B1 (en) | 2019-10-29 |
CN111461318B (zh) | 2023-10-17 |
KR102313605B1 (ko) | 2021-10-19 |
JP2020119538A (ja) | 2020-08-06 |
EP3686784C0 (en) | 2024-07-31 |
CN111461318A (zh) | 2020-07-28 |
EP3686784A1 (en) | 2020-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6856906B2 (ja) | 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 | |
JP6923960B2 (ja) | 自動駐車システムを提供するために決定地点間の関係及び決定地点に対するリグレッション結果を利用して駐車スペースを検出する学習方法及び学習装置、そしてこれを利用したテスティング方法及びテスティング装置 | |
JP6810415B2 (ja) | 自律走行自動車のレベル4を満たすために領域のクラスに応じてモードを切り換えてグリッドセルごとに重み付けコンボリューションフィルタを利用した監視用イメージセグメンテーション方法及び装置、並びにそれを利用したテスト方法及びテスト装置 | |
KR102337376B1 (ko) | 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
JP6935946B2 (ja) | セグメンテーションスコアマップ及びクラスタリングマップを利用して自律走行車の走行経路を計画するための車線を検出するポストプロセッシング方法及び装置 | |
JP6957050B2 (ja) | モバイルデバイスまたは小型ネットワークに適用可能なハードウェアを最適化するのに利用可能なroiをプーリングするために、マスキングパラメータを利用する方法及び装置、そしてこれを利用したテスト方法及びテスト装置{learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same} | |
JP6869559B2 (ja) | 障害物を検出する学習方法及び学習装置そしてこれを利用したテスト方法及びテスト装置{learning method, learning device for detecting obstacles and testing method, testing device using the same} | |
JP6858382B2 (ja) | ハードウェア最適化に使用される1xHコンボリューションを利用したCNN基盤の物体検出器を学習する方法及び学習装置、それを利用したテスト方法及びテスト装置 | |
JP6856904B2 (ja) | 物体のスケールに応じてモード転換が可能なcnn基盤の監視用物体検出器の学習方法及び学習装置、そしてこれを利用したテスト方法及びテスト装置 | |
JP6908945B2 (ja) | 機能的安全性のために極限状況でフォールトトレランス及びフラクチュエーションロバスト性を向上させるようにテストパターンを利用してcnnのパラメータの無欠性を検証するための方法及び装置 | |
JP6857369B2 (ja) | Cnnを学習する方法及び学習装置、それを利用したテスト方法及びテスト装置 | |
JP6903352B2 (ja) | 非最大値抑制を学習する併合ネットワークを利用した異種センサ融合のための学習方法及び学習装置{learning method and learning device for heterogeneous sensor fusion by using merging network which learns non−maximum suppression} | |
CN111507152A (zh) | 基于内置独立型预测来转换自动驾驶模式的方法及装置 | |
JP6864891B2 (ja) | 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 | |
JP6856905B2 (ja) | 自律走行車両レベル4を満たすために領域のクラスに応じてモードを切り換えるためにグリッド生成器を利用するニューラルネットワーク演算方法及びこれを利用した装置 | |
JP6856852B2 (ja) | 横フィルタマスクを利用して自律走行車の走行経路を計画するために車線要素を検出する方法及び装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210326 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6864891 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |