JP2021530048A - 多階層化目標類別方法及び装置、交通標識検出方法及び装置、機器並びに媒体 - Google Patents
多階層化目標類別方法及び装置、交通標識検出方法及び装置、機器並びに媒体 Download PDFInfo
- Publication number
- JP2021530048A JP2021530048A JP2020573120A JP2020573120A JP2021530048A JP 2021530048 A JP2021530048 A JP 2021530048A JP 2020573120 A JP2020573120 A JP 2020573120A JP 2020573120 A JP2020573120 A JP 2020573120A JP 2021530048 A JP2021530048 A JP 2021530048A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature
- traffic sign
- candidate region
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 311
- 238000001514 detection method Methods 0.000 title claims abstract description 83
- 239000013598 vector Substances 0.000 claims abstract description 241
- 238000000605 extraction Methods 0.000 claims description 223
- 238000013527 convolutional neural network Methods 0.000 claims description 179
- 230000008569 process Effects 0.000 claims description 137
- 238000012549 training Methods 0.000 claims description 90
- 238000002372 labelling Methods 0.000 claims description 48
- 230000004044 response Effects 0.000 claims description 36
- 238000012545 processing Methods 0.000 claims description 35
- 238000004590 computer program Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 16
- 230000003068 static effect Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000002349 favourable effect Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000007500 overflow downdraw method Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 235000016936 Dendrocalamus strictus Nutrition 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
Description
本開示は、2018年9月6日に中国特許局に提出された、出願番号CN201811036346.1、発明の名称「多階層化目標類別方法及び装置、交通標識検出方法及び装置、機器並びに媒体」の中国特許出願の優先権を主張し、その開示の全てが参照によって本開示に組み込まれる。
画像における少なくとも1つの目標に対応する少なくとも1つの候補領域特徴を取得する工程であって、前記画像は少なくとも1つの目標を含み、各目標は1つの候補領域特徴に対応する、工程と、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの大分類をそれぞれ類別し、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する類別確率を決定する工程と、を含む。
交通標識を含む画像を収集する工程と、
前記交通標識を含む画像における少なくとも1つの交通標識に対応する少なくとも1つの候補領域特徴を取得する工程であって、各交通標識はそれぞれ1つの候補領域特徴に対応する、工程と、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの交通標識大分類をそれぞれ類別し、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記交通標識が前記交通標識小分類に属する類別確率を決定する工程と、を含む。
画像における少なくとも1つの目標に対応する少なくとも1つの候補領域特徴を取得するための候補領域取得ユニットであって、前記画像は少なくとも1つの目標を含み、各目標は1つの候補領域特徴に対応する、候補領域取得ユニットと、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの大分類をそれぞれ類別し、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための確率ベクトルユニットと、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する類別確率を決定するための目標類別ユニットと、を含む。
交通標識を含む画像を収集するための画像収集ユニットと、
前記交通標識を含む画像における少なくとも1つの交通標識に対応する少なくとも1つの候補領域特徴を取得するための交通標識領域ユニットであって、各前記交通標識はそれぞれ1つの候補領域特徴に対応する、交通標識領域ユニットと、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの交通標識大分類をそれぞれ類別し、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための交通確率ベクトルユニットと、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記交通標識が前記交通標識小分類に属する類別確率を決定するための交通標識類別ユニットと、を含む。
前記メモリと通信して前記実行可能コマンドを実行して以上のいずれか一項に記載の多階層化目標類別方法又は以上のいずれか一項に記載の交通標識検出方法の操作を完成するためのプロセッサーと、を含む。
少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得る工程と、
少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの大分類を類別し、大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、を含んでよい。
少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの大分類を類別し、大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程は、
第1の確率ベクトルに基づいて候補領域特徴に対応する大分類カテゴリーを決定する工程と、
大分類に対応する第2の分類器に基づいて候補領域特徴を類別し、候補領域特徴が少なくとも2つの小分類に対応する第2の確率ベクトルを得る工程と、を含む。
候補領域特徴を畳み込みニューラルネットワークにより処理し、処理後の候補領域特徴を大分類に対応する第2の分類器に入力する工程を更に含んでもよい。
第1の確率ベクトルに基づいて、目標が大分類に属する第1の類別確率を決定する工程と、
第2の確率ベクトルに基づいて目標が小分類に属する第2の類別確率を決定する工程と、
第1の類別確率と第2の類別確率を組み合わせて、目標が大分類中の小分類に属する類別確率を決定する工程と、を含んでよい。
サンプル候補領域特徴を第1の分類器に入力し、予測大分類カテゴリーを得る工程と、予測大分類カテゴリーとラベル付け大分類カテゴリーに基づいて第1の分類器のパラメータを調整する工程と、
サンプル候補領域特徴のラベル付け大分類カテゴリーに基づいて、サンプル候補領域特徴をラベル付け大分類カテゴリーに対応する第2の分類器に入力し、予測小分類カテゴリーを得る工程と、予測小分類カテゴリーとラベル付け小分類カテゴリーに基づいて第2の分類器のパラメータを調整する工程と、を含む。
画像に基づいて少なくとも1つの目標に対応する少なくとも1つの候補領域を取得する工程と、
画像に対して特徴抽出を行って画像に対応する画像特徴を得る工程と、
少なくとも1つの候補領域と画像特徴に基づいて画像に対応する少なくとも1つの候補領域特徴を決定する工程と、を含んでよい。
特徴抽出ネットワーク中の畳み込みニューラルネットワークにより画像に対して特徴抽出を行って第1の特徴を得る工程と、
特徴抽出ネットワーク中の残差ネットワークにより画像に対して差異特徴抽出を行って差異特徴を得る工程と、
第1の特徴と差異特徴に基づいて画像に対応する画像特徴を得る工程と、を含む。
畳み込みニューラルネットワークにより画像に対して特徴抽出を行う工程と、
畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、画像に対応する第1の特徴を決定する工程と、を含む。
少なくとも2つの畳み込み層の出力した少なくとも2つの特徴マップのうちの少なくとも一方を処理して、少なくとも2つの特徴マップの大きさを同様にする工程と、
少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、画像に対応する第1の特徴を決定する工程と、を含んでよい。
第1のサンプル画像に基づいて、弁別器を利用して特徴抽出ネットワークに対してレジスタンストレーニングを行う工程を更に含む。
第1のサンプル画像を特徴抽出ネットワークに入力して第1のサンプル画像特徴を得る工程と、
弁別器により第1のサンプル画像特徴に基づいて、第1のサンプル画像に第1の目標物体が含まれる真実性を示すための鑑別結果を得る工程と、
鑑別結果と知られている第1のサンプル画像における目標物体の大きさに基づいて、弁別器と特徴抽出ネットワークのパラメータを交互に調整する工程と、を含む。
畳み込みニューラルネットワークにより画像に対して特徴抽出を行う工程と、
畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、画像に対応する画像特徴を決定する工程と、を含む。
少なくとも2つの畳み込み層の出力した少なくとも2つの特徴マップのうちの少なくとも一方を処理して、少なくとも2つの特徴マップの大きさを同様にする工程と、
少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、画像に対応する画像特徴を決定する工程と、を含んでよい。
第2のサンプル画像を畳み込みニューラルネットワークに入力して予測画像特徴を得る工程と、
予測画像特徴とラベル付け画像特徴に基づいて畳み込みニューラルネットワークのパラメータを調整する工程と、を含む。
ビデオから少なくとも1つのフレームの画像を得、画像に対して領域検出を実行し、少なくとも1つの目標に対応する少なくとも1つの候補領域を得る工程を含んでよい。
ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行い、少なくとも1つのフレームの画像における目標に対応する目標キーポイントを決定する工程と、
目標キーポイントをトラッキングし、ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を更に含んでもよく、
画像に基づいて少なくとも1つの目標に対応する少なくとも1つの候補領域を取得したことの後に、
少なくとも1つのフレームの画像のキーポイント領域により少なくとも1つの候補領域を調整し、少なくとも1つの目標に対応する少なくとも1つの目標候補領域を得る工程を更に含んでもよい。
ビデオの連続した2つのフレームの画像における各目標キーポイント同士の距離を基礎とする工程と、
各目標キーポイント同士の距離に基づいてビデオ中の目標キーポイントのトラッキングを実現する工程と、
ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を含む。
各目標キーポイント同士の距離の最小値に基づいて、連続した2つのフレームの画像での同一目標キーポイントの位置を決定する工程と、
同一目標キーポイントの連続した2つのフレームの画像での位置により目標キーポイントのビデオでのトラッキングを実現する工程と、を含む。
候補領域とキーポイント領域との重なり割合が設定割合以上であることに応答して、候補領域を目標に対応する目標候補領域とする工程と、
候補領域とキーポイント領域との重なり割合が設定割合より小さいことに応答して、キーポイント領域を目標に対応する目標候補領域とする工程と、を含む。
少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得るための第1の確率モジュールと、
少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの大分類を類別し、大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための第2の確率モジュールと、を含んでよい。
第2の確率モジュールは、第1の確率ベクトルに基づいて候補領域特徴に対応する大分類カテゴリーを決定する工程と、大分類に対応する第2の分類器に基づいて候補領域特徴を類別し、候補領域特徴が少なくとも2つの小分類に対応する第2の確率ベクトルを得る工程と、に用いられる。
画像に基づいて少なくとも1つの目標に対応する少なくとも1つの候補領域を取得するための候補領域モジュールと、
画像に対して特徴抽出を行って画像に対応する画像特徴を得るための特徴抽出モジュールと、
少なくとも1つの候補領域と画像特徴に基づいて画像に対応する少なくとも1つの候補領域特徴を決定するための領域特徴モジュールと、を含んでよい。
ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行い、少なくとも1つのフレームの画像における目標に対応する目標キーポイントを決定するためのキーポイントモジュールと、
目標キーポイントをトラッキングし、ビデオの少なくとも1つのフレームの画像のキーポイント領域を得るためのキーポイントトラッキングモジュールと、
少なくとも1つのフレームの画像のキーポイント領域により少なくとも1つの候補領域を調整し、少なくとも1つの目標に対応する少なくとも1つの目標候補領域を得るための領域調整モジュールと、を更に含む。
少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得る工程と、
少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの交通標識大分類を類別し、交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、を含んでよい。
少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの交通標識大分類を類別し、交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程は、
第1の確率ベクトルに基づいて、候補領域特徴に対応する交通標識大分類カテゴリーを決定する工程と、
交通標識大分類に対応する第2の分類器に基づいて候補領域特徴を類別して、候補領域特徴が少なくとも2つの交通標識小分類に対応する第2の確率ベクトルを得る工程と、を含む。
候補領域特徴を畳み込みニューラルネットワークにより処理し、処理後の候補領域特徴を交通標識大分類に対応する第2の分類器に入力する工程を更に含む。
第1の確率ベクトルに基づいて、目標が交通標識大分類に属する第1の類別確率を決定する工程と、
第2の確率ベクトルに基づいて、目標が交通標識小分類に属する第2の類別確率を決定する工程と、
第1の類別確率と第2の類別確率を組み合わせて、交通標識が交通標識大分類中の交通標識小分類に属する類別確率を決定する工程と、を含んでよい。
サンプル候補領域特徴に基づいて交通類別ネットワークをトレーニングする工程を更に含んでもよい。
サンプル候補領域特徴を第1の分類器に入力して予測交通標識大分類カテゴリーを得る工程と、予測交通標識大分類カテゴリーとラベル付け交通標識大分類カテゴリーに基づいて第1の分類器のパラメータを調整する工程と、
サンプル候補領域特徴のラベル付け交通標識大分類カテゴリーに基づいて、サンプル候補領域特徴をラベル付け交通標識大分類カテゴリーに対応する第2の分類器に入力して、予測交通標識小分類カテゴリーを得る工程と、予測交通標識小分類カテゴリーとラベル付け交通標識小分類カテゴリーに基づいて第2の分類器のパラメータを調整する工程と、を含む。
交通標識を含む画像に基づいて少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得する工程と、
画像に対して特徴抽出を行って画像に対応する画像特徴を得る工程と、
少なくとも1つの候補領域と画像特徴に基づいて交通標識を含む画像に対応する少なくとも1つの候補領域特徴を決定する工程と、を含んでよい。
特徴抽出ネットワーク中の畳み込みニューラルネットワークにより画像に対して特徴抽出を行って第1の特徴を得る工程と、
特徴抽出ネットワーク中の残差ネットワークにより画像に対して差異特徴抽出を行って差異特徴を得る工程と、
第1の特徴と前記差異特徴に基づいて画像に対応する画像特徴を得る工程と、を含む。
第1の特徴と差異特徴に対してビットごとの加算を行って画像に対応する画像特徴を得る工程を含む。
畳み込みニューラルネットワークにより画像に対して特徴抽出を行う工程と、
畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、画像に対応する第1の特徴を決定する工程と、を含む。
少なくとも2つの畳み込み層の出力した少なくとも2つの特徴マップのうちの少なくとも一方を処理して、少なくとも2つの特徴マップの大きさを同様にする工程と、
少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、画像に対応する前記第1の特徴を決定する工程と、を含んでよい。
第1のサンプル画像に基づいて、弁別器を利用して特徴抽出ネットワークに対してレジスタンストレーニングを行う工程を更に含む。
第1のサンプル画像を特徴抽出ネットワークに入力して第1のサンプル画像特徴を得る工程と、
弁別器により第1のサンプル画像特徴に基づいて、第1のサンプル画像に第1の交通標識が含まれる真実性を示すための鑑別結果を得る工程と、
鑑別結果と知られている第1のサンプル画像における交通標識の大きさに基づいて、弁別器と特徴抽出ネットワークのパラメータを交互に調整する工程と、を含む。
畳み込みニューラルネットワークにより画像に対して特徴抽出を行う工程と、
畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、画像に対応する画像特徴を決定する工程と、を含む。
少なくとも2つの畳み込み層の出力した少なくとも2つの特徴マップのうちの少なくとも一方を処理して、少なくとも2つの特徴マップの大きさを同様にする工程と、
少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、画像に対応する画像特徴を決定する工程と、を含む。
第2のサンプル画像に基づいて畳み込みニューラルネットワークをトレーニングする工程を更に含む。
第2のサンプル画像を畳み込みニューラルネットワークに入力して予測画像特徴を得る工程と、
予測画像特徴とラベル付け画像特徴に基づいて畳み込みニューラルネットワークのパラメータを調整する工程と、を含む。
ビデオから少なくとも1つのフレームの交通標識を含む画像を得、画像に対して領域検出を実行し、少なくとも1つの交通標識に対応する少なくとも1つの候補領域を得る工程を含んでよい。
ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行い、少なくとも1つのフレームの画像における交通標識に対応する交通標識キーポイントを決定する工程と、
交通標識キーポイントをトラッキングし、ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を更に含み、
画像に基づいて少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得したことの後に、
少なくとも1つのフレームの画像のキーポイント領域により少なくとも1つの候補領域を調整して、少なくとも1つの交通標識に対応する少なくとも1つの交通標識候補領域を得る工程と、を更に含む。
ビデオの連続した2つのフレームの画像における各交通標識キーポイント同士の距離を基礎とする工程と、
各交通標識キーポイント同士の距離に基づいてビデオ中の交通標識キーポイントのトラッキングを実現する工程と、
ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を含む。
各交通標識キーポイント同士の距離の最小値に基づいて、連続した2つのフレームの画像での同一交通標識キーポイントの位置を決定する工程と、
同一交通標識キーポイントの連続した2つのフレームの画像での位置により交通標識キーポイントのビデオでのトラッキングを実現する工程と、を含む。
候補領域とキーポイント領域との重なり割合が設定割合以上であることに応答して、候補領域を交通標識に対応する交通標識候補領域とする工程と、
候補領域とキーポイント領域との重なり割合が設定割合より小さいことに応答して、キーポイント領域を交通標識に対応する交通標識候補領域とする工程と、を含む。
少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得るための第1の確率モジュールと、
少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの交通標識大分類を類別し、交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための第2の確率モジュールと、を含む。
第2の確率モジュールは、第1の確率ベクトルに基づいて、候補領域特徴に対応する交通標識大分類カテゴリーを決定する工程と、交通標識大分類に対応する第2の分類器に基づいて候補領域特徴を類別して、候補領域特徴が少なくとも2つの交通標識小分類に対応する第2の確率ベクトルを得る工程と、に用いられる。
サンプル候補領域特徴に基づいて交通類別ネットワークをトレーニングするための交通ネットワークトレーニングユニットを更に含んでもよい。
交通標識を含む画像に基づいて少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得するための標識候補領域モジュールと、
画像に対して特徴抽出を行って画像に対応する画像特徴を得るための画像特徴抽出モジュールと、
少なくとも1つの候補領域と画像特徴に基づいて交通標識を含む画像に対応する少なくとも1つの候補領域特徴を決定するためのラベル付け領域特徴モジュールと、を含む。
ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行い、少なくとも1つのフレームの画像における交通標識に対応する交通標識キーポイントを決定するための標識キーポイントモジュールと、
交通標識キーポイントをトラッキングし、ビデオの少なくとも1つのフレームの画像のキーポイント領域を得るための標識キーポイントトラッキングモジュールと、
少なくとも1つのフレームの画像のキーポイント領域により少なくとも1つの候補領域を調整し、少なくとも1つの交通標識に対応する少なくとも1つの交通標識候補領域を得るための標識領域調整モジュールと、を更に含む。
メモリと通信してこの実行可能コマンドを実行して上記のいずれか1つの実施例に記載の多階層化目標類別方法又は上記のいずれか1つの実施例に記載の交通標識検出方法の操作を完成するためのプロセッサーと、を含む。
例えば、本願は以下の項目を提供する。
(項目1)
画像における少なくとも1つの目標に対応する少なくとも1つの候補領域特徴を取得する工程であって、前記画像は少なくとも1つの目標を含み、各目標は1つの候補領域特徴に対応する、工程と、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの大分類をそれぞれ類別し、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する類別確率を決定する工程と、を含むことを特徴とする多階層化目標類別方法。
(項目2)
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの大分類をそれぞれ類別し、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程は、
前記少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得る工程と、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記大分類を類別して、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、を含むことを特徴とする項目1に記載の方法。
(項目3)
それぞれの前記大分類カテゴリーが一つの前記第2の分類器に対応しており、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記大分類を類別して、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程は、
前記第1の確率ベクトルに基づいて、前記候補領域特徴に対応する前記大分類カテゴリーを決定する工程と、
前記大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの小分類に対応する第2の確率ベクトルを得る工程と、を含むことを特徴とする項目2に記載の方法。
(項目4)
前記大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの小分類に対応する第2の確率ベクトルを得る前記工程の前に、
前記候補領域特徴を畳み込みニューラルネットワークにより処理し、前記処理後の候補領域特徴を前記大分類に対応する前記第2の分類器に入力する工程を更に含むことを特徴とする項目3に記載の方法。
(項目5)
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する類別確率を決定する前記工程は、
前記第1の確率ベクトルに基づいて、前記目標が前記大分類に属する第1の類別確率を決定する工程と、
前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する第2の類別確率を決定する工程と、
前記第1の類別確率と前記第2の類別確率を組み合わせて、前記目標が前記大分類中の前記小分類に属する類別確率を決定する工程と、を含むことを特徴とする項目1〜4のいずれか一項に記載の方法。
(項目6)
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つそれぞれの前記大分類を類別して、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程の前に、
サンプル候補領域特徴に基づいて類別ネットワークをトレーニングする工程であって、前記類別ネットワークは、1つの第1の分類器と、少なくとも2つの第2の分類器と、を含み、前記第2の分類器の数量が前記第1の分類器の大分類カテゴリーと等しく、前記サンプル候補領域特徴は、ラベル付け小分類カテゴリーを備えているか、又はラベル付け小分類カテゴリーとラベル付け大分類カテゴリーを備えている、工程を更に含むことを特徴とする項目1〜5のいずれか一項に記載の方法。
(項目7)
前記サンプル候補領域特徴がラベル付け小分類カテゴリーを備えていることに応答して、前記ラベル付け小分類カテゴリーをクラスタ化することで前記サンプル候補領域特徴に対応するラベル付け大分類カテゴリーを決定することを特徴とする項目6に記載の方法。
(項目8)
前記サンプル候補領域特徴に基づいて類別ネットワークをトレーニングする前記工程は、
前記サンプル候補領域特徴を前記第1の分類器に入力して予測大分類カテゴリーを得る工程と、前記予測大分類カテゴリーと前記ラベル付け大分類カテゴリーに基づいて前記第1の分類器のパラメータを調整する工程と、
前記サンプル候補領域特徴の前記ラベル付け大分類カテゴリーに基づいて、前記サンプル候補領域特徴を前記ラベル付け大分類カテゴリーに対応する前記第2の分類器に入力して、予測小分類カテゴリーを得る工程と、前記予測小分類カテゴリーと前記ラベル付け小分類カテゴリーに基づいて前記第2の分類器のパラメータを調整する工程と、を含むことを特徴とする項目6又は7に記載の方法。
(項目9)
前記画像における少なくとも1つの目標に対応する少なくとも1つの候補領域特徴を取得する前記工程は、
前記画像に基づいて前記少なくとも1つの目標に対応する少なくとも1つの候補領域を取得する工程と、
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る工程と、
前記少なくとも1つの候補領域と前記画像特徴に基づいて前記画像に対応する前記少なくとも1つの候補領域特徴を決定する工程と、を含むことを特徴とする項目1〜8のいずれか一項に記載の方法。
(項目10)
前記少なくとも1つの候補領域と前記画像特徴に基づいて前記画像に対応する前記少なくとも1つの候補領域特徴を決定する前記工程は、
それぞれ1つの前記候補領域特徴に対応する前記少なくとも1つの候補領域に基づいて前記画像特徴から対応位置の特徴を得て、前記少なくとも1つの候補領域に対応する前記少なくとも1つの候補領域特徴を構成する工程を含むことを特徴とする項目9に記載の方法。
(項目11)
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る前記工程は、
特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る工程と、
前記特徴抽出ネットワーク中の残差ネットワークにより前記画像に対して差異特徴抽出を行って差異特徴を得る工程と、
前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る工程と、を含むことを特徴とする項目9又は10に記載の方法。
(項目12)
前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る前記工程は、
前記第1の特徴と前記差異特徴に対してビットごとの加算を行って前記画像に対応する画像特徴を得る工程を含むことを特徴とする項目11に記載の方法。
(項目13)
前記特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る前記工程は、
前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する工程と、を含むことを特徴とする項目11又は12に記載の方法。
(項目14)
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する前記工程は、
前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、
前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記第1の特徴を決定する工程と、を含むことを特徴とする項目13に記載の方法。
(項目15)
前記特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る前記工程の前に、
第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う工程を更に含み、前記第1のサンプル画像における目標物体の大きさが既に知られ、前記目標物体に第1の目標物体と第2の目標物体が含まれ、前記第1の目標物体の大きさと前記第2の目標物体の大きさとが異なっていることを特徴とする項目11〜14のいずれか一項に記載の方法。
(項目16)
前記第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う前記工程は、
前記第1のサンプル画像を前記特徴抽出ネットワークに入力して第1のサンプル画像特徴を得る工程と、
前記弁別器により前記第1のサンプル画像特徴に基づいて、前記第1のサンプル画像に第1の目標物体が含まれる真実性を示すための鑑別結果を得る工程と、
前記鑑別結果と既に知られた前記第1のサンプル画像における目標物体の大きさに基づいて、前記弁別器と前記特徴抽出ネットワークのパラメータを交互に調整する工程と、を含むことを特徴とする項目15に記載の方法。
(項目17)
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る前記工程は、
畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する工程と、を含むことを特徴とする項目9又は10に記載の方法。
(項目18)
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する前記工程は、
前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、
前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記画像特徴を決定する工程と、を含むことを特徴とする項目17に記載の方法。
(項目19)
前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程の前に、
ラベル付け画像特徴を備えた第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする工程を更に含むことを特徴とする項目17又は18に記載の方法。
(項目20)
前記第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする前記工程は、
前記第2のサンプル画像を前記畳み込みニューラルネットワークに入力して前記予測画像特徴を得る工程と、
前記予測画像特徴と前記ラベル付け画像特徴に基づいて、前記畳み込みニューラルネットワークのパラメータを調整する工程と、を含むことを特徴とする項目19に記載の方法。
(項目21)
前記画像に基づいて前記少なくとも1つの目標に対応する少なくとも1つの候補領域を取得する前記工程は、
ビデオから少なくとも1つのフレームの前記画像を得、前記画像に対して領域検出を実行し、前記少なくとも1つの目標に対応する前記少なくとも1つの候補領域を得る工程を含むことを特徴とする項目9〜20のいずれか一項に記載の方法。
(項目22)
前記画像に基づいて前記少なくとも1つの目標に対応する少なくとも1つの候補領域を取得する前記工程の前に、
前記ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行って、前記少なくとも1つのフレームの画像における前記目標に対応する目標キーポイントを決定する工程と、
前記目標キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を更に含み、
前記画像に基づいて前記少なくとも1つの目標に対応する少なくとも1つの候補領域を取得した前記工程の後に、
前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整して、前記少なくとも1つの目標に対応する少なくとも1つの目標候補領域を得る工程を更に含むことを特徴とする項目21に記載の方法。
(項目23)
前記目標キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る前記工程は、
前記ビデオの連続した2つのフレームの前記画像中の各前記目標キーポイント同士の距離を基礎とする工程と、
各前記目標キーポイント同士の距離に基づき前記ビデオ中の前記目標キーポイントのトラッキングを実現する工程と、
前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を含むことを特徴とする項目22に記載の方法。
(項目24)
各前記目標キーポイント同士の距離に基づき前記ビデオ中の前記目標キーポイントのトラッキングを実現する前記工程は、
各前記目標キーポイント同士の距離の最小値に基づいて、連続した2つのフレームの前記画像における同一目標キーポイントの位置を決定する工程と、
前記同一目標キーポイントの連続した2つのフレームの前記画像での位置により目標キーポイントの前記ビデオでのトラッキングを実現する工程と、を含むことを特徴とする項目22又は23に記載の方法。
(項目25)
前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整して、前記少なくとも1つの目標に対応する少なくとも1つの目標候補領域を得る前記工程は、
前記候補領域と前記キーポイント領域との重なり割合が設定割合以上であることに応答して、前記候補領域を前記目標に対応する目標候補領域とする工程と、
前記候補領域と前記キーポイント領域との重なり割合が設定割合より小さいことに応答して、前記キーポイント領域を前記目標に対応する目標候補領域とする工程と、を含むことを特徴とする項目22〜24のいずれか一項に記載の方法。
(項目26)
交通標識を含む画像を収集する工程と、
前記交通標識を含む画像における少なくとも1つの交通標識に対応する少なくとも1つの候補領域特徴を取得する工程であって、各前記交通標識はそれぞれ1つの候補領域特徴に対応する、工程と、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの交通標識大分類をそれぞれ類別し、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記交通標識が前記交通標識小分類に属する類別確率を決定する工程と、を含むことを特徴とする交通標識検出方法。
(項目27)
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの交通標識大分類をそれぞれ類別し、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程は、
前記少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得る工程と、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記交通標識大分類を類別して、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、を含むことを特徴とする項目26に記載の方法。
(項目28)
それぞれの前記交通標識大分類カテゴリーが1つの前記第2の分類器に対応しており、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記交通標識大分類を類別して、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程は、
前記第1の確率ベクトルに基づいて、前記候補領域特徴に対応する前記交通標識大分類カテゴリーを決定する工程と、
前記交通標識大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの交通標識小分類に対応する第2の確率ベクトルを得る工程と、を含む
ことを特徴とする項目27に記載の方法。
(項目29)
前記交通標識大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの交通標識小分類に対応する第2の確率ベクトルを得る前記工程の前に、
前記候補領域特徴を畳み込みニューラルネットワークにより処理し、前記処理後の候補領域特徴を前記交通標識大分類に対応する前記第2の分類器に入力する工程を更に含むことを特徴とする項目28に記載の方法。
(項目30)
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記目標が前記交通標識小分類に属する類別確率を決定する前記工程は、
前記第1の確率ベクトルに基づいて、前記目標が前記交通標識大分類に属する第1の類別確率を決定する工程と、
前記第2の確率ベクトルに基づいて、前記目標が前記交通標識小分類に属する第2の類別確率を決定する工程と、
前記第1の類別確率と前記第2の類別確率を組み合わせて、前記交通標識が前記交通標識大分類中の前記交通標識小分類に属する類別確率を決定する工程と、を含むことを特徴とする項目26〜29のいずれか一項に記載の方法。
(項目31)
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つそれぞれの前記交通標識大分類を類別して、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程の前に、
サンプル候補領域特徴に基づいて交通類別ネットワークをトレーニングする工程であって、前記交通類別ネットワークは、1つの第1の分類器と、少なくとも2つの第2の分類器と、を含み、前記第2の分類器の数量が前記第1の分類器の交通標識大分類カテゴリーと等しく、前記サンプル候補領域特徴は、ラベル付け交通標識小分類カテゴリーを備えているか、又はラベル付け交通標識小分類カテゴリーとラベル付け交通標識大分類カテゴリーを備えている、工程を更に含むことを特徴とする項目26〜30のいずれか一項に記載の方法。
(項目32)
前記サンプル候補領域特徴がラベル付け交通標識小分類カテゴリーを備えていることに応答して、前記ラベル付け交通標識小分類カテゴリーをクラスタ化することで前記サンプル候補領域特徴に対応するラベル付け交通標識大分類カテゴリーを決定することを特徴とする項目31に記載の方法。
(項目33)
前記サンプル候補領域特徴に基づいて交通類別ネットワークをトレーニングする前記工程は、
前記サンプル候補領域特徴を前記第1の分類器に入力して予測交通標識大分類カテゴリーを得る工程と、前記予測交通標識大分類カテゴリーと前記ラベル付け交通標識大分類カテゴリーに基づいて前記第1の分類器のパラメータを調整する工程と、
前記サンプル候補領域特徴の前記ラベル付け交通標識大分類カテゴリーに基づいて、前記サンプル候補領域特徴を前記ラベル付け交通標識大分類カテゴリーに対応する前記第2の分類器に入力して予測交通標識小分類カテゴリーを得る工程と、前記予測交通標識小分類カテゴリーと前記ラベル付け交通標識小分類カテゴリーに基づいて前記第2の分類器のパラメータを調整する工程と、を含むことを特徴とする項目31又は32に記載の方法。
(項目34)
前記交通標識を含む画像における少なくとも1つの交通標識に対応する少なくとも1つの候補領域特徴を取得する前記工程は、
前記交通標識を含む画像に基づいて前記少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得する工程と、
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る工程と、
前記少なくとも1つの候補領域と前記画像特徴に基づいて前記交通標識を含む画像に対応する前記少なくとも1つの候補領域特徴を決定する工程と、を含むことを特徴とする項目26〜33のいずれか一項に記載の方法。
(項目35)
前記少なくとも1つの候補領域と前記画像特徴に基づいて前記交通標識を含む画像に対応する前記少なくとも1つの候補領域特徴を決定する工程は、
それぞれ1つの前記候補領域特徴に対応する前記少なくとも1つの候補領域に基づいて前記画像特徴から対応位置の特徴を得て、前記少なくとも1つの候補領域に対応する前記少なくとも1つの候補領域特徴を構成する工程を含むことを特徴とする項目34に記載の方法。
(項目36)
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る前記工程は、
特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る工程と、
前記特徴抽出ネットワーク中の残差ネットワークにより前記画像に対して差異特徴抽出を行って差異特徴を得る工程と、
前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る工程と、を含むことを特徴とする項目34又は35に記載の方法。
(項目37)
前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る前記工程は、
前記第1の特徴と前記差異特徴に対してビットごとの加算を行って前記画像に対応する画像特徴を得る工程を含むことを特徴とする項目36に記載の方法。
(項目38)
前記特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る前記工程は、
前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する工程と、を含むことを特徴とする項目36又は37に記載の方法。
(項目39)
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する前記工程は、
前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、
前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記第1の特徴を決定する工程と、を含むことを特徴とする項目38に記載の方法。
(項目40)
前記特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る前記工程の前に、
第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う工程を更に含み、前記第1のサンプル画像における交通標識の大きさが既に知られ、前記交通標識に第1の交通標識と第2の交通標識が含まれ、前記第1の交通標識の大きさと前記第2の交通標識の大きさとが異なっていることを特徴とする項目36〜39のいずれか一項に記載の方法。
(項目41)
前記第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う前記工程は、
前記第1のサンプル画像を前記特徴抽出ネットワークに入力して第1のサンプル画像特徴を得る工程と、
前記弁別器により前記第1のサンプル画像特徴に基づいて、前記第1のサンプル画像に第1の交通標識が含まれる真実性を示すための鑑別結果を得る工程と、
前記鑑別結果と既に知られた前記第1のサンプル画像における交通標識の大きさに基づいて、前記弁別器と前記特徴抽出ネットワークのパラメータを交互に調整する工程と、を含むことを特徴とする項目40に記載の方法。
(項目42)
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る前記工程は、
畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する工程と、を含むことを特徴とする項目34又は35に記載の方法。
(項目43)
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する前記工程は、
前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、
前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記画像特徴を決定する工程と、を含むことを特徴とする項目42に記載の方法。
(項目44)
前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う前記工程の前に、
ラベル付け画像特徴を備えた第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする工程を更に含むことを特徴とする項目42又は43に記載の方法。
(項目45)
前記第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする前記工程は、
前記第2のサンプル画像を前記畳み込みニューラルネットワークに入力して前記予測画像特徴を得る工程と、
前記予測画像特徴と前記ラベル付け画像特徴に基づいて、前記畳み込みニューラルネットワークのパラメータを調整する工程と、を含むことを特徴とする項目44に記載の方法。
(項目46)
前記交通標識を含む画像に基づいて前記少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得する前記工程は、
ビデオから少なくとも1つのフレームの前記交通標識を含む画像を得、前記画像に対して領域検出を実行し、少なくとも1つの前記交通標識に対応する前記少なくとも1つの候補領域を得る工程を含むことを特徴とする項目34〜45のいずれか一項に記載の方法。
(項目47)
前記交通標識を含む画像に基づいて前記少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得する前記工程の前に、
前記ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行って、前記少なくとも1つのフレームの画像における前記交通標識に対応する交通標識キーポイントを決定する工程と、
前記交通標識キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を更に含み、
前記画像に基づいて前記少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得した前記工程の後に、
前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整し、前記少なくとも1つの交通標識に対応する少なくとも1つの交通標識候補領域を得る工程を更に含むことを特徴とする項目46に記載の方法。
(項目48)
前記交通標識キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る前記工程は、
前記ビデオの連続した2つのフレームの前記画像中の各前記交通標識キーポイント同士の距離を基礎とする工程と、
各前記交通標識キーポイント同士の距離に基づき、前記ビデオ中の前記交通標識キーポイントのトラッキングを実現する工程と、
前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を含むことを特徴とする項目47に記載の方法。
(項目49)
各前記交通標識キーポイント同士の距離に基づき、前記ビデオ中の前記交通標識キーポイントのトラッキングを実現する前記工程は、
各前記交通標識キーポイント同士の距離の最小値に基づいて、連続した2つのフレームの前記画像における同一の交通標識キーポイントの位置を決定する工程と、
前記同一交通標識キーポイントの連続した2つのフレームの前記画像での位置により交通標識キーポイントの前記ビデオでのトラッキングを実現する工程と、を含むことを特徴とする項目47又は48に記載の方法。
(項目50)
前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整し、前記少なくとも1つの交通標識に対応する少なくとも1つの交通標識候補領域を得る前記工程は、
前記候補領域と前記キーポイント領域との重なり割合が設定割合以上であることに応答して、前記候補領域を前記交通標識に対応する交通標識候補領域とする工程と、
前記候補領域と前記キーポイント領域との重なり割合が設定割合より小さいことに応答して、前記キーポイント領域を前記交通標識に対応する交通標識候補領域とする工程と、を含むことを特徴とする項目47〜49のいずれか一項に記載の方法。
(項目51)
画像における少なくとも1つの目標に対応する少なくとも1つの候補領域特徴を取得するための候補領域取得ユニットであって、前記画像は少なくとも1つの目標を含み、各目標は1つの候補領域特徴に対応する、候補領域取得ユニットと、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの大分類をそれぞれ類別し、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための確率ベクトルユニットと、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する類別確率を決定するための目標類別ユニットと、を含むことを特徴とする多階層化目標類別装置。
(項目52)
前記確率ベクトルユニットは、
前記少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得るための第1の確率モジュールと、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記大分類を類別して、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための第2の確率モジュールと、を含むことを特徴とする項目51に記載の装置。
(項目53)
それぞれの前記大分類カテゴリーが一つの前記第2の分類器に対応しており、
前記第2の確率モジュールは、前記第1の確率ベクトルに基づいて、前記候補領域特徴に対応する前記大分類カテゴリーを決定する工程と、前記大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの小分類に対応する第2の確率ベクトルを得る工程と、に用いられることを特徴とする項目52に記載の装置。
(項目54)
前記確率ベクトルユニットは、更に、前記候補領域特徴を畳み込みニューラルネットワークにより処理し、前記処理後の候補領域特徴を前記大分類に対応する前記第2の分類器に入力するために用いられることを特徴とする項目53に記載の装置。
(項目55)
前記目標類別ユニットは、前記第1の確率ベクトルに基づいて、前記目標が前記大分類に属する第1の類別確率を決定する工程と、前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する第2の類別確率を決定する工程と、前記第1の類別確率と前記第2の類別確率を組み合わせて、前記目標が前記大分類中の前記小分類に属する類別確率を決定する工程と、に用いられることを特徴とする項目51〜54のいずれか一項に記載の装置。
(項目56)
サンプル候補領域特徴に基づいて類別ネットワークをトレーニングするためのネットワークトレーニングユニットであって、前記類別ネットワークは、1つの第1の分類器と、少なくとも2つの第2の分類器と、を含み、前記第2の分類器の数量が前記第1の分類器の大分類カテゴリーと等しく、前記サンプル候補領域特徴は、ラベル付け小分類カテゴリーを備えているか、又はラベル付け小分類カテゴリーとラベル付け大分類カテゴリーを備えている、ネットワークトレーニングユニットを更に含むことを特徴とする項目51〜55のいずれか一項に記載の装置。
(項目57)
前記サンプル候補領域特徴がラベル付け小分類カテゴリーを備えていることに応答して、前記ラベル付け小分類カテゴリーをクラスタ化することで前記サンプル候補領域特徴に対応するラベル付け大分類カテゴリーを決定することを特徴とする項目56に記載の装置。
(項目58)
前記ネットワークトレーニングユニットは、サンプル候補領域特徴を前記第1の分類器に入力して予測大分類カテゴリーを得る工程と、前記予測大分類カテゴリーと前記ラベル付け大分類カテゴリーに基づいて前記第1の分類器のパラメータを調整する工程と、前記サンプル候補領域特徴の前記ラベル付け大分類カテゴリーに基づいて、前記サンプル候補領域特徴を前記ラベル付け大分類カテゴリーに対応する前記第2の分類器に入力して、予測小分類カテゴリーを得る工程と、前記予測小分類カテゴリーと前記ラベル付け小分類カテゴリーに基づいて前記第2の分類器のパラメータを調整する工程と、に用いられることを特徴とする項目56又は57に記載の装置。
(項目59)
前記候補領域取得ユニットは、
前記画像に基づいて前記少なくとも1つの目標に対応する少なくとも1つの候補領域を取得するための候補領域モジュールと、
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得るための特徴抽出モジュールと、
前記少なくとも1つの候補領域と前記画像特徴に基づいて前記画像に対応する前記少なくとも1つの候補領域特徴を決定するための領域特徴モジュールと、を含むことを特徴とする項目51〜58のいずれか一項に記載の装置。
(項目60)
前記候補領域モジュールは、それぞれ1つの前記候補領域特徴に対応する前記少なくとも1つの候補領域に基づいて前記画像特徴から対応位置の特徴を得て、前記少なくとも1つの候補領域に対応する前記少なくとも1つの候補領域特徴を構成するために用いられることを特徴とする項目59に記載の装置。
(項目61)
前記特徴抽出モジュールは、特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る工程と、前記特徴抽出ネットワーク中の残差ネットワークにより前記画像に対して差異特徴抽出を行って差異特徴を得る工程と、前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る工程と、に用いられることを特徴とする項目59又は60に記載の装置。
(項目62)
前記特徴抽出モジュールは、前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る時に、前記第1の特徴と前記差異特徴に対してビットごとの加算を行って前記画像に対応する画像特徴を得るために用いられることを特徴とする項目61に記載の装置。
(項目63)
前記特徴抽出モジュールは、特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る時に、前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する工程と、に用いられることを特徴とする項目61又は62に記載の装置。
(項目64)
前記特徴抽出モジュールは、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する時に、前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記第1の特徴を決定する工程と、に用いられることを特徴とする項目63に記載の装置。
(項目65)
前記特徴抽出モジュールは、更に、第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行うために用いられ、前記第1のサンプル画像における目標物体の大きさが既に知られ、前記目標物体に第1の目標物体と第2の目標物体が含まれ、前記第1の目標物体の大きさと前記第2の目標物体の大きさとが異なっていることを特徴とする項目61〜64のいずれか一項に記載の装置。
(項目66)
前記特徴抽出モジュールは、第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う時に、前記第1のサンプル画像を前記特徴抽出ネットワークに入力して第1のサンプル画像特徴を得る工程と、前記弁別器により前記第1のサンプル画像特徴に基づいて、前記第1のサンプル画像に第1の目標物体が含まれる真実性を示すための鑑別結果を得る工程と、前記鑑別結果と既に知られた前記第1のサンプル画像における目標物体の大きさに基づいて、前記弁別器と前記特徴抽出ネットワークのパラメータを交互に調整する工程と、に用いられることを特徴とする項目65に記載の装置。
(項目67)
前記特徴抽出モジュールは、畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する工程と、に用いられることを特徴とする項目59又は60に記載の方法。
(項目68)
前記特徴抽出モジュールは、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する時に、前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記画像特徴を決定する工程と、に用いられることを特徴とする項目67に記載の装置。
(項目69)
前記特徴抽出モジュールは、更に、ラベル付け画像特徴を備えた第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングするために用いられることを特徴とする項目67又は68に記載の装置。
(項目70)
前記特徴抽出モジュールは、第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする時に、前記第2のサンプル画像を前記畳み込みニューラルネットワークに入力して前記予測画像特徴を得る工程と、前記予測画像特徴と前記ラベル付け画像特徴に基づいて、前記畳み込みニューラルネットワークのパラメータを調整する工程と、に用いられることを特徴とする項目69に記載の装置。
(項目71)
前記候補領域モジュールは、ビデオから少なくとも1つのフレームの前記画像を得、前記画像に対して領域検出を実行し、前記少なくとも1つの目標に対応する前記少なくとも1つの候補領域を得るために用いられることを特徴とする項目59〜70のいずれか一項に記載の装置。
(項目72)
前記候補領域取得ユニットは、
前記ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行って、前記少なくとも1つのフレームの画像における前記目標に対応する目標キーポイントを決定するためのキーポイントモジュールと、
前記目標キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得るためのキーポイントトラッキングモジュールと、
前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整して、前記少なくとも1つの目標に対応する少なくとも1つの目標候補領域を得るための領域調整モジュールと、を更に含むことを特徴とする項目71に記載の装置。
(項目73)
前記キーポイントトラッキングモジュールは、前記ビデオの連続した2つのフレームの前記画像中の各前記目標キーポイント同士の距離を基礎とする工程と、各前記目標キーポイント同士の距離に基づき前記ビデオ中の前記目標キーポイントのトラッキングを実現する工程と、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、に用いられることを特徴とする項目72に記載の装置。
(項目74)
前記キーポイントトラッキングモジュールは、各前記目標キーポイント同士の距離に基づき前記ビデオ中の前記目標キーポイントのトラッキングを実現する時に、各前記目標キーポイント同士の距離の最小値に基づいて、連続した2つのフレームの前記画像における同一目標キーポイントの位置を決定する工程と、前記同一目標キーポイントの連続した2つのフレームの前記画像での位置により目標キーポイントの前記ビデオでのトラッキングを実現する工程と、に用いられることを特徴とする項目72又は73に記載の装置。
(項目75)
前記領域調整モジュールは、前記候補領域と前記キーポイント領域との重なり割合が設定割合以上であることに応答して、前記候補領域を前記目標に対応する目標候補領域とする工程と、前記候補領域と前記キーポイント領域との重なり割合が設定割合より小さいことに応答して、前記キーポイント領域を前記目標に対応する目標候補領域とする工程と、に用いられることを特徴とする項目72〜74のいずれか一項に記載の装置。
(項目76)
交通標識を含む画像を収集するための画像収集ユニットと、
前記交通標識を含む画像における少なくとも1つの交通標識に対応する少なくとも1つの候補領域特徴を取得するための交通標識領域ユニットであって、各前記交通標識はそれぞれ1つの候補領域特徴に対応する、交通標識領域ユニットと、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの交通標識大分類をそれぞれ類別し、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための交通確率ベクトルユニットと、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記交通標識が前記交通標識小分類に属する類別確率を決定するための交通標識類別ユニットと、を含むことを特徴とする交通標識検出装置。
(項目77)
前記交通確率ベクトルユニットは、
前記少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得るための第1の確率モジュールと、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記交通標識大分類を類別して、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための第2の確率モジュールと、を含むことを特徴とする項目76に記載の装置。
(項目78)
それぞれの前記交通標識大分類カテゴリーが1つの前記第2の分類器に対応しており、
前記第2の確率モジュールは、前記第1の確率ベクトルに基づいて、前記候補領域特徴に対応する前記交通標識大分類カテゴリーを決定する工程と、前記交通標識大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの交通標識小分類に対応する第2の確率ベクトルを得る工程と、に用いられることを特徴とする項目77に記載の装置。
(項目79)
前記交通確率ベクトルユニットは、更に、前記候補領域特徴を畳み込みニューラルネットワークにより処理し、前記処理後の候補領域特徴を前記交通標識大分類に対応する前記第2の分類器に入力するために用いられることを特徴とする項目78に記載の装置。
(項目80)
前記交通標識類別ユニットは、前記第1の確率ベクトルに基づいて、前記目標が前記交通標識大分類に属する第1の類別確率を決定する工程と、前記第2の確率ベクトルに基づいて、前記目標が前記交通標識小分類に属する第2の類別確率を決定する工程と、前記第1の類別確率と前記第2の類別確率を組み合わせて、前記交通標識が前記交通標識大分類中の前記交通標識小分類に属する類別確率を決定する工程と、に用いられることを特徴とする項目76〜79のいずれか一項に記載の装置。
(項目81)
サンプル候補領域特徴に基づいて交通類別ネットワークをトレーニングするための交通ネットワークトレーニングユニットであって、前記交通類別ネットワークは、1つの第1の分類器と、少なくとも2つの第2の分類器と、を含み、前記第2の分類器の数量が前記第1の分類器の交通標識大分類カテゴリーと等しく、前記サンプル候補領域特徴は、ラベル付け交通標識小分類カテゴリーを備えているか、又はラベル付け交通標識小分類カテゴリーとラベル付け交通標識大分類カテゴリーを備えている、交通ネットワークトレーニングユニットを更に含むことを特徴とする項目76〜80のいずれか一項に記載の装置。
(項目82)
前記サンプル候補領域特徴がラベル付け交通標識小分類カテゴリーを備えていることに応答して、前記ラベル付け交通標識小分類カテゴリーをクラスタ化することで前記サンプル候補領域特徴に対応するラベル付け交通標識大分類カテゴリーを決定することを特徴とする項目81に記載の装置。
(項目83)
前記交通ネットワークトレーニングユニットは、サンプル候補領域特徴を前記第1の分類器に入力して予測交通標識大分類カテゴリーを得る工程と、前記予測交通標識大分類カテゴリーと前記ラベル付け交通標識大分類カテゴリーに基づいて前記第1の分類器のパラメータを調整する工程と、前記サンプル候補領域特徴の前記ラベル付け交通標識大分類カテゴリーに基づいて、前記サンプル候補領域特徴を前記ラベル付け交通標識大分類カテゴリーに対応する前記第2の分類器に入力して予測交通標識小分類カテゴリーを得る工程と、前記予測交通標識小分類カテゴリーと前記ラベル付け交通標識小分類カテゴリーに基づいて前記第2の分類器のパラメータを調整する工程と、に用いられることを特徴とする項目81又は82に記載の装置。
(項目84)
前記交通標識領域ユニットは、
前記交通標識を含む画像に基づいて前記少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得するための標識候補領域モジュールと、
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得るための画像特徴抽出モジュールと、
前記少なくとも1つの候補領域と前記画像特徴に基づいて前記交通標識を含む画像に対応する前記少なくとも1つの候補領域特徴を決定するためのラベル付け領域特徴モジュールと、を含むことを特徴とする項目76〜83のいずれか一項に記載の装置。
(項目85)
前記標識候補領域モジュールは、それぞれ1つの前記候補領域特徴に対応する前記少なくとも1つの候補領域に基づいて前記画像特徴から対応位置の特徴を得て、前記少なくとも1つの候補領域に対応する前記少なくとも1つの候補領域特徴を構成するために用いられることを特徴とする項目84に記載の装置。
(項目86)
前記画像特徴抽出モジュールは、特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る工程と、前記特徴抽出ネットワーク中の残差ネットワークにより前記画像に対して差異特徴抽出を行って差異特徴を得る工程と、前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る工程と、に用いられることを特徴とする項目84又は85に記載の装置。
(項目87)
前記画像特徴抽出モジュールは、前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る時に、前記第1の特徴と前記差異特徴に対してビットごとの加算を行って前記画像に対応する画像特徴を得るために用いられることを特徴とする項目86に記載の装置。
(項目88)
前記画像特徴抽出モジュールは、特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る時に、前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する工程と、に用いられることを特徴とする項目86又は87に記載の装置。
(項目89)
前記画像特徴抽出モジュールは、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する時に、前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記第1の特徴を決定する工程と、に用いられることを特徴とする項目88に記載の装置。
(項目90)
前記画像特徴抽出モジュールは、更に、第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行うために用いられ、前記第1のサンプル画像における交通標識の大きさが既に知られ、前記交通標識に第1の交通標識と第2の交通標識が含まれ、前記第1の交通標識の大きさと前記第2の交通標識の大きさとが異なっていることを特徴とする項目86〜89のいずれか一項に記載の装置。
(項目91)
前記画像特徴抽出モジュールは、第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う時に、前記第1のサンプル画像を前記特徴抽出ネットワークに入力して第1のサンプル画像特徴を得る工程と、前記弁別器により前記第1のサンプル画像特徴に基づいて、前記第1のサンプル画像に第1の交通標識が含まれる真実性を示すための鑑別結果を得る工程と、前記鑑別結果と既に知られた前記第1のサンプル画像における交通標識の大きさに基づいて、前記弁別器と前記特徴抽出ネットワークのパラメータを交互に調整する工程と、に用いられることを特徴とする項目90に記載の装置。
(項目92)
前記画像特徴抽出モジュールは、畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する工程と、に用いられることを特徴とする項目84又は85に記載の装置。
(項目93)
前記画像特徴抽出モジュールは、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する時に、前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記画像特徴を決定する工程と、に用いられることを特徴とする項目92に記載の装置。
(項目94)
前記画像特徴抽出モジュールは、更に、ラベル付け画像特徴を備えた第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングするために用いられることを特徴とする項目92又は93に記載の装置。
(項目95)
前記画像特徴抽出モジュールは、第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする時に、前記第2のサンプル画像を前記畳み込みニューラルネットワークに入力して前記予測画像特徴を得る工程と、前記予測画像特徴と前記ラベル付け画像特徴に基づいて、前記畳み込みニューラルネットワークのパラメータを調整する工程と、に用いられることを特徴とする項目94に記載の装置。
(項目96)
前記標識候補領域モジュールは、ビデオから少なくとも1つのフレームの前記交通標識を含む画像を得、前記画像に対して領域検出を実行し、少なくとも1つの前記交通標識に対応する前記少なくとも1つの候補領域を得るために用いられることを特徴とする項目84〜95のいずれか一項に記載の装置。
(項目97)
前記交通標識領域ユニットは、
前記ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行って、前記少なくとも1つのフレームの画像における前記交通標識に対応する交通標識キーポイントを決定するための標識キーポイントモジュールと、
前記交通標識キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得るための標識キーポイントトラッキングモジュールと、
前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整し、前記少なくとも1つの交通標識に対応する少なくとも1つの交通標識候補領域を得るための標識領域調整モジュールと、を更に含むことを特徴とする項目96に記載の装置。
(項目98)
前記標識キーポイントトラッキングモジュールは、前記ビデオの連続した2つのフレームの前記画像中の各前記交通標識キーポイント同士の距離を基礎とする工程と、各前記交通標識キーポイント同士の距離に基づき、前記ビデオ中の前記交通標識キーポイントのトラッキングを実現する工程と、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、に用いられることを特徴とする項目97に記載の装置。
(項目99)
前記標識キーポイントトラッキングモジュールは、各前記交通標識キーポイント同士の距離に基づき、前記ビデオ中の前記交通標識キーポイントのトラッキングを実現する時に、各前記交通標識キーポイント同士の距離の最小値に基づいて、連続した2つのフレームの前記画像における同一の交通標識キーポイントの位置を決定する工程と、前記同一交通標識キーポイントの連続した2つのフレームの前記画像での位置により交通標識キーポイントの前記ビデオでのトラッキングを実現する工程と、に用いられることを特徴とする項目97又は98に記載の装置。
(項目100)
前記標識領域調整モジュールは、前記候補領域と前記キーポイント領域との重なり割合が設定割合以上であることに応答して、前記候補領域を前記交通標識に対応する交通標識候補領域とする工程と、前記候補領域と前記キーポイント領域との重なり割合が設定割合より小さいことに応答して、前記キーポイント領域を前記交通標識に対応する交通標識候補領域とする工程と、に用いられることを特徴とする項目97〜99のいずれか一項に記載の装置。
(項目101)
項目76〜100のいずれか一項に記載の交通標識検出装置を含むことを特徴とする車両。
(項目102)
項目51〜75のいずれか一項に記載の多階層化目標類別装置又は項目76〜100のいずれか一項に記載の交通標識検出装置を備えたプロセッサーを含むことを特徴とする電子機器。
(項目103)
実行可能コマンドを記憶するためのメモリと、
前記メモリと通信して前記実行可能コマンドを実行して項目1〜25のいずれか一項に記載の多階層化目標類別方法又は項目26〜50のいずれか一項に記載の交通標識検出方法の操作を完成するためのプロセッサーと、を含むことを特徴とする電子機器。
(項目104)
コンピューター読取可能コマンドを記憶するためのコンピューター記憶媒体であって、前記コマンドが実行されるとき、項目1〜25のいずれか一項に記載の多階層化目標類別方法又は項目26〜50のいずれか一項に記載の交通標識検出方法の操作が実行されることを特徴とするコンピューター記憶媒体。
(項目105)
コンピューター可読コードを含むコンピュータープログラム製品であって、前記コンピューター可読コードが機器で実行されるとき、前記機器中のプロセッサーは項目1〜25のいずれか一項に記載の多階層化目標類別方法又は項目26〜50のいずれか一項に記載の交通標識検出方法を実現するためのコマンドを実行することを特徴とするコンピュータープログラム製品。
Claims (105)
- 画像における少なくとも1つの目標に対応する少なくとも1つの候補領域特徴を取得する工程であって、前記画像は少なくとも1つの目標を含み、各目標は1つの候補領域特徴に対応する、工程と、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの大分類をそれぞれ類別し、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する類別確率を決定する工程と、を含むことを特徴とする多階層化目標類別方法。 - 前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの大分類をそれぞれ類別し、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程は、
前記少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得る工程と、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記大分類を類別して、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、を含むことを特徴とする請求項1に記載の方法。 - それぞれの前記大分類カテゴリーが一つの前記第2の分類器に対応しており、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記大分類を類別して、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程は、
前記第1の確率ベクトルに基づいて、前記候補領域特徴に対応する前記大分類カテゴリーを決定する工程と、
前記大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの小分類に対応する第2の確率ベクトルを得る工程と、を含むことを特徴とする請求項2に記載の方法。 - 前記大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの小分類に対応する第2の確率ベクトルを得る前記工程の前に、
前記候補領域特徴を畳み込みニューラルネットワークにより処理し、前記処理後の候補領域特徴を前記大分類に対応する前記第2の分類器に入力する工程を更に含むことを特徴とする請求項3に記載の方法。 - 前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する類別確率を決定する前記工程は、
前記第1の確率ベクトルに基づいて、前記目標が前記大分類に属する第1の類別確率を決定する工程と、
前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する第2の類別確率を決定する工程と、
前記第1の類別確率と前記第2の類別確率を組み合わせて、前記目標が前記大分類中の前記小分類に属する類別確率を決定する工程と、を含むことを特徴とする請求項1〜4のいずれか一項に記載の方法。 - 前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つそれぞれの前記大分類を類別して、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程の前に、
サンプル候補領域特徴に基づいて類別ネットワークをトレーニングする工程であって、前記類別ネットワークは、1つの第1の分類器と、少なくとも2つの第2の分類器と、を含み、前記第2の分類器の数量が前記第1の分類器の大分類カテゴリーと等しく、前記サンプル候補領域特徴は、ラベル付け小分類カテゴリーを備えているか、又はラベル付け小分類カテゴリーとラベル付け大分類カテゴリーを備えている、工程を更に含むことを特徴とする請求項1〜5のいずれか一項に記載の方法。 - 前記サンプル候補領域特徴がラベル付け小分類カテゴリーを備えていることに応答して、前記ラベル付け小分類カテゴリーをクラスタ化することで前記サンプル候補領域特徴に対応するラベル付け大分類カテゴリーを決定することを特徴とする請求項6に記載の方法。
- 前記サンプル候補領域特徴に基づいて類別ネットワークをトレーニングする前記工程は、
前記サンプル候補領域特徴を前記第1の分類器に入力して予測大分類カテゴリーを得る工程と、前記予測大分類カテゴリーと前記ラベル付け大分類カテゴリーに基づいて前記第1の分類器のパラメータを調整する工程と、
前記サンプル候補領域特徴の前記ラベル付け大分類カテゴリーに基づいて、前記サンプル候補領域特徴を前記ラベル付け大分類カテゴリーに対応する前記第2の分類器に入力して、予測小分類カテゴリーを得る工程と、前記予測小分類カテゴリーと前記ラベル付け小分類カテゴリーに基づいて前記第2の分類器のパラメータを調整する工程と、を含むことを特徴とする請求項6又は7に記載の方法。 - 前記画像における少なくとも1つの目標に対応する少なくとも1つの候補領域特徴を取得する前記工程は、
前記画像に基づいて前記少なくとも1つの目標に対応する少なくとも1つの候補領域を取得する工程と、
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る工程と、
前記少なくとも1つの候補領域と前記画像特徴に基づいて前記画像に対応する前記少なくとも1つの候補領域特徴を決定する工程と、を含むことを特徴とする請求項1〜8のいずれか一項に記載の方法。 - 前記少なくとも1つの候補領域と前記画像特徴に基づいて前記画像に対応する前記少なくとも1つの候補領域特徴を決定する前記工程は、
それぞれ1つの前記候補領域特徴に対応する前記少なくとも1つの候補領域に基づいて前記画像特徴から対応位置の特徴を得て、前記少なくとも1つの候補領域に対応する前記少なくとも1つの候補領域特徴を構成する工程を含むことを特徴とする請求項9に記載の方法。 - 前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る前記工程は、
特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る工程と、
前記特徴抽出ネットワーク中の残差ネットワークにより前記画像に対して差異特徴抽出を行って差異特徴を得る工程と、
前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る工程と、を含むことを特徴とする請求項9又は10に記載の方法。 - 前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る前記工程は、
前記第1の特徴と前記差異特徴に対してビットごとの加算を行って前記画像に対応する画像特徴を得る工程を含むことを特徴とする請求項11に記載の方法。 - 前記特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る前記工程は、
前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する工程と、を含むことを特徴とする請求項11又は12に記載の方法。 - 前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する前記工程は、
前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、
前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記第1の特徴を決定する工程と、を含むことを特徴とする請求項13に記載の方法。 - 前記特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る前記工程の前に、
第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う工程を更に含み、前記第1のサンプル画像における目標物体の大きさが既に知られ、前記目標物体に第1の目標物体と第2の目標物体が含まれ、前記第1の目標物体の大きさと前記第2の目標物体の大きさとが異なっていることを特徴とする請求項11〜14のいずれか一項に記載の方法。 - 前記第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う前記工程は、
前記第1のサンプル画像を前記特徴抽出ネットワークに入力して第1のサンプル画像特徴を得る工程と、
前記弁別器により前記第1のサンプル画像特徴に基づいて、前記第1のサンプル画像に第1の目標物体が含まれる真実性を示すための鑑別結果を得る工程と、
前記鑑別結果と既に知られた前記第1のサンプル画像における目標物体の大きさに基づいて、前記弁別器と前記特徴抽出ネットワークのパラメータを交互に調整する工程と、を含むことを特徴とする請求項15に記載の方法。 - 前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る前記工程は、
畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する工程と、を含むことを特徴とする請求項9又は10に記載の方法。 - 前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する前記工程は、
前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、
前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記画像特徴を決定する工程と、を含むことを特徴とする請求項17に記載の方法。 - 前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程の前に、
ラベル付け画像特徴を備えた第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする工程を更に含むことを特徴とする請求項17又は18に記載の方法。 - 前記第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする前記工程は、
前記第2のサンプル画像を前記畳み込みニューラルネットワークに入力して前記予測画像特徴を得る工程と、
前記予測画像特徴と前記ラベル付け画像特徴に基づいて、前記畳み込みニューラルネットワークのパラメータを調整する工程と、を含むことを特徴とする請求項19に記載の方法。 - 前記画像に基づいて前記少なくとも1つの目標に対応する少なくとも1つの候補領域を取得する前記工程は、
ビデオから少なくとも1つのフレームの前記画像を得、前記画像に対して領域検出を実行し、前記少なくとも1つの目標に対応する前記少なくとも1つの候補領域を得る工程を含むことを特徴とする請求項9〜20のいずれか一項に記載の方法。 - 前記画像に基づいて前記少なくとも1つの目標に対応する少なくとも1つの候補領域を取得する前記工程の前に、
前記ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行って、前記少なくとも1つのフレームの画像における前記目標に対応する目標キーポイントを決定する工程と、
前記目標キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を更に含み、
前記画像に基づいて前記少なくとも1つの目標に対応する少なくとも1つの候補領域を取得した前記工程の後に、
前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整して、前記少なくとも1つの目標に対応する少なくとも1つの目標候補領域を得る工程を更に含むことを特徴とする請求項21に記載の方法。 - 前記目標キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る前記工程は、
前記ビデオの連続した2つのフレームの前記画像中の各前記目標キーポイント同士の距離を基礎とする工程と、
各前記目標キーポイント同士の距離に基づき前記ビデオ中の前記目標キーポイントのトラッキングを実現する工程と、
前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を含むことを特徴とする請求項22に記載の方法。 - 各前記目標キーポイント同士の距離に基づき前記ビデオ中の前記目標キーポイントのトラッキングを実現する前記工程は、
各前記目標キーポイント同士の距離の最小値に基づいて、連続した2つのフレームの前記画像における同一目標キーポイントの位置を決定する工程と、
前記同一目標キーポイントの連続した2つのフレームの前記画像での位置により目標キーポイントの前記ビデオでのトラッキングを実現する工程と、を含むことを特徴とする請求項22又は23に記載の方法。 - 前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整して、前記少なくとも1つの目標に対応する少なくとも1つの目標候補領域を得る前記工程は、
前記候補領域と前記キーポイント領域との重なり割合が設定割合以上であることに応答して、前記候補領域を前記目標に対応する目標候補領域とする工程と、
前記候補領域と前記キーポイント領域との重なり割合が設定割合より小さいことに応答して、前記キーポイント領域を前記目標に対応する目標候補領域とする工程と、を含むことを特徴とする請求項22〜24のいずれか一項に記載の方法。 - 交通標識を含む画像を収集する工程と、
前記交通標識を含む画像における少なくとも1つの交通標識に対応する少なくとも1つの候補領域特徴を取得する工程であって、各前記交通標識はそれぞれ1つの候補領域特徴に対応する、工程と、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの交通標識大分類をそれぞれ類別し、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記交通標識が前記交通標識小分類に属する類別確率を決定する工程と、を含むことを特徴とする交通標識検出方法。 - 前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの交通標識大分類をそれぞれ類別し、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程は、
前記少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得る工程と、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記交通標識大分類を類別して、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る工程と、を含むことを特徴とする請求項26に記載の方法。 - それぞれの前記交通標識大分類カテゴリーが1つの前記第2の分類器に対応しており、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記交通標識大分類を類別して、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程は、
前記第1の確率ベクトルに基づいて、前記候補領域特徴に対応する前記交通標識大分類カテゴリーを決定する工程と、
前記交通標識大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの交通標識小分類に対応する第2の確率ベクトルを得る工程と、を含む
ことを特徴とする請求項27に記載の方法。 - 前記交通標識大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの交通標識小分類に対応する第2の確率ベクトルを得る前記工程の前に、
前記候補領域特徴を畳み込みニューラルネットワークにより処理し、前記処理後の候補領域特徴を前記交通標識大分類に対応する前記第2の分類器に入力する工程を更に含むことを特徴とする請求項28に記載の方法。 - 前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記目標が前記交通標識小分類に属する類別確率を決定する前記工程は、
前記第1の確率ベクトルに基づいて、前記目標が前記交通標識大分類に属する第1の類別確率を決定する工程と、
前記第2の確率ベクトルに基づいて、前記目標が前記交通標識小分類に属する第2の類別確率を決定する工程と、
前記第1の類別確率と前記第2の類別確率を組み合わせて、前記交通標識が前記交通標識大分類中の前記交通標識小分類に属する類別確率を決定する工程と、を含むことを特徴とする請求項26〜29のいずれか一項に記載の方法。 - 前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つそれぞれの前記交通標識大分類を類別して、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得る前記工程の前に、
サンプル候補領域特徴に基づいて交通類別ネットワークをトレーニングする工程であって、前記交通類別ネットワークは、1つの第1の分類器と、少なくとも2つの第2の分類器と、を含み、前記第2の分類器の数量が前記第1の分類器の交通標識大分類カテゴリーと等しく、前記サンプル候補領域特徴は、ラベル付け交通標識小分類カテゴリーを備えているか、又はラベル付け交通標識小分類カテゴリーとラベル付け交通標識大分類カテゴリーを備えている、工程を更に含むことを特徴とする請求項26〜30のいずれか一項に記載の方法。 - 前記サンプル候補領域特徴がラベル付け交通標識小分類カテゴリーを備えていることに応答して、前記ラベル付け交通標識小分類カテゴリーをクラスタ化することで前記サンプル候補領域特徴に対応するラベル付け交通標識大分類カテゴリーを決定することを特徴とする請求項31に記載の方法。
- 前記サンプル候補領域特徴に基づいて交通類別ネットワークをトレーニングする前記工程は、
前記サンプル候補領域特徴を前記第1の分類器に入力して予測交通標識大分類カテゴリーを得る工程と、前記予測交通標識大分類カテゴリーと前記ラベル付け交通標識大分類カテゴリーに基づいて前記第1の分類器のパラメータを調整する工程と、
前記サンプル候補領域特徴の前記ラベル付け交通標識大分類カテゴリーに基づいて、前記サンプル候補領域特徴を前記ラベル付け交通標識大分類カテゴリーに対応する前記第2の分類器に入力して予測交通標識小分類カテゴリーを得る工程と、前記予測交通標識小分類カテゴリーと前記ラベル付け交通標識小分類カテゴリーに基づいて前記第2の分類器のパラメータを調整する工程と、を含むことを特徴とする請求項31又は32に記載の方法。 - 前記交通標識を含む画像における少なくとも1つの交通標識に対応する少なくとも1つの候補領域特徴を取得する前記工程は、
前記交通標識を含む画像に基づいて前記少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得する工程と、
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る工程と、
前記少なくとも1つの候補領域と前記画像特徴に基づいて前記交通標識を含む画像に対応する前記少なくとも1つの候補領域特徴を決定する工程と、を含むことを特徴とする請求項26〜33のいずれか一項に記載の方法。 - 前記少なくとも1つの候補領域と前記画像特徴に基づいて前記交通標識を含む画像に対応する前記少なくとも1つの候補領域特徴を決定する工程は、
それぞれ1つの前記候補領域特徴に対応する前記少なくとも1つの候補領域に基づいて前記画像特徴から対応位置の特徴を得て、前記少なくとも1つの候補領域に対応する前記少なくとも1つの候補領域特徴を構成する工程を含むことを特徴とする請求項34に記載の方法。 - 前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る前記工程は、
特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る工程と、
前記特徴抽出ネットワーク中の残差ネットワークにより前記画像に対して差異特徴抽出を行って差異特徴を得る工程と、
前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る工程と、を含むことを特徴とする請求項34又は35に記載の方法。 - 前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る前記工程は、
前記第1の特徴と前記差異特徴に対してビットごとの加算を行って前記画像に対応する画像特徴を得る工程を含むことを特徴とする請求項36に記載の方法。 - 前記特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る前記工程は、
前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する工程と、を含むことを特徴とする請求項36又は37に記載の方法。 - 前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する前記工程は、
前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、
前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記第1の特徴を決定する工程と、を含むことを特徴とする請求項38に記載の方法。 - 前記特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る前記工程の前に、
第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う工程を更に含み、前記第1のサンプル画像における交通標識の大きさが既に知られ、前記交通標識に第1の交通標識と第2の交通標識が含まれ、前記第1の交通標識の大きさと前記第2の交通標識の大きさとが異なっていることを特徴とする請求項36〜39のいずれか一項に記載の方法。 - 前記第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う前記工程は、
前記第1のサンプル画像を前記特徴抽出ネットワークに入力して第1のサンプル画像特徴を得る工程と、
前記弁別器により前記第1のサンプル画像特徴に基づいて、前記第1のサンプル画像に第1の交通標識が含まれる真実性を示すための鑑別結果を得る工程と、
前記鑑別結果と既に知られた前記第1のサンプル画像における交通標識の大きさに基づいて、前記弁別器と前記特徴抽出ネットワークのパラメータを交互に調整する工程と、を含むことを特徴とする請求項40に記載の方法。 - 前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得る前記工程は、
畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、
前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する工程と、を含むことを特徴とする請求項34又は35に記載の方法。 - 前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する前記工程は、
前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、
前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記画像特徴を決定する工程と、を含むことを特徴とする請求項42に記載の方法。 - 前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う前記工程の前に、
ラベル付け画像特徴を備えた第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする工程を更に含むことを特徴とする請求項42又は43に記載の方法。 - 前記第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする前記工程は、
前記第2のサンプル画像を前記畳み込みニューラルネットワークに入力して前記予測画像特徴を得る工程と、
前記予測画像特徴と前記ラベル付け画像特徴に基づいて、前記畳み込みニューラルネットワークのパラメータを調整する工程と、を含むことを特徴とする請求項44に記載の方法。 - 前記交通標識を含む画像に基づいて前記少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得する前記工程は、
ビデオから少なくとも1つのフレームの前記交通標識を含む画像を得、前記画像に対して領域検出を実行し、少なくとも1つの前記交通標識に対応する前記少なくとも1つの候補領域を得る工程を含むことを特徴とする請求項34〜45のいずれか一項に記載の方法。 - 前記交通標識を含む画像に基づいて前記少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得する前記工程の前に、
前記ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行って、前記少なくとも1つのフレームの画像における前記交通標識に対応する交通標識キーポイントを決定する工程と、
前記交通標識キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を更に含み、
前記画像に基づいて前記少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得した前記工程の後に、
前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整し、前記少なくとも1つの交通標識に対応する少なくとも1つの交通標識候補領域を得る工程を更に含むことを特徴とする請求項46に記載の方法。 - 前記交通標識キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る前記工程は、
前記ビデオの連続した2つのフレームの前記画像中の各前記交通標識キーポイント同士の距離を基礎とする工程と、
各前記交通標識キーポイント同士の距離に基づき、前記ビデオ中の前記交通標識キーポイントのトラッキングを実現する工程と、
前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、を含むことを特徴とする請求項47に記載の方法。 - 各前記交通標識キーポイント同士の距離に基づき、前記ビデオ中の前記交通標識キーポイントのトラッキングを実現する前記工程は、
各前記交通標識キーポイント同士の距離の最小値に基づいて、連続した2つのフレームの前記画像における同一の交通標識キーポイントの位置を決定する工程と、
前記同一交通標識キーポイントの連続した2つのフレームの前記画像での位置により交通標識キーポイントの前記ビデオでのトラッキングを実現する工程と、を含むことを特徴とする請求項47又は48に記載の方法。 - 前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整し、前記少なくとも1つの交通標識に対応する少なくとも1つの交通標識候補領域を得る前記工程は、
前記候補領域と前記キーポイント領域との重なり割合が設定割合以上であることに応答して、前記候補領域を前記交通標識に対応する交通標識候補領域とする工程と、
前記候補領域と前記キーポイント領域との重なり割合が設定割合より小さいことに応答して、前記キーポイント領域を前記交通標識に対応する交通標識候補領域とする工程と、を含むことを特徴とする請求項47〜49のいずれか一項に記載の方法。 - 画像における少なくとも1つの目標に対応する少なくとも1つの候補領域特徴を取得するための候補領域取得ユニットであって、前記画像は少なくとも1つの目標を含み、各目標は1つの候補領域特徴に対応する、候補領域取得ユニットと、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの大分類をそれぞれ類別し、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための確率ベクトルユニットと、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する類別確率を決定するための目標類別ユニットと、を含むことを特徴とする多階層化目標類別装置。 - 前記確率ベクトルユニットは、
前記少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの大分類に対応する少なくとも1つの第1の確率ベクトルを得るための第1の確率モジュールと、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記大分類を類別して、前記大分類中の少なくとも2つの小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための第2の確率モジュールと、を含むことを特徴とする請求項51に記載の装置。 - それぞれの前記大分類カテゴリーが一つの前記第2の分類器に対応しており、
前記第2の確率モジュールは、前記第1の確率ベクトルに基づいて、前記候補領域特徴に対応する前記大分類カテゴリーを決定する工程と、前記大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの小分類に対応する第2の確率ベクトルを得る工程と、に用いられることを特徴とする請求項52に記載の装置。 - 前記確率ベクトルユニットは、更に、前記候補領域特徴を畳み込みニューラルネットワークにより処理し、前記処理後の候補領域特徴を前記大分類に対応する前記第2の分類器に入力するために用いられることを特徴とする請求項53に記載の装置。
- 前記目標類別ユニットは、前記第1の確率ベクトルに基づいて、前記目標が前記大分類に属する第1の類別確率を決定する工程と、前記第2の確率ベクトルに基づいて、前記目標が前記小分類に属する第2の類別確率を決定する工程と、前記第1の類別確率と前記第2の類別確率を組み合わせて、前記目標が前記大分類中の前記小分類に属する類別確率を決定する工程と、に用いられることを特徴とする請求項51〜54のいずれか一項に記載の装置。
- サンプル候補領域特徴に基づいて類別ネットワークをトレーニングするためのネットワークトレーニングユニットであって、前記類別ネットワークは、1つの第1の分類器と、少なくとも2つの第2の分類器と、を含み、前記第2の分類器の数量が前記第1の分類器の大分類カテゴリーと等しく、前記サンプル候補領域特徴は、ラベル付け小分類カテゴリーを備えているか、又はラベル付け小分類カテゴリーとラベル付け大分類カテゴリーを備えている、ネットワークトレーニングユニットを更に含むことを特徴とする請求項51〜55のいずれか一項に記載の装置。
- 前記サンプル候補領域特徴がラベル付け小分類カテゴリーを備えていることに応答して、前記ラベル付け小分類カテゴリーをクラスタ化することで前記サンプル候補領域特徴に対応するラベル付け大分類カテゴリーを決定することを特徴とする請求項56に記載の装置。
- 前記ネットワークトレーニングユニットは、サンプル候補領域特徴を前記第1の分類器に入力して予測大分類カテゴリーを得る工程と、前記予測大分類カテゴリーと前記ラベル付け大分類カテゴリーに基づいて前記第1の分類器のパラメータを調整する工程と、前記サンプル候補領域特徴の前記ラベル付け大分類カテゴリーに基づいて、前記サンプル候補領域特徴を前記ラベル付け大分類カテゴリーに対応する前記第2の分類器に入力して、予測小分類カテゴリーを得る工程と、前記予測小分類カテゴリーと前記ラベル付け小分類カテゴリーに基づいて前記第2の分類器のパラメータを調整する工程と、に用いられることを特徴とする請求項56又は57に記載の装置。
- 前記候補領域取得ユニットは、
前記画像に基づいて前記少なくとも1つの目標に対応する少なくとも1つの候補領域を取得するための候補領域モジュールと、
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得るための特徴抽出モジュールと、
前記少なくとも1つの候補領域と前記画像特徴に基づいて前記画像に対応する前記少なくとも1つの候補領域特徴を決定するための領域特徴モジュールと、を含むことを特徴とする請求項51〜58のいずれか一項に記載の装置。 - 前記候補領域モジュールは、それぞれ1つの前記候補領域特徴に対応する前記少なくとも1つの候補領域に基づいて前記画像特徴から対応位置の特徴を得て、前記少なくとも1つの候補領域に対応する前記少なくとも1つの候補領域特徴を構成するために用いられることを特徴とする請求項59に記載の装置。
- 前記特徴抽出モジュールは、特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る工程と、前記特徴抽出ネットワーク中の残差ネットワークにより前記画像に対して差異特徴抽出を行って差異特徴を得る工程と、前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る工程と、に用いられることを特徴とする請求項59又は60に記載の装置。
- 前記特徴抽出モジュールは、前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る時に、前記第1の特徴と前記差異特徴に対してビットごとの加算を行って前記画像に対応する画像特徴を得るために用いられることを特徴とする請求項61に記載の装置。
- 前記特徴抽出モジュールは、特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る時に、前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する工程と、に用いられることを特徴とする請求項61又は62に記載の装置。
- 前記特徴抽出モジュールは、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する時に、前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記第1の特徴を決定する工程と、に用いられることを特徴とする請求項63に記載の装置。
- 前記特徴抽出モジュールは、更に、第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行うために用いられ、前記第1のサンプル画像における目標物体の大きさが既に知られ、前記目標物体に第1の目標物体と第2の目標物体が含まれ、前記第1の目標物体の大きさと前記第2の目標物体の大きさとが異なっていることを特徴とする請求項61〜64のいずれか一項に記載の装置。
- 前記特徴抽出モジュールは、第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う時に、前記第1のサンプル画像を前記特徴抽出ネットワークに入力して第1のサンプル画像特徴を得る工程と、前記弁別器により前記第1のサンプル画像特徴に基づいて、前記第1のサンプル画像に第1の目標物体が含まれる真実性を示すための鑑別結果を得る工程と、前記鑑別結果と既に知られた前記第1のサンプル画像における目標物体の大きさに基づいて、前記弁別器と前記特徴抽出ネットワークのパラメータを交互に調整する工程と、に用いられることを特徴とする請求項65に記載の装置。
- 前記特徴抽出モジュールは、畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する工程と、に用いられることを特徴とする請求項59又は60に記載の方法。
- 前記特徴抽出モジュールは、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する時に、前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記画像特徴を決定する工程と、に用いられることを特徴とする請求項67に記載の装置。
- 前記特徴抽出モジュールは、更に、ラベル付け画像特徴を備えた第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングするために用いられることを特徴とする請求項67又は68に記載の装置。
- 前記特徴抽出モジュールは、第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする時に、前記第2のサンプル画像を前記畳み込みニューラルネットワークに入力して前記予測画像特徴を得る工程と、前記予測画像特徴と前記ラベル付け画像特徴に基づいて、前記畳み込みニューラルネットワークのパラメータを調整する工程と、に用いられることを特徴とする請求項69に記載の装置。
- 前記候補領域モジュールは、ビデオから少なくとも1つのフレームの前記画像を得、前記画像に対して領域検出を実行し、前記少なくとも1つの目標に対応する前記少なくとも1つの候補領域を得るために用いられることを特徴とする請求項59〜70のいずれか一項に記載の装置。
- 前記候補領域取得ユニットは、
前記ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行って、前記少なくとも1つのフレームの画像における前記目標に対応する目標キーポイントを決定するためのキーポイントモジュールと、
前記目標キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得るためのキーポイントトラッキングモジュールと、
前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整して、前記少なくとも1つの目標に対応する少なくとも1つの目標候補領域を得るための領域調整モジュールと、を更に含むことを特徴とする請求項71に記載の装置。 - 前記キーポイントトラッキングモジュールは、前記ビデオの連続した2つのフレームの前記画像中の各前記目標キーポイント同士の距離を基礎とする工程と、各前記目標キーポイント同士の距離に基づき前記ビデオ中の前記目標キーポイントのトラッキングを実現する工程と、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、に用いられることを特徴とする請求項72に記載の装置。
- 前記キーポイントトラッキングモジュールは、各前記目標キーポイント同士の距離に基づき前記ビデオ中の前記目標キーポイントのトラッキングを実現する時に、各前記目標キーポイント同士の距離の最小値に基づいて、連続した2つのフレームの前記画像における同一目標キーポイントの位置を決定する工程と、前記同一目標キーポイントの連続した2つのフレームの前記画像での位置により目標キーポイントの前記ビデオでのトラッキングを実現する工程と、に用いられることを特徴とする請求項72又は73に記載の装置。
- 前記領域調整モジュールは、前記候補領域と前記キーポイント領域との重なり割合が設定割合以上であることに応答して、前記候補領域を前記目標に対応する目標候補領域とする工程と、前記候補領域と前記キーポイント領域との重なり割合が設定割合より小さいことに応答して、前記キーポイント領域を前記目標に対応する目標候補領域とする工程と、に用いられることを特徴とする請求項72〜74のいずれか一項に記載の装置。
- 交通標識を含む画像を収集するための画像収集ユニットと、
前記交通標識を含む画像における少なくとも1つの交通標識に対応する少なくとも1つの候補領域特徴を取得するための交通標識領域ユニットであって、各前記交通標識はそれぞれ1つの候補領域特徴に対応する、交通標識領域ユニットと、
前記少なくとも1つの候補領域特徴に基づいて、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得、且つ前記少なくとも2つの交通標識大分類をそれぞれ類別し、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための交通確率ベクトルユニットと、
前記第1の確率ベクトルと前記第2の確率ベクトルに基づいて、前記交通標識が前記交通標識小分類に属する類別確率を決定するための交通標識類別ユニットと、を含むことを特徴とする交通標識検出装置。 - 前記交通確率ベクトルユニットは、
前記少なくとも1つの候補領域特徴に基づいて第1の分類器により類別して、少なくとも2つの交通標識大分類に対応する少なくとも1つの第1の確率ベクトルを得るための第1の確率モジュールと、
前記少なくとも1つの候補領域特徴に基づいて少なくとも2つの第2の分類器によりそれぞれの前記交通標識大分類を類別して、前記交通標識大分類中の少なくとも2つの交通標識小分類に対応する少なくとも1つの第2の確率ベクトルをそれぞれ得るための第2の確率モジュールと、を含むことを特徴とする請求項76に記載の装置。 - それぞれの前記交通標識大分類カテゴリーが1つの前記第2の分類器に対応しており、
前記第2の確率モジュールは、前記第1の確率ベクトルに基づいて、前記候補領域特徴に対応する前記交通標識大分類カテゴリーを決定する工程と、前記交通標識大分類に対応する前記第2の分類器に基づいて前記候補領域特徴を類別して、前記候補領域特徴が前記少なくとも2つの交通標識小分類に対応する第2の確率ベクトルを得る工程と、に用いられることを特徴とする請求項77に記載の装置。 - 前記交通確率ベクトルユニットは、更に、前記候補領域特徴を畳み込みニューラルネットワークにより処理し、前記処理後の候補領域特徴を前記交通標識大分類に対応する前記第2の分類器に入力するために用いられることを特徴とする請求項78に記載の装置。
- 前記交通標識類別ユニットは、前記第1の確率ベクトルに基づいて、前記目標が前記交通標識大分類に属する第1の類別確率を決定する工程と、前記第2の確率ベクトルに基づいて、前記目標が前記交通標識小分類に属する第2の類別確率を決定する工程と、前記第1の類別確率と前記第2の類別確率を組み合わせて、前記交通標識が前記交通標識大分類中の前記交通標識小分類に属する類別確率を決定する工程と、に用いられることを特徴とする請求項76〜79のいずれか一項に記載の装置。
- サンプル候補領域特徴に基づいて交通類別ネットワークをトレーニングするための交通ネットワークトレーニングユニットであって、前記交通類別ネットワークは、1つの第1の分類器と、少なくとも2つの第2の分類器と、を含み、前記第2の分類器の数量が前記第1の分類器の交通標識大分類カテゴリーと等しく、前記サンプル候補領域特徴は、ラベル付け交通標識小分類カテゴリーを備えているか、又はラベル付け交通標識小分類カテゴリーとラベル付け交通標識大分類カテゴリーを備えている、交通ネットワークトレーニングユニットを更に含むことを特徴とする請求項76〜80のいずれか一項に記載の装置。
- 前記サンプル候補領域特徴がラベル付け交通標識小分類カテゴリーを備えていることに応答して、前記ラベル付け交通標識小分類カテゴリーをクラスタ化することで前記サンプル候補領域特徴に対応するラベル付け交通標識大分類カテゴリーを決定することを特徴とする請求項81に記載の装置。
- 前記交通ネットワークトレーニングユニットは、サンプル候補領域特徴を前記第1の分類器に入力して予測交通標識大分類カテゴリーを得る工程と、前記予測交通標識大分類カテゴリーと前記ラベル付け交通標識大分類カテゴリーに基づいて前記第1の分類器のパラメータを調整する工程と、前記サンプル候補領域特徴の前記ラベル付け交通標識大分類カテゴリーに基づいて、前記サンプル候補領域特徴を前記ラベル付け交通標識大分類カテゴリーに対応する前記第2の分類器に入力して予測交通標識小分類カテゴリーを得る工程と、前記予測交通標識小分類カテゴリーと前記ラベル付け交通標識小分類カテゴリーに基づいて前記第2の分類器のパラメータを調整する工程と、に用いられることを特徴とする請求項81又は82に記載の装置。
- 前記交通標識領域ユニットは、
前記交通標識を含む画像に基づいて前記少なくとも1つの交通標識に対応する少なくとも1つの候補領域を取得するための標識候補領域モジュールと、
前記画像に対して特徴抽出を行って前記画像に対応する画像特徴を得るための画像特徴抽出モジュールと、
前記少なくとも1つの候補領域と前記画像特徴に基づいて前記交通標識を含む画像に対応する前記少なくとも1つの候補領域特徴を決定するためのラベル付け領域特徴モジュールと、を含むことを特徴とする請求項76〜83のいずれか一項に記載の装置。 - 前記標識候補領域モジュールは、それぞれ1つの前記候補領域特徴に対応する前記少なくとも1つの候補領域に基づいて前記画像特徴から対応位置の特徴を得て、前記少なくとも1つの候補領域に対応する前記少なくとも1つの候補領域特徴を構成するために用いられることを特徴とする請求項84に記載の装置。
- 前記画像特徴抽出モジュールは、特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る工程と、前記特徴抽出ネットワーク中の残差ネットワークにより前記画像に対して差異特徴抽出を行って差異特徴を得る工程と、前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る工程と、に用いられることを特徴とする請求項84又は85に記載の装置。
- 前記画像特徴抽出モジュールは、前記第1の特徴と前記差異特徴に基づいて前記画像に対応する画像特徴を得る時に、前記第1の特徴と前記差異特徴に対してビットごとの加算を行って前記画像に対応する画像特徴を得るために用いられることを特徴とする請求項86に記載の装置。
- 前記画像特徴抽出モジュールは、特徴抽出ネットワーク中の畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行って第1の特徴を得る時に、前記畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する工程と、に用いられることを特徴とする請求項86又は87に記載の装置。
- 前記画像特徴抽出モジュールは、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記第1の特徴を決定する時に、前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記第1の特徴を決定する工程と、に用いられることを特徴とする請求項88に記載の装置。
- 前記画像特徴抽出モジュールは、更に、第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行うために用いられ、前記第1のサンプル画像における交通標識の大きさが既に知られ、前記交通標識に第1の交通標識と第2の交通標識が含まれ、前記第1の交通標識の大きさと前記第2の交通標識の大きさとが異なっていることを特徴とする請求項86〜89のいずれか一項に記載の装置。
- 前記画像特徴抽出モジュールは、第1のサンプル画像に基づいて、弁別器を利用して前記特徴抽出ネットワークに対してレジスタンストレーニングを行う時に、前記第1のサンプル画像を前記特徴抽出ネットワークに入力して第1のサンプル画像特徴を得る工程と、前記弁別器により前記第1のサンプル画像特徴に基づいて、前記第1のサンプル画像に第1の交通標識が含まれる真実性を示すための鑑別結果を得る工程と、前記鑑別結果と既に知られた前記第1のサンプル画像における交通標識の大きさに基づいて、前記弁別器と前記特徴抽出ネットワークのパラメータを交互に調整する工程と、に用いられることを特徴とする請求項90に記載の装置。
- 前記画像特徴抽出モジュールは、畳み込みニューラルネットワークにより前記画像に対して特徴抽出を行う工程と、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する工程と、に用いられることを特徴とする請求項84又は85に記載の装置。
- 前記画像特徴抽出モジュールは、前記畳み込みニューラルネットワークの少なくとも2つの畳み込み層の出力した少なくとも2つの特徴に基づいて、前記画像に対応する前記画像特徴を決定する時に、前記少なくとも2つの畳み込み層の出力した前記少なくとも2つの特徴マップの大きさを同様にするために、前記少なくとも2つの特徴マップのうちの少なくとも一方を処理する工程と、前記少なくとも2つの同様の大きさの特徴マップに対してビットごとの加算を行って、前記画像に対応する前記画像特徴を決定する工程と、に用いられることを特徴とする請求項92に記載の装置。
- 前記画像特徴抽出モジュールは、更に、ラベル付け画像特徴を備えた第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングするために用いられることを特徴とする請求項92又は93に記載の装置。
- 前記画像特徴抽出モジュールは、第2のサンプル画像に基づいて前記畳み込みニューラルネットワークをトレーニングする時に、前記第2のサンプル画像を前記畳み込みニューラルネットワークに入力して前記予測画像特徴を得る工程と、前記予測画像特徴と前記ラベル付け画像特徴に基づいて、前記畳み込みニューラルネットワークのパラメータを調整する工程と、に用いられることを特徴とする請求項94に記載の装置。
- 前記標識候補領域モジュールは、ビデオから少なくとも1つのフレームの前記交通標識を含む画像を得、前記画像に対して領域検出を実行し、少なくとも1つの前記交通標識に対応する前記少なくとも1つの候補領域を得るために用いられることを特徴とする請求項84〜95のいずれか一項に記載の装置。
- 前記交通標識領域ユニットは、
前記ビデオの少なくとも1つのフレームの画像に対してキーポイント認識を行って、前記少なくとも1つのフレームの画像における前記交通標識に対応する交通標識キーポイントを決定するための標識キーポイントモジュールと、
前記交通標識キーポイントをトラッキングして、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得るための標識キーポイントトラッキングモジュールと、
前記少なくとも1つのフレームの画像のキーポイント領域により前記少なくとも1つの候補領域を調整し、前記少なくとも1つの交通標識に対応する少なくとも1つの交通標識候補領域を得るための標識領域調整モジュールと、を更に含むことを特徴とする請求項96に記載の装置。 - 前記標識キーポイントトラッキングモジュールは、前記ビデオの連続した2つのフレームの前記画像中の各前記交通標識キーポイント同士の距離を基礎とする工程と、各前記交通標識キーポイント同士の距離に基づき、前記ビデオ中の前記交通標識キーポイントのトラッキングを実現する工程と、前記ビデオの少なくとも1つのフレームの画像のキーポイント領域を得る工程と、に用いられることを特徴とする請求項97に記載の装置。
- 前記標識キーポイントトラッキングモジュールは、各前記交通標識キーポイント同士の距離に基づき、前記ビデオ中の前記交通標識キーポイントのトラッキングを実現する時に、各前記交通標識キーポイント同士の距離の最小値に基づいて、連続した2つのフレームの前記画像における同一の交通標識キーポイントの位置を決定する工程と、前記同一交通標識キーポイントの連続した2つのフレームの前記画像での位置により交通標識キーポイントの前記ビデオでのトラッキングを実現する工程と、に用いられることを特徴とする請求項97又は98に記載の装置。
- 前記標識領域調整モジュールは、前記候補領域と前記キーポイント領域との重なり割合が設定割合以上であることに応答して、前記候補領域を前記交通標識に対応する交通標識候補領域とする工程と、前記候補領域と前記キーポイント領域との重なり割合が設定割合より小さいことに応答して、前記キーポイント領域を前記交通標識に対応する交通標識候補領域とする工程と、に用いられることを特徴とする請求項97〜99のいずれか一項に記載の装置。
- 請求項76〜100のいずれか一項に記載の交通標識検出装置を含むことを特徴とする車両。
- 請求項51〜75のいずれか一項に記載の多階層化目標類別装置又は請求項76〜100のいずれか一項に記載の交通標識検出装置を備えたプロセッサーを含むことを特徴とする電子機器。
- 実行可能コマンドを記憶するためのメモリと、
前記メモリと通信して前記実行可能コマンドを実行して請求項1〜25のいずれか一項に記載の多階層化目標類別方法又は請求項26〜50のいずれか一項に記載の交通標識検出方法の操作を完成するためのプロセッサーと、を含むことを特徴とする電子機器。 - コンピューター読取可能コマンドを記憶するためのコンピューター記憶媒体であって、前記コマンドが実行されるとき、請求項1〜25のいずれか一項に記載の多階層化目標類別方法又は請求項26〜50のいずれか一項に記載の交通標識検出方法の操作が実行されることを特徴とするコンピューター記憶媒体。
- コンピューター可読コードを含むコンピュータープログラム製品であって、前記コンピューター可読コードが機器で実行されるとき、前記機器中のプロセッサーは請求項1〜25のいずれか一項に記載の多階層化目標類別方法又は請求項26〜50のいずれか一項に記載の交通標識検出方法を実現するためのコマンドを実行することを特徴とするコンピュータープログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811036346.1A CN110879950A (zh) | 2018-09-06 | 2018-09-06 | 多级目标分类及交通标志检测方法和装置、设备、介质 |
CN201811036346.1 | 2018-09-06 | ||
PCT/CN2019/098674 WO2020048265A1 (zh) | 2018-09-06 | 2019-07-31 | 多级目标分类及交通标志检测方法和装置、设备、介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021530048A true JP2021530048A (ja) | 2021-11-04 |
Family
ID=69722331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020573120A Pending JP2021530048A (ja) | 2018-09-06 | 2019-07-31 | 多階層化目標類別方法及び装置、交通標識検出方法及び装置、機器並びに媒体 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20210110180A1 (ja) |
JP (1) | JP2021530048A (ja) |
KR (1) | KR20210013216A (ja) |
CN (1) | CN110879950A (ja) |
SG (1) | SG11202013053PA (ja) |
WO (1) | WO2020048265A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11256956B2 (en) * | 2019-12-02 | 2022-02-22 | Qualcomm Incorporated | Multi-stage neural network process for keypoint detection in an image |
CN112052778B (zh) * | 2020-09-01 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 一种交通标志识别方法以及相关装置 |
CN112132032A (zh) * | 2020-09-23 | 2020-12-25 | 平安国际智慧城市科技股份有限公司 | 交通标志牌检测方法、装置、电子设备及存储介质 |
CN112633151B (zh) * | 2020-12-22 | 2024-04-12 | 浙江大华技术股份有限公司 | 一种确定监控图像中斑马线的方法、装置、设备及介质 |
US11776281B2 (en) | 2020-12-22 | 2023-10-03 | Toyota Research Institute, Inc. | Systems and methods for traffic light detection and classification |
CN113095359B (zh) * | 2021-03-05 | 2023-09-12 | 西安交通大学 | 一种射线图像标记信息检测方法及系统 |
CN113361593B (zh) * | 2021-06-03 | 2023-12-19 | 阿波罗智联(北京)科技有限公司 | 生成图像分类模型的方法、路侧设备及云控平台 |
CN113516069A (zh) * | 2021-07-08 | 2021-10-19 | 北京华创智芯科技有限公司 | 基于尺寸鲁棒的道路标识实时检测方法及装置 |
CN113516088B (zh) * | 2021-07-22 | 2024-02-27 | 中移(杭州)信息技术有限公司 | 物体识别方法、装置及计算机可读存储介质 |
CN113837144B (zh) * | 2021-10-25 | 2022-09-13 | 广州微林软件有限公司 | 一种冰箱的智能化图像数据采集处理方法 |
US11756288B2 (en) * | 2022-01-05 | 2023-09-12 | Baidu Usa Llc | Image processing method and apparatus, electronic device and storage medium |
CN115830399B (zh) * | 2022-12-30 | 2023-09-12 | 广州沃芽科技有限公司 | 分类模型训练方法、装置、设备、存储介质和程序产品 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101814147A (zh) * | 2010-04-12 | 2010-08-25 | 中国科学院自动化研究所 | 一种实现场景图像的分类方法 |
JP2013069278A (ja) * | 2011-09-23 | 2013-04-18 | Ricoh Co Ltd | 交通標識検知方法及び交通標識検知装置 |
JP2013529348A (ja) * | 2010-06-10 | 2013-07-18 | タタ コンサルタンシー サービシズ リミテッド | 種々の交通標識を検出及び認識する照明不変且つロバストな装置及び方法 |
JP2017516197A (ja) * | 2015-03-31 | 2017-06-15 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 交通標識を認識する方法及び装置 |
JP2018026040A (ja) * | 2016-08-12 | 2018-02-15 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP2018124689A (ja) * | 2017-01-31 | 2018-08-09 | 株式会社日立製作所 | 移動物体検出装置、移動物体検出システム、及び移動物体検出方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8041080B2 (en) * | 2009-03-31 | 2011-10-18 | Mitsubi Electric Research Laboratories, Inc. | Method for recognizing traffic signs |
CN103824452B (zh) * | 2013-11-22 | 2016-06-22 | 银江股份有限公司 | 一种轻量级的基于全景视觉的违章停车检测装置 |
CN103955950B (zh) * | 2014-04-21 | 2017-02-08 | 中国科学院半导体研究所 | 一种利用关键点特征匹配的图像跟踪方法 |
US10387773B2 (en) * | 2014-10-27 | 2019-08-20 | Ebay Inc. | Hierarchical deep convolutional neural network for image classification |
CN105335710A (zh) * | 2015-10-22 | 2016-02-17 | 合肥工业大学 | 一种基于多级分类器的精细车辆型号识别方法 |
CN106295568B (zh) * | 2016-08-11 | 2019-10-18 | 上海电力学院 | 基于表情和行为双模态结合的人类自然状态情感识别方法 |
CN106778585B (zh) * | 2016-12-08 | 2019-04-16 | 腾讯科技(上海)有限公司 | 一种人脸关键点跟踪方法和装置 |
CN108470172B (zh) * | 2017-02-23 | 2021-06-11 | 阿里巴巴集团控股有限公司 | 一种文本信息识别方法及装置 |
CN106991417A (zh) * | 2017-04-25 | 2017-07-28 | 华南理工大学 | 一种基于模式识别的视觉投影交互系统及交互方法 |
CN107480730A (zh) * | 2017-09-05 | 2017-12-15 | 广州供电局有限公司 | 电力设备识别模型构建方法和系统、电力设备的识别方法 |
CN108229319A (zh) * | 2017-11-29 | 2018-06-29 | 南京大学 | 基于帧间差异与卷积神经网络融合的船舶视频检测方法 |
CN108171762B (zh) * | 2017-12-27 | 2021-10-12 | 河海大学常州校区 | 一种深度学习的压缩感知同类图像快速重构系统与方法 |
CN108363957A (zh) * | 2018-01-19 | 2018-08-03 | 成都考拉悠然科技有限公司 | 基于级联网络的交通标志检测与识别方法 |
-
2018
- 2018-09-06 CN CN201811036346.1A patent/CN110879950A/zh active Pending
-
2019
- 2019-07-31 WO PCT/CN2019/098674 patent/WO2020048265A1/zh active Application Filing
- 2019-07-31 JP JP2020573120A patent/JP2021530048A/ja active Pending
- 2019-07-31 KR KR1020207037464A patent/KR20210013216A/ko not_active Application Discontinuation
- 2019-07-31 SG SG11202013053PA patent/SG11202013053PA/en unknown
-
2020
- 2020-12-21 US US17/128,629 patent/US20210110180A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101814147A (zh) * | 2010-04-12 | 2010-08-25 | 中国科学院自动化研究所 | 一种实现场景图像的分类方法 |
JP2013529348A (ja) * | 2010-06-10 | 2013-07-18 | タタ コンサルタンシー サービシズ リミテッド | 種々の交通標識を検出及び認識する照明不変且つロバストな装置及び方法 |
JP2013069278A (ja) * | 2011-09-23 | 2013-04-18 | Ricoh Co Ltd | 交通標識検知方法及び交通標識検知装置 |
JP2017516197A (ja) * | 2015-03-31 | 2017-06-15 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | 交通標識を認識する方法及び装置 |
JP2018026040A (ja) * | 2016-08-12 | 2018-02-15 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP2018124689A (ja) * | 2017-01-31 | 2018-08-09 | 株式会社日立製作所 | 移動物体検出装置、移動物体検出システム、及び移動物体検出方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110879950A (zh) | 2020-03-13 |
US20210110180A1 (en) | 2021-04-15 |
KR20210013216A (ko) | 2021-02-03 |
SG11202013053PA (en) | 2021-01-28 |
WO2020048265A1 (zh) | 2020-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021530048A (ja) | 多階層化目標類別方法及び装置、交通標識検出方法及び装置、機器並びに媒体 | |
Li et al. | Line-cnn: End-to-end traffic line detection with line proposal unit | |
Hasegawa et al. | Robust Japanese road sign detection and recognition in complex scenes using convolutional neural networks | |
Sirohi et al. | Convolutional neural networks for 5G-enabled intelligent transportation system: A systematic review | |
Possatti et al. | Traffic light recognition using deep learning and prior maps for autonomous cars | |
Radwan et al. | Multimodal interaction-aware motion prediction for autonomous street crossing | |
Kanagaraj et al. | Deep learning using computer vision in self driving cars for lane and traffic sign detection | |
Romdhane et al. | An improved traffic signs recognition and tracking method for driver assistance system | |
Šegvić et al. | Exploiting temporal and spatial constraints in traffic sign detection from a moving vehicle | |
CN111507160B (zh) | 集成从执行协同驾驶的车辆获取的行驶图像的方法及装置 | |
Varghese et al. | An efficient algorithm for detection of vacant spaces in delimited and non-delimited parking lots | |
Saleh et al. | Traffic signs recognition and distance estimation using a monocular camera | |
Dewangan et al. | Towards the design of vision-based intelligent vehicle system: methodologies and challenges | |
Maity et al. | Last decade in vehicle detection and classification: a comprehensive survey | |
Peng et al. | Real-time illegal parking detection algorithm in urban environments | |
Khan et al. | Performance enhancement method for multiple license plate recognition in challenging environments | |
Azimjonov et al. | Vision-based vehicle tracking on highway traffic using bounding-box features to extract statistical information | |
Thakur et al. | Deep learning-based parking occupancy detection framework using ResNet and VGG-16 | |
Mohanapriya | Instance segmentation for autonomous vehicle | |
Arthi et al. | Object detection of autonomous vehicles under adverse weather conditions | |
CN116434150A (zh) | 面向拥挤场景的多目标检测跟踪方法、系统及存储介质 | |
Imad et al. | Navigation system for autonomous vehicle: A survey | |
Tang et al. | An improved algorithm for road markings detection with SVM and ROI restriction: comparison with a rule-based model | |
Al Khafaji et al. | Traffic Signs Detection and Recognition Using A combination of YOLO and CNN | |
Zarindast et al. | Opportunities and challenges in vehicle tracking: a computer vision-based vehicle tracking system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220927 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230417 |