JP2021119506A - ナンバープレート認識方法、ナンバープレート認識モデルの訓練方法及び装置 - Google Patents
ナンバープレート認識方法、ナンバープレート認識モデルの訓練方法及び装置 Download PDFInfo
- Publication number
- JP2021119506A JP2021119506A JP2021076270A JP2021076270A JP2021119506A JP 2021119506 A JP2021119506 A JP 2021119506A JP 2021076270 A JP2021076270 A JP 2021076270A JP 2021076270 A JP2021076270 A JP 2021076270A JP 2021119506 A JP2021119506 A JP 2021119506A
- Authority
- JP
- Japan
- Prior art keywords
- license plate
- code
- feature
- decoding
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 104
- 238000012549 training Methods 0.000 title claims description 89
- 239000013598 vector Substances 0.000 claims abstract description 278
- 238000013528 artificial neural network Methods 0.000 claims abstract description 117
- 230000000306 recurrent effect Effects 0.000 claims abstract description 117
- 238000000605 extraction Methods 0.000 claims description 27
- 230000008569 process Effects 0.000 claims description 23
- 230000015654 memory Effects 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000003786 synthesis reaction Methods 0.000 claims 1
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/182—Extraction of features or characteristics of the image by coding the contour of the pattern
- G06V30/1823—Extraction of features or characteristics of the image by coding the contour of the pattern using vector-coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
- G06V20/625—License plates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
第7の態様では、本出願の実施例は、コンピュータに第1態様に記載のナンバープレート認識方法、又は、第2態様に記載のナンバープレート認識モデルの訓練方法を実行させるコンピュータプログラムを提供する。
Claims (21)
- ナンバープレート認識方法であって、
ナンバープレート領域の特徴マップを取得するステップであって、前記特徴マップには複数の特徴ベクトルが含まれるステップと、
前記複数の特徴ベクトルを、第1順序で第1リカレントニューラルネットワークに順次入力してエンコードして、各前記特徴ベクトルの第1コードを取得するステップと、
前記複数の特徴ベクトルを、第2順序で第2リカレントニューラルネットワークに順次入力してエンコードして、各前記特徴ベクトルの第2コードを取得するステップと、
各前記特徴ベクトルの第1コード及び各前記特徴ベクトルの第2コードに基づいて、複数の前記特徴ベクトルの複数のターゲットコードを生成するステップと、
複数の前記ターゲットコードをデコードして、ナンバープレート内の複数の文字を取得するステップと、を含む、ナンバープレート認識方法。 - 各前記特徴ベクトルの第1コード及び各前記特徴ベクトルの第2コードに基づいて、複数の前記特徴ベクトルの複数のターゲットコードを生成するステップは、
前記特徴ベクトルごとに、前記第1コードと前記第2コードとをスプライスして、前記複数のターゲットコードを取得するステップを含む、請求項1に記載のナンバープレート認識方法。 - 前記複数のターゲットコードをデコードして、ナンバープレート内の複数の文字を取得するステップは、
前記複数のターゲットコードを第3のリカレントニューラルネットワークを用いて順次デコードして、複数のデコードベクトルを取得するステップと、
前記複数のデコードベクトルに基づいて、ナンバープレート内の複数の文字を決定するステップと、を含む、請求項1に記載のナンバープレート認識方法。 - 前記複数のターゲットコードを第3のリカレントニューラルネットワークを用いて順次デコードするステップは、
前記第3のリカレントニューラルネットワークを用いて複数回のデコードプロセスを実行するステップを含み、
各回の前記デコードプロセスは、
今回のデコードのターゲットコードを取得するステップと、
前回のデコードにおいて前記第3のリカレントニューラルネットワークによって出力されたシステム状態ベクトルと、前記今回のデコードのターゲットコードとの類似度を決定するステップと、
前記類似度に基づいて、前記今回のデコードのターゲットコードに重みを付けて、今回の重み付けコードを取得するステップと、
前記今回の重み付けコード、前記前回のデコードにおいて出力されたシステム状態ベクトル及び前回のデコードにおいて出力されたデコードベクトルを、前記第3のリカレントニューラルネットワークに入力して、今回のデコードのシステム状態ベクトル及び今回のデコードのデコードベクトルを出力するステップと、を含み、
初回の前記デコードプロセスは、
設定された開始識別子を前記前回のデコードにおいて出力されたデコードベクトルとして決定するステップと、
最終回のエンコードにおいて前記第2リカレントニューラルネットワークによって出力されたシステム状態ベクトルを、前記前回のデコードにおいて出力されたシステム状態ベクトルとして決定するステップと、をさらに含む、請求項3に記載のナンバープレート認識方法。 - ナンバープレート領域の特徴マップを取得するステップは、
元画像を取得するステップと、
前記元画像の特徴抽出を行って、元特徴マップを取得するステップと、
前記元特徴マップから、ナンバープレート領域に対応する元特徴マップを決定するステップと、
前記ナンバープレート領域に対応する元特徴マップに対して透視変換を行って、前記ナンバープレート領域に対応するターゲット特徴マップを取得するステップと、を含む、請求項1〜4のいずれか1項に記載のナンバープレート認識方法。 - 前記元特徴マップから、ナンバープレート領域に対応する元特徴マップを決定するステップは、
前記元特徴マップを完全畳み込みネットワークに入力してオブジェクト認識を行って、前記元特徴マップにおいてナンバープレート候補枠を決定するステップと、
前記ナンバープレート候補枠内にある前記元特徴マップを、前記ナンバープレート領域に対応する元特徴マップとするステップと、を含む、請求項5に記載のナンバープレート認識方法。 - 前記元画像の特徴抽出を行って、元特徴マップを取得するステップは、
前記元画像の文字領域を認識するステップと、
前記元画像内の前記文字領域、及び前記文字領域の外周の設定範囲の特徴抽出を行って、前記元特徴マップを取得するステップと、を含む、請求項5に記載のナンバープレート認識方法。 - ナンバープレート認識モデルの訓練方法であって、
複数の訓練画像を取得するステップと、
前記複数の訓練画像を用いてナンバープレート認識モデルを訓練するステップであって、前記ナンバープレート認識モデルは、特徴抽出ネットワークと認識ネットワークとを含むステップと、を含み、
前記特徴抽出ネットワークは、ナンバープレート領域の特徴マップを取得するように構成され、前記特徴マップには複数の特徴ベクトルが含まれ、
前記認識ネットワークは、前記複数の特徴ベクトルを、第1順序で第1リカレントニューラルネットワークに順次入力してエンコードして、各前記特徴ベクトルの第1コードを取得し、前記複数の特徴ベクトルを、第2順序で第2リカレントニューラルネットワークに順次入力してエンコードして、各前記特徴ベクトルの第2コードを取得し、各前記特徴ベクトルの第1コード及び各前記特徴ベクトルの第2コードに基づいて、複数の前記特徴ベクトルの複数のターゲットコードを生成し、複数の前記ターゲットコードをデコードしてナンバープレート内の複数の文字を取得するように構成される、ナンバープレート認識モデルの訓練方法。 - 訓練画像を取得するステップは、
ナンバープレートセット及び車両外観画像を取得するステップと、
前記ナンバープレートセット内の複数のナンバープレートに基づいて、各前記ナンバープレートに対応するナンバープレート画像を生成するステップと、
各前記ナンバープレートに対応するナンバープレート画像を、前記車両画像とそれぞれ合成し、各前記ナンバープレートに対応する訓練画像を取得するステップと、
各前記訓練画像に、対応する前記ナンバープレートを用いてラベルを付けるステップと、を含む、請求項8に記載の訓練方法。 - ナンバープレート認識装置であって、
ナンバープレート領域の特徴マップを取得するように構成される取得モジュールであって、前記特徴マップには複数の特徴ベクトルが含まれる取得モジュールと、
前記複数の特徴ベクトルを、第1順序で第1リカレントニューラルネットワークに順次入力してエンコードして、各前記特徴ベクトルの第1コードを取得するように構成される第1エンコードモジュールと、
前記複数の特徴ベクトルを、第2順序で第2リカレントニューラルネットワークに順次入力してエンコードして、各前記特徴ベクトルの第2コードを取得するように構成される第2エンコードモジュールと、
各前記特徴ベクトルの第1コード及び各前記特徴ベクトルの第2コードに基づいて、複数の前記特徴ベクトルの複数のターゲットコードを生成するように構成される生成モジュールと、
複数の前記ターゲットコードをデコードして、ナンバープレート内の複数の文字を取得するように構成されるデコードモジュールと、を含む、ナンバープレート認識装置。 - 前記生成モジュールは、
前記特徴ベクトルごとに、前記第1コードと前記第2コードとをスプライスして、前記複数のターゲットコードを取得するように構成されるスプライスユニットを含む、請求項10に記載のナンバープレート認識装置。 - 前記デコードモジュールは、
前記複数のターゲットコードを第3のリカレントニューラルネットワークを用いて順次デコードして、複数のデコードベクトルを取得するように構成されるデコードユニットと、
前記複数のデコードベクトルに基づいて、ナンバープレート内の複数の文字を決定するように構成される第1決定ユニットと、を含む、請求項10に記載のナンバープレート認識装置。 - 前記デコードユニットは、さらに、
前記第3のリカレントニューラルネットワークを用いて複数回のデコードプロセスを実行するように構成され、
各回の前記デコードプロセスは、
今回のデコードのターゲットコードを取得するステップと、
前回のデコードにおいて前記第3のリカレントニューラルネットワークによって出力されたシステム状態ベクトルと、前記今回のデコードのターゲットコードとの類似度を決定するステップと、
前記類似度に基づいて、前記今回のデコードのターゲットコードに重みを付けて、今回の重み付けコードを取得するステップと、
前記今回の重み付けコード、前記前回のデコードにおいて出力されたシステム状態ベクトル及び前回のデコードにおいて出力されたデコードベクトルを、前記リカレントニューラルネットワークに入力して、今回のデコードのシステム状態ベクトル及び今回のデコードのデコードベクトルを出力するステップと、を含み、
初回の前記デコードプロセスは、
設定された開始識別子を、前記前回のデコードにおいて出力されたデコードベクトルとして決定するステップと、
最終回のエンコードにおいて前記第2リカレントニューラルネットワークによって出力されたシステム状態ベクトルを、前記前回のデコードにおいて出力されたシステム状態ベクトルとして決定するステップと、をさらに含む、請求項12に記載のナンバープレート認識装置。 - 前記取得モジュールは、
元画像を取得するように構成される取得ユニットと、
前記元画像の特徴抽出を行って、元特徴マップを取得するように構成される抽出ユニットと、
前記元特徴マップから、ナンバープレート領域に対応する元特徴マップを決定するように構成される第2決定ユニットと、
前記ナンバープレート領域に対応する元特徴マップに対して透視変換を行って、前記ナンバープレート領域に対応するターゲット特徴マップを取得するように構成される変換ユニットと、を含む、請求項10〜13のいずれか1項に記載のナンバープレート認識装置。 - 前記第2決定ユニットは、前記元特徴マップを完全畳み込みネットワークに入力してオブジェクト認識を行って、前記元特徴マップにおいてナンバープレート候補枠を決定し、
前記ナンバープレート候補枠内にある前記元特徴マップを、前記ナンバープレート領域に対応する元特徴マップとするように構成される、請求項14に記載のナンバープレート認識装置。 - 前記抽出ユニットは、さらに、
前記元画像の文字領域を認識し、
前記元画像内の前記文字領域、及び前記文字領域の外周の設定範囲の特徴抽出を行って、前記元特徴マップを取得するように構成される、請求項14に記載のナンバープレート認識装置。 - ナンバープレート認識モデルの訓練装置であって、
複数の訓練画像を取得するように構成される取得モジュールと、
前記複数の訓練画像を用いてナンバープレート認識モデルを訓練するように構成される訓練モジュールであって、前記ナンバープレート認識モデルは、特徴抽出ネットワークと認識ネットワークとを含む訓練モジュールと、を含み、
前記特徴抽出ネットワークは、ナンバープレート領域の特徴マップを取得するように構成され、前記特徴マップには複数の特徴ベクトルが含まれ、
前記認識ネットワークは、前記複数の特徴ベクトルを、第1順序で第1リカレントニューラルネットワークに順次入力してエンコードして、各前記特徴ベクトルの第1コードを取得し、前記複数の特徴ベクトルを、第2順序で第2リカレントニューラルネットワークに順次入力してエンコードして、各前記特徴ベクトルの第2コードを取得し、各前記特徴ベクトルの第1コード及び各前記特徴ベクトルの第2コードに基づいて、複数の前記特徴ベクトルの複数のターゲットコードを生成し、複数の前記ターゲットコードをデコードしてナンバープレート内の複数の文字を取得するように構成される、ナンバープレート認識モデルの訓練装置。 - 前記取得モジュールは、
ナンバープレートセット及び車両外観画像を取得するように構成される取得ユニットと、
前記ナンバープレートセット内の複数のナンバープレートに基づいて、各前記ナンバープレートに対応するナンバープレート画像を生成するように構成される生成ユニットと、
各前記ナンバープレートに対応するナンバープレート画像を前記車両画像とそれぞれ合成し、各前記ナンバープレートに対応する訓練画像を取得するように構成される合成ユニットと、
各前記訓練画像に、対応する前記ナンバープレートを用いてラベルを付けるように構成されるラベル付けユニットと、を含む、請求項17に記載の訓練装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されたメモリと、を含み、
前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令が前記少なくとも1つのプロセッサによって実行される場合、前記少なくとも1つのプロセッサが請求項1〜7のいずれか1項に記載のナンバープレート認識方法、又は、請求項8又は9に記載のナンバープレート認識モデルの訓練方法を実行可能である、電子機器。 - コンピュータ命令が記憶された非一時的コンピュータ読み取り可能な記憶媒体であって、前記コンピュータ命令は、前記コンピュータに請求項1〜7のいずれか1項に記載のナンバープレート認識方法、又は、請求項8又は9に記載のナンバープレート認識モデルの訓練方法を実行させる、非一時的コンピュータ読み取り可能な記憶媒体。
- コンピュータに請求項1〜7のいずれか1項に記載のナンバープレート認識方法、又は、請求項8又は9に記載のナンバープレート認識モデルの訓練方法を実行させる、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010536808.7A CN111832568B (zh) | 2020-06-12 | 2020-06-12 | 车牌识别方法、车牌识别模型的训练方法和装置 |
CN202010536808.7 | 2020-06-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021119506A true JP2021119506A (ja) | 2021-08-12 |
JP7166388B2 JP7166388B2 (ja) | 2022-11-07 |
Family
ID=72897932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021076270A Active JP7166388B2 (ja) | 2020-06-12 | 2021-04-28 | ナンバープレート認識方法、ナンバープレート認識モデルの訓練方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210209395A1 (ja) |
EP (1) | EP3907660A1 (ja) |
JP (1) | JP7166388B2 (ja) |
KR (1) | KR20210080291A (ja) |
CN (1) | CN111832568B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115937837A (zh) * | 2022-11-09 | 2023-04-07 | 粤丰科盈智能投资(广东)有限公司 | 一种基于位置编码的车牌检测方法、装置及计算机可读存储介质 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112508018A (zh) * | 2020-12-14 | 2021-03-16 | 北京澎思科技有限公司 | 车牌识别方法、装置及存储介质 |
CN113191220A (zh) * | 2021-04-15 | 2021-07-30 | 广州紫为云科技有限公司 | 一种基于深度学习的双层车牌识别方法 |
CN113807361B (zh) * | 2021-08-11 | 2023-04-18 | 华为技术有限公司 | 神经网络、目标检测方法、神经网络训练方法及相关产品 |
KR102479671B1 (ko) * | 2021-11-30 | 2022-12-21 | 주식회사 오토피디아 | 차량 부품 정보를 제공하기 위한 방법 |
CN114945108A (zh) * | 2022-05-14 | 2022-08-26 | 云知声智能科技股份有限公司 | 一种用于辅助视觉障碍者理解图片的方法及装置 |
KR102642630B1 (ko) | 2023-04-03 | 2024-03-05 | 주식회사 이투온 | 식별 장치 및 이를 이용한 차량 번호판 인식 방법 |
CN117558136A (zh) * | 2023-11-18 | 2024-02-13 | 广东有位智能科技有限公司 | 一种地区车牌智能识别系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342880A (ja) * | 2001-05-18 | 2002-11-29 | Hitachi Eng Co Ltd | 車番認識装置 |
CN110490179A (zh) * | 2018-05-15 | 2019-11-22 | 杭州海康威视数字技术股份有限公司 | 车牌识别方法、装置及存储介质 |
US20200167609A1 (en) * | 2018-11-22 | 2020-05-28 | Delta Electronics, Inc. | Object recognition system and method using simulated object images |
US20200175326A1 (en) * | 2018-12-04 | 2020-06-04 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9602728B2 (en) * | 2014-06-09 | 2017-03-21 | Qualcomm Incorporated | Image capturing parameter adjustment in preview mode |
CN107784303A (zh) * | 2016-12-15 | 2018-03-09 | 平安科技(深圳)有限公司 | 车牌识别方法及装置 |
CN107679531A (zh) * | 2017-06-23 | 2018-02-09 | 平安科技(深圳)有限公司 | 基于深度学习的车牌识别方法、装置、设备及存储介质 |
CN107704857B (zh) * | 2017-09-25 | 2020-07-24 | 北京邮电大学 | 一种端到端的轻量级车牌识别方法及装置 |
CN108229474B (zh) * | 2017-12-29 | 2019-10-01 | 北京旷视科技有限公司 | 车牌识别方法、装置及电子设备 |
US11170158B2 (en) * | 2018-03-08 | 2021-11-09 | Adobe Inc. | Abstractive summarization of long documents using deep learning |
TWI677826B (zh) * | 2018-09-19 | 2019-11-21 | 國家中山科學研究院 | 車牌辨識系統與方法 |
CN110163199A (zh) * | 2018-09-30 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 车牌识别方法、车牌识别装置、车牌识别设备及介质 |
CN110033003B (zh) * | 2019-03-01 | 2023-12-15 | 华为技术有限公司 | 图像分割方法和图像处理装置 |
CN110070085B (zh) * | 2019-04-30 | 2021-11-02 | 北京百度网讯科技有限公司 | 车牌识别方法和装置 |
CN111079753B (zh) * | 2019-12-20 | 2023-08-22 | 长沙千视通智能科技有限公司 | 一种基于深度学习与大数据结合的车牌识别方法及装置 |
-
2020
- 2020-06-12 CN CN202010536808.7A patent/CN111832568B/zh active Active
-
2021
- 2021-03-25 US US17/212,712 patent/US20210209395A1/en active Pending
- 2021-04-21 EP EP21169665.3A patent/EP3907660A1/en not_active Withdrawn
- 2021-04-28 JP JP2021076270A patent/JP7166388B2/ja active Active
- 2021-06-10 KR KR1020210075649A patent/KR20210080291A/ko not_active Application Discontinuation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002342880A (ja) * | 2001-05-18 | 2002-11-29 | Hitachi Eng Co Ltd | 車番認識装置 |
CN110490179A (zh) * | 2018-05-15 | 2019-11-22 | 杭州海康威视数字技术股份有限公司 | 车牌识别方法、装置及存储介质 |
US20200167609A1 (en) * | 2018-11-22 | 2020-05-28 | Delta Electronics, Inc. | Object recognition system and method using simulated object images |
US20200175326A1 (en) * | 2018-12-04 | 2020-06-04 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115937837A (zh) * | 2022-11-09 | 2023-04-07 | 粤丰科盈智能投资(广东)有限公司 | 一种基于位置编码的车牌检测方法、装置及计算机可读存储介质 |
CN115937837B (zh) * | 2022-11-09 | 2023-10-27 | 粤丰科盈智能投资(广东)有限公司 | 一种基于位置编码的车牌检测方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111832568A (zh) | 2020-10-27 |
JP7166388B2 (ja) | 2022-11-07 |
US20210209395A1 (en) | 2021-07-08 |
KR20210080291A (ko) | 2021-06-30 |
CN111832568B (zh) | 2024-01-12 |
EP3907660A1 (en) | 2021-11-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021119506A (ja) | ナンバープレート認識方法、ナンバープレート認識モデルの訓練方法及び装置 | |
Cui et al. | Deep learning for image and point cloud fusion in autonomous driving: A review | |
Zhang et al. | Vision-based parking-slot detection: A DCNN-based approach and a large-scale benchmark dataset | |
Kondapally et al. | Towards a Transitional Weather Scene Recognition Approach for Autonomous Vehicles | |
Li et al. | Stepwise domain adaptation (SDA) for object detection in autonomous vehicles using an adaptive CenterNet | |
Khalid et al. | Automatic measurement of the traffic sign with digital segmentation and recognition<? show [AQ ID= Q1]?> | |
GB2596370A (en) | Model training method and apparatus, and prediction method and apparatus | |
Hu et al. | Learning discriminative pattern for real-time car brand recognition | |
Zhang et al. | A semi-supervised 3D object detection method for autonomous driving | |
WO2022000469A1 (en) | Method and apparatus for 3d object detection and segmentation based on stereo vision | |
Vasamsetti et al. | Automatic underwater moving object detection using multi‐feature integration framework in complex backgrounds | |
Tang et al. | Multi-modality 3D object detection in autonomous driving: A review | |
Liu et al. | SLPR: A deep learning based chinese ship license plate recognition framework | |
Lei et al. | MFP‐Net: Multi‐scale feature pyramid network for crowd counting | |
Liao et al. | Multi-scale saliency features fusion model for person re-identification | |
Rao et al. | In-vehicle object-level 3D reconstruction of traffic scenes | |
CN116229406B (zh) | 车道线检测方法、系统、电子设备及存储介质 | |
Shi et al. | Context‐guided ground truth sampling for multi‐modality data augmentation in autonomous driving | |
Huang et al. | Overview of LiDAR point cloud target detection methods based on deep learning | |
Shen et al. | Joint vehicle detection and distance prediction via monocular depth estimation | |
Tan et al. | 3D detection transformer: Set prediction of objects using point clouds | |
Li et al. | Monocular 3-D Object Detection Based on Depth-Guided Local Convolution for Smart Payment in D2D Systems | |
Lee et al. | SAM-Net: LiDAR depth inpainting for 3D static map generation | |
WO2023105800A1 (en) | Object detection device, object detection method, and object detection system | |
Yuan et al. | A multi‐scale feature representation and interaction network for underwater object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7166388 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |