JP2017516197A - Method and apparatus for recognizing traffic signs - Google Patents

Method and apparatus for recognizing traffic signs Download PDF

Info

Publication number
JP2017516197A
JP2017516197A JP2016559945A JP2016559945A JP2017516197A JP 2017516197 A JP2017516197 A JP 2017516197A JP 2016559945 A JP2016559945 A JP 2016559945A JP 2016559945 A JP2016559945 A JP 2016559945A JP 2017516197 A JP2017516197 A JP 2017516197A
Authority
JP
Japan
Prior art keywords
image
traffic sign
window image
predetermined
scan window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016559945A
Other languages
Japanese (ja)
Other versions
JP6400117B2 (en
Inventor
ヂフイ ハオ
ヂフイ ハオ
ニン ワン
ニン ワン
レイミン ゲ
レイミン ゲ
Original Assignee
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド, バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド filed Critical バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド
Publication of JP2017516197A publication Critical patent/JP2017516197A/en
Application granted granted Critical
Publication of JP6400117B2 publication Critical patent/JP6400117B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

本出願は交通標識を認識する方法及び装置を開示する。前記方法の一具体的な実施形態は、全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得するステップと、前記スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得するステップと、予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得するステップと、を含んでおり、ここで、前記予め訓練された検出分類器モデルはスキャンウィンドウ画像のサンプル及びその特徴値に基づいて訓練して得られ、前記予め訓練された畳み込みニューラルネットワークモデルは確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて訓練して得られ。該実施形態によれば、パノラマ画像に交通標識を検出して認識する正確さを向上させるとともに、道路網データの更新効率を向上させる。【選択図】図1The present application discloses a method and apparatus for recognizing traffic signs. One specific embodiment of the method includes the step of obtaining a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by dividing by a spherical image, and the scan Detecting a scan window image based on a feature value of the window image and a pretrained detection classifier model, obtaining a traffic sign window image to be confirmed, and a pretrained convolutional neural network model Recognizing a traffic sign window image to be confirmed and obtaining a traffic sign type, wherein the pre-trained detection classifier model comprises a sample scan window image and its The pre-trained convolution menu obtained by training based on the feature values. Le network model obtained by training on the basis of the sample and its traffic sign kinds of traffic signs window image was confirmed. According to this embodiment, the accuracy of detecting and recognizing traffic signs in a panoramic image is improved, and the efficiency of updating road network data is improved. [Selection] Figure 1

Description

優先権要求Priority request

本出願は2015年03月31日に提出された、中国特許出願番号が「201510150525.8」である優先権を主張し、当該特許出願の全文を援用するように本願に組み込んだ。   This application claims priority, filed on Mar. 31, 2015, with a Chinese patent application number of “201510150525.8” and is incorporated herein by reference in its entirety.

本出願はコンピュータ技術分野に関し、具体的にコンピュータターゲット認識技術分野に関し、特に交通標識を認識する方法及び装置に関する。   The present application relates to the field of computer technology, specifically to the field of computer target recognition, and more particularly to a method and apparatus for recognizing traffic signs.

正確で全面的なナビゲーションデータを提供するために、交通道路網における交通標識を認識する必要がある。   In order to provide accurate and complete navigation data, it is necessary to recognize traffic signs in the traffic road network.

従来の交通標識を認識する方法は、主に人工処理に依存して、予め特定のプログラムソフトウェアとベースマップデータを収集車に配置し、訓練されたフィールドワーカーにより車に追従して操作し、交通標識を見ると、作業者はタイプと目視距離を手動的にソフトウェアに入力し、フィールドの収集が終了した後に、更に屋内労働者により作業前後のベースマップを比較して、有効な情報を道路網データベースに更新する。この過程は多種のソフトウェアツールのサポートを必要とするが、データ成果の正確さは主に作業者の個人の能力及び集中度によって決められ、同時に、複雑な収集プロセスは道路網データの更新効率を低下させる。   The conventional method of recognizing traffic signs mainly depends on artificial processing, placing specific program software and base map data in a collection vehicle in advance, and following the vehicle by a trained field worker and operating it. When looking at the sign, the worker manually enters the type and viewing distance into the software, and after field collection is complete, the indoor worker compares the pre- and post-work base maps to provide useful information to the road network. Update to the database. This process requires the support of a variety of software tools, but the accuracy of data outcomes is determined primarily by the individual ability and concentration of the operator, while at the same time the complex collection process increases the efficiency of updating road network data. Reduce.

本出願は、以上の背景技術に記載された技術問題を解決するために、交通標識を認識する方法及び装置を提供することを目的とする。   The present application aims to provide a method and apparatus for recognizing traffic signs in order to solve the technical problems described in the background art.

一様態において、本出願は交通標識を認識する方法を提供し、この方法は、全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得するステップと、前記スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得するステップと、予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得するステップと、を含んでおり、ここで、前記予め訓練された検出分類器モデルはスキャンウィンドウ画像のサンプル及びその特徴値に基づいて訓練して得られ、前記予め訓練された畳み込みニューラルネットワークモデルは確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて訓練して得られる。   In one aspect, the present application provides a method for recognizing traffic signs, which is obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by dividing by a omnidirectional image. Obtaining a feature value; detecting a scan window image based on the feature value of the scan window image and a pre-trained detection classifier model; obtaining a traffic sign window image to be confirmed; Recognizing a traffic sign window image to be confirmed based on a pretrained convolutional neural network model and acquiring a traffic sign type, wherein the pretrained detection classification The instrument model is obtained by training based on scan window image samples and their feature values. , Neural network model convolution said predetermined training is obtained by training on the basis of the sample and its traffic sign kinds of traffic signs window image was confirmed.

他の様態において、本出願は交通標識を認識する装置を提供し、この装置は、全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得するための特徴値取得モジュールと、前記スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得するための交通標識検出モジュールと、予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得するための交通標識認識モジュールと、を備えており、ここで、前記予め訓練された検出分類器モデルはスキャンウィンドウ画像のサンプル及びその特徴値に基づいて訓練して得られ、前記予め訓練された畳み込みニューラルネットワークモデルは確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて訓練して得られる。   In another aspect, the present application provides an apparatus for recognizing traffic signs, which is obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by segmenting with a spherical image. A traffic sign window for detecting and confirming a scan window image based on a feature value acquisition module for acquiring the acquired feature value, a feature value of the scan window image, and a pre-trained detection classifier model A traffic sign detection module for acquiring an image, a traffic sign recognition module for recognizing a traffic sign window image to be confirmed based on a pretrained convolutional neural network model, and acquiring a traffic sign type Where the pre-trained detection classifier model is scanned Indou obtained by training on the basis of the sample and its feature value of the image, the neural network model convolution pre training is obtained by training on the basis of the sample and its traffic sign kinds of traffic signs window image was confirmed.

本出願による交通標識を認識する方法及び装置は、全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得して、続いて、前記スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得し、その後、予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得することによって、予め訓練された検出分類器モデルによって確認しようとする交通標識ウィンドウ画像を検出して、予め訓練された畳み込みニューラルネットワークモデルによって交通標識種類を認識することを実現し、パノラマ画像での交通標識を検出して認識する正確さを向上させるとともに、道路網データの更新効率を向上させる。   A method and apparatus for recognizing a traffic sign according to the present application obtains a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by dividing a spherical image, and then continues. Based on the feature value of the scan window image and a pre-trained detection classifier model, the scan window image is detected to obtain a traffic sign window image to be confirmed, and then pre-trained convolution Based on the neural network model, by recognizing the traffic sign window image to be confirmed and obtaining the traffic sign type, the traffic sign window image to be confirmed is detected by the pre-trained detection classifier model. Traffic sign by pre-trained convolutional neural network model It realized to recognize the type, improves the accuracy of recognizing and detecting the traffic sign in a panorama image, to improve the update efficiency of road network data.

以下、図面を参照しながら非限定的な実施例を詳細に説明することにより、本発明の他の特徴、目的、及び利点は、より明らかになる。
本出願の実施例による交通標識を認識する方法を示す例示的なフローチャートである。 本出願の実施例による予め訓練された検出モデルを訓練する方法を示す例示的なフローチャートである。 本出願の実施例による確認しようとする交通標識ウィンドウ画像を取得する方法を示す例示的なフローチャートである。 本出願の実施例による予め訓練された畳み込みニューラルネットワークモデルを訓練する方法を示す例示的なフローチャートである。 本出願の実施例による所定の畳み込みニューラルネットワークモデルを示す例示的な構造図である。 本出願の実施例による交通標識を認識する装置を示す構造模式図である。 本出願の実施例による検出分類器モデル訓練装置を示す例示的な構造図である。 確認しようとする交通標識ウィンドウ画像を取得するための装置を示す例示的な構造図である。 本出願の実施例による予め訓練された畳み込みニューラルネットワークモデルを訓練するための装置を示す例示的な構造図である。 本出願の実施例によるコンピュータシステムを示す構造模式図である。
Other features, objects, and advantages of the present invention will become more apparent from the following detailed description of non-limiting embodiments with reference to the drawings.
4 is an exemplary flowchart illustrating a method for recognizing a traffic sign according to an embodiment of the present application. 4 is an exemplary flowchart illustrating a method for training a pre-trained detection model according to an embodiment of the present application. 6 is an exemplary flowchart illustrating a method for obtaining a traffic sign window image to be confirmed according to an embodiment of the present application. 4 is an exemplary flowchart illustrating a method for training a pretrained convolutional neural network model according to an embodiment of the present application. FIG. 3 is an exemplary structural diagram illustrating a predetermined convolutional neural network model according to an embodiment of the present application. It is a structure schematic diagram which shows the apparatus which recognizes the traffic sign by the Example of this application. FIG. 2 is an exemplary structural diagram illustrating a detection classifier model training device according to an embodiment of the present application; FIG. 2 is an exemplary structural diagram showing an apparatus for acquiring a traffic sign window image to be confirmed. FIG. 3 is an exemplary structural diagram illustrating an apparatus for training a pretrained convolutional neural network model according to an embodiment of the present application. 1 is a structural schematic diagram showing a computer system according to an embodiment of the present application.

以下、図面及び実施例を参照しながら、本発明をさらに詳しく説明する。ただし、ここで説明されている具体的な実施例は、係る発明を解釈するためのものに過ぎず、本発明の範囲を制限するものではないと理解されるべきである。また、説明の便宜上、図面に本発明と関連する部分のみが示されている。   Hereinafter, the present invention will be described in more detail with reference to the drawings and examples. However, it should be understood that the specific embodiments described herein are merely for interpreting the invention and do not limit the scope of the invention. For convenience of explanation, only the parts related to the present invention are shown in the drawings.

ただし、衝突がない限り、本願における実施例、及び実施例における特徴は、互いに組み合せてもよい。以下、図面を参照しながら実施例に基づいて本発明を詳細に説明する。   However, as long as there is no collision, the embodiments in the present application and the features in the embodiments may be combined with each other. Hereinafter, the present invention will be described in detail based on examples with reference to the drawings.

図1は本出願の実施例による交通標識を認識する方法を示す例示的なフローチャートである。   FIG. 1 is an exemplary flowchart illustrating a method for recognizing traffic signs according to an embodiment of the present application.

図1に示すように、交通標識を認識する方法100は、以下のステップを含んでもよい。   As shown in FIG. 1, the method 100 for recognizing traffic signs may include the following steps.

ステップ110:全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得する。   Step 110: Obtain a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by dividing the omnidirectional image.

ここで、まず交通標識を認識する必要がある全天球画像を取得し、次に、所定のサイズのウィンドウによって全天球画像をスキャンして、それによりスキャンウィンドウ画像を取得し、その後、更にスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得する。   Here, first, an omnidirectional image that needs to recognize a traffic sign is acquired, then, the omnidirectional image is scanned by a window of a predetermined size, thereby acquiring a scan window image, and then further A feature value obtained by a predetermined feature algorithm in a predetermined integration channel of the scan window image is acquired.

全天球画像とは複数枚の魚眼画像により接合してなるパノラマを表示できる画像である。所定のサイズのウィンドウは一般的に対象物体のサイズに基づいて所定のウィンドウである。   The omnidirectional image is an image that can display a panorama formed by joining a plurality of fisheye images. The window of a predetermined size is generally a predetermined window based on the size of the target object.

なお、スキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得する際に、所定の積分チャンネルは画像処理分野における従来技術においていずれか1種又は多種の積分チャンネルであってもよく、又は将来の技術において発展する可能性があるいずれか1種又は多種の積分チャンネルであってもよく、所定の特徴アルゴリズムは画像処理分野における従来技術においていずれか1種又は多種の特徴アルゴリズムであってもよく、将来の技術において発展する可能性があるいずれか1種又は多種の特徴アルゴリズムであってもよい。本出願では、具体的な特徴値を取得する方式に制限されなく、ユーザにより実際の使用需要に応じて選択することができる。例えば、グレースケール画像チャネルにハールアルゴリズムによってハール(haar)特徴値を取得することができ、異なる角度パラメータの勾配画像チャンネルにヒストグラム特徴値アルゴリズムによってヒストグラム特徴値を取得し、同時に、赤、緑、青モノクロ画像チャンネルにおいてランダムペア特徴値アルゴリズムによってランダムペア特徴値などを取得する。   It should be noted that when acquiring a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image, the predetermined integration channel is any one type or various types of integration channels in the prior art in the image processing field. There may be any one or many integration channels that may be developed in future technology, and the predetermined feature algorithm is any one or many in the prior art in the image processing field. It may be a feature algorithm or any one or many feature algorithms that may develop in future technologies. In this application, it is not restricted to the system which acquires a specific feature value, It can select according to an actual use demand by a user. For example, a haar feature value can be obtained by a Haar algorithm for a grayscale image channel, and a histogram feature value can be obtained by a histogram feature value algorithm for a gradient image channel with different angular parameters, and at the same time, red, green, blue Random pair feature values and the like are acquired by a random pair feature value algorithm in the monochrome image channel.

スキャンウィンドウ画像の特徴値を取得する速度を更に向上させるために、積分画像によってスキャンウィンドウ画像の特徴値を取得することができ、選択的に、上記実施例において、ステップ110は、全天球画像により所定の積分チャンネルの積分画像で分割して得られたスキャンウィンドウ画像の積分画像を取得するステップ111、及びスキャンウィンドウ画像の積分画像に基づいて、スキャンウィンドウ画像の特徴値を取得するステップ112を含んでもよい。   In order to further improve the speed of acquiring the feature value of the scan window image, the feature value of the scan window image can be acquired by the integral image. Optionally, in the above embodiment, step 110 is the omnidirectional image. Step 111 for acquiring an integrated image of the scan window image obtained by dividing the integrated image of the predetermined integration channel by step 111, and step 112 for acquiring the feature value of the scan window image based on the integrated image of the scan window image. May be included.

上記の全天球画像の積分画像を使用してスキャンウィンドウ画像の特徴値を計算することによって、スキャンウィンドウ画像の特徴値の計算を加速して、スキャンウィンドウ画像の特徴値の計算効率を向上させることができる。   By calculating the feature value of the scan window image using the integral image of the omnidirectional image described above, the calculation of the feature value of the scan window image is accelerated and the calculation efficiency of the feature value of the scan window image is improved. be able to.

選択的に、スキャンウィンドウ画像の特徴値と、予め訓練された監視分類器モデルにおける交通標識ウィンドウ画像のサンプルの特徴値との比較を加速するために、交通標識の種類によって、交通標識ウィンドウ画像のサンプルの特徴値及びスキャンウィンドウ画像の特徴値を取得する所定の積分チャンネル及び所定の特徴アルゴリズムを確定することができる。例えば速度制限などのような禁止類標識に対して、赤色チャンネルにおける説明を強化することができる。好ましくは、所定の積分チャンネルは、グレースケール画像チャネル、赤、緑、青モノクロ画像チャンネル、異なる角度パラメータの勾配画像チャンネル、及びエッジ検出画像チャンネルなどの1項又は複数項を含んでもよく、そして、所定の特徴アルゴリズムは、ハール特徴アルゴリズム、ローカルバイナリパターン特徴アルゴリズム、ヒストグラム特徴アルゴリズム及びランダムペア特徴アルゴリズムなどの1項又は複数項を含んでもよい。スキャンウィンドウ画像を検出することに必要な特徴値を取得するように、上記実施例における所定の積分チャンネルと所定の特徴アルゴリズムを必要に応じて組み合わせてよいことを、当業者が理解すべきである。   Optionally, depending on the type of traffic sign, depending on the type of traffic sign window image, in order to accelerate the comparison between the feature value of the scan window image and the feature value of the traffic sign window image sample in the pre-trained surveillance classifier model. A predetermined integration channel and a predetermined feature algorithm for acquiring the sample feature value and the scan window image feature value can be determined. The description in the red channel can be strengthened for forbidden indicators such as speed limits, for example. Preferably, the predetermined integration channel may include one or more terms such as a gray scale image channel, a red, green, blue monochrome image channel, a gradient image channel with different angular parameters, and an edge detection image channel, and The predetermined feature algorithm may include one or more terms such as a Haar feature algorithm, a local binary pattern feature algorithm, a histogram feature algorithm, and a random pair feature algorithm. It should be understood by those skilled in the art that the predetermined integration channel and the predetermined feature algorithm in the above embodiment may be combined as necessary to obtain the characteristic values necessary to detect the scan window image. .

上記の交通標識の種類によって確定された交通標識ウィンドウ画像のサンプルの特徴値及びスキャンウィンドウ画像の特徴値を取得する所定の積分チャンネル及び所定の特徴アルゴリズムによれば、複数の異なる角度から対象の特性を説明することができ、それにより対象が異なる角度と光照による変化を吸収する。   According to the predetermined integration channel and the predetermined feature algorithm for acquiring the characteristic value of the sample of the traffic sign window image and the characteristic value of the scan window image determined by the type of the traffic sign, the characteristic of the object from a plurality of different angles Can be explained, so that the object absorbs changes due to different angles and illumination.

ステップ120:スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得し、ここで、予め訓練された検出分類器モデルはスキャンウィンドウ画像のサンプル及びその特徴値に基づいて訓練して得られる。   Step 120: Based on the feature value of the scan window image and the pre-trained detection classifier model, the scan window image is detected and the traffic sign window image to be confirmed is obtained, where the pre-trained The detection classifier model is obtained by training based on a sample of the scan window image and its feature value.

ここで、予め訓練された検出分類器モデルは、まず手動マーキングを受信して、スキャンウィンドウ画像において交通標識を含むスキャンウィンドウ画像と交通標識を含まないスキャンウィンドウ画像を交通標識ウィンドウ画像のサンプルとして確定し、その後サンプルの特徴値を取得してから、サンプル及びその特徴値を使用して、実際の需要に応じて設定された分類器モデルのパラメータを訓練して、それにより予め訓練された検出分類器モデルを取得する。   Here, the pre-trained detection classifier model first receives the manual marking and determines the scan window image including the traffic sign and the scan window image not including the traffic sign as the sample of the traffic sign window image in the scan window image. Then, after obtaining the sample feature value, the sample and its feature value are used to train the classifier model parameters set according to actual demand, thereby pre-trained detection classification Get a vessel model.

上記ステップ101においてスキャンウィンドウ画像の特徴値が取得された後に、スキャンウィンドウ画像の特徴値と上記予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出し、交通標識と思われるウィンドウ画像を取得して確認しようとする交通標識ウィンドウ画像とすることができる。   After the feature value of the scan window image is acquired in the above step 101, the scan window image is detected based on the feature value of the scan window image and the detection trainer model trained in advance, and the window that seems to be a traffic sign It can be a traffic sign window image to be acquired and confirmed.

ステップS130:予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得し、ここで、予め訓練された畳み込みニューラルネットワークモデルは確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて訓練して得られる。   Step S130: Based on the pretrained convolutional neural network model, the traffic sign window image to be confirmed is recognized and the traffic sign type is obtained, where the pretrained convolutional neural network model is confirmed. It is obtained by training based on a sample of a traffic sign window image and its traffic sign type.

ここで、予め訓練された畳み込みニューラルネットワークモデルは、まず手動マーキングを受信して、検出分類器モデルが検出してきた確認しようとする交通標識ウィンドウ画像のサンプルを分類して、具体的な交通標識種類又は非交通種類にマーキングし、その後確認しようとする交通標識ウィンドウ画像のサンプル及びその交通標識種類によって、実際の需要に応じて設定された畳み込みニューラルネットワークモデルを訓練して、それにより予め訓練された畳み込みニューラルネットワークモデルを取得する。   Here, the pre-trained convolutional neural network model first receives the manual marking, classifies the sample of the traffic sign window image to be confirmed detected by the detection classifier model, and the specific traffic sign type Alternatively, a convolutional neural network model set according to actual demand is trained according to a sample of a traffic sign window image to be marked and then to be confirmed and its traffic sign type, and then trained in advance. Get a convolutional neural network model.

上記のステップ102において確認しようとする交通標識ウィンドウ画像が取得された後に、確認しようとする交通標識ウィンドウ画像と上記予め訓練された畳み込みニューラルネットワークモデルとに基づいて、確認しようとする交通標識ウィンドウ画像を認識することができ、確認しようとする交通標識ウィンドウ画像に対応する確率が最大の交通標識種類を認識された交通標識種類とする。   After the traffic sign window image to be confirmed in step 102 is acquired, the traffic sign window image to be confirmed is determined based on the traffic sign window image to be confirmed and the pretrained convolutional neural network model. The traffic sign type with the highest probability corresponding to the traffic sign window image to be confirmed is set as the recognized traffic sign type.

本出願の上記実施例の交通標識を認識する方法によれば、パノラマ画像に交通標識を検出して認識する正確さを向上させるとともに、道路網データの更新効率を向上させる。   According to the method for recognizing a traffic sign in the above embodiment of the present application, the accuracy of detecting and recognizing the traffic sign in the panoramic image is improved and the efficiency of updating the road network data is improved.

以下、図2を参照して予め訓練された検出モデルを訓練する方法を説明する。   Hereinafter, a method of training a detection model trained in advance will be described with reference to FIG.

図2は本出願の実施例による予め訓練された検出モデルを訓練する方法を示す例示的なフローチャートである。 FIG. 2 is an exemplary flowchart illustrating a method for training a pre-trained detection model according to an embodiment of the present application.

図2に示すように、予め訓練された検出分類器モデルを訓練する方法200は以下のステップを含んでもよい。   As shown in FIG. 2, a method 200 for training a pre-trained detection classifier model may include the following steps.

ステップ201において、スキャンウィンドウ画像のサンプルにおける陽性サンプルと陰性サンプルを取得し、ここで、陽性サンプルは交通標識のウィンドウ画像を含むか又は交通標識とその周囲に所定の画素が拡張されたウィンドウ画像を含み、陰性サンプルは陽性サンプルを除外したスキャンウィンドウ画像を含む。   In step 201, a positive sample and a negative sample in a sample of the scan window image are obtained, wherein the positive sample includes a window image of a traffic sign or a window image in which a predetermined pixel is expanded around the traffic sign and its surroundings. Including negative samples include scan window images excluding positive samples.

ここで、スキャンウィンドウ画像のサンプルにおける陽性サンプルと陰性サンプルについては、まずスキャンウィンドウ画像からサンプルを取得して、その後に受信した手動マーキングに従って、上記スキャンウィンドウ画像のサンプルにおいて交通標識を含むウィンドウ画像又は交通標識とその周囲に所定の画素が拡張されたウィンドウ画像を陽性サンプルとして、サンプルにおける陽性サンプルを除外したスキャンウィンドウ画像を陰性サンプルとする。   Here, for the positive sample and the negative sample in the sample of the scan window image, first, the sample is obtained from the scan window image, and then the window image including the traffic sign in the sample of the scan window image according to the received manual marking or A window image in which a traffic sign and surrounding pixels are expanded is defined as a positive sample, and a scan window image obtained by excluding positive samples in the sample is defined as a negative sample.

上記陽性サンプルが交通標識のウィンドウ画像のみを含む際に、陽性サンプルの特徴値を計算する効率を向上させることができる。対象物体の周囲の画素も対象物体の自身を効果的に説明することができるのを考慮すれば、陽性サンプルが交通標識及びその周囲に所定の画素を拡張するウィンドウ画像を含む際に、陽性サンプルの特徴値を説明する正確さを向上させることができる。   When the positive sample includes only a window image of a traffic sign, the efficiency of calculating the characteristic value of the positive sample can be improved. Considering that the pixels around the target object can also effectively describe the target object itself, the positive sample when the positive sample includes a traffic sign and a window image that extends a predetermined pixel around it It is possible to improve the accuracy of describing the feature value of.

ステップ202において、陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得する。   In step 202, feature values obtained by a predetermined feature algorithm for a positive sample and a negative sample in a predetermined integration channel are obtained.

ここで、陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得する際に、所定の積分チャンネルは画像処理分野における従来技術においていずれか1種又は多種の積分チャンネルであってもよく、又は将来の技術において発展する可能性があるいずれか1種又は多種の積分チャンネルであってもよく、所定の特徴アルゴリズムは画像処理分野における従来技術においていずれか1種又は多種の特徴アルゴリズムであってもよく、将来の技術において発展する可能性があるいずれか1種又は多種の特徴アルゴリズムであってもよい。本出願では、具体的な特徴値を取得する所定の積分チャンネル及び所定の特徴アルゴリズムに制限されなく、ユーザにより実際の使用需要に応じて選択することができる。例えば、グレースケール画像チャネルにハールアルゴリズムによって取得されたハール(haar)特徴値、異なる角度パラメータの勾配画像チャンネルにヒストグラム特徴値アルゴリズムによって取得されたヒストグラム特徴値、赤、緑、青モノクロ画像チャンネルにランダムペア特徴値アルゴリズムによって取得されたランダムペア特徴値などである。   Here, when acquiring the characteristic values obtained by the predetermined feature algorithm in the predetermined integration channel of the positive sample and the negative sample, the predetermined integration channel is any one or various types in the conventional technology in the image processing field. It may be an integration channel, or any one or many types of integration channels that may develop in future technology, and the predetermined feature algorithm is any one in the prior art in the image processing field. Alternatively, it may be a variety of feature algorithms, or any one or a variety of feature algorithms that may develop in future technologies. In the present application, the present invention is not limited to a predetermined integration channel and a predetermined feature algorithm for obtaining a specific feature value, and can be selected according to an actual use demand by a user. For example, haar feature values obtained by the Haar algorithm for grayscale image channels, histogram feature values obtained by the histogram feature value algorithm for gradient image channels with different angular parameters, and random for red, green and blue monochrome image channels Random pair feature values obtained by the pair feature value algorithm.

選択的に、サンプルの特徴値を具体的に計算する際に、陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を迅速で効果的に取得するために、交通標識の種類によって、交通標識ウィンドウ画像のサンプルの所定の積分チャンネル及び所定の特徴アルゴリズムを確定することができる。例えば速度制限などのような禁止類標識に対して、赤色チャンネルに対する説明を強化することができる。好ましくは、所定の積分チャンネルは、グレースケール画像チャネル、赤、緑、青モノクロ画像チャンネル、異なる角度パラメータの勾配画像チャンネル、及びエッジ検出画像チャンネルなどのうちの1項又は複数項を含んでもよく、及び所定の特徴アルゴリズムは、ハール特徴アルゴリズム、ローカルバイナリパターン特徴アルゴリズム、ヒストグラム特徴アルゴリズム及びランダムペア特徴アルゴリズムなどのうちの1項又は複数項を含んでもよい。陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得するように、上記実施例における所定の積分チャンネルと所定の特徴アルゴリズムとを必要に応じて組み合わせてもよいことを、当業者が理解すべきである。   Optionally, when specifically calculating sample feature values, in order to quickly and effectively obtain the feature values obtained by a given feature algorithm in a given integration channel for positive and negative samples, Depending on the type of traffic sign, a predetermined integration channel and a predetermined feature algorithm of a sample of the traffic sign window image can be determined. The description for the red channel can be strengthened for prohibition indicators such as speed limits. Preferably, the predetermined integration channel may include one or more of a grayscale image channel, a red, green, blue monochrome image channel, a gradient image channel with different angular parameters, an edge detection image channel, etc. The predetermined feature algorithm may include one or more of a Haar feature algorithm, a local binary pattern feature algorithm, a histogram feature algorithm, a random pair feature algorithm, and the like. The predetermined integration channel and the predetermined feature algorithm in the above embodiment may be combined as necessary so as to obtain the characteristic values obtained by the predetermined feature algorithm in the predetermined integration channel of the positive sample and the negative sample. It should be appreciated by those skilled in the art.

ステップ203において、陽性サンプル及び陰性サンプルと、陽性サンプル及び陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値とに基づいて、boostingアルゴリズムによって検出分類器モデルを訓練して、予め訓練された検出分類器モデルを取得する。   In step 203, training the detection classifier model with a boosting algorithm based on the positive and negative samples and the feature values obtained by the predetermined feature algorithm in a predetermined integration channel of the positive and negative samples; Obtain a pre-trained detection classifier model.

ここで、上記ステップ202において陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得した後に、boostingアルゴリズムによって検出分類器モデルを訓練することができ、それにより高い正確さの結果分類器を予め訓練された検出分類器モデルとして取得する。   Here, after obtaining the feature values obtained by the predetermined feature algorithm in the predetermined integration channel of the positive sample and the negative sample in the above step 202, the detection classifier model can be trained by the boosting algorithm, thereby A high accuracy result classifier is obtained as a pretrained detection classifier model.

以下、図3を参照して、上記実施例をもとにして確認しようとする交通標識ウィンドウ画像を取得する方法を説明する。   Hereinafter, a method for acquiring a traffic sign window image to be confirmed based on the above embodiment will be described with reference to FIG.

図3は本出願の実施例による確認しようとする交通標識ウィンドウ画像を取得する方法を示す例示的なフローチャートである。   FIG. 3 is an exemplary flowchart illustrating a method for obtaining a traffic sign window image to be confirmed according to an embodiment of the present application.

図3に示すように、確認しようとする交通標識ウィンドウ画像を取得する方法300は、以下のステップを含む。   As shown in FIG. 3, a method 300 for obtaining a traffic sign window image to be confirmed includes the following steps.

ステップ301:全天球画像を連続的にダウンサンプリングして、画像ピラミッドを取得する。   Step 301: Continuously downsample the omnidirectional image to obtain an image pyramid.

ここで、全天球画像に対してピラミッド変換、例えばラプラスピラミッド変換などを行うことができ、全天球画像を元のサイズから異なるサイズに変換し、それにより多段画像を含む画像ピラミッドを取得する。   Here, pyramidal transformation, for example, Laplace pyramid transformation, can be performed on the omnidirectional image, and the omnidirectional image is converted from the original size to a different size, thereby obtaining an image pyramid including a multistage image. .

ステップ302:画像ピラミッドにより所定の積分チャンネルの積分画像で分割して得られた画像ピラミッドにおける各段画像のスキャンウィンドウ画像の積分画像を取得する。   Step 302: Acquire an integral image of a scan window image of each step image in the image pyramid obtained by dividing the integral image of a predetermined integration channel by the image pyramid.

上記ステップ301において画像ピラミッドが取得された後に、まず画像ピラミッドの各段画像を所定の積分チャンネルにおいて積分して、画像ピラミッドの積分画像を取得することができ、その後所定のサイズのウィンドウによって画像ピラミッドの積分画像を分割して、各段画像のスキャンウィンドウ画像の積分画像を取得する。   After the image pyramid is acquired in step 301, each stage image of the image pyramid can be first integrated in a predetermined integration channel to obtain an integrated image of the image pyramid, and then the image pyramid can be obtained by a window of a predetermined size. Are integrated to obtain an integrated image of the scan window image of each stage image.

ステップ303:各段画像のスキャンウィンドウ画像の積分画像に基づいて、各段画像のスキャンウィンドウ画像の特徴値を取得する。   Step 303: Based on the integrated image of the scan window image of each stage image, the feature value of the scan window image of each stage image is acquired.

上記ステップ302において各段画像のスキャンウィンドウ画像の積分画像が取得された後に、各段画像のスキャンウィンドウ画像の積分画像に基づいて、各段画像のスキャンウィンドウ画像の積分画像で演算し、各段画像のスキャンウィンドウ画像の特徴値を迅速に取得することができる。   After the integral image of the scan window image of each stage image is acquired in the above step 302, calculation is performed on the integral image of the scan window image of each stage image based on the integral image of the scan window image of each stage image. The feature value of the scan window image of the image can be acquired quickly.

ステップ304:各段画像のスキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、各段画像のスキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得する。 Step 304: Based on the feature value of the scan window image of each stage image and the pre-trained detection classifier model, the scan window image of each stage image is detected to obtain the traffic sign window image to be confirmed. .

上記ステップ303において各段画像のスキャンウィンドウ画像の特徴値が取得された後に、各段画像のスキャンウィンドウ画像の特徴値に基づいて、予め訓練された検出分類器モデルによって各段画像のスキャンウィンドウ画像を検出することができ、その中の交通標識と思われるウィンドウ画像を取得して確認しようとする交通標識ウィンドウ画像とし、それにより画像ピラミッドにおける全ての確認しようとする交通標識ウィンドウ画像を取得する。   After the feature value of the scan window image of each step image is acquired in the above step 303, the scan window image of each step image is detected by a pre-trained detection classifier model based on the feature value of the scan window image of each step image. , And a traffic sign window image to be confirmed by acquiring a window image that seems to be a traffic sign therein, thereby obtaining all the traffic sign window images to be confirmed in the image pyramid.

本出願の上記実施例の確認しようとする交通標識ウィンドウ画像を取得する方法によれば、全天球画像においてピラミッド変換によって得られたピラミッド画像からスキャンウィンドウ画像を取得し、その後、確認しようとする交通標識ウィンドウ画像を取得するように、各段画像のスキャンウィンドウ画像を検出して、全天球画像において確認しようとする交通標識ウィンドウを欠落する可能性を減少するため、確認しようとする交通標識ウィンドウを取得する正確さを向上させる。また、積分画像を採用して各段画像のスキャンウィンドウ画像の特徴値を取得するため、特徴値の取得速度を向上させる。   According to the method of acquiring the traffic sign window image to be confirmed in the above embodiment of the present application, the scan window image is acquired from the pyramid image obtained by the pyramid transformation in the omnidirectional image, and then the user wants to confirm the scan window image. The traffic sign to be confirmed is detected in order to reduce the possibility of missing the traffic sign window to be confirmed in the omnidirectional image by detecting the scan window image of each step image so as to obtain the traffic sign window image. Improve the accuracy of getting the window. Further, since the feature value of the scan window image of each stage image is obtained by using the integral image, the feature value acquisition speed is improved.

以下、図4を参照して、予め訓練された畳み込みニューラルネットワークモデルを訓練する方法を説明する。   Hereinafter, a method for training a pretrained convolutional neural network model will be described with reference to FIG.

図4は、本出願の実施例による予め訓練された畳み込みニューラルネットワークモデルを訓練する方法を示す例示的なフローチャートである。   FIG. 4 is an exemplary flowchart illustrating a method for training a pretrained convolutional neural network model according to an embodiment of the present application.

図4に示すように、予め訓練された畳み込みニューラルネットワークモデルを訓練する方法400は、以下のステップを含む。   As shown in FIG. 4, a method 400 for training a pre-trained convolutional neural network model includes the following steps.

ステップ401:ガウス分布に従って、所定の畳み込みニューラルネットワークモデルの畳み込み層と全結合層の両者の重みを初期化し、所定の畳み込みニューラルネットワークモデルは順次に接続された畳み込み層、抽出層、全結合層及び正規化層を含む。   Step 401: Initialize the weights of both the convolutional layer and the fully connected layer of a predetermined convolutional neural network model according to a Gaussian distribution, and the predetermined convolutional neural network model is connected to a convolutional layer, an extraction layer, a fully connected layer, and Includes a normalization layer.

ここで、順次に接続された畳み込み層、抽出層、全結合層及び正規化層は、1つの畳み込み層、1つの抽出層、1つの全結合層及び1つの正規化層を含んでもよく、複数の畳み込み層及び畳み込み層に一対一対応した抽出層、1つの以上の全結合層及び1つの正規化層を含んでもよい。   Here, the convolution layer, the extraction layer, the total coupling layer, and the normalization layer connected in sequence may include one convolution layer, one extraction layer, one full coupling layer, and one normalization layer. And a convolution layer and an extraction layer corresponding to the convolution layer, one or more full coupling layers, and a normalization layer.

ここで、設置された畳み込み層は、畳み込み演算によって、原信号特徴を強化して、且つ雑音を低減することができ、設置された抽出層は、画像局所相関性の原理を利用して、画像をサブサンプリングすることができ、データ処理量を減少するとともに有用な情報を保留する。   Here, the installed convolution layer can reinforce the original signal characteristics and reduce noise by the convolution operation, and the installed extraction layer uses the principle of image local correlation to Can be subsampled, reducing data throughput and holding useful information.

以下、図5を例として、所定の畳み込みニューラルネットワークモデルを説明する。   Hereinafter, a predetermined convolution neural network model will be described with reference to FIG.

図5は本出願の実施例による所定の畳み込みニューラルネットワークモデルを示す例示的な構造図である。   FIG. 5 is an exemplary structural diagram illustrating a predetermined convolutional neural network model according to an embodiment of the present application.

図5に示すように、所定の畳み込みニューラルネットワークモデル500は、順次に接続された畳み込み層conv1、抽出層pool1、畳み込み層conv2、抽出層pool2、畳み込み層conv3、抽出層pool3、全結合層fc1、全結合層fc2を含む。 As shown in FIG. 5, a predetermined convolutional neural network model 500 includes a convolutional layer conv1, an extraction layer pool1, a convolutional layer conv2, an extraction layer pool2, a convolutional layer conv3, an extraction layer pool3, an all coupling layer fc1, which are sequentially connected. The entire coupling layer fc2 is included.

ここで、conv1は16個のサイズが5*5*3の畳み込みカーネルを有し、conv2は32個のサイズが5*5*16の畳み込みカーネルを有し、conv3は64個のサイズが5*5*32の畳み込みカーネルを有する。2つの全結合層はそれぞれ512と120個のニューロンを有する。   Here, conv1 has 16 convolution kernels of size 5 * 5 * 3, conv2 has 32 convolution kernels of size 5 * 5 * 16, and conv3 has 64 sizes of 5 * Has a 5 * 32 convolution kernel. The two fully connected layers have 512 and 120 neurons, respectively.

図4に戻し、ステップ402において、確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて、誤差逆伝搬BPアルゴリズムによって畳み込み層と全結合層の両者の重みを反復する。   Returning to FIG. 4, in step 402, the weights of both the convolutional layer and the fully connected layer are iterated by the backpropagation BP algorithm based on the confirmed sample traffic sign window image and its traffic sign type.

ここで、確認された交通標識ウィンドウ画像のサンプルは、確認しようとする交通標識ウィンドウ画像から抽出されたサンプルにおいて、受信された手動マーキングに基づいて確認した後の、交通標識を含むウィンドウ画像のサンプルである。   Here, the sample of the confirmed traffic sign window image is a sample of the window image including the traffic sign after confirmation based on the received manual marking in the sample extracted from the traffic sign window image to be confirmed. It is.

更に、確認された交通標識ウィンドウ画像のサンプルは、交通標識ウィンドウ画像が確認できたオリジナルサンプル、及び交通標識ウィンドウ画像が確認できたオリジナルサンプルに対して回転、並進及びスケーリングのうちの1項又は複数項の処理を行った後に所定のウィンドウサイズに正規化する画像を含んでもよい。サンプルを拡張することによって、サンプル認識の正確率を向上させることができる。   Further, the confirmed traffic sign window image sample is an original sample in which the traffic sign window image is confirmed, and one or more of rotation, translation, and scaling with respect to the original sample in which the traffic sign window image is confirmed. An image that is normalized to a predetermined window size after the processing of the term is performed may be included. By expanding the sample, the accuracy rate of sample recognition can be improved.

その後、ステップS403又はステップS404によって最適な重みの畳み込みニューラルネットワークモデルを確定することができる。   Thereafter, a convolutional neural network model having an optimum weight can be determined in step S403 or step S404.

ステップS403:現在に反復された重みと前回に反復された重みとの差が所定の値より小さい場合に、現在に反復された重みを最適な重みとして確定する。   Step S403: If the difference between the currently repeated weight and the previously repeated weight is smaller than a predetermined value, the currently repeated weight is determined as the optimum weight.

ステップS404:誤り率の最低の反復された重みが出現する場合に、誤り率の最低の反復された重みを最適な重みとして確定する。   Step S404: If the repeated weight with the lowest error rate appears, determine the repeated weight with the lowest error rate as the optimum weight.

ステップS405:最適な重みを含む畳み込みニューラルネットワークモデルを予め訓練された畳み込みニューラルネットワークモデルとする。   Step S405: The convolutional neural network model including the optimum weight is set as a pretrained convolutional neural network model.

予め訓練された畳み込みニューラルネットワークモデルが訓練された後に、図1におけるステップ103においては、確認しようとする交通標識ウィンドウ画像を畳み込みニューラルネットワークモデルに入力して、正規化層によって出力された、重みが最大の交通標識種類を取得するステップと、重みが最大の交通標識種類を認識して得られた交通標識種類とするステップとを含んでもよい。   After the pretrained convolutional neural network model is trained, in step 103 in FIG. 1, the traffic sign window image to be confirmed is input to the convolutional neural network model, and the weight output by the normalization layer is A step of obtaining the maximum traffic sign type and a step of obtaining the traffic sign type obtained by recognizing the traffic sign type having the maximum weight may be included.

図6は本出願の実施例による交通標識を認識する装置を示す構造模式図である。   FIG. 6 is a structural schematic diagram showing an apparatus for recognizing a traffic sign according to an embodiment of the present application.

図6に示すように、前記交通標識を認識する装置600は、特徴値取得モジュール610、交通標識検出モジュール620及び交通標識認識モジュール630を備えてもよい。   As shown in FIG. 6, the traffic sign recognition apparatus 600 may include a feature value acquisition module 610, a traffic sign detection module 620, and a traffic sign recognition module 630.

特徴値取得モジュール610は、全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得することに用いられる。   The feature value acquisition module 610 is used to acquire a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by dividing the omnidirectional image.

選択的に、特徴値取得モジュール610は、全天球画像により所定の積分チャンネルの積分画像で分割して得られたスキャンウィンドウ画像の積分画像を取得するための第1積分画像取得サブモジュール611と、スキャンウィンドウ画像の積分画像に基づいて、スキャンウィンドウ画像の特徴値を取得するための第1特徴値取得サブモジュール612と、を備えてもよい。   Optionally, the feature value acquisition module 610 includes a first integrated image acquisition sub-module 611 for acquiring an integrated image of a scan window image obtained by dividing the whole celestial sphere image by an integrated image of a predetermined integration channel. And a first feature value acquisition sub-module 612 for acquiring a feature value of the scan window image based on the integral image of the scan window image.

交通標識検出モジュール620は、スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得することに用いられ、ここで、予め訓練された検出分類器モデルはスキャンウィンドウ画像のサンプル及びその特徴値に基づいて訓練して得られる。   The traffic sign detection module 620 is used to detect a scan window image based on a feature value of the scan window image and a pre-trained detection classifier model and obtain a traffic sign window image to be confirmed. Here, the pre-trained detection classifier model is obtained by training based on the scan window image sample and its feature value.

交通標識認識モジュール630は、予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得することに用いられ、ここで、予め訓練された畳み込みニューラルネットワークモデルは確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて訓練して得られる。   The traffic sign recognition module 630 is used for recognizing a traffic sign window image to be confirmed based on a pretrained convolutional neural network model and acquiring a traffic sign type, where the trained information is pretrained. A convolutional neural network model is obtained by training based on a sample of a confirmed traffic sign window image and its traffic sign type.

本出願の上記実施例の交通標識を認識する装置によれば、パノラマ画像に交通標識を検出して認識する正確さを向上させるとともに、道路網データの更新効率を向上させる。   According to the apparatus for recognizing a traffic sign of the above embodiment of the present application, the accuracy of detecting and recognizing the traffic sign in the panoramic image is improved and the updating efficiency of the road network data is improved.

選択的に、上記の予め訓練された検出分類器モデルは、以下のような方法によって取得されてもよく、即ち、スキャンウィンドウ画像のサンプルにおける陽性サンプルと陰性サンプルを取得し、陽性サンプルは交通標識のウィンドウ画像を含むか又は交通標識及びその周囲に所定の画素が拡張されたウィンドウ画像を含み、陰性サンプルは陽性サンプルを除外するスキャンウィンドウ画像を含み、陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得し、陽性サンプル及び陰性サンプルと、陽性サンプル及び陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値とに基づいて、boostingアルゴリズムによって検出分類器モデルを訓練して、予め訓練された検出分類器モデルを取得する。   Alternatively, the pre-trained detection classifier model described above may be obtained by the following method: obtaining positive and negative samples in the sample of the scan window image, where the positive sample is a traffic sign Or a window image in which predetermined pixels are expanded around the traffic sign and its surroundings, the negative sample includes a scan window image that excludes positive samples, and a predetermined integration channel of positive samples and negative samples. And obtaining boost values based on the positive and negative samples and the positive and negative sample feature values obtained by the predetermined feature algorithm in the predetermined integration channel. Depending on the algorithm, the detection classifier module To train Le, obtains a detection classifier models previously trained.

上記の予め訓練された検出分類器モデルを取得する方法は、図7に示すような検出分類器モデル訓練装置によって実現できる。   The above-described method for acquiring a pre-trained detection classifier model can be realized by a detection classifier model training apparatus as shown in FIG.

図7は本出願の実施例による検出分類器モデル訓練装置の例示的な構造図を示す。   FIG. 7 shows an exemplary structural diagram of a detection classifier model training apparatus according to an embodiment of the present application.

図7に示すように、検出分類器モデル訓練装置700は、サンプル取得モジュール701、サンプル特徴値取得モジュール702及び検出モデル訓練モジュール703を備えてもよい。   As shown in FIG. 7, the detection classifier model training apparatus 700 may include a sample acquisition module 701, a sample feature value acquisition module 702, and a detection model training module 703.

サンプル取得モジュール701は、スキャンウィンドウ画像のサンプルにおける陽性サンプルと陰性サンプルを取得することに用いられ、ここで、陽性サンプルは交通標識のウィンドウ画像を含むか又は交通標識及びその周囲に所定の画素が拡張されたウィンドウ画像を含み、陰性サンプルは陽性サンプルを除外するスキャンウィンドウ画像を含む。   The sample acquisition module 701 is used to acquire a positive sample and a negative sample in a sample of a scan window image, where the positive sample includes a window image of a traffic sign or a predetermined pixel around the traffic sign and its surroundings. A negative sample includes a scan window image that includes an expanded window image and excludes positive samples.

サンプル特徴値取得モジュール702は、陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得することに用いられる。   The sample feature value acquisition module 702 is used to acquire feature values obtained by a predetermined feature algorithm in a predetermined integration channel of positive samples and negative samples.

所定の積分チャンネルは、グレースケール画像チャネル、赤、緑、青モノクロ画像チャンネル、異なる角度パラメータの勾配画像チャンネル、及びエッジ検出画像チャンネルのうちの1項又は複数項を含み、及び所定の特徴アルゴリズムは、ハール特徴アルゴリズム、ローカルバイナリパターン特徴アルゴリズム、ヒストグラム特徴アルゴリズム及びランダムペア特徴アルゴリズムのうちの1項又は複数項を含む。   The predetermined integration channel includes one or more of a gray scale image channel, a red, green, blue monochrome image channel, a gradient image channel with different angular parameters, and an edge detection image channel, and the predetermined feature algorithm is One or more of a Haar feature algorithm, a local binary pattern feature algorithm, a histogram feature algorithm, and a random pair feature algorithm.

検出モデル訓練モジュール703は、陽性サンプル及び陰性サンプルと、陽性サンプル及び陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値とに基づいて、boostingアルゴリズムによって検出分類器モデルを訓練して、予め訓練された検出分類器モデルを取得することに用いられる。   The detection model training module 703 trains the detection classifier model by the boosting algorithm based on the positive and negative samples and the feature values obtained by the predetermined feature algorithm in the predetermined integration channel of the positive and negative samples. And used to obtain a pre-trained detection classifier model.

以下、図8を参照して、上記実施例をもとにして、確認しようとする交通標識ウィンドウ画像を取得する装置を説明する。   Hereinafter, an apparatus for acquiring a traffic sign window image to be confirmed will be described with reference to FIG.

図8は確認しようとする交通標識ウィンドウ画像を取得するための装置の例示的な構造図を示す。   FIG. 8 shows an exemplary structural diagram of an apparatus for obtaining a traffic sign window image to be confirmed.

図8に示すように、確認しようとする交通標識ウィンドウ画像を取得するための装置800は、ダウンサンプリングサブモジュール801、第2積分画像取得サブモジュール802、第2特徴値取得サブモジュール803及び多段検出サブモジュール804を含んでもよい。   As shown in FIG. 8, an apparatus 800 for acquiring a traffic sign window image to be confirmed includes a downsampling sub-module 801, a second integral image acquisition sub-module 802, a second feature value acquisition sub-module 803, and multistage detection. A submodule 804 may be included.

ダウンサンプリングサブモジュール801は、全天球画像を連続的にダウンサンプリングして、画像ピラミッドを取得することに用いられる。   The downsampling submodule 801 is used to continuously downsample the omnidirectional image to obtain an image pyramid.

第2積分画像取得サブモジュール802は、画像ピラミッドにより所定の積分チャンネルの積分画像で分割して得られた画像ピラミッドの中で各段画像のスキャンウィンドウ画像の積分画像を取得することに用いられる。   The second integrated image acquisition submodule 802 is used to acquire an integrated image of the scan window image of each stage image in the image pyramid obtained by dividing the integrated image of the predetermined integration channel by the image pyramid.

第2特徴値取得サブモジュール803は、各段画像のスキャンウィンドウ画像の積分画像に基づいて、各段画像のスキャンウィンドウ画像の特徴値を取得することに用いられる。   The second feature value acquisition submodule 803 is used to acquire the feature value of the scan window image of each stage image based on the integral image of the scan window image of each stage image.

多段検出サブモジュール804は、各段画像のスキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、各段画像のスキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得することに用いられる。   The multi-stage detection sub-module 804 detects the scan window image of each stage image based on the feature value of the scan window image of each stage image and the pre-trained detection classifier model and confirms the traffic sign window to be confirmed. Used to acquire images.

本出願の実施例の上記した確認しようとする交通標識ウィンドウ画像を取得する装置によれば、更に確認しようとする交通標識ウィンドウ画像を取得する正確率を向上させるとともに確認しようとする交通標識ウィンドウ画像を検出する速度を向上させることができる。 According to the apparatus for acquiring the traffic sign window image to be confirmed described above in the embodiment of the present application, the accuracy rate for acquiring the traffic sign window image to be further confirmed is improved and the traffic sign window image to be confirmed is confirmed. Can be detected at a higher speed.

選択的に、上記図6における予め訓練された畳み込みニューラルネットワークモデルは以下のような方法によって取得されてもよく、ガウス分布に従って、所定の畳み込みニューラルネットワークモデルの畳み込み層と全結合層の両者の重みを初期化し、ここで、前記所定の畳み込みニューラルネットワークモデルは順次に接続された畳み込み層、抽出層、全結合層及び正規化層を備え、確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて、誤差逆伝搬BPアルゴリズムによって前記畳み込み層と前記全結合層の両者の重みを反復し、現在に反復された重みと前回に反復された重みとの差が所定の値より小さい場合に、現在に反復された重みを最適な重みとして確定し、最適な重みを含む畳み込みニューラルネットワークモデルを前記予め訓練された畳み込みニューラルネットワークモデルとし、又は誤り率の最低の反復された重みが出現する場合に、誤り率の最低の反復された重みを最適な重みとして確定し、最適な重みを含む畳み込みニューラルネットワークモデルを前記予め訓練された畳み込みニューラルネットワークモデルとする。   Alternatively, the pretrained convolutional neural network model in FIG. 6 may be obtained by the following method, and the weights of both the convolutional layer and the fully connected layer of a given convolutional neural network model according to a Gaussian distribution. Where the predetermined convolutional neural network model comprises a convolutional layer, an extraction layer, a fully connected layer and a normalization layer connected in sequence, a sample of a confirmed traffic sign window image and its traffic sign type When the weights of both the convolutional layer and the total coupling layer are repeated by the error backpropagation BP algorithm, and the difference between the currently repeated weight and the previously repeated weight is smaller than a predetermined value, The currently repeated weight is determined as the optimal weight, and the convolutional neural network including the optimal weight is determined. The work model is the pretrained convolutional neural network model, or when the repeated weight with the lowest error rate appears, the lowest repeated weight with the error rate is determined as the optimal weight, and the optimal weight Is a pre-trained convolutional neural network model.

確認された交通標識ウィンドウ画像のサンプルは、確認しようとする交通標識ウィンドウ画像から抽出されたサンプルにおいて、受信された手動マーキングに基づいて確認した後の、交通標識を含むウィンドウ画像のサンプルである。   The confirmed traffic sign window image sample is a sample of the window image including the traffic sign after confirmation based on the received manual marking in the sample extracted from the traffic sign window image to be confirmed.

更に、確認された交通標識ウィンドウ画像のサンプルは、交通標識ウィンドウ画像が確認できたオリジナルサンプル、及び交通標識ウィンドウ画像が確認できたオリジナルサンプルに対して回転、並進及びスケーリングのうちの1項又は複数項の処理を行った後に所定のウィンドウサイズに正規化する画像を含んでもよい。   Further, the confirmed traffic sign window image sample is an original sample in which the traffic sign window image is confirmed, and one or more of rotation, translation, and scaling with respect to the original sample in which the traffic sign window image is confirmed. An image that is normalized to a predetermined window size after the processing of the term is performed may be included.

ここで、順次に接続された畳み込み層、抽出層、全結合層及び正規化層は複数の畳み込み層及び畳み込み層に一対一対応した抽出層、1つの以上の全結合層及び1つの正規化層を備える。   Here, the convolution layer, the extraction layer, the total coupling layer, and the normalization layer that are sequentially connected are a plurality of convolution layers and an extraction layer corresponding to the convolution layer, one or more total coupling layers, and one normalization layer. Is provided.

更に、所定の畳み込みニューラルネットワークモデルは損失関数層を更に備えてもよい。   Furthermore, the predetermined convolution neural network model may further include a loss function layer.

所定の畳み込みニューラルネットワークモデルに対応して損失関数層を更に含み、誤差逆伝搬BPアルゴリズムによって前記畳み込み層と前記全結合層の両者の重みを反復するステップにおいては、損失関数とBPアルゴリズムによって畳み込み層と全結合層の両者の重みをそれぞれ反復するステップを含んでもよい。   In the step of further including a loss function layer corresponding to a predetermined convolutional neural network model and repeating the weights of both the convolution layer and the all coupling layer by an error back-propagation BP algorithm, a convolution layer is obtained by the loss function and the BP algorithm. And repeating the weights of both the and all connected layers, respectively.

上記の予め訓練された畳み込みニューラルネットワークモデルを取得する方法は図9に示した予め訓練された畳み込みニューラルネットワークモデルを訓練する装置によって実現できる。   The above-described method for obtaining the pretrained convolutional neural network model can be realized by the apparatus for training the pretrained convolutional neural network model shown in FIG.

図9は本出願の実施例による予め訓練された畳み込みニューラルネットワークモデルを訓練するための装置を示す例示的な構造図である。   FIG. 9 is an exemplary structural diagram illustrating an apparatus for training a pretrained convolutional neural network model according to an embodiment of the present application.

図9に示すように、予め訓練された畳み込みニューラルネットワークモデルを訓練するための装置900は、以下のモジュールを備える。   As shown in FIG. 9, an apparatus 900 for training a pre-trained convolutional neural network model comprises the following modules:

初期化モジュール901は、ガウス分布に従って、所定の畳み込みニューラルネットワークモデルの畳み込み層と全結合層の両者の重みを初期化することに用いられ、ここで、所定の畳み込みニューラルネットワークモデルは順次に接続された畳み込み層、抽出層、全結合層及び正規化層を備える。   The initialization module 901 is used to initialize the weights of both the convolutional layer and the fully connected layer of a predetermined convolutional neural network model according to a Gaussian distribution, where the predetermined convolutional neural network model is sequentially connected. A convolution layer, an extraction layer, a fully connected layer and a normalization layer.

順次に接続された畳み込み層、抽出層、全結合層及び正規化層は複数の畳み込み層及び畳み込み層に一対一対応した抽出層、1つの以上の全結合層及び1つの正規化層を備える。   The convolutional layer, the extraction layer, the total coupling layer, and the normalization layer that are sequentially connected include a plurality of convolutional layers and an extraction layer corresponding to the convolutional layer, one or more total coupling layers, and one normalization layer.

選択的に、所定の畳み込みニューラルネットワークモデルは損失関数層を更に備える。   Optionally, the predetermined convolutional neural network model further comprises a loss function layer.

重み反復モジュール902は、確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて、誤差逆伝搬BPアルゴリズムによって畳み込み層と全結合層の両者の重みを反復することに用いられる。   The weight iteration module 902 is used to iterate the weights of both the convolutional layer and the fully connected layer by the backpropagation BP algorithm based on the confirmed traffic sign window image sample and its traffic sign type.

第1最適な重み確定モジュール903は、現在に反復された重みと前回に反復された重みとの差が所定の値より小さい場合に、現在に反復された重みを最適な重みとして確定することに用いられる。   The first optimum weight determination module 903 determines the currently repeated weight as the optimum weight when the difference between the currently repeated weight and the previously repeated weight is smaller than a predetermined value. Used.

第2最適な重み確定モジュール904は、誤り率の最低の反復された重みが出現する場合に、誤り率の最低の反復された重みを最適な重みとして確定することに用いられる。   The second optimum weight determination module 904 is used to determine the lowest repeated weight with the lowest error rate as the optimum weight when the lowest repeated weight with the error rate appears.

モデル設定モジュール905は、最適な重みを含む畳み込みニューラルネットワークモデルを予め訓練された畳み込みニューラルネットワークモデルとすることに用いられる。   The model setting module 905 is used to make a convolutional neural network model including optimal weights into a pretrained convolutional neural network model.

所定の畳み込みニューラルネットワークモデルに対応して損失関数層を更に備え、重み確定モジュール902は更に損失関数とBPアルゴリズムによって畳み込み層と全結合層の両者の重みをそれぞれ反復することに用いられる。   A loss function layer is further provided corresponding to a predetermined convolutional neural network model, and the weight determination module 902 is further used to iterate the weights of both the convolution layer and the fully connected layer by the loss function and the BP algorithm, respectively.

予め訓練された畳み込みニューラルネットワークモデルを訓練するための装置900によって予め訓練された畳み込みニューラルネットワークモデルが訓練された後に、図6における交通標識認識モジュール630は、確認しようとする交通標識ウィンドウ画像を畳み込みニューラルネットワークモデルに入力して、正規化層によって出力された、重みが最大の交通標識種類を取得するための最大重み認識モジュール(図示せず)、及び重みが最大の交通標識種類を認識して得られた交通標識類として設定する標識種類設定モジュール(図示せず)を備えてもよい。   After the pretrained convolutional neural network model is trained by the apparatus 900 for training the pretrained convolutional neural network model, the traffic sign recognition module 630 in FIG. 6 convolves the traffic sign window image to be verified. A maximum weight recognition module (not shown) for obtaining the traffic sign type with the maximum weight, which is input to the neural network model and output by the normalization layer, and recognizes the traffic sign type with the maximum weight You may provide the sign kind setting module (not shown) set as the obtained traffic signs.

装置600に記載の各ユニットは図1を参照しながら説明した方法における各ステップに対応する。装置700に記載の各ユニットは図2を参照しながら説明した方法における各ステップに対応する。装置800に記載の各ユニットは図3を参照しながら説明した方法における各ステップに対応する。装置900に記載の各ユニットは図4を参照しながら説明した方法における各ステップに対応することを理解すべきである。それにより、以上で交通標識を認識する方法に対して説明した操作及び特徴は同様に装置600及びその中に含まれたユニットに適用し、以上で予め訓練された検出モデルを訓練する方法に対して説明した操作及び特徴は同様に装置700及びその中に含まれたユニットに適用し、以上で確認しようとする交通標識ウィンドウ画像を取得する方法に対して説明した操作及び特徴は同様に装置800及びその中に含まれたユニットに適用し、以上で予め訓練された畳み込みニューラルネットワークモデルを訓練する方法に対して説明した操作及び特徴は同様に装置900及びその中に含まれたユニットに適用するので、ここで省略する。本出願の実施例の案を実現するように、装置600、700、800及び900における対応するユニットを端末機器及び/又はサーバーにおけるユニットに互いに合わせてもよい。   Each unit described in the apparatus 600 corresponds to each step in the method described with reference to FIG. Each unit described in the apparatus 700 corresponds to each step in the method described with reference to FIG. Each unit described in the apparatus 800 corresponds to each step in the method described with reference to FIG. It should be understood that each unit described in apparatus 900 corresponds to a step in the method described with reference to FIG. Thereby, the operations and features described above for the method of recognizing traffic signs apply to the apparatus 600 and the units contained therein as well, and to the method of training the detection model previously trained above. The operations and features described above are similarly applied to the apparatus 700 and the units included therein, and the operations and characteristics described above for the method of obtaining the traffic sign window image to be confirmed are similarly the apparatus 800. And the operations and features described above for the method of training a pretrained convolutional neural network model as applied to the units included therein and the units included therein are similarly applied to the apparatus 900 and the units included therein. It is omitted here. Corresponding units in the devices 600, 700, 800 and 900 may be matched to each other in the terminal equipment and / or server so as to realize the proposed embodiment of the present application.

本発明の実施例に記載されたモジュールは、ソフトウェアで実現されてもよく、ハードウェアで実現されてもよい。記載されたモジュールは、プロセッサに設定されてもよく、例えば、「特徴値取得モジュール、検出モジュール、及び認識モジュールを備えるプロセッサ」として記載されてもよい。その中でも、これらのモジュールの名称は、ある場合において当該モジュールその自体を限定するものではなく、例えば、特徴値取得モジュールは、「全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得するためのモジュール」として記載されてもよい   The modules described in the embodiments of the present invention may be realized by software or hardware. The described module may be set in the processor, and may be described as, for example, “a processor including a feature value acquisition module, a detection module, and a recognition module”. Among them, the names of these modules do not limit the module itself in some cases. For example, the feature value acquisition module is “a predetermined value of a scan window image obtained by dividing an omnidirectional image”. May be described as a module for obtaining feature values obtained by a predetermined feature algorithm in the integration channel of

図10は本出願の実施例によるコンピュータシステムを示す構造模式図である。   FIG. 10 is a structural schematic diagram showing a computer system according to an embodiment of the present application.

本出願の実施例の機器に適用されるコンピュータシステム1000の構造模式図である図10を参照する。   Reference is made to FIG. 10, which is a structural schematic diagram of a computer system 1000 applied to the device of the embodiment of the present application.

図10に示すように、コンピュータシステム1000は、読み出し専用メモリ(ROM)1002に記憶されているプログラム又は記憶部1008からランダムアクセスメモリ(RAM)1003にロードされたプログラムに基づいて様々な適当な動作及び処理を実行することができる中央処理装置(CPU)1001を備える。ROM1002に記憶されているプログラム又は記憶部1008からRAM1003にロードされたプログラムがCPU1001により実行される場合に、CPU1001が本出願に記載されている方法を実施する。RAM1003には、システム1000の操作に必要な様々なプログラム及びデータがさらに記憶されている。CPU1001、ROM1002及びRAM1003は、バス1004を介して互いに接続されている。入力/出力(I/O)インターフェース1005もバス1004に接続されている。   As shown in FIG. 10, the computer system 1000 performs various appropriate operations based on a program stored in a read-only memory (ROM) 1002 or a program loaded from a storage unit 1008 to a random access memory (RAM) 1003. And a central processing unit (CPU) 1001 capable of executing processing. When a program stored in the ROM 1002 or a program loaded from the storage unit 1008 to the RAM 1003 is executed by the CPU 1001, the CPU 1001 executes the method described in the present application. The RAM 1003 further stores various programs and data necessary for operating the system 1000. The CPU 1001, ROM 1002, and RAM 1003 are connected to each other via a bus 1004. An input / output (I / O) interface 1005 is also connected to the bus 1004.

キーボード、マウスなどを含む入力部1006、陰極線管(CRT)、液晶ディスプレイ(LCD)など、及びスピーカなどを含む出力部1007、ハードディスクなどを含む記憶部1008、及びLANカード、モデムなどを含むネットワークインターフェースカードの通信部1009は、I/Oインターフェース1005に接続されている。通信部1009は、例えばインターネットのようなネットワークを介して通信処理を実行する。ドライバ1010は、必要に応じてI/Oインターフェース1005に接続される。リムーバブルメディア1011は、例えば、マグネチックディスク、光ディスク、光磁気ディスク、半導体メモリなどのようなものであり、必要に応じてドライバ1010に取り付けられ、したがって、ドライバ1010から読み出されたコンピュータプログラムが必要に応じて記憶部1008にインストールされる。   An input unit 1006 including a keyboard and a mouse, a cathode ray tube (CRT), a liquid crystal display (LCD), and an output unit 1007 including a speaker, a storage unit 1008 including a hard disk, and a network interface including a LAN card and a modem The communication unit 1009 of the card is connected to the I / O interface 1005. The communication unit 1009 executes communication processing via a network such as the Internet. The driver 1010 is connected to the I / O interface 1005 as necessary. The removable medium 1011 is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like, and is attached to the driver 1010 as necessary. Therefore, a computer program read from the driver 1010 is necessary. Is installed in the storage unit 1008 accordingly.

特に、本発明の実施例によれば、上記のフローチャートを参照しながら記載されたプロセスは、コンピュータのソフトウェアプログラムとして実現されてもよい。例えば、本発明の実施例は、コンピュータプログラム製品を含み、当該コンピュータプログラム製品は、機械可読媒体に有形に具現化されるコンピュータプログラムを含み、前記コンピュータプログラムは、フローチャートで示される方法を実行するためのプログラムコードを含む。このような実施例では、当該コンピュータプログラムは、通信部1009を介してネットワークからダウンロードされてインストールされてもよく、及び/又はリムーバブルメディア1011からインストールされてもよい。   In particular, according to an embodiment of the present invention, the process described with reference to the above flowchart may be implemented as a software program on a computer. For example, embodiments of the present invention include a computer program product, the computer program product comprising a computer program tangibly embodied on a machine-readable medium, the computer program performing the method shown in the flowchart. Including program code. In such an embodiment, the computer program may be downloaded and installed from the network via the communication unit 1009 and / or installed from the removable medium 1011.

図面におけるフローチャート及びブロック図は、本発明の各実施例に係るシステム、方法及びコンピュータプログラム製品により実現可能なアーキテクチャ、機能及び操作を示す。ここで、フローチャート又はブロック図における各枠は、1つのモジュール、プログラムセグメント、又はコードの一部を代表してもよく、前記モジュール、プログラムセグメント、又はコードの一部は、規定された論理機能を達成するための1つ以上の実行可能な命令を含む。また、いくつかの代替実施態様として、枠に示された機能は、図面に示された順番と異なる順番で実行されてもよい。例えば、連続して示された2つの枠は、関連する機能に応じて、実際にほぼ並行に実行されてもよく、逆の順番で実行されてもよい。また、ブロック図及び/又はフローチャートにおける各枠と、ブロック図及び/又はフローチャートにおける枠の組合せは、規定された機能又は操作を実行する、ハードウェアに基づく専用システムで実現されてもよく、あるいは、専用ハードウェアとコンピュータの命令との組合せで実行されてもよい。   The flowcharts and block diagrams in the Figures illustrate the architecture, functionality, and operation that can be implemented by systems, methods and computer program products according to embodiments of the present invention. Here, each frame in the flowchart or block diagram may represent one module, program segment, or part of code, and the module, program segment, or part of code may have a defined logical function. Contains one or more executable instructions to accomplish. Also, as some alternative embodiments, the functions shown in the boxes may be performed in a different order than the order shown in the drawings. For example, two frames shown in succession may actually be executed substantially in parallel, or may be executed in reverse order, depending on the function involved. Also, each frame in the block diagram and / or flowchart and the combination of the frame in the block diagram and / or flowchart may be realized by a hardware-based dedicated system that performs a specified function or operation, or It may be executed by a combination of dedicated hardware and computer instructions.

一方、本発明は、コンピュータ読み取り可能な記憶媒体をさらに提供し、当該コンピュータ読み取り可能な記憶媒体は、上記実施例の前記装置に含まれるコンピュータ読み取り可能な記憶媒体であってもよく、独立に存在して端末に組み立てられていないコンピュータ読み取り可能な記憶媒体であってもよい。前記コンピュータ読み取り可能な記憶媒体には、1つ以上のプログラムが記憶され、前記1つ以上のプログラムが1つ以上のプロセッサで本出願に記載されている交通標識を認識する方法を実行するために用いられている。   On the other hand, the present invention further provides a computer-readable storage medium, and the computer-readable storage medium may be a computer-readable storage medium included in the apparatus of the above-described embodiment, and exists independently. Thus, it may be a computer-readable storage medium that is not assembled in the terminal. One or more programs are stored on the computer readable storage medium, and the one or more programs execute the method for recognizing traffic signs described in the present application by one or more processors. It is used.

以上の記載は、本発明の好ましい実施例、及び使用された技術的原理の説明に過ぎない。本発明に係る特許請求の範囲が、上記した技術的特徴の特定な組合せからなる技術案に限定されることではなく、本発明の趣旨を逸脱しない範囲で、上記の技術的特徴又は同等の特徴の任意の組合せからなる他の技術案も含むべきであることを、当業者は理解すべきである。例えば、上記の特徴と、本発明に開示された類似の機能を持っている技術的特徴(これらに限定されていない)とを互いに置き換えてなる技術案が挙げられる。   The foregoing is merely illustrative of the preferred embodiment of the invention and the technical principles used. The scope of the claims of the present invention is not limited to a technical proposal comprising a specific combination of the above-described technical features, and the above-described technical features or equivalent features without departing from the spirit of the present invention. It should be understood by those skilled in the art that other technical solutions consisting of any combination of the above should also be included. For example, there is a technical proposal in which the above features and technical features (not limited to these) having similar functions disclosed in the present invention are replaced with each other.

優先権要求Priority request

本出願は2015年03月31日に提出された、中国特許出願番号が「201510150525.8」である優先権を主張し、当該特許出願の全文を援用するように本願に組み込んだ。   This application claims priority, filed on Mar. 31, 2015, with a Chinese patent application number of “201510150525.8” and is incorporated herein by reference in its entirety.

本出願はコンピュータ技術分野に関し、具体的にコンピュータターゲット認識技術分野に関し、特に交通標識を認識する方法及び装置に関する。   The present application relates to the field of computer technology, specifically to the field of computer target recognition, and more particularly to a method and apparatus for recognizing traffic signs.

正確で全面的なナビゲーションデータを提供するために、交通道路網における交通標識を認識する必要がある。   In order to provide accurate and complete navigation data, it is necessary to recognize traffic signs in the traffic road network.

従来の交通標識を認識する方法は、主に人工処理に依存して、予め特定のプログラムソフトウェアとベースマップデータを収集車に配置し、訓練されたフィールドワーカーにより車に追従して操作し、交通標識を見ると、作業者はタイプと目視距離を手動的にソフトウェアに入力し、フィールドの収集が終了した後に、更に屋内労働者により作業前後のベースマップを比較して、有効な情報を道路網データベースに更新する。この過程は多種のソフトウェアツールのサポートを必要とするが、データ成果の正確さは主に作業者の個人の能力及び集中度によって決められ、同時に、複雑な収集プロセスは道路網データの更新効率を低下させる。   The conventional method of recognizing traffic signs mainly depends on artificial processing, placing specific program software and base map data in a collection vehicle in advance, and following the vehicle by a trained field worker and operating it. When looking at the sign, the worker manually enters the type and viewing distance into the software, and after field collection is complete, the indoor worker compares the pre- and post-work base maps to provide useful information to the road network. Update to the database. This process requires the support of a variety of software tools, but the accuracy of data outcomes is determined primarily by the individual ability and concentration of the operator, while at the same time the complex collection process increases the efficiency of updating road network data. Reduce.

本出願は、以上の背景技術に記載された技術問題を解決するために、交通標識を認識する方法及び装置を提供することを目的とする。   The present application aims to provide a method and apparatus for recognizing traffic signs in order to solve the technical problems described in the background art.

一様態において、本出願は交通標識を認識する方法を提供し、この方法は、全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得するステップと、前記スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得するステップと、予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得するステップと、を含んでおり、ここで、前記予め訓練された検出分類器モデルはスキャンウィンドウ画像のサンプル及びその特徴値に基づいて訓練して得られ、前記予め訓練された畳み込みニューラルネットワークモデルは確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて訓練して得られる。   In one aspect, the present application provides a method for recognizing traffic signs, which is obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by dividing by a omnidirectional image. Obtaining a feature value; detecting a scan window image based on the feature value of the scan window image and a pre-trained detection classifier model; obtaining a traffic sign window image to be confirmed; Recognizing a traffic sign window image to be confirmed based on a pretrained convolutional neural network model and acquiring a traffic sign type, wherein the pretrained detection classification The instrument model is obtained by training based on scan window image samples and their feature values. , Neural network model convolution said predetermined training is obtained by training on the basis of the sample and its traffic sign kinds of traffic signs window image was confirmed.

他の様態において、本出願は交通標識を認識する装置を提供し、この装置は、全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得するための特徴値取得モジュールと、前記スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得するための交通標識検出モジュールと、予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得するための交通標識認識モジュールと、を備えており、ここで、前記予め訓練された検出分類器モデルはスキャンウィンドウ画像のサンプル及びその特徴値に基づいて訓練して得られ、前記予め訓練された畳み込みニューラルネットワークモデルは確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて訓練して得られる。   In another aspect, the present application provides an apparatus for recognizing traffic signs, which is obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by segmenting with a spherical image. A traffic sign window for detecting and confirming a scan window image based on a feature value acquisition module for acquiring the acquired feature value, a feature value of the scan window image, and a pre-trained detection classifier model A traffic sign detection module for acquiring an image, a traffic sign recognition module for recognizing a traffic sign window image to be confirmed based on a pretrained convolutional neural network model, and acquiring a traffic sign type Where the pre-trained detection classifier model is scanned Indou obtained by training on the basis of the sample and its feature value of the image, the neural network model convolution pre training is obtained by training on the basis of the sample and its traffic sign kinds of traffic signs window image was confirmed.

本出願による交通標識を認識する方法及び装置は、全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得して、続いて、前記スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得し、その後、予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得することによって、予め訓練された検出分類器モデルによって確認しようとする交通標識ウィンドウ画像を検出して、予め訓練された畳み込みニューラルネットワークモデルによって交通標識種類を認識することを実現し、パノラマ画像での交通標識を検出して認識する正確さを向上させるとともに、道路網データの更新効率を向上させる。   A method and apparatus for recognizing a traffic sign according to the present application obtains a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by dividing a spherical image, and then continues. Based on the feature value of the scan window image and a pre-trained detection classifier model, the scan window image is detected to obtain a traffic sign window image to be confirmed, and then pre-trained convolution Based on the neural network model, by recognizing the traffic sign window image to be confirmed and obtaining the traffic sign type, the traffic sign window image to be confirmed is detected by the pre-trained detection classifier model. Traffic sign by pre-trained convolutional neural network model It realized to recognize the type, improves the accuracy of recognizing and detecting the traffic sign in a panorama image, to improve the update efficiency of road network data.

以下、図面を参照しながら非限定的な実施例を詳細に説明することにより、本発明の他の特徴、目的、及び利点は、より明らかになる。
本出願の実施例による交通標識を認識する方法を示す例示的なフローチャートである。 本出願の実施例による予め訓練された検出モデルを訓練する方法を示す例示的なフローチャートである。 本出願の実施例による確認しようとする交通標識ウィンドウ画像を取得する方法を示す例示的なフローチャートである。 本出願の実施例による予め訓練された畳み込みニューラルネットワークモデルを訓練する方法を示す例示的なフローチャートである。 本出願の実施例による所定の畳み込みニューラルネットワークモデルを示す例示的な構造図である。 本出願の実施例による交通標識を認識する装置を示す構造模式図である。 本出願の実施例による検出分類器モデル訓練装置を示す例示的な構造図である。 確認しようとする交通標識ウィンドウ画像を取得するための装置を示す例示的な構造図である。 本出願の実施例による予め訓練された畳み込みニューラルネットワークモデルを訓練するための装置を示す例示的な構造図である。 本出願の実施例によるコンピュータシステムを示す構造模式図である。
Other features, objects, and advantages of the present invention will become more apparent from the following detailed description of non-limiting embodiments with reference to the drawings.
4 is an exemplary flowchart illustrating a method for recognizing a traffic sign according to an embodiment of the present application. 4 is an exemplary flowchart illustrating a method for training a pre-trained detection model according to an embodiment of the present application. 6 is an exemplary flowchart illustrating a method for obtaining a traffic sign window image to be confirmed according to an embodiment of the present application. 4 is an exemplary flowchart illustrating a method for training a pretrained convolutional neural network model according to an embodiment of the present application. FIG. 3 is an exemplary structural diagram illustrating a predetermined convolutional neural network model according to an embodiment of the present application. It is a structure schematic diagram which shows the apparatus which recognizes the traffic sign by the Example of this application. FIG. 2 is an exemplary structural diagram illustrating a detection classifier model training device according to an embodiment of the present application; FIG. 2 is an exemplary structural diagram showing an apparatus for acquiring a traffic sign window image to be confirmed. FIG. 3 is an exemplary structural diagram illustrating an apparatus for training a pretrained convolutional neural network model according to an embodiment of the present application. 1 is a structural schematic diagram showing a computer system according to an embodiment of the present application.

以下、図面及び実施例を参照しながら、本発明をさらに詳しく説明する。ただし、ここで説明されている具体的な実施例は、係る発明を解釈するためのものに過ぎず、本発明の範囲を制限するものではないと理解されるべきである。また、説明の便宜上、図面に本発明と関連する部分のみが示されている。   Hereinafter, the present invention will be described in more detail with reference to the drawings and examples. However, it should be understood that the specific embodiments described herein are merely for interpreting the invention and do not limit the scope of the invention. For convenience of explanation, only the parts related to the present invention are shown in the drawings.

ただし、衝突がない限り、本願における実施例、及び実施例における特徴は、互いに組み合せてもよい。以下、図面を参照しながら実施例に基づいて本発明を詳細に説明する。   However, as long as there is no collision, the embodiments in the present application and the features in the embodiments may be combined with each other. Hereinafter, the present invention will be described in detail based on examples with reference to the drawings.

図1は本出願の実施例による交通標識を認識する方法を示す例示的なフローチャートである。   FIG. 1 is an exemplary flowchart illustrating a method for recognizing traffic signs according to an embodiment of the present application.

図1に示すように、交通標識を認識する方法100は、以下のステップを含んでもよい。   As shown in FIG. 1, the method 100 for recognizing traffic signs may include the following steps.

ステップ110:全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得する。   Step 110: Obtain a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by dividing the omnidirectional image.

ここで、まず交通標識を認識する必要がある全天球画像を取得し、次に、所定のサイズのウィンドウによって全天球画像をスキャンして、それによりスキャンウィンドウ画像を取得し、その後、更にスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得する。   Here, first, an omnidirectional image that needs to recognize a traffic sign is acquired, then, the omnidirectional image is scanned by a window of a predetermined size, thereby acquiring a scan window image, and then further A feature value obtained by a predetermined feature algorithm in a predetermined integration channel of the scan window image is acquired.

全天球画像とは複数枚の魚眼画像により接合してなるパノラマを表示できる画像である。所定のサイズのウィンドウは一般的に対象物体のサイズに基づいて所定のウィンドウである。   The omnidirectional image is an image that can display a panorama formed by joining a plurality of fisheye images. The window of a predetermined size is generally a predetermined window based on the size of the target object.

なお、スキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得する際に、所定の積分チャンネルは画像処理分野における従来技術においていずれか1種又は多種の積分チャンネルであってもよく、又は将来の技術において発展する可能性があるいずれか1種又は多種の積分チャンネルであってもよく、所定の特徴アルゴリズムは画像処理分野における従来技術においていずれか1種又は多種の特徴アルゴリズムであってもよく、将来の技術において発展する可能性があるいずれか1種又は多種の特徴アルゴリズムであってもよい。本出願では、具体的な特徴値を取得する方式に制限されなく、ユーザにより実際の使用需要に応じて選択することができる。例えば、グレースケール画像チャネルにハールアルゴリズムによってハール(haar)特徴値を取得することができ、異なる角度パラメータの勾配画像チャンネルにヒストグラム特徴値アルゴリズムによってヒストグラム特徴値を取得し、同時に、赤、緑、青モノクロ画像チャンネルにおいてランダムペア特徴値アルゴリズムによってランダムペア特徴値などを取得する。   It should be noted that when acquiring a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image, the predetermined integration channel is any one type or various types of integration channels in the prior art in the image processing field. There may be any one or many integration channels that may be developed in future technology, and the predetermined feature algorithm is any one or many in the prior art in the image processing field. It may be a feature algorithm or any one or many feature algorithms that may develop in future technologies. In this application, it is not restricted to the system which acquires a specific feature value, It can select according to an actual use demand by a user. For example, a haar feature value can be obtained by a Haar algorithm for a grayscale image channel, and a histogram feature value can be obtained by a histogram feature value algorithm for a gradient image channel with different angular parameters, and at the same time, red, green, blue Random pair feature values and the like are acquired by a random pair feature value algorithm in the monochrome image channel.

スキャンウィンドウ画像の特徴値を取得する速度を更に向上させるために、積分画像によってスキャンウィンドウ画像の特徴値を取得することができ、選択的に、上記実施例において、ステップ110は、全天球画像により所定の積分チャンネルの積分画像で分割して得られたスキャンウィンドウ画像の積分画像を取得するステップ111、及びスキャンウィンドウ画像の積分画像に基づいて、スキャンウィンドウ画像の特徴値を取得するステップ112を含んでもよい。   In order to further improve the speed of acquiring the feature value of the scan window image, the feature value of the scan window image can be acquired by the integral image. Optionally, in the above embodiment, step 110 is the omnidirectional image. Step 111 for acquiring an integrated image of the scan window image obtained by dividing the integrated image of the predetermined integration channel by step 111, and step 112 for acquiring the feature value of the scan window image based on the integrated image of the scan window image. May be included.

上記の全天球画像の積分画像を使用してスキャンウィンドウ画像の特徴値を計算することによって、スキャンウィンドウ画像の特徴値の計算を加速して、スキャンウィンドウ画像の特徴値の計算効率を向上させることができる。   By calculating the feature value of the scan window image using the integral image of the omnidirectional image described above, the calculation of the feature value of the scan window image is accelerated and the calculation efficiency of the feature value of the scan window image is improved. be able to.

選択的に、スキャンウィンドウ画像の特徴値と、予め訓練された監視分類器モデルにおける交通標識ウィンドウ画像のサンプルの特徴値との比較を加速するために、交通標識の種類によって、交通標識ウィンドウ画像のサンプルの特徴値及びスキャンウィンドウ画像の特徴値を取得する所定の積分チャンネル及び所定の特徴アルゴリズムを確定することができる。例えば速度制限などのような禁止類標識に対して、赤色チャンネルにおける説明を強化することができる。好ましくは、所定の積分チャンネルは、グレースケール画像チャネル、赤、緑、青モノクロ画像チャンネル、異なる角度パラメータの勾配画像チャンネル、及びエッジ検出画像チャンネルなどの1項又は複数項を含んでもよく、そして、所定の特徴アルゴリズムは、ハール特徴アルゴリズム、ローカルバイナリパターン特徴アルゴリズム、ヒストグラム特徴アルゴリズム及びランダムペア特徴アルゴリズムなどの1項又は複数項を含んでもよい。スキャンウィンドウ画像を検出することに必要な特徴値を取得するように、上記実施例における所定の積分チャンネルと所定の特徴アルゴリズムを必要に応じて組み合わせてよいことを、当業者が理解すべきである。   Optionally, depending on the type of traffic sign, depending on the type of traffic sign window image, in order to accelerate the comparison between the feature value of the scan window image and the feature value of the traffic sign window image sample in the pre-trained surveillance classifier model. A predetermined integration channel and a predetermined feature algorithm for acquiring the sample feature value and the scan window image feature value can be determined. The description in the red channel can be strengthened for forbidden indicators such as speed limits, for example. Preferably, the predetermined integration channel may include one or more terms such as a gray scale image channel, a red, green, blue monochrome image channel, a gradient image channel with different angular parameters, and an edge detection image channel, and The predetermined feature algorithm may include one or more terms such as a Haar feature algorithm, a local binary pattern feature algorithm, a histogram feature algorithm, and a random pair feature algorithm. It should be understood by those skilled in the art that the predetermined integration channel and the predetermined feature algorithm in the above embodiment may be combined as necessary to obtain the characteristic values necessary to detect the scan window image. .

上記の交通標識の種類によって確定された交通標識ウィンドウ画像のサンプルの特徴値及びスキャンウィンドウ画像の特徴値を取得する所定の積分チャンネル及び所定の特徴アルゴリズムによれば、複数の異なる角度から対象の特性を説明することができ、それにより対象が異なる角度と光照による変化を吸収する。   According to the predetermined integration channel and the predetermined feature algorithm for acquiring the characteristic value of the sample of the traffic sign window image and the characteristic value of the scan window image determined by the type of the traffic sign, the characteristic of the object from a plurality of different angles Can be explained, so that the object absorbs changes due to different angles and illumination.

ステップ120:スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得し、ここで、予め訓練された検出分類器モデルはスキャンウィンドウ画像のサンプル及びその特徴値に基づいて訓練して得られる。   Step 120: Based on the feature value of the scan window image and the pre-trained detection classifier model, the scan window image is detected and the traffic sign window image to be confirmed is obtained, where the pre-trained The detection classifier model is obtained by training based on a sample of the scan window image and its feature value.

ここで、予め訓練された検出分類器モデルは、まず手動マーキングを受信して、スキャンウィンドウ画像において交通標識を含むスキャンウィンドウ画像と交通標識を含まないスキャンウィンドウ画像を交通標識ウィンドウ画像のサンプルとして確定し、その後サンプルの特徴値を取得してから、サンプル及びその特徴値を使用して、実際の需要に応じて設定された分類器モデルのパラメータを訓練して、それにより予め訓練された検出分類器モデルを取得する。   Here, the pre-trained detection classifier model first receives the manual marking and determines the scan window image including the traffic sign and the scan window image not including the traffic sign as the sample of the traffic sign window image in the scan window image. Then, after obtaining the sample feature value, the sample and its feature value are used to train the classifier model parameters set according to actual demand, thereby pre-trained detection classification Get a vessel model.

上記ステップ110においてスキャンウィンドウ画像の特徴値が取得された後に、スキャンウィンドウ画像の特徴値と上記予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出し、交通標識と思われるウィンドウ画像を取得して確認しようとする交通標識ウィンドウ画像とすることができる。 After the feature value of the scan window image is acquired in the step 110 , the scan window image is detected based on the feature value of the scan window image and the detection trainer model trained in advance, and the window that seems to be a traffic sign It can be a traffic sign window image to be acquired and confirmed.

ステップS130:予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得し、ここで、予め訓練された畳み込みニューラルネットワークモデルは確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて訓練して得られる。   Step S130: Based on the pretrained convolutional neural network model, the traffic sign window image to be confirmed is recognized and the traffic sign type is obtained, where the pretrained convolutional neural network model is confirmed. It is obtained by training based on a sample of a traffic sign window image and its traffic sign type.

ここで、予め訓練された畳み込みニューラルネットワークモデルは、まず手動マーキングを受信して、検出分類器モデルが検出してきた確認しようとする交通標識ウィンドウ画像のサンプルを分類して、具体的な交通標識種類又は非交通種類にマーキングし、その後確認しようとする交通標識ウィンドウ画像のサンプル及びその交通標識種類によって、実際の需要に応じて設定された畳み込みニューラルネットワークモデルを訓練して、それにより予め訓練された畳み込みニューラルネットワークモデルを取得する。   Here, the pre-trained convolutional neural network model first receives the manual marking, classifies the sample of the traffic sign window image to be confirmed detected by the detection classifier model, and the specific traffic sign type Alternatively, a convolutional neural network model set according to actual demand is trained according to a sample of a traffic sign window image to be marked and then to be confirmed and its traffic sign type, and then trained in advance. Get a convolutional neural network model.

上記のステップ120において確認しようとする交通標識ウィンドウ画像が取得された後に、確認しようとする交通標識ウィンドウ画像と上記予め訓練された畳み込みニューラルネットワークモデルとに基づいて、確認しようとする交通標識ウィンドウ画像を認識することができ、確認しようとする交通標識ウィンドウ画像に対応する確率が最大の交通標識種類を認識された交通標識種類とする。 After the traffic sign window image to be confirmed in step 120 is acquired, the traffic sign window image to be confirmed is determined based on the traffic sign window image to be confirmed and the pretrained convolutional neural network model. The traffic sign type with the highest probability corresponding to the traffic sign window image to be confirmed is set as the recognized traffic sign type.

本出願の上記実施例の交通標識を認識する方法によれば、パノラマ画像に交通標識を検出して認識する正確さを向上させるとともに、道路網データの更新効率を向上させる。   According to the method for recognizing a traffic sign in the above embodiment of the present application, the accuracy of detecting and recognizing the traffic sign in the panoramic image is improved and the efficiency of updating the road network data is improved.

以下、図2を参照して予め訓練された検出モデルを訓練する方法を説明する。   Hereinafter, a method of training a detection model trained in advance will be described with reference to FIG.

図2は本出願の実施例による予め訓練された検出モデルを訓練する方法を示す例示的なフローチャートである。   FIG. 2 is an exemplary flowchart illustrating a method for training a pre-trained detection model according to an embodiment of the present application.

図2に示すように、予め訓練された検出分類器モデルを訓練する方法200は以下のステップを含んでもよい。   As shown in FIG. 2, a method 200 for training a pre-trained detection classifier model may include the following steps.

ステップ201において、スキャンウィンドウ画像のサンプルにおける陽性サンプルと陰性サンプルを取得し、ここで、陽性サンプルは交通標識のウィンドウ画像を含むか又は交通標識とその周囲に所定の画素が拡張されたウィンドウ画像を含み、陰性サンプルは陽性サンプルを除外したスキャンウィンドウ画像を含む。   In step 201, a positive sample and a negative sample in a sample of the scan window image are obtained, wherein the positive sample includes a window image of a traffic sign or a window image in which a predetermined pixel is expanded around the traffic sign and its surroundings. Including negative samples include scan window images excluding positive samples.

ここで、スキャンウィンドウ画像のサンプルにおける陽性サンプルと陰性サンプルについては、まずスキャンウィンドウ画像からサンプルを取得して、その後に受信した手動マーキングに従って、上記スキャンウィンドウ画像のサンプルにおいて交通標識を含むウィンドウ画像又は交通標識とその周囲に所定の画素が拡張されたウィンドウ画像を陽性サンプルとして、サンプルにおける陽性サンプルを除外したスキャンウィンドウ画像を陰性サンプルとする。   Here, for the positive sample and the negative sample in the sample of the scan window image, first, the sample is obtained from the scan window image, and then the window image including the traffic sign in the sample of the scan window image according to the received manual marking or A window image in which a traffic sign and surrounding pixels are expanded is defined as a positive sample, and a scan window image obtained by excluding positive samples in the sample is defined as a negative sample.

上記陽性サンプルが交通標識のウィンドウ画像のみを含む際に、陽性サンプルの特徴値を計算する効率を向上させることができる。対象物体の周囲の画素も対象物体の自身を効果的に説明することができるのを考慮すれば、陽性サンプルが交通標識及びその周囲に所定の画素を拡張するウィンドウ画像を含む際に、陽性サンプルの特徴値を説明する正確さを向上させることができる。   When the positive sample includes only a window image of a traffic sign, the efficiency of calculating the characteristic value of the positive sample can be improved. Considering that the pixels around the target object can also effectively describe the target object itself, the positive sample when the positive sample includes a traffic sign and a window image that extends a predetermined pixel around it It is possible to improve the accuracy of describing the feature value of.

ステップ202において、陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得する。   In step 202, feature values obtained by a predetermined feature algorithm for a positive sample and a negative sample in a predetermined integration channel are obtained.

ここで、陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得する際に、所定の積分チャンネルは画像処理分野における従来技術においていずれか1種又は多種の積分チャンネルであってもよく、又は将来の技術において発展する可能性があるいずれか1種又は多種の積分チャンネルであってもよく、所定の特徴アルゴリズムは画像処理分野における従来技術においていずれか1種又は多種の特徴アルゴリズムであってもよく、将来の技術において発展する可能性があるいずれか1種又は多種の特徴アルゴリズムであってもよい。本出願では、具体的な特徴値を取得する所定の積分チャンネル及び所定の特徴アルゴリズムに制限されなく、ユーザにより実際の使用需要に応じて選択することができる。例えば、グレースケール画像チャネルにハールアルゴリズムによって取得されたハール(haar)特徴値、異なる角度パラメータの勾配画像チャンネルにヒストグラム特徴値アルゴリズムによって取得されたヒストグラム特徴値、赤、緑、青モノクロ画像チャンネルにランダムペア特徴値アルゴリズムによって取得されたランダムペア特徴値などである。   Here, when acquiring the characteristic values obtained by the predetermined feature algorithm in the predetermined integration channel of the positive sample and the negative sample, the predetermined integration channel is any one or various types in the conventional technology in the image processing field. It may be an integration channel, or any one or many types of integration channels that may develop in future technology, and the predetermined feature algorithm is any one in the prior art in the image processing field. Alternatively, it may be a variety of feature algorithms, or any one or a variety of feature algorithms that may develop in future technologies. In the present application, the present invention is not limited to a predetermined integration channel and a predetermined feature algorithm for obtaining a specific feature value, and can be selected according to an actual use demand by a user. For example, haar feature values obtained by the Haar algorithm for grayscale image channels, histogram feature values obtained by the histogram feature value algorithm for gradient image channels with different angular parameters, and random for red, green and blue monochrome image channels Random pair feature values obtained by the pair feature value algorithm.

選択的に、サンプルの特徴値を具体的に計算する際に、陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を迅速で効果的に取得するために、交通標識の種類によって、交通標識ウィンドウ画像のサンプルの所定の積分チャンネル及び所定の特徴アルゴリズムを確定することができる。例えば速度制限などのような禁止類標識に対して、赤色チャンネルに対する説明を強化することができる。好ましくは、所定の積分チャンネルは、グレースケール画像チャネル、赤、緑、青モノクロ画像チャンネル、異なる角度パラメータの勾配画像チャンネル、及びエッジ検出画像チャンネルなどのうちの1項又は複数項を含んでもよく、及び所定の特徴アルゴリズムは、ハール特徴アルゴリズム、ローカルバイナリパターン特徴アルゴリズム、ヒストグラム特徴アルゴリズム及びランダムペア特徴アルゴリズムなどのうちの1項又は複数項を含んでもよい。陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得するように、上記実施例における所定の積分チャンネルと所定の特徴アルゴリズムとを必要に応じて組み合わせてもよいことを、当業者が理解すべきである。   Optionally, when specifically calculating sample feature values, in order to quickly and effectively obtain the feature values obtained by a given feature algorithm in a given integration channel for positive and negative samples, Depending on the type of traffic sign, a predetermined integration channel and a predetermined feature algorithm of a sample of the traffic sign window image can be determined. The description for the red channel can be strengthened for prohibition indicators such as speed limits. Preferably, the predetermined integration channel may include one or more of a grayscale image channel, a red, green, blue monochrome image channel, a gradient image channel with different angular parameters, an edge detection image channel, etc. The predetermined feature algorithm may include one or more of a Haar feature algorithm, a local binary pattern feature algorithm, a histogram feature algorithm, a random pair feature algorithm, and the like. The predetermined integration channel and the predetermined feature algorithm in the above embodiment may be combined as necessary so as to obtain the characteristic values obtained by the predetermined feature algorithm in the predetermined integration channel of the positive sample and the negative sample. It should be appreciated by those skilled in the art.

ステップ203において、陽性サンプル及び陰性サンプルと、陽性サンプル及び陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値とに基づいて、boostingアルゴリズムによって検出分類器モデルを訓練して、予め訓練された検出分類器モデルを取得する。   In step 203, training the detection classifier model with a boosting algorithm based on the positive and negative samples and the feature values obtained by the predetermined feature algorithm in a predetermined integration channel of the positive and negative samples; Obtain a pre-trained detection classifier model.

ここで、上記ステップ202において陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得した後に、boostingアルゴリズムによって検出分類器モデルを訓練することができ、それにより高い正確さの結果分類器を予め訓練された検出分類器モデルとして取得する。   Here, after obtaining the feature values obtained by the predetermined feature algorithm in the predetermined integration channel of the positive sample and the negative sample in the above step 202, the detection classifier model can be trained by the boosting algorithm, thereby A high accuracy result classifier is obtained as a pretrained detection classifier model.

以下、図3を参照して、上記実施例をもとにして確認しようとする交通標識ウィンドウ画像を取得する方法を説明する。   Hereinafter, a method for acquiring a traffic sign window image to be confirmed based on the above embodiment will be described with reference to FIG.

図3は本出願の実施例による確認しようとする交通標識ウィンドウ画像を取得する方法を示す例示的なフローチャートである。   FIG. 3 is an exemplary flowchart illustrating a method for obtaining a traffic sign window image to be confirmed according to an embodiment of the present application.

図3に示すように、確認しようとする交通標識ウィンドウ画像を取得する方法300は、以下のステップを含む。   As shown in FIG. 3, a method 300 for obtaining a traffic sign window image to be confirmed includes the following steps.

ステップ301:全天球画像を連続的にダウンサンプリングして、画像ピラミッドを取得する。   Step 301: Continuously downsample the omnidirectional image to obtain an image pyramid.

ここで、全天球画像に対してピラミッド変換、例えばラプラスピラミッド変換などを行うことができ、全天球画像を元のサイズから異なるサイズに変換し、それにより多段画像を含む画像ピラミッドを取得する。   Here, pyramidal transformation, for example, Laplace pyramid transformation, can be performed on the omnidirectional image, and the omnidirectional image is converted from the original size to a different size, thereby obtaining an image pyramid including a multistage image. .

ステップ302:画像ピラミッドにより所定の積分チャンネルの積分画像で分割して得られた画像ピラミッドにおける各段画像のスキャンウィンドウ画像の積分画像を取得する。   Step 302: Acquire an integral image of a scan window image of each step image in the image pyramid obtained by dividing the integral image of a predetermined integration channel by the image pyramid.

上記ステップ301において画像ピラミッドが取得された後に、まず画像ピラミッドの各段画像を所定の積分チャンネルにおいて積分して、画像ピラミッドの積分画像を取得することができ、その後所定のサイズのウィンドウによって画像ピラミッドの積分画像を分割して、各段画像のスキャンウィンドウ画像の積分画像を取得する。   After the image pyramid is acquired in step 301, each stage image of the image pyramid can be first integrated in a predetermined integration channel to obtain an integrated image of the image pyramid, and then the image pyramid can be obtained by a window of a predetermined size. Are integrated to obtain an integrated image of the scan window image of each stage image.

ステップ303:各段画像のスキャンウィンドウ画像の積分画像に基づいて、各段画像のスキャンウィンドウ画像の特徴値を取得する。   Step 303: Based on the integrated image of the scan window image of each stage image, the feature value of the scan window image of each stage image is acquired.

上記ステップ302において各段画像のスキャンウィンドウ画像の積分画像が取得された後に、各段画像のスキャンウィンドウ画像の積分画像に基づいて、各段画像のスキャンウィンドウ画像の積分画像で演算し、各段画像のスキャンウィンドウ画像の特徴値を迅速に取得することができる。   After the integral image of the scan window image of each stage image is acquired in the above step 302, calculation is performed on the integral image of the scan window image of each stage image based on the integral image of the scan window image of each stage image. The feature value of the scan window image of the image can be acquired quickly.

ステップ304:各段画像のスキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、各段画像のスキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得する。   Step 304: Based on the feature value of the scan window image of each stage image and the pre-trained detection classifier model, the scan window image of each stage image is detected to obtain the traffic sign window image to be confirmed. .

上記ステップ303において各段画像のスキャンウィンドウ画像の特徴値が取得された後に、各段画像のスキャンウィンドウ画像の特徴値に基づいて、予め訓練された検出分類器モデルによって各段画像のスキャンウィンドウ画像を検出することができ、その中の交通標識と思われるウィンドウ画像を取得して確認しようとする交通標識ウィンドウ画像とし、それにより画像ピラミッドにおける全ての確認しようとする交通標識ウィンドウ画像を取得する。   After the feature value of the scan window image of each step image is acquired in the above step 303, the scan window image of each step image is detected by a pre-trained detection classifier model based on the feature value of the scan window image of each step image. , And a traffic sign window image to be confirmed by acquiring a window image that seems to be a traffic sign therein, thereby obtaining all the traffic sign window images to be confirmed in the image pyramid.

本出願の上記実施例の確認しようとする交通標識ウィンドウ画像を取得する方法によれば、全天球画像においてピラミッド変換によって得られたピラミッド画像からスキャンウィンドウ画像を取得し、その後、確認しようとする交通標識ウィンドウ画像を取得するように、各段画像のスキャンウィンドウ画像を検出して、全天球画像において確認しようとする交通標識ウィンドウを欠落する可能性を減少するため、確認しようとする交通標識ウィンドウを取得する正確さを向上させる。また、積分画像を採用して各段画像のスキャンウィンドウ画像の特徴値を取得するため、特徴値の取得速度を向上させる。   According to the method of acquiring the traffic sign window image to be confirmed in the above embodiment of the present application, the scan window image is acquired from the pyramid image obtained by the pyramid transformation in the omnidirectional image, and then the user wants to confirm the scan window image. The traffic sign to be confirmed is detected in order to reduce the possibility of missing the traffic sign window to be confirmed in the omnidirectional image by detecting the scan window image of each step image so as to obtain the traffic sign window image. Improve the accuracy of getting the window. Further, since the feature value of the scan window image of each stage image is obtained by using the integral image, the feature value acquisition speed is improved.

以下、図4を参照して、予め訓練された畳み込みニューラルネットワークモデルを訓練する方法を説明する。   Hereinafter, a method for training a pretrained convolutional neural network model will be described with reference to FIG.

図4は、本出願の実施例による予め訓練された畳み込みニューラルネットワークモデルを訓練する方法を示す例示的なフローチャートである。   FIG. 4 is an exemplary flowchart illustrating a method for training a pretrained convolutional neural network model according to an embodiment of the present application.

図4に示すように、予め訓練された畳み込みニューラルネットワークモデルを訓練する方法400は、以下のステップを含む。   As shown in FIG. 4, a method 400 for training a pre-trained convolutional neural network model includes the following steps.

ステップ401:ガウス分布に従って、所定の畳み込みニューラルネットワークモデルの畳み込み層と全結合層の両者の重みを初期化し、所定の畳み込みニューラルネットワークモデルは順次に接続された畳み込み層、抽出層、全結合層及び正規化層を含む。   Step 401: Initialize the weights of both the convolutional layer and the fully connected layer of a predetermined convolutional neural network model according to a Gaussian distribution, and the predetermined convolutional neural network model is connected to a convolutional layer, an extraction layer, a fully connected layer, and Includes a normalization layer.

ここで、順次に接続された畳み込み層、抽出層、全結合層及び正規化層は、1つの畳み込み層、1つの抽出層、1つの全結合層及び1つの正規化層を含んでもよく、複数の畳み込み層及び畳み込み層に一対一対応した抽出層、1つの以上の全結合層及び1つの正規化層を含んでもよい。   Here, the convolution layer, the extraction layer, the total coupling layer, and the normalization layer connected in sequence may include one convolution layer, one extraction layer, one full coupling layer, and one normalization layer. And a convolution layer and an extraction layer corresponding to the convolution layer, one or more full coupling layers, and a normalization layer.

ここで、設置された畳み込み層は、畳み込み演算によって、原信号特徴を強化して、且つ雑音を低減することができ、設置された抽出層は、画像局所相関性の原理を利用して、画像をサブサンプリングすることができ、データ処理量を減少するとともに有用な情報を保留する。   Here, the installed convolution layer can reinforce the original signal characteristics and reduce noise by the convolution operation, and the installed extraction layer uses the principle of image local correlation to Can be subsampled, reducing data throughput and holding useful information.

以下、図5を例として、所定の畳み込みニューラルネットワークモデルを説明する。   Hereinafter, a predetermined convolution neural network model will be described with reference to FIG.

図5は本出願の実施例による所定の畳み込みニューラルネットワークモデルを示す例示的な構造図である。   FIG. 5 is an exemplary structural diagram illustrating a predetermined convolutional neural network model according to an embodiment of the present application.

図5に示すように、所定の畳み込みニューラルネットワークモデル500は、順次に接続された畳み込み層conv1、抽出層pool1、畳み込み層conv2、抽出層pool2、畳み込み層conv3、抽出層pool3、全結合層fc1、全結合層fc2を含む。   As shown in FIG. 5, a predetermined convolutional neural network model 500 includes a convolutional layer conv1, an extraction layer pool1, a convolutional layer conv2, an extraction layer pool2, a convolutional layer conv3, an extraction layer pool3, an all coupling layer fc1, which are sequentially connected. The entire coupling layer fc2 is included.

ここで、conv1は16個のサイズが5*5*3の畳み込みカーネルを有し、conv2は32個のサイズが5*5*16の畳み込みカーネルを有し、conv3は64個のサイズが5*5*32の畳み込みカーネルを有する。2つの全結合層はそれぞれ512と120個のニューロンを有する。   Here, conv1 has 16 convolution kernels of size 5 * 5 * 3, conv2 has 32 convolution kernels of size 5 * 5 * 16, and conv3 has 64 sizes of 5 * Has a 5 * 32 convolution kernel. The two fully connected layers have 512 and 120 neurons, respectively.

図4に戻し、ステップ402において、確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて、誤差逆伝搬BPアルゴリズムによって畳み込み層と全結合層の両者の重みを反復する。   Returning to FIG. 4, in step 402, the weights of both the convolutional layer and the fully connected layer are iterated by the backpropagation BP algorithm based on the confirmed sample traffic sign window image and its traffic sign type.

ここで、確認された交通標識ウィンドウ画像のサンプルは、確認しようとする交通標識ウィンドウ画像から抽出されたサンプルにおいて、受信された手動マーキングに基づいて確認した後の、交通標識を含むウィンドウ画像のサンプルである。   Here, the sample of the confirmed traffic sign window image is a sample of the window image including the traffic sign after confirmation based on the received manual marking in the sample extracted from the traffic sign window image to be confirmed. It is.

更に、確認された交通標識ウィンドウ画像のサンプルは、交通標識ウィンドウ画像が確認できたオリジナルサンプル、及び交通標識ウィンドウ画像が確認できたオリジナルサンプルに対して回転、並進及びスケーリングのうちの1項又は複数項の処理を行った後に所定のウィンドウサイズに正規化する画像を含んでもよい。サンプルを拡張することによって、サンプル認識の正確率を向上させることができる。   Further, the confirmed traffic sign window image sample is an original sample in which the traffic sign window image is confirmed, and one or more of rotation, translation, and scaling with respect to the original sample in which the traffic sign window image is confirmed. An image that is normalized to a predetermined window size after the processing of the term is performed may be included. By expanding the sample, the accuracy rate of sample recognition can be improved.

その後、ステップS403又はステップS404によって最適な重みの畳み込みニューラルネットワークモデルを確定することができる。   Thereafter, a convolutional neural network model having an optimum weight can be determined in step S403 or step S404.

ステップS403:現在に反復された重みと前回に反復された重みとの差が所定の値より小さい場合に、現在に反復された重みを最適な重みとして確定する。   Step S403: If the difference between the currently repeated weight and the previously repeated weight is smaller than a predetermined value, the currently repeated weight is determined as the optimum weight.

ステップS404:誤り率の最低の反復された重みが出現する場合に、誤り率の最低の反復された重みを最適な重みとして確定する。   Step S404: If the repeated weight with the lowest error rate appears, determine the repeated weight with the lowest error rate as the optimum weight.

ステップS405:最適な重みを含む畳み込みニューラルネットワークモデルを予め訓練された畳み込みニューラルネットワークモデルとする。   Step S405: The convolutional neural network model including the optimum weight is set as a pretrained convolutional neural network model.

予め訓練された畳み込みニューラルネットワークモデルが訓練された後に、図1におけるステップ130においては、確認しようとする交通標識ウィンドウ画像を畳み込みニューラルネットワークモデルに入力して、正規化層によって出力された、重みが最大の交通標識種類を取得するステップと、重みが最大の交通標識種類を認識して得られた交通標識種類とするステップとを含んでもよい。 After the pretrained convolutional neural network model is trained, in step 130 in FIG. 1, the traffic sign window image to be confirmed is input to the convolutional neural network model, and the weight output by the normalization layer is A step of obtaining the maximum traffic sign type and a step of obtaining the traffic sign type obtained by recognizing the traffic sign type having the maximum weight may be included.

図6は本出願の実施例による交通標識を認識する装置を示す構造模式図である。   FIG. 6 is a structural schematic diagram showing an apparatus for recognizing a traffic sign according to an embodiment of the present application.

図6に示すように、前記交通標識を認識する装置600は、特徴値取得モジュール610、交通標識検出モジュール620及び交通標識認識モジュール630を備えてもよい。   As shown in FIG. 6, the traffic sign recognition apparatus 600 may include a feature value acquisition module 610, a traffic sign detection module 620, and a traffic sign recognition module 630.

特徴値取得モジュール610は、全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得することに用いられる。   The feature value acquisition module 610 is used to acquire a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by dividing the omnidirectional image.

選択的に、特徴値取得モジュール610は、全天球画像により所定の積分チャンネルの積分画像で分割して得られたスキャンウィンドウ画像の積分画像を取得するための第1積分画像取得サブモジュール611と、スキャンウィンドウ画像の積分画像に基づいて、スキャンウィンドウ画像の特徴値を取得するための第1特徴値取得サブモジュール612と、を備えてもよい。   Optionally, the feature value acquisition module 610 includes a first integrated image acquisition sub-module 611 for acquiring an integrated image of a scan window image obtained by dividing the whole celestial sphere image by an integrated image of a predetermined integration channel. And a first feature value acquisition sub-module 612 for acquiring a feature value of the scan window image based on the integral image of the scan window image.

交通標識検出モジュール620は、スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得することに用いられ、ここで、予め訓練された検出分類器モデルはスキャンウィンドウ画像のサンプル及びその特徴値に基づいて訓練して得られる。   The traffic sign detection module 620 is used to detect a scan window image based on a feature value of the scan window image and a pre-trained detection classifier model and obtain a traffic sign window image to be confirmed. Here, the pre-trained detection classifier model is obtained by training based on the scan window image sample and its feature value.

交通標識認識モジュール630は、予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得することに用いられ、ここで、予め訓練された畳み込みニューラルネットワークモデルは確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて訓練して得られる。   The traffic sign recognition module 630 is used for recognizing a traffic sign window image to be confirmed based on a pretrained convolutional neural network model and acquiring a traffic sign type, where the trained information is pretrained. A convolutional neural network model is obtained by training based on a sample of a confirmed traffic sign window image and its traffic sign type.

本出願の上記実施例の交通標識を認識する装置によれば、パノラマ画像に交通標識を検出して認識する正確さを向上させるとともに、道路網データの更新効率を向上させる。   According to the apparatus for recognizing a traffic sign of the above embodiment of the present application, the accuracy of detecting and recognizing the traffic sign in the panoramic image is improved and the updating efficiency of the road network data is improved.

選択的に、上記の予め訓練された検出分類器モデルは、以下のような方法によって取得されてもよく、即ち、スキャンウィンドウ画像のサンプルにおける陽性サンプルと陰性サンプルを取得し、陽性サンプルは交通標識のウィンドウ画像を含むか又は交通標識及びその周囲に所定の画素が拡張されたウィンドウ画像を含み、陰性サンプルは陽性サンプルを除外するスキャンウィンドウ画像を含み、陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得し、陽性サンプル及び陰性サンプルと、陽性サンプル及び陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値とに基づいて、boostingアルゴリズムによって検出分類器モデルを訓練して、予め訓練された検出分類器モデルを取得する。   Alternatively, the pre-trained detection classifier model described above may be obtained by the following method: obtaining positive and negative samples in the sample of the scan window image, where the positive sample is a traffic sign Or a window image in which predetermined pixels are expanded around the traffic sign and its surroundings, the negative sample includes a scan window image that excludes positive samples, and a predetermined integration channel of positive samples and negative samples. And obtaining boost values based on the positive and negative samples and the positive and negative sample feature values obtained by the predetermined feature algorithm in the predetermined integration channel. Depending on the algorithm, the detection classifier module To train Le, obtains a detection classifier models previously trained.

上記の予め訓練された検出分類器モデルを取得する方法は、図7に示すような検出分類器モデル訓練装置によって実現できる。   The above-described method for acquiring a pre-trained detection classifier model can be realized by a detection classifier model training apparatus as shown in FIG.

図7は本出願の実施例による検出分類器モデル訓練装置の例示的な構造図を示す。   FIG. 7 shows an exemplary structural diagram of a detection classifier model training apparatus according to an embodiment of the present application.

図7に示すように、検出分類器モデル訓練装置700は、サンプル取得モジュール701、サンプル特徴値取得モジュール702及び検出モデル訓練モジュール703を備えてもよい。   As shown in FIG. 7, the detection classifier model training apparatus 700 may include a sample acquisition module 701, a sample feature value acquisition module 702, and a detection model training module 703.

サンプル取得モジュール701は、スキャンウィンドウ画像のサンプルにおける陽性サンプルと陰性サンプルを取得することに用いられ、ここで、陽性サンプルは交通標識のウィンドウ画像を含むか又は交通標識及びその周囲に所定の画素が拡張されたウィンドウ画像を含み、陰性サンプルは陽性サンプルを除外するスキャンウィンドウ画像を含む。   The sample acquisition module 701 is used to acquire a positive sample and a negative sample in a sample of a scan window image, where the positive sample includes a window image of a traffic sign or a predetermined pixel around the traffic sign and its surroundings. A negative sample includes a scan window image that includes an expanded window image and excludes positive samples.

サンプル特徴値取得モジュール702は、陽性サンプルと陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得することに用いられる。   The sample feature value acquisition module 702 is used to acquire feature values obtained by a predetermined feature algorithm in a predetermined integration channel of positive samples and negative samples.

所定の積分チャンネルは、グレースケール画像チャネル、赤、緑、青モノクロ画像チャンネル、異なる角度パラメータの勾配画像チャンネル、及びエッジ検出画像チャンネルのうちの1項又は複数項を含み、及び所定の特徴アルゴリズムは、ハール特徴アルゴリズム、ローカルバイナリパターン特徴アルゴリズム、ヒストグラム特徴アルゴリズム及びランダムペア特徴アルゴリズムのうちの1項又は複数項を含む。   The predetermined integration channel includes one or more of a gray scale image channel, a red, green, blue monochrome image channel, a gradient image channel with different angular parameters, and an edge detection image channel, and the predetermined feature algorithm is One or more of a Haar feature algorithm, a local binary pattern feature algorithm, a histogram feature algorithm, and a random pair feature algorithm.

検出モデル訓練モジュール703は、陽性サンプル及び陰性サンプルと、陽性サンプル及び陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値とに基づいて、boostingアルゴリズムによって検出分類器モデルを訓練して、予め訓練された検出分類器モデルを取得することに用いられる。   The detection model training module 703 trains the detection classifier model by the boosting algorithm based on the positive and negative samples and the feature values obtained by the predetermined feature algorithm in the predetermined integration channel of the positive and negative samples. And used to obtain a pre-trained detection classifier model.

以下、図8を参照して、上記実施例をもとにして、確認しようとする交通標識ウィンドウ画像を取得する装置を説明する。   Hereinafter, an apparatus for acquiring a traffic sign window image to be confirmed will be described with reference to FIG.

図8は確認しようとする交通標識ウィンドウ画像を取得するための装置の例示的な構造図を示す。   FIG. 8 shows an exemplary structural diagram of an apparatus for obtaining a traffic sign window image to be confirmed.

図8に示すように、確認しようとする交通標識ウィンドウ画像を取得するための装置800は、ダウンサンプリングサブモジュール801、第2積分画像取得サブモジュール802、第2特徴値取得サブモジュール803及び多段検出サブモジュール804を含んでもよい。   As shown in FIG. 8, an apparatus 800 for acquiring a traffic sign window image to be confirmed includes a downsampling sub-module 801, a second integral image acquisition sub-module 802, a second feature value acquisition sub-module 803, and multistage detection. A submodule 804 may be included.

ダウンサンプリングサブモジュール801は、全天球画像を連続的にダウンサンプリングして、画像ピラミッドを取得することに用いられる。   The downsampling submodule 801 is used to continuously downsample the omnidirectional image to obtain an image pyramid.

第2積分画像取得サブモジュール802は、画像ピラミッドにより所定の積分チャンネルの積分画像で分割して得られた画像ピラミッドの中で各段画像のスキャンウィンドウ画像の積分画像を取得することに用いられる。   The second integrated image acquisition submodule 802 is used to acquire an integrated image of the scan window image of each stage image in the image pyramid obtained by dividing the integrated image of the predetermined integration channel by the image pyramid.

第2特徴値取得サブモジュール803は、各段画像のスキャンウィンドウ画像の積分画像に基づいて、各段画像のスキャンウィンドウ画像の特徴値を取得することに用いられる。   The second feature value acquisition submodule 803 is used to acquire the feature value of the scan window image of each stage image based on the integral image of the scan window image of each stage image.

多段検出サブモジュール804は、各段画像のスキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、各段画像のスキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得することに用いられる。   The multi-stage detection sub-module 804 detects the scan window image of each stage image based on the feature value of the scan window image of each stage image and the pre-trained detection classifier model and confirms the traffic sign window to be confirmed. Used to acquire images.

本出願の実施例の上記した確認しようとする交通標識ウィンドウ画像を取得する装置によれば、更に確認しようとする交通標識ウィンドウ画像を取得する正確率を向上させるとともに確認しようとする交通標識ウィンドウ画像を検出する速度を向上させることができる。   According to the apparatus for acquiring the traffic sign window image to be confirmed described above in the embodiment of the present application, the accuracy rate for acquiring the traffic sign window image to be further confirmed is improved and the traffic sign window image to be confirmed is confirmed. Can be detected at a higher speed.

選択的に、上記図6における予め訓練された畳み込みニューラルネットワークモデルは以下のような方法によって取得されてもよく、ガウス分布に従って、所定の畳み込みニューラルネットワークモデルの畳み込み層と全結合層の両者の重みを初期化し、ここで、前記所定の畳み込みニューラルネットワークモデルは順次に接続された畳み込み層、抽出層、全結合層及び正規化層を備え、確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて、誤差逆伝搬BPアルゴリズムによって前記畳み込み層と前記全結合層の両者の重みを反復し、現在に反復された重みと前回に反復された重みとの差が所定の値より小さい場合に、現在に反復された重みを最適な重みとして確定し、最適な重みを含む畳み込みニューラルネットワークモデルを前記予め訓練された畳み込みニューラルネットワークモデルとし、又は誤り率の最低の反復された重みが出現する場合に、誤り率の最低の反復された重みを最適な重みとして確定し、最適な重みを含む畳み込みニューラルネットワークモデルを前記予め訓練された畳み込みニューラルネットワークモデルとする。   Alternatively, the pretrained convolutional neural network model in FIG. 6 may be obtained by the following method, and the weights of both the convolutional layer and the fully connected layer of a given convolutional neural network model according to a Gaussian distribution. Where the predetermined convolutional neural network model comprises a convolutional layer, an extraction layer, a fully connected layer and a normalization layer connected in sequence, a sample of a confirmed traffic sign window image and its traffic sign type When the weights of both the convolutional layer and the total coupling layer are repeated by the error backpropagation BP algorithm, and the difference between the currently repeated weight and the previously repeated weight is smaller than a predetermined value, The currently repeated weight is determined as the optimal weight, and the convolutional neural network including the optimal weight is determined. The work model is the pretrained convolutional neural network model, or when the repeated weight with the lowest error rate appears, the lowest repeated weight with the error rate is determined as the optimal weight, and the optimal weight Is a pre-trained convolutional neural network model.

確認された交通標識ウィンドウ画像のサンプルは、確認しようとする交通標識ウィンドウ画像から抽出されたサンプルにおいて、受信された手動マーキングに基づいて確認した後の、交通標識を含むウィンドウ画像のサンプルである。   The confirmed traffic sign window image sample is a sample of the window image including the traffic sign after confirmation based on the received manual marking in the sample extracted from the traffic sign window image to be confirmed.

更に、確認された交通標識ウィンドウ画像のサンプルは、交通標識ウィンドウ画像が確認できたオリジナルサンプル、及び交通標識ウィンドウ画像が確認できたオリジナルサンプルに対して回転、並進及びスケーリングのうちの1項又は複数項の処理を行った後に所定のウィンドウサイズに正規化する画像を含んでもよい。   Further, the confirmed traffic sign window image sample is an original sample in which the traffic sign window image is confirmed, and one or more of rotation, translation, and scaling with respect to the original sample in which the traffic sign window image is confirmed. An image that is normalized to a predetermined window size after the processing of the term is performed may be included.

ここで、順次に接続された畳み込み層、抽出層、全結合層及び正規化層は複数の畳み込み層及び畳み込み層に一対一対応した抽出層、1つの以上の全結合層及び1つの正規化層を備える。   Here, the convolution layer, the extraction layer, the total coupling layer, and the normalization layer that are sequentially connected are a plurality of convolution layers and an extraction layer corresponding to the convolution layer, one or more total coupling layers, and one normalization layer. Is provided.

更に、所定の畳み込みニューラルネットワークモデルは損失関数層を更に備えてもよい。   Furthermore, the predetermined convolution neural network model may further include a loss function layer.

所定の畳み込みニューラルネットワークモデルに対応して損失関数層を更に含み、誤差逆伝搬BPアルゴリズムによって前記畳み込み層と前記全結合層の両者の重みを反復するステップにおいては、損失関数とBPアルゴリズムによって畳み込み層と全結合層の両者の重みをそれぞれ反復するステップを含んでもよい。   In the step of further including a loss function layer corresponding to a predetermined convolutional neural network model and repeating the weights of both the convolution layer and the all coupling layer by an error back-propagation BP algorithm, a convolution layer is obtained by the loss function and the BP algorithm. And repeating the weights of both the and all connected layers, respectively.

上記の予め訓練された畳み込みニューラルネットワークモデルを取得する方法は図9に示した予め訓練された畳み込みニューラルネットワークモデルを訓練する装置によって実現できる。   The above-described method for obtaining the pretrained convolutional neural network model can be realized by the apparatus for training the pretrained convolutional neural network model shown in FIG.

図9は本出願の実施例による予め訓練された畳み込みニューラルネットワークモデルを訓練するための装置を示す例示的な構造図である。   FIG. 9 is an exemplary structural diagram illustrating an apparatus for training a pretrained convolutional neural network model according to an embodiment of the present application.

図9に示すように、予め訓練された畳み込みニューラルネットワークモデルを訓練するための装置900は、以下のモジュールを備える。   As shown in FIG. 9, an apparatus 900 for training a pre-trained convolutional neural network model comprises the following modules:

初期化モジュール901は、ガウス分布に従って、所定の畳み込みニューラルネットワークモデルの畳み込み層と全結合層の両者の重みを初期化することに用いられ、ここで、所定の畳み込みニューラルネットワークモデルは順次に接続された畳み込み層、抽出層、全結合層及び正規化層を備える。   The initialization module 901 is used to initialize the weights of both the convolutional layer and the fully connected layer of a predetermined convolutional neural network model according to a Gaussian distribution, where the predetermined convolutional neural network model is sequentially connected. A convolution layer, an extraction layer, a fully connected layer and a normalization layer.

順次に接続された畳み込み層、抽出層、全結合層及び正規化層は複数の畳み込み層及び畳み込み層に一対一対応した抽出層、1つの以上の全結合層及び1つの正規化層を備える。   The convolutional layer, the extraction layer, the total coupling layer, and the normalization layer that are sequentially connected include a plurality of convolutional layers and an extraction layer corresponding to the convolutional layer, one or more total coupling layers, and one normalization layer.

選択的に、所定の畳み込みニューラルネットワークモデルは損失関数層を更に備える。   Optionally, the predetermined convolutional neural network model further comprises a loss function layer.

重み反復モジュール902は、確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて、誤差逆伝搬BPアルゴリズムによって畳み込み層と全結合層の両者の重みを反復することに用いられる。   The weight iteration module 902 is used to iterate the weights of both the convolutional layer and the fully connected layer by the backpropagation BP algorithm based on the confirmed traffic sign window image sample and its traffic sign type.

第1最適な重み確定モジュール903は、現在に反復された重みと前回に反復された重みとの差が所定の値より小さい場合に、現在に反復された重みを最適な重みとして確定することに用いられる。   The first optimum weight determination module 903 determines the currently repeated weight as the optimum weight when the difference between the currently repeated weight and the previously repeated weight is smaller than a predetermined value. Used.

第2最適な重み確定モジュール904は、誤り率の最低の反復された重みが出現する場合に、誤り率の最低の反復された重みを最適な重みとして確定することに用いられる。   The second optimum weight determination module 904 is used to determine the lowest repeated weight with the lowest error rate as the optimum weight when the lowest repeated weight with the error rate appears.

モデル設定モジュール905は、最適な重みを含む畳み込みニューラルネットワークモデルを予め訓練された畳み込みニューラルネットワークモデルとすることに用いられる。   The model setting module 905 is used to make a convolutional neural network model including optimal weights into a pretrained convolutional neural network model.

所定の畳み込みニューラルネットワークモデルに対応して損失関数層を更に備え、重み確定モジュール902は更に損失関数とBPアルゴリズムによって畳み込み層と全結合層の両者の重みをそれぞれ反復することに用いられる。   A loss function layer is further provided corresponding to a predetermined convolutional neural network model, and the weight determination module 902 is further used to iterate the weights of both the convolution layer and the fully connected layer by the loss function and the BP algorithm, respectively.

予め訓練された畳み込みニューラルネットワークモデルを訓練するための装置900によって予め訓練された畳み込みニューラルネットワークモデルが訓練された後に、図6における交通標識認識モジュール630は、確認しようとする交通標識ウィンドウ画像を畳み込みニューラルネットワークモデルに入力して、正規化層によって出力された、重みが最大の交通標識種類を取得するための最大重み認識モジュール(図示せず)、及び重みが最大の交通標識種類を認識して得られた交通標識類として設定する標識種類設定モジュール(図示せず)を備えてもよい。   After the pretrained convolutional neural network model is trained by the apparatus 900 for training the pretrained convolutional neural network model, the traffic sign recognition module 630 in FIG. 6 convolves the traffic sign window image to be verified. A maximum weight recognition module (not shown) for obtaining the traffic sign type with the maximum weight, which is input to the neural network model and output by the normalization layer, and recognizes the traffic sign type with the maximum weight You may provide the sign kind setting module (not shown) set as the obtained traffic signs.

装置600に記載の各ユニットは図1を参照しながら説明した方法における各ステップに対応する。装置700に記載の各ユニットは図2を参照しながら説明した方法における各ステップに対応する。装置800に記載の各ユニットは図3を参照しながら説明した方法における各ステップに対応する。装置900に記載の各ユニットは図4を参照しながら説明した方法における各ステップに対応することを理解すべきである。それにより、以上で交通標識を認識する方法に対して説明した操作及び特徴は同様に装置600及びその中に含まれたユニットに適用し、以上で予め訓練された検出モデルを訓練する方法に対して説明した操作及び特徴は同様に装置700及びその中に含まれたユニットに適用し、以上で確認しようとする交通標識ウィンドウ画像を取得する方法に対して説明した操作及び特徴は同様に装置800及びその中に含まれたユニットに適用し、以上で予め訓練された畳み込みニューラルネットワークモデルを訓練する方法に対して説明した操作及び特徴は同様に装置900及びその中に含まれたユニットに適用するので、ここで省略する。本出願の実施例の案を実現するように、装置600、700、800及び900における対応するユニットを端末機器及び/又はサーバーにおけるユニットに互いに合わせてもよい。   Each unit described in the apparatus 600 corresponds to each step in the method described with reference to FIG. Each unit described in the apparatus 700 corresponds to each step in the method described with reference to FIG. Each unit described in the apparatus 800 corresponds to each step in the method described with reference to FIG. It should be understood that each unit described in apparatus 900 corresponds to a step in the method described with reference to FIG. Thereby, the operations and features described above for the method of recognizing traffic signs apply to the apparatus 600 and the units contained therein as well, and to the method of training the detection model previously trained above. The operations and features described above are similarly applied to the apparatus 700 and the units included therein, and the operations and characteristics described above for the method of obtaining the traffic sign window image to be confirmed are similarly the apparatus 800. And the operations and features described above for the method of training a pretrained convolutional neural network model as applied to the units included therein and the units included therein are similarly applied to the apparatus 900 and the units included therein. It is omitted here. Corresponding units in the devices 600, 700, 800 and 900 may be matched to each other in the terminal equipment and / or server so as to realize the proposed embodiment of the present application.

本発明の実施例に記載されたモジュールは、ソフトウェアで実現されてもよく、ハードウェアで実現されてもよい。記載されたモジュールは、プロセッサに設定されてもよく、例えば、「特徴値取得モジュール、検出モジュール、及び認識モジュールを備えるプロセッサ」として記載されてもよい。その中でも、これらのモジュールの名称は、ある場合において当該モジュールその自体を限定するものではなく、例えば、特徴値取得モジュールは、「全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得するためのモジュール」として記載されてもよい。   The modules described in the embodiments of the present invention may be realized by software or hardware. The described module may be set in the processor, and may be described as, for example, “a processor including a feature value acquisition module, a detection module, and a recognition module”. Among them, the names of these modules do not limit the module itself in some cases. For example, the feature value acquisition module is “a predetermined value of a scan window image obtained by dividing an omnidirectional image”. May be described as “a module for obtaining a feature value obtained by a predetermined feature algorithm”.

図10は本出願の実施例によるコンピュータシステムを示す構造模式図である。   FIG. 10 is a structural schematic diagram showing a computer system according to an embodiment of the present application.

本出願の実施例の機器に適用されるコンピュータシステム1000の構造模式図である図10を参照する。 Reference is made to FIG. 10, which is a structural schematic diagram of a computer system 1000 applied to the device of the embodiment of the present application.

図10に示すように、コンピュータシステム1000は、読み出し専用メモリ(ROM)1002に記憶されているプログラム又は記憶部1008からランダムアクセスメモリ(RAM)1003にロードされたプログラムに基づいて様々な適当な動作及び処理を実行することができる中央処理装置(CPU)1001を備える。ROM1002に記憶されているプログラム又は記憶部1008からRAM1003にロードされたプログラムがCPU1001により実行される場合に、CPU1001が本出願に記載されている方法を実施する。RAM1003には、システム1000の操作に必要な様々なプログラム及びデータがさらに記憶されている。CPU1001、ROM1002及びRAM1003は、バス1004を介して互いに接続されている。入力/出力(I/O)インターフェース1005もバス1004に接続されている。   As shown in FIG. 10, the computer system 1000 performs various appropriate operations based on a program stored in a read-only memory (ROM) 1002 or a program loaded from a storage unit 1008 to a random access memory (RAM) 1003. And a central processing unit (CPU) 1001 capable of executing processing. When a program stored in the ROM 1002 or a program loaded from the storage unit 1008 to the RAM 1003 is executed by the CPU 1001, the CPU 1001 executes the method described in the present application. The RAM 1003 further stores various programs and data necessary for operating the system 1000. The CPU 1001, ROM 1002, and RAM 1003 are connected to each other via a bus 1004. An input / output (I / O) interface 1005 is also connected to the bus 1004.

キーボード、マウスなどを含む入力部1006、陰極線管(CRT)、液晶ディスプレイ(LCD)など、及びスピーカなどを含む出力部1007、ハードディスクなどを含む記憶部1008、及びLANカード、モデムなどを含むネットワークインターフェースカードの通信部1009は、I/Oインターフェース1005に接続されている。通信部1009は、例えばインターネットのようなネットワークを介して通信処理を実行する。ドライバ1010は、必要に応じてI/Oインターフェース1005に接続される。リムーバブルメディア1011は、例えば、マグネチックディスク、光ディスク、光磁気ディスク、半導体メモリなどのようなものであり、必要に応じてドライバ1010に取り付けられ、したがって、ドライバ1010から読み出されたコンピュータプログラムが必要に応じて記憶部1008にインストールされる。   An input unit 1006 including a keyboard and a mouse, a cathode ray tube (CRT), a liquid crystal display (LCD), and an output unit 1007 including a speaker, a storage unit 1008 including a hard disk, and a network interface including a LAN card and a modem The communication unit 1009 of the card is connected to the I / O interface 1005. The communication unit 1009 executes communication processing via a network such as the Internet. The driver 1010 is connected to the I / O interface 1005 as necessary. The removable medium 1011 is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like, and is attached to the driver 1010 as necessary. Therefore, a computer program read from the driver 1010 is necessary. Is installed in the storage unit 1008 accordingly.

特に、本発明の実施例によれば、上記のフローチャートを参照しながら記載されたプロセスは、コンピュータのソフトウェアプログラムとして実現されてもよい。例えば、本発明の実施例は、コンピュータプログラム製品を含み、当該コンピュータプログラム製品は、機械可読媒体に有形に具現化されるコンピュータプログラムを含み、前記コンピュータプログラムは、フローチャートで示される方法を実行するためのプログラムコードを含む。このような実施例では、当該コンピュータプログラムは、通信部1009を介してネットワークからダウンロードされてインストールされてもよく、及び/又はリムーバブルメディア1011からインストールされてもよい。   In particular, according to an embodiment of the present invention, the process described with reference to the above flowchart may be implemented as a software program on a computer. For example, embodiments of the present invention include a computer program product, the computer program product comprising a computer program tangibly embodied on a machine-readable medium, the computer program performing the method shown in the flowchart. Including program code. In such an embodiment, the computer program may be downloaded and installed from the network via the communication unit 1009 and / or installed from the removable medium 1011.

図面におけるフローチャート及びブロック図は、本発明の各実施例に係るシステム、方法及びコンピュータプログラム製品により実現可能なアーキテクチャ、機能及び操作を示す。ここで、フローチャート又はブロック図における各枠は、1つのモジュール、プログラムセグメント、又はコードの一部を代表してもよく、前記モジュール、プログラムセグメント、又はコードの一部は、規定された論理機能を達成するための1つ以上の実行可能な命令を含む。また、いくつかの代替実施態様として、枠に示された機能は、図面に示された順番と異なる順番で実行されてもよい。例えば、連続して示された2つの枠は、関連する機能に応じて、実際にほぼ並行に実行されてもよく、逆の順番で実行されてもよい。また、ブロック図及び/又はフローチャートにおける各枠と、ブロック図及び/又はフローチャートにおける枠の組合せは、規定された機能又は操作を実行する、ハードウェアに基づく専用システムで実現されてもよく、あるいは、専用ハードウェアとコンピュータの命令との組合せで実行されてもよい。   The flowcharts and block diagrams in the Figures illustrate the architecture, functionality, and operation that can be implemented by systems, methods and computer program products according to embodiments of the present invention. Here, each frame in the flowchart or block diagram may represent one module, program segment, or part of code, and the module, program segment, or part of code may have a defined logical function. Contains one or more executable instructions to accomplish. Also, as some alternative embodiments, the functions shown in the boxes may be performed in a different order than the order shown in the drawings. For example, two frames shown in succession may actually be executed substantially in parallel, or may be executed in reverse order, depending on the function involved. Also, each frame in the block diagram and / or flowchart and the combination of the frame in the block diagram and / or flowchart may be realized by a hardware-based dedicated system that performs a specified function or operation, or It may be executed by a combination of dedicated hardware and computer instructions.

一方、本発明は、コンピュータ読み取り可能な記憶媒体をさらに提供し、当該コンピュータ読み取り可能な記憶媒体は、上記実施例の前記装置に含まれるコンピュータ読み取り可能な記憶媒体であってもよく、独立に存在して端末に組み立てられていないコンピュータ読み取り可能な記憶媒体であってもよい。前記コンピュータ読み取り可能な記憶媒体には、1つ以上のプログラムが記憶され、前記1つ以上のプログラムが1つ以上のプロセッサで本出願に記載されている交通標識を認識する方法を実行するために用いられている。   On the other hand, the present invention further provides a computer-readable storage medium, and the computer-readable storage medium may be a computer-readable storage medium included in the apparatus of the above-described embodiment, and exists independently. Thus, it may be a computer-readable storage medium that is not assembled in the terminal. One or more programs are stored on the computer readable storage medium, and the one or more programs execute the method for recognizing traffic signs described in the present application by one or more processors. It is used.

以上の記載は、本発明の好ましい実施例、及び使用された技術的原理の説明に過ぎない。本発明に係る特許請求の範囲が、上記した技術的特徴の特定な組合せからなる技術案に限定されることではなく、本発明の趣旨を逸脱しない範囲で、上記の技術的特徴又は同等の特徴の任意の組合せからなる他の技術案も含むべきであることを、当業者は理解すべきである。例えば、上記の特徴と、本発明に開示された類似の機能を持っている技術的特徴(これらに限定されていない)とを互いに置き換えてなる技術案が挙げられる。   The foregoing is merely illustrative of the preferred embodiment of the invention and the technical principles used. The scope of the claims of the present invention is not limited to a technical proposal comprising a specific combination of the above-described technical features, and the above-described technical features or equivalent features without departing from the spirit of the present invention. It should be understood by those skilled in the art that other technical solutions consisting of any combination of the above should also be included. For example, there is a technical proposal in which the above features and technical features (not limited to these) having similar functions disclosed in the present invention are replaced with each other.

Claims (16)

全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得するステップと、
前記スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得するステップと、
予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得するステップと、を含んでおり、
ここで、前記予め訓練された検出分類器モデルはスキャンウィンドウ画像のサンプル及びその特徴値に基づいて訓練して得られて、前記予め訓練された畳み込みニューラルネットワークモデルは確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて訓練して得られる
ことを特徴とする交通標識を認識する方法。
Acquiring a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by dividing the omnidirectional image;
Detecting a scan window image based on a feature value of the scan window image and a pre-trained detection classifier model to obtain a traffic sign window image to be confirmed;
Recognizing a traffic sign window image to be confirmed based on a pretrained convolutional neural network model, and obtaining a traffic sign type,
Here, the pre-trained detection classifier model is obtained by training based on scan window image samples and their feature values, and the pre-trained convolutional neural network model is obtained from the confirmed traffic sign window image. A method for recognizing a traffic sign obtained by training based on a sample and its kind.
以下のような方法によって前記予め訓練された検出分類器モデルを取得し、即ち、
スキャンウィンドウ画像のサンプルにおける陽性サンプルと陰性サンプルを取得し、ここで、前記陽性サンプルは交通標識のウィンドウ画像を含むか又は交通標識及びその周囲に所定の画素が拡張されたウィンドウ画像を含み、前記陰性サンプルは前記陽性サンプルを除外するスキャンウィンドウ画像を含み、
前記陽性サンプルと前記陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得し、
前記陽性サンプル及び前記陰性サンプルと、前記陽性サンプル及び前記陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値とに基づいて、boostingアルゴリズムよって検出分類器モデルを訓練して、前記予め訓練された検出分類器モデルを取得する
ことを特徴とする請求項1に記載の方法。
Obtain the pre-trained detection classifier model by the following method:
Obtaining a positive sample and a negative sample in a sample of a scan window image, wherein the positive sample includes a window image of a traffic sign or a window image in which a predetermined pixel is expanded around the traffic sign and the surroundings, The negative sample includes a scan window image that excludes the positive sample,
Obtaining a characteristic value obtained by a predetermined characteristic algorithm in a predetermined integration channel of the positive sample and the negative sample;
Training a detection classifier model with a boosting algorithm based on the positive sample and the negative sample and the feature values of the positive sample and the negative sample obtained by a predetermined feature algorithm in a predetermined integration channel; The method of claim 1, wherein the pretrained detection classifier model is obtained.
前記の全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルに所定の特徴アルゴリズムによって得られた特徴値を取得するステップにおいては、
全天球画像により所定の積分チャンネルの積分画像で分割して得られたスキャンウィンドウ画像の積分画像を取得するステップと、
前記スキャンウィンドウ画像の積分画像に基づいて、前記スキャンウィンドウ画像の特徴値を取得するステップと、を含む
ことを特徴とする請求項1に記載の方法。
In the step of acquiring a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of the scan window image obtained by dividing by the omnidirectional image,
Obtaining an integral image of the scan window image obtained by dividing the integral image of the predetermined integral channel by the omnidirectional image;
The method according to claim 1, further comprising: obtaining a feature value of the scan window image based on an integrated image of the scan window image.
前記の全天球画像により所定の積分チャンネルの積分画像で分割して得られたスキャンウィンドウ画像の積分画像を取得するステップにおいては、前記全天球画像を連続的にダウンサンプリングして、画像ピラミッドを取得するステップと、画像ピラミッドにより所定の積分チャンネルの積分画像で分割して得られた画像ピラミッドにおける各段画像のスキャンウィンドウ画像の積分画像を取得するステップと、を含み、
前記の前記スキャンウィンドウ画像の積分画像に基づいて、前記スキャンウィンドウ画像の特徴値を取得するステップにおいては、前記各段画像のスキャンウィンドウ画像の積分画像に基づいて、各段画像のスキャンウィンドウ画像の特徴値を取得するステップを含み、及び
前記の前記スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得するステップにおいては、前記各段画像のスキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、前記各段画像のスキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得するステップを含む
ことを特徴とする請求項3に記載の方法。
In the step of obtaining an integrated image of a scan window image obtained by dividing the omnidirectional image by an integrated image of a predetermined integration channel, the omnidirectional image is continuously down-sampled to obtain an image pyramid. And obtaining an integrated image of the scan window image of each stage image in the image pyramid obtained by dividing the integrated image of the predetermined integration channel by the image pyramid, and
In the step of obtaining the feature value of the scan window image based on the integral image of the scan window image, the scan window image of each stage image is obtained based on the integral image of the scan window image of each stage image. Obtaining a feature value, and detecting a scan window image based on the feature value of the scan window image and a pre-trained detection classifier model, and a traffic sign window image to be confirmed In the obtaining step, the traffic sign to be detected by detecting the scan window image of each stage image based on the feature value of the scan window image of each stage image and the pre-trained detection classifier model The method according to claim 3, further comprising: obtaining a window image. Method.
以下のような方法によって前記予め訓練された畳み込みニューラルネットワークモデルを取得し、即ち、
ガウス分布に従って、所定の畳み込みニューラルネットワークモデルの畳み込み層と全結合層の両者の重みを初期化し、前記所定の畳み込みニューラルネットワークモデルは順次に接続された畳み込み層、抽出層、全結合層及び正規化層を備え、
確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて、誤差逆伝搬BPアルゴリズムによって前記畳み込み層と前記全結合層の両者の重みを反復し、現在に反復された重みと前回に反復された重みとの差が所定の値より小さい場合に、現在に反復された重みを最適な重みとして確定し、最適な重みを含む畳み込みニューラルネットワークモデルを前記予め訓練された畳み込みニューラルネットワークモデルとし、又は誤り率の最低の反復された重みが出現する場合に、誤り率の最低の反復された重みを最適な重みとして確定し、最適な重みを含む畳み込みニューラルネットワークモデルを前記予め訓練された畳み込みニューラルネットワークモデルとする
ことを特徴とする請求項1〜4のいずれか1項に記載の方法。
Obtain the pretrained convolutional neural network model by the following method:
In accordance with a Gaussian distribution, the weights of both the convolutional layer and the fully connected layer of a predetermined convolutional neural network model are initialized, and the predetermined convolutional neural network model is sequentially connected to a convolutional layer, an extraction layer, a fully connected layer, and a normalization. With layers,
Based on the confirmed traffic sign window image sample and the type of the traffic sign, the weights of both the convolutional layer and the total coupling layer are iterated by the backpropagation BP algorithm, and the currently repeated weight and the previous weight are repeated. The currently repeated weight is determined as the optimal weight when the difference from the determined weight is smaller than a predetermined value, and the convolutional neural network model including the optimal weight is the pretrained convolutional neural network model, Or if the lowest repeated weight with the lowest error rate appears, determine the lowest repeated weight with the lowest error rate as the optimal weight and the convolutional neural network model containing the optimal weight is the pretrained convolutional neural network The method according to claim 1, wherein the method is a network model. .
前記所定の畳み込みニューラルネットワークモデルは損失関数層を更に備え、及び
前記の誤差逆伝搬BPアルゴリズムによって前記畳み込み層と前記全結合層の両者の重みを反復するステップにおいては、損失関数とBPアルゴリズムによって前記畳み込み層と前記全結合層の両者の重みをそれぞれ反復するステップ含む
ことを特徴とする請求項5に記載の方法。
The predetermined convolutional neural network model further includes a loss function layer, and in the step of repeating the weights of both the convolution layer and the fully connected layer by the error back-propagation BP algorithm, the loss function and the BP algorithm 6. The method of claim 5, comprising repeating the weights of both the convolutional layer and the total coupling layer, respectively.
前記の予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得するステップにおいては、
前記確認しようとする交通標識ウィンドウ画像を前記畳み込みニューラルネットワークモデルに入力して、正規化層によって出力された、重みが最大の交通標識種類を取得するステップと
前記重みが最大の交通標識種類を認識して得られた交通標識類として設定するステップと、を含む
ことを特徴とする請求項5に記載の方法。
In the step of recognizing the traffic sign window image to be confirmed based on the pretrained convolutional neural network model and obtaining the traffic sign type,
Inputting the traffic sign window image to be confirmed to the convolutional neural network model, obtaining the traffic sign type with the maximum weight output by the normalization layer; and recognizing the traffic sign type with the maximum weight. And setting as traffic signs obtained as described above. The method according to claim 5.
全天球画像により分割して得られたスキャンウィンドウ画像の、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得するための特徴値取得モジュールと、
前記スキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、スキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得するための交通標識検出モジュールと、
予め訓練された畳み込みニューラルネットワークモデルに基づいて、確認しようとする交通標識ウィンドウ画像を認識して、交通標識種類を取得するための交通標識認識モジュールと、を備えており、
ここで、前記予め訓練された検出分類器モデルはスキャンウィンドウ画像のサンプル及びその特徴値に基づいて訓練して得られ、前記予め訓練された畳み込みニューラルネットワークモデルは確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて訓練して得られる
ことを特徴とする交通標識を認識する装置。
A feature value acquisition module for acquiring a feature value obtained by a predetermined feature algorithm in a predetermined integration channel of a scan window image obtained by dividing the omnidirectional image;
A traffic sign detection module for detecting a scan window image based on the feature value of the scan window image and a pre-trained detection classifier model, and obtaining a traffic sign window image to be confirmed;
A traffic sign recognition module for recognizing a traffic sign window image to be confirmed and acquiring a traffic sign type based on a pretrained convolutional neural network model;
Here, the pre-trained detection classifier model is obtained by training based on a scan window image sample and its feature value, and the pre-trained convolutional neural network model is a confirmed traffic sign window image sample. And a device for recognizing a traffic sign obtained by training based on the type of the traffic sign.
前記予め訓練された検出分類器モデルは以下のような方法によって取得し、即ち
スキャンウィンドウ画像のサンプルにおける陽性サンプルと陰性サンプルを取得し、ここで、前記陽性サンプルは交通標識のウィンドウ画像を含むか又は交通標識及びその周囲に所定の画素が拡張されたウィンドウ画像を含み、前記陰性サンプルは前記陽性サンプルを除外するスキャンウィンドウ画像を含み、
前記陽性サンプルと前記陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値を取得し、
前記陽性サンプル及び前記陰性サンプルと、前記陽性サンプル及び前記陰性サンプルの、所定の積分チャンネルにおいて所定の特徴アルゴリズムによって得られた特徴値とに基づいて、boostingアルゴリズムよって検出分類器モデルを訓練して、前記予め訓練された検出分類器モデルを取得する
ことを特徴とする請求項8に記載の装置。
The pre-trained detection classifier model is obtained by the following method, that is, a positive sample and a negative sample are obtained in a scan window image sample, wherein the positive sample includes a traffic sign window image. Or a traffic sign and a window image in which predetermined pixels are expanded around the traffic sign, and the negative sample includes a scan window image excluding the positive sample,
Obtaining a characteristic value obtained by a predetermined characteristic algorithm in a predetermined integration channel of the positive sample and the negative sample;
Training a detection classifier model with a boosting algorithm based on the positive sample and the negative sample and the feature values of the positive sample and the negative sample obtained by a predetermined feature algorithm in a predetermined integration channel; 9. The apparatus of claim 8, wherein the pretrained detection classifier model is obtained.
前記特徴値取得モジュールは、
全天球画像により所定の積分チャンネルの積分画像で分割して得られたスキャンウィンドウ画像の積分画像を取得するための第1積分画像取得サブモジュールと、
前記スキャンウィンドウ画像の積分画像に基づいて、前記スキャンウィンドウ画像の特徴値を取得するための第1特徴値取得サブモジュールと、を備えること
を特徴とする請求項8に記載の装置。
The feature value acquisition module includes:
A first integral image acquisition sub-module for acquiring an integral image of a scan window image obtained by dividing the whole celestial sphere image by an integral image of a predetermined integral channel;
The apparatus according to claim 8, further comprising: a first feature value acquisition submodule for acquiring a feature value of the scan window image based on an integral image of the scan window image.
前記第1積分画像取得サブモジュールは、前記全天球画像を連続的にダウンサンプリングして、画像ピラミッドを取得するためのダウンサンプリングサブモジュールと、画像ピラミッドにより所定の積分チャンネルの積分画像で分割して得られた画像ピラミッドにおける各段画像のスキャンウィンドウ画像の積分画像を取得するための第2積分画像取得サブモジュールと、を備え、
前記第1特徴値取得サブモジュールは、前記各段画像のスキャンウィンドウ画像の積分画像に基づいて、各段画像のスキャンウィンドウ画像の特徴値を取得するための第2特徴値取得サブモジュールを備え、
前記検出モジュールは、前記各段画像のスキャンウィンドウ画像の特徴値と予め訓練された検出分類器モデルとに基づいて、前記各段画像のスキャンウィンドウ画像を検出して、確認しようとする交通標識ウィンドウ画像を取得するための多段検出サブモジュールを備える
ことを特徴とする請求項10に記載の装置。
The first integral image acquisition submodule continuously downsamples the omnidirectional image to obtain an image pyramid, and divides the integrated image of a predetermined integration channel by the image pyramid. A second integral image acquisition submodule for acquiring an integral image of a scan window image of each stage image in the image pyramid obtained in the above,
The first feature value acquisition submodule includes a second feature value acquisition submodule for acquiring a feature value of a scan window image of each stage image based on an integral image of the scan window image of each stage image,
The detection module detects a scan window image of each stage image based on a feature value of the scan window image of each stage image and a pre-trained detection classifier model, and a traffic sign window to be confirmed The apparatus according to claim 10, comprising a multi-stage detection sub-module for acquiring an image.
前記予め訓練された畳み込みニューラルネットワークモデルは以下のような方法によって取得し、即ち、
ガウス分布に従って、所定の畳み込みニューラルネットワークモデルの畳み込み層と全結合層の両者の重みを初期化し、前記所定の畳み込みニューラルネットワークモデルは順次に接続された畳み込み層、抽出層、全結合層及び正規化層を備え、
確認された交通標識ウィンドウ画像のサンプル及びその交通標識種類に基づいて、誤差逆伝搬BPアルゴリズムによって前記畳み込み層と前記全結合層の両者の重みを反復し、現在に反復された重みと前回に反復された重みとの差が所定の値より小さい場合に、現在に反復された重みを最適な重みとして確定し、最適な重みを含む畳み込みニューラルネットワークモデルを前記予め訓練された畳み込みニューラルネットワークモデルとし、又は誤り率の最低の反復された重みが出現する場合に、誤り率の最低の反復された重みを最適な重みとして確定し、最適な重みを含む畳み込みニューラルネットワークモデルを前記予め訓練された畳み込みニューラルネットワークモデルとする
ことを特徴とする請求項8〜11のいずれか1項に記載の装置。
The pretrained convolutional neural network model is obtained by the following method:
In accordance with a Gaussian distribution, the weights of both the convolutional layer and the fully connected layer of a predetermined convolutional neural network model are initialized, and the predetermined convolutional neural network model is sequentially connected to a convolutional layer, an extraction layer, a fully connected layer, and a normalization. With layers,
Based on the confirmed traffic sign window image sample and the type of the traffic sign, the weights of both the convolutional layer and the total coupling layer are iterated by the backpropagation BP algorithm, and the currently repeated weight and the previous weight are repeated. The currently repeated weight is determined as the optimal weight when the difference from the determined weight is smaller than a predetermined value, and the convolutional neural network model including the optimal weight is the pretrained convolutional neural network model, Or if the lowest repeated weight with the lowest error rate appears, determine the lowest repeated weight with the lowest error rate as the optimal weight and the convolutional neural network model containing the optimal weight is the pretrained convolutional neural network The device according to any one of claims 8 to 11, wherein the device is a network model. Place.
前記所定の畳み込みニューラルネットワークモデルは損失関数層を更に備え、
前記重み確定モジュールは更に損失関数とBPアルゴリズムとによって前記畳み込み層と前記全結合層の両者の重みをそれぞれ反復することに用いられる
ことを特徴とする請求項12に記載の装置。
The predetermined convolutional neural network model further comprises a loss function layer;
The apparatus of claim 12, wherein the weight determination module is further used to iterate the weights of both the convolutional layer and the full coupling layer, respectively, with a loss function and a BP algorithm.
前記交通標識認識モジュールは、
前記確認しようとする交通標識ウィンドウ画像を前記畳み込みニューラルネットワークモデルに入力して、正規化層によって出力された、重みが最大の交通標識種類を取得するための最大重み認識モジュールと、
前記重みが最大の交通標識種類を認識して得られた交通標識類として設定するための標識種類設定モジュールと、を備える
ことを特徴とする請求項12に記載の装置。
The traffic sign recognition module includes:
A maximum weight recognition module for inputting the traffic sign window image to be confirmed to the convolutional neural network model and obtaining a traffic sign type with the maximum weight output by the normalization layer;
The apparatus according to claim 12, further comprising: a sign type setting module configured to set as a traffic sign obtained by recognizing the traffic sign type having the maximum weight.
プロセッサ、及び
メモリを備え、
前記メモリに前記プロセッサによって実行可能なコンピュータ読み取り可能な命令が記憶され、前記コンピュータ読み取り可能な命令が実行される際に、前記プロセッサは請求項1〜7のいずれか1項に記載の方法を実行する
ことを特徴とする機器。
A processor and a memory,
A computer readable instruction executable by the processor is stored in the memory, and the processor performs the method of any one of claims 1 to 7 when the computer readable instruction is executed. A device characterized by
プロセッサによって実行可能なコンピュータ読み取り可能な命令が記憶され、前記コンピュータ読み取り可能な命令がプロセッサによって実行される際に、前記プロセッサは請求項1〜7のいずれか1項に記載の方法を実行する
ことを特徴とする不揮発性コンピュータ記憶媒体。
Computer readable instructions executable by a processor are stored, and when the computer readable instructions are executed by the processor, the processor performs the method of any one of claims 1-7. A non-volatile computer storage medium.
JP2016559945A 2015-03-31 2015-12-25 Method and apparatus for recognizing traffic signs Active JP6400117B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510150525.8A CN104700099B (en) 2015-03-31 2015-03-31 The method and apparatus for recognizing traffic sign
CN201510150525.8 2015-03-31
PCT/CN2015/098903 WO2016155371A1 (en) 2015-03-31 2015-12-25 Method and device for recognizing traffic signs

Publications (2)

Publication Number Publication Date
JP2017516197A true JP2017516197A (en) 2017-06-15
JP6400117B2 JP6400117B2 (en) 2018-10-03

Family

ID=53347198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016559945A Active JP6400117B2 (en) 2015-03-31 2015-12-25 Method and apparatus for recognizing traffic signs

Country Status (4)

Country Link
JP (1) JP6400117B2 (en)
KR (1) KR101856584B1 (en)
CN (1) CN104700099B (en)
WO (1) WO2016155371A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067403A (en) * 2017-10-03 2019-04-25 株式会社ストラドビジョン Learning method and learning device for image segmentation, and image segmentation method and image segmentation device using the same
JP2019164512A (en) * 2018-03-19 2019-09-26 株式会社東芝 Recognition device, vehicle system, and program
CN111178153A (en) * 2019-12-09 2020-05-19 武汉光庭信息技术股份有限公司 Traffic sign detection method and system
JP2021524103A (en) * 2018-05-18 2021-09-09 オ−ディーディー コンセプツ インク. Methods, devices and computer programs to extract representative properties of objects in images
JP2021530048A (en) * 2018-09-06 2021-11-04 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Multi-layered target classification method and device, traffic sign detection method and device, device and medium

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104700099B (en) * 2015-03-31 2017-08-11 百度在线网络技术(北京)有限公司 The method and apparatus for recognizing traffic sign
CN105069472B (en) * 2015-08-03 2018-07-27 电子科技大学 A kind of vehicle checking method adaptive based on convolutional neural networks
CN105335754A (en) * 2015-10-29 2016-02-17 小米科技有限责任公司 Character recognition method and device
CN105678322A (en) * 2015-12-31 2016-06-15 百度在线网络技术(北京)有限公司 Sample labeling method and apparatus
CN105869016A (en) * 2016-03-28 2016-08-17 天津中科智能识别产业技术研究院有限公司 Method for estimating click through rate based on convolution neural network
CN105956524A (en) * 2016-04-22 2016-09-21 北京智芯原动科技有限公司 Method and device for identifying traffic signs
CN106022380A (en) * 2016-05-25 2016-10-12 中国科学院自动化研究所 Individual identity identification method based on deep learning
CN106778835B (en) * 2016-11-29 2020-03-24 武汉大学 Remote sensing image airport target identification method fusing scene information and depth features
US11308391B2 (en) * 2017-03-06 2022-04-19 Baidu Usa Llc Offline combination of convolutional/deconvolutional and batch-norm layers of convolutional neural network models for autonomous driving vehicles
US10282999B2 (en) * 2017-03-17 2019-05-07 GM Global Technology Operations LLC Road construction detection systems and methods
CN106886801B (en) 2017-04-14 2021-12-17 北京图森智途科技有限公司 Image semantic segmentation method and device
CN107067043B (en) * 2017-05-25 2020-07-24 哈尔滨工业大学 Crop disease and insect pest detection method
KR101834778B1 (en) 2017-05-30 2018-03-07 만도헬라일렉트로닉스(주) Apparatus for recognizing traffic sign and method thereof
KR102285737B1 (en) 2017-07-06 2021-08-05 삼성전자주식회사 Video encoding/decoding method and apparatus therefor
US10986356B2 (en) 2017-07-06 2021-04-20 Samsung Electronics Co., Ltd. Method for encoding/decoding image and device therefor
WO2019009447A1 (en) * 2017-07-06 2019-01-10 삼성전자 주식회사 Method for encoding/decoding image and device therefor
CN109255279A (en) * 2017-07-13 2019-01-22 深圳市凯立德科技股份有限公司 A kind of method and system of road traffic sign detection identification
CN107679577A (en) * 2017-10-12 2018-02-09 理光图像技术(上海)有限公司 image detecting method based on deep learning
CN109726728B (en) * 2017-10-31 2020-12-15 阿里巴巴(中国)有限公司 Training data generation method and device
CN107944437B (en) * 2017-12-31 2018-12-14 广州二元科技有限公司 A kind of Face detection method based on neural network and integral image
CN110096937A (en) * 2018-01-31 2019-08-06 北京四维图新科技股份有限公司 A kind of method and device of the image recognition for assisting Vehicular automatic driving
CN108549927A (en) * 2018-03-16 2018-09-18 深圳市商汤科技有限公司 The training method and feature of object detection network supervise drawing generating method
CN108520212A (en) * 2018-03-27 2018-09-11 东华大学 Method for traffic sign detection based on improved convolutional neural networks
CN108960308A (en) * 2018-06-25 2018-12-07 中国科学院自动化研究所 Traffic sign recognition method, device, car-mounted terminal and vehicle
KR102096926B1 (en) * 2018-07-19 2020-04-06 네이버랩스 주식회사 Method and system for detecting change point of interest
KR102106029B1 (en) * 2018-07-19 2020-05-04 네이버랩스 주식회사 Method and system for improving signage detection performance
CN109102017B (en) * 2018-08-09 2021-08-03 百度在线网络技术(北京)有限公司 Neural network model processing method, device, equipment and readable storage medium
CN109492628B (en) * 2018-10-08 2021-11-16 杭州电子科技大学 Implementation method of spherical positioning system applied to classroom discipline grabbing
WO2020080665A1 (en) 2018-10-19 2020-04-23 Samsung Electronics Co., Ltd. Methods and apparatuses for performing artificial intelligence encoding and artificial intelligence decoding on image
WO2020080765A1 (en) 2018-10-19 2020-04-23 Samsung Electronics Co., Ltd. Apparatuses and methods for performing artificial intelligence encoding and artificial intelligence decoding on image
US10402977B1 (en) * 2019-01-25 2019-09-03 StradVision, Inc. Learning method and learning device for improving segmentation performance in road obstacle detection required to satisfy level 4 and level 5 of autonomous vehicles using laplacian pyramid network and testing method and testing device using the same
CN109919017B (en) * 2019-01-28 2023-09-01 平安科技(深圳)有限公司 Face recognition optimization method, device, computer equipment and storage medium
CN110175500B (en) * 2019-04-03 2024-01-19 平安科技(深圳)有限公司 Finger vein comparison method, device, computer equipment and storage medium
CN113409393B (en) * 2019-05-17 2023-10-03 百度在线网络技术(北京)有限公司 Method and device for identifying traffic sign
CN110348396B (en) * 2019-07-15 2022-02-11 南京信息工程大学 Deep learning-based method and device for recognizing character traffic signs above roads
KR102436512B1 (en) 2019-10-29 2022-08-25 삼성전자주식회사 Method and Apparatus for video encoding and Method and Apparatus for video decoding
CN110796109A (en) * 2019-11-05 2020-02-14 哈尔滨理工大学 Driver distraction behavior identification method based on model fusion
CN110889378B (en) * 2019-11-28 2023-06-09 湖南率为控制科技有限公司 Multi-view fusion traffic sign detection and identification method and system thereof
CN111062885B (en) * 2019-12-09 2023-09-12 中国科学院自动化研究所 Mark detection model training and mark detection method based on multi-stage transfer learning
CN111178371B (en) * 2019-12-17 2023-12-01 深圳市优必选科技股份有限公司 Target detection method, device and computer storage medium
CN111199217B (en) * 2020-01-09 2023-03-28 上海应用技术大学 Traffic sign identification method and system based on convolutional neural network
KR102287942B1 (en) 2020-02-24 2021-08-09 삼성전자주식회사 Apparatus and method for performing artificial intelligence encoding and artificial intelligence decoding of image using pre-processing
CN111310844B (en) * 2020-02-26 2022-09-16 广州华工邦元信息技术有限公司 Vehicle identification model construction method and device and identification method and device
KR102189926B1 (en) * 2020-03-30 2020-12-11 네이버랩스 주식회사 Method and system for detecting change point of interest
CN111597875A (en) * 2020-04-01 2020-08-28 吉利汽车研究院(宁波)有限公司 Traffic sign identification method, device, equipment and storage medium
CN111881944A (en) * 2020-07-08 2020-11-03 贵州无忧天空科技有限公司 Method, electronic device and computer readable medium for image authentication
CN112085056B (en) * 2020-08-05 2023-12-29 深圳市优必选科技股份有限公司 Target detection model generation method, device, equipment and storage medium
CN113850195B (en) * 2021-09-27 2024-05-28 新讯数字科技(杭州)有限公司 AI intelligent object recognition method based on 3D vision

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08221378A (en) * 1995-02-10 1996-08-30 Ricoh Co Ltd Learning machine
JP2004191339A (en) * 2002-12-13 2004-07-08 Sharp Corp Position information retrieving method, position information retrieving device, position information retrieving terminal and position information retrieving system
JP2005311691A (en) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc Apparatus and method for detecting object
JP2009543254A (en) * 2006-07-12 2009-12-03 コファックス インコーポレイテッド Method and system for transductive data classification and data classification method using machine learning technique
JP2013196454A (en) * 2012-03-21 2013-09-30 Honda Elesys Co Ltd Image processor, image processing method and image processing program
JP2014010633A (en) * 2012-06-29 2014-01-20 Honda Elesys Co Ltd Image recognition device, image recognition method, and image recognition program
JP2014071832A (en) * 2012-10-01 2014-04-21 Toshiba Corp Object detection apparatus and detection method of the same

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104025118B (en) * 2011-11-01 2017-11-07 英特尔公司 Use the object detection of extension SURF features
CN103366177B (en) * 2012-03-28 2016-12-07 佳能株式会社 Object detection classifier generation method and equipment, image object detection method and equipment
CN104036323B (en) * 2014-06-26 2016-11-09 叶茂 A kind of vehicle checking method based on convolutional neural networks
CN104700099B (en) * 2015-03-31 2017-08-11 百度在线网络技术(北京)有限公司 The method and apparatus for recognizing traffic sign

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08221378A (en) * 1995-02-10 1996-08-30 Ricoh Co Ltd Learning machine
JP2004191339A (en) * 2002-12-13 2004-07-08 Sharp Corp Position information retrieving method, position information retrieving device, position information retrieving terminal and position information retrieving system
JP2005311691A (en) * 2004-04-21 2005-11-04 Toyota Central Res & Dev Lab Inc Apparatus and method for detecting object
JP2009543254A (en) * 2006-07-12 2009-12-03 コファックス インコーポレイテッド Method and system for transductive data classification and data classification method using machine learning technique
JP2013196454A (en) * 2012-03-21 2013-09-30 Honda Elesys Co Ltd Image processor, image processing method and image processing program
JP2014010633A (en) * 2012-06-29 2014-01-20 Honda Elesys Co Ltd Image recognition device, image recognition method, and image recognition program
JP2014071832A (en) * 2012-10-01 2014-04-21 Toshiba Corp Object detection apparatus and detection method of the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
田口 進也,外3名: "特徴量ベクトルの相関係数行列を用いた少ないサンプルでの高精度画像認識", 映像情報メディア学会技術報告 VOL.31 NO.11, vol. 第31巻, JPN6017050493, 23 February 2007 (2007-02-23), JP, pages 55 - 60, ISSN: 0003714102 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019067403A (en) * 2017-10-03 2019-04-25 株式会社ストラドビジョン Learning method and learning device for image segmentation, and image segmentation method and image segmentation device using the same
JP2019164512A (en) * 2018-03-19 2019-09-26 株式会社東芝 Recognition device, vehicle system, and program
US10984256B2 (en) 2018-03-19 2021-04-20 Kabushiki Kaisha Toshiba Recognition device, vehicle system and storage medium
JP2021524103A (en) * 2018-05-18 2021-09-09 オ−ディーディー コンセプツ インク. Methods, devices and computer programs to extract representative properties of objects in images
JP2021530048A (en) * 2018-09-06 2021-11-04 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Multi-layered target classification method and device, traffic sign detection method and device, device and medium
CN111178153A (en) * 2019-12-09 2020-05-19 武汉光庭信息技术股份有限公司 Traffic sign detection method and system

Also Published As

Publication number Publication date
CN104700099B (en) 2017-08-11
WO2016155371A1 (en) 2016-10-06
KR20160132331A (en) 2016-11-17
JP6400117B2 (en) 2018-10-03
KR101856584B1 (en) 2018-05-10
CN104700099A (en) 2015-06-10

Similar Documents

Publication Publication Date Title
JP6400117B2 (en) Method and apparatus for recognizing traffic signs
CN108647585B (en) Traffic identifier detection method based on multi-scale circulation attention network
CN110569878B (en) Photograph background similarity clustering method based on convolutional neural network and computer
CN109410218B (en) Method and apparatus for generating vehicle damage information
CN108197326B (en) Vehicle retrieval method and device, electronic equipment and storage medium
CN111931764B (en) Target detection method, target detection frame and related equipment
CN111461213B (en) Training method of target detection model and target rapid detection method
CN113139543B (en) Training method of target object detection model, target object detection method and equipment
CN111507908B (en) Image correction processing method, device, storage medium and computer equipment
JP2018060296A (en) Image processing apparatus, image processing system, and image processing method
CN113052170B (en) Small target license plate recognition method under unconstrained scene
CN111160114B (en) Gesture recognition method, gesture recognition device, gesture recognition equipment and computer-readable storage medium
CN113807361B (en) Neural network, target detection method, neural network training method and related products
CN111881944A (en) Method, electronic device and computer readable medium for image authentication
CN113139906B (en) Training method and device for generator and storage medium
US11636608B2 (en) Artificial intelligence using convolutional neural network with Hough transform
US20240161304A1 (en) Systems and methods for processing images
JP2007025902A (en) Image processor and image processing method
CN112001873B (en) Data generation method based on container X-ray image
CN117765485A (en) Vehicle type recognition method, device and equipment based on improved depth residual error network
CN113436251A (en) Pose estimation system and method based on improved YOLO6D algorithm
CN115761552A (en) Target detection method, system, equipment and medium for airborne platform of unmanned aerial vehicle
CN115965831A (en) Vehicle detection model training method and vehicle detection method
US20220114403A1 (en) Fine-grained classification of retail products
CN114626982A (en) Scene reconstruction method and device, storage medium and computer equipment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180904

R150 Certificate of patent or registration of utility model

Ref document number: 6400117

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250