JP6829575B2 - Image processing equipment, image processing system and image processing method - Google Patents
Image processing equipment, image processing system and image processing method Download PDFInfo
- Publication number
- JP6829575B2 JP6829575B2 JP2016195984A JP2016195984A JP6829575B2 JP 6829575 B2 JP6829575 B2 JP 6829575B2 JP 2016195984 A JP2016195984 A JP 2016195984A JP 2016195984 A JP2016195984 A JP 2016195984A JP 6829575 B2 JP6829575 B2 JP 6829575B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- points
- input
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 177
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 79
- 238000000034 method Methods 0.000 claims description 43
- 230000009466 transformation Effects 0.000 claims description 21
- 238000004458 analytical method Methods 0.000 claims description 20
- 238000003384 imaging method Methods 0.000 claims description 12
- 238000010586 diagram Methods 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 238000007781 pre-processing Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 235000016496 Panda oleosa Nutrition 0.000 description 2
- 240000000220 Panda oleosa Species 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 210000000225 synapse Anatomy 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000946 synaptic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Images
Landscapes
- Character Input (AREA)
- Image Processing (AREA)
- Character Discrimination (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、様々な異なる状況で撮像された表示板の画像を、正面から撮像した場合に相当する画像(以下、「正面画像」と言う)に効率的かつ精度良く変換することができる画像処理装置、画像処理システム及び画像処理方法に関する。 The present invention is an image process capable of efficiently and accurately converting an image of a display board captured in various different situations into an image corresponding to the case where the image is captured from the front (hereinafter referred to as "front image"). The present invention relates to an apparatus, an image processing system, and an image processing method.
従来、車両に取り付けられたナンバープレートや道路に配設された道路標識等の表示板を撮像して読み取る技術が知られている。例えば、全国的、地域的又は都市内において、骨格的な道路網を形成する道路(以下、「幹線道路」と言う)を通行する車両、有料道路の料金所を通過する車両、駐車場に出入りする車両などの車両番号を読み取るために、車両に付されたナンバープレートを撮像し、撮像されたナンバープレートを含む画像データに表記された車両番号を読み取る装置が設置されている。 Conventionally, there is known a technique of capturing and reading a display board such as a license plate attached to a vehicle or a road sign arranged on a road. For example, vehicles passing through roads that form a skeletal road network (hereinafter referred to as "main roads"), vehicles passing through toll gates on toll roads, and entering and exiting parking lots nationwide, locally, or within cities. In order to read the vehicle number of the vehicle or the like, a device is installed that images the license plate attached to the vehicle and reads the vehicle number indicated in the image data including the imaged license plate.
例えば、特許文献1には、画像中のナンバープレートの位置に応じてあらかじめ座標変換パラメータを記憶しておき、画像中のナンバープレートの位置を検出したならば、その位置に応じた座標変換パラメータでナンバープレート部分の画像の座標変換を行い,ナンバープレートの正面画像を得る技術が開示されている。このようにナンバープレート部分を正面画像に変換してから認識処理を行うことで、認識処理の精度を向上させることができる。
For example, in
また、特許文献2には、撮像装置に対する車両の走行方向に応じて、ナンバープレートを撮像した画像を回転させるとともに、拡大補正を行って、ナンバープレートの番号を認識する技術が開示されている。さらに、特許文献3には、ナンバープレートを撮像した画像から、プレート止め2つ及び最も右側の数字を含む4点を検出し、この4点を用いて座標変換を行って、正面から見たナンバープレートの画像を取得する技術が開示されている。 Further, Patent Document 2 discloses a technique for recognizing a license plate number by rotating an image captured by the license plate and performing enlargement correction according to the traveling direction of the vehicle with respect to the image pickup device. Further, in Patent Document 3, four points including two plate stoppers and the rightmost number are detected from the image obtained by capturing the license plate, coordinate conversion is performed using these four points, and the number viewed from the front. A technique for acquiring an image of a plate is disclosed.
また、特許文献4には、正面から撮像された画像ではない場合や樹木等により道路標識の一部が隠されて図形成分が欠落している場合に、ニューラルネットワークを利用して学習機能を付加し、図形成分の欠落、変形に対して正しく道路標識を抽出できるように学習を行わせる点に言及されている。 Further, Patent Document 4 adds a learning function by using a neural network when the image is not captured from the front or when a part of the road sign is hidden by a tree or the like and the graphic component is missing. However, it is mentioned that learning is performed so that road signs can be correctly extracted for missing or deformed graphic components.
しかしながら、上記特許文献1のものは、車両の進入方向が限定されており、進入方向が変化する場合に適用することができない。また、上記特許文献2のものは、上記特許文献1と異なり複数の進入方向に対応することができるが、時間間隔を空けて撮影した2枚の画像が必要になるため、高速な処理に不適である。
However, the above-mentioned
さらに、特許文献3のものは、正面画像に変換するために必要となる4点が画像に含まれない場合には対応することができない。また、特許文献4には、道路標識が斜めに撮影されている場合や、樹木等により道路標識の一部が隠されて図形成分が欠落している場合に、図形成分の変形や欠落があっても正しく道路標識を抽出できるようニューラルネットワークに学習させる点が言及されているが、正面画像に補正するための情報がないため、抽出した道路標識画像を正面画像に変換することができない。 Further, the one of Patent Document 3 cannot deal with the case where the image does not include the four points required for converting into the front image. Further, in Patent Document 4, when the road sign is photographed at an angle, or when a part of the road sign is hidden by a tree or the like and the graphic component is missing, the graphic component is deformed or missing. However, it is mentioned that the neural network is trained so that the road sign can be extracted correctly, but the extracted road sign image cannot be converted into the front image because there is no information for correction in the front image.
これらのことから、上記特許文献1〜4に代表される従来技術は、それぞれ表示板の画像を正面画像に変換できない状況が存在するため、実環境を想定すると適用状況が限られる、或いは認識処理の精度が低下するという問題がある。
For these reasons, the prior arts represented by
このため、撮像装置によって撮像されたナンバープレートを含む画像を正面画像に変換する場合に、いかにして様々な異なる状況に効率良く対応するかが重要な課題となっている。係る課題は、ナンバープレートを含む画像のみならず、道路標識を含む画像等の場合にも同様に生ずる課題である。 Therefore, when converting an image including a license plate imaged by an imaging device into a front image, how to efficiently deal with various different situations has become an important issue. Such a problem occurs not only in the case of an image including a license plate but also in the case of an image including a road sign and the like.
本発明は、上記従来技術の課題を解決するためになされたものであって、様々な異なる状況で撮像された画像を効率的かつ精度良く正面画像に変換することができる画像処理装置、画像処理システム及び画像処理方法を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems of the prior art, and is an image processing apparatus and image processing capable of efficiently and accurately converting images captured in various different situations into front images. It is an object of the present invention to provide a system and an image processing method.
上記の課題を解決するため、本発明は、表示板を含み4つの基準点を有する参照画像から一部の基準点を含む領域を欠落させた学習用画像を生成する学習用画像生成部と、前記学習用画像と該学習用画像における4つの基準点を用いて教師有り学習を行った多層ニューラルネットワークと、表示板を含む入力画像を取得する入力画像受付部と、前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する4つの対応点に係る情報を特定する対応点特定部と、前記対応点特定部により特定された4つの対応点のうちの少なくとも3つの対応点に係る情報に基づく射影変換を行って、前記入力画像に対応する正面画像を生成する正面画像生成部とを備えたことを特徴とする。 To solve the above problems, the present invention includes a learning image generation unit for generating a learning image with missing a region including a portion of the reference point display panel from the reference image having the unrealized four reference points , The multi-layer neural network in which supervised learning was performed using the learning image and the four reference points in the learning image, the input image receiving unit for acquiring the input image including the display board, and the multi-layer neural network. put an image based on the input image, the four and the corresponding point specifying unit for specifying the information relating to corresponding points, four corresponding points identified by the corresponding point specifying section for said input image corresponding to the reference point It is characterized by including a front image generation unit that generates a front image corresponding to the input image by performing projection conversion based on information related to at least three corresponding points .
また、本発明は、上記の発明において、前記正面画像生成部により生成された正面画像に含まれる文字を文字認識する文字認識部をさらに備えたことを特徴とする。 Further, the present invention is characterized in that, in the above invention, a character recognition unit that recognizes characters included in the front image generated by the front image generation unit is further provided.
また、本発明は、上記の発明において、前記多層ニューラルネットワークは、所定の撮像装置により前記表示板を撮像した実画像の一部の情報を欠落させた第1の学習用画像を射影変換した学習用画像と、前記学習用画像における4つの基準点とを入力情報として教師有り学習を行うことを特徴とする。 The present invention, in the above invention, the multi-layer neural network, the first learning image image is missing some of the information of the real image obtained by imaging the display panel to projective transformation by a predetermined imaging apparatus and other studies習用image, and performing supervised learning and four reference points in the learning image as the input information.
また、本発明は、上記の発明において、前記表示板の種別を識別する種別識別部をさらに備えたことを特徴とする。 Further, the present invention is characterized in that, in the above invention, a type identification unit for identifying the type of the display board is further provided.
また、本発明は、上記の発明において、前記対応点特定部は、前記入力画像受付部により取得された入力画像から生成された濃淡画像である解析用画像を前記多層ニューラルネットワークに投入することを特徴とする。 Further, in the above invention, the corresponding point specifying unit inputs an analysis image, which is a grayscale image generated from an input image acquired by the input image receiving unit, into the multilayer neural network. It is a feature.
また、本発明は、上記の発明において、前記表示板は、車両の登録番号を示すナンバープレート又は道路標識であることを特徴とする。 Further, the present invention is characterized in that, in the above invention, the display board is a license plate or a road sign indicating a vehicle registration number.
また、本発明は、表示板を含む画像を処理する画像処理システムであって、前記表示板を含み4つの基準点を有する参照画像から一部の基準点を含む領域を欠落させた学習用画像を生成する学習用画像生成部と、前記学習用画像と該学習用画像における4つの基準点を用いて教師有り学習を行った多層ニューラルネットワークと、表示板を含む入力画像を取得する入力画像受付部と、前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する4つの対応点に係る情報を特定する対応点特定部と、前記対応点特定部により特定された4つの対応点のうちの少なくとも3つの対応点に係る情報に基づく射影変換を行って、前記入力画像に対応する正面画像を生成する正面画像生成部とを備えたことを特徴とする。 Further, the present invention provides an image processing system for processing an image including a display panel, for learning is missing a region including a portion of the reference point the panel from the reference image having the unrealized four reference points An image generation unit for learning that generates an image, a multi-layer neural network that performs supervised learning using the learning image and four reference points in the learning image, and an input that acquires an input image including a display board. An image receiving unit, a corresponding point specifying unit that inputs an image based on the input image to the multilayer neural network, and specifies information related to four corresponding points related to the input image corresponding to the reference point, and the corresponding point. It is provided with a front image generation unit that generates a front image corresponding to the input image by performing projection conversion based on information related to at least three correspondence points among the four correspondence points specified by the specific unit. It is a feature.
また、本発明は、表示板を含み4つの基準点を有する参照画像から一部の基準点を含む領域を欠落させた学習用画像を生成する学習用画像生成ステップと、前記学習用画像と該学習用画像における4つの基準点を用いて多層ニューラルネットワークに教師有り学習を実行させるステップと、表示板を含む入力画像を取得する入力画像取得ステップと、前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する4つの対応点に係る情報を特定する対応点特定ステップと、前記対応点特定ステップにより特定された4つの対応点のうちの少なくとも3つの対応点に係る情報に基づく射影変換を行って、前記入力画像に対応する正面画像を生成する正面画像生成ステップとを含んだことを特徴とする。 Further, the present invention includes a learning image generation step of generating a learning image with missing a region including a portion of the reference point display panel from the reference image having the unrealized four reference points, and the learning image a step of executing a supervised learning multi-layer neural network using the four reference points in the learning image, the input image acquiring step of acquiring an input image including a display panel, the input image into the multi-layer neural network A corresponding point specifying step for inputting an image based on the image and specifying information related to four corresponding points related to the input image corresponding to the reference point, and at least four corresponding points specified by the corresponding point specifying step. It is characterized by including a front image generation step of performing projection conversion based on information related to the three corresponding points to generate a front image corresponding to the input image .
本発明によれば、様々な異なる状況で撮像された表示板を含む画像から、表示板の正面画像を得ることが可能となる。 According to the present invention, it is possible to obtain a front image of a display board from an image including a display board captured in various different situations.
以下、添付図面を参照して、本実施例1に係る画像処理装置、画像処理システム及び画像処理方法の実施例を説明する。本実施例1では、表示板の1つである、車両の登録番号を表示するナンバープレートの文字及び数字を読み取る場合を中心に説明することとする。 Hereinafter, examples of the image processing apparatus, the image processing system, and the image processing method according to the first embodiment will be described with reference to the attached drawings. In the first embodiment, the case of reading the characters and numbers of the license plate that displays the registration number of the vehicle, which is one of the display boards, will be mainly described.
<実施例1に係る画像処理装置の概念>
まず、本実施例1に係る画像処理装置の概念について説明する。図1は、本実施例1に係る画像処理装置の概念を説明するための説明図である。ここでは、学習に使用するナンバープレートを撮像した多階調(例えば、256階調の白黒画像や24ビットカラー画像など)の画像(以下、「参照画像」と言う)と、この参照画像から生成された学習用画像がすでに取得されているものとする。
<Concept of image processing device according to Example 1>
First, the concept of the image processing apparatus according to the first embodiment will be described. FIG. 1 is an explanatory diagram for explaining the concept of the image processing apparatus according to the first embodiment. Here, a multi-gradation image (for example, a 256-gradation black-and-white image, a 24-bit color image, etc.) obtained by imaging the license plate used for learning (hereinafter referred to as a “reference image”) and a generation from this reference image. It is assumed that the created learning image has already been acquired.
本実施例1に係る画像処理装置3は、学習段階においてあらかじめ多層ニューラルネットワーク36及びネットワークモデル更新処理部37に教師有り学習を行わせ、多層ニューラルネットワーク36のノード間を接続するシナプスの重み等をネットワークモデルパラメータGとして記憶する。そして、認識段階では、ネットワークモデルパラメータGを用いて多層ニューラルネットワーク36を再構成し、この多層ニューラルネットワーク36により画像の4隅の位置情報を用いて正面画像Fを生成する。その後、ナンバープレートの正面画像Fを文字認識して該ナンバープレートに含まれる文字及び数字を出力する。
The image processing device 3 according to the first embodiment causes the multi-layer
具体的には、本実施例1では、多層ニューラルネットワーク36からネットワークモデルの更新を行う機能部(ネットワークモデル更新処理部37)を分離している。あらかじめ教師有り学習を行う際に、このネットワークモデル更新処理部37によって学習データ(シナプスの重み等)となるネットワークモデルパラメータGを生成することとしている。このようにすることで、認証段階ではネットワークモデル更新処理部37が不要になるとともに、ネットワークモデルパラメータGを用いて異なる多数の多層ニューラルネットワーク36を再構成することがでる。
Specifically, in the first embodiment, the functional unit (network model update processing unit 37) that updates the network model is separated from the multi-layer
ここで、多層ニューラルネットワーク36は、ディープラーニング(深層学習)において用いられる多層化されたニューラルネットワークであり、本実施例では畳み込みニューラルネットワーク(Convolutional Neural Network)を用いている。この畳み込みニューラルネットワークは、順伝播型人工ニューラルネットワークの一種であり、個々のニューロンが視覚野と対応するような形で配置されている。この畳み込みネットワークは、生物学的処理に影響されたものであり、少ない事前処理で済むよう設計された多層パーセプトロンの一種である。なお、この畳み込みニューラルネットワーク自体は公知技術であるため、ここではその詳細な説明を省略する。
Here, the multi-layer
また、多層ニューラルネットワーク36及びネットワークモデル更新処理部37には、学習用画像B及び4つの基準点を用いて教師有り学習を行わせる。具体的には、ネットワークモデル更新処理部37は、多層ニューラルネットワーク36から出力された4つの対応点が、4つの基準点の位置座標と一致するようにネットワークモデルパラメータGを更新(学習)する。更新されたネットワークモデルパラメータGにより多層ニューラルネットワーク36を再構成し、該多層ニューラルネットワーク36から出力される4つの対応点を使って同様に学習を行う。係る学習処理を繰り返して、ネットワークモデルパラメータGを固定する。例えば、誤差逆伝播法(Backpropagation)アルゴリズム等を用いてネットワークモデルパラメータGを調整することができる。
Further, the multi-layer
図1(a)に示すように、学習段階においては、学習用画像Bを多層ニューラルネットワーク36に入力し、教師データである4つの基準点といった学習データをネットワークモデル更新処理部37に入力する(ステップS11)。そして、これらの学習用画像B及び4つの基準点に基づいて多層ニューラルネットワーク36に学習を行わせ、ネットワークモデル更新処理部37によってネットワークモデルパラメータGの更新処理を行う(ステップS12)。なお、多層ニューラルネットワーク36及びネットワークモデル更新処理部37による教師有り学習自体は既存技術であるため、ここではその詳細な説明を省略する。
As shown in FIG. 1A, in the learning stage, the learning image B is input to the multilayer
学習用画像Bは、車両に付されたナンバープレートを撮像した実画像である参照画像から生成された画像データである。具体的には、この学習用画像Bは、撮像装置1によりナンバープレートを撮像した実画像である参照画像A、ナンバープレートの一部が隠れていること等を想定し該参照画像Aの一部の情報を欠落させた画像(第1の学習用画像)、車両と撮像装置1とのなす相対角度を想定し参照画像Aを射影変換した画像(第2の学習用画像)又は参照画像Aの一部の情報を欠落させた画像を射影変換した画像(第3の学習用画像)等である。また、学習用画像Bは、処理を効率化するためにナンバープレート及びその周囲のみが含まれるように切り出した画像とすることが望ましい。
The learning image B is image data generated from a reference image which is an image of a license plate attached to a vehicle. Specifically, the learning image B is a reference image A which is an actual image of the license plate imaged by the
4つの基準点は、ネットワークモデルパラメータGの更新及び多層ニューラルネットワーク36に教師有り学習を行わせるための正解データ(教師データ)である。具体的には、学習用画像Bに含まれるナンバープレートの4隅の点の位置座標が基準点として指定される。
The four reference points are correct answer data (teacher data) for updating the network model parameter G and causing the multi-layer
このように、本実施例1に係る多層ニューラルネットワーク36に学習用画像B及び4つの基準点を用いて学習を行わせる理由は、実環境下で、撮像方向の違いにより様々な歪みを持つ入力画像Cが入力された場合であっても、歪みのない正面画像Fを得るためである。この点を具体的に説明すると、撮像装置1で車両のナンバープレートを撮像する場合に、車両と撮像装置1とのなす相対角度によって、入力画像C中のナンバープレート部分に様々な歪みが生ずる。例えば、矩形形状のナンバープレートを撮像したのにもかかわらず、平行四辺形や台形状にナンバープレートが映り込む場合がある。また、他の車両や樹木等の存在によって、ナンバープレートの一部が隠れてしまう場合もある。その結果、3軸の射影変換に必要となる4つの基準点を特定できない状況が生じ得る。このため、あらかじめ様々な歪みを持つ学習用画像Bと、その正解データ(教師データ)となる4つの基準点とを入力して、多層ニューラルネットワーク36に学習させるとともに、更新されたネットワークモデルパラメータGを記憶している。なお、この4つの基準点は、操作者が表示部32に表示させた学習用画像B上の点を指示入力することによって特定することができ、操作者により指定された4つの基準点を、画像と同様の射影変換により特定することもできる。
As described above, the reason why the multilayer
次に、認識段階の処理について説明する。ここでは、前処理として、車両のナンバープレートを撮像した入力画像Cからナンバープレート及びその周辺部が含まれる認識用画像Dが生成されているものとする。なお、この前処理において、エッジ検出や平滑化処理などを行うこともできる。 Next, the processing at the recognition stage will be described. Here, as preprocessing, it is assumed that a recognition image D including the license plate and its peripheral portion is generated from the input image C obtained by capturing the license plate of the vehicle. In this preprocessing, edge detection, smoothing, and the like can also be performed.
図1(b)に示すように、認識用画像Dから解析用画像Eを生成する。この解析用画像Eが多層ニューラルネットワーク36に入力されると(ステップS21)、多層ニューラルネットワーク36は、4つの基準点にそれぞれ対応する4つの対応点の位置に係る情報を出力する(ステップS22)。なお、この「対応点の位置に係る情報」とは、対応点の位置座標そのものであってもよいし、対応点を特定するための情報であってもよい。例えば、1つの対応点の位置座標と、この対応点から他の対応点へのベクトルであってもよい。
As shown in FIG. 1 (b), the analysis image E is generated from the recognition image D. When the analysis image E is input to the multilayer neural network 36 (step S21), the multilayer
その後、4つの対応点を用いて認識用画像Dを射影変換し(ステップS23)、ナンバープレートの正面画像Fを取得する。その後、正面画像Fに含まれる文字(数字を含む)を文字認識し(ステップS24)、ナンバープレートに含まれる文字を出力する。なお、射影変換及び文字認識を行う際には、周知の技術が用いられる。 After that, the recognition image D is projected and transformed using the four corresponding points (step S23), and the front image F of the license plate is acquired. After that, the characters (including numbers) included in the front image F are recognized (step S24), and the characters included in the license plate are output. A well-known technique is used when performing projective conversion and character recognition.
上記の一連の処理を行うことにより、車両のナンバープレートを様々な角度で撮像した入力画像Cが入力された場合であっても、この入力画像Cを効率的に正面画像Fに変換し、精度良くナンバープレート内の文字を抽出することができる。特に、入力画像Cに含まれるナンバープレートに係る一部の情報が喪失され、通常の処理では4つの基準点全ての抽出が難しい場合であっても、この場合に備えた学習処理を行っているため、4つの基準点に対応する対応点を特定し、もって3軸の射影変換を行うことが可能となる。 By performing the above series of processes, even when the input image C obtained by capturing the license plate of the vehicle at various angles is input, the input image C is efficiently converted into the front image F and the accuracy is improved. The characters in the license plate can be extracted well. In particular, even if some information related to the license plate included in the input image C is lost and it is difficult to extract all four reference points by normal processing, learning processing is performed in preparation for this case. Therefore, it is possible to specify the corresponding points corresponding to the four reference points and perform the three-axis projective conversion.
<画像処理システムのシステム構成>
次に、実施例1に係る画像処理システムのシステム構成を説明する。図2は、実施例1に係る画像処理システムのシステム構成を示す図である。同図に示すように、この画像処理システムは、撮像装置1と画像処理装置3とをネットワーク2を介して接続した構成となる。
<System configuration of image processing system>
Next, the system configuration of the image processing system according to the first embodiment will be described. FIG. 2 is a diagram showing a system configuration of the image processing system according to the first embodiment. As shown in the figure, this image processing system has a configuration in which an
撮像装置1は、256階調の白黒画像を撮像できるCCDカメラ等の撮像デバイスからなり、ネットワーク2を介して画像データを画像処理装置3に送信する。この撮像装置1は、道路を通行する車両のナンバープレートを撮像する監視カメラ等からなる。なお、ここでは撮像装置1が画像を撮像して画像処理装置3に送信する場合について説明するが、撮像装置1が動画を撮影して画像処理装置3に送信し、画像処理装置3において動画から画像を切り出す場合に適用することもできる。さらに、ここでは説明の便宜上、1台の撮像装置1のみを図示したが、複数の撮像装置1を設けることもできる。また、撮像装置1には、256階調の白黒画像ではなく、カラー画像を撮像できる撮像デバイスを用いることもできる。或いは、撮像装置1は可視光による画像ではなく赤外光などによる画像を撮像できる撮像デバイスを用いることもできる。
The
ネットワーク2は、イーサネット(登録商標)等の有線ネットワークにより形成され、画像の受け渡しに利用される。このネットワーク2は、イーサネットに限定されるものではなく、単一の通信ケーブルを用いて直接ケーブル接続し、画像信号を伝送するものであってもよいし、無線ネットワークであってもよい。 The network 2 is formed by a wired network such as Ethernet (registered trademark) and is used for image transfer. The network 2 is not limited to Ethernet, and may be directly connected by a cable using a single communication cable to transmit an image signal, or may be a wireless network.
画像処理装置3は、撮像装置1から受信した入力画像C内のナンバープレートに含まれる文字を出力する装置である。具体的には、ネットワークモデルパラメータGを用いて再構成された多層ニューラルネットワーク36を用いて4つの対応点を特定し、この4つの対応点を用いて認識用画像Dの射影変換を行って正面画像Fを取得し、この正面画像Fを文字認識してナンバープレート内の文字を出力する。この画像処理装置3の詳細な説明については後述する。
The image processing device 3 is a device that outputs characters included in the license plate in the input image C received from the
<画像処理装置3の学習処理を行う場合の構成>
次に、図2に示した画像処理装置3の学習処理を行う場合の構成について説明する。図3は、図2に示した画像処理装置3の学習処理を行う場合の構成を示す機能ブロック図である。同図に示すように、この画像処理装置3は、入力部31、表示部32、通信インターフェース部33、記憶部34及び学習処理制御部35を有する。
<Structure when learning processing of the image processing device 3>
Next, a configuration in the case of performing the learning process of the image processing device 3 shown in FIG. 2 will be described. FIG. 3 is a functional block diagram showing a configuration when the learning process of the image processing device 3 shown in FIG. 2 is performed. As shown in the figure, the image processing device 3 includes an
入力部31は、キーボード及びマウス等の入力デバイスであり、表示部32は、液晶パネル等の表示デバイスである。通信インターフェース部33は、イーサネット通信等を利用して、撮像装置1により撮像された画像を受信するための通信デバイスである。
The
記憶部34は、フラッシュメモリ等の不揮発性メモリ又はハードディスクからなる記憶デバイスであり、参照画像A、学習用画像B及びネットワークモデルパラメータGなどを記憶する。この参照画像Aは、多層ニューラルネットワーク36の学習を行う際に用いる基本となる画像であり、少なくともナンバープレートの4つの基準点(左上、右上、左下、右下の4つの基準点)を特定し得るナンバープレートが正面を向いた正面画像である。
The
学習処理制御部35は、多層ニューラルネットワーク36及びネットワークモデル更新処理部37を用いて学習処理を行い、ネットワークモデルパラメータGを生成するよう制御する制御部であり、参照画像生成部38、学習用画像生成部39及び学習処理部40を有する。
The learning
参照画像生成部38は、処理対象となるナンバープレートの正面画像(所定の大きさに正規化されているものとする)と、入力部31より操作者から入力された4つの基準点とを関連づけた参照画像を生成する処理部である。なお、ここでは通信インターフェース部33を介して入力された正面画像を用いて参照画像Aを生成する場合について説明するが、USBメモリなどの可搬記録媒体に記憶された正面画像を用いて参照画像Aを生成することもできる。
The reference
学習用画像生成部39は、撮像装置1によって撮像される入力画像Cの態様を考慮して、参照画像Aに対して様々な幾何変換等を行って学習用画像Bを生成し、生成した学習用画像Bを記憶部34に格納する処理部である。なお、この学習用画像Bは、参照画像Aに基づいて生成される学習用の画像であり、参照画像Aに歪みを持たせるように射影変換を行った画像、ナンバープレートの一部の情報(例えば、右上部分)を喪失させた画像等が含まれる。
The learning
具体的には、学習用画像生成部39は、参照画像生成部38から受け付けた参照画像Aを幾何学的に変形させた歪みを有する一つ又は複数の学習用画像Bを生成する処理を行う。例えば、4つの基準点を用いて参照画像A又は学習用画像Bの射影変換を行い、新たに学習用画像Bを生成する。複数の学習用画像Bを生成する場合には、参照画像Aをそれぞれ異なる態様に幾何変換を行う。その際、4つの基準点も変換された位置に存在するので学習用画像Bに含ませておく。ただし、この学習用画像生成部39は、操作者により手作業で変形された学習用画像B又は操作者が幾何変換の画像処理を参照画像Aに適用して生成した学習用画像Bを受け付けることもできる。
Specifically, the learning
操作者が入力部31を用いて表示部32に表示された学習用画像B上を指示する場合には、指示された位置座標が基準点となる。ここでは、ナンバープレートの四隅の点(左上、右上、左下、右下)の4つの点の指示を受け付け、この4つの点を基準点とするものとする。なお、テンプレートマッチング等の画像処理技術を用いて、ナンバープレートの四隅の点(左上、右上、左下、右下)を自動的に検出することもできる。画像の一部が喪失しており、ナンバープレートの四隅の点の一部(例えば、右上)が自動的に検出できない場合に、操作者が基準点を追加指示することもできる。具体的な学習用画像Bについては後述する。
When the operator uses the
学習処理部40は、画像処理装置3の学習に係る部分の処理を行う処理部であり、対応点学習受付部41、多層ニューラルネットワーク36及びネットワークモデル更新処理部37を有する。なお、実際には、係る学習処理部40に対応するプログラム及びデータをCPUにロードして実行し、対応点学習受付部41、多層ニューラルネットワーク36及びネットワークモデル更新処理部37の機能を実行することになる。そして、この学習処理部40による学習に伴って、記憶部34のネットワークモデルパラメータGが更新される。
The
対応点学習受付部41は、学習対象となる学習用画像Bを受け付け、この学習用画像Bから解析用画像Eを生成して多層ニューラルネットワーク36に出力するとともに、該学習用画像Bの4つの基準点をネットワークモデル更新処理部37に出力する処理部である。この解析用画像Eは、256階調の白黒画像等の濃淡画像又はRGBの輝度画像でもよいし、微分画像やHSVなどの画像データであってもよい。
The correspondence point
多層ニューラルネットワーク36は、ネットワークモデルパラメータGによりノード間のシナプスの重みが再構成されつつ、入力される解析用画像Eの入力に基づいて動作し4つの対応点を出力する。
The multi-layer
ネットワークモデル更新処理部37は、多層ニューラルネットワーク36から出力された4つの対応点と対応点学習受付部41から入力された4つの基準点との差を算出し、差が少なくなるようにネットワークモデルパラメータGを更新する処理部である。更新されたネットワークモデルパラメータGは、多層ニューラルネットワーク36に適用されて学習が繰り返される。
The network model
<学習用画像Bの一例>
次に、学習用画像Bの一例として4種類の学習用画像について説明する。図4は、学習用画像Bの一例を示す図である。図4(a)に示すように、ナンバープレートを撮像した実画像である参照画像Aには4つの基準点P1〜P4が含まれており、学習用画像Bとして使用する。図4(b)に示すように、この参照画像Aの一部の情報を欠落させた画像が学習用画像B(第1の学習用画像)となる。なお、図4では個別の車両の特定を防ぐために事業用判別番号であるかな文字を表示していないが、実際の処理ではかな文字を含んだまま処理すればよい。
<Example of learning image B>
Next, four types of learning images will be described as an example of the learning image B. FIG. 4 is a diagram showing an example of the learning image B. As shown in FIG. 4A, the reference image A, which is an actual image obtained by capturing the license plate, includes four reference points P1 to P4 and is used as a learning image B. As shown in FIG. 4B, an image lacking some information of the reference image A becomes a learning image B (first learning image). In FIG. 4, the kana characters, which are the business identification numbers, are not displayed in order to prevent the identification of individual vehicles, but in the actual processing, the kana characters may be included in the processing.
また、図4(c)に示すように、参照画像Aの4つの基準点P1〜P4を利用して射影変換した画像(図中に破線の矢印で示した射影変換後の画像)を学習用画像B(第2の学習用画像)とする。参照画像Aの一部の情報を欠落させた学習用画像B(第1の学習用画像)を射影変換したものを新たな学習用画像B(第3の学習用画像)とすることもできる。これらの参照画像A及び第1〜3の学習用画像のうち、1種類の画像を学習用画像Bとしてもよいし、複数種類の画像を学習用画像Bとしてもよい。なお、図示省略したが変換後の基準点P1’〜P4’の位置座標を学習用画像Bに含ませておけば、学習を自動的に進めることができる。 Further, as shown in FIG. 4 (c), an image obtained by projective conversion using the four reference points P1 to P4 of the reference image A (image after projective conversion indicated by a broken line arrow in the figure) is used for learning. Let it be image B (second learning image). A new learning image B (third learning image) can be obtained by projecting and transforming the learning image B (first learning image) in which some information of the reference image A is missing. Of these reference images A and the first to third learning images, one type of image may be used as the learning image B, or a plurality of types of images may be used as the learning image B. Although not shown, if the position coordinates of the converted reference points P1'to P4' are included in the learning image B, the learning can be automatically advanced.
<画像処理装置3の認識処理を行う場合の構成>
次に、図2に示した画像処理装置3が認識処理を行う場合の構成について説明する。図5は、図2に示した画像処理装置3が認識処理を行う場合の機能ブロック図である。
<Configuration when performing recognition processing of the image processing device 3>
Next, a configuration when the image processing device 3 shown in FIG. 2 performs recognition processing will be described. FIG. 5 is a functional block diagram when the image processing device 3 shown in FIG. 2 performs recognition processing.
認識処理制御部44は、学習済のネットワークモデルパラメータGを適用した多層ニューラルネットワーク36を用いて、認識用画像Dの4つの基準点に対応する4つの対応点を特定して正面画像Fを生成し、この正面画像Fを基に文字認識をする制御部である。認識処理制御部44は、外部の撮像装置1等から通信インターフェース部33を経由して、背景を含んだ入力画像Cを受け付ける入力画像受付部45と、多層ニューラルネットワーク36を含む認識処理部46とから構成される。図5において、図3と符号が同じものについては、図3の説明と重複するので説明を省略する。
The recognition
入力画像受付部45は、入力画像Cを受け付けて、ナンバープレート部分の切り出し、画像に対してノイズ除去及び所定のサイズに揃える拡縮処理等の前処理を行って認識用画像Dを生成する処理を行う。ここで、入力画像Cは、撮像装置1によって撮像された処理対象となるナンバープレートの画像である。この入力画像Cにはナンバープレートのみならず、車体の一部も含まれている。また、認識用画像Dと図3で示した学習用画像Bと、認識用画像Dとは、学習用画像Bが4つの基準点の情報を有しているのに対して、認識用画像Dは基準点若しくはその対応点の情報を持っていない点で異なっている。
The input
認識処理部46は、学習済みのネットワークモデルパラメータGを適用した多層ニューラルネットワーク36を用いて認識用画像Dのナンバープレート画像の4つの対応点を出力し、出力された4つの対応点を基に認識用画像Dを射影変換し、正面画像Fを生成し、文字認識を行ってナンバープレートの文字(数字を含む)を出力する処理部である。対応点特定部47、多層ニューラルネットワーク36、正面画像生成部48及び文字認識部49を有する。
The recognition processing unit 46 outputs four corresponding points of the license plate image of the recognition image D using the multi-layer
対応点特定部47は、認識用画像Dを受け付けて解析用画像Eを生成するとともに、認識用画像Dを正面画像生成部48に出力する処理を行う。解析用画像Eは、グレー画像やRGBの輝度画素でもよいし、微分画像やHSVなどの画像であってもよい。対応点特定部47と対応点学習受付部41とは、対応点特定部47が認識用画像Dを正面画像生成部48に出力する点で異なっている。
The corresponding
正面画像生成部48は、多層ニューラルネットワーク36から出力された4つの対応点を用いて認識用画像Dを射影変換して正面画像Fを生成する処理を行う。ここで、この射影変換は、ある平面を別の平面に射影する際に用いられる変換であり、斜めから見た認識用画像Dを正面画像Fに変換する場合に用いられる。なお、この射影変換は周知技術であるため、ここではその詳細な説明を省略する。
The front
文字認識部49は、正面画像Fのナンバープレート部分に含まれる文字(数字を含む)を文字認識して出力する処理を行う。例えば、正規化、特徴抽出、マッチング、知識処理によって一般的な文字認識を行うことができるが、この文字認識については周知技術であるため、ここではその詳細な説明を省略する。
The
認識処理時の記憶部50は、学習時の記憶部34と同じデバイスで構成されており、入力画像Cを一時的に記憶するとともに、学習済のネットワークモデルパラメータG及び、文字認識部49が文字認識時に使用する文字認識用辞書Hを記憶している。
The
<学習処理手順>
次に、図2に示した画像処理装置3の学習段階における処理手順について説明する。図6は、図2に示した画像処理装置3の学習段階における処理手順を示すフローチャートである。なお、ここでは記憶部34に参照画像Aがすでに記憶されているものとする。
<Learning process procedure>
Next, the processing procedure in the learning stage of the image processing apparatus 3 shown in FIG. 2 will be described. FIG. 6 is a flowchart showing a processing procedure in the learning stage of the image processing apparatus 3 shown in FIG. Here, it is assumed that the reference image A is already stored in the
図6に示すように、画像処理装置3は、参照画像Aを含む学習用画像B中の4つの基準点の指定を受け付ける(ステップS101)。この4つの基準点は、多層ニューラルネットワーク36に教師有り学習を行わせる際の教師データとなる。
As shown in FIG. 6, the image processing device 3 accepts the designation of four reference points in the learning image B including the reference image A (step S101). These four reference points serve as teacher data when the multi-layer
その後、参照画像Aから学習用画像Bを生成する(ステップS102)。具体的には、参照画像Aを幾何変換し、参照画像Aを幾何学的に変形させた歪みを有する学習用画像Bを生成する。この学習用画像Bには、ナンバープレートを正面から撮像した参照画像A、該参照画像Aの一部の情報を欠落させた画像、参照画像Aを射影変換した画像及び参照画像Aの一部の情報を欠落させた画像を射影変換した画像等が含まれる。また、参照画像Aに対する基準点座標に対しても同様の幾何学的な変形を加え、学習用画像B中の新たな基準点座標を求める。なお、参照画像A中で基準点の付近の画素情報を欠落させた場合も、学習用画像B中での基準点の位置座標に画像と同様の幾何学的な変換によって変換された位置座標を用いれば、学習用画像Bの生成を自動化することができる。なお、学習用画像Bは画像データと4つの基準点の位置座標情報(以下、基準点情報)の両方を有する。 After that, the learning image B is generated from the reference image A (step S102). Specifically, the reference image A is geometrically transformed to generate a learning image B having a distortion obtained by geometrically deforming the reference image A. The learning image B includes a reference image A obtained by capturing the number plate from the front, an image in which some information of the reference image A is omitted, an image obtained by projecting and converting the reference image A, and a part of the reference image A. An image obtained by projecting and converting an image lacking information is included. Further, the same geometrical deformation is applied to the reference point coordinates with respect to the reference image A to obtain new reference point coordinates in the learning image B. Even if the pixel information near the reference point is omitted in the reference image A, the position coordinates converted by the same geometric transformation as the image are used as the position coordinates of the reference point in the learning image B. If it is used, the generation of the learning image B can be automated. The learning image B has both image data and position coordinate information of four reference points (hereinafter, reference point information).
次に学習用画像Bから、256階調の白黒画像又はRGBの輝度画像、若しくは微分画像やHSVなどの画像データに変換することにより解析用画像Eを生成する(ステップS103)。ただし、本ステップでは学習用画像B中での画像データと基準点情報の関係が保持できなくなる幾何変換は行わない。 Next, an analysis image E is generated by converting the learning image B into a black-and-white image of 256 gradations, an RGB brightness image, or image data such as a differential image or HSV (step S103). However, in this step, the geometric transformation that makes it impossible to maintain the relationship between the image data and the reference point information in the learning image B is not performed.
次に、ネットワークモデルパラメータGの初期値、複数の解析用画像Eと各々の解析用画像Eに対応する基準点情報を多層ニューラルネットワーク36に入力し(ステップS104)、多層ニューラルネットワーク36にて4つの対応点を算出する(ステップS105)。
Next, the initial value of the network model parameter G, the plurality of analysis images E, and the reference point information corresponding to each analysis image E are input to the multi-layer neural network 36 (step S104), and the multi-layer
次に、算出された対応点と対応する基準点との差を算出し(ステップS106)、差が所定値以下であれば(ステップS107;No)、その時のネットワークモデルパラメータGを更新完了したものとして記憶部34に記憶しておく。
Next, the difference between the calculated corresponding point and the corresponding reference point is calculated (step S106), and if the difference is equal to or less than a predetermined value (step S107; No), the network model parameter G at that time has been updated. Is stored in the
ステップS107で、差が所定値を超える場合(ステップS107;Yes)の場合に、繰り返し回数が所定値以上になっていれば(ステップS108;No)、終了する。この場合は異常となる。一方、繰り返し回数が所定値未満であれば(ステップS108;Yes)、差が近くなるようにネットワークモデルパラメータGを更新し(ステップS109)、更新されたネットワークモデルパラメータGを適用した多層ニューラルネットワーク36を使ってステップS105以降を繰り返す。
In step S107, when the difference exceeds a predetermined value (step S107; Yes), and if the number of repetitions is equal to or greater than the predetermined value (step S108; No), the process ends. In this case, it becomes abnormal. On the other hand, if the number of repetitions is less than a predetermined value (step S108; Yes), the network model parameter G is updated so that the difference is close (step S109), and the multi-layer
<認識処理手順>
次に、図2に示した画像処理装置3の認識段階における処理手順について説明する。図7は、図2に示した画像処理装置3の認識段階における処理手順を示すフローチャートである。また、図8(a)から図8(d)を参照しつつ説明をする。
<Recognition processing procedure>
Next, the processing procedure in the recognition stage of the image processing apparatus 3 shown in FIG. 2 will be described. FIG. 7 is a flowchart showing a processing procedure in the recognition stage of the image processing apparatus 3 shown in FIG. Further, the description will be given with reference to FIGS. 8 (a) to 8 (d).
図7に示すように、画像処理装置3は、入力画像C(図8(a))を受け付け(ステップS201)、ナンバープレートを含む入力画像Cの前処理を行って認識用画像Dを生成する(ステップS202)。そして、256階調の白黒画像やRGBの輝度画像等に変換することにより多層ニューラルネットワーク36へ入力する画像である解析用画像Eを生成する(ステップS203)。
As shown in FIG. 7, the image processing device 3 receives the input image C (FIG. 8A) (step S201), preprocesses the input image C including the license plate, and generates the recognition image D. (Step S202). Then, an analysis image E, which is an image to be input to the multilayer
学習済のネットワークモデルパラメータGを記憶部50から読出し、多層ニューラルネットワーク36に入力することによって多層ニューラルネットワーク36を構成させ、これに解析用画像Eを入力する(ステップS204)。多層ニューラルネットワーク36にて対応点を算出する(ステップS205)。ここで、図8(b)に示すように対応点が付与された認識用画像Dが得られることになる。
The learned network model parameter G is read from the
そして、この4つの対応点を用いて認識用画像Dの射影変換を行い(ステップS206)、図8(c)に示すような正面画像Fを取得する。そして、この正面画像Fに対して文字認識処理を行って、図8(d)に示すようなナンバープレートの文字を取得して出力する(ステップS207)。 Then, the recognition image D is projected and transformed using these four corresponding points (step S206), and the front image F as shown in FIG. 8C is acquired. Then, character recognition processing is performed on the front image F to acquire and output the characters of the license plate as shown in FIG. 8 (d) (step S207).
上述してきたように、本実施例1では、学習用画像Bと基準点情報を用いて教師有りの学習を行うことによってネットワークモデルパラメータGの更新を行った多層ニューラルネットワーク36に、入力画像Cを前処理した認識用画像Dから所定の処理を行った解析用画像Eを入力して4つの基準点に対応する認識用画像D上の4つの対応点を特定する。この4つの対応点を用いて認識用画像Dを射影変換して正面画像Fを取得し、この正面画像Fに文字認識を行ってナンバープレートの文字を出力するよう構成している。これにより、撮像距離や角度等の撮像条件が様々に異なる状況で撮像された入力画像Cを効率的かつ精度良く正面画像Fに変換し、ナンバープレートの文字認識結果を出力することができる。従って、画像に含まれる表示板の文字の認識を効率良く行うことができる。
As described above, in the first embodiment, the input image C is applied to the multi-layer
なお、本実施例1では、コンピュータである画像処理装置を用いる場合を示したが、本発明はこれに限定されるものではなく、複数台のコンピュータで分散コンピューティングを行う場合に適用することもできる。また、クラウド上で処理を行う場合に適用することもできる。 In the first embodiment, a case where an image processing device which is a computer is used has been shown, but the present invention is not limited to this, and may be applied to a case where distributed computing is performed by a plurality of computers. it can. It can also be applied when processing is performed on the cloud.
ところで、上記の実施例1では、本発明をナンバープレートの文字認識に用いる場合を示したが、本発明はこれに限定されるものではなく、車両に搭載された画像処理装置によって、道路標識等の表示板に含まれる文字の文字認識を行う場合に適用することもできる。道路標識等の表示板とは、具体的には、案内標識、警戒標識、規制標識、指示標識、補助標識等のことで、特に文字が表示されている道路標識を処理対象とする。そこで、本実施例2では、車両に搭載された画像処理装置によって道路標識等に含まれる文字の文字認識を行う場合を示すこととする。なお、実施例1と同様の部分については、その詳細な説明を省略する。 By the way, in the above-described first embodiment, the case where the present invention is used for character recognition of a license plate is shown, but the present invention is not limited to this, and a road sign or the like is used by an image processing device mounted on a vehicle. It can also be applied when performing character recognition of characters included in the display board of. The display board such as a road sign is specifically a guide sign, a warning sign, a regulation sign, an instruction sign, an auxiliary sign, etc., and in particular, a road sign on which characters are displayed is targeted for processing. Therefore, in the second embodiment, the case where the character recognition of the characters included in the road sign or the like is performed by the image processing device mounted on the vehicle will be shown. A detailed description of the same parts as in the first embodiment will be omitted.
<実施例2に係る画像処理装置の概念>
まず、本実施例2に係る画像処理装置の概念について説明する。図9は、本実施例2に係る画像処理装置の概念を説明するための説明図である。ここでは、実施例1で説明した教師有り学習の学習対象、即ち参照画像Aがナンバープレートの1種類だったものが、複数の形状の種類を有する道路標識を処理対象としている点が実施例1とは異なっている。実施例2では参照画像Aの種別識別後の学習処理が、実施例1で説明した学習処理部40と同様なのでその詳細の多くは省略する。実施例2では、参照画像Aの種別ごとに学習がなされ、ネットワークモデルパラメータGは参照画像Aの種別ごとに作成される。ここで言う参照画像Aの種別とは、矩形状のナンバープレート、円状或いは、多角形状などと言った道路標識等の形状の種別である。
<Concept of image processing device according to Example 2>
First, the concept of the image processing apparatus according to the second embodiment will be described. FIG. 9 is an explanatory diagram for explaining the concept of the image processing apparatus according to the second embodiment. Here, the learning target of the supervised learning described in the first embodiment, that is, the reference image A which is one type of license plate, is the processing target of the road sign having a plurality of shape types. Is different. In the second embodiment, the learning process after the type identification of the reference image A is the same as the
本実施例2に係る画像処理装置4は、学習段階においてあらかじめ多層ニューラルネットワーク36に学習を行わせておき、認識段階において道路標識の形状の種別に応じて学習済みのネットワークモデルパラメータGで再構成された多層ニューラルネットワーク36を用いて4つの対応点を取得する。そして、この4つの対応点を用いて射影変換した正面画像Fで文字認識を行う。この多層ニューラルネットワーク36は、実施例1で使用しているのと同じディープラーニング(深層学習)に用いられる畳み込みニューラルネットワークである。
The image processing device 4 according to the second embodiment has the multi-layer
図9(a)に示すように、学習段階においては、多層ニューラルネットワーク36に対して、学習用画像B及び4つの基準点といった学習データを入力し(ステップS31)、これらの学習用画像B及び4つの基準点に基づき多層ニューラルネットワーク36に教師有り学習を行わせ、ネットワークモデル更新処理部37によりネットワークモデルパラメータGを更新する(ステップS32)。この学習を道路標識の形状の種別ごとに行い、ネットワークモデルパラメータGを対象物の種別ごとに生成する(ステップS33)。
As shown in FIG. 9A, in the learning stage, learning data such as a learning image B and four reference points are input to the multi-layer neural network 36 (step S31), and these learning images B and The multilayer
学習用画像Bは、道路標識を撮像した参照画像Aから生成された画像データである。具体的には、周知の画像処理技術を用いて参照画像を幾何学的に変形させた歪を有する画像データを生成して、生成した画像データを学習用画像Bとする。概念は実施例1での説明と同じであり省略する。 The learning image B is image data generated from the reference image A obtained by capturing the road sign. Specifically, image data having distortion obtained by geometrically deforming a reference image is generated by using a well-known image processing technique, and the generated image data is used as a learning image B. The concept is the same as that described in the first embodiment and will be omitted.
4つの基準点は、多層ニューラルネットワーク36に教師有り学習を行わせるための正解データ(教師データ)である。具体的には、学習用画像Bに含まれる対象物を特定する4点の位置座標が基準点として指定される。この教師有り学習は道路標識の形状の種別に応じてそれぞれ行い、ネットワークモデルパラメータGを種別毎に用意する。
The four reference points are correct answer data (teacher data) for causing the multi-layer
実施例2では、4つの基準点に関して、手入力で指示する点と真の基準点が必ずしも一致している必要はない。丸い形状や三角形状の道路標識では、ナンバープレートの4隅に相当する4点を目視で入力することが困難なので、手入力で指定する点としてはより特徴的な点を設定しておいて、基準点となる4点を多層ニューラルネットワーク36により求める。例えば、手入力では三角形の3つの頂点を指示しておき、指示された3点から計算によって三角形の外接矩形の4隅を求め、その4隅を基準点とする、という処理を行う。
これにより、基準点の精度向上や、多様な形状の表示板に対応することができるという効果がある。
In the second embodiment, the points manually instructed and the true reference points do not necessarily have to coincide with each other with respect to the four reference points. With round or triangular road signs, it is difficult to visually input the four points corresponding to the four corners of the license plate, so set more characteristic points as points to be manually specified. Four points serving as reference points are obtained by the multilayer
This has the effect of improving the accuracy of the reference point and making it possible to handle display boards of various shapes.
次に、認識段階の処理について説明する。図9(b)に示すように、道路標識を撮像した入力画像Cが入力されると、前処理を行って認識用画像Dを出力する(ステップS41)。この認識用画像Dを基に道路標識の形状の種別の識別(ステップS42)を行い、それ以降は種別に応じたネットワークモデルパラメータGを適用した多層ニューラルネットワーク36に解析用画像Eを入力して(ステップS43)、4つの基準点に対応する4つの対応点の位置に係る情報を出力させる(ステップS44)。次に、4つの対応点を用いて認識用画像Dを射影変換して(ステップS45)、正面画像Fを生成する。そして、正面画像Fを文字認識する(ステップS46)。この時、種別に応じた文字認識用辞書Hを使う。道路標識の字体がそれぞれ異なっているからである。図9のステップS43〜S46の処理内容は図1に示すステップS21〜S24の処理内容と同じであるため、重複する説明は省略する。
Next, the processing at the recognition stage will be described. As shown in FIG. 9B, when the input image C that captures the road sign is input, preprocessing is performed and the recognition image D is output (step S41). Based on this recognition image D, the type of road sign shape is identified (step S42), and thereafter, the analysis image E is input to the multi-layer
上述の一連の処理を行うことにより、道路標識を様々な角度で撮像した入力画像Cが入力された場合であっても、この入力画像Cを効率的に正面画像Fに変換し、精度良く道路標識の文字を出力することができる。特に、入力画像Cに含まれる道路標識に係る一部の情報が喪失され、通常の処理では4つの基準点全ての抽出が難しい場合であっても、この場合に備えた学習処理を行っているため、4つの対応点を特定し、もって3軸の射影変換を行うことが可能となる。そして、さまざまな形状の道路標識の文字の認識ができることになる。 By performing the above-mentioned series of processes, even when the input image C obtained by capturing the road sign at various angles is input, the input image C is efficiently converted into the front image F, and the road is accurately converted. The characters of the sign can be output. In particular, even if some information related to the road sign included in the input image C is lost and it is difficult to extract all four reference points by normal processing, learning processing is performed in preparation for this case. Therefore, it is possible to specify four corresponding points and perform a three-axis projective conversion. Then, the characters of road signs of various shapes can be recognized.
<画像処理システムのシステム構成>
次に、実施例2に係る画像処理システムのシステム構成を説明する。図10は、実施例2に係る画像処理システムのシステム構成を示す図である。同図に示すように、この画像処理システムは、車両に搭載された撮像装置1と画像処理装置4とを接続した構成となる。なお、撮像装置1については実施例1に示すものと同様であるので、ここではその説明を省略する。
<System configuration of image processing system>
Next, the system configuration of the image processing system according to the second embodiment will be described. FIG. 10 is a diagram showing a system configuration of the image processing system according to the second embodiment. As shown in the figure, this image processing system has a configuration in which an
画像処理装置4は、撮像装置1から受信した入力画像C内の道路標識の形状の種別を識別し、その道路標識に含まれる文字を認識する装置である。具体的には、認識用画像Dからその道路標識の形状の種別を識別し、その種別に応じて教師有り学習を行ったネットワークモデルパラメータGを使う多層ニューラルネットワーク36により4つの対応点を特定し、この4つの対応点を用いて認識用画像Dの射影変換を行って正面画像Fを取得し、この正面画像Fを種別に応じて用意された文字認識用辞書Hを用いて文字認識し、道路標識に含まれる文字を出力する。
The image processing device 4 is a device that identifies the type of shape of the road sign in the input image C received from the
<画像処理装置4の構成>
次に、図10に示した画像処理装置4の構成について説明する。図11は、図10に示した画像処理装置4の学習時の構成を示す機能ブロック図である。同図に示すように、この画像処理装置4は、入力部31、表示部32、通信インターフェース部33、記憶部34及び学習処理制御部35を有する。なお、実施例1の画像処理装置3と同様の部位については、同一の符号を付すこととして、その詳細な説明を省略する。入力部31は、操作者が参照画像の種別を入力するのに使用される。
<Configuration of image processing device 4>
Next, the configuration of the image processing device 4 shown in FIG. 10 will be described. FIG. 11 is a functional block diagram showing a configuration of the image processing device 4 shown in FIG. 10 at the time of learning. As shown in the figure, the image processing device 4 includes an
記憶部34は、フラッシュメモリ等の不揮発性メモリ又はハードディスクからなる記憶デバイスであり、参照画像A、学習用画像B及びネットワークモデルパラメータG(複数セット)などを記憶する。この参照画像Aは、多層ニューラルネットワーク36及びネットワークモデル更新処理部37が教師有り学習を行ってネットワークモデルパラメータGを更新する際に用いる基本となる画像であり、少なくとも道路標識を特定する4つの基準点を特定し得る正面画像である。
The
学習用画像Bは、参照画像Aに基づいて生成される学習用の画像であり、参照画像Aに歪みを持たせるように幾何変換を行った画像、道路標識の一部の情報を喪失させた画像等が含まれる。撮像装置1によって撮像され得る入力画像Cの態様を考慮して、参照画像Aに対して様々な幾何変換等を行う。学習用画像Bの作り方の原理は実施例1に述べたものと同じである。また、実施例2でも、学習用画像Bは4つの基準点の位置情報である基準点情報を有している。
The learning image B is a learning image generated based on the reference image A, and the reference image A is geometrically transformed so as to have distortion, and some information of the road sign is lost. Images etc. are included. Various geometric transformations and the like are performed on the reference image A in consideration of the mode of the input image C that can be captured by the
ここでは、認識用画像Dは撮像装置1によって撮像された画像に対してトリミング、ノイズ除去及びサイズ合わせ等の前処理を行った道路標識部分の画像である。
Here, the recognition image D is an image of a road sign portion obtained by performing preprocessing such as trimming, noise removal, and size adjustment on the image captured by the
図11に示す実施例2の学習処理部40は、図3の第1の実施例の学習処理部40と同じ構成である。但し、第2の実施例では参照画像Aの種別が複数あり、全ての参照画像Aの種別に亘り個々に学習を行う点で異なっている。
The
ここで、図12の図を用いて、処理対象物が道路標識の場合の基準点について説明する。図12(a)に示すのは、方面及び距離標識であり、形状がナンバープレートと同じ4角形なので、四隅が基準点となる。図12(b)は、四角形ではない標識で円形のものと多角形のものを示している。この場合には、学習の最初には該当する標識を含む四角形の4点(P1〜P4)を基準点として入力して、多層ニューラルネットワーク36によって、外周上の点或いは外周上の角点P1’〜P4’を得る。
Here, the reference point when the object to be processed is a road sign will be described with reference to the figure of FIG. FIG. 12A shows direction and distance signs, and since the shape is the same quadrangle as the license plate, the four corners serve as reference points. FIG. 12B shows a non-quadrangular sign with a circular shape and a polygonal shape. In this case, at the beginning of learning, four points (P1 to P4) of a quadrangle containing the corresponding marker are input as reference points, and a point on the outer circumference or a corner point P1'on the outer circumference is used by the multilayer
次に図10の画像処理装置4が認識処理を行う場合を説明する。図13は認識処理を行う場合の機能ブロック図である。認識処理制御部51は入力画像受付部45と認識処理部46からなる。この認識処理制御部51は、撮像装置1から通信インターフェース部33を経由して、背景を含んだ入力画像Cを受け付ける入力画像受付部45と、道路標識の形状の種別を識別する種別識別部52と、種別毎に学習したネットワークモデルパラメータGで再構成された多層ニューラルネットワーク36を含む認識処理部46とから構成されている。図13において、図5と符号が同じものについては、図5の説明と重複するので説明を省略する。
Next, a case where the image processing device 4 of FIG. 10 performs the recognition process will be described. FIG. 13 is a functional block diagram when performing recognition processing. The recognition
入力画像Cは、処理対象となる道路標識の画像である。認識処理部46は、具体的には、対応点特定部47が4つの基準点に対応する認識用画像D上の4つの対応点、若しくはおおよその対応点を求め、道路標識の形状の種別に応じて学習済みのネットワークモデルパラメータGで再構成された教師有り学習済みの多層ニューラルネットワーク36を用いて認識用画像Dの道路標識の4つの対応点を抽出し、この4つの対応点の位置情報をもとに認識用画像Dを射影変換して正面画像Fを求め、求めた正面画像Fを種別に応じて用意された文字認識用辞書Hを用いて文字認識し、道路標識の文字を出力する。
The input image C is an image of a road sign to be processed. Specifically, the recognition processing unit 46 obtains four corresponding points or approximate corresponding points on the recognition image D corresponding to the four reference points by the corresponding
種別識別部52は、入力画像受付部45が生成した認識用画像Dを用いて道路標識の形状の種別を識別する処理を行う。このときには、予め識別すべき種別分用意してあるテンプレートを適用し、一番近いテンプレートの種別を処理対象物の形状の種別とする。
The
認識処理部46は、種別分のハードウェアの形(基板)で構成されており、46(1)〜46(n)という符号で示され、種別に応じた認識処理部46(i)が選ばれることになる(iは1〜nのうちのいずれかを示す)。この点で実施例2の認識処理制御部51は、実施例1の認識処理制御部44と異なっている。
The recognition processing unit 46 is composed of hardware shapes (boards) for each type, is indicated by reference numerals 46 (1) to 46 (n), and the recognition processing unit 46 (i) is selected according to the type. (I indicates any of 1 to n). In this respect, the recognition
<認識処理手順>
次に、図13に示した画像処理装置4の認識段階における処理手順について説明する。図14は、図10に示した画像処理装置4の認識段階における処理手順を示すフローチャートである。簡単に説明すると、入力画像受付部45で入力画像Cを受け付け(ステップS301)、認識用画像Dを生成する(ステップS302)、この認識用画像Dを元に種別識別部52により道路標識の形状の種別を決定する(ステップS303)。そして、種別に応じた認識処理部46(i)を選択する(ステップS304)。次に、実施例1の記載と同様の解析用画像Eを生成し(ステップS305)、生成した解析用画像Eを種別識別部52によって識別された種別のネットワークモデルパラメータGで再構成された多層ニューラルネットワーク36へ入力する(ステップS306)。多層ニューラルネットワーク36は対応点を算出する(ステップS307)。
<Recognition processing procedure>
Next, the processing procedure in the recognition stage of the image processing apparatus 4 shown in FIG. 13 will be described. FIG. 14 is a flowchart showing a processing procedure in the recognition stage of the image processing apparatus 4 shown in FIG. Briefly, the input
求まった対応点位置座標を用いて認識用画像Dを射影変換し、正面画像Fを生成する(ステップS308)。そして、求めた正面画像Fから種別に応じた文字認識用辞書Hを使って文字認識を行い、処理対象の道路標識の文字を得る(ステップS309)。 The recognition image D is projected and transformed using the obtained corresponding point position coordinates to generate the front image F (step S308). Then, character recognition is performed from the obtained front image F using the character recognition dictionary H according to the type, and the characters of the road sign to be processed are obtained (step S309).
ここで、実施例2で扱う画像について説明を行う。図15は、三角形状の国道番号標識を例に示している。図15(a)は入力画像Cであり、斜め上方から撮像した画像を示している。図15(b)は認識用画像Dであり、対応点情報を持った画像を示している。図15(c)は射影変換後の正面画像Fを示している。図15(d)は文字認識された国道番号である。 Here, the image handled in the second embodiment will be described. FIG. 15 shows a triangular national highway number sign as an example. FIG. 15A is an input image C, which shows an image taken from diagonally above. FIG. 15B is a recognition image D, which shows an image having corresponding point information. FIG. 15C shows the front image F after the projective transformation. FIG. 15 (d) is a character-recognized national highway number.
なお、実施例2では、認識処理部46を処理対象の道路標識の形状の種別に応じて複数用意したが、例えば、FPGA(Field-Programmable Gate Array)を使って、種別の識別の都度ハードウェアを構築するようにすれば、複数枚のハードウェア基板を用意する必要はない。 In the second embodiment, a plurality of recognition processing units 46 are prepared according to the type of the shape of the road sign to be processed. For example, using FPGA (Field-Programmable Gate Array), hardware is used each time the type is identified. There is no need to prepare multiple hardware boards if you try to build.
なお、本実施例2では、道路標識の種別を特定する場合を示したが、本発明はこれに限定されるものではなく、看板等の表示板に含まれる文字を出力する場合にも同様に適用することができる。また、実施例1及び2を組み合わせることも可能である。 In the second embodiment, the case of specifying the type of the road sign is shown, but the present invention is not limited to this, and the same applies to the case of outputting characters included in a display board such as a signboard. Can be applied. It is also possible to combine Examples 1 and 2.
また、上記の実施例1及び2では、4つの基準点に対応する対応点を用いる場合を示したが、5つ以上の基準点に対応する対応点を設定し、そのうちの4点を用いて射影変換を行うこともできる。さらに、上記の入力画像中での表示板の歪みが平行四辺形で近似できる場合には、3つの対応点を出力できるように学習した多層ニューラルネットワーク36によって3つの対応点を検出し、検出された3つの対応点を用いて3軸の射影変換ではなくアフィン変換により正面画像への変換を行うこともできる。
Further, in Examples 1 and 2 above, the case where the corresponding points corresponding to the four reference points are used is shown, but the corresponding points corresponding to five or more reference points are set, and four of them are used. It is also possible to perform projective transformation. Further, when the distortion of the display board in the above input image can be approximated by a parallelogram, the three corresponding points are detected and detected by the multi-layer
また、上記の実施例1及び2では、認識段階で学習を行わないこととしたが、認識段階において教師無し学習を行うよう構成することもできる。また、上記実施例1及び2では、白黒画像を処理対象とする場合を示したが、カラー画像及び赤外画像を処理対象とすることもできる。赤外画像を用いると夜間に対応することが可能となる。なお、解析用画像Eは、Sobelオペレータ、Robertsのオペレータ等の微分オペレータを使った微分画像やガボールフィルタなどを適用した他の画像であってもよい。 Further, in the above-mentioned Examples 1 and 2, learning is not performed in the recognition stage, but unsupervised learning may be performed in the recognition stage. Further, in the above Examples 1 and 2, the case where the black-and-white image is the processing target is shown, but the color image and the infrared image can also be the processing target. Infrared images can be used at night. The analysis image E may be a differential image using a differential operator such as a Sobel operator or a Roberts operator, or another image to which a Gabor filter or the like is applied.
本発明の画像処理装置、画像処理システム及び画像処理方法は、様々な異なる状況で撮像された画像を効率的かつ精度良く正面画像に変換する場合に適している。 The image processing apparatus, image processing system, and image processing method of the present invention are suitable for efficiently and accurately converting images captured in various different situations into front images.
A 参照画像
B 学習用画像
C 入力画像
D 認識用画像
E 解析用画像
F 正面画像
G ネットワークモデルパラメータ
H 文字認識用辞書
1 撮像装置
2 ネットワーク
3,4 画像処理装置
31 入力部
32 表示部
33 通信インターフェース部
34 記憶部
35 学習処理制御部
36 多層ニューラルネットワーク
37 ネットワークモデル更新処理部
38 参照画像生成部
39 学習用画像生成部
40 学習処理部
41 対応点学習受付部
44 認識処理制御部
45 入力画像受付部
46 認識処理部
47 対応点特定部
48 正面画像生成部
49 文字認識部
50 記憶部
51 認識処理制御部
52 種別識別部
A Reference image B Learning image C Input image D Recognition image E Analysis image F Front image G Network model parameter H
Claims (8)
前記学習用画像と該学習用画像における4つの基準点を用いて教師有り学習を行った多層ニューラルネットワークと、
表示板を含む入力画像を取得する入力画像受付部と、
前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する4つの対応点に係る情報を特定する対応点特定部と、
前記対応点特定部により特定された4つの対応点のうちの少なくとも3つの対応点に係る情報に基づく射影変換を行って、前記入力画像に対応する正面画像を生成する正面画像生成部と
を備えたことを特徴とする画像処理装置。 A learning image generation unit for generating a learning image with missing a region including a portion of the reference point display panel from the reference image having the unrealized four reference points,
A multi-layer neural network in which supervised learning was performed using the learning image and four reference points in the learning image, and
An input image reception unit that acquires an input image including a display board,
A correspondence point specifying unit that inputs an image based on the input image to the multilayer neural network and specifies information related to four corresponding points related to the input image corresponding to the reference point .
It is provided with a front image generation unit that generates a front image corresponding to the input image by performing a projective transformation based on information related to at least three correspondence points out of the four correspondence points specified by the correspondence point identification unit. An image processing device characterized by the fact that.
前記表示板を含み4つの基準点を有する参照画像から一部の基準点を含む領域を欠落させた学習用画像を生成する学習用画像生成部と、
前記学習用画像と該学習用画像における4つの基準点を用いて教師有り学習を行った多層ニューラルネットワークと、
表示板を含む入力画像を取得する入力画像受付部と、
前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する4つの対応点に係る情報を特定する対応点特定部と、
前記対応点特定部により特定された4つの対応点のうちの少なくとも3つの対応点に係る情報に基づく射影変換を行って、前記入力画像に対応する正面画像を生成する正面画像生成部と
を備えたことを特徴とする画像処理システム。 An image processing system that processes images including a display board.
A learning image generation unit for generating a learning image with missing a region including a portion of the reference point the panel from the reference image having the unrealized four reference points,
A multi-layer neural network in which supervised learning was performed using the learning image and four reference points in the learning image, and
An input image reception unit that acquires an input image including a display board,
A correspondence point specifying unit that inputs an image based on the input image to the multilayer neural network and specifies information related to four corresponding points related to the input image corresponding to the reference point .
It is provided with a front image generation unit that generates a front image corresponding to the input image by performing a projective transformation based on information related to at least three correspondence points out of the four correspondence points specified by the correspondence point identification unit. An image processing system characterized by the fact that.
前記学習用画像と該学習用画像における4つの基準点を用いて多層ニューラルネットワークに教師有り学習を実行させるステップと、
表示板を含む入力画像を取得する入力画像取得ステップと、
前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する4つの対応点に係る情報を特定する対応点特定ステップと、
前記対応点特定ステップにより特定された4つの対応点のうちの少なくとも3つの対応点に係る情報に基づく射影変換を行って、前記入力画像に対応する正面画像を生成する正面画像生成ステップと
を含んだことを特徴とする画像処理方法。 A learning image generation step of generating a learning image with missing a region including a portion of the reference points from the reference image having the unrealized four reference points display panel,
A step of causing a multi-layer neural network to perform supervised learning using the learning image and four reference points in the learning image, and
An input image acquisition step to acquire an input image including a display board, and
A correspondence point identification step of inputting an image based on the input image into the multilayer neural network and specifying information related to four corresponding points related to the input image corresponding to the reference point ,
The front image generation step includes a front image generation step of generating a front image corresponding to the input image by performing a projective transformation based on information relating to at least three correspondence points out of the four correspondence points specified by the correspondence point identification step. An image processing method characterized by being.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016195984A JP6829575B2 (en) | 2016-10-03 | 2016-10-03 | Image processing equipment, image processing system and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016195984A JP6829575B2 (en) | 2016-10-03 | 2016-10-03 | Image processing equipment, image processing system and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018060296A JP2018060296A (en) | 2018-04-12 |
JP6829575B2 true JP6829575B2 (en) | 2021-02-10 |
Family
ID=61908501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016195984A Active JP6829575B2 (en) | 2016-10-03 | 2016-10-03 | Image processing equipment, image processing system and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6829575B2 (en) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7137948B2 (en) * | 2018-03-27 | 2022-09-15 | サミー株式会社 | pachinko machine |
JP6996413B2 (en) * | 2018-04-27 | 2022-01-17 | トヨタ自動車株式会社 | Analytical equipment and analysis program |
JP7103412B2 (en) * | 2018-05-23 | 2022-07-20 | 日本電気株式会社 | Dictionary learning device, information processing device, dictionary learning method and computer program |
JP7131994B2 (en) * | 2018-07-04 | 2022-09-06 | 株式会社東芝 | Self-position estimation device, self-position estimation method, self-position estimation program, learning device, learning method and learning program |
CN109726627B (en) * | 2018-09-29 | 2021-03-23 | 初速度(苏州)科技有限公司 | Neural network model training and universal ground wire detection method |
KR102695522B1 (en) * | 2018-10-17 | 2024-08-14 | 삼성전자주식회사 | Method and device to train image recognition model and to recognize image |
JP2020067669A (en) * | 2018-10-19 | 2020-04-30 | 株式会社ファブリカコミュニケーションズ | Information processing apparatus, and program |
CN111222387B (en) * | 2018-11-27 | 2023-03-03 | 北京嘀嘀无限科技发展有限公司 | System and method for object detection |
JP7100571B2 (en) * | 2018-12-13 | 2022-07-13 | 株式会社荏原製作所 | A method of building a predictive model that predicts the number of plates that can be plated, a method of building a selection model for predicting the components that cause defects, and a method of predicting the number of boards that can be plated. |
US11686941B2 (en) | 2019-05-17 | 2023-06-27 | Magic Leap, Inc. | Methods and apparatuses for corner detection using neural network and corner detector |
JP7211904B2 (en) * | 2019-06-25 | 2023-01-24 | Kddi株式会社 | Image identification device compatible with perturbation image data |
JP6779491B1 (en) * | 2019-06-25 | 2020-11-04 | 株式会社エクサウィザーズ | Character recognition device, shooting device, character recognition method, and character recognition program |
JP7383939B2 (en) * | 2019-09-03 | 2023-11-21 | 東ソー株式会社 | Learning device, learning method, cell discrimination device, cell discrimination method, cell discrimination learning program, and cell discrimination program |
JP7117720B1 (en) * | 2021-04-05 | 2022-08-15 | 日本システム開発株式会社 | image generator |
JP2022181678A (en) * | 2021-05-26 | 2022-12-08 | Necプラットフォームズ株式会社 | Information processing system and program |
JP7533426B2 (en) | 2021-11-18 | 2024-08-14 | トヨタ自動車株式会社 | Image processing system and image processing method |
JP7533429B2 (en) | 2021-11-25 | 2024-08-14 | トヨタ自動車株式会社 | Image processing system and image processing method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1011576A (en) * | 1996-06-21 | 1998-01-16 | Sanyo Electric Co Ltd | Component shape recognizing method |
JP5724544B2 (en) * | 2011-03-31 | 2015-05-27 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP5767887B2 (en) * | 2011-08-02 | 2015-08-26 | エヌ・ティ・ティ・コムウェア株式会社 | Image processing apparatus, image processing method, and image processing program |
CN104813362B (en) * | 2012-11-06 | 2018-02-16 | 日本电气株式会社 | Image processing equipment and image processing method |
JP6360802B2 (en) * | 2015-02-20 | 2018-07-18 | 株式会社デンソーアイティーラボラトリ | Neural network processing device, neural network processing method, detection device, detection method, and vehicle |
-
2016
- 2016-10-03 JP JP2016195984A patent/JP6829575B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018060296A (en) | 2018-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6829575B2 (en) | Image processing equipment, image processing system and image processing method | |
EP3690712A1 (en) | Learning method and learning device of pedestrian detector for robust surveillance based on image analysis by using gan and testing method and testing device using the same | |
JP7113657B2 (en) | Information processing device, information processing method, and program | |
Guan et al. | Robust traffic-sign detection and classification using mobile LiDAR data with digital images | |
EP3321842B1 (en) | Lane line recognition modeling method, apparatus, storage medium, and device, recognition method and apparatus, storage medium, and device | |
CN109145759B (en) | Vehicle attribute identification method, device, server and storage medium | |
JP6400117B2 (en) | Method and apparatus for recognizing traffic signs | |
US10198689B2 (en) | Method for object detection in digital image and video using spiking neural networks | |
US10445602B2 (en) | Apparatus and method for recognizing traffic signs | |
Neto et al. | Brazilian vehicle identification using a new embedded plate recognition system | |
CN109583345B (en) | Road recognition method, device, computer device and computer readable storage medium | |
CN109409186B (en) | Driver assistance system and method for object detection and notification | |
CN111507908B (en) | Image correction processing method, device, storage medium and computer equipment | |
Nordeng et al. | DEBC detection with deep learning | |
KR20210083221A (en) | Method and apparatus for recognizing abnormal license plate, device and readable storage medium | |
JP2007025902A (en) | Image processor and image processing method | |
CN109711420B (en) | Multi-affine target detection and identification method based on human visual attention mechanism | |
Duan et al. | Real time road edges detection and road signs recognition | |
JP5201184B2 (en) | Image processing apparatus and program | |
CN110706251B (en) | Cross-lens tracking method for pedestrians | |
Bala et al. | Image simulation for automatic license plate recognition | |
JP2893948B2 (en) | License plate recognition device | |
US20230215144A1 (en) | Training apparatus, control method, and non-transitory computer-readable storage medium | |
CN114359147A (en) | Crack detection method, crack detection device, server and storage medium | |
Smadi et al. | Automatic system recognition of license plates using neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210122 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6829575 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |