JP2018060296A - 画像処理装置、画像処理システム及び画像処理方法 - Google Patents

画像処理装置、画像処理システム及び画像処理方法 Download PDF

Info

Publication number
JP2018060296A
JP2018060296A JP2016195984A JP2016195984A JP2018060296A JP 2018060296 A JP2018060296 A JP 2018060296A JP 2016195984 A JP2016195984 A JP 2016195984A JP 2016195984 A JP2016195984 A JP 2016195984A JP 2018060296 A JP2018060296 A JP 2018060296A
Authority
JP
Japan
Prior art keywords
image
learning
neural network
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016195984A
Other languages
English (en)
Other versions
JP6829575B2 (ja
Inventor
良介 石田
Ryosuke Ishida
良介 石田
素子 黒岩
Motoko Kuroiwa
素子 黒岩
雅典 後藤
Masanori Goto
雅典 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2016195984A priority Critical patent/JP6829575B2/ja
Publication of JP2018060296A publication Critical patent/JP2018060296A/ja
Application granted granted Critical
Publication of JP6829575B2 publication Critical patent/JP6829575B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Character Discrimination (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)

Abstract

【課題】様々な異なる状況で撮像された画像を正面画像に変換することができる画像処理装置、画像処理システム及び画像処理方法を提供すること。【解決手段】学習用画像B中の表示板に基づく4つの基準点を用いて教師有り学習を行ったネットワークモデルパラメータGで構築された多層ニューラルネットワーク36に解析用画像Eを入力して4つの基準点に対応する認識用画像D上の4つの対応点を特定し、この4つの対応点を用いて認識用画像Dを射影変換して正面画像Fを取得し、この正面画像Fから文字認識を行って表示板の文字を出力する。【選択図】図1

Description

本発明は、様々な異なる状況で撮像された表示板の画像を、正面から撮像した場合に相当する画像(以下、「正面画像」と言う)に効率的かつ精度良く変換することができる画像処理装置、画像処理システム及び画像処理方法に関する。
従来、車両に取り付けられたナンバープレートや道路に配設された道路標識等の表示板を撮像して読み取る技術が知られている。例えば、全国的、地域的又は都市内において、骨格的な道路網を形成する道路(以下、「幹線道路」と言う)を通行する車両、有料道路の料金所を通過する車両、駐車場に出入りする車両などの車両番号を読み取るために、車両に付されたナンバープレートを撮像し、撮像されたナンバープレートを含む画像データに表記された車両番号を読み取る装置が設置されている。
例えば、特許文献1には、画像中のナンバープレートの位置に応じてあらかじめ座標変換パラメータを記憶しておき、画像中のナンバープレートの位置を検出したならば、その位置に応じた座標変換パラメータでナンバープレート部分の画像の座標変換を行い,ナンバープレートの正面画像を得る技術が開示されている。このようにナンバープレート部分を正面画像に変換してから認識処理を行うことで、認識処理の精度を向上させることができる。
また、特許文献2には、撮像装置に対する車両の走行方向に応じて、ナンバープレートを撮像した画像を回転させるとともに、拡大補正を行って、ナンバープレートの番号を認識する技術が開示されている。さらに、特許文献3には、ナンバープレートを撮像した画像から、プレート止め2つ及び最も右側の数字を含む4点を検出し、この4点を用いて座標変換を行って、正面から見たナンバープレートの画像を取得する技術が開示されている。
また、特許文献4には、正面から撮像された画像ではない場合や樹木等により道路標識の一部が隠されて図形成分が欠落している場合に、ニューラルネットワークを利用して学習機能を付加し、図形成分の欠落、変形に対して正しく道路標識を抽出できるように学習を行わせる点に言及されている。
特開平7−114688号公報 特許第4670721号公報 特開2015−32087号公報 特許第4762026号公報
しかしながら、上記特許文献1のものは、車両の進入方向が限定されており、進入方向が変化する場合に適用することができない。また、上記特許文献2のものは、上記特許文献1と異なり複数の進入方向に対応することができるが、時間間隔を空けて撮影した2枚の画像が必要になるため、高速な処理に不適である。
さらに、特許文献3のものは、正面画像に変換するために必要となる4点が画像に含まれない場合には対応することができない。また、特許文献4には、道路標識が斜めに撮影されている場合や、樹木等により道路標識の一部が隠されて図形成分が欠落している場合に、図形成分の変形や欠落があっても正しく道路標識を抽出できるようニューラルネットワークに学習させる点が言及されているが、正面画像に補正するための情報がないため、抽出した道路標識画像を正面画像に変換することができない。
これらのことから、上記特許文献1〜4に代表される従来技術は、それぞれ表示板の画像を正面画像に変換できない状況が存在するため、実環境を想定すると適用状況が限られる、或いは認識処理の精度が低下するという問題がある。
このため、撮像装置によって撮像されたナンバープレートを含む画像を正面画像に変換する場合に、いかにして様々な異なる状況に効率良く対応するかが重要な課題となっている。係る課題は、ナンバープレートを含む画像のみならず、道路標識を含む画像等の場合にも同様に生ずる課題である。
本発明は、上記従来技術の課題を解決するためになされたものであって、様々な異なる状況で撮像された画像を効率的かつ精度良く正面画像に変換することができる画像処理装置、画像処理システム及び画像処理方法を提供することを目的とする。
上記の課題を解決するため、本発明は、表示板を含む複数の学習用画像及び各学習用画像における少なくとも3つの基準点を用いて教師有り学習を行った多層ニューラルネットワークと、表示板を含む入力画像を受け付ける入力画像受付部と、前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する少なくとも3つの対応点に係る情報を特定する対応点特定部とを備えたことを特徴とする。
また、本発明は、上記の発明において、前記対応点特定部により特定された3つの対応点に係る情報に基づくアフィン変換又は4つの対応点に係る情報に基づく射影変換を行って、前記入力画像に対応する正面画像を生成する正面画像生成部をさらに備えたことを特徴とする。
また、本発明は、上記の発明において、前記正面画像生成部により生成された正面画像に含まれる文字を文字認識する文字認識部をさらに備えたことを特徴とする。
また、本発明は、上記の発明において、前記多層ニューラルネットワークは、所定の撮像装置により前記表示板を撮像した実画像の一部の情報を欠落させた第1の学習用画像と、前記実画像を射影変換した第2の学習用画像と、前記第1の学習用画像を射影変換した第3の学習用画像とのうち少なくとも1種類を含む学習用画像と、前記学習用画像における少なくとも3つの基準点とを入力情報として教師有り学習を行うことを特徴とする。
また、本発明は、上記の発明において、前記表示板の種別を識別する種別識別部をさらに備えたことを特徴とする。
また、本発明は、上記の発明において、前記対応点特定部は、前記入力画像受付部により取得された入力画像から生成された濃淡画像である解析用画像を前記多層ニューラルネットワークに投入することを特徴とする。
また、本発明は、上記の発明において、前記表示板は、車両の登録番号を示すナンバープレート又は道路標識であることを特徴とする。
また、本発明は、表示板を含む画像を処理する画像処理システムであって、表示板を含む複数の学習用画像及び各学習用画像における少なくとも3つの基準点を用いて教師有り学習を行った多層ニューラルネットワークと、表示板を含む入力画像を受け付ける入力画像受付部と、前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する少なくとも3つの対応点に係る情報を特定する対応点特定部とを備えたことを特徴とする。
また、本発明は、表示板を含む複数の学習用画像及び各学習用画像における少なくとも3つの基準点を用いて多層ニューラルネットワークに教師有り学習を実行させるステップと、表示板を含む入力画像を取得する入力画像取得ステップと、前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する少なくとも3つの対応点に係る情報を特定する対応点特定ステップとを含んだことを特徴とする。
本発明によれば、様々な異なる状況で撮像された表示板を含む画像から、表示板の正面画像を得ることが可能となる。
図1は、実施例1に係る画像処理装置の概念を説明するための説明図である。 図2は、実施例1に係る画像処理システムのシステム構成を示す図である。 図3は、図2に示した画像処理装置の学習段階の構成を示す機能ブロック図である。 図4は、学習用画像の作成の説明をするための図である。 図5は、図2に示した画像処理装置の認識段階の構成を示す機能ブロック図である。 図6は、図2に示した画像処理装置の学習段階における処理手順を示すフローチャートである。 図7は、図2に示した画像処理装置の認識段階における処理手順を示すフローチャートである。 図8は、図7に示したフローチャートで説明される画像の例である。 図9は実施例2に係る画像処理装置の概念を説明するための説明図である。 図10は、実施例2に係る画像処理システムのシステム構成を示す図である。 図11は、図10に示した画像処理装置の学習段階における構成を示す機能ブロック図である。 図12は、図10に示した画像処理装置の処理対象である標識の基準点について説明する図である。 図13は、図10に示した画像処理装置の認識段階における構成を示す機能ブロック図である。 図14は、図10に示した画像処理装置の認識段階における処理手順を示すフローチャートである。 図15は、図14に示したフローチャートで説明される画像の例である。
以下、添付図面を参照して、本実施例1に係る画像処理装置、画像処理システム及び画像処理方法の実施例を説明する。本実施例1では、表示板の1つである、車両の登録番号を表示するナンバープレートの文字及び数字を読み取る場合を中心に説明することとする。
<実施例1に係る画像処理装置の概念>
まず、本実施例1に係る画像処理装置の概念について説明する。図1は、本実施例1に係る画像処理装置の概念を説明するための説明図である。ここでは、学習に使用するナンバープレートを撮像した多階調(例えば、256階調の白黒画像や24ビットカラー画像など)の画像(以下、「参照画像」と言う)と、この参照画像から生成された学習用画像がすでに取得されているものとする。
本実施例1に係る画像処理装置3は、学習段階においてあらかじめ多層ニューラルネットワーク36及びネットワークモデル更新処理部37に教師有り学習を行わせ、多層ニューラルネットワーク36のノード間を接続するシナプスの重み等をネットワークモデルパラメータGとして記憶する。そして、認識段階では、ネットワークモデルパラメータGを用いて多層ニューラルネットワーク36を再構成し、この多層ニューラルネットワーク36により画像の4隅の位置情報を用いて正面画像Fを生成する。その後、ナンバープレートの正面画像Fを文字認識して該ナンバープレートに含まれる文字及び数字を出力する。
具体的には、本実施例1では、多層ニューラルネットワーク36からネットワークモデルの更新を行う機能部(ネットワークモデル更新処理部37)を分離している。あらかじめ教師有り学習を行う際に、このネットワークモデル更新処理部37によって学習データ(シナプスの重み等)となるネットワークモデルパラメータGを生成することとしている。このようにすることで、認証段階ではネットワークモデル更新処理部37が不要になるとともに、ネットワークモデルパラメータGを用いて異なる多数の多層ニューラルネットワーク36を再構成することがでる。
ここで、多層ニューラルネットワーク36は、ディープラーニング(深層学習)において用いられる多層化されたニューラルネットワークであり、本実施例では畳み込みニューラルネットワーク(Convolutional Neural Network)を用いている。この畳み込みニューラルネットワークは、順伝播型人工ニューラルネットワークの一種であり、個々のニューロンが視覚野と対応するような形で配置されている。この畳み込みネットワークは、生物学的処理に影響されたものであり、少ない事前処理で済むよう設計された多層パーセプトロンの一種である。なお、この畳み込みニューラルネットワーク自体は公知技術であるため、ここではその詳細な説明を省略する。
また、多層ニューラルネットワーク36及びネットワークモデル更新処理部37には、学習用画像B及び4つの基準点を用いて教師有り学習を行わせる。具体的には、ネットワークモデル更新処理部37は、多層ニューラルネットワーク36から出力された4つの対応点が、4つの基準点の位置座標と一致するようにネットワークモデルパラメータGを更新(学習)する。更新されたネットワークモデルパラメータGにより多層ニューラルネットワーク36を再構成し、該多層ニューラルネットワーク36から出力される4つの対応点を使って同様に学習を行う。係る学習処理を繰り返して、ネットワークモデルパラメータGを固定する。例えば、誤差逆伝播法(Backpropagation)アルゴリズム等を用いてネットワークモデルパラメータGを調整することができる。
図1(a)に示すように、学習段階においては、学習用画像Bを多層ニューラルネットワーク36に入力し、教師データである4つの基準点といった学習データをネットワークモデル更新処理部37に入力する(ステップS11)。そして、これらの学習用画像B及び4つの基準点に基づいて多層ニューラルネットワーク36に学習を行わせ、ネットワークモデル更新処理部37によってネットワークモデルパラメータGの更新処理を行う(ステップS12)。なお、多層ニューラルネットワーク36及びネットワークモデル更新処理部37による教師有り学習自体は既存技術であるため、ここではその詳細な説明を省略する。
学習用画像Bは、車両に付されたナンバープレートを撮像した実画像である参照画像から生成された画像データである。具体的には、この学習用画像Bは、撮像装置1によりナンバープレートを撮像した実画像である参照画像A、ナンバープレートの一部が隠れていること等を想定し該参照画像Aの一部の情報を欠落させた画像(第1の学習用画像)、車両と撮像装置1とのなす相対角度を想定し参照画像Aを射影変換した画像(第2の学習用画像)又は参照画像Aの一部の情報を欠落させた画像を射影変換した画像(第3の学習用画像)等である。また、学習用画像Bは、処理を効率化するためにナンバープレート及びその周囲のみが含まれるように切り出した画像とすることが望ましい。
4つの基準点は、ネットワークモデルパラメータGの更新及び多層ニューラルネットワーク36に教師有り学習を行わせるための正解データ(教師データ)である。具体的には、学習用画像Bに含まれるナンバープレートの4隅の点の位置座標が基準点として指定される。
このように、本実施例1に係る多層ニューラルネットワーク36に学習用画像B及び4つの基準点を用いて学習を行わせる理由は、実環境下で、撮像方向の違いにより様々な歪みを持つ入力画像Cが入力された場合であっても、歪みのない正面画像Fを得るためである。この点を具体的に説明すると、撮像装置1で車両のナンバープレートを撮像する場合に、車両と撮像装置1とのなす相対角度によって、入力画像C中のナンバープレート部分に様々な歪みが生ずる。例えば、矩形形状のナンバープレートを撮像したのにもかかわらず、平行四辺形や台形状にナンバープレートが映り込む場合がある。また、他の車両や樹木等の存在によって、ナンバープレートの一部が隠れてしまう場合もある。その結果、3軸の射影変換に必要となる4つの基準点を特定できない状況が生じ得る。このため、あらかじめ様々な歪みを持つ学習用画像Bと、その正解データ(教師データ)となる4つの基準点とを入力して、多層ニューラルネットワーク36に学習させるとともに、更新されたネットワークモデルパラメータGを記憶している。なお、この4つの基準点は、操作者が表示部32に表示させた学習用画像B上の点を指示入力することによって特定することができ、操作者により指定された4つの基準点を、画像と同様の射影変換により特定することもできる。
次に、認識段階の処理について説明する。ここでは、前処理として、車両のナンバープレートを撮像した入力画像Cからナンバープレート及びその周辺部が含まれる認識用画像Dが生成されているものとする。なお、この前処理において、エッジ検出や平滑化処理などを行うこともできる。
図1(b)に示すように、認識用画像Dから解析用画像Eを生成する。この解析用画像Eが多層ニューラルネットワーク36に入力されると(ステップS21)、多層ニューラルネットワーク36は、4つの基準点にそれぞれ対応する4つの対応点の位置に係る情報を出力する(ステップS22)。なお、この「対応点の位置に係る情報」とは、対応点の位置座標そのものであってもよいし、対応点を特定するための情報であってもよい。例えば、1つの対応点の位置座標と、この対応点から他の対応点へのベクトルであってもよい。
その後、4つの対応点を用いて認識用画像Dを射影変換し(ステップS23)、ナンバープレートの正面画像Fを取得する。その後、正面画像Fに含まれる文字(数字を含む)を文字認識し(ステップS24)、ナンバープレートに含まれる文字を出力する。なお、射影変換及び文字認識を行う際には、周知の技術が用いられる。
上記の一連の処理を行うことにより、車両のナンバープレートを様々な角度で撮像した入力画像Cが入力された場合であっても、この入力画像Cを効率的に正面画像Fに変換し、精度良くナンバープレート内の文字を抽出することができる。特に、入力画像Cに含まれるナンバープレートに係る一部の情報が喪失され、通常の処理では4つの基準点全ての抽出が難しい場合であっても、この場合に備えた学習処理を行っているため、4つの基準点に対応する対応点を特定し、もって3軸の射影変換を行うことが可能となる。
<画像処理システムのシステム構成>
次に、実施例1に係る画像処理システムのシステム構成を説明する。図2は、実施例1に係る画像処理システムのシステム構成を示す図である。同図に示すように、この画像処理システムは、撮像装置1と画像処理装置3とをネットワーク2を介して接続した構成となる。
撮像装置1は、256階調の白黒画像を撮像できるCCDカメラ等の撮像デバイスからなり、ネットワーク2を介して画像データを画像処理装置3に送信する。この撮像装置1は、道路を通行する車両のナンバープレートを撮像する監視カメラ等からなる。なお、ここでは撮像装置1が画像を撮像して画像処理装置3に送信する場合について説明するが、撮像装置1が動画を撮影して画像処理装置3に送信し、画像処理装置3において動画から画像を切り出す場合に適用することもできる。さらに、ここでは説明の便宜上、1台の撮像装置1のみを図示したが、複数の撮像装置1を設けることもできる。また、撮像装置1には、256階調の白黒画像ではなく、カラー画像を撮像できる撮像デバイスを用いることもできる。或いは、撮像装置1は可視光による画像ではなく赤外光などによる画像を撮像できる撮像デバイスを用いることもできる。
ネットワーク2は、イーサネット(登録商標)等の有線ネットワークにより形成され、画像の受け渡しに利用される。このネットワーク2は、イーサネットに限定されるものではなく、単一の通信ケーブルを用いて直接ケーブル接続し、画像信号を伝送するものであってもよいし、無線ネットワークであってもよい。
画像処理装置3は、撮像装置1から受信した入力画像C内のナンバープレートに含まれる文字を出力する装置である。具体的には、ネットワークモデルパラメータGを用いて再構成された多層ニューラルネットワーク36を用いて4つの対応点を特定し、この4つの対応点を用いて認識用画像Dの射影変換を行って正面画像Fを取得し、この正面画像Fを文字認識してナンバープレート内の文字を出力する。この画像処理装置3の詳細な説明については後述する。
<画像処理装置3の学習処理を行う場合の構成>
次に、図2に示した画像処理装置3の学習処理を行う場合の構成について説明する。図3は、図2に示した画像処理装置3の学習処理を行う場合の構成を示す機能ブロック図である。同図に示すように、この画像処理装置3は、入力部31、表示部32、通信インターフェース部33、記憶部34及び学習処理制御部35を有する。
入力部31は、キーボード及びマウス等の入力デバイスであり、表示部32は、液晶パネル等の表示デバイスである。通信インターフェース部33は、イーサネット通信等を利用して、撮像装置1により撮像された画像を受信するための通信デバイスである。
記憶部34は、フラッシュメモリ等の不揮発性メモリ又はハードディスクからなる記憶デバイスであり、参照画像A、学習用画像B及びネットワークモデルパラメータGなどを記憶する。この参照画像Aは、多層ニューラルネットワーク36の学習を行う際に用いる基本となる画像であり、少なくともナンバープレートの4つの基準点(左上、右上、左下、右下の4つの基準点)を特定し得るナンバープレートが正面を向いた正面画像である。
学習処理制御部35は、多層ニューラルネットワーク36及びネットワークモデル更新処理部37を用いて学習処理を行い、ネットワークモデルパラメータGを生成するよう制御する制御部であり、参照画像生成部38、学習用画像生成部39及び学習処理部40を有する。
参照画像生成部38は、処理対象となるナンバープレートの正面画像(所定の大きさに正規化されているものとする)と、入力部31より操作者から入力された4つの基準点とを関連づけた参照画像を生成する処理部である。なお、ここでは通信インターフェース部33を介して入力された正面画像を用いて参照画像Aを生成する場合について説明するが、USBメモリなどの可搬記録媒体に記憶された正面画像を用いて参照画像Aを生成することもできる。
学習用画像生成部39は、撮像装置1によって撮像される入力画像Cの態様を考慮して、参照画像Aに対して様々な幾何変換等を行って学習用画像Bを生成し、生成した学習用画像Bを記憶部34に格納する処理部である。なお、この学習用画像Bは、参照画像Aに基づいて生成される学習用の画像であり、参照画像Aに歪みを持たせるように射影変換を行った画像、ナンバープレートの一部の情報(例えば、右上部分)を喪失させた画像等が含まれる。
具体的には、学習用画像生成部39は、参照画像生成部38から受け付けた参照画像Aを幾何学的に変形させた歪みを有する一つ又は複数の学習用画像Bを生成する処理を行う。例えば、4つの基準点を用いて参照画像A又は学習用画像Bの射影変換を行い、新たに学習用画像Bを生成する。複数の学習用画像Bを生成する場合には、参照画像Aをそれぞれ異なる態様に幾何変換を行う。その際、4つの基準点も変換された位置に存在するので学習用画像Bに含ませておく。ただし、この学習用画像生成部39は、操作者により手作業で変形された学習用画像B又は操作者が幾何変換の画像処理を参照画像Aに適用して生成した学習用画像Bを受け付けることもできる。
操作者が入力部31を用いて表示部32に表示された学習用画像B上を指示する場合には、指示された位置座標が基準点となる。ここでは、ナンバープレートの四隅の点(左上、右上、左下、右下)の4つの点の指示を受け付け、この4つの点を基準点とするものとする。なお、テンプレートマッチング等の画像処理技術を用いて、ナンバープレートの四隅の点(左上、右上、左下、右下)を自動的に検出することもできる。画像の一部が喪失しており、ナンバープレートの四隅の点の一部(例えば、右上)が自動的に検出できない場合に、操作者が基準点を追加指示することもできる。具体的な学習用画像Bについては後述する。
学習処理部40は、画像処理装置3の学習に係る部分の処理を行う処理部であり、対応点学習受付部41、多層ニューラルネットワーク36及びネットワークモデル更新処理部37を有する。なお、実際には、係る学習処理部40に対応するプログラム及びデータをCPUにロードして実行し、対応点学習受付部41、多層ニューラルネットワーク36及びネットワークモデル更新処理部37の機能を実行することになる。そして、この学習処理部40による学習に伴って、記憶部34のネットワークモデルパラメータGが更新される。
対応点学習受付部41は、学習対象となる学習用画像Bを受け付け、この学習用画像Bから解析用画像Eを生成して多層ニューラルネットワーク36に出力するとともに、該学習用画像Bの4つの基準点をネットワークモデル更新処理部37に出力する処理部である。この解析用画像Eは、256階調の白黒画像等の濃淡画像又はRGBの輝度画像でもよいし、微分画像やHSVなどの画像データであってもよい。
多層ニューラルネットワーク36は、ネットワークモデルパラメータGによりノード間のシナプスの重みが再構成されつつ、入力される解析用画像Eの入力に基づいて動作し4つの対応点を出力する。
ネットワークモデル更新処理部37は、多層ニューラルネットワーク36から出力された4つの対応点と対応点学習受付部41から入力された4つの基準点との差を算出し、差が少なくなるようにネットワークモデルパラメータGを更新する処理部である。更新されたネットワークモデルパラメータGは、多層ニューラルネットワーク36に適用されて学習が繰り返される。
<学習用画像Bの一例>
次に、学習用画像Bの一例として4種類の学習用画像について説明する。図4は、学習用画像Bの一例を示す図である。図4(a)に示すように、ナンバープレートを撮像した実画像である参照画像Aには4つの基準点P1〜P4が含まれており、学習用画像Bとして使用する。図4(b)に示すように、この参照画像Aの一部の情報を欠落させた画像が学習用画像B(第1の学習用画像)となる。なお、図4では個別の車両の特定を防ぐために事業用判別番号であるかな文字を表示していないが、実際の処理ではかな文字を含んだまま処理すればよい。
また、図4(c)に示すように、参照画像Aの4つの基準点P1〜P4を利用して射影変換した画像(図中に破線の矢印で示した射影変換後の画像)を学習用画像B(第2の学習用画像)とする。参照画像Aの一部の情報を欠落させた学習用画像B(第1の学習用画像)を射影変換したものを新たな学習用画像B(第3の学習用画像)とすることもできる。これらの参照画像A及び第1〜3の学習用画像のうち、1種類の画像を学習用画像Bとしてもよいし、複数種類の画像を学習用画像Bとしてもよい。なお、図示省略したが変換後の基準点P1’〜P4’の位置座標を学習用画像Bに含ませておけば、学習を自動的に進めることができる。
<画像処理装置3の認識処理を行う場合の構成>
次に、図2に示した画像処理装置3が認識処理を行う場合の構成について説明する。図5は、図2に示した画像処理装置3が認識処理を行う場合の機能ブロック図である。
認識処理制御部44は、学習済のネットワークモデルパラメータGを適用した多層ニューラルネットワーク36を用いて、認識用画像Dの4つの基準点に対応する4つの対応点を特定して正面画像Fを生成し、この正面画像Fを基に文字認識をする制御部である。認識処理制御部44は、外部の撮像装置1等から通信インターフェース部33を経由して、背景を含んだ入力画像Cを受け付ける入力画像受付部45と、多層ニューラルネットワーク36を含む認識処理部46とから構成される。図5において、図3と符号が同じものについては、図3の説明と重複するので説明を省略する。
入力画像受付部45は、入力画像Cを受け付けて、ナンバープレート部分の切り出し、画像に対してノイズ除去及び所定のサイズに揃える拡縮処理等の前処理を行って認識用画像Dを生成する処理を行う。ここで、入力画像Cは、撮像装置1によって撮像された処理対象となるナンバープレートの画像である。この入力画像Cにはナンバープレートのみならず、車体の一部も含まれている。また、認識用画像Dと図3で示した学習用画像Bと、認識用画像Dとは、学習用画像Bが4つの基準点の情報を有しているのに対して、認識用画像Dは基準点若しくはその対応点の情報を持っていない点で異なっている。
認識処理部46は、学習済みのネットワークモデルパラメータGを適用した多層ニューラルネットワーク36を用いて認識用画像Dのナンバープレート画像の4つの対応点を出力し、出力された4つの対応点を基に認識用画像Dを射影変換し、正面画像Fを生成し、文字認識を行ってナンバープレートの文字(数字を含む)を出力する処理部である。対応点特定部47、多層ニューラルネットワーク36、正面画像生成部48及び文字認識部49を有する。
対応点特定部47は、認識用画像Dを受け付けて解析用画像Eを生成するとともに、認識用画像Dを正面画像生成部48に出力する処理を行う。解析用画像Eは、グレー画像やRGBの輝度画素でもよいし、微分画像やHSVなどの画像であってもよい。対応点特定部47と対応点学習受付部41とは、対応点特定部47が認識用画像Dを正面画像生成部48に出力する点で異なっている。
正面画像生成部48は、多層ニューラルネットワーク36から出力された4つの対応点を用いて認識用画像Dを射影変換して正面画像Fを生成する処理を行う。ここで、この射影変換は、ある平面を別の平面に射影する際に用いられる変換であり、斜めから見た認識用画像Dを正面画像Fに変換する場合に用いられる。なお、この射影変換は周知技術であるため、ここではその詳細な説明を省略する。
文字認識部49は、正面画像Fのナンバープレート部分に含まれる文字(数字を含む)を文字認識して出力する処理を行う。例えば、正規化、特徴抽出、マッチング、知識処理によって一般的な文字認識を行うことができるが、この文字認識については周知技術であるため、ここではその詳細な説明を省略する。
認識処理時の記憶部50は、学習時の記憶部34と同じデバイスで構成されており、入力画像Cを一時的に記憶するとともに、学習済のネットワークモデルパラメータG及び、文字認識部49が文字認識時に使用する文字認識用辞書Hを記憶している。
<学習処理手順>
次に、図2に示した画像処理装置3の学習段階における処理手順について説明する。図6は、図2に示した画像処理装置3の学習段階における処理手順を示すフローチャートである。なお、ここでは記憶部34に参照画像Aがすでに記憶されているものとする。
図6に示すように、画像処理装置3は、参照画像Aを含む学習用画像B中の4つの基準点の指定を受け付ける(ステップS101)。この4つの基準点は、多層ニューラルネットワーク36に教師有り学習を行わせる際の教師データとなる。
その後、参照画像Aから学習用画像Bを生成する(ステップS102)。具体的には、参照画像Aを幾何変換し、参照画像Aを幾何学的に変形させた歪みを有する学習用画像Bを生成する。この学習用画像Bには、ナンバープレートを正面から撮像した参照画像A、該参照画像Aの一部の情報を欠落させた画像、参照画像Aを射影変換した画像及び参照画像Aの一部の情報を欠落させた画像を射影変換した画像等が含まれる。また、参照画像Aに対する基準点座標に対しても同様の幾何学的な変形を加え、学習用画像B中の新たな基準点座標を求める。なお、参照画像A中で基準点の付近の画素情報を欠落させた場合も、学習用画像B中での基準点の位置座標に画像と同様の幾何学的な変換によって変換された位置座標を用いれば、学習用画像Bの生成を自動化することができる。なお、学習用画像Bは画像データと4つの基準点の位置座標情報(以下、基準点情報)の両方を有する。
次に学習用画像Bから、256階調の白黒画像又はRGBの輝度画像、若しくは微分画像やHSVなどの画像データに変換することにより解析用画像Eを生成する(ステップS103)。ただし、本ステップでは学習用画像B中での画像データと基準点情報の関係が保持できなくなる幾何変換は行わない。
次に、ネットワークモデルパラメータGの初期値、複数の解析用画像Eと各々の解析用画像Eに対応する基準点情報を多層ニューラルネットワーク36に入力し(ステップS104)、多層ニューラルネットワーク36にて4つの対応点を算出する(ステップS105)。
次に、算出された対応点と対応する基準点との差を算出し(ステップS106)、差が所定値以下であれば(ステップS107;No)、その時のネットワークモデルパラメータGを更新完了したものとして記憶部34に記憶しておく。
ステップS107で、差が所定値を超える場合(ステップS107;Yes)の場合に、繰り返し回数が所定値以上になっていれば(ステップS108;No)、終了する。この場合は異常となる。一方、繰り返し回数が所定値未満であれば(ステップS108;Yes)、差が近くなるようにネットワークモデルパラメータGを更新し(ステップS109)、更新されたネットワークモデルパラメータGを適用した多層ニューラルネットワーク36を使ってステップS105以降を繰り返す。
<認識処理手順>
次に、図2に示した画像処理装置3の認識段階における処理手順について説明する。図7は、図2に示した画像処理装置3の認識段階における処理手順を示すフローチャートである。また、図8(a)から図8(d)を参照しつつ説明をする。
図7に示すように、画像処理装置3は、入力画像C(図8(a))を受け付け(ステップS201)、ナンバープレートを含む入力画像Cの前処理を行って認識用画像Dを生成する(ステップS202)。そして、256階調の白黒画像やRGBの輝度画像等に変換することにより多層ニューラルネットワーク36へ入力する画像である解析用画像Eを生成する(ステップS203)。
学習済のネットワークモデルパラメータGを記憶部50から読出し、多層ニューラルネットワーク36に入力することによって多層ニューラルネットワーク36を構成させ、これに解析用画像Eを入力する(ステップS204)。多層ニューラルネットワーク36にて対応点を算出する(ステップS205)。ここで、図8(b)に示すように対応点が付与された認識用画像Dが得られることになる。
そして、この4つの対応点を用いて認識用画像Dの射影変換を行い(ステップS206)、図8(c)に示すような正面画像Fを取得する。そして、この正面画像Fに対して文字認識処理を行って、図8(d)に示すようなナンバープレートの文字を取得して出力する(ステップS207)。
上述してきたように、本実施例1では、学習用画像Bと基準点情報を用いて教師有りの学習を行うことによってネットワークモデルパラメータGの更新を行った多層ニューラルネットワーク36に、入力画像Cを前処理した認識用画像Dから所定の処理を行った解析用画像Eを入力して4つの基準点に対応する認識用画像D上の4つの対応点を特定する。この4つの対応点を用いて認識用画像Dを射影変換して正面画像Fを取得し、この正面画像Fに文字認識を行ってナンバープレートの文字を出力するよう構成している。これにより、撮像距離や角度等の撮像条件が様々に異なる状況で撮像された入力画像Cを効率的かつ精度良く正面画像Fに変換し、ナンバープレートの文字認識結果を出力することができる。従って、画像に含まれる表示板の文字の認識を効率良く行うことができる。
なお、本実施例1では、コンピュータである画像処理装置を用いる場合を示したが、本発明はこれに限定されるものではなく、複数台のコンピュータで分散コンピューティングを行う場合に適用することもできる。また、クラウド上で処理を行う場合に適用することもできる。
ところで、上記の実施例1では、本発明をナンバープレートの文字認識に用いる場合を示したが、本発明はこれに限定されるものではなく、車両に搭載された画像処理装置によって、道路標識等の表示板に含まれる文字の文字認識を行う場合に適用することもできる。道路標識等の表示板とは、具体的には、案内標識、警戒標識、規制標識、指示標識、補助標識等のことで、特に文字が表示されている道路標識を処理対象とする。そこで、本実施例2では、車両に搭載された画像処理装置によって道路標識等に含まれる文字の文字認識を行う場合を示すこととする。なお、実施例1と同様の部分については、その詳細な説明を省略する。
<実施例2に係る画像処理装置の概念>
まず、本実施例2に係る画像処理装置の概念について説明する。図9は、本実施例2に係る画像処理装置の概念を説明するための説明図である。ここでは、実施例1で説明した教師有り学習の学習対象、即ち参照画像Aがナンバープレートの1種類だったものが、複数の形状の種類を有する道路標識を処理対象としている点が実施例1とは異なっている。実施例2では参照画像Aの種別識別後の学習処理が、実施例1で説明した学習処理部40と同様なのでその詳細の多くは省略する。実施例2では、参照画像Aの種別ごとに学習がなされ、ネットワークモデルパラメータGは参照画像Aの種別ごとに作成される。ここで言う参照画像Aの種別とは、矩形状のナンバープレート、円状或いは、多角形状などと言った道路標識等の形状の種別である。
本実施例2に係る画像処理装置4は、学習段階においてあらかじめ多層ニューラルネットワーク36に学習を行わせておき、認識段階において道路標識の形状の種別に応じて学習済みのネットワークモデルパラメータGで再構成された多層ニューラルネットワーク36を用いて4つの対応点を取得する。そして、この4つの対応点を用いて射影変換した正面画像Fで文字認識を行う。この多層ニューラルネットワーク36は、実施例1で使用しているのと同じディープラーニング(深層学習)に用いられる畳み込みニューラルネットワークである。
図9(a)に示すように、学習段階においては、多層ニューラルネットワーク36に対して、学習用画像B及び4つの基準点といった学習データを入力し(ステップS31)、これらの学習用画像B及び4つの基準点に基づき多層ニューラルネットワーク36に教師有り学習を行わせ、ネットワークモデル更新処理部37によりネットワークモデルパラメータGを更新する(ステップS32)。この学習を道路標識の形状の種別ごとに行い、ネットワークモデルパラメータGを対象物の種別ごとに生成する(ステップS33)。
学習用画像Bは、道路標識を撮像した参照画像Aから生成された画像データである。具体的には、周知の画像処理技術を用いて参照画像を幾何学的に変形させた歪を有する画像データを生成して、生成した画像データを学習用画像Bとする。概念は実施例1での説明と同じであり省略する。
4つの基準点は、多層ニューラルネットワーク36に教師有り学習を行わせるための正解データ(教師データ)である。具体的には、学習用画像Bに含まれる対象物を特定する4点の位置座標が基準点として指定される。この教師有り学習は道路標識の形状の種別に応じてそれぞれ行い、ネットワークモデルパラメータGを種別毎に用意する。
実施例2では、4つの基準点に関して、手入力で指示する点と真の基準点が必ずしも一致している必要はない。丸い形状や三角形状の道路標識では、ナンバープレートの4隅に相当する4点を目視で入力することが困難なので、手入力で指定する点としてはより特徴的な点を設定しておいて、基準点となる4点を多層ニューラルネットワーク36により求める。例えば、手入力では三角形の3つの頂点を指示しておき、指示された3点から計算によって三角形の外接矩形の4隅を求め、その4隅を基準点とする、という処理を行う。
これにより、基準点の精度向上や、多様な形状の表示板に対応することができるという効果がある。
次に、認識段階の処理について説明する。図9(b)に示すように、道路標識を撮像した入力画像Cが入力されると、前処理を行って認識用画像Dを出力する(ステップS41)。この認識用画像Dを基に道路標識の形状の種別の識別(ステップS42)を行い、それ以降は種別に応じたネットワークモデルパラメータGを適用した多層ニューラルネットワーク36に解析用画像Eを入力して(ステップS43)、4つの基準点に対応する4つの対応点の位置に係る情報を出力させる(ステップS44)。次に、4つの対応点を用いて認識用画像Dを射影変換して(ステップS45)、正面画像Fを生成する。そして、正面画像Fを文字認識する(ステップS46)。この時、種別に応じた文字認識用辞書Hを使う。道路標識の字体がそれぞれ異なっているからである。図9のステップS43〜S46の処理内容は図1に示すステップS21〜S24の処理内容と同じであるため、重複する説明は省略する。
上述の一連の処理を行うことにより、道路標識を様々な角度で撮像した入力画像Cが入力された場合であっても、この入力画像Cを効率的に正面画像Fに変換し、精度良く道路標識の文字を出力することができる。特に、入力画像Cに含まれる道路標識に係る一部の情報が喪失され、通常の処理では4つの基準点全ての抽出が難しい場合であっても、この場合に備えた学習処理を行っているため、4つの対応点を特定し、もって3軸の射影変換を行うことが可能となる。そして、さまざまな形状の道路標識の文字の認識ができることになる。
<画像処理システムのシステム構成>
次に、実施例2に係る画像処理システムのシステム構成を説明する。図10は、実施例2に係る画像処理システムのシステム構成を示す図である。同図に示すように、この画像処理システムは、車両に搭載された撮像装置1と画像処理装置4とを接続した構成となる。なお、撮像装置1については実施例1に示すものと同様であるので、ここではその説明を省略する。
画像処理装置4は、撮像装置1から受信した入力画像C内の道路標識の形状の種別を識別し、その道路標識に含まれる文字を認識する装置である。具体的には、認識用画像Dからその道路標識の形状の種別を識別し、その種別に応じて教師有り学習を行ったネットワークモデルパラメータGを使う多層ニューラルネットワーク36により4つの対応点を特定し、この4つの対応点を用いて認識用画像Dの射影変換を行って正面画像Fを取得し、この正面画像Fを種別に応じて用意された文字認識用辞書Hを用いて文字認識し、道路標識に含まれる文字を出力する。
<画像処理装置4の構成>
次に、図10に示した画像処理装置4の構成について説明する。図11は、図10に示した画像処理装置4の学習時の構成を示す機能ブロック図である。同図に示すように、この画像処理装置4は、入力部31、表示部32、通信インターフェース部33、記憶部34及び学習処理制御部35を有する。なお、実施例1の画像処理装置3と同様の部位については、同一の符号を付すこととして、その詳細な説明を省略する。入力部31は、操作者が参照画像の種別を入力するのに使用される。
記憶部34は、フラッシュメモリ等の不揮発性メモリ又はハードディスクからなる記憶デバイスであり、参照画像A、学習用画像B及びネットワークモデルパラメータG(複数セット)などを記憶する。この参照画像Aは、多層ニューラルネットワーク36及びネットワークモデル更新処理部37が教師有り学習を行ってネットワークモデルパラメータGを更新する際に用いる基本となる画像であり、少なくとも道路標識を特定する4つの基準点を特定し得る正面画像である。
学習用画像Bは、参照画像Aに基づいて生成される学習用の画像であり、参照画像Aに歪みを持たせるように幾何変換を行った画像、道路標識の一部の情報を喪失させた画像等が含まれる。撮像装置1によって撮像され得る入力画像Cの態様を考慮して、参照画像Aに対して様々な幾何変換等を行う。学習用画像Bの作り方の原理は実施例1に述べたものと同じである。また、実施例2でも、学習用画像Bは4つの基準点の位置情報である基準点情報を有している。
ここでは、認識用画像Dは撮像装置1によって撮像された画像に対してトリミング、ノイズ除去及びサイズ合わせ等の前処理を行った道路標識部分の画像である。
図11に示す実施例2の学習処理部40は、図3の第1の実施例の学習処理部40と同じ構成である。但し、第2の実施例では参照画像Aの種別が複数あり、全ての参照画像Aの種別に亘り個々に学習を行う点で異なっている。
ここで、図12の図を用いて、処理対象物が道路標識の場合の基準点について説明する。図12(a)に示すのは、方面及び距離標識であり、形状がナンバープレートと同じ4角形なので、四隅が基準点となる。図12(b)は、四角形ではない標識で円形のものと多角形のものを示している。この場合には、学習の最初には該当する標識を含む四角形の4点(P1〜P4)を基準点として入力して、多層ニューラルネットワーク36によって、外周上の点或いは外周上の角点P1’〜P4’を得る。
次に図10の画像処理装置4が認識処理を行う場合を説明する。図13は認識処理を行う場合の機能ブロック図である。認識処理制御部51は入力画像受付部45と認識処理部46からなる。この認識処理制御部51は、撮像装置1から通信インターフェース部33を経由して、背景を含んだ入力画像Cを受け付ける入力画像受付部45と、道路標識の形状の種別を識別する種別識別部52と、種別毎に学習したネットワークモデルパラメータGで再構成された多層ニューラルネットワーク36を含む認識処理部46とから構成されている。図13において、図5と符号が同じものについては、図5の説明と重複するので説明を省略する。
入力画像Cは、処理対象となる道路標識の画像である。認識処理部46は、具体的には、対応点特定部47が4つの基準点に対応する認識用画像D上の4つの対応点、若しくはおおよその対応点を求め、道路標識の形状の種別に応じて学習済みのネットワークモデルパラメータGで再構成された教師有り学習済みの多層ニューラルネットワーク36を用いて認識用画像Dの道路標識の4つの対応点を抽出し、この4つの対応点の位置情報をもとに認識用画像Dを射影変換して正面画像Fを求め、求めた正面画像Fを種別に応じて用意された文字認識用辞書Hを用いて文字認識し、道路標識の文字を出力する。
種別識別部52は、入力画像受付部45が生成した認識用画像Dを用いて道路標識の形状の種別を識別する処理を行う。このときには、予め識別すべき種別分用意してあるテンプレートを適用し、一番近いテンプレートの種別を処理対象物の形状の種別とする。
認識処理部46は、種別分のハードウェアの形(基板)で構成されており、46(1)〜46(n)という符号で示され、種別に応じた認識処理部46(i)が選ばれることになる(iは1〜nのうちのいずれかを示す)。この点で実施例2の認識処理制御部51は、実施例1の認識処理制御部44と異なっている。
<認識処理手順>
次に、図13に示した画像処理装置4の認識段階における処理手順について説明する。図14は、図10に示した画像処理装置4の認識段階における処理手順を示すフローチャートである。簡単に説明すると、入力画像受付部45で入力画像Cを受け付け(ステップS301)、認識用画像Dを生成する(ステップS302)、この認識用画像Dを元に種別識別部52により道路標識の形状の種別を決定する(ステップS303)。そして、種別に応じた認識処理部46(i)を選択する(ステップS304)。次に、実施例1の記載と同様の解析用画像Eを生成し(ステップS305)、生成した解析用画像Eを種別識別部52によって識別された種別のネットワークモデルパラメータGで再構成された多層ニューラルネットワーク36へ入力する(ステップS306)。多層ニューラルネットワーク36は対応点を算出する(ステップS307)。
求まった対応点位置座標を用いて認識用画像Dを射影変換し、正面画像Fを生成する(ステップS308)。そして、求めた正面画像Fから種別に応じた文字認識用辞書Hを使って文字認識を行い、処理対象の道路標識の文字を得る(ステップS309)。
ここで、実施例2で扱う画像について説明を行う。図15は、三角形状の国道番号標識を例に示している。図15(a)は入力画像Cであり、斜め上方から撮像した画像を示している。図15(b)は認識用画像Dであり、対応点情報を持った画像を示している。図15(c)は射影変換後の正面画像Fを示している。図15(d)は文字認識された国道番号である。
なお、実施例2では、認識処理部46を処理対象の道路標識の形状の種別に応じて複数用意したが、例えば、FPGA(Field-Programmable Gate Array)を使って、種別の識別の都度ハードウェアを構築するようにすれば、複数枚のハードウェア基板を用意する必要はない。
なお、本実施例2では、道路標識の種別を特定する場合を示したが、本発明はこれに限定されるものではなく、看板等の表示板に含まれる文字を出力する場合にも同様に適用することができる。また、実施例1及び2を組み合わせることも可能である。
また、上記の実施例1及び2では、4つの基準点に対応する対応点を用いる場合を示したが、5つ以上の基準点に対応する対応点を設定し、そのうちの4点を用いて射影変換を行うこともできる。さらに、上記の入力画像中での表示板の歪みが平行四辺形で近似できる場合には、3つの対応点を出力できるように学習した多層ニューラルネットワーク36によって3つの対応点を検出し、検出された3つの対応点を用いて3軸の射影変換ではなくアフィン変換により正面画像への変換を行うこともできる。
また、上記の実施例1及び2では、認識段階で学習を行わないこととしたが、認識段階において教師無し学習を行うよう構成することもできる。また、上記実施例1及び2では、白黒画像を処理対象とする場合を示したが、カラー画像及び赤外画像を処理対象とすることもできる。赤外画像を用いると夜間に対応することが可能となる。なお、解析用画像Eは、Sobelオペレータ、Robertsのオペレータ等の微分オペレータを使った微分画像やガボールフィルタなどを適用した他の画像であってもよい。
本発明の画像処理装置、画像処理システム及び画像処理方法は、様々な異なる状況で撮像された画像を効率的かつ精度良く正面画像に変換する場合に適している。
A 参照画像
B 学習用画像
C 入力画像
D 認識用画像
E 解析用画像
F 正面画像
G ネットワークモデルパラメータ
H 文字認識用辞書
1 撮像装置
2 ネットワーク
3,4 画像処理装置
31 入力部
32 表示部
33 通信インターフェース部
34 記憶部
35 学習処理制御部
36 多層ニューラルネットワーク
37 ネットワークモデル更新処理部
38 参照画像生成部
39 学習用画像生成部
40 学習処理部
41 対応点学習受付部
44 認識処理制御部
45 入力画像受付部
46 認識処理部
47 対応点特定部
48 正面画像生成部
49 文字認識部
50 記憶部
51 認識処理制御部
52 種別識別部

Claims (9)

  1. 表示板を含む複数の学習用画像及び各学習用画像における少なくとも3つの基準点を用いて教師有り学習を行った多層ニューラルネットワークと、
    表示板を含む入力画像を取得する入力画像受付部と、
    前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する少なくとも3つの対応点に係る情報を特定する対応点特定部と
    を備えたことを特徴とする画像処理装置。
  2. 前記対応点特定部により特定された3つの対応点に係る情報に基づくアフィン変換若しくは4つの対応点に係る情報に基づく射影変換を行って、前記入力画像に対応する正面画像を生成する正面画像生成部をさらに備えたことを特徴とする請求項1に記載の画像処理装置。
  3. 前記正面画像生成部により生成された正面画像に含まれる文字を文字認識する文字認識部をさらに備えたことを特徴とする請求項2に記載の画像処理装置。
  4. 前記多層ニューラルネットワークは、所定の撮像装置により前記表示板を撮像した実画像の一部の情報を欠落させた第1の学習用画像と、前記実画像を射影変換した第2の学習用画像と、前記第1の学習用画像を射影変換した第3の学習用画像とのうち少なくとも1種類を含む学習用画像と、前記学習用画像における少なくとも3つの基準点とを入力情報として教師有り学習を行うことを特徴とする請求項1〜3のいずれか一つに記載の画像処理装置。
  5. 前記表示板の種別を識別する種別識別部をさらに備えたことを特徴とする請求項1〜4に記載の画像処理装置。
  6. 前記対応点特定部は、前記入力画像受付部により取得された入力画像から生成された濃淡画像である解析用画像を前記多層ニューラルネットワークに投入することを特徴とする請求項1〜5のいずれか一つに記載の画像処理装置。
  7. 前記表示板は、車両の登録番号を示すナンバープレート又は道路標識であることを特徴とする請求項1〜6のいずれか一つに記載の画像処理装置。
  8. 表示板を含む画像を処理する画像処理システムであって、
    表示板を含む複数の学習用画像及び各学習用画像における少なくとも3つの基準点を用いて教師有り学習を行った多層ニューラルネットワークと、
    表示板を含む入力画像を取得する入力画像受付部と、
    前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する少なくとも3つの対応点に係る情報を特定する対応点特定部と
    を備えたことを特徴とする画像処理システム。
  9. 表示板を含む複数の学習用画像及び各学習用画像における少なくとも3つの基準点を用いて多層ニューラルネットワークに教師有り学習を実行させるステップと、
    表示板を含む入力画像を取得する入力画像取得ステップと、
    前記多層ニューラルネットワークに前記入力画像に基づく画像を投入し、前記基準点に対応する前記入力画像に関する少なくとも3つの対応点に係る情報を特定する対応点特定ステップと
    を含んだことを特徴とする画像処理方法。
JP2016195984A 2016-10-03 2016-10-03 画像処理装置、画像処理システム及び画像処理方法 Active JP6829575B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016195984A JP6829575B2 (ja) 2016-10-03 2016-10-03 画像処理装置、画像処理システム及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016195984A JP6829575B2 (ja) 2016-10-03 2016-10-03 画像処理装置、画像処理システム及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2018060296A true JP2018060296A (ja) 2018-04-12
JP6829575B2 JP6829575B2 (ja) 2021-02-10

Family

ID=61908501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016195984A Active JP6829575B2 (ja) 2016-10-03 2016-10-03 画像処理装置、画像処理システム及び画像処理方法

Country Status (1)

Country Link
JP (1) JP6829575B2 (ja)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019170516A (ja) * 2018-03-27 2019-10-10 サミー株式会社 ぱちんこ遊技機
CN110428393A (zh) * 2018-04-27 2019-11-08 丰田自动车株式会社 解析装置以及解析程序
WO2019225595A1 (ja) * 2018-05-23 2019-11-28 日本電気株式会社 辞書学習装置、情報処理装置、辞書学習方法およびプログラム記憶媒体
JP2020008984A (ja) * 2018-07-04 2020-01-16 株式会社東芝 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム
WO2020062433A1 (zh) * 2018-09-29 2020-04-02 初速度(苏州)科技有限公司 一种神经网络模型训练及通用接地线的检测方法
JP2020064619A (ja) * 2018-10-17 2020-04-23 三星電子株式会社Samsung Electronics Co.,Ltd. イメージ認識モデルのトレーニング装置及び方法並びにイメージ認識方法
JP2020067669A (ja) * 2018-10-19 2020-04-30 株式会社ファブリカコミュニケーションズ 情報処理装置及びプログラム
JP2021005164A (ja) * 2019-06-25 2021-01-14 株式会社エクサウィザーズ 文字認識装置、撮影装置、文字認識方法、および、文字認識プログラム
JP2021005138A (ja) * 2019-06-25 2021-01-14 Kddi株式会社 摂動画像データに対応した学習モデル、学習データ、学習モデル・データ生成方法、及び画像識別装置
JP2021039544A (ja) * 2019-09-03 2021-03-11 東ソー株式会社 学習装置、学習方法、細胞判別装置、細胞判別方法、細胞判別学習プログラムおよび細胞判別プログラム
JP2021519984A (ja) * 2018-11-27 2021-08-12 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド オブジェクション検出のためのaiシステムおよび方法
JP2022532238A (ja) * 2019-05-17 2022-07-13 マジック リープ, インコーポレイテッド ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置
JP2022159995A (ja) * 2021-04-05 2022-10-18 日本システム開発株式会社 画像生成装置
JP2022181678A (ja) * 2021-05-26 2022-12-08 Necプラットフォームズ株式会社 情報処理システム及びプログラム
US12007564B2 (en) 2023-05-11 2024-06-11 Magic Leap, Inc. Methods and apparatuses for corner detection using neural network and corner detector

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011576A (ja) * 1996-06-21 1998-01-16 Sanyo Electric Co Ltd 部品形状認識方法
JP2012212346A (ja) * 2011-03-31 2012-11-01 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2013033406A (ja) * 2011-08-02 2013-02-14 Ntt Comware Corp 画像処理装置、画像処理方法及び画像処理プログラム
WO2014073198A1 (ja) * 2012-11-06 2014-05-15 日本電気株式会社 画像処理装置、及び、画像処理方法
JP2016153984A (ja) * 2015-02-20 2016-08-25 株式会社デンソーアイティーラボラトリ ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、検出装置、検出方法、および、車両

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011576A (ja) * 1996-06-21 1998-01-16 Sanyo Electric Co Ltd 部品形状認識方法
JP2012212346A (ja) * 2011-03-31 2012-11-01 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2013033406A (ja) * 2011-08-02 2013-02-14 Ntt Comware Corp 画像処理装置、画像処理方法及び画像処理プログラム
WO2014073198A1 (ja) * 2012-11-06 2014-05-15 日本電気株式会社 画像処理装置、及び、画像処理方法
JP2016153984A (ja) * 2015-02-20 2016-08-25 株式会社デンソーアイティーラボラトリ ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、検出装置、検出方法、および、車両

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
大場慎平, 外3名: ""局所特徴を利用したナンバープレート検出"", 電子情報通信学会技術研究報告, vol. 第109巻, 第418号, JPN6020039703, 11 February 2010 (2010-02-11), JP, pages 1 - 6, ISSN: 0004369036 *
藤吉弘亘, 外1名: ""ナンバープレートの位置検出法の評価"", 電子情報通信学会技術研究報告, vol. 第93巻, 第134号, JPN6020039705, 9 July 1993 (1993-07-09), JP, pages 45 - 52, ISSN: 0004369037 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019170516A (ja) * 2018-03-27 2019-10-10 サミー株式会社 ぱちんこ遊技機
CN110428393A (zh) * 2018-04-27 2019-11-08 丰田自动车株式会社 解析装置以及解析程序
CN110428393B (zh) * 2018-04-27 2022-12-13 丰田自动车株式会社 解析装置以及解析程序
JP7103412B2 (ja) 2018-05-23 2022-07-20 日本電気株式会社 辞書学習装置、情報処理装置、辞書学習方法およびコンピュータプログラム
WO2019225595A1 (ja) * 2018-05-23 2019-11-28 日本電気株式会社 辞書学習装置、情報処理装置、辞書学習方法およびプログラム記憶媒体
US11600086B2 (en) 2018-05-23 2023-03-07 Nec Corporation Dictionary learning device, dictionary learning method, and program storage medium
JPWO2019225595A1 (ja) * 2018-05-23 2021-05-13 日本電気株式会社 辞書学習装置、情報処理装置、辞書学習方法およびコンピュータプログラム
JP2020008984A (ja) * 2018-07-04 2020-01-16 株式会社東芝 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム
JP7131994B2 (ja) 2018-07-04 2022-09-06 株式会社東芝 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、学習装置、学習方法及び学習プログラム
WO2020062433A1 (zh) * 2018-09-29 2020-04-02 初速度(苏州)科技有限公司 一种神经网络模型训练及通用接地线的检测方法
JP2020064619A (ja) * 2018-10-17 2020-04-23 三星電子株式会社Samsung Electronics Co.,Ltd. イメージ認識モデルのトレーニング装置及び方法並びにイメージ認識方法
JP7421889B2 (ja) 2018-10-17 2024-01-25 三星電子株式会社 イメージ認識モデルのトレーニング装置及び方法並びにイメージ認識方法
JP2020067669A (ja) * 2018-10-19 2020-04-30 株式会社ファブリカコミュニケーションズ 情報処理装置及びプログラム
JP7009652B2 (ja) 2018-11-27 2022-01-25 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド オブジェクション検出のためのaiシステムおよび方法
JP2021519984A (ja) * 2018-11-27 2021-08-12 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド オブジェクション検出のためのaiシステムおよび方法
JP2022532238A (ja) * 2019-05-17 2022-07-13 マジック リープ, インコーポレイテッド ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置
JP7422785B2 (ja) 2019-05-17 2024-01-26 マジック リープ, インコーポレイテッド ニューラルネットワークおよび角検出器を使用した角検出のための方法および装置
JP2021005138A (ja) * 2019-06-25 2021-01-14 Kddi株式会社 摂動画像データに対応した学習モデル、学習データ、学習モデル・データ生成方法、及び画像識別装置
JP2021005164A (ja) * 2019-06-25 2021-01-14 株式会社エクサウィザーズ 文字認識装置、撮影装置、文字認識方法、および、文字認識プログラム
JP2021039544A (ja) * 2019-09-03 2021-03-11 東ソー株式会社 学習装置、学習方法、細胞判別装置、細胞判別方法、細胞判別学習プログラムおよび細胞判別プログラム
JP7383939B2 (ja) 2019-09-03 2023-11-21 東ソー株式会社 学習装置、学習方法、細胞判別装置、細胞判別方法、細胞判別学習プログラムおよび細胞判別プログラム
JP2022159995A (ja) * 2021-04-05 2022-10-18 日本システム開発株式会社 画像生成装置
JP2022181678A (ja) * 2021-05-26 2022-12-08 Necプラットフォームズ株式会社 情報処理システム及びプログラム
US12007564B2 (en) 2023-05-11 2024-06-11 Magic Leap, Inc. Methods and apparatuses for corner detection using neural network and corner detector

Also Published As

Publication number Publication date
JP6829575B2 (ja) 2021-02-10

Similar Documents

Publication Publication Date Title
JP6829575B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
EP3690712A1 (en) Learning method and learning device of pedestrian detector for robust surveillance based on image analysis by using gan and testing method and testing device using the same
EP3321842B1 (en) Lane line recognition modeling method, apparatus, storage medium, and device, recognition method and apparatus, storage medium, and device
US10346720B2 (en) Rotation variant object detection in Deep Learning
JP6400117B2 (ja) 交通標識を認識する方法及び装置
Guan et al. Robust traffic-sign detection and classification using mobile LiDAR data with digital images
CN109145759B (zh) 车辆属性识别方法、装置、服务器及存储介质
US20170300788A1 (en) Method for object detection in digital image and video using spiking neural networks
US10445602B2 (en) Apparatus and method for recognizing traffic signs
Neto et al. Brazilian vehicle identification using a new embedded plate recognition system
CN111507908B (zh) 图像矫正处理方法、装置、存储介质及计算机设备
CN110222641B (zh) 用于识别图像的方法和装置
US20220044072A1 (en) Systems and methods for aligning vectors to an image
Nordeng et al. DEBC detection with deep learning
US11906441B2 (en) Inspection apparatus, control method, and program
JP2007025902A (ja) 画像処理装置、画像処理方法
JP5201184B2 (ja) 画像処理装置及びプログラム
US20230215144A1 (en) Training apparatus, control method, and non-transitory computer-readable storage medium
Jin et al. Towards an automatic system for road lane marking extraction in large-scale aerial images acquired over rural areas by hierarchical image analysis and Gabor filter
CN111860084B (zh) 图像特征的匹配、定位方法及装置、定位系统
CN114419451B (zh) 电梯内外识别方法、装置、电子设备及存储介质
WO2021056307A1 (en) Systems and methods for detecting lane markings for autonomous driving
Prasad et al. Real-Time Lane Detection for Autonomous Vehicles
JP2024075503A (ja) 画像中のカーブミラーを検出するシステム及び方法
CN117557933A (zh) 一种基于深度学习的电动车违章识别方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210122

R150 Certificate of patent or registration of utility model

Ref document number: 6829575

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150