JP4423524B2 - Label detection apparatus, label detection method, and recording medium - Google Patents

Label detection apparatus, label detection method, and recording medium Download PDF

Info

Publication number
JP4423524B2
JP4423524B2 JP2000221627A JP2000221627A JP4423524B2 JP 4423524 B2 JP4423524 B2 JP 4423524B2 JP 2000221627 A JP2000221627 A JP 2000221627A JP 2000221627 A JP2000221627 A JP 2000221627A JP 4423524 B2 JP4423524 B2 JP 4423524B2
Authority
JP
Japan
Prior art keywords
area
region
label
pixel
sign
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000221627A
Other languages
Japanese (ja)
Other versions
JP2002042131A5 (en
JP2002042131A (en
Inventor
哲二郎 近藤
寿一 白木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000221627A priority Critical patent/JP4423524B2/en
Publication of JP2002042131A publication Critical patent/JP2002042131A/en
Publication of JP2002042131A5 publication Critical patent/JP2002042131A5/ja
Application granted granted Critical
Publication of JP4423524B2 publication Critical patent/JP4423524B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、例えば、道路標識を検出し、運転者に対する注意喚起あるいは車両の自動制御に利用するために用いて好適な標識検出装置および標識検出方法に関する。
【0002】
【従来の技術】
車両に搭載されたビデオカメラで、車両の進行方向の道路およびその周辺を撮影し、その撮影画像から道路標識などを認識して、運転者に対する注意喚起あるいは車両の自動制御に利用することができるようにすることが提案されている(例えば、特公平6−52554号公報、特開平9−185703号公報、特開平11−73598号公報など参照)。
【0003】
上述の公報などで提案されている道路標識の検出方法は、基本的には、パターンマッチングを用いたものである。例えば、特開平9−185703号公報に記載の発明では、道路標識が、ある特定の色の組み合わせを有していることや、標識の形状に着目したパターンマッチングによる認識手法が用いられている。
【0004】
【発明が解決しようとする課題】
しかしながら、パターンマッチングを用いる認識手法の場合には、標識自体のテンプレートを予め用意する必要があり、非常に厄介である。しかも、道路標識が新たに追加されると、その都度、その標識をテンプレートに追加する必要があり、面倒である。
【0005】
また、車両が動いているために生じるパターンマッチングの不具合についての対策は、上述の公報等、従来の標識検出方法では考慮されていない。すなわち、車両の進行に伴い、取り込まれる道路標識のスケールが変化したり、標識が傾いて取り込まれたりするため、一つの道路標識に一つのテンプレートしか用意していない場合には、認識率が悪化する。この不具合を改善して良好に認識するためには、あらゆるスケールやあらゆる傾きでのテンプレートを、それぞれの道路標識について用意する必要があるが、実質上、そのような大量のテンプレートを用意することは不可能に近く、また、もしも、用意することができたとしても、認識装置の規模の拡大、コスト増を招くと共に、認識速度の低下を招く。
【0006】
この発明は、以上の点にかんがみ、例えば車両の移動などに伴って検出対象の標識のスケールが変化したり、標識が傾いてしまっても、その標識を良好に認識することができる方法および装置を提供することを目的とするものである。
【0007】
【課題を解決するための手段】
上記課題を解決するため、この発明による標識検出装置は、
入力カラー画像から、特定の色を持つ領域を切り出す特定色領域切り出し手段と、
前記特定色領域切り出し手段で切り出された領域を囲むようにして、前記入力カラー画像を垂直方向および水平方向に分割することにより、前記入力カラー画像を格子状の領域に分割する領域分割手段と、
前記領域分割手段で分割された各分割領域ごとに、その領域が標識の部分である標識領域であるか否かを判定する標識領域判定手段と、
前記標識領域判定手段で判定された標識領域において、その内部の有意情報を標識情報として検出する標識情報検出手段と、
を備えることを特徴とする。
【0008】
また、この発明による標識検出方法は、
入力カラー画像から、特定の色を持つ領域を切り出す特定色領域切り出し工程と、
前記特定色領域切り出し工程で切り出された領域を囲むようにして、前記入力カラー画像を垂直方向および水平方向に分割することにより、前記入力カラー画像を格子状の領域に分割する領域分割工程と、
前記領域分割工程で分割された各分割領域ごとに、その領域が標識の部分である標識領域であるか否かを判定する標識領域判定工程と、
前記標識領域判定工程で判定された標識領域において、その内部の有意情報を標識情報として検出する標識情報検出工程と、
を備えることを特徴とする。
【0009】
上記の構成のこの発明による標識検出装置および方法においては、先ず、入力カラー画像から、標識として用いられる特定の色を持つ領域が切り出される。この特定の色領域の切り出しでは、標識部分のみを的確に抽出する必要はない。
【0010】
次に、上記の切り出された領域を囲むようにして、入力カラー画像を垂直方向および水平方向に分割して、入力カラー画像を格子状の領域に分割する。上述のように、特定色領域の切り出しには、標識部分だけでなく、その他の部分も含むので、分割された格子状領域は、その内部に標識部分を含む領域と、標識部分を含まない領域とを含む。
【0011】
そこで、次に、各格子状の分割領域ごとに、その領域が標識の部分である標識領域か、その他の領域であるかを判定する。そして、この判定の結果、標識部分と判定された標識領域において、その内部の、例えば標識として有意とすることができる情報を標識情報として検出する。
【0012】
以上により、この発明によれば、取り込んだ標識のスケールや傾きに関係なく、標識を認識することができるものである。
【0013】
【発明の実施の形態】
以下、この発明による標識検出装置の実施の形態を、車両に搭載される道路標識検出装置の場合について、図を参照しながら説明する。
【0014】
図2は、この実施の形態の標識検出装置の全体のシステム構成の一例を示すもので、この実施の形態は、システムが車両に搭載される場合の例である。
【0015】
この実施の形態では、ビデオカメラ1が、車両の前方方向の道路およびその周辺を撮影するように車両に搭載される。このビデオカメラ1で撮影されて得られたカラー画像情報は、A/D変換器2でデジタル信号に変換されて、演算処理部3に供給される。
【0016】
演算処理部3は、マイクロコンピュータを備えて構成されており、システムバス30に対して、CPU(Cetral Processing Unit)31と、プログラムやキャラクタなどの情報が記憶されているROM(Read Only Memory)32と、ワークエリア用のRAM(Random Access Memory)33と、画像データ取り込み用の画像メモリ34Mと、演算用の画像メモリ34Bと、ディスプレイコントローラ35と、ハードディスクインターフェース36と、CD−ROM(Compact Disc Read Only Memory)ドライブインターフェース38とが接続される。
【0017】
ハードディスクインターフェース36には、ハードディスク装置37が接続され、CD−ROMドライブインターフェース38には、CD−ROMドライブ装置39が接続される。また、ディスプレイコントローラ35には、ディスプレイ4が接続される。
【0018】
後述する道路標識検出処理のプログラムは、予めハードディスク装置37に記憶しておくことができる。また、前記プログラムを記録したCD−ROMを、CD−ROMドライブ装置38に装填し、そのCD−ROMから前記プログラムを読み出して利用することもできる、また、CD−ROMから前記プログラムを読み出してハードディスク装置37のハードディスクに書き込んで使用するようにすることもできる。
【0019】
さらに、図示しなかったが、システムバス30に、例えば携帯電話機と接続する通信インターフェースを接続し、この携帯電話機を通じて前記プログラムをダウンロードし、そのダウンロードしたプログラムデータをハードディスク装置のハードディスクに書き込んで使用するようにすることもできる。
【0020】
A/D変換器2でデジタル信号にされたカラー画像データは、演算処理部3の画像メモリ34Mに取り込まれる。この画像メモリ34Mへのカラー画像データの取り込みは、CPU31により制御される。画像メモリ34Mには、後述する道路標識検出処理に要する時間を考慮した時間間隔で、カラー画像データが静止画データとして取り込まれる。そして、演算処理部3では、画像メモリ34Mに取り込んだ静止画について、道路標識検出処理を行ない、その検出結果をディスプレイ4に表示したりして、運転者に報知する。
【0021】
演算処理部3は、機能的には、図1のように、特定色領域切り出し部11と、領域分割部12と、標識領域判定部13と、標識情報検出部14とから構成されている。そして、領域分割部12は、水平・垂直度数分布算出部15と、変化点検出部16と、格子状領域分割部17とから構成されている。これらの各部は、道路標識検出方法の場合の各工程に対応する。以下、各部の構成および処理動作について説明する。
【0022】
[特定色領域切り出し部11]
画像メモリ34Mから読み出された静止画のカラー画像のデータは、特定色領域切り出し部11に供給される。この特定色領域切り出し部11は、演算用の画像メモリ34Bを用いて処理を行なう。
【0023】
道路標識には、青、赤、黄、黒、白というように、ある特定の色しか使用されておらず、しかも、それらの色には細かいレベルの変化もないという特色にかんがみ、特定色領域切り出し部12は、これらの特定の色の領域を、画像メモリ34Mに取り込んだカラー静止画像から抽出し、その抽出結果を画像メモリ34Bに書き込む。
【0024】
この特定の色領域の抽出は、例えばカラー画像信号が、R(赤),G(緑),B(青)の3原色信号からなる場合、前記特定の色を検出するための前記R,G,Bの各値の閾値を予め設定しておき、それらの閾値を用いて、画像メモリ34のカラー静止画像信号の各画素単位あるいは複数画素単位が、前記特定の色領域のものか否かを判定する処理を行なうことにより行なう。
【0025】
この場合、切り出した特定の色領域の画素のデータは、そのままの値として抽出するが、前記特定の色領域以外の領域の画素のデータは、前記R,G,Bの各値を、すべて0にする。
【0026】
なお、前述したように、道路標識として使用される色が限定されていることと、それらの色には細かいレベルの変化もないため、予め用意する閾値の数は、限定することができる。
【0027】
また、標識部分のみを的確に抽出しようとする場合には、周囲の明るさの変化に応じて、特定の色領域を検出するための前記R,G,Bの各値の閾値を変える等が必要であるが、この実施の形態では、後述するように、領域毎に標識部分か否かの判定を行ない、標識以外の領域を除去するという処理を含む2段階の処理であるので、前記R,G,Bの各値の閾値の設定が厳格なものではなく、仮にこの特定の色領域切り出しの処理で標識以外の領域が切り出されたとしても、問題はない。すなわち、特定の色領域切り出しのための閾値を、明るさの変化等に応じて細かく設定する必要はない。
【0028】
例えば、画像メモリ34Mに取り込まれた入力カラー静止画像が、図3に示すようなものであった場合、この特定の色領域切り出し部11での処理により、演算用の画像メモリ34Bには、図4に示すような標識領域MSがほぼ切り出されて、保存される。
【0029】
[領域分割部12]
領域分割部12は、特定色領域切り出し部11で切り出された特定色領域のデータを用いて、入力カラー画像を、複数個の格子状領域に分割する。
【0030】
特定色領域切り出し部11で切り出された特定色領域のデータは、領域分割部12の水平・垂直度数分布算出部15に供給される。水平・垂直度数分布算出部15では、切り出された特定の色の領域において、当該特定色を有する画素の数の、水平方向および垂直方向のヒストグラムを求める。
【0031】
すなわち、図5に示すように、特定色領域切り出し部11で切り出された領域の水平方向(x方向)の各位置Xにおいて、その領域の画像データを垂直方向にスキャンして、各水平方向位置Xにおける特定色の画素の数を計数し、その計数値(度数)Hh(x)を、例えばRAM33に、水平方向の各位置座標Xに対応して記憶する。
【0032】
同様にして、特定色領域切り出し部11で切り出された領域の垂直方向(y方向)の各位置Yにおいて、その領域の画像データを水平方向にスキャンして、各垂直方向位置Yにおける特定色の画素の数を計数し、その計数値Hh(y)を、例えばRAM33に、垂直方向の各位置座標Yに対応して記憶する。以上により、図5の曲線21、22で表されるようなヒストグラムが得られる。
【0033】
以上のようにして、水平・垂直度数分布算出部15で算出された水平方向および垂直方向のヒストグラムのデータは、変化点検出部16に供給される。この変化点検出部16では、水平方向および垂直方向のヒストグラムにおいて、標識を含む領域(以下、この領域を標識領域という)と、それ以外とを区分けすることができるような有意の変化点(水平方向の位置座標および垂直方向の位置座標)を検出する。
【0034】
この実施の形態では、変化点検出部16では、有意な変化点としてはヒストグラムのピーク値となる位置座標を求める。この実施の形態におけるピーク点の検出方法は、次の通りである。
【0035】
先ず、水平方向のピーク点の検出に当たっては、ある水平座標Xでの度数をHh(x)とすると、以下の式(1)、式(2)で表される閾値判定によってピーク点を検出する。
【0036】
Hh(x)>Hth …(1)
{2×Hh(x)−Hh(x-1)−Hh(x+1)}>ΔHth …(2)
ここで、HthおよびΔHthは、予め設定された閾値であり、また、Hh(x-1)は、水平座標Xよりも一つ前の水平座標(X−1)での度数であり、また、Hh(x+1)は、水平座標Xよりも一つ後の水平座標(X+1)での度数である。
【0037】
同様に、垂直方向のピーク点の検出に当たっては、ある垂直座標Yでの度数をHv(y)とすると、以下の式(3)、式(4)で表される閾値判定によってピーク点を検出する。
【0038】
Hv(y)>Vth …(3)
{2×Hv(y)−Hv(y-1)−Hv(y+1)}>ΔVth …(4)
ここで、VthおよびΔVthは、予め設定された閾値であり、また、Hv(y-1)は、垂直座標Yよりも一つ前の垂直座標(Y−1)での度数であり、また、Hv(y+1)は、垂直座標Yよりも一つ後の垂直座標(Y+1)での度数である。
【0039】
なお、前記閾値Hth、ΔHth、Vth、ΔVthの各値は、予備実験等で、予め適切な値を求めておくようにする。
【0040】
図5の例の場合には、水平方向のヒストグラムから、水平方向の位置座標Xa,Xbで、ピーク点Pxa、Pxbが検出され、垂直方向のヒストグラムから、垂直方向の位置座標Ya,Ybで、ピーク点Pya、Pybが検出される。これらの検出されたピーク点の位置座標情報は、変化点検出部16から格子状領域分割部17に供給される。
【0041】
特定色領域切り出し部11において、標識領域として切り出すべき特定色が複数個存在する場合においては、特定色領域切り出し部11において、切り出した領域ごとにその領域の特定色の情報を付加しておき、その付加された特定色の情報を用いて、水平・垂直度数分布算出部15で、その特定色毎についてのヒストグラムを算出し、それを用いて、特定色毎のヒストグラムからピーク点を変化点検出部16で検出し、その検出結果を格子状領域分割部17に供給するようにする。
【0042】
また、特定色領域切り出し部11と、水平・垂直度数分布算出部15と、変化点検出部16とは、標識領域として切り出すべき特定色ごとに、処理を行ない、それぞれの特定色ごとの変化点検出結果を、格子状領域分割部17に供給するようにしても良い。
【0043】
格子状領域分割部17では、これに供給される変化点検出部16からのすべての変化点の位置座標情報を用いて、画像メモリ34Mに記憶されている入力カラー静止画像を格子状領域に分割する。すなわち、前述の図5の場合であれば、検出されたピーク点の水平および垂直方向の位置座標Xa,Xb,Ya,Ybが格子状領域分割部17に供給されるので、格子状領域分割部17では、図6に示すように、水平位置座標Xa,Xbを通る分割線23、24により、入力カラー静止画像を水平方向に3つに分割する。また、垂直位置座標Ya,Ybを通る分割線25、26により、入力カラー静止画像を垂直方向に3つに分割する。これにより、入力カラー画像は、図7に示すような9個の格子状領域に分割される。なお、このように格子状領域の分割が行なわれると、演算用の画像メモリ34Mの記憶内容はクリア(すべて消去)される。
【0044】
[標識領域判定部13]
以上のようにして、格子状領域分割部17で分割された各格子状領域ごとの画像データは、領域分割部12の出力として標識領域判定部13に供給される。標識領域判定部13では、領域分割部12からの各格子状領域ごとの画像の特徴から、各領域が標識領域であるか否かを判定する。
【0045】
前述したように、道路標識は、特定の色の枠を備えており、その特定の色の枠で囲まれた内部に標識の文字や矢印などの特定の記号が存在するものとなっている。したがって、特定色領域切り出し部11で切り出された特定色領域の、特定色画素のヒストグラムのピーク点は枠部分に対応しており、このピーク点で囲まれた領域内部が標識内部であって、その中に標識の文字や記号が存在すると言える。
【0046】
しかしながら、前述したように、特定色領域の抽出処理において、閾値が厳格でない場合には、標識以外の色領域も抽出され、それによって、標識以外の領域のヒストグラムのピークが検出される場合もある。また、入力カラー画像によっては、複数の標識を含んでいる場合も有り得る。
【0047】
そこで、この実施の形態では、前述のように領域分割部12で分割した格子状領域のそれぞれにおいて、その領域が標識内部であるかどうかの判定を、この標識領域判定部13で行なうようにする。
【0048】
この実施の形態の標識領域判定部13では、標識内部の領域の画素値の特徴を用いて、標識領域かどうかの判定を行なう。すなわち、標識領域内部には文字や記号が存在するが、カラー画素としては細かい変化がなく、画素の値としては、2つあるいは3つの値しか存在しない。例えば、白地に青の文字や記号や、青地に白の文字や記号が記述されるものとなっている。
【0049】
そこで、この実施の形態の標識領域判定部13では、例えば各画素のG(緑)信号に着目して、各格子状領域内の画素値が、この例では2値に近いかどうかにより、その格子状領域が標識内部であるかどうかの判定を行なうようにする。
【0050】
図8は、この実施の形態の標識領域判定部13の機能をブロック化して示したものであり、この標識領域判定部13をハードウエア構成とする場合に相当する。図8に示すように、標識領域判定部13は、領域内最大値検出部131と、差分演算部132と、最大値近傍画素判定部133と、最大値近傍画素計数部134と、領域内最小値検出部135と、差分演算部136と、最小値近傍画素判定部137と、最小値近傍画素計数部138と、領域内全画素数算出部139と、標識領域判定抽出部130とからなる。
【0051】
領域分割部12からの各格子状領域単位の画像データは、先ず、領域内最大値検出部131において、その領域内の最大G信号のレベルを検出する。そして、差分演算部132で、その領域内の各画素のG値と、検出された最大G信号との差分を算出する。その差分値は、最大値近傍画素判定部133に供給される。最大値近傍画素判定部133は、差分値と閾値とを比較して、差分値が閾値よりも小さい場合に、当該画素は、最大G値の近傍の値を備える画素と判定し、最大値近傍画素計数部134の計数値をインクリメントする。したがって、最大値近傍画素計数部134は、各格子状領域のすべての画素のうちの最大G値近傍の画素の数Nbを計数する。
【0052】
また、領域分割部12からの各格子状領域単位の画像データは、領域内最小値検出部135において、その領域内の最小G信号のレベルを検出する。そして、差分演算部136で、その領域内の各画素のG値と、検出された最小G信号との差分を算出する。その差分値は、最小値近傍画素判定部133に供給される。最小値近傍画素判定部137は、差分値と閾値とを比較して、差分値が閾値よりも小さい場合に、当該画素は、最小G値の近傍の値を備える画素と判定し、最小値近傍画素計数部138の計数値をインクリメントする。したがって、最小値近傍画素計数部138は、各格子状領域のすべての画素のうちの最小G値近傍の画素の数Ncを計数する。
【0053】
以上の処理と並行して、領域内全画素数算出部139では、当該格子状領域内に含まれる全画素数Naを算出する。算出された全画素数Naは、標識領域判定抽出部130に供給される。また、最大値近傍画素計数部134で計数された最大G値近傍の画素の数Nbと、最小値近傍画素計数部138で計数された最小G値近傍の画素の数Ncも、標識領域判定抽出部130に供給される。
【0054】
標識領域判定抽出部130は、この例では、(Nb+Nc)/Naを計算し、その計算結果が、予め定めた閾値よりも大きいときには、つまり、領域内の画素値は2値に近いとして、その格子状領域は標識領域として判定し、その領域のデータを、例えば演算用の画像メモリ34Bに格納して保持し、次の標識情報検出部14での標識情報の検出処理の対象とする。
【0055】
一方、前記計算結果が、閾値以下のときには、その格子状領域は標識領域以外の領域と判定して、その領域のデータは演算用の画像メモリ34Bには格納せずに捨ててしまい、次の標識情報検出部14での標識情報の検出処理の対象外とする。
【0056】
以上のように、この実施の形態の標識領域判定部13では、各格子状領域ごとに動的に画素の明るさなどの所定の情報の最大値、最小値を算出し、それらの算出した最大値、最小値に基づいて、各格子状領域内の画素値が2値に近いかどうかを判定しているので、天候などの周囲の明るさに依存することなく、標識領域の判定をすることができる。
【0057】
図9は、この実施の形態の標識領域判定部13を、演算処理部3のソフトウエア(プログラム)により、実行する場合のフローチャートである。
【0058】
先ず、判定を行なう最初の格子状領域のデータを取り込み(ステップS1)、その領域内の画素数Naを検出する(ステップS2)。次に、その格子状領域内のすべての画素のG信号から、G信号の最大値を検出する(ステップS3)。そして、その格子状領域内の各画素のG信号と、検出したG信号の最大値との差分を求め、その差分が予め定めた閾値よりも小さい画素の数Nbを算出する(ステップS4)。
【0059】
次に、その格子状領域内のすべての画素のG信号から、G信号の最小値を検出する(ステップS5)。そして、その格子状領域内の各画素のG信号と、検出したG信号の最小値との差分を求め、その差分が予め定めた閾値よりも小さい画素の数Ncを算出する(ステップS6)。
【0060】
次に、ステップS2、ステップS4、ステップS6で求めた画素数Na,Nb,Ncを用いて、(Nb+Nc)/Naを計算し、その計算結果が、予め定めた閾値Nthよりも大きいかどうかを判定する(ステップS7)。その判定の結果、その計算結果が、閾値Nthよりも大きいときには、その格子状領域は標識領域と判定して、その領域のデータを画像メモリ34Bに保持し、次の標識情報検出部14での標識情報の検出処理の対象とする(ステップS8)。また、前記計算結果が、閾値Nth以下のときには、その格子状領域は標識領域以外の領域としてその領域のデータを捨て、次の標識情報検出部14での標識情報の検出処理の対象外とする(ステップS9)。
【0061】
次に、すべての格子状領域についての判定が終了したか否か判別し(ステップS10)、終了していなければ、次の格子状領域のデータを取り込んで(ステップS11)、ステップS2に戻り、以上の処理を繰り返す。また、すべての格子状領域についての判定が終了したときには、この標識領域判定の処理を終了する。
【0062】
標識領域判定部13では、入力カラー画像が図6の場合には、前述したように、9個の格子状領域のそれぞれについて、標識領域かどうかの判定が以上のようにして行われ、演算用の画像メモリ34Bには、判定結果として図10に示すような標識領域が保存される。
【0063】
なお、上述の例では、標識領域判定部13では、G信号について着目して、各格子状領域内の画素値が、2値に近いかどうかを判定するようにしたが、他のR(赤)信号やB(青)信号を用いても、格子状領域内には細かいテクチャーがなく、画素値は2値あるいは3値に近いという性質は成り立つので、特にG信号に限定するものではない。また、G信号の代わりに、R,G,Bの各信号から輝度信号Yを生成して、この輝度信号Yについて、前述と同様の処理を行なうことにより、各格子状領域が標識の内部であるかどうかの判定をすることもできる。
【0064】
[標識情報検出部14]
標識情報検出部14は、標識領域判定部13で標識領域と判定されて、画像メモリ34Bに保持された格子状領域の画像データから、文字や、矢印などの記号部分等の標識として有意な情報を検出する。この標識情報検出部14での有意情報の検出方法として、3つの例について説明する。
【0065】
[標識情報検出の第1の例]
この第1の例は、標識として有意な情報の配色は、前述したように、定まった複数通りであるので、その複数通りの配色のそれぞれについての色情報を閾値判別するようにするものである。このため、この第1の例においては、各配色のときの、この例ではR,G,Bの各色信号成分についての閾値を定め、その閾値と各画素のR,G,Bの各色信号との比較を行なうことにより、各画素が有意情報部分であるか否かを判定するようにする。この第1の例の場合の標識情報検出のための処理を、図11およびその続きの図12のフローチャートを参照しながら説明する。
【0066】
すなわち、先ず、複数通りの配色のうちの検出対象とする最初の配色におけるR,G,Bの各色信号に対する閾値を設定する(ステップS21)。そして、標識領域内の最初の画素データを読み込み(ステップS22)、その画素データのR信号と、ステップS21で設定されたR信号についての閾値とを比較して(ステップS23)、R信号についての有意性の条件を満たすか否か判定する(ステップS24)。R信号についての有意性の条件を満たさない場合には、有意情報以外の画素として、その画素には、例えばそれを意味するフラグを立てる(ステップS30)。
【0067】
そして、R信号についての有意性の条件を満たす場合には、前記画素データのG信号と、ステップS21で設定されたG信号についての閾値とを比較して(ステップS25)、G信号についての有意性の条件を満たすか否か判定する(ステップS26)。G信号についての有意性の条件を満たさない場合には、有意情報以外の画素として、その画素には、例えばそれを意味するフラグを立てる(ステップS30)。
【0068】
そして、G信号についての有意性の条件を満たす場合には、前記画素データのB信号と、ステップS21で設定されたB信号についての閾値とを比較して(ステップS27)、B信号についての有意性の条件を満たすか否か判定する(ステップS28)。B信号についての有意性の条件を満たさない場合には、有意情報以外の画素として、その画素には、例えばそれを意味するフラグを立てる(ステップS30)。
【0069】
そして、B信号についての有意性の条件を満たす場合には、つまり、R,G,Bのすべてについて有意性の条件を満たす場合には、その画素データは有意情報として、ディスプレイ4の表示画像データを記憶する画像メモリ34Bに保持する(ステップS29)。
【0070】
次に、その標識領域内のすべての画素についての有意性の検出が終了したかどうかを判別し(ステップS31)、終了していなければ、その標識領域内の次の画素データを読み込み(ステップS32)、ステップS23に戻って、上述したこのステップS23以降の処理を繰り返す。
【0071】
また、ステップS31で、その標識領域内のすべての画素についての有意性の検出が終了したと判別した場合には、標識についての有意情報を検出するために用意したすべての配色についての検出が終了したかどうかを判別し(ステップS33)、終了していなければ、次の配色におけるR,G,Bの各色信号に対する閾値を設定する(ステップS34)。そして、ステップS22に戻って、その領域内の画素について、新たな配色についての有意情報の検出を、上述のようにして実行する。
【0072】
このとき、それより以前の配色についての有意情報の検出において、有意情報以外の画素と判定されて、その旨のフラグが付与されているものが、新たに有意情報とされた場合には、ステップS29では、前記フラグは消去して、その有意情報とされた画素データは保持する。
【0073】
以上のようにして、すべての配色についての有意情報の検出が終了したときには、ステップS33から、ステップS35に進み、すべての標識領域について有意情報の検出処理が終了したかどうか判別する。有意情報の検出処理が済んでいない他の標識領域があるときには、その標識領域に処理を移行させ(ステップS36)、ステップS21からの処理を繰り返す。
【0074】
ステップS35で、すべての標識領域について有意情報の検出処理が終了したと判別したときには、有意情報以外の画素としてのフラグが立っている画素データを消去し(ステップS37)、その後、この有意情報検出処理のルーチンを終了する。
【0075】
以上のような処理の結果、画像メモリ34Bには、図10に示したような標識部分のみが残り、これを読み出して、ディスプレイ4に表示することにより、図10と同様の画像がディスプレイ4の画面に表示され、使用者に道路標識が報知される。
【0076】
[標識情報検出の第2の例]
この第2の例は、標識領域内においては、文字や記号などの有意情報となる画素数が、それ以外の画素数に比較して少ないという特徴に基づくものである。この第2の例の場合の標識情報検出のための処理を、図13のフローチャートを参照しながら説明する。
【0077】
先ず、有意情報の検出を行なう最初の標識領域を指定し(ステップS41)、その標識領域内の各画素を値を、R,G,Bの色空間において2値あるいは3値に量子化する(ステップS42)。次に、各量子化レベルごとの画素数を計数し(ステップS43)、画素数が最も少ない量子化レベルQmin を検出する(ステップS44)。
【0078】
そして、各画素について、量子化後のレベルが、その検出した量子化レベルQmin に相当するかどうかを判定し(ステップS45)、相当する画素のデータは有意情報として画像メモリ34Bに保持し(ステップS46)、相当しない画素のデータは画像メモリ34Bから消去する(ステップS47)。
【0079】
次に、すべての標識領域について有意情報の検出処理が終了したかどうか判別し(ステップS48)、有意情報の検出処理が済んでいない他の標識領域があるときには、その標識領域に処理を移行させ(ステップS49)、ステップS42からの処理を繰り返す。
【0080】
この第2の例の場合にも、上述の第1の例と同様にして、標識領域内の文字や記号などの有意情報を、良好に検出することができる。
【0081】
[標識情報検出の第3の例]
この第3の例は、標識内部の有意情報は、標識の中心付近に集まっており、中心付近の微小領域では、有意情報である画素数が多いということを利用した方法である。この第3の例の場合の標識情報検出のための処理を、図14のフローチャートを参照しながら説明する。
【0082】
先ず、有意情報の検出を行なう最初の標識領域を指定し(ステップS51)、その領域内の中心座標を算出し(ステップS52)、その算出した中心座標を中心とした微小な格子状の領域を設定する(ステップS53)。ここで、この微小な領域は、標識領域に比べて十分に小さい大きさとされる。
【0083】
次に、その微小な格子状の領域内部の画素データについて2値化処理を行なう(ステップS54)。次に、2値化レベルごとに、その微小領域内での画素数を計数する(ステップS55)。そして、画素数が多い方のレベルを特定する(ステップS56)。
【0084】
そして、微小領域内の各画素について、その2値化レベルが、画素数が多い方のレベルに相当するかどうかを判定し(ステップS57)、相当する画素のデータは有意情報として画像メモリ34Bに保持し(ステップS58)、相当しない画素のデータは画像メモリ34Bから消去する(ステップS59)。
【0085】
次に、すべての標識領域について有意情報の検出処理が終了したかどうか判別し(ステップS60)、有意情報の検出処理が済んでいない他の標識領域があるときには、その標識領域に処理を移行させ(ステップS61)、ステップS52からの処理を繰り返す。
【0086】
この第3の例の場合にも、上述の第1の例や第2の例と同様にして、標識領域内の文字や記号などの有意情報を、良好に検出することができる。
【0087】
[その他の変形例]
上述の実施の形態では、道路標識として想定される複数通りの配色のすべてについて、各部で処理を行い、次段に移行させるようにしたが、想定される配色の1色ごとに、特定色領域切り出しから、標識情報検出の処理までを行なうようにするようにしても良い。
【0088】
また、上述の実施の形態では、領域分割部12の変化点検出部16では、水平・垂直度数分布算出部15で算出された水平方向および垂直方向のヒストグラムのピーク点を、有意な変化点として検出するようにしたが、有意な変化点としては、ピーク点に限るものではない。例えば、ヒストグラムにおいて、度数が徐々に上昇するところから、平坦な変化に変わる点や、平坦な変化から徐々に加工するように度数が変化する点なども有意な変化点として検出するようにしてもよい。
【0089】
なお、上述の実施の形態は、検出対象が道路標識の場合について説明したが、この発明の検出対象の標識は、道路標識に限られるものではないことは、言うまでもない。
【0090】
【発明の効果】
以上説明したように、この発明によれば、従来のような単なるパターンマッチングではなく、標識の特徴に基づいて標識を検出するので、標識の傾きや、標識のスケールに依存することなく、良好に検出することができる。
【0091】
また、特定色領域の抽出を行なった後、その抽出結果を用いて、格子状領域に分割して、その格子状領域ごとに標識部分の判定を行なうようにする2段階処理であるので、標識の周囲の明るさの変化があっても、確実に標識を検出することができる。
【図面の簡単な説明】
【図1】この発明による標識検出装置の実施の形態の要部の機能ブロック図である。
【図2】この発明による標識検出装置の実施の形態の全体のシステム構成図である。
【図3】この発明による標識検出処理動作の説明に供する図である。
【図4】この発明による標識検出処理動作の説明に供する図である。
【図5】この発明による標識検出処理動作の説明に供する図である。
【図6】この発明による標識検出処理動作の説明に供する図である。
【図7】この発明による標識検出処理動作の説明に供する図である。
【図8】この発明による標識検出装置の実施の形態における標識領域判定部の一例の機能ブロック図である。
【図9】この発明による標識検出装置の実施の形態における標識領域判定部の一例を説明するためのフローチャートである。
【図10】この発明による標識検出処理動作の説明に供する図である。
【図11】この発明による標識検出装置の実施の形態における標識情報検出部の一例を説明するためのフローチャートの一部である。
【図12】この発明による標識検出装置の実施の形態における標識情報検出部の一例を説明するためのフローチャートの一部である。
【図13】この発明による標識検出装置の実施の形態における標識情報検出部の他の例を説明するためのフローチャートである。
【図14】この発明による標識検出装置の実施の形態における標識情報検出部のさらに他の例を説明するためのフローチャートである。
【符号の説明】
1…ビデオカメラ、2…A/D変換器、3…演算処理部、4…ディスプレイ、11…特定色領域切り出し部、12…領域分割部、13…標識領域判定部、14…標識情報検出部、15…水平・垂直度数分布算出部、16…変化点検出部、17…格子状領域分割部、130…標識領域判定抽出部、131…領域内最大値検出部、133…最大値近傍画素判定部、134…最大値近傍画素計数部、135…領域内最小値検出部、137…最小値近傍画素判定部、138…最小値近傍画素計数部、139…領域内全画素数算出部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a sign detection device and a sign detection method suitable for use in detecting road signs and using them for alerting a driver or for automatic vehicle control, for example.
[0002]
[Prior art]
A video camera mounted on the vehicle can be used to capture the road and its surroundings in the direction of travel of the vehicle, recognize road signs, etc. from the captured image, and use it to alert the driver or automatically control the vehicle (For example, refer to Japanese Patent Publication No. 6-52554, Japanese Patent Laid-Open No. 9-185703, Japanese Patent Laid-Open No. 11-73598, etc.).
[0003]
The road sign detection method proposed in the above-mentioned publications and the like basically uses pattern matching. For example, in the invention described in Japanese Patent Application Laid-Open No. 9-185703, a recognition method based on pattern matching in which a road sign has a specific combination of colors and a sign shape is used.
[0004]
[Problems to be solved by the invention]
However, in the case of a recognition method using pattern matching, it is necessary to prepare a template for the sign itself in advance, which is very troublesome. Moreover, every time a road sign is newly added, it is necessary to add the sign to the template, which is troublesome.
[0005]
In addition, measures against pattern matching defects caused by the movement of the vehicle are not taken into account in conventional sign detection methods such as the above-mentioned publications. In other words, as the scale of the road sign to be captured changes as the vehicle progresses, or the sign is tilted and captured, the recognition rate deteriorates if only one template is prepared for each road sign. To do. In order to improve this problem and recognize it well, it is necessary to prepare templates at every scale and every inclination for each road sign, but in practice it is not possible to prepare such a large number of templates. It is almost impossible, and even if it can be prepared, the recognition apparatus is increased in scale and cost, and the recognition speed is reduced.
[0006]
In view of the above points, the present invention provides a method and apparatus capable of successfully recognizing a sign even if the scale of the sign to be detected is changed or the sign is tilted as the vehicle moves. Is intended to provide.
[0007]
[Means for Solving the Problems]
In order to solve the above problems, a label detection apparatus according to the present invention provides:
Specific color area cutout means for cutting out an area having a specific color from the input color image;
An area dividing unit that divides the input color image into grid-like areas by dividing the input color image in the vertical direction and the horizontal direction so as to surround the area cut out by the specific color area cutting out unit,
For each divided area divided by the area dividing means, a sign area determination means for determining whether or not the area is a sign area that is a part of a sign,
In the label area determined by the label area determination means, label information detection means for detecting significant information inside the label area as label information,
It is characterized by providing.
[0008]
Further, the label detection method according to the present invention includes:
A specific color area cutout step of cutting out an area having a specific color from the input color image;
A region dividing step of dividing the input color image into a grid-like region by dividing the input color image in the vertical direction and the horizontal direction so as to surround the region cut out in the specific color region cutting step,
For each divided region divided in the region dividing step, a labeled region determination step for determining whether or not the region is a labeled region that is a portion of a marker,
In the label area determined in the label area determination step, a label information detection step for detecting significant information therein as label information,
It is characterized by providing.
[0009]
In the label detection apparatus and method according to the present invention having the above-described configuration, first, a region having a specific color used as a label is cut out from the input color image. In the extraction of the specific color region, it is not necessary to accurately extract only the label portion.
[0010]
Next, the input color image is divided in the vertical direction and the horizontal direction so as to surround the cut out region, and the input color image is divided into a lattice-like region. As described above, the cutout of the specific color area includes not only the label part but also other parts. Therefore, the divided grid area includes an area including the label part and an area not including the label part. Including.
[0011]
Therefore, next, for each grid-like divided region, it is determined whether the region is a marker region that is a marker part or another region. Then, as a result of this determination, in the label area determined to be a label portion, information that can be significant as a label, for example, is detected as label information.
[0012]
As described above, according to the present invention, the sign can be recognized regardless of the scale and inclination of the taken sign.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of a sign detection device according to the present invention will be described with reference to the drawings in the case of a road sign detection device mounted on a vehicle.
[0014]
FIG. 2 shows an example of the entire system configuration of the sign detection apparatus of this embodiment, and this embodiment is an example when the system is mounted on a vehicle.
[0015]
In this embodiment, the video camera 1 is mounted on a vehicle so as to photograph a road in the forward direction of the vehicle and its surroundings. Color image information obtained by photographing with the video camera 1 is converted into a digital signal by the A / D converter 2 and supplied to the arithmetic processing unit 3.
[0016]
The arithmetic processing unit 3 includes a microcomputer. A CPU (Cetral Processing Unit) 31 and a ROM (Read Only Memory) 32 in which information such as programs and characters are stored are stored in the system bus 30. A work area RAM (Random Access Memory) 33, an image memory for image data 34M, an arithmetic image memory 34B, a display controller 35, a hard disk interface 36, and a CD-ROM (Compact Disc Read). An only memory) drive interface 38 is connected.
[0017]
A hard disk device 37 is connected to the hard disk interface 36, and a CD-ROM drive device 39 is connected to the CD-ROM drive interface 38. Further, the display 4 is connected to the display controller 35.
[0018]
A program for road sign detection processing to be described later can be stored in the hard disk device 37 in advance. Further, a CD-ROM in which the program is recorded can be loaded into a CD-ROM drive device 38, and the program can be read out from the CD-ROM and used. It is also possible to write on the hard disk of the device 37 for use.
[0019]
Further, although not shown, a communication interface connected to, for example, a mobile phone is connected to the system bus 30, the program is downloaded through the mobile phone, and the downloaded program data is written to the hard disk of the hard disk device for use. It can also be done.
[0020]
The color image data converted into a digital signal by the A / D converter 2 is taken into the image memory 34M of the arithmetic processing unit 3. Incorporation of color image data into the image memory 34M is controlled by the CPU 31. Color image data is taken into the image memory 34M as still image data at a time interval that takes into account the time required for road sign detection processing, which will be described later. Then, the arithmetic processing unit 3 performs a road sign detection process on the still image taken into the image memory 34M and displays the detection result on the display 4 to notify the driver.
[0021]
As shown in FIG. 1, the arithmetic processing unit 3 is functionally composed of a specific color region cutout unit 11, a region division unit 12, a marker region determination unit 13, and a marker information detection unit 14. The region dividing unit 12 includes a horizontal / vertical frequency distribution calculating unit 15, a change point detecting unit 16, and a grid-like region dividing unit 17. Each of these units corresponds to each step in the road sign detection method. Hereinafter, the configuration and processing operation of each unit will be described.
[0022]
[Specific Color Region Extraction Unit 11]
The color image data of the still image read from the image memory 34M is supplied to the specific color area cutout unit 11. The specific color area cutout unit 11 performs processing using the image memory 34B for calculation.
[0023]
Road signs use only certain specific colors, such as blue, red, yellow, black, and white, and there is no change in the level of these colors. The clipping unit 12 extracts these specific color areas from the color still image captured in the image memory 34M, and writes the extraction result in the image memory 34B.
[0024]
For example, when the color image signal is composed of three primary color signals of R (red), G (green), and B (blue), the specific color region is extracted using the R, G for detecting the specific color. , B are set in advance, and using these thresholds, it is determined whether each pixel unit or a plurality of pixel units of the color still image signal in the image memory 34 is in the specific color region. This is done by performing a determination process.
[0025]
In this case, the extracted pixel data of the specific color area is extracted as it is, but the pixel data of the areas other than the specific color area are all set to 0 for each of the R, G, and B values. To.
[0026]
As described above, since the colors used as road signs are limited and there is no fine level change in these colors, the number of thresholds prepared in advance can be limited.
[0027]
Further, when it is intended to accurately extract only the sign portion, the threshold values of the R, G, and B values for detecting a specific color region may be changed according to changes in ambient brightness. Although it is necessary, in this embodiment, as described later, since it is a two-stage process including a process of determining whether or not each area is a sign portion and removing an area other than the sign, the R , G, B threshold values are not strictly set, and there is no problem even if an area other than a sign is cut out by this specific color area cut-out process. That is, it is not necessary to finely set a threshold value for cutting out a specific color area according to a change in brightness or the like.
[0028]
For example, if the input color still image captured in the image memory 34M is as shown in FIG. 3, the processing by the specific color area cutout unit 11 causes the calculation image memory 34B to store The labeled region MS as shown in FIG. 4 is almost cut out and stored.
[0029]
[Area Divider 12]
The area dividing unit 12 divides the input color image into a plurality of grid areas using the data of the specific color area cut out by the specific color area cutout unit 11.
[0030]
The data of the specific color area cut out by the specific color area cutout unit 11 is supplied to the horizontal / vertical frequency distribution calculation unit 15 of the area division unit 12. The horizontal / vertical frequency distribution calculation unit 15 obtains horizontal and vertical histograms of the number of pixels having the specific color in the cut out specific color region.
[0031]
That is, as shown in FIG. 5, at each position X in the horizontal direction (x direction) of the area cut out by the specific color area cutout unit 11, the image data of that area is scanned in the vertical direction, and each horizontal position The number of pixels of a specific color in X is counted, and the counted value (frequency) Hh (x) is stored in, for example, the RAM 33 corresponding to each horizontal position coordinate X.
[0032]
Similarly, at each position Y in the vertical direction (y direction) of the area cut out by the specific color area cutout unit 11, the image data of that area is scanned in the horizontal direction, and the specific color at each vertical position Y is scanned. The number of pixels is counted, and the count value Hh (y) is stored in, for example, the RAM 33 corresponding to each position coordinate Y in the vertical direction. As described above, a histogram represented by the curves 21 and 22 in FIG. 5 is obtained.
[0033]
As described above, the horizontal and vertical histogram data calculated by the horizontal / vertical frequency distribution calculation unit 15 is supplied to the change point detection unit 16. In the change point detection unit 16, in the horizontal and vertical histograms, a significant change point (horizontal) that can distinguish a region including a sign (hereinafter, this region is referred to as a sign region) and other regions. Position coordinates in the direction and position coordinates in the vertical direction).
[0034]
In this embodiment, the change point detection unit 16 obtains position coordinates that serve as peak values of the histogram as significant change points. The peak point detection method in this embodiment is as follows.
[0035]
First, when detecting the peak point in the horizontal direction, assuming that the frequency at a certain horizontal coordinate X is Hh (x), the peak point is detected by threshold determination represented by the following equations (1) and (2). .
[0036]
Hh (x)> Hth (1)
{2 × Hh (x) −Hh (x−1) −Hh (x + 1)}> ΔHth (2)
Here, Hth and ΔHth are preset threshold values, and Hh (x−1) is a frequency in the horizontal coordinate (X−1) immediately before the horizontal coordinate X, and Hh (x + 1) is the frequency at the horizontal coordinate (X + 1) one after the horizontal coordinate X.
[0037]
Similarly, when detecting the peak point in the vertical direction, assuming that the frequency at a certain vertical coordinate Y is Hv (y), the peak point is detected by threshold judgment represented by the following equations (3) and (4). To do.
[0038]
Hv (y)> Vth (3)
{2 × Hv (y) −Hv (y−1) −Hv (y + 1)}> ΔVth (4)
Here, Vth and ΔVth are preset threshold values, and Hv (y−1) is a frequency in the vertical coordinate (Y−1) immediately before the vertical coordinate Y, and Hv (y + 1) is a frequency at a vertical coordinate (Y + 1) one after the vertical coordinate Y.
[0039]
The threshold values Hth, ΔHth, Vth, and ΔVth are determined in advance by preliminary experiments or the like.
[0040]
In the case of the example in FIG. 5, peak points Pxa and Pxb are detected from the horizontal histogram with the horizontal position coordinates Xa and Xb, and from the vertical histogram with the vertical position coordinates Ya and Yb. Peak points Pya and Pyb are detected. The position coordinate information of these detected peak points is supplied from the change point detection unit 16 to the grid area division unit 17.
[0041]
When there are a plurality of specific colors to be cut out as marker areas in the specific color area cutout section 11, the specific color area cutout section 11 adds information on the specific color of the area for each cut out area, Using the added specific color information, the horizontal / vertical frequency distribution calculation unit 15 calculates a histogram for each specific color, and uses it to detect a peak point from the histogram for each specific color. The detection is performed by the unit 16, and the detection result is supplied to the grid area dividing unit 17.
[0042]
In addition, the specific color region cutout unit 11, the horizontal / vertical frequency distribution calculation unit 15, and the change point detection unit 16 perform processing for each specific color to be cut out as a marker region, and check the change for each specific color. The output result may be supplied to the lattice area dividing unit 17.
[0043]
The grid area dividing unit 17 divides the input color still image stored in the image memory 34M into grid areas using the position coordinate information of all the change points supplied from the change point detecting unit 16 supplied thereto. To do. That is, in the case of FIG. 5 described above, the horizontal and vertical position coordinates Xa, Xb, Ya, Yb of the detected peak point are supplied to the lattice region dividing unit 17, so that the lattice region dividing unit In FIG. 17, as shown in FIG. 6, the input color still image is divided into three in the horizontal direction by dividing lines 23 and 24 passing through the horizontal position coordinates Xa and Xb. The input color still image is divided into three in the vertical direction by dividing lines 25 and 26 passing through the vertical position coordinates Ya and Yb. As a result, the input color image is divided into nine grid regions as shown in FIG. When the grid area is divided in this way, the contents stored in the calculation image memory 34M are cleared (all erased).
[0044]
[Signal area determination unit 13]
As described above, the image data for each grid area divided by the grid area dividing unit 17 is supplied to the marker area determining unit 13 as an output of the area dividing unit 12. The sign area determination unit 13 determines whether or not each area is a sign area from the feature of the image for each grid area from the area division unit 12.
[0045]
As described above, a road sign is provided with a specific color frame, and a specific symbol such as a sign character or an arrow is present inside the frame of the specific color. Therefore, the peak point of the histogram of the specific color pixel of the specific color region cut out by the specific color region cutout unit 11 corresponds to the frame portion, and the inside of the region surrounded by this peak point is inside the sign, It can be said that there are sign characters and symbols in them.
[0046]
However, as described above, in the extraction process of the specific color area, when the threshold is not strict, the color area other than the sign is also extracted, and thereby the peak of the histogram of the area other than the sign may be detected. . In addition, some input color images may include a plurality of signs.
[0047]
Therefore, in this embodiment, in each of the lattice areas divided by the area dividing unit 12 as described above, it is determined by this marked area determining unit 13 whether or not the area is inside the sign. .
[0048]
In the sign area determination unit 13 of this embodiment, it is determined whether or not it is a sign area by using the feature of the pixel value of the area inside the sign. That is, there are characters and symbols inside the sign area, but there is no fine change as a color pixel, and there are only two or three values as pixel values. For example, blue characters and symbols are described on a white background, and white characters and symbols are described on a blue background.
[0049]
Therefore, in the marker area determination unit 13 of this embodiment, paying attention to, for example, the G (green) signal of each pixel, whether or not the pixel value in each grid area is close to binary in this example, It is determined whether the grid area is inside the sign.
[0050]
FIG. 8 is a block diagram showing the function of the sign area determination unit 13 of this embodiment, and corresponds to the case where the sign area determination unit 13 has a hardware configuration. As shown in FIG. 8, the sign region determination unit 13 includes an in-region maximum value detection unit 131, a difference calculation unit 132, a maximum value vicinity pixel determination unit 133, a maximum value vicinity pixel counting unit 134, and an in-region minimum. The value detection unit 135, the difference calculation unit 136, the minimum value vicinity pixel determination unit 137, the minimum value vicinity pixel counting unit 138, the in-region total pixel number calculation unit 139, and the marker region determination extraction unit 130 are included.
[0051]
In the image data of each grid-like area unit from the area dividing unit 12, first, the in-area maximum value detecting unit 131 detects the level of the maximum G signal in the area. Then, the difference calculation unit 132 calculates the difference between the G value of each pixel in the region and the detected maximum G signal. The difference value is supplied to the maximum value neighboring pixel determination unit 133. The maximum value vicinity pixel determination unit 133 compares the difference value with a threshold value, and when the difference value is smaller than the threshold value, determines that the pixel is a pixel having a value in the vicinity of the maximum G value. The count value of the pixel counting unit 134 is incremented. Therefore, the maximum value vicinity pixel counting unit 134 counts the number Nb of pixels near the maximum G value among all the pixels in each grid area.
[0052]
Further, the image data of each grid area from the area dividing unit 12 is detected by the in-area minimum value detecting unit 135 to detect the level of the minimum G signal in the area. Then, the difference calculation unit 136 calculates the difference between the G value of each pixel in the region and the detected minimum G signal. The difference value is supplied to the minimum value neighboring pixel determination unit 133. The minimum value vicinity pixel determination unit 137 compares the difference value with the threshold value, and when the difference value is smaller than the threshold value, the minimum value vicinity pixel determination unit 137 determines that the pixel has a value in the vicinity of the minimum G value. The count value of the pixel counting unit 138 is incremented. Therefore, the minimum value vicinity pixel counting unit 138 counts the number Nc of pixels near the minimum G value among all the pixels in each grid area.
[0053]
In parallel with the above processing, the in-region total pixel number calculation unit 139 calculates the total number of pixels Na included in the grid region. The calculated total number of pixels Na is supplied to the sign area determination extraction unit 130. Further, the number Nb of pixels near the maximum G value counted by the maximum value vicinity pixel counting unit 134 and the number Nc of pixels near the minimum G value counted by the minimum value vicinity pixel counting unit 138 are also extracted from the sign region determination. Supplied to the unit 130.
[0054]
In this example, the sign area determination extraction unit 130 calculates (Nb + Nc) / Na, and when the calculation result is larger than a predetermined threshold, that is, the pixel value in the area is close to binary. The lattice area is determined as a sign area, and the data of the area is stored and held in, for example, the image memory 34B for calculation, and is used as a target of the sign information detection process in the next sign information detection unit 14.
[0055]
On the other hand, when the calculation result is equal to or smaller than the threshold value, the grid area is determined to be an area other than the marker area, and the data in the area is discarded without being stored in the calculation image memory 34B. The label information detection unit 14 does not perform the label information detection process.
[0056]
As described above, the marker area determination unit 13 according to this embodiment dynamically calculates the maximum value and the minimum value of predetermined information such as pixel brightness for each grid area, and calculates the maximum Since the pixel value in each grid area is determined to be close to binary based on the value and the minimum value, the sign area can be determined without depending on the surrounding brightness such as weather. Can do.
[0057]
FIG. 9 is a flowchart in the case where the sign area determination unit 13 of this embodiment is executed by the software (program) of the arithmetic processing unit 3.
[0058]
First, data of the first grid area to be determined is fetched (step S1), and the number of pixels Na in the area is detected (step S2). Next, the maximum value of the G signal is detected from the G signal of all the pixels in the grid area (step S3). Then, the difference between the G signal of each pixel in the grid area and the maximum value of the detected G signal is obtained, and the number Nb of pixels whose difference is smaller than a predetermined threshold value is calculated (step S4).
[0059]
Next, the minimum value of the G signal is detected from the G signals of all the pixels in the grid area (step S5). Then, the difference between the G signal of each pixel in the grid area and the minimum value of the detected G signal is obtained, and the number Nc of pixels whose difference is smaller than a predetermined threshold value is calculated (step S6).
[0060]
Next, (Nb + Nc) / Na is calculated using the pixel numbers Na, Nb, and Nc obtained in step S2, step S4, and step S6, and whether or not the calculation result is larger than a predetermined threshold value Nth. Determination is made (step S7). As a result of the determination, when the calculation result is larger than the threshold value Nth, the lattice area is determined to be a label area, the data of the area is held in the image memory 34B, and the next label information detection unit 14 It is set as a target for the detection process of the label information (step S8). When the calculation result is equal to or less than the threshold value Nth, the grid area is regarded as an area other than the sign area, and the data in the area is discarded and excluded from the target information detection process in the next sign information detection unit 14. (Step S9).
[0061]
Next, it is determined whether or not the determination for all grid areas has been completed (step S10). If not, the next grid area data is fetched (step S11), and the process returns to step S2. The above processing is repeated. Further, when the determination for all the lattice areas is completed, the marker area determination process is ended.
[0062]
In the case where the input color image is FIG. 6, the sign area determination unit 13 determines whether or not each of the nine grid areas is a sign area as described above. In the image memory 34B, a marker area as shown in FIG. 10 is stored as a determination result.
[0063]
In the above example, the marker area determination unit 13 focuses on the G signal and determines whether the pixel value in each grid area is close to binary, but other R (red ) Signal or B (blue) signal is not particularly limited to the G signal because there is no fine texture in the lattice area and the pixel value is close to binary or ternary. Further, instead of the G signal, a luminance signal Y is generated from each of the R, G, and B signals, and this luminance signal Y is processed in the same manner as described above, so that each grid area is inside the sign. It is also possible to determine whether or not there is.
[0064]
[Signal information detection unit 14]
The sign information detection unit 14 is determined as a sign area by the sign area determination unit 13 and is significant information as a sign such as a character or a symbol part such as an arrow from the image data of the lattice area held in the image memory 34B. Is detected. Three examples will be described as a method of detecting significant information in the sign information detection unit 14.
[0065]
[First example of sign information detection]
In this first example, since the color arrangement of information that is significant as a label is a plurality of predetermined color schemes as described above, the color information for each of the plurality of color arrangements is determined as a threshold value. . For this reason, in this first example, a threshold value is determined for each color signal component of R, G, B in each color arrangement, and the threshold value and each color signal of R, G, B of each pixel are determined. By comparing these, it is determined whether each pixel is a significant information part. The process for detecting the label information in the case of the first example will be described with reference to FIG. 11 and the subsequent flowchart of FIG.
[0066]
That is, first, threshold values are set for the R, G, and B color signals in the first color scheme to be detected among a plurality of color schemes (step S21). Then, the first pixel data in the marker area is read (step S22), the R signal of the pixel data is compared with the threshold value for the R signal set in step S21 (step S23), It is determined whether or not the significance condition is satisfied (step S24). If the significance condition for the R signal is not satisfied, for example, a flag indicating that is set as a pixel other than the significant information (step S30).
[0067]
When the significance condition for the R signal is satisfied, the G signal of the pixel data is compared with the threshold value for the G signal set in step S21 (step S25), and the significance for the G signal is compared. It is determined whether or not the sex condition is satisfied (step S26). If the significance condition for the G signal is not satisfied, for example, a flag indicating that is set as a pixel other than the significant information (step S30).
[0068]
When the significance condition for the G signal is satisfied, the B signal of the pixel data is compared with the threshold value for the B signal set in step S21 (step S27), and the significance for the B signal is compared. It is determined whether or not the sex condition is satisfied (step S28). In the case where the significance condition for the B signal is not satisfied, as a pixel other than the significant information, for example, a flag indicating that is set for the pixel (step S30).
[0069]
When the significance condition for the B signal is satisfied, that is, when the significance conditions for all of R, G, and B are satisfied, the pixel data is displayed as display image data on the display 4 as significant information. Is stored in the image memory 34B (step S29).
[0070]
Next, it is determined whether or not the detection of significance for all the pixels in the labeled area has been completed (step S31). If not completed, the next pixel data in the labeled area is read (step S32). ), The process returns to step S23, and the processes after step S23 described above are repeated.
[0071]
If it is determined in step S31 that the detection of the significance for all the pixels in the marker region is completed, the detection for all the color schemes prepared for detecting the significant information about the marker is completed. If it has not been completed, threshold values for the R, G, B color signals in the next color arrangement are set (step S34). Then, returning to step S22, the detection of significant information regarding a new color scheme is executed as described above for the pixels in the region.
[0072]
At this time, in the detection of the significant information about the previous color scheme, if it is determined that the pixel is other than the significant information and the flag to that effect is newly added as the significant information, the step In S29, the flag is erased and the pixel data that is regarded as significant information is retained.
[0073]
As described above, when the detection of the significant information for all the color schemes is completed, the process proceeds from step S33 to step S35, and it is determined whether or not the detection process of the significant information is completed for all the label areas. If there is another labeled area for which the detection process of significant information has not been completed, the process is shifted to that labeled area (step S36), and the processes from step S21 are repeated.
[0074]
If it is determined in step S35 that the detection processing of significant information has been completed for all the labeled areas, the pixel data flagged as pixels other than the significant information is deleted (step S37), and then this significant information detection is performed. The processing routine ends.
[0075]
As a result of the above processing, only the sign portion as shown in FIG. 10 remains in the image memory 34B, and this is read out and displayed on the display 4 so that an image similar to FIG. It is displayed on the screen and a road sign is notified to the user.
[0076]
[Second example of sign information detection]
This second example is based on the feature that the number of pixels that are significant information such as characters and symbols is smaller in the marker area than the number of other pixels. A process for detecting the label information in the case of the second example will be described with reference to the flowchart of FIG.
[0077]
First, the first labeled area where significant information is detected is designated (step S41), and the value of each pixel in the labeled area is quantized to binary or ternary in the R, G, B color space ( Step S42). Next, the number of pixels for each quantization level is counted (step S43), and the quantization level Qmin with the smallest number of pixels is detected (step S44).
[0078]
Then, for each pixel, it is determined whether or not the level after quantization corresponds to the detected quantization level Qmin (step S45), and the data of the corresponding pixel is stored in the image memory 34B as significant information (step S45). S46), the data of the non-corresponding pixels is deleted from the image memory 34B (step S47).
[0079]
Next, it is determined whether or not the significant information detection process has been completed for all the labeled areas (step S48). If there is another labeled area for which the significant information detection process has not been completed, the process is shifted to that labeled area. (Step S49), the processing from Step S42 is repeated.
[0080]
Also in the case of the second example, as in the first example described above, significant information such as characters and symbols in the sign area can be detected satisfactorily.
[0081]
[Third example of sign information detection]
This third example is a method that utilizes the fact that significant information inside the sign is gathered near the center of the sign, and there are a large number of pixels that are significant information in a minute area near the center. A process for detecting the label information in the case of the third example will be described with reference to the flowchart of FIG.
[0082]
First, the first marker area where significant information is detected is designated (step S51), the center coordinates in the area are calculated (step S52), and a minute grid area centered on the calculated center coordinates is defined. Set (step S53). Here, the minute area is sufficiently smaller than the label area.
[0083]
Next, binarization processing is performed on the pixel data within the minute grid area (step S54). Next, the number of pixels in the minute area is counted for each binarization level (step S55). Then, the level with the larger number of pixels is specified (step S56).
[0084]
Then, it is determined whether or not the binarization level of each pixel in the minute area corresponds to the level with the larger number of pixels (step S57), and the data of the corresponding pixel is stored in the image memory 34B as significant information. It retains (step S58), and the data of the non-corresponding pixel is deleted from the image memory 34B (step S59).
[0085]
Next, it is determined whether or not the significant information detection process has been completed for all the labeled areas (step S60). If there is another labeled area for which the significant information detection process has not been completed, the process is shifted to that labeled area. (Step S61), the processing from Step S52 is repeated.
[0086]
Also in the case of the third example, similar to the first example and the second example described above, significant information such as characters and symbols in the marker area can be detected well.
[0087]
[Other variations]
In the above-described embodiment, each of the plurality of types of color schemes assumed as road signs is processed in each unit and shifted to the next stage. However, for each color of the assumed color scheme, a specific color region is used. You may make it perform from a cutting-out to the process of a marker information detection.
[0088]
In the above-described embodiment, the change point detection unit 16 of the region division unit 12 uses the peak points of the horizontal and vertical histograms calculated by the horizontal / vertical frequency distribution calculation unit 15 as significant change points. Although detected, significant change points are not limited to peak points. For example, in a histogram, a point where the frequency gradually increases and then changes to a flat change or a point where the frequency changes so as to be gradually processed from the flat change may be detected as a significant change point. Good.
[0089]
In the above-described embodiment, the case where the detection target is a road sign has been described, but it goes without saying that the detection target sign of the present invention is not limited to a road sign.
[0090]
【The invention's effect】
As described above, according to the present invention, since the sign is detected based on the characteristic of the sign, not the simple pattern matching as in the prior art, it is possible to perform well without depending on the inclination of the sign or the scale of the sign. Can be detected.
[0091]
In addition, since the specific color area is extracted, the extraction result is used to divide into grid areas, and the marker portion is determined for each grid area. Even if there is a change in the brightness of the surrounding area, the sign can be reliably detected.
[Brief description of the drawings]
FIG. 1 is a functional block diagram of a main part of an embodiment of a label detection apparatus according to the present invention.
FIG. 2 is an overall system configuration diagram of an embodiment of a label detection apparatus according to the present invention.
FIG. 3 is a diagram for explaining a label detection processing operation according to the present invention;
FIG. 4 is a diagram for explaining a label detection processing operation according to the present invention.
FIG. 5 is a diagram for explaining a label detection processing operation according to the present invention;
FIG. 6 is a diagram for explaining a label detection processing operation according to the present invention.
FIG. 7 is a diagram for explaining a label detection processing operation according to the present invention.
FIG. 8 is a functional block diagram of an example of a sign area determination unit in the embodiment of the sign detection device according to the present invention.
FIG. 9 is a flowchart for explaining an example of a sign area determination unit in the embodiment of the sign detection device according to the present invention;
FIG. 10 is a diagram for explaining a label detection processing operation according to the present invention.
FIG. 11 is a part of a flowchart for explaining an example of a label information detection unit in the embodiment of the label detection apparatus according to the present invention;
FIG. 12 is a part of a flowchart for explaining an example of a label information detection unit in the embodiment of the label detection apparatus according to the present invention;
FIG. 13 is a flowchart for explaining another example of the label information detection unit in the embodiment of the label detection apparatus according to the present invention;
FIG. 14 is a flowchart for explaining still another example of the label information detection unit in the embodiment of the label detection apparatus according to the present invention;
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Video camera, 2 ... A / D converter, 3 ... Arithmetic processing part, 4 ... Display, 11 ... Specific color area cutout part, 12 ... Area division part, 13 ... Marking area determination part, 14 ... Sign information detection part , 15 ... Horizontal / vertical frequency distribution calculation unit, 16 ... Change point detection unit, 17 ... Lattice region division unit, 130 ... Marking region determination extraction unit, 131 ... In-region maximum value detection unit, 133 ... Maximum value neighborhood pixel determination 134: Maximum value neighboring pixel counting unit, 135 ... In-region minimum value detecting unit, 137 ... Minimum value neighboring pixel determining unit, 138 ... Minimum value neighboring pixel counting unit, 139 ... Total number of pixels in region calculating unit

Claims (19)

入力カラー画像から、特定の色を持つ領域を切り出す特定色領域切り出し手段と、
前記特定色領域切り出し手段で切り出された領域を囲むようにして、前記入力カラー画像を垂直方向および水平方向に分割することにより、前記入力カラー画像を格子状の領域に分割する領域分割手段と、
前記領域分割手段で分割された各分割領域ごとに、その領域が標識の部分である標識領域であるか否かを判定する標識領域判定手段と、
前記標識領域判定手段で判定された標識領域において、その内部の有意情報を標識情報として検出する標識情報検出手段と、
を備えることを特徴とする標識検出装置。
Specific color area cutout means for cutting out an area having a specific color from the input color image;
An area dividing unit that divides the input color image into grid-like areas by dividing the input color image in the vertical direction and the horizontal direction so as to surround the area cut out by the specific color area cutting out unit,
For each divided area divided by the area dividing means, a sign area determination means for determining whether or not the area is a sign area that is a part of a sign,
In the label area determined by the label area determination means, label information detection means for detecting significant information inside the label area as label information,
A sign detection apparatus comprising:
請求項1に記載の標識検出装置において、
前記領域分割手段は、
前記特定色領域切り出し手段で切り出された領域内において、前記特定の色の画素を、水平方向および垂直方向に計数して、それぞれの方向の度数分布を求める度数分布算出手段と、
前記度数分布算出手段で算出された水平方向および垂直方向の度数分布の有意な変化点を検出する変化点検出手段と、
前記変化点検出手段で検出された前記有意な変化点位置で、前記入力カラー画像を垂直方向および水平方向に分割することにより、前記入力カラー画像を格子状の領域に分割する分割手段と、
を備えることを特徴とする標識検出装置。
The label detection apparatus according to claim 1,
The region dividing means includes
A frequency distribution calculating means for counting the pixels of the specific color in the horizontal direction and the vertical direction in the area cut out by the specific color area cutting out means to obtain a frequency distribution in each direction;
Change point detection means for detecting significant change points of the horizontal and vertical frequency distributions calculated by the frequency distribution calculation means;
A dividing unit that divides the input color image into a grid-like region by dividing the input color image in a vertical direction and a horizontal direction at the significant change point position detected by the change point detection unit;
A sign detection apparatus comprising:
請求項1に記載の標識検出装置において、
前記特定色領域切り出し手段は、標識が備える色について、予め定められた閾値を用いた処理により、特定の色領域を抽出し、前記特定の色領域以外は、画素値をすべて零とする
ことを特徴とする標識検出装置。
The label detection apparatus according to claim 1,
The specific color area cutout means extracts a specific color area by a process using a predetermined threshold for the color included in the sign, and sets all the pixel values to zero except for the specific color area. Characteristic label detection device.
請求項2に記載の標識検出装置において、
前記変化点検出手段は、前記水平方向および垂直方向の度数分布のピーク点を、前記有意な変化点として検出する
ことを特徴とする標識検出装置。
The label detection apparatus according to claim 2,
The said change point detection means detects the peak point of the frequency distribution of the said horizontal direction and a perpendicular direction as said significant change point. The label | marker detection apparatus characterized by the above-mentioned.
請求項1に記載の標識検出装置において、
前記標識領域判定手段は、判定すべき領域に含まれる画素が取り得る値が、2値あるいは3値に近いか否かにより、標識領域と判定する
ことを特徴とする標識検出装置。
The label detection apparatus according to claim 1,
The marker detection device, wherein the marker region determination means determines a marker region based on whether or not a value that can be taken by a pixel included in the region to be determined is close to a binary value or a ternary value.
請求項1に記載の標識検出装置において、
前記標識領域判定手段は、
判定すべき領域に含まれるすべての画素数Naを検出する検出手段と、
前記判定すべき領域に含まれる画素の所定の情報の最大値を検出する最大値検出手段と、
前記判定すべき領域に含まれる画素の前記所定の情報の最小値を検出する最小値検出手段と、
前記判定すべき領域において、前記最大値との差が、所定値以下である画素数Nbを検出する最大値近傍画素数計数手段と、
前記判定すべき領域において、前記最小値との差が、所定値以下である画素数Ncを検出する最小値近傍画素数計数手段と、
(Nb+Nc)/Naの値と、所定のしきい値との比較結果により、前記判定すべき領域を標識内部の領域あるいは標識外部の領域と判定する判定手段と、
を備えることを特徴とする標識検出装置。
The label detection apparatus according to claim 1,
The sign area determination means includes
Detection means for detecting all the pixel numbers Na included in the region to be determined;
Maximum value detecting means for detecting a maximum value of predetermined information of pixels included in the region to be determined;
Minimum value detecting means for detecting a minimum value of the predetermined information of the pixels included in the region to be determined;
A maximum value neighboring pixel number counting unit for detecting a pixel number Nb whose difference from the maximum value is equal to or less than a predetermined value in the region to be determined;
In a region to be determined, a minimum value neighboring pixel number counting unit that detects a pixel number Nc whose difference from the minimum value is equal to or less than a predetermined value;
A determination means for determining the region to be determined as a region inside the sign or a region outside the sign based on a comparison result between the value of (Nb + Nc) / Na and a predetermined threshold;
A sign detection apparatus comprising:
請求項1に記載の標識検出装置において、
前記標識情報検出手段は、前記標識領域判定手段で判定された標識領域内の各画素の色と、標識に使用される色とを比較し、両者の差が所定値よりも小さいときに当該画素を有意情報部分の画素として検出する
ことを特徴とする標識検出装置。
The label detection apparatus according to claim 1,
The sign information detection means compares the color of each pixel in the sign area determined by the sign area determination means with the color used for the sign, and if the difference between the two is smaller than a predetermined value, the pixel Is detected as a pixel of the significant information portion.
請求項1に記載の標識検出装置において、
前記標識情報検出手段は、
前記標識領域判定手段で判定された標識領域内の画素を量子化する手段と、
前記量子化された前記標識領域内の画素について、各量子化レベルごとの画素数を求める手段と、
前記量子化レベルの中で、最も少ない画素数の量子化レベルを算出する手段と、
前記標識領域内の各画素が前記最も少ない画素数の量子化レベルに相当するかを判定し、相当する場合には、その画素を有意情報部分の画素として検出する手段と、
を備えることを特徴とする標識検出装置。
The label detection apparatus according to claim 1,
The sign information detecting means includes
Means for quantizing the pixels in the label area determined by the label area determination means;
Means for determining the number of pixels for each quantization level for the quantized pixels in the label area;
Means for calculating the quantization level of the smallest number of pixels among the quantization levels;
Determining whether each pixel in the label area corresponds to the quantization level of the smallest number of pixels, and if so, means for detecting the pixel as a pixel of the significant information portion;
A sign detection apparatus comprising:
請求項1に記載の標識検出装置において、
前記標識情報検出手段は、
前記標識領域内の中心付近の微小領域に含まれる画素について、最も頻度の多い画素レベルを求める手段と、
前記標識領域内の各画素が前記求めた画素レベルに近いレベルであるか否か判定し、近い場合には、その画素を有意情報部分の画素として検出する手段と、
を備えることを特徴とする標識検出装置。
The label detection apparatus according to claim 1,
The sign information detecting means includes
Means for determining the most frequent pixel level for pixels included in a minute region near the center in the marker region;
Determining whether each pixel in the marker region is a level close to the obtained pixel level, and if close, means for detecting the pixel as a pixel of the significant information portion;
A sign detection apparatus comprising:
入力カラー画像から、特定の色を持つ領域を切り出す特定色領域切り出し工程と、
前記特定色領域切り出し工程で切り出された領域を囲むようにして、前記入力カラー画像を垂直方向および水平方向に分割することにより、前記入力カラー画像を格子状の領域に分割する領域分割工程と、
前記領域分割工程で分割された各分割領域ごとに、その領域が標識の部分である標識領域であるか否かを判定する標識領域判定工程と、
前記標識領域判定工程で判定された標識領域において、その内部の有意情報を標識情報として検出する標識情報検出工程と、
を備えることを特徴とする標識検出方法。
A specific color area cutout step of cutting out an area having a specific color from the input color image;
A region dividing step of dividing the input color image into a grid-like region by dividing the input color image in the vertical direction and the horizontal direction so as to surround the region cut out in the specific color region cutting step,
For each divided region divided in the region dividing step, a labeled region determination step for determining whether or not the region is a labeled region that is a portion of a marker,
In the label area determined in the label area determination step, a label information detection step for detecting significant information therein as label information,
A label detection method comprising:
請求項10に記載の標識検出方法において、
前記領域分割工程は、
前記特定色領域切り出し工程で切り出された領域内において、前記特定の色の画素を、水平方向および垂直方向に計数して、それぞれの方向の度数分布を求める度数分布算出工程と、
前記度数分布算出工程で算出された水平方向および垂直方向の度数分布の有意な変化点を検出する変化点検出工程と、
前記変化点検出工程で検出された前記有意な変化点位置で、前記入力カラー画像を垂直方向および水平方向に分割することにより、前記入力カラー画像を格子状の領域に分割する分割工程と、
を備えることを特徴とする標識検出方法。
In the label | marker detection method of Claim 10,
The region dividing step includes
A frequency distribution calculating step in which the pixels of the specific color are counted in the horizontal direction and the vertical direction in the region cut out in the specific color region cutout step to obtain a frequency distribution in each direction;
A change point detection step of detecting a significant change point of the horizontal and vertical frequency distributions calculated in the frequency distribution calculation step;
A division step of dividing the input color image into grid-like regions by dividing the input color image in the vertical direction and the horizontal direction at the significant change point position detected in the change point detection step;
A label detection method comprising:
請求項10に記載の標識検出方法において、
前記特定色領域切り出し工程では、標識が備える色について、予め定められた閾値を用いた処理により、特定の色領域を抽出し、前記特定の色領域以外は、画素値をすべて零とする
ことを特徴とする標識検出方法。
In the label | marker detection method of Claim 10,
In the specific color region cut-out step, a specific color region is extracted by a process using a predetermined threshold for colors included in the sign, and pixel values other than the specific color region are all set to zero. Characteristic label detection method.
請求項12に記載の標識検出方法において、
前記変化点検出工程では、前記水平方向および垂直方向の度数分布のピーク点を、前記有意な変化点として検出する
ことを特徴とする標識検出方法。
The label detection method according to claim 12,
In the change point detection step, a peak point of the frequency distribution in the horizontal direction and the vertical direction is detected as the significant change point.
請求項10に記載の標識検出方法において、
前記標識領域判定工程では、判定すべき領域に含まれる画素が取り得る値が、2値あるいは3値に近いか否かにより、標識領域と判定する
ことを特徴とする標識検出方法。
In the label | marker detection method of Claim 10,
The sign detection method, wherein in the sign area determination step, a sign area is determined based on whether or not a value that can be taken by a pixel included in the area to be determined is close to binary or ternary.
請求項10に記載の標識検出方法において、
前記標識領域判定工程は、
判定すべき領域に含まれるすべての画素数Naを検出する検出工程と、
前記判定すべき領域に含まれる画素の所定の情報の最大値を検出する最大値検出工程と、
前記判定すべき領域に含まれる画素の前記所定の情報の最小値を検出する最小値検出工程と、
前記判定すべき領域において、前記最大値との差が、所定値以下である画素数Nbを検出する最大値近傍画素数計数工程と、
前記判定すべき領域において、前記最小値との差が、所定値以下である画素数Ncを検出する最小値近傍画素数計数工程と、
(Nb+Nc)/Naの値と、所定のしきい値との比較結果により、前記判定すべき領域を標識内部の領域あるいは標識外部の領域と判定する判定工程と、
を備えることを特徴とする標識検出方法。
In the label | marker detection method of Claim 10,
The marker region determination step includes
A detection step of detecting all the pixel numbers Na included in the region to be determined;
A maximum value detecting step of detecting a maximum value of predetermined information of pixels included in the region to be determined;
A minimum value detecting step of detecting a minimum value of the predetermined information of the pixels included in the region to be determined;
In the region to be determined, a maximum value neighboring pixel number counting step of detecting a pixel number Nb whose difference from the maximum value is not more than a predetermined value;
In the region to be determined, a minimum value neighboring pixel number counting step of detecting a pixel number Nc whose difference from the minimum value is a predetermined value or less;
A determination step of determining the region to be determined as a region inside the sign or a region outside the sign based on a comparison result between the value of (Nb + Nc) / Na and a predetermined threshold;
A label detection method comprising:
請求項10に記載の標識検出方法において、
前記標識情報検出工程では、前記標識領域判定工程で判定された標識領域内の各画素の色と、標識に使用される色とを比較し、両者の差が所定値よりも小さいときに当該画素を有意情報部分の画素として検出する
ことを特徴とする標識検出方法。
In the label | marker detection method of Claim 10,
In the marker information detection step, the color of each pixel in the marker region determined in the marker region determination step is compared with the color used for the marker, and when the difference between the two is smaller than a predetermined value, the pixel Is detected as a pixel of the significant information portion.
請求項10に記載の標識検出方法において、
前記標識情報検出工程は、
前記標識領域判定工程で判定された標識領域内の画素を量子化する工程と、
前記量子化された前記標識領域内の画素について、各量子化レベルごとの画素数を求める工程と、
前記量子化レベルの中で、最も少ない画素数の量子化レベルを算出する工程と、
前記標識領域内の各画素が前記最も少ない画素数の量子化レベルに相当するかを判定し、相当する場合には、その画素を有意情報部分の画素として検出する工程と、
を備えることを特徴とする標識検出方法。
In the label | marker detection method of Claim 10,
The label information detection step includes
Quantizing the pixels in the labeled area determined in the labeled area determining step;
Obtaining the number of pixels for each quantization level for the quantized pixels in the label area; and
Calculating the quantization level of the smallest number of pixels among the quantization levels;
Determining whether each pixel in the marker region corresponds to the quantization level of the smallest number of pixels, and if so, detecting the pixel as a pixel of the significant information portion;
A label detection method comprising:
請求項10に記載の標識検出方法において、
前記標識情報検出工程は、
前記標識領域内の中心付近の微小領域に含まれる画素について、最も頻度の多い画素レベルを求める工程と、
前記標識領域内の各画素が前記求めた画素レベルに近いレベルであるか否か判定し、近い場合には、その画素を有意情報部分の画素として検出する工程と、
を備えることを特徴とする標識検出方法。
In the label | marker detection method of Claim 10,
The label information detection step includes
Obtaining the most frequent pixel level for the pixels contained in the minute region near the center in the labeled region; and
Determining whether each pixel in the labeled area is a level close to the obtained pixel level, and if so, detecting the pixel as a pixel of a significant information portion; and
A label detection method comprising:
入力カラー画像から、特定の色を持つ領域を切り出す特定色領域切り出し手順と、
前記特定色領域切り出し手順で切り出された領域を囲むようにして、前記入力カラー画像を垂直方向および水平方向に分割することにより、前記入力カラー画像を格子状の領域に分割する領域分割手順と、
前記領域分割手順で分割された各分割領域ごとに、その領域が標識の部分である標識領域であるか否かを判定する標識領域判定手順と、
前記標識領域判定手順で判定された標識領域において、その内部の有意情報を標識情報として検出する標識情報検出手順と、
からなるプログラムが書き込まれた記録媒体。
A specific color region cutout procedure for cutting out a region having a specific color from the input color image;
An area division procedure for dividing the input color image into a grid-like area by dividing the input color image in the vertical direction and the horizontal direction so as to surround the area cut out in the specific color area cut-out procedure;
For each divided area divided in the area dividing procedure, a sign area determination procedure for determining whether or not the area is a sign area that is a part of a sign;
In the label area determined by the label area determination procedure, a label information detection procedure for detecting significant information therein as label information,
A recording medium on which a program consisting of
JP2000221627A 2000-07-24 2000-07-24 Label detection apparatus, label detection method, and recording medium Expired - Fee Related JP4423524B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000221627A JP4423524B2 (en) 2000-07-24 2000-07-24 Label detection apparatus, label detection method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000221627A JP4423524B2 (en) 2000-07-24 2000-07-24 Label detection apparatus, label detection method, and recording medium

Publications (3)

Publication Number Publication Date
JP2002042131A JP2002042131A (en) 2002-02-08
JP2002042131A5 JP2002042131A5 (en) 2007-04-12
JP4423524B2 true JP4423524B2 (en) 2010-03-03

Family

ID=18715996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000221627A Expired - Fee Related JP4423524B2 (en) 2000-07-24 2000-07-24 Label detection apparatus, label detection method, and recording medium

Country Status (1)

Country Link
JP (1) JP4423524B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9600894B2 (en) 2015-04-07 2017-03-21 Toshiba Tec Kabushiki Kaisha Image processing apparatus and computer-readable storage medium

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4851949B2 (en) * 2007-01-31 2012-01-11 クラリオン株式会社 Navigation device
JP4884330B2 (en) * 2007-08-01 2012-02-29 パイオニア株式会社 Removal target sign recognition device, removal target sign recognition method, and removal target sign recognition program
EP2028605A1 (en) * 2007-08-20 2009-02-25 Delphi Technologies, Inc. Detection method for symmetric patterns
JP5188429B2 (en) * 2009-03-24 2013-04-24 富士重工業株式会社 Environment recognition device
JP6031751B2 (en) * 2011-12-02 2016-11-24 旭硝子株式会社 Glass substrate inspection apparatus and glass substrate manufacturing method
JP7408334B2 (en) * 2019-10-03 2024-01-05 Thk株式会社 Image processing device and mobile object control system
CN111508017B (en) * 2020-04-08 2023-11-03 中导光电设备股份有限公司 Method and system for positioning mark center with weak contrast

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9600894B2 (en) 2015-04-07 2017-03-21 Toshiba Tec Kabushiki Kaisha Image processing apparatus and computer-readable storage medium

Also Published As

Publication number Publication date
JP2002042131A (en) 2002-02-08

Similar Documents

Publication Publication Date Title
US7738734B2 (en) Image processing method
JP2020513133A (en) Image quality evaluation method and apparatus
JP3083918B2 (en) Image processing device
US20080044102A1 (en) Method and Electronic Device for Detecting a Graphical Object
US20020071034A1 (en) Intruding object detection method and intruding object monitor apparatus which automatically set a threshold for object detection
CN101057247A (en) Detection and modification of text in a image
US20060067588A1 (en) Imaging apparatus, image processing method for imaging apparatus and recording medium
JP4423524B2 (en) Label detection apparatus, label detection method, and recording medium
CN109377475B (en) 24 color card video key frame automatic positioning and color difference time sequence change analysis method
JP3985928B2 (en) Image processing method, image processing apparatus, character recognition apparatus, and storage medium
CN110633705A (en) Low-illumination imaging license plate recognition method and device
JP3470938B2 (en) Method and apparatus for detecting telop character display frame
CN112232344A (en) Digital multimeter reading identification method
EP3923189A1 (en) Generation of metadata from graphical inlays inserted in video frames
JP3989647B2 (en) Image processing method, apparatus, and recording medium
CN116152784B (en) Signal lamp early warning method and system based on image processing
JP2000331118A (en) Image processor and recording medium
CN110533628B (en) Method and device for determining screen direction and readable storage medium
JP3876584B2 (en) Image detection apparatus and image detection method
JPH0679348B2 (en) Line cutting method
JP2789647B2 (en) Line image recognition method
JP2000040153A (en) Image processing method, medium recording image processing program and image processor
CN114299093A (en) Automatic cutting method for effective visible area of gastrointestinal endoscope
JP2002158874A (en) Image processor
JPH10233930A (en) Image processor

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070223

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090821

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091001

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091125

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121218

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131218

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees