JP2013178732A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2013178732A
JP2013178732A JP2012165339A JP2012165339A JP2013178732A JP 2013178732 A JP2013178732 A JP 2013178732A JP 2012165339 A JP2012165339 A JP 2012165339A JP 2012165339 A JP2012165339 A JP 2012165339A JP 2013178732 A JP2013178732 A JP 2013178732A
Authority
JP
Japan
Prior art keywords
image
pixels
feature amount
unit
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012165339A
Other languages
English (en)
Inventor
Akinori Ihara
昭典 井原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2012165339A priority Critical patent/JP2013178732A/ja
Publication of JP2013178732A publication Critical patent/JP2013178732A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像に含まれる特定のオブジェクトの検出において、処理負荷及び処理時間を削減する。
【解決手段】画像処理装置は、入力画像に含まれる画素のうち、検出対象のオブジェクトの比較対象元となる比較対象元画像に含まれる所定色の特徴量に基づいて決められた色域条件を満たす画素を抽出する画素抽出部と、色域条件を満たす画素が抽出された入力画像を二値化する二値化部と、二値化された入力画像のうち、特定の画素値の画素が連続する連続領域を単一のオブジェクトとして、一または複数のオブジェクトを特定し、特定された一または複数のオブジェクトそれぞれの特徴量を求める特徴量算出部と、オブジェクトそれぞれの特徴量に合わせて、比較対象元画像を変形したリファレンスの特徴量と、オブジェクトそれぞれの特徴量とに基づいて、オブジェクトとリファレンスとのマッチングを行なうマッチング部と、を備えた。
【選択図】図1

Description

本発明は、画像処理装置及び画像処理方法に関する。
従来、画像に含まれる特定のオブジェクトを検出する様々な技術がある。一つの様態として、基準パターンである元画像と合致するオブジェクトを検出する場合には、1画素ずつ探索していくことにより、該元画像に類似する色や形状を有するオブジェクトを検出する。また、特許文献1(特開平7−320000号公報)では、1画素ずつ探索して画像に含まれる文字を認識する場合に、二値化するときの閾値を変更していくことにより、文字の認識を好適にする技術が開示されている。
特開平7−320000号公報
しかしながら、従来技術では、画像に含まれる特定のオブジェクトの検出において、処理負荷及び処理時間が増大するという問題がある。例えば、従来技術では、画像を1画素ずつ探索することでオブジェクトを検出するため、画素数が多くなるにつれ、オブジェクトの検出において処理負荷及び処理時間が増大することになる。また、オブジェクト検出のための処理時間が増大してしまうことは、例えば、車両において道路標識等のオブジェクトを検出する等、出来るだけリアルタイムにオブジェクトを検出したい場合に好ましくない。
本発明は、上記に鑑みてなされたものであって、画像に含まれる特定のオブジェクトの検出において、処理負荷及び処理時間を削減することが可能である画像処理装置及び画像処理方法を提供することを目的とする。
上述した課題を解決し、目的を達成するため、本発明に係る画像処理装置は、入力画像に含まれる画素のうち、検出対象のオブジェクトの比較対象元となる比較対象元画像に含まれる所定色の特徴量に基づいて決められた色域条件を満たす画素を抽出する画素抽出部と、前記色域条件を満たす画素が抽出された前記入力画像を二値化する二値化部と、二値化された入力画像のうち、特定の画素値の画素が連続する連続領域を単一のオブジェクトとして、一または複数のオブジェクトを特定し、特定された一または複数のオブジェクトそれぞれの特徴量を求める特徴量算出部と、前記オブジェクトそれぞれの前記特徴量に合わせて、前記比較対象元画像を変形したリファレンスの前記特徴量と、前記オブジェクトそれぞれの前記特徴量とに基づいて、前記オブジェクトと前記リファレンスとのマッチングを行なうことにより、前記比較対象元画像に対応するオブジェクトを検出し、前記検出したマッチング結果を出力するマッチング部と、を備えたことを特徴とする。
また、本発明に係る画像処理装置は、入力画像に含まれる画素のうち、検出対象のオブジェクトの比較対象元となる比較対象元画像に含まれる所定色の特徴量に基づいて決められた色域条件を満たす画素を抽出する画素抽出部と、前記色域条件を満たす画素が抽出された前記入力画像を二値化する二値化部と、二値化された入力画像のうち、特定の画素値の画素が連続する連続領域を単一のオブジェクトとして、一または複数のオブジェクトを特定し、特定された一または複数のオブジェクトそれぞれの特徴量を求める特徴量算出部と、前記一または複数のオブジェクトの中から、前記特徴量に基づいてオブジェクトを選別する選別部と、選別されたオブジェクトに対して、探索範囲を決定し、決定された探索範囲内に、比較元対象画像の部分画像である部分リファレンス画像と一致する前記オブジェクトの一部が存在するか否かを判定する部分マッチング処理を繰り返し実行することにより、前記比較対象元画像に対応するオブジェクトを検出し、前記検出したマッチング結果を出力するマッチング部と、を備えたことを特徴とする。
また、本発明に係る画像処理方法は、入力画像に含まれる画素のうち、検出対象のオブジェクトの比較対象元となる比較対象元画像に含まれる所定色の特徴量に基づいて決められた色域条件を満たす画素を抽出するステップと、前記色域条件を満たす画素が抽出された前記入力画像を二値化するステップと、二値化された入力画像のうち、特定の画素値の画素が連続する連続領域を単一のオブジェクトとして、一または複数のオブジェクトを特定し、特定された一または複数のオブジェクトそれぞれの特徴量を求めるステップと、前記オブジェクトそれぞれの前記特徴量に合わせて、前記比較対象元画像を変形したリファレンスの前記特徴量と、前記オブジェクトそれぞれの前記特徴量とに基づいて、前記オブジェクトと前記リファレンスとのマッチングを行なうことにより、前記比較対象元画像に対応するオブジェクトを検出し、前記検出したマッチング結果を出力するステップとを含むことを特徴とする。
本発明の一つの様態によれば、画像に含まれる特定のオブジェクトの検出において、処理負荷及び処理時間を削減することができるという効果を奏する。
図1は、実施の形態1に係る画像処理装置の構成例を示す図である。 図2は、入力画像の例を示すイメージ図である。 図3は、画素抽出時の入力画像の例を示すイメージ図である。 図4は、二値化時の入力画像の例を示すイメージ図である。 図5は、各オブジェクトの特徴量の例を示す図である。 図6は、オブジェクトを選別する例を示すイメージ図である。 図7は、リファレンス画像を生成する例を示すイメージ図である。 図8は、マッチング処理時の例を示すイメージ図である。 図9は、各オブジェクトの適合率の例を示す図である。 図10は、マッチング結果の例を示すイメージ図である。 図11は、実施の形態1に係るオブジェクト検出処理の流れの例を示すフローチャートである。 図12は、実施の形態2に係る画像処理装置の構成例を示す図である。 図13Aは、変換前の輝度ヒストグラムの例を示す図である。 図13Bは、変換後の輝度ヒストグラムの例を示す図である。 図14は、実施の形態2に係るオブジェクト検出処理の流れの例を示すフローチャートである。 図15Aは、入力画像の右側の領域を除外する例を示す図である。 図15Bは、入力画像の右側及び下側の領域を除外する例を示す図である。 図16は、入力画像の一部領域を除外するときのオブジェクト検出処理の流れの例を示すフローチャートである。 図17は、リファレンス画像に合わせてオブジェクトを変形する例を示すイメージ図である。 図18は、リファレンス画像に合わせてオブジェクトを変形するときのオブジェクト検出処理の流れの例を示すフローチャートである。 図19は、実施の形態4の画像処理装置の機能的構成を示すブロック図である。 図20は、実施の形態4において入力画像に対して画素抽出処理からオブジェクトの特徴量算出処理までを行った状態を示す説明図である。 図21は、オブジェクトごとのラベル、二値化された入力画像上におけるオブジェクトの位置座標、特徴量を示す説明図である。 図22は、オブジェクトの選別結果の一例を示す図である。 図23は、部分リファレンス画像の一例を示す図である。 図24は、コーナー(2)、(3)の各探索範囲の一例を示す図である。 図25は、オブジェクトのコーナー(1)が探索された結果の一例を示す図である。 図26は、コーナー(1)、(2)、(3)の探索結果を示す図である。 図27は、コーナー(1)、(2)、(3)のマッチング処理の結果としての位置座標の一例を示す図である。 図28は、逆三角形のオブジェクトの検出結果の一例を示す図である。 図29は、実施の形態4に係るオブジェクト検出処理の流れの例を示すフローチャートである。 図30は、実施の形態5の画像処理装置の機能的構成を示すブロック図である。 図31は、実施の形態5に係るオブジェクト検出処理の流れの例を示すフローチャートである。
以下に添付図面を参照して、本発明に係る画像処理装置及び画像処理方法の実施の形態を説明する。なお、以下の実施の形態により本発明が限定されるものではない。また、各実施の形態は、内容を矛盾させない範囲で適宜組み合わせることができる。
(実施の形態1)
[実施の形態1に係る画像処理装置の構成]
図1を用いて、実施の形態1に係る画像処理装置の構成を説明する。図1は、実施の形態1に係る画像処理装置の構成例を示す図である。例えば、図1に示すように、画像処理装置100は、画素抽出部101と、二値化部102と、特徴量算出部103と、選別部104と、リファレンス生成部105と、マッチング部106とを有し、画像に含まれる特定のオブジェクトを検出する。
画素抽出部101は、入力画像の画素のうち、所定の色域条件を満たす画素を抽出する。例えば、画素抽出部101は、画像処理装置100に入力された入力画像において、検出対象のオブジェクトの比較対象元となる比較対象元画像の色に応じた色域条件を満たす画素を抽出する。かかる色域条件とは、比較対象元画像に含まれる所定色の画素値に基づいて決められた条件である。
入力をRGB形式、ビット精度を8ビットとしたときの、赤色系、青色系、黄色系及び緑色系それぞれの色域条件の例を挙げる。なお、各色系の条件はAND条件である。
赤色系の色域条件
Rデータ>128
Rデータ>Gデータ×3
Rデータ>Bデータ×3 ・・・(条件1)
青色系の色域条件
Bデータ>128
Bデータ>Gデータ
Bデータ>Rデータ×3 ・・・(条件2)
黄色系の色域条件
Gデータ>128
Rデータ>128
Bデータ<64 ・・・(条件3)
緑色系の色域条件
Gデータ>128
Gデータ>Rデータ×3
Gデータ>Bデータ ・・・(条件4)
例えば、(条件1)は、R(レッド)データの画素値が128より大きく、且つ、Rデータの画素値がG(グリーン)データの画素値の3倍より大きく、且つ、Rデータの画素値がB(ブルー)データの画素値の3倍より大きいという条件を意味している。
ここで、図2及び図3を用いて、入力画像から色域条件を満たす画素を抽出する例を説明する。図2は、入力画像の例を示すイメージ図である。また、図3は、画素抽出時の入力画像の例を示すイメージ図である。例えば、図2に示すように、画像処理装置100に入力される入力画像には、色、形状及び大きさの異なる複数のオブジェクトが含まれている。詳細には、図2に示した入力画像には、赤色系であるオブジェクトが6つ、緑色系であるオブジェクトが1つ、青色系であるオブジェクトが1つ含まれている。図2に示した入力画像の画素のうち、赤色系の画素を抽出する場合を例に挙げると、画素抽出部101は、入力画像を1画素ずつ探索していき、上記(条件1)の赤色系の色域条件を満たす画素を抽出する。この結果、画素抽出部101は、図3に示す赤色系の6つのオブジェクトに相当する画素を抽出する。
二値化部102は、色域条件を満たす画素が抽出された入力画像を二値化する。例えば、二値化部102は、画素抽出部101によって抽出された特定色系の画素のみを含む入力画像を二値化する。特徴量算出部103は、二値化された入力画像の画素の中から、特定の画素値の画素が連続する連続領域(連結領域)を、単一のオブジェクトとして特定し、特定したオブジェクトごとに互いに異なるラベルを付与するラベリング処理を行う。そして、特徴量算出部103は、ラベルごとの各オブジェクトの特徴量を求める。
例えば、特徴量算出部103は、二値化部102によって二値化された画素のうち特定の画素値である黒の画素が連続する連続領域を単一のオブジェクトとして特定して、当該オブジェクトごとに番号のラベルを付与する。そして、特徴量算出部103は、ラベルが付与された各オブジェクトについて、入力画像におけるオブジェクトの位置、オブジェクトの幅、オブジェクトの高さ又はオブジェクトの画素数等である特徴量を求める。
ここで、図4及び図5を用いて、色域条件を満たす画素が抽出された入力画像を二値化し、画素の連続領域を1つのオブジェクトとして、各オブジェクトの特徴量を求める例を説明する。図4は、二値化時の入力画像の例を示すイメージ図である。また、図5は、各オブジェクトの特徴量の例を示す図である。
例えば、図4に示すように、二値化部102は、画素抽出部101によって抽出された赤色系の画素のみを含む入力画像を二値化する。また、特徴量算出部103は、二値化部102によって二値化された画素から、互いに隣接或いは近接した画素同士で、黒の画素が連続する連続領域を単一のオブジェクトとして特定して、当該オブジェクトごとに番号のラベルを付与する。
図4では、赤色系の画素を二値化により黒色にして、黒の部分が縦方向及び横方向に連続した画素の一塊を連続領域としてそれぞれに番号のラベルを付与することにより、赤色系のオブジェクト1〜オブジェクト6を決定している。また、図5に示すように、特徴量算出部103は、オブジェクト1〜オブジェクト6それぞれについて、入力画像におけるオブジェクトの水平位置や垂直位置、オブジェクトの幅、オブジェクトの高さ又はオブジェクトの画素数等の特徴量を求める。特徴量の例を挙げると、オブジェクト1の特徴量は、水平位置「15」、垂直位置「57」、幅「43」、高さ「42」及び画素数「915」である。また、オブジェクト5の特徴量は、水平位置「69」、垂直位置「83」、幅「61」、高さ「74」及び画素数「154」である。
選別部104は、特徴量が所定条件を満たすオブジェクトを選別する。例えば、選別部104は、微小な画素数であるオブジェクトはノイズである可能性があるため、特徴量算出部103によって求められた各オブジェクトを構成する画素の画素数が所定値以上であるオブジェクトを選別することにより、ノイズであるオブジェクトを検出対象から除外する。
ここで、図6を用いて、画素数が所定値以上であるオブジェクトを選別する例を説明する。図6は、オブジェクトを選別する例を示すイメージ図である。例えば、図6に示すように、選別部104は、特徴量算出部103によって求められた各オブジェクトの画素数(図5参照)が「256」以上であるオブジェクト「オブジェクト1〜オブジェクト4」を選別する。これにより、ノイズの可能性があるオブジェクト「オブジェクト5〜オブジェクト6」は、検出対象から除外される。なお、画素数の所定値は、「256」に限られるものではない。
また、オブジェクトを選別するための特徴量の所定条件も、オブジェクトの画素数に限定されるものではない。例えば、オブジェクトを選別するための特徴量の所定条件として、オブジェクトの幅や高さを採用するように選別部104を構成することができる。ここで、幅、高さは画素数で示されるものとする。
例えば、選別部104は、オブジェクトの幅>8画素、オブジェクトの高さ>8画素を、選別のための特徴量の所定条件として設定することができる。
リファレンス生成部105は、選別されたオブジェクトそれぞれの特徴量に合わせて比較対象元画像を変形したリファレンス画像を生成する。例えば、リファレンス生成部105は、選別部104によって選別されたオブジェクトそれぞれの幅及び高さに合わせて、比較対象元画像を変形し、変形した矩形領域をリファレンス画像として生成する。また、生成されるリファレンス画像は、二値化されたデータであるものとする。
ここで、図7を用いて、リファレンス画像を生成する例を説明する。図7は、リファレンス画像を生成する例を示すイメージ図である。なお、図7に示すオブジェクトは、選別部104によって選別されたオブジェクト1である。例えば、図7に示すように、リファレンス生成部105は、選別部104によって選別されたオブジェクト1の幅「43」及び高さ「42」に合わせて、比較対象元画像を変形する。そして、リファレンス生成部105は、オブジェクト1に合わせて変形した比較対象元画像の矩形領域をリファレンス画像とする。なお、リファレンス生成部105は、オブジェクト2〜オブジェクト4それぞれについても同様に、幅及び高さに合わせて比較対象元画像を変形してリファレンス画像を生成する。
マッチング部106は、リファレンス画像の特徴量と、選別されたオブジェクトそれぞれの特徴量とに基づいて、オブジェクトとリファレンス画像とのマッチングを行なう。例えば、マッチング部106は、リファレンス生成部105によって生成されたリファレンス画像に含まれる画素と、該リファレンス画像の画素位置に対応した、選別部104によって選別された各オブジェクトに含まれる画素とを比較する。そして、マッチング部106は、リファレンス画像の画素位置と各オブジェクトの画素位置とが一致するか否かにより適合率を算出する。これにより、マッチング部106は、適合率が所定閾値以上となったオブジェクトを検出対象のオブジェクト、すなわち比較対象元画像に対応するオブジェクトとして検出し、マッチング結果を出力する。
ここで、図8〜図10を用いて、マッチング処理の例を説明する。図8は、マッチング処理時の例を示すイメージ図である。図9は、各オブジェクトの適合率の例を示す図である。図10は、マッチング結果の例を示すイメージ図である。
例えば、図8に示すように、マッチング部106は、各オブジェクト「オブジェクト1〜オブジェクト4」に合わせて、リファレンス生成部105によって生成されたリファレンス画像と、選別部104によって選別された各オブジェクトとについて、同一位置の画素が合致するか否かにより適合率を算出する。マッチング部106によって算出される適合率は、図9に示すように、オブジェクト1の適合率「97」、オブジェクト2の適合率「72」、オブジェクト3の適合率「79」、オブジェクト4の適合率「77」となる。これらの結果、図10に示すように、マッチング部106は、算出した適合率が所定閾値、例えば90パーセント以上であるオブジェクト「オブジェクト1」をマッチング結果として検出する。
[実施の形態1に係るオブジェクト検出処理フロー]
次に、図11を用いて、実施の形態1に係るオブジェクト検出処理の流れについて説明する。図11は、実施の形態1に係るオブジェクト検出処理の流れの例を示すフローチャートである。
例えば、図11に示すように、画素抽出部101は、画像処理装置100に画像が入力された場合に(ステップS101:Yes)、入力画像に含まれる画素から、赤色系、青色系、黄色系又は緑色系等の所定の色域条件を満たす画素を抽出する(ステップS102)。所定の色域条件は、比較対象元画像の色に応じて異なる。一方、画素抽出部101は、画像処理装置100に画像が入力されない場合に(ステップS101:No)、入力画像の入力待ちの状態となる。
また、二値化部102は、画素抽出部101によって抽出された特定色系の画素のみを含む入力画像を二値化する(ステップS103)。また、特徴量算出部103は、二値化部102によって二値化された入力画像に含まれる画素の縦方向及び横方向に連続した一塊を連続領域として、それぞれに番号のラベルを付与することにより該連続領域それぞれを1つのオブジェクトとする(ステップS104)。続いて、特徴量算出部103は、各オブジェクトの入力画像における水平位置や垂直位置、オブジェクトの幅、オブジェクトの高さ又はオブジェクトの画素数等である特徴量を求める(ステップS105)。
また、選別部104は、各オブジェクトのうち、特徴量算出部103によって求められた画素数が所定値以上であるオブジェクトを選別することにより、ノイズの可能性があるオブジェクトを検出対象から除外する(ステップS106)。
また、リファレンス生成部105は、選別部104によって選別されたオブジェクトそれぞれの幅及び高さに合わせて比較対象元画像を変形し、変形した比較対象元画像の矩形領域をリファレンス画像として生成する(ステップS107)。また、マッチング部106は、リファレンス生成部105によって生成されたリファレンス画像に含まれる画素と、該リファレンス画像の画素位置に対応した、選別部104によって選別された各オブジェクトに含まれる画素とを比較して、一致するか否かにより適合率を算出し、適合率が所定閾値以上であるオブジェクトを検出してマッチング結果を出力する(ステップS108)。
[実施の形態1による効果]
上述したように、画像処理装置100は、入力画像に含まれる特定のオブジェクトを検出する場合に、元画像の色に応じた色域条件を満たす画素を抽出して二値化し、二値化した画素の連続領域を1つのオブジェクトとして各オブジェクトの特徴量を求める。また、画像処理装置100は、特徴量が所定条件を満たすオブジェクトを選別し、選別したオブジェクトの特徴量に合わせて元画像を変形することでリファレンス画像を生成し、生成したリファレンス画像と選別したオブジェクトとの特徴量をもとにマッチングを行なう。これらの結果、画像処理装置100は、画像に含まれる特定のオブジェクトの検出において、処理負荷及び処理時間を削減することができる。換言すると、画像処理装置100は、画像に含まれるオブジェクトの検出において、ある程度の絞込みを行なったうえでリファレンス画像とオブジェクトとのマッチングを行なうので、入力画像を1画素ずつ探索することでオブジェクトを検出する従来技術と比較して、処理負荷及び処理時間を削減することができる。
(実施の形態2)
上記実施の形態1では、入力画像に含まれる画素の連続領域を1つのオブジェクトとして各オブジェクトの特徴量を求める場合を説明したが、画素値が偏った分布である入力画像に対して画素値を変換した後にオブジェクトの特徴量を求めても良い。そこで、実施の形態2では、画素値が偏った分布である入力画像に対して画素値を変換した後にオブジェクトの特徴量を求める場合を説明する。
[実施の形態2に係る画像処理装置の構成]
図12を用いて、実施の形態2に係る画像処理装置の構成を説明する。図12は、実施の形態2に係る画像処理装置の構成例を示す図である。なお、図12では、実施の形態1に係る画像処理装置100と同様の機能を有する構成については同一の符号を付し、その詳細な説明を省略する場合がある。
例えば、図12に示すように、画像処理装置200は、画素抽出部101と、二値化部202と、特徴量算出部103と、選別部104と、リファレンス生成部105と、マッチング部106とを有し、画像に含まれる特定のオブジェクトを検出する。
二値化部202は、入力画像の画素値が所定範囲に偏った分布であるか否かを判定する。ここで、入力画像の画素値が所定範囲に偏った分布であるか否かの判定は、二値化部202が、入力画像を構成する全ての画素の画素値が、画素値の取り得る値の全範囲より狭い一定の範囲内に限定されているか否かを判定することにより行なわれる。そして、二値化部202は、入力画像の画素値が所定範囲に偏った分布である場合に、入力画像の画素値分布を現在の偏った画素値分布よりも広い範囲に変換し、画素値分布を変換した入力画像を二値化する。なお、二値化部202による二値化は、画素抽出部101によって抽出された画素のみを含む入力画像に対して行なわれる。これらの後、特徴量算出部103は、二値化部202によって二値化された入力画像に含まれる画素のうち上記連続領域を1つのオブジェクトとして、各オブジェクトの特徴量を求める。なお、実施の形態2では、画素値の一例として輝度を挙げて説明する。
例えば、二値化部202は、画素抽出部101によって抽出された特定色系の画素のみを含む入力画像の輝度値が所定範囲に偏った分布である場合に、輝度分布を広い範囲に変換する。すなわち、輝度値が所定範囲に偏った分布になっている入力画像は全体的に明るい部分又は暗い部分が多くなっているため、各オブジェクトのコントラストや明るさ等を補正して正規化することにより、明るい部分や暗い部分に存在するオブジェクトを明瞭にする。これにより、マッチング部106によって算出される適合率が低下することを抑制することができる。そして、二値化部202は、輝度分布を変換した入力画像を二値化する。
また、例えば、特徴量算出部103は、二値化部202によって二値化された入力画像に含まれる画素から、互いに隣接或いは近接した画素同士を連続領域として、連続領域を1つのオブジェクトとする。そして、特徴量算出部103は、各オブジェクトについて、入力画像におけるオブジェクトの位置、オブジェクトの幅、オブジェクトの高さ又はオブジェクトの画素数等である特徴量を求める。
ここで、図13A及び図13Bを用いて、入力画像の輝度分布を変換する例を説明する。図13Aは、変換前の輝度ヒストグラムの例を示す図である。また、図13Bは、変換後の輝度ヒストグラムの例を示す図である。なお、図13A及び図13Bに示すヒストグラムの縦軸は度数、横軸は画素値(輝度値)を表している。
例えば、図13Aに示すように、二値化部202は、輝度分布が輝度値(画素値)約30〜約200等の所定範囲に偏った分布である場合に、該分布における輝度の最小値「L」及び輝度の最大値「H」と、変換対象の輝度値「x」とに基づいて、変換後の輝度値「P」を以下の(数1)により算出する。
P=(x−L)*255/(H−L) ・・・(数1)
各輝度値について「P」を求めることにより、図13Bに示すように、二値化部202は、0〜255の範囲に伸張された輝度ヒストグラムを得ることができる。これらの後、二値化部202は、伸張した輝度ヒストグラムを有する入力画像を二値化する。また、特徴量算出部103は、二値化部202によって二値化された入力画像のうち、特定の画素値が連続する連続領域を1つのオブジェクトとして、各オブジェクトの特徴量を求める。
[実施の形態2に係るオブジェクト検出処理フロー]
次に、図14を用いて、実施の形態2に係るオブジェクト検出処理の流れについて説明する。図14は、実施の形態2に係るオブジェクト検出処理の流れの例を示すフローチャートである。なお、実施の形態1に係るオブジェクト検出処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS201とステップS202とは、ステップS101とステップS102とにおける処理と同様である。また、ステップS205〜ステップS210は、ステップS103〜ステップS108における処理と同様である。
例えば、図14に示すように、二値化部202は、画素抽出部101によって抽出された特定色系の画素のみを含む入力画像の輝度値が所定範囲に偏った分布である場合に(ステップS203:Yes)、該分布における輝度の最小値「L」及び輝度の最大値「H」と、変換対象の輝度値「x」とに基づいて、変換後の輝度値「P」を(数1)により算出することにより、輝度分布を変換する(ステップS204)。そして、二値化部202は、輝度分布を変換した入力画像を二値化する(ステップS205)。また、特徴量算出部103は、二値化部202によって二値化された入力画像に含まれる画素の連続領域を1つのオブジェクトとして(ステップS206)、各オブジェクトの特徴量を求める(ステップS207)。
一方、二値化部202は、画素抽出部101によって抽出された特定色系の画素のみを含む入力画像の輝度値が所定範囲に偏っていない分布である場合に(ステップS203:No)、輝度分布を変換することなく、該入力画像を二値化する(ステップS205)。また、特徴量算出部103は、二値化部202によって二値化された入力画像に含まれる画素の連続領域を1つのオブジェクトとして(ステップS206)、各オブジェクトの特徴量を求める(ステップS207)。
[実施の形態2による効果]
上述したように、画像処理装置200は、明るい又は暗い画素値の偏りを有する入力画像に対して、輝度分布を変換したうえで各オブジェクトを抽出するので、オブジェクトとリファレンス画像とのマッチングにおける適合率の精度低下を抑制し、より高精度にオブジェクトを検出することができる。
(実施の形態3)
さて、これまで本発明に係る画像処理装置100や画像処理装置200の実施の形態について説明したが、上述した実施の形態以外にも種々の異なる形態にて実施されてよいものである。そこで、(1)入力画像の一部領域を除外、(2)リファレンス画像に合わせてオブジェクトを変形、(3)構成、について異なる実施の形態を説明する。
(1)入力画像の一部領域を除外
上記実施の形態1又は2では、入力画像の全ての領域において色域条件を満たす画素を抽出する場合を説明したが、入力画像の一部領域を除いて色域条件を満たす画素を抽出することもできる。図15Aは、入力画像の右側の領域を除外する例を示す図である。また、図15Bは、入力画像の右側及び下側の領域を除外する例を示す図である。
例えば、図15A又は図15Bに示すように、画素抽出部101は、画像処理装置100に入力された入力画像の右側の領域や、右側及び下側の領域等を除外して、比較対象元画像の色に応じた色域条件を満たす画素を抽出する。この結果、画像処理装置100は、マッチングを行なう対象のオブジェクト数を減らすことにより、処理負荷及び処理時間をさらに削減することができる。
図16は、入力画像の一部領域を除外するときのオブジェクト検出処理の流れの例を示すフローチャートである。なお、実施の形態1に係るオブジェクト検出処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS301は、ステップS101における処理と同様である。また、ステップS303〜ステップS309は、ステップS102〜ステップS108における処理と同様である。
例えば、図16に示すように、画素抽出部101は、画像処理装置100に画像が入力された場合に(ステップS301:Yes)、入力画像の右側の領域等の一部領域を除外する(ステップS302)。そして、画素抽出部101は、一部領域を除外した入力画像に含まれる画素から、赤色系、青色系、黄色系又は緑色系等の所定の色域条件を満たす画素を抽出する(ステップS303)。以降、画像処理装置100は、一部領域を除外した入力画像に対して各オブジェクトの特徴量を求め、各オブジェクトとリファレンス画像とのマッチングを行なうことになる。
すなわち、画像処理装置100を車両に搭載して、道路標識等のオブジェクトを検出させる場合には、道路標識が入力画像内の所定位置に存在することが多いことから、該所定位置を含む領域に存在するオブジェクトのみを検出させれば良い。この結果、画像処理装置100は、車両の走行中や停止中等のあらゆる場面での動画撮像により入力画像が入力され、該入力画像に含まれる道路標識を検出する場合に有用であり、入力画像の一部領域を除外して道路標識を検出するので、検出に係る処理負荷及び処理時間を削減することができる。
(2)リファレンス画像に合わせてオブジェクトを変形
また、上記実施の形態1又は2では、オブジェクトの特徴量に合わせて比較対象元画像を変形することでリファレンス画像を生成する場合を説明したが、生成されたリファレンス画像の特徴量に合わせてオブジェクトそれぞれを変形することもできる。リファレンス画像に合わせてオブジェクトを変形する処理は、例えば、車両の走行中における動画撮像により次々に入力画像が1フレームずつ入力され、入力画像から道路標識等のオブジェクトを検出する場合に有用である。
具体的に、車両の走行中は、検出対象のオブジェクトが序々に大きくなっていくため、大きなオブジェクトに合わせてリファレンス画像を生成するよりも、それまでに生成したリファレンス画像に合わせてオブジェクトを変形した方が処理負荷を軽減できる。但し、あまりに小さなリファレンス画像に合わせてオブジェクトを変形すると、適合率の精度が低くなる可能性があるため、ある程度の大きさを有するオブジェクトが入力画像に含まれるようになった等の所定のタイミングで、リファレンス画像に合わせてオブジェクトを変形した方が好ましい。すなわち、この所定のタイミングでは、それまでに生成されたリファレンス画像もある程度の大きさになっている。このため、ある程度の大きさを有するリファレンス画像に合わせてオブジェクトを変形していくことで、適合率の精度を高く維持しつつ、処理負荷及び処理時間を削減することができる。
図17は、リファレンス画像に合わせてオブジェクトを変形する例を示すイメージ図である。例えば、図17に示すように、リファレンス生成部105は、所定のタイミングで、それまでに生成されたリファレンス画像の特徴量である幅及び高さに合わせて、オブジェクトを変形する。また、マッチング部106は、リファレンス生成部105によって生成されたリファレンス画像に含まれる画素と、該リファレンス画像の画素位置に対応した、リファレンス画像に合わせて変形された各オブジェクトに含まれる画素とを比較する。そして、マッチング部106は、リファレンス画像の画素位置と各オブジェクトの画素位置とが一致するか否かにより適合率を算出する。これにより、マッチング部106は、適合率が所定閾値以上となったオブジェクトを検出対象のオブジェクト、すなわち比較対象元画像に対応するオブジェクトとして検出し、マッチング結果を出力する。
図18は、リファレンス画像に合わせてオブジェクトを変形するときのオブジェクト検出処理の流れの例を示すフローチャートである。なお、実施の形態1に係るオブジェクト検出処理と同様の処理についてはその説明を省略する場合がある。具体的には、ステップS401〜ステップS406は、ステップS101〜ステップS106における処理と同様である。
例えば、図18に示すように、リファレンス生成部105は、所定のタイミングである場合に(ステップS407:Yes)、選別部104によって選別されたオブジェクトそれぞれを、それまでに生成されたリファレンス画像に合わせて変形する(ステップS409)。これにより、マッチング部106は、リファレンス生成部105によって生成されたリファレンス画像に含まれる画素と、該リファレンス画像の画素位置に対応した、リファレンス画像に合わせて変形された各オブジェクトに含まれる画素とを比較して、一致するか否かにより適合率を算出し、適合率が所定閾値以上であるオブジェクトを検出してマッチング結果を出力する(ステップS410)。
一方、リファレンス生成部105は、所定のタイミングではない場合に(ステップS407:No)、実施の形態1と同様に、選別部104によって選別されたオブジェクトそれぞれの幅及び高さに合わせて比較対象元画像を変形し、変形した比較対象元画像の矩形領域をリファレンス画像として生成する(ステップS408)。また、マッチング部106は、リファレンス生成部105によって生成されたリファレンス画像に含まれる画素と、該リファレンス画像の画素位置に対応した、選別部104によって選別された各オブジェクトに含まれる画素とを比較して、一致するか否かにより適合率を算出し、適合率が所定閾値以上であるオブジェクトを検出してマッチング結果を出力する(ステップS410)。
(3)構成
また、上記文書中や図面中等で示した処理手順、制御手順、具体的名称、各種のデータやパラメタ等を含む情報は、特記する場合を除いて任意に変更することができる。例えば、(条件1)〜(条件4)の色域条件は一例であり、カメラの性能、カメラの方向、天候、時間帯等の状況に応じてその条件は異なる。また、色域条件は、RGB形式を利用したものに限られるものではない。
また、図示した画像処理装置100又は画像処理装置200の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は、図示のものに限られず、その全部又は一部を各種の負担や使用状況などに応じて、任意の単位で機能的または物理的に分散又は統合することができる。例えば、リファレンス生成部105とマッチング部106とを、オブジェクトに合わせて元画像を変形したリファレンス画像を生成し、オブジェクトとリファレンス画像との特徴量に基づいて、オブジェクトとリファレンス画像とのマッチングを行なう「マッチング部」として統合しても良い。また、例えば、二値化部102と特徴量算出部103とを、画素抽出部101によって抽出された画素を含む入力を二値化し、二値化された入力画像に含まれる画素の連続領域を1つのオブジェクトとして、各オブジェクトの特徴量を求める「特徴量算出部」として統合しても良い。
また、上記実施の形態では、色域条件を満たす画素が抽出された入力画像を二値化し、二値化した画素の連続領域を1つのオブジェクトとして各オブジェクトの特徴量を求め、特徴量が所定条件を満たすオブジェクトを選別して、オブジェクトに合わせて変形したリファレンス画像とオブジェクトとのマッチングを行なう画像処理装置100を例に挙げた。本発明は、入力画像に含まれる画素の連続領域を1つのオブジェクトとして各オブジェクトの特徴量を求め、オブジェクトに合わせて変形したリファレンス画像とオブジェクトとのマッチングを行なうだけでも、マッチングにおいて入力画像を1画素ずつ探索しなくても良いため、処理負荷及び処理時間の削減を見込める。これらのように、上述してきた各機能は、任意の単位で機能的又は物理的に分散又は統合することができる。また、画像処理装置100や画像処理装置200は、車両に搭載して道路標識等のオブジェクトを検出するだけでなく、入力画像に含まれる特定のオブジェクトを検出するあらゆる技術に適用することができる。
(実施の形態4)
実施の形態1〜3の画像処理装置100,200では、オブジェクトの全体に対してリファレンス画像とのマッチングを行っていたが、この実施の形態4にかかる画像処理装置は、オブジェクトの一部に対して所定の部分リファレンス画像とマッチングする部分マッチングを繰り返し実行するものである。
[実施の形態4に係る画像処理装置の構成]
図19は、実施の形態4の画像処理装置1900の機能的構成を示すブロック図である。本実施の形態の画像処理装置1900は、図19に示すように、画素抽出部101と、二値化部102と、特徴量算出部103と、選別部104と、マッチング部1906と、リファレンス記憶部1905とを主に備えている。ここで、画素抽出部101、二値化部102、特徴量算出部103、選別部104の機能は実施の形態1〜3と同様である。
本実施の形態では、選別部104は、実施の形態1で説明したとおり、オブジェクトを選別するための特徴量の所定条件として、オブジェクトを構成する画素の画素数、オブジェクトの幅、オブジェクトの高さを用いている。
例えば、選別部104は、所定条件として、オブジェクトの画素数>64画素、オブジェクトの幅>8画素、オブジェクトの高さ>8画素を満たすオブジェクトをラベルが付与されたオブジェクトから選別する。
図20は、実施の形態4において入力画像に対して画素抽出処理からオブジェクトの特徴量算出処理までを行った状態を示す説明図である。画素抽出部101が入力画像から上述の色域条件で所定の色の画素を抽出し、図20(a)に示す画像が得られる。二値化部102は、図20(a)に示す画像を二値化して、図20(b)に示す画像を出力する。そして、特徴量算出部103が、図20(b)の二値化された画像から、黒の画素が連続する領域を1つのオブジェクトとして特定し、各オブジェクトにラベル(1〜6)を付与する。図20(c)は、ラベルとともにオブジェクトを示している。
さらに、特徴量算出部103は、図20(c)に示すようなラベルが付与されたオブジェクトごとにオブジェクトの画素数、幅、高さ等の特徴量を算出する。図21は、オブジェクトごとのラベル、二値化された入力画像上におけるオブジェクトの位置座標(水平位置x、垂直位置y)、オブジェクトごとに算出された特徴量(幅、高さ、画素数)を示す説明図である。
そして、選別部104は、図20(c)に示すオブジェクトから、図21に示す特徴量に対する所定条件として、オブジェクトの画素数>64画素、オブジェクトの幅>8画素、オブジェクトの高さ>8画素を満たすオブジェクトを、ラベルが付与されたオブジェクトから選別し、この結果、図22に示すように、ラベル「3」のオブジェクト以外のオブジェクトが選別される。
ここで、図20(c)に示すように、ラベル4のオブジェクトとラベル5のオブジェクトは、二つのオブジェクトとして認識されているが、本来は、図20(a)に示すように、例えば、道路標識等を撮像して得られた逆三角形の画像2001、すなわち一つのオブジェクトとして特定されるべき画像である。しかしながら、撮像対象たる道路標識等の手前に障害物が存在したり、道路標識等に付着した汚れ等が原因で画像に縦のすじが現れると、2つのオブジェクトとして認識されてしまう結果、実施の形態1〜3の手法では、符号2001のオブジェクトのマッチングを行うことが困難となっている。
このため、本実施の形態では、本来、一つのオブジェクトとして特定されるべき画像が撮像対象に対する付着物や劣化、あるいは撮像条件等の種々の事情により、二つのオブジェクトとして特定されている場合であっても、部分マッチングを行うことにより、オブジェクトの正確な検出を可能としている。
図19に戻り、リファレンス記憶部1905は、部分リファレンス画像を複数記憶するメモリやハードディスクドライブ装置(HDD)等の記憶媒体である。ここで、部分リファレンス画像は、探索対象となるオブジェクトごとに、オブジェクトの一部の形状に対応するパターン画像であり、一部の数に対応した数だけリファレンス記憶部1905に記憶されている。
マッチング部1906は、選別部104によって選別されたオブジェクトに対して、探索範囲を決定し、決定された探索範囲内に、オブジェクトの一部に対応する部分リファレンス画像と一致するオブジェクトの一部が存在するか否かを判定する部分マッチング処理を、上記一部の数だけ繰り返し実行する。探索するオブジェクトの一部としては任意の部分とすることができる。例えば、部分マッチング処理において、決定された探索範囲内に、部分リファレンス画像と一致するオブジェクトのコーナー(角部)が存在するか否かを判定するようにオブジェクトの一部を構成することができる。この場合、リファレンス記憶部1905には、探索対象となるオブジェクトごとに、オブジェクトのコーナー(角部)の形状に対応する部分リファレンス画像が記憶される。
また、マッチング部1906は、以前実行したオブジェクトの他の部分の部分マッチング処理の処理結果、より具体的には探索結果としての探索された一部の入力画像上における位置座標を用いて、次の部分マッチング処理のための探索範囲を決定し、当該探索範囲内で次の部分マッチング処理を実行する。
マッチング部1906は、部分リファレンス画像の特徴量と、探索範囲内のオブジェクトの一部それぞれの特徴量とに基づいて、オブジェクトの一部と部分リファレンス画像とのマッチングを行なう。例えば、マッチング部1906は、部分リファレンス画像に含まれる画素と、探索範囲内に含まれ、かつ該部分リファレンス画像の画素位置に対応した、選別部104によって選別された各オブジェクトの一部に含まれる画素とを比較する。そして、マッチング部1906は、部分リファレンス画像の画素位置とオブジェクトの各一部の画素位置とが一致するか否かにより適合率を算出する。これにより、マッチング部1906は、適合率が所定閾値以上となった(オブジェクトの)一部を検出対象のオブジェクトの一部、すなわち部分リファレンス画像に対応する一部として検出し、部分マッチング処理結果を出力する。マッチング部1906は、この部分マッチング処理を繰り返し実行し、適合率が所定閾値以上となった一部から構成されるオブジェクトを、検出対象のオブジェクト、すなわち比較対象元画像に対応するオブジェクトとして検出し、マッチング結果を出力する。
ここで、マッチング部1906によるマッチング処理の詳細について説明する。以下では、一例として、逆三角形のオブジェクトを検出すること、部分マッチング処理で探索するオブジェクトの一部としてオブジェクトのコーナー(角部)を探索すること、さらに図20から図22の入力画像およびオブジェクトを例にあげて説明する。
本実施の形態では、マッチング部1906は、リファレンス記憶部1905に、オブジェクトの一部であるコーナー(角部)の形状の画像を部分リファレンス画像として予め保存している。
図23は、部分リファレンス画像の一例を示す図である。逆三角形のオブジェクトを検出するための部分リファレンス画像としては、図23に示すように、逆三角形の3つのコーナー(1)、(2)、(3)のそれぞれの形状に相当する画像を3つの部分リファレンス画像2301、2302、2303としてリファレンス記憶部1905に保存されている。
マッチング部1906は、まず、オブジェクトのコーナー(1)を検出するため、探索範囲をオブジェクトの全範囲と決定し、オブジェクトのコーナー(1)に対応する部分リファレンス画像2301に一致する部分を探索範囲内で探索する部分マッチング処理を実行する。この部分マッチング処理は、コーナー(2)、(3)についても繰り返し行う。マッチング部1906が探索範囲を決定する際には、前回の部分マッチングの処理結果を用いるが、同一のオブジェクトの範囲を考慮しない。言い換えれば、マッチング部1906は、決定された探索範囲内であれば、他のラベルのオブジェクトの範囲であっても、部分リファレンス画像とのマッチングを行う。これにより、ラベル4のオブジェクトおよびラベル5のオブジェクトのように、本来一つのオブジェクトとして特定されるべきオブジェクトの検出も可能となる。
図24は、コーナー(2)の探索範囲2402と、コーナー(3)の探索範囲2403の一例を示す図である。マッチング部1906は、コーナー(2)の探索範囲2402を、コーナー(1)の部分マッチング処理での処理結果により決定する。具体的には、マッチング部1906は、コーナー(1)の探索結果としてのコーナー(1)の位置座標(x1,y1)を用いた次式により、コーナー(2)の探索範囲2402を決定する。ここで、探索範囲は、(Xmin,Ymin)〜(Xmax,Ymax)の範囲で表される。
Xmin=x1−32
Xmax=x1−16
Ymin=y1−1
Ymax=y1+1
すなわち、マッチング部1906は、コーナー(2)の探索範囲2402を、コーナー(1)の位置座標を用いて、以下のように決定する。
水平左側領域:x1−32≦x2≦x1−16
垂直上下領域:y1−1≦y2≦y1+1
また、マッチング部1906は、コーナー(3)の探索範囲2403を、コーナー(1)、(2)の部分マッチング処理での探索結果により決定する。具体的には、マッチング部1906は、コーナー(1)の探索結果としてのコーナー(1)の位置座標(x1,y1)、およびコーナー(2)の探索結果としてのコーナー(2)の位置座標(x2,y2)を用いた次式により、コーナー(3)の探索範囲2403((Xmin,Ymin)〜(Xmax,Ymax))を決定する。
Xmin=x2+(x1−x2)×0.4
Xmax=x2+(x1−x2)×0.6
Ymin=y2+(x1−x2)×0.75
Ymax=y2+(x1−x2)×1.25
すなわち、マッチング部1906は、コーナー(3)の探索範囲2403を、コーナー(1)および(2)の位置座標を用いて、以下のように決定する。
水平右側領域:x2+(x1−x2)×0.4≦x3≦x2+(x1−x2)×0.6
垂直上下領域:y2+(x1−x2)×0.75≦y3≦y2+(x1−x2)×1.25
そして、マッチング部1906は、決定された探索範囲内で、オブジェクトのラベルに関係なく、言い換えれば、探索範囲内であれば他のラベルのオブジェクトの範囲であっても、部分リファレンス画像に一致するオブジェクトの一部を探索し、適合率が所定閾値以上となった場合に、コーナーの部分リファレンス画像に一致するオブジェクトのコーナーが探索されたと判断する。
図25は、図22に示すオブジェクトから、オブジェクトのコーナー(1)が探索された結果の一例を示す図である。図25に示す例では、ラベル1のオブジェクトと、ラベル5のオブジェクトで部分リファレンス画像2301に一致するコーナー(1)が探索されている。
同様に、マッチング部1906は、探索範囲2402で、コーナー(2)、(3)を探索する。この結果、ラベル1のオブジェクトと、ラベル4のオブジェクトとラベル5のオブジェクトを連結したオブジェクトのそれぞれから、コーナー(1)、(2)、(3)が探索されたものとする。図26は、コーナー(1)、(2)、(3)の探索結果を示す図である。
図27は、コーナー(1)、(2)、(3)のマッチング処理の結果としての位置座標の一例を示す図である。図27に示すように、ラベル1のオブジェクトの場合には、オブジェクト内でコーナー(1)、(2)、(3)が全て探索される。一方、ラベル5のオブジェクトでは、コーナー(1)が探索されるが、コーナー(2)は、探索範囲2402内のラベル5のオブジェクトとは異なるラベル4のオブジェクト内で探索される。さらに、コーナー(3)は、探索範囲2403内のラベル4のオブジェクトとは異なるラベル5のオブジェクト内で探索される。
このマッチング処理の結果から、図28に示すように、逆三角形のオブジェクトとして、ラベル1のオブジェクト、および、ラベル4のオブジェクトとラベル5のオブジェクトを連結したオブジェクトが探索されることになる。
ここで、コーナー(1)がラベル5のオブジェクトで探索された後、コーナー(2)の探索範囲2402を同一のラベル5のオブジェクト内に限って決定すると、コーナー(2)は探索されないこととなる。同様に、コーナー(2)がラベル4のオブジェクトで探索された後、コーナー(3)の探索範囲2403を同一のラベル4のオブジェクト内に限って決定すると、コーナー(3)は探索されないこととなる。
本実施の形態では、マッチング部1906がオブジェクトの一部の探索範囲を他のラベルのオブジェクトの範囲も含むように決定して、他のラベルのオブジェクトであっても探索範囲内であれば、オブジェクトの一部を探索しているので、ラベル4とラベル5のような2つのオブジェクトとであって本来一つのオブジェクトとして扱われるべきオブジェクトも、正確に検出することが可能となる。
[実施の形態4に係るオブジェクト検出処理フロー]
次に、図29を用いて、実施の形態4に係るオブジェクト検出処理の流れについて説明する。図29は、実施の形態4に係るオブジェクト検出処理の流れの例を示すフローチャートである。
画像の入力から各オブジェクトの特徴量の算出までの処理(ステップS501〜S505)については実施の形態1のオブジェクト検出処理におけるステップS101からS105までの処理と同様に行われる。
各オブジェクトの特徴量の算出が行われたら、選別部104は、各オブジェクトのうち、特徴量に対する所定条件(オブジェクトの画素数>64画素、オブジェクトの幅>8画素、オブジェクトの高さ>8画素)を満たすオブジェクトを、ラベルが付与されたオブジェクトから選別する(ステップS506)。これにより、ノイズの可能性があるオブジェクトが検出対象から除外される。
次に、マッチング部1906は、リファレンス記憶部1905から、探索するオブジェクトの一部に対応する部分リファレンス画像を取得する(ステップS507)。そして、マッチング部1906は、上述のとおりに、探索範囲を決定する(ステップS508)。すなわち、マッチング部1906は、最初の探索の場合には、オブジェクトの範囲を探索範囲とし、2回目以降の探索の場合には、前回までの部分マッチングの処理結果を用いて探索範囲を決定する。
次いで、マッチング部1906は、決定された探索範囲内で、オブジェクトの一部の画素と部分リファレンス画像の画素を比較して、一致するか否かにより適合率を算出し、適合率が所定閾値以上である部分を検出して部分マッチング結果(オブジェクトの一部の位置座標および適合率)を出力する(ステップS509)。
マッチング部1906は、ステップS507からS509までの処理を、検索対象のオブジェクトに対応する全ての部分リファレンス画像について完了するまで繰り返し実行する(ステップS510:No)。そして、ステップS507からS509までの処理が、検索対象のオブジェクトに対応する全ての部分リファレンス画像について完了したら(ステップS510:Yes),マッチング部1906はオブジェクト検索処理を終了する。
[実施の形態4による効果]
本実施の形態では、検索対象のオブジェクトの一部に対して部分リファレンス画像とマッチングする部分マッチング処理を繰り返し実行してオブジェクト全体の検出を行っているので、リファレンス画像やオブジェクトの画像のサイズを変更する必要がなくなり、オブジェクト検出処理の処理速度を向上させることができる。特に、オブジェクトの一部としてオブジェクトのコーナー(角部)を検出する部分マッチング処理を行う場合には、検出対象の一部分の大きさへの依存が少なくなり、検出対象の大きさにあわせてリファレンス画像を用意する必要がない。そのためオブジェクト検出処理の処理速度をより向上させることができる。
また、本実施の形態では部分マッチング処理を複数回実行することにより、オブジェクトの検出精度を向上させることができる。また、部分マッチング処理を複数回実行することにより、絞込みを行って選別を行うので、マッチング処理回数を低減することができる。
さらに、本実施の形態では、部分マッチング処理において、探索範囲を異なるオブジェクトの範囲も含むように決定して、他のラベルのオブジェクトであっても探索範囲内であれば、オブジェクトの一部を探索しているので、本来単一のオブジェクトとして扱われるべき複数のオブジェクト、例えば、オクルージョン等により分割されたオブジェクトが入力画像に存在する場合であっても、分割されていない状態のオブジェクトを正確に検出することができ、オブジェクトの検出精度をより向上させることができる。
このように本実施の形態によれば、オブジェクト検出処理の処理速度の向上と検出精度の向上の双方を実現することができる。
(実施の形態5)
実施の形態3において、入力画像の一部領域を除外して色域条件を満たす画素を抽出する例として、入力画像の右側及び下側の領域を除外する場合について説明したが、この実施の形態5では、入力画像の一部領域を除外する例として、入力画像の画素ごとの輝度を求め、輝度の値に基づいて特定色を除外するものである。
[実施の形態5に係る画像処理装置の構成]
図30は、実施の形態5の画像処理装置3000の機能的構成を示すブロック図である。本実施の形態の画像処理装置3000は、図30に示すように、画素抽出部3001と、二値化部102と、特徴量算出部103と、選別部104と、マッチング部1906と、リファレンス記憶部1905とを主に備えている。ここで、二値化部102、特徴量算出部103、選別部104、マッチング部1906、リファレンス記憶部1905の機能は、実施の形態4と同様である。
画素抽出部3001は、色域条件により抽出された色の画素からなる入力画像の画素ごとの輝度を求め、輝度の値に基づいて特定色の画素からなる一部領域を、入力画像から除外して、二値化部102に出力する。
ここで、画素抽出部3001は、実施の形態1、4の色域条件を満たす色の領域のうち、輝度の値が所定値未満であるLowである画素の色を特定色として、この特定色の画素からなる一部領域を入力画像から除外するように構成することができる。
このような手法としては、種々の公知の手法を用いることができる。例えば、画素抽出部3001は、例えば、特開2004−304578号公報に記載された大津の自動閾値判別法を用いることができる。この手法では、画素抽出部3001は、入力画像の画素の輝度成分を2値化する。そして、画素抽出部3001は、2値化後の画像の画素の輝度が所定値未満であるLowの場合に、当該色の画素を特定色の領域として入力画像から除外する。一方、画素抽出部3001は、2値化後の画像の画素の輝度が所定値以上であるHighの場合に、色選択後の画素は通過させて除外しないように構成することができる。
なお、人間の目をもってしても、ヒストグラムだけを見ただけでは最適な閾値を定めるのは容易ではない。このような場合にも、適切な閾値を自動的に選択することができる手法が大津によって提案された判別分析の基準に基づく自動閾値値選定法である(大津展之:判別および最小2乗基準に基づく自動しきい値選定法,電子通信学会論文誌D,J−63,4,p.349,1980.参照、N.Otsu,「A Threshold Selection Method from Gray−Level Histograms」IEEE Trans.Sys.,Man,and Cybernetics,SMC−9,No.1,pp.62−66,1979.、大津,「パターン認識における特徴抽出に関する数理的研究」電子技術総合研究所研究報告第818号,1981.)。
なお、輝度に基づく特定色の領域の除外手法は、これに限定されるものではない。例えば、実施の形態1、4の色域条件を満たす色の領域のうち、輝度の値が所定値以上である画素の色を特定色として、この特定色の画素からなる一部領域を入力画像から除外するように、画素抽出部3001を構成することができる。
[実施の形態5に係るオブジェクト検出処理フロー]
次に、図31を用いて、実施の形態5に係るオブジェクト検出処理の流れについて説明する。図31は、実施の形態5に係るオブジェクト検出処理の流れの例を示すフローチャートである。
まず、画素抽出部3001は、実施の形態1、4と同様に、画像処理装置3000に画像が入力された場合に(ステップS601:Yes)、入力画像に含まれる画素から、赤色系、青色系、黄色系又は緑色系等の所定の色域条件を満たす画素を抽出する(ステップS602)。一方、画素抽出部3001は、画像処理装置3000に画像が入力されない場合に(ステップS601:No)、入力画像の入力待ちの状態となる。
次に、画素抽出部3001は、色域条件により抽出された色の画素からなる入力画像の画素ごとの輝度を求め、輝度の値に基づいて特定色の画素からなる一部領域を、入力画像から削除する(ステップS603)。
上述したように、画素抽出部3001は、実施の形態1、4の色域条件を満たす色の領域のうち、輝度の値が所定値未満である画素の色を特定色として、この特定色の画素からなる一部領域を入力画像から除外したり、あるいは、輝度の値が所定値以上である画素の色を特定色として、この特定色の画素からなる一部領域を入力画像から除外する。
これ以降の処理(ステップS604〜S611)については、実施の形態4のステップS503からS510までの処理と同様に行われる。
このように本実施の形態では、色域条件により抽出された色の画素からなる入力画像の画素ごとの輝度を求め、輝度の値に基づいて特定色の画素からなる一部領域を、入力画像から除外してからマッチング処理を行っているので、オブジェクト検索処理の処理速度の向上をより図ることができる。
特に、輝度の値が所定値以上である画素の色を特定色として、この特定色の画素からなる一部領域を入力画像から除外するように構成した場合には、色帯域が狭い映像に対して、色にじみなどによる色の誤選別を防止することができ、検出対象のオブジェクトをより明瞭にすることができる。これにより、本実施の形態によれば、探索されるオブジェクトの適合率の低下を防止して、オブジェクトの検出精度をより向上させることができる。
なお、本実施の形態では、輝度の値に基づく特定色の領域の入力画像からの除外を、部分マッチング処理を行う実施の形態4に適用した例をあげて説明したが、これに限定されるものではない。すなわち、輝度の値に基づく特定色の領域の入力画像からの除外の手法を、実施の形態1〜3のマッチング処理に適用することも可能である。
実施の形態1〜5の画像処理装置100,200,1900,3000は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。
実施の形態1〜5の画像処理装置100,200,1900,3000で実行されるオブジェクト検出処理プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、実施の形態1〜5の画像処理装置100,200,1900,3000で実行されるオブジェクト検出処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、実施の形態1〜5の画像処理装置100,200,1900,3000で実行されるオブジェクト検出処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。
また、実施の形態1〜5の画像処理装置100,200,1900,3000で実行されるオブジェクト検出処理プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
実施の形態1〜5の画像処理装置100,200,1900,3000で実行されるオブジェクト検出処理プログラムは、上述した各部(画素抽出部、二値化部、特徴量算出部、選別部、リファレンス生成部、リファレンス記憶部、マッチング部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体からオブジェクト検出処理プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、画素抽出部、二値化部、特徴量算出部、選別部、リファレンス生成部、リファレンス記憶部、マッチング部が主記憶装置上に生成されるようになっている。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100,200,1900,3000 画像処理装置
101,3001 画素抽出部
102 二値化部
103 特徴量算出部
104 選別部
105 リファレンス生成部
106,1906 マッチング部
1905 リファレンス記憶部

Claims (10)

  1. 入力画像に含まれる画素のうち、検出対象のオブジェクトの比較対象元となる比較対象元画像に含まれる所定色の特徴量に基づいて決められた色域条件を満たす画素を抽出する画素抽出部と、
    前記色域条件を満たす画素が抽出された前記入力画像を二値化する二値化部と、
    二値化された入力画像のうち、特定の画素値の画素が連続する連続領域を単一のオブジェクトとして、一または複数のオブジェクトを特定し、特定された一または複数のオブジェクトそれぞれの特徴量を求める特徴量算出部と、
    前記オブジェクトそれぞれの前記特徴量に合わせて、前記比較対象元画像を変形したリファレンスの前記特徴量と、前記オブジェクトそれぞれの前記特徴量とに基づいて、前記オブジェクトと前記リファレンスとのマッチングを行なうことにより、前記比較対象元画像に対応するオブジェクトを検出し、前記検出したマッチング結果を出力するマッチング部と、
    を備えたことを特徴とする画像処理装置。
  2. 前記特徴量が所定条件を満たす前記オブジェクトを選別する選別部をさらに有し、
    前記マッチング部は、選別された前記オブジェクトそれぞれの前記特徴量に合わせて、前記比較対象元画像を変形したリファレンスの前記特徴量と、前記オブジェクトそれぞれの前記特徴量とに基づいて、前記オブジェクトと前記リファレンスとのマッチングを行なうこと、
    を特徴とする請求項1に記載の画像処理装置。
  3. 前記画素抽出部は、前記入力画像の一部領域を除いて、前記色域条件を満たす前記入力画像の前記画素を抽出することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記画素抽出部は、前記入力画像の輝度を求め、前記輝度に基づいて特定色の画素からなる前記一部領域を除くこと、
    を特徴とする請求項3に記載の画像処理装置。
  5. 前記マッチング部は、前記リファレンスの前記特徴量に合わせて、前記オブジェクトそれぞれを変形し、前記リファレンスの前記特徴量と、変形した前記オブジェクトそれぞれの前記特徴量とに基づいて、前記オブジェクトと前記リファレンスとのマッチングを行なうことを特徴とする請求項1に記載の画像処理装置。
  6. 前記二値化部は、前記入力画像の画素値が所定範囲に偏った分布である場合に、前記入力画像の画素値分布を現在の偏った画素値分布よりも広い範囲に変換し、変換した前記入力画像を二値化すること、
    を特徴とする請求項1又は2に記載の画像処理装置。
  7. 入力画像に含まれる画素のうち、検出対象のオブジェクトの比較対象元となる比較対象元画像に含まれる所定色の特徴量に基づいて決められた色域条件を満たす画素を抽出する画素抽出部と、
    前記色域条件を満たす画素が抽出された前記入力画像を二値化する二値化部と、
    二値化された入力画像のうち、特定の画素値の画素が連続する連続領域を単一のオブジェクトとして、一または複数のオブジェクトを特定し、特定された一または複数のオブジェクトそれぞれの特徴量を求める特徴量算出部と、
    前記一または複数のオブジェクトの中から、前記特徴量に基づいてオブジェクトを選別する選別部と、
    選別されたオブジェクトに対して、探索範囲を決定し、決定された探索範囲内に、比較元対象画像の部分画像である部分リファレンス画像と一致する前記オブジェクトの一部が存在するか否かを判定する部分マッチング処理を繰り返し実行することにより、前記比較対象元画像に対応するオブジェクトを検出し、前記検出したマッチング結果を出力するマッチング部と、
    を備えたことを特徴とする画像処理装置。
  8. 前記マッチング部は、前回までに実行した前記部分マッチング処理の処理結果に基づいて、次の前記部分マッチング処理のための探索範囲を決定すること、
    を特徴とする請求項7に記載の画像処理装置。
  9. 前記部分リファレンス画像は、前記オブジェクトの角部に対応する画像であり、
    前記マッチング部は、前記部分リファレンス画像と前記オブジェクトの一部としての前記オブジェクトの角部とが存在するか否かを判定する前記部分マッチング処理を、前記角部の数分繰り返し実行すること、
    を特徴とする請求項7または8に記載の画像処理装置。
  10. 入力画像に含まれる画素のうち、検出対象のオブジェクトの比較対象元となる比較対象元画像に含まれる所定色の特徴量に基づいて決められた色域条件を満たす画素を抽出するステップと、
    前記色域条件を満たす画素が抽出された前記入力画像を二値化するステップと、
    二値化された入力画像のうち、特定の画素値の画素が連続する連続領域を単一のオブジェクトとして、一または複数のオブジェクトを特定し、特定された一または複数のオブジェクトそれぞれの特徴量を求めるステップと、
    前記オブジェクトそれぞれの前記特徴量に合わせて、前記比較対象元画像を変形したリファレンスの前記特徴量と、前記オブジェクトそれぞれの前記特徴量とに基づいて、前記オブジェクトと前記リファレンスとのマッチングを行なうことにより、前記比較対象元画像に対応するオブジェクトを検出し、前記検出したマッチング結果を出力するステップと
    を含むことを特徴とする画像処理方法。
JP2012165339A 2012-01-31 2012-07-26 画像処理装置及び画像処理方法 Pending JP2013178732A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012165339A JP2013178732A (ja) 2012-01-31 2012-07-26 画像処理装置及び画像処理方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012018003 2012-01-31
JP2012018003 2012-01-31
JP2012165339A JP2013178732A (ja) 2012-01-31 2012-07-26 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2013178732A true JP2013178732A (ja) 2013-09-09

Family

ID=49270289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012165339A Pending JP2013178732A (ja) 2012-01-31 2012-07-26 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2013178732A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017130089A (ja) * 2016-01-21 2017-07-27 日本電気株式会社 局所特徴量抽出装置
CN109766831A (zh) * 2019-01-09 2019-05-17 深圳市三宝创新智能有限公司 一种道路色带识别方法、装置、计算机设备、及存储介质
CN112666175A (zh) * 2019-10-15 2021-04-16 佳能株式会社 异物检查装置和异物检查方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017130089A (ja) * 2016-01-21 2017-07-27 日本電気株式会社 局所特徴量抽出装置
CN109766831A (zh) * 2019-01-09 2019-05-17 深圳市三宝创新智能有限公司 一种道路色带识别方法、装置、计算机设备、及存储介质
CN112666175A (zh) * 2019-10-15 2021-04-16 佳能株式会社 异物检查装置和异物检查方法
JP2021063739A (ja) * 2019-10-15 2021-04-22 キヤノン株式会社 異物検査装置および異物検査方法
JP7324116B2 (ja) 2019-10-15 2023-08-09 キヤノン株式会社 異物検査装置および異物検査方法
TWI811568B (zh) * 2019-10-15 2023-08-11 日商佳能股份有限公司 異物檢查裝置和異物檢查方法
CN112666175B (zh) * 2019-10-15 2023-12-15 佳能株式会社 异物检查装置和异物检查方法

Similar Documents

Publication Publication Date Title
CN106254933B (zh) 字幕提取方法及装置
JP4396376B2 (ja) 図形読み取り方法及びその装置並びに主要色抽出方法及びその装置
JP5786495B2 (ja) 画像認識装置、画像認識方法及び画像認識用コンピュータプログラム
CN103069430B (zh) 二维码读取器及程序
US9171224B2 (en) Method of improving contrast for text extraction and recognition applications
JP5695257B1 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
WO2005084036A1 (ja) 動きベクトル検出装置、および動きベクトル検出方法、並びにコンピュータ・プログラム
US9275279B2 (en) Image processing apparatus and image processing method
US8565491B2 (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP2013042415A (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
US10438376B2 (en) Image processing apparatus replacing color of portion in image into single color, image processing method, and storage medium
CN114359323B (zh) 一种基于视觉注意机制的图像目标区域检测方法
JP4625949B2 (ja) 物体追跡方法および物体追跡装置ならびにプログラム
US20080310685A1 (en) Methods and Systems for Refining Text Segmentation Results
JP2011165170A (ja) 対象物検出装置及びプログラム
JP2013178732A (ja) 画像処理装置及び画像処理方法
JP5027201B2 (ja) テロップ文字領域検出方法,テロップ文字領域検出装置およびテロップ文字領域検出プログラム
JP5929282B2 (ja) 画像処理装置及び画像処理プログラム
JP2021196451A (ja) 画像変換装置、画像変換方法及び画像変換用コンピュータプログラム
US9607398B2 (en) Image processing apparatus and method of controlling the same
JP2003016444A (ja) パターン認識装置とそのパターン認識方法、及びパターン認識プログラム
CN109948543B (zh) 一种田间近景图像的导航线提取方法
JP2005210650A (ja) 画像処理装置
Liu et al. A Multi-Scale Neural Network for Traffic Sign Detection Based on Pyramid Feature Maps
WO2024139298A1 (zh) 图像标注方法、装置电子设备及存储介质