JP6341650B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6341650B2
JP6341650B2 JP2013240232A JP2013240232A JP6341650B2 JP 6341650 B2 JP6341650 B2 JP 6341650B2 JP 2013240232 A JP2013240232 A JP 2013240232A JP 2013240232 A JP2013240232 A JP 2013240232A JP 6341650 B2 JP6341650 B2 JP 6341650B2
Authority
JP
Japan
Prior art keywords
region
feature
size
adjacent
combined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013240232A
Other languages
English (en)
Other versions
JP2015099563A (ja
Inventor
直嗣 佐川
直嗣 佐川
矢野 光太郎
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013240232A priority Critical patent/JP6341650B2/ja
Priority to US14/542,792 priority patent/US9418440B2/en
Publication of JP2015099563A publication Critical patent/JP2015099563A/ja
Application granted granted Critical
Publication of JP6341650B2 publication Critical patent/JP6341650B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/42Analysis of texture based on statistical description of texture using transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Description

本発明は、特に、画像を複数の領域に分割するために用いて好適な画像処理装置、画像処理方法及びプログラムに関する。
従来、画像を意味のある複数の領域に分割する研究が行われている。例えば、非特許文献1に記載されているSegmentationタスクに関し、そのような研究がなされている。このような画像を分割する処理においては、まず、スーパーピクセルと呼ばれる隣接した複数の画素からなる小領域に画像を分割し、分割した領域から夫々特徴量を抽出して、抽出した特徴量をもとに領域の統合、分類を行う方法が一般的である。例えば、非特許文献2には、事前に学習したニューラルネットワークによって夫々の領域を空、木、道路、等のクラスに分類している。一方、前処理として用いられているスーパーピクセルを生成する方法としては、クラスタリングやグラフ表現が用いられている(例えば非特許文献3及び4参照)。
特開2006−227973号公報
M. Everingham, L. Van Gool, C.K.I. Williams, J. Winn, and A. Zisserman. The PASCAL Visual Object Classes (VOC) challenge. International Journal of Computer Vision. vol. 88 (2), 2010 Richard Socher, Cliff Lin, Andrew Y. Ng, and Christopher D. Manning. Parsing Natural Scenes and Natural Language with Recursive Neural Networks. ICML 2011 Felzenszwalb, P., Huttenlocher, D. Efficient graph-based image segmentation. International Journal of Computer Vision. 2004 Radhakrishna Achanta, Appu Shaji, Kevin Smith, Aurelien Lucchi, Pascal Fua, and Sabine Susstrunk. SLIC Superpixels. EPFL Technical Report 149300, June 2010
しかしながら、例えば、前記非特許文献3に記載の方法により画像をスーパーピクセルに分割し、分割したスーパーピクセルに対して非特許文献2に記載のクラス分類を行う場合、以下のような問題が生じる。
まず、非特許文献3に記載の方法による領域分割の結果、スーパーピクセルの領域数が非常に多くなることがある。例えば、画像全体に木や草などのテクスチャが存在する場合、エッジ部分が分割されやすく大量の領域を生成することになる。これに対し、クラス分類のために行われる処理は非常に複雑であるため、スーパーピクセルの数が多いと処理に膨大な時間がかかってしまう。
また、領域のサイズに関しても、非特許文献3に記載の方法による領域分割は、前述のとおりテクスチャがある領域において敏感にエッジを分離する。このため、結果として領域数が増えるだけでなく小さな領域を多く生成してしまう。さらには非特許文献2に記載のクラス分類は、サイズの小さな領域に対して判別精度が低下するという問題がある。これは、クラス分類では領域から抽出する様々な特徴量でカテゴリを判別するのだが、小さい領域から抽出する特徴量は安定しないことがあるためである。例えば、画素値にノイズがある場合、サイズの大きい領域ではそのようなノイズの影響を受けないが、小さい領域においては影響を受けやすく、本来抽出したい特徴とは異なる特徴を抽出してしまうことがある。
本発明は前述の問題点に鑑み、簡単かつ高精度に画像を意味のある複数の領域に分類できるようにすることを目的としている。
そこで、本発明の画像処理装置は、入力画像を類似画素からなる複数の領域に分割する分割手段と、前記分割手段によって分割された領域のサイズを取得する取得手段と、前記分割手段によって分割された領域のテクスチャ特徴又は色特徴を抽出する抽出手段と、前記取得手段によって取得された領域のサイズに基づいて、注目する隣接する領域を結合するか否かを、前記隣接する領域のいずれのサイズも所定の閾値より大きければテクスチャ特徴を用いて判定し、前記隣接する領域の少なくとも一方のサイズが前記所定の閾値以下であれば色特徴を用いて判定するように結合判定方法を決定する決定手段と、前記抽出手段によって抽出されたテクスチャ特徴又は色特徴に基づいて、前記決定手段により決定された結合判定方法により前記隣接する領域を結合するか否かを判定する判定手段と、前記決定手段により決定された結合判定方法によって前記判定手段により前記隣接する領域を結合すると判定された場合に前記隣接する領域を結合する結合手段と、前記結合手段によって結合された領域の種別を分類する分類手段とを備えることを特徴とする。
本発明によれば、領域の分類に多くの処理時間をかけずに、高精度に画像を意味のある複数の領域に分類することができる。
本発明の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 本発明の実施形態において、画像を取得して領域分類する処理手順の一例を示すフローチャートである。 3層構造のRNN(Recursive Neural Networks)を説明するための図である。 本発明の実施形態において、領域分割する処理手順の一例を示すフローチャートである。 スーパーピクセルを結合して結合領域を得る詳細な処理手順の一例を示すフローチャートである。 LBPヒストグラムに基づいて結合判定を行う詳細な処理手順の一例を示すフローチャートである。 色平均に基づいて結合判定を行う詳細な処理手順の一例を示すフローチャートである。 スーパーピクセルに分割された画像の一例を示す図である。 スーパーピクセルごとの画素数を表すテーブルの一例を示す図である。 スーパーピクセル同士の隣接関係を表すテーブルの一例を示す図である。 LBPコードの具体的な算出方法の一例を示す図である。 LBPヒストグラムの一例を示す図である。 LBPヒストグラムに基づいて結合した後の領域の一例を示す図である。 LBPヒストグラムに基づいて結合した後の各領域の画素数を表すテーブルの一例を示す図である。 LBPヒストグラムに基づいて結合した後の各領域同士の隣接関係を表すテーブルの一例を示す図である。 色平均に基づいて結合した後の領域の一例を示す図である。 色平均に基づいて結合した後の各領域の画素数を表すテーブルの一例を示す図である。 色平均に基づいて結合した後の各領域同士の隣接関係を表すテーブルの一例を示す図である。
以下、添付図面を参照しながら本発明の好適な実施形態について説明する。本実施形態では、画像を意味のある複数の領域に分割する例を示す。
図1は、本実施形態に係る画像処理装置100の機能構成例を示すブロック図である。
図1において、画像取得部101は、画像データを取得する撮像装置、及び取得した画像データを記憶する画像メモリにより構成されている。領域分割部102は、隣接する類似画素からなる複数の領域に画像を分割する。領域サイズ取得部103は、領域のサイズに関する情報を取得する。特徴抽出部104は、領域内の画像特徴を抽出する。結合方法決定部105は、隣接する領域を結合する方法を決定する。結合処理部106は、結合対象となる2領域を結合する。領域分類部107は、領域が属する種別を判別する。また、本実施形態においては、領域分割部102〜領域分類部107の構成は汎用のコンピュータにより構成されている。
以下、本実施形態の動作について説明する。本実施形態では、まず非特許文献3に記載の方法によりスーパーピクセルに分割し、次に隣接するスーパーピクセル同士を結合する。さらに非特許文献2に記載の方法により結合領域のクラスを分類する方法について説明する。
図2は、本実施形態に係る画像処理装置100によって領域分類する処理手順の一例を示すフローチャートである。
まず、ステップS201において、画像取得部101により画像を取得し、取得した画像を画像メモリに記憶する。なお、取得する画像はRGBの3色に基づいたカラー画像のデータとする。
次に、ステップS202において、ステップS201で取得した画像を領域分割部102にて領域分割し、複数のスーパーピクセルを取得する。本ステップの処理の詳細については後述する。そして、ステップS203において、ステップS202で取得したスーパーピクセルのうち、隣接する2つのスーパーピクセルを結合して結合領域を得る。本ステップは、領域分割部102によって得られたスーパーピクセルについて、特徴抽出部104にて抽出した特徴と、領域サイズ取得部103にて取得した情報と、結合方法決定部105で決定した結合方法とに基づき、結合処理部106にて結合処理を行う。処理の詳細については後述する。
次に、ステップS204において、特徴抽出部104は後述するステップS205の領域分類で使用するための特徴量である領域分類特徴を、ステップS203で取得した結合領域から抽出する。本実施形態で抽出する領域分類特徴は、結合領域の色特徴、テクスチャ特徴、幾何特徴、及び位置特徴とする。ここで、各特徴について説明する。
色特徴は、RGB夫々の色成分における結合領域内の平均、分散、歪度、尖度である。なお、本実施形態では色空間としてRGBを用いているが、YCbCr、CIELABなど別の色空間を用いて各色特徴を求めるようにしてもよい。テクスチャ特徴は、輝度画像(前記YCbCrのY成分)を複数のスケールおよび方向でガボールフィルタ処理し、処理後の値について領域内で平均、分散、歪度、尖度を計算したものである。この他、複数のスケールでLOG(Laplacian Of Gaussan)処理を行った画像に対して結合領域内の画素の平均、分散、歪度、尖度を抽出して追加してもよい。
幾何特徴は、領域内の面積(画素数)、周長(領域境界の画素数)、各画素の位置座標を(x,y)で表した場合のx座標の二次モーメント、y座標の二次モーメント、xyモーメントである。位置特徴は、結合領域内の画素のx座標、y座標夫々の重心、及び重心座標を(xg,yg)とした場合のxg 2+yg 2の値である。これらの抽出した特徴量は一つの結合領域から抽出する特徴量の数をdとした場合、d次元の特徴ベクトルとして領域毎に不図示のコンピュータのメモリに保持される。
次に、ステップS205において、領域分類部107は、ステップS204の領域分類特徴を抽出する処理により得た特徴量に基づき、夫々の結合領域が属するクラスを判別する。クラス判別は、図3に示すような3層構造のRNN(Recursive Neural Networks)により行う。図3において、I、M、Oは夫々入力層、中間層、出力層のニューロンである。ステップS204で抽出した特徴量(d次元の特徴ベクトル)をFrawとすると、入力層Iのニューロンはd個であり、夫々特徴ベクトルを構成する一つの特徴量を入力し、そのまま中間層Mに伝達する。中間層Mの数をdmとし、出力する特徴をFsemとすると、特徴Fsemはdm次元の特徴ベクトルであり、以下の式(1)により算出される。
sem=f(Wbraw) ・・・(1)
但し、Wbは入力層I及び中間層Mの結合係数を表すd×dmの行列を表し、fはシグモイド関数を表す。出力層Oでは、d0個の値Fout(d0次元の特徴ベクトル)は以下の式(2)により算出され、出力される。
out=Wcsem ・・・(2)
但し、Wcは中間層M及び出力層Oの結合係数を表すdm×d0の行列を表し、d0は判別するクラスの数を表す。ここで、Wb、Wcは非特許文献2に記載されている方法を用いて事前学習により定められる。領域分類部107は、出力層Oが出力する特徴量Foutのうち、最も大きい値を返すクラスを判別結果として出力する。
次に、図2のステップS202の処理の詳細について説明する。本実施形態では、画像の領域分割処理としてグラフ表現を用いた非特許文献3の方法に従った例について説明する。
図4は、領域分割部102により非特許文献3に記載の方法に基づいて領域分割する処理手順の一例を示すフローチャートである。
まず、ステップS401において、入力画像の各画素を頂点とし、各画素と周囲8方向の隣接画素との組合せをエッジとするグラフを作成する。そして、ステップS402において、ステップS401で作成したグラフの全エッジの重みを算出し、エッジの重みが小さい順にソートを行う。エッジの重みwijは以下の式(3)により算出される。
Figure 0006341650
但し、(Ri,Gi,Bi)、(Rj,Gj,Bj)は、それぞれエッジの頂点i、jに対応する画素のRGB成分を表す。すなわち、ここでは2つの画素のRGB色空間での距離をエッジ重みとする。
次に、ステップS403において、ステップS401で作成したグラフからステップS402のソート結果を参照して最も小さい重みを持つエッジを選択する。そして、ステップS404において、ステップS403で選択したエッジの頂点に対応する夫々の画素について、画素を含む領域を検索し、領域同士の結合の判定を行う。ここで、初期状態においては、領域は画素そのものとする。領域同士の結合の判定は、2つの領域間の特徴量の違いと夫々の領域内の特徴量の違いとの比較に基づいて行い、ステップS402で算出したエッジ重みを利用する。領域間の違いDif(Ci,Cj)は以下の式(4)により算出される。
Dif(Ci,Cj)=min wkl ・・・(4)
但し、Ci、Cjは判定する2つの領域を表し、min wklは領域Ciに属する頂点(ここでは画素)k及び領域Cjに属する頂点(ここでは画素)lのエッジのうち、ステップS402で算出したエッジ重みの最小値を表す。また、領域内の違いMInt(Ci,Cj)は以下の式(5)により算出される。
Figure 0006341650
但し、Int(C)=max(wkl)であり、領域Cに属する2つの頂点(ここでは画素)k及び頂点(ここでは画素)lのエッジのうち、ステップS402で算出したエッジ重みの最大値である。また、τ(C)=Kc/|C|であり、|C|は領域Cの面積を表し、Kcは領域同士の結合のし易さを制御するパラメータである。領域間の違いDif(Ci,Cj)が領域内の違いMInt(Ci,Cj)よりも大きい場合には2つの領域の違いが大きいと判定し、結合は行わない。一方、それ以外の場合には2つの領域が類似していると判定し、領域を結合する。なお、領域を結合する場合は結合後の領域に対してInt(C)を更新しておく。
次に、ステップS405において、全てのエッジについて処理を行ったかどうかを判定し、未処理のエッジがある場合にはステップS403に戻り、処理を繰り返す。一方、ステップS405の判定の結果、全てのエッジについて処理を行った場合には、ステップS406に処理を移す。そして、ステップS406において、全ての領域について領域の大きさを求め、所定サイズ以下の領域を周囲の領域と結合する。
次に、本実施形態の特徴である領域サイズに基づいた結合処理方法の選択について、図5に示すフローチャートを用いて詳細を説明する。なお、本実施形態では説明を簡略化するため、図8に示すように入力画像が9つのスーパーピクセルに分割されている場合について、その結合処理の方法を説明する。また、各スーパーピクセルには、R01〜R09の領域IDが付与されているものとする。
図5は、図2のステップS203においてスーパーピクセルを結合して結合領域を得る詳細な処理手順の一例を示すフローチャートである。
まず、ステップS501において、領域サイズ取得部103は、各スーパーピクセル内の画素数を取得する。図9には、図8に示した領域IDとこれに対応する画素数との関係を表すテーブルを示す。
次に、ステップS502において、領域サイズ取得部103は、スーパーピクセル同士の隣接情報を取得する。まず、画像の左上から右下へ順番に画素を参照していき、隣接画素(右の画素、右下の画素、下の画素)において異なる領域IDとなった場合に、この異なる領域IDをチェックすることにより隣接情報を取得できる。図10には、図8に示す画像から得られる隣接情報の一例を示す。例えば、スーパーピクセルR01は、R02、R04、R05と隣接するため、図10に示すテーブルの対応する部分に、2領域が隣接することを示す情報として"○"を付与する。また、それ以外の領域とは隣接していないものとして"×"を付与する。なお、図10に示すテーブルは、斜線を挟んで対象であるため、以降のステップでは斜線より上(あるいは下)の部分だけを参照する。
次に、ステップS503において、結合方法決定部105は、隣接する1組のスーパーピクセルのペアを選択する。本実施形態では、図10に示すテーブルに基づき、領域IDの順にスーパーピクセルのペアを順番に処理していく。具体的には、R01とR02、R01とR04、R01とR05、R02とR03、R02とR04・・・のように、図10に示すテーブルの左上から右下に走査して"○"に該当するスーパーピクセルのペアを順番に選択していく。以降の説明では、本ステップで選択するスーパーピクセルのペアをそれぞれSp−G1、Sp−G2と呼ぶことにする。
次に、ステップS504において、結合方法決定部105は、ステップS503で選択したスーパーピクセルのペアの各領域のサイズ、すなわち画素数に応じて次のステップで行う結合処理を決定するための区分けを行う。小さい領域からテクスチャ特徴を抽出してもノイズ等により安定した特徴量を得られないため、このような領域からは高次元で複雑な計算を要するテクスチャ特徴ではなく、処理が簡単な低次元の特徴量を用いて結合処理を行うようにする。
ステップS504では、Sp−G1の画素数をS1とし、Sp−G2の画素数をS2とし、閾値をThsとした場合に、以下の式(6)の条件を満たすか否かを判定する。この判定の結果、式(6)の条件を満たす場合にはステップS505に進み、そうでない場合にはステップS506に進む。
S1>Ths、かつS2>Ths ・・・(6)
ステップS505においては、ステップS503で選択したスーパーピクセルのペアについて、特徴抽出部104にて算出するLBPヒストグラムに基づいて結合判定を行う。以下、図6のフローチャートを用いて処理の詳細を説明する。
図6は、図5のステップS505において、LBPヒストグラムに基づいて結合判定を行う詳細な処理手順の一例を示すフローチャートである。
まず、ステップS601において、特徴抽出部104は、スーパーピクセル内の画像特徴としてLBP(Local Binary Pattern)コードを算出する。まず、注目画素とその隣接画素との画素値の差を調べ、差が負になる場合は"0"を割り当て、正になる場合は"1"を割り当てる。そして、所定の始点から回転するように当該"0,1"の列を取り出して8ビットの列として並べてコード化し、LBPコードを算出する。
図11は、LBPコードの具体的な算出方法の一例を示す図である。図11(A)には、3×3からなる画素の画素値の一例を示し、図11(B)には、注目画素を中央の画素として、隣接画素を注目画素との差に基づいて"0"または"1"に変換した結果を示す。本実施形態では、RGB値を以下の式(7)により輝度値Yに変換した値を用いてLBPコードを生成する。
Y=0.299×R+0.587×0.114×B ・・・(7)
図11(B)において、左上の画素を始点としてその下の画素を終点とし、図11(B)に示す矢印の方向に0と1との列を取り出す。この結果、"00011100"が図11(A)に示す画素に対するLBPコードとなる。本ステップでは、ステップS505で選択した2つのスーパーピクセル内の全ての画素について、上記方法によりLBPコードを算出する。
次に、ステップS602において、特徴抽出部104は、ステップS601で算出したLBPコードに対応するスーパーピクセル内の画素数をカウントしてヒストグラムを生成する。以降、このヒストグラムをLBPヒストグラムと呼ぶ。
図12は、本実施形態におけるLBPヒストグラムの一例を示す図である。本実施形態では、LBPコードとして8桁のバイナリコードを生成するため、ヒストグラムのビン数は256個(0から255まで)となる。図12(A)に示すLBPヒストグラム1201は、各ビンに対する画素数を集計したものである。なお、以降のステップでは2つのスーパーピクセルのLBPヒストグラムを比較するが、領域内の画素数がスーパーピクセル毎に異なるため、ヒストグラム値を画素数で正規化する必要がある。そこで、さらに図12(B)に示す正規化後のLBPヒストグラム1202を生成する。
次に、ステップS603において、結合方法決定部105は、ステップS602で生成した2つのスーパーピクセルのLBPヒストグラムを比較し、これらのスーパーピクセルを結合するか否かを判定する。この判定は、特許文献1で示されるヒストグラムインターセクションを用いた方法で行うことができる。ヒストグラムインターセクションは、比較する2つのヒストグラムの各要素について、小さい方の値を採用し、この値について全ての要素に亘って和を求め、その和が大きければ類似度が高いと評価するものである。n個のビンを含む一組のヒストグラムIとMとが与えられた場合のヒストグラムインターセクションに定義される類似度Vは次のように定義される。本実施形態では先に示した通りビン数が256個であるため、n=256として以下の式(8)を計算する。
Figure 0006341650
次に、式(8)により算出した2つのスーパーピクセルの類似度Vを所定の閾値Thvと比較する。類似度Vが閾値Thv以上の場合は、2つのスーパーピクセルは類似するものとして、ステップS604に進む。一方、類似度Vが閾値未満の場合は、2つのスーパーピクセルは類似していないものとして結合処理を行わず、図5のステップS507に進む。
ステップS604においては、結合処理部106は、2つのスーパーピクセルを結合して新たな領域を生成する。この際、2つのスーパーピクセルの画素数を足し合わせた結果を新たな領域の画素数とする。また、新たな領域の領域IDは前記2つのスーパーピクセルのどちらかを引き継ぐものとし、例えばサイズの大きい方のスーパーピクセルの領域IDを引き継ぐようにする。また、ステップS601で求めた前記2つのスーパーピクセルに対応するLBPコードに基づき、特徴抽出部104は、ステップS602で行った手順と同様に新たに生成された結合領域におけるLBPヒストグラムを取得する。
図13には、以上説明した方法により図8のSp−R01、Sp−R02を結合処理した結果の例を示す。図13に示す例では、Sp−R01よりもSp−R02の領域のサイズが大きいため、新たに生成される結合領域のIDはR02となる。なお、領域サイズ取得部103により、図9に示すテーブルは、結合処理により図14に示すテーブルに更新され、同様に図10に示すテーブルは、図15に示すテーブルに更新される。ステップS604の処理が終わると、図5のステップS507に進む。
なお、本実施形態では、所定サイズ以上の領域の結合判定に、輝度値を用いたLBPヒストグラムを使用したが、RGB値に基づいたLBPヒストグラムを生成するようにしてもよい。また、LBP特徴以外に先に説明したガボール特徴や、テクスチャ特徴を表す複数のフィルターを組み合わせたテクストン特徴など、領域内のテクスチャ情報を表現できる特徴量であればどのようなものを用いてもよい。
図5の説明に戻り、ステップS506においては、ステップS503で選択した2つのスーパーピクセルのペアについて、色平均に基づいて結合判定を行う。以下、図7に示すフローチャートを用いて詳細を説明する。また、以下の説明では、図8のスーパーピクセルR06、R07(以降Sp−R06、Sp−R07と呼ぶ。)を結合判定の対象とする場合について説明する。
図7は、図5のステップS506において、色平均に基づいて結合判定を行う詳細な処理手順の一例を示すフローチャートである。
まず、ステップS701において、特徴抽出部104は、Sp−R06、Sp−R07における色平均をそれぞれ以下の式(9)により算出する。
Figure 0006341650
ここで、Ar、Ag、AbはR、G、B各色の平均値を表し、Pは注目するスーパーピクセル内の画素数を表す。また、Mは注目するスーパーピクセル内の全画素を表す集合を表し、Ri,Gi,Biは画素iのR、G、Bのそれぞれの値を表す。以下、Sp−R06の色平均をAr(R06),Ag(R06),Ab(R06)とし、Sp−R07の色平均をAr(R07),Ag(R07),Ab(R07)として説明する。
次に、ステップS702において、結合方法決定部105は、Sp−R06、Sp−R07の色平均の差Dif_cを、以下の式(10)により算出し、その結果を閾値Thcと比較する。
Figure 0006341650
この比較の結果、色平均の差Dif_cが閾値Thc未満である場合は、2つのスーパーピクセルは類似するものとしてステップS703に進む。一方、ステップS702の比較の結果、色平均の差Dif_cが閾値以上である場合は、2つのスーパーピクセルは類似していないものとして結合処理をせず、図5のステップS507に進む。
前述の説明では、小さい領域の結合判定に色平均を用いているが、画素数の少ない領域に対して比較的安定した特徴量でかつ低次元のものであれば特に限定されるものではない。例えば、色の分散値や、領域境界のエッジ情報、領域内のエッジ強度平均値、分散値などを用いることができる。
ステップS703においては、結合処理部106は、2つのスーパーピクセルを結合して新たな領域を生成する。本ステップの処理は、ステップS604におけるLBPヒストグラムを色平均に置き換えた点以外はステップS604と同様の処理となるため、説明は省略する。図16には、図13のSp−R06、Sp−R07を結合処理した結果の例を示す。図16に示す例では、Sp−R07よりもSp−R06の領域のサイズの方が大きいため、新たに生成される領域の領域IDはR06となる。なお、領域サイズ取得部103により、図14に示すテーブルは結合処理により図17に示すテーブルに更新され、同様に図15に示すテーブルは図18に示すテーブルに更新される。ステップS703の処理が終わると、図5のステップS507に進む。
図5の説明に戻り、次に、ステップS507において、全てのスーパーピクセルのペアについて結合判定を行ったか否かを判定する。この判定の結果、未処理のスーパーピクセルのペアが残っている場合にはステップS503に戻り、全てのスーパーピクセルのペアを処理した場合には図2のステップS204に進む。
本実施形態では、全てのスーパーピクセルについて少なくとも1回の結合処理がなされたら処理を終了するような構成としている。一方、スーパーピクセルの画素数が所定値になるまでステップS503〜S507までの処理を繰り返すようにしてもよい。すなわち、結合領域に対して、さらに他のスーパーピクセルもしくは他の結合領域とで結合判定を行うようにしてもよい。この場合、処理回数は多くなってしまうが、結合領域として所定サイズ以上のものだけを取得できるため、後段の認識精度をより向上させることが可能となる。
以上のように本実施形態によれば、2つのスーパーピクセルを結合する際に、領域内の画素数に応じて結合処理を制御するようにした。これにより、小さい領域に対しては過剰な処理を行わず、それ以外の領域に対しては精度を重視した結合処理を行うことができる。このため、精度と処理速度とのバランスを保ちながら処理することが可能となり、結果として高精度にかつ簡単に領域の認識処理を行うことができる。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
102 領域分割部
103 領域サイズ取得部
104 特徴抽出部
105 結合方法決定部
106 結合処理部
107 領域分類部

Claims (8)

  1. 入力画像を類似画素からなる複数の領域に分割する分割手段と、
    前記分割手段によって分割された領域のサイズを取得する取得手段と、
    前記分割手段によって分割された領域のテクスチャ特徴又は色特徴を抽出する抽出手段と、
    前記取得手段によって取得された領域のサイズに基づいて、注目する隣接する領域を結合するか否かを、前記隣接する領域のいずれのサイズも所定の閾値より大きければテクスチャ特徴を用いて判定し、前記隣接する領域の少なくとも一方のサイズが前記所定の閾値以下であれば色特徴を用いて判定するように結合判定方法を決定する決定手段と、
    前記抽出手段によって抽出されたテクスチャ特徴又は色特徴に基づいて、前記決定手段により決定された結合判定方法により前記隣接する領域を結合するか否かを判定する判定手段と、
    前記決定手段により決定された結合判定方法によって前記判定手段により前記隣接する領域を結合すると判定された場合に前記隣接する領域を結合する結合手段と、
    前記結合手段によって結合された領域の種別を分類する分類手段とを備えることを特徴とする画像処理装置。
  2. 前記抽出手段は、前記取得手段によって取得された領域のサイズに応じて異なる特徴を抽出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記抽出手段は、前記領域のサイズが前記所定の閾値より大きい場合に、テクスチャ特徴を抽出することを特徴とする請求項2に記載の画像処理装置。
  4. 前記テクスチャ特徴は、LBP特徴、ガボール特徴、及びテクストン特徴のうちの少なくとも1つであることを特徴とする請求項3に記載の画像処理装置。
  5. 前記結合手段により結合された領域のサイズが所定値より小さい場合に、
    前記取得手段は、前記結合された領域のサイズを取得し、
    前記抽出手段は、前記結合された領域の特徴を抽出し、
    前記決定手段は、前記結合された領域のサイズに基づいて隣接する領域を結合するか否かを判定する結合判定方法を決定し、
    前記判定手段は、前記決定手段により決定された結合判定方法により前記結合された領域と前記隣接する領域とを結合か否かを判定することを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
  6. 前記抽出手段は、前記結合手段により結合された領域から、前記結合された領域の種別を分類するための領域分類特徴を抽出し、
    前記分類手段は、前記領域分類特徴に基づいて前記結合された領域の種別を分類することを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。
  7. 入力画像を類似画素からなる複数の領域に分割する分割工程と、
    前記分割工程において分割された領域のサイズを取得する取得工程と、
    前記分割工程において分割された領域のテクスチャ特徴又は色特徴を抽出する抽出工程と、
    前記取得工程において取得された領域のサイズに基づいて、注目する隣接する領域を結合するか否かを、前記隣接する領域のいずれのサイズも所定の閾値より大きければテクスチャ特徴を用いて判定し、前記隣接する領域の少なくとも一方のサイズが前記所定の閾値以下であれば色特徴を用いて判定するように結合判定方法を決定する決定工程と、
    前記抽出工程において抽出されたテクスチャ特徴又は色特徴に基づいて、前記決定工程により決定された結合判定方法により前記隣接する領域を結合するか否かを判定する判定工程と、
    前記決定工程において決定された結合判定方法によって前記判定工程において前記隣接する領域を結合すると判定された場合に前記隣接する領域を結合する結合工程と、
    前記結合工程において結合された領域の種別を分類する分類工程とを備えることを特徴とする画像処理方法。
  8. 入力画像を類似画素からなる複数の領域に分割する分割工程と、
    前記分割工程において分割された領域のサイズを取得する取得工程と、
    前記分割工程において分割された領域のテクスチャ特徴又は色特徴を抽出する抽出工程と、
    前記取得工程において取得された領域のサイズに基づいて、注目する隣接する領域を結合するか否かを、前記隣接する領域のいずれのサイズも所定の閾値より大きければテクスチャ特徴を用いて判定し、前記隣接する領域の少なくとも一方のサイズが前記所定の閾値以下であれば色特徴を用いて判定するように結合判定方法を決定する決定工程と、
    前記抽出工程において抽出されたテクスチャ特徴又は色特徴に基づいて、前記決定工程により決定された結合判定方法により前記隣接する領域を結合するか否かを判定する判定工程と、
    前記決定工程において決定された結合判定方法によって前記判定工程において前記隣接する領域を結合すると判定された場合に前記隣接する領域を結合する結合工程と、
    前記結合工程において結合された領域の種別を分類する分類工程とをコンピュータに実行させるためのプログラム。
JP2013240232A 2013-11-20 2013-11-20 画像処理装置、画像処理方法及びプログラム Active JP6341650B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013240232A JP6341650B2 (ja) 2013-11-20 2013-11-20 画像処理装置、画像処理方法及びプログラム
US14/542,792 US9418440B2 (en) 2013-11-20 2014-11-17 Image segmenting apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013240232A JP6341650B2 (ja) 2013-11-20 2013-11-20 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015099563A JP2015099563A (ja) 2015-05-28
JP6341650B2 true JP6341650B2 (ja) 2018-06-13

Family

ID=53173379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013240232A Active JP6341650B2 (ja) 2013-11-20 2013-11-20 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US9418440B2 (ja)
JP (1) JP6341650B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6351240B2 (ja) * 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN107430771B (zh) * 2015-03-20 2021-07-02 文塔纳医疗系统公司 用于图像分段的系统和方法
US20180220158A1 (en) * 2015-07-21 2018-08-02 Lg Electronics Inc. Method and device for processing video signal using graph-based transform
JP2017191501A (ja) 2016-04-14 2017-10-19 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US11232567B2 (en) 2016-06-03 2022-01-25 Koninklijke Philips N.V. Biological object detection
JP6968645B2 (ja) 2017-10-02 2021-11-17 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP7092989B2 (ja) * 2018-02-26 2022-06-29 日本電信電話株式会社 異常判定装置、異常判定方法及び異常判定プログラム
JP6407467B1 (ja) * 2018-05-21 2018-10-17 株式会社Gauss 画像処理装置、画像処理方法およびプログラム
US10913641B2 (en) 2018-06-08 2021-02-09 Attabotics Inc. Storage units and robotic storage/retrieval vehicles for a three-dimensional storage system
US20220051399A1 (en) * 2018-09-14 2022-02-17 Health Partners Pte Ltd Method and system for determining well-being indicators
WO2021235245A1 (ja) * 2020-05-21 2021-11-25 ソニーグループ株式会社 画像処理装置、画像処理方法、学習装置、学習方法、およびプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62106583A (ja) * 1985-11-01 1987-05-18 Mitsubishi Electric Corp 領域分割方式
US6549681B1 (en) 1995-09-26 2003-04-15 Canon Kabushiki Kaisha Image synthesization method
JP3869876B2 (ja) 1995-12-19 2007-01-17 キヤノン株式会社 画像計測方法及び画像計測装置
EP0908847B1 (en) 1997-10-06 2006-01-25 Canon Kabushiki Kaisha Image synthesis apparatus and image synthesis method
US6704041B2 (en) 1998-03-10 2004-03-09 Canon Kabushiki Kaisha Image processing method, apparatus and memory medium therefor
JP3492202B2 (ja) 1998-06-24 2004-02-03 キヤノン株式会社 画像処理方法、装置および記録媒体
US6694051B1 (en) 1998-06-24 2004-02-17 Canon Kabushiki Kaisha Image processing method, image processing apparatus and recording medium
US6766037B1 (en) * 1998-10-02 2004-07-20 Canon Kabushiki Kaisha Segmenting moving objects and determining their motion
US7983446B2 (en) * 2003-07-18 2011-07-19 Lockheed Martin Corporation Method and apparatus for automatic object identification
JP4625949B2 (ja) 2005-02-18 2011-02-02 国立大学法人九州工業大学 物体追跡方法および物体追跡装置ならびにプログラム
US7756317B2 (en) * 2005-04-28 2010-07-13 Carestream Health, Inc. Methods and systems for automated detection and analysis of lesion on magnetic resonance images
JP4725298B2 (ja) * 2005-11-11 2011-07-13 パナソニック電工株式会社 画像による外観検査方法
US7864989B2 (en) * 2006-03-31 2011-01-04 Fujifilm Corporation Method and apparatus for adaptive context-aided human classification
US7860320B2 (en) * 2006-06-26 2010-12-28 Eastman Kodak Company Classifying image regions based on picture location
US8121367B2 (en) * 2007-09-21 2012-02-21 Siemens Aktiengesellschaft Method and system for vessel segmentation in fluoroscopic images
JP5214367B2 (ja) * 2008-08-08 2013-06-19 株式会社東芝 特徴量抽出装置、特徴量抽出方法、画像処理装置、及び、プログラム
JP4720880B2 (ja) * 2008-09-04 2011-07-13 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5036084B2 (ja) * 2010-10-14 2012-09-26 シャープ株式会社 映像処理装置、映像処理方法、及びプログラム
JP5763965B2 (ja) 2011-05-11 2015-08-12 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6023058B2 (ja) * 2011-08-29 2016-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像処理装置、画像処理方法、プログラム、集積回路
JP5903315B2 (ja) * 2012-04-10 2016-04-13 株式会社ニコンシステム 画像処理装置および画像処理プログラム
JP2013218605A (ja) * 2012-04-11 2013-10-24 Canon Inc 画像認識装置、画像認識方法及びプログラム

Also Published As

Publication number Publication date
US20150139546A1 (en) 2015-05-21
JP2015099563A (ja) 2015-05-28
US9418440B2 (en) 2016-08-16

Similar Documents

Publication Publication Date Title
JP6341650B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6192271B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9633282B2 (en) Cross-trained convolutional neural networks using multimodal images
EP3333768A1 (en) Method and apparatus for detecting target
Khairnar et al. Disease detection and diagnosis on plant using image processing—a review
US20210133980A1 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
JP4098021B2 (ja) シーン識別方法および装置ならびにプログラム
CN112906649A (zh) 视频分割方法、设备、计算机设备及介质
JP2008542911A (ja) メトリック埋め込みによる画像比較
WO2019026104A1 (ja) 情報処理装置、情報処理プログラム及び情報処理方法
CN109615614B (zh) 基于多特征融合的眼底图像中血管的提取方法与电子设备
JP6107531B2 (ja) 特徴抽出プログラム及び情報処理装置
CN111696196A (zh) 一种三维人脸模型重建方法及装置
CN112528866A (zh) 跨模态人脸识别方法、装置、设备及存储介质
CN110222718A (zh) 图像处理的方法及装置
CN112507897A (zh) 跨模态人脸识别方法、装置、设备及存储介质
JP6989450B2 (ja) 画像解析装置、画像解析方法及びプログラム
CN108345835B (zh) 一种基于仿复眼感知的目标识别方法
WO2024078112A1 (zh) 一种舾装件智能识别方法、计算机设备
JP4285640B2 (ja) オブジェクト識別方法および装置ならびにプログラム
CN110349119B (zh) 基于边缘检测神经网络的路面病害检测方法和装置
JP2009123234A (ja) オブジェクト識別方法および装置ならびにプログラム
Sahu et al. Color image segmentation using genetic algorithm
JP6546385B2 (ja) 画像処理装置及びその制御方法、プログラム
JP2014203157A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180515

R151 Written notification of patent or utility model registration

Ref document number: 6341650

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151