JP2016075993A - 画像処理装置及びその制御方法、プログラム - Google Patents

画像処理装置及びその制御方法、プログラム Download PDF

Info

Publication number
JP2016075993A
JP2016075993A JP2014204213A JP2014204213A JP2016075993A JP 2016075993 A JP2016075993 A JP 2016075993A JP 2014204213 A JP2014204213 A JP 2014204213A JP 2014204213 A JP2014204213 A JP 2014204213A JP 2016075993 A JP2016075993 A JP 2016075993A
Authority
JP
Japan
Prior art keywords
graph
representative points
image processing
processing apparatus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014204213A
Other languages
English (en)
Other versions
JP6546385B2 (ja
Inventor
賀保 橋口
Gaho Hashiguchi
賀保 橋口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014204213A priority Critical patent/JP6546385B2/ja
Priority to US14/862,273 priority patent/US9607398B2/en
Publication of JP2016075993A publication Critical patent/JP2016075993A/ja
Application granted granted Critical
Publication of JP6546385B2 publication Critical patent/JP6546385B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 トータルスループットを向上する。
【解決手段】 画像を構成する画素を複数の代表点にクラスタリングすることで、画像を複数の領域に分割する。代表点に基づいて、代表点の関係を表すグラフを生成する。分割した複数の領域の特徴量とグラフに基づいて、複数の領域を統合する。
【選択図】 図10

Description

本発明は、入力された画像を処理する画像処理技術に関するものである。
画像を色や模様、明るさ等の属性が同じになるように複数の領域に分割する技術として領域分割(Segmentation)手法が用いられる。これら分割された領域は、その後、領域単位で符号化処理、領域の認識が行えるため画素レベルで画像を処理する場合に比べ処理量を削減することができる。近年、組込機器で高解像度の画像に対して画像処理を行うケースは増えてきており、領域分割後の領域単位で画像を処理することで、組込機器でも高解像度の画像に対してリアルタイムで複雑な処理ができるようになると考えられる。
リアルタイムな領域分割処理を実現するためにいくつかの手法が提案されている。その中で、色空間(R,G,B)と座標空間(X,Y)の5次元の情報を用いて画素データをクラスタリングすることで画像を領域に分ける手法として、非特許文献1がある。非特許文献1の手法は、Simple Linear Iterative Clustering(SLIC)と呼ばれる。はじめにクラスタの中心となる代表点を画像中に格子状に配置する。SLIC手法での代表点は色空間(R,G,B)と座標空間(X,Y)の5次元の情報を有している。代表点は、シードやクラスタ中心(cluster centroid)とも呼ばれる。SLIC手法におけるクラスタリングはk−means法をベースとしており、画像を構成する各画素を格子状に配置した代表点にクラスタリングする。SLIC手法の特徴は、代表点にクラスタリングする座標空間を所定範囲に限定している点である。代表点にクラスタリングされた画素の集合が分割領域となる。この分割領域をSuperpixelと呼ぶ。この手法は、繰り返し処理があるものの画像サイズに比例した少ない演算量で処理できる特徴を有している。
また、非特許文献1の手法をGPUで実装し高速化を実現したものに、非特許文献2がある。非特許文献2では、GPUで高速処理を実現するために階層クラスタリング方式(Hierarchical clustering scheme)を使用している。これにより、高解像度画像のリアルタイムな領域分割処理を実現している。
一方、Superpixel統合(領域統合)に基づく領域分割を行う方法として非特許文献3がある。非特許文献3では、グラフベースでSuperpixelを生成する。そして、Superpixelに対してAdaboostで生成した識別器を用いてSuperpixelに領域ラベルを付けて統合している。この統合処理は、複数のSuperpixelを結合し新しい1つのSuperpixelに置換する処理である。例えば、識別器により車載カメラで撮影した画像を空、地面そして垂直物の3つの領域に分割することができる。これは意味的領域分割(Semantic Segmentation)と呼ばれ、各領域に意味を持たせる処理である。
非特許文献3ではグラフベースの処理でSuperpixel生成を行っており、後段ではそのグラフを利用してSuperpixelの統合を行っている。一方、非特許文献1に示すクラスタリング方式で生成したSuperpixelをグラフベースで統合するためには、統合処理の前にSuperpixelの隣接関係を表すグラフを作成する必要がある。
このグラフ作成処理について、図10を用いて説明する。図10(a)は、クラスタリング方式で生成したSuperpixelのラベルマップ801を示している。ラベルマップ801は入力画像の各画素に対応するラベル値を管理しており、ラベル値はクラスタリングによって作成されたSuperpixelのインデックスである。例えば、Superpixel802はクラスタリングによってインデックス「2」が付けられ、ラベルマップ801上ではSuperpixel802の領域内のラベル値として「2」が付けられる。図10(a)では、Superpixelは9個あり、0から8のラベル値が割り振られている。
グラフ作成処理では、ラベルマップ801を読み込んでSuperpixelの隣接関係を調べ、図10(b)のような隣接グラフを作成する。ラベル値が「0」の領域に隣接する領域はラベル値が「1」と「3」の領域である。ラベルマップ801からこの隣接関係を取得するために、ラベル値の境界部分を検出し、境界部分のラベル値のセットをリスト化した隣接リスト(adjacency list)を生成する。ラベル値のセットは、例えば、「0」と「1」、「0」と「3」である。ラベル値のセットは複数取得されるので重複するラベル値のセットは除外した上で、隣接リストを作成する。図10(b)の隣接グラフに対しては、図10(c)に示すような隣接リストが作成される。以上の処理によって、代表点803及び804とそれを繋ぐエッジ805の情報を取得する。
次に、シンプルなSuperpixelの統合の例を説明する。図10(c)の隣接リストを元にエッジの両端のSuperpixelの特徴量を調べて類似している場合は結合する処理を行う。特徴量は、Superpixelに属する画素の色平均やヒストグラム等の情報を用いる。また、類似度は、色平均の差、ヒストグラムインターセクションの値で判定することができる。図10(d)は、Superpixelを結合した後のラベルマップである。ラベル値が「0」、「1」、及び「3」のSuperpixelは、ラベル値が「0」のSuperpixelに統合される。また、ラベル値が「2」、「5」、及び「8」のSuperpixelは、ラベル値が「2」のSuperpixelに統合される。更に、ラベル値が「4」、「6」、及び「7」のSuperpixelは、ラベル値が「4」のSuperpixelに統合される。
R. Achanta, A. Shaji, K. Smith, A. Lucchi, P. Fua, and S. Ssstrunk, "SLIC Superpixels," tech. rep., EPFL, EPFL, 2010. C.Y. Ren and I. Reid. gSLIC: a real-time implementation of SLIC superpixel segmentation. University of Oxford, Department of Engineering, Technical Report, 2011. 岩根, 吉田, "superpixel統合に基づく領域分割を用いた車載カメラの景観認識", 日本ファジーシステムシンポジウム, 2011 Iwane, Yoshida, "Landscape recognition of in-vehicle camera views based on graph-based segmentation", 27th Fuzzy System Symposium, 2011
従来のグラフ作成処理は、領域の隣接関係を調べるためにラベルマップをラスタスキャン等で読み込んで領域間の境界を検出し、その検出した領域間の境界からラベル値のセットを抽出し、重複なく隣接リストを作成する処理が必要である。この処理は、ラベルマップの読出や順次検出されるラベル値のセットが隣接リストで既に存在しているかどうかを検索するために、隣接リストが格納されているメモリに対してランダムアクセスすることが必要で高速化が困難である。
本発明は上記の課題を解決するためになされたものであり、トータルスループットを向上することができる画像処理技術を提供することを目的とする。
上記の目的を達成するための本発明による画像処理装置は以下の構成を備える。即ち、
入力された画像を構成する画素を複数の代表点にクラスタリングすることで、前記画像を複数の領域に分割する分割手段と、
前記代表点に基づいて、前記代表点の関係を表すグラフを生成する生成手段と、
前記分割手段で分割した前記複数の領域の特徴量と前記グラフに基づいて、前記複数の領域を統合する統合手段と
を備える。
本発明によれば、トータルスループットを向上することができる。
実施形態1の画像処理装置の構成図である。 実施形態1のSuperpixel生成処理を示すフローチャートである。 実施形態1の代表点の初期配置と隣接/近隣グラフの説明図である。 千鳥配置のグラフの説明図である。 実施形態2の画像処理装置の構成図である。 実施形態2のTrueエッジとその検出方法の説明図である。 実施形態3の画像処理装置のハードウェア構成を示す図である。 実施形態3の領域分割処理を示すフローチャートである。 実施形態4の代表点の隣接グラフ作成の説明図である。 Superpixelを表すラベルマップとSuperpixelの隣接グラフの説明図である。
以下、本発明の実施の形態について図面を用いて詳細に説明する。
<実施形態1>
本実施形態では、領域分割装置として機能する画像処理装置を用いて意味的領域分割を行う例を説明する。
図1は実施形態1の画像処理装置の構成図である。
画像入力部101は、光学系デバイス、光電変換デバイス及びセンサを制御するドライバ回路、ADコンバータ、各種画像補正を司る信号処理回路、フレームバッファ等の構成要素により構成される。画像入力部101の機能は、入力光を画像化し画像データを出力することである。本実施形態で扱う画像データは、可視光線を画像化したRGBのカラー画像とする。他にも輝度を表すグレイ画像や、不可視光線の紫外線領域、赤外線領域等を捉えた画像も利用できる。入力画像の種類やフォーマットは、これに限定されるものではない。
Superpixel生成部102は、画像入力部101で入力した画像と代表点初期化部109で作成する代表点を使用して、Superpixelを生成する。Superpixelは、例えば、非特許文献1に記載のSLIC手法で生成する。
ここで、SLIC手法によるSuperpixel生成処理について、図2のフローチャートを用いて説明する。この図2の処理は、Superpixel生成部102と代表点初期化部109とが連携して処理を実行する。但し、図2の処理は、コンピュータのCPUによって、ROMに記憶されているプログラムを読み出し実行することで実現することもできる。
まず、S201で、代表点初期化部109は、代表点初期化を行う。ここで、代表点は、色空間(R,G,B)と座標空間(X,Y)の5次元の情報を有する。S201では、代表点初期化部109は、図3(a)に示すように、画像301に代表点302を縦と横に間隔Sで格子状に配置し、座標空間(X,Y)を初期化する。そして、代表点初期化部109は、配置された座標に対応する画像301の画素値で色空間(R,G,B)を初期化する。画像301の画素値は、画像入力部101で入力した画像を参照して取得する。そして、代表点初期化部109で初期化された代表点302は、Superpixel生成部102に入力される。図3(a)では、代表点302を含む12個の代表点が作成している。
次に、S202で、Superpixel生成部102は、入力した画像を構成する画素のクラスタリングを行う。このクラスタリングでは、Superpixel生成部102は、代表点を中心に所定範囲の領域の画素との距離Dsを計算する。例えば、非特許文献1では、CIELAB色空間が使われているが、ここでは、RGB色空間で説明する。k番目の代表点の色空間(R,G,B)は(rk,gk,bk)、座標空間(X,Y)は、(xk,yk)とする。kは間隔Sで配置した代表点の数をKとした時、0からK−1の値をとる。i番目の画素の色空間(R,G,B)は(ri,gi,bi)、座標空間(X,Y)は(xi,yi)とする。iは画像301内の画素位置を表すインデックスである。距離Dsの計算式を式1に示す。
Figure 2016075993
式1のmは係数であり、係数mを間隔Sで除算した値を色空間に加算する座標空間のユークリッド距離に乗じる重みのパラメータとする。式1でインデックスが1からK番目の代表点において、それらに対応する画素と距離計算を行い、各画素において距離が最も近い代表点を選択する。選択された代表点のインデックスをラベル値としてラベルマップを出力する。Superpixel生成部102は、出力したラベルマップをラベルマップ保持部107に格納する。
次に、S203で、Superpixel生成部102は、代表点の更新を行う。代表点の更新では、Superpixel生成部102は、各代表点に属する画素から色平均と重心座標を計算する。Superpixel生成部102は、更新した代表点を代表点保持部103に格納する。代表点が有する色空間(R,G,B)には各Superpixelに属する画素の色平均、そして、座標空間(X,Y)には各Superpixelに属する画素の集合の重心座標が格納される。
次に、S204で、Superpixel生成部102は、クラスタリングが収束しているか否かを判定する。この判定は、更新前の代表点と更新後の代表点とのユークリッド距離が所定の閾値以下であるか否かで判定する。ここで、代表点間のユークリッド距離は、座標空間の情報から計算する。ここで、本実施形態の収束判定の距離計算は、他に色空間のユークリッド距離のみ計算してもよいし、座標空間と色空間を合わせたユークリッド距離で計算してもよい。また、距離計算は、ユークリッド距離に限定されず、マンハッタン距離で計算してもよい。また、収束判定に距離を使うことに限定されず、繰り返し回数を3回や10回等の固定回数にする方法でも構わない。これは固定回数の繰り返しで十分な収束が見込めると判定できる場合に実施できる。
判定の結果、クラスタリングが収束していない場合(S204でNO)、S202に戻り、クラスタリングから繰り返す。この繰り返し時にS202で使用する代表点は代表点保持部103に格納されている情報を使用する。一方、判定の結果、クラスタリングが収束している場合(S204でYES)、Superpixel生成を終了する。
次に、隣接グラフ生成部104について説明する。隣接グラフ生成部104は、Superpixel統合部105で使用する隣接グラフを生成する。ここで生成する隣接グラフは、Superpixel生成部102の代表点の初期配置を基準に生成する。代表点の初期配置の情報は、代表点初期化部109から取得する。本実施形態では、代表点の初期配置は図3(a)で示したように格子状に配置し、間隔Sによって代表点の個数が決定される。代表点の初期配置の情報は、横方向に配置された代表点の数、縦方向に配置された代表点の数である。
隣接グラフ生成部104は、代表点の初期配置の情報から、図3(b)のように代表点310の4近傍の代表点に対してエッジ311を生成する。図3(b)では12個の代表点から17本のエッジを生成している場合を示している。エッジは図10(c)で示したような隣接リストとして表現される。本実施形態では、図3(b)に示す隣接グラフで説明するが、他に図3(c)あるいは図3(d)に示すような隣接グラフを作成してもよい。図3(c)はエッジ320のような斜め方向のエッジを追加した、注目代表点とその8近傍の代表点を接続する隣接グラフである。また、図3(d)は注目代表点に隣接している代表点だけでなく横方向に1つ先の代表点と接続するグラフである。図3(d)の隣接グラフは、近傍グラフ(neighborhood graph)と呼ばれ、近傍グラフを生成する場合、隣接グラフ生成部104は、近傍グラフ生成部として機能することになる。例えば、代表点330の1つ先の代表点と接続するエッジは、エッジ331とエッジ332である。
隣接グラフ生成部104では、代表点の初期配置から生成できるので、隣接関係を調べてエッジを作成する処理を省略することができる。隣接グラフ生成部104は、生成したエッジの情報をSuperpixel統合部105に送信する。
Superpixel統合部105は、隣接グラフ生成部104からエッジの情報を受信し、Superpixel生成部102で代表点保持部103に格納した代表点の情報を用いて統合処理を行う。統合処理は、受信したエッジの両端に属するSuperpixelの類似度を計算し、類似度が高い場合はSuperpixelを結合し、類似度が低い場合は結合しない処理を行う。結合する場合は、結合した新しいSuperpixelに置換する。類似度の計算の簡単な例は、代表点の情報に含まれるSuperpixelの色平均を用いた計算である。エッジの両端のSuperpixelに属する画素の色平均を取得し、2つの色平均のユークリッド距離を計算し、これを類似度とみなす。そして、このユークリッド距離が閾値以下である場合は類似度が高いと判定し、閾値を超える場合は類似度が低いと判定する。本実施形態では、類似度に色平均のユークリッド距離を用いて説明するが、他の類似度を使っても構わない。例えば、Superpixelに含まれる画素の色でヒストグラムを作成し、ヒストグラムインターセクションを計算し、これを類似度としてもよい。類似度の定義は、これらに限定されるものではない。
以上の統合処理を、Superpixel統合部105は、全エッジに対して行う。Superpixel統合部105は、統合処理によって得られる情報を、ラベルマップ保持部107で保持するラベルマップで管理されるラベル値を新しい統合後のラベル値に変換するためのラベル変換テーブルとして表現する。Superpixel統合部105は、作成したラベル変換テーブルを識別部106に送信する。
識別部106は、識別の前処理として領域別特徴量を抽出する。領域別特徴量とは、Superpixel毎に得られる特徴量であり、面積、モーメント、ヒストグラム等が典型的な特徴量である。特徴量は、画像入力部101からの入力画像とラベルマップ保持部107で保持するラベルマップ、Superpixel統合部105のラベル変換テーブルによって算出される。ラベルマップ保持部107で保持するラベルマップで管理されるラベル値は、統合前のラベル値であるため、ラベル変換テーブルを使って統合後のラベル値に変換する。そして、識別部106は、入力画像と対応するラベル値を元にSuperpixel毎に領域別特徴量を算出する。
次に、識別部106は、領域別特徴量に対してカテゴリを判別する。カテゴリは、例えば、空や自然等の意味を有するものでSuperpixel毎にどのカテゴリに近いか尤度を算出して判別する。ここでの判別方法は、Superpixelの色の青さが閾値を超えたら空にする等のルールを複数組み合わせて判定するルールベースの方法であってもよい。また、機械学習をベースとしたSupport Vector Machine(SVM)等の方法で処理対象の領域別特徴量に対するカテゴリを判別してもよい。ルールベースの場合、閾値やその他パラメータを識別パラメータ保持部108に保持しておき、識別部106で識別パラメータ保持部108から適宜読み出して、領域別特徴量に対するカテゴリを判別する。また、機械学習をベースとする場合は機械学習によって得られた複数のパラメータを識別パラメータ保持部108に保持しておき、識別部106で識別パラメータ保持部108から適宜読み出して、領域別特徴量に対するカテゴリを判別する。尚、領域別特徴量や判別方法は、これらに限定されるものではない。
本実施形態では、代表点初期化部109で初期化した代表点の情報を隣接グラフ生成部104に渡しているが、画像サイズや代表点を配置する間隔Sを固定する場合も考えられる。その場合は、代表点初期化部109から隣接グラフ生成部104に初期化した代表点の情報を渡す必要はないので、代表点初期化部109の入力無しに隣接グラフ生成部104はエッジの情報を生成するようにしてもよい。
また、本実施形態では、代表点の初期配置を図3(a)のように格子状に配置した例を挙げているが、これに限定されない。例えば、図4(a)に示すように、画像401の中に代表点402を千鳥状に配置し、注目代表点から斜めのエッジ403で構成される4方向のエッジで隣接グラフを定義してもよい。また、図4(b)に示すように、更に、横方向のエッジ410を追加して、代表点に対して6方向のエッジで隣接グラフを定義してもよい。このように、本実施形態の特徴の1つは、代表点の初期配置を基準に隣接グラフを定義してSuperpixelの隣接関係または近隣関係を表す隣接グラフまたは近傍グラフを用いてSuperpixel統合等の処理に利用することである。ここで、隣接グラフまたは近傍グラフは本実施形態で説明するものだけに限定するものではなく、同様の効果を発揮することができる隣接グラフまたは近傍グラフであれば、どのようなものでも良い。
以上説明したように、本実施形態によれば、隣接グラフ作成のためにラベルマップを読み込んでSuperpixelの隣接関係を表すエッジの隣接リストを重複なく作成する処理を実行することなく、隣接グラフの作成に関する処理を省略/簡略することができる。これにより、トータルスループットを向上することができる。
ここで、非特許文献1、2に示す手法では代表点は初期配置からの移動範囲が狭い。そのため、本実施形態のように、代表点の配置に基づいてグラフを作成しても、ほとんどの場合において、隣接または近傍関係を維持できる。
<実施形態2>
実施形態1では、Superpixelの隣接関係または近隣関係を代表点の初期配置を基準に隣接グラフまたは近隣グラフを定義して利用する方法を説明している。これに対して、実施形態2では、隣接グラフで示される隣接関係が正しいか否かをラベルマップを使って判定して利用する構成について説明する。つまり、実施形態2では、隣接グラフとして生成したグラフを構成するエッジが隣接関係を表しているか否かを判定する。
図5は実施形態2の画像処理装置の構成図である。実施形態1の図1の画像処理装置との違いは、Trueエッジ判定部509を追加している点と、Trueエッジ判定部509の出力を受けて処理を実行する隣接グラフ生成部504が存在する点である。尚、図5において、実施形態1の図1と同一の構成要素については、同一の参照番号を付加し、その詳細説明は省略する。
画像入力部101からの入力画像によって、Superpixel生成部102は、Superpixelを生成する。Superpixel生成部102が出力するラベルマップは、Trueエッジ判定部509に送信される。
まず、Trueエッジ判定部509で検出されるTrueエッジについて説明する。代表点の初期配置を基準に作成するエッジはSuperpixel生成によって隣接関係が崩れる場合がある。図6(a)は三角形のオブジェクト602が存在する入力画像601を領域分割するために代表点を格子状に配置して4方向の代表点をエッジで接続したグラフである。図6(b)はSuperpixel生成部102で処理した領域分割後の模式図である。611はSuperpixelの境界である。エッジ612は領域分割後も正しい隣接関係を表しているので、これをTrueエッジと定義する。一方、エッジ613は代表点615のSuperpixelと代表点616のSuperpixelを繋ぐエッジを表しているが、代表点614のSuperpixelによって分断されている。これをFalseエッジと定義する。Trueエッジ判定部509は、代表点の初期配置を基準に作成したエッジが、領域分割後の各エッジを判定して、Trueエッジを検出する処理を行う。
本実施形態で扱う4方向のエッジでは、Trueエッジを判定するためにラベルマップをラスタスキャンして、図6(c)の位置621、622、及び623のラベル値を参照する。Superpixelの横方向の隣接関係を調べる例として、エッジ612がTrueエッジで、エッジ613がFalseエッジであることを判定する処理を説明する。Superpixelが横方向に隣接しているか調べるために位置621と位置623のラベル値を使用する。エッジ612の両端のSuperpixel617及び618のように隣接している場合は、位置621及び623のラベル値は、Superpixel617及び618のラベル値とそれぞれ一致する条件がラスタスキャンをする中で1回以上発生する。1回以上この条件が発生する場合、エッジ612はTrueエッジと判定される。一方、エッジ613の両端のSuperpixel619及び620のように隣接していない場合は、位置621及び623のラベル値は、Superpixel619及び620のラベル値とそれぞれ一致する条件がラスタスキャンをする中で発生しない。この条件が発生しない場合、エッジ613はFalseエッジと判定される。以上の処理によって横方向の隣接関係を調べることができる。
同様に、位置621のラベル値と位置622のラベル値を参照し、縦方向に隣接するラベル値であるか否かを判定する。ここでは、横方向、縦方向の隣接関係の判定を別々に説明しているが、これらはラベルマップの1度のラスタスキャンで一緒に処理して構わない。
Trueエッジ判定部509で使用したラベルマップは、ラベルマップ保持部107に送信される。また、Trueエッジ判定部509で判定されたTrueエッジの情報は隣接グラフ生成部504に送信される。隣接グラフ生成部504では、基本的には、実施形態1の図1の隣接グラフ生成部104の処理と同様の処理を行う。異なる部分は、送信されてきたTrueエッジの情報を元に生成したエッジからTrueエッジのみを選択してSuperpixel統合部105に送信する処理になるところである。
次に、Superpixel統合部105は、実施形態1と同様に、送られたエッジの両端のSuperpixelの特徴量を調べて統合処理を行う。Superpixel統合部105に送られるエッジはTrueエッジのみである。識別部106以降の処理は実施形態1で説明した通りである。
以上、本実施形態では、Trueエッジ判定部509でTrueエッジを検出し、隣接グラフ生成部504で、Trueエッジのみを選択してSuperpixel統合部105で統合する。ここで、本実施形態では、格子配置の4方向グラフのラベル値の参照位置を説明しているが、これに限定されない。例えば、図4(a)の千鳥配置の4方向グラフ、図4(b)の千鳥配置の6方向グラフ、図3(c)の格子配置の8方向グラフに対して図6(d)に示すラベル値の参照位置で隣接関係を判定してもよい。
また、本実施形態では、Trueエッジ判定部509でTrueエッジを検出して、その情報を隣接グラフ生成部504に渡しているが、これに限定されない。例えば、Falseエッジを検出してFalseエッジの情報を隣接グラフ生成部504に渡してTrueエッジのみを選択する処理にしてもよい。
以上説明したように、本実施形態によれば、実施形態1で説明した効果に加えて、隣接グラフで示される隣接関係が正しいか否かを判定することで、より精度の高い隣接グラフを生成することができる。
<実施形態3>
実施形態1及び実施形態2では、専用のハードウェアで、Superpixelを生成するための領域分割処理を実現する構成について説明しているが、これに限定されない。例えば、パーソナルコンピュータ等で実現される情報処理装置のCPUが実行するプログラムによるソフトウェア処理においても同様の速度向上の効果がある。
図7は実施形態1及び2における画像処理機能を実現可能な情報処理装置1001のハードウェア構成を示す図である。1002はCPUであり、装置全体の制御を司る。1003はROMであり、ブートプログラムやBIOS等の各種プログラムを記憶している。1004はRAMであり、CPU1002のワークエリア及び一時待避領域として利用される。1005はハードディスクドライブ(HDD)でああり、OS、領域分割情報を作成するためのアプリケーション、ならびに、様々なデータを格納する。
1006はキーボードであり、1007はマウスであり、これらは情報処理装置1001へ各種入力を行うためのユーザインターフェースとして機能する。1008は表示制御部であり、内部にビデオメモリ及び表示コントローラを内蔵し、画像等の表示を制御する。1009は表示装置であり、表示制御部1008からの画像信号を受信して、表示する。1010はインタフェース(I/F)であり、各種外部デバイスと接続して、情報処理装置1001と外部デバイスとの通信を実現する。情報処理装置1001を構成する各種構成要素は、バス1011を介して相互に接続されて、互いにデータを送受信する。
次に、情報処理装置1001において動作するソフトウェアによって実現される処理について、図8のフローチャートを用いて説明する。
図8(a)は実施形態1の処理をソフトウェアで実行する場合のフローチャートである。この処理は、CPU1002がROM1003に記憶されているプログラムを読み出し、RAM1004上で実行することで実現される。
S901で、CPU1002は、代表点を初期化する。代表点の初期化は、実施形態1で示したように色空間、座標空間の初期化を行う。次に、ステップ902で、CPU1002は、Superpixelを生成する。S902においても実施形態1で示したように、代表点に画素をクラスタリングする処理を行う。
次に、ステップ903で、CPU1002は、隣接グラフを生成する。従来は、S902のSuperpixelの生成によって得られるラベルマップを読み込んで隣接グラフを作成していたが、本実施形態では、S901の初期化された代表点の初期配置を基準に隣接グラフを作成する。隣接グラフの作成方法は実施形態1で示した通りである。また、S903で作成する隣接グラフは、代表点の初期配置を基準にした隣接グラフに限定されず、実施形態1の図3(d)のような近傍グラフでも構わない。
次に、S904で、CPU1002は、作成した隣接グラフを基準に、Superpixelを統合する。次に、S905で、CPU1002は、統合したSuperpixelに対して識別処理を行い、カテゴリを識別する。このように、本実施形態でも、隣接グラフまたは近傍グラフを作成する処理を大幅に省略することができるので高速化が実現できる。
図8(b)は実施形態2の処理をソフトウェアで実行する場合のフローチャートである。この処理は、CPU1002がROM1003に記憶されているプログラムを読み出し、RAM1004上で実行することで実現される。また、図8(b)に示す処理は、図8(a)に示す処理に対して、Trueエッジの判定(S910)を、S903とS904の間に追加したものである。そのため、ここでは、S910のTrueエッジの判定以外の処理の詳細については省略する。
S901〜S903の処理を経て、S910で、CPU1002は、ラベルマップを読み、S903で生成したエッジの中から正しい隣接関係を表すエッジであるTrueエッジを判定する。そして、S904で、CPU1002は、その判定結果に基づいて、Superpixelを統合する。図8(b)においては、Trueエッジを判定する処理が必要になるが、従来のように、隣接関係を表すエッジを重複なく隣接リストを作成する処理を省略できるので、従来よりも高速化できる。また、S910における判定は、Trueエッジの代わりに、Falseエッジを判定するようにしてもよく、その場合は、S903で、Falseエッジを除いてTrueエッジを検出する。
以上説明したように、本実施形態によれば、実施形態1及び実施形態2と同様の効果を、ソフトウェアによっても実現することができる。
<実施形態4>
実施形態1及び実施形態2では、代表点の初期配置を用いて近隣または隣接関係を表す近隣または隣接グラフを用いてSuperpixelの統合を行う構成を説明しているが、代表点の初期配置を基準とすることに限定するものではない。
例えば、Superpixel生成部102で生成された代表点の座標空間の情報を基準にグラフを生成することもできる。図9(a)はSuperpixel生成部102による領域分割後の代表点の配置を示す図である。代表点の座標空間の情報を基準にグラフを生成するために、注目代表点の所定の範囲内に存在する代表点を抽出してエッジを作成する。例えば、代表点702から所定の範囲を示す矩形範囲701内に存在する代表点703、704、及び705を抽出する。そして、図9(b)に示すように、抽出した代表点703、704、及び705と代表点702とを繋ぐエッジ721、722、7及び23を作成する。この処理を全ての代表点について行って得られる代表点の隣接グラフが図9(b)である。尚、この隣接グラフは、実施形態2で説明したように、Superpixelの正確な隣接関係は表してないので、図9(b)の隣接グラフを実施形態2と同様にTrueエッジを検出し使用しても構わない。
また、実施形態1乃至実施形態3では、非特許文献1のSLIC手法に基づいて説明したがはこれに限定されるものではない。例えば、代表点を定義して画素をクラスタリングする領域分割手法であれば、実施形態1乃至3と同様の効果を得ることができる。
尚、以上の実施形態の機能は以下の構成によっても実現することができる。つまり、本実施形態の処理を行うためのプログラムコードをシステムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)がプログラムコードを実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することとなり、またそのプログラムコードを記憶した記憶媒体も本実施形態の機能を実現することになる。
また、本実施形態の機能を実現するためのプログラムコードを、1つのコンピュータ(CPU、MPU)で実行する場合であってもよいし、複数のコンピュータが協働することによって実行する場合であってもよい。さらに、プログラムコードをコンピュータが実行する場合であってもよいし、プログラムコードの機能を実現するための回路等のハードウェアを設けてもよい。またはプログラムコードの一部をハードウェアで実現し、残りの部分をコンピュータが実行する場合であってもよい。
101:画像入力部、102:Superpixel生成部、103:代表点保持部、104:隣接グラフ生成部、105:Superpixel統合部、106:識別部、107:ラベルマップ保持部、108:識別パラメータ保持部、109:代表点初期化部、509:Trueエッジ判定部、504:隣接グラフ生成部

Claims (13)

  1. 入力された画像を構成する画素を複数の代表点にクラスタリングすることで、前記画像を複数の領域に分割する分割手段と、
    前記代表点に基づいて、前記代表点の関係を表すグラフを生成する生成手段と、
    前記分割手段で分割した前記複数の領域の特徴量と前記グラフに基づいて、前記複数の領域を統合する統合手段と
    を備えることを特徴とする画像処理装置。
  2. 前記生成手段は、前記グラフとして、前記代表点の近傍関係を表す近傍グラフを生成する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記生成手段は、前記グラフとして、前記代表点の隣接関係を表す隣接グラフを生成する
    ことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記生成手段は、前記代表点の初期配置を基準に、前記グラフを生成する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記生成手段で生成するグラフを構成するエッジが、前記領域の隣接関係を表しているエッジであるか否かを判定する判定手段を更に備える
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記統合手段による統合後の領域の特徴量に基づいて、前記統合後の領域のカテゴリを識別する識別手段を更に備える
    ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記複数の代表点を作成する作成手段を更に備える
    ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記複数の代表点はそれぞれ、固定の代表点である
    ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  9. 前記代表点は、色空間と座標空間の情報を有していて、
    前記生成手段は、前記代表点の前記座標空間の情報に基づいて、前記グラフを生成する
    ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  10. 前記生成手段は、前記複数の代表点の内、注目代表点の所定の範囲に存在する代表点を抽出して、繋ぐことで、前記グラフを生成する
    ことを特徴とする請求項9に記載の画像処理装置。
  11. 前記統合手段は、前記グラフに関係が表された2つの代表点について、それぞれの代表点に対応する2つの領域の特徴量の類似度を計算し、前記類似度が高い場合は、前記2つの領域を統合する
    ことを特徴とする1乃至10のいずれか1項に記載の画像処理装置。
  12. 入力された画像を構成する画素を複数の代表点にクラスタリングすることで、前記画像を複数の領域に分割する場合に、前記代表点に基づいて、前記代表点の関係を表すグラフを生成する生成工程と、
    前記複数の領域の特徴量と前記グラフに基づいて、前記複数の領域を統合する統合工程と
    を備えることを特徴とする画像処理装置の制御方法。
  13. コンピュータを、請求項1乃至11のいずれか1項に記載の画像処理装置の各手段として機能させるための、または請求項12に記載の画像処理装置の制御方法をコンピュータに実行させるためのプログラム。
JP2014204213A 2014-10-02 2014-10-02 画像処理装置及びその制御方法、プログラム Active JP6546385B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014204213A JP6546385B2 (ja) 2014-10-02 2014-10-02 画像処理装置及びその制御方法、プログラム
US14/862,273 US9607398B2 (en) 2014-10-02 2015-09-23 Image processing apparatus and method of controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014204213A JP6546385B2 (ja) 2014-10-02 2014-10-02 画像処理装置及びその制御方法、プログラム

Publications (2)

Publication Number Publication Date
JP2016075993A true JP2016075993A (ja) 2016-05-12
JP6546385B2 JP6546385B2 (ja) 2019-07-17

Family

ID=55633144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014204213A Active JP6546385B2 (ja) 2014-10-02 2014-10-02 画像処理装置及びその制御方法、プログラム

Country Status (2)

Country Link
US (1) US9607398B2 (ja)
JP (1) JP6546385B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6472279B2 (ja) 2015-03-09 2019-02-20 キヤノン株式会社 画像処理装置及び画像処理方法
EP3479347B1 (en) 2016-06-30 2023-06-14 Microsoft Technology Licensing, LLC Method and apparatus for detecting a salient point of a protuberant object
GB2565775A (en) * 2017-08-21 2019-02-27 Nokia Technologies Oy A Method, an apparatus and a computer program product for object detection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085233A (ja) * 2010-10-14 2012-04-26 Sharp Corp 映像処理装置、映像処理方法、及びプログラム
US20120275701A1 (en) * 2011-04-26 2012-11-01 Minwoo Park Identifying high saliency regions in digital images
JP2014026370A (ja) * 2012-07-25 2014-02-06 Nippon Hoso Kyokai <Nhk> 映像領域分割装置及び映像領域分割プログラム
JP2014041476A (ja) * 2012-08-22 2014-03-06 Canon Inc 画像処理装置、画像処理方法及びプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6055335A (en) * 1994-09-14 2000-04-25 Kabushiki Kaisha Toshiba Method and apparatus for image representation and/or reorientation
JP2718401B2 (ja) * 1995-08-25 1998-02-25 日本電気株式会社 線対称図形整形装置及び任意の数の対称軸の全てについて線対称な図形を生成する方法
JP2001043376A (ja) * 1999-07-30 2001-02-16 Canon Inc 画像抽出方法及び装置並びに記憶媒体
JP4237212B2 (ja) * 2006-08-22 2009-03-11 Nec東芝スペースシステム株式会社 画像処理方法、画像処理プログラムおよびプログラム記録媒体
JP5334423B2 (ja) * 2008-02-13 2013-11-06 株式会社日立メディコ 画像処理装置、画像処理方法、およびプログラム
JP5014237B2 (ja) * 2008-04-23 2012-08-29 本田技研工業株式会社 レーンマーカ認識装置、車両、及びレーンマーカ認識用プログラム
US8982123B2 (en) * 2008-06-19 2015-03-17 Xerox Corporation Reducing the number of vertices in a clustered delaunay mesh
JP5220677B2 (ja) * 2009-04-08 2013-06-26 オリンパス株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP5440080B2 (ja) * 2009-10-02 2014-03-12 ソニー株式会社 行動パターン解析システム、携帯端末、行動パターン解析方法、及びプログラム
JP5534007B2 (ja) * 2010-05-12 2014-06-25 日本電気株式会社 特徴点検出システム、特徴点検出方法、及びプログラム
JP5542530B2 (ja) * 2010-06-04 2014-07-09 株式会社日立ソリューションズ サンプリング位置決定装置
JP6096415B2 (ja) * 2012-03-07 2017-03-22 東芝メディカルシステムズ株式会社 超音波診断装置及びその作動方法
JP2013218487A (ja) * 2012-04-06 2013-10-24 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP6210953B2 (ja) * 2014-08-20 2017-10-11 キヤノン株式会社 画像処理装置および画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012085233A (ja) * 2010-10-14 2012-04-26 Sharp Corp 映像処理装置、映像処理方法、及びプログラム
US20120275701A1 (en) * 2011-04-26 2012-11-01 Minwoo Park Identifying high saliency regions in digital images
JP2014026370A (ja) * 2012-07-25 2014-02-06 Nippon Hoso Kyokai <Nhk> 映像領域分割装置及び映像領域分割プログラム
JP2014041476A (ja) * 2012-08-22 2014-03-06 Canon Inc 画像処理装置、画像処理方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ACHANTA, R. ET AL.: "SLIC Superpixels Compared to State-of-the-Art Superpixel Methods", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. Vol. 34, No. 11, JPN6018044312, November 2012 (2012-11-01), pages pp. 2274-2281 *
宮本翔太 外4名: "事前知識を組み込んだsuperpixel結合に基づく領域分割とラベル付け", 第16回画像センシングシンポジウム講演論文集, JPN6018044313, 9 June 2010 (2010-06-09), pages pp.IS2-11-1〜IS2-11-7 *

Also Published As

Publication number Publication date
US9607398B2 (en) 2017-03-28
US20160098843A1 (en) 2016-04-07
JP6546385B2 (ja) 2019-07-17

Similar Documents

Publication Publication Date Title
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
CN108229490B (zh) 关键点检测方法、神经网络训练方法、装置和电子设备
Dalla Mura et al. Classification of hyperspectral images by using extended morphological attribute profiles and independent component analysis
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
JP2018022484A (ja) 画像内の物体を検出する方法及び物体検出システム
CN109583345B (zh) 道路识别方法、装置、计算机装置及计算机可读存储介质
AU2011250829B2 (en) Image processing apparatus, image processing method, and program
CN111435438A (zh) 适于增强现实、虚拟现实和机器人的图形基准标记识别
US9679388B2 (en) Region segmentation apparatus and method
CN108399424B (zh) 一种点云分类方法、智能终端及存储介质
JP6194692B2 (ja) Trimap生成装置、Trimap生成方法、及びプログラム
US20210256707A1 (en) Learning to Segment via Cut-and-Paste
JP2015099563A (ja) 画像処理装置、画像処理方法及びプログラム
CN109345536B (zh) 一种图像超像素分割方法及其装置
JP2009169925A (ja) 画像検索装置および画像検索方法
JP6546385B2 (ja) 画像処理装置及びその制御方法、プログラム
JP2014016688A (ja) 顕著性マップを利用した非写実変換プログラム、装置及び方法
CN111881915A (zh) 一种基于多种先验信息约束的卫星视频目标智能检测方法
JP6887154B2 (ja) 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
JP2008040557A (ja) 画像表示装置、画像表示方法及び画像表示プログラム
JP6132485B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
JP2012048326A (ja) 画像処理装置及びプログラム
KR101592087B1 (ko) 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체
JP6717049B2 (ja) 画像解析装置、画像解析方法およびプログラム
CN109800758A (zh) 一种极大值区域检测的自然场景文字检测方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190621

R151 Written notification of patent or utility model registration

Ref document number: 6546385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151