JP2006221523A - オブジェクト領域抽出システムおよび方法 - Google Patents

オブジェクト領域抽出システムおよび方法 Download PDF

Info

Publication number
JP2006221523A
JP2006221523A JP2005036047A JP2005036047A JP2006221523A JP 2006221523 A JP2006221523 A JP 2006221523A JP 2005036047 A JP2005036047 A JP 2005036047A JP 2005036047 A JP2005036047 A JP 2005036047A JP 2006221523 A JP2006221523 A JP 2006221523A
Authority
JP
Japan
Prior art keywords
cluster
feature amount
color
area
object candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005036047A
Other languages
English (en)
Inventor
Hideki Kobayashi
秀樹 小林
Atsuo Yoshitaka
淳夫 吉高
Terumasa Hyodo
輝将 兵頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chuden Engineering Consultants Co Ltd
Original Assignee
Chuden Engineering Consultants Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chuden Engineering Consultants Co Ltd filed Critical Chuden Engineering Consultants Co Ltd
Priority to JP2005036047A priority Critical patent/JP2006221523A/ja
Publication of JP2006221523A publication Critical patent/JP2006221523A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】特徴量が変化する同一および同種のオブジェクトの検索に適したオブジェクト領域抽出システムおよび方法を提供する。
【解決手段】オブジェクト領域抽出システム10は、例示画像を用いて求めた色に関する各クラスタが持つ特徴量および形状に関する各クラスタが持つ特徴量が格納された特徴量記憶装置22と、オブジェクト領域を含む入力画像に対して、色に関する各クラスタが持つ特徴量を用いて段階的に第1のオブジェクト候補領域の絞込みを行う第1のオブジェクト候補領域抽出部11と、この第1のオブジェクト候補領域に対して、形状に関する各クラスタが持つ特徴量を用いて段階的に第2のオブジェクト候補領域の絞込みを行う第2のオブジェクト候補領域抽出部12と、この第2のオブジェクト候補領域からオブジェクト領域を決定するオブジェクト領域決定部13とを備える。
【選択図】 図1

Description

本発明は、オブジェクト領域抽出システムおよび方法に関し、特に、工事写真に含まれる黒板を探し出すのに好適なオブジェクト領域抽出システムおよび方法に関する。
公共事業では成果品を最後に必ず納品することになっており、工事の場合には、工事写真を納品する必要がある。工事写真には必ずといっていいほど黒板が写されている。この黒板には工事名称や工事の内容など重要な情報が記載されており、工事写真においては黒板の情報が極めて重要である。
そのため、納品する工事写真帳では、わざわざ黒板のみを切り取り、拡大して表示することがしばしば行われている。しかし、工事写真は通常では数百枚から数千枚と非常に多く、手作業で黒板を抽出する作業には大変な労力がかかる。
そこで、工事写真を画像化し、画像化した工事写真から黒板画像を自動的に抽出するシステムが要請されている。
しかしながら、工事現場における黒板のように、撮影された角度や照明などの撮影環境が異なるオブジェクト、および色や形状などの特徴量が異なる同種のオブジェクト(他の例では、赤い車と青い車)については、ユーザからすれば同じオブジェクトといえても、特徴量が変化してしまう。
そこで、検索対象である同一および同種のオブジェクトが含まれた複数の例示画像を入力として与え、抽出した色に関する特徴量、形状に関する特徴量をクラスタリングすることにより、そのオブジェクトが取り得る色および形状の特徴量を獲得し、その特徴量を利用して特徴量が変化する同一および同種のオブジェクトの検索を行うことが考えられる。
なお、多数の例示画像を用いてオブジェクトを検索する手法としては、下記の非特許文献1および非特許文献2に開示されているものがある。
非特許文献1では、例示画像群から抽出した特徴量から、ユーザが意図する距離関数と問合せ位置を推定することで、一般化された楕円距離による問合せを実現している。
非特許文献2では、例示画像群から抽出した特徴量から画像のクラスタリングを行い、各画像クラスタについて標準偏差法による特徴量毎の重み付けを行い、検索時には、重み付きのユークリッド距離による類似度計算を行っている。
Yoshiharu Ishikawa, Ravishankar Subramanya, Christos Faloutsos, "MindReader: Querying database through multiple examples", Proceeding of the 24th VLDB Conference New York, USA, 1998 Roberto Brunelli, Ornella Mich, "Image Retrieval by Examples", IEEE Trans. on Multimedia, Vol.2, No.3, pp.164-171, Sep. 2000
しかしながら、非特許文献1および非特許文献2に開示されている手法では、多次元からなる特徴量の中で、ユーザが類似性の観点として着目している特徴量または特徴量間の相関を推定し、ユーザの意図に則した問合せを行っており、これらの手法における複数の例示画像を用いることの目的は、ユーザの注目している特徴量を自動的に推測することにある。したがって、これらの手法は、特徴量が変化する同一および同種のオブジェクトの検索には必ずしも適しているとはいえない。
本発明の目的は、特徴量が変化する同一および同種のオブジェクトの検索に適したオブジェクト領域抽出システムおよび方法を提供することにある。
本発明のオブジェクト領域抽出システムは、例示画像を用いて求めた色に関する各クラスタが持つ特徴量および形状に関する各クラスタが持つ特徴量が格納された特徴量記憶装置(22)と、オブジェクト領域を含む入力画像に対して、前記特徴量記憶装置に格納されている前記色に関する各クラスタが持つ特徴量を用いて、段階的に第1のオブジェクト候補領域の絞込みを行う第1のオブジェクト候補領域抽出部(11)と、該第1のオブジェクト候補領域抽出部により抽出された第1のオブジェクト候補領域に対して、前記特徴量記憶装置に格納されている前記形状に関する各クラスタが持つ特徴量を用いて、段階的に第2のオブジェクト候補領域の絞込みを行う第2のオブジェクト候補領域抽出部(12)と、該第2のオブジェクト候補領域抽出部により抽出された第2のオブジェクト候補領域に基づいて前記オブジェクト領域を決定するオブジェクト領域決定部(13)とを具備することを特徴とする。
ここで、前記色に関する各クラスタが持つ特徴量が、前記例示画像を構成している代表色を求め、該求めた代表色の色相,彩度および輝度の値の範囲を色特徴量として抽出することにより求められたものであってもよい。
前記色に関する各クラスタが持つ特徴量が、前記抽出した代表色が複数存在した場合には、各代表色に該当する画素数の前記オブジェクト領域の全画素数に対する割合を求めて、各代表色の面積の特徴量を抽出し、かつ、前記抽出した代表色が複数存在した場合には、代表色同士の空間関係の特徴量を抽出することにより求められたものであってもよい。
前記形状に関する各クラスタが持つ特徴量が、前記例示画像を含む最小矩形領域の横幅に対する縦幅の割合を算出して、該算出した割合を大まかな形状特徴量として抽出し、かつ、前記例示画像の輪郭となる全画素について接線角度を計算し、前記例示画像の対象オブジェクト領域の重心から見て所定の角度毎に該接線角度の頻度を求めた角度ヒストグラムを生成して、該生成した角度ヒストグラムを詳細な形状特徴量として抽出することにより求められたものであってもよい。
前記色に関する各クラスタが持つ特徴量が、前記色相の値の範囲の特徴量について、以下の手順に従って前記色特徴量のクラスタリングを行うことにより求められてもよい。
手順1:すべての色相の値の範囲のデータを同じクラスタに所属させる
手順2:分割後のクラスタ数を「2」とするとともに、クラスタの重心座標をクラスタに属するデータの各次元の最小値および最大値として、k−平均法によりクラスタリングする
手順3:分割後の各クラスタの分散を計算し、その値が閾値以上のクラスタを検出する
手順4:前記手順3で検出したクラスタについて、再び前記手順2および前記手順3の処理を行う
手順5:すべてのクラスタの分散が前記閾値未満となった場合にクラスタリングを終了し、各クラスタについて、所属するデータの各色特徴量の平均値を、そのクラスタが持つ色特徴量とする。
本発明のオブジェクト領域抽出方法は、オブジェクト領域を含む入力画像をオブジェクト領域抽出システム(10)に入力するステップと(S11)、第1のオブジェクト候補領域抽出部(11)が、前記入力画像に対して、例示画像を用いて求めた色に関する各クラスタが持つ特徴量を用いて、段階的に第1のオブジェクト候補領域の絞込みを行うステップ(S12〜S15)と、第2のオブジェクト候補領域抽出部(12)が、前記第1のオブジェクト候補領域抽出部から入力される前記第1のオブジェクト候補領域に対して、前記例示画像を用いて求めた形状に関する各クラスタが持つ特徴量を用いて、段階的に第2のオブジェクト候補領域の絞込みを行うステップ(S17,S18)と、オブジェクト領域決定部(13)が、前記第2のオブジェクト候補領域抽出部から入力される前記第2のオブジェクト候補領域に基づいて前記オブジェクト領域を決定するステップ(S20)とを具備する。
本発明のオブジェクト領域抽出システムおよび方法は、たとえば、画像化した工事写真に含まれる黒板画像のような特徴量が変化する同一および同種のオブジェクトを正確に抽出することができる。
特徴量が変化する同一および同種のオブジェクトの検索に適するという目的を、オブジェクト領域を含む入力画像に対して、色に関する各クラスタが持つ特徴量を用いて段階的に第1のオブジェクト候補領域の絞込みを行い、この第1のオブジェクト候補領域に対して、形状に関する各クラスタが持つ特徴量を用いて段階的に第2のオブジェクト候補領域の絞込みを行ったのち、この第2のオブジェクト候補領域に基づいてオブジェクト領域を決定することにより実現した。
以下、本発明のオブジェクト領域抽出システムおよび方法の実施例について図面を参照して説明する。なお、以下では、工事写真画像(以下、「データベース画像」と称する。)に含まれる黒板領域をオブジェクト領域として抽出する場合を例として説明する。
図1は、本発明の一実施例によるオブジェクト領域抽出システムを説明するための概略ブロック図である。本実施例によるオブジェクト領域抽出システム10は、データベース画像(入力画像)に対して、色に関する各クラスタが持つ特徴量を用いて段階的にオブジェクト候補領域の絞込みを行う第1のオブジェクト候補領域抽出部11と、第1のオブジェクト候補領域抽出部11により抽出されたオブジェクト候補領域に対して、形状に関する各クラスタが持つ特徴量を用いて段階的にオブジェクト候補領域の絞込みを行う第2のオブジェクト候補領域抽出部12と、第2のオブジェクト候補領域抽出部12により抽出されたオブジェクト候補領域からオブジェクト領域を決定するオブジェクト領域決定部13とを備えている。
第1のオブジェクト候補領域抽出部11は外部の画像入力装置20に接続されている。ここで、画像入力装置20は、黒板を含む工事写真を画像化した工事写真画像(データベース画像)を表すデータベース画像データが格納された画像記憶装置21から1つのデータベース画像データを読み出して、読み出したデータベース画像データをオブジェクト領域抽出システム10に入力する。
第1および第2のオブジェクト候補領域抽出部11,12は、工事写真の黒板について複数の例示画像を用いて求めた色に関する各クラスタが持つ特徴量および形状に関する各クラスタが持つ特徴量を表す特徴量データが格納された特徴量記憶装置22に接続されている。
オブジェクト領域決定部13は、決定されたオブジェクト領域を表すオブジェクト領域データが格納されるオブジェクト領域記憶装置23に接続されている。
以下、特徴量記憶装置22に格納されている特徴量データについて、図2に示すような、工事写真画像(データベース画像)に含まれる黒板画像(オブジェクト領域)を例示画像とした場合を例として説明する。
まず、第1のオブジェクト候補領域抽出部11において用いられる色に関する各クラスタが持つ特徴量について説明する。
以下のようにして、例示画像を構成している代表色を求め、求めた代表色の色相(H),彩度(S)および輝度(V)の値の範囲を色特徴量として抽出する。
例示画像を表す例示画像データをたとえばメディアンフィルタにより平滑化し、例示画像の全画素について、色相(H),彩度(S)および輝度(V)の各次元について値を「72」,「32」および「32」に等分割したHSVヒストグラムを生成する。
続いて、連続する5×5×5要素(計72×28×28通り)の頻度の和をすべて計算し、頻度の和が最大となる5×5×5要素の範囲を検出したのち、検出した範囲の中で頻度が最大となる要素を検出して、検出した要素の色相(H),彩度(S)および輝度(V)の各次元の座標(s,t,u)を求める。
続いて、72等分割の色相(H)ヒストグラムと32等分割の彩度(S)ヒストグラムと32等分割の輝度(V)ヒストグラムとを生成したのち、各ヒストグラムについて、上記求めた座標(s,t,u)の各座標値s,t,uを基準に、ヒストグラムの隣接する階級について(1)式に示す条件を満たすまで順に検索していき、検索した範囲を代表色が取る色相,彩度および輝度それぞれの範囲とする。なお、(1)式は、ヒストグラムのある階級iにおける度数f(i)が閾値Thcolorよりも小さくなったときに、その階級がヒストグラムの分割点であることを表している。ただし、その階級の度数だけでなく、その左右2つまでの階級の度数の和を計算することで、より適切な評価をするようにしている。
f(i-2)+f(i-1)+f(i)+f(i+1)+f(i+2)<Thcolor (1)
ここで、Thcolor=(オブジェクト領域の全画素数)/40
続いて、検出した値の範囲は量子化したヒストグラム上での範囲であり実際の色相(H),彩度(S)および輝度(V)の値の範囲ではないため、(2)式により、検出した値の範囲を実際の色相(H),彩度(S)および輝度(V)の値の範囲に変換する。
minH=minHhist×5, MaxH=MaxHhist×5+4
minS=minShist×8, MaxS=MaxShist×8+7 (2)
minV=minVhist×8, MaxV=MaxVhist×8+7
ここで、minHhistからMaxHhistが色相ヒストグラム上の色相の値の範囲(一端から一端)であり、minShistからMaxShistが彩度ヒストグラム上の彩度の値の範囲(下限から上限)であり、minVhistからMaxVhistが輝度ヒストグラム上の輝度の値の範囲(最小から最大)であり、minHからMaxHが実際の色相の値の範囲(一端から一端)であり、minSからMaxSが実際の彩度の値の範囲(下限から上限)であり、minVからMaxVが輝度の値の範囲(最小から最大)である。
また、0≦t≦4の場合は、その代表色を無彩色と判断する。無彩色を表現する際には、色相の値は無関係となるので、色相範囲を0°〜359°とすることで、色相の制限を排除する。
この一連の処理を、一定数の代表色を抽出するまで、未探索な要素について繰り返す。図2に、2色まで代表色を抽出した結果の一例を示す。この例では、色相の値の範囲が0〜359であり、彩度の値の範囲が0〜39であり、かつ輝度の値の範囲が240〜255である第1の代表色と、色相の値の範囲が119〜213であり、彩度の値の範囲が0〜119であり、かつ輝度の値の範囲が240〜255である第2の代表色とが抽出されている。
ただし、抽出した代表色に該当する画素数が例示画像の全画素数に対して0.05以下である場合には、抽出した代表色は代表色ではないと判断して、除去する。
また、抽出した代表色が複数存在した場合には、各代表色が例示画像に対して占める割合を獲得するために、各代表色に該当する画素数の例示画像の全画素数に対する割合を求めて、各代表色の面積の特徴量を抽出する。図2に示す例では、第1の代表色の面積=0.09であり、第2の代表色の面積=0.91である。
さらに、抽出した代表色が複数存在した場合には、複数の代表色がどのような位置関係を持っているかという情報を獲得するために、代表色同士の空間関係の特徴量を抽出する。
具体的には、面積が最大となる代表色領域の重心と、例示画像を含む最小矩形領域とを算出する。そして、その重心を中心とする最小矩形領域の縦横1/2の矩形領域と、この矩形領域を除く上下左右方向それぞれに存在するその他の代表色領域の画素数とを算出し、上下左右方向それぞれに存在するその他の代表色領域の画素数の、上下左右方向それぞれに存在するその他の代表色領域の全画素数に対する割合を算出して、代表色同士の空間関係の特徴量とする。図3に、求めた代表色同士の空間関係の特徴量の一例を示す。この例では、第1および第2の代表色同士の空間関係は、中・上・左・下および右方向の割合がそれぞれ、0.30,0.66,0.01,0.01および0.02となるものである。この特徴量の次元数は、{(構成色数−1)×5}となる。
この特徴量により、面積が最大となる代表色領域を基準としたその他の代表色領域それぞれの空間関係を表現することができる。
このようにして複数の例示画像について色特徴量を抽出したのち、抽出した色特徴量の中で、主観的に見た色の変動に最も則している特徴量は色相の特徴量であると考え、2×(代表色数)次元の色相(H)の値の範囲の特徴量について、以下の手順に従って色特徴量のクラスタリングを行う。
手順1:図4に示すように、すべての色相(H)の値の範囲のデータを同じクラスタに所属させる。
手順2:図5に示すように、分割後のクラスタ数を「2」とするとともに、クラスタの重心座標をクラスタに属するデータの各次元の最小値および最大値として、k−平均法によりクラスタリングする。
手順3:図6に示すように、分割後の各クラスタの分散を計算し、その値が閾値Thvar(=40)以上のクラスタを検出する。なお、閾値Thvarは、たとえば、多数の例示画像を色に基づいて主観によりクラスタリングした際の全クラスタの中での最大の分散値とする。
手順4:図7に示すように、手順3で検出したクラスタについて、再び手順2および手順3の処理を行う。
手順5:図8に示すように、すべてのクラスタの分散が閾値Thvar未満となった場合にクラスタリングを終了し、各クラスタについて、所属するデータの各色特徴量(代表色,空間関係および面積の特徴量)の平均値を、そのクラスタが持つ色特徴量とする。
ただし、例示画像によって代表色が異なる場合には、同じ代表色となる例示画像の集合毎にクラスタリングを行う。
また、k−平均法は、初めにクラスタ数を決定しなければならないが、与える例示画像群によって、適切なクラスタ数が異なる。そこで、前述した処理により、クラスタ内の分散値を考慮し、その値が大きいクラスタをさらに分割していくことにより、適切なクラスタ数を決定することが可能となる。
k−平均法の処理手順を以下に示す。
手順1:ランダムに選択したk個の点を初期クラスタの重心とする。
手順2:すべてのデータに対して、クラスタの重心との距離を計算し、最も近いクラスタに属させる。
手順3:各クラスタに属するデータの各座標の平均値を新しいクラスタの重心座標とする。
手順4:クラスタの重心座標が収束するまで手順1から手順3の処理を繰り返す。たとえば、各データのクラスタリングの結果が変化しなくなった時点で収束したとする。
次に、第2のオブジェクト候補領域抽出部12において用いられる形状に関する各クラスタが持つ特徴量について説明する。
例示画像(オブジェクト領域)の大まかな形状として例示画像の縦横比を計算する。そして、例示画像を含む最小矩形領域の横幅に対する縦幅の割合を算出し、この算出した割合を大まかな形状特徴量として抽出する。図9に、抽出した大まかな形状特徴量の一例を示す。この例では、大まかな形状特徴量=1.2である。大まかな形状特徴量の次元数は1次元である。
続いて、以下のようにして、例示画像中のオブジェクト領域の詳細な形状特徴量を抽出する。
図10に示すように、例示画像の重心位置から下方向に下ろした線と例示画像の輪郭との交点を探索開始点として、例示画像の輪郭となる画素を反時計回りに検索していく。オブジェクト領域の輪郭となる全画素について接線角度を計算し、オブジェクト領域の重心から見て10°毎に接線角度の頻度を求めた36分割の角度ヒストグラムを生成する。このとき、接線角度は、たとえば、ある輪郭上の画素からその4画素先に引いた直線の水平方向に対する角度として求める。この生成した角度ヒストグラムを詳細な形状特徴量とする。なお、詳細な形状の特徴量の次元数は36次元である。
このようにして複数の例示画像について詳細な形状特徴量を抽出したのち、抽出した詳細な形状特徴量について、上述した色特徴量のクラスタリングの手順1から手順5に沿ってクラスタリングを行うことにより、各クラスタの詳細な形状特徴量を抽出する。このときに用いる閾値Thvarは、色特徴量のクラスタリングの際と同様に、たとえば、複数の例示画像を形状に基づいて主観によりクラスタリングした際の全クラスタの中での最大の分散値である0.001とする。
ここで、詳細な形状特徴量のクラスタリングに用いる閾値Thvar(=0.001)を色特徴量のクラスタリングに用いる閾値Thvar(=40)と異なる値とする理由は、クラスタリングに用いる特徴量の次元数と、取る値の範囲とが異なるためである。
図11に、3つの例示画像1〜3について色に関する各クラスタが持つ特徴量および形状に関する各クラスタが持つ特徴量を抽出した例を示す。
以下、図11の最下段に示す3つのデータベース画像に含まれている黒板画像(オブジェクト領域)を抽出するときのオブジェクト領域抽出システム10の動作(本発明の一実施例によるオブジェクト領域抽出方法)について、図12に示すフローチャートを参照して説明する。
担当者は、画像入力装置20を用いて、画像記憶装置21に格納されている多数のデータベース画像データ(工事写真画像データ)のうちの図11に示す3つのデータベース画像データを1つずつ読み出したのち、読み出したデータベース画像データをオブジェクト領域抽出システム10に入力する(ステップS11)。
オブジェクト領域抽出システム10の第1のオブジェクト候補領域抽出部11は、画像入力装置20からのデータベース画像データによって表されるデータベース画像(入力画像)に対して、特徴量記憶装置22に格納されている色に関する各クラスタが持つ特徴量に基づいて、色に関する各クラスタが持つ各構成色の色相(H),彩度(S)および輝度(V)それぞれの範囲に収まる画素を抽出し、一つながりとなる領域をラベリングすることにより、色特徴量による第1の絞込みを行う(ステップS12)。図13に、色特徴量による第1の絞込みの結果の一例を示す。
続いて、第1のオブジェクト候補領域抽出部11は、ラベリングされた各領域に対して、データベース画像全体に対する面積の割合が閾値Tharea(=(データベース画像全体の面積)/200)以下の領域については、オブジェクト候補領域ではなくノイズ領域と判断して除去することにより、色特徴量による第2の絞込みを行う(ステップS13)。図14に、色特徴量による第2の絞込みの結果の一例を示す。
続いて、第1のオブジェクト候補領域抽出部11は、クラスタの構成色が複数存在した場合には、そのすべての構成色を含む領域のみを抽出し、それ以外の領域は除去することにより、色特徴量による第3の絞込みを行う(ステップS14)。図15に、色特徴量による第3の絞込みの結果の一例を示す。
また、第1のオブジェクト候補領域抽出部11は、抽出した各領域から前述したようにして空間関係および面積の特徴量を抽出したのち、抽出した空間関係および面積の特徴量と色に関する各クラスタが持つ空間関係および面積の特徴量との類似度を(3)式により計算し、共に0.6以上となる領域のみを抽出し、それ以外の領域は除去することにより、色特徴量による第4の絞込みを行う(ステップS15)。図16に、色特徴量による第4の絞込みの結果の一例を示す。
Figure 2006221523
(3)式において、mは、空間関係(または面積)の特徴量の次元数であり、colorc(i)は、色に関するクラスタが持つ空間関係(または面積)のi番目の特徴量であり、colord(i)は、領域から抽出した空間関係(または面積)のi番目の特徴量であり、Simcolorは、0から1までの値を取り、1に近づくほど両者間の類似度が高くなる。
以上のようにして抽出された領域(第1のオブジェクト候補領域)を表す第1のオブジェクト候補領域データは、第1のオブジェクト候補領域抽出部11から第2のオブジェクト候補領域抽出部12に出力される(ステップS16)。
第2のオブジェクト候補領域抽出部12は、第1のオブジェクト候補領域抽出部11から入力される第1のオブジェクト候補領域データによって表される第1のオブジェクト候補領域に対して、以下のようにして、形状に関する各クラスタが持つ特徴量を用いて、オブジェクト候補領域の絞込みを更に行う。
まず、第2のオブジェクト候補領域抽出部12は、第1のオブジェクト候補領域から大まかな形状特徴量ratiod(縦横比)を抽出したのち、特徴量記憶装置22に格納されている形状に関する各クラスタが持つ特徴量に基づいて、形状に関する各クラスタが持つ大まかな形状特徴量ratiocと、抽出した大まかな形状特徴量ratiodとの類似度Simratioを(4)式により計算する。その後、第2のオブジェクト候補領域抽出部12は、類似度Simratioが0.75以上1.5以下となる領域にのみを抽出し、それ以外の領域を除去することにより、形状特徴量による第1の絞込みを行う(ステップS17)。図17に、形状特徴量による第1の絞込みの結果の一例を示す。なお、(4)式においては、類似度Simratioは、1に近づくほど両者の類似度が高くなるような値となる。
Figure 2006221523
続いて、第2のオブジェクト候補領域抽出部12は、形状特徴量による第1の絞込みにより抽出した領域から詳細な形状特徴量を抽出したのち、特徴量記憶装置22に格納されている形状に関する各クラスタが持つ特徴量に基づいて、形状に関する各クラスタが持つ詳細な形状特徴量と、抽出した詳細な形状特徴量との類似度を、以下に示す(5)〜(7)式により計算する。その後、第2のオブジェクト候補領域抽出部12は、類似度が0.6以上となる領域にのみを抽出し、それ以外の領域を除去することにより、形状特徴量による第2の絞込みを行う(ステップS18)。
Figure 2006221523
なお、(5)式において、nは、詳細な形状特徴量の次元数であり、formc(i)は、形状に関するクラスタが持つ詳細な形状のi番目の特徴量であり、formd(k)は、抽出した詳細な形状のk((7)式により算出)番目の特徴量である。なお、この類似度計算は、形状に関するクラスタが持つ詳細な形状のi番目の特徴量と、形状特徴量による第1の絞込みにより抽出した領域の対応する特徴量との値の差の絶対値を計算することを基本的な考え方としているが、i番目同士の特徴量の差を取るだけでは、わずかな角度のずれが生じただけで類似していないと判断されてしまうため、(6)式のような計算を行うことにより、わずかな角度のずれを考慮して類似度を計算する。
ここで、(6)式では、形状に関するクラスタが持つ詳細な形状のi番目の特徴量と、形状特徴量による第1の絞込みにより抽出した領域のi番目、またその前後2つまでのk番目の特徴量との差を、iとの差の大きさによって重みを変えた上で計算する。そして、その中の最小値を、詳細な形状のi番目の特徴量に関する類似度としている。
続いて、第2のオブジェクト候補領域抽出部12は、形状特徴量による第2の絞込みにより抽出された領域を第2のオブジェクト候補領域とし、第2のオブジェクト候補領域を表す第2のオブジェクト候補領域データと、第2のオブジェクト候補領域内の各領域の詳細な形状の特徴量を表す詳細な形状の特徴量データとをオブジェクト領域決定部13に出力する(ステップS19)。
オブジェクト領域決定部13は、第2のオブジェクト候補領域抽出部12から入力される第2のオブジェクト候補領域データおよび詳細な形状の特徴量データに基づいて、第2のオブジェクト候補領域の中に1つの領域しかない場合には、その領域をオブジェクト領域と決定し、一方、第2のオブジェクト候補領域の中に複数の領域がある場合には、複数の領域の中で詳細な形状の特徴量が最も類似した領域をオブジェクト領域と決定したのち、決定したオブジェクト領域を表すオブジェクト領域データをオブジェクト領域記憶装置23に格納する(ステップS20)。図18に、オブジェクト領域決定部13により決定されたオブジェクト領域の一例を示す。
図18に示すように、工事写真画像(データベース画像)に含まれている黒板画像(オブジェクト領域)を正確に抽出することができる。
以上の説明では、k−平均法によりクラスタリングを行ったが、単一パス法,重心法およびメディアン法などによりクラスタリングを行ってもよい。
以上説明したように、本発明のオブジェクト領域抽出システムおよび方法は、たとえば、工事写真画像から黒板画像を検索するのに利用することができる。
本発明の一実施例によるオブジェクト領域抽出システムを説明するための概略ブロック図である。(実施例1) 代表色を2色まで抽出した結果の一例を示す図である。(実施例1) 代表色同士の空間関係の特徴量の一例を示す図である。(実施例1) 色特徴量のクラスタリング処理の手順1を説明するための図である。(実施例1) 色特徴量のクラスタリング処理の手順2を説明するための図である。(実施例1) 色特徴量のクラスタリング処理の手順3を説明するための図である。(実施例1) 色特徴量のクラスタリング処理の手順4を説明するための図である。(実施例1) 色特徴量のクラスタリング処理の手順5を説明するための図である。(実施例1) 大まかな形状特徴量の一例を示す図である。(実施例1) 詳細な形状特徴量の抽出方法を説明するための図である。(実施例1) 3つの例示画像1〜3について色に関する各クラスタが持つ特徴量および形状に関する各クラスタが持つ特徴量を抽出した例を示す図である。(実施例1) 図1に示したオブジェクト領域抽出システム10の動作を説明するためのフローチャートである。(実施例1) 第1のオブジェクト候補領域抽出部11における色特徴量による第1の絞込みの結果の一例を示す図である。(実施例1) 第1のオブジェクト候補領域抽出部11における色特徴量による第2の絞込みの結果の一例を示す図である。(実施例1) 第1のオブジェクト候補領域抽出部11における色特徴量による第3の絞込みの結果の一例を示す図である。(実施例1) 第1のオブジェクト候補領域抽出部11における色特徴量による第4の絞込みの結果の一例を示す図である。(実施例1) 第2のオブジェクト候補領域抽出部12における形状特徴量による第1の絞込みの結果の一例を示す図である。(実施例1) オブジェクト領域決定部13により決定されたオブジェクト領域の一例を示す図である。(実施例1)
符号の説明
10 オブジェクト領域抽出システム
11 第1のオブジェクト候補領域抽出部
12 第2のオブジェクト候補領域抽出部
13 オブジェクト領域決定部
20 画像入力装置
21 画像記憶装置
22 特徴量記憶装置
23 オブジェクト領域記憶装置
S11〜S20 ステップ

Claims (6)

  1. 例示画像を用いて求めた色に関する各クラスタが持つ特徴量および形状に関する各クラスタが持つ特徴量が格納された特徴量記憶装置(22)と、
    オブジェクト領域を含む入力画像に対して、前記特徴量記憶装置に格納されている前記色に関する各クラスタが持つ特徴量を用いて、段階的に第1のオブジェクト候補領域の絞込みを行う第1のオブジェクト候補領域抽出部(11)と、
    該第1のオブジェクト候補領域抽出部により抽出された第1のオブジェクト候補領域に対して、前記特徴量記憶装置に格納されている前記形状に関する各クラスタが持つ特徴量を用いて、段階的に第2のオブジェクト候補領域の絞込みを行う第2のオブジェクト候補領域抽出部(12)と、
    該第2のオブジェクト候補領域抽出部により抽出された第2のオブジェクト候補領域に基づいて前記オブジェクト領域を決定するオブジェクト領域決定部(13)と、
    を具備することを特徴とする、オブジェクト領域抽出システム。
  2. 前記色に関する各クラスタが持つ特徴量が、前記例示画像を構成している代表色を求め、該求めた代表色の色相,彩度および輝度の値の範囲を色特徴量として抽出することにより求められたものであることを特徴とする、請求項1記載のオブジェクト領域抽出システム。
  3. 前記色に関する各クラスタが持つ特徴量が、前記抽出した代表色が複数存在した場合には、各代表色に該当する画素数の前記オブジェクト領域の全画素数に対する割合を求めて、各代表色の面積の特徴量を抽出し、かつ、前記抽出した代表色が複数存在した場合には、代表色同士の空間関係の特徴量を抽出することにより求められたものであることを特徴とする、請求項1または2記載のオブジェクト領域抽出システム。
  4. 前記形状に関する各クラスタが持つ特徴量が、前記例示画像を含む最小矩形領域の横幅に対する縦幅の割合を算出して、該算出した割合を大まかな形状特徴量として抽出し、かつ、前記例示画像の輪郭となる全画素について接線角度を計算し、前記例示画像の対象オブジェクト領域の重心から見て所定の角度毎に該接線角度の頻度を求めた角度ヒストグラムを生成して、該生成した角度ヒストグラムを詳細な形状特徴量として抽出することにより求められたものであることを特徴とする、請求項1乃至3いずれかに記載のオブジェクト領域抽出システム。
  5. 前記色に関する各クラスタが持つ特徴量が、前記色相の値の範囲の特徴量について、以下の手順に従って前記色特徴量のクラスタリングを行うことにより求められた、
    手順1:すべての色相の値の範囲のデータを同じクラスタに所属させる
    手順2:分割後のクラスタ数を「2」とするとともに、クラスタの重心座標をクラスタに属するデータの各次元の最小値および最大値として、k−平均法によりクラスタリングする
    手順3:分割後の各クラスタの分散を計算し、その値が閾値以上のクラスタを検出する
    手順4:前記手順3で検出したクラスタについて、再び前記手順2および前記手順3の処理を行う
    手順5:すべてのクラスタの分散が前記閾値未満となった場合にクラスタリングを終了し、各クラスタについて、所属するデータの各色特徴量の平均値を、そのクラスタが持つ色特徴量とする
    ことを特徴とする、請求項2乃至4いずれかに記載のオブジェクト領域抽出システム。
  6. オブジェクト領域を含む入力画像をオブジェクト領域抽出システム(10)に入力するステップと(S11)、
    第1のオブジェクト候補領域抽出部(11)が、前記入力画像に対して、例示画像を用いて求めた色に関する各クラスタが持つ特徴量を用いて、段階的に第1のオブジェクト候補領域の絞込みを行うステップ(S12〜S15)と、
    第2のオブジェクト候補領域抽出部(12)が、前記第1のオブジェクト候補領域抽出部から入力される前記第1のオブジェクト候補領域に対して、前記例示画像を用いて求めた形状に関する各クラスタが持つ特徴量を用いて、段階的に第2のオブジェクト候補領域の絞込みを行うステップ(S17,S18)と、
    オブジェクト領域決定部(13)が、前記第2のオブジェクト候補領域抽出部から入力される前記第2のオブジェクト候補領域に基づいて前記オブジェクト領域を決定するステップ(S20)と、
    を具備することを特徴とする、オブジェクト領域抽出方法。
JP2005036047A 2005-02-14 2005-02-14 オブジェクト領域抽出システムおよび方法 Withdrawn JP2006221523A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005036047A JP2006221523A (ja) 2005-02-14 2005-02-14 オブジェクト領域抽出システムおよび方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005036047A JP2006221523A (ja) 2005-02-14 2005-02-14 オブジェクト領域抽出システムおよび方法

Publications (1)

Publication Number Publication Date
JP2006221523A true JP2006221523A (ja) 2006-08-24

Family

ID=36983809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005036047A Withdrawn JP2006221523A (ja) 2005-02-14 2005-02-14 オブジェクト領域抽出システムおよび方法

Country Status (1)

Country Link
JP (1) JP2006221523A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101296734B1 (ko) 2011-12-30 2013-08-20 전남대학교산학협력단 가우시안 혼합 모델 및 알지비 클러스터링을 이용한 오브젝트 분할방법
KR101384627B1 (ko) 2012-10-26 2014-04-11 전남대학교산학협력단 영상 내 객체 영역 자동분할 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101296734B1 (ko) 2011-12-30 2013-08-20 전남대학교산학협력단 가우시안 혼합 모델 및 알지비 클러스터링을 이용한 오브젝트 분할방법
KR101384627B1 (ko) 2012-10-26 2014-04-11 전남대학교산학협력단 영상 내 객체 영역 자동분할 방법

Similar Documents

Publication Publication Date Title
JP4990383B2 (ja) 画像グループの表現方法、画像グループの探索方法、装置、コンピュータ読み取り可能な記憶媒体およびコンピュータシステム
JP5463415B2 (ja) 準複製画像検索のための方法およびシステム
US7643686B2 (en) Multi-tiered image clustering by event
US9665789B2 (en) Device and method for analyzing the correlation between an image and another image or between an image and a video
US7917518B2 (en) Compositional balance and color driven content retrieval
KR101833953B1 (ko) 이미지들을 비교하는 방법 및 시스템
US20020168108A1 (en) Event clustering of images using foreground/background segmentation
CN106250431B (zh) 一种基于分类服装的颜色特征提取方法及服装检索系统
JP4098021B2 (ja) シーン識別方法および装置ならびにプログラム
JP2004361987A (ja) 画像検索システム、画像分類システム、画像検索プログラム及び画像分類プログラム、並びに画像検索方法及び画像分類方法
US10866984B2 (en) Sketch-based image searching system using cell-orientation histograms and outline extraction based on medium-level features
CN106557728B (zh) 查询图像处理和图像检索方法和装置以及监视系统
CN103366178A (zh) 一种用于对目标图像进行颜色分类的方法与设备
JP5180922B2 (ja) 画像検索システム及び画像検索方法
CN109559344A (zh) 边框检测方法、装置及存储介质
CN112561976A (zh) 一种图像主颜色特征提取方法、图像检索方法、存储介质及设备
JP2006221525A (ja) オブジェクト検索システムおよび方法
Bosilj et al. Beyond MSER: Maximally stable regions using tree of shapes
JP2006221520A (ja) 画像特徴量抽出システムおよび方法
Khotanzad et al. Color image retrieval using multispectral random field texture model and color content features
CN109657083B (zh) 纺织品图片特征库的建立方法和装置
JP2006221523A (ja) オブジェクト領域抽出システムおよび方法
CN103679170B (zh) 一种基于局部特征的显著区域检测方法
JP2004192555A (ja) 情報管理方法、情報管理装置及び情報管理プログラム
JP4683238B2 (ja) オブジェクト認識装置、オブジェクト認識方法、およびオブジェクト認識プログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513