JP3557555B2 - 映像の領域区分方法および装置 - Google Patents

映像の領域区分方法および装置 Download PDF

Info

Publication number
JP3557555B2
JP3557555B2 JP2001321476A JP2001321476A JP3557555B2 JP 3557555 B2 JP3557555 B2 JP 3557555B2 JP 2001321476 A JP2001321476 A JP 2001321476A JP 2001321476 A JP2001321476 A JP 2001321476A JP 3557555 B2 JP3557555 B2 JP 3557555B2
Authority
JP
Japan
Prior art keywords
texture
color
image
circle
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001321476A
Other languages
English (en)
Other versions
JP2002197458A (ja
Inventor
相 均 金
ドミトリー ニコライェフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2002197458A publication Critical patent/JP2002197458A/ja
Application granted granted Critical
Publication of JP3557555B2 publication Critical patent/JP3557555B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2323Non-hierarchical techniques based on graph theory, e.g. minimum spanning trees [MST] or graph cuts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/162Segmentation; Edge detection involving graph-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/7635Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks based on graphs, e.g. graph cuts or spectral clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Discrete Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は映像処理に係り、特に、映像を複数の領域に区分する方法および装置に関する。
【0002】
【従来の技術】
映像を形成する重要な因子としては、色あい、照度(illuminant)、物体の形状(shape)およびテキスチャー、物体の位置、物体の幾何学的な相互配置(geometry)、および観察者と映像形成装置との位置関係などが挙げられる。映像形成は、これら種々の環境条件や各種装置の違いにより影響を受ける。
理想的な映像分割とは、前述した映像形成に影響を及ぼす各種の要因に関係なく、人間が認知するのと同じように、映像の中の背景や同一色の領域から意味のある物体や領域を効率よく区分することであり、このための映像領域分離技術が従来から数多く開示されている。
【0003】
この映像領域分離技術の一つが、D.ComaniciuおよびP.Meerらによりにより発表された「Distribution free decomposition of multivariate data」(Pattern Analysis and Application,1999,Vol,2,p22−30)に記載されている。この中ではポイント−クラスタリング(Point−Clustering)アルゴリズムが利用されている。
【0004】
ポイント−クラスタリングアルゴリズムは、色空間における色点の分布の状態、すなわち、映像の中から任意に選択した画素の色に類似する色を持つ画素群を、映像の中から検出する。そして、映像内において、任意に選択した画素からの離間距離が所定範囲内に属する総ての画素に対してこれを行うことで、同じ色の領域を決定する。
【0005】
このような従来の映像の領域分離技術は、同一の色領域を素早く区分することができる。しかし、テキスチャーが領域に含まれる場合、映像を区分し過ぎてしまうという問題点を有する。さらに、陰影効果を適宜認識できないので、陰影を有する3次元物体の領域を正常に区分できないという問題点も有する。
【0006】
この陰影効果を認識することのできる映像の領域分離技術として、米国特許米国特許US5,933,524号に「Method for segmentation of digital color images」というタイトルで開示されてものがある。
【0007】
この領域分離技術では、カラー映像の領域を区分するために、ライン−クラスタリングアルゴリズムが用いられている。この領域区分技術は、まず、特定の物体のカラーヒストグラムを求め、これを正規化したカラーヒストグラムに変換する。これは、光源の違いによる物体のカラーヒストグラムの変化の発生を低減させるためである。このようにして得られた色空間上の色クラスターを3つのモデルにより媒介関数化する。ここで、特定の物体を定義する媒介関数は、色空間における色画素間の距離を計算するのに用いられ、その結果、映像中の特定の物体が効率的に区分される。
【0008】
しかし、この映像の領域区分方法を、様々な色分布を有する実際の映像の領域を区分するために利用するには限界がある。さらに、この方法では、3次元空間上に最適な状態で分布させるモデルを求めるための固有値が必要となり、この固有値を求めるために複雑な計算が必要となる。その結果、カラー映像の領域を区分するために要する時間が長くなるという問題を有している。
【0009】
【発明が解決しようとする課題】
本発明は上記事情に鑑みてなされたものであり、その目的は、様々な特徴を持つ映像領域を、人が認識するのと同じような形で抽出することができる映像の領域区分方法を提供することにある。さらに、本発明の他の目的は、前記映像の領域区分方法を行う映像の領域区分装置を提供することにある。
【0010】
【発明が解決しようとする課題】
前記目的を達成するために、入力映像を多数の領域に区分する映像の領域区分方法は、前記入力映像の各画素を輝度軸を含む任意の色空間における色座標に変換させる(a)段階と、前記色空間を輝度(L)軸を基準として断面に分割し、分割された各断面を色(αおよびβ)軸を基準としてビンに分割する(b)段階と、上位断面に含まれた前記ビンのうち前記色空間上の画素を最も多く含むビン内の所定位置に存在する基本画素の特徴と最も類似した特徴を有する画素が最も多く密集されている上位最終円を平均値シフト解析により求める(c)段階と、前記上位断面に連続して隣接する下位断面において、前記上位最終円の中心と同一の位置に存在する基本画素の特徴と最も類似した特徴を有する画素が最も多く密集されている下位最終円を前記平均値シフト解析により求める(d)段階と、前記上位最終円および前記下位最終円の中心間の距離が第1閾値よりも小さい場合、前記上位最終円および前記下位最終円を同一のクラスターに含ませ、前記下位断面に後続して隣接する他の下位断面が存在すれば、前記下位断面を新しい前記上位断面として決定し、前記他の下位断面を新しい前記下位断面として決定すると共に、前記(d)段階に戻る(e)段階と、前記上位および前記下位最終円の中心間の距離が前記第1閾値よりも大きい、あるいは連続して隣接する前記他の下位断面が存在しなければ、前記クラスターに含まれた最終円のうち色平均値、テキスチャー平均値および位置平均値を計算するために用いられた色空間上の画素を最も少なく含む最終円を用いて前記クラスターを分割する(f)段階と、前記上位または前記下位最終円に含まれていない残存する画素に対して前記(c)〜前記(f)段階を行い、前記色空間上に存在する全ての画素に対して得られたクラスターを用いて映像グラフを生成する(g)段階とを備える(請求項1に相当)。
【0011】
また、映像の領域区分方法は、前記入力映像を所定回数だけ繰り返して平滑化させ、前記(a)段階に戻る段階をさらに備え、前記輝度軸を含む任意の色空間はLαβ色空間に該当し、前記(a)段階は平滑化した映像の各画素をLαβ色空間における色座標に変換させる(請求項2に相当)。
【0012】
また、映像の領域区分方法は、前記(g)段階の後に、色−テキスチャー距離と第2閾値とを比較し、比較された結果に応じて前記映像グラフに表示された領域を併合して最終の映像グラフを求める段階をさらに備える(請求項3に相当)。
【0013】
さらに、前記(c)段階は(c1)前記所定の位置を中心とする上位任意円に含まれた画素のうち、前記上位任意円の中心に位置した画素のテキスチャー特性値よりも小さいテキスチャー特性値を有し、映像面で前記上位任意円の中心に位置した画素からの離間距離が所定距離以内にある画素だけを選択すると共に、選択された画素に対する前記色平均値、前記テキスチャー平均値および映像面における前記位置平均値を求める段階と、(c2)前記Lαβ色空間上において、前記平均値および前記上位任意円の中心基本画素の特性値の間の差から求めた離隔度が第1所定値以下であるかどうかを判断する段階と、(c3)前記離隔度が前記第1所定値よりも大きければ、計算された色平均値の位置を中心とする仮想の基本画素を指定し、前記仮想の基本画素のテキスチャー特性値および映像面における位置情報を前記(c1)段階で計算されたテキスチャー平均値および映像面における位置平均値と指定した後、前記指定された仮想の基本画素を中心とする新しい前記上位任意円を決定し、前記(c1)段階に戻る段階と、(c4)前記離隔度が前記第1所定値以下であれば、前記上位任意円を前記上位最終円として決定し、前記(d)段階に進む段階とを備える(請求項4に相当)。
【0014】
さらに、前記(d)段階は、(d1)前記下位断面で前記上位最終円の中心と同一の位置を中心とする下位任意円に含まれた画素のうち、前記上位最終円の中心と同一の位置に存在する基本画素のテキスチャー特性値よりも小さいテキスチャー特性値を有すると共に、前記基本画素の映像面における位置からの離間距離が所定距離以内にある画素だけを選択し、選択された画素に対する色平均値、テキスチャー平均値および前記映像面における位置平均値を求める段階と、(d2)前記Lαβ色空間上において、前記(d1)段階で求めた平均値および前記下位任意円の中心基本画素の特性値の間の差から求めた離隔度が前記第1所定値以下であるかどうかを判断する段階と、(d3)前記(d2)段階において、前記離隔度が前記第1所定値よりも大きければ、前記(d1)段階で求めた前記色平均値の位置を仮想の基本画素と指定し、前記仮想の基本画素のテキスチャー特性値および映像面における位置情報を前記(d1)段階で計算されたテキスチャー平均値および映像面における位置平均値と指定した後、前記仮想の基本画素を中心とする新しい下位任意円を決定し、前記(d1)段階に戻る段階と、(d4)前記(d2)段階において、前記離隔度が前記第1所定値以下であれば、前記下位任意円を前記下位最終円として決定し、前記(e)段階に進む段階とを備える(請求項5に相当)
【0015】
また、前記(c1)段階は、前記上位任意円の内部に存在するある画素と前記上位任意円の中心に位置した画素との距離Δ’が第2所定値よりも小さければ、前記平均値を計算する時に前記ある画素に対する色平均値、テキスチャー平均値および前記映像面における位置平均値を反映し、前記画素間の距離Δ’は下記のように計算される(請求項6に相当)。
Figure 0003557555
(ここで、XおよびYは前記画素各々の前記映像面における座標を各々表わし、αおよびβは前記色空間での色成分を各々表わし、θは前記テキスチャー応答を表わし、σ G は前記所定距離を表わし、σ C は前記上位任意円の半径を表わし、σθは前記テキスチャー特性値の大小の度合いを表わす。)
【0016】
さらに、前記(d1)段階は、前記下位任意円の内部に存在するある画素と前記下位任意円の中心に位置した画素との距離Δ’が第2所定値よりも小さければ、前記平均値を計算する時に前記ある画素に対するL、αおよびβ平均値、前記テキスチャー平均値および前記映像面における位置平均値を反映し、前記画素間の距離Δ’は下記のように計算される(請求項7に相当)。
Figure 0003557555
(ここで、XおよびYは前記画素各々の前記映像面における座標を各々表わし、αおよびβは前記色空間での色成分を各々表わし、θは前記テキスチャー応答を表わし、σ G は前記所定距離を表わし、σ C は前記上位任意円の半径を表わし、σθは前記テキスチャー特性値の大小の度合いを表わす。)
【0017】
また、前記上位断面は、前記下位断面よりも明るい輝度レベルを有し、前記上位断面は、前記下位断面よりも暗い輝度レベルを有する(請求項8,請求項9に相当)。
【0018】
前記他の目的を達成するために、入力映像を多数の領域に区分する映像の領域区分装置は、前記入力映像を所定回数だけ繰り返して平滑化させ、平滑化した映像でエッジ部分を強調して出力する映像前処理部と、前記映像前処理部から出力される映像から色特性値および前記テキスチャー特性値を画素単位に計算して出力する特性値計算部と、前記平均値シフト解析に基づき、前記映像前処理部から出力される映像の各画素に対する前記色テキスチャー、映像面上の位置情報および前記特性値計算部から出力される前記テキスチャー特性値を用いて得られた前記クラスターから前記映像グラフを生成して出力する主要領域区分部と、前記特性値計算部から出力される前記色特性値および前記テキスチャー特性値を用いて計算した色−テキスチャー距離と第2閾値とを比較し、比較された結果に応じて前記映像グラフを単純化させ、単純化した映像グラフから得られた最終の映像グラフを出力する映像グラフ単純化部とを備える(請求項10に相当)。
【0019】
【発明の実施の形態】
以下、添付した図面に基づいて、本発明にかかる映像の領域区分方法およびその方法を行う映像の領域区分装置の構成および動作について説明する。
【0020】
図1および図2は、本発明にかかる映像の領域区分方法を説明するためのフローチャートである。図1および図2に示すように、本発明の方法には、入力映像の各画素をLαβ色空間上の色座標(または画素群)に変換し、色空間を断面およびビンに分割する段階(第10段階、第12段階)と、平均値シフト解析により上位最終円および下位最終円を求める段階(第14段階、第16段階)と、クラスターを形成および分割する段階(第18段階乃至第26段階)と、クラスターを用いて映像グラフを生成および単純化させる段階(第28段階、第30段階)とが含まれる。
【0021】
図3は、図1および図2のフローチャートに従って映像の領域区分を行う映像の領域区分装置の好適な一実施形態のブロック図である。この映像の領域区分装置は、映像前処理部32と、特性値計算部34と、主要領域区分部36と、映像グラフ単純化部38とを備える。
【0022】
図1乃至図3に示すように、主要領域区分部36は、入力映像の各画素をLαβ色空間内の色座標に変換する(第10段階)。ここで、Lは輝度、αおよびβはそれぞれ色成分を意味する。これら各要素は、下記式(1)で表される。
【0023】
【数1】
Figure 0003557555
【0024】
ここで、r、g、bは各画素の色値を示す。
【0025】
第10段階では、主要領域区分部36には、入力映像が入力端子IN1から直接、または映像前処理部32を介して入力される(図3参照)。映像前処理部32は入力端子IN1を介して入力された入力映像の平滑化を所定回数だけ繰り返し、エッジ部分の強調により平滑化された映像を前処理された映像として、特性値計算部34および主要領域区分部36にそれぞれ出力する。
【0026】
したがって、主要領域区分部36は映像前処理部32から出力された平滑化された映像もしくは入力端子IN1を介して入力された入力映像の各画素を、Lαβ色空間内の色座標(画素群)に変換する。
【0027】
映像前処理部32で行われる入力映像の平滑化について、以下に詳細に説明する。
一般に、カメラセンサもしくはビデオ映像信号により取り込まれた入力映像は、ノイズと有意味信号とより構成され、これら映像の各構成要素(ノイズと有意味信号)は異なる種類の情報を含んでいる。これらの各構成要素(ノイズと有意味信号)を区分する本発明にかかるの統計的な方法では、入力映像を各種の他の性質を有した要素に分解にする。
【0028】
例えば、映像前処理部32は入力端子IN1を介して入力された入力映像を平滑化させてノイズを除去し、平滑化した映像を顕著なエッジを有する部分と顕著なエッジを有しない部分とに分解して物体のエッジ部分を生かすエッジ保存映像平滑化(Edge−preserving image smoothing)を行う。
エッジ保存映像平滑化は、1998年にP.A.Chochiaにより”Optical Memory and Neural Networks”というジャーナルに”Two Tasks in Image Enhancement Technology”という題目で発表された論文に開示されており、下記のような技術である。
【0029】
すなわち、一定の大きさのウィンドウの内部に存在する画素の集り{x}を下記式(2)のように表わし、異なる大きさの他のウインドウに応用して、ウインドウ中に存在する画素の中で特異な輝度値を有する画素を除いた残りの画素を平滑化させるという技術である。
【0030】
【数2】
Figure 0003557555
【0031】
入力映像に対して平滑化をq回繰り返した後に得られるウインドウ
Figure 0003557555
における輝度値
Figure 0003557555
は、q−1回の平滑化を行った際に得られるウインドウの輝度値
Figure 0003557555
を用いて、下記式(3)より求められる。
【0032】
【数3】
Figure 0003557555
【0033】
ここで、w(x’)は所定の加重関数であって、x’が−σと+σとの間にある時にはw(x’)=1となり、そうでなければ、w(x’)=0となる。
【0034】
q−1回の平滑化を行った際のウインドウについて得られた輝度値
Figure 0003557555
は、q−1回の平滑化を行った際のウインドウ
Figure 0003557555
における加重関数の中心値を意味する。
なお、入力映像を初めて平滑化する時には、xmm
Figure 0003557555
の代わりに用いられる。
この時、Q回の平滑化が行われた画素の輝度値s’mm
Figure 0003557555
で表わされる。
【0035】
したがって、s’mmは、Q枚のウィンドウをもって映像画素を平滑化した結果値を意味する。実験の結果求められた平滑化の好適な回数は2回であって、最初の平滑化では3−5画素の広さを有するウィンドウを用い、第2番目の平滑化では10−40画素の広さを有するウィンドウを用いた。
これらのウィンドウを用いると、ノイズの多い映像から平滑化した成分を抽出するのに良好な性能が確認され、計算される結果値の自乗平均エラーは0.5%以内であった。
【0036】
第10段階の後に、Lαβ色空間をL軸を基準として断面に分割し、分割された各断面をαおよびβ軸を基準としてビンに分割する(第12段階)。この時に、映像面上の各断面に含まれる画素の位置(X、Y)を記憶する。
【0037】
以下、第12段階で形成された断面およびビンについて図4を参照して説明する。
【0038】
図4には、断面およびビンのLαβ色空間が示されている。Lαβ色空間は複数の断面40,42,…46に分割され、さらに各断面40,42,44,…46は複数のビンにそれぞれ分割されている。例えば、断面40は複数のビン50,51,52,53,54,…より構成され、断面42は複数のビン60,61,62,64,…より構成され、断面46は複数のビン70,71,72,74,…より構成される。このLαβ色空間の各軸は0から2P’−1までの範囲を有している。各ビンは横、縦および高さがそれぞれP’’である立方体である。
【0039】
まず、L軸(輝度)は256=2(p’=8)通りの異なる輝度を有し、α軸およびβ軸は、それぞれ256=2(p’=8),p’’=4通りの異なる種類の色のを有すると仮定する。
また、図4に示されたある2つの断面において、輝度が小さい断面を「下位断面」と、輝度がより大きい断面を「上位断面」であると定義する。すなわち、断面40は断面42に対して上位断面となり、断面42は断面40に対して下位断面となる。一方で、断面42は断面44に対して上位断面となり、断面44は断面42に対して下位断面となる。
【0040】
このような前提の下で、Lαβの各座標軸からなる色空間のL軸上の4つの輝度値が、色空間を64個の断面に分割されてなる各断面40,42,44,…46に割り当てられる。
すなわち、輝度値255,254,253,252を断面40に割当てることができる。また、この色空間はα軸およびβ軸に対しても断面40,42,…44というように分割されているので、この色空間全体として64×64個のビンが存在することになる。
【0041】
第12段階の後に、図4に示す第1上位断面40を構成するビン50,51,52,53,54,...のうち、ローカルマキシマに該当するビン内の所定位置にある初期画素の特徴に最も類似した特徴を有する画素が最も多く含まれている上位最終円を平均値シフト解析により求める(第14段階)。
ここで、ローカルマキシマとは、ある断面に含まれたビンの中で、画素を最も多く含むビンを意味する。
【0042】
以下、添付した図面に基づき、主要領域区分部36が第14段階を行う際に用いる平均値シフト解析の望ましい一実施形態を図5および図6を参照して説明する。
【0043】
図5は、図1に示す第14段階を行う際に利用する平均値シフト解析を説明するためのフローチャートである。この平均値シフト解析は、はじめに任意の上位円に含まれる画素の中から選択された画素群について、色平均、テキスチャー平均値、および映像平面における平均位置(X,Y)を求める。そして、求めた各値と、前記基本画素についてのこれら各値(色平均、テキスチャー平均値、および映像平面における平均位置(X,Y)とをそれぞれ比較する。最後に、選択された画素について求めた各平均値が収斂しているかどうかを決定する(第90段階〜第96段階)。
この第90段階〜第96段階は収斂された上位任意円が求められるまで繰り返す。そして、収斂された上位任意円を上位最終円として決定する(第98段階)。
【0044】
図6(a)、(b)は、平均値シフト解析を説明するための図であって、図6の(a)に示された上位断面120は一つ以上の上位任意円106,108,…110より構成され、図6の(b)に示された下位断面130は一つ以上の下位任意円132,134,…136より構成される。
ここで、上位断面120および下位断面130の横軸はβ軸であり、縦軸はα軸である。ここで使用するα,βは、前記Lαβ色空間上の軸αβと同一である(図4参照)。
ここで、本発明にかかる平均値シフト解析を説明するために、図6(a)、(b)には、上位任意円(106,108,…,110)、および下位任意円(132,134,…,136)がそれぞれ複数示されているが、通常の場合、各断面には一つの上位任意円(下位任意円)のみが存在することができる。
【0045】
図6(a)に示すように、最高の輝度を有する上位断面120内の所定位置100に中心が位置すると共に半径がσcである第1上位任意円106の中に含まれる画素の中から、テキスチャー特性値が、第1上位任意円106の中心100に位置する画素(以下、基本画素という)のテキスチャー特性値よりもテキスチャー距離σθだけ小さく、基本画素からの離間距離が所定距離σGよりも小さい画素のみを選択する(段階90)。
第90段階を行うために必要とされる各画素のテキスチャー特性値は、図3に示された特性値計算部34から出力される。
【0046】
図3に示す特性値計算部34の動作について以下に説明する。
特性値計算部34は、映像前処理部32から出力された前処理後の映像から色特性値およびテキスチャー特性値を画素毎に計算し、その計算結果である色特性値およびテキスチャー特性値を主要領域区分部36および映像グラフ単純化部38にそれぞれ出力する。
【0047】
はじめに、特性値計算部34において計算された色特性値を参照し、通常の特性空間の基準を提供するために、色特性空間およびテキスチャー特性空間が共に利用される。
この際、映像中の各画素における色特性値は色特性空間およびテキスチャー特性空間を定義することで明確化できる。
各画素の色特性値、すなわち、輝度B、色合いHおよび彩度Sは下記式(4)のように表わされる。
【0048】
【数4】
Figure 0003557555
【0049】
ここで、u=min(r,g,b)である。
【0050】
次に、特性値計算部34において計算されたテキスチャー特性値を参照し、画素毎の多重方向の局所変動v(local variation)および局所振動f(local oscillation)を求め、求めたこれらの値を合成することで、テキスチャー特性空間の形成に用いられる多重サイズ(multiple scales)のテキスチャー特性値および多重方向(multiple orientations)のテキスチャー特性値を得る。
【0051】
このテキスチャー映像の分析方法は、グレーレベル差分法(Gray Level Difference Method)と呼ばれる。
グレーレベル差分法は1974年にE.J.Carton,J.S.WeszkaおよびA.Rosenfeldがマリーランド大学(Univ.of Maryland)の技術報告書(TR:Technical Report)−288に”Some Basic Texture Analysis Techniques”という題目で発表した論文および1985年にL.Van Gool, P.DewaeleおよびA.OosterlinckがコンファランスCVGIPで”Texture Analysis Anno”という題目で発表した論文に各々開示されている。
前記式(4)に示された映像の輝度値Bが、このようなテキスチャー特性値を抽出するのに用いられる。
【0052】
まず、局所変動vについて説明する。映像内の画素画素群(長さ2L’を有し、中心m,n(ここで、mおよびnは映像面における画素の空間的な位置(X,Y)と同一である))を、画素m,nを中心として角度α’=kπ/K、k=0,1,…,K−1だけ回転させる。
この方法により均一に分布させた画素群中の一つの画素の輝度Bをl(−L≦i≦L)で表すと、上向き加重変動v、および下向き加重変動vは下記式(5)のように表わされる。
【0053】
【数5】
Figure 0003557555
【0054】
ここで、dは、画素の配列の中で隣接する画素同士の輝度の差li+1−lを示す。wは、コサイン加重関数Acos(iπ/(2L’+1))である。
コサイン加重関数において、係数Aは、
Figure 0003557555
を得るための値として用いられる。この時、局所変動vは下記式(6)に示す上向き基準変動v、および下向き基準変動vのなかで小さい値を示す。
【0055】
【数6】
Figure 0003557555
【0056】
局所振動は、d(dは振動の大きさを示す)の数で定義される。さらにdiの大きさは、配列の長さ2L’(−L≦i≦L)より求められるdの符号が変わるのと同時に所定の閾値を超える)
この時、各画素のテキスチャー特性値
Figure 0003557555
を得るために、各画素の局所変動vおよび局所振動fが乗算される。また、求められたテキスチャー特性値をさらに平滑化するため、下記式(7)を利用する。
【0057】
【数7】
Figure 0003557555
【0058】
前記式(7)から明らかなように、テキスチャー特性値tは、h×1の大きさを有するウィンドウの平均値に平滑化され、ハイパーボリックタンジェント(tanh)を用いた変換により、高いテキスチャー特性値は小さくなり、低いテキスチャー特性値は大きくなる。この際、映像の大きさを他の周波数でZ回だけ縮める(毎回1/2だけ)と、前記式(7)の各画素のテキスチャー特性値tは下記式(8)のように表わせる。
【0059】
【数8】
Figure 0003557555
【0060】
前記式(8)から、各画素のKZテキスチャー特性値
Figure 0003557555
が明確になる。
【0061】
一方、図5に示す第90段階の後に、主要領域区分部36は選択された画素群について、映像面上の色平均値、テキスチャー平均値、および位置平均値をそれぞれ求める(第92段階)。
ここで、色平均値は、与えられた輝度軸(L軸)に対する断面の中から選択された画素群についての色成分α,βの平均値を意味し、これをLαβ平均値という。テキスチャー平均値は、選択された画素群のテキスチャー平均値を意味し、位置平均値は選択された画素群の映像面における位置の平均値を意味する。
【0062】
第92段階の後に、計算された前記各平均値と、第1上位任意円106の中心に位置する基本画素100の各平均値とをそれぞれ比較し、その離隔度が第1所定値以下であるか、それとも同じであるかを判断する(第94段階)。
【0063】
ここで、第94段階において、第92段階で求められた平均値と基本画素100が有する平均値との差から求められる前記隔離度について以下に説明する。
計算により求められた離隔度が第1所定値よりも大きい場合、第92段階で得られた色平均値に該当する位置102に中心が位置する画素を、仮想基本画素として指定し、この仮想基本画素の映像面におけるテキスチャー特性値および位置を、第92段階で計算された映像面のテキスチャー平均値および位置平均値と指定する。そして、中心が位置102に位置する新しい上位任意円、すなわち第2上位任意円108が決定され、第90段階に戻る(第96段階)。
【0064】
前述した第90段階〜第96段階は、離隔度が、第1所定値以下になるまで、すなわち、上位任意円から選択された画素群の色平均、テキスチャー平均、および平均位置が、当該上位任意円の基本画素の特性値(色、テキスチャー、位置)に収斂するまで、図6(a)に示された矢印方向122の順序で順次上位任意円を変更しながら行われる。
すなわち、図6(a)に示すように、上位任意円110における各平均値(色平均値、テキスチャー平均値または位置平均値)と、当該上位任意円110の中心に位置する基本画素104の各特性値(色、テキスチャー、位置)との差より求められる離隔度が第1所定値以下であれば、収斂されたと見なし、当該上位任意円110を、図3に示された上位最終円84として決定する(第98段階)。
この際、上位最終円84または上位任意円110には、仮想基本画素104の特性値に最も類似した特性値を有する画素が多数含まれることになる。
【0065】
一方、図1に示す第14段階の後に、上方任意円の基本画素と同じ特性(テキスチャーおよび位置)を有する仮想基本画素が、上位断面40に隣接する下位断面42の上方任意円84の中心位置(α,β)と同じ位置に設定される。そして、この下位断面42の仮想基本画素の各特性と類似する特性を最も多く含む下位最終円82が平均値シフト解析により求められる(第16段階)。
【0066】
以下、添付図面に基づいて、主要領域区分部36で第16段階を行う時に使用する平均値シフト解析の望ましい一実施形態について説明する。
【0067】
図7は、図1に示す第16段階で用いられる本発明にかかる平均値シフト解析を説明するためのフローチャートである。この平均値シフト解析には、収斂された下位任意円が求められるまで、下位任意円に含まれた画素群の中から選択された画素の色平均値、テキスチャー平均値、および映像面の位置平均値を求める段階(段階第150〜第156段階)と、収斂された下位任意円を下位最終円として決定する段階(第158段階)とが含まれている。
【0068】
図6(a)、(b)に示すように、半径σcを有すると共に、中心が下位断面130内の位置140(この位置140は、上位断面120の上位最終円110の中心104に相当する)に位置する第1下位任意円132に含まれた画素群の中から、テキスチャー特性値が、設定された基本画素140のテキスチャー特性値よりもσθ小さく、かつ設定された基本画素140からの離間距離が所定距離σG以内である画素を選択する(段階150)。
この第150段階で用いられるテキスチャー特性値は、前述したように、特性値計算部34で計算される。
【0069】
本実施の形態では、前記第90段階および第150段階において、以下に説明する手法に基づいて、任意円の内部に存在する画素群の中から画素が選択される。
【0070】
はじめに、▲1▼:映像平面における位置の違いΔX,ΔY、▲2▼:色成分の違いΔα,Δβ、および▲3▼:上位任意円(または下位任意円)内に位置する任意の画素のテキスチャー特性値と上位任意円(または下位任意円)の中心に位置する中心画素のテキスチャー特性値との違いΔθを利用して、任意に選択された画素と中心画素との距離の差Δ’を下記式(9)に基づいて求める。
【0071】
【数9】
Figure 0003557555
【0072】
ここで、θはテキスチャー応答であって、前記式(8)に示された過程で得られた各画素に対するKZ個のテキスチャー特性値の配列θ[KZ]を意味する。ここで、σθは、K個の相異なるテキスチャー距離の大きさのなかで、i番目の大きさに対するテキスチャー距離を意味する。
【0073】
前記式(9)に基づいて求められた画素間の距離Δ’が、第2所定距離値、例えば「1」よりも小さい場合、その画素を任意の円の平均値と見なして選択する。一方、「1」よりも大きい場合、その画素を選択しない。
【0074】
第150段階の後に、第1下位任意円132に含まれた画素群の中から選択された該当画素に対する色平均値(Lαβ平均値)、テキスチャー平均値、および映像面の位置平均値を求める(第152段階)。ここで、前記各平均値は前記第92段階において説明した方法に従い求める。
【0075】
第152段階において求めた各平均値を、第1下位任意円132の中心140に位置する基本画素の各平均値と比較し、その離隔度が第1所定値以上であるか否かを判断する(第154段階)。
ここで、図5における第94段階または図7における第154段階で用いられる離隔度は、前記式(9)より求められる。すなわち、第94段階または第154段階では、離隔度Δ’を求めるために、上位任意円(または下位任意円)について段階94または段階154において求められた平均位置と、上位任意円(または下位任意円)における中心画素の仮想平面上の位置との差をそれぞれΔX,ΔYと、色平均値と中心画素の色成分との差をΔα,Δβと、平均テキスチャーと中心画素のテキスチャー特性値との差を前記式Δθとする。
【0076】
計算された離隔度が第1所定値よりも大きい場合、第152段階で得られた色平均値に対応する位置142を仮想基本画素と仮定し、この仮想基本画素のテキスチャー特性値および映像面における位置が、第152段階で計算されたテキスチャー特性値および位置平均値となる。そして、この新しい基本画素が中心142に位置する新しい下位任意円、すなわち第2下位任意円134が決定され、第150段階に戻る(第156段階)。
【0077】
第150段階〜第156段階での処理は、離隔度が所定の第1所定値以下になるまで、すなわち、下位任意円に対する選択画素の色平均、テキスチャー平均および映像面における位置平均がその下位任意円の基本画素の特性値(色、テキスチャー、位置)に収斂するまで、図6(b)の矢印138に沿って下位任意円を順次変更しながら行われる。
すなわち、図6(b)に示すように、下位任意円136の中央に位置する基本画素の特性値(色、テキスチャー、位置)と下位任意円136の平均値(色、テキスチャー、位置)との差より求めた離隔度が第1所定値以下の場合、収斂されたと見なし、当該下位任意円136を図4に示す下位最終円82と決定する(第158段階)。
この際、下位最終円82または136には、基本画素144の特性値と最も類似した特性値を有する画素が最も多く含まれていることになる。
【0078】
前述したように、輝度が小さい断面を「下位断面」と、輝度が大きい断面を「上位断面」とそれぞれ定義するので、第14段階および第16段階において輝度が大きい断面についての最終円を求めた後に、輝度が小さい断面についての最終円は求められる。
逆に、輝度の大きい断面を「下位断面」と、輝度の小さい断面を「上位断面」とそれぞれ定義すると、第14段階および第16段階において輝度の小さい断面についての最終円を求めた後に、輝度の大きい断面についての最終円が求められることになる。
【0079】
図1に示す第16段階の後に、類似した彩度と、陰影効果による段階的な輝度の変化とを有する画素を集めるために、上位断面内で決定された上位最終円が下位断面内で決定された下位最終円と選択的に接続される(第18段階)。
【0080】
すなわち、第16段階の後に、上位最終円110の中心(α,β)104と、下位最終円136の中心(α,β)144との間の距離[(α−α+(β−β1/2が、第1閾値th1よりも小さいか否かを判断する(第18段階)。そして、第1閾値th1よりも小さい場合には、上位最終円110および下位最終円136(または84および82)は同一のクラスター86に含まれる(第20段階)。
【0081】
図8(a)は、図1乃至図3に示す、本発明にかかる映像の領域区分方法および装置により形成されたクラスター160の一例を説明するための図である。
図8(a)に示すように、クラスター160には多数の最終円170,172,174,176,178,…180が含まれている。
図8(b)は、ローカルミニマムを説明するためのグラフであって、縦軸は画素の個数を、横軸は断面を各々表わす。
【0082】
第20段階の後に、下位断面に連続して隣接する他の下位断面が存在するか否かを判断する(第22段階)。すなわち、最後の断面46に対する最終円が求められたか否かを判断する。
下位断面に連続して隣接する他の下位断面が存在する場合、すなわち、最後の断面46に対する最終円が求められていない場合、第16段階に戻る。
この際、下位断面と見なされていた断面は新たな上位断面となるので、この新たな上位断面に隣接する新たな下位断面について、前記第16段階〜第22段階での操作を行う。
たとえば、他の下位断面44(図4)において最終円を得るために前記第16段階〜第22段階を行う場合、以前の下位断面42は新しい上位断面となり、他の下位断面44は新しい下位断面となる。
【0083】
一方、上位最終円110の中心(α,β)と下位最終円136の中心(α,β)との距離が第1閾値th1よりも大きい場合、若しくは連続して隣接する他の断面が存在しない場合、クラスター160を、最終円を用いて分割する(第24段階)(図2参照)。なお、この最終円は、図8(a)に示すクラスター160に含まれる最終円170,172,174,176,178,180の中からLαβ平均値を計算するために用いられた色空間上の画素を最も少なく含んでいるものである。
【0084】
すなわち、上位最終円110の中心(α,β)と下位最終円136の中心(α,β)との距離が第1閾値th1よりも大きい場合、隣接する下位断面が存在しない、若しくは一つのクラスターのみが形成されるので、第24段階を行う。第24段階は、同一のクラスター内に含まれると共に、類似の色度を有しかつ異なる輝度を有する様々な物体によりもたらされる誤りを最小化するために行われる
【0085】
例えば、図8(a)に示された最終円170,172,174,176,178,180が、画素を5,15,23,17,34,14個づつそれぞれ含むと仮定した場合、クラスター160は、Lαβ平均値を求めるために、17個の画素だけを含む最終円176を用いて分割される。ここで、円176は、図8(b)に示すように、ローカルミニマムモード190に該当する。
【0086】
第24段階の後に、各断面44,42,40内に存在する最終円84,82,80のいずれにも画素群が含まれていないか否かを判断する(第26段階)(図4参照)。
各最終円84,82,80のいずれにも画素群が含まれていない場合、最終円84,82,80のいずれにも属さない残りの画素群について第14段階〜第24段階までの一連の操作を行うために、第14段階に移行する。
しかしながら、最終円84,82,80のいずれにも属さない画素群が存在しない場合、色空間上に存在する全ての画素群に対して得られたクラスター群を用いて得られた基礎領域区分地図から映像グラフを生成する(第28段階)。
【0087】
図9は、基礎領域区分地図を説明するための一例図であり、1,2,3,4,5の領域番号がそれぞれ割り当てられた5つの領域200,202,204,206,208から構成される。
【0088】
図10は、図9の基礎領域区分地図から得られた映像グラフの一例図である。図9から明らかなように、基礎領域区分地図において隣接した領域は、互いに連結されている。ここで、▲1▼,▲2▼,▲3▼,▲4▼,▲5▼は、図9に示された5つの領域200,202,204,206,208をそれぞれ示す。
【0089】
図3に示す主要領域区分部36は、前記第10段階〜第26段階の間での一連の操作により得られたクラスターから、図9に示された基礎領域区分地図を生成する。そして、この基礎領域区分地図を用いて図10に示す映像グラフを作る(第28段階)。
この際、主要領域区分部36は各領域についての情報、たとえば画素数、色平均、およびテキスチャー特性値などを貯蔵する。特に、色平均は、各画素の輝度・色あい・彩度(BHS)を特性値計算部34で平均化することで求められる。
ここで、図10に示す映像グラフは、図9に示された基礎領域区分地図において、どの領域が相互に隣接しているかに関する情報、および隣接した領域間の枠接線の長さに対する加重値wt1,wt2,wt3,wt4,wt5に関する情報を与える。
【0090】
第28段階の後に、図3に示す映像グラフ単純化部38は、入力端子IN2を介して入力された色−テキスチャー距離と第2閾値th2とを比較し、当該比較結果にもとづいて、主要領域区分部36から出力された映像グラフに表示された領域とを掛け合わせて最終映像グラフを生成する。そして、生成された最終映像グラフを出力端子OUT1を介して出力する(第30段階)。
【0091】
以下に、図2に示す第30段階を詳細に説明する。
図11は、第30段階で色−テキスチャー距離を測定するのに用いられる色−テキスチャー距離測定装置のブロック図である。この色−テキスチャー距離測定装置は、色距離計算部210、テキスチャー距離計算部212、および色−テキスチャー距離発生部214を含んでいる。
【0092】
色距離計算部210には、映像における画素群の色特性値より構成される色特性空間の2点x、yの色特性値(輝度B、彩度S、色あいH)が入力端子IN3を介して入力される。そして、この色距離計算部210において、入力された輝度の差、彩度の差および色合いの差にそれぞれ別々の加重値を割り当て、割り当てられた加重値に比例して輝度差、彩度差および色合い差をいずれも加算し、加算された結果を2点(x、y)間の色距離として色−テキスチャー距離発生部214に出力する。
【0093】
この際、前記加重値は、BHSよりなる色特性空間上において、以下に示す3つの基準条件を用いて決定される。
第1に、色合いHは、輝度Bや彩度Sよりも、加重値の決定においてより重要である。第2に、輝度Bが絶対値、すなわち、「0」に近づくならば、映像の色は色合いHや彩度Sに関係なく黒色となる。第3に、彩度Sが絶対値「0」に近づくならば、すなわち、灰色に近づくと、色合いHは任意の値を有する。
【0094】
色距離計算部210は、前記基準条件に基づき決定した加重値を輝度差、彩度差および色合い差に割り当て、下記式(10)に基づいて色距離[DBHS1(x,y)]を求める。
【0095】
【数10】
Figure 0003557555
【0096】
ここで、B(0),H(0),S(0)は色特性値(すなわち、位置0(0はxまたはyに該当する)における輝度、色合い、彩度)をそれぞれ示す。
Figure 0003557555
はB(x)およびB(y)の平均値を表わし、
Figure 0003557555
はS(x)およびS(y)の平均値を示す。W、a、bはそれぞれ定数である。F(j)は彩度に対する線形補正関数を表わし、F(j)は色合いに対する線形補正関数を表わす。
【0097】
この際、線形補正関数F(j)、F(j)は低輝度および低彩度の条件下で、色合いと彩度との差を抑えるために用いられる。このために、線形補正関数F(j),F(j)は、jが1以下である場合jとなり、jが1よりも大きい場合1となる。
【0098】
前記式(10)から明らかなように、輝度差[B(x)−B(y)]、色合い差[H(x)−H(y)]、および彩度差[S(x)−S(y)]は、前記加重値に基づいて決定される、それぞれ別々の係数を有している。
この際、色距離計算部210は、前記式(10)の代わりに、輝度差、彩度差、および色合い差に関する前記基準条件に基づいて決定された加重値を用いて下記式(11)から色距離[DBHS2 (x,y)]を求めても良い。
【0099】
【数11】
Figure 0003557555
【0100】
ここで、W、Wは定数であり、F((,()は彩度に対する非線形補正関数、F((,()は輝度に対する非線形補正関数である。
【0101】
前記式(11)から明らかなように、輝度差の2乗[B(x)−B(y)]、色合い差の2乗[H(x)−H(y)]、および彩度差の2乗[S(x)−S(y)]には、前記加重値に基づいて決定されたそれぞれ別々の係数が与えられている。
【0102】
色距離計算部210が、前記式(10)または式(11)を用いて色距離を求めると、輝度の変化の影響を受けることなく、安定してかつ整然と領域区分が行われる。
さらに、低輝度領域の識別力を向上させるために、色距離計算部210は下記式12に基づいて、色距離[DBHS3(x,y)]を求めることも可能である。
【0103】
【数12】
Figure 0003557555
【0104】
ここで、DBHSは前記式(10)または式(11)に示された色距離[DBHS1(x,y)]または色距離[DBHS2 (x,y)]に該当する。
【0105】
一方、図11に示されたテキスチャー距離計算部212には、前記特性値計算部34から出力された画素群に対するテキスチャー特性値より構成されるテキスチャー特性空間内に与えられた二つの点x,yのテキスチャー特性値が入力端子IN4を介して入力される。そして、テキスチャー距離計算部212は、入力されたテキスチャー特性値同士の差を検出し、検出された差およびテキスチャー多重大きさに適用される加重係数を利用して、二点x、yの間のテキスチャー距離を計算する。そして、計算されたテキスチャー距離を色−テキスチャー距離発生部214に出力する。
ここで、テキスチャー距離計算部212は下記式(13)に基づいてテキスチャー距離[D(x,y)]を求めても良い。
【0106】
【数13】
Figure 0003557555
【0107】
ここで、wはテキスチャーの多重大きさに加わる加重係数を表わす。
【0108】
色−テキスチャー距離発生部214は、細分化された領域の特性に応じて変化する色加重値[w(u’,v’)]およびテキスチャー加重値[w(u’,v’)]を用いて色−テキスチャー距離を計算する。
ここで、細分化された領域に対する特性は、細分化した領域のテキスチャー程度[t(u’,v’)](ここで、u’およびv’は図9に示す基礎領域区分地図における細分化された領域をそれぞれ表す)、細分化された領域の大きさ[p(u’,v’)]および細分化した領域の彩度[s(u’,v’)]を意味する。
【0109】
すなわち、色−テキスチャー距離発生部214は、可変自在な色加重値[w(u’,v’)]および可変自在なテキスチャー加重値[w(u’,v’)]と、前記式(10)、式(11)、式(12)に示された色距離および前記式(13)に示されたテキスチャー距離とを各々乗算し、乗算された結果を互いに加算し、加算された結果を色−テキスチャー距離として出力端子OUT2を介して映像グラフ単純化部38に出力する。
【0110】
図12は、図11に示された色−テキスチャー距離発生部214のブロック図である。この色−テキスチャー距離発生部214は、色加重値計算部220と、テキスチャー加重値計算部222と、第1乗算器224と、第2乗算器226と、加算器228とを含んでいる。
【0111】
図12に示された色加重値計算部220は、下記式(14)に基づいて色加重値[w(u’,v’)]を計算し、計算された色加重値を第1乗算器224に出力する。
【0112】
【数14】
Figure 0003557555
【0113】
ここで、
Figure 0003557555
および
Figure 0003557555
は、色加重定数およびテキスチャー加重定数を各々示す。テキスチャー程度[t(u’,v’)]は下記式(15)のように表わされる。
【0114】
【数15】
Figure 0003557555
【0115】
ここで、Tmaxはテキスチャー程度の最大値を表わし、T(u’)は下記式(16)のように表わされる。
【0116】
【数16】
Figure 0003557555
【0117】
ここで、
Figure 0003557555
は、領域u’の大きさがzである場合における方向kを有する平均テキスチャー特性値を意味する。加重値wは前記式(13)に示された加重係数である。また、前記式(14)におけるp(u’,v’)は下記式(17)のように表わされる。
【0118】
【数17】
Figure 0003557555
【0119】
ここで、Poは基礎区分領域地図上に示された細分化した領域の大きさの閾値を表わす。また、前記式14におけるs(u’,v’)は下記式18のように表わされる。
【0120】
【数18】
Figure 0003557555
【0121】
ここで、Soは彩度の閾値を表わす。前記式(17)および前記式(18)における関数Fは、小さ過ぎる領域や低彩度による悪影響を抑えるために用いられた。
【0122】
図12に示すテキスチャー加重値計算部222は、テキスチャー加重値[w(u’,v’)]を下記式(19)より計算し、計算されたテキスチャー加重値を第2乗算器226に出力する。
【0123】
【数19】
Figure 0003557555
【0124】
図12に示された色加重値計算部220およびテキスチャー加重値計算部222には入力端子IN6を介して(ここで、入力端子IN6は図11に示された入力端子IN5に該当する)平均テキスチャー特性値が入力される。
そして、この色加重値計算部220およびテキスチャー加重値計算部222には、色加重定数およびテキスチャー加重定数の要求量、テキスチャー程度の最大値、平均テキスチャー値、加重係数、基礎区分領域地図上に示された細分化された領域の大きさの閾値および彩度程度の閾値などが入力として、前記入力端子IN6を介して外部から入力される、もしくはそれらを予め内部に貯蔵する構成としても良い。
【0125】
第1乗算器224は、前記式(10)、式(11)または式(12)に示された色距離Dと、色加重値計算部220から出力される色加重値[w(u’,v’)]とを乗算する。そして、乗算結果を加算器228に出力する。
第2乗算器226は、前記式(13)に示されたテキスチャー距離Dと、テキスチャー加重値計算部222から出力されるテキスチャー加重値[w(u’,v’)]と乗算する。そして、乗算結果を加算器228に出力する。
加算器228は第1乗算器224から出力された乗算結果と、第2乗算器226から出力された乗算結果とを加算し、下記式(20)に示す加算結果を、映像グラフを単純化させるために必要な色−テキスチャー距離
Figure 0003557555
として、出力端子OUT3を介して映像グラフ単純化部38に出力する。
【0126】
【数20】
Figure 0003557555
【0127】
ここで、D(u’,v’)およびD(u’,v’)は各々色距離およびテキスチャー距離を示す。
【0128】
一方、前述したように、色−テキスチャー距離を計算するために、映像グラフ単純化部38で用いられる色加重値Wおよびテキスチャー加重値Wは、所定値ではなく変数である。その理由は、細分化された領域のテキスチャー程度、細分化した領域の大きさ、および細分化した領域の彩度が変化すると、色−テキスチャー距離を調節する必要があるためである。
例えば、細分化された領域u’,v’の大きさが、細分化された領域の大きさの閾値Poよりも小さい場合、前記式(20)に示す色加重値[w(u’,v’)]が増加すると共に、テキスチャー加重値[w(u’,v’)]が減少する。
また、細分化された領域u’,v’のテキスチャー程度が増加した場合、色加重値[w(u’,v’)]は減少すると共に、テキスチャー加重値[w(u’,v’)]が増加する。
【0129】
求められた色−テキスチャー距離を用いて、映像グラフ単純化部38が第30段階を行う過程を以下に説明する。
【0130】
まず、主要領域区分部36から出力される映像グラフに示された領域をその大きさが減る順序で配列させる。つづいて、配列させた領域の中で、任意の中心領域(以下、ベース領域という)と、当該ベース領域と連結された各隣接領域との間の色−テキスチャー距離を前記式(20)から求める。
求めた領域間の色−テキスチャー距離が、第2閾値th2以下である場合、ベース領域と当該隣接領域とを併合する。
【0131】
すなわち、該当する隣接領域をベース領域に合流させる。このように、ベース領域に隣接領域が取り込まれると、ベース領域の特性、すなわち、色、テキスチャー、ベース領域の大きさおよび枠などのベース領域の特性は変化するので、映像グラフにおいてベース領域と関連する部分、すなわち、ベース領域と隣り合う領域間の連結関係などを修正する必要がある。
【0132】
新たに修正されたベース領域と、これに隣接するさらに他の領域との合流は、前述した方法にしたがって行うことができる。隣接領域取り込み後のベース領域の修正と、修正されたベース領域へのさらなる隣接領域の取り込みが完了した後、再び領域取り込み工程を行うためにさらなる隣接領域の取り込みにより形成された新しい大きな領域を、新たなベース領域とする。
この領域取り込み工程は、映像グラフ上に示された全ての領域に対して行われるまで繰り返す。
【0133】
このイメージグラフを単純化する工程は、第2閾値の値にかかわらず完全に行うことができない。この問題を克服するために、映像グラフ単純化部38は、取り込まれた領域を複数の副領域(以下、下位併合部という)に分割することができる。このために、前記式(20)における色加重値、テキスチャー加重値、色距離、テキスチャー距離を各下位併合部ごとに変更すると共に、第2閾値th2を領域の大きさに応じて動的に変更する。
【0134】
図13は映像グラフ単純化部38のブロック図である。この映像グラフ単純化部38は、第1次領域併合部240、第2次領域併合部242、第3次領域併合部244、および閾値発生部246を含んで構成される。
図13に示す閾値発生部246は、下記式(21)のように、第2閾値th2を動的に変更すると共に、第2閾値th2を、第1次領域併合部240、第2次領域併合部242、第3次領域併合部244に各々出力する。
【0135】
【数21】
Figure 0003557555
【0136】
ここで、P’は比較される二つの領域のうち小さい領域の大きさを表わし、P’oは小さい領域が一般的に有しうる所定の大きさを表わす定数である。α’は、閾値定数であり、α’,β’は比較される二つの領域のうち大きい領域の閾値を意味する。
【0137】
第1次領域併合部240は、入力端子IN8を介して入力された色−テキスチャー距離(前記式(20)に示す)と、閾値値発生部246から入力された第2閾値th2とを比較する。
そして、色−テキスチャー距離が第2閾値th2以下である場合、入力端子IN7を通じて入力された映像グラフ上に示された二つの細分化された領域u’,v’を併合する。そして、この方法により併合された最終結果を反映して生成した第1中間映像グラフを第2次領域併合部242に出力する。
第1次領域併合部240の性能は、前記式(21)の閾値定数α’を徐々に増加させることで改善される。
【0138】
第2次領域併合部242は、入力端子IN8を通じて入力された第1色−テキスチャー距離と、閾値発生部246から入力された第2閾値th2とを比較する。そして、第1色−テキスチャー距離が第2閾値th2以下である場合、第1中間映像グラフに示される二つの領域u’’、v’’同士を併合し、この方法により併合された最終結果を反映して生成した第2中間映像グラフを第3次領域併合部244に出力する。
【0139】
ここで、第1色−テキスチャー距離は、色加重定数
Figure 0003557555
を「0」と設定して前記式14および式19から求めた色加重値およびテキスチャー加重値と、W≪WおよびW≪Wの条件の下で前記式(10)、式(11)、式(12)から求めた色距離およびテキスチャー距離とを、それぞれ前記式(20)に代入して求められる。
【0140】
すなわち、図11に示す色−テキスチャー距離発生部214の第1乗算器224および第2乗算器226は、W≪WおよびW≪Wの条件の下で、色距離計算部210より出力された色距離およびテキスチャー距離計算部212より出力されたテキスチャー距離により色加重定数
Figure 0003557555
が「0」となる場合に、色加重値計算部220から出力される色加重値[w(u’’,v’’)]と、テキスチャー加重値計算部222から出力されるテキスチャー加重値[w(u’’,v’’)]をそれぞれ乗算する。
【0141】
この際、加算器228は乗算された結果同士を加算し、加算された結果を第1色−テキスチャー距離として出力端子OUT3を介して映像グラフ単純化部38に出力する。これは、領域u’’およびv’’の輝度が極めて低い時に限って行える。
【0142】
第3次領域併合部244は、入力端子IN8を介して入力された第2色−テキスチャー距離と、閾値発生部246から入力された第2閾値th2とを比較する。そして、第2色−テキスチャー距離が第2閾値th2以下である場合、第2中間映像グラフに示される二つの領域u’’’,v’’’を併合し、この方法により併合された最終結果を反映して生成した最終映像グラフを、出力端子OUT4を介して出力する。
【0143】
ここで、第2色−テキスチャー距離は、
Figure 0003557555
の条件の下、前記式(14)および式(19)より求められる色加重値およびテキスチャー加重値と、前記式(10)、式(11)、式(12)、式(13)から求められる色距離およびテキスチャー距離とを前記式(20)に代入して求められる。
すなわち、図11に示された色−テキスチャー距離発生部214の第1乗算器224は、
Figure 0003557555
の条件のもと、色加重値計算部220から出力される色加重値を色距離で色加重値[w(u’’’,v’’’)]乗算する。
一方第2乗算器226は、
Figure 0003557555
の条件のもと、テキスチャー加重値計算部222から出力されるテキスチャー加重値[w(u’’’,v’’’)]をテキスチャー距離で乗算する。
【0144】
この際、加算器228は、第1乗算器224および第2乗算器226で乗算された結果をそれぞれ加算し、加算された結果を第2色−テキスチャー距離として出力端子OUT3を介して映像グラフ単純化部38に出力する。第3次領域併合部244は領域u’’’、v’’’のテキスチャー程度が高い場合に限って行える。
【0145】
図14(a)、(b)は、入力または前処理された映像を表わし、本発明による映像領域区分方法および装置により区分された領域をそれぞれ表わす。
図15(a)、(b)は、入力または前処理された他の映像を表わし、本発明による映像領域区分方法および装置により区分された領域をそれぞれ表わす。
図16(a)、(b)は、入力または前処理されたさらに他の映像を表わし、本発明による映像領域区分方法および装置により区分された領域をそれぞれ表わす。
【0146】
図14(a)乃至図16(a)に示す映像は、主要領域区分部36で同一の領域の複数のクラスターの集まりに区分される。そして、映像グラフ単純化部38は区分された領域を併合して単純化させる。この際、単純化された結果に関する情報を有する最終映像グラフを用いて、図14(b)乃至図16(b)に示す区分された映像が得られる。
【0147】
以上説明したように、本発明にかかる映像の領域区分方法および装置は、デジタル方式の双方向映像システムにおいて効率よく使用できる。近年、デジタル放送の大衆的な普及を控えて、使用者が放送を視聴することにより情報を得ていた受動的な姿勢から脱皮して使用者と放送事業者との間で、直接的かつ能動的な双方向情報交換が可能なデジタル方式の双方向映像システムを開発するための努力がなされつつある。
例えば、デジタル方式の双方向映像システムでは、コンテンツとして提供されているドラマ、映画、ショー、広告または教養プログラム、ショッピングまたは競売などの画面上に表示された対象物の中から、視聴者自身が、任意のコンテンツを選択することで、視聴者が所望する情報が画面上に表示される。
【0148】
例えば、画面に登場する人気歌手の服、ドラマの中で映し出される家具、人物、または料理プログラムに必要な材料および方法などがコンテンツとして意味のある対象となりえ、これらの対象を使用者が選択すれば、選択した対象に関する情報を使用者に提供できる。このためにまず、解決すべき課題として、放送される映像内に存在する意味のある対象が効率よく区分されていなければならない。
【0149】
放送される映像内に存在する意味のある対象が占める領域を他の背景や物体と効率よく区分するためには、該当する対象が有する各種の特徴を最大限に用いなければならない。この選択された対象が有しうる特徴には物体の色、テキスチャーまたは形状などがあり、このうち色またはテキスチャーは対象を単一領域化するのに重要な手がかりを提供できる。
前述したように、本発明にかかる映像の領域区分方法および装置は、画素の色、テキスチャー特性値および映像面において画素の位置情報を総て利用する平均値シフト解析を行うため、輝度軸に沿って次第に変化する陰影を有する3次元物体を含む映像の領域だけではなく、同一の色または同一のテキスチャーを含む映像の領域も安定的に、かつ鮮明に区分可能にする最終映像グラフを提供する。
また、本発明による領域区分方法および装置は、選択された対象が各種の色または各種のテキスチャーよりなる場合にも映像の領域を安定的に区分できる。
【0150】
さらに、本発明による映像の領域区分方法および装置は、デジタル放送と関わる製品およびソフトウェアにおいて基本モジュールとしての役割を行う。
一方、本発明による映像の領域区分方法および装置は、映像内に存在する意味のある対象を検索および認識したり、あるいは意味のある対象をトラッキングするのに有用である。すなわち、本発明による映像の領域区分方法および装置で求められた最終映像グラフを用いて意味のある対象が占める領域に関する情報を抽出できる。この時、本発明による映像の領域区分方法および装置は、抽出された情報と類似した情報を有する対象が以前にディスプレーされた画面を検索したり、あるいは認識するのに利用でき、抽出された情報と類似した情報を有する対象が以前にディスプレーされた全ての画面をトラッキングするのに利用できる。また、抽出された情報は映像を編集したり、あるいは製作するのにも利用できる。
【0151】
また、MPEGなどの映像圧縮方式により圧縮されて伝送される映像で意味のある対象だけを効率よく伝送しようとする時、抽出された情報に該当する部分だけをさらに細かく圧縮させて伝送可能にすることにより、伝送効率を極大化可能にする。
【0152】
【発明の効果】
以上述べたように、本発明による映像の領域区分方法および装置は、各種の特性を有する映像、すなわち、陰影を有する映像、テキスチャーが含まれた映像または各種の色分布を有する映像の領域を人間の認知と類似した形に安定的に抽出できる効果を有するだけではなく、前述したように、各種の分野に応用できる効果をも有する。
【図面の簡単な説明】
【図1】本発明にかかる映像の領域区分方法を説明するためのフローチャートである。
【図2】本発明にかかる映像の領域区分方法を説明するためのフローチャートである。
【図3】本発明にかかる映像の領域区分装置の望ましい一実施形態のブロック図である。
【図4】断面およびビンを説明するためのLαβ色空間を示す図である。
【図5】図1に示された第14段階を行う本発明による平均値シフト解析を説明するためのフローチャートである。
【図6】平均値シフト解析を説明するための図である。
【図7】図1に示された第16段階を行う本発明による平均値シフト解析を説明するためのフローチャートである。
【図8】(a)は、本発明による領域区分方法および装置により形成された例示的なクラスターを説明するための図であり、
(b)は、ローカルミニマムを説明するためのグラフである。
【図9】基礎領域区分地図を説明するための例示的な図である。
【図10】基礎領域区分地図から生成した映像グラフの例示的な図である。
【図11】図1に示された第30段階で用いられる色−テキスチャー距離を測定する色−テキスチャー距離測定装置のブロック図である。
【図12】図10に示された色−テキスチャー距離発生部のブロック図である。
【図13】映像グラフ単純化部のブロック図である。
【図14】(a)は入力または前処理された映像を表す。
(b)は本発明にかかる映像領域区分方法および装置により区分された領域を表す。
【図15】(a)は入力または前処理された映像を表す。
(b)は本発明にかかる映像領域区分方法および装置により区分された領域を表す。
【図16】(a)は入力または前処理された映像を表す。
(b)は本発明にかかる映像領域区分方法および装置により区分された領域を表す。
【符号の説明】
32・・・映像前処理部
34・・・特性値生産部
36・・・主要領域区分部
38・・・映像グラフ単純化部
210・・色距離計算部
212・・テキスチャー距離計算部
214・・色−テキスチャー距離発生部
220・・色加重値計算部
222・・テキスチャー加重値計算部
240・・第1次領域併合部
242・・第2次領域併合部
244・・第3次領域併合部
246・・閾値発生部

Claims (10)

  1. 入力映像を多数の領域に区分する映像の領域区分方法において、
    (a)前記入力映像の各画素を輝度軸を含む任意の色空間における色座標に変換させる段階と、
    (b)前記色空間を輝度(L)軸を基準として断面に分割し、分割された各断面を色(αおよびβ)軸を基準としてビンに分割する段階と、
    (c)上位断面に含まれた前記ビンのうち前記色空間上の画素を最も多く含むビン内の所定位置に存在する基本画素の特徴と最も類似した特徴を有する画素が最も多く密集されている上位最終円を平均値シフト解析により求める段階と、
    (d)前記上位断面に連続して隣接する下位断面において、前記上位最終円の中心と同一の位置に存在する基本画素の特徴と最も類似した特徴を有する画素が最も多く密集されている下位最終円を前記平均値シフト解析により求める段階と、
    (e)前記上位最終円および前記下位最終円の中心間の距離が第1閾値よりも小さい場合、前記上位最終円および前記下位最終円を同一のクラスターに含ませ、前記下位断面に連続して隣接する他の下位断面が存在すれば、前記下位断面を新しい前記上位断面として決定し、前記他の下位断面を新しい前記下位断面として決定すると共に、前記(d)段階に戻る段階と、
    (f)前記上位最終円および前記下位最終円の中心間の距離が前記第1閾値よりも大きい、あるいは連続して隣接する前記他の下位断面が存在しなければ、前記クラスターに含まれた最終円のうち色平均値、テキスチャー平均値および位置平均値を計算するために用いられた色空間上の画素を最も少なく含む最終円を用いて前記クラスターを分割する段階と、
    (g)前記上位最終円または前記下位最終円に含まれていない残存する画素に対して前記(c)〜前記(f)段階を行い、前記色空間上に存在する全ての画素に対して得られたクラスターを用いて映像グラフを生成する段階とを備えることを特徴とする映像の領域区分方法。
  2. 前記映像の領域区分方法は、
    前記入力映像を所定回数だけ繰り返して平滑化させ、前記(a)段階に戻る段階をさらに備え、
    前記輝度軸を含む任意の色空間はLαβ色空間に該当し、前記(a)段階は平滑化した映像の各画素をLαβ色空間における色座標に変換させることを特徴とする請求項1に記載の映像の領域区分方法。
  3. 前記映像の領域区分方法は、
    前記(g)段階の後に、色−テキスチャー距離と第2閾値とを比較し、比較された結果に応じて前記映像グラフに表示された領域を併合して最終の映像グラフを求める段階をさらに備えることを特徴とする請求項2に記載の映像の領域区分方法。
  4. 前記(c)段階は
    (c1)前記所定の位置を中心とする上位任意円に含まれた画素のうち、前記上位任意円の中心に位置した画素のテキスチャー特性値よりも小さいテキスチャー特性値を有し、映像面で前記上位任意円の中心に位置した画素からの離間距離が所定距離以内にある画素だけを選択すると共に、選択された画素に対する前記色平均値、前記テキスチャー平均値および映像面における前記位置平均値を求める段階と、
    (c2)前記Lαβ色空間上において、前記平均値および前記上位任意円の中心基本画素の特性値の間の差から求めた離隔度が第1所定値以下であるかどうかを判断する段階と、
    (c3)前記離隔度が前記第1所定値よりも大きければ、計算された色平均値の位置を中心とする仮想の基本画素を指定し、前記仮想の基本画素のテキスチャー特性値および映像面における位置情報を前記(c1)段階で計算されたテキスチャー平均値および映像面における位置平均値と指定した後、前記指定された仮想の基本画素を中心とする新しい前記上位任意円を決定し、前記(c1)段階に戻る段階と、
    (c4)前記離隔度が前記第1所定値以下であれば、前記上位任意円を前記上位最終円として決定し、前記(d)段階に進む段階とを備えることを特徴とする請求項3に記載の映像の領域区分方法。
  5. 前記(d)段階は、
    (d1)前記下位断面で前記上位最終円の中心と同一の位置を中心とする下位任意円に含まれた画素のうち、前記上位最終円の中心と同一の位置に存在する基本画素のテキスチャー特性値よりも小さいテキスチャー特性値を有すると共に、前記基本画素の映像面における位置からの離間距離が所定距離以内にある画素だけを選択し、選択された画素に対する色平均値、テキスチャー平均値および前記映像面における位置平均値を求める段階と、
    (d2)前記Lαβ色空間上において、前記(d1)段階で求めた平均値および前記下位任意円の中心基本画素の特性値の間の差から求めた離隔度が前記第1所定値以下であるかどうかを判断する段階と、
    (d3)前記(d2)段階において、前記離隔度が前記第1所定値よりも大きければ、前記(d1)段階で求めた前記色平均値の位置を仮想の基本画素と指定し、前記仮想の基本画素のテキスチャー特性値および映像面における位置情報を前記(d1)段階で計算されたテキスチャー平均値および映像面における位置平均値と指定した後、前記仮想の基本画素を中心とする新しい下位任意円を決定し、前記(d1)段階に戻る段階と、
    (d4)前記(d2)段階において、前記離隔度が前記第1所定値以下であれば、前記下位任意円を前記下位最終円として決定し、前記(e)段階に進む段階とを備えることを特徴とする請求項4に記載の映像の領域区分方法。
  6. 前記(c1)段階は、前記上位任意円の内部に存在するある画素と前記上位任意円の中心に位置した画素との距離Δ’が第2所定値よりも小さければ、前記平均値を計算する時に前記ある画素に対する色平均値、テキスチャー平均値および前記映像面における位置平均値を反映し、前記画素間の距離Δ’は下記のように計算されることを特徴とする請求項4に記載の映像の領域区分方法。
    Figure 0003557555
    (ここで、XおよびYは前記画素各々の前記映像面における座標を各々表わし、αおよびβは前記色空間での色成分を各々表わし、θは前記テキスチャー応答を表わし、σ G は前記所定距離を表わし、σ C は前記上位任意円の半径を表わし、σθは前記テキスチャー特性値の大小の度合いを表わす。)
  7. 前記(d1)段階は、前記下位任意円の内部に存在するある画素と前記下位任意円の中心に位置した画素との距離Δ’が第2所定値よりも小さければ、前記平均値を計算する時に前記ある画素に対するL、αおよびβ平均値、前記テキスチャー平均値および前記映像面における位置平均値を反映し、前記画素間の距離Δ’は下記のように計算されることを特徴とする請求項5に記載の映像の領域区分方法。
    Figure 0003557555
    (ここで、XおよびYは前記画素各々の前記映像面における座標を各々表わし、αおよびβは前記色空間での色成分を各々表わし、θは前記テキスチャー応答を表わし、σ G は前記所定距離を表わし、σ C は前記上位任意円の半径を表わし、σθは前記テキスチャー特性値の大小の度合いを表わす。)
  8. 前記上位断面は、前記下位断面よりも明るい輝度レベルを有することを特徴とする請求項1に記載の映像の領域区分方法。
  9. 前記上位断面は、前記下位断面よりも暗い輝度レベルを有することを特徴とする請求項1に記載の映像の領域区分方法。
  10. 入力映像を多数の領域に区分する請求項1に記載の映像の領域区分方法を実行させるための映像の領域区分装置であって
    前記入力映像を所定回数だけ繰り返して平滑化させ、平滑化した映像でエッジ部分を強調して出力する映像前処理部と、
    前記映像前処理部から出力される映像から色特性値および前記テキスチャー特性値を画素単位に計算して出力する特性値計算部と、
    前記平均値シフト解析に基づき、前記映像前処理部から出力される映像の各画素に対する前記色テキスチャー、映像面上の位置情報および前記特性値計算部から出力される前記テキスチャー特性値を用いて得られた前記クラスターから前記映像グラフを生成して出力する主要領域区分部と、
    前記特性値計算部から出力される前記色特性値および前記テキスチャー特性値を用いて計算した色-テキスチャー距離と第2閾値とを比較し、比較された結果に応じて前記映像グラフを単純化させ、単純化した映像グラフから得られた最終の映像グラフを出力する映像グラフ単純化部と
    を備えることを特徴とする映像の領域区分装置。
JP2001321476A 2000-11-22 2001-10-19 映像の領域区分方法および装置 Expired - Fee Related JP3557555B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2000-0069490A KR100374791B1 (ko) 2000-11-22 2000-11-22 영상의 영역 구분 방법 및 장치
KR2000-69490 2000-11-22

Publications (2)

Publication Number Publication Date
JP2002197458A JP2002197458A (ja) 2002-07-12
JP3557555B2 true JP3557555B2 (ja) 2004-08-25

Family

ID=19700487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001321476A Expired - Fee Related JP3557555B2 (ja) 2000-11-22 2001-10-19 映像の領域区分方法および装置

Country Status (3)

Country Link
US (1) US7076095B2 (ja)
JP (1) JP3557555B2 (ja)
KR (1) KR100374791B1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2825814B1 (fr) * 2001-06-07 2003-09-19 Commissariat Energie Atomique Procede de creation automatique d'une base de donnees images interrogeable par son contenu semantique
DE10204500A1 (de) * 2002-02-03 2003-08-14 Fraunhofer Ges Forschung Echtzeitfähiges Erkennungs- und Kompensationsverfahren von Beleuchtungsschwankungen in digitalen Farbbildsignalen
US7295700B2 (en) * 2003-10-24 2007-11-13 Adobe Systems Incorporated Object extraction based on color and visual texture
EP1542150B1 (en) * 2003-12-09 2009-12-09 Mitsubishi Electric Information Technology Centre Europe B.V. Method and apparatus for separating content types in images
US20060092440A1 (en) * 2004-11-01 2006-05-04 Bagai Farhan A Human visual system based design of color signal transformation in a color imaging system
US7428331B2 (en) * 2004-11-30 2008-09-23 Seiko Epson Corporation Page background estimation using color, texture and edge features
CN101947114B (zh) 2005-12-28 2011-11-16 奥林巴斯医疗株式会社 图像处理装置和该图像处理装置中的图像处理方法
JP4240324B2 (ja) 2006-01-16 2009-03-18 ソニー株式会社 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
KR100784692B1 (ko) * 2006-08-28 2007-12-12 주식회사 대우일렉트로닉스 그래픽 유저 인터페이스의 이미지 처리방법
US7755646B2 (en) * 2006-10-17 2010-07-13 Hewlett-Packard Development Company, L.P. Image management through lexical representations
JP5153216B2 (ja) * 2007-06-08 2013-02-27 キヤノン株式会社 画像処理装置、画像処理方法
EP2034437A1 (en) * 2007-09-06 2009-03-11 Thomson Licensing Spatial diffusion in images
CN101965551B (zh) * 2008-03-05 2013-10-23 惠普开发有限公司 液晶显示器均匀度
JP4881928B2 (ja) * 2008-09-16 2012-02-22 ヤフー株式会社 カラーヒストグラム生成装置
US8498480B2 (en) * 2009-02-25 2013-07-30 The United States Of America, As Represented By The Secretary Of The Navy Computationally efficient method for image segmentation with intensity and texture discrimination
JP5280940B2 (ja) * 2009-05-27 2013-09-04 池上通信機株式会社 特定色検出回路
CN102110122B (zh) 2009-12-24 2013-04-03 阿里巴巴集团控股有限公司 一种建立样本图片索引表和图片过滤、搜索方法及装置
KR101382904B1 (ko) * 2012-12-14 2014-04-08 포항공과대학교 산학협력단 온라인 비디오 분할 방법 및 이를 수행하는 장치
KR20150100113A (ko) * 2014-02-24 2015-09-02 삼성전자주식회사 영상 처리 장치 및 이의 영상 처리 방법
CN103838258B (zh) * 2014-02-26 2016-05-25 上海微小卫星工程中心 一种应用于天基空间目标的自动跟踪方法及系统
US9390348B2 (en) * 2014-05-19 2016-07-12 Jinling Institute Of Technology Method for categorizing objects in image
CN105631802B (zh) * 2014-10-30 2018-11-30 炬芯(珠海)科技有限公司 一种数字图像格式转换的方法及装置
CN105554487B (zh) * 2014-10-30 2017-07-25 炬芯(珠海)科技有限公司 一种数字图像格式转换的方法及装置
JP6549898B2 (ja) * 2015-05-20 2019-07-24 株式会社日立製作所 物体検出システム、物体検出方法、poi情報作成システム、警告システム、及び誘導システム
US9639777B1 (en) 2015-12-17 2017-05-02 Linear Algebra Technologies Limited Systems and methods for providing an image classifier
US10564036B2 (en) * 2017-02-24 2020-02-18 Datacolor Inc. Color separation in images
WO2019061062A1 (en) * 2017-09-27 2019-04-04 Intel Corporation AUTONOMOUS ROBOTS AND METHODS OF OPERATION
CN108683897B (zh) * 2018-05-07 2020-05-19 长春理工大学 多投影显示系统畸变的智能校正方法
CN111709483B (zh) * 2020-06-18 2021-11-23 山东财经大学 一种基于多特征的超像素聚类方法及设备
CN115311276B (zh) * 2022-10-11 2023-01-17 江苏华维光电科技有限公司 基于机器视觉的铁谱图像智能分割方法
CN115601690B (zh) * 2022-12-13 2023-05-05 山东常生源生物科技股份有限公司 一种基于智慧农业的食用菌环境检测方法
CN116703888B (zh) * 2023-07-28 2023-10-20 菏泽城建新型工程材料有限公司 一种钻孔灌注桩施工辅助异常检测方法及其系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPO960297A0 (en) * 1997-10-03 1997-10-30 Canon Information Systems Research Australia Pty Ltd Colour advising and selection method

Also Published As

Publication number Publication date
KR20020039721A (ko) 2002-05-30
KR100374791B1 (ko) 2003-03-04
US20020102017A1 (en) 2002-08-01
JP2002197458A (ja) 2002-07-12
US7076095B2 (en) 2006-07-11

Similar Documents

Publication Publication Date Title
JP3557555B2 (ja) 映像の領域区分方法および装置
JP3554930B2 (ja) 色−テクスチャ距離の測定方法及び装置並びにこれらを用いた映像の領域区分方法及び装置
JP3740065B2 (ja) 領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法
CN110598610B (zh) 一种基于神经选择注意的目标显著性检测方法
CN108648161B (zh) 非对称核卷积神经网络的双目视觉障碍物检测系统及方法
CN105957124B (zh) 具有重复场景元素的自然图像颜色编辑方法及装置
CN114359323B (zh) 一种基于视觉注意机制的图像目标区域检测方法
US6853374B2 (en) Image space display method and apparatus
KR100270851B1 (ko) 컬러 비디오 신호를 위한 운동 보상 방법 및 장치
CN117934354B (zh) 一种基于ai算法的图像处理方法
US8384788B2 (en) Image processing apparatus, image processing system, computer readable medium, and image processing method
CN108682005B (zh) 基于协方差矩阵特征的半参考3d合成图像质量评价方法
CN116703744B (zh) 一种基于卷积神经网络的遥感影像匀光匀色方法和装置
CN112365517A (zh) 一种基于图像颜色和密度特征的超像素分割方法
Lefèvre et al. Multiresolution color image segmentation applied to background extraction in outdoor images
CN113947640A (zh) 一种图像驱动的可视化和谐配色生成方法
Gijsenij et al. Color constancy using image regions
CN112749713A (zh) 一种基于人工智能的大数据图像识别系统及方法
CN111860153A (zh) 尺度自适应的高光谱图像分类方法及系统
CN103886614B (zh) 基于网络节点分形维数的图像边缘检测方法
CN108364013A (zh) 基于邻域高斯微分分布的图像关键点特征描述符提取方法、系统
CN108460379B (zh) 基于细化空间一致性二阶段图的显著目标检测方法
JP2023032996A (ja) 前景抽出装置及びプログラム
CN117218340A (zh) 一种基于sam的无监督手术器械图像分割方法及系统
CN116860198A (zh) 一种大型互动多面屏的微音响矩阵控制方法、介质及系统

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040430

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090528

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees