JP2004086540A - オブジェクト抽出方法および装置ならびにプログラム - Google Patents

オブジェクト抽出方法および装置ならびにプログラム Download PDF

Info

Publication number
JP2004086540A
JP2004086540A JP2002246397A JP2002246397A JP2004086540A JP 2004086540 A JP2004086540 A JP 2004086540A JP 2002246397 A JP2002246397 A JP 2002246397A JP 2002246397 A JP2002246397 A JP 2002246397A JP 2004086540 A JP2004086540 A JP 2004086540A
Authority
JP
Japan
Prior art keywords
scene
image
image frame
classification parameter
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002246397A
Other languages
English (en)
Other versions
JP4080276B2 (ja
Inventor
Masahiko Yamada
山田 雅彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002246397A priority Critical patent/JP4080276B2/ja
Publication of JP2004086540A publication Critical patent/JP2004086540A/ja
Application granted granted Critical
Publication of JP4080276B2 publication Critical patent/JP4080276B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】複数の画像フレームを有する画像群から、各画像フレーム間の関連性を損なうことなくオブジェクト領域の抽出を効率よく行う。
【解決手段】分類パラメータ生成手段60がシーンSCに含まれる複数の画像フレームPFから抽出された基準画像フレームPFrefを抽出して、基準画像フレームPFrefから分類パラメータRBを生成する。そして、オブジェクト抽出手段70がシーンSC毎に該シーンSCに含まれるすべての画像フレームPFのオブジェクト領域を生成した分類パラメータRBを用いて行う。
【選択図】     図1

Description

【0001】
【発明の属する技術分野】
本発明は、たとえば動画や連続撮影写真等の複数の画像フレームからなる画像群からそれぞれオブジェクト領域を抽出するオブジェクト抽出方法および装置ならびにプログラムに関するものである。
【0002】
【従来の技術】
デジタルカメラ等で撮像した画像は、たとえば人物や海、空、建物その他の背景等を含むものである。その画像の中からその人物や背景等の画像データが1つのオブジェクトとして抽出できれば、各オブジェクト毎に異なる画像処理を行い、さらには各オブジェクトの意味を判別してユーザーに提示することもできる。このためには、画像に含まれているオブジェクト毎にそれぞれオブジェクト領域を分割する必要がある。
【0003】
画像データから自動的にオブジェクト領域を抽出する場合、画像各部の画像データの特徴量を分類した後、この分類結果を利用して画像情報を分割してオブジェクトを自動的に分割することが提案されている。すなわち、1つのオブジェクトを構成する画像データは、色情報、テクスチャ情報、ウェーブレット係数等の特徴量が類似したものとなっている。この性質を利用すれば、画像データをオブジェクト領域毎に領域分割することができる。
【0004】
特徴量を分類する際に、画像圧縮等で利用されるベクトル量子化の手法が用いられる。ベクトル量子化は、特徴量を軸とした特徴ベクトル空間における領域分割方法であり、類似した特徴量を持つ画素ベクトルを分類するために有効な手段である。具体的には、画像の各画素に対する複数の特徴量が抽出されて、各特徴量を要素とした複数の特徴ベクトルが生成される。その後、複数の特徴ベクトルを類似する特徴ベクトル毎に分類する(クラスタリング)。そして、クラスタリングされた結果に基づいて、画像データが分類されて複数の画像領域に領域分割される。
【0005】
上述した複数の特徴ベクトルを分類するためには、分類の基となる複数の分類パラメータが必要となる。そして、各特徴ベクトルは複数の分類パラメータの中で最も距離の近い分類パラメータ(代表ベクトル)に分類されることにより行われる。
【0006】
【発明が解決しようとする課題】
ところで、たとえばMPEG等の動画は複数の画像フレームからなっており、同様に、たとえばMRIやX線CT画像のような医療用の画像群についても、複数の画像フレームを構成すると考えることができる。このような、複数の画像フレームで構成された画像群であっても、上述したベクトル量子化を利用して各画像フレームからオブジェクトを抽出することができる。
【0007】
ここで、画像フレームからオブジェクト領域を抽出する際、各画像フレーム毎にそれぞれ分類パラメータを生成して、各画像フレーム毎にオブジェクト領域を抽出することが考えられる。このとき、連続する画像フレーム間において、オブジェクト領域の抽出結果が異なるものとなってしまい、連続した画像フレーム間の関連性・連続性が損なわれる場合がある。
【0008】
たとえば、連続した2つの連続した画像フレームにそれぞれ海および空のオブジェクトが撮像されているとする。この2つの画像フレームは類似したオブジェクト配置構造を有しているが、各画像フレームが有する画像データは多少は異なるものとなるため、画像データから生成される分類パラメータも異なるものとなる場合がある。
【0009】
したがって、一方の画像フレームでは海と空とが別々のオブジェクトとして抽出されて、他方の画像フレームでは海と空とが1つのオブジェクトとして抽出されてしまう場合がある。すなわち、連続した2つの画像フレームにおいて、抽出されるオブジェクト領域が異なる画像フレーム間ではオブジェクト領域の抽出結果がばらついてしまい、画像フレーム間のオブジェクトの連続性(関連性)が失われてしまうことがあるという問題がある。
【0010】
そこで、本発明は、画像フレーム間におけるオブジェクト領域の抽出結果のばらつきを少なくすることができるオブジェクト抽出方法および装置ならびにプログラムを提供することを目的とする。
【0011】
【課題を解決するための手段】
本発明のオブジェクト抽出方法は、連続的に画像が変化する複数の画像フレームからなるシーンを含む画像群から該各画像フレーム毎にオブジェクト領域を抽出するオブジェクト抽出方法において、前記画像群を前記シーン毎に分割するシーン分割プロセスと、分割した前記シーン毎に該シーンに含まれる前記各画像フレームからそれぞれ前記オブジェクト領域を抽出するための分類パラメータを生成する分類パラメータ生成プロセスと、生成した前記分類パラメータを用いて前記シーン毎に該シーンに含まれる前記複数の画像フレームからそれぞれ前記オブジェクト領域を抽出するオブジェクト抽出プロセスとを有し、前記分類パラメータ生成プロセスが、前記シーンに含まれる前記複数の画像フレームから基準画像フレームを抽出するステップと、抽出した前記基準画像フレームを用いて前記分類パラメータを生成するステップとを有することを特徴とする。
【0012】
本発明のオブジェクト抽出装置は、連続的に画像が変化する複数の画像フレームからなるシーンを含む画像群から該各画像フレーム毎にオブジェクト領域を抽出するオブジェクト抽出装置において、前記画像群をシーン毎に分割するシーン分割手段と、分割された前記シーン毎に該シーンに含まれる前記各画像フレームからそれぞれ前記オブジェクト領域を抽出するための分類パラメータを生成する分類パラメータ生成手段と、生成された前記分類パラメータを用いて前記シーン毎に該シーンに含まれる前記複数の画像フレームからそれぞれ前記オブジェクト領域を抽出するオブジェクト抽出手段とを有し、前記分類パラメータ生成手段が、前記シーンに含まれる前記画像フレームから抽出した基準画像フレームを用いて前記分類パラメータを生成するものであることを特徴とする。
【0013】
本発明のオブジェクト抽出プログラムは、連続的に画像が変化する複数の画像フレームからなるシーンを含む画像群から該各画像フレーム毎にオブジェクト領域を抽出するようにコンピュータを機能させるためのオブジェクト抽出プログラムにおいて、前記画像群をシーン毎に分割する手順と、分割された前記シーン毎に該シーンに含まれる前記各画像フレームからそれぞれ前記オブジェクト領域を抽出するための分類パラメータを生成する手順と、生成された前記分類パラメータを用いて前記シーン毎に該シーンに含まれる前記複数の画像フレームからそれぞれ前記オブジェクト領域を抽出する手順とを実行させるためのものであって、前記分類パラメータを生成する手順において、前記シーンに含まれる前記画像フレームから基準画像フレームを抽出して、抽出した該基準画像フレームを用いて前記分類パラメータを生成することを特徴とする。
【0014】
ここで、「画像群」は、連続的に画像が変化する複数の画像フレームからなるシーンを含むものであればいかなるものでもよく、動画、MRI、X線CT等の連続した画像をスライスして撮像した画像群、もしくは同一の被写体を異なる角度で撮像したいわゆる立体写真であってもよい。
【0015】
また、「オブジェクト」は、たとえば人物、空、海、木、建物等の画像に含まれる被写体を意味し、「オブジェクト領域」は各被写体が画像内に占める領域を意味する。
【0016】
さらに、「シーン」は、動画の1場面を構成する画像フレームの集合を意味するだけでなく、連続撮像されたスライス画像からなる画像フレームの集合、もしくは立体写真における異なる角度から撮像された複数の画像フレームの集合をも含む。
【0017】
また、「基準画像フレーム」は、シーン内に含まれる画像フレームであればいずれのフレームでもよく、たとえば時間的に連続する前記シーンの中間付近にある前記画像フレームが選ばれてもよい。
【0018】
さらに、「分類パラメータ生成手段」は、分類パラメータを生成する際にシーンから抽出された1枚の基準画像フレームを用いて生成してもよいし、複数枚の基準画像フレームを用いて生成してもよい。
【0019】
【発明の効果】
本発明のオブジェクト抽出方法および装置ならびにプログラムによれば、シーンに含まれる前記複数の画像フレームから基準画像フレームを抽出し、基準画像フレームから分類パラメータを生成し、生成した分類パラメータを用いてシーン毎に該シーンに含まれる複数の画像フレームからそれぞれオブジェクト領域を抽出することにより、シーン内に同一のオブジェクトが複数の画像フレームにわたって撮像されている場合であっても、各画像フレームにおいて同一のオブジェクト抽出結果を得ることができるため、シーン内の各画像フレーム間におけるオブジェクト領域の抽出結果のばらつきを少なくすることができる。
【0020】
また、基準画像フレームから生成された分類パラメータを用いてシーン内のすべての画像フレームのオブジェクト領域の生成を行うことにより、画像毎に分類パラメータを決定するための処理時間を省略することができるため、高速に連続画像からオブジェクト領域を抽出することができる。
【0021】
なお、基準画像フレームをシーンの時間的に中間付近にある画像フレームにすることにより、シーン内のオブジェクト領域を分割する精度を高くする分類パラメータを生成することができる。
【0022】
【発明の実施の形態】
図1は本発明のオブジェクト抽出装置1の好ましい実施の形態を示すブロック図であり、図1を参照してオブジェクト抽出装置1について説明する。オブジェクト抽出装置1は、複数の画像フレームPFからなる画像群PGから該各画像フレームPF毎にオブジェクト領域ORを抽出するものである。ここで、画像群PGが動画である場合、画像群PGは複数の画像フレームPFから構成されることになり、画像群PGがMRIやX線CT等により撮像された連続スライス写真の場合、画像群PGは画像フレーム(スライス画像)PFの集合から構成されることになる。この画像群PGは画像データベース10に記憶された状態にある。
【0023】
オブジェクト抽出装置1は、シーン分割手段20、基準画像抽出手段30、特徴量抽出手段40、特徴ベクトル生成手段50、分類パラメータ生成手段60、オブジェクト抽出手段70等を有する。
【0024】
シーン分割手段20は、画像群PGの中からシーンSCを判断する機能を有する。たとえば画像群PGが動画である場合、シーン分割手段20は画像フレームPFの画像データを基にして、前後の色ヒストグラム情報や動き情報などの変化量を計測・分析して、変化量が著しい部分をシーンSCの境目であるとしてシーン分割する。また、画像群PGがMRI、X線CT等の連続撮像写真である場合、シーン分割手段20は連続撮像された複数の画像フレームPFを1つのシーンSCとして判断する。
【0025】
なお、シーン分割手段20は動画に付された音声を基にして音量や音域などの変化量を計測・分析して変化量が著しい部分において分割してもよい。また、シーン分割手段20は動画に付されたメタデータから画面構成、出演者等を抽出して、前後の相関性を判断することによりシーンSCを分割するようにしてもよい。さらにシーン分割手段20はたとえば5秒ごとに分割するというように、ある一定時間周期毎に動画を分割して複数のシーンSCに分割するようにしてもよい。
【0026】
基準画像抽出手段30は、シーン分割手段20により分割されたシーンSCからそれぞれ基準画像フレームPFrefを抽出する機能を有する。ここで、基準画像抽出手段30は、時間的に連続するシーンSCの中間付近の中間画像フレームPFmidを基準画像フレームPFrefとして選択するようになっている。これは、中間画像フレームPFmidがシーンSC内の複数の画像フレームPFの平均的な特徴量CQを有する画像データPDを有する画像フレームPFである場合が多いためである。したがって、その中間画像フレームPFmidを基準画像フレームPFrefとして用いて分類パラメータRBの抽出を行うことにより、シーンSC全体にわたって精度よくオブジェクト抽出を行うことが適用できる分類パラメータRBを生成することができる。
【0027】
特徴量抽出手段40は画像データPDから特徴量CQを抽出して特徴ベクトル生成手段50に出力する機能を有する。ここで、画像データPDは1画像フレームPFを構成するM×N個の画素データxij(i,j:0≦i≦N、0≦j≦M)を有しており、各画素データxijは色情報や輝度情報等の様々な画像情報を有する。そして、特徴量抽出手段40は各画素データxijの画像情報から設定された特徴量CQを抽出する。たとえば、特徴量抽出手段40は基準特徴量CQとしてRGB、YCC、Labなどの色情報や輝度情報、ウェーブレット係数、DCT係数などのテクスチャ情報等のn個の特徴量CQ=(ijijijij、・・・n―1ijij)を抽出する機能を有する。
【0028】
さらに、特徴量抽出手段40は、基準画像抽出手段30から基準画像フレームPFrefが送られてきた場合、基準画像フレームPFrefを構成する複数の基準画像データPDrefからそれぞれ複数の基準特徴量CQrefを抽出して特徴ベクトル生成手段50に出力する。一方、特徴量抽出手段40は、画像データベース10から画像フレームPFを取得した場合、画像フレームPFを構成する複数の画像データPDからそれぞれ複数の特徴量CQを抽出して特徴ベクトル生成手段50に出力する。
【0029】
特徴ベクトル生成手段50は、特徴量抽出手段40により抽出された複数の特徴量CQrefを用いて画像データPD毎に特徴ベクトルCBを生成する機能を有する。たとえば、特徴量抽出手段40が各画像データPDからそれぞれn個の特徴量CQrefを抽出した場合、特徴ベクトル生成手段50は特徴ベクトルCB=(ijijijij、・・・n―1ijij)を作成する。すなわち、特徴ベクトル生成手段50は画像空間から特徴ベクトル空間に写像するものである。
【0030】
さらに、特徴ベクトル生成手段50は、特徴量抽出手段40から基準特徴量CQrefが送られてきた場合、複数の基準特徴ベクトルCBrefを生成して分類パラメータ生成手段60に出力する。一方、特徴ベクトル生成手段50は、画像フレームPFから抽出した特徴量CQが送られてきた場合、複数の特徴ベクトルCBを生成して特徴ベクトル分類手段80に出力する。
【0031】
分類パラメータ生成手段60は、生成された複数の基準特徴ベクトルCBrefを、類似した基準特徴ベクトルCBref毎に分類するための分類パラメータRBを生成する機能を有する。そして、分類パラメータ生成手段60は生成した分類パラメータRBをコードブック65に記憶させるようになっている。
【0032】
このとき、分類パラメータ生成手段60は、ベクトル量子化においてコードブックを作成する際に使用されるいわゆるLBG(Linde−Buzo−Gray)アルゴリズム、もしくはスプリッティングアルゴリズムを用いて分類パラメータRBを生成する。あるいは、基準特徴ベクトルCBref全体の重心(平均値)CGを算出して、重心CGからの分散σを用いて第1分類パラメータ(=CG+σ、CG−σ)を算出し、第1分類パラメータを用いて基準特徴ベクトルCBrefを分類して第1ベクトル領域(クラスタ)を生成し、第1ベクトル領域毎に特徴ベクトルの重心を算出して分類パラメータRBを形成するアルゴリズムを用いて分類パラメータRBを生成し、さらにこのアルゴリズムを繰り返すことにより分類パラメータRBの数を増やしていくようにしてもよい。
【0033】
次に、図1を参照してオブジェクト抽出手段70について説明する。オブジェクト抽出手段70は、生成された分類パラメータRBを用いてシーンSC毎に該シーンSCに含まれる複数の画像フレームPFからそれぞれオブジェクト領域ORを抽出するものであって、特徴ベクトル分類手段80、領域分割手段90、領域統合手段100等を有する。
【0034】
特徴ベクトル分類手段80は、あるシーンSCの画像フレームPFから生成された複数の特徴ベクトルCBを、コードブック65内の該シーンSCに対応した分類パラメータRBを用いて分類する機能を有する。つまり、同一シーンSCの画像フレームPFは同一の分類パラメータRBが使用されることになる。
【0035】
具体的には、特徴ベクトル分類手段80は、複数の分類パラメータRBのうち各特徴ベクトルCBがどの分類パラメータRBと最も類似するかを判断する。そして、特徴ベクトル分類手段80は、複数の特徴ベクトルCBがそれぞれ最も類似した分類パラメータRB毎に分類されていく。すると、複数の類似した特徴ベクトルCBからなるベクトル領域(クラスタ)BRが生成されることになる。よって、コードブック65がL個の分類パラメータRBを有する場合、特徴ベクトル分類手段80は特徴ベクトルCBをL個のベクトル領域BRに分割することになることになる。
【0036】
ここで、最も類似する分類パラメータRBの選択は、たとえば特徴ベクトルCBと最も距離(ユークリッド距離やマハラノビス距離等)が近い分類パラメータRBを選択することにより行われる。
【0037】
すると、画像フレームPFを構成する画像データPDから生成された特徴ベクトルは、図2に示すように、複数のベクトル領域(クラスタ)BRに分類されることになる。なお、図2においては画像データPDから3つの特徴量CQを抽出して生成した特徴ベクトルを分類したものであって、特徴ベクトル空間は3次元空間で示されている。
【0038】
図1の領域分割手段90は、特徴ベクトル分類手段80によりクラス分類された結果を実際の画像フレームPF上に写像する機能を有する。すると、画像フレームPF上に同一のベクトル領域BRの画像データPDからなる複数のクラスタリング領域DPが形成されて、図3(a)に示すように、画像フレームPF上に複数のクラスタリング領域DPが生成されるようになる。このとき、領域分割手段90は分類されたクラスタリング領域毎にそれぞれラベルを付するようなラベリング処理を行うようになっている。
【0039】
なお、特徴ベクトル空間のベクトル領域BRを画像フレームPF上に写像すると、領域クラスタ(画素のかたまり)となっていない孤立画素が存在することがある。このとき、領域分割手段90は、孤立画素をノイズとして除去するため、画像フレームPFの空間的に、または特徴量的に最も近接したベクトル領域(クラスタ)BRに属するように平滑化処理を行う機能を有していてもよい。
【0040】
領域統合手段100は、生成されたクラスタリング領域DPを統合したオブジェクト領域ORを生成する機能を有する。すなわち、上述したように、特徴ベクトル空間において分類されたベクトル領域BRに従ってクラスタリング領域において領域分割を行うと、図3(a)に示すように、複数のクラスタリング領域DPが形成される。たとえば、特徴ベクトル空間では10個のベクトル領域からなっていても、実空間領域ではたとえば100個以上の多数の領域になる。これは、同じベクトル領域であっても実空間上では異なるクラスタリング領域DPに存在することがあるためである。よって、この複数のクラスタリング領域DPを領域統合手段100が統合してオブジェクト領域ORを抽出するようにしている。
【0041】
ここで、図4は領域統合手段100の一例を示すブロック図であり、図4を参照して領域統合手段100について説明する。領域統合手段100は、複数のクラスタリング領域DPの中から最も画素数の小さい最小クラスタリング領域DPminを選択する最小領域選択手段112と、抽出された最小クラスタリング領域DPminと統合する隣接クラスタリング領域DPaを決定する統合領域判断手段113と、決定された隣接クラスタリング領域DPaと最小クラスタリング領域DPminを統合する領域統合手段114とを備える。
【0042】
そして、最小クラスタリング領域DPminが微小画素しきい値以下の場合、統合判断手段113は最小クラスタリング領域と隣接している隣接クラスタリング領域DPaのうち、画素数が最も多い隣接クラスタリング領域DPaを最小クラスタリング領域DPminと統合する隣接クラスタリング領域DPaと判断する。ここで、微小画素しきい値はたとえば画像データPDの全画素数の1/100画素数に設定されている。
【0043】
また、統合判断手段113は、最小クラスタリング領域DPminが小画素しきい値以下の場合、隣接クラスタリング領域DPaのうち最も特徴が近い隣接クラスタリング領域DPaを最小クラスタリング領域DPminと統合する隣接クラスタリング領域DPaと判断する。ここで、小画素しきい値はたとえば画像データPDの全画素数の1/10画素数に設定されている。
【0044】
ここで、特徴の近い隣接クラスタリング領域DPaを選択する場合、たとえば最小クラスタリング領域DPminと、隣接クラスタリング領域DPaとの特徴ベクトル空間における距離を参照して、最も距離が短い隣接クラスタリング領域DPaを選択するようにしてもよい。
【0045】
あるいは、最小クラスタリング領域DPminと隣接クラスタリング領域DPaと特徴量CQの変化量、たとえばYCCが特徴量CQであれば、Yのエッジ信号、Crのエッジ信号およびCbのエッジ信号の平均値等)が少ない隣接クラスタリング領域DPaが選択されるようにしてもよい。
【0046】
また、複数のクラスタリング領域DPが統合された後のクラスタリング領域DPが隣接クラスタリング領域DPaである場合、統合後の隣接クラスタリング領域DPaから算出される特徴量CQの平均値等が使用される。
【0047】
次に、領域統合手段100の動作例について説明する。まず、複数のクラスタリング領域DPの中から最も画素数が最も少ない最小クラスタリング領域DPminが最小領域選択手段112により抽出される。また、抽出された最小クラスタリング領域DPminに隣接する隣接クラスタリング領域DPaが統合判断手段113により選択される。
【0048】
そして、統合判断手段113において、最小クラスタリング領域DPの画素数が微小画素しきい値以下であるかが判断される。最小クラスタリング領域DPminが微小画素しきい値以下にある場合、最小クラスタリング領域DPminと隣接クラスタリング領域DPaとの境界画素数が各隣接クラスタリング領域DPa毎に計測される。そして、最小クラスタリング領域DPminは境界画素数の最も多い隣接クラスタリング領域DPaと統合する。
【0049】
具体的には図5(a)においてクラスタリング領域Aが微小画素しきい値以下の最小クラスタリング領域DPminであるとする。クラスタリング領域Aは、クラスタリング領域C、Dと隣接しているため、クラスタリング領域C、Dが隣接クラスタリング領域DPaとなる。最小クラスタリング領域Aとクラスタリング領域C、Dとが接している隣接画素数がそれぞれ計測される。すると、図5(a)においては隣接クラスタリング領域Dとの境界画素数の方が隣接クラスタリング領域Cとの境界画素数よりも多い。このためクラスタリング領域Aは図5(b)のようにクラスタリング領域Dと統合する。
【0050】
このように、最小クラスタリング領域DPminが微小クラスタリング領域である場合、最も隣接画素数の多い隣接クラスタリング領域DPaと結合させると、最適なオブジェクト領域ORの生成を行うことができる。
【0051】
一方、最小クラスタリング領域DPminの画素数が小画素しきい値以下の場合、隣接クラスタリング領域DPaとの特徴ベクトル空間での距離が算出される。そして、最小クラスタリング領域DPminは距離が最短となる隣接クラスタリング領域DPaと統合する。
【0052】
具体的には、図5(b)に示すように、クラスタリング領域Bが小画素しきい値以下の最小クラスタリング領域DPminであるとする。すると、クラスタリング領域Bの隣接クラスタリング領域DPaはクラスタリング領域C、Dである。そして、テクスチャ情報を距離を計測する特徴量とした場合、どちらのクラスタリング領域C、Dのテクスチャがクラスタリング領域Bのテクスチャに近いかが判断される。すると、図5(c)のように、クラスタリング領域Bはクラスタリング領域Cと統合される。
【0053】
このように、最小クラスタリング領域DPminが小クラスタリング領域である場合、最も特徴の似ている隣接クラスタリング領域DPaと統合することにより、最適なオブジェクト領域の生成を行うことができる。
【0054】
また、上述した統合プロセスが小クラスタリング領域がなくなるまで、すなわち最小クラスタリング領域DPminが小画素数しきい値より大きくなるまで繰り返される。すると、図3(a)に示す複数のクラスタリング領域DPが統合されて、図3(b)に示すようにオブジェクト領域(少なくとも小画素しきい値より大きいマクロ領域)ORが生成されることになる。
【0055】
図6は本発明のオブジェクト抽出方法の好ましい実施の形態を示すフローチャート図であり、図1から図5を参照してオブジェクト抽出方法について説明する。図6のオブジェクト抽出方法は、シーン分割プロセス(ステップST1)、分類パラメータ生成プロセス(ステップST2〜ステップST3)およびオブジェクト抽出プロセス(ステップST4〜ステップST8)を有している。
【0056】
まず、シーン分割プロセス(ステップST1)について説明する。最初に、シーン分割手段20により、画像群PGが各シーンSC毎に分割される。そして、基準画像抽出手段30により、シーンSC内から1枚の基準画像フレームPFrefが抽出される。このとき、時間的に連続したシーンSCの時間的に中間付近にある画像フレームが基準画像フレームPFrefとして抽出される。
【0057】
次に、分類パラメータ生成プロセス(ステップST2〜ステップST3)について説明する。まず、基準画像フレームPFrefを構成する基準画像データPDrefから基準特徴量CQrefが特徴量抽出手段40により抽出される。そして、抽出された基準特徴量CQrefを用いて基準特徴ベクトルCBrefが生成される。
【0058】
その後、生成された基準特徴ベクトルCBrefを用いて分類パラメータRBが生成される。この分類パラメータの生成は、上述したLBG(Linde−Buzo−Gray)アルゴリズム、もしくはスプリッティングアルゴリズム等が用いられる。そして、生成した分類パラメータRBがコードブック65に記憶される。
【0059】
次に、オブジェクト抽出プロセス(ステップST4〜ステップST8)について説明する。まず、シーンSCの画像フレームPFが、特徴量抽出手段40により選択される(ステップST4)。その後、画像フレームPFの画像データPDから特徴量CQが特徴量抽出手段40により抽出されて、複数の特徴ベクトルCBが特徴ベクトル生成手段50により生成される(ステップST5)。そして、生成された複数の特徴ベクトルCBが、該シーンSC毎に生成された分類パラメータRBを用いて分類される(ステップST6)。そして、分類した結果に基づいて、画像フレームPFが領域分割されて複数のクラスタリング領域DPが生成される(ステップST7)。最後に、クラスタリング領域DPが統合されてオブジェクト領域ORが生成される(ステップST8)。この作業がシーンSCのすべての画像について行われる(ステップST9)。
【0060】
さらに、画像群PGが複数のシーンSCを有している場合、各シーンSC毎に上述した特徴パラメータ生成プロセス(ステップST2、ステップST3)およびオブジェクト抽出プロセス(ステップST4〜ステップST9)が行われる(ステップST10)。
【0061】
上記実施の形態によれば、画像群PGの各画像フレームPFについてそれぞれオブジェクトの抽出を行う場合に、複数の画像フレームPFを各シーンSC毎に分割した後、各シーンSC毎に分類パラメータを生成し、生成した分類パラメータを用いてシーンSCを構成する全ての画像フレームPFについてオブジェクトOBの抽出を行うことにより、シーンSC内の各画像フレームPF間に関連性を持ったオブジェクトOBの抽出を行うことができる。具体的には、同一シーンSCの異なる2つの連続した画像フレームPF間に同一のオブジェクトOBが撮像されている場合、画像フレームPF毎に異なる分類パラメータによりオブジェクトOBの抽出が行われると、一方が2つのオブジェクトOBが別々に抽出されて、他方では2つのオブジェクトが統合して1つのオブジェクトOBとして抽出される場合がある。すると、2つの画像フレームPFに撮像されたオブジェクトの関連性(連続性)が失われてしまう。
【0062】
一方、同一シーンの2つの連続した画像フレームPFが同一の分類パラメータを用いてオブジェクトの抽出が行われた場合、同一のオブジェクトが撮像されているときにはオブジェクトの抽出結果も同一のものとなるため、画像フレームPF間の連続性を保ちながら、オブジェクトの抽出を行うことができる。
【0063】
また、基準画像フレームから生成された分類パラメータを用いて基準画像以外のオブジェクト領域ORの生成を行うことにより、画像毎に分類パラメータを決定するための処理時間を省略することができるため、より高速に連続画像からオブジェクト領域を抽出することができる。すなわち、連続画像間は画像が類似しているため、特徴量の変化量も少なく特徴量も類似している。この性質を利用して、連続画像からなるシーンSCから1枚の基準画像フレームPFrefを抽出してその画像についてオブジェクト領域ORを生成するための分類パラメータRBを同一シーンSCのすべての画像フレームPFについて使用しても、オブジェクト領域ORの抽出を行うことができる。よって、動画や連続写真等からのオブジェクト領域ORの生成を効率よく行うことができる。
【0064】
なお、本発明の実施の形態は上記実施の形態に限定されない。上記実施の形態において、基準画像フレームPFrefは、各シーンSC毎に1つだけ抽出されるようにしているが、各シーンSC毎に複数の基準画像フレームPFrefが選択されるようにしてもよい。このとき、基準画像フレームPFrefが各シーンSC毎に2つ選択された場合、その2つの基準画像フレームPFrefから抽出された分類パラメータRBを比較することにより分類パラメータRBのシーンに対する正確性を判断することができる。あるいは、生成された2つの分類パラメータRBを利用して、新たな分類パラメータRBを生成することもできる。これにより、シーンSC内の画像フレームPFからのオブジェクト領域ORの抽出を精度よく行うことができる。
【0065】
また、図6において、各シーンSC毎に分類パラメータRBを生成した後、シーンSCを構成する画像フレームPFのオブジェクト抽出プロセスを行うようにしているが、分類パラメータ抽出プロセスにおいて、すべてのシーンSCについて、該シーンSCに対応した分類パラメータRBを生成しておき、その後オブジェクト抽出プロセスにおいて、すべての画像フレームPFについてシーンSCに対応した分類パラメータRBを使用しながらオブジェクト領域ORの抽出を行うようにしてもよい。
【図面の簡単な説明】
【図1】本発明のオブジェクト抽出装置の好ましい実施の形態を示すブロック図
【図2】本発明のオブジェクト抽出装置における特徴ベクトル分類手段により、特徴ベクトル空間において特徴ベクトルが分類された様子を示す図
【図3】本発明のオブジェクト抽出装置における領域分割手段により生成されたクラスタリング領域および領域統合手段により生成されたオブジェクト領域の様子を示す図
【図4】本発明のオブジェクト抽出装置におけるオブジェクト抽出手段の一例を示すブロック図
【図5】本発明のオブジェクト抽出装置におけるクラスタリング領域の統合の様子を示す図
【図6】本発明のオブジェクト抽出方法の好ましい実施の形態を示すフローチャート図
【符号の説明】
1   オブジェクト抽出装置
20  シーン分割手段
30  基準画像抽出手段
40  特徴量抽出手段
50  特徴ベクトル生成手段
60  分類パラメータ生成手段
70  オブジェクト抽出手段
80  特徴ベクトル分類手段
90  領域分割手段
100 領域統合手段
BR  ベクトル領域
CB  特徴ベクトル
CBref   基準特徴ベクトル
OB  オブジェクト
OR  オブジェクト領域
PD  画像データ
PF  画像フレーム
PFref   基準画像フレーム
PG  画像群
RB  分類パラメータ
SC  シーン

Claims (4)

  1. 連続的に画像が変化する複数の画像フレームからなるシーンを含む画像群から該各画像フレーム毎にオブジェクト領域を抽出するオブジェクト抽出方法において、
    前記画像群を前記シーン毎に分割するシーン分割プロセスと、
    分割した前記シーン毎に該シーンに含まれる前記各画像フレームからそれぞれ前記オブジェクト領域を抽出するための分類パラメータを生成する分類パラメータ生成プロセスと、
    生成した前記分類パラメータを用いて前記シーン毎に該シーンに含まれる前記複数の画像フレームからそれぞれ前記オブジェクト領域を抽出するオブジェクト抽出プロセスとを有し、
    前記分類パラメータ生成プロセスが、
    前記シーンに含まれる前記複数の画像フレームから基準画像フレームを抽出するステップと、
    抽出した前記基準画像フレームを用いて前記分類パラメータを生成するステップと
    を有することを特徴とするオブジェクト抽出方法。
  2. 連続的に画像が変化する複数の画像フレームからなるシーンを含む画像群から該各画像フレーム毎にオブジェクト領域を抽出するオブジェクト抽出装置において、
    前記画像群をシーン毎に分割するシーン分割手段と、
    分割された前記シーン毎に該シーンに含まれる前記各画像フレームからそれぞれ前記オブジェクト領域を抽出するための分類パラメータを生成する分類パラメータ生成手段と、
    生成された前記分類パラメータを用いて前記シーン毎に該シーンに含まれる前記複数の画像フレームからそれぞれ前記オブジェクト領域を抽出するオブジェクト抽出手段とを有し、
    前記分類パラメータ生成手段が、前記シーンに含まれる前記画像フレームから基準画像フレームを抽出して、抽出した該基準画像フレームを用いて前記分類パラメータを生成するものであることを特徴とするオブジェクト抽出装置。
  3. 前記基準画像フレームが、時間的に連続する前記シーンの中間付近にある前記画像フレームであることを特徴とする請求項2に記載のオブジェクト抽出装置。
  4. 連続的に画像が変化する複数の画像フレームからなるシーンを含む画像群から該各画像フレーム毎にオブジェクト領域を抽出するようにコンピュータを機能させるためのオブジェクト抽出プログラムにおいて、
    前記画像群をシーン毎に分割する手順と、
    分割された前記シーン毎に該シーンに含まれる前記各画像フレームからそれぞれ前記オブジェクト領域を抽出するための分類パラメータを生成する手順と、
    生成された前記分類パラメータを用いて前記シーン毎に該シーンに含まれる前記複数の画像フレームからそれぞれ前記オブジェクト領域を抽出する手順とを実行させるためのものであって、
    前記分類パラメータを生成する手順において、前記シーンに含まれる前記画像フレームから基準画像フレームを抽出して、抽出した該基準画像フレームを用いて前記分類パラメータを生成するようにコンピュータを機能させるためのオブジェクト抽出プログラム。
JP2002246397A 2002-08-27 2002-08-27 オブジェクト抽出方法および装置ならびにプログラム Expired - Fee Related JP4080276B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002246397A JP4080276B2 (ja) 2002-08-27 2002-08-27 オブジェクト抽出方法および装置ならびにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002246397A JP4080276B2 (ja) 2002-08-27 2002-08-27 オブジェクト抽出方法および装置ならびにプログラム

Publications (2)

Publication Number Publication Date
JP2004086540A true JP2004086540A (ja) 2004-03-18
JP4080276B2 JP4080276B2 (ja) 2008-04-23

Family

ID=32054311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002246397A Expired - Fee Related JP4080276B2 (ja) 2002-08-27 2002-08-27 オブジェクト抽出方法および装置ならびにプログラム

Country Status (1)

Country Link
JP (1) JP4080276B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007140718A (ja) * 2005-11-16 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> 特異映像検出装置、特異映像検出方法およびプログラム
JPWO2006087854A1 (ja) * 2004-11-25 2008-08-07 シャープ株式会社 情報分類装置、情報分類方法、情報分類プログラム、情報分類システム
US8724847B2 (en) 2008-01-08 2014-05-13 Olympus Corporation Image processing apparatus and program storage medium
JP2016532182A (ja) * 2013-06-14 2016-10-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated コンピュータビジョンアプリケーション処理

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006087854A1 (ja) * 2004-11-25 2008-08-07 シャープ株式会社 情報分類装置、情報分類方法、情報分類プログラム、情報分類システム
JP4550882B2 (ja) * 2004-11-25 2010-09-22 シャープ株式会社 情報分類装置、情報分類方法、情報分類プログラム、情報分類システム
JP2007140718A (ja) * 2005-11-16 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> 特異映像検出装置、特異映像検出方法およびプログラム
JP4641492B2 (ja) * 2005-11-16 2011-03-02 日本電信電話株式会社 特異映像検出装置、特異映像検出方法およびプログラム
US8724847B2 (en) 2008-01-08 2014-05-13 Olympus Corporation Image processing apparatus and program storage medium
JP2016532182A (ja) * 2013-06-14 2016-10-13 クゥアルコム・インコーポレイテッドQualcomm Incorporated コンピュータビジョンアプリケーション処理
US10091419B2 (en) 2013-06-14 2018-10-02 Qualcomm Incorporated Computer vision application processing
US10694106B2 (en) 2013-06-14 2020-06-23 Qualcomm Incorporated Computer vision application processing

Also Published As

Publication number Publication date
JP4080276B2 (ja) 2008-04-23

Similar Documents

Publication Publication Date Title
JP4907938B2 (ja) 少なくとも1つの画像及び画像群を表現する方法、画像又は画像群の表現、画像及び/又は画像群を比較する方法、画像又は画像群を符号化する方法、画像又は画像シーケンスを復号する方法、符号化されたデータの使用、画像又は画像群を表現する装置、画像及び/又は画像群を比較する装置、コンピュータプログラム、システム、及びコンピュータ読み取り可能な記憶媒体
JP6438403B2 (ja) 結合された深度キューに基づく平面視画像からの深度マップの生成
JP5968098B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記憶媒体
JP5097280B2 (ja) 画像及び画像群を表現、比較及び検索する方法及び装置、プログラム、コンピュータ読み取り可能な記憶媒体
JP3851171B2 (ja) 視覚的注意のモデル化方法
RU2426172C1 (ru) Способ и система выделения данных об изображении объекта переднего плана на основе данных о цвете и глубине
JP6204199B2 (ja) 画像品質の評価
US6342904B1 (en) Creating a slide presentation from full motion video
KR100873638B1 (ko) 영상 처리 방법 및 장치
JP4098021B2 (ja) シーン識別方法および装置ならびにプログラム
US9619732B2 (en) Generating compositions
US20080317358A1 (en) Class-based image enhancement system
US8942469B2 (en) Method for classification of videos
CN107430780B (zh) 用于基于视频内容特性的输出创建的方法
JP2004348674A (ja) 領域検出方法及びその装置
JP2006505853A (ja) 画像又は映像の品質を評価する品質志向重要度マップの生成方法
KR20150112535A (ko) 비디오 대표 이미지 관리 장치 및 방법
JP2004310475A (ja) 画像処理装置、画像処理を行う携帯電話、および画像処理プログラム
JP2017033372A (ja) 人物認識装置及びそのプログラム
JP6272071B2 (ja) 画像処理装置、画像処理方法及びプログラム
Izadi et al. Robust region-based background subtraction and shadow removing using color and gradient information
JP4080276B2 (ja) オブジェクト抽出方法および装置ならびにプログラム
CN111105369A (zh) 图像处理方法、图像处理装置、电子设备和可读存储介质
JP2005176339A (ja) 動画像処理方法、動画像処理装置、動画像処理プログラム及びそのプログラムを記録した記録媒体
JP2004086538A (ja) 画像の特徴量分類方法および装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050208

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4080276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140215

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees