JP3740065B2 - 領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法 - Google Patents
領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法 Download PDFInfo
- Publication number
- JP3740065B2 JP3740065B2 JP2002012131A JP2002012131A JP3740065B2 JP 3740065 B2 JP3740065 B2 JP 3740065B2 JP 2002012131 A JP2002012131 A JP 2002012131A JP 2002012131 A JP2002012131 A JP 2002012131A JP 3740065 B2 JP3740065 B2 JP 3740065B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- question
- object extraction
- extraction target
- divided
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
- G06V10/7515—Shifting the patterns to accommodate for positional errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/759—Region-based matching
Description
【発明の属する技術分野】
本発明は、抽出される客体の映像が質疑(参照)映像として提供された条件の下で、抽出される客体を含む客体抽出対象映像(静止映像、ビデオシーケンス)から、客体の領域情報を抽出する方法、およびその装置に関する。
より詳細には、客体抽出対象映像の中に含まれる客体の位置を検出するために客体抽出対象映像を処理し、空間配置の類似度、テキスチャー特性値、および色特性値に基づいて客体位置であると決定された客体抽出対象映像内の特定の領域から構成される映像と質疑(参照)映像とを比較して、客体の領域情報を抽出する方法、およびその装置に関する。
【0002】
【従来の技術】
映像(画像)の中から客体を抽出する方法は、客体の動きを利用する方法、客体領域特徴値を利用する方法、映像編集ソフトウェアを利用した手作業による方法の3つに大別できる。
【0003】
客体の動きを利用して映像から客体を抽出する方法は、連続映像における差(違い)を計算して動き領域を抽出する方法、背景領域の除去により抽出する方法、運動解析により抽出する方法に分けられる。
連続映像における差(frame difference:US5500904、US5109435)を利用する方法は、映像の中の連続したフレーム毎の輝度差を計算して動きを抽出する方式であり、これは基本的な運動領域抽出方式である。
【0004】
背景領域除去(background subtraction:US5748775)による方法は、映像特徴変数の時間的(一時的)変化を利用して、背景映像を復元し、復元映像とオリジナル(元)映像との差から客体領域を抽出する方式である。
【0005】
運動解析(motion analysis:US5862508)による方法は、動いている客体の運動方向と速度とを計算して運動領域を抽出する方式である。この方式は、背景構造や照明状態が変化した場合であっても対応できる最も一般的な運動領域抽出方式である。
この動きを利用した領域抽出は、連続的な映像において、客体の動きが十分にある場合に使用できる。しかし、静止映像や客体の動きが少ない映像あるいは運動速度が非常に大きい映像には、適用し難いという問題点がある。
【0006】
客体領域の特徴値を利用する方法は、テンプレート整合(template matching)、多重閾値分割(multi−value threshold based segmentation)、特徴値整合(feature maching)による方法に分類できる。
【0007】
テンプレート整合(template matching:US5943442)は、抽出しようとする客体はテンプレート映像として定義され、検索対象の映像の中から、正規化相関値が最大値になる領域を客体領域として抽出する。しかしながら、客体の大きさが変化する場合や客体が回転する場合、正規化相関値が敏感に反応して抽出性能が低下してしまう。
【0008】
多重閾値(multi−value thresholds:US5138671)を使用して客体を抽出する方法は、映像の輝度値や色値の分布を多重閾値を使用して複数の領域に分割し、各々の領域を客体領域と見なす方法である。この方法の場合、背景領域と客体領域とを正確に区分(区別)しづらいという問題点がある。
【0009】
また、映像編集ソフトウェアを利用した手作業による方法は、領域の区分を人の手で直接行う方法である。この方法の場合、客体抽出の正確度は高いが、作業時間が長く要するので、連続映像や多映像を含むデータベースイメージの編集には適していないという問題点がある。
【0010】
【発明が解決しようとする課題】
本発明が解決しようとする技術的課題は、異なる映像における分割された領域同士の特性値整合を行って、客体を抽出する方法およびその装置を提供することである。
本発明が解決しようとする他の技術的課題は、上記方法をコンピュータで実行させるためのプログラムを記録した、コンピュータで読み出しうる記録媒体を提供することである。
【0011】
【課題を解決するための手段】
本発明は、映像から客体を抽出する客体抽出装置であって、前記客体を含む質疑映像および前記質疑映像に含まれた客体が抽出される客体抽出対象映像が入力される映像入力部と、前記質疑映像と前記客体抽出対象映像の画素単位の色特徴値の比較により、前記客体抽出対象映像において前記客体が存在すると推定された位置である候補客体位置を設定する客体位置判定部と、色特徴値とテクスチャー特性値とを利用して、前記質疑映像と前記客体抽出対象映像とを各々領域分割して、前記質疑映像と前記客体抽出対象映像とにおいて複数の分割領域をそれぞれ設定する映像分割部と、前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域との対応関係を、前記色特徴値と前記テクスチャー特性値とを利用して求め、前記対応関係に基づいて、前記質疑映像と前記客体抽出対象映像との類似度を求め、前記客体抽出対象映像における客体領域を決定する客体領域決定部とを含み、前記客体位置判定部は、色空間において規定された各ビンに含まれる画素数を表す色ヒストグラムを、前記質疑映像および前記客体抽出対象映像の各々について求める色ヒストグラム計算部と、前記質疑映像および客体抽出対象映像に対する色ヒストグラムを、前記質疑映像の各ビンに含まれる画素数を前記質疑映像の有効画素数の総数で割った値、若しくは質疑映像のビンの画素数を質疑映像のビンに対応する客体抽出対象映像のビンの画素数で割った値と1のうちの小さい方の値としたヒストグラム値比に代える映像投射部と、前記ヒストグラム値比に代えられた客体抽出対象映像において前記候補客体位置を決定する候補客体位置判定部とを含み、前記候補客体位置判定部は、前記質疑映像内の客体を取り囲むように設定された境界ボックスを基準に決定されたマスクを用いて、前記ヒストグラム値比に代えられた客体抽出対象映像の畳み込みを行って画素毎に存在確率を求め、求めた存在確率が所定値以上となる画素と、前記質疑映像において設定された境界ボックス内の各画素との色距離を求め、求めた色距離の平均が予め決められた閾値以下となる画素の位置を前記候補客体位置として設定する客体抽出装置に関するものである。
【0015】
また、前記映像分割部は、前記質疑映像と前記客体抽出対象映像とを、色空間およびテクスチャー空間にそれぞれ射影して求められる色特徴値とテクスチャー特性値とを利用して、前記質疑映像と前記客体抽出対象映像とを各々領域分割して、前記質疑映像と前記客体抽出対象映像とにおいて複数の分割領域をそれぞれ設定することが好ましい。
【0016】
さらに本発明は、映像から客体を抽出する客体抽出装置であって、前記客体を含む質疑映像および前記質疑映像に含まれた客体が抽出される客体抽出対象映像が入力される映像入力部と、前記質疑映像と前記客体抽出対象映像の画素単位の色特徴値の比較により、前記客体抽出対象映像において前記客体が存在すると推定された位置である候補客体位置を設定する客体位置判定部と、色特徴値とテクスチャー特性値とを利用して、前記質疑映像と前記客体抽出対象映像とを各々領域分割して、前記質疑映像と前記客体抽出対象映像とにおいて複数の分割領域をそれぞれ設定する映像分割部と、前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域との対応関係を、前記色特徴値と前記テクスチャー特性値とを利用して求め、前記対応関係に基づいて、前記質疑映像と前記客体抽出対象映像との類似度を求め、前記客体抽出対象映像における客体領域を決定する客体領域決定部とを含み、
前記客体領域決定部は、前記客体抽出対象映像において設定された分割領域のうち、前記候補客体位置を含む分割領域について、前記質疑映像の分割領域との類似性を示す距離値を下記式(1)を用いて求め、求めた距離値が、予め決められた閾値よりも小さい値となる前記分割領域が存在する場合に、前記客体抽出対象映像において設定された分割領域の中に、前記客体を含む領域である客体領域が存在すると判断する領域整合部と、
ここでDc(x,y)は、色空間における2つの領域x,y間の距離を示し、Dt(x,y)はテクスチャー空間における2つの領域x、y間の距離を示し、wcとwtは各々の距離値に付加される加重係数であり、領域xは、客体抽出対象映像において設定された分割領域を、領域yは、質疑映像の分割領域において設定された分割領域を示し、
前記客体抽出対象映像において設定された分割領域の間の距離値を求め、求めた距離値に基づいて、前記客体抽出対象映像内において設定された分割領域の各々が互いに隣接しているか否かを示す行列式である前記客体抽出対象映像用の空間隣接性行列と、
前記質疑映像において設定された分割領域の間の距離値を求め、求めた距離値に基づいて、前記質疑映像において設定された分割領域の各々が互いに隣接しているか否かを示す行列式である前記質疑映像用の空間隣接性行列とをそれぞれ生成する隣接性行列計算部と、
前記客体抽出対象映像用の空間隣接性行列と、前記質疑映像用の空間隣接性行列と、前記式(1)により求めた距離値とに基づいて、前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域との対応関係を求める対応領域検出部と、
前記対応関係に基づいて、前記質疑映像の分割領域と前記客体抽出対象映像の分割領域との類似度を求め、前記客体抽出対象映像における客体領域を決定する類似度計算部とを含む客体抽出装置に関するものである。
【0018】
ここで、前記質疑映像において設定された分割領域と、前記客体抽出対象映像の分割領域のうち前記候補客体位置を含む分割領域の各々について、各分割領域を識別するラベル番号が割り当てられており、前記質疑映像用の空間隣接性行列と前記客体抽出対象映像の空間隣接性行列では、各分割領域が互いに隣接しているか否かが、隣接している場合には第1の値で、隣接していない場合は第2の値で示されていることが好ましい。
【0019】
さらに、前記対応領域検出部は、前記質疑映像において設定された分割領域と前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域との対応関係を示す行列式である比較行列を、前記質疑映像用の空間隣接性行列と前記客体抽出対象映像用の空間隣接性行列とから、前記質疑映像用の空間隣接性行列と前記客体抽出対象映像用の空間隣接性行列に要素として含まれる前記分割領域の数に応じて生成することが好ましい。
【0020】
また、前記比較行列は、前記質疑映像において設定された分割領域と、前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域であって、前記式(1)で求めた距離値が予め決められた閾値よりも小さい値となる分割領域と、の対応関係を示す行列式であることが好ましい。
【0021】
さらに、前記対応領域検出部は、前記客体抽出対象映像において設定された分割領域と、前記質疑映像において設定された分割領域の各々との類似性を、前記式(1)で求めた前記距離値に関連付けて表示する行列式である距離行列を生成することが好ましい。
【0022】
また、前記距離行列は、前記質疑映像において設定された分割領域に割り当てられたラベル番号を行の要素として、前記客体抽出対象映像において設定された分割領域に割り当てられたラベル番号を列の要素として構成される行列であることが好ましい。
【0023】
さらに、前記比較行列では、前記客体抽出対象映像用の空間隣接性行列における隣接性と、前記質疑映像用の空間隣接性行列における隣接性とが一致する場合には、第1の値で、一致しない場合には第2の値で示されており、前記類似度計算部は、前記比較行列において前記第1の値を有する要素の数を、前記比較行列に含まれる要素の総数から、重複する要素の数を減算した数で除算することにより、前記類似度を求めることが好ましい。
【0024】
また、本発明は、(a)前記客体を含む質疑映像および前記質疑映像に含まれた客体が抽出される客体抽出対象映像が入力される段階と、(b)前記質疑映像と前記客体抽出対象映像の画素単位の色特徴値の比較により、前記客体抽出対象映像において、前記客体が存在すると推定された位置である候補客体位置を設定する段階と、(c)色特徴値とテクスチャー特性値とを利用して、前記質疑映像と前記客体抽出対象映像とを各々領域分割して、前記質疑映像と前記客体抽出対象映像とにおいて複数の分割領域をそれぞれ設定する段階と、(d)前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域との対応関係を、前記色特徴値と前記テクスチャー特性値とを利用して求め、前記対応関係に基づいて、前記質疑映像と前記客体抽出対象映像との類似度を求め、前記客体抽出対象映像における客体領域を決定する段階とを含み、前記(b)段階は、(b1)色空間において規定された各ビンに含まれる画素数を表す色ヒストグラムを、前記質疑映像および前記客体抽出対象映像の各々について求める段階と、(b2)前記質疑映像および客体抽出対象映像に対する色ヒストグラムを、前記質疑映像の各ビンに含まれる画素数を前記質疑映像の有効画素数の総数で割った値、若しくは質疑映像のビンの画素数を質疑映像のビンに対応する客体抽出対象映像のビンの画素数で割った値と1のうちの小さい方の値としたヒストグラム値比に代える段階と、(b3)前記ヒストグラム値比に代えられた客体抽出対象映像において前記候補客体位置を決定する段階とを含み、前記(b3)段階は、(b3−1)前記質疑映像内の客体を取り囲むように設定された境界ボックスを基準に決定されたマスクを用いて、前記ヒストグラム値比に代えられた客体抽出対象映像の畳み込みを行って画素毎に存在確率を求める段階と、(b3−2)求めた存在確率が所定値以上となる画素と、前記質疑映像において設定された境界ボックス内の各画素との色距離を求める段階と、(b3−3)求めた色距離の平均が予め決められた閾値以下となる画素の位置を前記候補客体位置として設定する段階とを含む映像から客体を抽出する客体抽出方法に関するものである。
【0030】
さらに、 画素位置(xp、yp)での前記マスクは下記式(2)を利用して定義される円であることが好ましい。
ここで、blは前記境界ボックスの長い辺の長さであり、bsは前記境界ボックスの短い辺の長さであり、αは大きさを調節するための変数である。
【0031】
さらに、前記色距離の平均は、下記式(3)により求められることが好ましい。
ここで、Nは境界ボックス内に位置する画素のうちの有効画素の数であり、添字qは質疑映像であり、dは客体抽出対象映像である。
【0032】
また、本発明は、(a)前記客体を含む質疑映像および前記質疑映像に含まれた客体が抽出される客体抽出対象映像が入力される段階と、(b)前記質疑映像と前記客体抽出対象映像の画素単位の色特徴値の比較により、前記客体抽出対象映像において、前記客体が存在すると推定された位置である候補客体位置を設定する段階と、(c)色特徴値とテクスチャー特性値とを利用して、前記質疑映像と前記客体抽出対象映像とを各々領域分割して、前記質疑映像と前記客体抽出対象映像とにおいて複数の分割領域をそれぞれ設定する段階と、(d)前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域との対応関係を、前記色特徴値と前記テクスチャー特性値とを利用して求め、前記対応関係に基づいて、前記質疑映像と前記客体抽出対象映像との類似度を求め、前記客体抽出対象映像における客体領域を決定する段階とを含み、
前記(d)段階は、(d1)前記客体抽出対象映像において設定された分割領域のうち、前記候補客体位置を含む分割領域について、前記質疑映像の分割領域との類似性を示す距離値を下記式(4)を用いて求め、求めた距離値が、予め決められた閾値よりも小さい値となる前記分割領域が存在する場合に、前記客体抽出対象映像において設定された分割領域の中に、前記客体を含む領域である客体領域が存在すると判断する段階と
ここでDc(x,y)は、色空間における2つの領域x,y間の距離を示し、Dt(x,y)はテクスチャー空間における2つの領域x、y間の距離を示し、wcとwtは各々の距離値に付加される加重係数であり、領域xは、客体抽出対象映像において設定された分割領域を、領域yは、質疑映像の分割領域において設定された分割領域を示し、(d2)前記客体抽出対象映像において設定された分割領域の間の距離値を求め、求めた距離値に基づいて、前記客体抽出対象映像内において設定された分割領域の各々が互いに隣接しているか否かを示す行列式である前記客体抽出対象映像用の空間隣接性行列と、前記質疑映像において設定された分割領域の間の距離値を求め、求めた距離値に基づいて、前記質疑映像において設定された分割領域の各々が互いに隣接しているか否かを示す行列式である前記質疑映像用の空間隣接性行列とをそれぞれ生成する段階と、(d3)前記客体抽出対象映像用の空間隣接性行列と、前記質疑映像用の空間隣接性行列と、前記式(4)により求めた距離値とに基づいて、前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域との対応関係を求める段階と、(d4)前記対応関係に基づいて、前記質疑映像の分割領域と前記客体抽出対象映像の分割領域との類似度を求め、前記客体抽出対象映像における客体領域を決定する段階とを含む映像から客体を抽出する客体抽出方法に関するものである。
【0035】
さらに、前記(d2)段階に関し、前記質疑映像において設定された分割領域と、前記客体抽出対象映像の分割領域のうち前記候補客体位置を含む分割領域の各々について、各分割領域を識別するラベル番号が割り当てられており、前記質疑映像用の空間隣接性行列と前記客体抽出対象映像の空間隣接性行列では、各分割領域が互いに隣接しているか否かが、隣接している場合には第1の値で、隣接していない場合は第2の値で示されていることか好ましい。
【0036】
さらに、前記(d3)段階では、前記質疑映像において設定された分割領域と前記客体抽出対象映像の分割領域のうち前記候補客体位置を含む分割領域との対応関係を示す行列式である比較行列を、前記質疑映像用の空間隣接性行列と前記客体抽出対象映像用の空間隣接性行列とから、前記質疑映像用の空間隣接性行列と前記客体抽出対象映像用の空間隣接性行列に含まれる前記分割領域の数に応じて生成することが好ましい。
【0037】
また、前記比較行列は、前記質疑映像において設定された分割領域と、前記客体抽出対象映像の分割領域の中で前記候補客体位置を含む分割領域であって、前記式(4)で求めた距離値が予め決められた閾値よりも小さい値となる分割領域と、の対応関係を示す行列式であることが好ましい。
【0038】
さらに、前記(d3)段階では、前記客体抽出対象映像において設定された分割領域と、前記質疑映像において設定された分割領域の各々との類似性を、前記式(4)で求めた前記距離値に関連付けて表示する行列式である距離行列を生成することが好ましい。
【0039】
なお、前記距離行列は、前記質疑映像において設定された分割領域に割り当てられたラベル番号を行の要素として、前記客体抽出対象映像において設定された分割領域に割り当てられたラベル番号を列の要素として構成される行列であることが好ましい。
【0040】
さらに、前記比較行列では、前記客体抽出対象映像用の空間隣接性行列における隣接性と、前記質疑映像用の空間隣接性行列における隣接性とが一致する場合には、第1の値で、一致しない場合には第2の値で示されており、前記(d4)段階では、前記比較行列において前記第1の値を有する要素の数を、前記比較行列に含まれる要素の総数から、重複する要素の数を減算した数で除算することにより、前記類似度を求めることが好ましい。
【0042】
また、本発明は、前記した映像から客体を抽出する客体抽出方法をコンピュータで実行させるためのプログラムを記録したコンピュータで読み出し可能な記録媒体に関するものである。
【0043】
【発明の実施の形態】
以下、添付した図面を参照して本発明の望ましい実施形態について詳細に説明する。
【0044】
図1は、本発明にかかる客体抽出装置の望ましい実施形態のブロック図である。図1に示すように、客体抽出装置は、映像入力部110と、客体位置判定部120と、映像分割部130と、客体領域決定部140とを含む。前記客体位置判定部120は、色ヒストグラム計算部121と、映像投射部123と、候補客体位置判定部125とを含んでも良い。また、前記客体領域決定部140は、領域整合部141と、隣接性行列計算部143と、対応領域検出部145と、類似度計算部147とを含んでも良い。
【0045】
図2は、本発明にかかる客体抽出方法の望ましい実施形態のフローチャートである。図2を参照しながら図1に示した客体抽出装置の動作を詳細に説明する。
【0046】
はじめに、映像入力部110に、客体を含む質疑(参照)映像と、客体抽出対象映像が入力される(210段階)。
ここで質疑(参照)映像とは、抽出しようとする客体を含む映像である。この質疑(参照)映像は、抽出しようとする客体をブルースクリーンなどを背景として撮影する、または動映像(画像)の任意の一映像フレームにおいて背景部分と客体部分とを映像編集機などを利用して分離する、などの方法により得ることができる。この場合、客体のある領域(部分)以外の領域、すなわち背景部分の画素の値は、「0」(black)として処理される。
また、客体抽出対象映像とは、任意の一映像、または動映像(画像)の中から場面検出技法などを利用して選択された代表フレーム映像をいう。
【0047】
客体抽出対象映像が動映像(画像)における代表フレーム映像である場合、当該代表フレーム映像は、抽出しようとする客体を含んでいても良く、含んでいなくても良い。
質疑(参照)映像および客体抽出対象映像は、本発明の他の段階を始める前に備えておく必要がある。
【0048】
次に、客体位置判定部120は、客体抽出対象映像内における客体の位置を特定するために、質疑(参照)映像と客体抽出対象映像の画素単位ごとに色特徴の整合(color feature matching)を行う(221〜225−3段階)。
【0049】
具体的には、色ヒストグラム計算部121が、選択された色空間と量子化水準を用いて、質疑(参照)映像と客体抽出対象映像について色ヒストグラム値を求める(221段階)。ここで、色ヒストグラム値は、量子化された色空間内の各ビン(bin)に含まれる画素数を意味する。
【0050】
図3は、本発明で使用する量子化された色空間内におけるビンの例を示している。この図において、色空間は赤色(R)軸、緑色(G)軸、青色(B)軸からなる3次元空間で表現される。
図3の各軸は、色空間を一定の体積を有する立方体に量子化するために、各軸ごとに5個の区間(0から始まって、51、102、153、204、255という値ごと)に分割される。
ここでビンとは、以上のように量子化された3次元色空間内の一区間(例えば、図3で斜線をつけた部分(四面体))を意味する。
【0051】
各ビンに含まれた画素数Cmiが、臨界画素数(閾値)以下の場合、ビン内の画素を雑音(ノイズ)と見なして、当該ビンの色ヒストグラム値を「0」と設定する。
【0052】
臨界画素数(閾値)は、thrPixel=SUM(Cmi)/nと定義できる。ここで、iは0、...、n−1の値を有するビン番号であり、nはビンの数、Cmiは質疑(参照)映像内のi番目のビンに含まれた画素の数である。
【0053】
この場合、映像内での出現頻度が少ない色値を有する画素は、雑音(ノイズ)と見なされる。また背景色(画素値が「0」である)と見なされた領域に対する色ヒストグラム値は、「0」として処理し、これにより最終色ヒストグラム値が決定される。
【0054】
本実施の形態ではRGB色空間が使われ、8×8×8の量子化が用いられる。しかしながら、本発明は、特定の色空間や量子化に限定されるものではない。YCbCr、L*u*vなどの他の色空間を適宜選択使用することが可能であり、量子化も4×4×4あるいは16×16×16など他の水準を使用できる。このように他の色空間を選択したり、他の量子化水準を使用する場合における結果の変化は微細である。
【0055】
映像投射部123は、ヒストグラム値比を計算し、客体抽出対象映像の各画素値をヒストグラム値比と置換する(223段階)。これが色ヒストグラムを利用した映像投射(射影)(image projection)である。
ヒストグラム値比は次の2つの方法で計算できる。その最初の方法は、質疑(参照)映像のi番目ビンに含まれる画素の数を、質疑(参照)映像内の全ての有効画素数で割った値すなわち、R[Ci]=[Cmi/SUM(Cmi)_effective]で決定する方法である。ここで、SUM(Cmi)_effectiveはi番目のビンに含まれた有効画素数を意味する。
【0056】
二番目の方法は、質疑(参照)映像のビンの画素数を客体抽出対象映像内のビンであって質疑(参照)映像のビンに対応するビンに含まれる画素数で割った値と、1のうち小さいほうの値をヒストグラム値比とする方法である。すなわち、ヒストグラム値比は、R[Ci]=min[(Cmi/Cdi)、1]で定義される。ここで、R[Ci]はi番目のビンに対応する色を有する画素の比(割合)を意味する。
客体抽出対象映像の各画素の色値に対応するヒストグラム値比と、画素値とを置換する、これにより、映像投射がなされる。
【0057】
候補客体位置判定部125は、ヒストグラム値比とともに客体抽出対象映像における候補客体の位置を画素の値として決定する(225−1段階)。
具体的には、質疑(参照)映像内の客体の映像領域を取り囲む最小限の四角形、すなわち境界ボックス(枠)を求める。各画素ごとに客体の存在可能性に関する尺度(存在確率)を計算するために、この境界ボックスの大きさを基準として決定される特定の大きさを有するマスクを、ヒストグラム値比を有する客体抽出対象映像に対して畳み込みをする。その計算した尺度の値が基準値以上であれば、相当する画素の位置を候補客体位置と判定する。
【0058】
ここで、各画素(xp、yp)の尺度を計算するために使われるマスクWは、半径の大きさがWRである円となる。このマスクWは、下記式1のように定義される。
【0059】
【数1】
【0060】
ここでWRは境界ボックスにより規定される値であり、blは境界ボックスの長辺の長さ、bsは境界ボックスの短辺の長さであり、αは大きさを調節するための変数である。
各画素内に客体が存在する可能性は「loc」と表現され、loc(x、y)=W*p(x、y)と定義される。
ここで、p(x、y)は、画素(x、y)におけるヒストグラム値比であり、*は畳み込みを意味する。loc(x、y)の最大値は255というように正規化される。loc値が基準値以上であru場合、画素(x、y)の位置は候補客体位置として決定される。
前記式1において、変数αを調節することで、客体の多重位置を決定できる。すなわち、抽出しようとする客体の大きさが、質疑(参照)映像と客体抽出対象映像とで異なる場合、その大きさ変化が認識することができる。
【0061】
225−1段階において候補客体の位置が決定されると、テンプレート整合を行うために、質疑(参照)映像内の客体領域の一部または全部を含む特定大きさの四角形領域内にある画素と、客体抽出対象映像内の候補客体位置の周りの特定大きさの四角形領域にある画素との間の色距離差を求める(225−2段階)。
【0062】
少なくとも一つの客体の位置が、平均色距離差を元に決定される(225−3段階)。
【0063】
具体的には、質疑(参照)映像内の客体領域を囲むマスク内の画素と、客体抽出対象映像内の候補客体位置判定部125により候補客体位置と決定された位置にある画素のマスクに含まれる画素との間の平均色距離差が最小となる場合、候補客体位置は客体位置として決定される。そして、2番目に小さい値となった場合、相当する候補客体位置は、他の客体の位置として決定される。このようにして、少なくとも一つの客体の位置が決定される。
ここで、マスクは、質疑(参照)映像内の客体境界ボックスのサイズに基づいて決定される任意の大きさ、例えば縦横の大きさがbsである、を有する四角い領域である。
【0064】
質疑(参照)映像内の画素と、客体抽出対象映像の画素との間の平均色距離差(ADpixelcolor)は、下記式2のように定義できる。
【0065】
【数2】
【0066】
ここで、Nは、Rq=Gq=Bq=0とならない有効画素の数を意味し、Rq=Gq=Bq=0となる画素は計算から除外される。下添字qは質疑(参照)映像を、dは客体抽出対象映像をそれぞれ意味する。
【0067】
一方、映像分割部130は、映像入力部110を介して入力された質疑(参照)映像と客体抽出対象映像とを、色やテクスチャーの映像特徴値を利用して、複数の領域にそれぞれ分割する(230段階)。
この映像を分割する方法は特に限定されるものではなく、従来公知の方法を使用して行える。
この映像を分割する方法の好ましい一態様が図5に示されている。図5(a)は、元の映像を、図5(b)は領域分割された映像を示す。図5(b)に示すように、分割された領域にはラベル番号が割り当てられている。
【0068】
客体領域決定部140は、質疑(参照)映像の分割された全ての領域と、客体抽出対象映像の分割された領域の中で前記客体位置判定部120により客体位置として決定された位置に含まれるすべての領域との領域整合を行う。
そして整合された領域における空間隣接性の類似度を利用して最終客体領域を決定する(241段階〜249段階)。
【0069】
具体的には、領域整合部141は、客体抽出対象映像内の客体位置として決定された位置を中心とするマスクWに接する分割された領域を検出し、これと質疑(参照)映像の分割された全ての領域との間の類似度を計算して領域整合を行う(241段階)。
類似度が所定値よりも小さい場合、客体抽出対象映像内の検出された領域を、客体領域として決定する。
一方、類似度が所定値よりも大きい場合、相当する検出領域を、客体領域から除外する。
ここで、類似度は、色−テクスチャー特徴値空間における距離DCTを用いて決定される。なお、距離DCTは、下記式3のように定義される。
【0070】
【数3】
【0071】
ここで、Dc(x、y)は、色特徴空間における2つの領域x、y間の距離であり、Dt(x、y)は、テクスチャー特徴値空間における2つの領域x、y間の距離を示す。wcとwtは各々の距離値に付加される加重係数である。
【0072】
Dc(x、y)とDt(x、y)とを計算する過程の一例を以下に詳細に説明する。
分割された各領域の色特徴値は下記式4のように定義される。ここで、輝度(B、Brightness)、色相(H、Hue)、彩度(S、Saturation)である。
【0073】
【数4】
【0074】
ここでr、g、bは、入力された領域の平均色値であり、u=min(r,g,b)である。
BHS色空間上の距離は、下記式5で表される色空間内の距離Dc(x,y)として使用できる。
【0075】
【数5】
【0076】
ここでB(x)、H(x)、S(x)は、色空間内の一点における輝度、色相、彩度をそれぞれ意味し、KB、KH、KSは、それぞれ輝度、色相、彩度の加重係数である。
【0077】
テクスチャー特徴値空間は、多重大きさおよび多重方向のテクスチャー特徴値を利用して形成される。各特徴値は、各画画素ごとの多重方向の局所変動vと局所振動gとをそれぞれ合算することによって得られる。映像の輝度値Bは、このようなテクスチャー特徴値を抽出するのに使用される。
【0078】
テキスチャー特性値を求める際に、長さ2Lである画素の集合を、画素(m、n)を中心として確度αk=kπ/K(k=0、...、K−1)回転させる。
ここで、Lについて図4を参照しながら説明する。
【0079】
図4は、画素(m、n)を中心にした回転と、Lの意味とを説明するための図面である。図4の黒色に塗りつぶした部分は、計算しようとするテキスチャー特性値の画素(m,n)である。画素(m,n)の上下左右に位置する各画素は、ハッチング線で示している。ここでLは4である。対角線上に示された画素群は、4つの画素を画素(m,n)を中心として45度回転させた際の様子を示している。
【0080】
yi(−L≦i≦L)は、このように均一に分布された配列画素の中の一個の画素の輝度値Bを示す。ここで、di=yi+1−yiは、この配列画素の中で隣り合った画素の輝度値の差を示し、wi=u cos(iπ/(2L+1))はコサイン加重関数となる。
ここで係数uは、
を形成するための値として使われる。
これを利用して得られる加重変動の上限および下限は、次の数式6の通りである。
【0081】
【数6】
【0082】
ここで、上記式6の二つの値のうち小さい方の値を局所変動値vとして選択する。すなわち、局所変動値vは、下記式7のように定義される。
【0083】
【数7】
【0084】
局所振動値gは、長さL(−L≦i≦L)の配列画素に含まれるdiの中で、その方向(sign)が変わるとdiの振幅の大きさが所定の規定値を超えるdiの数である。
【0085】
各画素のテキスチャー特性値
は、各画素の局所変動値と局所振動値とを乗算することによって求められる。
【0086】
求められたテキスチャー特徴値をさらに均一にするために、各テキスチャー特性値は、サイズがhである枠の尺度値に平坦化され、そして下記式8に示す変換式を利用して双曲線正接(hyperbolic tangent)変換処理される。これにより、高いテクスチャー特徴値は小さく、低いテクスチャー特徴値は大きくなる。
【0087】
【数8】
【0088】
テクスチャーは大きさに依存する特徴値であるために、映像の大きさを、異なる周波数で毎回1/2づつS回縮める。各画素のテクスチャー特徴値は、映像の大きさを縮める必要があるときはいつでも、この方法に従って求めることが出来る。このようにして求められるテクスチャー特徴値は、下記式9のように表される。
【0089】
【数9】
【0090】
式9によると、各画素のテクスチャー特徴値の数はKSである。各領域の各画素のKS個のテクスチャー特徴値は、異なる領域の画素間のテキスチャー距離を求めるのに利用される。ここで、テキスチャー距離は下記式10で表される。
【0091】
【数10】
【0092】
ここでx,yは、テクスチャー特性空間内の二点を意味する。
と
は、それぞれxとyのテキスチャー特性値であり、Wsはテクスチャーの多重大きさに付加される加重係数である。
【0093】
領域整合部141は、客体抽出対象映像内に少なくとも一つの客体領域が存在するか否かを、計算された類似度に基づいて判断する(242段階)。
客体領域が存在しないと判断された場合、客体抽出対象映像内に客体領域が含まれないと判断し、終了する。
一方、すくなくとも一つの客体領域が存在すると判断された場合、客体抽出対象映像が客体領域を含むと判断する。
【0094】、
続いて、隣接性行列計算部143は、分割された領域を有する質疑(参照)映像と、領域整合を行って得られた映像とを受信し、入力された映像のそれぞれの分割された領域について空間隣接性行列を計算する(243段階)。
ここで、領域整合を行って得られた映像とは、客体抽出対象映像の分割された領域の中で客体領域を含むと見なされた領域と、質疑(参照)映像の分割された領域とに領域整合を行って得られた映像とのことである。
【0095】
分割された領域にはラベル番号がそれぞれ割り当てられており、分割された領域の中の隣接性は行列で示されている。2つの分割された領域が隣接している場合、行列内の対応する要素は値「1」を有する。2つの分割された領域が隣接していない場合、行列内の対応する要素は、値「0」を有する。このような隣接行列の好ましい一態様を図6に示す。
【0096】
図6は、図5(b)に示す映像の隣接性行列を示したものである。
この図では、領域2と領域3とは互いに隣接した領域となっているので、行列の要素(2,3)の成分は「1」の値を有する。また、領域2と領域4とは互いに隣接せずに分離された領域となっているので、行列の要素(2,4)は「0」の値を有する。
このように、分割された領域のラベル番号は、行列内の行と列とに割り当てられており、2つの領域の隣接性は、対応する要素「1」、「0」で示されるので、隣接性行列が形成される。
【0097】
対応領域検出部145は、質疑(参照)映像の隣接性行列を構成する領域に対応する客体抽出対象映像内の領域を、隣接性行列を用いて検出する(245段階)。
具体的には、質疑(参照)映像と客体抽出対象映像とにおける対応領域は比較行列で表わされる。質疑(参照)映像の分割された領域の数と、客体抽出対象映像の分割された領域の数に基づいて、比較行列をそれぞれ方法で求めることは必要である。
【0098】
(1)質疑(参照)映像の分割された領域の数が、客体抽出対象映像の分割された領域の数より多い場合、例えば、質疑(参照)映像の分割された領域の数が4つ、客体抽出対象映像の分割された領域の数は3つである場合、
−質疑(参照)映像および客体抽出映像の隣接性行列を求める。
−質疑(参照)映像の分割された領域の数に基づいて正方形の比較行列を構成する。
−客体抽出対象映像の隣接性行列にラベル番号を割り当て、割り当てられたラベルに対応する要素の値を「0」とする。
【0099】
図7は、質疑(参照)映像の分割された領域の数が、客体抽出対象映像の分割された領域の数より多い場合の比較行列を求める望ましい実施形態を示している。
図7(a)は質疑(参照)映像の隣接性行列の一例を示しており、図7(b)は客体抽出対象映像の隣接性行列の一例を示しており、図7(c)は、図7(a)、図7(b)の隣接性行列から求められた比較行列の一例を示している。ここで、図7(b)および図7(c)における「×」は、追加されたラベルである。
【0100】
(2)質疑(参照)映像の分割された領域の数が、客体抽出対象映像の分割された領域の数より少ない場合、
−質疑(参照)映像および客体抽出対象映像の隣接性行列を求める。
−質疑(参照)映像の分割された領域の数に基づいて正方形の比較行列を構成する。
−客体抽出対象映像の領域ラベルのうちの一部を比較行列構成から除外する。
図8は、質疑(参照)映像の分割された領域の数が、客体抽出対象映像の分割された領域の数より少ない場合に比較行列を求める望ましい実施形態が示されている。
図8(a)は質疑(参照)映像の隣接性行列であり、図8(b)は客体抽出対象映像の隣接性行列であり、図8(c)は、図8(a)および図8(b)で求めた比較行列である。
【0101】
図7乃至図8では、質疑(参照)映像の領域ラベルと客体抽出対象映像の領域ラベルとが同じものを整合させて比較行列を構成する。
ここで、比較行列とは、質疑映像の隣接性行列(図7(a))における各要素と、客体抽出対象映像の隣接性行列(図7(b))における各要素との対応関係、すなわち、両行列の各要素同士が一致しているか否かを示す行列である。
図7を参照して、具体的に説明すると、図7(a)の要素(1,2)の成分は「1」であり、図7(b)の要素(1,2)の成分は「1」である。すなわち、両成分は一致しているので、比較行列(図7(c)において、要素(1,2)の成分は「1」となる。
一方、図7(a)の要素(1,3)の成分は「1」であり、図7(b)の要素(1,3)の成分は「0」である。すなわち、両成分は一致していないので、比較行列(図7(c))において、要素(1,3)の成分は「0」となることが判る。
しかし、図7乃至図8に示す前記方法に従って得られた比較行列は、同一のラベル番号を有する領域が同じ特性値(色特性値、テキスチャー特性値)を有すると仮定した状況下においてのみ有効である。
すなわち、質疑(参照)映像および客体抽出対象映像内のラベル番号が割り当てられた領域同士が最も類似した特性を有する対応領域を探す必要がある。各対応領域のラベル番号を用いて比較行列を求めた場合のみ、質疑(参照)映像と客体抽出対象映像における領域比較が有効である。このような対応領域は以下の手順に従って求められる。
【0102】
(1)質疑(参照)映像の領域ラベル番号を行として、客体抽出対象映像の領域ラベル番号を列としてそなえる行列を構成し、質疑(参照)映像内の分割された領域間の距離と、客体抽出対象映像内の分割された領域間の距離とを求め、求めた距離を要素としてそなえる距離行列を求める。ここで、距離とは色−テクスチャー特徴空間における距離DCT(x,y)である。
【0103】
(2)質疑(参照)映像の領域に対応する客体抽出対象映像内の領域を距離行列の値により決定して、その対応領域によって比較行列を再構成する。
【0104】
図9は、質疑(参照)映像と客体抽出対象映像のそれぞれについて、異なるラベル番号を有する領域の特性値に最も近い特性値を有する領域を検索し、検索結果に基づいて比較行列を構成する方法の好ましい位置態様図である。
【0105】
図9(a)は、質疑(参照)映像と客体抽出対象映像に存在する領域間の距離を示す距離行列の望ましい実施形態を示したものである。
図9(b)は、図9(a)の距離行列において距離が最短となる領域にそれぞれ割り当てられたラベル番号を使用して再構成された比較行列の好ましい一態様
を示したものである。
ここで、距離行列とは、「客体抽出対象映像において設定された分割領域と、質疑映像において設定された分割領域の各々との類似性を距離値に関連付けて表示する行列式である。
【0106】
図9(a)の距離行列の要素のうちハッチング線を付した各要素では、質疑(参照)映像と客体抽出対象映像の領域間の距離が最短となる。
図9では、質疑(参照)映像の領域が3つ、比較される客体抽出対象映像の領域が4つである場合を例に挙げており、比較行列ではラベル番号が距離行列で求めた対応する領域によって変化することを示している。
【0107】
次に、類似度計算部147は、空間隣接性行列の類似度を計算する(247段階)。類似度は比較行列における「1」の数Euを、上の三角行列全体の要素の数Muで割ることで求める。ここで、三角行列とは、図7(c)の場合は、図中においてハッチングで示す部分の行列を意味する。
したがって、言い換えると、類似度計算部147は、比較行列において「1」の値を有する要素の数を、比較行列に含まれる要素の総数から、重複する要素の数を減算した数で除算することにより、類似度を求める。
質疑(参照)映像における隣接性と、客体抽出対象映像における隣接性とが略一致する場合、類似性の値は「1」となる。一方、質疑(参照)映像における隣接性と、客体抽出対象映像における隣接性とが完全に異なる場合、類似性の値は「0」となる。すなわち、質疑(参照)映像と客体抽出対象映像との間の空間隣接性における類似度Siは、下記式11で表される。
【0108】
【数11】
【0109】
そして、計算された類似度が臨界値(閾値)以上であるかどうかを判断する(248段階)。類似度が臨界値(閾値)以上である場合、最終客体領域が決定される(249段階)。
すなわち、色特性値およびテキスチャー特性値を利用して領域整合を行うことにより求められた客体抽出対象映像内の領域が、抽出しようとする客体であるか否かを判断する。客体領域として最終的に決定された領域を客体(最終客体領域)として決定される。
最終客体領域の画素の値は、オリジナル(元)映像内の画素の値として決定される。そして客体抽出対象映像の他の領域の画素の値を「0」とする。
【0110】
一方、類似度が臨界値(閾値)以下である場合、客体抽出対象映像の中に抽出される客体が存在しないと決定され、客体抽出対象内の全ての画素の値を「0」とする。
【0111】
図10は、客体抽出映像から二つの相異なる客体を抽出した結果を示すものである。図10(a)は、4個の客体抽出対象映像に含まれた女性出演者の服(抽出対象客体)を本発明によって抽出した結果を示したものであり、図10(b)は、4個の客体抽出対象映像から男性出演者の服(抽出対象客体)を本発明によって抽出した結果を示したものである。
【0112】
一方、上述した本発明の実施形態はコンピュータで実行できるプログラムで作成可能である。そして、コンピュータで使われる媒体を利用して上記プログラムを動作させる汎用ディジタルコンピュータで具現できる。
上記媒体はマグネチック貯蔵媒体(例えば、ROM、フレキシブルディスクディスク、ハードディスク等)、光学的判読媒体(例えば、CD-ROM、DVD等)およびキャリアウェーブ(例えば、インターネットを通した伝送)のような貯蔵媒体を含む。
【0113】
【発明の効果】
以上述べたように、本発明は従来の動き基盤客体抽出方法などとは違って客体抽出対象映像内に存在する客体の動きの有無に関係なく客体を抽出できる長所がある。
それだけでなく、客体抽出対象映像が連続する動映像フレームである必要もない。
また、色特性値やテクスチャー特徴値などの単一種の情報だけを利用して客体を抽出する方法と比べると、本発明によるとより正確な客体の映像領域抽出が可能となる。
抽出しようとする客体を含む質疑(参照)映像と客体抽出対象映像の入力に応じて客体抽出を自動的に行えるので、手動の客体を抽出する際に要する時間を節約できる。本発明のこのような特徴および長所は、特定客体の映像領域を自動で抽出する必要がある映像編集および書込み機、客体基盤映像符号化機、対話形動映像製作機等に有用に利用できる。
【0114】
今まで本発明について望ましい実施形態を中心に調べた。本発明が属する技術分野で通常の知識を有する者は本発明を本発明の本質的な特性を外れない範囲で変形された形で具現できることを理解できる。したがって開示された実施形態は限定的な観点でなく説明的な観点で考慮されねばならない。本発明の範囲は特許請求の範囲に示されており、それと同等な範囲内にあるすべての差異点は本発明に含まれると解析されねばならない。
【図面の簡単な説明】
【図1】本発明による客体抽出装置の望ましい実施形態のブロック図である。
【図2】本発明による客体抽出方法のフローチャートである。
【図3】色空間の量子化およびビンに関する説明図である。
【図4】画素(m、n)を中心にした回転に関する説明図である。
【図5】(a)、(b)ともに領域分割された映像にラベル番号を割り当てた例を示す。
【図6】図5Bについての隣接性行列を示す。
【図7】質疑(参照)映像の分割された領域の数が客体抽出対象領域の分割された領域の数より大きい場合に比較行列を求める例を示す。
【図8】質疑(参照)映像の分割された領域の数が客体抽出対象領域の分割された領域の数より小さい場合に比較行列を求める例を示す。
【図9】距離行列の例とそれに従う比較行列の例を示す。
【図10】二つの相異なる客体についての客体抽出対象映像での客体抽出結果を示す。
Claims (20)
- 映像から客体を抽出する客体抽出装置であって、
前記客体を含む質疑映像および前記質疑映像に含まれた客体が抽出される客体抽出対象映像が入力される映像入力部と、
前記質疑映像と前記客体抽出対象映像の画素単位の色特徴値の比較により、前記客体抽出対象映像において前記客体が存在すると推定された位置である候補客体位置を設定する客体位置判定部と、
色特徴値とテクスチャー特性値とを利用して、前記質疑映像と前記客体抽出対象映像と
を各々領域分割して、前記質疑映像と前記客体抽出対象映像とにおいて複数の分割領域をそれぞれ設定する映像分割部と、
前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域との対応関係を、前記色特徴値と前記テクスチャー特性値とを利用して求め、前記対応関係に基づいて、前記質疑映像と前記客体抽出対象映像との類似度を求め、前記客体抽出対象映像における客体領域を決定する客体領域決定部とを含み、
前記客体位置判定部は、
色空間において規定された各ビンに含まれる画素数を表す色ヒストグラムを、前記質疑映像および前記客体抽出対象映像の各々について求める色ヒストグラム計算部と、
前記質疑映像および客体抽出対象映像に対する色ヒストグラムを、前記質疑映像の各ビンに含まれる画素数を前記質疑映像の有効画素数の総数で割った値、若しくは質疑映像のビンの画素数を質疑映像のビンに対応する客体抽出対象映像のビンの画素数で割った値と1のうちの小さい方の値としたヒストグラム値比に代える映像投射部と、
前記ヒストグラム値比に代えられた客体抽出対象映像において前記候補客体位置を決定する候補客体位置判定部とを含み、
前記候補客体位置判定部は、
前記質疑映像内の客体を取り囲むように設定された境界ボックスを基準に決定されたマスクを用いて、前記ヒストグラム値比に代えられた客体抽出対象映像の畳み込みを行って画素毎に存在確率を求め、
求めた存在確率が所定値以上となる画素と、前記質疑映像において設定された境界ボックス内の各画素との色距離を求め、
求めた色距離の平均が予め決められた閾値以下となる画素の位置を前記候補客体位置として設定することを特徴とする客体抽出装置。 - 前記映像分割部は、
前記質疑映像と前記客体抽出対象映像とを、色空間およびテクスチャー空間にそれぞれ射影して求められる色特徴値とテクスチャー特性値とを利用して、前記質疑映像と前記客体抽出対象映像とを各々領域分割して、前記質疑映像と前記客体抽出対象映像とにおいて複数の分割領域をそれぞれ設定することを特徴とする請求項1に記載の客体抽出装置。 - 映像から客体を抽出する客体抽出装置であって、
前記客体を含む質疑映像および前記質疑映像に含まれた客体が抽出される客体抽出対象映像が入力される映像入力部と、
前記質疑映像と前記客体抽出対象映像の画素単位の色特徴値の比較により、前記客体抽出対象映像において前記客体が存在すると推定された位置である候補客体位置を設定する客体位置判定部と、
色特徴値とテクスチャー特性値とを利用して、前記質疑映像と前記客体抽出対象映像とを各々領域分割して、前記質疑映像と前記客体抽出対象映像とにおいて複数の分割領域をそれぞれ設定する映像分割部と、
前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域との対応関係を、前記色特徴値と前記テクスチャー特性値とを利用して 求め、前記対応関係に基づいて、前記質疑映像と前記客体抽出対象映像との類似度を求め、前記客体抽出対象映像における客体領域を決定する客体領域決定部とを含み、
前記客体領域決定部は、
前記客体抽出対象映像において設定された分割領域のうち、前記候補客体位置を含む分割
領域について、前記質疑映像の分割領域との類似性を示す距離値を下記式(1)を用いて求め、求めた距離値が、予め決められた閾値よりも小さい値となる前記分割領域が存在する場合に、前記客体抽出対象映像において設定された分割領域の中に、前記客体を含む領域である客体領域が存在すると判断する領域整合部と、
ここでDc(x,y)は、色空間における2つの領域x,y間の距離を示し、Dt(x,y)はテクスチャー空間における2つの領域x、y間の距離を示し、wcとwtは各々の距離値に付加される加重係数であり、領域xは、客体抽出対象映像において設定された分割領域を、領域yは、質疑映像の分割領域において設定された分割領域を示し、
前記客体抽出対象映像において設定された分割領域の間の距離値を求め、求めた距離値に基づいて、前記客体抽出対象映像内において設定された分割領域の各々が互いに隣接しているか否かを示す行列式である前記客体抽出対象映像用の空間隣接性行列と、
前記質疑映像において設定された分割領域の間の距離値を求め、求めた距離値に基づいて、前記質疑映像において設定された分割領域の各々が互いに隣接しているか否かを示す行列式である前記質疑映像用の空間隣接性行列とをそれぞれ生成する隣接性行列計算部と、
前記客体抽出対象映像用の空間隣接性行列と、前記質疑映像用の空間隣接性行列と、前記式(1)により求めた距離値とに基づいて、前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域との対応関係を求める対応領域検出部と、
前記対応関係に基づいて、前記質疑映像の分割領域と前記客体抽出対象映像の分割領域との類似度を求め、前記客体抽出対象映像における客体領域を決定する類似度計算部とを含む
ことを特徴とする客体抽出装置。 - 前記質疑映像において設定された分割領域と、前記客体抽出対象映像の分割領域のうち前記候補客体位置を含む分割領域の各々について、各分割領域を識別するラベル番号が割り当てられており、
前記質疑映像用の空間隣接性行列と前記客体抽出対象映像の空間隣接性行列では、各分割領域が互いに隣接しているか否かが、隣接している場合には第1の値で、隣接していない場合は第2の値で示されている
ことを特徴とする請求項3に記載の客体抽出装置。 - 前記対応領域検出部は、
前記質疑映像において設定された分割領域と前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域との対応関係を示す行列式である比較行列を、前記質疑映像用の空間隣接性行列と前記客体抽出対象映像用の空間隣接性行列とから、前記質疑映像用の空間隣接性行列と前記客体抽出対象映像用の空間隣接性行列に要素として含まれる前記分割領域の数に応じて生成する
ことを特徴とする請求項3に記載の客体抽出装置。 - 前記比較行列は、前記質疑映像において設定された分割領域と、前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域であって、前記式(1)で求めた距離値が予め決められた閾値よりも小さい値となる分割領域と、の対応関係を示す行列式である
ことを特徴とする請求項5に記載の客体抽出装置。 - 前記対応領域検出部は、
前記客体抽出対象映像において設定された分割領域と、前記質疑映像において設定された分割領域の各々との類似性を、前記式(1)で求めた前記距離値に関連付けて表示する行列式である距離行列を生成する
ことを特徴とする請求項6に記載の客体抽出装置。 - 前記距離行列は、前記質疑映像において設定された分割領域に割り当てられたラベル番号を行の要素として、前記客体抽出対象映像において設定された分割領域に割り当てられたラベル番号を列の要素として構成される行列である
ことを特徴とする請求項7に記載の客体抽出装置。 - 前記比較行列では、前記客体抽出対象映像用の空間隣接性行列における隣接性と、前記質疑映像用の空間隣接性行列における隣接性とが一致する場合には、第1の値で、一致しない場合には第2の値で示されており、
前記類似度計算部は、前記比較行列において前記第1の値を有する要素の数を、前記比較行列に含まれる要素の総数から、重複する要素の数を減算した数で除算することにより、前記類似度を求める
ことを特徴とする請求項5に記載の客体抽出装置。 - 映像から客体を抽出する方法において、
(a)前記客体を含む質疑映像および前記質疑映像に含まれた客体が抽出される客体抽出対象映像が入力される段階と、
(b)前記質疑映像と前記客体抽出対象映像の画素単位の色特徴値の比較により、前記客体抽出対象映像において、前記客体が存在すると推定された位置である候補客体位置を設定する段階と、
(c)色特徴値とテクスチャー特性値とを利用して、前記質疑映像と前記客体抽出対象映像とを各々領域分割して、前記質疑映像と前記客体抽出対象映像とにおいて複数の分割領域をそれぞれ設定する段階と、
(d)前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域との対応関係を、前記色特徴値と前記テクスチャー特性値とを利用して求め、前記対応関係に基づいて、前記質疑映像と前記客体抽出対象映像との類似度を求め、前記客体抽出対象映像における客体領域を決定する段階とを含み
前記(b)段階は、
(b1)色空間において規定された各ビンに含まれる画素数を表す色ヒストグラムを、前記質疑映像および前記客体抽出対象映像の各々について求める段階と、
(b2)前記質疑映像および客体抽出対象映像に対する色ヒストグラムを、前記質疑映像の各ビンに含まれる画素数を前記質疑映像の有効画素数の総数で割った値、若しくは質疑映像のビンの画素数を質疑映像のビンに対応する客体抽出対象映像のビンの画素数で割った値と1のうちの小さい方の値としたヒストグラム値比に代える段階と、
(b3)前記ヒストグラム値比に代えられた客体抽出対象映像において前記候補客体位置を決定する段階とを含み
前記(b3)段階は、
(b3−1)前記質疑映像内の客体を取り囲むように設定された境界ボックスを基準に決定されたマスクを用いて、前記ヒストグラム値比に代えられた客体抽出対象映像の畳み込みを行って画素毎に存在確率を求める段階と、
(b3−2)求めた存在確率が所定値以上となる画素と、前記質疑映像において設定された境界ボックス内の各画素との色距離を求める段階と、
(b3−3)求めた色距離の平均が予め決められた閾値以下となる画素の位置を前記候補客体位置として設定する段階と
を含むことを特徴とする客体抽出方法。 - 映像から客体を抽出する方法において、
(a)前記客体を含む質疑映像および前記質疑映像に含まれた客体が抽出される客体抽出対象映像が入力される段階と、
(b)前記質疑映像と前記客体抽出対象映像の画素単位の色特徴値の比較により、前記客体抽出対象映像において、前記客体が存在すると推定された位置である候補客体位置を設定する段階と、
(c)色特徴値とテクスチャー特性値とを利用して、前記質疑映像と前記客体抽出対象映像とを各々領域分割して、前記質疑映像と前記客体抽出対象映像とにおいて複数の分割領域をそれぞれ設定する段階と、
(d)前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域のうちの前記候補客体位置を含む分割領域との対応関係を、前記色特徴値と前記テクスチャー特性値とを利用して求め、前記対応関係に基づいて、前記質疑映像と前記客体抽出対象映像との類似度を求め、前記客体抽出対象映像における客体領域を決定する段階とを含み
前記(d)段階は、
(d1)前記客体抽出対象映像において設定された分割領域のうち、前記候補客体位置を含む分割領域について、前記質疑映像の分割領域との類似性を示す距離値を下記式(4)を用いて求め、求めた距離値が、予め決められた閾値よりも小さい値となる前記分割領域が存在する場合に、前記客体抽出対象映像において設定された分割領域の中に、前記客体を含む領域である客体領域が存在すると判断する段階と
ここでDc(x,y)は、色空間における2つの領域x,y間の距離を示し、Dt(x,y)はテクスチャー空間における2つの領域x、y間の距離を示し、wcとwtは各々の距離値に付加される加重係数であり、領域xは、客体抽出対象映像において設定された分割領域を、領域yは、質疑映像の分割領域において設定された分割領域を示し、
(d2)前記客体抽出対象映像において設定された分割領域の間の距離値を求め、求めた距離値に基づいて、前記客体抽出対象映像内において設定された分割領域の各々が互いに隣接しているか否かを示す行列式である前記客体抽出対象映像用の空間隣接性行列と、
前記質疑映像において設定された分割領域の間の距離値を求め、求めた距離値に基づいて、前記質疑映像において設定された分割領域の各々が互いに隣接しているか否かを示す行列式である前記質疑映像用の空間隣接性行列とをそれぞれ生成する段階と、
(d3)前記客体抽出対象映像用の空間隣接性行列と、前記質疑映像用の空間隣接性行列と、前記式(4)により求めた距離値とに基づいて、前記質疑映像の分割領域と、前記客体抽出対象映像の分割領域との対応関係を求める段階と、
(d4)前記対応関係に基づいて、前記質疑映像の分割領域と前記客体抽出対象映像の分割領域との類似度を求め、前記客体抽出対象映像における客体領域を決定する段階とを含む
ことを特徴とする客体抽出方法。 - 前記(d2)段階に関し、
前記質疑映像において設定された分割領域と、前記客体抽出対象映像の分割領域のうち前記候補客体位置を含む分割領域の各々について、各分割領域を識別するラベル番号が割り当てられており、
前記質疑映像用の空間隣接性行列と前記客体抽出対象映像の空間隣接性行列では、各分割領域が互いに隣接しているか否かが、隣接している場合には第1の値で、隣接していない場合は第2の値で示されている
ことを特徴とする請求項13に記載の客体抽出方法。 - 前記(d3)段階では、
前記質疑映像において設定された分割領域と前記客体抽出対象映像の分割領域のうち前記候補客体位置を含む分割領域との対応関係を示す行列式である比較行列を、前記質疑映像用の空間隣接性行列と前記客体抽出対象映像用の空間隣接性行列とから、前記質疑映像用の空間隣接性行列と前記客体抽出対象映像用の空間隣接性行列に含まれる前記分割領域の数に応じて生成する
ことを特徴とする請求項13に記載の客体抽出方法。 - 前記比較行列は、前記質疑映像において設定された分割領域と、前記客体抽出対象映像の分割領域の中で前記候補客体位置を含む分割領域であって、前記式(4)で求めた距離値が予め決められた閾値よりも小さい値となる分割領域と、の対応関係を示す行列式である
ことを特徴とする請求項15に記載の客体抽出方法。 - 前記(d3)段階では、
前記客体抽出対象映像において設定された分割領域と、前記質疑映像において設定された分割領域の各々との類似性を、前記式(4)で求めた前記距離値に関連付けて表示する行列式である距離行列を生成する
ことを特徴とする請求項13に記載の客体抽出方法。 - 前記距離行列は、前記質疑映像において設定された分割領域に割り当てられたラベル番号を行の要素として、前記客体抽出対象映像において設定された分割領域に割り当てられたラベル番号を列の要素として構成される行列である
ことを特徴とする請求項17に記載の客体抽出方法。 - 前記比較行列では、前記客体抽出対象映像用の空間隣接性行列における隣接性と、前記質疑映像用の空間隣接性行列における隣接性とが一致する場合には、第1の値で、一致しない場合には第2の値で示されており、
前記(d4)段階では、前記比較行列において前記第1の値を有する要素の数を、前記比較行列に含まれる要素の総数から、重複する要素の数を減算した数で除算することにより、前記類似度を求める
ことを特徴とする請求項15に記載の客体抽出装置。 - 請求項10ないし請求項19のうちのいずれか一項に記載の方法をコンピュータで実行させるためのプログラムを記録した、コンピュータで読み出しうる記録媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20010003422 | 2001-01-20 | ||
KR2001-68383 | 2001-11-03 | ||
KR10-2001-0068383A KR100450793B1 (ko) | 2001-01-20 | 2001-11-03 | 영역 분할된 영상의 영역 특징치 정합에 기초한객체추출장치 및 그 방법 |
KR2001-3422 | 2001-11-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002288658A JP2002288658A (ja) | 2002-10-04 |
JP3740065B2 true JP3740065B2 (ja) | 2006-01-25 |
Family
ID=26638752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002012131A Expired - Lifetime JP3740065B2 (ja) | 2001-01-20 | 2002-01-21 | 領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US6990233B2 (ja) |
EP (1) | EP1233374B1 (ja) |
JP (1) | JP3740065B2 (ja) |
KR (1) | KR100450793B1 (ja) |
CN (1) | CN1223969C (ja) |
DE (1) | DE60235591D1 (ja) |
Families Citing this family (95)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4063486B2 (ja) * | 2000-09-06 | 2008-03-19 | 日本電気株式会社 | 画像検索装置及び方法並びに画像検索プログラムを記録した記憶媒体 |
JP2003091727A (ja) * | 2001-09-17 | 2003-03-28 | Canon Inc | 画像処理装置及びその方法、プログラム |
US6977659B2 (en) | 2001-10-11 | 2005-12-20 | At & T Corp. | Texture replacement in video sequences and images |
US7606435B1 (en) * | 2002-02-21 | 2009-10-20 | At&T Intellectual Property Ii, L.P. | System and method for encoding and decoding using texture replacement |
US7167574B2 (en) * | 2002-03-14 | 2007-01-23 | Seiko Epson Corporation | Method and apparatus for content-based image copy detection |
JP4245872B2 (ja) * | 2002-08-28 | 2009-04-02 | 富士フイルム株式会社 | 類似度判定方法および装置並びにプログラム |
KR100522171B1 (ko) * | 2002-12-02 | 2005-10-18 | 한국전자통신연구원 | 임의 형상 프레임 생성기 및 그를 이용한 임의 형상프레임 생성 방법 |
JP4521747B2 (ja) * | 2002-12-13 | 2010-08-11 | シャープ株式会社 | 物体情報処理装置、画像処理システム、ゲーム装置および画像処理方法 |
WO2004090752A1 (en) * | 2003-04-14 | 2004-10-21 | Koninklijke Philips Electronics N.V. | Method and apparatus for summarizing a music video using content analysis |
JP2004326491A (ja) * | 2003-04-25 | 2004-11-18 | Canon Inc | 画像処理方法 |
US7532804B2 (en) * | 2003-06-23 | 2009-05-12 | Seiko Epson Corporation | Method and apparatus for video copy detection |
US7831087B2 (en) * | 2003-10-31 | 2010-11-09 | Hewlett-Packard Development Company, L.P. | Method for visual-based recognition of an object |
KR100562937B1 (ko) | 2004-08-11 | 2006-03-22 | 엘지전자 주식회사 | 표시 장치의 화상 처리 방법 및 화상 처리 장치 |
JP4613617B2 (ja) * | 2005-01-07 | 2011-01-19 | ソニー株式会社 | 画像処理システム、学習装置および方法、並びにプログラム |
US7486827B2 (en) * | 2005-01-21 | 2009-02-03 | Seiko Epson Corporation | Efficient and robust algorithm for video sequence matching |
JP4720529B2 (ja) * | 2005-03-10 | 2011-07-13 | 富士ゼロックス株式会社 | 画像処理装置、画像形成装置、画像処理方法及びプログラム |
KR100708130B1 (ko) * | 2005-05-04 | 2007-04-17 | 삼성전자주식회사 | 동영상 추출장치 및 방법 |
JP4613726B2 (ja) * | 2005-07-19 | 2011-01-19 | トヨタ自動車株式会社 | 画像処理装置及びその方法 |
US7680314B2 (en) * | 2005-10-17 | 2010-03-16 | Siemens Medical Solutions Usa, Inc. | Devices, systems, and methods for improving image consistency |
US7539349B2 (en) * | 2005-10-25 | 2009-05-26 | Hewlett-Packard Development Company, L.P. | Clear image using pixel voting |
KR100682953B1 (ko) * | 2005-12-14 | 2007-02-15 | 삼성전자주식회사 | 인물 검출장치 및 방법 |
EP1969992B1 (en) | 2005-12-28 | 2012-05-02 | Olympus Medical Systems Corp. | Image processing device and image processing method in the image processing device |
US7684594B2 (en) * | 2006-02-08 | 2010-03-23 | Fujifilm Corporation | Method and apparatus for estimating object part location in digital image data using feature value analysis |
US7957555B2 (en) * | 2006-02-08 | 2011-06-07 | Fujifilm Corporation | Method and apparatus for localizing an object part in digital image data by updating an initial position estimate based on a displacement of the object part |
KR100809347B1 (ko) * | 2006-07-31 | 2008-03-05 | 삼성전자주식회사 | 쉐도우 영역 보상 방법 및 장치 |
KR100834765B1 (ko) | 2006-12-07 | 2008-06-05 | 삼성전자주식회사 | 선호색을 재현하는 장치 및 방법 |
KR100843095B1 (ko) | 2006-12-13 | 2008-07-03 | 삼성전자주식회사 | 선호색 재현 장치 및 방법 |
US7957596B2 (en) * | 2007-05-02 | 2011-06-07 | Microsoft Corporation | Flexible matching with combinational similarity |
JP5115556B2 (ja) | 2007-07-05 | 2013-01-09 | 日本電気株式会社 | 物体領域検出装置、物体領域検出システム、物体領域検出方法及びプログラム |
US8270711B2 (en) * | 2007-08-10 | 2012-09-18 | Asian Institute Of Technology | Method and apparatus for recognition of an object by a machine |
CN101398896B (zh) * | 2007-09-28 | 2012-10-17 | 三星电子株式会社 | 用于成像设备的提取有强识别力的颜色特征的设备和方法 |
JP5041229B2 (ja) * | 2007-12-07 | 2012-10-03 | ソニー株式会社 | 学習装置および方法、認識装置および方法、並びにプログラム |
KR101420681B1 (ko) * | 2008-02-01 | 2014-07-17 | 한국과학기술원 | 비디오 영상의 깊이 지도 생성 방법 및 장치 |
US8442278B2 (en) * | 2008-02-28 | 2013-05-14 | Honeywell International Inc. | Covariance based face association |
US8379989B2 (en) * | 2008-04-01 | 2013-02-19 | Toyota Jidosha Kabushiki Kaisha | Image search apparatus and image processing apparatus |
JP4547639B2 (ja) * | 2008-08-26 | 2010-09-22 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
KR100942655B1 (ko) | 2008-10-01 | 2010-02-17 | 성균관대학교산학협력단 | 실시간 영상 처리 장치 및 그 방법 |
KR101471204B1 (ko) * | 2008-12-19 | 2014-12-10 | 주식회사 케이티 | 이미지에서의 의류 검출 장치와 그 방법 |
AU2008261195B2 (en) * | 2008-12-23 | 2010-09-09 | Canon Kabushiki Kaisha | Video object fragmentation detection and management |
US8498480B2 (en) * | 2009-02-25 | 2013-07-30 | The United States Of America, As Represented By The Secretary Of The Navy | Computationally efficient method for image segmentation with intensity and texture discrimination |
US8270724B2 (en) * | 2009-03-13 | 2012-09-18 | Nec Corporation | Image signature matching device |
US20110142335A1 (en) * | 2009-12-11 | 2011-06-16 | Bernard Ghanem | Image Comparison System and Method |
CN101840507B (zh) * | 2010-04-09 | 2012-07-18 | 江苏东大金智建筑智能化系统工程有限公司 | 基于角点特征不变量和图论聚类的目标跟踪方法 |
US8705866B2 (en) | 2010-12-07 | 2014-04-22 | Sony Corporation | Region description and modeling for image subscene recognition |
US8503792B2 (en) | 2010-12-17 | 2013-08-06 | Sony Corporation | Patch description and modeling for image subscene recognition |
TWI469086B (zh) * | 2011-04-26 | 2015-01-11 | Univ Nat Cheng Kung | 利用紋理特徵之影像分割法 |
CN103688287B (zh) * | 2011-07-12 | 2017-03-01 | 杜比实验室特许公司 | 使源图像内容适应于目标显示器的方法 |
US8874557B2 (en) | 2011-09-02 | 2014-10-28 | Adobe Systems Incorporated | Object retrieval and localization using a spatially-constrained similarity model |
US8781255B2 (en) | 2011-09-17 | 2014-07-15 | Adobe Systems Incorporated | Methods and apparatus for visual search |
CN102509118B (zh) * | 2011-09-28 | 2014-07-23 | 安科智慧城市技术(中国)有限公司 | 一种监控视频检索方法 |
CN103295186B (zh) * | 2012-02-24 | 2016-03-09 | 佳能株式会社 | 图像描述符生成方法和系统、图像检测方法和系统 |
US9275300B2 (en) | 2012-02-24 | 2016-03-01 | Canon Kabushiki Kaisha | Method and apparatus for generating image description vector, image detection method and apparatus |
KR101376908B1 (ko) * | 2012-05-09 | 2014-04-01 | 영남대학교 산학협력단 | 가시광 통신 신호에 기초한 영상 내 객체 검출 |
CN102800091B (zh) * | 2012-07-10 | 2014-09-03 | 深圳市捷顺科技实业股份有限公司 | 一种运动目标分割方法、装置和系统 |
JP2014027442A (ja) * | 2012-07-26 | 2014-02-06 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
KR101364052B1 (ko) * | 2012-08-22 | 2014-02-19 | (주)인스페이스 | 위성 영상 객체 검출 시스템 |
US8838657B1 (en) * | 2012-09-07 | 2014-09-16 | Amazon Technologies, Inc. | Document fingerprints using block encoding of text |
US8880563B2 (en) | 2012-09-21 | 2014-11-04 | Adobe Systems Incorporated | Image search by query object segmentation |
US11620733B2 (en) | 2013-03-13 | 2023-04-04 | Kofax, Inc. | Content-based object detection, 3D reconstruction, and data extraction from digital images |
US10783615B2 (en) | 2013-03-13 | 2020-09-22 | Kofax, Inc. | Content-based object detection, 3D reconstruction, and data extraction from digital images |
KR101517805B1 (ko) | 2013-04-24 | 2015-05-06 | 전자부품연구원 | 영상 특성 기반 분할 기법을 이용한 물체 검출 방법 및 이를 적용한 영상 처리 장치 |
US9886767B2 (en) * | 2013-05-03 | 2018-02-06 | Nokia Technologies Oy | Method, apparatus and computer program product for segmentation of objects in images |
CN105190689A (zh) * | 2013-06-14 | 2015-12-23 | 英特尔公司 | 包括基于毗连特征的对象检测和/或双边对称对象分段的图像处理 |
KR102085522B1 (ko) | 2013-11-14 | 2020-03-06 | 삼성전자 주식회사 | 패턴의 결함 탐지 방법 |
KR102113813B1 (ko) * | 2013-11-19 | 2020-05-22 | 한국전자통신연구원 | 정합 쌍을 이용한 신발 영상 검색 장치 및 방법 |
CN105303363B (zh) * | 2015-09-28 | 2019-01-22 | 四川长虹电器股份有限公司 | 一种数据处理方法及数据处理系统 |
EP3433816A1 (en) * | 2016-03-22 | 2019-01-30 | URU, Inc. | Apparatus, systems, and methods for integrating digital media content into other digital media content |
US20170323149A1 (en) * | 2016-05-05 | 2017-11-09 | International Business Machines Corporation | Rotation invariant object detection |
EP3467769A4 (en) * | 2016-05-27 | 2019-11-13 | Rakuten, Inc. | PICTURE PROCESSING DEVICE, PICTURE PROCESSING METHOD AND PICTURE PROCESSING PROGRAM |
US10083353B2 (en) | 2016-10-28 | 2018-09-25 | Intuit Inc. | Identifying document forms using digital fingerprints |
US10803363B2 (en) * | 2017-06-06 | 2020-10-13 | Data-Core Systems, Inc. | Media intelligence automation system |
US20190026588A1 (en) * | 2017-07-19 | 2019-01-24 | GM Global Technology Operations LLC | Classification methods and systems |
CN107657256A (zh) * | 2017-10-27 | 2018-02-02 | 中山大学 | 基于深度神经网络的端到端的图像多字符定位和匹配方法 |
US10803350B2 (en) | 2017-11-30 | 2020-10-13 | Kofax, Inc. | Object detection and image cropping using a multi-detector approach |
CN107967349B (zh) * | 2017-12-13 | 2020-06-16 | 湖南省国土资源规划院 | 一种矿体储量块段匹配方法 |
KR101957610B1 (ko) | 2017-12-18 | 2019-03-12 | 숭실대학교산학협력단 | 히스토그램을 이용한 영상 처리 방법 및 이를 수행하기 위한 기록매체 |
KR102051032B1 (ko) * | 2018-08-01 | 2019-12-02 | 경북대학교 산학협력단 | 객체 탐지 장치 및 제어 방법 |
US10839252B2 (en) | 2018-09-12 | 2020-11-17 | Honeywell International Inc. | System and method for color invariant feature matching |
CN109409224B (zh) * | 2018-09-21 | 2023-09-05 | 河海大学 | 一种自然场景火焰检测的方法 |
US11836958B2 (en) * | 2018-09-25 | 2023-12-05 | Servicenow Canada Inc. | Automatically detecting and isolating objects in images |
CN109960742B (zh) * | 2019-02-18 | 2021-11-05 | 苏州科达科技股份有限公司 | 局部信息的搜索方法及装置 |
CN110097093B (zh) * | 2019-04-15 | 2022-08-19 | 河海大学 | 一种异源图像精确匹配方法 |
CN110222699B (zh) * | 2019-05-24 | 2023-07-18 | 东南大学 | 一种基于区域自适应surf的无序图像快速匹配方法 |
CN110363165B (zh) * | 2019-07-18 | 2023-04-14 | 深圳大学 | 基于tsk模糊系统的多目标跟踪方法、装置及存储介质 |
CN110909183B (zh) * | 2019-10-29 | 2023-01-17 | 联想(北京)有限公司 | 一种多媒体数据处理方法、装置和存储介质 |
CN110991465B (zh) * | 2019-11-15 | 2023-05-23 | 泰康保险集团股份有限公司 | 一种物体识别方法、装置、计算设备及存储介质 |
US11501525B2 (en) * | 2019-11-26 | 2022-11-15 | Toyota Research Institute, Inc. | Systems and methods for panoptic image segmentation |
CN112862829B (zh) * | 2019-11-27 | 2024-03-12 | 武汉Tcl集团工业研究院有限公司 | 标签图片的分割方法、装置及存储介质 |
KR102202577B1 (ko) * | 2019-12-09 | 2021-01-14 | 네오컨버전스 주식회사 | 딥러닝 기반 개인정보 비식별화 방법 및 장치 |
US11521028B2 (en) * | 2020-04-10 | 2022-12-06 | Toyota Research Institute, Inc. | Meta-learning neural architecture search via graph networks on search space lattices |
CN111915605A (zh) * | 2020-08-20 | 2020-11-10 | 杭州东方通信软件技术有限公司 | 一种分光器的端口占用信息获取方法 |
CN113378677B (zh) * | 2021-06-01 | 2024-03-12 | 大连海事大学 | 基于空间相似性与修正盐田指数的海岸养殖池提取方法 |
CN114554294A (zh) * | 2022-03-04 | 2022-05-27 | 天比高零售管理(深圳)有限公司 | 一种直播内容的过滤和提示方法 |
KR102447747B1 (ko) * | 2022-03-10 | 2022-09-27 | 주식회사 아이코드랩 | 이미지 처리 장치 및 방법 |
CN115100441B (zh) * | 2022-08-23 | 2022-11-18 | 浙江大华技术股份有限公司 | 目标检测方法、电子设备和存储介质 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5109435A (en) | 1988-08-08 | 1992-04-28 | Hughes Aircraft Company | Segmentation method for use against moving objects |
US5016173A (en) * | 1989-04-13 | 1991-05-14 | Vanguard Imaging Ltd. | Apparatus and method for monitoring visually accessible surfaces of the body |
JP2649737B2 (ja) | 1990-07-05 | 1997-09-03 | 国際電信電話株式会社 | 光増幅器の励起光源駆動方式 |
JPH05159064A (ja) * | 1991-12-09 | 1993-06-25 | Nippon Telegr & Teleph Corp <Ntt> | 画像探索装置 |
US5500904A (en) | 1992-04-22 | 1996-03-19 | Texas Instruments Incorporated | System and method for indicating a change between images |
JP3123587B2 (ja) * | 1994-03-09 | 2001-01-15 | 日本電信電話株式会社 | 背景差分による動物体領域抽出方法 |
JP3557659B2 (ja) * | 1994-08-22 | 2004-08-25 | コニカミノルタホールディングス株式会社 | 顔抽出方法 |
JP3569992B2 (ja) | 1995-02-17 | 2004-09-29 | 株式会社日立製作所 | 移動体検出・抽出装置、移動体検出・抽出方法及び移動体監視システム |
US5943442A (en) | 1996-06-12 | 1999-08-24 | Nippon Telegraph And Telephone Corporation | Method of image processing using parametric template matching |
JPH1079028A (ja) * | 1996-09-05 | 1998-03-24 | Sanyo Electric Co Ltd | 画像処理方法 |
JPH10301948A (ja) * | 1997-04-25 | 1998-11-13 | Nippon Telegr & Teleph Corp <Ntt> | 画像および映像検索方法 |
JP3199009B2 (ja) * | 1997-12-26 | 2001-08-13 | 日本電気株式会社 | 画像蓄積・管理装置及び画像インデックス生成方法 |
US6335985B1 (en) * | 1998-01-07 | 2002-01-01 | Kabushiki Kaisha Toshiba | Object extraction apparatus |
JP3612227B2 (ja) * | 1998-01-07 | 2005-01-19 | 株式会社東芝 | 物体抽出装置 |
KR100322911B1 (ko) * | 1999-02-09 | 2002-02-08 | 구자홍 | 다중 레벨 칼라 범위를 이용한 오브젝트 영역 추출 방법 |
CN100428278C (zh) * | 1999-02-05 | 2008-10-22 | 三星电子株式会社 | 彩色图像处理方法和装置 |
KR20040028945A (ko) * | 1999-05-17 | 2004-04-03 | 삼성전자주식회사 | 컬러 영상 처리 방법 및 그 방법을 실현시키기 위한프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체 |
-
2001
- 2001-11-03 KR KR10-2001-0068383A patent/KR100450793B1/ko active IP Right Grant
-
2002
- 2002-01-17 EP EP02250315A patent/EP1233374B1/en not_active Expired - Lifetime
- 2002-01-17 DE DE60235591T patent/DE60235591D1/de not_active Expired - Lifetime
- 2002-01-18 CN CNB021218382A patent/CN1223969C/zh not_active Expired - Lifetime
- 2002-01-18 US US10/050,547 patent/US6990233B2/en not_active Expired - Lifetime
- 2002-01-21 JP JP2002012131A patent/JP3740065B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
KR100450793B1 (ko) | 2004-10-01 |
DE60235591D1 (de) | 2010-04-22 |
CN1384464A (zh) | 2002-12-11 |
EP1233374A2 (en) | 2002-08-21 |
US20020136449A1 (en) | 2002-09-26 |
CN1223969C (zh) | 2005-10-19 |
US6990233B2 (en) | 2006-01-24 |
EP1233374A3 (en) | 2003-09-17 |
EP1233374B1 (en) | 2010-03-10 |
JP2002288658A (ja) | 2002-10-04 |
KR20020062557A (ko) | 2002-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3740065B2 (ja) | 領域分割された映像の領域特徴値整合に基づいた客体抽出装置およびその方法 | |
Kim | Park | |
CN100514367C (zh) | 基于彩色分割的立体3d重构系统和方法 | |
EP1217580B1 (en) | Method and apparatus for measuring color-texture distance and image segmentation based on said measure | |
JP4486780B2 (ja) | 画像情報検索のための非線形量子化及び類似度マッチング方法 | |
CN107967482A (zh) | 图标识别方法及装置 | |
CN112766291B (zh) | 一种场景图像中特定目标对象的匹配方法 | |
EP1700269A2 (en) | Detection of sky in digital color images | |
JP2003016448A (ja) | 前景/背景セグメント化を用いた画像のイベント・クラスタリング | |
CN104657980A (zh) | 一种改进的基于Meanshift的多通道图像分割算法 | |
EP3073443A1 (en) | 3D Saliency map | |
CN111274964B (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN114359323A (zh) | 一种基于视觉注意机制的图像目标区域检测方法 | |
KR101833943B1 (ko) | 동영상의 주요 장면을 추출 및 탐색하는 방법 및 시스템 | |
KR20120094353A (ko) | 시각적 형상 디스크립터 생성 방법 및 그 기록매체 | |
CN116912184B (zh) | 一种基于篡改区域分离和区域约束损失的弱监督深度修复图像篡改定位方法及系统 | |
CN113128433A (zh) | 颜色迁移匹配特征的视频监控影像增强方法 | |
CN110766708B (zh) | 基于轮廓相似度的图像比较方法 | |
Wang | Image matting with transductive inference | |
CN115294162B (zh) | 目标识别方法、装置、设备及存储介质 | |
JP2004530992A (ja) | ビデオ情報における自動的な自然コンテンツ検出 | |
Lefèvre et al. | Multiresolution color image segmentation applied to background extraction in outdoor images | |
CN107085725B (zh) | 一种通过基于自适应码本的llc聚类图像区域的方法 | |
JP6151908B2 (ja) | 学習装置、識別装置、およびそのプログラム | |
CN115086713B (zh) | 一种基于视觉特征与音频特征的重复短视频清洗方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040630 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20040927 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20040930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050613 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050706 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20051012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20051104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3740065 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091111 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091111 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101111 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111111 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111111 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121111 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131111 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |