JP4883226B2 - 映像記述子生成装置 - Google Patents

映像記述子生成装置 Download PDF

Info

Publication number
JP4883226B2
JP4883226B2 JP2010547432A JP2010547432A JP4883226B2 JP 4883226 B2 JP4883226 B2 JP 4883226B2 JP 2010547432 A JP2010547432 A JP 2010547432A JP 2010547432 A JP2010547432 A JP 2010547432A JP 4883226 B2 JP4883226 B2 JP 4883226B2
Authority
JP
Japan
Prior art keywords
feature
video
feature quantity
feature amount
code string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010547432A
Other languages
English (en)
Other versions
JPWO2010084737A1 (ja
Inventor
亮磨 大網
浩太 岩元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010547432A priority Critical patent/JP4883226B2/ja
Application granted granted Critical
Publication of JP4883226B2 publication Critical patent/JP4883226B2/ja
Publication of JPWO2010084737A1 publication Critical patent/JPWO2010084737A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5838Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/5854Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7328Query by example, e.g. a complete video frame or video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/421Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor

Description

本発明は数多くの動画像の中から、類似あるいは同一の動画像区間を検出する映像検索用の映像記述子生成装置、方法、およびプログラムに関する。
映像記述子生成装置の一例が、特許文献1に記載されている。図27は、特許文献1に記された映像記述子生成装置をあらわすブロック図である。
フレーム毎特徴量抽出手段10は、入力される映像からフレーム単位特徴量を算出し、特徴量テーブル作成手段20へ出力する。特徴量テーブル作成手段20は、フレーム毎特徴量抽出手段10から出力されるフレーム単位特徴量から特徴量テーブルを作成し、映像記述子として出力する。
次に、図27に示す装置の動作について説明する。
フレーム毎特徴量抽出手段10では、入力される映像から、フレーム毎に色などの特徴量を抽出する処理を行う。得られた特徴量はフレーム単位特徴量として特徴量テーブル作成手段20へ出力される。
特徴量テーブル作成手段20では、フレーム間の特徴量の変動を閾値処理して、特徴量の時間方向の圧縮を行う。具体的には、フレーム単位特徴量のフレーム間の差分を算出し、それが一定の許容変動範囲内に収まっているかどうかを判定する。そして、映像を許容変動範囲内に収まっている時間区間ごとに分割する。分割した各時間区間に対して、特徴量と時間区間長(フレーム数)の組を映像記述子として出力する。
このようにすることで、フレーム単位で求めた映像の特徴量を時間方向に圧縮することができ、特徴量サイズの削減が可能になる。また、高速なマッチングを可能とする。
特開平10−320400号公報
しかしながら、上記の方式では、次に述べるような問題点がある。
第一の問題点は、映像の周りに黒帯領域やL字領域が追加された場合に検索精度が低下することである。その理由は、黒帯領域やL字領域が追加したことを検知して特徴量抽出を行う手段を有さないためである。このため、4:3と16:9のアスペクト変換によって画面の上下や左右に黒い領域(以後黒帯領域と呼ぶ)が挿入されたときや、緊急速報時などにL字領域が追加されたときにも、そのことに関知せず、そのまま特徴量を抽出する。この結果、余分な黒帯領域やL字領域までをも含んで特徴量を抽出するため、それらがない場合と特徴量の値が異なり、検索精度が低下する。
[発明の目的]
本発明の目的は、黒帯領域やL字領域が映像に付加された場合であっても、検索精度を維持できる映像記述子生成装置、方法、およびプログラムを提供することにある。
本発明の一形態にかかる映像記述子生成装置は、映像のフレームまたはフィールドであるピクチャ毎に第1の特徴量を抽出する、第1の抽出手段と、上記映像に含まれる画像の境界で定まる領域内から第2の特徴量を抽出する、第2の抽出手段と、上記第1の特徴量と上記第2の特徴量とを合わせて映像記述子を生成する特徴量統合手段とを有する。
本発明は上述のように構成されているため、黒帯領域やL字領域が映像に付加された場合であっても、検索精度を維持できる効果がある。
本発明の映像記述子生成装置の第1の実施の形態の構成を示すブロック図である。 本発明の映像記述子生成装置の第2の実施の形態の構成を示すブロック図である。 図1の特徴量統合手段140の一実施の形態の構成を示すブロック図である。 図1の特徴量統合手段140の一実施の形態の構成を示すブロック図である。 図2の特徴量統合手段240の一実施の形態の構成を示すブロック図である。 図1の特徴量統合手段140の一実施の形態の構成を示すブロック図である。 図2の特徴量統合手段240の一実施の形態の構成を示すブロック図である。 図2の特徴量統合手段240の一実施の形態の構成を示すブロック図である。 図2の特徴量統合手段240の一実施の形態の構成を示すブロック図である。 図2の特徴量統合手段240の一実施の形態の構成を示すブロック図である。 図2の特徴量統合手段240の一実施の形態の構成を示すブロック図である。 図2の特徴量統合手段240の一実施の形態の構成を示すブロック図である。 本発明の動画像照合装置の実施の形態の構成を示すブロック図である。 図13の特徴量復元手段1000の一実施の形態の構成を示すブロック図である。 図13の特徴量復元手段1000の一実施の形態の構成を示すブロック図である。 図13の特徴量復元手段1000の一実施の形態の構成を示すブロック図である。 図13の特徴量復元手段1000の一実施の形態の構成を示すブロック図である。 図13の特徴量復元手段1000の一実施の形態の構成を示すブロック図である。 図13の特徴量復元手段1000の一実施の形態の構成を示すブロック図である。 図13の特徴量復元手段1000の一実施の形態の構成を示すブロック図である。 図13の特徴量復元手段1000の一実施の形態の構成を示すブロック図である。 図13の特徴量復元手段1000の一実施の形態の構成を示すブロック図である。 図13の特徴量復元手段1000の一実施の形態の構成を示すブロック図である。 黒帯領域、L字領域の例を示す図である。 特徴量符号列の多重化の例を示す図である。 特徴量の例を説明する図である。 本発明に関連する映像記述子生成装置の構成を示すブロック図である。
次に、発明を実施するための形態について図面を参照して詳細に説明する。
図1を参照すると、本発明の第1の実施の形態の映像記述子生成装置が示されており、映像境界検知手段100と、視覚特徴量抽出手段120と、位置補正視覚特徴量抽出手段130と、特徴量統合手段140とからなる。
映像境界検知手段100は、映像から映像境界を算出し、境界情報を位置補正視覚特徴量抽出手段130へ出力する。視覚特徴量抽出手段120は、映像を入力とし、映像から第1の特徴量を求め、特徴量統合手段140へ出力する。位置補正視覚特徴量抽出手段130は、映像境界検知手段100から出力される境界情報と映像とから第2の特徴量を求め、特徴量統合手段140へ出力する。特徴量統合手段140は、第1の特徴量と第2の特徴量とから映像記述子を算出し、出力する。
次に、図1に示す第1の実施の形態の動作について詳細に説明する。
まず、映像は視覚特徴量抽出手段120へ入力される。元の映像が符号化されている場合には、復号器によって復号されてから、フレームあるいはフィールドからなるピクチャ単位でデータが入力されるものとする。
視覚特徴量抽出手段120では、ピクチャ毎の特徴量ベクトルを算出する。ピクチャを1枚の静止画とみなし、この色や模様、形などの特徴を示す視覚特徴量のベクトルを抽出する。算出された特徴量ベクトルは、第1の特徴量として特徴量統合手段140へ出力される。
一方、映像は、映像境界検知手段100へも入力される。映像境界検知手段100では、本来映像ではない、黒帯領域やL字領域が存在するかどうかを検知し、存在する場合には、その境界領域を求める。
ここで、黒帯領域とは、4:3と16:9のアスペクト変換によって画面の上下や左右に挿入される黒い余白領域を指す。典型的には黒い色であるが、必ずしも黒である必要はない。一方L字(あるいは逆L字)領域は、緊急ニュース等を報道する際に用いられる映像表示技法であり、実際の映像を少し縮小してスペースを生成し、そこに速報ニュース等を流す方法である。この場合、色は黒でない場合が多い。いずれにしても、本来の映像ではない領域が表示されているという点では共通している。これらの領域の例を図24に示す。図24において黒い領域が黒帯領域あるいはL字領域に相当する。それ以外にも、ある映像に別の映像をはめ込むPicture in
Pictureという映像提示技法や、アナウンサーの後ろのスクリーンに映されている映像をカメラで撮影している場合なども、メインの映像の周りに枠が現れるため、この範疇に含めることができる。すなわち、Picture in Pictureで内側に表示された領域の外側や、スクリーンの枠の外側を黒帯領域と同様に扱うことで、本発明の方式を適用できる。
映像境界検知手段100ではピクチャ内に含まれる、このような本来の映像にはなかった領域とその境界を求める。例えば、ピクチャにハフ変換を行って映像の直線成分を検出し、時間的に継続してピクチャ内の同じ位置に現れる直線成分を求めることによって、この境界を算出することができる。求まった映像境界を記述する情報を境界情報として位置補正視覚特徴量抽出手段130へ出力する。境界情報としては、例えば、実際の画面の縁から黒帯領域やL字領域によって生じる境界までの距離を用いることができる。この際、上下にのみ帯状の領域が入る場合には、左右の境界までの距離値は0に設定すればよい。あるいは、若干傾いた境界も許容する場合には、その角度も一緒に記述するようにしておいてもよい。あるいは、L字、横方向黒帯、縦方向黒帯など、黒帯またはL字の種別を表す記号と、各パターンの帯状領域を記述するのに必要なパラメータを境界情報としてもよい。例えば、L字の入る幅が予め数種類に決まっているのであれば、L字パターンを表す記号と、幅を指定するインデックスを境界情報とすればよい。
位置補正視覚特徴量抽出手段130へは、境界情報とともに映像もピクチャ単位で入力される。位置補正視覚特徴量抽出手段130では、境界情報によって定められる位置より外側の領域は無視して特徴量を算出する。すなわち、境界情報によって定められる位置より内側の領域が画像全体であると見做し、特徴量を抽出する。抽出する特徴量は、視覚特徴量抽出手段120で抽出される特徴量と同じである。例えば、視覚特徴量抽出手段120が色のレイアウト特徴量を抽出するのであれば、位置補正視覚特徴量抽出手段130も色のレイアウト特徴量を抽出する。抽出された特徴量は第2の特徴量として特徴量統合手段140へ出力される。
特徴量統合手段140では、視覚特徴量抽出手段120から出力される第1の特徴量と、位置補正視覚特徴量抽出手段130から出力される第2の特徴量とをあわせて映像記述子を生成し、出力する。ここでは、単純に両特徴量をつなぎ合わせて1つの特徴量とするだけでもよいし、特定の符号化を行ってもよい。あるいは、第1の特徴量と第2の特徴量間の相関が高いことを利用し、差分を符号化するようにしてもよい。この動作については、以下で詳述する。
次に、特徴量統合手段140の実施の形態について図3を参照して述べる。
図3を参照すると、特徴量統合手段140の実施の形態が示されており、符号化手段310、符号化手段320、符号列多重化手段230とからなる。
符号化手段320は、入力される第1の特徴量を符号化し、得られる第1の特徴量符号列を符号列多重化手段230へ出力する。符号化手段310は、入力される第2の特徴量を符号化し、得られる第2の特徴量符号列を符号列多重化手段230へ出力する。符号列多重化手段230は、第1の特徴量符号列と第2の特徴量符号列とを合わせて映像記述子を生成し、出力する。
次に、図3に示す特徴量統合手段140の動作について説明する。
まず、第1の特徴量は、符号化手段320へ入力される。符号化手段320では、特徴量を符号化し、第1の特徴量符号列を生成する。ここで、符号化とは、所定のフォーマットに情報を格納することを意味しており、単に特徴量ベクトルの値を次元ごとに並べるだけでもよい。例えば、入力ベクトルがN次元の整数ベクトルであれば、各次元の整数値をN個並べただけのフォーマットでもよい。あるいは、入力ベクトルが浮動小数の値の場合には、量子化を行って有限個数の代表値で表現するようにし、その代表値を表すインデックス(量子化インデックス)を並べてもよい。さらに、得られた整数値や代表値に対して、各値の出現頻度を考慮したエントロピー符号化を行っても良い。エントロピー符号化としては、ハフマン符号化や算術符号化を用いることができる。あるいは、特徴量ベクトルの次元間に相関がある場合には、その相関を除去する処理を行った後でエントロピー符号化等の処理を行っても良い。例えば、相関がある次元間で値の差分を求め、差分符号化を行っても良い。あるいは、入力される特徴量ベクトルに対して周波数変換などの変換を行ってから量子化、エントロピー符号化を行って符号列を生成してもよい。さらに、特徴量ベクトルとして、ピクチャ間で相関がある場合には、過去のピクチャに対する特徴量ベクトルとの差分を算出し、これを上述の符号化方法で符号化して符号列を生成してもよい。生成された第1の特徴量符号列は符号列多重化手段230へ出力される。
一方、第2の特徴量は、符号化手段310へ入力される。符号化手段310の動作は符号化手段320と同様であり、第2の特徴量を符号化して第2の特徴量符号列を生成する。生成された第2の特徴量符号列は符号列多重化手段230へ出力される。
符号列多重化手段230では、第1の特徴量符号列と第2の特徴量符号列とを多重化し、映像記述子を生成する。図25に示すように、単純に第1の特徴量符号列と第2の特徴量符号列とを分離可能な識別符号を挟んで繋げる(ただし、符号列が固定長であったり、符号列の長さをどこかに記述したりする場合には、識別のための符号は不要)だけでもよいし、ピクチャ単位で交互にインターリーブして映像記述子を構築してもよい。
図3の特徴量統合手段140により、黒帯領域を除いて特徴量抽出を行った場合と、画面全体を用いて特徴量抽出を行った場合の両特徴量を有する映像記述子を生成可能になる。
次に、特徴量統合手段140の別の実施の形態について図4を参照して述べる。
図4を参照すると、特徴量統合手段140の実施の形態が示されており、特徴量減算手段300、符号化手段320、特徴量差分符号化手段340、符号列多重化手段330とからなる。
特徴量減算手段300は、第2の特徴量から第1の特徴量を差し引いて特徴量間の差分を算出し、特徴量差分値を特徴量差分符号化手段340へ出力する。符号化手段320は、第1の特徴量を符号化し、得られる第1の特徴量符号列を符号列多重化手段330へ出力する。特徴量差分符号化手段340は、特徴量減算手段300から出力される特徴量差分値を符号化し、特徴量差分値符号列を符号列多重化手段330へ出力する。符号列多重化手段330は、符号化手段320から出力される第1の特徴量符号列と、特徴量差分符号化手段340から出力される特徴量差分値符号列とから映像記述子を生成し、出力する。
次に、図4に示す特徴量統合手段140の動作について説明する。
まず、第1の特徴量は、符号化手段320へ入力される。符号化手段320の動作は図3のものと同様であり、第1の特徴量符号列が符号列多重化手段330へ出力される。また、第1の特徴量は特徴量減算手段300へも入力される。一方、第2の特徴量も特徴量減算手段300へ入力される。
特徴量減算手段300では、特徴量ベクトルの次元ごとに、第2の特徴量から第1の特徴量が差し引かれ、差分ベクトルが算出される。この差分ベクトルは、特徴量差分値として特徴量差分符号化手段340へ出力される。
特徴量差分符号化手段340では、特徴量差分値を符号化し、特徴量差分値符号列を生成する。第1の特徴量と第2の特徴量とは、黒帯領域またはL字領域の有無の差はあるものの、映像としてはもともと同じものであるため、両者の間には強い相関がある。このため、両特徴量間の差分を算出すると、出現する値の分布は0近傍に集中すると考えられる。よって、この性質を利用して、エントロピー符号化することによって発生する符号量を低減できる。具体的には、特徴量ベクトルの各次元に対して、差分値の頻度分布を予め学習データによって算出しておき、その分布を用いて差分値を算術符号化することが考えられる。あるいは、頻度分布に基づいてハフマン符号化テーブルを構築し、このテーブルに基づいて差分値を符号化してもよい。あるいは、特徴量差分の値がほぼ0に集中するのであれば、0でない値を持つ次元のインデックスと、0以外の値を表す符号の組み合わせとして符号列を構成してもよい。生成された特徴量差分値符号列は符号列多重化手段330へ出力される。
符号列多重化手段330では、第1の特徴量符号列と特徴量差分値符号列とを繋げて映像記述子を生成する。動作は図3の符号列多重化手段230と同様である。
図4の特徴量統合手段140により、差分をとってから符号化することで、特徴量のサイズを抑えることが可能となる。
次に、特徴量統合手段140の別の実施の形態について図6を参照して述べる。
図6を参照すると、特徴量統合手段140の実施の形態が示されており、特徴量減算手段300、符号化手段310、符号化手段320、特徴量差分符号化手段340、符号選択手段520、符号列多重化手段530とからなる。
特徴量減算手段300、符号化手段320の接続関係は図4と同様である。特徴量差分符号化手段340は、特徴量減算手段300から出力される特徴量差分値を符号化し、特徴量差分値符号列を符号選択手段520へ出力する。符号化手段310は、第2の特徴量を符号化し、第2の特徴量符号列を符号選択手段520へ出力する。符号選択手段520は、特徴量差分符号化手段340から出力される特徴量差分値符号列と、符号化手段310から出力される第2の特徴量符号列の一方を選択し、第3の特徴量符号列として符号列多重化手段530へ出力する。符号列多重化手段530は、符号化手段320から出力される第1の特徴量符号列と、符号選択手段520から出力される第3の特徴量符号列とから映像記述子を生成し、出力する。
次に、図6に示す特徴量統合手段140の動作について説明する。
符号化手段310、符号化手段320の動作は図3のものと同様である。また、特徴量減算手段300、特徴量差分符号化手段340の動作は図4のものと同様である。特徴量差分符号化手段340から出力される特徴量差分値符号列と、符号化手段310から出力される第2の特徴量符号列とは、符号選択手段520へ入力される。
符号選択手段520では、特徴量差分値符号列と第2の特徴量符号列とで、符号量をピクチャ、または複数枚のピクチャ単位で比較し、より少ない発生符号量の符号列を選択し、第3の特徴量符号列として符号列多重化手段530へ出力する。この際、どちらのやり方で符号化したかという情報をモード情報として、ピクチャ単位または複数枚のピクチャ単位で符号列多重化手段530へ出力する。符号列多重化手段530では、第1の特徴量符号列と第3の特徴量符号列とをつなげて映像記述子を生成する。動作は図3の符号列多重化手段230とほぼ同様であるが、モード情報も一緒に映像記述子に含めるようにする点が異なる。
図6の特徴量統合手段140では、第2の特徴量をそのまま符号化する手段を有するため、黒帯領域やL字領域の有無によって、特徴量が大きく異なり、特徴量差分値を符号化することが符号化効率の観点から適切でない場合であっても特徴量サイズの増大を防ぐことが可能である。
以上が映像記述子生成装置の第1の実施の形態の説明である。第1の実施の形態により、黒帯やL字領域が含まれる場合であっても検索精度の低下を抑えることが可能な映像記述子が抽出できるようになる。その理由は、黒帯領域やL字領域を検出し、それらを除いた領域で抽出した特徴量の情報を有するためである。このため、黒帯領域やL字領域が存在する動画像の場合には、これらを除いた領域での特徴量を比較することで、検索精度を維持できる。また、これらの領域を除去しない、映像全体に対する特徴量も保持している。このため、黒帯領域やL字領域の検知で誤ったとしても、画像全体の特徴量同士でのマッチングは可能となり、精度は低下しない。
次に本発明の第2の実施の形態について詳細に説明する。
図2を参照すると、本発明の第2の実施の形態の映像記述子生成装置が示されており、映像境界検知手段100と、視覚特徴量抽出手段120と、位置補正視覚特徴量抽出手段130と、特徴量統合手段240とからなる。
構成は、図1の場合とほぼ同様であるが、特徴量統合手段140のかわりに特徴量統合手段240が用いられ、特徴量統合手段240には映像境界検知手段100から出力される境界情報も入力される点が異なる。
次に、図2に示す本発明の第2の実施の形態の動作について説明する。
映像境界検知手段100、視覚特徴量抽出手段120、および位置補正視覚特徴量抽出手段130の動作は、図1の映像記述子生成装置と同様である。そして、視覚特徴量抽出手段120から出力される第1の特徴量と、位置補正視覚特徴量抽出手段130から出力される第2の特徴量は、特徴量統合手段240へ入力される。また、映像境界検知手段100から出力される境界情報も特徴量統合手段240へ入力される。
特徴量統合手段240の動作も、基本的には図1の特徴量統合手段140の動作と同様であるが、境界情報によって、符号化方式を制御して、映像記述子を生成する点、および、境界情報、あるいはその関連情報も一緒に映像記述子に含めるようにする点が異なる。この詳細については以下で述べる。
次に、特徴量統合手段240の実施の形態について図5を参照して述べる。
図5を参照すると、特徴量統合手段240の実施の形態が示されており、特徴量減算手段300、符号化手段320、特徴量差分符号化手段440、符号列多重化手段430とからなる。
特徴量減算手段300、符号化手段320の接続関係は図4のものと同様である。特徴量差分符号化手段440は、特徴量減算手段300から出力される特徴量差分値と境界情報とから、特徴量差分値を符号化し、特徴量差分値符号列を符号列多重化手段430へ出力する。符号列多重化手段430は、符号化手段320から出力される第1の特徴量符号列と、特徴量差分符号化手段440から出力される特徴量差分値符号列と、境界情報とから映像記述子を生成し、出力する。
次に、図5に示す特徴量統合手段240の動作について説明する。
特徴量減算手段300、符号化手段320の動作は、図4のものと同様である。
特徴量差分符号化手段440では、特徴量減算手段300から出力される特徴量差分値を符号化し、特徴量差分値符号列を生成する。この動作は、基本的には、図4で説明した特徴量差分符号化手段340の動作とほぼ同様である。ただし、特徴量差分符号化手段440の場合には、黒帯領域やL字領域の領域を表す境界情報によって符号化パラメータを制御する点が特徴量差分符号化手段340と異なる。すなわち、境界情報によって符号化パラメータを変更する。特徴量ベクトルの各次元における差分値の分布は、黒帯領域やL字領域の大きさ、出現位置等に依存して変化する。このため、境界情報に応じて用いる差分値の分布を選択して分布に応じた算術符号化を行ったり、境界情報に応じて用いるハフマンテーブルを選択してハフマン符号化を行ったりすることにより、エントロピー符号化を行う。生成された特徴量差分値符号列は、符号列多重化手段430へ出力される。
符号列多重化手段430では、符号化手段320から出力される第1の特徴量符号列と、特徴量差分符号化手段440から出力される特徴量差分値符号列と、境界情報とを多重化して映像記述子を生成する。この動作は基本的には、図4の符号列多重化手段330と同様であるが、境界情報も一緒に多重化する点が異なる。なお、境界情報は、情報そのものでなく、それを符号化したもの、あるいは、インデックス化したものであってもよい。例えば、特徴量差分符号化手段440において、ハフマンテーブルや算術符号化で用いる分布などの符号化パラメータがいくつかのクラスに分類されており、その中の一つを選択して用いる場合には、このクラスを識別するインデックスを多重化すればよい。あるいは、このインデックスが特定可能な符号を割り当てて多重化すればよい。
図5の特徴量統合手段240により、特徴量間の差分をとってから符号化する際の符号化パラメータを最適化することができるようになり、特徴量の符号化効率を向上できる。
次に、特徴量統合手段240の別の実施の形態について図7を参照して述べる。
図7を参照すると、特徴量統合手段240の実施の形態が示されており、特徴量減算手段300、符号化手段320、差分符号化インデックス決定手段600、符号化手段610、特徴量差分符号化手段640、符号列多重化手段630からなる。
特徴量減算手段300、符号化手段320の接続関係は図4のものと同様である。差分符号化インデックス決定手段600は、境界情報を入力とし、差分符号化インデックスを特徴量差分符号化手段640と符号化手段610とへ出力する。特徴量差分符号化手段640は、差分符号化インデックス決定手段600から出力される差分符号化インデックスに基づいて特徴量減算手段300から出力される特徴量差分値を差分符号化し、特徴量差分値符号列を符号列多重化手段630へ出力する。符号化手段610は、差分符号化インデックス決定手段600から出力される差分符号化インデックスに基づいて第2の特徴量を符号化し、第2の特徴量符号列を符号列多重化手段630へ出力する。符号列多重化手段630は、符号化手段320から出力される第1の特徴量符号列と、特徴量差分符号化手段640から出力される特徴量差分値符号列と、符号化手段610から出力される第2の特徴量符号列と境界情報とを多重化して、映像記述子を生成し、出力する。
次に、図7に示す特徴量統合手段240の動作について説明する。
特徴量減算手段300、符号化手段320の動作は、図4のものと同様である。
差分符号化インデックス決定手段600では、入力される境界情報に基づいて、特徴量の各次元のうち、差分符号化を行う次元を決定し、その次元を表すインデックスを差分符号化インデックスとして出力する。差分符号化インデックスは、特徴量差分符号化手段640と符号化手段610とへ出力される。
特徴量差分符号化手段640では、入力される差分符号化インデックスに該当する次元に対して特徴量差分値を符号化し、特徴量差分値符号列を生成する。特徴量差分値の符号化方法は、図4の特徴量差分符号化手段340と同様である。生成された特徴量差分値符号列は符号列多重化手段630へ出力される。
符号化手段610では、入力される差分符号化インデックスに該当しない次元に対して第2の特徴量を符号化し、第2の特徴量符号列を生成する。第2の特徴量の符号化方法は、図3の符号化手段310と同様である。生成された第2の特徴量符号列は符号列多重化手段630へ出力される。
符号列多重化手段630では、符号化手段320から出力される第1の特徴量符号列と、特徴量差分符号化手段640から出力される特徴量差分値符号列と、符号化手段610から出力される第2の特徴量符号列と、境界情報とを多重化して映像記述子を生成する。単純にこれらの符号列を繋げるだけでもよいし、ピクチャ単位で交互にインターリーブして映像記述子を構築してもよい。境界情報の多重化については、図5の符号列多重化手段430と同様である。
図7の特徴量統合手段240により、特徴量間の差分を符号化したほうがよい次元とそうでない次元があり、かつ境界情報に依存して変わる場合に、より効率的に特徴量の符号化を行うことができるようになる。
次に、特徴量統合手段240の別の実施の形態について図8を参照して述べる。
図8を参照すると、特徴量統合手段240の実施の形態が示されており、特徴量減算手段300、符号化手段320、差分符号化インデックス決定手段600、符号化手段610、特徴量差分符号化手段640、符号列多重化手段830からなる。
構成は、符号列多重化手段630のかわりに符号列多重化手段830が用いられ、符号列多重化手段830へは、境界情報のかわりに、差分符号化インデックスが入力されている点を除けば、図7の場合と同様である。
次に、図8に示す特徴量統合手段240の動作について説明する。
符号列多重化手段830以外の動作は、図7の場合と同様である。符号列多重化手段830の動作も、境界情報のかわりに差分符号化インデックスを多重化する点を除けば、図7の符号列多重化手段630と同様である。
図8の特徴量統合手段240は、図7と同様の効果を有する別の実施の形態を提供する。
次に、特徴量統合手段240の別の実施の形態について図9を参照して述べる。
図9を参照すると、特徴量統合手段240の実施の形態が示されており、特徴量減算手段300、符号化手段320、差分符号化インデックス決定手段600、符号化手段610、特徴量差分符号化手段660、符号列多重化手段630からなる。
構成は、特徴量差分符号化手段640のかわりに特徴量差分符号化手段660が用いられ、特徴量差分符号化手段660へは、さらに境界情報も入力されている点を除けば、図7の場合と同様である。
次に、図9に示す特徴量統合手段240の動作について説明する。
特徴量差分符号化手段660以外の動作は、図7の場合と同様である。特徴量差分符号化手段660の動作も、境界情報に応じて符号化パラメータを変えて符号化を行う以外は図7の特徴量差分符号化手段640と同様である。境界情報に応じて符号化パラメータを変えて符号化する方法は、図5の特徴量差分符号化手段440の場合と同様である。
図9の特徴量統合手段240により、図7の場合より特徴量差分符号化の効率を上げることが可能となり、より効率的に特徴量の符号化を行うことができるようになる。
次に、特徴量統合手段240の別の実施の形態について図10を参照して述べる。
図10を参照すると、特徴量統合手段240の実施の形態が示されており、特徴量減算手段300、符号化手段320、差分符号化インデックス決定手段600、符号化手段310、特徴量差分符号化手段640、符号選択手段720、符号列多重化手段730からなる。
特徴量減算手段300、符号化手段320、差分符号化インデックス決定手段600の接続関係は図7の場合と同様である。特徴量差分符号化手段640は、差分符号化インデックス決定手段600から出力される差分符号化インデックスに基づいて特徴量減算手段300から出力される特徴量差分値を差分符号化し、特徴量差分値符号列を符号選択手段720へ出力する。符号化手段310は、第2の特徴量を符号化して符号選択手段720へ第2の特徴量符号列を出力する。符号選択手段720は、差分符号化インデックス決定手段600から出力される差分符号化インデックスに基づいて符号列を選択し、選択された符号列を第3の特徴量符号列として符号列多重化手段730へ出力する。符号列多重化手段730は、符号化手段320から出力される第1の特徴量符号列と、符号選択手段720から出力される第3の特徴量符号列と、境界情報とから映像記述子を生成し、出力する。
次に、図10に示す特徴量統合手段240の動作について説明する。
特徴量減算手段300、符号化手段320、差分符号化インデックス決定手段600、および特徴量差分符号化手段640の動作は図7の場合と同様である。また、符号化手段310の動作は、図6の場合と同様である。
符号選択手段720では、特徴量差分符号化手段640から出力される特徴量差分値符号列と、符号化手段310から出力される第2の特徴量符号列のそれぞれに対して、差分符号化インデックス決定手段600から出力される差分符号化インデックスに該当する次元に対する符号量の総和を算出する。差分符号化インデックスに該当する次元については、符号量の総和が小さくなる符号列を選択する。一方、差分符号化インデックスに該当しない次元については、第2の特徴量符号列の符号を選択する。これを、予め定められた周期で判定する。この周期としては、例えばピクチャを用いたり、複数枚のピクチャからなる区間を用いたりすることができる。そして、選択された符号列を、第3の特徴量符号列として、符号列多重化手段730へ出力する。この際、どちらのやり方で符号化したかという情報をモード情報として、ピクチャ単位または複数枚のピクチャ単位で符号列多重化手段730へ出力する。
符号列多重化手段730では、符号化手段320から出力される第1の特徴量符号列と、符号選択手段720から出力される第3の特徴量符号列と、境界情報と、モード情報とを多重化して、映像記述子を生成する。多重化の方法は、図5の符号列多重化手段430の場合とほぼ同様であるが、モード情報も一緒に映像記述子に含めるようにする点が異なる。
図10の特徴量統合手段240により、図7の場合に比べると、特徴量差分符号化で効率的に符号化できない場合には、そのまま特徴量を符号化できるため、より効率的に特徴量の符号化を行うことができるようになる。
次に、特徴量統合手段240の別の実施の形態について図11を参照して述べる。
図11を参照すると、特徴量統合手段240の実施の形態が示されており、特徴量減算手段300、符号化手段320、差分符号化インデックス決定手段600、符号化手段310、特徴量差分符号化手段640、符号選択手段720、符号列多重化手段930からなる。
構成は、符号列多重化手段730のかわりに符号列多重化手段930が用いられ、符号列多重化手段930へは、境界情報のかわりに差分符号化インデックスが入力されていることを除けば、図10の場合と同様である。
次に、図11に示す特徴量統合手段240の動作について説明する。
符号列多重化手段930以外の動作は、図10の場合と同様である。符号列多重化手段930の動作も、境界情報のかわりに差分符号化インデックスを多重化する点を除けば、図10の符号列多重化手段730と同様である。
図11の特徴量統合手段は、図10と同様の効果を有する別の実施の形態を提供する。
次に、特徴量統合手段240の別の実施の形態について図12を参照して述べる。
図12を参照すると、特徴量統合手段240の実施の形態が示されており、特徴量減算手段300、符号化手段320、差分符号化インデックス決定手段600、符号化手段310、特徴量差分符号化手段660、符号選択手段720、符号列多重化手段730からなる。
構成は、特徴量差分符号化手段640のかわりに特徴量差分符号化手段660が用いられ、特徴量差分符号化手段660へは、さらに境界情報も入力されている点を除けば、図10の場合と同様である。
次に、図12に示す特徴量統合手段240の動作について説明する。
特徴量差分符号化手段660以外の動作は、図10の場合と同様である。特徴量差分符号化手段660の動作も、境界情報に応じて符号化パラメータを変えて符号化を行う以外は図10の特徴量差分符号化手段640と同様である。境界情報に応じて符号化パラメータを変えて符号化する方法は、図5の特徴量差分符号化手段440の場合と同様である。
図12の特徴量統合手段240により、図10の場合より特徴量差分符号化の効率を上げることが可能となり、より効率的に特徴量の符号化を行うことができるようになる。
以上が映像記述子生成装置の第2の実施の形態の説明である。第2の実施により、黒帯やL字領域の大きさに応じて特徴量の符号化方法を最適化できるようになり、映像記述子の符号化効率を改善できる。
次に、動画像照合装置の実施の形態について図面を参照して詳細に説明する。
図13を参照すると、本発明の動画像照合装置の実施の形態が示されており、特徴量復元手段1000、1010、特徴量照合手段1020、1030、1040、1050、選択手段1060からなる。
特徴量復元手段1000は第1の映像記述子を入力とし、分離された第1の映像の第1の特徴量を、特徴量照合手段1020、1030へ出力し、第1の映像の第2の特徴量を、特徴量照合手段1040、1050へ出力する。特徴量復元手段1010は第2の映像記述子を入力とし、分離された第2の映像の第1の特徴量を、特徴量照合手段1020、1040へ出力し、第2の映像の第2の特徴量を、特徴量照合手段1030、1050へ出力する。特徴量照合手段1020は、第1の映像の第1の特徴量と第2の映像の第1の特徴量とを入力とし、第1の照合スコアを選択手段1060へ出力する。特徴量照合手段1030は、第1の映像の第1の特徴量と第2の映像の第2の特徴量とを入力とし、第2の照合スコアを選択手段1060へ出力する。特徴量照合手段1040は、第1の映像の第2の特徴量と第2の映像の第1の特徴量とを入力とし、第3の照合スコアを選択手段1060へ出力する。特徴量照合手段1050は、第1の映像の第2の特徴量と第2の映像の第2の特徴量を入力とし、第4の照合スコアを選択手段1060へ出力する。選択手段1060は、第1の照合スコアから第4の照合スコアまでを比較して一つを選択し、照合スコアとして出力する。
次に、図13の動画像照合装置の動作について説明する。
まず、第1の映像記述子は特徴量復元手段1000へ入力される。特徴量復元手段1000では、第1の映像記述子から特徴量を復元し、黒帯領域を除去していない場合の特徴量である第1の映像の第1の特徴量と、黒帯領域を除去した場合の特徴量である第1の映像の第2の特徴量とを抽出し、出力する。一方、第2の映像記述子は特徴量復元手段1010へ入力され、同様にして、黒帯領域を除去していない場合の特徴量である第2の映像の第1の特徴量と、黒帯領域を除去した場合の特徴量である第2の映像の第2の特徴量とが抽出され、出力される。特徴量復元手段1000、1010での特徴量復元の詳細は後述する。
特徴量照合手段1020へは、第1の映像の第1の特徴量と、第2の映像の第1の特徴量が入力される。ここでは、第1の映像と第2の映像の、黒帯を除去しない場合の特徴量同士の照合が行われる。照合では、ピクチャ単位で特徴量の値を比較し、特徴量間の距離、または特徴量間の類似性を表す尺度が算出される。これを連続した複数のピクチャ間で行って統計処理を行うことにより、それらのピクチャで構成される映像区間の距離または類似度(類似度はその値がより大きいほど、より類似しているものとする)が算出される。統計処理としては、例えばピクチャ毎の値の総和や平均を計算したり、最大値を計算したり、メディアン値を計算したりする方法が考えられる。あるいは、ピクチャのスコアの中で外れ値を判定して、それを除いて総和や平均、メディアンなどの統計量を計算するようになっていてもよい。これにより、映像区間同士の照合結果が算出される。以降では、この結果のことを照合スコアと呼ぶことにする。算出された照合スコアは、選択手段1060へ出力される。
特徴量照合手段1030、特徴量照合手段1040、特徴量照合手段1050の動作も基本的には特徴量照合手段1020と同様である。ただし、特徴量照合手段1030では、第1の映像の第1の特徴量と、第2の映像の第2の特徴量とを比較するため、第1の映像の黒帯を除去しない場合と、第2の映像の黒帯を除去した場合との照合スコアが算出される。特徴量照合手段1040では、第1の映像の第2の特徴量と、第2の映像の第1の特徴量とを比較するため、第1の映像の黒帯を除去した場合と、第2の映像の黒帯を除去しない場合との照合スコアが算出される。特徴量照合手段1050では、第1の映像の第2の特徴量と、第2の映像の第2の特徴量とを比較するため、第1と第2の映像の黒帯を除去した場合同士の照合スコアが算出される。これを、ピクチャを時間方向にずらしながら照合スコアを算出していく。なお、このように黒帯除去の有無の全ての組み合わせに対して照合を行うのは、黒帯除去処理で誤って黒帯を検知した場合に照合精度が低下するのを避けるためである。このようにして、特徴量照合手段1030、1040、1050、1060で算出された照合スコアは、選択手段1060へ出力される。
選択手段1060では、入力される照合スコアのうち、もっとも照合の度合いが高いスコアを選択する。すなわち、照合スコアが距離で定義されている場合には、もっとも小さい値を選択し、照合スコアが類似度で定義されている場合には、もっとも大きな値を選択する。
図13の動画像照合装置により、黒帯領域やL字が入った場合であっても、検索精度を落とさずに検索可能となる。
次に、図13の特徴量復元手段1000の実施の形態について図14を参照して述べる。
図14を参照すると、図3の特徴量統合手段140に対応する特徴量復元手段1000の実施の形態が示されており、符号列多重分離手段1100、復号手段1110、復号手段1120からなる。
符号列多重分離手段1100は、映像記述子を入力とし、分離された第1の特徴量符号列を復号手段1110へ出力するとともに、第2の特徴量符号列を復号手段1120へ出力する。復号手段1110は、符号列多重分離手段1100から出力される第1の特徴量符号列を復号し、第1の特徴量を生成し、出力する。復号手段1120は、符号列多重分離手段1100から出力される第2の特徴量符号列を復号し、第2の特徴量を生成し、出力する。
次に、図14の特徴量復元手段1000の動作について説明する。
照合対象となる映像記述子は、まず、符号列多重分離手段1100へ入力される。符号列多重分離手段1100では、多重化に用いた方法に応じた多重分離方法により、映像記述子から第1の特徴量符号列と第2の特徴量符号列とを分離する。例えば、多重化において、単純に第1の特徴量符号列と第2の特徴量符号列とを分離可能な識別符号を挟んで繋げただけの場合であれば、その識別符号を識別し、その前を第1の特徴量符号列、後ろを第2の特徴量符号列として分離する。一方、ピクチャ単位で交互にインターリーブして映像記述子を構築している場合には、ピクチャ単位で分離し、符号列を再構築する。その際、識別符号を挟むことで分離可能にしているのであれば、識別符号を識別して分離するし、個々のピクチャ毎の符号列の長さをヘッダ情報として持っているのであれば、その長さによって区切って分離する。このようにして分離された第1の特徴量符号列、第2の特徴量符号列は、それぞれ、復号手段1110と復号手段1120とへ出力される。
復号手段1110では、第1の特徴量符号列を復号し、第1の特徴量を生成する。復号方法は、符号化時に用いた方式に依存してかわる。例えば、入力ベクトルがN次元の整数ベクトルで、各次元の整数値をN個並べただけのフォーマットで符号列を生成した場合には、単にこのN次元ベクトルを取得するのみでよい。入力ベクトルが量子化を行って代表値(量子化インデックス)を並べただけの場合には、この代表値(あるいは量子化インデックスから求まる代表値)を取得後、逆量子化を行えばよい。あるいは、エントロピー符号化が行われている場合には、それに対応する復号を行ってシンボルを得るようにする。例えば、エントロピー符号化としてハフマン符号化を行っている場合には、符号化時に用いたハフマンテーブルを用いて復号することが可能である。あるいは、算術符号化を行っている場合には、符号化時に用いたシンボルの頻度分布を用いて算術復号することが可能である。あるいは、次元間の相関を除去する処理をした後にエントロピー符号化してある場合には、まずエントロピー復号を行い、次に、相関除去で行った処理に対応する復元処理を行うことで特徴量を算出できる。あるいは、周波数変換を行って量子化、エントロピー符号化を行っている場合には、エントロピー復号後、逆量子化、周波数変換の逆変換を行うことによって特徴量を算出できる。さらに、過去ピクチャの特徴量との差分を求めて符号化している場合には、復号して得られた値を過去ピクチャの特徴量に加算することによって、現在のピクチャの特徴量を算出する。
復号手段1120では、第2の特徴量符号列を復号し、第2の特徴量を生成する。復号手段1120の動作は復号手段1110と同様である。
図14の特徴量復元手段1000は、図3に示す特徴量統合手段140で統合された特徴量を分離する手段を提供する。
次に、図13に示す特徴量復元手段1000の別の実施の形態について図15を参照して述べる。
図15を参照すると、図4の特徴量統合手段140に対応する特徴量復元手段1000の実施の形態が示されており、符号列多重分離手段1200、復号手段1110、特徴量差分復号手段1230、特徴量加算手段1240からなる。
符号列多重分離手段1200は、映像記述子を入力とし、分離された第1の特徴量符号列を復号手段1110へ出力するとともに、特徴量差分値符号列を特徴量差分復号手段1230へ出力する。復号手段1110は、符号列多重分離手段1200から出力される第1の特徴量符号列を復号し、第1の特徴量を出力する。特徴量差分復号手段1230は、符号列多重分離手段1200から出力される特徴量差分値符号列を復号し、得られた特徴量差分値を特徴量加算手段1240へ出力する。特徴量加算手段1240は、復号手段1110から出力される第1の特徴量と、特徴量差分復号手段1230から出力される特徴量差分値とを加算し、第2の特徴量を算出し、出力する。
次に、図15の特徴量復元手段1000の動作について説明する。
照合対象となる映像記述子は、まず、符号列多重分離手段1200へ入力される。符号列多重分離手段1200では、多重化に用いた方法に応じた多重分離方法により、映像記述子から第1の特徴量符号列と特徴量差分値符号列とを分離する。この動作は図14に示す特徴量復元手段の符号列多重分離手段1100と同様である。分離された第1の特徴量符号列と特徴量差分値符号列は、それぞれ復号手段1110と特徴量差分復号手段1230へ出力される。
復号手段1110の動作は、図14の場合と同様であり、第1の特徴量を出力する。第1の特徴量は、特徴量加算手段1240へも出力される。
特徴量差分復号手段1230では、特徴量差分値符号列を復号し、特徴量差分値を得る。ここでも符号化時に行った処理の逆の処理を行うことによって、復号する。例えば、ハフマン符号化や算術符号化を行って符号化されている場合には、対応する復号処理を行って復号する。得られた特徴量差分値は特徴量加算手段1240へ出力される。
特徴量加算手段1240では、復号手段1110から出力される第1の特徴量と、特徴量差分復号手段1230から出力される特徴量差分値とを加算し、第2の特徴量を復元する。そして得られた第2の特徴量を出力する。
図15の特徴量復元手段1000は、図4に示す特徴量統合手段140で統合された特徴量を分離する手段を提供する。
次に、図13に示す特徴量復元手段1000の別の実施の形態について図16を参照して述べる。
図16を参照すると、図5の特徴量統合手段240に対応する特徴量復元手段1000の実施の形態が示されており、符号列多重分離手段1300、復号手段1110、特徴量差分復号手段1330、特徴量加算手段1240からなる。
符号列多重分離手段1300は、映像記述子を入力とし、分離された第1の特徴量符号列を復号手段1110へ出力するとともに、特徴量差分値符号列と境界情報とを特徴量差分復号手段1330へ出力する。復号手段1110、特徴量加算手段1240の接続関係は図15と同様である。特徴量差分復号手段1330は、符号列多重分離手段1300から出力される境界情報に基づいて、符号列多重分離手段1300から出力される特徴量差分値符号列を復号し、特徴量差分値を特徴量加算手段1240へ出力する。
復号手段1110は、符号列多重分離手段1300から出力される第1の特徴量符号列を復号し、第1の特徴量を出力する。特徴量加算手段1240は、復号手段1110から出力される第1の特徴量と、特徴量差分復号手段1330から出力される特徴量差分値とを加算し、第2の特徴量を算出し、出力する。
次に、図16の特徴量復元手段1000の動作について説明する。
照合対象となる映像記述子は、まず、符号列多重分離手段1300へ入力される。符号列多重分離手段1300の動作は図15の符号列多重分離手段1200と同様であるが、さらに、境界情報も出力する。この境界情報は、特徴量差分復号手段1330へ出力される。
特徴量差分復号手段1330の動作は、基本的に図15の特徴量差分復号手段1230と同様であるが、入力される境界情報を用いて符号化パラメータを特定し、このパラメータを用いて復号する点が異なる。
それ以外の動作は、図15の特徴量復元手段1000と同様である。
図16の特徴量復元手段1000は、図5に示す特徴量統合手段240で統合された特徴量を分離する手段を提供する。
次に、図13に示す特徴量復元手段1000の別の実施の形態について図17を参照して述べる。
図17を参照すると、図6の特徴量統合手段140に対応する特徴量復元手段1000の実施の形態が示されており、符号列多重分離手段1400、復号手段1110、復号手段1410、特徴量差分復号手段1430、特徴量加算手段1240、切り替え手段1440、切り替え手段1450からなる。
符号列多重分離手段1400は、映像記述子を入力とし、分離された第1の特徴量符号列を復号手段1110へ出力するとともに、第3の特徴量符号列を切り替え手段1440へ出力する。また、切り替え手段を制御するモード情報を切り替え手段1440と切り替え手段1450とへ出力する。復号手段1110は、符号列多重分離手段1400から出力される第1の特徴量符号列を入力とし、第1の特徴量を出力する。切り替え手段1440は、符号列多重分離手段1400から入力されるモード情報に応じて、符号列多重分離手段1400から出力される第3の特徴量符号列を特徴量差分復号手段1430か復号手段1410のいずれか一方に出力する。特徴量差分復号手段1430は、切り替え手段1440から出力される第3の特徴量符号列を入力とし、特徴量差分値を特徴量加算手段1240へ出力する。復号手段1410は、切り替え手段1440から出力される第3の特徴量符号列を入力とし、復号結果を切り替え手段1450へ出力する。特徴量加算手段1240は、復号手段1110から出力される第1の特徴量と、特徴量差分復号手段1430から出力される特徴量差分値とを入力とし、加算した結果を切り替え手段1450へ出力する。切り替え手段1450は、特徴量加算手段1240から出力される加算結果と、復号手段1410から出力される復号結果とを入力とし、符号列多重分離手段1400から出力されるモード情報に基づいて第2の特徴量を再構成し、出力する。
次に、図17の特徴量復元手段1000の動作について説明する。
照合対象となる映像記述子は、まず、符号列多重分離手段1400へ入力される。符号列多重分離手段1400では、多重化に用いた方法に応じた多重分離方法により、映像記述子から第1の特徴量符号列と第3の特徴量符号列とを分離する。この動作は図14に示す特徴量復元手段の符号列多重分離手段1100と同様である。分離された第1の特徴量符号列と第3の特徴量符号列は、それぞれ復号手段1110と切り替え手段1440へ出力される。また、モード情報も映像記述子から多重分離され、切り替え手段1440、切り替え手段1450へ出力される。
復号手段1110の動作は、図14の場合と同様であり、第1の特徴量を出力する。第1の特徴量は、特徴量加算手段1240へも出力される。
切り替え手段1440では、符号列多重分離手段1400から出力されるモード情報に応じて、第3の特徴量符号列の出力先を変更する。モード情報が、第3の特徴量符号列に含まれる特徴量が特徴量差分値であることを示している場合には、第3の特徴量符号列を特徴量差分復号手段1430へ出力する。一方、モード情報が、第3の特徴量符号列に含まれる特徴量が第2の特徴量であることを示している場合には、第3の特徴量符号列を復号手段1410へ出力する。このモード情報による出力先の切り替えのタイミングは、符号化時に第3の特徴量符号列をどのように作成したかに依存する。映像全体として1つのモードで符号化されている場合には、最初に一度モード情報によって出力先を設定するようにすればよい。あるいは、ピクチャ単位でモードを切り替えて符号化されている場合には、ピクチャ単位でモードを切り替えるようにする。あるいは、複数ピクチャの単位で切り替えている場合やピクチャ内の領域単位で切り替えている場合には、その単位で切り替えを行うようにする。
特徴量差分復号手段1430では、切り替え手段1440から出力される第3の特徴量符号列を復号し、特徴量差分値(の一部分)を復元する。特徴量差分復号手段1430の動作は、基本的に図15の特徴量差分復号手段1230と同様である。ただし、モードによって特徴量差分値符号列のうちの一部のみ(例えば一部のピクチャのみ)が特徴量差分復号手段1430での復号対象である場合には、どのピクチャ、あるいはどの領域に対応する特徴量が復号対象となっているかが特定できる情報も第3の特徴量符号列に含まれており、この情報を参照しながら復号する。得られた特徴量差分値は特徴量加算手段1240へ出力される。
特徴量加算手段1240の動作は、図15の場合と同様であり、第2の特徴量(の一部)である加算結果は切り替え手段1450へ出力される。
復号手段1410では、切り替え手段1440から出力される第3の特徴量符号列を復号し、第2の特徴量(の一部分)を復元する。復号手段1410の動作は、基本的に図14の復号手段1120と同様である。ただし、モードによって第3の特徴量符号列のうちの一部のみ(例えば一部のピクチャのみ)が復号手段1410での復号対象である場合には、どのピクチャ、あるいはどの領域に対応する特徴量が復号対象となっているかが特定できる情報も第3の特徴量符号列に含まれており、この情報を参照しながら復号する。復号結果は切り替え手段1450へ出力される。
切り替え手段1450では、符号列多重分離手段1400から出力されるモード情報に応じて、第2の特徴量の出力元を切り替える。モード情報が、第3の特徴量符号列に含まれる特徴量が特徴量差分値であることを示している場合には、特徴量加算手段1240から出力される加算結果を第2の特徴量として出力する。一方、モード情報が、第3の特徴量符号列に含まれる特徴量が第2の特徴量であることを示している場合には、復号手段1410から出力される復号結果を第2の特徴量として出力する。
図17の特徴量復元手段は、図6に示す特徴量統合手段140で統合された特徴量を分離する手段を提供する。
次に、図13に示す特徴量復元手段1000の別の実施の形態について図18を参照して述べる。
図18を参照すると、図7の特徴量統合手段240に対応する特徴量復元手段1000の実施の形態が示されており、符号列多重分離手段1500、復号手段1110、復号手段1510、特徴量差分復号手段1530、特徴量加算手段1240、切り替え手段1540、切り替え手段1550、差分符号化インデックス決定手段1560からなる。
符号列多重分離手段1500は、映像記述子を入力とし、分離された第1の特徴量符号列を復号手段1110へ出力するとともに、第3の特徴量符号列を切り替え手段1540へ出力する。また、境界情報を差分符号化インデックス決定手段1560へ出力する。差分符号化インデックス決定手段1560は、符号列多重分離手段1500から出力される境界情報を入力とし、差分符号化インデックスを切り替え手段1540と切り替え手段1550とへ出力する。復号手段1110は、符号列多重分離手段1500から出力される第1の特徴量符号列を入力とし、第1の特徴量を出力する。切り替え手段1540は、差分符号化インデックス決定手段1560から入力される差分符号化インデックスに応じて、符号列多重分離手段1500から出力される第3の特徴量符号列を特徴量差分復号手段1530か復号手段1510のいずれか一方に出力する。復号手段1510は、切り替え手段1540から出力される第3の特徴量符号列を入力とし、復号結果を切り替え手段1550へ出力する。特徴量差分復号手段1530は、切り替え手段1540から出力される第3の特徴量符号列を入力とし、特徴量差分値を特徴量加算手段1240へ出力する。特徴量加算手段1240は、復号手段1110から出力される第1の特徴量と特徴量差分復号手段1530から出力される特徴量差分値とを加算して、加算結果を切り替え手段1550へ出力する。切り替え手段1550は、特徴量加算手段1240から出力される加算結果と、復号手段1510から出力される復号結果とを入力とし、差分符号化インデックス決定手段1560から出力される差分符号化インデックスに基づいて第2の特徴量を再構成し、出力する。
次に、図18の特徴量復元手段1000の動作について説明する。
照合対象となる映像記述子は、まず、符号列多重分離手段1500へ入力される。符号列多重分離手段1500では、多重化に用いた方法に応じた多重分離方法により、映像記述子から第1の特徴量符号列と第3の特徴量符号列とを分離する。この動作は図14に示す特徴量復元手段の符号列多重分離手段1100と同様である。分離された第1の特徴量符号列と第3の特徴量符号列は、それぞれ復号手段1110と切り替え手段1540へ出力される。また、黒帯領域やL字によってできる画面の境界を記述する情報である境界情報も、映像記述子から多重分離され、差分符号化インデックス決定手段1560へ出力される。
差分符号化インデックス決定手段1560は、符号化時に用いたものと同様であり、特徴量の各次元のうち、差分符号化を行う次元を境界情報に基づいて決定し、その次元を表すインデックスを差分符号化インデックスとして出力する。
復号手段1110の動作は、図14の場合と同様であり、第1の特徴量を出力する。第1の特徴量は、特徴量加算手段1240へも出力される。
切り替え手段1540では、差分符号化インデックス決定手段1560から出力される差分符号化インデックスに応じて、第3の特徴量符号列の出力先を特徴量の次元単位で変更する。差分符号化インデックスで指定される次元に対しては、第3の特徴量符号列を特徴量差分復号手段1530へ出力する。一方、差分符号化インデックスで指定されない次元の場合には、第3の特徴量符号列を復号手段1510へ出力する。
特徴量差分復号手段1530では、切り替え手段1540から出力される第3の特徴量符号列を復号し、特徴量差分値のうち、差分符号化インデックスで指定される次元の値を復元する。特徴量差分復号手段1530の動作は、基本的に図15の特徴量差分復号手段1230と同様である。得られた特徴量差分値は特徴量加算手段1240へ出力される。
特徴量加算手段1240の動作は、図15の場合と同様であり、第2の特徴量(の一部)である加算結果は切り替え手段1550へ出力される。
復号手段1510では、切り替え手段1540から出力される第3の特徴量符号列を復号し、第2の特徴量のうち、差分符号化インデックスで指定されない次元の値を復元する。復号手段1510の動作は、基本的に図14の復号手段1120と同様である。復号結果は切り替え手段1550へ出力される。
切り替え手段1550では、差分符号化インデックス決定手段1560から出力される差分符号化インデックスに応じて、第2の特徴量の出力元を切り替える。差分符号化インデックスに含まれる次元の場合には、特徴量加算手段1240から出力される加算結果を第2の特徴量として出力する。一方、差分符号化インデックスに含まれない次元の場合には、復号手段1510から出力される復号結果を第2の特徴量として出力する。
図18の特徴量復元手段1000は、図7に示す特徴量統合手段240で統合された特徴量を分離する手段を提供する。
次に、図13に示す特徴量復元手段1000の別の実施の形態について図19を参照して述べる。
図19を参照すると、図8の特徴量統合手段240に対応する特徴量復元手段1000の実施の形態が示されており、符号列多重分離手段1600、復号手段1110、復号手段1510、特徴量差分復号手段1530、特徴量加算手段1240、切り替え手段1540、切り替え手段1550からなる。
構成は、符号列多重分離手段1600、切り替え手段1540、切り替え手段1550を除けば図18の場合と同様である。符号列多重分離手段1600は、映像記述子を入力とし、分離された第1の特徴量符号列を復号手段1110へ出力するとともに、第3の特徴量符号列を切り替え手段1540へ出力する。また、差分符号化インデックスを切り替え手段1540、切り替え手段1550へ出力する。切り替え手段1540は、符号列多重分離手段1600から出力される差分符号化インデックスに応じて、符号列多重分離手段1500から出力される第3の特徴量符号列を特徴量差分復号手段1530か復号手段1510のいずれか一方に出力する。切り替え手段1550は、特徴量加算手段1240から出力される加算結果と、復号手段1510から出力される復号結果とを入力とし、符号列多重分離手段1600から出力される差分符号化インデックスに基づいて第2の特徴量を再構成し、出力する。
次に、図19の特徴量復元手段1000の動作について説明する。
符号列多重分離手段1600以外の動作は、図18の場合と同様である。符号列多重分離手段1600の動作も、境界情報のかわりに差分符号化インデックスを多重分離する点を除けば、図18の符号列多重分離手段1500と同様である。
図19の特徴量復元手段1000は、図8に示す特徴量統合手段240で統合された特徴量を分離する手段を提供する。
次に、図13に示す特徴量復元手段1000の別の実施の形態について図20を参照して述べる。
図20を参照すると、図9の特徴量統合手段240に対応する特徴量復元手段1000の実施の形態が示されており、符号列多重分離手段1500、復号手段1110、復号手段1510、特徴量差分復号手段1730、特徴量加算手段1240、切り替え手段1540、切り替え手段1550からなる。
符号列多重分離手段1500、特徴量差分復号手段1730以外の接続関係は図18の場合と同様である。符号列多重分離手段1500は、映像記述子を入力とし、分離された第1の特徴量符号列を復号手段1110へ出力するとともに、第3の特徴量符号列を切り替え手段1540へ出力する。また、境界情報を差分符号化インデックス決定手段1560、および、特徴量差分復号手段1730へ出力する。特徴量差分復号手段1730は、切り替え手段1540から出力される第3の特徴量符号列と符号列多重分離手段1500から出力される境界情報とを入力とし、特徴量差分値を特徴量加算手段1240へ出力する。
次に、図20の特徴量復元手段1000の動作について説明する。
特徴量差分復号手段1730以外の動作は、図18の場合と同様である。特徴量差分復号手段1730の動作も、境界情報に応じて符号化パラメータを変えて復号を行う以外は図18の特徴量差分復号手段1530と同様である。
図20の特徴量復元手段1000は、図9に示す特徴量統合手段240で統合された特徴量を分離する手段を提供する。
次に、図13に示す特徴量復元手段1000の別の実施の形態について図21を参照して述べる。
図21を参照すると、図10の特徴量統合手段240に対応する特徴量復元手段1000の実施の形態が示されており、符号列多重分離手段1700、復号手段1110、復号手段1510、特徴量差分復号手段1530、特徴量加算手段1240、切り替え手段1740、切り替え手段1750、差分符号化インデックス決定手段1560からなる。
復号手段1110、復号手段1510、特徴量差分復号手段1530、特徴量加算手段1240の接続関係は図18の場合と同様である。符号列多重分離手段1700は、映像記述子を入力とし、分離された第1の特徴量符号列を復号手段1110へ出力するとともに、第3の特徴量符号列を切り替え手段1740へ出力する。また、境界情報を差分符号化インデックス決定手段1560へ出力するとともに、モード情報を切り替え手段1740、切り替え手段1750へ出力する。差分符号化インデックス決定手段1560は、符号列多重分離手段1700から出力される境界情報を入力とし、差分符号化インデックスを切り替え手段1740、切り替え手段1750へ出力する。切り替え手段1740は、差分符号化インデックス決定手段1560から出力される差分符号化インデックス、および符号列多重分離手段1700から出力されるモード情報に応じて、符号列多重分離手段1700から出力される第3の特徴量符号列を特徴量差分復号手段1530か復号手段1510のいずれか一方に出力する。切り替え手段1750は、特徴量加算手段1240から出力される加算結果と、復号手段1510から出力される復号結果とを入力とし、差分符号化インデックス決定手段1560から出力される差分符号化インデックス、および符号列多重分離手段1700から出力されるモード情報に基づいて第2の特徴量を再構成し、出力する。
次に、図21の特徴量復元手段1000の動作について説明する。
照合対象となる映像記述子は、まず、符号列多重分離手段1700へ入力される。符号列多重分離手段1700では、多重化に用いた方法に応じた多重分離方法により、映像記述子から第1の特徴量符号列と第3の特徴量符号列とを分離する。この動作は図14に示す特徴量復元手段の符号列多重分離手段1100と同様である。分離された第1の特徴量符号列と第3の特徴量符号列は、それぞれ復号手段1110と切り替え手段1740へ出力される。また、黒帯領域やL字によってできる画面の境界を記述する情報である境界情報も、映像記述子から多重分離され、差分符号化インデックス決定手段1560へ出力される。また、モード情報も、映像記述子から多重分離され、切り替え手段1740、切り替え手段1750へ出力される。
差分符号化インデックス決定手段1560の動作は図18の場合と同様であり、差分符号化インデックスを出力する。
復号手段1110の動作は、図14の場合と同様であり、第1の特徴量を出力する。第1の特徴量は、特徴量加算手段1240へも出力される。
切り替え手段1740では、差分符号化インデックス決定手段1560から出力される差分符号化インデックスと、符号列多重分離手段1700から出力されるモード情報とに応じて、第3の特徴量符号列の出力先を特徴量の次元単位で変更する。モード情報が、第3の特徴量符号列に含まれる特徴量が特徴量差分値であることを示している場合には、差分符号化インデックスで指定されている次元に対しては第3の特徴量符号列を特徴量差分復号手段1530へ出力し、差分符号化インデックスで指定されない次元の場合には、第3の特徴量符号列を復号手段1510へ出力する。一方、モード情報が、第3の特徴量符号列に含まれる特徴量が第2の特徴量であることを示している場合には、第3の特徴量符号列を復号手段1510へ出力する。
特徴量差分復号手段1530、特徴量加算手段1240、復号手段1510の動作は、図18の場合と同様である。
切り替え手段1750では、差分符号化インデックス決定手段1560から出力される差分符号化インデックスと、符号列多重分離手段1700から出力されるモード情報とに応じて、第2の特徴量の出力元を切り替える。モード情報が、第3の特徴量符号列に含まれる特徴量が特徴量差分値であることを示している場合には、差分符号化インデックスに含まれる次元の場合には、特徴量加算手段1240から出力される加算結果を第2の特徴量として出力し、差分符号化インデックスに含まれない次元の場合には、復号手段1510から出力される復号結果を第2の特徴量として出力する。一方、モード情報が、第3の特徴量符号列に含まれる特徴量が第2の特徴量であることを示している場合には、復号手段1510から出力される復号結果を第2の特徴量として出力する。
図21の特徴量復元手段は、図10に示す特徴量統合手段240で統合された特徴量を分離する手段を提供する。
次に、図13に示す特徴量復元手段1000の別の実施の形態について図22を参照して述べる。
図22を参照すると、図11の特徴量統合手段240に対応する特徴量復元手段1000の実施の形態が示されており、符号列多重分離手段1800、復号手段1110、復号手段1510、特徴量差分復号手段1530、特徴量加算手段1240、切り替え手段1740、切り替え手段1750からなる。
構成は、符号列多重分離手段1800、切り替え手段1740、切り替え手段1750を除けば図20の場合と同様である。符号列多重分離手段1800は、映像記述子を入力とし、分離された第1の特徴量符号列を復号手段1110へ出力するとともに、第3の特徴量符号列を切り替え手段1540へ出力する。また、差分符号化インデックスとモード情報を切り替え手段1740、切り替え手段1750へ出力する。切り替え手段1740は、符号列多重分離手段1800から出力される差分符号化インデックスとモード情報に応じて、符号列多重分離手段1800から出力される第3の特徴量符号列を特徴量差分復号手段1530か復号手段1510のいずれか一方に出力する。切り替え手段1750は、特徴量加算手段1240から出力される加算結果と、復号手段1510から出力される復号結果を入力とし、符号列多重分離手段1800から出力される差分符号化インデックスとモード情報に基づいて第2の特徴量を再構成し、出力する。
次に、図22の特徴量復元手段1000の動作について説明する。
符号列多重分離手段1800以外の動作は、図21の場合と同様である。符号列多重分離手段1800の動作も、境界情報のかわりに差分符号化インデックスを多重分離する点を除けば、図21の符号列多重分離手段1700と同様である。
図22の特徴量復元手段1000は、図11に示す特徴量統合手段240で統合された特徴量を分離する手段を提供する。
次に、図13に示す特徴量復元手段1000の別の実施の形態について図23を参照して述べる。
図23を参照すると、図12の特徴量統合手段240に対応する特徴量復元手段1000の実施の形態が示されており、符号列多重分離手段1700、復号手段1110、復号手段1510、特徴量差分復号手段1530、特徴量加算手段1240、切り替え手段1740、切り替え手段1750、差分符号化インデックス決定手段1560からなる。
符号列多重分離手段1700、特徴量差分復号手段1730以外の接続関係は図21の場合と同様である。符号列多重分離手段1700は、映像記述子を入力とし、分離された第1の特徴量符号列を復号手段1110へ出力するとともに、第3の特徴量符号列を切り替え手段1540へ出力する。また、境界情報を差分符号化インデックス決定手段1560、および、特徴量差分復号手段1730へ出力し、モード情報を切り替え手段1740、切り替え手段1750へ出力する。特徴量差分復号手段1730は、切り替え手段1740から出力される第3の特徴量符号列と符号列多重分離手段1700から出力される境界情報とを入力とし、特徴量差分値を特徴量加算手段1240へ出力する。
次に、図23の特徴量復元手段1000の動作について説明する。
特徴量差分復号手段1730以外の動作は、図21の場合と同様である。特徴量差分復号手段1730の動作も、境界情報に応じて符号化パラメータを変えて復号を行う以外は図21の特徴量差分復号手段1530と同様である。
図23の特徴量復元手段は、図12に示す特徴量統合手段240で統合された特徴量を分離する手段を提供する。
以上が動画像照合装置の実施の形態の説明である。この実施の形態により、前述の映像記述子生成装置で抽出された映像記述子による動画像の照合が可能になる。すなわち、黒帯やL字領域がある場合でも、精度を落とさずに照合することが可能となる。
次に、本発明の他の実施の形態の動作を説明する。
図26は、ピクチャから特徴量を抽出する方式の一例を示している。この方式では、ピクチャ内の任意の2領域をペアとして予め定めておき、ペアとなった2領域間での特徴量の差を特徴量ベクトルとする。ここで、各領域ペアをP1、P2、P3、…と表し、n番目のペアPnから定まる特徴量をVnで表すことにする。領域ペアのとり方は、図に示すように、様々な形・位置の領域の組み合わせがあり得る。そして、PnからVnを求める方法も様々な方法が考えられる。例えば、各ペアで斜線の領域と網線をつけた各領域内で輝度の平均値を算出し、その大小関係でVnの値を決定する方法がある。具体的には、斜線の領域内で求めた平均輝度値から網線の領域内で求めた平均輝度値を引いて差を求め、差が正のときにVn=1とし、負のときにVn=−1とする。あるいは、差の絶対値が閾値より小さい場合は0とし、Vnを3値で表すようにしてもよい。以下、Vnは3値とする。
図1の視覚特徴量抽出手段120では、上述の処理をN個の各ペアに対して行うことにより、N次元の特徴量ベクトルVnを求める。映像境界検知手段100では、各ピクチャに対してハフ変換を行い、映像の縁に近い、水平または垂直方向の直線を検出する。次に、ピクチャ間での連続性を計測し、閾値以上のピクチャで継続する場合には、黒帯領域またはL字領域の境界として検知し、境界情報を出力する。位置補正視覚特徴量抽出手段130では、境界領域を除いた領域を全画面と見做して、視覚特徴量抽出手段120と同じ処理をおこなってN次元の特徴量ベクトルV'nを求める。特徴量統合手段140または240では、各ピクチャに対して求まるN次元の特徴量ベクトルVn、V'nを統合し、映像記述子を生成する。
特徴量ベクトルVnに対しては、符号化手段320において符号化する。各次元の取りえる値は3状態であるため、5次元分を組み合わせると、35=243状態となり、1バイトで表すことができる。よって、5次元分ずつまとめて1バイトで表し、N/5バイトで値を表現し、符号化する。
特徴量統合手段140で特徴量差分値を算出する場合には、
Dn=V'n-Vn
により、特徴量の各次元における差分値Dnを算出し、符号化する。特徴量の値が3値であるため、Dnとしてとりえる値は、Vnによって異なるが、3値である。すなわち、Vn=1のときは、Dn=0、-1、-2、Vn=0のときは、Dn=1、0、-1、Vn=-1のときはDn=2、1、0である。特徴量差分値符号化手段340では、Vn=1、0、-1のそれぞれの値に対して、Dnの生じる頻度を予め学習しておき、その結果に基づいてエントロピー符号化を行う。
図7の場合のように、差分インデックスを決定する場合には、黒帯領域、あるいは、L字領域の挿入によってVnを算出する際に用いる領域がどの程度移動するかを考慮すればよい。画面の中央にある領域は、黒帯領域が挿入されても、それほど大きくは動かない。一方、画像の周辺の領域の場合には、ずれが大きくなる。よって、Vn算出に用いる領域が画面中央に近い場合には、VnとV'nの相関が大きくなり、周辺に近い場合には、相関が低くなる。したがって、画面中央の領域からVnが求まる次元については、Dnを符号化するようにし、そうでない場合はDnを符号化するようにすればよい。このように幾何的な特性から差分符号化すべき次元を求めることが可能であり、差分符号化インデックスを決定できる。もちろん、画像に対して学習して、VnとV'nの相関の度合いから、差分符号化インデックスを決定するようにしてもよい。
これ以外については、既に述べた方法を適用することにより、上述の特徴量に対する映像記述子生成装置を構築できる。
以上本発明の実施の形態について説明したが、本発明は以上の例にのみ限定されるのもではない。本発明の構成や詳細には、本発明の範囲内で当業者が理解しうる様々な変更をすることができる。また、本発明の映像記述子生成装置および動画像照合装置は、その有する機能をハードウェア的に実現することは勿論、コンピュータとプログラムとで実現することができる。プログラムは、磁気ディスクや半導体メモリ等のコンピュータ可読記録媒体に記録されて提供され、コンピュータの立ち上げ時などにコンピュータに読み取られ、そのコンピュータの動作を制御することにより、そのコンピュータを前述した各実施の形態における映像記述子生成装置および動画像照合装置として機能させる。
なお、本発明は、日本国にて2009年1月23日に特許出願された特願2009−12812の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
本発明によれば、類似あるいは同一の映像を多くの映像中から高精度に検索するといった用途に適用できる。特に、映像の同一区間検索については、ネットワーク上に流通する違法にコピーされた動画像を識別する用途や、実際の放送波で流されているCMを同定するといった用途に用いることができる。
10…フレーム特徴量抽出手段
20…特徴量テーブル作成手段
100…映像境界検知手段
120…視覚特徴量抽出手段
130…位置補正視覚特徴量抽出手段
140…特徴量統合手段
230…符号列多重化手段
240…特徴量統合手段
300…特徴量減算手段
310…符号化手段
320…符号化手段
330…符号列多重化手段
430…符号列多重化手段
440…特徴量差分符号化手段
520…符号列選択手段
530…符号列多重化手段
600…差分符号化インデックス決定手段
610…符号化手段
630…符号列多重化手段
640…特徴量差分符号化手段
660…特徴量差分符号化手段
720…符号列選択手段
730…符号列多重化手段
830…符号列多重化手段
930…符号列多重化手段
1000…特徴量復元手段
1010…特徴量復元手段
1020…特徴量照合手段
1030…特徴量照合手段
1040…特徴量照合手段
1050…特徴量照合手段
1060…選択手段
1100…符号列多重分離手段
1110…復号手段
1120…復号手段
1200…符号列多重分離手段
1230…特徴量差分復号手段
1240…特徴量加算手段
1300…符号列多重分離手段
1330…特徴量差分復号手段
1400…符号列多重分離手段
1410…復号手段
1430…特徴量差分復号手段
1440…切り替え手段
1450…切り替え手段
1500…符号列多重分離手段
1510…復号手段
1530…特徴量差分復号手段
1540…切り替え手段
1550…切り替え手段
1560…差分符号化インデックス決定手段
1600…符号列多重分離手段
1700…符号列多重分離手段
1730…特徴量差分復号手段
1740…切り替え手段
1750…切り替え手段
1800…符号列多重分離手段

Claims (41)

  1. 映像のフレームまたはフィールドであるピクチャ毎に第1の特徴量を抽出する、第1の抽出手段と、
    前記ピクチャ内の境界で定まる位置より内側の領域内から第2の特徴量を抽出する、第2の抽出手段と、
    前記第1の特徴量と前記第2の特徴量とを含む映像記述子を生成する特徴量統合手段と、
    を有する映像記述子抽出装置。
  2. 前記第1の抽出手段が抽出する前記第1の特徴量と、前記第2の抽出手段が抽出する前記第2の特徴量は、同じ種類の特徴量である
    請求項1に記載の映像記述子抽出装置。
  3. 前記ピクチャ内の境界は、黒帯領域付加、L字領域付加、あるいは画像内画像重畳表示(Picture in Picture)のうち少なくとも1つによって定まる画像の境界である請求項1または2に記載の映像記述子抽出装置。
  4. 前記特徴量統合手段は、
    前記第1の特徴量を第1の特徴量符号列として符号化する第1の符号化手段と、
    前記第2の特徴量を第2の特徴量符号列として符号化する第2の符号化手段と、
    前記第1の特徴量符号列と前記第2の特徴量符号列とを含む前記映像記述子を生成する符号列多重化手段と、
    を有する請求項1乃至3の何れか1項に記載の映像記述子抽出装置。
  5. 前記第1の抽出手段と前記第2の抽出手段は、
    前記特徴量を構成する各次元にそれぞれ関連付けられる前記ピクチャ内の2つの部分領域から算出される領域特徴量の差分値に基づいて、前記特徴量を形成する
    請求項1乃至4の何れか1項に記載の映像記述子抽出装置。
  6. 前記特徴量は、前記特徴量を構成する次元に関連付けられる前記ピクチャ内の2つの部分領域の形状の組み合わせと、当該2つの関連する部分領域の相対的な位置関係との双方が、他の少なくとも1つの次元に関連付けられる前記ピクチャ内の2つの部分領域と相違する1以上の次元を含む請求項5に記載の映像記述子抽出装置。
  7. 前記第1の抽出手段と前記第2の抽出手段は、前記次元に関連付けられる前記ピクチャ内の2つの部分領域の双方から領域特徴量を算出し、前記領域特徴量から前記特徴量の各次元の値を算出し、
    前記特徴量統合手段は、前記特徴量の各次元の値の集合を前記特徴量とする
    請求項5または6に記載の映像記述子抽出装置。
  8. 前記第1の抽出手段と前記第2の抽出手段は、前記領域特徴量の差分値を前記特徴量の各次元の値として量子化する請求項7に記載の映像記述子抽出装置。
  9. 前記第1の抽出手段と前記第2の抽出手段は、前記差分値を前記特徴量の各次元の値として3値に量子化し、
    前記特徴量統合手段は、前記特徴量の各次元の値の5つ分を1バイトの情報に符号化することによって前記特徴量の表現を抽出する請求項8に記載の映像記述子抽出装置。
  10. 前記第1の抽出手段と前記第2の抽出手段は、各部分領域の平均輝度値を、当該部分領域の領域特徴量として算出する請求項5乃至9の何れか1項に記載の映像記述子抽出装置。
  11. 映像のフレームまたはフィールドであるピクチャ毎に第1の特徴量を抽出し、
    前記ピクチャ内の境界で定まる位置より内側の領域内から第2の特徴量を抽出し、
    前記第1の特徴量と前記第2の特徴量とを含む映像記述子を生成する
    映像記述子抽出方法。
  12. 前記第1の特徴量と、前記第2の特徴量は、同じ種類の特徴量である
    請求項11に記載の映像記述子抽出方法。
  13. 前記画像の境界は、黒帯領域付加、L字領域付加、あるいは画像内画像重畳表示(Picture in Picture)のうち少なくとも1つによって定まる画像の境界である請求項11または12に記載の映像記述子抽出方法。
  14. 前記映像記述子の生成では、
    前記第1の特徴量を第1の特徴量符号列として符号化し、
    前記第2の特徴量を第2の特徴量符号列として符号化し、
    前記第1の特徴量符号列と前記第2の特徴量符号列とを含む前記映像記述子を生成する
    請求項11乃至13の何れか1項に記載の映像記述子抽出方法。
  15. 前記特徴量の抽出では、
    前記特徴量を構成する各次元にそれぞれ関連付けられる前記ピクチャ内の2つの部分領域から算出される領域特徴量の差分値に基づいて、前記特徴量を形成する
    請求項11乃至14の何れか1項に記載の映像記述子抽出方法。
  16. 前記特徴量は、前記特徴量を構成する次元に関連付けられる前記ピクチャ内の2つの部分領域の形状の組み合わせと、当該2つの関連する部分領域の相対的な位置関係との双方が、他の少なくとも1つの次元に関連付けられる前記ピクチャ内の2つの部分領域と相違する1以上の次元を含む請求項15に記載の映像記述子抽出方法。
  17. 前記特徴量の抽出では、前記次元に関連付けられる前記ピクチャ内の2つの部分領域の双方から領域特徴量を算出し、前記領域特徴量から前記特徴量の各次元の値を算出し、
    前記映像記述子の抽出では、前記特徴量の各次元の値の集合を前記特徴量とする
    請求項15または16に記載の映像記述子抽出方法。
  18. 前記特徴量の抽出では、前記領域特徴量の差分値を前記特徴量の各次元の値として量子化する請求項17に記載の映像記述子抽出方法。
  19. 前記特徴量の抽出では、前記差分値を前記特徴量の各次元の値として3値に量子化し、
    前記映像記述子の抽出では、前記特徴量の各次元の値の5つ分を1バイトの情報に符号化することによって前記特徴量の表現を抽出する請求項18に記載の映像記述子抽出方法。
  20. 前記特徴量の抽出では、各部分領域の平均輝度値を、当該部分領域の領域特徴量として算出する
    ことを特徴とする請求項15乃至19の何れか1項に記載の映像記述子抽出方法。
  21. コンピュータを、
    映像のフレームまたはフィールドであるピクチャ毎に第1の特徴量を抽出する、第1の抽出手段と、
    前記ピクチャ内の画像の境界で定まる位置より内側の領域内から第2の特徴量を抽出する、第2の抽出手段と、
    前記第1の特徴量と前記第2の特徴量とを含む映像記述子を生成する特徴量統合手段と、
    として機能させるためのプログラム。
  22. 請求項1乃至10の何れかに記載の映像記述子抽出装置から生成された映像記述子を用いて検索を行うことを特徴とする検索装置。
  23. 請求項1乃至10の何れかに記載の映像記述子抽出装置から生成された映像記述子を用いて識別を行うことを特徴とする識別装置。
  24. 請求項11乃至20の何れかに記載の映像記述子抽出方法によって生成された映像記述子を用いて検索を行うことを特徴とする検索方法。
  25. 請求項11乃至20の何れかに記載の映像記述子抽出方法によって生成された映像記述子を用いて識別を行うことを特徴とする識別方法。
  26. 第1の映像の第1の映像記述子と第2の映像の第2の映像記述子との照合を行う動画像照合装置であって、
    前記第1の映像記述子から、前記第1の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1の映像の第1の特徴量と、前記第1の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第1の映像の第2の特徴量とを復元する、第1の特徴量復元手段と、
    前記第2の映像記述子から、前記第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第2の映像の第1の特徴量と、前記第2の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第2の映像の第2の特徴量とを復元する、第2の特徴量復元手段と、
    前記第1の映像の第1の特徴量と、前記第2の映像の第1の特徴量とを照合し、第1の照合スコアを算出する第1の特徴量照合手段と、
    前記第1の映像の第1の特徴量と、前記第2の映像の第2の特徴量とを照合し、第2の照合スコアを算出する第2の特徴量照合手段と、
    前記第1の映像の第2の特徴量と、前記第2の映像の第1の特徴量とを照合し、第3の照合スコアを算出する第3の特徴量照合手段と、
    前記第1の映像の第2の特徴量と、前記第2の映像の第2の特徴量とを照合し、第4の照合スコアを算出する第4の特徴量照合手段と、
    前記第1から第4の照合スコアを比較し、最良の照合スコアを選択する選択手段と、
    を有することを特徴とする動画像照合装置。
  27. 前記第1、第2の特徴量復元手段は、
    前記第1または第2の映像記述子を多重分離して、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を符号化した第1の特徴量符号列と、前記第1または第2の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第1または第2の映像の第2の特徴量を符号化した第2の特徴量符号列とを生成する符号列多重分離手段と、
    前記第1の特徴量符号列を復号し、前記第1または第2の映像の第1の特徴量を復元する第1の復号手段と、
    前記第2の特徴量符号列を復号し、前記第1または第2の映像の第2の特徴量を復元する第2の復号手段と、
    を有することを特徴とする請求項26に記載の動画像照合装置。
  28. 前記第1、第2の特徴量復元手段は、
    前記第1または第2の映像記述子を多重分離して、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を符号化した第1の特徴量符号列と、前記第1または第2の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第1または第2の映像の第2の特徴量から、前記第1または第2の映像の第1の特徴量を差し引いた特徴量差分値を符号化した特徴量差分値符号列とを生成する符号列多重分離手段と、
    前記第1の特徴量符号列を復号し、前記第1または第2の映像の前記第1の特徴量を復元する第1の復号手段と、
    前記特徴量差分値符号列を復号し、前記特徴量差分値を復元する特徴量差分復号手段と、
    前記特徴量差分値に前記第1の特徴量を加算して、前記第1または第2の映像の前記第2の特徴量を算出する加算手段と、
    を有することを特徴とする請求項26に記載の動画像照合装置。
  29. 前記符号列多重分離手段は前記境界情報も多重分離し、
    前記特徴量差分復号手段は、前記境界情報に基づいて前記特徴量差分値符号列を復号し、特徴量差分値を復元すること、
    を特徴とする請求項28に記載の動画像照合装置。
  30. 前記第1、第2の特徴量復元手段は、
    前記第1または第2の映像記述子を多重分離して、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を符号化した第1の特徴量符号列と、前記第1または第2の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第1または第2の映像の第2の特徴量を符号化した第2の特徴量符号列、および、前記第2の特徴量から、前記第1または第2の映像の第1の特徴量を差し引いた特徴量差分値を符号化した特徴量差分値符号列のうち、符号量の小さい方を含む第3の特徴量符号列と、前記第3の特徴量符号列に含まれる特徴量が前記特徴量差分値または前記第2の特徴量のいずれであるかを示すモード情報とを生成する符号列多重分離手段と、
    前記第1の特徴量符号列を復号し、前記第1または第2の映像の前記第1の特徴量を復元する第1の復号手段と、
    前記第3の特徴量符号列を入力し、その出力先を、前記モード情報に基づいて切り替える第1の切り替え手段と、
    前記第1の切り替え手段から出力される前記第3の特徴量符号列を復号し、前記特徴量差分値を復元する特徴量差分復号手段と、
    前記第1の切り替え手段から出力される前記第3の特徴量符号列を復号し、前記第2の特徴量を復元する第2の復号手段と、
    前記特徴量差分値に前記第1の特徴量を加算して、前記第2の特徴量を算出する加算手段と、
    前記加算手段から出力される前記第2の特徴量と前記第2の復号手段から出力される前記第2の特徴量とを、前記モード情報によって切り替えながら合成し、前記第1または第2の映像の前記第2の特徴量を出力する第2の切り替え手段と、
    を有することを特徴とする請求項26に記載の動画像照合装置。
  31. 前記第1、第2の特徴量復元手段は、
    前記第1または第2の映像記述子を多重分離して、前記境界情報、または前記境界情報から決定された情報であって特徴ベクトルの各要素のうち差分符号化する要素のインデックスを示す差分符号化インデックスのいずれか一方と、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を符号化した第1の特徴量符号列と、前記第1または第2の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第1または第2の映像の第2の特徴量を符号化した第2の特徴量符号列、および、前記第2の特徴量から、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を差し引いた特徴量差分値を符号化した特徴列差分値符号列のうち、前記境界情報または前記差分符号化インデックス情報で定まる方を含む第3の特徴量符号列とを出力する符号列多重分離手段と、
    前記符号列多重分離手段が前記境界情報を出力する場合には、前記境界情報から特徴ベクトルの各要素のうち、差分符号化する要素のインデックスを決定し、前記差分符号化インデックス情報として出力する差分符号化インデックス決定手段と、
    前記第1の特徴量符号列を復号し、前記第1または第2の映像の前記第1の特徴量を復元する第1の復号手段と、
    前記第3の特徴量符号列を入力し、その出力先を、前記差分インデックス情報に基づいて切り替える第1の切り替え手段と、
    前記第1の切り替え手段から出力される前記第3の特徴量符号列を復号し、前記特徴量差分値を復元する特徴量差分復号手段と、
    前記第1の切り替え手段から出力される前記第3の特徴量符号列を復号し、前記第2の特徴量を復元する第2の復号手段と、
    前記特徴量差分値に前記第1の特徴量を加算して、前記第2の特徴量を算出する加算手段と、
    前記加算手段から出力される前記第2の特徴量と前記第2の復号手段から出力される前記第2の特徴量とを、前記差分符号化インデックス情報によって切り替えながら合成し、前記第1または第2の映像の前記第2の特徴量を出力する第2の切り替え手段と、
    を有することを特徴とする請求項26に記載の動画像照合装置。
  32. 前記第1、第2の特徴量復元手段は、
    前記第1または第2の映像記述子を多重分離して、前記境界情報、または前記境界情報から決定された情報であって特徴ベクトルの各要素のうち差分符号化する要素のインデックスを示す差分符号化インデックスのいずれか一方と、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を符号化した第1の特徴量符号列と、前記第1または第2の映像から検知された前記ピクチャ内の境界を示す境界情報を用いて定められた前記第1または第2の映像のピクチャの境界で定まる位置より内側の領域内から抽出された第1または第2の映像の第2の特徴量を符号化した第2の特徴量符号列、および、前記第2の特徴量から、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を差し引いた特徴量差分値を符号化した特徴列差分符号列のうち、前記差分符号化インデックス情報で指定されないインデックスの要素については前記第2の特徴量符号列を含み、前記差分符号化インデックス情報で指定されたインデックスの要素については符号量の小さい方を含む第3の特徴量符号列と、前記差分符号化インデックス情報で指定されたインデックスの要素について前記第2の特徴量符号列または前記特徴列差分符号列のうちのいずれを含むかを示すモード情報とを出力する符号列多重分離手段と、
    前記符号列多重分離手段が前記境界情報を出力する場合には、前記境界情報から特徴ベクトルの各要素のうち、差分符号化する要素のインデックスを決定し、前記差分符号化インデックス情報として出力する差分符号化インデックス決定手段と、
    前記第1の特徴量符号列を復号し、前記第1または第2の映像の前記第1の特徴量を復元する第1の復号手段と、
    前記第3の特徴量符号列を入力し、その出力先を、前記差分符号化インデックス情報および前記モード情報に基づいて切り替える第1の切り替え手段と、
    前記第1の切り替え手段から出力される前記第3の特徴量符号列を復号し、前記特徴量差分値を復元する特徴量差分復号手段と、
    前記第1の切り替え手段から出力される前記第3の特徴量符号列を復号し、前記第2の特徴量を復元する第2の復号手段と、
    前記特徴量差分値に前記第1の特徴量を加算して、前記第2の特徴量を算出する加算手段と、
    前記加算手段から出力される前記第2の特徴量と前記第2の復号手段から出力される前記第2の特徴量とを、前記差分インデックス情報と前記モード情報とによって切り替えながら合成し、前記第1または第2の映像の前記第2の特徴量を出力する第2の切り替え手段と、
    を有することを特徴とする請求項26に記載の動画像照合装置。
  33. 前記特徴量差分復号手段は、前記境界情報に基づいて前記特徴量差分値符号列を復号し、特徴量差分値を復元すること、
    を特徴とする請求項31または32に記載の動画像照合装置。
  34. 第1の映像記述子から、第1の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1の映像の第1の特徴量と、前記第1の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第1の映像の第2の特徴量とを復元し、
    第2の映像記述子から、第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第2の映像の第1の特徴量と、前記第2の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第2の映像の第2の特徴量とを復元し、
    前記第1の映像の第1の特徴量と、前記第2の映像の第1の特徴量とを照合して、第1の照合スコアを算出し、
    前記第1の映像の第1の特徴量と、前記第2の映像の第2の特徴量とを照合して、第2の照合スコアを算出し、
    前記第1の映像の第2の特徴量と、前記第2の映像の第1の特徴量とを照合して、第3の照合スコアを算出し、
    前記第1の映像の第2の特徴量と、前記第2の映像の第2の特徴量とを照合して、第4の照合スコアを算出し、
    前記第1から第4の照合スコアを比較し、最良の照合スコアを選択する
    ことを特徴とする動画像照合方法。
  35. 前記第1および第2の映像の第1および第2の特徴量の復元では、
    前記第1または第2の映像記述子を多重分離して、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を符号化した第1の特徴量符号列と、前記第1または第2の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第1または第2の映像の第2の特徴量を符号化した第2の特徴量符号列とを生成し、
    前記第1の特徴量符号列を復号し、前記第1または第2の映像の第1の特徴量を復元し、
    前記第2の特徴量符号列を復号し、前記第1または第2の映像の第2の特徴量を復元する
    ことを特徴とする請求項34に記載の動画像照合方法。
  36. 前記第1および第2の映像の第1および第2の特徴量の復元では、
    前記第1または第2の映像記述子を多重分離して、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を符号化した第1の特徴量符号列と、前記第1または第2の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第1または第2の映像の第2の特徴量から、前記第1または第2の映像の第1の特徴量を差し引いた特徴量差分値を符号化した特徴量差分値符号列とを生成し、
    前記第1の特徴量符号列を復号し、前記第1または第2の映像の前記第1の特徴量を復元し、
    前記特徴量差分値符号列を復号し、前記特徴量差分値を復元し、
    前記特徴量差分値に前記第1の特徴量を加算して、前記第1または第2の映像の前記第2の特徴量を算出する
    ことを特徴とする請求項34に記載の動画像照合方法。
  37. 前記多重分離では、前記境界情報も多重分離し、
    前記第2の特徴量符号列の復号では、前記境界情報に基づいて前記特徴量差分値符号列を復号し、特徴量差分値を復元する
    ことを特徴とする請求項36に記載の動画像照合方法。
  38. 前記第1および第2の映像の第1および第2の特徴量の復元では、
    前記第1または第2の映像記述子を多重分離して、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を符号化した第1の特徴量符号列と、前記第1または第2の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第1または第2の映像の第2の特徴量を符号化した第2の特徴量符号列、および、前記第2の特徴量から、前記第1または第2の映像の第1の特徴量を差し引いた特徴量差分値を符号化した特徴量差分値符号列のうち、符号量の小さい方を含む第3の特徴量符号列と、前記第3の特徴量符号列に含まれる特徴量が前記特徴量差分値または前記第2の特徴量のいずれであるかを示すモード情報とを生成し、
    前記第1の特徴量符号列を復号し、前記第1または第2の映像の前記第1の特徴量を復元し、
    前記第3の特徴量符号列を入力し、その出力先を、前記モード情報に基づいて切り替え、
    前記出力される前記第3の特徴量符号列を復号し、前記特徴量差分値を復元し、
    前記出力される前記第3の特徴量符号列を復号し、前記第2の特徴量を復元し、
    前記特徴量差分値に前記第1の特徴量を加算して、前記第2の特徴量を算出し、
    前記第3の特徴量符号列を復号して復元した前記第2の特徴量と、前記特徴量差分値に前記第1の特徴量を加算して算出した前記第2の特徴量とを、前記モード情報によって切り替えながら合成して、前記第1または第2の映像の前記第2の特徴量を出力する
    ことを特徴とする請求項34に記載の動画像照合方法。
  39. 前記第1および第2の映像の第1および第2の特徴量の復元では、
    前記第1または第2の映像記述子を多重分離して、前記境界情報、または前記境界情報から決定された情報であって特徴ベクトルの各要素のうち差分符号化する要素のインデックスを示す差分符号化インデックスのいずれか一方と、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を符号化した第1の特徴量符号列と、前記第1または第2の映像の前記ピクチャ内の境界で定まる位置より内側の領域内から抽出された第1または第2の映像の第2の特徴量を符号化した第2の特徴量符号列、および、前記第2の特徴量から、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を差し引いた特徴量差分値を符号化した特徴列差分値符号列のうち、前記境界情報または前記差分符号化インデックス情報で定まる方を含む第3の特徴量符号列とを出力し、
    前記境界情報を出力する場合には、前記境界情報から特徴ベクトルの各要素のうち、差分符号化する要素のインデックスを決定し、前記差分符号化インデックス情報として出力し、
    前記第1の特徴量符号列を復号して、前記第1または第2の映像の前記第1の特徴量を復元し、
    前記第3の特徴量符号列を入力し、その出力先を、前記差分インデックス情報に基づいて切り替え、
    前記出力される前記第3の特徴量符号列を復号して、前記特徴量差分値を復元し、
    前記出力される前記第3の特徴量符号列を復号して、前記第2の特徴量を復元し、
    前記特徴量差分値に前記第1の特徴量を加算して、前記第2の特徴量を算出し、
    前記第3の特徴量符号列を復号して復元した前記第2の特徴量と、前記特徴量差分値に前記第1の特徴量を加算して算出した前記第2の特徴量とを、前記差分符号化インデックス情報によって切り替えながら合成し、前記第1または第2の映像の前記第2の特徴量を出力する
    ことを特徴とする請求項34に記載の動画像照合方法。
  40. 前記第1および第2の映像の第1および第2の特徴量の復元では、
    前記第1または第2の映像記述子を多重分離して、前記境界情報、または前記境界情報から決定された情報であって特徴ベクトルの各要素のうち差分符号化する要素のインデックスを示す差分符号化インデックスのいずれか一方と、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を符号化した第1の特徴量符号列と、前記第1または第2の映像から検知された前記ピクチャ内の境界を示す境界情報を用いて定められた前記第1または第2の映像のピクチャ内の境界で定まる位置より内側の領域内から抽出された第1または第2の映像の第2の特徴量を符号化した第2の特徴量符号列、および、前記第2の特徴量から、前記第1または第2の映像のフレームまたはフィールドであるピクチャ毎に抽出された第1または第2の映像の第1の特徴量を差し引いた特徴量差分値を符号化した特徴列差分符号列のうち、前記差分符号化インデックス情報で指定されないインデックスの要素については前記第2の特徴量符号列を含み、前記差分符号化インデックス情報で指定されたインデックスの要素については符号量の小さい方を含む第3の特徴量符号列と、前記差分符号化インデックス情報で指定されたインデックスの要素について前記第2の特徴量符号列または前記特徴列差分符号列のうちのいずれを含むかを示すモード情報とを出力し、
    前記境界情報を出力する場合には、前記境界情報から特徴ベクトルの各要素のうち、差分符号化する要素のインデックスを決定し、前記差分符号化インデックス情報として出力し、
    前記第1の特徴量符号列を復号して、前記第1または第2の映像の前記第1の特徴量を復元し、
    前記第3の特徴量符号列を入力し、その出力先を、前記差分符号化インデックス情報および前記モード情報に基づいて切り替え、
    前記出力される前記第3の特徴量符号列を復号し、前記特徴量差分値を復元し、
    前記出力される前記第3の特徴量符号列を復号して、前記第2の特徴量を復元し、
    前記特徴量差分値に前記第1の特徴量を加算して、前記第2の特徴量を算出し、
    前記第3の特徴量符号列を復号して復元した前記第2の特徴量と、前記特徴量差分値に前記第1の特徴量を加算して算出した前記第2の特徴量とを、前記差分インデックス情報と前記モード情報とによって切り替えながら合成し、前記第1または第2の映像の前記第2の特徴量を出力する
    ことを特徴とする請求項34に記載の動画像照合方法。
  41. 前記第3の特徴量符号列の復号による前記特徴量差分値の復元では、前記境界情報に基づいて前記特徴量差分値符号列を復号し、特徴量差分値を復元する
    ことを特徴とする請求項39または40に記載の動画像照合方法。
JP2010547432A 2009-01-23 2010-01-20 映像記述子生成装置 Expired - Fee Related JP4883226B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010547432A JP4883226B2 (ja) 2009-01-23 2010-01-20 映像記述子生成装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009012812 2009-01-23
JP2009012812 2009-01-23
PCT/JP2010/000276 WO2010084737A1 (ja) 2009-01-23 2010-01-20 映像記述子生成装置
JP2010547432A JP4883226B2 (ja) 2009-01-23 2010-01-20 映像記述子生成装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011262738A Division JP2012084164A (ja) 2009-01-23 2011-11-30 映像記述子生成装置

Publications (2)

Publication Number Publication Date
JP4883226B2 true JP4883226B2 (ja) 2012-02-22
JPWO2010084737A1 JPWO2010084737A1 (ja) 2012-07-12

Family

ID=42355795

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010547432A Expired - Fee Related JP4883226B2 (ja) 2009-01-23 2010-01-20 映像記述子生成装置
JP2011262738A Pending JP2012084164A (ja) 2009-01-23 2011-11-30 映像記述子生成装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011262738A Pending JP2012084164A (ja) 2009-01-23 2011-11-30 映像記述子生成装置

Country Status (6)

Country Link
US (1) US9367616B2 (ja)
EP (2) EP2434416B1 (ja)
JP (2) JP4883226B2 (ja)
KR (1) KR101289928B1 (ja)
CN (2) CN104537127B (ja)
WO (1) WO2010084737A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104537127B (zh) 2009-01-23 2018-04-10 日本电气株式会社 视频描述符生成装置
US9258564B2 (en) * 2012-02-07 2016-02-09 Stmicroelectronics S.R.L. Visual search system architectures based on compressed or compact feature descriptors
CN108197631B (zh) * 2012-07-23 2022-06-28 苹果公司 提供图像特征描述符的方法
CN104142939B (zh) * 2013-05-07 2019-07-02 杭州智棱科技有限公司 一种基于运动特征信息匹配特征码的方法与设备
CN104144520A (zh) 2013-05-07 2014-11-12 李东舸 一种设备间建立连接的方法、装置与系统
EP3092796B1 (en) * 2014-01-07 2020-06-17 Canon Kabushiki Kaisha Method, device, and computer program for encoding inter-layer dependencies
WO2015171815A1 (en) * 2014-05-06 2015-11-12 Nant Holdings Ip, Llc Image-based feature detection using edge vectors
US9544621B2 (en) 2014-09-17 2017-01-10 Google Inc. Identification of captured videos
US10095786B2 (en) * 2015-04-09 2018-10-09 Oath Inc. Topical based media content summarization system and method
JP6409792B2 (ja) * 2016-02-10 2018-10-24 三菱電機株式会社 画像特徴記述子符号化装置、画像特徴記述子復号装置、画像特徴記述子符号化方法及び画像特徴記述子復号方法
CN106028158B (zh) * 2016-05-26 2019-04-16 成都掌中全景信息技术有限公司 一种基于多视频源的进度识别方法
JP6530002B2 (ja) * 2017-04-12 2019-06-12 日本電信電話株式会社 コンテンツ探索装置、コンテンツ探索方法、プログラム
CN108876813B (zh) * 2017-11-01 2021-01-26 北京旷视科技有限公司 用于视频中物体检测的图像处理方法、装置及设备
CN110758354B (zh) * 2019-10-16 2020-07-17 安徽诺乐知识产权服务有限公司 基于大数据采集的车辆紧急制动执行系统
US11263261B2 (en) * 2020-02-14 2022-03-01 Alibaba Group Holding Limited Method and system for characteristic-based video processing
CN113810695A (zh) * 2020-06-15 2021-12-17 中国电信股份有限公司 视频编码方法、装置及计算机可读存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003122758A (ja) * 2001-10-11 2003-04-25 Canon Inc 画像検索方法及び装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3780623B2 (ja) 1997-05-16 2006-05-31 株式会社日立製作所 動画像の記述方法
JP2002117037A (ja) * 2000-10-06 2002-04-19 Nec Corp 画像検索装置、並びに画像検索方法及びこれが書き込まれた記録媒体
JP2003319177A (ja) * 2002-04-22 2003-11-07 Canon Inc 量子化処理装置及び方法とそれを用いたインクジェット記録装置
US7321623B2 (en) * 2002-10-01 2008-01-22 Avocent Corporation Video compression system
JP3793142B2 (ja) 2002-11-15 2006-07-05 株式会社東芝 動画像加工方法及び装置
US7657126B2 (en) * 2005-05-09 2010-02-02 Like.Com System and method for search portions of objects in images and features thereof
JP4920928B2 (ja) * 2005-08-08 2012-04-18 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
WO2007091243A2 (en) * 2006-02-07 2007-08-16 Mobixell Networks Ltd. Matching of modified visual and audio media
WO2007148264A1 (en) * 2006-06-20 2007-12-27 Koninklijke Philips Electronics N.V. Generating fingerprints of video signals
US8676810B2 (en) * 2006-07-31 2014-03-18 Ricoh Co., Ltd. Multiple index mixed media reality recognition using unequal priority indexes
WO2008018398A1 (fr) * 2006-08-10 2008-02-14 Nec Corporation dispositif d'extraction de région d'objet
JP5060565B2 (ja) * 2006-11-30 2012-10-31 ドルビー ラボラトリーズ ライセンシング コーポレイション 信号の信頼できる識別をするためのビデオ及びオーディオ信号内容の特徴の抽出
JP2009012812A (ja) 2007-07-05 2009-01-22 Sekisui Film Kk 合成樹脂フィルム
US8498487B2 (en) * 2008-08-20 2013-07-30 Sri International Content-based matching of videos using local spatio-temporal fingerprints
CN104537127B (zh) 2009-01-23 2018-04-10 日本电气株式会社 视频描述符生成装置
US8260055B2 (en) * 2009-03-27 2012-09-04 The Nielsen Company (Us), Llc Methods and apparatus for identifying primary media content in a post-production media content presentation

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003122758A (ja) * 2001-10-11 2003-04-25 Canon Inc 画像検索方法及び装置

Also Published As

Publication number Publication date
US9367616B2 (en) 2016-06-14
KR101289928B1 (ko) 2013-07-25
US20110274355A1 (en) 2011-11-10
EP2434416A3 (en) 2012-08-29
CN102292979A (zh) 2011-12-21
JPWO2010084737A1 (ja) 2012-07-12
CN104537127A (zh) 2015-04-22
EP2434416B1 (en) 2018-08-15
JP2012084164A (ja) 2012-04-26
CN102292979B (zh) 2015-02-04
EP2391122A4 (en) 2012-09-05
KR20110106414A (ko) 2011-09-28
CN104537127B (zh) 2018-04-10
EP2434416A2 (en) 2012-03-28
WO2010084737A1 (ja) 2010-07-29
EP2391122A1 (en) 2011-11-30

Similar Documents

Publication Publication Date Title
JP4883226B2 (ja) 映像記述子生成装置
JP4725690B2 (ja) 映像識別子抽出装置
CN102187672B (zh) 压缩视频中的语法元素的兼容cabac/avc的水印加注
JP4301193B2 (ja) 画像比較装置及び方法、画像検索装置及び方法、並びにプログラム及び記録媒体
JP4687834B2 (ja) 映像記述子生成装置
TW201304554A (zh) 影像編碼方法、影像解碼方法、影像編碼裝置、影像解碼裝置、影像編碼程式及影像解碼程式
KR20140058643A (ko) 강건한 낮은 복잡도 비디오 핑거프린팅을 위한 장치 및 방법
US10445613B2 (en) Method, apparatus, and computer readable device for encoding and decoding of images using pairs of descriptors and orientation histograms representing their respective points of interest
JP5644505B2 (ja) 照合加重情報抽出装置
CN111654706B (zh) 一种视频压缩方法、装置、设备及介质
KR20070025853A (ko) 이진 영상 압축 장치 및 방법
Lin et al. Adaptive lossless compression of skeleton sequences
Zhou et al. Saliency Detection With Features From Compressed HEVC
Yu et al. RGB-D video content identification
JP2015041796A (ja) 画像処理方法、画像処理装置、画像処理プログラム、およびデータ構造
JP2005175943A (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び記録媒体
JP2007243512A (ja) 画像処理装置および画像処理プログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4883226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees