JPH09293139A - ビデオ管理方法及び装置 - Google Patents

ビデオ管理方法及び装置

Info

Publication number
JPH09293139A
JPH09293139A JP8106508A JP10650896A JPH09293139A JP H09293139 A JPH09293139 A JP H09293139A JP 8106508 A JP8106508 A JP 8106508A JP 10650896 A JP10650896 A JP 10650896A JP H09293139 A JPH09293139 A JP H09293139A
Authority
JP
Japan
Prior art keywords
image
feature
video
unit
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8106508A
Other languages
English (en)
Inventor
Akito Akutsu
明人 阿久津
Hiroshi Hamada
洋 浜田
Yukinobu Taniguchi
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP8106508A priority Critical patent/JPH09293139A/ja
Publication of JPH09293139A publication Critical patent/JPH09293139A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 一般性を有しコンテントを反映した特徴量に
よる深い階層構造に映像を自動的に構造化することがで
き、多彩なユーザの目的に適うユーザインタフェースを
有するビデオ管理方法及び装置を提供する。 【解決手段】 ビデオ信号入力部101から入力されて
画像データ列メモリ部102に保存された画像フレーム
を読み出し、その各々の画像の持つ物理的特徴、すなわ
ち一般性を有しコンテントを反映した特徴を、画像特徴
抽出部103にて抽出する。次に、これらの物理的特徴
から各々の画像を特徴付ける特徴ベクトルを特徴ベクト
ル生成部104にて生成する。次に、その特徴ベクトル
間での距離を算出して特徴ベクトルを分割・統合部10
5にて分割・統合して、特徴ベクトル管理部106にて
管理する。この管理された特徴ベクトルとユーザのイベ
ント入力に基づいて、ビデオを表示するユーザインタフ
ェース部107を備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ビデオを蓄積、管
理およびアクセスする技術に関するものであり、特にビ
デオの管理およびアクセス方法および装置に関する。
【0002】
【従来の技術】コンピュータの高性能化、ハードディス
クの大容量化とこれらの低価格化に伴い、コンピュータ
の一般家庭への普及が進んでいる。この普及により映像
のデジタル化が身近なものとなってきている。また、コ
ンピュータがネットワークに接続され、デジタル映像の
流通が可能となるインフラが整備されつつある。このよ
うな時代背景のもと、映像の蓄積、流通、鑑賞のスタイ
ルも変革することへの要請が強くなってきた。従来の映
像に対してユーザは与えられるままに見るだけであった
が、このような時代においてユーザは、自分なりの見
方、例えば、好きな場面だけを見る、要約してみる。こ
の場面は子どもに見せたくない等、映像に対して多彩な
アクセス方法への要求が潜在的に存在する。当然このよ
うなアクセスに関する要求に答えるためには、映像それ
自身のデジタル表現、管理方法等背後に隠れた技術が新
しいユーザインタフェースに加えて必要である。
【0003】この必要性から従来、幾つかの報告がなさ
れてきた。従来の報告は、映像の構造化を目指したもの
であり、構造化された映像をユーザにとって扱い易いよ
うに表現するユーザインタフェースの構築を目指したも
のである。
【0004】映像の構造化を目指した報告として、柴田
〔“映像の内容記述モデルとその映像構造化への応
用”、信学論、Vol.78−D−II、No.5,p
p.754−764(1995)〕は、放送用の映像を
対象にスクリプタが付けたアノテーションを人手で入力
し、映像に特徴量を付加することを提案し、便宜的に特
徴量空間をユークリット空間と考え、その中で距離を定
義して類似度を計算することでショットのクラスタリン
グを行っている。ショットをクラスタリングすることで
階層構造を定義し、映像の構造化を行っている。
【0005】また、上田他〔“IMPACT:An I
nteractive Natural−Motion
−Picture Dedicated Multim
edia Authoring System”、Pr
oceeding of CHI’91、pp.343
−350(1991)〕は、映像を計算機で自動処理し
得られる物理的特徴を抽出し、抽出された特徴を場合に
よっては内容知識と照合すると共に特徴あるいは知識を
映像ヘインデクシング、構造化を行っている。
【0006】映像への新しいユーザインタフェースとし
て、M.Mill他の〔“A Magnifier T
ool for Video Data”、Proce
eding of CHI’92、pp.93−98
(1992)〕は、映像のフレームを時間解像度レベル
に応じて空間に配置し、粗い時間解像度から細かい時間
解像度へと時間への新しいアクセススタイルを可能にし
た報告をしている。
【0007】
【発明が解決しようとする課題】しかしながら、上記従
来の技術における報告等では、解決していない課題が存
在する。
【0008】柴田の報告では、放送局の映像を対象と
し、映像の使われ方等の制限を付け仮定し、人手を介し
て、映像に意味的な特徴量を付加することを行い構造化
している。今後ますます増大するであろう一般家庭等の
映像を与えた場合、柴田の仮定は成り立たず、人手を介
して特徴量を付けることもナンセンスである。まず、課
題として自動化による一般性のある特徴量の付加と構造
化の実現が課題である。
【0009】上田他の報告では、映像の持つ特徴として
物理的な特徴量を自動抽出し構造化することを提案して
いるが、上田他の目指す構造化は、放送、映画、フィル
ムの業界で用いられてきた映像の構造を基とするもので
ある。ここで、業界で用いられてきた映像の構造に関し
てG.Davenport他〔“CinematcPr
imitives for multimedia”、
IEEE Computer Graphics &
Applications、Vol.11、No.4、
pp67−75(1991)〕が報告している。映像の
最小単位をショットとし、複数のショットからなる映像
をシーンと考え、複数のシーンからストーリーは構成さ
れるという考えである。深く映像の意味に立ち入らない
でこの概念で構造化を行おうとすると階層がたかだか数
階層であり、多彩なアクセスを可能にする構造を実現し
ていないことが問題である。
【0010】また、M.Mill他の報告では、映像の
時間解像度に着目し、時間の連続による映像の階層構造
を利用してユーザインタフェースを構築している。深さ
のある連続な階層を実現しているが、物理的な特徴(時
間解像度)のみを用いた構造化であるために映像のコン
テントについて何も考慮されておらず、映像のコンテン
トに対して直感的にアクセスする事は困難である。
【0011】上記で述べたように今後の社会的要請に応
じて映像をデジタル化し、管理、アクセスする場合、映
像の構造化処理の自動化、一般性を有しコンテントを反
映した特徴量による深い階層をもつ構造化、及び多彩な
ユーザの目的に適うユーザインタフェース技術の必要性
がある。
【0012】従来報告されている映像の管理およびアク
セスに関する報告は、上記の必要性に答えるものではな
い。すなわち上記の技術には問題がある。
【0013】本発明の目的は、映像を一般性を有しコン
テントを反映した特徴量による深い階層構造に自動的に
構造化する技術と、多彩なユーザの目的に適うユーザイ
ンタフェース技術を具備するビデオ管理方法及び装置を
提供することである。
【0014】
【課題を解決するための手段】上記の目的を達成するた
め、本発明のビデオ管理装置は、ビデオデータを蓄積管
理する装置において、ビデオ信号を計算機に入力するビ
デオ信号入力部と、入力される該ビデオ信号のデータ列
を保存する画像データ列メモリ部と、該メモリ部から画
像フレームを読み出し該画像フレームの各々の画像に対
して物理的特徴を抽出する画像特徴抽出部と、該抽出さ
れた物理的特徴から各々の画像を特徴付ける特徴ベクト
ルを生成する特徴ベクトル生成部と、該特徴ベクトル間
での距離を算出し特徴ベクトルを分割・統合する分割・
統合部と、該分割・統合した該特徴ベクトルを管理する
特徴ベクトル管理部と、該管理された特徴ベクトルとユ
ーザからのイベント入力に基づいてビデオを表示しかつ
ユーザが該イベント入力を行うユーザインタフェース部
とを備えること、前記画像特徴抽出部は、前記メモリ部
から画像フレームを読み出しその画像データ列から含ま
れる動き情報を抽出する動き情報抽出部と、該画像フレ
ームの各々の画像から物理的特徴を算出する際に各々の
画像を空間的に領域分割する領域分割部と、該分割され
た各領域のもつ情報を色相、彩度、明度のいずれか又は
それらの組み合わせからなる情報に変換し、該変換され
た情報から領域全体のヒストグラム、テクスチャ特徴量
のいずれか又はそれらの組み合わせを算出する領域統計
特徴量算出部とを備えること、前記特徴ベクトル生成部
は、前記動き情報抽出部で抽出された動き情報と共に、
前記算出された画像の物理的特徴を該画像領域構成を考
慮して配置する物理的特徴配置部を備えること、前記分
割・統合部は、前記特徴ベクトルの類似度を算出する際
の条件を与える類似距離条件部と、該条件に基づいて該
特徴ベクトルの類似度を測定し類似距離行列の算出を行
う類似距離行列算出部と、距離が最小なクラスタ対を決
定し最小距離クラスタ対を結合する最小距離結合部と、
予め与えたクラスタの個数と結合されたクラスタの個数
とを比較・判断する結合対判断部とを備えること、前記
特徴ベクトル管理部は、クラスタリングされた特徴ベク
トルを代表する代表特徴ベクトルを算出する代表特徴ベ
クトル算出部と、該代表特徴ベクトルに符号を付与する
符号化部と、該代表特徴ベクトルと該符号との対応を表
わす表を作成する符号帳作成部とを備えること、前記ユ
ーザインタフェース部は、ユーザの入力に対して符号帳
内の符号と該入力を照合する符号照合部と、該照合によ
り一致した符号に相当するビデオまたは画像を表示する
表示部とを備えることを特徴とする。
【0015】また、同じく上記の目的を達成するため、
本発明のビデオ管理方法は、ビデオデータを蓄積管理す
る方法において、ビデオ信号を計算機に入力し、入力さ
れる該ビデオ信号のデータ列を画像データ列メモリ部に
保存し、該メモリ部から画像フレームを読み出して該画
像フレームの各々の画像に対して物理的特徴を抽出し、
該抽出された物理的特徴から各々の画像を特徴付ける特
徴ベクトルを生成し、該特徴ベクトル間での距離を算出
して特徴ベクトルを分割・統合し、該分割・統合した特
徴ベクトルを管理し、該管理された特徴ベクトルとユー
ザからのイベント入力に基づいてビデオの表示を行うこ
と、前記画像の物理的特徴を抽出する際に、前記メモリ
手段から画像フレームを読み出し、その画像データ列か
ら含まれる動き情報を抽出し、各々の画像から物理的特
徴を算出する際には該画像フレームの各々の画像を空間
的に領域分割し各領域のもつ情報を色相、彩度、明度の
いずれか又はそれらの組み合わせからなる情報に変換し
て該変換情報から領域全体のヒストグラム、テクスチャ
特徴量のいずれか又はそれらの組み合わせを算出するこ
と、前記特徴ベクトルを生成する際に、前記抽出された
動き情報と共に、算出された該画像の物理的特徴を該画
像領域構成を考慮して配置すること、前記特徴ベクトル
を分割・統合する際に、該特徴ベクトルの類似度を測定
して類似距離行列の算出を行い、距離が最小なクラスタ
対を決定して最小距離クラスタ対を結合し、予め与えた
クラスタの個数と結合されたクラスタの個数とを比較・
判断すること、前記分割・統合した特徴ベクトルを管理
する際に、クラスタリングされた特徴ベクトルを代表す
る代表特徴ベクトルを算出し、該代表特徴ベクトルに符
号を付与し、代表特徴ベクトルと符号との対応を表わす
表を作成すること、前記管理された特徴ベクトルとユー
ザからのイベント入力に基づいてビデオを表示する際
に、該ユーザの入力に対して前記表内の符号と該入力を
照合し、該照合により一致した符号に相当するビデオま
たは画像を表示することを特徴とする。
【0016】本発明では、上記のように、入力ビデオ信
号のデータ列を保存する画像データ列メモリ部から画像
フレームを読み出して、その各々の画像の持つ物理的特
徴、すなわち一般性を有しコンテントを反映した特徴を
抽出して、各々の画像を特徴付ける特徴ベクトルを生成
し、その特徴ベクトル間での距離を算出して特徴ベクト
ルを分割・統合することによって、自動的に映像を深い
階層構造に構造化して蓄積、管理し、ユーザがイベント
入力を行い、その入力と前記管理されている特徴ベクト
ルに基づいてビデオを表示することにより、ユーザのそ
れぞれの多彩な目的に応じたアクセススタイルのモード
を変化させることを可能とし、従来のアクセススタイル
に捕らわれない新しい映像のとの関わり合いや効率の良
い映像のハンドリングを実現する。
【0017】
【発明の実施の形態】以下、本発明の実施形態例を、図
面を参照して詳細に説明する。
【0018】図1に本発明のビデオ管理装置の一実施形
態例の構成図を示す。以下、この構成図に沿って各構成
部及び手法を説明する。
【0019】図1の101のビデオ信号入力部から入力
されたビデオ信号は、102の画像データ列メモリ部に
一時的に蓄積される。次に蓄積されたビデオ信号は、1
03の画像特徴抽出部において物理的な特徴量が抽出さ
れる。
【0020】画像特徴抽出部103では、まず、画像デ
ータ列メモリ部102から取り出された画像に対して、
領域分割部103aにおいて空間的な領域分割を行う。
この様子を図2に示す。分割する数は、予め与えた量と
する。図2の場合、24分割した例である。
【0021】次に分割された各ブロックから領域統計量
特徴量算出部103bで物理的特徴量を算出する。20
1が分割される画像フレームであり、202が分割され
たブロックである。201のフレームをF(X,Y)で
表し、202のブロックをsf(x,y)ijで表す。
i=0〜4、j=0〜6であり、i×j=24が分割数
である。それぞれのブロックに対して統計的特徴量を算
出する。この様子を図3に示す。各ブロックを色相
(H)、彩度(C)、明度(V)の情報へ変換する。一
般にF(X,Y)は、RGBの三次元の信号として値を
持っている。F(X,Y)は、F(X,Y)red、F
(X,Y)green、F(X,Y)blueと表せる。同様に
sf(x,y)ijも、sf(x,y)redij(3
01)、sf(x,y)greenij(302)、sf
(x,y)blueij(303)と表せる。RGBから
HCVへの変換は、宮原他〔“色データ(R,G,B)
←→(H,C,V)数学的変換方法”、テレビジョン学
会誌、Vol.43,No.10、pp.1129−1
136(1989)〕が報告している数学的なマンセル
空間への変換式を用いることで可能である。その他RG
BからYIQ等変換〔“カラーテレビ教科書(上)”、
日本放送協会編、日本放送出版社、1977〕が報告さ
れているこれらの変換式を用いることも可能である。変
換後の値をそれぞれsf(x,y)Hueij(30
4)、sf(x,y)Cromaij(305)、sf
(x,y)Valueij(306)で表す。このように
して色相(H)、彩度(C)、明度(V)へ変換された
ブロック毎のヒストグラム(307)、(308)、
(309)を算出する。また、テクスチャー特徴量を算
出するために(304)、(305)、(306)に対
して二次元フーリエ変換を施し、図4に示した空間周波
数(401)、(402)、(403)を算出する。
【0022】以上までの画像の空間的特徴に加えて、動
きに関する特徴量を次に算出する。動きの特徴として、
動き情報抽出部103cにおいて、隣接する画像から動
きベクトルを算出する。算出方法として、ブロックマッ
チング法〔M.Hoter.“Differentia
l estimation of the globa
l motion paramters zoom a
nd pan”、Signal Processin
g、Vol.16、No.3、pp.249−265
(1989)〕、勾配法等〔D.H.Ballard
and O.A.Kimball:“Rigid Bo
dy Motion from Depthand O
ptical Flow”、Computer Vis
ion,Graphics and Image Pr
ocessing,Vol.22、pp.95−115
(1983)〕を用いて、算出することが可能である
(図5)。図5中の501と502は隣接する画像フレ
ームであり、503が算出される動きベクトルである。
前記した領域分割との互換性からブロックマッチング法
を用いて動きベクトルをブロック毎(領域毎)に算出し
た例である。
【0023】次に、図1の104の特徴ベクトル生成部
において、103の画像特徴抽出部で算出した特徴量か
ら特徴ベクトルの生成を行う。この様子を図6に示す。
103の画像特徴抽出部で算出された特徴量(ヒストグ
ラム)から特徴ベクトルを構成する要素を生成する。3
07のヒストグラムを例に生成の様子を説明する。予め
与えた個数(図6(a)の場合では4)でヒストグラム
を分割する(601)。分割された範囲で値の平均値を
計算し、その範囲の値とする。それぞれの範囲で計算さ
れた値を602で示した様に物理的特徴統合配置部10
4aで配置し、ベクトルを作成する。ベクトル602を
HISTHueij(k)、k=0〜3で表す。色相のヒ
ストグラムと同様の方法で、彩度、明度に関してそれぞ
れベクトルを算出する。彩度のベクトルをHIST
cromaij(k)、k=0〜3、明度のベクトルをHI
STValueij(k)、k=0〜3で表す。
【0024】また、図4に示した、テクスチャーに関す
る特徴量についてもベクトル化を行う。401の空間周
波数分布を603に示す様に分割化を行う。603の場
合、4分割である。分割された領域毎に平均値、又は最
大値、分散等の値を算出し、その領域の値とする。それ
ぞれの値を604の様に物理的特徴統合配置部104a
で配置し、ベクトルとする。テクスチャーに関するベク
トルは、FREQHueij(k,l)、FREQcroma
ij(k,l)、FREQvalueij(k,l)とそれぞ
れ表す。また、動き情報は、各ブロック毎に動き変化量
(u,v)ijが算出されている。
【0025】これらのベクトルから特徴ベクトル{HI
STHueij(k)、HISTcromaij(k)、HIS
Valueij(k)、FREQHueij(k,l)、FR
EQcromaij(k,l)、FREQvalueij(k,
l)、u,v}を算出する。
【0026】次に、105の分割・統合部において、特
徴ベクトルのクラスタリングを行う。この処理の流れを
図7に示す。図中、701〜707はステップを表す。
特徴ベクトルクラスタリングの様子を流れに沿って説明
する。
【0027】701においてまず、類似距離の条件を、
類似距離条件部105aから入力する。ここで与える条
件は、画像の類似度算出する際、類似度に大きく寄与す
る特徴を決定する。画像の特徴として、色、テクスチ
ャ、構図、動き等があるがこれらの類似度算出における
寄与度を701で入力する。例えば、色:テクスチャ:
構図:動き:時間=10:5:3:1:6の様に入力す
る。構図に関しては、特徴ベクトルの値によらずその構
成が等しいときに構造は等しいとする。例えば、特徴ベ
クトル{3,3,4,4}と特徴ベクトル{10,1
0,1,1}は構図は等しいが、色等は異なるとする。
時間は、対象としている画像はビデオのフレームであ
り、時間的にシーケンシャルなものである。時間的に連
続する画像は、それ自身類似している。この拘束条件を
コントロールすることを目的として類似度の時間寄与度
を導入する。時間の寄与度が小さい場合、隣接する画像
フレームの拘束は無く、一枚一枚の静止画像の集まりと
して考える。
【0028】次に、702において最終的なクラスタの
数を入力していく。以下、703において、類似距離行
列算出部105bで類似距離を算出し、704におい
て、最小距離結合部105cで最小距離のクラスタ対を
発見し、705において、同じく最小距離結合部105
cでそれらを融合し、706において、再び類似距離行
列算出部105bで融合後の新しい類似距離を算出す
る。算出後、クラスタ数が、702で与えた最終クラス
タ数と一致するかどうかを結合対判断部105dで判断
し、一致すればクラスタリング処理を完了し、そうでな
ければ、704へ戻り処理を繰り返す。
【0029】以上の一連のクラスタリングの各階段での
類似距離の計算では、最初に全ての特徴ベクトル間の類
似距離を算出しておけば、後のクラスタと特徴ベクトル
間、及びクラスタ間の類似距離は漸化式によって計算で
きる。これをここで説明する。クラスタi(特徴ベクト
ル数ni)とクラスタj(特徴ベクトル数nj)を融合し
て新クラスタk(特徴ベクトル数nk)を作ったとす
る。
【0030】nk=ni+nj、 このときクラスタkに含まれない特徴ベクトルあるいは
クラスタをhとして、融合前の各クラスタ間の距離をそ
れぞれdhi,dhj,dijとすれば、kとhの距離dhk
次式で与えられる。
【0031】 dhk=αihi+αjhj+βdji+γ|dhi−dhj|、 あるいは、 d2 hk=αi2 hi+αj2 hj+βd2 ji+γ|d2 hi−d2
hj|、 ここでαi,αj,β,γは類似距離の定義によって決ま
る定数であり、前記した寄与度から算出するものであ
る。従来報告されている距離も本発明で用いることは可
能である。
【0032】ここで幾つか従来報告されている距離を説
明する。
【0033】1)最短距離法 クラスタkとhに含まれる最短距離にある特徴ベクトル
間の距離dhkと定義する方法がある。
【0034】αi=αj=1/2,β=0,γ=−1/
2,dhk=max[dhi,dhj] 2)最長距離法 クラスタkとhに含まれる最長距離にある特徴ベクトル
間の距離dhkと定義する方法である。
【0035】αi=αj=1/2,β=0,γ=1/2,
hk=max[dhi,dhj] 3)メディアン法 dhkをdhiとdhjの中間値に設定する方法である。
【0036】αi=αj=1/2,β=−1/4,γ=
0,dhk=max[dhi,dhj] 4)重心法 クラスタ間の距離をクラスタの重心間距離で定義するも
のである。
【0037】αi=ni/nk,αj=nj/nk,β=−n
ij/n2 k,γ=0,dhk=max[dhi,dhj] 5)群平均法 クラスタ間の距離をその2つのクラスタに含まれる全て
の特徴ベクトル間の距離の2乗平均で定義するものであ
る。
【0038】αi=ni/nk,αj=nj/nk,β=0,
γ=0,dhk=max[dhi,dhj] 上記説明した距離も類似距離として用い、特徴ベクトル
のクラスタリングを上記説明した一連の流れによって行
う。
【0039】次に、図1の106の特徴ベクトル管理部
において、クラスタリングされた特徴ベクトルの代表特
徴ベクトルを代表特徴ベクトル算出部106aで算出
し、算出された各々の代表特徴ベクトルを構造的に管理
する。クラスタリングされた各クラスタの重心、平均、
最長、最短等を算出し、代表特徴ベクトルとする。代表
特徴ベクトルを管理する構造の作成を図8を用いて説明
する。クラスタリング前を801とする。801を2つ
にクラスタリング(802と803)し、代表特徴ベク
トルをH0,H1とする。同様にクラスタリングされたク
ラスタに対して2つに分割し、それぞれ代表特徴ベクト
ルを算出する。分割されたクラスタは、図8に示すよう
に階層構造を有し、それぞれの階層において代表特徴ベ
クトルが算出されている。106bの符号部においてH
0等の符号が代表特徴ベクトルに対して付けされ、符号
と代表特徴ベクトルの対応表を106cの符号帳作成部
において作成する。上記の説明は、クラスタを分割する
方向で階層を作成するアプローチであるが、逆にクラス
タを統合する方向で階層を作成するアプローチも可能で
ある。
【0040】最後に図1の107のユーザインタフェー
ス部について説明する。図9にユーザインタフェースの
例(901)を示す。ユーザインタフェースは図1の入
力部107aと表示部107bからなる。入力部107
aでは、まず、905から管理・アクセスするファイル
名を入力する。入力として外部AV機器からの入力も可
能である。また、904からクラスタリングする際の寄
与度の入力を行う。ここ入力された値は、分割・統合部
105の類似距離行列算出部105bへ反映される。9
07から算出された符号帳の保存、読み込みを可能とす
る。符号帳作成もしくは読み込み後、粒度のスクロール
バー902からユーザは、それぞれの多彩な目的に応じ
たアクセススタイルのモードを変化させる。ユーザの粒
度の入力に応じて、図1の符号照合部107cでは、入
力に応じた符号を符号帳から検索し、表示部107bへ
対応する画像の情報を送る。表示部107bでは、送ら
れた情報を基づいて3次元等階層的な表示を行う。ま
た、表示された画像903に対して、マウス等で選択す
ることにより、906のモニタで対応する位置からビデ
オの再生を行うことも可能にしている。これは、表示部
107bへ送られる情報中に再生位置情報等の様々な情
報が含まれていることから可能にしている。
【0041】次に、本発明のビデオ管理方法の一実施形
態例を示す。図10は、それを示すフローチャートであ
る。図中、901〜909はステップを表す。
【0042】まず、901において、計算機に入力され
保存されているビデオ信号の画像フレームのデータ列を
画像データ列メモリ部から読み出して入力する。次に、
902において、該画像フレームの各々の画像に対して
領域分割を行い、物理的特徴を抽出する。また、903
においては、画像フレームからそれに含まれる動き情報
を物理的特徴として算出する。次に、904において、
これらの物理的特徴から各々の画像を特徴付ける特徴ベ
クトルを生成する。次に、905において、該特徴ベク
トル間での距離を算出して特徴ベクトルを分割・統合す
る。次に、906において、該分割・統合した特徴ベク
トルを管理する。次に、907において、該管理された
特徴ベクトルとユーザからのイベント入力に基づいてビ
デオの表示を行い、908において、終了を判断し継続
であれば、909において、ユーザのイベント入力を受
けて、同様に907におけるビデオの表示を行う。
【0043】以上、本発明の実施形態例に基づき具体的
に説明したが、本発明は、前記実施形態例に限定される
ものではなく、その要旨を逸脱しない範囲において種々
の変更が可能であることは言うまでもない。
【0044】
【発明の効果】以上説明したように本発明によれば、自
動的に映像を構造化し、蓄積すること、ユーザのそれぞ
れの多彩な目的に応じたアクセススタイルのモードを変
化させることが可能となり、従来のアクセススタイルに
捕らわれない新しい映像のとの関わり合いや効率の良い
映像のハンドリングが実現できる。
【図面の簡単な説明】
【図1】本発明のビデオ管理装置の一実施形態例を示す
構成図
【図2】上記実施形態例における画像の領域分割の例を
示す図
【図3】(a),(b)は上記実施形態例における領域
物理特徴の抽出(色味:ヒストグラム)の様子を説明す
る図
【図4】上記実施形態例における領域物理特徴の抽出
(テクスチャー:空間周波数)の様子を説明する図
【図5】上記実施形態例における領域物理特徴の抽出
(動き情報:動きベクトル)の様子を説明する図
【図6】(a),(b)は上記実施形態例における特徴
のベクトル化の様子を説明する図
【図7】上記実施形態例における分割・統合部における
処理の流れを示すフローチャート
【図8】上記実施形態例における代表特徴ベクトルの階
層構造化の様子を説明する図
【図9】上記実施形態例におけるユーザインタフェース
の例を示す図
【図10】本発明のビデオ管理方法の一実施形態例を示
すフローチャート
【符号の説明】
101…ビデオ信号入力部 102…画像データ列メモリ部 103…画像特徴抽出部 104…特徴ベクトル生成部 105…分割・統合部 106…特徴ベクトル管理部 107…ユーザインタフェース部

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 ビデオデータを蓄積管理する装置におい
    て、 ビデオ信号を計算機に入力するビデオ信号入力部と、入
    力される該ビデオ信号のデータ列を保存する画像データ
    列メモリ部と、該メモリ部から画像フレームを読み出し
    該画像フレームの各々の画像に対して物理的特徴を抽出
    する画像特徴抽出部と、該抽出された物理的特徴から各
    々の画像を特徴付ける特徴ベクトルを生成する特徴ベク
    トル生成部と、該特徴ベクトル間での距離を算出し特徴
    ベクトルを分割・統合する分割・統合部と、該分割・統
    合した該特徴ベクトルを管理する特徴ベクトル管理部
    と、該管理された特徴ベクトルとユーザからのイベント
    入力に基づいてビデオを表示しかつユーザが該イベント
    入力を行うユーザインタフェース部とを備えることを特
    徴とするビデオ管理装置。
  2. 【請求項2】 前記画像特徴抽出部は、前記メモリ部か
    ら画像フレームを読み出しその画像データ列から含まれ
    る動き情報を抽出する動き情報抽出部と、該画像フレー
    ムの各々の画像から物理的特徴を算出する際に各々の画
    像を空間的に領域分割する領域分割部と、該分割された
    各領域のもつ情報を色相、彩度、明度のいずれか又はそ
    れらの組み合わせからなる情報に変換し、該変換された
    情報から領域全体のヒストグラム、テクスチャ特徴量の
    いずれか又はそれらの組み合わせを算出する領域統計特
    徴量算出部とを備えることを特徴とする請求項1に記載
    のビデオ管理装置。
  3. 【請求項3】 前記特徴ベクトル生成部は、前記動き情
    報抽出部で抽出された動き情報と共に、前記算出された
    画像の物理的特徴を該画像領域構成を考慮して配置する
    物理的特徴配置部を備えることを特徴とする請求項2に
    記載のビデオ管理装置。
  4. 【請求項4】 前記分割・統合部は、前記特徴ベクトル
    の類似度を算出する際の条件を与える類似距離条件部
    と、該条件に基づいて該特徴ベクトルの類似度を測定し
    類似距離行列の算出を行う類似距離行列算出部と、距離
    が最小なクラスタ対を決定し最小距離クラスタ対を結合
    する最小距離結合部と、予め与えたクラスタの個数と結
    合されたクラスタの個数とを比較・判断する結合対判断
    部とを備えることを特徴とする請求項1、請求項2、請
    求項3のいずれかに記載のビデオ管理装置。
  5. 【請求項5】 前記特徴ベクトル管理部は、クラスタリ
    ングされた特徴ベクトルを代表する代表特徴ベクトルを
    算出する代表特徴ベクトル算出部と、該代表特徴ベクト
    ルに符号を付与する符号化部と、該代表特徴ベクトルと
    該符号との対応を表わす表を作成する符号帳作成部とを
    備えることを特徴とする請求項4に記載のビデオ管理装
    置。
  6. 【請求項6】 前記ユーザインタフェース部は、ユーザ
    の入力に対して符号帳内の符号と該入力を照合する符号
    照合部と、該照合により一致した符号に相当するビデオ
    または画像を表示する表示部とを備えることを特徴とす
    る請求項5に記載のビデオ管理装置。
  7. 【請求項7】 ビデオデータを蓄積管理する方法におい
    て、 ビデオ信号を計算機に入力し、入力される該ビデオ信号
    のデータ列を画像データ列メモリ部に保存し、該メモリ
    部から画像フレームを読み出して該画像フレームの各々
    の画像に対して物理的特徴を抽出し、該抽出された物理
    的特徴から各々の画像を特徴付ける特徴ベクトルを生成
    し、該特徴ベクトル間での距離を算出して特徴ベクトル
    を分割・統合し、該分割・統合した特徴ベクトルを管理
    し、該管理された特徴ベクトルとユーザからのイベント
    入力に基づいてビデオの表示を行うことを特徴とするビ
    デオ管理方法。
  8. 【請求項8】 前記画像の物理的特徴を抽出する際に、
    前記メモリ手段から画像フレームを読み出し、その画像
    データ列から含まれる動き情報を抽出し、各々の画像か
    ら物理的特徴を算出する際には該画像フレームの各々の
    画像を空間的に領域分割し各領域のもつ情報を色相、彩
    度、明度のいずれか又はそれらの組み合わせからなる情
    報に変換して該変換情報から領域全体のヒストグラム、
    テクスチャ特徴量のいずれか又はそれらの組み合わせを
    算出することを特徴とする請求項7に記載のビデオ管理
    方法。
  9. 【請求項9】 前記特徴ベクトルを生成する際に、前記
    抽出された動き情報と共に、算出された該画像の物理的
    特徴を該画像領域構成を考慮して配置することを特徴と
    する請求項8に記載のビデオ管理方法。
  10. 【請求項10】 前記特徴ベクトルを分割・統合する際
    に、該特徴ベクトルの類似度を測定して類似距離行列の
    算出を行い、距離が最小なクラスタ対を決定して最小距
    離クラスタ対を結合し、予め与えたクラスタの個数と結
    合されたクラスタの個数とを比較・判断することを特徴
    とする請求項7、請求項8、請求項9のいずれかに記載
    のビデオ管理方法。
  11. 【請求項11】 前記分割・統合した特徴ベクトルを管
    理する際に、クラスタリングされた特徴ベクトルを代表
    する代表特徴ベクトルを算出し、該代表特徴ベクトルに
    符号を付与し、代表特徴ベクトルと符号との対応を表わ
    す表を作成することを特徴とする請求項7、請求項8、
    請求項9、請求項10のいずれかに記載のビデオ管理方
    法。
  12. 【請求項12】 前記管理された特徴ベクトルとユーザ
    からのイベント入力に基づいてビデオを表示する際に、
    該ユーザの入力に対して前記表内の符号と該入力を照合
    し、該照合により一致した符号に相当するビデオまたは
    画像を表示することを特徴とする請求項7、請求項8、
    請求項9、請求項10、請求項11のいずれかに記載の
    ビデオ管理方法。
JP8106508A 1996-04-26 1996-04-26 ビデオ管理方法及び装置 Pending JPH09293139A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8106508A JPH09293139A (ja) 1996-04-26 1996-04-26 ビデオ管理方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8106508A JPH09293139A (ja) 1996-04-26 1996-04-26 ビデオ管理方法及び装置

Publications (1)

Publication Number Publication Date
JPH09293139A true JPH09293139A (ja) 1997-11-11

Family

ID=14435378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8106508A Pending JPH09293139A (ja) 1996-04-26 1996-04-26 ビデオ管理方法及び装置

Country Status (1)

Country Link
JP (1) JPH09293139A (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02181879A (ja) * 1989-01-06 1990-07-16 Matsushita Electric Ind Co Ltd 画像特徴抽出装置
JPH0537397A (ja) * 1991-07-29 1993-02-12 Nippon Telegr & Teleph Corp <Ntt> ベクトル量子化器の符号帳設計方法
JPH05108730A (ja) * 1991-08-29 1993-04-30 Internatl Business Mach Corp <Ibm> 動画像データベースの検索
JPH05298452A (ja) * 1992-04-20 1993-11-12 Mitsubishi Heavy Ind Ltd パターン認識装置
JPH06251147A (ja) * 1993-02-23 1994-09-09 Nippon Telegr & Teleph Corp <Ntt> 映像特徴処理方法
JPH0738842A (ja) * 1993-06-29 1995-02-07 Toshiba Corp 動画編集装置
JPH0746582A (ja) * 1993-07-28 1995-02-14 Nippon Telegr & Teleph Corp <Ntt> 映像切り出し方法
JPH07271987A (ja) * 1994-03-31 1995-10-20 Sharp Corp 代表特徴量抽出方法及び代表特徴量抽出装置
JPH0863601A (ja) * 1994-08-22 1996-03-08 Nec Corp 領域分割方法および装置
JPH09294277A (ja) * 1996-04-26 1997-11-11 Nippon Telegr & Teleph Corp <Ntt> 予測符号化画像データ管理方法及び装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02181879A (ja) * 1989-01-06 1990-07-16 Matsushita Electric Ind Co Ltd 画像特徴抽出装置
JPH0537397A (ja) * 1991-07-29 1993-02-12 Nippon Telegr & Teleph Corp <Ntt> ベクトル量子化器の符号帳設計方法
JPH05108730A (ja) * 1991-08-29 1993-04-30 Internatl Business Mach Corp <Ibm> 動画像データベースの検索
JPH05298452A (ja) * 1992-04-20 1993-11-12 Mitsubishi Heavy Ind Ltd パターン認識装置
JPH06251147A (ja) * 1993-02-23 1994-09-09 Nippon Telegr & Teleph Corp <Ntt> 映像特徴処理方法
JPH0738842A (ja) * 1993-06-29 1995-02-07 Toshiba Corp 動画編集装置
JPH0746582A (ja) * 1993-07-28 1995-02-14 Nippon Telegr & Teleph Corp <Ntt> 映像切り出し方法
JPH07271987A (ja) * 1994-03-31 1995-10-20 Sharp Corp 代表特徴量抽出方法及び代表特徴量抽出装置
JPH0863601A (ja) * 1994-08-22 1996-03-08 Nec Corp 領域分割方法および装置
JPH09294277A (ja) * 1996-04-26 1997-11-11 Nippon Telegr & Teleph Corp <Ntt> 予測符号化画像データ管理方法及び装置

Similar Documents

Publication Publication Date Title
CN112565825B (zh) 一种视频数据处理方法、装置、设备以及介质
CN100501742C (zh) 表示图像组的方法和装置
US7302117B2 (en) Method of image feature coding and method of image search
KR100547370B1 (ko) 객체 형상 정보를 이용한 요약영상 추출 장치 및 그방법과 그를 이용한 동영상 요약 및 색인 시스템
EP2043047A2 (en) Image display apparatus and computer program product
US20120287233A1 (en) Personalizing 3dtv viewing experience
JP2001503895A (ja) ビデオ情報を効果的に表示、保存、およびアクセスするための方法および装置
US20100057722A1 (en) Image processing apparatus, method, and computer program product
KR20030036747A (ko) 원래 영상에 사용자 영상을 수퍼임포징하는 방법 및 장치
JP2001155169A (ja) ビデオ画像の分割、分類、および要約のための方法およびシステム
Turban et al. Extrafoveal video extension for an immersive viewing experience
CN102455906A (zh) 播放器皮肤变换的方法和系统
Jin et al. Network video summarization based on key frame extraction via superpixel segmentation
JP2001118075A (ja) 物体領域情報記述方法及び物体領域情報生成装置並びに映像情報処理方法及び情報処理装置
JP2002513487A (ja) オブジェクト指向コンテンツに基づくビデオ・サーチ用のアルゴリズム及びシステム
JP3423834B2 (ja) 予測符号化画像データ管理方法及び装置
Ferreira et al. Towards key-frame extraction methods for 3D video: a review
Widiarto et al. Video summarization using a key frame selection based on shot segmentation
Yang et al. User models of subjective image quality assessment on virtual viewpoint in free-viewpoint video system
JPH09293139A (ja) ビデオ管理方法及び装置
KR101399633B1 (ko) 영상 합성 방법 및 장치
JPH02205984A (ja) 画像処理装置
JP2008181515A (ja) 物体領域情報記述方法、映像情報処理方法及び情報処理装置
US20140189769A1 (en) Information management device, server, and control method
Mendi et al. Content-based management service for medical videos

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040511