JPH06251147A - Video feature processing method - Google Patents

Video feature processing method

Info

Publication number
JPH06251147A
JPH06251147A JP5032908A JP3290893A JPH06251147A JP H06251147 A JPH06251147 A JP H06251147A JP 5032908 A JP5032908 A JP 5032908A JP 3290893 A JP3290893 A JP 3290893A JP H06251147 A JPH06251147 A JP H06251147A
Authority
JP
Japan
Prior art keywords
hue
image
frame
value
histogram
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5032908A
Other languages
Japanese (ja)
Other versions
JP2721107B2 (en
Inventor
Toru Sadakata
徹 定方
Yoshinobu Tonomura
佳伸 外村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP5032908A priority Critical patent/JP2721107B2/en
Publication of JPH06251147A publication Critical patent/JPH06251147A/en
Application granted granted Critical
Publication of JP2721107B2 publication Critical patent/JP2721107B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To provide a method for fetching automatically a feature quantity from an image, classifying automatically the image, and also, describing the whole image by the feature quantity fetched from the image. CONSTITUTION:First of all, each frame RCB data of an original image is subjected to color conversion, and set to a value of at least a hue. By measuring a hue histogram from this hue value, and selecting a hue representative value of each frame from its hue histogram, a feature quantity is fetched automatically. In a color feature space in which this hue representative value is the feature quantity, its hue representative value is expanded, and each frame is shown as a position in the space, respectively. Subsequently, by calculating a distance between each frame, clustering each one, and classifying it at every cluster, a lump of each frame, that is, a video scene is classified automatically. Also, the whole image is described by a clustering condition parameter in this case.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、映像を分類する技術に
関し、特に色特徴を用いて映像を分類する映像特徴処理
方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for classifying video, and more particularly to a video feature processing method for classifying video using color features.

【0002】[0002]

【従来の技術】映像は情報量が多く、意味的にも多義性
を持っている。映像を便利に取り扱うためにはわかりや
すい特徴量を映像の中から取り出し、似た映像を一つに
まとめる映像シーン分類が必要になってくる。映像から
1フレームを取り出し、1フレームの特徴量を取り出し
て内容を記述したり、記述された内容を基に映像を自動
分類したりするための研究が、従来よりなされている。
2. Description of the Related Art Video has a large amount of information and is ambiguous in terms of meaning. In order to handle videos conveniently, it is necessary to classify video scenes that take out easy-to-understand features from videos and combine similar videos into one. BACKGROUND ART Research has been conventionally performed to extract one frame from a video and extract the feature amount of one frame to describe the content, or to automatically classify the video based on the described content.

【0003】例えば、これまでに、 (1)山根、GONG、佐藤、坂内“映像シーン記述言
語を用いたビデオシーン検出システムについての一考
察”信学会秋全大、D−282,1992 (2)佐藤、山根、GONG、坂内“シーン記述言語を
用いた動画像シーン分類”信学会秋全大、D−283,
1992 が発表されている。
For example, so far, (1) Yamane, GONG, Sato, Sakauchi, "A Study on Video Scene Detection System Using Video Scene Description Language", Fall Society of Shinkai, D-282,1992 (2). Sato, Yamane, GONG, Sakauchi "Motion picture scene classification using scene description language" Fall Society of the SIJ, D-283.
1992 has been announced.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記従
来の技術による映像の特徴量の取り出しには、まだまだ
人手が必要であるということ、ならびに映像全体を記述
することが困難であるという問題点があった。
However, the extraction of the feature quantity of the image by the above-mentioned conventional technique requires a lot of manpower and it is difficult to describe the entire image. It was

【0005】本発明は、上記問題点を解決するためにな
されたものであり、その目的は、映像から自動的に特徴
量を取り出し、映像を自動的に分類する処理方法を提供
することにある。また、映像から取り出した特徴量によ
り映像全体を記述する処理方法を提供することにある。
The present invention has been made to solve the above problems, and an object thereof is to provide a processing method for automatically extracting a feature amount from a video and automatically classifying the video. . Another object of the present invention is to provide a processing method for describing the entire video by the feature amount extracted from the video.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
め、本発明の映像特徴処理方法においては、まず、カラ
ー映像の1フレームまたは数フレームからなる映像のか
たまりに対し、該映像を色相、彩度、明度のいずれか又
はそれらの組み合わせからなる情報に変換し、次に、該
情報からヒストグラムを計測し、次に、該ヒストグラム
からn個の極値を代表値として取り出し、次に、該代表
値を特徴量とするn次元の特徴空間における前記映像の
かたまり位置から映像のかたまり相互間の距離を計算
し、次に、該距離が一定内の映像のかたまり同志をクラ
スタリングすることによりそれら映像のかたまりをまと
めて映像のまとまりとすることを特徴としている。
In order to achieve the above object, in the image feature processing method of the present invention, first, a hue of a video image consisting of one frame or several frames of a color video is Saturation, lightness, or a combination thereof is converted into information, then a histogram is measured from the information, then n extreme values are extracted from the histogram as representative values, and then the By calculating the distance between the image clusters from the cluster position of the image in the n-dimensional feature space having the representative value as the feature quantity, and then clustering the image clusters within the distance within the constant range, the images are clustered. The feature is that the blocks are grouped together into a group of images.

【0007】また、本発明では、上記において得られた
映像のまとまりのクラスタリング条件パラメータによっ
て全体映像を記述することを特徴としている。
Further, the present invention is characterized in that the entire video is described by the clustering condition parameter of the video cluster obtained as described above.

【0008】[0008]

【作用】本発明の映像特徴処理方法では、映像のかたま
りを変換した色相、彩度、明度のいずれか又はそれらの
組み合わせからなる情報より、ヒストグラムを計測し、
そのヒストグラムから極値を代表値として取り出して特
徴量とする。これにより、特徴量の取り出しを自動的に
行えるようにする。また、特徴量の数を次元とする特徴
空間に前記の映像のかたまりを展開し、その位置から複
数の映像のかたまり相互間の距離を計算し、一定距離内
の前記映像のかたまり同志をクラスタリングすることに
より、それら映像のかたまりを自動的に分類可能とす
る。それとともに、そのクラスタリング条件パラメータ
によって映像全体の記述を可能にする。
According to the image feature processing method of the present invention, a histogram is measured from information including any one of hue, saturation, and lightness obtained by converting a lump of an image, or a combination thereof.
The extreme value is extracted from the histogram as a representative value and used as a feature amount. As a result, the feature amount can be automatically extracted. In addition, the cluster of images is developed in a feature space having the number of feature quantities as a dimension, the distance between clusters of multiple images is calculated from the position, and clusters of the images within a certain distance are clustered. By doing so, the blocks of those images can be automatically classified. At the same time, the whole image can be described by the clustering condition parameter.

【0009】[0009]

【実施例】以下、本発明の具体的な実施例を、図面を参
照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Specific embodiments of the present invention will be described in detail below with reference to the drawings.

【0010】以下に説明する例では、色変換に長岡技術
科学大学で提案されているMTM変換「宮原、吉田“色
データ(R,G,B)⇔(H,V,C)数学的変換方
法”、テレビ学誌Vol.43No.10(198
9)」を用いるが、これはHSI、HSV、HSLなど
色相、彩度、明度へ変換する他の方法を用いてもよい。
また、以下に説明する例では色相を用いて代表値を決定
しているが、彩度や明度を併用するなどして代表値を決
定してもよい。
In the example described below, the MTM conversion "Miyahara, Yoshida" color data (R, G, B) ⇔ (H, V, C) mathematical conversion method proposed by Nagaoka University of Technology for color conversion is used. , "TV Journal Vol. 43 No. 10 (198
9) ”, but other methods such as HSI, HSV, HSL for converting to hue, saturation, and lightness may be used.
In the example described below, the representative value is determined by using the hue, but the representative value may be determined by using the saturation and the brightness together.

【0011】図1は本発明の一実施例を示すフローチャ
ートである。
FIG. 1 is a flow chart showing an embodiment of the present invention.

【0012】まず、処理手順の概要を説明する。最初
に、対象映像(原画像)の各フレームRGBデータを色
変換し、色相、彩度、明度の値にする(ただし、以下で
使用する値すなわち本例では少なくとも色相値のみに変
換すれば十分である)。このうち色相値から、色相ヒス
トグラムを計測し、その色相ヒストグラムから各フレー
ムの色相代表値を選択し、特徴量として決定する。この
色相代表値を特徴量とする色特徴空間にその色相代表値
を展開し、各フレームをそれぞれ空間内での位置として
表す。つぎに、各フレーム間の距離を計算し、近いもの
同志をクラスタリングし、各クラスタごとに分類するこ
とで、各フレームのかたまり即ち映像シーンを分類す
る。
First, the outline of the processing procedure will be described. First, each frame RGB data of the target video (original image) is color-converted to have values of hue, saturation, and brightness (however, it is sufficient to convert the values used below, that is, at least only the hue value in this example). Is). Of these, the hue histogram is measured from the hue value, and the hue representative value of each frame is selected from the hue histogram and determined as the feature amount. The hue representative value is developed in a color feature space having the hue representative value as a feature amount, and each frame is represented as a position in the space. Next, the distance between each frame is calculated, the close ones are clustered, and the clusters, that is, the video scenes are classified by each cluster.

【0013】以下に上記の各処理の詳細を説明する。The details of each of the above processes will be described below.

【0014】<色変換>計算機の中で表現されている画
像情報は計算機のフレームバッファなどの関係からRG
Bで表現されていることが多い。このRGB情報から、
人間の感覚に近い色相、彩度、明度の情報に色情報を変
換する。ここでは、色変換手法として長岡技術科学大学
で提案されているMTM変換を用いるが、先にも述べた
とおり、これはHSI、HSV、HSLなどRGB情報
を色相、彩度、明度へ変換する他の方法を用いてもよ
い。また、画像情報が色相、彩度、明度で表現されてい
る場合は、そのまま用いて構わない。
<Color conversion> The image information represented in the computer is RG because of the relation of the frame buffer of the computer.
Often expressed in B. From this RGB information,
Converts color information into information about hue, saturation, and lightness that is close to human perception. Here, the MTM conversion proposed by Nagaoka University of Technology is used as the color conversion method, but as described above, this converts RGB information such as HSI, HSV, and HSL into hue, saturation, and lightness. You may use the method of. Further, when the image information is expressed by hue, saturation, and brightness, it may be used as it is.

【0015】<色相ヒストグラムの計測>次に、変換さ
れた色相値を用いて各フレームごとに色相ヒストグラム
を計算する。色相ヒストグラムの一例を図2に示す。横
軸は色相値(Hue)である。色相は図3に示すように
環状に表現されているが、ここでは一次元の直線で表し
ている。縦軸は各々の色相値をとる画素数(Pixel
s)である。本実施例では256×240画素の原画像
を用いているので画素の総数は61440画素で一定で
ある。
<Measurement of Hue Histogram> Next, a hue histogram is calculated for each frame using the converted hue value. An example of the hue histogram is shown in FIG. The horizontal axis represents the hue value (Hue). The hue is expressed in a ring shape as shown in FIG. 3, but here it is expressed by a one-dimensional straight line. The vertical axis represents the number of pixels taking each hue value (Pixel
s). In this embodiment, since the original image of 256 × 240 pixels is used, the total number of pixels is 61440 pixels and is constant.

【0016】<代表値選択>次に、色相ヒストグラムか
ら各フレームを特徴付ける色相代表値を求める。本実施
例では色相ヒストグラムの極大値をフレームの色相代表
値すなわち特徴量とする。このとき、代表値は任意の個
数を選んで構わない。本実施例では極大値のなかで画素
数が多いものから二つをそのフレームの代表値とする。
ここでは極大値を用いるが、色相ヒストグラムの最大値
や最小値なども用いることができる。
<Selection of Representative Value> Next, a hue representative value characterizing each frame is obtained from the hue histogram. In this embodiment, the maximum value of the hue histogram is used as the hue representative value of the frame, that is, the feature amount. At this time, an arbitrary number of representative values may be selected. In this embodiment, two of the maximum values having the largest number of pixels are set as the representative value of the frame.
Although the maximum value is used here, the maximum value and the minimum value of the hue histogram can also be used.

【0017】色相ヒストグラムの極大値を求める方法に
ついて詳しく述べる。
A method for obtaining the maximum value of the hue histogram will be described in detail.

【0018】色相ヒストグラムの一例を図4に示す。色
相ヒストグラムは、このままでは各色相値で微小な変化
があり、多くの極大値を持っている。そこで色相ヒスト
グラムの微小な変化を消し、大きな変化(第一のピー
ク,第二のピーク)のみを検出するため、次のような処
理を行う。
An example of the hue histogram is shown in FIG. As it is, the hue histogram has a slight change in each hue value and has many maximum values. Therefore, in order to eliminate the minute change in the hue histogram and detect only the large change (first peak, second peak), the following processing is performed.

【0019】まず、色相ヒストグラムを色相累積ヒスト
グラムに変換する。図5に累積ヒストグラムの一例を示
す。次に、色相値uからある色相幅d(u)をとったと
き、一定の画素数Tになるために必要な色相幅d(u)
を計算する。関係式を以下に示す。
First, the hue histogram is converted into a hue cumulative histogram. FIG. 5 shows an example of the cumulative histogram. Next, when a certain hue width d (u) is taken from the hue value u, the hue width d (u) required to have a constant number of pixels T
To calculate. The relational expression is shown below.

【0020】[0020]

【数1】 [Equation 1]

【0021】T :定数(一定画素数) hist(h):色相ヒストグラム d(u) :一定画素数になるために必要な色相幅 本実施例では一定画素数Tを全画素数(61440画
素)の10%である6144画素で計測した例で説明す
る。これは、極値の微小な変化が無くなればよく、適当
な値で構わない。次に、この関係式から色相値と色相幅
の関係について説明する。色相ヒストグラムにおいて画
素数の多い色相値では幅d(u)は小さくなり、色相ヒ
ストグラムにおいて画素数が少ない色相値では幅d
(u)は大きくなる。
T: constant (constant number of pixels) hist (h): hue histogram d (u): hue width required to reach a certain number of pixels In the present embodiment, the constant number of pixels T is the total number of pixels (61,440 pixels) An example will be described in which measurement is performed at 6144 pixels, which is 10% of. This may be an appropriate value as long as there is no minute change in the extreme value. Next, the relationship between the hue value and the hue width will be described from this relational expression. In the hue histogram, the width d (u) is small when the hue value has a large number of pixels, and when the hue value has a small number of pixels in the hue histogram, the width d (u) is small.
(U) becomes large.

【0022】図6に上記の色相値(Hue)uと幅(W
idth)d(u)のグラフを示す。図4で大きな変化
を持つ二つの極大値である色相値が図6では極小値とし
て表現される。本実施例では図6の極小値のうち小さい
ものから二つを代表値として用いた。この処理を各フレ
ームの色相ヒストグラムに行い代表値を求める。また、
これは、映像により任意の数、n個の代表値を選んで構
わない。
FIG. 6 shows the above hue value (Hue) u and width (W).
The graph of idth) d (u) is shown. The hue values, which are the two maximum values having large changes in FIG. 4, are represented as the minimum values in FIG. In this embodiment, the smallest of the minimum values in FIG. 6 is used as the representative value. This process is performed on the hue histogram of each frame to obtain a representative value. Also,
For this, an arbitrary number of n representative values may be selected depending on the image.

【0023】<特徴空間への展開>次に各フレームの代
表値を色特徴空間に展開する。ここでは代表値として二
つの色相値を用いた場合について説明する。色特徴空間
の一例を図7に示す。代表値として用いる二つの色相値
のうち大きい値を横軸に、小さい値を縦軸にとり、各フ
レームの代表値として色特徴空間に位置付ける。この場
合は、代表色相値の幅dの大小には関係無く横軸、縦軸
を決める。つまり図7の斜線掛部分のみに各フレームの
特徴量が位置として表される。例えば一例として代表値
の色相値が“緑”と“紫”ならば図7のAの位置に付け
られる。
<Expansion into Feature Space> Next, the representative value of each frame is expanded into the color feature space. Here, a case where two hue values are used as representative values will be described. An example of the color feature space is shown in FIG. Of the two hue values used as the representative value, the larger value is plotted on the horizontal axis and the smaller value is plotted on the vertical axis, and they are positioned in the color feature space as the representative value of each frame. In this case, the horizontal axis and the vertical axis are determined regardless of the magnitude of the width d of the representative hue value. That is, the feature amount of each frame is represented as a position only in the shaded portion in FIG. 7. For example, if the hue values of the representative values are "green" and "purple", they are added to the position A in FIG.

【0024】図8に158秒(4740フレーム)、4
6ショットからなる映像の代表値を色特徴空間に展開し
た結果を示す。もちろん、代表色相値の各々の幅dも含
めた四次元の空間をつくり、そのなかに位置付けても構
わない。また、n個の色相値を代表値とした場合、n次
元の空間を作り、そのなかに位置付けることも出来る。
また、n個の色相値とそれぞれの幅dを代表値とした場
合、2n次元の空間をつくり、そのなかに位置付けるこ
とも出来る。
In FIG. 8, 158 seconds (4740 frames), 4
The result of developing the representative value of the image consisting of 6 shots in the color feature space is shown. Of course, a four-dimensional space including the width d of each representative hue value may be created and positioned in that space. When n hue values are used as representative values, an n-dimensional space can be created and positioned in the space.
Further, when n hue values and respective widths d are used as representative values, a 2n-dimensional space can be created and positioned in the space.

【0025】<特徴空間内でのクラスタリング>次に、
上記の色特徴空間内に分布した各フレームの位置を用い
て空間内で近いもの同志をクラスタリングする。クラス
タリングの手法としては、n次元の色特徴空間における
各々映像の位置から相互の距離を計算し、距離の近いも
の同志をクラスタリングする方法や、n次元のK平均ク
ラスタリングや、横軸、縦軸への投影による切り出し、
モホロジー等を使った連結等が使える。色特徴空間の分
布からクラスタリングを行い映像シーンの分類を行った
結果を図9に示す。この映像は船上でのシーンと海底で
のダイビングのシーンで構成されている。Aの部分は海
底のダイビングのショットが中心で船上でのショットが
幾つか入っている。Bの部分はほぼ船上のショットから
なっている。
<Clustering in Feature Space> Next,
By using the positions of the respective frames distributed in the color feature space described above, similar ones in the space are clustered. As a clustering method, a method of calculating mutual distances from positions of images in an n-dimensional color feature space and clustering those having similar distances, n-dimensional K-means clustering, horizontal axis, vertical axis Cut out by projection of
You can use connections such as morphology. FIG. 9 shows the result of classifying the video scenes by clustering from the distribution of the color feature space. This video consists of a ship scene and a seabed diving scene. The part A is mainly a shot of diving under the sea, and some shots on the ship are included. Part B consists of shots on the ship.

【0026】以上のように、色特徴空間の中の位置を用
いて各フレームをクラスタリングすることにより、映像
分類が出来る。また、上記クラスタリング条件パラメー
タによって、映像全体の記述が可能である。すなわち、
図9の例では、各次元の色相値の組み合わせで各シーン
を記述することができるなお、始めにも述べたように、
本発明は、その主旨に沿って種々に応用され、種々の実
施態様を取り得るものである。
As described above, image classification can be performed by clustering each frame using the position in the color feature space. Further, the entire image can be described by the clustering condition parameter. That is,
In the example of FIG. 9, each scene can be described by a combination of hue values of each dimension.
The present invention can be applied in various ways in accordance with its gist and can take various embodiments.

【0027】[0027]

【発明の効果】以上の説明で明らかなように、本発明の
映像特徴処理方法によれば、映像の色特徴に着目して映
像シーン等の分類を自動的に行える。例えば、似たよう
な映像をまとめることが出来れば、蓄積効率を上げるこ
とが出来る。また、映像の再利用を考えたときにいくつ
かの似た映像をまとめて管理することが出来る。
As is apparent from the above description, according to the image feature processing method of the present invention, it is possible to automatically classify image scenes etc. by paying attention to the color feature of the image. For example, if similar images can be put together, the storage efficiency can be improved. Also, when considering the reuse of images, several similar images can be managed collectively.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示すフローチャートFIG. 1 is a flowchart showing an embodiment of the present invention.

【図2】上記実施例における色相ヒストグラムの一例を
示す図
FIG. 2 is a diagram showing an example of a hue histogram in the above embodiment.

【図3】上記実施例における色相値を説明するための色
相環の説明図
FIG. 3 is an explanatory diagram of a hue circle for explaining hue values in the above embodiment.

【図4】上記実施例における色相ヒストグラムの一例と
その中の極大値の説明図
FIG. 4 is an explanatory diagram of an example of a hue histogram in the above embodiment and a maximum value therein.

【図5】上記実施例において色相幅を計算するために用
いる色相の累積ヒストグラムの一例を示す図
FIG. 5 is a diagram showing an example of a cumulative histogram of hues used to calculate a hue width in the above embodiment.

【図6】上記実施例における色相値と色相幅のグラフFIG. 6 is a graph of a hue value and a hue width in the above embodiment.

【図7】上記実施例で用いる2次元の色特徴空間の説明
FIG. 7 is an explanatory diagram of a two-dimensional color feature space used in the above embodiment.

【図8】上記実施例において映像の特徴量を上記色特徴
空間に展開した結果を示す図
FIG. 8 is a diagram showing a result of expanding the image feature amount in the color feature space in the above embodiment.

【図9】図8の色特徴空間の分布からクラスタリングを
行い映像シーンの分類を行った結果を示す図
9 is a diagram showing the result of classifying video scenes by performing clustering from the distribution of the color feature space in FIG.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 まず、カラー映像の1フレームまたは数
フレームからなる映像のかたまりに対し、該映像を色
相、彩度、明度のいずれか又はそれらの組み合わせから
なる情報に変換し、次に、該情報からヒストグラムを計
測し、次に、該ヒストグラムからn個の極値を代表値と
して取り出し、次に、該代表値を特徴量とするn次元の
特徴空間における前記映像のかたまり位置から映像のか
たまり相互間の距離を計算し、次に、該距離が一定内の
映像のかたまり同志をクラスタリングすることによりそ
れら映像のかたまりをまとめて映像のまとまりとするこ
とを特徴とする映像特徴処理方法。
1. First, for a block of a color image consisting of one frame or several frames, the image is converted into information including any one of hue, saturation, lightness, or a combination thereof, and then the A histogram is measured from the information, then n extreme values are extracted from the histogram as a representative value, and then the image is clustered from the cluster position of the image in an n-dimensional feature space having the representative value as a feature amount. An image feature processing method characterized in that the distances between the images are calculated, and then the clusters of the videos within a certain distance are clustered to collectively collect the clusters of the videos into a batch of the videos.
【請求項2】 請求項1記載の映像特徴処理方法におい
て、得られた映像のまとまりのクラスタリング条件パラ
メータによって全体映像を記述することを特徴とする映
像特徴処理方法。
2. The image feature processing method according to claim 1, wherein the entire image is described by a clustering condition parameter of the obtained image aggregation.
JP5032908A 1993-02-23 1993-02-23 Video feature processing method Expired - Fee Related JP2721107B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5032908A JP2721107B2 (en) 1993-02-23 1993-02-23 Video feature processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5032908A JP2721107B2 (en) 1993-02-23 1993-02-23 Video feature processing method

Publications (2)

Publication Number Publication Date
JPH06251147A true JPH06251147A (en) 1994-09-09
JP2721107B2 JP2721107B2 (en) 1998-03-04

Family

ID=12371999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5032908A Expired - Fee Related JP2721107B2 (en) 1993-02-23 1993-02-23 Video feature processing method

Country Status (1)

Country Link
JP (1) JP2721107B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09293139A (en) * 1996-04-26 1997-11-11 Nippon Telegr & Teleph Corp <Ntt> Video management method/device
JPH1196369A (en) * 1997-09-19 1999-04-09 Minolta Co Ltd Color characteristic extracting device, color characteristic extracting method and program storage medium
JPH11149485A (en) * 1997-09-24 1999-06-02 Ricoh Co Ltd Document image data base retrieving method, method and device for programming document image data base and storage medium
JP2000207405A (en) * 1999-01-12 2000-07-28 Dainippon Screen Mfg Co Ltd Method for classifying plural images, classifying device and recording medium
JP2005032246A (en) * 2003-07-04 2005-02-03 Mitsubishi Electric Information Technology Centre Europa Bv Image group representation method, descriptor derived by the same, search method and device, computer program, and storage medium
JP2009246829A (en) * 2008-03-31 2009-10-22 Kddi Corp Moving image scene dividing device and moving image scene dividing method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09293139A (en) * 1996-04-26 1997-11-11 Nippon Telegr & Teleph Corp <Ntt> Video management method/device
JPH1196369A (en) * 1997-09-19 1999-04-09 Minolta Co Ltd Color characteristic extracting device, color characteristic extracting method and program storage medium
JPH11149485A (en) * 1997-09-24 1999-06-02 Ricoh Co Ltd Document image data base retrieving method, method and device for programming document image data base and storage medium
JP2000207405A (en) * 1999-01-12 2000-07-28 Dainippon Screen Mfg Co Ltd Method for classifying plural images, classifying device and recording medium
JP2005032246A (en) * 2003-07-04 2005-02-03 Mitsubishi Electric Information Technology Centre Europa Bv Image group representation method, descriptor derived by the same, search method and device, computer program, and storage medium
JP4553650B2 (en) * 2003-07-04 2010-09-29 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ Image group representation method, descriptor derived by representation method, search method, apparatus, computer program, and storage medium
JP2010225172A (en) * 2003-07-04 2010-10-07 Mitsubishi Electric R&D Centre Europe Bv Method of representing image group, descriptor of image group, searching method of image group, computer-readable storage medium, and computer system
US7826661B2 (en) 2003-07-04 2010-11-02 Mitsubishi Denki Kabushiki Kaisha Method and apparatus for representing a group of images
JP2009246829A (en) * 2008-03-31 2009-10-22 Kddi Corp Moving image scene dividing device and moving image scene dividing method

Also Published As

Publication number Publication date
JP2721107B2 (en) 1998-03-04

Similar Documents

Publication Publication Date Title
JP4194025B2 (en) Illumination-invariant object tracking method and video editing apparatus using the same
JP3373008B2 (en) Image area separation device
EP1280107A2 (en) Quality based image compression
JP3769487B2 (en) Blond Pixel Removal Method for Image Skin Color Detection
EP1168247A2 (en) Method for varying an image processing path based on image emphasis and appeal
JP4098021B2 (en) Scene identification method, apparatus, and program
CN110569859B (en) Color feature extraction method for clothing image
JP2004310475A (en) Image processor, cellular phone for performing image processing, and image processing program
CN111028263B (en) Moving object segmentation method and system based on optical flow color clustering
JP3814353B2 (en) Image segmentation method and image segmentation apparatus
JP3608106B2 (en) Degradation evaluation system for steel surface using image processing
JP3708042B2 (en) Image processing method and program
JP2009123234A (en) Object identification method, apparatus and program
JP2721107B2 (en) Video feature processing method
JP2002342758A (en) Visual recognition system
JP3228920B2 (en) Image processing method and storage medium storing image processing program
KR100488014B1 (en) YCrCb color based human face location detection method
JPH0729007A (en) Video feature processing method
US20170337709A1 (en) Method to determine chromatic component of illumination sources of an image
KR20140138046A (en) Method and device for processing a picture
JP2002117402A (en) Image processing method and device thereof
JP2638702B2 (en) Feature image data extraction method
WO2005048133A1 (en) Image processing method, image processing system, and image processing program
JP2004258752A (en) Image dividing method and device
JP3493148B2 (en) Image color processing apparatus, image color processing method, and recording medium

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees