JP2007188176A - Method and device for specifying content information, program, and computer readable recording medium - Google Patents

Method and device for specifying content information, program, and computer readable recording medium Download PDF

Info

Publication number
JP2007188176A
JP2007188176A JP2006003998A JP2006003998A JP2007188176A JP 2007188176 A JP2007188176 A JP 2007188176A JP 2006003998 A JP2006003998 A JP 2006003998A JP 2006003998 A JP2006003998 A JP 2006003998A JP 2007188176 A JP2007188176 A JP 2007188176A
Authority
JP
Japan
Prior art keywords
information
color
cluster
clustering
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006003998A
Other languages
Japanese (ja)
Inventor
Harumi Kawamura
春美 川村
Takehito Abe
剛仁 阿部
Tomonori Takada
智規 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2006003998A priority Critical patent/JP2007188176A/en
Publication of JP2007188176A publication Critical patent/JP2007188176A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To focus on the distribution of pixel values, which are included in content, inside a color space for uniquely identifying the content. <P>SOLUTION: An inputted image is divided into a plurality of subsections, and in the divided subsections, color information included in the respective subsections is mapped in the color space. Based on the mapping result, clustering is carried out in the color space. On each cluster inside the color space, representative information is found, a feature quantity of the subsection is found from the representative information of the respective clusters, and an information string for the image as a whole is formed. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、コンテンツ情報特定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体に係り、特に、画像もしくは映像のようなコンテンツを一意に特定するために必要な情報を抽出することを目的とした局所色空間分布を利用したコンテンツ情報特定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体に関する。   The present invention relates to a content information specifying method and apparatus, a program, and a computer-readable recording medium, and more particularly, a local information for extracting information necessary for uniquely specifying a content such as an image or a video. The present invention relates to a content information specifying method and apparatus using a color space distribution, a program, and a computer-readable recording medium.

詳しくは、インターネットや外部に流通しているコンテンツの不正利用の防止やコンテンツ検索、コンテンツをキーとしたリファレンスサービスへの適用を目的とするものである。   Specifically, it is intended to prevent unauthorized use of content distributed on the Internet or outside, search content, and apply to a reference service using content as a key.

従来のコンテンツを特定するための代表的な技術には、電子透かし技術を用いてコンテンツ自体に情報を埋め込む方法とコンテンツ自体の特徴量を用いる方法がある。   Conventional techniques for specifying content include a method of embedding information in the content itself using a digital watermark technique and a method of using the feature amount of the content itself.

まず、電子透かし技術では、事前にID等の識別情報をコンテンツに電子透かしとして埋め込んでおき、識別対象のコンテンツから透かし情報を検出することにより、所定のコンテンツかどうかを特定することができる(例えば、非特許文献1参照)。   First, in the digital watermark technique, identification information such as an ID is embedded in the content as a digital watermark in advance, and the watermark information is detected from the content to be identified, so that it is possible to specify whether the content is predetermined content (for example, Non-Patent Document 1).

一方、後者のコンテンツの特徴量を用いる方法では、コンテンツを適当な大きさの小領域に分割し、各小領域の特徴量(例えば平均値)を要素とするベクトルが類似していれば互いのコンテンツが類似であると見做す技術である(例えば、非特許文献2参照)。
http://www.jpo.go.jp/shiryou/s_sonota/hyoujun_gijutsu/denshi_sukashi/2_b_1.htm Jia Li, James Z Wang, Gio Wiederhold, “IRM: Ingrated Region Matching for Image Retrieval”, Proceedings of the eighth ACM international conference on Multimedia, pp.147-156 (2000)
On the other hand, in the latter method using the feature amount of the content, the content is divided into small regions of appropriate sizes, and if the vectors having the feature amount (for example, average value) of each small region are similar to each other, This is a technique that considers content to be similar (see, for example, Non-Patent Document 2).
http://www.jpo.go.jp/shiryou/s_sonota/hyoujun_gijutsu/denshi_sukashi/2_b_1.htm Jia Li, James Z Wang, Gio Wiederhold, “IRM: Ingrated Region Matching for Image Retrieval”, Proceedings of the eighth ACM international conference on Multimedia, pp.147-156 (2000)

しかしながら、上述の従来手法には以下のような課題があった。   However, the above-described conventional methods have the following problems.

電子透かし技術は、コンテンツ自体に識別情報を重畳するため、品質劣化を招くと同時に、事前に透かしを埋め込むという作業が生じるため手間がかかるという問題があった。   The digital watermark technique has a problem that it takes time and effort because the identification information is superimposed on the content itself, resulting in quality degradation and the work of embedding the watermark in advance.

一方、コンテンツ特徴量抽出技術は、類似のコンテンツを検索するための特徴量抽出を目的としており、同一の特徴量を持つコンテンツが複数存在しうるため、同一のコンテンツのみを検出するには不適である。上記の問題の原因の一つは、コンテンツの特徴量を小領域の平均値等で代表している点にある。即ち、1つの小領域に対して、複数種類の色領域(明らかに異なる物体領域の色)がある場合、小領域を代表する値である平均値は、小領域内に含まれるどの領域の色をも代表していないという点である。この解決策として、コンテンツの分割数を細かくする手段が考えられるが、異なる色を持つ物体領域が必ずしも分割の形状と合致しているとは限らないため、情報量が多くなる割には的確に各小領域の特徴を表しているとはいえない。   On the other hand, the content feature quantity extraction technology is aimed at extracting feature quantities for searching for similar contents, and since there may be a plurality of contents having the same feature quantities, it is not suitable for detecting only the same contents. is there. One of the causes of the above problem is that the feature amount of the content is represented by an average value of a small area. That is, when there are a plurality of types of color areas (colors of clearly different object areas) for one small area, the average value, which is a value representing the small area, is the color of any area included in the small area. Is also not representative. As a solution to this, a means to reduce the number of content divisions can be considered, but object regions having different colors do not always match the shape of the division, so that the amount of information is appropriate. It cannot be said that it represents the characteristics of each small area.

本発明は、上記の点に鑑みなされたもので、コンテンツ内に含まれる画素値の色空間内での分布に着目することにより、コンテンツを一意に識別することのできるコンテンツ情報特定方法及び装置及びプログラム及びコンピュータ読み取り可能な記録媒体を提供することを目的とする。   The present invention has been made in view of the above points, and a content information specifying method and apparatus capable of uniquely identifying a content by paying attention to a distribution in a color space of pixel values included in the content, and An object is to provide a program and a computer-readable recording medium.

図1は、本発明の原理を説明するための図である。   FIG. 1 is a diagram for explaining the principle of the present invention.

本発明(請求項1)は、画像を特定することを目的として、画像自体から情報を抽出する局所色分布を利用したコンテンツ情報特定方法であって、
画像分割手段が、入力された画像を複数の小領域に分割する領域分割ステップ(ステップ1)と、
色情報マッピング手段が、領域分割ステップで分割された小領域に対して、各小領域に含まれる色情報を色空間にマッピングする色情報マッピングステップ(ステップ2)と、
色情報クラスタリング手段が、色情報マッピングステップでマッピングされた結果に基づいて、色空間内でクラスタリングする色情報クラスタリングステップ(ステップ3)と、
クラスタ代表情報抽出手段が、色情報クラスタリングステップで得られた色空間内の各クラスタに対して、代表情報を求めるクラスタ代表情報抽出ステップ(ステップ4)と、
情報列形成手段が、各クラスタの代表情報から小領域の特徴量を求め、画像全体の情報列を形成する情報列形成ステップ(ステップ5)と、を行う。
The present invention (Claim 1) is a content information specifying method using a local color distribution for extracting information from the image itself for the purpose of specifying the image,
An area dividing step (step 1) in which the image dividing means divides the input image into a plurality of small areas;
A color information mapping step (step 2) in which the color information mapping means maps the color information included in each small area to the color space with respect to the small areas divided in the area dividing step;
A color information clustering step (step 3) in which the color information clustering means performs clustering in the color space based on the result mapped in the color information mapping step;
A cluster representative information extraction means for obtaining representative information for each cluster in the color space obtained in the color information clustering step (step 4);
The information sequence forming means performs an information sequence forming step (step 5) for obtaining the feature amount of the small area from the representative information of each cluster and forming the information sequence of the entire image.

本発明(請求項2)は、映像を特定することを目的として、映像自体から情報を抽出する局所色分布を利用したコンテンツ情報特定方法であって、
画像分割手段が、入力された映像の各フレームを複数の小領域に分割する領域分割ステップと、
色情報マッピング手段が、領域分割ステップで分割された小領域に対して、各小領域に含まれる色情報を色空間にマッピングする色情報マッピングステップと、
色情報クラスタリング手段が、色情報マッピングステップでマッピングされた結果に基づいて、色空間内でクラスタリングする色情報クラスタリングステップと、
クラスタ代表情報抽出手段が、色情報クラスタリングステップで得られた色空間内の各クラスタに対して、代表情報を求めるクラスタ代表情報抽出ステップと、
情報列形成手段が、各クラスタの代表情報から小領域の特徴量を求め、フレーム毎に情報列を形成し、時間軸方向に並べて情報列を形成する情報列形成ステップと、を行う。
The present invention (Claim 2) is a content information specifying method using local color distribution for extracting information from the video itself for the purpose of specifying the video,
An area dividing step in which the image dividing means divides each frame of the input video into a plurality of small areas;
A color information mapping step in which the color information mapping means maps the color information included in each small area to the color space with respect to the small areas divided in the area dividing step;
A color information clustering step in which the color information clustering means performs clustering in the color space based on the result mapped in the color information mapping step;
A cluster representative information extracting unit is a cluster representative information extracting step for obtaining representative information for each cluster in the color space obtained in the color information clustering step;
An information sequence forming unit performs an information sequence forming step of obtaining a feature amount of a small area from the representative information of each cluster, forming an information sequence for each frame, and arranging the information sequence in the time axis direction.

また、本発明(請求項3)は、請求項1または2の領域分割ステップにおいて、
画像ないし映像のフレーム全体に対して、画像の特性に応じた複数種類の大きさの領域に分割するステップを行う。
Further, the present invention (Claim 3) is the area dividing step of Claim 1 or 2,
The step of dividing the entire frame of the image or video into a plurality of types of sizes according to the characteristics of the image is performed.

また、本発明(請求項4)は、請求項1または2の色情報クラスタリングステップにおいて、
画像ないし映像の各フレーム内の隣接関係に基づいて、クラスタリングするステップを行う。
The present invention (Claim 4) provides the color information clustering step of Claim 1 or 2,
Clustering is performed based on the adjacency relationship in each frame of the image or video.

図2は、本発明の原理構成図である。   FIG. 2 is a principle configuration diagram of the present invention.

本発明(請求項5)は、画像を特定することを目的として、画像自体から情報を抽出する局所色分布を利用したコンテンツ情報特定装置であって、
入力された画像を複数の小領域に分割する領域分割手段20と、
領域分割手段20で分割された小領域に対して、各小領域に含まれる色情報を色空間にマッピングする色情報マッピング手段30と、
色情報マッピング手段30でマッピングされた結果に基づいて、色空間内でクラスタリングする色情報クラスタリング手段40と、
色情報クラスタリング手段40で得られた色空間内の各クラスタに対して、代表情報を求めるクラスタ代表情報抽出手段50と、
各クラスタの代表情報から小領域の特徴量を求め、画像全体の情報列を形成する情報列形成手段60と、を有する。
The present invention (Claim 5) is a content information specifying device using a local color distribution for extracting information from an image itself for the purpose of specifying the image,
Area dividing means 20 for dividing the input image into a plurality of small areas;
Color information mapping means 30 for mapping the color information contained in each small area to the color space for the small areas divided by the area dividing means 20;
Color information clustering means 40 for clustering in the color space based on the result mapped by the color information mapping means 30;
Cluster representative information extracting means 50 for obtaining representative information for each cluster in the color space obtained by the color information clustering means 40;
Information sequence forming means 60 for obtaining a feature amount of a small area from the representative information of each cluster and forming an information sequence of the entire image.

本発明(請求項6)は、映像を特定することを目的として、映像自体から情報を抽出する局所色分布を利用したコンテンツ情報特定装置であって、
入力された映像の各フレームを複数の小領域に分割する領域分割手段20と、
領域分割手段20で分割された小領域に対して、各小領域に含まれる色情報を色空間にマッピングする色情報マッピング手段30と、
色情報マッピング手段30でマッピングされた結果に基づいて、色空間内でクラスタリングする色情報クラスタリング手段40と、
色情報クラスタリング手段40で得られた色空間内の各クラスタに対して、代表情報を求めるクラスタ代表情報抽出手段50と、
各クラスタの代表情報から小領域の特徴量を求め、フレーム毎に情報列を形成し、時間軸方向に並べて情報列を形成する情報列形成手段60と、を有する。
The present invention (Claim 6) is a content information specifying device using a local color distribution for extracting information from the video itself for the purpose of specifying the video,
Area dividing means 20 for dividing each frame of the inputted video into a plurality of small areas;
Color information mapping means 30 for mapping the color information contained in each small area to the color space for the small areas divided by the area dividing means 20;
Color information clustering means 40 for clustering in the color space based on the result mapped by the color information mapping means 30;
Cluster representative information extracting means 50 for obtaining representative information for each cluster in the color space obtained by the color information clustering means 40;
It has information sequence forming means 60 for obtaining feature amounts of small areas from representative information of each cluster, forming an information sequence for each frame, and arranging the information sequence in the time axis direction.

また、本発明(請求項7)は、請求項5または6の領域分割手段20において、
画像ないし映像のフレーム全体に対して、画像の特性に応じた複数種類の大きさの領域に分割する手段を含む。
Further, the present invention (Claim 7) is the area dividing means 20 of Claim 5 or 6,
Means for dividing the entire frame of the image or video into regions of a plurality of types according to the characteristics of the image.

また、本発明(請求項8)は、請求項5または6の色情報クラスタリング手段40において、
画像ないし映像の各フレーム内の隣接関係に基づいて、クラスタリングする手段を含む。
The present invention (Claim 8) provides the color information clustering means 40 according to Claim 5 or 6,
A clustering unit is included based on the adjacent relationship in each frame of the image or video.

本発明(請求項9)は、コンピュータを、請求項5乃至8記載のコンテンツ情報特定装置として機能させるコンテンツ情報特定プログラムである。   The present invention (Claim 9) is a content information specifying program that causes a computer to function as the content information specifying apparatus according to Claims 5 to 8.

本発明(請求項10)は、コンピュータを、請求項5乃至8記載のコンテンツ情報特定装置として機能させるプログラムを格納したコンピュータ読み取り可能な記録媒体である。   The present invention (Claim 10) is a computer-readable recording medium storing a program for causing a computer to function as the content information specifying device according to Claims 5 to 8.

上記のように本発明によれば、画像ないし映像の各フレームを小領域に分割し、小領域毎に色空間内のクラスタリングを行い、当該画像ないし映像の各フレーム内に含まれる色領域を抽出することにより、コンテンツを一意に識別するための情報を正確に表現することが可能となる。   As described above, according to the present invention, each frame of an image or video is divided into small regions, clustering in a color space is performed for each small region, and color regions included in each frame of the image or video are extracted. By doing so, it is possible to accurately represent information for uniquely identifying the content.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

なお、以下に示す図面において、実施の形態で同一機能を有するものについては同一符号を付し、その繰り返しの説明は省略する。   Note that, in the drawings shown below, the same reference numerals are given to components having the same functions in the embodiments, and repeated descriptions thereof are omitted.

[第1の実施の形態]
図3は、本発明の第1の実施の形態における装置構成図である。
[First Embodiment]
FIG. 3 is an apparatus configuration diagram according to the first embodiment of the present invention.

同図に示すコンテンツ情報特定装置は、画像入力部10、領域分割部20、色情報マッピング部30、色情報クラスタリング部40、クラスタ代表情報抽出部50、情報列形成部60、情報列出力部70、データベース80、及び記憶メモリ90から構成される。   The content information specifying device shown in FIG. 1 includes an image input unit 10, an area dividing unit 20, a color information mapping unit 30, a color information clustering unit 40, a cluster representative information extracting unit 50, an information sequence forming unit 60, and an information sequence output unit 70. , A database 80, and a storage memory 90.

画像入力部10、領域分割部20、色情報マッピング部30、色情報クラスタリング部40、クラスタ代表情報抽出部50、情報列形成部60、情報列出力部70は、記憶メモリ90と接続されている。   The image input unit 10, the region dividing unit 20, the color information mapping unit 30, the color information clustering unit 40, the cluster representative information extracting unit 50, the information sequence forming unit 60, and the information sequence output unit 70 are connected to the storage memory 90. .

画像入力部10は、入力された画像を記憶メモリ90に格納する。   The image input unit 10 stores the input image in the storage memory 90.

領域分割部20は、記憶メモリ90から画像を取得して、複数の領域に分割し、領域を記憶メモリ90に格納する。   The area dividing unit 20 acquires an image from the storage memory 90, divides the image into a plurality of areas, and stores the areas in the storage memory 90.

色情報マッピング部30は、記憶メモリ90から取得した各領域毎に座標に対応する画素値(例えば、RGB成分)を割り当てたものを作成し、これを記憶メモリ90に格納する。   The color information mapping unit 30 creates a pixel value (for example, RGB component) corresponding to the coordinates assigned to each area acquired from the storage memory 90 and stores it in the storage memory 90.

色情報クラスタリング部40は、記憶メモリ90から領域毎のマッピングの結果を取得し、同一の小領域からの画素値で色空間内で近傍に位置するもの同士を一つにまとめてクラスタを生成し、各画素にクラスタの番号を割り当て(ラベリング)、その結果を記憶メモリ90に保存する。   The color information clustering unit 40 acquires a mapping result for each area from the storage memory 90, and generates a cluster by combining pixel values from the same small area that are located in the vicinity in the color space. The cluster number is assigned to each pixel (labeling), and the result is stored in the storage memory 90.

クラスタ代表情報抽出部50は、記憶メモリ90からクラスタリングの結果を取得し、領域毎に同一のラベルを持つ画素値の集合から代表情報を求め、その結果を記憶メモリ90に格納する。   The cluster representative information extraction unit 50 acquires a clustering result from the storage memory 90, obtains representative information from a set of pixel values having the same label for each region, and stores the result in the storage memory 90.

情報列形成部60は、記憶メモリ90から代表情報を取得し、情報列をある順番に基づいて並べて情報列出力部70に渡す。   The information sequence forming unit 60 acquires representative information from the storage memory 90, arranges the information sequences based on a certain order, and passes them to the information sequence output unit 70.

情報列出力部70は、情報列形成部60から取得したデータをデータベース80に出力する。   The information sequence output unit 70 outputs the data acquired from the information sequence formation unit 60 to the database 80.

以下、上記の構成における動作を説明する。   The operation in the above configuration will be described below.

図4は、本発明の一実施の形態における処理の流れを示し、図5は、本発明の一実施の形態における処理イメージを示す。   FIG. 4 shows a processing flow in one embodiment of the present invention, and FIG. 5 shows a processing image in one embodiment of the present invention.

以下では、画像を対象とする場合について説明するが、映像の各フレームにおける処理を画像に置き換えることによって映像の場合にも適用可能である。   Hereinafter, a case where an image is a target will be described, but the present invention can also be applied to a case of a video by replacing processing in each frame of the video with an image.

ステップ110) まず、はじめに、画像入力部10により画像が入力されると、当該入力画像を記憶メモリ90に格納する。   Step 110) First, when an image is input by the image input unit 10, the input image is stored in the storage memory 90.

ステップ120) 次に、領域分割部20が、記憶メモリ90上にある画像を、複数の小領域に分割し、各小領域を記憶メモリ90に格納する。各小領域は、図6(a)に示すように、画像全体に対して全て同一の大きさとする。小領域への分割においては、各小領域の画素数を固定にしても構わないし、分割数を固定(小領域の画素数は画像サイズに依存)しても構わない。   Step 120) Next, the area dividing unit 20 divides the image on the storage memory 90 into a plurality of small areas, and stores each small area in the storage memory 90. Each small region has the same size for the entire image as shown in FIG. In the division into small areas, the number of pixels in each small area may be fixed, or the number of divisions may be fixed (the number of pixels in the small area depends on the image size).

ステップ130) その後、領域分割部20によって得られた小領域に対して色情報マッピング部30は、小領域内の画素値を色空間上にマッピングし、その結果を各領域毎に記憶メモリ90に格納する。図6(b)に示すように、領域1や領域2のように1つの小領域に複数種類の色が含まれている場合は、RGB空間内で画素値が色の塊のような形で分布する。なお、ここでは、画素値をマッピングする色空間としてRGB空間を用いた例を示したが、実際にはRGB空間に限定されることなく、L*a*b*やL*u*v*等の均等色空間や、XYZ三刺激値を軸とする三次元空間であっても構わないし、また、xy色度図のような二次元空間にマッピングしても構わない。   Step 130) Thereafter, the color information mapping unit 30 maps the pixel values in the small region on the color space for the small region obtained by the region dividing unit 20, and stores the result in the storage memory 90 for each region. Store. As shown in FIG. 6B, when a plurality of types of colors are included in one small region such as region 1 or region 2, the pixel values are in the form of a color block in the RGB space. Distributed. In addition, although the example which used RGB space as a color space which maps a pixel value was shown here, it is not limited to RGB space actually, L * a * b *, L * u * v *, etc. Or a three-dimensional space centered on XYZ tristimulus values, or may be mapped to a two-dimensional space such as an xy chromaticity diagram.

ステップ140) 色情報クラスタリング部40は、記憶メモリ90から上記の色情報マッピング処理の結果を取得して、同一小領域からの画素値で色空間内で近傍に位置するもの同士を一つにまとめてクラスタを生成し、クラスタリング結果を記憶メモリ90に格納する。なお、色空間内での近傍の判断は、例えば、3次元空間におけるユークリッド距離を計算し、その値がある閾値以下であれば近傍と見做す方法の他、色空間内での画素を原点からのベクトルと見做し、ベクトル間のなす角がある閾値以下であれば近傍と見做す等の方法がある。   Step 140) The color information clustering unit 40 acquires the result of the color information mapping process from the storage memory 90, and puts together pixel values from the same small area that are located in the vicinity in the color space. The cluster is generated and the clustering result is stored in the storage memory 90. The determination of the neighborhood in the color space is performed by, for example, calculating the Euclidean distance in the three-dimensional space, and assuming that the pixel is the origin if the value is equal to or smaller than a certain threshold, and the pixel in the color space is the origin. If the angle between the vectors is equal to or less than a certain threshold value, it is regarded as a neighborhood.

ステップ150) クラスタ代表情報抽出部50は、記憶メモリ90から各小領域に含まれる画素値の色空間内でのクラスタリング結果を取得して、当該クラスタに対して代表情報を抽出し、記憶メモリ90に格納する。代表情報には、例えば、クラスタを構成する画素の平均画素値や分散、画素値の最頻値等を用いる。   Step 150) The cluster representative information extraction unit 50 acquires the clustering result in the color space of the pixel values included in each small region from the storage memory 90, extracts representative information for the cluster, and stores the storage memory 90. To store. As the representative information, for example, an average pixel value or variance of pixels constituting a cluster, a mode value of pixel values, or the like is used.

ステップ160) 情報列形成部60は、記憶メモリ90に格納されているクラスタの代表情報を取得し、当該代表情報に基づいて情報列を生成し、記憶メモリ90に格納する。各小領域に含まれるクラスタの数が複数種類ある場合、小領域毎にクラスタの代表情報を順番につなげて情報列とする。図7では、各小領域毎に、クラスタの代表情報を数値の小さい順に並べて情報列を形成する様子が示されている。領域1では、色情報クラスタリング部40において、2種類のクラスタが生成されたため、各クラスタの代表情報が順番に並んでいる。一方、領域2からは、3種類のクラスタ生成されるため、クラスタの個数に対応して代表情報が並べられている。なお、情報列を生成する際の、小領域の順番は、画像の左上を起点としてラスタ形式に並べても構わないし、領域分割部20による分割の段階で外側に位置する小領域のうち、最も輝度の高いものを起点として螺旋状に小領域のデータを並べても構わないし、それ以外の事前に決めた規則に従って並べても構わない。   Step 160) The information sequence forming unit 60 acquires the representative information of the cluster stored in the storage memory 90, generates an information sequence based on the representative information, and stores it in the storage memory 90. When there are a plurality of types of clusters included in each small region, the representative information of the clusters is sequentially connected to each small region to form an information string. FIG. 7 shows a state in which cluster information is arranged in ascending numerical order for each small region to form an information string. In region 1, since the two types of clusters are generated in the color information clustering unit 40, the representative information of each cluster is arranged in order. On the other hand, since three types of clusters are generated from the region 2, representative information is arranged corresponding to the number of clusters. Note that the order of the small areas when generating the information string may be arranged in a raster format starting from the upper left of the image, and the luminance is the highest among the small areas located outside at the stage of division by the area dividing unit 20. The data of the small area may be arranged in a spiral shape starting from a higher one, or may be arranged in accordance with other predetermined rules.

ステップ170) 情報列形成部60で生成され、記憶メモリ90に格納されている情報列をデータベース80に格納する。   Step 170) The information sequence generated by the information sequence forming unit 60 and stored in the storage memory 90 is stored in the database 80.

[第2の実施の形態]
本実施の形態では、上記の第1の実施の形態におけるステップ120からステップ130間における他の例について説明する。
[Second Embodiment]
In the present embodiment, another example between step 120 and step 130 in the first embodiment will be described.

図8は、本発明の第2の実施の形態における装置構成図であり、図3の領域分割部20と色情報マッピング部30との間に、周波数特性計算部110、小領域特性判定部120、小領域統合・分割部130を付加した構成である。   FIG. 8 is an apparatus configuration diagram according to the second embodiment of the present invention. Between the area dividing unit 20 and the color information mapping unit 30 in FIG. 3, a frequency characteristic calculating unit 110 and a small area characteristic determining unit 120 are illustrated. The small area integration / division unit 130 is added.

図9は、本発明の第2の実施の形態における領域分割処理以降の動作のフローチャートである。以下に示す処理は、前述のステップ120とステップ130の間において行われる処理であり、その他の処理については、前述の第1の実施の形態と同様であるため、その説明を省略する。   FIG. 9 is a flowchart of the operation after the area division processing according to the second embodiment of the present invention. The processing described below is processing performed between the above-described step 120 and step 130, and the other processing is the same as that of the above-described first embodiment, and thus description thereof is omitted.

ステップ120) 第1の実施の形態と同様に、領域分割部20において、画像全体に対して同一の大きさからなる小領域に分割する。   Step 120) As in the first embodiment, the area dividing unit 20 divides the entire image into small areas having the same size.

ステップ121) 次に、周波数特性計算部110において、小領域毎に、周波数特性を計算する。ここで、周波数特性とは、以下の式(1)に示すフーリエ変換から得られる数値に対し、式(2)によって計算したパワースペクトルである。   Step 121) Next, the frequency characteristic calculation unit 110 calculates the frequency characteristic for each small area. Here, the frequency characteristic is a power spectrum calculated by the equation (2) with respect to a numerical value obtained from the Fourier transform shown in the following equation (1).

Figure 2007188176
なお、式(1)において、f(x)は座標系xにおける画素値であり、F(f)はフーリエ変換結果である。
Figure 2007188176
In equation (1), f (x) is a pixel value in the coordinate system x, and F (f) is a Fourier transform result.

P(f)=│F(f)│ 式(2)
ステップ122) 上記で得られた周波数特性に基づき、小領域特性判定部120は、ステップ120で最初に分割した小領域を分割するか、統合するか、そのままにするかを判定する。1つの小領域の中に1種類の色領域しか存在しない場合には、パワースペクトルは図10(a)に示すように、周波数成分の最も低い部分のみにピークを持つ。一方、1つの小領域の中に複数種類の色領域が存在する場合は図10(b)に示すように、複数の周波数成分に対してピークを持つ。上述の周波数特性により、パワースペクトルのピークが複数ある場合に、小領域を分割すると判断する。また、ピークが1種類のみの場合は、画像上で上下左右に隣接する領域が同様の特性を持っていれば、それらを1つの領域として統合すると判断する。
P (f) = │F (f ) │ 2 formula (2)
Step 122) Based on the frequency characteristics obtained above, the small area characteristic determination unit 120 determines whether the small areas initially divided in Step 120 are to be divided, integrated, or left as they are. When there is only one type of color region in one small region, the power spectrum has a peak only in the lowest frequency component as shown in FIG. On the other hand, when a plurality of types of color areas exist in one small area, as shown in FIG. 10B, there are peaks for a plurality of frequency components. Based on the frequency characteristics described above, when there are a plurality of peaks of the power spectrum, it is determined that the small region is divided. Further, when there is only one type of peak, it is determined that these areas are integrated as one area if the adjacent areas on the top, bottom, left, and right on the image have similar characteristics.

ステップ123) 最後に、小領域統合・分割部130は、小領域特性判定ステップ122における結果に基づいて、ステップ120での最初の小領域への分割結果に対して、統合と分割を行う。小領域をさらに分割する際には、より小さい小領域の画素数を固定する方法と、分割数を固定にする方法があるがどちらであっても構わない。   Step 123) Finally, the small area integration / division unit 130 performs integration and division on the division result of the first small area in Step 120 based on the result in the small area characteristic determination step 122. When the small area is further divided, there are a method of fixing the number of pixels of a smaller small area and a method of fixing the number of divisions, either of which may be used.

なお、ここでは、小領域の分割の判断を1回のみとしているが、分割後の小領域に対して、再度、周波数特性を計算し、分割か否かの判定を繰り返しても構わない。   Here, the determination of dividing the small area is performed only once. However, the frequency characteristics may be calculated again for the divided small area, and the determination of whether or not the division is performed may be repeated.

また、上記の説明では、小領域の分割・統合の判断に周波数特性を用いる方法について説明したが、周波数特性を用いる代わりに、主成分分析による特性を用いて判断する方法もある。この場合の動作を以下に示す。   In the above description, the method of using the frequency characteristics for the determination of the division / integration of the small regions has been described. However, there is a method of using the characteristics by principal component analysis instead of using the frequency characteristics. The operation in this case is shown below.

図11は、本発明の第2の実施の形態における画像を小領域に分割する際の動作のフローチャートである。   FIG. 11 is a flowchart of an operation when an image is divided into small areas according to the second embodiment of the present invention.

ステップ120) 画像を同一の大きさからなる小領域に分割する。   Step 120) The image is divided into small areas having the same size.

ステップ124) 小領域毎に主成分を求める。主成分は小領域に含まれる画素値から共分散行列を作成し、その固有値、固有ベクトルを求めることによって得られる。固有値の大きい方から順に、第1主成分ベクトル、第2主成分ベクトル、…となる。ここでは、R,G,Bという三成分からなる色空間を対象としているため、第3主成分までが得られる。   Step 124) The principal component is obtained for each small region. The principal component is obtained by creating a covariance matrix from pixel values included in a small region and obtaining its eigenvalue and eigenvector. In order from the largest eigenvalue, the first principal component vector, the second principal component vector,... Here, since a color space composed of three components R, G, and B is targeted, only the third principal component can be obtained.

ステップ125) 次に、各主成分の寄与率の相対関係(固有値の大小関係)に基づいて、小領域の統合と分割の判定を行う。第1主成分の寄与率が他の第2主成分以降の寄与率に比較して圧倒的に大きい場合には、対象小領域に含まれる色が1種類である可能性が高いため、分割を行わないものとし、更に、画像上で上下左右に隣接する領域も同様の特性があれば、それらを一つの領域として統合すると判断する。一方、第1主成分と第2主成分の寄与率が近似している場合には、1つの小領域に複数の色が含まれている可能性が高いため、小領域に分割すると判定する。   Step 125) Next, based on the relative relationship of the contribution ratios of the principal components (magnitude relationship of eigenvalues), determination of integration and division of small regions is performed. When the contribution ratio of the first principal component is overwhelmingly large compared to the contribution ratios after the other second principal components, there is a high possibility that the target small area has one kind of color. In addition, if regions adjacent to each other vertically and horizontally on the image have similar characteristics, it is determined that they are integrated as one region. On the other hand, when the contribution ratios of the first principal component and the second principal component are approximate, there is a high possibility that a plurality of colors are included in one small region, and therefore, it is determined to divide into small regions.

ステップ123) 最後に、主成分特性判定ステップ125における結果に基づいて、ステップ120での最初の小領域への分割結果に対して、統合と分割を行う。   Step 123) Finally, based on the result in the principal component characteristic determination step 125, the division and division into the first small region division result in Step 120 is performed.

図12に、図6で示した画像を例に、小領域を統合・分割した結果を示す。図12では、統合領域3及び統合領域4が、小領域統合・分割ステップ(ステップ123)によって統合された領域であり、分割領域5および分割領域6が分割された領域の例を示す。一つの小領域内に複数の色が含まれている場合には、小領域が更に分割されており、小領域内が殆ど同一の色で占められている場合には、その上下左右にある同一の特性を持つ領域と統合されていることが示されている。   FIG. 12 shows the result of integrating and dividing the small areas, taking the image shown in FIG. 6 as an example. FIG. 12 shows an example in which the integrated area 3 and the integrated area 4 are areas integrated by the small area integration / division step (step 123), and the divided areas 5 and 6 are divided. When a plurality of colors are included in one small area, the small area is further divided. When the small area is occupied by almost the same color, the same color is displayed on the top, bottom, left, and right. It is shown to be integrated with an area with the characteristics of

なお、上述では、小領域特性判定ステップ(ステップ122)での結果に基づいて小領域の統合と分割の両方を行う処理について説明しているが、分割もしくは統合のどちらかの処理のみを実行しても構わない。   In the above description, the processing for performing both integration and division of small regions based on the result of the small region characteristic determination step (step 122) has been described. However, only the processing of either division or integration is executed. It doesn't matter.

次の色情報マッピングステップ(ステップ130)は、前述の第1の実施の形態と同様であるので、説明は省略する。   The next color information mapping step (step 130) is the same as in the first embodiment described above, and a description thereof will be omitted.

各小領域から色空間への画素値のマッピング(色情報マッピングステップ(ステップ130))の後、色空間内で近傍に位置する画素同士を一つにまとめてクラスタリングする(ステップ140)。第1の実施の形態で説明したように、異なる小領域の画素は、色空間で近傍に位置している場合であっても、別なクラスタとして生成する。さらに、クラスタ生成後、クラスタとして生成可能かどうかの判定を行い、条件を満足しているもののみクラスタとして残す。ここで、クラスタ生成可否の判断は、例えば、クラスタ内に含まれる画素数が所定の数以上あるかどうか、もしくは、クラスタ内に含まれる画素数の、小領域内の画素数に示す割合が一定以上であるかどうかのような基準を用いる。なお、色空間内での近傍の判断に関しては、第1の実施の形態での説明と同様であるため説明を省略する。   After mapping pixel values from each small area to the color space (color information mapping step (step 130)), pixels located in the vicinity in the color space are clustered together as one (step 140). As described in the first embodiment, pixels in different small areas are generated as separate clusters even when they are located in the vicinity in the color space. Furthermore, after the cluster is generated, it is determined whether or not it can be generated as a cluster, and only those satisfying the conditions are left as clusters. Here, whether or not the cluster can be generated is determined by, for example, whether the number of pixels included in the cluster is a predetermined number or more, or the ratio of the number of pixels included in the cluster to the number of pixels in the small region is constant. A criterion such as whether or not the above is used is used. Note that the determination of the neighborhood in the color space is the same as that described in the first embodiment, and thus the description thereof is omitted.

また、次のクラスタ代表情報抽出ステップ(ステップ150)も、第1の実施の形態と同様であるため、この説明も省略する。   Further, the next cluster representative information extraction step (step 150) is also the same as that in the first embodiment, so this description is also omitted.

情報列形成ステップ(ステップ160)では、クラスタ代表情報抽出ステップ(ステップ150)で得られた結果に基づいて、画像の特性を表現する情報列を形成する。この処理では、各小領域に含まれるクラスタの数が複数種類ある場合、代表クラスタを一つ選定し、情報列を生成する。以下、クラスタ代表情報抽出部50における、代表クラスタの選定方法について説明する。   In the information sequence forming step (step 160), an information sequence expressing the characteristics of the image is formed based on the result obtained in the cluster representative information extracting step (step 150). In this process, when there are a plurality of types of clusters included in each small area, one representative cluster is selected and an information string is generated. Hereinafter, a representative cluster selection method in the cluster representative information extraction unit 50 will be described.

図13は、本発明の第2の実施の形態における代表クラスタの選定処理のフローチャートである。   FIG. 13 is a flowchart of representative cluster selection processing according to the second embodiment of the present invention.

ステップ161) クラスタ代表情報抽出部50は、各小領域に対して、クラスタの特徴情報を計算する。ここで、クラスタの特徴情報とは、例えば、一つのクラスタに含まれる画素数、クラスタ内の画素値の分散、クラスタの半径等の情報である。以下では、1クラスタ内の画素数を特徴情報とする場合について説明するが、分散や半径を用いても構わない。   Step 161) The cluster representative information extraction unit 50 calculates cluster feature information for each small region. Here, the cluster feature information is, for example, information such as the number of pixels included in one cluster, the dispersion of pixel values in the cluster, and the radius of the cluster. Hereinafter, a case where the number of pixels in one cluster is used as feature information will be described. However, dispersion or a radius may be used.

ステップ162) 小領域毎にクラスタの特徴情報の計算結果から、一つのクラスタ内に含まれる画素の数が最も多いものを、代表クラスタに選定する。クラスタに含まれる画素数が多いということは、一小領域内でその色領域が占める割合が最も大きいことを示している。また、クラスタの特徴情報に、クラスタ内の画素数の分散を用いる場合は、分散の最も大きいクラスタを選択し、クラスタの半径を特徴情報に用いる場合は、半径の最も大きいクラスタを選択する。   Step 162) From the calculation result of the cluster feature information for each small region, the one having the largest number of pixels contained in one cluster is selected as the representative cluster. The fact that the number of pixels included in the cluster is large indicates that the proportion of the color area in the small area is the largest. Further, when using the variance of the number of pixels in the cluster as the feature information of the cluster, the cluster having the largest variance is selected, and when using the cluster radius as the feature information, the cluster having the largest radius is selected.

ステップ160) 以上の処理により、一小領域に一つの代表クラスタが得られるので、これらのクラスタの代表情報から情報列を生成する。   Step 160) With the above processing, one representative cluster is obtained in one small area, so an information string is generated from the representative information of these clusters.

なお、情報列の生成においては、第1の実施の形態にて説明したように、小領域を左上起点としたラスタ形式、輝度の大小に基づいて事前に決めた起点かららせん状等の方法に従って順番に並べても構わないのは自明である。   In the generation of the information sequence, as described in the first embodiment, the raster format with the small area as the upper left starting point, the spiral starting from the starting point determined in advance based on the magnitude of the brightness, etc. It is obvious that you can arrange them in order.

情報列に用いるクラスタとして、第1の実施の形態では、一小領域内の全てのクラスタを用いる場合について、第2の実施の形態では、複数のクラスタから一つを選択する場合について説明したが、これらの処理の前に、小領域毎に各クラスタの統計的な性質に基づいて、どちらかの方法を選択するという判断ステップを設けても構わない。例えば、小領域から得られる複数のクラスタに対し、クラスタ間分散とクラスタ内分散を計算し、
クラスタ間分散/クラスタ内分散 > th 式(3)
である場合、全てのクラスタの代表情報を用いると判定し、
クラスタ間分散/クラスタ内分散 ≦ th 式(4)
である場合、複数のクラスタから一つを選択すると判断する。ここで、thは閾値である。
In the first embodiment, the case where all the clusters in one small area are used as the cluster used for the information sequence, and in the second embodiment, the case where one is selected from a plurality of clusters has been described. Before these processes, a determination step of selecting one of the methods based on the statistical properties of each cluster for each small area may be provided. For example, for multiple clusters obtained from a small area, calculate the inter-cluster variance and intra-cluster variance,
Intercluster distribution / Intracluster distribution> th formula (3)
Is determined to use representative information of all clusters,
Inter-cluster dispersion / intra-cluster dispersion ≦ th formula (4)
If it is, it is determined that one is selected from a plurality of clusters. Here, th is a threshold value.

上記の判定においては、小領域の画素値をRGB色空間にマッピングすると、図14の領域7のように複数のクラスタが離れて分布する場合と、領域8のように複数のクラスタが近い位置で分布する場合があり、それぞれ、クラスタ内分散に対するクラスタ間分散の値が異なる特性を持つことを利用する。即ち、前者は、小領域内で明らかに異なる色領域が複数存在する状態であり、クラスタ内分散に対するクラスタ間分散の比は大きくなり、(式(3))、一方、後者は前者に比較して小さい(式(4))。なお、式(3)、式(4)では、等号を式(4)に付けたが、式(3)に付けても構わないことは自明である。   In the above determination, when the pixel values of the small area are mapped to the RGB color space, a plurality of clusters are distributed apart as in area 7 in FIG. There are cases where the distribution is distributed, and the fact that each of the values of the inter-cluster variance with respect to the intra-cluster variance has different characteristics is used. In other words, the former is a state in which there are a plurality of distinctly different color regions in a small region, and the ratio of the inter-cluster variance to the intra-cluster variance is large (Equation (3)), while the latter is compared with the former. And small (formula (4)). In addition, in Formula (3) and Formula (4), although the equal sign was attached | subjected to Formula (4), it is obvious that you may attach | subject to Formula (3).

ステップ170) 最後に、上記で生成された情報列をデータベース80に格納する。   Step 170) Finally, the information string generated above is stored in the database 80.

また、本発明は、上記の第1の実施の形態、第2の実施の形態で示した図3、図8に示す機能をプログラムとして構築し、コンピュータにインストールして実行させる、または、ネットワークを介して流通させることが可能である。   In addition, the present invention constructs the functions shown in FIG. 3 and FIG. 8 shown in the first embodiment and the second embodiment as programs and installs them in a computer for execution, or creates a network. It is possible to circulate through.

また、構築されたプログラムをハードディスク装置や、フレキシブルディスク・CD−ROM等の可搬記憶媒体に格納し、コンピュータにインストールする、または、配布することも可能である。   Further, the constructed program can be stored in a portable storage medium such as a hard disk device or a flexible disk / CD-ROM, and installed in a computer or distributed.

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

本発明は、インターネットや外部に流通しているコンテンツの不正利用の防止やコンテンツ検索、コンテンツをキーとしたリファレンスサービスに適用可能である。   The present invention can be applied to prevention of unauthorized use of content distributed on the Internet or outside, content search, and a reference service using content as a key.

本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の原理構成図である。It is a principle block diagram of this invention. 本発明の第1の実施の形態における装置構成図である。It is an apparatus block diagram in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるフローチャートである。It is a flowchart in the 1st Embodiment of this invention. 本発明の第1の実施の形態における処理イメージを示す図である。It is a figure which shows the process image in the 1st Embodiment of this invention. 本発明の第1の実施の形態における領域分割の例である。It is an example of the area | region division in the 1st Embodiment of this invention. 本発明の第1の実施の形態における情報列形成の例である。It is an example of information sequence formation in the 1st embodiment of the present invention. 本発明の第2の実施の形態における装置構成図である。It is an apparatus block diagram in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における領域分割処理以降の動作のフローチャートである。It is a flowchart of operation | movement after the area | region division process in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における小領域分割判断において分割する/しない場合の代表的なパワースペクトルの例である。It is an example of a typical power spectrum in the case of dividing | segmenting / not dividing in the small region division | segmentation judgment in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における画像を小領域に分割する際の動作のフローチャートである。It is a flowchart of the operation | movement at the time of dividing | segmenting the image in the 2nd Embodiment of this invention into a small area. 本発明の第2の実施の形態における領域分割処理の後、統合・分割判断を行った結果の例である。It is an example of the result of having performed integration and division determination after the area division processing in the second exemplary embodiment of the present invention. 本発明の第2の実施の形態における代表クラスタの選定処理のフローチャートである。It is a flowchart of the selection process of the representative cluster in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における小領域から得られるクラスタ分布の様子を示す図である。It is a figure which shows the mode of the cluster distribution obtained from the small area | region in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 領域
2 領域
3 統合領域
4 統合領域
5 分割領域
6 分割領域
7 領域
8 領域
10 画像入力部
20 領域分割手段、領域分割部
30 色情報マッピング手段、色情報マッピング部
40 色情報クラスタリング手段、色情報クラスタリング部
50 クラスタ代表情報抽出手段、クラスタ代表情報抽出部
60 情報列形成手段、情報列形成部
70 情報列出力部
80 データベース
90 記憶メモリ
110 周波数特性計算部
120 小領域特性判定部
130 小領域統合・分割部
1 area 2 area 3 integrated area 4 integrated area 5 divided area 6 divided area 7 area 8 area 10 image input unit 20 area dividing unit, area dividing unit 30 color information mapping unit, color information mapping unit 40 color information clustering unit, color information Clustering unit 50 Cluster representative information extracting means, cluster representative information extracting unit 60 Information sequence forming means, information sequence forming unit 70 Information sequence output unit 80 Database 90 Storage memory 110 Frequency characteristic calculating unit 120 Small region characteristic determining unit 130 Small region integration / Dividing part

Claims (10)

画像を特定することを目的として、画像自体から情報を抽出する局所色分布を利用したコンテンツ情報特定方法であって、
画像分割手段が、入力された画像を複数の小領域に分割する領域分割ステップと、
色情報マッピング手段が、前記領域分割ステップで分割された前記小領域に対して、各小領域に含まれる色情報を色空間にマッピングする色情報マッピングステップと、
色情報クラスタリング手段が、前記色情報マッピングステップでマッピングされた結果に基づいて、色空間内でクラスタリングする色情報クラスタリングステップと、
クラスタ代表情報抽出手段が、前記色情報クラスタリングステップで得られた色空間内の各クラスタに対して、代表情報を求めるクラスタ代表情報抽出ステップと、
情報列形成手段が、各クラスタの代表情報から小領域の特徴量を求め、画像全体の情報列を形成する情報列形成ステップと、
を行うことを特徴とするコンテンツ情報特定方法。
A content information identification method using a local color distribution that extracts information from the image itself for the purpose of identifying the image,
An area dividing step in which the image dividing means divides the input image into a plurality of small areas;
A color information mapping step for mapping color information included in each small region to a color space with respect to the small region divided in the region dividing step;
A color information clustering step in which color information clustering means performs clustering in a color space based on the result mapped in the color information mapping step;
A cluster representative information extracting unit is a cluster representative information extracting step for obtaining representative information for each cluster in the color space obtained in the color information clustering step;
An information sequence forming step, wherein the information sequence forming means obtains a feature amount of the small area from the representative information of each cluster, and forms an information sequence of the entire image;
A content information specifying method characterized by:
映像を特定することを目的として、映像自体から情報を抽出する局所色分布を利用したコンテンツ情報特定方法であって、
画像分割手段が、入力された映像の各フレームを複数の小領域に分割する領域分割ステップと、
色情報マッピング手段が、前記領域分割ステップで分割された前記小領域に対して、各小領域に含まれる色情報を色空間にマッピングする色情報マッピングステップと、
色情報クラスタリング手段が、前記色情報マッピングステップでマッピングされた結果に基づいて、色空間内でクラスタリングする色情報クラスタリングステップと、
クラスタ代表情報抽出手段が、前記色情報クラスタリングステップで得られた色空間内の各クラスタに対して、代表情報を求めるクラスタ代表情報抽出ステップと、
情報列形成手段が、各クラスタの代表情報から小領域の特徴量を求め、フレーム毎に情報列を形成し、時間軸方向に並べて情報列を形成する情報列形成ステップと、
を行うことを特徴とするコンテンツ情報特定方法。
A content information specifying method using a local color distribution that extracts information from the video itself for the purpose of specifying the video,
An area dividing step in which the image dividing means divides each frame of the input video into a plurality of small areas;
A color information mapping step for mapping color information included in each small region to a color space with respect to the small region divided in the region dividing step;
A color information clustering step in which color information clustering means performs clustering in a color space based on the result mapped in the color information mapping step;
A cluster representative information extracting unit is a cluster representative information extracting step for obtaining representative information for each cluster in the color space obtained in the color information clustering step;
An information sequence forming step, wherein the information sequence forming means obtains a feature amount of a small area from the representative information of each cluster, forms an information sequence for each frame, and forms an information sequence arranged in a time axis direction;
A content information specifying method characterized by:
前記領域分割ステップにおいて、
画像ないし映像のフレーム全体に対して、画像の特性に応じた複数種類の大きさの領域に分割するステップを行う請求項1または2記載のコンテンツ情報特定方法。
In the region dividing step,
The content information specifying method according to claim 1 or 2, wherein the step of dividing the entire frame of the image or video into regions of a plurality of types according to the characteristics of the image is performed.
前記色情報クラスタリングステップにおいて、
画像ないし映像の各フレーム内の隣接関係に基づいて、クラスタリングするステップを行う、請求項1または2記載のコンテンツ情報特定方法。
In the color information clustering step,
The content information specifying method according to claim 1 or 2, wherein the step of clustering is performed based on an adjacent relationship in each frame of an image or a video.
画像を特定することを目的として、画像自体から情報を抽出する局所色分布を利用したコンテンツ情報特定装置であって、
入力された画像を複数の小領域に分割する領域分割手段と、
前記領域分割手段で分割された前記小領域に対して、各小領域に含まれる色情報を色空間にマッピングする色情報マッピング手段と、
前記色情報マッピング手段でマッピングされた結果に基づいて、色空間内でクラスタリングする色情報クラスタリング手段と、
前記色情報クラスタリング手段で得られた色空間内の各クラスタに対して、代表情報を求めるクラスタ代表情報抽出手段と、
各クラスタの代表情報から小領域の特徴量を求め、画像全体の情報列を形成する情報列形成手段と、
を有することを特徴とするコンテンツ情報特定装置。
A content information identification device using a local color distribution that extracts information from the image itself for the purpose of identifying the image,
Area dividing means for dividing the input image into a plurality of small areas;
Color information mapping means for mapping color information contained in each small area to a color space for the small areas divided by the area dividing means;
Color information clustering means for clustering in a color space based on the result mapped by the color information mapping means;
Cluster representative information extraction means for obtaining representative information for each cluster in the color space obtained by the color information clustering means;
An information sequence forming means for obtaining a feature amount of a small area from representative information of each cluster and forming an information sequence of the entire image;
A content information specifying device comprising:
映像を特定することを目的として、映像自体から情報を抽出する局所色分布を利用したコンテンツ情報特定装置であって、
入力された映像の各フレームを複数の小領域に分割する領域分割手段と、
前記領域分割手段で分割された前記小領域に対して、各小領域に含まれる色情報を色空間にマッピングする色情報マッピング手段と、
前記色情報マッピング手段でマッピングされた結果に基づいて、色空間内でクラスタリングする色情報クラスタリング手段と、
前記色情報クラスタリング手段で得られた色空間内の各クラスタに対して、代表情報を求めるクラスタ代表情報抽出手段と、
各クラスタの代表情報から小領域の特徴量を求め、フレーム毎に情報列を形成し、時間軸方向に並べて情報列を形成する情報列形成手段と、
を有することを特徴とするコンテンツ情報特定装置。
A content information specifying device that uses a local color distribution to extract information from the video itself for the purpose of specifying the video,
Area dividing means for dividing each frame of the input video into a plurality of small areas;
Color information mapping means for mapping color information contained in each small area to a color space for the small areas divided by the area dividing means;
Color information clustering means for clustering in a color space based on the result mapped by the color information mapping means;
Cluster representative information extraction means for obtaining representative information for each cluster in the color space obtained by the color information clustering means;
An information sequence forming means for obtaining a feature amount of a small area from representative information of each cluster, forming an information sequence for each frame, and arranging the information sequence in the time axis direction;
A content information specifying device comprising:
前記領域分割手段は、
画像ないし映像のフレーム全体に対して、画像の特性に応じた複数種類の大きさの領域に分割する手段を含む請求項5または6記載のコンテンツ情報特定装置。
The region dividing means includes
7. The content information specifying device according to claim 5, further comprising means for dividing an entire frame of an image or video into areas of a plurality of types according to image characteristics.
前記色情報クラスタリング手段は、
画像ないし映像の各フレーム内の隣接関係に基づいて、クラスタリングする手段を含む、請求項5または6記載のコンテンツ情報特定装置。
The color information clustering means includes
7. The content information specifying device according to claim 5, further comprising means for clustering based on an adjacent relationship in each frame of an image or a video.
コンピュータを、
前記請求項5乃至8記載のコンテンツ情報特定装置として機能させることを特徴とするコンテンツ情報特定プログラム。
Computer
9. A content information specifying program that functions as the content information specifying device according to claim 5.
コンピュータを、
前記請求項5乃至8記載のコンテンツ情報特定装置として機能させるプログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。
Computer
9. A computer-readable recording medium storing a program that functions as the content information specifying device according to claim 5.
JP2006003998A 2006-01-11 2006-01-11 Method and device for specifying content information, program, and computer readable recording medium Pending JP2007188176A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006003998A JP2007188176A (en) 2006-01-11 2006-01-11 Method and device for specifying content information, program, and computer readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006003998A JP2007188176A (en) 2006-01-11 2006-01-11 Method and device for specifying content information, program, and computer readable recording medium

Publications (1)

Publication Number Publication Date
JP2007188176A true JP2007188176A (en) 2007-07-26

Family

ID=38343322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006003998A Pending JP2007188176A (en) 2006-01-11 2006-01-11 Method and device for specifying content information, program, and computer readable recording medium

Country Status (1)

Country Link
JP (1) JP2007188176A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010199767A (en) * 2009-02-24 2010-09-09 Fuji Xerox Co Ltd Image processing device and image processing program
JP2018097506A (en) * 2016-12-12 2018-06-21 株式会社日立製作所 Satellite image processing system and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010199767A (en) * 2009-02-24 2010-09-09 Fuji Xerox Co Ltd Image processing device and image processing program
JP2018097506A (en) * 2016-12-12 2018-06-21 株式会社日立製作所 Satellite image processing system and method

Similar Documents

Publication Publication Date Title
JP3740065B2 (en) Object extraction device and method based on region feature value matching of region-divided video
WO2018028583A1 (en) Subtitle extraction method and device, and storage medium
JP4918776B2 (en) Electronic document comparison program, electronic document comparison device, and electronic document comparison method
US6577759B1 (en) System and method for performing region-based image retrieval using color-based segmentation
JP6131723B2 (en) Information processing apparatus, information processing method, program, and recording medium
KR102115328B1 (en) Apparatus for extracting object of interest in image using image matting based on global contrast and method using the same
EP2587826A1 (en) Extraction and association method and system for objects of interest in video
CN106096542B (en) Image video scene recognition method based on distance prediction information
JP5261501B2 (en) Permanent visual scene and object recognition
JP2004361987A (en) Image retrieval system, image classification system, image retrieval program, image classification program, image retrieval method, and image classification method
JP5900208B2 (en) Image processing apparatus and image processing method
JP2008217428A (en) Image-retrieving program, method, and device
US9679380B2 (en) Emotion modification for image and video content
US10699156B2 (en) Method and a device for image matching
JP4772819B2 (en) Image search apparatus and image search method
KR102052535B1 (en) Apparatus for judging illegal duplication using feature point and method thereof
US20110150344A1 (en) Content based image retrieval apparatus and method
JP2007164301A (en) Information processor, data analyzing method, program, and information storage medium
JP2007188176A (en) Method and device for specifying content information, program, and computer readable recording medium
JP2009104244A (en) Information processor and method, and program
KR101332630B1 (en) Weight lightened random ferns and image expression method using the same
US11461578B2 (en) Methods and systems for generating composite image descriptors
JP2007156841A5 (en)
JP6254771B2 (en) Image processing apparatus and image processing program
JP2008158626A (en) Template creation device, template creation method, template creation program implementing the method, storage medium with the program stored therein, template matching device, template matching method, template matching program implementing the method, and storage medium with the program stored therein