JP3332166B2 - Video search device - Google Patents
Video search deviceInfo
- Publication number
- JP3332166B2 JP3332166B2 JP26103392A JP26103392A JP3332166B2 JP 3332166 B2 JP3332166 B2 JP 3332166B2 JP 26103392 A JP26103392 A JP 26103392A JP 26103392 A JP26103392 A JP 26103392A JP 3332166 B2 JP3332166 B2 JP 3332166B2
- Authority
- JP
- Japan
- Prior art keywords
- color
- image
- moving image
- pair
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Digital Computer Display Output (AREA)
- Processing Of Color Television Signals (AREA)
- Image Analysis (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、マルチメディア処
理システムや映像機器などの画像処理機器、および、そ
れらの機器における動画像の検索技術に係り、特に、動
画像の編集作業において、動画像中から希望する場面
を、効率良く検索するのに好適な動画像の検索装置に関
するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device such as a multimedia processing system or a video device, and a technique for retrieving a moving image in such a device. a scene desired by the search equipment suitable moving image to efficiently search are those relating <br/>.
【0002】[0002]
【従来の技術】近年、動画像情報が、情報メディアとし
ての重要度を飛躍的に増しつつあり、一般の人々が容易
に動画像情報を作成活用できるような編集支援環境が求
められている。動画像の編集においては、多くの動画像
素材の中から、編集者が必要とする場面を効率的に探し
出す機能が求められる。2. Description of the Related Art In recent years, the importance of moving image information as information media has been dramatically increasing, and an editing support environment that allows ordinary people to easily create and utilize moving image information is required. In editing moving images, there is a need for a function of efficiently searching a scene required by an editor from many moving image materials.
【0003】動画像検索は、キーワード等によって動画
像のインデックスを作成しておくものが一般的である。
この検索では、検索対象の指定を、インデックスとなっ
ているテキスト情報の入力によって比較的容易に行え
る。しかし、インデックスとして登録されていないキー
ワードを使って検索することはできないという本質的な
問題がある。特に動画像の編集のような創造的な活動で
は、このことはユーザーにとって大きな不満点となる。
また、インデックスを登録する作業は人間が行わなけれ
ばならないという問題もある。In general, a moving image search is performed by creating an index of a moving image based on a keyword or the like.
In this search, designation of a search target can be relatively easily performed by inputting text information serving as an index. However, there is an essential problem that a search cannot be performed using a keyword that is not registered as an index. This is a major dissatisfaction for the user, especially in creative activities such as video editing.
There is also a problem that the work of registering the index must be performed by a human.
【0004】このような問題の解決を目的として、例え
ば、本発明の提案者らによる技術が、社団法人 情報処
理学会編「情報処理学会論文誌、Vol.33、 N
o.41992」のpp.543〜550にある「カラ
ービデオ映像における自動索引付け法と物体検索法」
(長坂、田中)に、記載されている。この技術には、探
そうとする対象物を含むカラー画像を一枚指定するだけ
で、その対象物が現れている全てのフレーム(動画像を
形成する一連の静止画像。テレビ映像は、秒あたり30
枚のフレームから成る)を、カラー動画像中から探し出
す技術が記載されている。以下、この技術の詳細を説明
する。[0004] For the purpose of solving such a problem, for example, a technique by the present inventors has been proposed by the Information Processing Society of Japan, “Transactions of Information Processing Society of Japan, Vol.
o. Pp. 41992 ”. "Automatic Indexing Method and Object Retrieval Method for Color Video Images" at pages 543-550
(Nagasaka, Tanaka). With this technology, you only need to specify a single color image that contains the object you are trying to find, and all frames in which the object appears (a series of still images that form a moving image. 30
(Which consists of a single frame) from a color moving image. Hereinafter, the details of this technique will be described.
【0005】指定した対象物が画像中に存在するかどう
かを判定する技術としては、パターンマッチングを始め
として、様々なアルゴリズムが存在する。しかし、動画
像の検索においては、対象物の姿勢や位置が変化するの
で、フレーム内での対象物の大きさや形状が時々刻々と
変化する。したがって、こうした変形にロバストなもの
でなければならない。また、動画像の持つ膨大な枚数の
フレームを処理するためには、高速性が不可欠である。As a technique for determining whether or not a specified target exists in an image, there are various algorithms including pattern matching. However, in the search for a moving image, the size and shape of the object in the frame change every moment because the posture and position of the object change. Therefore, it must be robust to such deformation. Further, in order to process a huge number of frames of a moving image, high speed is indispensable.
【0006】上述の文献に挙げた対象物検索技術は、上
述の条件を満たすように考案されている。そのアルゴリ
ズムは、大きく次の2つの基本処理に分けられる。 (a)指定された対象物の画像(参照画像)から、特徴
的な情報を抽出する処理。 (b)その抽出した情報が、任意のフレームに含まれて
いるか否かを判定する処理。[0006] The object retrieval techniques described in the above-mentioned documents have been devised so as to satisfy the above-mentioned conditions. The algorithm is roughly divided into the following two basic processes. (A) A process of extracting characteristic information from an image of a designated target object (reference image). (B) A process of determining whether or not the extracted information is included in an arbitrary frame.
【0007】処理(a)では、対象物の画像を特徴付け
る情報として、そのカラー画像上で隣接している色の対
(色対)を抽出する。このような色対は、対象物の局所
的な特徴情報であり、対象物の大きさや向きに不変な対
象物画像固有の情報である。処理(b)では、判定対象
のフレームに、処理(a)で選ばれた参照色対が存在し
ているかどうかを調べる。この時、対象物の特徴情報で
あるN個(例えば、N=16程度とする)の参照色対
が、フレームに同時に存在していれば、このフレームに
対象物が含まれていると判定する。以下、処理(a)の
詳細を図17を用いて、処理(b)の詳細を図18を用
いて説明する。In the process (a), pairs of adjacent colors (color pairs) on the color image are extracted as information characterizing the image of the object. Such a color pair is local characteristic information of the object, and is information unique to the object image that is invariable in the size and orientation of the object. In the process (b), it is checked whether or not the reference color pair selected in the process (a) exists in the frame to be determined. At this time, if N (for example, about N = 16) reference color pairs, which are characteristic information of the object, are simultaneously present in the frame, it is determined that the frame contains the object. . Hereinafter, the details of the process (a) will be described with reference to FIG. 17, and the details of the process (b) will be described with reference to FIG.
【0008】図17は、従来のカラー動画像対象物の特
徴情報の選出方法の一例を示すフローチャートである。
カラーの参照画像からの特徴抽出処理は、以下のように
行う。まず、対象物が現れているカラー画像(以下、単
に画像と呼ぶ)を検索者に一枚指定させ(ステップ17
01)、対象物の画像領域部だけを、参照画像として切
り出させる(ステップ1702)。次に、参照画像を矩
形領域(以下、セルと呼ぶ)に分割し(ステップ170
3)、セル毎に、以下の処理を行なう(ステップ170
4)。まず、色ヒストグラムを求め(ステップ170
5)、そのヒストグラム中の度数が設定閾値より大きい
色(セル色と呼ぶ)を全て抽出し、リストCCに登録す
る(ステップ1706〜1708)。尚、リストCCの
データ構造の一例を、次の表2に示す。FIG. 17 is a flowchart showing an example of a conventional method for selecting characteristic information of a color moving image object.
The feature extraction process from the color reference image is performed as follows. First, the searcher specifies one color image (hereinafter simply referred to as an image) in which the object appears (step 17).
01) Only the image area of the object is cut out as a reference image (step 1702). Next, the reference image is divided into rectangular areas (hereinafter referred to as cells) (step 170).
3) The following processing is performed for each cell (step 170).
4). First, a color histogram is obtained (step 170).
5) Extract all colors (referred to as cell colors) whose frequency in the histogram is larger than the set threshold and register them in the list CC (steps 1706 to 1708). Table 2 shows an example of the data structure of the list CC.
【表2】 [Table 2]
【0009】次に、参照画像上の各セルについて、以下
の処理を行なう(ステップ1709)。まず、セルのセ
ル色と、その隣接する各セルのセル色から、各々一色ず
つ選んで対(色対)を作る(ステップ1710)。この
色対の作成を、二つのセルの持つセル色の数だけ行い、
全ての組合せをリストCPに登録する(ステップ171
1)。この時、各セル内のセル色の組合せもCPに登録
する。さらに、リストCPから、出現頻度の上位の色対
N個を選択し、リストRCPに登録する(ステップ17
12)。これらN個の色対を、対象物を特徴付ける情報
として用いる(参照色対と呼ぶ)。リストCPとリスト
RCPのデータ構造の一例を、それぞれ、次の表3と表
4に示す。Next, the following processing is performed for each cell on the reference image (step 1709). First, a pair (color pair) is created by selecting one color from the cell color of a cell and the cell color of each cell adjacent thereto (step 1710). Create this color pair by the number of cell colors of the two cells,
Register all combinations in list CP (step 171)
1). At this time, the combination of cell colors in each cell is also registered in the CP. Further, from the list CP, the N highest-frequency color pairs are selected and registered in the list RCP (step 17).
12). These N color pairs are used as information characterizing the object (referred to as reference color pairs). Examples of the data structures of the list CP and the list RCP are shown in the following Tables 3 and 4, respectively.
【表3】 [Table 3]
【表4】 [Table 4]
【0010】図18は、従来のカラー動画像対象物の検
索方法の一例を示すフローチャートである。本フローチ
ャートは、判定の対象とするフレームが、図17で特徴
付けした対象物を含むかどうかを判定するものである。
判定対象のフレームをセルに分割し(1801)、各セ
ルについて、以下の処理を行ない、各セルのセル色を求
める(ステップ1802)。まず、色ヒストグラムを求
め(ステップ1803)、そのヒストグラム中の度数が
設定閾値より大きい色(セル色)を全て抽出し、リスト
CCに登録する(ステップ1804〜1806)。FIG. 18 is a flowchart showing an example of a conventional color moving image object search method. This flowchart determines whether or not the frame to be determined includes the object characterized in FIG.
The frame to be determined is divided into cells (1801), and the following processing is performed on each cell to determine the cell color of each cell (step 1802). First, a color histogram is obtained (step 1803), and all colors (cell colors) whose frequency in the histogram is larger than a set threshold are extracted and registered in the list CC (steps 1804 to 1806).
【0011】次に、リストRCPに登録された色対の各
々について、以下の処理を行ない、上述のフレームでの
出現数を求める(ステップ1807)。まず、フレーム
上の各セルのうち(ステップ1808)、色対を構成す
る二色のうちの一方をセル色として持ち(ステップ18
09)、色対の他方の色を、そのセル自身、あるいはそ
の隣接する8セルのうちのいずれかのセルがセル色とし
て持っているセル(以下、有効セル)を全て抽出し(ス
テップ1810)、上述のフレームにおける有効セルの
総数を求める(ステップ1811)。Next, the following processing is performed for each color pair registered in the list RCP to determine the number of appearances in the above-mentioned frame (step 1807). First, each of the cells on the frame (step 1808) has one of the two colors constituting the color pair as a cell color (step 18).
09), as for the other color of the color pair, all the cells (hereinafter referred to as valid cells) which the cell itself or any one of its adjacent eight cells has as a cell color are extracted (step 1810). , The total number of valid cells in the above-described frame is obtained (step 1811).
【0012】この有効セルの数が設定閾値を超えていれ
ば(ステップ1812)、その色対を有効色対としてカ
ウントし(ステップ1813)、この有効色対の総数
を、設定閾値と比較し(ステップ1814)、対象物が
そのフレームに存在しているか否かの判定を行なう(ス
テップ1815、1816)。If the number of effective cells exceeds the set threshold value (step 1812), the color pair is counted as an effective color pair (step 1813), and the total number of the effective color pairs is compared with the set threshold value (step 1813). Step 1814), and it is determined whether or not the object exists in the frame (steps 1815 and 1816).
【0013】図19は、図17で示したアルゴリズムを
用いた検索例を示す説明図である。本図において、19
1は検索のリファレンスとなる対象物(少女)を含んだ
フレームで、その中の枠で囲んだ部分領域が、対象物の
参照画像であり、192は検索対象物を含むフレーム
で、193は検索対象物を含まないフレームであり、1
94と195は、16種の参照色対の存在が検出された
分布マップである。本図の例において、存在すると判定
される参照色対の数は、分布マップ194で14個、分
布マップ195では8個となっている。そのため、閾値
を8と14の間に設定すれば、分布マップ194に対象
物が存在し、分布マップ195には存在しないと正しく
判定することができる。FIG. 19 is an explanatory diagram showing a search example using the algorithm shown in FIG. In this figure, 19
Reference numeral 1 denotes a frame including a target object (girl) serving as a reference for search, and a partial area surrounded by a frame therein is a reference image of the target object; 192, a frame including the search target object; A frame that does not contain an object,
94 and 195 are distribution maps in which the presence of 16 types of reference color pairs has been detected. In the example of this drawing, the number of reference color pairs determined to be present is 14 in the distribution map 194 and 8 in the distribution map 195. Therefore, if the threshold is set between 8 and 14, it can be correctly determined that the target exists in the distribution map 194 and does not exist in the distribution map 195.
【0014】ところが、各種の映像サンプルについて実
験した結果、前記の従来アルゴリズムには、後述の表1
の従来と記した欄のデータからもわかるように、検出漏
れや過剰検出が少なからず発生することがわかった。実
験中に、目視観測したところ、これら誤動作を生ずる最
も大きな要因として、次の2点があると考えられる。 (イ)参照色対の選び方。 (ロ)光源の色温度変化による対象物の色変化。 以下では、この2点について詳しく考察する。However, as a result of experiments on various video samples, the above-mentioned conventional algorithm includes the following Table 1.
As can be seen from the data in the column described as "Conventional," it was found that detection omission and excessive detection occurred to a considerable extent. Visual observation during the experiment suggests that the following two points are the biggest causes of these malfunctions. (B) How to select a reference color pair. (B) Color change of the object due to color temperature change of the light source. Hereinafter, these two points will be considered in detail.
【0015】(イ)の参照色対の選び方による影響につ
いて説明する。対象物の参照画像の多くは、一様な色か
らなる複数の部分領域に分割することができる。次の図
20の画像に示した女性を例にとれば、髪・顔・服とい
った構成要素毎に、それぞれ黒系、肌色系、緑系の色を
主とする部分領域を考えることができる。この時、肌色
と緑色の対のような類似性の低い色どうしの対(以下、
異色対)は、要素間の境界(この場合は顔と服の境界)
のごく狭い領域にしか存在しない。The effect of (a) how to select a reference color pair will be described. Many of the reference images of the object can be divided into a plurality of partial regions having a uniform color. Taking the woman shown in the image of FIG. 20 as an example, it is possible to consider a partial region mainly having a black, flesh-color or green color for each component such as hair, face and clothes. At this time, a pair of colors with low similarity, such as a pair of skin color and green (hereinafter, referred to as
The unique pair is the boundary between the elements (in this case, the boundary between the face and the clothes)
It exists only in a very small area.
【0016】しかし、緑系の色どうしの対といった類似
した色の対(以下、同色対)は、各部分領域の大きさに
応じて数多く存在する。したがって、出現頻度の上位を
占める色対だけを参照色対とする場合では、同色対が参
照色対の大多数を占める。そして、次の図20で説明す
るように、同色対は、異色対に比べて、対象物が現れて
いなくても、フレーム上に現れることが多い。この場
合、検出漏れを防ぐためには、有効色対の数を小さな閾
値で判定せざるを得ず、過剰検出が増大してしまう。However, a number of similar color pairs such as pairs of green colors (same color pairs) exist depending on the size of each partial region. Therefore, when only the color pair having the highest appearance frequency is used as the reference color pair, the same color pair occupies the majority of the reference color pairs. Then, as will be described with reference to FIG. 20, the same color pair often appears on the frame even when the target object does not appear, as compared with the different color pair. In this case, in order to prevent omission of detection, the number of effective color pairs must be determined with a small threshold, and excessive detection increases.
【0017】図20は、参照画像から抽出した参照色対
の一例を示す説明図である。本図においては、参照画像
291から抽出した16個の参照色対のそれぞれについ
て、対をなす2色のRGB色空間座標292、293
と、その2色の間の色差294が示されている。RGB
色空間座標292、293の各座標値は、RGB各成分
の輝度を表し、0から7の値をとる。また、色差294
は、単純にRGB座標間の距離とした。色差294の大
きい色対は、順位にして3番、5番、8番、10番の4
つだけであり、そのうち3番の色対は同じ無彩色の対で
あって、人間の知覚では色差は近い。この結果から、同
色対が参照色対の大半を占めることがわかる。FIG. 20 is an explanatory diagram showing an example of a reference color pair extracted from a reference image. In the figure, for each of the 16 reference color pairs extracted from the reference image 291, two pairs of RGB color space coordinates 292, 293 of two colors forming a pair
And the color difference 294 between the two colors. RGB
Each coordinate value of the color space coordinates 292 and 293 represents the luminance of each of the RGB components and takes a value from 0 to 7. The color difference 294
Is simply the distance between the RGB coordinates. The color pair with the large color difference 294 is the fourth, third, fifth, eighth and tenth in the order.
The third color pair is the same achromatic color pair, and the color difference is close to human perception. From this result, it can be seen that the same color pair occupies most of the reference color pair.
【0018】(ロ)の光源の色温度の変化による影響に
ついて説明する。同じ対象物が現れている画像でも、対
象物がそれぞれ色温度の異なる光源下にある場合には、
対象物の画像はそれぞれ異なった色で表現される。した
がって、ある光源下で撮影された参照画像から抽出した
参照色対を、色温度の異なる光源下で撮られたフレーム
の判定にそのまま用いることは適切ではない。これが検
出漏れの大きな原因の一つである。The effect of the change in the color temperature of the light source (b) will be described. Even in the image where the same object appears, if the objects are under light sources with different color temperatures,
The images of the object are represented in different colors. Therefore, it is not appropriate to use a reference color pair extracted from a reference image captured under a certain light source as it is for determining a frame captured under a light source having a different color temperature. This is one of the major causes of missed detection.
【0019】一方、動画像の検索技術に関して、例え
ば、動画像の隣接するフレーム間の相関の変化に基づ
き、カットの変わり目を検出するものがある。そして、
このような技術を利用して、次の図21に示すように、
映像の編集を高効率化するシステムが開発されている。On the other hand, as a moving image search technique, there is a technique for detecting a cut transition based on, for example, a change in correlation between adjacent frames of a moving image. And
Utilizing such a technique, as shown in FIG.
Systems for improving the efficiency of video editing have been developed.
【0020】図21は、従来のカラー動画像カット検索
表示システムの構成を示すブロック図である。本図にお
いて、2101は、ビデオテープレコーダや、追記型レ
ーザディスクプレーヤーなどの機器を具備し、かつ、こ
れらの機器からの映像信号をデジタル画像データ(動画
像)に変換して出力する動画像再生装置、2102は、
動画像再生装置2101から送られてくる動画像のカッ
トの変わり目を検出するカット検出装置、2103は、
カット検出装置2202のカット検出動作に基づき、動
画像再生装置2101から送られてくる動画像から、カ
ット毎のアイコン画面を生成して、ディスプレイ210
4に表示するカット表示制御装置、2105は、カット
表示制御装置2103で生成されディスプレイ2104
上に表示されたアイコン群からなるカット表示画面であ
る。FIG. 21 is a block diagram showing the configuration of a conventional color moving image cut search and display system. In the figure, reference numeral 2101 denotes a moving image reproducing apparatus which includes devices such as a video tape recorder and a write-once laser disc player, and converts a video signal from these devices into digital image data (moving image) and outputs the digital image data (moving image). The device, 2102,
A cut detection device 2103 that detects a transition between cuts of a moving image sent from the moving image reproducing device 2101 includes:
Based on the cut detection operation of the cut detection device 2202, an icon screen for each cut is generated from the moving image transmitted from the moving image reproduction device 2101, and the display 210
The cut display control device 2105 to be displayed on the display 2104 is generated by the cut display control device 2103 and displayed on the display 2104.
It is a cut display screen consisting of a group of icons displayed above.
【0021】動画像が、動画像再生装置2101から供
給されると、カット検出装置2202は、動画像の隣接
するフレーム間の相関の変化に基づき、カットの変わり
目を検出する。カット表示制御装置2103は、このカ
ット検出装置2202による各カットの変わり目の検出
動作に基づき、各カットの始まりのフレームの画像を縮
小したものをアイコンとして順に並べて表示し、かつ、
各カットの時間長を記録し、その時間長を、それぞのア
イコンの奥行き方向に厚さで表示する。When a moving image is supplied from the moving image reproducing device 2101, the cut detecting device 2202 detects a change in cut based on a change in correlation between adjacent frames of the moving image. The cut display control device 2103 displays reduced images of the frame at the beginning of each cut as icons, in order, based on the detection operation of each cut change by the cut detection device 2202, and
The time length of each cut is recorded, and the time length is displayed as a thickness in the depth direction of each icon.
【0022】このように、各カットの時間長と画像から
なるアイコンを順に並べて表示することにより、映像の
時間的な構造を視覚化することができ、各カット毎の編
集を効率良く行なうことが可能となる。しかし、この技
術では、カットを最小単位とする検索であり、登場人物
などを対象として、より詳細な編集作業をサポートする
ことができない。In this way, by displaying the time length of each cut and the icon composed of images in order, the temporal structure of the video can be visualized, and the editing for each cut can be performed efficiently. It becomes possible. However, this technique is a search that uses a cut as a minimum unit, and cannot support more detailed editing work for characters and the like.
【0023】[0023]
【発明が解決しようとする課題】解決しようとする問題
点は、従来の技術では、特定対象物を含むフレームの判
定技術において、参照色対の選び方と光源の色温度変化
による対象物の色変化に関して考慮されておらず、カラ
ー動画像からの対象物を含んだフレームの検出漏れを防
ぐことができない点と、カラー動画像カット検索表示シ
ステムにおいて、カラー動画像に対する編集がカット単
位での操作に限定され、より詳細な編集作業をサポート
することができない点である。本発明の目的は、これら
従来技術の課題を解決し、動画像から、対象物を含んだ
フレームを正確に検出し、動画像検出に係わる技術の信
頼性と性能の向上を可能とし、かつ、動画像のより詳細
な編集作業のサポートを可能とする動画像の検索装置を
提供することにある。The problem to be solved is that, in the prior art, in a technique for determining a frame including a specific object, a color change of the object due to a method of selecting a reference color pair and a change in color temperature of a light source. Is not taken into account, it is not possible to prevent omission of detection of frames containing objects from color moving images, and in the color moving image cut search and display system, editing of color moving images requires operations in cut units. It is limited and cannot support more detailed editing work. An object of the present invention is to solve the problems of the related art, accurately detect a frame including an object from a moving image, and improve the reliability and performance of the technology related to the moving image detection, and is to <br/> provide search equipment of the moving image to allow more support detailed editing of the moving image.
【0024】[0024]
【課題を解決するための手段】上記目的を達成するた
め、本発明の動画像の検索装置は、(1)参照画面の対
象物に含まれる複数の領域について、それぞれの画像領
域を類似した色毎にまとめたグループ(色群)として作
成する手段と、相異なる該色群を、対応する部分領域の
隣接関係に基づいて組み合わせて対を構成する色群対を
作成する手段と、該色群対が、所定値以上存在するフレ
ーム(特定フレーム)を動画像中から検出する手段とを
有することを特徴としている。また、(2)上記(1)
に記載の動画像の検索装置において、上記動画像のカッ
トをその時間長を奥行きとした立方体で表示し、さらに
時間的に連続している上記特定フレーム群の時間長に対
応する位置を着色したものを表示することを特徴として
いる。また、(3)上記(2)に記載の動画像の検索装
置において、上記カットに含まれる時間的に最初の上記
特定フレームを、上記立方体の時間的に対応する奥行き
位置に配置して表示することを特徴としている。In order to achieve the above object, a moving image search apparatus according to the present invention comprises the following steps: (1) For a plurality of regions included in an object on a reference screen, each image region has a similar color. Means for creating a group (color group) for each color, means for combining the different color groups based on the adjacency of the corresponding partial areas to form a color group pair, and means for creating the color group The pair includes means for detecting a frame (specific frame) having a value equal to or more than a predetermined value from the moving image. In addition, (2) the above (1)
In the moving image search device described in the above, the cut of the moving image is displayed as a cube with the depth of the time length, and further, a position corresponding to the time length of the specific frame group that is temporally continuous is colored. It is characterized by displaying things. (3) In the moving image search device described in (2), the temporally first specific frame included in the cut is arranged and displayed at a temporally corresponding depth position of the cube. It is characterized by:
【0025】[0025]
【作用】本発明においては、類似した色をまとめたグル
ープ(色群)で、対を作り(色群対)、この色群対に基
づき、カラー動画像から、対象物を含むフレームの検出
を行なう。また、画像もしくは対象物に固有の色(固有
色)の色補正を行ってから、フレームに対する判定を行
なう。このことにより、光源の色温度の違いに対して
も、色群の対を安定して検出することができ、検出漏れ
を大きく減少させることができる。また、異なる色群の
対と同じ色群の対の分布特性に着目し、同じ色群の対
と、異なる色群の対とを区別して扱い、前者には有効色
対と判定する閾値を高く設定することで、過剰検出の削
減が図られる。さらに、フレーム中に対象物が存在する
か否かの判定において、色群の分布領域間の隣接方向を
考慮することによっても、過剰検出を減らすことができ
る。そして、このようなカラー画像中の特定対象物有無
判定技術を用いることにより、カラー動画像の検索をカ
ット単位よりも詳細なフレーム単位で行なうことができ
る。In the present invention, a group (color group) in which similar colors are put together is paired (color group pair), and based on this color group pair, detection of a frame including an object from a color moving image is performed. Do. Further, after performing color correction of a color (unique color) unique to the image or the object, the determination for the frame is performed. This makes it possible to stably detect a pair of color groups even with a difference in the color temperature of the light source, and to greatly reduce omission in detection. Also, paying attention to the distribution characteristics of the different color group pairs and the same color group pairs, the same color group pairs and the different color group pairs are treated separately. By setting, excess detection can be reduced. Further, in determining whether or not an object exists in a frame, excessive detection can also be reduced by taking into account the adjacent direction between color group distribution areas. By using such a technique for determining the presence / absence of a specific object in a color image, a search for a color moving image can be performed in a frame unit that is more detailed than a cut unit.
【0026】[0026]
【実施例】以下、本発明の実施例を、図面により詳細に
説明する。図1、および、図2は、本発明に係わるカラ
ー画像中の特定対象物有無判定方法の第1の実施例を示
すフローチャート、図3は、その実施に使用する装置の
構成を示すブロック図である。図3において、1は本発
明のカラー画像中の特定対象物有無判定を行なうコンピ
ュータ、2はコンピュータ1の出力画面を表示するCR
T等のディスプレイ、3は光ディスクやビデオデッキ等
の動画像再生装置、4はアナログ信号をディジタル信号
に変換するA/D変換器、5は動画像再生装置3とコン
ピュータ1間の制御信号を接続する制御線、6はハード
ディスクなどからなる外部記憶装置、7はマウスなどの
入力装置、8a〜8eはコンピュータ1と周辺装置との
接続制御を行なうインタフェース(図中、I/Fと記
載)、9はコンピュータ1の処理制御を行なうCPU
(中央処理装置)、10はCPU9から直接アクセスさ
れるメモリである。Embodiments of the present invention will be described below in detail with reference to the drawings. 1 and 2 are flowcharts showing a first embodiment of a method for determining the presence / absence of a specific object in a color image according to the present invention, and FIG. 3 is a block diagram showing a configuration of an apparatus used for carrying out the method. is there. In FIG. 3, reference numeral 1 denotes a computer for determining the presence or absence of a specific object in a color image of the present invention, and 2 denotes a CR for displaying an output screen of the computer 1.
Display such as T, 3 is a moving image reproducing device such as an optical disk or a video deck, 4 is an A / D converter for converting an analog signal into a digital signal, 5 is a control signal between the moving image reproducing device 3 and the computer 1 6 is an external storage device such as a hard disk; 7 is an input device such as a mouse; 8a to 8e are interfaces for controlling connection between the computer 1 and peripheral devices (indicated as I / F in the figure); Is a CPU that controls the processing of the computer 1
(Central processing unit) 10 is a memory directly accessed by the CPU 9.
【0027】動画像再生装置3から出力される映像信号
は、逐次、A/D変換器4によってデジタル画像データ
に変換され、コンピュータ1に送られる。コンピュータ
1内部においは、デジタル画像データは、インターフェ
ース8bを介してメモリ10に入り、メモリ10に格納
されたプログラムに従って、CPU9によって処理され
る。The video signal output from the moving image reproducing device 3 is sequentially converted into digital image data by the A / D converter 4 and sent to the computer 1. In the computer 1, digital image data enters the memory 10 via the interface 8b, and is processed by the CPU 9 according to a program stored in the memory 10.
【0028】動画像再生装置3が扱う動画像の各フレー
ムには、動画像の先頭から順に番号(フレーム番号)が
付けられている。コンピュータ1から、このフレーム番
号を制御線5を介して動画像再生装置3に送ることで、
当該場面の動画像が再生される。尚、処理の必要に応じ
て、各種情報を外部記憶装置6に蓄積する。メモリ10
には、以下に説明する処理によって作成される各種のリ
ストが格納され、必要に応じて参照される。Each frame of a moving image handled by the moving image reproducing device 3 is numbered (frame number) sequentially from the beginning of the moving image. By transmitting the frame number from the computer 1 to the moving image reproducing device 3 via the control line 5,
The moving image of the scene is reproduced. Note that various information is stored in the external storage device 6 as necessary for processing. Memory 10
Stores various lists created by the processing described below, and is referred to as necessary.
【0029】このような構成により、以下の点を考慮し
て、本発明のカラー画像中の特定対象物有無判定方法に
係わる処理を行ない、検出漏れを回避する。すなわち、
対象物が日向から日陰に移動したような場合、対象物を
表現する色は、全体に輝度の低い色(影の色)が多くな
ることから、輝度の変化にかかわらず、類似した色は一
つのグループ(色群)としてまとめ、同色として扱うよ
うにする。これにより、日向・日陰といった光源の変化
にあって、色群全体の総数としては、ある程度の度数が
常に確保される。さらに、こうした色群を組み合わせた
対(色群対)は、やはり光源のそうした変化にロバスト
である。そして、対象物の画像領域を、同一グループと
見なされる色からなる部分領域に分割したとき、色群
は、各部分領域を代表する特徴量となる。また、色群の
隣接関係は、その色群が代表する部分領域どうしの隣接
関係で決定する。以下、本発明のカラー画像中の特定対
象物有無判定方法の特に異色群対に係わる処理動作を、
図1、および、図2を用いて説明する。With such a configuration, in consideration of the following points, processing relating to the method for determining the presence / absence of a specific object in a color image according to the present invention is performed to avoid omission in detection. That is,
When the object moves from the sun to the shade, the colors representing the object are generally low in brightness (shadow color), so similar colors are one regardless of the change in brightness. Grouped into two groups (color groups) and treated as the same color. As a result, a certain degree of frequency is always ensured as the total number of the color groups when the light source changes, such as sunshine or shade. Furthermore, pairs of such color groups (color group pairs) are also robust to such changes in the light source. Then, when the image area of the target object is divided into partial areas composed of colors regarded as being in the same group, the color group is a feature amount representing each partial area. In addition, the adjacency between the color groups is determined by the adjacency between the partial areas represented by the color group. Hereinafter, particularly the processing operation of the method for determining the presence or absence of a specific object in a color image of the present invention, which relates to a different color group pair,
This will be described with reference to FIG. 1 and FIG.
【0030】まず、図1における参照用の異色群対を作
る処理を説明する。対象物が表れている画像を検索者に
一枚指定させ(ステップ101)、対象物の画像領域か
ら、ほぼ等色となっている部分領域を複数個分ける(ス
テップ102)。例えば、対象物が人物である場合に
は、大きく髪、顔、服の3つの等色毎の部分領域に分け
る。それら部分領域rの各々について、以下の処理を行
なう(ステップ103)。First, the process of forming a different color group pair for reference in FIG. 1 will be described. The searcher is designated one image showing the target object (step 101), and a plurality of sub-regions having substantially the same color are divided from the image region of the target object (step 102). For example, when the target object is a person, the target object is divided into three partial areas of three equal colors of hair, face, and clothes. The following processing is performed for each of these partial regions r (step 103).
【0031】まず、色ヒストグラムをとり(ステップ1
04)、類似した色のうち度数の高い色を順にN個選ん
でグループ化し、色群を作り、次の表5に示すように、
リストCG(r)に登録する(ステップ105)。First, a color histogram is obtained (step 1).
04), N colors having the highest frequency among similar colors are sequentially selected and grouped to form a color group, and as shown in the following Table 5,
Register in the list CG (r) (step 105).
【表5】 そして、これらの色群を、その対応する部分領域の隣接
関係に基づいて組み合わせて、対(参照色群対)を作
る。すなわち、全ての隣接しあう部分領域の対(r1,
r2)について(ステップ106)、色群のリストCG
(r1)とCG(r2)の対を作り、次の表6に示すよ
うに、異色群対のリストRCGPに登録する(ステップ
107)。[Table 5] Then, these color groups are combined based on the adjacency of the corresponding partial areas to form a pair (reference color group pair). That is, all pairs of adjacent partial regions (r1,
r2) (step 106), list CG of color groups
A pair of (r1) and CG (r2) is created and registered in a different color group pair list RCGP as shown in Table 6 below (step 107).
【表6】 このようにして、例えば、髪と顔、顔と服の2対が作ら
れる。[Table 6] In this way, for example, two pairs of hair and face and face and clothes are made.
【0032】次に、このようにして求めた異色群対によ
る本発明に係わる検索処理を、図2を用いて説明する。
判定対象のフレームをセルに分割し(ステップ20
1)、各セルについて、以下の処理を行ない、各セルの
セル色を求める(ステップ202)。まず、色ヒストグ
ラムを求め(ステップ203)、そのヒストグラム中の
度数が設定閾値より大きい色(セル色)を全て抽出し
(ステップ204、205)、リストCCに登録する
(ステップ206)。Next, a search process according to the present invention using the different color group pairs thus obtained will be described with reference to FIG.
The frame to be determined is divided into cells (step 20).
1) The following processing is performed on each cell to determine the cell color of each cell (step 202). First, a color histogram is obtained (step 203), and all colors (cell colors) in the histogram whose frequency is greater than a set threshold are extracted (steps 204 and 205) and registered in the list CC (step 206).
【0033】次に、図1で求められたリストRCGPに
登録された参照色群対の各々について、以下の処理を行
ない、フレームにおける参照色群対(CG(r1),C
G(r2))の存在数を求める(ステップ207)。ま
ず、フレーム上の各セルC(x,y)のうち(ステップ
208)、色対を構成する二つの色群CG(r1)、C
G(r2)のうちの一方の色群に属する色のいずれかを
セル色として持ち(ステップ209)、色群対の他方の
色群に属する色のいずれかを、そのセル自身、あるいは
その隣接する8セルのうちのいずれかのセルがセル色と
して持っているセルC(x,y)を有効セルとして抽出
し(ステップ210)、フレームにおける総数を求める
(ステップ211)。Next, the following processing is performed for each of the reference color group pairs registered in the list RCGP obtained in FIG. 1, and the reference color group pairs (CG (r1), C
G (r2)) is determined (step 207). First, of the cells C (x, y) on the frame (step 208), two color groups CG (r1), C
One of the colors belonging to one of the color groups G (r2) is used as a cell color (step 209), and any of the colors belonging to the other color group of the color group pair is assigned to the cell itself or its neighbor. The cell C (x, y) which any one of the eight cells has as a cell color is extracted as a valid cell (step 210), and the total number in the frame is obtained (step 211).
【0034】各参照色群対において、フレームにおける
有効セルの数が設定閾値以上であれば(ステップ21
2)、その色群対(CG(r1),CG(r2))を有
効色群対としてカウントする(ステップ213)。そし
て、カウントした有効色群対の総数が設定閾値以上であ
れば(ステップ214)、対象物がそのフレームに存在
しているものと判定し(ステップ215)、有効色群対
の総数が設定閾値以下であれば、対象物が存在しないも
のとして判断する(ステップ216)。In each reference color group pair, if the number of valid cells in the frame is equal to or larger than the set threshold (step 21).
2) The color group pair (CG (r1), CG (r2)) is counted as an effective color group pair (step 213). If the total number of counted effective color group pairs is equal to or greater than the set threshold value (step 214), it is determined that the object is present in the frame (step 215), and the total number of valid color group pairs is set to the set threshold value. If it is below, it is determined that the object does not exist (step 216).
【0035】図1、および、図2による連続判定実験で
は、次の表1における新2の結果が得られた。In the continuous determination experiments shown in FIGS. 1 and 2, new 2 results in Table 1 below were obtained.
【表1】 この表1に示されるように、上段下段とも同一の傾向を
示し、色のグループ化によって、検出漏れを大きく減ら
せることがわかる。しかし、この判定方法では、検出漏
れを激減させることができる代わりに、過剰検出が増加
してしまう。このような過剰検出を削減するには、異色
群対(異なる色群のセルの対)と同色群対(同じ色群の
セルの対)を用い、かつ、異色群対の分布と同色群対の
分布の特性の違いに注目して、判定処理に反映させるこ
とが有効である。[Table 1] As shown in Table 1, the upper and lower rows show the same tendency, and it can be seen that detection omission can be greatly reduced by grouping colors. However, in this determination method, the number of overdetections increases, while the number of detection omissions can be drastically reduced. In order to reduce such overdetection, a different color group pair (a pair of cells of a different color group) and a same color group pair (a pair of cells of the same color group) are used, and the distribution of the different color group pair and the same color group pair are used. It is effective to pay attention to the difference in the characteristics of the distribution and to reflect it in the determination processing.
【0036】すなわち、異色群対の有効セルは、部分領
域の間の境界周辺にしか存在しないが、同色群対の有効
セルは、その色群に対応する部分領域の面積分だけ存在
する。そのために、同色群対の有効セルは、異色群対に
比べて遥かに多く、同色群対と異色群対に対して同じ設
定閾値で判定を行なうと、過剰検出が発生する。そこ
で、次の図4に示すように、同色群対の場合には、異色
群対のときより高いセル数閾値を用いて、有効色群対の
判定を行うことにする。That is, the effective cells of the different color group pair exist only around the boundary between the partial regions, but the effective cells of the same color group pair exist by the area of the partial region corresponding to the color group. For this reason, the number of effective cells of the same color group pair is much larger than that of the different color group pair, and if the same color group pair and the different color group pair are determined with the same set threshold, excessive detection occurs. Therefore, as shown in FIG. 4, in the case of the same color group pair, the determination of the effective color group pair is performed using a cell number threshold value higher than that in the case of the different color group pair.
【0037】図4は、本発明のカラー画像中の特定対象
物有無判定方法に係わる第2の実施例を示すフローチャ
ートである。図2におけるステップ201〜205と同
じ処理により、色ヒストグラムの度数が設定閾値より大
きい色(セル色)を全て抽出して、リストCCに登録す
る(ステップ401)。同じく、図2におけるステップ
207〜213と同様な処理により、有効セルの設定閾
値t1に基づき有効色群対(CG(r1),CG(r
2))を求めカウントする(ステップ402、40
3)。そして、次に、本第2の実施例に係わる処理を行
なう。FIG. 4 is a flowchart showing a second embodiment of the method for determining the presence or absence of a specific object in a color image according to the present invention. By the same processing as steps 201 to 205 in FIG. 2, all colors (cell colors) whose frequency of the color histogram is larger than the set threshold are extracted and registered in the list CC (step 401). Similarly, by the same processing as in steps 207 to 213 in FIG. 2, the effective color group pair (CG (r1), CG (r
2)) is obtained and counted (steps 402 and 40).
3). Then, the processing according to the second embodiment is performed.
【0038】すなわち、各色群CG(r1)、CG(r
2)の各々について、以下の処理を行なう(ステップ4
04)。まず、各セルから、色群CGに登録されている
色がリストCC(x,y)に登録されているセルを抽出
し、有効セルとしてカウントして、同色群対の有効セル
の数を求める(ステップ405〜407)。そして、ス
テップ403の処理で用いた設定閾値t1よりも大きい
設定閾値t2に基づき、有効色群対であるか否かの判定
と(ステップ408)、有効色群対と判定した色群CG
のカウントを行なう(ステップ409)。このようにし
て求めた有効色群対の総数が、設定閾値t3以上であれ
ば(ステップ410)、対象物がそのフレームに存在し
ているものと判定し(ステップ411)、また、有効色
群対の総数が設定閾値以下であれば、対象物が存在しな
いものとして判断する(ステップ412)。That is, each color group CG (r1), CG (r
The following processing is performed for each of 2) (Step 4)
04). First, cells whose colors registered in the color group CG are registered in the list CC (x, y) are extracted from each cell, counted as valid cells, and the number of valid cells of the same color group pair is obtained. (Steps 405 to 407). Then, based on the set threshold value t2 that is larger than the set threshold value t1 used in the process of Step 403, it is determined whether or not the set is an effective color group pair (Step 408), and the color group CG determined to be an effective color group pair.
Is counted (step 409). If the total number of the effective color group pairs thus obtained is equal to or greater than the set threshold value t3 (step 410), it is determined that the object exists in the frame (step 411). If the total number of pairs is equal to or smaller than the set threshold, it is determined that the target object does not exist (step 412).
【0039】このようにして行なった連続判定実験の結
果は、前述の表1の新3に示すものとなる。前回の新2
の異色群対に加えて、髪・顔・服に対応する3種の同色
群対が参照色群対に入れられたことになる。これによっ
て、検出漏れの数が少なく保たれたまま、過剰検出の数
が減っているのがわかる。すなわち、同色群対に有効セ
ルの閾値を高く設定することによって過剰検出を減少す
る効果が得られていることが明らかである。The results of the continuity determination experiment performed in this way are shown in the above-mentioned new 3 in Table 1. Previous New 2
In addition to the different color group pairs, three same color group pairs corresponding to hair, face, and clothes are included in the reference color group pairs. Thus, it can be seen that the number of overdetections has decreased while the number of detection omissions has been kept low. In other words, it is clear that the effect of reducing excessive detection is obtained by setting the threshold value of the effective cell high for the same color group pair.
【0040】次に、過剰検出を、さらに減少させるため
の技術の説明を行なう。通常の映像では、対象物が逆さ
まに回転したりしないので、対象物画像において、各色
群に対応する部分領域どうしの隣接する方向の変動は、
±45度程度の範囲内でほとんどおさまる。そこで、参
照色群対の存在を判定する処理において、隣接部分領域
間の向きを判定条件に加えることにより、対象物を含む
フレームの判定を、さらに、高信頼にすることができ
る。尚、特定の方向で隣接している領域を求めるには、
様々な方法が考えられるが、ここでは処理時間の増加を
抑えるため、なるべく簡素な方法を採用する。Next, a technique for further reducing excessive detection will be described. In normal images, the object does not rotate upside down, so in the object image, the fluctuation in the adjacent direction between the partial regions corresponding to each color group is:
Almost subsides within about ± 45 degrees. Therefore, in the process of determining the existence of the reference color group pair, by adding the orientation between adjacent partial regions to the determination condition, the determination of the frame including the target object can be made more reliable. Note that in order to determine an area adjacent in a specific direction,
Although various methods are conceivable, here, a simple method is adopted as much as possible in order to suppress an increase in processing time.
【0041】例えば、判定対象のフレームにおいて、異
色群対の有効セルは、正しく現れたものであれば、その
異色群対を構成する2つの色群の分布領域間の境界付近
にのみ存在する。逆にいえば、異色群対の分布領域の近
傍以外の領域には、同色群対の有効セルは存在しないは
ずである。そこで、異色群対の有効セルに注目し、その
近傍にない同色群対の有効セルを分布マップからマスク
して除去すれば、対象物に無関係な領域に現れたノイズ
を減らすことができる。マスクする際には、その効果を
より高めるため、色群対の方向性をも考慮する。以下、
図5、および、図6を用いて、色群対の方向性を考慮し
た本発明に係わるカラー画像中の特定対象物有無判定方
法の第3の実施例を説明する。For example, in the frame to be determined, the effective cells of the different color group pair exist only near the boundary between the distribution regions of the two color groups forming the different color group pair if they appear correctly. Conversely, no effective cell of the same color group pair should exist in a region other than the vicinity of the distribution region of the different color group pair. Therefore, by paying attention to the effective cells of the different color group pair and removing the effective cells of the same color group pair that are not in the vicinity thereof by masking them from the distribution map, it is possible to reduce noise that appears in an area unrelated to the object. When masking, the directionality of the color group pair is also taken into consideration in order to further enhance the effect. Less than,
A third embodiment of the method for determining the presence / absence of a specific object in a color image according to the present invention in consideration of the directionality of a color group pair will be described with reference to FIGS.
【0042】図5、および、図6は、本発明のカラー画
像中の特定対象物有無判定方法に係わる第3の実施例を
示すフローチャートである。まず、図5を用いて、参照
画像から参照色群対を抽出する処理を説明する。図1に
おけるステップ101〜107と同じ処理により、対象
物の画像領域の各分部領域rについて、色群のリストC
G(r)の登録を行なう(ステップ501)。そして、
全ての隣接しあう部分領域の対(r1,r2)につい
て、色群CG(r1)とCG(r2)の対を作り、リス
トRCGP’に登録する(ステップ502、503)。
この時、色群対(CG(r1),CG(r2))をなす
一方の色群の領域を基点としたときの、もう一方の色群
の領域の方向(以下、参照方向)を抽出し、次の表7に
示すように、リストRCGP’に登録する(ステップ5
04)。このステップ504が新たに加わった処理で、
本第3の実施例の特徴である。尚、参照方向は、上下左
右斜めの全8方向で表現する。また、本実施例を用いた
今回の実験では、方向の指定は人手によって行った。FIGS. 5 and 6 are flowcharts showing a third embodiment of the method for determining the presence / absence of a specific object in a color image according to the present invention. First, a process of extracting a reference color group pair from a reference image will be described with reference to FIG. By the same processing as in steps 101 to 107 in FIG. 1, the color group list C for each subregion r of the image region of the target object
G (r) is registered (step 501). And
A pair of color groups CG (r1) and CG (r2) is created for all adjacent partial region pairs (r1, r2) and registered in the list RCGP '(steps 502 and 503).
At this time, the direction (hereinafter referred to as a reference direction) of the area of the other color group when the area of one color group forming the color group pair (CG (r1), CG (r2)) is used as a base point is extracted. Is registered in the list RCGP 'as shown in the following Table 7 (step 5).
04). This step 504 is a newly added process,
This is a feature of the third embodiment. The reference direction is expressed in all eight directions, that is, up, down, left, and right. In this experiment using this embodiment, the direction was designated manually.
【表7】 [Table 7]
【0043】次に、このようにして求めた方向付きの参
照色群対による検索処理を、図6を用いて説明する。図
4におけるステップ401の処理と同様に、図2におけ
るステップ201〜205と同じ処理により、色ヒスト
グラムの度数が設定閾値より大きい色(セル色)を全て
抽出して、リストCCに登録する(ステップ601)。
同じく、図4におけるステップ402、403の処理と
同様、図2のステップ207〜213と同様な処理によ
り、有効セルの設定閾値t1に基づき有効色群対(CG
(r1),CG(r2))を求めカウントする(ステッ
プ602、603)。さらに、図4のステップ404〜
407の処理と同様にして、色群CG(r1)、CG
(r2)の各々において(ステップ604)、各セルか
ら、色群CGに登録されている色がリストCC(x,
y)に登録されているセルを抽出し、有効セルとしてカ
ウントして、同色群対の有効セルの数を求める(ステッ
プ605〜607)。Next, a description will be given, with reference to FIG. 6, of a search process using the reference color group pairs with a direction thus obtained. Similar to the processing of step 401 in FIG. 4, by the same processing as steps 201 to 205 in FIG. 2, all colors (cell colors) whose frequency of the color histogram is larger than the set threshold are extracted and registered in the list CC (step 601).
Similarly to the processing of steps 402 and 403 in FIG. 4, by the same processing as in steps 207 to 213 in FIG. 2, the effective color group pair (CG
(R1), CG (r2)) are obtained and counted (steps 602, 603). Further, steps 404 to 404 in FIG.
Similarly to the processing of step S407, the color groups CG (r1), CG
In each of (r2) (step 604), the colors registered in the color group CG are listed from each cell in the list CC (x,
The cells registered in y) are extracted and counted as valid cells, and the number of valid cells of the same color group pair is obtained (steps 605 to 607).
【0044】この各セルC(x,y)について有効セル
の数を求めた後、本第3の実施例では、色群CG(r
1)、CG(r2)のフレーム上の分布領域の近傍に有
効セルを、マスクにより除去する(ステップ608)。
そして、残った有効セルの総数が、設定閾値t2(ステ
ップ603の処理で用いた設定閾値t1よりも大きい)
以上であれば(ステップ609)、色群CGを有効色群
対と判定してカウントする(ステップ610)。After calculating the number of valid cells for each cell C (x, y), in the third embodiment, the color group CG (r
1) The effective cell is removed by a mask in the vicinity of the distribution area on the CG (r2) frame (step 608).
Then, the total number of remaining valid cells is equal to the setting threshold value t2 (greater than the setting threshold value t1 used in the process of step 603).
If this is the case (step 609), the color group CG is determined to be an effective color group pair and counted (step 610).
【0045】このようにして求めた有効色群対の総数
が、設定閾値t3以上であれば(ステップ611)、対
象物がそのフレームに存在しているものと判定し(ステ
ップ612)、また、有効色群対の総数が設定閾値t3
以下であれば、対象物が存在しないものとして判断する
(ステップ613)。本第3の実施例は、ステップ60
8のマスク処理が加わった以外は、前記図4のアルゴリ
ズムと全く同一である。以下、図7を用いて、ステップ
608におけるマスク処理の説明を行なう。If the total number of effective color group pairs obtained in this way is equal to or greater than the set threshold value t3 (step 611), it is determined that the object exists in the frame (step 612). The total number of effective color group pairs is equal to the set threshold value t3.
If it is below, it is determined that the object does not exist (step 613). In the third embodiment, Step 60 is performed.
8 is exactly the same as the algorithm of FIG. 4 except that the mask processing of FIG. 8 is added. Hereinafter, the mask processing in step 608 will be described with reference to FIG.
【0046】図7は、本発明のカラー画像中の特定対象
物有無判定方法に係わる第4の実施例を示す説明図であ
る。本図において、71は図5における処理で参照画像
から求められた参照色群対、72は参照色群対71中の
主色群の分布マップ、73は従色群の分布マップ、74
は色群対の分布マップ、75は色群対の分布マップを参
照方向の逆方向に拡張して得られる方向マスク、76は
色群対の分布マップを参照方向に拡張して得られる方向
マスク、77は方向マスク75を用いてノイズを除去し
た主色群の分布マップ、78は方向マスク76を用いて
ノイズを除去した従色群の分布マップである。FIG. 7 is an explanatory view showing a fourth embodiment of the method for determining the presence or absence of a specific object in a color image according to the present invention. In the figure, reference numeral 71 denotes a reference color group pair obtained from the reference image in the processing in FIG. 5, 72 denotes a distribution map of the main color group in the reference color group pair 71, 73 denotes a distribution map of the sub color group, 74
Is a color group pair distribution map, 75 is a direction mask obtained by expanding the color group pair distribution map in the reverse direction of the reference direction, and 76 is a direction mask obtained by expanding the color group pair distribution map in the reference direction. , 77 are distribution maps of the main color group from which noise has been removed using the direction mask 75, and 78 is a distribution map of the subordinate color group from which noise has been removed using the direction mask 76.
【0047】マスク処理は、以下のようにして行なう。
まず、色群対74(CG(r1)、CG(r2))にお
いて、その各有効セルを起点として、参照方向に、長さ
mセル分(ここでは、4セル)、また、幅が参照方向と
直交する向きにnセル分(ここでは、2×2セル)とな
る長方形領域を、全ての有効セルについて求める。すな
わち、方向マスク76を得る。そして、色群対をなす各
色群のうち、参照方向の基点ではない色群CG(r2)
の各有効セルについて、長方形領域のいずれにも含まれ
ない有効セルを無効とし、有効セルの総数から差し引
く。すなわち、従色群の分布マップ73と方向マスク7
6とのAND処理を行ない、ノイズを除去した従色群の
分布マップ78を得る。The mask processing is performed as follows.
First, in the color group pair 74 (CG (r1), CG (r2)), starting from each of the effective cells, a length m cells (here, 4 cells) and a width in the reference direction are set in the reference direction. A rectangular area of n cells (here, 2 × 2 cells) in a direction orthogonal to the above is obtained for all effective cells. That is, the direction mask 76 is obtained. Then, of the color groups forming the color group pair, the color group CG (r2) that is not the reference point in the reference direction
For each valid cell, invalid cells that are not included in any of the rectangular areas are invalidated and subtracted from the total number of valid cells. That is, the distribution map 73 of the slave color group and the direction mask 7
6 is performed, and a distribution map 78 of the slave color group from which noise has been removed is obtained.
【0048】次に、色群対(CG(r1)、CG(r
2))において、各有効セルを起点として、参照方向と
逆方向に長さmセル分(ここでは、4セル)、幅が参照
方向と直交する向きにnセル分(ここでは、2×2セ
ル)となる長方形領域を求める。すなわち、方向マスク
75を得る。そして、色群対をなす各色群のうち、参照
方向の基点とされた色群CG(r1)の各有効セルにつ
いて、有効セルの数だけ得られる長方形領域のいずれに
も含まれない有効セルを無効とし、有効セルの総数から
差し引く。すなわち、主色群の分布マップ72と方向マ
スク75とのAND処理を行ない、ノイズを除去した従
色群の分布マップ77を得る。Next, the color group pair (CG (r1), CG (r
2)), with each effective cell as a starting point, a length of m cells (here, 4 cells) in a direction opposite to the reference direction, and a width of n cells (here, 2 × 2) in a direction orthogonal to the reference direction. Cell)). That is, the direction mask 75 is obtained. Then, among the color groups forming the color group pair, for each valid cell of the color group CG (r1) that is the reference point in the reference direction, the valid cells that are not included in any of the rectangular areas obtained by the number of valid cells are determined. Invalid and subtracted from the total number of valid cells. That is, AND processing is performed between the distribution map 72 of the main color group and the direction mask 75 to obtain the distribution map 77 of the sub color group from which noise has been removed.
【0049】このように、異色群対が分布する領域の近
傍以外の同色群対を無効とする連続判定実験の結果は、
前述の表1の新4に示すものとなり、新3と比較して、
上段下段とも検出漏れは0のまま、過剰検出が大きく減
っている。すなわち、参照色群対に対し、隣接方向の判
定を加えることによって、過剰検出を大きく抑制できる
ことがわかる。As described above, the result of the continuous determination experiment that invalidates the same color group pair other than the vicinity of the region where the different color group pair is distributed is as follows.
As shown in New 4 in Table 1 above, compared to New 3,
In both the upper and lower stages, the detection omission remains 0, and the excess detection is greatly reduced. That is, it can be seen that excessive detection can be greatly suppressed by adding the determination of the adjacent direction to the reference color group pair.
【0050】尚、図1〜図7で説明した実施例は、色群
対に基づく特定対象物有無判定処理であるが、例えば、
次の図8で示すように、異なる色対を用いることによ
り、色対のみで、従来技術と比較して、高信頼なカラー
画像中の特定対象物有無判定を行なうこともできる。The embodiment described with reference to FIGS. 1 to 7 is a specific object presence / absence determination process based on a color group pair.
As shown in the following FIG. 8, by using different color pairs, it is possible to determine the presence / absence of a specific target in a color image with higher reliability compared to the related art using only color pairs.
【0051】図8は、本発明のカラー画像中の特定対象
物有無判定方法に係わる第5の実施例を示すフローチャ
ートである。この実施例では、図12(a)で示した従
来技術により、リストCPを求め(ステップ801)、
このリストCPの中から、異色対を選んで参照色対とす
る(ステップ802)ことが特徴である。異色対は、例
えば、人物が対象である場合には、髪・顔・服の各要素
間の色の組み合わせとなるように選択する。FIG. 8 is a flowchart showing a fifth embodiment of the method for determining the presence / absence of a specific object in a color image according to the present invention. In this embodiment, a list CP is obtained (step 801) according to the conventional technique shown in FIG.
It is characterized in that a different color pair is selected from this list CP and used as a reference color pair (step 802). For example, when a person is a target, the different color pair is selected so as to be a combination of colors among elements of hair, face, and clothes.
【0052】この実験例の処理ステップに従って、従来
手法と同一のフレームについて連続判定を行った結果
は、前述の表1の新1の欄に示すものとなった。異色対
を適切に選ぶという処理を加えたことによって、従来の
技術に比較して、過剰検出が大きく減っているのがわか
る。According to the processing steps of this experimental example, the result of the continuity determination for the same frame as that of the conventional method is shown in the new column 1 of Table 1 described above. It can be seen that the addition of the process of appropriately selecting a different color pair greatly reduces overdetection as compared with the conventional technology.
【0053】図1〜図8で示した実施例の説明は、各処
理をすべてCPUにより、プログラムで実行する場合に
ついて説明したが、必要に応じて、それぞれの処理を電
子回路で実行するようにできる。また、色の補正を行な
うことや、各実施例中で用いた処理を、映像に応じてユ
ーザーが自由に選択して組み合わせることにより、さら
に、判定結果の信頼性を向上させることができる。以
下、図9、および、図10を用いて、このような実施例
を説明する。Although the description of the embodiment shown in FIGS. 1 to 8 has been made on the case where all the processes are executed by the CPU by a program, the respective processes are executed by electronic circuits as necessary. it can. Further, by performing color correction and freely selecting and combining the processing used in each embodiment according to the video, the reliability of the determination result can be further improved. Hereinafter, such an embodiment will be described with reference to FIGS. 9 and 10. FIG.
【0054】図9は、本発明のカラー画像中の特定対象
物有無判定装置の本発明に係わる構成の一実施例を示す
ブロック図である。本実施例のカラー画像中の特定対象
物有無判定装置90は、装置全体の処理動作を制御する
主制御部91と、動画像再生装置やディスプレイ装置な
どとのカラー画像情報の入出力制御を行なう画像入出力
部92と、本発明に係わり、入力された画像に対する色
の補正(例えば、色相、彩度、明度など)を行なう色補
正部93と、入力された画像から、ユーザが指定した特
定の対象物の画像領域の切り出しを行なう対象物指定部
94と、指定された対象物の画像領域から、類似色の部
分領域を、色群として複数個抽出する本発明に係わる色
群抽出部95と、色群抽出部95で抽出した複数の色群
から、特定の対象物の特徴を示す隣接した色群の対を選
択する本発明に係わる固有色選択部96と、固有色選択
部96で選択した色群対を登録する色群対登録部97
と、この色群対登録部97を参照して、入力された任意
の画像に、特定の対象物が含まれているか否かを判定す
る本発明に係わる有無判定部98と、色の補正の実行条
件や、上述の図1〜図8を用いて説明したそれぞれの判
定処理方法など、ユーザが選択して指定する処理内容を
記憶する判定方法記憶部99とにより構成されている。FIG. 9 is a block diagram showing an embodiment of the structure according to the present invention of the apparatus for determining the presence or absence of a specific object in a color image according to the present invention. The apparatus 90 for determining the presence / absence of a specific object in a color image according to the present embodiment performs a main control unit 91 for controlling the processing operation of the entire apparatus and input / output control of color image information with a moving image reproducing apparatus, a display apparatus, and the like. An image input / output unit 92, a color correction unit 93 that performs color correction (for example, hue, saturation, lightness, and the like) on an input image according to the present invention, and a specification specified by a user based on the input image. And a color group extraction unit 95 according to the present invention for extracting a plurality of similar color partial regions as color groups from the specified image region of the target object. A unique color selection unit 96 according to the present invention for selecting a pair of adjacent color groups indicating the characteristics of a specific object from a plurality of color groups extracted by the color group extraction unit 95; Color for registering the selected color group pair Versus the registration unit 97
The presence / absence determination unit 98 according to the present invention for determining whether or not a specific target object is included in any input image with reference to the color group pair registration unit 97; A determination method storage unit 99 stores processing contents selected and designated by the user, such as execution conditions and the respective determination processing methods described with reference to FIGS.
【0055】画像入出力部92に、特定の対象物の画像
(参照画像)が入力されたならば、色補正部93は、判
定方法記憶部99の記憶内容に基づき、この画像の色補
正を行ない、もしくは、色補正せずに出力する。この色
補正においては、例えば、ビデオカメラで広く用いられ
ているオートホワイトバランスの手法等を適用して、こ
の参照画像を、光源によらず特定の値、あるいは、その
近似値に保つ。When an image of a specific object (reference image) is input to the image input / output unit 92, the color correction unit 93 performs color correction of this image based on the storage contents of the determination method storage unit 99. Or output without color correction. In this color correction, for example, an auto white balance method widely used in video cameras is applied, and the reference image is kept at a specific value or an approximate value regardless of the light source.
【0056】色補正部93からの画像に対して、対象物
指定部94は、ユーザが指定した特定の対象物の画像領
域を参照画像として切り出す。そして、色群抽出部95
は、指定された対象物の画像領域から、類似色の部分領
域を、色群として複数個抽出し、固有色選択部96に送
出する。固有色選択部96は、色群抽出部95から受け
取った色群から、特定の対象物の特徴を示す隣接した色
群の対を選択し、色群対登録部97に登録する。この
時、固有色選択部96は、判定方法記憶部99の記憶内
容に基づき、異色群対における参照方向などの情報も合
わせて、色群対登録部97に登録する。For the image from the color correction section 93, the object specifying section 94 cuts out the image area of the specific object specified by the user as a reference image. Then, the color group extraction unit 95
Extracts a plurality of partial regions of similar colors from the image region of the specified object as a color group, and sends the extracted color regions to the unique color selection unit 96. The unique color selection unit 96 selects a pair of adjacent color groups indicating the characteristics of the specific object from the color groups received from the color group extraction unit 95, and registers the pair in the color group pair registration unit 97. At this time, the unique color selection unit 96 registers the information in the color group pair registration unit 97 together with information such as the reference direction in the different color group pair based on the storage content of the determination method storage unit 99.
【0057】次に、画像入出力部92に、判定の対象と
なる画像が入力されたならば、色補正部93は、判定方
法記憶部99の記憶内容に基づき、上述の参照画像に対
する補正に対応して、この画像の色補正を行ない、もし
くは、色補正を行なわずに出力する。あるいは、色補正
部93は、判定方法記憶部99の記憶内容に基づき、こ
の画像の光源に対応して、色群対登録部97に登録して
ある色群対の色補正を行ない、この補正した色群対を、
有無判定部98に送出する。Next, when an image to be determined is input to the image input / output unit 92, the color correction unit 93 performs correction on the above-described reference image based on the storage contents of the determination method storage unit 99. Correspondingly, the image is subjected to color correction or output without color correction. Alternatively, the color correction unit 93 performs color correction of the color group pairs registered in the color group pair registration unit 97 corresponding to the light source of this image based on the storage contents of the determination method storage unit 99. Color group pair
It is sent to the presence / absence determination unit 98.
【0058】有無判定部98は、色群対登録部97に登
録してある色群対、あるいは、色補正部93で色補正さ
れた色群対を用いて、色補正部93からの画像に、特定
の対象物が含まれているか否かを判定する。この時、有
無判定部98は、判定方法記憶部99の記憶内容に基づ
き、例えば、同じ色もしくは異色群の対と、異なる色も
しくは色群の対それぞれに、異なる設定閾値での判定を
行ない、あるいは、色もしくは色群の分布領域感の隣接
方向を用いて、対の存在の判定を行ない、特定の対象物
が含まれているか否かを判定する。The presence / absence judging section 98 uses the color group pair registered in the color group pair registering section 97 or the color group pair color-corrected by the color correcting section 93 to convert the image from the color correcting section 93 into an image. It is determined whether or not a specific object is included. At this time, the presence / absence determination unit 98 performs determination using different set thresholds for, for example, the same color or different color group pair and a different color or color group pair based on the storage content of the determination method storage unit 99, Alternatively, the existence of a pair is determined by using the adjacent direction of the sense of the distribution area of the color or the color group to determine whether or not a specific object is included.
【0059】このように、有無判定部98での判定処理
においては、色補正部93による画像や色群の色補正が
行なわれており、例えば、白昼の対象物の参照画像を基
に、夕日の下の同一対象物を検索しようとするような場
合、すなわち、光源の色温度変化によって色相が大きく
変化している場合にも、正確な判定を行なうことができ
る。具体的には、参照画像から対象物に固有な色を抽出
した後、検索しようとする画像の光源と参照画像の光源
との差に合わせて、この固有色をシフトさせる。このこ
とにより、対象物の固有色が正しく検出でき、参照画像
と異なる光源下にある対象物の有無判定を正しく行うこ
とができる。As described above, in the determination processing by the presence / absence determination section 98, color correction of images and color groups is performed by the color correction section 93. In the case where an attempt is made to search for the same object under, that is, when the hue is greatly changed due to a change in the color temperature of the light source, an accurate determination can be made. Specifically, after extracting a color unique to the object from the reference image, the unique color is shifted according to the difference between the light source of the image to be searched and the light source of the reference image. As a result, the unique color of the object can be correctly detected, and the presence or absence of the object under a light source different from that of the reference image can be correctly determined.
【0060】図10は、図9におけるカラー画像中の特
定対象物有無判定装置の本発明に係わる処理動作を示す
フローチャートである。まず、特定の対象物が含まれて
いる参照画像が図9の画像入出力部92に入力される
と、入力された参照画像に対して、図9の色補正部93
により、色補正を行なう(ステップ1001)。そし
て、この色補正した画像から、図9の対象物指定部94
と色群抽出部95により、特定の地省物に固有の色を複
数個抽出し(ステップ1002)、類似した色をまとめ
て色群とし、この色群を、特定の対象の固有色として図
9の色群対登録部98に登録する(ステップ100
3)。FIG. 10 is a flowchart showing the processing operation of the apparatus for determining the presence / absence of a specific object in a color image in FIG. 9 according to the present invention. First, when a reference image including a specific object is input to the image input / output unit 92 in FIG. 9, the input reference image is input to the color correction unit 93 in FIG.
Performs color correction (step 1001). Then, based on the color-corrected image, the object specifying unit 94 shown in FIG.
And a color group extraction unit 95 extracts a plurality of colors unique to a specific land-saving object (step 1002), collects similar colors into a color group, and sets this color group as a specific target specific color. 9 in the color group pair registration unit 98 (step 100).
3).
【0061】次に、判定対象の画像が図9の画像入出力
部92に入力されると、図9の色補正部93により、入
力された判定用の画像の色補正、もしくは、入力された
判定用の画像の明るさ等に基づく図9の色群対登録部9
8に登録してある色群対の色補正を行なう(ステップ1
004)。そして、図9の有無判定部98により、同じ
色もしくは色群の対と、異なる色もしくは色群の対それ
ぞれに、異なる設定閾値での判定を行ない(ステップ1
005)、色もしくは色群の分布領域間の隣接方向を用
いて、対の存在の判定を行なう(ステップ1006)。
このようにして、判定対象の画像中に、固有色が対とな
って表れているか否かを判定する(ステップ100
7)。Next, when the image to be determined is input to the image input / output unit 92 of FIG. 9, the color correction unit 93 of FIG. 9 corrects the color of the input determination image or inputs the image. The color group pair registration unit 9 in FIG. 9 based on the brightness of the image for determination and the like.
8 is corrected (step 1).
004). Then, the presence / absence determination unit 98 in FIG. 9 performs determination using different set threshold values for the same color or color group pair and a different color or color group pair (step 1).
005), the existence of a pair is determined using the adjacent direction between the distribution regions of the color or the color group (step 1006).
In this way, it is determined whether or not the unique colors appear as a pair in the image to be determined (step 100).
7).
【0062】本実施例では、図9の判定方法記憶部99
の記憶内容に基づき、各々の処理を選択することがで
き、ユーザは、図中の二重枠で囲まれたステップ100
1、1003〜1006のそれぞれを、任意に組み合わ
せることができる。また、ステップ1001、1004
での色補正は、図9において説明したように、ビデオカ
メラで広く用いられているオートホワイトバランスの手
法等を適用して、参照画像と判定対象の画像における同
一対象物の色をそれぞれ光源によらず特定の値、あるい
はその近似値に保つことを行う。これによっても、参照
画像と異なる光源下にある対象物の有無判定を正しく行
うことができる。In this embodiment, the determination method storage unit 99 shown in FIG.
Can be selected on the basis of the stored contents of step 100, and the user can select step 100 enclosed by a double frame in the figure.
1, 1003 to 1006 can be arbitrarily combined. Steps 1001 and 1004
As described with reference to FIG. 9, the color correction by using the auto white balance method widely used in video cameras and the like, and applying the colors of the same object in the reference image and the image to be determined to the light source, respectively. Instead, it is kept at a specific value or its approximate value. This also makes it possible to correctly determine the presence or absence of an object under a light source different from that of the reference image.
【0063】以上、図1〜図10を用いて説明したよう
に、本実施例のカラー画像中の特定対象物有無判定方法
およびその装置では、類似した色をまとめた色群で、対
を作り(色群対)、この色群対に基づき、カラー動画像
から、対象物を含むフレームの検出を行なう。このこと
により、光源の色温度の違い等に対しても、色群の対を
安定して検出することができ、フレーム中に対象物が存
在するか否かの判定において、検出漏れを大きく減少さ
せることができる。また、異なる色群の対には、有効色
対と判定する閾値を、同じ色群の対に対する閾値より高
く設定する。このことにより、過剰検出を削減できる。
また、色群の分布領域間の隣接方向を考慮することによ
り、過剰検出を、さらに減らすことができる。As described above with reference to FIGS. 1 to 10, in the method and the apparatus for determining the presence / absence of a specific object in a color image according to the present embodiment, a pair is formed by a color group in which similar colors are put together. (Color group pair) Based on the color group pair, a frame including an object is detected from the color moving image. This makes it possible to stably detect a pair of color groups even when there is a difference in color temperature of a light source, etc., and greatly reduces detection omissions in determining whether an object is present in a frame. Can be done. In addition, for a pair of different color groups, a threshold for determining an effective color pair is set higher than a threshold for a pair of the same color group. This can reduce overdetection.
In addition, by taking into account the adjacent direction between the distribution areas of the color groups, overdetection can be further reduced.
【0064】尚、本発明のカラー動画像中の特定対象物
有無判定方法およびその装置は、図1〜図10を用いて
説明した実施例に限定されるものではなく、その要旨を
逸脱しない範囲において種々変更可能である。例えば、
上述の色群の抽出にあたって、参照画像の部分領域に実
在する色のみをグループ化したが、各種の色空間上にお
いて類似するとされる色を計算によって求め、それらを
グループ化するものでも良い。次に、図11〜図12を
用いて、本発明のカラー動画像カット検索表示システム
の説明を行なう。The method and apparatus for determining the presence or absence of a specific object in a color moving image according to the present invention are not limited to the embodiment described with reference to FIGS. Can be variously changed. For example,
In extracting the above-described color group, only colors that actually exist in the partial area of the reference image are grouped. However, colors that are considered to be similar in various color spaces may be obtained by calculation and may be grouped. Next, the color moving image cut search and display system of the present invention will be described with reference to FIGS.
【0065】図11は、本発明のカラー動画像カット検
索表示システムの本発明に係わる構成の第1の実施例を
示すブロック図である。本図においては、11は、光デ
ィスクやビデオデッキ等の動画像再生装置、12は、図
9で説明したカラー動画像中の特定対象物有無判定装置
90と同様な処理により、動画像再生装置11から出力
される連続するカラー動画像の各フレームに、特定の対
象物が含まれているか否かを判定するフレーム判定装
置、13は、動画像再生装置11から出力される連続す
るカラー動画像をカット単位で分割して、この分割した
カット毎に、各々のカットとカット内のフレームからな
る直方体のカット表示画面14とを、ディスプレイ15
の画面上に表示するカット表示制御装置、16は、フレ
ーム判定装置12による判定結果に基づき、特定の対象
物が含まれているフレームおよびカットを検出する特定
フレーム検出部、17は、この特定フレーム検出部16
で検出した特定の対象物が含まれているフレームを用い
てカット表示画面14と対象物画面18を生成して表示
出力する特定フレーム画像表示部である。尚、14a
は、従来のカラー動画像カット検索表示システムで表示
されるカット表示画面であり、各カットの最初のフレー
ムの画像が表示されている。また、各カットの時間長
が、カット表示画面14aの奥行き(厚み)で表されて
いる。FIG. 11 is a block diagram showing a first embodiment of the configuration according to the present invention of the color moving picture cut search and display system of the present invention. In the figure, reference numeral 11 denotes a moving image reproducing apparatus such as an optical disk or a video deck, and 12 denotes a moving image reproducing apparatus 11 by the same processing as the apparatus 90 for judging the presence or absence of a specific target in a color moving image described with reference to FIG. The frame determination device 13 that determines whether or not a specific target is included in each frame of the continuous color moving image output from the Each of the cuts is divided into cuts, and a cut display screen 14 of a rectangular parallelepiped made up of each cut and a frame within the cut is displayed on a display 15.
The cut display control device 16 for displaying on the screen of the specific frame, based on the determination result by the frame determination device 12, a specific frame detection unit that detects a frame containing a specific object and a cut, 17 Detector 16
The specific frame image display unit generates and displays and outputs the cut display screen 14 and the target object screen 18 using the frame including the specific target detected in the step (a). 14a
Is a cut display screen displayed by the conventional color moving image cut search and display system, in which the image of the first frame of each cut is displayed. The time length of each cut is represented by the depth (thickness) of the cut display screen 14a.
【0066】カット表示制御装置13は、動画像再生装
置11から出力される連続するカラー動画像のカット単
位での表示を行なう際に、フレーム判定装置12による
特定対象物の判定処理結果を利用する。すなわち、各カ
ットに特定の対象物が存在するフレーム(特定フレー
ム)が含まれているか否かを、フレーム判定装置12の
特定結果に基づき、特定フレーム検出部16が検出す
る。そして、特定フレーム画像表示部17は、各カット
毎のカット表示画面を生成する場合に、特定フレームを
含むカットに対しては、この特定フレームの画像を表示
する。The cut display control device 13 uses the result of the process of judging a specific object by the frame judging device 12 when displaying a continuous color moving image output from the moving image reproducing device 11 in cut units. . That is, the specific frame detection unit 16 detects whether or not each cut includes a frame (specific frame) in which the specific target object exists, based on the specification result of the frame determination device 12. Then, when generating a cut display screen for each cut, the specific frame image display unit 17 displays an image of the specific frame for a cut including the specific frame.
【0067】この時、特定フレームは、カット表示画面
のカットの時間長を示す部分の対応する位置に表示され
る。本実施例では、奥行きmの部分に表示する。尚、特
定フレームを含まないカットに対しては、従来技術通
り、このカットの最初のフレームの画像を、最前面に表
示する。このように、本実施例のカラー動画像カット検
索表示システムでは、カット表示画面に、特定の対象物
が含まれている特定フレームの画像を優先的に表示する
ので、ユーザは、特定の対象物が含まれているカットを
容易に検索することができる。At this time, the specific frame is displayed at a position corresponding to the portion indicating the time length of the cut on the cut display screen. In the present embodiment, it is displayed at a depth m. For a cut that does not include a specific frame, the image of the first frame of the cut is displayed on the foreground, as in the related art. As described above, in the color moving image cut search and display system according to the present embodiment, the image of the specific frame including the specific target is preferentially displayed on the cut display screen. Can be easily searched for.
【0068】図12は、本発明のカラー動画像カット検
索表示システムの本発明に係わる構成の第2の実施例を
示すブロック図である。本第2の実施例は、図11にお
けるカット表示制御装置13に特定フレーム群表示部1
9を設け、カット表示制御装置13aを構成するもので
あり、特定の対象物を連続して含む特定フレーム群の時
間長を示すカット表示画面20を表示するものである。
カット表示制御装置13aは、動画像再生装置11から
出力される連続するカラー動画像のカット単位での表示
を行なう際に、特定フレーム検出部16により、フレー
ム判定装置12による特定対象物の判定処理結果に基づ
き、各カットに特定の対象物が存在するフレーム(特定
フレーム)が含まれているか否かを検出する。FIG. 12 is a block diagram showing a second embodiment of the configuration according to the present invention of the color moving image cut search and display system of the present invention. The second embodiment is different from the cut display control device 13 shown in FIG.
9, a cut display control device 13a, which displays a cut display screen 20 indicating the time length of a specific frame group including a specific target object continuously.
When displaying a continuous color moving image output from the moving image reproducing device 11 in units of cuts, the cut display control device 13a uses the specific frame detecting unit 16 to determine the specific target object by the frame determining device 12. Based on the result, it is detected whether or not each cut includes a frame in which a specific target object exists (specific frame).
【0069】そして、特定フレーム画像表示部17によ
り、特定フレームの画像を表示した各カット毎のカット
表示画面を生成する場合に、特定フレーム群表示部19
により、このカット表示画面の特定フレームの画像の後
に、特定フレーム群の時間長に対応する分の奥行きで、
着色もしくは強調表示する。このように、本第2の実施
例のカラー動画像カット検索表示システムでは、カット
における特定の対象物が含まれているフレーム群の存在
する区間を表示する。このことにより、ユーザは、検索
したカットにおける特定の対象物が含まれているフレー
ムの時間量を容易に確認することができる。When the specific frame image display unit 17 generates a cut display screen for each cut displaying the image of the specific frame, the specific frame group display unit 19
Thus, after the image of the specific frame on the cut display screen, with a depth corresponding to the time length of the specific frame group,
Color or highlight. As described above, in the color moving image cut search and display system according to the second embodiment, the section in which the frame group including the specific target in the cut exists is displayed. Thus, the user can easily confirm the amount of time of the frame including the specific target in the searched cut.
【0070】図13は、本発明のカラー動画像カット検
索表示システムの本発明に係わる構成の第3の実施例を
示すブロック図である。本第3の実施例は、図11にお
けるカット表示制御装置13の特定フレーム画像表示部
17の代わりに、表示部21を設け、カット表示制御装
置13bを構成するものであり、特定の対象物を含むフ
レームの画像22〜24を縮小表示し、この縮小したフ
レームの画像22〜24のそれぞれのフレーム群の時間
長をグラフ表示したカット表示画面25〜29を表示す
るものである。FIG. 13 is a block diagram showing a third embodiment of the structure according to the present invention of the color moving image cut search and display system of the present invention. In the third embodiment, a display unit 21 is provided instead of the specific frame image display unit 17 of the cut display control device 13 in FIG. The images 22 to 24 of the included frames are displayed in a reduced size, and cut display screens 25 to 29 are displayed in which the time lengths of the respective frame groups of the reduced images 22 to 24 of the frames are graphically displayed.
【0071】カット表示制御装置13bは、動画像再生
装置11から出力される連続するカラー動画像のカット
単位での表示を行なう際に、特定フレーム検出部16に
より、フレーム判定装置12による特定対象物の判定処
理結果に基づき、各カットに特定の対象物が存在するフ
レーム(特定フレーム)が含まれているか否かを検出す
る。そして、表示部21により、特定フレーム検出部1
6で検出した複数の特定フレームの画像22〜24をそ
れぞれ縮小表示すると共に、直方体のカット表示画面2
5〜29を表示する。本第3の実施例においては、表示
部21は、カット表示画面25〜29の上面に、それぞ
れの画像22〜24に対応する特定フレーム群の時間長
を各表示バー22a〜24aで強調表示する。The cut display control device 13b, when displaying a continuous color moving image output from the moving image reproducing device 11 in units of cut, by the specific frame detecting section 16 and the specific object by the frame determining device 12 , It is detected whether or not each cut includes a frame (specific frame) in which a specific target object exists. Then, the specific frame detecting unit 1 is displayed on the display unit 21.
The images 22 to 24 of the plurality of specific frames detected in step 6 are displayed in a reduced size, and the cut display screen 2 of a rectangular parallelepiped is displayed.
5 to 29 are displayed. In the third embodiment, the display unit 21 highlights the time length of a specific frame group corresponding to each of the images 22 to 24 on the upper surface of the cut display screens 25 to 29 with the display bars 22a to 24a. .
【0072】このように、本第3の実施例のカラー動画
像カット検索表示システムでは、単体の対象物について
だけでなく、複数の対象物について、どのカットのどの
位置に現われるかを同時に表示する。そして、各カット
の奥行き(厚み)部分に、対象物に固有の色や表現形式
でバー(直線)を描き、そのバーの位置や長さにより、
各対象物の現われている区間を表現する。このことによ
り、ユーザは、どの対象物が、どこにどれだけの時間現
われるのかを、一目で把握することができる。また、対
象物間の出現関係、例えば、画像22〜24で示される
対象物が同時に現われるフレーム部分も一目で分かり、
ユーザは、複数の特定の対象物に対する検索を、容易に
行なうことができる。As described above, in the color moving image cut search and display system according to the third embodiment, not only a single object but also a plurality of objects are displayed at the same time as to which position of which cut appears. . Then, draw a bar (straight line) in the depth (thickness) portion of each cut in a color and expression format unique to the object, and according to the position and length of the bar,
Expresses the section where each object appears. Thus, the user can grasp at a glance which object appears where and for how long. Further, the appearance relationship between the objects, for example, the frame portion where the objects shown in the images 22 to 24 simultaneously appear can be seen at a glance,
The user can easily search for a plurality of specific objects.
【0073】図14は、本発明のカラー動画像カット検
索表示システムの本発明に係わる構成の第4の実施例を
示すブロック図である。本第4の実施例は、図11〜図
13におけるカット表示制御装置13に、ユーザが指定
した複数種類の対象物の特定に用いた各々の参照画面3
1〜33と、この各々の参照画面を用いて抽出された各
々の特定フレームの動画像再生装置11から出力される
連続するカラー動画像での時間位置を示すタイムチャー
ト画面31a〜33aとを、ディスプレイ15の画面に
表示する対象物画面表示部34と、この対象物画面表示
部34で表示された参照画面31〜33とタイムチャー
ト画面31a〜33aに対するマウス30等を用いたユ
ーザの指定情報を、フレーム判定装置12に送出し、特
定フレーム検出部16、および、特定フレーム画像表示
部17により、対応するカット表示画面35を強調表示
させる指定フレーム検出部36とを設けたものである。FIG. 14 is a block diagram showing a fourth embodiment of the configuration according to the present invention of the color moving image cut search and display system of the present invention. In the fourth embodiment, each of the reference screens 3 used for specifying a plurality of types of objects specified by the user is provided to the cut display control device 13 in FIGS.
1 to 33 and time chart screens 31a to 33a indicating time positions in continuous color moving images output from the moving image reproducing apparatus 11 of each specific frame extracted using the respective reference screens, The object screen display unit 34 displayed on the screen of the display 15 and the user's designation information using the mouse 30 or the like for the reference screens 31 to 33 and the time chart screens 31a to 33a displayed on the object screen display unit 34 are displayed. The specific frame detecting unit 16 and the designated frame detecting unit 36 that causes the specific frame image display unit 17 to highlight the corresponding cut display screen 35 are provided.
【0074】本第4の実施例の動作を、次の図15、図
16を用いて説明する。図15は、図14におけるディ
スプレイの画面内容の第1の例を示す説明図である。本
図は、図14のマウス30を用いたユーザからの指定が
なされていない状態を示している。この画面では、カラ
ー動画像の各カットの最初のフレームの画像と時間長を
表す奥行き(厚み)からなるカット表示画面37〜4
1、そして、図14の対象物画面表示部34による参照
画面31〜33とタイムチャート画面31a〜33aが
表示されている。この状態で、ユーザが、図14のマウ
ス30を用いて、参照画面32を指定した場合には、次
の図16に示す画面内容に変化する。The operation of the fourth embodiment will be described with reference to FIGS. FIG. 15 is an explanatory diagram showing a first example of the screen content of the display in FIG. This figure shows a state in which no designation has been made by the user using the mouse 30 in FIG. On this screen, cut display screens 37 to 4 each including an image of the first frame of each cut of the color moving image and a depth (thickness) representing a time length.
1, and reference screens 31 to 33 and time chart screens 31a to 33a by the object screen display unit 34 in FIG. 14 are displayed. In this state, when the user specifies the reference screen 32 using the mouse 30 in FIG. 14, the screen changes to the next screen shown in FIG.
【0075】図16は、図14におけるディスプレイの
画面内容の第2の例を示す説明図である。本図は、ユー
ザが、図14のマウス30を用いて、参照画面32を指
定した場合の動作例を示している。図14の指定フレー
ム検出部36は、図14のマウス30からのクリック情
報、すなわち、参照画面32の検索指示情報を検知する
と、図14のフレーム判定装置12を起動して、参照画
面32に対応するフレームの判定処理を開始させる。こ
の図14のフレーム判定装置12からの判定結果に基づ
き、図14の特定フレーム検出部16と特定フレーム画
像表示部17は、カット表示画面37〜41を、参照画
面32に基づく表示に切り替える。すなわち、図15に
おける表示画面37、40、41のそれぞれは、表示画
面37a、40a、41aに切り替えられ、参照画面3
2の特定の対象物を表示している画面が現われる。さら
に、この参照画面32の特定の対象物を表示している画
面は、各カットの対応する時間の位置に表示される。FIG. 16 is an explanatory diagram showing a second example of the screen content of the display in FIG. This figure shows an operation example when the user specifies the reference screen 32 using the mouse 30 in FIG. When detecting the click information from the mouse 30 of FIG. 14, that is, the search instruction information of the reference screen 32, the designated frame detection unit 36 of FIG. 14 activates the frame determination device 12 of FIG. The determination process of the frame to be performed is started. The specific frame detection unit 16 and the specific frame image display unit 17 in FIG. 14 switch the cut display screens 37 to 41 to a display based on the reference screen 32 based on the determination result from the frame determination device 12 in FIG. That is, each of the display screens 37, 40, and 41 in FIG. 15 is switched to the display screens 37a, 40a, and 41a, and the reference screen 3
A screen displaying the second specific object appears. Further, a screen of the reference screen 32 displaying a specific target is displayed at a position corresponding to each cut.
【0076】以上、図1〜図16を用いて説明したよう
に、本発明のカラー画像中の特定対象物有無判定方法お
よびその装置ならびにこの装置を用いたカラー動画像検
索表示システムによれば、ユーザは、カラー動画像から
特定の対象物が含まれているフレームを、漏れなく高信
頼に検出することができる。尚、本発明のカラー動画像
中の特定対象物有無判定方法およびその装置ならびにこ
の装置を用いたカラー動画像検索表示システムは、例え
ば、図1〜図10の説明で述べたように、図1〜図16
を用いて説明した実施例に限定されるものではなく、そ
の要旨を逸脱しない範囲において種々変更可能である。As described above with reference to FIGS. 1 to 16, according to the method and the apparatus for determining the presence / absence of a specific object in a color image and the color moving image search / display system using the apparatus according to the present invention, The user can reliably detect the frame including the specific target from the color moving image without omission. The method and apparatus for determining the presence / absence of a specific object in a color moving image and the color moving image search and display system using this apparatus according to the present invention are, for example, as described in FIGS. ~ FIG.
However, the present invention is not limited to the embodiment described with reference to FIG.
【0077】[0077]
【発明の効果】本発明によれば、参照色対の選び方や、
光源の色温度変化による対象物の色変化などに起因して
発生していた、カラー動画像からの対象物を含んだフレ
ームの検出漏れを効率良く防ぐことができ、カラー動画
像検出に係わる技術の信頼性と性能の向上が可能となる
と共に、カラー動画像カット検索表示システムにおい
て、カラー動画像に対するより詳細な編集作業をサポー
トすることが可能となる。According to the present invention, how to select a reference color pair,
Technology related to color moving image detection that can efficiently prevent omission of detection of frames containing objects from color moving images, which has been caused by changes in the color of the object due to changes in the color temperature of the light source, etc. And the performance of the color moving image cut search and display system can be supported in more detailed editing work on the color moving image.
【0078】[0078]
【図1】本発明に係わるカラー画像中の特定対象物有無
判定方法の第1の実施例を示すフローチャートである。FIG. 1 is a flowchart showing a first embodiment of a method for determining the presence / absence of a specific target in a color image according to the present invention.
【図2】本発明に係わるカラー画像中の特定対象物有無
判定方法の第1の実施例を示すフローチャートである。FIG. 2 is a flowchart showing a first embodiment of a method for determining the presence / absence of a specific target in a color image according to the present invention;
【図3】図1および図2における本発明に係わるカラー
画像中の特定対象物有無判定方法の実施に使用する装置
の構成を示すブロック図である。FIG. 3 is a block diagram showing a configuration of an apparatus used for carrying out the method for determining the presence / absence of a specific object in a color image according to the present invention in FIGS. 1 and 2;
【図4】本発明のカラー画像中の特定対象物有無判定方
法に係わる第2の実施例を示すフローチャートである。FIG. 4 is a flowchart illustrating a second embodiment of the method for determining the presence / absence of a specific object in a color image according to the present invention.
【図5】本発明のカラー画像中の特定対象物有無判定方
法に係わる第3の実施例を示すフローチャートである。FIG. 5 is a flowchart illustrating a third embodiment of the method for determining the presence or absence of a specific target in a color image according to the present invention.
【図6】本発明のカラー画像中の特定対象物有無判定方
法に係わる第3の実施例を示すフローチャートである。FIG. 6 is a flowchart showing a third embodiment of the method for determining the presence / absence of a specific object in a color image according to the present invention.
【図7】本発明のカラー画像中の特定対象物有無判定方
法に係わる第4の実施例を示す説明図である。FIG. 7 is an explanatory diagram showing a fourth embodiment of the method for determining the presence / absence of a specific target in a color image according to the present invention.
【図8】本発明のカラー画像中の特定対象物有無判定方
法に係わる第5の実施例を示すフローチャートである。FIG. 8 is a flowchart showing a fifth embodiment of the method for determining the presence / absence of a specific object in a color image according to the present invention.
【図9】本発明のカラー画像中の特定対象物有無判定装
置の本発明に係わる構成の一実施例を示すブロック図で
ある。FIG. 9 is a block diagram illustrating an embodiment of a configuration according to the present invention of the apparatus for determining the presence / absence of a specific target in a color image according to the present invention.
【図10】図9におけるカラー画像中の特定対象物有無
判定装置の本発明に係わる処理動作を示すフローチャー
トである。10 is a flowchart illustrating a processing operation according to the present invention of the apparatus for determining the presence / absence of a specific object in a color image in FIG. 9;
【図11】本発明のカラー動画像カット検索表示システ
ムの本発明に係わる構成の第1の実施例を示すブロック
図である。FIG. 11 is a block diagram showing a first embodiment of the configuration according to the present invention of the color moving image cut search and display system of the present invention.
【図12】本発明のカラー動画像カット検索表示システ
ムの本発明に係わる構成の第2の実施例を示すブロック
図である。FIG. 12 is a block diagram showing a second embodiment of the configuration according to the present invention of the color moving image cut search and display system of the present invention.
【図13】本発明のカラー動画像カット検索表示システ
ムの本発明に係わる構成の第3の実施例を示すブロック
図である。FIG. 13 is a block diagram showing a third embodiment of the configuration according to the present invention of the color moving image cut search and display system of the present invention.
【図14】本発明のカラー動画像カット検索表示システ
ムの本発明に係わる構成の第4の実施例を示すブロック
図である。FIG. 14 is a block diagram showing a fourth embodiment of the configuration according to the present invention of the color moving image cut search and display system of the present invention.
【図15】図14におけるディスプレイの画面内容の第
1の例を示す説明図である。FIG. 15 is an explanatory diagram showing a first example of screen contents of the display in FIG. 14;
【図16】図14におけるディスプレイの画面内容の第
2の例を示す説明図である。FIG. 16 is an explanatory diagram showing a second example of the screen content of the display in FIG. 14;
【図17】従来のカラー動画像対象物の特徴情報の選出
方法の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of a conventional method for selecting feature information of a color moving image object.
【図18】従来のカラー動画像対象物の検索方法を示す
フローチャートである。FIG. 18 is a flowchart showing a conventional color moving image object search method.
【図19】図17、18で示したアルゴリズムを用いた
検索例を示す説明図である。FIG. 19 is an explanatory diagram showing a search example using the algorithm shown in FIGS.
【図20】参照画像から抽出した参照色対の一例を示す
説明図である。FIG. 20 is an explanatory diagram illustrating an example of a reference color pair extracted from a reference image.
【図21】従来のカラー動画像カット検索表示システム
の構成を示すブロック図である。FIG. 21 is a block diagram showing a configuration of a conventional color moving image cut search and display system.
1 コンピュータ 2 ディスプレイ 3 動画像再生装置 4 A/D変換器 5 制御線 6 外部記憶装置 7 入力装置 8a〜8e インタフェース 9 CPU 10 メモリ 11 動画像再生装置 12 フレーム判定装置 13、13a、13b カット表示制御装置 14、14a カット表示画面 15 ディスプレイ 16 特定フレーム検出部 17 特定フレーム画像表示部 18 対象物画面 19 特定フレーム群表示部 20 カット表示画面 21 表示部 22〜24 フレームの画像 22a〜24a 各表示バー 25〜29 カット表示画面 30 マウス 31〜33 参照画面 31a〜33a タイムチャート画面 34 対象物画面表示部 35 カット表示画面 36 指定フレーム検出部 37〜41 カット表示画面 37a、40a、41a カット表示画面 71 参照色群対 72 主色群の分布マップ 73 従色群の分布マップ 74 色群対の分布マップ 75、76 方向マスク 77 ノイズを除去した主色群の分布マップ 78 ノイズを除去した従色群の分布マップ 90 カラー画像中の特定対象物有無判定装置 91 主制御部 92 画像入出力部 93 色補正部 94 対象物指定部 95 色群抽出部 96 固有色選択部 97 色群対登録部 98 有無判定部 99 判定方法記憶部 191 対象物を含んだフレーム 192 検索対象物を含むフレーム 193 検索対象物を含まないフレーム 194、195 分布マップ 291 参照画像 292、293 RGB色空間座標 294 色差 2101 動画像再生装置 2102 カット検出装置 2103 カット表示制御装置 2104 ディスプレイ 2105 カット表示画面 Reference Signs List 1 computer 2 display 3 moving image reproducing device 4 A / D converter 5 control line 6 external storage device 7 input device 8a-8e interface 9 CPU 10 memory 11 moving image reproducing device 12 frame judging device 13, 13a, 13b cut display control Apparatus 14, 14a Cut display screen 15 Display 16 Specific frame detection unit 17 Specific frame image display unit 18 Target screen 19 Specific frame group display unit 20 Cut display screen 21 Display unit 22 to 24 frame images 22a to 24a Each display bar 25 To 29 cut display screen 30 mouse 31 to 33 reference screen 31a to 33a time chart screen 34 target screen display section 35 cut display screen 36 designated frame detection section 37 to 41 cut display screen 37a, 40a, 41a cut display screen 71 Color group pair 72 Distribution map of primary color group 73 Distribution map of secondary color group 74 Distribution map of color group pair 75, 76 Direction mask 77 Distribution map of primary color group with noise removed 78 Distribution of secondary color group with noise removed Map 90 Specific object presence / absence determination device in color image 91 Main control unit 92 Image input / output unit 93 Color correction unit 94 Object designation unit 95 Color group extraction unit 96 Unique color selection unit 97 Color group pair registration unit 98 Presence / absence determination unit 99 Judgment method storage unit 191 Frame including object 192 Frame including search object 193 Frame not including search object 194, 195 Distribution map 291 Reference image 292, 293 RGB color space coordinates 294 Color difference 2101 Video playback device 2102 Cut detection device 2103 Cut display control device 2104 Display 2105 Cut display screen
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 長坂外1名,カラービデオ映像におけ る自動索引付け法と物体探索法,情報処 理学会論文誌,Vol.33,No.4 (1992年4月),pp.543−550 長坂外2名,動画像情報リンク付けの 一手法,テレビジョン学会技術報告,V ol.16,No.10(1992年1月),p p.25−30 上田外2名,認識技術を応用した対話 型映像編集方式の提案,電子情報通信学 会論文誌D−II,Vol.J−75−D −II,No.2(1992年2月),p p.216−225 (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 H04N 9/64 H04N 9/79 G06F 17/30 JICSTファイル(JOIS)────────────────────────────────────────────────── ─── Continuation of the front page (56) References Nagasaka et al., Automatic indexing method and object search method for color video images, Transactions of the Information Processing Society of Japan, Vol. 33, No. 4 (April 1992), pp. 543-550 Outside Nagasaka, 2 Techniques for Linking Video Information, Technical Report of the Institute of Television Engineers of Japan, Vol. 16, No. 10 (January 1992), p.p. 25-30 Ueda et al., Proposal of an interactive video editing system using recognition technology, IEICE Transactions D-II, Vol. J-75-D-II, No. 2 (February 1992), p.p. 216-225 (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 7/ 00-7/60 H04N 9/64 H04N 9/79 G06F 17/30 JICST file (JOIS)
Claims (3)
について、それぞれの画像領域を類似した色毎にまとめ
たグループ(色群)として作成する手段と、 相異なる該色群を、対応する部分領域の隣接関係に基づ
いて組み合わせて対を構成する色群対を作成する手段
と、 該色群対が、所定値以上存在するフレーム(特定フレー
ム)を動画像中から検出する手段とを有することを特徴
とする動画像の検索装置。 1. A means for creating a group (color group) in which respective image areas are grouped for each similar color for a plurality of areas included in an object on a reference screen, and corresponding different color groups. Means for creating a color group pair forming a pair by combining based on the adjacency of the partial areas; and means for detecting, from a moving image, a frame (specific frame) in which the color group pair exists at a predetermined value or more. A moving image search device, characterized in that:
いて、 上記動画像のカットをその時間長を奥行きとした立方体
で表示し、さらに時間的に連続している上記特定フレー
ム群の時間長に対応する位置を着色したものを表示する
ことを特徴とする動画像の検索装置。 2. The moving image search apparatus according to claim 1, wherein the cut of the moving image is displayed as a cube whose depth is the time length, and the time of the specific frame group which is temporally continuous is further reduced. A moving image search device characterized by displaying a colored position corresponding to a length.
いて、 上記カットに含まれる時間的に最初の上記特定フレーム
を、上記立方体の時間的に対応する奥行き位置に配置し
て表示することを特徴とする動画像の検索装置。 3. The search system of the moving image according to claim 2, the temporally first of the specific frame included in the cut, that arranging and displaying the temporally corresponding depth position of the cube Search device of a moving image and said.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26103392A JP3332166B2 (en) | 1992-09-30 | 1992-09-30 | Video search device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26103392A JP3332166B2 (en) | 1992-09-30 | 1992-09-30 | Video search device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11274486A Division JP2000099743A (en) | 1999-09-28 | 1999-09-28 | Display device for moving image and recording medium storing program for the display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06223179A JPH06223179A (en) | 1994-08-12 |
JP3332166B2 true JP3332166B2 (en) | 2002-10-07 |
Family
ID=17356125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26103392A Expired - Fee Related JP3332166B2 (en) | 1992-09-30 | 1992-09-30 | Video search device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3332166B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000099743A (en) * | 1999-09-28 | 2000-04-07 | Hitachi Ltd | Display device for moving image and recording medium storing program for the display device |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6195497B1 (en) | 1993-10-25 | 2001-02-27 | Hitachi, Ltd. | Associated image retrieving apparatus and method |
JP3454396B2 (en) * | 1995-10-11 | 2003-10-06 | 株式会社日立製作所 | Video change point detection control method, playback stop control method based thereon, and video editing system using them |
JPH1175150A (en) | 1997-08-29 | 1999-03-16 | Hitachi Denshi Ltd | Dynamic image editing method, device therefor and recording medium recorded with program for executing dynamic image editing operation |
JP3613543B2 (en) * | 1997-11-11 | 2005-01-26 | 株式会社日立国際電気 | Video editing device |
DE60025406T2 (en) * | 1999-03-02 | 2006-09-21 | Hitachi Denshi K.K. | Motion picture information display method and apparatus |
CN100508560C (en) | 2000-01-26 | 2009-07-01 | 索尼公司 | Information processing device and processing method and program storing medium |
US8238718B2 (en) | 2002-06-19 | 2012-08-07 | Microsoft Corporaton | System and method for automatically generating video cliplets from digital video |
US7383508B2 (en) * | 2002-06-19 | 2008-06-03 | Microsoft Corporation | Computer user interface for interacting with video cliplets generated from digital video |
JP4241709B2 (en) | 2005-10-11 | 2009-03-18 | ソニー株式会社 | Image processing device |
JP2012165240A (en) * | 2011-02-08 | 2012-08-30 | Sony Corp | Moving image processing apparatus, moving image processing method, and program |
JP5820284B2 (en) * | 2012-01-18 | 2015-11-24 | 株式会社東芝 | Image processing apparatus, method, and program |
JP5997966B2 (en) * | 2012-08-03 | 2016-09-28 | 日本放送協会 | Image processing apparatus and program |
JP6220737B2 (en) * | 2014-06-16 | 2017-10-25 | 日本電信電話株式会社 | Subject area extraction apparatus, method, and program |
-
1992
- 1992-09-30 JP JP26103392A patent/JP3332166B2/en not_active Expired - Fee Related
Non-Patent Citations (3)
Title |
---|
上田外2名,認識技術を応用した対話型映像編集方式の提案,電子情報通信学会論文誌D−II,Vol.J−75−D−II,No.2(1992年2月),pp.216−225 |
長坂外1名,カラービデオ映像における自動索引付け法と物体探索法,情報処理学会論文誌,Vol.33,No.4(1992年4月),pp.543−550 |
長坂外2名,動画像情報リンク付けの一手法,テレビジョン学会技術報告,Vol.16,No.10(1992年1月),pp.25−30 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000099743A (en) * | 1999-09-28 | 2000-04-07 | Hitachi Ltd | Display device for moving image and recording medium storing program for the display device |
Also Published As
Publication number | Publication date |
---|---|
JPH06223179A (en) | 1994-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3361587B2 (en) | Moving image search apparatus and method | |
US11317139B2 (en) | Control method and apparatus | |
EP0729117B1 (en) | Method and apparatus for detecting a point of change in moving images | |
JP3332166B2 (en) | Video search device | |
US7916894B1 (en) | Summary of a video using faces | |
JP3461626B2 (en) | Specific image region extraction method and specific image region extraction device | |
US8094935B2 (en) | Representative color extracting method and apparatus based on human color sense and data histogram distributions | |
US20060120624A1 (en) | System and method for video browsing using a cluster index | |
US20220417417A1 (en) | Content Operation Method and Device, Terminal, and Storage Medium | |
CN101706793A (en) | Method and device for searching picture | |
CN105657272A (en) | Terminal equipment and photographing method thereof | |
JP2000350156A (en) | Method for storing moving picture information and recording medium recording the information | |
JP2009505261A (en) | Method and apparatus for accessing data using symbolic representation space | |
JP2008035149A (en) | Video recording and reproducing system and video recording and reproducing method | |
JP3258924B2 (en) | Scene management device, scene management method, and recording medium | |
JP3221028B2 (en) | Keyword assignment method for moving image information | |
CN112822394B (en) | Display control method, display control device, electronic equipment and readable storage medium | |
JP2004021430A (en) | Image searching device, image searching method, and image searching program | |
JP2006217046A (en) | Video index image generator and generation program | |
US7844163B2 (en) | Information editing device, information editing method, and computer product | |
CN113225451A (en) | Image processing method and device and electronic equipment | |
CN114025237B (en) | Video generation method and device and electronic equipment | |
JP2000099743A (en) | Display device for moving image and recording medium storing program for the display device | |
JP3379453B2 (en) | Caption region detection method and device, and moving image search method and device | |
JP3558886B2 (en) | Video processing equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070726 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080726 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080726 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090726 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090726 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100726 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100726 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110726 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110726 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120726 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |