JP3685208B2 - Feature scene detection system - Google Patents

Feature scene detection system Download PDF

Info

Publication number
JP3685208B2
JP3685208B2 JP2004290886A JP2004290886A JP3685208B2 JP 3685208 B2 JP3685208 B2 JP 3685208B2 JP 2004290886 A JP2004290886 A JP 2004290886A JP 2004290886 A JP2004290886 A JP 2004290886A JP 3685208 B2 JP3685208 B2 JP 3685208B2
Authority
JP
Japan
Prior art keywords
still image
feature
group
scene
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004290886A
Other languages
Japanese (ja)
Other versions
JP2005124188A (en
Inventor
勝人 坂本
順一 鳩岡
廣和 雨宮
光輝 小俣
良信 萩原
俊秀 嵯峨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004290886A priority Critical patent/JP3685208B2/en
Publication of JP2005124188A publication Critical patent/JP2005124188A/en
Application granted granted Critical
Publication of JP3685208B2 publication Critical patent/JP3685208B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、映像の中から特徴場面を検出し表示を行う特徴場面検出システムに関する。   The present invention relates to a feature scene detection system that detects and displays a feature scene from an image.

テレビの技術や演出手法が急速に進歩する一方で、アニメーション番組等に見られる点滅する光や、急激な場面変換などの映像の特殊効果が一部の視聴者の健康を損ねる事態が起きている。   While TV technology and production techniques are rapidly advancing, special effects of video such as flashing light seen in animation programs and sudden changes in scenes are damaging to the health of some viewers. .

このような特殊効果を検出する場合に、映像の1コマ1コマをコマ送りしながら人間が確認する場合、秒1コマの速度で確認できたとしても2時間の映画で48時間かかる計算になり、放送する全ての映像に対して調査することは物理的に不可能となる。   When such a special effect is detected, if a human confirms it while moving forward one frame at a time, even if it can be confirmed at the speed of one frame per second, it takes 48 hours for a two-hour movie. It is physically impossible to investigate all the broadcast videos.

そこで、従来の方式および装置では、点滅する光の場面に関しては、その1コマ1コマを短いカットとみなすことができることから、特許文献1に記載のようなサブリミナル画像の検出装置を代用し検出をおこなっていた。   Therefore, in the conventional method and apparatus, regarding the scene of the flashing light, each frame can be regarded as a short cut. Therefore, the subliminal image detection device described in Patent Document 1 is used as a substitute for detection. I was doing it.

特開平9−74575号公報JP-A-9-74575

上記従来の技術では、視聴者の健康を損ねる可能性のある映像を抽出するための基準値をもとに映像中の基準を超えている部分を検出することは可能であった。しかし、抽出された場面の具体的な特徴量がユーザにはわからない為、基準値に対してどの程度超えるのか比較を行えないという問題があった。更に、点滅場面では、大量の特徴場面となる静止画像を検出する為、一覧表示を行ってはいるが点滅場面の範囲が見にくいという問題があった。   With the above-described conventional technology, it is possible to detect a portion exceeding the reference in the video based on the reference value for extracting the video that may impair the health of the viewer. However, since the user does not know the specific feature amount of the extracted scene, there is a problem that it is impossible to compare how much it exceeds the reference value. Further, in the blinking scene, there is a problem that it is difficult to see the range of the blinking scene although the list display is performed in order to detect a large number of still images as characteristic scenes.

本発明の目的は、特徴場面の特徴量を表示することにより、このシステムのユーザが基準値との比較を容易に行えるようにすることにある。更に、特徴場面を特殊効果の検出要因、検出時刻により分類し一覧表示し特徴場面の内容把握を容易に行えるようにすることにある。   An object of the present invention is to display a feature amount of a feature scene so that a user of this system can easily compare with a reference value. Furthermore, the feature scenes are classified by special effect detection factors and detection times and displayed in a list so that the contents of the feature scenes can be easily grasped.

上記目的を達成するために本発明は、連続する複数の静止画像からなる映像から静止画像を取り出し、その静止画像に対し、映像の点滅場面に関する特徴量と前記静止画像とその前後の静止画像との特徴量の差を計算する。次に、計算された特徴量の差に従って、点滅画面となる静止画像を検出し、検出時間及び特徴量とともに検出された順番にリストに登録する。そして、前記リストの始めに登録された第1の静止画像と、前記第1の静止画像の後に登録された第2の静止画像を取り出す。第1の静止画像の検出時間と第2の静止画像の検出時間の間隔が所定の値より小さい場合は、第1の静止画像と第2の静止画像を第1のグループに追加し、第1の静止画像の検出時間と第2の静止画像の検出時間の間隔が所定の値と等しいかそれより大きい場合は、第1の静止画像と第2の静止画像を第2のグループに追加する。そして、第1のグループに属する静止画像を、その静止画像が検出された特徴量とともに第1の領域に表示するとともに、第2のグループに属する静止画像を、その静止画像が検出された特徴量とともに第2の領域に表示する構成を採用した。   In order to achieve the above object, the present invention extracts a still image from a video composed of a plurality of continuous still images, and for the still image, a feature amount relating to a blinking scene of the video, the still image, and the still images before and after the still image. The difference between feature quantities is calculated. Next, a still image that becomes a blinking screen is detected according to the difference between the calculated feature amounts, and registered in the list in the order of detection together with the detection time and the feature amount. Then, the first still image registered at the beginning of the list and the second still image registered after the first still image are extracted. When the interval between the detection time of the first still image and the detection time of the second still image is smaller than a predetermined value, the first still image and the second still image are added to the first group, and the first If the interval between the still image detection time and the second still image detection time is equal to or greater than a predetermined value, the first still image and the second still image are added to the second group. The still image belonging to the first group is displayed in the first area together with the feature amount from which the still image is detected, and the still image belonging to the second group is displayed as the feature amount from which the still image is detected. And the structure displayed on a 2nd area | region was employ | adopted.

本発明によれば、映像の中から特徴場面を検出し、その検出結果を一覧表示することにより、検出した特徴場面の内容を容易に把握することができる。   According to the present invention, it is possible to easily grasp the contents of the detected characteristic scenes by detecting the characteristic scenes from the video and displaying the detection results as a list.

以下、本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail.

図1は、本発明を実現する為のシステム構成の概略ブロック図の一例である。101は、CRT等のディスプレイ装置であり、コンピュータ110の出力結果を表示する。コンピュータ110に対する命令は、キーボード104やマウス103等の入力装置を使って行うことができる。109の映像再生装置は、地上波放送や衛星放送、ケーブルテレビなどの放送番組を受信する為のチューナ装置、もしくは光ディスクやビデオテープ等に記憶された動画像を再生する為の装置である。コンピュータ110に対する命令は、この映像再生装置より行う場合もある。動画像再生装置から出力される映像信号は、逐次、キャプチャーボード等の映像入力装置108により映像の各コマをデジタル静止画像に変換し、コンピュータ110に送られる。コンピュータの内部では、デジタル静止画像は、インタフェース107を介してメモリ105に入りメモリ105に格納されたプログラムに従って、CPU106によって処理される。CPUの処理内容に応じて、デジタル静止画像、CPUの処理結果の各種情報は、補助記憶装置102に記憶することができる。次にCPUの処理内容について詳細に説明を行う。   FIG. 1 is an example of a schematic block diagram of a system configuration for realizing the present invention. Reference numeral 101 denotes a display device such as a CRT, which displays an output result of the computer 110. Commands to the computer 110 can be performed using an input device such as the keyboard 104 and the mouse 103. A video playback device 109 is a tuner device for receiving broadcast programs such as terrestrial broadcasting, satellite broadcasting, and cable television, or a device for playing back moving images stored on an optical disc, a video tape, or the like. An instruction to the computer 110 may be issued from this video reproduction apparatus. A video signal output from the moving image playback device sequentially converts each frame of the video into a digital still image by the video input device 108 such as a capture board, and is sent to the computer 110. Inside the computer, the digital still image is processed by the CPU 106 in accordance with a program that enters the memory 105 via the interface 107 and is stored in the memory 105. Depending on the processing contents of the CPU, various information such as digital still images and CPU processing results can be stored in the auxiliary storage device 102. Next, the processing contents of the CPU will be described in detail.

図2は、図1で示したシステム上で実行されるプログラムの特徴場面検出プログラムのフローチャートの一例である。   FIG. 2 is an example of a flowchart of a program feature scene detection program executed on the system shown in FIG.

プログラムは図1のメモリ105に格納され、以下の条件により実行する。   The program is stored in the memory 105 of FIG. 1 and is executed under the following conditions.

(1) ユーザが図1のマウス103又は、キーボード104により検出処理開始を指示する。   (1) The user instructs the start of detection processing using the mouse 103 or the keyboard 104 of FIG.

(2) 図1の映像再生装置109より検出処理開始が指示される。   (2) The start of detection processing is instructed from the video reproduction device 109 in FIG.

プログラムが実行されると、図1のインタフェース107よりデジタル静止画像fiを取り込む(201)。次に、デジタル静止画像fiに対して、以下の特徴量を計算し、図1のメモリ105に記憶する(202)。   When the program is executed, a digital still image fi is taken in from the interface 107 in FIG. 1 (201). Next, the following feature amounts are calculated for the digital still image fi and stored in the memory 105 of FIG. 1 (202).

202-(1):デジタル静止画像fiの平均輝度を求める。この結果は、 前記静止画像とその直前の静止画像の輝度差の割合による特徴量の検出に使用する。   202- (1): The average luminance of the digital still image fi is obtained. This result is used to detect a feature value based on the ratio of the luminance difference between the still image and the immediately preceding still image.

202-(2):デジタル静止画像fiを格子状のブロックに分割し、このブロックごとに平均輝度を求める。この結果は、前記静止画像とその直前の静止画像の平均輝度差が小さいが前記の静止画像間で同一ドットで位置で比較した場合に輝度差が大きい静止画像の輝度差の割合による特徴量の検出に使用する。   202- (2): The digital still image fi is divided into grid blocks, and the average luminance is obtained for each block. As a result, the average luminance difference between the still image and the immediately preceding still image is small, but when the same dot is compared at the same dot position between the still images, the feature amount due to the ratio of the luminance difference between the still images is large. Used for detection.

202-(3):デジタル静止画像fiの色分布情報を求める。この結果は、赤成分のドットの面積率の計算に使用する。   202- (3): Obtain color distribution information of a digital still image fi. This result is used to calculate the area ratio of the red component dots.

202-(4):デジタル静止画像fiを格子状のブロックに分割し、このブロックごとにRGB値の平均値を求める。この結果は、短いカットと映像の論理的な変化点の検出に使用する。   202- (4): The digital still image fi is divided into grid-like blocks, and an average value of RGB values is obtained for each block. This result is used to detect short cuts and logical changes in the video.

202で計算した特徴量に基づき以下のいずれかにデジタル静止画像fiが該当するか求める(203)。   Based on the feature amount calculated in 202, it is determined whether the digital still image fi corresponds to any of the following (203).

203-(1):202-(1)で求めたデジタル静止画像fiとfi-1の特徴量の差分を求め、その値があらかじめ設定しておいたしきい値を超えた場合。これに該当する場合、前記静止画像とその直前の静止画像の輝度差の割合による特徴場面となる。   203- (1): When the difference between the feature values of the digital still image fi and fi-1 obtained in 202- (1) is found, and the value exceeds a preset threshold. When this is the case, a feature scene is created by the ratio of the luminance difference between the still image and the immediately preceding still image.

203-(2):202-(2)で求めた特徴量に基づき、以下の条件を満たす場合。これに該当する場合、前記静止画像とその直前の静止画像の平均輝度差が小さいが前記の静止画像間で同一ドットで位置で比較した場合に輝度差が大きい静止画像の輝度差の割合による特徴場面となる。   203- (2): When the following conditions are satisfied based on the feature value obtained in 202- (2). When this is the case, the feature is due to the ratio of the difference in the luminance of the still image where the average luminance difference between the still image and the previous still image is small but the luminance difference is large when compared at the same dot position between the still images. It becomes a scene.

・デジタル静止画像fiとfi-1の特徴量の差分を求め、その値があらかじめ設定しておいたしきい値を超えた場合。   -When the difference between the features of digital still images fi and fi-1 is obtained and the value exceeds the preset threshold.

・上記しきい値を超えたブロックの数があらかじめ設定しておいたしきい値を超えた場合。   ・ When the number of blocks exceeding the above threshold exceeds a preset threshold.

203-(3):202-(4)で求めた特徴量からデジタル静止画像fiとfi-1、fi-1とfi-2、fiとfi-2の各々の組み合わせでの特徴量の差分を求め、その値があらかじめ設定しておいたしきい値をあるパターンで超える場合。これに該当する場合、映像の論理的な変化点による特徴場面となる。   203- (3): The difference of the feature value in each combination of digital still image fi and fi-1, fi-1 and fi-2, and fi and fi-2 from the feature value obtained in 202- (4) When it is calculated and the value exceeds the preset threshold value in a certain pattern. When this is the case, a feature scene is created by a logical change point of the video.

203-(4):202-(4)で求めた特徴量に基づき、以下の条件をみたす場合。これに該当する場合、短いカットによる特徴場面となる。   203- (4): When the following conditions are satisfied based on the feature value obtained in 202- (4). When this is the case, the feature scene is a short cut.

(a)デジタル静止画像fiとfi-1の特徴量より差分を求め、その値があらかじめ設定しておいたしきい値を超えた場合。   (a) When a difference is obtained from the feature values of digital still images fi and fi-1, and the value exceeds a preset threshold value.

(b)上記(a)の条件を満たす静止画像を図1のメモリ105に記憶しておき、前記デジタル静止画像Sjとその前に検出したデジタル静止画像Sj-1の時間的な長さを求め、その長さがあらかじめ設定しておいたしきい値より短い場合。   (b) A still image satisfying the above condition (a) is stored in the memory 105 of FIG. 1, and the time length of the digital still image Sj and the digital still image Sj-1 detected before is obtained. , If its length is shorter than the preset threshold.

上記203の判定の結果、デジタル静止画像fiを特徴場面と判定した場合、 fiとその特徴量をリストに追加する。このリストは、特徴場面を検出した順序で管理している。(204)。更に、デジタル静止画像fiを図1のディスプレイ101に図4のように一覧表示する。(205)
以上のように201から205の処理を行うことにより、デジタル静止画像fiに対する処理が終了する。続いて、次のデジタル静止画像fi+1の処理を行うかの判定を行うが、この時、以下のいずれかの条件と一致した場合、検出処理は終了となり、207の処理を行う。
If the result of the determination in 203 is that the digital still image fi is determined to be a feature scene, the fi and its feature value are added to the list. This list is managed in the order in which feature scenes are detected. (204). Furthermore, a list of digital still images fi is displayed on the display 101 of FIG. 1 as shown in FIG. (205)
As described above, by performing the processing from 201 to 205, the processing for the digital still image fi is completed. Subsequently, it is determined whether or not to process the next digital still image fi + 1. At this time, if any of the following conditions is met, the detection process ends, and the process 207 is performed.

(1)ユーザが図1のマウス103又は、キーボード104により検出処理終了を指示する。   (1) The user instructs the end of the detection process with the mouse 103 or the keyboard 104 of FIG.

(2)図1の映像再生装置109より検出処理終了が指示される。   (2) The end of the detection process is instructed from the video reproduction device 109 of FIG.

上記206の処理で、検出処理が中止となった場合、リストに登録しておいた特徴場面の検出時間の間隔があらかじめ設定しておいたしきい値以下の部分でまとめ、グループに分類する(207)。207の詳細な処理については図8を用いて説明を行う。   If the detection process is canceled in the above process 206, the detection time intervals of the feature scenes registered in the list are grouped in a portion that is equal to or smaller than a preset threshold value and classified into groups (207 ). Detailed processing of 207 will be described with reference to FIG.

ステップ207の処理では、最初に変数の初期化を行う(801)。次に特徴場面Ciがリストの最後の要素であるか判定を行う(802)。判定結果がYESの場合、グループの先頭特徴場面GFjからCiを最後のグループGjとしグループのリストに追加し処理を終了する(810)。又、判定結果がNOの場合、803から809の処理をループのイタレーション(一回分のループの処理)として処理する。この部分では、最初にリストより前記特徴場面Ciとその次の特徴場面Ci+1の検出時刻を取り出す(803と804)。次にCiとCi+1の検出時刻の間隔がしきい値以上か判定する(805)。判定結果がYESの場合、グループの追加処理(806〜808)を行う。この処理では、グループの先頭特徴場面GFjからCiをグループGjとしグループリストに追加(806)し、次のグループの先頭をGFj+1に設定し(807)、グループカウンタjをインクリメントする(808)。NOの場合、グループの追加は何もおこなわない。そして、最後にリストのカウンタであるiをインクリメント(809)し、802の処理へ戻る。このようにして、207の処理は行われる。   In the process of step 207, first, variables are initialized (801). Next, it is determined whether the feature scene Ci is the last element in the list (802). If the determination result is YES, Ci is set as the last group Gj from the first feature scene GFj of the group, and the process ends (810). If the determination result is NO, processing from 803 to 809 is processed as loop iteration (one loop processing). In this part, first, the detection times of the feature scene Ci and the next feature scene Ci + 1 are extracted from the list (803 and 804). Next, it is determined whether the interval between the detection times of Ci and Ci + 1 is equal to or greater than a threshold value (805). If the determination result is YES, group addition processing (806 to 808) is performed. In this process, Ci is added as a group Gj to the group list from the head feature scene GFj of the group (806), the head of the next group is set to GFj + 1 (807), and the group counter j is incremented (808). . If NO, do not add a group. Finally, i which is a counter of the list is incremented (809), and the processing returns to step 802. In this way, the process 207 is performed.

この処理の結果、図9のようなグループリストが作成される。901は、グループのリストであるグループリストであり、902は1つのグループの要素のリストであるグループ要素リストである。又、903はグループの要素であり、グループリスト901からグループ要素リスト902を指し示す構造になっている。そして、グループ要素リスト902により特徴場面の情報(静止画像、特徴量、時間、その他付加情報)が含まれる要素(904)を管理する。   As a result of this processing, a group list as shown in FIG. 9 is created. Reference numeral 901 denotes a group list that is a list of groups, and reference numeral 902 denotes a group element list that is a list of elements of one group. Reference numeral 903 denotes a group element, which has a structure indicating the group element list 902 from the group list 901. The group element list 902 manages elements (904) including feature scene information (still images, feature amounts, time, and other additional information).

次に上記207の処理で作成したグループリストに含まれる特徴場面を1秒間の検出回数があらかじめ設定しておいたしきい値以上の部分でまとめ、更にグループに分類する(208)。この処理により、特徴場面の点滅している区間を検索し一覧表示時に点滅区間が容易に分かるようになる。208の処理の詳細について、図10、図11を用いて説明する。この図の処理は、1つのグループ要素リスト902に対する処理であり、実際には、グループの回数分実行される。   Next, the feature scenes included in the group list created in the above process 207 are grouped into portions where the number of detections per second is equal to or greater than a preset threshold value, and further classified into groups (208). By this process, the blinking section of the feature scene is searched, and the blinking section can be easily understood when the list is displayed. Details of the processing 208 will be described with reference to FIGS. 10 and 11. The processing in this figure is processing for one group element list 902, and is actually executed as many times as the number of groups.

但し、207と208の処理は、片方のみを行うことも可能である。従って、この場合208の処理は前記のリストに対して処理を行うことができ、更に点滅区間とそれ以外の部分をそれぞれグループとして分類することも可能である。   However, only one of the processes 207 and 208 can be performed. Therefore, in this case, the processing of 208 can be performed on the list, and the blinking section and other portions can be classified as groups.

この処理では、図10の処理で1つのグループ要素リストに含まれる特徴場面の点滅の範囲を求める。そして、図11の処理で点滅区間の周波数の計算を行う。   In this process, the blinking range of the feature scene included in one group element list in the process of FIG. 10 is obtained. Then, the frequency of the blinking section is calculated in the process of FIG.

はじめに、図10のブロックの機能について以下に説明する。この処理では、最初に変数の初期化を行う(1001)。次にあらかじめ設定しておいた1秒間の検出回数のしきい値nとグループ要素リストの要素数を比較し、nが要素数より大きいか判定する(1002)。その結果、YESの場合、このグループには点滅区間がないので処理を終了する。又、NOの場合、1003から1007の処理により、点滅区間の範囲を検索をして行く。次に、NOの場合の処理について説明する。最初に特徴場面Ci+nが要素のリストに存在するか判定する(1003)。その結果、YESの場合、点滅区間の検索が終了したので、次に図11の処理を開始する。NOの場合、点滅区間の判定を続行する。次に点滅区間の判定の処理について説明する。はじめにグループ要素リスト902より特徴場面CiからCi+nの検出時刻を取り出す(1004)。次に、CiからCi+ nの検出間隔が1秒以内となるか判定する(1005)。その結果、YESならCiからCi+nの点滅画像区間フラグをONにする(1006)。又、NOの場合なら何もしない。そして最後に要素のカウンタiをインクリメントする(1007)。このようにして、点滅区間の洗い出しを行う。   First, the function of the block in FIG. 10 will be described below. In this process, first, variables are initialized (1001). Next, a preset threshold value n for the number of detections per second is compared with the number of elements in the group element list to determine whether n is larger than the number of elements (1002). As a result, in the case of YES, the process ends because there is no blinking section in this group. In the case of NO, the range of the blinking section is searched by processing from 1003 to 1007. Next, processing in the case of NO will be described. First, it is determined whether the feature scene Ci + n exists in the list of elements (1003). As a result, in the case of YES, since the search for the blinking section is completed, the processing of FIG. 11 is started next. In the case of NO, the determination of the blinking section is continued. Next, the blinking zone determination process will be described. First, the detection time of Ci + n is extracted from the feature scene Ci from the group element list 902 (1004). Next, it is determined whether the detection interval from Ci to Ci + n is within one second (1005). If the result is YES, the blinking image section flag from Ci to Ci + n is turned ON (1006). If NO, do nothing. Finally, the element counter i is incremented (1007). In this way, the blinking section is identified.

次に図11の機能について説明を行う。はじめにグループ要素リストのカウンタを初期化する(1008)。次に特徴場面Ciの点滅区間フラグがONか判定する(1009)。この結果YESの場合、点滅区間の先頭が見つかったので、次に点滅区間の後尾の検索と点滅区間の周波数の計算を行う(1010〜1016)。この処理では、はじめに点滅区間の終了位置の検索開始位置を変数jに設定する(1010)。そして、グループ要素リストの中にCjが存在しない(1011)か、又は、Cjの点滅区間フラグがOFFになる(1012)までjをインクリメント(1013)して、点滅区間の後尾Cj-1を求める。そして、その結果を元に1秒間の点滅回数を計算する(1014)。そして、点滅回数をCiからCj-1の付加情報に設定する(1015)。これによりCjまでの点滅回数の検索が終了したので、iに次の点滅区間の先頭の開始位置jを代入する(1016)。これにより点滅区間の周波数を計算する処理が行われる。   Next, the function of FIG. 11 will be described. First, the group element list counter is initialized (1008). Next, it is determined whether the blinking section flag of the feature scene Ci is ON (1009). If the result is YES, since the head of the blinking section has been found, the tail of the blinking section is searched and the frequency of the blinking section is calculated (1010 to 1016). In this process, first, the search start position of the end position of the blinking section is set to the variable j (1010). Then, Cj does not exist in the group element list (1011), or j is incremented (1013) until the blinking section flag of Cj is turned off (1012), and the tail Cj-1 of the blinking section is obtained. . Based on the result, the number of blinks per second is calculated (1014). Then, the number of blinks is set as additional information from Ci to Cj-1 (1015). Thus, since the search for the number of blinks up to Cj is completed, the start position j at the beginning of the next blinking section is substituted for i (1016). Thereby, the process which calculates the frequency of a blink area is performed.

1009の判定がNOの場合 グループ要素リストのカウンタiをインクリメント(1017)する。そして、最後にCiが要素リストに存在しないか判定する。この結果YESなら208の処理は全て終了したことになる。又、NOなら1009の処理に戻り、次の点滅区間の開始地点を検索する。このようにして208の処理は行われる。   When the determination of 1009 is NO, the group element list counter i is incremented (1017). Finally, it is determined whether Ci does not exist in the element list. If the result is YES, all processing 208 has been completed. If NO, the process returns to 1009 to search for the start point of the next blinking section. In this way, the process 208 is performed.

最後に、上記207から208の処理結果を図1のディスプレイ101に図5のように一覧表示する(209)。次に、このシステムのユーザインタフェースについて説明する。   Finally, the processing results from 207 to 208 are displayed as a list on the display 101 of FIG. 1 as shown in FIG. 5 (209). Next, the user interface of this system will be described.

図3は、図2のプログラムを実行するシステムのユーザインタフェースの一例である。   FIG. 3 is an example of a user interface of a system that executes the program of FIG.

このユーザインタフェースは、図1のディスプレイ101に表示する。次にユーザインタフェースについて詳細に説明する。   This user interface is displayed on the display 101 of FIG. Next, the user interface will be described in detail.

301は、マウスポインタである。ユーザは、図1のマウス103または、キーボード104を使い、マウスポインタを操作し、ユーザインタフェースの任意の位置をポイントする。   301 is a mouse pointer. The user uses the mouse 103 or the keyboard 104 of FIG. 1 to operate the mouse pointer and point to an arbitrary position on the user interface.

302は、検出対象となる映像の表示領域である。   Reference numeral 302 denotes a display area of a video to be detected.

303は、検出操作開始ボタンである。マウスポインタによりこのボタンを押下することにより、図2のプログラムが実行される。   Reference numeral 303 denotes a detection operation start button. By pressing this button with the mouse pointer, the program of FIG. 2 is executed.

304は、終了ボタンである。マウスポインタによりこのボタンを押下することにより、図2のプログラムの検出処理が終了する。   Reference numeral 304 denotes an end button. When this button is pressed with the mouse pointer, the program detection process in FIG. 2 ends.

305は、特徴場面一覧領域である。ここに、図2のプログラムにより検出した特徴場面を一覧表示する。検出処理中は、図4のように表示し、検出処理終了後は、図5のように表示する。   Reference numeral 305 denotes a feature scene list area. Here, a list of feature scenes detected by the program of FIG. 2 is displayed. During the detection process, it is displayed as shown in FIG. 4, and after the detection process is completed, it is displayed as shown in FIG.

306は、スクロールバーである。検出処理終了後に検出結果を表示する際に305の領域に検出結果が全て入らない場合、使用される。   Reference numeral 306 denotes a scroll bar. This is used when all the detection results do not enter the area 305 when displaying the detection results after the detection processing is completed.

ユーザインタフェースで使用するボタン、スクロールバーについては、既存の技術であればたり、ここでは詳細な説明は述べない。次に検出結果一覧方法について説明を行う。   The buttons and scroll bars used in the user interface are existing technologies, and will not be described in detail here. Next, the detection result list method will be described.

図4は、検出処理中の検出結果一覧方法の一例である。特徴場面が見つかると401の位置より、順に表示していく。   FIG. 4 is an example of a detection result list method during the detection process. When a characteristic scene is found, it is displayed in order from the position 401.

図5は、検出処理終了後の検出結果一覧方法の一例である。   FIG. 5 is an example of a detection result list method after the end of the detection process.

501は、グループアイコン表示領域である。図2のプログラムで、特徴場面の検出間隔により分類したグループの情報を表示する。   Reference numeral 501 denotes a group icon display area. In the program of FIG. 2, the group information classified by the feature scene detection interval is displayed.

502は、アイコン表示領域である。図2のプログラムにより分類したグループに属する特徴場面を表示する領域である。   Reference numeral 502 denotes an icon display area. This is an area for displaying feature scenes belonging to groups classified by the program of FIG.

503は、グループとグループの境界線である。   Reference numeral 503 denotes a group-to-group boundary line.

504は、グループアイコン表示領域とアイコン表示領域の境界線である。次に、アイコンとグループアイコンについて説明を行う。   Reference numeral 504 denotes a boundary line between the group icon display area and the icon display area. Next, icons and group icons will be described.

図6は、アイコンの一例である。アイコンには、特徴場面とその特徴量、検出時間を表示する。   FIG. 6 is an example of an icon. The icon displays the feature scene, its feature amount, and detection time.

601は、特徴場面となるデジタル静止画像を表示する。602は、特徴場面の検出時間を表示する。603は、特徴場面の特徴量を表示する領域である。1マスが1つの特徴量をあらわしており、その特徴量で検出された場合、ここの背景が特定の色で塗りつぶされ、更に画像の特徴量を数値で表示する。これにより一目でこの特徴場面の検出要因が分かる。604は、図2のプログラムの208の処理により分類された場合の一秒間の検出回数を周波数で表示する領域である。605は、図2のプログラムの203-(4)の検出要因で検出した場合に、同一の画像が続くことを画像の厚みで表している606は、アイコンの背景である。604が表示されている場合、アイコンの背景を赤などの色で塗りつぶす。これにより一目でこの特徴場面が人体に有害であることを表している。   Reference numeral 601 displays a digital still image serving as a feature scene. Reference numeral 602 displays a feature scene detection time. Reference numeral 603 denotes an area for displaying the feature amount of the feature scene. When one square represents one feature amount, and the feature amount is detected, the background here is filled with a specific color, and the feature amount of the image is displayed numerically. Thereby, the detection factor of this characteristic scene can be understood at a glance. Reference numeral 604 denotes an area in which the number of detections per second when classified by the process 208 of the program in FIG. 2 is displayed as a frequency. Reference numeral 605 denotes an image thickness indicating that the same image continues when it is detected by the detection factor 203- (4) in the program of FIG. 2. Reference numeral 606 denotes an icon background. When 604 is displayed, the background of the icon is painted with a color such as red. This indicates that this characteristic scene is harmful to the human body at a glance.

図7は、特徴場面の検出間隔により分類したグループの情報を表すグループアイコンである。701は、グループに属するアイコンの先頭アイコンの特徴場面である。702は、グループの通し番号を表す。703は、グループに属するアイコンの先頭アイコンの検出時刻である。704は、グループに属するアイコンの最後尾アイコンの検出時刻である。705は、グループに属するアイコン数である。706は、703、704、705の情報より求めたグループ内の1秒あたりの平均検出回数である。707は、グループアイコンの背景である。グループに属するアイコンの中に208の処理により分類された特徴場面を含む場合、この領域を赤などの色で塗りつぶす。   FIG. 7 is a group icon representing group information classified by the feature scene detection interval. Reference numeral 701 denotes a feature scene of the head icon of an icon belonging to a group. Reference numeral 702 denotes a group serial number. Reference numeral 703 denotes the detection time of the first icon of the icons belonging to the group. Reference numeral 704 denotes the detection time of the last icon of the icons belonging to the group. Reference numeral 705 denotes the number of icons belonging to the group. Reference numeral 706 denotes the average number of detections per second in the group obtained from the information of 703, 704, and 705. Reference numeral 707 denotes a group icon background. If the icon belonging to the group includes a feature scene classified by the processing of 208, this area is filled with a color such as red.

以上の処理方法、表示方法により特徴場面の検出を行う。   The feature scene is detected by the above processing method and display method.

本発明が適用される一実施例におけるシステム構成のブロック概略図である。It is a block schematic diagram of a system configuration in one example to which the present invention is applied. 本発明が適用される一実施例における特徴場面検出プログラムのフローチャート図である。It is a flowchart figure of the characteristic scene detection program in one Example with which this invention is applied. 本発明が適用される一実施例におけるシステムのユーザインタフェースを表す図である。It is a figure showing the user interface of the system in one Example with which this invention is applied. 本発明が適用される一実施例における検出処理中の検出結果一覧方法を表す図である。It is a figure showing the detection result list method in the detection process in one Example with which this invention is applied. 本発明が適用される一実施例における検出処理終了後の検出結果一覧方法を表す図である。It is a figure showing the detection result list method after completion | finish of the detection process in one Example with which this invention is applied. 本発明が適用される一実施例における特徴場面とその特徴量を表示するアイコンを説明する図である。It is a figure explaining the icon which displays the feature scene and its feature-value in one Example to which this invention is applied. 本発明が適用される一実施例における特徴場面の検出間隔により分類したグループの情報を表すグループアイコンを説明する図である。It is a figure explaining the group icon showing the information of the group classified according to the detection interval of the feature scene in one example to which the present invention is applied. 本発明が適用される一実施例における特徴場面の検出間隔でグループに分類するプログラムのフローチャート図である。It is a flowchart figure of the program classified into a group by the detection interval of the feature scene in one Example to which the present invention is applied. 本発明が適用される一実施例におけるグループリストの構成図である。It is a block diagram of the group list | wrist in one Example with which this invention is applied. 本発明が適用される一実施例における特徴場面の1秒間の検出回数によりグループに分類するプログラムのフローチャート図である。It is a flowchart figure of the program classified into a group by the frequency | count of detection of the characteristic scene in 1 second in one Example to which this invention is applied. 図10のフローチャートに続く、特徴場面の1秒間の検出回数によりグループに分類するプログラムのフローチャート図である。It is a flowchart figure of the program classified into a group by the frequency | count of detection of the characteristic scene for 1 second following the flowchart of FIG.

符号の説明Explanation of symbols

201:フレーム画像fiの取り込みする処理、202:fiの特徴量を計算する処理、203:fiが特徴場面であるか判定する処理、204:fiをリストに追加する処理、205:fiを画面に表示する処理、206:ユーザ操作又は、映像再生装置により処理を停止する処理、207:リストに登録した特徴場面をその検出間隔で分類する処理、208:リストに登録した特徴場面を1秒間の検出回数で分類する処理、209:分類結果を表示する処理
201: Processing for capturing a frame image fi, 202: Processing for calculating a feature quantity of fi, 203: Processing for determining whether fi is a feature scene, 204: Processing for adding fi to the list, 205: Fi on the screen Processing to display, 206: Processing to stop processing by a user operation or video playback device, 207: Processing to classify feature scenes registered in the list at the detection interval, 208: Detection of feature scenes registered in the list for 1 second Processing to classify by the number of times, 209: Processing to display the classification result

Claims (3)

ある映像の特徴的な場面を検出する特徴場面検出システムにおいて、
連続する複数の静止画像からなる映像から静止画像を取り出す手段と、
該取り出された静止画像に対し、映像の点滅場面に関する特徴量を計算する手段と、
該計算された特徴量をもとに、前記静止画像とその前後の静止画像との特徴量の差を計算する手段と、
該計算された前記静止画像とその前後の静止画像との特徴量の差に従って、点滅画面となる静止画像を検出する手段と、
該検出された静止画像を、検出時間及び特徴量とともに、検出された順番にリストに登録する手段と、
前記静止画像を検出した後に、前記リストの始めに登録された第1の静止画像を取り出す手段と、
前記第1の静止画像の後に登録された第2の静止画像を取り出す手段と、
前記第1の静止画像の検出時間と前記第2の静止画像の検出時間の間隔が所定の値より小さい場合は、前記第1の静止画像と前記第2の静止画像を第1のグループに追加する手段と、
前記第1の静止画像の検出時間と前記第2の静止画像の検出時間の間隔が所定の値と等しいかそれより大きい場合は、前記第1の静止画像と前記第2の静止画像を第2のグループに追加する手段と、
前記第1のグループに属する静止画像を、該静止画像が検出された特徴量とともに、第1の領域に表示する手段と、
前記第2のグループに属する静止画像を、該静止画像が検出された特徴量とともに、第2の領域に表示する手段とを備えることを特徴とする特徴場面検出システム。
In a feature scene detection system that detects a characteristic scene of a video,
Means for extracting a still image from a video composed of a plurality of continuous still images;
Means for calculating a feature amount related to a blinking scene of the video with respect to the extracted still image;
Means for calculating a difference in feature amount between the still image and the still images before and after the still image based on the calculated feature amount;
Means for detecting a still image that becomes a blinking screen according to a difference in feature amount between the calculated still image and the still images before and after the still image;
Means for registering the detected still image in a list in the order of detection together with a detection time and a feature amount;
Means for retrieving a first still image registered at the beginning of the list after detecting the still image;
Means for retrieving a second still image registered after the first still image;
If the interval between the detection time of the first still image and the detection time of the second still image is smaller than a predetermined value, the first still image and the second still image are added to the first group. Means to
If the interval between the detection time of the first still image and the detection time of the second still image is equal to or greater than a predetermined value, the first still image and the second still image are Means to add to the group,
Means for displaying a still image belonging to the first group in a first area together with a feature amount in which the still image is detected;
A feature scene detection system comprising: means for displaying a still image belonging to the second group in a second region together with a feature amount in which the still image is detected.
前記静止画像の特徴量は、該静止画像の輝度を含むことを特徴とする請求項1記載の特徴場面検出システム。   The feature scene detection system according to claim 1, wherein the feature amount of the still image includes luminance of the still image. 前記静止画像の特徴量は、該静止画像に含まれる赤成分の割合を含むことを特徴とする請求項1記載の特徴場面検出システム。
The feature scene detection system according to claim 1, wherein the feature amount of the still image includes a ratio of a red component included in the still image.
JP2004290886A 2004-10-04 2004-10-04 Feature scene detection system Expired - Fee Related JP3685208B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004290886A JP3685208B2 (en) 2004-10-04 2004-10-04 Feature scene detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004290886A JP3685208B2 (en) 2004-10-04 2004-10-04 Feature scene detection system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP23679298A Division JP3622527B2 (en) 1998-08-24 1998-08-24 Video feature scene detection method and apparatus

Publications (2)

Publication Number Publication Date
JP2005124188A JP2005124188A (en) 2005-05-12
JP3685208B2 true JP3685208B2 (en) 2005-08-17

Family

ID=34616994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004290886A Expired - Fee Related JP3685208B2 (en) 2004-10-04 2004-10-04 Feature scene detection system

Country Status (1)

Country Link
JP (1) JP3685208B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4749139B2 (en) * 2005-12-05 2011-08-17 株式会社日立製作所 Dangerous video detection method, video difference detection method and apparatus

Also Published As

Publication number Publication date
JP2005124188A (en) 2005-05-12

Similar Documents

Publication Publication Date Title
US7096427B2 (en) Method and system for selecting a position in an image sequence
EP0729117B1 (en) Method and apparatus for detecting a point of change in moving images
US7184593B2 (en) Method and apparatus for detecting local features of video, and recording medium storing the method
JP4613867B2 (en) Content processing apparatus, content processing method, and computer program
JP2008048279A (en) Video-reproducing device, method, and program
US20060242667A1 (en) Ad monitoring and indication
US20080136937A1 (en) Image processing apparatus, image processing method, and program
JP2011504034A (en) How to determine the starting point of a semantic unit in an audiovisual signal
KR101440168B1 (en) Method for creating a new summary of an audiovisual document that already includes a summary and reports and a receiver that can implement said method
US20140208208A1 (en) Video navigation through object location
JPH0965287A (en) Method and device for detecting characteristic scene for dynamic image
US8059875B2 (en) Information processor, method of detecting factor influencing health, and program
US9395887B2 (en) Image processing apparatus and method for removing noise from a frame group
JP3685208B2 (en) Feature scene detection system
US9721615B2 (en) Non-linear video review buffer navigation
JPH0974575A (en) Method for displaying feature scene of moving image and device therefor
JP3906854B2 (en) Method and apparatus for detecting feature scene of moving image
JP4906615B2 (en) Pitch shot detection system, reference pitch shot image selection device, and reference pitch shot image selection program
EP1069765B1 (en) Feature scene detecting method and apparatus, and storage medium containing processing program therefor
JP4007406B2 (en) Feature scene detection method for moving images
JP5332593B2 (en) Video range extraction device, video range extraction program, and video storage device
JPH11252501A (en) Device for detecting special effect of moving image
JP2006129050A (en) Device, method, and program for regenerating or recording animation
JP2005339202A (en) Image display device, image display method, and image display program
JP2005143143A (en) Moving image editing apparatus

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050523

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080610

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090610

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090610

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100610

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100610

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110610

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110610

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120610

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120610

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130610

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees