JP3685208B2 - Feature scene detection system - Google Patents
Feature scene detection system Download PDFInfo
- Publication number
- JP3685208B2 JP3685208B2 JP2004290886A JP2004290886A JP3685208B2 JP 3685208 B2 JP3685208 B2 JP 3685208B2 JP 2004290886 A JP2004290886 A JP 2004290886A JP 2004290886 A JP2004290886 A JP 2004290886A JP 3685208 B2 JP3685208 B2 JP 3685208B2
- Authority
- JP
- Japan
- Prior art keywords
- still image
- feature
- group
- scene
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、映像の中から特徴場面を検出し表示を行う特徴場面検出システムに関する。 The present invention relates to a feature scene detection system that detects and displays a feature scene from an image.
テレビの技術や演出手法が急速に進歩する一方で、アニメーション番組等に見られる点滅する光や、急激な場面変換などの映像の特殊効果が一部の視聴者の健康を損ねる事態が起きている。 While TV technology and production techniques are rapidly advancing, special effects of video such as flashing light seen in animation programs and sudden changes in scenes are damaging to the health of some viewers. .
このような特殊効果を検出する場合に、映像の1コマ1コマをコマ送りしながら人間が確認する場合、秒1コマの速度で確認できたとしても2時間の映画で48時間かかる計算になり、放送する全ての映像に対して調査することは物理的に不可能となる。 When such a special effect is detected, if a human confirms it while moving forward one frame at a time, even if it can be confirmed at the speed of one frame per second, it takes 48 hours for a two-hour movie. It is physically impossible to investigate all the broadcast videos.
そこで、従来の方式および装置では、点滅する光の場面に関しては、その1コマ1コマを短いカットとみなすことができることから、特許文献1に記載のようなサブリミナル画像の検出装置を代用し検出をおこなっていた。
Therefore, in the conventional method and apparatus, regarding the scene of the flashing light, each frame can be regarded as a short cut. Therefore, the subliminal image detection device described in
上記従来の技術では、視聴者の健康を損ねる可能性のある映像を抽出するための基準値をもとに映像中の基準を超えている部分を検出することは可能であった。しかし、抽出された場面の具体的な特徴量がユーザにはわからない為、基準値に対してどの程度超えるのか比較を行えないという問題があった。更に、点滅場面では、大量の特徴場面となる静止画像を検出する為、一覧表示を行ってはいるが点滅場面の範囲が見にくいという問題があった。 With the above-described conventional technology, it is possible to detect a portion exceeding the reference in the video based on the reference value for extracting the video that may impair the health of the viewer. However, since the user does not know the specific feature amount of the extracted scene, there is a problem that it is impossible to compare how much it exceeds the reference value. Further, in the blinking scene, there is a problem that it is difficult to see the range of the blinking scene although the list display is performed in order to detect a large number of still images as characteristic scenes.
本発明の目的は、特徴場面の特徴量を表示することにより、このシステムのユーザが基準値との比較を容易に行えるようにすることにある。更に、特徴場面を特殊効果の検出要因、検出時刻により分類し一覧表示し特徴場面の内容把握を容易に行えるようにすることにある。 An object of the present invention is to display a feature amount of a feature scene so that a user of this system can easily compare with a reference value. Furthermore, the feature scenes are classified by special effect detection factors and detection times and displayed in a list so that the contents of the feature scenes can be easily grasped.
上記目的を達成するために本発明は、連続する複数の静止画像からなる映像から静止画像を取り出し、その静止画像に対し、映像の点滅場面に関する特徴量と前記静止画像とその前後の静止画像との特徴量の差を計算する。次に、計算された特徴量の差に従って、点滅画面となる静止画像を検出し、検出時間及び特徴量とともに検出された順番にリストに登録する。そして、前記リストの始めに登録された第1の静止画像と、前記第1の静止画像の後に登録された第2の静止画像を取り出す。第1の静止画像の検出時間と第2の静止画像の検出時間の間隔が所定の値より小さい場合は、第1の静止画像と第2の静止画像を第1のグループに追加し、第1の静止画像の検出時間と第2の静止画像の検出時間の間隔が所定の値と等しいかそれより大きい場合は、第1の静止画像と第2の静止画像を第2のグループに追加する。そして、第1のグループに属する静止画像を、その静止画像が検出された特徴量とともに第1の領域に表示するとともに、第2のグループに属する静止画像を、その静止画像が検出された特徴量とともに第2の領域に表示する構成を採用した。 In order to achieve the above object, the present invention extracts a still image from a video composed of a plurality of continuous still images, and for the still image, a feature amount relating to a blinking scene of the video, the still image, and the still images before and after the still image. The difference between feature quantities is calculated. Next, a still image that becomes a blinking screen is detected according to the difference between the calculated feature amounts, and registered in the list in the order of detection together with the detection time and the feature amount. Then, the first still image registered at the beginning of the list and the second still image registered after the first still image are extracted. When the interval between the detection time of the first still image and the detection time of the second still image is smaller than a predetermined value, the first still image and the second still image are added to the first group, and the first If the interval between the still image detection time and the second still image detection time is equal to or greater than a predetermined value, the first still image and the second still image are added to the second group. The still image belonging to the first group is displayed in the first area together with the feature amount from which the still image is detected, and the still image belonging to the second group is displayed as the feature amount from which the still image is detected. And the structure displayed on a 2nd area | region was employ | adopted.
本発明によれば、映像の中から特徴場面を検出し、その検出結果を一覧表示することにより、検出した特徴場面の内容を容易に把握することができる。 According to the present invention, it is possible to easily grasp the contents of the detected characteristic scenes by detecting the characteristic scenes from the video and displaying the detection results as a list.
以下、本発明の実施例を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail.
図1は、本発明を実現する為のシステム構成の概略ブロック図の一例である。101は、CRT等のディスプレイ装置であり、コンピュータ110の出力結果を表示する。コンピュータ110に対する命令は、キーボード104やマウス103等の入力装置を使って行うことができる。109の映像再生装置は、地上波放送や衛星放送、ケーブルテレビなどの放送番組を受信する為のチューナ装置、もしくは光ディスクやビデオテープ等に記憶された動画像を再生する為の装置である。コンピュータ110に対する命令は、この映像再生装置より行う場合もある。動画像再生装置から出力される映像信号は、逐次、キャプチャーボード等の映像入力装置108により映像の各コマをデジタル静止画像に変換し、コンピュータ110に送られる。コンピュータの内部では、デジタル静止画像は、インタフェース107を介してメモリ105に入りメモリ105に格納されたプログラムに従って、CPU106によって処理される。CPUの処理内容に応じて、デジタル静止画像、CPUの処理結果の各種情報は、補助記憶装置102に記憶することができる。次にCPUの処理内容について詳細に説明を行う。
FIG. 1 is an example of a schematic block diagram of a system configuration for realizing the present invention. Reference numeral 101 denotes a display device such as a CRT, which displays an output result of the computer 110. Commands to the computer 110 can be performed using an input device such as the
図2は、図1で示したシステム上で実行されるプログラムの特徴場面検出プログラムのフローチャートの一例である。 FIG. 2 is an example of a flowchart of a program feature scene detection program executed on the system shown in FIG.
プログラムは図1のメモリ105に格納され、以下の条件により実行する。 The program is stored in the memory 105 of FIG. 1 and is executed under the following conditions.
(1) ユーザが図1のマウス103又は、キーボード104により検出処理開始を指示する。
(1) The user instructs the start of detection processing using the
(2) 図1の映像再生装置109より検出処理開始が指示される。 (2) The start of detection processing is instructed from the video reproduction device 109 in FIG.
プログラムが実行されると、図1のインタフェース107よりデジタル静止画像fiを取り込む(201)。次に、デジタル静止画像fiに対して、以下の特徴量を計算し、図1のメモリ105に記憶する(202)。
When the program is executed, a digital still image fi is taken in from the
202-(1):デジタル静止画像fiの平均輝度を求める。この結果は、 前記静止画像とその直前の静止画像の輝度差の割合による特徴量の検出に使用する。 202- (1): The average luminance of the digital still image fi is obtained. This result is used to detect a feature value based on the ratio of the luminance difference between the still image and the immediately preceding still image.
202-(2):デジタル静止画像fiを格子状のブロックに分割し、このブロックごとに平均輝度を求める。この結果は、前記静止画像とその直前の静止画像の平均輝度差が小さいが前記の静止画像間で同一ドットで位置で比較した場合に輝度差が大きい静止画像の輝度差の割合による特徴量の検出に使用する。 202- (2): The digital still image fi is divided into grid blocks, and the average luminance is obtained for each block. As a result, the average luminance difference between the still image and the immediately preceding still image is small, but when the same dot is compared at the same dot position between the still images, the feature amount due to the ratio of the luminance difference between the still images is large. Used for detection.
202-(3):デジタル静止画像fiの色分布情報を求める。この結果は、赤成分のドットの面積率の計算に使用する。 202- (3): Obtain color distribution information of a digital still image fi. This result is used to calculate the area ratio of the red component dots.
202-(4):デジタル静止画像fiを格子状のブロックに分割し、このブロックごとにRGB値の平均値を求める。この結果は、短いカットと映像の論理的な変化点の検出に使用する。 202- (4): The digital still image fi is divided into grid-like blocks, and an average value of RGB values is obtained for each block. This result is used to detect short cuts and logical changes in the video.
202で計算した特徴量に基づき以下のいずれかにデジタル静止画像fiが該当するか求める(203)。 Based on the feature amount calculated in 202, it is determined whether the digital still image fi corresponds to any of the following (203).
203-(1):202-(1)で求めたデジタル静止画像fiとfi-1の特徴量の差分を求め、その値があらかじめ設定しておいたしきい値を超えた場合。これに該当する場合、前記静止画像とその直前の静止画像の輝度差の割合による特徴場面となる。 203- (1): When the difference between the feature values of the digital still image fi and fi-1 obtained in 202- (1) is found, and the value exceeds a preset threshold. When this is the case, a feature scene is created by the ratio of the luminance difference between the still image and the immediately preceding still image.
203-(2):202-(2)で求めた特徴量に基づき、以下の条件を満たす場合。これに該当する場合、前記静止画像とその直前の静止画像の平均輝度差が小さいが前記の静止画像間で同一ドットで位置で比較した場合に輝度差が大きい静止画像の輝度差の割合による特徴場面となる。 203- (2): When the following conditions are satisfied based on the feature value obtained in 202- (2). When this is the case, the feature is due to the ratio of the difference in the luminance of the still image where the average luminance difference between the still image and the previous still image is small but the luminance difference is large when compared at the same dot position between the still images. It becomes a scene.
・デジタル静止画像fiとfi-1の特徴量の差分を求め、その値があらかじめ設定しておいたしきい値を超えた場合。 -When the difference between the features of digital still images fi and fi-1 is obtained and the value exceeds the preset threshold.
・上記しきい値を超えたブロックの数があらかじめ設定しておいたしきい値を超えた場合。 ・ When the number of blocks exceeding the above threshold exceeds a preset threshold.
203-(3):202-(4)で求めた特徴量からデジタル静止画像fiとfi-1、fi-1とfi-2、fiとfi-2の各々の組み合わせでの特徴量の差分を求め、その値があらかじめ設定しておいたしきい値をあるパターンで超える場合。これに該当する場合、映像の論理的な変化点による特徴場面となる。 203- (3): The difference of the feature value in each combination of digital still image fi and fi-1, fi-1 and fi-2, and fi and fi-2 from the feature value obtained in 202- (4) When it is calculated and the value exceeds the preset threshold value in a certain pattern. When this is the case, a feature scene is created by a logical change point of the video.
203-(4):202-(4)で求めた特徴量に基づき、以下の条件をみたす場合。これに該当する場合、短いカットによる特徴場面となる。 203- (4): When the following conditions are satisfied based on the feature value obtained in 202- (4). When this is the case, the feature scene is a short cut.
(a)デジタル静止画像fiとfi-1の特徴量より差分を求め、その値があらかじめ設定しておいたしきい値を超えた場合。 (a) When a difference is obtained from the feature values of digital still images fi and fi-1, and the value exceeds a preset threshold value.
(b)上記(a)の条件を満たす静止画像を図1のメモリ105に記憶しておき、前記デジタル静止画像Sjとその前に検出したデジタル静止画像Sj-1の時間的な長さを求め、その長さがあらかじめ設定しておいたしきい値より短い場合。 (b) A still image satisfying the above condition (a) is stored in the memory 105 of FIG. 1, and the time length of the digital still image Sj and the digital still image Sj-1 detected before is obtained. , If its length is shorter than the preset threshold.
上記203の判定の結果、デジタル静止画像fiを特徴場面と判定した場合、 fiとその特徴量をリストに追加する。このリストは、特徴場面を検出した順序で管理している。(204)。更に、デジタル静止画像fiを図1のディスプレイ101に図4のように一覧表示する。(205)
以上のように201から205の処理を行うことにより、デジタル静止画像fiに対する処理が終了する。続いて、次のデジタル静止画像fi+1の処理を行うかの判定を行うが、この時、以下のいずれかの条件と一致した場合、検出処理は終了となり、207の処理を行う。
If the result of the determination in 203 is that the digital still image fi is determined to be a feature scene, the fi and its feature value are added to the list. This list is managed in the order in which feature scenes are detected. (204). Furthermore, a list of digital still images fi is displayed on the display 101 of FIG. 1 as shown in FIG. (205)
As described above, by performing the processing from 201 to 205, the processing for the digital still image fi is completed. Subsequently, it is determined whether or not to process the next digital still
(1)ユーザが図1のマウス103又は、キーボード104により検出処理終了を指示する。
(1) The user instructs the end of the detection process with the
(2)図1の映像再生装置109より検出処理終了が指示される。 (2) The end of the detection process is instructed from the video reproduction device 109 of FIG.
上記206の処理で、検出処理が中止となった場合、リストに登録しておいた特徴場面の検出時間の間隔があらかじめ設定しておいたしきい値以下の部分でまとめ、グループに分類する(207)。207の詳細な処理については図8を用いて説明を行う。
If the detection process is canceled in the
ステップ207の処理では、最初に変数の初期化を行う(801)。次に特徴場面Ciがリストの最後の要素であるか判定を行う(802)。判定結果がYESの場合、グループの先頭特徴場面GFjからCiを最後のグループGjとしグループのリストに追加し処理を終了する(810)。又、判定結果がNOの場合、803から809の処理をループのイタレーション(一回分のループの処理)として処理する。この部分では、最初にリストより前記特徴場面Ciとその次の特徴場面Ci+1の検出時刻を取り出す(803と804)。次にCiとCi+1の検出時刻の間隔がしきい値以上か判定する(805)。判定結果がYESの場合、グループの追加処理(806〜808)を行う。この処理では、グループの先頭特徴場面GFjからCiをグループGjとしグループリストに追加(806)し、次のグループの先頭をGFj+1に設定し(807)、グループカウンタjをインクリメントする(808)。NOの場合、グループの追加は何もおこなわない。そして、最後にリストのカウンタであるiをインクリメント(809)し、802の処理へ戻る。このようにして、207の処理は行われる。 In the process of step 207, first, variables are initialized (801). Next, it is determined whether the feature scene Ci is the last element in the list (802). If the determination result is YES, Ci is set as the last group Gj from the first feature scene GFj of the group, and the process ends (810). If the determination result is NO, processing from 803 to 809 is processed as loop iteration (one loop processing). In this part, first, the detection times of the feature scene Ci and the next feature scene Ci + 1 are extracted from the list (803 and 804). Next, it is determined whether the interval between the detection times of Ci and Ci + 1 is equal to or greater than a threshold value (805). If the determination result is YES, group addition processing (806 to 808) is performed. In this process, Ci is added as a group Gj to the group list from the head feature scene GFj of the group (806), the head of the next group is set to GFj + 1 (807), and the group counter j is incremented (808). . If NO, do not add a group. Finally, i which is a counter of the list is incremented (809), and the processing returns to step 802. In this way, the process 207 is performed.
この処理の結果、図9のようなグループリストが作成される。901は、グループのリストであるグループリストであり、902は1つのグループの要素のリストであるグループ要素リストである。又、903はグループの要素であり、グループリスト901からグループ要素リスト902を指し示す構造になっている。そして、グループ要素リスト902により特徴場面の情報(静止画像、特徴量、時間、その他付加情報)が含まれる要素(904)を管理する。
As a result of this processing, a group list as shown in FIG. 9 is created.
次に上記207の処理で作成したグループリストに含まれる特徴場面を1秒間の検出回数があらかじめ設定しておいたしきい値以上の部分でまとめ、更にグループに分類する(208)。この処理により、特徴場面の点滅している区間を検索し一覧表示時に点滅区間が容易に分かるようになる。208の処理の詳細について、図10、図11を用いて説明する。この図の処理は、1つのグループ要素リスト902に対する処理であり、実際には、グループの回数分実行される。
Next, the feature scenes included in the group list created in the above process 207 are grouped into portions where the number of detections per second is equal to or greater than a preset threshold value, and further classified into groups (208). By this process, the blinking section of the feature scene is searched, and the blinking section can be easily understood when the list is displayed. Details of the
但し、207と208の処理は、片方のみを行うことも可能である。従って、この場合208の処理は前記のリストに対して処理を行うことができ、更に点滅区間とそれ以外の部分をそれぞれグループとして分類することも可能である。
However, only one of the
この処理では、図10の処理で1つのグループ要素リストに含まれる特徴場面の点滅の範囲を求める。そして、図11の処理で点滅区間の周波数の計算を行う。 In this process, the blinking range of the feature scene included in one group element list in the process of FIG. 10 is obtained. Then, the frequency of the blinking section is calculated in the process of FIG.
はじめに、図10のブロックの機能について以下に説明する。この処理では、最初に変数の初期化を行う(1001)。次にあらかじめ設定しておいた1秒間の検出回数のしきい値nとグループ要素リストの要素数を比較し、nが要素数より大きいか判定する(1002)。その結果、YESの場合、このグループには点滅区間がないので処理を終了する。又、NOの場合、1003から1007の処理により、点滅区間の範囲を検索をして行く。次に、NOの場合の処理について説明する。最初に特徴場面Ci+nが要素のリストに存在するか判定する(1003)。その結果、YESの場合、点滅区間の検索が終了したので、次に図11の処理を開始する。NOの場合、点滅区間の判定を続行する。次に点滅区間の判定の処理について説明する。はじめにグループ要素リスト902より特徴場面CiからCi+nの検出時刻を取り出す(1004)。次に、CiからCi+ nの検出間隔が1秒以内となるか判定する(1005)。その結果、YESならCiからCi+nの点滅画像区間フラグをONにする(1006)。又、NOの場合なら何もしない。そして最後に要素のカウンタiをインクリメントする(1007)。このようにして、点滅区間の洗い出しを行う。 First, the function of the block in FIG. 10 will be described below. In this process, first, variables are initialized (1001). Next, a preset threshold value n for the number of detections per second is compared with the number of elements in the group element list to determine whether n is larger than the number of elements (1002). As a result, in the case of YES, the process ends because there is no blinking section in this group. In the case of NO, the range of the blinking section is searched by processing from 1003 to 1007. Next, processing in the case of NO will be described. First, it is determined whether the feature scene Ci + n exists in the list of elements (1003). As a result, in the case of YES, since the search for the blinking section is completed, the processing of FIG. 11 is started next. In the case of NO, the determination of the blinking section is continued. Next, the blinking zone determination process will be described. First, the detection time of Ci + n is extracted from the feature scene Ci from the group element list 902 (1004). Next, it is determined whether the detection interval from Ci to Ci + n is within one second (1005). If the result is YES, the blinking image section flag from Ci to Ci + n is turned ON (1006). If NO, do nothing. Finally, the element counter i is incremented (1007). In this way, the blinking section is identified.
次に図11の機能について説明を行う。はじめにグループ要素リストのカウンタを初期化する(1008)。次に特徴場面Ciの点滅区間フラグがONか判定する(1009)。この結果YESの場合、点滅区間の先頭が見つかったので、次に点滅区間の後尾の検索と点滅区間の周波数の計算を行う(1010〜1016)。この処理では、はじめに点滅区間の終了位置の検索開始位置を変数jに設定する(1010)。そして、グループ要素リストの中にCjが存在しない(1011)か、又は、Cjの点滅区間フラグがOFFになる(1012)までjをインクリメント(1013)して、点滅区間の後尾Cj-1を求める。そして、その結果を元に1秒間の点滅回数を計算する(1014)。そして、点滅回数をCiからCj-1の付加情報に設定する(1015)。これによりCjまでの点滅回数の検索が終了したので、iに次の点滅区間の先頭の開始位置jを代入する(1016)。これにより点滅区間の周波数を計算する処理が行われる。 Next, the function of FIG. 11 will be described. First, the group element list counter is initialized (1008). Next, it is determined whether the blinking section flag of the feature scene Ci is ON (1009). If the result is YES, since the head of the blinking section has been found, the tail of the blinking section is searched and the frequency of the blinking section is calculated (1010 to 1016). In this process, first, the search start position of the end position of the blinking section is set to the variable j (1010). Then, Cj does not exist in the group element list (1011), or j is incremented (1013) until the blinking section flag of Cj is turned off (1012), and the tail Cj-1 of the blinking section is obtained. . Based on the result, the number of blinks per second is calculated (1014). Then, the number of blinks is set as additional information from Ci to Cj-1 (1015). Thus, since the search for the number of blinks up to Cj is completed, the start position j at the beginning of the next blinking section is substituted for i (1016). Thereby, the process which calculates the frequency of a blink area is performed.
1009の判定がNOの場合 グループ要素リストのカウンタiをインクリメント(1017)する。そして、最後にCiが要素リストに存在しないか判定する。この結果YESなら208の処理は全て終了したことになる。又、NOなら1009の処理に戻り、次の点滅区間の開始地点を検索する。このようにして208の処理は行われる。
When the determination of 1009 is NO, the group element list counter i is incremented (1017). Finally, it is determined whether Ci does not exist in the element list. If the result is YES, all processing 208 has been completed. If NO, the process returns to 1009 to search for the start point of the next blinking section. In this way, the
最後に、上記207から208の処理結果を図1のディスプレイ101に図5のように一覧表示する(209)。次に、このシステムのユーザインタフェースについて説明する。 Finally, the processing results from 207 to 208 are displayed as a list on the display 101 of FIG. 1 as shown in FIG. 5 (209). Next, the user interface of this system will be described.
図3は、図2のプログラムを実行するシステムのユーザインタフェースの一例である。 FIG. 3 is an example of a user interface of a system that executes the program of FIG.
このユーザインタフェースは、図1のディスプレイ101に表示する。次にユーザインタフェースについて詳細に説明する。 This user interface is displayed on the display 101 of FIG. Next, the user interface will be described in detail.
301は、マウスポインタである。ユーザは、図1のマウス103または、キーボード104を使い、マウスポインタを操作し、ユーザインタフェースの任意の位置をポイントする。
301 is a mouse pointer. The user uses the
302は、検出対象となる映像の表示領域である。 Reference numeral 302 denotes a display area of a video to be detected.
303は、検出操作開始ボタンである。マウスポインタによりこのボタンを押下することにより、図2のプログラムが実行される。 Reference numeral 303 denotes a detection operation start button. By pressing this button with the mouse pointer, the program of FIG. 2 is executed.
304は、終了ボタンである。マウスポインタによりこのボタンを押下することにより、図2のプログラムの検出処理が終了する。 Reference numeral 304 denotes an end button. When this button is pressed with the mouse pointer, the program detection process in FIG. 2 ends.
305は、特徴場面一覧領域である。ここに、図2のプログラムにより検出した特徴場面を一覧表示する。検出処理中は、図4のように表示し、検出処理終了後は、図5のように表示する。
306は、スクロールバーである。検出処理終了後に検出結果を表示する際に305の領域に検出結果が全て入らない場合、使用される。
Reference numeral 306 denotes a scroll bar. This is used when all the detection results do not enter the
ユーザインタフェースで使用するボタン、スクロールバーについては、既存の技術であればたり、ここでは詳細な説明は述べない。次に検出結果一覧方法について説明を行う。 The buttons and scroll bars used in the user interface are existing technologies, and will not be described in detail here. Next, the detection result list method will be described.
図4は、検出処理中の検出結果一覧方法の一例である。特徴場面が見つかると401の位置より、順に表示していく。
FIG. 4 is an example of a detection result list method during the detection process. When a characteristic scene is found, it is displayed in order from the
図5は、検出処理終了後の検出結果一覧方法の一例である。 FIG. 5 is an example of a detection result list method after the end of the detection process.
501は、グループアイコン表示領域である。図2のプログラムで、特徴場面の検出間隔により分類したグループの情報を表示する。 Reference numeral 501 denotes a group icon display area. In the program of FIG. 2, the group information classified by the feature scene detection interval is displayed.
502は、アイコン表示領域である。図2のプログラムにより分類したグループに属する特徴場面を表示する領域である。
503は、グループとグループの境界線である。
504は、グループアイコン表示領域とアイコン表示領域の境界線である。次に、アイコンとグループアイコンについて説明を行う。
図6は、アイコンの一例である。アイコンには、特徴場面とその特徴量、検出時間を表示する。 FIG. 6 is an example of an icon. The icon displays the feature scene, its feature amount, and detection time.
601は、特徴場面となるデジタル静止画像を表示する。602は、特徴場面の検出時間を表示する。603は、特徴場面の特徴量を表示する領域である。1マスが1つの特徴量をあらわしており、その特徴量で検出された場合、ここの背景が特定の色で塗りつぶされ、更に画像の特徴量を数値で表示する。これにより一目でこの特徴場面の検出要因が分かる。604は、図2のプログラムの208の処理により分類された場合の一秒間の検出回数を周波数で表示する領域である。605は、図2のプログラムの203-(4)の検出要因で検出した場合に、同一の画像が続くことを画像の厚みで表している606は、アイコンの背景である。604が表示されている場合、アイコンの背景を赤などの色で塗りつぶす。これにより一目でこの特徴場面が人体に有害であることを表している。
図7は、特徴場面の検出間隔により分類したグループの情報を表すグループアイコンである。701は、グループに属するアイコンの先頭アイコンの特徴場面である。702は、グループの通し番号を表す。703は、グループに属するアイコンの先頭アイコンの検出時刻である。704は、グループに属するアイコンの最後尾アイコンの検出時刻である。705は、グループに属するアイコン数である。706は、703、704、705の情報より求めたグループ内の1秒あたりの平均検出回数である。707は、グループアイコンの背景である。グループに属するアイコンの中に208の処理により分類された特徴場面を含む場合、この領域を赤などの色で塗りつぶす。
FIG. 7 is a group icon representing group information classified by the feature scene detection interval. Reference numeral 701 denotes a feature scene of the head icon of an icon belonging to a group.
以上の処理方法、表示方法により特徴場面の検出を行う。 The feature scene is detected by the above processing method and display method.
201:フレーム画像fiの取り込みする処理、202:fiの特徴量を計算する処理、203:fiが特徴場面であるか判定する処理、204:fiをリストに追加する処理、205:fiを画面に表示する処理、206:ユーザ操作又は、映像再生装置により処理を停止する処理、207:リストに登録した特徴場面をその検出間隔で分類する処理、208:リストに登録した特徴場面を1秒間の検出回数で分類する処理、209:分類結果を表示する処理
201: Processing for capturing a frame image fi, 202: Processing for calculating a feature quantity of fi, 203: Processing for determining whether fi is a feature scene, 204: Processing for adding fi to the list, 205: Fi on the screen Processing to display, 206: Processing to stop processing by a user operation or video playback device, 207: Processing to classify feature scenes registered in the list at the detection interval, 208: Detection of feature scenes registered in the list for 1 second Processing to classify by the number of times, 209: Processing to display the classification result
Claims (3)
連続する複数の静止画像からなる映像から静止画像を取り出す手段と、
該取り出された静止画像に対し、映像の点滅場面に関する特徴量を計算する手段と、
該計算された特徴量をもとに、前記静止画像とその前後の静止画像との特徴量の差を計算する手段と、
該計算された前記静止画像とその前後の静止画像との特徴量の差に従って、点滅画面となる静止画像を検出する手段と、
該検出された静止画像を、検出時間及び特徴量とともに、検出された順番にリストに登録する手段と、
前記静止画像を検出した後に、前記リストの始めに登録された第1の静止画像を取り出す手段と、
前記第1の静止画像の後に登録された第2の静止画像を取り出す手段と、
前記第1の静止画像の検出時間と前記第2の静止画像の検出時間の間隔が所定の値より小さい場合は、前記第1の静止画像と前記第2の静止画像を第1のグループに追加する手段と、
前記第1の静止画像の検出時間と前記第2の静止画像の検出時間の間隔が所定の値と等しいかそれより大きい場合は、前記第1の静止画像と前記第2の静止画像を第2のグループに追加する手段と、
前記第1のグループに属する静止画像を、該静止画像が検出された特徴量とともに、第1の領域に表示する手段と、
前記第2のグループに属する静止画像を、該静止画像が検出された特徴量とともに、第2の領域に表示する手段とを備えることを特徴とする特徴場面検出システム。 In a feature scene detection system that detects a characteristic scene of a video,
Means for extracting a still image from a video composed of a plurality of continuous still images;
Means for calculating a feature amount related to a blinking scene of the video with respect to the extracted still image;
Means for calculating a difference in feature amount between the still image and the still images before and after the still image based on the calculated feature amount;
Means for detecting a still image that becomes a blinking screen according to a difference in feature amount between the calculated still image and the still images before and after the still image;
Means for registering the detected still image in a list in the order of detection together with a detection time and a feature amount;
Means for retrieving a first still image registered at the beginning of the list after detecting the still image;
Means for retrieving a second still image registered after the first still image;
If the interval between the detection time of the first still image and the detection time of the second still image is smaller than a predetermined value, the first still image and the second still image are added to the first group. Means to
If the interval between the detection time of the first still image and the detection time of the second still image is equal to or greater than a predetermined value, the first still image and the second still image are Means to add to the group,
Means for displaying a still image belonging to the first group in a first area together with a feature amount in which the still image is detected;
A feature scene detection system comprising: means for displaying a still image belonging to the second group in a second region together with a feature amount in which the still image is detected.
The feature scene detection system according to claim 1, wherein the feature amount of the still image includes a ratio of a red component included in the still image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004290886A JP3685208B2 (en) | 2004-10-04 | 2004-10-04 | Feature scene detection system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004290886A JP3685208B2 (en) | 2004-10-04 | 2004-10-04 | Feature scene detection system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23679298A Division JP3622527B2 (en) | 1998-08-24 | 1998-08-24 | Video feature scene detection method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005124188A JP2005124188A (en) | 2005-05-12 |
JP3685208B2 true JP3685208B2 (en) | 2005-08-17 |
Family
ID=34616994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004290886A Expired - Fee Related JP3685208B2 (en) | 2004-10-04 | 2004-10-04 | Feature scene detection system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3685208B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4749139B2 (en) * | 2005-12-05 | 2011-08-17 | 株式会社日立製作所 | Dangerous video detection method, video difference detection method and apparatus |
-
2004
- 2004-10-04 JP JP2004290886A patent/JP3685208B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005124188A (en) | 2005-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7096427B2 (en) | Method and system for selecting a position in an image sequence | |
EP0729117B1 (en) | Method and apparatus for detecting a point of change in moving images | |
US7184593B2 (en) | Method and apparatus for detecting local features of video, and recording medium storing the method | |
JP4613867B2 (en) | Content processing apparatus, content processing method, and computer program | |
JP2008048279A (en) | Video-reproducing device, method, and program | |
US20060242667A1 (en) | Ad monitoring and indication | |
US20080136937A1 (en) | Image processing apparatus, image processing method, and program | |
JP2011504034A (en) | How to determine the starting point of a semantic unit in an audiovisual signal | |
KR101440168B1 (en) | Method for creating a new summary of an audiovisual document that already includes a summary and reports and a receiver that can implement said method | |
US20140208208A1 (en) | Video navigation through object location | |
JPH0965287A (en) | Method and device for detecting characteristic scene for dynamic image | |
US8059875B2 (en) | Information processor, method of detecting factor influencing health, and program | |
US9395887B2 (en) | Image processing apparatus and method for removing noise from a frame group | |
JP3685208B2 (en) | Feature scene detection system | |
US9721615B2 (en) | Non-linear video review buffer navigation | |
JPH0974575A (en) | Method for displaying feature scene of moving image and device therefor | |
JP3906854B2 (en) | Method and apparatus for detecting feature scene of moving image | |
JP4906615B2 (en) | Pitch shot detection system, reference pitch shot image selection device, and reference pitch shot image selection program | |
EP1069765B1 (en) | Feature scene detecting method and apparatus, and storage medium containing processing program therefor | |
JP4007406B2 (en) | Feature scene detection method for moving images | |
JP5332593B2 (en) | Video range extraction device, video range extraction program, and video storage device | |
JPH11252501A (en) | Device for detecting special effect of moving image | |
JP2006129050A (en) | Device, method, and program for regenerating or recording animation | |
JP2005339202A (en) | Image display device, image display method, and image display program | |
JP2005143143A (en) | Moving image editing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050523 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080610 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090610 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090610 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100610 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100610 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110610 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110610 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120610 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120610 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130610 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |