JPH05236458A - Moving image processor - Google Patents

Moving image processor

Info

Publication number
JPH05236458A
JPH05236458A JP4033386A JP3338692A JPH05236458A JP H05236458 A JPH05236458 A JP H05236458A JP 4033386 A JP4033386 A JP 4033386A JP 3338692 A JP3338692 A JP 3338692A JP H05236458 A JPH05236458 A JP H05236458A
Authority
JP
Japan
Prior art keywords
frame
difference
unit
storage part
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4033386A
Other languages
Japanese (ja)
Inventor
Masabumi Tamura
正文 田村
Atsushi Fuji
敦史 冨士
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP4033386A priority Critical patent/JPH05236458A/en
Publication of JPH05236458A publication Critical patent/JPH05236458A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot

Abstract

PURPOSE:To reduce time for moving image analysis and image compression and the cost of a hardware or the like by detecting a scene change point corresponding to the two kinds of differential data for a certain frame and frames with fixed width positioned before and behind that frame. CONSTITUTION:Among transformed data obtained at a DCT part 12, the DC component coefficient of that block is inputted by a DC component arithmetic part 16, after those coefficients are simultaneously added, they are divided with the number of blocks so as to calculate an average luminance value in the entire frame. The calculated value is transmitted to an inter-frame difference part 18 as it is and temporarily stored in an arithmetic result storage part 17a at a storage part 17. The difference part 18 calculates difference between the average luminance value transmitted from the arithmetic part 16 and an average luminance value for preceding one frame read from the storage part 17a. The calculated inter-frame difference is stored in a differential result storage part 17b for each frame number. Since the storage part 17b stores the inter-frame difference totally for the 61 frame of that frame and respectively preceding and following frames 30 while always updating it, the differential result stored in the storage part 17b is read to a detection part 19 and here, the scene change point is detected by any statistical method.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、時間的に連続するフレ
ームの動画像データ中のシーン変化点を検出する動画像
処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image processing apparatus for detecting a scene change point in moving image data of temporally consecutive frames.

【0002】[0002]

【従来の技術】近年、コンピュータを用いた動画像の蓄
積、表示技術の発達と情報のマルチメディア化とに伴な
い、動画像が頻繁に活用されるようになっている。
2. Description of the Related Art In recent years, with the accumulation of moving images using a computer, the development of display technology, and the realization of multimedia information, moving images have been frequently used.

【0003】そのような動画像の内容把握や編集を行な
う必要から生じるインデックス化等の画像解析方法は、
現在の時点では早送り再生、頭出し機能、インデックス
付けなど、そのほとんどが手動により行なわれている。
また、画像解析をハードウェア化により行なう方法がい
くつか提案されているが、これらはいずれも専用の回路
を構築して行なうものであり、全体の回路規模が大きな
ものとなってしまう。
An image analysis method such as indexing, which is required to grasp and edit the contents of such a moving image,
At present, most of the fast-forward playback, cue function, indexing, etc. are done manually.
Further, some methods of performing image analysis by hardware have been proposed, but all of these are for performing a dedicated circuit, and thus the overall circuit scale becomes large.

【0004】[0004]

【発明が解決しようとする課題】動画像は膨大な情報量
を必要とするため、コンピュータ上で十分に動画像を扱
うためには、今後、画像圧縮等の蓄積技術が必要不可欠
なものとなる。また、動画像編集等の作業には、短時間
のうちに内容を把握し、膨大な動画像データの中から所
望の部分を取り出すといった画像解析の作業が必要とな
る。
Since moving images require a huge amount of information, storage techniques such as image compression will be indispensable in the future in order to sufficiently handle moving images on a computer. .. Further, work such as moving image editing requires an image analyzing work of grasping the contents in a short time and extracting a desired portion from a huge amount of moving image data.

【0005】しかして、画像の圧縮と画像解析とを個別
に実行する場合、個別に専用のハードウェアが必要とな
り、回路規模が大きくなってコストがかかるという問題
があった。
However, when the image compression and the image analysis are individually performed, dedicated hardware is required individually, and there is a problem that the circuit scale becomes large and the cost becomes high.

【0006】本発明は上記のような実情に鑑みてなされ
たもので、その目的とするところは、画像の圧縮と画像
解析とに要する回路の少なくとも一部を兼用して回路規
模を抑え、コストを低減させることが可能な動画像処理
装置を提供することにある。
The present invention has been made in view of the above circumstances, and an object of the present invention is to reduce the circuit scale by using at least a part of a circuit required for image compression and image analysis, thereby reducing the cost. An object of the present invention is to provide a moving image processing device capable of reducing the above.

【0007】[0007]

【課題を解決するための手段及び作用】すなわち本発明
は、動画像データを直交変換により空間情報圧縮する直
交変換部と、この直交変換部で得られる変換結果の一部
を圧縮された画像の特徴量として記憶する第1の記憶部
と、この第1の記憶部に記憶される画像特徴量の隣接す
るフレーム間の差分を演算する演算部と、この演算部で
得られる差分データを記憶する第2の記憶部と、この第
2の記憶部に記憶される当該フレームとその前に位置す
る一定数幅のフレーム分及び当該フレームとその後に位
置する一定数幅のフレーム分の2種類の差分データによ
りシーン変化点を検出する検出部とを備えるようにした
もので、画像圧縮の仮定で得られる情報の一部を利用し
て画像解析としてのシーン変化点の検出及びインデック
ス情報の作成を行なうことができるため、上記作業に要
する時間及びハードウェア等のコストを大幅に削減させ
ることができるだけでなく、動きの激しいシーンから動
きの少ないシーンへの変化や、動きの少ないシーンから
動きの激しいシーンへの変化に適確に対応して検出を行
なうと共に、特に動きの激しいシーンで発生しやすいシ
ーン変化点の誤検出を減少させることができる。
That is, according to the present invention, there is provided an orthogonal transform unit for compressing spatial information of moving image data by orthogonal transform, and an image obtained by compressing a part of the transform result obtained by the orthogonal transform unit. A first storage unit that stores the feature amount, a calculation unit that calculates a difference between adjacent frames of the image feature amount stored in the first storage unit, and a difference data obtained by the calculation unit are stored. A second storage unit, and two types of differences for the frame and a frame of a certain number of widths located in front of the frame and a frame of a certain number of widths of the frame and the frame stored thereafter in the second storage unit It is equipped with a detector that detects scene change points from data, and uses part of the information obtained on the assumption of image compression to detect scene change points as image analysis and create index information. As a result, not only can the time required for the above work and the cost of hardware, etc. be significantly reduced, but also changes from a scene with a lot of movement to a scene with little movement, or from a scene with little movement to a lot of movement It is possible to detect the scene change in an appropriate manner, and to reduce the false detection of the scene change point that tends to occur especially in a scene with a lot of movement.

【0008】[0008]

【実施例】以下図面を参照して本発明の一実施例を説明
する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0009】図1はその回路構成を示すもので、データ
入力部11よりRGBあるいはYUIの形で入力される動
画像データが離散コサイン変換部(以下「DCT部」と
略称する)12に送られる。このDCT部12は、入力され
た同画像データをその周波数成分に応じて直交変換する
離散コサイン変換により空間情報圧縮し、変換したデー
タを量子化部13及びDC成分演算部16に出力する。
FIG. 1 shows the circuit configuration thereof. Moving image data input in the form of RGB or YUI from a data input unit 11 is sent to a discrete cosine transform unit (hereinafter abbreviated as "DCT unit") 12. .. The DCT unit 12 compresses spatial information of the input same image data by a discrete cosine transform that performs orthogonal transform according to its frequency component, and outputs the transformed data to the quantizing unit 13 and the DC component calculating unit 16.

【0010】量子化部13は、DCT部12で得られた変換
データを規定のビット数により量子化して符号化部14へ
出力する。符号化部14は、量子化部13で量子化された変
換データを可変長符号化してそのデータ量をさらに圧縮
した後に圧縮結果出力部15へ出力する。圧縮結果出力部
15は、符号化部14からの符号化された変換データを最終
的な圧縮結果として外部の例えば記録媒体に出力する。
The quantizing unit 13 quantizes the converted data obtained by the DCT unit 12 by a prescribed number of bits and outputs the quantized data to the encoding unit 14. The encoding unit 14 variable-length-encodes the converted data quantized by the quantization unit 13, further compresses the data amount, and then outputs the data to the compression result output unit 15. Compression result output section
Reference numeral 15 outputs the encoded converted data from the encoding unit 14 to an external recording medium, for example, as a final compression result.

【0011】一方、上記DC成分演算部16は、DCT部
12から得られるブロック毎の直流(DC)成分値による
1フレーム分の平均値を演算することで1フレームの平
均輝度を算出し、記憶部17とフレーム間差分部18とに出
力する。
On the other hand, the DC component calculator 16 is a DCT unit.
The average luminance of one frame is calculated by calculating the average value for one frame by the direct current (DC) component value for each block obtained from 12, and is output to the storage unit 17 and the inter-frame difference unit 18.

【0012】記憶部17は、演算結果格納部17a、差分結
果格納部17b及び検出結果格納部17cの3つの領域を備
え、DC成分演算部16からの演算結果は演算結果格納部
17aに格納される。
The storage unit 17 has three areas, a calculation result storage unit 17a, a difference result storage unit 17b, and a detection result storage unit 17c. The calculation result from the DC component calculation unit 16 is stored in the calculation result storage unit.
It is stored in 17a.

【0013】フレーム間差分部18は、DC成分演算部16
からの演算結果と演算結果格納部17aに格納される1
フレーム前の演算結果との差分を算出し、その差分結果
を記憶部17の差分結果格納部17bへ送出して格納さ
せ、差分結果格納部17bに格納された差分結果は検出部
19に読出される。
The inter-frame difference section 18 is a DC component calculation section 16
1 stored in the operation result storage unit 17a
The difference from the calculation result before the frame is calculated, the difference result is sent to the difference result storage unit 17b of the storage unit 17 and stored therein, and the difference result stored in the difference result storage unit 17b is detected by the detection unit.
Read to 19.

【0014】検出部19は、差分結果格納部17bに格納さ
れた差分結果に対して統計的な手法を採ることでシーン
変化点を検出し、検出結果としてフレーム番号と変化回
数とを記憶部17の検出結果格納部17cに格納させる。
The detection unit 19 detects a scene change point by adopting a statistical method for the difference result stored in the difference result storage unit 17b, and stores the frame number and the number of changes as a detection result. It is stored in the detection result storage unit 17c.

【0015】しかして、この検出結果格納部17cに格納
されたシーン変化点のフレーム番号と変化回数とを検出
結果出力部20が読出し、画像解析の結果として例えばマ
ルチ表示により出力する。上記のような構成の実施例の
動作について以下に説明する。
Thus, the detection result output unit 20 reads out the frame number of the scene change point and the number of changes stored in the detection result storage unit 17c, and outputs it as a result of image analysis, for example, by multi-display. The operation of the embodiment having the above configuration will be described below.

【0016】データ入力部11により入力される時間的に
連続した画像データは、DCT部12においてその1フレ
ーム分毎に離散コサイン変換を施す。この離散コサイン
変換は、空間情報圧縮のために用いられるもので、画像
データを周波数領域で直交変換することで空間的に相関
を除去し、一部の係数にエネルギーを集中させることで
情報量を大幅に削減可能とするものである。具体的に
は、対象となる画像データ1フレーム分をN画素×N画
素の複数のブロックに分割し、各ブロック毎に下記
(1)式に基づいた2次元離散コサイン変換を行なう。
すなわち、
The time-continuous image data input from the data input unit 11 is subjected to discrete cosine transform for each frame in the DCT unit 12. This Discrete Cosine Transform is used for spatial information compression. By orthogonally transforming image data in the frequency domain, spatial correlation is removed, and energy is concentrated on some coefficients to reduce the amount of information. It is possible to reduce significantly. Specifically, one frame of target image data is divided into a plurality of blocks of N pixels × N pixels, and two-dimensional discrete cosine transform based on the following equation (1) is performed for each block.
That is,

【0017】[0017]

【数1】 [Equation 1]

【0018】となるもので、変換係数F(u,v)にお
いて、F(0,0)はそのブロックの平均輝度値に相当
する直流(DC)成分係数に、その他が交流(AC)成
分係数に対応するものとなる。
In the conversion coefficient F (u, v), F (0,0) is a direct current (DC) component coefficient corresponding to the average luminance value of the block, and the other is an alternating current (AC) component coefficient. Will correspond to.

【0019】このようにして大幅に情報量を削減した変
換データを、量子化部13で所定ビット数に量子化し、符
号化部14で過偏重符号化した後に圧縮結果出力部15によ
り図示しない外部に出力するものである。これらDCT
部12から量子化部13、符号化部14を介しての画像データ
の圧縮に関する技術はすでに周知のものであるので、こ
れ以上の詳細な説明は省略する。
In this way, the converted data whose information amount is significantly reduced is quantized by the quantizing unit 13 into a predetermined number of bits, and the encoding unit 14 performs hyper-biased encoding. Is output to. These DCT
Since the technique relating to the compression of the image data via the unit 12, the quantizing unit 13 and the encoding unit 14 is already well known, detailed description thereof will be omitted.

【0020】一方、DCT部12で得た変換データの内、
上述した如くそのブロックの平均輝度値に相当するDC
成分係数をDC成分演算部16が入力し、該当フレームの
すべてのブロックのDC成分係数を一括加算した後に該
ブロック数で除算してそのフレーム全体での平均輝度値
を算出する。算出された平均輝度値はそのままフレーム
間差分部18に送出されると共に、一時的に記憶部17の演
算結果格納部17aに格納される。
On the other hand, of the converted data obtained by the DCT unit 12,
As described above, DC corresponding to the average luminance value of the block
The DC component calculation unit 16 inputs the component coefficient, adds the DC component coefficients of all the blocks of the corresponding frame at once, and then divides by the number of blocks to calculate the average luminance value of the entire frame. The calculated average luminance value is sent to the inter-frame difference section 18 as it is and is temporarily stored in the calculation result storage section 17a of the storage section 17.

【0021】フレーム間差分部18は、DC成分演算部16
から送られてくる平均輝度値と演算結果格納部17aから
読出す1フレーム分前の平均輝度値との差分を演算す
る。このフレーム間差分は、一般にシーン変化点で突出
した値を示すものであり、算出したフレーム間差分がフ
レーム番号毎に差分結果格納部17bに格納される。
The inter-frame difference section 18 is a DC component calculation section 16
The difference between the average brightness value sent from the device and the average brightness value of one frame before read from the calculation result storage unit 17a is calculated. This inter-frame difference generally indicates a value that stands out at a scene change point, and the calculated inter-frame difference is stored in the difference result storage unit 17b for each frame number.

【0022】差分結果格納部17bにおいては、当該フレ
ームとその前後各30フレームの計61フレーム分のフ
レーム間差分を常時更新しながら格納するもので、差分
結果格納部17bに格納されている差分結果は検出部19に
読出され、ここで統計的な手法によりシーン変化点の検
出が行なわれる。具体的には検出部19が、差分結果の平
均値と分散値とを算出し、下記(2)式、すなわち、 [しきい値]=[平均値]+[分散値]×[ブロック画
素定数N] …(2) によりしきい値を計算して、差分結果に対してしきい値
処理を行なう。
In the difference result storage unit 17b, the difference between the frame and the preceding and following 30 frames, which is 61 frames in total, is constantly updated and stored, and the difference result stored in the difference result storage unit 17b is stored. Is read by the detection unit 19, and the scene change point is detected by a statistical method. Specifically, the detection unit 19 calculates the average value and the variance value of the difference result, and the following equation (2), that is, [threshold value] = [average value] + [variance value] × [block pixel constant] N] (2) is used to calculate the threshold value, and threshold processing is performed on the difference result.

【0023】この場合に検出部19は、図2に示すよう
に当該フレームとその前30フレームの計31フレーム
から算出される第1のしきい値と、当該フレームとその
後30フレームの計31フレームから算出される第2の
しきい値とを別々に設定し、それぞれしきい値に図3に
示すような経過時間の要因に応じた結果としての定数N
を上記(2)式中に代入して重み付けを施した後にしき
い値処理を行なう。
In this case, the detection unit 19, as shown in FIG. 2, has a first threshold value calculated from a total of 31 frames of the frame and the previous 30 frames, and a total of 31 frames of the frame and the subsequent 30 frames. A second threshold value calculated from the above is set separately, and a constant N as a result depending on the factors of the elapsed time as shown in FIG. 3 is set for each threshold value.
Is substituted into the above equation (2) for weighting, and then threshold processing is performed.

【0024】上記図3に示した定数Nの重み付けは、短
い時間の間に連続してシーンの変化が起こることは少な
いという知識に基づいて適応的に変化するような特性と
して検出部19に設定される。検出部19が上記第1のしき
い値及び第2のしきい値の少なくともいずれか一方を越
える差分結果があった場合には、そのフレームを図2中
にCで示すようにシーン変化点として検出処理する。検
出部19で得られた処理結果は、インデックス情報として
シーン番号とフレーム番号、シーンの長さ(時間)等か
らなり、これらが検出結果格納部17cに格納される。
The weighting of the constant N shown in FIG. 3 is set in the detecting unit 19 as a characteristic that adaptively changes on the basis of the knowledge that scene changes rarely occur continuously in a short time. To be done. When the detection unit 19 has a difference result that exceeds at least one of the first threshold value and the second threshold value, the frame is determined as a scene change point as indicated by C in FIG. Perform detection processing. The processing result obtained by the detection unit 19 is composed of a scene number, a frame number, a scene length (time), etc. as index information, and these are stored in the detection result storage unit 17c.

【0025】このようにしきい値処理を行なってシーン
変化点を検出することで、一般にシーン毎に動きの激し
いシーン、動きの少ないシーンなど様々なシーンが時系
列的に連続している一般の動画像に対し、動きの激しい
シーンから動きの少ないシーンへの変化、動きの少ない
シーンから動きの激しいシーンへの変化などシーンの変
化点を適確に検出することができ、また、動きの激しい
シーンでの誤検出を減少させることができる。
By detecting the scene change points by performing the threshold processing in this way, generally, a general moving image in which various scenes such as a scene with a lot of movement and a scene with little movement are continuous in time series. With respect to the image, it is possible to accurately detect the change point of the scene such as a change from a scene with a lot of movement to a scene with a little movement, a change from a scene with little movement to a scene with a lot of movement, and a scene with a lot of movement False detections in can be reduced.

【0026】検出結果出力部20では、使用者のリクエス
トに応じて検出結果格納部17cよりインデックス情報を
呼び出し、シーン変化点の映像とその他の情報を例えば
マルチ表示により出力する。
The detection result output unit 20 calls the index information from the detection result storage unit 17c in response to the user's request, and outputs the image of the scene change point and other information by, for example, multi-display.

【0027】なお、上記実施例にあっては動画像データ
を離散コサイン変換し、そのDC成分によりシーン変化
点を求めるようにしたが、離散コサイン変換に限らず他
の直交変換方法でもよく、また、離散コサイン変換のA
C成分を利用することも可能である。さらにはフレーム
全体の平均輝度値を求めるのではなく、分割したフレー
ムの特定部分の平均輝度値を求めることで同様の結果を
得ることができる。
In the above embodiment, the moving image data is discrete cosine transformed and the scene change point is obtained by the DC component thereof, but the orthogonal cosine transform is not the only possible method, and another orthogonal transform method may be used. , A of discrete cosine transform
It is also possible to utilize the C component. Further, the same result can be obtained by obtaining the average luminance value of the specific portion of the divided frame instead of obtaining the average luminance value of the entire frame.

【0028】また、しきい値の決定に利用するために差
分結果格納部17bに格納するフレーム数は動画像の内容
に応じて可変することも可能であり、さらには、上述し
た如く短い時間の間に連続してシーンの変化が起こるこ
とは少ないという知識を用いて、上記(2)式中の定数
Nを上記図3に示した特性以外の特性により適応的に変
化させることも可能である。その他、本発明はその要旨
を逸脱しない範囲で種々変形して実施することができ
る。
Further, the number of frames stored in the difference result storage section 17b for use in determining the threshold value can be changed according to the content of the moving image, and further, as described above, the number of frames can be shortened. It is also possible to adaptively change the constant N in the above equation (2) by a characteristic other than the characteristic shown in FIG. 3 by using the knowledge that the scene is unlikely to change continuously. .. In addition, the present invention can be variously modified and implemented without departing from the scope of the invention.

【0029】[0029]

【発明の効果】以上詳記した如く本発明によれば、動画
像データを直交変換により空間情報圧縮する直交変換部
と、この直交変換部で得られる変換結果の一部を圧縮さ
れた画像の特徴量として記憶する第1の記憶部と、この
第1の記憶部に記憶される画像特徴量の隣接するフレー
ム間の差分を演算する演算部と、この演算部で得られる
差分データを記憶する第2の記憶部と、この第2の記憶
部に記憶される当該フレームとその前に位置する一定数
幅のフレーム分及び当該フレームとその後に位置する一
定数幅のフレーム分の2種類の差分データによりシーン
変化点を検出する検出部とを備えるようにしたので、画
像圧縮の仮定で得られる情報の一部を利用して画像解析
としてのシーン変化点の検出及びインデックス情報の作
成を行なうことができるため、上記作業に要する時間及
びハードウェア等のコストを大幅に削減させることがで
きるだけでなく、動きの激しいシーンから動きの少ない
シーンへの変化や、動きの少ないシーンから動きの激し
いシーンへの変化に適確に対応して検出を行なうと共
に、特に動きの激しいシーンで発生しやすいシーン変化
点の誤検出を減少させることが可能な動画像処理装置を
提供することができる。
As described above in detail, according to the present invention, an orthogonal transform unit for compressing spatial information of moving image data by orthogonal transform, and an image obtained by compressing a part of the transform result obtained by the orthogonal transform unit are provided. A first storage unit that stores the feature amount, a calculation unit that calculates a difference between adjacent frames of the image feature amount stored in the first storage unit, and a difference data obtained by the calculation unit are stored. A second storage unit, and two types of differences for the frame and a frame of a certain number of widths located in front of the frame and a frame of a certain number of widths of the frame and the frame stored thereafter in the second storage unit Since a detection unit that detects a scene change point from data is provided, a part of the information obtained on the assumption of image compression is used to detect the scene change point as image analysis and create index information. But Therefore, not only can the time and hardware cost required for the above work be significantly reduced, but also the change from a scene with a lot of movement to a scene with little movement, or from a scene with little movement to a scene with a lot of movement. It is possible to provide a moving image processing apparatus capable of appropriately detecting a change, and reducing erroneous detection of a scene change point that is likely to occur particularly in a scene in which the movement is rapid.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る回路構成を示すブロッ
ク図。
FIG. 1 is a block diagram showing a circuit configuration according to an embodiment of the present invention.

【図2】図1の検出部によるしきい値の算出方法を例示
する図。
FIG. 2 is a diagram illustrating a method of calculating a threshold value by the detection unit in FIG.

【図3】図2で得たしきい値に対する重み付け定数Nの
算出方法を示す示す図。
FIG. 3 is a diagram showing a method of calculating a weighting constant N for the threshold value obtained in FIG.

【符号の説明】[Explanation of symbols]

11…データ入力部、12…離散コサイン変換(DCT)
部、13…量子化部、14…符号化部、14…符号化部、16…
DC成分演算部、17…記憶部、17a…演算結果格納部、
17b…差分結果格納部、17c…検出結果格納部、18…フ
レーム間差分部、19…検出部、20…検出結果出力部。
11 ... Data input section, 12 ... Discrete cosine transform (DCT)
Unit, 13 ... Quantization unit, 14 ... Encoding unit, 14 ... Encoding unit, 16 ...
DC component calculation unit, 17 ... storage unit, 17a ... calculation result storage unit,
17b ... Difference result storage unit, 17c ... Detection result storage unit, 18 ... Interframe difference unit, 19 ... Detection unit, 20 ... Detection result output unit.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 時間的に連続するフレームの動画像デー
タ中のシーン変化点を検出する動画像処理装置におい
て、 上記動画像データを順次直交変換により空間情報圧縮す
る直交変換手段と、 この直交変換手段で得られる変換結果の一部を圧縮され
た画像の特徴量として記憶する第1の記憶手段と、 この第1の記憶手段に記憶される画像特徴量の隣接する
フレーム間の差分を演算する演算手段と、 この演算手段で得られる差分データを記憶する第2の記
憶手段と、 この第2の記憶手段に記憶される当該フレームとその前
に位置する一定数幅のフレーム分及び当該フレームとそ
の後に位置する一定数幅のフレーム分の2種類の差分デ
ータによりシーン変化点を検出する検出手段とを具備す
ることを特徴とした動画像処理装置。
1. A moving image processing apparatus for detecting a scene change point in moving image data of temporally continuous frames, and an orthogonal transform means for compressing spatial information of the moving image data by sequential orthogonal transform, and the orthogonal transform. First storage means for storing a part of the conversion result obtained by the means as the feature quantity of the compressed image, and the difference between the adjacent frame of the image feature quantity stored in the first storage means is calculated. Calculating means, second storing means for storing difference data obtained by the calculating means, the frame stored in the second storing means, a frame of a certain number of widths located in front of the frame, and the frame. A moving image processing apparatus, comprising: a detection unit that detects a scene change point based on two types of difference data for frames of a certain number of widths that are located after that.
JP4033386A 1992-02-20 1992-02-20 Moving image processor Pending JPH05236458A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4033386A JPH05236458A (en) 1992-02-20 1992-02-20 Moving image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4033386A JPH05236458A (en) 1992-02-20 1992-02-20 Moving image processor

Publications (1)

Publication Number Publication Date
JPH05236458A true JPH05236458A (en) 1993-09-10

Family

ID=12385158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4033386A Pending JPH05236458A (en) 1992-02-20 1992-02-20 Moving image processor

Country Status (1)

Country Link
JP (1) JPH05236458A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0833503A2 (en) * 1996-09-27 1998-04-01 Nextlevel Systems, Inc. Scene change detector for digital video
JP2003519946A (en) * 1999-12-30 2003-06-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for detecting fast-moving scenes
KR20040006065A (en) * 2002-07-09 2004-01-24 삼성전자주식회사 Scene change detector and method thereof
WO2006071835A1 (en) * 2004-12-23 2006-07-06 Intel Corporation Method and algorithm for detection of scene cuts or similar images in video images
EP2070466A4 (en) * 2006-10-02 2018-01-24 Olympus Corporation Image processing device, image processing method and image processing program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0833503A2 (en) * 1996-09-27 1998-04-01 Nextlevel Systems, Inc. Scene change detector for digital video
KR19980025070A (en) * 1996-09-27 1998-07-06 에드워드 디. 브린 Scene change detector for digital video
EP0833503A3 (en) * 1996-09-27 1999-07-14 General Instrument Corporation Scene change detector for digital video
JP2003519946A (en) * 1999-12-30 2003-06-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for detecting fast-moving scenes
JP4667697B2 (en) * 1999-12-30 2011-04-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for detecting fast moving scenes
KR20040006065A (en) * 2002-07-09 2004-01-24 삼성전자주식회사 Scene change detector and method thereof
WO2006071835A1 (en) * 2004-12-23 2006-07-06 Intel Corporation Method and algorithm for detection of scene cuts or similar images in video images
US7382417B2 (en) 2004-12-23 2008-06-03 Intel Corporation Method and algorithm for detection of scene cuts or similar images in video images
EP2070466A4 (en) * 2006-10-02 2018-01-24 Olympus Corporation Image processing device, image processing method and image processing program

Similar Documents

Publication Publication Date Title
JP3244629B2 (en) Scene change point detection method
JP2518503B2 (en) Screen switching detection method
JP3571974B2 (en) A method for detecting scene changes by processing digital image display video data in a compressed form.
KR100865248B1 (en) Detecting subtitles in a video signal
US20040170326A1 (en) Image-processing method and image processor
JPH1075457A (en) Moving object detector in moving image
US7352877B2 (en) Digital-watermark-embedding and picture compression unit
US6928186B2 (en) Semantic downscaling and cropping (SEDOC) of digital images
JP2002058031A (en) Method and apparatus for encoding image as well as method and apparatus for decoding image
EP0985318A2 (en) System for extracting coding parameters from video data
US20050002569A1 (en) Method and apparatus for processing images
US20110129012A1 (en) Video Data Compression
JPH05236458A (en) Moving image processor
CN113810654A (en) Image video uploading method and device, storage medium and electronic equipment
Fernando et al. Fade-in and fade-out detection in video sequences using histograms
KR100963701B1 (en) Video identification device
JPWO2010084738A1 (en) Collation weight information extraction device
JPH05236449A (en) Moving image processor
JP2000194727A (en) Device and method for retrieving moving image and recording medium recording moving image retrieval program
JPH07236153A (en) Detection of cut point of moving picture and device for detecting cut picture group
EP1244291A2 (en) Moving image compression and cut detection
KR20060132977A (en) Video processing method and corresponding encoding device
JP2002281508A (en) Skip area detection type moving image encoder and recording medium
JPH1023421A (en) Moving picture processing method
Yu et al. Computational similarity based on chromatic barycenter algorithm

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term