JPH05236449A - Moving image processor - Google Patents

Moving image processor

Info

Publication number
JPH05236449A
JPH05236449A JP4033391A JP3339192A JPH05236449A JP H05236449 A JPH05236449 A JP H05236449A JP 4033391 A JP4033391 A JP 4033391A JP 3339192 A JP3339192 A JP 3339192A JP H05236449 A JPH05236449 A JP H05236449A
Authority
JP
Japan
Prior art keywords
stored
unit
frame
change point
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4033391A
Other languages
Japanese (ja)
Inventor
Atsushi Fuji
敦史 冨士
Masabumi Tamura
正文 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP4033391A priority Critical patent/JPH05236449A/en
Publication of JPH05236449A publication Critical patent/JPH05236449A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/179Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a scene or a shot

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To reduce time for work and hardware cost by executing the detection of a scene change point as image analysis and the preparation of index informa tion while utilizing one part of information in the process of image compression. CONSTITUTION:Moving image data are compressed into spatial information by an orthogonal transformation part 12, and one part of the transformed result is stored in a first storage part 17a as the feature amount of a compressed image. Difference between adjacent frames in the image feature amount stored in this first storage part 17a is calculated by an arithmetic part 18, and obtained differential data are stored in a second storage part 17b. Corresponding to the differential data stored in this second storage part 17b, the scene change point is detected by a detection part 19, and the detection of the scene change point as the image analysis and the preparation of index information is executed by utilizing one part of information obtained in the process of image compression.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、時間的に連続するフレ
ームの動画像データ中のシーン変化点を検出する動画像
処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image processing apparatus for detecting a scene change point in moving image data of temporally consecutive frames.

【0002】[0002]

【従来の技術】近年、コンピュータを用いた動画像の蓄
積、表示技術の発達と情報のマルチメディア化とに伴な
い、動画像が頻繁に活用されるようになっている。
2. Description of the Related Art In recent years, with the accumulation of moving images using a computer, the development of display technology, and the realization of multimedia information, moving images have been frequently used.

【0003】そのような動画像の内容把握や編集を行な
う必要から生じるインデックス化等の画像解析方法は、
現在の時点では早送り再生、頭出し機能、インデックス
付けなど、そのほとんどが手動により行なわれている。
また、画像解析をハードウェア化により行なう方法がい
くつか提案されているが、これらはいずれも専用の回路
を構築して行なうものであり、全体の回路規模が大きな
ものとなってしまう。
An image analysis method such as indexing, which is required to grasp and edit the contents of such a moving image,
At present, most of the fast-forward playback, cue function, indexing, etc. are done manually.
Further, some methods of performing image analysis by hardware have been proposed, but all of these are for performing a dedicated circuit, and thus the overall circuit scale becomes large.

【0004】[0004]

【発明が解決しようとする課題】動画像は膨大な情報量
を必要とするため、コンピュータ上で十分に動画像を扱
うためには、今後、画像圧縮等の蓄積技術が必要不可欠
なものとなる。また、動画像編集等の作業には、短時間
のうちに内容を把握し、膨大な動画像データの中から所
望の部分を取り出すといった画像解析の作業が必要とな
る。
Since moving images require a huge amount of information, storage techniques such as image compression will be indispensable in the future in order to sufficiently handle moving images on a computer. .. Further, work such as moving image editing requires an image analyzing work of grasping the contents in a short time and extracting a desired portion from a huge amount of moving image data.

【0005】しかして、画像の圧縮と画像解析とを個別
に実行する場合、個別に専用のハードウェアが必要とな
り、回路規模が大きくなってコストがかかるという問題
があった。
However, when the image compression and the image analysis are individually performed, dedicated hardware is required individually, and there is a problem that the circuit scale becomes large and the cost becomes high.

【0006】本発明は上記のような実情に鑑みてなされ
たもので、その目的とするところは、画像の圧縮と画像
解析とに要する回路の少なくとも一部を兼用して回路規
模を抑え、コストを低減させることが可能な動画像処理
装置を提供することにある。
The present invention has been made in view of the above circumstances, and an object of the present invention is to reduce the circuit scale by using at least a part of a circuit required for image compression and image analysis, thereby reducing the cost. An object of the present invention is to provide a moving image processing device capable of reducing the above.

【0007】[0007]

【課題を解決するための手段及び作用】すなわち本発明
は、動画像データを直交変換により空間情報圧縮する直
交変換部と、この直交変換部で得られる変換結果の一部
を圧縮された画像の特徴量として記憶する第1の記憶部
と、この第1の記憶部に記憶される画像特徴量の隣接す
るフレーム間の差分を演算する演算部と、この演算部で
得られる差分データを記憶する第2の記憶部と、この第
2の記憶部に記憶される差分データによりシーン変化点
を検出する検出部とを備えるようにしたもので、画像圧
縮の仮定で得られる情報の一部を利用して画像解析とし
てのシーン変化点の検出及びインデックス情報の作成を
行なうことができるため、上記作業に要する時間及びハ
ードウェア等のコストを大幅に削減させることができ
る。
That is, according to the present invention, there is provided an orthogonal transform unit for compressing spatial information of moving image data by orthogonal transform, and an image obtained by compressing a part of the transform result obtained by the orthogonal transform unit. A first storage unit that stores the feature amount, a calculation unit that calculates a difference between adjacent frames of the image feature amount stored in the first storage unit, and a difference data obtained by the calculation unit are stored. A second storage unit and a detection unit for detecting a scene change point based on the difference data stored in the second storage unit are provided, and a part of information obtained on the assumption of image compression is used. Since it is possible to detect a scene change point and create index information as image analysis, it is possible to significantly reduce the time required for the above work and the cost of hardware and the like.

【0008】また本発明は、上記検出部が上記第2の記
憶部に記憶される当該フレームとその前後に位置する一
定数幅のフレーム分の差分データによりシーン変化点を
検出するようにしたもので、特に動きの激しいシーンで
発生しやすいシーン変化点の誤検出を減少させることが
できる。
Further, according to the present invention, the detection section detects the scene change point by using the difference data for the frame stored in the second storage section and a predetermined number of frames located before and after the frame. Thus, it is possible to reduce erroneous detection of a scene change point that tends to occur particularly in a scene with a lot of movement.

【0009】さらに本発明は、上記検出部が上記第2の
記憶部に記憶される当該フレームとその前に位置する一
定数幅のフレーム分及び当該フレームとその後に位置す
る一定数幅のフレーム分の2種類の差分データによりシ
ーン変化点を検出するようにしたもので、動きの激しい
シーンから動きの少ないシーンへの変化や、動きの少な
いシーンから動きの激しいシーンへの変化に適確に対応
して検出を行なうと共に、特に動きの激しいシーンで発
生しやすいシーン変化点の誤検出を減少させることがで
きる。
Further, according to the present invention, the detecting unit stores the frame stored in the second storage unit and a frame of a certain number of widths located in front of the frame, and the frame and a frame of a certain number of widths located after the frame. The change point of the scene is detected by the two types of difference data, and it can accurately correspond to the change from a scene with a lot of movement to a scene with a little movement or a change from a scene with little movement to a scene with a lot of movement. By doing so, it is possible to reduce the erroneous detection of a scene change point which is likely to occur especially in a scene with a lot of movement.

【0010】[0010]

【実施例】以下図面を参照して本発明の一実施例を説明
する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0011】図1はその回路構成を示すもので、データ
入力部11よりRGBあるいはYUIの形で入力される動
画像データが離散コサイン変換部(以下「DCT部」と
略称する)12に送られる。このDCT部12は、入力され
た同画像データをその周波数成分に応じて直交変換する
離散コサイン変換により空間情報圧縮し、変換したデー
タを量子化部13及びDC成分演算部16に出力する。
FIG. 1 shows the circuit configuration thereof. Moving image data input in the form of RGB or YUI from a data input unit 11 is sent to a discrete cosine transform unit (hereinafter abbreviated as "DCT unit") 12. .. The DCT unit 12 compresses spatial information of the input same image data by a discrete cosine transform that performs orthogonal transform according to its frequency component, and outputs the transformed data to the quantizing unit 13 and the DC component calculating unit 16.

【0012】量子化部13は、DCT部12で得られた変換
データを規定のビット数により量子化して符号化部14へ
出力する。符号化部14は、量子化部13で量子化された変
換データを可変長符号化してそのデータ量をさらに圧縮
した後に圧縮結果出力部15へ出力する。圧縮結果出力部
15は、符号化部14からの符号化された変換データを最終
的な圧縮結果として外部の例えば記録媒体に出力する。
The quantizing unit 13 quantizes the converted data obtained by the DCT unit 12 with a prescribed number of bits and outputs the quantized data to the encoding unit 14. The encoding unit 14 variable-length-encodes the converted data quantized by the quantization unit 13, further compresses the data amount, and then outputs the data to the compression result output unit 15. Compression result output section
Reference numeral 15 outputs the encoded converted data from the encoding unit 14 to an external recording medium, for example, as a final compression result.

【0013】一方、上記DC成分演算部16は、DCT部
12から得られるブロック毎の直流(DC)成分値による
1フレーム分の平均値を演算することで1フレームの平
均輝度を算出し、記憶部17とフレーム間差分部18とに出
力する。
On the other hand, the DC component calculator 16 is a DCT unit.
The average luminance of one frame is calculated by calculating the average value for one frame by the direct current (DC) component value for each block obtained from 12, and is output to the storage unit 17 and the inter-frame difference unit 18.

【0014】記憶部17は、演算結果格納部17a、差分結
果格納部17b及び検出結果格納部17cの3つの領域を備
え、DC成分演算部16からの演算結果は演算結果格納部
17aに格納される。
The storage unit 17 has three areas, a calculation result storage unit 17a, a difference result storage unit 17b, and a detection result storage unit 17c. The calculation result from the DC component calculation unit 16 is stored in the calculation result storage unit.
It is stored in 17a.

【0015】フレーム間差分部18は、DC成分演算部16
からの演算結果と演算結果格納部17aに格納される1フ
レーム前の演算結果との差分を算出し、その差分結果を
記憶部17の差分結果格納部17bへ送出して格納させる。
この差分結果格納部17bに格納された差分結果は検出部
19に読出される。
The inter-frame difference section 18 is a DC component calculation section 16
The difference between the calculation result from the calculation result and the calculation result of the previous frame stored in the calculation result storage unit 17a is calculated, and the difference result is sent to the difference result storage unit 17b of the storage unit 17 and stored therein.
The difference result stored in the difference result storage unit 17b is the detection unit.
Read to 19.

【0016】検出部19は、差分結果格納部17bに順次格
納される差分結果に対して統計的な手法を採ることでシ
ーン変化点を検出し、検出結果としてフレーム番号と変
化回数とを記憶部17の検出結果格納部17cに格納させ
る。
The detection unit 19 detects a scene change point by adopting a statistical method for the difference results sequentially stored in the difference result storage unit 17b, and stores the frame number and the number of changes as the detection result. It is stored in the detection result storage unit 17c of 17.

【0017】しかして、この検出結果格納部17cに格納
されたシーン変化点のフレーム番号と変化回数とを検出
結果出力部20が読出し、画像解析の結果として例えばマ
ルチ表示により出力する。上記のような構成の実施例の
動作について以下に説明する。
Thus, the detection result output unit 20 reads out the frame number of the scene change point and the number of changes stored in the detection result storage unit 17c, and outputs the result of the image analysis, for example, by multi-display. The operation of the embodiment having the above configuration will be described below.

【0018】データ入力部11により入力される時間的に
連続した画像データは、DCT部12においてその1フレ
ーム分毎に離散コサイン変換を施す。この離散コサイン
変換は、空間情報圧縮の用いられるもので、画像データ
を周波数領域で直交変換することで空間的に相関を除去
し、一部の係数にエネルギーを集中させることで情報量
を大幅に削減可能とするものである。具体的には、対象
となる画像データ1フレーム分をN画素×N画素の複数
のブロックに分割し、各ブロック毎に下記(1)式に基
づいた2次元離散コサイン変換を行なう。すなわち、
The time-continuous image data input by the data input unit 11 is subjected to discrete cosine transform for each frame in the DCT unit 12. This Discrete Cosine Transform is used for spatial information compression. By orthogonally transforming image data in the frequency domain, spatial correlation is removed, and energy is concentrated in some coefficients to significantly increase the amount of information. It is possible to reduce. Specifically, one frame of target image data is divided into a plurality of blocks of N pixels × N pixels, and two-dimensional discrete cosine transform based on the following equation (1) is performed for each block. That is,

【0019】[0019]

【数1】 [Equation 1]

【0020】となるもので、変換係数F(u,v)にお
いて、F(0,0)はそのブロックの平均輝度値に相当
する直流(DC)成分係数に、その他が交流(AC)成
分係数に対応するものとなる。
In the conversion coefficient F (u, v), F (0,0) is a direct current (DC) component coefficient corresponding to the average luminance value of the block, and the other is an alternating current (AC) component coefficient. Will correspond to.

【0021】このようにして大幅に情報量を削減した変
換データを、量子化部13で所定ビット数に量子化し、符
号化部14で過偏重符号化した後に圧縮結果出力部15によ
り図示しない外部に出力するものである。これらDCT
部12から量子化部13、符号化部14を介しての画像データ
の圧縮に関する技術はすでに周知のものであるので、こ
れ以上の詳細は省略する。
In this way, the converted data whose information amount is significantly reduced is quantized by the quantizing unit 13 to a predetermined number of bits, and the encoding unit 14 performs hyper-biased encoding. Is output to. These DCT
Since the technique relating to the compression of the image data from the unit 12 to the quantizing unit 13 and the encoding unit 14 is already well known, further details will be omitted.

【0022】一方、DCT部12で得た変換データの内、
上述した如くそのブロックの平均輝度値に相当するDC
成分係数をDC成分演算部16が入力し、該当フレームの
すべてのブロックのDC成分係数を一括加算した後に該
ブロック数で除算してそのフレーム全体での平均輝度値
を算出する。算出された平均輝度値はそのままフレーム
間差分部18に送出されると共に、一時的に記憶部17の演
算結果格納部17aに格納される。
On the other hand, of the converted data obtained by the DCT unit 12,
As described above, DC corresponding to the average luminance value of the block
The DC component calculation unit 16 inputs the component coefficient, adds the DC component coefficients of all the blocks of the corresponding frame at once, and then divides by the number of blocks to calculate the average luminance value of the entire frame. The calculated average luminance value is sent to the inter-frame difference section 18 as it is and is temporarily stored in the calculation result storage section 17a of the storage section 17.

【0023】フレーム間差分部18は、DC成分演算部16
から送られてくる平均輝度値と演算結果格納部17aから
読出す1フレーム分前の平均輝度値との差分を演算す
る。このフレーム間差分は、一般にシーン変化点で突出
した値を示すものであり、算出したフレーム間差分がフ
レーム番号毎に差分結果格納部17bに格納される。
The inter-frame difference section 18 is a DC component calculation section 16
The difference between the average brightness value sent from the device and the average brightness value of one frame before read from the calculation result storage unit 17a is calculated. This inter-frame difference generally indicates a value that stands out at a scene change point, and the calculated inter-frame difference is stored in the difference result storage unit 17b for each frame number.

【0024】動画像データの全フレームに対する上記フ
レーム間差分部18の処理が終了した後、差分結果格納部
17bに格納されている全フレーム分の差分結果は検出部
19に読出され、ここで統計的な手法によりシーン変化点
の検出が行なわれる。具体的には検出部19は、差分結果
の平均値と分散値とを算出し、下記(2)式、すなわ
ち、 [しきい値]=[平均値]+[分散値]×[ブロック画
素定数N] …(2)
After the processing of the inter-frame difference section 18 for all the frames of the moving image data is completed, the difference result storage section
The difference results for all frames stored in 17b are detected by the detection unit.
It is read out to 19, where the scene change point is detected by a statistical method. Specifically, the detection unit 19 calculates the average value and the variance value of the difference result, and the following equation (2), that is, [threshold value] = [average value] + [variance value] × [block pixel constant] N] (2)

【0025】によりしきい値を計算して、全差分結果に
対してしきい値処理を行なう。処理結果は、インデック
ス情報としてシーン番号とフレーム番号、シーンの長さ
(時間)等が検出され、検出結果格納部17cに格納され
る。
The threshold value is calculated in accordance with, and threshold processing is performed on all the difference results. A scene number, a frame number, a scene length (time), and the like are detected as index information, and the processing result is stored in the detection result storage unit 17c.

【0026】検出結果出力部20では、使用者のリクエス
トに応じて検出結果格納部17cよりインデックス情報を
呼び出し、シーン変化点の映像とその他の情報を例えば
マルチ表示により出力する。
The detection result output unit 20 calls the index information from the detection result storage unit 17c in response to the user's request, and outputs the image of the scene change point and other information by, for example, multi-display.

【0027】また、動画像の内容は、シーン毎に動きの
激しいシーン、動きの少ないシーンなど様々なシーンが
時系列に連続しているため、動画像データの全フレーム
に対する上記フレーム間差分部18の出力を差分結果格納
部17bに格納させる代わりに、当該フレームと前後例え
ば30フレームの計61フレーム分の差分結果を差分結
果格納部17bに格納させ、これを検出部19により読出さ
せて、統計的な手法によりシーン変化点の検出を行なわ
せてもよい。具体的には、図2に示すように検出部19
は、差分結果の平均値と分散値とを算出し、上記(2)
式によりしきい値を計算して、全差分結果に対してしき
い値処理を行なうものである。
In addition, since the contents of the moving image are various scenes such as a scene with a lot of motion and a scene with little motion, which are continuous in time series, the inter-frame difference section 18 for all the frames of the moving image data. Instead of storing the output of the above in the difference result storage unit 17b, the difference result for the total 61 frames including the previous frame and the next frame, for example, 30 frames is stored in the difference result storage unit 17b, and this is read out by the detection unit 19 and the The scene change point may be detected by a conventional method. Specifically, as shown in FIG.
Calculates the average value and the variance value of the difference results, and
The threshold value is calculated by the formula, and the threshold processing is performed on all the difference results.

【0028】このように図中に示す如く検出に要するフ
レーム幅を限定してしきい値処理を行なうため、しきい
値を画像の変化に対応させ、特に動きの激しいシーンで
発生しやすい誤検出を減少させることができる。
As described above, since the threshold value processing is performed by limiting the frame width required for detection as shown in the figure, the threshold value is made to correspond to the change of the image, and erroneous detection which is likely to occur particularly in a scene with a lot of movement. Can be reduced.

【0029】なお、上記実施例にあっては動画像データ
を離散コサイン変換し、そのDC成分によりシーン変化
点を求めるようにしたが、離散コサイン変換に限らず他
の直交変換方法でもよく、また、離散コサイン変換のA
C成分を利用することも可能である。さらにはフレーム
全体の平均輝度値を求めるのではなく、分割したフレー
ムの特定部分の平均輝度値を求めることで同様の結果を
得ることができる。その他、本発明はその要旨を逸脱し
ない範囲で種々変形して実施することができる。
In the above embodiment, the moving image data is discrete cosine transformed and the scene change point is obtained by the DC component thereof, but not limited to the discrete cosine transformation, other orthogonal transform methods may be used. , A of discrete cosine transform
It is also possible to utilize the C component. Further, the same result can be obtained by obtaining the average luminance value of the specific portion of the divided frame instead of obtaining the average luminance value of the entire frame. In addition, the present invention can be variously modified and implemented without departing from the scope of the invention.

【0030】[0030]

【発明の効果】以上詳記した如く本発明によれば、動画
像データを直交変換により空間情報圧縮する直交変換部
と、この直交変換部で得られる変換結果の一部を圧縮さ
れた画像の特徴量として記憶する第1の記憶部と、この
第1の記憶部に記憶される画像特徴量の隣接するフレー
ム間の差分を演算する演算部と、この演算部で得られる
差分データを記憶する第2の記憶部と、この第2の記憶
部に記憶される差分データによりシーン変化点を検出す
る検出部とを備えるようにしたので、画像圧縮の仮定で
得られる情報の一部を利用して画像解析としてのシーン
変化点の検出及びインデックス情報の作成を行なうこと
ができるため、上記作業に要する時間及びハードウェア
等のコストを大幅に削減させることができる。
As described above in detail, according to the present invention, an orthogonal transform unit for compressing spatial information of moving image data by orthogonal transform, and an image obtained by compressing a part of the transform result obtained by the orthogonal transform unit are provided. A first storage unit that stores the feature amount, a calculation unit that calculates a difference between adjacent frames of the image feature amount stored in the first storage unit, and a difference data obtained by the calculation unit are stored. Since the second storage unit and the detection unit for detecting the scene change point based on the difference data stored in the second storage unit are provided, a part of the information obtained on the assumption of image compression is used. Since it is possible to detect a scene change point and create index information as image analysis, it is possible to significantly reduce the time required for the above work and the cost of hardware and the like.

【0031】また本発明は、上記検出部が上記第2の記
憶部に記憶される当該フレームとその前後に位置する一
定数幅のフレーム分の差分データによりシーン変化点を
検出するようにしたので、特に動きの激しいシーンで発
生しやすいシーン変化点の誤検出を減少させることがで
きる。
Further, according to the present invention, the detection unit detects the scene change point by the difference data for the frame stored in the second storage unit and the frames of a certain number of widths located before and after the frame. In particular, it is possible to reduce erroneous detection of a scene change point that tends to occur especially in a scene with a lot of movement.

【0032】さらに本発明は、上記検出部が上記第2の
記憶部に記憶される当該フレームとその前に位置する一
定数幅のフレーム分及び当該フレームとその後に位置す
る一定数幅のフレーム分の2種類の差分データによりシ
ーン変化点を検出するようにしたので、動きの激しいシ
ーンから動きの少ないシーンへの変化や、動きの少ない
シーンから動きの激しいシーンへの変化に適確に対応し
て検出を行なうと共に、特に動きの激しいシーンで発生
しやすいシーン変化点の誤検出を減少させることができ
る。
Further, according to the present invention, the detection unit stores the frame stored in the second storage unit and a frame of a fixed width located in front of the frame, and the frame and a frame of a fixed width located after the frame. Since the scene change point is detected by the two types of difference data, it can accurately respond to the change from a scene with a lot of movement to a scene with a little movement, or from a scene with little movement to a scene with a lot of movement. It is possible to reduce the erroneous detection of a scene change point that tends to occur especially in a scene with a lot of movement.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例に係る回路構成を示すブロッ
ク図。
FIG. 1 is a block diagram showing a circuit configuration according to an embodiment of the present invention.

【図2】図1の検出部による他のしきい値の算出方法を
例示する図。
FIG. 2 is a diagram exemplifying another threshold value calculation method by the detection unit of FIG. 1;

【符号の説明】[Explanation of symbols]

11…データ入力部、12…離散コサイン変換(DCT)
部、13…量子化部、14…符号化部、14…符号化部、16…
DC成分演算部、17…記憶部、17a…演算結果格納部、
17b…差分結果格納部、17c…検出結果格納部、18…フ
レーム間差分部、19…検出部、20…検出結果出力部。
11 ... Data input section, 12 ... Discrete cosine transform (DCT)
Unit, 13 ... Quantization unit, 14 ... Encoding unit, 14 ... Encoding unit, 16 ...
DC component calculation unit, 17 ... storage unit, 17a ... calculation result storage unit,
17b ... Difference result storage unit, 17c ... Detection result storage unit, 18 ... Interframe difference unit, 19 ... Detection unit, 20 ... Detection result output unit.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 時間的に連続するフレームの動画像デー
タ中のシーン変化点を検出する動画像処理装置におい
て、 上記動画像データを順次直交変換により空間情報圧縮す
る直交変換手段と、 この直交変換手段で得られる変換結果の一部を圧縮され
た画像の特徴量として記憶する第1の記憶手段と、 この第1の記憶手段に記憶される画像特徴量の隣接する
フレーム間の差分を演算する演算手段と、 この演算手段で得られる差分データを記憶する第2の記
憶手段と、 この第2の記憶手段に記憶される差分データによりシー
ン変化点を検出する検出手段とを具備することを特徴と
した動画像処理装置。
1. A moving image processing apparatus for detecting a scene change point in moving image data of temporally continuous frames, and an orthogonal transform means for compressing spatial information of the moving image data by sequential orthogonal transform, and the orthogonal transform. First storage means for storing a part of the conversion result obtained by the means as the feature quantity of the compressed image, and the difference between the adjacent frame of the image feature quantity stored in the first storage means is calculated. The present invention is characterized by comprising a calculating means, a second storing means for storing difference data obtained by the calculating means, and a detecting means for detecting a scene change point from the difference data stored in the second storing means. Video processing device.
【請求項2】 上記検出手段は上記第2の記憶手段に記
憶される当該フレームとその前後に位置する一定数幅の
フレーム分の差分データによりシーン変化点を検出する
ことを特徴とする請求項1記載の動画像処理装置。
2. The detecting means detects a scene change point based on difference data for the frame stored in the second storage means and a predetermined number of frames located before and after the frame. 1. The moving image processing device according to 1.
JP4033391A 1992-02-20 1992-02-20 Moving image processor Pending JPH05236449A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4033391A JPH05236449A (en) 1992-02-20 1992-02-20 Moving image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4033391A JPH05236449A (en) 1992-02-20 1992-02-20 Moving image processor

Publications (1)

Publication Number Publication Date
JPH05236449A true JPH05236449A (en) 1993-09-10

Family

ID=12385295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4033391A Pending JPH05236449A (en) 1992-02-20 1992-02-20 Moving image processor

Country Status (1)

Country Link
JP (1) JPH05236449A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003519946A (en) * 1999-12-30 2003-06-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for detecting fast-moving scenes
JP2009265453A (en) * 2008-04-28 2009-11-12 Hitachi Ltd Device for presenting smell information combined with visual information

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003519946A (en) * 1999-12-30 2003-06-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for detecting fast-moving scenes
JP4667697B2 (en) * 1999-12-30 2011-04-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for detecting fast moving scenes
JP2009265453A (en) * 2008-04-28 2009-11-12 Hitachi Ltd Device for presenting smell information combined with visual information

Similar Documents

Publication Publication Date Title
JP3244629B2 (en) Scene change point detection method
JP2518503B2 (en) Screen switching detection method
JP5116788B2 (en) Video search device
JP3571974B2 (en) A method for detecting scene changes by processing digital image display video data in a compressed form.
JPH05292463A (en) Method and device for compressing and expanding video through variable word length encoding
JP2000217117A (en) Processing method for digital image expression video data in compression form
JPH08307874A (en) Video signal encoding device
JPH1075457A (en) Moving object detector in moving image
JP2000013744A (en) Time lapse recorder provided with abnormality detection function
JP2002058031A (en) Method and apparatus for encoding image as well as method and apparatus for decoding image
CN113810654A (en) Image video uploading method and device, storage medium and electronic equipment
US20050002569A1 (en) Method and apparatus for processing images
JPH05236458A (en) Moving image processor
JPWO2010084738A1 (en) Collation weight information extraction device
JPH05236449A (en) Moving image processor
JPH07236153A (en) Detection of cut point of moving picture and device for detecting cut picture group
JP3859989B2 (en) Image matching method and image processing method and apparatus capable of using the method
JP2000194727A (en) Device and method for retrieving moving image and recording medium recording moving image retrieval program
EP1244291A2 (en) Moving image compression and cut detection
JP2001145107A (en) Signal processor using dct and image-compressing device
JPH08194714A (en) Retrieval method/device for compressed moving picture
JP2002281508A (en) Skip area detection type moving image encoder and recording medium
JPH1023420A (en) Method and device for detecting movement
JPH1023421A (en) Moving picture processing method
JPH07152779A (en) Processing method for detecting moving picture index and moving picture processor having moving picture index detection processing function

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 12

Free format text: PAYMENT UNTIL: 20080919

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090919

Year of fee payment: 13

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100919

Year of fee payment: 14

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 14

Free format text: PAYMENT UNTIL: 20100919

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 15

Free format text: PAYMENT UNTIL: 20110919

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110919

Year of fee payment: 15