JP2000156819A - Method and device for detecting still image - Google Patents

Method and device for detecting still image

Info

Publication number
JP2000156819A
JP2000156819A JP32904598A JP32904598A JP2000156819A JP 2000156819 A JP2000156819 A JP 2000156819A JP 32904598 A JP32904598 A JP 32904598A JP 32904598 A JP32904598 A JP 32904598A JP 2000156819 A JP2000156819 A JP 2000156819A
Authority
JP
Japan
Prior art keywords
frame
changed
degree
connection
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP32904598A
Other languages
Japanese (ja)
Other versions
JP3799842B2 (en
Inventor
Daisaku Komiya
大作 小宮
Tsutomu Uenoyama
上野山  努
Kazunori Yamada
山田  和範
Hiroaki Yoshio
宏明 由雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP32904598A priority Critical patent/JP3799842B2/en
Publication of JP2000156819A publication Critical patent/JP2000156819A/en
Application granted granted Critical
Publication of JP3799842B2 publication Critical patent/JP3799842B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/004Predictors, e.g. intraframe, interframe coding

Abstract

PROBLEM TO BE SOLVED: To obtain a moving image information detecting method capable of highly accurately detecting an image subjectively felt as an image of small movement from a moving image sequence, and a device for realizing the method. SOLUTION: The device is provided with a frame memory 301 for storing images, a changed block detection means 302 for finding out a changed block from a difference between plural frames, a connection degree calculation means 303 for finding the degree of connection between the frames, an image characteristic judging means 304 for detecting a still image by a previously determined threshold based on the degree of connection between the frames, and a judged result output means 305. Thus the still image can be detected with high sensitivity and high accuracy by using the connection degree of the changing block.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、映像信号の符号化
システムにおける動画像情報を検出する方法と、それを
実施する装置に関し、特に、主観的に動きが少ないと感
じられる映像を一連のシーンの中から検出することを可
能にするものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting moving image information in a video signal encoding system and an apparatus for implementing the method, and more particularly to a method for subjectively perceiving a video image with little motion as a series of scenes. It is possible to detect from among the following.

【0002】[0002]

【従来の技術】近年、デジタル映像信号を扱う機器が増
加し、また、それらの機器で扱うデジタル映像信号のデ
ータ量を削減するための種々の圧縮符号化方式が定めら
れている。
2. Description of the Related Art In recent years, devices handling digital video signals have increased, and various compression encoding methods have been defined to reduce the data amount of digital video signals handled by those devices.

【0003】そうした方式の一つであるMPEG1やM
PEG2は、コンピュータで利用する映像信号に多く用
いられている。この方式では、DCT(離散コサイン変
換)によるフレーム内の空間的な冗長度の削減と、動き
補償によるフレーム間の時間的な冗長度の削減とを組み
合わせて、画像データが圧縮される。
[0003] One of such systems, MPEG1 or M
PEG2 is often used for video signals used in computers. In this method, image data is compressed by combining reduction of spatial redundancy within a frame by DCT (Discrete Cosine Transform) and reduction of temporal redundancy between frames by motion compensation.

【0004】この動き補償による冗長度の削減は、現在
のフレーム画像を符号化する場合に、過去の参照フレー
ム画像から、予測画像を作成し両者の画像データの差分
データを求めて符号化することにより、データ量の削減
を図るものである。
In order to reduce the redundancy by the motion compensation, when encoding the current frame image, a prediction image is created from a past reference frame image, and the difference data between the two image data is obtained and encoded. Thus, the data amount is reduced.

【0005】ところが、参照フレーム画像と現在のフレ
ーム画像の間にシーンチェンジが生じる場合、符号化さ
れるデータの画質の向上を測るため、シーンチェンジの
フレームは動き補償を行わずに強制的にフレーム内圧縮
方法のみに切り替える必要がある。
However, when a scene change occurs between the reference frame image and the current frame image, the frame of the scene change is forcibly changed without performing motion compensation in order to measure the improvement in the image quality of the encoded data. It is necessary to switch to the internal compression method only.

【0006】また、デジタル映像信号を扱う機器の普及
に伴い、デジタル動画を編集、加工する機会が増してき
た。例えば、デジタルビデオカメラなどで撮影した映像
をパーソナルコンピュータに取り込んで、自由に編集、
加工することができる。また、ネットワーク上の映像デ
ータベースにもアクセスしてそれらを取り込み、同様に
編集、加工することができる。
[0006] Further, with the spread of devices that handle digital video signals, opportunities for editing and processing digital moving images have increased. For example, video captured by a digital video camera or the like can be imported to a personal computer and edited freely.
Can be processed. In addition, the user can access the video database on the network, capture the data, and edit and process the data similarly.

【0007】ところが、動画像を編集、加工する際、一
連の動画シーケンスの中のどの部分にどのようなデータ
が存在するかを知る必要が生じる。そこで、多くの動画
編集装置は、動画の中からシーンチェンジを検出し、動
画を各シーンごとに区切りユーザにシーンの変わり目を
提示する機能を備えている。
However, when editing and processing a moving image, it is necessary to know what data exists in which part in a series of moving image sequences. Therefore, many moving image editing apparatuses have a function of detecting a scene change from a moving image, dividing the moving image into scenes, and presenting a user with a scene change.

【0008】以上に述べた二つの要求からシーンチェン
ジ検出装置のような動画情報検出装置が必要とされ、従
来から数多くの動画情報検出方法および装置が提案され
た。一連の動画シーケンスの中から特定のフレームを抽
出する際には、フレーム固有の特徴量もしくは特徴量の
時間的変化を用いるのが一般的である。
[0008] From the two requirements described above, a moving image information detecting device such as a scene change detecting device is required, and a number of moving image information detecting methods and devices have been conventionally proposed. When a specific frame is extracted from a series of moving image sequences, it is general to use a feature amount unique to the frame or a temporal change in the feature amount.

【0009】1989年発行の情報通信学会技術報告に
掲載された外村、阿部による「動画像データベースハン
ドリングに関する検討」(信学技報、IE89-33、pp.49-5
6、1989)では、フレーム特徴量に輝度のヒストグラムを
用い、直前のフレームとの輝度のヒストグラムの差分量
の総和を算出し、その値が大きいときにシーンチェンジ
フレームとする。
Tomomura and Abe published "Technical Report on Video Database Handling" published in the 1989 Technical Report of the Institute of Information and Communication Engineers (IEICE Technical Report, IE89-33, pp.49-5).
6, 1989), a luminance histogram is used as a frame feature value, and the sum of differences between the luminance histogram and the immediately preceding frame is calculated. When the difference is large, the scene change frame is determined.

【0010】特開平6-133305号公報では、動画データに
圧縮が施された場合の動画情報検出方法に関し、フレー
ム特徴量に各フレームの符号量を用い、直前のフレーム
との符号量の差分値を算出し、その値が検出条件以上の
ときにシーンチェンジフレームとする。
Japanese Unexamined Patent Publication No. Hei 6-133305 relates to a moving image information detecting method in which moving image data is compressed, using a code amount of each frame as a frame feature amount, and calculating a difference value of the code amount from the immediately preceding frame. Is calculated, and when the value is equal to or greater than the detection condition, the scene change frame is set.

【0011】特開平5-37853号公報では、フレーム特徴
量に変化画素の面積を用いている。この動画情報検出方
法を図15を用いて簡単に説明する。図15は、動画の
カット自動分割装置の構成図である。動画のカット自動
分割装置は、動画入力手段2001と変化画素面積算出部20
02とシーンチェンジ判定部2003とシーンチェンジフレー
ム出力手段2004とを具備している。
In Japanese Patent Application Laid-Open No. 5-37853, the area of a changing pixel is used as a frame feature amount. This moving image information detection method will be briefly described with reference to FIG. FIG. 15 is a configuration diagram of a moving image automatic dividing apparatus. The moving image automatic dividing apparatus includes a moving image input unit 2001 and a changing pixel area calculating unit 20.
02, a scene change determination unit 2003, and a scene change frame output unit 2004.

【0012】次に、この動画情報検出方法を簡単に説明
する。動画入力手段2001は入力したフレームを順次変化
画素面積算出部2002に送る。変化画素面積算出部2002は
今送られて来たフレームとその直前に送られてきたフレ
ームの画素ごとの差分を求め、その値が第一のしきい値
以上である画素を変化画素とする。そして各フレームご
とに変化画素の数を算出し、変化画素の面積A(N)として
シーンチェンジ判定部2003に送る。Nはフレームの番号
である。シーンチェンジ判定部2003は、A(N) -A(N-1) >
B かつ A(N+1) - A(N) < -B の条件を満たすときにNを
シーンチェンジフレームと判定する。Bは、第二のしき
い値である。シーンチェンジフレーム出力手段2004は、
シーンチェンジ判定部2003から送られたシーンチェンジ
フレーム番号を出力する。
Next, this moving picture information detecting method will be briefly described. The moving image input unit 2001 sequentially sends the input frames to the changing pixel area calculation unit 2002. The changed pixel area calculation unit 2002 obtains a difference between each pixel of the currently transmitted frame and that of the immediately preceding frame, and determines a pixel whose value is equal to or larger than the first threshold value as a changed pixel. Then, the number of changed pixels is calculated for each frame and sent to the scene change determination unit 2003 as the area A (N) of the changed pixels. N is the frame number. The scene change determination unit 2003 calculates A (N) -A (N-1)>
When B and A (N + 1) −A (N) <− B, N is determined to be a scene change frame. B is a second threshold. Scene change frame output means 2004
The scene change frame number sent from the scene change determination unit 2003 is output.

【0013】また、シーンチェンジ検出装置のような動
画情報検出装置が必要とされる一方で、テレビ電話やテ
レビ会議などをはじめとして、主観的に動きが少ないと
感じられる映像(静的映像)を検出する動画情報検出装
置も必要になってきた。インターネットやISDNのような
伝送帯域が限られたネットワークを使って動画を送信す
る際、フレームレートを落とすか、フレームの解像度や
フレームの画質といった各フレームの情報量を落とすこ
とで低ビットレート動画圧縮を行なう。ところが、前者
の場合、コマ送りのような動きのぎこちない映像になっ
てしまい、後者の場合、画質の著しく低下した見づらい
映像になってしまう。
[0013] Also, while a moving picture information detecting device such as a scene change detecting device is required, a video (static video) which is subjectively perceived as having little movement, such as a videophone or a video conference, is required. A moving image information detecting device for detection has also been required. When transmitting video over networks with limited transmission bandwidth, such as the Internet or ISDN, lower bit rate video compression by reducing the frame rate or reducing the amount of information in each frame such as frame resolution and frame image quality Perform However, in the former case, the image becomes awkward, such as frame-by-frame movement, and in the latter case, the image quality is remarkably deteriorated, making it difficult to view.

【0014】[0014]

【発明が解決しようとする課題】動画シーケンスから静
的映像を検出する際、特開平5-37853号公報に代表され
る従来の動画情報検出方法は、シーンチェンジ判定部20
03での判定条件などを調整しても精度よく静的映像を検
出するのが難しいという問題点がある。通常映像、静的
映像、動的映像の混在した動画シーケンスを入力した場
合、従来の動画情報検出装置は、動的映像に対しては敏
感にピークが立つが、静的映像に対しては通常映像より
若干出力が小さくなるが両者に大きな違いはなく、しき
い値による静的映像の判別は難しい。
When a static image is detected from a moving image sequence, a conventional moving image information detecting method represented by Japanese Patent Application Laid-Open No. 5-37853 discloses a scene change determining section 20.
There is a problem in that it is difficult to accurately detect a static image even if the determination conditions in 03 are adjusted. When a video sequence in which a normal video, a static video, and a dynamic video are mixed is input, the conventional video information detection device peaks sensitively for a dynamic video, but normally for a static video. Although the output is slightly smaller than that of the video, there is no significant difference between them, and it is difficult to determine the static video by the threshold.

【0015】本発明は、こうした従来の問題点を解決す
るものであり、動画シーケンスの中から静的映像を高精
度で検出することができる動画情報検出方法を提供し、
その方法を実施する装置を提供することを目的としてい
る。
The present invention is to solve such a conventional problem, and provides a moving picture information detecting method capable of detecting a static picture from a moving picture sequence with high accuracy.
It is intended to provide an apparatus for performing the method.

【0016】[0016]

【課題を解決するための手段】そこで、本発明の静的映
像検出方法では、まず最初にフレーム間の差分により変
化ブロックを求め、フレーム内に複数存在する変化ブロ
ックの中から、隣接8近傍に変化ブロックが存在するも
の(連結しているもの)を順番に統合し変化ブロック群
を作成し、変化ブロック群の結合度からフレームの結合
度を求め、その結合度を用いて静的映像の検出を行な
う。
Therefore, in the static image detection method of the present invention, first, a changed block is obtained from a difference between frames, and a plurality of changed blocks existing in a frame are located near eight adjacent blocks. Change blocks that exist (connected ones) are sequentially integrated to create a change block group, the degree of connection of frames is determined from the degree of connection of the change blocks, and static image detection is performed using the degree of connection. Perform

【0017】この方法では、変化ブロック群の結合度に
よりフレームの結合度を求めるので、静的映像に対して
精度の高い検出を行なうことができる。
According to this method, since the degree of connection between frames is determined based on the degree of connection between groups of changed blocks, highly accurate detection can be performed on a static image.

【0018】また、本発明の静的映像検出方法では、変
化ブロック群を構成する変化ブロックが、非変化ブロッ
クの一部またはその多くを包囲しているとき、当該包囲
された非変化ブロックを変化ブロック群に統合する。
Further, according to the static image detection method of the present invention, when the changed blocks constituting the changed block group surround a part or many of the non-change blocks, the enclosed non-change blocks are changed. Integrate into blocks.

【0019】この方法では、包囲された非変化ブロック
を変化ブロックに修正することで、濃淡値変化が少ない
大きな物体が移動する際生じる誤った変化ブロック群の
結合度を補正し、正確なフレーム結合度を検出すること
ができる。
According to this method, the surrounding non-change block is corrected to a change block, thereby correcting the degree of connection of an erroneous change block group that occurs when a large object having a small change in gray level value moves, and correct frame connection. Degree can be detected.

【0020】また、本発明の静的映像検出方法では、フ
レームを複数の領域に分割し、それらの領域の中から、
最大の結合度を与える変化ブロック群に属する変化ブロ
ックの含まれる個数が最大の領域を次のフレームの結合
度算出対象領域として静的映像検出を行なう。
Further, in the static image detection method of the present invention, a frame is divided into a plurality of regions, and from among these regions,
Static image detection is performed with the area including the largest number of changed blocks belonging to the changed block group that gives the largest connectivity as the connectivity calculation area for the next frame.

【0021】この方法では、フレームの結合度算出対象
領域をフレーム全体から、ある領域に限定するので、静
的映像検出の精度を落とすことなく変化ブロック群の作
成および結合度算出にかかる演算負荷を削減することが
できる。
In this method, the area for calculating the connectivity of a frame is limited to a certain area from the entire frame. Therefore, the calculation load for creating the changing block group and calculating the connectivity is reduced without lowering the accuracy of the static video detection. Can be reduced.

【0022】また、本発明の静的映像検出方法では、フ
レームを複数の領域に分割し、各領域内に含まれる変化
ブロックの個数が最大である領域を次のフレームの結合
度算出対象領域として静的映像検出を行なう。
Further, in the static image detection method of the present invention, the frame is divided into a plurality of regions, and the region where the number of changed blocks included in each region is the maximum is set as the region for calculating the connectivity of the next frame. Perform static video detection.

【0023】この方法では、フレームの結合度算出対象
領域をフレーム全体から、ある領域に限定するので、静
的映像検出の精度を落とすことなく変化ブロック群の作
成および結合度算出にかかる演算負荷を削減することが
できる。
According to this method, the area for calculating the connectivity of a frame is limited to a certain area from the entire frame. Therefore, the calculation load for creating a changing block group and calculating the connectivity is reduced without deteriorating the accuracy of static image detection. Can be reduced.

【0024】[0024]

【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を用いて説明する。なお、本発明はそれら実施
の形態に何等限定されるものではなく、その要旨を逸脱
しない範囲において種々なる態様で実施し得る。
Embodiments of the present invention will be described below with reference to the drawings. The present invention is not limited to these embodiments at all, and can be implemented in various modes without departing from the gist thereof.

【0025】以下の各実施の形態の前提として、本発明
では、映像をいくつかのタイプに分類し、それぞれ異な
る処理を施すことによって低ビットレートの動画圧縮に
おいても見やすい映像に圧縮可能な映像符号化装置を用
いた。この映像符号化装置は、まず最初に入力された映
像信号を、静的映像、動的映像、それ以外の通常映像に
分類する。
As a premise of the following embodiments, in the present invention, a video code which can be compressed into a video which is easy to view even at a low bit rate video compression by classifying the video into several types and performing different processings respectively. Was used. This video encoding device first classifies a video signal input first into a static video, a dynamic video, and other normal video.

【0026】この映像符号化装置は、入力された映像信
号のタイプを分類した後、静的映像に関しては画質優先
の符号化を行なうので、静的映像以外の部分の動画の動
きの滑らかさを損なうことなく、通常の低ビットレート
符号化装置よりも鮮明な映像を提供することができる。
This video encoding apparatus classifies the type of the input video signal and then performs priority on the quality of the static video, so that the smoothness of the motion of the moving image other than the static video is reduced. Without loss, it is possible to provide a clearer image than a normal low bit rate encoding device.

【0027】なお、静的映像とは主観的に動きが少ない
と感じられる映像、例えば一定時間完全に同じ映像であ
る静止映像、フレームに対して動いている領域が極めて
小さい映像、物体が微少振動をしているような映像のこ
とを指すことにする。たとえば、森林を撮影した映像で
木の葉が揺れているような場合が静的映像に分類され
る。
Note that a static image is an image that is subjectively perceived as having little movement, for example, a still image that is completely the same image for a certain period of time, an image in which the moving area is extremely small with respect to a frame, and an object that is slightly vibrated. I will refer to a video that looks like For example, a case where a leaf of a tree sways in an image of a forest is classified as a static image.

【0028】これに対し、動的映像とは、映像が突然切
り替わるシーンチェンジ映像、フレームに対して動いて
いる領域が極めて大きい映像を指すことにする。たとえ
ば、カメラを横に動かしながら撮影した映像は動的映像
に分類される。
On the other hand, a dynamic image refers to a scene change image in which an image suddenly changes, or an image in which a region moving with respect to a frame is extremely large. For example, an image captured while moving the camera sideways is classified as a dynamic image.

【0029】(実施の形態1)第1の実施形態の静的映
像検出方法は、映像信号を低ビットレートの映像信号に
圧縮する映像信号符号化装置の中で実施されている。ま
ず始めに、本実施の形態の映像信号符号化装置の概要に
ついて説明する。
(Embodiment 1) The static video detection method according to the first embodiment is implemented in a video signal encoding apparatus that compresses a video signal into a video signal of a low bit rate. First, an overview of the video signal encoding device according to the present embodiment will be described.

【0030】映像信号符号化装置は、デジタル動画像を
入力とし、エンコーダ部内の映像符号化部で低ビットレ
ートの圧縮画像を作成し出力するものである。また、入
力されたデジタル動画は、静的映像検出部にも送られ静
的映像の検出が行われ、静的映像はエンコーダ部内の静
的映像符号化部で低ビットレートの圧縮画像に符号化さ
れる。そして、静的映像符号化部、映像符号化部の出力
はつなぎ合わされ出力される。
The video signal encoding apparatus receives a digital moving image and creates and outputs a compressed image of a low bit rate by a video encoding unit in an encoder unit. The input digital video is also sent to the static video detector to detect the static video, and the static video is encoded into a low bit rate compressed image by the static video encoder in the encoder. Is done. The outputs of the static video encoding unit and the video encoding unit are connected and output.

【0031】図1は、この映像信号符号化装置の構成を
示すブロック図である。映像信号符号化装置は、入力す
るデジタル画像101を保持するフレームメモリから成る
入力手段102と、静的映像を検出する静的映像検出部103
と、検出されたフレーム番号を用いて低ビットレートの
映像信号に圧縮する静的映像符号化部107、映像符号化
部108からなるエンコーダ部104と、符号化された低ビッ
トレート圧縮画像106を出力する出力手段105とを備えて
いる。
FIG. 1 is a block diagram showing the configuration of the video signal encoding device. The video signal encoding apparatus includes an input unit 102 composed of a frame memory that holds a digital image 101 to be input, and a static video detection unit 103 that detects a static video.
And a static video encoding unit 107 that compresses the video signal at a low bit rate using the detected frame number, an encoder unit 104 including a video encoding unit 108, and an encoded low bit rate compressed image 106. Output means 105 for outputting.

【0032】次に、第一の実施の形態の装置全体の動作
について図2のフローチャートを用いて説明する. Step101: まず入力手段102がデジタル画像を図示しない
内部のフレームメモリに取り込む. Step102: 静的映像検出部103は、入力手段102からフレ
ームを読み込み、静的映像であると判定したフレーム番
号をエンコーダ部104に出力する. Step103: エンコーダ部104は、入力手段102から順番に
フレームを読み込み、 Step104: そのフレームが静的映像と判定された場合
は、静的映像符号化部107がそのフレームの符号化を行
い、 Step105: 静的映像と判定されなかった場合は、映像符
号化部108がそのフレームの符号化を行う. Step106: エンコーダ部104は、静的映像符号化部107も
しくは映像符号化部108によって符号化された各フレー
ムのデータを順番につなぎ合わせ、 Step107: 現在処理し終わったフレームが最終フレーム
でないときは、静的映像検出部103は、次のフレームを
読み込み(Step102)、処理を繰り返す. Step108: エンコーダ部104は、最終フレームの符号化を
終了したのち、符号化データを出力手段105に送る。
Next, the operation of the entire apparatus according to the first embodiment will be described with reference to the flowchart of FIG. Step 101: First, the input means 102 loads a digital image into an internal frame memory (not shown). Step 102: The static video detection unit 103 reads a frame from the input unit 102 and outputs a frame number determined to be a static video to the encoder unit 104. Step 103: the encoder unit 104 reads the frames in order from the input unit 102, Step 104: If the frame is determined to be a static video, the static video encoding unit 107 performs encoding of the frame, Step 105: If it is not determined that the video is a static video, the video encoding unit 108 encodes the frame. Step 106: The encoder unit 104 connects the data of each frame encoded by the static video encoding unit 107 or the video encoding unit 108 in order.Step 107: If the currently processed frame is not the last frame, The static video detection unit 103 reads the next frame (Step 102) and repeats the processing. Step 108: After completing the encoding of the last frame, the encoder unit 104 sends the encoded data to the output unit 105.

【0033】ここで、エンコーダ部104内の映像符号化
部108の処理(Step105)は、通常の低ビットレート動画
像符号化装置と等しく、たとえばH.263,MPEG1,MPEG4な
どを用いることができる。
Here, the process (Step 105) of the video encoding unit 108 in the encoder unit 104 is the same as that of a normal low bit rate video encoding device, and for example, H.263, MPEG1, MPEG4, etc. can be used. .

【0034】つぎに、エンコーダ部104内の静的映像符
号化部107の動作(Step104)について説明する。通常の
低ビットレート動画像符号化装置では、フレーム内予測
符号化のみが行われるイントラフレーム(Iフレーム)
と参照フレームから予測画像を作成しフレーム間予測も
行われるインターフレーム(Pフレーム)に分けて符号
化するのが一般的である。
Next, the operation (Step 104) of the static video encoding unit 107 in the encoder unit 104 will be described. In a normal low bit rate video encoding device, an intra frame (I frame) in which only intra prediction encoding is performed
In general, a predicted image is created from a reference frame, and the encoded image is divided into interframes (P frames) in which inter-frame prediction is also performed.

【0035】静的映像符号化部107は、参照フレームと
そのオリジナルフレームを保持し、これから符号化する
対象となる現フレームが静的映像であると判定される
と、現フレームの符号化は行わず、代わりに参照フレー
ムのオリジナルフレームを現フレームのオリジナルフレ
ームであるとして、Pフレーム符号化を行う。同じソー
ス映像から複数のフレームを符号化することになるの
で、画質を向上させることができる。また、その複数の
フレームの符号化に割り当てる情報量を調整することに
より、静的映像の連続する期間に段階的に静止映像の画
質を向上させることができる。
The static video encoding unit 107 holds the reference frame and its original frame. If it is determined that the current frame to be encoded is a static video, the encoding of the current frame is performed. Instead, the P frame encoding is performed on the assumption that the original frame of the reference frame is the original frame of the current frame. Since a plurality of frames are encoded from the same source video, the image quality can be improved. Further, by adjusting the amount of information allocated to the encoding of the plurality of frames, it is possible to improve the image quality of the still image step by step during the continuous period of the static image.

【0036】つづいて、静的映像検出部103の処理(Ste
p102)について詳しく説明する.図3は、静的映像検出
部103の構成を示すブロック図である。静的映像検出部1
03は、フレームメモリ301と、変化ブロック検出手段302
と、結合度算出手段303と、画像特性判定手段304と、判
定結果出力手段305とを備えている。
Subsequently, the processing (Ste
p102) is explained in detail. FIG. 3 is a block diagram illustrating a configuration of the static video detection unit 103. Static video detector 1
03 is a frame memory 301 and a changed block detecting means 302
, A coupling degree calculating unit 303, an image characteristic determining unit 304, and a determination result output unit 305.

【0037】図4のフローチャートを用い、静的映像検
出部103の動作を説明する. Step201: 静的映像検出部103はフレームnを入力する。
(nはフレーム番号) Step202: nが先頭フレームのときは、 Step203: フレームメモリ301にフレームnを書き込みフ
レーム(n+1)を読み込む(Step201). Step204: nが先頭フレームでないときは、変化ブロッ
ク検出手段302は、フレームメモリ301に蓄積されたフレ
ーム(n-1)とフレームnとを用いてフレーム(n-1)の変化
ブロックを検出し、変化ブロックのマップ情報を結合度
算出手段303に出力する. Step205: フレーム(n-1)は、フレームメモリ303から削
除され、フレームnが新にフレームメモリ301に書き込
まれる. Step206: 結合度算出手段303は、変化ブロック検出手段
302から受け取った変化ブロックのマップ情報をもと
に、変化ブロック群を作成し、そのフレームの結合度を
算出する. Step207: 画像特性判定手段304は、結合度算出手段303
で算出された結合度と、あらかじめ定められたしきい値
とを比較し、判定結果を判定結果出力手段305に出力す
る. Step208: nが最終フレームでないときは、フレーム(n+
1)を読込む(Step201)。
The operation of the static video detection unit 103 will be described with reference to the flowchart of FIG. Step 201: The static video detection unit 103 inputs the frame n.
(N is a frame number) Step 202: If n is the first frame, Step 203: Write frame n to the frame memory 301 and read frame (n + 1) (Step 201). Step 204: When n is not the first frame, the changed block detection means 302 detects a changed block of the frame (n-1) using the frame (n-1) and the frame n stored in the frame memory 301, The map information of the changed block is output to the connection degree calculation means 303. Step 205: The frame (n-1) is deleted from the frame memory 303, and a frame n is newly written in the frame memory 301. Step 206: The connection degree calculating means 303 is a changed block detecting means.
Based on the map information of the changed blocks received from 302, a changed block group is created, and the connectivity of the frames is calculated. Step 207: The image characteristic determining means 304 is the coupling degree calculating means 303
The degree of coupling calculated in step (1) is compared with a predetermined threshold value, and the result of the determination is output to the determination result output means 305. Step208: When n is not the last frame, the frame (n +
1) is read (Step 201).

【0038】次に、変化ブロック検出手段302による変
化ブロック検出処理について説明する。変化ブロック検
出手段302は、フレームメモリ301に貯えられた現フレー
ムと入力された次のフレームとの画素ごとの差分を求め
る。各画素の差分の絶対値があらかじめ定められたしき
い値Aより大きい画素を変化画素とする。そして、フレ
ームの中を一定の大きさのブロックに分割し、各ブロッ
クに含まれる変化画素の数があらかじめ定められたしき
い値Bより多いブロックを変化ブロックとする。
Next, the changed block detection processing by the changed block detection means 302 will be described. The changed block detecting means 302 calculates a difference for each pixel between the current frame stored in the frame memory 301 and the next input frame. A pixel whose absolute value of the difference between the pixels is larger than a predetermined threshold value A is set as a changed pixel. Then, the frame is divided into blocks of a fixed size, and a block in which the number of changed pixels included in each block is larger than a predetermined threshold B is set as a changed block.

【0039】変化ブロック検出手段302は、フレーム内
に属するブロックのうち変化ブロックであるものを1、
非変化ブロックであるものを0とする変化ブロックのマ
ップ情報を作成し出力する。なお、変化ブロックの判定
方法として、各画素の差分の絶対値を各ブロックごとに
足し合わせ、その値があらかじめ定められたしきい値C
より大きいブロックを変化ブロックとすることもでき
る。
The changed block detecting means 302 detects one of the blocks belonging to the frame that is a changed block,
The map information of the changed block in which the non-changed block is set to 0 is created and output. In addition, as a method of determining a changed block, the absolute value of the difference of each pixel is added for each block, and the value is added to a predetermined threshold C.
Larger blocks can also be changed blocks.

【0040】次に、結合度算出手段303による結合度算
出処理について説明する。結合度算出手段303は、変化
ブロック検出手段302より変化ブロックのマップ情報を
得る。図5に変化ブロックのマップ情報を示す。黒いブ
ロックが変化ブロックである。結合度算出手段303は、
左上のブロックから右下のブロックへと注目ブロックを
順番にずらしていく。注目ブロックが、変化ブロックで
ある場合に、注目ブロックの隣接8近傍のブロックが変
化ブロックであるか調べ、変化ブロックである場合には
同じ変化ブロック群に統合する。
Next, the coupling degree calculation processing by the coupling degree calculation means 303 will be described. The coupling degree calculation unit 303 obtains map information of the changed block from the changed block detection unit 302. FIG. 5 shows map information of the changed block. The black blocks are change blocks. The coupling degree calculation means 303
The target block is shifted in order from the upper left block to the lower right block. If the block of interest is a changed block, it is checked whether blocks adjacent to the block 8 adjacent to the block of interest are changed blocks.

【0041】以上の統合の結果、図5の変化ブロックの
マップ情報から3つの変化ブロック群(a),(b),(c)が得
られる。結合度算出手段303は、つづいて変化ブロック
群に含まれる変化ブロックの個数を調べ、その個数をそ
の変化ブロック群の結合度とする。そして、フレームに
含まれる変化ブロック群のなかで最大の結合度をそのフ
レームの結合度とする。
As a result of the above integration, three changed block groups (a), (b) and (c) are obtained from the map information of the changed blocks in FIG. Subsequently, the connection degree calculating unit 303 checks the number of changed blocks included in the changed block group, and sets the number as the connection degree of the changed block group. Then, the maximum degree of connection among the changed blocks included in the frame is set as the degree of connection of the frame.

【0042】このように、本実施の形態の静的映像検出
では、フレームの結合度を求めることで静的映像かどう
かを判定する。図6に、従来の変化画素面積による画像
情報検出方法と、本実施例の検出方法の出力結果を示
す。
As described above, in the static image detection according to the present embodiment, whether or not the image is a static image is determined by calculating the degree of connection between frames. FIG. 6 shows the output result of the conventional image information detecting method based on the changing pixel area and the detecting method of the present embodiment.

【0043】図6の(a),(b),(c),(d)は、フレーム内の変
化画素を示す。図6の(A),(B)はそれぞれフレームの変
化画素面積に対する従来の変化画素面積による画像情報
検出方法と、本実施の形態の検出方法の出力を示すグラ
フである。図6(A)では、出力はフレーム内の変化画素
の面積であるので、フレーム(a),(b),(c)ではほとんど
同じとなる。一方フレーム(d)では変化画素の面積が大
きいので突出した出力となる。また、図6(B)ではフレ
ーム(b),(c),(d)は、ある程度の結合度を有するが、フ
レーム(a)の結合度は極めて小さくなる。このグラフ図
6(A),図6(B)より、あらかじめ定められたしきい値に
よって画像情報を検出しようとする際、また図6(B)で
は静的映像に対する感度がよく、それらの映像を一連の
画像シーケンスから精度よく検出できることがわかる。
(A), (b), (c), and (d) of FIG. 6 show changed pixels in the frame. FIGS. 6A and 6B are graphs showing the output of the conventional image information detection method based on the changed pixel area with respect to the changed pixel area of the frame, and the output of the detection method of the present embodiment. In FIG. 6A, the output is the area of the changed pixel in the frame, so that the output is almost the same in frames (a), (b), and (c). On the other hand, in the frame (d), the output is prominent because the area of the changed pixel is large. In FIG. 6B, the frames (b), (c), and (d) have a certain degree of coupling, but the coupling of the frame (a) is extremely small. 6 (A) and 6 (B), when trying to detect image information with a predetermined threshold value, and FIG. 6 (B), the sensitivity to static images is good, Can be accurately detected from a series of image sequences.

【0044】このように、本実施の形態の静的映像検出
では、フレームの結合度を求め、その値を用いて画像情
報の判定をするため、静的映像に対して感度がよく精度
が高い検出をすることができる。
As described above, in the static image detection according to the present embodiment, since the degree of connection between frames is obtained and the image information is determined using the obtained value, the sensitivity is high with respect to the static image and the accuracy is high. Can be detected.

【0045】(実施の形態2)第2の実施形態の静的映
像検出方法は、映像信号を低ビットレートの映像信号に
圧縮する映像信号符号化装置の中で実施されている。映
像信号符号化装置は、第1の実施の形態の図1の構成と
全く同じであるが、静的映像検出部103の内部の構成お
よび動作が異なる。
(Embodiment 2) The static image detecting method according to the second embodiment is implemented in a video signal encoding apparatus for compressing a video signal into a video signal of a low bit rate. The video signal encoding device is exactly the same as the configuration in FIG. 1 of the first embodiment, but differs in the internal configuration and operation of the static video detection unit 103.

【0046】本実施例の静的映像検出部の処理について
詳しく説明する.図8は、静的映像検出部の構成を示す
ブロック図である。静的映像検出部は、フレームメモリ
801と、変化ブロック検出手段802と、結合度算出手段80
4と、画像特性判定手段805と、判定結果出力手段806
と、変化ブロック補填手段803とを備えている。
The processing of the static image detecting section of this embodiment will be described in detail. FIG. 8 is a block diagram illustrating a configuration of the static video detection unit. The static video detector is a frame memory
801, change block detection means 802, and coupling degree calculation means 80
4, image characteristic determination means 805, and determination result output means 806
And change block compensation means 803.

【0047】図9のフローチャートを用い、静的映像検
出部の動作を説明する. Step301: 静的映像検出部はフレームnを入力する。n
はフレーム番号である. Step302: nが先頭フレームのときは、 Step303: フレームメモリ801にフレームnを書き込みフ
レーム(n+1)を読み込む(Step301). Step304: nが先頭フレームでないときは、変化ブロッ
ク検出手段802は、フレームメモリ801に蓄積されたフレ
ーム(n-1)とフレームnとを用いてフレーム(n-1)の変化
ブロックを検出し、変化ブロックのマップ情報を変化ブ
ロック補填手段803に出力する. Step305: フレーム(n-1)は、フレームメモリ801から削
除され、フレームnが新にフレームメモリ801に書き込
まれる. Step306: 変化ブロック補填手段803は、変化ブロック検
出手段802から受け取った変化ブロックのマップ情報を
もとに、変化ブロックの補填を行いマップ情報を書き直
す. Step307: 結合度算出手段804は、変化ブロック補填手段
803で更新された変化ブロックのマップ情報をもとに、
変化ブロック群を作成し、そのフレームの結合度を算出
する. Step308: 画像特性判定手段805は、結合度算出手段804
で算出された結合度と、あらかじめ定められたしきい値
とを比較し、判定結果を判定結果出力手段806に出力す
る. Step309: nが最終フレームでないときは、フレーム(n+
1)を読込む(Step301)。
The operation of the static video detector will be described with reference to the flowchart of FIG. Step 301: The static image detecting unit inputs the frame n. n
Is the frame number. Step 302: If n is the first frame, Step 303: Write frame n to frame memory 801 and read frame (n + 1) (Step 301). Step 304: When n is not the first frame, the changed block detection means 802 detects the changed block of the frame (n-1) using the frame (n-1) and the frame n stored in the frame memory 801. The map information of the changed block is output to the changed block compensation means 803. Step 305: The frame (n-1) is deleted from the frame memory 801 and a frame n is newly written in the frame memory 801. Step 306: The changed block compensation means 803 compensates for the changed block based on the map information of the changed block received from the changed block detection means 802 and rewrites the map information. Step 307: The coupling degree calculating means 804 is a changed block compensation means
Based on the map information of the changed block updated in 803,
Create a changing block group and calculate the degree of connection of the frame. Step 308: The image characteristic determining means 805 is the coupling degree calculating means 804
Then, the degree of coupling calculated in is compared with a predetermined threshold value, and the determination result is output to the determination result output means 806. Step 309: If n is not the last frame, frame (n +
1) is read (Step 301).

【0048】次に、変化ブロック補填手段803における
変化ブロックの補填処理について説明する.図10は、
変化ブロック検出手段802から入力される変化ブロック
のマップ情報および変化ブロック補填手段803で変化ブ
ロックを補填した後のマップ情報を示す。変化ブロック
補填手段803は、変化ブロックのマップ情報のなかか
ら、変化ブロックに上下左右の4近傍を完全に囲まれて
いる非変化ブロック群を検出し、それらの非変化ブロッ
クを変化ブロックとし、マップ情報を書き換える。図1
0(A)では、変化ブロック群(a),(d)は変化ブロックに完
全に囲まれている非変化ブロックをそれぞれ2個、1個
有する。よって変化ブロック補填手段803は、変化ブロ
ックの補填を行い、図10(B)のようにマップ情報を更
新する。結合度算出手段804は、この更新されたマップ
情報をもとにフレームの結合度を求める。
Next, a description will be given of a process of supplementing a changed block in the changed block supplementing means 803. FIG.
The map information of the changed block inputted from the changed block detecting means 802 and the map information after the changed block is supplemented by the changed block supplementing means 803 are shown. The changed block compensation means 803 detects, from the map information of the changed blocks, a group of non-changed blocks completely surrounding the four neighborhoods of the changed block in the upper, lower, left, and right directions, and sets those non-changed blocks as changed blocks. Rewrite information. FIG.
At 0 (A), the changed block groups (a) and (d) each have two and one non-changed block completely surrounded by the changed blocks. Therefore, the changed block compensation unit 803 compensates for the changed block and updates the map information as shown in FIG. The coupling degree calculating means 804 calculates the coupling degree of the frames based on the updated map information.

【0049】ここでフレーム間の変化画素について考え
てみる。フレームの中を濃淡変化が少ない大きな物体が
動くとき、フレーム間の変化画素は物体の境界の周辺に
しか発生しないことになる。そのような状況では、物体
中央の濃淡変化が少ない部分では、物体が動いているに
も拘わらず変化画素が現れないので、精度の高い画像情
報検出を行なうためには変化画素を補う必要が生じる。
Here, consider a changing pixel between frames. When a large object with little shading changes in a frame, a change pixel between frames occurs only around the boundary of the object. In such a situation, in the part where the shading change is small at the center of the object, the changed pixel does not appear even though the object is moving, so it is necessary to supplement the changed pixel in order to perform highly accurate image information detection. .

【0050】本実施の形態の静的映像検出方法では、変
化ブロックを結合度の検出に用いているので、上述した
ような変化ブロックの補填を行なうことで、変化ブロッ
ク群の結合度を補正し、正確なフレーム結合度を検出す
ることができる。
In the static image detection method according to the present embodiment, since the changed blocks are used for detecting the degree of continuity, the degree of continuity of the group of changed blocks is corrected by compensating for the changed blocks as described above. , An accurate frame coupling degree can be detected.

【0051】なお、変化ブロックの補填の基準として、
非変化ブロック群の外周を構成する辺を「完全に」包囲
している場合(水平・垂直方向を全部包囲している場
合)を説明したが、何もこれに限らず、水平・垂直方向
の例えば80%以上を包囲している場合、水平・垂直方
向を60%以上かつ斜め方向を包囲している場合、など
「包囲」の態様は様々である(図7参照)。
Note that as a criterion for supplementing the changed block,
Although the case where the sides forming the outer periphery of the non-change block group are completely surrounded (the case where all the horizontal and vertical directions are surrounded) has been described, the present invention is not limited to this. For example, there are various modes of “surrounding” such as enclosing 80% or more, encircling 60% or more in the horizontal and vertical directions and obliquely (see FIG. 7).

【0052】より具体的な手法として、例えば次のよう
な方法が考えられる。変化ブロック群の各ブロックに対
して最も遠いブロックまでの距離を求める。その距離が
最長となる距離Aを生成するブロックを両端ブロックと
する。両端ブロックを直線で結び直線上に存在する非変
化ブロックを変化ブロックに変える。その後、両端ブロ
ックの距離を補填されたブロックの方向で求め、その距
離を距離Bとする。
As a more specific method, for example, the following method can be considered. The distance to the farthest block is determined for each block in the changing block group. A block that generates the distance A with the longest distance is defined as a block on both ends. Both end blocks are connected by a straight line, and a non-change block existing on the straight line is changed into a change block. Thereafter, the distance between both end blocks is obtained in the direction of the supplemented block, and the distance is set as the distance B.

【0053】(距離A)/(距離A+距離B)>n(但
し、0<n<1) を「変化ブロック補填」の基準とする。上式を満たさな
い時、先に変更した変化ブロックを非変化ブロックに戻
す。また上式を満たす時、新たに完全に包囲された非変
化ブロックの補填を行う。
(Distance A) / (Distance A + Distance B)> n (where 0 <n <1) is used as a reference for “change block compensation”. When the above expression is not satisfied, the changed block changed earlier is returned to the non-changed block. When the above expression is satisfied, a newly completely enclosed non-change block is compensated.

【0054】(実施の形態3)第3の実施形態の静的映
像検出方法は、映像信号を低ビットレートの映像信号に
圧縮する映像信号符号化装置の中で実施されている。映
像信号符号化装置は、第1の実施の形態の図1の構成と
全く同じであるが、静的映像検出部103の内部の構成お
よび動作が異なる。
(Embodiment 3) The static image detection method according to the third embodiment is implemented in a video signal encoding apparatus for compressing a video signal into a video signal of a low bit rate. The video signal encoding device is exactly the same as the configuration in FIG. 1 of the first embodiment, but differs in the internal configuration and operation of the static video detection unit 103.

【0055】本実施の形態の静的映像検出部の処理につ
いて詳しく説明する.図11は、静的映像検出部の構成
を示すブロック図である。静的映像検出部は、フレーム
メモリ1101と、変化ブロック検出手段1102と、結合度算
出手段1103と、画像特性判定手段1105と、判定結果出力
手段1106と、領域情報処理手段と1104とを備えている。
The processing of the static image detecting unit according to this embodiment will be described in detail. FIG. 11 is a block diagram illustrating a configuration of the static video detection unit. The static video detection unit includes a frame memory 1101, a changed block detection unit 1102, a coupling degree calculation unit 1103, an image characteristic determination unit 1105, a determination result output unit 1106, an area information processing unit and 1104. I have.

【0056】図12のフローチャートを用い、静的映像
検出部の動作を説明する. Step401: 静的映像検出部はフレームnを入力する。n
はフレーム番号である. Step402: nが先頭フレームのときは、 Step403: フレームメモリにフレームnを書き込みフレー
ム(n+1)を読み込む(Step401). Step404: nが先頭フレームでないときは、変化ブロッ
ク検出手段1102は、フレームメモリ1101に蓄積されたフ
レーム(n-1)とフレームnとを用いてフレーム(n-1)の変
化ブロックを検出し、変化ブロックのマップ情報を結合
度算出手段1103に出力する. Step405: フレーム(n-1)は、フレームメモリ1101から削
除され、フレームnが新にフレームメモリ1101に書き込
まれる. Step406: フレーム(n-1)が先頭フレームであるとき、
(具体的には、2番目のフレームの時で、それ以降は必
ず指定領域があるので、まず指定領域を指定し、なけれ
ばフレーム全体を指定することになる.) Step407: 結合度算出手段1103は、変化ブロック検出手
段1102から受け取った変化ブロックのマップ情報をもと
に、変化ブロック群を作成し、そのフレームの結合度を
算出し、結合度および変化ブロック群情報を領域情報処
理手段1104に出力する. Step408: また、フレーム(n-1)が先頭フレームでないと
き、結合度算出手段1103は、領域情報処理手段1104から
指定された領域の変化ブロック群の結合度を求め、その
領域で最大の結合度を領域情報処理手段1104に出力する Step409: 領域情報処理手段1104は、指定した領域で最
大の結合度があらかじめ定められたしきい値以上である
とき、その結合度をそのフレームの結合度として、画像
特性判定手段1105に出力する。また、しきい値以上でな
いとき、領域情報処理手段1104は結合度算出対象領域を
フレーム全体に戻し、結合度算出手段1103に再び結合度
を算出(Step407)するように要求する. Step410: 画像特性判定手段1105は、領域情報処理手段1
104から出力されたフレームの結合度と、あらかじめ定
められたしきい値とを比較し、判定結果を判定結果出力
手段1106に出力する. Step411: nが最終フレームでないときは、フレーム(n+
1)を読込む(Step401)。
The operation of the static video detector will be described with reference to the flowchart of FIG. Step 401: The static image detecting unit inputs the frame n. n
Is the frame number. Step 402: If n is the first frame, Step 403: Write frame n to the frame memory and read frame (n + 1) (Step 401). Step 404: When n is not the first frame, the changed block detecting means 1102 detects a changed block of the frame (n-1) using the frame (n-1) and the frame n stored in the frame memory 1101, The map information of the changed block is output to the connection degree calculating unit 1103. Step 405: The frame (n-1) is deleted from the frame memory 1101, and the frame n is newly written in the frame memory 1101. Step406: When frame (n-1) is the first frame,
(Specifically, at the time of the second frame, since there is always a designated area, the designated area is designated first, otherwise the entire frame is designated.) Step 407: Coupling degree calculating means 1103 Based on the map information of the changed blocks received from the changed block detection means 1102, create a changed block group, calculate the degree of connection of the frame, the connection degree and changed block group information to the area information processing means 1104 Output. Step 408: When the frame (n-1) is not the first frame, the connection degree calculating unit 1103 obtains the connection degree of the changed block group in the area specified by the area information processing unit 1104, and obtains the maximum connection degree in the area. Step 409: When the maximum degree of coupling in the specified area is equal to or greater than a predetermined threshold, the area information processing unit 1104 uses the degree of coupling as the degree of coupling of the frame. Output to the image characteristic determination means 1105. If it is not equal to or larger than the threshold value, the area information processing means 1104 returns the connection degree calculation target area to the entire frame, and requests the connection degree calculation means 1103 to calculate the connection degree again (Step 407). Step 410: The image characteristic determining means 1105 is the area information processing means 1.
The degree of connection of the frames output from 104 is compared with a predetermined threshold value, and the determination result is output to determination result output means 1106. Step 411: When n is not the last frame, the frame (n +
1) is read (Step 401).

【0057】次に、結合度算出手段1103と領域情報処理
手段1104にかかわる動作(Step406からStep409)につい
て図13を用いて詳しく説明する。
Next, the operations (Steps 406 to 409) relating to the connection degree calculating means 1103 and the area information processing means 1104 will be described in detail with reference to FIG.

【0058】領域情報処理手段1104は、図13(A)に示
すようにフレームを等しいいくつかの大きさに分割し
て、それぞれの領域を領域IDによって区別する。図13
では、例としてフレームを9個に分割し、1から9の領
域IDをつけている。また、領域ID0はフレーム全体を指
すものと定める。そして、領域情報処理手段1104は、結
合度算出手段1103に変化ブロック群の結合度を求める領
域IDを知らせ、結合度算出手段1103はその領域から結合
度を求める。
The area information processing means 1104 divides the frame into several equal sizes as shown in FIG. 13A, and distinguishes each area by the area ID. FIG.
In this example, the frame is divided into nine frames, and the region IDs 1 to 9 are assigned. Also, it is determined that the area ID 0 indicates the entire frame. Then, the area information processing means 1104 notifies the connection degree calculating means 1103 of the area ID for obtaining the connection degree of the changed block group, and the connection degree calculation means 1103 obtains the connection degree from the area.

【0059】動画シーケンスの先頭のフレームの変化ブ
ロックのマップ情報が結合度算出手段1103に入力される
とき(Step406)、領域情報処理手段1104は、領域ID0
を指定する。よって結合度算出手段1103は、第1の実施
の形態のようにフレーム全体から変化ブロック群を検出
し、最大の変化ブロック群の結合度を領域情報処理手段
1104に対して出力する。また、これと同時に結合度算出
手段1103は、以降のフレームの探索領域を決定するため
に変化ブロック群の情報も合わせて出力する(Step40
7)。
When the map information of the changed block of the first frame of the moving image sequence is input to the connection degree calculating means 1103 (Step 406), the area information processing means 1104 outputs the area ID 0
Is specified. Therefore, the connection degree calculating unit 1103 detects the changed block group from the entire frame as in the first embodiment, and determines the connection degree of the largest changed block group as the area information processing unit.
Output to 1104. At the same time, the connection degree calculating means 1103 also outputs information on the changed block group in order to determine the search area for the subsequent frames (Step 40).
7).

【0060】領域情報処理手段1104は、受け取った変化
ブロック群の情報から次のフレームの結合度を探索する
領域を決定する。図13(A)は、結合度算出手段1103か
ら受け取った変化ブロック群の情報を示す。フレームの
中には、(a),(b),(c)と3つの変化ブロック群がある。
このとき、領域情報処理手段1104は、結合度が最大であ
る変化ブロック群(a)に着目し、(a)を構成する変化ブロ
ックが最も多く含まれる領域を選択する。ただし、(a)
を構成する変化ブロックが最も多く含まれる領域が複数
存在するようであれば、領域IDが小さい方を優先するな
どとする。このようにして、決定された結合度算出対象
領域の領域IDを結合度算出手段1103に知らせる。
The area information processing means 1104 determines an area in which to search for the connectivity of the next frame from the received information on the changed block group. FIG. 13A shows information on a changed block group received from the connection degree calculation unit 1103. In the frame, there are three groups of changed blocks, (a), (b) and (c).
At this time, the area information processing means 1104 focuses on the changed block group (a) having the largest degree of connection, and selects an area including the largest number of changed blocks constituting (a). However, (a)
If there are a plurality of areas that include the largest number of changed blocks, the smaller area ID is given priority. The area ID of the determined area for calculating the degree of connection is notified to the degree-of-connection calculating means 1103 in this manner.

【0061】図13(B)は、図13(A)の変化ブロック群
情報から決定した結合度算出対象領域を示す。図13
(B)の斜線部の領域ID2が、領域情報処理手段1104によ
って選択されることになる。結合度算出手段1103は、次
フレームの変化ブロックのマップ情報を受け取ると、領
域情報処理手段1104から指示された領域で、変化ブロッ
ク群の検出を行なう。そして、そのとき検出された変化
ブロック群についてのみ領域の外に対しても検出を続け
る。その結果、変化ブロック群に属する変化ブロック
が、はじめに指示された領域内に存在するような変化ブ
ロック群をフレームから検出することができる。検出し
た変化ブロック群の中で最大の結合度を領域情報処理手
段1104に送る(Step408)。
FIG. 13 (B) shows a coupling degree calculation target area determined from the changed block group information of FIG. 13 (A). FIG.
The area ID 2 in the shaded area in (B) is selected by the area information processing means 1104. Upon receiving the map information of the changed block in the next frame, the coupling degree calculating unit 1103 detects a changed block group in the area specified by the area information processing unit 1104. Then, the detection of the changed block group detected at that time is continued even outside the area. As a result, it is possible to detect, from the frame, a changed block group in which a changed block belonging to the changed block group is present in the area designated first. The maximum coupling degree among the detected changed block groups is sent to the area information processing means 1104 (Step 408).

【0062】領域情報処理手段1104は、指定した領域ID
の結合度を結合度算出手段1103から受け取ると、あらか
じめ定められたしきい値Dとの比較を行なう。領域IDの
結合度がしきい値D以上であるときは、その結合度を画
像特性判定手段1105に出力し、結合度算出手段1103に対
して同じ領域IDを指示し、処理を繰り返す。また、領域
IDの結合度がしきい値D以下であるときは、領域情報処
理手段1104は、領域IDを0としそのフレームに対しても
う一度結合度を算出し直すように結合度算出手段1103に
指示する(Step409)。
The area information processing means 1104 stores the specified area ID
Is received from the degree-of-coupling calculating means 1103, a comparison is made with a predetermined threshold value D. If the degree of connection of the area IDs is equal to or greater than the threshold value D, the degree of connection is output to the image characteristic determination unit 1105, the same area ID is instructed to the degree of connection calculation unit 1103, and the processing is repeated. Also the area
When the coupling degree of the ID is equal to or smaller than the threshold value D, the area information processing means 1104 instructs the coupling degree calculating means 1103 to set the area ID to 0 and to calculate the coupling degree again for the frame ( Step409).

【0063】このように、領域情報処理手段1104が結合
度算出手段1103の結合度算出対象の領域を限定すること
により、結合度算出にかかる演算不可を削減することが
できる。また、領域の結合度をしきい値Dと比較するこ
とにより、最終的なフレームの結合度を決定するので、
静的映像検出の感度を落とすこともない。(本実施の形
態の静的映像検出方法は、第1の実施の形態の静的映像
検出方法に比べて、同じ精度で、より高速に静的映像の
検出が行なえる。)前記第3の実施の形態の方法の変形
例として、領域情報処理手段1104は、指定した領域IDの
結合度を結合度算出手段1103から受け取ると、しきい値
Dとの比較を行なうが、その際、領域IDの結合度がしき
い値D以下であるときに、領域情報処理手段1104は、別
な領域IDを指定し、そのフレームに対してもう一度指定
した領域の結合度を算出し直すように結合度算出手段11
03に指示するようにしてもよい。
As described above, the area information processing unit 1104 limits the area for which the connection degree is calculated by the connection degree calculation unit 1103, so that it is possible to reduce the inoperability of the connection degree calculation. Also, by comparing the degree of connection of the area with the threshold value D, the degree of connection of the final frame is determined.
The sensitivity of static image detection is not reduced. (The static video detection method of the present embodiment can detect a static video faster with the same accuracy than the static video detection method of the first embodiment.) As a modification of the method according to the embodiment, the area information processing unit 1104 receives the coupling degree of the designated area ID from the coupling degree calculating unit 1103,
Comparison with D is performed. At this time, when the coupling degree of the region ID is equal to or less than the threshold value D, the region information processing unit 1104 specifies another region ID and specifies again for the frame. Coupling degree calculating means 11 to recalculate the coupling degree of the area
03 may be instructed.

【0064】領域情報処理手段1104が、図13(A)の
ような変化ブロック群の情報を受け取った場合について
考える。領域情報処理手段1104は、受け取った変化ブロ
ック群の情報から次のフレームの結合度を探索する領域
を決定する際に、まず最初に、結合度が最大である変化
ブロック群(a)に着目し、(a)を構成する変化ブロックが
最も多く含まれる領域2を選択する。そして、領域情報
処理手段1104は、結合度が2番目に大きい変化ブロック
群(b)に着目し、同様に(b)を構成する変化ブロックが最
も多く含まれる領域3を選択する。以下同様に、領域情
報処理手段1104は、変化ブロック群(c)に着目し、領域8
を選択する。このようにして、領域情報処理手段1104
は、フレームの中の結合度の高い変化ブロック群から結
合度算出対象領域を決定していき、選択された領域IDを
順番に記憶しておく。
Consider a case where the area information processing means 1104 receives information on a changed block group as shown in FIG. The area information processing means 1104 first determines the area in which to search for the connectivity of the next frame from the received information on the changed blocks, and first focuses on the changed blocks (a) having the largest connectivity. , (A) is selected. Then, the area information processing means 1104 focuses on the changed block group (b) having the second largest coupling degree, and similarly selects the area 3 including the largest number of changed blocks constituting (b). Similarly, the area information processing unit 1104 pays attention to the changed block group (c) and
Select Thus, the area information processing means 1104
Determines the connection degree calculation target region from the changed block group having a high connection degree in the frame, and stores the selected region IDs in order.

【0065】そして、領域情報処理手段1104は、最初に
選択された領域IDから結合度算出手段1103に送り、指定
した領域の結合度を結合度算出手段1103から受け取る
と、しきい値Dとの比較を行なう。もし、受け取った結
合度がしきい値D以下である場合には、記憶している領
域IDから次に選択された領域IDを結合度算出手段1103に
送り、再度領域の結合度を算出させる。領域情報処理手
段1104は、領域の結合度がしきい値D以下である限り、
このような処理を繰り返す。ただし、領域情報処理手段
1104内部に記憶している領域IDがなくなった場合には、
領域ID0を送出する。
Then, the area information processing means 1104 sends the coupling degree of the designated area from the coupling degree calculating means 1103 to the coupling degree calculating means 1103 from the first selected area ID. Make a comparison. If the received coupling degree is equal to or less than the threshold value D, the area ID next selected from the stored area IDs is sent to the coupling degree calculating means 1103, and the coupling degree of the area is calculated again. Area information processing means 1104, as long as the degree of coupling of the area is equal to or less than the threshold D,
Such processing is repeated. However, the area information processing means
If the area ID stored inside 1104 runs out,
The area ID 0 is transmitted.

【0066】このように、領域情報処理手段1104が、結
合度算出対象領域に順番をつけ内部に保持することによ
って、ある領域の結合度がしきい値D以下である場合
に、すぐに結合度算出対象領域をフレーム全体に拡張し
なくてすむので、結合度算出にかかる演算不可をさらに
削減することができる。
As described above, the area information processing unit 1104 places the order of the connection degree calculation target area and holds it inside, so that when the connection degree of a certain area is equal to or smaller than the threshold value D, the connection degree is immediately determined. Since the calculation target area does not need to be extended to the entire frame, it is possible to further reduce the inoperability of the connection degree calculation.

【0067】(実施の形態4)第4の実施形態の静的映
像検出方法は、映像信号を低ビットレートの映像信号に
圧縮する映像信号符号化装置の中で実施されている。映
像信号符号化装置は、第1の実施の形態の図1の構成と
全く同じであるが静的映像検出部103の内部の構成およ
び動作が異なる。
(Embodiment 4) The static video detection method according to the fourth embodiment is implemented in a video signal encoding device for compressing a video signal into a video signal of a low bit rate. The video signal encoding device is exactly the same as the configuration in FIG. 1 of the first embodiment, but differs in the internal configuration and operation of the static video detection unit 103.

【0068】本実施の形態の静的映像検出部の処理につ
いて詳しく説明する.静的映像検出部は、第3の実施の
形態の図11の構成と全く同じであり、動作も図12の
フローチャートと同じであるが、領域情報処理手段1104
における結合度算出対象領域の決定過程が異なる。
The processing of the static image detecting section according to the present embodiment will be described in detail. The static image detection unit is exactly the same as the configuration of FIG. 11 of the third embodiment, and the operation is the same as that of the flowchart of FIG.
Are different from each other in the process of determining the connection degree calculation target region.

【0069】領域情報処理手段における結合度算出対象
領域の決定過程について、図14を用いて詳しく説明す
る.領域情報処理手段は、第3の実施の形態の図13
(A)と同様に、フレームを等しいいくつかの大きさに分
割して、それぞれの領域を領域IDによって区別する。図
14でも、図13と同様にフレームを9個に分割し、1
から9の領域IDをつけたものを例として用いる。また、
領域ID0はフレーム全体を指すものと定める。
The process of determining the area to be calculated for the degree of connection in the area information processing means will be described in detail with reference to FIG. The area information processing means corresponds to FIG. 13 of the third embodiment.
As in (A), the frame is divided into several equal sizes, and each region is distinguished by region ID. Also in FIG. 14, the frame is divided into nine frames as in FIG.
An example in which region IDs from 9 to 9 are assigned is used. Also,
The area ID 0 is determined to indicate the entire frame.

【0070】動画シーケンスの先頭のフレームの変化ブ
ロックのマップ情報が結合度算出手段に入力されると
き、領域情報処理手段は、領域ID0を指定する。よって
結合度算出手段は、第1の実施の形態のようにフレーム
全体から変化ブロック群を検出し、最大の変化ブロック
群の結合度を領域情報処理手段に対して出力する。ま
た、これと同時に結合度算出手段は、以降のフレームの
探索領域を決定するために変化ブロックのマップ情報も
合わせて出力する。
When the map information of the changed block of the first frame of the moving image sequence is input to the coupling degree calculating means, the area information processing means specifies the area ID0. Therefore, the connection degree calculating means detects the changed block group from the entire frame as in the first embodiment, and outputs the maximum connection degree of the changed block group to the area information processing means. At the same time, the degree-of-association calculating means also outputs map information of the changed block in order to determine a search area for a subsequent frame.

【0071】領域情報処理手段は、受け取った変化ブロ
ックのマップ情報から次のフレームの結合度を探索する
領域を決定する。図14(A)は、結合度算出手段から受
け取った変化ブロックのマップ情報を示す。このとき、
領域情報処理手段は、各領域に含まれる変化ブロックの
数を検出し、含まれる変化ブロックの数が最大である領
域を選択する。ただし、変化ブロックが最も多く含まれ
る領域が複数存在するようであれば、領域IDが小さい方
を優先するなどとする。
The area information processing means determines an area to be searched for the coupling degree of the next frame from the received map information of the changed block. FIG. 14A shows map information of a changed block received from the coupling degree calculating means. At this time,
The area information processing means detects the number of changed blocks included in each area, and selects an area having the largest number of changed blocks. However, if there are a plurality of areas including the largest number of changed blocks, the one with the smaller area ID is prioritized.

【0072】このようにして、決定された結合度算出対
象領域の領域IDを結合度算出手段に知らせる。図14
(B)は、図14(A)の変化ブロックのマップ情報から決定
した結合度算出対象領域を示す。図14(B)の斜線部の
領域ID8が、領域情報処理手段によって選択されること
になる。結合度算出手段は、次フレームの変化ブロック
のマップ情報を受け取ると、領域情報処理手段から指示
された領域で、変化ブロック群の検出を行なう。そし
て、そのとき検出された変化ブロック群についてのみ領
域の外に対しても検出を続ける。その結果、変化ブロッ
ク群に属する変化ブロックが、はじめに指示された領域
内に存在するような変化ブロック群をフレームから検出
することができる。検出した変化ブロック群の中で最大
の結合度を領域情報処理手段に送る。
The area ID of the determined area for calculating the degree of connection is notified to the degree of connection calculation means. FIG.
(B) shows the connection degree calculation target area determined from the map information of the changed block in FIG. 14 (A). The area ID 8 in the shaded area in FIG. 14B is selected by the area information processing means. Upon receiving the map information of the changed block in the next frame, the coupling degree calculating means detects a changed block group in the area specified by the area information processing means. Then, the detection of the changed block group detected at that time is continued even outside the area. As a result, it is possible to detect, from the frame, a changed block group in which a changed block belonging to the changed block group is present in the area designated first. The maximum coupling degree among the detected changed block groups is sent to the area information processing means.

【0073】このように、本実施の形態の領域情報処理
手段における結合度算出対象領域は、領域に含まれる変
化ブロックの個数によって判定される。領域に含まれる
変化ブロックの個数が大きいということは、領域内での
変化ブロックの密度が高いということであり、次フレー
ムの変化ブロックのマップ情報において、大きい結合度
をもつ変化ブロック群がその領域に存在する可能性が高
い。
As described above, the connection degree calculation target area in the area information processing means of the present embodiment is determined based on the number of changed blocks included in the area. The fact that the number of changed blocks included in the region is large means that the density of the changed blocks in the region is high. Likely to exist.

【0074】以上のように、領域情報処理手段が結合度
算出手段の結合度算出対象の領域を限定することによ
り、結合度算出にかかる演算不可を削減することができ
る。また、領域の結合度をしきい値Dと比較することに
より、最終的なフレームの結合度を決定するので、動的
映像検出の精度には影響を与えるが、静的映像検出の感
度を落とすこともない。本実施の形態の静的映像検出方
法は、第1の実施の形態の静的映像検出方法に比べて、
同じ精度で、高速に静的映像の検出が行なえる。
As described above, by the area information processing means limiting the area for which the degree of coupling is calculated by the degree of coupling calculation means, it is possible to reduce the inability to perform the calculation for the degree of coupling. In addition, since the final degree of connection of frames is determined by comparing the degree of connection of the area with the threshold value D, the accuracy of dynamic image detection is affected, but the sensitivity of static image detection is reduced. Not even. The static image detection method according to the present embodiment is different from the static image detection method according to the first embodiment in that
Static images can be detected at high speed with the same accuracy.

【0075】前記第4の実施の形態の方法の変形例とし
て、領域情報処理手段は、指定した領域IDの結合度を結
合度算出手段から受け取ると、しきい値Dとの比較を行
なうが、その際、領域IDの結合度がしきい値D以下であ
るときに、領域情報処理手段は、別な領域IDを指定し、
そのフレームに対してもう一度指定した領域の結合度を
算出し直すように結合度算出手段に指示するようにして
もよい。
As a modification of the method of the fourth embodiment, when the area information processing means receives the degree of connection of the designated area ID from the degree of connection calculation means, it compares the degree of connection with the threshold value D. At that time, when the coupling degree of the area ID is equal to or less than the threshold value D, the area information processing means specifies another area ID,
The connection degree calculating means may be instructed to recalculate the connection degree of the specified region for the frame.

【0076】領域情報処理手段が、図14(A)のような
変化ブロックのマップ情報を受け取った場合について考
える。領域情報処理手段は、受け取った変化ブロックの
マップ情報から次のフレームの結合度を探索する領域を
決定する際に、各領域に含まれる変化ブロックの数を検
出し、含まれる変化ブロックの数が大きい領域から順番
に、領域IDを記憶しておく。すなわち、領域8、領域
2、領域5、...のような順番になる。
Consider a case in which the area information processing means receives map information of a changed block as shown in FIG. The area information processing means detects the number of changed blocks included in each area when determining the area to search for the connectivity of the next frame from the received map information of the changed blocks, and determines the number of changed blocks included in each area. The area IDs are stored in order from the largest area. That is, the order is such as region 8, region 2, region 5,...

【0077】そして、記憶された領域IDの先頭から結合
度算出手段に送り、指定した領域の結合度を結合度算出
手段から受け取ると、しきい値Dとの比較を行なう。も
し、受け取った結合度がしきい値D以下である場合に
は、記憶している領域IDから次の領域IDを結合度算出手
段に送り、再度領域の結合度を算出させる。領域情報処
理手段は、領域の結合度がしきい値D以下である限り、
このような処理を繰り返す。ただし、領域情報処理手段
内部に記憶している領域IDがなくなった場合には、領域
ID0を送出する。
Then, the stored area ID is sent from the head of the area ID to the coupling degree calculating means, and when the coupling degree of the designated area is received from the coupling degree calculating means, comparison with the threshold value D is performed. If the received coupling degree is equal to or smaller than the threshold value D, the next area ID is transmitted from the stored area ID to the coupling degree calculating means, and the coupling degree of the area is calculated again. Area information processing means, as long as the degree of connection of the area is equal to or less than the threshold value D,
Such processing is repeated. However, if the area ID stored in the area information processing means is exhausted, the area
Send ID0.

【0078】このように、領域情報処理手段が、結合度
算出対象領域に順番をつけ内部に保持することによっ
て、ある領域の結合度がしきい値D以下である場合に、
すぐに結合度算出対象領域をフレーム全体に拡張しなく
てすむので、結合度算出にかかる演算不可をさらに削減
することができる。
As described above, the region information processing means places the connection degree calculation target regions in order and holds them inside, so that when the connection degree of a certain region is equal to or smaller than the threshold value D,
Since the connection degree calculation target area does not need to be immediately extended to the entire frame, it is possible to further reduce the inoperability of the connection degree calculation.

【0079】なお、本願発明において「フレームの結合
度」なる記載をしたが、これは「フレーム同士の結合の
度合い」という意味ではなく、「そのフレーム中におけ
る変化ブロック同士の接している度合い(数)」という
意味である。
In the present invention, the term “degree of connection between frames” is described, but this does not mean “the degree of connection between frames” but “the degree of contact between changed blocks (number of frames) in the frame. ) ".

【0080】[0080]

【発明の効果】以上の説明から明らかなように、本発明
の静的映像検出方法は、変化ブロックの結合度によりフ
レームの結合度を求めるので、ノイズや意味の無い小物
体が複数ランダムに動いているといった静的映像に対し
て精度の高い検出を行なうことができる。
As is apparent from the above description, in the static image detection method of the present invention, since the degree of connection of frames is determined based on the degree of connection of changed blocks, a plurality of small objects having no noise or meaning move randomly. It is possible to perform highly accurate detection for a static video such as

【0081】また、変化ブロック群を構成する変化ブロ
ックに、主として四方を包囲された非変化ブロックを変
化ブロック群に統合する静的映像検出方法では、変化ブ
ロック群の結合度を補正し、正確なフレーム結合度を検
出することができる。
Further, in the static video detection method in which non-change blocks mainly surrounding four sides are integrated into the change blocks forming the change blocks, the degree of coupling of the change blocks is corrected and accurate. The degree of frame connection can be detected.

【0082】また、フレームを複数の領域に分割し、そ
れらの領域の中から、最大の結合度を与える変化ブロッ
ク群に属する変化ブロックの含まれる個数が最大の領域
を次のフレームの結合度算出対象領域とする静的映像検
出方法では、領域の結合度がしきい値より小さいとき
は、結合度算出対象領域をフレーム全体にもどして算出
しなおすので、静的映像検出の精度を落とすことなく、
また結合度算出対象領域を限定することにより、静的映
像検出にかかる演算負荷を削減することができる。
Further, the frame is divided into a plurality of regions, and from those regions, the region containing the largest number of changed blocks belonging to the changed block group giving the highest degree of connection is calculated as the connection degree of the next frame. In the static video detection method with the target area, when the degree of connection of the areas is smaller than the threshold value, the connection degree calculation target area is returned to the entire frame and recalculated, so that the accuracy of the static image detection is not reduced. ,
In addition, by limiting the coupling degree calculation target area, it is possible to reduce the calculation load required for static video detection.

【0083】また、フレームを複数の領域に分割し、各
領域内に含まれる変化ブロックの個数が最大である領域
を次のフレームの結合度算出対象領域とする静的映像検
出方法では、領域の結合度がしきい値より小さいとき
は、結合度算出対象領域をフレーム全体にもどして算出
しなおすので、静的映像検出の精度を落とすことなく、
また結合度算出対象領域を限定することにより、静的映
像検出にかかる演算負荷を削減することができる。
In the static video detection method, a frame is divided into a plurality of regions, and the region in which the number of changed blocks included in each region is the maximum is set as the region for calculating the connectivity of the next frame. When the coupling degree is smaller than the threshold value, the coupling degree calculation target area is returned to the entire frame and recalculated, so that the accuracy of the static video detection is not reduced.
In addition, by limiting the coupling degree calculation target area, it is possible to reduce the calculation load required for static video detection.

【図面の簡単な説明】[Brief description of the drawings]

【図1】第1の実施形態における低ビットレート動画符
号化装置の構成を示すブロック図
FIG. 1 is a block diagram illustrating a configuration of a low bit rate video encoding device according to a first embodiment.

【図2】第1の実施形態における低ビットレート動画符
号化装置全体の動作を示す流れ図
FIG. 2 is a flowchart showing the operation of the entire low bit rate moving image encoding apparatus according to the first embodiment;

【図3】第1の実施形態における静的映像検出部の構成
を示すブロック図
FIG. 3 is a block diagram illustrating a configuration of a static video detection unit according to the first embodiment.

【図4】第1の実施形態における静的映像検出部の動作
を示す流れ図
FIG. 4 is a flowchart illustrating an operation of a static image detection unit according to the first embodiment.

【図5】第1の実施形態における変化ブロック検出手段
の出力である変化ブロックのマップ情報の例を示す図
FIG. 5 is a diagram showing an example of changed block map information which is an output of a changed block detection unit according to the first embodiment.

【図6】従来の画像情報検出方法と第1の実施形態にお
ける検出方法の出力結果の違いを説明する説明図
FIG. 6 is an explanatory diagram illustrating a difference between an output result of a conventional image information detection method and an output result of the detection method according to the first embodiment.

【図7】第2の実施形態における変化ブロック補填対象
パターンの例図
FIG. 7 is a diagram illustrating an example of a changed block compensation target pattern according to the second embodiment;

【図8】第2の実施形態における静的映像検出部の構成
を示すブロック図
FIG. 8 is a block diagram illustrating a configuration of a static image detection unit according to the second embodiment.

【図9】第2の実施形態における静的映像検出部の動作
を示す流れ図
FIG. 9 is a flowchart illustrating an operation of a static image detection unit according to the second embodiment.

【図10】第2の実施形態における変化ブロック補填手
段による変化ブロックのマップ情報補填の例を示す図
FIG. 10 is a diagram illustrating an example of supplementing map information of a changed block by a changed block compensation unit according to the second embodiment.

【図11】第3の実施形態における静的映像検出部の構
成を示すブロック図
FIG. 11 is a block diagram illustrating a configuration of a static image detection unit according to the third embodiment.

【図12】第3の実施形態における静的映像検出部の動
作を示す流れ図
FIG. 12 is a flowchart illustrating an operation of a static image detection unit according to the third embodiment.

【図13】第3の実施形態における領域情報処理手段に
よる結合度算出対象領域の検出の例を示す図
FIG. 13 is a diagram illustrating an example of detection of a connection degree calculation target region by the region information processing unit according to the third embodiment.

【図14】第4の実施形態における領域情報処理手段に
よる結合度算出対象領域の検出の例を示す図
FIG. 14 is a diagram illustrating an example of detection of a connection degree calculation target region by a region information processing unit according to the fourth embodiment;

【図15】従来の動画のカット自動分割装置の構成を示
すブロック図
FIG. 15 is a block diagram showing the configuration of a conventional moving image automatic cutting division device.

【符号の説明】[Explanation of symbols]

101 デジタル画像 102 入力手段 103 静的映像検出部 104 エンコーダ部 105 出力手段 106 低ビットレート圧縮画像 107 静的映像符号化部 108 映像符号化部 301、801、1101 フレームメモリ 302、802、1102 変化ブロック検出手段 303、804、1103 結合度算出手段 304、805、1105 画像特性判定手段 305、806、1106 判定結果出力手段 803 変化ブロック補填手段 1104 領域情報処理手段 2001 画像入力手段 2004 変化画素面積算出部 2003 シーンチェンジ判定部 2004 シーンチェンジフレーム出力手段 101 Digital image 102 Input unit 103 Static video detection unit 104 Encoder unit 105 Output unit 106 Low bit rate compressed image 107 Static video encoding unit 108 Video encoding unit 301, 801, 1101 Frame memory 302, 802, 1102 Changing block Detecting means 303, 804, 1103 Coupling degree calculating means 304, 805, 1105 Image characteristic judging means 305, 806, 1106 Judgment result output means 803 Change block compensation means 1104 Area information processing means 2001 Image input means 2004 Change pixel area calculating section 2003 Scene change judgment unit 2004 Scene change frame output means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 山田 和範 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 由雄 宏明 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5B050 BA11 EA04 EA10 EA24 GA08 5C023 BA04 CA01 DA04 5C059 KK39 NN24 NN28 PP05 PP06 RC17 UA33 5L096 GA06 GA15 HA02  ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Kazunori Yamada 1006 Kadoma Kadoma, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. Term (reference) 5B050 BA11 EA04 EA10 EA24 GA08 5C023 BA04 CA01 DA04 5C059 KK39 NN24 NN28 PP05 PP06 RC17 UA33 5L096 GA06 GA15 HA02

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 フレーム間の差分により変化ブロックを
求め、前記変化ブロックの連結している個数を示す結合
度によりフレームの結合度を求め、前記フレームの結合
度を用いて静的映像を検出することを特徴とする静的映
像検出方法。
1. A changing block is obtained by a difference between frames, a connecting degree of frames is obtained by a connecting degree indicating the number of connected changed blocks, and a static image is detected by using the connecting degree of the frames. A static image detection method characterized by the above-mentioned.
【請求項2】 フレーム内に複数存在する変化ブロック
の中から、隣接8近傍に変化ブロックが存在するものを
統合し変化ブロック群を作成し、変化ブロック群に含ま
れる前記変化ブロックの数を変化ブロック群の結合度と
し、前記フレーム内の変化ブロック群の最大の結合度を
前記フレームの結合度とすることを特徴とする請求項1
に記載の静的映像検出方法。
2. A changing block group is created by integrating, from among a plurality of changing blocks existing in a frame, changing blocks existing in the vicinity of eight adjacent blocks, and changing the number of the changing blocks included in the changing block group. 2. The connection degree of a block group, and a maximum connection degree of a changed block group in the frame is set as a connection degree of the frame.
The static image detection method according to the above.
【請求項3】 変化ブロック群において、前記変化ブロ
ック群を構成する変化ブロックが、非変化ブロックの隣
接8近傍の一部または全部を包囲しているとき、その包
囲された非変化ブロックを前記変化ブロック群に統合す
ることを特徴とする請求項1または2に記載の静的映像
検出方法。
3. In a changed block group, when a changed block constituting the changed block group surrounds a part or the whole of the neighborhood of 8 adjacent to the non-change block, the enclosed non-change block is changed to the changed block. 3. The static image detecting method according to claim 1, wherein the static image is integrated into a block group.
【請求項4】 フレームを複数の領域に分割し、最大の
結合度を与える変化ブロック群に属する変化ブロックの
含まれる個数が最大の領域を次のフレームの結合度算出
対象領域とすることを特徴とする請求項1または2に記
載の静的映像検出方法。
4. The method according to claim 1, wherein the frame is divided into a plurality of regions, and a region in which the number of changed blocks belonging to a changed block group giving the maximum degree of connection is the largest is a region for calculating the degree of connection of the next frame. The static image detection method according to claim 1 or 2, wherein
【請求項5】 結合度算出対象領域内で結合度が最大で
ある前記変化ブロック群の結合度が、あらかじめ定めら
れたしきい値以下であるとき、前記結合度算出対象領域
をフレーム全体に戻すことを特徴とする請求項4に記載
の静的映像検出方法。
5. When the connectivity of the changed block group having the largest connectivity in the connectivity calculation area is less than or equal to a predetermined threshold, the connectivity calculation area is returned to the entire frame. The static image detection method according to claim 4, wherein:
【請求項6】 フレームを複数の領域に分割し、フレー
ム内の変化ブロック群の中から結合度の高いものから順
番に、その変化ブロック群に属する変化ブロックの含ま
れる個数が最大の領域を次のフレームの前記結合度算出
対象領域とし、前記結合度算出対象領域内の前記変化ブ
ロック群の結合度が、あらかじめ定められたしきい値以
下であるとき、前記結合度算出対象領域を次の順番をも
つ前記領域とすることを特徴とする請求項4に記載の静
的映像検出方法。
6. A frame is divided into a plurality of regions, and the region in which the number of changed blocks belonging to the changed block group is the largest is sequentially determined from the changed block group in the frame in order from the one having the highest degree of connection. When the connectivity of the changed block group within the connectivity calculation target area is equal to or less than a predetermined threshold, the connectivity calculation target area is placed in the next order. 5. The static image detecting method according to claim 4, wherein the area has the following.
【請求項7】 フレームを複数の領域に分割し、前記領
域内に含まれる変化ブロックの個数が最大となる領域を
次のフレームの結合度算出対象領域とすることを特徴と
する請求項1または2に記載の静的映像検出方法。
7. The method according to claim 1, wherein the frame is divided into a plurality of regions, and a region in which the number of changed blocks included in the region is maximum is set as a connection degree calculation target region of the next frame. 3. The static image detection method according to 2.
【請求項8】 フレームを複数の領域に分割し、前記領
域に含まれる変化ブロックの数の大きな領域から、次の
フレームの結合度算出対象領域に順番をつけ、その結合
度算出対象領域内の変化ブロック群の結合度が、あらか
じめ定められたしきい値以下であるとき、前記結合度算
出対象領域を次の順番をもつ結合度算出対象領域とする
ことを特徴とする請求項7に記載の静的映像検出方法。
8. A frame is divided into a plurality of regions, and a region where the number of changed blocks included in the region is large is numbered in a region for calculating the degree of connection of the next frame, and the region in the region for calculating the degree of connection is determined. The connection degree calculation target area having the following order is set as the connection degree calculation target area when the connection degree of the changed block group is equal to or less than a predetermined threshold value. Static image detection method.
【請求項9】 フレーム間の差分により変化ブロックを
求める変化ブロック検出手段と、前記変化ブロックの連
結している個数を示す結合度によりフレームの結合度を
求める結合度算出手段と、前記フレームの結合度を用い
て静的映像の検出を行う画像特性判定手段と、を備えた
静的映像検出装置。
9. A changed block detecting means for obtaining a changed block based on a difference between frames, a connection degree calculating means for obtaining a connection degree of frames based on a connection degree indicating the number of connected changed blocks, and a connection of the frames. A static image detection device for detecting a static image using the degree.
【請求項10】 変化ブロック群を構成する前記変化ブ
ロックが、非変化ブロックの隣接8近傍の一部または全
部を包囲しているとき、包囲された非変化ブロックを前
記変化ブロック群に統合する変化ブロック補填手段を備
た請求項9に記載の静的映像検出装置。
10. A change that integrates an enclosed non-change block into the change block group when the change block constituting the change block group surrounds a part or the whole of the neighborhood 8 of the non-change block. The static image detection device according to claim 9, further comprising a block compensation unit.
【請求項11】 フレームを複数の領域に分割し、最大
の結合度を与える変化ブロック群に属する変化ブロック
の含まれる個数が最大の領域を次のフレームの結合度算
出対象領域とする領域情報処理手段を備えた請求項9に
記載の静的映像検出装置。
11. A region information processing device that divides a frame into a plurality of regions, and sets a region having the largest number of changed blocks belonging to a changed block group that provides the maximum connectivity as a connectivity calculation target region of the next frame. The static image detecting device according to claim 9, further comprising a unit.
【請求項12】 フレームを複数の領域に分割し、前記
領域内に含まれる変化ブロックの個数を検出し、変化ブ
ロックの個数が最大の領域を次のフレームの結合度算出
対象領域とする領域情報処理手段を備えた請求項9に記
載の静的映像検出装置。
12. A frame is divided into a plurality of areas, the number of changed blocks included in the area is detected, and area information in which the number of changed blocks is the largest is set as a connection degree calculation target area of the next frame. The static image detecting device according to claim 9, further comprising a processing unit.
JP32904598A 1998-11-19 1998-11-19 Static video detection method and apparatus Expired - Fee Related JP3799842B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32904598A JP3799842B2 (en) 1998-11-19 1998-11-19 Static video detection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32904598A JP3799842B2 (en) 1998-11-19 1998-11-19 Static video detection method and apparatus

Publications (2)

Publication Number Publication Date
JP2000156819A true JP2000156819A (en) 2000-06-06
JP3799842B2 JP3799842B2 (en) 2006-07-19

Family

ID=18217002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32904598A Expired - Fee Related JP3799842B2 (en) 1998-11-19 1998-11-19 Static video detection method and apparatus

Country Status (1)

Country Link
JP (1) JP3799842B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018006839A (en) * 2016-06-28 2018-01-11 株式会社Nexpoint Screen image transfer method and screen image restoration method
JP6284172B1 (en) * 2017-12-06 2018-02-28 株式会社Nexpoint Screen image transfer method, image restoration method, screen image transfer system, image restoration system, screen image transfer program, image restoration program, image compression method, image compression system, image compression program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018006839A (en) * 2016-06-28 2018-01-11 株式会社Nexpoint Screen image transfer method and screen image restoration method
US10712994B2 (en) 2016-06-28 2020-07-14 Nexpoint Co., Ltd. Image compressing method, image reconstructing method, image compressing device, image reconstructing device, image compressing program product, and image reconstructing program product
JP6284172B1 (en) * 2017-12-06 2018-02-28 株式会社Nexpoint Screen image transfer method, image restoration method, screen image transfer system, image restoration system, screen image transfer program, image restoration program, image compression method, image compression system, image compression program

Also Published As

Publication number Publication date
JP3799842B2 (en) 2006-07-19

Similar Documents

Publication Publication Date Title
US5787199A (en) Apparatus for detecting a foreground region for use in a low bit-rate image signal encoder
US8295350B2 (en) Image coding apparatus with segment classification and segmentation-type motion prediction circuit
JP4001400B2 (en) Motion vector detection method and motion vector detection device
US6307970B1 (en) Search system for use in compression
JP4153202B2 (en) Video encoding device
JP3197420B2 (en) Image coding device
US8098729B2 (en) Implementing B-picture scene changes
EP1389016A2 (en) Motion estimation and block matching pattern using minimum measure of combined motion and error signal data
US20020101924A1 (en) Video data processing apparatus, video data encoding apparatus, and methods thereof
JPH0595540A (en) Dynamic picture encoder
JP4280353B2 (en) Encoding apparatus, image processing apparatus, encoding method, and recording medium
US7031385B1 (en) Method and apparatus for detecting scene change of a compressed moving-picture, and program recording medium therefor
JPH0220185A (en) Moving image transmission system
US5793429A (en) Methods of estimating motion in image data and apparatus for performing same
JP2004040808A (en) Scene change detecting apparatus and method therefor
US6563874B1 (en) Fast search method for motion estimation
US6748114B1 (en) Moving picture encoding method and moving picture encoding apparatus
US7447265B2 (en) Image processing apparatus, image processing method, computer-readable recording medium, and program for performing motion vector search processing
JP2000156819A (en) Method and device for detecting still image
JP4321468B2 (en) Moving picture coding apparatus and moving picture decoding apparatus
US6836513B2 (en) Moving picture encoding method and apparatus
JPH10112863A (en) Method and device for extracting motion subject information
JPH10224779A (en) Method and device for detecting scene change of moving image
JP2000069485A (en) Moving picture compression device
JPH09261661A (en) Method for forming bidirectional coding picture from two reference pictures

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050426

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060417

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100512

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110512

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110512

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120512

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120512

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130512

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees