JP2008225591A - Camera work detection method, equipment, program, and its recording medium - Google Patents

Camera work detection method, equipment, program, and its recording medium Download PDF

Info

Publication number
JP2008225591A
JP2008225591A JP2007059331A JP2007059331A JP2008225591A JP 2008225591 A JP2008225591 A JP 2008225591A JP 2007059331 A JP2007059331 A JP 2007059331A JP 2007059331 A JP2007059331 A JP 2007059331A JP 2008225591 A JP2008225591 A JP 2008225591A
Authority
JP
Japan
Prior art keywords
frame
correlation
camera work
block
outer edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007059331A
Other languages
Japanese (ja)
Other versions
JP4768649B2 (en
Inventor
Yukihiro Bando
幸浩 坂東
Kazuya Hayase
和也 早瀬
Masayuki Takamura
誠之 高村
Kazuto Kamikura
一人 上倉
Yoshiyuki Yashima
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2007059331A priority Critical patent/JP4768649B2/en
Publication of JP2008225591A publication Critical patent/JP2008225591A/en
Application granted granted Critical
Publication of JP4768649B2 publication Critical patent/JP4768649B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To precisely detect a camera work generated in a moving image frame with a relatively small amount of calculation. <P>SOLUTION: A camera work detection method includes steps of comparing sizes of prediction errors of in-frame prediction and inter-frame prediction with respect to the right end, left end, upper end and lower end external edge blocks in a frame, thus deciding whether or not the correlation of a time direction in the region of the external edge in the frame is smaller than the correlation of the direction of a space, and discriminating whether or not the frame includes a pan in the right direction, includes a pan in the left direction, includes a tilt in the upward direction and includes a tilt in the downward direction according to the decision result. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は,高能率画像信号符号化方法などに用いるためのカメラワーク検出方法に関し,特にカメラワークが発生した動画像フレームにおいて各フレームにおける時間軸方向の変化を検出する方法に関する。   The present invention relates to a camera work detection method for use in a high-efficiency image signal encoding method and the like, and more particularly, to a method for detecting a change in a time axis direction in each frame in a moving image frame in which camera work has occurred.

時間軸方向の大きな変化(高速なカメラパン・チルト,シーンチェンジ等)が発生したフレームにおいて,そのフレームの画質に対する感度は極端に低下する。これは,時間マスキング効果として知られる視覚特性である。そこで,時間軸方向の大きな変化が発生したフレームに対しては,符号量を削減しても主観画質の低下は検知されにくいため,積極的に符号量を低減するアプローチは有効である。この場合,各フレームにおける時間軸方向の大きな変化を検出することが重要となる。   In a frame in which a large change in the time axis direction (high-speed camera pan / tilt, scene change, etc.) has occurred, the sensitivity to the image quality of that frame extremely decreases. This is a visual characteristic known as the time masking effect. Therefore, an approach that actively reduces the amount of code is effective for frames in which a large change in the time axis direction has occurred, since even if the amount of code is reduced, a decrease in subjective image quality is difficult to detect. In this case, it is important to detect a large change in the time axis direction in each frame.

従来,カメラワークに起因するフレーム内の大局的な動きの検出に関しては,グローバル動き補償,あるいは,スプライト符号化においてグローバルモーションの推定が検討されてきた[特許文献1参照]。   Conventionally, global motion estimation in global motion compensation or sprite coding has been studied for global motion detection in a frame caused by camera work [see Patent Document 1].

グローバルモーションとは,カメラワークに起因して発生するフレーム全体に共通した変移量を指す。従来手法では,ブロック単位で推定した変移量(ローカルモーション)に基づき,グローバルモーションが推定される。グローバル動き補償,スプライト符号化においては,グローバルモーションの向き,および,大きさが共に重要となるため,フレーム内のすべてのローカルモーションを統合して,グローバルモーションを推定するアプローチがとられる。このため,フレーム内のすべてのローカルモーションを考慮する必要がある。
特開平9−182081号公報
Global motion refers to the amount of displacement common to the entire frame caused by camera work. In the conventional method, global motion is estimated based on the displacement (local motion) estimated in blocks. In global motion compensation and sprite coding, since the direction and size of global motion are both important, an approach to estimate global motion by integrating all local motions in a frame is taken. For this reason, it is necessary to consider all local motions in the frame.
Japanese Patent Laid-Open No. 9-182081

時間軸方向の大きな変化が発生したフレームを検出することを目的とする場合,変移量の大きさのみが問題であり,その方向は必ずしも必要ではない。このため,前述の従来法のように,フレーム内のすべてのローカルモーションを考慮する手法は,不必要な情報を得ることに計算量を割くことになる。計算量と符号化効率はトレードオフの関係にあるため,限られた計算機資源の環境下では,計算量の浪費は符号化効率の低下に繋がる。   When the purpose is to detect a frame in which a large change in the time axis direction occurs, only the magnitude of the shift amount is a problem, and the direction is not necessarily required. For this reason, a method that considers all local motions in a frame, as in the conventional method described above, divides the calculation amount into obtaining unnecessary information. Since the amount of computation and the coding efficiency are in a trade-off relationship, the waste of the amount of computation leads to a decrease in the coding efficiency in the limited computer resource environment.

また,従来法では,ブロック単位で推定した動きベクトルと真の動き量との乖離に関しては,考慮されていない。このため,求まるグローバルモーションが真のカメラワークから乖離する可能性がある。推定されたグローバルモーションが真の動き量よりも大きく見積もられた場合,前述のグローバルモーションに基づく符号量削減のアプローチでは,致命的な画質劣化の原因となる。   Further, in the conventional method, the difference between the motion vector estimated in block units and the true motion amount is not taken into consideration. For this reason, there is a possibility that the desired global motion will deviate from true camera work. If the estimated global motion is estimated to be larger than the true motion amount, the code amount reduction approach based on the global motion described above causes fatal image quality degradation.

そこで,本発明では,フレーム内の特定の位置のローカルモーションに基づくグローバルモーションの大きさの検出法を確立することを目的とする。さらに,特定の位置のブロックに関して,空間方向の相関と時間方向の相関との大小比較を通して,ローカルモーションの信頼度を間接的に評価し,信頼度の低いローカルモーションにより,グローバルモーションの推定結果が乱されることを回避することを目的とする。   Accordingly, an object of the present invention is to establish a global motion magnitude detection method based on local motion at a specific position in a frame. Furthermore, for a block at a specific position, the reliability of the local motion is indirectly evaluated through a comparison of the correlation in the spatial direction and the correlation in the temporal direction. The purpose is to avoid being disturbed.

本発明は,上記課題を解決するため,カメラワークが発生したフレームにおける,次フレームにおいてフレーム内に存在せず,次フレーム内の画素との対応付けが不可能な領域(非連結領域と呼ぶ)において,直前フレームとの対応付けが不可能なため,時間方向の相関が著しく低下し,一方,空間方向の相関は,直前フレームとの対応付けの可否とは無関係であることに着目して,次のようにカメラワークを検出する。   In order to solve the above-described problem, the present invention provides an area that does not exist in the next frame and cannot be associated with a pixel in the next frame (referred to as a non-connected area). Since the correlation with the previous frame is impossible, the correlation in the temporal direction is significantly reduced, while the correlation in the spatial direction is irrelevant to whether the correlation with the previous frame is possible, Camerawork is detected as follows.

例えば,フレーム内の右端の領域において,時間方向の相関が空間方向の相関よりも小さくなる場合に,当該フレームは,右方向のパンを含むフレームであると判別する。以下では,右方向のパンを含むフレームの判別を例に説明するが,左方向のパン,上方向のチルト,下方向のチルトの判別も同様に行うことができる。なお,これらの4方向の判別を同時に行う実施も,あらかじめ定められた特定の方向だけの判別を行う実施も可能である。   For example, if the temporal correlation is smaller than the spatial correlation in the rightmost region in the frame, the frame is determined to be a frame including a right pan. In the following description, the determination of the frame including the right pan is described as an example. However, the determination of the left pan, the upward tilt, and the downward tilt can be performed in the same manner. It should be noted that these four directions can be determined at the same time, or only a predetermined specific direction can be determined.

さらに,次のように直前のフレームだけではなく,直後のフレームについても時間的相関と空間的相関の比較を行うことにより,判別の精度を向上させることができる。すなわち,本発明による他の方法では,右方向のパンを含むフレームにおいては,フレーム内の右端の領域において,直前のフレームとの時間方向の相関が空間方向の相関よりも小さく,かつ,参照・被参照フレームの関係を時間軸上で反転した場合には,時間方向の相関が空間方向の相関よりも大きくなる場合に,右方向のパンを含むフレームであると判別する。   Further, the accuracy of discrimination can be improved by comparing the temporal correlation and the spatial correlation not only for the immediately preceding frame but also for the immediately following frame as follows. That is, in another method according to the present invention, in a frame including a pan in the right direction, the correlation in the time direction with the immediately preceding frame is smaller than the correlation in the spatial direction in the rightmost region in the frame, and the reference / When the relationship of the referenced frame is reversed on the time axis, when the correlation in the time direction becomes larger than the correlation in the spatial direction, it is determined that the frame includes a pan in the right direction.

さらに,上端および下端の領域において,時間方向の相関が空間方向の相関よりも大きくなる場合に,右方向のパンを含むフレームであることを判別条件として加えることにより,判別の精度を上げることもできる。   In addition, when the correlation in the time direction is larger than the correlation in the spatial direction in the upper and lower end regions, it is possible to improve the accuracy of the determination by adding a frame including a pan in the right direction as a determination condition. it can.

上記発明において,空間方向の相関と時間方向の相関との大小比較を行う際,フレーム内を所定の大きさのブロックに分割し,外縁の領域に含まれるブロックごとに,動き補償によるフレーム間予測誤差と当該フレームにおけるイントラ予測に基づくフレーム内予測誤差の大小を比較し,フレーム内予測誤差がフレーム間予測誤差より小さいブロックの数または割合が所定の閾値より大きい場合に,時間方向の相関が空間方向の相関よりも小さいと判定する。   In the above invention, when comparing the correlation in the spatial direction and the correlation in the temporal direction, the frame is divided into blocks of a predetermined size, and inter-frame prediction by motion compensation is performed for each block included in the outer edge region. When the error is compared with the size of the intra-frame prediction error based on the intra prediction in the current frame, and the number or ratio of blocks in which the intra-frame prediction error is smaller than the inter-frame prediction error is larger than a predetermined threshold, the temporal correlation is spatial It is determined that the correlation is smaller than the direction correlation.

以上のように,フレーム内予測とフレーム間予測の予測誤差の大小関係により,フレームの外縁ブロックを分類し,カメラワークの判定に用いる。   As described above, the outer edge blocks of the frame are classified according to the magnitude relationship between the prediction errors of the intra-frame prediction and the inter-frame prediction, and used for camera work determination.

また,上記発明において,前記外縁の領域のフレーム端からの幅を,段階的に徐々に広げながら,上記カメラワークの検出処理を繰り返し,前記時間方向の相関と前記空間方向の相関との大小関係が反転したときの外縁の領域の幅から,カメラワークの大きさを検出することもできる。   In the above invention, the camera work detection process is repeated while gradually increasing the width of the outer edge region from the frame end in a stepwise manner, and the magnitude relationship between the temporal direction correlation and the spatial direction correlation is repeated. It is also possible to detect the size of the camera work from the width of the outer edge area when is reversed.

本発明によって,各フレームにおける時間軸方向の大きな変化(高速なカメラパン・チルト,シーンチェンジ等)を検出することが可能となる。これによって,時間軸方向の大きな変化が発生したフレームにおいて,時間マスキング効果を利用して符号量削減を図る動画像符号化において,フレーム単位の適応的な符号量割り当てが可能になり,このことは,効率的な符号量の削減に繋がる。また,本発明により,時間軸方向の大きな変化を含むフレームの検出に必要となる計算量の浪費を回避することが可能となる。計算量と符号化効率はトレードオフの関係にあるため,同検出処理で節約した計算量を他の処理に利用することで,限られた計算機資源の環境下でも,符号化効率の向上が図られる。   According to the present invention, it is possible to detect a large change in the time axis direction (high-speed camera pan / tilt, scene change, etc.) in each frame. This makes it possible to assign an adaptive code amount for each frame in moving picture coding that uses the time masking effect to reduce the code amount in a frame in which a large change in the time axis direction has occurred. , Which leads to efficient code amount reduction. In addition, according to the present invention, it is possible to avoid waste of calculation amount necessary for detecting a frame including a large change in the time axis direction. Since the amount of computation and coding efficiency are in a trade-off relationship, the amount of computation saved by the detection process can be used for other processing, so that the coding efficiency can be improved even in a limited computer resource environment. It is done.

以下,本発明の基本的な概念と実施の形態を,図面を用いて説明する。   The basic concept and embodiment of the present invention will be described below with reference to the drawings.

〔非連結領域〕
カメラのズーム,パン,チルトといったカメラワークを含む映像の場合,フレーム境界に近い領域の中には,次フレームではフレーム内に存在しないものもある。例えば,右方向のカメラパンを含む映像の場合,フレーム右端の外縁領域の一部は,直前フレームには存在しない。このように,直前フレーム内に存在せず,直前フレーム内の画素と当該フレーム内の画素との対応付けが不可能な領域を非連結領域と呼ぶ。
[Unconnected area]
In the case of an image including camera work such as camera zoom, pan, and tilt, some regions close to the frame boundary may not be present in the frame in the next frame. For example, in the case of an image including a right camera pan, a part of the outer edge region at the right end of the frame does not exist in the immediately preceding frame. As described above, an area that does not exist in the immediately preceding frame and cannot be associated with a pixel in the immediately preceding frame and a pixel in the frame is referred to as a non-connected area.

右方向のパンのカメラワークによる非連結領域の例を,図1に示す。図1(B)のフレームにおける網掛け部分が非連結領域を示す。こうした非連結領域では,図1(A)の直前フレームとの対応付けが不可能なため,時間方向の相関が著しく低下する。   FIG. 1 shows an example of a non-connected region by camera work of right panning. A shaded portion in the frame of FIG. 1B indicates a non-connected region. In such a non-connected region, it is impossible to associate with the immediately preceding frame in FIG.

一方,空間方向の相関は,直前フレームとの対応付けの可否とは無関係であり,非連結領域であることが原因で低下することはない。本発明では,この性質に着目して,大局的な動きを検出する。   On the other hand, the correlation in the spatial direction is irrelevant to whether or not it can be associated with the immediately preceding frame, and does not decrease because it is a non-connected region. In the present invention, focusing on this property, global movement is detected.

〔フレーム内予測・フレーム間予測判定〕
フレーム内を一定サイズの矩形領域(以下,ブロックと呼ぶ)に分割する。このブロックのサイズN×Nは,外部から与えられるものとする。フレームの外縁に位置するブロック(以下,外縁ブロックと呼ぶ)に注目する。
[Intraframe / interframe prediction]
The frame is divided into rectangular areas (hereinafter referred to as blocks) of a certain size. The block size N × N is given from the outside. Pay attention to the block located at the outer edge of the frame (hereinafter referred to as the outer edge block).

例えば,図2に示すようにフレーム内をブロック分割した場合,外縁ブロックは,網掛け部分に当たる。ここでは,まず,図2に示すような外縁ブロックの配置を行った場合のカメラワークの判定方法について述べる。なお,抽出したい動き量に応じて,適応的に外縁ブロックの配置を変更し,詳しくは後述するように,カメラワークの大きさを検出することも可能である。   For example, when the inside of a frame is divided into blocks as shown in FIG. 2, the outer edge block hits a shaded portion. Here, a method for determining camera work when the outer edge block is arranged as shown in FIG. 2 will be described first. Note that it is also possible to adaptively change the arrangement of the outer edge block according to the amount of motion to be extracted, and to detect the size of the camera work as will be described in detail later.

フレーム内の外縁ブロックに対して,イントラ予測(後述)における予測誤差と,前方インター予測(後述)における予測誤差との大小判定を行う。この判定の結果,イントラ予測における予測誤差の方が,前方インター予測における予測誤差よりも小くなったブロックは,非前方インターブロックと呼ぶカテゴリに分類し,それ以外は,前方インターブロックと呼ぶカテゴリに分類する。   The size of a prediction error in intra prediction (described later) and a prediction error in forward inter prediction (described later) is determined for the outer edge block in the frame. As a result of this determination, blocks in which the prediction error in intra prediction is smaller than the prediction error in forward inter prediction are classified into categories called non-forward inter blocks, and otherwise, categories called forward inter blocks. Classify into:

次に,イントラ予測(後述)における予測誤差と,後方インター予測(後述)における予測誤差との大小判定を行う。この判定の結果,イントラ予測における予測誤差の方が,後方インター予測における予測誤差よりも小くなったブロックは,非後方インターブロックと呼ぶカテゴリに分類し,それ以外は,後方インターブロックと呼ぶカテゴリに分類する。   Next, the size of the prediction error in intra prediction (described later) and the prediction error in backward inter prediction (described later) are determined. As a result of this determination, blocks in which the prediction error in intra prediction is smaller than the prediction error in backward inter prediction are classified into categories called non-backward interblocks, and otherwise, categories called backward interblocks. Classify into:

イントラ予測は,同一フレーム内の画素値を参照する予測方法であり,例えば,H.264で定義される予測方法がある。H.264では,輝度成分の4×4画素の場合には9種類,輝度成分の16×16画素の場合には4種類の予測方法が用意されている。これら13種類の予測方法の中から,予測誤差を最小化する方法を選択し,そのときの予測誤差を,イントラ予測における予測誤差とする。なお,H.264の規定では,予測に用いる参照画素値は復号画素値を用いることになっているが,ここでは,該当する位置にある原画素値を用いる。なお,これ以外の予測方法を用いることも可能である。   Intra prediction is a prediction method that refers to pixel values in the same frame. There is a prediction method defined in H.264. H. In H.264, nine types of prediction methods are prepared for luminance components of 4 × 4 pixels, and four types of prediction methods for luminance components of 16 × 16 pixels. A method for minimizing a prediction error is selected from these 13 types of prediction methods, and the prediction error at that time is set as a prediction error in intra prediction. H. According to the H.264 standard, a decoded pixel value is used as a reference pixel value used for prediction, but here, an original pixel value at a corresponding position is used. Note that other prediction methods can be used.

一方,前方インター予測の方法は,ブロックベースの動き補償予測を用いる。この方法では,符号化対象フレームft (p)(p∈{(x,y)|0≦x≦X−1,0≦y≦Y−1})(画面サイズX×Y)内のブロック毎に,次のようなフレーム間予測が行われる。 On the other hand, the forward inter prediction method uses block-based motion compensation prediction. In this method, blocks in the encoding target frame f t (p) (pε {(x, y) | 0 ≦ x ≦ X−1, 0 ≦ y ≦ Y−1}) (screen size X × Y). Each time, the following inter-frame prediction is performed.

t ′(p)=ft-1 (p−vi ), p∈Bi
ここで,Bi は第i番目のブロックであり,vi は次式を満たす動きベクトルである。
f t ′ (p) = f t−1 (p−v i ), pεB i
Here, B i is the i-th block, and v i is a motion vector that satisfies the following equation.

Figure 2008225591
Figure 2008225591

ここで,arg(添字v) min(添字v∈Ri )は,次に続く関数を最小化するvを返す。すなわち,探索範囲Ri において,ブロックBi 内での予測誤差を最小化するvが動きベクトルvi として選ばれる。このとき,動きベクトルvi に対応する予測誤差をインター予測における予測誤差とする。このように,前方インター予測は,時間軸上で直前に位置する過去のフレームを参照フレームとして用いる。これに対し,時間軸上で直後に位置する未来のフレームを参照フレームとして用いた予測方式が,後方インター予測である。 Here, arg (subscript v) min (subscript vεR i ) returns v that minimizes the next function. That is, in the search range R i, v that minimizes the prediction error in the block B i is selected as the motion vector v i. At this time, a prediction error corresponding to the motion vector v i is set as a prediction error in inter prediction. Thus, the forward inter prediction uses a past frame located immediately before on the time axis as a reference frame. On the other hand, backward inter prediction is a prediction method using a future frame located immediately after on the time axis as a reference frame.

図3および図4に従って,本発明の概要を簡単に説明する。図3は,右方向のパンの検出を説明する図であり,図4は,上方向のチルトの検出を説明する図である。   The outline of the present invention will be briefly described with reference to FIGS. FIG. 3 is a diagram for explaining detection of a right pan, and FIG. 4 is a diagram for explaining detection of an upward tilt.

例えば図3に示すように,右方向へのパンのカメラワークが発生したフレームにおいては,直前フレームとの関係では,当該フレームの右端の領域が非連結領域となり,ここで非前方インターブロックの個数が多くなる。一方,フレームの左端の領域では,非前方インターブロックの個数は比較的少ない。また,直後のフレームとの関係では,当該フレームの左端の領域が非連結領域となり,ここで非後方インターブロックの個数が多くなる。一方,フレームの右端の領域では,非後方インターブロックの個数は比較的少ない。さらに,右方向のパンでは,上端および下端の外縁の領域においては,前方インターブロックの数が多くなる。したがって,このような外縁ブロックの分類を行い,それをカメラワークの検出に用いれば,従来方法によって求めたグローバルモーションが,真のカメラワークから乖離する可能性があるという問題を解決することができる。   For example, as shown in FIG. 3, in a frame in which a camera work of panning in the right direction has occurred, the area at the right end of the frame is a non-connected area in relation to the previous frame. Here, the number of non-front interblocks Will increase. On the other hand, in the leftmost region of the frame, the number of non-forward inter blocks is relatively small. Further, in the relationship with the immediately following frame, the leftmost area of the frame becomes a non-connected area, and the number of non-back interblocks increases here. On the other hand, in the right end region of the frame, the number of non-backward inter blocks is relatively small. Further, in the right pan, the number of front inter blocks increases in the outer edge areas at the upper and lower ends. Therefore, if such outer edge blocks are classified and used for camera work detection, the problem that global motion obtained by the conventional method may deviate from true camera work can be solved. .

左方向のパンも,図3の左右を逆転させて同様に判定することにより,検出することができる。また,図4に示すように,上方向のチルトも外縁ブロックの分類を用いて検出することができ,同様に下方向のチルトも検出することができる。以下,これらの判定条件について,さらに詳しく説明する。   Panning in the left direction can also be detected by making a similar determination with the left and right in FIG. 3 reversed. Further, as shown in FIG. 4, the upward tilt can also be detected using the classification of the outer edge block, and similarly the downward tilt can be detected. Hereinafter, these determination conditions will be described in more detail.

〔外縁ブロックに着目したカメラワークの判定(その1)〕
非連結領域となる外縁ブロックは,時間方向の相関が低いため,直前フレームを参照する場合には,非前方インターブロックに分類される可能性が高く,直後フレームを参照する場合には,非後方インターブロックに分類される可能性が高い。そこで,外縁ブロックにおける非前方インターブロック,非後方インターブロックの個数(または割合)に基づき,時間方向の相関と空間方向の相関のいずれが強いかを判別する。以下に述べる条件を組み合わせて,各カメラワークの判定条件とする。なお,ここで,フレームのサイズをX×Yとし,ブロックサイズをN×Nとし,さらに,NがX,Yの約数であるようにとるとする。
[Determination of camera work focusing on outer edge block (1)]
Since the outer edge block that is a non-connected region has a low correlation in the time direction, when referring to the immediately preceding frame, there is a high possibility of being classified as a non-forward inter-block. It is likely to be classified as an interblock. Therefore, based on the number (or ratio) of non-front interblocks and non-backward interblocks in the outer edge block, it is determined whether the correlation in the time direction or the correlation in the spatial direction is strong. The conditions described below are combined to make the judgment conditions for each camera work. Here, it is assumed that the frame size is X × Y, the block size is N × N, and that N is a divisor of X and Y.

以下の閾値パラメータ(αr ,αl ,βt ,βb ,γt ,γb ,γr ,γl )は,100以下の正値をとるものとし,具体的な値は,外部から与えられるものとする。これらは,例えば符号化対象画像と統計的性質の近いテスト画像に対する予備実験を通して決定することができる。パラメータの値を大きな値に設定すれば,同パラメータを用いる条件の判定基準が厳しくなり,該当するブロックの数は減少する。 The following threshold parameters (α r , α l , β t , β b , γ t , γ b , γ r , γ l ) are assumed to be positive values of 100 or less, and specific values are given from the outside. Shall be. These can be determined, for example, through a preliminary experiment on a test image having statistical properties close to those of the encoding target image. If the parameter value is set to a large value, the criteria for using the parameter becomes stricter and the number of corresponding blocks decreases.

条件(1−f):右端の外縁ブロック(Y/N個)のうち,αr %以上が非前方インターブロックとなる
条件(1−b):右端の外縁ブロック(Y/N個)のうち,αr %以上が非後方インターブロックとなる
条件(2−f):左端の外縁ブロック(Y/N個)のうち,αl %以上が非前方インターブロックとなる
条件(2−b):左端の外縁ブロック(Y/N個)のうち,αl %以上が非後方インターブロックとなる
条件(3−f):上端の外縁ブロック(X/N個)のうち,βt %以上が非前方インターブロックとなる
条件(3−b):上端の外縁ブロック(X/N個)のうち,βt %以上が非後方インターブロックとなる
条件(4−f):下端の外縁ブロック(X/N個)のうち,βb %以上が非前方インターブロックとなる
条件(4−b):下端の外縁ブロック(X/N個)のうち,βb %以上が非後方インターブロックとなる
以下,右方向のパン,左方向のパン,上方向のチルト,下方向のチルトの判定条件を示す。
Condition (1-f): Of the outer edge blocks (Y / N) at the right end, α r % or more is a non-forward inter block Condition (1-b): Of the outer edge blocks (Y / N) at the right end , Α r % or more is a non-rear interblock Condition (2-f): Of the leftmost outer edge blocks (Y / N), α l % or more is a non-forward interblock Condition (2-b): Of the leftmost outer edge blocks (Y / N), α l % or more is a non-rear interblock. Condition (3-f): Of the uppermost outer edge blocks (X / N), β t % or more is non Condition (3-b) to be a front inter block: β t % or more of non-back inter blocks among outer edge blocks (X / N) at the upper end Condition (4-f): outer edge block (X / N at the lower end) among N), conditions or beta b% are non-forward inter block (4 b): Of the lower end of the outer blocks (X / N pieces), beta below b% or more in a non-backward inter block, the right direction of the pan, leftward pan upward tilt, the determination of downward tilt Indicates conditions.

右方向のパンの判定条件:
・条件(1−f)を満たす
・条件(1−b)を満たさない
・条件(2−f)を満たさない
・条件(2−b)を満たす
・上端の外縁ブロックがγt %以上,前方インターブロックとなる
・下端の外縁ブロックがγb %以上,前方インターブロックとなる
これは,以下の理由による。右端の外縁ブロックが直前フレームに対して非連結領域である場合には,条件(1−f)を満たす可能性が高く,一方,直後フレームに対して,連結領域である場合には,条件(1−b)を満たさない可能性が高い。
Criteria for determining right pan:
-Condition (1-f) is satisfied-Condition (1-b) is not satisfied-Condition (2-f) is not satisfied-Condition (2-b) is satisfied-The outer edge block at the upper end is γ t % or more and forward Inter block ・ The outer edge block at the lower end is γ b % or more, and it is a front inter block. This is due to the following reasons. If the rightmost outer edge block is a non-connected region with respect to the previous frame, the condition (1-f) is highly likely to be satisfied. There is a high possibility that 1-b) is not satisfied.

すなわち,条件(1−f)を満たし,かつ,条件(1−b)を満たさない場合には,フレームの右端の画像は,過去のフレーム中には含まれておらず,未来のフレームにおいて含まれている可能性が高いと推測できる。左端の外縁ブロックが直前フレームに対して連結領域である場合,条件(2−f)を満たさない可能性が高く,一方,直後フレームに対して非連結領域である場合,条件(2−b)を満たす可能性が高い。すなわち,条件(2−b)を満たし,かつ,条件(2−f)を満たさない場合には,フレームの左端の画像は,過去のフレームにおいて含まれており,未来のフレーム中には含まれてない可能性が高いと推測できる。さらに,残る2条件を満たすことは,右左端以外の外縁ブロックにおいても,一定の動きが発生している可能性が高いと推測できる。こうした状況は,フレームの右端に過去フレーム中には存在しなかった画像がフレームインする右方向のパンのカメラワークと符合するため,上記条件を右方向のパンのカメラワークの発生条件とする。   That is, when the condition (1-f) is satisfied and the condition (1-b) is not satisfied, the rightmost image of the frame is not included in the past frame but included in the future frame. It can be assumed that there is a high possibility that If the leftmost outer edge block is a connected area with respect to the immediately preceding frame, it is highly likely that the condition (2-f) will not be satisfied. There is a high possibility of satisfying. That is, when the condition (2-b) is satisfied and the condition (2-f) is not satisfied, the image at the left end of the frame is included in the past frame and is not included in the future frame. It can be assumed that there is a high possibility that Furthermore, satisfying the remaining two conditions can be presumed that there is a high possibility that a certain amount of movement has occurred in the outer edge blocks other than the right and left ends. In such a situation, since the image that did not exist in the previous frame at the right end of the frame coincides with the right pan camera work, the above condition is set as the right pan camera work generation condition.

同様に考えて,各カメラワークの判定条件を以下のように設定する。   In the same way, the judgment conditions for each camera work are set as follows.

左方向のパンの判定条件:
・条件(2−f)を満たす
・条件(2−b)を満たさない
・条件(1−f)を満たさない
・条件(1−b)を満たす
・上端の外縁ブロックがγt %以上,前方インターブロックとなる
・下端の外縁ブロックがγb %以上,前方インターブロックとなる
上方向のチルトの判定条件:
・条件(3−f)を満たす
・条件(3−b)を満たさない
・条件(4−f)を満たさない
・条件(4−b)を満たす
・右端の外縁ブロックがγr %以上,前方インターブロックとなる
・左端の外縁ブロックがγl %以上,前方インターブロックとなる
下方向のチルトの判定条件:
・条件(4−f)を満たす
・条件(4−b)を満たさない
・条件(3−f)を満たさない
・条件(3−b)を満たす
・右端の外縁ブロックがγr %以上,前方インターブロックとなる
・左端の外縁ブロックがγl %以上,前方インターブロックとなる
各カメラワークの判定条件を,以上のとおりとする。
Judgment conditions for left panning:
-Condition (2-f) is satisfied-Condition (2-b) is not satisfied-Condition (1-f) is not satisfied-Condition (1-b) is satisfied-The outer edge block at the upper end is γ t % or more and forward Inter block ・ The outer edge block at the bottom is γ b % or more and the front inter block is judged.
-Condition (3-f) is satisfied-Condition (3-b) is not satisfied-Condition (4-f) is not satisfied-Condition (4-b) is satisfied-The outer edge block on the right end is γ r % or more and forward Inter block ・ Left edge outer block is γ l % or more, and front inter block is down Tilt judgment condition:
-Condition (4-f) is satisfied-Condition (4-b) is not satisfied-Condition (3-f) is not satisfied-Condition (3-b) is satisfied-The right edge block is γ r % or more and forward Interblock ・ The outer edge block at the left end is γ l % or more, and the judgment condition for each camera work that is a front interblock is as above.

〔外縁ブロックに着目したカメラワークの判定(その2)〕
前述の外縁ブロックに着目したカメラワークの判定(その1)に対して,さらに演算量を削減する方式を以下に示す。演算量削減のため,外縁ブロックにおける非前方インターブロックの個数に基づき,時間方向の相関と空間方向の相関のいずれが強いかを判別する。以下の条件を組み合わせて,各カメラワークの判定条件とする。
[Determination of camera work focusing on outer edge block (Part 2)]
A method for further reducing the amount of calculation for the camera work determination (part 1) focusing on the outer edge block will be described below. In order to reduce the amount of computation, it is determined whether the correlation in the time direction or the correlation in the spatial direction is strong based on the number of non-forward inter blocks in the outer edge block. The combination of the following conditions is used as a judgment condition for each camera work.

条件(1−f):右端の外縁ブロック(Y/N個)のうち,αr %以上が非前方インターブロックとなる
条件(2−f):左端の外縁ブロック(Y/N個)のうち,αl %以上が非前方インターブロックとなる
条件(3−f):上端の外縁ブロック(X/N個)のうち,βt %以上が非前方インターブロックとなる
条件(4−f):下端の外縁ブロック(X/N個)のうち,βb %以上が非前方インターブロックとなる
以下,右方向のパン,左方向のパン,上方向のチルト,下方向のチルトの判定条件を示す。
Condition (1-f): Of the outer edge blocks (Y / N) at the right end, α r % or more is a non-forward inter-block Condition (2-f): Of the outer edge blocks (Y / N) at the left end , Α l % or more is a non-forward inter block Condition (3-f): Out of the outer edge blocks (X / N) at the upper end, β t % or more is a non-forward inter block Condition (4-f): Out of the outer edge blocks (X / N) at the lower end, β b % or more is a non-front interblock. Below are the judgment conditions for right pan, left pan, upward tilt, and downward tilt. .

右方向のパンの判定条件:
・条件(1−f)を満たす
・条件(2−f)を満たさない
・上端の外縁ブロックがγt %以上,前方インターブロックとなる
・下端の外縁ブロックがγb %以上,前方インターブロックとなる
左方向のパンの判定条件:
・条件(2−f)を満たす
・条件(1−f)を満たさない
・上端の外縁ブロックがγt %以上,前方インターブロックとなる
・下端の外縁ブロックがγb %以上,前方インターブロックとなる
上方向のチルトの判定条件:
・条件(3−f)を満たす
・条件(4−f)を満たさない
・右端の外縁ブロックがγr %以上,前方インターブロックとなる
・左端の外縁ブロックがγl %以上,前方インターブロックとなる
下方向のチルトの判定条件:
・条件(4−f)を満たす
・条件(3−f)を満たさない
・右端の外縁ブロックがγr %以上,前方インターブロックとなる
・左端の外縁ブロックがγl %以上,前方インターブロックとなる
〔カメラワークの大きさの検出方法〕
カメラワークの大きさを検出する方法について,以下説明する。本処理の入力は,ブロックの辺長N[画素]および抽出するカメラワークの大きさP[画素](カメラワークを表す動きベクトルのノルム)とする。抽出するカメラワークの大きさP[画素]は,P=(k+a)N(kは正の整数)とする。ここで,aは,0<a≦1の範囲で予め設定されるパラメータである。
Criteria for determining right pan:
• Condition (1-f) is satisfied • Condition (2-f) is not satisfied • Upper edge outer block is γ t % or more, front inter block • Lower edge outer block is γ b % or more, front inter block The left panning criteria:
• Condition (2-f) is satisfied • Condition (1-f) is not satisfied • The outer edge block at the upper end is γ t % or more and a front inter block • The outer edge block at the lower end is γ b % or more and a front inter block Yes Upward tilt judgment condition:
• Condition (3-f) is satisfied • Condition (4-f) is not satisfied • Right outer edge block is γ r % or more, front inter block • Left end outer edge block is γ l % or more, front inter block Yes Down tilt judgment condition:
• Condition (4-f) is satisfied • Condition (3-f) is not satisfied • Right outer edge block is γ r % or more, front inter block • Left end outer edge block is γ l % or more, front inter block Yes [Camera work size detection method]
A method for detecting the size of the camera work will be described below. The input of this processing is a block side length N [pixel] and a camerawork size P [pixel] to be extracted (a norm of a motion vector representing the camerawork). The size P [pixel] of the camera work to be extracted is P = (k + a) N (k is a positive integer). Here, a is a parameter set in advance in the range of 0 <a ≦ 1.

前述の〔外縁ブロックに着目したカメラワークの判定(その1)〕あるいは〔外縁ブロックに着目したカメラワークの判定(その2)〕で説明した判定条件に従い,4方向のカメラワークに対する判定処理を行う。このとき,いずれかの方向のカメラワークが検出された場合,その大きさを同定するための処理を追加する。例えば,大きさP=(2+a)N[画素]以上の左方向のカメラパンを含むフレームを検出する場合,図5における濃い網掛けのブロックに対して,判定処理が追加される。   In accordance with the determination conditions described in [Determination of Camerawork Focusing on Outer Edge Block (Part 1)] or [Determination of Camerawork Focusing on Outer Edge Block (Part 2)], a determination process for camera work in four directions is performed. . At this time, if camerawork in either direction is detected, a process for identifying the size is added. For example, when detecting a frame including a left camera pan having a size P = (2 + a) N [pixels] or more, a determination process is added to the dark shaded block in FIG.

以下では,〔外縁ブロックに着目したカメラワークの判定(その1)〕を用いる場合と,〔外縁ブロックに着目したカメラワークの判定(その2)〕を用いる場合とに分けて,具体的な処理を示す。   In the following, specific processing is divided into the case of using [determination of camera work focusing on outer edge block (part 1)] and the case of using [determination of camera work focusing on outer edge block (part 2)]. Indicates.

<外縁ブロックに着目したカメラワークの判定(その1)を用いる場合>
なお,以下で示す右方向のパン,左方向のパン,上方向のチルト,および下方向のチルトの判定条件は,いずれも前述した条件を指す。
<When using camera work determination (part 1) focusing on the outer edge block>
Note that the determination conditions for the right pan, the left pan, the upward tilt, and the downward tilt shown below all refer to the conditions described above.

(i) 右方向に,P=(k+a)N[画素]以上のパンが発生していると判断する判定条件:
前述の右方向のパンの判定条件を満たし,かつ,フレーム右端の外縁ブロックの左側に隣接する垂直方向に[Y/N]−2個,水平方向にk−1個からなる([Y/N]−2)×(k−1)個のブロックに対して,以下を満足する。なお,ここで[・]はガウス記号であり,[x]は実数xを超えない最大の整数を表す。
(i) Determination condition for determining that panning of P = (k + a) N [pixels] or more has occurred in the right direction:
[Y / N] -2 in the vertical direction adjacent to the left side of the outer edge block at the right end of the frame and k-1 in the horizontal direction ([Y / N ] -2) For the (k−1) blocks, the following is satisfied. Here, [·] is a Gaussian symbol, and [x] represents the maximum integer not exceeding the real number x.

・条件(1−f)を満たす
・条件(1−b)を満たさない
・条件(2−f)を満たさない
・条件(2−b)を満たす
(ii) 左方向に,P=(k+a)N[画素]以上のパンが発生していると判断する判定条件:
前述の左方向のパンの判定条件を満たし,かつ,フレーム左端の外縁ブロックの右側に隣接する垂直方向に[Y/N]−2個,水平方向にk−1個からなる([Y/N]−2)×(k−1)個のブロックに対して,以下を満足する。
-Condition (1-f) is satisfied-Condition (1-b) is not satisfied-Condition (2-f) is not satisfied-Condition (2-b) is satisfied
(ii) Determination condition for determining that panning of P = (k + a) N [pixels] or more has occurred in the left direction:
[Y / N] -2 in the vertical direction adjacent to the right side of the outer edge block at the left end of the frame and k-1 in the horizontal direction ([Y / N ] -2) For the (k−1) blocks, the following is satisfied.

・条件(2−f)を満たす
・条件(2−b)を満たさない
・条件(1−f)を満たさない
・条件(1−b)を満たす
(iii) 上方向に,P=(k+a)N[画素]以上のチルトが発生していると判断する判定条件:
前述の上方向のチルトの判定条件を満たし,かつ,フレーム上端の外縁ブロックの下側に隣接する垂直方向にk−1個,水平方向に[X/N]−2個からなる(k−1)×([X/N]−2)個のブロックに対して,以下を満足する。
-Condition (2-f) is satisfied-Condition (2-b) is not satisfied-Condition (1-f) is not satisfied-Condition (1-b) is satisfied
(iii) Determination condition for determining that a tilt of P = (k + a) N [pixels] or more has occurred in the upward direction:
It satisfies the above-described upward tilt determination condition, and is composed of k−1 pieces in the vertical direction adjacent to the lower side of the outer edge block at the upper end of the frame and [X / N] −2 pieces in the horizontal direction (k−1). ) × ([X / N] −2) blocks satisfy the following.

・条件(3−f)を満たす
・条件(3−b)を満たさない
・条件(4−f)を満たさない
・条件(4−b)を満たす
(iv) 下方向に,P=(k+a)N[画素]以上のチルトが発生していると判断する判定条件:
前述の下方向のチルトの判定条件を満たし,かつ,フレーム下端の外縁ブロックの上側に隣接する垂直方向にk−1個,水平方向に[X/N]−2個からなる(k−1)×([X/N]−2)個のブロックに対して,以下を満足する。
-Condition (3-f) is satisfied-Condition (3-b) is not satisfied-Condition (4-f) is not satisfied-Condition (4-b) is satisfied
(iv) Determination condition for determining that a tilt of P = (k + a) N [pixels] or more has occurred in the downward direction:
The above-described downward tilt determination condition is satisfied, and k−1 pieces in the vertical direction and [X / N] −2 pieces in the horizontal direction are adjacent to the upper side of the outer edge block at the lower end of the frame (k−1). For x ([X / N] -2) blocks, the following is satisfied:

・条件(4−f)を満たす
・条件(4−b)を満たさない
・条件(3−f)を満たさない
・条件(3−b)を満たす
<外縁ブロックに着目したカメラワークの判定(その2)を用いる場合>
なお,以下で示す右方向のパン,左方向のパン,上方向のチルト,および下方向のチルトの判定条件は,いずれも前述した外縁ブロックに着目したカメラワークの判定(その2)で示した条件を指す。
-Condition (4-f) is satisfied-Condition (4-b) is not satisfied-Condition (3-f) is not satisfied-Condition (3-b) is satisfied <Determination of camera work focusing on outer edge block (No. When using 2)>
The determination conditions for right pan, left pan, upward tilt, and downward tilt shown below are all shown in the camera work determination (part 2) focusing on the outer edge block described above. Refers to a condition.

(i) 右方向に,P=(k+a)N[画素]以上のパンが発生していると判断する判定条件:
前述の右方向のパンの判定条件を満たし,かつ,フレーム右端の外縁ブロックの左側に隣接する垂直方向に[Y/N]個,水平方向にk−1個からなる[Y/N]×(k−1)個のブロックに対して,以下を満足する。なお,ここで[・]はガウス記号であり,[x]は実数xを超えない最大の整数を表す。
(i) Determination condition for determining that panning of P = (k + a) N [pixels] or more has occurred in the right direction:
[Y / N] × ((Y / N) × (Y / N) in the vertical direction and k−1 in the horizontal direction, which satisfy the above-described right pan determination condition and are adjacent to the left side of the outer edge block at the right end of the frame. For k−1) blocks: Here, [·] is a Gaussian symbol, and [x] represents the maximum integer not exceeding the real number x.

・条件(1−f)を満たす
・条件(2−f)を満たさない
(ii) 左方向に,P=(k+a)N[画素]以上のパンが発生していると判断する判定条件:
前述の左方向のパンの判定条件を満たし,かつ,フレーム左端の外縁ブロックの右側に隣接する垂直方向に[Y/N]個,水平方向にk−1個からなる[Y/N]×(k−1)個のブロックに対して,以下を満足する。
-Condition (1-f) is satisfied-Condition (2-f) is not satisfied
(ii) Determination condition for determining that panning of P = (k + a) N [pixels] or more has occurred in the left direction:
[Y / N] × ((Y / N) in the vertical direction and k−1 in the horizontal direction satisfying the aforementioned left pan determination condition and adjacent to the right side of the outer edge block at the left end of the frame. For k−1) blocks:

・条件(2−f)を満たす
・条件(1−f)を満たさない
(iii) 上方向に,P=(k+a)N[画素]以上のチルトが発生していると判断する判定条件:
前述の上方向のチルトの判定条件を満たし,かつ,フレーム上端の外縁ブロックの下側に隣接する垂直方向にk−1個,水平方向に[X/N]個からなる(k−1)×[X/N]個のブロックに対して,以下を満足する。
-Condition (2-f) is satisfied-Condition (1-f) is not satisfied
(iii) Determination condition for determining that a tilt of P = (k + a) N [pixels] or more has occurred in the upward direction:
The above-described upward tilt determination condition is satisfied, and k−1 pieces in the vertical direction and [X / N] pieces in the horizontal direction are adjacent to the lower side of the outer edge block at the upper end of the frame (k−1) × For [X / N] blocks, the following is satisfied.

・条件(3−f)を満たす
・条件(4−f)を満たさない
(iv)下方向に,P=(k+a)N[画素]以上のチルトが発生していると判断する判定条件:
前述の下方向のチルトの判定条件を満たし,かつ,フレーム下端の外縁ブロックの上側に隣接する垂直方向にk−1個,水平方向に[X/N]個からなる(k−1)×[X/N]個のブロックに対して,以下を満足する。
-Condition (3-f) is satisfied-Condition (4-f) is not satisfied
(iv) Determination condition for determining that a tilt of P = (k + a) N [pixels] or more has occurred in the downward direction:
(K−1) × [[k / 1] in the vertical direction and [X / N] in the horizontal direction, which satisfy the above-described downward tilt determination condition, and is adjacent to the upper side of the outer edge block at the lower end of the frame. For X / N] blocks:

・条件(4−f)を満たす
・条件(3−f)を満たさない
なお,上記の前方インターブロック,および非前方インターブロックの判定は,フレームの外側に位置するブロックの列(またはブロックの行)から順に行うこととする。あるブロックの列(またはブロックの行)において,条件を満たさない場合には,それ以降のブロックの列(またはブロックの行)における判定は省略する。
The condition (4-f) is satisfied. The condition (3-f) is not satisfied. Note that the above-described front interblock and non-front interblock are determined based on a block column (or block row) located outside the frame. ). When the condition is not satisfied in a column (or block row) of a certain block, the determination in the subsequent block column (or block row) is omitted.

また,上下方向のチルトと左右方向のパンとを同時に満たす場合,斜め方向のカメラワークと判断する。例えば,左方向にP=kN[画素]以上のパンが発生していると判定され,かつ,上方向にP=mN[画素]以上のパンが発生していると判定された場合,左斜め上方向に,(k2 +m2 1/2 ×N[画素]以上のカメラワークが発生していると判断する。これらは,前述の〔外縁ブロックに着目したカメラワークの判定(その1)〕あるいは〔外縁ブロックに着目したカメラワークの判定(その2)〕のいずれを用いる場合も,同様である。 If the vertical tilt and the horizontal pan are satisfied at the same time, the camera work is determined to be oblique. For example, if it is determined that panning of P = kN [pixels] or more has occurred in the left direction and panning of P = mN [pixels] or more has occurred in the upward direction, It is determined that camera work of (k 2 + m 2 ) 1/2 × N [pixels] or more has occurred in the upward direction. These are the same when either of the above-mentioned [determination of camera work focusing on outer edge block (part 1)] or [determination of camera work focusing on outer edge block (part 2)] is used.

[フローチャート]
本発明の処理の実施形態について,図6を参照して説明する。
・ステップS1:外縁ブロックに対して,モードの判定処理を行う。本処理の詳細については図7を用いて後述する。
・ステップS2:右端,左端,上端,下端の各外縁ブロックに対して,時間方向の相関の強度を測定する。本処理の詳細については図8,図9を用いて後述する。
・ステップS3:当該フレームにおいて右方向のパンのカメラワークが含まれているか否かの判定を行う。本処理の詳細については図10を用いて後述する。
・ステップS4:ステップS3における判定結果を入力とし,判定結果が真値の場合,ステップS5に進み,パンの方向を表すフラグを2にセットする。一方,判定結果が偽値の場合,ステップS6の処理に移る。
・ステップS6:当該フレームにおいて左方向のパンのカメラワークが含まれているか否かの判定を行う。本処理の詳細については図11を用いて後述する。
・ステップS7:ステップS6における判定結果を入力とし,判定結果が真値の場合,ステップS9に進み,パンの方向を表すフラグを1にセットする。一方,判定結果が偽値の場合,ステップS8に進み,パンの方向を表すフラグを0にセットする。
・ステップS10:当該フレームにおいて上方向のチルトのカメラワークが含まれているか否かの判定を行う。本処理の詳細については図12を用いて後述する。
・ステップS11:ステップS10における判定結果を入力とし,判定結果が真値の場合,ステップS12に進み,チルトの方向を表すフラグを2にセットする。一方,判定結果が偽値の場合,ステップS13の処理に移る。
・ステップS13:当該フレームにおいて下方向のチルトのカメラワークが含まれているか否かの判定を行う。本処理の詳細については図13を用いて後述する。
・ステップS14:ステップS13における判定結果を入力とし,判定結果が真値の場合,ステップS16に進み,チルトの方向を表すフラグを1にセットする。一方,判定結果が偽値の場合,ステップS15に進み,チルトの方向を表すフラグを0にセットする。
・ステップS17:パンの方向フラグ,チルトの方向フラグを入力とし,パンの方向フラグが0でない,または,チルトの方向フラグが0でないといういずれかの条件を満たせば,カメラワークが含まれると判定し,そうでなければ,カメラワークが含まれないと判定する。
・ステップS18:すべてのフレームについて処理を終えたかどうかを判定し,判定結果が真値の場合,処理を終了する。偽値の場合,ステップS19へ進む。
・ステップS19:処理対象を次フレームとし,ステップS1へ戻って同様に処理を繰り返す。
[flowchart]
An embodiment of the processing of the present invention will be described with reference to FIG.
Step S1: A mode determination process is performed on the outer edge block. Details of this processing will be described later with reference to FIG.
Step S2: The correlation strength in the time direction is measured for each of the outer edge blocks at the right end, left end, upper end, and lower end. Details of this processing will be described later with reference to FIGS.
Step S3: It is determined whether or not rightward panning camera work is included in the frame. Details of this processing will be described later with reference to FIG.
Step S4: When the determination result in step S3 is input and the determination result is a true value, the process proceeds to step S5, and a flag indicating the pan direction is set to 2. On the other hand, if the determination result is a false value, the process proceeds to step S6.
Step S6: It is determined whether or not the left pan camera work is included in the frame. Details of this processing will be described later with reference to FIG.
Step S7: When the determination result in step S6 is input and the determination result is a true value, the process proceeds to step S9, and a flag indicating the pan direction is set to 1. On the other hand, if the determination result is a false value, the process proceeds to step S8, and a flag indicating the pan direction is set to 0.
Step S10: It is determined whether or not camera work with an upward tilt is included in the frame. Details of this processing will be described later with reference to FIG.
Step S11: When the determination result in step S10 is input and the determination result is a true value, the process proceeds to step S12, and a flag indicating the tilt direction is set to 2. On the other hand, if the determination result is a false value, the process proceeds to step S13.
Step S13: It is determined whether or not camera work of a downward tilt is included in the frame. Details of this processing will be described later with reference to FIG.
Step S14: The determination result in step S13 is input, and if the determination result is a true value, the process proceeds to step S16, and a flag indicating the tilt direction is set to 1. On the other hand, if the determination result is a false value, the process proceeds to step S15, and a flag indicating the tilt direction is set to 0.
Step S17: When the pan direction flag and the tilt direction flag are input, and the pan direction flag is not 0 or the tilt direction flag is not 0, it is determined that camera work is included. Otherwise, it is determined that camera work is not included.
Step S18: It is determined whether or not processing has been completed for all frames. If the determination result is a true value, the processing ends. If it is a false value, the process proceeds to step S19.
Step S19: Set the processing target as the next frame, return to step S1, and repeat the process in the same manner.

<ステップS1の処理の流れ(その1)>
図7は,図6のステップS1における詳細な処理の流れを示している。以下,図7を用いて,ステップS1における外縁ブロックに対して行うモードの判定処理の詳細を説明する。
・ステップS101:当該フレームを読み込み,フレームバッファに格納する。
・ステップS102:当該フレームに対して,前方フレーム間予測を行う場合の参照フレーム(前方予測参照フレーム)を読み込み,フレームバッファに格納する。
・ステップS103:当該フレームを読み込み,当該フレーム中の当該ブロックに対して,フレーム内予測を行い,同ブロックにおける予測誤差をレジスタに書き出す。フレーム内予測の方法としては,例えば,H.264で規定される方法がある。
・ステップS104:当該フレーム,前方予測参照フレームを入力として読み込み,当該フレーム中の当該ブロックに対して,動き補償によるフレーム間予測を行い,同ブロックにおける予測誤差をレジスタに書き出す。動き補償によるフレーム間予測の方法としては,例えば,H.264で規定される方法がある。
・ステップS105:ステップS103およびステップS104で算出したフレーム内予測誤差およびフレーム間予測誤差を入力とし,両者を比較する処理を行い,フレーム内予測誤差がフレーム間予測誤差よりも小さい場合には,ステップS106の処理に移る。そうでなければ,ステップS107の処理に移る。
・ステップS106:当該ブロックのモードを非前方インターブロックとして,当該ブロックの位置情報と共に,このモード情報を書き出し,ステップS113へ進む。
・ステップS107:当該ブロックのモードを前方インターブロックとして,当該ブロックの位置情報と共に,このモード情報を書き出し,ステップS113へ進む。
・ステップS108:当該フレームに対して,後方フレーム間予測を行う場合の参照フレーム(後方予測参照フレーム)を読み込み,フレームバッファに格納する。
・ステップS109:当該フレーム,後方予測参照フレームを読み込み,当該フレーム中の当該ブロックに対して,動き補償によるフレーム間予測を行い,同ブロックにおける予測残差和を書き出す。動き補償によるフレーム間予測の方法としては,例えば,H.264の方法がある。
・ステップS110:ステップS103およびステップS109で算出したフレーム内予測誤差およびフレーム間予測誤差を入力とし,両者を比較する処理を行い,フレーム内予測誤差がフレーム間予測誤差よりも小さい場合には,ステップS111の処理に移る。そうでなければ,ステップS112の処理に移る。
・ステップS111:当該ブロックのモードを非後方インターブロックとして,当該ブロックの位置情報と共に,このモード情報を書き出し,ステップS113へ進む。
・ステップS112:当該ブロックのモードを後方インターブロックとして,当該ブロックの位置情報と共に,このモード情報を書き出し,ステップS113へ進む。
・ステップS113:すべての外縁ブロックについて処理を終えたかどうかを判定し,判定結果が真値の場合には処理を終了し,呼出し元へ戻る。偽値の場合,ステップS114へ進む。
・ステップS114:処理対象を次の外縁ブロックとし,ステップS103,S104,S109以降の処理を同様に繰り返す。
<Flow of Step S1 (Part 1)>
FIG. 7 shows the flow of detailed processing in step S1 of FIG. The details of the mode determination process performed on the outer edge block in step S1 will be described below with reference to FIG.
Step S101: The frame is read and stored in the frame buffer.
Step S102: A reference frame (forward prediction reference frame) when performing inter-frame prediction is read from the frame and stored in the frame buffer.
Step S103: The frame is read, intra-frame prediction is performed on the block in the frame, and the prediction error in the block is written to the register. As a method of intra-frame prediction, for example, H.264. There is a method defined in H.264.
Step S104: The frame and the forward prediction reference frame are read as inputs, inter-frame prediction is performed on the block in the frame by motion compensation, and the prediction error in the block is written to the register. As a method of inter-frame prediction by motion compensation, for example, H.264. There is a method defined in H.264.
Step S105: When the intra-frame prediction error and the inter-frame prediction error calculated in steps S103 and S104 are input, a comparison process is performed. If the intra-frame prediction error is smaller than the inter-frame prediction error, step S105 is performed. The process proceeds to S106. Otherwise, the process proceeds to step S107.
Step S106: The mode of the block is set as a non-front inter-block, the mode information is written together with the position information of the block, and the process proceeds to step S113.
Step S107: The mode of the block is set as the front inter block, the mode information is written together with the position information of the block, and the process proceeds to Step S113.
Step S108: A reference frame (backward prediction reference frame) when performing backward inter-frame prediction is read for the frame and stored in the frame buffer.
Step S109: Read the frame and backward prediction reference frame, perform inter-frame prediction by motion compensation for the block in the frame, and write the prediction residual sum in the block. As a method of inter-frame prediction by motion compensation, for example, H.264. There are 264 methods.
Step S110: When the intra-frame prediction error and the inter-frame prediction error calculated in steps S103 and S109 are input, a process for comparing both is performed. If the intra-frame prediction error is smaller than the inter-frame prediction error, step S110 is performed. The process proceeds to S111. Otherwise, the process proceeds to step S112.
Step S111: The mode of the block is set as a non-rear inter-block, and the mode information is written together with the position information of the block, and the process proceeds to step S113.
Step S112: The mode of the block is set as a backward inter block, the mode information is written together with the position information of the block, and the process proceeds to Step S113.
Step S113: It is determined whether or not processing has been completed for all outer edge blocks. If the determination result is a true value, the processing is terminated and the process returns to the caller. In the case of a false value, the process proceeds to step S114.
Step S114: The process target is set as the next outer edge block, and the processes after steps S103, S104, and S109 are similarly repeated.

<ステップS1の処理の流れ(その2)>
図6のステップS1の処理としては,図7に示す処理方法の他に,図21に示すように,演算量をさらに削減した方法を用いることも可能である。図21に示す処理は,図7から,一部処理を省略した構成になっており,各処理については,図7で説明した処理と同様であるので,これ以上の詳しい説明を省略する。
<Process Flow of Step S1 (Part 2)>
As the processing in step S1 in FIG. 6, in addition to the processing method shown in FIG. 7, it is also possible to use a method in which the amount of calculation is further reduced as shown in FIG. The process shown in FIG. 21 has a configuration in which some processes are omitted from FIG. 7. Since each process is the same as the process described with reference to FIG. 7, further detailed description thereof is omitted.

<ステップS2の処理の流れ(その1)>
図8および図9は,図6のステップS2における詳細な処理の流れを示している。以下,図8を用いて,ステップS2における外縁ブロックに対して時間方向の相関の強度を測定する処理の詳細を説明する。なお,図9については,図8と同様であるので,個々の処理ステップに関する詳しい説明は省略する。
・ステップS201:図7で出力される右端の外縁ブロックに対するモード識別処理の結果を入力とし,非前方インターブロックに分類されたブロックの個数をカウントする処理を行い,このカウントされた頻度値をレジスタに書き出す。また,図7で出力される右端の外縁ブロックに対するモード識別処理の結果を入力とし,非後方インターブロックに分類されたブロックの個数をカウントする処理を行い,このカウントされた頻度値をレジスタに書き出す。
・ステップS202:所定の閾値,およびステップS201で出力した非前方インターブロックの頻度値を入力とし,右端の外縁ブロックに対して,非前方インターブロックの占める割合を算出し,同割合と閾値の大小比較を行う。同割合が閾値以上であれば,右端の外縁ブロックに対する前方弱時間相関フラグを1に設定する。そうでなければ,前方弱時間相関フラグを0に設定する。
・ステップS203:所定の閾値,およびステップS201で出力した非後方インターブロックの頻度値を入力とし,右端の外縁ブロックに対して,非後方インターブロックの占める割合を算出し,同割合と閾値の大小比較を行う。同割合が閾値以上であれば,右端の外縁ブロックに対する後方弱時間相関フラグを1に設定する。そうでなければ,後方弱時間相関フラグを0に設定する。
・ステップS204:図7で出力される上端の外縁ブロックに対するモード識別処理の結果を入力とし,前方インターブロックに分類されたブロックの個数をカウントする処理を行い,このカウントされた頻度値をレジスタに書き出す。同様に,後方インターブロックに分類されたブロックの個数をカウントする処理を行い,このカウントされた頻度値をレジスタに書き出す。
・ステップS205:図7で出力される下端の外縁ブロックに対するモード識別処理の結果を入力とし,前方インターブロックに分類されたブロックの個数をカウントする処理を行い,このカウントされた頻度値をレジスタに書き出す。同様に,後方インターブロックに分類されたブロックの個数をカウントする処理を行い,このカウントされた頻度値をレジスタに書き出す。
・ステップS206:所定の閾値,およびステップS204,S205で出力した頻度値を入力とし,上端の外縁ブロックに対して,前方インターブロックの占める割合,および後方インターブロックの占める割合を算出し,これら2つの割合に対して,各々,閾値との大小比較を行う。これらの2つの割合のいずれかが,閾値以上であれば,上端の外縁ブロックに対する動領域フラグを1に設定する。そうでなければ,動領域フラグを0に設定する。
・ステップS207:所定の閾値,およびステップS204,S205で出力した頻度値を入力とし,下端の外縁ブロックに対して,前方インターブロックの占める割合,および後方インターブロックの占める割合を算出し,これら2つの割合に対して,各々,閾値との大小比較を行う。これらの2つの割合のいずれかが,閾値以上であれば,下端の外縁ブロックに対する動領域フラグを1に設定する。そうでなければ,動領域フラグを0に設定する。
・ステップS211−S217:ステップS201−S207と同様である。
<Flow of Step S2 (Part 1)>
8 and 9 show the detailed processing flow in step S2 of FIG. Hereinafter, the details of the process of measuring the strength of the correlation in the time direction with respect to the outer edge block in step S2 will be described using FIG. Note that FIG. 9 is the same as FIG. 8, and thus detailed description regarding each processing step is omitted.
Step S201: The result of the mode identification process for the rightmost outer edge block output in FIG. 7 is input, the process of counting the number of blocks classified as non-forward inter blocks is performed, and the counted frequency value is registered. Export to Further, the result of the mode identification process for the rightmost outer edge block output in FIG. 7 is used as an input, the number of blocks classified as non-rear interblocks is counted, and the counted frequency value is written to the register. .
Step S202: Using the predetermined threshold value and the frequency value of the non-front inter-block output in step S201 as input, calculate the ratio of the non-front inter-block to the rightmost outer edge block, and calculate the ratio and the threshold value Make a comparison. If the ratio is equal to or greater than the threshold, the forward weak time correlation flag for the rightmost outer edge block is set to 1. Otherwise, the forward weak time correlation flag is set to 0.
Step S203: Using the predetermined threshold value and the frequency value of the non-rear interblock output in step S201 as input, calculate the ratio of the non-rear interblock to the rightmost outer edge block, and calculate the same ratio and the magnitude of the threshold value. Make a comparison. If the ratio is equal to or greater than the threshold, the backward weak time correlation flag for the rightmost outer edge block is set to 1. Otherwise, the backward weak time correlation flag is set to 0.
Step S204: Using the result of the mode identification process for the outer edge block output in FIG. 7 as an input, the process of counting the number of blocks classified as the front inter block is performed, and this counted frequency value is stored in the register. Write out. Similarly, a process of counting the number of blocks classified as backward inter blocks is performed, and the counted frequency value is written to a register.
Step S205: Using the result of the mode identification process for the lower edge block output in FIG. 7 as an input, perform the process of counting the number of blocks classified as the front inter block, and store the counted frequency value in the register Write out. Similarly, a process of counting the number of blocks classified as backward inter blocks is performed, and the counted frequency value is written to a register.
Step S206: Using the predetermined threshold value and the frequency value output in Steps S204 and S205 as inputs, calculate the ratio of the front inter block and the ratio of the rear inter block to the outer edge block at the upper end. Each ratio is compared with the threshold value. If either of these two ratios is equal to or greater than the threshold, the moving region flag for the outer edge block at the upper end is set to 1. Otherwise, the moving area flag is set to 0.
Step S207: Using the predetermined threshold value and the frequency value output in steps S204 and S205 as inputs, calculate the ratio of the front inter block and the ratio of the rear inter block to the outer edge block at the lower end. Each ratio is compared with the threshold value. If either of these two ratios is equal to or greater than the threshold, the moving region flag for the outer edge block at the lower end is set to 1. Otherwise, the moving area flag is set to 0.
Steps S211 to S217: The same as steps S201 to S207.

<ステップS2の処理の流れ(その2)>
図6のステップS2の処理としては,図8および図9に示す処理方法の他に,図22および図23に示すように,演算量をさらに削減した方法を用いることも可能である。図22および図23に示す処理は,図8および図9から,一部処理を省略した構成になっており,各処理については,図8で説明した処理と同様であるので,これ以上の詳しい説明を省略する。
<Processing flow of step S2 (2)>
As the processing in step S2 in FIG. 6, in addition to the processing methods shown in FIGS. 8 and 9, it is also possible to use a method in which the amount of calculation is further reduced as shown in FIGS. The processing shown in FIG. 22 and FIG. 23 has a configuration in which some processing is omitted from FIG. 8 and FIG. 9, and each processing is the same as the processing explained in FIG. Description is omitted.

<ステップS3の処理の流れ(その1)>
図10は,図6のステップS3における詳細な処理の流れを示している。以下,図10を用いて,ステップS3における右方向のパンの判定処理の詳細を説明する。
・ステップS301:図8で出力した右端の外縁ブロックに対する前方弱時間相関フラグを入力として読み込み,レジスタに書き出す。
・ステップS302:ステップS301で読み込んだ右端の外縁ブロックに対する前方弱時間相関フラグを入力として,1か否かの判定処理を行い,1である場合,ステップS303の処理に移り,そうでなければ,ステップS314の処理に移る。
・ステップS303:図8で出力した右端の外縁ブロックに対する後方弱時間相関フラグを入力として読み込み,レジスタに書き出す。
・ステップS304:ステップS303で読み込んだ右端の外縁ブロックに対する後方弱時間相関フラグを入力として,同フラグが零値か否かの判定処理を行い,零値の場合,ステップS305の処理に移り,そうでなければ,ステップS314の処理に移る。
・ステップS305:図8で出力した左端の外縁ブロックに対する前方弱時間相関フラグを入力として読み込み,レジスタに書き出す。
・ステップS306:ステップS305で読み込んだ左端の外縁ブロックに対する前方弱時間相関フラグを入力として,同フラグが零値か否かの判定処理を行い,零値の場合,ステップS307の処理に移り,そうでなければ,ステップS314の処理に移る。
・ステップS307:図8で出力した左端の外縁ブロックに対する後方弱時間相関フラグを入力として読み込み,レジスタに書き出す。
・ステップS308:ステップS307で読み込んだ左端の外縁ブロックに対する後方弱時間相関フラグを入力として,同フラグが1か否かの判定処理を行い,同フラグが1である場合,ステップS309の処理に移り,そうでなければ,ステップS314の処理に移る。
・ステップS309:図8で出力した上端の外縁ブロックに対する動領域フラグを入力として読み込み,レジスタに書き出す。
・ステップS310:ステップS309で読み込んだ上端の外縁ブロックに対する動領域フラグを入力として,同フラグが1か否かの判定処理を行い,同フラグが1である場合,ステップS311の処理に移り,そうでなければ,ステップS314の処理に移る。
・ステップS311:図8で出力した下端の外縁ブロックに対する動領域フラグを入力として読み込み,レジスタに書き出す。
・ステップS312:ステップS311で読み込んだ下端の外縁ブロックに対する動領域フラグを入力として,同フラグが1か否かの判定処理を行い,同フラグが1である場合,ステップS313の処理に移り,そうでなければ,ステップS314の処理に移る。
・ステップS313:当該フレームに,右方向のパンが含まれると判定する。
・ステップS314:当該フレームに,右方向のパンが含まれないと判定する。
<Processing flow of step S3 (part 1)>
FIG. 10 shows the detailed processing flow in step S3 of FIG. The details of the right pan determination process in step S3 will be described below with reference to FIG.
Step S301: The forward weak time correlation flag for the rightmost outer edge block output in FIG. 8 is read as input and written to the register.
Step S302: Using the forward weak time correlation flag for the rightmost outer edge block read in Step S301 as an input, whether or not it is 1 is determined. If it is 1, the process proceeds to Step S303; The process proceeds to step S314.
Step S303: The backward weak time correlation flag for the rightmost outer edge block output in FIG. 8 is read as input and written to the register.
Step S304: Using the backward weak time correlation flag for the rightmost outer edge block read in step S303 as an input, a determination process is performed as to whether or not the flag is zero. If the flag is zero, the process proceeds to step S305. Otherwise, the process proceeds to step S314.
Step S305: The forward weak time correlation flag for the leftmost outer edge block output in FIG. 8 is read as input and written to the register.
Step S306: The forward weak time correlation flag for the leftmost outer edge block read in Step S305 is input, and it is determined whether or not the flag is zero. If the flag is zero, the process proceeds to Step S307. Otherwise, the process proceeds to step S314.
Step S307: The backward weak time correlation flag for the leftmost outer edge block output in FIG. 8 is read as input and written to the register.
Step S308: The backward weak time correlation flag for the leftmost outer edge block read in Step S307 is input, and it is determined whether or not the flag is 1. If the flag is 1, the process proceeds to Step S309. Otherwise, the process proceeds to step S314.
Step S309: The moving area flag for the outer edge block at the top output in FIG. 8 is read as input and written to the register.
Step S310: The moving region flag for the uppermost outer edge block read in step S309 is input, and it is determined whether the flag is 1. If the flag is 1, the process proceeds to step S311. Otherwise, the process proceeds to step S314.
Step S311: The moving area flag for the outer edge block at the lower end outputted in FIG. 8 is read as input and written to the register.
Step S312: The moving region flag for the lower edge block read in step S311 is input and a determination process is performed to determine whether the flag is 1. If the flag is 1, the process proceeds to step S313. Otherwise, the process proceeds to step S314.
Step S313: It is determined that a right pan is included in the frame.
Step S314: It is determined that right panning is not included in the frame.

図11,図12,図13については,図10と同様であり,それぞれ左方向のパンの判定処理,上方向のチルトの判定処理,下方向のチルトの判定処理を示している。   11, 12, and 13 are the same as FIG. 10, and show left pan determination processing, upward tilt determination processing, and downward tilt determination processing, respectively.

<ステップS3の処理の流れ(その2)>
図6のステップS3の処理としては,図10に示す処理方法の他に,図24に示すように,演算量をさらに削減した方法を用いることも可能である。図24に示す処理は,図10から,一部処理を省略した構成になっており,各処理については,図10で説明した処理と同様であるので,これ以上の詳しい説明を省略する。
<Processing flow of step S3 (part 2)>
As the processing in step S3 in FIG. 6, in addition to the processing method shown in FIG. 10, it is also possible to use a method in which the amount of calculation is further reduced as shown in FIG. The process shown in FIG. 24 has a configuration in which some of the processes are omitted from FIG. 10. Since each process is the same as the process described with reference to FIG.

図25,図26,図27についても,図24と同様である。   25, 26, and 27 are the same as those in FIG.

[装置図]
本発明の実施形態の装置図を,図14に示す。以下,図14を参照してカメラワーク検出装置の各部について説明する。
・外縁ブロック判定部101:外縁ブロックに対して,モードの判定処理を行い,判定結果をブロックタイプ記憶部102に書き出す。本処理部の詳細については,図15を用いて後述する。
・右端外縁ブロック選択部103:ブロックタイプ記憶部102から読み出すブロックタイプを入力とし,右端の外縁ブロックのブロックタイプを抽出する。
・右端外縁ブロックフラグ設定部104:右端の外縁ブロックに対して,時間方向の相関の強度を測定し,同強度を表すフラグを右端外縁ブロックフラグ記憶部105に書き出す。本処理部の詳細については,図16を用いて後述する。
・左端外縁ブロック選択部106:ブロックタイプ記憶部102から読み出すブロックタイプを入力とし,左端の外縁ブロックのブロックタイプを抽出する。
・左端外縁ブロックフラグ設定部107:左端の外縁ブロックに対して,時間方向の相関の強度を測定し,同強度を表すフラグを左端外縁ブロックフラグ記憶部108に書き出す。本処理部の詳細については,図16を用いて後述する。
・上端外縁ブロック選択部109:ブロックタイプ記憶部102から読み出すブロックタイプを入力とし,上端の外縁ブロックのブロックタイプを抽出する。
・上端外縁ブロックフラグ設定部110:上端の外縁ブロックに対して,時間方向の相関の強度を測定し,同強度を表すフラグを上端外縁ブロックフラグ記憶部111に書き出す。本処理部の詳細については,図16を用いて後述する。
・下端外縁ブロック選択部112:ブロックタイプ記憶部102から読み出すブロックタイプを入力とし,下端の外縁ブロックのブロックタイプを抽出する。
・下端外縁ブロックフラグ設定部113:下端の外縁ブロックに対して,時間方向の相関の強度を測定し,同強度を表すフラグを下端外縁ブロックフラグ記憶部114に書き出す。本処理部の詳細については,図16を用いて後述する。
・カメラワーク判定部120:カメラワークを判定するために,以下の右方向パン判定部121,左方向パン判定部122,上方向チルト判定部123,下方向チルト判定部124を備える。
・右方向パン判定部121:当該フレームにおいて右方向のパンのカメラワークが含まれているか否かの判定を行う。ここで行う判定処理の詳細については,図17を用いて後述する。
・左方向パン判定部122:当該フレームにおいて左方向のパンのカメラワークが含まれているか否かの判定を行う。ここで行う判定処理の詳細については,図18を用いて後述する。
・上方向チルト判定部123:当該フレームにおいて上方向のチルトのカメラワークが含まれているか否かの判定を行う。ここで行う判定処理の詳細については,図19を用いて後述する。
・下方向チルト判定部124:当該フレームにおいて下方向のチルトのカメラワークが含まれているか否かの判定を行う。ここで行う判定処理の詳細については,図20を用いて後述する。
[Device diagram]
An apparatus diagram of an embodiment of the present invention is shown in FIG. Hereinafter, each part of the camera work detection device will be described with reference to FIG.
Outer edge block determination unit 101: Performs mode determination processing on the outer edge block and writes the determination result to the block type storage unit 102. Details of this processing unit will be described later with reference to FIG.
Right end outer edge block selection unit 103: The block type read from the block type storage unit 102 is input, and the block type of the right end outer edge block is extracted.
Right end outer edge block flag setting unit 104: Measures the strength of correlation in the time direction for the right end outer edge block and writes a flag representing the same strength to the right end outer edge block flag storage unit 105. Details of this processing unit will be described later with reference to FIG.
Left edge outer edge block selection unit 106: The block type read from the block type storage unit 102 is input, and the block type of the left edge outer edge block is extracted.
Left end outer edge block flag setting unit 107: Measures the strength of correlation in the time direction with respect to the left end outer edge block, and writes a flag representing the same strength in the left end outer edge block flag storage unit 108. Details of this processing unit will be described later with reference to FIG.
Upper edge block selection unit 109: The block type read from the block type storage unit 102 is input, and the block type of the upper edge block is extracted.
Upper edge block flag setting unit 110: Measures the strength of the correlation in the time direction for the upper edge block, and writes a flag representing the intensity in the upper edge block flag storage unit 111. Details of this processing unit will be described later with reference to FIG.
Lower edge outer edge block selection unit 112: The block type read from the block type storage unit 102 is input, and the block type of the lower edge outer edge block is extracted.
Lower end outer edge block flag setting unit 113: Measures the strength of correlation in the time direction for the outer edge block at the lower end, and writes a flag representing the same strength to the lower end outer edge block flag storage unit 114. Details of this processing unit will be described later with reference to FIG.
Camera work determination unit 120: In order to determine camera work, the following right direction pan determination unit 121, left direction pan determination unit 122, upward tilt determination unit 123, and downward tilt determination unit 124 are provided.
Right pan determination unit 121: It is determined whether or not right pan camera work is included in the frame. Details of the determination processing performed here will be described later with reference to FIG.
Left panning determination unit 122: Determines whether left panning camerawork is included in the frame. Details of the determination processing performed here will be described later with reference to FIG.
Upward tilt determination unit 123: It is determined whether or not camera work with an upward tilt is included in the frame. Details of the determination processing performed here will be described later with reference to FIG.
Downward tilt determination unit 124: It is determined whether or not a downward tilt camera work is included in the frame. Details of the determination processing performed here will be described later with reference to FIG.

<外縁ブロック判定部101の構成図>
外縁ブロック判定部101の構成図を,図15に示す。
・前方予測参照フレーム記憶部201:当該フレームに対して,前方フレーム間予測を行う場合の参照フレーム(前方予測参照フレーム)を格納する。
・当該フレーム記憶部202:当該フレームを格納する。
・後方予測参照フレーム記憶部203:当該フレームに対して,後方フレーム間予測を行う場合の参照フレーム(後方予測参照フレーム)を読み込み,フレームバッファに格納する。
・フレーム内予測誤差算出部204:当該フレーム記憶部202から読み出した当該フレームを入力として,当該フレーム中の当該ブロックに対して,フレーム内予測を行い,同ブロックにおける予測残差和をフレーム内予測誤差記憶部205に書き出す。フレーム内予測の方法としては,例えば,H.264で規定された方法がある。
・フレーム間予測誤差算出部206:当該フレーム記憶部202から読み出した当該フレーム,前方予測参照フレーム記憶部201から読み出した前方予測参照フレームを入力として,当該フレーム中の当該ブロックに対して,動き補償によるフレーム間予測を行い,同ブロックにおける予測残差和をフレーム間予測誤差記憶部207に書き出す。動き補償によるフレーム間予測の方法としては,例えば,H.264で規定された方法がある。
・フレーム間予測誤差算出部208:当該フレーム記憶部202から読み出した当該フレーム,後方予測参照フレーム記憶部203から読み出した後方予測参照フレームを入力として,当該フレーム中の当該ブロックに対して,動き補償によるフレーム間予測を行い,同ブロックにおける予測残差和をフレーム間予測誤差記憶部209に書き出す。動き補償によるフレーム間予測の方法としては,例えば,H.264で規定された方法がある。
・予測誤差比較部210:フレーム内予測誤差記憶部205およびフレーム間予測誤差記憶部207から読み出したフレーム内予測誤差およびフレーム間予測誤差を入力とし,両者を比較する処理を行い,比較結果をブロックタイプ出力部211へ渡す。
・ブロックタイプ出力部211:予測誤差比較部210にて出力されたフレーム内予測誤差とフレーム間予測誤差の比較結果を入力として読み込み,フレーム内予測誤差がフレーム間予測誤差よりも小さい場合には,非前方インターブロックとして,当該ブロックの位置情報と共に,このモード情報をブロックタイプ記憶部214に書き出す。そうでなければ,前方インターブロックとして,当該ブロックの位置情報と共に,このモード情報をブロックタイプ記憶部214に書き出す。
・予測誤差比較部212:フレーム内予測誤差記憶部205およびフレーム間予測誤差記憶部209から読み出したフレーム内予測誤差およびフレーム間予測誤差を入力とし,両者を比較する処理を行い,比較結果をブロックタイプ出力部213へ渡す。
・ブロックタイプ出力部213:予測誤差比較部212にて出力されたフレーム内予測誤差とフレーム間予測誤差の比較結果を入力として読み込み,フレーム内予測誤差がフレーム間予測誤差よりも小さい場合には,非後方インターブロックとして,当該ブロックの位置情報と共に,このモード情報をブロックタイプ記憶部214に書き出す。そうでなければ,後方インターブロックとして,当該ブロックの位置情報と共に,このモード情報をブロックタイプ記憶部214に書き出す。
・最終ブロック判定部215:以上の処理をすべての外縁ブロックについて行う。
<Configuration of outer edge block determination unit 101>
A configuration diagram of the outer edge block determination unit 101 is shown in FIG.
Forward prediction reference frame storage unit 201: Stores a reference frame (forward prediction reference frame) when performing forward inter-frame prediction for the frame.
Frame storage unit 202: Stores the frame.
Backward prediction reference frame storage unit 203: Reads a reference frame (backward prediction reference frame) when performing backward interframe prediction for the frame, and stores it in the frame buffer.
Intra-frame prediction error calculation unit 204: Using the frame read from the frame storage unit 202 as an input, performs intra-frame prediction on the block in the frame, and calculates the prediction residual sum in the block as intra-frame prediction Write to the error storage unit 205. As a method of intra-frame prediction, for example, H.264. There is a method defined in H.264.
Inter-frame prediction error calculation unit 206: Using the frame read from the frame storage unit 202 and the forward prediction reference frame read from the forward prediction reference frame storage unit 201 as input, motion compensation is performed on the block in the frame. And the prediction residual sum in the same block is written in the inter-frame prediction error storage unit 207. As a method of inter-frame prediction by motion compensation, for example, H.264. There is a method defined in H.264.
Inter-frame prediction error calculation unit 208: Using the frame read from the frame storage unit 202 and the backward prediction reference frame read from the backward prediction reference frame storage unit 203 as input, motion compensation is performed on the block in the frame. And the prediction residual sum in the same block is written in the inter-frame prediction error storage unit 209. As a method of inter-frame prediction by motion compensation, for example, H.264. There is a method defined in H.264.
Prediction error comparison unit 210: An intra-frame prediction error and an inter-frame prediction error read from the intra-frame prediction error storage unit 205 and the inter-frame prediction error storage unit 207 are input, a process for comparing both is performed, and the comparison result is blocked It is passed to the type output unit 211.
Block type output unit 211: Reads the comparison result between the intra-frame prediction error and the inter-frame prediction error output from the prediction error comparison unit 210 as input, and when the intra-frame prediction error is smaller than the inter-frame prediction error, As a non-front inter block, this mode information is written in the block type storage unit 214 together with the position information of the block. Otherwise, the mode information is written in the block type storage unit 214 together with the position information of the block as a front inter block.
Prediction error comparison unit 212: Inputs the intra-frame prediction error and the inter-frame prediction error read from the intra-frame prediction error storage unit 205 and the inter-frame prediction error storage unit 209, performs a process of comparing both, and blocks the comparison result It is passed to the type output unit 213.
Block type output unit 213: Reads the comparison result of the intra-frame prediction error and the inter-frame prediction error output from the prediction error comparison unit 212 as input, and when the intra-frame prediction error is smaller than the inter-frame prediction error, As a non-rear interblock, this mode information is written in the block type storage unit 214 together with the position information of the block. Otherwise, this mode information is written in the block type storage unit 214 together with the position information of the block as a backward inter block.
Final block determination unit 215: The above process is performed for all outer edge blocks.

外縁ブロック判定部101の装置構成としては,図28に示すように,装置構成の演算量をさらに削減した構成も可能である。図28に示す装置構成は,図15に示す装置構成の一部を省略した構成になっており,各処理部については,図15と同様である。   As the device configuration of the outer edge block determination unit 101, as shown in FIG. 28, a configuration in which the calculation amount of the device configuration is further reduced is possible. The apparatus configuration shown in FIG. 28 is a configuration in which a part of the apparatus configuration shown in FIG. 15 is omitted, and the processing units are the same as those in FIG.

<右端外縁ブロックフラグ設定部104,左端外縁ブロックフラグ設定部107,上端外縁ブロックフラグ設定部110,下端外縁ブロックフラグ設定部113の構成図>
右端外縁ブロックフラグ設定部104,左端外縁ブロックフラグ設定部107,上端外縁ブロックフラグ設定部110,下端外縁ブロックフラグ設定部113の詳細構成について,図16を用いて説明する。
・外縁ブロック位置指定部300:カメラパラメータの検出対象とする外縁ブロックの指定位置を入力として,同指定位置を外縁ブロック位置指定記憶部304,310に書き出す。さらに,入力された指定位置に対してインターブロック判定の対象位置を313に書き出す。ここで外縁ブロックの位置とは,右端,左端,上端,下端のいずれかである。
・ブロックタイプ記憶部301:外縁ブロックのブロックタイプを格納する。
・非前方インターブロックカウント部302:ブロックタイプ記憶部301から読み出した外縁ブロックに対するブロックタイプを入力とし,非前方インターブロックに分類されたブロックの個数を外縁ブロックの位置毎にカウントする処理を行い,このカウントされた頻度値を外縁ブロックの位置毎にカウンター記憶部303に書き出す。ここで外縁ブロックの位置とは,右端,左端,上端,下端のいずれかである。
・非前方インターブロック割合判定部305:閾値記憶部307から読み出した閾値,および外縁ブロック位置指定記憶部304にて指定された位置の外縁ブロック(指定位置の外縁ブロック)に対する非前方インターブロックに分類されたブロックの頻度値をカウンター記憶部303から読み出して入力とし,指定位置の外縁ブロックに対して,非前方インターブロックの占める割合を算出し,同割合と閾値の大小比較を行う。同割合が閾値以上であれば,外縁ブロックに対する前方弱時間相関フラグを1に設定し,そうでなければ,同フラグを0に設定し,同フラグの値を前方弱時間相関フラグ記憶部306に書き出す。
・非後方インターブロックカウント部308:ブロックタイプ記憶部301から読み出した外縁ブロックに対するブロックタイプを入力とし,非後方インターブロックに分類されたブロックの個数を外縁ブロックの位置毎にカウントする処理を行い,このカウントされた頻度値を外縁ブロックの位置毎にカウンター記憶部309に書き出す。ここで外縁ブロックの位置とは,右端,左端,上端,下端のいずれかである。
・非後方インターブロック割合判定部311:閾値記憶部313から読み出した閾値,および外縁ブロック位置指定記憶部310にて指定された位置の外縁ブロック(指定位置の外縁ブロック)に対する非後方インターブロックに分類されたブロックの頻度値を,カウンター記憶部309から読み出して入力とし,指定位置の外縁ブロックに対して,非後方インターブロックの占める割合を算出し,同割合と閾値の大小比較を行う。同割合が閾値以上であれば,外縁ブロックに対する後方弱時間相関フラグを1に設定し,そうでなければ,同フラグを0に設定し,同フラグの値を後方弱時間相関フラグ記憶部312に書き出す。
・前方インターブロック割合判定部315:閾値記憶部317から読み出した閾値,および外縁ブロック位置指定記憶部314にて指定された位置の外縁ブロック(指定位置の外縁ブロック)に対する前方インターブロックあるいは,後方インターブロックに分類されたブロックの頻度値を,カウンター記憶部303および309から読み出して入力とし,指定位置の外縁ブロックに対して,前方インターブロックの占める割合,および後方インターブロックの占める割合を算出し,各々の割合と閾値の大小比較を行う。前方インターブロックの占める割合が閾値以上,または,後方インターブロックの占める割合が閾値以上であれば,外縁ブロックに対する動領域フラグを1に設定し,そうでなければ,同フラグを0に設定し,同フラグの値を動領域フラグ記憶部316に書き出す。
<Configuration diagram of right end outer edge block flag setting unit 104, left end outer edge block flag setting unit 107, upper end outer edge block flag setting unit 110, and lower end outer edge block flag setting unit 113>
Detailed configurations of the right end outer edge block flag setting unit 104, the left end outer edge block flag setting unit 107, the upper end outer edge block flag setting unit 110, and the lower end outer edge block flag setting unit 113 will be described with reference to FIG.
Outer edge block position specifying unit 300: The specified position of the outer edge block to be detected by the camera parameter is input, and the specified position is written in the outer edge block position specifying storage units 304 and 310. Furthermore, the target position for inter block determination is written in 313 for the designated position that has been input. Here, the position of the outer edge block is one of the right end, the left end, the upper end, and the lower end.
Block type storage unit 301: Stores the block type of the outer edge block.
Non-front inter-block counting unit 302: The block type for the outer edge block read from the block type storage unit 301 is input, and the number of blocks classified as non-front inter-blocks is counted for each position of the outer edge block. The counted frequency value is written in the counter storage unit 303 for each position of the outer edge block. Here, the position of the outer edge block is one of the right end, the left end, the upper end, and the lower end.
Non-front inter-block ratio determination unit 305: classify into non-front inter-blocks for the threshold value read from the threshold value storage unit 307 and the outer edge block (outer edge block at the specified position) at the position specified by the outer edge block position specification storage unit 304 The frequency value of the read block is read from the counter storage unit 303 and used as an input, the ratio of the non-front inter-block to the outer edge block at the specified position is calculated, and the ratio is compared with the threshold value. If the ratio is equal to or greater than the threshold, the forward weak time correlation flag for the outer edge block is set to 1. Otherwise, the flag is set to 0, and the value of the flag is stored in the forward weak time correlation flag storage unit 306. Write out.
Non-rear inter-block counting unit 308: The block type for the outer edge block read from the block type storage unit 301 is input, and the number of blocks classified as non-rear inter-blocks is counted for each position of the outer edge block. The counted frequency value is written in the counter storage unit 309 for each position of the outer edge block. Here, the position of the outer edge block is one of the right end, the left end, the upper end, and the lower end.
Non-rear inter-block ratio determining unit 311: Classification into non-rear inter-blocks for the threshold value read from the threshold value storage unit 313 and the outer edge block at the position specified by the outer edge block position specification storage unit 310 (outer edge block at the specified position) The frequency value of the obtained block is read from the counter storage unit 309 and used as an input, and the ratio of the non-rear inter-block to the outer edge block at the designated position is calculated, and the ratio is compared with the threshold value. If the ratio is equal to or greater than the threshold, the backward weak time correlation flag for the outer edge block is set to 1. Otherwise, the flag is set to 0, and the value of the flag is stored in the backward weak time correlation flag storage unit 312. Write out.
Front inter-block ratio determining unit 315: the front inter-block or the rear inter-block with respect to the threshold value read from the threshold value storage unit 317 and the outer edge block (outer edge block at the specified position) at the position designated by the outer edge block position designation storage unit 314 The frequency values of the blocks classified into the blocks are read from the counter storage units 303 and 309 and used as inputs, and the proportion of the front inter block and the proportion of the rear inter block are calculated with respect to the outer edge block at the designated position. The ratio of each ratio is compared with the threshold value. If the front interblock occupancy is greater than or equal to the threshold or the rear interblock occupancy is greater than or equal to the threshold, the dynamic region flag for the outer edge block is set to 1, otherwise the flag is set to 0, The value of the flag is written in the moving area flag storage unit 316.

以上の右端外縁ブロックフラグ設定部104,左端外縁ブロックフラグ設定部107,上端外縁ブロックフラグ設定部110,下端外縁ブロックフラグ設定部113の装置構成としては,図29に示す演算量をさらに削減した構成も可能である。図29に示す装置構成は,図16に示す装置構成から一部を省略した構成になっており,各処理部については,図16と同様である。   The apparatus configuration of the right edge block flag setting unit 104, the left edge block flag setting unit 107, the upper edge block flag setting unit 110, and the lower edge block flag setting unit 113 described above is a configuration in which the calculation amount shown in FIG. 29 is further reduced. Is also possible. The apparatus configuration shown in FIG. 29 is a configuration in which a part of the apparatus configuration shown in FIG. 16 is omitted, and the processing units are the same as those in FIG.

<右方向パン判定部121の構成図>
右方向パン判定部121の構成図を,図17に示す。以下,図17を用いて右方向パン判定部121の詳細構成について説明する。
・右側外縁ブロック前方弱時間相関フラグ記憶部401:図14の右端外縁ブロックフラグ記憶部105から読み出した右端の外縁ブロックに対する前方弱時間相関フラグを格納する。
・右側外縁ブロック前方弱時間相関フラグ非零値判定部402:右側外縁ブロック前方弱時間相関フラグ記憶部401から読み込んだ右端の外縁ブロックに対する前方弱時間相関フラグを入力として,同フラグが1か否かの判定処理を行い,同フラグが1の場合,右側外縁ブロック後方弱時間相関フラグ記憶部403の処理に移り,そうでなければ,右方向パンフラグ設定部413の処理に移る。
・右側外縁ブロック後方弱時間相関フラグ記憶部403:図14の右端外縁ブロックフラグ記憶部105から読み出した右端の外縁ブロックに対する後方弱時間相関フラグを格納する。
・右側外縁ブロック後方弱時間相関フラグ零値判定部404:右側外縁ブロック後方弱時間相関フラグ記憶部403から読み込んだ右端の外縁ブロックに対する後方弱時間相関フラグを入力として,同フラグが零値か否かの判定処理を行い,同フラグが零値の場合,左側外縁ブロック前方弱時間相関フラグ記憶部405の処理に移り,そうでなければ,右方向パンフラグ設定部413の処理に移る。
・左側外縁ブロック前方弱時間相関フラグ記憶部405:図14の左側外縁ブロックフラグ記憶部108から読み出した左端の外縁ブロックに対する前方弱時間相関フラグを格納する。
・左側外縁ブロック前方弱時間相関フラグ零値判定部406:左側外縁ブロック前方弱時間相関フラグ記憶部405から読み込んだ左端の外縁ブロックに対する前方弱時間相関フラグを入力として,同フラグが零値か否かの判定処理を行い,同フラグが零値の場合,左側外縁ブロック後方弱時間相関フラグ記憶部407の処理に移り,そうでなければ,右方向パンフラグ設定部413の処理に移る。
・左側外縁ブロック後方弱時間相関フラグ記憶部407:図14の左端外縁ブロックフラグ記憶部108から読み出した左端の外縁ブロックに対する後方弱時間相関フラグを格納する。
・左側外縁ブロック後方弱時間相関フラグ非零値判定部408:左側外縁ブロック後方弱時間相関フラグ記憶部407から読み込んだ左端の外縁ブロックに対する後方弱時間相関フラグを入力として,同フラグが1か否かの判定処理を行い,同フラグが1の場合,上側外縁ブロック動領域フラグ記憶部409の処理に移り,そうでなければ,右方向パンフラグ設定部413の処理に移る。
・上側外縁ブロック動領域フラグ記憶部409:図14の上端外縁ブロックフラグ記憶部111から読み出した上端の外縁ブロックに対する動領域フラグを格納する。
・上側外縁ブロック動領域フラグ非零値判定部410:上側外縁ブロック動領域フラグ記憶部409から読み込んだ上端の外縁ブロックに対する動領域フラグを入力として,同フラグが1か否かの判定処理を行い,同フラグが1の場合,下側外縁ブロック動領域フラグ記憶部411の処理に移り,そうでなければ,右方向パンフラグ設定部413の処理に移る。
・下側外縁ブロック動領域フラグ記憶部411:図14の下端外縁ブロックフラグ記憶部114から読み出した下端の外縁ブロックに対する動領域フラグを格納する。
・下側外縁ブロック動領域フラグ非零値判定部412:下側外縁ブロック動領域フラグ記憶部411から読み込んだ下端の外縁ブロックに対する動領域フラグを入力として,同フラグが1か否かの判定処理を行い,同フラグが1の場合,右方向パンフラグ設定部414の処理に移り,そうでなければ,右方向パンフラグ設定部413の処理に移る。
・右方向パンフラグ設定部414:当該フレームに,右方向のパンが含まれると判定し,その結果を右方向パンフラグ記憶部415に設定する。
・右方向パンフラグ設定部413:当該フレームに,右方向のパンが含まれないと判定し,その結果を右方向パンフラグ記憶部415に設定する。
<Configuration of right pan determination unit 121>
FIG. 17 shows a configuration diagram of the right pan determination unit 121. Hereinafter, the detailed configuration of the right direction pan determination unit 121 will be described with reference to FIG.
Right side outer edge block forward weak time correlation flag storage unit 401: Stores the forward weak time correlation flag for the rightmost outer edge block read from the right end outer edge block flag storage unit 105 in FIG.
Right outer edge block forward weak time correlation flag non-zero value determination unit 402: The forward weak time correlation flag for the rightmost outer edge block read from the right outer edge block forward weak time correlation flag storage unit 401 is input, and the flag is 1 or not. If the flag is 1, the process proceeds to the process of the right outer edge block backward weak time correlation flag storage unit 403. Otherwise, the process proceeds to the process of the right pan flag setting unit 413.
Right outer edge block backward weak time correlation flag storage unit 403: Stores a backward weak time correlation flag for the rightmost outer edge block read from the right end outer edge block flag storage unit 105 in FIG.
Right outer edge block backward weak time correlation flag zero value determination unit 404: The backward weak time correlation flag for the rightmost outer edge block read from the right outer edge block backward weak time correlation flag storage unit 403 is input, and the flag is zero or not. If the flag is zero, the process proceeds to the process of the left outer edge block forward weak time correlation flag storage unit 405. Otherwise, the process proceeds to the process of the right direction pan flag setting unit 413.
Left outer edge block forward weak time correlation flag storage unit 405: Stores a front weak time correlation flag for the leftmost outer edge block read from the left outer edge block flag storage unit 108 of FIG.
Left side outer edge block forward weak time correlation flag zero value determination unit 406: The front weak time correlation flag for the leftmost outer edge block read from the left outer edge block forward weak time correlation flag storage unit 405 is input, and the flag is zero or not. If the flag is zero, the process proceeds to the process of the left outer edge block backward weak time correlation flag storage unit 407. Otherwise, the process proceeds to the process of the right pan flag setting unit 413.
Left-side outer edge block backward weak time correlation flag storage unit 407: Stores the backward weak time correlation flag for the left-most outer edge block read from the left-end outer edge block flag storage unit 108 in FIG.
Left side outer edge block backward weak time correlation flag non-zero value determination unit 408: The backward weak time correlation flag for the leftmost outer edge block read from the left outer edge block backward weak time correlation flag storage unit 407 is input, and the flag is 1 or not. If the flag is 1, the process proceeds to the process of the upper outer edge block motion area flag storage unit 409. Otherwise, the process proceeds to the process of the right pan flag setting unit 413.
Upper edge block motion area flag storage unit 409: Stores a motion area flag for the upper edge block read from the upper edge block block storage unit 111 in FIG.
Upper edge block motion region flag non-zero value determination unit 410: The motion region flag for the uppermost outer edge block read from the upper edge block motion region flag storage unit 409 is input to determine whether the flag is 1 or not. If the flag is 1, the process proceeds to the process of the lower outer edge block motion area flag storage unit 411. Otherwise, the process proceeds to the process of the right pan flag setting unit 413.
Lower outer edge block motion area flag storage unit 411: Stores a motion area flag for the lower edge outer edge block read from the lower edge outer edge block flag storage unit 114 of FIG.
Lower outer edge block motion region flag non-zero value determination unit 412: Processing for determining whether or not the flag is 1 by using the motion region flag for the lower outer block read from the lower outer block motion region flag storage unit 411 as an input If the flag is 1, the process proceeds to the right pan flag setting unit 414. Otherwise, the process proceeds to the right pan flag setting unit 413.
Right pan flag setting unit 414: It is determined that right pan is included in the frame, and the result is set in the right pan flag storage unit 415.
Right pan flag setting unit 413: Determines that the frame does not include right pan, and sets the result in the right pan flag storage unit 415.

<左方向パン判定部122の構成図>
左方向パン判定部122の構成図を,図18に示す。図18の左方向パン判定部122による処理内容は,図17の右方向パン判定部121による処理内容とほぼ同様である。
<Configuration of Left Direction Pan Determination Unit 122>
A configuration diagram of the left pan determination unit 122 is shown in FIG. The processing content by the left direction pan determination unit 122 in FIG. 18 is substantially the same as the processing content by the right direction pan determination unit 121 in FIG.

<上方向チルト判定部123の構成図>
上方向チルト判定部123の構成図を,図19に示す。図19の上方向チルト判定部123による処理内容は,図17の右方向パン判定部121による処理内容とほぼ同様である。
<Configuration of Upward Tilt Determination Unit 123>
FIG. 19 shows a configuration diagram of the upward tilt determination unit 123. The processing content by the upward tilt determination unit 123 in FIG. 19 is substantially the same as the processing content by the right pan determination unit 121 in FIG.

<下方向チルト判定部124の構成図>
下方向チルト判定部124の構成図を,図20に示す。図20の下方向チルト判定部124による処理内容は,図17の右方向パン判定部121による処理内容とほぼ同様である。
<Configuration of Downward Tilt Determination Unit 124>
A configuration diagram of the downward tilt determination unit 124 is shown in FIG. The processing content by the downward tilt determination unit 124 in FIG. 20 is substantially the same as the processing content by the right pan determination unit 121 in FIG.

右方向パン判定部121の装置構成としては,図30に示す演算量をさらに削減した構成も可能である。図30に示す装置構成は,図17に示す装置構成から一部を省略した構成になっており,各処理部については,図17と同様である。   As an apparatus configuration of the right direction pan determination unit 121, a configuration in which the calculation amount shown in FIG. 30 is further reduced is possible. The apparatus configuration shown in FIG. 30 is a configuration obtained by omitting a part of the apparatus configuration shown in FIG. 17, and the processing units are the same as those in FIG.

また,図31,図32,図33に示す装置構成ついては,図30に示すものとほぼ同様であるので,説明の繰り返しを省略する。   Further, the apparatus configuration shown in FIGS. 31, 32, and 33 is substantially the same as that shown in FIG. 30, and thus the description thereof will not be repeated.

以上説明したカメラワークの検出の処理は,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。   The camerawork detection process described above can also be realized by a computer and a software program. The program can be provided by being recorded on a computer-readable recording medium or via a network. is there.

非連結領域を説明する図である。It is a figure explaining an unconnected field. フレーム内のブロック分割と外縁ブロックを説明する図である。It is a figure explaining the block division | segmentation in an flame | frame, and an outer edge block. 本発明の概要(右方向のパンの検出)を説明する図である。It is a figure explaining the outline | summary (detection of the panning of a right direction) of this invention. 本発明の概要(上方向のチルトの検出)を説明する図である。It is a figure explaining the outline | summary (detection of the upward tilt) of this invention. 外縁ブロックの動的設定によるカメラワークの大きさの検出を説明する図である。It is a figure explaining the detection of the magnitude | size of the camera work by the dynamic setting of an outer edge block. 実施例の処理フローチャートである。It is a process flowchart of an Example. 図6に示すステップS1の詳細な処理フローチャートである。It is a detailed process flowchart of step S1 shown in FIG. 図6に示すステップS2の詳細な処理フローチャートである。It is a detailed process flowchart of step S2 shown in FIG. 図6に示すステップS2の詳細な処理フローチャートである。It is a detailed process flowchart of step S2 shown in FIG. 図6に示すステップS3の詳細な処理フローチャートである。It is a detailed process flowchart of step S3 shown in FIG. 図6に示すステップS6の詳細な処理フローチャートである。It is a detailed process flowchart of step S6 shown in FIG. 図6に示すステップS10の詳細な処理フローチャートである。It is a detailed process flowchart of step S10 shown in FIG. 図6に示すステップS13の詳細な処理フローチャートである。It is a detailed process flowchart of step S13 shown in FIG. 実施例の装置構成図である。It is an apparatus block diagram of an Example. 図14に示す外縁ブロック判定部の詳細な構成図である。It is a detailed block diagram of the outer edge block determination part shown in FIG. 図14に示す右端外縁ブロックフラグ設定部の詳細な構成図である。It is a detailed block diagram of the right end outer edge block flag setting part shown in FIG. 図14に示す右方向パン判定部の詳細な構成図である。It is a detailed block diagram of the right direction pan determination part shown in FIG. 図14に示す左方向パン判定部の詳細な構成図である。It is a detailed block diagram of the left direction pan determination part shown in FIG. 図14に示す上方向チルト判定部の詳細な構成図である。It is a detailed block diagram of the upward direction tilt determination part shown in FIG. 図14に示す下方向チルト判定部の詳細な構成図である。It is a detailed block diagram of the downward direction tilt determination part shown in FIG. 図6に示すステップS1の詳細な他の処理フローチャートである。7 is another detailed processing flowchart of step S1 shown in FIG. 6. 図6に示すステップS2の詳細な他の処理フローチャートである。7 is another detailed process flowchart of step S2 shown in FIG. 6. 図6に示すステップS2の詳細な他の処理フローチャートである。7 is another detailed process flowchart of step S2 shown in FIG. 6. 図6に示すステップS3の詳細な他の処理フローチャートである。7 is another detailed processing flowchart of step S3 shown in FIG. 6. 図6に示すステップS6の詳細な他の処理フローチャートである。It is another detailed process flowchart of step S6 shown in FIG. 図6に示すステップS10の詳細な他の処理フローチャートである。It is another detailed process flowchart of step S10 shown in FIG. 図6に示すステップS13の詳細な他の処理フローチャートである。It is another detailed process flowchart of step S13 shown in FIG. 図14に示す外縁ブロック判定部の詳細な他の構成図である。FIG. 15 is another detailed configuration diagram of the outer edge block determination unit shown in FIG. 14. 図14に示す右端外縁ブロックフラグ設定部の詳細な他の構成図である。FIG. 15 is another detailed configuration diagram of the right end outer edge block flag setting unit shown in FIG. 14. 図14に示す右方向パン判定部の詳細な他の構成図である。It is another detailed block diagram of the right direction pan determination part shown in FIG. 図14に示す左方向パン判定部の詳細な他の構成図である。It is another detailed block diagram of the left direction pan determination part shown in FIG. 図14に示す上方向チルト判定部の詳細な他の構成図である。FIG. 15 is another detailed configuration diagram of the upward tilt determination unit shown in FIG. 14. 図14に示す下方向チルト判定部の詳細な他の構成図である。FIG. 15 is another detailed configuration diagram of the downward tilt determination unit shown in FIG. 14.

符号の説明Explanation of symbols

101 外縁ブロック判定部
102 ブロックタイプ記憶部
103 右端外縁ブロック選択部
104 右端外縁ブロックフラグ設定部
105 右端外縁ブロックフラグ記憶部
106 左端外縁ブロック選択部
107 左端外縁ブロックフラグ設定部
108 左端外縁ブロックフラグ記憶部
109 上端外縁ブロック選択部
110 上端外縁ブロックフラグ設定部
111 上端外縁ブロックフラグ記憶部
112 下端外縁ブロック選択部
113 下端外縁ブロックフラグ設定部
114 下端外縁ブロックフラグ記憶部
120 カメラワーク判定部
121 右方向パン判定部
122 左方向パン判定部
123 上方向チルト判定部
124 下方向チルト判定部
101 Outer edge block determination unit 102 Block type storage unit 103 Right end outer edge block selection unit 104 Right end outer edge block flag setting unit 105 Right end outer edge block flag storage unit 106 Left end outer edge block selection unit 107 Left end outer edge block flag setting unit 108 Left end outer edge block flag storage unit 109 Upper edge block selection unit 110 Upper edge block flag setting unit 111 Upper edge block flag storage unit 112 Lower edge block selection unit 113 Lower edge block flag setting unit 114 Lower edge block flag storage unit 120 Camera work determination unit 121 Right direction pan determination Unit 122 Left direction pan determination unit 123 Up direction tilt determination unit 124 Down direction tilt determination unit

Claims (9)

動画像フレームにおいて発生したカメラワークを検出するカメラワーク検出方法において,
フレーム内の右端,左端,上端もしくは下端の外縁におけるある範囲の領域の直前のフレームとの時間方向の相関が,当該フレームにおける空間方向の相関より小さいかどうかを判定する相関判定過程と,
前記フレーム内の右端の領域における前記時間方向の相関が前記空間方向の相関より小さくなる場合に,当該フレームは,右方向のパンを含むフレームであると判別し,
または,前記フレーム内の左端の領域における前記時間方向の相関が前記空間方向の相関より小さくなる場合に,当該フレームは,左方向のパンを含むフレームであると判別し,
または,前記フレーム内の上端の領域における前記時間方向の相関が前記空間方向の相関より小さくなる場合に,当該フレームは,上方向のチルトを含むフレームであると判別し,
または,前記フレーム内の下端の領域における前記時間方向の相関が前記空間方向の相関より小さくなる場合に,当該フレームは,下方向のチルトを含むフレームであると判別するカメラワーク判定過程とを有する
ことを特徴とするカメラワーク検出方法。
In a camera work detection method for detecting camera work generated in a moving image frame,
A correlation determination process for determining whether the temporal correlation with a frame immediately before a certain range of region at the right edge, left edge, upper edge or lower edge of the frame is smaller than the spatial correlation in the frame;
When the correlation in the time direction in the rightmost region in the frame is smaller than the correlation in the spatial direction, the frame is determined to be a frame including a pan in the right direction;
Or, when the correlation in the time direction in the leftmost region in the frame is smaller than the correlation in the spatial direction, the frame is determined to be a frame including a left pan,
Or, when the correlation in the time direction in the uppermost region in the frame is smaller than the correlation in the spatial direction, the frame is determined to be a frame including an upward tilt,
Alternatively, when the temporal correlation in the lower end region of the frame is smaller than the spatial correlation, the frame has a camera work determination process for determining that the frame includes a downward tilt. A camera work detection method characterized by the above.
動画像フレームにおいて発生したカメラワークを検出するカメラワーク検出方法において,
フレーム内の右端,左端,上端もしくは下端の外縁におけるある範囲の領域の直前のフレームとの時間方向の相関および直後のフレームとの時間方向の相関と,当該フレームにおける空間方向の相関との大小をそれぞれ比較する相関判定過程と,
前記フレーム内の右端の領域における,前記直前のフレームとの時間方向の相関が前記空間方向の相関より小さく,かつ,前記直後のフレームとの時間方向の相関が前記空間方向の相関より大きくなる場合に,当該フレームは,右方向のパンを含むフレームであると判別し,
または,前記フレーム内の左端の領域における,前記直前のフレームとの時間方向の相関が前記空間方向の相関より小さく,かつ,前記直後のフレームとの時間方向の相関が前記空間方向の相関より大きくなる場合に,当該フレームは,左方向のパンを含むフレームであると判別し,
または,前記フレーム内の上端の領域における,前記直前のフレームとの時間方向の相関が前記空間方向の相関より小さく,かつ,前記直後のフレームとの時間方向の相関が前記空間方向の相関より大きくなる場合に,当該フレームは,上方向のチルトを含むフレームであると判別し,
または,前記フレーム内の下端の領域における,前記直前のフレームとの時間方向の相関が前記空間方向の相関より小さく,かつ,前記直後のフレームとの時間方向の相関が前記空間方向の相関より大きくなる場合に,当該フレームは,下方向のチルトを含むフレームであると判別するカメラワーク判定過程とを有する
ことを特徴とするカメラワーク検出方法。
In a camera work detection method for detecting camera work generated in a moving image frame,
The magnitude of the temporal correlation with the immediately preceding frame and the temporal correlation with the immediately following frame and the spatial correlation with the corresponding frame in the range of the right edge, left edge, top edge, or bottom edge of the frame. Correlation judgment process to compare each,
In the rightmost region in the frame, the temporal correlation with the immediately preceding frame is smaller than the spatial correlation, and the temporal correlation with the immediately following frame is greater than the spatial correlation. In addition, it is determined that the frame includes a right pan,
Or, in the leftmost region in the frame, the temporal correlation with the immediately preceding frame is smaller than the spatial correlation, and the temporal correlation with the immediately following frame is larger than the spatial correlation. If this is the case, it is determined that the frame includes a left pan.
Alternatively, in the uppermost region in the frame, the temporal correlation with the immediately preceding frame is smaller than the spatial correlation, and the temporal correlation with the immediately following frame is larger than the spatial correlation. The frame is determined to be a frame including an upward tilt,
Alternatively, in the lower end region in the frame, the temporal correlation with the immediately preceding frame is smaller than the spatial correlation, and the temporal correlation with the immediately following frame is larger than the spatial correlation. In this case, the camera work detection method includes a camera work determination process for determining that the frame is a frame including a downward tilt.
請求項1または請求項2記載のカメラワーク検出方法において,
前記カメラワーク判定過程では,前記右方向のパンまたは前記左方向のパンを含むフレームであると判別する場合に,前記上端および下端の領域において,前記時間方向の相関が前記空間方向の相関よりも大きくなることをさらに条件とし,該条件を満たすときだけパンを含むフレームであると判別し,
前記上方向のチルトまたは前記下方向のチルトを含むフレームであると判別する場合に,前記左端および右端の領域において,前記時間方向の相関が前記空間方向の相関よりも大きくなることをさらに条件とし,該条件を満たすときだけチルトを含むフレームであると判別する
ことを特徴とするカメラワーク検出方法。
In the camerawork detection method according to claim 1 or 2,
In the camera work determination process, when it is determined that the frame includes the right pan or the left pan, the time direction correlation is higher than the spatial direction correlation in the upper and lower end regions. It is further determined that the frame is larger, and is determined to be a frame including pan only when the condition is satisfied.
When it is determined that the frame includes the upward tilt or the downward tilt, it is further provided that the temporal correlation is greater than the spatial correlation in the left and right end regions. And a camerawork detection method characterized by determining that the frame includes a tilt only when the condition is satisfied.
請求項1,請求項2または請求項3記載のカメラワーク検出方法において,
前記相関判定過程では,前記フレーム内を所定の大きさのブロックに分割し,前記外縁の領域に含まれるブロックごとに,動き補償によるフレーム間予測誤差と当該フレームにおけるイントラ予測に基づくフレーム内予測誤差の大小を比較し,前記フレーム内予測誤差が前記フレーム間予測誤差より小さいブロックの数または割合が所定の閾値より大きい場合に,前記時間方向の相関が前記空間方向の相関よりも小さいと判定する
ことを特徴とするカメラワーク検出方法。
In the camera work detection method according to claim 1, claim 2 or claim 3,
In the correlation determination process, the frame is divided into blocks of a predetermined size, and for each block included in the outer edge region, an inter-frame prediction error based on motion compensation and an intra-frame prediction error based on intra prediction in the frame. When the number or ratio of blocks in which the intra-frame prediction error is smaller than the inter-frame prediction error is larger than a predetermined threshold, it is determined that the temporal correlation is smaller than the spatial correlation A camera work detection method characterized by the above.
請求項1から請求項4までのいずれか1項に記載のカメラワーク検出方法において,
前記カメラワーク判定過程においてカメラワークが検出された場合に,前記フレーム内の外縁の領域をカメラワークの方向に沿って段階的に拡張しながら前記相関判定過程と前記カメラワーク判定過程とを繰り返し,前記カメラワーク判定過程による判定結果に従って,カメラワークの大きさを検出する
ことを特徴とするカメラワーク検出方法。
In the camera work detection method according to any one of claims 1 to 4,
When camerawork is detected in the camerawork determination process, the correlation determination process and the camerawork determination process are repeated while gradually expanding the outer edge region in the frame along the direction of the camerawork. A camera work detection method, comprising: detecting a size of a camera work according to a determination result of the camera work determination process.
動画像フレームにおいて発生したカメラワークを検出するカメラワーク検出装置において,
フレーム内の右端,左端,上端もしくは下端の外縁におけるある範囲の領域の直前のフレームとの時間方向の相関が,当該フレームにおける空間方向の相関より小さいかどうかを判定する相関判定手段と,
前記フレーム内の右端の領域における前記時間方向の相関が前記空間方向の相関より小さくなる場合に,当該フレームは,右方向のパンを含むフレームであると判別し,
または,前記フレーム内の左端の領域における前記時間方向の相関が前記空間方向の相関より小さくなる場合に,当該フレームは,左方向のパンを含むフレームであると判別し,
または,前記フレーム内の上端の領域における前記時間方向の相関が前記空間方向の相関より小さくなる場合に,当該フレームは,上方向のチルトを含むフレームであると判別し,
または,前記フレーム内の下端の領域における前記時間方向の相関が前記空間方向の相関より小さくなる場合に,当該フレームは,下方向のチルトを含むフレームであると判別するカメラワーク判定手段とを備える
ことを特徴とするカメラワーク検出装置。
In a camera work detection device that detects camera work generated in a moving image frame,
Correlation determining means for determining whether a temporal correlation with a frame immediately before a certain range of region at the right edge, left edge, upper edge or lower edge of the frame is smaller than a spatial correlation in the frame;
When the correlation in the time direction in the rightmost region in the frame is smaller than the correlation in the spatial direction, the frame is determined to be a frame including a pan in the right direction;
Or, when the correlation in the time direction in the leftmost region in the frame is smaller than the correlation in the spatial direction, the frame is determined to be a frame including a left pan,
Or, when the correlation in the time direction in the uppermost region in the frame is smaller than the correlation in the spatial direction, the frame is determined to be a frame including an upward tilt,
Or, when the temporal correlation in the lower end region in the frame is smaller than the spatial correlation, the frame includes camera work determination means for determining that the frame includes a downward tilt. A camera work detection device.
動画像フレームにおいて発生したカメラワークを検出するカメラワーク検出装置において,
フレーム内の右端,左端,上端もしくは下端の外縁におけるある範囲の領域の直前のフレームとの時間方向の相関および直後のフレームとの時間方向の相関と,当該フレームにおける空間方向の相関との大小をそれぞれ比較する相関判定手段と,
前記フレーム内の右端の領域における,前記直前のフレームとの時間方向の相関が前記空間方向の相関より小さく,かつ,前記直後のフレームとの時間方向の相関が前記空間方向の相関より大きくなる場合に,当該フレームは,右方向のパンを含むフレームであると判別し,
または,前記フレーム内の左端の領域における,前記直前のフレームとの時間方向の相関が前記空間方向の相関より小さく,かつ,前記直後のフレームとの時間方向の相関が前記空間方向の相関より大きくなる場合に,当該フレームは,左方向のパンを含むフレームであると判別し,
または,前記フレーム内の上端の領域における,前記直前のフレームとの時間方向の相関が前記空間方向の相関より小さく,かつ,前記直後のフレームとの時間方向の相関が前記空間方向の相関より大きくなる場合に,当該フレームは,上方向のチルトを含むフレームであると判別し,
または,前記フレーム内の下端の領域における,前記直前のフレームとの時間方向の相関が前記空間方向の相関より小さく,かつ,前記直後のフレームとの時間方向の相関が前記空間方向の相関より大きくなる場合に,当該フレームは,下方向のチルトを含むフレームであると判別するカメラワーク判定手段とを備える
ことを特徴とするカメラワーク検出装置。
In a camera work detection device that detects camera work generated in a moving image frame,
The magnitude of the temporal correlation with the immediately preceding frame and the temporal correlation with the immediately following frame and the spatial correlation with the corresponding frame in the range of the right edge, left edge, top edge, or bottom edge of the frame. A correlation determination means for comparing each;
In the rightmost region in the frame, the temporal correlation with the immediately preceding frame is smaller than the spatial correlation, and the temporal correlation with the immediately following frame is greater than the spatial correlation. In addition, it is determined that the frame includes a right pan,
Or, in the leftmost region in the frame, the temporal correlation with the immediately preceding frame is smaller than the spatial correlation, and the temporal correlation with the immediately following frame is larger than the spatial correlation. If this is the case, it is determined that the frame includes a left pan.
Alternatively, in the uppermost region in the frame, the temporal correlation with the immediately preceding frame is smaller than the spatial correlation, and the temporal correlation with the immediately following frame is larger than the spatial correlation. The frame is determined to be a frame including an upward tilt,
Alternatively, in the lower end region in the frame, the temporal correlation with the immediately preceding frame is smaller than the spatial correlation, and the temporal correlation with the immediately following frame is larger than the spatial correlation. In this case, the camera work detection device includes camera work determination means for determining that the frame is a frame including a downward tilt.
請求項1から請求項5までのいずれか1項に記載のカメラワーク検出方法を,コンピュータに実行させるためのカメラワーク検出プログラム。   A camera work detection program for causing a computer to execute the camera work detection method according to any one of claims 1 to 5. 請求項1から請求項5までのいずれか1項に記載のカメラワーク検出方法を,コンピュータに実行させるためのカメラワーク検出プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium recording a camera work detection program for causing a computer to execute the camera work detection method according to any one of claims 1 to 5.
JP2007059331A 2007-03-09 2007-03-09 CAMERA WORK DETECTION METHOD, DEVICE, PROGRAM, AND ITS RECORDING MEDIUM Expired - Fee Related JP4768649B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007059331A JP4768649B2 (en) 2007-03-09 2007-03-09 CAMERA WORK DETECTION METHOD, DEVICE, PROGRAM, AND ITS RECORDING MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007059331A JP4768649B2 (en) 2007-03-09 2007-03-09 CAMERA WORK DETECTION METHOD, DEVICE, PROGRAM, AND ITS RECORDING MEDIUM

Publications (2)

Publication Number Publication Date
JP2008225591A true JP2008225591A (en) 2008-09-25
JP4768649B2 JP4768649B2 (en) 2011-09-07

Family

ID=39844180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007059331A Expired - Fee Related JP4768649B2 (en) 2007-03-09 2007-03-09 CAMERA WORK DETECTION METHOD, DEVICE, PROGRAM, AND ITS RECORDING MEDIUM

Country Status (1)

Country Link
JP (1) JP4768649B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104657997A (en) * 2015-02-28 2015-05-27 北京格灵深瞳信息技术有限公司 Lens shifting detection methods and devices

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0223789A (en) * 1988-07-13 1990-01-25 Matsushita Electric Ind Co Ltd Method and device for detecting panning
JPH0223788A (en) * 1988-07-13 1990-01-25 Matsushita Electric Ind Co Ltd Method and device for detecting panning
JPH02206986A (en) * 1989-02-07 1990-08-16 Matsushita Electric Ind Co Ltd Moving vector detecting method
JPH0698315A (en) * 1992-07-03 1994-04-08 Samsung Electron Co Ltd Detection method of motion vector of image signal
JPH06133298A (en) * 1992-10-14 1994-05-13 Canon Inc Motion vector detector
JPH1070728A (en) * 1996-05-09 1998-03-10 Daewoo Electron Co Ltd Present frame prediction device
JP2000278694A (en) * 1999-03-19 2000-10-06 Canon Inc Encoding device, image processor, image processing system, encoding method and storage medium
JP2005175891A (en) * 2003-12-11 2005-06-30 Canon Inc Recorder
JP2007259197A (en) * 2006-03-24 2007-10-04 Matsushita Electric Ind Co Ltd Moving picture decoding and reproducing device with camera shake compensation function, and method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0223789A (en) * 1988-07-13 1990-01-25 Matsushita Electric Ind Co Ltd Method and device for detecting panning
JPH0223788A (en) * 1988-07-13 1990-01-25 Matsushita Electric Ind Co Ltd Method and device for detecting panning
JPH02206986A (en) * 1989-02-07 1990-08-16 Matsushita Electric Ind Co Ltd Moving vector detecting method
JPH0698315A (en) * 1992-07-03 1994-04-08 Samsung Electron Co Ltd Detection method of motion vector of image signal
JPH06133298A (en) * 1992-10-14 1994-05-13 Canon Inc Motion vector detector
JPH1070728A (en) * 1996-05-09 1998-03-10 Daewoo Electron Co Ltd Present frame prediction device
JP2000278694A (en) * 1999-03-19 2000-10-06 Canon Inc Encoding device, image processor, image processing system, encoding method and storage medium
JP2005175891A (en) * 2003-12-11 2005-06-30 Canon Inc Recorder
JP2007259197A (en) * 2006-03-24 2007-10-04 Matsushita Electric Ind Co Ltd Moving picture decoding and reproducing device with camera shake compensation function, and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104657997A (en) * 2015-02-28 2015-05-27 北京格灵深瞳信息技术有限公司 Lens shifting detection methods and devices
CN104657997B (en) * 2015-02-28 2018-01-09 北京格灵深瞳信息技术有限公司 A kind of lens shift detection method and device

Also Published As

Publication number Publication date
JP4768649B2 (en) 2011-09-07

Similar Documents

Publication Publication Date Title
US8199252B2 (en) Image-processing method and device
US8244054B2 (en) Method, apparatus and integrated circuit capable of reducing image ringing noise
JP2008514120A (en) Method and apparatus for high speed video frame / field coding
JP5285159B2 (en) Block noise and fidelity in watermarking
JP2007067469A (en) In-frame prediction coding control method, in-frame prediction coding control apparatus, in-frame prediction coding control program, and recording medium recorded with the program
JP2009147911A (en) Video data compression preprocessing method, video data compression method employing the same and video data compression system
US8594199B2 (en) Apparatus and method for motion vector filtering based on local image segmentation and lattice maps
JP2010232734A (en) Image encoding apparatus, and image encoding method
US8611423B2 (en) Determination of optimal frame types in video encoding
WO2007129591A1 (en) Shielding-object video-image identifying device and method
US20140254938A1 (en) Methods and apparatus for an artifact detection scheme based on image content
JP4768649B2 (en) CAMERA WORK DETECTION METHOD, DEVICE, PROGRAM, AND ITS RECORDING MEDIUM
CN105992012B (en) Error concealment method and device
JP2010258576A (en) Scene change detector, and video recorder
US20130251045A1 (en) Method and device for determining a motion vector for a current block of a current video frame
JP4225503B2 (en) Moving image cut point detection device
CN109769120B (en) Method, apparatus, device and medium for determining skip coding mode based on video content
US9563960B2 (en) Method for detecting foreground
US8396125B2 (en) Picture coding apparatus and picture coding method
US10063880B2 (en) Motion detecting apparatus, motion detecting method and program
JP2008306519A (en) Motion searching apparatus, motion searching method, motion searching program, and computer-readable recording medium recorded with the program thereon
JP2005122571A (en) Image processor, image processing method, program and storage medium
JP2005203939A (en) Moving image decoder, method for interpolating defective pixel of moving image, and method for searching reference position of moving image
JP4398390B2 (en) Fade detection device
JP4261603B2 (en) Moving image cut point detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090115

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110616

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees