JP5549431B2 - Server apparatus, moving vector detection method and program - Google Patents
Server apparatus, moving vector detection method and program Download PDFInfo
- Publication number
- JP5549431B2 JP5549431B2 JP2010152108A JP2010152108A JP5549431B2 JP 5549431 B2 JP5549431 B2 JP 5549431B2 JP 2010152108 A JP2010152108 A JP 2010152108A JP 2010152108 A JP2010152108 A JP 2010152108A JP 5549431 B2 JP5549431 B2 JP 5549431B2
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- vector
- frame
- moving image
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
本発明は、2つのフレームの間で移動した領域を検出するサーバ装置、移動ベクトル検出方法及びプログラムに関する。 The present invention relates to a server device, a movement vector detection method, and a program for detecting an area moved between two frames.
ネットワークの発達により、あらゆる場所でネットワークに接続できる環境が整ってきている。このため、あらゆる場所で使用できるように、機能を落とし、できる限り軽量化したクライアント装置を用意し、クライアント装置に入力された操作に対する処理は、ネットワークを介し接続したサーバ装置が行うようにしたクライアントサーバシステムが実用的になってきている。 With the development of the network, an environment that can connect to the network everywhere has been established. For this reason, a client device that is reduced in function and reduced in weight as much as possible so that it can be used everywhere is prepared, and processing for operations input to the client device is performed by a server device connected via a network. Server systems are becoming practical.
このようなクライアントサーバシステムでは、クライアント装置に入力された操作の処理結果を示す画面はサーバ装置により生成される。このため、クライアント装置において、サーバ装置で行われた処理結果を表示するために、サーバ装置は、生成した画面の情報を、所定の時間間隔で、クライアント装置に送信している。 In such a client-server system, a screen indicating the processing result of the operation input to the client device is generated by the server device. For this reason, in order to display the processing result performed in the server device in the client device, the server device transmits the generated screen information to the client device at predetermined time intervals.
このとき、所定間隔で送られる画面のデータであるフレームデータのデータサイズやネットワークの混雑具合によっては、クライアント装置に操作情報が入力されてから、この操作情報を反映したフレームデータがクライアント装置に表示されるまでに、遅延が生じることがある。この遅延を小さくするためには、サーバ装置からクライアント装置に送信されるフレームデータのデータサイズはできる限り小さくする必要がある。 At this time, depending on the data size of frame data, which is screen data sent at a predetermined interval, and the degree of network congestion, after the operation information is input to the client device, the frame data reflecting this operation information is displayed on the client device. There may be a delay before it is done. In order to reduce this delay, it is necessary to make the data size of the frame data transmitted from the server device to the client device as small as possible.
そこで、送信されるフレームデータのデータサイズを小さくする方法がいろいろ取り入れられてきている。例えば、前回生成されたフレームデータから変化した部分だけを送信する差分伝送などの方法が用いられている。 Therefore, various methods for reducing the data size of transmitted frame data have been adopted. For example, a method such as differential transmission is used in which only a portion changed from the previously generated frame data is transmitted.
差分伝送の方法では、通常、図27に示すようなフレーム上でのウィンドウ部分の移動の場合、時間的に後のフレームのうちの時間的に前のフレームから変化した領域、つまり、図28に示すように、時間的に後のフレームのうちの移動前のウィンドウ部分に対応する領域と移動後のウィンドウ部分の領域を差分領域と認識し、この差分領域のデータを差分データとしてサーバ装置からクライアント装置に送信している。しかし、移動するウィンドウ部分の画像が変化しない場合は、移動前のウィンドウ部分と移動後のウィンドウ部分を含む領域全体のデータを差分データとして送る必要はない。 In the differential transmission method, usually, in the case of movement of the window portion on the frame as shown in FIG. 27, the region changed from the temporally previous frame in the temporally subsequent frame, that is, in FIG. As shown in the figure, the area corresponding to the window part before the movement in the temporally subsequent frame and the area of the window part after the movement are recognized as the difference area, and the data from the difference area is used as the difference data from the server device to the client. Sending to the device. However, when the image of the moving window part does not change, it is not necessary to send the entire data including the window part before moving and the window part after moving as difference data.
ウィンドウ部分の画像が変化しないのであれば、すでにクライアント装置に格納されている移動前のウィンドウ部分の画像を、移動後のウィンドウ部分の画像として使用すれば良い。つまり、移動後のウィンドウ部分に対しては、クライアント装置に格納されたフレームデータ上において、移動後のウィンドウ部分の格納位置に、移動前のウィンドウ部分の画像データをコピーすれば良い。そして、図29に示すような残りのデータだけを差分データとしてサーバ装置から送信し、クライアント装置に格納されたフレームデータ上において、移動前のウィンドウ部分をこの差分データに書き換えれば、ウィンドウ部分が移動した後の画像を再現することができる。つまり、図30に示すように、ウィンドウ部分の移動前の位置情報とウィンドウ部分の移動先についての情報と、残りの差分データを送信するだけで、ウィンドウ部分が移動した後のフレームデータをクライアント装置側で再現することができる。 If the image of the window portion does not change, the image of the window portion before movement already stored in the client device may be used as the image of the window portion after movement. In other words, for the window part after movement, the image data of the window part before movement may be copied to the storage position of the window part after movement on the frame data stored in the client device. Then, only the remaining data as shown in FIG. 29 is transmitted as difference data from the server device, and the window portion is moved by rewriting the window portion before movement to the difference data on the frame data stored in the client device. The reproduced image can be reproduced. That is, as shown in FIG. 30, only the position information before the movement of the window part, the information about the movement destination of the window part, and the remaining difference data are transmitted, and the frame data after the movement of the window part is transmitted to the client device. Can be reproduced on the side.
ここで、ウィンドウ部分の移動前の位置情報としては、ウィンドウ部分の左上端点の座標と右下端点の座標の組み合わせでも良いし、左上端点の座標とウィンドウ部分のサイズ(ウィンドウ部分の水平方向の長さと垂直方向の長さ)の組み合わせでも良い。つまり、ウィンドウ部分の移動前の位置情報としては、4つの数値データを送信するだけで良い。また、ウィンドウ部分の移動先の情報としては、例えば、移動前のウィンドウ部分の左上端点の座標と移動後のウィンドウ部分の左上端点の座標とを結ぶベクトル、つまり、移動ベクトルの情報を送信すれば良い。つまり、ウィンドウ部分の移動先の情報としては、移動ベクトルの座標値である2つの数値データを送信するだけで良い。よって、移動後のウィンドウ部分のデータを送信する代わりに、6つの数値データを送信すれば良いことになり、送信するデータのデータサイズがかなり小さくすることができる。 Here, the position information before the movement of the window portion may be a combination of the coordinates of the upper left end point and the coordinates of the lower right end point of the window portion, or the coordinates of the upper left end point and the size of the window portion (the length of the window portion in the horizontal direction). And the length in the vertical direction). That is, it is only necessary to transmit four numerical data as position information before the window portion is moved. Further, as the information on the movement destination of the window part, for example, if a vector connecting the coordinates of the upper left end point of the window part before the movement and the coordinates of the upper left end point of the window part after the movement, that is, information on the movement vector is transmitted. good. That is, as the information on the movement destination of the window portion, it is only necessary to transmit two numerical data that are coordinate values of the movement vector. Therefore, instead of transmitting the data of the window part after movement, it is only necessary to transmit six numerical data, and the data size of the data to be transmitted can be considerably reduced.
例えば、特許文献1では、ウィンドウ部分などの移動する領域を検出する方法や、その領域の移動ベクトルや残りの差分データを検出する方法が開示されている。
For example,
しかしながら、特許文献1に開示された方法を含め、これまでの方法は、サーバ装置からクライアント装置に送信される動画が、カメラなどのレンズを通して撮像された情報により生成される動画である自然動画であるのか、サーバ装置のデジタル処理のみにより生成される動画である人工動画であるのか、を考慮していない。
However, the methods so far including the method disclosed in
自然動画は、人工動画と違い、色の揺らぎや位置の揺らぎが存在する。つまり、特許文献1に開示された方法を含め、これまでの方法では、これらの揺らぎを考慮していないため、自然動画を扱う際に、移動ベクトルの算出の精度が落ちるという問題があった。
Unlike an artificial video, a natural video has color fluctuations and position fluctuations. In other words, the conventional methods including the method disclosed in
そこで本発明は、上記問題点に鑑みてなされたもので、移動ベクトルを精度良く検出するサーバ装置、移動ベクトル検出方法及びプログラムを提供することを目的とする。 Therefore, the present invention has been made in view of the above-described problems, and an object thereof is to provide a server device, a movement vector detection method, and a program that detect a movement vector with high accuracy.
上記課題を解決するため、本発明におけるサーバ装置は、動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段と、を有し、前記移動ベクトル検出手段は、前記動画種判別手段による判別結果に基づいて前記移動ベクトルを検出することを特徴とする。 In order to solve the above-described problem, the server device according to the present invention includes a moving image type determining unit that determines whether moving image data is a natural moving image in which color and position fluctuations exist, and a continuous frame constituting the moving image data. By comparing a certain first frame with a second frame, it is possible to move the moving area, which is an image area that exists in both of the two frames and whose position on the frame is moving. Movement vector detection means for detecting a movement vector indicating a magnitude and direction, wherein the movement vector detection means detects the movement vector based on a determination result by the moving image type determination means.
また、本発明における移動ベクトル検出方法は、動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別ステップと、前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出ステップと、を有し、前記移動ベクトル検出ステップは、前記動画種判別ステップによる判別結果に基づいて前記移動ベクトルを検出することを特徴とする。 In the moving vector detection method according to the present invention, the moving image type determining step for determining whether the moving image data is a natural moving image in which color and position fluctuations exist, and the first frame that is a continuous frame constituting the moving image data. The size and direction of movement of the moving area, which is an image area that exists in both of the two frames and whose position on the frame is moving, by comparing the second frame and the second frame A movement vector detection step for detecting a movement vector indicating the movement vector, wherein the movement vector detection step detects the movement vector based on a determination result obtained by the moving image type determination step.
また、本発明におけるプログラムは、サーバ装置を、動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段として機能させ、前記移動ベクトル検出手段は、前記動画種判別手段による判別結果に基づいて前記移動ベクトルを検出することを特徴とする。 The program according to the present invention includes a moving image type determining unit that determines whether the moving image data is a natural moving image in which color and position fluctuations exist, and a continuous frame constituting the moving image data. By comparing the first frame with the second frame, the magnitude of movement of the moving area, which is an image area that exists in both of the two frames and whose position on the frame is moving, is It is made to function as a movement vector detection means which detects the movement vector which shows a direction, The said movement vector detection means detects the said movement vector based on the determination result by the said moving image kind determination means.
本発明により、移動ベクトルを精度良く検出することが可能になる。 According to the present invention, it is possible to accurately detect a movement vector.
次に、本発明を実施するための形態について図面を参照して詳細に説明する。 Next, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
<クライアントサーバシステムの構成例>
図1は、本発明の実施形態に係るクライアントサーバシステムの構成例である。本実施形態に係るクライアントサーバシステムは、サーバ装置100と、クライアント装置200と、を有して構成される。サーバ装置100とクライアント装置200とはネットワークを介して接続されている。図1では、クライアント装置200は、一台であるが、複数台であっても良い。
<Configuration example of client server system>
FIG. 1 is a configuration example of a client server system according to an embodiment of the present invention. The client server system according to the present embodiment includes a
<サーバ装置100の構成例>
図2は、本発明の実施形態に係るサーバ装置100の構成例を示す図である。本実施形態に係るサーバ装置100は、記憶部110と、移動ベクトル検出部120と、移動領域検出部130と、差分データ生成部140と、送信部150と、を有して構成される。サーバ装置100は、このような構成で、図3に示すように、2つの時間的に連続したフレームを比較し、それぞれのフレームのうちで移動した移動領域と、この移動領域の移動距離と移動方向を示す移動ベクトルと、を検出する。そして、移動ベクトルと移動領域と時間的に前のフレームとを用いて差分データを生成し、移動ベクトルの情報と移動領域の情報と差分データとをクライアント装置200に送信する。以降、この比較される2つの時間的に連続したフレームのうち、時間的に前のフレームを移動前フレーム、時間的に後のフレームを移動後フレームと呼ぶことにする。つまり、サーバ装置100は、記憶部110に記憶された移動前フレームと移動後フレームを用いて、移動ベクトル検出部120により移動ベクトルを検出し、移動領域検出部130により移動領域を検出し、差分データ生成部140により差分データを生成し、この移動ベクトルの情報と移動領域の情報と差分データとを送信部150によりクライアント装置200に送信する。
<Configuration Example of
FIG. 2 is a diagram illustrating a configuration example of the
記憶部110は、移動前フレームや移動後フレーム、後述するエッジ点・特徴点の座標値・画素値やハッシュテーブルなどを記録する。記憶部110は、1つでも良いし、記憶するデータごとに用意されるようにしても良い。例えば、記憶部110として、RAMやハードディスクなどを備えるようにし、頻繁に読み書きを行う必要のあるデータは、RAMなどに記憶するようにし、頻繁に読み書きを行う必要のないデータは、ハードディスクなどに記憶するようにしても良い。
The
<移動ベクトル検出部120の構成例>
移動ベクトル検出部120は、記憶部110に記憶された移動前フレームと移動後フレームに基づき、移動ベクトルを検出する。図4は、本発明の実施形態に係るサーバ装置100の移動ベクトル検出部120の構成を示す図である。移動ベクトル検出部120は、エッジ点抽出部121と、ハッシュテーブル生成部122と、特徴点抽出部123と、特徴点ペア抽出部124と、ベクトル算出部125と、移動ベクトル決定部126と、動画種判別部127と、を有して構成される。
<Configuration Example of Moving
The movement
エッジ点抽出部121は、記憶部110に記憶された移動前フレームと移動後フレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出する。エッジ点の抽出の仕方としてはいろいろと考えられる。例えば、ある画素を注目したときに、その画素の画素値とその画素に直交する2方向(例えば、左と上など)に隣接する2つの画素の画素値とを比較し、画素値の差が所定の値以上である場合に、その画素をエッジ点として抽出する。比較するときに、R、G、Bの各成分における差の総和を比較するようにしても良いし、R、G、Bの各成分それぞれにおいて比較するようにしても良い。R、G、Bの各成分それぞれにおいて比較する場合は、R、G、Bの各成分のうちいずれか1つの成分における差が所定の値以上であるときに、その画素をエッジ点として抽出するようにしても良いし、2つの成分における差が所定の値以上であるときに、その画素をエッジ点として抽出するようにしても良いし、すべての成分における差が所定の値以上であるときに、その画素をエッジ点として抽出するようにしても良い。
The edge
サーバ装置100からクライアント装置200に送信される動画には、自然動画と人工動画の二種類の動画が考えられる。自然動画は、例えば、カメラなど、レンズを通して撮像された情報により生成される動画であり、人工動画は、例えば、サーバ装置100などのデジタル処理のみにより生成される動画である。
The moving image transmitted from the
自然動画は、肉眼では、同一に見える部分であっても、レンズを通しているため、連続するフレームの間で色が微妙に揺らぐ。一方、人工動画には、このような揺らぎは無い。このため、エッジ点を抽出する際に使用する上記の所定の値を、自然動画と人工動画とで同じ値を使用すると、自然動画では、エッジ点として抽出されるべき点が、上記の揺らぎによりエッジ点として抽出されなくなることも起こりえる。 Even if the natural moving image looks the same with the naked eye, it passes through the lens, so the color fluctuates slightly between successive frames. On the other hand, there is no such fluctuation in the artificial video. For this reason, if the same value is used for the natural video and the artificial video as the predetermined value used when extracting the edge point, in the natural video, the point to be extracted as the edge point is caused by the above fluctuation. It may happen that it is not extracted as an edge point.
そこで、エッジ点を抽出する際に使用する上記の所定の値を、自然動画と人工動画とでは異なる値を使用するようにすると良い。例えば、自然動画において使用する所定の値を、人工動画において使用する所定の値より小さくする。このようにすることにより、自然動画において、エッジ点を抽出し損なうことを低減することが可能になる。 Therefore, it is preferable to use different values for the natural video and the artificial video for the predetermined value used when extracting the edge point. For example, the predetermined value used in the natural moving image is made smaller than the predetermined value used in the artificial moving image. By doing so, it is possible to reduce the failure to extract edge points in natural moving images.
なお、サーバ装置100からクライアント装置200に送信される動画が、自然動画であるのか、人工動画であるのか、を判別する動画種判別部127については、下記で詳述する。
Note that the moving image
ハッシュテーブル生成部122は、エッジ点抽出部121により抽出されたエッジ点を下記で示すハッシュ値により数値化し、ハッシュ値ごとの出現回数、そのハッシュ値を持つエッジ点の座標値などを示したハッシュテーブルを生成する。ハッシュテーブルは、移動前フレームと移動後フレームそれぞれに対して生成される。
The hash
ハッシュテーブルを生成するために、ハッシュテーブル生成部122は、まず、エッジ点すべてに対してハッシュ値を生成する。ここで、ハッシュ値の生成の仕方としてはいろいろと考えられる。例えば、あるエッジ点に注目したときに、そのエッジ点とそのエッジ点の1つ左のエッジ点との距離D1と、そのエッジ点とそのエッジ点の2つ左のエッジ点との距離D2と、を用いて、D1+n×D2をそのエッジ点のハッシュ値とする。ここで、nは、任意の整数である。このとき、例えば、図5に示したように、3つのエッジ点があり、それぞれのエッジ点の座標が(81、50)、(83、50)、(86、50)である場合、n=16とすると、座標(86、50)にあるエッジ点のハッシュ値は、3+16×5=83となる。
In order to generate a hash table, the hash
ハッシュテーブル生成部122は、図6に示すように、ハッシュ値ごとに、各フレームでのそのハッシュ値の出現回数、そのハッシュ値が生成されたエッジ点の座標値をまとめたテーブルを生成する。このとき、例えば、ハッシュテーブル生成部122は、ラスタスキャン順にエッジ点のハッシュ値を生成するようにすると良い。
As illustrated in FIG. 6, the hash
特徴点抽出部123は、ハッシュテーブル生成部123により生成された移動前フレームと移動後フレームそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する。例えば、図6に示したハッシュテーブルであれば、移動前フレームのハッシュテーブルからは座標値が(86、50)や(114、121)であるエッジ点などが、移動後フレームのハッシュテーブルからは座標値が(288、148)、(32、384)であるエッジ点などが、特徴点として抽出される。
The feature
特徴点ペア抽出部124は、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアを特徴点ペアとして抽出する。例えば、図6に示したハッシュテーブルであれば、特徴点ペア抽出部124は、ハッシュ値が83と同一の値を持つ、移動前フレームの座標(86、50)にある特徴点と、移動後フレームの座標(288、148)にある特徴点と、を特徴点ペアとして抽出する。
The feature point
上記のように生成したハッシュ値の値が同一であるということは、特徴点ペアの特徴点とその特徴点の1つ左のエッジ点と2つ左のエッジ点との位置関係が、移動前フレームと移動後フレームで同じである可能性が高い。つまり、特徴点ペアの特徴点とその特徴点の1つ左のエッジ点と2つ左のエッジ点とは、移動前フレームと移動後フレームで全く移動していないか、同じ方向に同じ距離だけ移動している可能性が高い。よって、上記のように抽出された特徴点ペアの特徴点は、全く移動していない点であるか、移動領域内の点である可能性が高いことになる。 That the hash values generated as described above are the same means that the positional relationship between the feature point of the feature point pair, the one left edge point of the feature point, and the two left edge points is before the movement. It is likely that the frame and the post-movement frame are the same. In other words, the feature point of the feature point pair, the one left edge point and the two left edge points of the feature point are not moved at all in the pre-movement frame and the post-movement frame, or are the same distance in the same direction. There is a high possibility of moving. Therefore, the feature points of the feature point pair extracted as described above are likely to be points that have not moved at all or points within the moving region.
ベクトル算出部125は、特徴点ペア抽出部124により抽出された特徴点ペアそれぞれに対して、移動前フレームにおける特徴点の位置(座標)と、移動後フレームにおける特徴点の位置(座標)と、を結ぶベクトルを算出する。例えば、図6に示したハッシュテーブルの特徴点ペアであれば、図7に示すように、ベクトルが算出される。上述したように、特徴点ペアのなかには移動領域内の点が含まれている可能性が高いため、ベクトル算出部125により算出されたベクトルは、移動領域の移動を示すベクトルである移動ベクトルである可能が高い。
The
移動ベクトル決定部126は、ベクトル算出部125により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル(0、0)以外で、最頻出のベクトルを移動領域の移動を示すベクトルである移動ベクトルとして決定する。
The movement
上述したように、特徴点ペアの特徴点は、全く移動していない点であるか、移動領域内の点である可能性が高い。ベクトル算出部125により算出されたベクトルのなかには、全く移動していない特徴点ペアに対する移動を示すベクトルであるゼロベクトルが多く含まれている可能性がある。このため、まず、ベクトル算出部125により算出されたベクトルから、ゼロベクトルを除く。
As described above, the feature point of the feature point pair is highly likely to be a point that has not moved or a point in the moving region. The vectors calculated by the
残されたベクトルには様々な値のベクトルが存在する可能性がある。残されたベクトルのなかには、特徴点の1つ左のエッジ点と2つ左のエッジ点との位置関係が、移動前フレームと移動後フレームで異なる特徴点ペアから算出されたベクトルも存在するだろうが、そのようなベクトルはそれぞれ異なった値を持っているはずである。よって、残されたベクトルのうちで最頻出のベクトルは移動ベクトルである可能性がかなり高い。よって、残されたベクトルのうち、最頻出のベクトルを移動ベクトルとして決定する。例えば、図6に示したようなハッシュテーブルであれば、特徴点ペアそれぞれに対してベクトルが図7に示すように算出されるため、ベクトル(202、98)が移動ベクトルとして決定される。 There may be vectors of various values in the remaining vectors. Among the remaining vectors, there are also vectors calculated from feature point pairs in which the positional relationship between the one left edge point and the two left edge points of the feature points is different between the pre-movement frame and the post-movement frame. However, each such vector should have a different value. Therefore, it is highly likely that the most frequently used vector among the remaining vectors is a movement vector. Therefore, among the remaining vectors, the most frequently occurring vector is determined as the movement vector. For example, in the case of the hash table as shown in FIG. 6, since the vector is calculated as shown in FIG. 7 for each feature point pair, the vector (202, 98) is determined as the movement vector.
このようにすることにより、移動領域の移動の大きさと方向を示す移動ベクトルを検出することができる。上記の方法は、移動前フレームと移動後フレームで、3つのエッジ点が同じ位置関係を保っている点を用いて移動ベクトルを検出している。よって、1つの点や、2つの点を用いる方法より、より確実に移動ベクトルを検出することが可能である。 In this way, a movement vector indicating the magnitude and direction of movement of the moving area can be detected. In the above method, the movement vector is detected using the point where the three edge points maintain the same positional relationship in the pre-movement frame and the post-movement frame. Therefore, it is possible to detect the movement vector more reliably than the method using one point or two points.
<移動ベクトル検出部120における処理動作例>
図8は、本発明の実施形態に係るサーバ装置100の移動ベクトル検出部120における処理動作の一例を示す図である。まず、移動前フレームと移動後フレームそれぞれにおいて、エッジ点抽出部121によりエッジ点が抽出される(S101)。そして、ハッシュテーブル生成部122は、エッジ点抽出部121により抽出されたエッジ点それぞれに対してハッシュ値が与え、移動前フレームと移動後フレームそれぞれでのハッシュ値の出現回数とそのハッシュ値を持つエッジ点の座標値とを示したハッシュテーブルを生成する(S102)。次に、特徴点抽出部123が、ハッシュテーブル生成部122により生成されたハッシュテーブルを用いて、それぞれのフレームにおいて出現回数が1回であるハッシュ値を持つエッジ点を特徴点として抽出する(S103)。次に、特徴点ペア抽出部124が、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアを特徴点ペアとして抽出する(S104)。次に、ベクトル算出部125が、特徴点ペア抽出部124により抽出された特徴点ペアそれぞれに対して、移動前フレームにおける特徴点の位置(座標)と移動後フレームにおける特徴点の位置(座標)とを結ぶベクトルを算出する(S105)。最後に、移動ベクトル決定部126が、ベクトル算出部125により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル(0、0)以外で最頻出のベクトルを移動領域の移動を示すベクトルである移動ベクトルとして決定する(S106)。このような処理動作により、移動ベクトル検出部120は、移動ベクトルを検出する。
<Example of Processing Operation in Movement
FIG. 8 is a diagram illustrating an example of a processing operation in the movement
<色の揺らぎに対する考慮>
上記では、特徴点抽出部123は、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出した。しかし、自然動画では、上述したように、色の揺らぎのためにエッジ点が抽出されにくくなる。また、同様に、特徴点の抽出においても、この色の揺らぎのために、特徴点として抽出される点が少なくなる可能性がある。
<Consideration for color fluctuation>
In the above, the feature
そこで、特徴点抽出部123は、動画種判別部127により、サーバ装置100からクライアント装置200に送信される動画が、自然動画であると判別されたときは、出現回数が所定の閾値以下であるハッシュ値を持つエッジ点を特徴点として抽出するようにしても良い。例えば、所定の閾値を2にしたときは、図6に示したハッシュテーブルであれば、移動前フレームのハッシュテーブルからは座標値が(86、50)や(114、121)であるエッジ点などのハッシュ値の出現回数が1であるエッジ点に加え、座標値が(23、30)や(531、321)であるエッジ点などのハッシュ値の出現回数が2であるエッジ点も特徴点として抽出される。また、移動後フレームのハッシュテーブルからは座標値が(288、148)、(32、384)であるエッジ点などのハッシュ値の出現回数が1であるエッジ点に加え、座標値が(242、102)や(634、179)であるエッジ点などのハッシュ値の出現回数が2であるエッジ点も特徴点として抽出される。
Therefore, when the moving image
そして、このとき、特徴点ペア抽出部124は、移動前フレームのハッシュテーブルと移動後のハッシュテーブルとから、同一のハッシュ値を持つ特徴点によりペアを生成し、この生成されたペアを特徴点ペアとして抽出する。つまり、移動前フレームと移動後フレームとのどちらにおいても出現回数が1であるハッシュ値については、特徴点ペア抽出部124は、上述したような方法により特徴点ペアを抽出し、移動前フレームと移動後フレームとのどちらか、または、両方において、出現回数が1より大きいハッシュ値に対しては、そのハッシュ値を持つ移動前フレームの特徴点と、そのハッシュ値を持つ移動後フレームの特徴点と、の間のすべての組み合わせに対してペアを生成する。
At this time, the feature point
例えば、図6に示したハッシュテーブルであれば、ハッシュ値84は、移動前フレームでは出現回数が2であり、移動後フレームでは出現回数が1である。このようなとき、特徴点ペア抽出部124は、移動前フレームの座標(23、30)にある特徴点と移動後フレームの座標(32、384)にある特徴点とをペアとし、移動前フレームの座標(531、321)にある特徴点と移動後フレームの座標(32、384)にある特徴点とをペアとし、これら2つのペアを特徴点ペアとして抽出する。
For example, in the hash table shown in FIG. 6, the
また、例えば、図6に示したハッシュテーブルであれば、ハッシュ値551は、移動前フレームと移動後フレームの両方では出現回数が2である。このようなとき、特徴点ペア抽出部124は、移動前フレームの座標(603、200)にある特徴点と移動後フレームの座標(39、399)にある特徴点とをペアとし、移動前フレームの座標(603、200)にある特徴点と移動後フレームの座標(421、405)にある特徴点とをペアとし、移動前フレームの座標(39、399)にある特徴点と移動後フレームの座標(39、399)にある特徴点とをペアとし、移動前フレームの座標(39、399)にある特徴点と移動後フレームの座標(421、405)にある特徴点とをペアとし、これら4つのペアを特徴点ペアとして抽出する。
For example, in the hash table shown in FIG. 6, the
そして、ベクトル算出部125は、この特徴点ペア抽出部124により抽出された特徴点ペアそれぞれに対して、移動前フレームにおける特徴点の位置(座標)と、移動後フレームにおける特徴点の位置(座標)と、を結ぶベクトルを算出する。例えば、図6に示したハッシュテーブルの特徴点ペアであれば、図9に示すように、ベクトルが算出される。そして、移動ベクトル決定部126が、ベクトル算出部125により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル(0、0)以外で、最頻出のベクトルを移動領域の移動を示すベクトルである移動ベクトルとして決定する。
The
このようにすることにより、移動領域の点の候補である特徴点をより多く抽出することが可能になる。このため、より多くの特徴点、つまり、より多くのサンプルを使用して、移動ベクトルを決定することが可能になり、自然動画のように色の揺らぎが生じる動画であっても、正確に移動ベクトルを決定することが可能になる。 In this way, it is possible to extract more feature points that are candidates for points in the moving region. For this reason, it is possible to determine the movement vector using more feature points, that is, more samples, and even moving images that cause color fluctuations like natural movies can move accurately. It becomes possible to determine the vector.
なお、人工動画に対しても、出現回数が所定の閾値以下であるものを特徴点として抽出するようにしても良い。このようなときは、自然動画は、人工動画より色の揺らぎやすいため、自然動画における出現回数に対する閾値を、人工動画における出現回数に対する閾値より大きい値にすると良い。 It should be noted that an artificial moving image whose appearance count is not more than a predetermined threshold may be extracted as a feature point. In such a case, the color of the natural video is more likely to fluctuate than that of the artificial video. Therefore, the threshold for the number of appearances in the natural video may be set larger than the threshold for the number of appearances in the artificial video.
<位置の揺らぎに対する考慮>
また、自然動画では、上述した色の揺らぎの他に、連続するフレームの間において、画素の位置にも揺らぎが存在する。そこで、特徴点ペア抽出部124は、動画種判別部127により、サーバ装置100からクライアント装置200に送信される動画が、自然動画であると判別されたときは、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアの他に、ハッシュ値が±1だけ異なる特徴点のペアも特徴点ペアとして抽出するようにしても良い。
<Consideration for position fluctuation>
In addition, in a natural moving image, in addition to the above-described color fluctuation, there are fluctuations in pixel positions between successive frames. Therefore, when the moving image
例えば、図6に示したハッシュテーブルであれば、特徴点ペア抽出部124は、移動前フレームの座標(86、50)にある特徴点(ハッシュ値83)と移動後フレームの座標(288、148)にある特徴点(ハッシュ値83)とのペアに加え、移動前フレームの座標(86、50)にある特徴点(ハッシュ値83)と移動後フレームの座標(32、384)にある特徴点(ハッシュ値84)とのペアも特徴点ペアとして抽出する。また、図6に示したハッシュテーブルであれば、特徴点ペア抽出部124は、移動前フレームの座標(31、112)にある特徴点(ハッシュ値249)と移動後フレームの座標(233、200)にある特徴点(ハッシュ値250)とのペアも特徴点ペアとして抽出する。
For example, in the hash table shown in FIG. 6, the feature point
そして、ベクトル算出部125は、この特徴点ペア抽出部124により抽出された特徴点ペアそれぞれに対して、移動前フレームにおける特徴点の位置(座標)と移動後フレームにおける特徴点の位置(座標)とを結ぶベクトルを算出する。例えば、図6に示したハッシュテーブルの特徴点ペアであれば、図10に示すように、ベクトルが算出される。そして、移動ベクトル決定部126が、ベクトル算出部125により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル(0、0)以外で、最頻出のベクトルを移動領域の移動を示すベクトルである移動ベクトルとして決定する。
The
このようにすることにより、自然動画などのように位置の揺らぎが生じる動画であっても、特徴点ペアを抽出することが可能になる。よって、このようにすることにより、自然動画などのように位置の揺らぎが生じる動画であっても、正確に移動ベクトルを決定することが可能になる。 By doing so, it is possible to extract a feature point pair even for a moving image in which position fluctuation occurs, such as a natural moving image. Therefore, by doing in this way, it is possible to accurately determine a movement vector even for a moving image in which position fluctuation occurs, such as a natural moving image.
なお、本実施形態では、上述したように、あるエッジ点に注目したときに、そのエッジ点とそのエッジ点の1つ左のエッジ点との距離D1と、そのエッジ点とそのエッジ点の2つ左のエッジ点との距離D2と、を用いて、D1+n×D2をそのエッジ点のハッシュ値としている。このため、位置の揺らぎのために、2つ左のエッジ点との距離D2の値が、1だけずれたときには、ハッシュ値は、nだけずれることになる。そこで、特徴点ペア抽出部124は、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアの他に、ハッシュ値が±nだけ異なる特徴点のペアも特徴点ペアとして抽出するようにしても良い。このようにすることによっても、より位置の揺らぎの影響を考慮した計算ができることになり、より正確に移動ベクトルを算出することができるようになる。
In the present embodiment, as described above, when attention is paid to a certain edge point, the distance D1 between the edge point and the edge point one left of the edge point, and the edge point and the
また、位置の揺らぎを考慮するとともに、色の揺らぎを考慮するようにしても良い。つまり、動画種判別部127により、サーバ装置100からクライアント装置200に送信される動画が、自然動画であると判別されたときは、特徴点抽出部123が、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出するようにし、特徴点ペア抽出部124が、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアの他に、ハッシュ値が±1だけ異なる特徴点のペアも特徴点ペアとして抽出するようにしても良い。このようにすることにより、位置の揺らぎと色の揺らぎの両方を考慮できるようになり、より正確に移動ベクトルを算出することができるようになる。
Further, it is also possible to consider color fluctuation as well as position fluctuation. That is, when the moving image
<動画種判別部127>
動画種判別部127は、サーバ装置100からクライアント装置200に送信される動画が、自然動画であるのか、人工動画であるのか、を判別する。この判別を行う方法としては、いろいろと考えられるが、例えば、以下に示すように、色の揺らぎに基づく方法と、位置の揺らぎに基づく方法と、が考えられる。
<Movie
The moving image
(1)サーバ装置100からクライアント装置200に送信される動画が、自然動画であるのか、人工動画であるのか、を判別する方法としては、まず、送信動画に色の揺らぎが存在するかどうか、に基づいて判別する方法が考えられる。上述したように、デジタル処理のみにより人工的に生成された人工動画には、色の揺らぎが存在しない。そこで、色の揺らぎが存在する動画を自然動画と判別し、色の揺らぎが存在しない動画を人工動画と判別するようにすることで、自然動画と人工動画との判別が可能になる。
(1) As a method for determining whether the moving image transmitted from the
そこで、例えば、動画種判別部127は、移動ベクトル検出部120により抽出された特徴点ペアのうち、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアのそれぞれの特徴点の色を比較し、これらの移動ベクトルで結ばれる特徴点ペアのうちで、色が一致する特徴点ペアの割合を算出するようにすると良い。ここで、動画に色の揺らぎが存在しないときは、これらの特徴点ペアにおいて色は一致するはずである。このため、動画種判別部127は、この割合が所定の値より大きいときは、送信動画は自然動画である、と判別し、この割合が所定の値以下であるときは、送信動画は人工動画である、と判別することにより、自然動画と人工動画との判別が可能になる。
Therefore, for example, the moving image
(2)また、例えば、動画種判別部127は、移動ベクトル検出部120により抽出された特徴点ペアのうち、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアにおける色の差を算出し、これらの色の差の分布の標準偏差を算出すると良い。ここで、動画に色の揺らぎが存在しないときは、これらの特徴点ペアにおいて色は一致するため、色の揺らぎが存在しないときは、色の差の分布の標準偏差はゼロにはずである。このため、動画種判別部127は、この標準偏差が所定の値より大きいときは、送信動画は自然動画である、と判別し、この標準偏差が所定の値以下であるときは、送信動画は人工動画である、と判別することにより、自然動画と人工動画との判別が可能になる。
(2) Further, for example, the moving image
(3)サーバ装置100からクライアント装置200に送信される動画が、自然動画であるのか、人工動画であるのか、を判別する方法としては、送信動画に位置の揺らぎが存在するかどうか、に基づいて判別する方法も考えられる。上述したように、デジタル処理のみにより人工的に生成された人工動画には、位置の揺らぎが存在しない。そこで、位置の揺らぎが存在する動画を自然動画と判別し、位置の揺らぎが存在しない動画を人工動画と判別するようにすることで、自然動画と人工動画との判別が可能になる。
(3) As a method of determining whether the moving image transmitted from the
そこで、例えば、動画種判別部127は、移動ベクトル検出部120により抽出された特徴点ペアのうち、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアのそれぞれの特徴点のハッシュ値の差を算出し、これらのハッシュ値の差の分布の標準偏差を算出すると良い。ここで、動画に位置の揺らぎが存在しないときは、これらの特徴点ペアにおいてハッシュ値は一致するため、位置の揺らぎが存在しないときは、ハッシュ値の差の分布の標準偏差はゼロにはずである。このため、動画種判別部127は、この標準偏差が所定の値より大きいときは、送信動画は自然動画である、と判別し、この標準偏差が所定の値以下であるときは、送信動画は人工動画である、と判別することにより、自然動画と人工動画との判別が可能になる。
Therefore, for example, the moving image
<動画種判別時における処理動作例>
図11は、サーバ装置100からクライアント装置200に送信される動画が、自然動画であるのか、人工動画であるのか、を判別する際に、本実施形態に係る移動ベクトル検出部120において行われる処理動作例を示す図である。
<Example of processing operation during video type discrimination>
FIG. 11 illustrates processing performed in the motion
まず、送信動画の最初の所定の数のフレーム(例えば、数〜数十フレーム)の動画データに対して、図8に示した処理動作を行う(S201)。このときの行う処理動作は、色の揺らぎを考慮した処理動作であっても良いし、考慮しない処理動作であっても良い。また、このときの行う処理動作は、位置の揺らぎを考慮した処理動作であっても良いし、考慮しない処理動作であっても良い。 First, the processing operation shown in FIG. 8 is performed on moving image data of a predetermined number of frames (for example, several to several tens of frames) of a transmission moving image (S201). The processing operation performed at this time may be a processing operation considering color fluctuation or a processing operation not considering it. In addition, the processing operation performed at this time may be a processing operation that considers the fluctuation of the position, or may be a processing operation that does not consider it.
そして、動画種判別部127は、この送信動画の最初の所定の数のフレームの動画データに基づいて、送信動画が、自然動画であるのか、人工動画であるのか、を判別する(S202)。このとき、動画種判別部127は、例えば、上記の(1)〜(3)のいずれかの方法を用いると良い。なお、動画種判別部127が上記の(3)の方法を用いるときは、ステップS201では、位置の揺らぎを考慮した上で、図8に示した処理動作を行うようにする。つまり、図8のステップS104において、特徴点ペア抽出部124が、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアの他に、ハッシュ値が±1だけ異なる特徴点のペアも特徴点ペアとして抽出するようにする。
Then, the moving image
このように、本実施形態では、送信動画の最初の所定の数の動画データを用いて、送信動画が、自然動画であるのか、人工動画であるのか、を判別することが可能であり、判別後は、上記のように、色の揺らぎや、位置の揺らぎを考慮した上で、移動ベクトルを算出することが可能ではあり、このため、正確な移動ベクトルを算出することが可能である。 As described above, in the present embodiment, it is possible to determine whether the transmission video is a natural video or an artificial video using the first predetermined number of video data of the transmission video. After that, as described above, it is possible to calculate the movement vector in consideration of the color fluctuation and the position fluctuation. Therefore, it is possible to calculate an accurate movement vector.
<移動領域検出部130の第1の構成例>
移動領域検出部130は、記憶部110に記憶された移動前フレーム、移動後フレームと、移動ベクトル検出部120により検出された移動ベクトルに基づき、移動領域を検出する。図12は、本発明の実施形態に係るサーバ装置100の移動領域検出部130の第1の構成例を示す図である。第1の構成例の移動領域検出部130は、比較領域決定部131と、移動領域決定部132とを有して構成される。
<First Configuration Example of Moving
The movement
比較領域決定部131は、移動領域を検出するのに用いる比較領域を決定する。移動前フレームの点のうち、移動ベクトル検出部120により検出された移動ベクトルにより移動させたときに、フレーム外にはみ出る点は移動領域内の点ではない。よって、このような点を取り除いた点、つまり、移動ベクトルにより移動させたときにフレーム内に残る点が占める領域内に移動領域があるはずである。そこで、図13に示すように、移動前フレームの点のうち、移動ベクトルにより移動させたときにフレーム内に残る点による領域を、移動前フレームの比較領域とする。同様に理由により、図13に示すように、移動後フレームの点のうち、移動ベクトルの逆ベクトルにより移動させたときにフレーム内に残る点による領域を、移動後フレームの比較領域とする。
The comparison
移動領域決定部132は、比較領域決定部131により決定された比較領域を用いて移動前フレームと移動後フレームとを比較することにより移動領域を決定する。このとき、本実施形態に係る移動領域決定部132は、(A1)移動前フレームの比較領域と移動後フレームの比較領域との比較、(A2)移動前フレームの比較領域とその比較領域に対応する移動後フレームの領域との比較、(A3)移動後フレームの比較領域とその比較領域に対応する移動前フレームの領域との比較、の3つの比較を行う。
The movement
(A1)の比較、つまり、移動前フレームの比較領域と移動後フレームの比較領域との比較は、移動前フレームの比較領域の点とその点を移動ベクトルで移動した座標位置にある移動後フレームの点との比較である。つまり、移動ベクトルが(X、Y)であるときは、図13に示すように、移動前フレームの比較領域内の点(x、y)と移動後フレームの比較領域内の点(x+X、y+Y)との比較をする。比較される点が移動領域内の点であれば、それらの点は同じ画素値を持つと考えられる。また、比較される点が移動領域外の点であれば、それらの点は異なる画素値を持つと考えられる。 The comparison of (A1), that is, the comparison between the comparison area of the pre-movement frame and the comparison area of the post-movement frame is performed by comparing the point of the comparison area of the pre-movement frame and the post-movement frame at the coordinate position obtained by moving the point by the movement vector. This is a comparison with this point. That is, when the movement vector is (X, Y), as shown in FIG. 13, the point (x, y) in the comparison area of the pre-movement frame and the point (x + X, y + Y) in the comparison area of the post-movement frame. ). If the points to be compared are points in the moving region, they are considered to have the same pixel value. Further, if the points to be compared are points outside the moving region, those points are considered to have different pixel values.
また、(A2)の比較、つまり、移動前フレームの比較領域とその比較領域に対応する移動後フレームの領域との比較は、移動前フレームの比較領域の点とその点の座標位置にある移動後フレームの点との比較である。つまり、移動前フレームの比較領域の点(x、y)と移動後フレームの点(x、y)との比較をする。よって、図13に示すように比較領域が決定されたとき、(A2)の比較では、図14に示した斜線で囲まれた領域を比較する。 Further, the comparison of (A2), that is, the comparison between the comparison area of the pre-movement frame and the area of the post-movement frame corresponding to the comparison area, the movement at the point of the comparison area of the pre-movement frame and the coordinate position of that point It is a comparison with the point of the back frame. That is, a comparison is made between the point (x, y) in the comparison area of the pre-movement frame and the point (x, y) in the post-movement frame. Therefore, when the comparison area is determined as shown in FIG. 13, in the comparison of (A2), the area surrounded by the oblique lines shown in FIG. 14 is compared.
移動前フレームの移動領域内の点は、移動後フレームでは、違う座標に移動しているはずである。よって、(A2)の比較では、比較される点が移動領域内にあるときは、それらの点は異なる画素値を持つと考えられる。また、逆に、比較される点が移動領域外の点であれば、その点は移動していないため、それらの点は同じ画素値を持つと考えられる。 The points in the movement area of the pre-movement frame should have moved to different coordinates in the post-movement frame. Therefore, in the comparison of (A2), when the points to be compared are in the moving region, the points are considered to have different pixel values. On the other hand, if the point to be compared is a point outside the moving region, the point is not moved, and it is considered that those points have the same pixel value.
これは、(A3)の比較、つまり、移動後フレームの比較領域とその比較領域に対応する移動前フレームの領域との比較でも同様である。例えば、図13に示すように比較領域が決定されたとき、(A3)の比較では、図15の斜線で示された領域が比較される。 The same applies to the comparison in (A3), that is, the comparison between the comparison area of the post-movement frame and the area of the pre-movement frame corresponding to the comparison area. For example, when the comparison area is determined as shown in FIG. 13, in the comparison of (A3), the areas indicated by the oblique lines in FIG. 15 are compared.
移動領域としては、矩形領域を得たいので、各比較はラインごとに行う。このとき、(A1)の比較では、ラインごとに、(条件A1)「画素値が同一値である画素の数が所定の値以上である」が成り立つかどうかを確認する。また、(A2)の比較と(A3)の比較では、ラインごとに、(条件A2)「画素値が異なるが画素の数が所定の値以上である」が成り立つどうかを確認する。また、(条件A1)を「画素値が同一値である画素の割合が所定の値以上である」としても良い。また、(条件A2)を「画素値が異なる画素の割合が所定の値以上である」としても良い。また、「画素値が同一値である画素の数(割合)が所定の値以下である」としても良い。 Since a rectangular area is desired as the moving area, each comparison is performed for each line. At this time, in the comparison of (A1), whether or not (Condition A1) “The number of pixels having the same pixel value is equal to or greater than a predetermined value” is satisfied for each line. Further, in the comparison of (A2) and the comparison of (A3), it is confirmed for each line whether (Condition A2) “Different pixel values but the number of pixels is equal to or greater than a predetermined value” holds. In addition, (Condition A1) may be “the ratio of pixels having the same pixel value is equal to or greater than a predetermined value”. Further, (Condition A2) may be set as “the ratio of pixels having different pixel values is a predetermined value or more”. Alternatively, “the number (ratio) of pixels having the same pixel value is equal to or less than a predetermined value” may be used.
各比較は、比較領域の枠線から、つまり、上下左右の4辺からそれぞれ内側に向かって順にラインごとに比較していくことにする。そして、(A1)、(A2)、(A3)すべての比較において、条件が成り立つラインが見つかったらラインごとの条件の確認をやめる。つまり、(条件A1)、(条件A2)、(条件A3)のすべての条件が成り立つラインが見つかったらラインごとの条件の確認を終了する。移動領域決定部132は、図16に示すように、この見つかったラインで囲まれた領域を移動領域であると決定する。
Each comparison is made for each line in order from the border line of the comparison area, that is, from the four sides of the top, bottom, left, and right, inward. Then, in all the comparisons (A1), (A2), and (A3), if a line that satisfies the condition is found, the confirmation of the condition for each line is stopped. That is, when a line that satisfies all of the conditions (condition A1), (condition A2), and (condition A3) is found, the confirmation of the condition for each line ends. As illustrated in FIG. 16, the movement
上記のように、3つの条件すべてを満たす領域を移動領域として決定することにより、より正確に移動領域を検出することが可能になる。つまり、単純に比較領域同士を比較するだけではなく、さらに、同じ領域において、移動前と移動後とを比較することにより、より正確に移動領域を検出することが可能になる。 As described above, by determining a region that satisfies all three conditions as a moving region, it is possible to detect the moving region more accurately. That is, it is possible not only to simply compare the comparison areas but also to more accurately detect the movement area by comparing before and after movement in the same area.
<移動領域検出部130の第1の構成例における処理動作例>
図17は、本実施形態に係るサーバ装置100の移動領域検出部130の第1の構成例における処理動作の一例を示す図である。まず、比較領域決定部131が移動前フレームと移動後フレームのそれぞれにおいて比較領域を決定する(S301)。そして、移動領域決定部132が、移動前フレームの比較領域と移動後フレームの比較領域との比較と、移動前フレームの比較領域とその比較領域に対応する移動後フレームの領域との比較と、移動後フレームの比較領域とその比較領域に対応する移動前フレームの領域との比較と、を行うことにより、移動領域を決定する(S302)。このような処理動作により、第1の構成例の移動領域検出部130は、移動領域を検出する。
<Example of Processing Operation in First Configuration Example of Moving
FIG. 17 is a diagram illustrating an example of a processing operation in the first configuration example of the movement
上述した移動領域決定部130の第1の構成により移動領域の枠線として決定されるラインは、(条件A1)「画素値が同一値である画素の数が所定の値以上」を満たさなくてはならない。ここで、所定の値を小さくしすぎると、条件としては緩くなり、本来の移動領域よりも大きな領域が移動領域として決定されてしまうかもしれない。本来の移動領域よりも大きな領域が移動領域として決定されてしまうと、下記で詳述するように、差分データが大きくなってしまう。また、移動後フレームを再現する際などに移動領域のコピーなどの処理を行うが、大きな領域が移動領域と決定されてしまうと、コピーを行うデータ量が大きくなり、コピーの際の処理量が大きくなってしまうなどしてしまう。このため、上記の所定の値はある程度大きくし、条件を厳しくする必要がある。ただし、厳しくし過ぎると今度は、本来の移動領域よりも小さな領域が移動領域として決定されてしまうかもしれない。そこで、上記に示した方法以外の方法でも移動領域の候補領域を決定しておき、その候補領域よりも外側の領域のラインだけを上記の条件で比較するようにするようにしても良い。このようにすることにより、(条件A1)を厳しくしても、この候補領域よりは小さくはならないため、本来の移動領域よりも小さな領域が移動領域として決定されることがなくなる。
The line determined as the frame of the moving area by the first configuration of the moving
<移動領域検出部130の第2の構成例>
図18は、本発明の実施形態に係るサーバ装置100の移動領域検出部130の第2の構成例を示す図である。移動領域検出部130の第2の構成例は、第1の構成例に、初期領域設定部133と、候補領域決定部134と、を加えた構成になっている。この構成により、上述した方法とは異なる方法で移動領域の候補領域を決定し、その候補領域よりも外側の領域だけをラインごとに上記の条件で比較し、移動領域を決定することができるようになる。
<Second Configuration Example of Moving
FIG. 18 is a diagram illustrating a second configuration example of the movement
初期領域設定部133は、移動領域の候補領域を検出するための初期領域を設定する。移動領域としては、矩形領域を得たいので、初期領域としては矩形領域を設定する。初期領域の設定の仕方としてはいろいろと考えられる。上記で説明したように、移動ベクトル検出部120により抽出された特徴点ペアのうち、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアの特徴点は、移動領域内の点である可能性が高い。そこで、例えば、これらの点をすべて含む矩形領域を初期領域とすると良い。例えば、図19に示すように、移動ベクトルで結ばれる特徴点ペアの特徴点が分布しているときは、図19に示すような領域を初期領域として設定すると良い。また、例えば、上記の比較領域を初期領域と設定するようにしても良い。
The initial
なお、初期領域を設定する際に、上記のように、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアの特徴点をすべて含む矩形領域を初期領域と設定するのではなく、これらの特徴点ペアのうち、特徴点ペアにおける色の差がない特徴点ペアの特徴点だけを含む矩形領域を初期領域として設定するようにするとしても良い。特徴点ペアの点が、移動領域内の点であるならば、それらの点には同じ色であるはずである。よって、このようにすることにより、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアから、移動領域内の点でない点による特徴点ペアを取り除いた上で、初期矩形を設定することができることになり、より移動領域に近い初期領域を得ることが可能になる。
When setting the initial region, as described above, instead of setting the rectangular region including all the feature points of the feature point pairs connected by the movement vector determined by the movement
また、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアのうち、特徴点ペアにおける色の差が所定の値未満である特徴点ペアの特徴点だけを含む矩形領域を初期領域として設定するようにするとしても良い。上述したように、自然動画の場合は、色の揺らぎが存在する。よって、特徴点ペアにおける色の差が、この色の揺らぎによる色の差以下であれば、その特徴点ペアの点は移動領域内の点である可能性が高い。よって、このようにすることにより、自然動画に対しても、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアから、移動領域内の点でない点による特徴点ペアを取り除いた上で、初期矩形を設定することができることになり、より移動領域に近い初期領域を得ることが可能になる。
Further, among the feature point pairs connected by the motion vector determined by the motion
候補領域決定部134は、初期領域設定部133により設定された初期領域から移動領域外の点を除き、移動領域の候補領域を決定する。例えば、上述したように、移動ベクトルで結ばれる特徴点ペアの特徴点をすべて含む矩形領域は、移動領域内の点を含んでいる可能性が高いため、初期領域として適しているが、移動領域外の点を含んでいる可能性もある。そこで、候補領域決定部134は、このような初期領域から移動領域外の点を取り除く。
The candidate
そこで、候補領域決定部134も、上記の移動領域決定部132と同様に、(B1)移動前フレームの初期領域と移動後フレームの初期領域との比較(B2)移動前フレームの初期領域とその初期領域に対応する移動後フレームの領域との比較(B3)移動後フレームの初期領域とその初期領域に対応する移動前フレームの領域との比較、の3つの比較を行う。
Therefore, the candidate
移動領域としては、矩形領域を得たいので、候補領域決定部134においても、比較はラインごとに行う。このとき、(B1)の比較では、ラインごとに、(条件B1)「画素値が同一値である画素が所定の値以上連続する」が成り立つかどうかを確認する。また、(B2)の比較と(B3)の比較では、ラインごとに、(条件B2)「画素値が異なるが画素の数が所定の値以上である」が成り立つどうかを確認する。また、(条件B1)を「画素値が同一値である画素が所定の割合以上連続する」としても良い。また、(条件B2)を「画素値が異なるが画素の割合が所定の値以上である」としても良い。また、「画素値が同一値である画素の数(割合)が所定の値以下である」としても良い。
Since it is desired to obtain a rectangular area as the moving area, the candidate
候補領域決定部134においても、比較は、初期領域の枠線から、つまり、上下左右の4辺からそれぞれ内側に向かって順にラインごとに比較していくことにする。そして、(B1)、(B2)、(B3)すべての比較において、条件が成り立つラインが見つかったらラインごとの条件の確認をやめる。つまり、(条件B1)、(条件B2)、(条件B3)のすべての条件が成り立つラインが見つかったらラインごとの条件の確認を終了する。候補領域決定部132は、この見つかったラインで囲まれた領域を移動領域の候補領域であると決定する。
Also in the candidate
この構成において、比較領域決定部131は、上述した方法より求めた比較領域から、候補領域部134により決定された候補領域を除いた領域を、比較領域として決定する。つまり、図20に示した斜線の領域を比較領域として決定する。
In this configuration, the comparison
また、この構成において、移動領域決定部132は、この比較領域決定部131により決定された比較領域を用いて、上述した第1の構成例における方法と同じ方法により移動領域を決定する。上述した方法では、比較領域の外枠から内側に向かってラインごとに比較をしていったが、候補領域の枠線から比較領域の枠線に向かってラインごとに比較していくようにしても良い。このときは、上記の(条件A1)、(条件A2)、(条件A3)のうちの一つでも成り立たないラインが見つかれば、そこで比較をやめ、その見つかったラインの一つ内側のラインにより囲まれる領域を移動領域と決定するようにすると良い。
Further, in this configuration, the moving
上記のように、3つの条件すべてを満たす領域をまず候補領域として検出し、さらに、他の3つの条件すべてを満たす領域を移動領域として決定することにより、より正確に移動領域を検出することが可能になる。 As described above, a region that satisfies all three conditions is first detected as a candidate region, and further, a region that satisfies all three other conditions is determined as a moving region, so that the moving region can be detected more accurately. It becomes possible.
<移動領域検出部130の第2の構成例における処理動作例>
図21は、本実施形態に係るサーバ装置100の移動領域検出部130の第2の構成例における処理動作の一例を示す図である。まず、初期領域設定部133が、移動前フレームと移動後フレームのそれぞれにおいて初期領域を設定する(S401)。そして、候補領域決定部134が、この初期領域を用い、移動前フレームと移動後フレームのそれぞれにおいて移動領域の候補領域を決定する(S402)。次に、比較領域決定部131が、この候補領域を用いて、移動前フレームと移動後フレームのそれぞれにおいて比較領域を決定する(S403)。そして、移動領域決定部132が、移動前フレームの比較領域と移動後フレームの比較領域との比較と、移動前フレームの比較領域とその比較領域に対応する移動後フレームの領域との比較と、移動後フレームの比較領域とその比較領域に対応する移動前フレームの領域との比較と、を行うことにより、移動領域を決定する(S404)。このような処理動作により、第2の構成例の移動領域検出部130は、移動領域を検出する。
<Example of Processing Operation in Second Configuration Example of Moving
FIG. 21 is a diagram illustrating an example of a processing operation in the second configuration example of the movement
<その他の処理>
差分データ生成部140は、記憶部110により記憶された移動前フレームと移動後フレームと、移動ベクトル検出部120により検出された移動ベクトルと、移動領域検出部120により検出された移動領域と、を用いて、差分データを生成する。例えば、差分データ生成部130は、図22に示すように、移動前フレームの移動領域を、移動前フレームの、移動ベクトルで移動させた位置にコピーしたフレームを生成し、このフレームと移動後フレームとを比較することにより、差分データを生成する。このようにすることにより、図23に示すように、移動領域が正確に検出できなかった場合も、図24のように、差分領域が検出され、この差分領域のデータを差分データとすることができるため、この差分データと移動ベクトルと移動前フレームを用いれば、移動後フレームを再現することができるようになる。移動領域が正確に検出できた場合の差分領域は、図25のようになる。図24に示した場合に比べて、差分領域の面積が小さい。つまり、移動領域を正確に検出することにより、差分領域が小さくなり、クライアント装置200に送信する差分データを小さくすることが可能になる。つまり、本発明では、より正確に移動領域を検出できるため、差分領域を小さくでき、クライアント装置200に送信する差分データをより小さくすることができる。このため、差分領域を検出する時間を短縮でき、また、差分データを圧縮する際にかかる時間なども短縮することが可能になる。
<Other processing>
The difference
送信部150は、移動ベクトル検出部120により検出された移動ベクトルの情報と、移動領域検出部130により検出された移動領域の情報と、差分データ生成部140により生成された差分データと、をクライアント装置200に送信する。
The
このように、移動後フレーム全体のデータでなく、移動ベクトルと移動領域の情報と差分データを送ることにより、送信するデータ量が小さくなり、ネットワークがかかる負荷が減る。また、送信するデータ量が小さくなったことによりネットワークによる伝送時間も短くすることが可能になる。また、本発明では、より正確に移動領域が検出できるため、差分データがより小さくなる。よって、ネットワークにかかる負荷がより減り、ネットワークによる伝送時間をより短くすることが可能になる。 In this way, by transmitting not only the data of the entire frame after movement but also the movement vector, movement area information, and difference data, the amount of data to be transmitted is reduced, and the load on the network is reduced. Further, since the amount of data to be transmitted is reduced, the transmission time through the network can be shortened. Further, in the present invention, since the moving area can be detected more accurately, the difference data becomes smaller. Thus, the load on the network is further reduced, and the transmission time through the network can be further shortened.
<サーバ装置100の処理動作例>
図26は、本発明の実施形態に係るサーバ装置100における処理動作を示す図である。まず、サーバ装置100は、移動ベクトル検出部120により移動ベクトルを検出する(S501)。そして、移動ベクトル検出部120により検出された移動ベクトルなどに基づき、移動領域検出部130により移動領域を検出する(S502)。そして、移動ベクトル検出部120により検出された移動ベクトルと移動領域検出部130により検出された移動領域とに基づき、差分データ生成部140により差分データを生成する(S503)。そして、移動ベクトル検出部120により検出された移動ベクトルの情報と、移動領域検出部130により検出された移動領域の情報と、差分データ生成部140により生成された差分データと、を送信部150によりクライアント装置200に送信する(S504)。このような処理動作により、サーバ装置100は、クライアント装置200が移動後フレームを再現できるように、移動ベクトルの情報と移動領域の情報と差分データをクライアント装置200送信する。
<Example of Processing Operation of
FIG. 26 is a diagram showing processing operations in the
このように、サーバ装置100は、移動後フレームを送信することなく、クライアント装置200において、サーバ装置100から送信されたこれらの情報とクライアント装置200に記憶されている移動前フレームとを用いることにより、移動後フレームを再現することが可能になる。
As described above, the
上述した実施形態における処理動作は、ハードウェア、または、ソフトウェア、あるいは、両者の複合構成によって実行することも可能である。 The processing operation in the above-described embodiment can be executed by hardware, software, or a combined configuration of both.
なお、ソフトウェアによる処理を実行する場合には、処理シーケンスを記録したプログラムが格納されているROM(Read Only Memory)から、専用のハードウェアに組み込まれているコンピュータ内のメモリ(RAM)にプログラムを読み込んで実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。 When processing by software is executed, the program is loaded from a ROM (Read Only Memory) storing a program recording a processing sequence to a memory (RAM) in a computer incorporated in dedicated hardware. The program can be read and executed, or the program can be installed and executed on a general-purpose computer capable of executing various processes.
例えば、プログラムは、記録媒体としてのハードディスクやROMに予め記録しておくことが可能である。あるいは、プログラムは、フロッピー(登録商標)ディスク等の磁気ディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスク、MO(Magneto Optical)ディスク等の光磁気ディスクなどのリムーバブル記録媒体に、一時的、あるいは、永続的に格納(記録)しておくことが可能である。 For example, the program can be recorded in advance on a hard disk or ROM as a recording medium. Alternatively, the program is stored on a removable recording medium such as a magnetic disk such as a floppy (registered trademark) disk, an optical disk such as a CD (Compact Disc) or DVD (Digital Versatile Disc), or a magneto-optical disk such as an MO (Magneto Optical) disk. It is possible to store (record) temporarily or permanently.
このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することが可能である。 Such a removable recording medium can be provided as so-called package software.
なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送したりし、コンピュータでは、転送されてきたプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることが可能である。 The program is installed on the computer from the above-described removable recording medium, transferred wirelessly from the download site to the computer, or transferred to the computer via a network such as a LAN (Local Area Network) or the Internet. On the other hand, the computer can receive the transferred program and install it on a recording medium such as a built-in hard disk.
また、上記実施形態で説明した処理動作に従って時系列的に実行されるのみならず、処理を実行する装置の処理能力、あるいは、必要に応じて並列的にあるいは個別に実行するように構築することも可能である。 In addition to being executed in time series in accordance with the processing operations described in the above embodiment, the processing capability of the apparatus that executes the processing, or a configuration to execute in parallel or individually as necessary Is also possible.
また、上記実施形態で説明したシステムは、複数の装置の論理的集合構成にしたり、各装置の機能を混在させたりするように構築することも可能である。 In addition, the system described in the above embodiment can be configured to have a logical set configuration of a plurality of devices or to mix the functions of each device.
以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範囲な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更が可能である。 The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments thereof, various modifications and changes can be made to these embodiments without departing from the broader spirit and scope of the invention as defined in the claims. is there.
また、本発明におけるサーバ装置は、前記移動ベクトル検出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記2つのフレームにおける色の揺らぎを考慮して前記移動ベクトルを検出するようにしても良い。 Further, in the server device according to the present invention, when the moving vector detection unit determines that the moving image data is a natural moving image by the moving image type determining unit, the movement vector detecting unit considers color fluctuations in the two frames. A movement vector may be detected.
また、本発明におけるサーバ装置は、前記移動ベクトル検出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記2つのフレームにおける位置の揺らぎを考慮して前記移動ベクトルを検出するようにしても良い。 Further, in the server device according to the present invention, when the moving vector detecting unit determines that the moving image data is a natural moving image by the moving image type determining unit, the movement vector detecting unit considers the fluctuation of the position in the two frames. A movement vector may be detected.
また、本発明におけるサーバ装置は、前記移動ベクトル検出手段は、前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有するようにしても良い。 Further, in the server device according to the present invention, the movement vector detecting unit extracts an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels in each of the two frames. A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A feature point for extracting, as a feature point, an edge point having a hash value with an appearance count of 1 from each of the two hash tables generated by the hash table generation unit and the hash table generation unit generated for each Extracting means; a hash table of the first frame; and a second hash table of the first frame. A feature point pair extracting unit that extracts a pair of feature points having the same hash value as a feature point pair, and the feature point pair extracted by the feature point pair extracting unit. A vector calculating means for calculating a vector connecting the feature point in the frame and the feature point in the second frame; and a vector calculated for each feature point pair by the vector calculating means except for the zero vector, You may make it have a movement vector determination means which determines a frequent vector as a movement vector.
また、本発明におけるサーバ装置は、前記特徴点抽出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成手段により生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出するようにしても良い。 Further, in the server device according to the present invention, the feature point extracting unit, when the moving image type determining unit determines that the moving image data is a natural moving image, the two frames generated by the hash table generating unit. You may make it extract from each hash table the edge point which has a hash value whose appearance frequency is below a predetermined value as a feature point.
また、本発明におけるサーバ装置は、前記特徴点ペア抽出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出するようにしても良い。 In the server device according to the present invention, when the moving image type determining unit determines that the moving image data is a natural moving image, the feature point pair extracting unit and the second frame hash table and the second frame A pair of feature points whose hash values differ by a predetermined value may be extracted from the hash table as feature point pairs.
また、本発明におけるサーバ装置は、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアのうちで、色が一致する特徴点ペアの割合が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。 Further, in the server device according to the present invention, the moving image type discriminating unit is configured such that the ratio of the feature point pairs whose colors match among the feature point pairs connected by the movement vector determined by the movement vector detecting unit is greater than a predetermined value. When it is large, the moving image data may be determined to be a natural moving image.
また、本発明におけるサーバ装置は、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。 Further, in the server device according to the present invention, when the moving image type discriminating unit has a standard deviation of the color difference distribution in the feature point pair connected by the movement vector determined by the movement vector detecting unit greater than a predetermined value, You may make it discriminate | determine that the said moving image data is a natural moving image.
また、本発明におけるサーバ装置は、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。 In the server device according to the present invention, when the moving image type discriminating unit has a standard deviation of a difference distribution of hash values in the feature point pair connected by the movement vector determined by the movement vector detecting unit larger than a predetermined value. The moving image data may be determined as a natural moving image.
また、本発明における移動ベクトル検出方法は、前記移動ベクトル検出ステップは、前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出ステップと、前記エッジ点抽出ステップにより抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成ステップと、前記ハッシュテーブル生成ステップにより生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出ステップと、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出ステップと、前記特徴点ペア抽出ステップにより抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出ステップと、前記ベクトル算出ステップにより特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定ステップと、を有するようにしても良い。 Further, in the movement vector detection method according to the present invention, the movement vector detection step extracts an edge point extraction step that extracts, as an edge point, a pixel having a large change in pixel value as compared with surrounding pixels in each of the two frames. And the hash table showing the number of appearances for each hash value and the coordinate value of the edge point having the hash value as a hash value by converting the edge point extracted in the edge point extraction step into a hash value by a predetermined method. A hash table generation step generated for each of the two frames and an edge point having a hash value with the appearance count of 1 are extracted as feature points from each of the two hash tables generated by the hash table generation step. Feature point extraction step and hash of the first frame A feature point pair extraction step for extracting a feature point pair having the same hash value as a feature point pair from the table and the second hash table, and a feature point pair extracted by the feature point pair extraction step. On the other hand, a vector calculation step for calculating a vector connecting the feature point in the first frame and the feature point in the second frame, and among the vectors calculated for each feature point pair by the vector calculation step In addition to the zero vector, a movement vector determination step for determining the most frequently occurring vector as a movement vector may be included.
また、本発明における移動ベクトル検出方法は、前記特徴点抽出ステップは、前記動画種判別ステップにより前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成ステップにより生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出するようにしても良い。 In the movement vector detection method according to the present invention, the feature point extracting step may be performed when the moving image type determining step determines that the moving image data is a natural moving image, and the feature table extracting step generates the 2 generated by the hash table generating step. An edge point having a hash value whose number of appearances is a predetermined value or less may be extracted as a feature point from the hash table of each of the two frames.
また、本発明における移動ベクトル検出方法は、前記特徴点ペア抽出ステップは、前記動画種判別ステップにより前記動画データが自然動画であると判別されたときは、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出するようにしても良い。 In the movement vector detection method according to the present invention, when the moving image type determining step determines that the moving image data is a natural moving image, the feature point pair extracting step includes the hash table of the first frame and the A pair of feature points whose hash values differ by a predetermined value may be extracted from the second hash table as a feature point pair.
また、本発明における移動ベクトル検出方法は、前記動画種判別ステップは、移動ベクトル検出ステップにより決定された移動ベクトルにより結ばれる特徴点ペアのうちで、色が一致する特徴点ペアの割合が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。 In the movement vector detection method according to the present invention, the moving image type determination step includes a predetermined ratio of the feature point pairs having the same color among the feature point pairs connected by the movement vector determined in the movement vector detection step. When the value is larger than the value, the moving image data may be determined to be a natural moving image.
また、本発明における移動ベクトル検出方法は、前記動画種判別ステップは、移動ベクトル検出ステップにより決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。 In the moving vector detection method according to the present invention, the moving image type determining step may be performed when the standard deviation of the color difference distribution in the feature point pair connected by the moving vector determined by the moving vector detecting step is larger than a predetermined value. The moving image data may be determined as a natural moving image.
また、本発明における移動ベクトル検出方法は、前記動画種判別ステップは、移動ベクトル検出ステップにより決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。 Further, in the movement vector detection method according to the present invention, the moving image type determination step has a standard deviation of a difference distribution of hash values in a feature point pair connected by the movement vector determined in the movement vector detection step greater than a predetermined value. In some cases, the moving image data may be determined to be a natural moving image.
また、本発明におけるプログラムは、前記移動ベクトル検出手段は、前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有するようにしても良い。 In the program according to the present invention, the movement vector detection unit extracts an edge point extraction unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels in each of the two frames. The edge points extracted by the edge point extraction means are digitized as hash values by a predetermined method, and a hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is displayed for each of the two frames. And a feature point extraction that extracts an edge point having a hash value with the appearance count of 1 as a feature point from each of the two hash tables generated by the hash table generation unit Means, the hash table of the first frame and the second hash table. A feature point pair extracting unit that extracts a pair of feature points having the same hash value as a feature point pair, and the feature point pair extracted by the feature point pair extracting unit. A vector calculating means for calculating a vector connecting the feature point in the frame and the feature point in the second frame; and a vector calculated for each feature point pair by the vector calculating means except for the zero vector, You may make it have a movement vector determination means which determines a frequent vector as a movement vector.
また、本発明におけるプログラムは、前記特徴点抽出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成手段により生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出するようにしても良い。 Further, in the program according to the present invention, the feature point extracting unit, when the moving image type determining unit determines that the moving image data is a natural moving image, each of the two frames generated by the hash table generating unit. From the hash table, an edge point having a hash value whose appearance count is equal to or less than a predetermined value may be extracted as a feature point.
また、本発明におけるプログラムは、前記特徴点ペア抽出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出するようにしても良い。 In the program according to the present invention, the feature point pair extraction unit, when the moving image type determining unit determines that the moving image data is a natural moving image, the hash table of the first frame and the second frame A pair of feature points whose hash values differ by a predetermined value may be extracted as a feature point pair from the hash table.
また、本発明におけるプログラムは、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアのうちで、色が一致する特徴点ペアの割合が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。 Further, in the program according to the present invention, the moving image type discriminating unit is configured such that, among the feature point pairs connected by the movement vector determined by the movement vector detecting unit, the ratio of the feature point pairs having the same color is larger than a predetermined value. In some cases, the moving image data may be determined to be a natural moving image.
また、本発明におけるプログラムは、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。 In the program according to the present invention, when the moving image type discriminating unit has a standard deviation of the color difference distribution in the feature point pair connected by the movement vector determined by the movement vector detecting unit greater than a predetermined value, You may make it discriminate | determine that moving image data is a natural moving image.
また、本発明におけるプログラムは、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。 Further, in the program according to the present invention, when the moving image type discriminating unit has a standard deviation of a difference distribution of hash values in the feature point pair connected by the movement vector determined by the movement vector detecting unit larger than a predetermined value, You may make it discriminate | determine that the said moving image data is a natural moving image.
100 サーバ装置
110 記憶部
120 移動ベクトル検出部
121 エッジ点抽出部
122 ハッシュテーブル生成部
123 特徴点抽出部
124 特徴点ペア抽出部
125 ベクトル算出部
126 移動ベクトル決定部
127 動画種判別部
130 移動領域検出部
131 比較領域決定部
132 移動領域決定部
133 初期領域設定部
134 候補領域決定部
140 差分データ生成部
150 送信部
200 クライアント装置
DESCRIPTION OF
Claims (14)
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段と、を有し、
前記移動ベクトル検出手段は、 前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成手段により生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有することを特徴とするサーバ装置。 A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area that is a moving area;
The movement vector detection means, in each of the two frames, an edge point extraction means for extracting a pixel having a large change in pixel value as compared to surrounding pixels as an edge point;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
When the moving image type determining unit determines that the moving image data is a natural moving image, a hash whose number of appearances is equal to or less than a predetermined value from the hash tables of the two frames generated by the hash table generating unit. Feature point extraction means for extracting edge points having values as feature points;
A feature point pair extraction unit that extracts a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means;
Of the vector calculated for each feature point pair by the vector calculating means, other than a zero vector, the server characterized by Rukoto that Yusuke and motion vector determining means for determining a vector of the most frequent as the movement vector, the apparatus.
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記2つのフレームにおける色の揺らぎを考慮して前記移動ベクトルを検出することを特徴とする請求項1に記載のサーバ装置。 The movement vector detection means includes
The movement vector is detected in consideration of color fluctuations in the two frames when the moving image type determining unit determines that the moving image data is a natural moving image. Server device.
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記2つのフレームにおける位置の揺らぎを考慮して前記移動ベクトルを検出することを特徴とする請求項1に記載のサーバ装置。 The movement vector detection means includes
The movement vector is detected in consideration of fluctuations in position in the two frames when the moving image type determining unit determines that the moving image data is a natural moving image. Server device.
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段と、を有し、
前記移動ベクトル検出手段は、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有することを特徴とするサーバ装置。 A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area that is a moving area;
The movement vector detection means includes
In each of the two frames, an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
Feature point extracting means for extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating means;
When the moving image type determining means determines that the moving image data is a natural moving image,
A feature point pair extraction unit that extracts a pair of feature points having different hash values by a predetermined value from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means;
Of the vector calculated for each feature point pair by the vector calculating means, other than a zero vector, wherein the Surusa over server that has a motion vector determining means for determining a vector of the most frequent as the movement vector, the apparatus.
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段と、を有し、
前記移動ベクトル検出手段は、
前記動画種判別手段による判別結果に基づいて前記移動ベクトルを検出することを特徴とし、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有し、
前記動画種判別手段は、
移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とするサーバ装置。 A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area that is a moving area;
The movement vector detection means includes
The movement vector is detected based on a determination result by the moving image type determination unit,
In each of the two frames, an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
Feature point extracting means for extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating means;
A feature point pair extraction unit that extracts a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means;
Among the vectors calculated for each feature point pair by the vector calculation means, there is a movement vector determination means for determining the most frequent vector as a movement vector other than the zero vector,
The moving image type discrimination means includes
When the standard deviation of the color difference distribution in the feature point pair connected by the movement vector determined by the movement vector detection means is larger than a predetermined value, the moving image data is determined to be a natural moving image. to Lusa over server apparatus.
移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とする請求項4に記載のサーバ装置。 The moving image type discrimination means includes
The moving image data is determined to be a natural moving image when the standard deviation of the distribution of hash value differences in the feature point pair connected by the moving vector determined by the moving vector detecting means is larger than a predetermined value. The server device according to claim 4 .
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出ステップと、を有し、
前記移動ベクトル検出ステップは、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出ステップと、
前記エッジ点抽出ステップにより抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成ステップと、
前記動画種判別ステップにより前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成ステップにより生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出ステップと、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出ステップと、
前記特徴点ペア抽出ステップにより抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出ステップと、
前記ベクトル算出ステップにより特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定ステップと、を有することを特徴とする移動ベクトル検出方法。 A video type determination step for determining whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting step for detecting a movement vector indicating the magnitude and direction of movement of the moving area, which is a moving area,
The moving vector detection step includes:
In each of the two frames, an edge point extraction step of extracting a pixel having a large change in pixel value as compared to surrounding pixels as an edge point;
A hash table showing the number of appearances for each hash value and the coordinate value of the edge point having the hash value is converted into a hash value by a predetermined method and the hash table extracted in the edge point extraction step is the two frames. A hash table generation step to generate for each;
When the moving image type determining step determines that the moving image data is a natural moving image, a hash whose number of appearances is equal to or less than a predetermined value from the hash tables of the two frames generated by the hash table generating step. A feature point extraction step for extracting edge points having values as feature points;
A feature point pair extracting step of extracting a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
A vector calculation step for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted in the feature point pair extraction step;
A movement vector determining step of determining, as a movement vector, the most frequently occurring vector other than the zero vector among the vectors calculated for each feature point pair in the vector calculation step. Method.
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出ステップと、を有し、
前記移動ベクトル検出ステップは、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出ステップと、
前記エッジ点抽出ステップにより抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成ステップと、
前記ハッシュテーブル生成ステップにより生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出ステップと、
前記動画種判別ステップにより前記動画データが自然動画であると判別されたときは、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出ステップと、
前記特徴点ペア抽出ステップにより抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出ステップと、
前記ベクトル算出ステップにより特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定ステップと、を有することを特徴とする移動ベクトル検出方法。 A video type determination step for determining whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting step for detecting a movement vector indicating the magnitude and direction of movement of the moving area, which is a moving area,
The moving vector detection step includes:
In each of the two frames, an edge point extraction step of extracting a pixel having a large change in pixel value as compared to surrounding pixels as an edge point;
A hash table showing the number of appearances for each hash value and the coordinate value of the edge point having the hash value is converted into a hash value by a predetermined method and the hash table extracted in the edge point extraction step is the two frames. A hash table generation step to generate for each;
A feature point extracting step of extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating step;
When the moving image type determining step determines that the moving image data is a natural moving image, a feature point having a hash value that differs by a predetermined value from the hash table of the first frame and the second hash table. A feature point pair extraction step for extracting pairs as feature point pairs;
A vector calculation step for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted in the feature point pair extraction step;
Wherein among the vector calculation step of vector calculated for each feature point pair, other than zero vectors, moves you, comprising: the motion vector determining step of determining a vector of the most frequent as the movement vector, the dynamic Vector detection method.
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出ステップと、を有し、
前記移動ベクトル検出ステップは、
前記動画種判別ステップによる判別結果に基づいて前記移動ベクトルを検出することを特徴とし、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出ステップと、
前記エッジ点抽出ステップにより抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成ステップと、
前記ハッシュテーブル生成ステップにより生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出ステップと、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出ステップと、
前記特徴点ペア抽出ステップにより抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出ステップと、
前記ベクトル算出ステップにより特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定ステップと、を有し、
前記動画種判別ステップは、
移動ベクトル検出ステップにより決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とする移動ベクトル検出方法。 A video type determination step for determining whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting step for detecting a movement vector indicating the magnitude and direction of movement of the moving area, which is a moving area,
The moving vector detection step includes:
The movement vector is detected based on a determination result obtained by the moving image type determination step,
In each of the two frames, an edge point extraction step of extracting a pixel having a large change in pixel value as compared to surrounding pixels as an edge point;
A hash table showing the number of appearances for each hash value and the coordinate value of the edge point having the hash value is converted into a hash value by a predetermined method and the hash table extracted in the edge point extraction step is the two frames. A hash table generation step to generate for each;
A feature point extracting step of extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating step;
A feature point pair extracting step of extracting a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
A vector calculation step for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted in the feature point pair extraction step;
A movement vector determining step for determining a most frequent vector as a movement vector other than the zero vector among the vectors calculated for each feature point pair in the vector calculation step;
The moving image type determining step includes:
When the standard deviation of the color difference distribution in the feature point pair connected by the movement vector determined by the movement vector detection step is larger than a predetermined value, it is determined that the moving image data is a natural moving image. that moving vector detection method be.
移動ベクトル検出ステップにより決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とする請求項8に記載の移動ベクトル検出方法。 The moving image type determining step includes:
The moving image data is determined to be a natural moving image when the standard deviation of the distribution of hash value differences in the feature point pairs connected by the moving vector determined by the moving vector detection step is larger than a predetermined value. The movement vector detection method according to claim 8 .
動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段として機能させ、
前記移動ベクトル検出手段は、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成手段により生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、 前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有することを特徴とするプログラム。 Server device
A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. Function as a movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area,
The movement vector detection means includes
In each of the two frames, an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
When the moving image type determining unit determines that the moving image data is a natural moving image, a hash whose number of appearances is equal to or less than a predetermined value from the hash tables of the two frames generated by the hash table generating unit. Feature point extraction means for extracting edge points having values as feature points;
A feature point pair extraction unit that extracts a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means; of the vector calculated for each feature point pair by means, other than a zero vector, program characterized Rukoto that Yusuke and motion vector determining means for determining a vector of the most frequent as the movement vector, a.
動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段として機能させ、
前記移動ベクトル検出手段は、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有することを特徴とするプログラム。 Server device
A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. Function as a movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area,
The movement vector detection means includes
In each of the two frames, an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
Feature point extracting means for extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating means;
When the moving image type determining means determines that the moving image data is a natural moving image,
A feature point pair extraction unit that extracts a pair of feature points having different hash values by a predetermined value from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means;
Of the vector calculated for each feature point pair by the vector calculating means, other than a zero vector, features and to Help program that has a motion vector determining means for determining a vector of the most frequent as the movement vector, the .
動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段として機能させ、
前記移動ベクトル検出手段は、前記動画種判別手段による判別結果に基づいて前記移動ベクトルを検出し、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有し、
前記動画種判別手段は、
移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とするプログラム。 Server device
A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. Function as a movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area,
The movement vector detection unit detects the movement vector based on a determination result by the moving image type determination unit,
In each of the two frames, an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
Feature point extracting means for extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating means;
A feature point pair extraction unit that extracts a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means;
Among the vectors calculated for each feature point pair by the vector calculation means, there is a movement vector determination means for determining the most frequent vector as a movement vector other than the zero vector,
The moving image type discrimination means includes
When the standard deviation of the color difference distribution in the feature point pair connected by the movement vector determined by the movement vector detection means is larger than a predetermined value, the moving image data is determined to be a natural moving image. to Help program.
移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とする請求項12に記載のプログラム。 The moving image type discrimination means includes
The moving image data is determined to be a natural moving image when the standard deviation of the distribution of hash value differences in the feature point pair connected by the moving vector determined by the moving vector detecting means is larger than a predetermined value. The program according to claim 12 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010152108A JP5549431B2 (en) | 2010-07-02 | 2010-07-02 | Server apparatus, moving vector detection method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010152108A JP5549431B2 (en) | 2010-07-02 | 2010-07-02 | Server apparatus, moving vector detection method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012015903A JP2012015903A (en) | 2012-01-19 |
JP5549431B2 true JP5549431B2 (en) | 2014-07-16 |
Family
ID=45601782
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010152108A Expired - Fee Related JP5549431B2 (en) | 2010-07-02 | 2010-07-02 | Server apparatus, moving vector detection method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5549431B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102296318B1 (en) * | 2019-12-19 | 2021-09-01 | 네이버 주식회사 | Apparatus and method for classifying videos |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4239556B2 (en) * | 2002-11-11 | 2009-03-18 | ソニー株式会社 | Image processing apparatus and method, recording medium, and program |
CN1774931A (en) * | 2003-04-17 | 2006-05-17 | 皇家飞利浦电子股份有限公司 | Content analysis of coded video data |
JP2005159744A (en) * | 2003-11-26 | 2005-06-16 | Sharp Corp | Moving picture encoding apparatus and moving picture encoding program |
JP5003521B2 (en) * | 2008-02-14 | 2012-08-15 | 日本電気株式会社 | Update region detection device with motion compensation |
-
2010
- 2010-07-02 JP JP2010152108A patent/JP5549431B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012015903A (en) | 2012-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4991101B2 (en) | Temporary motion vector filtering | |
JP2005210697A (en) | Frame rate conversion for motion compensation | |
CN102025959B (en) | The System and method for of high definition video is produced from low definition video | |
US20160078584A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
US20120105601A1 (en) | Apparatus and method for creating three-dimensional panoramic image by using single camera | |
CN102239698A (en) | Image processing device and method, and program | |
JP4626775B2 (en) | Information processing apparatus and information processing program | |
CN107087121A (en) | A kind of Autoconducting method and device based on motion detection | |
JP6061502B2 (en) | Image processing apparatus, image processing method, and program | |
JP2009164725A (en) | Image recording device and image reproduction device | |
JP4617883B2 (en) | Image processing apparatus and method, program, and recording medium | |
JP5549431B2 (en) | Server apparatus, moving vector detection method and program | |
JP4868139B2 (en) | Image processing apparatus and image processing program | |
JP2009237650A (en) | Image processor and imaging device | |
JP4558614B2 (en) | Image processing apparatus, method and program for determining field order of moving image data | |
JP2011192077A (en) | Server device, method of detecting area of movement, and program | |
JP2010079506A (en) | Image generating apparatus, method, communication system, and program | |
JP3166976B2 (en) | Image processing apparatus and method | |
JP4650741B2 (en) | Data recording system and data reproducing system | |
US20230300359A1 (en) | Method and apparatus for generating and processing media file | |
JP5123643B2 (en) | Video processing device | |
JP2005275765A (en) | Image processor, image processing method, image processing program and recording medium recording the program | |
US20230325969A1 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
CN101365093B (en) | Image processing apparatus and method | |
KR20180073020A (en) | Hole Filling Method for Arbitrary View Image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130614 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140204 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140403 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140422 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140505 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5549431 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |