JP5549431B2 - Server apparatus, moving vector detection method and program - Google Patents

Server apparatus, moving vector detection method and program Download PDF

Info

Publication number
JP5549431B2
JP5549431B2 JP2010152108A JP2010152108A JP5549431B2 JP 5549431 B2 JP5549431 B2 JP 5549431B2 JP 2010152108 A JP2010152108 A JP 2010152108A JP 2010152108 A JP2010152108 A JP 2010152108A JP 5549431 B2 JP5549431 B2 JP 5549431B2
Authority
JP
Japan
Prior art keywords
feature point
vector
frame
moving image
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010152108A
Other languages
Japanese (ja)
Other versions
JP2012015903A (en
Inventor
昌生 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010152108A priority Critical patent/JP5549431B2/en
Publication of JP2012015903A publication Critical patent/JP2012015903A/en
Application granted granted Critical
Publication of JP5549431B2 publication Critical patent/JP5549431B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、2つのフレームの間で移動した領域を検出するサーバ装置、移動ベクトル検出方法及びプログラムに関する。   The present invention relates to a server device, a movement vector detection method, and a program for detecting an area moved between two frames.

ネットワークの発達により、あらゆる場所でネットワークに接続できる環境が整ってきている。このため、あらゆる場所で使用できるように、機能を落とし、できる限り軽量化したクライアント装置を用意し、クライアント装置に入力された操作に対する処理は、ネットワークを介し接続したサーバ装置が行うようにしたクライアントサーバシステムが実用的になってきている。   With the development of the network, an environment that can connect to the network everywhere has been established. For this reason, a client device that is reduced in function and reduced in weight as much as possible so that it can be used everywhere is prepared, and processing for operations input to the client device is performed by a server device connected via a network. Server systems are becoming practical.

このようなクライアントサーバシステムでは、クライアント装置に入力された操作の処理結果を示す画面はサーバ装置により生成される。このため、クライアント装置において、サーバ装置で行われた処理結果を表示するために、サーバ装置は、生成した画面の情報を、所定の時間間隔で、クライアント装置に送信している。   In such a client-server system, a screen indicating the processing result of the operation input to the client device is generated by the server device. For this reason, in order to display the processing result performed in the server device in the client device, the server device transmits the generated screen information to the client device at predetermined time intervals.

このとき、所定間隔で送られる画面のデータであるフレームデータのデータサイズやネットワークの混雑具合によっては、クライアント装置に操作情報が入力されてから、この操作情報を反映したフレームデータがクライアント装置に表示されるまでに、遅延が生じることがある。この遅延を小さくするためには、サーバ装置からクライアント装置に送信されるフレームデータのデータサイズはできる限り小さくする必要がある。   At this time, depending on the data size of frame data, which is screen data sent at a predetermined interval, and the degree of network congestion, after the operation information is input to the client device, the frame data reflecting this operation information is displayed on the client device. There may be a delay before it is done. In order to reduce this delay, it is necessary to make the data size of the frame data transmitted from the server device to the client device as small as possible.

そこで、送信されるフレームデータのデータサイズを小さくする方法がいろいろ取り入れられてきている。例えば、前回生成されたフレームデータから変化した部分だけを送信する差分伝送などの方法が用いられている。   Therefore, various methods for reducing the data size of transmitted frame data have been adopted. For example, a method such as differential transmission is used in which only a portion changed from the previously generated frame data is transmitted.

差分伝送の方法では、通常、図27に示すようなフレーム上でのウィンドウ部分の移動の場合、時間的に後のフレームのうちの時間的に前のフレームから変化した領域、つまり、図28に示すように、時間的に後のフレームのうちの移動前のウィンドウ部分に対応する領域と移動後のウィンドウ部分の領域を差分領域と認識し、この差分領域のデータを差分データとしてサーバ装置からクライアント装置に送信している。しかし、移動するウィンドウ部分の画像が変化しない場合は、移動前のウィンドウ部分と移動後のウィンドウ部分を含む領域全体のデータを差分データとして送る必要はない。   In the differential transmission method, usually, in the case of movement of the window portion on the frame as shown in FIG. 27, the region changed from the temporally previous frame in the temporally subsequent frame, that is, in FIG. As shown in the figure, the area corresponding to the window part before the movement in the temporally subsequent frame and the area of the window part after the movement are recognized as the difference area, and the data from the difference area is used as the difference data from the server device to the client. Sending to the device. However, when the image of the moving window part does not change, it is not necessary to send the entire data including the window part before moving and the window part after moving as difference data.

ウィンドウ部分の画像が変化しないのであれば、すでにクライアント装置に格納されている移動前のウィンドウ部分の画像を、移動後のウィンドウ部分の画像として使用すれば良い。つまり、移動後のウィンドウ部分に対しては、クライアント装置に格納されたフレームデータ上において、移動後のウィンドウ部分の格納位置に、移動前のウィンドウ部分の画像データをコピーすれば良い。そして、図29に示すような残りのデータだけを差分データとしてサーバ装置から送信し、クライアント装置に格納されたフレームデータ上において、移動前のウィンドウ部分をこの差分データに書き換えれば、ウィンドウ部分が移動した後の画像を再現することができる。つまり、図30に示すように、ウィンドウ部分の移動前の位置情報とウィンドウ部分の移動先についての情報と、残りの差分データを送信するだけで、ウィンドウ部分が移動した後のフレームデータをクライアント装置側で再現することができる。   If the image of the window portion does not change, the image of the window portion before movement already stored in the client device may be used as the image of the window portion after movement. In other words, for the window part after movement, the image data of the window part before movement may be copied to the storage position of the window part after movement on the frame data stored in the client device. Then, only the remaining data as shown in FIG. 29 is transmitted as difference data from the server device, and the window portion is moved by rewriting the window portion before movement to the difference data on the frame data stored in the client device. The reproduced image can be reproduced. That is, as shown in FIG. 30, only the position information before the movement of the window part, the information about the movement destination of the window part, and the remaining difference data are transmitted, and the frame data after the movement of the window part is transmitted to the client device. Can be reproduced on the side.

ここで、ウィンドウ部分の移動前の位置情報としては、ウィンドウ部分の左上端点の座標と右下端点の座標の組み合わせでも良いし、左上端点の座標とウィンドウ部分のサイズ(ウィンドウ部分の水平方向の長さと垂直方向の長さ)の組み合わせでも良い。つまり、ウィンドウ部分の移動前の位置情報としては、4つの数値データを送信するだけで良い。また、ウィンドウ部分の移動先の情報としては、例えば、移動前のウィンドウ部分の左上端点の座標と移動後のウィンドウ部分の左上端点の座標とを結ぶベクトル、つまり、移動ベクトルの情報を送信すれば良い。つまり、ウィンドウ部分の移動先の情報としては、移動ベクトルの座標値である2つの数値データを送信するだけで良い。よって、移動後のウィンドウ部分のデータを送信する代わりに、6つの数値データを送信すれば良いことになり、送信するデータのデータサイズがかなり小さくすることができる。   Here, the position information before the movement of the window portion may be a combination of the coordinates of the upper left end point and the coordinates of the lower right end point of the window portion, or the coordinates of the upper left end point and the size of the window portion (the length of the window portion in the horizontal direction). And the length in the vertical direction). That is, it is only necessary to transmit four numerical data as position information before the window portion is moved. Further, as the information on the movement destination of the window part, for example, if a vector connecting the coordinates of the upper left end point of the window part before the movement and the coordinates of the upper left end point of the window part after the movement, that is, information on the movement vector is transmitted. good. That is, as the information on the movement destination of the window portion, it is only necessary to transmit two numerical data that are coordinate values of the movement vector. Therefore, instead of transmitting the data of the window part after movement, it is only necessary to transmit six numerical data, and the data size of the data to be transmitted can be considerably reduced.

例えば、特許文献1では、ウィンドウ部分などの移動する領域を検出する方法や、その領域の移動ベクトルや残りの差分データを検出する方法が開示されている。   For example, Patent Document 1 discloses a method for detecting a moving region such as a window portion, and a method for detecting a moving vector of the region and remaining difference data.

特開2009−194626号公報JP 2009-194626 A

しかしながら、特許文献1に開示された方法を含め、これまでの方法は、サーバ装置からクライアント装置に送信される動画が、カメラなどのレンズを通して撮像された情報により生成される動画である自然動画であるのか、サーバ装置のデジタル処理のみにより生成される動画である人工動画であるのか、を考慮していない。   However, the methods so far including the method disclosed in Patent Document 1 are natural moving images in which a moving image transmitted from a server device to a client device is a moving image generated by information captured through a lens such as a camera. It is not considered whether there is an artificial moving image that is a moving image generated only by digital processing of the server device.

自然動画は、人工動画と違い、色の揺らぎや位置の揺らぎが存在する。つまり、特許文献1に開示された方法を含め、これまでの方法では、これらの揺らぎを考慮していないため、自然動画を扱う際に、移動ベクトルの算出の精度が落ちるという問題があった。   Unlike an artificial video, a natural video has color fluctuations and position fluctuations. In other words, the conventional methods including the method disclosed in Patent Document 1 do not take these fluctuations into account, so that there is a problem in that the accuracy of movement vector calculation is reduced when a natural moving image is handled.

そこで本発明は、上記問題点に鑑みてなされたもので、移動ベクトルを精度良く検出するサーバ装置、移動ベクトル検出方法及びプログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above-described problems, and an object thereof is to provide a server device, a movement vector detection method, and a program that detect a movement vector with high accuracy.

上記課題を解決するため、本発明におけるサーバ装置は、動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段と、を有し、前記移動ベクトル検出手段は、前記動画種判別手段による判別結果に基づいて前記移動ベクトルを検出することを特徴とする。   In order to solve the above-described problem, the server device according to the present invention includes a moving image type determining unit that determines whether moving image data is a natural moving image in which color and position fluctuations exist, and a continuous frame constituting the moving image data. By comparing a certain first frame with a second frame, it is possible to move the moving area, which is an image area that exists in both of the two frames and whose position on the frame is moving. Movement vector detection means for detecting a movement vector indicating a magnitude and direction, wherein the movement vector detection means detects the movement vector based on a determination result by the moving image type determination means.

また、本発明における移動ベクトル検出方法は、動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別ステップと、前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出ステップと、を有し、前記移動ベクトル検出ステップは、前記動画種判別ステップによる判別結果に基づいて前記移動ベクトルを検出することを特徴とする。   In the moving vector detection method according to the present invention, the moving image type determining step for determining whether the moving image data is a natural moving image in which color and position fluctuations exist, and the first frame that is a continuous frame constituting the moving image data. The size and direction of movement of the moving area, which is an image area that exists in both of the two frames and whose position on the frame is moving, by comparing the second frame and the second frame A movement vector detection step for detecting a movement vector indicating the movement vector, wherein the movement vector detection step detects the movement vector based on a determination result obtained by the moving image type determination step.

また、本発明におけるプログラムは、サーバ装置を、動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段として機能させ、前記移動ベクトル検出手段は、前記動画種判別手段による判別結果に基づいて前記移動ベクトルを検出することを特徴とする。   The program according to the present invention includes a moving image type determining unit that determines whether the moving image data is a natural moving image in which color and position fluctuations exist, and a continuous frame constituting the moving image data. By comparing the first frame with the second frame, the magnitude of movement of the moving area, which is an image area that exists in both of the two frames and whose position on the frame is moving, is It is made to function as a movement vector detection means which detects the movement vector which shows a direction, The said movement vector detection means detects the said movement vector based on the determination result by the said moving image kind determination means.

本発明により、移動ベクトルを精度良く検出することが可能になる。   According to the present invention, it is possible to accurately detect a movement vector.

本発明の実施形態に係るクライアントサーバシステムの構成例を示す図である。It is a figure which shows the structural example of the client server system which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の構成例を示す図である。It is a figure which shows the structural example of the server apparatus which concerns on embodiment of this invention. 2つのフレームにおける領域の移動を説明する図である。It is a figure explaining the movement of the area | region in two frames. 本発明の実施形態に係るサーバ装置の移動ベクトル検出部の構成例を示す図である。It is a figure which shows the structural example of the movement vector detection part of the server apparatus which concerns on embodiment of this invention. ハッシュ値の生成方法を説明する図である。It is a figure explaining the production | generation method of a hash value. 本発明の実施形態に係るサーバ装置の移動ベクトル検出部で生成されるハッシュテーブルを説明する図である。It is a figure explaining the hash table produced | generated by the movement vector detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動ベクトル検出部において算出されるベクトルを説明する図である。It is a figure explaining the vector calculated in the movement vector detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動ベクトル検出部における処理動作例を示す図である。It is a figure which shows the processing operation example in the movement vector detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動ベクトル検出部において算出されるベクトルを説明する図である。It is a figure explaining the vector calculated in the movement vector detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動ベクトル検出部において算出されるベクトルを説明する図である。It is a figure explaining the vector calculated in the movement vector detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動ベクトル検出部における処理動作例を示す図である。It is a figure which shows the processing operation example in the movement vector detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動領域検出部の構成例示す図である。It is a figure which shows the structural example of the movement area | region detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動領域検出部において決定される比較領域を説明する図である。It is a figure explaining the comparison area determined in the movement area detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動領域検出部において比較される領域を説明する図である。It is a figure explaining the area | region compared in the movement area | region detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動領域検出部において比較される領域を説明する図である。It is a figure explaining the area | region compared in the movement area | region detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動領域検出部において行われる比較を説明する図である。It is a figure explaining the comparison performed in the movement area | region detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動領域検出部における処理動作例を示す図である。It is a figure which shows the processing operation example in the movement area | region detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動領域検出部の構成例を示す図である。It is a figure which shows the structural example of the movement area | region detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動領域検出部において設定される初期領域を説明する図である。It is a figure explaining the initial stage area | region set in the movement area | region detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動領域検出部において設定される比較領域を説明する図である。It is a figure explaining the comparison area set in the movement area detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の移動領域検出部における処理動作例を示す図である。It is a figure which shows the processing operation example in the movement area | region detection part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の差分データ部における処理例を説明する図である。It is a figure explaining the process example in the difference data part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の差分データ部における処理例を説明する図である。It is a figure explaining the process example in the difference data part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の差分データ部における処理例を説明する図である。It is a figure explaining the process example in the difference data part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置の差分データ部における処理例を説明する図である。It is a figure explaining the process example in the difference data part of the server apparatus which concerns on embodiment of this invention. 本発明の実施形態に係るサーバ装置における処理動作例を示す図である。It is a figure which shows the processing operation example in the server apparatus which concerns on embodiment of this invention. ウィンドウ部分の移動を説明する図である。It is a figure explaining the movement of a window part. 差分領域を説明する図である。It is a figure explaining a difference area. 差分領域を説明する図である。It is a figure explaining a difference area. 移動領域の位置情報と移動ベクトルと差分データによるフレームの再現を説明する図である。It is a figure explaining the reproduction | regeneration of the flame | frame by the positional information on a movement area | region, a movement vector, and difference data.

次に、本発明を実施するための形態について図面を参照して詳細に説明する。   Next, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

<クライアントサーバシステムの構成例>
図1は、本発明の実施形態に係るクライアントサーバシステムの構成例である。本実施形態に係るクライアントサーバシステムは、サーバ装置100と、クライアント装置200と、を有して構成される。サーバ装置100とクライアント装置200とはネットワークを介して接続されている。図1では、クライアント装置200は、一台であるが、複数台であっても良い。
<Configuration example of client server system>
FIG. 1 is a configuration example of a client server system according to an embodiment of the present invention. The client server system according to the present embodiment includes a server device 100 and a client device 200. Server apparatus 100 and client apparatus 200 are connected via a network. In FIG. 1, there is one client device 200, but a plurality of client devices 200 may be used.

<サーバ装置100の構成例>
図2は、本発明の実施形態に係るサーバ装置100の構成例を示す図である。本実施形態に係るサーバ装置100は、記憶部110と、移動ベクトル検出部120と、移動領域検出部130と、差分データ生成部140と、送信部150と、を有して構成される。サーバ装置100は、このような構成で、図3に示すように、2つの時間的に連続したフレームを比較し、それぞれのフレームのうちで移動した移動領域と、この移動領域の移動距離と移動方向を示す移動ベクトルと、を検出する。そして、移動ベクトルと移動領域と時間的に前のフレームとを用いて差分データを生成し、移動ベクトルの情報と移動領域の情報と差分データとをクライアント装置200に送信する。以降、この比較される2つの時間的に連続したフレームのうち、時間的に前のフレームを移動前フレーム、時間的に後のフレームを移動後フレームと呼ぶことにする。つまり、サーバ装置100は、記憶部110に記憶された移動前フレームと移動後フレームを用いて、移動ベクトル検出部120により移動ベクトルを検出し、移動領域検出部130により移動領域を検出し、差分データ生成部140により差分データを生成し、この移動ベクトルの情報と移動領域の情報と差分データとを送信部150によりクライアント装置200に送信する。
<Configuration Example of Server Device 100>
FIG. 2 is a diagram illustrating a configuration example of the server apparatus 100 according to the embodiment of the present invention. The server device 100 according to the present embodiment includes a storage unit 110, a movement vector detection unit 120, a movement region detection unit 130, a difference data generation unit 140, and a transmission unit 150. With such a configuration, the server apparatus 100 compares two temporally continuous frames as shown in FIG. 3, moves the moving area in each frame, and the moving distance and movement of the moving area. A movement vector indicating a direction is detected. Then, difference data is generated using the movement vector, the movement area, and the previous frame in time, and the movement vector information, the movement area information, and the difference data are transmitted to the client apparatus 200. Hereinafter, of the two temporally consecutive frames to be compared, the temporally previous frame is referred to as a pre-movement frame, and the temporally subsequent frame is referred to as an after-movement frame. That is, the server apparatus 100 uses the pre-movement frame and the post-movement frame stored in the storage unit 110 to detect a movement vector by the movement vector detection unit 120, detects a movement region by the movement region detection unit 130, and performs the difference. The data generation unit 140 generates difference data, and the transmission unit 150 transmits the movement vector information, the movement region information, and the difference data to the client device 200.

記憶部110は、移動前フレームや移動後フレーム、後述するエッジ点・特徴点の座標値・画素値やハッシュテーブルなどを記録する。記憶部110は、1つでも良いし、記憶するデータごとに用意されるようにしても良い。例えば、記憶部110として、RAMやハードディスクなどを備えるようにし、頻繁に読み書きを行う必要のあるデータは、RAMなどに記憶するようにし、頻繁に読み書きを行う必要のないデータは、ハードディスクなどに記憶するようにしても良い。   The storage unit 110 records a pre-movement frame, a post-movement frame, coordinate values / pixel values of edge points / feature points described later, a hash table, and the like. The number of storage units 110 may be one, or may be prepared for each data to be stored. For example, the storage unit 110 includes a RAM, a hard disk, etc., data that needs to be read and written frequently is stored in the RAM, and data that does not need to be read and written frequently is stored in the hard disk. You may make it do.

<移動ベクトル検出部120の構成例>
移動ベクトル検出部120は、記憶部110に記憶された移動前フレームと移動後フレームに基づき、移動ベクトルを検出する。図4は、本発明の実施形態に係るサーバ装置100の移動ベクトル検出部120の構成を示す図である。移動ベクトル検出部120は、エッジ点抽出部121と、ハッシュテーブル生成部122と、特徴点抽出部123と、特徴点ペア抽出部124と、ベクトル算出部125と、移動ベクトル決定部126と、動画種判別部127と、を有して構成される。
<Configuration Example of Moving Vector Detection Unit 120>
The movement vector detection unit 120 detects a movement vector based on the pre-movement frame and the post-movement frame stored in the storage unit 110. FIG. 4 is a diagram illustrating a configuration of the movement vector detection unit 120 of the server device 100 according to the embodiment of the present invention. The movement vector detection unit 120 includes an edge point extraction unit 121, a hash table generation unit 122, a feature point extraction unit 123, a feature point pair extraction unit 124, a vector calculation unit 125, a movement vector determination unit 126, a moving image A seed determination unit 127.

エッジ点抽出部121は、記憶部110に記憶された移動前フレームと移動後フレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出する。エッジ点の抽出の仕方としてはいろいろと考えられる。例えば、ある画素を注目したときに、その画素の画素値とその画素に直交する2方向(例えば、左と上など)に隣接する2つの画素の画素値とを比較し、画素値の差が所定の値以上である場合に、その画素をエッジ点として抽出する。比較するときに、R、G、Bの各成分における差の総和を比較するようにしても良いし、R、G、Bの各成分それぞれにおいて比較するようにしても良い。R、G、Bの各成分それぞれにおいて比較する場合は、R、G、Bの各成分のうちいずれか1つの成分における差が所定の値以上であるときに、その画素をエッジ点として抽出するようにしても良いし、2つの成分における差が所定の値以上であるときに、その画素をエッジ点として抽出するようにしても良いし、すべての成分における差が所定の値以上であるときに、その画素をエッジ点として抽出するようにしても良い。   The edge point extraction unit 121 extracts, as edge points, pixels that have a greater change in pixel value than the surrounding pixels in each of the pre-movement frame and post-movement frame stored in the storage unit 110. There are various ways to extract edge points. For example, when attention is paid to a certain pixel, the pixel value of the pixel is compared with the pixel values of two pixels adjacent in two directions orthogonal to the pixel (for example, left and up), and the difference in pixel value is If it is greater than or equal to a predetermined value, the pixel is extracted as an edge point. At the time of comparison, the sum of differences in the R, G, and B components may be compared, or may be compared in each of the R, G, and B components. When comparing each of the R, G, and B components, the pixel is extracted as an edge point when the difference between any one of the R, G, and B components is equal to or greater than a predetermined value. If the difference between two components is greater than or equal to a predetermined value, the pixel may be extracted as an edge point, or when the difference between all components is greater than or equal to a predetermined value In addition, the pixel may be extracted as an edge point.

サーバ装置100からクライアント装置200に送信される動画には、自然動画と人工動画の二種類の動画が考えられる。自然動画は、例えば、カメラなど、レンズを通して撮像された情報により生成される動画であり、人工動画は、例えば、サーバ装置100などのデジタル処理のみにより生成される動画である。   The moving image transmitted from the server device 100 to the client device 200 can be two types of moving images, natural moving images and artificial moving images. The natural moving image is a moving image generated by information captured through a lens such as a camera, for example, and the artificial moving image is a moving image generated only by digital processing such as the server device 100, for example.

自然動画は、肉眼では、同一に見える部分であっても、レンズを通しているため、連続するフレームの間で色が微妙に揺らぐ。一方、人工動画には、このような揺らぎは無い。このため、エッジ点を抽出する際に使用する上記の所定の値を、自然動画と人工動画とで同じ値を使用すると、自然動画では、エッジ点として抽出されるべき点が、上記の揺らぎによりエッジ点として抽出されなくなることも起こりえる。   Even if the natural moving image looks the same with the naked eye, it passes through the lens, so the color fluctuates slightly between successive frames. On the other hand, there is no such fluctuation in the artificial video. For this reason, if the same value is used for the natural video and the artificial video as the predetermined value used when extracting the edge point, in the natural video, the point to be extracted as the edge point is caused by the above fluctuation. It may happen that it is not extracted as an edge point.

そこで、エッジ点を抽出する際に使用する上記の所定の値を、自然動画と人工動画とでは異なる値を使用するようにすると良い。例えば、自然動画において使用する所定の値を、人工動画において使用する所定の値より小さくする。このようにすることにより、自然動画において、エッジ点を抽出し損なうことを低減することが可能になる。   Therefore, it is preferable to use different values for the natural video and the artificial video for the predetermined value used when extracting the edge point. For example, the predetermined value used in the natural moving image is made smaller than the predetermined value used in the artificial moving image. By doing so, it is possible to reduce the failure to extract edge points in natural moving images.

なお、サーバ装置100からクライアント装置200に送信される動画が、自然動画であるのか、人工動画であるのか、を判別する動画種判別部127については、下記で詳述する。   Note that the moving image type determination unit 127 that determines whether the moving image transmitted from the server device 100 to the client device 200 is a natural moving image or an artificial moving image will be described in detail below.

ハッシュテーブル生成部122は、エッジ点抽出部121により抽出されたエッジ点を下記で示すハッシュ値により数値化し、ハッシュ値ごとの出現回数、そのハッシュ値を持つエッジ点の座標値などを示したハッシュテーブルを生成する。ハッシュテーブルは、移動前フレームと移動後フレームそれぞれに対して生成される。   The hash table generation unit 122 quantifies the edge points extracted by the edge point extraction unit 121 with the hash values shown below, and shows the number of appearances for each hash value, the coordinate value of the edge point having the hash value, and the like Generate a table. The hash table is generated for each of the pre-movement frame and the post-movement frame.

ハッシュテーブルを生成するために、ハッシュテーブル生成部122は、まず、エッジ点すべてに対してハッシュ値を生成する。ここで、ハッシュ値の生成の仕方としてはいろいろと考えられる。例えば、あるエッジ点に注目したときに、そのエッジ点とそのエッジ点の1つ左のエッジ点との距離D1と、そのエッジ点とそのエッジ点の2つ左のエッジ点との距離D2と、を用いて、D1+n×D2をそのエッジ点のハッシュ値とする。ここで、nは、任意の整数である。このとき、例えば、図5に示したように、3つのエッジ点があり、それぞれのエッジ点の座標が(81、50)、(83、50)、(86、50)である場合、n=16とすると、座標(86、50)にあるエッジ点のハッシュ値は、3+16×5=83となる。   In order to generate a hash table, the hash table generation unit 122 first generates a hash value for all edge points. Here, there are various ways of generating the hash value. For example, when attention is paid to an edge point, the distance D1 between the edge point and the edge point to the left of the edge point, and the distance D2 between the edge point and the edge point to the left of the edge point , D1 + n × D2 is used as the hash value of the edge point. Here, n is an arbitrary integer. At this time, for example, as shown in FIG. 5, when there are three edge points and the coordinates of the respective edge points are (81, 50), (83, 50), (86, 50), n = If 16, the hash value of the edge point at the coordinates (86, 50) is 3 + 16 × 5 = 83.

ハッシュテーブル生成部122は、図6に示すように、ハッシュ値ごとに、各フレームでのそのハッシュ値の出現回数、そのハッシュ値が生成されたエッジ点の座標値をまとめたテーブルを生成する。このとき、例えば、ハッシュテーブル生成部122は、ラスタスキャン順にエッジ点のハッシュ値を生成するようにすると良い。   As illustrated in FIG. 6, the hash table generation unit 122 generates, for each hash value, a table that summarizes the number of appearances of the hash value in each frame and the coordinate values of the edge points at which the hash value is generated. At this time, for example, the hash table generation unit 122 may generate the hash values of the edge points in the raster scan order.

特徴点抽出部123は、ハッシュテーブル生成部123により生成された移動前フレームと移動後フレームそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する。例えば、図6に示したハッシュテーブルであれば、移動前フレームのハッシュテーブルからは座標値が(86、50)や(114、121)であるエッジ点などが、移動後フレームのハッシュテーブルからは座標値が(288、148)、(32、384)であるエッジ点などが、特徴点として抽出される。   The feature point extraction unit 123 extracts, as feature points, edge points having a hash value whose appearance count is 1 from the hash tables of the pre-movement frame and the post-movement frame generated by the hash table generation unit 123. For example, in the case of the hash table shown in FIG. 6, edge points having coordinate values (86, 50) and (114, 121) from the hash table of the pre-movement frame are Edge points whose coordinate values are (288, 148) and (32, 384) are extracted as feature points.

特徴点ペア抽出部124は、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアを特徴点ペアとして抽出する。例えば、図6に示したハッシュテーブルであれば、特徴点ペア抽出部124は、ハッシュ値が83と同一の値を持つ、移動前フレームの座標(86、50)にある特徴点と、移動後フレームの座標(288、148)にある特徴点と、を特徴点ペアとして抽出する。   The feature point pair extraction unit 124 extracts a feature point pair having the same hash value as a feature point pair from the hash table of the pre-movement frame and the hash table after the movement. For example, in the hash table illustrated in FIG. 6, the feature point pair extraction unit 124 includes the feature point at the coordinates (86, 50) of the pre-movement frame having the same hash value as 83, and the post-movement The feature points at the coordinates (288, 148) of the frame are extracted as feature point pairs.

上記のように生成したハッシュ値の値が同一であるということは、特徴点ペアの特徴点とその特徴点の1つ左のエッジ点と2つ左のエッジ点との位置関係が、移動前フレームと移動後フレームで同じである可能性が高い。つまり、特徴点ペアの特徴点とその特徴点の1つ左のエッジ点と2つ左のエッジ点とは、移動前フレームと移動後フレームで全く移動していないか、同じ方向に同じ距離だけ移動している可能性が高い。よって、上記のように抽出された特徴点ペアの特徴点は、全く移動していない点であるか、移動領域内の点である可能性が高いことになる。   That the hash values generated as described above are the same means that the positional relationship between the feature point of the feature point pair, the one left edge point of the feature point, and the two left edge points is before the movement. It is likely that the frame and the post-movement frame are the same. In other words, the feature point of the feature point pair, the one left edge point and the two left edge points of the feature point are not moved at all in the pre-movement frame and the post-movement frame, or are the same distance in the same direction. There is a high possibility of moving. Therefore, the feature points of the feature point pair extracted as described above are likely to be points that have not moved at all or points within the moving region.

ベクトル算出部125は、特徴点ペア抽出部124により抽出された特徴点ペアそれぞれに対して、移動前フレームにおける特徴点の位置(座標)と、移動後フレームにおける特徴点の位置(座標)と、を結ぶベクトルを算出する。例えば、図6に示したハッシュテーブルの特徴点ペアであれば、図7に示すように、ベクトルが算出される。上述したように、特徴点ペアのなかには移動領域内の点が含まれている可能性が高いため、ベクトル算出部125により算出されたベクトルは、移動領域の移動を示すベクトルである移動ベクトルである可能が高い。   The vector calculation unit 125, for each feature point pair extracted by the feature point pair extraction unit 124, the position (coordinate) of the feature point in the pre-movement frame, the position (coordinate) of the feature point in the post-movement frame, The vector which connects is calculated. For example, if it is a feature point pair of the hash table shown in FIG. 6, a vector is calculated as shown in FIG. As described above, since there is a high possibility that the feature point pair includes a point in the movement region, the vector calculated by the vector calculation unit 125 is a movement vector that is a vector indicating movement of the movement region. High possibility.

移動ベクトル決定部126は、ベクトル算出部125により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル(0、0)以外で、最頻出のベクトルを移動領域の移動を示すベクトルである移動ベクトルとして決定する。   The movement vector determination unit 126 is a vector that indicates the movement of the movement region, except for the zero vector (0, 0), among the vectors calculated by the vector calculation unit 125 for each feature point pair. It is determined as a movement vector.

上述したように、特徴点ペアの特徴点は、全く移動していない点であるか、移動領域内の点である可能性が高い。ベクトル算出部125により算出されたベクトルのなかには、全く移動していない特徴点ペアに対する移動を示すベクトルであるゼロベクトルが多く含まれている可能性がある。このため、まず、ベクトル算出部125により算出されたベクトルから、ゼロベクトルを除く。   As described above, the feature point of the feature point pair is highly likely to be a point that has not moved or a point in the moving region. The vectors calculated by the vector calculation unit 125 may include many zero vectors that are vectors indicating movement with respect to feature point pairs that have not moved at all. For this reason, first, the zero vector is removed from the vector calculated by the vector calculation unit 125.

残されたベクトルには様々な値のベクトルが存在する可能性がある。残されたベクトルのなかには、特徴点の1つ左のエッジ点と2つ左のエッジ点との位置関係が、移動前フレームと移動後フレームで異なる特徴点ペアから算出されたベクトルも存在するだろうが、そのようなベクトルはそれぞれ異なった値を持っているはずである。よって、残されたベクトルのうちで最頻出のベクトルは移動ベクトルである可能性がかなり高い。よって、残されたベクトルのうち、最頻出のベクトルを移動ベクトルとして決定する。例えば、図6に示したようなハッシュテーブルであれば、特徴点ペアそれぞれに対してベクトルが図7に示すように算出されるため、ベクトル(202、98)が移動ベクトルとして決定される。   There may be vectors of various values in the remaining vectors. Among the remaining vectors, there are also vectors calculated from feature point pairs in which the positional relationship between the one left edge point and the two left edge points of the feature points is different between the pre-movement frame and the post-movement frame. However, each such vector should have a different value. Therefore, it is highly likely that the most frequently used vector among the remaining vectors is a movement vector. Therefore, among the remaining vectors, the most frequently occurring vector is determined as the movement vector. For example, in the case of the hash table as shown in FIG. 6, since the vector is calculated as shown in FIG. 7 for each feature point pair, the vector (202, 98) is determined as the movement vector.

このようにすることにより、移動領域の移動の大きさと方向を示す移動ベクトルを検出することができる。上記の方法は、移動前フレームと移動後フレームで、3つのエッジ点が同じ位置関係を保っている点を用いて移動ベクトルを検出している。よって、1つの点や、2つの点を用いる方法より、より確実に移動ベクトルを検出することが可能である。   In this way, a movement vector indicating the magnitude and direction of movement of the moving area can be detected. In the above method, the movement vector is detected using the point where the three edge points maintain the same positional relationship in the pre-movement frame and the post-movement frame. Therefore, it is possible to detect the movement vector more reliably than the method using one point or two points.

<移動ベクトル検出部120における処理動作例>
図8は、本発明の実施形態に係るサーバ装置100の移動ベクトル検出部120における処理動作の一例を示す図である。まず、移動前フレームと移動後フレームそれぞれにおいて、エッジ点抽出部121によりエッジ点が抽出される(S101)。そして、ハッシュテーブル生成部122は、エッジ点抽出部121により抽出されたエッジ点それぞれに対してハッシュ値が与え、移動前フレームと移動後フレームそれぞれでのハッシュ値の出現回数とそのハッシュ値を持つエッジ点の座標値とを示したハッシュテーブルを生成する(S102)。次に、特徴点抽出部123が、ハッシュテーブル生成部122により生成されたハッシュテーブルを用いて、それぞれのフレームにおいて出現回数が1回であるハッシュ値を持つエッジ点を特徴点として抽出する(S103)。次に、特徴点ペア抽出部124が、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアを特徴点ペアとして抽出する(S104)。次に、ベクトル算出部125が、特徴点ペア抽出部124により抽出された特徴点ペアそれぞれに対して、移動前フレームにおける特徴点の位置(座標)と移動後フレームにおける特徴点の位置(座標)とを結ぶベクトルを算出する(S105)。最後に、移動ベクトル決定部126が、ベクトル算出部125により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル(0、0)以外で最頻出のベクトルを移動領域の移動を示すベクトルである移動ベクトルとして決定する(S106)。このような処理動作により、移動ベクトル検出部120は、移動ベクトルを検出する。
<Example of Processing Operation in Movement Vector Detection Unit 120>
FIG. 8 is a diagram illustrating an example of a processing operation in the movement vector detection unit 120 of the server device 100 according to the embodiment of the present invention. First, an edge point is extracted by the edge point extraction unit 121 in each of the pre-movement frame and the post-movement frame (S101). Then, the hash table generation unit 122 gives a hash value to each edge point extracted by the edge point extraction unit 121, and has the number of appearances of the hash value in the pre-movement frame and the post-movement frame and the hash value thereof. A hash table showing the coordinate values of the edge points is generated (S102). Next, the feature point extraction unit 123 uses the hash table generated by the hash table generation unit 122 to extract an edge point having a hash value that appears once in each frame as a feature point (S103). ). Next, the feature point pair extraction unit 124 extracts a feature point pair having the same hash value from the hash table of the pre-movement frame and the hash table after the movement as a feature point pair (S104). Next, for each of the feature point pairs extracted by the feature point pair extraction unit 124, the vector calculation unit 125 sets the feature point position (coordinates) in the pre-movement frame and the feature point position (coordinates) in the post-movement frame. Are calculated (S105). Finally, among the vectors calculated by the vector calculation unit 125 for each feature point pair, the movement vector determination unit 126 selects the most frequently occurring vector other than the zero vector (0, 0) and indicates the movement of the movement region. Is determined as a movement vector (S106). With such processing operation, the movement vector detection unit 120 detects a movement vector.

<色の揺らぎに対する考慮>
上記では、特徴点抽出部123は、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出した。しかし、自然動画では、上述したように、色の揺らぎのためにエッジ点が抽出されにくくなる。また、同様に、特徴点の抽出においても、この色の揺らぎのために、特徴点として抽出される点が少なくなる可能性がある。
<Consideration for color fluctuation>
In the above, the feature point extraction unit 123 extracts an edge point having a hash value whose appearance count is 1 as a feature point. However, in the natural moving image, as described above, it is difficult to extract edge points due to color fluctuation. Similarly, in the extraction of feature points, there may be fewer points extracted as feature points due to this color fluctuation.

そこで、特徴点抽出部123は、動画種判別部127により、サーバ装置100からクライアント装置200に送信される動画が、自然動画であると判別されたときは、出現回数が所定の閾値以下であるハッシュ値を持つエッジ点を特徴点として抽出するようにしても良い。例えば、所定の閾値を2にしたときは、図6に示したハッシュテーブルであれば、移動前フレームのハッシュテーブルからは座標値が(86、50)や(114、121)であるエッジ点などのハッシュ値の出現回数が1であるエッジ点に加え、座標値が(23、30)や(531、321)であるエッジ点などのハッシュ値の出現回数が2であるエッジ点も特徴点として抽出される。また、移動後フレームのハッシュテーブルからは座標値が(288、148)、(32、384)であるエッジ点などのハッシュ値の出現回数が1であるエッジ点に加え、座標値が(242、102)や(634、179)であるエッジ点などのハッシュ値の出現回数が2であるエッジ点も特徴点として抽出される。   Therefore, when the moving image type determining unit 127 determines that the moving image transmitted from the server device 100 to the client device 200 is a natural moving image, the feature point extracting unit 123 has an appearance count equal to or less than a predetermined threshold. An edge point having a hash value may be extracted as a feature point. For example, when the predetermined threshold is set to 2, if the hash table shown in FIG. 6 is used, an edge point whose coordinate value is (86, 50) or (114, 121) from the hash table of the pre-movement frame, etc. In addition to edge points where the number of appearances of hash values is 1, edge points where the number of appearances of hash values is 2, such as edge points whose coordinate values are (23, 30) or (531, 321), are also feature points. Extracted. Further, from the hash table of the post-movement frame, in addition to the edge point where the number of appearances of the hash value is 1, such as the edge point whose coordinate value is (288, 148), (32, 384), the coordinate value is (242, 102) and (634, 179) are also extracted as feature points.

そして、このとき、特徴点ペア抽出部124は、移動前フレームのハッシュテーブルと移動後のハッシュテーブルとから、同一のハッシュ値を持つ特徴点によりペアを生成し、この生成されたペアを特徴点ペアとして抽出する。つまり、移動前フレームと移動後フレームとのどちらにおいても出現回数が1であるハッシュ値については、特徴点ペア抽出部124は、上述したような方法により特徴点ペアを抽出し、移動前フレームと移動後フレームとのどちらか、または、両方において、出現回数が1より大きいハッシュ値に対しては、そのハッシュ値を持つ移動前フレームの特徴点と、そのハッシュ値を持つ移動後フレームの特徴点と、の間のすべての組み合わせに対してペアを生成する。   At this time, the feature point pair extraction unit 124 generates a pair from the hash table of the pre-movement frame and the hash table after the movement using feature points having the same hash value, and uses the generated pair as a feature point. Extract as a pair. That is, for a hash value whose appearance count is 1 in both the pre-movement frame and the post-movement frame, the feature point pair extraction unit 124 extracts a feature point pair by the above-described method, For either or both of the post-movement frames, for a hash value whose appearance count is greater than 1, the feature point of the pre-movement frame having the hash value and the feature point of the post-movement frame having the hash value Generate pairs for all combinations between and.

例えば、図6に示したハッシュテーブルであれば、ハッシュ値84は、移動前フレームでは出現回数が2であり、移動後フレームでは出現回数が1である。このようなとき、特徴点ペア抽出部124は、移動前フレームの座標(23、30)にある特徴点と移動後フレームの座標(32、384)にある特徴点とをペアとし、移動前フレームの座標(531、321)にある特徴点と移動後フレームの座標(32、384)にある特徴点とをペアとし、これら2つのペアを特徴点ペアとして抽出する。   For example, in the hash table shown in FIG. 6, the hash value 84 has an appearance count of 2 in the pre-movement frame and an appearance count of 1 in the post-movement frame. In such a case, the feature point pair extraction unit 124 pairs the feature point at the coordinates (23, 30) of the pre-movement frame and the feature point at the coordinates (32, 384) of the post-movement frame, and sets the pre-movement frame. The feature points at the coordinates (531, 321) of the image and the feature points at the coordinates (32, 384) of the post-movement frame are paired, and these two pairs are extracted as feature point pairs.

また、例えば、図6に示したハッシュテーブルであれば、ハッシュ値551は、移動前フレームと移動後フレームの両方では出現回数が2である。このようなとき、特徴点ペア抽出部124は、移動前フレームの座標(603、200)にある特徴点と移動後フレームの座標(39、399)にある特徴点とをペアとし、移動前フレームの座標(603、200)にある特徴点と移動後フレームの座標(421、405)にある特徴点とをペアとし、移動前フレームの座標(39、399)にある特徴点と移動後フレームの座標(39、399)にある特徴点とをペアとし、移動前フレームの座標(39、399)にある特徴点と移動後フレームの座標(421、405)にある特徴点とをペアとし、これら4つのペアを特徴点ペアとして抽出する。   For example, in the hash table shown in FIG. 6, the hash value 551 has an appearance count of 2 in both the pre-movement frame and the post-movement frame. In such a case, the feature point pair extraction unit 124 pairs the feature point at the coordinates (603, 200) of the pre-movement frame and the feature point at the coordinates (39, 399) of the post-movement frame, and sets the pre-movement frame. The feature point at the coordinates (603, 200) and the feature point at the coordinates (421, 405) of the post-movement frame are paired, and the feature point at the coordinates (39, 399) of the pre-movement frame and the post-movement frame Pair the feature points at the coordinates (39, 399), and pair the feature points at the coordinates (39, 399) of the pre-movement frame with the feature points at the coordinates (421, 405) of the post-movement frame. Four pairs are extracted as feature point pairs.

そして、ベクトル算出部125は、この特徴点ペア抽出部124により抽出された特徴点ペアそれぞれに対して、移動前フレームにおける特徴点の位置(座標)と、移動後フレームにおける特徴点の位置(座標)と、を結ぶベクトルを算出する。例えば、図6に示したハッシュテーブルの特徴点ペアであれば、図9に示すように、ベクトルが算出される。そして、移動ベクトル決定部126が、ベクトル算出部125により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル(0、0)以外で、最頻出のベクトルを移動領域の移動を示すベクトルである移動ベクトルとして決定する。   The vector calculation unit 125 then, for each feature point pair extracted by the feature point pair extraction unit 124, the position (coordinates) of the feature point in the pre-movement frame and the position (coordinates) of the feature point in the post-movement frame. ) Are calculated. For example, if it is a feature point pair of the hash table shown in FIG. 6, a vector is calculated as shown in FIG. The movement vector determination unit 126 is a vector that indicates the movement of the moving region, except the zero vector (0, 0), among the vectors calculated by the vector calculation unit 125 for each feature point pair. Is determined as a movement vector.

このようにすることにより、移動領域の点の候補である特徴点をより多く抽出することが可能になる。このため、より多くの特徴点、つまり、より多くのサンプルを使用して、移動ベクトルを決定することが可能になり、自然動画のように色の揺らぎが生じる動画であっても、正確に移動ベクトルを決定することが可能になる。   In this way, it is possible to extract more feature points that are candidates for points in the moving region. For this reason, it is possible to determine the movement vector using more feature points, that is, more samples, and even moving images that cause color fluctuations like natural movies can move accurately. It becomes possible to determine the vector.

なお、人工動画に対しても、出現回数が所定の閾値以下であるものを特徴点として抽出するようにしても良い。このようなときは、自然動画は、人工動画より色の揺らぎやすいため、自然動画における出現回数に対する閾値を、人工動画における出現回数に対する閾値より大きい値にすると良い。   It should be noted that an artificial moving image whose appearance count is not more than a predetermined threshold may be extracted as a feature point. In such a case, the color of the natural video is more likely to fluctuate than that of the artificial video. Therefore, the threshold for the number of appearances in the natural video may be set larger than the threshold for the number of appearances in the artificial video.

<位置の揺らぎに対する考慮>
また、自然動画では、上述した色の揺らぎの他に、連続するフレームの間において、画素の位置にも揺らぎが存在する。そこで、特徴点ペア抽出部124は、動画種判別部127により、サーバ装置100からクライアント装置200に送信される動画が、自然動画であると判別されたときは、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアの他に、ハッシュ値が±1だけ異なる特徴点のペアも特徴点ペアとして抽出するようにしても良い。
<Consideration for position fluctuation>
In addition, in a natural moving image, in addition to the above-described color fluctuation, there are fluctuations in pixel positions between successive frames. Therefore, when the moving image type determining unit 127 determines that the moving image transmitted from the server apparatus 100 to the client device 200 is a natural moving image, the feature point pair extracting unit 124 moves the hash table of the pre-movement frame and the moving table. In addition to feature point pairs having the same hash value, feature point pairs whose hash values differ by ± 1 may be extracted as feature point pairs from the subsequent hash table.

例えば、図6に示したハッシュテーブルであれば、特徴点ペア抽出部124は、移動前フレームの座標(86、50)にある特徴点(ハッシュ値83)と移動後フレームの座標(288、148)にある特徴点(ハッシュ値83)とのペアに加え、移動前フレームの座標(86、50)にある特徴点(ハッシュ値83)と移動後フレームの座標(32、384)にある特徴点(ハッシュ値84)とのペアも特徴点ペアとして抽出する。また、図6に示したハッシュテーブルであれば、特徴点ペア抽出部124は、移動前フレームの座標(31、112)にある特徴点(ハッシュ値249)と移動後フレームの座標(233、200)にある特徴点(ハッシュ値250)とのペアも特徴点ペアとして抽出する。   For example, in the hash table shown in FIG. 6, the feature point pair extraction unit 124 uses the feature point (hash value 83) at the coordinates (86, 50) of the pre-movement frame and the coordinates (288, 148) of the post-movement frame. ) In the feature point (hash value 83), and the feature point (hash value 83) in the pre-movement frame coordinates (86, 50) and the feature point in the post-movement frame coordinates (32, 384). A pair with (hash value 84) is also extracted as a feature point pair. In the hash table shown in FIG. 6, the feature point pair extraction unit 124 uses the feature point (hash value 249) at the coordinates (31, 112) of the pre-movement frame and the coordinates (233, 200) of the post-movement frame. ) And a feature point pair (hash value 250) are also extracted as feature point pairs.

そして、ベクトル算出部125は、この特徴点ペア抽出部124により抽出された特徴点ペアそれぞれに対して、移動前フレームにおける特徴点の位置(座標)と移動後フレームにおける特徴点の位置(座標)とを結ぶベクトルを算出する。例えば、図6に示したハッシュテーブルの特徴点ペアであれば、図10に示すように、ベクトルが算出される。そして、移動ベクトル決定部126が、ベクトル算出部125により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル(0、0)以外で、最頻出のベクトルを移動領域の移動を示すベクトルである移動ベクトルとして決定する。   The vector calculation unit 125 then, for each feature point pair extracted by the feature point pair extraction unit 124, the position (coordinate) of the feature point in the pre-movement frame and the position (coordinate) of the feature point in the post-movement frame. The vector which connects is calculated. For example, if it is a feature point pair of the hash table shown in FIG. 6, a vector is calculated as shown in FIG. The movement vector determination unit 126 is a vector that indicates the movement of the moving region, except the zero vector (0, 0), among the vectors calculated by the vector calculation unit 125 for each feature point pair. Is determined as a movement vector.

このようにすることにより、自然動画などのように位置の揺らぎが生じる動画であっても、特徴点ペアを抽出することが可能になる。よって、このようにすることにより、自然動画などのように位置の揺らぎが生じる動画であっても、正確に移動ベクトルを決定することが可能になる。   By doing so, it is possible to extract a feature point pair even for a moving image in which position fluctuation occurs, such as a natural moving image. Therefore, by doing in this way, it is possible to accurately determine a movement vector even for a moving image in which position fluctuation occurs, such as a natural moving image.

なお、本実施形態では、上述したように、あるエッジ点に注目したときに、そのエッジ点とそのエッジ点の1つ左のエッジ点との距離D1と、そのエッジ点とそのエッジ点の2つ左のエッジ点との距離D2と、を用いて、D1+n×D2をそのエッジ点のハッシュ値としている。このため、位置の揺らぎのために、2つ左のエッジ点との距離D2の値が、1だけずれたときには、ハッシュ値は、nだけずれることになる。そこで、特徴点ペア抽出部124は、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアの他に、ハッシュ値が±nだけ異なる特徴点のペアも特徴点ペアとして抽出するようにしても良い。このようにすることによっても、より位置の揺らぎの影響を考慮した計算ができることになり、より正確に移動ベクトルを算出することができるようになる。   In the present embodiment, as described above, when attention is paid to a certain edge point, the distance D1 between the edge point and the edge point one left of the edge point, and the edge point and the edge point 2 Using the distance D2 to the left edge point, D1 + n × D2 is used as the hash value of the edge point. For this reason, when the value of the distance D2 from the two left edge points is shifted by 1 due to the fluctuation of the position, the hash value is shifted by n. Therefore, the feature point pair extraction unit 124, from the hash table of the pre-movement frame and the hash table after the movement, in addition to feature point pairs having the same hash value, also includes feature point pairs whose hash values are different by ± n. You may make it extract as a feature point pair. This also makes it possible to perform calculation in consideration of the influence of position fluctuation, and to calculate the movement vector more accurately.

また、位置の揺らぎを考慮するとともに、色の揺らぎを考慮するようにしても良い。つまり、動画種判別部127により、サーバ装置100からクライアント装置200に送信される動画が、自然動画であると判別されたときは、特徴点抽出部123が、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出するようにし、特徴点ペア抽出部124が、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアの他に、ハッシュ値が±1だけ異なる特徴点のペアも特徴点ペアとして抽出するようにしても良い。このようにすることにより、位置の揺らぎと色の揺らぎの両方を考慮できるようになり、より正確に移動ベクトルを算出することができるようになる。   Further, it is also possible to consider color fluctuation as well as position fluctuation. That is, when the moving image type determining unit 127 determines that the moving image transmitted from the server device 100 to the client device 200 is a natural moving image, the feature point extracting unit 123 has the number of appearances equal to or less than a predetermined value. An edge point having a hash value is extracted as a feature point, and the feature point pair extraction unit 124, in addition to the feature point pair having the same hash value, from the hash table of the pre-movement frame and the hash table after the movement. Alternatively, feature point pairs whose hash values differ by ± 1 may be extracted as feature point pairs. In this way, both position fluctuation and color fluctuation can be taken into account, and the movement vector can be calculated more accurately.

<動画種判別部127>
動画種判別部127は、サーバ装置100からクライアント装置200に送信される動画が、自然動画であるのか、人工動画であるのか、を判別する。この判別を行う方法としては、いろいろと考えられるが、例えば、以下に示すように、色の揺らぎに基づく方法と、位置の揺らぎに基づく方法と、が考えられる。
<Movie Type Discriminating Unit 127>
The moving image type determination unit 127 determines whether the moving image transmitted from the server device 100 to the client device 200 is a natural moving image or an artificial moving image. There are various methods for performing this determination. For example, as shown below, a method based on color fluctuation and a method based on position fluctuation are conceivable.

(1)サーバ装置100からクライアント装置200に送信される動画が、自然動画であるのか、人工動画であるのか、を判別する方法としては、まず、送信動画に色の揺らぎが存在するかどうか、に基づいて判別する方法が考えられる。上述したように、デジタル処理のみにより人工的に生成された人工動画には、色の揺らぎが存在しない。そこで、色の揺らぎが存在する動画を自然動画と判別し、色の揺らぎが存在しない動画を人工動画と判別するようにすることで、自然動画と人工動画との判別が可能になる。   (1) As a method for determining whether the moving image transmitted from the server device 100 to the client device 200 is a natural moving image or an artificial moving image, first, whether or not there is a color fluctuation in the transmitted moving image, A method of discriminating based on the above is conceivable. As described above, there is no color fluctuation in an artificial moving image that is artificially generated only by digital processing. Therefore, it is possible to discriminate between a natural moving image and an artificial moving image by determining a moving image in which color fluctuation exists as a natural moving image and determining a moving image in which no color fluctuation exists as an artificial moving image.

そこで、例えば、動画種判別部127は、移動ベクトル検出部120により抽出された特徴点ペアのうち、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアのそれぞれの特徴点の色を比較し、これらの移動ベクトルで結ばれる特徴点ペアのうちで、色が一致する特徴点ペアの割合を算出するようにすると良い。ここで、動画に色の揺らぎが存在しないときは、これらの特徴点ペアにおいて色は一致するはずである。このため、動画種判別部127は、この割合が所定の値より大きいときは、送信動画は自然動画である、と判別し、この割合が所定の値以下であるときは、送信動画は人工動画である、と判別することにより、自然動画と人工動画との判別が可能になる。   Therefore, for example, the moving image type determination unit 127 selects the color of each feature point of the feature point pair connected by the movement vector determined by the movement vector detection unit 120 among the feature point pairs extracted by the movement vector detection unit 120. And the ratio of the feature point pairs having the same color among the feature point pairs connected by these movement vectors may be calculated. Here, when there is no color fluctuation in the moving image, the colors should match in these feature point pairs. Therefore, the moving image type determination unit 127 determines that the transmitted moving image is a natural moving image when the ratio is greater than a predetermined value, and the transmitted moving image is an artificial moving image when the ratio is equal to or less than the predetermined value. Therefore, it is possible to distinguish between a natural moving image and an artificial moving image.

(2)また、例えば、動画種判別部127は、移動ベクトル検出部120により抽出された特徴点ペアのうち、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアにおける色の差を算出し、これらの色の差の分布の標準偏差を算出すると良い。ここで、動画に色の揺らぎが存在しないときは、これらの特徴点ペアにおいて色は一致するため、色の揺らぎが存在しないときは、色の差の分布の標準偏差はゼロにはずである。このため、動画種判別部127は、この標準偏差が所定の値より大きいときは、送信動画は自然動画である、と判別し、この標準偏差が所定の値以下であるときは、送信動画は人工動画である、と判別することにより、自然動画と人工動画との判別が可能になる。   (2) Further, for example, the moving image type determination unit 127 includes a color difference in the feature point pair connected by the movement vector determined by the movement vector detection unit 120 among the feature point pairs extracted by the movement vector detection unit 120. And the standard deviation of the distribution of these color differences may be calculated. Here, when there is no color fluctuation in the moving image, the colors match in these feature point pairs. Therefore, when there is no color fluctuation, the standard deviation of the color difference distribution should be zero. For this reason, when the standard deviation is larger than a predetermined value, the moving image type determination unit 127 determines that the transmitted moving image is a natural moving image, and when the standard deviation is equal to or smaller than the predetermined value, By discriminating that the video is an artificial video, it is possible to discriminate between a natural video and an artificial video.

(3)サーバ装置100からクライアント装置200に送信される動画が、自然動画であるのか、人工動画であるのか、を判別する方法としては、送信動画に位置の揺らぎが存在するかどうか、に基づいて判別する方法も考えられる。上述したように、デジタル処理のみにより人工的に生成された人工動画には、位置の揺らぎが存在しない。そこで、位置の揺らぎが存在する動画を自然動画と判別し、位置の揺らぎが存在しない動画を人工動画と判別するようにすることで、自然動画と人工動画との判別が可能になる。   (3) As a method of determining whether the moving image transmitted from the server apparatus 100 to the client device 200 is a natural moving image or an artificial moving image, it is based on whether or not there is a position fluctuation in the transmitted moving image. It is also possible to discriminate them. As described above, there is no position fluctuation in an artificial moving image that is artificially generated only by digital processing. Therefore, it is possible to discriminate between a natural moving image and an artificial moving image by determining a moving image in which position fluctuation exists as a natural moving image and determining a moving image in which position fluctuation does not exist as an artificial moving image.

そこで、例えば、動画種判別部127は、移動ベクトル検出部120により抽出された特徴点ペアのうち、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアのそれぞれの特徴点のハッシュ値の差を算出し、これらのハッシュ値の差の分布の標準偏差を算出すると良い。ここで、動画に位置の揺らぎが存在しないときは、これらの特徴点ペアにおいてハッシュ値は一致するため、位置の揺らぎが存在しないときは、ハッシュ値の差の分布の標準偏差はゼロにはずである。このため、動画種判別部127は、この標準偏差が所定の値より大きいときは、送信動画は自然動画である、と判別し、この標準偏差が所定の値以下であるときは、送信動画は人工動画である、と判別することにより、自然動画と人工動画との判別が可能になる。   Therefore, for example, the moving image type discrimination unit 127 hashes the feature points of the feature point pairs connected by the movement vector determined by the movement vector detection unit 120 among the feature point pairs extracted by the movement vector detection unit 120. It is preferable to calculate the difference between the values and calculate the standard deviation of the distribution of these hash value differences. Here, when there is no position fluctuation in the video, the hash values match in these feature point pairs. Therefore, when there is no position fluctuation, the standard deviation of the hash value difference distribution should be zero. is there. For this reason, when the standard deviation is larger than a predetermined value, the moving image type determination unit 127 determines that the transmitted moving image is a natural moving image, and when the standard deviation is equal to or smaller than the predetermined value, By discriminating that the video is an artificial video, it is possible to discriminate between a natural video and an artificial video.

<動画種判別時における処理動作例>
図11は、サーバ装置100からクライアント装置200に送信される動画が、自然動画であるのか、人工動画であるのか、を判別する際に、本実施形態に係る移動ベクトル検出部120において行われる処理動作例を示す図である。
<Example of processing operation during video type discrimination>
FIG. 11 illustrates processing performed in the motion vector detection unit 120 according to the present embodiment when determining whether the moving image transmitted from the server device 100 to the client device 200 is a natural moving image or an artificial moving image. It is a figure which shows an operation example.

まず、送信動画の最初の所定の数のフレーム(例えば、数〜数十フレーム)の動画データに対して、図8に示した処理動作を行う(S201)。このときの行う処理動作は、色の揺らぎを考慮した処理動作であっても良いし、考慮しない処理動作であっても良い。また、このときの行う処理動作は、位置の揺らぎを考慮した処理動作であっても良いし、考慮しない処理動作であっても良い。   First, the processing operation shown in FIG. 8 is performed on moving image data of a predetermined number of frames (for example, several to several tens of frames) of a transmission moving image (S201). The processing operation performed at this time may be a processing operation considering color fluctuation or a processing operation not considering it. In addition, the processing operation performed at this time may be a processing operation that considers the fluctuation of the position, or may be a processing operation that does not consider it.

そして、動画種判別部127は、この送信動画の最初の所定の数のフレームの動画データに基づいて、送信動画が、自然動画であるのか、人工動画であるのか、を判別する(S202)。このとき、動画種判別部127は、例えば、上記の(1)〜(3)のいずれかの方法を用いると良い。なお、動画種判別部127が上記の(3)の方法を用いるときは、ステップS201では、位置の揺らぎを考慮した上で、図8に示した処理動作を行うようにする。つまり、図8のステップS104において、特徴点ペア抽出部124が、移動前フレームのハッシュテーブルと移動後のハッシュテーブルから、同一のハッシュ値を持つ特徴点のペアの他に、ハッシュ値が±1だけ異なる特徴点のペアも特徴点ペアとして抽出するようにする。   Then, the moving image type determining unit 127 determines whether the transmitted moving image is a natural moving image or an artificial moving image based on the moving image data of the first predetermined number of frames of the transmitted moving image (S202). At this time, the moving image type determination unit 127 may use, for example, any one of the methods (1) to (3). When the moving image type determination unit 127 uses the above method (3), in step S201, the processing operation shown in FIG. 8 is performed in consideration of the position fluctuation. That is, in step S104 in FIG. 8, the feature point pair extraction unit 124 determines that the hash value is ± 1 in addition to the feature point pair having the same hash value from the hash table of the pre-movement frame and the hash table after the movement. A pair of feature points that are different from each other is also extracted as a feature point pair.

このように、本実施形態では、送信動画の最初の所定の数の動画データを用いて、送信動画が、自然動画であるのか、人工動画であるのか、を判別することが可能であり、判別後は、上記のように、色の揺らぎや、位置の揺らぎを考慮した上で、移動ベクトルを算出することが可能ではあり、このため、正確な移動ベクトルを算出することが可能である。   As described above, in the present embodiment, it is possible to determine whether the transmission video is a natural video or an artificial video using the first predetermined number of video data of the transmission video. After that, as described above, it is possible to calculate the movement vector in consideration of the color fluctuation and the position fluctuation. Therefore, it is possible to calculate an accurate movement vector.

<移動領域検出部130の第1の構成例>
移動領域検出部130は、記憶部110に記憶された移動前フレーム、移動後フレームと、移動ベクトル検出部120により検出された移動ベクトルに基づき、移動領域を検出する。図12は、本発明の実施形態に係るサーバ装置100の移動領域検出部130の第1の構成例を示す図である。第1の構成例の移動領域検出部130は、比較領域決定部131と、移動領域決定部132とを有して構成される。
<First Configuration Example of Moving Area Detection Unit 130>
The movement area detection unit 130 detects a movement area based on the pre-movement frame and the post-movement frame stored in the storage unit 110 and the movement vector detected by the movement vector detection unit 120. FIG. 12 is a diagram illustrating a first configuration example of the movement area detection unit 130 of the server device 100 according to the embodiment of the present invention. The moving area detecting unit 130 of the first configuration example includes a comparison area determining unit 131 and a moving area determining unit 132.

比較領域決定部131は、移動領域を検出するのに用いる比較領域を決定する。移動前フレームの点のうち、移動ベクトル検出部120により検出された移動ベクトルにより移動させたときに、フレーム外にはみ出る点は移動領域内の点ではない。よって、このような点を取り除いた点、つまり、移動ベクトルにより移動させたときにフレーム内に残る点が占める領域内に移動領域があるはずである。そこで、図13に示すように、移動前フレームの点のうち、移動ベクトルにより移動させたときにフレーム内に残る点による領域を、移動前フレームの比較領域とする。同様に理由により、図13に示すように、移動後フレームの点のうち、移動ベクトルの逆ベクトルにより移動させたときにフレーム内に残る点による領域を、移動後フレームの比較領域とする。   The comparison area determination unit 131 determines a comparison area used for detecting the movement area. Of the points in the pre-movement frame, when the movement vector detected by the movement vector detection unit 120 is used for movement, the point that moves out of the frame is not a point in the movement area. Therefore, there should be a moving area within the area occupied by the points that are removed, that is, the points that remain in the frame when moved by the movement vector. Therefore, as shown in FIG. 13, among the points of the pre-movement frame, an area formed by points remaining in the frame when moved by the movement vector is set as a comparison area of the pre-movement frame. For the same reason, as shown in FIG. 13, among the points of the post-movement frame, an area formed by points remaining in the frame when moved by the inverse vector of the movement vector is set as a comparison area of the post-movement frame.

移動領域決定部132は、比較領域決定部131により決定された比較領域を用いて移動前フレームと移動後フレームとを比較することにより移動領域を決定する。このとき、本実施形態に係る移動領域決定部132は、(A1)移動前フレームの比較領域と移動後フレームの比較領域との比較、(A2)移動前フレームの比較領域とその比較領域に対応する移動後フレームの領域との比較、(A3)移動後フレームの比較領域とその比較領域に対応する移動前フレームの領域との比較、の3つの比較を行う。   The movement area determination unit 132 determines the movement area by comparing the pre-movement frame and the post-movement frame using the comparison area determined by the comparison area determination unit 131. At this time, the movement area determination unit 132 according to the present embodiment corresponds to (A1) a comparison between the comparison area of the pre-movement frame and the comparison area of the post-movement frame, and (A2) a comparison area of the pre-movement frame and the comparison area. Three comparisons are made: comparison with the area of the post-movement frame to be performed, and (A3) comparison of the comparison area of the post-movement frame and the area of the pre-movement frame corresponding to the comparison area.

(A1)の比較、つまり、移動前フレームの比較領域と移動後フレームの比較領域との比較は、移動前フレームの比較領域の点とその点を移動ベクトルで移動した座標位置にある移動後フレームの点との比較である。つまり、移動ベクトルが(X、Y)であるときは、図13に示すように、移動前フレームの比較領域内の点(x、y)と移動後フレームの比較領域内の点(x+X、y+Y)との比較をする。比較される点が移動領域内の点であれば、それらの点は同じ画素値を持つと考えられる。また、比較される点が移動領域外の点であれば、それらの点は異なる画素値を持つと考えられる。   The comparison of (A1), that is, the comparison between the comparison area of the pre-movement frame and the comparison area of the post-movement frame is performed by comparing the point of the comparison area of the pre-movement frame and the post-movement frame at the coordinate position obtained by moving the point by the movement vector. This is a comparison with this point. That is, when the movement vector is (X, Y), as shown in FIG. 13, the point (x, y) in the comparison area of the pre-movement frame and the point (x + X, y + Y) in the comparison area of the post-movement frame. ). If the points to be compared are points in the moving region, they are considered to have the same pixel value. Further, if the points to be compared are points outside the moving region, those points are considered to have different pixel values.

また、(A2)の比較、つまり、移動前フレームの比較領域とその比較領域に対応する移動後フレームの領域との比較は、移動前フレームの比較領域の点とその点の座標位置にある移動後フレームの点との比較である。つまり、移動前フレームの比較領域の点(x、y)と移動後フレームの点(x、y)との比較をする。よって、図13に示すように比較領域が決定されたとき、(A2)の比較では、図14に示した斜線で囲まれた領域を比較する。   Further, the comparison of (A2), that is, the comparison between the comparison area of the pre-movement frame and the area of the post-movement frame corresponding to the comparison area, the movement at the point of the comparison area of the pre-movement frame and the coordinate position of that point It is a comparison with the point of the back frame. That is, a comparison is made between the point (x, y) in the comparison area of the pre-movement frame and the point (x, y) in the post-movement frame. Therefore, when the comparison area is determined as shown in FIG. 13, in the comparison of (A2), the area surrounded by the oblique lines shown in FIG. 14 is compared.

移動前フレームの移動領域内の点は、移動後フレームでは、違う座標に移動しているはずである。よって、(A2)の比較では、比較される点が移動領域内にあるときは、それらの点は異なる画素値を持つと考えられる。また、逆に、比較される点が移動領域外の点であれば、その点は移動していないため、それらの点は同じ画素値を持つと考えられる。   The points in the movement area of the pre-movement frame should have moved to different coordinates in the post-movement frame. Therefore, in the comparison of (A2), when the points to be compared are in the moving region, the points are considered to have different pixel values. On the other hand, if the point to be compared is a point outside the moving region, the point is not moved, and it is considered that those points have the same pixel value.

これは、(A3)の比較、つまり、移動後フレームの比較領域とその比較領域に対応する移動前フレームの領域との比較でも同様である。例えば、図13に示すように比較領域が決定されたとき、(A3)の比較では、図15の斜線で示された領域が比較される。   The same applies to the comparison in (A3), that is, the comparison between the comparison area of the post-movement frame and the area of the pre-movement frame corresponding to the comparison area. For example, when the comparison area is determined as shown in FIG. 13, in the comparison of (A3), the areas indicated by the oblique lines in FIG. 15 are compared.

移動領域としては、矩形領域を得たいので、各比較はラインごとに行う。このとき、(A1)の比較では、ラインごとに、(条件A1)「画素値が同一値である画素の数が所定の値以上である」が成り立つかどうかを確認する。また、(A2)の比較と(A3)の比較では、ラインごとに、(条件A2)「画素値が異なるが画素の数が所定の値以上である」が成り立つどうかを確認する。また、(条件A1)を「画素値が同一値である画素の割合が所定の値以上である」としても良い。また、(条件A2)を「画素値が異なる画素の割合が所定の値以上である」としても良い。また、「画素値が同一値である画素の数(割合)が所定の値以下である」としても良い。   Since a rectangular area is desired as the moving area, each comparison is performed for each line. At this time, in the comparison of (A1), whether or not (Condition A1) “The number of pixels having the same pixel value is equal to or greater than a predetermined value” is satisfied for each line. Further, in the comparison of (A2) and the comparison of (A3), it is confirmed for each line whether (Condition A2) “Different pixel values but the number of pixels is equal to or greater than a predetermined value” holds. In addition, (Condition A1) may be “the ratio of pixels having the same pixel value is equal to or greater than a predetermined value”. Further, (Condition A2) may be set as “the ratio of pixels having different pixel values is a predetermined value or more”. Alternatively, “the number (ratio) of pixels having the same pixel value is equal to or less than a predetermined value” may be used.

各比較は、比較領域の枠線から、つまり、上下左右の4辺からそれぞれ内側に向かって順にラインごとに比較していくことにする。そして、(A1)、(A2)、(A3)すべての比較において、条件が成り立つラインが見つかったらラインごとの条件の確認をやめる。つまり、(条件A1)、(条件A2)、(条件A3)のすべての条件が成り立つラインが見つかったらラインごとの条件の確認を終了する。移動領域決定部132は、図16に示すように、この見つかったラインで囲まれた領域を移動領域であると決定する。   Each comparison is made for each line in order from the border line of the comparison area, that is, from the four sides of the top, bottom, left, and right, inward. Then, in all the comparisons (A1), (A2), and (A3), if a line that satisfies the condition is found, the confirmation of the condition for each line is stopped. That is, when a line that satisfies all of the conditions (condition A1), (condition A2), and (condition A3) is found, the confirmation of the condition for each line ends. As illustrated in FIG. 16, the movement area determination unit 132 determines that the area surrounded by the found line is a movement area.

上記のように、3つの条件すべてを満たす領域を移動領域として決定することにより、より正確に移動領域を検出することが可能になる。つまり、単純に比較領域同士を比較するだけではなく、さらに、同じ領域において、移動前と移動後とを比較することにより、より正確に移動領域を検出することが可能になる。   As described above, by determining a region that satisfies all three conditions as a moving region, it is possible to detect the moving region more accurately. That is, it is possible not only to simply compare the comparison areas but also to more accurately detect the movement area by comparing before and after movement in the same area.

<移動領域検出部130の第1の構成例における処理動作例>
図17は、本実施形態に係るサーバ装置100の移動領域検出部130の第1の構成例における処理動作の一例を示す図である。まず、比較領域決定部131が移動前フレームと移動後フレームのそれぞれにおいて比較領域を決定する(S301)。そして、移動領域決定部132が、移動前フレームの比較領域と移動後フレームの比較領域との比較と、移動前フレームの比較領域とその比較領域に対応する移動後フレームの領域との比較と、移動後フレームの比較領域とその比較領域に対応する移動前フレームの領域との比較と、を行うことにより、移動領域を決定する(S302)。このような処理動作により、第1の構成例の移動領域検出部130は、移動領域を検出する。
<Example of Processing Operation in First Configuration Example of Moving Area Detection Unit 130>
FIG. 17 is a diagram illustrating an example of a processing operation in the first configuration example of the movement area detection unit 130 of the server device 100 according to the present embodiment. First, the comparison area determination unit 131 determines a comparison area in each of the pre-movement frame and the post-movement frame (S301). Then, the movement area determination unit 132 compares the comparison area of the pre-movement frame and the comparison area of the post-movement frame, compares the comparison area of the pre-movement frame and the area of the post-movement frame corresponding to the comparison area, By comparing the comparison area of the post-movement frame with the area of the pre-movement frame corresponding to the comparison area, the movement area is determined (S302). With such processing operation, the moving area detection unit 130 of the first configuration example detects the moving area.

上述した移動領域決定部130の第1の構成により移動領域の枠線として決定されるラインは、(条件A1)「画素値が同一値である画素の数が所定の値以上」を満たさなくてはならない。ここで、所定の値を小さくしすぎると、条件としては緩くなり、本来の移動領域よりも大きな領域が移動領域として決定されてしまうかもしれない。本来の移動領域よりも大きな領域が移動領域として決定されてしまうと、下記で詳述するように、差分データが大きくなってしまう。また、移動後フレームを再現する際などに移動領域のコピーなどの処理を行うが、大きな領域が移動領域と決定されてしまうと、コピーを行うデータ量が大きくなり、コピーの際の処理量が大きくなってしまうなどしてしまう。このため、上記の所定の値はある程度大きくし、条件を厳しくする必要がある。ただし、厳しくし過ぎると今度は、本来の移動領域よりも小さな領域が移動領域として決定されてしまうかもしれない。そこで、上記に示した方法以外の方法でも移動領域の候補領域を決定しておき、その候補領域よりも外側の領域のラインだけを上記の条件で比較するようにするようにしても良い。このようにすることにより、(条件A1)を厳しくしても、この候補領域よりは小さくはならないため、本来の移動領域よりも小さな領域が移動領域として決定されることがなくなる。   The line determined as the frame of the moving area by the first configuration of the moving area determining unit 130 described above does not satisfy (condition A1) “the number of pixels having the same pixel value is equal to or greater than a predetermined value”. Must not. Here, if the predetermined value is too small, the condition becomes loose, and an area larger than the original moving area may be determined as the moving area. If a region larger than the original moving region is determined as the moving region, the difference data becomes large as will be described in detail below. In addition, processing such as copying of the moving area is performed when reproducing the frame after movement, etc., but if a large area is determined as the moving area, the amount of data to be copied becomes large, and the amount of processing at the time of copying is large. It will become bigger. For this reason, it is necessary to increase the above-mentioned predetermined value to some extent and make the conditions strict. However, if it is too severe, an area that is smaller than the original moving area may be determined as the moving area. Therefore, it is also possible to determine a candidate region for the moving region by a method other than the method described above and compare only the lines in the region outside the candidate region under the above conditions. By doing so, even if (Condition A1) is made stricter, it is not smaller than this candidate area, so that an area smaller than the original moving area is not determined as the moving area.

<移動領域検出部130の第2の構成例>
図18は、本発明の実施形態に係るサーバ装置100の移動領域検出部130の第2の構成例を示す図である。移動領域検出部130の第2の構成例は、第1の構成例に、初期領域設定部133と、候補領域決定部134と、を加えた構成になっている。この構成により、上述した方法とは異なる方法で移動領域の候補領域を決定し、その候補領域よりも外側の領域だけをラインごとに上記の条件で比較し、移動領域を決定することができるようになる。
<Second Configuration Example of Moving Area Detection Unit 130>
FIG. 18 is a diagram illustrating a second configuration example of the movement area detection unit 130 of the server device 100 according to the embodiment of the present invention. The second configuration example of the moving region detection unit 130 is configured by adding an initial region setting unit 133 and a candidate region determination unit 134 to the first configuration example. With this configuration, it is possible to determine a moving area candidate area by a method different from the above-described method, and to compare only the area outside the candidate area for each line under the above-described conditions to determine the moving area. become.

初期領域設定部133は、移動領域の候補領域を検出するための初期領域を設定する。移動領域としては、矩形領域を得たいので、初期領域としては矩形領域を設定する。初期領域の設定の仕方としてはいろいろと考えられる。上記で説明したように、移動ベクトル検出部120により抽出された特徴点ペアのうち、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアの特徴点は、移動領域内の点である可能性が高い。そこで、例えば、これらの点をすべて含む矩形領域を初期領域とすると良い。例えば、図19に示すように、移動ベクトルで結ばれる特徴点ペアの特徴点が分布しているときは、図19に示すような領域を初期領域として設定すると良い。また、例えば、上記の比較領域を初期領域と設定するようにしても良い。   The initial region setting unit 133 sets an initial region for detecting a candidate region for the moving region. Since the rectangular area is to be obtained as the moving area, the rectangular area is set as the initial area. There are various ways to set the initial area. As described above, among the feature point pairs extracted by the movement vector detection unit 120, the feature points of the feature point pair connected by the movement vector determined by the movement vector detection unit 120 are points in the movement region. There is a high possibility. Therefore, for example, a rectangular area including all these points may be set as the initial area. For example, as shown in FIG. 19, when feature points of feature point pairs connected by movement vectors are distributed, an area as shown in FIG. 19 may be set as an initial area. For example, the comparison area may be set as the initial area.

なお、初期領域を設定する際に、上記のように、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアの特徴点をすべて含む矩形領域を初期領域と設定するのではなく、これらの特徴点ペアのうち、特徴点ペアにおける色の差がない特徴点ペアの特徴点だけを含む矩形領域を初期領域として設定するようにするとしても良い。特徴点ペアの点が、移動領域内の点であるならば、それらの点には同じ色であるはずである。よって、このようにすることにより、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアから、移動領域内の点でない点による特徴点ペアを取り除いた上で、初期矩形を設定することができることになり、より移動領域に近い初期領域を得ることが可能になる。   When setting the initial region, as described above, instead of setting the rectangular region including all the feature points of the feature point pairs connected by the movement vector determined by the movement vector detection unit 120 as the initial region, Of these feature point pairs, a rectangular region including only feature points of feature point pairs having no color difference among the feature point pairs may be set as an initial region. If the points of a feature point pair are points in the moving region, they should be the same color. Therefore, by doing this, an initial rectangle is set after removing a feature point pair that is not a point in the moving region from a feature point pair connected by the moving vector determined by the moving vector detecting unit 120. As a result, an initial region closer to the moving region can be obtained.

また、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアのうち、特徴点ペアにおける色の差が所定の値未満である特徴点ペアの特徴点だけを含む矩形領域を初期領域として設定するようにするとしても良い。上述したように、自然動画の場合は、色の揺らぎが存在する。よって、特徴点ペアにおける色の差が、この色の揺らぎによる色の差以下であれば、その特徴点ペアの点は移動領域内の点である可能性が高い。よって、このようにすることにより、自然動画に対しても、移動ベクトル検出部120により決定された移動ベクトルで結ばれる特徴点ペアから、移動領域内の点でない点による特徴点ペアを取り除いた上で、初期矩形を設定することができることになり、より移動領域に近い初期領域を得ることが可能になる。   Further, among the feature point pairs connected by the motion vector determined by the motion vector detection unit 120, a rectangular region including only the feature points of the feature point pair whose color difference in the feature point pair is less than a predetermined value is an initial region. You may make it set as. As described above, in the case of a natural moving image, there is a color fluctuation. Therefore, if the color difference in the feature point pair is equal to or less than the color difference due to the color fluctuation, the point of the feature point pair is highly likely to be a point in the moving region. Therefore, by doing this, a feature point pair that is not a point in the moving region is removed from the feature point pair connected by the movement vector determined by the movement vector detecting unit 120 even for a natural moving image. Thus, an initial rectangle can be set, and an initial area closer to the moving area can be obtained.

候補領域決定部134は、初期領域設定部133により設定された初期領域から移動領域外の点を除き、移動領域の候補領域を決定する。例えば、上述したように、移動ベクトルで結ばれる特徴点ペアの特徴点をすべて含む矩形領域は、移動領域内の点を含んでいる可能性が高いため、初期領域として適しているが、移動領域外の点を含んでいる可能性もある。そこで、候補領域決定部134は、このような初期領域から移動領域外の点を取り除く。   The candidate area determination unit 134 determines a candidate area for the movement area by excluding points outside the movement area from the initial area set by the initial area setting unit 133. For example, as described above, a rectangular area that includes all feature points of a feature point pair connected by a movement vector is likely to include points in the movement area, and thus is suitable as an initial area. It may also contain outside points. Therefore, the candidate area determination unit 134 removes points outside the moving area from such an initial area.

そこで、候補領域決定部134も、上記の移動領域決定部132と同様に、(B1)移動前フレームの初期領域と移動後フレームの初期領域との比較(B2)移動前フレームの初期領域とその初期領域に対応する移動後フレームの領域との比較(B3)移動後フレームの初期領域とその初期領域に対応する移動前フレームの領域との比較、の3つの比較を行う。   Therefore, the candidate area determination unit 134 also (B1) compares the initial area of the pre-movement frame and the initial area of the post-movement frame (B2) the initial area of the pre-movement frame and the same as the movement area determination unit 132 described above. Comparison with the area of the post-movement frame corresponding to the initial area (B3) The three comparisons of the initial area of the post-movement frame and the area of the pre-movement frame corresponding to the initial area are performed.

移動領域としては、矩形領域を得たいので、候補領域決定部134においても、比較はラインごとに行う。このとき、(B1)の比較では、ラインごとに、(条件B1)「画素値が同一値である画素が所定の値以上連続する」が成り立つかどうかを確認する。また、(B2)の比較と(B3)の比較では、ラインごとに、(条件B2)「画素値が異なるが画素の数が所定の値以上である」が成り立つどうかを確認する。また、(条件B1)を「画素値が同一値である画素が所定の割合以上連続する」としても良い。また、(条件B2)を「画素値が異なるが画素の割合が所定の値以上である」としても良い。また、「画素値が同一値である画素の数(割合)が所定の値以下である」としても良い。   Since it is desired to obtain a rectangular area as the moving area, the candidate area determining unit 134 also performs the comparison for each line. At this time, in the comparison of (B1), it is confirmed for each line whether (Condition B1) “Pixels with the same pixel value continue for a predetermined value or more” holds. In the comparison of (B2) and the comparison of (B3), it is confirmed for each line whether (Condition B2) “Different pixel values but the number of pixels is equal to or larger than a predetermined value” is satisfied. Further, (Condition B1) may be set as “pixels having the same pixel value continue for a predetermined ratio or more”. Further, (Condition B2) may be set as “the pixel value is different, but the pixel ratio is equal to or greater than a predetermined value”. Alternatively, “the number (ratio) of pixels having the same pixel value is equal to or less than a predetermined value” may be used.

候補領域決定部134においても、比較は、初期領域の枠線から、つまり、上下左右の4辺からそれぞれ内側に向かって順にラインごとに比較していくことにする。そして、(B1)、(B2)、(B3)すべての比較において、条件が成り立つラインが見つかったらラインごとの条件の確認をやめる。つまり、(条件B1)、(条件B2)、(条件B3)のすべての条件が成り立つラインが見つかったらラインごとの条件の確認を終了する。候補領域決定部132は、この見つかったラインで囲まれた領域を移動領域の候補領域であると決定する。   Also in the candidate area determination unit 134, the comparison is performed for each line in order from the frame line of the initial area, that is, from the four sides on the upper, lower, left, and right sides. Then, in all the comparisons (B1), (B2), and (B3), when a line that satisfies the condition is found, the confirmation of the condition for each line is stopped. That is, when a line that satisfies all of the conditions (Condition B1), (Condition B2), and (Condition B3) is found, the confirmation of the condition for each line ends. The candidate area determination unit 132 determines that the area surrounded by the found line is a candidate area for the movement area.

この構成において、比較領域決定部131は、上述した方法より求めた比較領域から、候補領域部134により決定された候補領域を除いた領域を、比較領域として決定する。つまり、図20に示した斜線の領域を比較領域として決定する。   In this configuration, the comparison area determination unit 131 determines, as a comparison area, an area obtained by removing the candidate area determined by the candidate area unit 134 from the comparison area obtained by the above-described method. That is, the hatched area shown in FIG. 20 is determined as the comparison area.

また、この構成において、移動領域決定部132は、この比較領域決定部131により決定された比較領域を用いて、上述した第1の構成例における方法と同じ方法により移動領域を決定する。上述した方法では、比較領域の外枠から内側に向かってラインごとに比較をしていったが、候補領域の枠線から比較領域の枠線に向かってラインごとに比較していくようにしても良い。このときは、上記の(条件A1)、(条件A2)、(条件A3)のうちの一つでも成り立たないラインが見つかれば、そこで比較をやめ、その見つかったラインの一つ内側のラインにより囲まれる領域を移動領域と決定するようにすると良い。   Further, in this configuration, the moving region determining unit 132 uses the comparison region determined by the comparative region determining unit 131 to determine the moving region by the same method as the method in the first configuration example described above. In the method described above, the comparison is performed line by line from the outer frame of the comparison area to the inner side, but the comparison is performed line by line from the frame line of the candidate area to the frame line of the comparison area. Also good. At this time, if a line that does not hold even one of the above (Condition A1), (Condition A2), or (Condition A3) is found, the comparison is stopped and the line surrounded by one of the found lines is enclosed. It is preferable to determine the area to be moved as the moving area.

上記のように、3つの条件すべてを満たす領域をまず候補領域として検出し、さらに、他の3つの条件すべてを満たす領域を移動領域として決定することにより、より正確に移動領域を検出することが可能になる。   As described above, a region that satisfies all three conditions is first detected as a candidate region, and further, a region that satisfies all three other conditions is determined as a moving region, so that the moving region can be detected more accurately. It becomes possible.

<移動領域検出部130の第2の構成例における処理動作例>
図21は、本実施形態に係るサーバ装置100の移動領域検出部130の第2の構成例における処理動作の一例を示す図である。まず、初期領域設定部133が、移動前フレームと移動後フレームのそれぞれにおいて初期領域を設定する(S401)。そして、候補領域決定部134が、この初期領域を用い、移動前フレームと移動後フレームのそれぞれにおいて移動領域の候補領域を決定する(S402)。次に、比較領域決定部131が、この候補領域を用いて、移動前フレームと移動後フレームのそれぞれにおいて比較領域を決定する(S403)。そして、移動領域決定部132が、移動前フレームの比較領域と移動後フレームの比較領域との比較と、移動前フレームの比較領域とその比較領域に対応する移動後フレームの領域との比較と、移動後フレームの比較領域とその比較領域に対応する移動前フレームの領域との比較と、を行うことにより、移動領域を決定する(S404)。このような処理動作により、第2の構成例の移動領域検出部130は、移動領域を検出する。
<Example of Processing Operation in Second Configuration Example of Moving Area Detection Unit 130>
FIG. 21 is a diagram illustrating an example of a processing operation in the second configuration example of the movement area detection unit 130 of the server device 100 according to the present embodiment. First, the initial area setting unit 133 sets an initial area in each of the pre-movement frame and the post-movement frame (S401). Then, the candidate area determination unit 134 uses this initial area to determine a candidate area for the movement area in each of the pre-movement frame and the post-movement frame (S402). Next, the comparison area determination unit 131 determines a comparison area in each of the pre-movement frame and the post-movement frame using this candidate area (S403). Then, the movement area determination unit 132 compares the comparison area of the pre-movement frame and the comparison area of the post-movement frame, compares the comparison area of the pre-movement frame and the area of the post-movement frame corresponding to the comparison area, By comparing the comparison area of the post-movement frame with the area of the pre-movement frame corresponding to the comparison area, the movement area is determined (S404). Through such processing operation, the moving area detection unit 130 of the second configuration example detects the moving area.

<その他の処理>
差分データ生成部140は、記憶部110により記憶された移動前フレームと移動後フレームと、移動ベクトル検出部120により検出された移動ベクトルと、移動領域検出部120により検出された移動領域と、を用いて、差分データを生成する。例えば、差分データ生成部130は、図22に示すように、移動前フレームの移動領域を、移動前フレームの、移動ベクトルで移動させた位置にコピーしたフレームを生成し、このフレームと移動後フレームとを比較することにより、差分データを生成する。このようにすることにより、図23に示すように、移動領域が正確に検出できなかった場合も、図24のように、差分領域が検出され、この差分領域のデータを差分データとすることができるため、この差分データと移動ベクトルと移動前フレームを用いれば、移動後フレームを再現することができるようになる。移動領域が正確に検出できた場合の差分領域は、図25のようになる。図24に示した場合に比べて、差分領域の面積が小さい。つまり、移動領域を正確に検出することにより、差分領域が小さくなり、クライアント装置200に送信する差分データを小さくすることが可能になる。つまり、本発明では、より正確に移動領域を検出できるため、差分領域を小さくでき、クライアント装置200に送信する差分データをより小さくすることができる。このため、差分領域を検出する時間を短縮でき、また、差分データを圧縮する際にかかる時間なども短縮することが可能になる。
<Other processing>
The difference data generation unit 140 includes the pre-movement frame and the post-movement frame stored in the storage unit 110, the movement vector detected by the movement vector detection unit 120, and the movement region detected by the movement region detection unit 120. To generate differential data. For example, as shown in FIG. 22, the difference data generation unit 130 generates a frame in which the movement area of the pre-movement frame is copied to the position moved by the movement vector of the pre-movement frame, and this frame and the post-movement frame To generate difference data. By doing in this way, as shown in FIG. 23, even when the moving area cannot be accurately detected, a difference area is detected as shown in FIG. 24, and the data of this difference area can be used as difference data. Therefore, if the difference data, the movement vector, and the pre-movement frame are used, the post-movement frame can be reproduced. FIG. 25 shows the difference area when the moving area can be accurately detected. Compared to the case shown in FIG. 24, the area of the difference region is small. That is, by accurately detecting the movement area, the difference area becomes smaller, and the difference data transmitted to the client device 200 can be made smaller. That is, according to the present invention, since the moving area can be detected more accurately, the difference area can be reduced, and the difference data transmitted to the client device 200 can be further reduced. For this reason, the time for detecting the difference area can be shortened, and the time required for compressing the difference data can be shortened.

送信部150は、移動ベクトル検出部120により検出された移動ベクトルの情報と、移動領域検出部130により検出された移動領域の情報と、差分データ生成部140により生成された差分データと、をクライアント装置200に送信する。   The transmission unit 150 transmits the information on the movement vector detected by the movement vector detection unit 120, the information on the movement region detected by the movement region detection unit 130, and the difference data generated by the difference data generation unit 140 to the client. To device 200.

このように、移動後フレーム全体のデータでなく、移動ベクトルと移動領域の情報と差分データを送ることにより、送信するデータ量が小さくなり、ネットワークがかかる負荷が減る。また、送信するデータ量が小さくなったことによりネットワークによる伝送時間も短くすることが可能になる。また、本発明では、より正確に移動領域が検出できるため、差分データがより小さくなる。よって、ネットワークにかかる負荷がより減り、ネットワークによる伝送時間をより短くすることが可能になる。   In this way, by transmitting not only the data of the entire frame after movement but also the movement vector, movement area information, and difference data, the amount of data to be transmitted is reduced, and the load on the network is reduced. Further, since the amount of data to be transmitted is reduced, the transmission time through the network can be shortened. Further, in the present invention, since the moving area can be detected more accurately, the difference data becomes smaller. Thus, the load on the network is further reduced, and the transmission time through the network can be further shortened.

<サーバ装置100の処理動作例>
図26は、本発明の実施形態に係るサーバ装置100における処理動作を示す図である。まず、サーバ装置100は、移動ベクトル検出部120により移動ベクトルを検出する(S501)。そして、移動ベクトル検出部120により検出された移動ベクトルなどに基づき、移動領域検出部130により移動領域を検出する(S502)。そして、移動ベクトル検出部120により検出された移動ベクトルと移動領域検出部130により検出された移動領域とに基づき、差分データ生成部140により差分データを生成する(S503)。そして、移動ベクトル検出部120により検出された移動ベクトルの情報と、移動領域検出部130により検出された移動領域の情報と、差分データ生成部140により生成された差分データと、を送信部150によりクライアント装置200に送信する(S504)。このような処理動作により、サーバ装置100は、クライアント装置200が移動後フレームを再現できるように、移動ベクトルの情報と移動領域の情報と差分データをクライアント装置200送信する。
<Example of Processing Operation of Server Device 100>
FIG. 26 is a diagram showing processing operations in the server apparatus 100 according to the embodiment of the present invention. First, the server apparatus 100 detects a movement vector by the movement vector detection unit 120 (S501). Then, based on the movement vector detected by the movement vector detection unit 120, the movement region detection unit 130 detects the movement region (S502). Then, based on the movement vector detected by the movement vector detection unit 120 and the movement region detected by the movement region detection unit 130, the difference data generation unit 140 generates difference data (S503). Then, the information on the movement vector detected by the movement vector detection unit 120, the information on the movement region detected by the movement region detection unit 130, and the difference data generated by the difference data generation unit 140 are transmitted by the transmission unit 150. The data is transmitted to the client device 200 (S504). Through such processing operation, the server apparatus 100 transmits the information on the movement vector, the information on the movement area, and the difference data so that the client apparatus 200 can reproduce the post-movement frame.

このように、サーバ装置100は、移動後フレームを送信することなく、クライアント装置200において、サーバ装置100から送信されたこれらの情報とクライアント装置200に記憶されている移動前フレームとを用いることにより、移動後フレームを再現することが可能になる。   As described above, the server apparatus 100 uses the information transmitted from the server apparatus 100 and the pre-movement frame stored in the client apparatus 200 in the client apparatus 200 without transmitting the post-movement frame. It becomes possible to reproduce the frame after movement.

上述した実施形態における処理動作は、ハードウェア、または、ソフトウェア、あるいは、両者の複合構成によって実行することも可能である。   The processing operation in the above-described embodiment can be executed by hardware, software, or a combined configuration of both.

なお、ソフトウェアによる処理を実行する場合には、処理シーケンスを記録したプログラムが格納されているROM(Read Only Memory)から、専用のハードウェアに組み込まれているコンピュータ内のメモリ(RAM)にプログラムを読み込んで実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   When processing by software is executed, the program is loaded from a ROM (Read Only Memory) storing a program recording a processing sequence to a memory (RAM) in a computer incorporated in dedicated hardware. The program can be read and executed, or the program can be installed and executed on a general-purpose computer capable of executing various processes.

例えば、プログラムは、記録媒体としてのハードディスクやROMに予め記録しておくことが可能である。あるいは、プログラムは、フロッピー(登録商標)ディスク等の磁気ディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスク、MO(Magneto Optical)ディスク等の光磁気ディスクなどのリムーバブル記録媒体に、一時的、あるいは、永続的に格納(記録)しておくことが可能である。   For example, the program can be recorded in advance on a hard disk or ROM as a recording medium. Alternatively, the program is stored on a removable recording medium such as a magnetic disk such as a floppy (registered trademark) disk, an optical disk such as a CD (Compact Disc) or DVD (Digital Versatile Disc), or a magneto-optical disk such as an MO (Magneto Optical) disk. It is possible to store (record) temporarily or permanently.

このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することが可能である。   Such a removable recording medium can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトから、コンピュータに無線転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送したりし、コンピュータでは、転送されてきたプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることが可能である。   The program is installed on the computer from the above-described removable recording medium, transferred wirelessly from the download site to the computer, or transferred to the computer via a network such as a LAN (Local Area Network) or the Internet. On the other hand, the computer can receive the transferred program and install it on a recording medium such as a built-in hard disk.

また、上記実施形態で説明した処理動作に従って時系列的に実行されるのみならず、処理を実行する装置の処理能力、あるいは、必要に応じて並列的にあるいは個別に実行するように構築することも可能である。   In addition to being executed in time series in accordance with the processing operations described in the above embodiment, the processing capability of the apparatus that executes the processing, or a configuration to execute in parallel or individually as necessary Is also possible.

また、上記実施形態で説明したシステムは、複数の装置の論理的集合構成にしたり、各装置の機能を混在させたりするように構築することも可能である。   In addition, the system described in the above embodiment can be configured to have a logical set configuration of a plurality of devices or to mix the functions of each device.

以上、本発明の好適な実施の形態により本発明を説明した。ここでは特定の具体例を示して本発明を説明したが、特許請求の範囲に定義された本発明の広範囲な趣旨および範囲から逸脱することなく、これら具体例に様々な修正および変更が可能である。   The present invention has been described above by the preferred embodiments of the present invention. While the invention has been described with reference to specific embodiments thereof, various modifications and changes can be made to these embodiments without departing from the broader spirit and scope of the invention as defined in the claims. is there.

また、本発明におけるサーバ装置は、前記移動ベクトル検出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記2つのフレームにおける色の揺らぎを考慮して前記移動ベクトルを検出するようにしても良い。   Further, in the server device according to the present invention, when the moving vector detection unit determines that the moving image data is a natural moving image by the moving image type determining unit, the movement vector detecting unit considers color fluctuations in the two frames. A movement vector may be detected.

また、本発明におけるサーバ装置は、前記移動ベクトル検出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記2つのフレームにおける位置の揺らぎを考慮して前記移動ベクトルを検出するようにしても良い。   Further, in the server device according to the present invention, when the moving vector detecting unit determines that the moving image data is a natural moving image by the moving image type determining unit, the movement vector detecting unit considers the fluctuation of the position in the two frames. A movement vector may be detected.

また、本発明におけるサーバ装置は、前記移動ベクトル検出手段は、前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有するようにしても良い。   Further, in the server device according to the present invention, the movement vector detecting unit extracts an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels in each of the two frames. A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A feature point for extracting, as a feature point, an edge point having a hash value with an appearance count of 1 from each of the two hash tables generated by the hash table generation unit and the hash table generation unit generated for each Extracting means; a hash table of the first frame; and a second hash table of the first frame. A feature point pair extracting unit that extracts a pair of feature points having the same hash value as a feature point pair, and the feature point pair extracted by the feature point pair extracting unit. A vector calculating means for calculating a vector connecting the feature point in the frame and the feature point in the second frame; and a vector calculated for each feature point pair by the vector calculating means except for the zero vector, You may make it have a movement vector determination means which determines a frequent vector as a movement vector.

また、本発明におけるサーバ装置は、前記特徴点抽出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成手段により生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出するようにしても良い。   Further, in the server device according to the present invention, the feature point extracting unit, when the moving image type determining unit determines that the moving image data is a natural moving image, the two frames generated by the hash table generating unit. You may make it extract from each hash table the edge point which has a hash value whose appearance frequency is below a predetermined value as a feature point.

また、本発明におけるサーバ装置は、前記特徴点ペア抽出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出するようにしても良い。   In the server device according to the present invention, when the moving image type determining unit determines that the moving image data is a natural moving image, the feature point pair extracting unit and the second frame hash table and the second frame A pair of feature points whose hash values differ by a predetermined value may be extracted from the hash table as feature point pairs.

また、本発明におけるサーバ装置は、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアのうちで、色が一致する特徴点ペアの割合が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。   Further, in the server device according to the present invention, the moving image type discriminating unit is configured such that the ratio of the feature point pairs whose colors match among the feature point pairs connected by the movement vector determined by the movement vector detecting unit is greater than a predetermined value. When it is large, the moving image data may be determined to be a natural moving image.

また、本発明におけるサーバ装置は、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。   Further, in the server device according to the present invention, when the moving image type discriminating unit has a standard deviation of the color difference distribution in the feature point pair connected by the movement vector determined by the movement vector detecting unit greater than a predetermined value, You may make it discriminate | determine that the said moving image data is a natural moving image.

また、本発明におけるサーバ装置は、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。   In the server device according to the present invention, when the moving image type discriminating unit has a standard deviation of a difference distribution of hash values in the feature point pair connected by the movement vector determined by the movement vector detecting unit larger than a predetermined value. The moving image data may be determined as a natural moving image.

また、本発明における移動ベクトル検出方法は、前記移動ベクトル検出ステップは、前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出ステップと、前記エッジ点抽出ステップにより抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成ステップと、前記ハッシュテーブル生成ステップにより生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出ステップと、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出ステップと、前記特徴点ペア抽出ステップにより抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出ステップと、前記ベクトル算出ステップにより特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定ステップと、を有するようにしても良い。   Further, in the movement vector detection method according to the present invention, the movement vector detection step extracts an edge point extraction step that extracts, as an edge point, a pixel having a large change in pixel value as compared with surrounding pixels in each of the two frames. And the hash table showing the number of appearances for each hash value and the coordinate value of the edge point having the hash value as a hash value by converting the edge point extracted in the edge point extraction step into a hash value by a predetermined method. A hash table generation step generated for each of the two frames and an edge point having a hash value with the appearance count of 1 are extracted as feature points from each of the two hash tables generated by the hash table generation step. Feature point extraction step and hash of the first frame A feature point pair extraction step for extracting a feature point pair having the same hash value as a feature point pair from the table and the second hash table, and a feature point pair extracted by the feature point pair extraction step. On the other hand, a vector calculation step for calculating a vector connecting the feature point in the first frame and the feature point in the second frame, and among the vectors calculated for each feature point pair by the vector calculation step In addition to the zero vector, a movement vector determination step for determining the most frequently occurring vector as a movement vector may be included.

また、本発明における移動ベクトル検出方法は、前記特徴点抽出ステップは、前記動画種判別ステップにより前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成ステップにより生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出するようにしても良い。   In the movement vector detection method according to the present invention, the feature point extracting step may be performed when the moving image type determining step determines that the moving image data is a natural moving image, and the feature table extracting step generates the 2 generated by the hash table generating step. An edge point having a hash value whose number of appearances is a predetermined value or less may be extracted as a feature point from the hash table of each of the two frames.

また、本発明における移動ベクトル検出方法は、前記特徴点ペア抽出ステップは、前記動画種判別ステップにより前記動画データが自然動画であると判別されたときは、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出するようにしても良い。   In the movement vector detection method according to the present invention, when the moving image type determining step determines that the moving image data is a natural moving image, the feature point pair extracting step includes the hash table of the first frame and the A pair of feature points whose hash values differ by a predetermined value may be extracted from the second hash table as a feature point pair.

また、本発明における移動ベクトル検出方法は、前記動画種判別ステップは、移動ベクトル検出ステップにより決定された移動ベクトルにより結ばれる特徴点ペアのうちで、色が一致する特徴点ペアの割合が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。   In the movement vector detection method according to the present invention, the moving image type determination step includes a predetermined ratio of the feature point pairs having the same color among the feature point pairs connected by the movement vector determined in the movement vector detection step. When the value is larger than the value, the moving image data may be determined to be a natural moving image.

また、本発明における移動ベクトル検出方法は、前記動画種判別ステップは、移動ベクトル検出ステップにより決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。   In the moving vector detection method according to the present invention, the moving image type determining step may be performed when the standard deviation of the color difference distribution in the feature point pair connected by the moving vector determined by the moving vector detecting step is larger than a predetermined value. The moving image data may be determined as a natural moving image.

また、本発明における移動ベクトル検出方法は、前記動画種判別ステップは、移動ベクトル検出ステップにより決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。   Further, in the movement vector detection method according to the present invention, the moving image type determination step has a standard deviation of a difference distribution of hash values in a feature point pair connected by the movement vector determined in the movement vector detection step greater than a predetermined value. In some cases, the moving image data may be determined to be a natural moving image.

また、本発明におけるプログラムは、前記移動ベクトル検出手段は、前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有するようにしても良い。   In the program according to the present invention, the movement vector detection unit extracts an edge point extraction unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels in each of the two frames. The edge points extracted by the edge point extraction means are digitized as hash values by a predetermined method, and a hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is displayed for each of the two frames. And a feature point extraction that extracts an edge point having a hash value with the appearance count of 1 as a feature point from each of the two hash tables generated by the hash table generation unit Means, the hash table of the first frame and the second hash table. A feature point pair extracting unit that extracts a pair of feature points having the same hash value as a feature point pair, and the feature point pair extracted by the feature point pair extracting unit. A vector calculating means for calculating a vector connecting the feature point in the frame and the feature point in the second frame; and a vector calculated for each feature point pair by the vector calculating means except for the zero vector, You may make it have a movement vector determination means which determines a frequent vector as a movement vector.

また、本発明におけるプログラムは、前記特徴点抽出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成手段により生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出するようにしても良い。   Further, in the program according to the present invention, the feature point extracting unit, when the moving image type determining unit determines that the moving image data is a natural moving image, each of the two frames generated by the hash table generating unit. From the hash table, an edge point having a hash value whose appearance count is equal to or less than a predetermined value may be extracted as a feature point.

また、本発明におけるプログラムは、前記特徴点ペア抽出手段は、前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出するようにしても良い。   In the program according to the present invention, the feature point pair extraction unit, when the moving image type determining unit determines that the moving image data is a natural moving image, the hash table of the first frame and the second frame A pair of feature points whose hash values differ by a predetermined value may be extracted as a feature point pair from the hash table.

また、本発明におけるプログラムは、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアのうちで、色が一致する特徴点ペアの割合が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。   Further, in the program according to the present invention, the moving image type discriminating unit is configured such that, among the feature point pairs connected by the movement vector determined by the movement vector detecting unit, the ratio of the feature point pairs having the same color is larger than a predetermined value. In some cases, the moving image data may be determined to be a natural moving image.

また、本発明におけるプログラムは、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。   In the program according to the present invention, when the moving image type discriminating unit has a standard deviation of the color difference distribution in the feature point pair connected by the movement vector determined by the movement vector detecting unit greater than a predetermined value, You may make it discriminate | determine that moving image data is a natural moving image.

また、本発明におけるプログラムは、前記動画種判別手段は、移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別するようにしても良い。   Further, in the program according to the present invention, when the moving image type discriminating unit has a standard deviation of a difference distribution of hash values in the feature point pair connected by the movement vector determined by the movement vector detecting unit larger than a predetermined value, You may make it discriminate | determine that the said moving image data is a natural moving image.

100 サーバ装置
110 記憶部
120 移動ベクトル検出部
121 エッジ点抽出部
122 ハッシュテーブル生成部
123 特徴点抽出部
124 特徴点ペア抽出部
125 ベクトル算出部
126 移動ベクトル決定部
127 動画種判別部
130 移動領域検出部
131 比較領域決定部
132 移動領域決定部
133 初期領域設定部
134 候補領域決定部
140 差分データ生成部
150 送信部
200 クライアント装置
DESCRIPTION OF SYMBOLS 100 Server apparatus 110 Storage part 120 Movement vector detection part 121 Edge point extraction part 122 Hash table production | generation part 123 Feature point extraction part 124 Feature point pair extraction part 125 Vector calculation part 126 Movement vector determination part 127 Moving image kind discrimination | determination part 130 Movement area | region detection part 130 Unit 131 comparison region determining unit 132 moving region determining unit 133 initial region setting unit 134 candidate region determining unit 140 difference data generating unit 150 transmitting unit 200 client device

Claims (14)

動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段と、を有し、
前記移動ベクトル検出手段は、 前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成手段により生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有することを特徴とするサーバ装置。
A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area that is a moving area;
The movement vector detection means, in each of the two frames, an edge point extraction means for extracting a pixel having a large change in pixel value as compared to surrounding pixels as an edge point;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
When the moving image type determining unit determines that the moving image data is a natural moving image, a hash whose number of appearances is equal to or less than a predetermined value from the hash tables of the two frames generated by the hash table generating unit. Feature point extraction means for extracting edge points having values as feature points;
A feature point pair extraction unit that extracts a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means;
Of the vector calculated for each feature point pair by the vector calculating means, other than a zero vector, the server characterized by Rukoto that Yusuke and motion vector determining means for determining a vector of the most frequent as the movement vector, the apparatus.
前記移動ベクトル検出手段は、
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記2つのフレームにおける色の揺らぎを考慮して前記移動ベクトルを検出することを特徴とする請求項1に記載のサーバ装置。
The movement vector detection means includes
The movement vector is detected in consideration of color fluctuations in the two frames when the moving image type determining unit determines that the moving image data is a natural moving image. Server device.
前記移動ベクトル検出手段は、
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記2つのフレームにおける位置の揺らぎを考慮して前記移動ベクトルを検出することを特徴とする請求項1に記載のサーバ装置。
The movement vector detection means includes
The movement vector is detected in consideration of fluctuations in position in the two frames when the moving image type determining unit determines that the moving image data is a natural moving image. Server device.
動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段と、を有し、
前記移動ベクトル検出手段は、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有することを特徴とするサーバ装置。
A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area that is a moving area;
The movement vector detection means includes
In each of the two frames, an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
Feature point extracting means for extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating means;
When the moving image type determining means determines that the moving image data is a natural moving image,
A feature point pair extraction unit that extracts a pair of feature points having different hash values by a predetermined value from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means;
Of the vector calculated for each feature point pair by the vector calculating means, other than a zero vector, wherein the Surusa over server that has a motion vector determining means for determining a vector of the most frequent as the movement vector, the apparatus.
動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段と、を有し、
前記移動ベクトル検出手段は、
前記動画種判別手段による判別結果に基づいて前記移動ベクトルを検出することを特徴とし、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有し、
前記動画種判別手段は、
移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とするサーバ装置。
A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area that is a moving area;
The movement vector detection means includes
The movement vector is detected based on a determination result by the moving image type determination unit,
In each of the two frames, an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
Feature point extracting means for extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating means;
A feature point pair extraction unit that extracts a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means;
Among the vectors calculated for each feature point pair by the vector calculation means, there is a movement vector determination means for determining the most frequent vector as a movement vector other than the zero vector,
The moving image type discrimination means includes
When the standard deviation of the color difference distribution in the feature point pair connected by the movement vector determined by the movement vector detection means is larger than a predetermined value, the moving image data is determined to be a natural moving image. to Lusa over server apparatus.
前記動画種判別手段は、
移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とする請求項4に記載のサーバ装置。
The moving image type discrimination means includes
The moving image data is determined to be a natural moving image when the standard deviation of the distribution of hash value differences in the feature point pair connected by the moving vector determined by the moving vector detecting means is larger than a predetermined value. The server device according to claim 4 .
動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別ステップと、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出ステップと、を有し、
前記移動ベクトル検出ステップは、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出ステップと、
前記エッジ点抽出ステップにより抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成ステップと、
前記動画種判別ステップにより前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成ステップにより生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出ステップと、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出ステップと、
前記特徴点ペア抽出ステップにより抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出ステップと、
前記ベクトル算出ステップにより特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定ステップと、を有することを特徴とする移動ベクトル検出方法。
A video type determination step for determining whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting step for detecting a movement vector indicating the magnitude and direction of movement of the moving area, which is a moving area,
The moving vector detection step includes:
In each of the two frames, an edge point extraction step of extracting a pixel having a large change in pixel value as compared to surrounding pixels as an edge point;
A hash table showing the number of appearances for each hash value and the coordinate value of the edge point having the hash value is converted into a hash value by a predetermined method and the hash table extracted in the edge point extraction step is the two frames. A hash table generation step to generate for each;
When the moving image type determining step determines that the moving image data is a natural moving image, a hash whose number of appearances is equal to or less than a predetermined value from the hash tables of the two frames generated by the hash table generating step. A feature point extraction step for extracting edge points having values as feature points;
A feature point pair extracting step of extracting a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
A vector calculation step for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted in the feature point pair extraction step;
A movement vector determining step of determining, as a movement vector, the most frequently occurring vector other than the zero vector among the vectors calculated for each feature point pair in the vector calculation step. Method.
動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別ステップと、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出ステップと、を有し、
前記移動ベクトル検出ステップは、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出ステップと、
前記エッジ点抽出ステップにより抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成ステップと、
前記ハッシュテーブル生成ステップにより生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出ステップと、
前記動画種判別ステップにより前記動画データが自然動画であると判別されたときは、前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出ステップと、
前記特徴点ペア抽出ステップにより抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出ステップと、
前記ベクトル算出ステップにより特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定ステップと、を有することを特徴とする移動ベクトル検出方法。
A video type determination step for determining whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting step for detecting a movement vector indicating the magnitude and direction of movement of the moving area, which is a moving area,
The moving vector detection step includes:
In each of the two frames, an edge point extraction step of extracting a pixel having a large change in pixel value as compared to surrounding pixels as an edge point;
A hash table showing the number of appearances for each hash value and the coordinate value of the edge point having the hash value is converted into a hash value by a predetermined method and the hash table extracted in the edge point extraction step is the two frames. A hash table generation step to generate for each;
A feature point extracting step of extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating step;
When the moving image type determining step determines that the moving image data is a natural moving image, a feature point having a hash value that differs by a predetermined value from the hash table of the first frame and the second hash table. A feature point pair extraction step for extracting pairs as feature point pairs;
A vector calculation step for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted in the feature point pair extraction step;
Wherein among the vector calculation step of vector calculated for each feature point pair, other than zero vectors, moves you, comprising: the motion vector determining step of determining a vector of the most frequent as the movement vector, the dynamic Vector detection method.
動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別ステップと、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出ステップと、を有し、
前記移動ベクトル検出ステップは、
前記動画種判別ステップによる判別結果に基づいて前記移動ベクトルを検出することを特徴とし、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出ステップと、
前記エッジ点抽出ステップにより抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成ステップと、
前記ハッシュテーブル生成ステップにより生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出ステップと、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出ステップと、
前記特徴点ペア抽出ステップにより抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出ステップと、
前記ベクトル算出ステップにより特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定ステップと、を有し、
前記動画種判別ステップは、
移動ベクトル検出ステップにより決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とする移動ベクトル検出方法。
A video type determination step for determining whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. A movement vector detecting step for detecting a movement vector indicating the magnitude and direction of movement of the moving area, which is a moving area,
The moving vector detection step includes:
The movement vector is detected based on a determination result obtained by the moving image type determination step,
In each of the two frames, an edge point extraction step of extracting a pixel having a large change in pixel value as compared to surrounding pixels as an edge point;
A hash table showing the number of appearances for each hash value and the coordinate value of the edge point having the hash value is converted into a hash value by a predetermined method and the hash table extracted in the edge point extraction step is the two frames. A hash table generation step to generate for each;
A feature point extracting step of extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating step;
A feature point pair extracting step of extracting a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
A vector calculation step for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted in the feature point pair extraction step;
A movement vector determining step for determining a most frequent vector as a movement vector other than the zero vector among the vectors calculated for each feature point pair in the vector calculation step;
The moving image type determining step includes:
When the standard deviation of the color difference distribution in the feature point pair connected by the movement vector determined by the movement vector detection step is larger than a predetermined value, it is determined that the moving image data is a natural moving image. that moving vector detection method be.
前記動画種判別ステップは、
移動ベクトル検出ステップにより決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とする請求項8に記載の移動ベクトル検出方法。
The moving image type determining step includes:
The moving image data is determined to be a natural moving image when the standard deviation of the distribution of hash value differences in the feature point pairs connected by the moving vector determined by the moving vector detection step is larger than a predetermined value. The movement vector detection method according to claim 8 .
サーバ装置を、
動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段として機能させ、
前記移動ベクトル検出手段は、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、前記ハッシュテーブル生成手段により生成された前記2つのフレームそれぞれのハッシュテーブルから、出現回数が所定の値以下であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、 前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有することを特徴とするプログラム。
Server device
A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. Function as a movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area,
The movement vector detection means includes
In each of the two frames, an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
When the moving image type determining unit determines that the moving image data is a natural moving image, a hash whose number of appearances is equal to or less than a predetermined value from the hash tables of the two frames generated by the hash table generating unit. Feature point extraction means for extracting edge points having values as feature points;
A feature point pair extraction unit that extracts a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means; of the vector calculated for each feature point pair by means, other than a zero vector, program characterized Rukoto that Yusuke and motion vector determining means for determining a vector of the most frequent as the movement vector, a.
サーバ装置を、
動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段として機能させ、
前記移動ベクトル検出手段は、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記動画種判別手段により前記動画データが自然動画であると判別されたときは、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が所定の値だけ異なる特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有することを特徴とするプログラム。
Server device
A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. Function as a movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area,
The movement vector detection means includes
In each of the two frames, an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
Feature point extracting means for extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating means;
When the moving image type determining means determines that the moving image data is a natural moving image,
A feature point pair extraction unit that extracts a pair of feature points having different hash values by a predetermined value from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means;
Of the vector calculated for each feature point pair by the vector calculating means, other than a zero vector, features and to Help program that has a motion vector determining means for determining a vector of the most frequent as the movement vector, the .
サーバ装置を、
動画データが、色と位置の揺らぎが存在する自然動画であるのかを判別する動画種判別手段と、
前記動画データを構成する連続するフレームである第1のフレームと第2のフレームとを比較することにより、当該2つのフレームの何れにも存在する画像領域であってフレーム上での位置が移動している領域である移動領域の移動の大きさと方向を示す移動ベクトルを検出する移動ベクトル検出手段として機能させ、
前記移動ベクトル検出手段は、前記動画種判別手段による判別結果に基づいて前記移動ベクトルを検出し、
前記2つのフレームのそれぞれにおいて、周囲の画素に比べて画素値に大きな変化のある画素をエッジ点として抽出するエッジ点抽出手段と、
前記エッジ点抽出手段により抽出されたエッジ点を所定の方法によりハッシュ値として数値化し、当該ハッシュ値ごとの出現回数と当該ハッシュ値を持つエッジ点の座標値と示したハッシュテーブルを前記2つのフレームそれぞれに対して生成するハッシュテーブル生成手段と、
前記ハッシュテーブル生成手段により生成された前記2つそれぞれのハッシュテーブルから、出現回数が1であるハッシュ値を持つエッジ点を特徴点として抽出する特徴点抽出手段と、
前記第1のフレームのハッシュテーブルと前記第2のハッシュテーブルとから、ハッシュ値が同一である特徴点のペアを特徴点ペアとして抽出する特徴点ペア抽出手段と、
前記特徴点ペア抽出手段により抽出された特徴点ペアそれぞれに対して、前記第1のフレームにおける特徴点と前記第2のフレームにおける特徴点とを結ぶベクトルを算出するベクトル算出手段と、
前記ベクトル算出手段により特徴点ペアそれぞれに対して算出されたベクトルのうち、ゼロベクトル以外で、最頻出のベクトルを移動ベクトルとして決定する移動ベクトル決定手段と、を有し、
前記動画種判別手段は、
移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおける色の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とするプログラム。
Server device
A video type discriminating means for discriminating whether the video data is a natural video with fluctuations in color and position;
By comparing the first frame and the second frame, which are consecutive frames constituting the moving image data, the position on the frame is an image area that exists in both of the two frames. Function as a movement vector detecting means for detecting a movement vector indicating the magnitude and direction of movement of the moving area,
The movement vector detection unit detects the movement vector based on a determination result by the moving image type determination unit,
In each of the two frames, an edge point extracting unit that extracts, as an edge point, a pixel having a large change in pixel value compared to surrounding pixels;
A hash table indicating the number of appearances for each hash value and the coordinate value of the edge point having the hash value is digitized as a hash value by a predetermined method using the edge points extracted by the edge point extraction unit, and the two frames A hash table generating means to generate for each;
Feature point extracting means for extracting, as a feature point, an edge point having a hash value whose appearance count is 1 from each of the two hash tables generated by the hash table generating means;
A feature point pair extraction unit that extracts a pair of feature points having the same hash value as a feature point pair from the hash table of the first frame and the second hash table;
Vector calculation means for calculating a vector connecting the feature point in the first frame and the feature point in the second frame for each of the feature point pairs extracted by the feature point pair extraction means;
Among the vectors calculated for each feature point pair by the vector calculation means, there is a movement vector determination means for determining the most frequent vector as a movement vector other than the zero vector,
The moving image type discrimination means includes
When the standard deviation of the color difference distribution in the feature point pair connected by the movement vector determined by the movement vector detection means is larger than a predetermined value, the moving image data is determined to be a natural moving image. to Help program.
前記動画種判別手段は、
移動ベクトル検出手段により決定された移動ベクトルにより結ばれる特徴点ペアにおけるハッシュ値の差の分布の標準偏差が所定の値より大きいときは、前記動画データは、自然動画であると判別することを特徴とする請求項12に記載のプログラム。
The moving image type discrimination means includes
The moving image data is determined to be a natural moving image when the standard deviation of the distribution of hash value differences in the feature point pair connected by the moving vector determined by the moving vector detecting means is larger than a predetermined value. The program according to claim 12 .
JP2010152108A 2010-07-02 2010-07-02 Server apparatus, moving vector detection method and program Expired - Fee Related JP5549431B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010152108A JP5549431B2 (en) 2010-07-02 2010-07-02 Server apparatus, moving vector detection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010152108A JP5549431B2 (en) 2010-07-02 2010-07-02 Server apparatus, moving vector detection method and program

Publications (2)

Publication Number Publication Date
JP2012015903A JP2012015903A (en) 2012-01-19
JP5549431B2 true JP5549431B2 (en) 2014-07-16

Family

ID=45601782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010152108A Expired - Fee Related JP5549431B2 (en) 2010-07-02 2010-07-02 Server apparatus, moving vector detection method and program

Country Status (1)

Country Link
JP (1) JP5549431B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102296318B1 (en) * 2019-12-19 2021-09-01 네이버 주식회사 Apparatus and method for classifying videos

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4239556B2 (en) * 2002-11-11 2009-03-18 ソニー株式会社 Image processing apparatus and method, recording medium, and program
CN1774931A (en) * 2003-04-17 2006-05-17 皇家飞利浦电子股份有限公司 Content analysis of coded video data
JP2005159744A (en) * 2003-11-26 2005-06-16 Sharp Corp Moving picture encoding apparatus and moving picture encoding program
JP5003521B2 (en) * 2008-02-14 2012-08-15 日本電気株式会社 Update region detection device with motion compensation

Also Published As

Publication number Publication date
JP2012015903A (en) 2012-01-19

Similar Documents

Publication Publication Date Title
JP4991101B2 (en) Temporary motion vector filtering
JP2005210697A (en) Frame rate conversion for motion compensation
CN102025959B (en) The System and method for of high definition video is produced from low definition video
US20160078584A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
US20120105601A1 (en) Apparatus and method for creating three-dimensional panoramic image by using single camera
CN102239698A (en) Image processing device and method, and program
JP4626775B2 (en) Information processing apparatus and information processing program
CN107087121A (en) A kind of Autoconducting method and device based on motion detection
JP6061502B2 (en) Image processing apparatus, image processing method, and program
JP2009164725A (en) Image recording device and image reproduction device
JP4617883B2 (en) Image processing apparatus and method, program, and recording medium
JP5549431B2 (en) Server apparatus, moving vector detection method and program
JP4868139B2 (en) Image processing apparatus and image processing program
JP2009237650A (en) Image processor and imaging device
JP4558614B2 (en) Image processing apparatus, method and program for determining field order of moving image data
JP2011192077A (en) Server device, method of detecting area of movement, and program
JP2010079506A (en) Image generating apparatus, method, communication system, and program
JP3166976B2 (en) Image processing apparatus and method
JP4650741B2 (en) Data recording system and data reproducing system
US20230300359A1 (en) Method and apparatus for generating and processing media file
JP5123643B2 (en) Video processing device
JP2005275765A (en) Image processor, image processing method, image processing program and recording medium recording the program
US20230325969A1 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
CN101365093B (en) Image processing apparatus and method
KR20180073020A (en) Hole Filling Method for Arbitrary View Image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140505

R150 Certificate of patent or registration of utility model

Ref document number: 5549431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees