JP2010103715A - Motion vector detection device, motion vector detecting method, and program - Google Patents

Motion vector detection device, motion vector detecting method, and program Download PDF

Info

Publication number
JP2010103715A
JP2010103715A JP2008272529A JP2008272529A JP2010103715A JP 2010103715 A JP2010103715 A JP 2010103715A JP 2008272529 A JP2008272529 A JP 2008272529A JP 2008272529 A JP2008272529 A JP 2008272529A JP 2010103715 A JP2010103715 A JP 2010103715A
Authority
JP
Japan
Prior art keywords
motion vector
pixel
frame
frequency
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008272529A
Other languages
Japanese (ja)
Inventor
Kazuyuki Yoshikawa
和志 吉川
Hiroki Tetsukawa
弘樹 鉄川
Tetsujiro Kondo
哲二郎 近藤
Kenji Takahashi
健治 高橋
Naoki Takeda
直己 武田
Takanori Ishikawa
貴規 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008272529A priority Critical patent/JP2010103715A/en
Publication of JP2010103715A publication Critical patent/JP2010103715A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To improve accuracy in the case of detecting a candidate vector by using the evaluation information of a motion vector obtained from moving image data. <P>SOLUTION: This motion vector detection device is provided with a processing part 12 for detecting motion vectors with high frequency and generating evaluation information, an extracting part 13 for extracting the motion vectors on the basis of the evaluation information, and a motion vector determining part 14 for determining motion vectors among extracted candidates. An evaluation information generation processing part 12 determines whether a motion vector candidate calculated from a correlation information between a pixel of interest of one frame on a time base and a reference pixel within the search range of the other frame has a high correlation to the vectors with high frequency. When the correlation is high in the determination, a pixel of interest and/or a reference pixel corresponding to the motion vector candidate are selected from pixels in the frames, and the evaluation information of a motion vector which evaluates a possibility that the reference pixel is a motion candidate for the pixel of interest is formed on the basis of pixels other than the selected pixels. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、動画像データから動きベクトルを検出して、高能率符号化などの画像処理を行う場合に適用して好適な動きベクトル検出装置及び動きベクトル検出方法、並びにその動きベクトル検出処理を実行するプログラムに関する。   The present invention detects a motion vector from moving image data, and is applied to a case where image processing such as high efficiency encoding is performed. Related to the program.

従来、動画像の処理の分野において、動きの情報、即ち時間的に異なる画像中の物体の動き方向と大きさを用いて、画像処理を効率的に行うことが行われている。例えば、画像の高能率符号化における動き補償フレーム間符号化や、フレーム間時間領域フィルタによるテレビジョン雑音低減装置における動きによるパラメータ制御などに、動き権検出結果を利用することが行われている。動きを求める手法としては、ブロックマッチング法が知られている。ブロックマッチング法は、1フレームの画像を所定画素単位のブロックとしたブロック単位で、そのブロックが動いた領域を探索するものである。このブロックマッチングによる動きベクトル検出処理は、MPEG方式などで実用化されている、動きベクトルを利用した画像処理として、最も普及した一般的な処理である。   2. Description of the Related Art Conventionally, in the field of moving image processing, image processing has been performed efficiently using motion information, that is, the motion direction and size of an object in temporally different images. For example, a motion right detection result is used for motion compensation interframe coding in high-efficiency coding of an image or motion parameter control in a television noise reduction apparatus using an interframe time domain filter. A block matching method is known as a method for obtaining motion. In the block matching method, an area in which a block has moved is searched in block units in which an image of one frame is a block of a predetermined pixel unit. This motion vector detection process by block matching is the most popular general process as an image process using a motion vector, which has been put to practical use in the MPEG system or the like.

ところが、ブロックマッチング法では、ブロックを単位とした処理であるため、各フレーム内の画像の動き検出を必ずしも高精度に検出しているとは言えなかった。このため、本出願人は、先に特許文献1に記載した動きベクトル検出処理を提案した。この動きベクトル検出処理は、画像信号から、各画素位置の動きに関する評価値を検出し、その検出した評価値を評価値テーブルとして持ち、評価値テーブルのデータから、1画面内の候補ベクトルとして複数のベクトルを抽出する。そして、その抽出した複数の候補ベクトルを対象として、全画面の各画素毎に、候補ベクトルによって対応付けられるフレーム間の画素の相関を判定する。その結果、最も相関が高いと判定された画素を結ぶ候補ベクトルを、その画素に対する動きベクトルとして決定するものである。この処理の詳細は、後述する実施の形態の中で説明する。   However, since the block matching method is processing in units of blocks, it cannot be said that motion detection of an image in each frame is necessarily detected with high accuracy. For this reason, the present applicant has proposed the motion vector detection process described in Patent Document 1. In this motion vector detection process, an evaluation value related to the movement of each pixel position is detected from an image signal, the detected evaluation value is held as an evaluation value table, and a plurality of candidate vectors in one screen are obtained from the data of the evaluation value table. Extract the vectors. And the correlation of the pixel between the flame | frames matched with a candidate vector is determined for every pixel of the whole screen for the extracted several candidate vector. As a result, a candidate vector connecting pixels determined to have the highest correlation is determined as a motion vector for the pixel. Details of this processing will be described in an embodiment described later.

図27は、この評価値テーブルを使用して、動きベクトルを決定する場合の、先に提案した評価値テーブル形成部の構成を示した図である。図27の構成を説明すると、入力端子1に得られる画像信号は、相関演算部2に供給される。相関演算部2は、参照点メモリ2aと注目点メモリ2bと絶対値算出部2cとを備える。入力端子1に得られる画像信号を、最初に参照点メモリ2aに記憶させ、さらに参照点メモリ2aの記憶データを注目点メモリ2bに移して、参照点メモリ2aと注目点メモリ2bとで1フレームの差がある画素信号を記憶させる。そして、注目点メモリ2bに記憶された画像信号の中の、注目画素の画素値と、参照点メモリ2aに記憶された画像信号の中の参照画素として選定された画素位置の画素値とを読み出し、両信号の差分を絶対値検出部2cで検出する。検出した差分の絶対値のデータを、相関判定部3に供給する。相関判定部3は、比較部3aを備えて、設定された閾値と比較し、その閾値と比較し、評価値を得る。評価値としては、一例として相関値を用いることができ、例えば差分が閾値以下であるとき、相関が高いとする。   FIG. 27 is a diagram showing a configuration of the previously proposed evaluation value table forming unit when a motion vector is determined using this evaluation value table. Referring to FIG. 27, the image signal obtained at the input terminal 1 is supplied to the correlation calculation unit 2. The correlation calculation unit 2 includes a reference point memory 2a, an attention point memory 2b, and an absolute value calculation unit 2c. The image signal obtained at the input terminal 1 is first stored in the reference point memory 2a, the stored data in the reference point memory 2a is moved to the attention point memory 2b, and one frame is generated between the reference point memory 2a and the attention point memory 2b. The pixel signals having the difference are stored. Then, the pixel value of the target pixel in the image signal stored in the target point memory 2b and the pixel value of the pixel position selected as the reference pixel in the image signal stored in the reference point memory 2a are read. The absolute value detector 2c detects the difference between the two signals. Data of the absolute value of the detected difference is supplied to the correlation determination unit 3. The correlation determination unit 3 includes a comparison unit 3a, compares it with a set threshold value, and compares it with the threshold value to obtain an evaluation value. As an evaluation value, a correlation value can be used as an example. For example, when the difference is equal to or less than a threshold value, it is assumed that the correlation is high.

相関判定部3で得られた評価値は、評価値テーブル算出部4に供給し、評価値積算部4aで評価値を積算し、その積算結果を評価値テーブルメモリ4bに記憶させる。そして、評価値テーブルメモリ4bの記憶データを、評価値テーブルデータとして出力端子5から後段の回路に供給する。   The evaluation value obtained by the correlation determination unit 3 is supplied to the evaluation value table calculation unit 4, the evaluation value integration unit 4a integrates the evaluation value, and the integration result is stored in the evaluation value table memory 4b. Then, the stored data of the evaluation value table memory 4b is supplied as evaluation value table data from the output terminal 5 to the subsequent circuit.

図28は、この図27に示す従来の評価値テーブルを使用して動きベクトルを決定する処理状態の概要を示した図である。図28(a)に示すように、まず現在のフレーム(現フレーム)F1の1フレーム前の画像データである前フレームF0内の、動きベクトルを判断する基準となる画素位置を注目画素d0とする。この注目画素d0が決まると、その注目画素d0の画素位置の周辺の所定範囲でのサーチエリアSAが、現フレームF1内で設定される。サーチエリアSAが設定されると、そのサーチエリアSA内の各画素を参照画素d1として評価値が算出され、評価テーブルに登録される。そして、評価値テーブルに登録された値から、サーチエリアSAで最も評価値が高い参照画素が、前フレームの注目画素から動いた現フレームの画素位置として求まる。このように最も評価値が高い参照画素が求まることで、図28(b)に示されるように、その評価値が最も高い参照画素と注目画素との動き量から、動きベクトルが定まる。
この図27,図28に示す処理を、1フレーム内の各画素を注目画素として行うことで、前フレームと現フレームとの間で、存在する可能性のある動きベクトルの評価値が全画素分積算された評価値テーブルデータが得られる。その評価値テーブルデータを後段の処理部に送ることで、評価値テーブルデータに基づいて動きベクトルを検出することができる。
特開2005−175869号公報
FIG. 28 is a diagram showing an outline of a processing state in which a motion vector is determined using the conventional evaluation value table shown in FIG. As shown in FIG. 28A, first, a pixel position serving as a reference for determining a motion vector in the previous frame F0 which is image data one frame before the current frame (current frame) F1 is set as a target pixel d0. . When the target pixel d0 is determined, a search area SA in a predetermined range around the pixel position of the target pixel d0 is set in the current frame F1. When the search area SA is set, an evaluation value is calculated using each pixel in the search area SA as a reference pixel d1 and registered in the evaluation table. Then, from the values registered in the evaluation value table, the reference pixel having the highest evaluation value in the search area SA is obtained as the pixel position of the current frame moved from the target pixel of the previous frame. Thus, by obtaining the reference pixel having the highest evaluation value, the motion vector is determined from the amount of motion between the reference pixel having the highest evaluation value and the target pixel, as shown in FIG.
The processing shown in FIGS. 27 and 28 is performed by using each pixel in one frame as a target pixel, so that evaluation values of motion vectors that may exist between the previous frame and the current frame are the same for all pixels. Integrated evaluation value table data is obtained. By sending the evaluation value table data to the subsequent processing unit, it is possible to detect a motion vector based on the evaluation value table data.
JP 2005-175869 A

評価値テーブルデータに基づいて動きベクトルを検出する場合、最適な動きベクトルの決定は、評価値テーブルの性能に依存する。図28に示した従来方式では、注目画素と未来フレーム(現フレーム)内の探索範囲における、動き候補先画素との相関判定、具体的には輝度値の差分絶対値がある閾値以下であれば、動き候補のベクトルとして、評価値テーブルに度数がカウントされる。   When a motion vector is detected based on the evaluation value table data, the determination of the optimal motion vector depends on the performance of the evaluation value table. In the conventional method shown in FIG. 28, the correlation determination between the target pixel and the motion candidate destination pixel in the search range in the future frame (current frame), specifically, if the difference absolute value of the luminance value is below a certain threshold value. The frequency is counted in the evaluation value table as a motion candidate vector.

ところが、この従来手法による処理では、画面中の同じ動きをした画素の個数に、評価値テーブルの情報が依存してしまう。
具体的には、例えば画面中の背景が一定の方向に大きく動いている状況の中で、その画面中の比較的小さな物体が背景とは異なる動きをするような画面を考える。このような画面の1つの例としては、例えば、何らかのスポーツ競技を撮影して、フィールド上を動く選手やボールを追いかけた画像としたとき、発生する。
このような状況の画面では、評価値テーブルに積算される動きベクトルは、大部分が背景の動きによる動きベクトルであり、背景とは異なる動きをする物体の動きベクトルの検出は僅かであり、評価値テーブル内に埋もれてしまう。
However, in this conventional method, the information in the evaluation value table depends on the number of pixels that have the same movement in the screen.
Specifically, for example, consider a screen in which a relatively small object in the screen moves differently from the background in a situation where the background in the screen is moving greatly in a certain direction. One example of such a screen occurs when, for example, a certain sporting event is photographed and an image of a player chasing a player or a ball moving on the field is taken.
In the screen in such a situation, most of the motion vectors accumulated in the evaluation value table are motion vectors based on the background motion, and there are few detections of motion vectors of objects that move differently from the background. It will be buried in the value table.

従って、従来のこの種の評価値テーブルを使って、後段の処理系で候補ベクトルの決定を行っても、比較的小さな物体の動きベクトルが候補として選び出すことは困難であり、背景動きなどの大きな動き以外の他の動きが抽出されないという問題があった。このため、画面中の大きな動きとは異なる動きについては、動きベクトルの割当てが正しくできない可能性があった。特に、画像中に背景の動きとは異なる複数の動きがあった場合には、それぞれの動きに起因する評価値が埋もれ、それぞれの動きベクトルを検出することが困難であった。
なお、ここでは画面中の大きな動きとして背景が動いている例について説明したが、画面中の背景以外であっても、比較的広い範囲で同じ方向に大きく動いている場合には、同様な問題がある。例えば、画面を大きく占有する前景物体の動きなどについても、背景の場合と同じである。
Therefore, it is difficult to select a motion vector of a relatively small object as a candidate even if determination of a candidate vector is performed in a later processing system using this type of evaluation value table in the past. There was a problem that other movements other than the movement were not extracted. For this reason, there is a possibility that the motion vector cannot be correctly assigned to a motion different from the large motion on the screen. In particular, when there are a plurality of movements different from the movement of the background in the image, the evaluation values resulting from the respective movements are buried, making it difficult to detect the respective motion vectors.
Although the background has been described as an example of a large movement on the screen here, if the background is moving in the same direction over a relatively wide range even if it is not the background on the screen, the same problem will occur. There is. For example, the movement of the foreground object that occupies a large screen is the same as the background.

本発明はかかる点に鑑みてなされたものであり、評価値テーブルの如き評価情報を使用して動きベクトルを検出する場合の精度を向上させることを目的とする。また、複数の動きがある場合にも複数の動きを検出できるようにすることを目的とする。   The present invention has been made in view of such a point, and an object thereof is to improve accuracy in detecting a motion vector using evaluation information such as an evaluation value table. Another object of the present invention is to detect a plurality of movements even when there are a plurality of movements.

本発明は、動画像データから動きベクトルを検出する場合に適用される。
その処理構成としては、頻度の高い動きベクトルを検出する高頻度動きベクトル検出処理と、画素選別処理と、評価情報を生成する処理と、評価情報に基いて動きベクトルを抽出する処理と、抽出された候補の中から動きベクトルを決定する割り当て処理を行う。
画素選別処理は、動画像データの、時間軸上における一方のフレームの注目画素と、他方のフレームのサーチエリア内の参照画素との画素値相関情報から求められる動きベクトル候補が高頻度動きベクトルと相関が高いかどうか判定する。その判定で相関が高い場合に、該動きベクトル候補に対応する注目画素及び/又は参照画素を、フレーム中の画素から選別する。
評価情報を生成する処理では、画素選別処理で選別された画素以外の画素に基づいて、参照画素が注目画素の動き候補である可能性を評価した動きベクトルの評価情報を形成する。
The present invention is applied when detecting a motion vector from moving image data.
As its processing configuration, a high-frequency motion vector detection process for detecting a high-frequency motion vector, a pixel selection process, a process for generating evaluation information, a process for extracting a motion vector based on the evaluation information, and an extraction process are extracted. An allocation process for determining a motion vector from the candidates is performed.
In the pixel selection process, a motion vector candidate obtained from pixel value correlation information between a target pixel of one frame on the time axis and reference pixels in the search area of the other frame of moving image data is a high-frequency motion vector. Determine if the correlation is high. When the correlation is high in the determination, the target pixel and / or reference pixel corresponding to the motion vector candidate is selected from the pixels in the frame.
In the process of generating the evaluation information, the evaluation information of the motion vector that evaluates the possibility that the reference pixel is the motion candidate of the target pixel is formed based on the pixels other than the pixel selected by the pixel selection process.

本発明によると、評価情報を作成する際に、高い頻度で現われるベクトルと相関の高い動きベクトルの画素に関わる評価情報が選別除去される。このため、動きベクトルの候補となる可能性を示す評価値として、背景動きなどのように、画面中に1つの方向への大きな動きがある場合でも、それとは異なる画面中の動きが、積算された評価情報から判別可能になる。従って、得られた評価情報を使用することで、画面中の全ての動きを正しく検出できるようになる。   According to the present invention, when creating the evaluation information, the evaluation information related to the pixel of the motion vector having a high correlation with the vector that appears frequently is selected and removed. Therefore, even if there is a large movement in one direction in the screen, such as a background movement, as an evaluation value indicating the possibility of becoming a motion vector candidate, the movement in the screen different from that is integrated. Can be discriminated from the evaluation information. Therefore, by using the obtained evaluation information, all movements in the screen can be detected correctly.

本発明によると、評価情報を作成する際に、高い頻度で現われるベクトルと相関の高い動きベクトルの画素に関わる評価情報を選別除去するようにしたので、各フレーム中に存在する細かい動きが評価情報から判別できるようになる。従って、動きベクトル割り当て処理で動きベクトルを各画素に割り当てる際に、背景などの画面の大部分とは異なる動きをした箇所の画素であっても、正しい動きベクトルが候補に含まれる可能性が高くなり、動きベクトルの割当て精度が向上する。また、例えば1画面内に比較的小さな物体の複数の動きがあった場合でも、それぞれの動きに対する評価値が適切に得られて、複数の動きを同時に算出することが可能となる。   According to the present invention, when creating the evaluation information, since the evaluation information related to the pixel of the motion vector having a high correlation with the vector that appears frequently is selected and removed, the fine motion existing in each frame is evaluated. Can be discriminated from. Therefore, when assigning a motion vector to each pixel in the motion vector assignment process, it is highly possible that a correct motion vector is included in a candidate even if the pixel is a part of the screen that moves differently from the majority of the screen, such as the background. Thus, the motion vector allocation accuracy is improved. For example, even when there are a plurality of movements of a relatively small object in one screen, an evaluation value for each movement can be appropriately obtained, and a plurality of movements can be calculated simultaneously.

本発明の実施の形態の例について、以下の順序で説明を行う。
1.動きベクトルを検出する全体の構成の概要:図1
2.動きベクトルを検出する全体の処理の概要:図2
3.第1の実施の形態の構成例(例1):図3
4.第1の実施の形態の処理例(注目画素と高頻度動きを考慮した場合の例1):図4
5.注目画素と高頻度動きとの関係の説明:図6
6.図4例での画像と評価値テーブルの例:図7〜図9
7.第1の実施の形態の構成例(例2):図10
8.第1の実施の形態の処理例(注目画素と高頻度動きを考慮した場合の例2):図11
9.第1の実施の形態の他の処理例(注目画素及び参照画素と高頻度動きを考慮した場合の例2):図12
10.参照画素と高頻度動きとの関係の説明:図13
11.図12例での評価値テーブルの例:図14
12.第1の実施の形態の変形例
13.第2の実施の形態の構成例:図15
14.第2の実施の形態の処理例:図16
15.空間傾斜パターンの説明:図17〜図21
16.動きベクトル抽出部の例:図22,図23
17.動きベクトル割り当て部の例:図24〜図26
18.各実施の形態に共通の変形例の説明
Examples of embodiments of the present invention will be described in the following order.
1. Overview of overall configuration for detecting motion vectors: FIG.
2. Overview of overall processing for detecting motion vectors: FIG.
3. Configuration Example of First Embodiment (Example 1): FIG.
4). Processing Example of First Embodiment (Example 1 in Consideration of Pixel of Interest and High Frequency Motion): FIG.
5). Explanation of relationship between pixel of interest and high-frequency motion: FIG.
6). Example of image and evaluation value table in FIG. 4 example: FIGS.
7). Configuration Example of First Embodiment (Example 2): FIG.
8). Processing Example of the First Embodiment (Example 2 in Consideration of Pixel of Interest and High Frequency Motion): FIG.
9. Another processing example of the first embodiment (example 2 in which attention pixel and reference pixel and high-frequency motion are considered): FIG.
10. Explanation of relationship between reference pixel and high-frequency motion: FIG.
11. Example of Evaluation Value Table in FIG. 12 Example: FIG.
12 Modification of the first embodiment 13. Configuration example of the second embodiment: FIG.
14 Processing Example of Second Embodiment: FIG.
15. Explanation of the spatial inclination pattern: FIGS.
16. Example of motion vector extraction unit: FIGS. 22 and 23
17. Example of motion vector assigning unit: FIGS.
18. Description of modification common to each embodiment

[1.動きベクトルを検出する全体構成の概要]
本発明の第1の実施の形態を、図1〜図14を参照して説明する。
本実施の形態においては、動画像データから動きベクトルを検出する動きベクトル検出装置としたものであり、その検出処理として、画素値相関情報より評価情報を形成させて、その評価情報から、動きベクトルを判定するものである。なお、以下の説明では、動きベクトルの評価情報を記憶したものを評価値テーブルと称するが、この評価値テーブルは、必ずしもテーブル状の記憶情報として構成されてなくてもよく、動くベクトルの評価を示す情報であれば良い。例えば、評価値をヒストグラム化した情報として、そのヒストグラム化された評価情報を持つようにしてもよい。
[1. Overview of overall configuration for motion vector detection]
A first embodiment of the present invention will be described with reference to FIGS.
In the present embodiment, a motion vector detection apparatus that detects a motion vector from moving image data is used. As the detection process, evaluation information is formed from pixel value correlation information, and the motion vector is calculated from the evaluation information. Is determined. In the following description, what stores motion vector evaluation information is referred to as an evaluation value table. However, this evaluation value table does not necessarily have to be configured as table-like storage information. Any information may be used. For example, the evaluation information in the form of a histogram may be included as information in which the evaluation value is converted into a histogram.

図1は、動きベクトル検出装置の全体構成を示した図である。画像信号入力端子11に得られる画像信号を、評価値テーブル形成部12に供給して、評価値テーブルを形成させる。画像信号は、例えば、各フレーム内の各画素で個別の輝度値が得られるデジタル映像信号である。評価値テーブル形成部12では、サーチエリアと同一の大きさの評価値テーブルを作成する。サーチエリアと同一の大きさの評価値テーブルということは、サーチエリアの中心位置に対応した画素位置から、次のフレームのサーチエリア内のどの位置に動いたかを示す動きベクトルが、積算されるテーブルとなる。   FIG. 1 is a diagram illustrating an overall configuration of a motion vector detection device. The image signal obtained at the image signal input terminal 11 is supplied to the evaluation value table forming unit 12 to form an evaluation value table. The image signal is, for example, a digital video signal from which an individual luminance value is obtained at each pixel in each frame. The evaluation value table forming unit 12 creates an evaluation value table having the same size as the search area. An evaluation value table having the same size as the search area is a table in which motion vectors indicating which positions in the search area of the next frame have moved from the pixel position corresponding to the center position of the search area are integrated. It becomes.

評価値テーブル形成部12が作成した評価値テーブルデータは、動きベクトル抽出部13に供給して、評価値テーブルから、候補ベクトルとして複数の動きベクトルを抽出する。ここでは、評価値テーブルに出現したピークに基づいて、複数の候補ベクトルを抽出する。動きベクトル抽出部13で抽出した複数の候補ベクトルは、動きベクトル割り当て部14に供給する。動きベクトル割り当て部14では、候補ベクトル抽出部13において抽出した複数の候補ベクトルを対象として、全画面の画素ごとに、候補ベクトルによって対応付けられるフレーム間の画素間の相関を領域マッチング等により判定する。そして、最も相関の高い対応となった画素又はブロックを結ぶ候補ベクトルを、その画素に対応する動きベクトルとして設定する。これらの動きベクトルを得る処理は、制御部(コントローラ)16による制御で実行される。
設定された動きベクトルのデータは、動きベクトル出力端子15から出力させる。このとき、必要により入力端子11に得られる画像信号に付加して出力させてもよい。出力された動きベクトルデータは、例えば画像データの高能率符号化に使用される。或いは、画像をテレビジョン受像機で表示させる際の高画質化処理に使用される。さらにまた、その他の画像処理に、本例の処理で検出された動きベクトルを使用してもよい。
The evaluation value table data created by the evaluation value table forming unit 12 is supplied to the motion vector extraction unit 13, and a plurality of motion vectors are extracted as candidate vectors from the evaluation value table. Here, a plurality of candidate vectors are extracted based on the peaks that appear in the evaluation value table. The plurality of candidate vectors extracted by the motion vector extraction unit 13 is supplied to the motion vector allocation unit 14. The motion vector assignment unit 14 determines, for each pixel on the entire screen, the correlation between the pixels associated with the candidate vectors by region matching or the like for each of the plurality of candidate vectors extracted by the candidate vector extraction unit 13. . Then, the candidate vector connecting the pixel or block having the highest correlation is set as the motion vector corresponding to the pixel. The process of obtaining these motion vectors is executed under the control of the control unit (controller) 16.
The set motion vector data is output from the motion vector output terminal 15. At this time, if necessary, the image signal obtained at the input terminal 11 may be added and output. The output motion vector data is used for high-efficiency encoding of image data, for example. Alternatively, it is used for high image quality processing when an image is displayed on a television receiver. Furthermore, the motion vector detected by the processing of this example may be used for other image processing.

[2.動きベクトルを検出する全体の処理の概要]
図2のフローチャートは、この動きベクトルを決定するまでの処理例を示したものである。まず、入力した画像信号から、動きベクトルの評価情報である評価値テーブルを形成させ(ステップS11)、その形成された評価値テーブルから、候補となる複数のベクトルを抽出する(ステップS12)。そして、その抽出された複数の候補ベクトルの中から、最も相関の高い動きベクトルを決定する(ステップS13)。この図2のフローチャートの処理が、各フレームで実行される。ここまでは、評価値テーブルを使用した動きベクトル検出構成として一般的な構成である。
[2. Overview of overall processing to detect motion vectors]
The flowchart in FIG. 2 shows an example of processing until the motion vector is determined. First, an evaluation value table, which is motion vector evaluation information, is formed from the input image signal (step S11), and a plurality of candidate vectors are extracted from the formed evaluation value table (step S12). Then, the motion vector having the highest correlation is determined from the extracted candidate vectors (step S13). The process of the flowchart of FIG. 2 is executed in each frame. Up to this point, the configuration is a general configuration as a motion vector detection configuration using the evaluation value table.

そして本実施の形態においては、評価値テーブル形成部12での評価値テーブルの形成処理として、図3に示す構成とする。図3の例は、評価値テーブルの形成時に、それぞれの動きベクトルの頻度を判定して、高頻度の動きベクトルと相関の高い動きベクトルの注目画素となる画素に関わる評価情報を、積算する情報から除外する選別除去を行うものである。なお、注目画素とは、動きベクトルを判定する上での基準となる点(基準点:注目点)の位置の画素である。注目画素は、例えば1フレーム内の全ての画素を順に注目画素として選定する。参照画素とは、その注目画素から動いた先である可能性がある点(参照点)の位置の画素である。参照画素は、注目画素とは後又は前の別のフレームで、注目画素の画素位置の近傍(即ちサーチエリア内)の画素である。   In the present embodiment, the evaluation value table forming process in the evaluation value table forming unit 12 is configured as shown in FIG. In the example of FIG. 3, when the evaluation value table is formed, the frequency of each motion vector is determined, and the evaluation information related to the pixel serving as the target pixel of the motion vector having a high correlation with the high-frequency motion vector is integrated. Sorting and removing are excluded. Note that the target pixel is a pixel at the position of a reference point (reference point: target point) for determining a motion vector. As the target pixel, for example, all the pixels in one frame are selected in order as the target pixel. The reference pixel is a pixel at the position of a point (reference point) that may move from the target pixel. The reference pixel is a pixel in the vicinity of the pixel position of the target pixel (that is, in the search area) in another frame after or before the target pixel.

本実施の形態で特徴となる構成である、図3の構成を説明する前に、注目画素と参照画素との関係について、図5を参照して説明する。
図5に示すように、現在のフレーム(現フレーム)F11の1フレーム前の画像データである前フレームF10内の、動きベクトルを判断する基準となる画素位置を注目画素d10とする。この注目画素d10が決まると、その注目画素d10の画素位置の周辺の所定範囲でのサーチエリアSAが、現フレームF11内で設定される。サーチエリアSAが設定されると、そのサーチエリアSA内の各画素を参照画素d11として評価値が算出される。
Before describing the configuration of FIG. 3, which is a feature of the present embodiment, the relationship between the target pixel and the reference pixel will be described with reference to FIG. 5.
As shown in FIG. 5, a pixel position serving as a reference for determining a motion vector in a previous frame F10 that is image data one frame before the current frame (current frame) F11 is set as a target pixel d10. When the target pixel d10 is determined, a search area SA in a predetermined range around the pixel position of the target pixel d10 is set in the current frame F11. When the search area SA is set, an evaluation value is calculated using each pixel in the search area SA as a reference pixel d11.

[3.第1の実施の形態の構成例(例1)]
図5に示したように注目画素と参照画素とを設定して、図3の構成により評価値テーブルのデータが生成される。
図3の例の構成について説明すると、入力端子11に得られる画像信号は、評価値テーブル形成部12内の相関演算部20に供給する。相関演算部20は、参照点メモリ21と注目点メモリ22と絶対値算出部23とを備える。入力端子11に得られる画像信号の中で、参照画素として使用されるフレームの画素値を、参照点メモリ21に記憶する。その参照点メモリに記憶されたフレームの信号を、次のフレーム周期に、注目点メモリ22に移す処理が行われる。この例では、参照画素が1フレーム前の信号の例である。
[3. Configuration Example of First Embodiment (Example 1)]
As shown in FIG. 5, the target pixel and the reference pixel are set, and data of the evaluation value table is generated by the configuration of FIG.
The configuration of the example of FIG. 3 will be described. The image signal obtained at the input terminal 11 is supplied to the correlation calculation unit 20 in the evaluation value table forming unit 12. The correlation calculation unit 20 includes a reference point memory 21, an attention point memory 22, and an absolute value calculation unit 23. In the image signal obtained at the input terminal 11, the pixel value of the frame used as the reference pixel is stored in the reference point memory 21. A process of moving the frame signal stored in the reference point memory to the attention point memory 22 in the next frame period is performed. In this example, the reference pixel is an example of a signal one frame before.

そして、注目点メモリ22に記憶された注目画素の画素値と、参照点メモリ21に記憶された参照画素の画素値とを、絶対値算出部23に供給し、両信号の差分の絶対値を検出する。ここでの差分とは、画素信号の輝度値の差分である。検出した差分の絶対値は、相関判定部30に供給する。   Then, the pixel value of the target pixel stored in the target point memory 22 and the pixel value of the reference pixel stored in the reference point memory 21 are supplied to the absolute value calculation unit 23, and the absolute value of the difference between the two signals is obtained. To detect. The difference here is a difference in luminance value of the pixel signal. The absolute value of the detected difference is supplied to the correlation determination unit 30.

ここで、絶対値算出部23では、差分の絶対値を算出するのに使った2つの画素位置、即ち注目画素の画素位置と、参照画素の画素位置の内で、注目画素の位置が、画素選別処理部40から指示された、評価値積算から除外される画素位置と一致するか判断する。その判断で、画素選別処理部40から指示された画素位置と一致する場合には、後段の処理部である相関判定部30への差分の絶対値の出力を制限させる。また、このような制限を行わない差分絶対値(即ち全ての差分絶対値)を、画素選別処理部40内の相関判定部45に供給する。
相関判定部30は、比較部31を備えて、設定された閾値と比較し、評価値を得る。評価値としては、例えば差分が閾値以下であるとき相関が高いとし、閾値を越えたとき相関が低いとした2値の値とする。相関判定部30で得られた評価値は、評価値テーブル算出部50に供給する。
Here, in the absolute value calculation unit 23, the position of the target pixel is the pixel position among the two pixel positions used to calculate the absolute value of the difference, that is, the pixel position of the target pixel and the pixel position of the reference pixel. It is determined whether the pixel position instructed from the selection processing unit 40 is excluded from the evaluation value integration. When the pixel position instructed by the pixel selection processing unit 40 matches with the determination, output of the absolute value of the difference to the correlation determination unit 30 which is a subsequent processing unit is limited. In addition, the absolute difference values (that is, all the absolute difference values) that are not subjected to such restriction are supplied to the correlation determination unit 45 in the pixel selection processing unit 40.
The correlation determination unit 30 includes a comparison unit 31 and compares it with a set threshold value to obtain an evaluation value. As the evaluation value, for example, a binary value is assumed in which the correlation is high when the difference is equal to or less than the threshold and the correlation is low when the difference is exceeded. The evaluation value obtained by the correlation determination unit 30 is supplied to the evaluation value table calculation unit 50.

評価値テーブル算出部50に供給された評価値は、評価値テーブル算出部50内の評価値積算部51で積算し、その積算結果を評価値テーブルメモリ52に記憶させる。評価値テーブルメモリ52に記憶される評価値は、画素選別処理部40からの指示に基づいて画素選別が行われた評価値である。このようにして得られた評価値テーブルメモリ52の記憶データは、評価値テーブルデータとして出力端子12aから後段の回路(図1の動きベクトル抽出部13)に供給する。   The evaluation values supplied to the evaluation value table calculation unit 50 are integrated by the evaluation value integration unit 51 in the evaluation value table calculation unit 50, and the integration result is stored in the evaluation value table memory 52. The evaluation value stored in the evaluation value table memory 52 is an evaluation value that has been subjected to pixel selection based on an instruction from the pixel selection processing unit 40. The data stored in the evaluation value table memory 52 thus obtained is supplied as evaluation value table data from the output terminal 12a to the subsequent circuit (motion vector extraction unit 13 in FIG. 1).

次に、画素選別処理部40の構成について説明する。画素選別処理部40は、絶対値算出部23が出力する全ての(即ち選別されていない)差分絶対値を、相関判定部45に供給し、差分絶対値を閾値と比較する。この相関判定部45での処理は、相関判定部30内での処理と同じである。その相関判定部45での判定結果を、高頻度動き算出部41に供給する。この相関判定結果に基づいて、1フレーム内で検出される候補ベクトルの内で、頻度が高い動きを算出する。ここでの頻度が高い動きとしては、例えば最も頻度が高い動きベクトルを算出する。或いは、評価値テーブルを作成する代わりに、各ベクトル位置のカウンタを持って、そのカウント値が最も高いベクトルまで算出するようにしてもよい。
本実施の形態では、最も頻度が高い動きベクトルを取り出すものとして説明するが、2番目まで頻度が高い動きベクトルなどの予め決められた所定順位までの高頻度の動きベクトルを取り出してもよい。2番目までなどの複数の動きベクトルを取り出す場合の処理については後述する。
Next, the configuration of the pixel selection processing unit 40 will be described. The pixel selection processing unit 40 supplies all (that is, not selected) difference absolute values output from the absolute value calculation unit 23 to the correlation determination unit 45, and compares the difference absolute value with a threshold value. The processing in the correlation determination unit 45 is the same as the processing in the correlation determination unit 30. The determination result in the correlation determination unit 45 is supplied to the high-frequency motion calculation unit 41. Based on the correlation determination result, a motion having a high frequency is calculated among candidate vectors detected in one frame. For example, the motion vector having the highest frequency is calculated as the motion having the highest frequency. Alternatively, instead of creating an evaluation value table, it is also possible to have a counter for each vector position and calculate up to the vector with the highest count value.
In the present embodiment, the motion vector having the highest frequency is described as being extracted. However, a high-frequency motion vector having a predetermined order such as a motion vector having the highest frequency may be extracted. Processing for extracting a plurality of motion vectors such as the second one will be described later.

高頻度動き算出部41で算出した頻度が高い動きベクトルのデータは、高頻度動き判定部42に供給する。高頻度動き判定部42では、参照点メモリ21に記憶された参照画素のデータと注目点メモリ22に記憶された注目画素のデータとを見て、注目画素から見て候補となる動きベクトルが、高頻度動きのベクトルと同じか否か判断される。ここでの同じとは、候補となる動きベクトルの注目画素と参照画素を結ぶ距離と方位が、最も頻度が高い動きベクトルの始点と終点とを結ぶ距離と方位と相関が高いということである。
候補となる動きベクトルが、高頻度動きのベクトルと同じ場合には、そのときの注目画素の1フレーム内の画素位置を、選別注目点メモリ43に指示して、該当する画素位置が評価値積算から除外されることを記憶する。従って、1フレーム内の全ての注目画素についての処理が完了すると、選別注目点メモリ43には、高頻度の動きベクトルと相関の高い動きベクトルを持つ注目画素の、1フレーム内での画素位置の情報が記憶される。なお、図3では選別参照点メモリ44を示してあるが、この選別参照点メモリ44を使った例については後述する。
選別注目点メモリ43に記憶された情報は、絶対値算出部23に供給して、差分絶対値の出力の選別に使用する。
The motion vector data having a high frequency calculated by the high-frequency motion calculation unit 41 is supplied to the high-frequency motion determination unit 42. The high-frequency motion determination unit 42 looks at the reference pixel data stored in the reference point memory 21 and the target pixel data stored in the target point memory 22, and the motion vector that is a candidate when viewed from the target pixel is It is determined whether or not it is the same as the high-frequency motion vector. Here, the same means that the distance and direction connecting the target pixel and the reference pixel of the candidate motion vector are highly correlated with the distance and direction connecting the start point and end point of the most frequent motion vector.
If the candidate motion vector is the same as the high-frequency motion vector, the pixel position within one frame of the target pixel at that time is instructed to the selected target point memory 43, and the corresponding pixel position is integrated with the evaluation value. Remember to be excluded from. Therefore, when the processing for all the target pixels in one frame is completed, the selected target point memory 43 stores the pixel positions of the target pixel in one frame of the target pixel having a motion vector highly correlated with the high-frequency motion vector. Information is stored. In FIG. 3, the sorting reference point memory 44 is shown. An example using the sorting reference point memory 44 will be described later.
The information stored in the selected attention point memory 43 is supplied to the absolute value calculation unit 23 and used for selecting the output of the difference absolute value.

なお、高頻度動き算出部41で高頻度動きを算出するフレーム間としては、現在注目画素を設定しているフレームよりも1フレーム前のフレームから、現在処理中の注目画素が存在するフレーム(前フレーム)への動きである。即ち、高頻度動きを算出するフレーム間は、動きベクトルの候補を検出中のフレーム間よりも、1フレーム前のフレーム間としてある。そして、高頻度動き算出部41での算出結果を次のフレームの処理時に高頻度動き判定部42に供給する。
このように、1フレーム前の高頻度動きベクトルを検出するのが、この図3の構成では簡単であるが、現在処理中の注目画素が存在するフレーム(前フレーム)から、参照画素が存在するフレーム(現フレーム)への動きを検出してもよい。この前フレームから現フレームへの動きの場合には、相関演算部20などでタイミングを合わせるための一時記憶用のメモリ(図示せず)が必要になる。
Note that the frame between which the high-frequency motion calculation unit 41 calculates the high-frequency motion includes a frame in which the pixel of interest currently being processed exists from the frame one frame before the frame where the pixel of interest is currently set (the previous frame). Frame). That is, the frame between which the high-frequency motion is calculated is a frame one frame before the frame in which the motion vector candidate is being detected. Then, the calculation result of the high-frequency motion calculation unit 41 is supplied to the high-frequency motion determination unit 42 when the next frame is processed.
In this way, it is easy to detect a high-frequency motion vector one frame before in the configuration of FIG. 3, but there is a reference pixel from a frame (previous frame) in which the pixel of interest currently being processed exists. Motion to the frame (current frame) may be detected. In the case of the movement from the previous frame to the current frame, a memory (not shown) for temporary storage for adjusting the timing by the correlation calculation unit 20 or the like is required.

なお、出力端子12aからは、高頻度動き算出部41で算出された高頻度動きベクトルのデータについても出力させて、動きベクトル抽出部13に供給する。動きベクトル抽出部13では、高頻度動き算出部41で算出された高頻度動きベクトルと、評価値テーブルデータで示された動きベクトルの評価情報とを使って、候補ベクトルを抽出する。動きベクトル抽出部13での処理の例については後述する。   From the output terminal 12a, the high-frequency motion vector data calculated by the high-frequency motion calculation unit 41 is also output and supplied to the motion vector extraction unit 13. The motion vector extraction unit 13 extracts candidate vectors using the high-frequency motion vector calculated by the high-frequency motion calculation unit 41 and the motion vector evaluation information indicated by the evaluation value table data. An example of processing in the motion vector extraction unit 13 will be described later.

[4.第1の実施の形態の処理例(例1)]
図3の構成での処理動作を示したのが、図4のフローチャートである。
この図4のフローチャートは、評価値テーブルへの足し込みを行うか否かが決定するまでのプロセスの例を順に示したものであり、必ずしも図3の構成での信号の流れとは一致していない。図4のフローチャートに示した各処理が行われれば、図4のフローチャートとは異なる順序で各処理を実行してもよい。後述説明する他のフローチャートについても、異なる順序で処理される場合がある点は同様である。
[4. Processing Example of First Embodiment (Example 1)]
The flowchart of FIG. 4 shows the processing operation in the configuration of FIG.
The flowchart in FIG. 4 shows an example of the process up to the determination of whether or not to add to the evaluation value table in order, and does not necessarily match the signal flow in the configuration in FIG. Absent. If each process shown in the flowchart of FIG. 4 is performed, each process may be executed in a different order from the flowchart of FIG. The same applies to other flowcharts described later in that they may be processed in different orders.

まず、高頻度動き算出部41で高頻度の動きベクトルを算出する(ステップS21)。ここで算出する高頻度動きベクトルとしては、先に説明したように最頻度動き1つだけの場合と、頻度が高い順に所定番目である場合とがある。図3のフローチャートでは、n番目(nは正の整数)までの高頻度動きを求めるものして示し、n=1のとき最頻度動きを使うものとし、n=2などの2以上の値であるとき、その値までの順位の高頻度動きを使うものとする。また、この高頻度の動きベクトルは、高頻度動きを算出するフレーム間は、動きベクトルの候補を検出中のフレーム間よりも、1フレーム前のフレーム間で検出したものである。   First, the high-frequency motion calculation unit 41 calculates a high-frequency motion vector (step S21). As the high-frequency motion vector calculated here, there are a case where there is only one most frequent motion as described above, and a case where the frequency vector is predetermined in order of frequency. In the flowchart of FIG. 3, high frequency motions up to the nth (n is a positive integer) are obtained and shown, and when n = 1, the most frequent motion is used, and n = 2 or more values such as n = 2. At some point, we will use the high-frequency movement of the rank up to that value. Further, this high-frequency motion vector is detected between frames in which high-frequency motion is calculated, between frames one frame before the frame where the motion vector candidate is being detected.

ステップS21で高頻度の動きベクトルを算出すると、高頻度動き判定部42で、現在の注目画素が、n番目までの高頻度動きと関係しているか否か判断し、選別注目点メモリ43を使って、画素選別を行う(ステップS22)。ここでの高頻度動きと関係しているとは、注目点から見て候補となる動きベクトルが、高頻度動きのベクトルと同じか否か判断することにより行われる。高頻度動きのベクトルと同じである場合には、その注目画素に関係した評価値、即ちその注目画素を始点とした動きベクトルの評価値を、全て評価値の積算から除外させる。   When the high-frequency motion vector is calculated in step S21, the high-frequency motion determination unit 42 determines whether or not the current target pixel is related to the n-th high-frequency motion, and uses the selected target point memory 43. Then, pixel selection is performed (step S22). The relation to the high-frequency motion here is performed by determining whether or not the motion vector that is a candidate when viewed from the point of interest is the same as the vector of the high-frequency motion. If it is the same as the vector of the high-frequency motion, all the evaluation values related to the target pixel, that is, the evaluation values of the motion vector starting from the target pixel are excluded from the integration of the evaluation values.

そして、高頻度動きに基づいた選別処理の後に、比較部31で注目画素と参照画素との相関の有無を判断する(ステップS23)。この注目画素と参照画素との相関の有無の判断は、比較部31で両画素の差分が閾値以下か否か判断することで行われる。   Then, after the selection process based on the high-frequency motion, the comparison unit 31 determines whether or not there is a correlation between the pixel of interest and the reference pixel (step S23). The determination of whether or not there is a correlation between the target pixel and the reference pixel is performed by determining whether or not the difference between the two pixels is equal to or less than a threshold value by the comparison unit 31.

ステップS23で両画素の差分が閾値以下であると判断した場合には、そのときの注目画から見た参照画素への動きベクトルについてのカウント値を、評価値テーブル積算部51に送り、評価値テーブルに積算させる(ステップS24)。
ステップS23で注目画素と参照画素との相関がないと判断した場合には、該当する注目画素と参照画素との評価値の評価値テーブルへの足し込みを禁止する(ステップS25)。
この図4のフローチャートの処理が、1フレーム内の全ての注目画素について行われる。
If it is determined in step S23 that the difference between the two pixels is equal to or smaller than the threshold value, the count value for the motion vector to the reference pixel viewed from the target image at that time is sent to the evaluation value table integrating unit 51, and the evaluation value The table is integrated (step S24).
If it is determined in step S23 that there is no correlation between the target pixel and the reference pixel, addition of evaluation values of the target pixel and the reference pixel to the evaluation value table is prohibited (step S25).
The process of the flowchart of FIG. 4 is performed for all the target pixels in one frame.

[5.注目画素と高頻度動きとの関係の説明]
ここで、高頻度動きと、注目画素とに関係がある状態の例を、図6を参照して説明する。
図6は、注目画素が存在するタイミング(t)の前フレームF10と、参照画素が設定されるタイミング(t+1)の現フレームF11と、前フレームF10の1フレーム前のタイミング(t−1)の前々フレームF9の3つのフレームを示している。この例では、高頻度動き(最頻度動き)の検出を、1フレーム前に行った例である。
[5. Explanation of relationship between pixel of interest and high-frequency movement]
Here, an example of a state related to the high-frequency motion and the target pixel will be described with reference to FIG.
FIG. 6 illustrates the previous frame F10 at the timing (t) at which the target pixel exists, the current frame F11 at the timing (t + 1) at which the reference pixel is set, and the timing (t-1) one frame before the previous frame F10. Three frames of the frame F9 are shown. In this example, detection of high-frequency motion (most frequent motion) is performed one frame before.

タイミング(t−1)の前々フレームF9と、タイミング(t)の前フレームF10との間での高頻度動きが動きベクトルm′であるとする。このとき、タイミング(t)の前フレームF10の注目画素と、現フレームF11の参照画素とで決まる動きベクトルmが、注目画素から見た動き先の候補である可能性が高いとする。高頻度動きの動きベクトルm′と、注目画素d10からの候補ベクトルmとは、同じ動きベクトルである。ここでの同じとは動きベクトルの動き方向と、水平方向に動いた画素数及び垂直方向に動いた画素数が全く同じ場合である。   It is assumed that the high-frequency motion between the frame F9 before the timing (t−1) and the previous frame F10 at the timing (t) is the motion vector m ′. At this time, it is assumed that the motion vector m determined by the target pixel of the previous frame F10 at the timing (t) and the reference pixel of the current frame F11 is highly likely to be a motion destination candidate viewed from the target pixel. The motion vector m ′ of the high-frequency motion and the candidate vector m from the target pixel d10 are the same motion vector. Here, the same is the case where the motion direction of the motion vector is exactly the same as the number of pixels moved in the horizontal direction and the number of pixels moved in the vertical direction.

このような場合には、注目画素に関わる全ての評価値、即ち該当する注目画素を始点とした全てのベクトルの評価値の、評価値テーブルへの積算を禁止させる選別除去処理を行う。そして、注目画素から見た動き先の候補である可能性が高いベクトルが、高頻度動きベクトルm′と異なったベクトルである場合には、その注目画素に関わる評価値の評価値テーブルへの積算制限を行わない。   In such a case, a selective removal process is performed to prohibit the integration of all evaluation values related to the target pixel, that is, the evaluation values of all vectors starting from the target pixel of interest into the evaluation value table. When a vector that is highly likely to be a motion destination candidate viewed from the target pixel is a vector different from the high-frequency motion vector m ′, the evaluation value related to the target pixel is integrated into the evaluation value table. Do not limit.

[6.評価値テーブルの例]
次に、実際の画像の動き状態と、その動き状態に基づいて得られる評価値テーブルの例について説明する。
図7は、タイミング(t−1)の前々フレームF9、タイミング(t)の前フレームF10、タイミング(t+1)の現フレームF11の3つのフレームの画像の例である。
この例では、3つのフレームのいずれでも、画面中の背景全体が下側にほぼ一定の速度で下側に下がる動きMaがあるとする。この状態で、画面中の小物体Xが、動きMaとは異なる斜め下への動きm1で、1フレームずつ動いているとする。
[6. Example of evaluation value table]
Next, an example of an actual image motion state and an evaluation value table obtained based on the motion state will be described.
FIG. 7 is an example of an image of three frames: a frame F9 before the timing (t−1), a previous frame F10 at the timing (t), and a current frame F11 at the timing (t + 1).
In this example, it is assumed that in any of the three frames, there is a movement Ma in which the entire background in the screen is lowered downward at a substantially constant speed. In this state, it is assumed that the small object X in the screen moves one frame at a time with an obliquely downward movement m1 different from the movement Ma.

この図7に示した動きがある画像で、前フレームF10上の注目画素と、現フレームF11上の参照画素との相関から求めた、選別なしの評価値テーブルは、図8に示す状態となる。即ち、図8に示す評価値テーブルは、本実施の形態の選別除去処理をしない評価値テーブルで、従来例で求まる評価値テーブルに相当する。
この評価値テーブルは、中心の座標位置(0,0)からの水平方向Vxと垂直方向Vyの2次元での各動きベクトルの位置での、評価値の積算値を示したものである。縦軸が評価値の積算値である。即ち、度数100000ということは、該当する動きベクトルが候補の可能性となることが、1フレーム中の全ての画素を注目画素として判断して、100000回あったことになる。この図8から判るように、選別除去処理なしの評価値テーブルの場合には、背景動きに相当する動きベクトルの位置に大きなピークがあり、画像中の他の動きは評価値テーブルからは判らない状態となっている。
The evaluation value table without selection obtained from the correlation between the target pixel on the previous frame F10 and the reference pixel on the current frame F11 in the image having the movement shown in FIG. 7 is in the state shown in FIG. . That is, the evaluation value table shown in FIG. 8 is an evaluation value table that is not subjected to the selective removal process of the present embodiment, and corresponds to the evaluation value table obtained in the conventional example.
This evaluation value table shows an integrated value of evaluation values at the position of each motion vector in two dimensions in the horizontal direction Vx and the vertical direction Vy from the central coordinate position (0, 0). The vertical axis is the integrated value of evaluation values. In other words, the frequency of 100,000 means that the corresponding motion vector becomes a candidate, and all pixels in one frame are judged as pixels of interest, and have been 100,000 times. As can be seen from FIG. 8, in the case of the evaluation value table without the selection and removal process, there is a large peak in the position of the motion vector corresponding to the background motion, and other motions in the image cannot be determined from the evaluation value table. It is in a state.

図9は、本実施の形態の処理を行って評価値テーブルを作成させた例である。
図9(a)は、高頻度動き算出部41で算出される高頻度動きに基づいた評価値テーブルである。この評価値テーブルは、図7に示した前フレームF10と現フレームF11との間で求める場合と、前々フレームF9と前フレームF10との間で求める場合のいずれでもよい。連続した動画像の場合には、高頻度動きについては、いずれの場合でも大きな違いは生じない。
この図9(a)に示した高頻度動き算出部41で算出される評価値テーブルは、図8に示した選別なしの従来処理で得られる評価値テーブルと同じである。
この図9(a)の評価値テーブル積算部に基づいて、高頻度動き(最頻度動き)が検出される。この例では、下方への背景動きが高頻度動きとして1つ検出されている。
FIG. 9 is an example in which an evaluation value table is created by performing the processing of the present embodiment.
FIG. 9A is an evaluation value table based on the high-frequency motion calculated by the high-frequency motion calculation unit 41. This evaluation value table may be obtained either between the previous frame F10 and the current frame F11 shown in FIG. 7 or between the previous frame F9 and the previous frame F10. In the case of continuous moving images, there is no significant difference between the high-frequency motions in any case.
The evaluation value table calculated by the high-frequency motion calculation unit 41 shown in FIG. 9A is the same as the evaluation value table obtained by the conventional process without selection shown in FIG.
Based on the evaluation value table integration unit in FIG. 9A, a high-frequency motion (most frequent motion) is detected. In this example, one downward background movement is detected as a high-frequency movement.

このようにして検出された高頻度動きの動きベクトルと相関のある注目画素に関わる評価値を選別除去する処理を行って、評価値テーブル算出部52で得られた評価値テーブルが、図9(b)に示したものである。なお、この図9(b)は、図9(a)の評価値テーブルと縦軸の積算値のスケールが異なり、ピーク位置でも度数1000程度である。   The evaluation value table obtained by the evaluation value table calculation unit 52 by performing the process of selecting and removing the evaluation value related to the target pixel correlated with the motion vector of the high-frequency motion detected as described above is shown in FIG. It is shown in b). 9B is different from the evaluation value table of FIG. 9A in the scale of the integrated value on the vertical axis, and the frequency is about 1000 at the peak position.

この図9(b)の評価値テーブルでは、図7に示した小物体Xの動きがピークの1つとして現われている。従って、積算値のピークから、小物体Xの動きに相当する動きベクトルを、候補ベクトルとして後段の処理部に送ることができる。
なお、図9(b)では、積算値のピーク位置として、小物体Xの動き位置とは別の位置にも存在するが、この別のピーク位置は背景動きに対応した動きである。
In the evaluation value table of FIG. 9B, the movement of the small object X shown in FIG. 7 appears as one of the peaks. Therefore, a motion vector corresponding to the motion of the small object X can be sent as a candidate vector to the subsequent processing unit from the peak of the integrated value.
In FIG. 9B, the peak position of the integrated value also exists at a position different from the movement position of the small object X, but this other peak position is a movement corresponding to the background movement.

このように本実施の形態によると、背景動きなどの画面中の大領域の動きがあった場合でも、画面中の小さな動きについても検出できるようになる。従って、後段の処理部で候補ベクトルの中から各画素に割り当てる動きベクトルを決定する際に、小さな動きの物体に割り当てるベクトルが正しい動きベクトルになる可能性が高くなり、正確な動きベクトル検出が可能となる。なお、図9(b)の例では、背景と異なる動きをする小物体が1つの例について示したが、複数の小物体が存在する場合にも、同様に複数の小物体の動きを良好に検出できるようになる。   As described above, according to the present embodiment, even when there is a movement of a large area in the screen such as a background movement, a small movement in the screen can be detected. Therefore, when determining the motion vector to be assigned to each pixel from the candidate vectors in the subsequent processing unit, the vector assigned to the small motion object is likely to be a correct motion vector, and accurate motion vector detection is possible. It becomes. In the example of FIG. 9B, an example of a small object that moves differently from the background is shown. However, even when there are a plurality of small objects, the movement of the plurality of small objects is improved similarly. Can be detected.

[7.第1の実施の形態の構成例(例2)]
図3及び図4の処理構成では、相関演算部20で得た差分絶対値の後段の処理部への出力の制限で、評価値の選別除去を行うようにした。これに対して、相関判定部30の出力を制限するゲート部を設けて、そのゲート部で評価値の選別除去を行うようにした例について説明する。
図10はその場合の構成例について示した図である。図10において、図3と同一部分については同一符号を付してある。
[7. Configuration Example of First Embodiment (Example 2)]
In the processing configurations of FIGS. 3 and 4, the evaluation value is selectively removed by limiting the output to the subsequent processing unit of the absolute difference value obtained by the correlation calculation unit 20. On the other hand, an example will be described in which a gate unit for limiting the output of the correlation determination unit 30 is provided, and evaluation values are selectively removed by the gate unit.
FIG. 10 is a diagram showing a configuration example in that case. In FIG. 10, the same parts as those in FIG.

図10の構成について説明すると、相関判定部30内の比較部31で閾値と比較して、相関の高低を判定した評価値は、画像選別処理部60内の一時記憶メモリ61に供給して、一旦蓄積する。そして、1フレーム内の全ての評価値が一時記憶メモリ61に蓄積されてから、読出されてゲート部62に供給する。ゲート部62では、高頻度動き判定部64で判定した高頻度動きに関係した注目画素に関わる画素の評価値であるとき、出力を制限させる。高頻度動きに関係した注目画素に関係しない評価値である場合には、そのままゲート部62を通過させて、評価値テーブル算出部50の評価値積算部51で積算し、その積算結果を評価値テーブルメモリ52に記憶させる。   Referring to the configuration of FIG. 10, the evaluation value determined by the comparison unit 31 in the correlation determination unit 30 as compared with the threshold value is used to supply the temporary storage memory 61 in the image selection processing unit 60. Accumulate once. All evaluation values in one frame are accumulated in the temporary storage memory 61 and then read out and supplied to the gate unit 62. The gate unit 62 restricts the output when the evaluation value of the pixel is related to the target pixel related to the high-frequency motion determined by the high-frequency motion determination unit 64. When the evaluation value is not related to the pixel of interest related to the high-frequency motion, the evaluation value integration unit 51 of the evaluation value table calculation unit 50 passes through the gate unit 62 as it is, and the integration result is evaluated. It is stored in the table memory 52.

また、比較部31が出力する評価値を、画像選別処理部60内の高頻度動き算出部63に供給する。高頻度動き算出部63では、その評価値を1フレーム内で積算して、1フレーム内で検出される候補ベクトルの内で、頻度が高い動きを算出する。ここでの頻度が高い動きとしては、最も頻度が高い動きベクトルを算出する。或いは、2番目まで頻度が高い動きベクトルなどの予め決められた所定順位までの高頻度の動きベクトルを取り出してもよい。   In addition, the evaluation value output from the comparison unit 31 is supplied to the high-frequency motion calculation unit 63 in the image selection processing unit 60. The high-frequency motion calculation unit 63 integrates the evaluation values within one frame, and calculates a motion with a high frequency among candidate vectors detected within one frame. As the motion with high frequency here, the motion vector with the highest frequency is calculated. Alternatively, high-frequency motion vectors up to a predetermined order, such as motion vectors having the highest frequency up to the second, may be extracted.

高頻度動き算出部63で算出した頻度が高い動きベクトルのデータは、高頻度動き判定部64に供給する。高頻度動き判定部64では、参照点メモリ21に記憶された参照画素のデータと注目点メモリ22に記憶された注目画素のデータとを見て、注目点から見て候補となる動きベクトルが、高頻度動きのベクトルと同じか否か判断される。
候補となる動きベクトルが、高頻度動きのベクトルと同じ場合には、そのときの注目画素に関わる評価値について、ゲート部62で通過を制限させる。ゲート部62の前段には一時記憶メモリ61があり、高頻度動き判定部64での判定が終了してから、一時記憶メモリ61の出力をゲート部62に供給する。ゲート部62では、制限する必要のある注目画素に関わる評価値を出力させず、制限させる必要のない評価値を、評価値積算部51に供給する。この制限を行う必要がある評価値かどうかを判断するために、後述する図11のフローチャートで説明するように、本実施の形態においては、フラグを設定するようにしてある。評価値積算部51以降の処理は、図3の例と同じである。
The motion vector data having a high frequency calculated by the high-frequency motion calculation unit 63 is supplied to the high-frequency motion determination unit 64. The high-frequency motion determination unit 64 looks at the reference pixel data stored in the reference point memory 21 and the target pixel data stored in the target point memory 22, and the motion vector that is a candidate when viewed from the target point is It is determined whether or not it is the same as the high-frequency motion vector.
If the candidate motion vector is the same as the high-frequency motion vector, the gate unit 62 restricts passage of the evaluation value related to the target pixel at that time. There is a temporary storage memory 61 in front of the gate unit 62, and the output of the temporary storage memory 61 is supplied to the gate unit 62 after the determination by the high-frequency motion determination unit 64 is completed. The gate unit 62 does not output the evaluation value related to the target pixel that needs to be limited, and supplies the evaluation value integration unit 51 with the evaluation value that does not need to be limited. In order to determine whether the evaluation value needs to be restricted, a flag is set in the present embodiment, as will be described later with reference to the flowchart of FIG. The processing after the evaluation value integrating unit 51 is the same as the example of FIG.

[8.第1の実施の形態の処理例(注目画素と高頻度動きを考慮した場合の例2)]
次に、図10の構成での処理例を、図11のフローチャートを参照して説明する。
まず、高頻度動き算出部63で高頻度の動きベクトルを算出する(ステップS51)。ここで算出する高頻度動きベクトルとしては、先に説明したように最頻度動き1つだけの場合と、頻度が高い順に所定番目である場合とがある。図11のフローチャートでは、n番目(nは正の整数)までの高頻度動きを求めるものして示し、n=1のとき最頻度動きを使うものとし、n=2などの2以上の値であるとき、その値までの順位の高頻度動きを使うものとする。
[8. Processing Example of First Embodiment (Example 2 in Considering Pixel of Interest and High Frequency Motion)]
Next, a processing example with the configuration of FIG. 10 will be described with reference to the flowchart of FIG.
First, the high-frequency motion calculation unit 63 calculates a high-frequency motion vector (step S51). As the high-frequency motion vector calculated here, there are a case where there is only one most frequent motion as described above, and a case where the frequency vector is predetermined in order of frequency. In the flowchart of FIG. 11, high frequency motions up to the nth (n is a positive integer) are obtained and shown, and when n = 1, the most frequent motion is used, and n = 2 or more values such as n = 2. At some point, we will use the high-frequency movement of the rank up to that value.

ステップS51で高頻度の動きベクトルを算出すると、現在処理中のフレーム内に注目画素の位置を設定し、(ステップS52)、フラグを0にする(ステップS53)。その後、注目画素を中心としたサーチエリアSA(図5参照)内に参照画素を設定し(ステップS54)。そして、注目画素が、n番目までの高頻度動きと関係した動きベクトルの注目画素と同じ画素位置であるか否か判断し(ステップS55)、同じ画素位置である場合には、フラグを1とする(ステップS56)。   When the high-frequency motion vector is calculated in step S51, the position of the target pixel is set in the currently processed frame (step S52), and the flag is set to 0 (step S53). Thereafter, a reference pixel is set in the search area SA (see FIG. 5) centering on the pixel of interest (step S54). Then, it is determined whether or not the target pixel is at the same pixel position as the target pixel of the motion vector related to the n-th high-frequency motion (step S55). (Step S56).

そして、注目画素と参照画素とに相関があるか否か判断し(ステップS57)、相関がある場合、即ち画素値が閾値以下である場合には、一時記憶メモリ61への足し込みを行う(ステップS58)。画素値が閾値を越えたときには、一時記憶メモリ61には記憶させない。
その後、サーチエリアSA内の全ての参照画素についての処理が終了したか否か判断し(ステップS59)、全ての参照画素の処理が終了していない場合には、ステップS54に戻り、サーチエリアSA内の別の位置に参照画素を設定して、同じ処理を繰り返す。
ステップS59で、全ての参照画素の処理が終了したと判断した場合には、一時記憶メモリ61に記憶されたデータを、ゲート部62に供給し、フラグに基づいて通過を制限させる。即ち、フラグが1であるか否か判断して(ステップS60)、フラグが1である場合には、通過を制限させ、フラグが0である場合には、評価値テーブルメモリ52に記憶させる(ステップS61)。
Then, it is determined whether or not there is a correlation between the target pixel and the reference pixel (step S57). If there is a correlation, that is, if the pixel value is equal to or less than the threshold value, addition to the temporary storage memory 61 is performed ( Step S58). When the pixel value exceeds the threshold value, it is not stored in the temporary storage memory 61.
Thereafter, it is determined whether or not the processing for all the reference pixels in the search area SA has been completed (step S59), and if the processing for all the reference pixels has not been completed, the process returns to step S54 to search for the search area SA. The reference pixel is set at another position in the and the same process is repeated.
If it is determined in step S59 that all the reference pixels have been processed, the data stored in the temporary storage memory 61 is supplied to the gate unit 62, and the passage is restricted based on the flag. That is, it is determined whether or not the flag is 1 (step S60). When the flag is 1, the passage is restricted, and when the flag is 0, the flag is stored in the evaluation value table memory 52 ( Step S61).

その後、1フレームの全ての注目画素についての処理が終了したか否か判断し(ステップS62)、終了していない場合には、ステップS52の注目画素位置の設定に戻り、その新たに設定された注目画素についての処理が繰り返される。1フレームの全ての注目画素についての処理が終了した場合には、ここでのフレームでの処理を終了し、次のフレームの処理に移る。
この図11のフローチャートに示すように、フラグを設定して順に処理を行う処理構成としたことでも、図3及び図4の処理構成の場合と同様に、高頻度動きに関係した注目画素の制限が行える。
Thereafter, it is determined whether or not the processing for all the target pixels of one frame has been completed (step S62). If not, the process returns to the setting of the target pixel position in step S52, and the newly set The process for the pixel of interest is repeated. When the process for all the target pixels in one frame is completed, the process in this frame is terminated and the process proceeds to the next frame.
As shown in the flowchart of FIG. 11, even when the processing configuration is such that the processing is performed in order by setting the flag, as in the case of the processing configurations of FIGS. 3 and 4, the pixel of interest related to the high-frequency motion is limited. Can be done.

[9.第1の実施の形態の他の処理例]
図4のフローチャートの処理例では、検出された高頻度動きと相関のある注目画素に関する評価値を選別除去するようにしたが、検出された高頻度動きと相関のある参照画素に関する評価値についても選別除去しても良い。
参照画素について高頻度動きと相関のある参照画素に関する評価値を選別除去する処理は、注目画素の場合と同様に、図3に示した画素選別部40での高頻度動き算出部41で算出された結果に基づき、高頻度動き判定部42で判定して行う。そして、その判定に基づいて、該当する参照画素の画素位置の情報を、図3に示したように、選別参照点メモリ44に指示して、該当する画素位置が評価値積算から除外されることを記憶させる。その選別参照点メモリ44に記憶された情報を使って、絶対値算出部23から相関判定部30への差分の絶対値の出力を制限させる。選別注目点メモリ43に記憶された注目画素の位置情報についても、図3の例と同様に使用されて、絶対値算出部23から相関判定部30への差分の絶対値の出力の制限に使用される。
図12のフローチャートは、この場合の処理例を示したものである。この図12のフローチャートの場合にも、フローチャート内の各処理は、図12のフローチャートとは異なる順序で実行してもよい。
[9. Other processing example of first embodiment]
In the processing example of the flowchart in FIG. 4, the evaluation value related to the pixel of interest correlated with the detected high-frequency motion is selected and removed. However, the evaluation value regarding the reference pixel correlated with the detected high-frequency motion is also selected. It may be removed by sorting.
The process of selecting and removing the evaluation value related to the reference pixel having a correlation with the high-frequency motion for the reference pixel is calculated by the high-frequency motion calculating unit 41 in the pixel selecting unit 40 shown in FIG. Based on the result, the high-frequency motion determination unit 42 performs the determination. Based on the determination, information on the pixel position of the corresponding reference pixel is instructed to the selection reference point memory 44 as shown in FIG. 3, and the corresponding pixel position is excluded from the evaluation value integration. Remember. The information stored in the selection reference point memory 44 is used to limit the output of the absolute value of the difference from the absolute value calculation unit 23 to the correlation determination unit 30. The position information of the target pixel stored in the selected target point memory 43 is also used in the same manner as in the example of FIG. 3 and used to limit the output of the absolute value of the difference from the absolute value calculation unit 23 to the correlation determination unit 30. Is done.
The flowchart in FIG. 12 shows a processing example in this case. Also in the flowchart of FIG. 12, the processes in the flowchart may be executed in a different order from the flowchart of FIG.

まず、高頻度動き算出部41で高頻度の動きベクトルを算出する(ステップS31)。ここで算出する高頻度動きベクトルとしては、最頻度動き1つだけの場合と、頻度が高い順に所定番目である場合とがある。図12のフローチャートでは、n番目(nは正の整数)までの高頻度動きを求めるものして示し、n=1のとき最頻度動きを使うものとし、n=2などの2以上の値であるとき、その値までの順位の高頻度動きを使うものとする。   First, the high-frequency motion calculation unit 41 calculates a high-frequency motion vector (step S31). As the high-frequency motion vector calculated here, there are a case where there is only one most frequent motion and a case where it is a predetermined number in the descending order of frequency. In the flowchart of FIG. 12, high frequency motions up to the nth (n is a positive integer) are obtained and shown, and when n = 1, the most frequent motion is used, and a value of 2 or more such as n = 2. At some point, we will use the high-frequency movement of the rank up to that value.

ステップS31で高頻度の動きベクトルを算出すると、高頻度動き判定部42で、現在の注目画素が、n番目までの高頻度動きと関係しているか否か判断し、選別注目点メモリ43を使って、画素選別を行う(ステップS32)。この画素選別は、先に説明した図4のフローチャートのステップS22と同じである。
次に、高頻度動き判定部42で、現在の参照画素が、n番目までの高頻度動きと関係しているか否か判断し、選別参照点メモリ44を使って、画素選別を行う(ステップS33)。
When the high-frequency motion vector is calculated in step S31, the high-frequency motion determination unit 42 determines whether or not the current pixel of interest is related to the n-th high-frequency motion, and uses the selected target point memory 43. Then, pixel selection is performed (step S32). This pixel selection is the same as step S22 in the flowchart of FIG. 4 described above.
Next, the high-frequency motion determination unit 42 determines whether or not the current reference pixel is related to the n-th high-frequency motion, and performs pixel selection using the selection reference point memory 44 (step S33). ).

そして、この高頻度動きに基づいた選別処理の後に、比較部31で注目画素と参照画素との相関の有無を判断する(ステップS34)。この注目画素と参照画素との相関の有無の判断は、比較部31で両画素の差分が閾値以下か否か判断することで行われる。   Then, after the selection process based on the high-frequency movement, the comparison unit 31 determines whether or not there is a correlation between the target pixel and the reference pixel (step S34). The determination of whether or not there is a correlation between the target pixel and the reference pixel is performed by determining whether or not the difference between the two pixels is equal to or less than a threshold value by the comparison unit 31.

ステップS34で両画素の差分が閾値以下であると判断した場合には、そのときの注目画から見た参照画素への動きベクトルについてのカウント値を、評価値テーブル積算部51に送り、評価値テーブルに積算させる(ステップS35)。
ステップS34で注目画素と参照画素との相関がないと判断した場合には、該当する注目画素と参照画素との評価値の評価値テーブルへの足し込みを禁止する(ステップS36)。
この図4のフローチャートの処理が、1フレーム内の全ての注目画素について行われる。
If it is determined in step S34 that the difference between the two pixels is equal to or smaller than the threshold value, the count value for the motion vector to the reference pixel viewed from the target image at that time is sent to the evaluation value table integrating unit 51, and the evaluation value The table is integrated (step S35).
If it is determined in step S34 that there is no correlation between the target pixel and the reference pixel, addition of evaluation values of the target pixel and the reference pixel to the evaluation value table is prohibited (step S36).
The process of the flowchart of FIG. 4 is performed for all the target pixels in one frame.

[10.参照画素と高頻度動きとの関係の説明]
ここで、高頻度動きと、参照画素とに関係がある状態の例を、図13を参照して説明する。
図13は、参照画素が設定されるタイミング(t+1)の現フレームF11と、タイミング(t)の前フレームF10との2フレームを示している。
[10. Explanation of relationship between reference pixel and high-frequency motion]
Here, an example of a state related to the high-frequency motion and the reference pixel will be described with reference to FIG.
FIG. 13 shows two frames, the current frame F11 at the timing (t + 1) when the reference pixel is set and the previous frame F10 at the timing (t).

ここで、現フレームF11に設定された参照画素について、その参照画素についての動きベクトルの動き元の注目画素を判断する。そして、その参照画素から注目画素を見た動きと逆方向の動きが、動きベクトルの候補となる場合に、その動きベクトルが、前フレームF10での高頻度動きと一致するか否か判断する。この判断が図12のフローチャートのステップS33で行われて、高頻度動きと一致した場合に、該当する参照画素の画素位置を参照画素とした全ての評価値の評価値テーブルへの積算が制限される。
なお、図12のフローチャートの例の場合には、この図13に示した高頻度動きに関係した参照画素に関わる評価値の選別除去の他に、既に図6に示した高頻度動きに関係した注目画素に関する評価値の選別除去も行っている。
Here, for the reference pixel set in the current frame F11, the target pixel of the motion vector of the motion vector for the reference pixel is determined. Then, when a motion in the opposite direction to the motion of viewing the target pixel from the reference pixel is a motion vector candidate, it is determined whether or not the motion vector matches the high-frequency motion in the previous frame F10. When this determination is made in step S33 of the flowchart of FIG. 12 and coincides with the high-frequency motion, the integration of all evaluation values into the evaluation value table with the pixel position of the corresponding reference pixel as the reference pixel is limited. The
In the case of the example of the flowchart of FIG. 12, in addition to the selective removal of the evaluation values related to the reference pixels related to the high-frequency motion shown in FIG. 13, the processing related to the high-frequency motion already shown in FIG. The evaluation value relating to the target pixel is also selectively removed.

[11.他の処理例での評価値テーブルの例]
図14は、図12のフローチャートに示した処理の実行で得られた評価値テーブルの例である。この場合の評価値テーブルについても、図7に示した下側へ下がる背景動きがある中で、それとは異なる小物体Xの動きがある場合の例である。
この図14の評価値テーブルを、図9(b)の評価値テーブルと比較すると判るように、注目画素だけでなく、高頻度動きに関係した参照画素についても評価値の選別除去をしたことで、より背景動きを効果的に除去した評価値テーブルとなっている。従って、図12のフローチャートの処理を行うことで、図4のフローチャートの例に比較して、より小物体の動きが良好に評価情報から検出できる効果を有する。このことは、例えば画面中に複数の小物体が存在する場合に、それぞれの小物体の動きをより良好に検出できるようになる効果も有する。
[11. Example of evaluation value table in another processing example]
FIG. 14 is an example of an evaluation value table obtained by executing the processing shown in the flowchart of FIG. The evaluation value table in this case is also an example in the case where there is a movement of the small object X different from the background movement that moves downward as shown in FIG.
As can be seen from the comparison of the evaluation value table of FIG. 14 with the evaluation value table of FIG. 9B, not only the target pixel but also the reference pixel related to the high-frequency motion is selected and removed. This is an evaluation value table that effectively removes background motion. Therefore, by performing the processing of the flowchart of FIG. 12, compared with the example of the flowchart of FIG. 4, there is an effect that the movement of the small object can be detected from the evaluation information better. This also has an effect that, for example, when there are a plurality of small objects on the screen, the movement of each small object can be detected better.

[12.第1の実施の形態の変形例]
図12のフローチャートの例では、注目画素と参照画素の双方で、高頻度動きを考慮した例としたが、参照画素についてだけ、高頻度動きと関係した評価値の選別除去する処理構成としてもよい。即ち、図12のフローチャートのステップS32の処理を行わず、ステップS31で高頻度動きを検出した後に、ステップS33での参照画素と高頻度動きとの関係の判断を行うようにしてもよい。
この参照画素側での判断だけで制限する場合でも、画面中の小物体の動きを良好に検出できるようになる効果を有する。
[12. Modification of First Embodiment]
In the example of the flowchart in FIG. 12, the high-frequency motion is considered in both the target pixel and the reference pixel. However, only the reference pixel may have a processing configuration for selectively removing evaluation values related to the high-frequency motion. . That is, the relationship between the reference pixel and the high-frequency motion may be determined in step S33 after the high-frequency motion is detected in step S31 without performing the processing in step S32 in the flowchart of FIG.
Even in the case of limiting only by judgment on the reference pixel side, there is an effect that the movement of a small object in the screen can be detected well.

また、図4のフローチャートの説明などでも述べたが、画素選別時に判断する高頻度動きは、1フレーム内での最も動きが高い最頻度動き1つだけを検出する処理とする場合と、頻度が高いものから順に所定番目まで検出する処理を行う場合のいずれでもよい。
図9や図14に示した評価値テーブルの例では、最頻度動きだけを検出して、評価値の選別除去を行う例を示したが、画像の内容によっては、頻度の高い複数の動きを検出して選別除去を行う方がよい場合がある。
例えば、頻度が高いもから2番目までや3番目などの複数番目までの高頻度動きを検出して、その検出された高頻度動きと相関のある画素(注目画素及び/又は参照画素)に関わる評価値を選別除去するようにしてもよい。
この何番目までの高頻度動きを検出して選別除去するか(即ち図4のフローチャートのnの値)は、予め固定値としてもよい。或いは、例えば図9(a)に示されるように評価値テーブルで検出される高頻度動きの度数が、一定の閾値以上であるものを全て高頻度動きと判断するようにしてもよい。
また、検出されたフレーム間の最頻度動きの頻度数が、一定の閾値以下で、1画面内の大きな面積での動きがないと判断されるような場合には、ここまで説明した高頻度動きに基づいた選別除去を、実行しないようにしてもよい。
また、処理する画像の内容(例えば動きが激しい画像か否かなど)によって、これらの条件は変化させるようにしてもよい。
As described in the description of the flowchart of FIG. 4 and the like, the high-frequency motion to be determined at the time of pixel selection is a process of detecting only the most frequent motion with the highest motion in one frame, and the frequency is Any of the cases in which processing is performed in order from the highest to the predetermined one may be used.
In the example of the evaluation value table shown in FIG. 9 or FIG. 14, only the most frequent movement is detected and the evaluation value is selectively removed. However, depending on the content of the image, a plurality of high-frequency movements may be displayed. In some cases, it is better to detect and sort out.
For example, high-frequency motion from the highest frequency to the second or third, such as the third, is detected and related to the pixel (target pixel and / or reference pixel) correlated with the detected high-frequency motion. The evaluation value may be selected and removed.
It is good also as a fixed value beforehand how many high frequency motions are detected and removed (that is, the value of n in the flowchart of FIG. 4). Alternatively, for example, as shown in FIG. 9A, all the frequencies of the high frequency motion detected in the evaluation value table may be determined to be the high frequency motion.
Also, if the frequency of the most frequently detected motion between frames is below a certain threshold and it is determined that there is no motion in a large area within one screen, the high frequency motion described so far The sorting and removal based on the above may not be executed.
Further, these conditions may be changed depending on the contents of the image to be processed (for example, whether the image is intensely moving).

[13.第2の実施の形態の構成例]
次に、本発明の第2の実施の形態を、図15〜図21を参照して説明する。
本実施の形態においても、動画像データから動きベクトルを検出する動きベクトル検出装置としたものであり、画素値相関情報より評価値テーブルを形成させて、その評価値テーブルのデータから動きベクトルを判定する点は、第1の実施の形態と同じである。
動きベクトル検出装置の全体構成及び全体処理については、第1の実施の形態で説明した図1の処理構成及び図2のフローチャートと同じである。注目画素(注目点)及び参照画素(参照点)の定義についても、第1の実施の形態で説明した定義と同じである。
[13. Configuration example of second embodiment]
Next, a second embodiment of the present invention will be described with reference to FIGS.
Also in the present embodiment, a motion vector detection device that detects a motion vector from moving image data is formed. An evaluation value table is formed from pixel value correlation information, and a motion vector is determined from the data of the evaluation value table. This is the same as in the first embodiment.
The overall configuration and overall processing of the motion vector detection device are the same as the processing configuration of FIG. 1 and the flowchart of FIG. 2 described in the first embodiment. The definition of the target pixel (target point) and the reference pixel (reference point) is the same as the definition described in the first embodiment.

そして本実施の形態においては、図1に示した動きベクトル検出装置の評価値テーブル形成部12を、図15に示す構成としたものである。図15の評価値テーブル形成部12において、第1の実施の形態で説明した図3の評価値テーブル形成部12と同一部分には同一符号を付す。
図14に示した本実施の形態の例では、評価値テーブル形成部12での評価値テーブルの形成処理として、高頻度動きに対応した評価値の選別除去を行う他に、注目画素と参照画素の空間傾斜パターンを使った評価値の積算制限を行うようにしたものである。
In the present embodiment, the evaluation value table forming unit 12 of the motion vector detecting device shown in FIG. 1 is configured as shown in FIG. In the evaluation value table forming unit 12 of FIG. 15, the same parts as those of the evaluation value table forming unit 12 of FIG. 3 described in the first embodiment are denoted by the same reference numerals.
In the example of the present embodiment illustrated in FIG. 14, as the evaluation value table forming process in the evaluation value table forming unit 12, in addition to performing selective removal of evaluation values corresponding to high-frequency motion, the target pixel and the reference pixel The evaluation value accumulation limitation using the spatial inclination pattern is performed.

図15の例の構成について説明すると、相関演算部20と、相関判定部30については、図3に示した構成と同じである。即ち、入力端子11に得られる画像信号の中で、参照画素として使用されるフレームの画素値を、参照点メモリ21に記憶する。その参照点メモリに記憶されたフレームの信号を、次のフレーム周期に、注目点メモリ22に移す処理が行われる。   15 will be described. The correlation calculation unit 20 and the correlation determination unit 30 are the same as those shown in FIG. That is, the pixel value of the frame used as the reference pixel in the image signal obtained at the input terminal 11 is stored in the reference point memory 21. A process of moving the frame signal stored in the reference point memory to the attention point memory 22 in the next frame period is performed.

そして、注目点メモリ22に記憶された注目画素の画素値と、参照点メモリ21に記憶された参照画素の画素値とを、絶対値算出部23に供給し、両信号の差分の絶対値を検出する。ここでの差分とは、画素信号の輝度値の差分である。検出した絶対値の差分のデータは、相関判定部30に供給する。
ここで、絶対値算出部23では、差分の絶対値を算出するのに使った2つの画素位置、即ち注目画素の画素位置と参照画素の画素位置が、画素選別処理部70の選別注目点メモリ73及び選別参照点メモリ74から指示された画素位置と一致するか否か判断する。ここでの選別参照点メモリ74から指示された画素位置は、評価値積算から除外される画素位置である。その判断で、画素選別処理部70から指示された評価値積算から除外される画素位置と一致する場合には、後段の処理部である相関判定部30への差分の絶対値の出力を制限させる。また、このような制限を行わない差分絶対値(即ち全ての差分絶対値)を、画素選別処理部70内の相関判定部76に供給する。
なお、本実施の形態の例の場合には、選別注目点メモリ73には、図3の例で説明した画素選別用の注目画素の位置のデータの他に、指定された空間傾斜パターンと一致した注目画素であることのデータも記憶される。選別参照点メモリ74についても同様に、画素選別用の注目画素の位置のデータの他に、指定された空間傾斜パターンと一致した注目画素であることのデータも記憶される。指定された空間傾斜パターンについては後述する。
Then, the pixel value of the target pixel stored in the target point memory 22 and the pixel value of the reference pixel stored in the reference point memory 21 are supplied to the absolute value calculation unit 23, and the absolute value of the difference between the two signals is obtained. To detect. The difference here is a difference in luminance value of the pixel signal. The detected absolute value difference data is supplied to the correlation determination unit 30.
Here, in the absolute value calculation unit 23, the two pixel positions used for calculating the absolute value of the difference, that is, the pixel position of the target pixel and the pixel position of the reference pixel are determined by the selection target point memory of the pixel selection processing unit 70. 73 and the pixel position designated by the selection reference point memory 74 is determined. The pixel position instructed from the selection reference point memory 74 here is a pixel position excluded from the evaluation value integration. If it is determined that the pixel position is excluded from the evaluation value integration instructed from the pixel selection processing unit 70, the output of the absolute value of the difference to the correlation determination unit 30 which is a subsequent processing unit is limited. . Further, the absolute difference value (that is, all the absolute difference values) without such restriction is supplied to the correlation determination unit 76 in the pixel selection processing unit 70.
In the case of the example of the present embodiment, the selected attention point memory 73 matches the specified spatial inclination pattern in addition to the data of the position of the attention pixel for pixel selection described in the example of FIG. Data indicating that the target pixel has been selected is also stored. Similarly, in the sorting reference point memory 74, in addition to data on the position of the target pixel for pixel selection, data indicating that the target pixel matches the designated spatial inclination pattern is also stored. The designated spatial inclination pattern will be described later.

相関判定部30は、比較部31を備えて、設定された閾値と比較し、評価値を得る。評価値としては、例えば差分が閾値以下であるとき相関が高いとし、閾値を越えたとき相関が低いとした2値の値とする。相関判定部30で得られた評価値は、評価値テーブル算出部50に供給する。   The correlation determination unit 30 includes a comparison unit 31 and compares it with a set threshold value to obtain an evaluation value. As the evaluation value, for example, a binary value is assumed in which the correlation is high when the difference is equal to or less than the threshold and the correlation is low when the difference is exceeded. The evaluation value obtained by the correlation determination unit 30 is supplied to the evaluation value table calculation unit 50.

評価値テーブル算出部50に供給された評価値は、評価値テーブル算出部50内の評価値積算部51で積算し、その積算結果を評価値テーブルメモリ52に記憶させる。評価値テーブルメモリ52に記憶される評価値は、画素選別処理部40からの指示に基づいて画素選別が行われた評価値である。このようにして得られた評価値テーブルメモリ52の記憶データは、評価値テーブルデータとして出力端子12aから後段の回路(図1の動きベクトル抽出部13)に供給する。   The evaluation values supplied to the evaluation value table calculation unit 50 are integrated by the evaluation value integration unit 51 in the evaluation value table calculation unit 50, and the integration result is stored in the evaluation value table memory 52. The evaluation value stored in the evaluation value table memory 52 is an evaluation value that has been subjected to pixel selection based on an instruction from the pixel selection processing unit 40. The data stored in the evaluation value table memory 52 thus obtained is supplied as evaluation value table data from the output terminal 12a to the subsequent circuit (motion vector extraction unit 13 in FIG. 1).

次に、画素選別処理部70の構成について説明する。画素選別処理部70は、絶対値算出部23が出力する全ての(即ち選別されていない)差分絶対値を、相関判定部76に供給し、差分絶対値を閾値と比較する。この相関判定部76での処理は、相関判定部30内での処理と同じである。その相関判定部76での判定結果を、高頻度動き算出部71に供給する。この相関判定結果に基づいて、1フレーム内で検出される候補ベクトルの内で、頻度が高い動きを算出する。ここでの頻度が高い動きとしては、例えば最も頻度が高い動きベクトルを算出する。   Next, the configuration of the pixel selection processing unit 70 will be described. The pixel selection processing unit 70 supplies all (that is, not selected) difference absolute values output from the absolute value calculation unit 23 to the correlation determination unit 76, and compares the difference absolute values with a threshold value. The process in the correlation determination unit 76 is the same as the process in the correlation determination unit 30. The determination result in the correlation determination unit 76 is supplied to the high-frequency motion calculation unit 71. Based on the correlation determination result, a motion having a high frequency is calculated among candidate vectors detected in one frame. For example, the motion vector having the highest frequency is calculated as the motion having the highest frequency.

高頻度動き算出部71で算出した頻度が高い動きベクトルのデータは、高頻度動き判定部72に供給する。高頻度動き判定部72では、参照点メモリ21に記憶された参照画素のデータと注目点メモリ22に記憶された注目画素のデータとを見て、注目画素から見て候補となる動きベクトルが、高頻度動きのベクトルと同じか否か判断される。
候補となる動きベクトルが、高頻度動きのベクトルと同じ場合には、そのときの注目画素の1フレーム内の画素位置を、選別注目点メモリ73に指示して、該当する画素位置が評価値積算から除外されることを記憶する。
また、候補となる動きベクトルが、高頻度動きのベクトルと同じ場合に、そのときの参照画素の1フレーム内の画素位置を、選別参照点メモリ74に指示して、該当する画素位置が評価値積算から除外されることを記憶する。
Data of a motion vector having a high frequency calculated by the high-frequency motion calculation unit 71 is supplied to the high-frequency motion determination unit 72. The high-frequency motion determination unit 72 looks at the reference pixel data stored in the reference point memory 21 and the target pixel data stored in the target point memory 22, and the motion vector that is a candidate when viewed from the target pixel is It is determined whether or not it is the same as the high-frequency motion vector.
If the candidate motion vector is the same as the high-frequency motion vector, the pixel position within one frame of the target pixel at that time is instructed to the selected target point memory 73, and the corresponding pixel position is integrated with the evaluation value. Remember to be excluded from.
When the candidate motion vector is the same as the high-frequency motion vector, the pixel position within one frame of the reference pixel at that time is instructed to the selection reference point memory 74, and the corresponding pixel position is evaluated. Remember that it is excluded from integration.

また、画素選別処理部70は、空間傾斜パターン判定部75を備える。
空間傾斜パターン判定部75は、参照点メモリ21に得られるデータから、参照画素とその周囲の8画素との空間傾斜パターンを算出する。空間傾斜状態の詳細については後述する。算出した空間傾斜パターンは、予め記憶された指定された空間傾斜パターンと比較され、指定されたパターンと一致するか否か判断する。指定されたパターンの具体例、及びそのパターンの比較についての詳細については後述する。
In addition, the pixel selection processing unit 70 includes a spatial inclination pattern determination unit 75.
The spatial inclination pattern determination unit 75 calculates a spatial inclination pattern of the reference pixel and the surrounding eight pixels from the data obtained in the reference point memory 21. Details of the spatial inclination state will be described later. The calculated spatial inclination pattern is compared with a designated spatial inclination pattern stored in advance, and it is determined whether or not it matches the designated pattern. A specific example of the designated pattern and details of comparison of the pattern will be described later.

そして、空間傾斜パターン判定部75で指定された空間傾斜パターンと、注目画素とその周囲との空間傾斜パターン(又は参照画素とその周囲との空間傾斜パターン)との一致が検出されると、そのことを選別注目点メモリ73に記憶させる。また、空間傾斜パターン判定部75で指定された空間傾斜パターンと、参照画素とその周囲との空間傾斜パターンとの一致が検出されると、そのことを選別参照点メモリ74に記憶させる。   When the coincidence between the spatial gradient pattern designated by the spatial gradient pattern determination unit 75 and the spatial gradient pattern between the target pixel and its surroundings (or the spatial gradient pattern between the reference pixel and its surroundings) is detected, This is stored in the selected attention point memory 73. Further, when a coincidence between the spatial gradient pattern designated by the spatial gradient pattern determination unit 75 and the spatial gradient pattern between the reference pixel and its surroundings is detected, this is stored in the selected reference point memory 74.

本実施の形態の場合には、高頻度動きに基づいた画素選別と、空間傾斜パターンに基づいた制限との2つが行われる。従って、本実施の形態では、第1の実施の形態の場合に比べて、より厳しい条件で、積算される評価値が絞られることになる。   In the case of this embodiment, two types of pixel selection based on high-frequency motion and restriction based on a spatial gradient pattern are performed. Therefore, in the present embodiment, the evaluation values to be integrated are narrowed down under more severe conditions than in the case of the first embodiment.

[14.第2の実施の形態の処理例]
次に、図15の構成での処理状態を、図16のフローチャートを参照して説明する。
この図16のフローチャートの場合にも、フローチャート内の各処理は、図16のフローチャートとは異なる順序で実行してもよい。
[14. Processing Example of Second Embodiment]
Next, the processing state in the configuration of FIG. 15 will be described with reference to the flowchart of FIG.
Also in the flowchart of FIG. 16, the processes in the flowchart may be executed in a different order from the flowchart of FIG.

まず、高頻度動き算出部71で高頻度の動きベクトルを算出する(ステップS41)。ここで算出する高頻度動きベクトルとしては、最頻度動き1つだけの場合と、頻度が高い順に所定番目である場合とのいずれでもよい。図16のフローチャートでは、n番目(nは正の整数)までの高頻度動きを求めるものして示し、n=1のとき最頻度動きを使うものとし、n=2などの2以上の値であるとき、その値までの順位の高頻度動きを使うものとする。   First, the high-frequency motion calculation unit 71 calculates a high-frequency motion vector (step S41). The high-frequency motion vector calculated here may be either the case of only the most frequent motion or the predetermined frequency in the descending order of frequency. In the flowchart of FIG. 16, the high-frequency motion up to the nth (n is a positive integer) is obtained and shown, and when n = 1, the most frequent motion is used, and a value of 2 or more such as n = 2. At some point, we will use the high-frequency movement of the rank up to that value.

ステップS41で高頻度の動きベクトルを算出すると、注目画素と参照画素のそれぞれについて、n番目までの高頻度動きと関係しているかの情報に基づいて、画素選別を行う(ステップS42)。このステップS42は、図12のフローチャートでのステップS32の処理とステップS33の処理を1つにまとめて示したものである。   When the high-frequency motion vector is calculated in step S41, pixel selection is performed based on information regarding whether each of the target pixel and the reference pixel is related to the n-th high-frequency motion (step S42). This step S42 collectively shows the processing of step S32 and the processing of step S33 in the flowchart of FIG.

次に、注目画素及び参照画素とそれぞれの隣接差分から、それぞれの空間傾斜パターンを算出する(ステップS43)。そして、その算出した注目画素側の空間傾斜パターン及び参照画素側の空間傾斜パターンが、それぞれ予め決められた所定の空間傾斜パターンと一致するか否か判断する(ステップS44)。ここで空間傾斜パターンが一致している場合には、ステップS45の処理に移る。空間傾斜パターンが一致していない場合には、ステップS47に移る。   Next, each spatial inclination pattern is calculated from the adjacent difference between the target pixel and the reference pixel (step S43). Then, it is determined whether or not the calculated spatial inclination pattern on the target pixel side and the spatial inclination pattern on the reference pixel side match a predetermined spatial inclination pattern determined in advance (step S44). If the spatial inclination patterns match, the process proceeds to step S45. If the spatial inclination patterns do not match, the process proceeds to step S47.

ステップS45では、注目画素と参照画素との相関の有無を判断する。この注目画素と参照画素との相関の有無の判断は、比較部31で両画素の差分が閾値以下か否か判断することで行われる。   In step S45, it is determined whether or not there is a correlation between the target pixel and the reference pixel. The determination of whether or not there is a correlation between the target pixel and the reference pixel is performed by determining whether or not the difference between the two pixels is equal to or less than a threshold value by the comparison unit 31.

ステップS46で両画素の差分が閾値以下であると判断した場合には、そのときの評価値を、評価値テーブル積算部51に送り、評価値テーブルに積算させる(ステップS46)。
ステップS44で所定の空間傾斜パターンと一致しないと判断した場合と、ステップS45で注目画素と参照画素との相関がないと判断した場合には、該当する評価値が評価値テーブル算出部50に供給されず、評価値テーブルへの足し込みが禁止される。
この図16のフローチャートの処理が、1フレーム内の全ての注目画素と参照画素について行われる。
If it is determined in step S46 that the difference between the two pixels is equal to or less than the threshold value, the evaluation value at that time is sent to the evaluation value table integration unit 51 and integrated in the evaluation value table (step S46).
If it is determined in step S44 that it does not match the predetermined spatial inclination pattern, or if it is determined in step S45 that there is no correlation between the target pixel and the reference pixel, the corresponding evaluation value is supplied to the evaluation value table calculation unit 50. Not added to the evaluation value table.
The process of the flowchart of FIG. 16 is performed for all target pixels and reference pixels in one frame.

[15.空間傾斜パターンの説明]
次に、本実施の形態で適用した注目画素及び参照画素の空間傾斜パターンについて、図17〜図21を参照して説明する。
まず図17を参照して、注目画素と参照画素に隣接する周辺の8画素について示す。図17(a)に示すように、前フレームF10に注目画素d10を設定して、その注目画素d10から次の現フレームF11のサーチエリアSA内のある参照画素d11を見たとき、それぞれの画素d10,d11には、隣接した画素として8画素が存在する。
図17(b)は、この注目画素と参照画素に隣接する周辺の8画素を示したのである。
ここで、注目画素の空間傾斜パターンとは、注目画素と周辺の8つの隣接画素との差分を見て、差分が一定範囲内である場合と、一定範囲を−方向又は+方向に越えている場合とに分ける。ここでの差分とは、例えば該当する画素の輝度値の差分である。差分が一定範囲を−方向又は+方向に越えている場合は、符号−又は+に空間傾斜ありとし、差分が一定範囲内である場合には、空間傾斜状態0(即ち空間傾斜なし)とする。その空間傾斜の有無の状態を周囲の8つの隣接画素で見て、パターン化したものが、空間傾斜パターンである。
[15. Explanation of spatial inclination pattern]
Next, the spatial inclination pattern of the target pixel and the reference pixel applied in the present embodiment will be described with reference to FIGS.
First, referring to FIG. 17, the peripheral pixel adjacent to the target pixel and the reference pixel is shown. As shown in FIG. 17A, when a pixel of interest d10 is set in the previous frame F10 and a certain reference pixel d11 in the search area SA of the next current frame F11 is viewed from the pixel of interest d10, each pixel In d10 and d11, there are 8 pixels as adjacent pixels.
FIG. 17B shows the peripheral pixels adjacent to the target pixel and the reference pixel.
Here, the spatial inclination pattern of the pixel of interest refers to the difference between the pixel of interest and the neighboring eight neighboring pixels, and the difference is within a certain range and exceeds the certain range in the − direction or the + direction. Divide into cases. The difference here is, for example, a difference in luminance value of the corresponding pixel. When the difference exceeds a certain range in the − direction or the + direction, the sign − or + has a spatial inclination, and when the difference is within the certain range, the spatial inclination state is 0 (that is, no spatial inclination). . A spatial inclination pattern is obtained by patterning the presence or absence of the spatial inclination with the surrounding eight adjacent pixels.

図18から図21は、空間傾斜パターンの例を示したものである。
図18はモード1として定義した空間傾斜パターンであり、図19はモード2として定義した空9傾斜パターンであり、図20はモード3として定義した空間傾斜パターンであり、図13はモード4として定義した空間傾斜パターンである。
18 to 21 show examples of spatial inclination patterns.
18 is a spatial gradient pattern defined as mode 1, FIG. 19 is a sky 9 gradient pattern defined as mode 2, FIG. 20 is a spatial gradient pattern defined as mode 3, and FIG. 13 is defined as mode 4. It is a spatial inclination pattern.

図18に示したモード1のパターンは、左上に拡大して示すように、隣接8画素と中央の1画素の9画素のパターンとして、中央の注目画素又は参照画素と、隣接8画素との関係が、全て0以外(即ち符号+又は−)である場合である。この図18は、注目画素や参照画素が、隣接画素と全て輝度値が異なる場合に相当する。
このモード1を図16のフローチャートのステップS44での比較時に設定した場合には、周辺8画素の内の1つでも空間傾斜なしであれば、ゲート部61での評価値の通過が阻止されて、評価値の積算から除外される。
The mode 1 pattern shown in FIG. 18 is a 9 pixel pattern of 8 adjacent pixels and 1 central pixel, as shown in the upper left, and the relationship between the pixel of interest or reference pixel in the center and the adjacent 8 pixels. Are all other than 0 (i.e., the sign + or-). FIG. 18 corresponds to the case where the target pixel and the reference pixel all have different luminance values from the adjacent pixels.
When this mode 1 is set at the time of comparison in step S44 of the flowchart of FIG. 16, if even one of the surrounding 8 pixels has no spatial inclination, the evaluation value is prevented from passing through the gate unit 61. , Excluded from evaluation value accumulation.

図19に示したモード2のパターンは、周辺8画素の内、少なくとも7画素以上に空間傾斜がある場合に、注目画素と参照画素との空間傾斜符号を比較する。そして、一致を検出した場合にだけ、該当する注目画素から参照画素を見た場合の評価値を、ゲート部61で通過させる。そして、その通過した評価値を評価値テーブルに積算させる。
モード2のパターンを使用した場合、空間傾斜の符号比較は周辺8画素で比較する必要はなく、空間傾斜があると判定された7画素について比較すればよい。もちろん周辺8画素について符号を比較することとしても良い。
The mode 2 pattern shown in FIG. 19 compares the spatial inclination codes of the target pixel and the reference pixel when there is a spatial inclination in at least 7 pixels among the surrounding 8 pixels. Only when the coincidence is detected, the evaluation value when the reference pixel is viewed from the corresponding target pixel is passed through the gate unit 61. Then, the passed evaluation value is integrated in the evaluation value table.
When the mode 2 pattern is used, it is not necessary to compare the spatial inclination code with the surrounding 8 pixels, and it is only necessary to compare the 7 pixels determined to have the spatial inclination. Of course, it is good also as comparing a code | symbol about eight surrounding pixels.

図20に示したモード3のパターンは、モード1,モード2の条件に加えて、周辺8画素の内、注目画素又は参照画素を含む2×2の4画素の領域が空間傾斜なしである場合にも、候補に加えて注目画素と参照画素との空間傾斜符号を比較する。そして、その比較で一致を検出した場合にだけ、該当する注目画素から参照画素を見た場合の評価値を、ゲート部61で通過させて積算させる。
この場合においても、空間傾斜ありとされる隣接画素方向に対してのみ符号の比較を行なえばよい。
In the mode 3 pattern shown in FIG. 20, in addition to the conditions of mode 1 and mode 2, a region of 4 × 2 × 2 pixels including the target pixel or reference pixel among the surrounding 8 pixels has no spatial inclination. In addition to the candidates, the spatial gradient codes of the target pixel and the reference pixel are compared. Then, only when a match is detected in the comparison, the evaluation value when the reference pixel is viewed from the corresponding target pixel is passed through the gate unit 61 and integrated.
Even in this case, it is only necessary to compare the signs only in the adjacent pixel direction where there is a spatial inclination.

図21に示したモード4のパターンは、モード1〜3の条件に加えて、周辺8画素の内、注目画素又は参照画素を含む水平,垂直,斜めに3連続画素で空間傾斜がない場合を除外するものである。このようにして注目画素と参照画素との空間傾斜符号を比較する。そして、その比較で一致を検出した場合にだけ、該当する注目画素から参照画素を見た場合の評価値を、積算させる。
この場合においても、空間傾斜ありとされる隣接画素方向に対してのみ符号の比較を行なえばよい。
In the pattern of mode 4 shown in FIG. 21, in addition to the conditions of modes 1 to 3, there are three continuous pixels in the horizontal, vertical, and diagonal directions including the target pixel or reference pixel among the surrounding eight pixels, and there is no spatial inclination. Exclude it. In this way, the spatial gradient codes of the target pixel and the reference pixel are compared. Only when a match is detected by the comparison, the evaluation values when the reference pixel is viewed from the corresponding target pixel are integrated.
Even in this case, it is only necessary to compare the signs only in the adjacent pixel direction where there is a spatial inclination.

上述した図16のフローチャートのステップS44での処理時には、モード1,モード2,モード3,モード4のいずれかのモードを設定する。モード1を設定することで、最も厳しい選定を行うことになり、モード2,モード3,モード4と順に選定基準が緩くなる。   At the time of the processing in step S44 of the flowchart of FIG. 16 described above, one of mode 1, mode 2, mode 3, and mode 4 is set. By setting mode 1, the strictest selection is performed, and the selection criteria are relaxed in order of mode 2, mode 3, and mode 4.

このように、本実施の形態で説明したように、高頻度動きの判断に基づいた評価値テーブルへの積算の制限と、空間傾斜パターンに基づいた評価値テーブルへの積算の制限を合わせて行うことで、より良好な評価値テーブルが得られるようになる。即ち、評価値テーブルの積算値として、第1の実施の形態の場合よりもより絞られた積算値となり、背景などの画像中の大面積の動きとは異なる比較的小さな動きがある場合の検出が、より良好に検出できるようになる。
なお、空間傾斜に基づいた評価値テーブルの積算の制限としては、ここまで説明した空間傾斜パターンを使った処理は一例であり、空間傾斜を用いたその他の制限処理を行うようにしてもよい。例えば、空間傾斜パターンを得るために得た空間傾斜符号そのものを比較して、その符号の注目画素側と参照画素側との一致、不一致に応じて、制限を行うようにしてもよい。その場合、動きのある方向などの制限された方向だけで、空間傾斜符号を比較するようにしてもよい。
In this way, as described in the present embodiment, the limitation of the integration to the evaluation value table based on the determination of the high-frequency motion and the limitation of the integration to the evaluation value table based on the spatial inclination pattern are performed together. As a result, a better evaluation value table can be obtained. In other words, the integrated value of the evaluation value table becomes a more integrated integrated value than in the case of the first embodiment, and detection is performed when there is a relatively small movement different from the large area movement in the image such as the background. Can be detected better.
In addition, as the limitation of the integration of the evaluation value table based on the spatial tilt, the processing using the spatial tilt pattern described so far is an example, and other limiting processing using the spatial tilt may be performed. For example, the spatial inclination codes themselves obtained for obtaining the spatial inclination patterns may be compared, and the restriction may be performed according to the coincidence or mismatch between the target pixel side and the reference pixel side of the code. In that case, the spatial gradient codes may be compared only in a limited direction such as a moving direction.

[16.動きベクトル抽出部の例]
次に、図1の構成に示した動きベクトル検出装置での、動きベクトル抽出部13の構成及び動作の例について、図22〜図23を参照して説明する。
図22は、図1の動きベクトル抽出部13の例を示したものである。
動きベクトル抽出部13では、入力端子13aに、評価値テーブルデータ及び高頻度動きデータが供給される。この評価値テーブルデータは、例えば、既に説明した第1〜第2の実施の形態のいずれかの処理構成で得られた動きベクトルの評価値テーブルのデータであり、1つのフレーム内で候補ベクトルとなる可能性のある動きベクトルを積算したデータである。
例えば、図3の評価値テーブル算出部50内の評価値テーブルメモリ52から供給されるデータであり、評価値テーブルデータ変換部111に供給する。
[16. Example of motion vector extraction unit]
Next, an example of the configuration and operation of the motion vector extraction unit 13 in the motion vector detection device shown in the configuration of FIG. 1 will be described with reference to FIGS.
FIG. 22 shows an example of the motion vector extraction unit 13 of FIG.
In the motion vector extraction unit 13, the evaluation value table data and the high-frequency motion data are supplied to the input terminal 13a. This evaluation value table data is, for example, motion vector evaluation value table data obtained by any of the processing configurations of the first to second embodiments already described. This is the data obtained by integrating the motion vectors that may become.
For example, the data is supplied from the evaluation value table memory 52 in the evaluation value table calculation unit 50 in FIG. 3 and is supplied to the evaluation value table data conversion unit 111.

評価値テーブルデータ変換部111では、供給された評価値テーブルデータで示された候補ベクトルに、その評価値テーブル形成時に使用した高頻度動きを加えたベクトル群を、最終の候補ベクトルとする。その候補ベクトルを、頻度値或いはその微分値などのデータに変換する。変換されたデータは、頻度順ソート処理部112で、1フレーム内で候補ベクトルを頻度順に並び替える処理を行う。頻度順に並び替えられた候補ベクトルの評価値テーブルデータは、候補ベクトル評価部113に供給する。ここでは、頻度順に並び替えられた候補ベクトルの内で、上位の所定順位までの候補ベクトルを、候補ベクトル評価部113に供給する。
例えば、1フレーム内に存在する頻度の高い候補ベクトルの内で、最も頻度の高いものから10番目までの候補ベクトルを抽出して、候補ベクトル評価部113に供給する。
In the evaluation value table data conversion unit 111, a vector group obtained by adding the high-frequency motion used when forming the evaluation value table to the candidate vector indicated by the supplied evaluation value table data is set as the final candidate vector. The candidate vector is converted into data such as a frequency value or a differential value thereof. The converted data is processed by the frequency order sort processing unit 112 to rearrange candidate vectors in order of frequency within one frame. The evaluation value table data of candidate vectors rearranged in order of frequency is supplied to the candidate vector evaluation unit 113. Here, candidate vectors up to a predetermined order among the candidate vectors rearranged in the order of frequency are supplied to the candidate vector evaluation unit 113.
For example, from the most frequently used candidate vectors existing in one frame, the tenth most frequently used candidate vector is extracted and supplied to the candidate vector evaluating unit 113.

候補ベクトル評価部113では、供給された頻度の高い候補ベクトルのそれぞれを、さらに、決められ条件で評価する処理を行う。ここでの評価処理としては、例えば頻度値が上位の所定順位以内の候補ベクトルであっても、頻度値が予め決めた閾値以下などで、それほど高くない候補ベクトルについては除外するなど、決められた条件での評価を行う。   The candidate vector evaluation unit 113 performs a process of evaluating each of the supplied candidate vectors having a high frequency according to a predetermined condition. For example, even if the frequency value is a candidate vector within a predetermined high order, the evaluation process is determined by excluding candidate vectors that are not so high because the frequency value is not more than a predetermined threshold. Evaluate on condition.

このようにして候補ベクトル評価部113で得られた、各候補ベクトルの評価結果に基づいて、候補ベクトル信頼度判定部114で、候補ベクトルの内で信頼度の高い候補ベクトルを選定して、その信頼度の高い候補ベクトルのデータを出力端子13bから出力する。
出力端子13bから出力される候補ベクトルの信頼度データは、図1の動きベクトル決定部14に供給する。
In this way, based on the evaluation result of each candidate vector obtained by the candidate vector evaluation unit 113, the candidate vector reliability determination unit 114 selects a candidate vector having high reliability among the candidate vectors, The candidate vector data with high reliability is output from the output terminal 13b.
The reliability data of the candidate vector output from the output terminal 13b is supplied to the motion vector determination unit 14 in FIG.

図23は、図22に示した動きベクトル抽出部13で、評価値テーブルデータから候補ベクトルを抽出する際の、処理動作例を示したフローチャートである。
まず、評価値テーブルデータで示された候補ベクトルを、頻度順にソートする処理を行う(ステップS111)。その頻度順に並び替えられた評価値テーブルの中から、頻度の高いものから順に、所定番目までの候補ベクトルを取り出す。この所定番目としては、例えば頻度の最も高いものから10番目などの決められた順位のものを取り出す(ステップS112)。
その後、取り出した複数の候補ベクトルが、候補ベクトルとして適正であるか否か評価し、必要により候補ベクトルを絞る処理が(ステップS113)。例えば、取り出したそれぞれの候補ベクトルの頻度値がどの程度が判断して、閾値以下の頻度値の候補ベクトルについては評価値を低くする評価処理を行う。この候補ベクトルの評価処理については、種々の処理が考えられ、その評価処理が、候補ベクトルを取り出す精度に影響する。
FIG. 23 is a flowchart showing an example of processing operation when the motion vector extraction unit 13 shown in FIG. 22 extracts candidate vectors from the evaluation value table data.
First, a process of sorting the candidate vectors indicated by the evaluation value table data in order of frequency is performed (step S111). From the evaluation value table rearranged in the order of the frequencies, up to a predetermined number of candidate vectors are extracted in order from the highest frequency. As this predetermined number, for example, the one with the determined order such as the tenth is extracted from the highest frequency (step S112).
Thereafter, it is evaluated whether or not the plurality of extracted candidate vectors are appropriate as candidate vectors, and the candidate vectors are narrowed down as necessary (step S113). For example, the degree of frequency value of each extracted candidate vector is determined, and an evaluation process is performed to lower the evaluation value for a candidate vector having a frequency value equal to or less than a threshold value. Various processes can be considered for the candidate vector evaluation process, and the evaluation process affects the accuracy of extracting candidate vectors.

その評価処理結果に基づいて、各候補ベクトルの信頼度を判定し、信頼度が高い候補ベクトル、即ち画像に割当てられる可能性の高い候補ベクトルだけを、後段のベクトル割当て部14(図1)に供給する(ステップS114)。   Based on the evaluation processing result, the reliability of each candidate vector is determined, and only candidate vectors with high reliability, that is, candidate vectors that are highly likely to be assigned to the image, are sent to the vector assigning unit 14 (FIG. 1) in the subsequent stage. Supply (step S114).

[17.動きベクトル割り当て部の構成及び動作例]
次に、図1の構成に示した動きベクトル検出装置での、動きベクトル割り当て部14の構成及び動作の例について、図24〜図26を参照して説明する。
図24は、図1の動きベクトル決定部14の構成例を示したものである。
動きベクトル割当て部14の入力端子14aには、動きベクトルの候補のデータと、その候補ベクトルについての画像信号とが供給される。画像信号は、フレームメモリである参照点メモリ211に供給されて1フレーム記憶される。そして、参照点メモリ211に記憶された画像信号が、フレーム期間ごとに注目点メモリ212に移される。従って、参照点メモリ211に記憶される画像信号と、注目点メモリ212に記憶される画像信号とは、常に1フレーム期間ずれた信号である。
[17. Configuration and operation example of motion vector assignment unit]
Next, an example of the configuration and operation of the motion vector assignment unit 14 in the motion vector detection device shown in the configuration of FIG. 1 will be described with reference to FIGS.
FIG. 24 shows a configuration example of the motion vector determination unit 14 of FIG.
Motion vector candidate data and an image signal for the candidate vector are supplied to the input terminal 14a of the motion vector assignment unit 14. The image signal is supplied to the reference point memory 211 which is a frame memory and stored for one frame. Then, the image signal stored in the reference point memory 211 is moved to the attention point memory 212 for each frame period. Therefore, the image signal stored in the reference point memory 211 and the image signal stored in the attention point memory 212 are always signals shifted by one frame period.

そして、注目点メモリ212に記憶された画像信号から、注目画素を中心とした定常領域の画素信号をデータ読出し部213に読み出す。ここでの定常領域は、定常領域判定部214によって、注目点メモリ212の記憶データから判断される。定常領域判定部214で判断される定常領域は、注目画素の周囲で、注目画素と同じレベルの画素値が連続する領域である。従って、各フレームの画像信号の状態によってサイズは可変し、定常領域は常に適応的に設定される。本明細書で定常領域と述べた場合には、同じ画素値(ここでは輝度値)が連続する、適応的に設定される領域を示す。同じ画素値との判断は、例えば注目画素の画素値と、所定レベル以下の差の画素値である場合に、同じ画素値であると判断して、わずかな画素値の変化については、許容できるようにする。なお、画像状態によっては、定常領域が全く存在しない場合もある。   Then, from the image signal stored in the attention point memory 212, the pixel signal in the steady region centered on the attention pixel is read out to the data reading unit 213. The steady region here is determined from the data stored in the attention point memory 212 by the steady region determination unit 214. The steady region determined by the steady region determination unit 214 is a region where pixel values at the same level as the target pixel are continuous around the target pixel. Therefore, the size varies depending on the state of the image signal of each frame, and the stationary region is always set adaptively. In the present specification, the term “steady region” refers to an adaptively set region in which the same pixel values (in this case, luminance values) are continuous. Judgment with the same pixel value is acceptable, for example, when the pixel value of the pixel of interest and the pixel value of the difference of a predetermined level or less are judged to be the same pixel value, and a slight change in pixel value is acceptable. Like that. Depending on the image state, there may be no steady region.

そして、参照点メモリ211に記憶された画像信号から、参照画素を中心とした領域の画素信号をデータ読出し部213に読み出す。このとき読み出す領域は、注目画素側の定常領域と同じサイズの領域とする。データ読出し部213で読出される注目画素と参照画素の画素位置(注目画素と参照画素)は、動きベクトル抽出部13(図1)から供給された候補ベクトルのデータから、データ読出し部213で判断される。   Then, from the image signal stored in the reference point memory 211, the pixel signal in the area centered on the reference pixel is read out to the data reading unit 213. The area to be read out at this time is an area having the same size as the steady area on the target pixel side. The pixel position of the target pixel and the reference pixel (the target pixel and the reference pixel) read by the data reading unit 213 is determined by the data reading unit 213 from the candidate vector data supplied from the motion vector extraction unit 13 (FIG. 1). Is done.

そして、データ読出し部213で読出された、注目画素を中心とした定常領域の画素信号と、参照画素を中心とした定常領域と同じ範囲の領域の画素信号とを、評価値算出部215に供給して、両領域の画素信号の差分を検出して、両領域の相関を判断する。このようにして、評価値算出部215では、現在評価中の注目画素と候補ベクトルで接続された全ての参照画素の定常領域と同じ領域の画素信号を判断し、注目画素を中心とした定常領域の画素信号と比較する。
そして、評価値算出部215では、比較の結果で、注目画素を中心とした定常領域の画素信号と最も類似した領域を持った参照画素を選定する。ここでの比較としては、後述するように、各領域内の画素の輝度値の差分の絶対値を加算した差分絶対値和を比較して、差分絶対値和が最小のものを選定する。
評価値算出部215で選定された参照画素と注目画素とを結ぶ候補ベクトルのデータは、ベクトル決定部216に送る。ベクトル決定部216では、該当する候補ベクトルを、注目画素からの動きベクトルに割り当てる決定処理を行い、その決定した候補ベクトルを出力端子215から出力させる。
Then, the pixel signal in the stationary region centered on the target pixel and the pixel signal in the same range as the stationary region centered on the reference pixel, read by the data readout unit 213, are supplied to the evaluation value calculation unit 215. Then, the difference between the pixel signals in both regions is detected, and the correlation between both regions is determined. In this way, the evaluation value calculation unit 215 determines a pixel signal in the same area as the stationary area of all the reference pixels connected to the target pixel currently being evaluated and the candidate vector, and the stationary area centered on the target pixel. Compare with the pixel signal.
Then, the evaluation value calculation unit 215 selects a reference pixel having an area most similar to the pixel signal of the steady area centered on the target pixel as a result of the comparison. As the comparison here, as will be described later, the sum of absolute differences obtained by adding the absolute values of the differences between the luminance values of the pixels in each region is compared, and the one having the smallest difference absolute value sum is selected.
The candidate vector data connecting the reference pixel selected by the evaluation value calculation unit 215 and the target pixel is sent to the vector determination unit 216. The vector determination unit 216 performs determination processing for assigning the corresponding candidate vector to the motion vector from the target pixel, and outputs the determined candidate vector from the output terminal 215.

図25のフローチャートは、この図24のベクトル割当て処理動作例を示したフローチャートである。
図25に従って順に説明すると、まず評価値テーブルのデータに基づいて候補ベクトルが読出される(ステップS121)。読出された候補ベクトルについての注目画素の座標位置を判断し、その位置の画素(注目画素)の画素値を判断し、注目画素の周囲で、その画素値と同じ画素値と見なせる画素値が連続する領域(定常領域)を判断する。その判断した定常領域の画素値を読み出す(ステップS122)。
また、読出された全ての候補ベクトルについての参照画素の座標位置を判断し、その判断した位置の画素(参照画素)を中心にして、定常領域と同じサイズの領域を個別に設定し、その設定した各領域内の画素値を参照点メモリ61から読出す(ステップS123)。
そして、それぞれの領域内の画素レベル(画素値)の差分の絶対値和を算出する(ステップS124)。
そして、参照画素について設定した領域内の画素と、注目画素について設定した領域内の画素とを比較して、差分値を得て、その差分値の絶対値を領域全てで加算して、絶対値差分和を得て、絶対値差分和が最小になる参照画素の領域を探す。この処理で、絶対値差分和が最小になる参照画素の領域を判断すると、その判断された領域の中央の参照画素と注目画素を結ぶ候補ベクトルを、注目画素についての動きベクトルとして割り当てることを決定する(ステップS125)。
The flowchart of FIG. 25 is a flowchart showing an example of the vector assignment processing operation of FIG.
To explain sequentially according to FIG. 25, first, candidate vectors are read based on the data of the evaluation value table (step S121). The coordinate position of the target pixel for the read candidate vector is determined, the pixel value of the pixel (target pixel) at that position is determined, and pixel values that can be regarded as the same pixel value around the target pixel are consecutive. A region to be performed (steady region) is determined. The determined pixel value of the steady region is read (step S122).
Further, the coordinate position of the reference pixel for all the read candidate vectors is determined, and an area having the same size as the stationary area is individually set around the pixel (reference pixel) at the determined position. The pixel value in each area is read from the reference point memory 61 (step S123).
Then, an absolute value sum of differences between pixel levels (pixel values) in each region is calculated (step S124).
Then, the pixel in the region set for the reference pixel is compared with the pixel in the region set for the target pixel to obtain a difference value, and the absolute value of the difference value is added in all the regions to obtain the absolute value. A difference sum is obtained, and a reference pixel region where the absolute value difference sum is minimized is searched. In this process, when a reference pixel region that minimizes the sum of absolute values is determined, a candidate vector that connects the reference pixel in the center of the determined region and the target pixel is assigned as a motion vector for the target pixel. (Step S125).

図26は、この図24の構成及び図25のフローチャートでの処理状態の概要を示した図である。
この例では、フレームF20(注目フレーム)に注目画素d20が存在し、その時間軸上の次のフレームF21(参照フレーム)内との間で、複数の候補ベクトルV21,V22が存在しているとする。フレームF21には、候補ベクトルV21,V22で注目画素d20と結ばれた参照画素d21,d22が存在している。
FIG. 26 is a diagram showing an outline of the processing state in the configuration of FIG. 24 and the flowchart of FIG.
In this example, the target pixel d20 exists in the frame F20 (target frame), and a plurality of candidate vectors V21, V22 exist between the next frame F21 (reference frame) on the time axis. To do. In the frame F21, there are reference pixels d21 and d22 connected to the target pixel d20 by candidate vectors V21 and V22.

このような図26の状態を想定すると、図25のステップS122では、フレームF20内で、注目画素d20の中心にして、注目画素d20の画素値(ここでは輝度値)と同じレベルの画素値が周辺で連続する定常領域A20が設定される。この定常領域A20内の全ての画素の画素値が判断される。
図13のステップS123では、フレームF21内で、参照画素d21,d22の中心にして、領域A21,A22が設定される。領域A21,A22は、1つ前のフレームF20に設定した定常領域A20と同じ面積(同じ画素数)を持つ領域である。中央の参照画素d21,d22と領域A21,A22との位置関係や領域の配置方向についても、注目画素d20と定常領域A20との関係と同じである。このようにして設定された各領域A21,A22について、各領域内の全ての画素の画素値が判断される。そして、その判断された参照画素側の領域内の画素と、注目画素側の領域内の同じ位置の画素とが比較されて、画素値の差分が得られ、その差分の領域全体での絶対値和を得て、差分絶対値和が、各参照画素の領域ごとに算出される。
Assuming such a state of FIG. 26, in step S122 of FIG. 25, a pixel value at the same level as the pixel value (in this case, the luminance value) of the target pixel d20 is set at the center of the target pixel d20 in the frame F20. A steady region A20 continuous around is set. The pixel values of all the pixels in the steady region A20 are determined.
In step S123 of FIG. 13, regions A21 and A22 are set in the frame F21 with the center of the reference pixels d21 and d22. Regions A21 and A22 are regions having the same area (the same number of pixels) as the steady region A20 set in the immediately preceding frame F20. The positional relationship between the center reference pixels d21 and d22 and the regions A21 and A22 and the region arrangement direction are also the same as the relationship between the target pixel d20 and the steady region A20. For each of the areas A21 and A22 set in this way, the pixel values of all the pixels in each area are determined. Then, the pixel in the determined reference pixel side area and the pixel at the same position in the target pixel side area are compared to obtain a pixel value difference, and the absolute value of the difference in the entire area is obtained. The sum is obtained and the sum of absolute differences is calculated for each reference pixel region.

そして、領域A21と領域A20を使って得た差分の絶対値和と、領域A22と領域A20を使って得た差分の絶対値和の内で、いずれが最小か比較される。この比較で、例えば定常領域A21を使って得た絶対値差分和の方が小さいと判断すると、その領域A21の中心の参照画素d21と、注目画素d20とを結ぶ候補ベクトルV21が選択される。この選択された候補ベクトルV21を、注目画素d20の動きベクトルとして割り当てる。
なお、図26では説明を簡単にするために候補ベクトルを2つとして説明したが、実際には1つの注目画素に対してより多くの候補ベクトルが存在することがある。また、図26では説明を簡単にするために1つの注目画素だけを示してあるが、本実施の形態での処理の場合には、1フレーム内の代表となる複数の画素又は全ての画素が、このような注目画素となる。
Then, the absolute value sum of the differences obtained using the region A21 and the region A20 and the absolute value sum of the differences obtained using the region A22 and the region A20 are compared with which is the smallest. In this comparison, for example, if it is determined that the absolute value difference sum obtained using the steady region A21 is smaller, a candidate vector V21 connecting the reference pixel d21 at the center of the region A21 and the target pixel d20 is selected. The selected candidate vector V21 is assigned as a motion vector of the target pixel d20.
In FIG. 26, two candidate vectors have been described for the sake of simplicity, but in reality, more candidate vectors may exist for one target pixel. In FIG. 26, only one pixel of interest is shown for simplicity of explanation, but in the case of the processing in this embodiment, a plurality of representative pixels or all pixels in one frame are included. Such a pixel of interest.

このようにして候補ベクトルから選定するベクトルを決定する処理を行うことで、注目画素の周囲の画素の状態と、参照画素の周囲の画素の状態とが、近いものが選定されることになり、それぞれの画素に割り当てる動きベクトルの選定が、良好に行える。
特に上述した本実施の形態の処理構成である、高頻度動きとの相関に基づいて、注目画素又は参照画素を選別除去した評価値テーブルのデータを使って、図25に示した如き動きベクトルの決定処理を行うことで、より良好な動きベクトルの割り当てが行えるようになる。
By performing the process of determining the vector to be selected from the candidate vectors in this way, the pixel state around the target pixel and the pixel state around the reference pixel are selected, The motion vector to be assigned to each pixel can be favorably selected.
In particular, using the data of the evaluation value table in which the target pixel or the reference pixel is selectively removed based on the correlation with the high-frequency motion, which is the processing configuration of the present embodiment described above, the motion vector as shown in FIG. By performing the determination process, a better motion vector can be assigned.

[18.各実施の形態に共通の変形例の説明]
上述した各実施の形態では、注目画素の選定処理については具体的に説明しなかったが、注目画素の選定処理については各種処理が適用可能である。例えば1フレーム内の全ての画素を順に注目画素として選定して、それぞれの画素について動きベクトルを検出させる構成としてもよい。或いは、1フレーム内で代表となる画素を注目画素として選び出し、その選び出した画素についての動きベクトルを検出させる場合にも適用してもよい。
また、注目画素に対する参照画素の選定処理についても、図6などに図示したサーチエリアSAは一例であり、注目画素に対して様々なサイズのサーチエリアを設定する構成を適用することができる。
[18. Description of Modifications Common to Each Embodiment]
In each of the above-described embodiments, the pixel-of-interest selection process has not been specifically described, but various processes can be applied to the pixel-of-interest selection process. For example, all pixels in one frame may be selected as the target pixel in order, and a motion vector may be detected for each pixel. Alternatively, the present invention may be applied to a case where a representative pixel in one frame is selected as a target pixel, and a motion vector for the selected pixel is detected.
For the reference pixel selection processing for the target pixel, the search area SA illustrated in FIG. 6 and the like is an example, and a configuration in which search areas of various sizes are set for the target pixel can be applied.

また、上述した各実施の形態では、動きベクトル検出装置として構成させた例について説明したが、この動きベクトル検出装置は、各種画像処理装置に組み込むようにしてもよい。例えば、高能率符号化を行う符合化装置に組み込み、動きベクトルデータを利用して符号化を行うようにすることができる。或いは、入力(受信)した画像データによる表示を行う画像表示装置や記録を行う画像記録装置に組み込み、高画質化するために動きベクトルデータを利用するようにしてもよい。   Further, in each of the above-described embodiments, the example in which the motion vector detection device is configured has been described. However, the motion vector detection device may be incorporated into various image processing devices. For example, it can be incorporated into an encoding device that performs high-efficiency encoding, and encoding can be performed using motion vector data. Alternatively, it may be incorporated in an image display device that performs display using input (received) image data or an image recording device that performs recording, and motion vector data may be used to improve image quality.

また、本発明の動きベクトル検出を行う各構成要素をプログラム化して、例えば各種データ処理を行うコンピュータ装置などの各種情報処理装置に、そのプログラムを実装させてもよい。このようにすることで、その情報処理装置に入力した画像信号から動きベクトルを検出する処理を実行する際に、同様の処理を行うことが可能になる。   Furthermore, each component that performs motion vector detection according to the present invention may be programmed, and the program may be implemented in various information processing apparatuses such as a computer apparatus that performs various data processing. By doing in this way, when performing the process which detects a motion vector from the image signal input into the information processing apparatus, it becomes possible to perform the same process.

本発明の実施の形態による装置構成例を示すブロック図である。It is a block diagram which shows the apparatus structural example by embodiment of this invention. 本発明の実施の形態による全体処理例を示すフローチャートである。It is a flowchart which shows the example of the whole process by embodiment of this invention. 本発明の第1の実施の形態による評価値テーブル形成例(高頻度動きを考慮した例1)を示すブロック図である。It is a block diagram which shows the example of evaluation value table formation (example 1 which considered high frequency motion) by the 1st Embodiment of this invention. 本発明の第1の実施の形態による処理例(注目画素と高頻度動きを考慮した例1)を示したフローチャートである。It is the flowchart which showed the process example (Example 1 which considered the attention pixel and high frequency motion) by the 1st Embodiment of this invention. 参照画素と注目画素との関係を示した説明図である。It is explanatory drawing which showed the relationship between a reference pixel and an attention pixel. 図3,図4の例による注目画素と最頻度動きの関係を考慮した処理の概要を示す説明図である。FIG. 5 is an explanatory diagram illustrating an overview of processing in consideration of the relationship between a pixel of interest and the most frequent motion in the example of FIGS. 3 and 4. 背景動きと異なる動きがある画像の例を示す説明図である。It is explanatory drawing which shows the example of the image which has a motion different from a background motion. 画素選別部での選別がない評価値テーブルの例を示す説明図である。It is explanatory drawing which shows the example of the evaluation value table without the selection in a pixel selection part. 最頻度動きの評価値テーブル(a)とその最頻度動きを除いた評価値テーブル(b)の例を示す特性図である。It is a characteristic view which shows the example of the evaluation value table (a) of the most frequent movement, and the evaluation value table (b) except the most frequent movement. 本発明の第1の実施の形態による評価値テーブル形成例(高頻度動きを考慮した例2)を示すブロック図である。It is a block diagram which shows the evaluation value table formation example (example 2 which considered high frequency motion) by the 1st Embodiment of this invention. 本発明の第1の実施の形態による処理例(注目画素と高頻度動きを考慮した例2)を示したフローチャートである。It is the flowchart which showed the process example (Example 2 which considered the attention pixel and high frequency motion) by the 1st Embodiment of this invention. 本発明の第1の実施の形態による別の処理例(注目画素及び参照画素と高頻度動きを考慮した例)を示したフローチャートである。It is the flowchart which showed another processing example (example which considered the attention pixel, the reference pixel, and high frequency motion) by the 1st Embodiment of this invention. 図12の例による参照画素と最頻度動きの関係を考慮した処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the process which considered the relationship between the reference pixel and the most frequent motion by the example of FIG. 図12の例による注目画素及び参照画素について最頻度動きを除いた評価値テーブルの例を示す特性図である。FIG. 13 is a characteristic diagram illustrating an example of an evaluation value table excluding the most frequent motion for a target pixel and a reference pixel according to the example of FIG. 12. 本発明の第2の実施の形態による評価値テーブル形成例(高頻度動きと空間傾斜パターンを考慮した例)を示すブロック図である。It is a block diagram which shows the evaluation value table formation example (example which considered the high frequency motion and the space inclination pattern) by the 2nd Embodiment of this invention. 本発明の第2の実施の形態による処理例を示したフローチャートである。It is the flowchart which showed the example of a process by the 2nd Embodiment of this invention. 図15の例による空間傾斜パターンの概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the space inclination pattern by the example of FIG. 空間傾斜パターンの例(mode1の例)を示す説明図である。It is explanatory drawing which shows the example (example of mode1) of a space inclination pattern. 空間傾斜パターンの例(mode2の例)を示す説明図である。It is explanatory drawing which shows the example (example of mode2) of a space inclination pattern. 空間傾斜パターンの例(mode3の例)を示す説明図である。It is explanatory drawing which shows the example (example of mode3) of a space inclination pattern. 空間傾斜パターンの例(mode4の例)を示す説明図である。It is explanatory drawing which shows the example (example of mode4) of a space inclination pattern. 本発明の実施の形態による動きベクトル抽出部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the motion vector extraction part by embodiment of this invention. 図22の例による処理を示したフローチャートである。It is the flowchart which showed the process by the example of FIG. 本発明の実施の形態による動きベクトル決定部の構成例を示すブロック図である。It is a block diagram which shows the structural example of the motion vector determination part by embodiment of this invention. 図24の例による処理を示したフローチャートである。It is the flowchart which showed the process by the example of FIG. 図24の例による動きベクトル決定処理状態の例を示す説明図である。It is explanatory drawing which shows the example of the motion vector determination process state by the example of FIG. 従来の評価値テーブルデータ生成処理構成の一例を示すブロック図である。It is a block diagram which shows an example of the conventional evaluation value table data generation process structure. 従来の評価値テーブルデータ生成処理例の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the conventional evaluation value table data generation process example.

符号の説明Explanation of symbols

1…画像信号入力端子、2…相関演算部、2a…参照点メモリ、2b…注目点メモリ、2c…絶対値算出部、3…相関判定部、3a…比較部、4…評価値テーブル算出部、4a…評価値積算部、4b…評価値テーブルメモリ、5…評価値テーブルデータ出力端子、11…画像信号入力端子、12…評価値テーブル形成部、12a…評価値テーブルデータ出力端子、13…動きベクトル抽出部、14…動きベクトル割り当て部、15…動きベクトル出力端子、16…制御部(コントローラ)、20…相関演算部、21…参照点メモリ、22…注目点メモリ、23…絶対値算出部、30…相関判定部、31…比較部、40…画素選別処理部、41…高頻度動き算出部、42…高頻度動き判定部、43…選別注目点メモリ、44…選別参照点メモリ、50…評価値テーブル算出部、51…評価値積算部、52…評価値テーブルメモリ、60…画素選別処理部、61…一時記憶メモリ、62…ゲート部、63…高頻度動き算出部、64…高頻度動き判定部、70…画素選別処理部、71…高頻度動き算出部、72…高頻度動き判定部、73…選別注目点メモリ、74…選別参照点メモリ、75…空間傾斜パターン判定部、111…評価値テーブルデータ変換部、112…頻度順ソート処理部、113…候補ベクトル評価部、114…候補ベクトル信頼度判定部、211…参照点メモリ、212…注目点メモリ、213…データ読出し部、214…定常領域判定部、215…評価値算出部、216…ベクトル決定部   DESCRIPTION OF SYMBOLS 1 ... Image signal input terminal, 2 ... Correlation calculation part, 2a ... Reference point memory, 2b ... Interesting point memory, 2c ... Absolute value calculation part, 3 ... Correlation determination part, 3a ... Comparison part, 4 ... Evaluation value table calculation part 4a ... evaluation value integration unit, 4b ... evaluation value table memory, 5 ... evaluation value table data output terminal, 11 ... image signal input terminal, 12 ... evaluation value table forming unit, 12a ... evaluation value table data output terminal, 13 ... Motion vector extraction unit, 14 ... motion vector allocation unit, 15 ... motion vector output terminal, 16 ... control unit (controller), 20 ... correlation calculation unit, 21 ... reference point memory, 22 ... attention point memory, 23 ... absolute value calculation , 30 ... correlation determination unit, 31 ... comparison unit, 40 ... pixel selection processing unit, 41 ... high frequency motion calculation unit, 42 ... high frequency motion determination unit, 43 ... selection attention point memory, 44 ... selection reference point memory DESCRIPTION OF SYMBOLS 50 ... Evaluation value table calculation part, 51 ... Evaluation value accumulation part, 52 ... Evaluation value table memory, 60 ... Pixel selection process part, 61 ... Temporary memory, 62 ... Gate part, 63 ... High frequency motion calculation part, 64 ... High frequency motion determination unit, 70 ... Pixel selection processing unit, 71 ... High frequency motion calculation unit, 72 ... High frequency motion determination unit, 73 ... Selection attention point memory, 74 ... Selection reference point memory, 75 ... Spatial inclination pattern determination unit 111 ... Evaluation value table data conversion unit, 112 ... Frequency order sort processing unit, 113 ... Candidate vector evaluation unit, 114 ... Candidate vector reliability determination unit, 211 ... Reference point memory, 212 ... Attention point memory, 213 ... Data reading 214, stationary region determination unit, 215 ... evaluation value calculation unit, 216 ... vector determination unit

Claims (10)

複数のフレームで構成される動画像データから、頻度の高い動きベクトルを検出する高頻度動きベクトル検出部と、
前記動画像データの、時間軸上における一方のフレームの注目画素と、他方のフレームのサーチエリア内の参照画素との画素値相関情報から求められる動きベクトル候補が前記高頻度動きベクトルと相関が高い場合に、該動きベクトル候補に対応する注目画素及び/又は参照画素を、フレーム中の画素から選別する画素選別部と、
前記選別された画素以外の画素に基づいて、参照画素が注目画素の動き候補である可能性を評価した動きベクトルの評価情報を形成する評価情報形成部と、
前記評価情報形成部が形成した評価情報から検出した動きベクトルと、前記高頻度動きベクトル検出部が検出した頻度の高い動きベクトルの情報に基づいて動画像データのフレーム内の各画素に対する動きベクトルの候補を抽出する動きベクトル抽出部と、
動きベクトル抽出部で抽出された候補となる動きベクトルの中から、フレーム内の各画素に割当てる動きベクトルを決定する動きベクトル割り当て部とを備えた
動きベクトル検出装置。
A high-frequency motion vector detection unit that detects a high-frequency motion vector from moving image data composed of a plurality of frames;
A motion vector candidate obtained from pixel value correlation information between a target pixel of one frame on the time axis and a reference pixel in the search area of the other frame of the moving image data has a high correlation with the high-frequency motion vector. A pixel selecting unit that selects a pixel of interest and / or a reference pixel corresponding to the motion vector candidate from pixels in the frame;
An evaluation information forming unit that forms motion vector evaluation information that evaluates the possibility that the reference pixel is a motion candidate of the target pixel based on pixels other than the selected pixels;
Based on the motion vector detected from the evaluation information formed by the evaluation information forming unit and the information on the high-frequency motion vector detected by the high-frequency motion vector detection unit, the motion vector for each pixel in the frame of the moving image data A motion vector extraction unit for extracting candidates;
A motion vector detection apparatus comprising: a motion vector allocation unit that determines a motion vector to be allocated to each pixel in a frame from candidate motion vectors extracted by the motion vector extraction unit.
前記高頻度動きベクトル検出部は、前記評価情報形成部で注目画素を設定する前記一方のフレームより前のフレームと、前記一方のフレームとの相関から検出した動きベクトルから、頻度の高い動きベクトルを検出する
請求項1に記載の動きベクトル検出装置。
The high-frequency motion vector detection unit obtains a high-frequency motion vector from a motion vector detected from a correlation between the one frame before the one frame in which the target pixel is set by the evaluation information forming unit and the one frame. The motion vector detection device according to claim 1, which detects the motion vector.
前記高頻度動きベクトル検出部は、前記評価情報形成部で注目画素を設定する前記一方のフレームと、前記他方のフレームとの相関から検出した動きベクトルから、頻度の高い動きベクトルを検出する
請求項1に記載の動きベクトル検出装置。
The high-frequency motion vector detection unit detects a high-frequency motion vector from a motion vector detected from a correlation between the one frame in which a pixel of interest is set by the evaluation information forming unit and the other frame. 2. The motion vector detection device according to 1.
前記高頻度動きベクトル検出部は最も頻度の高い動きベクトルを検出し、その検出した最も頻度の高い動きベクトルと相関の高い動きベクトルの注目画素及び/又は参照画素となる画素に関わる評価情報を、前記積算する情報から除外する選別除去を前記画素選別部で行う
請求項1〜3のいずれか1項に記載の動きベクトル検出装置。
The high-frequency motion vector detection unit detects the most frequent motion vector, and evaluates information related to a pixel serving as a target pixel and / or a reference pixel of a motion vector having a high correlation with the detected most frequent motion vector, The motion vector detection apparatus according to any one of claims 1 to 3, wherein the pixel selection unit performs selection and removal excluded from the information to be integrated.
前記高頻度動きベクトル検出部は最も頻度の高い動きベクトルから所定番目に頻度が高い動きベクトルまでを検出し、その検出した所定番目まで頻度の高い動きベクトルと相関の高い動きベクトルの注目画素及び/又は参照画素となる画素に関わる評価情報を、前記積算する情報から除外する選別除去を前記画素選別部で行う
請求項1〜3のいずれか1項に記載の動きベクトル検出装置。
The high-frequency motion vector detection unit detects from the most frequent motion vector to a predetermined most frequent motion vector, and a pixel of interest of a motion vector highly correlated with the detected most frequent motion vector and / or The motion vector detection device according to any one of claims 1 to 3, wherein the pixel selection unit performs selection and removal that excludes evaluation information related to a pixel serving as a reference pixel from the information to be integrated.
前記評価情報形成部は、前記一方のフレームで注目画素とその隣接画素との空間傾斜状態を判断し、前記他方のフレームの参照画素とその隣接画素との空間傾斜状態を判断し、それぞれの空間傾斜の符号が一致した状態である場合に、該当する注目画素から参照画素への動きベクトルを、評価情報に積算する
請求項1〜3のいずれか1項に記載の動きベクトル検出装置。
The evaluation information forming unit determines a spatial inclination state between the target pixel and its adjacent pixel in the one frame, determines a spatial inclination state between the reference pixel of the other frame and its adjacent pixel, The motion vector detection device according to any one of claims 1 to 3, wherein a motion vector from a corresponding target pixel to a reference pixel is added to the evaluation information when the slope codes match.
前記空間傾斜状態は、注目画素又は参照画素とそれぞれの周囲の隣接画素との空間傾斜に基づいたパターンで判断する
請求項6記載の動きベクトル検出装置。
The motion vector detection device according to claim 6, wherein the spatial inclination state is determined by a pattern based on a spatial inclination between a target pixel or a reference pixel and neighboring pixels around each pixel.
前記動きベクトル割り当て部は、前記動きベクトル抽出部で抽出された候補となる動きベクトルの注目画素及び参照画素について、同じ画素値が連続する状態に応じて適応的に定常領域を設定し、その設定した定常領域どうしの相関を比較した結果に基づいて、前記一方のフレームから前記他方のフレームへの各画素の動きベクトルを割り当てる
請求項1〜3のいずれか1項に記載の動きベクトル検出装置。
The motion vector allocating unit adaptively sets a steady region according to a state in which the same pixel value continues for the target pixel and the reference pixel of the candidate motion vector extracted by the motion vector extracting unit, and the setting The motion vector detection device according to any one of claims 1 to 3, wherein a motion vector of each pixel is assigned from the one frame to the other frame based on a result of comparing the correlations between the steady regions.
複数のフレームで構成される動画像データから、頻度の高い動きベクトルを検出する高頻度動きベクトル検出処理と、
前記動画像データの、時間軸上における一方のフレームの注目画素と、他方のフレームのサーチエリア内の参照画素との画素値相関情報から求められる動きベクトル候補が前記高頻度動きベクトルと相関が高い場合に、該動きベクトル候補に対応する注目画素及び/又は参照画素を、フレーム中の画素から選別する画素選別処理と、
前記画素選別処理で選別された画素以外の画素に基づいて、参照画素が注目画素の動き候補である可能性を評価した動きベクトルの評価情報を形成する評価情報形成処理と、
前記評価情報形成処理で形成された評価情報と、前記高頻度動きベクトル検出処理が検出した頻度の高い動きベクトルの情報に基づいて動画像データのフレーム内の各画素に対する動きベクトルの候補を抽出する動きベクトル候補抽出処理と、
動きベクトル抽出処理で抽出された候補となる動きベクトルの中から、フレーム内の各画素に割当てる動きベクトルを決定する動きベクトル割り当て処理とを行う
動きベクトル検出方法。
A high-frequency motion vector detection process for detecting a high-frequency motion vector from moving image data composed of a plurality of frames;
A motion vector candidate obtained from pixel value correlation information between a target pixel of one frame on the time axis and a reference pixel in the search area of the other frame of the moving image data has a high correlation with the high-frequency motion vector. A pixel selection process for selecting a target pixel and / or a reference pixel corresponding to the motion vector candidate from the pixels in the frame;
An evaluation information forming process for forming evaluation information of a motion vector that evaluates the possibility that a reference pixel is a motion candidate of the target pixel, based on pixels other than the pixels selected in the pixel selection process;
Extraction of motion vector candidates for each pixel in a frame of moving image data based on the evaluation information formed by the evaluation information forming process and the information of the motion vector having a high frequency detected by the high-frequency motion vector detection process Motion vector candidate extraction processing;
A motion vector detection method for performing a motion vector assignment process for determining a motion vector to be assigned to each pixel in a frame from candidate motion vectors extracted by the motion vector extraction process.
複数のフレームで構成される動画像データから、頻度の高い動きベクトルを検出する高頻度動きベクトル検出処理と、
前記動画像データの、時間軸上における一方のフレームの注目画素と、他方のフレームのサーチエリア内の参照画素との画素値相関情報から求められる動きベクトル候補が前記高頻度動きベクトルと相関が高い場合に、該動きベクトル候補に対応する注目画素及び/又は参照画素を、フレーム中の画素から選別する画素選別処理と、
前記画素選別処理で選別された画素以外の画素に基づいて、参照画素が注目画素の動き候補である可能性を評価した動きベクトルの評価情報を形成する評価情報形成処理と、
前記評価情報形成処理で形成された評価情報と、前記高頻度動きベクトル検出処理が検出した頻度の高い動きベクトルの情報に基づいて動画像データのフレーム内の各画素に対する動きベクトルの候補を抽出する動きベクトル候補抽出処理と、
動きベクトル抽出処理で抽出された候補となる動きベクトルの中から、フレーム内の各画素に割当てる動きベクトルを決定する動きベクトル割り当て処理を、
情報処理装置に実装して実行させる
プログラム。
A high-frequency motion vector detection process for detecting a high-frequency motion vector from moving image data composed of a plurality of frames;
A motion vector candidate obtained from pixel value correlation information between a target pixel of one frame on the time axis and a reference pixel in the search area of the other frame of the moving image data has a high correlation with the high-frequency motion vector. A pixel selection process for selecting a target pixel and / or a reference pixel corresponding to the motion vector candidate from the pixels in the frame;
An evaluation information forming process for forming evaluation information of a motion vector that evaluates the possibility that a reference pixel is a motion candidate of the target pixel, based on pixels other than the pixels selected in the pixel selection process;
Extraction of motion vector candidates for each pixel in a frame of moving image data based on the evaluation information formed by the evaluation information forming process and the information of the motion vector having a high frequency detected by the high-frequency motion vector detection process Motion vector candidate extraction processing;
A motion vector assignment process for determining a motion vector to be assigned to each pixel in a frame from candidate motion vectors extracted by the motion vector extraction process.
A program that is implemented and executed on an information processing device.
JP2008272529A 2008-10-22 2008-10-22 Motion vector detection device, motion vector detecting method, and program Pending JP2010103715A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008272529A JP2010103715A (en) 2008-10-22 2008-10-22 Motion vector detection device, motion vector detecting method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008272529A JP2010103715A (en) 2008-10-22 2008-10-22 Motion vector detection device, motion vector detecting method, and program

Publications (1)

Publication Number Publication Date
JP2010103715A true JP2010103715A (en) 2010-05-06

Family

ID=42293954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008272529A Pending JP2010103715A (en) 2008-10-22 2008-10-22 Motion vector detection device, motion vector detecting method, and program

Country Status (1)

Country Link
JP (1) JP2010103715A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016157197A (en) * 2015-02-23 2016-09-01 株式会社リコー Self-position estimation device, self-position estimation method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016157197A (en) * 2015-02-23 2016-09-01 株式会社リコー Self-position estimation device, self-position estimation method, and program

Similar Documents

Publication Publication Date Title
JP4697275B2 (en) Motion vector detection apparatus, motion vector detection method, and program
CN105830009B (en) Method for video processing and equipment
KR101811162B1 (en) Systems, methods, and apparatus for encoding object formations
JP4697276B2 (en) Motion vector detection apparatus, motion vector detection method, and program
KR101052207B1 (en) Method and device for controlling video recordation property of camera module according to velocity of object
JP5338684B2 (en) Image processing apparatus, image processing method, and program
WO2005084036A1 (en) Motion vector detecting apparatus, motion vector detecting method, and computer program
JPWO2009119347A1 (en) Processing system, image processing method, and image processing program
JP2006195525A (en) Apparatus and program for adding video object locus
JP5979145B2 (en) Video area detector
JP4748191B2 (en) Motion vector detection apparatus, motion vector detection method, and program
JP2008171247A (en) Motion detecting device, method and program
JP4853199B2 (en) Image compression method, apparatus, electronic camera, and program
US9106926B1 (en) Using double confirmation of motion vectors to determine occluded regions in images
US20090141802A1 (en) Motion vector detecting apparatus, motion vector detecting method, and program
JP2010103715A (en) Motion vector detection device, motion vector detecting method, and program
JP4622264B2 (en) Motion vector detection apparatus, motion vector detection method, and computer program
JP2006215655A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP4622265B2 (en) Motion vector detection device, motion vector detection method, and program
JP2005175872A (en) Motion vector detecting apparatus, motion vector detecting method and computer program
JP2010011430A (en) Motion vector detection apparatus, motion vector detection method and program
US8625025B2 (en) Apparatus and method for detecting flexible video cadence
JP5136295B2 (en) Motion vector detection apparatus, motion vector detection method, and program
JP2009089370A (en) Motion vector detecting apparatus, motion vector detecting method, and program
KR101957610B1 (en) Method for image processing using histograms and computer readable medium for performing the method