JP4250598B2 - Motion compensation IP conversion processing apparatus and motion compensation IP conversion processing method - Google Patents

Motion compensation IP conversion processing apparatus and motion compensation IP conversion processing method Download PDF

Info

Publication number
JP4250598B2
JP4250598B2 JP2005030387A JP2005030387A JP4250598B2 JP 4250598 B2 JP4250598 B2 JP 4250598B2 JP 2005030387 A JP2005030387 A JP 2005030387A JP 2005030387 A JP2005030387 A JP 2005030387A JP 4250598 B2 JP4250598 B2 JP 4250598B2
Authority
JP
Japan
Prior art keywords
block
motion vector
conversion processing
processed
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005030387A
Other languages
Japanese (ja)
Other versions
JP2006217486A (en
Inventor
実俊 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005030387A priority Critical patent/JP4250598B2/en
Publication of JP2006217486A publication Critical patent/JP2006217486A/en
Application granted granted Critical
Publication of JP4250598B2 publication Critical patent/JP4250598B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、動き補償型インターレース・プログレッシブ(以下、「IP」という)変換処理装置及び方法において、動きベクトルを検出する際、検出精度を低減させることなく演算量を削減する動きベクトル検出方法に関し、特に画面上部エッジ、画面左エッジの検出動きベクトルの精度向上に関する。   The present invention relates to a motion vector detection method for reducing a calculation amount without reducing detection accuracy when detecting a motion vector in a motion compensated interlace progressive (hereinafter referred to as “IP”) conversion processing apparatus and method. In particular, it relates to improving the accuracy of detected motion vectors at the upper edge of the screen and the left edge of the screen.

従来、動画像をディジタル化し、そのデータを圧縮符号化する方法として、参照画像として記憶された過去の画像を動き補償して予測画像を作り、原画像との差分画像を符号化する方法が広く行われている。この代表例として、MPEG(Moving Picture Expert Group )方式があり、動き補償を行うための動きベクトルを検出するその方法として、ブロックマッチングによる動きベクトル検出方法が一般的である。   Conventionally, as a method of digitizing a moving image and compressing and encoding the data, there is widely used a method in which a past image stored as a reference image is motion compensated to create a predicted image and a difference image from the original image is encoded. Has been done. As a typical example, there is a moving picture expert group (MPEG) system, and a motion vector detection method based on block matching is generally used as a method for detecting a motion vector for motion compensation.

動き補償型IP変換処理における動きベクトル検出も、MPEG方式などにおける動きベクトル検出方法と同様な手法で実現できる。   Motion vector detection in the motion compensation type IP conversion processing can also be realized by a method similar to the motion vector detection method in the MPEG system or the like.

一般的な動きベクトル検出方法である、ブロックマッチングによる全探索手法について、図をもとに説明する。図5は従来例の動きベクトル検出方法の概念図であり、現在フレーム501の予測対象ブロック503の動きベクトル506を、既に符号化済みの前フレーム500の情報を用いてブロックマッチング方法によって検出する全探索手法を示したものである。予測対象ブロック503の動きベクトル506は、前フレーム500上の同位置のブロック507を中心に一定の探索範囲502内に含まれる参照ブロック504と予測対象ブロック503のマッチングによって検出される。   A general search method based on block matching, which is a general motion vector detection method, will be described with reference to the drawings. FIG. 5 is a conceptual diagram of a conventional motion vector detection method. All motion vectors 506 of a prediction target block 503 of a current frame 501 are detected by a block matching method using information of a previous frame 500 that has already been encoded. This shows a search method. The motion vector 506 of the prediction target block 503 is detected by matching the reference block 504 and the prediction target block 503 that are included in a certain search range 502 around the block 507 at the same position on the previous frame 500.

図4は、従来例の動きベクトル検出処理のブロック図である。図4において、探索範囲内の全て、あるいは、いくつかのブロックを参照する候補ベクトル413で指し示す、前フレームの参照ブロックと現在フレームの予測対象ブロックとの各画素の差分絶対値和(SAD)をSAD演算部400にて順次計算する。そして、この探索範囲内でSADが最小となるブロックをSAD最小値検出部401で検出し、この判定結果414をもとに、動きベクトル決定部403にて動きベクトル415を決定する。前記探索範囲内の全てのブロックについて各画素の差分を計算し、参照ブロックを決定する方法は全探索手法と呼ばれ、最も精度良く参照ブロックを検出することができる方法である。しかしながら、全探索手法では、探索範囲内の全てのブロックについて各画素の差分を計算しなければならないため、演算処理量が増大してしまうという問題がある。   FIG. 4 is a block diagram of a conventional motion vector detection process. In FIG. 4, the difference absolute value sum (SAD) of each pixel of the reference block of the previous frame and the prediction target block of the current frame, which is indicated by a candidate vector 413 referring to all or some blocks in the search range, is shown. The SAD calculation unit 400 sequentially calculates. Then, the SAD minimum value detection unit 401 detects a block having the minimum SAD within the search range, and the motion vector determination unit 403 determines the motion vector 415 based on the determination result 414. The method of calculating the difference of each pixel for all the blocks within the search range and determining the reference block is called a full search method and is a method that can detect the reference block with the highest accuracy. However, the full search method has a problem in that the calculation processing amount increases because the difference of each pixel must be calculated for all the blocks within the search range.

図6は、従来例の候補ベクトル処理の説明図であり、特許文献1に示される画像の境界を超えて存在するブロックに対応する候補ベクトルの処理を示す図と同じものである。図6の(a)及び(b)は、画面の端の処理を示しており、実線602、604は画面の境界を示している。また、ペア(0,0)は、候補ベクトルがゼロであるとみなすブロックを示している。   FIG. 6 is an explanatory diagram of the candidate vector processing of the conventional example, and is the same as the diagram showing the processing of the candidate vector corresponding to the block existing beyond the image boundary shown in Patent Document 1. 6A and 6B show processing at the edge of the screen, and solid lines 602 and 604 indicate the boundaries of the screen. The pair (0, 0) indicates a block that is considered to have zero candidate vectors.

しかしながら、従来例では、画像の境界を超えて存在するブロックに対応する候補ベクトルが強制的にゼロとされているため、現在処理中のブロックとの相関が低くなってしまうため、検出する動きベクトルの精度が下がるという問題が生じる。
特開平8−251601号公報
However, in the conventional example, the candidate vector corresponding to the block existing beyond the boundary of the image is forcibly set to zero, and thus the correlation with the block currently being processed becomes low. There arises a problem that the accuracy of is reduced.
JP-A-8-251601

従来例のブロックマッチングによる全探索手法を用いた動きベクトル検出方法は、探索範囲内で参照ブロックの位置を動きベクトルを表す最小単位で移動させ、それぞれの位置に対するSADを計算するため、精度良い動きベクトルを検出する確率は上がるが、それに伴い動きベクトルを検出するための演算処理量が増大し、演算の回路規模や処理時間も大きくなる問題がある。   In the conventional motion vector detection method using the full search method based on block matching, the position of the reference block is moved within the search range by the minimum unit representing the motion vector, and the SAD for each position is calculated. Although the probability of detecting a vector increases, there is a problem that the amount of calculation processing for detecting a motion vector increases and the circuit scale and processing time of calculation increase.

また、画面上部エッジ、画面左エッジのブロックを処理する時には候補ベクトルが少ない、かつ現在処理中のブロックと相関の高いブロックに対応する候補ベクトルを使用していないので、動きベクトルの精度が下がるという問題が生じる。   Also, when processing the upper edge and left edge blocks of the screen, the number of candidate vectors is small, and the candidate vectors corresponding to the blocks that are highly correlated with the block currently being processed are not used. Problems arise.

上記問題点を解決するため、本発明の動き補償型IP変換処理装置及び方法における動きベクトル検出方法は、フィールド画像をブロックに分割し、所定の探索エリア内でブロックマッチングを行うことで、ブロック毎に、画面上ラインから下ラインの順に、かつ、ライン左から右の順に、動きベクトル検出を行い、その動きベクトルに応じ、インターレース・プログレッシブ変換処理を行う、動き補償型IP変換処理方法、及び、装置の動きベクトル検出方法において、現在処理中のブロックの動きベクトルを検出する際、現在ブロックの周辺のブロックの検出済み動きベクトルを検索候補ベクトルの1つとすることを特徴とする。   In order to solve the above problem, the motion vector detection method in the motion compensated IP conversion processing apparatus and method according to the present invention divides a field image into blocks and performs block matching within a predetermined search area. A motion compensation type IP conversion processing method that performs motion vector detection in order from the line on the screen to the bottom line and from the left to the right in the line, and performs interlace progressive conversion processing according to the motion vector, and In the motion vector detection method of the apparatus, when a motion vector of a block currently being processed is detected, a detected motion vector of a block around the current block is set as one of search candidate vectors.

また、本発明は、現在処理中のブロックが画面上部エッジの場合には、前フィールドの下部付近のブロックの検出済み動きベクトルを探索候補ベクトルの1つとすることを特徴とする。   Further, the present invention is characterized in that, when the block currently being processed is the upper edge of the screen, the detected motion vector of the block near the lower portion of the previous field is set as one of the search candidate vectors.

そして、本発明は、現在処理中のブロックが画面左エッジの場合には、前ラインの右端部付近のブロックの検出済み動きベクトルを探索候補ベクトルの1つとすることを特徴とする。   The present invention is characterized in that, when the block currently being processed is the left edge of the screen, the detected motion vector of the block near the right end of the previous line is one of the search candidate vectors.

すなわち、本発明は、SAD演算部と、SAD最小値判定部と、候補ベクトル生成部と、動きベクトル決定部とを備え、フィールド画像をブロックに分割し、所定の探索エリア内でブロックマッチングを行うことで、ブロック毎に動きベクトル検出を行い、その動きベクトルに応じ、インターレース・プログレッシブ変換処理を行う動き補償型IP変換処理装置において、現在処理中のブロックの動きベクトルを検出する際、現在ブロックの周辺のブロックの検出済み動きベクトルを検索候補ベクトルの1つとするとともに、現在処理中のブロックが画面上部エッジの場合には、前フィールドの下部のブロックの検出済み動きベクトルを探索候補ベクトルの1つとし、現在処理中のブロックが画面左エッジの場合には、前ラインの右端部のブロックの検出済み動きベクトルを探索候補ベクトルの1つとする動き補償型IP変換処理装置である。   That is, the present invention includes a SAD calculation unit, a SAD minimum value determination unit, a candidate vector generation unit, and a motion vector determination unit, divides a field image into blocks, and performs block matching within a predetermined search area. Thus, when detecting a motion vector of a block currently being processed in a motion compensated IP conversion processing device that performs motion vector detection for each block and performs interlace / progressive conversion processing according to the motion vector, The detected motion vector of the surrounding block is set as one of the search candidate vectors, and when the currently processed block is the upper edge of the screen, the detected motion vector of the lower block of the previous field is set as one of the search candidate vectors. If the block currently being processed is the left edge of the screen, the right edge block of the previous line Tsu is a motion compensation IP conversion processing device for one of the search candidate vector has been detected motion vector of click.

また、本発明は、フィールド画像をブロックに分割し、所定の探索エリア内でブロックマッチングを行うことで、ブロック毎に動きベクトル検出を行い、その動きベクトルに応じ、インターレース・プログレッシブ変換処理を行う、動き補償型IP変換処理方法において、現在処理中のブロックの動きベクトルを検出する際、現在ブロックの周辺のブロックの検出済み動きベクトルを検索候補ベクトルの1つとするとともに、現在処理中のブロックが画面上部エッジの場合には、前フィールドの下部のブロックの検出済み動きベクトルを探索候補ベクトルの1つとし、現在処理中のブロックが画面左エッジの場合には、前ラインの右端部のブロックの検出済み動きベクトルを探索候補ベクトルの1つとする動き補償型IP変換処理方法である。   Further, the present invention divides a field image into blocks, performs block matching within a predetermined search area, performs motion vector detection for each block, and performs interlace / progressive conversion processing according to the motion vector. In the motion compensation IP conversion processing method, when detecting a motion vector of a block currently being processed, the detected motion vector of a block around the current block is set as one of search candidate vectors, and the block currently being processed is displayed on the screen. In the case of the upper edge, the detected motion vector of the lower block of the previous field is set as one of the search candidate vectors, and when the currently processed block is the left edge of the screen, the block at the right end of the previous line is detected. This is a motion compensated IP conversion processing method in which a completed motion vector is one of search candidate vectors.

以上のように、本発明では、検出済みの動きベクトルを探索候補ベクトルの1つとして利用するので、動きベクトルを検出するための演算処理量を削減することができ、画面の上部エッジ、左エッジの処理を行う場合にも、候補ベクトルの数を減らさないので検出される動きベクトルの精度が上がり、高画質化可能になる。   As described above, in the present invention, since the detected motion vector is used as one of the search candidate vectors, the amount of calculation processing for detecting the motion vector can be reduced, and the upper edge and the left edge of the screen can be reduced. Even when the above process is performed, since the number of candidate vectors is not reduced, the accuracy of the detected motion vector is improved and the image quality can be improved.

本発明によれば、検出済みの動きベクトルを探索候補ベクトルの1つとして利用するので、動きベクトルを検出するための演算処理量を削減することができ、画面の上部エッジ、左エッジの処理を行う場合にも、候補ベクトルの数を減らさないので検出される動きベクトルの精度が上がり、高画質化可能になる。   According to the present invention, since the detected motion vector is used as one of the search candidate vectors, the amount of calculation processing for detecting the motion vector can be reduced, and processing of the upper edge and the left edge of the screen can be performed. Also in the case of performing, since the number of candidate vectors is not reduced, the accuracy of the detected motion vector is improved and the image quality can be improved.

本発明を実施するための最良の形態を説明する。
本発明における動き補償型IP変換処理は、図2の本発明の動きベクトル検出概念図に示すように、インターレース画像であるフィールドn画像(202)と、その2フィールド期間離れたフィールドn−2画像(200)との間に、フィールドn−1画像(201)を補間するものであり、その補間フィールド画像を生成する時に動きベクトルを使用する。
The best mode for carrying out the present invention will be described.
As shown in the conceptual diagram of motion vector detection of the present invention in FIG. 2, the motion compensated IP conversion process in the present invention includes a field n image (202) that is an interlaced image and a field n-2 image that is separated by two field periods. The field n-1 image (201) is interpolated between (200) and a motion vector is used when generating the interpolated field image.

以下、本発明の動きベクトル検出方法の実施形態について、図を用いて説明する。図2において、補間フィールド画像201を生成するために、1フィールド画像をM×Nの画素ブロック207に分割し、例えば、通常の走査線方式の通り画面左上から右下にブロック単位で処理していく。補間フィールド画像(フィールドn−1)201を生成する過程において、現在処理中のブロック(204)に対し、候補ベクトル(206)に参照される1フィールド前の画像(フィールドn−2画像)200の参照ブロック1(203)と、1フィールド後の画像(フィールドn画像)202の参照ブロック2(205)の差分をとる。この差分は、参照ブロック1と参照ブロック2のそれぞれの画素の差分絶対値和(SAD)として計算される。全ての候補ベクトルについてSADを計算し、その最小値を示すベクトルが現在処理中ブロックの動きベクトルとして決定される。   Hereinafter, embodiments of the motion vector detection method of the present invention will be described with reference to the drawings. In FIG. 2, in order to generate the interpolation field image 201, one field image is divided into M × N pixel blocks 207 and processed, for example, in block units from the upper left to the lower right of the screen as in a normal scanning line method. Go. In the process of generating the interpolated field image (field n-1) 201, the image (field n-2 image) 200 of the previous field referenced by the candidate vector (206) is compared with the block (204) currently being processed. The difference between the reference block 1 (203) and the reference block 2 (205) of the image after one field (field n image) 202 is taken. This difference is calculated as the sum of absolute differences (SAD) of the pixels of the reference block 1 and the reference block 2. The SAD is calculated for all candidate vectors, and the vector indicating the minimum value is determined as the motion vector of the currently processed block.

この過程について、図1の本発明の動きベクトル検出処理のブロック図をもとに説明する。図1において、SAD演算部100には、補間フィールド画像に対する、1フィールド前の画像データ110、1フィールド後の画像データ111が入力される。SAD演算部100は、候補ベクトル生成部102より出力される候補ベクトル113が指し示す参照ブロック1と参照ブロック2の間のSADを計算する。候補ベクトル全てに対し、同様の演算を行い、これら演算結果112の中から、SAD最小値判定部101によりSADの最小値が判定され、その判定結果114をもとに候補ベクトル113の中から動きベクトル決定部103において、現在処理中のブロックの動きベクトル115が決定される。   This process will be described based on the block diagram of the motion vector detection processing of the present invention shown in FIG. In FIG. 1, image data 110 one field before and one image data 111 after one field for an interpolation field image are input to the SAD calculation unit 100. The SAD operation unit 100 calculates the SAD between the reference block 1 and the reference block 2 indicated by the candidate vector 113 output from the candidate vector generation unit 102. The same calculation is performed on all candidate vectors, and the SAD minimum value determination unit 101 determines the minimum value of SAD from these calculation results 112. Based on the determination result 114, a motion is detected from the candidate vector 113. The vector determination unit 103 determines the motion vector 115 of the block currently being processed.

図3は、本発明の候補ベクトルとするブロックの説明図である。補間フィールドを生成するための処理が進み、1フィールド画像内では、現在処理中のブロック302の周辺に、現在処理中のブロック302との相関が高い、既に動きベクトルが検出された周辺8ブロック303が存在する。ここで、周辺ブロック303の中で、現在処理ブロック302の右隣に位置するブロック、または下、右下、左下に位置する3つのブロックは、1フィールド前の補間フィールド画像を生成する時に処理されたブロックを意味する。図1においては、動きベクトル115をメモリ104に保存しておき、次期処理ブロックでの処理に、周辺ブロックなどの既検出ベクトル116を候補ベクトルとして利用する。このように、現在処理中のブロックとの相関が高い、周辺ブロックの検出済み動きベクトル304,305,306,307を候補ベクトルとすることで、全探索方式に比べ、動きベクトル検出のための演算処理量を低減することができる。   FIG. 3 is an explanatory diagram of blocks used as candidate vectors of the present invention. The process for generating the interpolation field advances, and in one field image, there are 8 neighboring blocks 303 in which a motion vector has already been detected, and the block 302 being currently processed has a high correlation with the block 302 currently being processed. Exists. Here, among the peripheral blocks 303, a block located immediately to the right of the current processing block 302 or three blocks located below, lower right, and lower left are processed when generating an interpolation field image one field before. Means a block. In FIG. 1, the motion vector 115 is stored in the memory 104, and the detected vector 116 such as a peripheral block is used as a candidate vector for processing in the next processing block. As described above, the detected motion vectors 304, 305, 306, and 307 of the peripheral blocks having a high correlation with the block currently being processed are used as candidate vectors, so that the calculation for motion vector detection is performed as compared with the full search method. The amount of processing can be reduced.

図7は、本発明の候補ベクトルとするブロックの説明図(画面左エッジ)である。画面左エッジを処理する場合、現在処理中のブロックとの相関が高い、周辺ブロックの検出済み動きベクトルとするブロックが704、705で示される2つの候補ベクトルとするブロックになってしまう。そこで、画面外ブロック707に前ライン右エッジ(付近)の検出済み動きベクトル706を候補ベクトルの1つとすることで、検出すべき動きベクトルの精度を高くすることができる。ここで、画面外ブロック707に対応する前ライン右エッジ(付近)の検出済み動きベクトルは、706の1つ左のブロックxでも構わないし、2つ左のブロックyでも構わない。   FIG. 7 is an explanatory diagram (left edge of the screen) of a block that is a candidate vector of the present invention. When the left edge of the screen is processed, the blocks that are detected motion vectors of the neighboring blocks that have a high correlation with the block currently being processed become blocks that are two candidate vectors indicated by 704 and 705. Therefore, by making the detected motion vector 706 at the right edge (near) the previous line in the off-screen block 707 one of the candidate vectors, the accuracy of the motion vector to be detected can be increased. Here, the detected motion vector at the right edge (near) of the previous line corresponding to the off-screen block 707 may be the block x left one of 706 or the block y two left.

例えば、画面全体が一定方向に移動する画像を処理する場合には、画面内の各ブロックで動きベクトルの相関が高くなる。よって、現在処理中のブロックより離れた場所に位置するブロック(図7の706)を候補ベクトルの1つとすることで検出すべき動きベクトルの精度を高くすることができる。   For example, when processing an image in which the entire screen moves in a certain direction, the correlation of motion vectors is high in each block in the screen. Therefore, the accuracy of a motion vector to be detected can be increased by setting a block (706 in FIG. 7) located far from the block currently being processed as one of the candidate vectors.

図8は、本発明の候補ベクトルとするブロックの説明図(画面上部エッジ)である。画面上部エッジを処理する場合、現在処理中のブロックとの相関が高い、周辺ブロックの検出済み動きベクトルとするブロックが805で示される1つの候補ベクトルとするブロックになってしまう。そこで、画面外ブロック806、807、808に前フィールド下部エッジ(付近)の検出済み動きベクトル810、811、812を候補ベクトルとすることで、検出すべき動きベクトルの精度を高くすることができる。ここで、画面外ブロック806、807、808に対応する前フィールド下部エッジ(付近)の検出済み動きベクトルは、810、811、812の1つ上のブロックa、b、cでも構わないし、2つ上のブロックd、e、fでも構わない。   FIG. 8 is an explanatory diagram (upper edge of the screen) of a block as a candidate vector of the present invention. When processing the upper edge of the screen, a block that has a high correlation with the block currently being processed and that is a detected motion vector of a peripheral block becomes a block that is a single candidate vector indicated by 805. Therefore, by using the detected motion vectors 810, 811 and 812 at the lower edge (near) of the previous field in the off-screen blocks 806, 807 and 808 as the candidate vectors, the accuracy of the motion vector to be detected can be increased. Here, the detected motion vectors of the lower edge (near) of the previous field corresponding to the off-screen blocks 806, 807, and 808 may be blocks a, b, and c that are one block above 810, 811, and 812, or two. The upper blocks d, e, and f may be used.

例えば、画面全体が一定方向に移動する画像を処理する場合には、画面内の各ブロックで動きベクトルの相関が高くなる。よって、現在処理中のブロックより離れた場所に位置するブロック(図8の810、811、812)を候補ベクトルの1つとすることで検出すべき動きベクトルの精度を高くすることができる。   For example, when processing an image in which the entire screen moves in a certain direction, the correlation of motion vectors is high in each block in the screen. Therefore, the accuracy of the motion vector to be detected can be increased by making one of the candidate vectors a block (810, 811 and 812 in FIG. 8) located far from the block currently being processed.

このようにして、本発明によると、検出済みの動きベクトルを探索候補ベクトルの1つとして利用するので、動きベクトルを検出するための演算処理量を削減することができ、画面の上部エッジ、左エッジの処理を行う場合にも、候補ベクトルの数を減らさないので検出される動きベクトルの精度が上がり、高画質化可能になる。   Thus, according to the present invention, since the detected motion vector is used as one of the search candidate vectors, the amount of calculation processing for detecting the motion vector can be reduced, and the upper edge of the screen, left Even when edge processing is performed, since the number of candidate vectors is not reduced, the accuracy of the detected motion vector is improved and the image quality can be improved.

本発明の動きベクトル検出処理のブロック図。The block diagram of the motion vector detection process of this invention. 本発明の動きベクトル検出方法の概念図。The conceptual diagram of the motion vector detection method of this invention. 本発明の候補ベクトルとするブロックの説明図。Explanatory drawing of the block made into the candidate vector of this invention. 従来例の動きベクトル検出処理のブロック図。The block diagram of the motion vector detection process of a prior art example. 従来例の動きベクトル検出方法の概念図。The conceptual diagram of the motion vector detection method of a prior art example. 従来例の候補ベクトル処理の説明図。Explanatory drawing of the candidate vector process of a prior art example. 本発明の候補ベクトルとするブロックの説明図(画面左エッジ)。Explanatory drawing (screen left edge) of the block made into the candidate vector of this invention. 本発明の候補ベクトルとするブロックの説明図(画面上部エッジ)。Explanatory drawing of the block made into a candidate vector of this invention (screen upper edge).

符号の説明Explanation of symbols

100 SAD演算部 101 SAD最小値判定部
102 候補ベクトル生成部 103 動きベクトル決定部
104 メモリ 110 1フィールド前画像データ
111 1フィールド後画像データ 112 演算結果
113 候補ベクトル 114 判定結果
115 動きベクトル 116 既検出ベクトル
200 フィールドn−2画像 201 フィールドn−1画像(補間)
202 フィールドn画像 203 参照ブロック1
204 現在処理ブロック 205 参照ブロック2
206 候補ベクトル 207 画素ブロック
300 1フィールド画面 301 ブロック
302 現在処理ブロック 303 現在処理ブロックの周辺ブロック
304 候補ベクトルとするブロック1 305 候補ベクトルとするブロック2
306 候補ベクトルとするブロック3 307 候補ベクトルとするブロック4
308 処理済みブロック 400 SAD演算部
401 SAD最小値判定部 402 候補ベクトル生成部
403 動きベクトル決定部 410 前フレームデータ
411 現在フレームデータ 412 演算結果
413 候補ベクトル 414 判定結果
415 動きベクトル 500 前フレーム
501 現在フレーム 502 探索範囲
503 予測対象ブロック 504 参照ブロック
505 候補ベクトル 506 動きベクトル
507 予測対象ブロックと同位置のブロック
601、603 現在処理ブロック 602、604 画像の境界
700 1フィールド画面 701 ブロック
702 現在処理ブロック 703 現在処理ブロックの周辺ブロック
704 候補ベクトルとするブロック1 705 候補ベクトルとするブロック2
706 候補ベクトルとするブロックA 707 画面外ブロック
708 処理済みブロック 800 前フィールド画面n−1
801 現在処理中のフィールド画面n 802 ブロック
803 現在処理ブロック 804 現在処理ブロックの周辺ブロック
805 候補ベクトルとするブロック1 806、807、808 画面外ブロック
809 処理済みブロック 810 候補ベクトルとするブロックA
811 候補ベクトルとするブロックB 812 候補ベクトルとするブロックC
DESCRIPTION OF SYMBOLS 100 SAD calculating part 101 SAD minimum value determination part 102 Candidate vector production | generation part 103 Motion vector determination part 104 Memory 110 1 field before image data 111 1 field after image data 112 Calculation result 113 Candidate vector 114 Determination result 115 Motion vector 116 Already detected vector 200 field n-2 image 201 field n-1 image (interpolation)
202 field n image 203 reference block 1
204 Current processing block 205 Reference block 2
206 Candidate Vector 207 Pixel Block 300 1 Field Screen 301 Block 302 Current Processing Block 303 Surrounding Block 304 of Current Processing Block Block 1 Candidate Vector 305 Block 2 Candidate Vector
306 Block 3 as a candidate vector 307 Block 4 as a candidate vector
308 Processed Block 400 SAD Operation Unit 401 SAD Minimum Value Determination Unit 402 Candidate Vector Generation Unit 403 Motion Vector Determination Unit 410 Previous Frame Data 411 Current Frame Data 412 Operation Result 413 Candidate Vector 414 Determination Result 415 Motion Vector 500 Previous Frame 501 Current Frame 502 Search range 503 Prediction target block 504 Reference block 505 Candidate vector 506 Motion vector 507 Blocks 601 and 603 at the same position as the prediction target block 602 and 604 Image boundary 700 1 Field screen 701 Block 702 Current processing block 703 Current processing Blocks around block 704 Block 1 as candidate vector 705 Block 2 as candidate vector
706 Block A as a candidate vector 707 Out-of-screen block 708 Processed block 800 Previous field screen n-1
801 Field screen currently being processed n 802 Block 803 Current processing block 804 Peripheral block of current processing block 805 Candidate vector block 1 806, 807, 808 Off-screen block 809 Processed block 810 Block A block A
811 Block B to be a candidate vector 812 Block C to be a candidate vector

Claims (2)

SAD演算部と、SAD最小値判定部と、候補ベクトル生成部と、動きベクトル決定部とを備え、フィールド画像をブロックに分割し、所定の探索エリア内でブロックマッチングを行うことで、ブロック毎に動きベクトル検出を行い、その動きベクトルに応じ、インターレース・プログレッシブ変換処理を行う動き補償型IP変換処理装置において、
現在処理中のブロックの動きベクトルを検出する際、現在ブロックの周辺のブロックの検出済み動きベクトルを検索候補ベクトルの1つとするとともに、現在処理中のブロックが画面上部エッジの場合には、前フィールドの下部のブロックの検出済み動きベクトルを探索候補ベクトルの1つとし、現在処理中のブロックが画面左エッジの場合には、前ラインの右端部のブロックの検出済み動きベクトルを探索候補ベクトルの1つとすることを特徴とする動き補償型IP変換処理装置。
A SAD operation unit, a SAD minimum value determination unit, a candidate vector generation unit, and a motion vector determination unit are provided, and the field image is divided into blocks, and block matching is performed within a predetermined search area. In a motion compensated IP conversion processing apparatus that performs motion vector detection and performs interlace / progressive conversion processing according to the motion vector,
When detecting the motion vector of the block currently being processed, the detected motion vector of the blocks around the current block is set as one of the search candidate vectors, and if the block currently being processed is the upper edge of the screen, the previous field If the detected motion vector of the lower block is one of the search candidate vectors, and the currently processed block is the left edge of the screen, the detected motion vector of the right end block of the previous line is set to 1 of the search candidate vectors. A motion-compensated IP conversion processing device characterized by comprising:
フィールド画像をブロックに分割し、所定の探索エリア内でブロックマッチングを行うことで、ブロック毎に動きベクトル検出を行い、その動きベクトルに応じ、インターレース・プログレッシブ変換処理を行う、動き補償型IP変換処理方法において、
現在処理中のブロックの動きベクトルを検出する際、現在ブロックの周辺のブロックの検出済み動きベクトルを検索候補ベクトルの1つとするとともに、現在処理中のブロックが画面上部エッジの場合には、前フィールドの下部のブロックの検出済み動きベクトルを探索候補ベクトルの1つとし、現在処理中のブロックが画面左エッジの場合には、前ラインの右端部のブロックの検出済み動きベクトルを探索候補ベクトルの1つとすることを特徴とする動き補償型IP変換処理方法。
Motion compensated IP conversion processing that divides a field image into blocks and performs block matching within a predetermined search area, thereby detecting motion vectors for each block and performing interlace / progressive conversion processing according to the motion vectors In the method
When detecting the motion vector of the block currently being processed, the detected motion vector of the blocks around the current block is set as one of the search candidate vectors, and if the block currently being processed is the upper edge of the screen, the previous field If the detected motion vector of the lower block is one of the search candidate vectors, and the currently processed block is the left edge of the screen, the detected motion vector of the right end block of the previous line is set to 1 of the search candidate vectors. A motion compensated IP conversion processing method characterized by comprising:
JP2005030387A 2005-02-07 2005-02-07 Motion compensation IP conversion processing apparatus and motion compensation IP conversion processing method Expired - Fee Related JP4250598B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005030387A JP4250598B2 (en) 2005-02-07 2005-02-07 Motion compensation IP conversion processing apparatus and motion compensation IP conversion processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005030387A JP4250598B2 (en) 2005-02-07 2005-02-07 Motion compensation IP conversion processing apparatus and motion compensation IP conversion processing method

Publications (2)

Publication Number Publication Date
JP2006217486A JP2006217486A (en) 2006-08-17
JP4250598B2 true JP4250598B2 (en) 2009-04-08

Family

ID=36980291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005030387A Expired - Fee Related JP4250598B2 (en) 2005-02-07 2005-02-07 Motion compensation IP conversion processing apparatus and motion compensation IP conversion processing method

Country Status (1)

Country Link
JP (1) JP4250598B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4869045B2 (en) 2006-11-30 2012-02-01 株式会社東芝 Interpolation frame creation method and interpolation frame creation apparatus
US9374598B2 (en) 2011-03-21 2016-06-21 Lg Electronics Inc. Method for selecting motion vector predictor and device using same
CN109672841B (en) * 2019-01-25 2020-07-10 珠海亿智电子科技有限公司 Low-cost de-interlace treatment method

Also Published As

Publication number Publication date
JP2006217486A (en) 2006-08-17

Similar Documents

Publication Publication Date Title
CN102833533B (en) Video decoding apparatus and video decoding method
JP5877469B2 (en) Object tracking using moment and acceleration vectors in motion estimation systems
JP4296218B1 (en) Video display device
KR101217627B1 (en) Method and apparatus for estimating motion vector based on block
US20080246884A1 (en) Motion estimation method
JP2005287048A (en) Improvement of motion vector estimation at image border
JP2009533928A (en) Method for determining estimated motion vector in image signal, computer program, computer program product, and display device
JP2000134585A (en) Motion vector deciding method and method and circuit for number of frames of image signal conversion
JP2005229600A (en) Motion compensation interpolating method by motion estimation of superposed block base and frame rate conversion device applying the same
JP2005012798A (en) Motion vector generation apparatus and method
CN112292861B (en) Sub-pixel accurate correction method based on error surface for decoding end motion vector correction
US20100080299A1 (en) Frame frequency conversion apparatus, frame frequency conversion method, program for achieving the method, computer readable recording medium recording the program, motion vector detection apparatus, and prediction coefficient generation apparatus
JP2006331136A (en) Moving vector detection apparatus
JP4250598B2 (en) Motion compensation IP conversion processing apparatus and motion compensation IP conversion processing method
JP3175914B2 (en) Image encoding method and image encoding device
JPH06351001A (en) Motion vector detecting method and movement compensation predicting method and device therefor
JP2007129400A (en) Film mode detector and video display
JP2006521740A (en) Motion vector determination method
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP4736456B2 (en) Scanning line interpolation device, video display device, video signal processing device
JP2006303910A (en) Film mode detecting apparatus
JP2006166061A (en) Motion vector detection method
JPH11215502A (en) Motion vector detector and its method
JP2006186504A (en) Apparatus and method of image processing, recording medium, and program
JP4241021B2 (en) Motion vector detection method, motion vector detection device, and image encoding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees