JP4846719B2 - Panorama motion estimation and compensation - Google Patents

Panorama motion estimation and compensation Download PDF

Info

Publication number
JP4846719B2
JP4846719B2 JP2007525553A JP2007525553A JP4846719B2 JP 4846719 B2 JP4846719 B2 JP 4846719B2 JP 2007525553 A JP2007525553 A JP 2007525553A JP 2007525553 A JP2007525553 A JP 2007525553A JP 4846719 B2 JP4846719 B2 JP 4846719B2
Authority
JP
Japan
Prior art keywords
pixel
data unit
sub
video
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007525553A
Other languages
Japanese (ja)
Other versions
JP2008510359A (en
Inventor
ガン−フン・パク
スン−ホ・ソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2005/002652 external-priority patent/WO2006016788A1/en
Publication of JP2008510359A publication Critical patent/JP2008510359A/en
Application granted granted Critical
Publication of JP4846719B2 publication Critical patent/JP4846719B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/55Motion estimation with spatial constraints, e.g. at image or region borders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/56Motion estimation with initialisation of the vector search, e.g. estimating a good candidate to initiate a search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/563Motion estimation with padding, i.e. with filling of non-object values in an arbitrarily shaped picture block or region for estimation purposes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本発明は、パノラマ映像の動き推定及び補償に係り、さらに詳細には、360°全方向映像情報を含むパノラマ映像の動き推定方法、動き推定装置、動き補償方法及び動き補償装置に関する。   The present invention relates to panoramic video motion estimation and compensation, and more particularly to a panoramic video motion estimation method, motion estimation device, motion compensation method, and motion compensation device including 360 ° omnidirectional video information.

全方向ビデオカメラシステムは、固定視点を基準に360°全方向映像の撮影可能なカメラシステムを言う。全方向ビデオカメラシステムは、カメラに双曲面ミラーのような特殊形態のミラーや、魚眼レンズのような特殊レンズを装着するか、複数のカメラを利用して全方向を撮影する。   An omnidirectional video camera system refers to a camera system capable of shooting 360-degree omnidirectional video with a fixed viewpoint as a reference. In the omnidirectional video camera system, a specially shaped mirror such as a hyperboloid mirror or a special lens such as a fisheye lens is attached to the camera, or a plurality of cameras are used to shoot in all directions.

全方向ビデオコーディング方法が適用される一例として、三次元実感放送がある。三次元実感放送の一例を挙げれば、野球競技などで、多様な視点からの光景についての映像情報は、視聴者側の端末に全て与えられる。すなわち、投手の立場からの視点、捕手の立場からの視点、打者の立場からの視点、1塁席観衆の立場からの視点などでの多様な映像情報が視聴者に提供される。視聴者は、見たい視点を自ら決定して、その視点からの映像を視聴しうる。   As an example to which the omnidirectional video coding method is applied, there is 3D reality broadcasting. As an example of a three-dimensional reality broadcast, video information about scenes from various viewpoints is given to a viewer's terminal in a baseball game or the like. In other words, the viewer is provided with a variety of video information from the viewpoint of the pitcher, the viewpoint from the catcher, the viewpoint from the batter's position, the viewpoint from the position of the first-seat audience, and the like. The viewer can determine the viewpoint he / she wants to see and view the video from that viewpoint.

全方向カメラシステムにより撮影された映像は、3次元の球形環境に対応する特徴を有する。したがって、全方向カメラシステムにより撮影された3次元映像を2次元平面映像に変換する。このとき、2次元平面映像は、360°全方向映像を含むパノラマ映像となる。2次元パノラマ映像に対して全方向ビデオコーディングが行われる。   An image captured by the omnidirectional camera system has characteristics corresponding to a three-dimensional spherical environment. Therefore, the 3D image captured by the omnidirectional camera system is converted into a 2D plane image. At this time, the two-dimensional planar image is a panoramic image including a 360 ° omnidirectional image. Omnidirectional video coding is performed on the two-dimensional panoramic image.

一方、映像符号化技術の一つである動き推定は、所定の評価関数を利用して、現在のフレーム内のデータユニットと最も類似したデータユニットを以前のフレームで探索して両データユニットの位置の差を表す動きベクトルを求める過程である。ここで、データユニットは、一般的に16X16のサイズのマクロブロックが主に利用されるが、16X8、8X16及び8X8ブロックなどの多様なサイズのブロックが利用されうる。   On the other hand, motion estimation, which is one of the video encoding techniques, uses a predetermined evaluation function to search for the data unit most similar to the data unit in the current frame in the previous frame, and locates both data units. This is a process of obtaining a motion vector representing the difference between the two. Here, a macro block having a size of 16 × 16 is mainly used as a data unit, but blocks of various sizes such as 16 × 8, 8 × 16, and 8 × 8 blocks can be used.

16x16サイズのマクロブロック単位で行われる従来の技術の一例による動き推定過程をさらに詳細に説明する。まず、現在のマクロブロックに隣接する複数の以前のマクロブロックの動きベクトルを利用して、現在のマクロブロックの動きベクトルを予測する。図1は、現在のマクロブロックの動きベクトルの予測に利用される複数の以前のマクロブロックを示す図面である。Xは、現在のマクロブロックを表し、A、B、C及びDは、現在のマクロブロックXの前に符号化された以前のマクロブロックである。   A motion estimation process according to an example of the conventional technique performed in units of 16 × 16 macroblocks will be described in more detail. First, a motion vector of a current macroblock is predicted using motion vectors of a plurality of previous macroblocks adjacent to the current macroblock. FIG. 1 is a diagram illustrating a plurality of previous macroblocks used for motion vector prediction of a current macroblock. X represents the current macroblock, and A, B, C, and D are previous macroblocks encoded before the current macroblock X.

しかし、現在のフレーム内での現在のマクロブロックXの位置によって、利用できない以前のマクロブロックが発生する。図2Aは、現在のマクロブロックXの動きベクトルの予測に利用する以前のマクロブロックB、C及びDが存在しない場合を表す。このような場合、現在のマクロブロックXの動きベクトルは、0に設定される。   However, depending on the position of the current macroblock X in the current frame, a previous macroblock that cannot be used is generated. FIG. 2A shows a case where there are no previous macroblocks B, C, and D used to predict the motion vector of the current macroblock X. In such a case, the motion vector of the current macroblock X is set to zero.

図2Bは、現在のマクロブロックXの動きベクトルの予測に利用する以前のマクロブロックA及びDが存在しない場合を表す。このような場合、以前のマクロブロックA及びDの動きベクトルは、それぞれ0に設定される。現在のマクロブロックXの動きベクトルは、以前のマクロブロックA、B、C及びDの中間値に設定される。   FIG. 2B shows a case where there are no previous macroblocks A and D used for prediction of the motion vector of the current macroblock X. In such a case, the motion vectors of the previous macroblocks A and D are set to 0, respectively. The motion vector of the current macroblock X is set to the intermediate value of the previous macroblocks A, B, C and D.

図2Cは、現在のマクロブロックXの動きベクトルの予測に利用する以前のマクロブロックCが存在しない場合を表す。このような場合、以前のマクロブロックCの動きベクトルは、それぞれ0に設定される。現在のマクロブロックXの動きベクトルは、以前のマクロブロックA、B、C及びDの中間値に設定される。   FIG. 2C shows a case where there is no previous macroblock C used for prediction of the motion vector of the current macroblock X. In such a case, the motion vector of the previous macroblock C is set to 0, respectively. The motion vector of the current macroblock X is set to the intermediate value of the previous macroblocks A, B, C and D.

現在のマクロブロックXの予測動きベクトルが求められれば、予測動きベクトルが表す、参照フレーム内の参照マクロブロックと現在のマクロブロックとの類似程度を所定の評価関数を利用して計算する。その後、所定の探索範囲内で現在のマクロブロックと最も類似した参照フレーム内の参照マクロブロックを探索する。前記所定の評価関数としては、SAD(Sum of Absolute Difference)関数、SATD(Sum of Absolute Transformed Difference)関数またはSSD(Sum of Squared Difference)関数を利用することが一般的である。   If the predicted motion vector of the current macroblock X is obtained, the degree of similarity between the reference macroblock in the reference frame and the current macroblock represented by the predicted motion vector is calculated using a predetermined evaluation function. Thereafter, a reference macroblock in a reference frame most similar to the current macroblock is searched for within a predetermined search range. As the predetermined evaluation function, a SAD (Sum of Absolute Difference) function, a SATD (Sum of Absolute Transformed Difference) function, or an SSD (Sum of Squared Difference) function is generally used.

所定の探索範囲内で現在のマクロブロックと最も類似した参照マクロブロックの探索時、参照マクロブロックの一部または全画素が参照映像の外部に存在してもよい。このような場合、図3に示すように、参照映像の左側境界に位置した画素値を参照映像の左側境界の外側領域にパッディングし、参照映像の右側境界に位置した画素値を参照映像の右側境界の外側領域にパッディングした後に、動き予測及び補償を行う。このような方式による動き予測及び補償をUMV(Unrestricted Motion Vector)モードによる動き予測及び補償という。   When searching for a reference macroblock most similar to the current macroblock within a predetermined search range, some or all pixels of the reference macroblock may exist outside the reference video. In such a case, as shown in FIG. 3, the pixel value located at the left boundary of the reference image is padded to the outside area of the left boundary of the reference image, and the pixel value located at the right boundary of the reference image is After padding the outer region of the right boundary, motion prediction and compensation are performed. The motion prediction and compensation by such a method is called motion prediction and compensation by the UMV (Unrestricted Motion Vector) mode.

図4Aは、360°全方向映像を含む円筒形の映像を示す図面であり、図4Bは、図4Aに示す円筒形の映像を基準線Xに沿って切断することによって生成された、360°全方向映像を含むパノラマ映像を表す。図4Bに示すように、人間状の客体の左側部分Aは、パノラマ映像の右側境界部分に位置し、人間状の客体の右側部分Bは、パノラマ映像の左側境界部分に位置するということが分かる。すなわち、360°全方向映像を含むパノラマ映像の右側境界部分と左側境界部分との空間的な相関関係は非常に高い。   4A is a drawing showing a cylindrical image including a 360 ° omnidirectional image, and FIG. 4B is a 360 ° image generated by cutting the cylindrical image shown in FIG. 4A along the reference line X. Represents panoramic video including omnidirectional video. As shown in FIG. 4B, it can be seen that the left portion A of the human-like object is located at the right boundary portion of the panoramic image, and the right portion B of the human-like object is located at the left boundary portion of the panoramic image. . That is, the spatial correlation between the right boundary portion and the left boundary portion of the panoramic image including the 360 ° omnidirectional image is very high.

全方向映像情報を含むパノラマ映像のこのような特性を考慮せず、前述の従来の技術による動き予測及び補償方法をそのまま全方向映像情報を含むパノラマ映像に適用することは効率的ではない。したがって、全方向映像情報を含むパノラマ映像に適した動き予測及び補償方法が要求される。   Without considering such characteristics of panoramic video including omnidirectional video information, it is not efficient to apply the above-described conventional motion prediction and compensation method to panoramic video including omnidirectional video information as it is. Therefore, a motion prediction and compensation method suitable for panoramic video including omnidirectional video information is required.

本発明が解決しようとする技術的課題は、全方向映像情報を含むパノラマ映像の特性に合う、さらに効率的かつ正確な動き推定方法及びその装置を提供するところにある。   The technical problem to be solved by the present invention is to provide a more efficient and accurate motion estimation method and apparatus that match the characteristics of panoramic video including omnidirectional video information.

本発明が解決しようとする他の技術的課題は、全方向映像情報を含むパノラマ映像の特性に合う、さらに効率的かつ正確な動き補償方法及びその装置を提供するところにある。   Another technical problem to be solved by the present invention is to provide a more efficient and accurate motion compensation method and apparatus that match the characteristics of panoramic video including omnidirectional video information.

前記課題を解決するための本発明の一つの特徴は、360°全方向映像情報を含むパノラマ映像の動き推定方法において、現在のパノラマ映像の動き推定のための基本参照映像の左側パッディング領域には、右側境界部領域を利用してパッディングし、前記基本参照映像の右側パッディング領域には、左側境界部領域を利用してパッディングした後、パッディングされた映像を拡張して参照映像に設定するステップと、前記現在のパノラマ映像に含まれた現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを利用して、前記現在のデータユニットの動きベクトルを予測するステップと、前記予測された動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記参照映像の外側に位置する場合、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算するか、または減算した値を前記副画素のx座標に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得るステップと、所定の評価関数を利用して前記現在のデータユニットと前記参照データユニットとの類似度を決定するステップと、を含むことである。   One feature of the present invention for solving the above problem is that in a panoramic video motion estimation method including 360 ° omnidirectional video information, a left padding area of a basic reference video for motion estimation of a current panoramic video is used. Is padded using the right boundary area, and the right reference padding area of the basic reference video is padded using the left boundary area, and then the padded video is expanded to be the reference video. And using the motion vectors of a plurality of previous data units adjacent to the current data unit included in the current panoramic image to predict the motion vector of the current data unit; If a sub-pixel included in the reference data unit represented by the predicted motion vector belongs to the reference video, the pixel value of the sub-pixel is set as the sub-pixel. If the sub-pixel is located outside the reference image, the distance on the x-axis between one boundary of the basic reference image near the sub-pixel and the sub-pixel is determined as the basic pixel. The reference data unit is obtained from the reference image by adding or subtracting the value to the x coordinate of the other boundary of the reference image to set the x coordinate of the subpixel and obtaining the pixel value of the subpixel. And obtaining a similarity between the current data unit and the reference data unit using a predetermined evaluation function.

本発明の他の特徴は、360°全方向映像情報を含むパノラマ映像の動き推定方法において、現在のパノラマ映像の動き推定のための基本参照映像の左側パッディング領域には、左側境界部画素値を利用してパッディングし、前記基本参照映像の右側パッディング領域には、右側境界部画素値を利用してパッディングした後、パッディングされた映像を拡張して参照映像に設定するステップと、前記現在のパノラマ映像に含まれた現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを利用して前記現在のデータユニットの動きベクトルを予測するステップと、前記予測された動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像の前記基本参照映像に属する場合、前記副画素の画素値を獲得し、前記副画素が前記参照映像のパッディング領域または参照映像の外側に属する場合、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算するか、または減算した値を前記副画素のx座標値に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得るステップと、所定の評価関数を利用して前記現在のデータユニットと前記参照データユニットとの類似度を決定するステップと、を含むことである。   According to another aspect of the present invention, in the panoramic video motion estimation method including 360 ° omnidirectional video information, the left padding region of the basic reference video for motion estimation of the current panoramic video has a left boundary pixel value. And padding in the right padding area of the basic reference video using the right boundary pixel value, and then extending the padded video to set as a reference video; Predicting a motion vector of the current data unit using motion vectors of a plurality of previous data units adjacent to the current data unit included in the current panoramic image; and the predicted motion vector If the subpixel included in the reference data unit represented by belongs to the basic reference video of the reference video, obtain the pixel value of the subpixel, When the subpixel belongs to the padding area of the reference image or outside the reference image, the distance on the x-axis between one boundary of the basic reference image near the subpixel and the subpixel is determined. Adding or subtracting the x coordinate value of the subpixel to the x coordinate of the other boundary of the basic reference image to obtain the pixel value of the subpixel, thereby obtaining the pixel value of the subpixel. Obtaining all pixel values of the reference data unit, and determining a similarity between the current data unit and the reference data unit using a predetermined evaluation function.

本発明のさらに他の特徴は、360°全方向映像情報を含むパノラマ映像の動き推定装置において、現在のパノラマ映像の動き推定のための基本参照映像の左側パッディング領域には、右側境界部領域を利用してパッディングし、前記基本参照映像の右側パッディング領域には、左側境界部領域を利用してパッディングした後、パッディングされた映像を拡張して生成された参照映像及び現在のパノラマ映像に含まれた現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを保存するメモリと、前記複数の以前のデータユニットの前記動きベクトルを利用して前記現在のデータユニットの動きベクトルを予測し、前記予測された動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記参照映像の外側に位置する場合、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算するか、または減算した値を前記副画素のx座標に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得た後に、所定の評価関数を利用して前記現在のデータユニットと前記参照データユニットとの類似度を決定する動き推定部と、を備えることである。   According to another aspect of the present invention, in the panoramic video motion estimation apparatus including 360 ° omnidirectional video information, the left padding area of the basic reference video for motion estimation of the current panoramic video has a right boundary area. In the right padding area of the basic reference image, the padding image is expanded using the left boundary area and the reference image generated by extending the padded image and the current reference image. A memory storing motion vectors of a plurality of previous data units adjacent to the current data unit included in the panoramic image; and a motion of the current data unit using the motion vectors of the plurality of previous data units When a vector is predicted and a sub-pixel included in a reference data unit represented by the predicted motion vector belongs to the reference image, If the pixel value of the sub-pixel is obtained as it is and the sub-pixel is located outside the reference image, an x-axis between one boundary of the basic reference image near the sub-pixel and the sub-pixel By adding the distance above to the x coordinate of the other boundary of the basic reference image or setting the subtracted value to the x coordinate of the sub pixel to obtain the pixel value of the sub pixel, A motion estimator that determines a similarity between the current data unit and the reference data unit using a predetermined evaluation function after obtaining all pixel values of the reference data unit from a reference video. It is.

本発明のさらに他の特徴は、360°全方向映像情報を含むパノラマ映像の動き推定装置において、現在のパノラマ映像の動き推定のための基本参照映像の左側パッディング領域には、左側境界部画素値を利用してパッディングし、前記基本参照映像の右側パッディング領域には、右側境界部画素値を利用してパッディングした後、パッディングされた映像を拡張して生成された参照映像及び現在のパノラマ映像に含まれた現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを保存するメモリと、前記複数の以前のデータユニットの前記動きベクトルを利用して前記現在のデータユニットの動きベクトルを予測し、前記予測された動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像の前記基本参照映像に属する場合、前記副画素の画素値を獲得し、前記副画素が前記参照映像のパッディング領域または参照映像の外側に属する場合、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算するか、または減算した値を前記副画素のx座標値に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得た後に、所定の評価関数を利用して前記現在のデータユニットと前記参照データユニットとの類似度を決定する動き推定部と、を備えることである。   According to another aspect of the present invention, in the panoramic video motion estimation apparatus including 360 ° omnidirectional video information, the left padding region of the basic reference video for motion estimation of the current panoramic video has a left boundary pixel. In the right padding area of the basic reference image, padding is performed using the right boundary pixel value, and then the reference image generated by expanding the padded image and A memory storing motion vectors of a plurality of previous data units adjacent to a current data unit included in a current panoramic image; and the current data unit using the motion vectors of the plurality of previous data units A sub-pixel included in a reference data unit represented by the predicted motion vector is the base of the reference video If the sub-pixel belongs to a reference image, the pixel value of the sub-pixel is obtained, and if the sub-pixel belongs to the padding area of the reference image or outside the reference image, one of the basic reference images near the sub-pixel is obtained. The distance on the x-axis between the boundary and the sub-pixel is added to the x-coordinate of the other boundary of the basic reference image, or the subtracted value is set as the x-coordinate value of the sub-pixel, and After obtaining all pixel values of the reference data unit from the reference image by obtaining a pixel value of a sub-pixel, the similarity between the current data unit and the reference data unit using a predetermined evaluation function And a motion estimator for determining the degree.

本発明のさらに他の特徴は、360°全方向映像情報を含むパノラマ映像の動き補償方法において、現在のパノラマ映像の動き補償のための基本参照映像の左側パッディング領域には、右側境界部領域を利用してパッディングし、前記基本参照映像の右側パッディング領域には、左側境界部領域を利用してパッディングした後、パッディングされた映像を拡張して参照映像に生成するステップと、現在のパノラマ映像に含まれた現在のデータユニットの動きベクトルを入力されるステップと、前記現在のデータユニットの動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記参照映像の外側に位置する場合、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算するか、または減算した値を前記副画素のx座標に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得るステップと、前記参照データユニットの画素値を利用して前記現在のデータユニットを再生するステップと、を含むことである。   According to another aspect of the present invention, in the panoramic video motion compensation method including 360 ° omnidirectional video information, the left padding area of the basic reference video for motion compensation of the current panoramic video has a right boundary area. And padding the right reference padding area of the basic reference image using the left boundary area, and then expanding the padded image to generate a reference image; and A step of inputting a motion vector of a current data unit included in a current panoramic image, and a sub-pixel included in a reference data unit represented by the motion vector of the current data unit belongs to the reference image; When the pixel value of the sub-pixel is obtained as it is and the sub-pixel is located outside the reference image, the basic reference image near the sub-pixel is obtained. The distance on the x-axis between one boundary of the sub-pixel and the sub-pixel is added to the x-coordinate of the other boundary of the basic reference image, or the subtracted value is set as the x-coordinate of the sub-pixel. Obtaining all pixel values of the reference data unit from the reference image by obtaining a pixel value of the sub-pixel, and reproducing the current data unit using the pixel value of the reference data unit Steps.

本発明のさらに他の特徴は、360°全方向映像情報を含むパノラマ映像の動き補償方法において、現在のパノラマ映像の動き補償のための基本参照映像の左側パッディング領域には、左側境界部画素値を利用してパッディングし、前記基本参照映像の右側パッディング領域には、右側境界部画素値を利用してパッディングした後、パッディングされた映像を拡張して参照映像を生成するステップと、現在のパノラマ映像に含まれた現在のデータユニットの動きベクトルを入力されるステップと、前記現在のデータユニットの動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像の前記基本参照映像に属する場合、前記副画素の画素値を獲得し、前記副画素が前記参照映像のパッディング領域または参照映像の外側に属する場合、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算するか、または減算した値を前記副画素のx座標値に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得るステップと、前記参照データユニットの画素値を利用して前記現在のデータユニットを再生するステップと、を含むことである。   According to another aspect of the present invention, in the panoramic video motion compensation method including 360 ° omnidirectional video information, the left padding region of the basic reference video for motion compensation of the current panoramic video has a left boundary pixel. Padding using a value, padding a right padding area of the basic reference video using a right boundary pixel value, and then generating a reference video by extending the padded video A step of inputting a motion vector of the current data unit included in the current panoramic image, and a sub-pixel included in the reference data unit represented by the motion vector of the current data unit is the basic of the reference image If it belongs to the reference video, the pixel value of the sub-pixel is acquired, and the sub-pixel belongs to the padding area of the reference video or outside the reference video In this case, the distance on the x-axis between one boundary of the basic reference image near the subpixel and the subpixel is added to or subtracted from the x coordinate of the other boundary of the basic reference image. Obtaining all pixel values of the reference data unit from the reference video by setting the obtained value to the x-coordinate value of the sub-pixel and obtaining the pixel value of the sub-pixel; and Replaying the current data unit using pixel values.

本発明のさらに他の特徴は、360°全方向映像情報を含むパノラマ映像の動き補償装置において、現在のパノラマ映像の動き補償のための基本参照映像の左側パッディング領域には、右側境界部領域を利用してパッディングし、前記基本参照映像の右側パッディング領域には、左側境界部領域を利用してパッディングした後、パッディングされた映像を拡張して生成された参照映像を保存するメモリと、前記現在のパノラマ映像に含まれた現在のデータユニットの動きベクトルを入力されて、前記入力された動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記参照映像の外側に位置する場合、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算するか、または減算した値を前記副画素のx座標に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得た後に、前記参照データユニットの画素値を利用して前記現在のデータユニットを再生する動き補償部と、を備えることである。   According to another aspect of the present invention, in the panorama video motion compensation apparatus including 360 ° omnidirectional video information, the left padding region of the basic reference video for motion compensation of the current panoramic video has a right boundary region. In the right padding area of the basic reference video, padding is performed using the left boundary area, and the generated reference video is stored by extending the padded video. When a motion vector of a current data unit included in the current panoramic image is input to a memory and a sub-pixel included in a reference data unit represented by the input motion vector belongs to the reference image, If the pixel value of the sub-pixel is obtained as it is and the sub-pixel is located outside the reference image, one of the basic reference images near the sub-pixel The distance on the x-axis between the field and the sub-pixel is added to the x-coordinate of the other boundary of the basic reference image, or the subtracted value is set as the x-coordinate of the sub-pixel, and the sub-pixel is set. A motion compensation unit that obtains all pixel values of the reference data unit from the reference image by acquiring a pixel value of the pixel and then reproduces the current data unit using the pixel value of the reference data unit And providing.

本発明のさらに他の特徴は、360°全方向映像情報を含むパノラマ映像の動き補償装置において、現在のパノラマ映像の動き補償のための基本参照映像の左側パッディング領域には、左側境界部画素値を利用してパッディングし、前記基本参照映像の右側パッディング領域には、右側境界部画素値を利用してパッディングした後、パッディングされた映像を拡張して生成された参照映像を保存するメモリと、前記現在のパノラマ映像に含まれた現在のデータユニットの動きベクトルを入力されて、前記現在のデータユニットの動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像の前記基本参照映像に属する場合、前記副画素の画素値を獲得し、前記副画素が前記参照映像のパッディング領域または参照映像の外側に属する場合、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算するか、または減算した値を前記副画素のx座標値に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得た後に、前記参照データユニットの画素値を利用して前記現在のデータユニットを再生する動き補償部と、を備えることである。   According to another aspect of the present invention, in the panoramic video motion compensation apparatus including 360 ° omnidirectional video information, the left padding region of the basic reference video for current panoramic video motion compensation includes a left boundary pixel. In the right padding area of the basic reference image, padding is performed using the right boundary pixel value, and then the reference image generated by expanding the padded image is displayed. A memory to be stored and a motion vector of the current data unit included in the current panoramic image are input, and a sub-pixel included in the reference data unit represented by the motion vector of the current data unit is If it belongs to the basic reference video, the pixel value of the sub-pixel is acquired, and the sub-pixel belongs to the padding area of the reference video or outside the reference video. The distance on the x-axis between one boundary of the basic reference image near the subpixel and the subpixel is added to the x coordinate of the other boundary of the basic reference image, or After obtaining all pixel values of the reference data unit from the reference image by setting the subtracted value to the x coordinate value of the subpixel and obtaining the pixel value of the subpixel, the reference data unit A motion compensation unit that reproduces the current data unit using the pixel value of the current data unit.

本発明によれば、360°全方向映像を含むパノラマ映像の右側境界部分と左側境界部分との空間的な相関関係の非常に高い性質を利用して、パノラマ映像の動き予測及び補償を行うことによって、動き推定及び補償の効率性及び正確度を向上させて画質を改善できる。特に、本発明によれば、360°全方向映像を含むパノラマ映像の右側境界部分及び左側境界部分の動き予測及び補償の効率性並びに正確度を向上させて、右側境界部分及び左側境界部分の画質を改善できる。   According to the present invention, panoramic image motion prediction and compensation are performed using the very high nature of the spatial correlation between the right and left boundary portions of panoramic images including 360 ° omnidirectional images. Therefore, the efficiency and accuracy of motion estimation and compensation can be improved, and the image quality can be improved. Particularly, according to the present invention, the efficiency and accuracy of motion prediction and compensation of the right and left boundary portions of panoramic images including 360 ° omnidirectional images are improved, and the image quality of the right and left boundary portions is improved. Can be improved.

以下、添付された図面を参照して本発明に係る実施形態を詳細に説明する。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図5は、本発明の一実施形態に係るパノラマ映像の動きベクトルエンコーダのブロック図である。図5に示すように、本発明の一実施形態に係るパノラマ映像の動きベクトルエンコーダは、変換部110、量子化部115、逆量子化部120、逆変換部125、加算部130、クリッピング部140、フレームメモリ150、パノラマ映像動き推定部160、パノラマ映像動き補償部170、減算部180及び可変長符号化部(Variable Length Coder:VLC)190を備える。   FIG. 5 is a block diagram of a motion vector encoder for panoramic video according to an embodiment of the present invention. As shown in FIG. 5, the motion vector encoder for panoramic video according to an embodiment of the present invention includes a transform unit 110, a quantization unit 115, an inverse quantization unit 120, an inverse transform unit 125, an addition unit 130, and a clipping unit 140. , A frame memory 150, a panoramic video motion estimation unit 160, a panoramic video motion compensation unit 170, a subtraction unit 180, and a variable length coding unit (VLC) 190.

変換部110は、パノラマ映像を入力されて、所定方式の変換方法によって入力パノラマ映像を変換した後に、変換係数値を出力する。入力パノラマ映像は、図4Aに示す円筒形の映像を基準線Xに沿って切断することによって生成された、図4Bに示されるような360°全方向映像を含むパノラマ映像である。変換部110により行われる前記所定方式の変換方法は、例えば、8X8ブロック単位のDCT(Discrete Cosine Transform)がある。   The conversion unit 110 receives a panoramic image, converts the input panoramic image by a predetermined conversion method, and then outputs a conversion coefficient value. The input panoramic image is a panoramic image including a 360 ° omnidirectional image as illustrated in FIG. 4B generated by cutting the cylindrical image illustrated in FIG. 4A along the reference line X. An example of the predetermined conversion method performed by the conversion unit 110 is DCT (Discrete Cosine Transform) in units of 8 × 8 blocks.

量子化部115は、変換部110から入力された変換係数値を量子化する。逆量子化部120及び逆変換部125によりそれぞれ逆量子化及び逆変換後に入力パノラマ映像が再生される。再生されたパノラマ映像は、クリッピング部140により正規化された後に、フレームメモリ150に保存される。フレームメモリ150に保存されたパノラマ映像は、新たに入力されたパノラマ映像の動き推定及び補償に参照映像として利用される。   The quantization unit 115 quantizes the transform coefficient value input from the transform unit 110. The input panorama image is reproduced after the inverse quantization and inverse transform by the inverse quantization unit 120 and the inverse transform unit 125, respectively. The reproduced panoramic image is normalized by the clipping unit 140 and then stored in the frame memory 150. The panoramic video stored in the frame memory 150 is used as a reference video for motion estimation and compensation of the newly input panoramic video.

パノラマ映像動き推定部160は、フレームメモリ150に保存された参照パノラマ映像を利用して本発明に係る動き推定を行う。すなわち、パノラマ映像動き推定部160は、現在のパノラマ映像情報を入力されて、フレームメモリ150に保存された参照パノラマ映像を利用して、前記現在のパノラマ映像の動き推定を行って、前記現在のパノラマ映像の動きベクトルを生成した後にVLC 190に出力する。動き推定及び補償は、所定の大きさのブロック単位で行われる。動き推定及び補償の単位ブロックをデータユニットという。本実施形態におけるデータユニットは、16X16マクロブロックと仮定する。   The panoramic video motion estimation unit 160 performs motion estimation according to the present invention using the reference panoramic video stored in the frame memory 150. That is, the panoramic video motion estimation unit 160 receives the current panoramic video information, performs a motion estimation of the current panoramic video using the reference panoramic video stored in the frame memory 150, and performs the current panoramic video motion estimation. After generating the motion vector of the panoramic image, it is output to the VLC 190. Motion estimation and compensation are performed in units of a predetermined size block. A unit block for motion estimation and compensation is called a data unit. The data unit in this embodiment is assumed to be a 16 × 16 macroblock.

パノラマ映像動き補償部170は、本発明に係る動き補償を行う。すなわち、パノラマ映像動き推定部160により生成された現在のマクロブロックの動きベクトルを入力されて、現在のマクロブロックに対応する参照マクロブロックを減算部180に出力する。減算部180は、現在のマクロブロックと参照マクロブロックとの残差信号を変換部110に出力する。前記残差信号は、変換部110及び量子化部115によりそれぞれ変換及び量子化された後に、VLC 190により可変長符号化される。一方、パノラマ映像動き推定部160により生成された現在のマクロブロックの動きベクトルは、VLC 190に直接入力されて可変長符号化される。   The panoramic image motion compensation unit 170 performs motion compensation according to the present invention. That is, the motion vector of the current macroblock generated by the panoramic video motion estimation unit 160 is input, and the reference macroblock corresponding to the current macroblock is output to the subtraction unit 180. The subtraction unit 180 outputs a residual signal between the current macro block and the reference macro block to the conversion unit 110. The residual signal is transformed and quantized by the transforming unit 110 and the quantizing unit 115, respectively, and then subjected to variable length coding by the VLC 190. On the other hand, the motion vector of the current macroblock generated by the panoramic video motion estimation unit 160 is directly input to the VLC 190 and subjected to variable length coding.

以下では、図面を参照してパノラマ映像動き推定部160の動作をさらに詳細に説明する。   Hereinafter, the operation of the panoramic image motion estimation unit 160 will be described in more detail with reference to the drawings.

図6A及び図6Bは、本発明の一実施形態によって整数画素の探索を対象とするパノラマ映像の動き推定方法のフローチャートである。パノラマ映像動き推定部160は、現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを利用して、前記現在のデータユニットの動きベクトルを予測する(310)。図1に示すように、データユニットXが現在のデータユニットであるとするとき、データユニットA、B、C及びDは、現在のデータユニットXの動きベクトルの予測のために必要な以前のデータユニットである。本実施形態において、データユニットは、16X16大きさのマクロブロックである。   6A and 6B are flowcharts of a panoramic image motion estimation method for integer pixel search according to an embodiment of the present invention. The panoramic image motion estimation unit 160 predicts a motion vector of the current data unit using motion vectors of a plurality of previous data units adjacent to the current data unit (310). As shown in FIG. 1, when data unit X is the current data unit, data units A, B, C, and D represent the previous data necessary for the motion vector prediction of current data unit X. Is a unit. In the present embodiment, the data unit is a 16 × 16 macro block.

パノラマ映像動き推定部160は、内部メモリに保存した以前のマクロブロックA、B、C及びDの動きベクトルを探索する。以前のマクロブロックA、B、C及びDの動きベクトルが何れも存在するならば、これらの動きベクトルを利用して所定方式または従来の技術によって現在のマクロブロックXの動きベクトルを予測する。   The panorama video motion estimation unit 160 searches for motion vectors of the previous macroblocks A, B, C, and D stored in the internal memory. If there are any motion vectors of the previous macroblocks A, B, C, and D, the motion vector of the current macroblock X is predicted using a predetermined method or a conventional technique using these motion vectors.

しかし、以前のマクロブロックA、B、C及びDの動きベクトルのうち少なくとも一つが存在しなくてもよい。図7Aは、以前のマクロブロックA及びDが存在せず、以前のマクロブロックA及びDの動きベクトルを使用できない場合を表し、図7Bは、以前のマクロブロックCが存在せず、以前のマクロブロックCの動きベクトルを使用できない場合を表す。   However, at least one of the motion vectors of the previous macroblocks A, B, C, and D may not exist. FIG. 7A shows a case where the previous macroblocks A and D do not exist and the motion vectors of the previous macroblocks A and D cannot be used, and FIG. 7B shows that the previous macroblock C does not exist and the previous macroblocks A and D cannot be used. This represents a case where the motion vector of block C cannot be used.

前述のように、360°全方向映像を含むパノラマ映像の右側境界部分と左側境界部分との空間的な相関関係は非常に高い。すなわち、パノラマ映像の右側境界部分と左側境界部分との実際の空間上の距離は0である。したがって、本発明では、現在のマクロブロックXの動きベクトルの予測に必要な以前のマクロブロックA、C及びDのうち、存在しない以前のマクロブロックがあれば、前述のパノラマ映像の特性を利用して、必要な以前のマクロブロックの動きベクトルを決定する。すなわち、図7Aに示すように、以前のマクロブロックDと同じY軸上の右側境界部分に存在する以前のマクロブロックD’は、以前のマクロブロックDと同じであると言える。したがって、以前のマクロブロックD’の動きベクトルを以前のマクロブロックDの動きベクトルと見なして、現在のマクロブロックXの動きベクトルの予測に利用する。しかし、以前のマクロブロックAと同じY軸上の右側境界部分に存在する以前のマクロブロックは、現在のマクロブロックXの動き推定後に動き推定されるので、利用する動きベクトルが存在しない。したがって、現在のマクロブロックXの動きベクトルの予測に利用する以前のマクロブロックAの動きベクトルは、0に設定する。   As described above, the spatial correlation between the right boundary portion and the left boundary portion of the panoramic image including the 360 ° omnidirectional image is very high. That is, the distance in the actual space between the right boundary portion and the left boundary portion of the panoramic image is zero. Therefore, in the present invention, if there is a previous macroblock that does not exist among the previous macroblocks A, C, and D required for the prediction of the motion vector of the current macroblock X, the characteristics of the panoramic image described above are used. To determine the required motion vector of the previous macroblock. That is, as shown in FIG. 7A, it can be said that the previous macroblock D ′ existing at the right boundary portion on the same Y axis as the previous macroblock D is the same as the previous macroblock D. Therefore, the motion vector of the previous macroblock D ′ is regarded as the motion vector of the previous macroblock D and is used for the prediction of the motion vector of the current macroblock X. However, since the previous macroblock existing in the right boundary portion on the same Y axis as the previous macroblock A is estimated after the motion estimation of the current macroblock X, there is no motion vector to use. Therefore, the motion vector of the previous macroblock A used for prediction of the motion vector of the current macroblock X is set to zero.

図7Bに示すように、以前のマクロブロックCと同じY軸上の左側境界部分に存在する以前のマクロブロックC’と以前のマクロブロックCとが同じであると見ることができる。したがって、以前のマクロブロックC’の動きベクトルを以前のマクロブロックCの動きベクトルと見なして現在のマクロブロックXの動きベクトルの予測に利用する。   As shown in FIG. 7B, it can be seen that the previous macroblock C ′ and the previous macroblock C existing at the left boundary portion on the same Y axis as the previous macroblock C are the same. Therefore, the motion vector of the previous macroblock C ′ is regarded as the motion vector of the previous macroblock C and is used for the prediction of the motion vector of the current macroblock X.

パノラマ映像動き推定部160は、ステップ310によって現在のマクロブロックXの動きベクトルを予測した後、前記予測された動きベクトルが表す参照マクロブロックが参照映像内に存在するか否かを判断する(315)。参照映像は、フレームメモリ150に保存されている。   After predicting the motion vector of the current macroblock X in step 310, the panoramic video motion estimation unit 160 determines whether the reference macroblock represented by the predicted motion vector exists in the reference video (315). ). The reference video is stored in the frame memory 150.

現在のマクロブロックXの動きベクトルが表す参照マクロブロックのあらゆる画素が参照映像内に存在すれば、参照マクロブロックの全ての画素値をフレームメモリ150から獲得した後(330)、現在のマクロブロックXと参照マクロブロックとの類似度を所定の評価関数を利用して評価する(335)。   If every pixel of the reference macroblock represented by the motion vector of the current macroblock X is present in the reference image, all pixel values of the reference macroblock are obtained from the frame memory 150 (330), and then the current macroblock X And the reference macroblock are evaluated using a predetermined evaluation function (335).

しかし、現在のマクロブロックXの動きベクトルが表す参照マクロブロックの一部または全画素が、参照映像の左側境界または右側境界のうち、何れか一つの境界の外側に存在すれば、前記参照映像の他の一つの境界から所定範囲までの映像を、前記一つの境界の外側にパッディングする(320)。   However, if some or all pixels of the reference macroblock represented by the motion vector of the current macroblock X exist outside one of the left boundary and the right boundary of the reference video, the reference video An image from another boundary to a predetermined range is padded outside the one boundary (320).

図8Aは、参照マクロブロックが参照映像の境界にわたって存在する場合を表し、図8Bは、参照マクロブロックが参照映像の外側領域に存在する場合を表す。図3に示す従来の技術によれば、参照映像の左側境界に位置した画素値を参照映像の左側境界の外側領域にパッディングし、参照映像の右側境界に位置した画素値を参照映像の右側境界の外側領域にパッディングした後に動き予測及び補償を行った。   FIG. 8A shows a case where the reference macroblock exists over the boundary of the reference video, and FIG. According to the conventional technique shown in FIG. 3, the pixel value located at the left boundary of the reference image is padded to the outside area of the left boundary of the reference image, and the pixel value located at the right boundary of the reference image is padded to the right side of the reference image. Motion prediction and compensation were performed after padding outside the boundary.

しかし、本発明では、360°全方向映像を含むパノラマ映像の右側境界部分と左側境界部分との空間的な相関関係の非常に高い性質を利用して、図9に示すように、参照映像の外側領域をパッディングする。図9に示すように、参照映像400の左側境界の外側領域480は、参照映像400の右側境界領域470に位置した画素値でパッディングする。参照映像400の右側境界の外側領域460は、参照映像400の左側境界領域450に位置した画素値でパッディングする。   However, in the present invention, by using the very high nature of the spatial correlation between the right and left boundary portions of a panoramic image including 360 ° omnidirectional images, as shown in FIG. Padding the outer area. As shown in FIG. 9, the outer region 480 on the left boundary of the reference image 400 is padded with pixel values located in the right boundary region 470 of the reference image 400. The outer region 460 at the right boundary of the reference image 400 is padded with the pixel value located in the left boundary region 450 of the reference image 400.

パノラマ映像動き推定部160は、ステップ320によって参照映像をパッディングした後、パッディングされた参照映像から参照マクロブロックの全ての画素値をフレームメモリ150から獲得する(325)。その後、現在のマクロブロックXと参照マクロブロックとの類似度を、所定の評価関数を利用して評価する(335)。前記所定の評価関数としては、SAD関数、SATD関数またはSSD関数を利用することが一般的である。   The panoramic image motion estimation unit 160 pads the reference image in step 320, and then acquires all pixel values of the reference macroblock from the padded reference image from the frame memory 150 (325). Thereafter, the similarity between the current macroblock X and the reference macroblock is evaluated using a predetermined evaluation function (335). As the predetermined evaluation function, a SAD function, a SATD function, or an SSD function is generally used.

一方、前述のようなパッディング過程を行わず、前記参照映像の左側境界と右側境界とを連結して、前記参照映像が円筒形の映像であると仮定することによって、前記円筒形の映像から前記参照データユニットの全ての画素値を得てもよい。さらに具体的に説明すれば、参照映像は、図4Bに示すような2次元平面映像である。このような2次元平面映像の左側境界と右側境界とを連結すれば、図4Aに示すような円筒形の映像となる。参照映像が円筒形の映像であると仮定すれば、前記円筒形の映像から前記参照データユニットの全ての画素値が得られる。   On the other hand, without performing the padding process as described above, by connecting the left boundary and the right boundary of the reference image, and assuming that the reference image is a cylindrical image, from the cylindrical image All pixel values of the reference data unit may be obtained. More specifically, the reference image is a two-dimensional plane image as shown in FIG. 4B. If the left boundary and the right boundary of such a two-dimensional planar image are connected, a cylindrical image as shown in FIG. 4A is obtained. Assuming that the reference image is a cylindrical image, all pixel values of the reference data unit are obtained from the cylindrical image.

パノラマ映像動き推定部160は、所定の探索範囲内で参照マクロブロックの位置を変更し、変更された参照マクロブロックと現在のマクロブロックXとの類似度を評価する(340、345)。パノラマ映像動き推定部160は、所定の探索範囲内で複数の参照マクロブロックと現在のマクロブロックXとの類似度の評価が完了すれば、前記複数の参照マクロブロックのうち、現在のマクロブロックXと最も類似した参照マクロブロックを決定し、その参照マクロブロックを表す動きベクトルを生成する(350)。   The panoramic video motion estimation unit 160 changes the position of the reference macroblock within a predetermined search range, and evaluates the similarity between the changed reference macroblock and the current macroblock X (340, 345). When the evaluation of the similarity between the plurality of reference macroblocks and the current macroblock X is completed within a predetermined search range, the panoramic video motion estimation unit 160 may select the current macroblock X from among the plurality of reference macroblocks. A reference macroblock most similar to is determined, and a motion vector representing the reference macroblock is generated (350).

図10は、現在のマクロブロックXの動きベクトルを示す図面である。図10に示すように、現在のマクロブロックX510と最も類似した、パッディングされた参照映像上の参照マクロブロックは、参照マクロブロック530であり、参照マクロブロック530に対応する、パッディングされていない参照映像500上のマクロブロックは、マクロブロック540である。現在のマクロブロックX510と最も類似した参照マクロブロックを参照マクロブロック530であるとするとき、参照番号550は、現在のマクロブロックX510の動きベクトルを表す。現在のマクロブロックX510と最も類似した参照マクロブロックを参照マクロブロック540であるとすると、参照番号560は、現在のマクロブロックX510の動きベクトルを表す。すなわち、現在のマクロブロックX510の動きベクトルは、前述の2つで表現できる。しかし、動き検出のための所定の探索範囲を逸脱したマクロブロックを表す動きベクトルをデコーダ側に伝送できないので、参照マクロブロック530を表す動きベクトル550を現在のマクロブロックX510の動きベクトルとして決定する。   FIG. 10 shows the motion vector of the current macroblock X. As shown in FIG. 10, the reference macroblock on the padded reference video that is most similar to the current macroblock X510 is the reference macroblock 530, which corresponds to the reference macroblock 530, and is not padded. The macro block on the reference image 500 is a macro block 540. When the reference macroblock most similar to the current macroblock X510 is the reference macroblock 530, the reference number 550 represents the motion vector of the current macroblock X510. If the reference macroblock most similar to the current macroblock X510 is the reference macroblock 540, the reference number 560 represents the motion vector of the current macroblock X510. That is, the motion vector of the current macroblock X510 can be expressed by the above two. However, since a motion vector representing a macroblock that deviates from a predetermined search range for motion detection cannot be transmitted to the decoder side, the motion vector 550 representing the reference macroblock 530 is determined as the motion vector of the current macroblock X510.

図11A及び図11Bは、本発明の一実施形態によって副画素の探索を対象とするパノラマ映像の動き推定方法のフローチャートである。   11A and 11B are flowcharts of a panoramic video motion estimation method targeted for sub-pixel search according to an embodiment of the present invention.

パノラマ映像動き推定部160は、現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを利用して前記現在のデータユニットの動きベクトルを予測する(1101)。このような動きベクトルの予測は、正画素の探索を対象とするパノラマ映像の動き推定方法と同じである。   The panorama video motion estimation unit 160 predicts a motion vector of the current data unit using motion vectors of a plurality of previous data units adjacent to the current data unit (1101). Such motion vector prediction is the same as the panoramic video motion estimation method for searching for positive pixels.

パノラマ映像動き推定部160は、現在のパノラマ映像の動き推定に利用される基本参照映像である基本入力映像に、境界部の画素値を使用してパッディング領域を付加する(1102)。すなわち、基本入力映像の左側パッディング領域には、左側境界部画素値がパッディングされ、基本入力映像の右側パッディング領域には、右側境界部画素値がパッディングされる。   The panoramic video motion estimation unit 160 adds a padding area to the basic input video, which is a basic reference video used for motion estimation of the current panoramic video, using the pixel values at the boundary (1102). That is, the left boundary pixel value is padded in the left padding area of the basic input video, and the right boundary pixel value is padded in the right padding area of the basic input video.

次いで、パノラマ映像動き推定部160は、ステップ1102でパッディング領域の付加された基本入力映像を拡張して参照映像として使用する(1103)。例えば、1/2画素の場合には2倍拡張され、1/4画素の場合には4倍拡張される。   Next, the panoramic video motion estimation unit 160 expands the basic input video with the padding area added in step 1102 and uses it as a reference video (1103). For example, in the case of 1/2 pixel, it is expanded by 2 times, and in the case of 1/4 pixel, it is expanded by 4 times.

例えば、現在のパノラマ映像の大きさが352*288であり、半画素の探索を行う場合、現在のパノラマ映像の大きさは2倍拡張されて、図12に示すように、(352*2)*(288*2)となる。図13Aに示すように、参照映像の場合には、参照のための基本入力映像(352*288)にパッディングの大きさ4のパッディング領域を付加すれば、パッディングされた基本入力映像の大きさは、(4+352+4)*(4+288+4)となり、このようにパッディングされた基本入力映像は2倍拡張されて、(4+352+4)*2*(4+288+4)*2の大きさとなる。   For example, when the current panoramic video size is 352 * 288 and a half-pixel search is performed, the current panoramic video size is doubled to (352 * 2) as shown in FIG. * (288 * 2). As shown in FIG. 13A, in the case of a reference video, if a padding area having a padding size 4 is added to the basic input video (352 * 288) for reference, the padded basic input video is displayed. The size is (4 + 352 + 4) * (4 + 288 + 4), and the basic input video padded in this way is doubled to a size of (4 + 352 + 4) * 2 * (4 + 288 + 4) * 2.

パノラマ映像動き推定部160は、現在のデータユニットの動きベクトルを予測した後、前記予測された動きベクトルが表す参照データユニットの画素Xが、参照映像から基本入力映像領域に属するか否かを判断する(1104)。   The panoramic video motion estimation unit 160 predicts the motion vector of the current data unit, and then determines whether or not the pixel X of the reference data unit represented by the predicted motion vector belongs to the basic input video region from the reference video. (1104).

参照データユニットの画素Xが、参照映像のうち基本入力映像領域に属する場合には、そのまま画素Xの画素値を獲得する(1105)。   If the pixel X of the reference data unit belongs to the basic input video area of the reference video, the pixel value of the pixel X is obtained as it is (1105).

参照データユニットの画素Xが参照映像のパッディング領域または参照映像の外側に属する場合には、画素Xのx座標を前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算するか、減算した値を前記副画素のx座標に設定して、それに該当する画素値を獲得する(1106)。すなわち、画素Xが参照映像の左側パッディング領域または参照映像の左側の外側領域に属する場合には、画素Xのx座標を前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標から減算した値を前記副画素のx座標に設定する。そして、画素Xが参照映像の右側パッディング領域または参照映像の右側の外側領域に属する場合には、画素Xのx座標を前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算した値を前記副画素のx座標に設定する。   When the pixel X of the reference data unit belongs to the padding area of the reference image or outside the reference image, the x coordinate of the pixel X is set to one boundary of the basic reference image close to the sub pixel, the sub pixel, Is added to the x coordinate of the other boundary of the basic reference image or the subtracted value is set as the x coordinate of the sub-pixel to obtain the corresponding pixel value ( 1106). That is, when the pixel X belongs to the left padding region of the reference image or the outer region on the left side of the reference image, the x coordinate of the pixel X is set to one boundary of the basic reference image close to the sub pixel and the sub image. A value obtained by subtracting the distance on the x axis from the pixel from the x coordinate of the other boundary of the basic reference image is set as the x coordinate of the sub-pixel. When the pixel X belongs to the right padding region of the reference image or the outer region on the right side of the reference image, the x coordinate of the pixel X is set to one boundary of the basic reference image close to the sub pixel and the sub image. A value obtained by adding the distance on the x-axis to the pixel to the x coordinate of the other boundary of the basic reference image is set as the x coordinate of the sub-pixel.

例えば、図13Bに示すように、参照データユニット内の画素Aの座標は(30,50)であって、参照映像の基本入力映像の領域に属するので、そのまま画素Aの画素値を獲得すればよい。   For example, as shown in FIG. 13B, the coordinates of the pixel A in the reference data unit are (30, 50) and belong to the basic input video area of the reference video, so if the pixel value of the pixel A is acquired as it is. Good.

参照データユニット内の画素Bの座標は(4,50)であって、参照映像のパッディング領域に属する。画素Bの近くにある基本入力映像の一つの境界のx座標は7であり、画素Bと前記基本入力映像の一つの境界との間の距離は3である。前記基本入力映像領域の他の境界のx座標は711であり、711−3=708であるので、前記画素Bのx座標を708に設定する。すなわち、画素Bの画素値は、画素B’の座標(708,50)から獲得する。   The coordinates of the pixel B in the reference data unit are (4, 50) and belong to the reference video padding area. The x coordinate of one boundary of the basic input image near the pixel B is 7, and the distance between the pixel B and one boundary of the basic input image is 3. Since the x coordinate of the other boundary of the basic input video area is 711 and 711-3 = 708, the x coordinate of the pixel B is set to 708. That is, the pixel value of the pixel B is obtained from the coordinates (708, 50) of the pixel B ′.

参照データユニット内の画素Cの座標は(−5,100)であって、参照映像の外側に位置する。画素Cの近くにある基本入力映像の一つの境界のx座標は7であり、画素Cと前記基本入力映像の一つの境界との間の距離は12である。前記基本入力映像領域の他の境界のx座標は711であり、711−12=699であるので、前記画素Cのx座標を699に設定する。すなわち、画素Cの画素値は、画素C’の座標(699,100)から獲得する。   The coordinates of the pixel C in the reference data unit are (−5, 100) and are located outside the reference image. The x coordinate of one boundary of the basic input image near the pixel C is 7, and the distance between the pixel C and one boundary of the basic input image is 12. Since the x coordinate of the other boundary of the basic input video area is 711 and 711-12 = 699, the x coordinate of the pixel C is set to 699. That is, the pixel value of the pixel C is obtained from the coordinates (699, 100) of the pixel C ′.

このように、本実施形態では、パッディング領域に存在する画素値を求める場合、パッディング領域に存在する画素値は、意味のない値であるので、反対側の境界領域の画素値を利用せねばならない。すなわち、パッディング領域を従来のような方式で行う場合には、パッディング領域に存在する画素や参照映像の外側に存在する画素の何れも反対側の境界領域の画素値を利用せねばならない。   As described above, in this embodiment, when the pixel value existing in the padding area is obtained, the pixel value existing in the padding area is a meaningless value. Therefore, the pixel value of the opposite boundary area is used. I have to. In other words, when the padding area is used in a conventional manner, the pixel values of the opposite boundary area must be used for both the pixels existing in the padding area and the pixels existing outside the reference image.

次いで、パノラマ映像動き推定部160は、参照データユニットの全ての画素値を獲得したか否かを判断し(1107)、全ての画素値を獲得した場合には、所定の評価関数を利用して現在のデータユニットと参照データユニットとの類似度を評価し(1108)、全ての画素値を獲得していない場合には、次の画素値を獲得するために、ステップ1104に進む。前記所定の評価関数としては、SAD関数、SATD関数またはSSD関数を利用することが一般的である。   Next, the panoramic image motion estimation unit 160 determines whether or not all pixel values of the reference data unit have been acquired (1107). When all the pixel values have been acquired, a predetermined evaluation function is used. The similarity between the current data unit and the reference data unit is evaluated (1108). If all the pixel values have not been acquired, the process proceeds to step 1104 to acquire the next pixel value. As the predetermined evaluation function, a SAD function, a SATD function, or an SSD function is generally used.

次いで、パノラマ映像動き推定部160は、所定の探索範囲内で参照データユニットの位置を変更し、変更された参照データユニットと現在のデータユニットとの類似度を評価する(1109、1110)。パノラマ映像動き推定部160は、所定の探索範囲内で複数の参照データユニットと現在のデータユニットとの類似度の評価が完了すれば、前記複数の参照データユニットのうち、現在のデータユニットと最も類似した参照データユニットを決定し、その参照データユニットを表す動きベクトルを生成する(1111)。   Next, the panoramic video motion estimation unit 160 changes the position of the reference data unit within a predetermined search range, and evaluates the similarity between the changed reference data unit and the current data unit (1109, 1110). The panorama video motion estimation unit 160 may determine the most current data unit among the plurality of reference data units when the evaluation of the similarity between the plurality of reference data units and the current data unit is completed within a predetermined search range. A similar reference data unit is determined, and a motion vector representing the reference data unit is generated (1111).

図14A及び図14Bは、本発明の他の実施形態によって副画素の探索を対象とするパノラマ映像の動き推定方法のフローチャートである。   14A and 14B are flowcharts of a panoramic video motion estimation method targeted for sub-pixel search according to another embodiment of the present invention.

パノラマ映像動き推定部160は、現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを利用して、前記現在のデータユニットの動きベクトルを予測する(1401)。このような動きベクトルの予測は、正画素の探索を対象とするパノラマ映像の動き推定方法と同じである。   The panoramic image motion estimation unit 160 predicts a motion vector of the current data unit using motion vectors of a plurality of previous data units adjacent to the current data unit (1401). Such motion vector prediction is the same as the panoramic video motion estimation method for searching for positive pixels.

パノラマ映像動き推定部160は、基本入力映像の左側パッディング領域には、右側境界領域の画素値を利用してパッディングし、基本入力映像の右側パッディング領域には、左側境界領域の画素値を利用してパッディングする(1402)。   The panorama image motion estimation unit 160 performs padding using the pixel value of the right boundary region in the left padding region of the basic input image, and the pixel value of the left boundary region in the right padding region of the basic input image. Is used for padding (1402).

次いで、パノラマ映像動き推定部160は、ステップ1402でパッディング領域の付加された基本入力映像を拡張して参照映像として使用する(1403)。例えば、1/2画素の場合には2倍拡張され、1/4画素の場合には4倍拡張される。   Next, the panoramic video motion estimation unit 160 expands the basic input video with the padding area added in step 1402 and uses it as a reference video (1403). For example, in the case of 1/2 pixel, it is expanded by 2 times, and in the case of 1/4 pixel, it is expanded by 4 times.

例えば、現在のパノラマ映像の大きさが352*288であり、副画素の探索を行う場合、現在のパノラマ映像の大きさは2倍拡張され、図12に示すように、(352*2)*(288*2)となる。図15Aに示すように、参照映像の場合には、参照のための基本入力映像(352*288)にパッディングの大きさ4のパッディング領域を付加すれば、パッディングされた基本入力映像の大きさは、(4+352+4)*(4+288+4)となり、このようにパッディングされた基本入力映像は2倍拡張されて、(4+352+4)*2*(4+288+4)*2の大きさとなる。もちろん、ここで、パッディング領域を説明すれば、参照映像の左側パッディング領域には、右側境界領域の画素値がパッディングされ、参照映像の右側パッディング領域には、左側境界領域の画素値がパッディングされる。   For example, when the current panoramic image size is 352 * 288 and the search for sub-pixels is performed, the current panoramic image size is doubled and, as shown in FIG. 12, (352 * 2) * (288 * 2). As shown in FIG. 15A, in the case of a reference video, if a padding area of padding size 4 is added to the basic input video for reference (352 * 288), the padded basic input video The size is (4 + 352 + 4) * (4 + 288 + 4), and the basic input video padded in this way is doubled to a size of (4 + 352 + 4) * 2 * (4 + 288 + 4) * 2. Of course, if the padding area is described here, the pixel value of the right boundary area is padded in the left padding area of the reference image, and the pixel value of the left boundary area is padded in the right padding area of the reference image. Is padded.

パノラマ映像動き推定部160は、現在のデータユニットの動きベクトルを予測した後、前記予測された動きベクトルが表す参照データユニットの画素Bが参照映像に属するか否かを判断する(1404)。   After predicting the motion vector of the current data unit, the panoramic image motion estimation unit 160 determines whether or not the pixel B of the reference data unit represented by the predicted motion vector belongs to the reference image (1404).

参照データユニットの画素Xが参照映像に属する場合には、画素Xの画素値をそのまま獲得する(1405)。   If the pixel X of the reference data unit belongs to the reference video, the pixel value of the pixel X is obtained as it is (1405).

参照データユニットの画素Xが参照映像の外側に位置する場合、画素Xのx座標を、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算した値を画素Xのx座標に設定して画素値を獲得する(1406)。すなわち、画素Xが参照映像の左側の外側領域に属する場合には、画素Xのx座標を、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標から減算した値を前記副画素のx座標に設定する。そして、画素Xが参照映像の右側の外側領域に属する場合には、画素Xのx座標を、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算した値を前記副画素のx座標に設定する。   When the pixel X of the reference data unit is located outside the reference image, the x coordinate of the pixel X is set on the x-axis between one boundary of the basic reference image and the subpixel near the subpixel. Is set to the x coordinate of the pixel X to obtain the pixel value (1406). That is, when the pixel X belongs to the outer region on the left side of the reference image, the x coordinate of the pixel X is set to the x axis between one boundary of the basic reference image near the subpixel and the subpixel. A value obtained by subtracting the above distance from the x coordinate of the other boundary of the basic reference image is set as the x coordinate of the sub-pixel. If the pixel X belongs to the outer region on the right side of the reference image, the x coordinate of the pixel X is set to the x axis between one boundary of the basic reference image and the sub pixel near the sub pixel. A value obtained by adding the above distance to the x coordinate of the other boundary of the basic reference image is set as the x coordinate of the sub-pixel.

例えば、図15Bに示すように、参照データユニットには、座標(30,50)を有する画素A、座標(4,50)を有する画素B、座標(−5,100)を有する画素Dが存在する。   For example, as shown in FIG. 15B, the reference data unit includes a pixel A having coordinates (30, 50), a pixel B having coordinates (4, 50), and a pixel D having coordinates (−5, 100). To do.

画素A及び画素Bは、参照映像に属し、画素Cは、参照映像に属さず、参照映像の外側に属する。また、画素Aは、参照映像の中でも基本入力映像領域に属し、画素Bは、パッディング領域に属する。画素Aの場合には、当然として基本入力映像に属する画素であるので、その位置の画素値を獲得すればよい。   Pixel A and pixel B belong to the reference image, and pixel C does not belong to the reference image and belongs to the outside of the reference image. Also, the pixel A belongs to the basic input video area in the reference video, and the pixel B belongs to the padding area. In the case of the pixel A, since it is a pixel belonging to the basic input video as a matter of course, the pixel value at that position may be obtained.

画素Bの場合には、予め参照映像の生成時にパノラマ映像の空間的な相関関係を考慮して、右側境界部領域の画素値でパッディングした領域に属する値であるので、画素Bの場合にも、その位置の画素値を獲得すればよい。   In the case of the pixel B, the value belongs to the area padded with the pixel value of the right boundary area in consideration of the spatial correlation of the panoramic image when the reference image is generated. Alternatively, the pixel value at that position may be acquired.

参照データユニット内の画素Dの座標は、(−5,100)であって、参照映像の外側に位置する。画素Dの近くにある基本入力映像の一つの境界のx座標は7であり、画素Dと前記基本入力映像の一つの境界との間の距離は12である。前記基本入力映像領域の他の境界のx座標は711であり、711−12=699であるので、前記画素Dのx座標を699に設定する。すなわち、画素Dの画素値は、画素D’の座標(699,100)から獲得する。このように、本実施形態では、パッディング領域に存在する画素値を求める場合、パッディング領域に存在する画素値は、既に反対側の境界領域の画素値を利用してパッディングした値であるので、そのまま利用すればよく、参照映像の外側にある画素に対してのみ反対側の境界領域の画素値を計算して利用すればよい。   The coordinates of the pixel D in the reference data unit are (−5, 100) and are located outside the reference image. The x coordinate of one boundary of the basic input image near the pixel D is 7, and the distance between the pixel D and one boundary of the basic input image is 12. Since the x coordinate of the other boundary of the basic input video area is 711 and 711-12 = 699, the x coordinate of the pixel D is set to 699. That is, the pixel value of the pixel D is obtained from the coordinates (699, 100) of the pixel D ′. As described above, in this embodiment, when the pixel value existing in the padding area is obtained, the pixel value existing in the padding area is a value that has already been padded using the pixel value of the opposite boundary area. Therefore, it is sufficient to use it as it is, and it is only necessary to calculate and use the pixel value of the boundary region on the opposite side only for the pixels outside the reference video.

次いで、パノラマ映像動き推定部160は、参照データユニットの全ての画素値を獲得したか否かを判断し(1407)、全ての画素値を獲得した場合には、所定の評価関数を利用して現在のデータユニットと参照データユニットとの類似度を評価し(1408)、全ての画素値を獲得していない場合には、次の画素値を獲得するために、ステップ1404に進む。前記所定の評価関数としては、SAD関数、SATD関数またはSSD関数を利用することが一般的である。   Next, the panoramic image motion estimation unit 160 determines whether or not all pixel values of the reference data unit have been acquired (1407), and when all the pixel values have been acquired, a predetermined evaluation function is used. The degree of similarity between the current data unit and the reference data unit is evaluated (1408). If all the pixel values have not been acquired, the process proceeds to step 1404 to acquire the next pixel value. As the predetermined evaluation function, a SAD function, a SATD function, or an SSD function is generally used.

次いで、パノラマ映像動き推定部160は、所定の探索範囲内で参照データユニットの位置を変更し、変更された参照データユニットと現在のデータユニットとの類似度を評価する(1409、1410)。パノラマ映像動き推定部160は、所定の探索範囲内で複数の参照データユニットと現在のデータユニットとの類似度の評価が完了すれば、前記複数の参照データユニットのうち、現在のデータユニットと最も類似した参照データユニットを決定し、その参照データユニットを表す動きベクトルを生成する(1411)。   Next, the panoramic image motion estimation unit 160 changes the position of the reference data unit within a predetermined search range, and evaluates the similarity between the changed reference data unit and the current data unit (1409, 1410). The panorama video motion estimation unit 160 may determine the most current data unit among the plurality of reference data units when the evaluation of the similarity between the plurality of reference data units and the current data unit is completed within a predetermined search range. A similar reference data unit is determined, and a motion vector representing the reference data unit is generated (1411).

以下では、本発明の一実施形態に係るパノラマ映像の動き補償方法及び装置について説明する。   Hereinafter, a panoramic video motion compensation method and apparatus according to an embodiment of the present invention will be described.

図16は、本発明の一実施形態に係るパノラマ映像の動きベクトルデコーダのブロック図である。図16に示すように、本発明の一実施形態に係るパノラマ映像の動きベクトルデコーダは、可変長復号化部(Variable Length Decoder:VLD)710、逆量子化部720、逆変換部730、加算部740、パノラマ映像動き補償部750、クリッピング部760及びフレームメモリ770を備える。   FIG. 16 is a block diagram of a panoramic video motion vector decoder according to an embodiment of the present invention. As shown in FIG. 16, a motion vector decoder for panoramic video according to an embodiment of the present invention includes a variable length decoder (VLD) 710, an inverse quantization unit 720, an inverse transform unit 730, and an addition unit. 740, a panoramic image motion compensation unit 750, a clipping unit 760, and a frame memory 770.

VLD 710は、入力ビットストリームを可変長復号する。VLD 710の出力のうち動きベクトルは、パノラマ映像動き補償部750に出力され、現在のマクロブロックと参照マクロブロックとの残差信号は、逆量子化部720に出力される。   The VLD 710 performs variable length decoding on the input bitstream. Of the outputs from the VLD 710, the motion vector is output to the panoramic video motion compensation unit 750, and the residual signal between the current macroblock and the reference macroblock is output to the inverse quantization unit 720.

フレームメモリ770には、逆量子化部720、逆変換部730及びクリッピング部760を経て再生された参照映像が保存される。フレームメモリ770に保存された参照映像は、新たに入力されたパノラマ映像の動き補償に利用される。   The frame memory 770 stores the reference video reproduced through the inverse quantization unit 720, the inverse transform unit 730, and the clipping unit 760. The reference video stored in the frame memory 770 is used for motion compensation of a newly input panoramic video.

パノラマ映像動き補償部750は、フレームメモリ770に保存された参照パノラマ映像を利用して、本発明に係る動き補償を行う。図5に示すようなパノラマ映像動きベクトルエンコーダから伝送された現在のマクロブロックの動きベクトルを入力されて、現在のマクロブロックに対応する参照マクロブロックをフレームメモリ770から読み出して加算部740に出力する。さらに、加算部740は、逆量子化部720及び逆変換部730によりそれぞれ逆量子化及び逆変換された、現在のマクロブロックと参照マクロブロックとの残差信号を入力される。   The panoramic video motion compensation unit 750 performs motion compensation according to the present invention using the reference panoramic video stored in the frame memory 770. The motion vector of the current macroblock transmitted from the panoramic video motion vector encoder as shown in FIG. 5 is input, and a reference macroblock corresponding to the current macroblock is read from the frame memory 770 and output to the adder 740. . Further, the adding unit 740 receives the residual signals of the current macro block and the reference macro block that have been inverse quantized and inverse transformed by the inverse quantizing unit 720 and the inverse transform unit 730, respectively.

加算部740は、現在のマクロブロックと参照マクロブロックとの残差信号と、パノラマ映像動き補償部750から参照マクロブロックとを入力されて現在のマクロブロックを再生する。クリッピング部760は、加算部740から出力された再生された現在のマクロブロックを正規化する機能を行う。   The adder 740 receives the residual signal between the current macroblock and the reference macroblock and the reference macroblock from the panoramic video motion compensator 750 and reproduces the current macroblock. The clipping unit 760 performs a function of normalizing the reproduced current macroblock output from the adding unit 740.

以下では、図面を参照してパノラマ映像動き補償部750の動作をさらに詳細に説明する。図17は、本発明の一実施形態に係るパノラマ映像の動き補償方法のフローチャートである。   Hereinafter, the operation of the panoramic image motion compensation unit 750 will be described in more detail with reference to the drawings. FIG. 17 is a flowchart of a panoramic video motion compensation method according to an embodiment of the present invention.

パノラマ映像動き補償部750は、動き補償を行う現在のデータユニットの動きベクトルをVLD 710から入力される(910)。本実施形態で、データユニットは、16X16の大きさのマクロブロックである。   The panorama video motion compensation unit 750 receives the motion vector of the current data unit for which motion compensation is performed from the VLD 710 (910). In this embodiment, the data unit is a 16 × 16 macroblock.

パノラマ映像動き補償部750は、前記現在のマクロブロックの動きベクトルが表す参照マクロブロックが参照映像内に存在するか否かを判断する(920)。参照映像は、フレームメモリ770に保存されている。   The panoramic image motion compensation unit 750 determines whether a reference macroblock represented by the current motion vector of the macroblock exists in the reference image (920). The reference video is stored in the frame memory 770.

正画素探索の場合には、現在のマクロブロックの動きベクトルが表す参照マクロブロックの全ての画素が参照映像内に存在すれば、参照マクロブロックの全ての画素値をフレームメモリ770から獲得した後(950)、現在のマクロブロックを再生する(960)。   In the case of the positive pixel search, if all the pixels of the reference macroblock represented by the motion vector of the current macroblock are present in the reference video, all the pixel values of the reference macroblock are acquired from the frame memory 770 ( 950), the current macroblock is played back (960).

加算部740は、逆変換部730から出力された、現在のマクロブロックと参照マクロブロックとの残差信号と、パノラマ映像動き補償部750から出力された参照マクロブロックとを入力されて現在のマクロブロックを再生する。   The adder 740 receives the residual signal between the current macroblock and the reference macroblock output from the inverse converter 730 and the reference macroblock output from the panoramic video motion compensator 750 and receives the current macro. Play the block.

しかし、現在のマクロブロックの動きベクトルが表す参照マクロブロックの一部または全画素が、図8Aまたは図8Bに示すように、参照映像の左側境界または右側境界のうち一つの境界の外側に存在すれば、前記参照映像の他の一つの境界から所定範囲までの映像を、前記一つの境界の外側にパッディングする(930)。本発明では、360°全方向映像を含むパノラマ映像の右側境界部分と左側境界部分との空間的な相関関係の非常に高い性質を利用して、図9に示すように、参照映像の外側領域をパッディングする。   However, some or all of the pixels of the reference macroblock represented by the motion vector of the current macroblock are present outside one of the left and right boundaries of the reference image, as shown in FIG. 8A or 8B. For example, the video from one other boundary to the predetermined range of the reference video is padded outside the one boundary (930). In the present invention, as shown in FIG. 9, the outer region of the reference image is utilized by utilizing the very high nature of the spatial correlation between the right and left boundary portions of the panoramic image including 360 ° omnidirectional images. Padding.

パノラマ映像動き補償部750は、ステップ930によって参照映像をパッディングした後、パッディングされた参照映像から参照マクロブロックの全ての画素値をフレームメモリ770から獲得する(940)。   The panoramic video motion compensation unit 750, after padding the reference video in step 930, acquires all the pixel values of the reference macroblock from the padded reference video from the frame memory 770 (940).

一方、前述のようなパッディング過程を行わず、前記参照映像の左側境界と右側境界とを連結して、前記参照映像が円筒形の映像であると仮定することによって、前記円筒形の映像から前記参照データユニットの全ての画素値を得てもよい。さらに具体的に説明すれば、参照映像は、図4Bに示すような2次元平面映像である。このような2次元平面映像の左側境界と右側境界とを連結すれば、図4Aに示すような円筒形の映像となる。参照映像が円筒形の映像であると仮定すれば、前記円筒形の映像から前記参照データユニットの全ての画素値が得られる。   On the other hand, without performing the padding process as described above, by connecting the left boundary and the right boundary of the reference image, and assuming that the reference image is a cylindrical image, from the cylindrical image All pixel values of the reference data unit may be obtained. More specifically, the reference image is a two-dimensional plane image as shown in FIG. 4B. If the left boundary and the right boundary of such a two-dimensional planar image are connected, a cylindrical image as shown in FIG. 4A is obtained. Assuming that the reference image is a cylindrical image, all pixel values of the reference data unit are obtained from the cylindrical image.

最後に、加算部740は、現在のマクロブロックと参照マクロブロックとの残差信号と、パノラマ映像動き補償部750から出力された参照マクロブロックとを入力されて現在のマクロブロックを再生する(960)。   Finally, the addition unit 740 receives the residual signal between the current macroblock and the reference macroblock and the reference macroblock output from the panoramic video motion compensation unit 750 and reproduces the current macroblock (960). ).

半画素探索の場合には、本発明の一実施形態によって、現在のパノラマ映像の動き補償に利用される基本参照映像の左側パッディング領域には、右側境界部領域を利用してパッディングし、前記基本参照映像の右側パッディング領域には、左側境界部領域を利用してパッディングした後、パッディングされた映像を拡張して生成された参照映像をフレームメモリに保存し、入力された動きベクトルが表す参照データユニットに含まれると共に動き検索対象である副画素が前記参照映像に属する場合、前記副画素の画素値をそのまま動き補償に利用し、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算するか、または減算した値を前記副画素のx座標値に設定して、画素値を得る。   In the case of half-pixel search, according to an embodiment of the present invention, the left padding region of the basic reference image used for motion compensation of the current panoramic image is padded using the right boundary region, In the right padding area of the basic reference video, the reference video generated by extending the padded video after padding using the left boundary area is stored in the frame memory, and the input motion When a sub-pixel that is included in the reference data unit represented by the vector and is a motion search target belongs to the reference video, the pixel value of the sub-pixel is directly used for motion compensation, and the basic reference video near the sub-pixel is used. The distance on the x-axis between one boundary of the sub-pixel and the sub-pixel is added to the x-coordinate of the other boundary of the basic reference image, or the subtracted value is the x-coordinate value of the sub-pixel Set, obtain the pixel values.

半画素探索の場合、本発明の他の実施形態によって、現在のパノラマ映像の動き補償に利用される基本参照映像の左側パッディング領域には、左側境界部画素値を利用してパッディングし、基本参照映像の右側パッディング領域には、右側境界部画素値を利用してパッディングした後、パッディングされた映像を拡張して生成された参照映像をフレームメモリに保存して、現在のデータユニットの動きベクトルが表す参照データユニットに含まれると共に動き検索対象である副画素が基本入力映像領域に属する場合には、その画素の画素値をそのまま獲得し、副画素が、前記参照映像のパッディング領域または参照映像の外側に属する場合、前記副画素の近くにある前記基本参照映像の一つの境界と前記副画素との間のx軸上での距離を前記基本参照映像の他の境界のx座標に加算するか、または減算した値を前記副画素のx座標値に設定して、画素値を獲得する。   In the case of half pixel search, according to another embodiment of the present invention, the left padding region of the basic reference image used for motion compensation of the current panoramic image is padded using the left boundary pixel value, In the right padding area of the basic reference video, the right border pixel value is used for padding, and the reference video generated by expanding the padded video is saved in the frame memory, and the current data When a sub-pixel that is included in the reference data unit represented by the motion vector of the unit and is a motion search target belongs to the basic input video area, the pixel value of that pixel is obtained as it is, and the sub-pixel acquires the reference video pack. A distance on the x-axis between one boundary of the basic reference image near the sub-pixel and the sub-pixel. Or added to the x coordinate of the other boundary of the reference image, or the subtracted value is set to x-coordinate value of the sub-pixels to obtain a pixel value.

また、前記の説明では、主に参照映像の左側境界領域の画素値を利用して右側領域の画素値として利用し、参照映像の右側境界領域の画素値を利用して左側領域の画素値として利用するように、参照映像の横方向についてのみ主に説明されたが、これは、パノラマ映像の特性上、左側境界と右側境界との空間的な相関性が高いので、横方向について説明されたものである。しかし、このような本発明に係る方法は、横方向だけでなく、映像の上側境界領域と下側境界領域との空間的な相関関係が高ければ、縦方向にも適用されうるということは、当業者ならば十分に理解できるであろう。   In the above description, the pixel value of the right boundary area is mainly used as the pixel value of the right area using the pixel value of the left boundary area of the reference image, and the pixel value of the left area is used as the pixel value of the right boundary area of the reference image. As described above, only the horizontal direction of the reference video has been mainly explained, but this is explained in the horizontal direction because of the high spatial correlation between the left and right boundaries due to the characteristics of the panoramic video. Is. However, such a method according to the present invention can be applied not only in the horizontal direction but also in the vertical direction if the spatial correlation between the upper and lower boundary regions of the image is high. A person skilled in the art will fully understand.

また、本発明は、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータシステムによって読み取られうるデータが保存されるあらゆる種類の記録装置を含む。コンピュータで読み取り可能な記録媒体の例としては、ROM(Read Only Memory)、RAM(Random Access Memory)、CD−ROM、磁気テープ、フレキシブルディスク、光データ保存装置などがあり、またキャリアウェーブ、例えば、インターネットを介した伝送)の形態で具現されるものも含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散されて、分散方式でコンピュータで読み取り可能なコードとして保存され、かつ実行されうる。   The present invention can also be embodied as computer readable code on a computer readable recording medium. Computer-readable recording media include all types of recording devices that can store data which can be read by a computer system. Examples of the computer-readable recording medium include a ROM (Read Only Memory), a RAM (Random Access Memory), a CD-ROM, a magnetic tape, a flexible disk, an optical data storage device, and a carrier wave, for example, And those embodied in the form of transmission over the Internet. The computer-readable recording medium can be distributed in a computer system connected to a network, stored as a computer-readable code in a distributed manner, and executed.

以上、本発明についてその望ましい実施形態を中心に説明した。当業者は、本発明が本発明の本質的な特性から逸脱しない範囲で変形された形態で具現されうるということが理解できるであろう。本発明の範囲は、前述の説明ではなく、特許請求の範囲に記載されており、それと同等な範囲内にある全ての差異点は、本発明に含まれたものと解釈されねばならない。   In the above, this invention was demonstrated centering on the desirable embodiment. Those skilled in the art will appreciate that the present invention may be embodied in variations that do not depart from the essential characteristics of the invention. The scope of the present invention is described not in the above description but in the claims, and all differences within the equivalent scope should be construed as being included in the present invention.

従来の技術による現在のマクロブロックの動きベクトルの予測に利用される複数の以前のマクロブロックを示す図面である。2 is a diagram illustrating a plurality of previous macroblocks used for predicting a motion vector of a current macroblock according to the prior art. 現在のマクロブロックの動きベクトルの予測に利用する以前のマクロブロックが存在しない場合を示す図面である。6 is a diagram illustrating a case where there is no previous macroblock used for prediction of a motion vector of a current macroblock. 現在のマクロブロックの動きベクトルの予測に利用する以前のマクロブロックが存在しない場合を示す図面である。6 is a diagram illustrating a case where there is no previous macroblock used for prediction of a motion vector of a current macroblock. 現在のマクロブロックの動きベクトルの予測に利用する以前のマクロブロックが存在しない場合を示す図面である。6 is a diagram illustrating a case where there is no previous macroblock used for prediction of a motion vector of a current macroblock. 従来の技術による参照映像のパッディング方法を説明するための図面である。6 is a diagram illustrating a reference video padding method according to a conventional technique. 360°全方向映像を含む円筒形の映像を示す図面である。It is a drawing showing a cylindrical image including a 360 ° omnidirectional image. 図4Aに示す円筒形の映像に対応する2次元パノラマ映像を示す図面である。It is drawing which shows the two-dimensional panoramic image corresponding to the cylindrical image | video shown to FIG. 4A. 本発明の一実施形態に係るパノラマ映像の動きベクトルエンコーダのブロック図である。It is a block diagram of a motion vector encoder for panoramic video according to an embodiment of the present invention. 本発明の一実施形態に係るパノラマ映像の動き推定方法のフローチャートである。5 is a flowchart of a panoramic video motion estimation method according to an embodiment of the present invention. 本発明の一実施形態に係るパノラマ映像の動き推定方法のフローチャートである。5 is a flowchart of a panoramic video motion estimation method according to an embodiment of the present invention. 現在のマクロブロックの動きベクトルの予測に利用する以前のマクロブロック選択の一例を示す図面である。It is a figure which shows an example of the previous macroblock selection utilized for the prediction of the motion vector of the present macroblock. 現在のマクロブロックの動きベクトルの予測に利用する以前のマクロブロック選択の他の一例を示す図面である。It is a figure which shows another example of the previous macroblock selection utilized for the prediction of the motion vector of the present macroblock. 参照マクロブロックが参照映像の境界にわたって存在する場合を示す図面である。6 is a diagram illustrating a case where a reference macroblock exists across a reference video boundary. 参照マクロブロックが参照映像の外側領域に存在する場合を示す図面である。6 is a diagram illustrating a case where a reference macroblock exists in an outer region of a reference video. 本発明の一実施形態に係る参照映像のパッディング方法を説明するための図面である。3 is a diagram illustrating a reference video padding method according to an exemplary embodiment of the present invention. 現在のマクロブロックXの動きベクトルを示す図面である。3 is a diagram illustrating a motion vector of a current macroblock X. 本発明によって半画素の動き検索方法過程の一実施形態を示すフローチャートである。5 is a flowchart illustrating an embodiment of a half-pixel motion search method according to the present invention. 本発明によって半画素の動き検索方法過程の一実施形態を示すフローチャートである。5 is a flowchart illustrating an embodiment of a half-pixel motion search method according to the present invention. 図11A及び図11Bに示す動き検索方法の過程を説明するための基本入力フレームの一例を示す図面である。12 is a diagram showing an example of a basic input frame for explaining a process of the motion search method shown in FIGS. 11A and 11B. FIG. 図11A及び図11Bの一実施形態を説明するために、図12に示す基本入力フレームにパッディング領域を付加し、2倍拡大した参照フレームの一例を示す図面である。11A and 11B are diagrams illustrating an example of a reference frame in which a padding region is added to the basic input frame illustrated in FIG. 12 and enlarged twice to describe one embodiment of FIG. 11A and FIG. 11B. 図11A及び図11Bの一実施形態によって、2倍拡大された参照フレームで、パッディング領域に属する画素値の処理を説明するための参考図である。11A and 11B are reference diagrams for explaining processing of pixel values belonging to a padding region in a reference frame enlarged twice according to an embodiment of FIGS. 11A and 11B. 本発明によって半画素動きの検索方法の過程の他の実施形態を示すフローチャートである。6 is a flowchart illustrating another embodiment of the process of the half-pixel motion search method according to the present invention. 本発明によって半画素動きの検索方法の過程の他の実施形態を示すフローチャートである。6 is a flowchart illustrating another embodiment of the process of the half-pixel motion search method according to the present invention. 図14A及び図14Bの他の実施形態を説明するために、図12に示す基本入力フレームにパッディング領域を付加し、2倍拡大した参照フレームの一例を示す図面である。14A and 14B are diagrams illustrating an example of a reference frame in which a padding region is added to the basic input frame illustrated in FIG. 12 and enlarged twice to describe another embodiment of FIGS. 14A and 14B. 図14A及び図14Bの他の実施形態によって、2倍拡大された参照フレームでパッディング領域に属する画素値及び参照フレームの外側に位置した画素値の処理を説明するための参考図である。14A and 14B are reference diagrams for explaining processing of a pixel value belonging to a padding region and a pixel value positioned outside the reference frame in a reference frame that is doubled according to another embodiment of FIGS. 14A and 14B. 本発明の一実施形態に係るパノラマ映像の動きベクトルデコーダのブロック図である。It is a block diagram of a motion vector decoder for panoramic video according to an embodiment of the present invention. 本発明の一実施形態に係るパノラマ映像の動き補償方法のフローチャートである。3 is a flowchart of a panoramic video motion compensation method according to an embodiment of the present invention.

符号の説明Explanation of symbols

110 変換部
115 量子化部
120 逆量子化部
125 逆変換部
130 加算部
140 クリッピング部
150 フレームメモリ
160 パノラマ映像動き推定部
170 パノラマ映像動き補償部
180 減算部
190 可変長符号化部
710 可変長復号化部
720 逆量子化部
730 逆変換部
740 加算部
750 パノラマ映像動き補償部
760 クリッピング部
770 フレームメモリ
DESCRIPTION OF SYMBOLS 110 Conversion part 115 Quantization part 120 Inverse quantization part 125 Inverse conversion part 130 Adder part 140 Clipping part 150 Frame memory 160 Panoramic video motion estimation part 170 Panoramic video motion compensation part 180 Subtraction part 190 Variable length encoding part 710 Variable length decoding Conversion unit 720 inverse quantization unit 730 inverse conversion unit 740 addition unit 750 panoramic image motion compensation unit 760 clipping unit 770 frame memory

Claims (13)

360°全方向映像情報を含むパノラマ映像の動き推定方法において、
現在のパノラマ映像の動き推定のための基本参照映像の左側外側に隣接する左側パッディング領域には、前記基本参照映像の右側境界部領域を利用してパッディングし、前記基本参照映像の右側外側に隣接する右側パッディング領域には、前記基本参照映像の左側境界部領域を利用してパッディングした後、パッディングされた映像を拡張して参照映像に設定するステップと、
前記現在のパノラマ映像に含まれた現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを利用して、前記現在のデータユニットの動きベクトルを予測するステップと、
前記予測された動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記参照映像の右側外側に位置する場合、前記副画素の近くにある前記右側パッディング領域と前記基本参照映像の境界と前記副画素との間のx軸上での距離を、前記左側パッディング領域と前記基本参照映像の境界のx座標に加算するか、前記副画素が前記参照映像の左側外側に位置する場合、前記副画素の近くにある前記左側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記右側パッディング領域と前記基本参照映像の境界のx座標から減算した値を、前記副画素のx座標に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得るステップと、
所定の評価関数を利用して前記現在のデータユニットと前記参照データユニットとの類似度を決定するステップと、
所定の探索範囲内で前記現在のデータユニットと最も類似した参照データユニットを決定するステップと、
決定された前記参照データユニットを表す動きベクトルを決定するステップと、
を含むことを特徴とする動き推定方法。
In a panoramic video motion estimation method including 360 ° omnidirectional video information,
The left padding area adjacent to the left outer side of the basic reference video for motion estimation of the current panoramic video is padded using the right boundary area of the basic reference video, and the right outer side of the basic reference video. A padding area adjacent to the right padding area using the left boundary area of the basic reference video, and then extending the padded video to set it as a reference video; and
Predicting a motion vector of the current data unit using motion vectors of a plurality of previous data units adjacent to the current data unit included in the current panoramic image;
When a sub-pixel included in the reference data unit represented by the predicted motion vector belongs to the reference video, the pixel value of the sub-pixel is obtained as it is, and the sub-pixel is located on the right outside of the reference video. , The distance on the x-axis between the right padding area near the sub-pixel and the boundary of the basic reference image and the sub-pixel is expressed as x of the boundary between the left padding area and the basic reference image. If the sub-pixel is added to the coordinates, or if the sub-pixel is located outside the left side of the reference image, an x between the left padding area near the sub-pixel and the boundary of the basic reference image and the sub-pixel A value obtained by subtracting the distance on the axis from the x coordinate of the boundary between the right padding region and the basic reference image is set to the x coordinate of the sub pixel, and the pixel value of the sub pixel is obtained. ,in front A step of the reference image to obtain all pixel values of the reference data unit,
Determining a similarity between the current data unit and the reference data unit using a predetermined evaluation function;
Determining a reference data unit most similar to the current data unit within a predetermined search range;
Determining a motion vector representing the determined reference data unit;
A motion estimation method comprising:
前記現在のデータユニットの動きベクトルを予測するステップは、
前記複数の以前のデータユニットのうち少なくとも一つが前記現在のパノラマ映像の左側境界の外側に隣接して存在すれば、前記現在のパノラマ映像の同じY軸上の右側境界に隣接する以前のデータユニットを利用したり、または前記複数の以前のデータユニットのうち少なくとも一つが前記現在のパノラマ映像の右側境界の外側に隣接して存在すれば、前記現在のパノラマ映像の同じy軸上の左側境界に隣接する以前のデータユニットを利用して、前記現在のデータユニットの動きベクトルを決定するための前記複数の以前のデータユニットを決定するステップを含むことを特徴とする請求項1に記載の動き推定方法。
Predicting a motion vector of the current data unit comprises:
If at least one of the plurality of previous data units is present outside the left boundary of the current panoramic image, the previous data unit adjacent to the right boundary on the same Y axis of the current panoramic image Or at least one of the plurality of previous data units is adjacent to the outside of the right boundary of the current panoramic image, and the left boundary on the same y-axis of the current panoramic image. The motion estimation of claim 1, comprising determining the plurality of previous data units to determine a motion vector of the current data unit using adjacent previous data units. Method.
360°全方向映像情報を含むパノラマ映像の動き推定方法において、
現在のパノラマ映像の動き推定のための基本参照映像の左側外側に隣接する左側パッディング領域には、前記基本参照映像の左側境界部領域を利用してパッディングし、前記基本参照映像の右側外側に隣接する右側パッディング領域には、前記基本参照映像の右側境界部領域を利用してパッディングした後、パッディングされた映像を拡張して参照映像に設定するステップと、
前記現在のパノラマ映像に含まれた現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを利用して前記現在のデータユニットの動きベクトルを予測するステップと、
前記予測された動きベクトルが表す参照データユニットに含まれた副画素が、前記基本参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が、前記参照映像の右側パッディング領域または前記参照映像の右側外側に位置する場合、前記副画素の近くにある前記右側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記左側パッディング領域と前記基本参照映像の境界のx座標に加算するか、前記副画素が前記左側パッディング領域または前記参照映像の左側外側に位置する場合、前記副画素の近くにある前記左側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記右側パッディング領域と前記基本参照映像の境界のx座標から減算した値を、前記副画素のx座標値に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得るステップと、
所定の評価関数を利用して前記現在のデータユニットと前記参照データユニットとの類似度を決定するステップと、
所定の探索範囲内で前記現在のデータユニットと最も類似した参照データユニットを決定するステップと、
決定された前記参照データユニットを表す動きベクトルを決定するステップと、
を含むことを特徴とする動き推定方法。
In a panoramic video motion estimation method including 360 ° omnidirectional video information,
The left padding area adjacent to the left outer side of the basic reference video for motion estimation of the current panoramic video is padded using the left boundary area of the basic reference video, and the right outer side of the basic reference video. A padding area adjacent to the right padding area using the right boundary area of the basic reference video, and then extending the padded video to set it as a reference video; and
Predicting a motion vector of the current data unit using motion vectors of a plurality of previous data units adjacent to the current data unit included in the current panoramic image;
If a sub-pixel included in the reference data unit represented by the predicted motion vector belongs to the basic reference video, the sub-pixel acquires the pixel value of the sub-pixel as it is, and the sub-pixel receives the right padding of the reference video. When the region is located on the right outside of the reference image, the distance on the x-axis between the right padding region near the sub-pixel and the boundary of the basic reference image and the sub-pixel, When the left pixel is added to the x coordinate of the boundary between the left padding region and the basic reference image, or the subpixel is located outside the left padding region or the left side of the reference image, the left padding near the subpixel. The distance on the x-axis between the border between the padding area and the basic reference image and the sub-pixel is subtracted from the x coordinate of the boundary between the right padding area and the basic reference image. And is set to x-coordinate value of the sub-pixels, by acquiring pixel values of the sub-pixels, and obtaining all the pixel values of the reference data unit from the reference image,
Determining a similarity between the current data unit and the reference data unit using a predetermined evaluation function;
Determining a reference data unit most similar to the current data unit within a predetermined search range;
Determining a motion vector representing the determined reference data unit;
A motion estimation method comprising:
前記現在のデータユニットの動きベクトルを予測するステップは、
前記複数の以前のデータユニットのうち少なくとも一つが前記現在のパノラマ映像の左側境界の外側に隣接して存在すれば、前記現在のパノラマ映像の同じy軸上の右側境界に隣接する以前のデータユニットを利用したり、または前記複数の以前のデータユニットのうち少なくとも一つが前記現在のパノラマ映像の右側境界の外側に隣接して存在すれば、前記現在のパノラマ映像の同じy軸上の左側境界に隣接する以前のデータユニットを利用して、前記現在のデータユニットの動きベクトルを決定するための前記複数の以前のデータユニットを決定するステップを含むことを特徴とする請求項3に記載の動き推定方法。
Predicting a motion vector of the current data unit comprises:
If at least one of the plurality of previous data units is present outside the left boundary of the current panoramic image, the previous data unit adjacent to the right boundary on the same y-axis of the current panoramic image Or at least one of the plurality of previous data units is adjacent to the outside of the right boundary of the current panoramic image, and the left boundary on the same y-axis of the current panoramic image. 4. The motion estimation of claim 3 , comprising determining the plurality of previous data units to determine a motion vector of the current data unit utilizing adjacent previous data units. Method.
360°全方向映像情報を含むパノラマ映像の動き推定装置において、
現在のパノラマ映像の動き推定のための基本参照映像の左側外側に隣接する左側パッディング領域には、前記基本参照映像の右側境界部領域を利用してパッディングし、前記基本参照映像の右側外側に隣接する右側パッディング領域には、前記基本参照映像の左側境界部領域を利用してパッディングした後、パッディングされた映像を拡張して生成された参照映像及び前記現在のパノラマ映像に含まれた現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを保存するメモリと、
前記複数の以前のデータユニットの前記動きベクトルを利用して前記現在のデータユニットの動きベクトルを予測し、前記予測された動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記参照映像の右側外側に位置する場合、前記副画素の近くにある前記右側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記左側パッディング領域と前記基本参照映像の境界のx座標に加算するか、前記副画素が前記参照映像の左側外側に位置する場合、前記副画素の近くにある前記左側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記右側パッディング領域と前記基本参照映像の境界のx座標から減算した値を、前記副画素のx座標に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得た後に、所定の評価関数を利用して前記現在のデータユニットと前記参照データユニットとの類似度を決定すると共に、所定の探索範囲内で前記現在のデータユニットと最も類似した参照データユニットを決定し、決定された前記参照データユニットを表す動きベクトルを決定する動き推定部と、を備えることを特徴とする動き推定装置。
In a panoramic video motion estimation device including 360 ° omnidirectional video information,
The left padding area adjacent to the left outer side of the basic reference video for motion estimation of the current panoramic video is padded using the right boundary area of the basic reference video, and the right outer side of the basic reference video. The right padding area adjacent to the reference video is padded using the left boundary area of the basic reference video, and then included in the current panoramic video and the reference video generated by extending the padded video. A memory for storing motion vectors of a plurality of previous data units adjacent to the current data unit
A motion vector of the current data unit is predicted using the motion vectors of the plurality of previous data units, and a sub-pixel included in a reference data unit represented by the predicted motion vector belongs to the reference image If the pixel value of the sub-pixel is obtained as it is and the sub-pixel is located on the right outer side of the reference image, the right padding area near the sub-pixel and the boundary of the basic reference image, The distance on the x axis between the sub-pixel and the x-coordinate of the boundary between the left padding region and the basic reference image is added, or when the sub-pixel is located outside the left side of the reference image, The distance between the left padding area near the sub-pixel and the basic reference video and the distance between the sub-pixel and the sub-pixel is defined as the right padding area and the basic reference video. All the pixel values of the reference data unit were obtained from the reference image by setting the value subtracted from the x coordinate of the boundary of the subpixel to the x coordinate of the subpixel and obtaining the pixel value of the subpixel. Later, a similarity between the current data unit and the reference data unit is determined using a predetermined evaluation function, and a reference data unit most similar to the current data unit within a predetermined search range is determined. A motion estimator that determines a motion vector representing the determined reference data unit .
360°全方向映像情報を含むパノラマ映像の動き推定装置において、
現在のパノラマ映像の動き推定のための基本参照映像の左側外側に隣接して存在する左側パッディング領域には、前記基本参照映像の左側境界部画素値を利用してパッディングし、前記基本参照映像の右側外側に隣接する右側パッディング領域には、前記基本参照映像の右側境界部画素値を利用してパッディングした後、パッディングされた映像を拡張して生成された参照映像及び現在のパノラマ映像に含まれた現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを保存するメモリと、
前記複数の以前のデータユニットの前記動きベクトルを利用して前記現在のデータユニットの動きベクトルを予測し、前記予測された動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像の前記基本参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記参照映像の右側パッディング領域または前記参照映像の右側外側に位置する場合、前記副画素の近くにある前記右側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸での距離を、前記左側パッディング領域と前記基本参照映像の境界のx座標に加算するか、前記副画素が前記左側パッディング領域または前記参照映像の左側外側に位置する場合、前記副画素の近くにある前記左側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記右側パッディング領域と前記基本参照映像の境界のx座標から減算した値を、前記副画素のx座標値に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得た後に、所定の評価関数を利用して前記現在のデータユニットと前記参照データユニットの類似度を決定すると共に、所定の探索範囲内で前記現在のデータユニットと最も類似した参照データユニットを決定し、決定された前記参照データユニットを表す動きベクトルを決定する動き推定部と、を備えることを特徴とする動き推定装置。
In a panoramic video motion estimation device including 360 ° omnidirectional video information,
The left reference padding area adjacent to the left outer side of the basic reference image for motion estimation of the current panoramic image is padded using the left boundary pixel value of the basic reference image, and the basic reference The right padding area adjacent to the right outer side of the video is padded using the right boundary pixel value of the basic reference video, and then the reference video generated by extending the padded video and the current video A memory for storing motion vectors of a plurality of previous data units adjacent to the current data unit included in the panoramic image;
A motion vector of the current data unit is predicted using the motion vectors of the plurality of previous data units, and a sub-pixel included in a reference data unit represented by the predicted motion vector is the reference image of the reference image. If it belongs to the basic reference video, the pixel value of the sub-pixel is obtained as it is, and when the sub-pixel is located on the right padding area of the reference video or on the right outer side of the reference video, the sub-pixel is close to the sub-pixel. The x-axis distance between the right padding area and the basic reference video boundary and the subpixel is added to the x coordinate of the left padding area and the basic reference video boundary, or the subpixel Is located on the left padding region or the left outer side of the reference image, the left padding region near the sub-pixel and the basic reference image A value obtained by subtracting the distance on the x-axis between the boundary and the sub-pixel from the x-coordinate of the boundary between the right padding area and the basic reference image is set as the x-coordinate value of the sub-pixel. , Obtaining all pixel values of the reference data unit from the reference image by obtaining the pixel values of the sub-pixels, and then using a predetermined evaluation function to determine the current data unit and the reference data unit. A motion estimation unit that determines a similarity, determines a reference data unit that is most similar to the current data unit within a predetermined search range, and determines a motion vector that represents the determined reference data unit. A motion estimation apparatus characterized by the above.
前記動き推定部は、
前記複数の以前のデータユニットのうち少なくとも一つが前記現在のパノラマ映像の左側境界の外側に隣接して存在すれば、前記現在のパノラマ映像の同じy軸上の右側境界に隣接する以前のデータユニットを利用したり、または前記複数の以前のデータユニットのうち少なくとも一つが前記現在のパノラマ映像の右側境界の外側に隣接して存在すれば、前記現在のパノラマ映像の同じy軸上の左側境界に隣接する以前のデータユニットを利用して、前記現在のデータユニットの動きベクトルを決定するための前記複数の以前のデータユニットを決定することを特徴とする請求項6に記載の動き推定装置。
The motion estimator is
If at least one of the plurality of previous data units is present outside the left boundary of the current panoramic image, the previous data unit adjacent to the right boundary on the same y-axis of the current panoramic image Or at least one of the plurality of previous data units is adjacent to the outside of the right boundary of the current panoramic image, and the left boundary on the same y-axis of the current panoramic image. The motion estimation apparatus according to claim 6 , wherein the previous data units for determining a motion vector of the current data unit are determined using adjacent previous data units.
360°全方向映像情報を含むパノラマ映像の動き補償方法において、
現在のパノラマ映像の動き補償のための基本参照映像の左側外側に隣接する左側パッディング領域には、前記基本参照映像の右側境界部領域を利用してパッディングし、前記基本参照映像の右側外側に隣接する右側パッディング領域には、前記基本参照映像の左側境界部領域を利用してパッディングした後、パッディングされた映像を拡張して参照映像に生成するステップと、
送信側エンコーダによって送信された、現在のパノラマ映像に含まれた現在のデータユニットの動きベクトルを、復号化部から入力されるステップと、
前記送信側エンコーダによって送信された、前記現在のデータユニットと前記現在のデータユニットの動きベクトルが表す参照データユニットとの残差信号を、前記復号化部から入力されるステップと、
前記現在のデータユニットの動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記参照映像の右側外側に位置する場合、前記副画素の近くにある前記右側パッディング領域と、前記基本参照映像の境界と、前記副画素との間のx軸上での距離を前記左側パッディング領域と前記基本参照映像の境界のx座標に加算するか、前記副画素が前記参照映像の左側外側に位置する場合、前記副画素の近くにある前記左側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記右側パッディング領域と前記基本参照映像の境界のx座標から減算した値を、前記副画素のx座標に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得るステップと、
前記参照データユニットの画素値と前記残差信号とを加算して前記現在のデータユニットを再生するステップと、を含むことを特徴とする動き補償方法。
In a panoramic video motion compensation method including 360 ° omnidirectional video information,
The left padding area adjacent to the left outer side of the basic reference video for motion compensation of the current panoramic video is padded using the right boundary area of the basic reference video, and the right outer side of the basic reference video. A padding area adjacent to the right padding area using the left boundary area of the basic reference video, and then expanding the padded video to generate a reference video; and
A step of inputting a motion vector of a current data unit included in a current panoramic image transmitted by a transmission side encoder from a decoding unit ;
A step of inputting, from the decoding unit, a residual signal transmitted by the transmission side encoder between the current data unit and a reference data unit represented by a motion vector of the current data unit;
When a sub-pixel included in a reference data unit represented by a motion vector of the current data unit belongs to the reference video, the pixel value of the sub-pixel is acquired as it is, and the sub-pixel is positioned outside the right side of the reference video. In this case, the distance on the x-axis between the right padding area near the subpixel, the boundary of the basic reference image, and the subpixel is defined as the distance between the left padding area and the basic reference image. When added to the x coordinate of the boundary, or when the sub-pixel is located outside the left side of the reference image, the boundary between the left padding area near the sub-pixel and the basic reference image, and the sub-pixel The value obtained by subtracting the distance on the x-axis between the right padding area and the x coordinate of the boundary of the basic reference image is set as the x coordinate of the sub pixel, and the pixel value of the sub pixel is obtained. To do By the steps of obtaining all the pixel values of the reference data unit from the reference image,
Adding the pixel value of the reference data unit and the residual signal to reproduce the current data unit.
360°全方向映像情報を含むパノラマ映像の動き補償方法において、
現在のパノラマ映像の動き補償のための基本参照映像の左側外側に隣接する左側パッディング領域には、前記基本参照映像の左側境界部画素値を利用してパッディングし、前記基本参照映像の右側外側に隣接する右側パッディング領域には、前記基本参照映像の右側境界部画素値を利用してパッディングした後、パッディングされた映像を拡張して参照映像を生成するステップと、
送信側エンコーダによって送信された、現在のパノラマ映像に含まれた現在のデータユニットの動きベクトルを、復号化部から入力されるステップと、
前記送信側エンコーダによって送信された、前記現在のデータユニットと前記現在のデータユニットの動きベクトルが表す参照データユニットとの残差信号を、前記復号化部から入力されるステップと、
前記現在のデータユニットの動きベクトルが表す参照データユニットに含まれた副画素が前記基本参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記右側パッディング領域または前記参照映像の右側外側に位置する場合、前記副画素の近くにある前記右側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記左側パッディング領域と前記基本参照映像の境界のx座標に加算するか、前記副画素が前記左側パッディング領域または前記参照映像の左側外側に位置する場合、前記副画素の近くにある前記左側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記右側パッディング領域と前記基本参照映像の境界のx座標から減算した値を、前記副画素のx座標値に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得るステップと、
前記参照データユニットの画素値と前記残差信号とを加算して前記現在のデータユニットを再生するステップと、を含むことを特徴とする動き補償方法。
In a panoramic video motion compensation method including 360 ° omnidirectional video information,
The left padding area adjacent to the left outer side of the basic reference image for motion compensation of the current panoramic image is padded using the left boundary pixel value of the basic reference image, and the right side of the basic reference image The right padding area adjacent to the outside is padded using the right boundary pixel value of the basic reference video, and then the padded video is expanded to generate a reference video; and
A step of inputting a motion vector of a current data unit included in a current panoramic image transmitted by a transmission side encoder from a decoding unit ;
A step of inputting, from the decoding unit, a residual signal transmitted by the transmission side encoder between the current data unit and a reference data unit represented by a motion vector of the current data unit;
When a sub-pixel included in a reference data unit represented by a motion vector of the current data unit belongs to the basic reference video, the pixel value of the sub-pixel is obtained as it is, and the sub-pixel is acquired in the right padding area or the When located on the right outer side of the reference image, the distance on the x-axis between the right padding area near the sub-pixel and the boundary of the basic reference image and the sub-pixel is defined as the left-hand padding. The left padding area near the subpixel when the subpixel is located on the left padding area or the left outer side of the reference video. A value obtained by subtracting the distance on the x axis between the boundary of the basic reference image and the sub-pixel from the x coordinate of the boundary between the right padding area and the basic reference image , Is set to x-coordinate value of the sub-pixels, by acquiring pixel values of the sub-pixels, and obtaining all the pixel values of the reference data unit from the reference image,
Adding the pixel value of the reference data unit and the residual signal to reproduce the current data unit.
360°全方向映像情報を含むパノラマ映像の動き補償装置において、
現在のパノラマ映像の動き補償のための基本参照映像の左側外側に隣接する左側パッディング領域には、前記基本参照映像の右側境界部領域を利用してパッディングし、前記基本参照映像の右側外側に隣接する右側パッディング領域には、前記基本参照映像の左側境界部領域を利用してパッディングした後、パッディングされた映像を拡張して生成された参照映像を保存するメモリと、
送信側エンコーダによって送信された、前記現在のパノラマ映像に含まれた現在のデータユニットの動きベクトルを、復号化部から入力されると共に、前記送信側エンコーダによって送信された、前記現在のデータユニットと前記現在のデータユニットの動きベクトルが表す参照データユニットとの残差信号を、前記復号化部から入力されて、前記入力された動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記参照映像の右側外側に位置する場合、前記副画素の近くにある前記右側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記左側パッディング領域と前記基本参照映像の境界のx座標に加算するか、前記副画素が前記参照映像の左側外側に位置する場合、前記副画素の近くにある前記左側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記右側パッディング領域と前記基本参照映像の境界のx座標から減算した値を、前記副画素のx座標に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得た後、前記参照データユニットの画素値と前記残差信号とを加算して前記現在のデータユニットを再生する動き補償部と、を備えることを特徴とする動き補償装置。
In a motion compensation device for panoramic video including 360 ° omnidirectional video information,
The left padding area adjacent to the left outer side of the basic reference video for motion compensation of the current panoramic video is padded using the right boundary area of the basic reference video, and the right outer side of the basic reference video. In the right padding area adjacent to the memory, the padding is performed using the left boundary area of the basic reference video, and then the reference video generated by expanding the padded video is stored.
Sent by the sending encoder, a motion vector of the current data unit, wherein included in the current panoramic image, Rutotomoni inputted from the decoding unit, transmitted by the transmitting-side encoder, said the current data unit The residual signal from the reference data unit represented by the motion vector of the current data unit is input from the decoding unit, and the sub-pixel included in the reference data unit represented by the input motion vector is the reference video. If the pixel value of the sub-pixel is obtained as it is and the sub-pixel is located outside the right side of the reference image, the right padding area near the sub-pixel and the boundary of the basic reference image Whether the distance on the x-axis between the sub-pixel and the sub-pixel is added to the x-coordinate of the boundary between the left padding area and the basic reference image When the sub-pixel is located outside the left side of the reference image, a distance on the x-axis between the left padding region near the sub-pixel and the boundary of the basic reference image and the sub-pixel A value obtained by subtracting from the x coordinate of the boundary between the right padding area and the basic reference image is set to the x coordinate of the sub pixel, and the pixel value of the sub pixel is obtained, thereby obtaining the pixel value from the reference image. A motion compensation unit that obtains all the pixel values of the reference data unit and then adds the pixel value of the reference data unit and the residual signal to reproduce the current data unit. Motion compensation device.
360°全方向映像情報を含むパノラマ映像の動き補償装置において、
現在のパノラマ映像の動き補償のための基本参照映像の左側外側に隣接する左側パッディング領域には、前記基本参照映像の左側境界部画素値を利用してパッディングし、前記基本参照映像の右側外側に隣接する右側パッディング領域には、前記基本参照映像の右側境界部画素値を利用してパッディングした後、パッディングされた映像を拡張して生成された参照映像を保存するメモリと、
送信側エンコーダによって送信された、前記現在のパノラマ映像に含まれた現在のデータユニットの動きベクトルを、復号化部から入力されると共に、前記送信側エンコーダによって送信された、前記現在のデータユニットと前記現在のデータユニットの動きベクトルが表す参照データユニットとの残差信号を、前記復号化部から入力されて、前記現在のデータユニットの動きベクトルが表す参照データユニットに含まれた副画素が前記基本参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記右側パッディング領域または前記参照映像の右側外側に位置する場合、前記副画素の近くにある前記右側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記左側パッディング領域と前記基本参照映像の境界のx座標に加算するか、前記副画素が前記左側パッディング領域または前記参照映像の左側外側に位置する場合、前記副画素の近くにある前記左側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記右側パッディング領域と前記基本参照映像の境界のx座標から減算した値を、前記副画素のx座標値に設定して、前記副画素の画素値を獲得することによって、前記参照映像で前記参照データユニットの全ての画素値を得た後、前記参照データユニットの画素値と前記残差信号とを加算して前記現在のデータユニットを再生する動き補償部と、を備えることを特徴とする動き補償装置。
In a motion compensation device for panoramic video including 360 ° omnidirectional video information,
The left padding area adjacent to the left outer side of the basic reference image for motion compensation of the current panoramic image is padded using the left boundary pixel value of the basic reference image, and the right side of the basic reference image In the right padding area adjacent to the outside, after padding using the right boundary pixel value of the basic reference video, a memory for storing the reference video generated by extending the padded video, and
Sent by the sending encoder, a motion vector of the current data unit, wherein included in the current panoramic image, Rutotomoni inputted from the decoding unit, transmitted by the transmitting-side encoder, said the current data unit The residual signal with the reference data unit represented by the motion vector of the current data unit is input from the decoding unit, and the sub-pixel included in the reference data unit represented by the motion vector of the current data unit is the If it belongs to the basic reference picture, the pixel value of the sub-pixel is obtained as it is, and if the sub-pixel is located on the right padding area or the right outside of the reference picture, the right padding near the sub-pixel The distance on the x-axis between the region and the boundary of the basic reference image and the sub-pixel is defined as the left padding region. When the sub-pixel is located outside the left-side padding region or the left-side reference image, the left-side padding region near the sub-pixel and the sub-pixel The value obtained by subtracting the distance on the x-axis between the boundary of the basic reference image and the sub-pixel from the x-coordinate of the boundary between the right padding region and the basic reference image is the x-coordinate value of the sub-pixel. After obtaining all pixel values of the reference data unit in the reference video by acquiring the pixel value of the sub-pixel, and adding the pixel value of the reference data unit and the residual signal And a motion compensation unit that reproduces the current data unit.
360°全方向映像情報を含むパノラマ映像の動き推定方法を行うために、コンピュータを制御するように適応された命令語を含むプログラムを記録したコンピュータで読み取り可能な記録媒体において、前記プログラムは、
現在のパノラマ映像の動き推定のための基本参照映像の左側外側に隣接する左側パッディング領域には、前記基本参照映像の右側境界部領域を利用してパッディングし、前記基本参照映像の右側外側に隣接する右側パッディング領域には、前記基本参照映像の左側境界部領域を利用してパッディングした後、パッディングされた映像を拡張して参照映像に設定するステップと、
前記現在のパノラマ映像に含まれた現在のデータユニットに隣接した複数の以前のデータユニットの動きベクトルを利用して、前記現在のデータユニットの動きベクトルを予測するステップと、
前記予測された動きベクトルが表す参照データユニットに含まれた副画素が前記参照映像に属する場合、前記副画素の画素値をそのまま獲得し、前記副画素が前記参照映像の右側外側に位置する場合、前記副画素の近くにある前記右側パッディング領域と前記基本参照映像の境界と、前記副画素との間のX軸上での距離を、前記左側パッディング領域と前記基本参照映像の境界のx座標に加算するか、前記副画素が前記参照映像の左側外側に位置する場合、前記副画素の近くにある前記左側パッディング領域と前記基本参照映像の境界と、前記副画素との間のx軸上での距離を、前記右側パッディング領域と前記基本参照映像の境界のx座標から減算した値を、前記副画素のx座標に設定して、前記副画素の画素値を獲得することによって、前記参照映像から前記参照データユニットの全ての画素値を得るステップと、
所定の評価関数を利用して前記現在のデータユニットと前記参照データユニットとの類似度を決定するステップと、
所定の探索範囲内で前記現在のデータユニットと最も類似した参照データユニットを決定するステップと、
決定された前記参照データユニットを表す動きベクトルを決定するステップと、
をコンピュータに実行させることを特徴とするコンピュータで読み取り可能な記録媒体。
In order to perform a panoramic video motion estimation method including 360 ° omnidirectional video information, in a computer-readable recording medium recorded with a program including an instruction word adapted to control a computer, the program includes:
The left padding area adjacent to the left outer side of the basic reference video for motion estimation of the current panoramic video is padded using the right boundary area of the basic reference video, and the right outer side of the basic reference video. A padding area adjacent to the right padding area using the left boundary area of the basic reference video, and then extending the padded video to set it as a reference video; and
Predicting a motion vector of the current data unit using motion vectors of a plurality of previous data units adjacent to the current data unit included in the current panoramic image;
When a sub-pixel included in the reference data unit represented by the predicted motion vector belongs to the reference video, the pixel value of the sub-pixel is obtained as it is, and the sub-pixel is located on the right outside of the reference video. The distance between the right padding area near the subpixel and the basic reference image and the distance between the subpixel and the subpixel on the X axis is the boundary between the left padding area and the basic reference image. When the sub-pixel is added to the x-coordinate or the sub-pixel is located outside the left side of the reference image, the boundary between the left padding area near the sub-pixel and the basic reference image and the sub-pixel A value obtained by subtracting the distance on the x-axis from the x coordinate of the boundary between the right padding area and the basic reference image is set as the x coordinate of the sub pixel to obtain the pixel value of the sub pixel. By A step of the serial reference image to obtain all pixel values of the reference data unit,
Determining a similarity between the current data unit and the reference data unit using a predetermined evaluation function;
Determining a reference data unit most similar to the current data unit within a predetermined search range;
Determining a motion vector representing the determined reference data unit;
A computer-readable recording medium characterized by causing a computer to execute.
前記プログラムは、
前記現在のデータユニットの動きベクトルを予測するステップにおいては、前記複数の以前のデータユニットのうち少なくとも一つが前記現在のパノラマ映像の左側境界の外側に隣接して存在すれば、前記現在のパノラマ映像の同じY軸上の右側境界に隣接する以前のデータユニットを利用するか、または前記複数の以前のデータユニットのうち少なくとも一つが前記現在のパノラマ映像の右側境界の外側に隣接して存在すれば、前記現在のパノラマ映像の同じY軸上の左側境界に隣接する以前のデータユニットを利用して、前記現在のデータユニットの動きベクトルを決定するための前記複数の以前のデータユニットを決定するステップをコンピュータに実行させることを特徴とする請求項12に記載のコンピュータで読み取り可能な記録媒体。
The program is
In the step of predicting a motion vector of the current data unit, if at least one of the plurality of previous data units exists adjacent to the outside of a left boundary of the current panoramic image, the current panoramic image If a previous data unit adjacent to the right boundary on the same Y-axis is used, or if at least one of the plurality of previous data units exists outside the right boundary of the current panoramic image Determining the plurality of previous data units for determining a motion vector of the current data unit using a previous data unit adjacent to a left boundary on the same Y axis of the current panoramic image; readable recording a computer according to claim 12, characterized by causing a computer to execute the Body.
JP2007525553A 2004-08-13 2005-08-13 Panorama motion estimation and compensation Expired - Fee Related JP4846719B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20040063889 2004-08-13
KR10-2004-0063889 2004-08-13
KR20050072968A KR100688383B1 (en) 2004-08-13 2005-08-09 Motion estimation and compensation for panorama image
KR10-2005-0072968 2005-08-09
PCT/KR2005/002652 WO2006016788A1 (en) 2004-08-13 2005-08-13 Method and device for motion estimation and compensation for panorama image

Publications (2)

Publication Number Publication Date
JP2008510359A JP2008510359A (en) 2008-04-03
JP4846719B2 true JP4846719B2 (en) 2011-12-28

Family

ID=37150009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007525553A Expired - Fee Related JP4846719B2 (en) 2004-08-13 2005-08-13 Panorama motion estimation and compensation

Country Status (3)

Country Link
JP (1) JP4846719B2 (en)
KR (1) KR100688383B1 (en)
CN (1) CN101010960B (en)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100708183B1 (en) * 2005-09-26 2007-04-17 삼성전자주식회사 Image storing device for motion prediction, and method for storing data of the same
KR100800804B1 (en) 2006-12-27 2008-02-04 삼성전자주식회사 Method for photographing panorama picture
KR100919247B1 (en) * 2008-03-12 2009-09-30 중앙대학교 산학협력단 Apparatus and method for panorama image generation and apparatus and method for object tracking using the same
EP2405655B1 (en) * 2009-03-04 2015-02-25 Renesas Electronics Corporation Boundary padding for unrestricted motion vectors
CN103888780B (en) * 2009-03-04 2017-06-16 瑞萨电子株式会社 Moving picture encoding device, dynamic image decoding device, motion image encoding method and dynamic image decoding method
US9083983B2 (en) * 2011-10-04 2015-07-14 Qualcomm Incorporated Motion vector predictor candidate clipping removal for video coding
KR101698657B1 (en) * 2012-07-04 2017-01-20 인텔 코포레이션 Panorama based 3d video coding
JP5718438B2 (en) * 2013-11-28 2015-05-13 ルネサスエレクトロニクス株式会社 Compressed video encoding device, compressed video decoding device, compressed video encoding method, and compressed video decoding method
JP6517609B2 (en) * 2015-07-13 2019-05-22 日本電信電話株式会社 Encoding method and encoding program
JP6445404B2 (en) * 2015-07-13 2018-12-26 日本電信電話株式会社 Encoding method and encoding program
JP6559337B2 (en) * 2015-09-23 2019-08-14 ノキア テクノロジーズ オーユー 360-degree panoramic video encoding method, encoding apparatus, and computer program
WO2017222301A1 (en) * 2016-06-21 2017-12-28 주식회사 픽스트리 Encoding apparatus and method, and decoding apparatus and method
KR20180000279A (en) 2016-06-21 2018-01-02 주식회사 픽스트리 Apparatus and method for encoding, apparatus and method for decoding
CN106101698A (en) * 2016-06-30 2016-11-09 乐视控股(北京)有限公司 A kind of automatic broadcasting method judged based on image type and device
KR20190035678A (en) * 2016-07-08 2019-04-03 브이아이디 스케일, 인크. 360 degree video coding using geometry projection
CN118214886A (en) * 2016-10-04 2024-06-18 有限公司B1影像技术研究所 Image encoding/decoding method and method of transmitting bitstream
WO2018066988A1 (en) 2016-10-04 2018-04-12 김기백 Image data encoding/decoding method and apparatus
CN118474340A (en) 2016-10-04 2024-08-09 有限公司B1影像技术研究所 Image data encoding/decoding method, medium, and method of transmitting data
WO2018066992A1 (en) * 2016-10-04 2018-04-12 김기백 Image data encoding/decoding method and apparatus
WO2018066989A1 (en) * 2016-10-04 2018-04-12 김기백 Image data encoding/decoding method and apparatus
WO2018066980A1 (en) 2016-10-04 2018-04-12 김기백 Image data encoding/decoding method and apparatus
WO2018066993A1 (en) * 2016-10-04 2018-04-12 김기백 Image data encoding/decoding method and apparatus
KR20230010060A (en) 2016-10-04 2023-01-17 주식회사 비원영상기술연구소 Image data encoding/decoding method and apparatus
WO2018066990A1 (en) * 2016-10-04 2018-04-12 김기백 Image data encoding/decoding method and apparatus
US20190238888A1 (en) 2017-07-17 2019-08-01 Ki Baek Kim Image data encoding/decoding method and apparatus
WO2018066987A1 (en) * 2016-10-04 2018-04-12 김기백 Image data encoding/decoding method and apparatus
US20190253624A1 (en) 2017-07-17 2019-08-15 Ki Baek Kim Image data encoding/decoding method and apparatus
WO2018066981A1 (en) * 2016-10-06 2018-04-12 김기백 Image data encoding/decoding method and apparatus
WO2018066985A1 (en) * 2016-10-06 2018-04-12 김기백 Image data encoding/decoding method and apparatus
WO2018066984A1 (en) * 2016-10-06 2018-04-12 김기백 Image data encoding/decoding method and apparatus
WO2018066986A1 (en) * 2016-10-06 2018-04-12 김기백 Image data encoding/decoding method and apparatus
US12035049B2 (en) 2016-10-06 2024-07-09 B1 Institute Of Image Technology, Inc. Image data encoding/decoding method and apparatus
KR20180057789A (en) * 2016-11-22 2018-05-31 광운대학교 산학협력단 Method and apparatus for omnidirectional security video coding in using methodd of effective transmission for motion vector difference
US20180160119A1 (en) 2016-12-01 2018-06-07 Mediatek Inc. Method and Apparatus for Adaptive Region-Based Decoding to Enhance User Experience for 360-degree VR Video
JP6922215B2 (en) 2016-12-27 2021-08-18 富士通株式会社 Video encoding device
WO2018124822A1 (en) * 2017-01-02 2018-07-05 주식회사 케이티 Method and apparatus for processing video signals
US11252390B2 (en) 2017-01-13 2022-02-15 Samsung Electronics Co., Ltd. Method and apparatus for encoding or decoding 360 degree image
KR20190033042A (en) * 2017-09-20 2019-03-28 주식회사 케이티 Method and apparatus for processing a video signal
JP2019161410A (en) * 2018-03-12 2019-09-19 キヤノン株式会社 Image encoding device, and control method and program therefor
WO2019181101A1 (en) 2018-03-19 2019-09-26 ソニー株式会社 Image processing device and image processing method
TWI822863B (en) * 2018-09-27 2023-11-21 美商Vid衡器股份有限公司 Sample derivation for 360-degree video coding
CN113014924A (en) * 2019-12-20 2021-06-22 中国电信股份有限公司 Video encoding method, server, apparatus, and computer-readable storage medium
CN114322839B (en) * 2020-09-28 2023-05-05 上海微电子装备(集团)股份有限公司 Method for detecting light spot contour

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06351001A (en) * 1993-06-08 1994-12-22 Matsushita Electric Ind Co Ltd Motion vector detecting method and movement compensation predicting method and device therefor
JPH114441A (en) * 1997-03-07 1999-01-06 Nextlevel Syst Inc Estimation and compensation of moving of video object plane for interlaced digital video device
JPH11122618A (en) * 1997-10-15 1999-04-30 Mega Chips Corp Image coder
JP2000261808A (en) * 1999-03-08 2000-09-22 Matsushita Electric Ind Co Ltd Picture encoding method picture decoding method, observing system motion estimating method and its device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3502392B2 (en) * 1996-01-29 2004-03-02 松下電器産業株式会社 Digital image pixel compensation method, and digital image encoding device and image decoding device using the same
DE19648963C1 (en) * 1996-11-26 1998-04-30 Siemens Ag Method for image coding a digitized image, method for image decoding a digitized image and arrangement for carrying out the method
US6043838A (en) * 1997-11-07 2000-03-28 General Instrument Corporation View offset estimation for stereoscopic video coding
KR100285599B1 (en) * 1998-03-14 2001-04-02 전주범 Device and method for texture padding for motion estimation in alternate line encoding
JPH11331821A (en) 1998-05-11 1999-11-30 Toyo Commun Equip Co Ltd Monitoring system
US6717608B1 (en) 1999-12-31 2004-04-06 Stmicroelectronics, Inc. Motion estimation for panoramic digital camera
US6771304B1 (en) * 1999-12-31 2004-08-03 Stmicroelectronics, Inc. Perspective correction device for panoramic digital camera
US7064783B2 (en) 1999-12-31 2006-06-20 Stmicroelectronics, Inc. Still picture format for subsequent picture stitching for forming a panoramic image
JP2001359101A (en) 2000-06-09 2001-12-26 Toshiba Corp Flashback processing method and digital video signal processing unit and digital broadcast receiver employing this method
KR100677142B1 (en) * 2004-08-13 2007-02-02 경희대학교 산학협력단 Motion estimation and compensation for panorama image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06351001A (en) * 1993-06-08 1994-12-22 Matsushita Electric Ind Co Ltd Motion vector detecting method and movement compensation predicting method and device therefor
JPH114441A (en) * 1997-03-07 1999-01-06 Nextlevel Syst Inc Estimation and compensation of moving of video object plane for interlaced digital video device
JPH11122618A (en) * 1997-10-15 1999-04-30 Mega Chips Corp Image coder
JP2000261808A (en) * 1999-03-08 2000-09-22 Matsushita Electric Ind Co Ltd Picture encoding method picture decoding method, observing system motion estimating method and its device

Also Published As

Publication number Publication date
CN101010960B (en) 2011-01-12
CN101010960A (en) 2007-08-01
KR100688383B1 (en) 2007-03-02
KR20060050350A (en) 2006-05-19
JP2008510359A (en) 2008-04-03

Similar Documents

Publication Publication Date Title
JP4846719B2 (en) Panorama motion estimation and compensation
JP4842945B2 (en) Panorama motion estimation and compensation
US7623682B2 (en) Method and device for motion estimation and compensation for panorama image
JP4575447B2 (en) Method and apparatus for generating virtual image regions for motion estimation and compensation of panoramic images
KR100700218B1 (en) Method and Device for making virtual image region for motion estimation and compensation of panorama image
CN112970256B (en) Encoding/decoding method and encoding/decoding apparatus for providing video data bit stream
US8229233B2 (en) Method and apparatus for estimating and compensating spatiotemporal motion of image
JP2006270676A (en) Panorama image generating program, panorama image generating apparatus, and panorama image generation method
KR101671676B1 (en) Compressed dynamic image encoding device, compressed dynamic image decoding device, compressed dynamic image encoding method and compressed dynamic image decoding method
US10425656B2 (en) Method of inter-frame prediction for video encoding and decoding
JP4494471B2 (en) Circular pixel reference pixel interpolation method, apparatus thereof, circular video encoding method, apparatus thereof, circular video decoding method, and apparatus thereof
CN112997499B (en) Encoding/decoding method and encoding/decoding apparatus for providing video data bit stream
JP4898415B2 (en) Moving picture coding apparatus and moving picture coding method
WO2006016783A1 (en) Method and device for motion estimation and compensation for panorama image
CN111630862A (en) Method and apparatus for encoding and decoding multi-view video sequence representing omni-directional video
García et al. Estimation of non-planar rotation for video coding applications
JP2008154085A (en) Dynamic image encoding device and dynamic image encoding method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100510

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110913

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141021

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4846719

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees