JP6727902B2 - Reference frame generation device, motion estimation device, and program - Google Patents
Reference frame generation device, motion estimation device, and program Download PDFInfo
- Publication number
- JP6727902B2 JP6727902B2 JP2016086441A JP2016086441A JP6727902B2 JP 6727902 B2 JP6727902 B2 JP 6727902B2 JP 2016086441 A JP2016086441 A JP 2016086441A JP 2016086441 A JP2016086441 A JP 2016086441A JP 6727902 B2 JP6727902 B2 JP 6727902B2
- Authority
- JP
- Japan
- Prior art keywords
- reference frame
- depth
- motion estimation
- super
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000033001 locomotion Effects 0.000 title claims description 102
- 238000012545 processing Methods 0.000 claims description 96
- 230000009466 transformation Effects 0.000 claims description 27
- 238000000034 method Methods 0.000 claims description 21
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 9
- 238000001914 filtration Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 4
- 239000002245 particle Substances 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 208000011580 syndromic disease Diseases 0.000 description 2
- 241000282461 Canis lupus Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000026058 directional locomotion Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Description
本発明は、新たな参照フレームを生成する参照フレーム生成装置、動き推定装置、及びプログラムに関する。 The present invention relates to a reference frame generation device that generates a new reference frame, a motion estimation device, and a program.
映像符号化におけるインター符号化では、符号化効率を高めるために、フレーム間の動き推定(動き検出)の結果を用いた動き補償を行う。この動き推定では、ハードウェア化の容易さなどの理由により、一般にブロックマッチング法が用いられる。ただし、ブロックマッチング法は、回転や奥行方向の動き推定の確度が低い。そのため、幾何変換を伴う動き推定法が提案されている(例えば、非特許文献1及び2参照)。 In inter coding in video coding, motion compensation using the result of motion estimation (motion detection) between frames is performed in order to improve coding efficiency. In this motion estimation, a block matching method is generally used for reasons such as easy hardware implementation. However, the block matching method has low accuracy of rotation and depth direction motion estimation. Therefore, a motion estimation method involving geometric transformation has been proposed (for example, see Non-Patent Documents 1 and 2).
また、超解像処理を利用して符号化を行う手法が知られている。例えば、特許文献1には、超解像処理を利用して分散映像符号化(Distributed Video Coding)を行う手法が記載されている。具体的には、原画像列を数フレームおきにJPEGなどの従来のイントラ符号化方式で符号化してこれをKeyフレームとし、それ以外のフレームをWyner-Zivフレームとし、これらは量子化後にSlepian-Wolf符号化によりパリティシンドロームビットを生成して伝送する。さらに符号化側では、まずKeyフレームを局部復号し、Wyner-Zivフレームの予測信号を生成してサイドインフォメーションとする。復号側ではサイドインフォメーションにパリティシンドロームを用いて誤り訂正を行う。また、復号化されたキーフレームとWyner-Zivフレームとを利用して、並進領域に超解像処理を適用することにより予測効率を向上させる。 In addition, a method of performing encoding using super-resolution processing is known. For example, Patent Document 1 describes a method of performing distributed video coding using super-resolution processing. Specifically, the original image sequence is encoded every few frames using a conventional intra-encoding method such as JPEG, and this is used as a Key frame, and the other frames are used as Wyner-Ziv frames. Parity syndrome bits are generated and transmitted by Wolf encoding. Further, on the encoding side, first, the Key frame is locally decoded to generate a Wyner-Ziv frame prediction signal as side information. On the decoding side, error correction is performed using the parity syndrome for side information. In addition, the prediction efficiency is improved by applying the super-resolution processing to the translation region using the decrypted key frame and Wyner-Ziv frame.
しかしながら、従来の幾何変換を伴う動き推定では、オブジェクトの奥行方向の動きにおいて、被写界深度の内から外への動きを伴う場合に発生するぼやけや、被写界深度の外から内への動きを伴う場合に発生する先鋭化により、動き推定の確度が低くなる。仮に、確度が高い検出ができたとしても、動き補償時の差分情報量が大きくなりがちである。 However, with conventional motion estimation involving geometric transformation, blurring that occurs when moving from the inside to the outside of the depth of field in the movement in the depth direction of the object, and from the outside to the inside of the depth of field. Due to the sharpening that occurs when there is motion, the accuracy of motion estimation becomes low. Even if the detection can be performed with high accuracy, the difference information amount at the time of motion compensation tends to be large.
また、特許文献1の手法では、超解像処理により予測効率を向上させることができるが、被写界深度を考慮していないため、奥行方向の動きに対する動き推定の確度を向上させるものではない。 Further, although the method of Patent Document 1 can improve the prediction efficiency by super-resolution processing, it does not improve the accuracy of motion estimation for the motion in the depth direction because the depth of field is not taken into consideration. ..
かかる事情に鑑みてなされた本発明の目的は、奥行方向の動きに対する動き推定の確度を向上させるための参照フレームを生成する参照フレーム生成装置、該参照フレームを用いて動き推定を行う動き推定装置、及びそれらのプログラムを提供することにある。 An object of the present invention made in view of such circumstances is a reference frame generation device that generates a reference frame for improving the accuracy of motion estimation with respect to a motion in the depth direction, and a motion estimation device that performs motion estimation using the reference frame. , And providing those programs.
上記課題を解決するため、本発明に係る参照フレーム生成装置は、原画像列から1の参照フレームを入力し、複数の新参照フレームを出力する参照フレーム生成装置であって、前記参照フレーム及び前記原画像列の基準フレームの深度、及びカメラの画角から、前記参照フレームに対する前記基準フレームのオブジェクトの変倍率を求めるとともに、前記深度、及びカメラの被写界深度から、前記参照フレームから前記基準フレームへのオブジェクトの被写界深度に対する奥行方向の動きを推定する奥行方向動き推定部と、前記参照フレームに対して、前記変倍率での変倍処理を伴う1回以上の幾何変換処理を行い、1以上の幾何変換画像を生成する幾何変換処理部と、前記幾何変換処理に対して、カットオフ周波数を変えてそれぞれ1回以上の低域通過型のフィルタ処理を行い、1以上のフィルタ処理画像を生成して新参照フレームとして出力するフィルタ処理部と、前記幾何変換処理に対して、付加する高周波帯域を変えてそれぞれ1回以上の超解像処理を行い、1以上の超解像処理画像を生成して新参照フレームとして出力する超解像処理部と、を備え、前記フィルタ処理部は、前記奥行方向動き推定部によりオブジェクトが被写界深度の内から外に動いたと判定された場合には、前記基準フレームのオブジェクトが被写界深度から外れた距離が大きいほど前記カットオフ周波数を低く設定し、前記超解像処理部は、前記奥行方向動き推定部によりオブジェクトが被写界深度の外から内に動いたと判定された場合には、前記参照フレームのオブジェクトが被写界深度から外れた距離が大きいほど前記付加する高周波帯域を高く設定することを特徴とする。
In order to solve the above-mentioned problems, a reference frame generation device according to the present invention is a reference frame generation device which inputs one reference frame from an original image sequence and outputs a plurality of new reference frames, wherein the reference frame and the reference frame From the depth of the standard frame of the original image sequence and the angle of view of the camera, the scaling factor of the object of the standard frame with respect to the reference frame is obtained, and from the depth and the depth of field of the camera, the standard from the reference frame. the depth-direction motion estimation unit for estimating a motion in the depth direction with respect to the depth of field of the object to the frame, relative to the reference frame, performs one or more geometric transformation processing with the variable magnification processing in the magnification ratio And a geometric transformation processing unit for generating one or more geometric transformation images, and one or more low-pass filter processings for the geometric transformation processing by changing cutoff frequencies one or more times. A filter processing unit that generates an image and outputs it as a new reference frame, and a high-resolution process that is performed once or more by changing the high-frequency band to be added to the geometric transformation process, and one or more super-resolution processes And a super-resolution processing unit that generates an image and outputs it as a new reference frame, and the filter processing unit is determined by the depth direction motion estimation unit that the object has moved from inside to outside the depth of field. In this case, the greater the distance the object of the reference frame is from the depth of field, the lower the cut-off frequency is set, and the super-resolution processing unit causes the depth direction motion estimation unit to detect the object in the depth of field. If it is determined that moved within the outside of the depth, the object of the reference frame, characterized in that you set high frequency band to the additional greater the distance that deviates from the depth of field.
また、上記課題を解決するため、本発明に係る動き推定装置は、上記参照フレーム生成装置と、前記1以上のフィルタ処理画像及び前記1以上の超解像処理画像を参照フレームとして、前記基準フレームとの間の動きベクトルを検出する動き推定部と、を備えることを特徴とする。 Further, in order to solve the above problems, a motion estimation device according to the present invention uses the reference frame generation device, the one or more filtered images and the one or more super-resolution processed images as reference frames, and the standard frame. And a motion estimator that detects a motion vector between and.
また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記参照フレーム生成装置として機能させることを特徴とする。 In order to solve the above problems, the program according to the present invention causes a computer to function as the reference frame generation device.
また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記動き推定装置として機能させることを特徴とする。 In order to solve the above-mentioned subject, the program concerning the present invention makes a computer function as the above-mentioned motion estimating device.
本発明によれば、奥行方向の動きに対する動き推定の確度を向上させるための参照フレームを生成することができるようになる。 According to the present invention, it becomes possible to generate a reference frame for improving the accuracy of motion estimation with respect to a motion in the depth direction.
以下、本発明の実施形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(第1の実施形態)
まず、本発明の第1の実施形態に係る参照フレーム生成装置について説明する。図1に、本発明の第1の実施形態に係る参照フレーム生成装置の構成例を示す。図1に示す例では、参照フレーム生成装置10は、幾何変換処理部101と、フィルタ処理部102と、超解像処理部103とを備える。
(First embodiment)
First, a reference frame generation device according to the first embodiment of the present invention will be described. FIG. 1 shows a configuration example of a reference frame generation device according to the first embodiment of the present invention. In the example illustrated in FIG. 1, the reference frame generation device 10 includes a geometric
参照フレーム生成装置10は、基準フレーム及び複数の参照フレームからなる原画像列から1の参照フレームを入力し、複数の新たな参照フレーム(新参照フレーム)を生成して出力する。 The reference frame generation device 10 inputs one reference frame from an original image sequence composed of a base frame and a plurality of reference frames, and generates and outputs a plurality of new reference frames (new reference frames).
幾何変換処理部101は、入力された参照フレームに対して、変倍率を含む幾何変換パラメータを変えて1回以上(n回)の幾何変換処理を行い、1以上(n枚)の幾何変換画像(幾何変換画像群)を生成する。そして、幾何変換画像群をフィルタ処理部102及び超解像処理部103に出力する。例えば、幾何変換処理部101は、アフィン変換により回転、変倍(拡大縮小)、及びスキューを行う。式(1)にアフィン変換の式を示す。ここで、(u,v)は変換前の水平・垂直座標であり、(u’,v’)は変換後の水平・垂直座標である。また、回転角θ、水平・垂直方向の変倍率(sx,sy)、スキュー角δを幾何変換パラメータとする。幾何変換画像群は、参照フレーム生成装置10に入力される参照フレームに対して、奥方向の動きを模擬して縮小された画像、及び手前方向の動きを模擬して拡大された画像を含む。
The geometric
フィルタ処理部102は、幾何変換処理部101により生成された幾何変換画像に対して、カットオフ周波数を変えてそれぞれ1回以上(j回)の低域通過型のフィルタ処理を行い、1以上(n×j枚)のフィルタ処理画像(フィルタ処理画像群)を生成する。そして、フィルタ処理画像群を新参照フレームとして外部に出力する。フィルタ処理画像群は、参照フレーム生成装置10に入力される参照フレームに対して、高周波成分が除去されたぼやけた画像となる。
The
超解像処理部103は、幾何変換処理部101により生成された幾何変換画像に対して、付加する高周波帯域を変えてそれぞれ1回以上(k回)の超解像処理を行い、1以上(n×k枚)の超解像処理画像(超解像処理画像群)を生成する。そして、超解像処理画像群を新参照フレームとして外部に出力する。超解像処理には既知の任意の処理を用いることができ、例えば、特許第5417290号公報に記載の超解像処理を用いることができる。超解像処理画像群は、参照フレーム生成装置10に入力される参照フレームに対して、ナイキスト周波数を超える高周波成分が付加された先鋭化した画像となる。
The
参照フレーム生成装置10から出力されるフィルタ処理画像群及び超解像処理画像群は、インター符号化の参照フレームとして用いることができる。一例として、HEVC(High Efficiency Video Coding)/H.265方式のインター符号化で用いる場合には、基準フレームと参照フレームとの距離は、Low-delayモードで1フレーム、Random accessモードで8フレーム程度(ただし、設定値による)である。そのため、幾何変換処理部101における幾何変換処理では、それほど大きな値の回転、変倍、スキュー処理を行う必要はない。例えば、回転角θを{−π/8,0,π/8}とし、変倍率sx,syを{0.75,1.0,1.25}とし、スキュー角δを{−π/8,0,π/8}とする。
The filtered image group and the super-resolution processed image group output from the reference frame generation device 10 can be used as a reference frame for inter coding. As an example, when used in HEVC (High Efficiency Video Coding)/H.265 inter coding, the distance between the standard frame and the reference frame is about 1 frame in the Low-delay mode and 8 frames in the Random access mode. (However, it depends on the set value). Therefore, in the geometric conversion processing in the geometric
また、フィルタ処理部102におけるフィルタ処理も、カットオフ周波数をそれほど小さくする必要はない。例えば、カットオフ周波数を、原画像列のナイキスト周波数の{1,0.8,0.6}倍とする。また、超解像処理部103における超解像処理も、それほど幾何変換画像のナイキスト周波数を超える高周波成分を付加する必要はない。
Also, in the filter processing in the
なお、上述した参照フレーム生成装置10として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、参照フレーム生成装置10の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。なお、このプログラムは、コンピュータ読取り可能な記録媒体に記録可能である。 It should be noted that a computer can be preferably used to cause the above-described reference frame generation device 10 to function, and such a computer can execute a program describing the processing content for realizing each function of the reference frame generation device 10 of the computer. It can be realized by storing it in a storage unit and reading and executing this program by the CPU of the computer. The program can be recorded on a computer-readable recording medium.
このように、参照フレーム生成装置10及びそのプログラムは、元の参照フレームに対して変倍処理及び低域通過型のフィルタ処理を行ったフィルタ処理画像群と、元の参照フレームに対して変倍処理及び超解像処理を行った超解像処理画像群とを生成する。そのため、被写界深度の内から外への奥行方向への動き、及び被写界深度の外から内への奥行方向への動きを考慮した参照フレームの候補を増やすことができ、すなわち奥行方向の動きに対する動き推定の確度を向上させるための参照フレームを生成することができる。 As described above, the reference frame generation apparatus 10 and the program thereof perform the scaling processing and the low-pass filter processing on the original reference frame and the scaling processing for the original reference frame. And a super-resolution processed image group that has undergone processing and super-resolution processing. Therefore, it is possible to increase the number of reference frame candidates in consideration of the movement in the depth direction from the inside to the outside of the depth of field and the movement in the depth direction from the outside to the depth of field, that is, the depth direction. It is possible to generate a reference frame for improving the accuracy of motion estimation with respect to the motion of the.
(第2の実施形態)
つぎに、本発明の第2の実施形態に係る参照フレーム生成装置について説明する。図2に、本発明の第2の実施形態に係る参照フレーム生成装置の構成例を示す。図2に示す例では、参照フレーム生成装置11は、幾何変換処理部101と、フィルタ処理部102と、超解像処理部103と、奥行方向動き推定部104とを備える。第2の実施形態の参照フレーム生成装置11は第1の実施形態の参照フレーム生成装置10と比較して、奥行方向動き推定部104を更に備える点が相違する。
(Second embodiment)
Next, a reference frame generation device according to the second embodiment of the present invention will be described. FIG. 2 shows a configuration example of a reference frame generation device according to the second embodiment of the present invention. In the example illustrated in FIG. 2, the reference
奥行方向動き推定部104は、基準フレーム及び参照フレームを入力し、基準フレームと参照フレームとの間で奥行方向の動き推定を行い、参照フレームから基準フレームへのオブジェクトの奥行方向の動きを示す奥行方向動き推定情報を生成する。そして、奥行方向動き推定情報を幾何変換処理部101に出力する。なお、手前方向に動くオブジェクトと奥方向に動くオブジェクトとが混在している場合には、総合的にどちらの方向に動くオブジェクトが多いか判断する。また、オブジェクトの奥行方向への動きが閾値以下である場合には、オブジェクトの奥行方向の動きがないことを示す情報を奥行方向動き推定情報として出力してもよい。
The depth direction
奥行方向の動き推定は、パーティクルフィルタを用いる手法などの、奥行方向の動きに頑健な手法を用いるのが好適である。パーティクルフィルタは、重み付き確率分布による時系列データの1フレームごとの遷移を予測するものである。パーティクルフィルタではオブジェクトの大域的な追跡を行い、オブジェクトの大域的な大きさの変化(オブジェクトの周りを四角で囲う形で表現される)を推定することが可能である。この大きさが大きくなれば手前方向、小さくなれば奥方向への動きが発生したと推定する。なお、パーティクルフィルタの詳細については、例えば、Artech House Publishers, "Beyond the Kalman Filter: Particle Filters for Tracking Applications" (ISBN 978-1-58083-631-8)を参照されたい。 For the motion estimation in the depth direction, it is preferable to use a technique that is robust to the motion in the depth direction, such as a technique using a particle filter. The particle filter predicts the transition of each frame of time series data based on the weighted probability distribution. The particle filter is capable of global tracking of the object and estimating the global size change of the object (represented by a box surrounding the object). It is presumed that a movement in the front direction occurs when this size increases, and a movement in the back direction occurs when this size decreases. For details of the particle filter, refer to, for example, Artech House Publishers, "Beyond the Kalman Filter: Particle Filters for Tracking Applications" (ISBN 978-1-58083-631-8).
また、奥行方向の動き推定として、奥行方向の動きに頑健なSURF(Speeded-Up Robust Features)特徴量のマッチングを行う手法や、SIFT(Scale-Invariant Feature Transform)特徴量のマッチングを行う手法を用いてもよい。なお、SURFの詳細については、例えば、H. Bay, A. Ess, T. Tuytelaars, and L. V. Gool, "Speeded-Up Robust Features (SURF)", Elsevier, vol. 110, Issue 3, p. 346-359, Jun. 2008を参照されたい。 In addition, as the motion estimation in the depth direction, a method of performing matching of SURF (Speeded-Up Robust Features) features that is robust to the motion in the depth direction or a technique of performing matching of SIFT (Scale-Invariant Feature Transform) features is used. May be. For details of SURF, for example, H. Bay, A. Ess, T. Tuytelaars, and LV Gool, "Speeded-Up Robust Features (SURF)", Elsevier, vol. 110, Issue 3, p. 346- See 359, Jun. 2008.
また、原画像列を撮像したカメラがRGB−Dセンサを搭載しており、該カメラがRGB−Dセンサから被写体までの深度(Depth)、すなわち撮影距離を画素単位で数画素おきに検出している場合がある。この場合には、奥行方向動き推定部104は、カメラから参照フレーム及び基準フレームの深度を取得して、該深度を用いてオブジェクトの奥行方向の動きを推定してもよい。
Also, the camera that has captured the original image sequence is equipped with an RGB-D sensor, and the camera detects the depth (Depth) from the RGB-D sensor to the subject, that is, the shooting distance, in units of pixels at every few pixels. There is a case. In this case, the depth direction
幾何変換処理部101は、奥行方向動き推定部104により生成された奥行方向動き推定情報が、オブジェクトが奥方向に動いていることを示している場合には、縮小を伴う幾何変換処理を行う。また、奥行方向動き推定情報が、オブジェクトが手前方向に動いていることを示す場合には、拡大を伴う幾何変換処理を行う。
When the depth direction motion estimation information generated by the depth direction
フィルタ処理部102及び超解像処理部103の処理は、第1の実施形態と同じである。なお、奥行方向動き推定情報が、オブジェクトの奥行方向の動きがないことを示している場合には、フィルタ処理部102によるフィルタ処理、及び超解像処理部103による超解像処理を行わず、幾何変換処理部101により生成された幾何変換画像をそのまま出力する。
The processes of the
なお、上述した参照フレーム生成装置11として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、参照フレーム生成装置11の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。なお、このプログラムは、コンピュータ読取り可能な記録媒体に記録可能である。
It should be noted that a computer can be preferably used to cause the above-described reference
このように、参照フレーム生成装置11及びそのプログラムは、原画像列の奥行方向の動き推定を行い、その結果に基づいて幾何変換処理を行う。そのため、生成した新参照フレームは、より基準フレームとの差分が少ない画像となるため、より奥行方向の動きに対する動き推定の確度を向上させるための参照フレームを生成することができる。
As described above, the reference
(第3の実施形態)
つぎに、本発明の第3の実施形態に係る参照フレーム生成装置について説明する。図3に、本発明の第3の実施形態に係る参照フレーム生成装置の構成例を示す。図3に示す例では、参照フレーム生成装置12は、幾何変換処理部101と、フィルタ処理部102と、超解像処理部103と、奥行方向動き推定部104とを備える。第3の実施形態の参照フレーム生成装置12は第2の実施形態の参照フレーム生成装置11と比較して、備える構成ブロックは同じであるが、カメラパラメータを用いた処理を行う点が相違する。
(Third Embodiment)
Next, a reference frame generation device according to the third embodiment of the present invention will be described. FIG. 3 shows a configuration example of the reference frame generation device according to the third embodiment of the present invention. In the example illustrated in FIG. 3, the reference
参照フレーム生成装置12は、参照フレーム、基準フレーム、及びカメラパラメータを入力する。カメラパラメータは、参照フレーム及び基準フレームの深度に加え、カメラの画角及び被写界深度を含む。
The reference
奥行方向動き推定部104は、参照フレーム及び基準フレームの深度、及びカメラの画角から、参照フレームに対する基準フレームのオブジェクトの変倍率を求め、幾何変換処理部101に出力する。なお、奥行方向動き推定部104は、カメラの被写界深度を、レンズの焦点距離、絞り値、及びセンサーサイズから算出してもよい。
The depth direction
また、奥行方向動き推定部104は、参照フレーム及び基準フレームの深度、及びカメラの被写界深度から、参照フレームから基準フレームへのオブジェクトの被写界深度に対する奥行方向の動きを推定する。すなわち、参照フレームから基準フレームに対してオブジェクトがカメラの被写界深度の内から外に動いたか、あるいは被写界深度の外から内に動いたかを判定する。そして、判定結果をフィルタ処理部102及び超解像処理部103に出力する。
Further, the depth direction
幾何変換処理部101は、入力された参照フレームに対して、奥行方向動き推定部104により求められた変倍率の変倍処理を伴う1回以上の幾何変換処理を行って幾何変換画像群を生成し、フィルタ処理部102及び超解像処理部103に出力する。上述した式(1)を用いて幾何変換処理を行う場合には、奥行方向動き推定部104により求められた変倍率を、水平・垂直方向の変倍率(sx,sy)に設定する。
The geometric
フィルタ処理部102は、奥行方向動き推定部104によりオブジェクトがカメラの被写界深度の内から外に動いたと判定された場合には、基準フレームのオブジェクトが被写界深度から外れた距離が大きいほどカットオフ周波数を低く設定し、幾何変換処理部101により生成された幾何変換画像に対して1回以上の低域通過型のフィルタ処理を行い、フィルタ処理画像群を生成する。そして、フィルタ処理画像群を新参照フレームとして外部に出力する。なお、奥行方向動き推定部104によりオブジェクトが被写界深度の内から外に動いていないと判定された場合には、フィルタ処理は行わない。
When the depth-direction
超解像処理部103は、奥行方向動き推定部104によりオブジェクトがカメラの被写界深度の外から内に動いたと判定された場合には、参照フレームのオブジェクトが被写界深度から外れた距離が大きいほど付加する高周波成分を高く設定し、幾何変換処理部101により生成された幾何変換画像に対して1回以上の超解像処理を行い、超解像処理画像群を生成する。なお、奥行方向動き推定部104によりオブジェクトが被写界深度の外から内に動いていないと判定された場合には、超解像処理は行わない。
If the depth-direction
なお、上述した参照フレーム生成装置12として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、参照フレーム生成装置12の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。なお、このプログラムは、コンピュータ読取り可能な記録媒体に記録可能である。
It should be noted that a computer can be preferably used to cause the above-described reference
このように、参照フレーム生成装置12及びそのプログラムは、カメラパラメータを用いて変倍率を求めるとともにオブジェクトが被写界深度の内から外に動いたか否かを判定する。そして、その結果に従って変倍処理、フィルタ処理、及び超解像処理を行うため、より奥行方向の動きに対する動き推定の確度を向上させるための参照フレームを生成することができる。
As described above, the reference
(第4の実施形態)
つぎに、本発明の第4の実施形態に係る動き推定装置について説明する。図4に、本発明の第4の実施形態に係る動き推定装置の構成例を示す。図4に示す例では、動き推定装置1は、参照フレーム生成装置10,11,又は12と、動き推定部20とを備える。
(Fourth Embodiment)
Next, a motion estimation device according to the fourth embodiment of the present invention will be described. FIG. 4 shows a configuration example of the motion estimation device according to the fourth embodiment of the present invention. In the example illustrated in FIG. 4, the motion estimation device 1 includes the reference
参照フレーム生成装置10,11,又は12は、上述したようにフィルタ処理画像群及び超解像処理画像群(新参照フレーム)を生成する。そして、新参照フレームを動き推定部20に出力する。
The reference
動き推定部20は、参照フレーム生成装置10,11,又は12により生成されたフィルタ処理画像群及び超解像処理画像群(新参照フレーム)を参照フレームとして、基準フレームとの間で動き推定を行って動きベクトルを検出し、外部に出力する。動き推定は、ブロックマッチング法などの従来の任意の手法を用いて行うことができる。
The
なお、上述した動き推定装置1として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、動き推定装置1の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。なお、このプログラムは、コンピュータ読取り可能な記録媒体に記録可能である。 It should be noted that a computer can be preferably used to function as the above-described motion estimation device 1, and such a computer stores a program describing the processing content for realizing each function of the motion estimation device 1 in the storage unit of the computer. It can be realized by storing the program in the computer and reading and executing the program by the CPU of the computer. The program can be recorded on a computer-readable recording medium.
このように、動き推定装置1及びそのプログラムは、奥行方向への動きを考慮した新参照フレームを用いて動き推定を行う。そのため、奥行方向の動きに対する動き推定の確度を向上させることができる。 In this way, the motion estimation device 1 and its program perform motion estimation using the new reference frame that takes into account the motion in the depth direction. Therefore, the accuracy of motion estimation with respect to the motion in the depth direction can be improved.
上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。 Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many modifications and substitutions can be made within the spirit and scope of the present invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and changes can be made without departing from the scope of the claims. For example, it is possible to combine a plurality of constituent blocks described in the embodiment into one or to divide one constituent block.
1 動き推定装置
10,11,12 参照フレーム生成装置
20 動き推定部
101 幾何変換処理部
102 フィルタ処理部
103 超解像処理部
104 奥行方向動き推定部
1
Claims (4)
前記参照フレーム及び前記原画像列の基準フレームの深度、及びカメラの画角から、前記参照フレームに対する前記基準フレームのオブジェクトの変倍率を求めるとともに、前記深度、及びカメラの被写界深度から、前記参照フレームから前記基準フレームへのオブジェクトの被写界深度に対する奥行方向の動きを推定する奥行方向動き推定部と、
前記参照フレームに対して、前記変倍率での変倍処理を伴う1回以上の幾何変換処理を行い、1以上の幾何変換画像を生成する幾何変換処理部と、
前記幾何変換処理に対して、カットオフ周波数を変えてそれぞれ1回以上の低域通過型のフィルタ処理を行い、1以上のフィルタ処理画像を生成して新参照フレームとして出力するフィルタ処理部と、
前記幾何変換処理に対して、付加する高周波帯域を変えてそれぞれ1回以上の超解像処理を行い、1以上の超解像処理画像を生成して新参照フレームとして出力する超解像処理部と、を備え、
前記フィルタ処理部は、前記奥行方向動き推定部によりオブジェクトが被写界深度の内から外に動いたと判定された場合には、前記基準フレームのオブジェクトが被写界深度から外れた距離が大きいほど前記カットオフ周波数を低く設定し、
前記超解像処理部は、前記奥行方向動き推定部によりオブジェクトが被写界深度の外から内に動いたと判定された場合には、前記参照フレームのオブジェクトが被写界深度から外れた距離が大きいほど前記付加する高周波帯域を高く設定することを特徴とする参照フレーム生成装置。 A reference frame generation device for inputting one reference frame from an original image sequence and outputting a plurality of new reference frames,
From the depth of the reference frame and the base frame of the original image sequence, and the angle of view of the camera, the scaling ratio of the object of the base frame with respect to the reference frame is obtained, and from the depth and the depth of field of the camera, A depth direction motion estimation unit that estimates a motion in the depth direction with respect to the depth of field of the object from the reference frame to the base frame;
Relative to the reference frame, performs one or more geometric transformation processing with the variable magnification processing in the magnification ratio, the geometric transformation processing unit to generate one or more geometric transformation image,
A filter processing unit that performs one or more low-pass filter processes for each of the geometric conversion processes by changing the cutoff frequency, generates one or more filtered images, and outputs the filtered images as a new reference frame,
A super-resolution processing unit that performs one or more super-resolution processings for each of the geometric conversion processings by changing the high frequency band to be added, generates one or more super-resolution processed images, and outputs as a new reference frame. And ,
When the depth direction motion estimation unit determines that the object has moved from within the depth of field to the outside, the filtering unit has a larger distance from the depth of field of the object of the reference frame. Set the cutoff frequency low,
If the super-resolution processing unit determines that the object has moved from outside to inside the depth of field by the depth direction motion estimation unit, the distance at which the object of the reference frame deviates from the depth of field is reference frame generating apparatus characterized that you set high frequency band to be the additional larger.
前記1以上のフィルタ処理画像及び前記1以上の超解像処理画像を参照フレームとして、前記原画像列の基準フレームとの間の動きベクトルを検出する動き推定部と、
を備えることを特徴とする動き推定装置。 A reference frame generation device according to claim 1 ;
A motion estimation unit that detects a motion vector between the one or more filtered images and the one or more super-resolution processed images as a reference frame and a standard frame of the original image sequence;
A motion estimation device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016086441A JP6727902B2 (en) | 2016-04-22 | 2016-04-22 | Reference frame generation device, motion estimation device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016086441A JP6727902B2 (en) | 2016-04-22 | 2016-04-22 | Reference frame generation device, motion estimation device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017195579A JP2017195579A (en) | 2017-10-26 |
JP6727902B2 true JP6727902B2 (en) | 2020-07-22 |
Family
ID=60154994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016086441A Active JP6727902B2 (en) | 2016-04-22 | 2016-04-22 | Reference frame generation device, motion estimation device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6727902B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7132749B2 (en) * | 2018-05-28 | 2022-09-07 | 日本放送協会 | Video encoding device and program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3936335B2 (en) * | 2001-11-30 | 2007-06-27 | 株式会社エヌ・ティ・ティ・ドコモ | Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, program, and computer-readable recording medium storing program |
JP2005151131A (en) * | 2003-11-14 | 2005-06-09 | Canon Inc | Image encoder, its control method, and program |
JP2011223293A (en) * | 2010-04-09 | 2011-11-04 | Hitachi Ltd | Image encoding method, image encoding apparatus, image decoding method, and image decoding apparatus |
EP2675163A1 (en) * | 2010-07-21 | 2013-12-18 | Dolby Laboratories Licensing Corporation | Reference processing using advanced motion models for video coding |
JP6610853B2 (en) * | 2014-03-18 | 2019-11-27 | パナソニックIpマネジメント株式会社 | Predicted image generation method, image encoding method, image decoding method, and predicted image generation apparatus |
-
2016
- 2016-04-22 JP JP2016086441A patent/JP6727902B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017195579A (en) | 2017-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Taspinar et al. | Source camera attribution using stabilized video | |
JP5075861B2 (en) | Image processing apparatus and image processing method | |
US9602814B2 (en) | Methods and apparatus for sampling-based super resolution video encoding and decoding | |
US20190045212A1 (en) | METHOD AND APPARATUS FOR PREDICTIVE CODING OF 360º VIDEO | |
CN107749987B (en) | Digital video image stabilization method based on block motion estimation | |
Xie et al. | Single depth image super resolution and denoising via coupled dictionary learning with local constraints and shock filtering | |
TWI665916B (en) | Method, apparatus, and circuitry of noise reduction | |
WO2011090789A1 (en) | Method and apparatus for video object segmentation | |
US9129411B2 (en) | Upsampling in a tiered signal quality hierarchy | |
JP6462372B2 (en) | Super-resolution device and program | |
US9294676B2 (en) | Choosing optimal correction in video stabilization | |
JP2009212969A (en) | Image processing apparatus, image processing method, and image processing program | |
JP6727902B2 (en) | Reference frame generation device, motion estimation device, and program | |
US10567790B2 (en) | Non-transitory computer-readable storage medium for storing image compression program, image compression device, and image compression method | |
JP2012169701A (en) | Image processing device, image processing method, and program | |
Pham et al. | Resolution enhancement of low-quality videos using a high-resolution frame | |
JP6655485B2 (en) | Image processing parameter determination device, image processing device, and program | |
US8582654B1 (en) | Generating a deblocked version of video frames using motion estimation | |
Krämer et al. | Super-resolution mosaicing from MPEG compressed video | |
Lee et al. | A single image super-resolution algorithm using Non-Local-Mean self-similarity and noise-robust saliency map | |
KR101650897B1 (en) | Window size zooming method and the apparatus for lower resolution contents | |
Xu et al. | Interlaced scan CCD image motion deblur for space-variant motion blurs | |
Tian et al. | Stabilized videos source identification method based on undecimated dual-tree complex wavelet transform and Bayesian adaptive direct search algorithm | |
JP2016213657A (en) | Encoded block size determination device, encoding device, and program | |
Okade et al. | A novel motion vector outlier removal technique based on adaptive weighted vector median filtering for global motion estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200602 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200701 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6727902 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |