JP6727902B2 - Reference frame generation device, motion estimation device, and program - Google Patents

Reference frame generation device, motion estimation device, and program Download PDF

Info

Publication number
JP6727902B2
JP6727902B2 JP2016086441A JP2016086441A JP6727902B2 JP 6727902 B2 JP6727902 B2 JP 6727902B2 JP 2016086441 A JP2016086441 A JP 2016086441A JP 2016086441 A JP2016086441 A JP 2016086441A JP 6727902 B2 JP6727902 B2 JP 6727902B2
Authority
JP
Japan
Prior art keywords
reference frame
depth
motion estimation
super
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016086441A
Other languages
Japanese (ja)
Other versions
JP2017195579A (en
Inventor
康孝 松尾
康孝 松尾
慎平 根本
慎平 根本
境田 慎一
慎一 境田
菊文 神田
菊文 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2016086441A priority Critical patent/JP6727902B2/en
Publication of JP2017195579A publication Critical patent/JP2017195579A/en
Application granted granted Critical
Publication of JP6727902B2 publication Critical patent/JP6727902B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、新たな参照フレームを生成する参照フレーム生成装置、動き推定装置、及びプログラムに関する。 The present invention relates to a reference frame generation device that generates a new reference frame, a motion estimation device, and a program.

映像符号化におけるインター符号化では、符号化効率を高めるために、フレーム間の動き推定(動き検出)の結果を用いた動き補償を行う。この動き推定では、ハードウェア化の容易さなどの理由により、一般にブロックマッチング法が用いられる。ただし、ブロックマッチング法は、回転や奥行方向の動き推定の確度が低い。そのため、幾何変換を伴う動き推定法が提案されている(例えば、非特許文献1及び2参照)。 In inter coding in video coding, motion compensation using the result of motion estimation (motion detection) between frames is performed in order to improve coding efficiency. In this motion estimation, a block matching method is generally used for reasons such as easy hardware implementation. However, the block matching method has low accuracy of rotation and depth direction motion estimation. Therefore, a motion estimation method involving geometric transformation has been proposed (for example, see Non-Patent Documents 1 and 2).

また、超解像処理を利用して符号化を行う手法が知られている。例えば、特許文献1には、超解像処理を利用して分散映像符号化(Distributed Video Coding)を行う手法が記載されている。具体的には、原画像列を数フレームおきにJPEGなどの従来のイントラ符号化方式で符号化してこれをKeyフレームとし、それ以外のフレームをWyner-Zivフレームとし、これらは量子化後にSlepian-Wolf符号化によりパリティシンドロームビットを生成して伝送する。さらに符号化側では、まずKeyフレームを局部復号し、Wyner-Zivフレームの予測信号を生成してサイドインフォメーションとする。復号側ではサイドインフォメーションにパリティシンドロームを用いて誤り訂正を行う。また、復号化されたキーフレームとWyner-Zivフレームとを利用して、並進領域に超解像処理を適用することにより予測効率を向上させる。 In addition, a method of performing encoding using super-resolution processing is known. For example, Patent Document 1 describes a method of performing distributed video coding using super-resolution processing. Specifically, the original image sequence is encoded every few frames using a conventional intra-encoding method such as JPEG, and this is used as a Key frame, and the other frames are used as Wyner-Ziv frames. Parity syndrome bits are generated and transmitted by Wolf encoding. Further, on the encoding side, first, the Key frame is locally decoded to generate a Wyner-Ziv frame prediction signal as side information. On the decoding side, error correction is performed using the parity syndrome for side information. In addition, the prediction efficiency is improved by applying the super-resolution processing to the translation region using the decrypted key frame and Wyner-Ziv frame.

特許第5484378号公報Japanese Patent No. 5484378

R. Takada, S. Orihashi, Y. Matsuo, and J. Katto, "Improvement of 8K UHDTV Picture Quality for H.265/HEVC by Global Zoom Estimation using Motion Vectors", Proceedings of IEEE ICCE, pp. 64-65, 2015R. Takada, S. Orihashi, Y. Matsuo, and J. Katto, "Improvement of 8K UHDTV Picture Quality for H.265/HEVC by Global Zoom Estimation using Motion Vectors", Proceedings of IEEE ICCE, pp. 64-65, 2015 VCEG C1016, Huawei technologies Co. Ltd., "Affine transform prediction for next generation video coding", Video Coding Experts Group - C1016VCEG C1016, Huawei technologies Co. Ltd., "Affine transform prediction for next generation video coding", Video Coding Experts Group-C1016

しかしながら、従来の幾何変換を伴う動き推定では、オブジェクトの奥行方向の動きにおいて、被写界深度の内から外への動きを伴う場合に発生するぼやけや、被写界深度の外から内への動きを伴う場合に発生する先鋭化により、動き推定の確度が低くなる。仮に、確度が高い検出ができたとしても、動き補償時の差分情報量が大きくなりがちである。 However, with conventional motion estimation involving geometric transformation, blurring that occurs when moving from the inside to the outside of the depth of field in the movement in the depth direction of the object, and from the outside to the inside of the depth of field. Due to the sharpening that occurs when there is motion, the accuracy of motion estimation becomes low. Even if the detection can be performed with high accuracy, the difference information amount at the time of motion compensation tends to be large.

また、特許文献1の手法では、超解像処理により予測効率を向上させることができるが、被写界深度を考慮していないため、奥行方向の動きに対する動き推定の確度を向上させるものではない。 Further, although the method of Patent Document 1 can improve the prediction efficiency by super-resolution processing, it does not improve the accuracy of motion estimation for the motion in the depth direction because the depth of field is not taken into consideration. ..

かかる事情に鑑みてなされた本発明の目的は、奥行方向の動きに対する動き推定の確度を向上させるための参照フレームを生成する参照フレーム生成装置、該参照フレームを用いて動き推定を行う動き推定装置、及びそれらのプログラムを提供することにある。 An object of the present invention made in view of such circumstances is a reference frame generation device that generates a reference frame for improving the accuracy of motion estimation with respect to a motion in the depth direction, and a motion estimation device that performs motion estimation using the reference frame. , And providing those programs.

上記課題を解決するため、本発明に係る参照フレーム生成装置は、原画像列から1の参照フレームを入力し、複数の新参照フレームを出力する参照フレーム生成装置であって、前記参照フレーム及び前記原画像列の基準フレームの深度、及びカメラの画角から、前記参照フレームに対する前記基準フレームのオブジェクトの変倍率を求めるとともに、前記深度、及びカメラの被写界深度から、前記参照フレームから前記基準フレームへのオブジェクトの被写界深度に対する奥行方向の動きを推定する奥行方向動き推定部と、前記参照フレームに対して、前記変倍率での変倍処理を伴う1回以上の幾何変換処理を行い、1以上の幾何変換画像を生成する幾何変換処理部と、前記幾何変換処理に対して、カットオフ周波数を変えてそれぞれ1回以上の低域通過型のフィルタ処理を行い、1以上のフィルタ処理画像を生成して新参照フレームとして出力するフィルタ処理部と、前記幾何変換処理に対して、付加する高周波帯域を変えてそれぞれ1回以上の超解像処理を行い、1以上の超解像処理画像を生成して新参照フレームとして出力する超解像処理部と、を備え、前記フィルタ処理部は、前記奥行方向動き推定部によりオブジェクトが被写界深度の内から外に動いたと判定された場合には、前記基準フレームのオブジェクトが被写界深度から外れた距離が大きいほど前記カットオフ周波数を低く設定し、前記超解像処理部は、前記奥行方向動き推定部によりオブジェクトが被写界深度の外から内に動いたと判定された場合には、前記参照フレームのオブジェクトが被写界深度から外れた距離が大きいほど前記付加する高周波帯域を高く設定することを特徴とする。
In order to solve the above-mentioned problems, a reference frame generation device according to the present invention is a reference frame generation device which inputs one reference frame from an original image sequence and outputs a plurality of new reference frames, wherein the reference frame and the reference frame From the depth of the standard frame of the original image sequence and the angle of view of the camera, the scaling factor of the object of the standard frame with respect to the reference frame is obtained, and from the depth and the depth of field of the camera, the standard from the reference frame. the depth-direction motion estimation unit for estimating a motion in the depth direction with respect to the depth of field of the object to the frame, relative to the reference frame, performs one or more geometric transformation processing with the variable magnification processing in the magnification ratio And a geometric transformation processing unit for generating one or more geometric transformation images, and one or more low-pass filter processings for the geometric transformation processing by changing cutoff frequencies one or more times. A filter processing unit that generates an image and outputs it as a new reference frame, and a high-resolution process that is performed once or more by changing the high-frequency band to be added to the geometric transformation process, and one or more super-resolution processes And a super-resolution processing unit that generates an image and outputs it as a new reference frame, and the filter processing unit is determined by the depth direction motion estimation unit that the object has moved from inside to outside the depth of field. In this case, the greater the distance the object of the reference frame is from the depth of field, the lower the cut-off frequency is set, and the super-resolution processing unit causes the depth direction motion estimation unit to detect the object in the depth of field. If it is determined that moved within the outside of the depth, the object of the reference frame, characterized in that you set high frequency band to the additional greater the distance that deviates from the depth of field.

また、上記課題を解決するため、本発明に係る動き推定装置は、上記参照フレーム生成装置と、前記1以上のフィルタ処理画像及び前記1以上の超解像処理画像を参照フレームとして、前記基準フレームとの間の動きベクトルを検出する動き推定部と、を備えることを特徴とする。 Further, in order to solve the above problems, a motion estimation device according to the present invention uses the reference frame generation device, the one or more filtered images and the one or more super-resolution processed images as reference frames, and the standard frame. And a motion estimator that detects a motion vector between and.

また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記参照フレーム生成装置として機能させることを特徴とする。 In order to solve the above problems, the program according to the present invention causes a computer to function as the reference frame generation device.

また、上記課題を解決するため、本発明に係るプログラムは、コンピュータを、上記動き推定装置として機能させることを特徴とする。 In order to solve the above-mentioned subject, the program concerning the present invention makes a computer function as the above-mentioned motion estimating device.

本発明によれば、奥行方向の動きに対する動き推定の確度を向上させるための参照フレームを生成することができるようになる。 According to the present invention, it becomes possible to generate a reference frame for improving the accuracy of motion estimation with respect to a motion in the depth direction.

本発明の第1の実施形態に係る参照フレーム生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the reference frame production|generation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る参照フレーム生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the reference frame production|generation apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る参照フレーム生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the reference frame production|generation apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第4の実施形態に係る動き推定装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the motion estimation apparatus which concerns on the 4th Embodiment of this invention.

以下、本発明の実施形態について、図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施形態)
まず、本発明の第1の実施形態に係る参照フレーム生成装置について説明する。図1に、本発明の第1の実施形態に係る参照フレーム生成装置の構成例を示す。図1に示す例では、参照フレーム生成装置10は、幾何変換処理部101と、フィルタ処理部102と、超解像処理部103とを備える。
(First embodiment)
First, a reference frame generation device according to the first embodiment of the present invention will be described. FIG. 1 shows a configuration example of a reference frame generation device according to the first embodiment of the present invention. In the example illustrated in FIG. 1, the reference frame generation device 10 includes a geometric conversion processing unit 101, a filter processing unit 102, and a super-resolution processing unit 103.

参照フレーム生成装置10は、基準フレーム及び複数の参照フレームからなる原画像列から1の参照フレームを入力し、複数の新たな参照フレーム(新参照フレーム)を生成して出力する。 The reference frame generation device 10 inputs one reference frame from an original image sequence composed of a base frame and a plurality of reference frames, and generates and outputs a plurality of new reference frames (new reference frames).

幾何変換処理部101は、入力された参照フレームに対して、変倍率を含む幾何変換パラメータを変えて1回以上(n回)の幾何変換処理を行い、1以上(n枚)の幾何変換画像(幾何変換画像群)を生成する。そして、幾何変換画像群をフィルタ処理部102及び超解像処理部103に出力する。例えば、幾何変換処理部101は、アフィン変換により回転、変倍(拡大縮小)、及びスキューを行う。式(1)にアフィン変換の式を示す。ここで、(u,v)は変換前の水平・垂直座標であり、(u’,v’)は変換後の水平・垂直座標である。また、回転角θ、水平・垂直方向の変倍率(sx,sy)、スキュー角δを幾何変換パラメータとする。幾何変換画像群は、参照フレーム生成装置10に入力される参照フレームに対して、奥方向の動きを模擬して縮小された画像、及び手前方向の動きを模擬して拡大された画像を含む。 The geometric conversion processing unit 101 performs geometric conversion processing on the input reference frame at least once (n times) by changing geometric conversion parameters including scaling factors, and performs at least one (n) geometric conversion image. (Geometrically transformed image group) is generated. Then, the geometrically transformed image group is output to the filter processing unit 102 and the super-resolution processing unit 103. For example, the geometric transformation processing unit 101 performs rotation, scaling (scaling), and skew by affine transformation. Equation (1) shows an affine transformation equation. Here, (u, v) are horizontal/vertical coordinates before conversion, and (u′, v′) are horizontal/vertical coordinates after conversion. Further, the rotation angle θ, the scaling factors (s x , s y ) in the horizontal and vertical directions, and the skew angle δ are used as geometric transformation parameters. The geometrically transformed image group includes an image that is simulated by simulating a movement in the depth direction and an image that is enlarged by simulating a movement in the front direction with respect to the reference frame input to the reference frame generation device 10.

Figure 0006727902
Figure 0006727902

フィルタ処理部102は、幾何変換処理部101により生成された幾何変換画像に対して、カットオフ周波数を変えてそれぞれ1回以上(j回)の低域通過型のフィルタ処理を行い、1以上(n×j枚)のフィルタ処理画像(フィルタ処理画像群)を生成する。そして、フィルタ処理画像群を新参照フレームとして外部に出力する。フィルタ処理画像群は、参照フレーム生成装置10に入力される参照フレームに対して、高周波成分が除去されたぼやけた画像となる。 The filter processing unit 102 performs low pass filtering processing once or more (j times) on the geometrically transformed image generated by the geometric transformation processing unit 101 by changing the cutoff frequency, and then performs one or more (j (n×j) filtered images (filtered image group) are generated. Then, the filtered image group is output to the outside as a new reference frame. The filtered image group is a blurred image in which high frequency components have been removed from the reference frame input to the reference frame generation device 10.

超解像処理部103は、幾何変換処理部101により生成された幾何変換画像に対して、付加する高周波帯域を変えてそれぞれ1回以上(k回)の超解像処理を行い、1以上(n×k枚)の超解像処理画像(超解像処理画像群)を生成する。そして、超解像処理画像群を新参照フレームとして外部に出力する。超解像処理には既知の任意の処理を用いることができ、例えば、特許第5417290号公報に記載の超解像処理を用いることができる。超解像処理画像群は、参照フレーム生成装置10に入力される参照フレームに対して、ナイキスト周波数を超える高周波成分が付加された先鋭化した画像となる。 The super-resolution processing unit 103 performs super-resolution processing once or more (k times) on the geometrically transformed image generated by the geometric transformation processing unit 101 by changing the high frequency band to be added, and then performs one or more ( (n×k) super-resolution processed images (super-resolution processed image group) are generated. Then, the super-resolution processed image group is output to the outside as a new reference frame. Any known processing can be used for the super-resolution processing, and for example, the super-resolution processing described in Japanese Patent No. 5417290 can be used. The super-resolution processed image group is a sharpened image in which a high-frequency component exceeding the Nyquist frequency is added to the reference frame input to the reference frame generation device 10.

参照フレーム生成装置10から出力されるフィルタ処理画像群及び超解像処理画像群は、インター符号化の参照フレームとして用いることができる。一例として、HEVC(High Efficiency Video Coding)/H.265方式のインター符号化で用いる場合には、基準フレームと参照フレームとの距離は、Low-delayモードで1フレーム、Random accessモードで8フレーム程度(ただし、設定値による)である。そのため、幾何変換処理部101における幾何変換処理では、それほど大きな値の回転、変倍、スキュー処理を行う必要はない。例えば、回転角θを{−π/8,0,π/8}とし、変倍率sx,syを{0.75,1.0,1.25}とし、スキュー角δを{−π/8,0,π/8}とする。 The filtered image group and the super-resolution processed image group output from the reference frame generation device 10 can be used as a reference frame for inter coding. As an example, when used in HEVC (High Efficiency Video Coding)/H.265 inter coding, the distance between the standard frame and the reference frame is about 1 frame in the Low-delay mode and 8 frames in the Random access mode. (However, it depends on the set value). Therefore, in the geometric conversion processing in the geometric conversion processing unit 101, it is not necessary to perform rotation, scaling, and skew processing of such a large value. For example, the rotation angle θ is {−π/8,0,π/8}, the scaling factors s x and s y are {0.75,1.0,1.25}, and the skew angle δ is {−π. /8,0,π/8}.

また、フィルタ処理部102におけるフィルタ処理も、カットオフ周波数をそれほど小さくする必要はない。例えば、カットオフ周波数を、原画像列のナイキスト周波数の{1,0.8,0.6}倍とする。また、超解像処理部103における超解像処理も、それほど幾何変換画像のナイキスト周波数を超える高周波成分を付加する必要はない。 Also, in the filter processing in the filter processing unit 102, it is not necessary to reduce the cutoff frequency so much. For example, the cutoff frequency is {1, 0.8, 0.6} times the Nyquist frequency of the original image sequence. Also, in the super-resolution processing in the super-resolution processing unit 103, it is not necessary to add a high frequency component exceeding the Nyquist frequency of the geometrically transformed image.

なお、上述した参照フレーム生成装置10として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、参照フレーム生成装置10の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。なお、このプログラムは、コンピュータ読取り可能な記録媒体に記録可能である。 It should be noted that a computer can be preferably used to cause the above-described reference frame generation device 10 to function, and such a computer can execute a program describing the processing content for realizing each function of the reference frame generation device 10 of the computer. It can be realized by storing it in a storage unit and reading and executing this program by the CPU of the computer. The program can be recorded on a computer-readable recording medium.

このように、参照フレーム生成装置10及びそのプログラムは、元の参照フレームに対して変倍処理及び低域通過型のフィルタ処理を行ったフィルタ処理画像群と、元の参照フレームに対して変倍処理及び超解像処理を行った超解像処理画像群とを生成する。そのため、被写界深度の内から外への奥行方向への動き、及び被写界深度の外から内への奥行方向への動きを考慮した参照フレームの候補を増やすことができ、すなわち奥行方向の動きに対する動き推定の確度を向上させるための参照フレームを生成することができる。 As described above, the reference frame generation apparatus 10 and the program thereof perform the scaling processing and the low-pass filter processing on the original reference frame and the scaling processing for the original reference frame. And a super-resolution processed image group that has undergone processing and super-resolution processing. Therefore, it is possible to increase the number of reference frame candidates in consideration of the movement in the depth direction from the inside to the outside of the depth of field and the movement in the depth direction from the outside to the depth of field, that is, the depth direction. It is possible to generate a reference frame for improving the accuracy of motion estimation with respect to the motion of the.

(第2の実施形態)
つぎに、本発明の第2の実施形態に係る参照フレーム生成装置について説明する。図2に、本発明の第2の実施形態に係る参照フレーム生成装置の構成例を示す。図2に示す例では、参照フレーム生成装置11は、幾何変換処理部101と、フィルタ処理部102と、超解像処理部103と、奥行方向動き推定部104とを備える。第2の実施形態の参照フレーム生成装置11は第1の実施形態の参照フレーム生成装置10と比較して、奥行方向動き推定部104を更に備える点が相違する。
(Second embodiment)
Next, a reference frame generation device according to the second embodiment of the present invention will be described. FIG. 2 shows a configuration example of a reference frame generation device according to the second embodiment of the present invention. In the example illustrated in FIG. 2, the reference frame generation device 11 includes a geometric conversion processing unit 101, a filter processing unit 102, a super-resolution processing unit 103, and a depth direction motion estimation unit 104. The reference frame generation device 11 of the second exemplary embodiment differs from the reference frame generation device 10 of the first exemplary embodiment in that a depth direction motion estimation unit 104 is further provided.

奥行方向動き推定部104は、基準フレーム及び参照フレームを入力し、基準フレームと参照フレームとの間で奥行方向の動き推定を行い、参照フレームから基準フレームへのオブジェクトの奥行方向の動きを示す奥行方向動き推定情報を生成する。そして、奥行方向動き推定情報を幾何変換処理部101に出力する。なお、手前方向に動くオブジェクトと奥方向に動くオブジェクトとが混在している場合には、総合的にどちらの方向に動くオブジェクトが多いか判断する。また、オブジェクトの奥行方向への動きが閾値以下である場合には、オブジェクトの奥行方向の動きがないことを示す情報を奥行方向動き推定情報として出力してもよい。 The depth direction motion estimation unit 104 inputs a standard frame and a reference frame, estimates a motion in the depth direction between the standard frame and the reference frame, and indicates a depth direction motion of the object from the reference frame to the standard frame. Generate directional motion estimation information. Then, the depth direction motion estimation information is output to the geometric conversion processing unit 101. In addition, when an object moving in the front direction and an object moving in the back direction are mixed, it is comprehensively determined in which direction many objects move. Further, when the movement of the object in the depth direction is less than or equal to the threshold value, information indicating that there is no movement of the object in the depth direction may be output as the depth direction motion estimation information.

奥行方向の動き推定は、パーティクルフィルタを用いる手法などの、奥行方向の動きに頑健な手法を用いるのが好適である。パーティクルフィルタは、重み付き確率分布による時系列データの1フレームごとの遷移を予測するものである。パーティクルフィルタではオブジェクトの大域的な追跡を行い、オブジェクトの大域的な大きさの変化(オブジェクトの周りを四角で囲う形で表現される)を推定することが可能である。この大きさが大きくなれば手前方向、小さくなれば奥方向への動きが発生したと推定する。なお、パーティクルフィルタの詳細については、例えば、Artech House Publishers, "Beyond the Kalman Filter: Particle Filters for Tracking Applications" (ISBN 978-1-58083-631-8)を参照されたい。 For the motion estimation in the depth direction, it is preferable to use a technique that is robust to the motion in the depth direction, such as a technique using a particle filter. The particle filter predicts the transition of each frame of time series data based on the weighted probability distribution. The particle filter is capable of global tracking of the object and estimating the global size change of the object (represented by a box surrounding the object). It is presumed that a movement in the front direction occurs when this size increases, and a movement in the back direction occurs when this size decreases. For details of the particle filter, refer to, for example, Artech House Publishers, "Beyond the Kalman Filter: Particle Filters for Tracking Applications" (ISBN 978-1-58083-631-8).

また、奥行方向の動き推定として、奥行方向の動きに頑健なSURF(Speeded-Up Robust Features)特徴量のマッチングを行う手法や、SIFT(Scale-Invariant Feature Transform)特徴量のマッチングを行う手法を用いてもよい。なお、SURFの詳細については、例えば、H. Bay, A. Ess, T. Tuytelaars, and L. V. Gool, "Speeded-Up Robust Features (SURF)", Elsevier, vol. 110, Issue 3, p. 346-359, Jun. 2008を参照されたい。 In addition, as the motion estimation in the depth direction, a method of performing matching of SURF (Speeded-Up Robust Features) features that is robust to the motion in the depth direction or a technique of performing matching of SIFT (Scale-Invariant Feature Transform) features is used. May be. For details of SURF, for example, H. Bay, A. Ess, T. Tuytelaars, and LV Gool, "Speeded-Up Robust Features (SURF)", Elsevier, vol. 110, Issue 3, p. 346- See 359, Jun. 2008.

また、原画像列を撮像したカメラがRGB−Dセンサを搭載しており、該カメラがRGB−Dセンサから被写体までの深度(Depth)、すなわち撮影距離を画素単位で数画素おきに検出している場合がある。この場合には、奥行方向動き推定部104は、カメラから参照フレーム及び基準フレームの深度を取得して、該深度を用いてオブジェクトの奥行方向の動きを推定してもよい。 Also, the camera that has captured the original image sequence is equipped with an RGB-D sensor, and the camera detects the depth (Depth) from the RGB-D sensor to the subject, that is, the shooting distance, in units of pixels at every few pixels. There is a case. In this case, the depth direction motion estimation unit 104 may acquire the depths of the reference frame and the base frame from the camera and use the depths to estimate the depth direction motion of the object.

幾何変換処理部101は、奥行方向動き推定部104により生成された奥行方向動き推定情報が、オブジェクトが奥方向に動いていることを示している場合には、縮小を伴う幾何変換処理を行う。また、奥行方向動き推定情報が、オブジェクトが手前方向に動いていることを示す場合には、拡大を伴う幾何変換処理を行う。 When the depth direction motion estimation information generated by the depth direction motion estimation unit 104 indicates that the object is moving in the depth direction, the geometric conversion processing unit 101 performs geometric conversion processing accompanied by reduction. Further, when the depth direction motion estimation information indicates that the object is moving in the front direction, geometric conversion processing accompanied by enlargement is performed.

フィルタ処理部102及び超解像処理部103の処理は、第1の実施形態と同じである。なお、奥行方向動き推定情報が、オブジェクトの奥行方向の動きがないことを示している場合には、フィルタ処理部102によるフィルタ処理、及び超解像処理部103による超解像処理を行わず、幾何変換処理部101により生成された幾何変換画像をそのまま出力する。 The processes of the filter processing unit 102 and the super-resolution processing unit 103 are the same as those in the first embodiment. When the depth direction motion estimation information indicates that there is no movement in the depth direction of the object, the filtering process by the filter processing unit 102 and the super-resolution processing by the super-resolution processing unit 103 are not performed, The geometric transformation image generated by the geometric transformation processing unit 101 is output as it is.

なお、上述した参照フレーム生成装置11として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、参照フレーム生成装置11の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。なお、このプログラムは、コンピュータ読取り可能な記録媒体に記録可能である。 It should be noted that a computer can be preferably used to cause the above-described reference frame generation device 11 to function, and such a computer can execute a program describing the processing content for realizing each function of the reference frame generation device 11 of the computer. It can be realized by storing it in a storage unit and reading and executing this program by the CPU of the computer. The program can be recorded on a computer-readable recording medium.

このように、参照フレーム生成装置11及びそのプログラムは、原画像列の奥行方向の動き推定を行い、その結果に基づいて幾何変換処理を行う。そのため、生成した新参照フレームは、より基準フレームとの差分が少ない画像となるため、より奥行方向の動きに対する動き推定の確度を向上させるための参照フレームを生成することができる。 As described above, the reference frame generation device 11 and its program perform motion estimation of the original image sequence in the depth direction, and perform geometric transformation processing based on the result. Therefore, the generated new reference frame is an image having a smaller difference from the reference frame, and thus it is possible to generate a reference frame for improving the accuracy of motion estimation with respect to the movement in the depth direction.

(第3の実施形態)
つぎに、本発明の第3の実施形態に係る参照フレーム生成装置について説明する。図3に、本発明の第3の実施形態に係る参照フレーム生成装置の構成例を示す。図3に示す例では、参照フレーム生成装置12は、幾何変換処理部101と、フィルタ処理部102と、超解像処理部103と、奥行方向動き推定部104とを備える。第3の実施形態の参照フレーム生成装置12は第2の実施形態の参照フレーム生成装置11と比較して、備える構成ブロックは同じであるが、カメラパラメータを用いた処理を行う点が相違する。
(Third Embodiment)
Next, a reference frame generation device according to the third embodiment of the present invention will be described. FIG. 3 shows a configuration example of the reference frame generation device according to the third embodiment of the present invention. In the example illustrated in FIG. 3, the reference frame generation device 12 includes a geometric conversion processing unit 101, a filter processing unit 102, a super-resolution processing unit 103, and a depth direction motion estimation unit 104. The reference frame generation device 12 of the third embodiment has the same configuration blocks as the reference frame generation device 11 of the second embodiment, but is different in that processing using camera parameters is performed.

参照フレーム生成装置12は、参照フレーム、基準フレーム、及びカメラパラメータを入力する。カメラパラメータは、参照フレーム及び基準フレームの深度に加え、カメラの画角及び被写界深度を含む。 The reference frame generation device 12 inputs a reference frame, a base frame, and camera parameters. The camera parameters include the angle of view and depth of field of the camera in addition to the depths of the reference frame and the base frame.

奥行方向動き推定部104は、参照フレーム及び基準フレームの深度、及びカメラの画角から、参照フレームに対する基準フレームのオブジェクトの変倍率を求め、幾何変換処理部101に出力する。なお、奥行方向動き推定部104は、カメラの被写界深度を、レンズの焦点距離、絞り値、及びセンサーサイズから算出してもよい。 The depth direction motion estimation unit 104 obtains the scaling factor of the object of the reference frame with respect to the reference frame from the depths of the reference frame and the reference frame, and the angle of view of the camera, and outputs the scaling factor to the geometric conversion processing unit 101. The depth direction motion estimation unit 104 may calculate the depth of field of the camera from the focal length of the lens, the aperture value, and the sensor size.

また、奥行方向動き推定部104は、参照フレーム及び基準フレームの深度、及びカメラの被写界深度から、参照フレームから基準フレームへのオブジェクトの被写界深度に対する奥行方向の動きを推定する。すなわち、参照フレームから基準フレームに対してオブジェクトがカメラの被写界深度の内から外に動いたか、あるいは被写界深度の外から内に動いたかを判定する。そして、判定結果をフィルタ処理部102及び超解像処理部103に出力する。 Further, the depth direction motion estimation unit 104 estimates the motion in the depth direction with respect to the depth of field of the object from the reference frame to the base frame from the depths of the reference frame and the base frame and the depth of field of the camera. That is, it is determined whether the object has moved from inside to outside the depth of field of the camera or from outside to the inside of the depth of field with respect to the reference frame from the reference frame. Then, the determination result is output to the filter processing unit 102 and the super-resolution processing unit 103.

幾何変換処理部101は、入力された参照フレームに対して、奥行方向動き推定部104により求められた変倍率の変倍処理を伴う1回以上の幾何変換処理を行って幾何変換画像群を生成し、フィルタ処理部102及び超解像処理部103に出力する。上述した式(1)を用いて幾何変換処理を行う場合には、奥行方向動き推定部104により求められた変倍率を、水平・垂直方向の変倍率(sx,sy)に設定する。 The geometric transformation processing unit 101 generates a geometric transformation image group by performing, on the input reference frame, one or more times of geometric transformation processing accompanied by scaling processing of the scaling ratio obtained by the depth direction motion estimation unit 104. Then, it outputs to the filter processing unit 102 and the super-resolution processing unit 103. When performing the geometric conversion process using the above equation (1), the scaling factor obtained by the depth direction motion estimation unit 104 is set to the scaling factors (s x , s y ) in the horizontal and vertical directions.

フィルタ処理部102は、奥行方向動き推定部104によりオブジェクトがカメラの被写界深度の内から外に動いたと判定された場合には、基準フレームのオブジェクトが被写界深度から外れた距離が大きいほどカットオフ周波数を低く設定し、幾何変換処理部101により生成された幾何変換画像に対して1回以上の低域通過型のフィルタ処理を行い、フィルタ処理画像群を生成する。そして、フィルタ処理画像群を新参照フレームとして外部に出力する。なお、奥行方向動き推定部104によりオブジェクトが被写界深度の内から外に動いていないと判定された場合には、フィルタ処理は行わない。 When the depth-direction motion estimation unit 104 determines that the object has moved out of the depth of field of the camera, the filter processing unit 102 has a large distance that the object of the reference frame deviates from the depth of field. The cutoff frequency is set lower as much as possible, and the low-pass filter processing is performed once or more on the geometric transformation image generated by the geometric transformation processing unit 101 to generate a filtered image group. Then, the filtered image group is output to the outside as a new reference frame. If the depth direction motion estimation unit 104 determines that the object is not moving from within the depth of field, the filtering process is not performed.

超解像処理部103は、奥行方向動き推定部104によりオブジェクトがカメラの被写界深度の外から内に動いたと判定された場合には、参照フレームのオブジェクトが被写界深度から外れた距離が大きいほど付加する高周波成分を高く設定し、幾何変換処理部101により生成された幾何変換画像に対して1回以上の超解像処理を行い、超解像処理画像群を生成する。なお、奥行方向動き推定部104によりオブジェクトが被写界深度の外から内に動いていないと判定された場合には、超解像処理は行わない。 If the depth-direction motion estimation unit 104 determines that the object has moved from outside to inside the depth of field of the camera, the super-resolution processing unit 103 determines the distance at which the object in the reference frame deviates from the depth of field. Is set to a higher value, the super-resolution processing is performed once or more on the geometric transformation image generated by the geometric transformation processing unit 101, and a super-resolution processing image group is generated. If the depth direction motion estimation unit 104 determines that the object does not move from outside to inside the depth of field, the super-resolution processing is not performed.

なお、上述した参照フレーム生成装置12として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、参照フレーム生成装置12の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。なお、このプログラムは、コンピュータ読取り可能な記録媒体に記録可能である。 It should be noted that a computer can be preferably used to cause the above-described reference frame generation device 12 to function, and such a computer can execute a program describing the processing content for realizing each function of the reference frame generation device 12 of the computer. It can be realized by storing it in a storage unit and reading and executing this program by the CPU of the computer. The program can be recorded on a computer-readable recording medium.

このように、参照フレーム生成装置12及びそのプログラムは、カメラパラメータを用いて変倍率を求めるとともにオブジェクトが被写界深度の内から外に動いたか否かを判定する。そして、その結果に従って変倍処理、フィルタ処理、及び超解像処理を行うため、より奥行方向の動きに対する動き推定の確度を向上させるための参照フレームを生成することができる。 As described above, the reference frame generation device 12 and the program thereof determine the scaling factor using the camera parameter and determine whether the object has moved out of the depth of field. Then, since the scaling processing, the filtering processing, and the super-resolution processing are performed according to the result, it is possible to generate a reference frame for improving the accuracy of motion estimation with respect to the motion in the depth direction.

(第4の実施形態)
つぎに、本発明の第4の実施形態に係る動き推定装置について説明する。図4に、本発明の第4の実施形態に係る動き推定装置の構成例を示す。図4に示す例では、動き推定装置1は、参照フレーム生成装置10,11,又は12と、動き推定部20とを備える。
(Fourth Embodiment)
Next, a motion estimation device according to the fourth embodiment of the present invention will be described. FIG. 4 shows a configuration example of the motion estimation device according to the fourth embodiment of the present invention. In the example illustrated in FIG. 4, the motion estimation device 1 includes the reference frame generation device 10, 11, or 12, and a motion estimation unit 20.

参照フレーム生成装置10,11,又は12は、上述したようにフィルタ処理画像群及び超解像処理画像群(新参照フレーム)を生成する。そして、新参照フレームを動き推定部20に出力する。 The reference frame generation device 10, 11, or 12 generates the filter processing image group and the super-resolution processing image group (new reference frame) as described above. Then, the new reference frame is output to the motion estimation unit 20.

動き推定部20は、参照フレーム生成装置10,11,又は12により生成されたフィルタ処理画像群及び超解像処理画像群(新参照フレーム)を参照フレームとして、基準フレームとの間で動き推定を行って動きベクトルを検出し、外部に出力する。動き推定は、ブロックマッチング法などの従来の任意の手法を用いて行うことができる。 The motion estimation unit 20 uses the filter-processed image group and the super-resolution processed image group (new reference frame) generated by the reference frame generation device 10, 11, or 12 as reference frames to perform motion estimation with the reference frame. The motion vector is detected and output to the outside. The motion estimation can be performed using any conventional method such as a block matching method.

なお、上述した動き推定装置1として機能させるためにコンピュータを好適に用いることができ、そのようなコンピュータは、動き推定装置1の各機能を実現する処理内容を記述したプログラムを該コンピュータの記憶部に格納しておき、該コンピュータのCPUによってこのプログラムを読み出して実行させることで実現することができる。なお、このプログラムは、コンピュータ読取り可能な記録媒体に記録可能である。 It should be noted that a computer can be preferably used to function as the above-described motion estimation device 1, and such a computer stores a program describing the processing content for realizing each function of the motion estimation device 1 in the storage unit of the computer. It can be realized by storing the program in the computer and reading and executing the program by the CPU of the computer. The program can be recorded on a computer-readable recording medium.

このように、動き推定装置1及びそのプログラムは、奥行方向への動きを考慮した新参照フレームを用いて動き推定を行う。そのため、奥行方向の動きに対する動き推定の確度を向上させることができる。 In this way, the motion estimation device 1 and its program perform motion estimation using the new reference frame that takes into account the motion in the depth direction. Therefore, the accuracy of motion estimation with respect to the motion in the depth direction can be improved.

上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。 Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many modifications and substitutions can be made within the spirit and scope of the present invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and changes can be made without departing from the scope of the claims. For example, it is possible to combine a plurality of constituent blocks described in the embodiment into one or to divide one constituent block.

1 動き推定装置
10,11,12 参照フレーム生成装置
20 動き推定部
101 幾何変換処理部
102 フィルタ処理部
103 超解像処理部
104 奥行方向動き推定部
1 Motion Estimating Devices 10, 11, 12 Reference Frame Generating Device 20 Motion Estimating Unit 101 Geometric Transformation Processing Unit 102 Filter Processing Unit 103 Super-Resolution Processing Unit 104 Depth Direction Motion Estimating Unit

Claims (4)

原画像列から1の参照フレームを入力し、複数の新参照フレームを出力する参照フレーム生成装置であって、
前記参照フレーム及び前記原画像列の基準フレームの深度、及びカメラの画角から、前記参照フレームに対する前記基準フレームのオブジェクトの変倍率を求めるとともに、前記深度、及びカメラの被写界深度から、前記参照フレームから前記基準フレームへのオブジェクトの被写界深度に対する奥行方向の動きを推定する奥行方向動き推定部と、
前記参照フレームに対して、前記変倍率での変倍処理を伴う1回以上の幾何変換処理を行い、1以上の幾何変換画像を生成する幾何変換処理部と、
前記幾何変換処理に対して、カットオフ周波数を変えてそれぞれ1回以上の低域通過型のフィルタ処理を行い、1以上のフィルタ処理画像を生成して新参照フレームとして出力するフィルタ処理部と、
前記幾何変換処理に対して、付加する高周波帯域を変えてそれぞれ1回以上の超解像処理を行い、1以上の超解像処理画像を生成して新参照フレームとして出力する超解像処理部と、を備え
前記フィルタ処理部は、前記奥行方向動き推定部によりオブジェクトが被写界深度の内から外に動いたと判定された場合には、前記基準フレームのオブジェクトが被写界深度から外れた距離が大きいほど前記カットオフ周波数を低く設定し、
前記超解像処理部は、前記奥行方向動き推定部によりオブジェクトが被写界深度の外から内に動いたと判定された場合には、前記参照フレームのオブジェクトが被写界深度から外れた距離が大きいほど前記付加する高周波帯域を高く設定することを特徴とする参照フレーム生成装置。
A reference frame generation device for inputting one reference frame from an original image sequence and outputting a plurality of new reference frames,
From the depth of the reference frame and the base frame of the original image sequence, and the angle of view of the camera, the scaling ratio of the object of the base frame with respect to the reference frame is obtained, and from the depth and the depth of field of the camera, A depth direction motion estimation unit that estimates a motion in the depth direction with respect to the depth of field of the object from the reference frame to the base frame;
Relative to the reference frame, performs one or more geometric transformation processing with the variable magnification processing in the magnification ratio, the geometric transformation processing unit to generate one or more geometric transformation image,
A filter processing unit that performs one or more low-pass filter processes for each of the geometric conversion processes by changing the cutoff frequency, generates one or more filtered images, and outputs the filtered images as a new reference frame,
A super-resolution processing unit that performs one or more super-resolution processings for each of the geometric conversion processings by changing the high frequency band to be added, generates one or more super-resolution processed images, and outputs as a new reference frame. And ,
When the depth direction motion estimation unit determines that the object has moved from within the depth of field to the outside, the filtering unit has a larger distance from the depth of field of the object of the reference frame. Set the cutoff frequency low,
If the super-resolution processing unit determines that the object has moved from outside to inside the depth of field by the depth direction motion estimation unit, the distance at which the object of the reference frame deviates from the depth of field is reference frame generating apparatus characterized that you set high frequency band to be the additional larger.
請求項1に記載の参照フレーム生成装置と、
前記1以上のフィルタ処理画像及び前記1以上の超解像処理画像を参照フレームとして、前記原画像列の基準フレームとの間の動きベクトルを検出する動き推定部と、
を備えることを特徴とする動き推定装置。
A reference frame generation device according to claim 1 ;
A motion estimation unit that detects a motion vector between the one or more filtered images and the one or more super-resolution processed images as a reference frame and a standard frame of the original image sequence;
A motion estimation device comprising:
コンピュータを、請求項1に記載の参照フレーム生成装置として機能させるためのプログラム。 A program for causing a computer to function as the reference frame generation device according to claim 1 . コンピュータを、請求項に記載の動き推定装置として機能させるためのプログラム。 A program for causing a computer to function as the motion estimation device according to claim 2 .
JP2016086441A 2016-04-22 2016-04-22 Reference frame generation device, motion estimation device, and program Active JP6727902B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016086441A JP6727902B2 (en) 2016-04-22 2016-04-22 Reference frame generation device, motion estimation device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016086441A JP6727902B2 (en) 2016-04-22 2016-04-22 Reference frame generation device, motion estimation device, and program

Publications (2)

Publication Number Publication Date
JP2017195579A JP2017195579A (en) 2017-10-26
JP6727902B2 true JP6727902B2 (en) 2020-07-22

Family

ID=60154994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016086441A Active JP6727902B2 (en) 2016-04-22 2016-04-22 Reference frame generation device, motion estimation device, and program

Country Status (1)

Country Link
JP (1) JP6727902B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7132749B2 (en) * 2018-05-28 2022-09-07 日本放送協会 Video encoding device and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3936335B2 (en) * 2001-11-30 2007-06-27 株式会社エヌ・ティ・ティ・ドコモ Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, program, and computer-readable recording medium storing program
JP2005151131A (en) * 2003-11-14 2005-06-09 Canon Inc Image encoder, its control method, and program
JP2011223293A (en) * 2010-04-09 2011-11-04 Hitachi Ltd Image encoding method, image encoding apparatus, image decoding method, and image decoding apparatus
EP2675163A1 (en) * 2010-07-21 2013-12-18 Dolby Laboratories Licensing Corporation Reference processing using advanced motion models for video coding
JP6610853B2 (en) * 2014-03-18 2019-11-27 パナソニックIpマネジメント株式会社 Predicted image generation method, image encoding method, image decoding method, and predicted image generation apparatus

Also Published As

Publication number Publication date
JP2017195579A (en) 2017-10-26

Similar Documents

Publication Publication Date Title
Taspinar et al. Source camera attribution using stabilized video
JP5075861B2 (en) Image processing apparatus and image processing method
US9602814B2 (en) Methods and apparatus for sampling-based super resolution video encoding and decoding
US20190045212A1 (en) METHOD AND APPARATUS FOR PREDICTIVE CODING OF 360º VIDEO
CN107749987B (en) Digital video image stabilization method based on block motion estimation
Xie et al. Single depth image super resolution and denoising via coupled dictionary learning with local constraints and shock filtering
TWI665916B (en) Method, apparatus, and circuitry of noise reduction
WO2011090789A1 (en) Method and apparatus for video object segmentation
US9129411B2 (en) Upsampling in a tiered signal quality hierarchy
JP6462372B2 (en) Super-resolution device and program
US9294676B2 (en) Choosing optimal correction in video stabilization
JP2009212969A (en) Image processing apparatus, image processing method, and image processing program
JP6727902B2 (en) Reference frame generation device, motion estimation device, and program
US10567790B2 (en) Non-transitory computer-readable storage medium for storing image compression program, image compression device, and image compression method
JP2012169701A (en) Image processing device, image processing method, and program
Pham et al. Resolution enhancement of low-quality videos using a high-resolution frame
JP6655485B2 (en) Image processing parameter determination device, image processing device, and program
US8582654B1 (en) Generating a deblocked version of video frames using motion estimation
Krämer et al. Super-resolution mosaicing from MPEG compressed video
Lee et al. A single image super-resolution algorithm using Non-Local-Mean self-similarity and noise-robust saliency map
KR101650897B1 (en) Window size zooming method and the apparatus for lower resolution contents
Xu et al. Interlaced scan CCD image motion deblur for space-variant motion blurs
Tian et al. Stabilized videos source identification method based on undecimated dual-tree complex wavelet transform and Bayesian adaptive direct search algorithm
JP2016213657A (en) Encoded block size determination device, encoding device, and program
Okade et al. A novel motion vector outlier removal technique based on adaptive weighted vector median filtering for global motion estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200701

R150 Certificate of patent or registration of utility model

Ref document number: 6727902

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250