JP2017050731A - Moving picture frame interpolation device, moving picture frame interpolation method, and moving picture frame interpolation program - Google Patents

Moving picture frame interpolation device, moving picture frame interpolation method, and moving picture frame interpolation program Download PDF

Info

Publication number
JP2017050731A
JP2017050731A JP2015173144A JP2015173144A JP2017050731A JP 2017050731 A JP2017050731 A JP 2017050731A JP 2015173144 A JP2015173144 A JP 2015173144A JP 2015173144 A JP2015173144 A JP 2015173144A JP 2017050731 A JP2017050731 A JP 2017050731A
Authority
JP
Japan
Prior art keywords
frame
moving image
interpolation
missing
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015173144A
Other languages
Japanese (ja)
Inventor
和樹 岡見
Kazuki Okami
和樹 岡見
信哉 志水
Shinya Shimizu
信哉 志水
広太 竹内
Kota Takeuchi
広太 竹内
明 小島
Akira Kojima
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015173144A priority Critical patent/JP2017050731A/en
Publication of JP2017050731A publication Critical patent/JP2017050731A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving picture frame interpolation device capable of performing the interpolation between moving picture frames in higher quality.SOLUTION: A moving picture frame interpolation device creates a lost frame by an interpolation in a color moving picture represented by brightness information of an imaging object and a depth moving picture represented by depth information of an imaging object. The frames of the color moving picture and the depth moving picture are synchronized. The moving picture frame interpolation device includes an interpolation means that, when a frame of any one moving picture of two moving pictures is lost, performs the interpolation of a lost frame on the basis of information of the frame of the other moving picture.SELECTED DRAWING: Figure 1

Description

本発明は、動画像のフレーム間の補間を行う動画像フレーム補間装置、動画像フレーム補間方法及び動画像フレーム補間プログラムに関する。   The present invention relates to a moving image frame interpolation apparatus, a moving image frame interpolation method, and a moving image frame interpolation program for performing interpolation between frames of moving images.

カメラ等で撮影された映像(動画像)データは有線・無線などの物理的なネットワークを通じて伝送・蓄積される。この映像データの伝送においては、データの帯域幅に制限がある。そのため映像データの伝送のための帯域幅が不足する場合、一時的に映像の時間分解能を低減することが行われる。具体的には、ある一定のフレームレートで取得された映像のフレームの一部を意図的に破棄することで、帯域幅を制限内に収めるようにするような処理が挙げられる。   Video (moving image) data shot by a camera or the like is transmitted and stored through a physical network such as wired or wireless. In the transmission of this video data, the data bandwidth is limited. Therefore, when the bandwidth for transmitting video data is insufficient, temporal resolution of video is temporarily reduced. Specifically, there is a process of intentionally discarding a part of a video frame acquired at a certain frame rate so as to keep the bandwidth within the limit.

特に、映像データとして、シーンのカラーデータに加えて、シーンの深度情報を同時に取得するような場合、必要とされる帯域幅が広くなるため、フレームの一部を意図的に破棄する必要性が高まる。なお、深度情報とは、実空間上に存在する物体と、シーンの撮影に用いられたデバイスとの奥行き距離を表現した情報のことである。一般に深度情報よりカラーデータの方が必要なビット数が多いため、フレームの一部を破棄する際に、ある時刻におけるカラーデータと深度情報の両方を破棄するのではなく、カラーデータのみを破棄することで、帯域幅の制約を満たす処理が行われることがある。また、深度情報画像の画素あたりのビット深度として16bitもしくは32bitが採用されることがあり、その際にはカラーデータよりも深度情報の方が必要なビット数が多くなることがあるので、カラーデータではなく、深度情報のみを破棄することで、帯域幅の制約を満たす処理が行われることもある。   In particular, when acquiring scene depth information in addition to scene color data as video data, the required bandwidth increases, so there is a need to intentionally discard part of the frame. Rise. Note that the depth information is information that expresses a depth distance between an object existing in the real space and a device used for shooting a scene. Generally, color data requires more bits than depth information, so when discarding a part of a frame, discard both color data and depth information instead of discarding both color data and depth information at a certain time. As a result, processing that satisfies the bandwidth constraint may be performed. In addition, 16 bits or 32 bits may be adopted as the bit depth per pixel of the depth information image. In this case, the depth information may require more bits than the color data. Instead, processing that satisfies the bandwidth constraint may be performed by discarding only the depth information.

しかしながら、帯域幅の制限を満たすために一部のフレームを破棄すると、モーションジャギーのようなアーティファクトが生じ、伝送された映像の主観品質が著しく低下してしまう。そのような場合において、アーティファクトを低減し主観品質を向上させるために、フレーム補間またはフレームレートアップコンバージョンと呼ばれる技術が存在する。   However, if some frames are discarded to satisfy the bandwidth limitation, artifacts such as motion jaggies occur, and the subjective quality of the transmitted video is significantly degraded. In such cases, there is a technique called frame interpolation or frame rate upconversion to reduce artifacts and improve subjective quality.

フレーム補間/フレームレートアップコンバージョンとは、動画像符号化・表示において、伝送路内のフレーム欠損の修復や、滑らかな動きを表現するための倍速表示の実行を目的として行われる処理のことである。フレーム補間/フレームレートアップコンバージョンの代表的な手法として、ブロックマッチング等により検出した動画像内の被写体や背景の動き情報を用いて、フレーム間のモーフィングやワーピングなどによってフレーム補間を実現する方法が挙げられる(例えば、非特許文献1参照)。   Frame interpolation / frame rate up-conversion is processing performed for the purpose of executing frame-speed display for repairing frame loss in a transmission path or expressing smooth motion in video encoding / display. . As a typical method of frame interpolation / frame rate up-conversion, there is a method for realizing frame interpolation by morphing or warping between frames using motion information of a subject or background in a moving image detected by block matching or the like. (See, for example, Non-Patent Document 1).

山本貴史, 長谷山美紀,”動画像のフレーム補間に関する考察-モーフィングを用いたアプローチ-“,電子情報通信学会技術報告,vol. 106,no. 112,pp. 1-5,2006.Takashi Yamamoto, Miki Haseyama, “Study on Frame Interpolation of Moving Images: Approach Using Morphing”, Technical Report of IEICE, vol. 106, no. 112, pp. 1-5, 2006.

前述のフレーム補間/フレームレートアップコンバージョンを用いることで、帯域幅の制限による制約を満たすために破棄されたフレームを補間することが可能となる。それによって、一部のフレームの破棄によって映像の主観品質が低下してしまうことを防ぐことができる。   By using the above-described frame interpolation / frame rate up-conversion, it is possible to interpolate a frame discarded to satisfy the restriction due to bandwidth limitation. Thereby, it is possible to prevent the subjective quality of the video from being deteriorated due to the discard of some frames.

しかしながら、前述のような手法では、対象とする動画像の被写体や背景の動きが画像内において周期性を有していることもしくは等速直線運動であること、移動している物体とそうでない物体が明確に区別されていることなどの、いくつかの制約を満たしているという仮定に基づいた処理が行われる。そのため、画像から判断される動作に上記に該当しない不規則な運動が含まれる場合は正しいフレーム補間を実現することができないという問題がある。   However, in the method as described above, the subject of the target moving image or the background motion has periodicity in the image or is a constant velocity linear motion, the moving object and the object that is not The processing is based on the assumption that some constraints are satisfied, such as clearly distinguishing. Therefore, there is a problem that correct frame interpolation cannot be realized when an irregular motion not corresponding to the above is included in the operation determined from the image.

本発明は、このような事情に鑑みてなされたもので、より高品質に動画像フレーム間の補間を可能とする動画像フレーム補間装置、動画像フレーム補間方法及び動画像フレーム補間プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and provides a moving image frame interpolation apparatus, a moving image frame interpolation method, and a moving image frame interpolation program that enable interpolation between moving image frames with higher quality. For the purpose.

本発明の一態様は、撮影対象の輝度情報で表現されたカラー動画像と撮影対象の深度情報で表現された深度動画像とにおいて、欠落したフレームを補間によって生成する動画像フレーム補間装置であって、前記カラー動画像と前記深度動画像とがフレーム同期しており、2つの動画像のいずれか一方の動画像のフレームが欠落した場合に、他方の動画像のフレームの情報に基づき欠落したフレームの補間を行う補間手段を備えた動画像フレーム補間装置である。   One aspect of the present invention is a moving image frame interpolating apparatus that generates a missing frame by interpolation between a color moving image expressed by luminance information of a shooting target and a depth moving image expressed by depth information of the shooting target. Thus, when the color moving image and the depth moving image are frame-synchronized, and one of the two moving images is missing a frame, it is lost based on the information of the other moving image. It is a moving image frame interpolation apparatus provided with an interpolation means for performing frame interpolation.

本発明の一態様は、前記カラー動画像の画素それぞれに対して、前記深度動画像の深度情報を与えて、3次元点群とすることで、前記カラー動画像のフレームと前記深度動画像のフレームとを統合した3次元点群データを各フレームに対応させて生成する3次元点群化手段と、前記3次元点群データに基づき、オプティカルフローを検出することにより時間方向のフレーム間での各画素の対応付けを行うフレーム間対応付け手段とをさらに備え、前記補間手段は、前記時間方向のフレーム間での各画素の対応付け結果に基づき、欠落した前記フレームの補間を行う。   One aspect of the present invention is to provide depth information of the depth moving image to each pixel of the color moving image to form a three-dimensional point group, so that the frame of the color moving image and the depth moving image 3D point grouping means for generating 3D point cloud data that is integrated with the frame in correspondence with each frame, and detecting an optical flow based on the 3D point cloud data, so that frames between the frames in the time direction can be detected. Inter-frame association means for associating each pixel, and the interpolation means interpolates the missing frame based on the association result of each pixel between the frames in the time direction.

本発明の一態様は、前記動画像フレーム補間装置であって、前記補間手段は、前記深度動画像のフレームが欠落した場合に、欠落した前記フレームの前後のフレームそれぞれに対応する前記3次元点群データと欠落した前記フレームと同時刻の前記カラー動画像のフレームとを参照して、欠落したフレームの画素値を求める補間によって欠落した前記深度動画像のフレームを生成する。   One aspect of the present invention is the moving image frame interpolating apparatus, in which the interpolation unit corresponds to the three-dimensional points corresponding to the frames before and after the missing frame when the depth moving image frame is missing. With reference to the group data and the frame of the color moving image at the same time as the missing frame, the missing frame of the depth moving image is generated by interpolation to obtain the pixel value of the missing frame.

本発明の一態様は、前記動画像フレーム補間装置であって、前記補間手段は、前記カラー動画像のフレームが欠落した場合に、欠落した前記フレームの前後のフレームそれぞれに対応する前記3次元点群データと欠落した前記フレームと同時刻の前記深度動画像のフレームとを参照して、欠落したフレームの画素値を求める補間によって欠落した前記カラー動画像のフレームを生成する。   One aspect of the present invention is the moving image frame interpolating device, in which the interpolation unit corresponds to the three-dimensional points corresponding to the frames before and after the missing frame when the frame of the color moving image is missing. With reference to the group data and the frame of the depth moving image at the same time as the missing frame, the missing frame of the color moving image is generated by interpolation to obtain the pixel value of the missing frame.

本発明の一態様は、前記動画像フレーム補間装置であって、前記カラー動画像と前記深度動画像との両方の同時刻のフレームが欠落した前記カラー動画像または前記深度動画像のいずれか一方において、欠落したフレームの補間を行うフレーム補間手段をさらに備え、前記補間手段は、前記フレーム補間手段によって補間した動画像がカラー動画像である場合に、欠落した前記フレームの前後のフレームそれぞれに対応する前記3次元点群データと欠落した前記フレームと同時刻の前記補間によって得られた前記カラー動画像のフレームとを参照して、欠落した深度動画像のフレームの画素値を求める補間によって欠落した前記フレームを生成し、前記フレーム補間手段によって補間した動画像が深度動画像である場合に、欠落した前記フレームの前後のフレームそれぞれに対応する前記3次元点群データと欠落した前記フレームと同時刻の前記補間によって得られた前記深度動画像のフレームとを参照して、欠落したカラー動画像のフレームの画素値を求める補間によって欠落した前記フレームを生成する。   One aspect of the present invention is the moving image frame interpolating apparatus, wherein either the color moving image or the depth moving image in which frames at the same time of both the color moving image and the depth moving image are missing is provided. And further comprising a frame interpolating unit for interpolating the missing frame, wherein the interpolating unit corresponds to each of the frames before and after the missing frame when the moving image interpolated by the frame interpolating unit is a color moving image. Referring to the three-dimensional point cloud data and the frame of the color moving image obtained by the interpolation at the same time as the missing frame, missing by interpolation to obtain the pixel value of the frame of the missing depth moving image When the moving image generated by generating the frame and interpolated by the frame interpolating means is a depth moving image, the missing frame is detected. Referring to the 3D point cloud data corresponding to each of the frames before and after the frame and the frame of the depth moving image obtained by the interpolation at the same time as the missing frame, the frame of the missing color moving image The missing frame is generated by interpolation for obtaining pixel values.

本発明の一態様は、前記動画像フレーム補間装置であって、前記補間手段は、前記カラー動画像中または前記深度動画像中の前記撮影対象の動きの時間的または空間的変化が滑らかになるように補間を行う。   One aspect of the present invention is the moving image frame interpolating apparatus, wherein the interpolating unit smoothes temporal or spatial changes in the movement of the imaging target in the color moving image or the depth moving image. Interpolate as follows.

本発明の一態様は、撮影対象の輝度情報で表現されたカラー動画像と撮影対象の深度情報で表現された深度動画像とにおいて、欠落したフレームを補間によって生成する動画像フレーム補間装置が行う動画像フレーム補間方法であって、前記カラー動画像と前記深度動画像とがフレーム同期しており、2つの動画像のいずれか一方の動画像のフレームが欠落した場合に、他方の動画像のフレームの情報に基づき欠落したフレームの補間を行う補間ステップを有する動画像フレーム補間方法である。   One embodiment of the present invention is performed by a moving image frame interpolation apparatus that generates a missing frame by interpolation between a color moving image expressed by luminance information of a shooting target and a depth moving image expressed by depth information of the shooting target. A moving image frame interpolation method, wherein the color moving image and the depth moving image are in frame synchronization, and if one of the two moving images lacks a frame, the other moving image This is a moving picture frame interpolation method including an interpolation step of interpolating a missing frame based on frame information.

本発明の一態様は、コンピュータを、前記動画像フレーム補間装置として機能させるための動画像フレーム補間プログラムである。   One aspect of the present invention is a moving image frame interpolation program for causing a computer to function as the moving image frame interpolation device.

本発明によれば、同期させたフレームで構成するカラー動画像と深度動画像とを用いて、一方の動画像のフレームが欠落していた場合に他方の動画像の情報を用いて補間するようにしたため、高品質な動画像のフレーム補間が可能になるという効果が得られる。   According to the present invention, using a color moving image and a depth moving image composed of synchronized frames, when a frame of one moving image is missing, interpolation is performed using information of the other moving image. Therefore, it is possible to obtain an effect that high-quality moving image frame interpolation becomes possible.

本発明の一実施形態による動画像フレーム補間装置の構成を示すブロック図である。It is a block diagram which shows the structure of the moving image frame interpolation apparatus by one Embodiment of this invention. 図1に示す動画像フレーム補間装置1の動作を示すフローチャートである。3 is a flowchart showing an operation of the moving image frame interpolation apparatus 1 shown in FIG. 1. 図2に示すステップS2の処理(通し番号の付与と時間同期を行う処理)を示す説明図である。It is explanatory drawing which shows the process (process which assigns a serial number and performs time synchronization) of step S2 shown in FIG. 図2に示すステップS2の処理(通し番号の付与と時間同期を行う処理)を示す説明図である。It is explanatory drawing which shows the process (process which assigns a serial number and performs time synchronization) of step S2 shown in FIG. 図2に示すステップS2の処理(通し番号の付与と時間同期を行う処理)を示す説明図である。It is explanatory drawing which shows the process (process which assigns a serial number and performs time synchronization) of step S2 shown in FIG. フレームデータを3次元点群として統合する処理を示す説明図である。It is explanatory drawing which shows the process which integrates frame data as a three-dimensional point group. 時間方向のフレーム間での各画素の対応付けを行う処理を示す説明図である。It is explanatory drawing which shows the process which matches each pixel between the frames of a time direction. 深度情報を用いてカラー動画像への補間を行う処理を示す説明図である。It is explanatory drawing which shows the process which performs the interpolation to a color moving image using depth information.

以下、図面を参照して、本発明の一実施形態による動画像フレーム補間装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、動画像フレーム補間装置である。符号11は、外部からカラー動画像を取得するカラー動画像取得部である。符号12は、外部から深度動画像を取得する深度動画像取得部である。符号13は、カラー動画像取得部11からの出力であるカラー動画像と、深度動画像取得部12からの出力である深度動画像とに対して、各フレームへの通し番号を付与するとともに、2つの動画像の時間を同期させるフレーム同期部である。符号14は、フレーム同期部13からの出力である2つの動画像(カラー動画像と深度動画像)の各フレームの情報(以下、フレームデータと記載)、即ち、カラー動画像であれば各フレームの色情報、深度動画像であれば各フレームの深度情報 を3次元点群として統合する3次元点群化部である。符号15は、3次元点群化部14からの出力である3次元点群のフレーム間対応付けを行うフレーム間対応付け部である。符号16は、フレーム間対応づけ部15の出力である、時間方向のフレーム間での各画素の対応付け済みの動画像を入力として、深度動画像に基づく深度情報を用いたカラー動画像のフレームの補間、または、カラー動画像を用いた深度動画像のフレームの補間処理を行う動画像補間部である。符号17は、動画像補間部16において補間した動画像のフレームを外部へ出力する補間動画像出力部である。   A moving picture frame interpolation apparatus according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes a moving image frame interpolating device. Reference numeral 11 denotes a color moving image acquisition unit that acquires a color moving image from the outside. Reference numeral 12 denotes a depth moving image acquisition unit that acquires a depth moving image from the outside. Reference numeral 13 gives a serial number to each frame to the color moving image output from the color moving image acquisition unit 11 and the depth moving image output from the depth moving image acquisition unit 12, and 2 It is a frame synchronization unit that synchronizes the time of two moving images. Reference numeral 14 denotes information (hereinafter referred to as frame data) of each frame of two moving images (color moving image and depth moving image) output from the frame synchronization unit 13, that is, each frame if it is a color moving image. This is a three-dimensional point grouping unit that integrates the depth information of each frame as a three-dimensional point group in the case of color information and depth moving images. Reference numeral 15 denotes an inter-frame association unit that performs inter-frame association of a three-dimensional point group that is output from the three-dimensional point grouping unit 14. Reference numeral 16 denotes a frame of a color moving image using depth information based on the depth moving image, which is an output of the inter-frame associating unit 15 and which is input with a moving image associated with each pixel between frames in the time direction. This is a moving image interpolating unit that performs interpolation processing of frames of depth moving images using color moving images. Reference numeral 17 denotes an interpolated moving image output unit that outputs the frame of the moving image interpolated by the moving image interpolating unit 16 to the outside.

次に、図2を参照して、図1に示す動画像フレーム補間装置1の動作を説明する。図2は、図1に示す動画像フレーム補間装置1の動作を示すフローチャートである。まず、カラー動画像取得部11、深度動画像取得部12のそれぞれは、外部からカラー動画像及び深度動画像を取得する(ステップS1)。   Next, the operation of the moving picture frame interpolation apparatus 1 shown in FIG. 1 will be described with reference to FIG. FIG. 2 is a flowchart showing the operation of the moving image frame interpolation apparatus 1 shown in FIG. First, each of the color moving image acquisition unit 11 and the depth moving image acquisition unit 12 acquires a color moving image and a depth moving image from the outside (step S1).

カラー動画像及び深度動画像の取得は、両動画像が同一シーンを対象にしているのであればどのような手法を用いても構わない。例えば、記憶装置に保存されたデータを用いても構わないし、深度を取得可能なセンサを搭載したカメラなどのデバイスを用いて取得しても構わない。カメラなどのデバイスを用いる場合、カラー動画像と深度動画像を単一のデバイスで取得しても構わないし、カラー動画像と深度動画像とを別々のデバイスで取得しても構わない。なお、ここで取得したカラー動画像及び深度動画像では、各フレームのフレーム取得時刻も与えられるものとする。   The color moving image and the depth moving image can be acquired by any method as long as both moving images target the same scene. For example, data stored in a storage device may be used, or may be acquired using a device such as a camera equipped with a sensor capable of acquiring depth. When a device such as a camera is used, a color moving image and a depth moving image may be acquired by a single device, or a color moving image and a depth moving image may be acquired by separate devices. In the color moving image and the depth moving image acquired here, the frame acquisition time of each frame is also given.

次に、フレーム同期部13は、各フレームの通し番号の付与及び時間同期を行う(ステップS2)。フレーム同期部13は、カラー動画像取得部11、深度動画像取得部12において取得したカラー動画像及び深度動画像に対して、時間同期及び通し番号の付与を行う。ステップS2の処理動作を図3、図4、図5を参照して説明する。図3〜図5は、図2に示すステップS2の処理(通し番号の付与と時間同期を行う処理)を示す説明図である。なお、両動画像が予め時間的に同期されている場合は、以下の手順における時間的ずれやフレーム間の位置合わせをせずに、取得したカラー動画像と深度動画像のそれぞれについて、先頭フレームから順番に連続したフレーム番号の付与を行う。   Next, the frame synchronization unit 13 assigns serial numbers of each frame and performs time synchronization (step S2). The frame synchronization unit 13 performs time synchronization and serial number assignment on the color moving image and the depth moving image acquired by the color moving image acquisition unit 11 and the depth moving image acquisition unit 12. The processing operation of step S2 will be described with reference to FIG. 3, FIG. 4, and FIG. 3 to 5 are explanatory diagrams showing the processing of step S2 shown in FIG. 2 (processing for assigning serial numbers and time synchronization). If both moving images are synchronized in time in advance, the first frame is obtained for each of the acquired color moving images and depth moving images without the time lag and the alignment between frames in the following procedure. Consecutive frame numbers are assigned in order.

フレーム同期部13は、ステップS1において取得したカラー画像及び深度動画像に対して本ステップの処理を行うことで、各動画像における各フレームの正しい時系列順序及び、両動画像のフレーム同士の対応情報が取得できる。また、両動画像の各フレーム間間隔についても、デバイスの撮影速度に応じた一様な値へと修正される。具体的な手順を以下に示す。   The frame synchronization unit 13 performs the process of this step on the color image and the depth moving image acquired in step S1, thereby correcting the correct time series order of each frame in each moving image and the correspondence between the frames of both moving images. Information can be acquired. In addition, the interval between frames of both moving images is also corrected to a uniform value according to the shooting speed of the device. The specific procedure is shown below.

取得されたカラー動画像及び深度動画像全体の内、先頭フレーム取得時間が早い動画像を動画像Y、もう一方の動画像を動画像Nとする。なお、先頭フレームの取得時刻が同一である場合、どちらを動画像Yとしても構わない。動画像Yの中で、時間的に最も早い位置に存在するフレームのフレーム番号0を付与する(図3参照)。ここで、既にフレーム番号を付与した動画像Yのフレームのうち最大のフレーム番号をn、フレーム取得時刻をTとする。ここで、デバイスの1秒当たりのフレーム取得枚数をf[fps]として、Aを(1)式で定義する。
A=1/f+ε ・・・(1)
ここで、εは伝送路などの遅延を考慮して、微小な値を任意で与える。
Of the acquired color moving image and depth moving image as a whole, the moving image with the first frame acquisition time being the moving image Y is the moving image Y and the other moving image is the moving image N. In addition, when the acquisition time of the first frame is the same, either may be used as the moving image Y. In the moving image Y, the frame number 0 of the frame existing at the earliest position in time is given (see FIG. 3). Here, already the maximum frame number of the frame of the moving image Y imparted with the frame number n, the frame acquisition time and T n. Here, assuming that the number of frames acquired per second of the device is f [fps], A is defined by equation (1).
A = 1 / f + ε (1)
Here, ε is arbitrarily given a minute value in consideration of a delay of a transmission line or the like.

動画像Yの時間[Tn,+A]内にフレームが存在した場合、そのフレームにフレーム番号n+1を付与する。フレームが存在しない場合、空のフレームを配置し、フレーム番号n+1を付与する。また、この空のフレームはフレーム取得時刻を持たないので、仮にフレーム取得時刻Tn+1を付与する。Tn+1は以下の(2)式で表される。以上の処理を、動画像Yの末尾まで行う。
n+1=T+1/f ・・・(2)
When a frame exists within the time [T n, T n + A] of the moving image Y, a frame number n + 1 is assigned to the frame. If there is no frame, an empty frame is arranged and frame number n + 1 is assigned. Since this empty frame does not have a frame acquisition time, a frame acquisition time T n + 1 is temporarily assigned. T n + 1 is expressed by the following equation (2). The above processing is performed up to the end of the moving image Y.
T n + 1 = T n + 1 / f (2)

その後、動画像Nに対しても前述の処理と同様の処理を行う(図4参照)。動画像Nの時間[T−1/f,T+1/f]でフレームを探索し、フレームが存在した場合、そのフレームにフレーム番号0を付与する。フレームが存在しない場合、空のフレームを配置し、フレーム番号0及び仮にフレーム取得時刻としてT’(=T)を付与する。ここで、既にフレーム番号を付与した動画像Nのフレームのうち最大のフレーム番号をm、フレーム取得時刻をT’とする。 Thereafter, the same processing as described above is performed on the moving image N (see FIG. 4). A frame is searched at time [T 0 −1 / f, T 0 + 1 / f] of the moving image N, and when a frame exists, frame number 0 is assigned to the frame. If there is no frame, an empty frame is arranged, and frame number 0 and T 0 ′ (= T 0 ) are assigned as the frame acquisition time. Here, it is assumed that the largest frame number among the frames of the moving image N to which a frame number has already been assigned is m and the frame acquisition time is T m ′.

動画像Nの時間[T’,T’+A]内にフレームが存在した場合、そのフレームにフレーム番号m+1を付与する。フレームが存在しない場合、空のフレームを配置し、フレーム番号m+1を付与する。また、この空のフレームはフレーム取得時刻を持たないので、仮にフレーム取得時刻Tm+1’を付与する。Tm+1’は以下の(3)式で表される。以上の処理を、動画像Nの末尾まで行う。
m+1’=T’+1/f ・・・(3)
When a frame exists within the time [T m ′, T m ′ + A] of the moving image N, a frame number m + 1 is assigned to the frame. If there is no frame, an empty frame is arranged and a frame number m + 1 is assigned. Since this empty frame does not have a frame acquisition time, a frame acquisition time T m + 1 ′ is temporarily assigned. T m + 1 ′ is expressed by the following equation (3). The above processing is performed up to the end of the moving image N.
T m + 1 '= T m ' + 1 / f (3)

動画像Y及び動画像Nの各フレームに与えられたフレーム番号の最大値は同一であり、これをLと定める(図5参照)。以下の(4)〜(6)式を全フレームに対して適用し、動画像Y及び動画像Nのフレーム取得時刻を更新する。
=0 ・・・(4)
=Tn−1+1/f (1≦n≦L) ・・・(5)
’=T (0≦m≦L) ・・・(6)
The maximum frame number assigned to each frame of the moving image Y and the moving image N is the same, and this is defined as L (see FIG. 5). The following equations (4) to (6) are applied to all frames, and the frame acquisition times of the moving image Y and the moving image N are updated.
T 0 = 0 (4)
T n = T n−1 + 1 / f (1 ≦ n ≦ L) (5)
T m ′ = T m (0 ≦ m ≦ L) (6)

次に、3次元点群化部14は、フレーム同期部13の出力である、時間同期がとれており、通し番号の付与されているカラー動画像と深度動画像を入力として、両動画像の各フレームの情報(以下、フレームデータと記載)、即ち、カラー動画像であれば各フレームの色情報、深度動画像であれば各フレームの深度情報を3次元点群として統合する(ステップS3)。ここで、両フレームデータを3次元点群として統合する処理について、図6を参照して説明する。図6は、フレームデータを3次元点群として統合する処理を示す説明図である。以下ではカラー動画像の1フレームをカラー画像、深度動画像の1フレームを深度画像と称する。   Next, the three-dimensional point grouping unit 14 is time-synchronized, which is an output of the frame synchronization unit 13, and receives the color moving image and the depth moving image to which serial numbers are assigned, and inputs each of the moving image. Frame information (hereinafter referred to as frame data), that is, color information of each frame in the case of a color moving image, and depth information of each frame in the case of a depth moving image are integrated as a three-dimensional point group (step S3). Here, a process of integrating both frame data as a three-dimensional point group will be described with reference to FIG. FIG. 6 is an explanatory diagram showing processing for integrating frame data as a three-dimensional point group. Hereinafter, one frame of a color moving image is referred to as a color image, and one frame of a depth moving image is referred to as a depth image.

カラー画像の各画素は、撮影対象の色情報を持つ。深度画像の各画素は、撮影対象の奥行き距離情報(深度情報)を持つ。同じフレーム番号を持つカラー画像と深度画像に対して、各画素の画素位置が同じ画素同士の深度情報と色情報を統合することで、深度画像の画素ごとに3次元空間における色情報を持った点を生成し、各フレーム番号に対応する色情報付き3次元点群を生成する。なお、カラー画像が空のフレーム番号に対しては、色情報のない3次元点群(以下、色情報無3次元点群)が生成されることになる。   Each pixel of the color image has color information to be photographed. Each pixel of the depth image has depth distance information (depth information) to be imaged. By integrating depth information and color information of pixels with the same pixel position for color images and depth images having the same frame number, each pixel of the depth image has color information in a three-dimensional space. A point is generated, and a three-dimensional point group with color information corresponding to each frame number is generated. Note that a three-dimensional point group without color information (hereinafter referred to as a three-dimensional point group without color information) is generated for a frame number with an empty color image.

この処理は、カラー画像と深度画像の空間解像度が同一であると仮定して行われている。しかし、両画像の空間解像度が異なる場合は、事前に解像度が低い画像をアップサンプリング、又は解像度が高い画像をダウンサンプリングすることで、同じ空間解像度を持つようにすることで同様の処理が行える。なお、アップサンプルやダウンサンプルにはどのようなフィルタを用いても構わない。   This process is performed on the assumption that the color image and the depth image have the same spatial resolution. However, if the spatial resolutions of the two images are different, the same processing can be performed by up-sampling an image with a low resolution in advance or down-sampling an image with a high resolution so as to have the same spatial resolution. Any filter may be used for up-sampling and down-sampling.

次に、フレーム間対応付け部15は、3次元点群化部14の出力である3次元点群を入力として、3次元点群のフレーム間対応付けを行う(ステップS4)。フレーム間対応付け部15は、ステップS3において取得した色情報付き3次元点群を対象として、時間方向のフレーム間での各画素の対応付けを行う。ここで、時間方向のフレーム間での各画素の対応付けを行う処理について図7を参照して説明する。図7は、時間方向のフレーム間での各画素の対応付けを行う処理を示す説明図である。   Next, the inter-frame association unit 15 receives the 3D point group output from the 3D point grouping unit 14 as input, and performs inter-frame association of the 3D point group (step S4). The inter-frame association unit 15 associates each pixel between frames in the time direction for the three-dimensional point group with color information acquired in step S3. Here, processing for associating each pixel between frames in the time direction will be described with reference to FIG. FIG. 7 is an explanatory diagram illustrating a process of associating each pixel between frames in the time direction.

色情報付き3次元点群のフレーム間の対応付けを、各画素の持つカラー情報と深度情報を用いてオプティカルフローを検出することで行う(図7参照)。この対応付け処理は、全ての色情報付き3次元点群を持つフレームに対して行うが、ある色情報付き3次元点群を持つフレームSに対して、色情報付き3次元点群を持つフレームのうち、フレーム番号がフレームSのフレーム番号よりも大きく、その差分が最も小さいフレームDとの間で行う。   The association between the frames of the three-dimensional point group with color information is performed by detecting the optical flow using the color information and depth information of each pixel (see FIG. 7). This association processing is performed on all frames having a 3D point cloud with color information. However, a frame having a 3D point cloud with color information is compared with a frame S having 3D point cloud with color information. Of these, the frame number is larger than the frame number of the frame S and the difference is the smallest.

従来の動画像に対するオプティカルフロー(参考文献1参照)では、画像平面に投影した動きベクトルしか表現できなかったが、本ステップの処理のように深度情報を用いることで、3次元上での動きベクトルを検出することが可能となり、より正確なオプティカルフローを検出することが可能となる。
参考文献1:「B. D. Lucas and T. Kanade, “An Iterative Image Registration Technique with an Application to Stereo Vision,” in Proc. of Int. Joint Conf. on Artificial Intelligence, pp.674-679, Aug.」
In the conventional optical flow for moving images (see Reference 1), only the motion vector projected on the image plane can be expressed. However, by using the depth information as in the processing of this step, the motion vector in three dimensions Can be detected, and a more accurate optical flow can be detected.
Reference 1: “BD Lucas and T. Kanade,“ An Iterative Image Registration Technique with an Application to Stereo Vision, ”in Proc. Of Int. Joint Conf. On Artificial Intelligence, pp.674-679, Aug.

次に、動画像補間部16は、フレーム間対応付け部15の出力である、時間方向のフレーム間での各画素の対応付け済みの動画像を入力として、深度情報を用いてカラー動画像の各フレームへの補間処理を行う(ステップS5)。そして、補間によって得られた補間動画像を外部へ出力する(ステップS6)。ここで、深度情報を用いてカラー動画像への補間を行う処理について、図8を参照して説明する。図8は、深度情報を用いてカラー動画像への補間を行う処理を示す説明図である。   Next, the moving image interpolating unit 16 receives the moving image in which each pixel is associated between the frames in the time direction, which is an output of the inter-frame associating unit 15, and uses the depth information to generate a color moving image. Interpolation processing for each frame is performed (step S5). Then, the interpolated moving image obtained by the interpolation is output to the outside (step S6). Here, processing for performing interpolation on a color moving image using depth information will be described with reference to FIG. FIG. 8 is an explanatory diagram illustrating processing for performing interpolation on a color moving image using depth information.

ここでの処理は色情報がない3次元点群を持つフレームに対して行われる。以下の説明では、処理対象となるフレームをフレームT、フレーム番号がフレームTのフレーム番号よりも大きくて、そのフレームとフレームTとのフレーム番号の差が最も小さい色情報付きの3次元点群を持つフレームをフレームF、フレーム番号がフレームTのフレーム番号よりも小さくて、そのフレームとフレームTとのフレーム番号の差が最も小さい色情報付き3次元点群を持つフレームをフレームPとする。   This processing is performed on a frame having a three-dimensional point group without color information. In the following description, the frame to be processed is the frame T, the frame number is larger than the frame number of the frame T, and the three-dimensional point group with color information having the smallest difference between the frame numbers of the frame and the frame T is represented. A frame having a three-dimensional point group with color information whose frame number is smaller than the frame number of the frame T and whose frame number difference between the frame and the frame T is the smallest is a frame P.

まず、フレームTにおける推定3次元点群と、その推定3次元点群とフレームF及びフレームPの3次元点群との対応関係を求める。すなわち、ステップS4(フレーム間対応付け)の結果、フレームFの3次元点群とフレームPの3次元点群との対応関係が得られているため、フレームPの各3次元点がフレームFの対応する3次元点へ移動したとみなして、その間に存在するフレームTにおける3次元点群を推定し、3次元点の対応関係を与える。   First, the estimated three-dimensional point group in the frame T and the correspondence relationship between the estimated three-dimensional point group and the three-dimensional point groups of the frames F and P are obtained. That is, as a result of the step S4 (inter-frame association), the correspondence relationship between the three-dimensional point group of the frame F and the three-dimensional point group of the frame P is obtained. Assuming that it has moved to the corresponding three-dimensional point, a three-dimensional point group in the frame T existing between them is estimated, and a correspondence relationship of the three-dimensional points is given.

このフレームPのある3次元点がフレームFの対応する3次元点へ移動したとする際の、移動方向及び移動距離を表すベクトルを動きベクトルと定義し、複数の点における動きベクトルの集合のことを動きベクトル場と定義する。このとき、フレームPからフレームFへの動きベクトル場によって示される各3次元点の運動を、等速直線運動や等加速度運動とみなしても構わない。また、ステップS4の結果、フレームPに対して、更に過去のフレームとの対応関係が与えられている場合は、フレームPにおける各3次元点の速度ベクトルや加速度ベクトルを計算し、それらを考慮して、フレームPとフレームFとの間の3次元点の運動を仮定しても構わない。   A vector representing a moving direction and a moving distance when a three-dimensional point of frame P moves to a corresponding three-dimensional point of frame F is defined as a motion vector, and a set of motion vectors at a plurality of points. Is defined as a motion vector field. At this time, the motion of each three-dimensional point indicated by the motion vector field from the frame P to the frame F may be regarded as a constant velocity linear motion or a constant acceleration motion. If the result of step S4 indicates that the frame P is further correlated with the past frame, the velocity vector and acceleration vector of each three-dimensional point in the frame P are calculated and taken into account. Thus, the movement of a three-dimensional point between the frame P and the frame F may be assumed.

一方、ステップS4の結果、フレームFに対して、さらに未来のフレームとの対応関係が与えられている場合は、フレームFにおける速度ベクトルや加速度ベクトルを計算し、それらを考慮して、フレームPとフレームFとの間の3次元点の運動を仮定しても構わない。   On the other hand, as a result of step S4, when the correspondence relationship with the future frame is given to the frame F, the velocity vector and the acceleration vector in the frame F are calculated, and the frames P and You may assume the motion of the three-dimensional point between the frames F.

次に、動画像補間部16は、推定3次元点群に対して色情報を付与する。この処理は、各推定3次元点に対応付けられたフレームP及びフレームFの色情報付き3次元点の持つ色情報を用いて、推定3次元点の色情報を決定することで行われる。どのような方法を用いても構わないが、例えば、対応付けられたフレームP及びフレームFの色情報付き3次元点の持つ色情報のどちらか一方を、推定3次元点の色情報としても構わない。また、対応付けられたフレームP及びフレームFの色情報付き3次元点の持つ色情報の平均値からなる色情報や、フレームT、フレームP及びフレームFの時間間隔に従って、それらの色情報を重み付き加算して生成される色情報を与えても構わない。   Next, the moving image interpolation unit 16 gives color information to the estimated three-dimensional point group. This process is performed by determining the color information of the estimated three-dimensional point using the color information of the three-dimensional point with color information of the frame P and the frame F associated with each estimated three-dimensional point. Any method may be used. For example, one of the color information of the three-dimensional points with color information of the associated frames P and F may be used as the color information of the estimated three-dimensional points. Absent. In addition, the color information including the average value of the color information of the three-dimensional points with color information of the associated frames P and F and the color information according to the time intervals of the frames T, P, and F are weighted. Color information generated by appending and adding may be given.

推定3次元点群に色情報が与えられたら、フレームTの色情報無3次元点群と、推定3次元点群を対応付けることで、色情報無3次元点群に対して色情報を与える。色情報無3次元点群と推定3次元点群を対応付ける処理にはどのようなものを用いても構わない。例えば、対応付いた3次元点間の距離の差の合計が最小となるように、対応付けを求めても構わない。別の方法としては、色情報無3次元点ごとに、距離の差が最小となるように推定3次元点を対応付けても構わない。この場合、1つの推定3次元点が複数の色情報無3次元点に対応付くこともある。色情報無3次元点群と推定3次元点群の対応付けが得られたら、その対応関係に基づいて、推定3次元点の色情報を色情報無3次元点の色情報とする。   When color information is given to the estimated three-dimensional point group, color information is given to the three-dimensional point group without color information by associating the three-dimensional point group without color information of the frame T with the estimated three-dimensional point group. Any process may be used for associating the three-dimensional point group without color information with the estimated three-dimensional point group. For example, the association may be obtained so that the sum of the difference in distance between the associated three-dimensional points is minimized. As another method, the estimated three-dimensional point may be associated with each other so that the difference in distance is minimized for each three-dimensional point having no color information. In this case, one estimated three-dimensional point may correspond to a plurality of color information-free three-dimensional points. When the correspondence between the color information-free 3D point group and the estimated 3D point group is obtained, the color information of the estimated 3D point is set as the color information of the color information-free 3D point based on the correspondence.

フレームTの3次元点群に色情報が与えられたら、その3次元点群を画像平面上に投影することで、フレームTのカラー画像が得られ、カラー動画像のフレーム補間が実現される。   When color information is given to the three-dimensional point group of the frame T, the color image of the frame T is obtained by projecting the three-dimensional point group onto the image plane, and the frame interpolation of the color moving image is realized.

前述の説明では、1つの色情報無3次元点について1つの推定3次元点を対応付けているが、1つの色情報無3次元点に複数の推定3次元点を対応付けても構わない。その場合、対応付けられた複数の推定3次元点の色情報の平均値や中央値などを、色情報無3次元点の色情報として付与することができる。また、単純な平均値や中央値ではなく、3次元点間の距離を考慮した重み付けを行っても構わない。   In the above description, one estimated three-dimensional point is associated with one three-dimensional point without color information, but a plurality of estimated three-dimensional points may be associated with one three-dimensional point without color information. In that case, an average value or median value of color information of a plurality of estimated three-dimensional points associated with each other can be given as color information of the three-dimensional point without color information. Further, weighting may be performed in consideration of a distance between three-dimensional points instead of a simple average value or median value.

また、前述の説明では、推定3次元点の色情報を求めた後に、色情報無3次元点の色情報を求めているが、推定3次元点の色情報は求めずに、対応関係に基づいて、フレームP及びフレームFの色情報付き3次元点から、直接、色情報無3次元点の色情報を求めても構わない。その場合、どのような処理を行っても構わない。例えば、フレームP及びフレームFにおける速度ベクトルや加速度ベクトルを計算し、それらを考慮して、フレームPとフレームFとの間の3次元点の運動を仮定し、フレームTにおける色情報付き3次元点を求めても構わない。例えば、フレームPとフレームFにおける加速度ベクトルの差がある値以下の場合、フレームPとフレームFの間で3次元点は等加速度運動をしているとみなし、等加速度運動方程式を用いてフレームTにおける色情報付3次元点を求めても構わない。   In the above description, after obtaining the color information of the estimated three-dimensional point, the color information of the three-dimensional point without color information is obtained. However, the color information of the estimated three-dimensional point is not obtained, but based on the correspondence relationship. Thus, the color information of the three-dimensional point without color information may be obtained directly from the three-dimensional point with color information of the frame P and the frame F. In that case, any processing may be performed. For example, the velocity vector and the acceleration vector in the frame P and the frame F are calculated, and the three-dimensional point with color information in the frame T is assumed by considering the motion of the three-dimensional point between the frame P and the frame F. You may ask for. For example, when the difference between the acceleration vectors in the frame P and the frame F is equal to or smaller than a certain value, it is considered that the three-dimensional point is performing an equal acceleration motion between the frame P and the frame F, and the frame T You may obtain | require the three-dimensional point with color information in.

また、時間的な動きベクトルの変化の自然さと、空間的な動きベクトルの変化の自然さとを考慮して、フレームTにおける色情報付き3次元点を求めても構わない。その場合、どのような処理を行っても構わない。   Further, the three-dimensional point with color information in the frame T may be obtained in consideration of the natural change of the temporal motion vector and the natural change of the spatial motion vector. In that case, any processing may be performed.

ここで時間的または空間的な動きベクトルの変化の自然さとは、動きベクトルの変化によって示される物体の運動が現実空間において発生しうる度合を表したものである。例えば、時間的または空間的な動きベクトルの変化の自然さは、動きベクトルの時間的または空間的な変化の滑らかさによって表すことができる。これは、現実空間において物体の運動が時間的に急激に変化しないことや、同じ物体上の点は同じ運動に従うことに基づいている。なお、空間的な動きベクトルの変化の自然さを考慮するために、フレームPとフレームFとの間の3次元点の運動を仮定して求めたフレームTにおける色情報付き3次元点と、フレームPもしくはフレームFにおける色情報付き3次元点との間の、各対応点同士の移動ベクトルが交差しないことを制約として加えることで、フレームTにおける色情報付き3次元点を求めても構わない。   Here, the natural change of the temporal or spatial motion vector represents the degree to which the motion of the object indicated by the change of the motion vector can occur in the real space. For example, the naturalness of changes in temporal or spatial motion vectors can be represented by the smoothness of temporal or spatial changes in motion vectors. This is based on the fact that the motion of an object does not change rapidly in real space, and that points on the same object follow the same motion. In order to consider the natural change of the spatial motion vector, the 3D point with color information in the frame T obtained by assuming the motion of the 3D point between the frame P and the frame F, and the frame The 3D point with color information in the frame T may be obtained by adding as a restriction that the movement vectors of the corresponding points do not intersect with the 3D point with color information in P or the frame F.

また、時間的な動きベクトルの変化の自然さを考慮するために、フレームPとフレームFとの間の3次元点の運動を仮定して求めたフレームTにおける色情報付き3次元点とフレームPにおける色情報付き3次元点との間の各対応点同士の移動ベクトルの大きさと、フレームPとフレームFとの間の3次元点の運動を仮定して求めたフレームTにおける色情報付き3次元点とフレームFにおける色情報付き3次元点との間の各対応点同士の移動ベクトルの大きさとの差分がある一定以上の値にならないという条件を制約として加えることで、フレームTにおける色情報付き3次元点を求めても構わない。   Further, in order to consider the natural change of the motion vector over time, the three-dimensional point with color information and the frame P in the frame T obtained by assuming the motion of the three-dimensional point between the frame P and the frame F. 3D with color information in the frame T obtained by assuming the magnitude of the movement vector between the corresponding points between the 3D points with color information in the image and the motion of the 3D points between the frames P and F. By adding a condition that the difference between the magnitude of the movement vector between the corresponding points between the point and the three-dimensional point with color information in the frame F does not become a certain value or more, the color information in the frame T is added. A three-dimensional point may be obtained.

次に、カラー情報を用いた深度動画像への補間処理について以下に詳細を示す。ここでの処理は、色情報のみが存在し、深度情報を持たないフレームに対して行われる。以下の説明では、処理対象となるフレームをフレームT、フレーム番号がフレームTのフレーム番号よりも大きくて、そのフレームとフレームTとのフレーム番号の差が最も小さい色情報付き3次元点群を持つフレームをフレームF、フレーム番号がフレームTのフレーム番号よりも小さくて、そのフレームとフレームTとのフレーム番号の差が最も小さい色情報付き3次元点群を持つフレームをフレームPとする。   Next, details of the interpolation processing to the depth moving image using the color information will be described below. The processing here is performed on a frame in which only color information exists and does not have depth information. In the following description, the frame to be processed is the frame T, the frame number is larger than the frame number of the frame T, and the difference between the frame numbers of the frame and the frame T is the smallest 3D point group with color information. A frame is a frame F, and a frame having a three-dimensional point group with color information in which the frame number is smaller than the frame number of the frame T and the difference between the frame numbers of the frame and the frame T is the smallest.

まず、オプティカルフローなどを用いて、フレームTにおける各画素と、フレームF及びフレームPの各画素との対応付けを行う。各画素の対応付けには、どのような処理を用いても構わない。これによりフレームPとフレームTとの間の各画素の画像平面上での移動ベクトル及び、フレームTとフレームFとの間の各画素の画像平面上での移動ベクトルが算出される。   First, each pixel in the frame T is associated with each pixel in the frame F and the frame P using an optical flow or the like. Any processing may be used for associating each pixel. Thereby, the movement vector of each pixel between the frame P and the frame T on the image plane and the movement vector of each pixel between the frame T and the frame F on the image plane are calculated.

この移動ベクトルは、画像平面と平行な成分のみしか持っていないため、画像平面と垂直な方向の成分を導出する。この場合どのような処理を用いても構わない。例えば、ある領域を同一の動きベクトル場を持つとみなし、当該領域がフレームP及びフレームTで占める画素面積を求め、フレームPにおける当該領域の画素面積とフレームTにおける当該領域の画素面積の差から、フレームPとフレームTとの間での当該領域の動きベクトル場の画像平面と垂直な方向の成分を導出しても構わない。また、当該領域のぼけ具合の差から、フレームPとフレームTとの間での当該領域の動きベクトル場の画像平面と垂直な方向の成分を導出しても構わない。   Since this movement vector has only a component parallel to the image plane, a component in a direction perpendicular to the image plane is derived. In this case, any processing may be used. For example, assuming that a certain region has the same motion vector field, the pixel area occupied by the region in the frame P and the frame T is obtained, and from the difference between the pixel area of the region in the frame P and the pixel area of the region in the frame T The component in the direction perpendicular to the image plane of the motion vector field in the region between the frame P and the frame T may be derived. Further, the component in the direction perpendicular to the image plane of the motion vector field in the region between the frame P and the frame T may be derived from the difference in the degree of blur in the region.

フレームTの3次元点群に深度情報が与えられたら、その3次元点群を画像平面上に投影することで、フレームTの深度画像が得られ、深度動画像のフレーム補間が実現される。   When depth information is given to the three-dimensional point group of the frame T, the depth image of the frame T is obtained by projecting the three-dimensional point group onto the image plane, and frame interpolation of the depth moving image is realized.

また、補間対象となるフレームに、カラー画像も深度画像も存在しない場合は、どちらか一方の画像を公知のフレーム補間技術を用いて補間した後、上記、深度情報を用いた、カラー動画像への補間処理、もしくはカラー情報を用いた、深度動画像への補間処理を行う。この時、従来のフレーム補間技術を用いた補間は、カラー画像と深度画像のどちらに対して行ってもよい。   In addition, when neither a color image nor a depth image exists in the frame to be interpolated, after interpolating one of the images using a known frame interpolation technique, the above-described color information using the depth information is converted. Interpolation processing for depth moving images using color information. At this time, the interpolation using the conventional frame interpolation technique may be performed on either the color image or the depth image.

最後に、補間動画像出力部17は、動画像補間部16において補間した動画像をフレームごとの静止画像、もしくは動画ファイルとして出力する。これらの出力方式はどちらを用いても構わない。   Finally, the interpolation moving image output unit 17 outputs the moving image interpolated by the moving image interpolation unit 16 as a still image or a moving image file for each frame. Either of these output methods may be used.

以上説明したように、ある時刻のフレームのカラーデータ(カラー画像)が欠落した映像に対して、そのシーンにおける深度情報を用いることで、より高品質に動画像フレーム間の補間を行うことが可能となる。また、ある時刻のフレームの深度画像が欠落した映像に対して、そのシーンにおけるカラー画像を用いることで、より高品質に動画像フレーム間の補間を行うことが可能となる。   As described above, it is possible to perform interpolation between moving image frames with higher quality by using depth information in the scene for video with missing color data (color image) of a frame at a certain time. It becomes. Further, by using a color image in a scene for a video in which a depth image of a frame at a certain time is missing, it is possible to perform interpolation between moving image frames with higher quality.

この構成によれば、カラーデータから取得できる各画素の色情報と、画像平面上における2次元方向の情報に加え、深度情報が持つ奥行き方向の情報を併用することで、フレーム間の動きベクトル場がより高精度に推定可能となるため、高品質な動画像のフレーム補間が可能になる。   According to this configuration, the motion vector field between frames can be obtained by using the color information of each pixel that can be acquired from the color data and the information in the depth direction of the depth information in addition to the information in the two-dimensional direction on the image plane. Can be estimated with higher accuracy, so that high-quality moving image frame interpolation is possible.

前述した実施形態における動画像フレーム補間装置1の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   You may make it implement | achieve all or one part of the moving image frame interpolation apparatus 1 in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.

カラー画像と深度画像によって、相互のフレーム間の補間を行うことが不可欠な用途にも適用できる。   It can also be applied to applications where it is essential to interpolate between frames using color and depth images.

1・・・動画像フレーム補間装置、11・・・カラー動画像取得部、12・・・深度動画像取得部、13・・・フレーム同期部、14・・・3次元点群化部、15・・・フレーム間対応付け部、16・・・動画像補間部、17・・・補間動画像出力部   DESCRIPTION OF SYMBOLS 1 ... Moving image frame interpolation apparatus, 11 ... Color moving image acquisition part, 12 ... Depth moving image acquisition part, 13 ... Frame synchronization part, 14 ... Three-dimensional point grouping part, 15 ... Inter-frame association unit, 16 ... moving image interpolation unit, 17 ... interpolated moving image output unit

Claims (8)

撮影対象の輝度情報で表現されたカラー動画像と撮影対象の深度情報で表現された深度動画像とにおいて、欠落したフレームを補間によって生成する動画像フレーム補間装置であって、
前記カラー動画像と前記深度動画像とがフレーム同期しており、2つの動画像のいずれか一方の動画像のフレームが欠落した場合に、他方の動画像のフレームの情報に基づき欠落したフレームの補間を行う補間手段を備えた動画像フレーム補間装置。
A moving image frame interpolation device that generates a missing frame by interpolation between a color moving image expressed by luminance information of a shooting target and a depth moving image expressed by depth information of the shooting target,
When the color moving image and the depth moving image are in frame synchronization, and the frame of one of the two moving images is missing, the frame of the missing frame is determined based on the information of the frame of the other moving image. A moving picture frame interpolating apparatus provided with an interpolation means for performing interpolation.
前記カラー動画像の画素それぞれに対して、前記深度動画像の深度情報を与えて、3次元点群とすることで、前記カラー動画像のフレームと前記深度動画像のフレームとを統合した3次元点群データを各フレームに対応させて生成する3次元点群化手段と、
前記3次元点群データに基づき、オプティカルフローを検出することにより時間方向のフレーム間での各画素の対応付けを行うフレーム間対応付け手段とをさらに備え、
前記補間手段は、前記時間方向のフレーム間での各画素の対応付け結果に基づき、欠落した前記フレームの補間を行う請求項1に記載の動画像フレーム補間装置。
Three-dimensional integration of the color moving image frame and the depth moving image frame by giving depth information of the depth moving image to each pixel of the color moving image to form a three-dimensional point cloud Three-dimensional point grouping means for generating point cloud data corresponding to each frame;
An inter-frame association unit that associates each pixel between frames in the time direction by detecting an optical flow based on the three-dimensional point cloud data;
The moving image frame interpolating apparatus according to claim 1, wherein the interpolating unit interpolates the missing frame based on a result of associating each pixel between frames in the time direction.
前記補間手段は、
前記深度動画像のフレームが欠落した場合に、欠落した前記フレームの前後のフレームそれぞれに対応する前記3次元点群データと欠落した前記フレームと同時刻の前記カラー動画像のフレームとを参照して、欠落したフレームの画素値を求める補間によって欠落した前記深度動画像のフレームを生成する請求項2に記載の動画像フレーム補間装置。
The interpolation means includes
When a frame of the depth moving image is missing, refer to the three-dimensional point cloud data corresponding to each frame before and after the missing frame and the frame of the color moving image at the same time as the missing frame. The moving image frame interpolating apparatus according to claim 2, wherein a frame of the depth moving image is generated by interpolation to obtain a pixel value of the missing frame.
前記補間手段は、
前記カラー動画像のフレームが欠落した場合に、欠落した前記フレームの前後のフレームそれぞれに対応する前記3次元点群データと欠落した前記フレームと同時刻の前記深度動画像のフレームとを参照して、欠落したフレームの画素値を求める補間によって欠落した前記カラー動画像のフレームを生成する請求項2に記載の動画像フレーム補間装置。
The interpolation means includes
When the frame of the color moving image is missing, refer to the three-dimensional point cloud data corresponding to the frames before and after the missing frame and the frame of the depth moving image at the same time as the missing frame. The moving image frame interpolating apparatus according to claim 2, wherein a frame of the color moving image is generated by interpolation to obtain a pixel value of the missing frame.
前記カラー動画像と前記深度動画像との両方の同時刻のフレームが欠落した前記カラー動画像または前記深度動画像のいずれか一方において、欠落したフレームの補間を行うフレーム補間手段をさらに備え、
前記補間手段は、
前記フレーム補間手段によって補間した動画像がカラー動画像である場合に、欠落した前記フレームの前後のフレームそれぞれに対応する前記3次元点群データと欠落した前記フレームと同時刻の前記補間によって得られた前記カラー動画像のフレームとを参照して、欠落した深度動画像のフレームの画素値を求める補間によって欠落した前記フレームを生成し、
前記フレーム補間手段によって補間した動画像が深度動画像である場合に、欠落した前記フレームの前後のフレームそれぞれに対応する前記3次元点群データと欠落した前記フレームと同時刻の前記補間によって得られた前記深度動画像のフレームとを参照して、欠落したカラー動画像のフレームの画素値を求める補間によって欠落した前記フレームを生成する請求項2に記載の動画像フレーム補間装置。
Frame interpolation means for interpolating the missing frame in either the color moving image or the depth moving image in which the same time frame of both the color moving image and the depth moving image is missing,
The interpolation means includes
When the moving image interpolated by the frame interpolating means is a color moving image, the three-dimensional point cloud data corresponding to the frames before and after the missing frame and the interpolation at the same time as the missing frame are obtained. Generating the missing frame by interpolation to obtain a pixel value of the missing depth moving image frame with reference to the color moving image frame;
When the moving image interpolated by the frame interpolating means is a depth moving image, the three-dimensional point cloud data corresponding to the frames before and after the missing frame and the interpolation at the same time as the missing frame are obtained. The moving image frame interpolating apparatus according to claim 2, wherein the missing frame is generated by interpolation to obtain a pixel value of the missing color moving image frame with reference to the depth moving image frame.
前記補間手段は、前記カラー動画像中または前記深度動画像中の前記撮影対象の動きの時間的または空間的変化が滑らかになるように補間を行う請求項1から5のいずれか1項に記載の動画像フレーム補間装置。   The said interpolation means performs interpolation so that the temporal or spatial change of the motion of the said imaging | photography object in the said color moving image or the said depth moving image may become smooth. Video frame interpolator. 撮影対象の輝度情報で表現されたカラー動画像と撮影対象の深度情報で表現された深度動画像とにおいて、欠落したフレームを補間によって生成する動画像フレーム補間装置が行う動画像フレーム補間方法であって、
前記カラー動画像と前記深度動画像とがフレーム同期しており、2つの動画像のいずれか一方の動画像のフレームが欠落した場合に、他方の動画像のフレームの情報に基づき欠落したフレームの補間を行う補間ステップを有する動画像フレーム補間方法。
This is a moving image frame interpolation method performed by a moving image frame interpolation apparatus that generates a missing frame by interpolation between a color moving image expressed by luminance information of a shooting target and a depth moving image expressed by depth information of the shooting target. And
When the color moving image and the depth moving image are in frame synchronization, and the frame of one of the two moving images is missing, the frame of the missing frame is determined based on the information of the frame of the other moving image. A moving image frame interpolation method including an interpolation step for performing interpolation.
コンピュータを、請求項1から6のいずれか1項に記載の動画像フレーム補間装置として機能させるための動画像フレーム補間プログラム。   A moving picture frame interpolation program for causing a computer to function as the moving picture frame interpolation apparatus according to any one of claims 1 to 6.
JP2015173144A 2015-09-02 2015-09-02 Moving picture frame interpolation device, moving picture frame interpolation method, and moving picture frame interpolation program Pending JP2017050731A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015173144A JP2017050731A (en) 2015-09-02 2015-09-02 Moving picture frame interpolation device, moving picture frame interpolation method, and moving picture frame interpolation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015173144A JP2017050731A (en) 2015-09-02 2015-09-02 Moving picture frame interpolation device, moving picture frame interpolation method, and moving picture frame interpolation program

Publications (1)

Publication Number Publication Date
JP2017050731A true JP2017050731A (en) 2017-03-09

Family

ID=58280421

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015173144A Pending JP2017050731A (en) 2015-09-02 2015-09-02 Moving picture frame interpolation device, moving picture frame interpolation method, and moving picture frame interpolation program

Country Status (1)

Country Link
JP (1) JP2017050731A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190126517A (en) * 2018-05-02 2019-11-12 한국항공대학교산학협력단 Apparatus and method for converting frame rate
WO2020071416A1 (en) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data coding method, three-dimensional data decoding method, three-dimensional data coding device, and three-dimensional data decoding device
WO2020071414A1 (en) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
CN111696037A (en) * 2020-05-25 2020-09-22 Oppo广东移动通信有限公司 Depth image processing method and device, storage medium and electronic equipment
JP2021533646A (en) * 2018-08-02 2021-12-02 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc Systems and methods for extrapolating 2D images using depth information
CN115734005A (en) * 2021-08-26 2023-03-03 腾讯科技(深圳)有限公司 Method, device and equipment for generating video image frame and storage medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190126517A (en) * 2018-05-02 2019-11-12 한국항공대학교산학협력단 Apparatus and method for converting frame rate
KR102160698B1 (en) 2018-05-02 2020-09-28 한국항공대학교산학협력단 Apparatus and method for converting frame rate
JP2021533646A (en) * 2018-08-02 2021-12-02 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc Systems and methods for extrapolating 2D images using depth information
WO2020071416A1 (en) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data coding method, three-dimensional data decoding method, three-dimensional data coding device, and three-dimensional data decoding device
WO2020071414A1 (en) * 2018-10-02 2020-04-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
JP7358376B2 (en) 2018-10-02 2023-10-10 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Three-dimensional data encoding method, three-dimensional data decoding method, three-dimensional data encoding device, and three-dimensional data decoding device
CN111696037A (en) * 2020-05-25 2020-09-22 Oppo广东移动通信有限公司 Depth image processing method and device, storage medium and electronic equipment
CN111696037B (en) * 2020-05-25 2023-07-18 Oppo广东移动通信有限公司 Depth image processing method and device, storage medium and electronic equipment
CN115734005A (en) * 2021-08-26 2023-03-03 腾讯科技(深圳)有限公司 Method, device and equipment for generating video image frame and storage medium

Similar Documents

Publication Publication Date Title
JP2017050731A (en) Moving picture frame interpolation device, moving picture frame interpolation method, and moving picture frame interpolation program
RU2721678C2 (en) Encoding device and encoding method, decoding device and decoding method
JP7277372B2 (en) 3D model encoding device, 3D model decoding device, 3D model encoding method, and 3D model decoding method
US9210398B2 (en) Method and apparatus for temporally interpolating three-dimensional depth image
JP6021541B2 (en) Image processing apparatus and method
KR101210625B1 (en) Method for filling common hole and 3d video system thereof
US11871127B2 (en) High-speed video from camera arrays
JP5725953B2 (en) Imaging apparatus, control method therefor, and information processing apparatus
US10586378B2 (en) Stabilizing image sequences based on camera rotation and focal length parameters
JP2020525912A (en) System and method for adaptively stitching digital images
US9313473B2 (en) Depth video filtering method and apparatus
JP2015035658A (en) Image processing apparatus, image processing method, and imaging apparatus
WO2019124248A1 (en) Image processing device, content processing device, content processing system, and image processing method
JP6148154B2 (en) Image processing apparatus and image processing program
JP2013223008A (en) Image processing device and method
JP2018061130A (en) Image processing device, image processing method, and program
JP2017207818A (en) Image processing apparatus, image processing method and program
KR20220086888A (en) Novel view synthesis system for plenoptic images
CN111033575A (en) Image processing device, display device, image transmission device, image processing method, control program, and recording medium
JP4815004B2 (en) Multi-view image encoding device
JP2012034336A (en) Stereoscopic image generating device and method
JP6332982B2 (en) Image processing apparatus and method
JP2021093641A (en) Image coding device and program for the same as well as image decoding device and program for the same
Isogai et al. A panoramic video rendering system using a probability mapping method
KR102561903B1 (en) AI-based XR content service method using cloud server