JP2014515197A - Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching - Google Patents

Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching Download PDF

Info

Publication number
JP2014515197A
JP2014515197A JP2013549367A JP2013549367A JP2014515197A JP 2014515197 A JP2014515197 A JP 2014515197A JP 2013549367 A JP2013549367 A JP 2013549367A JP 2013549367 A JP2013549367 A JP 2013549367A JP 2014515197 A JP2014515197 A JP 2014515197A
Authority
JP
Japan
Prior art keywords
video
hole
view
pixel
adjacent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013549367A
Other languages
Japanese (ja)
Other versions
JP6173218B2 (en
Inventor
ホ チョウ,ヤン
シク パク,ドゥ
ヨン リ,ホ
ヨン ファン,キュ
ジュ ジョン,ヨン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority claimed from PCT/KR2012/000299 external-priority patent/WO2012096530A2/en
Publication of JP2014515197A publication Critical patent/JP2014515197A/en
Application granted granted Critical
Publication of JP6173218B2 publication Critical patent/JP6173218B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues

Abstract

マルチビューレンダリングで発生するホールを復元するための装置及び方法が提供される。時間的に隣接する映像を用いることによって出力ビュー内のホールが復元される。  An apparatus and method is provided for restoring holes that occur in multi-view rendering. Holes in the output view are restored by using temporally adjacent images.

Description

下記の実施形態はマルチビューレンダリング装置及び方法に関する。   The following embodiments relate to a multi-view rendering apparatus and method.

3D(3−Dimensional)映像を生成するためには、広い視野角を有する多視点の3D映像が連続的に表現されなければならない。   In order to generate a 3D (3-Dimensional) video, a multi-view 3D video having a wide viewing angle must be continuously expressed.

しかし、多視点の映像をそれぞれ撮影し、撮影された多視点の映像をリアルタイムに送信することは容易ではない。これは、撮影システムの物理的な限界を始め、撮影されたデータを格納及び送信することが容易ではないためである。   However, it is not easy to shoot multi-view videos and transmit the taken multi-view videos in real time. This is because it is not easy to store and transmit captured data, including the physical limitations of the imaging system.

したがって、3D映像生成装置は少数(例えば、2〜3個)の入力ビュー(または参照ビュー)のみを用いて3D映像を生成してもよく、生成された3D映像を再生する3Dディスプレイ装置は入力ビューを内挿または外挿することによって複数の出力ビューを生成することができる。
日本国公開特許第2009−533778号 韓国登録特許第0731979号 韓国登録特許第0960294号 韓国登録特許第0924716号
Accordingly, the 3D image generation apparatus may generate the 3D image using only a small number (for example, 2 to 3) input views (or reference views), and the 3D display apparatus that reproduces the generated 3D image is input. Multiple output views can be generated by interpolating or extrapolating views.
Japanese Patent No. 2009-533778 Korean Registered Patent No.0731979 Korean registered patent No. 0960294 Korean Registered Patent No. 0924716

本発明の一実施形態は、映像ワーピングによって生成された出力ビュー映像内にあるホールを復元するための装置及び方法を提供する。   One embodiment of the present invention provides an apparatus and method for restoring holes in an output view video generated by video warping.

一実施形態によれば、1つ以上のプロセッサの実行可能なユニットを制御するプロセッサと、参照ビューの映像及び前記参照ビューの映像の両眼視差情報を用いる映像ワーピングによって出力ビューの映像を生成する映像ワーピング部と、前記映像ワーピングに関連する映像に時間的に隣接する1つ以上の映像を用いて前記映像ワーピングによって生成されたホールを復元する隣接映像基盤ホール復元部とを備える映像処理装置が提供される。   According to one embodiment, an output view video is generated by video warping using a processor that controls executable units of one or more processors and binocular disparity information of the reference view video and the reference view video. An image processing apparatus comprising: an image warping unit; and an adjacent image base hole restoration unit that restores a hole generated by the image warping using one or more images temporally adjacent to the image related to the image warping. Provided.

前記時間的に隣接する1つ以上の映像は前記参照ビューの映像に時間的に隣接する映像であってもよい。前記時間的に隣接する1つ以上の映像は前記出力ビューの映像に時間的に隣接する映像であってもよい。   The one or more videos that are temporally adjacent may be videos that are temporally adjacent to the video of the reference view. The one or more videos that are temporally adjacent may be video that is temporally adjacent to the video of the output view.

前記隣接映像基盤ホール復元部は、前記ホール内のピクセルを復元するために前記時間的に隣接する映像内の前記ホール内の前記ピクセルに対応するピクセルのカラー値を用いてもよい。前記隣接映像基盤ホール復元部は、前記参照ビューの映像及び前記時間的に隣接する映像が時間に応じて全体的に移動した場合、前記移動に基づいて前記時間的に隣接する映像内で前記ホール内の前記ピクセルに対応するピクセルを選択してもよい。   The adjacent image base hole restoration unit may use a color value of a pixel corresponding to the pixel in the hole in the temporally adjacent image to restore the pixel in the hole. When the reference view image and the temporally adjacent image move as a whole according to time, the adjacent image base hole restoration unit may include the hole in the temporally adjacent image based on the movement. A pixel corresponding to the pixel within may be selected.

前記隣接映像基盤ホール復元部は、前記ホール内の前記ピクセルに対応する1つ以上のホールピクセルを除くことによって取得されたピクセルを用いて前記ホールを復元してもよい。前記隣接映像基盤ホール復元部は、前記ホール内の前記ピクセルに対応するピクセルのうち背景ピクセルを前記ホールを復元するために用いてもよい。   The adjacent image base hole restoration unit may restore the hole using a pixel obtained by removing one or more hole pixels corresponding to the pixel in the hole. The adjacent image base hole restoration unit may use a background pixel among pixels corresponding to the pixel in the hole to restore the hole.

前記映像処理装置は、映像ワーピングによって生成されたホールを拡大する緩衝区間設定部をさらに備えてもよい。   The video processing apparatus may further include a buffer interval setting unit that expands a hole generated by video warping.

前記緩衝区間設定部は、前記ホールに隣接する緩衝領域を前記ホールと見なすことによって前記ホールを拡大し、前記隣接映像基盤ホール復元部は、前記ホール内の前記ピクセルが前記緩衝領域内のピクセルである場合、前記ホール内の前記ピクセルのカラー値に基づいて前記ホール内の前記ピクセルを復元してもよい。   The buffer section setting unit enlarges the hole by regarding a buffer region adjacent to the hole as the hole, and the adjacent video base hole restoration unit is configured such that the pixel in the hole is a pixel in the buffer region. In some cases, the pixel in the hole may be restored based on the color value of the pixel in the hole.

前記映像処理装置は、前記出力ビューの映像のうちクラックを前記ホールに設定する両眼視差クラック検出部をさらに備えてもよい。前記両眼視差クラック検出部は、隣接するピクセルとの両眼視差値の差の総和が予め定義された閾値よりも大きいピクセルをクラックとして検出してもよい。   The video processing apparatus may further include a binocular parallax crack detection unit that sets a crack in the hole in the video of the output view. The binocular parallax crack detection unit may detect a pixel in which a sum of differences between binocular parallax values from adjacent pixels is larger than a predetermined threshold as a crack.

他の一実施形態によると、1つ以上のプロセッサ実行可能なユニットを制御するプロセッサと、参照ビューの映像及び前記参照ビューの映像の両眼視差情報を用いる映像ワーピングによって出力ビューの映像を生成する映像ワーピング部と、前記映像ワーピングによって生成されたホールを前記ホールと隣接する1つ以上のピクセルをスケーリングすることによって復元する隣接ピクセルスケーリング基盤ホール復元部とを備える映像処理装置が提供される。   According to another embodiment, an output view video is generated by video warping using a processor that controls one or more processor-executable units and a reference view video and binocular disparity information of the reference view video. An image processing apparatus is provided that includes an image warping unit and an adjacent pixel scaling base hole restoration unit that restores a hole generated by the image warping by scaling one or more pixels adjacent to the hole.

前記隣接ピクセルスケーリング基盤ホール復元部は、前記1つ以上のピクセルのうち1つ以上の背景ピクセルをスケーリングしてもよい。   The neighboring pixel scaling base hole restoration unit may scale one or more background pixels of the one or more pixels.

前記ホール及び前記1つ以上のピクセルは同一の水平線上にあってもよい。   The hole and the one or more pixels may be on the same horizontal line.

前記隣接ピクセルスケーリング基盤ホール復元部は、前記ホールに隣接する背景ピクセルの勾配と垂直方向に前記1つ以上のピクセルをスケーリングし、前記背景ピクセルは前記1つ以上のピクセルのうち1つのピクセルであってもよい。   The adjacent pixel scaling base hole restoration unit scales the one or more pixels in a direction perpendicular to a gradient of a background pixel adjacent to the hole, and the background pixel is one of the one or more pixels. May be.

他の実施形態によると、1つ以上のプロセッサの実行可能なユニットを制御するプロセッサと、参照ビューの映像及び前記参照ビューの映像の両眼視差情報を用いる映像ワーピングによって出力ビューの映像を生成する映像ワーピング部と、前記映像ワーピングによって生成されたホールが含まれる領域と最も類似のパッチを背景から探索し、前記探索されたパッチを用いることによって前記ホールを復元する最適パッチ探索基盤ホール復元部とを備える映像処理装置が提供される。   According to another embodiment, an output view image is generated by a processor controlling an executable unit of one or more processors and image warping using a reference view image and binocular disparity information of the reference view image. An image warping unit, and an optimal patch search base hole restoring unit that searches a background for a patch that is most similar to a region including a hole generated by the image warping, and restores the hole by using the searched patch; Is provided.

前記ホールが含まれる領域はホール領域及び背景領域に構成され、前記最適パッチ探索基盤ホール復元部は、前記探索されたパッチのうち前記ホール領域に対応する部分を用いて前記ホール領域を復元してもよい。前記最適パッチ探索基盤ホール復元部は第1領域のための第1パッチを探索し、第2領域のための第2パッチを探索し、前記第1パッチ及び前記第2パッチの平均値を用いて前記第1領域及び前記第2領域で重なるホールの部分を復元してもよい。   The region including the hole is configured as a hole region and a background region, and the optimum patch search base hole restoration unit restores the hole region using a portion corresponding to the hole region in the searched patches. Also good. The optimal patch search base hole restoration unit searches for a first patch for a first region, searches for a second patch for a second region, and uses an average value of the first patch and the second patch. A hole portion overlapping in the first region and the second region may be restored.

また、更なる実施形態によると、プロセッサによって参照ビューの映像の両眼視差情報に基づいて前記参照ビューの映像をイメージワーピングすることで出力ビューの映像を生成する映像ワーピングステップと、前記映像ワーピングに関連する映像に時間的に隣接する1つ以上の映像を用いて前記出力ビュー内に生成されたホールを復元する隣接の映像基盤ホール復元ステップとを含む映像処理方法が提供される。   Further, according to a further embodiment, a video warping step of generating an output view video by image warping the reference view video based on binocular disparity information of the reference view video by a processor, and the video warping There is provided a video processing method including a neighboring video-based hole restoration step of restoring holes generated in the output view using one or more videos temporally adjacent to related videos.

前記像処理方法は、前記ホールを拡大する緩衝区間の設定ステップをさらに含んでもよい。前記像処理方法は、前記出力ビューの映像のうちクラックを前記ホールに設定する両眼視差クラック検出ステップをさらに含んでもよい。前記像処理方法は、前記ホールが含まれる領域と最も類似のパッチを背景から探索し、前記探索されたパッチを用いることによって前記ホールを復元する最適パッチ探索基盤ホール復元ステップをさらに含んでもよい。   The image processing method may further include a setting step of a buffer section for enlarging the hole. The image processing method may further include a binocular parallax crack detection step of setting a crack in the hole in the video of the output view. The image processing method may further include an optimum patch search base hole restoration step of searching for a patch most similar to an area including the hole from the background and restoring the hole by using the searched patch.

更なる一実施形態によると、1つ以上のプロセッサの実行可能なユニットを制御するプロセッサと、少なくとも1つの参照ビューの映像に基づいて出力ビューの映像を生成する映像生成部と、前記生成された出力ビューの映像の予め定義されたオブジェクト内のクラックを検出する両眼視差クラック検出部であって、前記予め定義されたオブジェクトは、前記予め定義されたオブジェクトの相異なる部分に割り当てられた異なる両眼視差値をもって、前記クラックは前記少なくとも1つの参照ビューの映像に基づいて前記出力ビューの映像を生成したことに起因して前記予め定義されたオブジェクト内に発生する、両眼視差クラック検出部と、前記クラックをホールとして再び割り当て、前記生成に関連する映像に時間的に隣接する1つ以上のフレームの背景情報を用いることによって前記生成された出力ビューの映像の現在のフレーム内に存在する前記ホールを復元するマルチビュー生成部とを備えるマルチビュー生成装置が提供される。   According to a further embodiment, a processor that controls executable units of one or more processors, a video generator that generates video of an output view based on video of at least one reference view, the generated A binocular parallax crack detection unit for detecting a crack in a predefined object of an output view image, wherein the predefined object is different from each other assigned to different parts of the predefined object. A binocular parallax crack detection unit that occurs in the predefined object due to the generation of the output view video based on the at least one reference view video, with an eye parallax value; , Reassign the crack as a hole and one or more temporally adjacent to the image associated with the generation Multi-view generation apparatus and a multi-view generation unit for restoring the holes that exist in the current frame of image of the generated output views by using the background information of the frame is provided.

前記時間的に隣接する1つ以上のフレームは、前記参照ビューの映像に時間的に隣接するフレームであってもよい。前記時間的に隣接する1つ以上のフレームは、前記出力ビューの映像に時間的に隣接するフレームであってもよい。   The one or more frames that are temporally adjacent may be frames that are temporally adjacent to the video of the reference view. The one or more frames that are temporally adjacent may be frames that are temporally adjacent to the video of the output view.

また、更なる一実施形態によると、プロセッサによって少なくとも1つの参照ビューの映像に基づいて出力ビューの映像を生成するステップと、前記生成された出力ビューの映像の予め定義されたオブジェクト内のクラックを検出するステップであって、前記予め定義されたオブジェクトは、前記予め定義されたオブジェクトの相異なる部分に割り当てられた異なる両眼視差値をもって、前記クラックは前記少なくとも1つの参照ビューの映像に基づいて前記出力ビューの映像を生成したことに起因して前記予め定義されたオブジェクト内に発生する、ステップと、前記クラックをホールとして再び割り当て、前記生成に関連する映像に時間的に隣接する1つ以上のフレームの背景情報を用いることによって前記生成された出力ビューの映像の現在のフレーム内に存在する前記ホールを復元するステップとを含むマルチビュー生成方法が提供される。   According to a further embodiment, the processor generates an output view image based on the at least one reference view image, and includes a crack in a predefined object of the generated output view image. Detecting, wherein the predefined object has different binocular disparity values assigned to different parts of the predefined object, and the crack is based on the video of the at least one reference view. Occurring in the predefined object due to generating the video of the output view; and reallocating the crack as a hole and one or more adjacent in time to the video associated with the generation Image of the generated output view by using background information of frames Multiview generation method comprising the steps of restoring the holes that exist in the current frame is provided.

本発明の更なる一実施形態によると、映像処理装置を備えるディスプレイデバイスにおいて、参照ビューの映像及び前記参照ビューの映像の両眼視差情報に基づいて出力ビューの映像を生成する映像ワーピング部と、前記生成に関連する映像に時間的に隣接する1つ以上の映像を用いてホールを復元する隣接映像基盤ホール復元部であって、前記ホールは前記出力ビューを生成することによって生成される、隣接映像基盤ホール復元部と、前記隣接映像基盤ホール復元部によって復元された前記ホールを有する前記生成された出力ビューの映像に基づいて前記ディスプレイデバイスによって表示される信号を生成する制御部とを備える映像処理装置を備えるディスプレイデバイスが提供される。   According to a further embodiment of the present invention, in a display device comprising a video processing device, a video warping unit that generates an output view video based on a reference view video and binocular disparity information of the reference view video; An adjacent video-based hole restoration unit that restores a hole using one or more videos temporally adjacent to the video related to the generation, wherein the holes are generated by generating the output view. A video comprising a video base hole restoration unit and a control unit that generates a signal to be displayed by the display device based on the generated video of the output view having the hole restored by the adjacent video base hole restoration unit. A display device comprising a processing apparatus is provided.

本発明によると、映像ワーピングによって生成された出力ビュー映像内にあるホールを復元することができる。   According to the present invention, holes in an output view image generated by image warping can be restored.

一例に係る3つの入力ビューに基づいたビュー生成方法を説明する。A view generation method based on three input views according to an example will be described. 一実施形態に係る外挿ビューのフレーム生成方法を示す。6 illustrates a method of generating a frame for extrapolation views according to an embodiment. 一実施形態に係る映像処理装置の構造図である。1 is a structural diagram of a video processing apparatus according to an embodiment. 一例に係る時間的に隣接する映像を用いたホールの復元を説明する。The restoration of holes using temporally adjacent images according to an example will be described. 一例に係る緩衝区間の設定によるホール拡大を説明する。The hole expansion by setting the buffer section according to an example will be described. 一例に係るクラックの発生及び両眼視差クラックの検出によるホール設定を説明する。A description will be given of hole setting based on generation of cracks and detection of binocular parallax cracks according to an example. 一例に係る隣接のピクセルスケーリングを説明する。An example of neighboring pixel scaling will be described. 一例に係る背景ピクセルを用いる隣接のピクセルスケーリングを説明する。An example of neighboring pixel scaling using background pixels according to an example is described. 一例に係る背景の勾配に垂直方向へのスケーリングを説明する。An example of scaling in the direction perpendicular to the background gradient will be described. 一例に係る最適パッチ探索に基づいたホールの復元を説明する。A hole restoration based on an optimal patch search according to an example will be described. 一例に係るパッチの重複を用いたホールの復元を説明する。The restoration of holes using overlapping patches according to an example will be described. 一実施形態に係る映像処理方法のフローチャートである。5 is a flowchart of a video processing method according to an embodiment. 一実施形態に係る映像処理装置を含むディスプレイデバイスを示す。1 shows a display device including a video processing apparatus according to an embodiment.

以下、本発明の一実施形態は添付する図面を参照しながら詳細に説明される。しかし、本発明が実施形態によって制限されたり限定されることはない。各図面に提示された同一の参照符号は同一の部材を示す。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments. The same reference numerals provided in each drawing denote the same members.

図1は、一例に係る3つの入力ビューに基づいたビュー生成方法を説明する。   FIG. 1 illustrates a view generation method based on three input views according to an example.

撮影の対象となる被写体110は前景及び背景112から構成される。前記前景は第1オブジェクト114及び第2オブジェクト116を含む。観測者の視点によって第1オブジェクト114及び第2オブジェクト116の背景112に対する相対的な位置は左側または右側に移動する。   A subject 110 to be photographed includes a foreground and a background 112. The foreground includes a first object 114 and a second object 116. The relative positions of the first object 114 and the second object 116 with respect to the background 112 move to the left or right depending on the viewpoint of the observer.

例えば、カメラのような第1入力装置120は第1視点であり、第2入力装置130は第2視点、第3入力装置140は第3視点であって、それぞれ前記被写体110を撮影する。入力装置120、130及び140はそれぞれの視点で被写体110を撮影し、それぞれの入力ビュー122、132及び142を生成する。   For example, the first input device 120 such as a camera is the first viewpoint, the second input device 130 is the second viewpoint, and the third input device 140 is the third viewpoint, and each shoots the subject 110. The input devices 120, 130, and 140 capture the subject 110 from their respective viewpoints and generate respective input views 122, 132, and 142.

例えば、すなわち、第1入力ビュー122は視聴者が第1視点で被写体110を見たときの映像を提供し、第2入力ビュー132は視聴者が第2視点で被写体110を見たときの映像を提供し、第3入力ビュー134は視聴者が第3視点で被写体110を見たときの映像を提供する。   For example, the first input view 122 provides a video when the viewer views the subject 110 from the first viewpoint, and the second input view 132 provides a video when the viewer views the subject 110 from the second viewpoint. The third input view 134 provides an image when the viewer views the subject 110 from the third viewpoint.

入力ビュー122、132及び142のそれぞれはフレームのシーケンスから構成される。すなわち、入力ビュー122、132または142は単位時間当たり特定の数、例えば、30FPS(Frames Per Second)から出力されるフレームで構成される。特定視点のフレームは前記特定視点の映像を生成するためのデータである。したがって、入力ビュー122、132及び142のそれぞれは映像のシーケンスを提供する。各映像は特定の瞬間に対応する。   Each of the input views 122, 132, and 142 is composed of a sequence of frames. That is, the input view 122, 132, or 142 is composed of frames output from a specific number per unit time, for example, 30 FPS (Frames Per Second). The specific viewpoint frame is data for generating the video of the specific viewpoint. Accordingly, each of the input views 122, 132, and 142 provides a sequence of videos. Each video corresponds to a specific moment.

フレーム(または映像)はピクセルで構成される。フレーム(または映像)内のピクセルはx座標及びy座標で構成された座標値を有する。ピクセルそれぞれはカラー値を有する。ピクセルのカラー値はカラーを表すための任意の形式(例えば、RGBまたはYCbCr)を用いて表してもよい。また、ピクセルそれぞれは深度値を有する。ピクセルの深度値は、ピクセルが表すオブジェクト(または背景)及び撮影視点(すなわち、ビューの視点)間の距離を表す。ピクセルの深度値は、例えば、整数または浮動小数点のような距離を表すための任意の2進形式を用いて表してもよい。   A frame (or video) is composed of pixels. Pixels in the frame (or video) have coordinate values composed of x and y coordinates. Each pixel has a color value. Pixel color values may be represented using any format for representing color (eg, RGB or YCbCr). Each pixel also has a depth value. The pixel depth value represents the distance between the object (or background) represented by the pixel and the shooting viewpoint (ie, the viewpoint of the view). Pixel depth values may be represented using any binary format for representing distances, such as integers or floating point numbers, for example.

ピクセルの深度値はフレーム内に含まれてもよい。すなわち、フレームがピクセルのカラー値及び深度値を有し得る。また、ピクセルの深度値はフレームとは別に提供されてもよい。フレーム(または映像)の深度情報はフレーム(または映像)を構成するピクセルの深度値を表す。フレームの深度情報は、フレームまたは入力ビューとは別に提供されてもよい。入力ビュー内の映像に対する深度情報が入力ビューとは別に提供されてもよい。   Pixel depth values may be included in the frame. That is, a frame can have pixel color and depth values. Also, the pixel depth value may be provided separately from the frame. The depth information of the frame (or video) represents the depth value of the pixels constituting the frame (or video). Frame depth information may be provided separately from the frame or input view. Depth information for the video in the input view may be provided separately from the input view.

特定の視覚tにおける第1入力ビュー122のフレーム124、第2入力ビュー132のフレーム134、及び第3入力ビュー142のフレーム144が四角形のように示された。   The frame 124 of the first input view 122, the frame 134 of the second input view 132, and the frame 144 of the third input view 142 at a particular vision t are shown as squares.

3D映像装置は、入力ビュー122、132及び142の視点の他の視点における映像をユーザに提供する必要がある。したがって、3D映像装置は、入力ビュー122、132及び142に基づいて前記入力ビュー122、132及び142とは異なる視点における出力ビュー(output view)(または目的ビュー(target view))を生成する。前記の入力ビュー122、132及び142に対応する視点は参照ビュー視点と命名する。   The 3D video device needs to provide the user with video from other viewpoints of the input views 122, 132, and 142. Accordingly, the 3D video apparatus generates an output view (or a target view) at a viewpoint different from the input views 122, 132, and 142 based on the input views 122, 132, and 142. The viewpoints corresponding to the input views 122, 132 and 142 are named reference view viewpoints.

参照ビュー視点ではない異なる視点で視聴者が被写体110を見たときの映像が提供されるためには、前記入力装置120、130、及び140によって生成される入力ビュー122、132及び142によって提供されるフレームを用いるビュー外挿またはビュー内挿によって中間視点における出力ビューを生成しなければならない。   In order to provide an image when the viewer views the subject 110 from a different viewpoint that is not a reference view viewpoint, the image is provided by the input views 122, 132, and 142 generated by the input devices 120, 130, and 140. The output view at the intermediate viewpoint must be generated by view extrapolation using view frames or view interpolation.

出力ビューの生成は、出力ビューのフレームを生成することを意味する。出力ビューの生成は出力ビューの視点における映像を提供することを意味する。出力ビューは内挿によって生成された内挿ビューまたは外挿によって生成された外挿ビューである。ビュー内挿(view interpolation)は入力ビュー122、132及び142の視点の間(すなわち、内部)にある任意の仮想視点における出力ビューを生成することを意味する。ビュー内挿は、生成しようとする仮想ビュー視点に隣接する左側及び右側の入力ビューフレーム(または映像)を参照して出力ビューフレーム(または映像)を生成してもよい。内挿ビュー(interpolated view)はビュー内挿によって生成された出力ビューである。   Generating an output view means generating an output view frame. Output view generation means providing video at the viewpoint of the output view. The output view is an interpolation view generated by interpolation or an extrapolation view generated by extrapolation. View interpolation means generating an output view at any virtual viewpoint that is between (ie, internal) the viewpoints of the input views 122, 132, and 142. View interpolation may generate an output view frame (or video) with reference to left and right input view frames (or videos) adjacent to the virtual view viewpoint to be generated. An interpolated view is an output view generated by view interpolation.

ビュー外挿(view extrapolation)は入力ビュー122、132及び142の視点の郊外にある任意の視点における出力ビューを生成することを意味する。ビュー外挿は、最左側入力ビュー122の視点よりも左側視点における出力ビュー、または最右側入力ビュー142の視点よりも右側視点における出力ビューを生成することを意味する。外挿ビュー(extrapolated view)はビュー外挿によって生成された出力ビューである。   View extrapolation means generating an output view at an arbitrary viewpoint that is in the suburbs of the viewpoints of the input views 122, 132, and 142. View extrapolation means generating an output view at a left viewpoint from the viewpoint of the leftmost input view 122 or an output view at a right viewpoint from the viewpoint of the rightmost input view 142. An extrapolated view is an output view generated by view extrapolation.

ビュー外挿は、最外郭にある1つの入力ビュー122または142のフレーム(または映像)を参照して出力ビューフレーム(または映像)を生成する。したがって、ビュー外挿のために用いられる情報はビュー内挿のために用いられる情報に比べて相対的に制限される。したがって、用いられる情報が相対的に少ないため、ビュー外挿によって生成された映像ではビュー内挿で生成された映像に比べて画質劣化が多く発生する。   View extrapolation generates an output view frame (or video) with reference to the frame (or video) of one input view 122 or 142 in the outermost contour. Therefore, the information used for view extrapolation is relatively limited compared to the information used for view interpolation. Therefore, since relatively little information is used, video quality generated by view extrapolation is more degraded than video generated by view interpolation.

図示される三角形150、152、160、162、170、172、180及び182はそれぞれ内挿ビューフレームまたは外挿ビューフレームを表す。   The illustrated triangles 150, 152, 160, 162, 170, 172, 180, and 182 each represent an interpolated view frame or an extrapolated view frame.

最左側入力ビュー122の視点よりも左側の視点のビューは外挿ビューである。また、最右側入力ビュー142の視点よりも右側の視点のビューは外挿ビューである。フレーム150、152、180及び182は視覚tの外挿ビューフレームである。   The view of the left viewpoint from the viewpoint of the leftmost input view 122 is an extrapolated view. Further, the view of the right viewpoint from the viewpoint of the rightmost input view 142 is an extrapolated view. Frames 150, 152, 180, and 182 are extrapolated view frames of vision t.

入力ビュー122、132及び142の視点の間で生成された仮想の視点におけるビューは内挿ビューである。視覚tの内挿ビューのフレーム160、162、170及び172が示される。   The view at the virtual viewpoint generated between the viewpoints of the input views 122, 132 and 142 is an interpolation view. Frames 160, 162, 170, and 172 of an interpolated view of visual t are shown.

内挿ビュー及び外挿ビューも予め定義された時間周期にかけて発生したフレームのシーケンスで構成される。内挿ビューまたは外挿ビューのフレームは深度情報を有しない場合がある。すなわち、内挿ビューまたは外挿ビューのフレームは2次元フレームであってもよい。   The interpolated view and extrapolated view are also composed of a sequence of frames generated over a predefined time period. An interpolated view or extrapolated view frame may not have depth information. That is, the frame of the interpolation view or the extrapolation view may be a two-dimensional frame.

前述したように、前記N個の入力ビューの視点及びこれとは異なる視点におけるM個の出力ビューが生成されてもよい。   As described above, viewpoints of the N input views and M output views at different viewpoints may be generated.

3D映像装置が、視聴者の位置に応じて、M個の出力ビューのうち特定の出力ビューを視聴者に提供すれば、視聴者は3D映像装置の出力ビューを介して連続的な実際の3D映像を認知することができる。例えば、3D映像装置が第1出力ビューを視聴者の左眼に、第2出力ビューを視聴者の右眼に出力すれば、ユーザは3D映像を認識することができる。   If the 3D video device provides a specific output view of the M output views to the viewer according to the position of the viewer, the viewer can continuously perform the actual 3D via the output view of the 3D video device. Can recognize video. For example, if the 3D video device outputs the first output view to the viewer's left eye and the second output view to the viewer's right eye, the user can recognize the 3D video.

図2は、一実施形態に係る外挿ビューのフレーム生成方法を示す
入力ビュー210を介してフレームのシーケンスが提供される。特定の視覚tにおける入力ビュー210のフレーム212が図示された。入力ビュー210に基づいて入力ビュー210よりも右側視点におけるビュー外挿によって第1外挿ビュー及び第2外挿ビューが生成される。
FIG. 2 illustrates an extrapolated view frame generation method according to one embodiment. A sequence of frames is provided via an input view 210. A frame 212 of the input view 210 at a particular vision t is illustrated. Based on the input view 210, a first extrapolated view and a second extrapolated view are generated by view extrapolation at the right viewpoint from the input view 210.

前記特定の視覚tにおける第1外挿ビューのフレーム220及び第2外挿ビューのフレーム230が入力ビュー210のフレーム212を用いて生成される。入力ビュー210は図1に示す被写体210を撮影したものであり、入力ビュー210のフレーム212は、背景214、第1オブジェクト216及び第2オブジェクト218で構成される。   A frame 220 of the first extrapolated view and a frame 230 of the second extrapolated view at the particular vision t are generated using the frame 212 of the input view 210. The input view 210 is a photograph of the subject 210 shown in FIG. 1, and the frame 212 of the input view 210 includes a background 214, a first object 216, and a second object 218.

第1外挿ビューのフレーム220も背景224、第1オブジェクト226及び第2オブジェクト228で構成される。また、第2外挿ビューのフレーム230は、背景234、第1オブジェクト236及び第2オブジェクト238を含んでもよい。第1外挿ビューの視点は入力ビュー210の視点よりも右側に位置する。したがって、第1外挿ビューのフレーム220内の背景224、第1オブジェクト226及び第2オブジェクト228は入力ビュー210のフレーム212からさらに左側に位置する。   The frame 220 of the first extrapolated view is also composed of a background 224, a first object 226, and a second object 228. Further, the frame 230 of the second extrapolation view may include a background 234, a first object 236, and a second object 238. The viewpoint of the first extrapolation view is located on the right side of the viewpoint of the input view 210. Accordingly, the background 224, the first object 226, and the second object 228 in the frame 220 of the first extrapolation view are located further to the left from the frame 212 of the input view 210.

前記背景224がどれほど左側に位置するかは入力ビュー210の視点から背景224までの距離に依存し、入力ビュー210の視点及び第1外挿ビューの視点間の距離に依存する。   The left side of the background 224 depends on the distance from the viewpoint of the input view 210 to the background 224, and depends on the distance between the viewpoint of the input view 210 and the viewpoint of the first extrapolation view.

前述したように、背景224の全てが左側に移動するため、第1外挿ビューのフレーム220は、入力ビュー210のフレーム212によって適切に満たされないフレーム境界ホール244を有する。場合に応じて、背景224は移動できないことがある。背景224が移動しない場合、フレーム境界ホール244は生成されない。   As described above, because all of the background 224 moves to the left side, the first extrapolated view frame 220 has a frame boundary hole 244 that is not properly filled by the frame 212 of the input view 210. In some cases, the background 224 may not be movable. If the background 224 does not move, the frame boundary hole 244 is not generated.

前景を構成するオブジェクト226及び228は背景224が移動することによって共に移動される。また、オブジェクト226及び328は背景224よりも左側に移動する。   Objects 226 and 228 constituting the foreground are moved together when the background 224 moves. Further, the objects 226 and 328 move to the left side of the background 224.

前記オブジェクト226及び228が背景224に備えてどれだけもっと左側に位置するかは、入力ビュー210の視点からオブジェクト226及び228それぞれまでの距離に依存し、入力ビュー210の視点及び第1外挿ビューの視点間の距離に依存する。オブジェクト226及び228が背景224に比べてもっと左側に移動するため、第1外挿ビューのフレーム220は入力ビュー210のフレーム212によって適切に満たされないオブジェクト境界ホール246及び248を有する。   How far the objects 226 and 228 are located in the background 224 depends on the distance from the viewpoint of the input view 210 to the objects 226 and 228, respectively, and the viewpoint of the input view 210 and the first extrapolated view. Depends on the distance between the viewpoints. Because the objects 226 and 228 move further to the left relative to the background 224, the first extrapolated view frame 220 has object boundary holes 246 and 248 that are not properly filled by the frame 212 of the input view 210.

外挿ビューを生成するために、前記フレーム境界ホール244、前記オブジェクト境界ホール246及び248には適切なピクセルが外挿されなければならない。   Appropriate pixels must be extrapolated to the frame boundary hole 244 and the object boundary holes 246 and 248 to generate an extrapolated view.

第2外挿ビューのフレーム230もフレーム境界ホール254、オブジェクト境界ホール256及び258を有する。第2外挿ビューの視点は第1外挿ビューの視点に比べて、入力ビュー210の視点からさらに遠く離隔されている。第2外挿ビューのフレーム230内の背景234、第1オブジェクト236及び第2オブジェクト238はそれぞれ第1外挿ビューのフレーム220内の背景224、第1オブジェクト226及び第2オブジェクト228に比べてさらに左側に位置する。   The second extrapolated view frame 230 also has frame boundary holes 254 and object boundary holes 256 and 258. The viewpoint of the second extrapolation view is further away from the viewpoint of the input view 210 than the viewpoint of the first extrapolation view. The background 234, the first object 236, and the second object 238 in the frame 230 of the second extrapolation view are further compared to the background 224, the first object 226, and the second object 228 in the frame 220 of the first extrapolation view, respectively. Located on the left side.

第2外挿ビューのフレーム230内のフレーム境界ホール254、オブジェクト境界ホール256及び258はそれぞれ第1外挿ビューのフレーム220内のフレーム境界ホール244、オブジェクト境界ホール246及び248よりも左右がさらに広い。   The frame boundary hole 254 and the object boundary holes 256 and 258 in the frame 230 of the second extrapolation view are wider than the frame boundary hole 244 and the object boundary holes 246 and 248 in the frame 220 of the first extrapolation view, respectively. .

したがって、第2外挿ビューのフレーム230内のフレーム境界ホール254、オブジェクト境界ホール256及び258にはさらに多いピクセルが外挿されなければならない。   Therefore, more pixels must be extrapolated to frame boundary hole 254 and object boundary holes 256 and 258 in frame 230 of the second extrapolated view.

すなわち、外挿ビューの視点が最外郭入力ビューからさらに遠くなるほど、外挿されなければならないピクセルの範囲もさらに広くなる。   That is, the farther the viewpoint of the extrapolated view is from the outermost input view, the wider the range of pixels that must be extrapolated.

フレーム境界ホール244、254とオブジェクト境界ホール246、248、256及び258を合わせてホールと命名する。   The frame boundary holes 244 and 254 and the object boundary holes 246, 248, 256, and 258 are collectively referred to as holes.

図3は、一実施形態に係る映像処理装置の構造図である。図3に示す映像処理装置は、参照ビュー映像及び参照ビュー映像の両眼視差情報をそれぞれ用いるビュー内挿及びビュー外挿を通じて出力ビューを生成する。映像処理装置は、出力ビューの映像内のビュー内挿及びビュー外挿によって発生するホールを復元する。   FIG. 3 is a structural diagram of a video processing apparatus according to an embodiment. The video processing apparatus illustrated in FIG. 3 generates an output view through view interpolation and view extrapolation using binocular disparity information of the reference view video and the reference view video, respectively. The video processing apparatus restores holes generated by view interpolation and view extrapolation in the video of the output view.

出力ビュー映像は出力ビューの視点における映像である。前述したように、新しい視点における映像が生成されれば、前記新しい視点で新しく観測されなければならない地点が映像内のホールとして示される。   The output view video is a video at the viewpoint of the output view. As described above, when an image at a new viewpoint is generated, a point that must be newly observed at the new viewpoint is indicated as a hole in the image.

映像処理装置は、ビュー内挿及びビュー外挿過程で発生するホールを復元してもよい。映像処理装置300は、映像ワーピング部310、緩衝区間設定部320、両眼視差クラック検出部330、隣接映像基盤ホール復元部340、隣接ピクセルスケーリング基盤ホール復元部350、及び最適パッチ探索基盤ホール復元部360を備えてもよい。   The video processing apparatus may restore holes generated in the view interpolation and view extrapolation processes. The video processing apparatus 300 includes a video warping unit 310, a buffer interval setting unit 320, a binocular parallax crack detection unit 330, an adjacent video base hole restoration unit 340, an adjacent pixel scaling base hole restoration unit 350, and an optimal patch search base hole restoration unit. 360 may be provided.

映像ワーピング部310は、参照ビュー映像及び参照ビュー映像の両眼視差情報を用いるイメージワーピングの方式によって出力ビューの映像を生成する。すなわち、映像ワーピング部310は、参照ビューのフレーム及び参照ビューのフレームの両眼視差情報を用いるイメージワーピングによって出力ビューのフレームを生成する。映像ワーピング部310は、参照ビュー映像を映像ワーピングすることによって出力ビューの映像を生成する。例えば、参照ビュー映像の両眼視差情報が提供されない場合、映像ワーピング部310は参照ビュー映像の両眼視差情報を生成してもよい。   The video warping unit 310 generates an output view video by an image warping method using binocular disparity information of the reference view video and the reference view video. That is, the video warping unit 310 generates an output view frame by image warping using binocular disparity information of the reference view frame and the reference view frame. The video warping unit 310 generates an output view video by warping the reference view video. For example, when the binocular parallax information of the reference view video is not provided, the video warping unit 310 may generate the binocular parallax information of the reference view video.

N個の入力映像(すなわち、N個の参照ビューの映像)がエピポーラ線(epipolar line)を基準として整列されている。   N input images (that is, N reference view images) are aligned with respect to an epipolar line.

仮想視点のビュー(すなわち、出力ビュー)は参照ビューから前記仮想視点のビューまで離隔された距離に比例する加重値を用いることによって生成される。すなわち、仮想視点のビューは、参照ビューの視点と仮想視点との間の距離に比例する加重値を用いることによって生成される。   The virtual viewpoint view (i.e., the output view) is generated by using a weight proportional to the distance separated from the reference view to the virtual viewpoint view. That is, the view of the virtual viewpoint is generated by using a weight value proportional to the distance between the viewpoint of the reference view and the virtual viewpoint.

出力ビュー映像内の第1ピクセルのy座標値は、第1ピクセルに対応する参照ビュー映像内の第2ピクセルのy座標値と同一であってもよい。すなわち、ピクセルのy座標はワーピングによって変更されなくてもよい。出力ビュー(またはレンダーリングされたビュー)映像内の第1ピクセルのx座標は下記の数式(1)によって算出されることができる。   The y coordinate value of the first pixel in the output view image may be the same as the y coordinate value of the second pixel in the reference view image corresponding to the first pixel. That is, the y coordinate of the pixel may not be changed by warping. The x coordinate of the first pixel in the output view (or rendered view) image can be calculated according to Equation (1) below.

ここで、Ireference viewは参照ビュー(または入力ビュー)の映像(またはフレーム)を示す。Irendered viewは出力ビュー(または、レンダーリングされたビュー)の映像(またはフレーム)を示す。 Here, Ireference view indicates the video (or frame) of the reference view (or input view). The rendered view shows the video (or frame) of the output view (or rendered view).

xは参照ビュー内の第2ピクセルの座標値(x座標値)を示す。x’は出力ビュー内の第1ピクセルの座標値(x座標値)を示す。   x indicates the coordinate value (x coordinate value) of the second pixel in the reference view. x ′ represents the coordinate value (x coordinate value) of the first pixel in the output view.

dは映像の深度情報またはピクセルの深度情報から導出された第2ピクセルの両眼視差(disparity)値である。一般に、ピクセルの両眼視差値はピクセルの深度値に反比例する。したがって、前述された深度及び深度情報に対する説明は両眼視差及び両眼視差情報にも適用され得る。αは参照ビューの視点と出力ビューの視点との間の距離に比例する加重値である。   d is a binocular disparity value of the second pixel derived from video depth information or pixel depth information. In general, the binocular disparity value of a pixel is inversely proportional to the pixel depth value. Therefore, the above description regarding depth and depth information may be applied to binocular parallax and binocular parallax information. α is a weight value proportional to the distance between the viewpoint of the reference view and the viewpoint of the output view.

したがって、前述された数式(1)は下記の(1)〜(5)を意味する。   Therefore, the mathematical formula (1) described above means the following (1) to (5).

(1)参照ビュー内の第2ピクセルはワーピングによってαdだけ移動する。すなわち、参照ビュー映像内の第2ピクセルと出力ビュー内の第1ピクセルが互いに対応する場合、第1ピクセルのx座標値は第2ピクセルのx座標値にαdを加えた値である。   (1) The second pixel in the reference view moves by αd by warping. That is, when the second pixel in the reference view image and the first pixel in the output view correspond to each other, the x coordinate value of the first pixel is a value obtained by adding αd to the x coordinate value of the second pixel.

(2)両眼視差値の大きいピクセルはワーピングによって多く移動する。両眼視差値は深度値に反比例する。したがって、深度値が小さいピクセルは深度値の大きいピクセルよりも多く移動する。   (2) Pixels having a large binocular disparity value move a lot due to warping. The binocular disparity value is inversely proportional to the depth value. Therefore, a pixel with a small depth value moves more than a pixel with a large depth value.

オブジェクトは参照ビューの視点から近く、背景は参照ビューの視点から遠い。したがって、参照ビュー映像のピクセルのうちオブジェクトを示すピクセルは背景を表すピクセルよりも多く移動する。   The object is near the reference view viewpoint and the background is far from the reference view viewpoint. Accordingly, the pixels representing the object among the pixels of the reference view image move more than the pixels representing the background.

深度値が無限のピクセル(または、両眼視差値が0であるピクセル)はワーピングによって移動されないことがある。   Pixels with infinite depth values (or pixels with binocular disparity values of 0) may not be moved by warping.

(3)参照ビューの視点及び出力ビューの視点が遠く離隔されるほど、参照ビュー内のピクセルはさらに多く移動する。   (3) The farther the reference view viewpoint and output view viewpoint are, the more pixels in the reference view move.

映像ワーピング部310は、前述された数式(1)に基づいたワーピングの他にも多様なワーピング方法を用いて出力ビューの映像を生成してもよい。   The video warping unit 310 may generate the video of the output view using various warping methods other than the warping based on the above-described formula (1).

(4)第1ピクセルの両眼視差値(または深度値)は第2ピクセルの両眼視差値(または深度値)である。   (4) The binocular parallax value (or depth value) of the first pixel is the binocular parallax value (or depth value) of the second pixel.

(5)参照ビュー映像内の1つ以上のピクセルが出力ビュー内の同一の座標に移動してもよい。このような場合、1つ以上のピクセルのうち最も出力ビューの視点と近いピクセルが優先的に表示される。   (5) One or more pixels in the reference view video may move to the same coordinates in the output view. In such a case, the pixel closest to the viewpoint of the output view among the one or more pixels is preferentially displayed.

緩衝区間設定部320は映像ワーピングによって生成されたホールを拡大する。緩衝区間設定部320によるホール拡大が図5を参照して下記で詳細に説明する。   The buffer interval setting unit 320 enlarges the hole generated by the video warping. The hole expansion by the buffer section setting unit 320 will be described in detail below with reference to FIG.

両眼視差クラック検出部330は、生成された出力ビューの映像のうちクラックをホールに設定する。両眼視差クラック検出部320によるホール設定が図6を参照して下記で詳細に説明される。   The binocular parallax crack detection unit 330 sets a crack in a hole in the generated video of the output view. The hole setting by the binocular parallax crack detection unit 320 will be described in detail below with reference to FIG.

隣接映像基盤ホール復元部340は映像ワーピングによって生成されたホールを復元する。隣接映像基盤ホール復元部340によるホール復元が図4を参照して下記で詳細に説明される。   The adjacent video base hole restoration unit 340 restores the holes generated by the video warping. The hole restoration by the adjacent image base hole restoration unit 340 will be described in detail below with reference to FIG.

隣接ピクセルスケーリング基盤ホール復元部350は、映像ワーピングによって生成されたホールを前記ホールと隣接する1つ以上のピクセルをスケーリングすることによって復元される。隣接ピクセルスケーリング基盤ホール復元部350による隣接の背景スケーリングが図7〜図9を参照して下記で詳細に説明される。   The adjacent pixel scaling base hole restoration unit 350 restores a hole generated by image warping by scaling one or more pixels adjacent to the hole. The adjacent background scaling by the adjacent pixel scaling base hole restoration unit 350 will be described in detail below with reference to FIGS.

最適パッチ探索基盤ホール復元部360は、前記映像ワーピングによって生成されたホールが含まれる領域と最も類似のパッチを背景から探索し、前記探索されたパッチを用いることによってホールを復元する。最適パッチ探索基盤ホール復元部360による最適パッチ探索及びホール復元について図10を参照して下記で詳細に説明される。   The optimal patch search base hole restoration unit 360 searches the background for a patch that is most similar to the region including the hole generated by the video warping, and restores the hole by using the searched patch. The optimum patch search and hole restoration by the optimum patch search base hole restoration unit 360 will be described in detail below with reference to FIG.

隣接映像基盤ホール復元部340によってホールの一部が復元された後、前記ホールの残った一部または一部らが隣接ピクセルスケーリング基盤ホール復元部350及び最適パッチ探索基盤ホール復元部360によって復元される。   After a part of the hole is restored by the adjacent video base hole restoration unit 340, the remaining part or part of the hole is restored by the adjacent pixel scaling base hole restoration unit 350 and the optimum patch search base hole restoration unit 360. The

隣接ピクセルスケーリング基盤ホール復元部350及び最適パッチ探索基盤ホール復元部360は、出力ビュー映像の背景ピクセルを用いることによって残ったホールを復元する。ホールに隣接する領域の特性に応じていかなる方式でホールが復元されるかを決定する。   The adjacent pixel scaling base hole restoration unit 350 and the optimum patch search base hole restoration unit 360 restore the remaining holes by using the background pixels of the output view image. Depending on the characteristics of the area adjacent to the hole, it is determined how the hole is restored.

例えば、ホールに隣接する領域がテクスチャ(texture)領域である場合には最適パッチ探索基盤ホール復元部360がホールを復元してもよい。ホールに隣接する領域がテクスチャ領域ではない場合には隣接ピクセルスケーリング基盤ホール復元部350がホールを復元してもよい。隣接ピクセルスケーリング基盤ホール復元部350は、背景画素をスケーリングするために、前記スケーリングによってテクスチャが損傷されることがある。   For example, when the region adjacent to the hole is a texture region, the optimal patch search base hole restoration unit 360 may restore the hole. If the area adjacent to the hole is not a texture area, the adjacent pixel scaling base hole restoration unit 350 may restore the hole. In order to scale the background pixels, the adjacent pixel scaling base hole restoration unit 350 may damage the texture due to the scaling.

すなわち、ホールに隣接する領域が均一であったりホールに隣接する領域で強いエッジ(edge)が現れる場合、背景ピクセルをスケーリングすることによってホール領域が復元され得る。このような復元によって復元されたホール領域でも隣接する領域(すなわち、背景)の特性が維持され得る。   That is, if the region adjacent to the hole is uniform or a strong edge appears in the region adjacent to the hole, the hole region can be restored by scaling the background pixels. Even in the hole area restored by such restoration, the characteristics of the adjacent area (that is, the background) can be maintained.

また、ホールに隣接する領域がテクスチャ領域である場合、参照ビュー映像内の背景領域で前記の隣接する領域と最も類似の領域が検出される。前記の検出された領域を用いてホール領域が復元される。このような復元によって復元されたホール領域でもテクスチャ成分が維持され得る。   When the area adjacent to the hole is a texture area, the most similar area to the adjacent area is detected in the background area in the reference view video. The hole area is restored using the detected area. The texture component can be maintained even in the hole area restored by such restoration.

図4は、一例に係る時間的に隣接する映像を用いたホールの復元を説明する。   FIG. 4 illustrates hole restoration using temporally adjacent images according to an example.

一連の時間的に隣接する映像のうち、視覚tにおける参照ビュー映像が視覚tにおける出力ビューイメージを生成するためのイメージワーピングで用いられてもよい。以下、特定の視覚tの映像を「映像(t)」または「現在の映像」と命名する。類似に、特定の視覚tのフレームは「フレーム(t)」または「現在のフレーム」と命名する。また、視覚t−1のフレームは「フレーム(t−1)」または「以前フレーム」と命名する。視覚t+1のフレームは「フレーム(t+1)」または「次のフレーム」と命名する。   Of a series of temporally adjacent videos, a reference view video at visual t may be used in image warping to generate an output view image at visual t. Hereinafter, the video of a specific visual t is named “video (t)” or “current video”. Similarly, a particular visual t frame is named “frame (t)” or “current frame”. The frame of the visual t−1 is named “frame (t−1)” or “previous frame”. The frame of the visual t + 1 is named “frame (t + 1)” or “next frame”.

図4において、出力ビューフレーム(t)440はホール442を含む。出力ビューフレーム(t)440は参照ビューフレーム(t)430をワーピングすることで生成される。   In FIG. 4, the output view frame (t) 440 includes a hole 442. The output view frame (t) 440 is generated by warping the reference view frame (t) 430.

一般に、映像(t)と時間的に隣接する映像(例えば、映像(t−1)、映像(t+1)、映像(t−2)及び映像(t+2)など)は前記映像(t)が示す前景(またはオブジェクト)及び背景と同一または類似の前景及び背景を表す。したがって、参照ビュー映像または出力ビュー映像と時間的に隣接する映像の情報を用いることで映像ワーピングによって生成されたホールが復元され得る。   In general, video (t) that is temporally adjacent (for example, video (t-1), video (t + 1), video (t-2), video (t + 2), etc.) is the foreground indicated by the video (t). (Or object) and the same or similar foreground and background as the background. Therefore, the holes generated by the video warping can be restored by using information of the video temporally adjacent to the reference view video or the output view video.

図4において、前景に対応するオブジェクトは上から下に移動する。したがって、参照ビューフレーム(t)430でオブジェクトに隠された背景に対応する部分412が参照ビューフレーム(t−1)410では現れる。また、参照ビューフレーム(t+1)450の部分452、出力ビューフレーム(t−1)420の部分422、及び出力ビューフレーム(t+1)460の部分462も参照ビューフレーム(t)430でオブジェクトから隠された背景に対応する。したがって、部分412、422、452及び462がホール442を復元するために用いられてもよい。隣接映像基盤ホール復元部340は、下記の数式(2)に基づいて出力ビューの映像(t)のホール442を復元してもよい。数式(2)は、出力ビューのフレームと時間的に隣接するフレームを用いて前記フレーム内のホールを復元する方法を説明する。   In FIG. 4, the object corresponding to the foreground moves from top to bottom. Accordingly, a portion 412 corresponding to the background hidden by the object in the reference view frame (t) 430 appears in the reference view frame (t−1) 410. Also, the portion 452 of the reference view frame (t + 1) 450, the portion 422 of the output view frame (t−1) 420, and the portion 462 of the output view frame (t + 1) 460 are also hidden from the object in the reference view frame (t) 430. Corresponding to the background. Accordingly, portions 412, 422, 452, and 462 may be used to restore hole 442. The adjacent video base hole restoration unit 340 may restore the hole 442 of the video (t) of the output view based on the following formula (2). Equation (2) describes a method for restoring holes in the frame using a frame temporally adjacent to the frame of the output view.

ここで、fは出力ビューフレーム(t)440を示す。すなわち、fは視覚tにおけるワーピングによって生成されたフレームを示す。f(i、j)は出力ビューフレーム(t)440のピクセルのうち座標値が(i、j)のピクセルのカラー値を示す。ここで、出力ビューフレーム(t)440において、座標値が(i、j)であるピクセルはホール442内のピクセルである。座標値が(i、j)のピクセルを以下「ピクセル(i、j)」のように示す。 Here, f t indicates an output view frame (t) 440. That, f t denotes a frame generated by warping in the visual t. f t (i, j) indicates the color value of the pixel having the coordinate value (i, j) among the pixels of the output view frame (t) 440. Here, in the output view frame (t) 440, the pixel whose coordinate value is (i, j) is the pixel in the hole 442. A pixel having a coordinate value of (i, j) is hereinafter denoted as “pixel (i, j)”.

t−1は出力ビューフレーム(t)440の以前フレーム、すなわち、出力ビューフレーム(t−1)420を示す。ft+1は出力ビューフレーム(t)440の次のフレーム、すなわち、出力ビューフレーム(t+1)460を示す。ft−1は出力ビューフレーム(t−1)420を示す。また、ft+1は出力ビューフレーム(t+1)460を示す。 f t−1 indicates the previous frame of the output view frame (t) 440, that is, the output view frame (t−1) 420. f t + 1 indicates the next frame of the output view frame (t) 440, that is, the output view frame (t + 1) 460. f t−1 indicates an output view frame (t−1) 420. F t + 1 indicates an output view frame (t + 1) 460.

すなわち、隣接映像基盤ホール復元部340は、出力ビューフレーム(t)440に時間的に隣接する出力ビューフレームを用いて映像ワーピングによって生成されたホールを復元してもよい。αt−1は出力ビューフレーム(t−1)420のピクセル(i、j)が出力ビューフレーム(t)440のピクセル(i、j)を復元するために用いられるかの有無を決定する係数である。αt−1は0または1の値を有し得る。αt−1が0である場合、出力ビューフレーム(t−1)420のピクセル(i、j)は出力ビューフレーム(t)440のピクセル(i、j)を復元するために使用されない。 That is, the neighboring video base hole restoration unit 340 may restore a hole generated by video warping using an output view frame temporally adjacent to the output view frame (t) 440. α t−1 is a coefficient that determines whether pixel (i, j) of output view frame (t−1) 420 is used to restore pixel (i, j) of output view frame (t) 440 It is. α t-1 may have a value of 0 or 1. If α t−1 is 0, pixel (i, j) of output view frame (t−1) 420 is not used to recover pixel (i, j) of output view frame (t) 440.

αt+1は出力ビューフレーム(t+1)460のピクセル(i、j)が出力ビューフレーム(t)440のピクセル(i、j)を復元するために用いられるかの有無を決定する係数である。αt+1は0または1の値を有し得る。αt+1が0である場合、出力ビューフレーム(t+1)460のピクセル(i、j)は出力ビューフレーム(t)440のピクセル(i、j)を復元するために使用されない。 α t + 1 is a coefficient that determines whether or not the pixel (i, j) of the output view frame (t + 1) 460 is used to restore the pixel (i, j) of the output view frame (t) 440. α t + 1 may have a value of 0 or 1. If α t + 1 is 0, pixel (i, j) of output view frame (t + 1) 460 is not used to recover pixel (i, j) of output view frame (t) 440.

αt−1及びαt+1が全て1である場合、出力ビューフレーム(t−1)420のピクセル(i、j)のカラー値、及び出力ビューフレーム(t+1)460のピクセル(i、j)のカラー値の平均値が出力ビューフレーム(t)440のピクセル(i、j)のカラー値となる。αt−1が0であり、αt+1は1である場合、出力フレーム(t)440のピクセル(i、j)のカラー値は出力ビューフレーム(t+1)460のピクセル(i、j)のカラー値である。αt−1が1であり、αt+1が0である場合、出力ビューフレーム(t)440のピクセル(i、j)のカラー値は出力ビューフレーム(t−1)420のピクセル(i、j)のカラー値である。 If α t−1 and α t + 1 are all 1, then the color value of pixel (i, j) of output view frame (t−1) 420 and the pixel (i, j) of output view frame (t + 1) 460 The average value of the color values becomes the color value of the pixel (i, j) of the output view frame (t) 440. When α t−1 is 0 and α t + 1 is 1, the color value of pixel (i, j) in output frame (t) 440 is the color of pixel (i, j) in output view frame (t + 1) 460. Value. When α t−1 is 1 and α t + 1 is 0, the color value of pixel (i, j) in output view frame (t) 440 is the pixel (i, j) in output view frame (t−1) 420. ) Color value.

ホールを復元するために用いられるピクセルは背景に含まれるピクセルと見なすことができる。一般に、背景はワーピングによって位置変更されない。例えば、参照ビューフレーム(t−1)410の部分412及び出力ビューフレーム(t−1)420の部分422は各フレーム内における位置及びカラーが同一であってもよい。すなわち、背景に含まれる第1ピクセルの参照ビューフレーム内における座標、及び前記の第1ピクセルに対応する第2ピクセルの出力ビューフレーム内における座標は同一である。   Pixels used to restore holes can be considered as pixels contained in the background. In general, the background is not repositioned by warping. For example, the portion 412 of the reference view frame (t−1) 410 and the portion 422 of the output view frame (t−1) 420 may have the same position and color in each frame. That is, the coordinates of the first pixel included in the background in the reference view frame and the coordinates of the second pixel corresponding to the first pixel in the output view frame are the same.

したがって、隣接映像基盤ホール復元部340は、時間的に隣接する参照ビューフレームを用いて映像ワーピングによって生成されたホールを復元してもよい。すなわち、数式(2)のft−1は参照ビューフレーム(t−1)410を示すf’t−1に代替されてもよく、ft+1は参照ビューフレーム(t+1)450を示すf’t+1に代替されてもよい、
類似するように、数式(2)におけるft−1及びft+1はそれぞれft−2及びft+2によって代替されてもよく、または任意の異なる時間的に隣接する出力ビューフレームによって代替されてもよい。また、数式(2)におけるft−1及びft+1はそれぞれf’t−2及びf’t+2によって代替されてもよく、または任意の異なる時間的に隣接する参照ビューフレームによって代替されてもよい。すなわち、隣接映像基盤ホール復元部340は、1つ以上の時間的に隣接する参照映像または1つ以上の時間的に隣接する出力映像を用いて映像ワーピングによって生成された出力ビュー映像内のホールを復元する。
Therefore, the adjacent video base hole restoration unit 340 may restore holes generated by video warping using temporally adjacent reference view frames. That is, f t−1 in Equation (2) may be replaced with f ′ t−1 indicating the reference view frame (t−1) 410, and f t + 1 indicates f ′ t + 1 indicating the reference view frame (t + 1) 450. May be substituted,
Similarly, ft -1 and ft + 1 in equation (2) may be replaced by ft-2 and ft + 2 , respectively, or by any different temporally adjacent output view frames. Good. Also, f t−1 and f t + 1 in equation (2) may be replaced by f ′ t−2 and f ′ t + 2 , respectively, or may be replaced by any different temporally adjacent reference view frames. . In other words, the adjacent video base hole restoration unit 340 generates holes in the output view video generated by video warping using one or more temporally adjacent reference videos or one or more temporally adjacent output videos. Restore.

数式(2)に基づいて、隣接映像基盤ホール復元部340は1つまたは2つの参照ビューフレームを用いて、言い換えれば、出力ビューフレーム(t−1)420及び出力ビューフレーム(t+1)460を用いてホール442を復元する。しかし、時間的に隣接する出力ビューフレーム(または、参照ビューフレーム)がホール442を復元するために用いられてもよい。例えば、視覚t−2、t−1、t+1及びt+2における出力ビューフレーム(または、参照ビューフレーム)または任意の他の3つ以上の時間的に隣接するイメージがホール442を復元するために用いられてもよい。   Based on Equation (2), the neighboring video base hole restoration unit 340 uses one or two reference view frames, in other words, the output view frame (t−1) 420 and the output view frame (t + 1) 460. The hole 442 is restored. However, temporally adjacent output view frames (or reference view frames) may be used to reconstruct the hole 442. For example, the output view frame (or reference view frame) at vision t-2, t-1, t + 1 and t + 2 or any other three or more temporally adjacent images may be used to restore hole 442. May be.

時間的に隣接する映像が視覚tにおける映像に対して対称的である必要はない。例えば、視覚tにおける映像内のホールは視覚t−2及びt−1における映像を用いて復元されてもよく、または、視覚t−3、t−2及びt−1における映像や任意の異なる時間的に非対称的である映像を用いて復元されてもよい。   The temporally adjacent images need not be symmetric with respect to the image at visual t. For example, a hole in the video at visual t may be restored using the video at visual t-2 and t-1, or the video at visual t-3, t-2 and t-1, or any different time May be restored using video that is asymmetric in nature.

また、時間的に隣接する映像の数は映像処理装置300の格納容量、参照ビュー映像の複雑度、及び出力ビュー映像の複雑度などに基づいて動的に変更されてもよい。   In addition, the number of temporally adjacent videos may be dynamically changed based on the storage capacity of the video processing device 300, the complexity of the reference view video, the complexity of the output view video, and the like.

数式(2)では、フレーム(t)のピクセルと同一の座標値を有するピクセルを用いてフレーム(t)のピクセルのカラー値を復元した。言い換えれば、前述の復元は一連の映像が時間に応じて全体的に移動していないことを前提とする。すなわち、いくつかの状況において映像の背景は全く、あるいはほとんど動かない。   In the formula (2), the color value of the pixel of the frame (t) is restored using the pixel having the same coordinate value as the pixel of the frame (t). In other words, the above-described restoration is based on the premise that a series of images are not moved as a whole according to time. That is, the background of the image does not move at all or hardly in some situations.

時間に応じて映像が全体的に移動した場合、出力ビューフレーム(t)440のピクセルのカラー値を復元するために、このような移動は考慮されるべきである。   If the video moves globally as a function of time, such movement should be taken into account to restore the color values of the pixels of the output view frame (t) 440.

例えば、出力ビューフレーム(t)440が出力ビューフレーム(t−1)420(または、出力ビューフレーム(t)410)に比べて全体的に左側に1ピクセルだけ移動した場合、出力ビューフレーム(t)440のピクセル(i、j)のカラー値を設定するためには、出力ビューフレーム(t−1)440(または、参照ビューフレーム(t)410)のピクセル(i+1、j)のカラー値を使用しなければならない。   For example, when the output view frame (t) 440 is moved to the left by one pixel as a whole compared to the output view frame (t−1) 420 (or the output view frame (t) 410), the output view frame (t) ) To set the color value of 440 pixels (i, j), the color value of pixel (i + 1, j) of output view frame (t−1) 440 (or reference view frame (t) 410) is Must be used.

すなわち、隣接映像基盤ホール復元部340は出力ビュー映像(t)のホール内の第1ピクセルを復元するために、出力ビュー映像(t)と隣接する出力ビュー映像内の前記第1ピクセルに対応するピクセルのカラー値を用いてもよい。または、隣接映像基盤ホール復元部340は出力ビュー映像(t)のホール内の第1ピクセルを復元するために、参照ビュー映像(t)と隣接する参照ビュー映像内の前記第1ピクセルに対応するピクセルのカラー値を用いてもよい。   That is, the neighboring image base hole restoration unit 340 corresponds to the first pixel in the output view image adjacent to the output view image (t) in order to restore the first pixel in the hole of the output view image (t). Pixel color values may be used. Alternatively, the neighboring video base hole restoration unit 340 corresponds to the first pixel in the reference view video adjacent to the reference view video (t) in order to restore the first pixel in the hole of the output view video (t). Pixel color values may be used.

また、隣接映像基盤ホール復元部340は、参照ビュー映像(t)及び参照ビュー映像(t)に時間的に隣接する映像が時間に応じて全体的に移動した場合、前記移動に基づいて参照ビュー映像(t)(または、出力ビュー映像(t))と隣接する参照ビュー映像(または、出力ビュー映像)内で第1ピクセルに対応するピクセルを選択してもよい。隣接映像基盤ホール復元部340は、下記の数式(3)に基づいて係数αを決定することができる。   In addition, when the video adjacent in time to the reference view video (t) and the reference view video (t) moves as a whole according to time, the adjacent video base hole restoration unit 340 may perform a reference view based on the movement. A pixel corresponding to the first pixel may be selected in the reference view video (or output view video) adjacent to the video (t) (or output view video (t)). The adjacent video base hole restoration unit 340 can determine the coefficient α based on the following formula (3).

D(f(i、j))は出力ビューフレーム(t)440のピクセル(i、j)の両眼視差値である。Thは予め定義された閾値である。したがって、αの値はf(i、j)がホールピクセルではなく、f(i、j)の両眼視差値が予め定義された閾値の場合には1であり、そうではない場合には0である。 D ( ft (i, j)) is the binocular parallax value of the pixel (i, j) of the output view frame (t) 440. Th is a predefined threshold value. Therefore, the value of α t is 1 when f t (i, j) is not a hole pixel, and the binocular parallax value of f t (i, j) is a predefined threshold value, otherwise Is 0.

まず、f(i、j)がホールを示すホールピクセルであるか否かが判断される。f(i、j)がホールピクセルである場合、f(i、j)のカラー値は存在しないか、誤った値である。したがって、f(i、j)のカラー値は出力ビュー映像内のホールを復元するために用いられることができない。したがって、αの値は0になる。 First, it is determined whether or not f t (i, j) is a hole pixel indicating a hole. If f t (i, j) is a hole pixel, the color value of f t (i, j) does not exist or is an incorrect value. Therefore, the color values of f t (i, j) can not be used to restore the holes in the output view video. Therefore, the value of α t is 0.

すなわち、隣接映像基盤ホール復元部340は時間的に隣接する参照ビュー映像内の対応するホールピクセルを除くことによって、出力ビュー映像t内のホールを復元してもよい。また、隣接映像基盤ホール復元部340は、時間的に隣接する出力ビュー映像内に含まれた対応するホールピクセルを除くことによって出力ビュー映像内のホールを復元してもよい。   That is, the adjacent video base hole restoration unit 340 may restore holes in the output view video t by removing corresponding hole pixels in the temporally adjacent reference view video. Further, the adjacent video base hole restoration unit 340 may restore holes in the output view video by removing corresponding hole pixels included in the temporally adjacent output view video.

次に、f(i、j)がホールピクセルではない場合、f(i、j)が前景を表すピクセルであるか、または背景を表すピクセルであるか否かが判断される。 Next, if f t (i, j) is not a hole pixel, it is determined whether f t (i, j) is a pixel representing the foreground or a pixel representing the background.

マルチビューレンダリングによって発生するホールは、参照ビュー映像では前景に隠されて見られていない背景の一部がワーピングによって生成された出力ビュー映像に現れたものである。または、ホールは前記の背景の一部を含んでもよい。   A hole generated by the multi-view rendering is a part of the background that is hidden in the foreground in the reference view video and appears in the output view video generated by warping. Alternatively, the hole may include a part of the background.

したがって、f(i、j)が背景を表す背景ピクセルの場合にのみf(i、j)が出力ビュー映像内のホールを復元はするために用いられてもよい。 Therefore, f t (i, j) may be used to restore a hole in the f t (i, j) is output view image only if a background pixels representing background.

すなわち、隣接映像基盤ホール復元部340は、時間的に隣接する参照ビュー映像内の対応する背景ピクセルのみを用いて出力ビュー映像t内のホールを復元する。また、隣接映像基盤ホール復元部340は、時間的に隣接する出力ビュー映像内の対応する背景ピクセルのみを用いて出力ビュー映像t内のホールを復元する。   That is, the adjacent video base hole restoration unit 340 restores a hole in the output view video t using only the corresponding background pixels in the temporally adjacent reference view video. Further, the adjacent video base hole restoration unit 340 restores a hole in the output view video t by using only the corresponding background pixel in the temporally adjacent output view video.

(i、j)が前景を表す前景ピクセルであるか、または背景を表す背景ピクセルであるか否かは、f(i、j)の両眼視差値に基づいて決定される。 Whether f t (i, j) is a foreground pixel representing the foreground or a background pixel representing the background is determined based on the binocular disparity value of f t (i, j).

一般に、前景を表すピクセルは背景を表すピクセルよりも大きい両眼視差値を有する。   In general, pixels representing the foreground have a larger binocular disparity value than pixels representing the background.

したがって、f(i、j)の両眼視差値が基準値Thよりも小さい場合、隣接映像基盤ホール復元部340はf(i、j)を背景ピクセルと見なし、f(i、j)をホールを復元するために用いてもよい。 Therefore, f t (i, j) when the binocular parallax value is smaller than the reference value Th, considers the adjacent image-based hole recovery unit 340 f t (i, j) and the background pixels, f t (i, j ) May be used to restore the hole.

図5は、一例に係る緩衝区間の設定によるホール拡大を説明する。図5において、出力ビュー映像510及び緩衝領域522、524が表示された出力ビュー映像520を示す。   FIG. 5 illustrates hole expansion by setting a buffer section according to an example. FIG. 5 shows an output view image 520 on which an output view image 510 and buffer areas 522 and 524 are displayed.

マルチビューレンダリングにおいて用いられるピクセルの両眼視差値は、ピクセルの物理的な深度値を変換することによって取得され得る。また、ピクセルの両眼視差値は参照映像を用いる推定によって決定されてもよい。   The binocular disparity value of the pixel used in multi-view rendering can be obtained by converting the physical depth value of the pixel. Also, the binocular disparity value of the pixel may be determined by estimation using a reference image.

ピクセルの両眼視差値は(特に、推定によって取得された場合)マッチングエラーなどによって誤った値を有することがある。ピクセルの両眼視差値が誤った場合、出力ビュー映像510のオブジェクトと背景との間の境界は両眼視差映像のオブジェクトと背景との間の境界と一致しないこともある。出力ビュー映像510のホール領域512の左側にあるピクセルは、前述の不一致によって前景を表すピクセルであるにも係わらず背景を表すカラー値を有する。   The binocular disparity value of a pixel may have an incorrect value due to a matching error (especially when obtained by estimation). If the binocular disparity value of the pixel is incorrect, the boundary between the object of the output view image 510 and the background may not match the boundary between the object of the binocular disparity image and the background. The pixel on the left side of the hole area 512 of the output view image 510 has a color value representing the background even though it is a pixel representing the foreground due to the above-described mismatch.

すなわち、推定された両眼視差値が用いられる場合、この問題を防止するためにホールに隣接する領域が緩衝領域として設定される必要がある。   That is, when the estimated binocular disparity value is used, an area adjacent to the hole needs to be set as a buffer area in order to prevent this problem.

したがって、緩衝区間設定部320は、ホールに隣接する緩衝領域522及び524をホールと見なすことによってホールを拡大する。   Accordingly, the buffer section setting unit 320 expands the hole by regarding the buffer areas 522 and 524 adjacent to the hole as holes.

緩衝区間設定部320は、ホール(またはホールの最外郭の地点)からの距離が予め定義された閾値よりも小さいピクセルを緩衝領域として設定してもよい。緩衝領域内のピクセルのカラー値が復元される場合、下記の数式(4)が用いられてもよい。   The buffer section setting unit 320 may set a pixel whose distance from the hole (or the outermost point of the hole) is smaller than a predetermined threshold as the buffer area. When the color value of the pixel in the buffer area is restored, the following formula (4) may be used.

数式(4)では、フレーム(t)の以前フレームのピクセルのカラー値及び以後フレームのピクセルのカラー値のみならず、フレーム(t)のピクセル(i、j)(すなわち、カラー値が復元されるピクセル自身)のカラー値も復元のために用いられる。緩衝領域内のピクセル(i、j)は初めからホールであったピクセルとは異なって既にカラー値を有する。したがって、緩衝領域内のピクセル(i、j)自身のカラー値がホールと見なされた緩衝領域内のピクセル(i、j)を復元するために用いられてもよい。 In the equation (4), not only the color value of the pixel of the previous frame of the frame (t) and the color value of the pixel of the subsequent frame, but also the pixel (i, j) (that is, the color value of the frame (t) is restored. The color value of the pixel itself is also used for restoration. The pixel (i, j) in the buffer region already has a color value, unlike the pixel that was originally a hole. Thus, the color value of the pixel (i, j) in the buffer area itself may be used to recover the pixel (i, j) in the buffer area that was considered a hole.

すなわち、隣接映像基盤ホール復元部340は緩衝領域内の第1ピクセルを復元する場合、第1ピクセルのカラー値に基づいて第1ピクセルを復元する。   That is, when restoring the first pixel in the buffer area, the neighboring video base hole restoration unit 340 restores the first pixel based on the color value of the first pixel.

図6は、一例に係るクラックの発生及び両眼視差クラックの検出によるホール設定を説明する。図6において、参照ビュー映像610及び参照ビュー映像610の両眼視差映像620を示す。   FIG. 6 illustrates hole setting based on the occurrence of cracks and detection of binocular parallax cracks according to an example. In FIG. 6, the binocular parallax image 620 of the reference view image 610 and the reference view image 610 is shown.

図示するように、両眼視差映像620の第1部分622及び第2部分624は互いに異なる両眼視差値を有する。一般に、第1部分622及び第2部分624は同じオブジェクトを示すため、互いに同一であるか類似の両眼視差値を有するべきである。しかし、特に、両眼視差値が推定された場合、第1部分622及び第2部分624は互いに異なる両眼視差値を有することがある。   As illustrated, the first portion 622 and the second portion 624 of the binocular parallax image 620 have different binocular parallax values. In general, the first portion 622 and the second portion 624 should have the same or similar binocular disparity value to each other to represent the same object. However, particularly when the binocular disparity value is estimated, the first portion 622 and the second portion 624 may have different binocular disparity values.

第1部分622及び第2部分624は互いに異なる両眼視差値を有するため、ワーピングによって移動する距離が互いに異なる。第1部分622及び第2部分624が互いに異なる距離を移動するため、ワーピングによって生成された出力ビュー映像630内で、第1部分622に対応する部分及び第2部分624に対応する部分の間にクラック632が発生することがある。   Since the first portion 622 and the second portion 624 have different binocular parallax values, the distance moved by warping is different. Since the first portion 622 and the second portion 624 move at different distances, the portion corresponding to the first portion 622 and the portion corresponding to the second portion 624 in the output view image 630 generated by warping. Cracks 632 may occur.

このようなクラック632が発生した部分では前景ではない背景が表示されることがある。すなわち、第1部分622及び第2部分624の代わりに背景が表示されてもよい。このように、クラック632は、互いに異なる両眼視差値のためにオブジェクト(または、オブジェクトの分離された部分)の間で背景が表示された部分を意味する。すなわち、オブジェクトの部分に前記両眼視差値が割り当てられ、前記オブジェクトがワーピングされるとき前記オブジェクトの内部でクラックが発生する。   A background other than the foreground may be displayed at the portion where such a crack 632 occurs. That is, the background may be displayed instead of the first part 622 and the second part 624. As described above, the crack 632 means a portion where a background is displayed between objects (or separated portions of the object) due to different binocular parallax values. That is, when the binocular disparity value is assigned to an object portion and the object is warped, a crack is generated inside the object.

クラック632が発生した部分では背景のカラー値がワーピングされる。したがって、クラック632によって出力ビュー映像の画質が劣化される恐れがある。もし、クラック632がホールに設定されれば、クラック632が現れた部分にもホールの復元方法が適用され得る。したがって、クラック632による画質劣化の減少を図ることができる。   In the portion where the crack 632 occurs, the background color value is warped. Therefore, the image quality of the output view image may be deteriorated by the crack 632. If the crack 632 is set to a hole, the hole restoration method can be applied to a portion where the crack 632 appears. Therefore, image quality deterioration due to the crack 632 can be reduced.

両眼視差クラック検出部330は出力ビュー映像でクラックを検出する。両眼視差クラック検出部330はクラックが発生した部分をホールに設定する。クラックは下記の数式(5)に基づいて検出されることができる。   The binocular parallax crack detection unit 330 detects a crack in the output view image. The binocular parallax crack detection unit 330 sets a hole where the crack has occurred. Cracks can be detected based on Equation (5) below.

ここで、Di、jは出力ビュー映像630内のピクセル(i、j)642の両眼視差値である。ピクセル(i、j)642はクラックであるか否かを検査するピクセルである。Di+m、j+nはピクセル(i、j)と隣接するピクセル(i+m、j+n)の両眼視差値である。Thは予め定義された閾値である。 Here, D i, j is the binocular parallax value of the pixel (i, j) 642 in the output view video 630. Pixel (i, j) 642 is a pixel that checks whether or not it is a crack. D i + m, j + n is the binocular parallax value of the pixel (i + m, j + n) adjacent to the pixel (i, j). Th is a predefined threshold value.

出力ビュー映像630内のピクセルと隣接するピクセル644との間の両眼視差値における差の総和が予め定義された閾値よりも大きい場合、両眼視差クラック検出部330は前記ピクセルをクラックとして検出する。   If the sum of differences in binocular disparity values between a pixel in the output view image 630 and an adjacent pixel 644 is greater than a predefined threshold, the binocular disparity crack detection unit 330 detects the pixel as a crack. .

クラックは、前景が現れる領域に背景ピクセルがワーピングされたことによって発生する。したがって、クラック地点に位置する背景ピクセルの両眼視差値と前記背景ピクセルの周囲に隣接する前景ピクセルの両眼視差値との間の差は大きい。   Cracks occur when background pixels are warped in the area where the foreground appears. Therefore, the difference between the binocular disparity value of the background pixel located at the crack point and the binocular disparity value of the foreground pixels adjacent to the background pixel is large.

したがって、数式(5)のように、隣接のピクセル644との両眼視差値の差に基づいてクラックが検出され得る。また、検出されたクラックをホールに割り当てることによって画質劣化を補償することができる。   Therefore, as in Equation (5), a crack can be detected based on the difference in binocular parallax value with the adjacent pixel 644. Further, image quality deterioration can be compensated by assigning the detected crack to a hole.

図6において図示された隣接のピクセル544は例示的なものである。出力ビュー内の第1ピクセルと離隔されたピクセルの任意の組合が前記第1ピクセルの隣接のピクセルとして用いられてもよい。   The adjacent pixel 544 illustrated in FIG. 6 is exemplary. Any combination of pixels spaced from the first pixel in the output view may be used as an adjacent pixel of the first pixel.

図7は、一例に係る隣接のピクセルスケーリングを説明する。隣接ピクセルスケーリング基盤ホール復元部350は、映像710のホールを復元するために前記ホールに隣接する1つ以上のピクセルを用いる。   FIG. 7 illustrates adjacent pixel scaling according to an example. The adjacent pixel scaling base hole restoration unit 350 uses one or more pixels adjacent to the hole to restore the hole of the image 710.

隣接ピクセルスケーリング基盤ホール復元部350は水平方向にピクセルをスケーリングしてもよい。   The adjacent pixel scaling base hole restoration unit 350 may scale the pixels in the horizontal direction.

ホール復元の対象となる水平線712が示された。隣接ピクセルスケーリング基盤ホール復元部350は、水平線712の内でホールを検出し、連続するホールピクセル730の数を検出する。   A horizontal line 712 is shown that is subject to hole restoration. The adjacent pixel scaling base hole restoration unit 350 detects holes in the horizontal line 712 and detects the number of consecutive hole pixels 730.

隣接ピクセルスケーリング基盤ホール復元部350は、ホールを検出するために水平方向にスキャンを行う。隣接ピクセルスケーリング基盤ホール復元部350は、連続するホールピクセル730の数と同じ個だけのピクセル740を選択する。選択されたピクセルは一般的にホールではないピクセルである。選択されたピクセル740は、連続するホールピクセル730と隣接するピクセルである。選択されたピクセル740は、連続するホールピクセル730と同一の水平線上にあるピクセルであってもよい。   The adjacent pixel scaling base hole restoration unit 350 scans in the horizontal direction to detect holes. The adjacent pixel scaling base hole restoration unit 350 selects only the same number of pixels 740 as the number of consecutive hole pixels 730. The selected pixel is generally a pixel that is not a hole. The selected pixel 740 is a pixel adjacent to a continuous hole pixel 730. The selected pixel 740 may be a pixel on the same horizontal line as consecutive hole pixels 730.

図7において、選択されたピクセル740は連続するホールピクセル730の右側にあるピクセルである。しかし、連続するホールピクセル730の左側にあるピクセルも選択されたピクセル740であってもよい。また、選択されたピクセル740は、連続するホールピクセル730の右側にあるピクセル及び左側にあるピクセルであってもよい。   In FIG. 7, the selected pixel 740 is the pixel to the right of successive hole pixels 730. However, the pixel to the left of successive hole pixels 730 may also be the selected pixel 740. Also, the selected pixel 740 may be a pixel on the right side and a pixel on the left side of the continuous hole pixel 730.

隣接ピクセルスケーリング基盤ホール復元部350は、選択されたピクセル740をホールピクセル730に向かう方向にスケーリングすることによってホールを復元する。   The adjacent pixel scaling base hole restoration unit 350 restores holes by scaling the selected pixel 740 in a direction toward the hole pixel 730.

例えば、最初に選択されたピクセルのカラー値を用いて最初のホールピクセル及び2番目のホールピクセルのカラー値が生成される。したがって、最初のホールピクセル及び2番目のホールピクセルは最初に選択されたピクセルによって復元される。   For example, the color values of the first hole pixel and the second hole pixel are generated using the color value of the first selected pixel. Thus, the first hole pixel and the second hole pixel are restored by the first selected pixel.

選択されたピクセル740のスケーリングは、選択されたピクセル740が示す領域が2倍に増加され、増加された領域がホールピクセル730及び選択されたピクセル740が示す領域を代替してもよい。   The scaling of the selected pixel 740 may double the area indicated by the selected pixel 740, and the increased area may replace the area indicated by the hole pixel 730 and the selected pixel 740.

ここで、ホールピクセル730の数及び選択されたピクセル740の数は互いに同一である。したがって、選択されたピクセル740がそれぞれ2つのピクセルにスケーリングされることによって全てのホールが復元され得る。また、選択されたピクセル740は全て均等にスケーリングされ得る。   Here, the number of hole pixels 730 and the number of selected pixels 740 are the same. Thus, all holes can be restored by scaling each selected pixel 740 to two pixels. Also, all selected pixels 740 can be scaled equally.

図8は、一例に係る背景ピクセルを用いる隣接のピクセルスケーリングを説明する。   FIG. 8 illustrates adjacent pixel scaling using background pixels according to an example.

隣接ピクセルスケーリング基盤ホール復元部350は、連続するホールピクセル810の数と同じ数だけのホールではないピクセル820を選択する。ホールではないピクセル820それぞれは両眼視差値を有する。隣接ピクセルスケーリング基盤ホール復元部350は、ホールではないピクセル820それぞれを両眼視差値に応じて前景ピクセルまたは背景ピクセルに分類する。   The adjacent pixel scaling base hole restoration unit 350 selects pixels 820 that are not the same number of holes as the number of consecutive hole pixels 810. Each pixel 820 that is not a hole has a binocular disparity value. The adjacent pixel scaling base hole restoration unit 350 classifies each pixel 820 that is not a hole as a foreground pixel or a background pixel according to the binocular disparity value.

例えば、隣接ピクセルスケーリング基盤ホール復元部350は、ホールではないピクセル820のうち、両眼視差値が予め定義された閾値よりも大きいピクセルを前景ピクセルに分類し、両眼視差値が予め定義された閾値以下のピクセルを背景ピクセルに分類する。   For example, the adjacent pixel scaling-based hole restoration unit 350 classifies pixels that are larger than a threshold value that is a binocular disparity value among pixels 820 that are not holes as foreground pixels, and the binocular disparity value is defined in advance. Pixels below the threshold are classified as background pixels.

図8において、前の3つのピクセル830は背景ピクセルに分類され、最後のピクセル840は前景ピクセルに分類される。隣接ピクセルスケーリング基盤ホール復元部350は、背景ピクセル830をホールピクセル810に向かう方向にスケーリングすることによってホールを復元してもよい。   In FIG. 8, the previous three pixels 830 are classified as background pixels, and the last pixel 840 is classified as a foreground pixel. The adjacent pixel scaling base hole restoration unit 350 may restore a hole by scaling the background pixel 830 in a direction toward the hole pixel 810.

ここで、背景ピクセル830の数は、ホールピクセル810の数よりも少なくてもよい。したがって、背景ピクセル830の全てまたは一部は2つ以上のピクセルにスケーリングされる。また、背景ピクセル840は非均等にスケーリングされてもよい。前景ピクセル840はスケーリングから除外される。したがって、スケーリングによって前景映像が変形されることを防止することができる。   Here, the number of background pixels 830 may be smaller than the number of hole pixels 810. Thus, all or part of the background pixel 830 is scaled to more than one pixel. Also, the background pixels 840 may be scaled non-uniformly. Foreground pixels 840 are excluded from scaling. Therefore, the foreground image can be prevented from being deformed by scaling.

前述のスケーリング方法は、図7におけるスキャン方向の水平方向にのみピクセル740または830を拡張させる。したがって、このようなスケーリング方法によって容易に実現することができる。また、このようなスケーリング方法が用いられた場合、小さいサイズのホールが復元されたとしても画質の劣化がそれ程認知されない。   The above-described scaling method expands the pixel 740 or 830 only in the horizontal direction of the scan direction in FIG. Therefore, it can be easily realized by such a scaling method. In addition, when such a scaling method is used, even if a small-sized hole is restored, deterioration in image quality is not recognized so much.

図9は、一例に係る背景の勾配(gradient)に垂直な方向にスケーリングについて説明する。   FIG. 9 illustrates scaling in a direction perpendicular to a background gradient according to an example.

出力ビュー映像910はホール912を含む。背景914のうち特定の形状916があり、前述の水平方向へのスケーリングが使用されれば、形状916が円滑に維持されない可能性もある。   The output view image 910 includes a hole 912. If there is a specific shape 916 in the background 914 and the horizontal scaling described above is used, the shape 916 may not be maintained smoothly.

したがって、このような形状916はホール912内に含まれた形状916のエッジ(edge)918の方向924と垂直方向926にスケーリングされる必要がある。   Accordingly, such a shape 916 needs to be scaled in the direction 924 and the vertical direction 926 of the edge 918 of the shape 916 contained within the hole 912.

隣接ピクセルスケーリング基盤ホール復元部350はホール912に隣接する背景ピクセル922を選択する。隣接ピクセルスケーリング基盤ホール復元部350は、背景ピクセル922を含むエッジ918の勾配を算出する。背景ピクセル922を含むエッジ918のその勾配は背景ピクセル922の勾配である。隣接ピクセルスケーリング基盤ホール復元部350は、エッジ918の勾配の垂直方向に連続するホールピクセルの数を検出する。隣接ピクセルスケーリング基盤ホール復元部350は、検出された連続するホールピクセルを復元できるようにエッジ918の勾配の垂直方向に背景ピクセルをスケーリングする。   The adjacent pixel scaling base hole restoration unit 350 selects a background pixel 922 adjacent to the hole 912. The adjacent pixel scaling base hole restoration unit 350 calculates the gradient of the edge 918 including the background pixel 922. The slope of edge 918 including background pixel 922 is the slope of background pixel 922. The adjacent pixel scaling base hole restoration unit 350 detects the number of hole pixels continuous in the vertical direction of the gradient of the edge 918. The adjacent pixel scaling base hole restoration unit 350 scales the background pixels in the vertical direction of the gradient of the edge 918 so that the detected consecutive hole pixels can be restored.

すなわち、隣接ピクセルスケーリング基盤ホール復元部350は、ホール912に隣接する背景ピクセル922の勾配と垂直方向に前記隣接する背景ピクセル922を含む背景ピクセル(または、背景の一部)をスケーリングすることによってホールを復元してもよい。前記の背景ピクセルは背景ピクセル922を含む形状916を示す。   That is, the adjacent pixel scaling base hole restoration unit 350 scales the background pixel (or part of the background) including the adjacent background pixel 922 in a direction perpendicular to the gradient of the background pixel 922 adjacent to the hole 912. May be restored. The background pixel shows a shape 916 that includes a background pixel 922.

ここで、隣接ピクセルスケーリング基盤ホール復元部350は、背景ピクセル922の勾配と垂直方向に連続するホールピクセルの数を検出し、検出されたホールピクセルの数に基づいてスケーリングに用いられる背景ピクセルを決定し、背景ピクセルがどれ程スケーリングされるかを決定する。   Here, the adjacent pixel scaling base hole restoration unit 350 detects the number of hole pixels that are continuous in the vertical direction with respect to the gradient of the background pixel 922, and determines the background pixel used for scaling based on the detected number of hole pixels. And how much the background pixels are scaled.

前述した背景ピクセル922の勾配と垂直方向へのスケーリングを用いることによって、隣接ピクセルスケーリング基盤ホール復元部350は背景ピクセル(例えば、形状916)の方向性を維持する上にホール領域を復元することができる。   By using the scaling of the background pixel 922 and the vertical scaling described above, the adjacent pixel scaling base hole restoration unit 350 may restore the hole region while maintaining the directionality of the background pixel (eg, the shape 916). it can.

背景の勾配を用いるスケーリング方法によって背景ピクセルはエッジに直角の方向にスケーリングできる。したがって、背景の勾配を用いるスケーリング方法は、水平方向に行われるスケーリング方法に比べて更に自然な結果を達成できる。背景の勾配を用いるスケーリング方法は相対的に複雑な演算を行わなければならない。   Background pixels can be scaled in a direction perpendicular to the edge by a scaling method using a background gradient. Therefore, the scaling method using the background gradient can achieve a more natural result than the scaling method performed in the horizontal direction. Scaling methods using background gradients must perform relatively complex operations.

図10は、一実施形態に係る最適パッチ探索に基づいたホールの復元を説明する。   FIG. 10 illustrates hole restoration based on an optimal patch search according to one embodiment.

出力ビュー映像1010はホールを含む。ホールに隣接する背景がテクスチャ領域である場合、単に背景ピクセルをスケーリングすることではホールを正確に復元することができない。   The output view image 1010 includes a hole. If the background adjacent to the hole is a texture region, the hole cannot be accurately restored by simply scaling the background pixels.

ホールに隣接する背景がテクスチャである場合、全体の背景領域において、前記ホールに隣接する背景と最も類似のパッチを検出する。検出されたパッチを用いてホールを復元する。すなわち、ホールに隣接する背景が有するテクスチャと同一または極めて類似するテクスチャが他の背景領域で発見される場合、他の背景領域に隣接する部分がホールを復旧するために用いられてもよい。   When the background adjacent to the hole is a texture, a patch that is most similar to the background adjacent to the hole is detected in the entire background region. The hole is restored using the detected patch. That is, when a texture that is the same as or very similar to the texture of the background adjacent to the hole is found in another background region, the portion adjacent to the other background region may be used to restore the hole.

まず、パッチを用いて復元する地点を決定する方法について検討する。   First, consider how to determine a point to restore using a patch.

背景に隣接するホールから優先処理する方式を用いる。ホールの領域のうち、背景に隣接する部分から順に復元される方法を用いることによって、ホールの復元過程で前景ピクセルが混合されることが構造的に制限されることがある。   A method of preferential processing from holes adjacent to the background is used. By using a method in which the region of the hole is restored in order from the portion adjacent to the background, the foreground pixels may be structurally limited in the hole restoration process.

最適パッチ探索基盤ホール復元部360は、ラスター(raster)スキャン方向にホールピクセルを検出する。検出された初期ホール地点1012は前景と隣接する。したがって、優先的に復元されるためには適しない地点である。最適パッチ探索基盤ホール復元部360は、初期ホール地点1012からスキャン方向に連続するホールピクセルを検出する。最適パッチ探索基盤ホール復元部360は、連続するホールピクセルの先端を最外郭ホール地点1014に設定する。最外郭ホール地点1014は背景と隣接する。したがって、前記最外郭ホール地点1014と隣接し、ホールではないピクセルのカラー値及び両眼視差値を用いることによって最外郭ホール地点1014の周囲のホール領域を復旧することのできるパッチが検索される。   The optimal patch search base hole restoration unit 360 detects a hole pixel in a raster scan direction. The detected initial hall point 1012 is adjacent to the foreground. Therefore, the point is not suitable for preferential restoration. The optimal patch search base hole restoration unit 360 detects hole pixels continuous in the scanning direction from the initial hole point 1012. The optimum patch search base hole restoration unit 360 sets the tips of consecutive hole pixels as the outermost hole point 1014. The outermost hall point 1014 is adjacent to the background. Therefore, a patch that is adjacent to the outermost hole point 1014 and can recover the hole area around the outermost hole point 1014 by using the color value and binocular parallax value of a pixel that is not a hole is searched.

最適パッチ探索基盤ホール復元部360は、設定された最外郭ホール地点1014に対して最適パッチ探索基盤ホールの復元を行う。下記では最適パッチ探索基盤ホールの復元について説明する。最適パッチ探索基盤ホール復元部360は、最外郭ホール地点1014と隣接する領域をウィンドウ領域1016に設定する。ウィンドウ領域1016はN×Nのピクセルであってもよい。   The optimal patch search base hole restoration unit 360 restores the optimal patch search base hole to the set outermost hole point 1014. The following explains how to restore the optimal patch search base hole. The optimal patch search base hole restoration unit 360 sets an area adjacent to the outermost hole point 1014 as the window area 1016. The window area 1016 may be N × N pixels.

ウィンドウ領域1016はホール領域1020及び背景領域1018を含む。背景領域1018はパッチを探索するために用いられる。ホール領域1020は探索されたパッチを用いることによって復旧する領域である。   The window area 1016 includes a hole area 1020 and a background area 1018. The background area 1018 is used to search for patches. The hole area 1020 is an area that is restored by using the searched patch.

最適パッチ探索基盤ホール復元部360は、全体背景領域でウィンドウ領域1016に対応する最適のパッチを検出し、検出されたパッチを用いて設定された最外郭ホール地点1014及びホール領域1020を復元する。最適のパッチは全体背景領域のうちウィンドウ領域1016と最も類似度の高い領域を意味する。   The optimum patch search base hole restoration unit 360 detects an optimum patch corresponding to the window area 1016 in the entire background area, and restores the outermost hole point 1014 and the hole area 1020 set using the detected patch. The optimum patch means an area having the highest similarity with the window area 1016 in the entire background area.

パッチはウィンドウ領域1016と同一の大きさを有する。パッチもホール領域1020に対応する部分及び背景領域1018に対応する部分から構成される。パッチとウィンドウ領域1016との間の類似度が算出されてもよい。パッチはウィンドウ領域1016と同一の大きさを有し、ホール領域1020に対応する部分及び背景領域1018に対応する部分から構成される。   The patch has the same size as the window area 1016. The patch also includes a part corresponding to the hole area 1020 and a part corresponding to the background area 1018. The similarity between the patch and the window area 1016 may be calculated. The patch has the same size as the window area 1016 and is composed of a part corresponding to the hole area 1020 and a part corresponding to the background area 1018.

特定の部分とウィンドウ領域1016との間の類似度が算出される場合、ホール領域1020は類似度の算出から除外され、背景領域1018のみが類似度の算出のために用いられる。   When the similarity between the specific part and the window area 1016 is calculated, the hole area 1020 is excluded from the calculation of the similarity, and only the background area 1018 is used for calculating the similarity.

例えば、パッチのうち背景領域1018に対応する一部が背景領域1018と同一のカラー値及び両眼視差値を有する場合、パッチは背景領域1018と同一であると見なす。したがって、前記のパッチは最適パッチとして選択されてもよい。   For example, if a part of the patch corresponding to the background area 1018 has the same color value and binocular parallax value as the background area 1018, the patch is considered to be the same as the background area 1018. Therefore, the patch may be selected as the optimum patch.

最適パッチ探索基盤ホール復元部360は、類似度を算出するためにMAD(Mean of Absolute Difference)などの方法を用いてもよい。MAD方法はカラー値及び両眼視差値を用いてもよい。   The optimal patch search base hole restoration unit 360 may use a method such as MAD (Mean of Absolute Difference) in order to calculate the similarity. The MAD method may use color values and binocular parallax values.

すなわち、複数のパッチのうち、特定のパッチとウィンドウ領域1016との間のMADが最小値である場合、最適パッチ探索基盤ホール復元部360は前記の特定のパッチを最適パッチとして選択してもよい。   That is, when the MAD between the specific patch and the window area 1016 is the minimum value among the plurality of patches, the optimal patch search base hole restoration unit 360 may select the specific patch as the optimal patch. .

最適パッチが決定されれば、最適パッチ探索基盤ホール復元部360は決定されたパッチのホール領域1020に対応する部分を用いてホール領域1020を復元する。   If the optimal patch is determined, the optimal patch search base hole restoration unit 360 restores the hole area 1020 using a portion corresponding to the hole area 1020 of the decided patch.

図11は、一例に係るパッチの重複を用いたホールの復元を説明する。   FIG. 11 illustrates hole restoration using patch duplication according to an example.

最適パッチ探索基盤ホール復元部360は特定のホールピクセル(またはホール領域)を復元するために2つ以上のパッチを用いてもよい。すなわち、最適パッチ探索基盤ホール復元部360は、互いに異なる2以上の最外郭ホールの地点に基づいて、2つ以上のウィンドウ領域1112及び1114を選択してもよい。最適パッチ探索基盤ホール復元部360は、2つのウィンドウ領域1112及び1114それぞれに対する最適パッチを探索してもよく、2つの探索されたパッチ用いてホールを復元してもよい。   The optimal patch search base hole restoration unit 360 may use two or more patches to restore a specific hole pixel (or hole area). That is, the optimal patch search base hole restoration unit 360 may select two or more window regions 1112 and 1114 based on two or more outermost hole points different from each other. The optimum patch search base hole restoration unit 360 may search for the optimum patch for each of the two window regions 1112 and 1114, or may restore the hole using the two searched patches.

2つのウィンドウ領域1112及び1114が互いにオーバラップされた場合、オーバラップされたホール領域は2つのパッチによって復元されてもよい。   If the two window areas 1112 and 1114 overlap each other, the overlapped hole area may be restored by two patches.

このような場合、最適パッチ探索基盤ホール復元部360は、2つのパッチのカラー値の平均値及び両眼視差値の平均値を用いてオーバラップされたホール領域を復元してもよい。   In such a case, the optimum patch search base hole restoration unit 360 may restore the overlapped hole region using the average value of the color values of the two patches and the average value of the binocular parallax values.

図12は、一実施形態に係る映像処理方法のフローチャートである。   FIG. 12 is a flowchart of a video processing method according to an embodiment.

映像ワーピングステップS1210において、参照ビューの映像及び前記参照ビューの映像の両眼視差情報を用いるイメージワーピングにより出力ビューの映像が生成される。緩衝区間の設定ステップS1220において、緩衝区間を設定することによって出力ビュー内で生成されたホールが拡大する。両眼視差クラック検出ステップS1230において、出力ビューの映像のうちクラックがホールに設定される。   In an image warping step S1210, an output view image is generated by image warping using the reference view image and the binocular disparity information of the reference view image. In the buffer section setting step S1220, the holes generated in the output view are enlarged by setting the buffer section. In the binocular parallax crack detection step S1230, a crack is set in the hole in the video of the output view.

隣接の映像基盤ホール復元ステップS1240において、参照ビューの映像または出力のビュー映像に時間的に隣接する1つ以上の映像を用いることによって出力ビュー内に生成されたホールが復元される。隣接のピクセルスケーリング基盤ホール復元ステップS1250において、ホールと隣接する1つ以上のピクセルをスケーリングすることによってホールが復元される。   In adjacent video-based hole restoration step S1240, holes generated in the output view are restored by using one or more videos temporally adjacent to the reference view video or the output view video. In adjacent pixel scaling base hole restoration step S1250, holes are restored by scaling one or more pixels adjacent to the holes.

最適パッチ探索基盤ホール復元ステップS1260において、ホールが含まれる領域と最も類似のパッチを背景から探索し、探索されたパッチを用いることによってホールが復元される。   In the optimum patch search base hole restoration step S1260, a patch that is most similar to the region including the hole is searched from the background, and the hole is restored by using the searched patch.

上記で図1〜図11を参照して説明された本発明の一実施形態に係る技術的内容が図12に示す映像処理方法の実施形態にそのまま適用され得る。したがって、本詳細な説明は以下では省略することにする。   The technical contents according to the embodiment of the present invention described above with reference to FIGS. 1 to 11 can be directly applied to the embodiment of the video processing method shown in FIG. Therefore, this detailed description will be omitted below.

本発明の一実施形態に係る方法は、多様なコンピュータ手段を介して様々な処理を実行することができるプログラム命令の形態で実現され、コンピュータ読取可能な記録媒体に記録されてもよい。コンピュータ読取可能な媒体は、プログラム命令、データファイル、データ構造などのうちの1つまたはその組合せを含んでもよい。媒体に記録されるプログラム命令は、本発明の目的のために特別に設計されて構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり、使用可能なものであってもよい。コンピュータ読取可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記録媒体、光ディスクのような光磁気媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置が含まれてもよい。プログラム命令の例としては、コンパイラによって生成されるような機械語コード(machine code)だけでなく、インタプリタなどを用いてコンピュータによって実行され得る高級言語コード(higher level code)を含む。上述したハードウェア装置は、本発明の動作を行うために1つ以上のソフトウェアのレイヤで動作するように構成されてもよい。   The method according to an embodiment of the present invention may be realized in the form of program instructions capable of executing various processes via various computer means and recorded on a computer-readable recording medium. The computer readable medium may include one or a combination of program instructions, data files, data structures, and the like. The program instructions recorded on the medium may be specially designed and configured for the purposes of the present invention, and are well known and usable by those skilled in the computer software art. May be. Examples of computer-readable recording media include magnetic media such as hard disks, floppy (registered trademark) disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as optical disks, and ROMs. A hardware device specially configured to store and execute program instructions, such as RAM, flash memory, etc., may be included. Examples of the program instructions include not only machine language code generated by a compiler but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate at one or more software layers to perform the operations of the present invention.

図13は一例に係る映像処理装置を含むディスプレイデバイスを示す。図13を参照すれば、マルチビューディスプレイデバイス1300は制御部1310及び映像処理装置1305を備えてもよい。   FIG. 13 shows a display device including a video processing apparatus according to an example. Referring to FIG. 13, the multi-view display device 1300 may include a control unit 1310 and a video processing device 1305.

マルチビューディスプレイデバイス1300は、3D映像を表示するための3Dディスプレイの形態を有してもよく、3つ以上の相異なる視点におけるマルチビュースキーム(scheme)を採用してもよい。選択的に、マルチビューディスプレイデバイス1300は、左側映像及び右側映像を出力する立体表示の形態を有し得る。   The multi-view display device 1300 may have a form of a 3D display for displaying a 3D image, and may employ a multi-view scheme in three or more different viewpoints. Alternatively, the multi-view display device 1300 may have a stereoscopic display form that outputs a left image and a right image.

制御部1301は、マルチビューディスプレイデバイス1300を制御するための1つ以上の制御信号を生成してもよく、マルチビューディスプレイデバイス1300によって表示される1つ以上の信号を生成してもよい。制御部1301は1つ以上のプロセッサを備えてもよい。   The control unit 1301 may generate one or more control signals for controlling the multi-view display device 1300, and may generate one or more signals displayed by the multi-view display device 1300. The control unit 1301 may include one or more processors.

映像処理装置1305は、マルチビューディスプレイデバイス1300のためのマルチビュー映像を生成するために用いられてもよく、例えば、映像ワーピング部、緩衝区間設定部、両眼視差クラック検出部、隣接映像基盤ホール復元部、隣接ピクセルスケーリング基盤ホール復元部、及び最適パッチ探索基盤ホール復元部の1つ以上を任意に備えてもよい。図13では前記のユニットは図示していない。しかし、このようなユニットのそれぞれは、例えば図3を参照して、ここで説明された類似に命名されたユニットに対応する。したがって、本実施形態においてこれ以上説明しない。   The video processing apparatus 1305 may be used to generate a multi-view video for the multi-view display device 1300. For example, a video warping unit, a buffer interval setting unit, a binocular parallax crack detection unit, an adjacent video base hall One or more of a restoration unit, an adjacent pixel scaling base hole restoration unit, and an optimum patch search foundation hole restoration unit may be optionally provided. In FIG. 13, the unit is not shown. However, each such unit corresponds to the similarly named unit described herein, for example with reference to FIG. Therefore, it will not be further described in this embodiment.

映像処理装置1305は、マルチビューディスプレイデバイス1300の中に内部的に設けられてもよく、マルチビューディスプレイデバイス1300に取付けられてもよく、マルチビューディスプレイデバイス1300とは別に実現してもよい。映像処理装置1305の物理的な構成に関係なく、映像処理装置1305は図1〜図12を参照して前述された能力を有し得る。映像処理装置1305は1つ以上の内部プロセッサを含んでもよい。または、前記の1つ以上のプロセッサは、制御部1301の1つ以上のプロセッサと共にマルチビューディスプレイデバイス1300内に含まれてもよい。   The video processing apparatus 1305 may be provided internally in the multi-view display device 1300, may be attached to the multi-view display device 1300, or may be realized separately from the multi-view display device 1300. Regardless of the physical configuration of the video processing device 1305, the video processing device 1305 may have the capabilities described above with reference to FIGS. Video processing device 1305 may include one or more internal processors. Alternatively, the one or more processors may be included in the multi-view display device 1300 together with the one or more processors of the controller 1301.

前述された3D映像装置及び方法は、多様なビデオフォーマット(format)を応用することができる。前記のビデオフォーマットはH.264/MPEG−4AVC、高効率ビデオコーディング(High Efficiency Video Coding;HEVC)、ディラック(Dirac)ビデオ圧縮フォーマット、及びVC−1等のようなフォーマットを含んでもよく、前述のフォーマットに制限されることはない。   The 3D image apparatus and method described above can apply various video formats. The video format is H.264. May include formats such as H.264 / MPEG-4AVC, High Efficiency Video Coding (HEVC), Dirac Video Compression Format, and VC-1, etc. Absent.

上述したように、本発明を限定された実施形態と図面によって説明したが、本発明は、上記の実施形態に限定されることなく、本発明が属する分野における通常の知識を有する者であれば、このような実施形態から多様な修正及び変形が可能である。   As described above, the present invention has been described with reference to the limited embodiments and drawings. However, the present invention is not limited to the above-described embodiments, and any person having ordinary knowledge in the field to which the present invention belongs can be used. Various modifications and variations are possible from such an embodiment.

したがって、本発明の範囲は、開示された実施形態に限定されるものではなく、特許請求の範囲だけではなく特許請求の範囲と均等なものなどによって定められるものである。   Accordingly, the scope of the present invention is not limited to the disclosed embodiments, but is defined not only by the claims but also by the equivalents of the claims.

300 映像処理装置
310 映像ワーピング部
340 隣接映像基盤ホール復元部
350 隣接ピクセルスケーリング基盤ホール復元部
360 最適パッチ探索基盤ホール復元部
300 Video processing device 310 Video warping unit 340 Adjacent video base hole restoration unit 350 Adjacent pixel scaling base hole restoration unit 360 Optimal patch search base hole restoration unit

Claims (41)

1つ以上のプロセッサの実行可能なユニットを制御するプロセッサと、
参照ビューの映像及び前記参照ビューの映像の両眼視差情報を用いる映像ワーピングによって出力ビューの映像を生成する映像ワーピング部と、
前記映像ワーピングに関連する映像に時間的に隣接する1つ以上の映像を用いて前記映像ワーピングによって生成されたホールを復元する隣接映像基盤ホール復元部と、
を備えることを特徴とする映像処理装置。
A processor that controls executable units of one or more processors;
A video warping unit that generates a video of an output view by video warping using binocular disparity information of a video of a reference view and the video of the reference view;
An adjacent video base hole restoration unit that restores a hole generated by the video warping using one or more videos temporally adjacent to the video related to the video warping;
A video processing apparatus comprising:
前記時間的に隣接する1つ以上の映像は前記参照ビューの映像に時間的に隣接する映像であることを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the one or more videos that are temporally adjacent are videos that are temporally adjacent to the video of the reference view. 前記時間的に隣接する1つ以上の映像は前記出力ビューの映像に時間的に隣接する映像であることを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, wherein the one or more videos that are temporally adjacent are videos that are temporally adjacent to the video of the output view. 前記隣接映像基盤ホール復元部は、前記ホール内のピクセルを復元するために前記時間的に隣接する映像内の前記ホール内の前記ピクセルに対応するピクセルのカラー値を用いることを特徴とする請求項1に記載の映像処理装置。   The adjacent image base hole restoration unit uses a color value of a pixel corresponding to the pixel in the hole in the temporally adjacent image to restore a pixel in the hole. The video processing apparatus according to 1. 前記隣接映像基盤ホール復元部は、前記参照ビューの映像及び前記時間的に隣接する映像が時間に応じて全体的に移動した場合、前記移動に基づいて前記時間的に隣接する映像内で前記ホール内の前記ピクセルに対応するピクセルを選択することを特徴とする請求項4に記載の映像処理装置。   When the reference view image and the temporally adjacent image move as a whole according to time, the adjacent image base hole restoration unit may include the hole in the temporally adjacent image based on the movement. The video processing apparatus according to claim 4, wherein a pixel corresponding to the pixel is selected. 前記隣接映像基盤ホール復元部は、前記ホール内の前記ピクセルに対応する1つ以上のホールピクセルを除くことによって取得されたピクセルを用いて前記ホールを復元することを特徴とする請求項4に記載の映像処理装置。   5. The adjacent video base hole restoration unit restores the hole using a pixel obtained by removing one or more hole pixels corresponding to the pixel in the hole. Video processing equipment. 前記隣接映像基盤ホール復元部は、前記ホール内の前記ピクセルに対応するピクセルのうち背景ピクセルのみを前記ホールを復元するために用いることを特徴とする請求項4に記載の映像処理装置。   The video processing apparatus according to claim 4, wherein the adjacent video base hole restoration unit uses only a background pixel among pixels corresponding to the pixels in the hole to restore the hole. 前記映像ワーピングによって生成されたホールを拡大する緩衝区間設定部をさらに備えることを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, further comprising a buffer section setting unit that enlarges a hole generated by the video warping. 前記緩衝区間設定部は、前記ホールに隣接する緩衝領域を前記ホールと見なすことによって前記ホールを拡大し、
前記隣接映像基盤ホール復元部は、前記ホール内の前記ピクセルが前記緩衝領域内のピクセルである場合、前記ホール内の前記ピクセルのカラー値に基づいて前記ホール内の前記ピクセルを復元することを特徴とする請求項8に記載の映像処理装置。
The buffer section setting unit enlarges the hole by regarding the buffer area adjacent to the hole as the hole,
The adjacent image base hole restoration unit restores the pixel in the hole based on a color value of the pixel in the hole when the pixel in the hole is a pixel in the buffer area. The video processing apparatus according to claim 8.
前記出力ビューの映像のうちクラックを前記ホールに設定する両眼視差クラック検出部をさらに備えることを特徴とする請求項1に記載の映像処理装置。   The video processing apparatus according to claim 1, further comprising a binocular parallax crack detection unit configured to set a crack in the hole in the video of the output view. 前記両眼視差クラック検出部は、隣接するピクセルとの両眼視差値の差の総和が予め定義された閾値よりも大きいピクセルをクラックとして検出することを特徴とする請求項10に記載の映像処理装置。   The video processing according to claim 10, wherein the binocular parallax crack detection unit detects, as a crack, a pixel in which a sum of differences between binocular parallax values from adjacent pixels is larger than a predetermined threshold. apparatus. 1つ以上のプロセッサ実行可能なユニットを制御するプロセッサと、
参照ビューの映像及び前記参照ビューの映像の両眼視差情報を用いる映像ワーピングによって出力ビューの映像を生成する映像ワーピング部と、
前記映像ワーピングによって生成されたホールを前記ホールと隣接する1つ以上のピクセルをスケーリングすることによって復元する隣接ピクセルスケーリング基盤ホール復元部と、
を備えることを特徴とする映像処理装置。
A processor that controls one or more processor-executable units;
A video warping unit that generates a video of an output view by video warping using binocular disparity information of a video of a reference view and the video of the reference view;
An adjacent pixel scaling base hole restoration unit that restores the holes generated by the image warping by scaling one or more pixels adjacent to the holes;
A video processing apparatus comprising:
前記隣接ピクセルスケーリング基盤ホール復元部は、前記1つ以上のピクセルのうち1つ以上の背景ピクセルをスケーリングすることを特徴とする請求項12に記載の映像処理装置。   The image processing apparatus of claim 12, wherein the adjacent pixel scaling base hole restoration unit scales one or more background pixels of the one or more pixels. 前記ホール及び前記1つ以上のピクセルは同一の水平線上にあることを特徴とする請求項12に記載の映像処理装置。   The video processing apparatus of claim 12, wherein the hole and the one or more pixels are on the same horizontal line. 前記隣接ピクセルスケーリング基盤ホール復元部は、前記ホールに隣接する背景ピクセルの勾配と垂直方向に前記1つ以上のピクセルをスケーリングし、前記背景ピクセルは前記1つ以上のピクセルのうち1つのピクセルであることを特徴とする請求項12に記載の映像処理装置。   The adjacent pixel scaling base hole restoration unit scales the one or more pixels in a direction perpendicular to a gradient of a background pixel adjacent to the hole, and the background pixel is one pixel of the one or more pixels. The video processing apparatus according to claim 12. 1つ以上のプロセッサの実行可能なユニットを制御するプロセッサと、
参照ビューの映像及び前記参照ビューの映像の両眼視差情報を用いる映像ワーピングによって出力ビューの映像を生成する映像ワーピング部と、
前記映像ワーピングによって生成されたホールが含まれる領域と最も類似のパッチを背景から探索し、前記探索されたパッチを用いることによって前記ホールを復元する最適パッチ探索基盤ホール復元部と、
を備えることを特徴とする映像処理装置。
A processor that controls executable units of one or more processors;
A video warping unit that generates a video of an output view by video warping using binocular disparity information of a video of a reference view and the video of the reference view;
Search for a patch that is most similar to a region including a hole generated by the video warping from a background, and use the searched patch to restore the hole by using an optimum patch search base hole restoration unit;
A video processing apparatus comprising:
前記ホールが含まれる領域はホール領域及び背景領域に構成され、
前記最適パッチ探索基盤ホール復元部は、前記探索されたパッチのうち前記ホール領域に対応する部分を用いて前記ホール領域を復元することを特徴とする請求項16に記載の映像処理装置。
The region including the hole is composed of a hole region and a background region,
The video processing apparatus according to claim 16, wherein the optimum patch search base hole restoration unit restores the hole area using a portion corresponding to the hole area in the searched patches.
前記最適パッチ探索基盤ホール復元部は第1領域のための第1パッチを探索し、第2領域のための第2パッチを探索し、前記第1パッチ及び前記第2パッチの平均値を用いて前記第1領域及び前記第2領域で重なるホールの部分を復元することを特徴とする請求項16に記載の映像処理装置。   The optimal patch search base hole restoration unit searches for a first patch for a first region, searches for a second patch for a second region, and uses an average value of the first patch and the second patch. The video processing apparatus according to claim 16, wherein a hole portion overlapping in the first region and the second region is restored. プロセッサによって参照ビューの映像の両眼視差情報に基づいて前記参照ビューの映像をイメージワーピングすることで出力ビューの映像を生成する映像ワーピングステップと、
前記映像ワーピングに関連する映像に時間的に隣接する1つ以上の映像を用いて前記出力ビュー内に生成されたホールを復元する隣接の映像基盤ホール復元ステップと、
を含むことを特徴とする映像処理方法。
A video warping step of generating an output view video by image warping the reference view video based on binocular disparity information of the reference view video by a processor;
An adjacent video-based hole restoration step of restoring holes generated in the output view using one or more videos temporally adjacent to the video related to the video warping;
A video processing method comprising:
前記時間的に隣接する映像は、前記参照ビューの映像に時間的に隣接する1つ以上の映像であることを特徴とする請求項19に記載の映像処理方法。   The video processing method according to claim 19, wherein the temporally adjacent video is one or more videos temporally adjacent to the reference view video. 前記時間的に隣接する映像は、前記出力ビューの映像に時間的に隣接する1つ以上の映像であることを特徴とする請求項19に記載の映像処理方法。   The video processing method according to claim 19, wherein the temporally adjacent video is one or more videos temporally adjacent to the video of the output view. 前記ホールを拡大する緩衝区間の設定ステップと、
前記出力ビューの映像のうちクラックを前記ホールに設定する両眼視差クラック検出ステップと、
をさらに含むことを特徴とする請求項19に記載の映像処理方法。
A step of setting a buffer section for enlarging the hole;
A binocular parallax crack detection step of setting a crack in the hole in the video of the output view;
The video processing method according to claim 19, further comprising:
前記ホールを前記ホールと隣接する1つ以上のピクセルをスケーリングすることによって復元する隣接のピクセルスケーリング基盤ホール復元ステップと、
前記ホールが含まれる領域と最も類似のパッチを背景から探索し、前記探索されたパッチを用いることによって前記ホールを復元する最適パッチ探索基盤ホール復元ステップと、
をさらに含むことを特徴とする請求項19に記載の映像処理方法。
An adjacent pixel scaling base hole restoration step for restoring the hole by scaling one or more pixels adjacent to the hole;
Search for a patch that is most similar to the region including the hole from the background, and use the searched patch to restore the hole by using an optimum patch search base hole restoration step;
The video processing method according to claim 19, further comprising:
請求項19〜請求項23のいずれか一項の方法を行うプログラムを収録したコンビュータで読み出し可能な記録媒体。   24. A recording medium readable by a computer that stores a program for performing the method according to any one of claims 19 to 23. 1つ以上のプロセッサの実行可能なユニットを制御するプロセッサと、
参照ビューの映像及び前記参照ビューの映像の両眼視差情報に基づいて出力ビューの映像を生成する映像生成部と、
前記生成に関連する映像に時間的に隣接する1つ以上の映像の背景情報を用いて前記生成された出力ビューの映像内のホールを復元する隣接映像基盤ホール復元部であって、前記ホールは前記出力ビューの生成の結果として生成される、隣接映像基盤ホール復元部と、
を備えることを特徴とするマルチビュー生成装置。
A processor that controls executable units of one or more processors;
A video generation unit that generates a video of an output view based on video of a reference view and binocular disparity information of the video of the reference view;
An adjacent video base hole restoration unit that restores a hole in the video of the generated output view using background information of one or more videos temporally adjacent to the video related to the generation, An adjacent video base hole restoration unit generated as a result of generating the output view;
A multi-view generation apparatus comprising:
前記時間的に隣接する1つ以上の映像は、前記参照ビューの映像に時間的に隣接する映像であることを特徴とする請求項25に記載のマルチビュー生成装置。   The multi-view generation apparatus according to claim 25, wherein the one or more videos that are temporally adjacent are videos that are temporally adjacent to the video of the reference view. 前記時間的に隣接する1つ以上の映像は、前記出力ビューの映像に時間的に隣接する映像であることを特徴とする請求項25に記載のマルチビュー生成装置。   26. The multi-view generation apparatus according to claim 25, wherein the one or more videos that are temporally adjacent are videos that are temporally adjacent to the video of the output view. 前記映像生成部は、前記参照ビューからデータを内挿または外挿することによって前記出力ビューの映像を生成することを特徴とする請求項25に記載のマルチビュー生成装置。   The multi-view generation apparatus according to claim 25, wherein the video generation unit generates the video of the output view by interpolating or extrapolating data from the reference view. 1つ以上のプロセッサの実行可能なユニットを制御するプロセッサと、
少なくとも1つの参照ビューの映像に基づいて出力ビューの映像を生成する映像生成部と、
前記生成された出力ビューの映像の予め定義されたオブジェクト内のクラックを検出する両眼視差クラック検出部であって、前記予め定義されたオブジェクトは、前記予め定義されたオブジェクトの相異なる部分に割り当てられた異なる両眼視差値をもって、前記クラックは前記少なくとも1つの参照ビューの映像に基づいて前記出力ビューの映像を生成したことに起因して前記予め定義されたオブジェクト内に発生する、両眼視差クラック検出部と、
前記クラックをホールとして再び割り当て、前記生成に関連する映像に時間的に隣接する1つ以上のフレームの背景情報を用いることによって前記生成された出力ビューの映像の現在のフレーム内に存在する前記ホールを復元するマルチビュー生成部と、
を備えることを特徴とするマルチビュー生成装置。
A processor that controls executable units of one or more processors;
A video generation unit that generates an output view video based on at least one reference view video;
A binocular parallax crack detection unit for detecting a crack in a predefined object of the generated video of the output view, wherein the predefined object is assigned to a different part of the predefined object Binocular parallax that occurs in the predefined object due to the crack generating the video of the output view based on the video of the at least one reference view with different binocular parallax values determined A crack detection unit;
Reassigning the crack as a hole and using the background information of one or more frames temporally adjacent to the video associated with the generation, the hole present in the current frame of the generated output view video A multi-view generator that restores
A multi-view generation apparatus comprising:
前記時間的に隣接する1つ以上のフレームは、前記参照ビューの映像に時間的に隣接するフレームであることを特徴とする請求項29に記載のマルチビュー生成装置。   30. The multi-view generation apparatus according to claim 29, wherein the one or more frames that are temporally adjacent are frames that are temporally adjacent to the video of the reference view. 前記時間的に隣接する1つ以上のフレームは、前記出力ビューの映像に時間的に隣接するフレームであることを特徴とする請求項29に記載のマルチビュー生成装置。   The multi-view generation apparatus according to claim 29, wherein the one or more frames that are temporally adjacent are frames that are temporally adjacent to the video of the output view. 前記両眼視差クラック検出部は、隣接するピクセルとの両眼視差値の差の総和が予め定義された閾値よりも大きいピクセルをクラックとして検出することを特徴とする請求項29に記載のマルチビュー生成装置。   30. The multi-view according to claim 29, wherein the binocular parallax crack detection unit detects, as a crack, a pixel in which a sum of differences in binocular parallax values from adjacent pixels is larger than a predetermined threshold. Generator. 前記時間的に隣接するフレームは、少なくとも1つの時間的に前記現在のフレームの以前に発生したフレーム及び前記現在のフレームの以後に発生したフレームであることを特徴とする請求項29に記載のマルチビュー生成装置。   30. The multi of claim 29, wherein the temporally adjacent frames are at least one temporally generated frame before the current frame and a frame generated after the current frame. View generator. プロセッサによって少なくとも1つの参照ビューの映像に基づいて出力ビューの映像を生成するステップと、
前記生成された出力ビューの映像の予め定義されたオブジェクト内のクラックを検出するステップであって、前記予め定義されたオブジェクトは、前記予め定義されたオブジェクトの相異なる部分に割り当てられた異なる両眼視差値をもって、前記クラックは前記少なくとも1つの参照ビューの映像に基づいて前記出力ビューの映像を生成したことに起因して前記予め定義されたオブジェクト内に発生する、ステップと、
前記クラックをホールとして再び割り当て、前記生成に関連する映像に時間的に隣接する1つ以上のフレームの背景情報を用いることによって前記生成された出力ビューの映像の現在のフレーム内に存在する前記ホールを復元するステップと、
を含むことを特徴とするマルチビュー生成方法。
Generating an output view video based on the at least one reference view video by a processor;
Detecting cracks in a predefined object of the generated video of the output view, wherein the predefined object is a different binocular assigned to a different part of the predefined object With the disparity value, the crack occurs in the predefined object due to generating the output view video based on the at least one reference view video; and
Reassigning the crack as a hole and using the background information of one or more frames temporally adjacent to the video associated with the generation, the hole present in the current frame of the generated output view video Step to restore,
A multi-view generation method comprising:
前記時間的に隣接する1つ以上のフレームは、前記参照ビューの映像に時間的に隣接するフレームであることを特徴とする請求項34に記載のマルチビュー生成方法。   35. The multi-view generation method according to claim 34, wherein the one or more frames that are temporally adjacent are frames that are temporally adjacent to the video of the reference view. 前記時間的に隣接する1つ以上のフレームは、前記出力ビューの映像に時間的に隣接するフレームであることを特徴とする請求項34に記載のマルチビュー生成方法。   35. The multi-view generation method according to claim 34, wherein the one or more frames that are temporally adjacent are frames that are temporally adjacent to the video of the output view. 隣接するピクセルとの両眼視差値の差の総和が予め定義された閾値よりも大きいピクセルがクラックとして検出されることを特徴とする請求項34に記載のマルチビュー生成方法。   35. The multi-view generation method according to claim 34, wherein pixels having a sum of differences in binocular parallax values from adjacent pixels larger than a predetermined threshold are detected as cracks. 前記時間的に隣接するフレームは、少なくとも1つの時間的に前記現在のフレームの以前に発生したフレーム及び前記現在のフレームの以後に発生したフレームであることを特徴とする請求項34に記載のマルチビュー生成方法。   The multi-frame according to claim 34, wherein the temporally adjacent frames are at least one temporally generated frame before the current frame and a frame generated after the current frame. View generation method. 映像処理装置を備えるディスプレイデバイスにおいて、
参照ビューの映像及び前記参照ビューの映像の両眼視差情報に基づいて出力ビューの映像を生成する映像ワーピング部と、
前記生成に関連する映像に時間的に隣接する1つ以上の映像を用いてホールを復元する隣接映像基盤ホール復元部であって、前記ホールは前記出力ビューを生成することによって生成される、隣接映像基盤ホール復元部と、
前記隣接映像基盤ホール復元部によって復元された前記ホールを有する前記生成された出力ビューの映像に基づいて前記ディスプレイデバイスによって表示される信号を生成する制御部と、
を備える映像処理装置を備えることを特徴とするディスプレイデバイス。
In a display device comprising a video processing device,
A video warping unit that generates an output view video based on a reference view video and binocular disparity information of the reference view video;
An adjacent video-based hole restoration unit that restores a hole using one or more videos temporally adjacent to the video related to the generation, wherein the holes are generated by generating the output view. Image base hall restoration department,
A control unit for generating a signal to be displayed by the display device based on the generated video of the output view having the hole restored by the adjacent video base hole restoration unit;
A display device comprising: a video processing apparatus comprising:
前記時間的に隣接する1つ以上の映像は、前記参照ビューの映像に時間的に隣接する映像であることを特徴とする請求項39に記載のディスプレイデバイス。   40. The display device of claim 39, wherein the one or more videos that are temporally adjacent are videos that are temporally adjacent to the video of the reference view. 前記時間的に隣接する1つ以上の映像は、前記出力ビューの映像に時間的に隣接する映像であることを特徴とする請求項39に記載のディスプレイデバイス。   40. The display device of claim 39, wherein the one or more temporally adjacent videos are temporally adjacent videos of the output view.
JP2013549367A 2011-01-13 2012-01-12 Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching Active JP6173218B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20110003658 2011-01-13
KR10-2011-0003658 2011-01-13
KR10-2011-0142432 2011-12-26
KR1020110142432A KR101960852B1 (en) 2011-01-13 2011-12-26 Apparatus and method for multi-view rendering using background pixel expansion and background-first patch matching
PCT/KR2012/000299 WO2012096530A2 (en) 2011-01-13 2012-01-12 Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching

Publications (2)

Publication Number Publication Date
JP2014515197A true JP2014515197A (en) 2014-06-26
JP6173218B2 JP6173218B2 (en) 2017-08-02

Family

ID=46714172

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013549367A Active JP6173218B2 (en) 2011-01-13 2012-01-12 Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching

Country Status (3)

Country Link
JP (1) JP6173218B2 (en)
KR (1) KR101960852B1 (en)
CN (1) CN102985949B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015534766A (en) * 2012-09-24 2015-12-03 サムスン エレクトロニクス カンパニー リミテッド Multi-view video generation method and multi-view video display device
JP2016100901A (en) * 2014-11-25 2016-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. Image processing method and apparatus
JP2017050866A (en) * 2015-09-01 2017-03-09 三星電子株式会社Samsung Electronics Co.,Ltd. Image processing method and apparatus
JP2020005202A (en) * 2018-06-29 2020-01-09 日本放送協会 Video processing device

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102156410B1 (en) * 2014-04-14 2020-09-15 삼성전자주식회사 Apparatus and method for processing image considering motion of object
CN106060511B (en) * 2016-06-17 2018-11-16 浙江工商大学 Three-dimensional video-frequency complementing method and system based on depth map
KR102608466B1 (en) 2016-11-22 2023-12-01 삼성전자주식회사 Method and apparatus for processing image
KR102641163B1 (en) * 2018-11-29 2024-02-28 삼성전자주식회사 Image processing apparatus and image processing method thereof
US20200296401A1 (en) * 2019-03-15 2020-09-17 Mediatek Inc. Method and Apparatus of Patch Segmentation for Video-based Point Cloud Coding

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253422A (en) * 1999-03-03 2000-09-14 Toshiba Corp Method for generating three-dimensionall image from two-dimensional image
WO2011033668A1 (en) * 2009-09-18 2011-03-24 株式会社 東芝 Parallax image creation device
JP2011512717A (en) * 2008-01-24 2011-04-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and image processing device for hole filling
WO2011096252A1 (en) * 2010-02-02 2011-08-11 コニカミノルタホールディングス株式会社 Image processing system, image processing method, and program
JP2012120109A (en) * 2010-12-03 2012-06-21 Toshiba Corp Parallax image generating apparatus, stereoscopic video display apparatus, and parallax image generating method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7362799B1 (en) * 2002-06-27 2008-04-22 Arraycomm Llc Method and apparatus for communication signal resolution
US7292257B2 (en) * 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
EP1672460B1 (en) * 2004-12-15 2009-11-25 STMicroelectronics (Research & Development) Limited Computer user detection apparatus
KR100590025B1 (en) * 2004-12-30 2006-06-14 전자부품연구원 Method and device for synthesizing intermediate images in a multi-view square camera based display system
US7548659B2 (en) * 2005-05-13 2009-06-16 Microsoft Corporation Video enhancement
US7570812B2 (en) * 2005-11-01 2009-08-04 Samsung Electronics Co., Ltd. Super precision for smoothly changing area based on segmentation and low-pass filtering
CN101282492B (en) * 2008-05-23 2010-07-21 清华大学 Method for regulating display depth of three-dimensional image
CN102239506B (en) * 2008-10-02 2014-07-09 弗兰霍菲尔运输应用研究公司 Intermediate view synthesis and multi-view data signal extraction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253422A (en) * 1999-03-03 2000-09-14 Toshiba Corp Method for generating three-dimensionall image from two-dimensional image
JP2011512717A (en) * 2008-01-24 2011-04-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and image processing device for hole filling
WO2011033668A1 (en) * 2009-09-18 2011-03-24 株式会社 東芝 Parallax image creation device
WO2011096252A1 (en) * 2010-02-02 2011-08-11 コニカミノルタホールディングス株式会社 Image processing system, image processing method, and program
JP2012120109A (en) * 2010-12-03 2012-06-21 Toshiba Corp Parallax image generating apparatus, stereoscopic video display apparatus, and parallax image generating method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015534766A (en) * 2012-09-24 2015-12-03 サムスン エレクトロニクス カンパニー リミテッド Multi-view video generation method and multi-view video display device
JP2016100901A (en) * 2014-11-25 2016-05-30 三星電子株式会社Samsung Electronics Co.,Ltd. Image processing method and apparatus
JP2017050866A (en) * 2015-09-01 2017-03-09 三星電子株式会社Samsung Electronics Co.,Ltd. Image processing method and apparatus
JP7004493B2 (en) 2015-09-01 2022-01-21 三星電子株式会社 Video processing method and equipment
JP2020005202A (en) * 2018-06-29 2020-01-09 日本放送協会 Video processing device
JP7202087B2 (en) 2018-06-29 2023-01-11 日本放送協会 Video processing device

Also Published As

Publication number Publication date
CN102985949B (en) 2016-10-26
KR101960852B1 (en) 2019-03-22
JP6173218B2 (en) 2017-08-02
KR20120082336A (en) 2012-07-23
CN102985949A (en) 2013-03-20

Similar Documents

Publication Publication Date Title
JP6173218B2 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
EP2477158B1 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
KR101419979B1 (en) Method and system for converting 2d image data to stereoscopic image data
JP5156837B2 (en) System and method for depth map extraction using region-based filtering
JP5153940B2 (en) System and method for image depth extraction using motion compensation
EP2291825B1 (en) System and method for depth extraction of images with forward and backward depth prediction
KR101502362B1 (en) Apparatus and Method for Image Processing
JP4658223B2 (en) Image generating method, apparatus, program thereof, and recording medium recording program
US8634675B2 (en) Apparatus and method for generating extrapolated view based on image resizing
US8803947B2 (en) Apparatus and method for generating extrapolated view
US9747690B2 (en) Image processing device, image processing method, and program
US9661307B1 (en) Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
JP4892113B2 (en) Image processing method and apparatus
JP2011081605A (en) Image processing apparatus, method and program
JP2007053621A (en) Image generating apparatus
JP2000253422A (en) Method for generating three-dimensionall image from two-dimensional image
KR100943635B1 (en) Method and apparatus for generating disparity map using digital camera image
KR101125061B1 (en) A Method For Transforming 2D Video To 3D Video By Using LDI Method
JP5627498B2 (en) Stereo image generating apparatus and method
JP2014072809A (en) Image generation apparatus, image generation method, and program for the image generation apparatus
US9380285B2 (en) Stereo image processing method, stereo image processing device and display device
JP2015033047A (en) Depth estimation device employing plural cameras
US20130229408A1 (en) Apparatus and method for efficient viewer-centric depth adjustment based on virtual fronto-parallel planar projection in stereoscopic images
JP2012173858A (en) Omnidirectional image generation method, image generation device and program
Wei et al. Iterative depth recovery for multi-view video synthesis from stereo videos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20160509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170704

R150 Certificate of patent or registration of utility model

Ref document number: 6173218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250